Fundación CTIC

Archivo etiqueta catálogos

El Ayuntamiento de Gijón incorpora 227 nuevos conjuntos de datos a su Catálogo Open Data

El Ayuntamiento de Gijón acaba de publicar en su Catálogo de Datos Abiertos (datos.gijón.es/set) 227 nuevos conjuntos de datos, convirtiéndose así en una de las iniciativas Open Data locales de España que más cantidad (424 datasets) y variedad de datos ofrece para su libre reutilización.

En concreto los nuevos conjuntos de datos publicados son los siguientes:

Nombre del grupo de conjuntos de datos Nuevos
Actividades TECREA 2
Arbolado viario 1
Bienes histórico artísticos 2
Calidad del aire (años 2000-2013) 17
Calles de Gijón y números 2
Caudales captados (año 2013) 1
Censo de perros potencialmente peligrosos 1
Contenedores y puntos limpios 4
Edificios municipales urbanos y rurales 2
Elecciones (años 1977-2012) 20
Empleados del Ayuntamiento y O.O.A.A. 6
Empresas ubicadas en residencias empresariales municipales 1
Estado de ejecución presupuestaria 11
Fincas por código postal 1
Hemeroteca 1
IAE (años 2008-2012) 5
Licencias de Instalación de Terrazas 1
Licencias de Obras Menores 4
Mapa de ruido (año 2009) 7
Obras Conservación Viaria 2
Ordenes Mantenimiento de Alumbrado 2
Padrón de habitantes (años 2012 – 2013) 49
Pluviómetros (años 2005 – 2013) 1
Potencias eléctricas contratadas en los edificios municipales 1
Presupuesto 2013 8
Padrón de vehículos (años 2005-2012) 64
Puntos de recarga de vehículos eléctricos 1
Tarjeta ciudadana 3
Terrenos municipales 2
Vehículos municipales y en modalidad Renting 2
Zonas de juegos y para perros sueltos 3
Total de conjuntos de datos individuales añadidos: 227
Total de conjuntos de datos en el catálogo*: 424

Es importante resaltar que todos los conjuntos de datos no históricos tienen una actualización constante y de forma automática, que se produce según la frecuencia de actualización indicada en su ficha descriptiva. En muchos casos se produce diariamente, pero para algunos conjuntos de datos la actualización es incluso menor: cada hora o menos.

También con esta nueva incorporación de conjuntos de datos al catálogo se ha incrementado el número y tipo de formatos ofrecidos, añadiendo a los conocidos CSV, JSON, XML y RDF otros como geoRSS, y Excel entre otros.

Según nos indican fuentes del Ayuntamiento, siguen preparando nuevos conjuntos de datos que publicarán durante este año 2013.

A fecha de publicación de esta noticia.

, ,

1 Comentario

Salimos de viaje: tú a Latinoamérica y yo a Africa

El mes de Mayo está cargado de eventos y hemos sido invitados a participar en varios de ellos, algunos por España, pero muchos fuera de España. Es un placer para nosotros poder llevar el #opendata allende nuestras fronteras.

Escribo este post desde el hotel en Adís Abeba (Etiopía) donde me encuentro para participar en un evento de la ONU. Nuestro CTO, Carlos de la Fuente, se encuentra en Latinoamérica para participar en dos eventos y reuniones de alto nivel en varios países. Seguro que ya lo habíais deducido desde el título del post…

Los sitios donde nos podréis encontrar en las próximas semanas son los siguientes:

Eso es todo por ahora. Si estáis pensando en asistir a alguno de ellos, sería una buena ocasión para encontarnos, no os olvidéis de saludar.

, , , , , ,

1 Comentario

The Open Government Data Catalog is Now Collaborative

New OGD Initiative Entry Form

New OGD Initiative Entry Form

We are pleased to announce the new features of the Repository of Open Government Data Catalogs. Until now, only the Open Data initiatives led by either governments or public agencies have been published. Now, any public sector information catalog (managed by citizen movements, transparency commissions, NGOs, and other institutions) is welcomed. The only requirement is that those catalogs must contain public sector information.

Furthermore, we have automatized the catalog. Up to date, our catalog was maintained by hand, and when we found new initiatives we typed the meta-information in RDF, and it was submitted to our triplestore. Now, anyone may contribute submitting new catalogs using a simple form. Also, if a mistake or inaccuracy in any of the catalog entries is detected, it can be updated with the right information. Anyone may update the information selecting the marker on the map, and clicking the link “update it”.

How Does the Catalog Work?

The process of a new entry creation is simple:

  1. A nonexistent Open Government Data initiative is launched
  2. This initiative/catalog is defined using some metadata (title, description, issued date, location, etc.) by the form. The location info (latitude, longitude, name, etc.) is got from a Geonames service, so be careful with the jurisdiction of the initiative (is a city?, a state?, a nation?,…)
  3. The metadata are modeled in RDF triples, and we receive an alert
  4. We check that the RDF code is right to avoid spam, and to assure the location is correct.
  5. The new entry is available in the triplestore, and its marker on the map

If you detect a typo or mistake in any entry, please let us know using a similar form, after clicking on the link titled as “update it” in the balloon with the information of the initiative to modify. The update process is the same as the creation one, we will moderate the changes to avoid spam or inaccuracies. Spam entries will be rejected.

Link to update the information

Link to update the information

, , ,

No hay Comentarios

“Open Government Data” On the Rise All Over the World

Screenshot of Public Dataset Catalog Faceted Browser

Public Dataset Catalog Faceted Browser

The number of public dataset catalogs has risen since the publication of our first post, which announced a classification of these collections of public datasets. Approximately, this occurred a year ago, when there were barely a dozen of entries registered. Since then, we have continued feeding the catalog using the original form (in RDF), and now there are almost 50 entries included in it.

In order to visualize the catalog we have developed a simple faceted browser, using Exhibit, where the datasets catalogs may be located on a map, and filtered according to different facets: spatial coverage, country, and maturity of the initiative. This application uses data from the triple-store through the SPARQL endpoint, and the geographical information (name of places, coordinates, etc.) comes from the Geonames database.

Catalogs are represented by different colors which shows the status or level of maturity, based on the 5-star classification of the Linked Government Data:

  • ( ) Announced. The catalog has been announced, and there is an initiative involved.
  • (★) Stuff published. Any data has been published.
  • (★★) Structured Data. Data published in structured formats (e.g., Excel format)
  • (★★★) Open formats. Data published in non-proprietary formats (e.g., CSV, XML format)
  • (★★★★) RDF Data. Data in RDF format
  • (★★★★★) Linked Data. Data in RDF linked with other data on the Web.

This catalog is maintained and updated periodically. If you have any comments or if you are aware of more catalogs, please let us know.

, ,

1 Comentario

Reutilización de datos desde una aplicación Java

El uso de estándares abiertos para la publicación de datos permite que, sea cual sea la tecnología utilizada, se puedan crear de forma sencilla aplicaciones o mashups que aprovechen y combinen la información disponible. En posts anteriores hemos comentado los pasos a seguir para desarrollar una aplicación que se alimente de datos públicos, hoy vamos a ver como realizar esto utilizando la tecnología Java.

Descripción del ejemplo

Desarrollo de una aplicación web Java que liste los catálogos de datos públicos disponibles y genere un mapa señalando su localización. El listado de catálogos se obtendrá realizando una consulta a un SPARQL endpoint.

Tecnologías necesarias

  • Jena: Ofrece una API que permite trabajar y realizar consultas sobre modelos o grafos RDF.
  • ARQ: Entre otras cosas, su API permite realizar consultas a servicios SPARQL remotos.

Implementación

Paso 1: Se define la consulta SPARQL que devuelve el conjunto de datos que necesitamos y se ejecuta contra el SPARQL endpoint:


QueryExecution qe = QueryExecutionFactory.sparqlService(sparql_enpoint_uri, query);
ResultSet rs= qe.execSelect();

La consulta que se ha ejecutado es:

prefix ds: <http://data.fundacionctic.org/vocab/catalog/datasets#>
prefix  dcterms: <http://purl.org/dc/terms/>
prefix rdfs: <http://www.w3.org/2000/01/rdf-schema#>
prefix foaf: <http://xmlns.com/foaf/0.1/>  
SELECT * FROM <http://data.fundacionctic.org/dataset-catalog>
WHERE {
 ?catalog a ds:Catalog;
 dcterms:spatial ?uriGeonames;
 dcterms:description ?description;
 rdfs:label ?name;
 foaf:homepage ?homepage.
 FILTER langMatches( lang(?name), 'es' )
 FILTER langMatches( lang(?description), 'es' )
}

Este es el SPARQL endpoint sobre el que se ha ejecutado la consulta.

Paso 2: Una vez obtenidos los datos se recorre el conjunto de resultados y para cada uno de ellos se recupera su nombre, descripción, URL de su homepage y el identificador del recurso de Geonames que indica su localización.

A continuación se obtienen los datos del recurso de Geonames para obtener los valores necesarios para la geolocalización:


Model m = ModelFactory.createDefaultModel();
m.read(uri_geonames_resource);
// creación de las propiedades para obtener la latitud y la longitud
Property lat = m.createProperty("http://www.w3.org/2003/01/geo/wgs84_pos#", "lat");
Property lon = m.createProperty("http://www.w3.org/2003/01/geo/wgs84_pos#", "long");
// obtención del valor de las propiedades
Resource geoName = m.getResource(uriResource);
lat= geoName.getProperty(lat);
lon= geoName.getProperty(lon);

Paso 3: Se muestra el listado de catálogos y se crea un mapa utilizando la API Javascript de GoogleMaps en el que se muestra su localización.


var map = new GMap2(document.getElementById("map"));
map.setCenter( new GLatLng(0,0), 1);
// para cada punto se genera un "marker"
var point= new GLatLng( lat, lon );
map.addOverlay(marker);

En estos tres sencillos pasos se ha implementado una aplicación que combina recursos remotos para obtener datos y genera una visualización en un mapa. Este es el resultado obtenido

, , , ,

No hay Comentarios

Disponibles los catálogos de datasets del sector público en RDF

Ya se pueden consultar los catálogos de conjuntos de datos del sector público accesibles desde nuestro SPARQL endpoint. Todos los catálogos están definidos a través de vocabularios estándar como Dublin Core o FOAF y para la representación concreta de cada uno de ellos se utiliza una instancia de la clase http://data.fundacionctic.org/vocab/catalog/datasets#Catalog.

Para más información, consulta el esquema RDF del Vocabulario de Catálogos de Datasets.

Ejemplo de consulta SPARQL

Para visualizar las tripletas RDF de todos los catálogos disponibles, puede hacerse la siguiente llamada sobre el SPARQL endpoint:


prefix cat:<http://data.fundacionctic.org/vocab/catalog/datasets#>
select *
from <http://data.fundacionctic.org/dataset-catalog>
where
{
  ?sujeto a cat:Catalog;
        ?predicado ?objeto.
}

Tras hacer la consulta en el SPARQL endpoint, se obtendrían las tripletas de cada uno de los catálogos (en HTML).

Visualización de los catálogos

Estos resultados pueden ser tratados por cualquier aplicación para construir el catálogo según las necesidades específicas. Hemos construido un simple ejemplo donde se muestra un listado de todos los catálogos de datasets del sector público (en inglés) almacenados. Nótese que se genera instantáneamente haciendo llamadas a Geonames para enriquecer los resultados, por lo que tiene cierto tiempo de carga.

Si tienes constancia de algún catálogo de datasets de información del sector público que no esté incluido, envíanos un correo a opendata@fundacionctic.org y lo incluiremos en la base de datos.

, , , ,

No hay Comentarios