API per l'elenco dei comuni italiani

Trovo abbastanza spiacevole che centinaia di programmatori ed aziende abbiano dovuto e debbano affrontare questa problematica con relativo impiego di risorse, anche perchè una soluzione centralizzata sarebbe relativamente semplice da realizzare.

In ogni caso l’approccio di Enrico Candino mi pare adatto, ma penso che una soluzione completa debba trattare anche i dati storici e permettere la ricerca per provincia.

Credo che la cosa derivi semplicemente dal fatto che i comuni sono una cosa che cambia davvero in maniera sporadica, e che sia più semplice e meno oneroso distribuire un csv.

Le possibilità di ricerca saranno complete, si tratta di pochi dati e non credo che le chiamate saranno moltissime. Ieri ho pubblicato il servizio su AWS per provare, mi manca da pulire un po’ il codice e ci siamo.

Nella tabella di riferimento usata per l’ANPR ci sono più di 19000 righe, mentre i comuni attuali sono circa 8000, quindi le modifiche non sono poi così sporadiche, e sono stato testimone diretto di, per esempio, problemi con i comuni cessati perchè non più italiani.
Ma ovviamente dipende dai casi d’uso che si vuole coprire.
Una soluzione centralizzata dovrebbe essere progettata per coprire tutti i casi d’uso, mentre inevitabilmente le soluzioni che tanti, me compreso, hanno sviluppato avevano l’obiettivo di risolvere soltanto il proprio problema, nel minore tempo possibile.

Nella tabella di riferimento ci sono alcune righe decisamente superflue, in cui la differenza è solo la valorizzazione del campo id_ prefettura che in uno dei due casi è null. Esempio

2310 10/07/1947 15/04/1981 082024 C135 CASTELLANA SICULA
16866 16/04/1981 31/12/9999 082024 C135 CASTELLANA SICULA

Prima di renderla fruibile come servizio rest va prima sistemata a mio avviso.
Sconsiglio a tutti poi di affidarsi alle semplici tabelle ISTAT. L’istat ha riutilizzato i codici dei comuni in alcuni periodi storici, creando un problemino… :astonished:

Sono l’ultimo arrivato e come tale ho il vantaggio di aver letto tutti i vostri messaggi.
Sono due anni che corro dietro all’aggiornamento costante di comuni, province e regioni con relativi codici e coordinate geografiche.
Un aneddoto per tutti: avevo appena aggiornato tutti i comuni delle 4 province sarde georeferenziando tutte le scuole di ogni singolo comune e…tac, spariscono le 4 nuove province e mi riorganizzano tutti i comuni nelle attuali 5 province, compreso il Sud Sardegna. Veramente stressante !

Comunque io utilizzo i file Istat (csv e shape con QGis), il sito Tuttitalia.it aggiornatissimo anche sulla storia e sulle modifiche dei singoli comuni, comprese le coordinate geografiche e l’indicatore di rischio sismico che ho associato ad ogni singola scuola di ogni comune. Inoltre, con un collega, abbiamo aggiornato le coordinate mancanti utilizzando GoogleMaps con gli indirizzi delle scuole (almeno quelli ufficiali)

Il tutto lo utilizzo in Qlik Sense e Qlik Maps per organizzare, correggere, visualizzare, analizzare e creare Datastory tutto all’interno dello stesso prodotto.

Buon weekend a tutti e a presto

P.S. Se riuscissimo tramite il DAF ad avere un unica risorsa aggiornata per i dati territoriali eviteremmo tutti un pò del nostro stress…

2 Mi Piace

Salve a tutti.
Non proprio tempestivo come intervento, ma mi permetto di segnalare comunque http://www.gerriquez.com/wp/
Sono benvenuti suggerimenti e/o correzioni :smile:

I dati di base sono quelli dell’ISTAT. Il tutto è aggiornato al 1 giugno 2018 (data dell’ultima variazione riportata dall’ISTAT).

Giampaolo

3 Mi Piace

La tabella è completa dal punto di vista storico e i record doppi apparentemente inutili, sono in genere variazioni di territorio.

Esempio a caso: nel 1937 il Comune di Borgo Panigale viene assorbito da Bologna. Vedrete due record per Bologna apparentemente identici con la variazione nel 1937, causata da questa variazione territoriale.

Per Borgo Panigale io trovo una sola riga :astonished:, comunque provo a cogliere il suggerimento.
Non dico che non abbiano senso in assoluto, un motivo sicuramente c’è per ognuno dei casi, ma limitatamente all’utilizzo che ne faranno gli enti locali mi domando il senso.
E’ pur vero che in fase di inserimento ad una specifica data esisterà solo un comune valido, ma poi tutte le estrazioni, statistiche, legami con altri sw verticali presenti nell’ecosistema dell’ente locale avvengono per codice istat e non per id della tabella anpr, ed io avrò due righe con lo stesso codice istat e diversi ID tabella anpr.
Non è un problema irrisolvibile ma complica le cose. Se ha un senso a livello di utilizzo delle informazioni facciamolo altrimenti…

Provo a spiegarmi meglio: Borgo Panigale è cessato come comune. Quindi ha una data di istituzione (“classica” 1861) e una data di fine 1937. Un solo record. Bologna “assorbe” il territorio del Comune di Borgo Panigale. Bologna non cambia codice istat, denominazione, provincia. Ma se cerchi Bologna trovi due righe, una cessata nel 1937 in occasione di questa acquisizione territoriale. Quello che volevo dire è che righe apparentemente inutili corrispondono a queste variazioni territoriali. Visto il numero di enti coinvolti, immagino che la tabella resterà così come è.

Salve a tutti, anche noi stiamo cercando idealmente una fonte che contenga più che i comuni, l’elenco aggiornato dei CAP italiano con relativo comune di appartenenza. Qualcuno sa se ci sono enti governativi che tengano e rilascino un elenco dei CAP aggiornato scaricabile (preferibilmente in un formato che si possa dare in pasto a una macchina)?

Grazie, ciao a tutti!

Ciao a tutti, scusatemi ma sono sinceramente esterrefatto!
Siamo alla fine del 2018 ma sembra ancora di stare nel 1970!
E’ mai possibile che ad oggi, tra tutti i Ministeri, non ci sia ancora nessuno che abbia pensato di uniformare le tabelle dei Comuni e degli Stati Esteri, nonché delle altre tabelle?
L’unico sito che ha delle tabelle aggiornate e attendibili è il Ministero dell’Interno (https://www.anpr.interno.it/portale/tabelle-di-riferimento), come ha già pubblicato @marcomigliori, ma non comprendo il motivo per cui vengono pubblicate con un link che termina con un codice random, che probabilmente cambia nel tempo, e soprattutto in formato proprietario (leggasi Microsoft Excel!) così da rendere un eventuale download automatizzato piuttosto difficile (non impossibile ma difficile).
Ma ci vuole tanto ad esportarle in formato csv e renderle disponibili sempre con lo stesso nome e formato senza tante complicazioni? Parliamo di tabelle pubbliche! Dati che dovrebbero essere sempre accessibili da chiunque.
Perché dobbiamo sempre complicare le cose in Italia?
Magari basterebbe scrivere alla persona addetta alla pubblicazione dei dati sul sito… o a qualche responsabile…
Infine, come csv sarebbe semplice per qualsiasi procedura in qualsiasi linguaggio poter importare suddette tabelle senza troppi problemi.
Solo a questo punto potremmo pensare alle diverse implementazioni nei vari linguaggi di programmazione.
Devo congratularmi con @gperri che ha fatto un lavoro certosino e di rilevo. Complimenti.

2 Mi Piace

Ringrazio Giuseppe per l’apprezzamento.
Giampaolo

Salve a tutti e buon anno (dicono l’augurio sia valido per tutto gennaio :smiley:).
Dati aggiornati (per quasi tutti gli RDBMS) al primo gennaio 2019 (fonte dati sempre ISTAT).

http://www.gerriquez.com/wp/rdbms/archivio-comuni-istat/

Aggiornamento del 26 gennaio 2019: realizzato un WS interrogabile per codice ISTAT o nome comune o nome regione.

http://www.gerriquez.com/wp/comuni/web-service-comuni-italiani/

Saluti,
Giampaolo

1 Mi Piace

complimenti vivissimi a @gperri!! Un mucchio di persone chiacchera, allibisce, protesta, resta esterrefatto, chiede. Ma c’è qualcuno che semplicemente FA.

Grazie Stefano :pray:v
Se avete tempo e voglia, fatemi conoscere eventuali problemi.
Buona domenica,
Giampaolo

ciao a tutti,
a proposito della tabella di riferimento comuni dell’ANPR ()Tabelle di riferimento, qualcuno ha idea del perché i campi con le denominazioni siano UPPERCASE?
Non sarebbe stato più comodo tenere il case originale delle tabelle dell’ISTAT?

Credo che ogni programmatore in qualsiasi ambiente di sviluppo possa fare un UPPERCASE sul dato nel caso ne avesse bisogno, mentre diventa abbastanza più elaborato “tornare” al case originale.

Mi devo scaricare 3-4 diversi fogli excel da istat importarli in sql metterli in join e aggiornare le denominazioni… per ottenere il 90% delle denominazioni.

Solo io ho questo problema?

Segnalo il messaggio di @giorgialodi, bisogna valutare se l’API del DAF risolve la problematica di questo thread.

2 Mi Piace

Salve a tutti.

  • Dati aggiornati al 1° febbraio 2019 in linea.
  • In lavorazione la modifica del web service, per “restituire” anche il/i cap.
    Me la sono presa un po’ comoda questa volta e mi sono appena accorto che c’è già un nuovo aggiornamento del 8 febbraio: aggiorno ASAP.

Saluti,
Giampaolo
http://www.gerriquez.com/wp/

1 Mi Piace

Buongiorno a tutti
ci sono news su questa tematica ?
ho provato i vari link proposti che risolverebbero il problema ma non sono più raggiungibili. Tempo fa c’era anche un bel servizio di ANCITEL http://ckan.ancitel.it/ ma anche questo non è più disponibile.
L’unica soluzione resta quella di scaricarsi gli xls e popolare la propria base dati ?

Al momento - come spesso accade - una delle poche soluzioni è usare wikidata e anche prendersene cura (query e risultato).

1 Mi Piace