]> git.openstreetmap.org Git - nominatim.git/blob - data-sources/wikipedia-wikidata/import_wikidata.sh
wikipedia: create all language pagelinkcount tables before querying them
[nominatim.git] / data-sources / wikipedia-wikidata / import_wikidata.sh
1 #!/bin/bash
2
3 psqlcmd() {
4      psql wikiprocessingdb
5 }
6
7 mysql2pgsqlcmd() {
8      ./mysql2pgsql.perl /dev/stdin /dev/stdout
9 }
10
11
12 # list the languages to process (refer to List of Wikipedias here: https://en.wikipedia.org/wiki/List_of_Wikipedias)
13
14 language=( "ar" "bg" "ca" "cs" "da" "de" "en" "es" "eo" "eu" "fa" "fr" "ko" "hi" "hr" "id" "it" "he" "lt" "hu" "ms" "nl" "ja" "no" "pl" "pt" "kk" "ro" "ru" "sk" "sl" "sr" "fi" "sv" "tr" "uk" "vi" "vo" "war" "zh" )
15
16
17 # get a few wikidata dump tables
18
19 wget https://dumps.wikimedia.org/wikidatawiki/latest/wikidatawiki-latest-geo_tags.sql.gz
20 wget https://dumps.wikimedia.org/wikidatawiki/latest/wikidatawiki-latest-page.sql.gz
21 wget https://dumps.wikimedia.org/wikidatawiki/latest/wikidatawiki-latest-wb_items_per_site.sql.gz
22
23
24 # import wikidata tables
25
26 gzip -dc wikidatawiki-latest-geo_tags.sql.gz | mysql2pgsqlcmd | psqlcmd
27 gzip -dc wikidatawiki-latest-page.sql.gz | mysql2pgsqlcmd | psqlcmd
28 gzip -dc wikidatawiki-latest-wb_items_per_site.sql.gz | mysql2pgsqlcmd | psqlcmd
29
30
31 # get wikidata places from wikidata query API
32
33 while read F  ; do
34     wget "https://query.wikidata.org/bigdata/namespace/wdq/sparql?format=json&query=SELECT ?item WHERE{?item wdt:P31*/wdt:P279*wd:$F;}" -O $F.json
35     jq -r '.results | .[] | .[] | [.item.value] | @csv' $F.json >> $F.txt
36     awk -v qid=$F '{print $0 ","qid}' $F.txt | sed -e 's!"http://www.wikidata.org/entity/!!' | sed 's/"//g' >> $F.csv
37     cat $F.csv >> wikidata_place_dump.csv
38     rm $F.json $F.txt $F.csv
39 done < wikidata_place_types.txt
40
41
42 # import wikidata places
43
44 echo "CREATE TABLE wikidata_place_dump (item text, instance_of text);"  | psqlcmd
45 echo "COPY wikidata_place_dump (item, instance_of) FROM  '/srv/nominatim/Nominatim/data-sources/wikipedia-wikidata/wikidata_place_dump.csv' DELIMITER ',' CSV;"  | psqlcmd
46
47 echo "CREATE TABLE wikidata_place_type_levels (place_type text, level integer);" | psqlcmd
48 echo "COPY wikidata_place_type_levels (place_type, level) FROM '/srv/nominatim/Nominatim/data-sources/wikipedia-wikidata/wikidata_place_type_levels.csv' DELIMITER ',' CSV HEADER;" | psqlcmd
49
50
51 # create derived tables
52
53 echo "CREATE TABLE geo_earth_primary AS SELECT gt_page_id, gt_lat, gt_lon FROM geo_tags WHERE gt_globe = 'earth' AND gt_primary = 1 AND NOT( gt_lat < -90 OR gt_lat > 90 OR gt_lon < -180 OR gt_lon > 180 OR gt_lat=0 OR gt_lon=0) ;" | psqlcmd
54 echo "CREATE TABLE geo_earth_wikidata AS SELECT DISTINCT geo_earth_primary.gt_page_id, geo_earth_primary.gt_lat, geo_earth_primary.gt_lon, page.page_title, page.page_namespace FROM geo_earth_primary LEFT OUTER JOIN page ON (geo_earth_primary.gt_page_id = page.page_id) ORDER BY geo_earth_primary.gt_page_id;" | psqlcmd
55
56 echo "ALTER TABLE wikidata_place_dump ADD COLUMN ont_level integer, ADD COLUMN lat numeric(11,8), ADD COLUMN lon numeric(11,8);" | psqlcmd
57 echo "UPDATE wikidata_place_dump SET ont_level = wikidata_place_type_levels.level FROM wikidata_place_type_levels WHERE wikidata_place_dump.instance_of = wikidata_place_type_levels.place_type;" | psqlcmd
58
59 echo "CREATE TABLE wikidata_places AS SELECT DISTINCT ON (item) item, instance_of, MAX(ont_level) AS ont_level, lat, lon FROM wikidata_place_dump GROUP BY item, instance_of, ont_level, lat, lon ORDER BY item;" | psqlcmd
60 echo "UPDATE wikidata_places SET lat = geo_earth_wikidata.gt_lat, lon = geo_earth_wikidata.gt_lon FROM geo_earth_wikidata WHERE wikidata_places.item = geo_earth_wikidata.page_title" | psqlcmd
61
62
63 # process language pages 
64
65 echo "CREATE TABLE wikidata_pages (item text, instance_of text, lat numeric(11,8), lon numeric(11,8), ips_site_page text, language text );" | psqlcmd
66
67 for i in "${language[@]}"
68 do
69    echo "CREATE TABLE wikidata_${i}_pages as select wikidata_places.item, wikidata_places.instance_of, wikidata_places.lat, wikidata_places.lon, wb_items_per_site.ips_site_page FROM wikidata_places LEFT JOIN wb_items_per_site ON (CAST (( LTRIM(wikidata_places.item, 'Q')) AS INTEGER) = wb_items_per_site.ips_item_id) WHERE ips_site_id = '${i}wiki' AND LEFT(wikidata_places.item,1) = 'Q' order by wikidata_places.item;" | psqlcmd
70    echo "ALTER TABLE wikidata_${i}_pages ADD COLUMN language text;" | psqlcmd
71    echo "UPDATE wikidata_${i}_pages SET language = '${i}';" | psqlcmd
72    echo "INSERT INTO wikidata_pages SELECT item, instance_of, lat, lon, ips_site_page, language FROM wikidata_${i}_pages;" | psqlcmd
73 done
74
75 echo "ALTER TABLE wikidata_pages ADD COLUMN wp_page_title text;" | psqlcmd
76 echo "UPDATE wikidata_pages SET wp_page_title = REPLACE(ips_site_page, ' ', '_');" | psqlcmd
77 echo "ALTER TABLE wikidata_pages DROP COLUMN ips_site_page;" | psqlcmd
78
79
80 # add wikidata to wikipedia_article table
81
82 echo "UPDATE wikipedia_article SET lat = wikidata_pages.lat, lon = wikidata_pages.lon, wd_page_title = wikidata_pages.item, instance_of = wikidata_pages.instance_of FROM wikidata_pages WHERE wikipedia_article.language = wikidata_pages.language AND wikipedia_article.title  = wikidata_pages.wp_page_title;" | psqlcmd
83 echo "CREATE TABLE wikipedia_article_slim AS SELECT * FROM wikipedia_article WHERE wikidata_id IS NOT NULL;" | psqlcmd
84 echo "ALTER TABLE wikipedia_article RENAME TO wikipedia_article_full;" | psqlcmd
85 echo "ALTER TABLE wikipedia_article_slim RENAME TO wikipedia_article;" | psqlcmd
86
87
88 # clean up intermediate tables
89
90 echo "DROP TABLE wikidata_place_dump;" | psqlcmd
91 echo "DROP TABLE geo_earth_primary;" | psqlcmd
92 for i in "${language[@]}"
93 do
94     echo "DROP TABLE wikidata_${i}_pages;" | psqlcmd
95 done