]> git.openstreetmap.org Git - nominatim.git/commitdiff
Merge remote-tracking branch 'upstream/master'
authorSarah Hoffmann <lonvia@denofr.de>
Fri, 10 Jan 2025 19:58:34 +0000 (20:58 +0100)
committerSarah Hoffmann <lonvia@denofr.de>
Fri, 10 Jan 2025 19:58:34 +0000 (20:58 +0100)
70 files changed:
.github/workflows/ci-tests.yml
docs/admin/Deployment-Python.md
docs/admin/Installation.md
docs/admin/Update.md
docs/customize/Import-Styles.md
docs/customize/Settings.md
docs/customize/Special-Phrases.md
docs/customize/Tokenizers.md
docs/develop/Development-Environment.md
docs/develop/ICU-Tokenizer-Modules.md
docs/develop/Tokenizers.md
docs/extra.css
lib-lua/flex-base.lua [new file with mode: 0644]
lib-lua/import-address.lua [new file with mode: 0644]
lib-lua/import-admin.lua [new file with mode: 0644]
lib-lua/import-extratags.lua [new file with mode: 0644]
lib-lua/import-full.lua [new file with mode: 0644]
lib-lua/import-street.lua [new file with mode: 0644]
lib-lua/taginfo.lua [new file with mode: 0644]
lib-lua/themes/nominatim/init.lua [new file with mode: 0644]
lib-lua/themes/nominatim/presets.lua [new file with mode: 0644]
lib-lua/themes/nominatim/topics/address.lua [new file with mode: 0644]
lib-lua/themes/nominatim/topics/admin.lua [new file with mode: 0644]
lib-lua/themes/nominatim/topics/full.lua [new file with mode: 0644]
lib-lua/themes/nominatim/topics/street.lua [new file with mode: 0644]
lib-sql/functions/partition-functions.sql
lib-sql/functions/utils.sql
packaging/nominatim-api/extra_src/paths.py
packaging/nominatim-db/extra_src/nominatim_db/paths.py
packaging/nominatim-db/lib-lua [new symlink]
packaging/nominatim-db/pyproject.toml
settings/address-levels.json
settings/flex-base.lua [deleted file]
settings/icu_tokenizer.yaml
settings/import-address.lua [deleted file]
settings/import-admin.lua [deleted file]
settings/import-extratags.lua [deleted file]
settings/import-full.lua [deleted file]
settings/import-street.lua [deleted file]
settings/taginfo.lua [deleted file]
src/nominatim_api/connection.py
src/nominatim_api/core.py
src/nominatim_api/query_preprocessing/__init__.py [new file with mode: 0644]
src/nominatim_api/query_preprocessing/base.py [new file with mode: 0644]
src/nominatim_api/query_preprocessing/config.py [new file with mode: 0644]
src/nominatim_api/query_preprocessing/normalize.py [new file with mode: 0644]
src/nominatim_api/query_preprocessing/split_japanese_phrases.py [new file with mode: 0644]
src/nominatim_api/reverse.py
src/nominatim_api/search/db_search_builder.py
src/nominatim_api/search/geocoder.py
src/nominatim_api/search/icu_tokenizer.py
src/nominatim_api/search/query.py
src/nominatim_api/search/token_assignment.py
src/nominatim_api/typing.py
src/nominatim_db/clicmd/args.py
src/nominatim_db/clicmd/setup.py
src/nominatim_db/config.py
src/nominatim_db/paths.py
src/nominatim_db/tokenizer/icu_token_analysis.py
src/nominatim_db/tools/exec_utils.py
test/bdd/api/details/simple.feature
test/bdd/api/reverse/queries.feature
test/bdd/api/search/queries.feature
test/bdd/db/import/rank_computation.feature
test/bdd/osm2pgsql/import/custom_style.feature
test/bdd/osm2pgsql/import/tags.feature
test/bdd/steps/steps_osm_data.py
test/python/api/query_processing/test_normalize.py [new file with mode: 0644]
test/python/api/query_processing/test_split_japanese_phrases.py [new file with mode: 0644]
test/python/config/test_config.py

index 8b38d3dc77e7ca553d12c22a919dcd33f9a13b5b..f453aefb561048e8037cd9fd09b27e377722ab92 100644 (file)
@@ -185,9 +185,6 @@ jobs:
             - name: Prepare import environment
               run: |
                   mv Nominatim/test/testdb/apidb-test-data.pbf test.pbf
-                  mv Nominatim/settings/flex-base.lua flex-base.lua
-                  mv Nominatim/settings/import-extratags.lua import-extratags.lua
-                  mv Nominatim/settings/taginfo.lua taginfo.lua
                   rm -rf Nominatim
                   mkdir data-env-reverse
               working-directory: /home/nominatim
@@ -205,7 +202,7 @@ jobs:
               working-directory: /home/nominatim/nominatim-project
 
             - name: Print taginfo
-              run: lua taginfo.lua
+              run: lua ./nominatim-venv/lib/*/site-packages/nominatim_db/resources/lib-lua/taginfo.lua
               working-directory: /home/nominatim
 
             - name: Collect host OS information
index 5932f4e6bb0f482b7940ee2ff411608421133d92..463e15c02c5196d44ab6ec0dfcdf7f370fdcd950 100644 (file)
@@ -37,7 +37,7 @@ cd Nominatim
 ```
 
 The recommended way to deploy a Python ASGI application is to run
-the ASGI runner [uvicorn](https://uvicorn.org/)
+the ASGI runner [uvicorn](https://www.uvicorn.org/)
 together with [gunicorn](https://gunicorn.org/) HTTP server. We use
 Falcon here as the web framework.
 
index dadbe4601238fe387c846b31b5bb29a058df97ef..d837439936ac2162b5001f5a1b70ff07d97ad1c1 100644 (file)
@@ -26,7 +26,7 @@ For running Nominatim:
 
   * [PostgreSQL](https://www.postgresql.org) (12+ will work, 13+ strongly recommended)
   * [PostGIS](https://postgis.net) (3.0+ will work, 3.2+ strongly recommended)
-  * [osm2pgsql](https://osm2pgsql.org) (1.8+, optional when building with CMake)
+  * [osm2pgsql](https://osm2pgsql.org) (1.8+)
   * [Python 3](https://www.python.org/) (3.7+)
 
 Furthermore the following Python libraries are required:
@@ -102,6 +102,15 @@ you might consider setting:
 and even reduce `autovacuum_work_mem` further. This will reduce the amount
 of memory that autovacuum takes away from the import process.
 
+## Installing the latest release
+
+Nominatim is easiest installed directly from Pypi. Make sure you have installed
+osm2pgsql, PostgreSQL/PostGIS and libICU together with its header files.
+
+Then you can install Nominatim with:
+
+    pip install nominatim-db nominatim-api
+
 ## Downloading and building Nominatim
 
 ### Downloading the latest release
index 5d1324d005b2452bc95d005b3a08f22930b186b6..cdb79cae58ab11b2fdd5f8de72174c80e232a381 100644 (file)
@@ -68,10 +68,10 @@ the update interval no new data has been published yet, it will go to sleep
 until the next expected update and only then attempt to download the next batch.
 
 The one-time mode is particularly useful if you want to run updates continuously
-but need to schedule other work in between updates. For example, the main
-service at osm.org uses it, to regularly recompute postcodes -- a process that
-must not be run while updates are in progress. Its update script
-looks like this:
+but need to schedule other work in between updates. For example, you might
+want to regularly recompute postcodes -- a process that
+must not be run while updates are in progress. An update script refreshing
+postcodes regularly might look like this:
 
 ```sh
 #!/bin/bash
@@ -109,17 +109,19 @@ Unit=nominatim-updates.service
 WantedBy=multi-user.target
 ```
 
-And then a similar service definition: `/etc/systemd/system/nominatim-updates.service`:
+`OnUnitActiveSec` defines how often the individual update command is run.
+
+Then add a service definition for the timer in `/etc/systemd/system/nominatim-updates.service`:
 
 ```
 [Unit]
 Description=Single updates of Nominatim
 
 [Service]
-WorkingDirectory=/srv/nominatim
-ExecStart=nominatim replication --once
-StandardOutput=append:/var/log/nominatim-updates.log
-StandardError=append:/var/log/nominatim-updates.error.log
+WorkingDirectory=/srv/nominatim-project
+ExecStart=/srv/nominatim-venv/bin/nominatim replication --once
+StandardOutput=journald
+StandardError=inherit
 User=nominatim
 Group=nominatim
 Type=simple
@@ -128,9 +130,9 @@ Type=simple
 WantedBy=multi-user.target
 ```
 
-Replace the `WorkingDirectory` with your project directory. Also adapt user and
-group names as required. `OnUnitActiveSec` defines how often the individual
-update command is run.
+Replace the `WorkingDirectory` with your project directory. `ExecStart` points
+to the nominatim binary that was installed in your virtualenv earlier.
+Finally, you might need to adapt user and group names as required.
 
 Now activate the service and start the updates:
 
@@ -140,12 +142,13 @@ sudo systemctl enable nominatim-updates.timer
 sudo systemctl start nominatim-updates.timer
 ```
 
-You can stop future data updates, while allowing any current, in-progress
+You can stop future data updates while allowing any current, in-progress
 update steps to finish, by running `sudo systemctl stop
 nominatim-updates.timer` and waiting until `nominatim-updates.service` isn't
-running (`sudo systemctl is-active nominatim-updates.service`). Current output
-from the update can be seen like above (`systemctl status
-nominatim-updates.service`).
+running (`sudo systemctl is-active nominatim-updates.service`).
+
+To check the output from the update process, use journalctl: `journalctl -u
+nominatim-updates.service`
 
 
 #### Catch-up mode
@@ -155,13 +158,13 @@ all changes from the server until the database is up-to-date. The catch-up mode
 still respects the parameter `NOMINATIM_REPLICATION_MAX_DIFF`. It downloads and
 applies the changes in appropriate batches until all is done.
 
-The catch-up mode is foremost useful to bring the database up to speed after the
+The catch-up mode is foremost useful to bring the database up to date after the
 initial import. Give that the service usually is not in production at this
 point, you can temporarily be a bit more generous with the batch size and
 number of threads you use for the updates by running catch-up like this:
 
 ```
-cd /srv/nominatim
+cd /srv/nominatim-project
 NOMINATIM_REPLICATION_MAX_DIFF=5000 nominatim replication --catch-up --threads 15
 ```
 
@@ -173,13 +176,13 @@ replication catch-up at whatever interval you desire.
     When running scheduled updates with catch-up, it is a good idea to choose
     a replication source with an update frequency that is an order of magnitude
     lower. For example, if you want to update once a day, use an hourly updated
-    source. This makes sure that you don't miss an entire day of updates when
+    source. This ensures that you don't miss an entire day of updates when
     the source is unexpectedly late to publish its update.
 
     If you want to use the source with the same update frequency (e.g. a daily
     updated source with daily updates), use the
-    continuous update mode. It ensures to re-request the newest update until it
-    is published.
+    once mode together with a frequently run systemd script as described above.
+    It ensures to re-request the newest update until they have been published.
 
 
 #### Continuous updates
@@ -197,36 +200,3 @@ parameters:
 
 The update application keeps running forever and retrieves and applies
 new updates from the server as they are published.
-
-You can run this command as a simple systemd service. Create a service
-description like that in `/etc/systemd/system/nominatim-updates.service`:
-
-```
-[Unit]
-Description=Continuous updates of Nominatim
-
-[Service]
-WorkingDirectory=/srv/nominatim
-ExecStart=nominatim replication
-StandardOutput=append:/var/log/nominatim-updates.log
-StandardError=append:/var/log/nominatim-updates.error.log
-User=nominatim
-Group=nominatim
-Type=simple
-
-[Install]
-WantedBy=multi-user.target
-```
-
-Replace the `WorkingDirectory` with your project directory. Also adapt user
-and group names as required.
-
-Now activate the service and start the updates:
-
-```
-sudo systemctl daemon-reload
-sudo systemctl enable nominatim-updates
-sudo systemctl start nominatim-updates
-```
-
-
index 003e56e383034da603b702a499bf2a6e875ccbe8..23778f774a4464a2dfa290f11b4c635fb3e2e060 100644 (file)
-## Configuring the Import
+# Configuring the Import of OSM data
 
 In the very first step of a Nominatim import, OSM data is loaded into the
 database. Nominatim uses [osm2pgsql](https://osm2pgsql.org) for this task.
 It comes with a [flex style](https://osm2pgsql.org/doc/manual.html#the-flex-output)
 specifically tailored to filter and convert OSM data into Nominatim's
-internal data representation.
-
-There are a number of default configurations for the flex style which
-result in geocoding databases of different detail. The
+internal data representation. Nominatim ships with a few preset
+configurations for this import, each results in a geocoding database of
+different detail. The
 [Import section](../admin/Import.md#filtering-imported-data) explains
 these default configurations in detail.
 
-You can also create your own custom style. Put the style file into your
-project directory and then set `NOMINATIM_IMPORT_STYLE` to the name of the file.
-It is always recommended to start with one of the standard styles and customize
-those. You find the standard styles under the name `import-<stylename>.lua`
-in the standard Nominatim configuration path (usually `/etc/nominatim` or
-`/usr/local/etc/nominatim`).
+If you want to have more control over which OSM data is added to the database,
+you can also create your own custom style. Create a new lua style file, put it
+into your project directory and then set `NOMINATIM_IMPORT_STYLE` to the name
+of the file. Custom style files can be used to modify the existing preset
+configurations or to implement your own configuration from scratch.
 
 The remainder of the page describes how the flex style works and how to
 customize it.
 
-### The `flex-base.lua` module
+## The `flex-base` lua module
 
 The core of Nominatim's flex import configuration is the `flex-base` module.
 It defines the table layout used by Nominatim and provides standard
-implementations for the import callbacks that make it easy to customize
+implementations for the import callbacks that help with customizing
 how OSM tags are used by Nominatim.
 
-Every custom style should include this module to make sure that the correct
+Every custom style must include this module to make sure that the correct
 tables are created. Thus start your custom style as follows:
 
 ``` lua
 local flex = require('flex-base')
+```
+
+### Using preset configurations
+
+If you want to start with one of the existing presets, then you can import
+its settings using the `import_topic()` function:
+
+```
+local flex = require('flex-base')
 
+flex.import_topic('streets')
 ```
 
-The following sections explain how the module can be customized.
+The `import_topic` function takes an optional second configuration
+parameter. The available options are explained in the
+[themepark section](#using-osm2pgsql-themepark).
 
+!!! note
+    You can also directly import the preset style files, e.g.
+    `local flex = require('import-street')`. It is not possible to
+    set extra configuration this way.
 
-### Changing the recognized tags
+### How processing works
 
-If you just want to change which OSM tags are recognized during import,
-then there are a number of convenience functions to set the tag lists used
-during the processing.
+When Nominatim processes an OSM object, it looks for four kinds of tags:
+The _main tags_ classify what kind of place the OSM object represents. One
+OSM object can have more than one main tag. In such case one database entry
+is created for each main tag. _Name tags_ represent searchable names of the
+place. _Address tags_ are used to compute the address hierarchy of the place.
+Address tags are used for searching and for creating a display name of the place.
+_Extra tags_ are any tags that are not directly related to search but
+contain interesting additional information.
 
-!!! warning
-    There are no built-in defaults for the tag lists, so all the functions
-    need to be called from your style script to fully process the data.
-    Make sure you start from one of the default style and only modify
-    the data you are interested in. You can also derive your style from an
-    existing style by importing the appropriate module, e.g.
-    `local flex = require('import-street')`.
+!!! danger
+    Some tags in the extratags category are used by Nominatim to better
+    classify the place. You want to make sure these are always present
+    in custom styles.
 
-Many of the following functions take _key match lists_. These lists can
+Configuring the style means deciding which key and/or key/value is used
+in which category.
+
+## Changing the recognized tags
+
+The flex style offers a number of functions to set the classification of
+each OSM tag. Most of these functions can also take a preset string instead
+of a tag description. These presets describe common configurations that
+are also used in the definition of the predefined styles. This section
+lists the configuration functions and the accepted presets.
+
+#### Key match lists
+
+Some of the following functions take _key match lists_. These lists can
 contain three kinds of strings to match against tag keys:
 A string that ends in an asterisk `*` is a prefix match and accordingly matches
 against any key that starts with the given string (minus the `*`). 
 A suffix match can be defined similarly with a string that starts with a `*`.
 Any other string is matched exactly against tag keys.
 
+###  Main tags
+
+`set/modify_main_tags()` allow to define which tags are used as main tags. It
+takes a lua table parameter which defines for keys and key/value
+combinations, how they are classified.
+
+The following classifications are recognized:
 
-#### `set_main_tags()` - principal tags
-
-If a principal or main tag is found on an OSM object, then the object
-is included in Nominatim's search index. A single object may also have
-multiple main tags. In that case, the object will be included multiple
-times in the index, once for each main tag.
-
-The flex script distinguishes between four types of main tags:
-
-* __always__: a main tag that is used unconditionally
-* __named__: consider this main tag only, if the object has a proper name
-  (a reference is not enough, see below).
-* __named_with_key__: consider this main tag only, when the object has
-  a proper name with a domain prefix. For example, if the main tag is
-  `bridge=yes`, then it will only be added as an extra row, if there is
-  a tag `bridge:name[:XXX]` for the same object. If this property is set,
-  all other names that are not domain-specific are ignored.
-* __fallback__: use this main tag only, if there is no other main tag.
-  Fallback always implied `named`, i.e. fallbacks are only tried for
-  named objects.
-
-The `set_main_tags()` function takes exactly one table parameter which
-defines the keys and key/value combinations to include and the kind of
-main tag. Each lua table key defines an OSM tag key. The value may
-be a string defining the kind of main key as described above. Then the tag will
-be considered a main tag for any possible value. To further restrict
-which values are acceptable, give a table with the permitted values
-and their kind of main tag. If the table contains a simple value without
-key, then this is used as default for values that are not listed.
+| classification  | meaning |
+| :-------------- | :------ |
+| always          | Unconditionally use this tag as a main tag. |
+| named           | Consider as main tag, when the object has a primary name (see [names](#name-tags) below) |
+| named_with_key  | Consider as main tag, when the object has a primary name with a domain prefix. For example, if the main tag is  `bridge=yes`, then it will only be added as an extra entry, if there is a tag `bridge:name[:XXX]` for the same object. If this property is set, all names that are not domain-specific are ignored. |
+| fallback        | Consider as main tag only when no other main tag was found. Fallback always implies `named`, i.e. fallbacks are only tried for objects with primary names. |
+| delete          | Completely ignore the tag in any further processing |
+| extra           | Move the tag to extratags and then ignore it for further processing |
+| `<function>`| Advanced handling, see [below](#advanced-main-tag-handling) |
+
+Each key in the table parameter defines an OSM tag key. The value may
+be directly a classification as described above. Then the tag will
+be considered a main tag for any possible value that is not further defined.
+To further restrict which values are acceptable, give a table with the
+permitted values and their kind of main tag. If the table contains a simple
+value without key, then this is used as default for values that are not listed.
+
+`set_main_tags()` will completely replace the current main tag configuration
+with the new configuration. `modify_main_tags()` will merge the new
+configuration with the existing one. Otherwise, the two functions do exactly
+the same.
 
 !!! example
     ``` lua
@@ -97,80 +125,188 @@ key, then this is used as default for values that are not listed.
 
     flex.set_main_tags{
         boundary = {administrative = 'named'},
-        highway = {'always', street_lamp = 'named'},
+        highway = {'always', street_lamp = 'named', no = 'delete'},
         landuse = 'fallback'
     }
     ```
 
     In this example an object with a `boundary` tag will only be included
     when it has a value of `administrative`. Objects with `highway` tags are
-    always included. However when the value is `street_lamp` then the object
-    must have a name, too. With any other value, the object is included
-    independently of the name. Finally, if a `landuse` tag is present then
-    it will be used independely of the concrete value if neither boundary
+    always included with two exceptions: the troll tag `highway=no` is
+    deleted on the spot. And when the value is `street_lamp` then the object
+    must have a name, too. Finally, if a `landuse` tag is present then
+    it will be used independently of the concrete value when neither boundary
     nor highway tags were found and the object is named.
 
+##### Presets
 
-#### `set_prefilters()` - ignoring tags
+| Name   | Description |
+| :----- | :---------- |
+| admin  | Basic tag set collecting places and administrative boundaries. This set is needed also to ensure proper address computation and should therefore always be present. You can disable selected place types like `place=locality` after adding this set, if they are not relevant for your use case. |
+| all_boundaries | Extends the set of recognized boundaries and places to all available ones. |
+| natural | Tags for natural features like rivers and mountain peaks. |
+| street/default | Tags for streets. Major streets are always included, minor ones only when they have a name. |
+| street/car | Tags for all streets that can be used by a motor vehicle. |
+| street/all | Includes all highway features named and unnamed. |
+| poi/delete | Adds most POI features with and without name. Some frequent but very domain-specific values are excluded by deleting them. |
+| poi/extra | Like 'poi/delete' but excluded values are moved to extratags. |
 
-Pre-filtering of tags allows to ignore them for any further processing.
-Thus pre-filtering takes precedence over any other tag processing. This is
-useful when some specific key/value combinations need to be excluded from
-processing. When tags are filtered, they may either be deleted completely
-or moved to `extratags`. Extra tags are saved with the object and returned
-to the user when requested, but are not used otherwise.
 
-`set_prefilters()` takes a table with four optional fields:
+##### Advanced main tag handling
 
-* __delete_keys__ is a _key match list_ for tags that should be deleted
-* __delete_tags__ contains a table of tag keys pointing to a list of tag
-  values. Tags with matching key/value pairs are deleted.
-* __extra_keys__ is a _key match list_ for tags which should be saved into
-  extratags
-* __extra_tags__ contains a table of tag keys pointing to a list of tag
-  values. Tags with matching key/value pairs are moved to extratags.
+The groups described above are in fact only a preset for a filtering function
+that is used to make the final decision how a pre-selected main tag is entered
+into Nominatim's internal table. To further customize handling you may also
+supply your own filtering function.
 
-Key list may contain three kinds of strings:
-A string that ends in an asterisk `*` is a prefix match and accordingly matches
-against any key that starts with the given string (minus the `*`). 
-A suffix match can be defined similarly with a string that starts with a `*`.
-Any other string is matched exactly against tag keys.
+The function takes up to three parameters: a Place object of the object
+being processed, the key of the main tag and the value of the main tag.
+The function may return one of three values:
+
+* `nil` or `false` causes the entry to be ignored
+* the Place object causes the place to be added as is
+* `Place.copy(names=..., address=..., extratags=...) causes the
+  place to be enter into the database but with name/address/extratags
+  set to the given different values.
+
+The Place object has some read-only values that can be used to determine
+the handling:
+
+* **object** is the original OSM object data handed in by osm2pgsql
+* **admin_level** is the content of the admin_level tag, parsed into an integer and normalized to a value between 0 and 15
+* **has_name** is a boolean indicating if the object has a primary name tag
+* **names** is a table with the collected list of name tags
+* **address** is a table with the collected list of address tags
+* **extratags** is a table with the collected list of additional tags to save
 
 !!! example
     ``` lua
-    local flex = require('import-full')
+    local flex = require('flex-base')
 
-    flex.set_prefilters{
-        delete_keys = {'source', 'source:*'},
-        extra_tags = {amenity = {'yes', 'no'}}
-    }
-    flex.set_main_tags{
-        amenity = 'always'
-    }
+    flex.add_topic('street')
+
+    local function no_sidewalks(place, k, v)
+        if place.object.tags.footway == 'sidewalk' then
+            return false
+        end
+
+        -- default behaviour is to have all footways
+        return place
+    end
+
+    flex.modify_main_tags(highway = {'footway' = no_sidewalks}
+    ```
+    This script adds a custom handler for `highway=footway`. It only includes
+    them in the database, when the object doesn't have a tag `footway=sidewalk`
+    indicating that it is just part of a larger street which should already
+    be indexed. Note that it is not necessary to check the key and value
+    of the main tag because the function is only used for the specific
+    main tag.
+
+
+### Ignored tags
+
+The function `ignore_keys()` sets the `delete` classification for keys.
+This function takes a _key match list_ so that it is possible to exclude
+groups of keys.
+
+Note that full matches always take precedence over suffix matches, which
+in turn take precedence over prefix matches.
+
+!!! example
+    ``` lua
+    local flex = require('flex-base')
+
+    flex.add_topic('admin')
+    flex.ignore_keys{'old_name', 'old_name:*'}
     ```
 
-    In this example any tags `source` and tags that begin with `source:`  are
-    deleted before any other processing is done. Getting rid of frequent tags
-    this way can speed up the import.
+    This example uses the `admin` preset with the exception that names
+    that are no longer are in current use, are ignored.
+
+##### Presets
 
-    Tags with `amenity=yes` or `amenity=no` are moved to extratags. Later
-    all tags with an `amenity` key are made a main tag. This effectively means
-    that Nominatim will use all amenity tags except for those with value
-    yes and no.
+| Name     | Description |
+| :-----   | :---------- |
+| metatags | Tags with meta information about the OSM tag like source, notes and import sources. |
+| name     | Non-names that actually describe properties or name parts. These names can throw off search and should always be removed. |
+| address  | Extra `addr:*` tags that are not useful for Nominatim. |
 
-#### `set_name_tags()` - defining names
 
-The flex script distinguishes between two kinds of names:
+### Tags for `extratags`
 
-* __main__: the primary names make an object fully searchable.
-  Main tags of type _named_ will only cause the object to be included when
-  such a primary name is present. Primary names are usually those found
-  in the `name` tag and its variants.
-* __extra__: extra names are still added to the search index but they are
-  alone not sufficient to make an object named.
+The function `add_for_extratags()` sets the `extra` classification for keys.
+This function takes a
+_key match list_ so that it is possible to move groups of keys to extratags.
 
-`set_name_tags()` takes a table with two optional fields `main` and `extra`.
-They take _key match lists_ for main and extra names respectively.
+Note that full matches always take precedence over suffix matches, which
+in turn take precedence over prefix matches.
+
+!!! example
+    ``` lua
+    local flex = require('flex-base')
+
+    flex.add_topic('street')
+    flex.add_for_extratags{'surface', 'access', 'vehicle', 'maxspeed'}
+    ```
+
+    This example uses the `street` preset but adds a couple of tags that
+    are of interest about the condition of the street.
+
+##### Presets
+
+| Name     | Description |
+| :-----   | :---------- |
+| required | Tags that Nominatim will use for various computations when present in extratags. Always include these. |
+
+In addition, all [presets from ignored tags](#presets_1) are accepted.
+
+### General pre-filtering
+
+_(deprecated)_ `set_prefilters()` allows to set the `delete` and `extra`
+classification for main tags.
+
+This function removes all previously set main tags with `delete` and `extra`
+classification and then adds the newly defined tags.
+
+`set_prefilters()` takes a table with four optional fields:
+
+* __delete_keys__ is a _key match list_ for tags that should be deleted
+* __delete_tags__ contains a table of tag keys pointing to a list of tag
+  values. Tags with matching key/value pairs are deleted.
+* __extra_keys__ is a _key match list_ for tags which should be saved into
+  extratags
+* __extra_tags__ contains a table of tag keys pointing to a list of tag
+  values. Tags with matching key/value pairs are moved to extratags.
+
+!!! danger "Deprecation warning"
+    Use of this function should be replaced with `modify_main_tags()` to
+    set the data from `delete_tags` and `extra_tags`, with `ignore_keys()`
+    for the `delete_keys` parameter and with `add_for_extratags()` for the
+    `extra_keys` parameter.
+
+### Name tags
+
+`set/modify_name_tags()` allow to define the tags used for naming places. Name tags
+can only be selected by their keys. The import script distinguishes
+between primary and auxiliary names. A primary name is the given name of
+a place. Having a primary name makes a place _named_. This is important
+for main tags that are only included when a name is present. Auxiliary names
+are identifiers like references. They may be searched for but should not
+be included on their own.
+
+The functions take a table with two optional fields `main` and `extra`.
+They take _key match lists_ for primary and auxiliary names respectively.
+A third field `house` can contain tags for names that appear in place of
+house numbers in addresses. This field can only contain complete key names.
+'house tags' are special in that they cause the OSM object to be added to
+the database independently of the presence of other main tags.
+
+`set_name_tags()` overwrites the current configuration, while
+`modify_name_tags()` replaces the fields that are given. (Be aware that
+the fields are replaced as a whole. `main = {'foo_name'}` will cause
+`foo_name` to become the only recognized primary name. Any previously
+defined primary names are forgotten.)
 
 !!! example
     ``` lua
@@ -186,29 +322,33 @@ They take _key match lists_ for main and extra names respectively.
     only include those that have a common name and not those which just
     have some reference ID from the city.
 
-#### `set_address_tags()` - defining address parts
+##### Presets
 
-Address tags will be used to build up the address of an object.
+| Name     | Description |
+| :-----   | :---------- |
+| core     | Basic set of recognized names for all places. |
+| address  | Additional names useful when indexing full addresses. |
+| poi      | Extended set of recognized names for pois. Use on top of the core set. |
 
-`set_address_tags()` takes a table with arbitrary fields pointing to
-_key match lists_. Two fields have a special meaning:
+### Address tags
 
-* __main__: defines
-the tags that make a full address object out of the OSM object. This
-is usually the housenumber or variants thereof. If a main address tag
-appears, then the object will always be included, if necessary with a
-fallback of `place=house`. If the key has a prefix of `addr:` or `is_in:`
-this will be stripped.
+`set/modify_address_tags()` defines the tags that will be used to build
+up the address of an object. Address tags can only be chosen by their key.
 
-* __extra__: defines all supplementary tags for addresses, tags like `addr:street`, `addr:city` etc. If the key has a prefix of `addr:` or `is_in:` this will be stripped.
+The functions take a table with arbitrary fields, each defining
+a key list or _key match list_. Some fields have a special meaning:
 
-All other fields will be handled as summary fields. If a key matches the
-key match list, then its value will be added to the address tags with the
-name of the field as key. If multiple tags match, then an arbitrary one
-wins.
+| Field     | Type      | Description |
+| :---------| :-------- | :-----------|
+| main      | key list  | Tags that make a full address object out of the OSM object. This is usually the house number or variants thereof. If a main address tag appears, then the object will always be included, if necessary with a fallback of `place=house`. If the key has a prefix of `addr:` or `is_in:` this will be stripped. |
+| extra     | key match list | Supplementary tags for addresses, tags like `addr:street`, `addr:city` etc. If the key has a prefix of `addr:` or `is_in:` this will be stripped. |
+| interpolation | key list | Tags that identify address interpolation lines. |
+| country   | key match list | Tags that may contain the country the place is in. The first found value with a two-letter code will be accepted, all other values are discarded. |
+| _other_   | key match list | Summary field. If a key matches the key match list, then its value will be added to the address tags with the name of the field as key. If multiple tags match, then an arbitrary one wins. |
 
-Country tags are handled slightly special. Only tags with a two-letter code
-are accepted, all other values are discarded.
+`set_address_tags()` overwrites the current configuration, while
+`modify_address_tags()` replaces the fields that are given. (Be aware that
+the fields are replaced as a whole.)
 
 !!! example
     ``` lua
@@ -232,21 +372,33 @@ are accepted, all other values are discarded.
     to postcodes, they will always be saved under the key `postcode` thus
     normalizing the multitude of keys that are used in the OSM database.
 
+##### Presets
+
+| Name     | Description |
+| :-----   | :---------- |
+| core     | Basic set of tags needed to recognize address relationship for any place. Always include this. |
+| houses   | Additional set of tags needed to recognize proper addresses |
 
-#### `set_unused_handling()` - processing remaining tags
+### Handling of unclassified tags
 
-This function defines what to do with tags that remain after all tags
+`set_unused_handling()` defines what to do with tags that remain after all tags
 have been classified using the functions above. There are two ways in
 which the function can be used:
 
 `set_unused_handling(delete_keys = ..., delete_tags = ...)` deletes all
 keys that match the descriptions in the parameters and moves all remaining
 tags into the extratags list.
+
 `set_unused_handling(extra_keys = ..., extra_tags = ...)` moves all tags
 matching the parameters into the extratags list and then deletes the remaining
 tags. For the format of the parameters see the description in `set_prefilters()`
 above.
 
+When no special handling is set, then unused tags will be discarded with one
+exception: place tags are kept in extratags for administrative boundaries.
+When using a custom setting, you should also make sure that the place tag
+is added for extratags.
+
 !!! example
     ``` lua
     local flex = require('import-full')
@@ -263,17 +415,23 @@ above.
     already delete the tiger tags with `set_prefilters()` because that
     would remove tiger:county before the address tags are processed.
 
-### Customizing osm2pgsql callbacks
+## Customizing osm2pgsql callbacks
 
 osm2pgsql expects the flex style to implement three callbacks, one process
 function per OSM type. If you want to implement special handling for
 certain OSM types, you can override the default implementations provided
 by the flex-base module.
 
-#### Changing the relation types to be handled
+### Enabling additional relation types
 
-The default scripts only allows relations of type `multipolygon`, `boundary`
-and `waterway`. To add other types relations, set `RELATION_TYPES` for
+OSM relations can represent very diverse
+[types of real-world objects](https://wiki.openstreetmap.org/wiki/Key:type). To
+be able to process them correctly, Nominatim needs to understand how to
+create a geometry for each type. By default, the script knows how to
+process relations of type `multipolygon`, `boundary` and `waterway`. All
+other relation types are ignored.
+
+To add other types relations, set `RELATION_TYPES` for
 the type to the kind of geometry that should be created. The following
 kinds of geometries can be used:
 
@@ -297,7 +455,7 @@ kinds of geometries can be used:
     geometry.
 
 
-#### Adding additional logic to processing functions
+### Adding additional logic to processing functions
 
 The default processing functions are also exported by the flex-base module
 as `process_node`, `process_way` and `process_relation`. These can be used
@@ -322,110 +480,83 @@ logic.
 
 ### Customizing the main processing function
 
-The main processing function of the flex style can be found in the function
-`process_tags`. This function is called for all OSM object kinds and is
-responsible for filtering the tags and writing out the rows into Postgresql.
+!!! danger "Deprecation Warning"
+    The style used to allow overwriting the internal processing function
+    `process_tags()`. While this is currently still possible, it is no longer
+    encouraged and may stop working in future versions. The internal
+    `Place` class should now be considered read-only.
+
+
+## Using osm2pgsql-themepark
+
+The Nominatim osm2pgsql style is designed so that it can also be used as
+a theme for [osm2pgsql-themepark](https://osm2pgsql.org/themepark/). This
+makes it easy to combine Nominatim with other projects like
+[openstreetmap-carto](https://github.com/gravitystorm/openstreetmap-carto)
+in the same database.
+
+To set up one of the preset styles, simply include a topic with the same name:
+
+```
+local themepark = require('themepark')
+themepark:add_topic('nominatim/address')
+```
+
+Themepark topics offer two configuration options:
+
+* **street_theme** allows to choose one of the sub topics for streets:
+    * _default_ - include all major streets and named minor paths
+    * _car_ - include all streets physically usable by cars
+    * _all_ - include all major streets and minor paths
+* **with_extratags**, when set to a truthy value, then tags that are
+  not specifically used for address or naming are added to the
+  extratags column
+
+The customization functions described in the
+[Changing recognized tags](#changing-the-recognized-tags) section
+are available from the theme. To access the theme you need to explicitly initialize it.
 
 !!! Example
     ``` lua
-    local flex = require('import-full')
+    local themepark = require('themepark')
 
-    local original_process_tags = flex.process_tags
+    themepark:add_topic('nominatim/full', {with_extratags = true})
 
-    function flex.process_tags(o)
-        if o.object.tags.highway ~= nil and o.object.tags.access == 'no' then
-            return
-        end
+    local flex = themepark:init_theme('nominatim')
+
+    flex.modify_main_tags{'amenity' = {
+                           'waste_basket' = 'delete'}
+                      }
+    ```
+    This example uses the full Nominatim configuration but disables
+    importing waste baskets.
+
+You may also write a new configuration from scratch. Simply omit including
+a Nominatim topic and only call the required customization functions.
 
-        original_process_tags(o)
+Customizing the osm2pgsql processing functions as explained
+[above](#adding-additional-logic-to-processing-functions) is not possible
+when running under themepark. Instead include other topics that make the
+necessary modifications or add an additional processor before including
+the Nominatim topic.
+
+!!! Example
+    ``` lua
+    local themepark = require('themepark')
+
+    local function discard_country_boundaries(object)
+        if object.tags.boundary == 'administrative' and object.tags.admin_level == '2' then
+            return 'stop'
+        end
     end
+
+    themepark:add_proc('relation', discard_country_boundaries)
+    -- Order matters here. The topic needs to be added after the custom callback.
+    themepark:add_topic('nominatim/full', {with_extratags = true})
     ```
+    Discarding country-level boundaries when running under themepark.
 
-    This example shows the most simple customization of the process_tags function.
-    It simply adds some additional processing before running the original code.
-    To do that, first save the original function and then overwrite process_tags
-    from the module. In this example all highways which are not accessible
-    by anyone will be ignored.
-
-
-#### The `Place` class
-
-The `process_tags` function receives a Lua object of `Place` type which comes
-with some handy functions to collect the data necessary for geocoding and
-writing it into the place table. Always use this object to fill the table.
-
-The Place class has some attributes which you may access read-only:
-
-* __object__ is the original OSM object data handed in by osm2pgsql
-* __admin_level__ is the content of the admin_level tag, parsed into an
-  integer and normalized to a value between 0 and 15
-* __has_name__ is a boolean indicating if the object has a full name
-* __names__ is a table with the collected list of name tags
-* __address__ is a table with the collected list of address tags
-* __extratags__ is a table with the collected list of additional tags to save
-
-There are a number of functions to fill these fields. All functions expect
-a table parameter with fields as indicated in the description.
-Many of these functions expect match functions which are described in detail
-further below.
-
-* __delete{match=...}__ removes all tags that match the match function given
-  in _match_.
-* __grab_extratags{match=...}__ moves all tags that match the match function
-  given in _match_ into extratags. Returns the number of tags moved.
-* __clean{delete=..., extra=...}__ deletes all tags that match _delete_ and
-  moves the ones that match _extra_  into extratags
-* __grab_address_parts{groups=...}__ moves matching tags into the address table.
-  _groups_ must be a group match function. Tags of the group `main` and
-  `extra` are added to the address table as is but with `addr:` and `is_in:`
-  prefixes removed from the tag key. All other groups are added with the
-  group name as key and the value from the tag. Multiple values of the same
-  group overwrite each other. The function returns the number of tags saved
-  from the main group.
-* __grab_main_parts{groups=...}__ moves matching tags into the name table.
-  _groups_ must be a group match function. If a tags of the group `main` is
-  present, the object will be marked as having a name. Tags of group `house`
-  produce a fallback to `place=house`. This fallback is return by the function
-  if present.
-
-There are two functions to write a row into the place table. Both functions
-expect the main tag (key and value) for the row and then use the collected
-information from the name, address, extratags etc. fields to complete the row.
-They also have a boolean parameter `save_extra_mains` which defines how any
-unprocessed tags are handled: when True, the tags will be saved as extratags,
-when False, they will be simply discarded.
-
-* __write_row(key, value, save_extra_mains)__ creates a new table row from
-  the current state of the Place object.
-* __write_place(key, value, mtype, save_extra_mains)__ creates a new row
-  conditionally. When value is nil, the function will attempt to look up the
-  value in the object tags. If value is still nil or mtype is nil, the row
-  is ignored. An mtype of `always` will then always write out the row,
-  a mtype of `named` only, when the object has a full name. When mtype
-  is `named_with_key`, the function checks for a domain name, i.e. a name
-  tag prefixed with the name of the main key. Only if at least one is found,
-  the row will be written. The names are replaced with the domain names found.
-
-#### Match functions
-
-The Place functions usually expect either a _match function_ or a
-_group match function_ to find the tags to apply their function to.
-
-The __match function__ is a Lua function which takes two parameters,
-key and value, and returns a boolean to indicate that a tag matches. The
-flex-base module has a convenience function `tag_match()` to create such a
-function. It takes a table with two optional fields: `keys` takes a key match
-list (see above), `tags` takes a table with keys that point to a list of
-possible values, thus defining key/value matches.
-
-The __group match function__ is a Lua function which also takes two parameters,
-key and value, and returns a string indicating to which group or type they
-belong to. The `tag_group()` can be used to create such a function. It expects
-a table where the group names are the keys and the values are a key match list.
-
-
-
-### Using the gazetteer output of osm2pgsql
+## osm2pgsql gazetteer output
 
 Nominatim still allows you to configure the gazetteer output to remain
 backwards compatible with older imports. It will be automatically used
@@ -435,9 +566,9 @@ of Nominatim. Do not use the gazetteer output for new imports. There is no
 guarantee that new versions of Nominatim are fully compatible with the
 gazetteer output.
 
-### Changing the Style of Existing Databases
+## Changing the style of existing databases
 
-There is normally no issue changing the style of a database that is already
+There is usually no issue changing the style of a database that is already
 imported and now kept up-to-date with change files. Just be aware that any
 change in the style applies to updates only. If you want to change the data
 that is already in the database, then a reimport is necessary.
index b00d04cf6386bb3aa41b2d6f0409e0e043128239..94726ca7638ee33899e3d878ded7b5837e8b24a4 100644 (file)
@@ -336,7 +336,7 @@ NOMINATIM_TABLESPACE_SEARCH_INDEX
 NOMINATIM_TABLESPACE_OSM_DATA
 :    Raw OSM data cache used for import and updates.
 
-NOMINATIM_TABLESPACE_OSM_DATA
+NOMINATIM_TABLESPACE_OSM_INDEX
 :    Indexes on the raw OSM data cache.
 
 NOMINATIM_TABLESPACE_PLACE_DATA
index 4824512bfba4fad38036649ba2e498747f02ce59..3ab837f229fa5c1395dc403cff65321f912d6492 100644 (file)
@@ -17,7 +17,7 @@ columns:
 
  * **phrase**: the keyword to look for
  * **class**: key of the main tag of the place to find
-   (see [principal tags in import style](Import-Styles.md#set_main_tags-principal-tags)
+   (see [Import styles](Import-Styles.md#how-processing-works)
  * **type**: value of the main tag
  * **operator**: type of special phrase, may be one of:
      * *in*: place is within the place defined by the search term (e.g. "_Hotels in_ Berlin")
index 30be170edea91babfa271d47364d123d84f9fdf0..d290c14816ae162872f793e2b605346aace7bcc1 100644 (file)
@@ -4,12 +4,11 @@ The tokenizer module in Nominatim is responsible for analysing the names given
 to OSM objects and the terms of an incoming query in order to make sure, they
 can be matched appropriately.
 
-Nominatim offers different tokenizer modules, which behave differently and have
-different configuration options. This sections describes the tokenizers and how
-they can be configured.
+Nominatim currently offers only one tokenizer module, the ICU tokenizer. This section
+describes the tokenizer and how it can be configured.
 
 !!! important
-    The use of a tokenizer is tied to a database installation. You need to choose
+    The selection of tokenizer is tied to a database installation. You need to choose
     and configure the tokenizer before starting the initial import. Once the import
     is done, you cannot switch to another tokenizer anymore. Reconfiguring the
     chosen tokenizer is very limited as well. See the comments in each tokenizer
@@ -43,10 +42,19 @@ On import the tokenizer processes names in the following three stages:
    See the [Token analysis](#token-analysis) section below for more
    information.
 
-During query time, only normalization and transliteration are relevant.
-An incoming query is first split into name chunks (this usually means splitting
-the string at the commas) and the each part is normalised and transliterated.
-The result is used to look up places in the search index.
+During query time, the tokeinzer is responsible for processing incoming
+queries. This happens in two stages:
+
+1. During **query preprocessing** the incoming text is split into name
+   chunks and normalised. This usually means applying the same normalisation
+   as during the import process but may involve other processing like,
+   for example, word break detection.
+2. The **token analysis** step breaks down the query parts into tokens,
+   looks them up in the database and assigns them possible functions and
+   probabilities.
+
+Query processing can be further customized while the rest of the analysis
+is hard-coded.
 
 ### Configuration
 
@@ -58,6 +66,8 @@ have no effect.
 Here is an example configuration file:
 
 ``` yaml
+query-preprocessing:
+    - normalize
 normalization:
     - ":: lower ()"
     - "ß > 'ss'" # German szet is unambiguously equal to double ss
@@ -81,6 +91,22 @@ token-analysis:
 The configuration file contains four sections:
 `normalization`, `transliteration`, `sanitizers` and `token-analysis`.
 
+#### Query preprocessing
+
+The section for `query-preprocessing` defines an ordered list of functions
+that are applied to the query before the token analysis.
+
+The following is a list of preprocessors that are shipped with Nominatim.
+
+##### normalize
+
+::: nominatim_api.query_preprocessing.normalize
+    options:
+        members: False
+        heading_level: 6
+        docstring_section_style: spacy
+
+
 #### Normalization and Transliteration
 
 The normalization and transliteration sections each define a set of
index a6558c7d04f1150df197dd2e8fd9176ca3906120..2425ec78c9315cbd5e83ca2391e9e84decbf2452 100644 (file)
@@ -59,7 +59,9 @@ The easiest way, to handle these Python dependencies is to run your
 development from within a virtual environment.
 
 ```sh
-sudo apt install libsqlite3-mod-spatialite
+sudo apt install libsqlite3-mod-spatialite osm2pgsql \
+                 postgresql-postgis postgresql-postgis-scripts \
+                 pkg-config libicu-dev virtualenv
 ```
 
 To set up the virtual environment with all necessary packages run:
index d189422a9d8e20b56cd7c53a18f3efcc6a51571b..f19002c200bb9c6f683f5e3fd3406c478b097a1d 100644 (file)
@@ -14,10 +14,11 @@ of sanitizers and token analysis.
     implemented, it is not guaranteed to be stable at the moment.
 
 
-## Using non-standard sanitizers and token analyzers
+## Using non-standard modules
 
-Sanitizer names (in the `step` property) and token analysis names (in the
-`analyzer`) may refer to externally supplied modules. There are two ways
+Sanitizer names (in the `step` property), token analysis names (in the
+`analyzer`) and query preprocessor names (in the `step` property)
+may refer to externally supplied modules. There are two ways
 to include external modules: through a library or from the project directory.
 
 To include a module from a library, use the absolute import path as name and
@@ -27,6 +28,47 @@ To use a custom module without creating a library, you can put the module
 somewhere in your project directory and then use the relative path to the
 file. Include the whole name of the file including the `.py` ending.
 
+## Custom query preprocessors
+
+A query preprocessor must export a single factory function `create` with
+the following signature:
+
+``` python
+create(self, config: QueryConfig) -> Callable[[list[Phrase]], list[Phrase]]
+```
+
+The function receives the custom configuration for the preprocessor and
+returns a callable (function or class) with the actual preprocessing
+code. When a query comes in, then the callable gets a list of phrases
+and needs to return the transformed list of phrases. The list and phrases
+may be changed in place or a completely new list may be generated.
+
+The `QueryConfig` is a simple dictionary which contains all configuration
+options given in the yaml configuration of the ICU tokenizer. It is up to
+the function to interpret the values.
+
+A `nominatim_api.search.Phrase` describes a part of the query that contains one or more independent
+search terms. Breaking a query into phrases helps reducing the number of
+possible tokens Nominatim has to take into account. However a phrase break
+is definitive: a multi-term search word cannot go over a phrase break.
+A Phrase object has two fields:
+
+ * `ptype` further refines the type of phrase (see list below)
+ * `text` contains the query text for the phrase
+
+The order of phrases matters to Nominatim when doing further processing.
+Thus, while you may split or join phrases, you should not reorder them
+unless you really know what you are doing.
+
+Phrase types (`nominatim_api.search.PhraseType`) can further help narrowing
+down how the tokens in the phrase are interpreted. The following phrase types
+are known:
+
+::: nominatim_api.search.PhraseType
+    options:
+        heading_level: 6
+
+
 ## Custom sanitizer modules
 
 A sanitizer module must export a single factory function `create` with the
@@ -90,21 +132,22 @@ adding extra attributes) or completely replace the list with a different one.
 The following sanitizer removes the directional prefixes from street names
 in the US:
 
-``` python
-import re
-
-def _filter_function(obj):
-    if obj.place.country_code == 'us' \
-       and obj.place.rank_address >= 26 and obj.place.rank_address <= 27:
-        for name in obj.names:
-            name.name = re.sub(r'^(north|south|west|east) ',
-                               '',
-                               name.name,
-                               flags=re.IGNORECASE)
-
-def create(config):
-    return _filter_function
-```
+!!! example
+    ``` python
+    import re
+
+    def _filter_function(obj):
+        if obj.place.country_code == 'us' \
+           and obj.place.rank_address >= 26 and obj.place.rank_address <= 27:
+            for name in obj.names:
+                name.name = re.sub(r'^(north|south|west|east) ',
+                                   '',
+                                   name.name,
+                                   flags=re.IGNORECASE)
+
+    def create(config):
+        return _filter_function
+    ```
 
 This is the most simple form of a sanitizer module. If defines a single
 filter function and implements the required `create()` function by returning
@@ -128,13 +171,13 @@ sanitizers:
 
 !!! warning
     This example is just a simplified show case on how to create a sanitizer.
-    It is not really read for real-world use: while the sanitizer would
+    It is not really meant for real-world use: while the sanitizer would
     correctly transform `West 5th Street` into `5th Street`. it would also
     shorten a simple `North Street` to `Street`.
 
 For more sanitizer examples, have a look at the sanitizers provided by Nominatim.
 They can be found in the directory
-[`nominatim/tokenizer/sanitizers`](https://github.com/osm-search/Nominatim/tree/master/nominatim/tokenizer/sanitizers).
+[`src/nominatim_db/tokenizer/sanitizers`](https://github.com/osm-search/Nominatim/tree/master/src/nominatim_db/tokenizer/sanitizers).
 
 
 ## Custom token analysis module
index f4a55adcae1252cd72d0be3509583690b9ad446d..a1dae78bf369f35f48fc49c9284d4c5e12f9cc12 100644 (file)
@@ -91,14 +91,19 @@ for a custom tokenizer implementation.
 
 ### Directory Structure
 
-Nominatim expects a single file `src/nominatim_db/tokenizer/<NAME>_tokenizer.py`
-containing the Python part of the implementation.
+Nominatim expects two files containing the Python part of the implementation:
+
+ * `src/nominatim_db/tokenizer/<NAME>_tokenizer.py` contains the tokenizer
+   code used during import and
+ * `src/nominatim_api/search/<NAME>_tokenizer.py` has the code used during
+   query time.
+
 `<NAME>` is a unique name for the tokenizer consisting of only lower-case
 letters, digits and underscore. A tokenizer also needs to install some SQL
 functions. By convention, these should be placed in `lib-sql/tokenizer`.
 
 If the tokenizer has a default configuration file, this should be saved in
-the `settings/<NAME>_tokenizer.<SUFFIX>`.
+`settings/<NAME>_tokenizer.<SUFFIX>`.
 
 ### Configuration and Persistence
 
@@ -110,9 +115,11 @@ are tied to a database installation and must only be read during installation
 time. If they are needed for the runtime then they must be saved into the
 `nominatim_properties` table and later loaded from there.
 
-### The Python module
+### The Python modules
 
-The Python module is expect to export a single factory function:
+#### `src/nominatim_db/tokenizer/`
+
+The import Python module is expected to export a single factory function:
 
 ```python
 def create(dsn: str, data_dir: Path) -> AbstractTokenizer
@@ -123,6 +130,20 @@ is a directory in the project directory that the tokenizer may use to save
 database-specific data. The function must return the instance of the tokenizer
 class as defined below.
 
+#### `src/nominatim_api/search/`
+
+The query-time Python module must also export a factory function:
+
+``` python
+def create_query_analyzer(conn: SearchConnection) -> AbstractQueryAnalyzer
+```
+
+The `conn` parameter contains the current search connection. See the
+[library documentation](../library/Low-Level-DB-Access.md#searchconnection-class)
+for details on the class. The function must return the instance of the tokenizer
+class as defined below.
+
+
 ### Python Tokenizer Class
 
 All tokenizers must inherit from `nominatim_db.tokenizer.base.AbstractTokenizer`
@@ -138,6 +159,13 @@ and implement the abstract functions defined there.
     options:
         heading_level: 6
 
+
+### Python Query Analyzer Class
+
+::: nominatim_api.search.query_analyzer_factory.AbstractQueryAnalyzer
+    options:
+        heading_level: 6
+
 ### PL/pgSQL Functions
 
 The tokenizer must provide access functions for the `token_info` column
index 1decc4789e7d72f31ad9d445e72a488e4516c96b..033e99035d31261a95188af95e15788d60563b9c 100644 (file)
@@ -2,8 +2,8 @@
     display: none!important
 }
 
-.wy-nav-content {
-    max-width: 900px!important
+.md-content {
+    max-width: 800px
 }
 
 table {
diff --git a/lib-lua/flex-base.lua b/lib-lua/flex-base.lua
new file mode 100644 (file)
index 0000000..1173c53
--- /dev/null
@@ -0,0 +1,14 @@
+-- This is just an alias for the Nominatim themepark theme module
+local flex = require('themes/nominatim/init')
+
+function flex.load_topic(name, cfg)
+    local topic_file = debug.getinfo(1, "S").source:sub(2):match("(.*/)") .. 'themes/nominatim/topics/'.. name .. '.lua'
+
+    if topic_file == nil then
+        error('Cannot find topic: ' .. name)
+    end
+
+    loadfile(topic_file)(nil, flex, cfg or {})
+end
+
+return flex
diff --git a/lib-lua/import-address.lua b/lib-lua/import-address.lua
new file mode 100644 (file)
index 0000000..bec2150
--- /dev/null
@@ -0,0 +1,6 @@
+-- This is just an alias for the Nominatim themepark address topic
+local flex = require('flex-base')
+
+flex.load_topic('address')
+
+return flex
diff --git a/lib-lua/import-admin.lua b/lib-lua/import-admin.lua
new file mode 100644 (file)
index 0000000..8d1230a
--- /dev/null
@@ -0,0 +1,6 @@
+-- This is just an alias for the Nominatim themepark admin topic
+local flex = require('flex-base')
+
+flex.load_topic('admin')
+
+return flex
diff --git a/lib-lua/import-extratags.lua b/lib-lua/import-extratags.lua
new file mode 100644 (file)
index 0000000..53b1c81
--- /dev/null
@@ -0,0 +1,6 @@
+-- This is just an alias for the Nominatim themepark full topic
+local flex = require('flex-base')
+
+flex.load_topic('full', {with_extratags = true})
+
+return flex
diff --git a/lib-lua/import-full.lua b/lib-lua/import-full.lua
new file mode 100644 (file)
index 0000000..59308a6
--- /dev/null
@@ -0,0 +1,6 @@
+-- This is just an alias for the Nominatim themepark full topic
+local flex = require('flex-base')
+
+flex.load_topic('full')
+
+return flex
diff --git a/lib-lua/import-street.lua b/lib-lua/import-street.lua
new file mode 100644 (file)
index 0000000..1a02b09
--- /dev/null
@@ -0,0 +1,6 @@
+-- This is just an alias for the Nominatim themepark street topic
+local flex = require('flex-base')
+
+flex.load_topic('street')
+
+return flex
diff --git a/lib-lua/taginfo.lua b/lib-lua/taginfo.lua
new file mode 100644 (file)
index 0000000..402499a
--- /dev/null
@@ -0,0 +1,118 @@
+-- Prints taginfo project description in the standard output
+--
+
+-- create fake "osm2pgsql" table for flex-base, originally created by the main C++ program
+osm2pgsql = {}
+function osm2pgsql.define_table(...) end
+
+-- provide path to flex-style lua file
+package.path = arg[0]:match("(.*/)") .. "?.lua;" .. package.path
+local flex = require('import-' .. (arg[1] or 'extratags'))
+local json = require ('dkjson')
+
+local NAME_DESCRIPTIONS = {
+    'Searchable auxiliary name of the place',
+    main = 'Searchable primary name of the place',
+    house = 'House name part of an address, searchable'
+}
+local ADDRESS_DESCRIPTIONS = {
+    'Used to determine the address of a place',
+    main = 'Primary key for an address point',
+    postcode = 'Used to determine the postcode of a place',
+    country = 'Used to determine country of a place (only if written as two-letter code)',
+    interpolation = 'Primary key for an address interpolation line'
+}
+
+------------ helper functions ---------------------
+-- Sets the key order for the resulting JSON table
+local function set_keyorder(table, order)
+    setmetatable(table, {
+        __jsonorder = order
+    })
+end
+
+local function get_key_description(key, description)
+    local desc = {}
+    desc.key = key
+    desc.description = description
+    set_keyorder(desc, {'key', 'description'})
+    return desc
+end
+
+local function get_key_value_description(key, value, description)
+    local desc = {key = key, value = value, description = description}
+    set_keyorder(desc, {'key', 'value', 'description'})
+    return desc
+end
+
+local function group_table_to_keys(tags, data, descriptions)
+    for group, values in pairs(data) do
+        local desc = descriptions[group] or descriptions[1]
+        for _, key in pairs(values) do
+            if key:sub(1, 1) ~= '*' and key:sub(#key, #key) ~= '*' then
+                table.insert(tags, get_key_description(key, desc))
+            end
+        end
+    end
+end
+
+-- Prints the collected tags in the required format in JSON
+local function print_taginfo()
+    local taginfo = flex.get_taginfo()
+    local tags = {}
+
+    for k, values in pairs(taginfo.main) do
+        if values[1] == nil or values[1] == 'delete' or values[1] == 'extra' then
+            for v, group in pairs(values) do
+                if type(v) == 'string' and group ~= 'delete' and group ~= 'extra' then
+                    local text = 'POI/feature in the search database'
+                    if type(group) ~= 'function' then
+                        text = 'Fallback ' .. text
+                    end
+                    table.insert(tags, get_key_value_description(k, v, text))
+                end
+            end
+        elseif type(values[1]) == 'function' or values[1] == 'fallback' then
+            local desc = 'POI/feature in the search database'
+            if values[1] == 'fallback' then
+                desc = 'Fallback ' .. desc
+            end
+            local excp = {}
+            for v, group in pairs(values) do
+                if group == 'delete' or group == 'extra' then
+                    table.insert(excp, v)
+                end
+            end
+            if next(excp) ~= nil then
+                desc = desc .. string.format(' (except for values: %s)',
+                                             table.concat(excp, ', '))
+            end
+            table.insert(tags, get_key_description(k, desc))
+        end
+    end
+
+    group_table_to_keys(tags, taginfo.name, NAME_DESCRIPTIONS)
+    group_table_to_keys(tags, taginfo.address, ADDRESS_DESCRIPTIONS)
+
+    local format = {
+        data_format = 1,
+        data_url = 'https://nominatim.openstreetmap.org/taginfo.json',
+        project = {
+            name = 'Nominatim',
+            description = 'OSM search engine.',
+            project_url = 'https://nominatim.openstreetmap.org',
+            doc_url = 'https://nominatim.org/release-docs/develop/',
+            contact_name = 'Sarah Hoffmann',
+            contact_email = 'lonvia@denofr.de'
+        }
+    }
+    format.tags = tags
+
+    set_keyorder(format, {'data_format', 'data_url', 'project', 'tags'})
+    set_keyorder(format.project, {'name', 'description', 'project_url', 'doc_url',
+                    'contact_name', 'contact_email'})
+
+    print(json.encode(format))
+end
+
+print_taginfo()
diff --git a/lib-lua/themes/nominatim/init.lua b/lib-lua/themes/nominatim/init.lua
new file mode 100644 (file)
index 0000000..fef86f9
--- /dev/null
@@ -0,0 +1,925 @@
+-- Nominatim themepark theme.
+--
+-- The Nominatim theme creates a fixed set of import tables for use with
+-- Nominatim. Creation and object processing are directly controlled by
+-- the theme. Topics provide preset configurations. You should add exactly
+-- one topic to your project.
+--
+-- The theme also exports a number of functions that can be used to configure
+-- its behaviour. These may be directly called in the style file after
+-- importing the theme:
+--
+--      local nominatim = themepark:init_theme('nominatim')
+--      nominatim.set_main_tags{boundary = 'always'}
+--
+-- This allows to write your own configuration from scratch. You can also
+-- use it to customize topics. In that case, first add the topic, then
+-- change the configuration:
+--
+--      themepark:add_topic('nominatim/full')
+--      local nominatim = themepark:init_theme('nominatim')
+--      nominatim.ignore_tags{'amenity'}
+
+local module = {}
+
+local MAIN_KEYS = {admin_level = {'delete'}}
+local PRE_FILTER = {prefix = {}, suffix = {}}
+local NAMES = {}
+local NAME_FILTER = nil
+local ADDRESS_TAGS = {}
+local ADDRESS_FILTER = nil
+local EXTRATAGS_FILTER
+local POSTCODE_FALLBACK = true
+
+-- This file can also be directly require'd instead of running it under
+-- the themepark framework. In that case the first parameter is usually
+-- the module name. Lets check for that, so that further down we can call
+-- the low-level osm2pgsql functions instead of themepark functions.
+local themepark = ...
+if type(themepark) ~= 'table' then
+    themepark = nil
+end
+
+-- The single place table.
+local place_table_definition = {
+    name = "place",
+    ids = { type = 'any', id_column = 'osm_id', type_column = 'osm_type' },
+    columns = {
+        { column = 'class', type = 'text', not_null = true },
+        { column = 'type', type = 'text', not_null = true },
+        { column = 'admin_level', type = 'smallint' },
+        { column = 'name', type = 'hstore' },
+        { column = 'address', type = 'hstore' },
+        { column = 'extratags', type = 'hstore' },
+        { column = 'geometry', type = 'geometry', projection = 'WGS84', not_null = true },
+    },
+    data_tablespace = os.getenv("NOMINATIM_TABLESPACE_PLACE_DATA"),
+    index_tablespace = os.getenv("NOMINATIM_TABLESPACE_PLACE_INDEX"),
+    indexes = {}
+}
+
+local insert_row
+local script_path = debug.getinfo(1, "S").source:match("@?(.*/)")
+local PRESETS = loadfile(script_path .. 'presets.lua')()
+
+if themepark then
+    themepark:add_table(place_table_definition)
+    insert_row = function(columns)
+        themepark:insert('place', columns, {}, {})
+    end
+else
+    local place_table = osm2pgsql.define_table(place_table_definition)
+    insert_row = function(columns)
+        place_table:insert(columns)
+    end
+end
+
+------------ Geometry functions for relations ---------------------
+
+function module.relation_as_multipolygon(o)
+    return o:as_multipolygon()
+end
+
+function module.relation_as_multiline(o)
+    return o:as_multilinestring():line_merge()
+end
+
+
+module.RELATION_TYPES = {
+    multipolygon = module.relation_as_multipolygon,
+    boundary = module.relation_as_multipolygon,
+    waterway = module.relation_as_multiline
+}
+
+--------- Built-in place transformation functions --------------------------
+
+local PlaceTransform = {}
+
+-- Special transform meanings which are interpreted elsewhere
+PlaceTransform.fallback = 'fallback'
+PlaceTransform.delete = 'delete'
+PlaceTransform.extra = 'extra'
+
+-- always: unconditionally use that place
+function PlaceTransform.always(place)
+    return place
+end
+
+-- never: unconditionally drop the place
+function PlaceTransform.never()
+    return nil
+end
+
+-- named: use the place if it has a fully-qualified name
+function PlaceTransform.named(place)
+    if place.has_name then
+        return place
+    end
+end
+
+-- named_with_key: use place if there is a name with the main key prefix
+function PlaceTransform.named_with_key(place, k)
+    local names = {}
+    local prefix = k .. ':name'
+    for namek, namev in pairs(place.intags) do
+        if namek:sub(1, #prefix) == prefix
+           and (#namek == #prefix
+                or namek:sub(#prefix + 1, #prefix + 1) == ':') then
+            names[namek:sub(#k + 2)] = namev
+        end
+    end
+
+    if next(names) ~= nil then
+        return place:clone{names=names}
+    end
+end
+
+-- Special transform used with address fallbacks: ignore all names
+-- except for those marked as being part of the address.
+local function address_fallback(place)
+    if next(place.names) == nil or NAMES.house == nil then
+        return place
+    end
+
+    local names = {}
+    for k, v in pairs(place.names) do
+        if NAME_FILTER(k, v) == 'house' then
+            names[k] = v
+        end
+    end
+    return place:clone{names=names}
+end
+
+--------- Built-in extratags transformation functions ---------------
+
+local function default_extratags_filter(p, k)
+    -- Default handling is to copy over place tag for boundaries.
+    -- Nominatim needs this.
+    if k ~= 'boundary' or p.intags.place == nil then
+        return p.extratags
+    end
+
+    local extra = { place = p.intags.place }
+    for kin, vin in pairs(p.extratags) do
+        extra[kin] = vin
+    end
+
+    return extra
+end
+EXTRATAGS_FILTER = default_extratags_filter
+
+----------------- other helper functions -----------------------------
+
+local function lookup_prefilter_classification(k, v)
+    -- full matches
+    local desc = MAIN_KEYS[k]
+    local fullmatch = desc and (desc[v] or desc[1])
+    if fullmatch ~= nil then
+        return fullmatch
+    end
+    -- suffixes
+    for slen, slist in pairs(PRE_FILTER.suffix) do
+        if #k >= slen then
+            local group = slist[k:sub(-slen)]
+            if group ~= nil then
+                return group
+            end
+        end
+    end
+    -- prefixes
+    for slen, slist in pairs(PRE_FILTER.prefix) do
+        if #k >= slen then
+            local group = slist[k:sub(1, slen)]
+            if group ~= nil then
+                return group
+            end
+        end
+    end
+end
+
+
+local function merge_filters_into_main(group, keys, tags)
+    if keys ~= nil then
+        for _, key in pairs(keys) do
+            -- ignore suffix and prefix matches
+            if key:sub(1, 1) ~= '*' and key:sub(#key, #key) ~= '*' then
+                if MAIN_KEYS[key] == nil then
+                    MAIN_KEYS[key] = {}
+                end
+                MAIN_KEYS[key][1] = group
+            end
+        end
+    end
+
+    if tags ~= nil then
+        for key, values in pairs(tags) do
+            if MAIN_KEYS[key] == nil then
+                MAIN_KEYS[key] = {}
+            end
+            for _, v in pairs(values) do
+                MAIN_KEYS[key][v] = group
+            end
+        end
+    end
+end
+
+
+local function remove_group_from_main(group)
+    for key, values in pairs(MAIN_KEYS) do
+        for _, ttype in pairs(values) do
+            if ttype == group then
+                values[ttype] = nil
+            end
+        end
+        if next(values) == nil then
+            MAIN_KEYS[key] = nil
+        end
+    end
+end
+
+
+local function add_pre_filter(data)
+    for group, keys in pairs(data) do
+        for _, key in pairs(keys) do
+            local klen = #key - 1
+            if key:sub(1, 1) == '*' then
+                if klen > 0 then
+                    if PRE_FILTER.suffix[klen] == nil then
+                        PRE_FILTER.suffix[klen] = {}
+                    end
+                    PRE_FILTER.suffix[klen][key:sub(2)] = group
+                end
+            elseif key:sub(#key, #key) == '*' then
+                if PRE_FILTER.prefix[klen] == nil then
+                    PRE_FILTER.prefix[klen] = {}
+                end
+                PRE_FILTER.prefix[klen][key:sub(1, klen)] = group
+            end
+        end
+    end
+end
+
+------------- Place class ------------------------------------------
+
+local Place = {}
+Place.__index = Place
+
+function Place.new(object, geom_func)
+    local self = setmetatable({}, Place)
+    self.object = object
+    self.geom_func = geom_func
+
+    self.admin_level = tonumber(self.object.tags.admin_level or 15) or 15
+    if self.admin_level == nil
+       or self.admin_level <= 0 or self.admin_level > 15
+       or math.floor(self.admin_level) ~= self.admin_level then
+        self.admin_level = 15
+    end
+
+    self.num_entries = 0
+    self.has_name = false
+    self.names = {}
+    self.address = {}
+    self.extratags = {}
+
+    self.intags = {}
+
+    local has_main_tags = false
+    for k, v in pairs(self.object.tags) do
+        local group = lookup_prefilter_classification(k, v)
+        if group == 'extra' then
+            self.extratags[k] = v
+        elseif group ~= 'delete' then
+            self.intags[k] = v
+            if group ~= nil then
+                has_main_tags = true
+            end
+        end
+    end
+
+    if not has_main_tags then
+        -- no interesting tags, don't bother processing
+        self.intags = {}
+    end
+
+    return self
+end
+
+function Place:clean(data)
+    for k, v in pairs(self.intags) do
+        if data.delete ~= nil and data.delete(k, v) then
+            self.intags[k] = nil
+        elseif data.extra ~= nil and data.extra(k, v) then
+            self.extratags[k] = v
+            self.intags[k] = nil
+        end
+    end
+end
+
+function Place:delete(data)
+    if data.match ~= nil then
+        for k, v in pairs(self.intags) do
+            if data.match(k, v) then
+                self.intags[k] = nil
+            end
+        end
+    end
+end
+
+function Place:grab_extratags(data)
+    local count = 0
+
+    if data.match ~= nil then
+        for k, v in pairs(self.intags) do
+            if data.match(k, v) then
+                self.intags[k] = nil
+                self.extratags[k] = v
+                count = count + 1
+            end
+        end
+    end
+
+    return count
+end
+
+local function strip_address_prefix(k)
+    if k:sub(1, 5) == 'addr:' then
+        return k:sub(6)
+    end
+
+    if k:sub(1, 6) == 'is_in:' then
+        return k:sub(7)
+    end
+
+    return k
+end
+
+
+function Place:grab_address_parts(data)
+    local count = 0
+
+    if data.groups ~= nil then
+        for k, v in pairs(self.intags) do
+            local atype = data.groups(k, v)
+
+            if atype ~= nil then
+                if atype == 'main' then
+                    self.has_name = true
+                    self.address[strip_address_prefix(k)] = v
+                    count = count + 1
+                elseif atype == 'extra' then
+                    self.address[strip_address_prefix(k)] = v
+                else
+                    self.address[atype] = v
+                end
+                self.intags[k] = nil
+            end
+        end
+    end
+
+    return count
+end
+
+
+function Place:grab_name_parts(data)
+    local fallback = nil
+
+    if data.groups ~= nil then
+        for k, v in pairs(self.intags) do
+            local atype = data.groups(k, v)
+
+            if atype ~= nil then
+                self.names[k] = v
+                self.intags[k] = nil
+                if atype == 'main' then
+                    self.has_name = true
+                elseif atype == 'house' then
+                    self.has_name = true
+                    fallback = {'place', 'house', address_fallback}
+                end
+            end
+        end
+    end
+
+    return fallback
+end
+
+
+function Place:write_place(k, v, mfunc)
+    v = v or self.intags[k]
+    if v == nil then
+        return 0
+    end
+
+    local place = mfunc(self, k, v)
+    if place then
+        local res = place:write_row(k, v)
+        self.num_entries = self.num_entries + res
+        return res
+    end
+
+    return 0
+end
+
+function Place:write_row(k, v)
+    if self.geometry == nil then
+        self.geometry = self.geom_func(self.object)
+    end
+    if self.geometry == nil or self.geometry:is_null() then
+        return 0
+    end
+
+    local extratags = EXTRATAGS_FILTER(self, k, v)
+    if not (extratags and next(extratags)) then
+        extratags = nil
+    end
+
+    insert_row{
+        class = k,
+        type = v,
+        admin_level = self.admin_level,
+        name = next(self.names) and self.names,
+        address = next(self.address) and self.address,
+        extratags = extratags,
+        geometry = self.geometry
+    }
+
+    return 1
+end
+
+
+function Place:clone(data)
+    local cp = setmetatable({}, Place)
+    cp.object = self.object
+    cp.geometry = data.geometry or self.geometry
+    cp.geom_func = self.geom_func
+    cp.intags = data.intags or self.intags
+    cp.admin_level = data.admin_level or self.admin_level
+    cp.names = data.names or self.names
+    cp.address = data.address or self.address
+    cp.extratags = data.extratags or self.extratags
+
+    return cp
+end
+
+
+function module.tag_match(data)
+    if data == nil or next(data) == nil then
+        return nil
+    end
+
+    local fullmatches = {}
+    local key_prefixes = {}
+    local key_suffixes = {}
+
+    if data.keys ~= nil then
+        for _, key in pairs(data.keys) do
+            if key:sub(1, 1) == '*' then
+                if #key > 1 then
+                    if key_suffixes[#key - 1] == nil then
+                        key_suffixes[#key - 1] = {}
+                    end
+                    key_suffixes[#key - 1][key:sub(2)] = true
+                end
+            elseif key:sub(#key, #key) == '*' then
+                if key_prefixes[#key - 1] == nil then
+                    key_prefixes[#key - 1] = {}
+                end
+                key_prefixes[#key - 1][key:sub(1, #key - 1)] = true
+            else
+                fullmatches[key] = true
+            end
+        end
+    end
+
+    if data.tags ~= nil then
+        for k, vlist in pairs(data.tags) do
+            if fullmatches[k] == nil then
+                fullmatches[k] = {}
+                for _, v in pairs(vlist) do
+                    fullmatches[k][v] = true
+                end
+            end
+        end
+    end
+
+    return function (k, v)
+        if fullmatches[k] ~= nil and (fullmatches[k] == true or fullmatches[k][v] ~= nil) then
+            return true
+        end
+
+        for slen, slist in pairs(key_suffixes) do
+            if #k >= slen and slist[k:sub(-slen)] ~= nil then
+                return true
+            end
+        end
+
+        for slen, slist in pairs(key_prefixes) do
+            if #k >= slen and slist[k:sub(1, slen)] ~= nil then
+                return true
+            end
+        end
+
+        return false
+    end
+end
+
+
+function module.tag_group(data)
+    if data == nil or next(data) == nil then
+        return nil
+    end
+
+    local fullmatches = {}
+    local key_prefixes = {}
+    local key_suffixes = {}
+
+    for group, tags in pairs(data) do
+        for _, key in pairs(tags) do
+            if key:sub(1, 1) == '*' then
+                if #key > 1 then
+                    if key_suffixes[#key - 1] == nil then
+                        key_suffixes[#key - 1] = {}
+                    end
+                    key_suffixes[#key - 1][key:sub(2)] = group
+                end
+            elseif key:sub(#key, #key) == '*' then
+                if key_prefixes[#key - 1] == nil then
+                    key_prefixes[#key - 1] = {}
+                end
+                key_prefixes[#key - 1][key:sub(1, #key - 1)] = group
+            else
+                fullmatches[key] = group
+            end
+        end
+    end
+
+    return function (k)
+        local val = fullmatches[k]
+        if val ~= nil then
+            return val
+        end
+
+        for slen, slist in pairs(key_suffixes) do
+            if #k >= slen then
+                val = slist[k:sub(-slen)]
+                if val ~= nil then
+                    return val
+                end
+            end
+        end
+
+        for slen, slist in pairs(key_prefixes) do
+            if #k >= slen then
+                val = slist[k:sub(1, slen)]
+                if val ~= nil then
+                    return val
+                end
+            end
+        end
+    end
+end
+
+-- Returns prefix part of the keys, and reject suffix matching keys
+local function process_key(key)
+    if key:sub(1, 1) == '*' then
+        return nil
+    end
+    if key:sub(#key, #key) == '*' then
+        return key:sub(1, #key - 2)
+    end
+    return key
+end
+
+-- Process functions for all data types
+function module.process_node(object)
+
+    local function geom_func(o)
+        return o:as_point()
+    end
+
+    module.process_tags(Place.new(object, geom_func))
+end
+
+function module.process_way(object)
+
+    local function geom_func(o)
+        local geom = o:as_polygon()
+
+        if geom:is_null() then
+            geom = o:as_linestring()
+            if geom:is_null() or geom:length() > 30 then
+                return nil
+            end
+        end
+
+        return geom
+    end
+
+    module.process_tags(Place.new(object, geom_func))
+end
+
+function module.process_relation(object)
+    local geom_func = module.RELATION_TYPES[object.tags.type]
+
+    if geom_func ~= nil then
+        module.process_tags(Place.new(object, geom_func))
+    end
+end
+
+-- The process functions are used by default by osm2pgsql.
+if themepark then
+    themepark:add_proc('node', module.process_node)
+    themepark:add_proc('way', module.process_way)
+    themepark:add_proc('relation', module.process_relation)
+else
+    osm2pgsql.process_node = module.process_node
+    osm2pgsql.process_way = module.process_way
+    osm2pgsql.process_relation = module.process_relation
+end
+
+function module.process_tags(o)
+    if next(o.intags) == nil then
+        return  -- shortcut when pre-filtering has removed all tags
+    end
+
+    -- Exception for boundary/place double tagging
+    if o.intags.boundary == 'administrative' then
+        o:grab_extratags{match = function (k, v)
+            return k == 'place' and v:sub(1,3) ~= 'isl'
+        end}
+    end
+
+    -- name keys
+    local fallback = o:grab_name_parts{groups=NAME_FILTER}
+
+    -- address keys
+    if o:grab_address_parts{groups=ADDRESS_FILTER} > 0 and fallback == nil then
+        fallback = {'place', 'house', address_fallback}
+    end
+    if o.address.country ~= nil and #o.address.country ~= 2 then
+        o.address['country'] = nil
+    end
+    if POSTCODE_FALLBACK and fallback == nil and o.address.postcode ~= nil then
+        fallback = {'place', 'postcode', PlaceTransform.always}
+    end
+
+    if o.address.interpolation ~= nil then
+        o:write_place('place', 'houses', PlaceTransform.always)
+        return
+    end
+
+    -- collect main keys
+    for k, v in pairs(o.intags) do
+        local ktable = MAIN_KEYS[k]
+        if ktable then
+            local ktype = ktable[v] or ktable[1]
+            if type(ktype) == 'function' then
+                o:write_place(k, v, ktype)
+            elseif ktype == 'fallback' and o.has_name then
+                fallback = {k, v, PlaceTransform.named}
+            end
+        end
+    end
+
+    if fallback ~= nil and o.num_entries == 0 then
+        o:write_place(fallback[1], fallback[2], fallback[3])
+    end
+end
+
+--------- Convenience functions for simple style configuration -----------------
+
+function module.set_prefilters(data)
+    remove_group_from_main('delete')
+    merge_filters_into_main('delete', data.delete_keys, data.delete_tags)
+
+    remove_group_from_main('extra')
+    merge_filters_into_main('extra', data.extra_keys, data.extra_tags)
+
+    PRE_FILTER = {prefix = {}, suffix = {}}
+    add_pre_filter{delete = data.delete_keys, extra = data.extra_keys}
+end
+
+
+function module.ignore_keys(data)
+    if type(data) == 'string' then
+        local preset = data
+        data = PRESETS.IGNORE_KEYS[data]
+        if data == nil then
+            error('Unknown preset for ignored keys: ' .. preset)
+        end
+    end
+    merge_filters_into_main('delete', data)
+    add_pre_filter{delete = data}
+end
+
+
+function module.add_for_extratags(data)
+    if type(data) == 'string' then
+        local preset = data
+        data = PRESETS.EXTRATAGS[data] or PRESETS.IGNORE_KEYS[data]
+        if data == nil then
+            error('Unknown preset for extratags: ' .. preset)
+        end
+    end
+    merge_filters_into_main('extra', data)
+    add_pre_filter{extra = data}
+end
+
+
+function module.set_main_tags(data)
+    for key, values in pairs(MAIN_KEYS) do
+        for _, ttype in pairs(values) do
+            if ttype == 'fallback' or type(ttype) == 'function' then
+                values[ttype] = nil
+            end
+        end
+        if next(values) == nil then
+            MAIN_KEYS[key] = nil
+        end
+    end
+    module.modify_main_tags(data)
+end
+
+
+function module.modify_main_tags(data)
+    if type(data) == 'string' then
+        local preset = data
+        if data:sub(1, 7) == 'street/' then
+            data = PRESETS.MAIN_TAGS_STREETS[data:sub(8)]
+        elseif data:sub(1, 4) == 'poi/' then
+            data = PRESETS.MAIN_TAGS_POIS(data:sub(5))
+        else
+            data = PRESETS.MAIN_TAGS[data]
+        end
+        if data == nil then
+            error('Unknown preset for main tags: ' .. preset)
+        end
+    end
+
+    for k, v in pairs(data) do
+        if MAIN_KEYS[k] == nil then
+            MAIN_KEYS[k] = {}
+        end
+        if type(v) == 'function' then
+            MAIN_KEYS[k][1] = v
+        elseif type(v) == 'string' then
+            MAIN_KEYS[k][1] = PlaceTransform[v]
+        elseif type(v) == 'table' then
+            for subk, subv in pairs(v) do
+                if type(subv) == 'function' then
+                    MAIN_KEYS[k][subk] = subv
+                else
+                    MAIN_KEYS[k][subk] = PlaceTransform[subv]
+                end
+            end
+        end
+    end
+end
+
+
+function module.modify_name_tags(data)
+    if type(data) == 'string' then
+        local preset = data
+        data = PRESETS.NAME_TAGS[data]
+        if data == nil then
+            error('Unknown preset for name keys: ' .. preset)
+        end
+    end
+
+    for k,v in pairs(data) do
+        if next(v) then
+            NAMES[k] = v
+        else
+            NAMES[k] = nil
+        end
+    end
+    NAME_FILTER = module.tag_group(NAMES)
+    remove_group_from_main('fallback:name')
+    if data.house ~= nil then
+        merge_filters_into_main('fallback:name', data.house)
+    end
+end
+
+
+function module.set_name_tags(data)
+    NAMES = {}
+    module.modify_name_tags(data)
+end
+
+
+function module.set_address_tags(data)
+    ADDRESS_TAGS = {}
+    module.modify_address_tags(data)
+end
+
+
+function module.modify_address_tags(data)
+    if type(data) == 'string' then
+        local preset = data
+        data = PRESETS.ADDRESS_TAGS[data]
+        if data == nil then
+            error('Unknown preset for address keys: ' .. preset)
+        end
+    end
+
+    for k, v in pairs(data) do
+        if k == 'postcode_fallback' then
+            POSTCODE_FALLBACK = v
+        elseif next(v) == nil then
+            ADDRESS_TAGS[k] = nil
+        else
+            ADDRESS_TAGS[k] = v
+        end
+    end
+
+    ADDRESS_FILTER = module.tag_group(ADDRESS_TAGS)
+
+    remove_group_from_main('fallback:address')
+    merge_filters_into_main('fallback:address', data.main)
+    merge_filters_into_main('fallback:address', data.interpolation)
+    remove_group_from_main('fallback:postcode')
+    if POSTCODE_FALLBACK then
+        merge_filters_into_main('fallback:postcode', data.postcode)
+    end
+end
+
+
+function module.set_address_tags(data)
+    ADDRESS_TAGS_SOURCE = {}
+    module.modify_address_tags(data)
+end
+
+
+function module.set_postcode_fallback(enable)
+    if POSTCODE_FALLBACK ~= enable then
+        remove_group_from_main('fallback:postcode')
+        if enable then
+            merge_filters_into_main('fallback:postcode', ADDRESS_TAGS.postcode)
+        end
+    end
+    POSTCODE_FALLBACK = enable
+end
+
+
+function module.set_unused_handling(data)
+    if type(data) == 'function' then
+        EXTRATAGS_FILTER = data
+    elseif data == nil then
+        EXTRATAGS_FILTER = default_extratags_filter
+    elseif data.extra_keys == nil and data.extra_tags == nil then
+        local delfilter = module.tag_match{keys = data.delete_keys, tags = data.delete_tags}
+        EXTRATAGS_FILTER = function (p, k)
+            local extra = {}
+            for kin, vin in pairs(p.intags) do
+                if kin ~= k and not delfilter(kin, vin) then
+                    extra[kin] = vin
+                end
+            end
+            if next(extra) == nil then
+                return p.extratags
+            end
+            for kextra, vextra in pairs(p.extratags) do
+                extra[kextra] = vextra
+            end
+            return extra
+        end
+    elseif data.delete_keys == nil and data.delete_tags == nil then
+        local incfilter = module.tag_match{keys = data.extra_keys, tags = data.extra_tags}
+        EXTRATAGS_FILTER = function (p, k)
+            local extra = {}
+            for kin, vin in pairs(p.intags) do
+                if kin ~= k and incfilter(kin, vin) then
+                    extra[kin] = vin
+                end
+            end
+            if next(extra) == nil then
+                return p.extratags
+            end
+            for kextra, vextra in pairs(p.extratags) do
+                extra[kextra] = vextra
+            end
+            return extra
+        end
+    else
+        error("unused handler can have only 'extra_keys' or 'delete_keys' set.")
+    end
+end
+
+function module.set_relation_types(data)
+    module.RELATION_TYPES = {}
+    for k, v in data do
+        if v == 'multipolygon' then
+            module.RELATION_TYPES[k] = module.relation_as_multipolygon
+        elseif v == 'multiline' then
+            module.RELATION_TYPES[k] = module.relation_as_multiline
+        end
+    end
+end
+
+
+function module.get_taginfo()
+    return {main = MAIN_KEYS, name = NAMES, address = ADDRESS_TAGS}
+end
+
+return module
diff --git a/lib-lua/themes/nominatim/presets.lua b/lib-lua/themes/nominatim/presets.lua
new file mode 100644 (file)
index 0000000..aa51ac1
--- /dev/null
@@ -0,0 +1,380 @@
+-- Defines defaults used in the topic definitions.
+
+local module = {}
+
+-- Helper functions
+
+local function group_merge(group1, group2)
+    for name, values in pairs(group2) do
+        if group1[name] == nil then
+            group1[name] = values
+        else
+            for _, v in pairs(values) do
+                table.insert(group1[name], v)
+            end
+        end
+    end
+
+    return group1
+end
+
+-- Customized main tag filter functions
+
+local EXCLUDED_FOOTWAYS = { sidewalk = 1, crossing = 1, link = 1, traffic_aisle }
+
+local function filter_footways(place)
+    if place.has_name then
+        local footway = place.object.tags.footway
+        if footway == nil or EXCLUDED_FOOTWAYS[footway] ~= 1 then
+            return place
+        end
+    end
+    return false
+end
+
+local function include_when_tag_present(key, value, named)
+    if named then
+        return function(place)
+                   if place.has_name and place.intags[key] == value then
+                       return place
+                   end
+                   return false
+               end
+    else
+        return function(place)
+                   if place.intags[key] == value then
+                       return place
+                   end
+                   return false
+               end
+    end
+end
+
+local function exclude_when_key_present(key, named)
+    if named then
+        return function(place)
+                   if place.has_name and place.intags[key] == nil then
+                       return place
+                   end
+                   return false
+               end
+    else
+        return function(place)
+                   if place.intags[key] == nil then
+                       return place
+                   end
+                   return false
+               end
+
+    end
+end
+
+local function lock_transform(place)
+    if place.object.tags.waterway ~= nil then
+        local name = place.object.tags.lock_name
+        if name ~= nil then
+            return place:clone{names={name=name, ref=place.object.tags.lock_ref}}
+        end
+    end
+
+    return false
+end
+
+-- Main tag definition
+
+module.MAIN_TAGS = {}
+
+module.MAIN_TAGS.admin = {
+    boundary = {administrative = 'named'},
+    landuse = {residential = 'fallback',
+               farm = 'fallback',
+               farmyard = 'fallback',
+               industrial = 'fallback',
+               commercial = 'fallback',
+               allotments = 'fallback',
+               retail = 'fallback'},
+    place = {county = 'always',
+             district = 'always',
+             municipality = 'always',
+             city = 'always',
+             town = 'always',
+             borough = 'always',
+             village = 'always',
+             suburb = 'always',
+             hamlet = 'always',
+             croft = 'always',
+             subdivision = 'always',
+             allotments = 'always',
+             neighbourhood = 'always',
+             quarter = 'always',
+             isolated_dwelling = 'always',
+             farm = 'always',
+             city_block = 'always',
+             locality = 'always'}
+}
+
+module.MAIN_TAGS.all_boundaries = {
+    boundary = {'named',
+                place = 'delete',
+                land_area = 'delete',
+                postal_code = 'always'},
+    landuse = 'fallback',
+    place = 'always'
+}
+
+module.MAIN_TAGS.natural = {
+    waterway = {'named',
+                riverbank = 'delete'},
+    natural = {'named',
+               yes = 'delete',
+               no = 'delete',
+               coastline = 'delete',
+               saddle = 'fallback',
+               water = exclude_when_key_present('water', true)},
+    mountain_pass = {'always',
+                     no = 'delete'},
+    water = {include_when_tag_present('natural', 'water', true),
+             river = 'never',
+             stream = 'never',
+             canal = 'never',
+             ditch = 'never',
+             drain = 'never',
+             fish_pass = 'never',
+             yes = 'delete',
+             intermittent = 'delete',
+             tidal = 'delete'
+             }
+}
+
+module.MAIN_TAGS_POIS = function (group)
+    group = group or 'delete'
+    return {
+    aerialway = {'always',
+                 no = group,
+                 pylon = group},
+    aeroway = {'always',
+               no = group},
+    amenity = {'always',
+               no = group,
+               parking_space = group,
+               parking_entrance = group,
+               waste_disposal = group,
+               hunting_stand = group},
+    building = {'fallback',
+                no = group},
+    bridge = {'named_with_key',
+              no = group},
+    club = {'always',
+            no = group},
+    craft = {'always',
+             no = group},
+    emergency = {'always',
+                 no = group,
+                 yes = group,
+                 fire_hydrant = group},
+    healthcare = {'fallback',
+                  yes = group,
+                  no = group},
+    highway = {'always',
+               no = group,
+               turning_circle = group,
+               mini_roundabout = group,
+               noexit = group,
+               crossing = group,
+               give_way = group,
+               stop = group,
+               turning_loop = group,
+               passing_place = group,
+               street_lamp = 'named',
+               traffic_signals = 'named'},
+    historic = {'always',
+                yes = group,
+                no = group},
+    information = {include_when_tag_present('tourism', 'information'),
+                   yes = 'delete',
+                   route_marker = 'never',
+                   trail_blaze = 'never'},
+    junction = {'fallback',
+                no = group},
+    leisure = {'always',
+               nature_reserve = 'fallback',
+               swimming_pool = 'named',
+               no = group},
+    lock = {yes = lock_transform},
+    man_made = {pier = 'always',
+                tower = 'always',
+                bridge = 'always',
+                works = 'named',
+                water_tower = 'always',
+                dyke = 'named',
+                adit = 'named',
+                lighthouse = 'always',
+                watermill = 'always',
+                tunnel = 'always'},
+    military = {'always',
+                yes = group,
+                no = group},
+    office = {'always',
+              no = group},
+    railway = {'named',
+               rail = group,
+               no = group,
+               abandoned = group,
+               disused = group,
+               razed = group,
+               level_crossing = group,
+               switch = group,
+               signal = group,
+               buffer_stop = group},
+    shop = {'always',
+            no = group},
+    tourism = {'always',
+               no = group,
+               yes = group,
+               information = exclude_when_key_present('information')},
+    tunnel = {'named_with_key',
+              no = group}
+} end
+
+module.MAIN_TAGS_STREETS = {}
+
+module.MAIN_TAGS_STREETS.default = {
+    place = {square = 'always'},
+    highway = {motorway = 'always',
+               trunk = 'always',
+               primary = 'always',
+               secondary = 'always',
+               tertiary = 'always',
+               unclassified = 'always',
+               residential = 'always',
+               road = 'always',
+               living_street = 'always',
+               pedestrian = 'always',
+               service = 'named',
+               cycleway = 'named',
+               path = 'named',
+               footway = filter_footways,
+               steps = 'named',
+               bridleway = 'named',
+               track = 'named',
+               motorway_link = 'named',
+               trunk_link = 'named',
+               primary_link = 'named',
+               secondary_link = 'named',
+               tertiary_link = 'named'}
+}
+
+module.MAIN_TAGS_STREETS.car = {
+    place = {square = 'always'},
+    highway = {motorway = 'always',
+               trunk = 'always',
+               primary = 'always',
+               secondary = 'always',
+               tertiary = 'always',
+               unclassified = 'always',
+               residential = 'always',
+               road = 'always',
+               living_street = 'always',
+               service = 'always',
+               track = 'always',
+               motorway_link = 'always',
+               trunk_link = 'always',
+               primary_link = 'always',
+               secondary_link = 'always',
+               tertiary_link = 'always'}
+}
+
+module.MAIN_TAGS_STREETS.all = {
+    place = {square = 'always'},
+    highway = {motorway = 'always',
+               trunk = 'always',
+               primary = 'always',
+               secondary = 'always',
+               tertiary = 'always',
+               unclassified = 'always',
+               residential = 'always',
+               road = 'always',
+               living_street = 'always',
+               pedestrian = 'always',
+               service = 'always',
+               cycleway = 'always',
+               path = 'always',
+               footway = 'always',
+               steps = 'always',
+               bridleway = 'always',
+               track = 'always',
+               motorway_link = 'always',
+               trunk_link = 'always',
+               primary_link = 'always',
+               secondary_link = 'always',
+               tertiary_link = 'always'}
+}
+
+
+-- name tags
+
+module.NAME_TAGS = {}
+
+module.NAME_TAGS.core = {main = {'name', 'name:*',
+                                 'int_name', 'int_name:*',
+                                 'nat_name', 'nat_name:*',
+                                 'reg_name', 'reg_name:*',
+                                 'loc_name', 'loc_name:*',
+                                 'old_name', 'old_name:*',
+                                 'alt_name', 'alt_name:*', 'alt_name_*',
+                                 'official_name', 'official_name:*',
+                                 'place_name', 'place_name:*',
+                                 'short_name', 'short_name:*'},
+                         extra = {'ref', 'int_ref', 'nat_ref', 'reg_ref',
+                                  'loc_ref', 'old_ref', 'ISO3166-2'}
+                        }
+module.NAME_TAGS.address = {house = {'addr:housename'}}
+module.NAME_TAGS.poi = group_merge({main = {'brand'},
+                                    extra = {'iata', 'icao'}},
+                                   module.NAME_TAGS.core)
+
+-- Address tagging
+
+module.ADDRESS_TAGS = {}
+
+module.ADDRESS_TAGS.core = { extra = {'addr:*', 'is_in:*', 'tiger:county'},
+                             postcode = {'postal_code', 'postcode', 'addr:postcode',
+                                         'tiger:zip_left', 'tiger:zip_right'},
+                             country = {'country_code', 'ISO3166-1',
+                                        'addr:country_code', 'is_in:country_code',
+                                        'addr:country', 'is_in:country'}
+                           }
+
+module.ADDRESS_TAGS.houses = { main = {'addr:housenumber',
+                                       'addr:conscriptionnumber',
+                                       'addr:streetnumber'},
+                               interpolation = {'addr:interpolation'}
+                             }
+
+-- Ignored tags (prefiltered away)
+
+module.IGNORE_KEYS = {}
+
+module.IGNORE_KEYS.metatags = {'note', 'note:*', 'source', 'source:*', '*source',
+                               'attribution', 'comment', 'fixme', 'created_by',
+                               'tiger:cfcc', 'tiger:reviewed', 'nysgissam:*',
+                               'NHD:*', 'nhd:*', 'gnis:*', 'geobase:*', 'yh:*',
+                               'osak:*', 'naptan:*', 'CLC:*', 'import', 'it:fvg:*',
+                               'lacounty:*', 'ref:linz:*',
+                               'ref:bygningsnr', 'ref:ruian:*', 'building:ruian:type',
+                               'type',
+                               'is_in:postcode'}
+module.IGNORE_KEYS.name = {'*:prefix', '*:suffix', 'name:prefix:*', 'name:suffix:*',
+                           'name:etymology', 'name:etymology:*',
+                           'name:signed', 'name:botanical'}
+module.IGNORE_KEYS.address = {'addr:street:*', 'addr:city:*', 'addr:district:*',
+                              'addr:province:*', 'addr:subdistrict:*', 'addr:place:*',
+                              'addr:TW:dataset'}
+
+-- Extra tags (prefiltered away)
+
+module.EXTRATAGS = {}
+
+module.EXTRATAGS.required = {'wikipedia', 'wikipedia:*', 'wikidata', 'capital'}
+
+return module
diff --git a/lib-lua/themes/nominatim/topics/address.lua b/lib-lua/themes/nominatim/topics/address.lua
new file mode 100644 (file)
index 0000000..0e81367
--- /dev/null
@@ -0,0 +1,23 @@
+local _, flex, cfg = ...
+
+flex.set_main_tags('admin')
+flex.modify_main_tags('street/' .. (cfg.street_theme or 'default'))
+flex.modify_main_tags{boundary = {postal_code = 'always'}}
+
+flex.set_name_tags('core')
+flex.modify_name_tags('address')
+
+flex.set_address_tags('core')
+flex.modify_address_tags('houses')
+
+flex.ignore_keys('metatags')
+flex.add_for_extratags('required')
+
+if cfg.with_extratags then
+    flex.set_unused_handling{delete_keys = {'tiger:*'}}
+    flex.add_for_extratags('name')
+    flex.add_for_extratags('address')
+else
+    flex.ignore_keys('name')
+    flex.ignore_keys('address')
+end
diff --git a/lib-lua/themes/nominatim/topics/admin.lua b/lib-lua/themes/nominatim/topics/admin.lua
new file mode 100644 (file)
index 0000000..47f4e24
--- /dev/null
@@ -0,0 +1,20 @@
+local _, flex, cfg = ...
+
+flex.set_main_tags('admin')
+
+flex.set_name_tags('core')
+
+flex.set_address_tags('core')
+flex.set_postcode_fallback(false)
+
+flex.ignore_keys('metatags')
+flex.add_for_extratags('required')
+
+if cfg.with_extratags then
+    flex.set_unused_handling{delete_keys = {'tiger:*'}}
+    flex.add_for_extratags('name')
+    flex.add_for_extratags('address')
+else
+    flex.ignore_keys('name')
+    flex.ignore_keys('address')
+end
diff --git a/lib-lua/themes/nominatim/topics/full.lua b/lib-lua/themes/nominatim/topics/full.lua
new file mode 100644 (file)
index 0000000..a0b61b0
--- /dev/null
@@ -0,0 +1,32 @@
+local _, flex, cfg = ...
+
+local group
+if cfg.with_extratags then
+    group = 'extra'
+else
+    group = 'delete'
+end
+
+flex.set_main_tags('all_boundaries')
+flex.modify_main_tags('natural')
+flex.modify_main_tags('street/' .. (cfg.street_theme or 'default'))
+flex.modify_main_tags('poi/' .. group)
+
+flex.set_name_tags('core')
+flex.modify_name_tags('address')
+flex.modify_name_tags('poi')
+
+flex.set_address_tags('core')
+flex.modify_address_tags('houses')
+
+flex.ignore_keys('metatags')
+flex.add_for_extratags('required')
+
+if cfg.with_extratags then
+    flex.set_unused_handling{delete_keys = {'tiger:*'}}
+    flex.add_for_extratags('name')
+    flex.add_for_extratags('address')
+else
+    flex.ignore_keys('name')
+    flex.ignore_keys('address')
+end
diff --git a/lib-lua/themes/nominatim/topics/street.lua b/lib-lua/themes/nominatim/topics/street.lua
new file mode 100644 (file)
index 0000000..89bed44
--- /dev/null
@@ -0,0 +1,22 @@
+local _, flex, cfg = ...
+
+flex.set_main_tags('admin')
+flex.modify_main_tags('street/' .. (cfg.street_theme or 'default'))
+flex.modify_main_tags{boundary = {postal_code = 'always'}}
+
+flex.set_name_tags('core')
+
+flex.set_address_tags('core')
+flex.set_postcode_fallback(false)
+
+flex.ignore_keys('metatags')
+flex.add_for_extratags('required')
+
+if cfg.with_extratags then
+    flex.set_unused_handling{delete_keys = {'tiger:*'}}
+    flex.add_for_extratags('name')
+    flex.add_for_extratags('address')
+else
+    flex.ignore_keys('name')
+    flex.ignore_keys('address')
+end
index 20ec3da6bb6853ec38c334ec483f784320e7dc0b..595e4a614a775d4d8623f8b4c2708e24fe6d570d 100644 (file)
@@ -17,28 +17,6 @@ CREATE TYPE nearfeaturecentr AS (
   centroid GEOMETRY
 );
 
--- feature intersects geometry
--- for areas and linestrings they must touch at least along a line
-CREATE OR REPLACE FUNCTION is_relevant_geometry(de9im TEXT, geom_type TEXT)
-RETURNS BOOLEAN
-AS $$
-BEGIN
-  IF substring(de9im from 1 for 2) != 'FF' THEN
-    RETURN TRUE;
-  END IF;
-
-  IF geom_type = 'ST_Point' THEN
-    RETURN substring(de9im from 4 for 1) = '0';
-  END IF;
-
-  IF geom_type in ('ST_LineString', 'ST_MultiLineString') THEN
-    RETURN substring(de9im from 4 for 1) = '1';
-  END IF;
-
-  RETURN substring(de9im from 4 for 1) = '2';
-END
-$$ LANGUAGE plpgsql IMMUTABLE;
-
 CREATE OR REPLACE function getNearFeatures(in_partition INTEGER, feature GEOMETRY,
                                            feature_centroid GEOMETRY,
                                            maxrank INTEGER)
@@ -59,7 +37,12 @@ BEGIN
              isguess, postcode, centroid
       FROM location_area_large_{{ partition }}
       WHERE geometry && feature
-        AND is_relevant_geometry(ST_Relate(geometry, feature), ST_GeometryType(feature))
+        AND CASE WHEN ST_Dimension(feature) = 0
+                     THEN _ST_Covers(geometry, feature)
+                 WHEN ST_Dimension(feature) = 2
+                     THEN ST_Relate(geometry, feature, 'T********')
+                 ELSE ST_NPoints(ST_Intersection(geometry, feature)) > 1
+            END
         AND rank_address < maxrank
             -- Postcodes currently still use rank_search to define for which
             -- features they are relevant.
@@ -142,14 +125,16 @@ BEGIN
 
   IF in_rank_search <= 4 and not in_estimate THEN
     INSERT INTO location_area_country (place_id, country_code, geometry)
-      values (in_place_id, in_country_code, in_geometry);
+      (SELECT in_place_id, in_country_code, geom
+       FROM split_geometry(in_geometry) as geom);
     RETURN TRUE;
   END IF;
 
 {% for partition in db.partitions %}
   IF in_partition = {{ partition }} THEN
     INSERT INTO location_area_large_{{ partition }} (partition, place_id, country_code, keywords, rank_search, rank_address, isguess, postcode, centroid, geometry)
-      values (in_partition, in_place_id, in_country_code, in_keywords, in_rank_search, in_rank_address, in_estimate, postcode, in_centroid, in_geometry);
+      (SELECT in_partition, in_place_id, in_country_code, in_keywords, in_rank_search, in_rank_address, in_estimate, postcode, in_centroid, geom
+       FROM split_geometry(in_geometry) as geom);
     RETURN TRUE;
   END IF;
 {% endfor %}
index df00f9167fae980554a52f071dc6d3cd4c6bfbbd..534beb58af6583183fa03a233256af70bc3f5181 100644 (file)
@@ -348,8 +348,6 @@ CREATE OR REPLACE FUNCTION add_location(place_id BIGINT, country_code varchar(2)
   RETURNS BOOLEAN
   AS $$
 DECLARE
-  locationid INTEGER;
-  secgeo GEOMETRY;
   postcode TEXT;
 BEGIN
   PERFORM deleteLocationArea(partition, place_id, rank_search);
@@ -360,18 +358,19 @@ BEGIN
       postcode := upper(trim (in_postcode));
   END IF;
 
-  IF ST_GeometryType(geometry) in ('ST_Polygon','ST_MultiPolygon') THEN
-    FOR secgeo IN select split_geometry(geometry) AS geom LOOP
-      PERFORM insertLocationAreaLarge(partition, place_id, country_code, keywords, rank_search, rank_address, false, postcode, centroid, secgeo);
-    END LOOP;
-
-  ELSEIF ST_GeometryType(geometry) = 'ST_Point' THEN
-    secgeo := place_node_fuzzy_area(geometry, rank_search);
-    PERFORM insertLocationAreaLarge(partition, place_id, country_code, keywords, rank_search, rank_address, true, postcode, centroid, secgeo);
+  IF ST_Dimension(geometry) = 2 THEN
+    RETURN insertLocationAreaLarge(partition, place_id, country_code, keywords,
+                                   rank_search, rank_address, false, postcode,
+                                   centroid, geometry);
+  END IF;
 
+  IF ST_Dimension(geometry) = 0 THEN
+    RETURN insertLocationAreaLarge(partition, place_id, country_code, keywords,
+                                   rank_search, rank_address, true, postcode,
+                                   centroid, place_node_fuzzy_area(geometry, rank_search));
   END IF;
 
-  RETURN true;
+  RETURN false;
 END;
 $$
 LANGUAGE plpgsql;
@@ -394,19 +393,21 @@ DECLARE
   geo RECORD;
   area FLOAT;
   remainingdepth INTEGER;
-  added INTEGER;
 BEGIN
-
 --  RAISE WARNING 'quad_split_geometry: maxarea=%, depth=%',maxarea,maxdepth;
 
-  IF (ST_GeometryType(geometry) not in ('ST_Polygon','ST_MultiPolygon') OR NOT ST_IsValid(geometry)) THEN
+  IF not ST_IsValid(geometry) THEN
+    RETURN;
+  END IF;
+
+  IF ST_Dimension(geometry) != 2 OR maxdepth <= 1 THEN
     RETURN NEXT geometry;
     RETURN;
   END IF;
 
   remainingdepth := maxdepth - 1;
   area := ST_AREA(geometry);
-  IF remainingdepth < 1 OR area < maxarea THEN
+  IF area < maxarea THEN
     RETURN NEXT geometry;
     RETURN;
   END IF;
@@ -426,7 +427,6 @@ BEGIN
   xmid := (xmin+xmax)/2;
   ymid := (ymin+ymax)/2;
 
-  added := 0;
   FOR seg IN 1..4 LOOP
 
     IF seg = 1 THEN
@@ -442,16 +442,13 @@ BEGIN
       secbox := ST_SetSRID(ST_MakeBox2D(ST_Point(xmid,ymid),ST_Point(xmax,ymax)),4326);
     END IF;
 
-    IF st_intersects(geometry, secbox) THEN
-      secgeo := st_intersection(geometry, secbox);
-      IF NOT ST_IsEmpty(secgeo) AND ST_GeometryType(secgeo) in ('ST_Polygon','ST_MultiPolygon') THEN
-        FOR geo IN select quad_split_geometry(secgeo, maxarea, remainingdepth) as geom LOOP
-          IF NOT ST_IsEmpty(geo.geom) AND ST_GeometryType(geo.geom) in ('ST_Polygon','ST_MultiPolygon') THEN
-            added := added + 1;
-            RETURN NEXT geo.geom;
-          END IF;
-        END LOOP;
-      END IF;
+    secgeo := st_intersection(geometry, secbox);
+    IF NOT ST_IsEmpty(secgeo) AND ST_Dimension(secgeo) = 2 THEN
+      FOR geo IN SELECT quad_split_geometry(secgeo, maxarea, remainingdepth) as geom LOOP
+        IF NOT ST_IsEmpty(geo.geom) AND ST_Dimension(geo.geom) = 2 THEN
+          RETURN NEXT geo.geom;
+        END IF;
+      END LOOP;
     END IF;
   END LOOP;
 
@@ -467,10 +464,22 @@ CREATE OR REPLACE FUNCTION split_geometry(geometry GEOMETRY)
 DECLARE
   geo RECORD;
 BEGIN
-  -- 10000000000 is ~~ 1x1 degree
-  FOR geo IN select quad_split_geometry(geometry, 0.25, 20) as geom LOOP
-    RETURN NEXT geo.geom;
-  END LOOP;
+  IF ST_GeometryType(geometry) = 'ST_MultiPolygon'
+     and ST_Area(geometry) * 10 > ST_Area(Box2D(geometry))
+  THEN
+    FOR geo IN
+        SELECT quad_split_geometry(g, 0.25, 20) as geom
+        FROM (SELECT (ST_Dump(geometry)).geom::geometry(Polygon, 4326) AS g) xx
+    LOOP
+      RETURN NEXT geo.geom;
+    END LOOP;
+  ELSE
+    FOR geo IN
+        SELECT quad_split_geometry(geometry, 0.25, 20) as geom
+    LOOP
+      RETURN NEXT geo.geom;
+    END LOOP;
+  END IF;
   RETURN;
 END;
 $$
index 797acbb55eebccd279cbcc0be9cdec69a66e84fd..7d186da16d77529bff3e4c80b65cd43bf6ff26fe 100644 (file)
@@ -11,4 +11,5 @@ from pathlib import Path
 
 DATA_DIR = None
 SQLLIB_DIR = None
+LUALIB_DIR = None
 CONFIG_DIR = (Path(__file__) / '..' / 'resources' / 'settings').resolve()
index 796ff08b3519a205b5f8a926a7a46e17c0a89908..02df5047794e3bc8ba013375f08f5a78b79b26f7 100644 (file)
@@ -11,4 +11,5 @@ from pathlib import Path
 
 DATA_DIR = (Path(__file__) / '..' / 'resources').resolve()
 SQLLIB_DIR = (DATA_DIR / 'lib-sql')
+LUALIB_DIR = (DATA_DIR / 'lib-lua')
 CONFIG_DIR = (DATA_DIR / 'settings')
diff --git a/packaging/nominatim-db/lib-lua b/packaging/nominatim-db/lib-lua
new file mode 120000 (symlink)
index 0000000..e4e1bd0
--- /dev/null
@@ -0,0 +1 @@
+../../lib-lua
\ No newline at end of file
index 8604ac3d4cd59c92fabd1860486ca752290100de..f35880f5b7f89d76639f60c77081ff8523a94c94 100644 (file)
@@ -45,6 +45,7 @@ include = [
     "src/nominatim_db",
     "scripts",
     "lib-sql/**/*.sql",
+    "lib-lua/**/*.lua",
     "settings",
     "data/words.sql",
     "extra_src/nominatim_db/paths.py"
@@ -66,6 +67,7 @@ packages = ["src/nominatim_db"]
 
 [tool.hatch.build.targets.wheel.force-include]
 "lib-sql" = "nominatim_db/resources/lib-sql"
+"lib-lua" = "nominatim_db/resources/lib-lua"
 "settings" = "nominatim_db/resources/settings"
 "data/country_osm_grid.sql.gz" = "nominatim_db/resources/country_osm_grid.sql.gz"
 "data/words.sql" = "nominatim_db/resources/words.sql"
index b63eac4efa065de8c3782cd1d75658af0197283c..322ff707d1ad3a8a799e217a9079a598de672c50 100644 (file)
@@ -23,8 +23,8 @@
           "allotments" : 22,
           "neighbourhood" : [20, 22],
           "quarter" : [20, 22],
-          "isolated_dwelling" : [22, 20],
-          "farm" : [22, 20],
+          "isolated_dwelling" : [22, 25],
+          "farm" : [22, 25],
           "city_block" : 25,
           "mountain_pass" : 25,
           "square" : 25,
           "stone" : 30,
           "" : [22, 0]
       },
+      "water" : {
+          "lake" : [20, 0],
+          "reservoir" : [20, 0],
+          "wastewater" : [24, 0],
+          "pond" : [24, 0],
+          "fountain" : [24, 0],
+          "" : [22, 0]
+      },
       "waterway" : {
           "river" : [19, 0],
           "stream" : [22, 0],
diff --git a/settings/flex-base.lua b/settings/flex-base.lua
deleted file mode 100644 (file)
index 7860737..0000000
+++ /dev/null
@@ -1,557 +0,0 @@
--- Core functions for Nominatim import flex style.
---
-
-local module = {}
-
-local PRE_DELETE = nil
-local PRE_EXTRAS = nil
-local POST_DELETE = nil
-local MAIN_KEYS = nil
-local NAMES = nil
-local ADDRESS_TAGS = nil
-local SAVE_EXTRA_MAINS = false
-local POSTCODE_FALLBACK = true
-
--- tables required for taginfo
-module.TAGINFO_MAIN = {keys = {}, delete_tags = {}}
-module.TAGINFO_NAME_KEYS = {}
-module.TAGINFO_ADDRESS_KEYS = {}
-
-
--- The single place table.
-local place_table = osm2pgsql.define_table{
-    name = "place",
-    ids = { type = 'any', id_column = 'osm_id', type_column = 'osm_type' },
-    columns = {
-        { column = 'class', type = 'text', not_null = true },
-        { column = 'type', type = 'text', not_null = true },
-        { column = 'admin_level', type = 'smallint' },
-        { column = 'name', type = 'hstore' },
-        { column = 'address', type = 'hstore' },
-        { column = 'extratags', type = 'hstore' },
-        { column = 'geometry', type = 'geometry', projection = 'WGS84', not_null = true },
-    },
-    data_tablespace = os.getenv("NOMINATIM_TABLESPACE_PLACE_DATA"),
-    index_tablespace = os.getenv("NOMINATIM_TABLESPACE_PLACE_INDEX"),
-    indexes = {}
-}
-
------------- Geometry functions for relations ---------------------
-
-function module.relation_as_multipolygon(o)
-    return o:as_multipolygon()
-end
-
-function module.relation_as_multiline(o)
-    return o:as_multilinestring():line_merge()
-end
-
-
-module.RELATION_TYPES = {
-    multipolygon = module.relation_as_multipolygon,
-    boundary = module.relation_as_multipolygon,
-    waterway = module.relation_as_multiline
-}
-
-------------- Place class ------------------------------------------
-
-local Place = {}
-Place.__index = Place
-
-function Place.new(object, geom_func)
-    local self = setmetatable({}, Place)
-    self.object = object
-    self.geom_func = geom_func
-
-    self.admin_level = tonumber(self.object:grab_tag('admin_level'))
-    if self.admin_level == nil
-       or self.admin_level <= 0 or self.admin_level > 15
-       or math.floor(self.admin_level) ~= self.admin_level then
-        self.admin_level = 15
-    end
-
-    self.num_entries = 0
-    self.has_name = false
-    self.names = {}
-    self.address = {}
-    self.extratags = {}
-
-    return self
-end
-
-function Place:clean(data)
-    for k, v in pairs(self.object.tags) do
-        if data.delete ~= nil and data.delete(k, v) then
-            self.object.tags[k] = nil
-        elseif data.extra ~= nil and data.extra(k, v) then
-            self.extratags[k] = v
-            self.object.tags[k] = nil
-        end
-    end
-end
-
-function Place:delete(data)
-    if data.match ~= nil then
-        for k, v in pairs(self.object.tags) do
-            if data.match(k, v) then
-                self.object.tags[k] = nil
-            end
-        end
-    end
-end
-
-function Place:grab_extratags(data)
-    local count = 0
-
-    if data.match ~= nil then
-        for k, v in pairs(self.object.tags) do
-            if data.match(k, v) then
-                self.object.tags[k] = nil
-                self.extratags[k] = v
-                count = count + 1
-            end
-        end
-    end
-
-    return count
-end
-
-local function strip_address_prefix(k)
-    if k:sub(1, 5) == 'addr:' then
-        return k:sub(6)
-    end
-
-    if k:sub(1, 6) == 'is_in:' then
-        return k:sub(7)
-    end
-
-    return k
-end
-
-
-function Place:grab_address_parts(data)
-    local count = 0
-
-    if data.groups ~= nil then
-        for k, v in pairs(self.object.tags) do
-            local atype = data.groups(k, v)
-
-            if atype ~= nil then
-                if atype == 'main' then
-                    self.has_name = true
-                    self.address[strip_address_prefix(k)] = v
-                    count = count + 1
-                elseif atype == 'extra' then
-                    self.address[strip_address_prefix(k)] = v
-                else
-                    self.address[atype] = v
-                end
-                self.object.tags[k] = nil
-            end
-        end
-    end
-
-    return count
-end
-
-
-function Place:grab_name_parts(data)
-    local fallback = nil
-
-    if data.groups ~= nil then
-        for k, v in pairs(self.object.tags) do
-            local atype = data.groups(k, v)
-
-            if atype ~= nil then
-                self.names[k] = v
-                self.object.tags[k] = nil
-                if atype == 'main' then
-                    self.has_name = true
-                elseif atype == 'house' then
-                    self.has_name = true
-                    fallback = {'place', 'house', 'always'}
-                end
-            end
-        end
-    end
-
-    return fallback
-end
-
-
-function Place:write_place(k, v, mtype, save_extra_mains)
-    if mtype == nil then
-        return 0
-    end
-
-    v = v or self.object.tags[k]
-    if v == nil then
-        return 0
-    end
-
-    if type(mtype) == 'table' then
-        mtype = mtype[v] or mtype[1]
-    end
-
-    if mtype == 'always' or (self.has_name and mtype == 'named') then
-        return self:write_row(k, v, save_extra_mains)
-    end
-
-    if mtype == 'named_with_key' then
-        local names = {}
-        local prefix = k .. ':name'
-        for namek, namev in pairs(self.object.tags) do
-            if namek:sub(1, #prefix) == prefix
-               and (#namek == #prefix
-                    or namek:sub(#prefix + 1, #prefix + 1) == ':') then
-                names[namek:sub(#k + 2)] = namev
-            end
-        end
-
-        if next(names) ~= nil then
-            local saved_names = self.names
-            self.names = names
-
-            local results = self:write_row(k, v, save_extra_mains)
-
-            self.names = saved_names
-
-            return results
-        end
-    end
-
-    return 0
-end
-
-function Place:write_row(k, v, save_extra_mains)
-    if self.geometry == nil then
-        self.geometry = self.geom_func(self.object)
-    end
-    if self.geometry == nil or self.geometry:is_null() then
-        return 0
-    end
-
-    if save_extra_mains ~= nil then
-        for extra_k, extra_v in pairs(self.object.tags) do
-            if extra_k ~= k and save_extra_mains(extra_k, extra_v) then
-                self.extratags[extra_k] = extra_v
-            end
-        end
-    end
-
-    place_table:insert{
-        class = k,
-        type = v,
-        admin_level = self.admin_level,
-        name = next(self.names) and self.names,
-        address = next(self.address) and self.address,
-        extratags = next(self.extratags) and self.extratags,
-        geometry = self.geometry
-    }
-
-    if save_extra_mains then
-        for tk, tv in pairs(self.object.tags) do
-            if save_extra_mains(tk, tv) then
-                self.extratags[tk] = nil
-            end
-        end
-    end
-
-    self.num_entries = self.num_entries + 1
-
-    return 1
-end
-
-
-function module.tag_match(data)
-    if data == nil or next(data) == nil then
-        return nil
-    end
-
-    local fullmatches = {}
-    local key_prefixes = {}
-    local key_suffixes = {}
-
-    if data.keys ~= nil then
-        for _, key in pairs(data.keys) do
-            if key:sub(1, 1) == '*' then
-                if #key > 1 then
-                    if key_suffixes[#key - 1] == nil then
-                        key_suffixes[#key - 1] = {}
-                    end
-                    key_suffixes[#key - 1][key:sub(2)] = true
-                end
-            elseif key:sub(#key, #key) == '*' then
-                if key_prefixes[#key - 1] == nil then
-                    key_prefixes[#key - 1] = {}
-                end
-                key_prefixes[#key - 1][key:sub(1, #key - 1)] = true
-            else
-                fullmatches[key] = true
-            end
-        end
-    end
-
-    if data.tags ~= nil then
-        for k, vlist in pairs(data.tags) do
-            if fullmatches[k] == nil then
-                fullmatches[k] = {}
-                for _, v in pairs(vlist) do
-                    fullmatches[k][v] = true
-                end
-            end
-        end
-    end
-
-    return function (k, v)
-        if fullmatches[k] ~= nil and (fullmatches[k] == true or fullmatches[k][v] ~= nil) then
-            return true
-        end
-
-        for slen, slist in pairs(key_suffixes) do
-            if #k >= slen and slist[k:sub(-slen)] ~= nil then
-                return true
-            end
-        end
-
-        for slen, slist in pairs(key_prefixes) do
-            if #k >= slen and slist[k:sub(1, slen)] ~= nil then
-                return true
-            end
-        end
-
-        return false
-    end
-end
-
-
-function module.tag_group(data)
-    if data == nil or next(data) == nil then
-        return nil
-    end
-
-    local fullmatches = {}
-    local key_prefixes = {}
-    local key_suffixes = {}
-
-    for group, tags in pairs(data) do
-        for _, key in pairs(tags) do
-            if key:sub(1, 1) == '*' then
-                if #key > 1 then
-                    if key_suffixes[#key - 1] == nil then
-                        key_suffixes[#key - 1] = {}
-                    end
-                    key_suffixes[#key - 1][key:sub(2)] = group
-                end
-            elseif key:sub(#key, #key) == '*' then
-                if key_prefixes[#key - 1] == nil then
-                    key_prefixes[#key - 1] = {}
-                end
-                key_prefixes[#key - 1][key:sub(1, #key - 1)] = group
-            else
-                fullmatches[key] = group
-            end
-        end
-    end
-
-    return function (k, v)
-        local val = fullmatches[k]
-        if val ~= nil then
-            return val
-        end
-
-        for slen, slist in pairs(key_suffixes) do
-            if #k >= slen then
-                val = slist[k:sub(-slen)]
-                if val ~= nil then
-                    return val
-                end
-            end
-        end
-
-        for slen, slist in pairs(key_prefixes) do
-            if #k >= slen then
-                val = slist[k:sub(1, slen)]
-                if val ~= nil then
-                    return val
-                end
-            end
-        end
-    end
-end
-
--- Returns prefix part of the keys, and reject suffix matching keys
-local function process_key(key)
-    if key:sub(1, 1) == '*' then
-        return nil
-    end
-    if key:sub(#key, #key) == '*' then
-        return key:sub(1, #key - 2)
-    end
-    return key
-end
-
--- Process functions for all data types
-function module.process_node(object)
-
-    local function geom_func(o)
-        return o:as_point()
-    end
-
-    module.process_tags(Place.new(object, geom_func))
-end
-
-function module.process_way(object)
-
-    local function geom_func(o)
-        local geom = o:as_polygon()
-
-        if geom:is_null() then
-            geom = o:as_linestring()
-            if not geom:is_null() and geom:length() > 30 then
-              return nil
-            end
-        end
-
-        return geom
-    end
-
-    module.process_tags(Place.new(object, geom_func))
-end
-
-function module.process_relation(object)
-    local geom_func = module.RELATION_TYPES[object.tags.type]
-
-    if geom_func ~= nil then
-        module.process_tags(Place.new(object, geom_func))
-    end
-end
-
--- The process functions are used by default by osm2pgsql.
-osm2pgsql.process_node = module.process_node
-osm2pgsql.process_way = module.process_way
-osm2pgsql.process_relation = module.process_relation
-
-function module.process_tags(o)
-    o:clean{delete = PRE_DELETE, extra = PRE_EXTRAS}
-
-    -- Exception for boundary/place double tagging
-    if o.object.tags.boundary == 'administrative' then
-        o:grab_extratags{match = function (k, v)
-            return k == 'place' and v:sub(1,3) ~= 'isl'
-        end}
-    end
-
-    -- name keys
-    local fallback = o:grab_name_parts{groups=NAMES}
-
-    -- address keys
-    if o:grab_address_parts{groups=ADDRESS_TAGS} > 0 and fallback == nil then
-        fallback = {'place', 'house', 'always'}
-    end
-    if o.address.country ~= nil and #o.address.country ~= 2 then
-        o.address['country'] = nil
-    end
-    if POSTCODE_FALLBACK and fallback == nil and o.address.postcode ~= nil then
-        fallback = {'place', 'postcode', 'always'}
-    end
-
-    if o.address.interpolation ~= nil then
-        o:write_place('place', 'houses', 'always', SAVE_EXTRA_MAINS)
-        return
-    end
-
-    o:clean{delete = POST_DELETE}
-
-    -- collect main keys
-    for k, v in pairs(o.object.tags) do
-        local ktype = MAIN_KEYS[k]
-        if ktype == 'fallback' then
-            if o.has_name then
-                fallback = {k, v, 'named'}
-            end
-        elseif ktype ~= nil then
-            o:write_place(k, v, MAIN_KEYS[k], SAVE_EXTRA_MAINS)
-        end
-    end
-
-    if fallback ~= nil and o.num_entries == 0 then
-        o:write_place(fallback[1], fallback[2], fallback[3], SAVE_EXTRA_MAINS)
-    end
-end
-
---------- Convenience functions for simple style configuration -----------------
-
-
-function module.set_prefilters(data)
-    PRE_DELETE = module.tag_match{keys = data.delete_keys, tags = data.delete_tags}
-    PRE_EXTRAS = module.tag_match{keys = data.extra_keys,
-                                  tags = data.extra_tags}
-    module.TAGINFO_MAIN.delete_tags = data.delete_tags
-end
-
-function module.set_main_tags(data)
-    MAIN_KEYS = data
-    local keys = {}
-    for k, _ in pairs(data) do
-        table.insert(keys, k)
-    end
-    module.TAGINFO_MAIN.keys = keys
-end
-
-function module.set_name_tags(data)
-    NAMES = module.tag_group(data)
-
-    for _, lst in pairs(data) do
-        for _, k in ipairs(lst) do
-            local key = process_key(k)
-            if key ~= nil then
-                module.TAGINFO_NAME_KEYS[key] = true
-            end
-        end
-    end
-end
-
-function module.set_address_tags(data)
-    if data.postcode_fallback ~= nil then
-        POSTCODE_FALLBACK = data.postcode_fallback
-        data.postcode_fallback = nil
-    end
-    ADDRESS_TAGS = module.tag_group(data)
-
-    for _, lst in pairs(data) do
-        if lst ~= nil then
-            for _, k in ipairs(lst) do
-                local key = process_key(k)
-                if key ~= nil then
-                    module.TAGINFO_ADDRESS_KEYS[key] = true
-                end
-            end
-        end
-    end
-end
-
-function module.set_unused_handling(data)
-    if data.extra_keys == nil and data.extra_tags == nil then
-        POST_DELETE = module.tag_match{keys = data.delete_keys, tags = data.delete_tags}
-        SAVE_EXTRA_MAINS = function() return true end
-    elseif data.delete_keys == nil and data.delete_tags == nil then
-        POST_DELETE = nil
-        SAVE_EXTRA_MAINS = module.tag_match{keys = data.extra_keys, tags = data.extra_tags}
-    else
-        error("unused handler can have only 'extra_keys' or 'delete_keys' set.")
-    end
-end
-
-function module.set_relation_types(data)
-    module.RELATION_TYPES = {}
-    for k, v in data do
-        if v == 'multipolygon' then
-            module.RELATION_TYPES[k] = module.relation_as_multipolygon
-        elseif v == 'multiline' then
-            module.RELATION_TYPES[k] = module.relation_as_multiline
-        end
-    end
-end
-
-return module
index c5a809c68319f3095f2d9b4bf06c6456ff4b2b05..6cf30d59e55b961d32ae7fc1b9a08bf9118d1c62 100644 (file)
@@ -1,3 +1,6 @@
+query-preprocessing:
+    - step: split_japanese_phrases
+    - step: normalize
 normalization:
     - ":: lower ()"
     - ":: Hans-Hant"
@@ -7,16 +10,17 @@ normalization:
     - "'nº' > 'no'"
     - "ª > a"
     - "º > o"
-    - "[[:Punctuation:][:Symbol:]\u02bc]  > ' '"
+    - "[[:Punctuation:][:Symbol:][\u02bc] - [-:]]+  > '-'"
     - "ß > 'ss'" # German szet is unambiguously equal to double ss
-    - "[^[:alnum:] [:Canonical_Combining_Class=Virama:] [:Space:]] >"
+    - "[^[:alnum:] [:Canonical_Combining_Class=Virama:] [:Space:] [-:]] >"
     - "[:Lm:] >"
     - ":: [[:Number:]] Latin ()"
     - ":: [[:Number:]] Ascii ();"
     - ":: [[:Number:]] NFD ();"
     - "[[:Nonspacing Mark:] [:Cf:]] >;"
-    - "[:Space:]+ > ' '"
+    - "[-:]?[:Space:]+[-:]? > ' '"
 transliteration:
+    - "[-:]  > ' '"
     - ":: Latin ()"
     - !include icu-rules/extended-unicode-to-asccii.yaml
     - ":: Ascii ()"
diff --git a/settings/import-address.lua b/settings/import-address.lua
deleted file mode 100644 (file)
index b177b73..0000000
+++ /dev/null
@@ -1,74 +0,0 @@
-local flex = require('flex-base')
-
-flex.set_main_tags{
-    highway = {motorway = 'always',
-               trunk = 'always',
-               primary = 'always',
-               secondary = 'always',
-               tertiary = 'always',
-               unclassified = 'always',
-               residential = 'always',
-               road = 'always',
-               living_street = 'always',
-               pedestrian = 'always',
-               service = 'named',
-               cycleway = 'named',
-               path = 'named',
-               footway = 'named',
-               steps = 'named',
-               bridleway = 'named',
-               track = 'named',
-               motorway_link = 'named',
-               trunk_link = 'named',
-               primary_link = 'named',
-               secondary_link = 'named',
-               tertiary_link = 'named'},
-    boundary = {administrative = 'named',
-                postal_code = 'always'},
-    landuse = 'fallback',
-    place = 'always'
-}
-
-flex.set_prefilters{delete_keys = {'building', 'source',
-                                   'source', '*source', 'type',
-                                   'is_in:postcode', '*:wikidata', '*:wikipedia',
-                                   '*:prefix', '*:suffix', 'name:prefix:*', 'name:suffix:*',
-                                   'name:etymology', 'name:signed', 'name:botanical',
-                                   'addr:street:name', 'addr:street:type'},
-                    delete_tags = {landuse = {'cemetry', 'no'},
-                                   boundary = {'place'}},
-                    extra_keys = {'wikipedia', 'wikipedia:*', 'wikidata', 'capital', 'area'}
-                   }
-
-flex.set_name_tags{main = {'name', 'name:*',
-                          'int_name', 'int_name:*',
-                          'nat_name', 'nat_name:*',
-                          'reg_name', 'reg_name:*',
-                          'loc_name', 'loc_name:*',
-                          'old_name', 'old_name:*',
-                          'alt_name', 'alt_name:*', 'alt_name_*',
-                          'official_name', 'official_name:*',
-                          'place_name', 'place_name:*',
-                          'short_name', 'short_name:*'},
-                   extra = {'ref', 'int_ref', 'nat_ref', 'reg_ref',
-                            'loc_ref', 'old_ref',
-                            'iata', 'icao', 'pcode', 'pcode:*', 'ISO3166-2'},
-                   house = {'addr:housename'}
-                  }
-
-flex.set_address_tags{main = {'addr:housenumber',
-                              'addr:conscriptionnumber',
-                              'addr:streetnumber'},
-                      extra = {'addr:*', 'is_in:*', 'tiger:county'},
-                      postcode = {'postal_code', 'postcode', 'addr:postcode',
-                                  'tiger:zip_left', 'tiger:zip_right'},
-                      country = {'country_code', 'ISO3166-1',
-                                 'addr:country_code', 'is_in:country_code',
-                                 'addr:country', 'is_in:country'},
-                      interpolation = {'addr:interpolation'}
-                     }
-
-
-flex.set_unused_handling{extra_keys = {'place'}}
-
-return flex
diff --git a/settings/import-admin.lua b/settings/import-admin.lua
deleted file mode 100644 (file)
index 78eac5f..0000000
+++ /dev/null
@@ -1,72 +0,0 @@
-local flex = require('flex-base')
-
-flex.set_main_tags{
-    boundary = {administrative = 'named'},
-    landuse = {residential = 'fallback',
-               farm = 'fallback',
-               farmyard = 'fallback',
-               industrial = 'fallback',
-               commercial = 'fallback',
-               allotments = 'fallback',
-               retail = 'fallback'},
-    place = {county = 'always',
-             district = 'always',
-             municipality = 'always',
-             city = 'always',
-             town = 'always',
-             borough = 'always',
-             village = 'always',
-             suburb = 'always',
-             hamlet = 'always',
-             croft = 'always',
-             subdivision = 'always',
-             allotments = 'always',
-             neighbourhood = 'always',
-             quarter = 'always',
-             isolated_dwelling = 'always',
-             farm = 'always',
-             city_block = 'always',
-             mountain_pass = 'always',
-             square = 'always',
-             locality = 'always'}
-}
-
-flex.set_prefilters{delete_keys = {'building', 'source', 'highway',
-                                   'addr:housenumber', 'addr:street', 'addr:city',
-                                   'addr:interpolation',
-                                   'source', '*source', 'type',
-                                   'is_in:postcode', '*:wikidata', '*:wikipedia',
-                                   '*:prefix', '*:suffix', 'name:prefix:*', 'name:suffix:*',
-                                   'name:etymology', 'name:signed', 'name:botanical',
-                                   'addr:street:name', 'addr:street:type'},
-                    delete_tags = {landuse = {'cemetry', 'no'},
-                                   boundary = {'place'}},
-                    extra_keys = {'wikipedia', 'wikipedia:*', 'wikidata', 'capital'}
-                   }
-
-flex.set_name_tags{main = {'name', 'name:*',
-                          'int_name', 'int_name:*',
-                          'nat_name', 'nat_name:*',
-                          'reg_name', 'reg_name:*',
-                          'loc_name', 'loc_name:*',
-                          'old_name', 'old_name:*',
-                          'alt_name', 'alt_name:*', 'alt_name_*',
-                          'official_name', 'official_name:*',
-                          'place_name', 'place_name:*',
-                          'short_name', 'short_name:*'},
-                   extra = {'ref', 'int_ref', 'nat_ref', 'reg_ref',
-                            'loc_ref', 'old_ref',
-                            'iata', 'icao', 'pcode', 'pcode:*', 'ISO3166-2'}
-                  }
-
-flex.set_address_tags{extra = {'addr:*', 'is_in:*'},
-                      postcode = {'postal_code', 'postcode', 'addr:postcode'},
-                      country = {'country_code', 'ISO3166-1',
-                                 'addr:country_code', 'is_in:country_code',
-                                 'addr:country', 'is_in:country'},
-                      postcode_fallback = false
-                     }
-
-flex.set_unused_handling{extra_keys = {'place'}}
-
-return flex
diff --git a/settings/import-extratags.lua b/settings/import-extratags.lua
deleted file mode 100644 (file)
index 0d242b0..0000000
+++ /dev/null
@@ -1,126 +0,0 @@
-local flex = require('flex-base')
-
-flex.set_main_tags{
-    building = 'fallback',
-    emergency = 'always',
-    healthcare = 'fallback',
-    historic = 'always',
-    military = 'always',
-    natural = 'named',
-    highway = {'always',
-               street_lamp = 'named',
-               traffic_signals = 'named',
-               service = 'named',
-               cycleway = 'named',
-               path = 'named',
-               footway = 'named',
-               steps = 'named',
-               bridleway = 'named',
-               track = 'named',
-               motorway_link = 'named',
-               trunk_link = 'named',
-               primary_link = 'named',
-               secondary_link = 'named',
-               tertiary_link = 'named'},
-    railway = 'named',
-    man_made = {'none',
-                pier = 'always',
-                tower = 'always',
-                bridge = 'always',
-                works = 'named',
-                water_tower = 'always',
-                dyke = 'named',
-                adit = 'named',
-                lighthouse = 'always',
-                watermill = 'always',
-                tunnel = 'always'},
-    aerialway = 'always',
-    boundary = {'named',
-                postal_code = 'always'},
-    aeroway = 'always',
-    amenity = 'always',
-    club = 'always',
-    craft = 'always',
-    junction = 'fallback',
-    landuse = 'fallback',
-    leisure = {'always',
-               nature_reserve = 'fallback'},
-    office = 'always',
-    mountain_pass = 'always',
-    shop = 'always',
-    tourism = 'always',
-    bridge = 'named_with_key',
-    tunnel = 'named_with_key',
-    waterway = 'named',
-    place = 'always'
-}
-
-flex.set_prefilters{delete_keys = {'note', 'note:*', 'source', '*source', 'attribution',
-                                   'comment', 'fixme', 'FIXME', 'created_by', 'NHD:*',
-                                   'nhd:*', 'gnis:*', 'geobase:*', 'KSJ2:*', 'yh:*',
-                                   'osak:*', 'naptan:*', 'CLC:*', 'import', 'it:fvg:*',
-                                   'type', 'lacounty:*', 'ref:ruian:*', 'building:ruian:type',
-                                   'ref:linz:*', 'is_in:postcode'},
-                    delete_tags = {emergency = {'yes', 'no', 'fire_hydrant'},
-                                   historic = {'yes', 'no'},
-                                   military = {'yes', 'no'},
-                                   natural = {'yes', 'no', 'coastline'},
-                                   highway = {'no', 'turning_circle', 'mini_roundabout',
-                                              'noexit', 'crossing', 'give_way', 'stop'},
-                                   railway = {'level_crossing', 'no', 'rail', 'switch',
-                                              'abandoned', 'signal', 'buffer_stop', 'razed'},
-                                   aerialway = {'pylon', 'no'},
-                                   aeroway = {'no'},
-                                   amenity = {'no', 'parking_space', 'parking_entrance',
-                                              'waste_disposal', 'hunting_stand'},
-                                   club = {'no'},
-                                   craft = {'no'},
-                                   leisure = {'no'},
-                                   office = {'no'},
-                                   mountain_pass = {'no'},
-                                   shop = {'no'},
-                                   tourism = {'yes', 'no'},
-                                   bridge = {'no'},
-                                   tunnel = {'no'},
-                                   waterway = {'riverbank'},
-                                   building = {'no'},
-                                   boundary = {'place', 'land_area'}},
-                    extra_keys = {'*:prefix', '*:suffix', 'name:prefix:*', 'name:suffix:*',
-                               'name:etymology', 'name:signed', 'name:botanical',
-                               'wikidata', '*:wikidata',
-                               '*:wikipedia', 'brand:wikipedia:*',
-                               'addr:street:name', 'addr:street:type'}
-                   }
-
-flex.set_name_tags{main = {'name', 'name:*',
-                          'int_name', 'int_name:*',
-                          'nat_name', 'nat_name:*',
-                          'reg_name', 'reg_name:*',
-                          'loc_name', 'loc_name:*',
-                          'old_name', 'old_name:*',
-                          'alt_name', 'alt_name:*', 'alt_name_*',
-                          'official_name', 'official_name:*',
-                          'place_name', 'place_name:*',
-                          'short_name', 'short_name:*', 'brand'},
-                   extra = {'ref', 'int_ref', 'nat_ref', 'reg_ref',
-                            'loc_ref', 'old_ref',
-                            'iata', 'icao', 'pcode', 'pcode:*', 'ISO3166-2'},
-                   house = {'addr:housename'}
-                  }
-
-flex.set_address_tags{main = {'addr:housenumber',
-                              'addr:conscriptionnumber',
-                              'addr:streetnumber'},
-                      extra = {'addr:*', 'is_in:*', 'tiger:county'},
-                      postcode = {'postal_code', 'postcode', 'addr:postcode',
-                                  'tiger:zip_left', 'tiger:zip_right'},
-                      country = {'country_code', 'ISO3166-1',
-                                 'addr:country_code', 'is_in:country_code',
-                                 'addr:country', 'is_in:country'},
-                      interpolation = {'addr:interpolation'}
-                     }
-
-
-flex.set_unused_handling{delete_keys = {'tiger:*'}}
-
-return flex
diff --git a/settings/import-full.lua b/settings/import-full.lua
deleted file mode 100644 (file)
index 11bd1f3..0000000
+++ /dev/null
@@ -1,126 +0,0 @@
-local flex = require('flex-base')
-
-flex.set_main_tags{
-    building = 'fallback',
-    emergency = 'always',
-    healthcare = 'fallback',
-    historic = 'always',
-    military = 'always',
-    natural = 'named',
-    highway = {'always',
-               street_lamp = 'named',
-               traffic_signals = 'named',
-               service = 'named',
-               cycleway = 'named',
-               path = 'named',
-               footway = 'named',
-               steps = 'named',
-               bridleway = 'named',
-               track = 'named',
-               motorway_link = 'named',
-               trunk_link = 'named',
-               primary_link = 'named',
-               secondary_link = 'named',
-               tertiary_link = 'named'},
-    railway = 'named',
-    man_made = {'none',
-                pier = 'always',
-                tower = 'always',
-                bridge = 'always',
-                works = 'named',
-                water_tower = 'always',
-                dyke = 'named',
-                adit = 'named',
-                lighthouse = 'always',
-                watermill = 'always',
-                tunnel = 'always'},
-    aerialway = 'always',
-    boundary = {'named',
-                postal_code = 'always'},
-    aeroway = 'always',
-    amenity = 'always',
-    club = 'always',
-    craft = 'always',
-    junction = 'fallback',
-    landuse = 'fallback',
-    leisure = {'always',
-               nature_reserve = 'fallback'},
-    office = 'always',
-    mountain_pass = 'always',
-    shop = 'always',
-    tourism = 'always',
-    bridge = 'named_with_key',
-    tunnel = 'named_with_key',
-    waterway = 'named',
-    place = 'always'
-}
-
-flex.set_prefilters{delete_keys = {'note', 'note:*', 'source', '*source', 'attribution',
-                                   'comment', 'fixme', 'FIXME', 'created_by', 'NHD:*',
-                                   'nhd:*', 'gnis:*', 'geobase:*', 'KSJ2:*', 'yh:*',
-                                   'osak:*', 'naptan:*', 'CLC:*', 'import', 'it:fvg:*',
-                                   'type', 'lacounty:*', 'ref:ruian:*', 'building:ruian:type',
-                                   'ref:linz:*', 'is_in:postcode',
-                                   '*:prefix', '*:suffix', 'name:prefix:*', 'name:suffix:*',
-                                   'name:etymology', 'name:signed', 'name:botanical',
-                                   '*:wikidata', '*:wikipedia', 'brand:wikipedia:*',
-                                   'addr:street:name', 'addr:street:type'},
-                    delete_tags = {emergency = {'yes', 'no', 'fire_hydrant'},
-                                   historic = {'yes', 'no'},
-                                   military = {'yes', 'no'},
-                                   natural = {'yes', 'no', 'coastline'},
-                                   highway = {'no', 'turning_circle', 'mini_roundabout',
-                                              'noexit', 'crossing', 'give_way', 'stop'},
-                                   railway = {'level_crossing', 'no', 'rail', 'switch',
-                                              'abandoned', 'signal', 'buffer_stop', 'razed'},
-                                   aerialway = {'pylon', 'no'},
-                                   aeroway = {'no'},
-                                   amenity = {'no', 'parking_space', 'parking_entrance',
-                                              'waste_disposal', 'hunting_stand'},
-                                   club = {'no'},
-                                   craft = {'no'},
-                                   leisure = {'no'},
-                                   office = {'no'},
-                                   mountain_pass = {'no'},
-                                   shop = {'no'},
-                                   tourism = {'yes', 'no'},
-                                   bridge = {'no'},
-                                   tunnel = {'no'},
-                                   waterway = {'riverbank'},
-                                   building = {'no'},
-                                   boundary = {'place', 'land_area'}},
-                    extra_keys = {'wikidata', 'wikipedia', 'wikipedia:*'}
-                   }
-
-flex.set_name_tags{main = {'name', 'name:*',
-                          'int_name', 'int_name:*',
-                          'nat_name', 'nat_name:*',
-                          'reg_name', 'reg_name:*',
-                          'loc_name', 'loc_name:*',
-                          'old_name', 'old_name:*',
-                          'alt_name', 'alt_name:*', 'alt_name_*',
-                          'official_name', 'official_name:*',
-                          'place_name', 'place_name:*',
-                          'short_name', 'short_name:*', 'brand'},
-                   extra = {'ref', 'int_ref', 'nat_ref', 'reg_ref',
-                            'loc_ref', 'old_ref',
-                            'iata', 'icao', 'pcode', 'pcode:*', 'ISO3166-2'},
-                   house = {'addr:housename'}
-                  }
-
-flex.set_address_tags{main = {'addr:housenumber',
-                              'addr:conscriptionnumber',
-                              'addr:streetnumber'},
-                      extra = {'addr:*', 'is_in:*', 'tiger:county'},
-                      postcode = {'postal_code', 'postcode', 'addr:postcode',
-                                  'tiger:zip_left', 'tiger:zip_right'},
-                      country = {'country_code', 'ISO3166-1',
-                                 'addr:country_code', 'is_in:country_code',
-                                 'addr:country', 'is_in:country'},
-                      interpolation = {'addr:interpolation'}
-                     }
-
-
-flex.set_unused_handling{extra_keys = {'place'}}
-
-return flex
diff --git a/settings/import-street.lua b/settings/import-street.lua
deleted file mode 100644 (file)
index 60b76df..0000000
+++ /dev/null
@@ -1,74 +0,0 @@
-local flex = require('flex-base')
-
-flex.set_main_tags{
-    highway = {motorway = 'always',
-               trunk = 'always',
-               primary = 'always',
-               secondary = 'always',
-               tertiary = 'always',
-               unclassified = 'always',
-               residential = 'always',
-               road = 'always',
-               living_street = 'always',
-               pedestrian = 'always',
-               service = 'named',
-               cycleway = 'named',
-               path = 'named',
-               footway = 'named',
-               steps = 'named',
-               bridleway = 'named',
-               track = 'named',
-               motorway_link = 'named',
-               trunk_link = 'named',
-               primary_link = 'named',
-               secondary_link = 'named',
-               tertiary_link = 'named'},
-    boundary = {administrative = 'named',
-                postal_code = 'always'},
-    landuse = 'fallback',
-    place = 'always'
-}
-
-flex.set_prefilters{delete_keys = {'building', 'source',
-                                   'addr:housenumber', 'addr:street',
-                                   'source', '*source', 'type',
-                                   'is_in:postcode', '*:wikidata', '*:wikipedia',
-                                   '*:prefix', '*:suffix', 'name:prefix:*', 'name:suffix:*',
-                                   'name:etymology', 'name:signed', 'name:botanical',
-                                   'addr:street:name', 'addr:street:type'},
-                    delete_tags = {landuse = {'cemetry', 'no'},
-                                   boundary = {'place'}},
-                    extra_keys = {'wikipedia', 'wikipedia:*', 'wikidata', 'capital', 'area'}
-                   }
-
-flex.set_name_tags{main = {'name', 'name:*',
-                          'int_name', 'int_name:*',
-                          'nat_name', 'nat_name:*',
-                          'reg_name', 'reg_name:*',
-                          'loc_name', 'loc_name:*',
-                          'old_name', 'old_name:*',
-                          'alt_name', 'alt_name:*', 'alt_name_*',
-                          'official_name', 'official_name:*',
-                          'place_name', 'place_name:*',
-                          'short_name', 'short_name:*'},
-                   extra = {'ref', 'int_ref', 'nat_ref', 'reg_ref',
-                            'loc_ref', 'old_ref',
-                            'iata', 'icao', 'pcode', 'pcode:*', 'ISO3166-2'}
-                  }
-
-flex.set_address_tags{main = {'addr:housenumber',
-                              'addr:conscriptionnumber',
-                              'addr:streetnumber'},
-                      extra = {'addr:*', 'is_in:*', 'tiger:county'},
-                      postcode = {'postal_code', 'postcode', 'addr:postcode',
-                                  'tiger:zip_left', 'tiger:zip_right'},
-                      country = {'country_code', 'ISO3166-1',
-                                 'addr:country_code', 'is_in:country_code',
-                                 'addr:country', 'is_in:country'},
-                      interpolation = {'addr:interpolation'},
-                      postcode_fallback = false
-                     }
-
-flex.set_unused_handling{extra_keys = {'place'}}
-
-return flex
diff --git a/settings/taginfo.lua b/settings/taginfo.lua
deleted file mode 100644 (file)
index ef2ad2a..0000000
+++ /dev/null
@@ -1,74 +0,0 @@
--- Prints taginfo project description in the standard output
---
-
--- create fake "osm2pgsql" table for flex-base, originally created by the main C++ program
-osm2pgsql = {}
-function osm2pgsql.define_table(...) end
-
--- provide path to flex-style lua file
-flex = require('import-extratags')
-local json = require ('dkjson')
-
-
------------- helper functions ---------------------
-
-function get_key_description(key, description)
-    local desc = {}
-    desc.key = key
-    desc.description = description
-    set_keyorder(desc, {'key', 'description'})
-    return desc
-end
-
--- Sets the key order for the resulting JSON table
-function set_keyorder(table, order)
-    setmetatable(table, {
-        __jsonorder = order
-    })
-end
-
-
--- Prints the collected tags in the required format in JSON
-function print_taginfo()
-    local tags = {}
-
-    for _, k in ipairs(flex.TAGINFO_MAIN.keys) do
-        local desc = get_key_description(k, 'POI/feature in the search database')
-        if flex.TAGINFO_MAIN.delete_tags[k] ~= nil then
-            desc.description = string.format('%s (except for values: %s).', desc.description,
-                                table.concat(flex.TAGINFO_MAIN.delete_tags[k], ', '))
-        end
-        table.insert(tags, desc)
-    end
-
-    for k, _ in pairs(flex.TAGINFO_NAME_KEYS) do
-        local desc = get_key_description(k, 'Searchable name of the place.')
-        table.insert(tags, desc)
-    end
-    for k, _ in pairs(flex.TAGINFO_ADDRESS_KEYS) do
-        local desc = get_key_description(k, 'Used to determine the address of a place.')
-        table.insert(tags, desc)
-    end
-
-    local format = {
-        data_format = 1,
-        data_url = 'https://nominatim.openstreetmap.org/taginfo.json',
-        project = {
-            name = 'Nominatim',
-            description = 'OSM search engine.',
-            project_url = 'https://nominatim.openstreetmap.org',
-            doc_url = 'https://nominatim.org/release-docs/develop/',
-            contact_name = 'Sarah Hoffmann',
-            contact_email = 'lonvia@denofr.de'
-        }
-    }
-    format.tags = tags
-
-    set_keyorder(format, {'data_format', 'data_url', 'project', 'tags'})
-    set_keyorder(format.project, {'name', 'description', 'project_url', 'doc_url',
-                    'contact_name', 'contact_email'})
-
-    print(json.encode(format))
-end
-
-print_taginfo()
index e104745ebe784de098b97bb6a9d70f9a5a7a0d52..04268dc31f48df04b86080343d85712d97f94e87 100644 (file)
@@ -18,6 +18,7 @@ from .typing import SaFromClause
 from .sql.sqlalchemy_schema import SearchTables
 from .sql.sqlalchemy_types import Geometry
 from .logging import log
+from .config import Configuration
 
 T = TypeVar('T')
 
@@ -31,9 +32,11 @@ class SearchConnection:
 
     def __init__(self, conn: AsyncConnection,
                  tables: SearchTables,
-                 properties: Dict[str, Any]) -> None:
+                 properties: Dict[str, Any],
+                 config: Configuration) -> None:
         self.connection = conn
         self.t = tables
+        self.config = config
         self._property_cache = properties
         self._classtables: Optional[Set[str]] = None
         self.query_timeout: Optional[int] = None
index 3cf9e989141b5f118fe8d287805ad754124d42df..b98c0ba7638adcc6125e82eed5a3e0671de405ed 100644 (file)
@@ -184,7 +184,7 @@ class NominatimAPIAsync:
         assert self._tables is not None
 
         async with self._engine.begin() as conn:
-            yield SearchConnection(conn, self._tables, self._property_cache)
+            yield SearchConnection(conn, self._tables, self._property_cache, self.config)
 
     async def status(self) -> StatusResult:
         """ Return the status of the database.
diff --git a/src/nominatim_api/query_preprocessing/__init__.py b/src/nominatim_api/query_preprocessing/__init__.py
new file mode 100644 (file)
index 0000000..e69de29
diff --git a/src/nominatim_api/query_preprocessing/base.py b/src/nominatim_api/query_preprocessing/base.py
new file mode 100644 (file)
index 0000000..1e0afd0
--- /dev/null
@@ -0,0 +1,32 @@
+# SPDX-License-Identifier: GPL-3.0-or-later
+#
+# This file is part of Nominatim. (https://nominatim.org)
+#
+# Copyright (C) 2024 by the Nominatim developer community.
+# For a full list of authors see the git log.
+"""
+Common data types and protocols for preprocessing.
+"""
+from typing import List, Callable
+
+from ..typing import Protocol
+from ..search import query as qmod
+from .config import QueryConfig
+
+QueryProcessingFunc = Callable[[List[qmod.Phrase]], List[qmod.Phrase]]
+
+
+class QueryHandler(Protocol):
+    """ Protocol for query modules.
+    """
+    def create(self, config: QueryConfig) -> QueryProcessingFunc:
+        """
+        Create a function for sanitizing a place.
+        Arguments:
+            config: A dictionary with the additional configuration options
+                    specified in the tokenizer configuration
+            normalizer: A instance to transliterate text
+        Return:
+            The result is a list modified by the preprocessor.
+        """
+        pass
diff --git a/src/nominatim_api/query_preprocessing/config.py b/src/nominatim_api/query_preprocessing/config.py
new file mode 100644 (file)
index 0000000..1948945
--- /dev/null
@@ -0,0 +1,34 @@
+# SPDX-License-Identifier: GPL-3.0-or-later
+#
+# This file is part of Nominatim. (https://nominatim.org)
+#
+# Copyright (C) 2024 by the Nominatim developer community.
+# For a full list of authors see the git log.
+"""
+Configuration for Sanitizers.
+"""
+from typing import Any, TYPE_CHECKING
+from collections import UserDict
+
+# working around missing generics in Python < 3.8
+# See https://github.com/python/typing/issues/60#issuecomment-869757075
+if TYPE_CHECKING:
+    _BaseUserDict = UserDict[str, Any]
+else:
+    _BaseUserDict = UserDict
+
+
+class QueryConfig(_BaseUserDict):
+    """ The `QueryConfig` class is a read-only dictionary
+        with configuration options for the preprocessor.
+        In addition to the usual dictionary functions, the class provides
+        accessors to standard preprocessor options that are used by many of the
+        preprocessors.
+    """
+
+    def set_normalizer(self, normalizer: Any) -> 'QueryConfig':
+        """ Set the normalizer function to be used.
+        """
+        self['_normalizer'] = normalizer
+
+        return self
diff --git a/src/nominatim_api/query_preprocessing/normalize.py b/src/nominatim_api/query_preprocessing/normalize.py
new file mode 100644 (file)
index 0000000..afb93de
--- /dev/null
@@ -0,0 +1,31 @@
+# SPDX-License-Identifier: GPL-3.0-or-later
+#
+# This file is part of Nominatim. (https://nominatim.org)
+#
+# Copyright (C) 2024 by the Nominatim developer community.
+# For a full list of authors see the git log.
+"""
+Normalize query text using the same ICU normalization rules that are
+applied during import. If a phrase becomes empty because the normalization
+removes all terms, then the phrase is deleted.
+
+This preprocessor does not come with any extra information. Instead it will
+use the configuration from the `normalization` section.
+"""
+from typing import cast
+
+from .config import QueryConfig
+from .base import QueryProcessingFunc
+from ..search.query import Phrase
+
+
+def create(config: QueryConfig) -> QueryProcessingFunc:
+    normalizer = config.get('_normalizer')
+
+    if not normalizer:
+        return lambda p: p
+
+    return lambda phrases: list(
+        filter(lambda p: p.text,
+               (Phrase(p.ptype, cast(str, normalizer.transliterate(p.text)))
+                for p in phrases)))
diff --git a/src/nominatim_api/query_preprocessing/split_japanese_phrases.py b/src/nominatim_api/query_preprocessing/split_japanese_phrases.py
new file mode 100644 (file)
index 0000000..7ab55b5
--- /dev/null
@@ -0,0 +1,61 @@
+# SPDX-License-Identifier: GPL-3.0-or-later
+#
+# This file is part of Nominatim. (https://nominatim.org)
+#
+# Copyright (C) 2025 by the Nominatim developer community.
+# For a full list of authors see the git log.
+"""
+This file divides Japanese addresses into three categories:
+prefecture, municipality, and other.
+The division is not strict but simple using these keywords.
+"""
+from typing import List
+import re
+
+from .config import QueryConfig
+from .base import QueryProcessingFunc
+from ..search.query import Phrase
+
+MATCH_PATTERNS = [
+    r'''
+                (...??[都都道府県縣])            # [group1] prefecture
+                (.+?[市区區町村])              # [group2] municipalities (city/wards/towns/villages)
+                (.+)                         # [group3] other words
+                ''',
+    r'''
+                (...??[都都道府県縣])            # [group1] prefecture
+                (.+)                         # [group3] other words
+                ''',
+    r'''
+                (.+?[市区區町村])              # [group2] municipalities (city/wards/towns/villages)
+                (.+)                         # [group3] other words
+                '''
+]
+
+
+class _JapanesePreprocessing:
+
+    def __init__(self, config: QueryConfig) -> None:
+        self.config = config
+
+    def split_phrase(self, phrase: Phrase) -> Phrase:
+        """
+        This function performs a division on the given text using a regular expression.
+        """
+        for pattern in MATCH_PATTERNS:
+            result = re.match(pattern, phrase.text, re.VERBOSE)
+            if result is not None:
+                return Phrase(phrase.ptype, ':'.join(result.groups()))
+
+        return phrase
+
+    def __call__(self, phrases: List[Phrase]) -> List[Phrase]:
+        """Split a Japanese address using japanese_tokenizer.
+        """
+        return [self.split_phrase(p) for p in phrases]
+
+
+def create(config: QueryConfig) -> QueryProcessingFunc:
+    """ Create a function of japanese preprocessing.
+    """
+    return _JapanesePreprocessing(config)
index 1b06e659fbfb5b98edf16d708f13bb3c0e0d8ee3..c9f11b6326bd3b32e07eb57297eb9bf8fc61cdaa 100644 (file)
@@ -362,6 +362,8 @@ class ReverseGeocoder:
             # later only a minimum of results needs to be checked with ST_Contains.
             inner = sa.select(t, sa.literal(0.0).label('distance'))\
                       .where(t.c.rank_search.between(5, MAX_RANK_PARAM))\
+                      .where(t.c.rank_address != 5)\
+                      .where(t.c.rank_address != 11)\
                       .where(t.c.geometry.intersects(WKT_PARAM))\
                       .where(sa.func.PlacexGeometryReverseLookuppolygon())\
                       .order_by(sa.desc(t.c.rank_search))\
@@ -478,14 +480,15 @@ class ReverseGeocoder:
         log().var_dump('Country codes', ccodes)
         return ccodes
 
-    async def lookup_country(self, ccodes: List[str]) -> Optional[SaRow]:
+    async def lookup_country(self, ccodes: List[str]) -> Tuple[Optional[SaRow], RowFunc]:
         """ Lookup the country for the current search.
         """
+        row_func = nres.create_from_placex_row
         if not ccodes:
             ccodes = await self.lookup_country_codes()
 
         if not ccodes:
-            return None
+            return None, row_func
 
         t = self.conn.t.placex
         if self.max_rank > 4:
@@ -537,7 +540,32 @@ class ReverseGeocoder:
 
             address_row = (await self.conn.execute(sql, self.bind_params)).one_or_none()
 
-        return address_row
+        if address_row is None:
+            # finally fall back to country table
+            t = self.conn.t.country_name
+            tgrid = self.conn.t.country_grid
+
+            sql = sa.select(tgrid.c.country_code,
+                            tgrid.c.geometry.ST_Centroid().ST_Collect().ST_Centroid()
+                                 .label('centroid'),
+                            tgrid.c.geometry.ST_Collect().ST_Expand(0).label('bbox'))\
+                    .where(tgrid.c.country_code.in_(ccodes))\
+                    .group_by(tgrid.c.country_code)
+
+            sub = sql.subquery('grid')
+            sql = sa.select(t.c.country_code,
+                            t.c.name.merge(t.c.derived_name).label('name'),
+                            sub.c.centroid, sub.c.bbox)\
+                    .join(sub, t.c.country_code == sub.c.country_code)\
+                    .order_by(t.c.country_code)\
+                    .limit(1)
+
+            sql = self._add_geometry_columns(sql, sub.c.centroid)
+
+            address_row = (await self.conn.execute(sql, self.bind_params)).one_or_none()
+            row_func = nres.create_from_country_row
+
+        return address_row, row_func
 
     async def lookup(self, coord: AnyPoint) -> Optional[nres.ReverseResult]:
         """ Look up a single coordinate. Returns the place information,
@@ -566,12 +594,12 @@ class ReverseGeocoder:
             if self.max_rank > 4:
                 row = await self.lookup_area()
             if row is None and self.layer_enabled(DataLayer.ADDRESS):
-                row = await self.lookup_country(ccodes)
+                row, row_func = await self.lookup_country(ccodes)
 
         result = row_func(row, nres.ReverseResult)
         if result is not None:
             assert row is not None
-            result.distance = row.distance
+            result.distance = getattr(row,  'distance', 0)
             if hasattr(row, 'bbox'):
                 result.bbox = Bbox.from_wkb(row.bbox)
             await nres.add_result_details(self.conn, [result], self.params)
index 1fbb7168bb44a963f31e83bfd99f6f534bcf9be5..dbf84a0cafb04ad36435c6d20627cab98d313f20 100644 (file)
@@ -428,6 +428,7 @@ PENALTY_WORDCHANGE = {
     BreakType.START: 0.0,
     BreakType.END: 0.0,
     BreakType.PHRASE: 0.0,
+    BreakType.SOFT_PHRASE: 0.0,
     BreakType.WORD: 0.1,
     BreakType.PART: 0.2,
     BreakType.TOKEN: 0.4
index efe5b7216853ba64c4983cd31801999c750c1512..69455d77a0d3c14aa79d168fd053e045e80ad39a 100644 (file)
@@ -133,7 +133,7 @@ class ForwardGeocoder:
         """
         assert self.query_analyzer is not None
         qwords = [word for phrase in query.source
-                  for word in re.split('[, ]+', phrase.text) if word]
+                  for word in re.split('[-,: ]+', phrase.text) if word]
         if not qwords:
             return
 
@@ -146,7 +146,7 @@ class ForwardGeocoder:
             distance = 0.0
             norm = self.query_analyzer.normalize_text(' '.join((result.display_name,
                                                                 result.country_code or '')))
-            words = set((w for w in norm.split(' ') if w))
+            words = set((w for w in re.split('[-,: ]+', norm) if w))
             if not words:
                 continue
             for qword in qwords:
index ac78d03c1fc1776667d3cb31020cc03bfa0c5a90..8f2069c1a8bc57212956d1ce64d3a5914c12f920 100644 (file)
@@ -7,21 +7,25 @@
 """
 Implementation of query analysis for the ICU tokenizer.
 """
-from typing import Tuple, Dict, List, Optional, NamedTuple, Iterator, Any, cast
+from typing import Tuple, Dict, List, Optional, Iterator, Any, cast
 from collections import defaultdict
 import dataclasses
 import difflib
+import re
+from itertools import zip_longest
 
 from icu import Transliterator
 
 import sqlalchemy as sa
 
+from ..errors import UsageError
 from ..typing import SaRow
 from ..sql.sqlalchemy_types import Json
 from ..connection import SearchConnection
 from ..logging import log
-from ..search import query as qmod
-from ..search.query_analyzer_factory import AbstractQueryAnalyzer
+from . import query as qmod
+from ..query_preprocessing.config import QueryConfig
+from .query_analyzer_factory import AbstractQueryAnalyzer
 
 
 DB_TO_TOKEN_TYPE = {
@@ -32,17 +36,30 @@ DB_TO_TOKEN_TYPE = {
     'C': qmod.TokenType.COUNTRY
 }
 
+PENALTY_IN_TOKEN_BREAK = {
+     qmod.BreakType.START: 0.5,
+     qmod.BreakType.END: 0.5,
+     qmod.BreakType.PHRASE: 0.5,
+     qmod.BreakType.SOFT_PHRASE: 0.5,
+     qmod.BreakType.WORD: 0.1,
+     qmod.BreakType.PART: 0.0,
+     qmod.BreakType.TOKEN: 0.0
+}
+
 
-class QueryPart(NamedTuple):
+@dataclasses.dataclass
+class QueryPart:
     """ Normalized and transliterated form of a single term in the query.
         When the term came out of a split during the transliteration,
         the normalized string is the full word before transliteration.
         The word number keeps track of the word before transliteration
         and can be used to identify partial transliterated terms.
+        Penalty is the break penalty for the break following the token.
     """
     token: str
     normalized: str
     word_number: int
+    penalty: float
 
 
 QueryParts = List[QueryPart]
@@ -56,10 +73,12 @@ def yield_words(terms: List[QueryPart], start: int) -> Iterator[Tuple[str, qmod.
     total = len(terms)
     for first in range(start, total):
         word = terms[first].token
-        yield word, qmod.TokenRange(first, first + 1)
+        penalty = PENALTY_IN_TOKEN_BREAK[qmod.BreakType.WORD]
+        yield word, qmod.TokenRange(first, first + 1, penalty=penalty)
         for last in range(first + 1, min(first + 20, total)):
             word = ' '.join((word, terms[last].token))
-            yield word, qmod.TokenRange(first, last + 1)
+            penalty += terms[last - 1].penalty
+            yield word, qmod.TokenRange(first, last + 1, penalty=penalty)
 
 
 @dataclasses.dataclass
@@ -92,25 +111,25 @@ class ICUToken(qmod.Token):
         self.penalty += (distance/len(self.lookup_word))
 
     @staticmethod
-    def from_db_row(row: SaRow) -> 'ICUToken':
+    def from_db_row(row: SaRow, base_penalty: float = 0.0) -> 'ICUToken':
         """ Create a ICUToken from the row of the word table.
         """
         count = 1 if row.info is None else row.info.get('count', 1)
         addr_count = 1 if row.info is None else row.info.get('addr_count', 1)
 
-        penalty = 0.0
+        penalty = base_penalty
         if row.type == 'w':
-            penalty = 0.3
+            penalty += 0.3
         elif row.type == 'W':
             if len(row.word_token) == 1 and row.word_token == row.word:
-                penalty = 0.2 if row.word.isdigit() else 0.3
+                penalty += 0.2 if row.word.isdigit() else 0.3
         elif row.type == 'H':
-            penalty = sum(0.1 for c in row.word_token if c != ' ' and not c.isdigit())
+            penalty += sum(0.1 for c in row.word_token if c != ' ' and not c.isdigit())
             if all(not c.isdigit() for c in row.word_token):
                 penalty += 0.2 * (len(row.word_token) - 1)
         elif row.type == 'C':
             if len(row.word_token) == 1:
-                penalty = 0.3
+                penalty += 0.3
 
         if row.info is None:
             lookup_word = row.word
@@ -151,6 +170,8 @@ class ICUQueryAnalyzer(AbstractQueryAnalyzer):
         self.transliterator = await self.conn.get_cached_value('ICUTOK', 'transliterator',
                                                                _make_transliterator)
 
+        await self._setup_preprocessing()
+
         if 'word' not in self.conn.t.meta.tables:
             sa.Table('word', self.conn.t.meta,
                      sa.Column('word_id', sa.Integer),
@@ -159,19 +180,42 @@ class ICUQueryAnalyzer(AbstractQueryAnalyzer):
                      sa.Column('word', sa.Text),
                      sa.Column('info', Json))
 
+    async def _setup_preprocessing(self) -> None:
+        """ Load the rules for preprocessing and set up the handlers.
+        """
+
+        rules = self.conn.config.load_sub_configuration('icu_tokenizer.yaml',
+                                                        config='TOKENIZER_CONFIG')
+        preprocessing_rules = rules.get('query-preprocessing', [])
+
+        self.preprocessors = []
+
+        for func in preprocessing_rules:
+            if 'step' not in func:
+                raise UsageError("Preprocessing rule is missing the 'step' attribute.")
+            if not isinstance(func['step'], str):
+                raise UsageError("'step' attribute must be a simple string.")
+
+            module = self.conn.config.load_plugin_module(
+                        func['step'], 'nominatim_api.query_preprocessing')
+            self.preprocessors.append(
+                module.create(QueryConfig(func).set_normalizer(self.normalizer)))
+
     async def analyze_query(self, phrases: List[qmod.Phrase]) -> qmod.QueryStruct:
         """ Analyze the given list of phrases and return the
             tokenized query.
         """
         log().section('Analyze query (using ICU tokenizer)')
-        normalized = list(filter(lambda p: p.text,
-                                 (qmod.Phrase(p.ptype, self.normalize_text(p.text))
-                                  for p in phrases)))
-        if len(normalized) == 1 \
-                and normalized[0].text.count(' ') > 3 \
-                and max(len(s) for s in normalized[0].text.split()) < 3:
+        for func in self.preprocessors:
+            phrases = func(phrases)
+
+        if len(phrases) == 1 \
+                and phrases[0].text.count(' ') > 3 \
+                and max(len(s) for s in phrases[0].text.split()) < 3:
             normalized = []
-        query = qmod.QueryStruct(normalized)
+
+        query = qmod.QueryStruct(phrases)
+
         log().var_dump('Normalized query', query.source)
         if not query.source:
             return query
@@ -181,7 +225,7 @@ class ICUQueryAnalyzer(AbstractQueryAnalyzer):
 
         for row in await self.lookup_in_db(list(words.keys())):
             for trange in words[row.word_token]:
-                token = ICUToken.from_db_row(row)
+                token = ICUToken.from_db_row(row, trange.penalty or 0.0)
                 if row.type == 'S':
                     if row.info['op'] in ('in', 'near'):
                         if trange.start == 0:
@@ -221,16 +265,24 @@ class ICUQueryAnalyzer(AbstractQueryAnalyzer):
         wordnr = 0
         for phrase in query.source:
             query.nodes[-1].ptype = phrase.ptype
-            for word in phrase.text.split(' '):
+            phrase_split = re.split('([ :-])', phrase.text)
+            # The zip construct will give us the pairs of word/break from
+            # the regular expression split. As the split array ends on the
+            # final word, we simply use the fillvalue to even out the list and
+            # add the phrase break at the end.
+            for word, breakchar in zip_longest(*[iter(phrase_split)]*2, fillvalue=','):
+                if not word:
+                    continue
                 trans = self.transliterator.transliterate(word)
                 if trans:
                     for term in trans.split(' '):
                         if term:
-                            parts.append(QueryPart(term, word, wordnr))
+                            parts.append(QueryPart(term, word, wordnr,
+                                                   PENALTY_IN_TOKEN_BREAK[qmod.BreakType.TOKEN]))
                             query.add_node(qmod.BreakType.TOKEN, phrase.ptype)
-                    query.nodes[-1].btype = qmod.BreakType.WORD
+                    query.nodes[-1].btype = qmod.BreakType(breakchar)
+                    parts[-1].penalty = PENALTY_IN_TOKEN_BREAK[qmod.BreakType(breakchar)]
                 wordnr += 1
-            query.nodes[-1].btype = qmod.BreakType.PHRASE
 
             for word, wrange in yield_words(parts, phrase_start):
                 words[word].append(wrange)
@@ -251,7 +303,7 @@ class ICUQueryAnalyzer(AbstractQueryAnalyzer):
         """ Add tokens to query that are not saved in the database.
         """
         for part, node, i in zip(parts, query.nodes, range(1000)):
-            if len(part.token) <= 4 and part[0].isdigit()\
+            if len(part.token) <= 4 and part.token.isdigit()\
                and not node.has_tokens(i+1, qmod.TokenType.HOUSENUMBER):
                 query.add_token(qmod.TokenRange(i, i+1), qmod.TokenType.HOUSENUMBER,
                                 ICUToken(penalty=0.5, token=0,
index 02ebbb5b9d7b6f690af9bdcba466151d57117d1a..aa16943133f294d6b59e61008969513fcc0400d9 100644 (file)
@@ -21,7 +21,13 @@ class BreakType(enum.Enum):
     END = '>'
     """ End of the query. """
     PHRASE = ','
-    """ Break between two phrases. """
+    """ Hard break between two phrases. Address parts cannot cross hard
+        phrase boundaries."""
+    SOFT_PHRASE = ':'
+    """ Likely break between two phrases. Address parts should not cross soft
+        phrase boundaries. Soft breaks can be inserted by a preprocessor
+        that is analysing the input string.
+    """
     WORD = ' '
     """ Break between words. """
     PART = '-'
@@ -116,6 +122,7 @@ class TokenRange:
     """
     start: int
     end: int
+    penalty: Optional[float] = None
 
     def __lt__(self, other: 'TokenRange') -> bool:
         return self.end <= other.start
index a2e1804c732d737096d4e6416a858515c640b058..0983fd13b0b46fd2ae812cd3414ed491eb205942 100644 (file)
@@ -27,6 +27,7 @@ PENALTY_TOKENCHANGE = {
     qmod.BreakType.START: 0.0,
     qmod.BreakType.END: 0.0,
     qmod.BreakType.PHRASE: 0.0,
+    qmod.BreakType.SOFT_PHRASE: 0.0,
     qmod.BreakType.WORD: 0.1,
     qmod.BreakType.PART: 0.2,
     qmod.BreakType.TOKEN: 0.4
index 89aa44285f622e00020a5debb58b439be95f70c8..be9e9b58804ecc51cc97a467b3e5d8903267baeb 100644 (file)
@@ -21,9 +21,11 @@ if TYPE_CHECKING:
     from typing import Any
     import sqlalchemy as sa
     import os
-    from typing_extensions import (TypeAlias as TypeAlias)
+    from typing_extensions import (TypeAlias as TypeAlias,
+                                   Protocol as Protocol)
 else:
     TypeAlias = str
+    Protocol = object
 
 StrPath = Union[str, 'os.PathLike[str]']
 
index 488ecd184adbe48f5f320659f7ec78cd93d27be2..a8ff210a261a90ea52f10ae1547ba73eb92bd57b 100644 (file)
@@ -189,7 +189,7 @@ class NominatimArgs:
         return dict(osm2pgsql=self.config.OSM2PGSQL_BINARY or self.config.lib_dir.osm2pgsql,
                     osm2pgsql_cache=self.osm2pgsql_cache or default_cache,
                     osm2pgsql_style=self.config.get_import_style_file(),
-                    osm2pgsql_style_path=self.config.config_dir,
+                    osm2pgsql_style_path=self.config.lib_dir.lua,
                     threads=self.threads or default_threads,
                     dsn=self.config.get_libpq_dsn(),
                     flatnode_file=str(self.config.get_path('FLATNODE_FILE') or ''),
index 39cbe65a8b931dfdebfbacd11c28e7b5699d4dde..fb193838e18a6db967bca6b174c7a0d2e32e8d61 100644 (file)
@@ -122,13 +122,16 @@ class SetupAll:
 
         LOG.warning('Post-process tables')
         with connect(args.config.get_libpq_dsn()) as conn:
+            conn.autocommit = True
             await database_import.create_search_indices(conn, args.config,
                                                         drop=args.no_updates,
                                                         threads=num_threads)
             LOG.warning('Create search index for default country names.')
+            conn.autocommit = False
             country_info.create_country_names(conn, tokenizer,
                                               args.config.get_str_list('LANGUAGES'))
             if args.no_updates:
+                conn.autocommit = True
                 freeze.drop_update_tables(conn)
         tokenizer.finalize_import(args.config)
 
@@ -183,6 +186,7 @@ class SetupAll:
         from ..tools import database_import, refresh
 
         with connect(config.get_libpq_dsn()) as conn:
+            conn.autocommit = True
             LOG.warning('Create functions (1st pass)')
             refresh.create_functions(conn, config, False, False)
             LOG.warning('Create tables')
index ad54ab3d3f195e42bd09449eaa58bef64194d5d9..ae59cfd363857e55d76a888b00b09d6792a4adf7 100644 (file)
@@ -75,6 +75,7 @@ class Configuration:
         class _LibDirs:
             osm2pgsql: Path
             sql = paths.SQLLIB_DIR
+            lua = paths.LUALIB_DIR
             data = paths.DATA_DIR
 
         self.lib_dir = _LibDirs()
@@ -207,7 +208,7 @@ class Configuration:
         style = getattr(self, 'IMPORT_STYLE')
 
         if style in ('admin', 'street', 'address', 'full', 'extratags'):
-            return self.config_dir / f'import-{style}.lua'
+            return self.lib_dir.lua / f'import-{style}.lua'
 
         return self.find_config_file('', 'IMPORT_STYLE')
 
index 2614fa1452a620753fa0fe6586fa7681ce71cba0..ab34e4c0caee030a67321973f382489dab3badb3 100644 (file)
@@ -10,5 +10,6 @@ Path settings for extra data used by Nominatim.
 from pathlib import Path
 
 SQLLIB_DIR = (Path(__file__) / '..' / '..' / '..' / 'lib-sql').resolve()
+LUALIB_DIR = (Path(__file__) / '..' / '..' / '..' / 'lib-lua').resolve()
 DATA_DIR = (Path(__file__) / '..' / '..' / '..' / 'data').resolve()
 CONFIG_DIR = (Path(__file__) / '..' / '..' / '..' / 'settings').resolve()
index a3cdcb7afdb9a008ee4c19f642b18542da369ac0..c1ba106c48775498ad7b2596ef460be8f85bc299 100644 (file)
@@ -25,6 +25,8 @@ class ICUTokenAnalysis:
 
     def __init__(self, norm_rules: str, trans_rules: str,
                  analysis_rules: Mapping[Optional[str], 'TokenAnalyzerRule']):
+        # additional break signs are not relevant during name analysis
+        norm_rules += ";[[:Space:][-:]]+ > ' ';"
         self.normalizer = Transliterator.createFromRules("icu_normalization",
                                                          norm_rules)
         trans_rules += ";[:Space:]+ > ' '"
index fc3a7465f9555bbb9013f77bc171ef40efc5c859..7629e2a2b0a15442214230b8b77ebabc7b259c97 100644 (file)
@@ -39,7 +39,10 @@ def run_osm2pgsql(options: Mapping[str, Any]) -> None:
 
     if str(options['osm2pgsql_style']).endswith('.lua'):
         env['LUA_PATH'] = ';'.join((str(options['osm2pgsql_style_path'] / '?.lua'),
-                                    os.environ.get('LUAPATH', ';')))
+                                    os.environ.get('LUA_PATH', ';')))
+        env['THEMEPARK_PATH'] = str(options['osm2pgsql_style_path'] / 'themes')
+        if 'THEMEPARK_PATH' in os.environ:
+            env['THEMEPARK_PATH'] += ':' + os.environ['THEMEPARK_PATH']
         cmd.extend(('--output', 'flex'))
 
         for flavour in ('data', 'index'):
index 5e0bacc5a945b2909691072885b194e1fd032136..a3cc95e53b19e70678fae06d0fff175462379ccb 100644 (file)
@@ -27,7 +27,6 @@ Feature: Object details
     Examples:
      | class |
      | tourism |
-     | natural |
      | mountain_pass |
 
 
index f154b18debb7a99ec845ea67d4c8a5159986d6d2..fc28cee31e080acf9f32771954dbe0ea9198cdab 100644 (file)
@@ -10,15 +10,19 @@ Feature: Reverse geocoding
     Examples:
      | lat      | lon |
      | 0.0      | 0.0 |
-     | -34.830  | -56.105 |
-     | 45.174   | -103.072 |
-     | 21.156   | -12.2744 |
      | 91.3     | 0.4    |
      | -700     | 0.4    |
      | 0.2      | 324.44 |
      | 0.2      | -180.4 |
 
 
+    Scenario: Unknown countries fall back to default country grid
+        When sending v1/reverse at 45.174,-103.072
+        Then results contain
+          | category | type    | display_name |
+          | place    | country | United States |
+
+
     @Tiger
     Scenario: TIGER house number
         When sending v1/reverse at 32.4752389363,-86.4810198619
index 6e640accab02e4d166a65b91e4d2a64b27699f15..3b06af786219dcf8855d0839740a0133cabe3b71 100644 (file)
@@ -192,7 +192,7 @@ Feature: Search queries
         Then exactly 1 result is returned
         And results contain
           | class   |
-          | natural |
+          | water |
 
     Examples:
       | data |
index df01fd915d33e5ddacdfccc8f3ef932184f6a04a..0fce3e71091b7b27574b70e42a7fbf69736c82ca 100644 (file)
@@ -267,3 +267,34 @@ Feature: Rank assignment
           | object      | rank_search | rank_address |
           | N23:amenity | 30          | 30           |
           | N23:place   | 16          | 16           |
+
+    Scenario: Address rank 25 is only used for addr:place
+        Given the grid
+           | 10 | 33 | 34 | 11 |
+        Given the places
+          | osm | class | type    | name |
+          | N10 | place | village | vil  |
+          | N11 | place | farm    | farm |
+        And the places
+          | osm | class   | type        | name | geometry |
+          | W1  | highway | residential | RD   | 33,11    |
+        And the places
+          | osm | class   | type        | name | addr+farm | geometry |
+          | W2  | highway | residential | RD2  | farm       | 34,11    |
+        And the places
+          | osm | class | type  | housenr |
+          | N33 | place | house | 23      |
+        And the places
+          | osm | class | type  | housenr | addr+place |
+          | N34 | place | house | 23      | farm       |
+        When importing
+        Then placex contains
+          | object | parent_place_id |
+          | N11    | N10             |
+          | N33    | W1              |
+          | N34    | N11             |
+        And place_addressline contains
+          | object | address |
+          | W1     | N10     |
+          | W2     | N10     |
+          | W2     | N11     |
index 2ca95c91a563d0ab0a46d7a4c3cfbdff0d7856da..15852c5d3a028cb9834becdd3da4b8593ede9202 100644 (file)
@@ -2,7 +2,7 @@
 Feature: Import with custom styles by osm2pgsql
     Tests for the example customizations given in the documentation.
 
-    Scenario: Custom main tags
+    Scenario: Custom main tags (set new ones)
         Given the lua style file
             """
             local flex = require('import-full')
@@ -28,6 +28,35 @@ Feature: Import with custom styles by osm2pgsql
             | N13    | highway  | primary        |
             | N15    | highway  | primary        |
 
+    Scenario: Custom main tags (modify existing)
+        Given the lua style file
+            """
+            local flex = require('import-full')
+
+            flex.modify_main_tags{
+                amenity = {prison = 'delete'},
+                highway = {stop = 'named'},
+                aeroway = 'named'
+            }
+            """
+        When loading osm data
+            """
+            n10 Tamenity=hotel x0 y0
+            n11 Tamenity=prison x0 y0
+            n12 Thighway=stop x0 y0
+            n13 Thighway=stop,name=BigStop x0 y0
+            n14 Thighway=give_way x0 y0
+            n15 Thighway=bus_stop x0 y0
+            n16 Taeroway=no,name=foo x0 y0
+            n17 Taeroway=taxiway,name=D15 x0 y0
+            """
+        Then place contains exactly
+            | object | class   | type     |
+            | N10    | amenity | hotel    |
+            | N13    | highway | stop     |
+            | N15    | highway | bus_stop |
+            | N17    | aeroway | taxiway  |
+
     Scenario: Prefiltering tags
         Given the lua style file
             """
@@ -56,6 +85,38 @@ Feature: Import with custom styles by osm2pgsql
             | N4:tourism | - |
             | N4:amenity | - |
 
+    Scenario: Ignore some tags
+        Given the lua style file
+            """
+            local flex = require('import-extratags')
+
+            flex.ignore_keys{'ref:*', 'surface'}
+            """
+        When loading osm data
+            """
+            n100 Thighway=residential,ref=34,ref:bodo=34,surface=gray,extra=1 x0 y0
+            """
+        Then place contains exactly
+            | object | name         | extratags    |
+            | N100   | 'ref' : '34' | 'extra': '1' |
+
+
+    Scenario: Add for extratags
+        Given the lua style file
+            """
+            local flex = require('import-full')
+
+            flex.add_for_extratags{'ref:*', 'surface'}
+            """
+        When loading osm data
+            """
+            n100 Thighway=residential,ref=34,ref:bodo=34,surface=gray,extra=1 x0 y0
+            """
+        Then place contains exactly
+            | object | name         | extratags    |
+            | N100   | 'ref' : '34' | 'ref:bodo': '34', 'surface': 'gray' |
+
+
     Scenario: Name tags
         Given the lua style file
             """
@@ -78,6 +139,22 @@ Feature: Import with custom styles by osm2pgsql
             | N3:highway | 'name': 'Greens'           |
             | N4:highway | 'name': 'Red', 'ref': '45' |
 
+    Scenario: Modify name tags
+        Given the lua style file
+            """
+            local flex = require('import-full')
+
+            flex.modify_name_tags{house = {}, extra = {'o'}}
+            """
+        When loading osm data
+            """
+            n1 Ttourism=hotel,ref=45,o=good
+            n2 Taddr:housename=Old,addr:street=Away
+            """
+        Then place contains exactly
+            | object     | name        |
+            | N1:tourism | 'o': 'good' |
+
     Scenario: Address tags
         Given the lua style file
             """
@@ -101,7 +178,24 @@ Feature: Import with custom styles by osm2pgsql
             | N1:tourism | hotel | 'street': 'Foo' |
             | N2:place   | house | 'housenumber': '23', 'street': 'Budd', 'postcode': '5567' |
 
-    Scenario: Unused handling
+    Scenario: Modify address tags
+        Given the lua style file
+            """
+            local flex = require('import-full')
+
+            flex.set_address_tags{
+                extra = {'addr:*'},
+            }
+            """
+        When loading osm data
+            """
+            n2 Taddr:housenumber=23,addr:street=Budd,is_in:city=Faraway,postal_code=5567 x0 y0
+            """
+        Then place contains exactly
+            | object     | type  | address |
+            | N2:place   | house | 'housenumber': '23', 'street': 'Budd', 'postcode': '5567' |
+
+    Scenario: Unused handling (delete)
         Given the lua style file
             """
             local flex = require('import-full')
@@ -122,6 +216,31 @@ Feature: Import with custom styles by osm2pgsql
             | N1:tourism | hotel | 'tiger:county': 'Fargo' | -                |
             | N2:tourism | hotel | -                       | 'else': 'other'  |
 
+    Scenario: Unused handling (extra)
+        Given the lua style file
+            """
+            local flex = require('flex-base')
+            flex.set_main_tags{highway = 'always',
+                               wikipedia = 'extra'}
+            flex.add_for_extratags{'wikipedia:*', 'wikidata'}
+            flex.set_unused_handling{extra_keys = {'surface'}}
+            """
+        When loading osm data
+            """
+            n100 Thighway=path,foo=bar,wikipedia=en:Path x0 y0
+            n234 Thighway=path,surface=rough x0 y0
+            n445 Thighway=path,name=something x0 y0
+            n446 Thighway=path,wikipedia:en=Path,wikidata=Q23 x0 y0
+            n567 Thighway=path,surface=dirt,wikipedia:en=Path x0 y0
+            """
+        Then place contains exactly
+            | object       | type  | extratags              |
+            | N100:highway | path  | 'wikipedia': 'en:Path' |
+            | N234:highway | path  | 'surface': 'rough' |
+            | N445:highway | path  | - |
+            | N446:highway | path  | 'wikipedia:en': 'Path', 'wikidata': 'Q23' |
+            | N567:highway | path  | 'surface': 'dirt', 'wikipedia:en': 'Path' |
+
     Scenario: Additional relation types
         Given the lua style file
             """
index 7958f4b35bd8efd0f49ea0e9492543cfbab21c66..69238e797b62f5f8169cbb5cef345f534b24370d 100644 (file)
@@ -131,7 +131,7 @@ Feature: Tag evaluation
         When loading osm data
             """
             n8001 Tshop=shoes,note:de=Nein,xx=yy
-            n8002 Tshop=shoes,building=no,ele=234
+            n8002 Tshop=shoes,natural=no,ele=234
             n8003 Tshop=shoes,name:source=survey
             """
         Then place contains exactly
@@ -206,3 +206,85 @@ Feature: Tag evaluation
             | object | class | type   | address                 |
             | N13001 | place | houses | 'interpolation': 'odd'  |
             | N13002 | place | houses | 'interpolation': 'even' |
+
+
+    Scenario: Footways
+        When loading osm data
+            """
+            n1 x0.0 y0.0
+            n2 x0 y0.0001
+            w1 Thighway=footway Nn1,n2
+            w2 Thighway=footway,name=Road Nn1,n2
+            w3 Thighway=footway,name=Road,footway=sidewalk Nn1,n2
+            w4 Thighway=footway,name=Road,footway=crossing Nn1,n2
+            w5 Thighway=footway,name=Road,footway=residential Nn1,n2
+            """
+        Then place contains exactly
+            | object | name+name |
+            | W2     | Road      |
+            | W5     | Road      |
+
+
+    Scenario: Tourism information
+        When loading osm data
+            """
+            n100 Ttourism=information
+            n101 Ttourism=information,name=Generic
+            n102 Ttourism=information,information=guidepost
+            n103 Thighway=information,information=house
+            n104 Ttourism=information,information=yes,name=Something
+            n105 Ttourism=information,information=route_marker,name=3
+            """
+        Then place contains exactly
+            | object           | type        |
+            | N100:tourism     | information |
+            | N101:tourism     | information |
+            | N102:information | guidepost   |
+            | N103:highway     | information |
+            | N104:tourism     | information |
+
+
+    Scenario: Water features
+        When loading osm data
+            """
+            n20 Tnatural=water
+            n21 Tnatural=water,name=SomePond
+            n22 Tnatural=water,water=pond
+            n23 Tnatural=water,water=pond,name=Pond
+            n24 Tnatural=water,water=river,name=BigRiver
+            n25 Tnatural=water,water=yes
+            n26 Tnatural=water,water=yes,name=Random
+            """
+        Then place contains exactly
+            | object      | type  |
+            | N21:natural | water |
+            | N23:water   | pond  |
+            | N26:natural | water |
+
+    Scenario: Drop name for address fallback
+        When loading osm data
+            """
+            n1 Taddr:housenumber=23,name=Foo
+            n2 Taddr:housenumber=23,addr:housename=Foo
+            n3 Taddr:housenumber=23
+            """
+        Then place contains exactly
+            | object      | type  | address             | name |
+            | N1:place    | house | 'housenumber': '23' | -    |
+            | N2:place    | house | 'housenumber': '23' | 'addr:housename': 'Foo' |
+            | N3:place    | house | 'housenumber': '23' | -    |
+
+
+    Scenario: Waterway locks
+        When loading osm data
+            """
+            n1 Twaterway=river,lock=yes
+            n2 Twaterway=river,lock=yes,lock_name=LeLock
+            n3 Twaterway=river,lock=yes,name=LeWater
+            n4 Tamenity=parking,lock=yes,lock_name=Gold
+            """
+        Then place contains exactly
+            | object      | type    | name |
+            | N2:lock     | yes     | 'name': 'LeLock' |
+            | N3:waterway | river   | 'name': 'LeWater' |
+            | N4:amenity  | parking | - |
index 4cee75f7a32186b47ac8604a9d1a7969f0f6d6a4..70cf1515c65c738c6f908935982a5fe943fc1c0d 100644 (file)
@@ -19,7 +19,7 @@ def get_osm2pgsql_options(nominatim_env, fname, append):
                 osm2pgsql='osm2pgsql',
                 osm2pgsql_cache=50,
                 osm2pgsql_style=str(nominatim_env.get_test_config().get_import_style_file()),
-                osm2pgsql_style_path=nominatim_env.get_test_config().config_dir,
+                osm2pgsql_style_path=nominatim_env.get_test_config().lib_dir.lua,
                 threads=1,
                 dsn=nominatim_env.get_libpq_dsn(),
                 flatnode_file='',
diff --git a/test/python/api/query_processing/test_normalize.py b/test/python/api/query_processing/test_normalize.py
new file mode 100644 (file)
index 0000000..db8bbe0
--- /dev/null
@@ -0,0 +1,34 @@
+# SPDX-License-Identifier: GPL-3.0-or-later
+#
+# This file is part of Nominatim. (https://nominatim.org)
+#
+# Copyright (C) 2024 by the Nominatim developer community.
+# For a full list of authors see the git log.
+"""
+Tests for normalizing search queries.
+"""
+from pathlib import Path
+
+import pytest
+
+from icu import Transliterator
+
+import nominatim_api.search.query as qmod
+from nominatim_api.query_preprocessing.config import QueryConfig
+from nominatim_api.query_preprocessing import normalize
+
+def run_preprocessor_on(query, norm):
+    normalizer = Transliterator.createFromRules("normalization", norm)
+    proc = normalize.create(QueryConfig().set_normalizer(normalizer))
+
+    return proc(query)
+
+
+def test_normalize_simple():
+    norm = ':: lower();'
+    query = [qmod.Phrase(qmod.PhraseType.NONE, 'Hallo')]
+
+    out = run_preprocessor_on(query, norm)
+
+    assert len(out) == 1
+    assert out == [qmod.Phrase(qmod.PhraseType.NONE, 'hallo')]
diff --git a/test/python/api/query_processing/test_split_japanese_phrases.py b/test/python/api/query_processing/test_split_japanese_phrases.py
new file mode 100644 (file)
index 0000000..6055f9d
--- /dev/null
@@ -0,0 +1,34 @@
+# SPDX-License-Identifier: GPL-3.0-or-later
+#
+# This file is part of Nominatim. (https://nominatim.org)
+#
+# Copyright (C) 2025 by the Nominatim developer community.
+# For a full list of authors see the git log.
+"""
+Tests for japanese phrase splitting.
+"""
+from pathlib import Path
+
+import pytest
+
+from icu import Transliterator
+
+import nominatim_api.search.query as qmod
+from nominatim_api.query_preprocessing.config import QueryConfig
+from nominatim_api.query_preprocessing import split_japanese_phrases
+
+def run_preprocessor_on(query):
+    proc = split_japanese_phrases.create(QueryConfig().set_normalizer(None))
+
+    return proc(query)
+
+
+@pytest.mark.parametrize('inp,outp', [('大阪府大阪市大阪', '大阪府:大阪市:大阪'),
+                                      ('大阪府大阪', '大阪府:大阪'),
+                                      ('大阪市大阪', '大阪市:大阪')])
+def test_split_phrases(inp, outp):
+    query = [qmod.Phrase(qmod.PhraseType.NONE, inp)]
+
+    out = run_preprocessor_on(query)
+
+    assert out == [qmod.Phrase(qmod.PhraseType.NONE, outp)]
index 8f90b5da16e3fb266f675612b6432762fe6355d5..9f68fcb9a97e89b2d85058ef6ecccf4d745b3334 100644 (file)
@@ -222,7 +222,7 @@ def test_get_import_style_intern(make_config, src_dir, monkeypatch):
 
     monkeypatch.setenv('NOMINATIM_IMPORT_STYLE', 'street')
 
-    expected = src_dir / 'settings' / 'import-street.lua'
+    expected = src_dir / 'lib-lua' / 'import-street.lua'
 
     assert config.get_import_style_file() == expected