]> git.openstreetmap.org Git - nominatim.git/blobdiff - src/nominatim_db/tokenizer/factory.py
Revert "work round typing bug in pyosmium 4.0"
[nominatim.git] / src / nominatim_db / tokenizer / factory.py
index d43929f0306999d83c1bfefd984c274be0a5b298..5003c322e3764bfb49e1b01c71fbb20112d33543 100644 (file)
@@ -15,19 +15,16 @@ be used consistently when querying and updating the database.
 This module provides the functions to create and configure a new tokenizer
 as well as instantiating the appropriate tokenizer for updating an existing
 database.
 This module provides the functions to create and configure a new tokenizer
 as well as instantiating the appropriate tokenizer for updating an existing
 database.
-
-A tokenizer usually also includes PHP code for querying. The appropriate PHP
-normalizer module is installed, when the tokenizer is created.
 """
 from typing import Optional
 import logging
 import importlib
 from pathlib import Path
 
 """
 from typing import Optional
 import logging
 import importlib
 from pathlib import Path
 
-from nominatim_core.errors import UsageError
-from nominatim_core.db import properties
-from nominatim_core.db.connection import connect
-from nominatim_core.config import Configuration
+from ..errors import UsageError
+from ..db import properties
+from ..db.connection import connect
+from ..config import Configuration
 from ..tokenizer.base import AbstractTokenizer, TokenizerModule
 
 LOG = logging.getLogger()
 from ..tokenizer.base import AbstractTokenizer, TokenizerModule
 
 LOG = logging.getLogger()
@@ -41,7 +38,7 @@ def _import_tokenizer(name: str) -> TokenizerModule:
                   "Check the setting of NOMINATIM_TOKENIZER.", name)
         raise UsageError('Tokenizer not found')
 
                   "Check the setting of NOMINATIM_TOKENIZER.", name)
         raise UsageError('Tokenizer not found')
 
-    return importlib.import_module('nominatim.tokenizer.' + name + '_tokenizer')
+    return importlib.import_module('nominatim_db.tokenizer.' + name + '_tokenizer')
 
 
 def create_tokenizer(config: Configuration, init_db: bool = True,
 
 
 def create_tokenizer(config: Configuration, init_db: bool = True,