]> git.openstreetmap.org Git - nominatim.git/blob - nominatim/tokenizer/legacy_tokenizer.py
Merge pull request #2553 from lonvia/revert-street-matching-to-full-names
[nominatim.git] / nominatim / tokenizer / legacy_tokenizer.py
1 """
2 Tokenizer implementing normalisation as used before Nominatim 4.
3 """
4 from collections import OrderedDict
5 import logging
6 import re
7 import shutil
8 from textwrap import dedent
9
10 from icu import Transliterator
11 import psycopg2
12 import psycopg2.extras
13
14 from nominatim.db.connection import connect
15 from nominatim.db import properties
16 from nominatim.db import utils as db_utils
17 from nominatim.db.sql_preprocessor import SQLPreprocessor
18 from nominatim.errors import UsageError
19 from nominatim.tokenizer.base import AbstractAnalyzer, AbstractTokenizer
20
21 DBCFG_NORMALIZATION = "tokenizer_normalization"
22 DBCFG_MAXWORDFREQ = "tokenizer_maxwordfreq"
23
24 LOG = logging.getLogger()
25
26 def create(dsn, data_dir):
27     """ Create a new instance of the tokenizer provided by this module.
28     """
29     return LegacyTokenizer(dsn, data_dir)
30
31
32 def _install_module(config_module_path, src_dir, module_dir):
33     """ Copies the PostgreSQL normalisation module into the project
34         directory if necessary. For historical reasons the module is
35         saved in the '/module' subdirectory and not with the other tokenizer
36         data.
37
38         The function detects when the installation is run from the
39         build directory. It doesn't touch the module in that case.
40     """
41     # Custom module locations are simply used as is.
42     if config_module_path:
43         LOG.info("Using custom path for database module at '%s'", config_module_path)
44         return config_module_path
45
46     # Compatibility mode for builddir installations.
47     if module_dir.exists() and src_dir.samefile(module_dir):
48         LOG.info('Running from build directory. Leaving database module as is.')
49         return module_dir
50
51     # In any other case install the module in the project directory.
52     if not module_dir.exists():
53         module_dir.mkdir()
54
55     destfile = module_dir / 'nominatim.so'
56     shutil.copy(str(src_dir / 'nominatim.so'), str(destfile))
57     destfile.chmod(0o755)
58
59     LOG.info('Database module installed at %s', str(destfile))
60
61     return module_dir
62
63
64 def _check_module(module_dir, conn):
65     """ Try to use the PostgreSQL module to confirm that it is correctly
66         installed and accessible from PostgreSQL.
67     """
68     with conn.cursor() as cur:
69         try:
70             cur.execute("""CREATE FUNCTION nominatim_test_import_func(text)
71                            RETURNS text AS '{}/nominatim.so', 'transliteration'
72                            LANGUAGE c IMMUTABLE STRICT;
73                            DROP FUNCTION nominatim_test_import_func(text)
74                         """.format(module_dir))
75         except psycopg2.DatabaseError as err:
76             LOG.fatal("Error accessing database module: %s", err)
77             raise UsageError("Database module cannot be accessed.") from err
78
79
80 class LegacyTokenizer(AbstractTokenizer):
81     """ The legacy tokenizer uses a special PostgreSQL module to normalize
82         names and queries. The tokenizer thus implements normalization through
83         calls to the database.
84     """
85
86     def __init__(self, dsn, data_dir):
87         self.dsn = dsn
88         self.data_dir = data_dir
89         self.normalization = None
90
91
92     def init_new_db(self, config, init_db=True):
93         """ Set up a new tokenizer for the database.
94
95             This copies all necessary data in the project directory to make
96             sure the tokenizer remains stable even over updates.
97         """
98         module_dir = _install_module(config.DATABASE_MODULE_PATH,
99                                      config.lib_dir.module,
100                                      config.project_dir / 'module')
101
102         self.normalization = config.TERM_NORMALIZATION
103
104         self._install_php(config)
105
106         with connect(self.dsn) as conn:
107             _check_module(module_dir, conn)
108             self._save_config(conn, config)
109             conn.commit()
110
111         if init_db:
112             self.update_sql_functions(config)
113             self._init_db_tables(config)
114
115
116     def init_from_project(self, _):
117         """ Initialise the tokenizer from the project directory.
118         """
119         with connect(self.dsn) as conn:
120             self.normalization = properties.get_property(conn, DBCFG_NORMALIZATION)
121
122
123     def finalize_import(self, config):
124         """ Do any required postprocessing to make the tokenizer data ready
125             for use.
126         """
127         with connect(self.dsn) as conn:
128             sqlp = SQLPreprocessor(conn, config)
129             sqlp.run_sql_file(conn, 'tokenizer/legacy_tokenizer_indices.sql')
130
131
132     def update_sql_functions(self, config):
133         """ Reimport the SQL functions for this tokenizer.
134         """
135         with connect(self.dsn) as conn:
136             max_word_freq = properties.get_property(conn, DBCFG_MAXWORDFREQ)
137             modulepath = config.DATABASE_MODULE_PATH or \
138                          str((config.project_dir / 'module').resolve())
139             sqlp = SQLPreprocessor(conn, config)
140             sqlp.run_sql_file(conn, 'tokenizer/legacy_tokenizer.sql',
141                               max_word_freq=max_word_freq,
142                               modulepath=modulepath)
143
144
145     def check_database(self, _):
146         """ Check that the tokenizer is set up correctly.
147         """
148         hint = """\
149              The Postgresql extension nominatim.so was not correctly loaded.
150
151              Error: {error}
152
153              Hints:
154              * Check the output of the CMmake/make installation step
155              * Does nominatim.so exist?
156              * Does nominatim.so exist on the database server?
157              * Can nominatim.so be accessed by the database user?
158              """
159         with connect(self.dsn) as conn:
160             with conn.cursor() as cur:
161                 try:
162                     out = cur.scalar("SELECT make_standard_name('a')")
163                 except psycopg2.Error as err:
164                     return hint.format(error=str(err))
165
166         if out != 'a':
167             return hint.format(error='Unexpected result for make_standard_name()')
168
169         return None
170
171
172     def migrate_database(self, config):
173         """ Initialise the project directory of an existing database for
174             use with this tokenizer.
175
176             This is a special migration function for updating existing databases
177             to new software versions.
178         """
179         self.normalization = config.TERM_NORMALIZATION
180         module_dir = _install_module(config.DATABASE_MODULE_PATH,
181                                      config.lib_dir.module,
182                                      config.project_dir / 'module')
183
184         with connect(self.dsn) as conn:
185             _check_module(module_dir, conn)
186             self._save_config(conn, config)
187
188
189     def update_statistics(self):
190         """ Recompute the frequency of full words.
191         """
192         with connect(self.dsn) as conn:
193             if conn.table_exists('search_name'):
194                 with conn.cursor() as cur:
195                     cur.drop_table("word_frequencies")
196                     LOG.info("Computing word frequencies")
197                     cur.execute("""CREATE TEMP TABLE word_frequencies AS
198                                      SELECT unnest(name_vector) as id, count(*)
199                                      FROM search_name GROUP BY id""")
200                     cur.execute("CREATE INDEX ON word_frequencies(id)")
201                     LOG.info("Update word table with recomputed frequencies")
202                     cur.execute("""UPDATE word SET search_name_count = count
203                                    FROM word_frequencies
204                                    WHERE word_token like ' %' and word_id = id""")
205                     cur.drop_table("word_frequencies")
206             conn.commit()
207
208     def name_analyzer(self):
209         """ Create a new analyzer for tokenizing names and queries
210             using this tokinzer. Analyzers are context managers and should
211             be used accordingly:
212
213             ```
214             with tokenizer.name_analyzer() as analyzer:
215                 analyser.tokenize()
216             ```
217
218             When used outside the with construct, the caller must ensure to
219             call the close() function before destructing the analyzer.
220
221             Analyzers are not thread-safe. You need to instantiate one per thread.
222         """
223         normalizer = Transliterator.createFromRules("phrase normalizer",
224                                                     self.normalization)
225         return LegacyNameAnalyzer(self.dsn, normalizer)
226
227
228     def _install_php(self, config):
229         """ Install the php script for the tokenizer.
230         """
231         php_file = self.data_dir / "tokenizer.php"
232         php_file.write_text(dedent("""\
233             <?php
234             @define('CONST_Max_Word_Frequency', {0.MAX_WORD_FREQUENCY});
235             @define('CONST_Term_Normalization_Rules', "{0.TERM_NORMALIZATION}");
236             require_once('{0.lib_dir.php}/tokenizer/legacy_tokenizer.php');
237             """.format(config)))
238
239
240     def _init_db_tables(self, config):
241         """ Set up the word table and fill it with pre-computed word
242             frequencies.
243         """
244         with connect(self.dsn) as conn:
245             sqlp = SQLPreprocessor(conn, config)
246             sqlp.run_sql_file(conn, 'tokenizer/legacy_tokenizer_tables.sql')
247             conn.commit()
248
249         LOG.warning("Precomputing word tokens")
250         db_utils.execute_file(self.dsn, config.lib_dir.data / 'words.sql')
251
252
253     def _save_config(self, conn, config):
254         """ Save the configuration that needs to remain stable for the given
255             database as database properties.
256         """
257         properties.set_property(conn, DBCFG_NORMALIZATION, self.normalization)
258         properties.set_property(conn, DBCFG_MAXWORDFREQ, config.MAX_WORD_FREQUENCY)
259
260
261 class LegacyNameAnalyzer(AbstractAnalyzer):
262     """ The legacy analyzer uses the special Postgresql module for
263         splitting names.
264
265         Each instance opens a connection to the database to request the
266         normalization.
267     """
268
269     def __init__(self, dsn, normalizer):
270         self.conn = connect(dsn).connection
271         self.conn.autocommit = True
272         self.normalizer = normalizer
273         psycopg2.extras.register_hstore(self.conn)
274
275         self._cache = _TokenCache(self.conn)
276
277
278     def close(self):
279         """ Free all resources used by the analyzer.
280         """
281         if self.conn:
282             self.conn.close()
283             self.conn = None
284
285
286     def get_word_token_info(self, words):
287         """ Return token information for the given list of words.
288             If a word starts with # it is assumed to be a full name
289             otherwise is a partial name.
290
291             The function returns a list of tuples with
292             (original word, word token, word id).
293
294             The function is used for testing and debugging only
295             and not necessarily efficient.
296         """
297         with self.conn.cursor() as cur:
298             cur.execute("""SELECT t.term, word_token, word_id
299                            FROM word, (SELECT unnest(%s::TEXT[]) as term) t
300                            WHERE word_token = (CASE
301                                    WHEN left(t.term, 1) = '#' THEN
302                                      ' ' || make_standard_name(substring(t.term from 2))
303                                    ELSE
304                                      make_standard_name(t.term)
305                                    END)
306                                  and class is null and country_code is null""",
307                         (words, ))
308
309             return [(r[0], r[1], r[2]) for r in cur]
310
311
312     def normalize(self, phrase):
313         """ Normalize the given phrase, i.e. remove all properties that
314             are irrelevant for search.
315         """
316         return self.normalizer.transliterate(phrase)
317
318
319     @staticmethod
320     def normalize_postcode(postcode):
321         """ Convert the postcode to a standardized form.
322
323             This function must yield exactly the same result as the SQL function
324             'token_normalized_postcode()'.
325         """
326         return postcode.strip().upper()
327
328
329     def update_postcodes_from_db(self):
330         """ Update postcode tokens in the word table from the location_postcode
331             table.
332         """
333         with self.conn.cursor() as cur:
334             # This finds us the rows in location_postcode and word that are
335             # missing in the other table.
336             cur.execute("""SELECT * FROM
337                             (SELECT pc, word FROM
338                               (SELECT distinct(postcode) as pc FROM location_postcode) p
339                               FULL JOIN
340                               (SELECT word FROM word
341                                 WHERE class ='place' and type = 'postcode') w
342                               ON pc = word) x
343                            WHERE pc is null or word is null""")
344
345             to_delete = []
346             to_add = []
347
348             for postcode, word in cur:
349                 if postcode is None:
350                     to_delete.append(word)
351                 else:
352                     to_add.append(postcode)
353
354             if to_delete:
355                 cur.execute("""DELETE FROM WORD
356                                WHERE class ='place' and type = 'postcode'
357                                      and word = any(%s)
358                             """, (to_delete, ))
359             if to_add:
360                 cur.execute("""SELECT count(create_postcode_id(pc))
361                                FROM unnest(%s) as pc
362                             """, (to_add, ))
363
364
365
366     def update_special_phrases(self, phrases, should_replace):
367         """ Replace the search index for special phrases with the new phrases.
368         """
369         norm_phrases = set(((self.normalize(p[0]), p[1], p[2], p[3])
370                             for p in phrases))
371
372         with self.conn.cursor() as cur:
373             # Get the old phrases.
374             existing_phrases = set()
375             cur.execute("""SELECT word, class, type, operator FROM word
376                            WHERE class != 'place'
377                                  OR (type != 'house' AND type != 'postcode')""")
378             for label, cls, typ, oper in cur:
379                 existing_phrases.add((label, cls, typ, oper or '-'))
380
381             to_add = norm_phrases - existing_phrases
382             to_delete = existing_phrases - norm_phrases
383
384             if to_add:
385                 cur.execute_values(
386                     """ INSERT INTO word (word_id, word_token, word, class, type,
387                                           search_name_count, operator)
388                         (SELECT nextval('seq_word'), ' ' || make_standard_name(name), name,
389                                 class, type, 0,
390                                 CASE WHEN op in ('in', 'near') THEN op ELSE null END
391                            FROM (VALUES %s) as v(name, class, type, op))""",
392                     to_add)
393
394             if to_delete and should_replace:
395                 cur.execute_values(
396                     """ DELETE FROM word USING (VALUES %s) as v(name, in_class, in_type, op)
397                         WHERE word = name and class = in_class and type = in_type
398                               and ((op = '-' and operator is null) or op = operator)""",
399                     to_delete)
400
401         LOG.info("Total phrases: %s. Added: %s. Deleted: %s",
402                  len(norm_phrases), len(to_add), len(to_delete))
403
404
405     def add_country_names(self, country_code, names):
406         """ Add names for the given country to the search index.
407         """
408         with self.conn.cursor() as cur:
409             cur.execute(
410                 """INSERT INTO word (word_id, word_token, country_code)
411                    (SELECT nextval('seq_word'), lookup_token, %s
412                       FROM (SELECT DISTINCT ' ' || make_standard_name(n) as lookup_token
413                             FROM unnest(%s)n) y
414                       WHERE NOT EXISTS(SELECT * FROM word
415                                        WHERE word_token = lookup_token and country_code = %s))
416                 """, (country_code, list(names.values()), country_code))
417
418
419     def process_place(self, place):
420         """ Determine tokenizer information about the given place.
421
422             Returns a JSON-serialisable structure that will be handed into
423             the database via the token_info field.
424         """
425         token_info = _TokenInfo(self._cache)
426
427         names = place.name
428
429         if names:
430             token_info.add_names(self.conn, names)
431
432             if place.is_country():
433                 self.add_country_names(place.country_code, names)
434
435         address = place.address
436         if address:
437             self._process_place_address(token_info, address)
438
439         return token_info.data
440
441
442     def _process_place_address(self, token_info, address):
443         hnrs = []
444         addr_terms = []
445
446         for key, value in address.items():
447             if key == 'postcode':
448                 # Make sure the normalized postcode is present in the word table.
449                 if re.search(r'[:,;]', value) is None:
450                     self._cache.add_postcode(self.conn,
451                                              self.normalize_postcode(value))
452             elif key in ('housenumber', 'streetnumber', 'conscriptionnumber'):
453                 hnrs.append(value)
454             elif key == 'street':
455                 token_info.add_street(self.conn, value)
456             elif key == 'place':
457                 token_info.add_place(self.conn, value)
458             elif not key.startswith('_') and key not in ('country', 'full'):
459                 addr_terms.append((key, value))
460
461         if hnrs:
462             token_info.add_housenumbers(self.conn, hnrs)
463
464         if addr_terms:
465             token_info.add_address_terms(self.conn, addr_terms)
466
467
468
469 class _TokenInfo:
470     """ Collect token information to be sent back to the database.
471     """
472     def __init__(self, cache):
473         self.cache = cache
474         self.data = {}
475
476
477     def add_names(self, conn, names):
478         """ Add token information for the names of the place.
479         """
480         with conn.cursor() as cur:
481             # Create the token IDs for all names.
482             self.data['names'] = cur.scalar("SELECT make_keywords(%s)::text",
483                                             (names, ))
484
485
486     def add_housenumbers(self, conn, hnrs):
487         """ Extract housenumber information from the address.
488         """
489         if len(hnrs) == 1:
490             token = self.cache.get_housenumber(hnrs[0])
491             if token is not None:
492                 self.data['hnr_tokens'] = token
493                 self.data['hnr'] = hnrs[0]
494                 return
495
496         # split numbers if necessary
497         simple_list = []
498         for hnr in hnrs:
499             simple_list.extend((x.strip() for x in re.split(r'[;,]', hnr)))
500
501         if len(simple_list) > 1:
502             simple_list = list(set(simple_list))
503
504         with conn.cursor() as cur:
505             cur.execute("SELECT (create_housenumbers(%s)).* ", (simple_list, ))
506             self.data['hnr_tokens'], self.data['hnr'] = cur.fetchone()
507
508
509     def add_street(self, conn, street):
510         """ Add addr:street match terms.
511         """
512         def _get_street(name):
513             with conn.cursor() as cur:
514                 return cur.scalar("SELECT word_ids_from_name(%s)::text", (name, ))
515
516         tokens = self.cache.streets.get(street, _get_street)
517         if tokens:
518             self.data['street'] = tokens
519
520
521     def add_place(self, conn, place):
522         """ Add addr:place search and match terms.
523         """
524         def _get_place(name):
525             with conn.cursor() as cur:
526                 cur.execute("""SELECT make_keywords(hstore('name' , %s))::text,
527                                       word_ids_from_name(%s)::text""",
528                             (name, name))
529                 return cur.fetchone()
530
531         self.data['place_search'], self.data['place_match'] = \
532             self.cache.places.get(place, _get_place)
533
534
535     def add_address_terms(self, conn, terms):
536         """ Add additional address terms.
537         """
538         def _get_address_term(name):
539             with conn.cursor() as cur:
540                 cur.execute("""SELECT addr_ids_from_name(%s)::text,
541                                       word_ids_from_name(%s)::text""",
542                             (name, name))
543                 return cur.fetchone()
544
545         tokens = {}
546         for key, value in terms:
547             items = self.cache.address_terms.get(value, _get_address_term)
548             if items[0] or items[1]:
549                 tokens[key] = items
550
551         if tokens:
552             self.data['addr'] = tokens
553
554
555 class _LRU:
556     """ Least recently used cache that accepts a generator function to
557         produce the item when there is a cache miss.
558     """
559
560     def __init__(self, maxsize=128, init_data=None):
561         self.data = init_data or OrderedDict()
562         self.maxsize = maxsize
563         if init_data is not None and len(init_data) > maxsize:
564             self.maxsize = len(init_data)
565
566     def get(self, key, generator):
567         """ Get the item with the given key from the cache. If nothing
568             is found in the cache, generate the value through the
569             generator function and store it in the cache.
570         """
571         value = self.data.get(key)
572         if value is not None:
573             self.data.move_to_end(key)
574         else:
575             value = generator(key)
576             if len(self.data) >= self.maxsize:
577                 self.data.popitem(last=False)
578             self.data[key] = value
579
580         return value
581
582
583 class _TokenCache:
584     """ Cache for token information to avoid repeated database queries.
585
586         This cache is not thread-safe and needs to be instantiated per
587         analyzer.
588     """
589     def __init__(self, conn):
590         # various LRU caches
591         self.streets = _LRU(maxsize=256)
592         self.places = _LRU(maxsize=128)
593         self.address_terms = _LRU(maxsize=1024)
594
595         # Lookup houseunumbers up to 100 and cache them
596         with conn.cursor() as cur:
597             cur.execute("""SELECT i, ARRAY[getorcreate_housenumber_id(i::text)]::text
598                            FROM generate_series(1, 100) as i""")
599             self._cached_housenumbers = {str(r[0]): r[1] for r in cur}
600
601         # For postcodes remember the ones that have already been added
602         self.postcodes = set()
603
604     def get_housenumber(self, number):
605         """ Get a housenumber token from the cache.
606         """
607         return self._cached_housenumbers.get(number)
608
609
610     def add_postcode(self, conn, postcode):
611         """ Make sure the given postcode is in the database.
612         """
613         if postcode not in self.postcodes:
614             with conn.cursor() as cur:
615                 cur.execute('SELECT create_postcode_id(%s)', (postcode, ))
616             self.postcodes.add(postcode)