]> git.openstreetmap.org Git - nominatim.git/blob - nominatim/tokenizer/icu_tokenizer.py
Merge remote-tracking branch 'upstream/master'
[nominatim.git] / nominatim / tokenizer / icu_tokenizer.py
1 """
2 Tokenizer implementing normalisation as used before Nominatim 4 but using
3 libICU instead of the PostgreSQL module.
4 """
5 import itertools
6 import json
7 import logging
8 import re
9 from textwrap import dedent
10
11 from nominatim.db.connection import connect
12 from nominatim.db.properties import set_property, get_property
13 from nominatim.db.utils import CopyBuffer
14 from nominatim.db.sql_preprocessor import SQLPreprocessor
15 from nominatim.indexer.place_info import PlaceInfo
16 from nominatim.tokenizer.icu_rule_loader import ICURuleLoader
17 from nominatim.tokenizer.base import AbstractAnalyzer, AbstractTokenizer
18
19 DBCFG_TERM_NORMALIZATION = "tokenizer_term_normalization"
20
21 LOG = logging.getLogger()
22
23 def create(dsn, data_dir):
24     """ Create a new instance of the tokenizer provided by this module.
25     """
26     return LegacyICUTokenizer(dsn, data_dir)
27
28
29 class LegacyICUTokenizer(AbstractTokenizer):
30     """ This tokenizer uses libICU to covert names and queries to ASCII.
31         Otherwise it uses the same algorithms and data structures as the
32         normalization routines in Nominatim 3.
33     """
34
35     def __init__(self, dsn, data_dir):
36         self.dsn = dsn
37         self.data_dir = data_dir
38         self.loader = None
39         self.term_normalization = None
40
41
42     def init_new_db(self, config, init_db=True):
43         """ Set up a new tokenizer for the database.
44
45             This copies all necessary data in the project directory to make
46             sure the tokenizer remains stable even over updates.
47         """
48         self.loader = ICURuleLoader(config)
49
50         self.term_normalization = config.TERM_NORMALIZATION
51
52         self._install_php(config.lib_dir.php)
53         self._save_config()
54
55         if init_db:
56             self.update_sql_functions(config)
57             self._init_db_tables(config)
58
59
60     def init_from_project(self, config):
61         """ Initialise the tokenizer from the project directory.
62         """
63         self.loader = ICURuleLoader(config)
64
65         with connect(self.dsn) as conn:
66             self.loader.load_config_from_db(conn)
67             self.term_normalization = get_property(conn, DBCFG_TERM_NORMALIZATION)
68
69
70     def finalize_import(self, _):
71         """ Do any required postprocessing to make the tokenizer data ready
72             for use.
73         """
74
75
76     def update_sql_functions(self, config):
77         """ Reimport the SQL functions for this tokenizer.
78         """
79         with connect(self.dsn) as conn:
80             sqlp = SQLPreprocessor(conn, config)
81             sqlp.run_sql_file(conn, 'tokenizer/icu_tokenizer.sql')
82
83
84     def check_database(self, config):
85         """ Check that the tokenizer is set up correctly.
86         """
87         self.init_from_project(config)
88
89         if self.term_normalization is None:
90             return "Configuration for tokenizer 'icu' are missing."
91
92         return None
93
94
95     def update_statistics(self):
96         """ Recompute frequencies for all name words.
97         """
98         with connect(self.dsn) as conn:
99             with conn.cursor() as cur:
100                 cur.drop_table("word_frequencies")
101                 LOG.info("Computing word frequencies")
102                 cur.execute("""CREATE TEMP TABLE word_frequencies AS
103                                  SELECT unnest(name_vector) as id, count(*)
104                                  FROM search_name GROUP BY id""")
105                 cur.execute("CREATE INDEX ON word_frequencies(id)")
106                 LOG.info("Update word table with recomputed frequencies")
107                 cur.execute("""UPDATE word
108                                SET info = info || jsonb_build_object('count', count)
109                                FROM word_frequencies WHERE word_id = id""")
110                 cur.drop_table("word_frequencies")
111             conn.commit()
112
113
114     def name_analyzer(self):
115         """ Create a new analyzer for tokenizing names and queries
116             using this tokinzer. Analyzers are context managers and should
117             be used accordingly:
118
119             ```
120             with tokenizer.name_analyzer() as analyzer:
121                 analyser.tokenize()
122             ```
123
124             When used outside the with construct, the caller must ensure to
125             call the close() function before destructing the analyzer.
126
127             Analyzers are not thread-safe. You need to instantiate one per thread.
128         """
129         return LegacyICUNameAnalyzer(self.dsn, self.loader.make_sanitizer(),
130                                      self.loader.make_token_analysis())
131
132
133     def _install_php(self, phpdir):
134         """ Install the php script for the tokenizer.
135         """
136         php_file = self.data_dir / "tokenizer.php"
137         php_file.write_text(dedent(f"""\
138             <?php
139             @define('CONST_Max_Word_Frequency', 10000000);
140             @define('CONST_Term_Normalization_Rules', "{self.term_normalization}");
141             @define('CONST_Transliteration', "{self.loader.get_search_rules()}");
142             require_once('{phpdir}/tokenizer/icu_tokenizer.php');"""))
143
144
145     def _save_config(self):
146         """ Save the configuration that needs to remain stable for the given
147             database as database properties.
148         """
149         with connect(self.dsn) as conn:
150             self.loader.save_config_to_db(conn)
151             set_property(conn, DBCFG_TERM_NORMALIZATION, self.term_normalization)
152
153
154     def _init_db_tables(self, config):
155         """ Set up the word table and fill it with pre-computed word
156             frequencies.
157         """
158         with connect(self.dsn) as conn:
159             sqlp = SQLPreprocessor(conn, config)
160             sqlp.run_sql_file(conn, 'tokenizer/icu_tokenizer_tables.sql')
161             conn.commit()
162
163
164 class LegacyICUNameAnalyzer(AbstractAnalyzer):
165     """ The legacy analyzer uses the ICU library for splitting names.
166
167         Each instance opens a connection to the database to request the
168         normalization.
169     """
170
171     def __init__(self, dsn, sanitizer, token_analysis):
172         self.conn = connect(dsn).connection
173         self.conn.autocommit = True
174         self.sanitizer = sanitizer
175         self.token_analysis = token_analysis
176
177         self._cache = _TokenCache()
178
179
180     def close(self):
181         """ Free all resources used by the analyzer.
182         """
183         if self.conn:
184             self.conn.close()
185             self.conn = None
186
187
188     def _search_normalized(self, name):
189         """ Return the search token transliteration of the given name.
190         """
191         return self.token_analysis.search.transliterate(name).strip()
192
193
194     def _normalized(self, name):
195         """ Return the normalized version of the given name with all
196             non-relevant information removed.
197         """
198         return self.token_analysis.normalizer.transliterate(name).strip()
199
200
201     def get_word_token_info(self, words):
202         """ Return token information for the given list of words.
203             If a word starts with # it is assumed to be a full name
204             otherwise is a partial name.
205
206             The function returns a list of tuples with
207             (original word, word token, word id).
208
209             The function is used for testing and debugging only
210             and not necessarily efficient.
211         """
212         full_tokens = {}
213         partial_tokens = {}
214         for word in words:
215             if word.startswith('#'):
216                 full_tokens[word] = self._search_normalized(word[1:])
217             else:
218                 partial_tokens[word] = self._search_normalized(word)
219
220         with self.conn.cursor() as cur:
221             cur.execute("""SELECT word_token, word_id
222                             FROM word WHERE word_token = ANY(%s) and type = 'W'
223                         """, (list(full_tokens.values()),))
224             full_ids = {r[0]: r[1] for r in cur}
225             cur.execute("""SELECT word_token, word_id
226                             FROM word WHERE word_token = ANY(%s) and type = 'w'""",
227                         (list(partial_tokens.values()),))
228             part_ids = {r[0]: r[1] for r in cur}
229
230         return [(k, v, full_ids.get(v, None)) for k, v in full_tokens.items()] \
231                + [(k, v, part_ids.get(v, None)) for k, v in partial_tokens.items()]
232
233
234     @staticmethod
235     def normalize_postcode(postcode):
236         """ Convert the postcode to a standardized form.
237
238             This function must yield exactly the same result as the SQL function
239             'token_normalized_postcode()'.
240         """
241         return postcode.strip().upper()
242
243
244     def _make_standard_hnr(self, hnr):
245         """ Create a normalised version of a housenumber.
246
247             This function takes minor shortcuts on transliteration.
248         """
249         return self._search_normalized(hnr)
250
251     def update_postcodes_from_db(self):
252         """ Update postcode tokens in the word table from the location_postcode
253             table.
254         """
255         to_delete = []
256         with self.conn.cursor() as cur:
257             # This finds us the rows in location_postcode and word that are
258             # missing in the other table.
259             cur.execute("""SELECT * FROM
260                             (SELECT pc, word FROM
261                               (SELECT distinct(postcode) as pc FROM location_postcode) p
262                               FULL JOIN
263                               (SELECT word FROM word WHERE type = 'P') w
264                               ON pc = word) x
265                            WHERE pc is null or word is null""")
266
267             with CopyBuffer() as copystr:
268                 for postcode, word in cur:
269                     if postcode is None:
270                         to_delete.append(word)
271                     else:
272                         copystr.add(self._search_normalized(postcode),
273                                     'P', postcode)
274
275                 if to_delete:
276                     cur.execute("""DELETE FROM WORD
277                                    WHERE type ='P' and word = any(%s)
278                                 """, (to_delete, ))
279
280                 copystr.copy_out(cur, 'word',
281                                  columns=['word_token', 'type', 'word'])
282
283
284     def update_special_phrases(self, phrases, should_replace):
285         """ Replace the search index for special phrases with the new phrases.
286             If `should_replace` is True, then the previous set of will be
287             completely replaced. Otherwise the phrases are added to the
288             already existing ones.
289         """
290         norm_phrases = set(((self._normalized(p[0]), p[1], p[2], p[3])
291                             for p in phrases))
292
293         with self.conn.cursor() as cur:
294             # Get the old phrases.
295             existing_phrases = set()
296             cur.execute("SELECT word, info FROM word WHERE type = 'S'")
297             for word, info in cur:
298                 existing_phrases.add((word, info['class'], info['type'],
299                                       info.get('op') or '-'))
300
301             added = self._add_special_phrases(cur, norm_phrases, existing_phrases)
302             if should_replace:
303                 deleted = self._remove_special_phrases(cur, norm_phrases,
304                                                        existing_phrases)
305             else:
306                 deleted = 0
307
308         LOG.info("Total phrases: %s. Added: %s. Deleted: %s",
309                  len(norm_phrases), added, deleted)
310
311
312     def _add_special_phrases(self, cursor, new_phrases, existing_phrases):
313         """ Add all phrases to the database that are not yet there.
314         """
315         to_add = new_phrases - existing_phrases
316
317         added = 0
318         with CopyBuffer() as copystr:
319             for word, cls, typ, oper in to_add:
320                 term = self._search_normalized(word)
321                 if term:
322                     copystr.add(term, 'S', word,
323                                 json.dumps({'class': cls, 'type': typ,
324                                             'op': oper if oper in ('in', 'near') else None}))
325                     added += 1
326
327             copystr.copy_out(cursor, 'word',
328                              columns=['word_token', 'type', 'word', 'info'])
329
330         return added
331
332
333     @staticmethod
334     def _remove_special_phrases(cursor, new_phrases, existing_phrases):
335         """ Remove all phrases from the databse that are no longer in the
336             new phrase list.
337         """
338         to_delete = existing_phrases - new_phrases
339
340         if to_delete:
341             cursor.execute_values(
342                 """ DELETE FROM word USING (VALUES %s) as v(name, in_class, in_type, op)
343                     WHERE type = 'S' and word = name
344                           and info->>'class' = in_class and info->>'type' = in_type
345                           and ((op = '-' and info->>'op' is null) or op = info->>'op')
346                 """, to_delete)
347
348         return len(to_delete)
349
350
351     def add_country_names(self, country_code, names):
352         """ Add names for the given country to the search index.
353         """
354         # Make sure any name preprocessing for country names applies.
355         info = PlaceInfo({'name': names, 'country_code': country_code,
356                           'rank_address': 4, 'class': 'boundary',
357                           'type': 'administrative'})
358         self._add_country_full_names(country_code,
359                                      self.sanitizer.process_names(info)[0])
360
361
362     def _add_country_full_names(self, country_code, names):
363         """ Add names for the given country from an already sanitized
364             name list.
365         """
366         word_tokens = set()
367         for name in names:
368             norm_name = self._search_normalized(name.name)
369             if norm_name:
370                 word_tokens.add(norm_name)
371
372         with self.conn.cursor() as cur:
373             # Get existing names
374             cur.execute("""SELECT word_token FROM word
375                             WHERE type = 'C' and word = %s""",
376                         (country_code, ))
377             word_tokens.difference_update((t[0] for t in cur))
378
379             # Only add those names that are not yet in the list.
380             if word_tokens:
381                 cur.execute("""INSERT INTO word (word_token, type, word)
382                                (SELECT token, 'C', %s
383                                 FROM unnest(%s) as token)
384                             """, (country_code, list(word_tokens)))
385
386             # No names are deleted at the moment.
387             # If deletion is made possible, then the static names from the
388             # initial 'country_name' table should be kept.
389
390
391     def process_place(self, place):
392         """ Determine tokenizer information about the given place.
393
394             Returns a JSON-serializable structure that will be handed into
395             the database via the token_info field.
396         """
397         token_info = _TokenInfo(self._cache)
398
399         names, address = self.sanitizer.process_names(place)
400
401         if names:
402             fulls, partials = self._compute_name_tokens(names)
403
404             token_info.add_names(fulls, partials)
405
406             if place.is_country():
407                 self._add_country_full_names(place.country_code, names)
408
409         if address:
410             self._process_place_address(token_info, address)
411
412         return token_info.data
413
414
415     def _process_place_address(self, token_info, address):
416         hnrs = []
417         addr_terms = []
418         for item in address:
419             if item.kind == 'postcode':
420                 self._add_postcode(item.name)
421             elif item.kind in ('housenumber', 'streetnumber', 'conscriptionnumber'):
422                 hnrs.append(item.name)
423             elif item.kind == 'street':
424                 token_info.add_street(self._compute_partial_tokens(item.name))
425             elif item.kind == 'place':
426                 token_info.add_place(self._compute_partial_tokens(item.name))
427             elif not item.kind.startswith('_') and \
428                  item.kind not in ('country', 'full'):
429                 addr_terms.append((item.kind, self._compute_partial_tokens(item.name)))
430
431         if hnrs:
432             hnrs = self._split_housenumbers(hnrs)
433             token_info.add_housenumbers(self.conn, [self._make_standard_hnr(n) for n in hnrs])
434
435         if addr_terms:
436             token_info.add_address_terms(addr_terms)
437
438
439     def _compute_partial_tokens(self, name):
440         """ Normalize the given term, split it into partial words and return
441             then token list for them.
442         """
443         norm_name = self._search_normalized(name)
444
445         tokens = []
446         need_lookup = []
447         for partial in norm_name.split():
448             token = self._cache.partials.get(partial)
449             if token:
450                 tokens.append(token)
451             else:
452                 need_lookup.append(partial)
453
454         if need_lookup:
455             with self.conn.cursor() as cur:
456                 cur.execute("""SELECT word, getorcreate_partial_word(word)
457                                FROM unnest(%s) word""",
458                             (need_lookup, ))
459
460                 for partial, token in cur:
461                     tokens.append(token)
462                     self._cache.partials[partial] = token
463
464         return tokens
465
466
467     def _compute_name_tokens(self, names):
468         """ Computes the full name and partial name tokens for the given
469             dictionary of names.
470         """
471         full_tokens = set()
472         partial_tokens = set()
473
474         for name in names:
475             analyzer_id = name.get_attr('analyzer')
476             norm_name = self._normalized(name.name)
477             if analyzer_id is None:
478                 token_id = norm_name
479             else:
480                 token_id = f'{norm_name}@{analyzer_id}'
481
482             full, part = self._cache.names.get(token_id, (None, None))
483             if full is None:
484                 variants = self.token_analysis.analysis[analyzer_id].get_variants_ascii(norm_name)
485                 if not variants:
486                     continue
487
488                 with self.conn.cursor() as cur:
489                     cur.execute("SELECT (getorcreate_full_word(%s, %s)).*",
490                                 (token_id, variants))
491                     full, part = cur.fetchone()
492
493                 self._cache.names[token_id] = (full, part)
494
495             full_tokens.add(full)
496             partial_tokens.update(part)
497
498         return full_tokens, partial_tokens
499
500
501     def _add_postcode(self, postcode):
502         """ Make sure the normalized postcode is present in the word table.
503         """
504         if re.search(r'[:,;]', postcode) is None:
505             postcode = self.normalize_postcode(postcode)
506
507             if postcode not in self._cache.postcodes:
508                 term = self._search_normalized(postcode)
509                 if not term:
510                     return
511
512                 with self.conn.cursor() as cur:
513                     # no word_id needed for postcodes
514                     cur.execute("""INSERT INTO word (word_token, type, word)
515                                    (SELECT %s, 'P', pc FROM (VALUES (%s)) as v(pc)
516                                     WHERE NOT EXISTS
517                                      (SELECT * FROM word
518                                       WHERE type = 'P' and word = pc))
519                                 """, (term, postcode))
520                 self._cache.postcodes.add(postcode)
521
522
523     @staticmethod
524     def _split_housenumbers(hnrs):
525         if len(hnrs) > 1 or ',' in hnrs[0] or ';' in hnrs[0]:
526             # split numbers if necessary
527             simple_list = []
528             for hnr in hnrs:
529                 simple_list.extend((x.strip() for x in re.split(r'[;,]', hnr)))
530
531             if len(simple_list) > 1:
532                 hnrs = list(set(simple_list))
533             else:
534                 hnrs = simple_list
535
536         return hnrs
537
538
539
540
541 class _TokenInfo:
542     """ Collect token information to be sent back to the database.
543     """
544     def __init__(self, cache):
545         self._cache = cache
546         self.data = {}
547
548     @staticmethod
549     def _mk_array(tokens):
550         return '{%s}' % ','.join((str(s) for s in tokens))
551
552
553     def add_names(self, fulls, partials):
554         """ Adds token information for the normalised names.
555         """
556         self.data['names'] = self._mk_array(itertools.chain(fulls, partials))
557
558
559     def add_housenumbers(self, conn, hnrs):
560         """ Extract housenumber information from a list of normalised
561             housenumbers.
562         """
563         self.data['hnr_tokens'] = self._mk_array(self._cache.get_hnr_tokens(conn, hnrs))
564         self.data['hnr'] = ';'.join(hnrs)
565
566
567     def add_street(self, tokens):
568         """ Add addr:street match terms.
569         """
570         if tokens:
571             self.data['street'] = self._mk_array(tokens)
572
573
574     def add_place(self, tokens):
575         """ Add addr:place search and match terms.
576         """
577         if tokens:
578             self.data['place'] = self._mk_array(tokens)
579
580
581     def add_address_terms(self, terms):
582         """ Add additional address terms.
583         """
584         tokens = {key: self._mk_array(partials)
585                   for key, partials in terms if partials}
586
587         if tokens:
588             self.data['addr'] = tokens
589
590
591 class _TokenCache:
592     """ Cache for token information to avoid repeated database queries.
593
594         This cache is not thread-safe and needs to be instantiated per
595         analyzer.
596     """
597     def __init__(self):
598         self.names = {}
599         self.partials = {}
600         self.postcodes = set()
601         self.housenumbers = {}
602
603
604     def get_hnr_tokens(self, conn, terms):
605         """ Get token ids for a list of housenumbers, looking them up in the
606             database if necessary. `terms` is an iterable of normalized
607             housenumbers.
608         """
609         tokens = []
610         askdb = []
611
612         for term in terms:
613             token = self.housenumbers.get(term)
614             if token is None:
615                 askdb.append(term)
616             else:
617                 tokens.append(token)
618
619         if askdb:
620             with conn.cursor() as cur:
621                 cur.execute("SELECT nr, getorcreate_hnr_id(nr) FROM unnest(%s) as nr",
622                             (askdb, ))
623                 for term, tid in cur:
624                     self.housenumbers[term] = tid
625                     tokens.append(tid)
626
627         return tokens