]> git.openstreetmap.org Git - nominatim.git/blobdiff - nominatim/tools/special_phrases.py
Merge pull request #2277 from lonvia/update-osm2pgsql
[nominatim.git] / nominatim / tools / special_phrases.py
index 3dead38b9ffb5cd50c91a613f209ecd59afc0427..0c1258fefb0b9cece4c4e7ca88869b39fd97ab0e 100644 (file)
 """
 import logging
 import os
+from pathlib import Path
 import re
 import subprocess
-import sys
 import json
 from os.path import isfile
+from icu import Transliterator
 from psycopg2.sql import Identifier, Literal, SQL
 from nominatim.tools.exec_utils import get_url
+from nominatim.errors import UsageError
 
 LOG = logging.getLogger()
-
-def import_from_wiki(args, db_connection, languages=None):
-    # pylint: disable-msg=too-many-locals
+class SpecialPhrasesImporter():
+    # pylint: disable-msg=too-many-instance-attributes
+    # pylint: disable-msg=too-few-public-methods
     """
-        Iterate through all specified languages and
-        extract corresponding special phrases from the wiki.
+        Class handling the process of special phrases importations.
     """
-    black_list, white_list = _load_white_and_black_lists(args)
-
-    #Compile the match regex to increase performance for the following loop.
-    occurence_pattern = re.compile(
-        r'\| ([^\|]+) \|\| ([^\|]+) \|\| ([^\|]+) \|\| ([^\|]+) \|\| ([\-YN])'
-    )
-    sanity_check_pattern = re.compile(r'^\w+$')
-
-    languages = _get_languages(args.config) if not languages else languages
-
-    #array for pairs of class/type
-    pairs = dict()
-    for lang in languages:
-        LOG.warning('Import phrases for lang: %s', lang)
-        wiki_page_xml_content = _get_wiki_content(lang)
+    def __init__(self, config, phplib_dir, db_connection) -> None:
+        self.db_connection = db_connection
+        self.config = config
+        self.phplib_dir = phplib_dir
+        self.black_list, self.white_list = self._load_white_and_black_lists()
+        #Compile the regex here to increase performances.
+        self.occurence_pattern = re.compile(
+            r'\| ([^\|]+) \|\| ([^\|]+) \|\| ([^\|]+) \|\| ([^\|]+) \|\| ([\-YN])'
+        )
+        self.sanity_check_pattern = re.compile(r'^\w+$')
+        self.transliterator = Transliterator.createFromRules("special-phrases normalizer",
+                                                             self.config.TERM_NORMALIZATION)
+        #This set will contain all existing phrases from the word table which
+        #no longer exist on the wiki.
+        #It contain tuples with the following format: (normalized_word, class, type, operator)
+        self.words_phrases_to_delete = set()
+        #This set will contain the phrases which still exist from the wiki.
+        #It is used to prevent duplicates on the wiki by removing them from
+        #the word_phrases_to_delete only at the end.
+        self.words_phrases_still_exist = set()
+        #This set will contain all existing place_classtype tables which doesn't match any
+        #special phrases class/type on the wiki.
+        self.table_phrases_to_delete = set()
+
+    def import_from_wiki(self, languages=None):
+        """
+            Iterate through all specified languages and
+            extract corresponding special phrases from the wiki.
+        """
+        if languages is not None and not isinstance(languages, list):
+            raise TypeError('The \'languages\' argument should be of type list.')
+
+        self._fetch_existing_words_phrases()
+        self._fetch_existing_place_classtype_tables()
+
+        #Get all languages to process.
+        languages = self._load_languages() if not languages else languages
+
+        #Store pairs of class/type for further processing
+        class_type_pairs = set()
+
+        for lang in languages:
+            LOG.warning('Import phrases for lang: %s', lang)
+            wiki_page_xml_content = SpecialPhrasesImporter._get_wiki_content(lang)
+            class_type_pairs.update(self._process_xml_content(wiki_page_xml_content, lang))
+
+        self._create_place_classtype_table_and_indexes(class_type_pairs)
+        self._remove_non_existent_phrases_from_db()
+        self.db_connection.commit()
+        LOG.warning('Import done.')
+
+    def _fetch_existing_words_phrases(self):
+        """
+            Fetch existing special phrases from the word table.
+            Fill the word_phrases_to_delete set of the class.
+        """
+        #Only extract special phrases terms:
+        #If class=place and type=house then it is a housenumber term.
+        #If class=place and type=postcode then it is a postcode term.
+        word_query = """
+            SELECT word, class, type, operator FROM word
+            WHERE class != 'place' OR (type != 'house' AND type != 'postcode')
+        """
+        with self.db_connection.cursor() as db_cursor:
+            db_cursor.execute(SQL(word_query))
+            for row in db_cursor:
+                row[3] = '-' if row[3] is None else row[3]
+                self.words_phrases_to_delete.add(
+                    (row[0], row[1], row[2], row[3])
+                )
+
+    def _fetch_existing_place_classtype_tables(self):
+        """
+            Fetch existing place_classtype tables.
+            Fill the table_phrases_to_delete set of the class.
+        """
+        query = """
+            SELECT table_name
+            FROM information_schema.tables
+            WHERE table_schema='public'
+            AND table_name like 'place_classtype_%';
+        """
+        with self.db_connection.cursor() as db_cursor:
+            db_cursor.execute(SQL(query))
+            for row in db_cursor:
+                self.table_phrases_to_delete.add(row[0])
+
+    def _load_white_and_black_lists(self):
+        """
+            Load white and black lists from phrases-settings.json.
+        """
+        settings_path = (self.config.config_dir / 'phrase-settings.json').resolve()
+
+        if self.config.PHRASE_CONFIG:
+            settings_path = self._convert_php_settings_if_needed(self.config.PHRASE_CONFIG)
+
+        with open(settings_path, "r") as json_settings:
+            settings = json.load(json_settings)
+        return settings['blackList'], settings['whiteList']
+
+    def _load_languages(self):
+        """
+            Get list of all languages from env config file
+            or default if there is no languages configured.
+            The system will extract special phrases only from all specified languages.
+        """
+        default_languages = [
+            'af', 'ar', 'br', 'ca', 'cs', 'de', 'en', 'es',
+            'et', 'eu', 'fa', 'fi', 'fr', 'gl', 'hr', 'hu',
+            'ia', 'is', 'it', 'ja', 'mk', 'nl', 'no', 'pl',
+            'ps', 'pt', 'ru', 'sk', 'sl', 'sv', 'uk', 'vi']
+        return self.config.LANGUAGES.split(',') if self.config.LANGUAGES else default_languages
+
+    @staticmethod
+    def _get_wiki_content(lang):
+        """
+            Request and return the wiki page's content
+            corresponding to special phrases for a given lang.
+            Requested URL Example :
+                https://wiki.openstreetmap.org/wiki/Special:Export/Nominatim/Special_Phrases/EN
+        """
+        url = 'https://wiki.openstreetmap.org/wiki/Special:Export/Nominatim/Special_Phrases/' + lang.upper() # pylint: disable=line-too-long
+        return get_url(url)
+
+    def _check_sanity(self, lang, phrase_class, phrase_type):
+        """
+            Check sanity of given inputs in case somebody added garbage in the wiki.
+            If a bad class/type is detected the system will exit with an error.
+        """
+        type_matchs = self.sanity_check_pattern.findall(phrase_type)
+        class_matchs = self.sanity_check_pattern.findall(phrase_class)
+
+        if len(class_matchs) < 1 or len(type_matchs) < 1:
+            raise UsageError("Bad class/type for language {}: {}={}".format(
+                lang, phrase_class, phrase_type))
+
+    def _process_xml_content(self, xml_content, lang):
+        """
+            Process given xml content by extracting matching patterns.
+            Matching patterns are processed there and returned in a
+            set of class/type pairs.
+        """
         #One match will be of format [label, class, type, operator, plural]
-        matches = occurence_pattern.findall(wiki_page_xml_content)
+        matches = self.occurence_pattern.findall(xml_content)
+        #Store pairs of class/type for further processing
+        class_type_pairs = set()
 
         for match in matches:
             phrase_label = match[0].strip()
+            normalized_label = self.transliterator.transliterate(phrase_label)
             phrase_class = match[1].strip()
             phrase_type = match[2].strip()
             phrase_operator = match[3].strip()
-            #hack around a bug where building=yes was imported withq quotes into the wiki
+            #Needed if some operator in the wiki are not written in english
+            phrase_operator = '-' if phrase_operator not in ('near', 'in') else phrase_operator
+            #hack around a bug where building=yes was imported with quotes into the wiki
             phrase_type = re.sub(r'\"|&quot;', '', phrase_type)
 
-            #sanity check, in case somebody added garbage in the wiki
-            _check_sanity(lang, phrase_class, phrase_type, sanity_check_pattern)
-
             #blacklisting: disallow certain class/type combinations
-            if phrase_class in black_list.keys() and phrase_type in black_list[phrase_class]:
+            if (
+                    phrase_class in self.black_list.keys() and
+                    phrase_type in self.black_list[phrase_class]
+            ):
                 continue
             #whitelisting: if class is in whitelist, allow only tags in the list
-            if phrase_class in white_list.keys() and phrase_type not in white_list[phrase_class]:
+            if (
+                    phrase_class in self.white_list.keys() and
+                    phrase_type not in self.white_list[phrase_class]
+            ):
                 continue
 
-            #add class/type to the pairs dict
-            pairs[f'{phrase_class}|{phrase_type}'] = (phrase_class, phrase_type)
-
-            _process_amenity(
-                db_connection, phrase_label, phrase_class, phrase_type, phrase_operator
-            )
-
-    _create_place_classtype_table_and_indexes(db_connection, args.config, pairs)
-    db_connection.commit()
-    LOG.warning('Import done.')
-
-def _load_white_and_black_lists(args):
-    """
-        Load white and black lists from phrases-settings.json.
-    """
-    config = args.config
-    settings_path = str(config.config_dir)+'/phrase-settings.json'
-
-    if config.PHRASE_CONFIG:
-        settings_path = _convert_php_settings_if_needed(args, config.PHRASE_CONFIG)
-
-    with open(settings_path, "r") as json_settings:
-        settings = json.load(json_settings)
-    return settings['blackList'], settings['whiteList']
-
-def _get_languages(config):
-    """
-        Get list of all languages from env config file
-        or default if there is no languages configured.
-        The system will extract special phrases only from all specified languages.
-    """
-    default_languages = [
-        'af', 'ar', 'br', 'ca', 'cs', 'de', 'en', 'es',
-        'et', 'eu', 'fa', 'fi', 'fr', 'gl', 'hr', 'hu',
-        'ia', 'is', 'it', 'ja', 'mk', 'nl', 'no', 'pl',
-        'ps', 'pt', 'ru', 'sk', 'sl', 'sv', 'uk', 'vi']
-    return config.LANGUAGES or default_languages
-
+            #Check if the phrase already exists in the database.
+            if (
+                    (normalized_label, phrase_class, phrase_type, phrase_operator)
+                    in self.words_phrases_to_delete
+            ):
+                #Remove this phrase from the ones to delete as it still exist on the wiki.
+                self.words_phrases_still_exist.add(
+                    (normalized_label, phrase_class, phrase_type, phrase_operator)
+                )
+                class_type_pairs.add((phrase_class, phrase_type))
+                #Dont need to add this phrase as it already exists in the word table.
+                continue
 
-def _get_wiki_content(lang):
-    """
-        Request and return the wiki page's content
-        corresponding to special phrases for a given lang.
-        Requested URL Example :
-            https://wiki.openstreetmap.org/wiki/Special:Export/Nominatim/Special_Phrases/EN
-    """
-    url = 'https://wiki.openstreetmap.org/wiki/Special:Export/Nominatim/Special_Phrases/' + lang.upper() # pylint: disable=line-too-long
-    return get_url(url)
+            #sanity check, in case somebody added garbage in the wiki
+            self._check_sanity(lang, phrase_class, phrase_type)
 
+            class_type_pairs.add((phrase_class, phrase_type))
 
-def _check_sanity(lang, phrase_class, phrase_type, pattern):
-    """
-        Check sanity of given inputs in case somebody added garbage in the wiki.
-        If a bad class/type is detected the system will exit with an error.
-    """
-    try:
-        if len(pattern.findall(phrase_class)) < 1 or len(pattern.findall(phrase_type)) < 1:
-            sys.exit()
-    except SystemExit:
-        LOG.error("Bad class/type for language %s: %s=%s", lang, phrase_class, phrase_type)
-        raise
+            self._process_amenity(
+                phrase_label, normalized_label, phrase_class,
+                phrase_type, phrase_operator
+            )
 
+        return class_type_pairs
+
+    def _process_amenity(self, phrase_label, normalized_label,
+                         phrase_class, phrase_type, phrase_operator):
+        # pylint: disable-msg=too-many-arguments
+        """
+            Add phrase lookup and corresponding class and
+            type to the word table based on the operator.
+        """
+        with self.db_connection.cursor() as db_cursor:
+            if phrase_operator == 'near':
+                db_cursor.execute("""SELECT getorcreate_amenityoperator(
+                                  make_standard_name(%s), %s, %s, %s, 'near')""",
+                                  (phrase_label, normalized_label, phrase_class, phrase_type))
+            elif phrase_operator == 'in':
+                db_cursor.execute("""SELECT getorcreate_amenityoperator(
+                                  make_standard_name(%s), %s, %s, %s, 'in')""",
+                                  (phrase_label, normalized_label, phrase_class, phrase_type))
+            else:
+                db_cursor.execute("""SELECT getorcreate_amenity(
+                                  make_standard_name(%s), %s, %s, %s)""",
+                                  (phrase_label, normalized_label, phrase_class, phrase_type))
+
+
+    def _create_place_classtype_table_and_indexes(self, class_type_pairs):
+        """
+            Create table place_classtype for each given pair.
+            Also create indexes on place_id and centroid.
+        """
+        LOG.warning('Create tables and indexes...')
+
+        sql_tablespace = self.config.TABLESPACE_AUX_DATA
+        if sql_tablespace:
+            sql_tablespace = ' TABLESPACE '+sql_tablespace
+
+        with self.db_connection.cursor() as db_cursor:
+            db_cursor.execute("CREATE INDEX idx_placex_classtype ON placex (class, type)")
+
+        for pair in class_type_pairs:
+            phrase_class = pair[0]
+            phrase_type = pair[1]
+
+            table_name = 'place_classtype_{}_{}'.format(phrase_class, phrase_type)
+
+            if table_name in self.table_phrases_to_delete:
+                #Remove this table from the ones to delete as it match a class/type
+                #still existing on the special phrases of the wiki.
+                self.table_phrases_to_delete.remove(table_name)
+                #So dont need to create the table and indexes.
+                continue
 
-def _process_amenity(db_connection, phrase_label, phrase_class, phrase_type, phrase_operator):
-    """
-        Add phrase lookup and corresponding class and type to the word table based on the operator.
-    """
-    with db_connection.cursor() as db_cursor:
-        if phrase_operator == 'near':
-            db_cursor.execute("""SELECT getorcreate_amenityoperator(
-                              make_standard_name(%s), %s, %s, 'near')""",
-                              (phrase_label, phrase_class, phrase_type))
-        elif phrase_operator == 'in':
-            db_cursor.execute("""SELECT getorcreate_amenityoperator(
-                              make_standard_name(%s), %s, %s, 'in')""",
-                              (phrase_label, phrase_class, phrase_type))
+            #Table creation
+            self._create_place_classtype_table(sql_tablespace, phrase_class, phrase_type)
+
+            #Indexes creation
+            self._create_place_classtype_indexes(sql_tablespace, phrase_class, phrase_type)
+
+            #Grant access on read to the web user.
+            self._grant_access_to_webuser(phrase_class, phrase_type)
+
+        with self.db_connection.cursor() as db_cursor:
+            db_cursor.execute("DROP INDEX idx_placex_classtype")
+
+
+    def _create_place_classtype_table(self, sql_tablespace, phrase_class, phrase_type):
+        """
+            Create table place_classtype of the given phrase_class/phrase_type if doesn't exit.
+        """
+        table_name = 'place_classtype_{}_{}'.format(phrase_class, phrase_type)
+        with self.db_connection.cursor() as db_cursor:
+            db_cursor.execute(SQL("""
+                    CREATE TABLE IF NOT EXISTS {{}} {} 
+                    AS SELECT place_id AS place_id,st_centroid(geometry) AS centroid FROM placex 
+                    WHERE class = {{}} AND type = {{}}""".format(sql_tablespace))
+                              .format(Identifier(table_name), Literal(phrase_class),
+                                      Literal(phrase_type)))
+
+
+    def _create_place_classtype_indexes(self, sql_tablespace, phrase_class, phrase_type):
+        """
+            Create indexes on centroid and place_id for the place_classtype table.
+        """
+        index_prefix = 'idx_place_classtype_{}_{}_'.format(phrase_class, phrase_type)
+        base_table = 'place_classtype_{}_{}'.format(phrase_class, phrase_type)
+        #Index on centroid
+        if not self.db_connection.index_exists(index_prefix + 'centroid'):
+            with self.db_connection.cursor() as db_cursor:
+                db_cursor.execute(SQL("""
+                    CREATE INDEX {{}} ON {{}} USING GIST (centroid) {}""".format(sql_tablespace))
+                                  .format(Identifier(index_prefix + 'centroid'),
+                                          Identifier(base_table)), sql_tablespace)
+
+        #Index on place_id
+        if not self.db_connection.index_exists(index_prefix + 'place_id'):
+            with self.db_connection.cursor() as db_cursor:
+                db_cursor.execute(SQL(
+                    """CREATE INDEX {{}} ON {{}} USING btree(place_id) {}""".format(sql_tablespace))
+                                  .format(Identifier(index_prefix + 'place_id'),
+                                          Identifier(base_table)))
+
+
+    def _grant_access_to_webuser(self, phrase_class, phrase_type):
+        """
+            Grant access on read to the table place_classtype for the webuser.
+        """
+        table_name = 'place_classtype_{}_{}'.format(phrase_class, phrase_type)
+        with self.db_connection.cursor() as db_cursor:
+            db_cursor.execute(SQL("""GRANT SELECT ON {} TO {}""")
+                              .format(Identifier(table_name),
+                                      Identifier(self.config.DATABASE_WEBUSER)))
+
+    def _remove_non_existent_phrases_from_db(self):
+        """
+            Remove special phrases which doesn't exist on the wiki anymore.
+            Delete from the word table and delete the place_classtype tables.
+        """
+        LOG.warning('Cleaning database...')
+        self.words_phrases_to_delete = self.words_phrases_to_delete - self.words_phrases_still_exist
+        #Array containing all queries to execute. Contain tuples of format (query, parameters)
+        queries_parameters = []
+
+        #Delete phrases from the word table which are not on the wiki anymore.
+        for phrase_to_delete in self.words_phrases_to_delete:
+            if phrase_to_delete[3] == '-':
+                query = """
+                    DELETE FROM word WHERE word = %s AND class = %s AND type = %s AND operator IS null
+                """
+                parameters = (phrase_to_delete[0], phrase_to_delete[1], phrase_to_delete[2], )
+                queries_parameters.append((query, parameters))
+            else:
+                query = """
+                    DELETE FROM word WHERE word = %s AND class = %s AND type = %s AND operator = %s
+                """
+                parameters = (phrase_to_delete[0], phrase_to_delete[1],
+                              phrase_to_delete[2], phrase_to_delete[3], )
+                queries_parameters.append((query, parameters))
+
+        #Delete place_classtype tables corresponding to class/type which are not on the wiki anymore
+        for table in self.table_phrases_to_delete:
+            query = SQL('DROP TABLE IF EXISTS {}').format(Identifier(table))
+            queries_parameters.append((query, ()))
+
+        with self.db_connection.cursor() as db_cursor:
+            for query, parameters in queries_parameters:
+                db_cursor.execute(query, parameters)
+
+    def _convert_php_settings_if_needed(self, file_path):
+        """
+            Convert php settings file of special phrases to json file if it is still in php format.
+        """
+        if not isfile(file_path):
+            raise UsageError(str(file_path) + ' is not a valid file.')
+
+        file, extension = os.path.splitext(file_path)
+        json_file_path = Path(file + '.json').resolve()
+
+        if extension not in('.php', '.json'):
+            raise UsageError('The custom NOMINATIM_PHRASE_CONFIG file has not a valid extension.')
+
+        if extension == '.php' and not isfile(json_file_path):
+            try:
+                subprocess.run(['/usr/bin/env', 'php', '-Cq',
+                                (self.phplib_dir / 'migration/PhraseSettingsToJson.php').resolve(),
+                                file_path], check=True)
+                LOG.warning('special_phrase configuration file has been converted to json.')
+                return json_file_path
+            except subprocess.CalledProcessError:
+                LOG.error('Error while converting %s to json.', file_path)
+                raise
         else:
-            db_cursor.execute("""SELECT getorcreate_amenity(
-                              make_standard_name(%s), %s, %s)""",
-                              (phrase_label, phrase_class, phrase_type))
-
-
-def _create_place_classtype_table_and_indexes(db_connection, config, pairs):
-    """
-        Create table place_classtype for each given pair.
-        Also create indexes on place_id and centroid.
-    """
-    LOG.warning('Create tables and indexes...')
-
-    sql_tablespace = config.TABLESPACE_AUX_DATA
-    if sql_tablespace:
-        sql_tablespace = ' TABLESPACE '+sql_tablespace
-
-    with db_connection.cursor() as db_cursor:
-        db_cursor.execute("CREATE INDEX idx_placex_classtype ON placex (class, type)")
-
-    for _, pair in pairs.items():
-        phrase_class = pair[0]
-        phrase_type = pair[1]
-
-        #Table creation
-        _create_place_classtype_table(
-            db_connection, sql_tablespace, phrase_class, phrase_type
-        )
-
-        #Indexes creation
-        _create_place_classtype_indexes(
-            db_connection, sql_tablespace, phrase_class, phrase_type
-        )
-
-        #Grant access on read to the web user.
-        _grant_access_to_webuser(
-            db_connection, config, phrase_class, phrase_type
-        )
-
-    with db_connection.cursor() as db_cursor:
-        db_cursor.execute("DROP INDEX idx_placex_classtype")
-
-
-def _create_place_classtype_table(db_connection, sql_tablespace, phrase_class, phrase_type):
-    """
-        Create table place_classtype of the given phrase_class/phrase_type if doesn't exit.
-    """
-    with db_connection.cursor() as db_cursor:
-        db_cursor.execute(SQL(f"""
-                CREATE TABLE IF NOT EXISTS {{}} {sql_tablespace} 
-                AS SELECT place_id AS place_id,st_centroid(geometry) AS centroid FROM placex 
-                WHERE class = {{}} AND type = {{}}""")
-                          .format(Identifier(f'place_classtype_{phrase_class}_{phrase_type}'),
-                                  Literal(phrase_class), Literal(phrase_type)))
-
-
-def _create_place_classtype_indexes(db_connection, sql_tablespace, phrase_class, phrase_type):
-    """
-        Create indexes on centroid and place_id for the place_classtype table.
-    """
-    #Index on centroid
-    if not db_connection.index_exists(f'idx_place_classtype_{phrase_class}_{phrase_type}_centroid'):
-        with db_connection.cursor() as db_cursor:
-            db_cursor.execute(SQL(f"""
-                    CREATE INDEX {{}} ON {{}} USING GIST (centroid) {sql_tablespace}""")
-                              .format(Identifier(
-                                  f"""idx_place_classtype_{phrase_class}_{phrase_type}_centroid"""),
-                                      Identifier(f'place_classtype_{phrase_class}_{phrase_type}')))
-
-    #Index on place_id
-    if not db_connection.index_exists(f'idx_place_classtype_{phrase_class}_{phrase_type}_place_id'):
-        with db_connection.cursor() as db_cursor:
-            db_cursor.execute(SQL(f"""
-            CREATE INDEX {{}} ON {{}} USING btree(place_id) {sql_tablespace}""")
-                              .format(Identifier(
-                                  f"""idx_place_classtype_{phrase_class}_{phrase_type}_place_id"""),
-                                      Identifier(f'place_classtype_{phrase_class}_{phrase_type}')))
-
-
-def _grant_access_to_webuser(db_connection, config, phrase_class, phrase_type):
-    """
-        Grant access on read to the table place_classtype for the webuser.
-    """
-    with db_connection.cursor() as db_cursor:
-        db_cursor.execute(SQL("""GRANT SELECT ON {} TO {}""")
-                          .format(Identifier(f'place_classtype_{phrase_class}_{phrase_type}'),
-                                  Identifier(config.DATABASE_WEBUSER)))
-
-def _convert_php_settings_if_needed(args, file_path):
-    """
-        Convert php settings file of special phrases to json file if it is still in php format.
-    """
-    file, extension = os.path.splitext(file_path)
-    json_file_path = f'{file}.json'
-    if extension == '.php' and not isfile(json_file_path):
-        try:
-            subprocess.run(['/usr/bin/env', 'php', '-Cq',
-                            args.phplib_dir / 'migration/phraseSettingsToJson.php',
-                            file_path], check=True)
-            LOG.warning('special_phrase configuration file has been converted to json.')
             return json_file_path
-        except subprocess.CalledProcessError:
-            LOG.error('Error while converting %s to json.', file_path)
-            raise
-    else:
-        return json_file_path