]> git.openstreetmap.org Git - nominatim.git/blobdiff - test/bdd/steps/queries.py
Merge remote-tracking branch 'upstream/master'
[nominatim.git] / test / bdd / steps / queries.py
index caefb661487692a45c6fb8d2930496eb2ebfb911..7e88e3371e4db6767500fbfafa696781753793d3 100644 (file)
@@ -9,7 +9,6 @@ import os
 import io
 import re
 import logging
-from tidylib import tidy_document
 import xml.etree.ElementTree as ET
 import subprocess
 from urllib.parse import urlencode
@@ -71,7 +70,7 @@ class GenericResponse(object):
                     pass
                 elif h == 'osm':
                     assert_equal(res['osm_type'], row[h][0])
-                    assert_equal(res['osm_id'], row[h][1:])
+                    assert_equal(res['osm_id'], int(row[h][1:]))
                 elif h == 'centroid':
                     x, y = row[h].split(' ')
                     assert_almost_equal(float(y), float(res['lat']))
@@ -110,18 +109,14 @@ class SearchResponse(GenericResponse):
             self.header['json_func'] = m.group(1)
         self.result = json.JSONDecoder(object_pairs_hook=OrderedDict).decode(code)
 
-    def parse_html(self):
-        content, errors = tidy_document(self.page,
-                                        options={'char-encoding' : 'utf8'})
-        #eq_(len(errors), 0 , "Errors found in HTML document:\n%s" % errors)
+    def parse_geojson(self):
+        self.parse_json()
+        self.result = geojson_results_to_json_results(self.result)
 
-        b = content.find('nominatim_results =')
-        e = content.find('</script>')
-        content = content[b:e]
-        b = content.find('[')
-        e = content.rfind(']')
-
-        self.result = json.JSONDecoder(object_pairs_hook=OrderedDict).decode(content[b:e+1])
+    def parse_geocodejson(self):
+        self.parse_geojson()
+        if self.result is not None:
+            self.result = [r['geocoding'] for r in self.result]
 
     def parse_xml(self):
         et = ET.fromstring(self.page)
@@ -163,19 +158,6 @@ class ReverseResponse(GenericResponse):
         if errorcode == 200:
             getattr(self, 'parse_' + fmt)()
 
-    def parse_html(self):
-        content, errors = tidy_document(self.page,
-                                        options={'char-encoding' : 'utf8'})
-        #eq_(len(errors), 0 , "Errors found in HTML document:\n%s" % errors)
-
-        b = content.find('nominatim_results =')
-        e = content.find('</script>')
-        content = content[b:e]
-        b = content.find('[')
-        e = content.rfind(']')
-
-        self.result = json.JSONDecoder(object_pairs_hook=OrderedDict).decode(content[b:e+1])
-
     def parse_json(self):
         m = re.fullmatch(r'([\w$][^(]*)\((.*)\)', self.page)
         if m is None:
@@ -185,6 +167,17 @@ class ReverseResponse(GenericResponse):
             self.header['json_func'] = m.group(1)
         self.result = [json.JSONDecoder(object_pairs_hook=OrderedDict).decode(code)]
 
+    def parse_geojson(self):
+        self.parse_json()
+        if 'error' in self.result:
+            return
+        self.result = geojson_results_to_json_results(self.result[0])
+
+    def parse_geocodejson(self):
+        self.parse_geojson()
+        if self.result is not None:
+            self.result = [r['geocoding'] for r in self.result]
+
     def parse_xml(self):
         et = ET.fromstring(self.page)
 
@@ -227,11 +220,6 @@ class DetailsResponse(GenericResponse):
         if errorcode == 200:
             getattr(self, 'parse_' + fmt)()
 
-    def parse_html(self):
-        content, errors = tidy_document(self.page,
-                                        options={'char-encoding' : 'utf8'})
-        self.result = {}
-
     def parse_json(self):
         self.result = [json.JSONDecoder(object_pairs_hook=OrderedDict).decode(self.page)]
 
@@ -250,13 +238,35 @@ class StatusResponse(GenericResponse):
         self.result = [json.JSONDecoder(object_pairs_hook=OrderedDict).decode(self.page)]
 
 
+def geojson_result_to_json_result(geojson_result):
+    result = geojson_result['properties']
+    result['geojson'] = geojson_result['geometry']
+    if 'bbox' in geojson_result:
+        # bbox is  minlon, minlat, maxlon, maxlat
+        # boundingbox is minlat, maxlat, minlon, maxlon
+        result['boundingbox'] = [
+                                    geojson_result['bbox'][1],
+                                    geojson_result['bbox'][3],
+                                    geojson_result['bbox'][0],
+                                    geojson_result['bbox'][2]
+                                ]
+    return result
+
+
+def geojson_results_to_json_results(geojson_results):
+    if 'error' in geojson_results:
+        return
+    return list(map(geojson_result_to_json_result, geojson_results['features']))
+
+
 @when(u'searching for "(?P<query>.*)"(?P<dups> with dups)?')
 def query_cmd(context, query, dups):
     """ Query directly via PHP script.
     """
     cmd = ['/usr/bin/env', 'php']
     cmd.append(os.path.join(context.nominatim.build_dir, 'utils', 'query.php'))
-    cmd.extend(['--search', query])
+    if query:
+        cmd.extend(['--search', query])
     # add more parameters in table form
     if context.table:
         for h in context.table.headings:
@@ -272,6 +282,7 @@ def query_cmd(context, query, dups):
     (outp, err) = proc.communicate()
 
     assert_equals (0, proc.returncode, "query.php failed with message: %s\noutput: %s" % (err, outp))
+    logger.debug("run_nominatim_script: %s\n%s\n" % (cmd, outp.decode('utf-8').replace('\\n', '\n')))
 
     context.response = SearchResponse(outp.decode('utf-8'), 'json')
 
@@ -362,9 +373,7 @@ def website_search_request(context, fmt, query, addr):
 
     outp, status = send_api_query('search', params, fmt, context)
 
-    if fmt is None:
-        outfmt = 'html'
-    elif fmt == 'jsonv2 ':
+    if fmt is None or fmt == 'jsonv2 ':
         outfmt = 'json'
     else:
         outfmt = fmt.strip()
@@ -401,7 +410,7 @@ def website_details_request(context, fmt, query):
     outp, status = send_api_query('details', params, fmt, context)
 
     if fmt is None:
-        outfmt = 'html'
+        outfmt = 'json'
     else:
         outfmt = fmt.strip()
 
@@ -414,6 +423,12 @@ def website_lookup_request(context, fmt, query):
 
     if fmt == 'json ':
         outfmt = 'json'
+    elif fmt == 'jsonv2 ':
+        outfmt = 'json'
+    elif fmt == 'geojson ':
+        outfmt = 'geojson'
+    elif fmt == 'geocodejson ':
+        outfmt = 'geocodejson'
     else:
         outfmt = 'xml'
 
@@ -451,6 +466,16 @@ def step_impl(context, fmt):
     context.execute_steps("Then a HTTP 200 is returned")
     eq_(context.response.format, fmt)
 
+@then(u'a (?P<fmt>\w+) user error is returned')
+def check_page_error(context, fmt):
+    context.execute_steps("Then a HTTP 400 is returned")
+    eq_(context.response.format, fmt)
+
+    if fmt == 'xml':
+        assert_is_not_none(re.search(r'<error>.+</error>', context.response.page, re.DOTALL))
+    else:
+        assert_is_not_none(re.search(r'({"error":)', context.response.page, re.DOTALL))
+
 @then(u'result header contains')
 def check_header_attr(context):
     for line in context.table:
@@ -519,8 +544,8 @@ def check_address(context, lid, neg, attrs):
         else:
             assert_in(attr, addr_parts)
 
-@then(u'address of result (?P<lid>\d+) is')
-def check_address(context, lid):
+@then(u'address of result (?P<lid>\d+) (?P<complete>is|contains)')
+def check_address(context, lid, complete):
     context.execute_steps("then more than %s results are returned" % lid)
 
     addr_parts = dict(context.response.result[int(lid)]['address'])
@@ -531,7 +556,8 @@ def check_address(context, lid):
                      "Bad address value for %s" % line['type'])
         del addr_parts[line['type']]
 
-    eq_(0, len(addr_parts), "Additional address parts found: %s" % str(addr_parts))
+    if complete == 'is':
+        eq_(0, len(addr_parts), "Additional address parts found: %s" % str(addr_parts))
 
 @then(u'result (?P<lid>\d+ )?has bounding box in (?P<coords>[\d,.-]+)')
 def step_impl(context, lid, coords):
@@ -554,6 +580,27 @@ def step_impl(context, lid, coords):
         assert_greater_equal(bbox[2], coord[2])
         assert_less_equal(bbox[3], coord[3])
 
+@then(u'result (?P<lid>\d+ )?has centroid in (?P<coords>[\d,.-]+)')
+def step_impl(context, lid, coords):
+    if lid is None:
+        context.execute_steps("then at least 1 result is returned")
+        bboxes = zip(context.response.property_list('lat'),
+                     context.response.property_list('lon'))
+    else:
+        context.execute_steps("then more than %sresults are returned" % lid)
+        res = context.response.result[int(lid)]
+        bboxes = [ (res['lat'], res['lon']) ]
+
+    coord = [ float(x) for x in coords.split(',') ]
+
+    for lat, lon in bboxes:
+        lat = float(lat)
+        lon = float(lon)
+        assert_greater_equal(lat, coord[0])
+        assert_less_equal(lat, coord[1])
+        assert_greater_equal(lon, coord[2])
+        assert_less_equal(lon, coord[3])
+
 @then(u'there are(?P<neg> no)? duplicates')
 def check_for_duplicates(context, neg):
     context.execute_steps("then at least 1 result is returned")