RU2621480C1 - Устройство оценки положения движущегося тела и способ оценки положения движущегося тела - Google Patents

Устройство оценки положения движущегося тела и способ оценки положения движущегося тела Download PDF

Info

Publication number
RU2621480C1
RU2621480C1 RU2016123022A RU2016123022A RU2621480C1 RU 2621480 C1 RU2621480 C1 RU 2621480C1 RU 2016123022 A RU2016123022 A RU 2016123022A RU 2016123022 A RU2016123022 A RU 2016123022A RU 2621480 C1 RU2621480 C1 RU 2621480C1
Authority
RU
Russia
Prior art keywords
edge
image
moving body
distance
particle
Prior art date
Application number
RU2016123022A
Other languages
English (en)
Inventor
Синья ТАНАКА
Original Assignee
Ниссан Мотор Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ниссан Мотор Ко., Лтд. filed Critical Ниссан Мотор Ко., Лтд.
Application granted granted Critical
Publication of RU2621480C1 publication Critical patent/RU2621480C1/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Устройство оценки положения движущегося тела – транспортного средства - основано на том, что сопоставляют данные карты, хранящейся в блоке хранения, и изображений, полученных камерой, с использованием фильтра частиц. При этом блок вычисления значения оценки сравнивает изображение края объекта и виртуальное изображение для каждой частицы, присваивает более высокое значение оценки, если имеется большее количество перекрывающихся краев между изображениями, а также присваивает более высокое значение оценки, если имеется большее количество краев, которые не являются перекрывающимися краями и для которых расстояние от края до края, которое представляет собой расстояние между краем в изображении края и краем в виртуальном изображении, меньше или равно заданному значению. Технический результат заключается в повышении стабильности оценки положения движущегося тела. 4 н. и 2 з.п. ф-лы, 9 ил.

Description

Область техники, к которой относится изобретение
[0001] Настоящее изобретение относится к устройству оценки положения движущегося тела и способу оценки положения движущегося тела.
Уровень техники
[0002] В патентном документе 1 сопоставление краев между изображением края, генерируемым из изображения, захватываемого камерой, и виртуальным изображением, генерируемым из известной трехмерной карты с использованием фильтра частиц, выполняется для каждой частицы, и положение движущегося тела стохастически оценивается из вероятностного распределения, причем вероятность увеличивается, когда количество перекрывающихся краев увеличивается, и вероятность уменьшается, когда количество перекрывающихся краев уменьшается.
Документы известного уровня техники
Патентные документы
[0003] Патентный документ 1: Выложенная японская патентная заявка № 2010-60451.
Сущность изобретения
Проблемы, решаемые изобретением
[0004] Однако в известном уровне техники, описанном выше, так как вероятность вычисляется на основе степени перекрытия краев, даже если параметр частицы близок к истинному положению движущегося тела, если параметр положения частицы даже незначительно смещен от истинного положения, существует проблема, что вероятность частицы сильно снижается, в результате чего оценка становиться нестабильной.
Задачей настоящего изобретения является обеспечение устройства оценки положения движущегося тела и способа оценки положения движущегося тела, который может стабильно оценивать положение движущегося тела.
Средство для решения проблемы
[0005] В настоящем изобретении изображение края и виртуальное изображение для каждой частицы сравниваются, более высокое значение оценки присваивается, если имеется большее количество перекрывающихся краев между изображениями, и более высокое значение оценки присваивается, если имеется большее количество краев, которые не являются перекрывающимися краями, и для которых расстояние от края до края, которое представляет собой расстояние между краем в изображении края и краем в виртуальном изображении, меньше или равно заданному значению.
Эффект изобретения
[0006] В связи с этим положение движущегося тела может стабильно оцениваться.
Краткое описание чертежей
[0007] Фигура 1 представляет собой блок-схему устройства оценки положения движущегося тела в соответствии с первым вариантом выполнения.
Фигура 2 представляет собой блок-схему управления оценкой собственного положения в компьютере 3 первого варианта выполнения.
Фигура 3 представляет собой пояснительная вид, иллюстрирующий способ рассеивания частиц с помощью устройства оценки положения движущегося тела первого варианта выполнения.
Фигура 4 представляет собой пояснительная вид, иллюстрирующий способ вычисления корректирующего значения оценки, соответствующего количеству пикселей первого варианта выполнения.
Фигура 5 представляет собой пояснительная вид, иллюстрирующий способ вычисления корректирующего значения оценки, соответствующего фактическому расстоянию первого варианта выполнения.
Фигура 6 представляет собой блок-схему, иллюстрирующую последовательность этапов компьютера 3 первого варианта выполнения.
Фигура 7 представляет собой блок-схему, иллюстрирующую последовательность этапов оценки собственного положения первого варианта выполнения.
Фигура 8 представляет собой схему, иллюстрирующую эффект оценки собственного положения первого варианта выполнения.
Фигура 9 представляет собой пояснительная вид, иллюстрирующий способ вычисления корректирующего значения оценки, соответствующего плотности края второго вариант выполнения.
[0008] 1 Транспортное средство
2 Камера (средство захвата изображения)
3 Компьютер
4 Блок хранения (средство хранения)
11 Блок выделения признаков (средство генерации изображения края)
12 Блок обработки инициализации
13 Блок генерации потенциального положения и ориентации
14 Блок генерации виртуального изображения (средство генерации виртуального изображения)
15 Блок вычисления значения оценки (средство вычисления значения оценки)
15а Блок вычисления корректирующего значения оценки
16 Блок оценки положения и ориентации (средство оценки положения и ориентации)
17 Блок определения инициализации
Варианты выполнения изобретения
[0009] [Первый вариант выполнения]
Фигура 1 представляет собой блок-схему устройства оценки положения движущегося тела первого варианта выполнения.
Транспортное средство 1 содержит камеру 2 (средство захвата изображения), компьютер 3 и блок 4 хранения (средство хранения).
Камера 2 закреплена на переднем концевом участке транспортного средства 1 на высоте h под углом θ градусов вниз от горизонтали и захватывает изображения области на передней стороне транспортного средства 1.
Компьютер 3 выполняет этап сопоставления между данными карты, хранящимися в блоке 4 хранения, и изображениями, захватываемыми камерой 2, и оценивает положение и ориентацию транспортного средства 1.
Блок 4 хранения хранит данные трехмерной карты, содержащие информацию о крае и информацию о положении конструкций, существующих в окружающей среде транспортного средства 1.
[0010] Фигура 2 представляет собой блок-схему управления оценкой собственного положения в компьютере 3 первого варианта выполнения.
Объектив камеры 2 представляет собой обычный объектив без дисторсии, но, например, может быть объективом типа рыбий глаз для захвата широкого диапазона. В последнем случае, собственное положение транспортного средства может быть оценено с помощью той же структуры путем установки модели камеры, используемой в блоке 14 генерации виртуального изображения, описанном ниже для камеры типа рыбий глаз. Дополнительно, если установлен объектив типа рыбий глаз, для того чтобы захватывать более широкий диапазон вокруг транспортного средства, несколько камер может быть установлено на автомобиле.
[0011] Блок 11 выделения признаков (средство генерации изображения края) выделяет края из изображения, захватываемого камерой 2, и генерирует изображение края. Известный способ обнаружения края, такой как способ Кэнни, может быть использован для выделения края. Разумеется, в зависимости от проблемы, достаточной является способность обнаруживать край с помощью способа, такого как фильтр Собеля, и, вкратце, достаточной является способность наблюдать край в изображении, которое является достаточно точным, для сопоставления параметра некоторого заданного положения и ориентации из данных карты и виртуального изображения, генерируемого из модели камеры 2.
[0012] Блок 12 обработки инициализации выполняет этап инициализации фильтра частиц, используемого для оценки положения и ориентации транспортного средства. В первом варианте выполнения выполняется инициализация параметров (положения и ориентации) частиц в пределах ожидаемого диапазона положения и ориентации транспортного средства. Здесь, так как проблема заключается в оценке положения и ориентации транспортного средства в пределах ограниченного участка, общее количество степеней свободы должно быть шесть, которые являются тремя степенями свободы (x, y, z), представляющими положение транспортного средства, и тремя степенями свободы (рыскание, тангаж, крен), представляющими ориентацию транспортного средства (см. Фигуру 3). В случае первого варианта выполнения, в котором собственное положение оценивается с использованием данных карты, приблизительный диапазон положений может быть установлен с использованием GPS, для того чтобы устанавливать диапазон для инициализации. Дополнительно, в это время должно быть установлено количество частиц, которое может быть установлено на соответствующее количество в соответствии с проблемой. Так как фильтр частиц представляет собой известный способ, детали опущены.
[0013] Блок 13 генерации потенциального положения и ориентации устанавливает параметр частиц текущего момента из параметра положения и ориентации частиц одного предшествующего момента, используя модель системы транспортного средства, установленную заранее (сразу после выхода из блока обработки инициализации параметр текущего момента устанавливается из инициализированного значения). Вышеуказанная структура находится в категории фильтров частиц, поэтому детали опущены, но в первом варианте выполнения модель системы должна быть случайным блужданием (Перемещение транспортного средства предполагается случайным образом в пределах заданного диапазона.). Разумеется, в соответствии с проблемой модель системы может быть моделью линейного движения с постоянной скоростью или т.п. Например, как проиллюстрировано на Фигуре 3, частица P и окружающие частицы P1-P5 положения и угла ориентации транспортного средства V(t1), оцененные в одном предшествующем цикле, перемещаются на величину показаний одометра, и существующий диапазон распределения частиц устанавливается и исправляется. Далее частицы P10-P15 устанавливаются для оценки нового положения и угла ориентации транспортного средства V(t2).
[0014] Блок 14 генерации виртуального изображения (средство генерации виртуального изображения) ссылается на блок 4 хранения и генерирует виртуальное изображение с использованием параметров положения и ориентации, установленных для некоторых частиц в ранее описанном блоке 13 генерации потенциального положения и ориентации, и модели камеры собственно камеры 2. В общем, если параметры положения и ориентации транспортного средства заданы, модель камеры собственно камеры 2 известна (достаточно измерения заранее; альтернативно, достаточно расчетного значения), и трехмерные данные блока 4 хранения известны, данные трехмерной карты могут быть преобразованы в двухмерное изображение (называемое виртуальным изображением).
[0015] В первом варианте выполнения выполняется сопоставление между краем виртуального изображения, генерируемого блоком 14 генерации виртуального изображения в блоке 15 вычисления значения оценки, который будет описан ниже, и краем в выделяемом изображении, выделяемом блоком 11 выделения признаков из изображения, захватываемого камерой 2. В связи с этим в блоке 14 генерации виртуального изображения проецирование только информации о крае из трехмерной карты, соответствующей компоненту, который выделяется в качестве края из захваченного изображения блоком 11 выделения признаков, является достаточным. Конкретно, проецирование только краевого участка зданий на карте белых полос на поверхности дороги и т.п. является достаточным, и проецирование информации, такой как текстура или цвет зданий и поверхности дороги, не требуется.
Как было описано выше, количество частиц может быть установлено в соответствии с проблемой в ранее описанном блоке 13 генерации потенциального положения и ориентации, но если 100 частиц должны быть сгенерированы, этапы будут повторяться 100 раз.
[0016] Блок 15 вычисления значения оценки (средство вычисления значения оценки) выполняет сопоставление между изображением края, выведенным из блока 11 выделения признаков, и компонентом края виртуального изображения, выведенного из блока 14 генерации виртуального изображения, для оценки степени перекрытия между ними, причем более высокое значение оценки (вероятность) е вычисляется, когда степень перекрытия увеличивается. В традиционном способе вычисления значения оценки если два изображения просканированы, и оба пикселя, представляющие интерес, (xi, yi) имеют край, значение оценки добавляется (Eval(xi, yi)=1), а если нет, значение не добавляется (Eval(xi, yi)=0), таким образом, при такой установке это значение оценки увеличивается, когда перекрытие увеличивается, в то время как в первом варианте выполнения цель заключается в повышении точности и стабилизации способа оценки положения и ориентации, который использует фильтр частиц, и когда значение оценки вычислено, даже если края не перекрываются, если расстояние между ближайшими краями (расстояние от края до края) является близким (меньше или равно заданному расстоянию), корректирующее значение оценки, соответствующее близости двух краев, добавляется. Вычисление корректирующего значения оценки выполняется блоком 15а вычисления корректирующего значения оценки в блоке 15 вычисления значения оценки.
[0017] Корректирующее значение оценки может быть установлено в соответствии с количеством пикселей (количеством пикселей) между краем в виртуальном изображении и краем в изображении края. Например, относительно края в виртуальном изображении корректирующее значение оценки ep(xi, yi), соответствующее количеству пикселей пикселя (xi, yi) в изображении края, который смещен на один или два пикселя, устанавливается на 0,5, корректирующее значение оценки ep(xi, yi), соответствующее количеству пикселей пикселя (xi, yi), который смещен на три или четыре пикселя, устанавливается на 0,25, и корректирующее значение оценки ep(xi, yi), соответствующее количеству пикселей пикселя (xi, yi), который смещен на пять или более пикселей, устанавливается на 0,0. А именно, в виртуальном изображении, таком как на Фигуре 4(а), обеспечивая область окрестности края из четырех пикселей по обеим сторонам края, как проиллюстрировано на Фигуре 4(b), ширина края в виртуальном изображении практически утолщается, и когда край в изображении края перекрывает область окрестности края, задается корректирующее значение оценки ep(xi, yi), соответствующее расстоянию от края до края.
[0018] В качестве другого примера, корректирующее значение оценки может быть вычислено с использованием трехмерного расстояния в реальном пространстве, а не просто количества пикселей. Когда заданное расстояние определяется на основе количества пикселей, как описано выше, расстояние в реальном пространстве, соответствующее одному пикселю, изменяется в соответствии с расстоянием глубины от транспортного средства, а именно, так как вертикальное и горизонтальное разрешения на пиксель отличаются между трехмерным объектом, размещенным спереди, и трехмерным объектом, размещенным сзади. Например, в виртуальном изображении, проиллюстрированном на Фигуре 5(а), трехмерный объект, обведенный пунктирной линией, имеет одинаковый размер на передней поверхности и на задней поверхности в реальном пространстве, но его размер, проецируемый на виртуальном изображении, изменяется в соответствии с глубиной. В связи с этим при отображении реального пространства таким же образом, как способ в блоке 14 генерации виртуального изображения, с использованием данных карты, чья трехмерная информация известна, как проиллюстрировано на Фигуре 5(b), обеспечивается область окрестности края, принимая во внимание реальное расстояние, и получается корректирующее значение оценки ed(xi, yi), соответствующее реальному расстоянию.
Корректирующее значение оценки ed(xi, yi), соответствующее реальному расстоянию, получается из следующей формулы.
Figure 00000001
Здесь alpha представляет собой параметр регулировки, и d(xi, yi) представляет собой кратчайшее расстояние от края, когда координата (xi, yi) проецируется трехмерным образом. Когда вышеуказанное расстояние равно или больше заданного значения (край далеко), ed(xi, yi) может быть установлено на ноль.
В блоке 15а вычисления корректирующего значения оценки вышеуказанные этапы повторяются столько раз, сколько частиц установлено в блоке 13 генерации потенциального положения и ориентации.
[0019] Блок 15 вычисления значения оценки вычисляет значение оценки для каждого пикселя на основе следующей формулы.
(i) Когда устанавливается корректирующее значение оценки ep(xi, yi), соответствующее количеству пикселей,
Figure 00000002
Eval(xi, yi)=1 (края перекрываются),
Eval(xi, yi)=0 (края не перекрываются (в противном случае))
(ii) Когда устанавливается корректирующее значение оценки ed(xi, yi), соответствующее реальному расстоянию,
Figure 00000003
Eval(xi, yi)=1 (края перекрываются),
Eval(xi, yi)=0 (края не перекрываются (в противном случае))
[0020] Соответственно, когда задается корректирующее значение оценки ep(xi, yi), соответствующее количеству пикселей, для участков, где количество пикселей между краем в виртуальном изображении и краем в изображении края достигает двух пикселей, одна половина исходных точек добавляется, и для участков, достигающих четырех пикселей, одна четверть исходных точек добавляется. С другой стороны, когда задается корректирующее значение оценки ed(xi, yi), соответствующее реальному расстоянию, если обратная величина расстояния добавляется во время добавления, будет добавлено более высокое значение, так как расстояние между краем в виртуальном изображении и краем в изображении края уменьшается.
Также в блоке 15 вычисления значения оценки таким же образом этапы должны повторяться столько раз, сколько частиц установлено в блоке 13 генерации потенциального положения и ориентации.
В приведенном выше примере корректирующее значение оценки вычисляется в соответствии с количеством пикселей или реальным расстоянием между краем в виртуальном изображении и краем в изображении края с краем в виртуальном изображении в качестве опорной точки, но такие же результаты будут получены, даже если корректирующее значение оценки вычисляется в соответствии с количеством пикселей или реального расстояния между краем в изображении края и краем в виртуальном изображении с краем в изображении края в качестве опорной точки.
[0021] Блок 16 оценки положения и ориентации (средство оценки положения) оценивает положение и ориентацию транспортного средства на основе значения оценки для каждой частицы, установленной в блоке 15 вычисления значения оценки. Сам этап представляет собой структуру фильтра частиц, но большая взвешенная величина устанавливается, когда увеличивается значение оценки. Например, потенциальное прогнозируемое положение и угол ориентации с наибольшей вероятностью вычисляются как фактическое положение и ориентация транспортного средства. Дополнительно, вероятность каждого потенциального прогнозируемого положения и угла ориентации используется для получения взвешенного среднего прогнозируемых положений и углов ориентации, и полученное значение может быть установлено в качестве конечного положения и угла ориентации транспортного средства.
В блоке 16 оценки положения и ориентации положение и ориентация оцениваются в структуре фильтра частиц, и вычисляется значение оценки при оцененных параметрах (положении и ориентации) (В качестве этапа, блок 13 генерации потенциального положения и ориентации и блок 15 вычисления значения оценки 15 выполняются. На уже описанных этапах вышеуказанная последовательность должна быть выполнена количество раз, соответствующее количеству частиц, но здесь будет выполнена только последовательность для одного параметра результата оценки). Вышеуказанное значение оценки выводится на блок 17 определения инициализации на последующем этапе, и используется для этапа инициализации, когда оценка является неправильной.
[0022] Блок 17 определения инициализации определяет, являются или нет оцененное положение и ориентация ошибочными обнаружениями. Если выполняется определение ошибочного обнаружения, порядок инициализации отправляется на блок 12 обработки инициализации, и этапы выполняются снова. В качестве способа определения, когда значение оценки на основе результата оценки, выведенного из блока 16 оценки положения и ориентации, ниже порогового значения, установленного заранее, выполняется определение ошибочного обнаружения.
[0023] [Все этапы]
Фигура 6 представляет собой блок-схему, иллюстрирующую последовательность всех этапов компьютера 3 первого варианта выполнения.
На этапе S1 этап инициализации фильтра частиц выполняется в блоке 12 обработки инициализации. Вышеуказанный этап достаточно выполнять однажды во время активации системы. Однако на этапе S5, если определяется необходимость реинициализации в блоке 17 определения инициализации, частицы инициализируются снова.
На этапе S2 изображение впереди транспортного средства захватывается камерой 2.
На этапе S3 края выделяются из изображения, получаемого с помощью камеры 2, в блоке 11 выделения признаков.
[0024] На этапе S4 выполняется этап оценки собственного положения. Детали будут описаны ниже.
На этапе S5 определяется, является или нет оцененное положение и ориентация ошибочным обнаружением, так, что инициализация требуется снова в блоке 17 определения инициализации. Если ДА, этапы переходят к этапу S1, а если НЕТ, этапы переходят к этапу S6.
На этапе S6 определяется, было или нет введено вручную пользователем выключение системы; если ДА, этапы заканчиваются, а если НЕТ, этапы переходят к этапу S2.
[0025] [Этапы оценки собственного положения]
Фигура 7 представляет собой блок-схему, иллюстрирующую последовательность этапов оценки собственного положения первого варианта выполнения.
На этапе S41 в блоке 13 генерации потенциального положения и ориентации параметр частиц текущего момента (шесть степеней свободы положения и ориентации) устанавливается из параметра положения и ориентации частиц одного предшествующего момента с использованием модели системы транспортного средства, установленной заранее.
На этапе S42 в блоке 14 генерации виртуального изображения виртуальное изображение генерируется на основе параметров положения и ориентации, установленных для частицы.
На этапе S43 в блоке 15а вычисления корректирующего значения оценки блока 15 вычисления значения оценки 15 вычисляется корректирующее значение оценки (ep или ed), соответствующее величине смещения (количеству пикселей или реальному расстоянию) между краем в изображении края и краем в виртуальном изображении.
[0026] На этапе S44 в блоке 15 вычисления значения оценки оценивается степень перекрытия между изображением края и виртуальным изображением. В это время вычисляется значение оценки, принимая во внимание корректирующее значение оценки (ep или ed).
На этапе S45 в блоке 15 вычисления значения оценки определяется, завершено или нет вычисление значения оценки для всех частиц, сгенерированных в блоке 12 обработки инициализации; если ДА, этапы переходят к этапу S46, а если НЕТ, процесс переходит к этапу S41.
На этапе S46 в блоке 16 оценки положения и ориентации вычисляется взвешенная величина для значения оценки каждой частицы, и оценивается положение и ориентация в текущий момент.
[0027] Далее будут описаны эффекты изобретения.
В традиционном устройстве оценки положения движущегося тела, даже если параметр частицы близок к истинному положению основного транспортного средства, если параметр положения даже незначительно смещен от истинного положения и ориентации, существует проблема, что вероятность частицы сильно снижается, в результате чего оценка положения и ориентации основного транспортного средства становится нестабильной, как проиллюстрировано на Фигуре 8(а).
[0028] Для сравнения, в первом варианте выполнения вероятность (значение оценки) увеличивается, когда увеличивается количество пикселей, для которых расстояние от края до края, которое представляет собой расстояние между краем в изображении края и краем в виртуальном изображении, меньше или равно заданному значению. Соответственно, как проиллюстрировано на Фигуре 8(b), крайнее уменьшение вероятности может быть подавлено для частицы с небольшой величиной смещения параметров положения и ориентации относительно истинного положения и ориентации основного транспортного средства. Другими словами, даже если возникает небольшое смещение между параметрами положения и ориентации частиц и истинным положением и ориентацией основного транспортного средства, вероятность задана, и в связи с этим положение и ориентация, близкие к истинному положению и ориентации основного транспортного средства, могут быть оценены. В связи с этим положение и ориентация основного транспортного средства могут быть надежно оценены.
[0029] В первом варианте выполнения, когда расстояние от края до края меньше или равно заданному расстоянию, вероятность увеличивается, по мере того как расстояние от края до края уменьшается. Соответственно, так как вероятность частиц с меньшей величиной смещения параметров положения и ориентации относительно истинного положения и ориентацию основного транспортного средства увеличивается, область, близкая к истинному положению и ориентации в распределении вероятности пространства параметров, может быть уплотнена. В связи с этим более подходящая вероятность может быть получена, и точность и стабильность оценки положения и ориентации могут быть улучшены.
[0030] В первом варианте выполнения заданное расстояние представляет собой заданное количество пикселей. Соответственно, диапазон для увеличения значения оценки может быть установлен на количество пикселей, которое разработчик устанавливает заранее. В связи с этим диапазон количества пикселей от края, в котором вероятность частицы оценивается выше, может быть установлен в соответствии с проблемой.
[0031] В первом варианте выполнения заданное расстояние представляет собой трехмерное расстояние в реальном пространстве. Соответственно, диапазон для увеличения значения оценки он может быть установлен на расстояние в реальном пространстве, которое разработчик устанавливает заранее. В связи с этим диапазон расстояния в реальном пространстве от края, в котором вероятность частицы оценивается выше, может быть установлен в соответствии с проблемой.
[0032] Первый вариант выполнения оказывает эффекты, перечисленные ниже.
(1) Устройство содержит: камеру 2, которая захватывает изображение впереди основного транспортного средства для получения захваченного изображения, блок 11 выделения признаков, который выделяет край из захваченного изображения для генерации изображения края, блок 4 хранения для хранения данных карты, содержащих информацию о крае и информацию о положении конструкций, существующих в окружающей среде основного транспортного средства, блок 14 генерации виртуального изображения, который устанавливает множество частиц, которые являются предполагаемыми положениями и ориентациями основного транспортного средства, и преобразует информацию о крае из данных карты для каждой частицы в виртуальное изображение, захватываемое из предполагаемого положения и ориентации, блок 15 вычисления значения оценки, который сравнивает изображение края и виртуальное изображение для каждой частицы, и присваивает более высокое значение оценки, если имеется большее количество перекрывающихся краев между изображениями и присваивает более высокое значение оценки, если имеется большее количество краев, которые не являются перекрывающимися краями и для которых расстояние от края до края, которое представляет собой расстояние между краем в изображении края и краем в виртуальном изображении, меньше или равно заданному значению, и блок 16 оценки положения и ориентации, который оценивает положение основного транспортного средства на основе значения оценки для каждой частицы.
В связи с этим положение и ориентация основного транспортного средства могут быть надежно оценены.
[0033] (2) Блок 15 вычисления значения оценки, когда расстояние от края до края меньше или равно заданному расстоянию, увеличивает значение оценки, по мере того как расстояние от края до края уменьшается.
В связи с этим более подходящая вероятность может быть получена, и точность и стабильность оценки положения и ориентации основного транспортного средства может быть улучшена.
[0034] (3) Заданное расстояние представляет собой заданное количество пикселей. В связи с этим диапазон количества пикселей от края, в котором вероятность частицы оценивается выше, может быть установлен в соответствии с проблемой.
[0035] (4) Заданное расстояние представляет собой трехмерное расстояние в реальном пространстве.
В связи с этим диапазон расстояния в реальном пространстве от края, в котором вероятность частицы оценивается выше, может быть установлен в соответствии с проблемой.
[0036] (5) Устройство захватывает изображение впереди основного транспортного средства для получения захваченного изображения, выделяет край из захваченного изображения для генерации изображения края, устанавливает множество частиц, которые являются предполагаемыми положениями и ориентациями основного транспортного средства, преобразует информацию о крае из данных карты, содержащих информацию о крае и информацию о положении конструкций, существующих в окружающей среде основного транспортного средства, для каждой частицы в виртуальное изображение, захватываемое из предполагаемого положения и ориентации, сравнивает изображение края и виртуальное изображение для каждой частицы, присваивает более высокое значение оценки, если имеется большее количество перекрывающихся краев между изображениями, и присваивает более высокое значение оценки, если имеется большее количество краев, которые не являются перекрывающимися краями и для которых расстояние от края до края, которое представляет собой расстояние между краем в изображении края и краем в виртуальном изображении, меньше или равно заданному значению, и оценивает положение основного транспортного средства на основе значения оценки для каждой частицы.
В связи с этим положение и ориентация основного транспортного средства могут быть надежно оценены.
[0037] [Второй вариант выполнения]
Далее устройство оценки положения движущегося тела согласно второму варианту выполнения будет описано со ссылкой на чертежи.
Фигура 9 представляет собой пояснительная вид, иллюстрирующий способ вычисления корректирующего значения оценки, соответствующего плотности края.
При этом другие конфигурации являются такими же, как в первом варианте выполнения, таким образом, заданы те же коды, и их описания опущены.
[0038] Фигура 9(а) представляет собой изображение края, сгенерированное путем выделения края из изображения, захваченного камерой 2, в блоке 11 выделения признаков (средстве генерации изображения края). В изображении края, показанном на Фигуре 9(а), так как обочина 9b существует в окрестности параллельно полосе 9а, из-за положения и ориентации частицы край полосы в виртуальном изображении и край обочины 9b в изображении края приходят в близкое состояние (состояние, в котором плотность края является высокой), и значение оценки частично увеличивается.
Таким образом, во втором варианте выполнения, когда расстояние между ближайшими краями (расстояние от края до края) является близким (меньше или равно заданному расстоянию), в области, где плотность края изображения края является высокой, заданное расстояние для определения уменьшается.
[0039] Например, в области, где плотность края изображения края является низкой, как в первом варианте выполнения, относительно краев в виртуальном изображении корректирующее значение оценки ep(xi, yi), соответствующее количеству пикселей пикселя (xi, yi) в изображении края, который смещен на один или два пикселя, устанавливается на 0,5, корректирующее значение оценки ep(xi, yi), соответствующее количеству пикселей пикселя (xi, yi), который смещен на три или четыре пикселя, устанавливается на 0,25, и корректирующее значение оценки ep(xi, yi), соответствующее количеству пикселей пикселя (xi, yi), который смещен на пять или более пикселей, устанавливается на 0,0.
С другой стороны, в области, где плотность края изображения края является высокой, относительно края в виртуальном изображении корректирующее значение оценки ep(xi, yi), соответствующее количеству пикселей пикселя (xi, yi) в изображении края, который смещен на один пиксель, устанавливается на 0,5, корректирующее значение оценки ep(xi, yi), соответствующее количеству пикселей пикселя (xi, yi), который смещен на два пикселя, устанавливается на 0,25, и корректирующее значение оценки ep(xi, yi), соответствующее количеству пикселей пикселя (xi, yi), который смещен на 3 или более пикселей, устанавливается на 0,0.
А именно, в изображении края, таком как на Фигуре 9(а), путем обеспечения области окрестности края из двух пикселей на обеих сторонах края полосы 9а, которая представляет собой область, где плотность края изображения края является высокой, как проиллюстрировано на Фигуре 9(b), область окрестности края может быть сужена по сравнению с другими областями, и увеличение корректирующего значения оценки из-за края обочина 9b может быть подавлено.
[0040] Второй вариант выполнения оказывает следующие эффекты в дополнение к эффектам 1-5 первого варианта выполнения.
(6) Блок вычисления значения оценки уменьшает заданное расстояние, когда плотность края изображения края увеличивается.
В связи с этим ошибочное увеличение корректирующего значения оценки в областях, где плотность края является высокой, может быть подавлена, и точность и стабильность оценки положения и ориентации основного транспортного средства может быть улучшена.
[0041] (Другие варианты выполнения)
Предпочтительный вариант выполнения настоящего изобретения был описан выше на основе одного варианта выполнения, но определенные конфигурации настоящего изобретения не ограничены этим вариантом выполнения, и изменения конструкции, выполняемые без отклонения от объема охраны изобретения, также включены в настоящее изобретение.
Например, в варианте выполнения функция оценки устанавливается (задача максимизации) так, что значение оценки увеличивается, когда количество перекрывающихся краев между изображением края и краем в виртуальном изображении увеличивается, но функция оценки может быть установлена так, что ошибка уменьшается, когда количество перекрывающихся краев увеличивается (задача минимизации).
[0042] Настоящее изобретение является применимым к оценке относительного положения (бокового положения) транспортного средства относительно левой и правой белых линий пути движения. В этом случае параметрами положения и ориентации являются одна степень свободы бокового положения в качестве параметра положения, и две степени свободы тангажа и рыскания в качестве параметра ориентации; всего три степени свободы. При этом, так как ширина белых линий изменяется от места к месту, ширина белых линий может быть добавлена в качестве параметра оценки.

Claims (33)

1. Устройство оценки положения движущегося тела, содержащее:
средство захвата изображения, которое захватывает окружающую среду движущегося тела, для получения захваченного изображения;
средство генерации изображения края, которое выделяет край из захваченного изображения для генерации изображения края;
средство хранения для хранения данных карты, содержащих информацию о крае и информацию о положении конструкций, существующих в окружающей среде движущегося тела;
средство генерации виртуального изображения, которое устанавливает множество частиц, которые являются предполагаемыми положениями и ориентациями движущегося тела, и преобразует информацию о крае из данных карты для каждой частицы в виртуальное изображение, захватываемое из предполагаемых положений и ориентаций;
средство вычисления значения оценки, которое сравнивает изображение края и виртуальное изображение для каждой частицы, и присваивает более высокое значение оценки, если имеется большее количество перекрывающихся краев между изображениями, и присваивает более высокое значение оценки, если имеется большее количество краев, для которых расстояние от края до края, когда край в изображении края и край в виртуальном изображении трехмерно проецируются в реальное пространство, меньше заданного расстояния в реальном пространстве, относительно краев, которые не являются перекрывающимися; и
средство оценки положения и ориентации, которое оценивает положение движущегося тела на основе значения оценки для каждой частицы.
2. Устройство оценки положения движущегося тела, содержащее:
средство захвата изображения, которое захватывает окружающую среду движущегося тела, для получения захваченного изображения;
средство генерации изображения края, которое выделяет край из захваченного изображения для генерации изображения края;
средство хранения для хранения данных карты, содержащих информацию о крае и информацию о положении конструкций, существующих в окружающей среде движущегося тела;
средство генерации виртуального изображения, которое устанавливает множество частиц, которые являются предполагаемыми положениями и ориентациями движущегося тела, и преобразует информацию о крае из данных карты для каждой частицы в виртуальное изображение, захватываемое из предполагаемых положений и ориентаций;
средство вычисления значения оценки, которое сравнивает изображение края и виртуальное изображение для каждой частицы, и присваивает более высокое значение оценки, если имеется большее количество перекрывающихся краев между изображениями, и присваивает более высокое значение оценки, если имеется большее количество краев, которые не являются перекрывающимися краями, и для которых расстояние от края до края, которое представляет собой расстояние между краем в изображении края и краем в виртуальном изображении, меньше или равно заданному расстоянию;
средство оценки положения и ориентации, которое оценивает положение движущегося тела на основе значения оценки для каждой частицы; при этом
средство вычисления значения оценки уменьшает заданное расстояние по мере увеличения плотности края изображения края.
3. Устройство оценки положения движущегося тела по п. 2, в котором
средство вычисления значения оценки увеличивает значение оценки, по мере того как расстояние от края до края уменьшается, когда расстояние от края до края меньше или равно заданному расстоянию.
4. Устройство оценки положения движущегося тела по п. 2 или 3, в котором
заданное расстояние представляет собой заданное количество пикселей.
5. Способ оценки положения движущегося тела, содержащий этапы, на которых:
захватывают окружающую среду движущегося тела для получения захваченного изображения;
выделяют край из захваченного изображения для генерации изображения края;
устанавливают множество частиц, которые являются предполагаемыми положениями и ориентациями движущегося тела, и преобразуют информацию о крае из данных карты для каждой частицы в виртуальное изображение, захватываемое из предполагаемого положения и ориентации;
сравнивают изображение края и виртуальное изображение для каждой частицы, и присваивают более высокое значение оценки, если имеется большее количество перекрывающихся краев между изображениями, и присваивают более высокое значение оценки, если имеется большее количество краев, которые не являются перекрывающимися краями, и для которых расстояние от края до края, которое представляет собой расстояние между краем в изображении края и краем в виртуальном изображении, меньше или равно заданному расстоянию;
оценивают положение движущегося тела на основе значения оценки для каждой частицы; и
при этом заданное расстояние уменьшается по мере увеличения плотности края изображения края.
6. Способ оценки положения движущегося тела, содержащий этапы, на которых:
захватывают окружающую среду движущегося тела для получения захваченного изображения;
выделяют край из захваченного изображения для генерации изображения края;
сохраняют данные карты, содержащие информацию о крае и информацию о положении конструкций, существующих в окружающей среде движущегося тела;
устанавливают множество частиц, которые являются предполагаемыми положениями и ориентациями движущегося тела, и преобразуют информацию о крае из данных карты для каждой частицы в виртуальное изображение, захватываемое из предполагаемого положения и ориентации;
сравнивают изображение края и виртуальное изображение для каждой частицы, и присваивают более высокое значение оценки, если имеется большее количество перекрывающихся краев между изображениями, и присваивает более высокое значение оценки, если имеется большее количество краев, для которых расстояние от края до края, когда край в изображении края и край в виртуальном изображении трехмерно проецируются в реальное пространство, меньше заданного расстояния в реальном пространстве относительно краев, которые не являются перекрывающимися; и
оценивают положение движущегося тела на основе значения оценки для каждой частицы.
RU2016123022A 2013-11-13 2014-09-05 Устройство оценки положения движущегося тела и способ оценки положения движущегося тела RU2621480C1 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013234516 2013-11-13
JP2013-234516 2013-11-13
PCT/JP2014/073432 WO2015072217A1 (ja) 2013-11-13 2014-09-05 移動体位置推定装置および移動体位置推定方法

Publications (1)

Publication Number Publication Date
RU2621480C1 true RU2621480C1 (ru) 2017-06-06

Family

ID=53057162

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016123022A RU2621480C1 (ru) 2013-11-13 2014-09-05 Устройство оценки положения движущегося тела и способ оценки положения движущегося тела

Country Status (8)

Country Link
US (1) US9424649B1 (ru)
EP (1) EP3070430B1 (ru)
JP (1) JP6112221B2 (ru)
CN (1) CN105723180B (ru)
BR (1) BR112016010089B1 (ru)
MX (1) MX355313B (ru)
RU (1) RU2621480C1 (ru)
WO (1) WO2015072217A1 (ru)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2769918C1 (ru) * 2021-05-18 2022-04-08 Общество с ограниченной ответственностью "ЭвоКарго" Способ позиционирования наземного транспортного средства
RU2807978C1 (ru) * 2023-02-06 2023-11-21 Общество с ограниченной ответственностью "Когнитив Роботикс" Способ визуальной локализации городского рельсового транспорта на основе фильтров частиц калмана и данных о картировании

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9849591B2 (en) * 2015-10-02 2017-12-26 X Development Llc Localization of a robot in an environment using detected edges of a camera image from a camera of the robot and detected edges derived from a three-dimensional model of the environment
EP3360023A4 (en) * 2015-10-09 2018-10-10 SZ DJI Technology Co., Ltd. Salient feature based vehicle positioning
US10013617B2 (en) * 2015-12-03 2018-07-03 Gm Global Technology Operations Snow covered path of travel surface condition detection
US9727793B2 (en) * 2015-12-15 2017-08-08 Honda Motor Co., Ltd. System and method for image based vehicle localization
JP6782903B2 (ja) * 2015-12-25 2020-11-11 学校法人千葉工業大学 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
JP6795379B2 (ja) * 2016-03-10 2020-12-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 運転制御装置、運転制御方法及び運転制御プログラム
JP6552448B2 (ja) * 2016-03-31 2019-07-31 株式会社デンソーアイティーラボラトリ 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP6929183B2 (ja) * 2017-09-29 2021-09-01 株式会社デンソーテン レーダ装置および物標検出方法
GB2568286B (en) * 2017-11-10 2020-06-10 Horiba Mira Ltd Method of computer vision based localisation and navigation and system for performing the same
US11531354B2 (en) * 2017-12-05 2022-12-20 Sony Corporation Image processing apparatus and image processing method
CN109935108A (zh) * 2017-12-18 2019-06-25 姜鹏飞 一种基于准确位置的交通安全预警方法及装置
US20200311455A1 (en) * 2019-03-27 2020-10-01 GM Global Technology Operations LLC Methods and systems for correcting sensor information

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134191A (ja) * 2009-12-25 2011-07-07 Honda Motor Co Ltd 向き計測装置、向き計測システム、向き計測方法、及び向き計測プログラム
JP2012164089A (ja) * 2011-02-04 2012-08-30 Fujitsu Ltd ロボット、位置推定方法及びプログラム
US8385591B1 (en) * 2009-04-28 2013-02-26 Google Inc. System and method of using images to determine correspondence between locations
EP2662828A1 (en) * 2012-05-11 2013-11-13 Autoliv Development AB A vision system and method for a motor vehicle

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8350850B2 (en) * 2008-03-31 2013-01-08 Microsoft Corporation Using photo collections for three dimensional modeling
JP5111210B2 (ja) * 2008-04-09 2013-01-09 キヤノン株式会社 画像処理装置、画像処理方法
JP5297727B2 (ja) 2008-09-04 2013-09-25 トヨタ自動車株式会社 ロボット装置及び物体の位置姿勢推定方法
US8164543B2 (en) * 2009-05-18 2012-04-24 GM Global Technology Operations LLC Night vision on full windshield head-up display
WO2011153624A2 (en) * 2010-06-11 2011-12-15 Ambercore Software Inc. System and method for manipulating data having spatial coordinates
JP2012243051A (ja) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
US9046364B2 (en) * 2011-06-14 2015-06-02 Nissan Motor Co., Ltd. Distance measurement device and environment map generation apparatus
US8704882B2 (en) * 2011-11-18 2014-04-22 L-3 Communications Corporation Simulated head mounted display system and method
CN104204726B (zh) * 2012-03-06 2017-05-31 日产自动车株式会社 移动物体位置姿态估计装置和移动物体位置姿态估计方法
JP5867176B2 (ja) * 2012-03-06 2016-02-24 日産自動車株式会社 移動物体位置姿勢推定装置及び方法
JP6079076B2 (ja) * 2012-09-14 2017-02-15 沖電気工業株式会社 物体追跡装置及び物体追跡方法
JP6197388B2 (ja) * 2013-06-11 2017-09-20 富士通株式会社 距離測定装置、距離測定方法、およびプログラム
JPWO2015159547A1 (ja) * 2014-04-18 2017-04-13 Necソリューションイノベータ株式会社 情報処理システム、制御方法、及びプログラム記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8385591B1 (en) * 2009-04-28 2013-02-26 Google Inc. System and method of using images to determine correspondence between locations
JP2011134191A (ja) * 2009-12-25 2011-07-07 Honda Motor Co Ltd 向き計測装置、向き計測システム、向き計測方法、及び向き計測プログラム
JP2012164089A (ja) * 2011-02-04 2012-08-30 Fujitsu Ltd ロボット、位置推定方法及びプログラム
EP2662828A1 (en) * 2012-05-11 2013-11-13 Autoliv Development AB A vision system and method for a motor vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2769918C1 (ru) * 2021-05-18 2022-04-08 Общество с ограниченной ответственностью "ЭвоКарго" Способ позиционирования наземного транспортного средства
WO2022245245A1 (ru) 2021-05-18 2022-11-24 Общество с ограниченной ответственностью "ЭвоКарго" Способ позиционирования наземного транспортного средства
RU2807978C1 (ru) * 2023-02-06 2023-11-21 Общество с ограниченной ответственностью "Когнитив Роботикс" Способ визуальной локализации городского рельсового транспорта на основе фильтров частиц калмана и данных о картировании

Also Published As

Publication number Publication date
WO2015072217A1 (ja) 2015-05-21
US20160239973A1 (en) 2016-08-18
JPWO2015072217A1 (ja) 2017-03-16
JP6112221B2 (ja) 2017-04-12
MX2016005904A (es) 2016-07-13
CN105723180B (zh) 2017-08-15
BR112016010089A2 (pt) 2020-11-10
BR112016010089B1 (pt) 2021-06-08
EP3070430A1 (en) 2016-09-21
US9424649B1 (en) 2016-08-23
EP3070430B1 (en) 2019-08-14
EP3070430A4 (en) 2017-01-11
CN105723180A (zh) 2016-06-29
MX355313B (es) 2018-04-16

Similar Documents

Publication Publication Date Title
RU2621480C1 (ru) Устройство оценки положения движущегося тела и способ оценки положения движущегося тела
CN110826499A (zh) 物体空间参数检测方法、装置、电子设备及存储介质
US8406474B2 (en) Method and apparatus for identifying obstacle in image
CN104574393B (zh) 一种三维路面裂缝图像生成系统和方法
CN111815707B (zh) 点云确定方法、点云筛选方法、装置、计算机设备
JP4341564B2 (ja) 対象物判定装置
US10803609B2 (en) Image distance calculator and computer-readable, non-transitory storage medium storing image distance calculation program
CN105335955A (zh) 对象检测方法和对象检测装置
JP5834933B2 (ja) 車両位置算出装置
US11132802B2 (en) Method of detecting moving objects from a temporal sequence of images
US11030478B1 (en) System and method for correspondence map determination
US20220148200A1 (en) Estimating the movement of an image position
El Bouazzaoui et al. Enhancing RGB-D SLAM performances considering sensor specifications for indoor localization
WO2014172875A1 (en) Moving object detection
JP4882577B2 (ja) 物体追跡装置およびその制御方法、物体追跡システム、物体追跡プログラム、ならびに該プログラムを記録した記録媒体
CN104573698B (zh) 面向成像测量的图像纹理主方向识别方法
Cerri et al. Free space detection on highways using time correlation between stabilized sub-pixel precision IPM images
CN113344906A (zh) 车路协同中相机评估方法、装置、路侧设备和云控平台
CN109600598B (zh) 影像处理方法、影像处理装置及电脑可读取记录媒体
JP5727969B2 (ja) 位置推定装置、方法、及びプログラム
JP5903901B2 (ja) 車両位置算出装置
WO2013136395A1 (ja) 検知装置、検知方法、プログラムが格納された記憶媒体
JP2012234431A (ja) 境界線検出装置、境界線検出方法、及びプログラム
US20220301208A1 (en) Distance estimation device and distance estimation method
US20230106749A1 (en) Three-dimensional measurement device