JP6054513B2 - 遠隔操作システム - Google Patents
遠隔操作システム Download PDFInfo
- Publication number
- JP6054513B2 JP6054513B2 JP2015505206A JP2015505206A JP6054513B2 JP 6054513 B2 JP6054513 B2 JP 6054513B2 JP 2015505206 A JP2015505206 A JP 2015505206A JP 2015505206 A JP2015505206 A JP 2015505206A JP 6054513 B2 JP6054513 B2 JP 6054513B2
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- moving body
- image
- remote control
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 41
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000007613 environmental effect Effects 0.000 claims description 5
- 238000005309 stochastic process Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/80—Recognising image objects characterised by unique random patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Description
本開示は、遠隔操作システムに関し、例えば遠隔操作により移動を行う移動体の操作者への情報提示装置に適用可能である。
災害地や鉱山において移動体を自動で運用したい場合において、カメラ映像を用いて遠隔地から人間が操作する技術がある。例えば、特開2011−28495号公報(特許文献1)記載の様に、移動体に、移動体前方を撮影するためのカメラを取り付け、カメラより取得した映像を無線により遠隔地にある操作者の操作用モニタに表示し、操作者はモニタを見ながら移動体の操作を行うようになっている。また特開平10−275015号公報(特許文献2)では伝送される映像の質を高めるために映像の間の補完を行っている。
移動体を遠隔で操作する場合に、移動体から取得する映像、情報の遅れが問題となる。例えば、取得した映像が1秒前であった場合では、操作者の操作がすぐに移動体に反映する場合においても、飛び出し等を回避するには操作が間に合わない。また実際には操作が即座に移動体に伝わることも期待できない。また、遅延を低減するべく映像データ量を絞り込むことにより、フレームレートや解像度を低下させた場合では他の移動体の動作が把握し辛くなる問題点がある。
特許文献1に記載の技術によれば、映像の遅れに対して他種の遅れの少ないセンサから得られた情報を併用し、映像を補正することで映像信号の伝送遅れによる操縦への悪影響低減を述べている。しかしながら、伝送による遅延は往路、復路共に残留し本質的にはリアルタイムに操作することはできない。
また特許文献2記載の技術では、フレームレートが低下した映像の質を高めるために操作者に対して補完した映像を提供する手法について述べられているが、やはり遅延による影響はデータ量減少分だけ改善することが予想できるが、本質的には解決していない。
本発明の目的は、移動体の操作を移動体に備えられたカメラ映像を伝送し遠隔地から行う場合において、映像遅延による影響を打ち消し、且つ障害物となりうる移動体を安全に回避するための手段を提供することにある。
本開示のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。
すなわち、遠隔処理システムは、物体認識部がカメラ画像から物体のモデルと移動速度を認識し、そのモデルに基づき挙動を予測し、予測結果をカメラ画像に重ねて表示する。
すなわち、遠隔処理システムは、物体認識部がカメラ画像から物体のモデルと移動速度を認識し、そのモデルに基づき挙動を予測し、予測結果をカメラ画像に重ねて表示する。
上記遠隔操作装置システムによれば、遠隔地から移動体を操作し、その移動体に備えられたカメラやセンサに遅延が存在する場合でも、遅延の影響による不安定、不安全な動作をさせることなく移動体を操作することができる。
以下、実施の形態について説明する。
(A)実施の形態に係る遠隔操作システムは、移動体(2)と遠隔操作装置(1)を具備し、移動体(2)は、前方を撮影するカメラ(21)と、周辺の障害物までの距離を測定する環境センサ(22)と、移動体の移動速度および旋回速度を計測する移動速度検出部(23)と、無線装置(16b)と、を備え、遠隔操作装置(1)は、カメラの映像を表示するモニタ(17)と、無線装置(16a)を有する計算機(10)と、を備え、移動体の無線装置(16b)と遠隔操作装置の無線装置(16a)との間で情報を送受信するようにされ、計算機(10)は、障害物の画像情報と移動体モデルを記録したデータベース(12)と、環境センサ(22)とカメラ(21)の映像とデータベース(12)から、カメラ(21)の映像に映っている障害物と障害物の移動体モデルを認識し、設定された時間後の障害物の位置を予測する障害物動作予測部(11)と、カメラ(21)の映像から障害物を取り除いた背景画像に対して、移動体の移動速度と旋回速度から設定された時間後の背景画像を生成する予測画像生成部(13)と、予測画像生成部(13)と障害物動作予測部(11)の出力から、設定された一定時間後の映像を合成する画像出力部(14)と、を備える。
(B)上記(A)において、障害物動作予測部(11)は、設定された一定時間後の1つの障害物の候補として複数の位置と推定強度を出力し、画像出力部(14)は、1つの障害物の複数の位置候補に対して透明度または明瞭度を推定強度に応じて重み付けし、合成する。
(C)上記(A)において、障害物動作予測部(11)は、各障害物に対する類推結果を時系列に沿って記録し、記録された類推結果が次回の推定時に選択されやすくなるように重みを加点する。
(D)上記(A)において、移動体モデルとして確率過程モデルを採用し、障害物動作予測部(11)は、障害物の移動予測結果を位置と共分散行列によって表現し、画像出力部(14)は、出力画像の合成において共分散行列に従い、障害物の画像を暈し、重ね合わせる。
(E)上記(A)において、移動体(2)は、さらに、車輪駆動装置(25)と車輪(26)とを有し、移動速度検出部(23)は、車輪駆動装置(25)によって車輪(26)の回転角速度を得て、移動体(2)の移動速度および旋回速度を計測する。
(F)上記(A)において、遠隔操作装置(1)は、さらに、操作入力装置(18)を有し、計算機(10)は、さらに、操作解釈部(15)を有し、操作入力装置(18)は、操作解釈部(15)に対して移動体(2)の移動命令を生成する。
(A)実施の形態に係る遠隔操作システムは、移動体(2)と遠隔操作装置(1)を具備し、移動体(2)は、前方を撮影するカメラ(21)と、周辺の障害物までの距離を測定する環境センサ(22)と、移動体の移動速度および旋回速度を計測する移動速度検出部(23)と、無線装置(16b)と、を備え、遠隔操作装置(1)は、カメラの映像を表示するモニタ(17)と、無線装置(16a)を有する計算機(10)と、を備え、移動体の無線装置(16b)と遠隔操作装置の無線装置(16a)との間で情報を送受信するようにされ、計算機(10)は、障害物の画像情報と移動体モデルを記録したデータベース(12)と、環境センサ(22)とカメラ(21)の映像とデータベース(12)から、カメラ(21)の映像に映っている障害物と障害物の移動体モデルを認識し、設定された時間後の障害物の位置を予測する障害物動作予測部(11)と、カメラ(21)の映像から障害物を取り除いた背景画像に対して、移動体の移動速度と旋回速度から設定された時間後の背景画像を生成する予測画像生成部(13)と、予測画像生成部(13)と障害物動作予測部(11)の出力から、設定された一定時間後の映像を合成する画像出力部(14)と、を備える。
(B)上記(A)において、障害物動作予測部(11)は、設定された一定時間後の1つの障害物の候補として複数の位置と推定強度を出力し、画像出力部(14)は、1つの障害物の複数の位置候補に対して透明度または明瞭度を推定強度に応じて重み付けし、合成する。
(C)上記(A)において、障害物動作予測部(11)は、各障害物に対する類推結果を時系列に沿って記録し、記録された類推結果が次回の推定時に選択されやすくなるように重みを加点する。
(D)上記(A)において、移動体モデルとして確率過程モデルを採用し、障害物動作予測部(11)は、障害物の移動予測結果を位置と共分散行列によって表現し、画像出力部(14)は、出力画像の合成において共分散行列に従い、障害物の画像を暈し、重ね合わせる。
(E)上記(A)において、移動体(2)は、さらに、車輪駆動装置(25)と車輪(26)とを有し、移動速度検出部(23)は、車輪駆動装置(25)によって車輪(26)の回転角速度を得て、移動体(2)の移動速度および旋回速度を計測する。
(F)上記(A)において、遠隔操作装置(1)は、さらに、操作入力装置(18)を有し、計算機(10)は、さらに、操作解釈部(15)を有し、操作入力装置(18)は、操作解釈部(15)に対して移動体(2)の移動命令を生成する。
上記遠隔操作装置システムによれば、遠隔地から移動体を操作し、その移動体に備えられたカメラやセンサからの伝送信号に遅延が存在する場合、および遠隔操作装置から移動体への伝送信号に遅延が存在する場合でも、遅延の影響による不安定、不安全な動作をさせることなく移動体を操作することができる。
以下、実施例について、図面を用いて説明する。ただし、以下の説明において、同一構成要素には同一符号を付し繰り返しの説明は省略する。
<遠隔操作システムの構成>
本実施例の遠隔操作装置と移動体の構成を図1を参照しながら説明する。
図1(a)は実施例に係る遠隔操作装置を説明する図である。図1(b)は実施例に係る移動体の側面図である。図1(c)は実施例に係る移動体の正面図である。遠隔操作装置1は、計算機10とそれにつながれたモニタ17、操作入力装置18から構成される。計算機10は、移動体2より映像と環境情報を無線により受信し、後述の画像処理を行い、モニタ17に画像を出力させる。操作入力装置18は、人間の操作を信号化し、計算機10へ伝える。
本実施例の遠隔操作装置と移動体の構成を図1を参照しながら説明する。
図1(a)は実施例に係る遠隔操作装置を説明する図である。図1(b)は実施例に係る移動体の側面図である。図1(c)は実施例に係る移動体の正面図である。遠隔操作装置1は、計算機10とそれにつながれたモニタ17、操作入力装置18から構成される。計算機10は、移動体2より映像と環境情報を無線により受信し、後述の画像処理を行い、モニタ17に画像を出力させる。操作入力装置18は、人間の操作を信号化し、計算機10へ伝える。
移動体2は、移動のための車輪26(26R、26L、26C)と、車輪26R、26Lを駆動する車輪駆動装置25と、前方映像を取得するカメラ21と、環境情報を取得する環境情報センサ22と、移動体全体を制御する制御装置(移動体制御装置)20とから構成される。車輪26Cは、例えばキャスタを採用し、全方向を向くことができるようにする。移動体2は、遠隔操作装置1より操作信号を受信し、移動体制御装置20により車輪駆動装置25を操作に沿うように動作させる。環境情報センサ22は、例えば2次元のレーザレンジファインダとする。レーザレンジファインダは、周辺の環境を2次元平面でスキャンし、物体までの平面上での距離と方位角度を得ることができるデバイスである。移動体2は、車輪駆動装置25により移動し、制御装置20内にある移動速度検出部23によって移動速度と旋回角速度が計算される。
次に図2を用いてシステム構成について述べる。
図2は移動体と遠隔操作装置のシステム構成を表す図である。遠隔操作装置1は、モニタ17、操作入力装置18、計算機10から構成されている。計算機10は、障害物動作予測部11、移動体モデルデータベース(DB)12、予測画像生成部13、画像出力部14、操作解釈部15、無線装置16aから構成される。人間は操作入力装置18に対し操作をくわえることで操作解釈部15に対して移動体2の移動命令を生成する。無線装置16aは移動体2に搭載の無線装置16bとペアであり、相互に情報を送受信することができる。
図2は移動体と遠隔操作装置のシステム構成を表す図である。遠隔操作装置1は、モニタ17、操作入力装置18、計算機10から構成されている。計算機10は、障害物動作予測部11、移動体モデルデータベース(DB)12、予測画像生成部13、画像出力部14、操作解釈部15、無線装置16aから構成される。人間は操作入力装置18に対し操作をくわえることで操作解釈部15に対して移動体2の移動命令を生成する。無線装置16aは移動体2に搭載の無線装置16bとペアであり、相互に情報を送受信することができる。
移動体2は、制御装置20とカメラ21、環境センサ22、車輪駆動装置25から構成される。制御装置20は、車輪駆動装置25を制御し、車輪駆動装置25より車輪26R、26Lの回転角速度を取得する。制御装置20は、遠隔操作装置1の無線装置16aとペアになる無線装置16b、移動体2の速度を算出する移動速度検出部23、移動体制御部24から構成されている。
<画像処理フロー>
次に図3を用いて移動体を操作者が移動させるためのモニタに表示させる映像を生成するための画像処理フローについて説明する。図3は実施例に係る遠隔操作装置の画像処理を説明するフロー図である。画像処理は設定された周期で実行され続ける。また各々の細かい処理は後述する。
次に図3を用いて移動体を操作者が移動させるためのモニタに表示させる映像を生成するための画像処理フローについて説明する。図3は実施例に係る遠隔操作装置の画像処理を説明するフロー図である。画像処理は設定された周期で実行され続ける。また各々の細かい処理は後述する。
(a)映像と環境情報の取得(ステップS3_1)
ステップS3_1において、計算機10は無線装置16を介して移動体2からカメラの映像と環境センサ情報を取得する。
ステップS3_1において、計算機10は無線装置16を介して移動体2からカメラの映像と環境センサ情報を取得する。
(b)移動障害物の認識(ステップS3_2)
ステップS3_2において、障害物動作予測部11はステップS3_1で取得したカメラの映像と環境センサ情報から移動障害物を認識する。
ステップS3_2において、障害物動作予測部11はステップS3_1で取得したカメラの映像と環境センサ情報から移動障害物を認識する。
(c)移動障害物の切り出し(ステップS3_3)
ステップS3_3において、障害物動作予測部11は認識した移動障害物のカメラの映像中の位置と形、速度から障害物に相当する画像を切り出し、予測画像生成部13と移動体モデルDB12へ通知する。
ステップS3_3において、障害物動作予測部11は認識した移動障害物のカメラの映像中の位置と形、速度から障害物に相当する画像を切り出し、予測画像生成部13と移動体モデルDB12へ通知する。
(d)移動障害物のモデルの決定(ステップS3_4)
ステップS3_4において、移動体モデルDB12は、ステップS3_3で切り出された障害物に相当する画像と、移動体モデルDB12が持つ移動体のデータベースと照合することで障害物の移動体モデルを確定する。画像から障害物の移動体モデルを確定させる方法としてはいくつかの既存技術があるが、たとえば類似画像検索技術(特開2006−114053号公報)が使える。類似画像検索技術では画像を、画像の色の分布、形状等の画像自体が持つ情報をフィルタにより抽出し、高次元の数値情報として表現した画像特徴量に変換し、画像特徴量同士を比較することで画像間の類似性を判断する。移動体モデルDB12はデータベースとして複数の移動体画像とそれぞれに関連付けられた移動動作モデルを持つので、類似している画像をキーにデータベースを検索することで障害物の移動動作モデルを確定する。移動体モデルは一般に数式(1)で表される。
ステップS3_4において、移動体モデルDB12は、ステップS3_3で切り出された障害物に相当する画像と、移動体モデルDB12が持つ移動体のデータベースと照合することで障害物の移動体モデルを確定する。画像から障害物の移動体モデルを確定させる方法としてはいくつかの既存技術があるが、たとえば類似画像検索技術(特開2006−114053号公報)が使える。類似画像検索技術では画像を、画像の色の分布、形状等の画像自体が持つ情報をフィルタにより抽出し、高次元の数値情報として表現した画像特徴量に変換し、画像特徴量同士を比較することで画像間の類似性を判断する。移動体モデルDB12はデータベースとして複数の移動体画像とそれぞれに関連付けられた移動動作モデルを持つので、類似している画像をキーにデータベースを検索することで障害物の移動動作モデルを確定する。移動体モデルは一般に数式(1)で表される。
ここでPは障害物の時間t秒後の位置であり、gは障害物の位置、wは方向、vは移動速度、uは旋回角速度を表すベクトルである。例えば自転車や自動車などの進行方向が不連続に変化することができない移動体に対して、wを時間tに対して一定、uとvをtの関数、として時間k後の位置Pは数式(2)の様になる。
移動体モデルデータベースDB12は確定した移動体モデルと類似度を障害物動作予測部11に通知する。この時、類似する画像が複数あり、移動体モデルの候補が複数存在する場合は、複数の候補を通知する。
(e)移動障害物の動作の予測(ステップS3_5)
ステップS3_5において、障害物動作予測部11は移動体モデルとステップS3_3において測定されている障害物の位置、速度に基づいて設定された時間qだけ未来の位置を算出する。障害物の移動体モデルが複数ある場合にはそれぞれの場合において障害物の位置を算出する。次にステップS3_4において切り出された障害物の画像と、算出された障害物の未来の位置とその位置を算出する際に用いた類似度(推定強度)を画像出力部14へ通知する。
ステップS3_5において、障害物動作予測部11は移動体モデルとステップS3_3において測定されている障害物の位置、速度に基づいて設定された時間qだけ未来の位置を算出する。障害物の移動体モデルが複数ある場合にはそれぞれの場合において障害物の位置を算出する。次にステップS3_4において切り出された障害物の画像と、算出された障害物の未来の位置とその位置を算出する際に用いた類似度(推定強度)を画像出力部14へ通知する。
(f)背景画像の生成(ステップS3_6)
ステップS3_6において、予測画像生成部13は、ステップS3_3で切り出された障害物に相当する画像とカメラの映像より、障害物を切り出した静止体とみなせる物体のみが映る背景画像を生成する。障害物が切り出された部分は障害物周辺の画像をもとに補完する。
ステップS3_6において、予測画像生成部13は、ステップS3_3で切り出された障害物に相当する画像とカメラの映像より、障害物を切り出した静止体とみなせる物体のみが映る背景画像を生成する。障害物が切り出された部分は障害物周辺の画像をもとに補完する。
(g)予測背景画像の生成(ステップS3_7)
ステップS3_7において、予測画像生成部13は移動体2の移動速度を基に設定された時間qだけ未来の背景画像を生成する。未来の背景画像を生成する方法を述べる。移動体2に備えられたカメラ21の地上からの高さと画角は既知であるとできる。また、映像の移動体2が映り込んでいない最も手前側の色が路面のものだと仮定すると路面領域が認識できる。路面が水平であるとすると画角とカメラ高さを用いることで3角測量の原理により画像中の移動体2から路面までの距離が算出できる。時間q後に移動体2が移動している距離は単純に現在の移動速度とqの積をLとすると、Lだけ移動体2が進んだ場合の背景画像を距離L以内の路面と、それに外接する長方形以外の画像を除去することで得ることができる。得られた画像に対して、アフィン変換を行い、画像を拡大することで時間qだけ未来の背景画像を生成することができる。得られた予測背景画像は画像出力部14へ送信される。
ステップS3_7において、予測画像生成部13は移動体2の移動速度を基に設定された時間qだけ未来の背景画像を生成する。未来の背景画像を生成する方法を述べる。移動体2に備えられたカメラ21の地上からの高さと画角は既知であるとできる。また、映像の移動体2が映り込んでいない最も手前側の色が路面のものだと仮定すると路面領域が認識できる。路面が水平であるとすると画角とカメラ高さを用いることで3角測量の原理により画像中の移動体2から路面までの距離が算出できる。時間q後に移動体2が移動している距離は単純に現在の移動速度とqの積をLとすると、Lだけ移動体2が進んだ場合の背景画像を距離L以内の路面と、それに外接する長方形以外の画像を除去することで得ることができる。得られた画像に対して、アフィン変換を行い、画像を拡大することで時間qだけ未来の背景画像を生成することができる。得られた予測背景画像は画像出力部14へ送信される。
(h)出力画像の生成・出力(ステップS3_8)
ステップS3_8において、画像出力部14は予測背景画像に対して、切り出された障害物が予測位置にあるとして障害物の画像を合成する。合成される障害物の位置が複数ある場合は、その類似度(推定強度)に応じて合成される障害物の透明度を変化させ(重みづけして)、まとめて合成する。これにより予測の正確さに応じて障害物の表示が透明度や明確さで表現できる。合成された画像はモニタ17に出力し処理を終える。
ステップS3_8において、画像出力部14は予測背景画像に対して、切り出された障害物が予測位置にあるとして障害物の画像を合成する。合成される障害物の位置が複数ある場合は、その類似度(推定強度)に応じて合成される障害物の透明度を変化させ(重みづけして)、まとめて合成する。これにより予測の正確さに応じて障害物の表示が透明度や明確さで表現できる。合成された画像はモニタ17に出力し処理を終える。
<移動障害物の認識方法>
障害物動作予測部11による移動障害物の位置と速度、形状の認識方法について述べる。
障害物の算出手法としては例えば以下の方法(特開2008-65755号公報)がある。この方法ではまず、ある時刻tに環境センサ22であるレーザスキャナから得られた距離値の角度に対する急激な変化点を検出し、連続する点の纏まりごとにデータ列を分割してセグメントとする。これによって、時間tにおける各セグメントの重心などの代表位置、形状などの特徴量を得る。次に、時刻t+Δtで同様に計算し、各セグメントの特徴量を得る。ここで、時刻tで得られたセグメントの特徴量と、時刻t+Δtで得られたセグメントの特徴量を比較し、特徴量の近いセグメント同士は同一の障害物であると認識し、代表位置の変化量から、障害物の移動方向と速度を算出する。また環境センサ22で計測される平面とカメラ21の映像は事前のキャリブレーションにより対応が取れているとすると、認識した障害物の画像上の位置が明らかになり、障害物の一部がカメラの映像上で距離に応じた折れ線で認識できる。この折れ線の外側を環境色として、環境色に囲まれた部分の画像を切り出すことで障害物の画像を得ることができる。また上記の処理はセグメントごとに実行されるため、複数の障害物に対しても認識できる。以上の処理を行うことにより障害物動作予測部11は単数または複数の障害物の位置と速度と形状を検出することができる。
障害物動作予測部11による移動障害物の位置と速度、形状の認識方法について述べる。
障害物の算出手法としては例えば以下の方法(特開2008-65755号公報)がある。この方法ではまず、ある時刻tに環境センサ22であるレーザスキャナから得られた距離値の角度に対する急激な変化点を検出し、連続する点の纏まりごとにデータ列を分割してセグメントとする。これによって、時間tにおける各セグメントの重心などの代表位置、形状などの特徴量を得る。次に、時刻t+Δtで同様に計算し、各セグメントの特徴量を得る。ここで、時刻tで得られたセグメントの特徴量と、時刻t+Δtで得られたセグメントの特徴量を比較し、特徴量の近いセグメント同士は同一の障害物であると認識し、代表位置の変化量から、障害物の移動方向と速度を算出する。また環境センサ22で計測される平面とカメラ21の映像は事前のキャリブレーションにより対応が取れているとすると、認識した障害物の画像上の位置が明らかになり、障害物の一部がカメラの映像上で距離に応じた折れ線で認識できる。この折れ線の外側を環境色として、環境色に囲まれた部分の画像を切り出すことで障害物の画像を得ることができる。また上記の処理はセグメントごとに実行されるため、複数の障害物に対しても認識できる。以上の処理を行うことにより障害物動作予測部11は単数または複数の障害物の位置と速度と形状を検出することができる。
<移動体の速度測定方法>
移動速度検出部23による移動体2の速度測定方法について述べる。移動速度検出部23は車輪駆動装置25より車輪26R、26Lの回転角速度dφR、dφLを得る。これと既知である移動体2の車輪間隔Tを用いると、移動体2の移動速度Vおよび旋回角速度Wは数式(3)で与えられる。
移動速度検出部23による移動体2の速度測定方法について述べる。移動速度検出部23は車輪駆動装置25より車輪26R、26Lの回転角速度dφR、dφLを得る。これと既知である移動体2の車輪間隔Tを用いると、移動体2の移動速度Vおよび旋回角速度Wは数式(3)で与えられる。
以上のように構成された遠隔操作装置1と移動体2は、カメラ映像の伝送に時間がかかり、かつ移動する障害物が存在する場合においても、障害物の移動と移動体2の移動を予測し、予測に基づく映像を現在の映像を基に生成し、操作者にモニタで提示することで、伝送遅れにより発生する不安定さ、危険性を減少せしめ、安全で効果的な操作を可能にできる。
さらに、遠隔操作装置から移動体への操作信号の伝送遅れも考慮して、障害物の移動と移動体2の移動を予測し、予測に基づく映像を現在の映像を基に生成し、操作者にモニタで提示することで、映像および操作信号の伝送遅れにより発生する不安定さ、危険性を減少せしめ、安全で効果的な操作を可能にできる。
<変形例1>
障害物の移動体モデルとして確率過程モデルを採用しても良い。確率過程モデルを採用した場合はステップS3_5で出力される障害物の移動予測結果は位置と共分散行列によって表現され、ステップS3_8の出力画像の合成において共分散行列に従い、障害物の画像を暈し、重ね合わせることで操作者に対して障害物の移動予測結果に対する信頼度を直感的に提示することができる。
障害物の移動体モデルとして確率過程モデルを採用しても良い。確率過程モデルを採用した場合はステップS3_5で出力される障害物の移動予測結果は位置と共分散行列によって表現され、ステップS3_8の出力画像の合成において共分散行列に従い、障害物の画像を暈し、重ね合わせることで操作者に対して障害物の移動予測結果に対する信頼度を直感的に提示することができる。
<変形例2>
障害物の移動体モデルを決定する際に障害物の移動情報のみを用いていたが、障害物の移動速度、旋回速度を障害物動作予測部11が時系列に沿って記録し、時系列に沿った移動速度、旋回速度と移動体モデル候補を比較することで、候補を絞り込んでも良い。また各障害物に対する移動体モデル候補(類推結果)も時系列に沿って記録し、記録された類推結果が次回の推定時に選択されやすくすることにより、直前の移動体モデルと同じ候補に類似度を加点し、移動体モデルが画像処理の各周期で変動することを抑制することができる。
障害物の移動体モデルを決定する際に障害物の移動情報のみを用いていたが、障害物の移動速度、旋回速度を障害物動作予測部11が時系列に沿って記録し、時系列に沿った移動速度、旋回速度と移動体モデル候補を比較することで、候補を絞り込んでも良い。また各障害物に対する移動体モデル候補(類推結果)も時系列に沿って記録し、記録された類推結果が次回の推定時に選択されやすくすることにより、直前の移動体モデルと同じ候補に類似度を加点し、移動体モデルが画像処理の各周期で変動することを抑制することができる。
以上、本発明者によってなされた発明を実施例に基づき具体的に説明したが、本発明は、上記実施例に限定されるものではなく、種々変更可能であることはいうまでもない。
1・・・遠隔操作装置、2・・・移動体、10・・・計算機、20・・・制御装置、21・・・カメラ、22・・・環境センサ、25・・・車輪駆動装置、26・・・車輪。
Claims (11)
- 遠隔操作システムは、移動体と遠隔操作装置を具備し、
前記移動体は、前方を撮影するカメラと、周辺の障害物までの距離を測定する環境センサと、前記移動体の移動速度および旋回速度を計測する移動速度検出部と、無線装置と、を備え、
前記遠隔操作装置は、前記カメラの映像を表示するモニタと、無線装置を有する計算機と、を備え、
前記移動体の無線装置と前記遠隔操作装置の無線装置との間で情報を送受信するようにされ、
前記計算機は、
障害物の画像情報と移動体モデルを記録したデータベースと、
前記環境センサと前記カメラの映像と前記データベースから、前記カメラの映像に映っている障害物と前記障害物の移動体モデルを認識し、設定された時間後の障害物の位置を予測する障害物動作予測部と、
前記カメラの映像から前記障害物を取り除いた背景画像に対して、前記移動体の移動速度と旋回速度から前記設定された時間後の背景画像を生成する予測画像生成部と、
前記予測画像生成部と前記障害物動作予測部の出力から、前記設定された一定時間後の映像を合成する画像出力部と、
を備える。 - 請求項1の遠隔操作システムにおいて、
前記障害物動作予測部は、前記設定された一定時間後の1つの障害物の候補として複数の位置と推定強度を出力し、
前記画像出力部は、1つの障害物の複数の位置候補に対して透明度または明瞭度を推定強度に応じて重み付けし、合成する。 - 請求項1の遠隔操作システムにおいて、
前記障害物動作予測部は、各障害物に対する類推結果を時系列に沿って記録し、記録された類推結果が次回の推定時に選択されやすくなるように重みを加点する。 - 請求項1の遠隔操作システムにおいて、
前記移動体モデルとして確率過程モデルを採用し、
前記障害物動作予測部は、障害物の移動予測結果を位置と共分散行列によって表現し、
前記画像出力部は、出力画像の合成において共分散行列に従い、障害物の画像を暈し、重ね合わせる。 - 請求項1の遠隔操作システムにおいて、
移動体は、さらに、車輪駆動装置と車輪とを有し、
前記移動速度検出部は、前記車輪駆動装置によって前記車輪の回転角速度を得て、前記移動体の移動速度および旋回速度を計測する。 - 請求項1の遠隔操作システムにおいて、
前記遠隔操作装置は、さらに、操作入力装置を有し、
前記計算機は、さらに、操作解釈部を有し、
前記操作入力装置は、前記操作解釈部に対して前記移動体の移動命令を生成する。 - 遠隔操作システムは、移動体と遠隔操作装置を具備し、
前記移動体は、前方を撮影するカメラと、周辺の障害物までの距離を測定する環境センサと、無線装置を有する制御装置と、車輪と、前記車輪を駆動する車輪駆動装置と、を備え、
前記遠隔操作装置は、前記移動体に備えられたカメラの映像を表示するモニタと、無線装置を有する計算機と、を備え、
前記移動体の無線装置と前記遠隔操作装置の無線装置との間で情報を送受信するようにされ、
前記制御装置は、前記車輪駆動装置の情報に基づいて前記移動体の移動速度および旋回角速度を計測する移動速度検出部を有し、
前記計算機は、
障害物の画像情報と移動体モデルを記録したデータベースと、
前記環境センサと前記カメラの映像と前記データベースから、前記カメラの映像に映っている障害物と前記障害物の移動体モデルを認識し、設定された時間後の障害物の位置を予測する障害物動作予測部と、
前記カメラの映像から前記障害物を取り除いた背景画像に対して、前記移動体の移動速度と旋回角速度から前記設定された時間後の背景画像を生成する予測画像生成部と、
前記予測画像生成部と前記障害物動作予測部の出力から、前記設定された一定時間後の映像を合成する画像出力部と、
を備える。 - 請求項7の遠隔操作システムにおいて、
前記障害物動作予測部は、前記設定された一定時間後の1つの障害物の候補として複数の位置と推定強度を出力し、
前記画像出力部は、1つの障害物の複数の位置候補に対して透明度または明瞭度を推定強度に応じて重み付けし、合成する。 - 請求項7の遠隔操作システムにおいて、
前記障害物動作予測部は、各障害物に対する類推結果を時系列に沿って記録し、記録された類推結果が次回の推定時に選択されやすくなるように重みを加点する。 - 請求項7の遠隔操作システムにおいて、
前記移動体モデルとして確率過程モデルを採用し、
前記障害物動作予測部は、障害物の移動予測結果を位置と共分散行列によって表現し、
前記画像出力部は、出力画像の合成において共分散行列に従い、障害物の画像を暈し、重ね合わせる。 - 請求項7の遠隔操作システムにおいて、
前記遠隔操作装置は、さらに、操作入力装置を有し、
前記計算機は、さらに、操作解釈部を有し、
前記操作入力装置は、前記操作解釈部に対して前記移動体の移動命令を生成する。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2013/057522 WO2014141479A1 (ja) | 2013-03-15 | 2013-03-15 | 遠隔操作システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6054513B2 true JP6054513B2 (ja) | 2016-12-27 |
JPWO2014141479A1 JPWO2014141479A1 (ja) | 2017-02-16 |
Family
ID=51536172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015505206A Active JP6054513B2 (ja) | 2013-03-15 | 2013-03-15 | 遠隔操作システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9317035B2 (ja) |
JP (1) | JP6054513B2 (ja) |
DE (1) | DE112013004341T5 (ja) |
WO (1) | WO2014141479A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11281207B2 (en) * | 2013-03-19 | 2022-03-22 | Robotic Research Opco, Llc | Delayed telop aid |
JP7029910B2 (ja) * | 2016-12-22 | 2022-03-04 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理装置、情報処理方法及びプログラム |
US10678237B2 (en) * | 2016-12-22 | 2020-06-09 | Panasonic Intellectual Property Corporation Of America | Information processing apparatus, operated vehicle, information processing method, and recording medium storing program |
JPWO2018155159A1 (ja) * | 2017-02-24 | 2019-12-19 | パナソニックIpマネジメント株式会社 | 遠隔映像出力システム、及び遠隔映像出力装置 |
JP6494679B2 (ja) * | 2017-03-17 | 2019-04-03 | ヤフー株式会社 | 解析装置、情報提供装置、解析方法、およびプログラム |
DE102017212343A1 (de) * | 2017-07-19 | 2019-01-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Bereitstellen von Umgebungsinformationen |
WO2019014929A1 (zh) * | 2017-07-21 | 2019-01-24 | 深圳市萨斯智能科技有限公司 | 一种机器人操作方法和机器人 |
JP6859907B2 (ja) | 2017-09-08 | 2021-04-14 | トヨタ自動車株式会社 | 車両制御装置 |
JP6996820B2 (ja) * | 2017-09-11 | 2022-01-17 | 株式会社Ihiエアロスペース | 遠隔操縦用表示装置と遠隔操縦用表示方法 |
JP6943143B2 (ja) * | 2017-10-31 | 2021-09-29 | 株式会社豊田自動織機 | 産業車両用遠隔操作システム、産業車両、産業車両用遠隔操作プログラム及び産業車両用遠隔操作方法 |
US10513037B2 (en) * | 2017-12-15 | 2019-12-24 | Ankobot (Shanghai) Smart Technologies Co., Ltd. | Control method and system, and mobile robot using the same |
JP7262973B2 (ja) * | 2018-10-31 | 2023-04-24 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN110673647B (zh) * | 2019-11-07 | 2022-05-03 | 深圳市道通智能航空技术股份有限公司 | 全向避障方法及无人飞行器 |
KR102627908B1 (ko) * | 2021-12-03 | 2024-01-25 | 한국생산기술연구원 | 자율주행 원격제어시의 안전 제어를 위한 모니터링 시스템 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10275015A (ja) * | 1996-11-11 | 1998-10-13 | Komatsu Ltd | 移動体の遠隔操作装置 |
JP2006114053A (ja) * | 2005-10-25 | 2006-04-27 | Hitachi Ltd | 類似画像検索方法および装置 |
JP2008065755A (ja) * | 2006-09-11 | 2008-03-21 | Hitachi Ltd | 移動装置 |
JP2010214479A (ja) * | 2009-03-13 | 2010-09-30 | Denso Wave Inc | ロボットシステム |
JP2011028495A (ja) * | 2009-07-24 | 2011-02-10 | Technical Research & Development Institute Ministry Of Defence | 無人走行車両の遠隔操縦装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5046022A (en) * | 1988-03-10 | 1991-09-03 | The Regents Of The University Of Michigan | Tele-autonomous system and method employing time/position synchrony/desynchrony |
EP0760955B1 (en) * | 1994-04-19 | 1998-06-03 | Northrop Grumman Corporation | Aircraft location and identification system |
US6845297B2 (en) * | 2000-05-01 | 2005-01-18 | Irobot Corporation | Method and system for remote control of mobile robot |
CA2363396A1 (en) * | 2001-11-21 | 2003-05-21 | Handshake Interactive Technologies Inc | Hard real time control center |
IL147370A (en) * | 2001-12-27 | 2007-07-24 | Itzhak Florentin | Method and system for guiding a remote vehicle via a retarded communication channel |
JP4348468B2 (ja) * | 2004-01-21 | 2009-10-21 | 株式会社キャンパスクリエイト | 画像生成方法 |
WO2008097252A2 (en) * | 2006-06-22 | 2008-08-14 | Roy Sandberg | Method and apparatus for robotic path planning, selection, and visualization |
US8139108B2 (en) * | 2007-01-31 | 2012-03-20 | Caterpillar Inc. | Simulation system implementing real-time machine data |
US8774950B2 (en) * | 2008-01-22 | 2014-07-08 | Carnegie Mellon University | Apparatuses, systems, and methods for apparatus operation and remote sensing |
US8423278B2 (en) * | 2008-11-19 | 2013-04-16 | Furuno Electric Company Limited | Navigation aid method, device and program |
US9206589B2 (en) * | 2009-03-31 | 2015-12-08 | Caterpillar Inc. | System and method for controlling machines remotely |
-
2013
- 2013-03-15 US US14/432,598 patent/US9317035B2/en active Active
- 2013-03-15 WO PCT/JP2013/057522 patent/WO2014141479A1/ja active Application Filing
- 2013-03-15 DE DE112013004341.6T patent/DE112013004341T5/de not_active Withdrawn
- 2013-03-15 JP JP2015505206A patent/JP6054513B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10275015A (ja) * | 1996-11-11 | 1998-10-13 | Komatsu Ltd | 移動体の遠隔操作装置 |
JP2006114053A (ja) * | 2005-10-25 | 2006-04-27 | Hitachi Ltd | 類似画像検索方法および装置 |
JP2008065755A (ja) * | 2006-09-11 | 2008-03-21 | Hitachi Ltd | 移動装置 |
JP2010214479A (ja) * | 2009-03-13 | 2010-09-30 | Denso Wave Inc | ロボットシステム |
JP2011028495A (ja) * | 2009-07-24 | 2011-02-10 | Technical Research & Development Institute Ministry Of Defence | 無人走行車両の遠隔操縦装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2014141479A1 (ja) | 2017-02-16 |
WO2014141479A1 (ja) | 2014-09-18 |
DE112013004341T5 (de) | 2015-05-21 |
US9317035B2 (en) | 2016-04-19 |
US20150261218A1 (en) | 2015-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6054513B2 (ja) | 遠隔操作システム | |
US11657604B2 (en) | Systems and methods for estimating future paths | |
US10155506B2 (en) | Systems and methods for braking a vehicle based on a detected object | |
JP5323910B2 (ja) | 移動ロボットの遠隔操縦のための衝突防止装置及び方法 | |
JP2021098492A (ja) | 衝突検出方法、装置、電子デバイス、記憶媒体、及びプログラム | |
JP5023186B2 (ja) | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム | |
CN106476728A (zh) | 用于车载的车辆传感器的运动补偿 | |
JP5353455B2 (ja) | 周辺監視装置 | |
KR101880437B1 (ko) | 실제카메라 영상과 가상카메라 영상을 활용하여 넓은 시야각을 제공하는 무인선 관제시스템 | |
US9154769B2 (en) | Parallel online-offline reconstruction for three-dimensional space measurement | |
KR102117313B1 (ko) | 그래디언트 추정 장치, 그래디언트 추정 방법, 컴퓨터 프로그램 및 제어 시스템 | |
JP5418661B2 (ja) | 車両周辺監視装置 | |
JP2011071932A (ja) | 車両周辺監視装置 | |
EP4128025A1 (en) | Multi-sensor occlusion-aware tracking of objects in traffic monitoring systems and methods | |
JP6982865B2 (ja) | 動画像距離算出装置および動画像距離算出用プログラム | |
KR101590252B1 (ko) | 고속 이동하는 이미징 소나의 영상 개선 방법 및 이를 이용한 장치 | |
US20200125111A1 (en) | Moving body control apparatus | |
US12106528B2 (en) | Generating scene flow labels for point clouds using object labels | |
JP6996820B2 (ja) | 遠隔操縦用表示装置と遠隔操縦用表示方法 | |
JP2011070580A (ja) | 運転支援装置 | |
JP4742695B2 (ja) | 視線認識装置、及び視線認識方法 | |
KR102541685B1 (ko) | 재귀 구조를 이용한 예측을 위한 전자 장치 및 그의 동작 방법 | |
JP6518951B2 (ja) | 車載用表示装置、車載用表示装置の制御方法、プログラム | |
US20210074020A1 (en) | Location estimation apparatus | |
KR102209671B1 (ko) | 주변 차량의 경로를 예측하기 위한 경로 예측 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6054513 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |