JP6729607B2 - 設置位置情報提供装置及び設置位置情報提供方法 - Google Patents

設置位置情報提供装置及び設置位置情報提供方法 Download PDF

Info

Publication number
JP6729607B2
JP6729607B2 JP2018002794A JP2018002794A JP6729607B2 JP 6729607 B2 JP6729607 B2 JP 6729607B2 JP 2018002794 A JP2018002794 A JP 2018002794A JP 2018002794 A JP2018002794 A JP 2018002794A JP 6729607 B2 JP6729607 B2 JP 6729607B2
Authority
JP
Japan
Prior art keywords
vehicle
installation position
image
information providing
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018002794A
Other languages
English (en)
Other versions
JP2019121322A (ja
Inventor
章 国津
章 国津
広康 鈴木
広康 鈴木
将人 林
将人 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018002794A priority Critical patent/JP6729607B2/ja
Priority to CN201980007670.7A priority patent/CN111566707B/zh
Priority to DE112019000388.7T priority patent/DE112019000388T5/de
Priority to PCT/JP2019/000712 priority patent/WO2019139129A1/ja
Publication of JP2019121322A publication Critical patent/JP2019121322A/ja
Priority to US16/915,419 priority patent/US11482003B2/en
Application granted granted Critical
Publication of JP6729607B2 publication Critical patent/JP6729607B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Description

本開示は、車載センサの調整作業に用いられる調整用設備の設置位置を提供する技術に関する。
特許文献1には、車載カメラやレーダ装置などの車載センサの光軸或いは角度軸を、車外に設置した調整装置を利用して調整する技術が開示されている。
特開2010−156609号公報
車載センサの調整作業を精度よく行うためには、調整作業に必要な調整装置を適正な位置に設置する必要がある。調整装置の設置作業は、一般に、複数の作業者が各種測量を行いながら実施されている。このような設置作業には、多くの工数を要する。
本開示は、車載センサの調整用設備の設置位置を、少ない工数で容易に作業者に提供 する技術を提供する。
本開示の設置位置情報提供装置は、映像(7)を撮影する撮影装置(32)と、前記撮影装置により撮影された映像を表示する表示装置(34)と、認識部(35,36,S120)と、算出部(38,S120)と、重畳表示部(38,S160,S170,S180)とを備える。
認識部は、撮影装置により撮影された映像から、その映像に含まれている車両(1)又は車両の近傍における、特定の2つの部位、及び、その映像に含まれている、車両が載置されている床面(2)、を認識する。
算出部は、認識部により認識された2つの部位及び床面に基づいて、映像内における、車両に搭載される車載センサ(16,17,18,19)の調整作業に用いられる調整用設備の設置位置を算出する。
重畳表示部は、表示装置に表示される映像に対し、算出部により算出された設置位置に、設置位置を示す画像である設置位置オブジェクト(83,93,106,107,108,112)を重畳表示させる。
このような構成によれば、撮影装置により撮影された特定の2つの部位及び床面に基づいて、調整用設備の設置位置が算出され、映像中におけるその算出された設置位置に設置位置オブジェクトが重畳表示される。これにより、作業者は、表示装置に表示されている映像から設置位置を容易に把握することができる。そして、作業者は、映像を見ながら、重畳表示されている設置位置オブジェクトの位置に実際の調整用設備が合致するように調整用設備を設置することで、調整用設備を適正な位置に設置することができる。
よって、車載センサの調整用設備の設置位置を、少ない工数で容易に作業者に提供することが可能となる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
実施形態の車載センサ調整支援システムの全体構成を示す説明図である。 AR機の概略構成を示すブロック図である。 車載センサ調整支援処理のフローチャートである。 AR機に基準点及び基準線が重畳表示される例を示す説明図である。 AR機にフロントカメラに対応した設置位置オブジェクトが重畳表示される例を示す説明図である。 AR機にミリ波レーダセンサに対応した設置位置オブジェクトが重畳表示される例を示す説明図である。 AR機に2つの後方センサに対応した設置位置オブジェクトが重畳表示される例を示す説明図である。 マーカを用いて車両中心を認識させる例を示す説明図である。 AR機の他の構成例を示すブロック図である。
以下、本開示の実施形態について、図面を参照しながら説明する。
[1.実施形態]
(1−1)車載センサ調整支援システムの全体構成
図1に示す本実施形態の車載センサ調整支援システムは、サーバ201と、パーソナルコンピュータ(以下、「PC」と略称する)202と、中継装置203と、設置位置情報提供装置(以下、「AR機」と略称する)5とを備える。なお、「AR」は、拡張現実を意味する「Augmented Reality」の略称である。
中継装置203は、無線によるデータ通信を中継する。即ち、中継装置203は、無線によりPC202とデータ通信可能であり、無線により通信ネットワーク200を介してサーバ201とデータ通信可能である。PC202は、通信ネットワーク200を介して、或いは中継装置203及び通信ネットワーク200を介して、サーバ201とデータ通信可能である。AR機5は、無線通信機能を備え、中継装置203を介してPC202及びサーバ201とデータ通信可能である。つまり、AR機5、サーバ201及びPC202は、相互にデータ通信可能である。
なお、AR機5、サーバ201及びPC202が相互にデータ通信できるようにするための具体的な通信システムの構成は、図1に示した構成に限定されない。例えば、AR機5が、中継装置203を介さずにサーバ201或いはPC202と直接通信可能であってもよい。また例えば、通信ネットワーク200は有線のネットワークであってもよいし無線のネットワークであってもよい。
サーバ201には、車両1を含む各種の車両毎の車種情報が記憶されている。また、サーバ201には、各種の調整用設備(詳細は後述)毎の設置位置オブジェクトを示すオブジェクトデータが記憶されている。設置位置オブジェクトは、調整用設備の設置位置を示す画像である。また、サーバ201には、各種の調整用設備毎の、後述する調整作業に関する各種の作業関連情報(例えば作業手順など)も記憶されている。
なお、設置位置オブジェクトは、同種の調整用設備であっても車両毎あるいは車種毎に個別に用意されていてもよい。また例えば、特定の複数の車両あるいは車種に対しては共同じ一つの設置位置オブジェクトが用意されていてもよい。作業関連情報についても同様である。
PC202は、サーバ201から、車種情報、オブジェクトデータ及び作業関連情報をダウンロードして保存することが可能である。PC202からサーバ201へ車種情報、設置位置オブジェクト及び作業関連情報をアップロードすることが可能であってもよい。
AR機5は、サーバ201又はPC202から、車種情報、設置位置オブジェクト及び作業関連情報をダウンロードして取得することが可能である。
AR機5は、作業者3の頭部に装着されるいわゆるゴーグル型の画像情報提供デバイスである。AR機5には、後述するカメラ32(図2参照)で撮影された映像7がリアルタイムに表示される。AR機5が作業者3に適正に装着されている場合、映像7は、作業者3の前方を示す。
作業者3は、車両1を所定の作業エリアの床面2上に入庫させて、車両1に設けられた各種の車載センサの調整作業を行う。この調整作業は、調整対象の車載センサに対応した調整用設備を車両1の外部における所定の位置に設置し、その調整用設備を用いて行われる。
本実施形態の車載センサ調整支援システムは、上記の調整作業を行う際に利用される。具体的に、車載センサ調整支援システムは、作業者3が調整用設備を容易且つ効率的に設置できるように、調整用設備の設置位置を、AR機5を介して作業者3に提供する。
即ち、AR機5は、映像7を表示させるが、さらに、作業者3の操作に応じて、その映像7の中における、調整用設備を設置すべき位置に、その設置位置を示す設置位置オブジェクトを表示させる。
AR機5は、ビジョンベース型の拡張現実機能を有し、その拡張現実機能によって、実際の映像7の中における、調整用設備を設置すべき設置位置に、設置位置オブジェクトを重畳表示させる。
本実施形態の車両1には、車載センサとして、フロントカメラ16(図4参照)と、ミリ波レーダセンサ17(図4参照)と、右後方レーダ18(図7参照)と、左後方レーダ19(図7参照)とが設けられている。
フロントカメラ16は、車両1の車室前方に設けられ、車両1の前方を撮影する。フロントカメラ16により撮影された画像は、例えば、車両1に搭載された衝突防止支援システムや車線逸脱防止支援システムなどの各種の運転支援システムに利用される。
ミリ波レーダセンサ17は、例えば、車両1におけるフロントバンパーの裏側に設けられる。ミリ波レーダセンサ17は、ミリ波帯の電波を放射し、その放射した電波が車両1前方の物標に反射した反射波を受信して、放射波と反射波とに基づいて物標の位置や距離を検出する。ミリ波レーダセンサ17による検出結果は、例えば、車両1に搭載された衝突防止支援システムや障害物警報システムなどの各種の運転支援システムに利用される。
右後方レーダ18及び左後方レーダ19は、基本的には、ミリ波レーダセンサ17と同様の構成である。右後方レーダ18は、車両1の右後方に存在する物標の位置や距離を検出し、左後方レーダ19は、車両1の左後方に存在する物標の位置や距離を検出する。右後方レーダ18及び左後方レーダ19は、例えば、車両1に搭載されたブラインドスポットモニタシステムなどの各種の運転支援システムに利用される。
フロントカメラ16によって車両1の前方における適切な範囲が撮影されるようにするためには、フロントカメラ16の光軸を適正に調整する必要がある。その光軸の調整を行う際に用いられる調整用設備は、例えば、不図示の3つのターゲット板である。
作業者3は、フロントカメラ16の光軸を調整する際、3つのターゲット板をそれぞれ車両1の前方における所定位置に設置する。そして、フロントカメラ16においてそれら3つのターゲット板を撮影し、その撮影された3つのターゲット板の画像に基づいて、フロントカメラ16の光軸を適正に調整する。
フロントカメラ16の光軸を適正に調整するためには、3つのターゲット板の各々を所定の位置に正しく設置する必要がある。AR機5は、その3つのターゲット板の設置位置を作業者3に提供可能に構成されている。具体的に、AR機5に表示される映像7の中における、3つのターゲット板を設置すべき位置に、それらの設置位置を示す設置位置オブジェクト106〜108(図5参照)が表示される。
ミリ波レーダセンサ17によって物標を精度良く検出できるようにするためには、ミリ波レーダセンサ17の角度軸(即ち、レーダ波の放射角度)を適正に調整する必要がある。その角度軸の調整を行う際に用いられる調整用設備は、不図示のリフレクタである。
作業者3は、ミリ波レーダセンサ17の角度軸を調整する際、車両1の前方における所定位置にリフレクタを設置する。そして、ミリ波レーダセンサ17においてレーダ波を放射させると共にそのレーダ波がリフレクタで反射された反射波を受信し、その受信した反射波に基づいて、角度軸を適正に調整する。
ミリ波レーダセンサ17の角度軸を適正に調整するためには、リフレクタを所定の位置に正しく設置する必要がある。AR機5は、そのリフレクタの設置位置を作業者3に提供可能に構成されている。具体的に、AR機5に表示される映像7の中における、リフレクタを設置すべき位置に、その設置位置を示す設置位置オブジェクト112(図6参照)が表示される。
右後方レーダ18及び左後方レーダ19によって物標を精度良く検出できるようにするためには、これら各々の角度軸を適正に調整する必要がある。その角度軸の調整を行う際に用いられる調整用設備は、不図示のリフレクタである。
作業者3は、右後方レーダ18及び左後方レーダ19の角度軸を調整する際、車両1の右後方及び左後方のそれぞれにおける所定位置に、リフレクタを設置する。そして、右後方レーダ18及び左後方レーダ19の各々において、レーダ波を放射させると共にそのレーダ波がリフレクタで反射された反射波を受信し、その受信した反射波に基づいて、角度軸を適正に調整する。
右後方レーダ18及び左後方レーダ19の角度軸を適正に調整するためには、各リフレクタを所定の位置に正しく設置する必要がある。AR機5は、各リフレクタの設置位置を作業者3に提供可能に構成されている。具体的に、AR機5に表示される映像7の中における、各リフレクタを設置すべき位置に、その設置位置を示す第1設置位置オブジェクト83(図7参照)及び第2設置位置オブジェクト93(図7参照)が表示される。
(1−2)AR機の構成
図2に示すように、AR機5は、空間認識用センサ31と、カメラ32と、自位置認識用センサ33と、表示部34とを備える。
空間認識用センサ31は、AR機5の前方に存在する各種物体を示す情報を取得する。空間認識用センサ31の具体的な構成は特に限定されず、本実施形態では例えばレーザセンサである。空間認識用センサ31により、AR機5の前方の空間が三次元的に検出され、その検出結果である空間情報が検出される。
カメラ32は、AR機5の前方の映像を撮影し、その撮影データを出力する。本実施形態のカメラ32は、特定のフレームレートで映像(即ち動画)を撮影する。
自位置認識用センサ33は、AR機5自身の、三次元空間内における位置、より具体的には例えば向き(角度)を検出し、その検出結果である自位置情報を出力する。自位置認識用センサ33の具体的な構成は特に限定されず、本実施形態では例えばジャイロセンサである。
表示部34は、画像を表示可能に構成されており、カメラ32から出力された撮影データが示す映像、即ち映像7を表示する。また、表示部34は、オブジェクト制御部38からの表示情報に基づいて、映像7に加えて各種オブジェクトを表示させる。表示部34は、AR機5において、AR機5を頭部に適正に装着した作業者3が、映像7などの映像或いは画像を視認可能となるように搭載されている。
AR機5は、さらに、空間認識制御部35と、画像認識制御部36と、自位置認識制御部37と、オブジェクト制御部38とを備える。
空間認識制御部35は、空間認識用センサ31で検出される空間情報を周期的に取得してその空間情報をリアルタイムに解析する。そして、その解析結果に基づき、AR機5の前方の空間を三次元的にリアルタイムに認識する。空間認識制御部35は、認識結果を示す空間認識情報をオブジェクト制御部38に出力する。
画像認識制御部36は、カメラ32から出力される撮影データに基づき、撮影された映像(即ち映像7)内における特定の画像を認識する。本実施形態では、映像7中の特徴点を抽出し、その抽出した特徴点に基づいて、各種の画像を認識可能である。画像認識制御部36により認識可能な画像には、例えば、各種車両の前端及び後端に設けられたエンブレムやナンバープレート、特定のマーカなどが含まれる。
本実施形態の車両1は、図4に示すように、車両1の前端に設けられたフロントエンブレム11及びフロントナンバープレート13、車両1の後端に設けられたリヤエンブレム12及びリヤナンバープレート14を備えている。画像認識制御部36は、車両1自体を認識可能であることに加え、車両1におけるこれら各エンブレム11,12、各ナンバープレート13,14を個別に認識可能である。
画像認識制御部36が認識可能な各種画像の情報は、AR機5における不図示のメモリに予め記憶されていてもよいし、サーバ201或いはPC202からダウンロード可能であってもよい。
画像認識制御部36は、画像の認識結果を示す画像認識情報を、撮影データと共に、オブジェクト制御部38に出力する。また、画像認識制御部36は、トラッキング機能により、カメラ32の位置や角度が変化して撮影される映像が変化しても、一度認識した画像を継続して認識することができる。
自位置認識制御部37は、自位置認識用センサ33から出力される自位置情報に基づき、AR機5の向き(角度)を認識する。そして、その認識結果を示す自位置認識情報をオブジェクト制御部38に出力する。
オブジェクト制御部38は、画像認識制御部36から入力される撮影データに基づいて、表示部34に映像7を表示させる。
また、オブジェクト制御部38は、空間認識制御部35から入力される空間認識情報、画像認識制御部36から入力される画像認識情報、自位置認識制御部37から入力される自位置認識情報、及び無線通信にてサーバ201或いはPC202から取得される車種情報、オブジェクトデータ及び作業関連情報等に基づいて、調整用設備の設置位置を算出するための各種処理を行う。そして、映像7における、その算出した設置位置に対応した位置に、設置位置オブジェクトを表示させる。また、ユーザ操作に応じて作業関連情報を表示させることも可能である。
調整用設備の設置位置は、車種及び調整作業対象の車載センサの種類に応じて一意に定まる。つまり、車両1と設置位置オブジェクトとの相対的位置関係は一意に定まる。そのため、オブジェクト制御部38は、入力される各種情報が変化する度に(即ち、AR機5の向きや位置が変化する度に)その変化に追随して、上記相対的位置関係が維持されるように、設置位置オブジェクトの表示位置、表示角度、大きさなども変化させる。
つまり、作業者3が移動したりAR機5の角度や向きを変えたりしても、映像7に表示される、車両1と設置位置オブジェクトとの相対関係は一定に維持される。
そのため、例えば、作業者3が車両1の後方を向いたことにより、映像7内に調整用設備の設置位置が入らなくなった場合は、映像7には設置位置オブジェクトは表示されない。そして、作業者3が再び車両1の前方を向いたことにより、映像7内に調整用設備の設置位置が入った場合は、映像7には再び設置位置オブジェクトが表示される。
また、例えば、作業者3が場所を移動して調整用設備の設置位置近傍を別の角度から見た場合は、その移動後の位置及び向きに追随して、映像7における設置位置オブジェクトの表示角度も変化する。また例えば、作業者3が車両1から遠ざかると、それに応じて映像7における車両1及び設置位置オブジェクトの大きさも小さくなる。
なお、AR機5は、不図示のコンピュータを備えている。不図示のコンピュータは、CPU、メモリなどを備える。メモリは、ROM、RAM、フラッシュメモリなどの各種の半導体記憶装置を備える。メモリには、後述する図3の車載センサ調整支援処理のプログラムが記憶されている。
空間認識制御部35、画像認識制御部36、自位置認識制御部37及びオブジェクト制御部38は、CPUが車載センサ調整支援処理のプログラムを実行することによって実現される機能ブロックを示している。つまり、空間認識制御部35、画像認識制御部36、自位置認識制御部37及びオブジェクト制御部38が有する機能は、ソフトウェアによって提供される処理である。
ただし、これら各機能の少なくとも一部又は全てが、ソフトウェアによる処理ではなく一つあるいは複数のハードウェアを用いて実現されてもよい。
(1−3)車載センサ調整支援処理
次に、AR機5が有する不図示のCPUが実行する車載センサ調整支援処理、即ち、空間認識制御部35、画像認識制御部36、自位置認識制御部37及びオブジェクト制御部38としての機能を実現する車載センサ調整支援処理について、図3を用いて説明する。
作業者3が、AR機5に対して、車載センサ調整支援処理を開始させるための特定の起動操作を行うと、AR機5において、車載センサ調整支援処理が開始される。
車載センサ調整支援処理が開始されると、S110で、車種選択処理を行う。具体的に、表示部34に、サーバ201或いはPC202から取得した各種車種情報に基づき、車種の一覧リストを表示させる。そして、表示された車種リストの中から、調整作業対象の車両1を選択させる。
車種情報は、予めAR機5のメモリに記憶されていてもよいし、所定のタイミング(例えば起動時、或いは一定周期)でサーバ201或いはPC202からダウンロードしてメモリに記憶させてもよいし、S110の処理の実行時にサーバ201或いはPC202からダウンロードして取得してもよい。
また、車種リストに対する選択方法はどのような方法であってもよく、例えば、作業者3が、表示されている車種リスト中の車両1を示す項目に対して特定のジェスチャーを示すことで選択可能であってもよい。
なお、作業者3による選択操作を要することなく、例えば、画像認識機能を用いて、映像7に表示されている車両1を画像認識することにより車両1がどのような車種であるかを自動的に特定してもよい。
S120では、車両基準点決め処理を行う。具体的に、まず、前述の空間認識制御部35及び自位置認識制御部37としての機能を実行する。即ち、空間認識用センサ31で検出される空間情報、及び自位置認識用センサ33から出力される自位置情報に基づいて、前述の空間認識情報及び自位置認識情報を生成し、これら各情報に基づいて前方空間を三次元的に認識する。そして、オブジェクト制御部38の機能として、認識した前方空間の中から床面2を認識する。
床面2の認識方法はどのような方法であってもよい。例えば、表示部34に表示されている映像7に床面2が表示されている場合に、その表示されている床面2に対して特定のジェスチャーを示すことで、そのジェスチャーが示された位置が床面2として認識されるように構成されていてもよい。或いは、床面2に特定のマーカを置き、そのマーカを画像認識制御部36の機能により認識させて、その認識結果に基づいて(つまり認識されたマーカを基準に)床面2を認識してもよい。
床面2を認識すると、三次元座標空間内における、その認識した床面2とAR機5の位置との相対的位置関係を算出する。これにより、認識した床面2とAR機5との相対的位置関係が定まる。
次に、図4に示す車両1の中心線25を算出する。中心線25を算出するために、まず、車両1の前後2箇所における、車幅方向の中心点を認識する。
本実施形態では、具体的には、車幅方向の中心を示す画像として、車両1のフロントエンブレム11及びリヤエンブレム12を認識する。この認識は、画像認識制御部36としての機能である。例えば、作業者3が、映像7内にフロントエンブレム11が表示される位置に移動して、フロントエンブレム11を画像認識制御部36に認識させる。この認識は、例えば、フロントエンブレム11のデータを予めメモリに記憶しておいて、そのデータと照合することにより自動的に行っても良い。また例えば、表示されているフロントエンブレム11に対して特定のジェスチャーを示すことで、そのジェスチャーが示された画像をフロントエンブレム11として認識してもよい。
そして、フロントエンブレム11を認識させた後、作業者3は、映像7内にリヤエンブレム12が表示される位置に移動して、フロントエンブレム11の場合と同様に、画像認識制御部36の機能にてリヤエンブレム12を認識させる。
各エンブレム11,12が認識されると、各々から床面2への垂線を生成する。即ち、図4に示すように、フロントエンブレム11から床面2への前部垂線21と、リヤエンブレム12から床面2への後部垂線22とを生成する。そして、前部垂線21と床面2との交点である前部基準点23と、後部垂線22と床面2との交点である後部基準点24とを算出する。
そして、前部基準点23と後部基準点24とを通る中心線25を算出する。中心線25は、床面2上の線である。このようにして、床面2上における中心線25が算出される。
S130では、車両基準点オブジェクト表示処理を行う。具体的に、S120で算出した、前部垂線21、後部垂線22及び中心線25を、映像7内に重畳表示させる。図4は、前部垂線21、後部垂線22及び中心線25が重畳表示された映像7の一例を示す。
S140では、調整センサ選定処理を行う。この処理は、調整対象の車載センサを決定する処理である。具体的に、表示部34に、サーバ201或いはPC202から取得した各種の車載センサの情報に基づき、車載センサの一覧リストを表示させる。
この場合、異なる複数の車種に対応した複数の車載センサを一覧表示させてもよいが、本実施形態では、S110で選択された車種、即ち調整作業対象の車両1に搭載可能な(或いは実際に搭載されている)車載センサに絞って一覧表示させる。
そして、表示された車載センサのリストの中から、調整作業対象の車載センサを選択させる。車載センサのリストに対する選択方法はどのような方法であってもよく、例えば、作業者3が、表示されている車載センサのリスト中における、調整作業対象の車載センサに対して、特定のジェスチャーを示すことで、選択可能であってもよい。
車載センサの情報は、予めAR機5のメモリに記憶されていてもよいし、所定のタイミング(例えば起動時、或いは一定周期)でサーバ201或いはPC202からダウンロードしてメモリに記憶させてもよいし、S140の処理の実行時にサーバ201或いはPC202からダウンロードして取得してもよい。
S150では、S140で選定された車載センサがどれであるかを判断する。選定された車載センサがミリ波レーダセンサ17である場合は,S160に進む。S160では、オブジェクト制御部38の機能として、ミリ波レーダセンサ17の調整作業に用いる調整用設備(即ち、リフレクタ)を設置すべき位置を示す設置位置オブジェクトを映像7に表示させる。
具体的に、例えば図6に示すように、中心線25における、前部基準点23から一定距離前方の位置に、設置基準点61aを表示させ、その設置基準点61aを通り且つ中心線25に垂直な設置基準線61を表示させる。上記一定距離は、車種及び調整対象の車載センサに応じて予め設定されている。さらに、設置基準点61aに垂直な設置垂線111を表示させる。そして、その設置垂線111における、床面2から一定の高さの位置に、設置位置オブジェクト112を表示させる。上記一定の高さも、車種及び調整対象の車載センサに応じて予め設定されている。
車両1と設置位置オブジェクト112との相対的位置関係は一定である。そのため、作業者3が向きを変えたり移動したりすると、その向きや位置の移動に追随して、車両1との相対的位置関係に基づき、映像7中の設置位置オブジェクト112の表示位置や角度、大きさなども変化する。
このようにして映像7に設置位置オブジェクト112が表示されることにより、作業者3は、ミリ波レーダセンサ17の角度軸調整に必要なリフレクタをどこに設置すればよいか明確に把握できる。作業者3は、リフレクタを、AR機5に表示されている設置位置オブジェクト112に重畳するように設置することで、リフレクタを正しい位置に設置することができる。
S150で、選定された車載センサがフロントカメラ16である場合は、S170に進む。S170では、オブジェクト制御部38の機能として、フロントカメラ16の調整作業に用いる調整用設備(即ち、3つのターゲット板)を設置すべき位置を示す設置位置オブジェクトを、映像7に表示させる。
具体的に、例えば図5に示すように、中心線25における、前部基準点23から一定距離前方の位置に、第1設置基準点41aを表示させ、その第1設置基準点41aを通り且つ中心線25に垂直な設置基準線41を表示させる。上記一定距離は、車種及び調整対象の車載センサに応じて予め設定されている。
また、設置基準線41において、第1設置基準点41aから両方向にそれぞれ一定距離離れた位置に、第2設置基準点41b及び第3設置基準点41cを表示させる。
さらに、各設置基準点41a,41b,41cから、床面2に垂直な垂線、即ち、第1設置垂線101,第2設置垂線102,第3設置垂線103を表示させる。そして、それら各設置垂線101、102,103における、床面2から一定の高さの位置に、それぞれ、設置位置オブジェクト106,107,108を表示させる。上記一定の高さも、車種及び調整対象の車載センサに応じて予め設定されている。
車両1と各設置位置オブジェクト106,107,108との相対的位置関係についても一定である。そのため、作業者3が向きを変えたり移動したりすると、その向きや位置の移動に追随して、車両1との相対的位置関係に基づき、映像7中の設置位置オブジェクト106,107,108の表示位置や角度、大きさなども変化する。
このようにして映像7に設置位置オブジェクト106,107,108が表示されることにより、作業者3は、フロントカメラ16の光軸調整に必要な3つのターゲット板をどこに設置すればよいか明確に把握できる。作業者3は、3つのターゲット板を、AR機5に表示されている3つの設置位置オブジェクト106,107,108に重畳するように設置することで、3つのターゲット板を正しい位置に設置することができる。
S150で、選定された車載センサが各後方センサ18,19である場合は、S180に進む。S180では、オブジェクト制御部38の機能として、各後方センサ18,19の調整作業に用いる調整用設備(即ち、後方センサ18,19毎の個別のリフレクタ)を設置すべき位置を示す設置位置オブジェクトを、映像7に表示させる。
具体的に、例えば図7に示すように、床面2上において、中心線25における後部基準点24から、中心線25に対して一定の角度方向へ、2つの設置基準線81,91を表示させる。2つの設置基準線81,91は、中心線25に対して線対称の位置関係にある。
また、各設置基準線81,91における、後部基準点24から一定距離離れた位置に、床面2に垂直な設置垂線82,92を表示させる。そして、それら各設置垂線82,92における、床面2から一定の高さの位置に、それぞれ、設置位置オブジェクト83,93を表示させる。上記一定の高さも、車種及び調整対象の車載センサに応じて予め設定されている。
車両1と各設置位置オブジェクト83,93との相対的位置関係についても一定である。そのため、作業者3が向きを変えたり移動したりすると、その向きや位置の移動に追随して、車両1との相対的位置関係に基づき、映像7中の設置位置オブジェクト83,93の表示位置や角度、大きさなども変化する。
このようにして映像7に設置位置オブジェクト83,93が表示されることにより、作業者3は、各後方センサ18,19の角度軸調整に必要なリフレクタをどこに設置すればよいか明確に把握できる。作業者3は、各リフレクタを、AR機5に表示されている2つの設置位置オブジェクト83,93に重畳するように設置することで、各リフレクタを正しい位置に設置することができる。
なお、S160,S170及びS180の処理において、映像7に作業関連情報も表示されてもよい。あるいは、作業者3の操作に応じて作業関連情報が表示又は非表示されるように構成されていてもよい。
S190では、画像認識制御部36の機能として、調整用設備が正しい位置(つまり映像7において設置位置オブジェクトが表示されている位置)に設置されたか否か判断する。具体的に、例えば、画像認識機能を利用して、映像7内において、実際の調整用設備と設置位置オブジェクトとの位置関係が正しい位置関係になっていれば、正しい位置に設置されたと判断する。
正しい位置に設置されていない場合は、S190の判断を繰り返す。正しい位置に設置された場合は、S200に移行する。
S200では、通知処理を行う。この通知処理は、作業者3に対して、調整用設備が正しい位置に設置されたことを知らせる処理である。具体的にどのような方法で知らせるかについては適宜決めてよく、例えば、表示部34に特定の通知情報を表示させてもよいし、例えば、不図示の音声出力デバイスによって特定の音声を出力させてもよい。
なお、設置すべき調整用設備が複数ある場合、S190〜S200の処理においては、例えば、複数全ての調整用設備が正しく設置された場合に、S190からS200に移行してもよい。また例えば、調整用設備毎に個別に、正しく設置されたかどうか判断し、個別に通知処理を行ってもよい。
S200で通知処理を行った後は、車載センサ調整支援処理を終了する。なお、S200で通知処理を行った後、S140に戻るようにしてもよい。このようにすることで、ある車載センサの調整作業が終わった後、続いて同じ車両における別の車載センサの調整作業にスムーズに移行することができる。
(1−4)実施形態の効果
以上説明した実施形態によれば、以下の(1a)〜(1d)の効果を奏する。
(1a)本実施形態によれば、カメラ32により撮影された2箇所及び床面2に基づいて、調整用設備の設置位置が算出され、表示部34に表示される映像中における、その算出された設置位置に、設置位置オブジェクトが重畳表示される。
これにより、作業者は、表示部34に表示されている映像から設置位置を容易に把握することができる。そして、作業者は、映像を見ながら、重畳表示されている設置位置オブジェクトの位置に実際の調整用設備が合致するように調整用設備を設置することで、調整用設備を適正な位置に設置することができる。
よって、車載センサの調整用設備の設置位置を、少ない工数で容易に作業者に提供することが可能となる。
(1b)上記実施形態では、車両に搭載されている2つのエンブレム11,12を画像認識し、その認識結果に基づいて、2つの基準点23,24が算出される。そのため、設置位置の算出に必要な2つの基準点23,24を容易且つ適切に算出することができる。
さらに、2つの基準点23,24から中心線25が算出され、その中心線25を基準に設置位置が算出される。そのため、設置位置を容易且つ適切に算出することができる。
(1c)上記実施形態では、設置位置の算出に先立って、作業者により車種が選択される。そして、選択された車種に応じて設置位置が算出される。そのため、車種に応じて精度よく設置位置を算出することができる。
しかも、調整作業対象の車載センサを作業者に選択させるにあたり、車載センサの選択肢が、選択された車種に対応した車載センサに絞って表示される。そのため、作業者は、車種に対応した車載センサを容易に選択することができる。
(1d)上記実施形態では、算出された設置位置に実際の調整用設備が設置されると作業者へ通知される。そのため、作業者は、算出された設置位置に調整用設備を容易に設置することができる。
[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(2−1)上記実施形態では、図3のS120の処理で、車両前後2箇所における車幅方向の中心点を、フロントエンブレム11及びリヤエンブレム12に基づいて認識したが、他の方法で中心点を認識してもよい。
例えば、フロントナンバープレート13を画像認識することによりそのフロントナンバープレート13の中心位置を車両前方側の中心点とし、リヤナンバープレート14を画像認識することによりそのリヤナンバープレート14の中心位置を車両後方側の中心点として認識してもよい。
この場合も、例えば、認識対象のナンバープレートのデータを予めメモリに記憶しておいて、そのデータと照合することにより自動的に認識するようにしてもよい。また例えば、表示されているナンバープレートに対して特定のジェスチャーを示すことで、そのジェスチャーが示された画像をナンバープレートとして認識してもよい。
また、車両1における特定の構成物を認識することに限らず、例えば、車両1における特定の位置、或いは車両1の近傍における特定の位置に、特定のマーカを設置し、そのマーカを画像認識させることで、中心点を認識させるようにしてもよい。
マーカを用いた中心点の認識の一例を、図8に示す。図8においては、フロントナンバープレート13における中央上部にフロントマーカ49が設けられ、リヤナンバープレート14における中央上部にリヤマーカ50が設けられている。各マーカ49,50の画像データは、AR機5のメモリに予め記憶されていてもよいし、サーバ201又はPC202等からAR機5にダウンロードして取得してもよい。
各マーカ49,50は、AR機5における画像認識制御部36にて、個別に認識される。各マーカ49,50が認識された後の処理は、上記実施形態における各エンブレム11,12が認識された後の処理と基本的に同様である。つまり、上記実施形態の説明において、各エンブレム11,12を各マーカ49,50に置き換えればよい。
ただし、フロントエンブレム11の位置とフロントナンバープレート13の位置とが車両前後方向においてずれている場合は、前部基準点23から設置基準点61aまでの距離は、そのずれている分、図6における前部基準点23から設置基準点61aまでの距離とは異なる。
なお、マーカを設置する位置は、各ナンバープレートに限らない。マーカを用いて車幅方向の中心点を認識できる限り、どのようなマーカをどこにおくかについては適宜決めてよい。
また、画像認識機能を利用して車両1全体の画像から車幅の領域を認識し、その車幅の領域から、車幅方向の中心点を認識してもよい。なお、車幅の領域を認識させる方法は、他の方法であってもよい。例えば、車両における左右両端にマーカを設置し、それらマーカを画像認識させることで、車幅の領域を認識させてもよい。或いは、AR機5に表示される映像7に表示されている車両左端及び右端それぞれに対して特定のジェスチャーを示すことで、そのジェスチャーが示された位置を車両の左右両端として認識させ、その認識結果に基づいて中心点を認識させてもよい。
(2−2)上記実施形態のAR機5が備える機能の一部が、AR機5とは別の装置に実装されていてもよい。
例えば、図9に示すように、AR機70は、カメラ32と表示部34とを備え、空間認識制御部35、画像認識制御部36、及び自位置認識制御部37の機能は、AR機70とは別の装置(例えばPC202)に実装されていてもよい。
この場合、車両1及びその周囲の少なくとも一方に少なくとも1つのマーカを設置し、その少なくとも1つのマーカをカメラ32で撮影して、その撮影された画像に基づいて、空間認識制御部35による空間認識情報の生成及び自位置認識制御部37による自位置認識情報の生成が行われてもよい。空間認識制御部35は、例えば、特定のマーカの設置位置から、対象となる物体(例えば床、車両など)を空間認識するように構成されていてもよい。自位置認識制御部37は、例えば、カメラ32で撮影された特定のマーカの向きと上記空間認識の結果とに基づいて自位置を認識するように構成されていてもよい。
なお、図9に示す構成においては、カメラ32で撮影された画像のデータは、AR機70からPC202へ通信にて送信される。また、PC202におけるオブジェクト制御部38にて生成された、映像7の映像データは、PC202からAR機70へ通信にて送信される。
また、図9に示す構成では、PC202が備えるメモリ215に、車種情報及びオブジェクトデータが予め記憶されている。PC202は、メモリ215に記憶されているこれら情報及びデータに基づいて各種処理を行ってもよい。ただし、これら情報及びデータは、サーバ201などの他の装置から取得可能であってもよい。
(2−3)カメラ32は、単眼カメラであってもよいし、例えばステレオカメラのように、複数のレンズを備えたカメラであってもよい。
(2−4)生成された設置位置オブジェクトの位置を補正するために、補正用マーカを設置して、設置位置オブジェクトの算出時にその算出した設置位置オブジェクトと補正用マーカとの相対的位置関係を保存しておき、その相対的位置関係に基づいて、設置位置オブジェクトの位置が補正されるようにしてもよい。
(2−5)AR機の具体的態様は、ゴーグル型に限らない。例えば、カメラ及び表示部を備えたタブレット端末にAR機の機能を持たせてもよい。
(2−6)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
1…車両、3…作業者、5,70…AR機(設置位置情報提供装置)、7…映像、11…フロントエンブレム、12…リヤエンブレム、13…フロントナンバープレート、14…リヤナンバープレート、16…フロントカメラ、17…ミリ波レーダセンサ、18…右後方レーダ、19…左後方レーダ、23…前部基準点、24…後部基準点、25…中心線、31…空間認識用センサ、32…カメラ、33…自位置認識用センサ、34…表示部、35…空間認識制御部、36…画像認識制御部、37…自位置認識制御部、38…オブジェクト制御部、49…フロントマーカ、50…リヤマーカ、83…第1設置位置オブジェクト、93…第2設置位置オブジェクト、106,112…設置位置オブジェクト、201…サーバ、202…PC。

Claims (8)

  1. 映像(7)を撮影する撮影装置(32)と、
    前記撮影装置により撮影された映像を表示する表示装置(34)と、
    前記撮影装置により撮影された映像から、前記映像に含まれている車両(1)又は前記車両の近傍における、特定の2つの部位、及び、前記映像に含まれている、前記車両が載置されている床面(2)、を認識する認識部(35,36,S120)と、
    前記認識部により認識された前記2つの部位及び前記床面に基づいて、前記映像内における、前記車両に搭載される車載センサ(16,17,18,19)の調整作業に用いられる調整用設備の設置位置を算出する算出部(38,S120)と、
    前記表示装置に表示される前記映像に対し、前記算出部により算出された前記設置位置に、前記設置位置を示す画像である設置位置オブジェクト(83,93,106,107,108,112)を重畳表示させる重畳表示部(38,S160,S170,S180)と、
    を備える設置位置情報提供装置。
  2. 請求項1に記載の設置位置情報提供装置であって、
    前記認識部は、前記車両に搭載された少なくとも1つのエンブレム(11,12)、前記車両に搭載された少なくとも1つのナンバープレート(13,14)、及び前記車両の車幅、のうちの少なくとも2つを認識し、その認識した少なくとも2つに基づいて前記2つの部位を認識する、
    設置位置情報提供装置。
  3. 請求項1又は請求項2に記載の設置位置情報提供装置であって、
    前記算出部は、
    前記認識部により認識された前記2つの部位に基づいて、前記床面における、前記2つの部位の各々に対応した2つの基準点(23,24)を算出する基準点算出処理と、
    前記基準点算出処理により算出された前記2つの基準点に基づいて、前記床面における、前記2つの基準点のうちの少なくとも一方を通る少なくとも1つの基準線(25)を算出する基準線算出処理と、
    前記基準点算出処理により算出された前記2つの基準点、及び前記基準線算出処理により算出された前記少なくとも1つの基準線に基づいて前記設置位置を算出する設置位置算出処理と、
    を実行するように構成されている設置位置情報提供装置。
  4. 請求項1〜請求項3の何れか1項に記載の設置位置情報提供装置であって、
    さらに、前記車両の車種を示す車種情報を取得する車種情報取得部(S110)を備え、
    前記算出部は、前記車種情報取得部により取得された前記車種情報に応じて前記設置位置を算出する、
    設置位置情報提供装置。
  5. 請求項4に記載の設置位置情報提供装置であって、
    さらに、
    前記車種情報取得部により取得された前記車種情報に基づき、前記車種情報が示す前記車両に搭載可能な前記車載センサに対応した前記調整用設備の選択肢を提示する選択肢提示部(S140)と、
    前記選択肢提示部により提示された前記選択肢の中からいずれか1つの前記調整用設備の選択を受け付ける選択受付部(S140)と、
    を備え、
    前記算出部は、前記選択受付部により選択された前記調整用設備の前記設置位置を算出する、
    設置位置情報提供装置。
  6. 請求項1〜請求項5の何れか1項に記載の設置位置情報提供装置であって、
    さらに、前記表示装置に表示されている映像中において、前記重畳表示部により重畳表示されている前記設置位置オブジェクトに対応した位置と、前記調整用設備の実際の位置とが合致した場合に特定の通知を行う通知部(S200)を備える、
    設置位置情報提供装置。
  7. 請求項1〜請求項6の何れか1項に記載の設置位置情報提供装置であって、
    前記撮影装置、前記表示装置、前記認識部、前記算出部、及び前記重畳表示部は、同じ1つの筐体に収容されている、
    設置位置情報提供装置。
  8. 映像を撮影することと、
    前記撮影された映像を表示することと、
    前記撮影された映像から、前記映像に含まれている車両又は前記車両の近傍における、特定の2つの部位、及び、前記映像に含まれている、前記車両が載置されている床面、を認識することと、
    前記認識された前記2つの部位及び前記床面に基づいて、前記映像内における、前記車両に搭載される車載センサの調整作業に用いられる調整用設備の設置位置を算出することと、
    前記表示される前記映像に対し、前記算出された前記設置位置に、前記設置位置を示す画像である設置位置オブジェクトを重畳表示させることと、
    を有する設置位置情報提供方法。
JP2018002794A 2018-01-11 2018-01-11 設置位置情報提供装置及び設置位置情報提供方法 Active JP6729607B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018002794A JP6729607B2 (ja) 2018-01-11 2018-01-11 設置位置情報提供装置及び設置位置情報提供方法
CN201980007670.7A CN111566707B (zh) 2018-01-11 2019-01-11 设置位置信息提供装置以及设置位置信息提供方法
DE112019000388.7T DE112019000388T5 (de) 2018-01-11 2019-01-11 Vorrichtung zur bereitstellung von informationen über eine installationsposition und verfahren zur bereitstellung von informationen über die installationsposition
PCT/JP2019/000712 WO2019139129A1 (ja) 2018-01-11 2019-01-11 設置位置情報提供装置及び設置位置情報提供方法
US16/915,419 US11482003B2 (en) 2018-01-11 2020-06-29 Installation position information providing apparatus and installation position information providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018002794A JP6729607B2 (ja) 2018-01-11 2018-01-11 設置位置情報提供装置及び設置位置情報提供方法

Publications (2)

Publication Number Publication Date
JP2019121322A JP2019121322A (ja) 2019-07-22
JP6729607B2 true JP6729607B2 (ja) 2020-07-22

Family

ID=67219730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018002794A Active JP6729607B2 (ja) 2018-01-11 2018-01-11 設置位置情報提供装置及び設置位置情報提供方法

Country Status (5)

Country Link
US (1) US11482003B2 (ja)
JP (1) JP6729607B2 (ja)
CN (1) CN111566707B (ja)
DE (1) DE112019000388T5 (ja)
WO (1) WO2019139129A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021096682A (ja) * 2019-12-18 2021-06-24 株式会社バンザイ 車両用運転支援装置の校正用基準具を設置するための表示装置
US20230104858A1 (en) * 2020-03-19 2023-04-06 Nec Corporation Image generation apparatus, image generation method, and non-transitory computer-readable medium
JP6838183B1 (ja) * 2020-03-26 2021-03-03 ボッシュ株式会社 校正作業補助装置
JP2022150965A (ja) * 2021-03-26 2022-10-07 株式会社デンソー 精度補正装置及び拡張現実画像表示装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3708507B2 (ja) * 2002-08-09 2005-10-19 本田技研工業株式会社 車載レーダの照準調整検査装置と照準調整検査方法
JP3708509B2 (ja) 2002-08-26 2005-10-19 本田技研工業株式会社 車載レーダおよび車載カメラの照準調整検査装置
JP5320904B2 (ja) 2008-08-21 2013-10-23 株式会社デンソー 検査システム
JP2010156609A (ja) 2008-12-26 2010-07-15 Toyota Motor Corp 軸調整装置、及び軸調整方法
JP2012043396A (ja) * 2010-08-13 2012-03-01 Hyundai Motor Co Ltd 拡張現実を用いた車両消耗品管理システム及びその方法
JP4898951B2 (ja) * 2010-10-25 2012-03-21 富士通テン株式会社 車載機
EP2765388B1 (de) * 2013-02-08 2018-10-17 Hexagon Technology Center GmbH Mobiler Feld-Controller zur Messung und Fernsteuerung
GB201315504D0 (en) * 2013-08-30 2013-10-16 Ford Global Tech Llc A method to aid inductive battery charging of a motor vehicle
JP6471522B2 (ja) * 2015-02-10 2019-02-20 株式会社デンソー カメラパラメータ調整装置
JP6554169B2 (ja) * 2015-06-10 2019-07-31 株式会社日立製作所 物体認識装置及び物体認識システム
CN107850550B (zh) * 2015-08-21 2020-11-03 日铁系统集成株式会社 显示系统、显示装置、显示方法以及存储介质
CN108604393B (zh) * 2016-03-04 2022-12-30 日铁系统集成株式会社 信息处理系统、信息处理装置、信息处理方法以及计算机可读取的存储介质
US10606149B2 (en) * 2016-05-25 2020-03-31 Sony Corporation Information processing device, information processing method, and program

Also Published As

Publication number Publication date
CN111566707A (zh) 2020-08-21
US20200327333A1 (en) 2020-10-15
CN111566707B (zh) 2023-06-16
JP2019121322A (ja) 2019-07-22
WO2019139129A1 (ja) 2019-07-18
US11482003B2 (en) 2022-10-25
DE112019000388T5 (de) 2020-09-17

Similar Documents

Publication Publication Date Title
JP6729607B2 (ja) 設置位置情報提供装置及び設置位置情報提供方法
JP4461091B2 (ja) 位置検出装置及びその補正方法
US7599521B2 (en) Vehicle vicinity monitoring apparatus
JP4809019B2 (ja) 車両用障害物検出装置
JP5109691B2 (ja) 解析装置
EP3113146B1 (en) Location computation device and location computation method
US20100315215A1 (en) Blind spot display apparatus
EP3330117A1 (en) Vehicle display device
US10099617B2 (en) Driving assistance device and driving assistance method
US20120236287A1 (en) External environment visualization apparatus and method
JP6151535B2 (ja) パラメータ取得装置、パラメータ取得方法及びプログラム
US10922976B2 (en) Display control device configured to control projection device, display control method for controlling projection device, and vehicle
US20190215465A1 (en) Bird's-eye view image generating device, bird's-eye view image generating system, bird's-eye view image generating method, and medium
CN112130158A (zh) 对象距离测量装置和方法
EP3173278B1 (en) Vehicle display control device
JP2019004399A (ja) 作業機械の周囲監視システム
US20110169954A1 (en) Maneuvering assisting apparatus
JP2016001378A (ja) 車載カメラの校正装置
US10475154B2 (en) Machine surround view system and method for generating 3-dimensional composite surround view using same
JP4032052B2 (ja) 位置検出装置及びその補正方法
JP2016014549A (ja) 車両位置算出装置
WO2022202926A1 (ja) 精度補正装置及び拡張現実画像表示装置
JP2006155400A (ja) 画像抽出装置
JP4105146B2 (ja) エイミング装置
JP4032053B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R151 Written notification of patent or utility model registration

Ref document number: 6729607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250