JP7162218B2 - Bird's eye view presentation system - Google Patents

Bird's eye view presentation system Download PDF

Info

Publication number
JP7162218B2
JP7162218B2 JP2019057052A JP2019057052A JP7162218B2 JP 7162218 B2 JP7162218 B2 JP 7162218B2 JP 2019057052 A JP2019057052 A JP 2019057052A JP 2019057052 A JP2019057052 A JP 2019057052A JP 7162218 B2 JP7162218 B2 JP 7162218B2
Authority
JP
Japan
Prior art keywords
bird
eye view
image
eye
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019057052A
Other languages
Japanese (ja)
Other versions
JP2020161895A (en
Inventor
廉 小松
浩光 藤井
彰太 筑紫
雄介 田村
圭司 永谷
淳 山下
一 淺間
浩幸 岡本
アレサンドロ モロ
新吾 山本
拓史 千葉
郁也 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujita Corp
University of Tokyo NUC
Original Assignee
Fujita Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujita Corp, University of Tokyo NUC filed Critical Fujita Corp
Priority to JP2019057052A priority Critical patent/JP7162218B2/en
Publication of JP2020161895A publication Critical patent/JP2020161895A/en
Application granted granted Critical
Publication of JP7162218B2 publication Critical patent/JP7162218B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、俯瞰映像提示システムに関する。 The present invention relates to a bird's-eye view video presentation system.

近年、災害現場の復旧作業における遠隔操作可能な移動装置(以下、適宜「遠隔移動装置」と記載する)の利用に伴って、復旧作業の作業効率の向上を目的とした遠隔移動装置の映像提示技術の開発が盛んに行なわれている。例えば、災害現場の映像提示技術の1つとして例示される俯瞰映像提示システムは、遠隔移動装置に広角レンズを備えた複数台のカメラを搭載し、複数台のカメラから取得した映像を処理することによって、遠隔移動装置を上空の第三者視点から俯瞰したような映像を疑似的に提示することができる。 In recent years, along with the use of remote-operable mobile devices (hereinafter referred to as "remote mobile devices") in recovery work at disaster sites, video presentation of remote mobile devices for the purpose of improving the work efficiency of recovery work Technology is being actively developed. For example, a bird's-eye view video presentation system, which is exemplified as one of the video presentation technologies for disaster sites, is equipped with multiple cameras equipped with wide-angle lenses in a remote mobile device, and processes the video acquired from the multiple cameras. Thus, it is possible to present a simulated image of the remote mobile device as if it were viewed from a third person's point of view in the sky.

特表2017-538208号公報Japanese Patent Publication No. 2017-538208 特開2017-173298号公報JP 2017-173298 A 特開2018-50119号公報JP 2018-50119 A

従来の俯瞰映像提示システムは、遠隔移動装置の周囲にある物体が俯瞰映像上に正確に描画されない結果、遠隔移動装置を取り巻く周囲の状況を、遠隔移動装置のオペレータに正確に伝えられない場合がある。 In the conventional bird's-eye view image presentation system, objects around the remote mobile device are not accurately drawn on the bird's-eye view image, and as a result, there are cases where the operator of the remote mobile device cannot be accurately informed of the surrounding conditions surrounding the remote mobile device. be.

本開示は、上記の課題に鑑みてなされたものであって、遠隔操作により移動可能な移動装置を取り巻く周囲の状況をより正確に提示することができる俯瞰映像提示システムを提供することを目的とする。 The present disclosure has been made in view of the above problems, and aims to provide a bird's-eye view video presentation system that can more accurately present the surroundings surrounding a mobile device that can be moved by remote control. do.

上記の目的を達成するため、本開示の一態様の俯瞰映像提示システムは、遠隔操作可能であって、周囲を広角に撮影する複数台の第1カメラと、進行方向を撮影し、かつ奥行方向の深度情報を取得する第2カメラと、を含む移動装置と、前記第1カメラ及び前記第2カメラによって撮影される領域に設置され、かつ寸法情報が既知であるマーカと、前記移動装置とデータ通信可能である情報処理装置と、を備え、前記情報処理装置は、前記第1カメラにより取得される映像を、前記移動装置を俯瞰する仮想的な俯瞰視点から視た映像に視点変換することにより第1俯瞰映像を生成する第1俯瞰映像生成部と、前記第2カメラにより取得された奥行方向の深度情報を含む映像を、前記俯瞰視点から視た映像に視点変換することにより第2俯瞰映像を生成する第2俯瞰映像生成部と、前記第1俯瞰映像に含まれるマーカと前記第2俯瞰映像に含まれるマーカとの相対的な位置関係に基づいて前記第2俯瞰映像を補正し、前記第1俯瞰映像に補正された前記第2俯瞰映像を投影することにより3次元情報を含む第3俯瞰映像を生成する第3俯瞰映像生成部と、を備える。 In order to achieve the above object, a bird's-eye view video presentation system according to one aspect of the present disclosure includes a plurality of first cameras that can be remotely controlled and shoot the surroundings at a wide angle, and shoots in the traveling direction and in the depth direction. a moving device including a second camera that acquires the depth information of the moving device, a marker installed in an area photographed by the first camera and the second camera and having known dimensional information, the moving device and data an information processing device capable of communication, wherein the information processing device converts an image acquired by the first camera into an image viewed from a virtual bird's eye view of the mobile device. a first bird's-eye view generating unit that generates a first bird's-eye view image; and a second bird's-eye view image by converting the image including the depth information in the depth direction acquired by the second camera into an image viewed from the bird's-eye viewpoint. and correcting the second bird's-eye video based on the relative positional relationship between the markers included in the first bird's-eye video and the markers included in the second bird's-eye video, and a third bird's-eye view image generator that generates a third bird's-eye view image including three-dimensional information by projecting the second bird's-eye image corrected to the first bird's-eye image.

俯瞰映像提示システムの望ましい態様として、前記第3俯瞰映像生成部は、前記3次元情報に基づいて、前記第3俯瞰映像における地面から所定の閾値以上の高さ及び所定の閾値以下の深さの障害物を強調表示する。 As a desirable aspect of the bird's-eye view video presentation system, the third bird's-eye view video generator generates a height of a predetermined threshold or more and a depth of a predetermined threshold or less from the ground in the third bird's-eye view video based on the three-dimensional information. Highlight obstacles.

本開示によれば、遠隔操作により移動可能な移動装置を取り巻く周囲の状況をできるだけ正確に提示することができる。 Advantageous Effects of Invention According to the present disclosure, it is possible to present as accurately as possible the circumstances surrounding a mobile device that can be moved by remote control.

図1は、実施形態に係る俯瞰映像提示システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of a bird's-eye view video presentation system according to an embodiment. 図2は、実施形態に係る俯瞰映像提示システムの機能構成を模式的に示すブロック図である。FIG. 2 is a block diagram schematically showing the functional configuration of the bird's-eye view video presentation system according to the embodiment. 図3は、実施形態に係る各座標系の概念を示す図である。FIG. 3 is a diagram showing the concept of each coordinate system according to the embodiment. 図4は、実施形態に係る第1俯瞰映像の一例の一部を示す図である。FIG. 4 is a diagram showing part of an example of the first bird's-eye view image according to the embodiment. 図5は、実施形態に係る第2俯瞰映像の一例を示す図である。FIG. 5 is a diagram showing an example of a second bird's-eye view image according to the embodiment. 図6は、実施形態に係る第3俯瞰映像の一例を示す図である。FIG. 6 is a diagram illustrating an example of a third bird's-eye view image according to the embodiment; 図7は、実施形態に係る変換関数における変数の最適化処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of optimization processing for variables in the transform function according to the embodiment. 図8は、実施形態に係る情報処理装置により実行される俯瞰映像生成処理の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of bird's-eye view image generation processing executed by the information processing apparatus according to the embodiment.

以下に、本発明に係る俯瞰映像提示システムについて実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下の実施形態の記載に限定されるものではない。また、以下の実施形態における構成要素には、当業者が置換可能、且つ、容易なもの、或いは実質的に同一のものが含まれる。さらに、以下に記載した実施形態における構成要素は、本発明の要旨を逸脱しない範囲で構成の種々の省略、置換又は変更を行うことができる。以下の実施形態では、本発明に係る俯瞰映像提示システムの実施形態の1つを例示する上で、必要となる構成要素を説明し、その他の構成要素を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of a bird's-eye view video presentation system according to the present invention will be described in detail below with reference to the drawings. It should be noted that the present invention is not limited to the description of the following embodiments. Components in the following embodiments include those that can be easily replaced by those skilled in the art, or those that are substantially the same. Furthermore, the constituent elements in the embodiments described below can be omitted, replaced, or changed in various ways without departing from the spirit of the present invention. In the following embodiments, necessary constituent elements will be described in order to exemplify one embodiment of the bird's-eye view video presentation system according to the present invention, and other constituent elements will be omitted.

[システムの構成]
図1は、実施形態に係る俯瞰映像提示システムの構成例を示す図である。図2は、実施形態に係る俯瞰映像提示システムの機能構成を模式的に示すブロック図である。
[System configuration]
FIG. 1 is a diagram illustrating a configuration example of a bird's-eye view video presentation system according to an embodiment. FIG. 2 is a block diagram schematically showing the functional configuration of the bird's-eye view video presentation system according to the embodiment.

図1に示すように、実施形態に係る俯瞰映像提示システム1は、遠隔操作可能な移動装置10と、移動装置10とデータ通信可能な情報処理装置100とを含んで構成される。移動装置10及び情報処理装置100は、相互にデータ通信可能な状態で通信ネットワーク5に接続される。通信ネットワーク5は、公衆通信回線及び専用通信回線等を含んで構築されてよい。 As shown in FIG. 1 , a bird's-eye view video presentation system 1 according to the embodiment includes a mobile device 10 capable of remote control and an information processing device 100 capable of data communication with the mobile device 10 . The mobile device 10 and the information processing device 100 are connected to the communication network 5 so as to be able to communicate data with each other. The communication network 5 may be constructed including public communication lines, dedicated communication lines, and the like.

移動装置10は、物体3などが存在する災害現場などを走行する。移動装置10は、魚眼レンズを備える複数の第1カメラ11a~11dと、第2カメラ12と、通信部13と、アクチュエータ14と、記憶部15と、制御部16とを有する。移動装置10は、情報処理装置100から受信する動作コマンドに従って走行してもよいし、情報処理装置100とは別の遠隔装置から受信する動作コマンドに従って走行してもよい。移動装置10として、参考文献1(新エネルギー・産業技術総合開発機構:災害対応無人化システム研究開発プロジェクト 計測・作業要素技術の開発 水陸両用モニタリングデバイスの開発,平成23年度~平成24年度成果報告書(2013))における災害対応プロジェクトで開発された装置が例示される。 The mobile device 10 travels in a disaster site or the like where the object 3 or the like exists. The mobile device 10 includes a plurality of first cameras 11 a to 11 d each having a fisheye lens, a second camera 12 , a communication section 13 , an actuator 14 , a storage section 15 and a control section 16 . The mobile device 10 may run according to an operation command received from the information processing device 100 or may run according to an operation command received from a remote device other than the information processing device 100 . As a mobile device 10, reference document 1 (New Energy and Industrial Technology Development Organization: Unmanned disaster response system research and development project Development of measurement and work element technology Development of amphibious monitoring device, 2011-2012 achievement report (2013)) is exemplified by the equipment developed in the disaster response project.

第1カメラ11a~11dは、移動装置10の周囲(周辺環境)を所定の撮影範囲よりも広角に撮影する。第1カメラ11a~11dは、例えば、180度前後の広い画角を持った魚眼レンズを備える。第1カメラ11a~11dは、本実施形態において、移動装置10の進行方向に対して、左右の斜め前側及び斜め後側に設けられるが、前後左右にそれぞれ設けられてもよい。以下の説明において、第1カメラ11a~11dにより取得される映像データに基づく映像を、「第1カメラ映像11G」と表記する場合がある。移動装置10に第1カメラ11a~11dを設置する場合、例えば、参考文献2(小松 廉,藤井 浩光,山下 淳,淺間一:カメラ配置設計による故障時に備えたロボット遠隔操作のための俯瞰映像提示システムの開発,精密工学学会誌,81,12(2015)1206)に提案される配置に基づいて設置することができる。 The first cameras 11a to 11d photograph the surroundings (surrounding environment) of the mobile device 10 at a wider angle than a predetermined photographing range. The first cameras 11a to 11d each have a fisheye lens with a wide angle of view of around 180 degrees, for example. In this embodiment, the first cameras 11a to 11d are provided on the left and right oblique front and oblique rear sides with respect to the moving direction of the mobile device 10, but may be provided on the front, rear, left and right, respectively. In the following description, the image based on the image data acquired by the first cameras 11a to 11d may be referred to as "first camera image 11G". When the first cameras 11a to 11d are installed in the mobile device 10, for example, refer to Reference 2 (Ren Komatsu, Hiromitsu Fujii, Jun Yamashita, Hajime Asama: Overhead View Video Presentation for Robot Remote Control in Case of Failure Due to Camera Layout Design It can be installed based on the layout proposed in System Development, Journal of Precision Engineering, 81, 12 (2015) 1206).

第2カメラ12は、移動装置10の進行方向に設けられる。第2カメラ12は、移動装置10の進行方向を撮影し、かつ奥行方向の深度情報を取得する。第2カメラ12は、対象物を複数の異なる方向から同時に撮影することにより、奥行方向の情報も記録するステレオカメラである。第2カメラ12は、少なくとも奥行方向の情報を含む深度画像を撮影できればよい。第2カメラ12は、例えば、RGB-Dセンサでもよい。RGB-Dセンサは、深度画像に加えてRGB画像を取得するセンサである。RGB-Dセンサは、深度画像を撮影する二眼の赤外線カメラと、RGB画像を撮影する一眼のRGBカメラと、を含む。第2カメラ12の水平方向の視野角は、例えば、88.2度以上94.2度以下である。垂直方向の視野角は、例えば、62.5度以上68.5度以下である。第2カメラ12は、物体の表面の位置を示す3次元点の集合体である3次元点群の情報を3次元情報として取得できる。第2カメラ12により取得される3次元点群を構成する各3次元点は、物体の表面の位置を示す3次元座標値で表される。3次元座標値は、任意の原点における、X軸方向、Y軸方向、Z軸方向の各軸に対応する座標値で構成される。 The second camera 12 is provided in the traveling direction of the mobile device 10 . The second camera 12 captures the traveling direction of the mobile device 10 and acquires depth information in the depth direction. The second camera 12 is a stereo camera that also records information in the depth direction by simultaneously photographing the object from a plurality of different directions. The second camera 12 only needs to capture a depth image including at least information in the depth direction. The second camera 12 may be, for example, an RGB-D sensor. An RGB-D sensor is a sensor that acquires RGB images in addition to depth images. RGB-D sensors include a twin-lens infrared camera that captures depth images and a single-lens RGB camera that captures RGB images. The horizontal viewing angle of the second camera 12 is, for example, 88.2 degrees or more and 94.2 degrees or less. The viewing angle in the vertical direction is, for example, 62.5 degrees or more and 68.5 degrees or less. The second camera 12 can acquire, as three-dimensional information, information on a three-dimensional point group, which is an aggregate of three-dimensional points indicating the position of the surface of an object. Each three-dimensional point forming the three-dimensional point group acquired by the second camera 12 is represented by a three-dimensional coordinate value indicating the position on the surface of the object. A three-dimensional coordinate value is composed of coordinate values corresponding to each of the X-axis direction, Y-axis direction, and Z-axis direction at an arbitrary origin.

通信部13は、通信ネットワーク5を介して、情報処理装置100との間で各種データをやり取りするためのデータ通信を実行する。通信部13は、走行に関する動作コマンドを受信できる。通信部13は、動作コマンドを制御部16に送出できる。通信部13は、情報処理装置100に対して、第1カメラ11a~11dにより取得された映像データ、及び第2カメラ12により取得された映像データ及び深度情報を送信できる。通信部13は、情報処理装置100との間の通信を可能とする各種通信方式をサポートできる。通信部13の通信方式は、無線通信及び有線通信のいずれの通信方式を適用してもよい。 The communication unit 13 performs data communication for exchanging various data with the information processing apparatus 100 via the communication network 5 . The communication unit 13 can receive operation commands related to running. The communication unit 13 can send operation commands to the control unit 16 . The communication unit 13 can transmit the video data acquired by the first cameras 11 a to 11 d and the video data and depth information acquired by the second camera 12 to the information processing device 100 . The communication unit 13 can support various communication methods that enable communication with the information processing device 100 . Either wireless communication or wired communication may be applied as the communication method of the communication unit 13 .

アクチュエータ14は、制御部16の制御信号を、移動装置10が災害現場などの走行面2の走行させるための動力に変換する。アクチュエータ14は、例えば、電気モータなどを含む。 The actuator 14 converts a control signal from the control unit 16 into power for causing the mobile device 10 to travel on the travel surface 2 such as a disaster site. Actuator 14 includes, for example, an electric motor.

記憶部15は、制御部16により実行される各種処理を実現するためのプログラム及びデータを記憶する。記憶部15が記憶するプログラムにより提供される機能は、移動装置10の走行を制御する機能、並びに第1カメラ11a~11dにより取得された映像データ及び第2カメラ12により取得された映像データ及び深度情報を情報処理装置100に送信する機能を含む。記憶部15は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、またはDVDにより実装されてよい。 The storage unit 15 stores programs and data for realizing various processes executed by the control unit 16 . The functions provided by the program stored in the storage unit 15 are the function of controlling the running of the mobile device 10, the image data acquired by the first cameras 11a to 11d, the image data acquired by the second camera 12, and the depth It includes a function of transmitting information to the information processing apparatus 100 . The storage unit 15 is a non-volatile or volatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (registered trademark) (Electrically Erasable Programmable Read Only Memory). may be implemented by optical semiconductor memory, a magnetic disk, a floppy disk, an optical disk, a compact disk, a minidisk, or a DVD.

制御部16は、記憶部15に記憶されているプログラム及びデータに基づいて、移動装置10に関する各種処理を実行する。特に、本実施形態において、制御部16は、通信部13を介して、第1カメラ11a~11dにより取得された映像データ、及び第2カメラ12により検出された3次元情報を情報処理装置100に送信する。制御部16は、CPU(Central Processing Unit)マイクロプロセッサ、マイクロコンピュータ、DSP、システムLSI(Large Scale Integration)などのプロセッサにより実装されてよい。 The control unit 16 executes various processes related to the mobile device 10 based on the programs and data stored in the storage unit 15 . In particular, in the present embodiment, the control unit 16 transmits video data acquired by the first cameras 11a to 11d and three-dimensional information detected by the second camera 12 to the information processing apparatus 100 via the communication unit 13. Send. The control unit 16 may be implemented by a processor such as a CPU (Central Processing Unit) microprocessor, microcomputer, DSP, or system LSI (Large Scale Integration).

移動装置10は、段差などがある不整地な災害現場の走行面に追従できるクローラ、クローラを下部に備える台車、及び台車上に配置された胴体部などを備えてよい。上述した第1カメラ11a~11d及び第2カメラ12は、胴体部に設置されてよい。 The mobile device 10 may include a crawler that can follow a rough surface of a disaster site with steps, a carriage provided with the crawler at the bottom, and a body part arranged on the carriage. The first cameras 11a to 11d and the second camera 12 described above may be installed on the body.

情報処理装置100は、移動装置10から受信する映像データ及び3次元情報を用いて、移動装置10の周囲にある物体の位置を提示する俯瞰映像を生成する。情報処理装置100は、通信部111と、表示部113と、記憶部115と、制御部117とを備える。 The information processing device 100 uses the video data and three-dimensional information received from the mobile device 10 to generate a bird's-eye view image presenting the positions of objects around the mobile device 10 . Information processing apparatus 100 includes communication unit 111 , display unit 113 , storage unit 115 , and control unit 117 .

通信部111は、通信ネットワーク5を介して、移動装置10との間で各種データをやり取りするためのデータ通信を実行する。通信部111は、移動装置10から送信された映像データ、及び3次元情報を受信できる。通信部111は、移動装置10との間の通信を可能とする各種通信方式をサポートできる。通信部111の通信方式は、無線通信及び有線通信のいずれの通信方式を適用してもよい。 The communication unit 111 executes data communication for exchanging various data with the mobile device 10 via the communication network 5 . The communication unit 111 can receive video data and 3D information transmitted from the mobile device 10 . The communication unit 111 can support various communication schemes that enable communication with the mobile device 10 . Either wireless communication or wired communication may be applied as the communication method of the communication unit 111 .

表示部113は各種情報を表示する。表示部113は、後述する制御部117により生成された俯瞰映像を表示できる。表示部113は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを含んでよい。表示部113は、タッチスクリーンなどの入力デバイスを含んでよい。 The display unit 113 displays various information. The display unit 113 can display a bird's-eye view image generated by the control unit 117, which will be described later. The display unit 113 may include a display device such as a liquid crystal display (LCD), an organic electro-luminescence display (OELD), or an inorganic electro-luminescence display (IELD). Display unit 113 may include an input device such as a touch screen.

記憶部115は、制御部117により実行される各種処理を実現するためのプログラム及びデータを記憶する。記憶部115が記憶するプログラムにより提供される機能は、移動装置10の周囲にある物体の位置を提示する俯瞰映像を生成する機能を含む。記憶部115が記憶するデータは、移動装置10から受信する映像データ及び3次元情報を含む。記憶部15は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、またはDVDにより実装されてよい。 Storage unit 115 stores programs and data for realizing various processes executed by control unit 117 . The functions provided by the programs stored in the storage unit 115 include a function of generating a bird's-eye view image presenting the positions of objects around the mobile device 10 . The data stored by the storage unit 115 includes video data and 3D information received from the mobile device 10 . The storage unit 15 is a non-volatile or volatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (registered trademark) (Electrically Erasable Programmable Read Only Memory). may be implemented by optical semiconductor memory, a magnetic disk, a floppy disk, an optical disk, a compact disk, a minidisk, or a DVD.

制御部117は、記憶部115に記憶されているプログラム及びデータに基づいて、移動装置10に関する各種処理を実行する。特に、本実施形態において、制御部117は、移動装置10の周囲にある物体の位置を提示する俯瞰映像を生成する処理を実行する。制御部117は、CPU(Central Processing Unit)マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)、システムLSI(Large Scale Integration)などのプロセッサを含んで実装されてよい。制御部117は、記憶部115に記憶されているプログラムを読み出してRAMなどのワーキングメモリに展開し、ワーキングメモリに展開されたプログラムに含まれる命令をCPUなどのプロセッサに実行させる。これにより、制御部117は、以下に説明する第1俯瞰映像生成部117a、第2俯瞰映像生成部117b、並びに第3俯瞰映像生成部117cにより提供される各機能に基づいた各処理を実行できる。 The control unit 117 executes various processes related to the mobile device 10 based on the programs and data stored in the storage unit 115 . In particular, in the present embodiment, the control unit 117 executes processing for generating a bird's-eye view image presenting the positions of objects around the mobile device 10 . The control unit 117 may be implemented including a processor such as a CPU (Central Processing Unit) microprocessor, a microcomputer, a DSP (Digital Signal Processor), or a system LSI (Large Scale Integration). The control unit 117 reads out a program stored in the storage unit 115, develops it in a working memory such as a RAM, and causes a processor such as a CPU to execute instructions included in the program developed in the working memory. Thereby, the control unit 117 can execute each process based on each function provided by the first bird's-eye image generation unit 117a, the second bird's-eye image generation unit 117b, and the third bird's-eye image generation unit 117c, which will be described below. .

制御部117は、第1俯瞰映像生成部117aと、第2俯瞰映像生成部117bと、第3俯瞰映像生成部117cと、を有する。 The control unit 117 has a first bird's-eye image generation unit 117a, a second bird's-eye image generation unit 117b, and a third bird's-eye image generation unit 117c.

第1俯瞰映像生成部117aは、移動装置10から受信する映像データ、すなわち第1カメラ11a~11dにより取得される映像(第1カメラ映像)を、移動装置10を俯瞰する仮想的な俯瞰視点から視た映像に視点変換することにより第1俯瞰映像を生成する。第1俯瞰映像生成部117aは、移動装置10の第1カメラ11a~11dにより撮影された全ての物体がロボット座標系21におけるある平面上に存在するという仮定の下、第1カメラ映像11Gをその平面上に透視投影した後、視点変換処理を行うことにより、第1俯瞰映像を生成する。第1俯瞰映像生成部117aは、参考文献3(佐藤高亮,藤井浩光,Alessandro Moro,山下淳,淺間一:複数の魚眼カメラとLRFを用いた重畳型全方位俯瞰映像提示手法の構築,第13回計測自動制御学会システムインテグレーション部門講演会講演論文集(2012))に提案される従来手法を用いることによって、第1俯瞰映像を生成できる。 The first bird's-eye view image generation unit 117a generates image data received from the mobile device 10, that is, images (first camera images) acquired by the first cameras 11a to 11d from a virtual bird's-eye view point of the mobile device 10. A first bird's-eye view image is generated by converting the viewpoint into the viewed image. Under the assumption that all objects captured by the first cameras 11a to 11d of the mobile device 10 exist on a certain plane in the robot coordinate system 21, the first bird's-eye view image generator 117a generates the first camera image 11G. After performing perspective projection onto a plane, viewpoint conversion processing is performed to generate a first bird's-eye view image. The first bird's-eye view image generation unit 117a is based on Reference Document 3 (Takaki Sato, Hiromitsu Fujii, Alessandro Moro, Jun Yamashita, Hajime Asama: Construction of a superimposed omnidirectional bird's-eye video presentation method using multiple fisheye cameras and LRF, The first bird's-eye view image can be generated by using the conventional method proposed in the 13th Society of Instrument and Control Engineers System Integration Division Lecture Proceedings (2012).

[座標系の定義]
図3は、実施形態に係る各座標系の概念を示す図である。図3に示す座標系21は、移動装置10の座標系である。図3において、ロボット座標系21のx平面は、床面(移動装置10の走行面2)と同一であり、z軸の正方向は、床面に対して鉛直上向きとする。以下、図3に示す座標系21を、適宜「ロボット座標系21」と表記する。図3に示す座標系23は、例えば、第1カメラ11aの位置及び姿勢を規定する座標系である。以下、図3に示す座標系23を、適宜「第1カメラ座標系23」と表記する。なお、図示は省略するが、第1カメラ座標系23と同様に、第1カメラ11b~11dの位置及び姿勢を規定する座標系が設定される。図3に示す座標系25は、第2カメラ12により取得される検出点を規定する座標系である。以下、図3に示す座標系25を、適宜「第2カメラ座標系25」と表記する。図3に示す座標系27は、例えば、第1カメラ11aにより撮影される第1カメラ映像11G上の点を規定する座標系である。以下、図3に示す座標系27を、適宜「第1カメラ画像座標系27」と表記する。なお、図示は省略するが、第1カメラ画像座標系27と同様に、第1カメラ11b~11dにより撮影される第1カメラ映像11G上の点を規定する座標系が設定される。図3に示す座標系29は、第2カメラ12により撮影される第2カメラ映像12G上の点を規定する座標系である。以下、図3に示す座標系29を、適宜「第2カメラ画像座標系29」と表記する。図3に示す座標系31は、移動装置10を上空から俯瞰する位置にあると仮定した仮想的な仮想カメラ33による仮想カメラ映像33G上の点の位置を規定する座標系である。以下、図3に示す座標系31を、適宜「仮想カメラ画像座標系31」と表記する。ロボット座標系21における点P=[x,y,zの第1カメラ座標系23における表現を点P=[x,y,zとする。ロボット座標系21における点P=[x,y,zの第2カメラ座標系25における表現を点P=[x,y,zとする。ロボット座標系21における点P=[x,y,zの第1カメラ画像座標系27における表現を点m=[u,vとする。ロボット座標系21における点P=[x,y,zの第2カメラ画像座標系29における表現を点m=[u,vとする。第1俯瞰映像生成部117aは、各座標系における各点を、仮想カメラ画像座標系31における点m=[u,vに変換する。以下の説明において、任意の座標系における点Nの同次座標系による座標表現をNとする。
[Definition of coordinate system]
FIG. 3 is a diagram showing the concept of each coordinate system according to the embodiment. A coordinate system 21 shown in FIG. 3 is the coordinate system of the mobile device 10 . In FIG. 3, the xwyw plane of the robot coordinate system 21 is the same as the floor surface (running surface 2 of the mobile device 10), and the positive direction of the zw axis is vertically upward with respect to the floor surface. Hereinafter, the coordinate system 21 shown in FIG. 3 will be appropriately referred to as "robot coordinate system 21". A coordinate system 23 shown in FIG. 3 is, for example, a coordinate system that defines the position and orientation of the first camera 11a. Hereinafter, the coordinate system 23 shown in FIG. 3 will be appropriately referred to as "first camera coordinate system 23". Although illustration is omitted, a coordinate system that defines the positions and orientations of the first cameras 11b to 11d is set like the first camera coordinate system . A coordinate system 25 shown in FIG. 3 is a coordinate system that defines detection points acquired by the second camera 12 . Hereinafter, the coordinate system 25 shown in FIG. 3 will be appropriately referred to as "second camera coordinate system 25". A coordinate system 27 shown in FIG. 3 is, for example, a coordinate system that defines points on the first camera image 11G captured by the first camera 11a. Hereinafter, the coordinate system 27 shown in FIG. 3 will be appropriately referred to as "first camera image coordinate system 27". Although not shown, like the first camera image coordinate system 27, a coordinate system that defines points on the first camera image 11G captured by the first cameras 11b to 11d is set. A coordinate system 29 shown in FIG. 3 is a coordinate system that defines points on the second camera image 12</b>G captured by the second camera 12 . Hereinafter, the coordinate system 29 shown in FIG. 3 will be appropriately referred to as "second camera image coordinate system 29". A coordinate system 31 shown in FIG. 3 is a coordinate system that defines the positions of points on a virtual camera image 33G captured by a virtual camera 33 that is assumed to be located at a position where the mobile device 10 is viewed from above. Hereinafter, the coordinate system 31 shown in FIG. 3 will be appropriately referred to as "virtual camera image coordinate system 31". Let point P f =[x f , y f , z f ] T represent the point P w =[x w , y w , z w ] T in the robot coordinate system 21 in the first camera coordinate system 23 . Let P d =[x d , y d , z d ] T represent the point P w =[x w , y w , z w ] T in the robot coordinate system 21 in the second camera coordinate system 25 . Let the representation of the point Pw =[ xw , yw , zw ] T in the robot coordinate system 21 in the first camera image coordinate system 27 be the point mf=[ uf , vf ] T . Let the representation of the point Pw =[ xw , yw , zw ] T in the robot coordinate system 21 in the second camera image coordinate system 29 be the point md =[ ud , vd ] T . The first bird's-eye view image generator 117a converts each point in each coordinate system into a point mv =[ uv , vv ] T in the virtual camera image coordinate system 31. FIG. In the following description, the coordinate representation of point N in an arbitrary coordinate system by a homogeneous coordinate system is assumed to be N .

[マーカの設置]
移動装置10の第1カメラ11a~11d及び第2カメラ12が撮影する所定領域には、マーカ35が設置される。マーカ35は、少なくとも既知の寸法情報を有する。マーカ35は、本実施形態において、各辺の長さが既知である矩形状の薄板である。マーカ35の形状は、特に限定されない。マーカ35は、所定領域に複数設置されてもよい。マーカ35は、例えば、各々のマーカ35を区別するための識別子を含んでもよい。マーカ35の寸法情報及び識別子は、記憶部115に予め記憶される。
[Set marker]
A marker 35 is installed in a predetermined area photographed by the first cameras 11 a to 11 d and the second camera 12 of the mobile device 10 . Marker 35 has at least known dimensional information. In this embodiment, the marker 35 is a rectangular thin plate with known side lengths. The shape of the marker 35 is not particularly limited. A plurality of markers 35 may be installed in a predetermined area. The markers 35 may include identifiers for distinguishing each marker 35, for example. The dimension information and identifier of the marker 35 are pre-stored in the storage unit 115 .

[第1俯瞰映像の作成]
第1俯瞰映像生成部117aは、以下に示す式(1)で示される第1カメラ座標系23における点P=[x,y,zと、第1カメラ画像座標系27における点m=[u,vとの関係に基づいて、魚眼レンズにより撮影された映像特有の歪みを除去した透視投影映像を生成する。以下に示す式(1)は、参考文献4(Davide Schramuzza, Agostion Martinelli, and Roland Siegwart: A flexible technique for accurate omnidirectional camera calibration and structure from motion, Proceeding of IEEE International Conference of Computer Vision Systems (2006) 45)及び参考文献5(Davide Schramuzza, Agostion Martinelli, and Roland Siegwart: A toolbox for easily calibrating omnidirectional cameras, Proceedings of IEEE/RSJ International Conference of Intelligent Robots and Systems (2006) 5695)に提案される手法によって求められる。
[Creation of first bird's-eye view video]
The first bird's-eye view image generation unit 117a generates a point P f =[x f , y f , z f ] T in the first camera coordinate system 23 shown in Equation (1) below, and the first camera image coordinate system 27 Based on the relationship with the point m f =[u f , v f ] T at , a perspective projection image is generated from which the distortion peculiar to the image captured by the fisheye lens is removed. Formula (1) shown below is derived from reference 4 (Davide Schramuzza, Agostion Martinelli, and Roland Siegwart: A flexible technique for accurate omnidirectional camera calibration and structure from motion, Proceeding of IEEE International Conference of Computer Vision Systems (2006) 45) and Reference 5 (Davide Schramuzza, Agostion Martinelli, and Roland Siegwart: A toolbox for easily calibrating omnidirectional cameras, Proceedings of IEEE/RSJ International Conference of Intelligent Robots and Systems (2006) 5695).

Figure 0007162218000001
Figure 0007162218000001

式(1)における「f(u,u)」は、第1カメラ画像座標系27における原点からの距離√{u +u }に関する関数であり、式(1)における「a」は、第1カメラ座標系23における各点と第1カメラ画像座標系27における各方向ベクトルの関係を等式で表現するために設定する定数である。 “f(u f , u v )” in Equation (1) is a function related to the distance √{u f 2 +u v 2 } from the origin in the first camera image coordinate system 27, and “a ' are constants set to express the relationship between each point in the first camera coordinate system 23 and each direction vector in the first camera image coordinate system 27 by an equation.

続いて、第1俯瞰映像生成部117aは、上述した式(1)に基づいて生成した透視投影映像を、特定の平面に対して透視投影する。ロボット座標系21と第1カメラ画像座標系27は、3×4行列の透視投影行列Hw→fにより関係付けることができ、ロボット座標系21と第1カメラ画像座標系27との間には、以下の式(2)の関係が成立する。 Subsequently, the first bird's-eye view image generation unit 117a perspectively projects the perspective projection image generated based on the above equation (1) onto a specific plane. The robot coordinate system 21 and the first camera image coordinate system 27 can be related by a 3×4 matrix of perspective projection matrix Hw→f , and the relationship between the robot coordinate system 21 and the first camera image coordinate system 27 is , the relationship of the following equation (2) holds.

Figure 0007162218000002
Figure 0007162218000002

移動装置10の第1カメラ11a~11dにより撮影された全ての物体がロボット座標系21におけるある平面上に存在すると仮定する。例えば、第1カメラ映像11Gをz=0の平面(床面)に透視投影する場合、以下の式(3)に示すように、透視投影行列Hw→fの3列目成分を省略できる。 Assume that all the objects photographed by the first cameras 11a to 11d of the mobile device 10 exist on a plane in the robot coordinate system 21. FIG. For example, when perspectively projecting the first camera image 11G onto a plane (floor surface) of z w =0, the third column component of the perspective projection matrix H w→f can be omitted as shown in the following equation (3). .

Figure 0007162218000003
Figure 0007162218000003

ここで、式(3)におけるH´w→fおよびP´は、それぞれ、H´w→fの3列目と、P´の3行目の成分を省略した行列とする。式(3)により、ロボット座標系21と、第1カメラ画像座標系27との関係が決定される。 Here, H'w →f and P ~ ' w in equation (3) are matrices in which the third column of H'w →f and the third row of P ~ ' w are omitted. Equation (3) determines the relationship between the robot coordinate system 21 and the first camera image coordinate system 27 .

続いて、第1俯瞰映像生成部117aは、上述した式(3)に示す関係に基づいて、特定の平面に対して透視投影された透視投影映像の視点変換処理を行い、第1俯瞰映像を生成する。ここでは、z軸方向視の第1俯瞰映像に生成する手法について説明する。まず、第1俯瞰映像生成部117aは、ロボット座標系21と仮想カメラ画像座標系31との関係を求める。ロボット座標系21と仮想カメラ画像座標系31との間には、以下の式(4)の関係が成立する。 Subsequently, the first bird's-eye view image generating unit 117a performs viewpoint conversion processing of the perspective projection image perspectively projected onto a specific plane based on the relationship shown in the above-described formula (3), and generates the first bird's-eye view image. Generate. Here, a method for generating the first bird's-eye view image viewed in the zw -axis direction will be described. First, the first bird's-eye view image generation unit 117 a obtains the relationship between the robot coordinate system 21 and the virtual camera image coordinate system 31 . Between the robot coordinate system 21 and the virtual camera image coordinate system 31, the following formula (4) holds.

Figure 0007162218000004
Figure 0007162218000004

式(4)におけるH´w→vは、ロボット座標系21と仮想カメラ画像座標系31とを関係付ける透視投影行列Hw→vの3列目の成分を省略した行列である。上述した式(3)および式(4)を用いると、第1カメラ画像座標系27と仮想カメラ画像座標系31との間には、式(5)に示す関係が成立する。 H′w →v in Equation (4) is a matrix obtained by omitting the third column component of the perspective projection matrix Hw →v that relates the robot coordinate system 21 and the virtual camera image coordinate system 31 . Using the above equations (3) and (4), the relationship shown in equation (5) is established between the first camera image coordinate system 27 and the virtual camera image coordinate system 31 .

Figure 0007162218000005
Figure 0007162218000005

ただし、式(5)において、H´f→w=(H´w→f-1である。第1俯瞰映像生成部117aは、式(5)より、移動装置10から受信した第1カメラ映像11G(映像データ)から、移動装置10を上空から俯瞰したような第1俯瞰映像を生成できる。第1俯瞰映像は、仮想カメラ映像33Gである。 However, in Equation (5), H′ f→w =(H′ w→f ) −1 . The first bird's-eye view image generation unit 117a can generate a first bird's-eye view image of the mobile device 10 from the sky, from the first camera image 11G (video data) received from the mobile device 10, according to Equation (5). The first bird's-eye view image is the virtual camera image 33G.

ここで、式(5)から確認できるように、H´w→vおよびH´f→wを求める必要がある。本実施形態では、参考文献6(佐藤 高亮,藤井 浩光,Alessandro Moro,杉元 和也,野末 晃,三村 洋一,小幡 克実,山下 淳,淺間一:無人化施工用俯瞰映像システムの開発,日本機械学会論文集,81,823(2015)1)、及び参考文献7(淺利 圭介,石井洋平,本郷 仁志,蚊野 浩:鳥瞰画像生成における校正環境の簡易化,第13回画像センシングシンポジウム予稿集(2017)IN1-13)などに提案される手法を参考として、H´w→vおよびH´f→wを非線形の最適化手法により推定する。推定したH´w→vおよびH´f→wの行列をもとに、第1カメラ11a~11dにより取得される第1カメラ映像11Gと、仮想カメラ33により取得される仮想カメラ映像33Gの各画素の1対1の対応関係をあらかじめ取得することができる。なお、第1カメラ映像11Gと仮想カメラ映像33Gの各画素の1対1の対応関係をルックアップテーブルとしてあらかじめ保存しておいて、第1俯瞰映像の生成時に利用できるようにしてもよい。上述した第1俯瞰映像の生成方法の例では、第1俯瞰映像をz軸方向視の映像に限定したが、俯瞰視点の方向はこれに限定されない。 Now, as can be seen from equation (5), we need to find H'w →v and H'f →w . In this embodiment, reference 6 (Kosuke Sato, Hiromitsu Fujii, Alessandro Moro, Kazuya Sugimoto, Akira Nozue, Yoichi Mimura, Katsumi Obata, Jun Yamashita, Hajime Asama: Development of overhead view video system for unmanned construction, Nihon Kikai Academic Proceedings, 81, 823 (2015) 1), and reference 7 (Keisuke Asari, Yohei Ishii, Hitoshi Hongo, Hiroshi Kano: Simplification of calibration environment for bird's-eye image generation, Proceedings of the 13th Image Sensing Symposium ( 2017) IN1-13), H'w →v and H'f →w are estimated by a nonlinear optimization method. Based on the estimated H′w →v and H′f →w matrices, each of the first camera image 11G acquired by the first cameras 11a to 11d and the virtual camera image 33G acquired by the virtual camera 33 is calculated. A one-to-one correspondence of pixels can be obtained in advance. Note that the one-to-one correspondence between each pixel of the first camera image 11G and the virtual camera image 33G may be stored in advance as a lookup table so that it can be used when generating the first bird's-eye view image. In the example of the method for generating the first bird's-eye view image described above, the first bird's-eye view image is limited to the image viewed in the zw -axis direction, but the direction of the bird's-eye view is not limited to this.

[第2俯瞰映像の作成]
第2俯瞰映像生成部117bは、第2カメラ座標系25における点P=[x,y,zと、第2カメラ画像座標系29における点m=[u,vとの関係に基づいて、第2カメラ映像12Gの視点変換処理を行い、第2俯瞰映像を生成する。この際、第2俯瞰映像の座標系は、仮想カメラ画像座標系31に合わせる。第2カメラ映像12Gから第2俯瞰映像への視点変換処理は、平行移動及び回転のみで行われる。第1俯瞰映像の俯瞰視点を、第2カメラ12の視点に合わせることも可能である。この場合、第1俯瞰映像生成部117aは、第1カメラ映像11Gから生成された透視投影映像を、第2カメラ座標系25に視点変換処理を行い、第1俯瞰映像を生成する。第2俯瞰映像生成部117bは、第2カメラ映像12Gから第2俯瞰映像への視点変換処理を省略する。
[Creation of second bird's-eye view video]
The second bird's-eye view image generation unit 117b generates a point P d =[x d , y d , z d ] T in the second camera coordinate system 25 and a point m d =[u d , v in the second camera image coordinate system 29 . d ] Based on the relationship with T , viewpoint conversion processing is performed on the second camera image 12G to generate a second bird's-eye view image. At this time, the coordinate system of the second bird's-eye view image is aligned with the virtual camera image coordinate system 31 . Viewpoint conversion processing from the second camera image 12G to the second bird's-eye view image is performed only by translation and rotation. It is also possible to match the bird's-eye viewpoint of the first bird's-eye video with the viewpoint of the second camera 12 . In this case, the first bird's-eye view image generation unit 117a performs viewpoint conversion processing on the perspective projection image generated from the first camera image 11G to the second camera coordinate system 25 to generate the first bird's-eye image. The second bird's-eye view image generation unit 117b omits the viewpoint conversion processing from the second camera image 12G to the second bird's-eye view image.

[第3俯瞰映像の作成]
図4は、実施形態に係る第1俯瞰映像の一例の一部を示す図である。図5は、実施形態に係る第2俯瞰映像の一例を示す図である。図6は、実施形態に係る第3俯瞰映像の一例を示す図である。図4に示す第1俯瞰映像G1は、上述した第1俯瞰映像(仮想カメラ映像33G(図3参照))と同様に作成される。図5に示す第2俯瞰映像G2は、上述した第2俯瞰映像と同様に作成される。第1俯瞰映像G1及び第2俯瞰映像G2には、マーカ35が含まれる。
[Creation of third bird's-eye view video]
FIG. 4 is a diagram showing part of an example of the first bird's-eye view image according to the embodiment. FIG. 5 is a diagram showing an example of a second bird's-eye view image according to the embodiment. FIG. 6 is a diagram illustrating an example of a third bird's-eye view image according to the embodiment; The first bird's-eye view image G1 shown in FIG. 4 is created in the same manner as the above-described first bird's-eye view image (virtual camera image 33G (see FIG. 3)). The second bird's-eye view image G2 shown in FIG. 5 is created in the same manner as the above-described second bird's-eye view image. A marker 35 is included in the first bird's-eye view image G1 and the second bird's-eye view image G2.

第1カメラ11a~11dにより取得された第1カメラ映像11Gに基づいて作成される第1俯瞰映像G1上の点M(M、M、・・・、M)の座標は、第2カメラ映像12Gに基づいて作成される第2俯瞰映像G2上の点S(S、S、・・・、S)の座標と、ロボット座標系21において同一座標の点である。点Mの座標は、仮想カメラ画像座標系31において、対応する点Sの座標に対して、差異を有する。第3俯瞰映像生成部117cは、記憶部115に記憶されたマーカ35の情報、第1俯瞰映像G1及び第2俯瞰映像G2に基づいて、点M及び点Sを設定する。点Mは、本実施形態において、第1俯瞰映像G1のマーカ35の角である。点Sは、本実施形態において、第2俯瞰映像G2のマーカ35の角である。点Mは、図4において、点M、点M、点M、点Mのみが図示されているが、全てのマーカ35の4角に設定されてもよい。点Sは、図5において、点S、点S、点S、点Sのみが図示されているが、全てのマーカ35の4角に設定されてもよい。点M及び点Sは、オペレータが第1俯瞰映像G1及び第2俯瞰映像G2を見ながら設定してもよい。点M及び点Sは、第1俯瞰映像G1及び第2俯瞰映像G2による識別が可能であれば、マーカ35の角に設定されなくてもよい。例えば、マーカ35に寸法が既知である図形を描画し、図形の所定の位置を点M及び点Sと設定してもよい。第3俯瞰映像生成部117cは、点M及び点Sの点集合{M,S}において、点群Sとの差が最小になるように点群Mを変換する。変換関数Tは、以下の式(6)によって定義される。 The coordinates of points M i (M 1 , M 2 , . The point has the same coordinates in the robot coordinate system 21 as the coordinates of the point S i (S 1 , S 2 , . The coordinates of the point M i have a difference with respect to the coordinates of the corresponding point S i in the virtual camera image coordinate system 31 . The third bird's-eye view image generator 117c sets the points M i and Si based on the information of the markers 35 stored in the storage unit 115 and the first bird's-eye video G1 and the second bird's-eye video G2. The point M i is the corner of the marker 35 of the first bird's-eye view image G1 in this embodiment. The point Si is the corner of the marker 35 of the second bird's-eye view image G2 in this embodiment. The points M i may be set at the four corners of all the markers 35, although only the points M 1 , M 2 , M 3 and M 4 are shown in FIG. Points S i may be set at the four corners of all the markers 35, although only points S 1 , S 2 , S 3 and S 4 are shown in FIG. The points Mi and Si may be set while the operator watches the first bird's-eye view image G1 and the second bird's-eye view image G2. The points M i and S i do not have to be set at the corners of the marker 35 as long as they can be identified by the first bird's-eye view image G1 and the second bird's-eye view image G2. For example, a figure with known dimensions may be drawn on the marker 35 and predetermined positions of the figure may be set as points Mi and Si . The third bird's-eye view image generation unit 117c transforms the point group M such that the difference from the point group S is minimized in the point set { M, S } of the points Mi and Si. The transformation function T is defined by Equation (6) below.

Figure 0007162218000006
Figure 0007162218000006

式(6)における「θ」は、6自由度の位置、方向、及び倍率を定義する変数である。距離関数は、以下の式(7)によって計算される。 "θ" in equation (6) is a variable that defines the position, orientation, and magnification of the six degrees of freedom. The distance function is calculated by Equation (7) below.

Figure 0007162218000007
Figure 0007162218000007

式(7)における「m」は、m∈T(M,θ)である。式(7)における「s」は、s∈Sである。「θ」は、最適化プロセスによって、ランダムに修正される。図7は、実施形態に係る変換関数における変数の最適化処理の一例を示すフローチャートである。図7における「θbest」は、「θ」の最大値である。図7における「err」は、エラーの許容範囲の閾値である。「θ」の初期値である「initialθ」、「θbest」及び「err」の値は、図7に示す最適化処理が実行される前に、予め任意で設定されるものとする。第3俯瞰映像生成部117cは、移動装置10が移動開始するとステップS51に移行して、処理を開始する。第3俯瞰映像生成部117cは、図7に示すフローチャートの処理を終了すると、移動装置10が停止するまでステップS51から処理を開始する。「θ」は、位置及び方向に乱数[-0.5,0.5]を追加し、倍率に乱数[-0.05,0.05]を追加することによって更新される。乱数は「θrand」によって表される。 “m” in Equation (7) is mεT(M, θ). "s" in equation (7) is sεS. 'θ' is randomly modified by the optimization process. FIG. 7 is a flowchart illustrating an example of optimization processing for variables in the transform function according to the embodiment. “θbest” in FIG. 7 is the maximum value of “θ”. "err" in FIG. 7 is the threshold of the error tolerance. The values of "initial θ", "θbest" and "err", which are the initial values of "θ", are arbitrarily set in advance before the optimization processing shown in Fig. 7 is executed. When the mobile device 10 starts moving, the third bird's-eye view image generator 117c proceeds to step S51 and starts processing. After finishing the process of the flowchart shown in FIG. 7, the third bird's-eye view image generator 117c starts the process from step S51 until the mobile device 10 stops. "θ" is updated by adding random numbers [-0.5, 0.5] to the position and orientation, and [-0.05, 0.05] to the scale factor. A random number is represented by "θrand".

ステップS51において、第3俯瞰映像生成部117cは、式(6)を適用する。ステップS52において、第3俯瞰映像生成部117cは、式(7)を計算する。ステップS53において、第3俯瞰映像生成部117cは、ステップS52において変換した値が、閾値errより小さいか否かを判断する。ステップS53において、distが閾値errより小さいと判断された場合、第3俯瞰映像生成部117cは、ステップS54に移行する。ステップS53において、distが閾値err以上であると判断された場合、第3俯瞰映像生成部117cは、ステップS55に移行する。ステップS54において、第3俯瞰映像生成部117cは、「θbest」の値を「θ」に更新する。第3俯瞰映像生成部117cは、ステップS54を実行すると一連の処理を終了し、ステップS51から処理を再開する。ステップS55において、第3俯瞰映像生成部117cは、「θ」の値を「θbest+θrand」に更新する。第3俯瞰映像生成部117cは、ステップS55を実行すると一連の処理を終了し、ステップS51から処理を再開する。 In step S51, the third bird's-eye view image generator 117c applies Equation (6). In step S52, the third bird's-eye view image generator 117c calculates Equation (7). In step S53, the third bird's-eye view image generator 117c determines whether the value converted in step S52 is smaller than the threshold err. When it is determined in step S53 that dist is smaller than the threshold err, the third bird's-eye view image generator 117c proceeds to step S54. When it is determined in step S53 that dist is greater than or equal to the threshold err, the third bird's-eye view image generator 117c proceeds to step S55. In step S54, the third bird's-eye view image generator 117c updates the value of "θbest" to "θ". After executing step S54, the third bird's-eye view image generator 117c ends the series of processes, and restarts the process from step S51. In step S55, the third bird's-eye view image generator 117c updates the value of "θ" to "θbest+θrand". After executing step S55, the third bird's-eye view image generator 117c ends the series of processes, and restarts the process from step S51.

点群Mは、本実施形態において、第1俯瞰映像G1に含まれるマーカ35の角に設定される。点群Sは、本実施形態において、第2俯瞰映像G2に含まれるマーカ35の角に設定される。すなわち、第3俯瞰映像生成部117cは、第1俯瞰映像G1に含まれるマーカ35と第2俯瞰映像G2に含まれるマーカ35との相対的な位置関係に基づいて、第2俯瞰映像G2を補正する。例えば、第3俯瞰映像生成部117cは、第2俯瞰映像G2に含まれるマーカ35の角に対応する4点の座標が、第1俯瞰映像G1に含まれるマーカ35の角に対応する4点の座標に一致するように、第2俯瞰映像G2を補正する。第3俯瞰映像生成部117cは、第1俯瞰映像G1に補正された第2俯瞰映像G2を投影する。第3俯瞰映像生成部117cは、第1俯瞰映像G1に補正された第2俯瞰映像G2を投影することにより、図6に示す第3俯瞰映像G3を生成する。第3俯瞰映像G3は、3次元情報を含むので、地面と障害物とを判別可能である。第1俯瞰映像G1に含まれるマーカ35の位置の3次元座標の情報が、仮想カメラ画像座標系31における点群の情報にない場合、最も近い点の間で線形補間が行われる。 The point group M is set at the corners of the marker 35 included in the first bird's-eye view image G1 in this embodiment. The point group S is set at the corners of the marker 35 included in the second bird's-eye view image G2 in this embodiment. That is, the third bird's-eye image generator 117c corrects the second bird's-eye image G2 based on the relative positional relationship between the markers 35 included in the first bird's-eye image G1 and the markers 35 included in the second bird's-eye image G2. do. For example, the third bird's-eye image generation unit 117c changes the coordinates of the four points corresponding to the corners of the marker 35 included in the second bird's-eye image G2 to the coordinates of the four points corresponding to the corners of the marker 35 included in the first bird's-eye image G1. The second bird's-eye view image G2 is corrected so as to match the coordinates. The third bird's-eye view image generator 117c projects the corrected second bird's-eye view image G2 onto the first bird's-eye view image G1. The third bird's-eye image generator 117c projects the corrected second bird's-eye image G2 onto the first bird's-eye image G1 to generate the third bird's-eye image G3 shown in FIG. Since the third bird's-eye view image G3 includes three-dimensional information, it is possible to distinguish between the ground and obstacles. If the three-dimensional coordinate information of the position of the marker 35 included in the first bird's-eye view image G1 is not included in the point group information in the virtual camera image coordinate system 31, linear interpolation is performed between the closest points.

第3俯瞰映像生成部117cは、第3俯瞰映像G3における障害物を所定の方法によって強調表示する。障害物は、地面より上方に存在する物体40又は地面より下方に凹んだ穴等である。第3俯瞰映像生成部117cは、地面から所定の閾値以上の高さの点群を地上側の障害物41として強調表示する。所定の閾値は、例えば、地上20cm以上である。第3俯瞰映像生成部117cは、地面から所定の閾値以下の深さの点群を地下側の障害物として強調表示する。所定の閾値は、例えば、地下20cm以下である。所定の閾値は、記憶部115に予め設定される。地上側の障害物41を示す強調表示は、例えば、赤色塗り潰しによる表示である。地下側の障害物を示す強調表示は、例えば、青色塗り潰しによる表示である。強調表示は、例えば障害物を囲う線でもよい。強調表示する方法は、記憶部115に予め設定される。 The third bird's-eye view image generator 117c highlights obstacles in the third bird's-eye view image G3 by a predetermined method. The obstacle is an object 40 existing above the ground, a hole recessed below the ground, or the like. The third bird's-eye view image generation unit 117c highlights a point group having a height above the predetermined threshold from the ground as the obstacle 41 on the ground side. The predetermined threshold is, for example, 20 cm above the ground. The third bird's-eye view image generation unit 117c highlights point groups whose depth is equal to or less than a predetermined threshold from the ground as obstacles on the underground side. The predetermined threshold is, for example, 20 cm below ground. A predetermined threshold value is preset in the storage unit 115 . The highlighted display indicating the obstacle 41 on the ground side is, for example, a red solid display. The highlighting indicating the underground obstacles is, for example, a blue-filled display. The highlighting may be, for example, a line surrounding the obstacle. The method of highlighting is preset in storage unit 115 .

図8は、実施形態に係る情報処理装置により実行される俯瞰映像生成処理の一例を示すフローチャートである。図8に示す処理は、制御部117が、記憶部115に記憶されているプログラム及びデータに基づいて実行する。 FIG. 8 is a flowchart illustrating an example of bird's-eye view image generation processing executed by the information processing apparatus according to the embodiment. The processing shown in FIG. 8 is executed by the control unit 117 based on the programs and data stored in the storage unit 115 .

図8に示すように、ステップS101において、移動装置10の制御部16は、記憶部15に記憶された所定のプログラムに基づいて、第1カメラ11a~11d及び第2カメラ12によって所定の領域を撮影させる。制御部16は、通信部13に、第1カメラ11a~11dによって撮影された第1カメラ映像11G、及び第2カメラ12によって撮影された第2カメラ映像12Gを、通信ネットワーク5を介して、情報処理装置100の通信部111に送信させる。情報処理装置100の制御部117は、取得した第1カメラ映像11G及び第2カメラ映像12Gを記憶部115に記憶させる。 As shown in FIG. 8, in step S101, the control unit 16 of the mobile device 10 selects a predetermined area using the first cameras 11a to 11d and the second camera 12 based on a predetermined program stored in the storage unit 15. take a picture. The control unit 16 transmits the first camera image 11G captured by the first cameras 11a to 11d and the second camera image 12G captured by the second camera 12 to the communication unit 13 via the communication network 5. The data is transmitted to the communication unit 111 of the processing device 100 . The control unit 117 of the information processing apparatus 100 causes the storage unit 115 to store the acquired first camera image 11G and second camera image 12G.

ステップS102において、制御部117の第1俯瞰映像生成部117aは、記憶部115に記憶された第1カメラ映像11Gを俯瞰視点に視点変換し、第1俯瞰映像G1を生成する。俯瞰視点は、移動装置10を任意の方向から俯瞰する仮想的な俯瞰視点に対応する。制御部117は、第1俯瞰映像G1を表示部113に提示させる。 In step S102, the first bird's-eye view image generation unit 117a of the control unit 117 converts the viewpoint of the first camera image 11G stored in the storage unit 115 into a bird's-eye view point, and generates the first bird's-eye view image G1. A bird's-eye view corresponds to a virtual bird's-eye view that looks down on the mobile device 10 from an arbitrary direction. The control unit 117 causes the display unit 113 to present the first bird's-eye view image G1.

ステップS103において、制御部117の第2俯瞰映像生成部117bは、記憶部115に記憶された第2カメラ映像12Gを俯瞰視点に視点変換し、第2俯瞰映像G2を生成する。制御部117は、第2俯瞰映像G2を表示部113に提示させる。 In step S103, the second bird's-eye view image generation unit 117b of the control unit 117 converts the viewpoint of the second camera image 12G stored in the storage unit 115 into a bird's-eye view point, and generates a second bird's-eye view image G2. The control unit 117 causes the display unit 113 to present the second bird's-eye view image G2.

ステップS104において、制御部117の第3俯瞰映像生成部117cは、マーカ35の位置情報に基づいて、第1俯瞰映像G1に第2俯瞰映像G2を投影する。すなわち、第3俯瞰映像生成部117cは、第1俯瞰映像G1に含まれるマーカ35と第2俯瞰映像G2に含まれるマーカ35との相対的な位置関係に基づいて、第1俯瞰映像G1に第2俯瞰映像G2を投影する。第3俯瞰映像生成部117cは、第1俯瞰映像G1に第2俯瞰映像G2を投影することにより第3俯瞰映像G3を生成する。第3俯瞰映像G3は、3次元情報を含むので、地面と障害物とを判別可能である。 In step S104, the third bird's-eye view image generation unit 117c of the control unit 117 projects the second bird's-eye view image G2 on the first bird's-eye image G1 based on the position information of the marker 35. FIG. That is, the third bird's-eye-view image generator 117c creates the first bird's-eye image G1 based on the relative positional relationship between the markers 35 included in the first bird's-eye image G1 and the markers 35 included in the second bird's-eye image G2. 2 Project the bird's-eye view image G2. The third bird's-eye image generator 117c projects the second bird's-eye image G2 onto the first bird's-eye image G1 to generate the third bird's-eye image G3. Since the third bird's-eye view image G3 includes three-dimensional information, it is possible to distinguish between the ground and obstacles.

ステップS105において、制御部117の第3俯瞰映像生成部117cは、第3俯瞰映像G3に含まれる点群の3次元座標情報に基づいて、地面から所定の閾値以上の高さ及び所定の閾値以下の深さの点を抽出する。所定の閾値は、予め記憶部115に設定される値である。第3俯瞰映像生成部117cは、抽出された点を、記憶部115に記憶された所定の方法によって強調表示する。制御部117は、第3俯瞰映像G3を表示部113に提示させる。ステップS105が実行されると、俯瞰映像提示システム1は、図8に示す一連の処理を終了する。 In step S105, the third bird's-eye view image generation unit 117c of the control unit 117 generates a height above a predetermined threshold and a height below a predetermined threshold from the ground based on the three-dimensional coordinate information of the point group included in the third bird's-eye view image G3. Extract points at a depth of . The predetermined threshold value is a value set in the storage unit 115 in advance. The third bird's-eye view image generation unit 117c highlights the extracted points by a predetermined method stored in the storage unit 115. FIG. The control unit 117 causes the display unit 113 to present the third bird's-eye view image G3. When step S105 is executed, the bird's-eye view video presentation system 1 ends the series of processes shown in FIG.

以上で説明したように、俯瞰映像提示システム1は、移動装置10と、マーカ35と、情報処理装置100と、を備える。移動装置10は、遠隔操作可能である。移動装置10は、複数台の第1カメラ11a~11dと、第2カメラ12と、を含む。第1カメラ11a~11dは、周囲を広角に撮影する。第2カメラ12は、進行方向を撮影する。第2カメラ12は、奥行方向の深度情報を取得する。マーカ35は、第1カメラ11a~11d及び第2カメラ12によって撮影される領域に設置される。マーカ35は、寸法情報が既知である。情報処理装置100は、移動装置10とデータ通信可能である。情報処理装置100は、第1俯瞰映像生成部117aと、第2俯瞰映像生成部117bと、第3俯瞰映像生成部117cと、を備える。第1俯瞰映像生成部117aは、第1カメラ11a~11dにより取得される映像(第1カメラ映像11G)を、移動装置10を俯瞰する仮想的な俯瞰視点から視た映像に視点変換することにより第1俯瞰映像G1を生成する。第2俯瞰映像生成部117bは、第2カメラ12により取得された奥行方向の深度情報を含む映像を、俯瞰視点から視た映像に視点変換することにより第2俯瞰映像G2を生成する。第3俯瞰映像生成部117cは、第1俯瞰映像G1に含まれるマーカ35と第2俯瞰映像G2に含まれるマーカ35との相対的な位置関係に基づいて第2俯瞰映像G2を補正し、第1俯瞰映像G1に補正された第2俯瞰映像G2を投影することにより3次元情報を含む第3俯瞰映像G3を生成する。 As described above, the bird's-eye view video presentation system 1 includes the mobile device 10 , the marker 35 and the information processing device 100 . Mobile device 10 is remotely operable. Mobile device 10 includes a plurality of first cameras 11 a to 11 d and a second camera 12 . The first cameras 11a to 11d capture wide-angle images of the surroundings. The second camera 12 photographs the direction of travel. The second camera 12 acquires depth information in the depth direction. The markers 35 are installed in areas photographed by the first cameras 11a to 11d and the second camera 12. FIG. The dimensional information of the marker 35 is known. The information processing device 100 is capable of data communication with the mobile device 10 . The information processing apparatus 100 includes a first bird's-eye image generation unit 117a, a second bird's-eye image generation unit 117b, and a third bird's-eye image generation unit 117c. The first bird's-eye view image generator 117a converts the images (first camera images 11G) acquired by the first cameras 11a to 11d into images viewed from a virtual bird's-eye view of the mobile device 10. A first bird's-eye view image G1 is generated. The second bird's-eye view image generation unit 117b generates the second bird's-eye view image G2 by viewpoint-converting the image including the depth information in the depth direction acquired by the second camera 12 into the image viewed from the bird's-eye viewpoint. The third bird's-eye image generator 117c corrects the second bird's-eye image G2 based on the relative positional relationship between the markers 35 included in the first bird's-eye image G1 and the markers 35 included in the second bird's-eye image G2, and By projecting the corrected second bird's-eye view image G2 onto the one bird's-eye view image G1, a third bird's-eye view image G3 including three-dimensional information is generated.

俯瞰映像提示システム1によれば、3次元情報を含む俯瞰映像を生成することができるので、俯瞰映像において、地面と障害物とを判別可能である。移動装置10の周囲にある物体の位置をより好適に描画した映像をオペレータに提供することができる。これにより、人の立ち入りが困難な屋内の災害現場などにおいて、移動装置10等のように、遠隔操作により移動可能な遠隔移動装置を操作して災害現場の復旧作業及び調査などを行う際、遠隔移動装置の周囲環境に対するオペレータの認識の誤り、遠隔移動装置の障害物への衝突を容易に回避することでき、災害現場の復旧作業及び調査の安全性を高めることができる。 According to the bird's-eye view video presentation system 1, since a bird's-eye view video including three-dimensional information can be generated, it is possible to distinguish between the ground and obstacles in the bird's-eye view video. It is possible to provide the operator with an image in which the positions of objects around the mobile device 10 are more preferably drawn. As a result, at an indoor disaster site where it is difficult for people to enter, when performing recovery work and investigation of the disaster site by operating a remote mobile device that can be moved by remote control, such as the mobile device 10, remote control can be performed. It is possible to easily avoid the operator's misunderstanding of the surrounding environment of the mobile device and the collision of the remote mobile device with obstacles, thereby enhancing the safety of restoration work and investigation at the disaster site.

また、俯瞰映像提示システム1において、第3俯瞰映像生成部117cは、3次元情報に基づいて、第3俯瞰映像G3における地面から所定の閾値以上の高さ及び所定の閾値以下の深さの障害物を強調表示する。これにより、移動装置10の周囲にある障害物の位置をより好適にオペレータに提示することができる。 In addition, in the bird's-eye view video presentation system 1, the third bird's-eye video generation unit 117c generates obstacles having a height of a predetermined threshold or more and a depth of a predetermined threshold or less from the ground in the third bird's-eye view video G3 based on the three-dimensional information. Highlight things. As a result, the positions of obstacles around the mobile device 10 can be more preferably presented to the operator.

以上、本発明の実施形態を説明したが、この実施形態の内容によって実施形態が限定されるものではない。例えば、第2カメラ12は、2つ以上設けられてもよい。また、本実施形態において、第1カメラ11a~11dは、魚眼レンズを備える魚眼カメラであるが、第2カメラ12と同様にステレオカメラを用いてもよい。この場合においても、上述した方法によって、第1カメラが撮影した映像に基づいて生成された第1俯瞰映像に、第2カメラが撮影した映像に基づいて生成された第2俯瞰映像を投影することができる。 Although the embodiments of the present invention have been described above, the embodiments are not limited by the contents of these embodiments. For example, two or more second cameras 12 may be provided. Also, in the present embodiment, the first cameras 11a to 11d are fish-eye cameras equipped with fish-eye lenses, but like the second camera 12, stereo cameras may be used. Even in this case, the second bird's-eye image generated based on the image captured by the second camera is projected onto the first bird's-eye image generated based on the image captured by the first camera by the method described above. can be done.

1 俯瞰映像提示システム
2 走行面
3 物体
5 通信ネットワーク
10 移動装置
11a~11d 第1カメラ
11G 第1カメラ映像
12 第2カメラ
12G 第2カメラ映像
13 通信部
14 アクチュエータ
15 記憶部
16 制御部
21 ロボット座標系
23 第1カメラ座標系
25 第2カメラ座標系
27 第1カメラ画像座標系
29 第2カメラ画像座標系
31 仮想カメラ画像座標系
33 仮想カメラ
33G 仮想カメラ映像
35 マーカ
40 物体
41 障害物
100 情報処理装置
111 通信部
113 表示部
115 記憶部
117 制御部
117a 第1俯瞰映像生成部
117b 第2俯瞰映像生成部
117c 第3俯瞰映像生成部
G1 第1俯瞰映像
G2 第2俯瞰映像
G3 第3俯瞰映像
1 bird's-eye view image presentation system 2 running surface 3 object 5 communication network 10 mobile device 11a to 11d first camera 11G first camera image 12 second camera 12G second camera image 13 communication unit 14 actuator 15 storage unit 16 control unit 21 robot coordinates system 23 first camera coordinate system 25 second camera coordinate system 27 first camera image coordinate system 29 second camera image coordinate system 31 virtual camera image coordinate system 33 virtual camera 33G virtual camera image 35 marker 40 object 41 obstacle 100 information processing Device 111 communication unit 113 display unit 115 storage unit 117 control unit 117a first bird's-eye image generation unit 117b second bird's-eye image generation unit 117c third bird's-eye image generation unit G1 first bird's-eye image G2 second bird's-eye image G3 third bird's-eye image

Claims (2)

遠隔操作可能であって、周囲を広角に撮影する複数台の第1カメラと、進行方向を撮影し、かつ奥行方向の深度情報を取得する第2カメラと、を含む移動装置と、
前記第1カメラ及び前記第2カメラによって撮影される領域に設置され、かつ寸法情報が既知であるマーカと、
前記移動装置とデータ通信可能である情報処理装置と、
を備え、
前記情報処理装置は、
前記第1カメラにより取得される映像を、前記移動装置を俯瞰する仮想的な俯瞰視点から視た映像に視点変換することにより第1俯瞰映像を生成する第1俯瞰映像生成部と、
前記第2カメラにより取得された奥行方向の深度情報を含む映像を、前記俯瞰視点から視た映像に視点変換することにより第2俯瞰映像を生成する第2俯瞰映像生成部と、
前記第1俯瞰映像に含まれるマーカと前記第2俯瞰映像に含まれるマーカとの相対的な位置関係に基づいて前記第2俯瞰映像を補正し、前記第1俯瞰映像に補正された前記第2俯瞰映像を投影することにより3次元情報を含む第3俯瞰映像を生成する第3俯瞰映像生成部と、
を備える俯瞰映像提示システム。
a mobile device including a plurality of first cameras that can be remotely controlled and capture wide-angle images of the surroundings, and a second camera that captures images in the direction of travel and acquires depth information in the depth direction;
a marker that is installed in an area photographed by the first camera and the second camera and whose dimensional information is known;
an information processing device capable of data communication with the mobile device;
with
The information processing device is
a first bird's-eye view image generation unit that generates a first bird's-eye view image by viewpoint-converting the image acquired by the first camera into a video viewed from a virtual bird's-eye viewpoint that overlooks the mobile device;
a second bird's-eye view image generation unit configured to generate a second bird's-eye view image by viewpoint-converting the image including the depth information in the depth direction acquired by the second camera into an image viewed from the bird's-eye viewpoint;
correcting the second bird's-eye video based on a relative positional relationship between markers included in the first bird's-eye video and markers included in the second bird's-eye video; a third bird's-eye view image generator that generates a third bird's-eye view image including three-dimensional information by projecting the bird's-eye image;
A bird's-eye view video presentation system.
前記第3俯瞰映像生成部は、前記3次元情報に基づいて、前記第3俯瞰映像における地面から所定の閾値以上の高さ及び所定の閾値以下の深さの障害物を強調表示する
請求項1に記載の俯瞰映像提示システム。
2. The third bird's-eye view image generator highlights obstacles having a height equal to or greater than a predetermined threshold and a depth equal to or less than a predetermined threshold from the ground in the third bird's-eye view image based on the three-dimensional information. 2. The bird's-eye view video presentation system described in .
JP2019057052A 2019-03-25 2019-03-25 Bird's eye view presentation system Active JP7162218B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019057052A JP7162218B2 (en) 2019-03-25 2019-03-25 Bird's eye view presentation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019057052A JP7162218B2 (en) 2019-03-25 2019-03-25 Bird's eye view presentation system

Publications (2)

Publication Number Publication Date
JP2020161895A JP2020161895A (en) 2020-10-01
JP7162218B2 true JP7162218B2 (en) 2022-10-28

Family

ID=72640007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019057052A Active JP7162218B2 (en) 2019-03-25 2019-03-25 Bird's eye view presentation system

Country Status (1)

Country Link
JP (1) JP7162218B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009049943A (en) 2007-08-22 2009-03-05 Alpine Electronics Inc Top view display unit using range image
JP2009129001A (en) 2007-11-20 2009-06-11 Sanyo Electric Co Ltd Operation support system, vehicle, and method for estimating three-dimensional object area
JP2014194729A (en) 2013-02-27 2014-10-09 Sharp Corp Circumferential environment recognition device, autonomous mobile system using the same, and circumferential environment recognition method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009049943A (en) 2007-08-22 2009-03-05 Alpine Electronics Inc Top view display unit using range image
JP2009129001A (en) 2007-11-20 2009-06-11 Sanyo Electric Co Ltd Operation support system, vehicle, and method for estimating three-dimensional object area
JP2014194729A (en) 2013-02-27 2014-10-09 Sharp Corp Circumferential environment recognition device, autonomous mobile system using the same, and circumferential environment recognition method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佐藤貴亮ほか,複数の魚眼カメラとLRFを用いた重畳型全方位俯瞰画像提示手法の構築,第13回計測自動制御学会システムインテグレーション部門講演会(S12012),2012年12月18日,pp. 2433-2436

Also Published As

Publication number Publication date
JP2020161895A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
US11039121B2 (en) Calibration apparatus, chart for calibration, chart pattern generation apparatus, and calibration method
JP4825980B2 (en) Calibration method for fisheye camera.
JP4167954B2 (en) Robot and robot moving method
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
Sato et al. Spatio-temporal bird's-eye view images using multiple fish-eye cameras
WO2018159168A1 (en) System and method for virtually-augmented visual simultaneous localization and mapping
CN105758426A (en) Combined calibration method for multiple sensors of mobile robot
WO2020228694A1 (en) Camera pose information detection method and apparatus, and corresponding intelligent driving device
CN111801198A (en) Hand-eye calibration method, system and computer storage medium
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
JP2007024647A (en) Distance calculating apparatus, distance calculating method, structure analyzing apparatus and structure analyzing method
KR102404867B1 (en) Apparatus and method for providing wrap around view monitoring using 3D distance information
JP2022089269A (en) Calibration device and calibration method
WO2015056826A1 (en) Camera image processing apparatus and method
KR20110094664A (en) Apparatus for controlling pan/tilt/zoom camera in omnidirectional and method for the same
JP2013246606A (en) Data derivation device and data derivation method
JP7138856B2 (en) Bird&#39;s eye view presentation system
JP7162218B2 (en) Bird&#39;s eye view presentation system
US10089726B2 (en) Image processing apparatus, image processing method, and storage medium, relating to generating an image corresponding to a predetermined three-dimensional shape by transforming a captured image
Benosman et al. A new catadioptric sensor for the panoramic vision of mobile robots
JP3399655B2 (en) Binocular stereoscopic device
JP6760656B2 (en) Object identification method
CN112288821A (en) Method and device for calibrating external parameters of camera
JPH07152810A (en) Environment model creating device
KR102438490B1 (en) Heterogeneous sensors calibration method and apparatus using single checkerboard

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20190404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211203

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221005

R150 Certificate of patent or registration of utility model

Ref document number: 7162218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150