JP7138856B2 - Bird's eye view presentation system - Google Patents

Bird's eye view presentation system Download PDF

Info

Publication number
JP7138856B2
JP7138856B2 JP2018107239A JP2018107239A JP7138856B2 JP 7138856 B2 JP7138856 B2 JP 7138856B2 JP 2018107239 A JP2018107239 A JP 2018107239A JP 2018107239 A JP2018107239 A JP 2018107239A JP 7138856 B2 JP7138856 B2 JP 7138856B2
Authority
JP
Japan
Prior art keywords
bird
eye view
image
mobile device
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018107239A
Other languages
Japanese (ja)
Other versions
JP2019213039A (en
Inventor
淳 山下
一 淺間
雄介 田村
浩光 藤井
靖之 粟島
新吾 山本
拓史 千葉
郁也 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujita Corp
University of Tokyo NUC
Original Assignee
Fujita Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujita Corp, University of Tokyo NUC filed Critical Fujita Corp
Priority to JP2018107239A priority Critical patent/JP7138856B2/en
Publication of JP2019213039A publication Critical patent/JP2019213039A/en
Application granted granted Critical
Publication of JP7138856B2 publication Critical patent/JP7138856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

特許法第30条第2項適用 発行日 平成29年12月5日 精密工学会誌 2017年83巻12号 頁1216~1223 公益社団法人精密工学会Application of Article 30, Paragraph 2 of the Patent Act Date of publication December 5, 2017 Journal of the Japan Society for Precision Engineering Vol.83, No.12, 2017 Pages 1216-1223

本発明は、俯瞰映像提示システムに関する。 The present invention relates to a bird's-eye view video presentation system.

近年、災害現場の復旧作業における遠隔操作可能な移動装置(以下、適宜「遠隔移動装置」と記載する)の利用に伴って、復旧作業の作業効率の向上を目的とした遠隔移動装置の映像提示技術の開発が盛んに行なわれている。例えば、災害現場の映像提示技術の1つとして例示される俯瞰映像提示システムは、遠隔移動装置に広角レンズを備えた複数台のカメラを搭載し、複数台のカメラから取得した映像を処理することによって、遠隔移動装置を上空の第三者視点から俯瞰したような映像を疑似的に提示することができる。 In recent years, along with the use of remote-operable mobile devices (hereinafter referred to as "remote mobile devices") in recovery work at disaster sites, video presentation of remote mobile devices for the purpose of improving the work efficiency of recovery work Technology is being actively developed. For example, a bird's-eye view video presentation system, which is exemplified as one of the video presentation technologies for disaster sites, is equipped with multiple cameras equipped with wide-angle lenses in a remote mobile device, and processes the video acquired from the multiple cameras. Thus, it is possible to present a simulated image of the remote mobile device as if it were viewed from a third person's point of view in the sky.

特表2017-538208号公報Japanese Patent Publication No. 2017-538208 特開2017-173298号公報JP 2017-173298 A 特開2018-50119号公報JP 2018-50119 A

従来の俯瞰映像提示システムは、カメラ映像の投影方法などを原因として、遠隔移動装置の周囲にある物体が俯瞰映像上に正確に描画されない結果、遠隔移動装置を取り巻く周囲の状況を、遠隔移動装置のオペレータに正確に伝えられない場合がある。 In a conventional bird's-eye view video presentation system, objects around the remote mobile device are not accurately drawn on the bird's-eye video due to the method of projecting the camera video, etc. As a result, the environment surrounding the remote mobile device is may not be accurately communicated to the operator.

本発明は、遠隔操作により移動可能な移動装置を取り巻く周囲の状況をできるだけ正確に提示することができる俯瞰映像提示システムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a bird's-eye view video presentation system capable of presenting as accurately as possible the circumstances surrounding a mobile device that can be moved by remote control.

上述した課題を解決し、目的を達成するために、本発明に係る俯瞰映像提示システムは、1つの態様として、遠隔操作可能な移動装置と、前記移動装置とデータ通信可能な情報処理装置とを含む俯瞰映像提示システムであって、前記移動装置は、通信部と、前記移動装置の周囲を広角に撮影する複数台のカメラと、前記移動装置の走行面に平行な全方位に向かって放射状のレーザー光を照射することにより、前記移動装置の周囲の物体の位置を示す3次元情報を取得する検出装置とを有する。前記情報処理装置は、通信部と、前記カメラにより取得される映像を、前記移動装置を俯瞰する仮想的な俯瞰視点からみた映像に視点変換することにより第1俯瞰映像を生成する第1俯瞰映像生成部と、前記俯瞰視点を規定する座標系に前記3次元情報を投影することにより第2俯瞰映像を生成する第2俯瞰映像生成部と、前記第2俯瞰映像における前記移動装置と前記物体との相対的な位置関係に基づいて、前記移動装置から死角となる領域を設定した第3映像を生成する第3映像生成部と、前記第1俯瞰映像、前記第2俯瞰映像、及び前記第3映像を統合することにより、統合俯瞰映像を生成する統合映像生成部と、前記統合俯瞰映像を表示する表示部とを備える。 In order to solve the above-described problems and achieve the object, a bird's-eye view video presentation system according to the present invention includes, as one aspect, a remote controllable mobile device and an information processing device capable of data communication with the mobile device. wherein the mobile device includes a communication unit, a plurality of cameras for capturing wide-angle images of the surroundings of the mobile device, and a detection device that acquires three-dimensional information indicating the position of an object around the mobile device by irradiating it with a laser beam. The information processing device includes a communication unit and a first bird's-eye view video for generating a first bird's-eye video by viewpoint-converting the video acquired by the camera into a video viewed from a virtual bird's-eye viewpoint that overlooks the mobile device. a generator, a second bird's-eye image generator that generates a second bird's-eye image by projecting the three-dimensional information onto a coordinate system defining the bird's-eye viewpoint, and the moving device and the object in the second bird's-eye image. a third image generation unit that generates a third image in which a blind spot area is set from the mobile device based on the relative positional relationship of the first bird's-eye image, the second bird's-eye image, and the third An integrated video generating unit that generates an integrated bird's-eye view video by integrating video, and a display unit that displays the integrated bird's-eye video.

本発明に係る俯瞰映像提示システムは、遠隔操作により移動可能な移動装置を取り巻く周囲の状況をできるだけ正確に提示することができるという効果を奏する。 INDUSTRIAL APPLICABILITY The bird's-eye view image presentation system according to the present invention has the effect of being able to present as accurately as possible the circumstances surrounding a mobile device that can be moved by remote control.

図1は、実施形態に係る俯瞰映像提示システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of a bird's-eye view video presentation system according to an embodiment. 図2は、実施形態に係る俯瞰映像提示システムの機能構成を模式的に示すブロック図である。FIG. 2 is a block diagram schematically showing the functional configuration of the bird's-eye view video presentation system according to the embodiment. 図3は、実施形態に係る各座標系の概念を示す図である。FIG. 3 is a diagram showing the concept of each coordinate system according to the embodiment. 図4は、実施形態に係る外部パラメータ行列を求める際の概念図である。FIG. 4 is a conceptual diagram when obtaining an extrinsic parameter matrix according to the embodiment. 図5は、実施形態に係る3次元点群の情報に対してテクスチャ情報の付与および3次元点群の床面への投影に関する概念図である。FIG. 5 is a conceptual diagram of adding texture information to 3D point group information and projecting the 3D point group onto the floor according to the embodiment. 図6は、実施形態に係る遮蔽領域の生成方法を示す概念図である。FIG. 6 is a conceptual diagram showing a method of generating a shielded area according to the embodiment. 図7は、実施形態に係る映像統合処理の概念を示す概念図である。FIG. 7 is a conceptual diagram showing the concept of video integration processing according to the embodiment. 図8は、実施形態に係る情報処理装置により実行される俯瞰映像生成処理の流れの一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the flow of bird's-eye view image generation processing executed by the information processing apparatus according to the embodiment. 図9は、検証実験に係る実験環境を示す図である。FIG. 9 is a diagram showing an experimental environment for verification experiments. 図10は、比較例に係る俯瞰画像の一例を示す図である。FIG. 10 is a diagram showing an example of a bird's-eye view image according to a comparative example. 図11は、図10に示す位置から移動装置を移動させたときの俯瞰映像の一例を示す図である。FIG. 11 is a diagram showing an example of a bird's-eye view image when the mobile device is moved from the position shown in FIG. 図12は、図11に示す移動装置を第三者視点から撮影した映像の一例を示す図である。FIG. 12 is a diagram showing an example of a video of the mobile device shown in FIG. 11 photographed from a third-person viewpoint. 図13は、実施形態に係る俯瞰映像の一例を示す図である。FIG. 13 is a diagram illustrating an example of a bird's-eye view image according to the embodiment; 図14は、図13に示す位置から移動装置を移動させたときの俯瞰映像の一例を示す図である。FIG. 14 is a diagram showing an example of a bird's-eye view image when the mobile device is moved from the position shown in FIG. 図15は、図14に示す移動装置を第三者視点から撮影した映像の一例を示す図である。FIG. 15 is a diagram showing an example of a video of the mobile device shown in FIG. 14 photographed from a third-person viewpoint.

以下に、本発明に係る俯瞰映像提示システムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、以下に記載した実施形態における構成要素には、当業者が置換可能、且つ、容易なもの、或いは実質的に同一のものが含まれる。さらに、以下に記載した実施形態における構成要素は、本発明の要旨を逸脱しない範囲で構成の種々の省略、置換又は変更を行うことができる。以下の実施形態では、本発明に係る俯瞰映像提示システムの実施形態の1つを例示する上で、必要となる構成要素を説明し、その他の構成要素を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of a bird's-eye view video presentation system according to the present invention will be described in detail below based on the drawings. In addition, this invention is not limited by this embodiment. In addition, components in the embodiments described below include components that can be easily replaced by those skilled in the art, or components that are substantially the same. Furthermore, the constituent elements in the embodiments described below can be omitted, replaced, or changed in various ways without departing from the spirit of the present invention. In the following embodiments, necessary constituent elements will be described in order to exemplify one embodiment of the bird's-eye view video presentation system according to the present invention, and other constituent elements will be omitted.

[システムの構成]
図1は、実施形態に係る俯瞰映像提示システム1の構成例を示す図である。図2は、実施形態に係る俯瞰映像提示システム1の機能構成を模式的に示すブロック図である。
[System configuration]
FIG. 1 is a diagram showing a configuration example of a bird's-eye view video presentation system 1 according to an embodiment. FIG. 2 is a block diagram schematically showing the functional configuration of the bird's-eye view video presentation system 1 according to the embodiment.

図1に示すように、実施形態に係る俯瞰映像提示システム1は、遠隔操作可能な移動装置10と、移動装置10とデータ通信可能な情報処理装置100とを含んで構成される。移動装置10及び情報処理装置100は、相互にデータ通信可能な状態で通信ネットワーク5に接続される。通信ネットワーク5は、公衆通信回線及び専用通信回線等を含んで構築されてよい。 As shown in FIG. 1 , a bird's-eye view video presentation system 1 according to the embodiment includes a mobile device 10 capable of remote control and an information processing device 100 capable of data communication with the mobile device 10 . The mobile device 10 and the information processing device 100 are connected to the communication network 5 so as to be able to communicate data with each other. The communication network 5 may be constructed including public communication lines, dedicated communication lines, and the like.

移動装置10は、物体3などが存在する災害現場などを走行する。移動装置10は、魚眼レンズを備える複数のカメラ11a~11dと、検出装置12と、通信部13と、アクチュエータ14と、記憶部15と、制御部16とを有する。移動装置10は、情報処理装置100から受信する動作コマンドに従って走行してもよいし、情報処理装置100とは別の遠隔装置から受信する動作コマンドに従って走行してもよい。移動装置10として、参考文献X(新エネルギー・産業技術総合開発機構:災害対応無人化システム研究開発プロジェクト 計測・作業要素技術の開発 水陸両用モニタリングデバイスの開発,平成23年度~平成24年度成果報告書(2013))における災害対応プロジェクトで開発された装置が例示される。 The mobile device 10 travels in a disaster site or the like where the object 3 or the like exists. The mobile device 10 includes a plurality of cameras 11 a to 11 d with fisheye lenses, a detection device 12 , a communication section 13 , an actuator 14 , a storage section 15 and a control section 16 . The mobile device 10 may run according to an operation command received from the information processing device 100 or may run according to an operation command received from a remote device other than the information processing device 100 . As a mobile device 10, Reference X (New Energy and Industrial Technology Development Organization: Unmanned disaster response system research and development project Development of measurement and work element technology Development of amphibious monitoring device, 2011-2012 achievement report (2013)) is exemplified by the equipment developed in the disaster response project.

カメラ11a~11dは、移動装置10の周囲(周辺環境)を所定の撮影範囲よりも広角に撮影する。カメラ11a~11dは、例えば、例えば、180deg前後の広い画角を持った魚眼レンズを備える。以下の説明において、カメラ11a~11dにより取得される映像データに基づく映像を、「カメラ映像」と表記する場合がある。移動装置10にカメラ11a~11dを設置する場合、例えば、参考文献2(小松 廉,藤井 浩光,山下 淳,淺間一:カメラ配置設計による故障時に備えたロボット遠隔操作のための俯瞰映像提示システムの開発,精密工学学会誌,81,12(2015)1206)に提案される配置に基づいて設置することができる。 The cameras 11a to 11d photograph the surroundings (surrounding environment) of the mobile device 10 at a wider angle than a predetermined photographing range. The cameras 11a to 11d are equipped with, for example, fisheye lenses with a wide angle of view of around 180 degrees. In the following description, images based on image data acquired by the cameras 11a to 11d may be referred to as "camera images". When the cameras 11a to 11d are installed in the mobile device 10, for example, refer to Reference 2 (Ren Komatsu, Hiromitsu Fujii, Jun Yamashita, Hajime Asama: Overhead view video presentation system for robot remote control in preparation for failure due to camera layout design Development, Journal of Precision Engineering, 81, 12 (2015) 1206).

検出装置12は、移動装置10の周囲に向かって複数本のレーザー光を放射状に照射することにより、TOF(Time of Flight)の原理に基づいて、移動装置10の周囲の物体の位置を示す3次元情報を取得する3次元測域センサである。検出装置12は、移動装置10が災害現場などにおいて走行する走行面2に平行な全方位に向かって複数本のレーザー光を放射状に照射し、照射したレーザー光が移動装置10の周囲に存在する物体の表面で反射されて帰ってくるまでの反射時間を計測することにより、物体の表面の位置を示す3次元点の集合体である3次元点群の情報を3次元情報として取得できる。検出装置12により取得される3次元点群を構成する各3次元点は、物体の表面の位置を示す3次元座標値で表される。3次元座標値は、任意の原点における、X軸方向、Y軸方向、Z軸方向の各軸に対応する座標値で構成される。 The detection device 12 radially irradiates a plurality of laser beams toward the periphery of the mobile device 10 to indicate the positions of objects around the mobile device 10 based on the TOF (Time of Flight) principle. It is a three-dimensional range sensor that acquires dimensional information. The detection device 12 radially irradiates a plurality of laser beams in all directions parallel to the traveling surface 2 on which the mobile device 10 travels at a disaster site or the like, and the emitted laser beams exist around the mobile device 10. By measuring the reflection time from the surface of the object until it returns, it is possible to acquire information on a 3D point group, which is a set of 3D points indicating the position of the surface of the object, as 3D information. Each three-dimensional point forming the three-dimensional point group acquired by the detection device 12 is represented by a three-dimensional coordinate value indicating the position on the surface of the object. A three-dimensional coordinate value is composed of coordinate values corresponding to each of the X-axis direction, Y-axis direction, and Z-axis direction at an arbitrary origin.

検出装置12は、図1に例示するように、移動装置10を中心として水平方向に360度の全方位、そして垂直方向に41.3度(垂直走査中心を0度として+10.67度~-30.67度の範囲)の円筒状の検出範囲12DRを有する。レーザー光線は、例えば、波長が905nm(ナノメートル)の赤外線を用いることができる。検出装置12として、例えば、少なくとも水平方向に関して、360度の全方位3次元計測を実現できるLiDAR(Light Detection and Ranging)が例示される。検出装置12は、少なくとも水平方向に関して、360度の全方位3次元計測を実現することができれば、LRF(Laser Range Finder)及びGPS(Global Positioning System)が搭載されるMMS(Mobile Mapping System)などによって3次元情報を取得してもよい。 As illustrated in FIG. 1, the detection device 12 has an omnidirectional range of 360 degrees in the horizontal direction centered on the moving device 10 and 41.3 degrees in the vertical direction (+10.67 degrees to - It has a cylindrical detection range 12DR of 30.67 degree range). As the laser beam, for example, infrared rays with a wavelength of 905 nm (nanometers) can be used. As the detection device 12, for example, a LiDAR (Light Detection and Ranging) capable of realizing 360-degree omnidirectional three-dimensional measurement at least in the horizontal direction is exemplified. If the detection device 12 can realize omnidirectional three-dimensional measurement of 360 degrees at least in the horizontal direction, it is an MMS (Mobile Mapping System) equipped with an LRF (Laser Range Finder) and a GPS (Global Positioning System). Three-dimensional information may be obtained.

通信部13は、通信ネットワーク5を介して、情報処理装置100との間で各種データをやり取りするためのデータ通信を実行する。通信部13は、走行に関する動作コマンドを受信できる。通信部13は、動作コマンドを制御部16に送出できる。通信部13は、情報処理装置100に対して、カメラ11a~112dにより取得された映像データ、及び検出装置12により検出された3次元情報を送信できる。通信部13は、情報処理装置100との間の通信を可能とする各種通信方式をサポートできる。通信部13の通信方式は、無線通信及び有線通信のいずれの通信方式を適用してもよい。 The communication unit 13 performs data communication for exchanging various data with the information processing apparatus 100 via the communication network 5 . The communication unit 13 can receive operation commands related to running. The communication unit 13 can send operation commands to the control unit 16 . The communication unit 13 can transmit video data acquired by the cameras 11 a to 112 d and three-dimensional information detected by the detection device 12 to the information processing device 100 . The communication unit 13 can support various communication methods that enable communication with the information processing device 100 . Either wireless communication or wired communication may be applied as the communication method of the communication unit 13 .

アクチュエータ14は、制御部16の制御信号を、移動装置10が災害現場などの走行面2の走行させるための動力に変換する。アクチュエータ14は、例えば、電気モータなどを含む。 The actuator 14 converts a control signal from the control unit 16 into power for causing the mobile device 10 to travel on the travel surface 2 such as a disaster site. Actuator 14 includes, for example, an electric motor.

記憶部15は、制御部16により実行される各種処理を実現するためのプログラム及びデータを記憶する。記憶部15が記憶するプログラムにより提供される機能は、移動装置10の走行を制御する機能、並びにカメラ11a~112dにより取得された映像データ及び検出装置12により検出された3次元情報を情報処理装置100に送信する機能を含む。記憶部15は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、またはDVDにより実装されてよい。 The storage unit 15 stores programs and data for realizing various processes executed by the control unit 16 . The functions provided by the program stored in the storage unit 15 include the function of controlling the running of the mobile device 10, and the image data acquired by the cameras 11a to 112d and the three-dimensional information detected by the detection device 12 to the information processing device. 100. The storage unit 15 is a non-volatile or volatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (registered trademark) (Electrically Erasable Programmable Read Only Memory). may be implemented by optical semiconductor memory, a magnetic disk, a floppy disk, an optical disk, a compact disk, a minidisk, or a DVD.

制御部16は、記憶部15に記憶されているプログラム及びデータに基づいて、移動装置10に関する各種処理を実行する。特に、本実施形態において、制御部16は、通信部13を介して、カメラ11a~112dにより取得された映像データ、及び検出装置12により検出された3次元情報を情報処理装置100に送信する。制御部16は、CPU(Central Processing Unit)マイクロプロセッサ、マイクロコンピュータ、DSP、システムLSI(Large Scale Integration)などのプロセッサにより実装されてよい。 The control unit 16 executes various processes related to the mobile device 10 based on the programs and data stored in the storage unit 15 . In particular, in the present embodiment, the control unit 16 transmits video data acquired by the cameras 11 a to 112 d and three-dimensional information detected by the detection device 12 to the information processing device 100 via the communication unit 13 . The control unit 16 may be implemented by a processor such as a CPU (Central Processing Unit) microprocessor, microcomputer, DSP, or system LSI (Large Scale Integration).

移動装置10は、段差などがある不整地な災害現場の走行面に追従できるクローラ、クローラを下部に備える台車、及び台車上に配置された胴体部などを備えてよい。上述したカメラ11a~11d及び検出装置12は、胴体部に設置されてよい。 The mobile device 10 may include a crawler that can follow a rough surface of a disaster site with steps, a carriage provided with the crawler at the bottom, and a body part arranged on the carriage. The cameras 11a-11d and the detection device 12 described above may be installed on the body.

情報処理装置100は、移動装置10から受信する映像データ及び3次元情報を用いて、移動装置10の周囲にある物体の位置を提示する俯瞰映像を生成する。情報処理装置100は、通信部111と、表示部113と、記憶部115と、制御部117とを備える。 The information processing device 100 uses the video data and three-dimensional information received from the mobile device 10 to generate a bird's-eye view image presenting the positions of objects around the mobile device 10 . Information processing apparatus 100 includes communication unit 111 , display unit 113 , storage unit 115 , and control unit 117 .

通信部111は、通信ネットワーク5を介して、移動装置10との間で各種データをやり取りするためのデータ通信を実行する。通信部111は、移動装置10から送信された映像データ、及び3次元情報を受信できる。通信部111は、移動装置10との間の通信を可能とする各種通信方式をサポートできる。通信部111の通信方式は、無線通信及び有線通信のいずれの通信方式を適用してもよい。 The communication unit 111 executes data communication for exchanging various data with the mobile device 10 via the communication network 5 . The communication unit 111 can receive video data and 3D information transmitted from the mobile device 10 . The communication unit 111 can support various communication schemes that enable communication with the mobile device 10 . Either wireless communication or wired communication may be applied as the communication method of the communication unit 111 .

表示部113は各種情報を表示する。表示部113は、後述する制御部117により生成された俯瞰映像を表示できる。表示部113は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを含んでよい。表示部113は、タッチスクリーンなどの入力デバイスを含んでよい。 The display unit 113 displays various information. The display unit 113 can display a bird's-eye view image generated by the control unit 117, which will be described later. The display unit 113 may include a display device such as a liquid crystal display (LCD), an organic electro-luminescence display (OELD), or an inorganic electro-luminescence display (IELD). Display unit 113 may include an input device such as a touch screen.

記憶部115は、制御部117により実行される各種処理を実現するためのプログラム及びデータを記憶する。記憶部115が記憶するプログラムにより提供される機能は、移動装置10の周囲にある物体の位置を提示する俯瞰映像を生成する機能を含む。記憶部115が記憶するデータは、移動装置10から受信する映像データ及び3次元情報を含む。記憶部15は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、またはDVDにより実装されてよい。 Storage unit 115 stores programs and data for realizing various processes executed by control unit 117 . The functions provided by the programs stored in the storage unit 115 include a function of generating a bird's-eye view image presenting the positions of objects around the mobile device 10 . The data stored by the storage unit 115 includes video data and 3D information received from the mobile device 10 . The storage unit 15 is a non-volatile or volatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (registered trademark) (Electrically Erasable Programmable Read Only Memory). may be implemented by optical semiconductor memory, a magnetic disk, a floppy disk, an optical disk, a compact disk, a minidisk, or a DVD.

制御部117は、記憶部115に記憶されているプログラム及びデータに基づいて、移動装置10に関する各種処理を実行する。特に、本実施形態において、制御部117は、移動装置10の周囲にある物体の位置を提示する俯瞰映像を生成する処理を実行する。制御部117は、CPU(Central Processing Unit)マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)、システムLSI(Large Scale Integration)などのプロセッサを含んで実装されてよい。制御部117は、記憶部115に記憶されているプログラムを読み出してRAMなどのワーキングメモリに展開し、ワーキングメモリに展開されたプログラムに含まれる命令をCPUなどのプロセッサに実行させる。これにより、制御部117は、以下に説明する第1俯瞰映像生成部117a、第2俯瞰映像生成部117b、第3映像生成部117c、並びに統合俯瞰映像生成部117dにより提供される各機能に基づいた各処理を実行できる。 The control unit 117 executes various processes related to the mobile device 10 based on the programs and data stored in the storage unit 115 . In particular, in the present embodiment, the control unit 117 executes processing for generating a bird's-eye view image presenting the positions of objects around the mobile device 10 . The control unit 117 may be implemented including a processor such as a CPU (Central Processing Unit) microprocessor, a microcomputer, a DSP (Digital Signal Processor), or a system LSI (Large Scale Integration). The control unit 117 reads out a program stored in the storage unit 115, develops it in a working memory such as a RAM, and causes a processor such as a CPU to execute instructions included in the program developed in the working memory. As a result, the control unit 117 operates based on each function provided by the first bird's-eye view image generation unit 117a, the second bird's-eye image generation unit 117b, the third image generation unit 117c, and the integrated bird's-eye image generation unit 117d, which will be described below. each process can be executed.

制御部117は、第1俯瞰映像生成部117aと、第2俯瞰映像生成部117bと、第3映像生成部117cと、統合俯瞰映像生成部117dとを有する。 The control unit 117 includes a first bird's-eye image generation unit 117a, a second bird's-eye image generation unit 117b, a third image generation unit 117c, and an integrated bird's-eye image generation unit 117d.

第1俯瞰映像生成部117aは、移動装置10から受信する映像データ、すなわちカメラ11a~11dにより取得される映像(カメラ映像)を、移動装置10を俯瞰する仮想的な俯瞰視点からみた映像に視点変換することにより第1俯瞰映像を生成する。第1俯瞰映像生成部117aは、移動装置10のカメラ11a~カメラ11dにより撮影された全ての物体がロボット座標系におけるある平面上に存在するという仮定の下、カメラ映像をその平面上に透視投影した後、視点変換処理を行うことにより、第1俯瞰映像を生成する。第1俯瞰映像生成部117aは、参考文献1(佐藤高亮,藤井浩光,Alessandro Moro,山下淳,淺間一:複数の魚眼カメラとLRFを用いた重畳型全方位俯瞰映像提示手法の構築,第13回計測自動制御学会システムインテグレーション部門講演会講演論文集(2012))に提案される従来手法を用いることによって、第1俯瞰映像を生成できる。 The first bird's-eye view image generating unit 117a converts the video data received from the mobile device 10, that is, the video (camera video) acquired by the cameras 11a to 11d into a video viewed from a virtual bird's-eye viewpoint that looks down on the mobile device 10. A first bird's-eye view image is generated by conversion. Under the assumption that all the objects captured by the cameras 11a to 11d of the mobile device 10 exist on a plane in the robot coordinate system, the first bird's-eye view image generator 117a perspectively projects the camera images onto the plane. After that, viewpoint conversion processing is performed to generate the first bird's-eye view image. The first bird's-eye view image generation unit 117a is based on Reference Document 1 (Takaki Sato, Hiromitsu Fujii, Alessandro Moro, Jun Yamashita, Hajime Asama: Construction of a superimposed omnidirectional bird's-eye view video presentation method using multiple fisheye cameras and LRF, The first bird's-eye view image can be generated by using the conventional method proposed in the 13th Society of Instrument and Control Engineers System Integration Division Lecture Proceedings (2012).

[座標系の定義]
図3は、実施形態に係る各座標系の概念を示す図である。図3に示す座標系21は、移動装置10の座標系である。図3において、ロボット座標系のx平面は、床面(移動装置20の走行面2)と同一であり、z軸の正方向は、床面に対して鉛直上向きとする。以下、図3に示す座標系21を、適宜「ロボット座標系21」と表記する。図3に示す座標系23は、例えば、カメラ11aの位置及び姿勢を規定する座標系である。以下、図3に示す座標系23を、適宜「カメラ座標系23」と表記する。なお、図示は省略するが、カメラ座標系23と同様に、カメラ11b~11dの位置及び姿勢を規定する座標系が設定される。図3に示す座標系25は、検出装置12により取得される検出点を規定する座標系である。以下、図3に示す座標系25を、適宜「センサ座標系25」と表記する。図3に示す座標系27は、例えば、カメラ11aにより撮影されるカメラ映像11G上の点を規定する座標系である。以下、図3に示す座標系27を、適宜「カメラ画像座標系27」と表記する。なお、図示は省略するが、カメラ画像座標系27と同様に、カメラ11b~11dにより撮影されるカメラ映像上の点を規定する座標系が設定される。図3に示す座標系29は、移動装置20を上空から俯瞰する位置にあると仮定した仮想的な仮想カメラ31による仮想カメラ映像31上の点の位置を規定する座標系である。以下、図3に示す座標系29を、適宜「仮想カメラ画像座標系29」と表記する。ロボット座標系21における点P=[x,y,zのカメラ座標系23における表現を点P=[x,y,zとする。ロボット座標系21における点P=[x,y,zのセンサ座標系25における表現を点P=[x,y,zとする。ロボット座標系21における点P=[x,y,zのカメラ画像座標系27における表現を点m=[u,vとする。第1俯瞰映像生成部117aは、各座標系における各点を、仮想カメラ画像座標系29における点m=[u,vに変換する。以下の説明において、任意の座標系における点Nの同次座標系による座標表現をNとする。
[Definition of coordinate system]
FIG. 3 is a diagram showing the concept of each coordinate system according to the embodiment. A coordinate system 21 shown in FIG. 3 is the coordinate system of the mobile device 10 . In FIG. 3, the xwyw plane of the robot coordinate system is the same as the floor surface (running surface 2 of the moving device 20), and the positive direction of the zw axis is vertically upward with respect to the floor surface. Hereinafter, the coordinate system 21 shown in FIG. 3 will be appropriately referred to as "robot coordinate system 21". A coordinate system 23 shown in FIG. 3 is, for example, a coordinate system that defines the position and orientation of the camera 11a. Hereinafter, the coordinate system 23 shown in FIG. 3 will be appropriately referred to as "camera coordinate system 23". Although not shown, like the camera coordinate system 23, a coordinate system that defines the positions and orientations of the cameras 11b to 11d is set. A coordinate system 25 shown in FIG. 3 is a coordinate system that defines the detection points acquired by the detection device 12 . Hereinafter, the coordinate system 25 shown in FIG. 3 will be appropriately referred to as "sensor coordinate system 25". A coordinate system 27 shown in FIG. 3 is, for example, a coordinate system that defines points on the camera image 11G captured by the camera 11a. Hereinafter, the coordinate system 27 shown in FIG. 3 will be appropriately referred to as "camera image coordinate system 27". Although not shown, like the camera image coordinate system 27, a coordinate system is set to define points on the camera images captured by the cameras 11b to 11d. A coordinate system 29 shown in FIG. 3 is a coordinate system that defines the positions of points on a virtual camera image 31 captured by a virtual camera 31 that is assumed to be at a position where the mobile device 20 is viewed from above. Hereinafter, the coordinate system 29 shown in FIG. 3 will be appropriately referred to as "virtual camera image coordinate system 29". Let P f =[x f , y f , z f ] T represent the point P w =[x w , y w , z w ] T in the robot coordinate system 21 in the camera coordinate system 23 . Let P d =[x d , y d , z d ] T represent the point P w =[x w , y w , z w ] T in the robot coordinate system 21 in the sensor coordinate system 25 . Let m f =[u f , v f ] T represent the point P w =[x w , y w , z w ] T in the robot coordinate system 21 in the camera image coordinate system 27 . The first bird's-eye view image generator 117a converts each point in each coordinate system into a point mv =[ uv , vv ] T in the virtual camera image coordinate system 29. FIG. In the following description, the coordinate representation of point N in an arbitrary coordinate system by a homogeneous coordinate system is assumed to be N .

[第1俯瞰映像の作成]
第1俯瞰映像生成部117aは、以下に示す式(1)で示されるカメラ座標系23における点P=[x,y,zと、カメラ画像座標系27における点m=[u,vとの関係に基づいて、魚眼レンズにより撮影された映像特有の歪みを除去した透視投影映像を生成する。以下に示す式(1)は、参考文献3(Davide Schramuzza, Agostion Martinelli, and Roland Siegwart: A flexible technique for accurate omnidirectional camera calibration and structure from motion, Proceeding of IEEE International Conference of Computer Vision Systems (2006) 45)及び参考文献4(Davide Schramuzza, Agostion Martinelli, and Roland Siegwart: A toolbox for easily calibrating omnidirectional cameras, Proceedings of IEEE/RSJ International Conference of Intelligent Robots and Systems (2006) 5695)に提案される手法によって求められる。
[Creation of first bird's-eye view video]
The first bird's-eye view image generation unit 117a generates a point P f =[x f , y f , z f ] T in the camera coordinate system 23 shown in Equation (1) below, and a point m f in the camera image coordinate system 27. =[u f , v f ] Based on the relationship with T , a perspective projection image is generated from which the distortion peculiar to the image captured by the fisheye lens is removed. Formula (1) shown below is based on reference 3 (Davide Schramuzza, Agostion Martinelli, and Roland Siegwart: A flexible technique for accurate omnidirectional camera calibration and structure from motion, Proceeding of IEEE International Conference of Computer Vision Systems (2006) 45) and Reference 4 (Davide Schramuzza, Agostion Martinelli, and Roland Siegwart: A toolbox for easily calibrating omnidirectional cameras, Proceedings of IEEE/RSJ International Conference of Intelligent Robots and Systems (2006) 5695).

Figure 0007138856000001
Figure 0007138856000001

式(1)における「f(u,u)」は、カメラ画像座標系27における原点からの距離√{u +u }に関する関数であり、式(1)における「a」は、カメラ座標系における各点とカメラ画像座標系における各方向ベクトルの関係を等式で表現するために設定する定数である。 “f(u f , u v )” in equation (1) is a function related to the distance √{u f 2 +u v 2 } from the origin in camera image coordinate system 27, and “a” in equation (1) is , are constants set to express the relationship between each point in the camera coordinate system and each direction vector in the camera image coordinate system by an equation.

続いて、第1俯瞰映像生成部117aは、上述した式(1)に基づいて生成した透視投影映像を、特定の平面に対して透視投影する。ロボット座標系21とカメラ画像座標系27は、3×4行列の透視投影行列Hw→fにより関係付けることができ、ロボット座標系21とカメラ画像座標系27との間には、以下の式(2)の関係が成立する。 Subsequently, the first bird's-eye view image generation unit 117a perspectively projects the perspective projection image generated based on the above equation (1) onto a specific plane. The robot coordinate system 21 and the camera image coordinate system 27 can be related by a perspective projection matrix Hw→f , which is a 3×4 matrix, and the following equation exists between the robot coordinate system 21 and the camera image coordinate system 27: The relationship (2) is established.

Figure 0007138856000002
Figure 0007138856000002

移動装置10のカメラ11a~カメラ11dにより撮影された全ての物体がロボット座標系21におけるある平面上に存在すると仮定する。例えば、カメラ映像をz=0の平面(床面)に透視投影する場合、以下の式(3)に示すように、透視投影行列Hw→fの3列目成分を省略できる。 Assume that all objects photographed by the cameras 11 a to 11 d of the mobile device 10 exist on a plane in the robot coordinate system 21 . For example, when perspectively projecting a camera image onto a plane (floor) with z w =0, the third column component of the perspective projection matrix H w→f can be omitted as shown in the following equation (3).

Figure 0007138856000003
Figure 0007138856000003

ここで、式(3)におけるH´w→fおよびP´は、それぞれ、H´w→fの3列目と、P´の3行目の成分を省略した行列とする。式(3)により、ロボット座標系21と、カメラ画像座標系27との関係が決定される。 Here, H'w →f and P ~ ' w in equation (3) are matrices in which the third column of H'w →f and the third row of P ~ ' w are omitted. Equation (3) determines the relationship between the robot coordinate system 21 and the camera image coordinate system 27 .

続いて、第1俯瞰映像生成部117aは、上述した式(3)に示す関係に基づいて、特定の平面に対して透視投影された透視投影映像の視点変換処理を行い、第1俯瞰映像を生成する。まず、第1俯瞰映像生成部117aは、ロボット座標系21と仮想カメラ画像座標系29との関係を求める。ロボット座標系21と仮想カメラ画像座標系29との間には、以下の式(4)の関係が成立する。 Subsequently, the first bird's-eye view image generating unit 117a performs viewpoint conversion processing of the perspective projection image perspectively projected onto a specific plane based on the relationship shown in the above-described formula (3), and generates the first bird's-eye view image. Generate. First, the first bird's-eye view image generation unit 117 a obtains the relationship between the robot coordinate system 21 and the virtual camera image coordinate system 29 . Between the robot coordinate system 21 and the virtual camera image coordinate system 29, the following formula (4) holds.

Figure 0007138856000004
Figure 0007138856000004

式(4)におけるH´w→vは、ロボット座標系21と仮想カメラ画像座標系29とを関係付ける透視投影行列Hw→vの3列目の成分を省略した行列である。上述した式(3)および式(4)を用いると、カメラ画像座標系27と仮想カメラ画像座標系29との間には、式(5)に示す関係が成立する。 H′w →v in Equation (4) is a matrix obtained by omitting the third column component of the perspective projection matrix Hw →v that relates the robot coordinate system 21 and the virtual camera image coordinate system 29 . Using the above equations (3) and (4), the relationship shown in equation (5) is established between the camera image coordinate system 27 and the virtual camera image coordinate system 29 .

Figure 0007138856000005
Figure 0007138856000005

ただし、式(5)において、H´f→w=(H´w→f-1である。第1俯瞰映像生成部117aは、式(5)より、移動装置10から受信したカメラ映像(映像データ)から、移動装置20を上空から俯瞰したような第1俯瞰映像を生成できる。 However, in Equation (5), H′ f→w =(H′ w→f ) −1 . The first bird's-eye view image generation unit 117a can generate a first bird's-eye view image of the mobile device 20 from above, from the camera image (video data) received from the mobile device 10, according to Equation (5).

ここで、式(5)から確認できるように、H´w→vおよびH´f→wを求める必要がある。本実施形態では、参考文献5(佐藤 高亮,藤井 浩光,Alessandro Moro,杉元 和也,野末 晃,三村 洋一,小幡 克実,山下 淳,淺間一:無人化施工用俯瞰映像システムの開発,日本機械学会論文集,81,823(2015)1)、及び参考文献6(淺利 圭介,石井洋平,本郷 仁志,蚊野 浩:鳥瞰画像生成における校正環境の簡易化,第13回画像センシングシンポジウム予稿集(2017)IN1-13)などに提案される手法を参考として、H´w→vおよびH´f→wを非線形の最適化手法により推定する。推定したH´w→vおよびH´f→wの行列をもとに、カメラ11a~11dにより取得されるカメラ映像と、仮想カメラ31により取得される仮想カメラ映像の各画素の1対1の対応関係をあらかじめ取得することができる。なお、カメラ映像と仮想カメラ映像の各画素の1対1の対応関係をルックアップテーブルとしてあらかじめ保存しておいて、第1俯瞰映像の生成時に利用できるようにしてもよい。 Now, as can be seen from equation (5), we need to find H'w →v and H'f →w . In this embodiment, reference 5 (Kosuke Sato, Hiromitsu Fujii, Alessandro Moro, Kazuya Sugimoto, Akira Nozue, Yoichi Mimura, Katsumi Obata, Jun Yamashita, Hajime Asama: Development of overhead view video system for unmanned construction, Nihon Kikai Conference Proceedings, 81, 823 (2015) 1), and reference 6 (Keisuke Asari, Yohei Ishii, Hitoshi Hongo, Hiroshi Kano: Simplification of calibration environment for bird's-eye image generation, 13th Image Sensing Symposium Proceedings ( 2017) IN1-13), H'w →v and H'f →w are estimated by a nonlinear optimization method. Based on the estimated H'w →v and H'f →w matrices, a one-to-one ratio of each pixel of the camera images acquired by the cameras 11a to 11d and the virtual camera image acquired by the virtual camera 31 is obtained. Correspondence can be acquired in advance. Note that the one-to-one correspondence between the pixels of the camera image and the virtual camera image may be stored in advance as a lookup table so that it can be used when generating the first bird's-eye view image.

[第2俯瞰映像の作成]
第2俯瞰映像生成部117bは、検出装置12により検出された3次元情報に基づいて、移動装置10の周囲の物体を俯瞰した第2俯瞰映像を生成する。3次元情報は、移動装置10の周囲の物体の表面の位置を示す3次元点の集合体である3次元点群の情報であり、3次元座標値で表される。第2俯瞰映像生成部117bは、まず、形状が既知の3次元物体33を用いて、検出装置12のロボット座標系21に対する位置及び姿勢を示す4×4行列の外部パラメータ行列Mを求める。
[Creation of second bird's-eye view video]
The second bird's-eye view image generation unit 117b generates a second bird's-eye view image of objects around the mobile device 10 based on the three-dimensional information detected by the detection device 12 . The three-dimensional information is information of a three-dimensional point group, which is an aggregate of three-dimensional points indicating the positions of surfaces of objects around the mobile device 10, and is represented by three-dimensional coordinate values. The second bird's-eye view image generating unit 117b first uses the three-dimensional object 33 whose shape is known to obtain a 4×4 extrinsic parameter matrix Md representing the position and orientation of the detection device 12 with respect to the robot coordinate system 21 .

図4は、実施形態に係る外部パラメータ行列を求める際の概念図である。センサ座標系25をロボット座標系21へと変換する際のx軸,y軸,z軸に関する3×3行列の回転行列をそれぞれR,R,Rとし、3次元の並進移動ベクトルをtd→wとすると、Mは以下の式(6)で表現することができる。ただし、式(6)における「0」は、3次元のゼロ列ベクトルを表わすこととする。 FIG. 4 is a conceptual diagram when obtaining an extrinsic parameter matrix according to the embodiment. R 1 , R 2 , and R 3 are rotation matrices of 3×3 matrices with respect to the xd -axis, yd -axis, and zd -axis when converting the sensor coordinate system 25 to the robot coordinate system 21 , and the three-dimensional translation is Assuming that the movement vector is td →w , Md can be expressed by the following equation (6). However, "0" in equation (6) represents a three-dimensional zero column vector.

Figure 0007138856000006
Figure 0007138856000006

式(6)により、R,R,R,td→wが求まれば、外部パラメータ行列Mdが一意に定まる。検出装置12を床面と平行な平面上に設置することにより、z軸の正方向が床面に対して鉛直上向きである条件が成り立つので、R=R=Iが求まる。ただし、Iは、3×3行列の単位行列とする。続いて、図4に例示するように、形状が既知の3次元物体33、具体的には直方体形状の物体を2つ用意して、一方の物体の一面をy平面と一致させるように配置するとともに、他方の物体の一面をz平面と一致させるように配置する。このような環境において検出装置12により取得される3次元情報のうち、特に、x平面、y平面、z平面の各平面上の3次元点群の情報(3次元座標値)を用いることにより、Rおよびtd→wを推定する。以上により、外部パラメータ行列Mが求められる。外部パラメータ行列Mにより、ロボット座標系21とセンサ座標系25とを、以下の式(7)によって関係付けることができ、センサ座標系25における3次元点群(各3次元点)の情報(3次元座標値)をロボット座標系21における表現に変換できる。 If R 1 , R 2 , R 3 , and t d→w are obtained from Equation (6), the extrinsic parameter matrix Md is uniquely determined. By setting the detection device 12 on a plane parallel to the floor surface, the condition that the positive direction of the zd axis is vertically upward with respect to the floor surface is established, so R 1 =R 2 =I can be obtained. However, I is assumed to be a unit matrix of a 3×3 matrix. Subsequently, as illustrated in FIG. 4, three-dimensional objects 33 with known shapes, specifically, two rectangular parallelepiped objects are prepared, and one surface of one object is aligned with the y w z w plane. , and one side of the other object is arranged to coincide with the zwxw plane . Among the three- dimensional information acquired by the detection device 12 in such an environment, in particular, three - dimensional point group information (3 ) to estimate R 3 and t d→w . As described above, the extrinsic parameter matrix Md is obtained. With the extrinsic parameter matrix M d , the robot coordinate system 21 and the sensor coordinate system 25 can be related by the following equation (7), and the information of the three-dimensional point group (each three-dimensional point) in the sensor coordinate system 25 ( three-dimensional coordinate values) can be converted into a representation in the robot coordinate system 21 .

Figure 0007138856000007
Figure 0007138856000007

このようにして、第2俯瞰映像生成部117bは、ロボット座標系21における表現に変換した3次元点群の情報(3次元座標値)を得ることができる。第2俯瞰映像生成部117bは、ロボット座標系21における表現に変換した3次元点群の情報(3次元座標値)のうち、高さ方向にz>0の条件を満たす3次元点の情報のみを抽出することにより、床面よりも上方に存在する3次元点群、すなわち、移動装置10の周囲に存在し、かつ高さのある物体の位置を示す3次元点群の情報(3次元座標値)のみを抽出できる。 In this manner, the second bird's-eye view image generating unit 117b can obtain information (three-dimensional coordinate values) of the three-dimensional point group converted into representation in the robot coordinate system 21. FIG. The second bird's-eye view image generation unit 117b generates information of three-dimensional points satisfying the condition z w >0 in the height direction among the information (three-dimensional coordinate values) of the three-dimensional point group converted into the representation in the robot coordinate system 21 . 3D point group existing above the floor surface, that is, 3D point group information (three-dimensional coordinate values) can be extracted.

移動装置10の周囲に存在する物体の位置を示す3次元点群の情報(3次元座標値)を抽出した後、第2俯瞰映像生成部117bは、これらの3次元点群の情報に対してテクスチャ情報を付与し、テクスチャ情報を付与した3次元点群の情報を床面に投影する。 After extracting three-dimensional point group information (three-dimensional coordinate values) indicating the positions of objects existing around the mobile device 10, the second bird's-eye view image generation unit 117b converts the three-dimensional point group information to Texture information is added, and the information of the three-dimensional point group to which the texture information is added is projected onto the floor surface.

図5は、実施形態に係る3次元点群の情報に対してテクスチャ情報の付与および3次元点群の床面への投影に関する概念図である。第2俯瞰映像生成部117bは、移動装置10の周囲に存在する物体の位置を示す3次元点群の情報(3次元座標値)に対して、カメラ11a~11dにより得られるテクスチャ情報を付与するため、上述した参考文献3,4に提案された手法に基づいて、カメラ11a~11dのロボット座標系21に対する位置および姿勢を示す4×4行列の外部パラメータ行列Kを求める。そして、第2俯瞰映像生成部117bは、外部パラメータ行列Kを用いて、ロボット座標系21およびカメラ座標系23を、以下の式(8)により関係付けることができる。 FIG. 5 is a conceptual diagram of adding texture information to 3D point group information and projecting the 3D point group onto the floor according to the embodiment. The second bird's-eye view image generation unit 117b adds texture information obtained by the cameras 11a to 11d to the information (three-dimensional coordinate values) of the three-dimensional point group indicating the positions of objects existing around the mobile device 10. Therefore, based on the techniques proposed in References 3 and 4 mentioned above, a 4×4 extrinsic parameter matrix K representing the positions and orientations of the cameras 11a to 11d with respect to the robot coordinate system 21 is obtained. Then, the second bird's-eye view image generation unit 117b can use the extrinsic parameter matrix K to associate the robot coordinate system 21 and the camera coordinate system 23 with the following equation (8).

Figure 0007138856000008
Figure 0007138856000008

続いて、第2俯瞰映像生成部117bは、式(7)および式(8)から得らえる、以下の式(9)を用いて、検出装置12により取得される3次元点群の情報(3次元座標値)を、センサ座標系25からカメラ座標系23へと変換する。 Subsequently, the second bird's-eye view image generation unit 117b uses the following equation (9) obtained from equations (7) and (8) to obtain the three-dimensional point group information ( three-dimensional coordinate values) are converted from the sensor coordinate system 25 to the camera coordinate system 23 .

Figure 0007138856000009
Figure 0007138856000009

上述の式(1)により、カメラ画像座標系27における各点と、カメラ座標系23における各方向ベクトルとの1対1対応の関係は、既に求められている。そこで、第2俯瞰映像生成部117bは、式(1)および式(9)を用いることにより、検出装置12により取得された3次元点群に含まれる各3次元点を通る方向ベクトルをそれぞれ求めることができる。このため、第2俯瞰映像生成部117bは、カメラ11a~11dにより取得されるカメラ映像から、移動装置10の周囲に存在する物体の位置を示す3次元点群の各3次元点(例えば、図5に示す点35Aなど)に対して、物体のテクスチャ情報(例えば、RGB値)を付与できる。 A one-to-one correspondence relationship between each point in the camera image coordinate system 27 and each direction vector in the camera coordinate system 23 has already been obtained from the above equation (1). Therefore, the second bird's-eye view image generating unit 117b uses equations (1) and (9) to obtain direction vectors passing through each three-dimensional point included in the three-dimensional point group acquired by the detection device 12. be able to. Therefore, the second bird's-eye view image generation unit 117b generates each 3D point (for example, the 5) can be given texture information (eg, RGB values) of the object.

続いて、第2俯瞰映像生成部117bは、テクスチャ情報を付与した3次元点群の情報(3次元座標値)を床面に投影する。具体的には、第2俯瞰映像生成部117bは、図5に例示するように、ロボット座標系21における点35A=[x,y,zを、床面の点35B=[x,y,0]に正射影変換する。第2俯瞰映像生成部117bは、3次元点群に含まれる各3次元点について、それぞれ正射影変換を実行する。 Subsequently, the second bird's-eye view image generation unit 117b projects the information (three-dimensional coordinate values) of the three-dimensional point group to which the texture information is added onto the floor surface. Specifically, as illustrated in FIG. 5, the second bird's-eye view image generation unit 117b converts a point 35A=[ xw , yw , zw ] T in the robot coordinate system 21 to a point 35B=[ x w , y w , 0] T is orthographically transformed. The second bird's-eye view image generation unit 117b performs orthogonal projection transformation on each three-dimensional point included in the three-dimensional point group.

続いて、第2俯瞰映像生成部117bは、上述の式(4)を用いて、正射影変換後の各点(例えば、点35Bなど)を仮想カメラ画像座標系29に投影することにより、第2俯瞰映像の生成を完了する。 Subsequently, the second bird's-eye view image generation unit 117b projects each point (for example, point 35B, etc.) after the orthogonal projection transformation onto the virtual camera image coordinate system 29 using the above equation (4). 2 Complete the generation of the bird's-eye view video.

[第3映像の生成]
第3映像生成部117cは、第2俯瞰映像における移動装置10と移動装置10の周囲にある物体との相対的な位置関係に基づいて、移動装置10にとって死角となる遮蔽領域を設定した第3映像を生成する。遮蔽領域は、移動装置10の周囲にある物体によって検出装置12のレーザー光が遮蔽されることにより、検出装置12により3次元計測ができず、3次元情報を取得できない領域のことをいう。遮蔽領域は、移動装置10の周囲にある物体によって移動装置10が侵入できない領域と言い換えることもできる。検出装置12により3次元情報が取得できないので、遮蔽領域に関する正確な情報を俯瞰画像上に提示することはできない。そこで、本実施形態において、情報処理装置100は、移動装置10からみて死角となる物体の背後に位置する領域を遮蔽領域と判定し、俯瞰画像上に遮蔽領域を明示することにより、移動装置10の周辺環境において不確かな領域についてオペレータの察知を促す。
[Generation of third image]
Based on the relative positional relationship between the mobile device 10 and objects around the mobile device 10 in the second bird's-eye view video, the third video generation unit 117c sets a blind area for the mobile device 10. generate video. The shielded area is an area in which three-dimensional measurement cannot be performed by the detection device 12 and three-dimensional information cannot be obtained because the laser beam of the detection device 12 is blocked by an object around the moving device 10 . The shielded area can also be rephrased as an area into which the mobile device 10 cannot enter due to objects around the mobile device 10 . Since the detection device 12 cannot acquire three-dimensional information, it is not possible to present accurate information about the shielded area on the bird's-eye view image. Therefore, in the present embodiment, the information processing apparatus 100 determines that an area located behind an object that is a blind spot when viewed from the mobile apparatus 10 is a shielded area, and clearly indicates the shielded area on the bird's-eye view image. prompts the operator's awareness of uncertain areas in the surrounding environment.

図6は、実施形態に係る遮蔽領域39の生成方法を示す概念図である。第3映像生成部117cは、図6に例示するように、第2俯瞰映像生成部117bにより生成された第2俯瞰映像において、センサ座標系27の原点を視点としたときに、この視点からみて死角となる物体の背後、すなわち仮想カメラ31の仮想カメラ画像座標系29に投影された仮想カメラ映像31上の3次元点群37の背後に該当する領域に遮蔽領域39を設定する。 FIG. 6 is a conceptual diagram showing a method of generating the shielded area 39 according to the embodiment. As exemplified in FIG. 6, the third image generating unit 117c generates the second bird's-eye image generated by the second bird's-eye image generating unit 117b. A shielding area 39 is set behind an object that is a blind spot, that is, behind a three-dimensional point group 37 on the virtual camera image 31 projected onto the virtual camera image coordinate system 29 of the virtual camera 31 .

[統合俯瞰映像の生成]
統合俯瞰映像生成部117dは、第1俯瞰映像、第2俯瞰映像及び第3映像を重ねあわせて統合することにより、移動装置10と移動装置10の周囲にある物体との位置関係をオペレータに提示するための最終的な統合俯瞰映像を生成する。図7は、実施形態に係る映像統合処理の概念を示す概念図である。
[Generation of integrated bird's-eye view video]
The integrated bird's-eye view image generator 117d superimposes and integrates the first bird's-eye view image, the second bird's-eye image, and the third image, thereby presenting the positional relationship between the mobile device 10 and objects around the mobile device 10 to the operator. Generate the final integrated bird's-eye view video for FIG. 7 is a conceptual diagram showing the concept of video integration processing according to the embodiment.

図7に例示するように、統合俯瞰映像生成部117dは、まず、遮蔽領域39が設定された第3映像G3に対して、仮想カメラ画像座標系29に3次元点群の情報(3次元座標値)が投影された第2俯瞰映像G2を重ね合わせて統合する。続いて、統合俯瞰映像生成部117dは、第3映像G3に対して第2俯瞰映像G2を統合することにより得られた映像を、第1俯瞰映像G1に重ね合わせて統合することにより、オペレータに提示する最終的な統合俯瞰映像を生成する。 As exemplified in FIG. 7, the integrated bird's-eye view image generation unit 117d first stores the information of the three-dimensional point group (three-dimensional coordinates value) is superimposed and integrated. Subsequently, the integrated bird's-eye view image generation unit 117d superimposes and integrates the image obtained by integrating the second bird's-eye image G2 with the third image G3 on the first bird's-eye image G1. Generate the final integrated bird's-eye view video to be presented.

図8は、実施形態に係る情報処理装置により実行される俯瞰映像生成処理の流れの一例を示すフローチャートである。図8に示す処理は、制御部117が、記憶部115に記憶されているプログラム及びデータに基づいて実行する。 FIG. 8 is a flowchart illustrating an example of the flow of bird's-eye view image generation processing executed by the information processing apparatus according to the embodiment. The processing shown in FIG. 8 is executed by the control unit 117 based on the programs and data stored in the storage unit 115 .

図8に示すように、制御部117は、カメラ11a~11dにより取得されるカメラ映像を俯瞰視点に視点変換した第1俯瞰映像を生成する(ステップS101)。俯瞰視点は、移動装置10を上空から俯瞰する仮想的な俯瞰視点に対応する。 As shown in FIG. 8, the control unit 117 generates a first bird's-eye view image obtained by converting camera images obtained by the cameras 11a to 11d into a bird's-eye view (step S101). A bird's-eye view corresponds to a virtual bird's-eye view that looks down on the mobile device 10 from the sky.

続いて、制御部117は、検出装置12により取得された、移動装置10の周囲にある物体の3次元情報を仮想カメラ座標系29に投影した第2俯瞰映像を生成する(ステップS102)。 Subsequently, the control unit 117 generates a second bird's-eye view image by projecting the three-dimensional information of the objects around the mobile device 10 acquired by the detection device 12 onto the virtual camera coordinate system 29 (step S102).

続いて、制御部117は、第2俯瞰映像における前記移動装置と前記物体との相対的な位置関係に基づいて、移動装置10から死角となる遮蔽領域39を設定した第3映像を生成する(ステップS103)。 Subsequently, the control unit 117 generates a third image in which a blind area 39 is set as a blind spot from the moving device 10 based on the relative positional relationship between the moving device and the object in the second bird's-eye view image ( step S103).

続いて、制御部117は、第1俯瞰映像、第2俯瞰映像、及び第3映像を統合して、と合俯瞰映像を生成し(ステップS104)、図8に示す処理を終了する。 Subsequently, the control unit 117 integrates the first bird's-eye video, the second bird's-eye video, and the third video to generate a combined bird's-eye video (step S104), and ends the processing shown in FIG.

[検証実験]
以下、実施形態に係る俯瞰映像提示システム1により提供される俯瞰映像の検証実験の結果について説明する。図9は、検証実験に係る実験環境を示す図である。図10は、比較例に係る俯瞰画像の一例を示す図である。図11は、図10に示す位置から移動装置を移動させたときの俯瞰映像の一例を示す図である。図12は、図11に示す移動装置を第三者視点から撮影した映像の一例を示す図である。図13は、実施形態に係る俯瞰映像の一例を示す図である。図14は、図13に示す位置から移動装置を移動させたときの俯瞰映像の一例を示す図である。図15は、図14に示す移動装置を第三者視点から撮影した映像の一例を示す図である。
[Verification experiment]
The results of the verification experiment of the bird's-eye view video provided by the bird's-eye view video presentation system 1 according to the embodiment will be described below. FIG. 9 is a diagram showing an experimental environment for verification experiments. FIG. 10 is a diagram showing an example of a bird's-eye view image according to a comparative example. FIG. 11 is a diagram showing an example of a bird's-eye view image when the mobile device is moved from the position shown in FIG. FIG. 12 is a diagram showing an example of a video of the mobile device shown in FIG. 11 photographed from a third-person viewpoint. FIG. 13 is a diagram illustrating an example of a bird's-eye view image according to the embodiment; FIG. 14 is a diagram showing an example of a bird's-eye view image when the mobile device is moved from the position shown in FIG. FIG. 15 is a diagram showing an example of a video of the mobile device shown in FIG. 14 photographed from a third-person viewpoint.

[実験環境]
図9は、実施形態に係る俯瞰映像提示システム1により提供される俯瞰映像の検証実験の実験環境を示す図である。図9に例示するように、検証実験は、屋内において移動装置10の前方に一組の障害物50を配置した環境で実施した。障害物50を構成する障害物51及び障害物52は、それぞれ配管の一部を模擬したような形状を有し、それぞれ高さ及び水平位置をかえて宙吊りの状態で設置した。一方の障害物51は、移動装置10に備えられたカメラ11a~11dの高さと同様の高さとなるように設置した。また、実験環境において、検出装置12により取得される3次元点群のうち、特に、x平面、y平面、z平面上の3次元点群を確認しながら、上述した「R」及び「td→w」を推定することにより、外部パラメータ行列Mdを算出した。
[Experiment environment]
FIG. 9 is a diagram showing an experimental environment for a bird's-eye view video verification experiment provided by the bird's-eye view video presentation system 1 according to the embodiment. As illustrated in FIG. 9 , the verification experiment was conducted indoors in an environment where a set of obstacles 50 were arranged in front of the mobile device 10 . Obstacles 51 and 52 constituting the obstacle 50 each have a shape that simulates a part of a pipe, and are installed in a suspended state with different heights and horizontal positions. One obstacle 51 was installed so as to have the same height as the cameras 11 a to 11 d provided in the mobile device 10 . In addition, in the experimental environment, among the three-dimensional point clouds acquired by the detection device 12, while confirming the three-dimensional point clouds on the xwyw plane , the ywzw plane , and the zwxw plane, The extrinsic parameter matrix Md was calculated by estimating “R 3 ” and “t d→w ” described above.

図10および図11に例示するように、参考文献Zにより提案される従来手法により生成される俯瞰画像301及び俯瞰画像302によれば、移動装置10の移動前及び移動装置10の移動後のいずれにおいても、移動装置10の前方に配置した1組の障害物50のうち、移動装置10に対して相対的に近い位置に配置されている障害物51が俯瞰映像中に描画されていない。また、図11に示す俯瞰画像302において、障害物50のうち、移動装置10に対して相対的に離れた位置に配置されている障害物52が、鉛直方向に歪んだ状態で描画されている。図12に例示する映像303からも分かるとおり、図11に示す状況は、移動装置10と障害物50とが衝突してしまっているが、従来の手法により生成される俯瞰画像302では障害物50の位置が正確に提示されていないので、オペレータが俯瞰画像301及び俯瞰画像302を参照することによって、移動装置10と障害物50との衝突を回避することは難しい。 As illustrated in FIGS. 10 and 11, according to the bird's-eye view image 301 and the bird's-eye view image 302 generated by the conventional method proposed in Reference Z, either before the movement of the mobile device 10 or after the movement of the mobile device 10 3, among the set of obstacles 50 placed in front of the mobile device 10, the obstacle 51 placed relatively close to the mobile device 10 is not drawn in the bird's-eye view image. Further, in the bird's-eye view image 302 shown in FIG. 11, among the obstacles 50, the obstacle 52 arranged at a position relatively distant from the mobile device 10 is drawn in a vertically distorted state. . As can be seen from the image 303 illustrated in FIG. 12, in the situation illustrated in FIG. 11, the mobile device 10 and the obstacle 50 collide. is not accurately presented, it is difficult for the operator to avoid collision between the mobile device 10 and the obstacle 50 by referring to the bird's-eye view image 301 and the bird's-eye view image 302 .

一方、図13および図14に例示するように、実施形態に係る情報処理装置100の処理によって生成される俯瞰画像311及び俯瞰画像312によれば、移動装置10の移動前及び移動装置10の移動後のいずれにおいても、移動装置10の前方に配置した1組の障害物50を構成する障害物51及び障害物52が描画されている。特に、図15に示す映像からも分かるとおり、図14に例示する俯瞰画像312では、障害物51の手前で移動装置10が旋回されている様子が確認できる。このように、実施形態に係る俯瞰映像提示システム1は、図13に例示する俯瞰画像311及び図14に例示する俯瞰画像312のように、移動装置10の周囲に存在する物体の位置をできるだけ正確に提示する俯瞰映像をオペレータに提示できる。このため、実際の災害現場等において、情報処理装置100により生成される俯瞰画像に基づいて、オペレータは移動装置10の周囲環境を認識することができるので、移動装置10と移動装置10の周囲に存在する物体との衝突を回避させる効果が期待できる。 On the other hand, as illustrated in FIGS. 13 and 14 , according to the bird's-eye view image 311 and the bird's-eye view image 312 generated by the processing of the information processing apparatus 100 according to the embodiment, before the movement of the mobile device 10 and when the mobile device 10 moves In each of the following, an obstacle 51 and an obstacle 52 are drawn that form a set of obstacles 50 placed in front of the mobile device 10 . In particular, as can be seen from the video shown in FIG. 15, in the bird's-eye view image 312 shown in FIG. In this way, the bird's-eye video presentation system 1 according to the embodiment can accurately determine the positions of objects existing around the mobile device 10, such as the bird's-eye image 311 illustrated in FIG. 13 and the bird's-eye image 312 illustrated in FIG. The operator can be presented with a bird's-eye view image to be presented to the operator. Therefore, at an actual disaster site or the like, the operator can recognize the surrounding environment of the mobile device 10 based on the bird's-eye view image generated by the information processing device 100 . The effect of avoiding collisions with existing objects can be expected.

また、実施形態に係る俯瞰画像311及び俯瞰画像312によれば、障害物50の背後の遮蔽領域39が透過色で描画されており、オペレータが床面に配置された標識41のテクスチャ情報を認識することができる。このため、実施形態に係る俯瞰映像提示システム1は、床面に配置される標識の情報など、災害現場等において移動装置10のオペレーションに重要な情報を認識可能な俯瞰映像をオペレータに提示することができる。 Further, according to the bird's-eye view image 311 and the bird's-eye view image 312 according to the embodiment, the shielding area 39 behind the obstacle 50 is drawn in a transparent color, and the operator recognizes the texture information of the sign 41 placed on the floor. can do. For this reason, the bird's-eye view video presentation system 1 according to the embodiment presents to the operator a bird's-eye view video that enables the operator to recognize information important for the operation of the mobile device 10 at a disaster site or the like, such as information on signs placed on the floor. can be done.

なお、図13における点線間の距離dは画素換算で235ピクセルであり、実世界の尺度に換算した場合、1198mm(ミリメートル)に相当する。図13における点線間の距離dの実測値は1200mmであり、この結果からも、実施形態に係る俯瞰映像提示システム1により提供される俯瞰映像には、移動装置10の周囲にある物体の位置をできるだけ正確に提示していることが証明された。 Note that the distance d between the dotted lines in FIG. 13 is 235 pixels in pixel conversion, which corresponds to 1198 mm (millimeters) when converted to the scale of the real world. The measured value of the distance d between the dotted lines in FIG. 13 is 1200 mm. It proved to be presented as accurately as possible.

上述してきたように、実施形態に係る俯瞰映像提示システム1によれば、検出装置12によって全方位3次元計測を行い、3次元計測により取得される3次元情報を用いることによって、移動装置10の周囲にある物体の位置ができるだけ正確に描画された映像をオペレータに提供できる。移動装置10の周囲にある物体の位置をできるだけ正確に描画した映像をオペレータに提供することができる結果、人の立ち入りが困難な屋内の災害現場などにおいて、移動装置10などのように、遠隔操作により移動可能な遠隔移動装置を操作して災害現場の復旧作業及び調査などを行う際、遠隔移動装置の周囲環境に対するオペレータの認識の誤り、遠隔移動装置の障害物への衝突を容易に回避することでき、災害現場の復旧作業及び調査の安全性を高めることができる。 As described above, according to the bird's-eye view video presentation system 1 according to the embodiment, the detection device 12 performs omnidirectional three-dimensional measurement, and the three-dimensional information acquired by the three-dimensional measurement is used to determine the position of the mobile device 10. The operator can be provided with an image in which the positions of surrounding objects are depicted as accurately as possible. As a result of being able to provide an operator with an image in which the positions of objects around the mobile device 10 are drawn as accurately as possible, it is possible to remotely operate the mobile device 10 at an indoor disaster site that is difficult for people to enter. To easily avoid the operator's misunderstanding of the surrounding environment of the remote mobile device and the collision of the remote mobile device with obstacles when operating the remote mobile device that can be moved by the remote mobile device to perform recovery work and investigation at the disaster site. It is possible to improve the safety of restoration work and investigation of disaster sites.

上記の実施形態は、本発明に係るデータ管理システム、データ記録装置200及びデータ検索装置300の理解を容易にするためのものであって、本発明に係るデータ管理システム、データ記録装置200及びデータ検索装置300を限定的に解釈するものではない。本発明に係るデータ管理システム、データ記録装置200及びデータ検索装置300は、その趣旨を逸脱しない範囲で任意に変更または改良され得る。また、本発明に係るデータ管理システム、データ記録装置200及びデータ検索装置300の構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。 The above embodiments are intended to facilitate understanding of the data management system, the data recording device 200 and the data search device 300 according to the present invention. The search device 300 is not limitedly interpreted. The data management system, data recording device 200, and data retrieval device 300 according to the present invention can be arbitrarily changed or improved without departing from the scope of the invention. The components of the data management system, data recording device 200, and data retrieval device 300 according to the present invention include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that fall within the so-called equivalent range. .

10 移動装置
11a~11d カメラ
12 検出装置
13 通信部
14 アクチュエータ
15 記憶部
16 制御部
100 情報処理装置
111 通信部
113 表示部
115 記憶部
117 制御部
117a 第1俯瞰映像生成部
117b 第2俯瞰映像生成部
117c 第3映像生成部
117d 統合俯瞰映像生成部
10 mobile device 11a to 11d camera 12 detection device 13 communication unit 14 actuator 15 storage unit 16 control unit 100 information processing device 111 communication unit 113 display unit 115 storage unit 117 control unit 117a first overhead image generation unit 117b second overhead image generation Unit 117c Third video generation unit 117d Integrated bird's-eye view video generation unit

Claims (2)

遠隔操作可能な移動装置と、前記移動装置とデータ通信可能な情報処理装置とを含む俯瞰映像提示システムであって、
前記移動装置は、
通信部と、
前記移動装置の周囲を広角に撮影する複数台のカメラと、
前記移動装置の走行面に平行な全方位に向かって放射状のレーザー光を照射することにより、前記移動装置の周囲の物体の位置を示す3次元情報を取得する検出装置と
を有し、
前記情報処理装置は、
通信部と、
前記カメラにより取得される映像を、前記移動装置を俯瞰する仮想的な俯瞰視点からみた映像に視点変換することにより第1俯瞰映像を生成する第1俯瞰映像生成部と、
前記俯瞰視点を規定する座標系に前記3次元情報を投影することにより第2俯瞰映像を生成する第2俯瞰映像生成部と、
前記第2俯瞰映像における前記移動装置と前記物体との相対的な位置関係に基づいて、前記移動装置から死角となる領域を設定した第3映像を生成する第3映像生成部と、
前記第1俯瞰映像、前記第2俯瞰映像、及び前記第3映像を統合することにより、統合俯瞰映像を生成する統合映像生成部と、
前記統合俯瞰映像を表示する表示部と
を備え
前記統合映像生成部は、前記第3映像に対して、前記第2俯瞰映像を重ね合わせた画像を取得し、取得した画像を前記第1俯瞰映像に重ね合わせることを特徴とする俯瞰映像提示システム。
A bird's-eye view video presentation system including a remotely operable mobile device and an information processing device capable of data communication with the mobile device,
The moving device
a communications department;
a plurality of cameras for wide-angle imaging of the surroundings of the mobile device;
a detection device that acquires three-dimensional information indicating the positions of objects around the moving device by irradiating radial laser light in all directions parallel to the traveling surface of the moving device;
The information processing device is
a communications department;
a first bird's-eye view image generation unit that generates a first bird's-eye view image by viewpoint-converting the image acquired by the camera into a video viewed from a virtual bird's-eye viewpoint that overlooks the mobile device;
a second bird's-eye view image generator that generates a second bird's-eye view image by projecting the three-dimensional information onto a coordinate system that defines the bird's-eye view point;
a third image generation unit configured to generate a third image in which a blind spot area from the moving device is set based on the relative positional relationship between the moving device and the object in the second bird's-eye view image;
an integrated video generation unit configured to generate an integrated bird's-eye video by integrating the first bird's-eye video, the second bird's-eye video, and the third video;
and a display unit that displays the integrated bird's-eye view image ,
The integrated image generation unit acquires an image obtained by superimposing the second overhead image on the third image, and superimposes the acquired image on the first overhead image. system.
前記第2俯瞰映像生成部は、
前記カメラに取得される映像に基づいて、前記3次元情報に対してテクスチャ情報を付与することを特徴とする請求項1に記載の俯瞰映像提示システム。
The second bird's-eye view image generation unit
2. The bird's-eye view image presentation system according to claim 1, wherein texture information is added to said three-dimensional information based on the image acquired by said camera.
JP2018107239A 2018-06-04 2018-06-04 Bird's eye view presentation system Active JP7138856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018107239A JP7138856B2 (en) 2018-06-04 2018-06-04 Bird's eye view presentation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018107239A JP7138856B2 (en) 2018-06-04 2018-06-04 Bird's eye view presentation system

Publications (2)

Publication Number Publication Date
JP2019213039A JP2019213039A (en) 2019-12-12
JP7138856B2 true JP7138856B2 (en) 2022-09-20

Family

ID=68845690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018107239A Active JP7138856B2 (en) 2018-06-04 2018-06-04 Bird's eye view presentation system

Country Status (1)

Country Link
JP (1) JP7138856B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7040660B1 (en) 2021-03-23 2022-03-23 株式会社リコー Information processing equipment and information processing method
JP7438510B2 (en) 2021-10-29 2024-02-27 オムロン株式会社 Bird's-eye view data generation device, bird's-eye view data generation program, bird's-eye view data generation method, and robot

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010287029A (en) 2009-06-11 2010-12-24 Konica Minolta Opto Inc Periphery display device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010287029A (en) 2009-06-11 2010-12-24 Konica Minolta Opto Inc Periphery display device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佐藤貴亮,Alessandro Moro,山下淳,淺間一,複数の魚眼カメラとLRFを用いた重畳型全方位俯瞰画像提示手法の構築,第13回計測自動制御学会システムインテグレーション部門講演会講演論文集 (SI2012),日本,2012年12月18日,pp. 2433-2436

Also Published As

Publication number Publication date
JP2019213039A (en) 2019-12-12

Similar Documents

Publication Publication Date Title
JP7054803B2 (en) Camera parameter set calculation device, camera parameter set calculation method and program
CN110377015B (en) Robot positioning method and robot positioning device
KR101835434B1 (en) Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value
JP4825980B2 (en) Calibration method for fisheye camera.
JP4167954B2 (en) Robot and robot moving method
Harapanahalli et al. Autonomous Navigation of mobile robots in factory environment
Sato et al. Spatio-temporal bird's-eye view images using multiple fish-eye cameras
JP2012075060A (en) Image processing device, and imaging device using the same
JP2011215063A (en) Camera attitude parameter estimation device
WO2017126368A1 (en) Imaging support device and imaging support method
JP2007024647A (en) Distance calculating apparatus, distance calculating method, structure analyzing apparatus and structure analyzing method
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
JP7138856B2 (en) Bird's eye view presentation system
JP2018139084A (en) Device, moving object device and method
US20210156710A1 (en) Map processing method, device, and computer-readable storage medium
Cook et al. Unmanned aerial system for first responders
Jensen et al. Laser range imaging using mobile robots: From pose estimation to 3D-models
JP6368503B2 (en) Obstacle monitoring system and program
KR102438490B1 (en) Heterogeneous sensors calibration method and apparatus using single checkerboard
US20240087166A1 (en) Aligning multiple coordinate systems for informaton model rendering
JP2020064029A (en) Mobile body controller
JP7162218B2 (en) Bird's eye view presentation system
CN212193168U (en) Robot head with laser radars arranged on two sides
JP2019179015A (en) Route display device
CN112257535B (en) Three-dimensional matching equipment and method for avoiding object

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20180620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180620

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220824

R150 Certificate of patent or registration of utility model

Ref document number: 7138856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150