JP2018160835A - Control method for display unit and display unit - Google Patents

Control method for display unit and display unit Download PDF

Info

Publication number
JP2018160835A
JP2018160835A JP2017057754A JP2017057754A JP2018160835A JP 2018160835 A JP2018160835 A JP 2018160835A JP 2017057754 A JP2017057754 A JP 2017057754A JP 2017057754 A JP2017057754 A JP 2017057754A JP 2018160835 A JP2018160835 A JP 2018160835A
Authority
JP
Japan
Prior art keywords
vehicle
pedestrian
camera
virtual viewpoint
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017057754A
Other languages
Japanese (ja)
Other versions
JP6787209B2 (en
Inventor
草柳 佳紀
Yoshinori Kusayanagi
佳紀 草柳
拓良 柳
Hiroyoshi Yanagi
柳  拓良
聡 手賀
Satoshi Tega
聡 手賀
渡辺 省吾
Shogo Watanabe
省吾 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2017057754A priority Critical patent/JP6787209B2/en
Publication of JP2018160835A publication Critical patent/JP2018160835A/en
Application granted granted Critical
Publication of JP6787209B2 publication Critical patent/JP6787209B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a control method for display unit and display unit, capable of suppressing discomfort from being given to an occupant of a mobile body.SOLUTION: The control method for display unit includes: projecting a picked-up image in a three-dimensional shape surrounding a circumference of a mobile body; creating a video with the mobile body and the circumference of the mobile body viewed from a virtual viewpoint positioned outside the three-dimensional shape; identifying an imaging direction of a camera and a region of a projection surface which the virtual viewpoint faces; detecting whether or not an object exists in the region of the projection surface; identifying a direction of an object relative to the camera when the object exists; and displaying a video in which the direction of the object is displayed in an opposite direction.SELECTED DRAWING: Figure 9

Description

本発明は、表示装置の制御方法及び表示装置に関するものである。   The present invention relates to a display device control method and a display device.

一台もしくは複数台のカメラと、カメラからの入力画像を、所定の3次元空間の所定の空間モデルにマッピングする空間再構成手段と、空間再構成手段によってマッピングされた空間データを参照して、所定の3次元空間における任意の仮想視点から見た画像を作成する視点変換手段と、視点変換手段にて変換された画像を表示する表示手段とを備えた画像生成装置が知られている(特許文献1)。この画像生成装置は、移動体に搭載され、当該移動体を斜め下方に見下ろす位置に設定された仮想視点から移動体及び当該移動体の周囲を見た画像を表示する。   With reference to one or a plurality of cameras, spatial reconstruction means for mapping an input image from the camera to a predetermined spatial model of a predetermined three-dimensional space, and spatial data mapped by the spatial reconstruction means, 2. Description of the Related Art An image generation apparatus including a viewpoint conversion unit that creates an image viewed from an arbitrary virtual viewpoint in a predetermined three-dimensional space and a display unit that displays an image converted by the viewpoint conversion unit is known (patent) Reference 1). The image generation apparatus is mounted on a moving body and displays an image of the moving body and the surroundings of the moving body viewed from a virtual viewpoint set at a position where the moving body is looked down obliquely downward.

国際公開第2000−07373号公報International Publication No. 2000-07373

従来技術では、仮想視点から見た画像のうち、仮想視点の方向とカメラの光軸方向とが対向する投影面の領域には、ミラー反転されたカメラの撮像画像が表示されてしまう。そのため、移動体の乗員がミラー反転された表示画像を見ると、移動体の乗員に違和感を与えてしまうという問題がある。   In the prior art, a captured image of a mirror-inverted camera is displayed in an area of a projection plane in which the direction of the virtual viewpoint and the optical axis direction of the camera face each other in the image viewed from the virtual viewpoint. For this reason, when the occupant of the moving body sees the display image in which the mirror is inverted, there is a problem that the occupant of the moving body feels uncomfortable.

本発明は、移動体の乗員に違和感を与えることを抑制することである。   The present invention is to suppress giving a sense of incongruity to a passenger of a moving body.

本発明は、移動体の周囲を囲む立体形状に撮像画像を投影して、立体形状の外側に位置する仮想視点から移動体及び移動体の周囲を見た映像を生成し、カメラの撮像方向と仮想視点が対向する投影面の領域を特定し、特定した投影面の領域内に対象物が存在するか否かを検出し、対象物が存在する場合に、カメラに対する対象物の向きを特定し、対象物の向きを反対向きに表示することで上記課題を解決する。   The present invention projects a captured image onto a three-dimensional shape that surrounds the periphery of the moving object, generates an image of the moving object and the surroundings of the moving object from a virtual viewpoint located outside the three-dimensional shape, Identify the area of the projection plane that the virtual viewpoint is facing, detect whether there is an object within the area of the identified projection plane, and identify the direction of the object relative to the camera when the object exists. The problem is solved by displaying the direction of the object in the opposite direction.

本発明によれば、移動体の乗員に違和感を与えることを抑制できる。   ADVANTAGE OF THE INVENTION According to this invention, it can suppress giving a discomfort to the passenger | crew of a moving body.

図1は、第1実施形態に係る表示装置を備える表示システムの構成図である。FIG. 1 is a configuration diagram of a display system including a display device according to the first embodiment. 図2は、自車両に搭載されたカメラの設置位置の一例を示す図である。FIG. 2 is a diagram illustrating an example of an installation position of a camera mounted on the host vehicle. 図3は、パノラマ映像及び仮想視点を説明するための図である。FIG. 3 is a diagram for explaining a panoramic image and a virtual viewpoint. 図4は、対象領域及び仮想視点映像を説明するための図である。FIG. 4 is a diagram for explaining the target area and the virtual viewpoint video. 図5は、歩行者アイコン画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of a pedestrian icon image. 図6は、自車両の周囲の状況を把握する必要がある場面の一例を示す図である。FIG. 6 is a diagram illustrating an example of a scene where it is necessary to grasp the situation around the host vehicle. 図7は、比較例に係る表示装置が表示する仮想視点映像の一例を示す図である。FIG. 7 is a diagram illustrating an example of a virtual viewpoint video displayed by the display device according to the comparative example. 図8は、第1実施形態に係る表示装置が表示する仮想視点映像の一例を示す図である。FIG. 8 is a diagram illustrating an example of a virtual viewpoint video displayed by the display device according to the first embodiment. 図9は、第1実施形態に係る表示装置の制御手順を示すフローチャート図である。FIG. 9 is a flowchart showing a control procedure of the display device according to the first embodiment. 図10は、他車両アイコン画像及び二輪車アイコン画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of the other vehicle icon image and the two-wheeled vehicle icon image. 図11は、自車両の周囲の状況を把握する必要がある場面の他の例を示す図である。FIG. 11 is a diagram illustrating another example of a scene where it is necessary to grasp the situation around the host vehicle. 図12は、第2実施形態に係る表示装置が表示する仮想視点映像の一例を示す図である。FIG. 12 is a diagram illustrating an example of a virtual viewpoint video displayed by the display device according to the second embodiment. 図13は、第3実施形態に係る表示装置が表示する仮想視点映像の一例を示す図である。FIG. 13 is a diagram illustrating an example of a virtual viewpoint video displayed by the display device according to the third embodiment. 図14Aは、第4実施形態に係る表示装置が表示する仮想視点映像の一例を示す図である。FIG. 14A is a diagram illustrating an example of a virtual viewpoint video displayed by the display device according to the fourth embodiment. 図14Bは、第4実施形態に係る表示装置が表示する仮想視点映像の他の例を示す図である。FIG. 14B is a diagram illustrating another example of the virtual viewpoint video displayed by the display device according to the fourth embodiment. 図15は、歩行者の表示を加工する表示加工処理の一例を示す図である。FIG. 15 is a diagram illustrating an example of a display processing process for processing a pedestrian display.

≪第1実施形態≫
以下、本発明の実施形態を図面に基づいて説明する。本実施形態では、本発明に係る表示装置を、移動体に搭載された表示システム1に適用した場合を例にして説明する。本実施形態の表示システム1は、移動体及び移動体周囲の状況を把握するための映像を移動体の操作者が見るディスプレイに表示する。
<< First Embodiment >>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, a case where the display device according to the present invention is applied to a display system 1 mounted on a moving body will be described as an example. The display system 1 of the present embodiment displays a video for grasping the moving body and the surroundings of the moving body on a display viewed by an operator of the moving body.

図1は、本実施形態に係る表示装置100を含む表示システム1のブロック構成図である。図1に示すように、本実施形態の表示システム1は、表示装置100と、移動体装置200とを備える。表示装置100と移動体装置200の各機器は、いずれも図示しない有線又は無線の通信装置を備え、互いに情報の授受を行う。   FIG. 1 is a block configuration diagram of a display system 1 including a display device 100 according to the present embodiment. As shown in FIG. 1, the display system 1 of this embodiment includes a display device 100 and a mobile device 200. Each device of the display device 100 and the mobile device 200 includes a wired or wireless communication device (not shown), and exchanges information with each other.

本実施形態の表示システム1が適用される移動体は、車両、海底探査機、装甲車、列車、フォークリフトその他の移動機能を備えるものを含む。本実施形態では、移動体が車両である場合を例にして説明する。なお、本実施形態の移動体は、人間が搭乗可能な有人機であってもよいし、人間が搭乗しない無人機であってもよい。   The moving body to which the display system 1 of the present embodiment is applied includes a vehicle, a submarine explorer, an armored vehicle, a train, a forklift, and other devices having a moving function. In the present embodiment, a case where the moving body is a vehicle will be described as an example. Note that the moving body of the present embodiment may be a manned machine on which a human can be boarded, or an unmanned machine on which a human is not boarding.

なお、本実施形態の表示システム1は、移動体に搭載された装置として構成してもよいし、移動体に持ち込み可能な可搬装置として構成してもよい。また、本実施形態の表示システム1の一部の構成を移動体に搭載し、他の構成を移動体とは物理的に別の装置に搭載し、構成を分散させてもよい。この場合において、移動体と別の装置とは、情報の授受が可能なように構成される。   Note that the display system 1 of the present embodiment may be configured as an apparatus mounted on a moving body, or may be configured as a portable apparatus that can be brought into the moving body. In addition, a part of the configuration of the display system 1 according to the present embodiment may be mounted on a moving body, and another configuration may be mounted on a device physically different from the moving body, and the configuration may be distributed. In this case, the mobile body and another device are configured to be able to exchange information.

図1に示すように、本実施形態の移動体装置200は、カメラ20と、コントローラ30と、乗員操作装置40と、ディスプレイ50と、を備える。これらの各装置はCAN(Controller Area Network)その他の移動体に搭載されたLANによって接続され、相互に情報の授受を行うことができる。   As shown in FIG. 1, the mobile device 200 of the present embodiment includes a camera 20, a controller 30, an occupant operation device 40, and a display 50. Each of these devices is connected by a LAN (CAN) (Controller Area Network) or other LAN mounted on a mobile body, and can exchange information with each other.

本実施形態のカメラ20は、車両(移動体の一例である。以下同じ)の所定位置に設けられている。カメラ20の個数及びカメラ20の設置位置は、特に限定されないが、車両の周囲を撮像するのに必要な個数及び設置位置であることが好ましい。車両に搭載されたカメラ20は、車両及び/又は車両の周囲を撮像し、その撮像画像を表示装置100に送出する。本実施形態における撮像画像は、車両の一部と車両の周囲の映像を含む。撮像画像のデータは、車両又は車両の周囲の映像の生成処理、生成した映像から対象物の検出処理に用いられる。   The camera 20 of the present embodiment is provided at a predetermined position of a vehicle (an example of a moving body, the same applies hereinafter). The number of cameras 20 and the installation positions of the cameras 20 are not particularly limited, but are preferably the number and installation positions necessary for imaging the surroundings of the vehicle. The camera 20 mounted on the vehicle images the vehicle and / or the surroundings of the vehicle and sends the captured image to the display device 100. The captured image in the present embodiment includes a part of the vehicle and a video around the vehicle. The captured image data is used for generation processing of a vehicle or a video around the vehicle and detection processing of an object from the generated video.

図2は、自車両Vに搭載されたカメラ20の設置位置の一例を示す図である。図2(A)は自車両Vの正面図であり、図2(B)は自車両Vの左側面図であり、図2(C)は自車両Vの上面図である。図2(A)〜(C)に示すように、自車両Vには、自車両Vの前方に前方カメラ21が設置され、自車両Vの後方に後方カメラ22が設置されており、前方カメラ21と後方カメラ22は対向している。また、自車両Vには、自車両Vの左側に左方カメラ23が設置され、自車両Vの右側に右方カメラ24が設置されており、左方カメラ23と右方カメラ24は対向している。同図に示す例では、前方カメラ21は自車両Vのバンパーに設置され、後方カメラ22は自車両Vのリアウィンド周辺に設置され、左方カメラ23は右側ドアミラーに設置され、右方カメラ24は右側ドアミラーに設置されている。なお、カメラ20の設置位置は特に限定されず、その設置位置を任意に変更できる。   FIG. 2 is a diagram illustrating an example of an installation position of the camera 20 mounted on the host vehicle V. 2A is a front view of the host vehicle V, FIG. 2B is a left side view of the host vehicle V, and FIG. 2C is a top view of the host vehicle V. FIG. As shown in FIGS. 2A to 2C, the host vehicle V has a front camera 21 installed in front of the host vehicle V and a rear camera 22 installed in the rear of the host vehicle V. 21 and the rear camera 22 face each other. The host vehicle V has a left camera 23 installed on the left side of the host vehicle V and a right camera 24 installed on the right side of the host vehicle V. The left camera 23 and the right camera 24 face each other. ing. In the example shown in the figure, the front camera 21 is installed on the bumper of the host vehicle V, the rear camera 22 is installed around the rear window of the host vehicle V, the left camera 23 is installed on the right door mirror, and the right camera 24 is installed. Is installed in the right door mirror. In addition, the installation position of the camera 20 is not specifically limited, The installation position can be changed arbitrarily.

また、カメラ20は、広角レンズを有しており、車両の周辺の対象物を撮像する。カメラ20には、例えば、CCDカメラやCMOSカメラが挙げられる。同図に示す例では、前方カメラ21は自車両Vの前方を撮像し、後方カメラ22は自車両Vの後方を撮像し、左方カメラ23は自車両Vの左側を撮像し、右方カメラ24は自車両Vの右側を撮像する。なお、カメラ20が撮像する方向(カメラ20の撮像方向)は特に限定されず、その撮像方向を任意に設定できる。各カメラ20は後述する制御装置10からの指令又は予め設定されたタイミングで撮像画像を表示装置100へ送出する。   Moreover, the camera 20 has a wide-angle lens and images an object around the vehicle. Examples of the camera 20 include a CCD camera and a CMOS camera. In the example shown in the figure, the front camera 21 images the front of the host vehicle V, the rear camera 22 images the rear of the host vehicle V, the left camera 23 images the left side of the host vehicle V, and the right camera. 24 images the right side of the host vehicle V. Note that the direction in which the camera 20 captures an image (the capturing direction of the camera 20) is not particularly limited, and the capturing direction can be arbitrarily set. Each camera 20 sends a captured image to the display device 100 at a command from the control device 10 described later or at a preset timing.

カメラ20が撮像方向は、カメラ20の光軸方向に応じて決まる。本実施形態では、カメラ20の光軸方向とは、カメラ20のレンズが向いている方向である。なお、光軸とは、レンズの中心を通り、レンズ面に垂直な直線である。カメラ20の撮像方向は、後述する投影面のうち、仮想視点と対向する投影面の領域の特定に用いられる。   The imaging direction of the camera 20 is determined according to the optical axis direction of the camera 20. In the present embodiment, the optical axis direction of the camera 20 is a direction in which the lens of the camera 20 faces. The optical axis is a straight line that passes through the center of the lens and is perpendicular to the lens surface. The imaging direction of the camera 20 is used to specify the area of the projection plane that faces the virtual viewpoint among the projection planes described later.

本実施形態において、カメラ20が撮像した撮像画像は、映像の生成に用いられるほか、対象物の検出に用いられる。本実施形態のカメラ20の撮像画像は、車両の周囲の対象物の映像を含む。本実施形態における対象物は、移動体周囲の地表、移動体周囲の物体を含む。   In the present embodiment, the captured image captured by the camera 20 is used for generating a video and for detecting an object. The captured image of the camera 20 of the present embodiment includes an image of an object around the vehicle. The target object in the present embodiment includes a ground surface around the moving body and an object around the moving body.

本実施形態では、地表は、地球の表面、地球の地殻(土地)の表面を含む概念を示す用語である。また、対象物は、自車両Vの周囲に存在する他車両、歩行者、道路構造物、駐車場、標識、施設、その他の物体を含む。   In the present embodiment, the ground surface is a term indicating a concept including the surface of the earth and the surface of the earth's crust (land). The target object includes other vehicles, pedestrians, road structures, parking lots, signs, facilities, and other objects existing around the host vehicle V.

本実施形態のコントローラ30は、自車両Vを含む移動体の動作を制御する。コントローラ30は、移動体のカメラ20が撮像した撮像画像データを集中的に管理する。   The controller 30 of this embodiment controls the operation of the moving object including the host vehicle V. The controller 30 centrally manages the captured image data captured by the mobile camera 20.

本実施形態の乗員操作装置40は、表示装置100が起動する表示スイッチであり、自車両Vの乗員により操作される。表示スイッチがオンすると、表示装置100は起動し、ディスプレイ50に映像を表示する。反対に、スイッチがオフすると、表示装置100は停止し、ディスプレイ50に映像を表示しない。また、乗員操作装置40は、後述する撮像画像を投影するための立体形状を選択する構成や、仮想視点を設定する構成を備えていてもよい。   The occupant operation device 40 of the present embodiment is a display switch that is activated by the display device 100 and is operated by an occupant of the host vehicle V. When the display switch is turned on, the display device 100 is activated and displays an image on the display 50. Conversely, when the switch is turned off, the display device 100 stops and does not display an image on the display 50. The occupant operation device 40 may include a configuration for selecting a three-dimensional shape for projecting a captured image, which will be described later, and a configuration for setting a virtual viewpoint.

本実施形態のディスプレイ50は、後述する表示装置100が生成した、任意の仮想視点から自車両V及びその自車両Vの周囲を見た映像を表示する。なお、本実施形態では、ディスプレイ50を移動体に搭載させた表示システム1を例にして説明するが、移動体に持ち込み可能な可搬の表示装置100側にディスプレイ50を設けてもよい。   The display 50 according to the present embodiment displays an image of the host vehicle V and the surroundings of the host vehicle V viewed from an arbitrary virtual viewpoint generated by the display device 100 described later. In this embodiment, the display system 1 in which the display 50 is mounted on a moving body will be described as an example. However, the display 50 may be provided on the portable display device 100 side that can be brought into the moving body.

次に、本実施形態の表示装置100について説明する。本実施形態の表示装置100は、制御装置10を備える。   Next, the display device 100 of this embodiment will be described. The display device 100 of this embodiment includes a control device 10.

図1に示すように、本実施形態に係る表示装置100の制御装置10は、移動体及びその周囲の映像を表示させるプログラムが格納されたROM(Read Only Memory)12と、このROM12に格納されたプログラムを実行することで、表示装置100の機能を実現させる動作回路としてのCPU(Central Processing Unit)11と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)13と、を備える。なお、動作回路として、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを用いてもよい。また、制御装置10は、画像処理を実行するGPU(Graphics Processing Unit)を備えてもよい。   As shown in FIG. 1, the control device 10 of the display device 100 according to the present embodiment stores a ROM (Read Only Memory) 12 in which a program for displaying a moving body and surrounding images is stored, and the ROM 12 stores the program. By executing the program, a CPU (Central Processing Unit) 11 as an operation circuit for realizing the function of the display device 100 and a RAM (Random Access Memory) 13 functioning as an accessible storage device are provided. An MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like may be used as the operation circuit. The control device 10 may include a GPU (Graphics Processing Unit) that executes image processing.

本実施形態に係る表示装置100の制御装置10は、画像取得機能と、立体形状設定機能と、パノラマ映像生成機能と、仮想視点映像作成機能と、対象領域特定機能と、対象物検出機能と、対象物表示変更機能と、表示制御機能とを実現する。本実施形態の制御装置10は、上記機能を実現するためのソフトウェアと、上述したハードウェアの協働により各機能を実行する。以降では、自車両Vの乗員が乗員操作装置40を操作して、表示スイッチはオンしているものとして説明する。   The control device 10 of the display device 100 according to the present embodiment includes an image acquisition function, a three-dimensional shape setting function, a panoramic video generation function, a virtual viewpoint video creation function, a target area specifying function, a target object detection function, An object display change function and a display control function are realized. The control apparatus 10 of this embodiment performs each function by cooperation of the software for implement | achieving the said function, and the hardware mentioned above. In the following description, it is assumed that the occupant of the host vehicle V operates the occupant operating device 40 and the display switch is on.

以下、制御装置10が実現する各機能についてそれぞれ説明する。   Hereinafter, each function realized by the control device 10 will be described.

まず、制御装置10の画像取得機能について説明する。本実施形態の制御装置10は、カメラ20が撮像した撮像画像のデータを取得する。表示装置100は、図示しない通信装置を用いて移動体装置200から撮像画像のデータを取得する。   First, the image acquisition function of the control device 10 will be described. The control device 10 according to the present embodiment acquires captured image data captured by the camera 20. The display device 100 acquires captured image data from the mobile device 200 using a communication device (not shown).

次に、制御装置10の立体形状設定機能について説明する。撮像画像を投影するために予め定義された立体形状(空間モデル)は、ROM12に記憶されている。制御装置10は、ROM12から空間モデルを読み出すことで、空間モデルを設定する。なお、空間モデルを設定する方法は、ROM12から読み出す方法に限定されない。例えば、自車両Vの乗員が乗員操作装置40を介して入力する方法でもよく、又は自車両Vの乗員が乗員操作装置40を介して予め用意された複数種の空間モデルから選択する方法でもよい。後に詳述するが、空間モデルは、3次元空間を示す立体形状の空間であり、カメラ20の撮像画像を投影する際に用いられる。   Next, the three-dimensional shape setting function of the control device 10 will be described. A solid shape (space model) defined in advance for projecting a captured image is stored in the ROM 12. The control device 10 sets the space model by reading the space model from the ROM 12. Note that the method of setting the space model is not limited to the method of reading from the ROM 12. For example, a method in which an occupant of the host vehicle V inputs via the occupant operation device 40 or a method in which an occupant of the host vehicle V selects from a plurality of types of spatial models prepared in advance via the occupant operation device 40 may be used. . As will be described in detail later, the space model is a three-dimensional space representing a three-dimensional space, and is used when projecting an image captured by the camera 20.

空間モデルの態様は特に限定されない。空間モデルの形状としては、例えば、直方体、立方体、多角柱、円筒形状、球形状、半球形状等が挙げられる。空間モデルは、その内側に自車両V(移動体)が存在するときの周囲の映像を投影するためのものである。このため、空間モデルのうちいずれの形状であっても、自車両Vは空間モデルの内側に存在する。言い換えると、空間モデルは自車両Vを取り囲んでいる。なお、空間モデルは、座標系(アドレス)で構成される。本実施形態では、円筒形状の空間モデルを設定した場合について説明する。   The aspect of the spatial model is not particularly limited. Examples of the shape of the space model include a rectangular parallelepiped, a cube, a polygonal column, a cylinder, a sphere, and a hemisphere. The space model is for projecting a surrounding image when the host vehicle V (moving body) exists inside. For this reason, the host vehicle V exists inside the space model regardless of the shape of the space model. In other words, the space model surrounds the host vehicle V. The space model is composed of a coordinate system (address). In this embodiment, a case where a cylindrical space model is set will be described.

次に、図3を参照して、制御装置10のパノラマ映像生成機能について説明する。図3は、パノラマ映像及び仮想視点を説明するための図である。   Next, the panoramic video generation function of the control device 10 will be described with reference to FIG. FIG. 3 is a diagram for explaining a panoramic image and a virtual viewpoint.

制御装置10は、カメラ20の撮像画像を円筒形状の空間モデルPに投影する。投影手法は、特に限定されない。制御装置10は、出願時に知られたプロジェクションマッピング技術を用いて、投影処理を実行してもよい。撮像画像のデータのアドレスと、空間モデルPのアドレス(座標値)との対応情報を用いて、投影処理を実行してもよい。   The control device 10 projects a captured image of the camera 20 onto a cylindrical space model P. The projection method is not particularly limited. The control device 10 may execute the projection process using a projection mapping technique known at the time of filing. The projection processing may be executed using correspondence information between the address of the captured image data and the address (coordinate value) of the space model P.

制御装置10は、カメラ20の撮像画像のデータを空間モデルPにマッピングすることで、自車両Vの周囲を示すパノラマ映像PIを生成する。生成されたパノラマ映像PIの形状は、空間モデルPの形状に対応する。空間モデルPが円筒形状の場合、制御装置10は、空間モデルPの側面Sにカメラ20の撮像画像のデータをマッピングすることで、円筒形状のパノラマ映像PIを生成する。なお、制御装置10は、空間モデルPの形状に応じて、カメラ20の撮像画像のデータのマッピングする位置を適宜変更してパノラマ映像PIを生成することができる。例えば、空間モデルPが長方形の場合、制御装置10は、長方形の側面にカメラ20の撮像画像のデータをマッピングする。   The control device 10 generates panoramic video PI showing the surroundings of the host vehicle V by mapping the data of the captured image of the camera 20 to the space model P. The shape of the generated panoramic image PI corresponds to the shape of the space model P. When the space model P has a cylindrical shape, the control device 10 maps the captured image data of the camera 20 onto the side surface S of the space model P, thereby generating a cylindrical panoramic image PI. Note that the control device 10 can generate the panoramic video PI by appropriately changing the mapping position of the captured image data of the camera 20 according to the shape of the space model P. For example, when the space model P is a rectangle, the control device 10 maps the data of the captured image of the camera 20 on the side surface of the rectangle.

また、制御装置10は、空間モデルPの内側に自車両Vを表示する。空間モデルPでの自車両Vの表示方法は特に限定されない。自車両Vの表示として、予め撮像した自車両Vの撮像画像を、空間モデルPに重畳させて表示してもよい。また、予め用意された自車両Vを示す車両アイコン画像Vを、空間モデルPに重畳させて表示してもよい。車両アイコン画像Vは、自車両Vの意匠に基づいて予め作成し、ROM12に記憶させてもよい。このように、車両アイコン画像Vを映像に重畳させることにより、自車両Vの位置及び向きと周囲の映像との関係を分かりやすく示すことができる。本実施形態では、空間モデルPでの自車両Vの表示として、車両アイコン画像Vを用いて説明する。 In addition, the control device 10 displays the host vehicle V inside the space model P. The display method of the own vehicle V in the space model P is not particularly limited. As a display of the host vehicle V, a captured image of the host vehicle V captured in advance may be displayed superimposed on the space model P. Further, a vehicle icon image V indicating the host vehicle V prepared in advance may be displayed superimposed on the space model P. The vehicle icon image V may be created in advance based on the design of the host vehicle V and stored in the ROM 12. In this way, by superimposing the vehicle icon image V on the video, the relationship between the position and orientation of the host vehicle V and the surrounding video can be shown in an easily understandable manner. In the present embodiment, the display of the host vehicle V in the space model P will be described using a vehicle icon image V .

制御装置10は、空間モデルPの内側に車両アイコン画像Vの位置を決定するとともに、車両アイコン画像Vの向きを決定する。本実施形態では、制御装置10は、円筒形状の底面Bを自車両Vが走行する路面として扱い、車両アイコン画像Vをこの底面Bの中央に表示する。なお、車両アイコン画像Vの位置は特に限定されず、車両アイコン画像Vの位置を任意の位置に設定又は設定後に変更してもよい。 The control device 10 determines the position of the vehicle icon image V inside the space model P and determines the direction of the vehicle icon image V . In the present embodiment, the control device 10 treats the cylindrical bottom surface B as a road surface on which the host vehicle V travels, and displays a vehicle icon image V at the center of the bottom surface B. The vehicle icon image V 'position of is not particularly limited, the vehicle icon image V' the position of may be changed after setting or set at an arbitrary position.

制御装置10は、空間モデルPの形状に応じた自車両Vの周囲映像(パノラマ映像PI)を生成する。制御装置10は、車両アイコン画像Vから見て前方側の円筒形状の側面に、前方カメラ21の撮像画像データをマッピングし、車両アイコン画像Vから見て後方側の円筒形状の側面に、後方カメラ22の撮像画像データをマッピングする。また、制御装置10は、車両アイコン画像Vから見て左方側の円筒形状の側面に、左方カメラ23の撮像画像データをマッピングし、車両アイコン画像Vから見て右方側の円筒形状の側面に、右方カメラ24の撮像画像データをマッピングする。これにより、円筒形状の円弧状の側面Sに沿って、自車両Vの全周囲の映像を示すパノラマ映像PIが生成される。図3では、円筒形状のパノラマ映像PIを斜線で示す。 The control device 10 generates a surrounding image (panoramic image PI) of the host vehicle V according to the shape of the space model P. Controller 10 'on the side surface of the front side of the cylindrical shape as viewed from mapping the captured image data of the front camera 21, the vehicle icon image V' vehicle icon image V on the side surface of the rear side of the cylindrical shape as viewed from, The captured image data of the rear camera 22 is mapped. Further, the control unit 10, the vehicle 'on the side surface of the cylindrical when viewed from the left side, mapping the captured image data of the left camera 23, the vehicle icon image V' icon image V cylinder right side as seen from The captured image data of the right camera 24 is mapped to the side of the shape. As a result, a panoramic image PI indicating an image of the entire periphery of the host vehicle V is generated along the cylindrical arcuate side surface S. In FIG. 3, a cylindrical panoramic image PI is indicated by diagonal lines.

制御装置10は、空間モデルPに対して上述の処理をすると、処理後の空間モデルPのデータをパノラマ映像情報として扱う。パノラマ映像情報には、空間モデルPの態様、カメラ20の撮像画像のデータを含むパノラマ映像、車両アイコン画像Vの位置及び向き等の情報が含まれる。 When the control device 10 performs the above-described processing on the space model P, the data of the space model P after processing is handled as panoramic video information. The panoramic video information includes information such as the aspect of the space model P, the panoramic video including data of the image captured by the camera 20, and the position and orientation of the vehicle icon image V .

次に、図3、4を参照して、制御装置10の仮想視点映像作成機能について説明する。制御装置10は、パノラマ映像情報の投影処理の基準視点として、仮想視点VPを設定する。具体的には、制御装置10は、仮想視点の位置及び向きを決定する。   Next, the virtual viewpoint video creation function of the control device 10 will be described with reference to FIGS. The control device 10 sets the virtual viewpoint VP as the reference viewpoint for the projection processing of panoramic video information. Specifically, the control device 10 determines the position and orientation of the virtual viewpoint.

本実施形態の制御装置10は、空間モデルPの外側に仮想視点VPの位置を設定する。図3では、仮想視点VPを、空間モデルPの外側であって、車両アイコン画像Vを斜め下に見下ろす位置に示す。本実施形態において、仮想視点VPから見た自車両V及び自車両Vの周囲を示す映像は、自車両V及び自車両Vの周辺の状況を把握する場面で用いられる。例えば、自車両Vが交差点に進入しようとする際に、自車両Vの乗員は、自車両Vの左右の状況を同時に把握する必要がある。そのため、制御装置10は、交差点周辺の対象物(他車両、歩行者、道路構造物、標識、施設、その他の物体)の状況を把握するために、例えば、車両アイコン画像Vを斜め下に見下ろす位置に、仮想視点VPの位置を決定する。 The control device 10 according to the present embodiment sets the position of the virtual viewpoint VP outside the space model P. In FIG. 3, the virtual viewpoint VP is shown outside the space model P and at a position where the vehicle icon image V is looked down diagonally downward. In the present embodiment, the host vehicle V viewed from the virtual viewpoint VP and an image showing the surroundings of the host vehicle V are used in a scene for grasping the host vehicle V and the situation around the host vehicle V. For example, when the host vehicle V is about to enter an intersection, an occupant of the host vehicle V needs to grasp the left and right situations of the host vehicle V at the same time. Therefore, in order to grasp the situation of objects (another vehicle, a pedestrian, a road structure, a sign, a facility, other objects) around the intersection, the control device 10 places the vehicle icon image V diagonally downward, for example. The position of the virtual viewpoint VP is determined at the position to look down.

そして、制御装置10は、仮想視点の位置から車両アイコン画像Vを見た方向を、仮想視点VPの方向として設定する。なお、制御装置10は、仮想視点VPの方向に代えて又は仮想視点VPの方向とともに、仮想視点VPの視点角度を算出してもよい。 Then, the control device 10 sets the direction in which the vehicle icon image V is viewed from the position of the virtual viewpoint as the direction of the virtual viewpoint VP. Note that the control device 10 may calculate the viewpoint angle of the virtual viewpoint VP instead of the direction of the virtual viewpoint VP or together with the direction of the virtual viewpoint VP.

本実施形態では、仮想視点VPは、空間モデルPとともに、予めROM12に記憶されている。なお、仮想視点VPは予め設定されていることに限定されず、自車両Vの乗員が乗員操作装置40を介して任意に仮想視点VP(位置、方向)を設定してもよい。また、仮想視点VPを任意の位置に設定又は設定後に変更してもよい。   In the present embodiment, the virtual viewpoint VP is stored in advance in the ROM 12 together with the space model P. Note that the virtual viewpoint VP is not limited to being set in advance, and an occupant of the host vehicle V may arbitrarily set the virtual viewpoint VP (position, direction) via the occupant operation device 40. Further, the virtual viewpoint VP may be set to an arbitrary position or changed after the setting.

制御装置10は、パノラマ映像情報、仮想視点の位置及び方向を参照して、仮想視点からパノラマ映像を見た投影映像を、仮想視点映像として作成する。例えば、制御装置10は、パノラマ映像情報に含まれるカメラ20の撮像画像のデータを座標変換して、合成することで、仮想視点VPからの投影映像を作成する。   The control device 10 refers to the panoramic video information and the position and direction of the virtual viewpoint, and creates a projection video in which the panoramic video is viewed from the virtual viewpoint as a virtual viewpoint video. For example, the control device 10 generates a projected video from the virtual viewpoint VP by performing coordinate conversion on the data of the captured image of the camera 20 included in the panoramic video information and combining the data.

図4は、対象領域及び仮想視点映像を説明するための図である。図4では、図3に示す仮想視点VPから見た仮想視点映像PVを示している。なお、説明の便宜上、図4に仮想視点VPを表示している。   FIG. 4 is a diagram for explaining the target area and the virtual viewpoint video. 4 shows a virtual viewpoint video PV viewed from the virtual viewpoint VP shown in FIG. For convenience of explanation, a virtual viewpoint VP is displayed in FIG.

本実施形態では、仮想視点VPは空間モデルPの外側に設置されるため、作成された仮想視点映像PVには、撮像画像が投影された空間モデルPの全容が表示される。空間モデルPが円筒形状の場合、制御装置10が作成した仮想視点映像PVには、仮想視点VPから見た円筒形状の空間モデルPが表示されるとともに、円筒形状の側面Sに沿ってパノラマ映像PIが表示される。また、この仮想視点映像PVには、円筒形状の底面Bの中央に車両アイコン画像Vが表示される。 In this embodiment, since the virtual viewpoint VP is installed outside the space model P, the entire image of the space model P onto which the captured image is projected is displayed on the created virtual viewpoint video PV. When the space model P has a cylindrical shape, the virtual viewpoint image PV created by the control device 10 displays the cylindrical space model P viewed from the virtual viewpoint VP, and also displays a panoramic image along the side surface S of the cylinder shape. PI is displayed. In the virtual viewpoint video PV, a vehicle icon image V is displayed at the center of the cylindrical bottom surface B.

次に、制御装置10の対象領域特定機能について説明する。制御装置10は、作成した仮想視点映像PVのうち、自車両Vのカメラ20の撮像方向と仮想視点VPが対向する投影面の領域を、対象領域TAとして特定する。制御装置10は、まず、作成した仮想視点映像PVのうち、自車両Vのカメラ20の撮像方向と仮想視点VPが対向する投影面の領域が存在するか否かを判定する。   Next, the target area specifying function of the control device 10 will be described. The control device 10 identifies, as the target area TA, the area of the projection plane where the imaging direction of the camera 20 of the host vehicle V and the virtual viewpoint VP are opposed to each other in the created virtual viewpoint video PV. First, the control device 10 determines whether or not there is a region on the projection plane where the imaging direction of the camera 20 of the host vehicle V and the virtual viewpoint VP are opposed to each other in the created virtual viewpoint video PV.

制御装置10は、カメラ20の撮像方向を規定する。制御装置10は、予め自車両Vに対するカメラ20(前方カメラ21、後方カメラ22、左方カメラ23、右方カメラ24)の光軸方向を光軸ベクトルとしてROM12に記憶させる。カメラ20は視野角を有しており、制御装置10は、この光軸ベクトルを、カメラ20を中心として視野角の範囲全域まで拡張させることで、放射状に拡がるカメラ20の撮像方向を規定する。本実施形態では、カメラ20に4台のカメラが含まれ、制御装置10は、それぞれのカメラに対応する、4つの撮像方向を規定する。制御装置10は、規定したカメラ20の撮像方向に関する情報を、車両アイコン画像Vに反映させて、車両アイコン画像Vのカメラ20の撮像方向と自車両Vのカメラ20の撮像方向を対応させる。これにより、仮想視点映像PVにおいて、カメラ20の撮像方向を扱うことができる。 The control device 10 defines the imaging direction of the camera 20. The control device 10 stores in advance in the ROM 12 the optical axis direction of the camera 20 (front camera 21, rear camera 22, left camera 23, right camera 24) for the host vehicle V as an optical axis vector. The camera 20 has a viewing angle, and the control device 10 defines the imaging direction of the camera 20 that expands radially by extending this optical axis vector to the entire viewing angle range centering on the camera 20. In the present embodiment, the camera 20 includes four cameras, and the control device 10 defines four imaging directions corresponding to the respective cameras. The control device 10 reflects information regarding the imaging direction of the specified camera 20 on the vehicle icon image V , and associates the imaging direction of the camera 20 of the vehicle icon image V with the imaging direction of the camera 20 of the host vehicle V. . Thereby, the imaging direction of the camera 20 can be handled in the virtual viewpoint video PV.

制御装置10は、設定した仮想視点の位置(アドレス)及び方向と、車両アイコン画像Vの座標(アドレス)を参照して、仮想視点から自車両Vへの向きを仮想視点ベクトルとして算出する。これにより、仮想視点映像PVにおいて、仮想視点の方向を扱うことができる。 The control device 10 refers to the set position (address) and direction of the virtual viewpoint and the coordinates (address) of the vehicle icon image V , and calculates the direction from the virtual viewpoint to the host vehicle V as a virtual viewpoint vector. Thereby, in the virtual viewpoint video PV, the direction of the virtual viewpoint can be handled.

そして、本実施形態の制御装置10は、仮想視点映像PVにおいて、カメラ20の撮像方向と仮想視点ベクトルとが対向するか否か判定する。例えば、制御装置10は、仮想視点映像PVに含まれるパノラマ映像PI上で、各カメラのそれぞれの撮像方向と仮想視点ベクトルが重畳する位置が一つ以上存在する場合、カメラ20の撮像方向と仮想視点が対向する投影面の領域が存在する、と判定する。   And the control apparatus 10 of this embodiment determines whether the imaging direction of the camera 20 and a virtual viewpoint vector oppose in the virtual viewpoint video PV. For example, if there is one or more positions on the panoramic image PI included in the virtual viewpoint video PV where the respective imaging direction of each camera and the virtual viewpoint vector are superimposed, the control device 10 determines the imaging direction of the camera 20 and the virtual direction. It is determined that there is an area of the projection plane that faces the viewpoint.

制御装置10は、カメラ20の撮像方向と仮想視点が対向する投影面の領域が存在する、と判定すると、カメラ20の撮像方向と仮想視点が対向する投影面の範囲を規定する。例えば、制御装置10は、各カメラのそれぞれの撮像方向と仮想視点のベクトルが重畳したパノラマ映像PI上の位置を中心にして、パノラマ映像PIに沿った所定の範囲を設定する。所定の範囲は、特に限定されず、制御装置10は、所定の範囲を任意の範囲に設定することができる。制御装置10は、投影されているカメラ20の撮像画像の範囲と同じ範囲に設定してもよく、その他の任意の範囲に設定してもよい。図4では、対象領域TAは斜線で示す。また、図4では、自車両Vの後方カメラ22の撮像方向と仮想視点VPが対向する投影面の領域として、対象領域TAが示されている。なお、対象領域TAを特定する方法は、上記方法に限定されず、その他の方法でもよい。   If the control device 10 determines that there is a region of the projection plane where the imaging direction of the camera 20 and the virtual viewpoint are opposite, the control device 10 defines a range of the projection plane where the imaging direction of the camera 20 and the virtual viewpoint are opposite. For example, the control device 10 sets a predetermined range along the panoramic video PI around the position on the panoramic video PI where the respective imaging direction of each camera and the virtual viewpoint vector are superimposed. The predetermined range is not particularly limited, and the control device 10 can set the predetermined range to an arbitrary range. The control device 10 may be set to the same range as the range of the captured image of the camera 20 being projected, or may be set to any other range. In FIG. 4, the target area TA is indicated by diagonal lines. Further, in FIG. 4, a target area TA is shown as an area of the projection plane where the imaging direction of the rear camera 22 of the host vehicle V and the virtual viewpoint VP face each other. The method for specifying the target area TA is not limited to the above method, and other methods may be used.

このように、本実施形態の制御装置10は、カメラ20の撮像方向のベクトルと仮想視点のベクトルとが重畳した位置を中心にした、カメラ20の撮像方向と仮想視点とが対向する投影面の領域を、対象領域TAとして特定する。   As described above, the control device 10 according to the present embodiment has a projection plane in which the imaging direction of the camera 20 and the virtual viewpoint face each other around the position where the vector of the imaging direction of the camera 20 and the vector of the virtual viewpoint overlap. The area is specified as the target area TA.

また、制御装置10は、仮想視点映像PVに含まれるパノラマ映像PI上で、各カメラのそれぞれの撮像方向と仮想視点ベクトルが重畳する位置が一つも存在しない場合、カメラ20の撮像方向と仮想視点VPが対向する投影面の領域は存在しない、と判定する。   In addition, when there is no position on the panoramic image PI included in the virtual viewpoint video PV where the respective imaging directions of the cameras overlap the virtual viewpoint vector, the control device 10 determines the imaging direction of the camera 20 and the virtual viewpoint. It is determined that there is no region of the projection plane that the VP faces.

次に、制御装置10の対象物検出機能について説明する。制御装置10は、特定した対象領域TA内に対象物が存在するか否かを検出する。制御装置10は、まず、対象領域TAに投影されるカメラ20の撮像画像を、対象領域TAの撮像画像として特定する。次に、制御装置10は、対象領域TAの撮像画像のデータからエッジ、色、形状、大きさなどの特徴を抽出し、抽出した特徴から対象領域TAの撮像画像に含まれる対象物の属性を特定する。制御装置10は、各対象物の特徴を予め記憶し、パターンマッチング処理により対象領域TAの撮像画像に含まれる対象物を特定する。例えば、制御装置10は、対象領域TAの撮像画像に含まれる、自車両Vの周囲に存在する他車両、歩行者、二輪車、その他の物体を検出する。対象領域TAの撮像画像のデータを用いて対象物の存在を検出する手法は、特に限定されず、本願出願時に知られた手法を適宜に用いることができる。本実施形態では、歩行者を例にした説明をするが、対象物は歩行者に限定されない。   Next, the object detection function of the control device 10 will be described. The control device 10 detects whether or not an object exists in the specified target area TA. First, the control device 10 specifies a captured image of the camera 20 projected on the target area TA as a captured image of the target area TA. Next, the control device 10 extracts features such as an edge, a color, a shape, and a size from the captured image data of the target area TA, and sets the attributes of the target object included in the captured image of the target area TA from the extracted features. Identify. The control device 10 stores the characteristics of each target object in advance, and identifies the target object included in the captured image of the target area TA by pattern matching processing. For example, the control device 10 detects other vehicles, pedestrians, two-wheeled vehicles, and other objects existing around the host vehicle V included in the captured image of the target area TA. The method for detecting the presence of the object using the captured image data of the target area TA is not particularly limited, and the method known at the time of filing the present application can be appropriately used. In the present embodiment, a pedestrian will be described as an example, but the object is not limited to a pedestrian.

制御装置10が、対象領域TAの撮像画像のデータから抽出する特徴点について説明する。制御装置10は、歩行者を特定する際に、対象領域TAの撮像画像のデータから、歩行者の全身のシルエット(上半身及び下半身)、歩行者の衣服(ネクタイ、ボタン、衣服の色等)歩行者の頭部、歩行者の顔(目、鼻、口、髪の毛の色等)を抽出する。なお、制御装置10が抽出する特徴点は、上記の項目に限られず、制御装置10は、歩行者の他の特徴点を抽出してもよい。   The feature point that the control device 10 extracts from the captured image data of the target area TA will be described. When specifying the pedestrian, the control device 10 walks the silhouette of the pedestrian's whole body (upper body and lower body), pedestrian clothes (tie, buttons, clothing color, etc.) from the captured image data of the target area TA. The head of the person, the face of the pedestrian (eyes, nose, mouth, hair color, etc.) are extracted. In addition, the feature point which the control apparatus 10 extracts is not restricted to said item, The control apparatus 10 may extract the other feature point of a pedestrian.

また、制御装置10は、対象領域TAの撮像画像のデータから対象物の特徴点を抽出すると、抽出した対象物の特徴点から、カメラ20に対する対象物の向きを特定する。制御装置10は、例えば、対象領域TAの撮像画像のデータから歩行者を検出すると、対象領域TAの撮像画像のデータから抽出した歩行者の顔に関する情報から、カメラ20に対する歩行者の向きを特定することができる。   In addition, when the feature point of the target object is extracted from the captured image data of the target area TA, the control device 10 specifies the direction of the target object with respect to the camera 20 from the extracted feature point of the target object. For example, when detecting the pedestrian from the captured image data of the target area TA, the control device 10 specifies the orientation of the pedestrian with respect to the camera 20 from the information regarding the pedestrian's face extracted from the captured image data of the target area TA. can do.

制御装置10は、対象領域TAの撮像画像のデータから、カメラ20に対する対象物の向きを特定する。対象物の向きの表し方は特に限定されない。本実施形態の制御装置10は、対象物の向きを、正面、背面、左側面、右側面の4つのカテゴリ表現で表す。制御装置10は、各対象物の4つのカテゴリの代表例をサンプルとして予め記憶し、パターンマッチング処理にてカメラ20に対する対象物の向きに対応するカテゴリを特定する。例えば、制御装置10は、正面視する歩行者の顔の一部として目や鼻等を検出すると、パターンマッチング処理を実行し、カメラ20に対する歩行者の向きを正面として特定する。なお、歩行者の特徴点のうちの一つの特徴点から歩行者の向きを特定することに限定されず、その他の歩行者の特徴点から、歩行者の向きを特定してもよい。また、これらの複数の特徴点を組み合わせて歩行者の向きを特定してもよい。   The control device 10 specifies the direction of the object with respect to the camera 20 from the data of the captured image of the target area TA. There is no particular limitation on how to express the direction of the object. The control device 10 according to the present embodiment represents the direction of the object in four category expressions of front, back, left side, and right side. The control device 10 stores in advance representative examples of the four categories of each object as samples, and specifies a category corresponding to the orientation of the object with respect to the camera 20 by pattern matching processing. For example, if the control device 10 detects eyes, a nose, or the like as a part of a pedestrian's face viewed from the front, the control device 10 performs a pattern matching process and identifies the pedestrian's direction with respect to the camera 20 as the front. In addition, it is not limited to specifying a pedestrian's direction from one feature point of the pedestrian's feature points, You may specify a pedestrian's direction from the feature point of another pedestrian. Moreover, you may identify the direction of a pedestrian by combining these some feature points.

なお、制御装置10は、カメラ20に対する対象物の向きを、角度で規定してもよい。制御装置10は、対象物の位置(アドレス)と仮想視点VPの位置(アドレス)から、角度を算出できる。これにより、カメラ20に対する対象物の向きを精度良く検出できる。   Note that the control device 10 may define the direction of the object with respect to the camera 20 by an angle. The control device 10 can calculate the angle from the position (address) of the object and the position (address) of the virtual viewpoint VP. Thereby, the direction of the object with respect to the camera 20 can be detected with high accuracy.

ここで、仮想視点映像PVにおいて、対象領域TAに表示されるカメラ20の撮像画像の向きについて説明する。制御装置10は、パノラマ映像生成機能により、円筒形状の空間モデルPの側面Sに、カメラ20の撮像画像を張り付け(マッピングし)、自車両Vの全周囲の映像を示すパノラマ映像PIを生成する。それに対して、制御装置10は、仮想視点映像作成機能により、円筒形状の外側に仮想視点VPを設け(図3参照)、この仮想視点VPからパノラマ映像PI及び車両アイコン画像Vを見た仮想視点映像PV(図4参照)を作成する。車両アイコン画像Vは円筒形状の底面の中央に位置するため、カメラ20の撮像方向は、空間モデルPの内側から空間モデルPの外側への方向となる。一方、仮想視点VPは空間モデルPの外側に位置するため、仮想視点VPの方向は、空間モデルPの外側から空間モデルPの内側への方向となる。例えば、空間モデルPが円筒形状の場合、カメラ20の撮像方向は、円筒形状の中央から円筒形状の側面に対して放射状に拡がる方向となる。一方、仮想視点の方向は、円筒形状の外側から空間モデルPを俯瞰する方向となる。 Here, the orientation of the captured image of the camera 20 displayed in the target area TA in the virtual viewpoint video PV will be described. The control device 10 pastes (maps) the captured image of the camera 20 on the side surface S of the cylindrical space model P by the panoramic video generation function, and generates a panoramic video PI indicating the video around the host vehicle V. . On the other hand, the control device 10 provides a virtual viewpoint VP outside the cylindrical shape by a virtual viewpoint video creation function (see FIG. 3), and a virtual image obtained by viewing the panoramic video PI and the vehicle icon image V from the virtual viewpoint VP. A viewpoint video PV (see FIG. 4) is created. Since the vehicle icon image V is located at the center of the bottom surface of the cylindrical shape, the imaging direction of the camera 20 is a direction from the inside of the space model P to the outside of the space model P. On the other hand, since the virtual viewpoint VP is located outside the space model P, the direction of the virtual viewpoint VP is a direction from the outside of the space model P to the inside of the space model P. For example, when the space model P has a cylindrical shape, the imaging direction of the camera 20 is a direction that spreads radially from the center of the cylindrical shape to the side surface of the cylindrical shape. On the other hand, the direction of the virtual viewpoint is a direction overlooking the space model P from the outside of the cylindrical shape.

制御装置10は、仮想視点の向きとカメラ20の撮像方向が互いに反対方向であっても、仮想視点VPからパノラマ映像PIを見た仮想視点映像PVを作成する。そのため、仮想視点映像PVでは、カメラ20の撮像方向と仮想視点VPの向きが対向する投影面の領域(対象領域TA)に、ミラー反転されたカメラ20の撮像画像が表示される。   The control device 10 creates a virtual viewpoint video PV in which the panoramic video PI is viewed from the virtual viewpoint VP even when the direction of the virtual viewpoint and the imaging direction of the camera 20 are opposite to each other. For this reason, in the virtual viewpoint video PV, the captured image of the camera 20 that is mirror-inverted is displayed in the area of the projection plane (target area TA) in which the imaging direction of the camera 20 and the orientation of the virtual viewpoint VP are opposite to each other.

このように、仮想視点映像PVでは、対象領域TAにミラー反転されたカメラ20の撮像画像が表示されるため、対象領域TA内に存在する対象物は、実際の対象物の向きに対して反対向きに表示される。そのため、自車両Vの乗員がミラー反転されたカメラ20の撮像画像内の対象物を見ると、自車両Vの乗員に違和感を与える恐れがある。本実施形態の制御装置10は、対象領域特定機能と、対象物検出機能と、対象物表示変更機能とを実現することで、ミラー反転されたカメラ20の撮像画像内の対象物の向きを、実際の対象物の向きと同じ方向にした仮想視点映像PVを表示する。これにより、自車両Vの乗員に違和感を与えることを抑制する。   In this way, in the virtual viewpoint video PV, the captured image of the camera 20 that is mirror-reversed is displayed in the target area TA, so that the target object existing in the target area TA is opposite to the actual direction of the target object. Displayed in the direction. For this reason, when an occupant of the host vehicle V sees an object in the captured image of the camera 20 that is mirror-reversed, the occupant of the host vehicle V may feel uncomfortable. The control device 10 according to the present embodiment realizes a target area identification function, a target object detection function, and a target object display change function, thereby changing the orientation of the target object in the captured image of the camera 20 that has been mirror-inverted. A virtual viewpoint video PV in the same direction as the actual direction of the object is displayed. Thereby, it is suppressed that the passenger | crew of the own vehicle V gives discomfort.

制御装置10は、上記のように、対象領域TA内に対象物が存在するか否かを検出し、対象物の存在を検出すると、対象物の属性と、カメラ20に対する対象物の向き、及び対象物の特徴点を、RAM13に一時的に格納する。   As described above, the control device 10 detects whether or not the target object exists in the target area TA, and when detecting the presence of the target object, the control device 10 determines the attribute of the target object, the direction of the target object with respect to the camera 20, and The feature points of the object are temporarily stored in the RAM 13.

次に、制御装置10の対象物表示変更機能について説明する。制御装置10は、カメラ20に対する対象物の向きを、自車両Vを基準として反対向きに表示する。制御装置10は、RAM13からカメラ20に対する対象物の向きの情報を読み出して、対象物の向きを反対向きに表示する。   Next, the object display change function of the control device 10 will be described. The control device 10 displays the direction of the object relative to the camera 20 in the opposite direction with respect to the host vehicle V. The control device 10 reads information on the direction of the object with respect to the camera 20 from the RAM 13 and displays the direction of the object in the opposite direction.

制御装置10は、カメラ20に対する対象物の向きが正面の場合、対象物の向きを背面に変更して表示する。また、制御装置10は、カメラ20に対する対象物の向きを背面と特定した場合、対象物の向きを正面に変更して表示する。さらに、制御装置10は、カメラ20に対する対象物の向きを左側面として特定した場合には、対象物の向きを右側面に変更し、カメラ20に対する対象物の向きを右側面として特定した場合には、対象物の向きを左側面にそれぞれ変更して表示する。   When the orientation of the object relative to the camera 20 is the front, the control device 10 changes the orientation of the object to the back and displays it. In addition, when the direction of the object with respect to the camera 20 is specified as the back surface, the control device 10 changes the direction of the object to the front surface and displays it. Further, when the direction of the object with respect to the camera 20 is specified as the left side, the control device 10 changes the direction of the object to the right side and when the direction of the object with respect to the camera 20 is specified as the right side. Displays the direction of the object changed to the left side.

図5を参照して、対象物の表示変更の方法について説明する。図5は、歩行者アイコン画像の一例を示す図である。図5(A)は、歩行者の正面を示す歩行者アイコン画像の一例であり、図5(B)は、歩行者の背面を示す歩行者アイコン画像の一例である。   With reference to FIG. 5, a method of changing the display of the object will be described. FIG. 5 is a diagram illustrating an example of a pedestrian icon image. FIG. 5A is an example of a pedestrian icon image showing the front of the pedestrian, and FIG. 5B is an example of a pedestrian icon image showing the back of the pedestrian.

本実施形態の制御装置10は、対象領域TA内に対象物が存在すると、対象物の属性及び向きに対応したアイコン画像を用いて、対象物を表示する。各対象物に対応するアイコン画像は、予めROM12に記憶されている。例えば、ROM12には、歩行者の正面、背面、左側面、及び右側面のそれぞれに対応した複数の歩行者アイコン画像が記憶されている。なお、本実施形態では、アイコン画像を用いて歩行者の表示を変更する方法について説明するがこれに限定されない。   When the target object exists in the target area TA, the control device 10 of the present embodiment displays the target object using an icon image corresponding to the attribute and orientation of the target object. An icon image corresponding to each object is stored in the ROM 12 in advance. For example, the ROM 12 stores a plurality of pedestrian icon images corresponding to the front, back, left side, and right side of the pedestrian. In addition, although this embodiment demonstrates the method of changing a pedestrian's display using an icon image, it is not limited to this.

制御装置10は、撮像画像内の対象物の表示を、アイコン画像で重畳表示することで、対象物の表示を変更する。制御装置10が用いるアイコン画像は、カメラ20に対する対象物の向きと反対向きのアイコン画像である。具体的に、対象物が歩行者の場合、制御装置10は、カメラ20に対する歩行者の向きを正面と特定すると、ROM12から、歩行者の背面を示す歩行者アイコン画像(図5(B)参照)を読み出す。そして、制御装置10は、歩行者の正面が表示されている位置(画素)に、歩行者の背面を示す歩行者アイコン画像を重畳して表示する。また、制御装置10は、カメラ20に対する歩行者の向きを背面と特定すると、ROM12から、歩行者の正面を示す歩行者アイコン画像(図5(A)参照)を読み出す。そして、制御装置10は、歩行者の背面が表示されている位置(画素)に、歩行者の正面を示す歩行者アイコン画像を重畳して表示する。   The control device 10 changes the display of the object by superimposing the display of the object in the captured image with an icon image. The icon image used by the control device 10 is an icon image in a direction opposite to the direction of the object with respect to the camera 20. Specifically, when the target object is a pedestrian, the control device 10 specifies a pedestrian icon image indicating the back of the pedestrian from the ROM 12 when the orientation of the pedestrian with respect to the camera 20 is identified as the front (see FIG. 5B). ). And the control apparatus 10 superimposes and displays the pedestrian icon image which shows the back of a pedestrian in the position (pixel) where the front of a pedestrian is displayed. Moreover, if the control apparatus 10 specifies the direction of the pedestrian with respect to the camera 20 as a back surface, the pedestrian icon image (refer FIG. 5 (A)) which shows the front of a pedestrian will be read from ROM12. And the control apparatus 10 superimposes and displays the pedestrian icon image which shows the front of a pedestrian in the position (pixel) where the back surface of a pedestrian is displayed.

なお、本実施形態では、歩行者の向きが正面又は背面と特定した場合を例示するが、歩行者の向きが左側面又は右側面と特定した場合でも、制御装置10は、上記の処理を実行してもよい。すなわち、制御装置10は、歩行者の向きを左側面と特定すると、ROM12から、歩行者の右側面を示す歩行者アイコン画像を読み出す。そして、制御装置10は、歩行者の左側面が表示されている位置に、歩行者の右側を示す歩行者アイコン画像を重畳して表示してもよい。また、制御装置10は、歩行者の向きを右側面と特定すると、ROM12から、歩行者の左側面を示す歩行者アイコン画像を読み出す。そして、制御装置10は、歩行者の右側面が表示されている位置に、歩行者の左側面を示す歩行者アイコン画像を重畳して表示してもよい。   In the present embodiment, the case where the orientation of the pedestrian is specified as the front side or the back side is illustrated, but the control device 10 executes the above process even when the orientation of the pedestrian is specified as the left side surface or the right side surface. May be. That is, the control apparatus 10 will read the pedestrian icon image which shows the pedestrian's right side surface from ROM12, if the direction of a pedestrian is specified as a left side surface. And the control apparatus 10 may superimpose and display the pedestrian icon image which shows the pedestrian's right side in the position where the pedestrian's left side is displayed. Moreover, if the direction of a pedestrian is specified as a right side surface, the control apparatus 10 will read the pedestrian icon image which shows the left side surface of a pedestrian from ROM12. And the control apparatus 10 may superimpose and display the pedestrian icon image which shows the pedestrian's left side surface in the position where the pedestrian's right side surface is displayed.

歩行者アイコン画像は、少なくとも顔、手足、上半身、及び下半身それぞれが区別されて表示される。また、歩行者アイコン画像には、顔及び体が判別でき、かつ、正面と背面が区別できるアイコン画像を用いるのが好ましい。図5(A)の例のように、歩行者アイコン画像の顔には、目、鼻、口等を表示してもよいし、歩行者アイコン画像の上半身には、衣服の合わせ部分、ネクタイ、又はボタンなどを表示してもよい。また、図5(B)の例のように、歩行者アイコン画像の後頭部には、髪の毛を表示してもよいし、歩行者アイコン画像の下半身には、臀部を表示してもよい。このような歩行者の正面及び背面の特徴点があらわされた歩行者アイコン画像を用いて表示することで、自車両Vの乗員に、仮想視点映像PVを通して歩行者の向きを的確に伝えることができる。   The pedestrian icon image is displayed while distinguishing at least the face, limbs, upper body, and lower body. Moreover, it is preferable to use the icon image which can distinguish a face and a body and can distinguish a front and a back as a pedestrian icon image. As in the example of FIG. 5A, eyes, nose, mouth, and the like may be displayed on the face of the pedestrian icon image, and the upper part of the pedestrian icon image has a clothing matching portion, a tie, Or a button etc. may be displayed. 5B, hair may be displayed on the back of the pedestrian icon image, and a buttock may be displayed on the lower half of the pedestrian icon image. By displaying using the pedestrian icon image in which the feature points on the front and back of the pedestrian are displayed, it is possible to accurately convey the direction of the pedestrian to the occupant of the host vehicle V through the virtual viewpoint video PV. it can.

このように、制御装置10は、ROM12から読み出した歩行者アイコン画像を、撮像画像に重畳させることで、カメラ20に対する歩行者の向きを反対向きに表示する。これにより、対象領域TAにおいて、仮想視点VPから見た歩行者の向きとカメラ20に対する実際の歩行者の向きを同一方向とすることができ、仮想視点映像PVを見る自車両Vの乗員に違和感を与えることを抑制することができる。   Thus, the control apparatus 10 displays the pedestrian direction with respect to the camera 20 in the opposite direction by superimposing the pedestrian icon image read from the ROM 12 on the captured image. Thereby, in the target area TA, the direction of the pedestrian viewed from the virtual viewpoint VP and the direction of the actual pedestrian with respect to the camera 20 can be made the same direction, and the passenger of the own vehicle V who sees the virtual viewpoint video PV feels uncomfortable. Can be suppressed.

なお、制御装置10の対象物表示変更機能では、対象領域TAに存在する対象物に対して、表示変更の処理を行うが、対象領域TA以外の領域に存在する対象物に対しても表示変更の処理を行ってもよい。例えば、制御装置10は、対象領域TA以外の領域の撮像画像から、対象物を検出するとともに、カメラ20に対する対象物の向きを特定する。そして、制御装置10は、検出した対象物の向きに対応したアイコン画像をROM12から読み出して表示させてもよい。この場合、仮想視点映像PV内に存在する対象物はアイコン画像で統一して表示されるため、仮想視点映像PVを見る自車両Vの乗員は対象物の存在を認識しやすくなる。なお、全ての対象物をアイコン画像表示することに限定されず、対象領域TA以外の対象物については撮像画像をそのまま表示してもよい。   Note that the object display change function of the control device 10 performs display change processing for an object existing in the target area TA, but also changes the display for an object existing in an area other than the target area TA. You may perform the process of. For example, the control device 10 detects the target object from the captured image of the area other than the target area TA, and specifies the direction of the target object with respect to the camera 20. And the control apparatus 10 may read and display the icon image corresponding to the direction of the detected target object from ROM12. In this case, the objects present in the virtual viewpoint video PV are displayed in a unified manner as icon images, so that an occupant of the host vehicle V viewing the virtual viewpoint video PV can easily recognize the presence of the object. In addition, it is not limited to displaying all target objects as icon images, and captured images may be displayed as they are for target objects other than the target area TA.

続いて、制御装置10の表示制御機能について説明する。制御装置10は、対象領域TAの有無の特定結果又は対象物の存否の検出結果に基づいて、異なる仮想視点映像PVをディスプレイ50に表示させる。制御装置10は、対象領域TAを特定しない場合に、仮想視点映像PVにはミラー反転された撮像画像が存在しないと判断し、仮想視点映像作成機能により生成された仮想視点映像PVをディスプレイ50に表示させる。同様に、制御装置10は、対象領域TAに対象物を検出しない場合には、仮想視点映像作成機能により生成された仮想視点映像PVをディスプレイ50に表示させる。この場合には、制御装置10は、ミラー反転された撮像画像に対象物が存在しないため、自車両Vの乗員に違和感を与えるリスクは低いと判断する。   Next, the display control function of the control device 10 will be described. The control device 10 displays different virtual viewpoint videos PV on the display 50 based on the result of specifying the presence or absence of the target area TA or the result of detecting the presence or absence of the target. When the target area TA is not specified, the control device 10 determines that there is no mirror-inverted captured image in the virtual viewpoint video PV, and displays the virtual viewpoint video PV generated by the virtual viewpoint video creation function on the display 50. Display. Similarly, the control apparatus 10 displays the virtual viewpoint video PV generated by the virtual viewpoint video creation function on the display 50 when no target is detected in the target area TA. In this case, the control device 10 determines that the risk of giving a sense of discomfort to the occupant of the host vehicle V is low because the target object does not exist in the mirror-inverted captured image.

反対に、制御装置10は、仮想視点映像PVに対象領域TAが特定されて、かつ、対象領域TAに対象物が存在することを検出すると、実際の歩行者の向きに対応する歩行者アイコン画像を撮像画像に重畳させて、仮想視点映像PVを作成する。制御装置10は、作成した仮想視点映像PVを、ディスプレイ50に表示させる。ディスプレイ50は、自車両Vに搭載し、移動体装置200として構成してもよいし、表示装置100側に設けてもよい。ディスプレイ50は、二次元画像用のディスプレイでもよいし、三次元画像を映し出すディスプレイであってもよい。   On the contrary, when the target area TA is specified in the virtual viewpoint video PV and the control apparatus 10 detects that the target object is present in the target area TA, the pedestrian icon image corresponding to the actual direction of the pedestrian. Is superimposed on the captured image to create a virtual viewpoint video PV. The control device 10 displays the created virtual viewpoint video PV on the display 50. The display 50 may be mounted on the host vehicle V and configured as the mobile device 200 or may be provided on the display device 100 side. The display 50 may be a display for a two-dimensional image or a display that displays a three-dimensional image.

次に、図6〜8を参照して、具体的な場面を用いて、表示装置100が表示する仮想視点映像について説明する。図6は、自車両の周囲の状況を把握する必要がある場面の一例を示す図である。図7は、比較例に係る表示装置が表示する仮想視点映像の一例を示す図である。図8は、本実施形態に係る表示装置100が表示する仮想視点映像の一例を示す図である。なお、比較例に係る表示装置は、本実施形態に係る制御装置10と機能が異なるものである。比較例に係る制御装置10は、本実施形態に係る制御装置10と比べて、対象領域特定機能と、対象物検出機能と、対象物表示変更機能とを有していない。   Next, with reference to FIGS. 6 to 8, a virtual viewpoint image displayed on the display device 100 will be described using specific scenes. FIG. 6 is a diagram illustrating an example of a scene where it is necessary to grasp the situation around the host vehicle. FIG. 7 is a diagram illustrating an example of a virtual viewpoint video displayed by the display device according to the comparative example. FIG. 8 is a diagram illustrating an example of a virtual viewpoint video displayed by the display device 100 according to the present embodiment. The display device according to the comparative example is different in function from the control device 10 according to the present embodiment. The control device 10 according to the comparative example does not have the target area specifying function, the target object detection function, and the target object display change function as compared with the control device 10 according to the present embodiment.

図6では、道路A1〜A3で構成される見通しの悪いT字路の交差点に対して、道路A1から自車両V1が進入する場面を示している。この交差点には、自車両V1の他に歩行者M1が道路A2から進入し、また、歩行者M2が道路A3から進入している。歩行者M1及び歩行者M2は対向する場所に位置する。歩行者M1は、自車両V1の左方カメラ23の撮像方向に対して正面を向け、歩行者M2は、自車両V1の右方カメラ24の撮像方向に対して正面を向けている。左方カメラ23の撮像範囲PR3の範囲内に歩行者M1は位置し、右方カメラ24の撮像範囲PR4の範囲内に歩行者M2は位置する。   FIG. 6 shows a scene in which the host vehicle V1 enters from the road A1 with respect to an intersection of T-shaped roads with poor visibility, which is composed of the roads A1 to A3. In addition to the host vehicle V1, a pedestrian M1 enters from the road A2 and a pedestrian M2 enters the intersection from the road A3. The pedestrian M1 and the pedestrian M2 are located at opposite locations. The pedestrian M1 faces the front with respect to the imaging direction of the left camera 23 of the host vehicle V1, and the pedestrian M2 faces the front with respect to the imaging direction of the right camera 24 of the host vehicle V1. The pedestrian M1 is located within the imaging range PR3 of the left camera 23, and the pedestrian M2 is located within the imaging range PR4 of the right camera 24.

図6では、歩行者M1及び歩行者M2が自車両V1に接近してくる状況を示している。自車両V1の乗員からでは、道路A2及び道路A3の状況を確認しづらいため、自車両V1は交差点に到達する前に、道路A2及び道路A3に歩行者等が存在するか否かを確認する必要がある。表示装置100及び比較例に係る表示装置は、自車両V1の左右にある道路(道路A2及び道路A3)の状況を同時に把握させるために、仮想視点VP1から交差点を見た仮想視点映像を作成して自車両V1の乗員に表示する。なお、図6では、説明の便宜上、仮想視点VP1は、自車両V1、歩行者M1、及び歩行者M2と同一平面上に示されているが、実際には、仮想視点VP1は、交差点を左斜め下に見下ろす場所に位置する。   In FIG. 6, the situation where the pedestrian M1 and the pedestrian M2 approach the own vehicle V1 is shown. Since it is difficult for the passengers of the host vehicle V1 to check the conditions of the roads A2 and A3, the host vehicle V1 checks whether there are pedestrians on the roads A2 and A3 before reaching the intersection. There is a need. The display device 100 and the display device according to the comparative example create a virtual viewpoint video in which the intersection is viewed from the virtual viewpoint VP1 in order to simultaneously grasp the situation of the roads on the left and right of the host vehicle V1 (road A2 and road A3). To the passenger of the host vehicle V1. In FIG. 6, for convenience of explanation, the virtual viewpoint VP1 is shown on the same plane as the host vehicle V1, the pedestrian M1, and the pedestrian M2, but actually, the virtual viewpoint VP1 is located at the left of the intersection. Located in a position looking down diagonally.

図7に示すように、比較例に係る表示装置は、図6に示す仮想視点VP1から円筒形状の空間モデルP1を見た仮想視点映像を作成する。なお、説明の便宜上、図7では、仮想視点VP1を示している。空間モデルP1は、円筒形状の底面の中央に位置する車両アイコン画像V1、円筒形状の側面S1にマッピングされた、パノラマ映像PI1(左方カメラ23の撮像画像C1及び右方カメラ24の撮像画像C2)から構成される。撮像画像C1には、歩行者M1の正面を示す歩行者画像M1が含まれている。また、撮像画像C2には、歩行者M2の正面を示す歩行者画像M2が含まれている。 As illustrated in FIG. 7, the display device according to the comparative example creates a virtual viewpoint video in which the cylindrical space model P1 is viewed from the virtual viewpoint VP1 illustrated in FIG. 6. For convenience of explanation, FIG. 7 shows a virtual viewpoint VP1. The space model P1 is a panoramic image PI1 (the captured image C1 of the left camera 23 and the captured image of the right camera 24) mapped to the vehicle icon image V1 positioned at the center of the cylindrical bottom surface and the cylindrical side surface S1. C2). The captured image C1 includes a pedestrian image M1 showing the front of the pedestrian M1. The captured image C2 includes a pedestrian image M2 showing the front of the pedestrian M2.

図7に示すように、仮想視点映像PV1では、歩行者画像M1は仮想視点VP1に正面を向けて表示される。これは、自車両V1の左方カメラ23の撮像方向と仮想視点VP1の向きが対向する投影面の領域(対象領域)では、ミラー反転された左方カメラ23の撮像画像が表示されるためである。自車両V1に対して正面を向く実際の歩行者M1は、仮想視点映像PV1では、車両アイコン画像V1に対して背面を向く歩行者画像M1として表示される。そのため、仮想視点映像PV1を見る自車両V1の乗員は、歩行者M1が自車両V1に対して近づいているのか又は遠のいているのかを正確に把握することができない。 As shown in FIG. 7, in the virtual viewpoint video PV1, the pedestrian image M1 is displayed with the front facing the virtual viewpoint VP1. This is because the captured image of the left camera 23 that is mirror-inverted is displayed in the region (target region) of the projection plane in which the imaging direction of the left camera 23 of the host vehicle V1 and the orientation of the virtual viewpoint VP1 face each other. is there. The actual pedestrian M1 facing the front with respect to the host vehicle V1 is displayed as the pedestrian image M1 facing the back with respect to the vehicle icon image V1 ′ in the virtual viewpoint video PV1. Therefore, the occupant of the host vehicle V1 who sees the virtual viewpoint video PV1 cannot accurately grasp whether the pedestrian M1 is approaching or far from the host vehicle V1.

また、仮想視点映像PV1では、歩行者画像M2は仮想視点VP1に対して正面を向けて表示される。自車両V1の右方カメラ24の撮像方向と仮想視点VP1の向きは対向しないため、右方カメラ24の撮像画像は、ミラー反転されずにそのままの向きで表示されるためである。自車両V1に対して正面を向く実際の歩行者M2は、仮想視点映像PV1でも、車両アイコン画像V1に対して正面を向く歩行者画像M2として表示される。そのため、仮想視点映像PV1を見る自車両V1の乗員は、歩行者M2が自車両V1に対して近づいているのを正確に把握できる。 In the virtual viewpoint video PV1, the pedestrian image M2 is displayed with the front facing the virtual viewpoint VP1. This is because the imaging direction of the right camera 24 of the host vehicle V1 and the direction of the virtual viewpoint VP1 do not face each other, and the captured image of the right camera 24 is displayed as it is without being mirror-inverted. The actual pedestrian M2 facing the front with respect to the host vehicle V1 is displayed as the pedestrian image M2 facing the front with respect to the vehicle icon image V1 even in the virtual viewpoint video PV1. Therefore, the occupant of the host vehicle V1 viewing the virtual viewpoint video PV1 can accurately grasp that the pedestrian M2 is approaching the host vehicle V1.

一方、図8に示すように、本実施形態の表示装置100は、図6に示す仮想視点VP1から円筒形状の空間モデルP1を見た仮想視点映像PV1を作成する。なお、説明の便宜上、図8では、仮想視点VP1を示している。撮像画像C1には、歩行者M1の背面を示す歩行者アイコン画像O1が重畳表示されている。また、撮像画像C2には、歩行者M2の正面を示す歩行者画像M2が含まれている。空間モデルP1の構成については、図7と同様の構成であるため、その説明を援用する。 On the other hand, as shown in FIG. 8, the display device 100 of the present embodiment creates a virtual viewpoint video PV1 obtained by viewing the cylindrical space model P1 from the virtual viewpoint VP1 shown in FIG. For convenience of explanation, FIG. 8 shows a virtual viewpoint VP1. A pedestrian icon image O1 indicating the back of the pedestrian M1 is superimposed on the captured image C1. The captured image C2 includes a pedestrian image M2 showing the front of the pedestrian M2. About the structure of the space model P1, since it is the structure similar to FIG. 7, the description is used.

図8に示すように、仮想視点映像PV1では、歩行者アイコン画像O1は仮想視点VP1に背面を向けて表示される。本実施形態の制御装置10は、対象領域の撮像画像のデータから、カメラ20に対する歩行者M1の向きを正面として特定する。制御装置10は、ROM12から歩行者の背面を示す歩行者アイコン画像O1を読み出して、撮像画像C1に重畳表示する。これにより、自車両V1の左方カメラ23に対して正面を向く実際の歩行者M1は、仮想視点映像PV1でも、車両アイコン画像V1に対して正面を向く歩行者アイコン画像O1として表示される。 As shown in FIG. 8, in the virtual viewpoint video PV1 , the pedestrian icon image O1 is displayed with the back facing the virtual viewpoint VP1. The control device 10 according to the present embodiment specifies the direction of the pedestrian M1 with respect to the camera 20 as the front from the captured image data of the target area. The control device 10 reads the pedestrian icon image O1 indicating the back of the pedestrian from the ROM 12, and displays it superimposed on the captured image C1. Thus, the actual pedestrian M1 facing the front with respect to the left camera 23 of the host vehicle V1 is displayed as the pedestrian icon image O1 facing the front with respect to the vehicle icon image V1 even in the virtual viewpoint video PV1 ′. The

なお、歩行者画像M2は、仮想視点映像PV1と同様に、仮想視点映像PV1でも、仮想視点VP1に対して正面を向けて表示される。つまり、自車両V1の右方カメラ24に対して正面を向く実際の歩行者M2は、仮想視点映像PV1でも、車両アイコン画像V1に対して正面を向く歩行者画像M2として表示される。 Note that the pedestrian image M2 is displayed with the front facing the virtual viewpoint VP1 in the virtual viewpoint video PV1 as well as the virtual viewpoint video PV1. That is, the actual pedestrian M2 facing the front with respect to the right camera 24 of the host vehicle V1 is displayed as the pedestrian image M2 facing the front with respect to the vehicle icon image V1 even in the virtual viewpoint video PV1 ′. .

このように、本実施形態に係る表示装置100が表示する仮想視点映像PV1では、仮想視点VP1から見た歩行者アイコン画像O1及び歩行者画像M2は、図6に示す自車両Vから見た実際の歩行者M1、M2と同じ向きで表示される。これにより、自車両V1の乗員は、仮想視点映像PV1を通して、自車両V1からでは確認しづらい自車両V1の左右の状況を同時に確認できるとともに、自車両V1から見た対象物の向きを正確に把握することができる。 As described above, in the virtual viewpoint video PV1 displayed by the display device 100 according to the present embodiment, the pedestrian icon image O1 and the pedestrian image M2 viewed from the virtual viewpoint VP1 are viewed from the host vehicle V illustrated in FIG. It is displayed in the same direction as the actual pedestrians M1 and M2. As a result, the occupant of the host vehicle V1 can simultaneously check the left and right situations of the host vehicle V1, which are difficult to check from the host vehicle V1, through the virtual viewpoint video PV1 , and the direction of the object viewed from the host vehicle V1 can be accurately determined. Can grasp.

図9のフローチャートに基づいて、本実施形態の制御装置10の動作を説明する。図9は、本実施形態に係る表示装置の制御手順を示すフローチャート図である。ステップS101において、制御装置10は、乗員操作装置40の表示スイッチの状態を検出する。表示スイッチのオンが検出されると、ステップS102に進み、表示スイッチのオフが検出されると、ステップS101で待機する。   Based on the flowchart of FIG. 9, operation | movement of the control apparatus 10 of this embodiment is demonstrated. FIG. 9 is a flowchart showing a control procedure of the display device according to the present embodiment. In step S <b> 101, the control device 10 detects the state of the display switch of the occupant operation device 40. If it is detected that the display switch is turned on, the process proceeds to step S102. If it is detected that the display switch is turned off, the process waits in step S101.

ステップS102において、制御装置10は、自車両Vの周囲画像を取得するために、カメラ20により撮像された撮像画像を取得する。制御装置10は、自車両Vにカメラ20が複数台搭載されている場合には、それぞれのカメラで撮像された撮像画像を取得する。取得した撮像画像は、映像の生成に用いられるほか、対象物の検出に用いられる。   In step S <b> 102, the control device 10 acquires a captured image captured by the camera 20 in order to acquire a surrounding image of the host vehicle V. When a plurality of cameras 20 are mounted on the host vehicle V, the control device 10 acquires captured images captured by the respective cameras. The acquired captured image is used for generating a video and for detecting an object.

ステップS103において、制御装置10は、ステップS102で取得した撮像画像のマッピング用の立体形状(空間モデル)を設定するために、ROM12から空間モデルを読み出す。なお、表示装置100の動作中に、空間モデルの形状を変更してもよい。例えば、複数種の空間モデルがROM12に記憶されている場合、自車両Vの走行中に、自車両Vの乗員が乗員操作装置40を介してこの複数種の空間モデルから選択する構成でもよい。   In step S103, the control device 10 reads the spatial model from the ROM 12 in order to set the three-dimensional shape (spatial model) for mapping the captured image acquired in step S102. Note that the shape of the space model may be changed during the operation of the display device 100. For example, when a plurality of types of space models are stored in the ROM 12, a configuration in which an occupant of the host vehicle V selects from the plurality of types of space models via the occupant operation device 40 while the host vehicle V is traveling may be used.

そして、制御装置10は、読み出した空間モデルに、自車両V1を示す車両アイコン画像V1を表示するとともに、ステップS102で取得した撮像画像をマッピングして、自車両Vの全周囲の映像を示すパノラマ映像を生成する。例えば、空間モデルが円筒形状の場合、制御装置10は、円筒形状の底面に自車両Vを示す車両アイコン画像V1を表示する。制御装置10は、円筒形状の側面にカメラ20の撮像画像データをマッピングすることで、円筒形状のパノラマ映像を生成する。 Then, the control device 10 displays the vehicle icon image V1 indicating the host vehicle V1 on the read space model, and maps the captured image acquired in step S102 to show a video around the host vehicle V. Generate panoramic video. For example, when the space model has a cylindrical shape, the control device 10 displays a vehicle icon image V1 indicating the host vehicle V on the cylindrical bottom surface. The control device 10 generates the cylindrical panoramic image by mapping the captured image data of the camera 20 on the cylindrical side surface.

ステップS104において、制御装置10は、ステップS103で設定した空間モデルの外側に仮想視点を設定する。制御装置10は、仮想視点の位置及び仮想視点の方向を設定する。仮想視点は、任意の位置及び向きからステップS103で生成されたパノラマ映像を見るために設定される。例えば、制御装置10は、予めROM12に記憶された仮想視点を読み出す。   In step S104, the control device 10 sets a virtual viewpoint outside the space model set in step S103. The control device 10 sets the position of the virtual viewpoint and the direction of the virtual viewpoint. The virtual viewpoint is set to view the panoramic image generated in step S103 from an arbitrary position and orientation. For example, the control device 10 reads the virtual viewpoint stored in advance in the ROM 12.

そして、制御装置10は、仮想視点からパノラマ映像を見た仮想視点映像を作成する。例えば、空間モデルが円筒形状の場合、仮想視点映像には、仮想視点VPから見た円筒形状の空間モデルが表示されるとともに、円筒形状の側面に沿ってパノラマ映像が表示される。   Then, the control device 10 creates a virtual viewpoint video in which the panoramic video is viewed from the virtual viewpoint. For example, when the spatial model is cylindrical, a cylindrical spatial model viewed from the virtual viewpoint VP is displayed on the virtual viewpoint video, and a panoramic video is displayed along the side surface of the cylindrical shape.

ステップS105において、制御装置10は、ステップS104で作成した仮想視点映像に、自車両Vのカメラ20の撮像方向と、ステップS104で設定した仮想視点が対向する投影面の領域(対象領域)が存在するか否か判定する。対象領域が存在すると判定されると、ステップS106へ進み、対象領域が存在しないと判定されると、ステップS110へ進む。   In step S105, the control device 10 includes, in the virtual viewpoint video created in step S104, a projection plane area (target area) where the imaging direction of the camera 20 of the host vehicle V and the virtual viewpoint set in step S104 face each other. Judge whether to do. If it is determined that the target area exists, the process proceeds to step S106. If it is determined that the target area does not exist, the process proceeds to step S110.

ステップS106において、制御装置10は、対象領域内に対象物が存在するか否かを検出する。制御装置10は、例えば、カメラ20の撮像画像のデータからエッジなどの特徴を抽出し、抽出した特徴から対象物の属性を特定する。対象物として歩行者、他車両、二輪車、その他の物体が検出されると、ステップS107へ進み、対象物が検出されないと、ステップS110へ進む。   In step S106, the control device 10 detects whether or not an object is present in the target area. For example, the control device 10 extracts features such as edges from the data of the captured image of the camera 20, and specifies the attributes of the object from the extracted features. If a pedestrian, other vehicle, two-wheeled vehicle, or other object is detected as an object, the process proceeds to step S107. If no object is detected, the process proceeds to step S110.

ステップS107において、制御装置10は、ステップS106で検出された対象物の向きがカメラ20に対して正面又は背面のいずれかの向きかを特定する。制御装置10は、例えば、ステップS106で撮像画像のデータから抽出した特徴から、カメラ20に対する対象物の向きを特定する。カメラ20に対する対象物の向きが正面と特定されると、ステップS108へ進み、カメラ20に対する対象物の向きが背面と特定されると、ステップS109へ進む。   In step S <b> 107, the control device 10 specifies whether the direction of the object detected in step S <b> 106 is the front or back direction with respect to the camera 20. For example, the control device 10 specifies the orientation of the object with respect to the camera 20 from the features extracted from the captured image data in step S106. When the orientation of the object relative to the camera 20 is identified as the front, the process proceeds to step S108, and when the orientation of the object relative to the camera 20 is identified as the back, the process proceeds to step S109.

ステップS108において、制御装置10は、対象物の正面が表示されている位置(画素)に、対象物の背面を示すアイコン画像を重畳して表示する。対象物が歩行者の場合、制御装置10は、歩行者の背面を示す歩行者アイコン画像をROM12から読み出して、歩行者の正面が表示されている位置に、読み出した歩行者アイコン画像を重畳して表示する。   In step S108, the control device 10 superimposes and displays an icon image indicating the back surface of the object at the position (pixel) where the front surface of the object is displayed. When the object is a pedestrian, the control device 10 reads a pedestrian icon image indicating the back of the pedestrian from the ROM 12, and superimposes the read pedestrian icon image on the position where the front of the pedestrian is displayed. To display.

ステップS109において、制御装置10は、対象物の背面が表示されている位置(画素)に、対象物の正面を示すアイコン画像を重畳して表示する。対象物が歩行者の場合、制御装置10は、歩行者の正面を示す歩行者アイコン画像をROM12から読み出して、歩行者の背面が表示されている位置に、読み出した歩行者アイコン画像を重畳して表示する。   In step S109, the control device 10 superimposes and displays an icon image indicating the front of the object on the position (pixel) where the back of the object is displayed. When the object is a pedestrian, the control device 10 reads a pedestrian icon image indicating the front of the pedestrian from the ROM 12, and superimposes the read pedestrian icon image on the position where the back of the pedestrian is displayed. To display.

ステップS110において、ステップS104で作成した仮想視点映像、ステップS108又はステップS109で対象物のアイコン画像を重畳した仮想視点映像を、ディスプレイ50に表示する。   In step S110, the virtual viewpoint video created in step S104 and the virtual viewpoint video in which the icon image of the target object is superimposed in step S108 or step S109 are displayed on the display 50.

最後に、ステップS111において、制御装置10は、乗員操作装置40の表示スイッチの状態を検出する。表示スイッチのオンが検出されると、ステップS102へ戻り、表示スイッチのオフが検出されると、制御装置10の動作を終了する。   Finally, in step S111, the control device 10 detects the state of the display switch of the occupant operation device 40. When the on state of the display switch is detected, the process returns to step S102, and when the off state of the display switch is detected, the operation of the control device 10 is terminated.

以上のように、本実施形態の制御装置10は、カメラ20の撮像方向と仮想視点が対向する投影面の領域を、対象領域として特定し、対象領域内に歩行者が存在するか否かを検出する。そして、制御装置10は、歩行者が存在する場合に、カメラ20に対する歩行者の向きを特定し、歩行者の向きを反対向きに表示した仮想視点映像をディスプレイ50に表示する。これにより、自車両Vの乗員にミラー反転された歩行者の表示を見せることを防ぐことができ、自車両Vの乗員に違和感を与えることを抑制できる。   As described above, the control device 10 according to the present embodiment identifies the area of the projection plane where the imaging direction of the camera 20 and the virtual viewpoint face each other as the target area, and determines whether or not there is a pedestrian in the target area. To detect. Then, when there is a pedestrian, the control device 10 specifies the direction of the pedestrian with respect to the camera 20 and displays a virtual viewpoint image in which the direction of the pedestrian is displayed in the opposite direction on the display 50. Thereby, it can prevent showing the display of the pedestrian by which the mirror inversion was carried out to the passenger | crew of the own vehicle V, and it can suppress giving a discomfort to the passenger | crew of the own vehicle V. FIG.

さらに、本実施形態の制御装置10は、カメラ20に対する歩行者の向きが正面の場合に、歩行者の背面を表示し、カメラ20に対する歩行者の向きが背面の場合、歩行者の正面を表示する。これにより、自車両Vの乗員に、仮想視点映像を通して歩行者が自車両Vに接近するか否かを正確に伝えることができる。   Furthermore, the control device 10 of the present embodiment displays the back of the pedestrian when the orientation of the pedestrian with respect to the camera 20 is the front, and displays the front of the pedestrian when the orientation of the pedestrian with respect to the camera 20 is the back. To do. Thereby, it is possible to accurately tell the occupant of the host vehicle V whether or not the pedestrian approaches the host vehicle V through the virtual viewpoint video.

加えて、本実施形態の制御装置10は、歩行者を示す歩行者アイコン画像を用いて、カメラ20に対する歩行者の顔及び体の向きを反対向きに表示する。歩行者の正面及び背面を示すそれぞれの歩行者アイコン画像には、実際の歩行者の正面及び背面の特徴点が示されているため、自車両Vの乗員に、仮想視点映像を通して歩行者の向きを的確に伝えることができる。   In addition, the control device 10 of the present embodiment displays the pedestrian's face and body orientation with respect to the camera 20 in the opposite direction using the pedestrian icon image indicating the pedestrian. Since each pedestrian icon image showing the front and back of the pedestrian shows the feature points of the front and back of the actual pedestrian, the direction of the pedestrian through the virtual viewpoint video to the passenger of the host vehicle V Can be conveyed accurately.

≪第2実施形態≫
第2実施形態では、本発明に係る表示装置を用いて、自車両Vの周囲を走行する他車両又は二輪車を検出する場合を例にして説明する。本実施形態の表示システムは、移動体及び移動体周囲の状況を把握するための映像を移動体の操作者が見るディスプレイに表示する。なお、本実施形態の二輪車とは、車輪が二つある車両のことであり、駆動方法は限定されない。例えば、二輪車には、自転車、オートバイ等が挙げられる。
<< Second Embodiment >>
In the second embodiment, a case where another vehicle or a two-wheeled vehicle traveling around the host vehicle V is detected by using the display device according to the present invention will be described as an example. The display system of the present embodiment displays an image for grasping the moving body and the surroundings of the moving body on a display that is viewed by the operator of the moving body. In addition, the two-wheeled vehicle of this embodiment is a vehicle with two wheels, and the drive method is not limited. For example, bicycles include motorcycles and motorcycles.

本実施形態に係る表示装置は、制御装置110(図示なし)が備える機能が異なる点以外は、上述の実施形態に係る表示装置と同様の構成であるため、上述の実施形態で図1を用いた説明を援用する。本実施形態に係る制御装置110は、上述した実施形態に係る制御装置10と比べて、対象物検出機能と、対象物表示変更機能とが異なる。   The display device according to the present embodiment has the same configuration as that of the display device according to the above-described embodiment except that the control device 110 (not shown) has different functions. Therefore, FIG. 1 is used in the above-described embodiment. Incorporated the explanation that was. The control device 110 according to the present embodiment is different from the control device 10 according to the above-described embodiment in an object detection function and an object display change function.

次に、制御装置110の対象物検出機能について説明する。本実施形態の制御装置110は、対象領域内に他車両又は二輪車が存在するか否かを検出する。なお、他車両又は二輪車の存在の検出方法は、上述した実施形態の制御装置10と同様の方法により、対象領域の撮像画像に含まれる対象物の属性を特定する。本実施形態の制御装置110は、対象領域の撮像画像のデータからエッジ、色、形状、大きさなどの特徴を抽出し、抽出した特徴から対象領域の撮像画像に含まれる他車両又は二輪車を特定する。   Next, the object detection function of the control device 110 will be described. The control device 110 according to the present embodiment detects whether there is another vehicle or a two-wheeled vehicle in the target area. In addition, the detection method of presence of another vehicle or a two-wheeled vehicle specifies the attribute of the target object contained in the captured image of a target area | region by the method similar to the control apparatus 10 of embodiment mentioned above. The control device 110 according to the present embodiment extracts features such as edges, colors, shapes, and sizes from the captured image data of the target region, and identifies other vehicles or two-wheeled vehicles included in the captured image of the target region from the extracted features. To do.

制御装置110が、対象領域の撮像画像のデータから抽出する特徴点について説明する。制御装置110は、他車両を特定する際に、対象領域の撮像画像のデータから、他車両のシルエット、他車両のブレーキランプ又は方向指示器の色、他車両のフロントウィンド、他車両のヘッドライト、他車両のナンバープレート、他車両の排気口、他車両のリアウィンドを抽出する。また、制御装置110は、二輪車を特定する際に、対象領域の撮像画像のデータから、二輪車のシルエット、二輪車のブレーキランプ又は方向指示器の色、二輪車のヘッドライト、二輪車のナンバープレート、二輪車の排気口、二輪車の乗員のシルエット(上半身)、二輪車の乗員の衣服(衣服の色等)、二輪車の乗員の頭部、二輪車の乗員の顔(目、鼻、口、髪の毛の色)を抽出する。なお、制御装置110が抽出する特徴点は、上記の項目に限られず、制御装置110は、他車両又は二輪車の他の特徴点を抽出してもよい。   The feature points that the control device 110 extracts from the captured image data of the target area will be described. When specifying the other vehicle, the control device 110 determines the silhouette of the other vehicle, the color of the brake lamp or direction indicator of the other vehicle, the front window of the other vehicle, the headlight of the other vehicle from the captured image data of the target area. Extract the license plate of the other vehicle, the exhaust port of the other vehicle, and the rear window of the other vehicle. Further, when specifying the two-wheeled vehicle, the control device 110 determines the two-wheeled vehicle silhouette, the two-wheeled vehicle brake lamp or the direction indicator color, the two-wheeled vehicle headlight, the two-wheeled vehicle license plate, the two-wheeled vehicle Extract exhaust vents, motorcycle occupant silhouette (upper body), motorcycle occupant clothing (clothing color, etc.), motorcycle occupant head, motorcycle occupant face (eye, nose, mouth, hair color) . The feature points extracted by the control device 110 are not limited to the above items, and the control device 110 may extract other feature points of other vehicles or two-wheeled vehicles.

また、制御装置110は、対象領域の撮像画像のデータから対象物の特徴点を抽出すると、抽出した対象物の特徴点から、カメラ20に対する対象物の向きを特定する。制御装置110は、例えば、対象領域の撮像画像のデータから他車両を検出すると、対象領域の撮像画像のデータから抽出した他車両のシルエットに関する情報から、カメラ20に対する他車両の向きを特定することができる。また、制御装置110は、例えば、対象領域の撮像画像のデータから二輪車を検出すると、対象領域の撮像画像のデータから抽出した二輪車の乗員に関する情報から、カメラ20に対する二輪車の向きを特定することができる。   In addition, when the feature point of the target object is extracted from the captured image data of the target area, the control device 110 specifies the direction of the target object with respect to the camera 20 from the extracted feature point of the target object. For example, when detecting the other vehicle from the captured image data of the target area, the control device 110 specifies the direction of the other vehicle with respect to the camera 20 from the information regarding the silhouette of the other vehicle extracted from the captured image data of the target area. Can do. Further, for example, when the two-wheeled vehicle is detected from the captured image data of the target region, the control device 110 may specify the direction of the two-wheeled vehicle with respect to the camera 20 from the information regarding the occupant of the two-wheeled vehicle extracted from the captured image data of the target region. it can.

制御装置110は、上述した実施形態の制御装置10と同様に、検出した他車両又は二輪車の向きを、正面、背面、左側面、右側面の4つのカテゴリ表現で規定する。制御装置110は、他車両及び二輪車の4つのカテゴリの代表例をサンプルとして予め記憶し、パターンマッチング処理にて、カメラ20に対する他車両又は二輪車の向きに対応するカテゴリを特定する。例えば、制御装置110は、他車両のフロントウィンドを検出すると、カメラ20に対する他車両の向きを正面として特定する。また、例えば、制御装置110は、正面視する二輪車の乗員(例えば、目や鼻)を検出すると、パターンマッチング処理を実行し、カメラ20に対する二輪車の向きを正面として特定する。なお、他車両又は二輪車の特徴点のうち一つの特徴点から他車両又は二輪車の向きを特定することに限定されず、その他の他車両又は二輪車の特徴点から、他車両又は二輪車の向きを特定してもよい。また、これらの複数の特徴点を組み合わせて他車両又は二輪車の向きを特定してもよい。   Similar to the control device 10 of the above-described embodiment, the control device 110 defines the detected orientation of the other vehicle or the two-wheeled vehicle with four category expressions of front, back, left side, and right side. The control device 110 stores in advance representative examples of the four categories of the other vehicle and the two-wheeled vehicle as samples, and specifies a category corresponding to the direction of the other vehicle or the two-wheeled vehicle with respect to the camera 20 by pattern matching processing. For example, when detecting the front window of another vehicle, control device 110 specifies the direction of the other vehicle relative to camera 20 as the front. Further, for example, when detecting the occupant (for example, eyes or nose) of a motorcycle viewed from the front, the control device 110 performs a pattern matching process and specifies the direction of the motorcycle with respect to the camera 20 as the front. The direction of the other vehicle or the two-wheeled vehicle is not limited to specifying the direction of the other vehicle or the two-wheeled vehicle from one of the characteristic points of the other vehicle or the two-wheeled vehicle, and the direction of the other vehicle or the two-wheeled vehicle is specified from the feature point of the other other vehicle or the two-wheeled vehicle. May be. Moreover, you may identify the direction of another vehicle or a two-wheeled vehicle combining these some feature points.

制御装置110は、上記のように、対象領域内に他車両又は二輪車が存在するか否かを検出し、他車両又は二輪車の存在を検出すると、他車両又は二輪車の属性と、カメラ20に対する他車両又は二輪車の向き、及び他車両又は二輪車の特徴点を、RAM13に一時的に格納する。   As described above, the control device 110 detects whether or not there is another vehicle or two-wheeled vehicle in the target area, and when detecting the presence of the other vehicle or two-wheeled vehicle, the attribute of the other vehicle or two-wheeled vehicle and the other to the camera 20 are detected. The direction of the vehicle or the two-wheeled vehicle and the characteristic points of the other vehicle or the two-wheeled vehicle are temporarily stored in the RAM 13.

次に、制御装置110の対象物表示変更機能について説明する。制御装置110は、カメラ20に対する他車両又は二輪車の向きを反対向きに表示する。具体的に、制御装置110は、RAM13からカメラ20に対する対象物の向きの情報を読み出して、他車両又は二輪車の向きを反対向きに表示する。   Next, the object display change function of the control device 110 will be described. The control device 110 displays the direction of the other vehicle or the motorcycle with respect to the camera 20 in the opposite direction. Specifically, the control device 110 reads information on the direction of the object with respect to the camera 20 from the RAM 13 and displays the direction of the other vehicle or the motorcycle in the opposite direction.

制御装置110は、カメラ20に対する他車両又は二輪車の向きが正面の場合、他車両又は二輪車の向きを背面に変更して表示する。また、制御装置110は、カメラ20に対する他車両又は二輪車の向きが背面の場合、他車両又は二輪車の向きを正面に変更して表示する。さらに、制御装置10は、カメラ20に対する他車両又は二輪車の向きが左側面の場合、他車両又は二輪車の向きを右側面に変更して表示し、カメラ20に対する他車両又は二輪車の向きが右側面の場合、他車両又は二輪車の向きを左側面に変更して表示する。   When the direction of the other vehicle or the two-wheeled vehicle with respect to the camera 20 is the front, the control device 110 changes the direction of the other vehicle or the two-wheeled vehicle to the back and displays it. In addition, when the direction of the other vehicle or the two-wheeled vehicle with respect to the camera 20 is the rear surface, the control device 110 changes the direction of the other vehicle or the two-wheeled vehicle to the front and displays it. Further, when the direction of the other vehicle or the two-wheeled vehicle with respect to the camera 20 is the left side, the control device 10 changes the direction of the other vehicle or the two-wheeled vehicle to the right side and displays the direction. In this case, the direction of the other vehicle or the motorcycle is changed to the left side and displayed.

図10を参照して、他車両及び二輪車の表示変更の方法について説明する。図10は、他車両アイコン画像及び二輪車アイコン画像の一例を示す図である。図10(A)は、他車両の正面を示す他車両アイコン画像の一例であり、図10(B)は、他車両の背面を示す他車両アイコン画像の一例である。また、図10(C)は、二輪車の正面を示す二輪車アイコン画像の一例であり、図10(D)は、二輪車の背面を示す二輪車アイコン画像の一例である。   With reference to FIG. 10, a method of changing the display of the other vehicle and the motorcycle will be described. FIG. 10 is a diagram illustrating an example of the other vehicle icon image and the two-wheeled vehicle icon image. FIG. 10A is an example of another vehicle icon image showing the front of the other vehicle, and FIG. 10B is an example of other vehicle icon image showing the back of the other vehicle. FIG. 10C is an example of a two-wheeled vehicle icon image showing the front of the two-wheeled vehicle, and FIG. 10D is an example of a two-wheeled vehicle icon image showing the rear of the two-wheeled vehicle.

本実施形態の制御装置110は、上述した実施形態の制御装置10と同様に、対象領域TA内に他車両又は二輪車が存在すると、アイコン画像で他車両又は二輪車を表示する。例えば、ROM12には、他車両及び二輪車の正面、背面、左側面、及び右側面のそれぞれに対応した、複数の他車両アイコン画像及び複数の二輪車アイコン画像が記憶されている。なお、本実施形態では、アイコン画像を用いて他車両又は二輪車の表示を変更する方法について説明するがこれに限定されない。   Similarly to the control device 10 of the above-described embodiment, when the other vehicle or the two-wheeled vehicle exists in the target area TA, the control device 110 of the present embodiment displays the other vehicle or the two-wheeled vehicle with an icon image. For example, the ROM 12 stores a plurality of other vehicle icon images and a plurality of two-wheeled vehicle icon images respectively corresponding to the front, back, left side, and right side of other vehicles and two-wheeled vehicles. In addition, although this embodiment demonstrates the method to change the display of another vehicle or a two-wheeled vehicle using an icon image, it is not limited to this.

制御装置110は、撮像画像内の他車両又は二輪車の表示を、アイコン画像で重畳表示することで、他車両又は二輪車の表示を変更する。制御装置110が用いるアイコン画像は、カメラ20に対する他車両又は二輪車の向きと反対向きのアイコン画像である。   The control device 110 changes the display of the other vehicle or the two-wheeled vehicle by superimposing and displaying the display of the other vehicle or the two-wheeled vehicle in the captured image with an icon image. The icon image used by the control device 110 is an icon image in the direction opposite to the direction of the other vehicle or the two-wheeled vehicle with respect to the camera 20.

具体的に、対象物が他車両の場合で、制御装置110は、カメラ20に対する他車両の向きを正面と特定すると、ROM12から、他車両の背面を示す他車両アイコン画像を読み出す。そして、制御装置110は、他車両の正面が表示されている位置(画素)に、他車両の背面を示す他車両アイコン画像を重畳して表示する。また、制御装置110は、カメラ20に対する他車両の向きを背面と特定すると、ROM12から、他車両の正面を示す他車両アイコン画像を読み出す。そして、制御装置110は、他車両の背面が表示されている位置(画素)に、他車両の正面を示す他車両アイコン画像を重畳して表示する。   Specifically, when the object is an other vehicle and the direction of the other vehicle with respect to the camera 20 is identified as the front, the control device 110 reads from the ROM 12 an other vehicle icon image indicating the back of the other vehicle. And the control apparatus 110 superimposes and displays the other vehicle icon image which shows the back surface of another vehicle on the position (pixel) where the front of the other vehicle is displayed. Further, when the direction of the other vehicle with respect to the camera 20 is identified as the back surface, the control device 110 reads the other vehicle icon image indicating the front surface of the other vehicle from the ROM 12. And the control apparatus 110 superimposes and displays the other vehicle icon image which shows the front of another vehicle on the position (pixel) where the back surface of the other vehicle is displayed.

なお、本実施形態では、他車両の向きが正面又は背面と特定した場合を例示するが、他車両の向きが左側面又は右側面と特定した場合でも、制御装置10は、上記の処理を実行してもよい。すなわち、制御装置110は、他車両の向きを左側面と特定すると、ROM12から、他車両の右側面を示す他車両アイコン画像を読み出す。そして、制御装置110は、他車両の左側面が表示されている位置に、他車両の右側を示す他車両アイコン画像を重畳して表示してもよい。また、制御装置110は、他車両の向きを右側面と特定すると、ROM12から、他車両の左側面を示す他車両アイコン画像を読み出す。そして、制御装置110は、他車両の右側面が表示されている位置に、他車両の左側面を示す他車両アイコン画像を重畳して表示してもよい。   In this embodiment, the case where the direction of the other vehicle is specified as the front side or the back side is illustrated. However, even when the direction of the other vehicle is specified as the left side surface or the right side surface, the control device 10 executes the above processing. May be. That is, when the direction of the other vehicle is specified as the left side surface, the control device 110 reads the other vehicle icon image indicating the right side surface of the other vehicle from the ROM 12. And the control apparatus 110 may superimpose and display the other vehicle icon image which shows the right side of the other vehicle in the position where the left side surface of the other vehicle is displayed. Moreover, if the direction of the other vehicle is specified as the right side surface, the control device 110 reads the other vehicle icon image indicating the left side surface of the other vehicle from the ROM 12. And the control apparatus 110 may superimpose and display the other vehicle icon image which shows the left side surface of the other vehicle in the position where the right side surface of the other vehicle is displayed.

他車両アイコン画像は、少なくとも他車両のブレーキランプ又は方向指示器、他車両のフロントウィンド、他車両のヘッドライト、他車両のナンバープレート、他車両の排気口、他車両のリアウィンドそれぞれが区別されて表示される。   The other vehicle icon image distinguishes at least the brake lamp or direction indicator of the other vehicle, the front window of the other vehicle, the headlight of the other vehicle, the license plate of the other vehicle, the exhaust port of the other vehicle, and the rear window of the other vehicle. Displayed.

また、他車両アイコン画像には、正面と背面が区別できるアイコン画像を用いるのが好ましい。図10(A)の例のように、他車両の正面を示す他車両アイコン画像には、ヘッドライト、面積がリアウィンドよりも大きいフロントウィンドを表示してもよい。また、図10(B)の例のように、他車両の背面を示す他車両アイコン画像には、ブレーキランプ、方向指示器、ナンバープレート、排気口、面積がフロントウィンドよりも小さいリアウィンドを表示してもよい。このような他車両の正面及び背面の特徴点があらわされた他車両アイコン画像を用いて表示することで、自車両Vの乗員に、仮想視点映像PVを通して他車両の向きを的確に伝えることができる。   Moreover, it is preferable to use the icon image which can distinguish a front and the back as an other vehicle icon image. As in the example of FIG. 10A, a headlight and a front window having a larger area than the rear window may be displayed on the other vehicle icon image indicating the front of the other vehicle. In addition, as shown in the example of FIG. 10B, the other vehicle icon image indicating the back of the other vehicle displays a brake lamp, a direction indicator, a license plate, an exhaust port, and a rear window whose area is smaller than that of the front window. May be. By displaying using the other vehicle icon image showing the front and back feature points of such other vehicles, the direction of the other vehicle can be accurately communicated to the passenger of the own vehicle V through the virtual viewpoint video PV. it can.

次に、二輪車アイコン画像について説明する。本実施形態では、二輪車の正面を示す二輪車アイコン画像には、二輪車そのものの正面ではなく、二輪車の乗員の正面が表示される。同様に、二輪車の背面を示す二輪車アイコン画像には、二輪車そのものの背面ではなく、二輪車の乗員の背面が表示される。なお、二輪車の乗員により正面及び背面を区別することに限定されず、二輪車の正面及び背面をそれぞれ区別して表示してもよい。   Next, the motorcycle icon image will be described. In the present embodiment, in the two-wheeled vehicle icon image indicating the front of the two-wheeled vehicle, the front of the two-wheeled vehicle occupant is displayed instead of the front of the two-wheeled vehicle itself. Similarly, in the two-wheeled vehicle icon image indicating the rear surface of the two-wheeled vehicle, the rear surface of the occupant of the two-wheeled vehicle is displayed instead of the rear surface of the two-wheeled vehicle itself. In addition, it is not limited to distinguishing a front and a back by the passenger | crew of a two-wheeled vehicle, You may distinguish and display the front and back of a two-wheeled vehicle, respectively.

対象物が二輪車の場合、制御装置110は、カメラ20に対する二輪車の向きを正面と特定すると、ROM12から、二輪車の乗員の背面を示す二輪車アイコン画像を読み出す。そして、制御装置110は、二輪車の乗員の正面が表示されている位置(画素)に、二輪車の乗員の背面を示す他車両アイコン画像を重畳して表示する。また、制御装置110は、カメラ20に対する二輪車の向きを背面と特定すると、ROM12から、二輪車の正面を示す二輪車アイコン画像を読み出す。そして、制御装置110は、二輪車の乗員の背面が表示されている位置(画素)に、二輪車の乗員の正面を示す二輪車アイコン画像を重畳して表示する。   When the target object is a two-wheeled vehicle, the control device 110 reads a two-wheeled vehicle icon image indicating the back of the occupant of the two-wheeled vehicle from the ROM 12 when the direction of the two-wheeled vehicle with respect to the camera 20 is specified as the front. And the control apparatus 110 superimposes and displays the other vehicle icon image which shows the back of the passenger | crew of a two-wheeled vehicle at the position (pixel) where the passenger | crew's front of a two-wheeled vehicle is displayed. Further, when the direction of the two-wheeled vehicle with respect to the camera 20 is specified as the back, the control device 110 reads a two-wheeled vehicle icon image indicating the front of the two-wheeled vehicle from the ROM 12. And the control apparatus 110 superimposes and displays the two-wheeled vehicle icon image which shows the front of the passenger | crew of a two-wheeled vehicle at the position (pixel) where the back of the passenger | crew of a two-wheeled vehicle is displayed.

図10(C)の例のように、二輪車の正面を示す二輪車アイコン画像には、乗員の正面を示すために、衣服のボタンなどを表示してもよい。また、図10(D)の例のように、二輪車の背面を示す二輪車アイコン画像には、乗員の背面を示すために、髪の毛や臀部を表示してもよい。このような二輪車の正面及び背面の特徴点があらわされた二輪車アイコン画像を用いて表示することで、自車両Vの乗員に、仮想視点映像PVを通して二輪車の向きを的確に伝えることができる。   Like the example of FIG.10 (C), in the two-wheeled vehicle icon image which shows the front of a two-wheeled vehicle, in order to show a passenger | crew's front, you may display the button etc. of clothes. Further, as in the example of FIG. 10D, the two-wheeled vehicle icon image indicating the back of the two-wheeled vehicle may display the hair and the buttocks to indicate the back of the occupant. By displaying such a two-wheeled vehicle using the two-wheeled vehicle icon image showing the front and rear feature points, the direction of the two-wheeled vehicle can be accurately conveyed to the occupant of the host vehicle V through the virtual viewpoint video PV.

このように、制御装置110は、ROM12から読み出した他車両アイコン画像又は二輪車アイコン画像を、撮像画像に重畳させることで、カメラ20に対する他車両又は二輪車の向きを反対向きに表示する。これにより、対象領域において、仮想視点VPから見た他車両又は二輪車の向きと実際の他車両又は二輪車の向きを同一方向とすることができ、仮想視点映像を見る自車両Vの乗員に違和感を与えることを抑制することができる。   As described above, the control device 110 displays the direction of the other vehicle or the two-wheeled vehicle with respect to the camera 20 in the opposite direction by superimposing the other vehicle icon image or the two-wheeled vehicle icon image read from the ROM 12 on the captured image. Thereby, in the target area, the direction of the other vehicle or the two-wheeled vehicle viewed from the virtual viewpoint VP and the direction of the actual other vehicle or the two-wheeled vehicle can be made the same direction, and the passenger of the own vehicle V viewing the virtual viewpoint video is uncomfortable. Giving can be suppressed.

次に、図11、12を参照して、具体的な場面を用いて、表示装置100が表示する仮想視点映像について説明する。図11は、自車両の周囲の状況を把握する必要がある場面の他の例を示す図である。図12は、本実施形態に係る表示装置100が表示する仮想視点映像の一例を示す図である。   Next, with reference to FIGS. 11 and 12, a virtual viewpoint video displayed on the display device 100 will be described using specific scenes. FIG. 11 is a diagram illustrating another example of a scene where it is necessary to grasp the situation around the host vehicle. FIG. 12 is a diagram illustrating an example of a virtual viewpoint video displayed by the display device 100 according to the present embodiment.

図11では、道路A4と道路A5の合流地点に対して、道路A4を走行する自車両V2が車線変更して道路A5へ合流する場面を示している。この合流地点の前方には、他車両V3が道路A5を走行し、また、合流地点の後方には、他車両V4が道路A5を走行している。自車両V2は、この合流地点から道路A5へ車線変更して、他車両V3と他車両V4の間に進入しようとしている。他車両V3は、自車両V2の前方カメラ21の撮像方向に対して背面を向け、他車両V4は、自車両V2の後方カメラ22の撮像方向に対して正面を向けている。前方カメラ21の撮像範囲PR1の範囲内に他車両V3は位置し、後方カメラ22の撮像範囲PR2の範囲内に他車両V4は位置する。   FIG. 11 shows a scene where the host vehicle V2 traveling on the road A4 changes lanes and joins the road A5 with respect to the junction of the road A4 and the road A5. The other vehicle V3 travels on the road A5 in front of the junction, and the other vehicle V4 travels on the road A5 behind the junction. The own vehicle V2 is changing the lane from this junction to the road A5 and is about to enter between the other vehicle V3 and the other vehicle V4. The other vehicle V3 faces the back with respect to the imaging direction of the front camera 21 of the host vehicle V2, and the other vehicle V4 faces the front with respect to the imaging direction of the rear camera 22 of the host vehicle V2. The other vehicle V3 is positioned within the imaging range PR1 of the front camera 21, and the other vehicle V4 is positioned within the imaging range PR2 of the rear camera 22.

図11では、他車両V3は自車両V2から遠ざかり、他車両V4が自車両V2に接近してくる状況を示している。自車両V2の乗員からでは、道路A5の状況を確認しづらいため、自車両V2が車線変更する前に、道路A5に他車両又は二輪車等が存在するか否かを確認する必要がある。表示装置100は、道路A5の前後の状況を同時に把握させるために、仮想視点VP2から合流地点を見た仮想視点映像を作成して自車両V2の乗員に表示する。なお、図11では、説明の便宜上、仮想視点VP2は、自車両V2、他車両V3、V4と同一平面上に示されているが、実際には、仮想視点VP2は、合流地点を左斜め下に見下ろす場所に位置する。   FIG. 11 shows a situation in which the other vehicle V3 moves away from the host vehicle V2 and the other vehicle V4 approaches the host vehicle V2. Since it is difficult for the passenger of the host vehicle V2 to check the state of the road A5, it is necessary to check whether there is another vehicle or a two-wheeled vehicle on the road A5 before the host vehicle V2 changes lanes. The display device 100 creates a virtual viewpoint video in which the junction point is viewed from the virtual viewpoint VP2 and displays it on the passenger of the host vehicle V2 in order to simultaneously grasp the situation before and after the road A5. In FIG. 11, for the sake of convenience of explanation, the virtual viewpoint VP2 is shown on the same plane as the host vehicle V2 and the other vehicles V3, V4. Located in a place overlooking.

図12に示すように、本実施形態の表示装置100は、図11に示す仮想視点VP2から円筒形状の空間モデルP2を見た仮想視点映像PV2を作成する。空間モデルP2は、円筒形状の底面の中央に位置する車両アイコン画像V2、円筒形状の側面S2にマッピングされた、前方カメラ21の撮像画像C3及び後方カメラ22の撮像画像C4から構成される。撮像画像C3には、他車両V3の背面を示す他車両画像V3が含まれている。また、撮像画像C4には、他車両V4の背面を示す他車両アイコン画像O4が重畳されている。 As shown in FIG. 12, the display device 100 of the present embodiment creates a virtual viewpoint video PV2 obtained by viewing the cylindrical space model P2 from the virtual viewpoint VP2 shown in FIG. The space model P2 includes a vehicle icon image V2 ' positioned at the center of the cylindrical bottom surface, a captured image C3 of the front camera 21 and a captured image C4 of the rear camera 22 mapped to the cylindrical side surface S2. The captured image C3 includes another vehicle image V3 that shows the back surface of the other vehicle V3. Moreover, the other vehicle icon image O4 which shows the back surface of the other vehicle V4 is superimposed on the captured image C4.

図12に示すように、仮想視点映像PV2では、他車両アイコン画像O4は仮想視点VP2に背面を向けて表示される。本実施形態の制御装置110は、対象領域の撮像画像のデータから、カメラ20に対する他車両V4の向きを正面として特定する。制御装置110は、ROM12から他車両の背面を示す他車両アイコン画像O4を読み出して、撮像画像C4に重畳表示する。これにより、自車両V2の後方カメラ22に対して正面を向く実際の他車両V4は、仮想視点映像PV2でも、車両アイコン画像V2に対して正面を向く他車両アイコン画像O4として表示される。 As shown in FIG. 12, in the virtual viewpoint video PV2 , the other vehicle icon image O4 is displayed with the back side facing the virtual viewpoint VP2. The control device 110 of the present embodiment specifies the direction of the other vehicle V4 with respect to the camera 20 as the front from the captured image data of the target area. The control device 110 reads the other vehicle icon image O4 indicating the back of the other vehicle from the ROM 12, and displays it superimposed on the captured image C4. Thus, the actual other vehicle V4 facing the front with respect to the rear camera 22 of the host vehicle V2 is displayed as the other vehicle icon image O4 facing the front with respect to the vehicle icon image V2 even in the virtual viewpoint video PV2 ′. .

なお、他車両画像V3は、仮想視点映像PV2でも、仮想視点VP2に対して背面を向けて表示される。つまり、自車両V2の前方カメラ21に対して背面を向く実際の他車両V3は、仮想視点映像PV2でも、車両アイコン画像V2に対して背面を向く他車両画像V3として表示される。 Note that the other vehicle image V3 is displayed with the back side facing the virtual viewpoint VP2 even in the virtual viewpoint video PV2 . That is, the actual other vehicle V3 facing the back with respect to the front camera 21 of the host vehicle V2 is displayed as the other vehicle image V3 facing the back with respect to the vehicle icon image V2 even in the virtual viewpoint video PV2 .

このように、本実施形態に係る表示装置100が表示する仮想視点映像PV2では、仮想視点から見た他車両画像V3及び他車両アイコン画像O4は、図11に示す自車両Vから見た実際の他車両V3、V4と同じ向きで表示される。これにより、自車両V2の乗員は、仮想視点映像PV2を通して、自車両V2からでは確認しづらい自車両V2の前後の状況を同時に確認できるとともに、自車両V2から見た対象物の向きを正確に把握することができる。 As described above, in the virtual viewpoint video PV2 displayed by the display device 100 according to the present embodiment, the other vehicle image V3 and the other vehicle icon image O4 viewed from the virtual viewpoint are viewed from the host vehicle V illustrated in FIG. It is displayed in the same direction as the actual other vehicles V3 and V4. Thereby, the passenger of the own vehicle V2 can simultaneously confirm the situation before and after the own vehicle V2, which is difficult to confirm from the own vehicle V2, through the virtual viewpoint video PV2 , and the direction of the object viewed from the own vehicle V2 can be accurately determined. Can grasp.

以上のように、本実施形態の制御装置110は、他車両を示す他車両アイコン画像を用いて、カメラ20に対する他車両の向きを反対向きに表示する。他車両の正面及び背面を示すそれぞれの他車両アイコン画像には、実際の他車両の正面及び背面の特徴点が示されているため、自車両Vの乗員に、仮想視点映像を通して他車両の向きを的確に伝えることができる。   As described above, the control device 110 of the present embodiment displays the direction of the other vehicle with respect to the camera 20 in the opposite direction using the other vehicle icon image indicating the other vehicle. Each other vehicle icon image showing the front and back of the other vehicle shows the actual feature points of the front and back of the other vehicle. Therefore, the direction of the other vehicle is indicated to the passenger of the own vehicle V through the virtual viewpoint image. Can be conveyed accurately.

また、本実施形態の制御装置110は、二輪車を示す二輪車アイコン画像を用いて、カメラ20に対する二輪車の乗員の顔及び体の向きを反対向きに表示する。二輪車の正面及び背面を示すそれぞれの二輪車アイコン画像には、実際の二輪車の乗員の正面及び背面の特徴点が示されているため、自車両Vの乗員に、仮想視点映像を通して二輪車の向きを的確に伝えることができる。   Moreover, the control apparatus 110 of this embodiment displays the direction of the passenger | crew's face and body of a two-wheeled vehicle with respect to the camera 20 in the opposite direction using the two-wheeled vehicle icon image which shows a two-wheeled vehicle. Since the two-wheeled vehicle icon images showing the front and back of the two-wheeled vehicle show the characteristic points of the front and rear of the actual two-wheeled vehicle occupant, the direction of the two-wheeled vehicle is accurately confirmed to the occupant of the own vehicle V through the virtual viewpoint image. Can tell.

さらに、本実施形態の制御装置110は、対象物の向きに応じて、対象物の表示を変更する。制御装置110は、対象物が他車両の場合には、他車両そのものの向きを反対向きに表示し、対象物が二輪車の場合には、二輪車そのものでなく、二輪車の乗員の顔と体の向きを反対向きに表示する。これにより、対象物の属性に応じて、対象物の特徴点を適切に表示することができ、自車両Vの乗員に、仮想視点映像を通じて、対象物の属性に応じた対象物の向きを的確に伝えることができる。   Furthermore, the control device 110 of the present embodiment changes the display of the object according to the direction of the object. When the target object is another vehicle, the control device 110 displays the direction of the other vehicle in the opposite direction. When the target object is a two-wheeled vehicle, the direction of the face and body of the occupant of the two-wheeled vehicle is not the two-wheeled vehicle itself. Is displayed in the opposite direction. Accordingly, the feature points of the target object can be appropriately displayed according to the attribute of the target object, and the direction of the target object according to the attribute of the target object can be accurately confirmed to the occupant of the host vehicle V through the virtual viewpoint video. Can tell.

≪第3実施形態≫
上述した2つの実施形態では、移動体が自車両である場合を例に説明したが、第3実施形態では、移動体が海底探査機である場合を例にして説明する。なお、本実施形態の移動体は、人間が搭乗可能な有人機であってもよいし、人間が搭乗しない無人機であってもよい。
«Third embodiment»
In the two embodiments described above, the case where the moving body is the host vehicle has been described as an example. However, in the third embodiment, the case where the moving body is a submarine explorer will be described as an example. Note that the moving body of the present embodiment may be a manned machine on which a human can be boarded, or an unmanned machine on which a human is not boarding.

本実施形態の表示システムは、移動体に搭載された装置として構成してもよいし、移動体に持ち込み可能な可搬装置として構成してもよい。また、本実施形態の表示システムの一部の構成を移動体に搭載し、他の構成を移動体とは物理的に別の装置に搭載し、構成を分散させてもよい。この場合において、移動体と別の装置とは、情報の授受が可能なように構成される。   The display system of the present embodiment may be configured as a device mounted on a moving body, or may be configured as a portable device that can be brought into the moving body. Further, a part of the configuration of the display system according to the present embodiment may be mounted on a moving body, and another configuration may be mounted on a device physically different from the moving body, and the configuration may be distributed. In this case, the mobile body and another device are configured to be able to exchange information.

本実施形態の表示装置は、上述した2つの実施形態と同様の構成であるため、説明を援用する。   Since the display device of the present embodiment has the same configuration as that of the above-described two embodiments, the description is incorporated.

図13は、本実施形態に係る表示装置が表示する仮想視点映像の一例を示す図である。図13に示す仮想視点映像PV3は、本実施形態の表示装置が海底探査機に搭載された場合の仮想視点映像の一例である。説明の便宜上、図13では、仮想視点VP3を示す。なお、本実施形態における対象物には、魚などの生物、漂流物などの障害物が含まれる。また、本実施形態では、ROM12に、魚などの生物を示すアイコン画像を予め記憶させていてもよい。 FIG. 13 is a diagram illustrating an example of a virtual viewpoint video displayed by the display device according to the present embodiment. A virtual viewpoint video PV3 shown in FIG. 13 is an example of a virtual viewpoint video when the display device of the present embodiment is mounted on a seafloor explorer. For convenience of explanation, FIG. 13 shows a virtual viewpoint VP3. Note that the objects in the present embodiment include creatures such as fish and obstacles such as drifting objects. Moreover, in this embodiment, the icon image which shows living organisms, such as a fish, may be memorize | stored in ROM12 previously.

海底探査機V6(図示なし)には、海底探査機の周囲を撮像するのに必要な個数のカメラが所定の位置に設置されている。図13に示すように、本実施形態の制御装置は、所定の仮想視点から円筒形状の空間モデルP3を見た仮想視点映像を作成する。空間モデルP3は、円筒形状の底面の中央に位置する海底探査機アイコン画像V6、円筒形状の側面にマッピングされたカメラの撮像画像(図示なし)から構成される。 In the submarine spacecraft V6 (not shown), a number of cameras necessary for imaging the periphery of the seabed spacecraft are installed at predetermined positions. As illustrated in FIG. 13, the control device according to the present embodiment creates a virtual viewpoint video in which a cylindrical space model P3 is viewed from a predetermined virtual viewpoint. The space model P3 is composed of a submarine explorer icon image V6 located at the center of the cylindrical bottom surface, and a captured image (not shown) of a camera mapped on the cylindrical side surface.

本実施形態の制御装置は、海底探査機V6のカメラの撮像方向と仮想視点の向きが対向する投影面の領域C5(対象領域TA)を特定する。制御装置は、対象領域TAに対象物(例えば、魚などの生物)が存在するか否かを検出し、対象物が存在する場合に、例えばアイコン画像により、カメラに対する対象物の向きを反対向きに表示した仮想視点映像PV3をディスプレイ50に表示させる。これにより、表示装置を海底探査機に搭載した場合であっても、海底探査機の乗員に、仮想視点映像PV3を通して対象物の向きを的確に伝えることができる。 The control device of the present embodiment specifies a region C5 (target region TA) on the projection plane in which the imaging direction of the camera of the seafloor explorer V6 and the direction of the virtual viewpoint face each other. The control device detects whether or not a target object (for example, a living organism such as a fish) exists in the target area TA, and when the target object exists, the direction of the target object with respect to the camera is reversed by using, for example, an icon image. The virtual viewpoint video PV3 displayed in FIG. Thereby, even when the display device is mounted on the submarine spacecraft, it is possible to accurately convey the direction of the object to the occupant of the seafloor spacecraft through the virtual viewpoint video PV3 .

≪第4実施形態≫
第4実施形態では、移動体が回転翼機である場合を例にして説明する。なお、本実施形態の移動体は、人間が搭乗可能な有人機であってもよいし、人間が搭乗しない無人機であってもよい。
<< Fourth Embodiment >>
In the fourth embodiment, a case where the moving body is a rotary wing machine will be described as an example. Note that the moving body of the present embodiment may be a manned machine on which a human can be boarded, or an unmanned machine on which a human is not boarding.

本実施形態の表示システムは、移動体に搭載された装置として構成してもよいし、移動体に持ち込み可能な可搬装置として構成してもよい。また、本実施形態の表示システムの一部の構成を移動体に搭載し、他の構成を移動体とは物理的に別の装置に搭載し、構成を分散させてもよい。この場合において、移動体と別の装置とは、情報の授受が可能なように構成される。   The display system of the present embodiment may be configured as a device mounted on a moving body, or may be configured as a portable device that can be brought into the moving body. Further, a part of the configuration of the display system according to the present embodiment may be mounted on a moving body, and another configuration may be mounted on a device physically different from the moving body, and the configuration may be distributed. In this case, the mobile body and another device are configured to be able to exchange information.

本実施形態の表示装置は、上述した3つの実施形態と同様の構成であるため、説明を援用する。   Since the display device of the present embodiment has the same configuration as that of the above-described three embodiments, the description is incorporated.

図14Aは、本実施形態に係る表示装置が表示する仮想視点映像の一例を示す図である。図14Aに示す仮想視点映像PV4は、本実施形態の表示装置が、回転翼機R1であって、人間が搭乗可能な有人機に搭載された場合の仮想視点映像の一例である。回転翼機R1としては、例えば、ヘリコプター等が挙げられる。また、図14Bは、本実施形態に係る表示装置が表示する仮想視点映像の他の例を示す図である。図14Bに示す仮想視点映像PV5は、本実施形態の表示装置が、回転翼機R2であって、人間が搭乗しない無人機に搭載された場合の仮想視点映像の一例である。回転翼機R2としては、例えば、ドローン等が挙げられる。 FIG. 14A is a diagram illustrating an example of a virtual viewpoint video displayed by the display device according to the present embodiment. A virtual viewpoint video PV4 shown in FIG. 14A is an example of a virtual viewpoint video in the case where the display device of the present embodiment is mounted on a manned aircraft on which the human body can ride, which is the rotary wing aircraft R1. Examples of the rotary wing aircraft R1 include a helicopter. FIG. 14B is a diagram illustrating another example of the virtual viewpoint video displayed by the display device according to the present embodiment. A virtual viewpoint video PV5 shown in FIG. 14B is an example of a virtual viewpoint video when the display device of the present embodiment is mounted on an unmanned aircraft that is a rotorcraft R2 and is not boarded by humans. An example of the rotary wing machine R2 is a drone.

なお、本実施形態における対象物には、他の回転翼機、他の航空機、鳥などの生物等含まれる。また、本実施形態では、ROM12に、回転翼機、航空機、鳥などの生物を示すアイコン画像を予め記憶させていてもよい。回転翼機には、回転翼機の周囲を撮像するのに必要な個数のカメラが所定の位置に設置されている。   Note that the objects in the present embodiment include other rotorcraft, other aircraft, creatures such as birds, and the like. In the present embodiment, the ROM 12 may store in advance an icon image indicating a creature such as a rotary wing aircraft, an aircraft, or a bird. In the rotary wing aircraft, a number of cameras necessary for imaging the surroundings of the rotary wing aircraft are installed at predetermined positions.

図14Aに示すように、制御装置は、回転翼機R1(回転翼機アイコン画像R1)のカメラの撮像方向と仮想視点VP4の向きが対向する投影面の領域C6(対象領域TA)を特定する。制御装置は、対象領域TAに対象物(例えば、他の航空機)が存在するか否かを検出し、対象物が存在する場合に、例えばアイコン画像により、カメラに対する対象物の向きを反対向きに表示した仮想視点映像PV4をディスプレイに表示させる。 As shown in FIG. 14A, the control device identifies a projection plane area C6 (target area TA) in which the imaging direction of the camera of the rotary wing machine R1 (rotary wing machine icon image R1 ) and the orientation of the virtual viewpoint VP4 face each other. To do. The control device detects whether or not a target object (for example, another aircraft) exists in the target area TA, and when the target object exists, the direction of the target object with respect to the camera is reversed by using, for example, an icon image. The displayed virtual viewpoint video PV4 is displayed on the display.

また、図14Bに示すように、制御装置は、回転翼機R2(回転翼機アイコン画像R2)のカメラの撮像方向と仮想視点VP5の向きが対向する投影面の領域C7(対象領域TA)を特定する。制御装置は、対象領域TAに対象物(例えば、他の航空機)が存在するか否かを検出し、対象物が存在する場合に、例えばアイコン画像により、カメラに対する対象物の向きを反対向きに表示した仮想視点映像PV5をディスプレイに表示させる。 Further, as shown in FIG. 14B, the control device performs a projection plane area C7 (target area TA) in which the imaging direction of the camera of the rotary wing machine R2 (rotary wing machine icon image R2 ) and the orientation of the virtual viewpoint VP5 face each other. Is identified. The control device detects whether or not a target object (for example, another aircraft) exists in the target area TA, and when the target object exists, the direction of the target object with respect to the camera is reversed by using, for example, an icon image. The displayed virtual viewpoint video PV5 is displayed on the display.

このように、本発明の表示装置を回転翼機に搭載した場合であっても、回転翼機の操縦者又は回転翼機の乗員に、仮想視点映像PV4、PV5を通して対象物の向きを的確に伝えることができる。 As described above, even when the display device of the present invention is mounted on a rotary wing aircraft, the orientation of the object is indicated to the operator of the rotary wing aircraft or the crew of the rotary wing aircraft through the virtual viewpoint images PV4 and PV5 ′. Can communicate accurately.

なお、以上に説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

例えば、上述した実施形態では、カメラ20に対する対象物の向きを特定し、特定した対象物の向きと反対向きのアイコン画像を重畳表示することで、対象物の表示を変更する構成を例示したが、これに限定されない。特定した対象物の向きと同じ向きのアイコン画像を加工処理して、特定した対象物の向きと反対向きのアイコン画像を作成してもよい。   For example, in the above-described embodiment, the configuration of changing the display of the target object by specifying the direction of the target object with respect to the camera 20 and displaying the icon image in the opposite direction to the specified target object direction is exemplified. However, the present invention is not limited to this. An icon image having the same direction as the direction of the specified object may be processed to create an icon image opposite to the direction of the specified object.

例えば、カメラ20に対する歩行者の向きを正面と特定した場合に、ROM12から歩行者アイコン画像の正面を読み出してもよい。そして、読み出した歩行者アイコン画像の顔及び体を所定の色で塗りつぶすとともに、歩行者アイコン画像に頭髪や臀部を重畳した加工処理を実行してもよい。これにより、歩行者の背面を示す歩行者アイコン画像を表示させることができる。また、例えば、カメラ20に対する歩行者の向きを背面として特定した場合に、ROM12から歩行者アイコン画像の背面を読み出してもよい。そして、読み出した歩行者アイコン画像の後頭部に目、口を重畳した加工処理を実行してもよい。これにより、歩行者の正面を示す歩行者アイコン画像を表示させることができる。   For example, when the direction of the pedestrian with respect to the camera 20 is specified as the front, the front of the pedestrian icon image may be read from the ROM 12. Then, the face and body of the read pedestrian icon image may be painted with a predetermined color, and processing for superimposing the hair and the buttocks on the pedestrian icon image may be executed. Thereby, the pedestrian icon image which shows the back of a pedestrian can be displayed. For example, when the direction of the pedestrian with respect to the camera 20 is specified as the back side, the back side of the pedestrian icon image may be read from the ROM 12. And you may perform the process which superimposes eyes and a mouth on the back head of the read pedestrian icon image. Thereby, the pedestrian icon image which shows the front of a pedestrian can be displayed.

また、上述した実施形態では、アイコン画像を用いて、カメラ20に対する対象物の向きを反対向きに表示する構成を例示したが、これに限定されない。撮像画像上の対象物のデータから画像処理を実行して、カメラ20に対する対象物の向きを反対向きに表示してもよい。   Moreover, although embodiment mentioned above illustrated the structure which displays the direction of the target object with respect to the camera 20 in the opposite direction using an icon image, it is not limited to this. Image processing may be executed from the data of the object on the captured image, and the direction of the object with respect to the camera 20 may be displayed in the opposite direction.

例えば、図15(A)に示すように、撮像画像のデータから、歩行者の顔を検出し、カメラ20に対する歩行者の向きを正面として特定するとともに、歩行者の頭髪の色も検出してもよい。そして、図15(B)に示すように、撮像画像上の歩行者の顔を、検出した歩行者の頭髪の色で塗りつぶして、歩行者の後頭部を示す画像として表示してもよい。歩行者の正面を示す顔が表示されなくなるため、自車両Vの乗員に、歩行者が自車両Vに顔を向けて自車両Vに近づいていることを認識させることができる。   For example, as shown in FIG. 15A, the face of the pedestrian is detected from the captured image data, the direction of the pedestrian with respect to the camera 20 is specified as the front, and the color of the pedestrian's hair is also detected. Also good. Then, as shown in FIG. 15B, the pedestrian's face on the captured image may be painted with the detected pedestrian's hair color and displayed as an image showing the pedestrian's back. Since the face indicating the front of the pedestrian is not displayed, the occupant of the host vehicle V can recognize that the pedestrian is approaching the host vehicle V with the face facing the host vehicle V.

また、図15(A)に示すように、撮像画像のデータから、歩行者の上半身を検し、カメラ20に対する歩行者の向きを正面として特定するとともに、歩行者の衣服の色も検出してもよい。そして、図15(B)に示すように、撮像画像上の歩行者の上半身を、検出した歩行者の衣服の色で塗りつぶして、歩行者の背面を示す画像として表示してもよい。歩行者の正面を示す衣服のボタン等が表示されなくなるため、自車両Vの乗員に、歩行者が自車両Vに正面を向けて自車両Vに近づいていることを認識させることができる。   Further, as shown in FIG. 15A, the upper body of the pedestrian is examined from the captured image data, the orientation of the pedestrian with respect to the camera 20 is specified as the front, and the color of the pedestrian's clothes is also detected. Also good. Then, as shown in FIG. 15B, the upper body of the pedestrian on the captured image may be painted with the color of the detected pedestrian clothes and displayed as an image showing the back of the pedestrian. Since buttons of clothes indicating the front of the pedestrian are not displayed, the passenger of the own vehicle V can recognize that the pedestrian is approaching the own vehicle V with the front facing the own vehicle V.

なお、図15は、歩行者の表示を加工する表示加工処理の一例を示す図である。図15(A)は、歩行者の表示を加工する前の画像の一例を示し、図15(B)は、歩行者の表示を加工した後の画像の一例を示す。   FIG. 15 is a diagram illustrating an example of a display processing process for processing a pedestrian display. FIG. 15A shows an example of an image before processing the pedestrian display, and FIG. 15B shows an example of an image after processing the pedestrian display.

さらに、上述した実施形態では、カメラ20に対する対象物の向きを背面と特定した場合、対象物の向きを正面に変更して表示する構成を例示したが、これに限定されない。カメラ20に対する向きが背面と特定された対象物は、実際には自車両Vから遠ざかる方向を向いている。そのため、この対象物が自車両Vの乗員に与えるリスクは低いと判断してもよく、カメラ20に対する対象物の向きを背面と特定した場合には、カメラ20に対する対象物の向きを正面と特定した場合に比べて、アイコン画像による重畳表示の優先度を下げてもよい。これにより、自車両Vの乗員に、仮想視点映像を通して、自車両Vに近づくおそれのある対象物を認識させることができるとともに、画像処理の負荷を軽減させることができる。   Furthermore, in embodiment mentioned above, when the direction of the target object with respect to the camera 20 was specified with the back, the structure which changes and displays the direction of a target object to the front was illustrated, but it is not limited to this. The object whose orientation with respect to the camera 20 is identified as the back surface is actually facing away from the host vehicle V. Therefore, it may be determined that the risk that this object gives to the occupant of the host vehicle V is low. When the direction of the object with respect to the camera 20 is specified as the back, the direction of the object with respect to the camera 20 is specified as the front. Compared with the case where it does, you may lower the priority of the superimposition display by an icon image. Thereby, the passenger | crew of the own vehicle V can recognize the target object which may approach the own vehicle V through a virtual viewpoint image | video, and can reduce the load of image processing.

また、本明細書では、本発明に係る表示装置の一態様としての表示装置100を含む表示システム1を例にして説明するが、本発明はこれに限定されるものではない。   In this specification, the display system 1 including the display device 100 as one embodiment of the display device according to the present invention will be described as an example. However, the present invention is not limited to this.

また、本明細書では、本発明に係るコントローラの一態様として、CPU11、ROM12、RAM13を含む制御装置10、制御装置110を説明するが、これに限定されるものではない。   In this specification, the control device 10 and the control device 110 including the CPU 11, the ROM 12, and the RAM 13 will be described as an embodiment of the controller according to the present invention.

また、本明細書では、本発明の第1のアイコンの一態様として、歩行者アイコン、本発明の第2のアイコンの一態様として、二輪車アイコン、本発明の第3のアイコンの一態様として、他車両アイコンを説明するが、これに限定されるものではない。   Further, in the present specification, as one aspect of the first icon of the present invention, as a pedestrian icon, as one aspect of the second icon of the present invention, as a motorcycle icon, as one aspect of the third icon of the present invention, Other vehicle icons will be described, but the present invention is not limited to this.

1…表示システム
100…表示装置
10…制御装置
11…CPU
12…ROM
13…RAM
200…移動体装置
20…カメラ
30…コントローラ
40…乗員操作装置
50…ディスプレイ
DESCRIPTION OF SYMBOLS 1 ... Display system 100 ... Display apparatus 10 ... Control apparatus 11 ... CPU
12 ... ROM
13 ... RAM
DESCRIPTION OF SYMBOLS 200 ... Mobile device 20 ... Camera 30 ... Controller 40 ... Crew operating device 50 ... Display

Claims (11)

表示制御機能を備えるコントローラを用いて、
移動体に搭載されたカメラが撮像した撮像画像を取得し、
前記移動体の周囲を囲む立体形状に前記撮像画像を投影して、前記立体形状の外側に位置する仮想視点から前記移動体及び当該移動体の周囲を見た映像を生成し、
前記カメラの撮像方向と前記仮想視点が対向する投影面の領域を、対象領域として特定し、
前記対象領域内に対象物が存在するか否かを検出し、
前記対象物が存在する場合に、前記カメラに対する前記対象物の向きを特定し、
前記対象物の向きを反対向きに表示した前記映像をディスプレイに表示する表示装置の制御方法。
Using a controller with a display control function,
Acquire the captured image captured by the camera mounted on the moving body,
The captured image is projected onto a three-dimensional shape that surrounds the periphery of the moving body, and the moving body and an image of the surroundings of the moving body are generated from a virtual viewpoint located outside the three-dimensional shape,
Specify the area of the projection plane where the imaging direction of the camera and the virtual viewpoint face each other as a target area,
Detecting whether an object is present in the target area;
If the object is present, identify the orientation of the object relative to the camera;
A control method for a display device, which displays the video in which the direction of the object is displayed in the opposite direction on a display.
請求項1に記載の表示装置の制御方法であって、
前記対象物の向きが正面の場合に、前記対象物の背面を表示し、
前記対象物の向きが背面の場合に、前記対象物の正面を表示する表示装置の制御方法。
A control method for a display device according to claim 1,
When the direction of the object is the front, the back of the object is displayed,
The control method of the display apparatus which displays the front of the said target object when the direction of the said target object is a back surface.
請求項1又は2に記載の表示装置の制御方法であって、
前記対象物は、歩行者であり、
前記歩行者を示す第1のアイコンを用いて、前記カメラに対する前記歩行者の顔及び体の向きを反対向きに表示する表示装置の制御方法。
A control method for a display device according to claim 1 or 2,
The object is a pedestrian,
A control method for a display device, wherein a first icon indicating the pedestrian is used to display the face and body directions of the pedestrian relative to the camera in opposite directions.
請求項3に記載の表示装置の制御方法であって、
前記歩行者の後頭部を検出した場合に、顔が示された前記第1のアイコンで、前記歩行者の後頭部を重畳して表示する表示装置の制御方法。
A control method for a display device according to claim 3,
A control method for a display device, wherein when the back of the pedestrian is detected, the back of the pedestrian is displayed with the first icon indicating a face.
請求項3に記載の表示装置の制御方法であって、
前記歩行者の上半身の背面を検出した場合に、衣服の正面が示された前記第1のアイコンで、前記歩行者の上半身の背面を重畳して表示する表示装置の制御方法。
A control method for a display device according to claim 3,
A control method for a display device, wherein when the back of the upper body of the pedestrian is detected, the back of the upper body of the pedestrian is superimposed and displayed with the first icon indicating the front of the clothes.
請求項1又は2に記載の表示装置の制御方法であって、
前記対象物は、歩行者であり、
前記歩行者の顔及び頭髪を検出した場合に、前記歩行者の顔を、前記歩行者の頭髪の色で塗りつぶして表示する表示装置の制御方法。
A control method for a display device according to claim 1 or 2,
The object is a pedestrian,
A control method for a display device, in which, when the face and hair of the pedestrian are detected, the face of the pedestrian is painted with the color of the pedestrian's hair.
請求項1又は2に記載の表示装置の制御方法であって、
前記対象物は、歩行者であり、
前記歩行者の上半身の衣服を検出した場合に、前記歩行者の上半身を、前記歩行者の衣服の色で塗りつぶして表示する表示装置の制御方法。
A control method for a display device according to claim 1 or 2,
The object is a pedestrian,
A control method for a display device, in which, when clothing of the upper body of the pedestrian is detected, the upper body of the pedestrian is painted with the color of the clothing of the pedestrian.
請求項1又は2に記載の表示装置の制御方法であって、
前記対象物は、二輪車及び当該二輪車の乗員であり、
前記二輪車の乗員を示す第2のアイコンを用いて、前記カメラに対する前記二輪車の乗員の顔及び体の向きを反対向きに表示する表示装置の制御方法。
A control method for a display device according to claim 1 or 2,
The object is a motorcycle and an occupant of the motorcycle,
A control method for a display device, wherein a second icon indicating the occupant of the motorcycle is used to display the face and body direction of the occupant of the motorcycle with respect to the camera in opposite directions.
請求項1又は2に記載の表示装置の制御方法であって、
前記対象物は、車両であり、
前記車両を示す第3のアイコンを用いて、前記カメラに対する前記車両の向きを反対向きに表示する表示装置の制御方法。
A control method for a display device according to claim 1 or 2,
The object is a vehicle;
A control method for a display device, wherein a third icon indicating the vehicle is used to display the direction of the vehicle in the opposite direction with respect to the camera.
請求項1〜9のいずれか一項に記載の表示装置の制御方法であって、
前記対象物の属性を検出し、
前記対象物の属性に応じて、前記対象物の表示を変更する表示装置の制御方法。
A control method for a display device according to any one of claims 1 to 9,
Detecting attributes of the object;
A control method for a display device, wherein display of the object is changed according to an attribute of the object.
ディスプレイと、
コントローラを備える表示装置であって、
前記コントローラは、
移動体に搭載されたカメラが撮像した撮像画像を取得し、
前記移動体の周囲を囲む立体形状に前記撮像画像を投影して、前記立体形状の外側に位置する仮想視点から前記移動体及び当該移動体の周囲を見た映像を生成し、
前記カメラの撮像方向と前記仮想視点が対向する投影面の領域を、対象領域として特定し、
前記対象領域内に対象物が存在するか否かを検出し、
前記対象物が存在する場合に、前記カメラに対する前記対象物の向きを特定し、
前記対象物の向きを反対向きに表示した前記映像を前記ディスプレイに表示する表示装置。
Display,
A display device comprising a controller,
The controller is
Acquire the captured image captured by the camera mounted on the moving body,
The captured image is projected onto a three-dimensional shape that surrounds the periphery of the moving body, and the moving body and an image of the surroundings of the moving body are generated from a virtual viewpoint located outside the three-dimensional shape,
Specify the area of the projection plane where the imaging direction of the camera and the virtual viewpoint face each other as a target area,
Detecting whether an object is present in the target area;
If the object is present, identify the orientation of the object relative to the camera;
A display device that displays the video in which the direction of the object is displayed in the opposite direction on the display.
JP2017057754A 2017-03-23 2017-03-23 Display control method and display device Active JP6787209B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017057754A JP6787209B2 (en) 2017-03-23 2017-03-23 Display control method and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017057754A JP6787209B2 (en) 2017-03-23 2017-03-23 Display control method and display device

Publications (2)

Publication Number Publication Date
JP2018160835A true JP2018160835A (en) 2018-10-11
JP6787209B2 JP6787209B2 (en) 2020-11-18

Family

ID=63795827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017057754A Active JP6787209B2 (en) 2017-03-23 2017-03-23 Display control method and display device

Country Status (1)

Country Link
JP (1) JP6787209B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010251939A (en) * 2009-04-14 2010-11-04 Hyundai Motor Co Ltd Vehicle circumference image display system
JP2011030078A (en) * 2009-07-28 2011-02-10 Toshiba Alpine Automotive Technology Corp Image display device for vehicle
JP2012257106A (en) * 2011-06-09 2012-12-27 Aisin Seiki Co Ltd Image generating device
WO2016098238A1 (en) * 2014-12-19 2016-06-23 株式会社日立製作所 Travel control device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010251939A (en) * 2009-04-14 2010-11-04 Hyundai Motor Co Ltd Vehicle circumference image display system
JP2011030078A (en) * 2009-07-28 2011-02-10 Toshiba Alpine Automotive Technology Corp Image display device for vehicle
JP2012257106A (en) * 2011-06-09 2012-12-27 Aisin Seiki Co Ltd Image generating device
WO2016098238A1 (en) * 2014-12-19 2016-06-23 株式会社日立製作所 Travel control device

Also Published As

Publication number Publication date
JP6787209B2 (en) 2020-11-18

Similar Documents

Publication Publication Date Title
CN109360245B (en) External parameter calibration method for multi-camera system of unmanned vehicle
JP7245295B2 (en) METHOD AND DEVICE FOR DISPLAYING SURROUNDING SCENE OF VEHICLE-TOUCHED VEHICLE COMBINATION
JP7010221B2 (en) Image generator, image generation method, and program
Wang et al. Monocular plan view networks for autonomous driving
KR102275310B1 (en) Mtehod of detecting obstacle around vehicle
JP5397373B2 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING METHOD
CN100438623C (en) Image processing device and monitoring system
CN104883554B (en) The method and system of live video is shown by virtually having an X-rayed instrument cluster
JP6522630B2 (en) Method and apparatus for displaying the periphery of a vehicle, and driver assistant system
JP2017513079A (en) Camera calibration method, device and system
CN105006175A (en) Method and system for proactively recognizing an action of a road user and corresponding locomotive
JP2018531530A5 (en)
JP5716389B2 (en) Vehicle display device
WO2019067193A1 (en) Nighttime sensing
CN107972585A (en) Scene rebuilding System and method for is looked around with reference to the adaptive 3 D of radar information
CN111178122A (en) Detection and planar representation of three-dimensional lanes in a road scene
CN104318206A (en) Barrier detection method and apparatus
US20190141310A1 (en) Real-time, three-dimensional vehicle display
Poostchi et al. Semantic depth map fusion for moving vehicle detection in aerial video
Kemsaram et al. A stereo perception framework for autonomous vehicles
Su et al. 3D AVM system for automotive applications
CN109690558A (en) Method, driver assistance system and the motor vehicles of driver&#39;s driving maneuver vehicle for auxiliary maneuvering vehicle
CN108290499B (en) Driver assistance system with adaptive ambient image data processing
JP6473188B2 (en) Method, apparatus and program for generating depth map
JP6787209B2 (en) Display control method and display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201012

R151 Written notification of patent or utility model registration

Ref document number: 6787209

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151