JP2011004201A - Circumference display - Google Patents

Circumference display Download PDF

Info

Publication number
JP2011004201A
JP2011004201A JP2009145971A JP2009145971A JP2011004201A JP 2011004201 A JP2011004201 A JP 2011004201A JP 2009145971 A JP2009145971 A JP 2009145971A JP 2009145971 A JP2009145971 A JP 2009145971A JP 2011004201 A JP2011004201 A JP 2011004201A
Authority
JP
Japan
Prior art keywords
virtual camera
gazing point
position information
data
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009145971A
Other languages
Japanese (ja)
Other versions
JP5412979B2 (en
Inventor
Shinichi Hotta
伸一 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP2009145971A priority Critical patent/JP5412979B2/en
Publication of JP2011004201A publication Critical patent/JP2011004201A/en
Application granted granted Critical
Publication of JP5412979B2 publication Critical patent/JP5412979B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a circumference display for simply acquiring a bird's-eye view image viewed from an optional viewpoint position in display of the bird's-eye view image around a self-propelled mobile object.SOLUTION: The circumference display includes: a virtual camera posture determination part 8 which determines a posture of a virtual camera according to information on a viewpoint position of the virtual camera from a viewpoint position changing means 70; a driving situation grasping part 3 which grasps a driving situation of a self-vehicle to output driving situation data such as a driving state of the self-vehicle upon receiving the driving situation data from a driving situation data output means 200; an environmental situation grasping part 4 which grasps an environmental situation around the self-vehicle to output environmental situation data; an obstacle determination part 9 which determines presence/absence of an obstacle on a road surface to output obstacle data; and a watch point position information changing part 10 which changes watch point position information of the virtual camera upon receiving output of the driving situation grasping part 3, the environmental situation grasping part 4, and the obstacle determination part 9, and the watch point position information stored in a storage part 7.

Description

本発明は周辺表示装置に関し、特に、自走可能な移動体の周辺状況を俯瞰的に表示する周辺表示装置に関する。   The present invention relates to a peripheral display device, and more particularly, to a peripheral display device that displays a bird's-eye view of a surrounding state of a mobile object capable of self-running.

複数の撮像手段によって車両周辺の2次元画像を個々に撮像し、それぞれの画像を視点変換して路面を投影面とする複数の俯瞰画像を作成し、当該複数の俯瞰画像を車両周辺に並べるように合成することで、自車両周辺の俯瞰画像を得る種々の技術が開示されている。   Two-dimensional images around the vehicle are individually picked up by a plurality of imaging means, and a plurality of overhead images are created with the road surface as a projection plane by converting each image to a viewpoint, and the plurality of overhead images are arranged around the vehicle. Various techniques for obtaining a bird's-eye view of the vicinity of the host vehicle by combining them are disclosed.

例えば、特許文献1には、映像選択部を備え、表示している合成俯瞰画像の特定の領域を選択すると、その領域を映しているカメラの画像に切り替わる構成が開示されている。   For example, Patent Document 1 discloses a configuration that includes a video selection unit and switches to an image of a camera that displays the region when a specific region of the displayed composite overhead image is selected.

特開2006−321419号公報JP 2006-321419 A

上述した特許文献1に開示された技術は、俯瞰画像の特定の領域を選択すると、その領域を映しているカメラで実際に映した映像に切り替わるだけのものであり、単純に言えば、映像選択部は、合成された俯瞰画像を得るための各カメラからの直接の映像を選択するものに過ぎず、各カメラからの直接の映像は部分的な映像であり、俯瞰的なものではないので、利用者にとっては状況がつかみにくく、必ずしも満足のできるものではない。   The technique disclosed in Patent Document 1 described above is such that when a specific region of the overhead view image is selected, the image is actually switched to the image actually displayed by the camera that displays the region. The section is only to select the direct video from each camera to obtain the synthesized overhead image, and the direct video from each camera is a partial video, not a bird's-eye view, For users, the situation is difficult to grasp and is not always satisfactory.

本発明は上記のような問題点を解消するためになされたもので、自動車などの自走可能な移動体周辺の俯瞰画像の表示において、任意の視点位置から見た俯瞰画像を簡便に取得できる周辺表示装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and can easily obtain an overhead image viewed from an arbitrary viewpoint position in the display of an overhead image around a mobile object such as an automobile that can be self-propelled. An object is to provide a peripheral display device.

本発明に係る周辺表示装置の第1の態様は、自走可能な移動体における周辺の画像データを取得する複数のカメラと、前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、前記第1の3次元画像データの座標系を、前記移動体の外側に仮想的に配置された仮想カメラから俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、前記第2の3次元画像データと、前記移動体の3次元モデルのデータとを統合した統合データを生成する統合部と、前記仮想カメラの視点位置を変更する視点位置変更部と、視点位置を変更された前記仮想カメラの姿勢を決定する仮想カメラ姿勢決定部とを備え、前記仮想カメラ姿勢決定部は、前記仮想カメラの視点位置変更時には、変更された前記視点位置と前記仮想カメラが注視すべき注視点とを結ぶベクトルとして設定される仮想カメラ視線方向ベクトルと、前記仮想カメラの方向の基準となる仮想カメラ上方向ベクトルとを用いて前記仮想カメラの姿勢を決定し、前記統合部は、前記仮想カメラの姿勢および変更された前記視点位置に基づいて前記統合データを生成する。   According to a first aspect of the peripheral display device of the present invention, a plurality of cameras that acquire peripheral image data in a self-propelled movable body, and first three-dimensional image data is calculated based on the image data. A coordinate calculation unit and a coordinate system of the first three-dimensional image data are converted into a moving object coordinate system that is viewed from a virtual camera virtually arranged outside the moving object, thereby generating a second three-dimensional image. A coordinate conversion unit to be data; an integration unit that generates integrated data obtained by integrating the second three-dimensional image data and data of the three-dimensional model of the moving object; and a viewpoint that changes the viewpoint position of the virtual camera A position changing unit, and a virtual camera posture determining unit that determines the posture of the virtual camera whose viewpoint position has been changed, wherein the virtual camera posture determining unit changes the viewpoint when the viewpoint position of the virtual camera is changed Position and front Determining the attitude of the virtual camera using a virtual camera line-of-sight direction vector set as a vector connecting the gazing point to be watched by the virtual camera and a virtual camera upward direction vector serving as a reference for the direction of the virtual camera; The integration unit generates the integrated data based on the attitude of the virtual camera and the changed viewpoint position.

本発明に係る周辺表示装置の第2の態様は、前記複数のカメラが、複数のステレオカメラである。   In a second aspect of the peripheral display device according to the present invention, the plurality of cameras are a plurality of stereo cameras.

本発明に係る周辺表示装置の第3の態様は、前記注視点の位置が、前記移動体の前記3次元モデル上に予め設定された注視点位置情報によって規定される。   In a third aspect of the peripheral display device according to the present invention, the position of the gazing point is defined by gazing point position information set in advance on the three-dimensional model of the moving body.

本発明に係る周辺表示装置の第4の態様は、前記注視点の位置を規定する注視点位置情報を変更する注視点位置情報変更部を備える。   A fourth aspect of the peripheral display device according to the present invention includes a gazing point position information changing unit that changes gazing point position information that defines the position of the gazing point.

本発明に係る周辺表示装置の第5の態様は、前記移動体の運転状況に関する運転状況データを前記注視点位置情報変更部に出力する運転状況把握部をさらに備え、前記注視点位置情報は、前記運転状況データに基づいて変更される。   The fifth aspect of the peripheral display device according to the present invention further includes a driving status grasping unit that outputs driving status data related to the driving status of the mobile body to the gazing point location information changing unit, and the gazing point location information is: It is changed based on the driving situation data.

本発明に係る周辺表示装置の第6の態様は、前記運転状況データが、前記移動体の前進および後退を含む運転状態のデータを有し、前記注視点位置情報は、前記運転状態のデータに基づいて変更される。   In a sixth aspect of the peripheral display device according to the present invention, the driving status data includes driving state data including forward and backward movement of the moving body, and the gazing point position information is included in the driving state data. Will be changed based on.

本発明に係る周辺表示装置の第7の態様は、前記運転状況データが、前記移動体の直進および右左折を制御する操舵角情報を有し、前記注視点位置情報は、前記操舵角情報に基づいて連続的に変更される。   In a seventh aspect of the peripheral display device according to the present invention, the driving situation data includes steering angle information for controlling straight travel and right / left turn of the moving body, and the gazing point position information is included in the steering angle information. Continuously changed based on.

本発明に係る周辺表示装置の第8の態様は、前記複数のカメラにより得られた画像データに基づいて、路面上の障害物の有無を判定するとともに、前記障害物までの相対位置の情報を障害物データとして前記注視点位置情報変更部に出力する障害物判定部をさらに備え、前記注視点位置情報は、前記障害物データに基づいて変更される。   According to an eighth aspect of the peripheral display device of the present invention, the presence / absence of an obstacle on the road surface is determined based on image data obtained by the plurality of cameras, and information on the relative position to the obstacle is obtained. An obstacle determination unit that outputs to the gaze position information change unit as obstacle data is further provided, and the gaze position information is changed based on the obstacle data.

本発明に係る周辺表示装置の第9の態様は、前記注視点位置情報変更部が、前記障害物データに基づいて、前記障害物の位置を包含する領域を計算し、該領域の中心位置に最も近い注視点が選ばれるように前記注視点位置情報を変更する。   In a ninth aspect of the peripheral display device according to the present invention, the gazing point position information change unit calculates a region including the position of the obstacle based on the obstacle data, and sets the center position of the region. The gaze point position information is changed so that the closest gaze point is selected.

本発明に係る周辺表示装置の第10の態様は、前記複数のカメラにより得られた画像データに基づいて、前記移動体周囲の環境状況を把握して、環境状況データとして前記注視点位置情報変更部に出力する環境状況把握部をさらに備え、前記注視点位置情報は、前記環境状況データに基づいて変更される。   In a tenth aspect of the peripheral display device according to the present invention, based on image data obtained by the plurality of cameras, the environmental situation around the moving body is grasped, and the gazing point position information is changed as environmental situation data. An environmental condition grasping unit for outputting to the part, and the gazing point position information is changed based on the environmental condition data.

本発明に係る周辺表示装置の第11の態様は、前記環境状況データが、前記画像データの明度に基づいて得られた、夜間および昼間の何れであるかのデータを有し、前記注視点位置情報は、夜間の場合と昼間の場合とで変更される。   An eleventh aspect of the peripheral display device according to the present invention has data indicating whether the environmental status data is nighttime or daytime obtained based on the brightness of the image data, and the gaze point position The information is changed between nighttime and daytime.

本発明に係る周辺表示装置の第12の態様は、前記視点位置変更部が、前記移動体の前記3次元モデルを中心とした半球を仮想的に設定し、前記半球上での緯度および経度を指定することで前記仮想カメラの前記視点位置を変更する。   In a twelfth aspect of the peripheral display device according to the present invention, the viewpoint position changing unit virtually sets a hemisphere centered on the three-dimensional model of the moving body, and calculates the latitude and longitude on the hemisphere. The viewpoint position of the virtual camera is changed by designating.

本発明に係る周辺表示装置の第13の態様は、前記視点位置変更部が、前記移動体の前記3次元モデルから前記仮想カメラが遠ざかる方向、および近づく方向に前記視点位置を変更する。   In a thirteenth aspect of the peripheral display device according to the present invention, the viewpoint position changing unit changes the viewpoint position in a direction in which the virtual camera moves away from and a direction in which the virtual camera moves away from the three-dimensional model of the moving body.

本発明に係る周辺表示装置の第1の態様によれば、仮想カメラの視点位置について任意に変更することができ、移動体周辺の俯瞰画像の表示において、任意の視点位置から見た俯瞰画像を簡便に取得できる。   According to the first aspect of the peripheral display device according to the present invention, it is possible to arbitrarily change the viewpoint position of the virtual camera, and in the display of the overhead image around the moving body, the overhead image viewed from the arbitrary viewpoint position is displayed. It can be obtained easily.

本発明に係る周辺表示装置の第2の態様によれば、移動体周辺の画像データを複数のステレオカメラを用いて取得することで、3次元データの取得が可能となる。   According to the second aspect of the peripheral display device of the present invention, it is possible to acquire three-dimensional data by acquiring image data around a moving object using a plurality of stereo cameras.

本発明に係る周辺表示装置の第3の態様によれば、仮想カメラの注視点の位置が、移動体の3次元モデル上に予め設定された注視点位置情報によって規定されるので、視点位置を任意に変えた場合でも、注視点の位置は固定されているので、仮想カメラの姿勢を求めることが容易である。   According to the third aspect of the peripheral display device of the present invention, the position of the gazing point of the virtual camera is defined by the gazing point position information set in advance on the three-dimensional model of the moving object. Even when the position is arbitrarily changed, the position of the gazing point is fixed, so it is easy to obtain the attitude of the virtual camera.

本発明に係る周辺表示装置の第4の態様によれば、仮想カメラの注視点の位置を規定する注視点位置情報を変更する注視点位置情報変更部を備えるので、仮想カメラの注視点を移動体の運転状況に応じて変更することが可能であり、使用者にとって見やすい俯瞰画像を提供することができる。   According to the fourth aspect of the peripheral display device of the present invention, since the gazing point position information changing unit for changing the gazing point position information defining the position of the gazing point of the virtual camera is provided, the gazing point of the virtual camera is moved. It is possible to change according to the driving situation of the body, and it is possible to provide an easy-to-see overhead image for the user.

本発明に係る周辺表示装置の第5の態様によれば、注視点位置情報が、運転状況データに基づいて変更されるので、移動体の運転状況に合った俯瞰画像を提供することができる。   According to the fifth aspect of the peripheral display device according to the present invention, the point-of-gaze position information is changed based on the driving situation data, so that an overhead image suitable for the driving situation of the mobile object can be provided.

本発明に係る周辺表示装置の第6の態様によれば、注視点位置情報が移動体の前進および後退を含む運転状態のデータに基づいて変更されるので、移動体が前進する場合と後退する場合のそれぞれで見やすい俯瞰画像を提供することができる。   According to the sixth aspect of the peripheral display device of the present invention, the point-of-gaze position information is changed based on the driving state data including the forward and backward movements of the moving body, so that the moving body moves backward and forwards. It is possible to provide an easy-to-see overhead image in each case.

本発明に係る周辺表示装置の第7の態様によれば、注視点位置情報が移動体の操舵角情報に基づいて連続的に変更されるので、移動体が右左折するような場合に、移動体の進行に合わせて変化する俯瞰画像を提供することができる。   According to the seventh aspect of the peripheral display device of the present invention, since the gazing point position information is continuously changed based on the steering angle information of the moving body, the movement is performed when the moving body turns right or left. It is possible to provide a bird's-eye view image that changes as the body progresses.

本発明に係る周辺表示装置の第8の態様によれば、注視点位置情報が障害物データに基づいて変更されるので、障害物を含んだ俯瞰画像を提供することができる。   According to the eighth aspect of the peripheral display device of the present invention, since the point-of-gaze position information is changed based on the obstacle data, an overhead image including the obstacle can be provided.

本発明に係る周辺表示装置の第9の態様によれば、障害物近傍の俯瞰画像を提供することができる。   According to the ninth aspect of the peripheral display device of the present invention, an overhead image near the obstacle can be provided.

本発明に係る周辺表示装置の第10の態様によれば、注視点位置情報が環境状況データに基づいて変更されるので、移動体の環境状況に合った俯瞰画像を提供することができる。   According to the tenth aspect of the peripheral display device according to the present invention, since the point-of-gaze position information is changed based on the environmental situation data, it is possible to provide an overhead view image that matches the environmental situation of the mobile object.

本発明に係る周辺表示装置の第11の態様によれば、注視点位置情報が、夜間の場合と昼間の場合とで変更されるので、移動体を夜間に運転する場合および昼間に運転する場合のそれぞれに適した俯瞰画像を提供することができる。   According to the eleventh aspect of the peripheral display device according to the present invention, the point-of-gaze position information is changed between the case of nighttime and the case of daytime. It is possible to provide an overhead image suitable for each of the above.

本発明に係る周辺表示装置の第12および第13の態様によれば、視点位置変更部での仮想カメラの視点位置の変更における実際的な方法を提供できる。   According to the twelfth and thirteenth aspects of the peripheral display device according to the present invention, it is possible to provide a practical method in changing the viewpoint position of the virtual camera in the viewpoint position changing unit.

ステレオカメラの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a stereo camera. 本発明に係る周辺表示装置の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of embodiment of the peripheral display apparatus which concerns on this invention. 仮想カメラの視点位置を設定するためのモデルを説明する図である。It is a figure explaining the model for setting the viewpoint position of a virtual camera. 仮想カメラの視点位置を設定するための他のモデルを説明する図である。It is a figure explaining the other model for setting the viewpoint position of a virtual camera. 仮想カメラ視線方向ベクトルの決定方法を模式的に示す図である。It is a figure which shows typically the determination method of a virtual camera gaze direction vector. 仮想カメラ上方向ベクトルの設定方法を説明する図である。It is a figure explaining the setting method of a virtual camera upward direction vector. 仮想カメラの注視点位置の変更動作を説明する図である。It is a figure explaining the change operation | movement of the gazing point position of a virtual camera. 仮想カメラからの俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image from a virtual camera. 仮想カメラからの俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image from a virtual camera. 仮想カメラからの俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image from a virtual camera. 注視点位置の一例を示す図である。It is a figure which shows an example of a gaze point position. 仮想カメラからの俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image from a virtual camera. 注視点位置の一例を示す図である。It is a figure which shows an example of a gaze point position. 仮想カメラからの俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image from a virtual camera. 注視点位置の一例を示す図である。It is a figure which shows an example of a gaze point position. 注視点位置の一例を示す図である。It is a figure which shows an example of a gaze point position. 注視点位置の一例を示す図である。It is a figure which shows an example of a gaze point position. 注視点位置の一例を示す図である。It is a figure which shows an example of a gaze point position. 仮想カメラからの俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image from a virtual camera. 注視点位置の一例を示す図である。It is a figure which shows an example of a gaze point position. 仮想カメラからの俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image from a virtual camera. ステレオカメラの他の配置例を示す図である。It is a figure which shows the other example of arrangement | positioning of a stereo camera.

<実施の形態>
<装置構成>
図1は、本発明に係る周辺表示装置を搭載した車両VCにおけるステレオカメラの配置例を示す図である。
<Embodiment>
<Device configuration>
FIG. 1 is a diagram showing an arrangement example of stereo cameras in a vehicle VC equipped with a peripheral display device according to the present invention.

図1において、車両VCには、前方、左右および後方の画像を取得する4台のステレオカメラが搭載されている。すなわち、前方の画像を取得するステレオカメラSC1、前方に対して右側の画像を取得するステレオカメラSC2、後方の画像を取得するステレオカメラSC3および前方に対して左側の画像を取得するステレオカメラSC4を備えている。   In FIG. 1, a vehicle VC is equipped with four stereo cameras that acquire front, left, and right images. That is, a stereo camera SC1 that acquires a front image, a stereo camera SC2 that acquires a right image with respect to the front, a stereo camera SC3 that acquires a rear image, and a stereo camera SC4 that acquires a left image with respect to the front. I have.

このようなシステムを用いることで、自車両の周辺の画像データを取得し、それを視点を変えて自車両の上方から見た俯瞰図に変更することが可能となるが、以下の説明では、ステレオカメラSC1およびSC4で取得した画像を使用する場合を例に採って説明する。   By using such a system, it is possible to acquire image data around the host vehicle and change it to an overhead view seen from above the host vehicle by changing the viewpoint, but in the following description, A case where images acquired by the stereo cameras SC1 and SC4 are used will be described as an example.

なお、各カメラの実際の配置位置は車種によって異なるが、例えば、ステレオカメラSC1はルームミラーの位置に配置され、ステレオカメラSC2およびSC4は、それぞれ、右および左のサイドミラーの位置に配置され、ステレオカメラSC3は、リヤバンパーの位置などに配置される。なお、上記配置は一例であり、ステレオカメラの配置はこれに限定されるものではない。   The actual arrangement position of each camera differs depending on the vehicle type. For example, the stereo camera SC1 is arranged at the position of the room mirror, and the stereo cameras SC2 and SC4 are arranged at the positions of the right and left side mirrors, respectively. Stereo camera SC3 is arranged at the position of the rear bumper. The above arrangement is an example, and the arrangement of the stereo camera is not limited to this.

図2は、本発明に係る周辺表示装置100の構成を示すブロック図である。図2に示すように周辺表示装置100は、ステレオカメラSC1〜SC4と、ステレオカメラSC1〜SC4で得られた画像データの画像処理を行う表示画像生成部80と、表示画像生成部100から出力される処理済みの画像データを表示する車内モニター等の画像表示部90と、俯瞰画像の視点位置を変更する視点位置変更手段70とを主たる構成として備えている。   FIG. 2 is a block diagram showing the configuration of the peripheral display device 100 according to the present invention. As shown in FIG. 2, the peripheral display device 100 is output from the stereo cameras SC <b> 1 to SC <b> 4, a display image generation unit 80 that performs image processing of image data obtained by the stereo cameras SC <b> 1 to SC <b> 4, and the display image generation unit 100. An image display unit 90 such as an in-vehicle monitor that displays processed image data and viewpoint position changing means 70 that changes the viewpoint position of the overhead image are provided as main components.

表示画像生成部80は、ステレオカメラSC1〜SC4でそれぞれ得られた2次元画像データに基づいて、3次元画像データを算出する3次元化計算部11、21、31および41と、3次元化計算部11、21、31および41のそれぞれで計算された3次元画像データ(第1の3次元画像データ)に、自動車座標系(移動体座標系)内でのステレオカメラの位置を表現する3次元変換行列を適用することで、ステレオカメラ座標系で表現された3次元画像データを自動車座標系で表現された3次元画像データ(第2の3次元画像データ)に変換する座標変換部12、22、32および42と、座標変換部12、22、32および42から出力された自動車座標系で表現された3次元画像データと、記憶部7に格納された自車両の3次元モデルのデータとを統合して、自車両を自動車座標系の原点とし、その周辺に自動車座標系で表現された各3次元画像データを並べるように統合して測定空間の3次元画像データ(統合データ)を生成する統合部5と、統合部5で生成された3次元画像データを、仮想位置に配置したカメラ(仮想カメラ)で観測した俯瞰画像データに生成する画像生成部6とを備えている。   The display image generation unit 80 includes three-dimensional calculation units 11, 21, 31, and 41 that calculate three-dimensional image data based on the two-dimensional image data obtained by the stereo cameras SC1 to SC4, and three-dimensional calculation. 3D expressing the position of the stereo camera in the vehicle coordinate system (moving body coordinate system) in the 3D image data (first 3D image data) calculated by each of the units 11, 21, 31 and 41 By applying the transformation matrix, the coordinate transformation units 12 and 22 that transform the three-dimensional image data expressed in the stereo camera coordinate system into the three-dimensional image data (second three-dimensional image data) expressed in the car coordinate system. , 32 and 42, three-dimensional image data expressed in the automobile coordinate system output from the coordinate conversion units 12, 22, 32 and 42, and the three-dimensional model of the host vehicle stored in the storage unit 7. 3D image data in the measurement space (integrated) with the vehicle as the origin of the vehicle coordinate system and the 3D image data expressed in the vehicle coordinate system arranged around the vehicle coordinate system. Data) and an image generation unit 6 that generates the three-dimensional image data generated by the integration unit 5 as overhead image data observed by a camera (virtual camera) arranged at a virtual position. Yes.

また、視点位置変更手段70からの仮想カメラの視点位置の情報に従って、仮想カメラの姿勢を決定する仮想カメラ姿勢決定部8と、仮想カメラ姿勢決定部8で決定された仮想カメラの姿勢および視点位置の情報を受け、統合部5で統合すべき統合データについての仮想カメラの情報、例えば視点位置や姿勢の情報を格納する記憶部51と、周辺表示装置100の外部に設けられた自車両の運転状況データを出力する運転状況データ出力手段200からの運転状況データを受け、自車両の運転状況を把握して、自車両の運転状態(前進/後退/停止)、速度、操舵角情報(直進/右折/左折)などの運転状況データを出力する運転状況把握部3と、自車両周辺の環境状況の把握を行い、環境状況データを出力する環境状況把握部4と、ステレオカメラSC1〜SC4により得られた画像データに基づいて、路面上の障害物の有無を判定して障害物データを出力する障害物判定部9と、運転状況把握部3、環境状況把握部4および障害物判定部9の出力、記憶部7に格納された注視点位置情報を受け、仮想カメラの注視点位置情報を変更する注視点位置情報変更部10を備えている。   Further, the virtual camera posture determining unit 8 that determines the posture of the virtual camera according to the information on the viewpoint position of the virtual camera from the viewpoint position changing unit 70, and the virtual camera posture and the viewpoint position determined by the virtual camera posture determining unit 8 And a storage unit 51 for storing virtual camera information about integrated data to be integrated by the integration unit 5, for example, viewpoint position and orientation information, and driving of the host vehicle provided outside the peripheral display device 100. The driving situation data output means 200 for outputting the situation data is received, the driving situation of the own vehicle is grasped, the driving state (forward / reverse / stop) of the own vehicle, speed, steering angle information (straight / (Right turn / left turn) etc., driving status grasping section 3 that outputs driving situation data, environmental situation grasping section 4 that grasps the environmental situation around the vehicle and outputs environmental situation data, and stereo Based on the image data obtained by the cameras SC1 to SC4, an obstacle determination unit 9 that determines the presence or absence of an obstacle on the road surface and outputs the obstacle data, a driving condition grasping part 3, an environmental condition grasping part 4, and A gazing point position information changing unit 10 that receives the output of the obstacle determination unit 9 and the gazing point position information stored in the storage unit 7 and changes the gazing point position information of the virtual camera is provided.

ここで、障害物判定部9は、各ステレオカメラで得られた画像データに対応する、自動車座標系で表現された3次元画像データを統合部5から受け、当該3次元画像データから路面を検出し、路面に対して所定値以上の高さを有する物体を検出した場合は障害物と判定した旨を出力するとともに、自車両に対する障害物との相対位置情報を出力する。   Here, the obstacle determination unit 9 receives the three-dimensional image data expressed in the car coordinate system corresponding to the image data obtained by each stereo camera from the integration unit 5, and detects the road surface from the three-dimensional image data. When an object having a height greater than or equal to a predetermined value with respect to the road surface is detected, the fact that it is determined as an obstacle is output, and information on the relative position of the vehicle relative to the obstacle is output.

環境状況把握部4は、各ステレオカメラで得られた画像データに対応する、自動車座標系で表現された3次元画像データを統合部5から受け、その明度値から夜間あるいは昼間であるかの情報や、画像から天候(晴天、雨、霧)についての情報を環境状況データとして出力する。   The environmental condition grasping unit 4 receives the three-dimensional image data expressed in the car coordinate system corresponding to the image data obtained by each stereo camera from the integrating unit 5 and determines whether it is nighttime or daytime from the brightness value. In addition, information about the weather (sunny weather, rain, fog) is output as environmental status data from the image.

<動作>
<基本動作>
次に、上述した構成を有する周辺表示装置100の基本動作について説明する。
<Operation>
<Basic operation>
Next, the basic operation of the peripheral display device 100 having the above-described configuration will be described.

ステレオカメラSC1〜SC4は、何れも2台のカメラで異なる視点から同時に撮影を行い、3次元化計算部11、21、31および41のそれぞれでは、三角測量の原理に基づいて、対応するステレオカメラで得られた2つの画像の特徴点を相互に対応付けし(対応点探索)、その結果得られた対応点の組のそれぞれについての視差、焦点距離、基線長などのパラメータから、各対応点の組についての3次元位置を求めることで3次元画像データを算出する。   The stereo cameras SC1 to SC4 are both taken simultaneously from different viewpoints by the two cameras, and each of the three-dimensional calculation units 11, 21, 31 and 41 corresponds to the corresponding stereo camera based on the principle of triangulation. The feature points of the two images obtained in the above are associated with each other (corresponding point search), and each corresponding point is obtained from parameters such as parallax, focal length, and base line length for each of the pair of corresponding points obtained as a result. The three-dimensional image data is calculated by obtaining the three-dimensional position for each set.

3次元化計算部11、21、31および41から出力される3次元画像データは、ステレオカメラ座標系で表現されているので、自動車座標系で表現された3次元画像データに変換するために座標変換部12、22、32および42において座標変換を行う。   Since the three-dimensional image data output from the three-dimensional calculation units 11, 21, 31, and 41 is expressed in the stereo camera coordinate system, coordinates are used for conversion into the three-dimensional image data expressed in the car coordinate system. Coordinate conversion is performed in the conversion units 12, 22, 32 and 42.

この座標変換は、3次元化計算部11、21、31および41から出力される3次元画像データに対して、それぞれ所定の3次元変換行列Mat1、Mat2、Mat3およびMat4を適用することで実行される。   This coordinate transformation is executed by applying predetermined three-dimensional transformation matrices Mat1, Mat2, Mat3, and Mat4 to the three-dimensional image data output from the three-dimensional calculation units 11, 21, 31, and 41, respectively. The

ここで、3次元変換行列Mat1〜Mat4は、図2に示されるように、それぞれ座標変換部12、22、32および42に対応付けられた記憶部14、24、34および44に格納されている。   Here, as shown in FIG. 2, the three-dimensional transformation matrices Mat1 to Mat4 are stored in the storage units 14, 24, 34, and 44 associated with the coordinate transformation units 12, 22, 32, and 42, respectively. .

座標変換部12、22、32および42から出力される自動車座標系で表現された3次元画像データは統合部5に与えられて、記憶部7に格納された自車両の3次元モデルのデータと統合される。このとき、記憶部51に格納された仮想カメラ情報に含まれる仮想カメラの視点位置および姿勢の情報に基づいて統合が実行される。   The three-dimensional image data expressed in the vehicle coordinate system output from the coordinate conversion units 12, 22, 32, and 42 is given to the integration unit 5, and the data of the three-dimensional model of the host vehicle stored in the storage unit 7 Integrated. At this time, the integration is executed based on the viewpoint position and orientation information of the virtual camera included in the virtual camera information stored in the storage unit 51.

画像生成部6では、統合部5から出力される3次元の統合データを受けて俯瞰画像データを生成して画像表示部90に与える。   The image generation unit 6 receives the three-dimensional integrated data output from the integration unit 5, generates overhead image data and supplies it to the image display unit 90.

<視点位置の変更動作>
次に、本発明に係る周辺表示装置100における仮想カメラの視点位置の変更動作について説明する。
<Viewpoint position change operation>
Next, the operation of changing the viewpoint position of the virtual camera in the peripheral display device 100 according to the present invention will be described.

周辺表示装置100では、運転者等が車内モニターの操作キーや操作画面上でのカーソル操作等により、視点位置変更手段70にアクセスすることで、車内モニターに表示される俯瞰画像の仮想カメラの視点位置を任意に変更することができる。   In the peripheral display device 100, a virtual camera viewpoint of the overhead image displayed on the in-vehicle monitor by the driver or the like accessing the viewpoint position changing means 70 by an operation key of the in-vehicle monitor or a cursor operation on the operation screen. The position can be changed arbitrarily.

図3には、仮想カメラの視点位置を設定するための1つのモデルを示す。図3に示すように、自車両VCの3次元モデルを中心とした半球HSを仮想的に設定し、この半球HSの表面上に仮想カメラCXがあるように設定する。なお、図3には自動車座標系のX、Y、Z方向を示しており、車両の底面(あるいは天井面)に対して垂直な方向をZ軸方向とし、Z軸方向に対してそれぞれ直角をなす方向をX軸方向、Y軸方向としている。   FIG. 3 shows one model for setting the viewpoint position of the virtual camera. As shown in FIG. 3, a hemisphere HS centered on a three-dimensional model of the host vehicle VC is virtually set, and a virtual camera CX is set on the surface of the hemisphere HS. FIG. 3 shows the X, Y, and Z directions of the automobile coordinate system. The direction perpendicular to the bottom surface (or ceiling surface) of the vehicle is defined as the Z-axis direction, and each direction is perpendicular to the Z-axis direction. The direction formed is the X-axis direction and the Y-axis direction.

車内モニターには、半球HS、自車両VCおよび仮想カメラCXが表示されており、運転者等が、例えば上下左右のカーソルキーで仮想カメラCXを動かすことで、仮想カメラCXの半球HS表面上での緯度(例えば自動車座標系Z軸周りの角度)および経度(例えば自動車座標系Z軸に対する角度)を変更する。なお、この場合のZ軸は、自車両VCの中心点PCを原点としたZ軸方向の軸である。   The in-vehicle monitor displays the hemisphere HS, the host vehicle VC, and the virtual camera CX, and the driver or the like moves the virtual camera CX with, for example, the up / down / left / right cursor keys on the surface of the hemisphere HS of the virtual camera CX. The latitude (for example, an angle around the Z axis of the vehicle coordinate system) and the longitude (for example, an angle with respect to the Z axis of the vehicle coordinate system) are changed. In this case, the Z-axis is an axis in the Z-axis direction with the center point PC of the host vehicle VC as the origin.

これにより、仮想カメラCXの視点位置を半球HSの表面上の任意の位置に設定することができる。なお、仮想カメラCXは、モニター上では半球HSの表面上のどこにでも移動させることはできても、ステレオカメラSC1〜SC4(図1)の配置位置や画角との関係から、俯瞰画像を表示できない場合もあるが、その場合は、モニター上にその旨を表示するなどの処理を実行すれば良い。   Thereby, the viewpoint position of the virtual camera CX can be set to an arbitrary position on the surface of the hemisphere HS. Although the virtual camera CX can be moved anywhere on the surface of the hemisphere HS on the monitor, it displays a bird's-eye view image from the relationship between the position of the stereo cameras SC1 to SC4 (FIG. 1) and the angle of view. In some cases, it may not be possible, but in such a case, a process such as displaying the fact on the monitor may be executed.

また、図4には仮想カメラの視点位置を設定するための他のモデルを示す。上下左右のカーソルキーの他にズームイン/ズームアウトキーを準備しておき、ズームインキーを押すと、仮想カメラCXが自車両VCに近づく方向に移動し、ズームアウトキーを押すと、仮想カメラCXが自車両VCから遠ざかる方向に移動する。   FIG. 4 shows another model for setting the viewpoint position of the virtual camera. In addition to the up / down / left / right cursor keys, a zoom-in / zoom-out key is prepared. When the zoom-in key is pressed, the virtual camera CX moves closer to the host vehicle VC. When the zoom-out key is pressed, the virtual camera CX It moves in a direction away from the host vehicle VC.

図4では、仮想カメラCXが注視している点(注視点)は、自車両VCの中心点PCであり、中心点PCを原点とするZ軸に沿った方向に仮想カメラVCが移動する例を示しているが、これに限定されるものではない。   In FIG. 4, the point (gaze point) that the virtual camera CX is gazing at is the center point PC of the host vehicle VC, and the virtual camera VC moves in the direction along the Z axis with the center point PC as the origin. However, the present invention is not limited to this.

また、図3に示したモデルと併用することも可能であり、仮想カメラCXが、ズームイン、ズームアウトするごとに半球HSの半径が、小さくなったり、大きくなったりするように構成すれば、ズームインした状態で半球HSの表面上の任意の位置に仮想カメラCXを移動させることも、ズームアウトした状態で半球HSの表面上の任意の位置に仮想カメラCXを移動させることも可能となる。   Further, it can be used in combination with the model shown in FIG. 3, and if the virtual camera CX is configured so that the radius of the hemisphere HS becomes smaller or larger each time the zoom-in / zoom-out is performed, the zoom-in is performed. In this state, the virtual camera CX can be moved to an arbitrary position on the surface of the hemisphere HS, or the virtual camera CX can be moved to an arbitrary position on the surface of the hemisphere HS in a zoomed-out state.

このように、周辺表示装置100においては、仮想カメラの視点位置について使用者が任意に変更できるので、自車両周辺の俯瞰画像の表示において、任意の視点位置から見た俯瞰画像を簡便に所得できる。   As described above, in the peripheral display device 100, the user can arbitrarily change the viewpoint position of the virtual camera, so that the overhead image viewed from an arbitrary viewpoint position can be easily obtained in the display of the overhead image around the host vehicle. .

<姿勢の決定>
視点位置変更手段70から、仮想カメラの視点位置の情報を受けた仮想カメラ姿勢決定部8では仮想カメラの姿勢を決定する。
<Determination of posture>
The virtual camera attitude determination unit 8 that has received information on the viewpoint position of the virtual camera from the viewpoint position changing means 70 determines the attitude of the virtual camera.

仮想カメラの姿勢の決定には、仮想カメラ視線方向ベクトルと、仮想カメラの方向の基準となる仮想カメラ上方向ベクトルを決める必要がある。   To determine the attitude of the virtual camera, it is necessary to determine a virtual camera line-of-sight direction vector and a virtual camera upward direction vector that serves as a reference for the direction of the virtual camera.

仮想カメラ視線方向ベクトルは、仮想カメラの視点位置と、仮想カメラの注視点とを結ぶベクトルとして設定される。   The virtual camera line-of-sight direction vector is set as a vector connecting the viewpoint position of the virtual camera and the gazing point of the virtual camera.

図5には、仮想カメラ視線方向ベクトルの決定方法を模式的に示しており、仮想カメラの注視点が自車両VCの3次元モデルの中心点PCであるとした場合について、中心点PCを原点とするZ軸上に存在する仮想カメラCX1と、Z軸に対して所定角度をなす軸上に存在する仮想カメラCX2とを示している。   FIG. 5 schematically shows a method of determining the virtual camera line-of-sight direction vector. When the gazing point of the virtual camera is the center point PC of the three-dimensional model of the host vehicle VC, the center point PC is the origin. A virtual camera CX1 existing on the Z axis and a virtual camera CX2 existing on an axis that forms a predetermined angle with respect to the Z axis are shown.

仮想カメラCX1およびCX2において、それぞれ中心点PC(すなわち注視点)に向かう方向が仮想カメラ視線方向ベクトルの向きである。   In the virtual cameras CX1 and CX2, the direction toward the center point PC (that is, the gazing point) is the direction of the virtual camera viewing direction vector.

次に、仮想カメラ上方向ベクトルの設定方法について説明する。図6に示されるように、仮想カメラ上方向ベクトルV1は、仮想カメラ視線方向ベクトルV2と、自動車座標系Z軸方向ベクトルVZとを含む平面上にあり、かつ仮想カメラ視線方向ベクトルV2と直交し、かつ自動車座標系Z軸方向ベクトルVZと鋭角をなすベクトルとして設定される。   Next, a method for setting the virtual camera upward vector will be described. As shown in FIG. 6, the virtual camera upward direction vector V1 is on a plane including the virtual camera viewing direction vector V2 and the vehicle coordinate system Z-axis direction vector VZ, and is orthogonal to the virtual camera viewing direction vector V2. , And an acute angle with the vehicle coordinate system Z-axis direction vector VZ.

この方法を採る場合、仮想カメラCX2を例に採れば、仮想カメラ上方向ベクトルは図5においてベクトルV21で表され、ベクトルV21は車両の前部から遠ざかる方向を向くことになる。   When this method is employed, taking the virtual camera CX2 as an example, the upward direction vector of the virtual camera is represented by a vector V21 in FIG. 5, and the vector V21 is directed away from the front of the vehicle.

また、仮想カメラ上方向ベクトルは、図6に示した自動車座標系Z軸方向ベクトルVZを、自動車座標系X軸方向ベクトルで置き換えることで設定しても良い。   Further, the virtual camera upward vector may be set by replacing the vehicle coordinate system Z-axis direction vector VZ shown in FIG. 6 with the vehicle coordinate system X-axis direction vector.

この方法を採る場合、仮想カメラCX2を例に採れば、仮想カメラ上方向ベクトルは図5においてベクトルV22で表される。この場合、X軸方向は車両の前部方向に相当しており、ベクトルV22は車両の前部方向を向くことになる。   When this method is employed, taking the virtual camera CX2 as an example, the virtual camera upward direction vector is represented by a vector V22 in FIG. In this case, the X-axis direction corresponds to the front direction of the vehicle, and the vector V22 faces the front direction of the vehicle.

また、仮想カメラの視線方向が自動車座標系Z軸方向ベクトルと平行に近い場合は、自動車座標系X軸方向ベクトルで仮想カメラ上方向ベクトルを近似することで設定しても良い。   Further, when the visual line direction of the virtual camera is nearly parallel to the vehicle coordinate system Z-axis direction vector, it may be set by approximating the virtual camera upward direction vector with the vehicle coordinate system X-axis direction vector.

この方法を採る場合、仮想カメラCX1を例に採れば、仮想カメラ上方向ベクトルは図5においてベクトルV11で表される。この場合、X軸方向は車両の前部方向に相当しており、ベクトルV11はX軸方向に平行で、車両の前部を向くこととなる。   When this method is adopted, if the virtual camera CX1 is taken as an example, the virtual camera upward direction vector is represented by a vector V11 in FIG. In this case, the X-axis direction corresponds to the front direction of the vehicle, and the vector V11 is parallel to the X-axis direction and faces the front portion of the vehicle.

また、仮想カメラの視線方向が自動車座標系X軸方向ベクトルと平行に近い場合は、自動車座標系Z軸方向ベクトルで仮想カメラ上方向ベクトルを近似することで設定しても良い。   Further, when the line-of-sight direction of the virtual camera is close to parallel to the vehicle coordinate system X-axis direction vector, the virtual camera upward direction vector may be approximated by the vehicle coordinate system Z-axis direction vector.

上述した方法により、仮想カメラ視線方向ベクトルおよび仮想カメラ上方向ベクトルを決定した仮想カメラ姿勢決定部8は、両ベクトルに基づいて仮想カメラの姿勢を決定する。   The virtual camera posture determination unit 8 that has determined the virtual camera line-of-sight direction vector and the virtual camera upward direction vector by the method described above determines the posture of the virtual camera based on both vectors.

すなわち、図5における仮想カメラCX1を例に採れば、仮想カメラ視線方向ベクトルはZ軸に沿ったベクトルで表され、仮想カメラ上方向ベクトルはベクトルV11で表されている。このような場合は仮想カメラCX1は自車両VCを真下に見下ろす姿勢にあるものと決定する。   That is, taking the virtual camera CX1 in FIG. 5 as an example, the virtual camera line-of-sight direction vector is represented by a vector along the Z axis, and the virtual camera upward direction vector is represented by a vector V11. In such a case, the virtual camera CX1 is determined to be in a posture in which the own vehicle VC is looked down.

仮想カメラ姿勢決定部8で決定された仮想カメラの姿勢や位置の情報は記憶部51に仮想カメラ情報として格納され、統合部5で統合データを生成する場合に読み出されることとなる。   Information on the attitude and position of the virtual camera determined by the virtual camera attitude determination unit 8 is stored as virtual camera information in the storage unit 51, and is read when the integration unit 5 generates integrated data.

なお、注視点の位置情報は、先に説明したように、例えば自車両VCの3次元モデルの中心点PCを注視点とした場合は、その位置座標となるが、これ以外にも複数の場所の位置座標を注視点位置情報として記憶部7に格納しておき、仮想カメラ姿勢決定部8での仮想カメラの姿勢を決定する処理において、必要に応じて読み出す構成となっている。図2においては、記憶部7から一旦、注視点位置情報変更部10に与えられ、注視点位置情報変更部10から仮想カメラ姿勢決定部8に与えられる構成となっているが、この理由は、次に説明する注視点位置の変更動作と関係している。   Note that, as described above, the position information of the gazing point is, for example, the position coordinates when the center point PC of the three-dimensional model of the host vehicle VC is the gazing point, but there are a plurality of other locations. Are stored in the storage unit 7 as gazing point position information, and read out as necessary in the process of determining the attitude of the virtual camera in the virtual camera attitude determining unit 8. In FIG. 2, the storage unit 7 once gives the gazing point position information changing unit 10, and the gazing point position information changing unit 10 gives the virtual camera posture determining unit 8. This is related to the gaze point changing operation described below.

<注視点位置の変更動作>
周辺表示装置100は、仮想カメラの視点位置について使用者が任意に変更できるとともに、自車両の動きに伴って仮想カメラの注視点位置が自動的に変更される機能を有している。以下、図7〜図21を用いて、仮想カメラの注視点位置の変更動作について説明する。
<Gaze position change operation>
The peripheral display device 100 has a function that allows the user to arbitrarily change the viewpoint position of the virtual camera and automatically changes the point of interest of the virtual camera as the vehicle moves. Hereinafter, the operation of changing the point of gaze position of the virtual camera will be described with reference to FIGS.

<注視点位置情報>
仮想カメラの注視点の位置情報は、仮想カメラが自車両VCの3次元モデルのどの部分を注視すべきかという情報であり、当該3次元モデルの特定の点の座標値で表される。
<Gaze point location information>
The position information of the gazing point of the virtual camera is information on which part of the three-dimensional model of the host vehicle VC the gazing point should be gazed at, and is represented by the coordinate value of a specific point of the three-dimensional model.

例えば、図7においては、3つの仮想カメラC1、C2およびC3を想定しており、それぞれのカメラの注視点をVP1、VP2およびVP3として表している。   For example, in FIG. 7, three virtual cameras C1, C2, and C3 are assumed, and the gazing points of the respective cameras are represented as VP1, VP2, and VP3.

すなわち、注視点VP1は、自車両VCの中心点に相当し、仮想カメラC1は自車両VCの真上に存在し、自車両VCを真下に見下ろす姿勢にある。   That is, the gazing point VP1 corresponds to the center point of the host vehicle VC, and the virtual camera C1 is present directly above the host vehicle VC and is in a posture of looking down the host vehicle VC.

この仮想カメラC1によって得られる俯瞰画像は、自車両VCを真上から見た画像となる。この画像を図8に示す。   The overhead view image obtained by the virtual camera C1 is an image of the host vehicle VC viewed from directly above. This image is shown in FIG.

また、注視点VP2は、自車両VCの運転席周辺の座標点に相当し、仮想カメラC2は自車両VCの前部方向斜め上に存在し、自車両VCの前部を斜め上から見る姿勢にある。   The gazing point VP2 corresponds to a coordinate point around the driver's seat of the host vehicle VC, and the virtual camera C2 exists obliquely upward in the front direction of the host vehicle VC, and the posture in which the front portion of the host vehicle VC is viewed obliquely from above. It is in.

この仮想カメラC2によって得られる俯瞰画像は、自車両VCの前部を斜め上から見た画像となる。この画像を図9に示す。   The bird's-eye view image obtained by the virtual camera C2 is an image obtained by viewing the front portion of the host vehicle VC from obliquely above. This image is shown in FIG.

また、注視点VP2は、自車両VCの運転席周辺の座標点に相当し、仮想カメラC2は自車両VCの前部方向斜め上に存在し、自車両VCの前部を斜め上から見る姿勢にある。   The gazing point VP2 corresponds to a coordinate point around the driver's seat of the host vehicle VC, and the virtual camera C2 exists obliquely upward in the front direction of the host vehicle VC, and the posture in which the front portion of the host vehicle VC is viewed obliquely from above. It is in.

この仮想カメラC2によって得られる俯瞰画像は、自車両VCの前部を斜め上から見た画像となる。この画像を図9に示す。   The bird's-eye view image obtained by the virtual camera C2 is an image obtained by viewing the front portion of the host vehicle VC from obliquely above. This image is shown in FIG.

また、注視点VP3は、自車両VCの後部の座標点に相当し、仮想カメラC3は自車両VCの後部方向斜め上に存在し、自車両VCの後部を斜め上から見る姿勢にある。   The gazing point VP3 corresponds to a coordinate point at the rear of the host vehicle VC, and the virtual camera C3 is present obliquely upward in the rear direction of the host vehicle VC and is in an attitude of viewing the rear portion of the host vehicle VC from obliquely above.

この仮想カメラC3によって得られる俯瞰画像は、自車両VCの後部を斜め上から見た画像となる。この画像を図10に示す。   The bird's-eye view image obtained by the virtual camera C3 is an image obtained by viewing the rear portion of the host vehicle VC obliquely from above. This image is shown in FIG.

なお、上述した仮想カメラC1〜C3の視点位置および姿勢の情報は、先に説明したように記憶部51に仮想カメラ情報として格納されており、統合部5での統合処理の必要に応じて読み出す構成となっている。   Note that the viewpoint position and orientation information of the virtual cameras C <b> 1 to C <b> 3 described above is stored as virtual camera information in the storage unit 51 as described above, and is read out as necessary for integration processing in the integration unit 5. It has a configuration.

周辺表示装置100では、自車両の動きに伴って仮想カメラの注視点位置が自動的に変更されることも特徴の1つであり、その場合には記憶部7に格納されている注視点位置情報では対応できず、注視点位置情報変更部10で変更された注視点位置情報が必要となる。   One of the features of the peripheral display device 100 is that the gazing point position of the virtual camera is automatically changed in accordance with the movement of the host vehicle. In this case, the gazing point position stored in the storage unit 7 is used. The information cannot be handled, and the gazing point position information changed by the gazing point position information changing unit 10 is required.

<注視点位置情報の変更例1>
以下、自車両の動きに伴って仮想カメラの注視点位置が自動的に変更される動作を説明しつつ、注視点位置情報の変更について説明する。
<Example 1 of changing gaze point position information>
Hereinafter, the change of the gazing point position information will be described while explaining the operation of automatically changing the gazing point position of the virtual camera according to the movement of the host vehicle.

図11は自車両VCが前進中の場合の注視点位置の一例を示す図であり、自車両VCの3次元モデルの車両前部に設定されている注視点位置情報を用いて、車両前部寄りの表示画像を生成する。図11においては車両前部に設定された3つの注視点のうち、中央部の注視点VP1の注視点位置情報を用いる例を示している。   FIG. 11 is a diagram illustrating an example of a gazing point position when the host vehicle VC is moving forward, using the gazing point position information set in the vehicle front part of the three-dimensional model of the host vehicle VC. A close display image is generated. FIG. 11 shows an example in which the gazing point position information of the gazing point VP1 at the center is used among the three gazing points set in the front part of the vehicle.

図12は、注視点VP1の注視点位置情報を用いて生成した表示画像を示しており、画像表示部90(図2)の表示画面DPに自車両VCの3次元モデルの車両前部寄りの俯瞰画像が示されている。   FIG. 12 shows a display image generated using the gazing point position information of the gazing point VP1, and the display screen DP of the image display unit 90 (FIG. 2) is closer to the front part of the three-dimensional model of the host vehicle VC. An overhead image is shown.

図13は自車両VCが後退中の場合の注視点位置の一例を示す図であり、自車両VCの3次元モデルの車両後部に設定されている注視点位置情報を用いて、車両後部寄りの表示画像を生成する。図13においては車両前部に設定された3つの注視点のうち、中央部の注視点VP3の注視点位置情報を用いる例を示している。   FIG. 13 is a diagram illustrating an example of the position of the point of sight when the host vehicle VC is moving backward, and using the point of sight position information set at the rear of the vehicle of the three-dimensional model of the host vehicle VC, Generate a display image. FIG. 13 shows an example in which the gazing point position information of the gazing point VP3 in the center is used among the three gazing points set in the front part of the vehicle.

図14は、注視点VP3の注視点位置情報を用いて生成した表示画像を示しており、画像表示部90(図2)の表示画面DPに自車両VCの3次元モデルの車両後部寄りの俯瞰画像が示されている。   FIG. 14 shows a display image generated using the gazing point position information of the gazing point VP3. The display screen DP of the image display unit 90 (FIG. 2) shows an overhead view of the three-dimensional model of the host vehicle VC near the rear of the vehicle. An image is shown.

このように、周辺表示装置100では、自車両の前進、後退の動きに合わせて注視点が自動的に変更され、画像表示部90において変更された注視点に合わせた俯瞰画像が表示される。   As described above, in the peripheral display device 100, the gazing point is automatically changed according to the forward and backward movements of the host vehicle, and the overhead image corresponding to the changed gazing point is displayed in the image display unit 90.

このような自車両の運転状況は、図2を用いて説明したように、周辺表示装置100外部の運転状況データ出力手段200からの運転状況データを運転状況把握部3が受けて、前進/後退/停止などの状況を把握し、把握した運転状況の情報を注視点位置情報変更部10に与えることで、運転状況に合わせて適宜、注視点位置情報を変更する構成となっている。   As described with reference to FIG. 2, the driving situation grasping unit 3 receives the driving situation data from the driving situation data output means 200 outside the peripheral display device 100 and moves forward / backward. By grasping the situation such as / stop and giving the information of the grasped driving situation to the gazing point position information changing unit 10, the gazing point position information is appropriately changed according to the driving situation.

注視点位置情報変更部10は、運転状況に合わせて最適な注視点位置情報を算出するようなソフトウエアによって注視点位置情報を変更する構成としても良いし、予め準備した、種々の運転状況と注視点位置情報とを対応付けたテーブルを参照して注視点位置情報を変更する構成としても良い。   The point-of-gaze position information changing unit 10 may be configured to change the point-of-gaze position information by software that calculates optimal point-of-gaze position information in accordance with the driving situation. The configuration may be such that the gazing point position information is changed with reference to a table in which the gazing point position information is associated.

注視点位置情報変更部10で変更された注視点位置情報は、仮想カメラ姿勢決定部8に与えられ、先に説明したように、仮想カメラの姿勢の決定に使用される。   The gazing point position information changed by the gazing point position information changing unit 10 is given to the virtual camera posture determination unit 8 and is used to determine the posture of the virtual camera as described above.

<注視点位置情報の変更例2>
また、自車両の運転状況を、操舵角情報(直進/右折/左折)を用いて把握することも可能であり、その場合は、図15〜図17に示すような注視点位置の変更が可能となる。
<Example 2 of changing gaze point position information>
It is also possible to grasp the driving situation of the host vehicle using the steering angle information (straight forward / right turn / left turn). In this case, it is possible to change the gazing point position as shown in FIGS. It becomes.

図15は自車両VCが前進中の場合の注視点位置を示す図であり、この場合は、自車両VCの3次元モデルの車両前部に設定された3つの注視点のうち、中央部の注視点VP1の注視点位置情報を使用する例を示している。   FIG. 15 is a diagram illustrating a gazing point position when the host vehicle VC is moving forward. In this case, of the three gazing points set in the front part of the three-dimensional model of the host vehicle VC, The example which uses the gaze point position information of the gaze point VP1 is shown.

これに対し、図16は自車両VCが左折を開始した直後の注視点位置を示す図であり、操舵角が小さい(ハンドルをあまり切っていない)状況である。この場合は、自車両VCの3次元モデルの車両前部に設定された中央部の注視点VP1と左寄りの注視点VP2と間に新たな注視点VPが設定されている。この注視点VPの注視点位置情報は、注視点位置情報変更部10で、両サイドの注視点VP1およびVP2のそれぞれの注視点位置情報間を補完する計算によって得ることができる。   On the other hand, FIG. 16 is a diagram showing the position of the gazing point immediately after the host vehicle VC starts a left turn, and is a situation where the steering angle is small (the steering wheel is not turned too much). In this case, a new gazing point VP is set between the central gazing point VP1 and the left gazing point VP2 set at the front of the vehicle of the three-dimensional model of the host vehicle VC. The gazing point position information of the gazing point VP can be obtained by the gazing point position information changing unit 10 by calculation that complements the gazing point position information of the gazing points VP1 and VP2 on both sides.

図17は自車両VCが左折の終期の注視点位置を示す図であり、操舵角が大きい(ハンドルを大きく切った)状況である。この場合は、自車両VCの3次元モデルの車両前部に設定された左寄りの注視点VP2の注視点位置情報を使用する例を示している。   FIG. 17 is a diagram illustrating the position of the point of gaze at the end of the left turn of the host vehicle VC, in which the steering angle is large (the steering wheel is largely turned). In this case, an example is shown in which the gazing point position information of the left gazing point VP2 set in the front part of the three-dimensional model of the host vehicle VC is used.

このように周辺表示装置100では、自車両の運転状況に合わせて連続的に注視点位置を変更することが可能であるが、他の例としては、自車両の速度が遅い場合は自車両VCの3次元モデルの車両中央部に設定された注視点の注視点位置情報を使用し、速度が増すにつれて車両前部寄りの注視点の注視点位置情報を使用する例が挙げられる。   As described above, in the peripheral display device 100, it is possible to continuously change the position of the gazing point in accordance with the driving situation of the host vehicle. As another example, when the host vehicle is slow, the host vehicle VC is used. An example of using the gazing point position information of the gazing point set in the vehicle center of the three-dimensional model and using the gazing point position information of the gazing point closer to the front of the vehicle as the speed increases is given.

<注視点位置情報の変更例3>
周辺表示装置100では、以上説明したような、自車両の動きに伴って仮想カメラの注視点位置が自動的に変更される機能に加えて、障害物を検知した場合にも仮想カメラの注視点位置が自動的に変更される機能を有している。以下、この機能について説明する。
<Example 3 of changing gaze point position information>
In the peripheral display device 100, in addition to the function of automatically changing the gazing point position of the virtual camera according to the movement of the host vehicle as described above, the gazing point of the virtual camera is also used when an obstacle is detected. It has a function to change the position automatically. Hereinafter, this function will be described.

図18は自車両VCが後退中に、車両の後方に障害物OBを検出した場合の注視点位置の一例を示す図であり、自車両VCの3次元モデルの車両後部に設定されている3つの注視点のうち、左寄りの注視点VP4の注視点位置情報を使用する例を示している。   FIG. 18 is a diagram illustrating an example of the position of the point of sight when the obstacle OB is detected behind the vehicle while the host vehicle VC is moving backward, and is set at the rear part of the three-dimensional model of the host vehicle VC. The example which uses the gaze point position information of the left gaze point VP4 among the two gaze points is shown.

図18に示すように、自車両VCの左後方には障害物OBが存在しており、これを障害物判定部9が、各ステレオカメラで得られた画像データに基づいて路面に対して所定値以上の高さを有する物体として検出すると、障害物OBが存在する旨と、自車両VCに対する障害物OBとの相対位置情報を注視点位置情報変更部10に出力する。注視点位置情報変更部10では、障害物OBとの相対位置情報に基づいて注視点位置情報を変更する。   As shown in FIG. 18, an obstacle OB exists on the left rear side of the host vehicle VC, and the obstacle determination unit 9 determines this with respect to the road surface based on image data obtained by each stereo camera. When detected as an object having a height higher than the value, the fact that the obstacle OB exists and the relative position information of the obstacle OB with respect to the host vehicle VC are output to the gazing point position information changing unit 10. The gazing point position information changing unit 10 changes the gazing point position information based on the relative position information with respect to the obstacle OB.

このような場合、注視点位置情報変更部10は、障害物OBの位置を包含する領域を計算し、この領域の中心位置に最も近い注視点が選ばれるように注視点位置情報を変更する。   In such a case, the gazing point position information changing unit 10 calculates a region including the position of the obstacle OB, and changes the gazing point position information so that the gazing point closest to the center position of this region is selected.

図18の例では、障害物OBを囲む破線領域が、計算によって得られた障害物OBを包含する領域であり、その中央部にある×印が当該領域の中心位置となる。この結果、注視点VP4が選ばれるように注視点位置情報が変更される。   In the example of FIG. 18, a broken-line area surrounding the obstacle OB is an area including the obstacle OB obtained by calculation, and a cross mark at the center is the center position of the area. As a result, the watch point position information is changed so that the watch point VP4 is selected.

図19は、注視点VP4の注視点位置情報を用いて生成した表示画像を示しており、画像表示部90(図2)の表示画面DPに、自車両VCの3次元モデルの車両左後部近傍の俯瞰画像が示されている。   FIG. 19 shows a display image generated using the gazing point position information of the gazing point VP4. The display screen DP of the image display unit 90 (FIG. 2) shows the vicinity of the left rear part of the three-dimensional model of the host vehicle VC. A bird's-eye view image is shown.

このような俯瞰画像を見た運転者は、障害物OBを避けるように後退進路を変えたり、停止するなどの操作を行うことができる。   The driver who sees such a bird's-eye view image can perform operations such as changing the backward path and stopping so as to avoid the obstacle OB.

図20は自車両VCが後退での車庫入れ中に、車庫の壁WLを検出した場合の注視点位置の一例を示す図であり、自車両VCの3次元モデルの車両後部に設定されている3つの注視点のうち、中央部の注視点VP3の注視点位置情報を使用する例を示している。   FIG. 20 is a diagram illustrating an example of a gazing point position when the garage wall WL is detected while the host vehicle VC is moving backward, and is set at the rear part of the three-dimensional model of the host vehicle VC. The example which uses the gaze point position information of the gaze point VP3 of the center part among the three gaze points is shown.

図20に示すように、自車両VCの後部を囲むように壁WLが存在しており、これを障害物判定部9が検出し、壁WLが存在する旨と、自車両VCに対する壁WLとの相対位置情報を注視点位置情報変更部10に出力する。注視点位置情報変更部10では、壁WLとの相対位置情報に基づいて注視点位置情報を変更する。   As shown in FIG. 20, a wall WL exists so as to surround the rear part of the host vehicle VC, and this is detected by the obstacle determination unit 9, and the fact that the wall WL exists and the wall WL with respect to the host vehicle VC Is output to the gazing point position information changing unit 10. The gazing point position information changing unit 10 changes the gazing point position information based on the relative position information with respect to the wall WL.

このような場合、注視点位置情報変更部10は、壁WLの位置を包含する領域を計算し、この領域の中心位置に最も近い注視点が選ばれるように注視点位置情報を変更する。   In such a case, the gazing point position information changing unit 10 calculates a region including the position of the wall WL, and changes the gazing point position information so that the gazing point closest to the center position of this region is selected.

図20の例では、壁WLを囲む破線領域が、計算によって得られた壁WLを包含する領域であり、その中央部にある×印が当該領域の中心位置となる。この結果、注視点VP3が選ばれるように注視点位置情報が変更される。   In the example of FIG. 20, a broken line region surrounding the wall WL is a region including the wall WL obtained by calculation, and a cross mark at the center is the center position of the region. As a result, the gazing point position information is changed so that the gazing point VP3 is selected.

図21は、注視点VP3の注視点位置情報を用いて生成した表示画像を示しており、画像表示部90(図2)の表示画面DPに、自車両VCの3次元モデルの車両後部近傍の俯瞰画像が示されている。   FIG. 21 shows a display image generated using the gazing point position information of the gazing point VP3. The display screen DP of the image display unit 90 (FIG. 2) shows the vicinity of the vehicle rear part of the three-dimensional model of the host vehicle VC. An overhead image is shown.

このような俯瞰画像を見た運転者は、壁WLに接触しないように後退動作を行うことができる。   The driver who has seen such a bird's-eye view image can perform a backward movement so as not to contact the wall WL.

<注視点位置情報の変更例4>
また、周辺表示装置100では、以上説明したような、障害物を検知した場合に仮想カメラの注視点位置が自動的に変更される機能の他に、環境状況把握部4によって把握された自車両周辺の状況に基づいて仮想カメラの注視点位置が自動的に変更される機能も有している。以下、この機能について説明する。
<Example 4 of changing gaze point position information>
Further, in the peripheral display device 100, in addition to the function of automatically changing the position of the gazing point of the virtual camera when an obstacle is detected as described above, the own vehicle grasped by the environment situation grasping unit 4 It also has a function of automatically changing the position of the gazing point of the virtual camera based on the surrounding situation. Hereinafter, this function will be described.

先に説明したように、環境状況把握部4(図2)は、夜間であるか昼間であるかの判定や、天候(晴天、雨、霧)の状況についてのパラメータを注視点位置情報変更部10に与える構成となっている。   As described above, the environmental condition grasping unit 4 (FIG. 2) determines whether it is nighttime or daytime, and sets parameters regarding the weather (sunny weather, rain, fog) state as a gazing point position information changing unit. 10 is provided.

注視点位置情報変更部10では、環境状況把握部4から例えば夜間であるという情報を受けた場合、自車両の進行方向でライトが照らしている方向に注視点が設定されるように注視点位置情報を変更する。これにより、視覚的に意味のある画像を優先して表示することができる。   In the point-of-gaze position information changing unit 10, when receiving information from the environmental condition grasping unit 4, for example, at night, the point-of-gaze position is set so that the point of sight is set in the direction in which the light is illuminated in the traveling direction of the host vehicle. Change information. Thereby, a visually meaningful image can be preferentially displayed.

また、注視点位置情報変更部10が、環境状況把握部4から例えば雨が降っている、あるいは霧の中であるなどの情報を受けた場合、3次元モデルの車両進行方向の最先端の注視点が選ばれるように注視点位置情報を変更する。これにより、進行方向の画像をできるだけ広い範囲で表示することができる。   Further, when the gazing point position information changing unit 10 receives information from the environmental condition grasping unit 4 such as raining or in the fog, the state-of-the-art note in the vehicle traveling direction of the three-dimensional model. Change the gaze point position information so that the viewpoint is selected. This makes it possible to display an image in the traveling direction in the widest possible range.

<変形例1>
図1においては、車両VCの4方向に1台ずつステレオカメラを配置した例を示したが、図22に示されるように、車両VCの4方向に2台ずつステレオカメラを配置する構成としても良い。
<Modification 1>
Although FIG. 1 shows an example in which one stereo camera is arranged in each of the four directions of the vehicle VC, as shown in FIG. 22, two stereo cameras may be arranged in each of the four directions of the vehicle VC. good.

すなわち、図22に示すように、車両VCの、前方の左右の画像を取得するステレオカメラSC1およびSC2が配置され、前方に対して右側の前方寄りおよび後方寄りの画像を取得するステレオカメラSC3およびSC4が配置され、後方の左右の画像を取得するステレオカメラSC5およびSC6が配置され、前方に対して左側の後方寄りおよび前方寄りの画像を取得するステレオカメラSC7およびSC8が配置されている。   That is, as shown in FIG. 22, stereo cameras SC1 and SC2 that acquire the left and right images of the vehicle VC are arranged, and the stereo camera SC3 that acquires the images of the front side and the rear side on the right side with respect to the front side. SC4 is arranged, stereo cameras SC5 and SC6 for obtaining the left and right images at the rear are arranged, and stereo cameras SC7 and SC8 for obtaining the images at the rear and the front on the left side with respect to the front are arranged.

このようなシステムを用いることで、より、死角の少ない周辺の画像データを取得することが可能となる。   By using such a system, it is possible to acquire peripheral image data with fewer blind spots.

<変形例2>
以上の説明においては、ステレオカメラSC1〜SC4(あるいはステレオカメラSC1〜SC8)を用いることで、3次元情報を含んだ2次元画像データを得ることができ、当該2次元画像データに基づいて、3次元化計算部11、21、31および41で3次元画像データを算出する構成を示したが、単眼カメラによって得られた2次元画像データからも3次元画像データを得ることは可能である。
<Modification 2>
In the above description, by using stereo cameras SC1 to SC4 (or stereo cameras SC1 to SC8), it is possible to obtain two-dimensional image data including three-dimensional information, and based on the two-dimensional image data, 3D Although the configuration in which the three-dimensional image data is calculated by the dimensionalization calculation units 11, 21, 31, and 41 is shown, it is possible to obtain the three-dimensional image data from the two-dimensional image data obtained by the monocular camera.

すなわち、単眼カメラによって得られた2次元画像データに射影変換処理を行うことで、ある視点から撮影した画像を、異なる視点から見た画像に変換することが可能であり、かかる機能を3次元化計算部11、21、31および41に持たせることで、3次元情報を有さない2次元画像データから3次元画像データを得ることができる。   In other words, by performing projective transformation processing on 2D image data obtained by a monocular camera, it is possible to convert an image taken from a certain viewpoint into an image viewed from a different viewpoint. By providing the calculation units 11, 21, 31, and 41, 3D image data can be obtained from 2D image data that does not have 3D information.

また、ステレオカメラの代わりに、例えば赤外線を利用したTOF(飛行時間計測)方式の3次元距離測定カメラを用いることで、対象エリアの画像と距離情報を得ることができ、そのデータに基づいて、3次元化計算部11、21、31および41で3次元画像データを算出することが可能である。   Further, instead of a stereo camera, for example, using a TOF (time-of-flight measurement) type three-dimensional distance measuring camera using infrared rays, an image of the target area and distance information can be obtained. Based on the data, Three-dimensional image data can be calculated by the three-dimensional calculation units 11, 21, 31 and 41.

TOF方式の3次元距離測定カメラは、CMOSセンサあるいはCCDセンサを構成する複数の画素の1つ1つが所定の空間内の物体までの距離をする構成となっている。   A TOF type three-dimensional distance measuring camera has a configuration in which each of a plurality of pixels constituting a CMOS sensor or a CCD sensor measures a distance to an object in a predetermined space.

3 運転状況把握部
4 状況把握部
5 統合部
8 仮想カメラ姿勢決定部
9 障害物判定部
10 注視点位置情報変更部
70 視点位置変更部
SC1〜SC4 ステレオカメラ
DESCRIPTION OF SYMBOLS 3 Driving condition grasping part 4 Situation grasping part 5 Integration part 8 Virtual camera attitude | position determination part 9 Obstacle determination part 10 Gaze point position information change part 70 View point position change part SC1-SC4 Stereo camera

Claims (13)

自走可能な移動体における周辺の画像データを取得する複数のカメラと、
前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、
前記第1の3次元画像データの座標系を、前記移動体の外側に仮想的に配置された仮想カメラから俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、
前記第2の3次元画像データと、前記移動体の3次元モデルのデータとを統合した統合データを生成する統合部と、
前記仮想カメラの視点位置を変更する視点位置変更部と、
視点位置を変更された前記仮想カメラの姿勢を決定する仮想カメラ姿勢決定部と、を備え、
前記仮想カメラ姿勢決定部は、
前記仮想カメラの視点位置変更時には、変更された前記視点位置と前記仮想カメラが注視すべき注視点とを結ぶベクトルとして設定される仮想カメラ視線方向ベクトルと、前記仮想カメラの方向の基準となる仮想カメラ上方向ベクトルとを用いて前記仮想カメラの姿勢を決定し、
前記統合部は、
前記仮想カメラの姿勢および変更された前記視点位置に基づいて前記統合データを生成する、周辺表示装置。
A plurality of cameras that acquire peripheral image data in a self-propelled moving object;
A three-dimensional calculation unit that calculates first three-dimensional image data based on the image data;
A coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system that is viewed from a virtual camera that is virtually arranged outside the moving body to obtain second 3D image data. When,
An integration unit that generates integrated data obtained by integrating the second three-dimensional image data and the data of the three-dimensional model of the moving body;
A viewpoint position changing unit for changing the viewpoint position of the virtual camera;
A virtual camera posture determination unit that determines the posture of the virtual camera whose viewpoint position has been changed,
The virtual camera posture determination unit
When changing the viewpoint position of the virtual camera, a virtual camera line-of-sight direction vector set as a vector connecting the changed viewpoint position and the gazing point to be watched by the virtual camera, and a virtual serving as a reference for the direction of the virtual camera Determine the attitude of the virtual camera using a camera upward direction vector,
The integration unit
A peripheral display device that generates the integrated data based on an attitude of the virtual camera and the changed viewpoint position.
前記複数のカメラは、複数のステレオカメラである、請求項1記載の周辺表示装置。   The peripheral display device according to claim 1, wherein the plurality of cameras are a plurality of stereo cameras. 前記注視点の位置は、
前記移動体の前記3次元モデル上に予め設定された注視点位置情報によって規定される、請求項1記載の周辺表示装置。
The position of the gaze point is
The peripheral display device according to claim 1, which is defined by gaze point position information set in advance on the three-dimensional model of the moving body.
前記注視点の位置を規定する注視点位置情報を変更する注視点位置情報変更部を備える請求項1記載の周辺表示装置。   The peripheral display device according to claim 1, further comprising a gazing point position information changing unit that changes gazing point position information that defines a position of the gazing point. 前記移動体の運転状況に関する運転状況データを前記注視点位置情報変更部に出力する運転状況把握部をさらに備え、
前記注視点位置情報は、
前記運転状況データに基づいて変更される、請求項4記載の周辺表示装置。
A driving condition grasping unit that outputs driving condition data relating to the driving condition of the moving object to the gazing point position information changing unit;
The gazing point position information is
The peripheral display device according to claim 4, wherein the peripheral display device is changed based on the driving situation data.
前記運転状況データは、
前記移動体の前進および後退を含む運転状態のデータを有し、
前記注視点位置情報は、
前記運転状態のデータに基づいて変更される、請求項5記載の周辺表示装置。
The driving situation data is
Having data on the driving state including forward and backward movement of the moving body;
The gazing point position information is
The peripheral display device according to claim 5, wherein the peripheral display device is changed based on the data of the operation state.
前記運転状況データは、
前記移動体の直進および右左折を制御する操舵角情報を有し、
前記注視点位置情報は、
前記操舵角情報に基づいて連続的に変更される、請求項5記載の周辺表示装置。
The driving situation data is
Steering angle information for controlling straight travel and right / left turn of the moving body,
The gazing point position information is
The peripheral display device according to claim 5, which is continuously changed based on the steering angle information.
前記複数のカメラにより得られた画像データに基づいて、路面上の障害物の有無を判定するとともに、前記障害物までの相対位置の情報を障害物データとして前記注視点位置情報変更部に出力する障害物判定部をさらに備え、
前記注視点位置情報は、前記障害物データに基づいて変更される、請求項4記載の周辺表示装置。
Based on the image data obtained by the plurality of cameras, the presence / absence of an obstacle on the road surface is determined, and information on the relative position to the obstacle is output to the gazing point position information changing unit as obstacle data. An obstacle determination unit;
The peripheral display device according to claim 4, wherein the gazing point position information is changed based on the obstacle data.
前記注視点位置情報変更部は、
前記障害物データに基づいて、前記障害物の位置を包含する領域を計算し、該領域の中心位置に最も近い注視点が選ばれるように前記注視点位置情報を変更する、請求項8記載の周辺表示装置。
The gazing point position information changing unit
9. The area including the position of the obstacle is calculated based on the obstacle data, and the gazing point position information is changed so that the gazing point closest to the center position of the area is selected. Peripheral display device.
前記複数のカメラにより得られた画像データに基づいて、前記移動体周囲の環境状況を把握して、環境状況データとして前記注視点位置情報変更部に出力する環境状況把握部をさらに備え、
前記注視点位置情報は、前記環境状況データに基づいて変更される、請求項4記載の周辺表示装置。
Based on the image data obtained by the plurality of cameras, further comprising an environmental situation grasping unit that grasps the environmental situation around the moving body and outputs the environmental situation data to the gazing point position information changing unit,
The peripheral display device according to claim 4, wherein the gazing point position information is changed based on the environmental situation data.
前記環境状況データは、
前記画像データの明度に基づいて得られた、夜間および昼間の何れであるかのデータを有し、
前記注視点位置情報は、夜間の場合と昼間の場合とで変更される、請求項10記載の周辺表示装置。
The environmental status data is
Having data on whether it is nighttime or daytime obtained based on the brightness of the image data;
The peripheral display device according to claim 10, wherein the gazing point position information is changed between night time and daytime.
前記視点位置変更部は、
前記移動体の前記3次元モデルを中心とした半球を仮想的に設定し、前記半球上での緯度および経度を指定することで前記仮想カメラの前記視点位置を変更する、請求項1記載の周辺表示装置。
The viewpoint position changing unit
The periphery according to claim 1, wherein a hemisphere centered on the three-dimensional model of the moving body is virtually set, and the viewpoint position of the virtual camera is changed by designating a latitude and a longitude on the hemisphere. Display device.
前記視点位置変更部は、
前記移動体の前記3次元モデルから前記仮想カメラが遠ざかる方向、および近づく方向に前記視点位置を変更する、請求項1記載の周辺表示装置。
The viewpoint position changing unit
The peripheral display device according to claim 1, wherein the viewpoint position is changed in a direction in which the virtual camera moves away from and a direction in which the virtual camera moves away from the three-dimensional model of the moving body.
JP2009145971A 2009-06-19 2009-06-19 Peripheral display device Expired - Fee Related JP5412979B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009145971A JP5412979B2 (en) 2009-06-19 2009-06-19 Peripheral display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009145971A JP5412979B2 (en) 2009-06-19 2009-06-19 Peripheral display device

Publications (2)

Publication Number Publication Date
JP2011004201A true JP2011004201A (en) 2011-01-06
JP5412979B2 JP5412979B2 (en) 2014-02-12

Family

ID=43561773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009145971A Expired - Fee Related JP5412979B2 (en) 2009-06-19 2009-06-19 Peripheral display device

Country Status (1)

Country Link
JP (1) JP5412979B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182059A (en) * 2010-02-26 2011-09-15 Mitsubishi Motors Corp Vehicle periphery monitoring device
JP2012227913A (en) * 2011-04-14 2012-11-15 Harman Becker Automotive Systems Gmbh Vehicle surround view system
JP2013025528A (en) * 2011-07-20 2013-02-04 Nissan Motor Co Ltd Image generation device for vehicles and image generation method for vehicles
JP2014067120A (en) * 2012-09-25 2014-04-17 Fujitsu Ten Ltd Image generation device, image display system and image generation method
KR20140114373A (en) * 2012-01-19 2014-09-26 로베르트 보쉬 게엠베하 Method and device for visualizing the surroundings of a vehicle
JP2016118912A (en) * 2014-12-19 2016-06-30 日立建機株式会社 Surrounding monitoring device of work machine
WO2017061230A1 (en) * 2015-10-08 2017-04-13 日産自動車株式会社 Display assistance device and display assistance method
JP2017126847A (en) * 2016-01-13 2017-07-20 株式会社Jvcケンウッド Display device for vehicle and display method for vehicle
WO2017154833A1 (en) * 2016-03-07 2017-09-14 株式会社デンソー Information processing device and program
WO2018070298A1 (en) * 2016-10-11 2018-04-19 アイシン精機株式会社 Display control apparatus
WO2019080051A1 (en) 2017-10-26 2019-05-02 Harman International Industries, Incorporated Surround view system and method thereof
CN110040070A (en) * 2018-01-17 2019-07-23 爱信精机株式会社 Periphery monitoring device
WO2019142660A1 (en) * 2018-01-19 2019-07-25 ソニー株式会社 Picture processing device, picture processing method, and program
JP2020095044A (en) * 2016-03-15 2020-06-18 株式会社デンソー Display controller and display control method
US10703275B2 (en) 2016-05-18 2020-07-07 Denso Ten Limited Image generation apparatus
WO2023105842A1 (en) * 2021-12-06 2023-06-15 株式会社光庭インフォ Information processing device, mobile body, information processing method, and program
WO2023157155A1 (en) * 2022-02-17 2023-08-24 三菱電機株式会社 Imaging planning device and imaging planning method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR0312430A (en) 2002-06-19 2005-04-26 Palomar Medical Tech Inc Method and apparatus for treating skin and subcutaneous conditions

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000238594A (en) * 1998-12-25 2000-09-05 Aisin Aw Co Ltd Driving support system
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP2003102002A (en) * 2001-09-26 2003-04-04 Clarion Co Ltd Method and apparatus for supervising surrounding of vehicle, and signal processing apparatus
JP2006060425A (en) * 2004-08-18 2006-03-02 Olympus Corp Image generating method and apparatus thereof
JP2006119843A (en) * 2004-10-20 2006-05-11 Olympus Corp Image forming method, and apparatus thereof
JP2008174075A (en) * 2007-01-18 2008-07-31 Xanavi Informatics Corp Vehicle periphery-monitoring device, and its displaying method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000238594A (en) * 1998-12-25 2000-09-05 Aisin Aw Co Ltd Driving support system
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP2003102002A (en) * 2001-09-26 2003-04-04 Clarion Co Ltd Method and apparatus for supervising surrounding of vehicle, and signal processing apparatus
JP2006060425A (en) * 2004-08-18 2006-03-02 Olympus Corp Image generating method and apparatus thereof
JP2006119843A (en) * 2004-10-20 2006-05-11 Olympus Corp Image forming method, and apparatus thereof
JP2008174075A (en) * 2007-01-18 2008-07-31 Xanavi Informatics Corp Vehicle periphery-monitoring device, and its displaying method

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182059A (en) * 2010-02-26 2011-09-15 Mitsubishi Motors Corp Vehicle periphery monitoring device
JP2012227913A (en) * 2011-04-14 2012-11-15 Harman Becker Automotive Systems Gmbh Vehicle surround view system
JP2013025528A (en) * 2011-07-20 2013-02-04 Nissan Motor Co Ltd Image generation device for vehicles and image generation method for vehicles
KR102034189B1 (en) * 2012-01-19 2019-10-18 로베르트 보쉬 게엠베하 Method and device for visualizing the surroundings of a vehicle
KR20140114373A (en) * 2012-01-19 2014-09-26 로베르트 보쉬 게엠베하 Method and device for visualizing the surroundings of a vehicle
JP2014067120A (en) * 2012-09-25 2014-04-17 Fujitsu Ten Ltd Image generation device, image display system and image generation method
JP2016118912A (en) * 2014-12-19 2016-06-30 日立建機株式会社 Surrounding monitoring device of work machine
WO2017061230A1 (en) * 2015-10-08 2017-04-13 日産自動車株式会社 Display assistance device and display assistance method
JPWO2017061230A1 (en) * 2015-10-08 2018-09-13 日産自動車株式会社 Display support apparatus and display support method
US10311618B2 (en) 2015-10-08 2019-06-04 Nissan Motor Co., Ltd. Virtual viewpoint position control device and virtual viewpoint position control method
JP2017126847A (en) * 2016-01-13 2017-07-20 株式会社Jvcケンウッド Display device for vehicle and display method for vehicle
US10706292B2 (en) 2016-03-07 2020-07-07 Denso Corporation Information processing apparatus and program
JP2017163206A (en) * 2016-03-07 2017-09-14 株式会社デンソー Image processor and program
CN108702491A (en) * 2016-03-07 2018-10-23 株式会社电装 Information processing unit and program
WO2017154833A1 (en) * 2016-03-07 2017-09-14 株式会社デンソー Information processing device and program
JP2020095044A (en) * 2016-03-15 2020-06-18 株式会社デンソー Display controller and display control method
US10703275B2 (en) 2016-05-18 2020-07-07 Denso Ten Limited Image generation apparatus
WO2018070298A1 (en) * 2016-10-11 2018-04-19 アイシン精機株式会社 Display control apparatus
WO2019080051A1 (en) 2017-10-26 2019-05-02 Harman International Industries, Incorporated Surround view system and method thereof
EP3701711A4 (en) * 2017-10-26 2021-04-28 Harman International Industries, Incorporated Surround view system and method thereof
US11225193B2 (en) 2017-10-26 2022-01-18 Harman International Industries, Incorporated Surround view system and method thereof
JP2019125193A (en) * 2018-01-17 2019-07-25 アイシン精機株式会社 Periphery monitoring device
CN110040070A (en) * 2018-01-17 2019-07-23 爱信精机株式会社 Periphery monitoring device
WO2019142660A1 (en) * 2018-01-19 2019-07-25 ソニー株式会社 Picture processing device, picture processing method, and program
WO2023105842A1 (en) * 2021-12-06 2023-06-15 株式会社光庭インフォ Information processing device, mobile body, information processing method, and program
WO2023157155A1 (en) * 2022-02-17 2023-08-24 三菱電機株式会社 Imaging planning device and imaging planning method
JP7422960B2 (en) 2022-02-17 2024-01-26 三菱電機株式会社 Shooting planning device and shooting planning method

Also Published As

Publication number Publication date
JP5412979B2 (en) 2014-02-12

Similar Documents

Publication Publication Date Title
JP5412979B2 (en) Peripheral display device
JP4323377B2 (en) Image display device
JP6310652B2 (en) Video display system, video composition device, and video composition method
US20070279493A1 (en) Recording medium, parking support apparatus and parking support screen
JP6548900B2 (en) Image generation apparatus, image generation method and program
JP5341789B2 (en) Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program
CN107465890B (en) Image processing device for vehicle
JP2011135253A (en) Image processor, image processing system and image processing method
JP6084097B2 (en) Image generation apparatus, image display system, and image generation method
JP5914114B2 (en) Parking assistance device and parking assistance method
KR20190047027A (en) How to provide a rearview mirror view of the vehicle&#39;s surroundings in the vehicle
JP2011131678A (en) Image processing device, image processing system and image processing method
JP2008048345A (en) Image processing unit, and sight support device and method
US9162621B2 (en) Parking support apparatus
JP2008236403A (en) Driving support device for vehicle
JP5977130B2 (en) Image generation apparatus, image display system, and image generation method
JP5299101B2 (en) Peripheral display device
JP2009152966A (en) Image display system and camera output control method
JP6890288B2 (en) Image processing equipment, image display system and image processing method
JP6258000B2 (en) Image display system, image display method, and program
JPWO2019216087A1 (en) Image processors, mobile devices, and methods, and programs
JP2005269010A (en) Image creating device, program and method
JP5479639B2 (en) Image processing apparatus, image processing system, and image processing method
KR20130071842A (en) Apparatus and method for providing environment information of vehicle
KR20170065738A (en) Apparatus for controlling head up display and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130415

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131028

LAPS Cancellation because of no payment of annual fees