JP5412979B2 - Peripheral display device - Google Patents
Peripheral display device Download PDFInfo
- Publication number
- JP5412979B2 JP5412979B2 JP2009145971A JP2009145971A JP5412979B2 JP 5412979 B2 JP5412979 B2 JP 5412979B2 JP 2009145971 A JP2009145971 A JP 2009145971A JP 2009145971 A JP2009145971 A JP 2009145971A JP 5412979 B2 JP5412979 B2 JP 5412979B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual camera
- gazing point
- display device
- position information
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000002093 peripheral effect Effects 0.000 title claims description 62
- 239000013598 vector Substances 0.000 claims description 49
- 230000007613 environmental effect Effects 0.000 claims description 21
- 230000010354 integration Effects 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 240000004050 Pentaglottis sempervirens Species 0.000 description 18
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 18
- 238000000034 method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000009466 transformation Effects 0.000 description 7
- 101100495270 Caenorhabditis elegans cdc-26 gene Proteins 0.000 description 2
- 102100040428 Chitobiosyldiphosphodolichol beta-mannosyltransferase Human genes 0.000 description 2
- 101000891557 Homo sapiens Chitobiosyldiphosphodolichol beta-mannosyltransferase Proteins 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 101100491335 Caenorhabditis elegans mat-2 gene Proteins 0.000 description 1
- 101100495256 Caenorhabditis elegans mat-3 gene Proteins 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明は周辺表示装置に関し、特に、自走可能な移動体の周辺状況を俯瞰的に表示する周辺表示装置に関する。 The present invention relates to a peripheral display device, and more particularly, to a peripheral display device that displays a bird's-eye view of a surrounding state of a mobile object capable of self-running.
複数の撮像手段によって車両周辺の2次元画像を個々に撮像し、それぞれの画像を視点変換して路面を投影面とする複数の俯瞰画像を作成し、当該複数の俯瞰画像を車両周辺に並べるように合成することで、自車両周辺の俯瞰画像を得る種々の技術が開示されている。 Two-dimensional images around the vehicle are individually picked up by a plurality of imaging means, and a plurality of overhead images are created with the road surface as a projection plane by converting each image to a viewpoint, and the plurality of overhead images are arranged around the vehicle. Various techniques for obtaining a bird's-eye view of the vicinity of the host vehicle by combining them are disclosed.
例えば、特許文献1には、映像選択部を備え、表示している合成俯瞰画像の特定の領域を選択すると、その領域を映しているカメラの画像に切り替わる構成が開示されている。 For example, Patent Document 1 discloses a configuration that includes a video selection unit and switches to an image of a camera that displays the region when a specific region of the displayed composite overhead image is selected.
上述した特許文献1に開示された技術は、俯瞰画像の特定の領域を選択すると、その領域を映しているカメラで実際に映した映像に切り替わるだけのものであり、単純に言えば、映像選択部は、合成された俯瞰画像を得るための各カメラからの直接の映像を選択するものに過ぎず、各カメラからの直接の映像は部分的な映像であり、俯瞰的なものではないので、利用者にとっては状況がつかみにくく、必ずしも満足のできるものではない。 The technique disclosed in Patent Document 1 described above is such that when a specific region of the overhead view image is selected, the image is actually switched to the image actually displayed by the camera that displays the region. The section is only to select the direct video from each camera to obtain the synthesized overhead image, and the direct video from each camera is a partial video, not a bird's-eye view, For users, the situation is difficult to grasp and is not always satisfactory.
本発明は上記のような問題点を解消するためになされたもので、自動車などの自走可能な移動体周辺の俯瞰画像の表示において、任意の視点位置から見た俯瞰画像を簡便に取得できる周辺表示装置を提供することを目的とする。 The present invention has been made to solve the above-described problems, and can easily obtain an overhead image viewed from an arbitrary viewpoint position in the display of an overhead image around a mobile object such as an automobile that can be self-propelled. An object is to provide a peripheral display device.
本発明に係る周辺表示装置の第1の態様は、自走可能な移動体における周辺の画像データを取得する複数のカメラと、前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、前記第1の3次元画像データの座標系を、前記移動体を基準とする移動体座標系に変換して第2の3次元画像データとする座標変換部と、前記第2の3次元画像データと、前記移動体の3次元モデルのデータとを統合した統合データを生成する統合部と、前記移動体座標系において前記移動体の外側に仮想的に配置された仮想カメラで前記統合データを観測した俯瞰画像データを生成する画像生成部と、前記仮想カメラの視点位置を変更する視点位置変更部と、視点位置を変更された前記仮想カメラの姿勢を決定する仮想カメラ姿勢決定部とを備え、前記仮想カメラ姿勢決定部は、前記仮想カメラの視点位置変更時には、変更された前記視点位置と前記仮想カメラが注視すべき注視点とを結ぶベクトルとして設定される仮想カメラ視線方向ベクトルと、前記移動体座標系の何れかの軸方向と関連付けられた仮想カメラ上方向ベクトルとを用いて、前記仮想カメラが前記仮想カメラ視線方向ベクトルの方向を向くと共に前記俯瞰画像データの上方向が前記仮想カメラ上方向ベクトルの方向と合うように前記仮想カメラの姿勢を決定し、前記統合部は、前記仮想カメラの姿勢および変更された前記視点位置に基づいて前記統合データを生成する。
According to a first aspect of the peripheral display device of the present invention, a plurality of cameras that acquire peripheral image data in a self-propelled movable body, and first three-dimensional image data is calculated based on the image data. A dimensionalization calculation unit; a coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system based on the moving body to form second 3D image data; An integration unit that generates integrated data obtained by integrating the three-dimensional image data of 2 and the data of the three-dimensional model of the moving object, and a virtual camera virtually arranged outside the moving object in the moving object coordinate system An image generation unit that generates overhead image data obtained by observing the integrated data, a viewpoint position change unit that changes the viewpoint position of the virtual camera, and a virtual camera posture that determines the posture of the virtual camera whose viewpoint position has been changed. With the decision part The virtual camera attitude determination unit, when changing the viewpoint position of the virtual camera, a virtual camera line-of-sight direction vector set as a vector connecting the changed viewpoint position and the gazing point to be watched by the virtual camera; Using the virtual camera upward direction vector associated with any axial direction of the moving body coordinate system, the virtual camera faces the direction of the virtual camera line-of-sight direction vector and the upward direction of the overhead image data is the virtual direction The orientation of the virtual camera is determined so as to match the direction of the camera upward vector, and the integration unit generates the integrated data based on the orientation of the virtual camera and the changed viewpoint position.
本発明に係る周辺表示装置の第2の態様は、前記複数のカメラが、複数のステレオカメラである。 In a second aspect of the peripheral display device according to the present invention, the plurality of cameras are a plurality of stereo cameras.
本発明に係る周辺表示装置の第3の態様は、前記注視点の位置が、前記移動体の前記3次元モデル上に予め設定された注視点位置情報によって規定される。 In a third aspect of the peripheral display device according to the present invention, the position of the gazing point is defined by gazing point position information set in advance on the three-dimensional model of the moving body.
本発明に係る周辺表示装置の第4の態様は、前記注視点の位置を規定する注視点位置情報を変更する注視点位置情報変更部を備える。 A fourth aspect of the peripheral display device according to the present invention includes a gazing point position information changing unit that changes gazing point position information that defines the position of the gazing point.
本発明に係る周辺表示装置の第5の態様は、前記移動体の運転状況に関する運転状況データを前記注視点位置情報変更部に出力する運転状況把握部をさらに備え、前記注視点位置情報は、前記運転状況データに基づいて変更される。 The fifth aspect of the peripheral display device according to the present invention further includes a driving status grasping unit that outputs driving status data related to the driving status of the mobile body to the gazing point location information changing unit, and the gazing point location information is: It is changed based on the driving situation data.
本発明に係る周辺表示装置の第6の態様は、前記運転状況データが、前記移動体の前進および後退を含む運転状態のデータを有し、前記注視点位置情報は、前記運転状態のデータに基づいて変更される。 In a sixth aspect of the peripheral display device according to the present invention, the driving status data includes driving state data including forward and backward movement of the moving body, and the gazing point position information is included in the driving state data. Will be changed based on.
本発明に係る周辺表示装置の第7の態様は、前記運転状況データが、前記移動体の直進および右左折を制御する操舵角情報を有し、前記注視点位置情報は、前記操舵角情報に基づいて連続的に変更される。 In a seventh aspect of the peripheral display device according to the present invention, the driving situation data includes steering angle information for controlling straight travel and right / left turn of the moving body, and the gazing point position information is included in the steering angle information. Continuously changed based on.
本発明に係る周辺表示装置の第8の態様は、前記複数のカメラにより得られた画像データに基づいて、路面上の障害物の有無を判定するとともに、前記障害物までの相対位置の情報を障害物データとして前記注視点位置情報変更部に出力する障害物判定部をさらに備え、前記注視点位置情報は、前記障害物データに基づいて変更される。 According to an eighth aspect of the peripheral display device of the present invention, the presence / absence of an obstacle on the road surface is determined based on image data obtained by the plurality of cameras, and information on the relative position to the obstacle is obtained. An obstacle determination unit that outputs to the gaze position information change unit as obstacle data is further provided, and the gaze position information is changed based on the obstacle data.
本発明に係る周辺表示装置の第9の態様は、前記注視点位置情報変更部が、前記障害物データに基づいて、前記障害物の位置を包含する領域を計算し、該領域の中心位置に最も近い注視点が選ばれるように前記注視点位置情報を変更する。 In a ninth aspect of the peripheral display device according to the present invention, the gazing point position information change unit calculates a region including the position of the obstacle based on the obstacle data, and sets the center position of the region. The gaze point position information is changed so that the closest gaze point is selected.
本発明に係る周辺表示装置の第10の態様は、前記複数のカメラにより得られた画像データに基づいて、前記移動体周囲の環境状況を把握して、環境状況データとして前記注視点位置情報変更部に出力する環境状況把握部をさらに備え、前記注視点位置情報は、前記環境状況データに基づいて変更される。 In a tenth aspect of the peripheral display device according to the present invention, based on image data obtained by the plurality of cameras, the environmental situation around the moving body is grasped, and the gazing point position information is changed as environmental situation data. An environmental condition grasping unit for outputting to the part, and the gazing point position information is changed based on the environmental condition data.
本発明に係る周辺表示装置の第11の態様は、前記環境状況データが、前記画像データの明度に基づいて得られた、夜間および昼間の何れであるかのデータを有し、前記注視点位置情報は、夜間の場合と昼間の場合とで変更される。 An eleventh aspect of the peripheral display device according to the present invention has data indicating whether the environmental status data is nighttime or daytime obtained based on the brightness of the image data, and the gaze point position The information is changed between nighttime and daytime.
本発明に係る周辺表示装置の第12の態様は、前記視点位置変更部が、前記移動体の前記3次元モデルを中心とした半球を仮想的に設定し、前記半球上での緯度および経度を指定することで前記仮想カメラの前記視点位置を変更する。 In a twelfth aspect of the peripheral display device according to the present invention, the viewpoint position changing unit virtually sets a hemisphere centered on the three-dimensional model of the moving body, and calculates the latitude and longitude on the hemisphere. The viewpoint position of the virtual camera is changed by designating.
本発明に係る周辺表示装置の第13の態様は、前記視点位置変更部が、前記移動体の前記3次元モデルから前記仮想カメラが遠ざかる方向、および近づく方向に前記視点位置を変更する。 In a thirteenth aspect of the peripheral display device according to the present invention, the viewpoint position changing unit changes the viewpoint position in a direction in which the virtual camera moves away from and a direction in which the virtual camera moves away from the three-dimensional model of the moving body.
本発明に係る周辺表示装置の第1の態様によれば、仮想カメラの視点位置について任意に変更することができ、移動体周辺の俯瞰画像の表示において、任意の視点位置から見た俯瞰画像を簡便に取得できる。 According to the first aspect of the peripheral display device according to the present invention, it is possible to arbitrarily change the viewpoint position of the virtual camera, and in the display of the overhead image around the moving body, the overhead image viewed from the arbitrary viewpoint position is displayed. It can be obtained easily.
本発明に係る周辺表示装置の第2の態様によれば、移動体周辺の画像データを複数のステレオカメラを用いて取得することで、3次元データの取得が可能となる。 According to the second aspect of the peripheral display device of the present invention, it is possible to acquire three-dimensional data by acquiring image data around a moving object using a plurality of stereo cameras.
本発明に係る周辺表示装置の第3の態様によれば、仮想カメラの注視点の位置が、移動体の3次元モデル上に予め設定された注視点位置情報によって規定されるので、視点位置を任意に変えた場合でも、注視点の位置は固定されているので、仮想カメラの姿勢を求めることが容易である。 According to the third aspect of the peripheral display device of the present invention, the position of the gazing point of the virtual camera is defined by the gazing point position information set in advance on the three-dimensional model of the moving object. Even when the position is arbitrarily changed, the position of the gazing point is fixed, so it is easy to obtain the attitude of the virtual camera.
本発明に係る周辺表示装置の第4の態様によれば、仮想カメラの注視点の位置を規定する注視点位置情報を変更する注視点位置情報変更部を備えるので、仮想カメラの注視点を移動体の運転状況に応じて変更することが可能であり、使用者にとって見やすい俯瞰画像を提供することができる。 According to the fourth aspect of the peripheral display device of the present invention, since the gazing point position information changing unit for changing the gazing point position information defining the position of the gazing point of the virtual camera is provided, the gazing point of the virtual camera is moved. It is possible to change according to the driving situation of the body, and it is possible to provide an easy-to-see overhead image for the user.
本発明に係る周辺表示装置の第5の態様によれば、注視点位置情報が、運転状況データに基づいて変更されるので、移動体の運転状況に合った俯瞰画像を提供することができる。 According to the fifth aspect of the peripheral display device according to the present invention, the point-of-gaze position information is changed based on the driving situation data, so that an overhead image suitable for the driving situation of the mobile object can be provided.
本発明に係る周辺表示装置の第6の態様によれば、注視点位置情報が移動体の前進および後退を含む運転状態のデータに基づいて変更されるので、移動体が前進する場合と後退する場合のそれぞれで見やすい俯瞰画像を提供することができる。 According to the sixth aspect of the peripheral display device of the present invention, the point-of-gaze position information is changed based on the driving state data including the forward and backward movements of the moving body, so that the moving body moves backward and forwards. It is possible to provide an easy-to-see overhead image in each case.
本発明に係る周辺表示装置の第7の態様によれば、注視点位置情報が移動体の操舵角情報に基づいて連続的に変更されるので、移動体が右左折するような場合に、移動体の進行に合わせて変化する俯瞰画像を提供することができる。 According to the seventh aspect of the peripheral display device of the present invention, since the gazing point position information is continuously changed based on the steering angle information of the moving body, the movement is performed when the moving body turns right or left. It is possible to provide a bird's-eye view image that changes as the body progresses.
本発明に係る周辺表示装置の第8の態様によれば、注視点位置情報が障害物データに基づいて変更されるので、障害物を含んだ俯瞰画像を提供することができる。 According to the eighth aspect of the peripheral display device of the present invention, since the point-of-gaze position information is changed based on the obstacle data, an overhead image including the obstacle can be provided.
本発明に係る周辺表示装置の第9の態様によれば、障害物近傍の俯瞰画像を提供することができる。 According to the ninth aspect of the peripheral display device of the present invention, an overhead image near the obstacle can be provided.
本発明に係る周辺表示装置の第10の態様によれば、注視点位置情報が環境状況データに基づいて変更されるので、移動体の環境状況に合った俯瞰画像を提供することができる。 According to the tenth aspect of the peripheral display device according to the present invention, since the point-of-gaze position information is changed based on the environmental situation data, it is possible to provide an overhead view image that matches the environmental situation of the mobile object.
本発明に係る周辺表示装置の第11の態様によれば、注視点位置情報が、夜間の場合と昼間の場合とで変更されるので、移動体を夜間に運転する場合および昼間に運転する場合のそれぞれに適した俯瞰画像を提供することができる。 According to the eleventh aspect of the peripheral display device according to the present invention, the point-of-gaze position information is changed between the case of nighttime and the case of daytime. It is possible to provide an overhead image suitable for each of the above.
本発明に係る周辺表示装置の第12および第13の態様によれば、視点位置変更部での仮想カメラの視点位置の変更における実際的な方法を提供できる。 According to the twelfth and thirteenth aspects of the peripheral display device according to the present invention, it is possible to provide a practical method in changing the viewpoint position of the virtual camera in the viewpoint position changing unit.
<実施の形態>
<装置構成>
図1は、本発明に係る周辺表示装置を搭載した車両VCにおけるステレオカメラの配置例を示す図である。
<Embodiment>
<Device configuration>
FIG. 1 is a diagram showing an arrangement example of stereo cameras in a vehicle VC equipped with a peripheral display device according to the present invention.
図1において、車両VCには、前方、左右および後方の画像を取得する4台のステレオカメラが搭載されている。すなわち、前方の画像を取得するステレオカメラSC1、前方に対して右側の画像を取得するステレオカメラSC2、後方の画像を取得するステレオカメラSC3および前方に対して左側の画像を取得するステレオカメラSC4を備えている。 In FIG. 1, a vehicle VC is equipped with four stereo cameras that acquire front, left, and right images. That is, a stereo camera SC1 that acquires a front image, a stereo camera SC2 that acquires a right image with respect to the front, a stereo camera SC3 that acquires a rear image, and a stereo camera SC4 that acquires a left image with respect to the front. I have.
このようなシステムを用いることで、自車両の周辺の画像データを取得し、それを視点を変えて自車両の上方から見た俯瞰図に変更することが可能となるが、以下の説明では、ステレオカメラSC1およびSC4で取得した画像を使用する場合を例に採って説明する。 By using such a system, it is possible to acquire image data around the host vehicle and change it to an overhead view seen from above the host vehicle by changing the viewpoint, but in the following description, A case where images acquired by the stereo cameras SC1 and SC4 are used will be described as an example.
なお、各カメラの実際の配置位置は車種によって異なるが、例えば、ステレオカメラSC1はルームミラーの位置に配置され、ステレオカメラSC2およびSC4は、それぞれ、右および左のサイドミラーの位置に配置され、ステレオカメラSC3は、リヤバンパーの位置などに配置される。なお、上記配置は一例であり、ステレオカメラの配置はこれに限定されるものではない。 The actual arrangement position of each camera differs depending on the vehicle type. For example, the stereo camera SC1 is arranged at the position of the room mirror, and the stereo cameras SC2 and SC4 are arranged at the positions of the right and left side mirrors, respectively. Stereo camera SC3 is arranged at the position of the rear bumper. The above arrangement is an example, and the arrangement of the stereo camera is not limited to this.
図2は、本発明に係る周辺表示装置100の構成を示すブロック図である。図2に示すように周辺表示装置100は、ステレオカメラSC1〜SC4と、ステレオカメラSC1〜SC4で得られた画像データの画像処理を行う表示画像生成部80と、表示画像生成部100から出力される処理済みの画像データを表示する車内モニター等の画像表示部90と、俯瞰画像の視点位置を変更する視点位置変更手段70とを主たる構成として備えている。
FIG. 2 is a block diagram showing the configuration of the
表示画像生成部80は、ステレオカメラSC1〜SC4でそれぞれ得られた2次元画像データに基づいて、3次元画像データを算出する3次元化計算部11、21、31および41と、3次元化計算部11、21、31および41のそれぞれで計算された3次元画像データ(第1の3次元画像データ)に、自動車座標系(移動体座標系)内でのステレオカメラの位置を表現する3次元変換行列を適用することで、ステレオカメラ座標系で表現された3次元画像データを自動車座標系で表現された3次元画像データ(第2の3次元画像データ)に変換する座標変換部12、22、32および42と、座標変換部12、22、32および42から出力された自動車座標系で表現された3次元画像データと、記憶部7に格納された自車両の3次元モデルのデータとを統合して、自車両を自動車座標系の原点とし、その周辺に自動車座標系で表現された各3次元画像データを並べるように統合して測定空間の3次元画像データ(統合データ)を生成する統合部5と、統合部5で生成された3次元画像データを、仮想位置に配置したカメラ(仮想カメラ)で観測した俯瞰画像データに生成する画像生成部6とを備えている。
The display
また、視点位置変更手段70からの仮想カメラの視点位置の情報に従って、仮想カメラの姿勢を決定する仮想カメラ姿勢決定部8と、仮想カメラ姿勢決定部8で決定された仮想カメラの姿勢および視点位置の情報を受け、統合部5で統合すべき統合データについての仮想カメラの情報、例えば視点位置や姿勢の情報を格納する記憶部51と、周辺表示装置100の外部に設けられた自車両の運転状況データを出力する運転状況データ出力手段200からの運転状況データを受け、自車両の運転状況を把握して、自車両の運転状態(前進/後退/停止)、速度、操舵角情報(直進/右折/左折)などの運転状況データを出力する運転状況把握部3と、自車両周辺の環境状況の把握を行い、環境状況データを出力する環境状況把握部4と、ステレオカメラSC1〜SC4により得られた画像データに基づいて、路面上の障害物の有無を判定して障害物データを出力する障害物判定部9と、運転状況把握部3、環境状況把握部4および障害物判定部9の出力、記憶部7に格納された注視点位置情報を受け、仮想カメラの注視点位置情報を変更する注視点位置情報変更部10を備えている。
Further, the virtual camera posture determining unit 8 that determines the posture of the virtual camera according to the information on the viewpoint position of the virtual camera from the viewpoint
ここで、障害物判定部9は、各ステレオカメラで得られた画像データに対応する、自動車座標系で表現された3次元画像データを統合部5から受け、当該3次元画像データから路面を検出し、路面に対して所定値以上の高さを有する物体を検出した場合は障害物と判定した旨を出力するとともに、自車両に対する障害物との相対位置情報を出力する。 Here, the obstacle determination unit 9 receives the three-dimensional image data expressed in the car coordinate system corresponding to the image data obtained by each stereo camera from the integration unit 5, and detects the road surface from the three-dimensional image data. When an object having a height greater than or equal to a predetermined value with respect to the road surface is detected, the fact that it is determined as an obstacle is output, and information on the relative position of the vehicle relative to the obstacle is output.
環境状況把握部4は、各ステレオカメラで得られた画像データに対応する、自動車座標系で表現された3次元画像データを統合部5から受け、その明度値から夜間あるいは昼間であるかの情報や、画像から天候(晴天、雨、霧)についての情報を環境状況データとして出力する。 The environmental condition grasping unit 4 receives the three-dimensional image data expressed in the car coordinate system corresponding to the image data obtained by each stereo camera from the integrating unit 5 and determines whether it is nighttime or daytime from the brightness value. In addition, information about the weather (sunny weather, rain, fog) is output as environmental status data from the image.
<動作>
<基本動作>
次に、上述した構成を有する周辺表示装置100の基本動作について説明する。
<Operation>
<Basic operation>
Next, the basic operation of the
ステレオカメラSC1〜SC4は、何れも2台のカメラで異なる視点から同時に撮影を行い、3次元化計算部11、21、31および41のそれぞれでは、三角測量の原理に基づいて、対応するステレオカメラで得られた2つの画像の特徴点を相互に対応付けし(対応点探索)、その結果得られた対応点の組のそれぞれについての視差、焦点距離、基線長などのパラメータから、各対応点の組についての3次元位置を求めることで3次元画像データを算出する。
The stereo cameras SC1 to SC4 are both taken simultaneously from different viewpoints by the two cameras, and each of the three-
3次元化計算部11、21、31および41から出力される3次元画像データは、ステレオカメラ座標系で表現されているので、自動車座標系で表現された3次元画像データに変換するために座標変換部12、22、32および42において座標変換を行う。
Since the three-dimensional image data output from the three-
この座標変換は、3次元化計算部11、21、31および41から出力される3次元画像データに対して、それぞれ所定の3次元変換行列Mat1、Mat2、Mat3およびMat4を適用することで実行される。
This coordinate transformation is executed by applying predetermined three-dimensional transformation matrices Mat1, Mat2, Mat3, and Mat4 to the three-dimensional image data output from the three-
ここで、3次元変換行列Mat1〜Mat4は、図2に示されるように、それぞれ座標変換部12、22、32および42に対応付けられた記憶部14、24、34および44に格納されている。
Here, as shown in FIG. 2, the three-dimensional transformation matrices Mat1 to Mat4 are stored in the
座標変換部12、22、32および42から出力される自動車座標系で表現された3次元画像データは統合部5に与えられて、記憶部7に格納された自車両の3次元モデルのデータと統合される。このとき、記憶部51に格納された仮想カメラ情報に含まれる仮想カメラの視点位置および姿勢の情報に基づいて統合が実行される。
The three-dimensional image data expressed in the vehicle coordinate system output from the coordinate
画像生成部6では、統合部5から出力される3次元の統合データを受けて俯瞰画像データを生成して画像表示部90に与える。
The
<視点位置の変更動作>
次に、本発明に係る周辺表示装置100における仮想カメラの視点位置の変更動作について説明する。
<Viewpoint position change operation>
Next, the operation of changing the viewpoint position of the virtual camera in the
周辺表示装置100では、運転者等が車内モニターの操作キーや操作画面上でのカーソル操作等により、視点位置変更手段70にアクセスすることで、車内モニターに表示される俯瞰画像の仮想カメラの視点位置を任意に変更することができる。
In the
図3には、仮想カメラの視点位置を設定するための1つのモデルを示す。図3に示すように、自車両VCの3次元モデルを中心とした半球HSを仮想的に設定し、この半球HSの表面上に仮想カメラCXがあるように設定する。なお、図3には自動車座標系のX、Y、Z方向を示しており、車両の底面(あるいは天井面)に対して垂直な方向をZ軸方向とし、Z軸方向に対してそれぞれ直角をなす方向をX軸方向、Y軸方向としている。 FIG. 3 shows one model for setting the viewpoint position of the virtual camera. As shown in FIG. 3, a hemisphere HS centered on a three-dimensional model of the host vehicle VC is virtually set, and a virtual camera CX is set on the surface of the hemisphere HS. FIG. 3 shows the X, Y, and Z directions of the automobile coordinate system. The direction perpendicular to the bottom surface (or ceiling surface) of the vehicle is defined as the Z-axis direction, and each direction is perpendicular to the Z-axis direction. The direction formed is the X-axis direction and the Y-axis direction.
車内モニターには、半球HS、自車両VCおよび仮想カメラCXが表示されており、運転者等が、例えば上下左右のカーソルキーで仮想カメラCXを動かすことで、仮想カメラCXの半球HS表面上での緯度(例えば自動車座標系Z軸周りの角度)および経度(例えば自動車座標系Z軸に対する角度)を変更する。なお、この場合のZ軸は、自車両VCの中心点PCを原点としたZ軸方向の軸である。 The in-vehicle monitor displays the hemisphere HS, the host vehicle VC, and the virtual camera CX, and the driver or the like moves the virtual camera CX with, for example, the up / down / left / right cursor keys on the surface of the hemisphere HS of the virtual camera CX. The latitude (for example, an angle around the Z axis of the vehicle coordinate system) and the longitude (for example, an angle with respect to the Z axis of the vehicle coordinate system) are changed. In this case, the Z-axis is an axis in the Z-axis direction with the center point PC of the host vehicle VC as the origin.
これにより、仮想カメラCXの視点位置を半球HSの表面上の任意の位置に設定することができる。なお、仮想カメラCXは、モニター上では半球HSの表面上のどこにでも移動させることはできても、ステレオカメラSC1〜SC4(図1)の配置位置や画角との関係から、俯瞰画像を表示できない場合もあるが、その場合は、モニター上にその旨を表示するなどの処理を実行すれば良い。 Thereby, the viewpoint position of the virtual camera CX can be set to an arbitrary position on the surface of the hemisphere HS. Although the virtual camera CX can be moved anywhere on the surface of the hemisphere HS on the monitor, it displays a bird's-eye view image from the relationship between the position of the stereo cameras SC1 to SC4 (FIG. 1) and the angle of view. In some cases, it may not be possible, but in such a case, a process such as displaying the fact on the monitor may be executed.
また、図4には仮想カメラの視点位置を設定するための他のモデルを示す。上下左右のカーソルキーの他にズームイン/ズームアウトキーを準備しておき、ズームインキーを押すと、仮想カメラCXが自車両VCに近づく方向に移動し、ズームアウトキーを押すと、仮想カメラCXが自車両VCから遠ざかる方向に移動する。 FIG. 4 shows another model for setting the viewpoint position of the virtual camera. In addition to the up / down / left / right cursor keys, a zoom-in / zoom-out key is prepared. When the zoom-in key is pressed, the virtual camera CX moves closer to the host vehicle VC. When the zoom-out key is pressed, the virtual camera CX It moves in a direction away from the host vehicle VC.
図4では、仮想カメラCXが注視している点(注視点)は、自車両VCの中心点PCであり、中心点PCを原点とするZ軸に沿った方向に仮想カメラVCが移動する例を示しているが、これに限定されるものではない。 In FIG. 4, the point (gaze point) that the virtual camera CX is gazing at is the center point PC of the host vehicle VC, and the virtual camera VC moves in the direction along the Z axis with the center point PC as the origin. However, the present invention is not limited to this.
また、図3に示したモデルと併用することも可能であり、仮想カメラCXが、ズームイン、ズームアウトするごとに半球HSの半径が、小さくなったり、大きくなったりするように構成すれば、ズームインした状態で半球HSの表面上の任意の位置に仮想カメラCXを移動させることも、ズームアウトした状態で半球HSの表面上の任意の位置に仮想カメラCXを移動させることも可能となる。 Further, it can be used in combination with the model shown in FIG. 3, and if the virtual camera CX is configured so that the radius of the hemisphere HS becomes smaller or larger each time the zoom-in / zoom-out is performed, the zoom-in is performed. In this state, the virtual camera CX can be moved to an arbitrary position on the surface of the hemisphere HS, or the virtual camera CX can be moved to an arbitrary position on the surface of the hemisphere HS in a zoomed-out state.
このように、周辺表示装置100においては、仮想カメラの視点位置について使用者が任意に変更できるので、自車両周辺の俯瞰画像の表示において、任意の視点位置から見た俯瞰画像を簡便に所得できる。
As described above, in the
<姿勢の決定>
視点位置変更手段70から、仮想カメラの視点位置の情報を受けた仮想カメラ姿勢決定部8では仮想カメラの姿勢を決定する。
<Determination of posture>
The virtual camera attitude determination unit 8 that has received information on the viewpoint position of the virtual camera from the viewpoint position changing means 70 determines the attitude of the virtual camera.
仮想カメラの姿勢の決定には、仮想カメラ視線方向ベクトルと、仮想カメラの方向の基準となる仮想カメラ上方向ベクトルを決める必要がある。 To determine the attitude of the virtual camera, it is necessary to determine a virtual camera line-of-sight direction vector and a virtual camera upward direction vector that serves as a reference for the direction of the virtual camera.
仮想カメラ視線方向ベクトルは、仮想カメラの視点位置と、仮想カメラの注視点とを結ぶベクトルとして設定される。 The virtual camera line-of-sight direction vector is set as a vector connecting the viewpoint position of the virtual camera and the gazing point of the virtual camera.
図5には、仮想カメラ視線方向ベクトルの決定方法を模式的に示しており、仮想カメラの注視点が自車両VCの3次元モデルの中心点PCであるとした場合について、中心点PCを原点とするZ軸上に存在する仮想カメラCX1と、Z軸に対して所定角度をなす軸上に存在する仮想カメラCX2とを示している。 FIG. 5 schematically shows a method of determining the virtual camera line-of-sight direction vector. When the gazing point of the virtual camera is the center point PC of the three-dimensional model of the host vehicle VC, the center point PC is the origin. A virtual camera CX1 existing on the Z axis and a virtual camera CX2 existing on an axis that forms a predetermined angle with respect to the Z axis are shown.
仮想カメラCX1およびCX2において、それぞれ中心点PC(すなわち注視点)に向かう方向が仮想カメラ視線方向ベクトルの向きである。 In the virtual cameras CX1 and CX2, the direction toward the center point PC (that is, the gazing point) is the direction of the virtual camera viewing direction vector.
次に、仮想カメラ上方向ベクトルの設定方法について説明する。図6に示されるように、仮想カメラ上方向ベクトルV1は、仮想カメラ視線方向ベクトルV2と、自動車座標系Z軸方向ベクトルVZとを含む平面上にあり、かつ仮想カメラ視線方向ベクトルV2と直交し、かつ自動車座標系Z軸方向ベクトルVZと鋭角をなすベクトルとして設定される。 Next, a method for setting the virtual camera upward vector will be described. As shown in FIG. 6, the virtual camera upward direction vector V1 is on a plane including the virtual camera viewing direction vector V2 and the vehicle coordinate system Z-axis direction vector VZ, and is orthogonal to the virtual camera viewing direction vector V2. , And an acute angle with the vehicle coordinate system Z-axis direction vector VZ.
この方法を採る場合、仮想カメラCX2を例に採れば、仮想カメラ上方向ベクトルは図5においてベクトルV21で表され、ベクトルV21は車両の前部から遠ざかる方向を向くことになる。 When this method is employed, taking the virtual camera CX2 as an example, the upward direction vector of the virtual camera is represented by a vector V21 in FIG. 5, and the vector V21 is directed away from the front of the vehicle.
また、仮想カメラ上方向ベクトルは、図6に示した自動車座標系Z軸方向ベクトルVZを、自動車座標系X軸方向ベクトルで置き換えることで設定しても良い。 Further, the virtual camera upward vector may be set by replacing the vehicle coordinate system Z-axis direction vector VZ shown in FIG. 6 with the vehicle coordinate system X-axis direction vector.
この方法を採る場合、仮想カメラCX2を例に採れば、仮想カメラ上方向ベクトルは図5においてベクトルV22で表される。この場合、X軸方向は車両の前部方向に相当しており、ベクトルV22は車両の前部方向を向くことになる。 When this method is employed, taking the virtual camera CX2 as an example, the virtual camera upward direction vector is represented by a vector V22 in FIG. In this case, the X-axis direction corresponds to the front direction of the vehicle, and the vector V22 faces the front direction of the vehicle.
また、仮想カメラの視線方向が自動車座標系Z軸方向ベクトルと平行に近い場合は、自動車座標系X軸方向ベクトルで仮想カメラ上方向ベクトルを近似することで設定しても良い。 Further, when the visual line direction of the virtual camera is nearly parallel to the vehicle coordinate system Z-axis direction vector, the virtual camera upward direction vector may be approximated by the vehicle coordinate system X-axis direction vector.
この方法を採る場合、仮想カメラCX1を例に採れば、仮想カメラ上方向ベクトルは図5においてベクトルV11で表される。この場合、X軸方向は車両の前部方向に相当しており、ベクトルV11はX軸方向に平行で、車両の前部を向くこととなる。 When this method is adopted, if the virtual camera CX1 is taken as an example, the virtual camera upward direction vector is represented by a vector V11 in FIG. In this case, the X-axis direction corresponds to the front direction of the vehicle, and the vector V11 is parallel to the X-axis direction and faces the front portion of the vehicle.
また、仮想カメラの視線方向が自動車座標系X軸方向ベクトルと平行に近い場合は、自動車座標系Z軸方向ベクトルで仮想カメラ上方向ベクトルを近似することで設定しても良い。 Further, when the line-of-sight direction of the virtual camera is close to parallel to the vehicle coordinate system X-axis direction vector, the virtual camera upward direction vector may be approximated by the vehicle coordinate system Z-axis direction vector.
上述した方法により、仮想カメラ視線方向ベクトルおよび仮想カメラ上方向ベクトルを決定した仮想カメラ姿勢決定部8は、両ベクトルに基づいて仮想カメラの姿勢を決定する。 The virtual camera posture determination unit 8 that has determined the virtual camera line-of-sight direction vector and the virtual camera upward direction vector by the method described above determines the posture of the virtual camera based on both vectors.
すなわち、図5における仮想カメラCX1を例に採れば、仮想カメラ視線方向ベクトルはZ軸に沿ったベクトルで表され、仮想カメラ上方向ベクトルはベクトルV11で表されている。このような場合は仮想カメラCX1は自車両VCを真下に見下ろす姿勢にあるものと決定する。 That is, taking the virtual camera CX1 in FIG. 5 as an example, the virtual camera line-of-sight direction vector is represented by a vector along the Z axis, and the virtual camera upward direction vector is represented by a vector V11. In such a case, the virtual camera CX1 is determined to be in a posture in which the own vehicle VC is looked down.
仮想カメラ姿勢決定部8で決定された仮想カメラの姿勢や位置の情報は記憶部51に仮想カメラ情報として格納され、統合部5で統合データを生成する場合に読み出されることとなる。 Information on the attitude and position of the virtual camera determined by the virtual camera attitude determination unit 8 is stored as virtual camera information in the storage unit 51, and is read when the integration unit 5 generates integrated data.
なお、注視点の位置情報は、先に説明したように、例えば自車両VCの3次元モデルの中心点PCを注視点とした場合は、その位置座標となるが、これ以外にも複数の場所の位置座標を注視点位置情報として記憶部7に格納しておき、仮想カメラ姿勢決定部8での仮想カメラの姿勢を決定する処理において、必要に応じて読み出す構成となっている。図2においては、記憶部7から一旦、注視点位置情報変更部10に与えられ、注視点位置情報変更部10から仮想カメラ姿勢決定部8に与えられる構成となっているが、この理由は、次に説明する注視点位置の変更動作と関係している。
Note that, as described above, the position information of the gazing point is, for example, the position coordinates when the center point PC of the three-dimensional model of the host vehicle VC is the gazing point, but there are a plurality of other locations. Are stored in the storage unit 7 as gazing point position information, and read out as necessary in the process of determining the attitude of the virtual camera in the virtual camera attitude determining unit 8. In FIG. 2, the storage unit 7 once gives the gazing point position
<注視点位置の変更動作>
周辺表示装置100は、仮想カメラの視点位置について使用者が任意に変更できるとともに、自車両の動きに伴って仮想カメラの注視点位置が自動的に変更される機能を有している。以下、図7〜図21を用いて、仮想カメラの注視点位置の変更動作について説明する。
<Gaze position change operation>
The
<注視点位置情報>
仮想カメラの注視点の位置情報は、仮想カメラが自車両VCの3次元モデルのどの部分を注視すべきかという情報であり、当該3次元モデルの特定の点の座標値で表される。
<Gaze point location information>
The position information of the gazing point of the virtual camera is information on which part of the three-dimensional model of the host vehicle VC the gazing point should be gazed at, and is represented by the coordinate value of a specific point of the three-dimensional model.
例えば、図7においては、3つの仮想カメラC1、C2およびC3を想定しており、それぞれのカメラの注視点をVP1、VP2およびVP3として表している。 For example, in FIG. 7, three virtual cameras C1, C2, and C3 are assumed, and the gazing points of the respective cameras are represented as VP1, VP2, and VP3.
すなわち、注視点VP1は、自車両VCの中心点に相当し、仮想カメラC1は自車両VCの真上に存在し、自車両VCを真下に見下ろす姿勢にある。 That is, the gazing point VP1 corresponds to the center point of the host vehicle VC, and the virtual camera C1 is present directly above the host vehicle VC and is in a posture of looking down the host vehicle VC.
この仮想カメラC1によって得られる俯瞰画像は、自車両VCを真上から見た画像となる。この画像を図8に示す。 The overhead view image obtained by the virtual camera C1 is an image of the host vehicle VC viewed from directly above. This image is shown in FIG.
また、注視点VP2は、自車両VCの運転席周辺の座標点に相当し、仮想カメラC2は自車両VCの前部方向斜め上に存在し、自車両VCの前部を斜め上から見る姿勢にある。 The gazing point VP2 corresponds to a coordinate point around the driver's seat of the host vehicle VC, and the virtual camera C2 exists obliquely upward in the front direction of the host vehicle VC, and the posture in which the front portion of the host vehicle VC is viewed obliquely from above. It is in.
この仮想カメラC2によって得られる俯瞰画像は、自車両VCの前部を斜め上から見た画像となる。この画像を図9に示す。 The bird's-eye view image obtained by the virtual camera C2 is an image obtained by viewing the front portion of the host vehicle VC from obliquely above. This image is shown in FIG.
また、注視点VP2は、自車両VCの運転席周辺の座標点に相当し、仮想カメラC2は自車両VCの前部方向斜め上に存在し、自車両VCの前部を斜め上から見る姿勢にある。 The gazing point VP2 corresponds to a coordinate point around the driver's seat of the host vehicle VC, and the virtual camera C2 exists obliquely upward in the front direction of the host vehicle VC, and the posture in which the front portion of the host vehicle VC is viewed obliquely from above. It is in.
この仮想カメラC2によって得られる俯瞰画像は、自車両VCの前部を斜め上から見た画像となる。この画像を図9に示す。 The bird's-eye view image obtained by the virtual camera C2 is an image obtained by viewing the front portion of the host vehicle VC from obliquely above. This image is shown in FIG.
また、注視点VP3は、自車両VCの後部の座標点に相当し、仮想カメラC3は自車両VCの後部方向斜め上に存在し、自車両VCの後部を斜め上から見る姿勢にある。 The gazing point VP3 corresponds to a coordinate point at the rear of the host vehicle VC, and the virtual camera C3 is present obliquely upward in the rear direction of the host vehicle VC and is in an attitude of viewing the rear portion of the host vehicle VC from obliquely above.
この仮想カメラC3によって得られる俯瞰画像は、自車両VCの後部を斜め上から見た画像となる。この画像を図10に示す。 The bird's-eye view image obtained by the virtual camera C3 is an image obtained by viewing the rear portion of the host vehicle VC obliquely from above. This image is shown in FIG.
なお、上述した仮想カメラC1〜C3の視点位置および姿勢の情報は、先に説明したように記憶部51に仮想カメラ情報として格納されており、統合部5での統合処理の必要に応じて読み出す構成となっている。 Note that the viewpoint position and orientation information of the virtual cameras C <b> 1 to C <b> 3 described above is stored as virtual camera information in the storage unit 51 as described above, and is read out as necessary for integration processing in the integration unit 5. It has a configuration.
周辺表示装置100では、自車両の動きに伴って仮想カメラの注視点位置が自動的に変更されることも特徴の1つであり、その場合には記憶部7に格納されている注視点位置情報では対応できず、注視点位置情報変更部10で変更された注視点位置情報が必要となる。
One of the features of the
<注視点位置情報の変更例1>
以下、自車両の動きに伴って仮想カメラの注視点位置が自動的に変更される動作を説明しつつ、注視点位置情報の変更について説明する。
<Example 1 of changing gaze point position information>
Hereinafter, the change of the gazing point position information will be described while explaining the operation of automatically changing the gazing point position of the virtual camera according to the movement of the host vehicle.
図11は自車両VCが前進中の場合の注視点位置の一例を示す図であり、自車両VCの3次元モデルの車両前部に設定されている注視点位置情報を用いて、車両前部寄りの表示画像を生成する。図11においては車両前部に設定された3つの注視点のうち、中央部の注視点VP1の注視点位置情報を用いる例を示している。 FIG. 11 is a diagram illustrating an example of a gazing point position when the host vehicle VC is moving forward, using the gazing point position information set in the vehicle front part of the three-dimensional model of the host vehicle VC. A close display image is generated. FIG. 11 shows an example in which the gazing point position information of the gazing point VP1 at the center is used among the three gazing points set in the front part of the vehicle.
図12は、注視点VP1の注視点位置情報を用いて生成した表示画像を示しており、画像表示部90(図2)の表示画面DPに自車両VCの3次元モデルの車両前部寄りの俯瞰画像が示されている。 FIG. 12 shows a display image generated using the gazing point position information of the gazing point VP1, and the display screen DP of the image display unit 90 (FIG. 2) is closer to the front part of the three-dimensional model of the host vehicle VC. An overhead image is shown.
図13は自車両VCが後退中の場合の注視点位置の一例を示す図であり、自車両VCの3次元モデルの車両後部に設定されている注視点位置情報を用いて、車両後部寄りの表示画像を生成する。図13においては車両前部に設定された3つの注視点のうち、中央部の注視点VP3の注視点位置情報を用いる例を示している。 FIG. 13 is a diagram illustrating an example of the position of the point of sight when the host vehicle VC is moving backward, and using the point of sight position information set at the rear of the vehicle of the three-dimensional model of the host vehicle VC, Generate a display image. FIG. 13 shows an example in which the gazing point position information of the gazing point VP3 in the center is used among the three gazing points set in the front part of the vehicle.
図14は、注視点VP3の注視点位置情報を用いて生成した表示画像を示しており、画像表示部90(図2)の表示画面DPに自車両VCの3次元モデルの車両後部寄りの俯瞰画像が示されている。 FIG. 14 shows a display image generated using the gazing point position information of the gazing point VP3. The display screen DP of the image display unit 90 (FIG. 2) shows an overhead view of the three-dimensional model of the host vehicle VC near the rear of the vehicle. An image is shown.
このように、周辺表示装置100では、自車両の前進、後退の動きに合わせて注視点が自動的に変更され、画像表示部90において変更された注視点に合わせた俯瞰画像が表示される。
As described above, in the
このような自車両の運転状況は、図2を用いて説明したように、周辺表示装置100外部の運転状況データ出力手段200からの運転状況データを運転状況把握部3が受けて、前進/後退/停止などの状況を把握し、把握した運転状況の情報を注視点位置情報変更部10に与えることで、運転状況に合わせて適宜、注視点位置情報を変更する構成となっている。
As described with reference to FIG. 2, the driving situation grasping unit 3 receives the driving situation data from the driving situation data output means 200 outside the
注視点位置情報変更部10は、運転状況に合わせて最適な注視点位置情報を算出するようなソフトウエアによって注視点位置情報を変更する構成としても良いし、予め準備した、種々の運転状況と注視点位置情報とを対応付けたテーブルを参照して注視点位置情報を変更する構成としても良い。
The point-of-gaze position
注視点位置情報変更部10で変更された注視点位置情報は、仮想カメラ姿勢決定部8に与えられ、先に説明したように、仮想カメラの姿勢の決定に使用される。
The gazing point position information changed by the gazing point position
<注視点位置情報の変更例2>
また、自車両の運転状況を、操舵角情報(直進/右折/左折)を用いて把握することも可能であり、その場合は、図15〜図17に示すような注視点位置の変更が可能となる。
<Example 2 of changing gaze point position information>
It is also possible to grasp the driving situation of the host vehicle using the steering angle information (straight forward / right turn / left turn). In this case, it is possible to change the gazing point position as shown in FIGS. It becomes.
図15は自車両VCが前進中の場合の注視点位置を示す図であり、この場合は、自車両VCの3次元モデルの車両前部に設定された3つの注視点のうち、中央部の注視点VP1の注視点位置情報を使用する例を示している。 FIG. 15 is a diagram illustrating a gazing point position when the host vehicle VC is moving forward. In this case, of the three gazing points set in the front part of the three-dimensional model of the host vehicle VC, The example which uses the gaze point position information of the gaze point VP1 is shown.
これに対し、図16は自車両VCが左折を開始した直後の注視点位置を示す図であり、操舵角が小さい(ハンドルをあまり切っていない)状況である。この場合は、自車両VCの3次元モデルの車両前部に設定された中央部の注視点VP1と左寄りの注視点VP2と間に新たな注視点VPが設定されている。この注視点VPの注視点位置情報は、注視点位置情報変更部10で、両サイドの注視点VP1およびVP2のそれぞれの注視点位置情報間を補完する計算によって得ることができる。
On the other hand, FIG. 16 is a diagram showing the position of the gazing point immediately after the host vehicle VC starts a left turn, and is a situation where the steering angle is small (the steering wheel is not turned too much). In this case, a new gazing point VP is set between the central gazing point VP1 and the left gazing point VP2 set at the front of the vehicle of the three-dimensional model of the host vehicle VC. The gazing point position information of the gazing point VP can be obtained by the gazing point position
図17は自車両VCが左折の終期の注視点位置を示す図であり、操舵角が大きい(ハンドルを大きく切った)状況である。この場合は、自車両VCの3次元モデルの車両前部に設定された左寄りの注視点VP2の注視点位置情報を使用する例を示している。 FIG. 17 is a diagram illustrating the position of the point of gaze at the end of the left turn of the host vehicle VC, in which the steering angle is large (the steering wheel is largely turned). In this case, an example is shown in which the gazing point position information of the left gazing point VP2 set in the front part of the three-dimensional model of the host vehicle VC is used.
このように周辺表示装置100では、自車両の運転状況に合わせて連続的に注視点位置を変更することが可能であるが、他の例としては、自車両の速度が遅い場合は自車両VCの3次元モデルの車両中央部に設定された注視点の注視点位置情報を使用し、速度が増すにつれて車両前部寄りの注視点の注視点位置情報を使用する例が挙げられる。
As described above, in the
<注視点位置情報の変更例3>
周辺表示装置100では、以上説明したような、自車両の動きに伴って仮想カメラの注視点位置が自動的に変更される機能に加えて、障害物を検知した場合にも仮想カメラの注視点位置が自動的に変更される機能を有している。以下、この機能について説明する。
<Example 3 of changing gaze point position information>
In the
図18は自車両VCが後退中に、車両の後方に障害物OBを検出した場合の注視点位置の一例を示す図であり、自車両VCの3次元モデルの車両後部に設定されている3つの注視点のうち、左寄りの注視点VP4の注視点位置情報を使用する例を示している。 FIG. 18 is a diagram illustrating an example of the position of the point of sight when the obstacle OB is detected behind the vehicle while the host vehicle VC is moving backward, and is set at the rear part of the three-dimensional model of the host vehicle VC. The example which uses the gaze point position information of the left gaze point VP4 among the two gaze points is shown.
図18に示すように、自車両VCの左後方には障害物OBが存在しており、これを障害物判定部9が、各ステレオカメラで得られた画像データに基づいて路面に対して所定値以上の高さを有する物体として検出すると、障害物OBが存在する旨と、自車両VCに対する障害物OBとの相対位置情報を注視点位置情報変更部10に出力する。注視点位置情報変更部10では、障害物OBとの相対位置情報に基づいて注視点位置情報を変更する。
As shown in FIG. 18, an obstacle OB exists on the left rear side of the host vehicle VC, and the obstacle determination unit 9 determines this with respect to the road surface based on image data obtained by each stereo camera. When detected as an object having a height higher than the value, the fact that the obstacle OB exists and the relative position information of the obstacle OB with respect to the host vehicle VC are output to the gazing point position
このような場合、注視点位置情報変更部10は、障害物OBの位置を包含する領域を計算し、この領域の中心位置に最も近い注視点が選ばれるように注視点位置情報を変更する。
In such a case, the gazing point position
図18の例では、障害物OBを囲む破線領域が、計算によって得られた障害物OBを包含する領域であり、その中央部にある×印が当該領域の中心位置となる。この結果、注視点VP4が選ばれるように注視点位置情報が変更される。 In the example of FIG. 18, a broken-line area surrounding the obstacle OB is an area including the obstacle OB obtained by calculation, and a cross mark at the center is the center position of the area. As a result, the watch point position information is changed so that the watch point VP4 is selected.
図19は、注視点VP4の注視点位置情報を用いて生成した表示画像を示しており、画像表示部90(図2)の表示画面DPに、自車両VCの3次元モデルの車両左後部近傍の俯瞰画像が示されている。 FIG. 19 shows a display image generated using the gazing point position information of the gazing point VP4. The display screen DP of the image display unit 90 (FIG. 2) shows the vicinity of the left rear part of the three-dimensional model of the host vehicle VC. A bird's-eye view image is shown.
このような俯瞰画像を見た運転者は、障害物OBを避けるように後退進路を変えたり、停止するなどの操作を行うことができる。 The driver who sees such a bird's-eye view image can perform operations such as changing the backward path and stopping so as to avoid the obstacle OB.
図20は自車両VCが後退での車庫入れ中に、車庫の壁WLを検出した場合の注視点位置の一例を示す図であり、自車両VCの3次元モデルの車両後部に設定されている3つの注視点のうち、中央部の注視点VP3の注視点位置情報を使用する例を示している。 FIG. 20 is a diagram illustrating an example of a gazing point position when the garage wall WL is detected while the host vehicle VC is moving backward, and is set at the rear part of the three-dimensional model of the host vehicle VC. The example which uses the gaze point position information of the gaze point VP3 of the center part among the three gaze points is shown.
図20に示すように、自車両VCの後部を囲むように壁WLが存在しており、これを障害物判定部9が検出し、壁WLが存在する旨と、自車両VCに対する壁WLとの相対位置情報を注視点位置情報変更部10に出力する。注視点位置情報変更部10では、壁WLとの相対位置情報に基づいて注視点位置情報を変更する。
As shown in FIG. 20, a wall WL exists so as to surround the rear part of the host vehicle VC, and this is detected by the obstacle determination unit 9, and the fact that the wall WL exists and the wall WL with respect to the host vehicle VC Is output to the gazing point position
このような場合、注視点位置情報変更部10は、壁WLの位置を包含する領域を計算し、この領域の中心位置に最も近い注視点が選ばれるように注視点位置情報を変更する。
In such a case, the gazing point position
図20の例では、壁WLを囲む破線領域が、計算によって得られた壁WLを包含する領域であり、その中央部にある×印が当該領域の中心位置となる。この結果、注視点VP3が選ばれるように注視点位置情報が変更される。 In the example of FIG. 20, a broken line region surrounding the wall WL is a region including the wall WL obtained by calculation, and a cross mark at the center is the center position of the region. As a result, the gazing point position information is changed so that the gazing point VP3 is selected.
図21は、注視点VP3の注視点位置情報を用いて生成した表示画像を示しており、画像表示部90(図2)の表示画面DPに、自車両VCの3次元モデルの車両後部近傍の俯瞰画像が示されている。 FIG. 21 shows a display image generated using the gazing point position information of the gazing point VP3. The display screen DP of the image display unit 90 (FIG. 2) shows the vicinity of the vehicle rear part of the three-dimensional model of the host vehicle VC. An overhead image is shown.
このような俯瞰画像を見た運転者は、壁WLに接触しないように後退動作を行うことができる。 The driver who has seen such a bird's-eye view image can perform a backward movement so as not to contact the wall WL.
<注視点位置情報の変更例4>
また、周辺表示装置100では、以上説明したような、障害物を検知した場合に仮想カメラの注視点位置が自動的に変更される機能の他に、環境状況把握部4によって把握された自車両周辺の状況に基づいて仮想カメラの注視点位置が自動的に変更される機能も有している。以下、この機能について説明する。
<Example 4 of changing gaze point position information>
In addition to the function of automatically changing the position of the gazing point of the virtual camera when an obstacle is detected as described above, the
先に説明したように、環境状況把握部4(図2)は、夜間であるか昼間であるかの判定や、天候(晴天、雨、霧)の状況についてのパラメータを注視点位置情報変更部10に与える構成となっている。 As described above, the environmental condition grasping unit 4 (FIG. 2) determines whether it is nighttime or daytime, and sets parameters regarding the weather (sunny weather, rain, fog) state as a gazing point position information changing unit. 10 is provided.
注視点位置情報変更部10では、環境状況把握部4から例えば夜間であるという情報を受けた場合、自車両の進行方向でライトが照らしている方向に注視点が設定されるように注視点位置情報を変更する。これにより、視覚的に意味のある画像を優先して表示することができる。
In the point-of-gaze position
また、注視点位置情報変更部10が、環境状況把握部4から例えば雨が降っている、あるいは霧の中であるなどの情報を受けた場合、3次元モデルの車両進行方向の最先端の注視点が選ばれるように注視点位置情報を変更する。これにより、進行方向の画像をできるだけ広い範囲で表示することができる。
Further, when the gazing point position
<変形例1>
図1においては、車両VCの4方向に1台ずつステレオカメラを配置した例を示したが、図22に示されるように、車両VCの4方向に2台ずつステレオカメラを配置する構成としても良い。
<Modification 1>
FIG. 1 shows an example in which one stereo camera is arranged in each of the four directions of the vehicle VC. However, as shown in FIG. 22, two stereo cameras may be arranged in each of the four directions of the vehicle VC. good.
すなわち、図22に示すように、車両VCの、前方の左右の画像を取得するステレオカメラSC1およびSC2が配置され、前方に対して右側の前方寄りおよび後方寄りの画像を取得するステレオカメラSC3およびSC4が配置され、後方の左右の画像を取得するステレオカメラSC5およびSC6が配置され、前方に対して左側の後方寄りおよび前方寄りの画像を取得するステレオカメラSC7およびSC8が配置されている。 That is, as shown in FIG. 22, stereo cameras SC1 and SC2 that acquire the left and right images of the vehicle VC are arranged, and the stereo camera SC3 that acquires the images of the front side and the rear side on the right side with respect to the front side. SC4 is arranged, stereo cameras SC5 and SC6 for obtaining the left and right images at the rear are arranged, and stereo cameras SC7 and SC8 for obtaining the images at the rear and the front on the left side with respect to the front are arranged.
このようなシステムを用いることで、より、死角の少ない周辺の画像データを取得することが可能となる。 By using such a system, it is possible to acquire peripheral image data with fewer blind spots.
<変形例2>
以上の説明においては、ステレオカメラSC1〜SC4(あるいはステレオカメラSC1〜SC8)を用いることで、3次元情報を含んだ2次元画像データを得ることができ、当該2次元画像データに基づいて、3次元化計算部11、21、31および41で3次元画像データを算出する構成を示したが、単眼カメラによって得られた2次元画像データからも3次元画像データを得ることは可能である。
<
In the above description, by using stereo cameras SC1 to SC4 (or stereo cameras SC1 to SC8), two-dimensional image data including three-dimensional information can be obtained. Based on the two-dimensional image data, 3D Although the configuration in which the three-dimensional image data is calculated by the
すなわち、単眼カメラによって得られた2次元画像データに射影変換処理を行うことで、ある視点から撮影した画像を、異なる視点から見た画像に変換することが可能であり、かかる機能を3次元化計算部11、21、31および41に持たせることで、3次元情報を有さない2次元画像データから3次元画像データを得ることができる。
In other words, by performing projective transformation processing on 2D image data obtained by a monocular camera, it is possible to convert an image taken from a certain viewpoint into an image viewed from a different viewpoint. By providing the
また、ステレオカメラの代わりに、例えば赤外線を利用したTOF(飛行時間計測)方式の3次元距離測定カメラを用いることで、対象エリアの画像と距離情報を得ることができ、そのデータに基づいて、3次元化計算部11、21、31および41で3次元画像データを算出することが可能である。
Further, instead of a stereo camera, for example, using a TOF (time-of-flight measurement) type three-dimensional distance measuring camera using infrared rays, an image of the target area and distance information can be obtained. Based on the data, Three-dimensional image data can be calculated by the three-
TOF方式の3次元距離測定カメラは、CMOSセンサあるいはCCDセンサを構成する複数の画素の1つ1つが所定の空間内の物体までの距離をする構成となっている。 A TOF type three-dimensional distance measuring camera has a configuration in which each of a plurality of pixels constituting a CMOS sensor or a CCD sensor measures a distance to an object in a predetermined space.
3 運転状況把握部
4 状況把握部
5 統合部
8 仮想カメラ姿勢決定部
9 障害物判定部
10 注視点位置情報変更部
70 視点位置変更部
SC1〜SC4 ステレオカメラ
DESCRIPTION OF SYMBOLS 3 Driving condition grasping part 4 Situation grasping part 5 Integration part 8 Virtual camera attitude | position determination part 9
Claims (13)
前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、
前記第1の3次元画像データの座標系を、前記移動体を基準とする移動体座標系に変換して第2の3次元画像データとする座標変換部と、
前記第2の3次元画像データと、前記移動体の3次元モデルのデータとを統合した統合データを生成する統合部と、
前記移動体座標系において前記移動体の外側に仮想的に配置された仮想カメラで前記統合データを観測した俯瞰画像データを生成する画像生成部と、
前記仮想カメラの視点位置を変更する視点位置変更部と、
視点位置を変更された前記仮想カメラの姿勢を決定する仮想カメラ姿勢決定部と、を備え、
前記仮想カメラ姿勢決定部は、
前記仮想カメラの視点位置変更時には、変更された前記視点位置と前記仮想カメラが注視すべき注視点とを結ぶベクトルとして設定される仮想カメラ視線方向ベクトルと、前記移動体座標系の何れかの軸方向と関連付けられた仮想カメラ上方向ベクトルとを用いて、前記仮想カメラが前記仮想カメラ視線方向ベクトルの方向を向くと共に前記俯瞰画像データの上方向が前記仮想カメラ上方向ベクトルの方向と合うように前記仮想カメラの姿勢を決定し、
前記統合部は、
前記仮想カメラの姿勢および変更された前記視点位置に基づいて前記統合データを生成する、周辺表示装置。 A plurality of cameras that acquire peripheral image data in a self-propelled moving object;
A three-dimensional calculation unit that calculates first three-dimensional image data based on the image data;
A coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system based on the moving body to obtain second 3D image data;
An integration unit that generates integrated data obtained by integrating the second three-dimensional image data and the data of the three-dimensional model of the moving body;
An image generation unit that generates overhead image data obtained by observing the integrated data with a virtual camera virtually disposed outside the moving body in the moving body coordinate system;
A viewpoint position changing unit for changing the viewpoint position of the virtual camera;
A virtual camera posture determination unit that determines the posture of the virtual camera whose viewpoint position has been changed,
The virtual camera posture determination unit
When changing the viewpoint position of the virtual camera, a virtual camera line-of-sight direction vector set as a vector connecting the changed viewpoint position and the gazing point to be watched by the virtual camera , and any axis of the moving body coordinate system The virtual camera upward direction vector associated with the direction is used so that the virtual camera faces the direction of the virtual camera line-of-sight direction vector and the upward direction of the overhead image data matches the direction of the virtual camera upward direction vector. Determine the attitude of the virtual camera;
The integration unit
A peripheral display device that generates the integrated data based on an attitude of the virtual camera and the changed viewpoint position.
前記移動体の前記3次元モデル上に予め設定された注視点位置情報によって規定される、請求項1記載の周辺表示装置。 The position of the gaze point is
The peripheral display device according to claim 1, which is defined by gaze point position information set in advance on the three-dimensional model of the moving body.
前記注視点位置情報は、
前記運転状況データに基づいて変更される、請求項4記載の周辺表示装置。 A driving condition grasping unit that outputs driving condition data relating to the driving condition of the moving object to the gazing point position information changing unit;
The gazing point position information is
The peripheral display device according to claim 4, wherein the peripheral display device is changed based on the driving situation data.
前記移動体の前進および後退を含む運転状態のデータを有し、
前記注視点位置情報は、
前記運転状態のデータに基づいて変更される、請求項5記載の周辺表示装置。 The driving situation data is
Having data on the driving state including forward and backward movement of the moving body;
The gazing point position information is
The peripheral display device according to claim 5, wherein the peripheral display device is changed based on the data of the operation state.
前記移動体の直進および右左折を制御する操舵角情報を有し、
前記注視点位置情報は、
前記操舵角情報に基づいて連続的に変更される、請求項5記載の周辺表示装置。 The driving situation data is
Steering angle information for controlling straight travel and right / left turn of the moving body,
The gazing point position information is
The peripheral display device according to claim 5, which is continuously changed based on the steering angle information.
前記注視点位置情報は、前記障害物データに基づいて変更される、請求項4記載の周辺表示装置。 Based on the image data obtained by the plurality of cameras, the presence / absence of an obstacle on the road surface is determined, and information on the relative position to the obstacle is output to the gazing point position information changing unit as obstacle data. An obstacle determination unit;
The peripheral display device according to claim 4, wherein the gazing point position information is changed based on the obstacle data.
前記障害物データに基づいて、前記障害物の位置を包含する領域を計算し、該領域の中心位置に最も近い注視点が選ばれるように前記注視点位置情報を変更する、請求項8記載の周辺表示装置。 The gazing point position information changing unit
9. The area including the position of the obstacle is calculated based on the obstacle data, and the gazing point position information is changed so that the gazing point closest to the center position of the area is selected. Peripheral display device.
前記注視点位置情報は、前記環境状況データに基づいて変更される、請求項4記載の周辺表示装置。 Based on the image data obtained by the plurality of cameras, further comprising an environmental situation grasping unit that grasps the environmental situation around the moving body and outputs the environmental situation data to the gazing point position information changing unit,
The peripheral display device according to claim 4, wherein the gazing point position information is changed based on the environmental situation data.
前記画像データの明度に基づいて得られた、夜間および昼間の何れであるかのデータを有し、
前記注視点位置情報は、夜間の場合と昼間の場合とで変更される、請求項10記載の周辺表示装置。 The environmental status data is
Having data on whether it is nighttime or daytime obtained based on the brightness of the image data;
The peripheral display device according to claim 10, wherein the gazing point position information is changed between night time and daytime.
前記移動体の前記3次元モデルを中心とした半球を仮想的に設定し、前記半球上での緯度および経度を指定することで前記仮想カメラの前記視点位置を変更する、請求項1記載の周辺表示装置。 The viewpoint position changing unit
The periphery according to claim 1, wherein a hemisphere centered on the three-dimensional model of the moving body is virtually set, and the viewpoint position of the virtual camera is changed by specifying latitude and longitude on the hemisphere. Display device.
前記移動体の前記3次元モデルから前記仮想カメラが遠ざかる方向、および近づく方向に前記視点位置を変更する、請求項1記載の周辺表示装置。 The viewpoint position changing unit
The peripheral display device according to claim 1, wherein the viewpoint position is changed in a direction in which the virtual camera moves away from and a direction in which the virtual camera moves away from the three-dimensional model of the moving body.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009145971A JP5412979B2 (en) | 2009-06-19 | 2009-06-19 | Peripheral display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009145971A JP5412979B2 (en) | 2009-06-19 | 2009-06-19 | Peripheral display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011004201A JP2011004201A (en) | 2011-01-06 |
JP5412979B2 true JP5412979B2 (en) | 2014-02-12 |
Family
ID=43561773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009145971A Expired - Fee Related JP5412979B2 (en) | 2009-06-19 | 2009-06-19 | Peripheral display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5412979B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8915948B2 (en) | 2002-06-19 | 2014-12-23 | Palomar Medical Technologies, Llc | Method and apparatus for photothermal treatment of tissue at depth |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5273068B2 (en) * | 2010-02-26 | 2013-08-28 | 三菱自動車工業株式会社 | Vehicle periphery monitoring device |
EP2511137B1 (en) * | 2011-04-14 | 2019-03-27 | Harman Becker Automotive Systems GmbH | Vehicle Surround View System |
JP5799631B2 (en) * | 2011-07-20 | 2015-10-28 | 日産自動車株式会社 | VEHICLE IMAGE GENERATION DEVICE AND VEHICLE IMAGE GENERATION METHOD |
DE102012200731A1 (en) * | 2012-01-19 | 2013-07-25 | Robert Bosch Gmbh | Method and device for visualizing the environment of a vehicle |
JP5977130B2 (en) * | 2012-09-25 | 2016-08-24 | 富士通テン株式会社 | Image generation apparatus, image display system, and image generation method |
JP6262644B2 (en) * | 2014-12-19 | 2018-01-17 | 日立建機株式会社 | Work machine ambient monitoring device |
WO2017061230A1 (en) * | 2015-10-08 | 2017-04-13 | 日産自動車株式会社 | Display assistance device and display assistance method |
JP6679939B2 (en) * | 2016-01-13 | 2020-04-15 | 株式会社Jvcケンウッド | Vehicle display device and vehicle display method |
JP6597415B2 (en) * | 2016-03-07 | 2019-10-30 | 株式会社デンソー | Information processing apparatus and program |
JP6962397B2 (en) * | 2016-03-15 | 2021-11-05 | 株式会社デンソー | Display control device and display control method |
JP6723820B2 (en) | 2016-05-18 | 2020-07-15 | 株式会社デンソーテン | Image generation apparatus, image display system, and image display method |
JP2018063294A (en) * | 2016-10-11 | 2018-04-19 | アイシン精機株式会社 | Display control device |
US11225193B2 (en) | 2017-10-26 | 2022-01-18 | Harman International Industries, Incorporated | Surround view system and method thereof |
JP2019125193A (en) * | 2018-01-17 | 2019-07-25 | アイシン精機株式会社 | Periphery monitoring device |
JPWO2019142660A1 (en) * | 2018-01-19 | 2021-03-04 | ソニー株式会社 | Image processing device, image processing method, and program |
JPWO2023105842A1 (en) * | 2021-12-06 | 2023-06-15 | ||
WO2023157155A1 (en) * | 2022-02-17 | 2023-08-24 | 三菱電機株式会社 | Imaging planning device and imaging planning method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000238594A (en) * | 1998-12-25 | 2000-09-05 | Aisin Aw Co Ltd | Driving support system |
EP1179958B1 (en) * | 1999-04-16 | 2012-08-08 | Panasonic Corporation | Image processing device and monitoring system |
JP2003102002A (en) * | 2001-09-26 | 2003-04-04 | Clarion Co Ltd | Method and apparatus for supervising surrounding of vehicle, and signal processing apparatus |
JP2006060425A (en) * | 2004-08-18 | 2006-03-02 | Olympus Corp | Image generating method and apparatus thereof |
JP2006119843A (en) * | 2004-10-20 | 2006-05-11 | Olympus Corp | Image forming method, and apparatus thereof |
JP2008174075A (en) * | 2007-01-18 | 2008-07-31 | Xanavi Informatics Corp | Vehicle periphery-monitoring device, and its displaying method |
-
2009
- 2009-06-19 JP JP2009145971A patent/JP5412979B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8915948B2 (en) | 2002-06-19 | 2014-12-23 | Palomar Medical Technologies, Llc | Method and apparatus for photothermal treatment of tissue at depth |
Also Published As
Publication number | Publication date |
---|---|
JP2011004201A (en) | 2011-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5412979B2 (en) | Peripheral display device | |
US7554461B2 (en) | Recording medium, parking support apparatus and parking support screen | |
CA3069114C (en) | Parking assistance method and parking assistance device | |
JP5057936B2 (en) | Bird's-eye image generation apparatus and method | |
KR102490272B1 (en) | A method for displaying the surrounding area of a vehicle | |
KR20190047027A (en) | How to provide a rearview mirror view of the vehicle's surroundings in the vehicle | |
JP2005335410A (en) | Image display device | |
JP2012198149A (en) | Single-eye head-mounted display | |
JP5914114B2 (en) | Parking assistance device and parking assistance method | |
JP2005242606A (en) | Image generation system, image generation program and image generation method | |
JP2016134001A (en) | Image generation apparatus, image generation method, and program | |
US9162621B2 (en) | Parking support apparatus | |
JP2008236403A (en) | Driving support device for vehicle | |
JP5977130B2 (en) | Image generation apparatus, image display system, and image generation method | |
JP2014197817A (en) | Image generation apparatus, image display system and image generation method | |
JPWO2019216087A1 (en) | Image processors, mobile devices, and methods, and programs | |
JP5299101B2 (en) | Peripheral display device | |
JP6890288B2 (en) | Image processing equipment, image display system and image processing method | |
JP2009152966A (en) | Image display system and camera output control method | |
JP7000383B2 (en) | Image processing device and image processing method | |
JP5479639B2 (en) | Image processing apparatus, image processing system, and image processing method | |
JP2005269010A (en) | Image creating device, program and method | |
JP2012065225A (en) | In-vehicle image processing apparatus, periphery monitoring apparatus, and vehicle | |
KR20170065738A (en) | Apparatus for controlling head up display and method thereof | |
KR20130071842A (en) | Apparatus and method for providing environment information of vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130214 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20130415 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131015 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131028 |
|
LAPS | Cancellation because of no payment of annual fees |