JP2012025327A - Image display system, image processing apparatus, and image display method - Google Patents

Image display system, image processing apparatus, and image display method Download PDF

Info

Publication number
JP2012025327A
JP2012025327A JP2010168007A JP2010168007A JP2012025327A JP 2012025327 A JP2012025327 A JP 2012025327A JP 2010168007 A JP2010168007 A JP 2010168007A JP 2010168007 A JP2010168007 A JP 2010168007A JP 2012025327 A JP2012025327 A JP 2012025327A
Authority
JP
Japan
Prior art keywords
vehicle
image
peripheral
display system
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010168007A
Other languages
Japanese (ja)
Other versions
JP5622986B2 (en
Inventor
Akinari Motohiro
彬翔 元廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2010168007A priority Critical patent/JP5622986B2/en
Publication of JP2012025327A publication Critical patent/JP2012025327A/en
Application granted granted Critical
Publication of JP5622986B2 publication Critical patent/JP5622986B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique to show to a user situations of a plurality of peripheral areas comparatively largely within a limited screen.SOLUTION: With an image display system, a plurality of peripheral areas to be shown around the same time to a user are selected by an area selection part out of peripheral areas of a vehicle as attention areas. Then the plurality of vehicle peripheral images which show the plurality of peripheral areas selected as attention areas are switched one by one and are displayed in the same display area PA in the screen D1 of a display. Consequently size of each vehicle peripheral image to be displayed can be enlarged comparatively, since there is no need to simultaneously display the plurality of these vehicle peripheral images side by side in the screen of the display. As a result, situations of each peripheral area can be comparatively largely shown to the user in a limited display screen.

Description

本発明は、車両において画像を表示する技術に関する。   The present invention relates to a technique for displaying an image in a vehicle.

従来より、自動車などの車両に搭載され、車載カメラで車両の周辺を撮影して得られた画像を車室内のディスプレイに表示する画像表示システムが知られている。この画像表示システムを利用することにより、ユーザ(代表的にはドライバ)は車両の周辺の様子をほぼリアルタイムに把握することができる。   2. Description of the Related Art Conventionally, there is known an image display system that is mounted on a vehicle such as an automobile and displays an image obtained by photographing the periphery of the vehicle with an in-vehicle camera on a display in the vehicle interior. By using this image display system, a user (typically a driver) can grasp the situation around the vehicle almost in real time.

例えば、運転席の逆側となるフロントフェンダの外側領域は運転席から死角となりやすく、車体と障害物との間のクリアランスをユーザが把握しにくい。これに対して、画像表示システムを利用すれば、車載カメラの撮影によりフロントフェンダの外側領域を示す画像が取得され、その画像が車室内のディスプレイに表示される。これにより、車両の幅寄せを行う場合などにおいて、運転席の逆側の車体と障害物との間のクリアランスをユーザが容易に確認できることとなる。   For example, the outer region of the front fender that is on the opposite side of the driver's seat is likely to be a blind spot from the driver's seat, and it is difficult for the user to grasp the clearance between the vehicle body and the obstacle. On the other hand, if the image display system is used, an image showing the outer region of the front fender is acquired by photographing with the in-vehicle camera, and the image is displayed on the display in the vehicle interior. As a result, the user can easily confirm the clearance between the vehicle body on the opposite side of the driver's seat and the obstacle, for example, when the vehicle is brought close.

また、車両の異なる位置に配置された複数の車載カメラで得られる複数の撮影画像を利用して、車両の周辺の一部の周辺領域を拡大して表示可能な画像表示システムも提案されている(例えば、特許文献1参照。)。このような画像表示システムを利用すれば、注目すべき車両の周辺領域をユーザが詳細に確認することができる。   There has also been proposed an image display system capable of enlarging and displaying a part of the peripheral area around the vehicle using a plurality of captured images obtained by a plurality of in-vehicle cameras arranged at different positions of the vehicle. (For example, refer to Patent Document 1). By using such an image display system, the user can confirm in detail the surrounding area of the vehicle to be noted.

特開2009−93485号公報JP 2009-93485 A

ところで、上記特許文献1の技術では、拡大して表示可能な周辺領域は同時期に一つのみである。しかしながら、実際の車両の走行中においては、同時期に複数の周辺領域の状況をユーザが確認すべき場面が生じる。例えば、車両の前方の周辺領域と後方の周辺領域との双方に障害物が存在するような場合である。   By the way, in the technique of the above-mentioned Patent Document 1, there is only one peripheral area that can be enlarged and displayed at the same time. However, during the actual traveling of the vehicle, there is a scene where the user should confirm the situation of the plurality of surrounding areas at the same time. For example, there are obstacles in both the front peripheral area and the rear peripheral area of the vehicle.

これに対応するため、例えば、ユーザが確認すべき複数の周辺領域をそれぞれ示す複数の画像を表示装置の画面内に並べて同時に表示することが考えられる。しかしこの場合は、複数の画像それぞれの表示サイズが小さくなり、ユーザが周辺領域の様子を詳細に確認しにくくなる可能性がある。   In order to cope with this, for example, it is conceivable that a plurality of images respectively indicating a plurality of peripheral regions to be confirmed by the user are arranged in the screen of the display device and displayed simultaneously. However, in this case, the display size of each of the plurality of images is reduced, and it may be difficult for the user to confirm the state of the surrounding area in detail.

本発明は、上記課題に鑑みてなされたものであり、限られた画面内において、複数の周辺領域の様子を比較的大きくユーザに示すことができる技術を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a technique capable of showing a user a relatively large state of a plurality of peripheral areas within a limited screen.

上記課題を解決するため、請求項1の発明は、車両に搭載される画像表示システムであって、前記車両に配置されたカメラで得られる撮影画像から、前記車両の周辺の一部の周辺領域を示す車両周辺画像を生成する生成手段と、前記車両のユーザに同時期に示すべき複数の周辺領域を選択する選択手段と、前記複数の周辺領域それぞれを示す複数の車両周辺画像を、順次に切り替えて画面内の同一の表示領域に表示する表示手段と、を備えている。   In order to solve the above-described problem, the invention of claim 1 is an image display system mounted on a vehicle, wherein a peripheral region of a part of the periphery of the vehicle is obtained from a captured image obtained by a camera disposed on the vehicle. Generating means for generating a vehicle peripheral image showing the vehicle, selection means for selecting a plurality of peripheral areas to be shown to the user of the vehicle at the same time, and a plurality of vehicle peripheral images showing each of the plurality of peripheral areas Display means for switching and displaying in the same display area in the screen.

また、請求項2の発明は、請求項1に記載の画像表示システムにおいて、前記表示手段は、前記複数の車両周辺画像を繰り返し表示する。   According to a second aspect of the present invention, in the image display system according to the first aspect, the display means repeatedly displays the plurality of vehicle surrounding images.

また、請求項3の発明は、請求項1または2に記載の画像表示システムにおいて、前記生成手段は、複数のカメラで得られる撮影画像から、任意の視点からみた前記周辺領域を示す前記車両周辺画像を生成可能である。   According to a third aspect of the present invention, in the image display system according to the first or second aspect, the generating means indicates the periphery of the vehicle indicating the peripheral area viewed from an arbitrary viewpoint from captured images obtained by a plurality of cameras. An image can be generated.

また、請求項4の発明は、請求項3に記載の画像表示システムにおいて、前記表示手段は、前記車両周辺画像を切り替える際に、切り替え前の前記車両周辺画像の視点の位置から切り替え後の前記車両周辺画像の視点の位置まで前記視点の位置が移動するアニメーション表現を行う。   According to a fourth aspect of the present invention, in the image display system according to the third aspect, when the display unit switches the vehicle peripheral image, the display unit after switching from the viewpoint position of the vehicle peripheral image before switching. An animation expression in which the position of the viewpoint moves to the position of the viewpoint of the vehicle peripheral image is performed.

また、請求項5の発明は、請求項4に記載の画像表示システムにおいて、前記視点の位置が移動する場合における前記視点の移動速度は、該視点の位置が移動の起点及び終点のいずれかに近いほど遅く、該視点の位置が移動の起点及び終点から離れるほど速い。   Further, in the image display system according to claim 4, when the position of the viewpoint moves, the moving speed of the viewpoint is set to be either the starting point or the ending point of the movement. The closer the position is, the slower the position of the viewpoint is, and the faster the position is away from the starting and end points of the movement.

また、請求項6の発明は、請求項1ないし5のいずれかに記載の画像表示システムにおいて、前記複数の車両周辺画像は、画角が同一である。   According to a sixth aspect of the present invention, in the image display system according to any of the first to fifth aspects, the plurality of vehicle peripheral images have the same angle of view.

また、請求項7の発明は、請求項1ないし6のいずれかに記載の画像表示システムにおいて、前記車両の周辺に存在する物体を検出した検出結果を取得する取得手段、をさらに備え、前記選択手段は、前記検出結果が示す前記物体の位置に基づいて前記複数の周辺領域を選択する。   The invention according to claim 7 is the image display system according to any one of claims 1 to 6, further comprising acquisition means for acquiring a detection result obtained by detecting an object existing around the vehicle, wherein the selection is performed. The means selects the plurality of peripheral regions based on the position of the object indicated by the detection result.

また、請求項8の発明は、請求項7に記載の画像表示システムにおいて、前記検出結果は、前記車両からの前記物体の距離を含み、前記複数の周辺領域それぞれの前記複数の車両周辺画像の表示における優先度を、前記物体の距離に基づいて設定する設定手段と、を備えている。   The invention according to claim 8 is the image display system according to claim 7, wherein the detection result includes a distance of the object from the vehicle, and the plurality of vehicle peripheral images of each of the plurality of peripheral regions. Setting means for setting a display priority based on the distance of the object.

また、請求項9の発明は、請求項8に記載の画像表示システムにおいて、前記設定手段は、前記周辺領域に存在する物体の距離が近いほど、該周辺領域の優先度を高くする。   According to a ninth aspect of the present invention, in the image display system according to the eighth aspect, the setting means increases the priority of the peripheral area as the distance of the object existing in the peripheral area is shorter.

また、請求項10の発明は、請求項1ないし6のいずれかに記載の画像表示システムにおいて、前記車両の周辺に存在する物体の種類を判別する判別手段と、前記複数の周辺領域それぞれの前記複数の車両周辺画像の表示における優先度を、前記物体の種類に基づいて設定する設定手段と、をさらに備え。   The invention according to claim 10 is the image display system according to any one of claims 1 to 6, wherein the discriminating means for discriminating the type of an object existing around the vehicle, and each of the plurality of surrounding areas Setting means for setting a priority in displaying a plurality of vehicle periphery images based on the type of the object.

また、請求項11の発明は、請求項1ないし6のいずれかに記載の画像表示システムにおいて、前記車両の複数の走行状態それぞれに適した複数の表示モードを切り替える切替手段、を備え、前記選択手段は、現時点の前記表示モードに応じて前記複数の周辺領域を選択する。   The invention according to claim 11 is the image display system according to any one of claims 1 to 6, further comprising switching means for switching a plurality of display modes suitable for each of a plurality of driving states of the vehicle, wherein the selection is performed. The means selects the plurality of peripheral regions according to the current display mode.

また、請求項12の発明は、車両に搭載される表示装置に表示させる画像を生成する画像処理装置であって、前記車両に配置されたカメラで得られる撮影画像から、前記車両の周辺の一部の周辺領域を示す車両周辺画像を生成する生成手段と、前記車両のユーザに同時期に示すべき複数の周辺領域を選択する選択手段と、前記複数の周辺領域それぞれを示す複数の車両周辺画像を前記表示装置に出力して、順次に切り替えて前記表示装置の画面内の同一の表示領域に表示させる出力手段と、を備えている。   According to a twelfth aspect of the present invention, there is provided an image processing device for generating an image to be displayed on a display device mounted on a vehicle, wherein one of the surroundings of the vehicle is obtained from a photographed image obtained by a camera disposed on the vehicle. Generating means for generating a vehicle peripheral image indicating a peripheral area of the unit, selecting means for selecting a plurality of peripheral areas to be shown to the user of the vehicle at the same time, and a plurality of vehicle peripheral images indicating each of the plurality of peripheral areas Are output to the display device, and are sequentially switched and displayed on the same display area in the screen of the display device.

また、請求項13の発明は、車両において画像を表示する画像表示方法であって、前記車両に配置されたカメラで得られる撮影画像から、前記車両の周辺の一部の周辺領域を示す車両周辺画像を生成する工程と、前記車両のユーザに同時期に示すべき複数の周辺領域を選択する工程と、前記複数の周辺領域それぞれを示す複数の車両周辺画像を、順次に切り替えて画面内の同一の表示領域に表示する工程と、を備えている。   The invention according to claim 13 is an image display method for displaying an image in a vehicle, the vehicle periphery showing a part of the peripheral region around the vehicle from a photographed image obtained by a camera arranged in the vehicle The step of generating an image, the step of selecting a plurality of peripheral regions to be shown to the user of the vehicle at the same time, and the plurality of vehicle peripheral images showing each of the plurality of peripheral regions are sequentially switched to be the same in the screen And displaying in the display area.

請求項1ないし13の発明によれば、ユーザに同時期に示すべき複数の周辺領域それぞれを示す複数の車両周辺画像が、順次に切り替えて画面内の同一の表示領域に表示される。これにより、限られた画面内において、複数の周辺領域の様子を比較的大きくユーザに示すことができる。   According to the first to thirteenth aspects, a plurality of vehicle peripheral images showing a plurality of peripheral regions to be shown to the user at the same time are sequentially switched and displayed in the same display region on the screen. Thereby, the state of a plurality of peripheral areas can be shown relatively large to the user within a limited screen.

また、特に請求項2の発明によれば、複数の周辺領域の様子の変化をユーザが把握することができる。   In particular, according to the invention of claim 2, the user can grasp the change in the state of the plurality of peripheral regions.

また、特に請求項3の発明によれば、把握しやすい視点からみた周辺領域をユーザに示すことができる。   In particular, according to the invention of claim 3, it is possible to show the user a peripheral region viewed from a viewpoint that is easy to grasp.

また、特に請求項4の発明によれば、切り替え前の車両周辺画像の視点の位置から切り替え後の車両周辺画像の視点の位置まで視点の位置が移動するアニメーション表現を行うため、切り替え後の車両周辺画像がいずれの周辺領域を示しているかをユーザが直感的に把握できる。   In particular, according to the invention of claim 4, the vehicle after the switching is performed in order to perform animation expression in which the position of the viewpoint moves from the position of the viewpoint of the vehicle peripheral image before the switching to the position of the viewpoint of the vehicle peripheral image after the switching. The user can intuitively grasp which peripheral area the peripheral image indicates.

また、特に請求項5の発明によれば、視点の移動の起点及び終点の位置をユーザが把握しやすくなり、ユーザに示すべき周辺領域にユーザの注意を向けさせることができる。   In particular, according to the fifth aspect of the present invention, the user can easily grasp the starting and ending positions of the viewpoint movement, and the user's attention can be directed to the peripheral area to be shown to the user.

また、特に請求項6の発明によれば、同一の表示領域に表示される複数の車両周辺画像の画角が同一であるため、切り替え後の車両周辺画像が示す周辺領域の広さをユーザが直感的に把握できる。   In particular, according to the sixth aspect of the invention, since the angle of view of the plurality of vehicle peripheral images displayed in the same display area is the same, the user can determine the size of the peripheral area indicated by the vehicle peripheral image after switching. Intuitive grasp.

また、特に請求項7の発明によれば、車両の周辺に存在する物体の位置に基づいて周辺領域を選択するため、ユーザが注意すべき物体の様子をユーザに示すことができる。   Further, according to the seventh aspect of the present invention, since the peripheral area is selected based on the positions of the objects existing around the vehicle, it is possible to indicate to the user the state of the object that the user should be aware of.

また、特に請求項8の発明によれば、物体の距離に基づいて優先度を設定するため、ユーザが注意すべき物体を示す車両周辺画像を優先的に表示することができる。   In addition, according to the invention of claim 8 in particular, since the priority is set based on the distance of the object, it is possible to preferentially display the vehicle peripheral image indicating the object that the user should be aware of.

また、特に請求項9の発明によれば、ユーザが注意すべき車両に近い物体を示す車両周辺画像を優先的に表示することができる。   In particular, according to the ninth aspect of the present invention, it is possible to preferentially display a vehicle peripheral image showing an object close to the vehicle that the user should be aware of.

また、特に請求項10の発明によれば、ユーザが注意すべき種類の物体を示す車両周辺画像を優先的に表示することができる。   In particular, according to the tenth aspect of the present invention, it is possible to preferentially display a vehicle peripheral image indicating a type of object that the user should be aware of.

また、特に請求項11の発明によれば、複数の走行状態それぞれに適した周辺領域をユーザに示すことができる。   In particular, according to the invention of claim 11, it is possible to indicate to the user a peripheral area suitable for each of a plurality of traveling states.

図1は、第1の実施の形態の画像表示システムの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an image display system according to the first embodiment. 図2は、車載カメラが車両に配置される位置を示す図である。FIG. 2 is a diagram illustrating a position where the in-vehicle camera is arranged in the vehicle. 図3は、ソナーシステムの構成を主に示す図である。FIG. 3 is a diagram mainly showing the configuration of the sonar system. 図4は、クリアランスソナーが車両に配置される位置を示す図である。FIG. 4 is a diagram showing a position where the clearance sonar is arranged in the vehicle. 図5は、合成画像を生成する手法を説明するための図である。FIG. 5 is a diagram for explaining a method of generating a composite image. 図6は、全体俯瞰画像を表示するディスプレイの画面を示す図である。FIG. 6 is a diagram showing a screen of a display that displays the whole overhead view image. 図7は、後方駐車を行う場合における車両の動きの一例を示す図である。FIG. 7 is a diagram illustrating an example of the movement of the vehicle when the rear parking is performed. 図8は、縦列駐車を行う場合における車両の動きの一例を示す図である。FIG. 8 is a diagram illustrating an example of the movement of the vehicle when performing parallel parking. 図9は、2つの車両周辺画像を表示するディスプレイの画面を示す図である。FIG. 9 is a diagram showing a screen of a display that displays two vehicle peripheral images. 図10は、3つの車両周辺画像を表示するディスプレイの画面を示す図である。FIG. 10 is a diagram showing a screen of a display that displays three vehicle peripheral images. 図11は、第1の実施の形態の周辺表示モードにおける動作の流れを示す図である。FIG. 11 is a diagram illustrating an operation flow in the peripheral display mode according to the first embodiment. 図12は、注目領域表示処理の詳細な流れを示す図である。FIG. 12 is a diagram showing a detailed flow of attention area display processing. 図13は、縦列駐車を行う場合における車両の一状態を示す図である。FIG. 13 is a diagram illustrating a state of the vehicle when parallel parking is performed. 図14は、車両周辺画像を切り替える際に表示される画像を示す図である。FIG. 14 is a diagram illustrating an image displayed when the vehicle periphery image is switched. 図15は、速度係数の変化を示す図である。FIG. 15 is a diagram illustrating changes in the speed coefficient. 図16は、第2の実施の形態の画像表示システムの構成を示す図である。FIG. 16 is a diagram illustrating a configuration of an image display system according to the second embodiment. 図17は、車両の周辺に2つの物体が存在した状態を示す図である。FIG. 17 is a diagram illustrating a state in which two objects exist around the vehicle. 図18は、第2の実施の形態の優先度を設定する処理の流れを示す図である。FIG. 18 is a diagram illustrating a flow of processing for setting priorities according to the second embodiment. 図19は、第3の実施の形態の画像表示システムの構成を示す図である。FIG. 19 is a diagram illustrating a configuration of an image display system according to the third embodiment. 図20は、画像表示システムの表示モードの遷移を示す図である。FIG. 20 is a diagram illustrating transition of display modes of the image display system. 図21は、第3の実施の形態の周辺表示モードにおける動作の流れを示す図である。FIG. 21 is a diagram illustrating an operation flow in the peripheral display mode according to the third embodiment. 図22は、後方駐車モードにおいて選択される周辺領域を示す図である。FIG. 22 is a diagram illustrating a peripheral area selected in the rear parking mode. 図23は、縦列駐車モードにおいて選択される周辺領域を示す図である。FIG. 23 is a diagram illustrating a peripheral area selected in the parallel parking mode. 図24は、すれ違いモードにおいて選択される周辺領域を示す図である。FIG. 24 is a diagram illustrating a peripheral region selected in the passing mode. 図25は、すれ違いモードにおけるディスプレイの画面を示す図である。FIG. 25 is a diagram showing a display screen in the passing mode. 図26は、全体俯瞰画像と車両周辺画像とを同時表示した場合の例を示す図である。FIG. 26 is a diagram illustrating an example in which an overall overhead view image and a vehicle peripheral image are displayed simultaneously.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1の実施の形態>
<1−1.システム構成>
図1は、第1の実施の形態の画像表示システム120の構成を示すブロック図である。この画像表示システム120は、車両(本実施の形態では、自動車)に搭載されるものであり、車両の周辺を撮影して画像を生成して車室内に表示する機能を有している。画像表示システム120のユーザ(代表的にはドライバ)は、この画像表示システム120を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できるようになっている。
<1. First Embodiment>
<1-1. System configuration>
FIG. 1 is a block diagram illustrating a configuration of an image display system 120 according to the first embodiment. This image display system 120 is mounted on a vehicle (in this embodiment, an automobile), and has a function of photographing the periphery of the vehicle, generating an image, and displaying the image in the passenger compartment. By using this image display system 120, a user (typically a driver) of the image display system 120 can grasp the state around the vehicle in almost real time.

図1に示すように、画像表示システム120は、車両の周辺の様子を示す画像を生成する画像処理装置100と、車両に乗車するユーザに対して各種情報を表示するナビゲーション装置20とを主に備えている。画像処理装置100で生成された画像は、ナビゲーション装置20において表示される。   As shown in FIG. 1, the image display system 120 mainly includes an image processing device 100 that generates an image showing a state around a vehicle, and a navigation device 20 that displays various types of information to a user who gets on the vehicle. I have. An image generated by the image processing apparatus 100 is displayed on the navigation apparatus 20.

ナビゲーション装置20は、ユーザに対しナビゲーション案内を行うものであり、タッチパネル機能を備えた液晶などのディスプレイ21と、ユーザが操作を行うハードスイッチなどで構成される操作部22と、装置全体を制御する制御部23とを備えている。ディスプレイ21の画面がユーザから視認可能なように、ナビゲーション装置20は車両のインストルメントパネルなどに設置される。ユーザの各種の指示は、操作部22とタッチパネルとしてのディスプレイ21とによって受け付けられる。制御部23は、CPU、RAM及びROMなどを備えたコンピュータで構成され、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。   The navigation device 20 provides navigation guidance to the user, and controls the display 21 such as a liquid crystal provided with a touch panel function, an operation unit 22 including a hard switch that is operated by the user, and the entire device. And a control unit 23. The navigation device 20 is installed on an instrument panel or the like of the vehicle so that the screen of the display 21 is visible from the user. Various user instructions are received by the operation unit 22 and the display 21 as a touch panel. The control unit 23 is configured by a computer including a CPU, a RAM, a ROM, and the like, and various functions including a navigation function are realized by the CPU performing arithmetic processing according to a predetermined program.

ナビゲーション装置20は、画像処理装置100と通信可能に接続され、画像処理装置100との間で各種の制御信号の送受信や、画像処理装置100で生成された画像の受信が可能となっている。ディスプレイ21には、制御部23の制御により、通常はナビゲーション装置20単体の機能に基づく画像が表示されるが、動作モードを変更することで画像処理装置100で生成された車両の周辺の様子を示す画像が表示される。これにより、ナビゲーション装置20は、画像処理装置100で生成された画像を受信して表示する表示装置としても機能する。   The navigation apparatus 20 is communicably connected to the image processing apparatus 100, and can transmit and receive various control signals to and from the image processing apparatus 100 and receive images generated by the image processing apparatus 100. An image based on the function of the navigation device 20 alone is normally displayed on the display 21 under the control of the control unit 23, but the state around the vehicle generated by the image processing device 100 by changing the operation mode is displayed. The image shown is displayed. Thereby, the navigation device 20 also functions as a display device that receives and displays the image generated by the image processing device 100.

画像処理装置100は、その本体部10が画像を生成する機能を有するECU(Electronic Control Unit)として構成され、車両の所定の位置に配置される。画像処理装置100は、車両の周辺を撮影する撮影部5を備えており、この撮影部5で車両の周辺を撮影して得られる撮影画像に基づいて仮想視点からみた合成画像を生成する画像生成装置として機能する。   The image processing apparatus 100 is configured as an ECU (Electronic Control Unit) whose main body 10 has a function of generating an image, and is arranged at a predetermined position of the vehicle. The image processing apparatus 100 includes an imaging unit 5 that captures the periphery of the vehicle. The image generation unit 5 generates a composite image viewed from a virtual viewpoint based on a captured image obtained by capturing the periphery of the vehicle. Functions as a device.

撮影部5は、本体部10に電気的に接続され、本体部10からの信号に基づいて動作する。撮影部5は、車載カメラであるフロントカメラ51、バックカメラ52、及び、サイドカメラ53を備えている。各車載カメラ51〜53は、レンズと撮像素子とを備えており電子的に画像を取得する。   The photographing unit 5 is electrically connected to the main body unit 10 and operates based on a signal from the main body unit 10. The photographing unit 5 includes a front camera 51, a back camera 52, and a side camera 53 that are in-vehicle cameras. Each of the in-vehicle cameras 51 to 53 includes a lens and an image sensor and electronically acquires an image.

これらの複数の車載カメラ51〜53は、車両の異なる位置にそれぞれ配置される。図2は、車載カメラ51〜53が車両9に配置される位置を示す図である。   The plurality of in-vehicle cameras 51 to 53 are respectively arranged at different positions of the vehicle. FIG. 2 is a diagram illustrating positions where the in-vehicle cameras 51 to 53 are arranged on the vehicle 9.

図2に示すように、フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向に向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向に向けられている。これらフロントカメラ51やバックカメラ52の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。また、サイドカメラ53は左右のドアミラー93にそれぞれ設けられ、その光軸53aは車両9の左右方向(直進方向に直交する方向)に沿って車両9の外側に向けられている。   As shown in FIG. 2, the front camera 51 is provided in the vicinity of the license plate mounting position at the front end of the vehicle 9, and its optical axis 51 a is directed in the straight traveling direction of the vehicle 9. The back camera 52 is provided in the vicinity of the license plate mounting position at the rear end of the vehicle 9, and its optical axis 52 a is directed in the direction opposite to the straight traveling direction of the vehicle 9. The mounting position of the front camera 51 and the back camera 52 is preferably at the substantially right and left center, but may be slightly shifted from the left and right center in the left and right direction. The side cameras 53 are provided on the left and right door mirrors 93, respectively, and the optical axis 53a thereof is directed to the outside of the vehicle 9 along the left-right direction of the vehicle 9 (direction orthogonal to the straight traveling direction).

これらの車載カメラ51〜53のレンズとしては魚眼レンズなどが採用されており、車載カメラ51〜53は180度以上の画角θを有している。このため、4つの車載カメラ51〜53を利用することで、車両9の全周囲の撮影が可能となっている。   A fish-eye lens or the like is adopted as the lens of these in-vehicle cameras 51 to 53, and the in-vehicle cameras 51 to 53 have an angle of view θ of 180 degrees or more. For this reason, the surroundings of the vehicle 9 can be image | photographed by utilizing the four vehicle-mounted cameras 51-53.

図1に戻り、画像処理装置100の本体部10は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して表示用の画像を生成する画像生成部3と、ナビゲーション装置20との間で通信を行うナビ通信部42とを主に備えている。   Returning to FIG. 1, the main body unit 10 of the image processing apparatus 100 includes a control unit 1 that controls the entire apparatus, an image generation unit 3 that processes a captured image acquired by the imaging unit 5 and generates an image for display. The navigation communication unit 42 that communicates with the navigation device 20 is mainly provided.

ナビゲーション装置20の操作部22やディスプレイ21によって受け付けられたユーザからの各種の指示は、制御信号としてナビ通信部42によって受け付けられて制御部1に入力される。これにより、画像処理装置100は、ナビゲーション装置20に対するユーザの操作に応答した動作が可能となっている。   Various instructions from the user received by the operation unit 22 or the display 21 of the navigation device 20 are received by the navigation communication unit 42 as control signals and input to the control unit 1. As a result, the image processing apparatus 100 can operate in response to a user operation on the navigation apparatus 20.

画像生成部3は、各種の画像処理が可能なハードウェア回路として構成されており、撮影画像調整部31、及び、合成画像生成部32を主な機能として備えている。   The image generation unit 3 is configured as a hardware circuit capable of various image processing, and includes a captured image adjustment unit 31 and a composite image generation unit 32 as main functions.

撮影画像調整部31は、撮影部5で取得された撮影画像を対象とした調整を行うものである。具体的には、撮影画像調整部31は、撮影画像に対して明るさ補正などの画像処理を行う。   The captured image adjustment unit 31 performs adjustment for the captured image acquired by the imaging unit 5. Specifically, the captured image adjustment unit 31 performs image processing such as brightness correction on the captured image.

合成画像生成部32は、撮影部5の複数の車載カメラ51〜53で取得されて撮影画像調整部31によって調整された複数の撮影画像に基づいて、車両の周辺の任意の仮想視点からみた車両の周辺の様子を示す合成画像を生成する。合成画像生成部32が合成画像を生成する手法については後述する。   The composite image generation unit 32 is a vehicle viewed from an arbitrary virtual viewpoint around the vehicle based on the plurality of captured images acquired by the plurality of in-vehicle cameras 51 to 53 of the imaging unit 5 and adjusted by the captured image adjustment unit 31. A composite image showing the state of the surrounding area is generated. A method by which the composite image generation unit 32 generates a composite image will be described later.

合成画像生成部32により生成された合成画像は、ナビ通信部42によってナビゲーション装置20に出力される。これにより、車両の周辺の少なくとも一部の領域を示す合成画像がナビゲーション装置20のディスプレイ21に表示されることになる。   The composite image generated by the composite image generation unit 32 is output to the navigation device 20 by the navigation communication unit 42. Thereby, a composite image showing at least a part of the area around the vehicle is displayed on the display 21 of the navigation device 20.

制御部1は、CPU、RAM及びROMなどを備えたコンピュータとして構成され、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す、画像制御部11、表示制御部12、領域選択部13及び優先度設定部14は、このようにして実現される制御部1の機能のうちの一部を示している。   The control unit 1 is configured as a computer including a CPU, a RAM, a ROM, and the like, and various control functions are realized by the CPU performing arithmetic processing according to a predetermined program. The image control unit 11, the display control unit 12, the region selection unit 13, and the priority setting unit 14 shown in the drawing show some of the functions of the control unit 1 realized in this way.

画像制御部11は、画像生成部3によって実行される画像処理に係る制御を行う。例えば、画像制御部11は、合成画像生成部32が生成する合成画像の生成に必要な各種パラメータなどを指示する。   The image control unit 11 performs control related to image processing executed by the image generation unit 3. For example, the image control unit 11 instructs various parameters necessary for generating a composite image generated by the composite image generation unit 32.

表示制御部12は、ナビゲーション装置20のディスプレイ21に表示する表示内容に係る制御を行う。また、領域選択部13は、車両の周辺に設定される複数の周辺領域のうちから、ユーザに示すべき周辺領域を選択する。また、優先度設定部14は、ユーザに示すべき周辺領域が複数ある場合に、それらの優先度を設定する。これら表示制御部12、領域選択部13及び優先度設定部14の具体的な処理内容については後述する。   The display control unit 12 performs control related to display contents displayed on the display 21 of the navigation device 20. Moreover, the area | region selection part 13 selects the surrounding area which should be shown to a user from the several surrounding areas set around the vehicle. Moreover, when there are a plurality of peripheral areas to be shown to the user, the priority setting unit 14 sets those priorities. Specific processing contents of the display control unit 12, the region selection unit 13, and the priority setting unit 14 will be described later.

また、画像処理装置100の本体部10は、不揮発性メモリ40、カード読取部44、及び、信号入力部41をさらに備えており、これらは制御部1に接続されている。   The main body 10 of the image processing apparatus 100 further includes a nonvolatile memory 40, a card reading unit 44, and a signal input unit 41, which are connected to the control unit 1.

不揮発性メモリ40は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ40には、視点データ4aが記憶されている。視点データ4aは、合成画像の仮想視点を定める際に利用される。   The nonvolatile memory 40 is configured by a flash memory or the like that can maintain stored contents even when the power is turned off. The nonvolatile memory 40 stores viewpoint data 4a. The viewpoint data 4a is used when determining the virtual viewpoint of the composite image.

カード読取部44は、可搬性の記録媒体であるメモリカードMCの読み取りを行う。カード読取部44は、メモリカードMCの着脱が可能なカードスロットを備えており、そのカードスロットに装着されたメモリカードMCに記録されたデータを読み取る。カード読取部44で読み取られたデータは、制御部1に入力される。   The card reading unit 44 reads a memory card MC that is a portable recording medium. The card reading unit 44 includes a card slot in which the memory card MC can be attached and detached, and reads data recorded on the memory card MC installed in the card slot. Data read by the card reading unit 44 is input to the control unit 1.

メモリカードMCは、種々のデータを記憶可能なフラッシュメモリなどで構成されており、画像処理装置100はメモリカードMCに記憶された種々のデータを利用できる。例えば、メモリカードMCにプログラムを記憶させ、これを読み出すことで、制御部1の機能を実現するプログラム(ファームウェア)を更新することが可能である。   The memory card MC is configured by a flash memory or the like capable of storing various data, and the image processing apparatus 100 can use various data stored in the memory card MC. For example, a program (firmware) that realizes the function of the control unit 1 can be updated by storing a program in the memory card MC and reading the program.

また、信号入力部41は、車両に設けられた各種装置からの信号を入力する。この信号入力部41を介して、画像表示システム120の外部からの信号が制御部1に入力される。本実施の形態では、車両の周辺に存在する物体を検出するソナーシステム7からの信号が信号入力部41を介して制御部1に入力される。   Moreover, the signal input part 41 inputs the signal from the various apparatuses provided in the vehicle. A signal from the outside of the image display system 120 is input to the control unit 1 via the signal input unit 41. In the present embodiment, a signal from the sonar system 7 that detects an object existing around the vehicle is input to the control unit 1 via the signal input unit 41.

<1−2.ソナーシステム>
図3は、このソナーシステム7の構成を主に示す図である。図に示すように、ソナーシステム7は、システム全体を統括するソナー制御部70と、複数のクリアランスソナー72と、車室内に警告音を発するブザー71とを備えている。
<1-2. Sonar system>
FIG. 3 is a diagram mainly showing the configuration of the sonar system 7. As shown in the figure, the sonar system 7 includes a sonar control unit 70 that controls the entire system, a plurality of clearance sonars 72, and a buzzer 71 that emits a warning sound in the passenger compartment.

クリアランスソナー72は、超音波を発射し、その超音波が物体で反射した反射波を受信することで、車両の周辺に存在する物体を検出する。また、クリアランスソナー72は、超音波を発射してから戻ってくるまでの時間に基づいて物体の距離を検出可能である。各クリアランスソナー72の検出結果は、ソナー制御部70に入力され、物体までの距離に応じてブザー71から警告音が出力される。これにより、ユーザは車両の周辺に物体が存在することを把握できる。   The clearance sonar 72 detects an object existing around the vehicle by emitting an ultrasonic wave and receiving a reflected wave reflected by the object. The clearance sonar 72 can detect the distance of the object based on the time from when the ultrasonic wave is emitted until it returns. The detection result of each clearance sonar 72 is input to the sonar control unit 70, and a warning sound is output from the buzzer 71 according to the distance to the object. Thereby, the user can grasp that an object exists around the vehicle.

図4は、複数のクリアランスソナー72が車両9に配置される位置を示す図である。複数のクリアランスソナー72は、車両9の前方の左右端部、及び、車両9の後方の左右端部にそれぞれ設けられている。   FIG. 4 is a diagram illustrating positions where a plurality of clearance sonars 72 are arranged on the vehicle 9. The plurality of clearance sonars 72 are respectively provided at the left and right end portions in front of the vehicle 9 and the left and right end portions in the rear of the vehicle 9.

各クリアランスソナー72は、車両9の周辺の一部の周辺領域A1〜A4に向けて超音波を発信する。具体的には、車両9の前方の左端部に設けられるクリアランスソナー72は、車両9の前方左側に設定される周辺領域(以下、「前方左側領域」という。)A1に向けて超音波を発信する。また、車両9の前方の右端部に設けられるクリアランスソナー72は、車両9の前方右側に設定される周辺領域(以下、「前方右側領域」という。)A2に向けて超音波を発信する。また、車両9の後方の左端部に設けられるクリアランスソナー72は、車両9の後方左側に設定される周辺領域(以下、「後方左側領域」という。)A3に向けて超音波を発信する。さらに、車両9の後方の右端部に設けられるクリアランスソナー72は、車両9の後方右側に設定される周辺領域(以下、「後方右側領域」という。)A4に向けて超音波を発信する。   Each clearance sonar 72 transmits an ultrasonic wave toward some peripheral areas A1 to A4 around the vehicle 9. Specifically, the clearance sonar 72 provided at the front left end of the vehicle 9 transmits ultrasonic waves toward a peripheral area (hereinafter referred to as “front left area”) A1 set on the front left side of the vehicle 9. To do. Further, the clearance sonar 72 provided at the right end portion in front of the vehicle 9 transmits an ultrasonic wave toward a peripheral area (hereinafter referred to as “front right area”) A <b> 2 set on the front right side of the vehicle 9. In addition, a clearance sonar 72 provided at the rear left end of the vehicle 9 transmits an ultrasonic wave toward a peripheral area (hereinafter referred to as “rear left area”) A3 set on the rear left side of the vehicle 9. Further, the clearance sonar 72 provided at the right end of the rear of the vehicle 9 transmits an ultrasonic wave toward a peripheral area (hereinafter referred to as “rear right area”) A4 set on the rear right side of the vehicle 9.

これら4つの周辺領域A1〜A4は、車両9に対して相対的に固定されて予め設定される。このようなクリアランスソナー72の配置により、ソナーシステム7では、4つの周辺領域A1〜A4に存在する物体の検出が可能となっている。ソナーシステム7は、物体を検出したクリアランスソナー72の位置に基づいて、検出した物体の位置が4つの周辺領域A1〜A4のいずれであるかを把握可能である。さらに、ソナーシステム7は、検出した物体の距離を把握することが可能である。   These four peripheral areas A1 to A4 are fixed relative to the vehicle 9 and set in advance. By arranging the clearance sonar 72 as described above, the sonar system 7 can detect objects existing in the four peripheral areas A1 to A4. The sonar system 7 can grasp which of the four peripheral areas A1 to A4 is the position of the detected object based on the position of the clearance sonar 72 that has detected the object. Further, the sonar system 7 can grasp the distance of the detected object.

このような物体の位置及び物体の距離を含むソナーシステム7の検出結果は、図3に示すように、ソナー制御部70から、画像処理装置100の制御部1に信号入力部41を介して入力される。そして、このソナーシステム7の検出結果は、制御部1の領域選択部13に利用されることになる。   The detection result of the sonar system 7 including the position of the object and the distance of the object is input from the sonar control unit 70 to the control unit 1 of the image processing apparatus 100 via the signal input unit 41 as shown in FIG. Is done. The detection result of the sonar system 7 is used for the area selection unit 13 of the control unit 1.

<1−3.画像合成処理>
次に、画像生成部3の合成画像生成部32が、撮影部5で得られた複数の撮影画像に基づいて車両9の周辺を任意の仮想視点からみた様子を示す合成画像を生成する手法について説明する。図5は、合成画像を生成する手法を説明するための図である。
<1-3. Image composition processing>
Next, a method in which the composite image generation unit 32 of the image generation unit 3 generates a composite image that shows how the periphery of the vehicle 9 is viewed from an arbitrary virtual viewpoint based on a plurality of captured images obtained by the imaging unit 5. explain. FIG. 5 is a diagram for explaining a method of generating a composite image.

撮影部5のフロントカメラ51、バックカメラ52及びサイドカメラ53で同時に撮影が行われると、車両9の前方、後方、左側方、及び、右側方をそれぞれ示す4つの撮影画像P1〜P4が取得される。すなわち、撮影部5で取得される4つの撮影画像P1〜P4には、撮影時点の車両9の全周囲を示す情報が含まれていることになる。   When the front camera 51, the back camera 52, and the side camera 53 of the photographing unit 5 are simultaneously photographed, four photographed images P1 to P4 that respectively indicate the front, rear, left side, and right side of the vehicle 9 are acquired. The That is, the four captured images P1 to P4 acquired by the imaging unit 5 include information indicating the entire periphery of the vehicle 9 at the time of shooting.

次に、4つの撮影画像P1〜P4の各画素が、仮想的な三次元空間における立体曲面SPに投影される。立体曲面SPは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両9が存在する位置として定められている。撮影画像P1〜P4に含まれる各画素の位置と、この立体曲面SPの各画素の位置とは予め対応関係が定められている。このため、立体曲面SPの各画素の値は、この対応関係と撮影画像P1〜P4に含まれる各画素の値とに基づいて決定できる。   Next, each pixel of the four captured images P1 to P4 is projected onto a three-dimensional curved surface SP in a virtual three-dimensional space. The three-dimensional curved surface SP has, for example, a substantially hemispherical shape (a bowl shape), and a center portion (a bottom portion of the bowl) is determined as a position where the vehicle 9 exists. The correspondence between the positions of the pixels included in the captured images P1 to P4 and the positions of the pixels of the solid curved surface SP is determined in advance. For this reason, the value of each pixel of the solid curved surface SP can be determined based on this correspondence and the value of each pixel included in the captured images P1 to P4.

撮影画像P1〜P4の各画素の位置と立体曲面SPの各画素の位置との対応関係は、車両9における4つの車載カメラ51〜53の配置(相互間距離、地上高さ、光軸角度等)に依存する。この対応関係を示すテーブルデータは、不揮発性メモリ40に予め記憶されている。   The correspondence between the positions of the pixels of the captured images P1 to P4 and the positions of the pixels of the three-dimensional curved surface SP is the arrangement of the four in-vehicle cameras 51 to 53 in the vehicle 9 (inter-distance, ground height, optical axis angle, etc. ). Table data indicating the correspondence is stored in advance in the nonvolatile memory 40.

また、不揮発性メモリ40に予め記憶された車体の形状やサイズを示すデータが利用され、車両9の三次元形状を示すポリゴンのモデルが仮想的に構成される。構成された車両9のモデルは、立体曲面SPが設定される三次元空間において、車両9の位置と定められた略半球状の中心部分に配置される。   Further, data indicating the shape and size of the vehicle body stored in advance in the nonvolatile memory 40 is used, and a polygon model indicating the three-dimensional shape of the vehicle 9 is virtually configured. The configured model of the vehicle 9 is arranged in a substantially hemispherical central portion determined as the position of the vehicle 9 in the three-dimensional space in which the three-dimensional curved surface SP is set.

さらに、立体曲面SPが存在する三次元空間に対して、制御部1により仮想視点VPが設定される。仮想視点VPは、視点位置と視野方向とで規定され、この三次元空間における車両9の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。   Further, the virtual viewpoint VP is set by the control unit 1 for the three-dimensional space where the solid curved surface SP exists. The virtual viewpoint VP is defined by the viewpoint position and the visual field direction, and is set to an arbitrary visual field position corresponding to the periphery of the vehicle 9 in this three-dimensional space toward an arbitrary visual field direction.

そして、設定された仮想視点VPに応じて、立体曲面SPにおける必要な領域が画像として切り出される。仮想視点VPと、立体曲面SPにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性メモリ40等に予め記憶されている。一方で、設定された仮想視点VPに応じてポリゴンのモデルに関してレンダリングがなされ、その結果となる二次元の車両の像が、切り出された画像に対して重畳される。これにより、車両9及びその車両9の周辺を任意の仮想視点VPからみた様子を示す合成画像が生成されることになる。   Then, according to the set virtual viewpoint VP, a necessary area on the three-dimensional curved surface SP is cut out as an image. The relationship between the virtual viewpoint VP and a necessary area in the three-dimensional curved surface SP is determined in advance, and is stored in advance in the nonvolatile memory 40 or the like as table data. On the other hand, rendering is performed on a polygon model according to the set virtual viewpoint VP, and the resulting two-dimensional vehicle image is superimposed on the cut-out image. Thereby, the composite image which shows a mode that the vehicle 9 and the periphery of the vehicle 9 were seen from arbitrary virtual viewpoints VP will be produced | generated.

例えば、視点位置が車両9の位置の略中央の直上位置で、視野方向が略直下方向とした仮想視点VPaを設定した場合は、車両9の略直上から車両9を見下ろすように、車両9及び車両9の周辺の領域を示す合成画像CPaが生成される。また、図中に示すように、視点位置が車両9の位置の左後方で、視野方向が車両9における略前方とした仮想視点VPbを設定した場合は、車両9の左後方からその周辺全体を見渡すように、車両9及び車両9の周辺の領域を示す合成画像CPbが生成される。   For example, when the virtual viewpoint VPa is set such that the viewpoint position is a position just above the center of the vehicle 9 and the viewing direction is a direction immediately below, the vehicle 9 and the vehicle 9 A composite image CPa that indicates an area around the vehicle 9 is generated. Also, as shown in the figure, when a virtual viewpoint VPb in which the viewpoint position is the left rear of the position of the vehicle 9 and the visual field direction is substantially in front of the vehicle 9 is set, the entire periphery from the left rear of the vehicle 9 is set. As seen, a composite image CPb indicating the vehicle 9 and the area around the vehicle 9 is generated.

なお、実際に合成画像を生成する場合においては、立体曲面SPの全ての画素の値を決定する必要はなく、設定された仮想視点VPに対応して必要となる領域の画素の値のみを撮影画像P1〜P4に基づいて決定することで、処理速度を向上できる。   In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface SP, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint VP are photographed. By determining based on the images P1 to P4, the processing speed can be improved.

画像表示システム120では、このような合成画像生成部32の機能を利用することで、車両9及び車両9の周辺全体を俯瞰して示す合成画像や、車両9の周辺の一部の周辺領域のみを示す合成画像などを生成し、ディスプレイ21に表示することができる。   In the image display system 120, by using such a function of the composite image generation unit 32, only the composite image showing the vehicle 9 and the entire periphery of the vehicle 9 as an overhead view, or only a part of the peripheral region around the vehicle 9. Can be generated and displayed on the display 21.

<1−4.周辺表示モード>
画像表示システム120は、ナビモードと周辺表示モードとの2つの動作モードを有している。これらの動作モードは、操作部22を介したユーザの操作に基づいて制御部1の制御により切り替えられる。
<1-4. Peripheral display mode>
The image display system 120 has two operation modes, a navigation mode and a peripheral display mode. These operation modes are switched by the control of the control unit 1 based on a user operation via the operation unit 22.

ナビモードは、ナビゲーション装置20の機能により、ナビゲーション案内用の地図画像などをディスプレイ21に表示する動作モードである。一方、周辺表示モードは、画像処理装置100の機能を利用して、合成画像をディスプレイ21に表示する動作モードである。周辺表示モードにおいては、この合成画像の表示により、車両9の周辺の様子がほぼリアルタイムでユーザに示される。   The navigation mode is an operation mode in which a map image for navigation guidance is displayed on the display 21 by the function of the navigation device 20. On the other hand, the peripheral display mode is an operation mode in which a composite image is displayed on the display 21 using the function of the image processing apparatus 100. In the peripheral display mode, the state of the periphery of the vehicle 9 is shown to the user almost in real time by displaying the composite image.

周辺表示モードでは、通常は、図6に示すように、車両9及び車両9の周辺全体を俯瞰して示す合成画像(以下、「全体俯瞰画像」という。)BPがディスプレイ21に表示される。ただし、特定の条件下では、図4の4つの周辺領域A1〜A4のうちの一または複数が選択され、選択された周辺領域のみの様子を示す合成画像(以下、「車両周辺画像」という。)がディスプレイ21に表示される。   In the peripheral display mode, normally, as shown in FIG. 6, a composite image (hereinafter referred to as an “overall bird's-eye view image”) BP showing a bird's-eye view of the vehicle 9 and the entire periphery of the vehicle 9 is displayed on the display 21. However, under specific conditions, one or more of the four peripheral areas A1 to A4 in FIG. 4 are selected, and a composite image showing only the selected peripheral area (hereinafter referred to as “vehicle peripheral image”). ) Is displayed on the display 21.

このような周辺領域を示す車両周辺画像の仮想視点の視点位置は当該周辺領域の中央の略直上に設定され、視野方向は略直下方向に向けられる。これにより、車両周辺画像では、上から見下ろすようにして周辺領域の様子が示される。各車両周辺画像においては、車両9の車体の一部が示される。このような各周辺領域A1〜A4に対応する仮想視点の視点位置は、不揮発性メモリ40に記憶された視点データ4aによって示される。   The viewpoint position of the virtual viewpoint of the vehicle peripheral image indicating such a peripheral region is set substantially directly above the center of the peripheral region, and the visual field direction is directed substantially downward. Thereby, in the vehicle peripheral image, the state of the peripheral region is shown as if looking down from above. In each vehicle peripheral image, a part of the vehicle body of the vehicle 9 is shown. The viewpoint position of the virtual viewpoint corresponding to each of the peripheral areas A1 to A4 is indicated by the viewpoint data 4a stored in the nonvolatile memory 40.

このように車両周辺画像としてユーザに示すべき周辺領域は、車両9の走行状態に応じて随時に変わることになる。また、車両9の走行状態によっては、ユーザに示すべき周辺領域が同時期に複数存在する場合もある。以下、後方駐車を行う場合、及び、縦列駐車を行う場合を例に、ユーザに示すべき周辺領域について説明する。なお以下、ユーザに示すべき周辺領域を「注目領域」という。   As described above, the surrounding area to be shown to the user as the vehicle surrounding image changes at any time according to the traveling state of the vehicle 9. Further, depending on the traveling state of the vehicle 9, there may be a plurality of peripheral areas to be shown to the user at the same time. Hereinafter, the surrounding area which should be shown to a user is demonstrated to the example when performing back parking and performing parallel parking. Hereinafter, the peripheral area to be shown to the user is referred to as “attention area”.

図7は、後方駐車を行う場合における車両9の動きの一例を示す図である。図7の例においては、車両9の状態は、第1状態ST11から、第2状態ST12を経て、最終的に第3状態ST13となる。   FIG. 7 is a diagram illustrating an example of the movement of the vehicle 9 when the rear parking is performed. In the example of FIG. 7, the state of the vehicle 9 changes from the first state ST11 to the third state ST13 through the second state ST12.

第1状態ST11においては、車両9の後方の左端部が他の車両99に近接している。このため、この場合は、後方左側領域A3が注目領域となる。   In the first state ST <b> 11, the rear left end portion of the vehicle 9 is close to another vehicle 99. For this reason, in this case, the rear left area A3 is the attention area.

また、第2状態ST12においては、車両9の後方の左端部、及び、車両9の後方の右端部が他の車両99に近接している。このため、この場合は、後方左側領域A3、及び、後方右側領域A4が注目領域となる。   In the second state ST <b> 12, the left end portion behind the vehicle 9 and the right end portion behind the vehicle 9 are close to the other vehicle 99. Therefore, in this case, the rear left area A3 and the rear right area A4 are the attention areas.

さらに、第3状態ST13においては、車両9の後方の左端部、及び、車両9の後方の右端部が他の車両99や駐車スペースの壁に近接している。このため、この場合も、後方左側領域A3、及び、後方右側領域A4が注目領域となる。   Further, in the third state ST13, the left end portion behind the vehicle 9 and the right end portion behind the vehicle 9 are close to other vehicles 99 and the walls of the parking space. For this reason, also in this case, the rear left region A3 and the rear right region A4 are attention regions.

このように後方駐車を行う場合においては、車両9の状態に応じて注目領域が変わる。そして、第2状態ST12や第3状態ST13においては、同時期に注目領域が2つ存在することになる。   Thus, in the case where the rear parking is performed, the attention area changes depending on the state of the vehicle 9. In the second state ST12 and the third state ST13, there are two regions of interest at the same time.

また、図8は、縦列駐車を行う場合における車両9の動きの一例を示す図である。図8の例においては、車両9の状態は、第1状態ST21から、第2状態ST22を経て、最終的に第3状態ST23となる。   FIG. 8 is a diagram illustrating an example of the movement of the vehicle 9 when performing parallel parking. In the example of FIG. 8, the state of the vehicle 9 changes from the first state ST21 to the second state ST22 and finally to the third state ST23.

第1状態ST21においては、車両9の後方の左端部が他の車両99に近接している。このため、この場合は、後方左側領域A3が注目領域となる。   In the first state ST21, the rear left end of the vehicle 9 is close to another vehicle 99. For this reason, in this case, the rear left area A3 is the attention area.

また、第2状態ST22においては、車両9の前方の左端部、及び、車両9の後方の左端部が他の車両99や駐車スペースの壁に近接している。このため、この場合は、前方左側領域A1、及び、後方左側領域A3が注目領域となる。   Moreover, in 2nd state ST22, the left end part of the front of the vehicle 9 and the left end part of the back of the vehicle 9 are adjoining to the wall of the other vehicle 99 or a parking space. For this reason, in this case, the front left region A1 and the rear left region A3 are attention regions.

さらに、第3状態ST23においては、車両9の前方の左端部、車両9の後方の左端部、及び、車両9の後方の右端部が他の車両99や駐車スペースの壁に近接している。このため、この場合は、前方左側領域A1、後方左側領域A3、及び、後方右側領域A4が注目領域となる。   Further, in the third state ST23, the left end portion in front of the vehicle 9, the left end portion in the rear of the vehicle 9, and the right end portion in the rear of the vehicle 9 are close to other vehicles 99 and the walls of the parking space. For this reason, in this case, the front left region A1, the rear left region A3, and the rear right region A4 are attention regions.

このように縦列駐車を行う場合においても、車両9の状態に応じて注目領域が変わる。そして、第2状態ST22においては同時期に注目領域が2つ存在し、第3状態ST13においては同時期に注目領域が3つ存在することになる。   Even when parallel parking is performed in this manner, the attention area changes depending on the state of the vehicle 9. In the second state ST22, there are two regions of interest at the same time, and in the third state ST13, there are three regions of interest at the same time.

このような注目領域は、領域選択部13によって選択される。領域選択部13は、ソナーシステム7の検出結果が示す物体の位置に基づいて、物体(他の車両99や駐車スペースの壁を含む)が存在している周辺領域を注目領域として選択する。これにより、車両の走行状態に応じて適切な周辺領域が注目領域として選択されることになる。領域選択部13は、車両のユーザに同時期に示すべき複数の周辺領域を注目領域として選択することが可能である。   Such a region of interest is selected by the region selector 13. Based on the position of the object indicated by the detection result of the sonar system 7, the area selection unit 13 selects a peripheral area where an object (including another vehicle 99 or a parking space wall) is present as the attention area. Thus, an appropriate peripheral area is selected as the attention area according to the traveling state of the vehicle. The area selection unit 13 can select a plurality of peripheral areas to be shown to the user of the vehicle at the same time as the attention area.

そして、複数の周辺領域が注目領域として選択された場合は、表示制御部12の制御により、それらの複数の周辺領域のそれぞれを示す複数の車両周辺画像が順次にディスプレイ21に表示される。   When a plurality of peripheral areas are selected as the attention area, a plurality of vehicle peripheral images indicating each of the plurality of peripheral areas are sequentially displayed on the display 21 under the control of the display control unit 12.

図9は、図8に示す第2状態ST22において、ディスプレイ21に表示される画面の例を示す図である。第2状態ST22においては、前方左側領域A1、及び、後方左側領域A3の2つの周辺領域が、注目領域として領域選択部13に選択される。このため、ディスプレイ21の画面D1においては、前方左側領域A1を示す車両周辺画像BP1と、後方左側領域A3を示す車両周辺画像BP3とが交互に切り替えられつつ繰り返し表示される。この車両周辺画像BP1と車両周辺画像BP3とは、画面D1の同一の表示領域PAに表示されることになる。また、車両周辺画像BP1及び車両周辺画像BP3の画角は同一である。   FIG. 9 is a diagram showing an example of a screen displayed on the display 21 in the second state ST22 shown in FIG. In the second state ST22, two peripheral regions, the front left region A1 and the rear left region A3, are selected by the region selection unit 13 as attention regions. For this reason, on the screen D1 of the display 21, the vehicle peripheral image BP1 indicating the front left region A1 and the vehicle peripheral image BP3 indicating the rear left region A3 are repeatedly displayed while being alternately switched. The vehicle surrounding image BP1 and the vehicle surrounding image BP3 are displayed in the same display area PA of the screen D1. Further, the field angles of the vehicle peripheral image BP1 and the vehicle peripheral image BP3 are the same.

また、図10は、図8に示す第3状態ST23において、ディスプレイ21に表示される画面の例を示す図である。第3状態ST23においては、前方左側領域A1、後方左側領域A3及び後方右側領域A4の3つの周辺領域が、注目領域として領域選択部13に選択される。このため、ディスプレイ21の画面D1においては、前方左側領域A1を示す車両周辺画像BP1と、後方左側領域A3を示す車両周辺画像BP3と、後方右側領域A4を示す車両周辺画像BP4とが順次に切り替えて繰り返し表示される。これら3つの車両周辺画像BP1,BP3,BP4は、画面D1の同一の表示領域PAに表示される。また、3つの車両周辺画像BP1,BP3,BP4の画角は同一である。   FIG. 10 is a diagram showing an example of a screen displayed on the display 21 in the third state ST23 shown in FIG. In the third state ST23, the three peripheral regions of the front left region A1, the rear left region A3, and the rear right region A4 are selected by the region selection unit 13 as attention regions. Therefore, on the screen D1 of the display 21, a vehicle peripheral image BP1 showing the front left region A1, a vehicle peripheral image BP3 showing the rear left region A3, and a vehicle peripheral image BP4 showing the rear right region A4 are sequentially switched. Repeatedly displayed. These three vehicle peripheral images BP1, BP3, and BP4 are displayed in the same display area PA of the screen D1. Further, the three vehicle peripheral images BP1, BP3, and BP4 have the same angle of view.

このように画像表示システム120では、注目領域として選択された複数の周辺領域それぞれを示す複数の車両周辺画像が、順次に切り替えてディスプレイ21の画面D1内の同一の表示領域PAに表示される。このため、これらの複数の車両周辺画像をディスプレイ21の画面内に同時に並べて表示する必要は無いため、表示する各車両周辺画像のサイズを比較的大きくすることができる。その結果、限られたディスプレイ21の画面内において、各周辺領域の様子を比較的大きくユーザに示すことができる。   As described above, in the image display system 120, a plurality of vehicle peripheral images indicating the plurality of peripheral regions selected as the attention region are sequentially switched and displayed on the same display region PA in the screen D1 of the display 21. For this reason, since it is not necessary to display these several vehicle periphery images side by side simultaneously on the screen of the display 21, the size of each vehicle periphery image to display can be made comparatively large. As a result, the state of each peripheral area can be shown to the user relatively large in the limited screen of the display 21.

また、ディスプレイ21においては、注目領域として選択された複数の周辺領域それぞれを示す複数の車両周辺画像が繰り返し表示されるため、各周辺領域の様子の変化をユーザが適切に把握することが可能である。   In addition, since a plurality of vehicle peripheral images indicating the plurality of peripheral areas selected as the attention area are repeatedly displayed on the display 21, the user can appropriately grasp the change in the state of each peripheral area. is there.

また、切り替えられる複数の車両周辺画像の画角は同一である。したがって、複数の車両周辺画像に被写体像として含まれる周辺領域の広さは同一となる。このため、複数の車両周辺画像を切り替えたとしても、車両周辺画像に示される周辺領域の広さは変わらないため、切り替え後の車両周辺画像が示す周辺領域の広さをユーザが直感的に把握することができる。   The angle of view of the plurality of vehicle periphery images to be switched is the same. Therefore, the peripheral areas included in the plurality of vehicle peripheral images as subject images are the same. For this reason, even if a plurality of vehicle peripheral images are switched, the size of the peripheral region shown in the vehicle peripheral image does not change, so the user intuitively grasps the size of the peripheral region indicated by the vehicle peripheral image after switching. can do.

<1−5.動作の流れ>
次に、画像表示システム120の周辺表示モードにおける動作の流れを説明する。図11は、この周辺表示モードにおける動作の流れを示す図である。
<1-5. Flow of operation>
Next, an operation flow in the peripheral display mode of the image display system 120 will be described. FIG. 11 is a diagram showing an operation flow in the peripheral display mode.

まず、領域選択部13が、ソナーシステム7の検出結果に基づいて注目領域を選択する。前述のように領域選択部13は、4つの周辺領域A1〜A4のうちで、ソナーシステム7の検出結果が示す物体の位置に基づいて、物体が存在している周辺領域を注目領域として選択する。ただし、物体が存在している周辺領域が無い場合は、いずれの周辺領域も注目領域として選択されない(ステップS11)。   First, the region selection unit 13 selects a region of interest based on the detection result of the sonar system 7. As described above, the region selection unit 13 selects, from among the four peripheral regions A1 to A4, the peripheral region where the object exists as the attention region based on the position of the object indicated by the detection result of the sonar system 7. . However, if there is no surrounding area where the object exists, no surrounding area is selected as the attention area (step S11).

領域選択部13によりいずれの周辺領域も注目領域として選択されなかった場合は、ユーザに拡大して特に示すべき周辺領域が存在しない。このため、この場合は(ステップS12にてNo)、表示制御部12の制御により、図6に示すようなデフォルト表示がなされる。すなわち、ディスプレイ21の画面D1に全体俯瞰画像BPが表示される(ステップS16)。   If no peripheral region is selected as a region of interest by the region selection unit 13, there is no peripheral region that should be enlarged and shown to the user. Therefore, in this case (No in step S12), the default display as shown in FIG. 6 is performed under the control of the display control unit 12. That is, the whole overhead view image BP is displayed on the screen D1 of the display 21 (step S16).

一方、領域選択部13により周辺領域が注目領域として選択された場合は(ステップS12にてYes)、次に、注目領域が複数あるか否かが判断される(ステップS13)。注目領域が一つの場合は(ステップS13にてNo)、処理はそのままステップS15へ進み、注目領域を示す車両周辺画像をディスプレイ21に表示する注目領域表示処理が、表示制御部12の制御によりなされる。   On the other hand, when the peripheral area is selected as the attention area by the area selection unit 13 (Yes in step S12), it is next determined whether or not there are a plurality of attention areas (step S13). If there is only one region of interest (No in step S13), the process proceeds to step S15 as it is, and region-of-interest display processing for displaying a vehicle peripheral image indicating the region of interest on the display 21 is performed under the control of the display control unit 12. The

一方、注目領域が複数の場合は(ステップS13にてNo)、複数の注目領域それぞれの優先度が優先度設定部14により設定される。この優先度は、当該注目領域を示す車両周辺画像を表示する順序を規定するものであり、順序数(1,2,3,…)で表現される。なお、本明細書において「優先度が高い」という表現をする場合は、順序数の値自体は小さくなる。   On the other hand, when there are a plurality of attention areas (No in step S13), the priority setting unit 14 sets the priority of each of the plurality of attention areas. This priority prescribes the order in which the vehicle peripheral images indicating the region of interest are displayed, and is expressed by the order number (1, 2, 3,...). In the present specification, when the expression “high priority” is used, the value of the order number itself is small.

優先度設定部14は、ソナーシステム7の検出結果が示す物体の距離に基づいて優先度を設定する。具体的には、各注目領域で検出された物体の距離が参照され、物体の距離が近い注目領域から順に優先度が高くされる。すなわち、注目領域に存在する物体の距離が近いほど、当該注目領域の優先度が高くされる(ステップS14)。このようにして優先度が設定されると処理はステップS15へ進み、注目領域を示す車両周辺画像をディスプレイ21に表示する注目領域表示処理が、表示制御部12の制御によりなされる。   The priority setting unit 14 sets the priority based on the distance of the object indicated by the detection result of the sonar system 7. Specifically, the distance of the object detected in each attention area is referred to, and the priority is increased in order from the attention area where the distance of the object is closest. That is, the closer the distance between the objects existing in the attention area is, the higher the priority of the attention area is (step S14). When the priority is set in this way, the process proceeds to step S15, and attention area display processing for displaying a vehicle peripheral image indicating the attention area on the display 21 is performed under the control of the display control unit 12.

この注目領域表示処理が行われると、処理はステップS11に戻り、上記と同様の処理が繰り返される。これにより、常にその時点で車両の周辺に存在している物体に合わせて適切な周辺領域が注目領域として選択され、当該注目領域を示す車両周辺画像がディスプレイ21に表示される。したがって、車両9の走行状態に応じて適切な周辺領域がユーザに示されることになる。   When this attention area display processing is performed, the processing returns to step S11, and the same processing as described above is repeated. As a result, an appropriate peripheral area is always selected as the attention area in accordance with an object existing around the vehicle at that time, and a vehicle peripheral image indicating the attention area is displayed on the display 21. Therefore, an appropriate peripheral area is shown to the user according to the traveling state of the vehicle 9.

次に、注目領域表示処理(ステップS15)について説明する。図12は、注目領域表示処理の詳細な流れを示す図である。   Next, attention area display processing (step S15) will be described. FIG. 12 is a diagram showing a detailed flow of attention area display processing.

まず、変数Pに1が代入される(P=1)(ステップS21)。次に、制御部1が備えるタイマ機能によって計時が開始される(ステップS22)。   First, 1 is assigned to the variable P (P = 1) (step S21). Next, timing is started by the timer function provided in the control unit 1 (step S22).

次に、優先度が”P”の注目領域の仮想視点の視点位置が、視点データ4aに基づいて取得される。この場合は、P=1であるため、優先度が最も高い注目領域の視点位置が取得される(ステップS23)。   Next, the viewpoint position of the virtual viewpoint of the attention area having the priority “P” is acquired based on the viewpoint data 4a. In this case, since P = 1, the viewpoint position of the attention area with the highest priority is acquired (step S23).

そして、合成画像生成部32により、この仮想視点からみた優先度が”P”の注目領域を示す車両周辺画像が生成され、ディスプレイ21に表示される。すなわち、優先度が最も高い注目領域を示す車両周辺画像がディスプレイ21に表示されることになる(ステップS24)。   Then, the composite image generation unit 32 generates a vehicle peripheral image indicating the attention area having the priority “P” as viewed from the virtual viewpoint, and displays it on the display 21. That is, the vehicle peripheral image indicating the attention area with the highest priority is displayed on the display 21 (step S24).

そして、ステップS22の計時開始から所定時間(例えば2秒)が経過するまで(ステップS26にてNo)、所定のフレームレート(例えば、30fps)で、優先度が”P”の注目領域の車両周辺画像が繰り返し生成されてディスプレイ21に表示される(ステップS24)。これにより、優先度が”P”の注目領域の様子が、所定時間(例えば2秒間)、ほぼリアルタイムにユーザに示されることになる。所定時間が経過すると(ステップS26にてYes)、処理はステップS28へ進む。   Then, until a predetermined time (for example, 2 seconds) elapses from the start of the time measurement in step S22 (No in step S26), the vehicle surroundings of the attention area having a priority of “P” at a predetermined frame rate (for example, 30 fps) An image is repeatedly generated and displayed on the display 21 (step S24). As a result, the state of the attention area having the priority “P” is displayed to the user in substantially real time for a predetermined time (for example, 2 seconds). When the predetermined time has elapsed (Yes in step S26), the process proceeds to step S28.

また、ステップS22の計時開始から所定時間(例えば2秒)が経過するまで(ステップS26にてNo)においては、ユーザは操作部22を介して所定の操作を行って「停止指示」を行うことができる。この「停止指示」がなされた場合(ステップS25にてYes)は、計時時間にかかわらず、優先度が”P”の注目領域の車両周辺画像が繰り返し生成されてディスプレイ21に表示される(ステップS24)。   Further, until a predetermined time (for example, 2 seconds) elapses from the start of time measurement in Step S22 (No in Step S26), the user performs a predetermined operation via the operation unit 22 and gives a “stop instruction”. Can do. When this “stop instruction” is given (Yes in step S25), the vehicle peripheral image of the attention area with the priority “P” is repeatedly generated and displayed on the display 21 regardless of the time keeping time (step 21). S24).

このような「停止指示」の後の車両周辺画像の表示は、ユーザから操作部22を介して「停止解除指示」がなされるまで継続される(ステップS27にてNo)。これにより、所定時間以上、優先度が”P”の注目領域の様子が、ほぼリアルタイムにユーザに示されることになる。したがって、ユーザは、所望の周辺領域の様子を十分に確認することができる。「停止解除指示」がなされると(ステップS27にてYes)、処理はステップS28へ進む。   The display of the vehicle peripheral image after such a “stop instruction” is continued until a “stop release instruction” is issued from the user via the operation unit 22 (No in step S27). As a result, the state of the attention area having the priority “P” for a predetermined time or more is shown to the user in substantially real time. Therefore, the user can sufficiently confirm the state of the desired peripheral area. If a “stop cancellation instruction” is issued (Yes in step S27), the process proceeds to step S28.

ステップS28においては、変数Pが、選択された注目領域の数を示す変数Nよりも小さいか否かが判断される。変数Pが変数Nより小さい場合(P<N)は(ステップS28にてYes)、切り替えて表示すべき注目領域が存在する場合である。したがって、この場合は、続いて、次に優先度が高い注目領域(すなわち、優先度が”P+1”の注目領域)の車両周辺画像が切り替えてディスプレイ21に表示されることになる。   In step S28, it is determined whether or not the variable P is smaller than a variable N indicating the number of selected attention areas. When the variable P is smaller than the variable N (P <N) (Yes in step S28), there is a region of interest to be switched and displayed. Therefore, in this case, the vehicle peripheral image of the attention area having the next highest priority (that is, the attention area having the priority “P + 1”) is switched and displayed on the display 21.

この車両周辺画像の切り替えの際には、まず、優先度が”P+1”の注目領域の視点位置が、視点データ4aに基づいて取得される(ステップS29)。そして、優先度が”P”の注目領域の視点位置から、優先度が”P+1”の注目領域の視点位置まで、表示する車両周辺画像の仮想視点の視点位置を段階的に移動させるアニメーション表現がディスプレイ21において行われる(ステップS30)。このアニメーション表現の詳細については後述する。   When switching the vehicle peripheral image, first, the viewpoint position of the attention area having the priority “P + 1” is acquired based on the viewpoint data 4a (step S29). An animation expression that gradually moves the viewpoint position of the virtual viewpoint of the vehicle periphery image to be displayed from the viewpoint position of the attention area with the priority “P” to the viewpoint position of the attention area with the priority “P + 1”. This is performed on the display 21 (step S30). Details of this animation expression will be described later.

その後、変数Pがインクリメントされ(P=P+1)(ステップS31)、処理はステップS22に戻る。これにより、次に優先度が高い注目領域の車両周辺画像がディスプレイ21に表示され、この注目領域の様子が、所定時間(例えば2秒間)、ほぼリアルタイムにユーザに示されることになる。   Thereafter, the variable P is incremented (P = P + 1) (step S31), and the process returns to step S22. As a result, the vehicle peripheral image of the attention area having the next highest priority is displayed on the display 21, and the state of the attention area is shown to the user almost in real time for a predetermined time (for example, 2 seconds).

このような処理が、選択された全ての注目領域に関して繰り返される。これにより、全ての注目領域の車両周辺画像がディスプレイ21に順次に切り替えて表示されることになる。全ての注目領域の車両周辺画像が表示されると、ステップS28において、変数Pが変数Nと一致し(P=N)(ステップS28にてNo)、注目領域表示処理が終了することになる。   Such a process is repeated for all selected regions of interest. As a result, the vehicle periphery images of all the attention areas are sequentially switched and displayed on the display 21. When the vehicle peripheral images of all the attention areas are displayed, in step S28, the variable P matches the variable N (P = N) (No in step S28), and the attention area display processing ends.

このように画像表示システム120では、物体の距離に基づいて優先度が設定される。そして、物体の距離が近いほど注目領域の優先度が高くされ、優先度が高い注目領域から順に車両周辺画像がディスプレイ21に表示される。このため、ユーザが注意すべき車両に近い物体を示す車両周辺画像を優先的に表示することができる。   Thus, in the image display system 120, the priority is set based on the distance of the object. The priority of the attention area is increased as the object distance is shorter, and the vehicle peripheral images are displayed on the display 21 in order from the attention area having the higher priority. For this reason, the vehicle periphery image which shows the object close | similar to the vehicle which a user should pay attention to can be displayed preferentially.

<1−6.視点位置の移動>
表示する車両周辺画像を切り替える際(ステップS30)には、仮想視点の視点位置を段階的に移動させるアニメーション表現がなされる。以下、このアニメーション表現について、図8に示す第2状態ST22の場合を例に説明する。
<1-6. Moving the viewpoint position>
When the vehicle periphery image to be displayed is switched (step S30), an animation expression for moving the viewpoint position of the virtual viewpoint in stages is performed. Hereinafter, this animation expression will be described taking the case of the second state ST22 shown in FIG. 8 as an example.

図13は、第2状態ST22を拡大して示す図である。前述のように、この第2状態ST22においては、前方左側領域A1及び後方左側領域A3が注目領域として選択される。そして、ディスプレイ21においては、図9に示すように、前方左側領域A1を示す車両周辺画像BP1と、後方左側領域A3を示す車両周辺画像BP3とが交互に切り替えられつつ表示される。   FIG. 13 is an enlarged view of the second state ST22. As described above, in the second state ST22, the front left area A1 and the rear left area A3 are selected as the attention areas. On the display 21, as shown in FIG. 9, a vehicle peripheral image BP1 showing the front left region A1 and a vehicle peripheral image BP3 showing the rear left region A3 are displayed while being switched alternately.

表示する車両周辺画像を車両周辺画像BP1から車両周辺画像BP3に切り替える際には、前方左側領域A1の中央の位置Vppから後方左側領域A3の中央の位置Vpfに視点位置が瞬時に切り替わるわけではなく、図13に示すように、位置Vppから位置Vpfまで視点位置が段階的かつ連続的に移動される。なお、図13においては、移動途中の段階の視点位置を2つのみ例示しているが、実際には移動途中の段階の視点位置は多数存在している。そして、このように視点位置が段階的に移動する仮想視点に基づいて複数の車両周辺画像が生成され、ディスプレイ21に表示される。   When the vehicle peripheral image to be displayed is switched from the vehicle peripheral image BP1 to the vehicle peripheral image BP3, the viewpoint position does not instantly switch from the center position Vpp of the front left region A1 to the center position Vpf of the rear left region A3. As shown in FIG. 13, the viewpoint position is moved stepwise and continuously from the position Vpp to the position Vpf. In FIG. 13, only two viewpoint positions in the middle of movement are illustrated, but actually there are many viewpoint positions in the middle of movement. Then, a plurality of vehicle peripheral images are generated based on the virtual viewpoint in which the viewpoint position moves stepwise in this way and displayed on the display 21.

これにより、図14に示すように、車両周辺画像BP1と車両周辺画像BP3との間において、視点位置の移動中に生成された複数の車両周辺画像BPaが時間的に連続してディスプレイ21に表示される。その結果、ディスプレイ21において、車両周辺画像に示される車両9の周辺の領域が段階的に変わるアニメーション表現がなされることになる。このようなアニメーション表現を行うことで、切り替え後の車両周辺画像がいずれの周辺領域を示しているかをユーザが直感的に把握できることになる。   As a result, as shown in FIG. 14, a plurality of vehicle peripheral images BPa generated during movement of the viewpoint position are displayed on the display 21 in succession between the vehicle peripheral image BP1 and the vehicle peripheral image BP3. Is done. As a result, on the display 21, an animation expression in which the area around the vehicle 9 shown in the vehicle surrounding image changes step by step is performed. By performing such animation expression, the user can intuitively grasp which peripheral region the vehicle peripheral image after switching indicates.

このような視点位置の移動は、所定時間(例えば1秒間)かけて複数のフレームを利用して行われる。以下、各フレームの車両周辺画像の仮想視点の視点位置の決定手法について説明する。   Such movement of the viewpoint position is performed using a plurality of frames over a predetermined time (for example, 1 second). Hereinafter, a method for determining the viewpoint position of the virtual viewpoint of the vehicle peripheral image of each frame will be described.

この説明においては、仮想視点の視点位置を表現するために、図13に示すように車両9に相対的に固定される2次元直交座標系(XY座標系)の座標を採用する。仮想視点の移動の起点となる位置Vpp(前方左側領域A1の中央)の座標は(Xp,Yp)とし、仮想視点の移動の終点となる位置Vfp(後方左側領域A3の中央)の座標は(Xf,Yf)であるとする。そして、移動途中の視点位置をVpmとする。また、視点位置の移動にかける時間をT(s)とし、フレームレートをF(fps)とする。   In this description, in order to express the viewpoint position of the virtual viewpoint, coordinates of a two-dimensional orthogonal coordinate system (XY coordinate system) fixed relative to the vehicle 9 as shown in FIG. 13 are adopted. The coordinates of the position Vpp (center of the front left area A1) as the starting point of the movement of the virtual viewpoint are (Xp, Yp), and the coordinates of the position Vfp (center of the rear left area A3) as the end point of the movement of the virtual viewpoint are ( Xf, Yf). The viewpoint position in the middle of movement is set to Vpm. Further, the time taken to move the viewpoint position is T (s), and the frame rate is F (fps).

仮想視点のX軸方向の移動距離Dx及びY軸方向の移動距離Dyはそれぞれ、次の式(1)及び式(2)で導出できる。   The movement distance Dx in the X-axis direction and the movement distance Dy in the Y-axis direction of the virtual viewpoint can be derived from the following expressions (1) and (2), respectively.

Dx=Xf−Xp …(1)
Dy=Yf−Yp …(2)
また、X軸方向の1フレームあたりの平均移動量mx、及び、Y軸方向の1フレームあたりの平均移動量myはそれぞれ、次の式(3)及び式(4)で導出できる。
Dx = Xf−Xp (1)
Dy = Yf−Yp (2)
Further, the average movement amount mx per frame in the X-axis direction and the average movement amount my per frame in the Y-axis direction can be derived from the following equations (3) and (4), respectively.

mx=Dx/(F・T) …(3)
my=Dy/(F・T) …(4)
そして、移動途中の視点位置VpmのX座標のX、及び、Y座標のYは、次の式(5)及び式(6)で導出することができる。
mx = Dx / (F · T) (3)
my = Dy / (F · T) (4)
Then, the X coordinate X n and the Y coordinate Y n of the viewpoint position Vpm in the middle of movement can be derived by the following equations (5) and (6).

=Xn−1+α・mx …(5)
=Yn−1+α・my …(6)
式(5)及び式(6)におけるXn−1及びYn−1は、1フレーム前の視点位置VpmのX座標及びY座標をそれぞれ示している。また、αは、仮想視点の移動速度を規定する速度係数である。この速度係数αは、視点位置の移動において平均して1となるように設定される。
Xn = Xn-1 + [alpha] .mx (5)
Y n = Y n-1 + α · my (6)
X n−1 and Y n−1 in the equations (5) and (6) indicate the X coordinate and the Y coordinate of the viewpoint position Vpm one frame before, respectively. Α is a speed coefficient that defines the moving speed of the virtual viewpoint. This speed coefficient α is set to be 1 on average in the movement of the viewpoint position.

図15は、速度係数αの変化を示す図である。図中の横軸は仮想視点の移動の移動開始からの時間、縦軸は速度係数αを示している。図に示すように、速度係数αは、仮想視点の移動開始の直後は低いが、移動における中間時点(T/2の時点)において最も高くなり、その後は低くなる。したがって、仮想視点の移動速度は、視点位置が移動の起点Vpp及び終点Vfpのいずれかに近いほど遅くなる。そして、仮想視点の移動速度は、視点位置が移動の起点Vpp及び終点Vfpから離れるほど速くなり、移動の起点Vpp及び終点Vfpの中間位置において最も速くなる。   FIG. 15 is a diagram showing changes in the speed coefficient α. In the figure, the horizontal axis indicates the time from the start of movement of the virtual viewpoint, and the vertical axis indicates the speed coefficient α. As shown in the figure, the speed coefficient α is low immediately after the start of the movement of the virtual viewpoint, but is highest at an intermediate time point (T / 2 time point) in the movement, and then decreases. Therefore, the moving speed of the virtual viewpoint becomes slower as the viewpoint position is closer to either the movement start point Vpp or the end point Vfp. The moving speed of the virtual viewpoint increases as the viewpoint position moves away from the movement start point Vpp and the end point Vfp, and is highest at an intermediate position between the movement start point Vpp and the end point Vfp.

このように仮想視点の移動速度を変化させることにより、仮想視点の移動の起点及び終点をユーザが把握しやすくなり、仮想視点の移動の起点あるいは終点となる注目領域にユーザの注意を向けさせることができる。また、注目領域以外のユーザに示す必要性の低い車両9の周辺の領域が無駄に長く表示されることもない。   By changing the moving speed of the virtual viewpoint in this way, it becomes easier for the user to grasp the starting point and the ending point of the moving virtual viewpoint, and the user's attention is directed to the attention area that is the starting point or the ending point of the moving virtual viewpoint. Can do. Moreover, the area | region of the periphery of the vehicle 9 with a low necessity shown to users other than an attention area is not displayed unnecessarily long.

以上のように、画像表示システム120では、4つの周辺領域A1〜A4のうちから、車両のユーザに同時期に示すべき複数の周辺領域が注目領域として領域選択部13によって選択される。そして、注目領域として選択された複数の周辺領域それぞれを示す複数の車両周辺画像が、順次に切り替えてディスプレイ21の画面D1内の同一の表示領域PAに表示される。このため、これらの複数の車両周辺画像をディスプレイ21の画面内に同時に並べて表示する必要は無いため、表示する各車両周辺画像のサイズを比較的大きくすることができる。その結果、限られたディスプレイ21の画面内において、各周辺領域の様子を比較的大きくユーザに示すことができる。   As described above, in the image display system 120, from the four peripheral areas A1 to A4, a plurality of peripheral areas that should be shown to the vehicle user at the same time are selected by the area selecting unit 13 as the attention area. Then, a plurality of vehicle peripheral images indicating the plurality of peripheral regions selected as the attention region are sequentially switched and displayed on the same display region PA in the screen D1 of the display 21. For this reason, since it is not necessary to display these several vehicle periphery images side by side simultaneously on the screen of the display 21, the size of each vehicle periphery image to display can be made comparatively large. As a result, the state of each peripheral area can be shown to the user relatively large in the limited screen of the display 21.

<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第1の実施の形態では、物体の距離のみに基づいて注目領域の優先度が設定されていた。これに対して、第2の実施の形態では、物体の種類が判定され、この物体の種類を考慮して注目領域の優先度が設定されるようになっている。本実施の形態の画像表示システム120の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
<2. Second Embodiment>
Next, a second embodiment will be described. In the first embodiment, the priority of the attention area is set based only on the distance of the object. On the other hand, in the second embodiment, the type of the object is determined, and the priority of the attention area is set in consideration of the type of the object. Since the configuration and operation of the image display system 120 of the present embodiment are substantially the same as those of the first embodiment, the following description will focus on differences from the first embodiment.

図16は、第2の実施の形態の画像表示システム120の構成を示すブロック図である。第2の実施の形態の画像表示システム120は、プログラムに従って制御部1のCPUが演算処理を行うことで実現される機能として、種類判定部15を備えている。また、不揮発性メモリ40には、種類判定部15が用いる種類判定データ4bが記憶されている。第2の実施の形態の画像表示システム120のその他の構成は、図1に示す第1の実施の形態の画像表示システム120と同様である。   FIG. 16 is a block diagram illustrating a configuration of the image display system 120 according to the second embodiment. The image display system 120 according to the second embodiment includes a type determination unit 15 as a function realized when the CPU of the control unit 1 performs arithmetic processing according to a program. The nonvolatile memory 40 stores type determination data 4b used by the type determination unit 15. The other configuration of the image display system 120 of the second embodiment is the same as that of the image display system 120 of the first embodiment shown in FIG.

種類判定部15は、ソナーシステム7によって周辺領域A1〜A4のいずれかにおいて物体が検出された場合に、当該物体の種類が人物であるか否かを判定する。より具体的には、種類判定部15は、物体が検出された周辺領域の車両周辺画像を用い、その車両周辺画像に含まれる物体の像を認識する。そして、種類判定部15は、その物体の像に基づいて、例えばパターンマッチングなどの周知の技術によって物体の種類が人物であるか否かを判定する。このパターンマッチングに用いるデータとして、種類判定データ4bが利用される。   When the sonar system 7 detects an object in any of the surrounding areas A1 to A4, the type determination unit 15 determines whether the type of the object is a person. More specifically, the type determination unit 15 recognizes an image of an object included in the vehicle peripheral image using the vehicle peripheral image of the peripheral region where the object is detected. Then, the type determination unit 15 determines whether or not the type of the object is a person by a known technique such as pattern matching based on the image of the object. Type determination data 4b is used as data used for this pattern matching.

例えば、図17に示すように、車両9の周辺に2つの物体Sb1,Sb2が存在しており、一方の物体Sb1が三輪車、他方の物体Sb2が人物である場合を想定する。この例では、物体(三輪車)Sb1は前方右側領域A2に存在しており、物体(人物)Sb2は後方左側領域A3に存在している。   For example, as shown in FIG. 17, it is assumed that there are two objects Sb1 and Sb2 around the vehicle 9, one object Sb1 is a tricycle, and the other object Sb2 is a person. In this example, the object (tricycle) Sb1 exists in the front right region A2, and the object (person) Sb2 exists in the rear left region A3.

この例の場合、ソナーシステム7によって2つの周辺領域A2,A3に物体が存在すると検出される。そして、種類判定部15によって2つの周辺領域A2,A3それぞれの物体の種類が判定され、周辺領域A2の物体Sb1は人物以外、周辺領域A3の物体Sb2は人物であると判定される。   In this example, the sonar system 7 detects that an object is present in the two peripheral areas A2 and A3. Then, the type determination unit 15 determines the type of each of the two surrounding areas A2 and A3, and determines that the object Sb1 in the surrounding area A2 is not a person and the object Sb2 in the surrounding area A3 is a person.

車両9の周辺に人物が存在する場合は、安全上、ユーザはその人物に最大の注意を払って車両9を運転する必要がある。このため、本実施の形態の画像表示システム120においては、周辺領域に人物が存在すると判定された場合は、物体の距離に係わらず、当該人物が存在する周辺領域(注目領域)の優先度が最も高く設定される。したがって、図17の例では、後方左側領域A3の優先度が最も高く設定されることになる。   When there is a person around the vehicle 9, for safety reasons, the user needs to drive the vehicle 9 with maximum attention to the person. Therefore, in the image display system 120 according to the present embodiment, when it is determined that a person exists in the peripheral area, the priority of the peripheral area (attention area) in which the person exists is determined regardless of the distance of the object. Highest set. Therefore, in the example of FIG. 17, the priority of the rear left region A3 is set to the highest.

図18は、本実施の形態の優先度を設定する処理(図11のステップS14)の流れを示す図である。この処理の開始時点においては、複数の周辺領域が注目領域として領域選択部13により選択されている。   FIG. 18 is a diagram showing a flow of processing (step S14 in FIG. 11) for setting the priority according to the present embodiment. At the start of this process, a plurality of peripheral regions are selected as a region of interest by the region selection unit 13.

まず、第1の実施の形態と同様にして、物体の距離に基づいて注目領域の優先度が優先度設定部14により設定される。すなわち、注目領域に存在する物体の距離が近いほど、当該注目領域の優先度が高くされる(ステップS41)。   First, similarly to the first embodiment, the priority setting unit 14 sets the priority of the attention area based on the distance of the object. That is, the closer the distance between objects in the attention area is, the higher the priority of the attention area is (step S41).

次に、複数の注目領域それぞれの車両周辺画像が生成される。そして、各注目領域の車両周辺画像に含まれる物体の種類が人物であるか否かが種類判定部15により判定される(ステップS42)。   Next, a vehicle peripheral image for each of the plurality of attention areas is generated. Then, the type determination unit 15 determines whether or not the type of the object included in the vehicle peripheral image of each region of interest is a person (step S42).

この判定により、物体が人物であると判定された注目領域がある場合は(ステップS43にてYes)、ステップS41で設定された優先度に係わらず、当該注目領域の優先度が最も高く設定される(優先度=1)(ステップS44)。なお、物体が人物であると判定された注目領域が複数の場合は、さらに物体の距離を考慮して注目領域の優先度を設定すればよい。   If there is a region of interest in which it is determined by this determination that the object is a person (Yes in step S43), the priority of the region of interest is set to the highest regardless of the priority set in step S41. (Priority = 1) (step S44). In addition, when there are a plurality of attention areas determined that the object is a person, the priority of the attention area may be set in consideration of the distance of the object.

本実施の形態においても、注目領域表示処理は、図12に示す第1の実施の形態の処理と同様に行われる。したがって、優先度が高い注目領域から順に車両周辺画像がディスプレイ21に表示される。このため、第2の実施の形態の画像表示システム120では、ユーザが注意すべき人物を示す車両周辺画像を優先的に表示することができる。   Also in the present embodiment, the attention area display process is performed in the same manner as the process of the first embodiment shown in FIG. Accordingly, the vehicle peripheral images are displayed on the display 21 in order from the attention area having the highest priority. For this reason, in the image display system 120 of 2nd Embodiment, the vehicle periphery image which shows the person whom a user should pay attention can be displayed preferentially.

<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第1の実施の形態では、物体が存在する周辺領域を注目領域として選択するようにしていた。これに対して、第3の実施の形態では、車両の複数の走行状態それぞれに適した複数の表示モードがあり、表示モードに応じて注目領域が選択されるようになっている。本実施の形態の画像表示システム120の構成及び動作も、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
<3. Third Embodiment>
Next, a third embodiment will be described. In the first embodiment, the peripheral area where the object exists is selected as the attention area. On the other hand, in the third embodiment, there are a plurality of display modes suitable for each of a plurality of traveling states of the vehicle, and a region of interest is selected according to the display mode. Since the configuration and operation of the image display system 120 of the present embodiment are also substantially the same as those of the first embodiment, the following description will focus on differences from the first embodiment.

図19は、第3の実施の形態の画像表示システム120の構成を示すブロック図である。第3の実施の形態の画像表示システム120では、画像処理装置100が、切替スイッチ45を備えている。この切替スイッチ45は、ユーザが操作可能なボタン式のスイッチであり、ユーザが操作しやすいように本体部10とは別に車両の適位置に配置される。切替スイッチの操作内容は、信号として制御部1に入力される。   FIG. 19 is a block diagram illustrating a configuration of an image display system 120 according to the third embodiment. In the image display system 120 according to the third embodiment, the image processing apparatus 100 includes a changeover switch 45. The changeover switch 45 is a button type switch that can be operated by the user, and is arranged at an appropriate position of the vehicle separately from the main body unit 10 so that the user can easily operate. The operation content of the changeover switch is input to the control unit 1 as a signal.

また、画像表示システム120は、プログラムに従って制御部1のCPUが演算処理を行うことで実現される機能として、モード切替部16を備えている。さらに、不揮発性メモリ40には、表示モードに応じた注目領域を示すモードデータ4cが記憶されている。   The image display system 120 also includes a mode switching unit 16 as a function realized by the CPU of the control unit 1 performing arithmetic processing according to a program. Further, the nonvolatile memory 40 stores mode data 4c indicating a region of interest corresponding to the display mode.

また、第3の実施の形態の画像表示システム120は、ソナーシステム7からの信号を利用しないため、信号入力部41が省略されている。第3の実施の形態の画像表示システム120のその他の構成は、図1に示す第1の実施の形態の画像表示システム120と同様である。   Further, since the image display system 120 of the third embodiment does not use the signal from the sonar system 7, the signal input unit 41 is omitted. Other configurations of the image display system 120 of the third embodiment are the same as those of the image display system 120 of the first embodiment shown in FIG.

モード切替部16は、画像表示システム120の周辺表示モードにおける表示モードを切り替えるものである。図20は、周辺表示モードにおける表示モードの遷移を示す図である。本実施の形態の画像表示システム120は、後方駐車モードM11、縦列駐車モードM12、及び、すれ違いモードM13の3つの表示モードを有している。周辺表示モードにおいては、ユーザが切替スイッチ45を押下するごとに、これらの表示モードが変更される。   The mode switching unit 16 switches the display mode in the peripheral display mode of the image display system 120. FIG. 20 is a diagram illustrating display mode transition in the peripheral display mode. The image display system 120 of the present embodiment has three display modes, a rear parking mode M11, a parallel parking mode M12, and a passing mode M13. In the peripheral display mode, each time the user presses the changeover switch 45, these display modes are changed.

3つの表示モードはそれぞれ、車両の特殊な走行状態に最適化されている。後方駐車モードM11は、後方駐車を行う場合に適した表示モードであり、縦列駐車モードM12は、縦列駐車を行う場合に適した表示モードである。また、すれ違いモードM13は、比較的狭い道などで対向車とすれ違う場合に適した表示モードである。これらの表示モードでは、注目領域として選択される周辺領域が異なっている。   Each of the three display modes is optimized for a special driving condition of the vehicle. The rear parking mode M11 is a display mode suitable for performing rear parking, and the vertical parking mode M12 is a display mode suitable for performing parallel parking. Further, the passing mode M13 is a display mode suitable for passing the oncoming vehicle on a relatively narrow road. In these display modes, the peripheral area selected as the attention area is different.

図21は、第3の実施の形態の周辺表示モードにおける動作の流れを示す図である。まず、現時点の表示モードがモード切替部16から領域選択部13に取得される(ステップS51)。次に、領域選択部13は、現時点の表示モードに基づいて、モードデータ4cを参照して注目領域を選択する。すなわち、本実施の形態では、注目領域として選択される周辺領域は、物体の存在とは無関係に表示モードのみによって規定される(ステップS52)。そして、第1の実施の形態と同様にして、注目領域表示処理がなされることになる(ステップS53)。   FIG. 21 is a diagram illustrating an operation flow in the peripheral display mode according to the third embodiment. First, the current display mode is acquired from the mode switching unit 16 to the region selection unit 13 (step S51). Next, the region selection unit 13 selects a region of interest with reference to the mode data 4c based on the current display mode. That is, in the present embodiment, the peripheral area selected as the attention area is defined only by the display mode regardless of the presence of the object (step S52). Then, similarly to the first embodiment, attention area display processing is performed (step S53).

図22は、後方駐車モードM11において注目領域として選択される周辺領域を示す図である。図22に示すように、後方駐車モードM11においては、後方左側領域A3及び後方右側領域A4が注目領域として選択される。この場合において、車両周辺画像の仮想視点の視野方向は略直下方向に設定される。そして、仮想視点の視点位置は、後方左側領域A3の中央Vp3と後方右側領域A4の中央Vp4との間で移動される。   FIG. 22 is a diagram illustrating a peripheral region selected as a region of interest in the rear parking mode M11. As shown in FIG. 22, in the rear parking mode M11, the rear left area A3 and the rear right area A4 are selected as the attention areas. In this case, the visual field direction of the virtual viewpoint of the vehicle peripheral image is set to a substantially direct downward direction. The viewpoint position of the virtual viewpoint is moved between the center Vp3 of the rear left region A3 and the center Vp4 of the rear right region A4.

これにより、後方駐車モードM11では、2つの周辺領域A3,A4をそれぞれ示す車両周辺画像が交互に切り替えてディスプレイ21に表示されることになる。   As a result, in the rear parking mode M11, the vehicle peripheral images respectively showing the two peripheral areas A3 and A4 are alternately switched and displayed on the display 21.

図23は、縦列駐車モードM12において注目領域として選択される周辺領域を示す図である。図23に示すように、縦列駐車モードM12においては、前方左側領域A1、後方左側領域A3及び後方右側領域A4が注目領域として選択される。この場合も、車両周辺画像の仮想視点の視野方向は略直下方向に設定される。そして、仮想視点の視点位置は、前方左側領域A1の中央Vp1と、後方左側領域A3の中央Vp3と、後方右側領域A4の中央Vp4との間で移動されることになる。   FIG. 23 is a diagram illustrating a peripheral region selected as a region of interest in the parallel parking mode M12. As shown in FIG. 23, in the parallel parking mode M12, the front left area A1, the rear left area A3, and the rear right area A4 are selected as the attention areas. In this case as well, the visual field direction of the virtual viewpoint of the vehicle peripheral image is set to a substantially direct downward direction. The viewpoint position of the virtual viewpoint is moved between the center Vp1 of the front left region A1, the center Vp3 of the rear left region A3, and the center Vp4 of the rear right region A4.

これにより、縦列駐車モードM12では、これら3つの周辺領域A1,A3,A4をそれぞれ示す車両周辺画像が順次に切り替えてディスプレイ21に表示されることになる。   As a result, in the parallel parking mode M12, the vehicle peripheral images respectively indicating the three peripheral regions A1, A3, and A4 are sequentially switched and displayed on the display 21.

図24は、すれ違いモードM13において注目領域として選択される周辺領域を示す図である。図24に示すように、縦列駐車モードM12においては、車両9の左側側方に設定される左側方領域A5、及び、車両の右側側方に設定される右側方領域A6が注目領域として選択される。   FIG. 24 is a diagram illustrating a peripheral region selected as a region of interest in the passing mode M13. As shown in FIG. 24, in the parallel parking mode M12, the left side area A5 set on the left side of the vehicle 9 and the right side area A6 set on the right side of the vehicle are selected as the attention area. The

この場合において、車両周辺画像の仮想視点の視野方向は前方方向に設定される。そして、仮想視点の視点位置は、左側方領域A5の後方中央Vp5と、右側方領域A6の後方中央Vp6との間で移動されることになる。   In this case, the visual field direction of the virtual viewpoint of the vehicle peripheral image is set to the forward direction. Then, the viewpoint position of the virtual viewpoint is moved between the rear center Vp5 of the left side region A5 and the rear center Vp6 of the right side region A6.

これにより、すれ違いモードM13では、図25に示すように、車両9の後方からみた左側方領域A5の様子を示す車両周辺画像BP5と、車両9の後方からみた右側方領域A6の様子を示す車両周辺画像BP6とが交互に切り替えてディスプレイ21の画面D1の同一の表示領域PAに表示されることになる。このような表示がなされることで、対向車とすれ違う場合において車両9の側方におけるクリアランスをユーザが確認しやすい。   Thus, in the passing mode M13, as shown in FIG. 25, the vehicle peripheral image BP5 showing the state of the left side region A5 viewed from the rear of the vehicle 9, and the vehicle showing the state of the right side region A6 viewed from the rear of the vehicle 9. The peripheral image BP6 is alternately switched and displayed on the same display area PA of the screen D1 of the display 21. With such a display, the user can easily confirm the clearance on the side of the vehicle 9 when passing the oncoming vehicle.

このように第3の実施の形態の画像表示システム120では、その時点の表示モードに応じて注目領域が選択されるため、その時点の走行状態に適した周辺領域を的確にユーザに示すことができる。また、第3の実施の形態の画像表示システム120では、ソナーシステム7等との連携が不要となり、適切な周辺領域をユーザに示す機能を比較的低コストに実現することができる。   As described above, in the image display system 120 according to the third embodiment, since the attention area is selected according to the display mode at that time, the peripheral area suitable for the driving state at that time can be accurately shown to the user. it can. Further, in the image display system 120 according to the third embodiment, cooperation with the sonar system 7 or the like is not necessary, and a function of showing an appropriate peripheral area to the user can be realized at a relatively low cost.

<4.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態で説明した形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<4. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. All forms including those described in the above embodiment and those described below can be combined as appropriate.

上記実施の形態では、領域選択部13が注目領域を選択していたが、ユーザの操作に基づいて注目領域を選択するようにしてもよい。この場合は、ユーザが所望の周辺領域の様子をディスプレイ21において確認することができる。   In the above embodiment, the area selection unit 13 selects the attention area. However, the attention area may be selected based on a user operation. In this case, the user can confirm a desired peripheral area on the display 21.

また、上記実施の形態では、ディスプレイ21の画面D1に注目領域を示す車両周辺画像のみが表示されていた。これに対して、図26に示すように、車両周辺画像と合わせて全体俯瞰画像BPを、ディスプレイ21の画面D2に同時に表示するようにしてもよい。この場合、第1表示領域PA1に全体俯瞰画像BPが常に表示され、第2表示領域PA2に複数の車両周辺画像が順次に切り替えて表示される。また、この場合は、図26に示すように、第2表示領域PA2に表示されている車両周辺画像が示す周辺領域の位置を、第1表示領域PA1に表示されている全体俯瞰画像BP中に枠Cなどで明示するようにしてもよい。図26の例では、前方左側領域A1を示す車両周辺画像BP1が第2表示領域PA2に表示されている。このため、全体俯瞰画像BP中の被写体像において前方左側領域A1に対応する位置に枠Cが表示されている。   Moreover, in the said embodiment, only the vehicle periphery image which shows an attention area was displayed on the screen D1 of the display 21. FIG. On the other hand, as shown in FIG. 26, the whole overhead view image BP may be displayed on the screen D2 of the display 21 together with the vehicle peripheral image. In this case, the whole bird's-eye view image BP is always displayed in the first display area PA1, and a plurality of vehicle peripheral images are sequentially switched and displayed in the second display area PA2. In this case, as shown in FIG. 26, the position of the peripheral area indicated by the vehicle peripheral image displayed in the second display area PA2 is displayed in the overall overhead image BP displayed in the first display area PA1. It may be clearly indicated by a frame C or the like. In the example of FIG. 26, the vehicle peripheral image BP1 showing the front left area A1 is displayed in the second display area PA2. Therefore, a frame C is displayed at a position corresponding to the front left area A1 in the subject image in the overall overhead view image BP.

また、上記第1及び第2の実施の形態では、ソナーシステム7によって車両の周辺に存在する物体を検出していた。これに対して、例えばレーダー装置による物体検出や、画像に基づく物体認識などの他の手法によって、車両の周辺に存在する物体を検出してもよい。   In the first and second embodiments, the sonar system 7 detects an object existing around the vehicle. On the other hand, for example, an object existing around the vehicle may be detected by other methods such as object detection by a radar device or object recognition based on an image.

また、上記第1及び第2の実施の形態では、車両の周辺に物体が存在する周辺領域を注目領域として選択していた。これに対して、駐車スペースを示す白線が存在する周辺領域を注目領域として選択するようにしてもよい。この場合は、画像中に示される白線を認識する周知の白線認識手法を採用すればよい。   In the first and second embodiments, the peripheral area where an object exists around the vehicle is selected as the attention area. On the other hand, you may make it select the surrounding area in which the white line which shows a parking space exists as an attention area. In this case, a known white line recognition method for recognizing the white line shown in the image may be employed.

また、上記実施の形態では、車両の前方の周辺領域を示す車両周辺画像と、車両の後方の周辺領域を示す車両周辺画像との双方で、車両9の前方側が画像上側に示されていた。これに対して、車両の後方の周辺領域を示す車両周辺画像では、車両9の後方側が画像上側に示されるようにしてもよい。この場合、車両の前方の周辺領域を示す車両周辺画像から、車両の後方の周辺領域を示す車両周辺画像に切り替える際は、仮想視点の向きを180度回転させるようにすればよい。   Moreover, in the said embodiment, the front side of the vehicle 9 was shown by the image upper side in both the vehicle periphery image which shows the surrounding area ahead of a vehicle, and the vehicle surrounding image which shows the surrounding area behind the vehicle. On the other hand, in the vehicle peripheral image showing the peripheral region behind the vehicle, the rear side of the vehicle 9 may be shown on the upper side of the image. In this case, when switching from the vehicle peripheral image indicating the front peripheral region of the vehicle to the vehicle peripheral image indicating the peripheral region behind the vehicle, the direction of the virtual viewpoint may be rotated by 180 degrees.

また、上記第2の実施の形態では、物体の種類を判定する場合に人物か否かのみを判定していたが、物体の他の種類も判定するようにしてもよい。例えば、人物、車両、動物などを判定できるようにしてもよい。また、物体が接近物か否かを判定するようにしてもよい。接近物か否かは、時間経過に伴って物体の距離が小さくなっているか否かに基づいて判定できる。このような接近物は車両と接触する可能性が高いため、接近物が存在する周辺領域(注目領域)の優先度については高く設定することが望ましい。   In the second embodiment, when determining the type of the object, only the person is determined. However, other types of the object may be determined. For example, a person, vehicle, animal, or the like may be determined. Moreover, you may make it determine whether an object is an approaching object. Whether or not the object is an approaching object can be determined based on whether or not the distance of the object decreases with time. Since such an approaching object is highly likely to come into contact with the vehicle, it is desirable to set a high priority for the surrounding area (attention area) where the approaching object exists.

また、上記実施の形態では、優先度が高い注目領域から順に車両周辺画像がディスプレイ21に表示されるようにしていた。これに対して、注目領域の優先度が高いほど、当該注目領域を示す車両周辺画像の表示時間を長くするようにしてもよい。   Moreover, in the said embodiment, the vehicle periphery image was displayed on the display 21 in an order from the attention area with a high priority. On the other hand, the higher the priority of the attention area, the longer the display time of the vehicle peripheral image indicating the attention area.

また、上記実施の形態では、周辺領域を示す車両周辺画像は合成画像であると説明したが、画像合成処理を行っていない撮影画像であってもよい。   In the above-described embodiment, the vehicle peripheral image indicating the peripheral region is described as a composite image, but may be a captured image that has not been subjected to image composite processing.

また、上記実施の形態では、画像処理装置100とナビゲーション装置20とは別の装置であるとして説明したが、画像処理装置100とナビゲーション装置20とが同一の筐体内に配置されて一体型の装置として構成されてもよい。   In the above embodiment, the image processing apparatus 100 and the navigation apparatus 20 are described as separate apparatuses. However, the image processing apparatus 100 and the navigation apparatus 20 are arranged in the same casing and are integrated. It may be configured as.

また、上記実施の形態では、画像処理装置100で生成された画像を表示する表示装置はナビゲーション装置20であるとして説明したが、ナビゲーション機能等の特殊な機能を有していない一般的な表示装置であってもよい。   In the above embodiment, the display device that displays the image generated by the image processing device 100 is described as the navigation device 20, but a general display device that does not have a special function such as a navigation function. It may be.

また、上記実施の形態において、画像処理装置100の制御部1によって実現されると説明した機能の一部は、ナビゲーション装置20の制御部23によって実現されてもよい。   In the above embodiment, some of the functions described as being realized by the control unit 1 of the image processing apparatus 100 may be realized by the control unit 23 of the navigation apparatus 20.

また、ソナーシステム7からの信号は、ナビゲーション装置20に入力されるようになっていてもよい。この場合は、ナビ通信部42を経由して、画像処理装置100の制御部1に当該信号を入力すればよい。   The signal from the sonar system 7 may be input to the navigation device 20. In this case, the signal may be input to the control unit 1 of the image processing apparatus 100 via the navigation communication unit 42.

また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。   Further, in the above-described embodiment, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. Also good. Conversely, some of the functions realized by the hardware circuit may be realized by software.

7 ソナーシステム
9 車両
12 表示制御部
13 領域選択部
14 優先度設定部
15 種類判定部
21 ディスプレイ
A1 前方左側領域
A2 前方右側領域
A3 後方左側領域
A4 後方右側領域
120 画像表示システム
7 sonar system 9 vehicle 12 display control unit 13 region selection unit 14 priority setting unit 15 type determination unit 21 display A1 front left region A2 front right region A3 rear left region A4 rear right region 120 image display system

Claims (13)

車両に搭載される画像表示システムであって、
前記車両に配置されたカメラで得られる撮影画像から、前記車両の周辺の一部の周辺領域を示す車両周辺画像を生成する生成手段と、
前記車両のユーザに同時期に示すべき複数の周辺領域を選択する選択手段と、
前記複数の周辺領域それぞれを示す複数の車両周辺画像を、順次に切り替えて画面内の同一の表示領域に表示する表示手段と、
を備えることを特徴とする画像表示システム。
An image display system mounted on a vehicle,
Generating means for generating a vehicle peripheral image indicating a peripheral region of a part of the periphery of the vehicle from a captured image obtained by a camera disposed in the vehicle;
Selecting means for selecting a plurality of surrounding areas to be shown to the user of the vehicle at the same time;
Display means for sequentially switching a plurality of vehicle peripheral images showing the plurality of peripheral areas and displaying them in the same display area in the screen;
An image display system comprising:
請求項1に記載の画像表示システムにおいて、
前記表示手段は、前記複数の車両周辺画像を繰り返し表示することを特徴とする画像表示システム。
The image display system according to claim 1,
The image display system, wherein the display means repeatedly displays the plurality of vehicle surrounding images.
請求項1または2に記載の画像表示システムにおいて、
前記生成手段は、複数のカメラで得られる撮影画像から、任意の視点からみた前記周辺領域を示す前記車両周辺画像を生成可能であることを特徴とする画像表示システム。
The image display system according to claim 1 or 2,
The image display system characterized in that the generation means can generate the vehicle peripheral image indicating the peripheral region viewed from an arbitrary viewpoint from captured images obtained by a plurality of cameras.
請求項3に記載の画像表示システムにおいて、
前記表示手段は、前記車両周辺画像を切り替える際に、切り替え前の前記車両周辺画像の視点の位置から切り替え後の前記車両周辺画像の視点の位置まで前記視点の位置が移動するアニメーション表現を行うことを特徴とする画像表示システム。
The image display system according to claim 3,
When the vehicle surrounding image is switched, the display means performs an animation expression in which the viewpoint position moves from the viewpoint position of the vehicle surrounding image before switching to the viewpoint position of the vehicle surrounding image after switching. An image display system characterized by the above.
請求項4に記載の画像表示システムにおいて、
前記視点の位置が移動する場合における前記視点の移動速度は、
該視点の位置が移動の起点及び終点のいずれかに近いほど遅く、
該視点の位置が移動の起点及び終点から離れるほど速いことを特徴とする画像表示システム。
The image display system according to claim 4,
The moving speed of the viewpoint when the position of the viewpoint moves is
The closer the viewpoint is to either the start or end of movement, the slower
An image display system characterized in that the position of the viewpoint is faster as it moves away from the starting and end points of movement.
請求項1ないし5のいずれかに記載の画像表示システムにおいて、
前記複数の車両周辺画像は、画角が同一であることを特徴とする画像表示システム。
The image display system according to any one of claims 1 to 5,
The image display system characterized in that the plurality of vehicle peripheral images have the same angle of view.
請求項1ないし6のいずれかに記載の画像表示システムにおいて、
前記車両の周辺に存在する物体を検出した検出結果を取得する取得手段、
をさらに備え、
前記選択手段は、前記検出結果が示す前記物体の位置に基づいて前記複数の周辺領域を選択することを特徴とする画像表示システム。
The image display system according to any one of claims 1 to 6,
Obtaining means for obtaining a detection result of detecting an object existing around the vehicle;
Further comprising
The image display system, wherein the selection unit selects the plurality of peripheral regions based on the position of the object indicated by the detection result.
請求項7に記載の画像表示システムにおいて、
前記検出結果は、前記車両からの前記物体の距離を含み、
前記複数の周辺領域それぞれの前記複数の車両周辺画像の表示における優先度を、前記物体の距離に基づいて設定する設定手段と、
を備えることを特徴とする画像表示システム。
The image display system according to claim 7,
The detection result includes a distance of the object from the vehicle,
Setting means for setting the priority in displaying the plurality of vehicle peripheral images of each of the plurality of peripheral regions based on the distance of the object;
An image display system comprising:
請求項8に記載の画像表示システムにおいて、
前記設定手段は、前記周辺領域に存在する物体の距離が近いほど、該周辺領域の優先度を高くすることを特徴とする画像表示システム。
The image display system according to claim 8,
The image display system according to claim 1, wherein the setting unit increases the priority of the peripheral area as the distance between the objects existing in the peripheral area is shorter.
請求項1ないし6のいずれかに記載の画像表示システムにおいて、
前記車両の周辺に存在する物体の種類を判別する判別手段と、
前記複数の周辺領域それぞれの前記複数の車両周辺画像の表示における優先度を、前記物体の種類に基づいて設定する設定手段と、
をさらに備えことを特徴とする画像表示システム。
The image display system according to any one of claims 1 to 6,
Discriminating means for discriminating the types of objects existing around the vehicle;
Setting means for setting a priority in displaying the plurality of vehicle peripheral images of each of the plurality of peripheral regions based on the type of the object;
An image display system further comprising:
請求項1ないし6のいずれかに記載の画像表示システムにおいて、
前記車両の複数の走行状態それぞれに適した複数の表示モードを切り替える切替手段、
を備え、
前記選択手段は、現時点の前記表示モードに応じて前記複数の周辺領域を選択することを特徴とする画像表示システム。
The image display system according to any one of claims 1 to 6,
Switching means for switching a plurality of display modes suitable for each of a plurality of driving states of the vehicle;
With
The image display system, wherein the selection unit selects the plurality of peripheral areas according to the current display mode.
車両に搭載される表示装置に表示させる画像を生成する画像処理装置であって、
前記車両に配置されたカメラで得られる撮影画像から、前記車両の周辺の一部の周辺領域を示す車両周辺画像を生成する生成手段と、
前記車両のユーザに同時期に示すべき複数の周辺領域を選択する選択手段と、
前記複数の周辺領域それぞれを示す複数の車両周辺画像を前記表示装置に出力して、順次に切り替えて前記表示装置の画面内の同一の表示領域に表示させる出力手段と、
を備えることを特徴とする画像処理装置。
An image processing device for generating an image to be displayed on a display device mounted on a vehicle,
Generating means for generating a vehicle peripheral image indicating a peripheral region of a part of the periphery of the vehicle from a captured image obtained by a camera disposed in the vehicle;
Selecting means for selecting a plurality of surrounding areas to be shown to the user of the vehicle at the same time;
Output means for outputting a plurality of vehicle peripheral images showing the plurality of peripheral areas to the display device, and sequentially switching them to be displayed on the same display region in the screen of the display device;
An image processing apparatus comprising:
車両において画像を表示する画像表示方法であって、
前記車両に配置されたカメラで得られる撮影画像から、前記車両の周辺の一部の周辺領域を示す車両周辺画像を生成する工程と、
前記車両のユーザに同時期に示すべき複数の周辺領域を選択する工程と、
前記複数の周辺領域それぞれを示す複数の車両周辺画像を、順次に切り替えて画面内の同一の表示領域に表示する工程と、
を備えることを特徴とする画像表示方法。
An image display method for displaying an image in a vehicle,
Generating a vehicle peripheral image indicating a peripheral region of a part of the periphery of the vehicle from a captured image obtained by a camera disposed in the vehicle;
Selecting a plurality of surrounding areas to be shown to the user of the vehicle at the same time;
A step of sequentially switching a plurality of vehicle peripheral images showing each of the plurality of peripheral regions and displaying them in the same display region in the screen;
An image display method comprising:
JP2010168007A 2010-07-27 2010-07-27 Image display system, image processing apparatus, and image display method Active JP5622986B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010168007A JP5622986B2 (en) 2010-07-27 2010-07-27 Image display system, image processing apparatus, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010168007A JP5622986B2 (en) 2010-07-27 2010-07-27 Image display system, image processing apparatus, and image display method

Publications (2)

Publication Number Publication Date
JP2012025327A true JP2012025327A (en) 2012-02-09
JP5622986B2 JP5622986B2 (en) 2014-11-12

Family

ID=45778786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010168007A Active JP5622986B2 (en) 2010-07-27 2010-07-27 Image display system, image processing apparatus, and image display method

Country Status (1)

Country Link
JP (1) JP5622986B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016213841A (en) * 2016-05-16 2016-12-15 富士通テン株式会社 Image generation apparatus, image display system, and image generation method
KR20170006982A (en) * 2015-07-10 2017-01-18 엘지이노텍 주식회사 Camera module, apparatus and method for driving information of a car including the same
WO2017051592A1 (en) * 2015-09-25 2017-03-30 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2017143482A (en) * 2016-02-12 2017-08-17 トヨタ自動車株式会社 Image display device for vehicle
WO2019035229A1 (en) * 2017-08-14 2019-02-21 アイシン精機株式会社 Peripheral monitoring device
WO2019035228A1 (en) * 2017-08-14 2019-02-21 アイシン精機株式会社 Peripheral monitoring device
US10789763B2 (en) 2018-01-17 2020-09-29 Aisin Seiki Kabushiki Kaisha Periphery monitoring device
CN111767844A (en) * 2020-06-29 2020-10-13 北京百度网讯科技有限公司 Method and apparatus for three-dimensional modeling
CN112866651A (en) * 2021-02-03 2021-05-28 四川新视创伟超高清科技有限公司 Super-channel super-machine-position video processing or monitoring system and method based on 8K camera
WO2021210657A1 (en) * 2020-04-16 2021-10-21 日本電気株式会社 Display control device, surveillance support system, display control method, and non-transitory computer-readable medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102536826B1 (en) * 2015-07-06 2023-05-25 엘지이노텍 주식회사 Apparatus and method for driving information of a car, and program recorded on a recording medium performing the method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0930327A (en) * 1995-07-24 1997-02-04 Murakami Corp Visual recognition device for vehicle
JP2004282465A (en) * 2003-03-17 2004-10-07 Sumitomo Electric Ind Ltd Display system for vehicle, and video image display method for vehicle
JP2007210458A (en) * 2006-02-09 2007-08-23 Nissan Motor Co Ltd Display device for vehicle and image display control method for vehicle
JP2007320359A (en) * 2006-05-30 2007-12-13 Mitsubishi Electric Corp Drive recorder system and on-vehicle device
JP2008219559A (en) * 2007-03-06 2008-09-18 Xanavi Informatics Corp In-vehicle camera system
JP2009093485A (en) * 2007-10-10 2009-04-30 Nippon Soken Inc Image forming unit and image forming program
JP2010015436A (en) * 2008-07-04 2010-01-21 Honda Motor Co Ltd Device for switching vehicle surrounding image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0930327A (en) * 1995-07-24 1997-02-04 Murakami Corp Visual recognition device for vehicle
JP2004282465A (en) * 2003-03-17 2004-10-07 Sumitomo Electric Ind Ltd Display system for vehicle, and video image display method for vehicle
JP2007210458A (en) * 2006-02-09 2007-08-23 Nissan Motor Co Ltd Display device for vehicle and image display control method for vehicle
JP2007320359A (en) * 2006-05-30 2007-12-13 Mitsubishi Electric Corp Drive recorder system and on-vehicle device
JP2008219559A (en) * 2007-03-06 2008-09-18 Xanavi Informatics Corp In-vehicle camera system
JP2009093485A (en) * 2007-10-10 2009-04-30 Nippon Soken Inc Image forming unit and image forming program
JP2010015436A (en) * 2008-07-04 2010-01-21 Honda Motor Co Ltd Device for switching vehicle surrounding image

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170006982A (en) * 2015-07-10 2017-01-18 엘지이노텍 주식회사 Camera module, apparatus and method for driving information of a car including the same
KR102381861B1 (en) 2015-07-10 2022-04-04 엘지이노텍 주식회사 Camera module, apparatus and method for driving information of a car including the same
US10600253B2 (en) 2015-09-25 2020-03-24 Sony Corporation Information processing apparatus, information processing method, and program
WO2017051592A1 (en) * 2015-09-25 2017-03-30 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2017143482A (en) * 2016-02-12 2017-08-17 トヨタ自動車株式会社 Image display device for vehicle
JP2016213841A (en) * 2016-05-16 2016-12-15 富士通テン株式会社 Image generation apparatus, image display system, and image generation method
CN111034188A (en) * 2017-08-14 2020-04-17 爱信精机株式会社 Peripheral monitoring device
US11091096B2 (en) 2017-08-14 2021-08-17 Aisin Seiki Kabushiki Kaisha Periphery monitoring device
JP2019036831A (en) * 2017-08-14 2019-03-07 アイシン精機株式会社 Periphery monitoring device
CN110999282A (en) * 2017-08-14 2020-04-10 爱信精机株式会社 Peripheral monitoring device
WO2019035228A1 (en) * 2017-08-14 2019-02-21 アイシン精機株式会社 Peripheral monitoring device
WO2019035229A1 (en) * 2017-08-14 2019-02-21 アイシン精機株式会社 Peripheral monitoring device
JP2019036832A (en) * 2017-08-14 2019-03-07 アイシン精機株式会社 Periphery monitoring device
CN111034188B (en) * 2017-08-14 2021-07-27 爱信精机株式会社 Peripheral monitoring device
US10789763B2 (en) 2018-01-17 2020-09-29 Aisin Seiki Kabushiki Kaisha Periphery monitoring device
WO2021210657A1 (en) * 2020-04-16 2021-10-21 日本電気株式会社 Display control device, surveillance support system, display control method, and non-transitory computer-readable medium
JP2021119466A (en) * 2020-06-29 2021-08-12 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method and device for 3d modeling, electronic apparatus, storage media, and computer program
CN111767844A (en) * 2020-06-29 2020-10-13 北京百度网讯科技有限公司 Method and apparatus for three-dimensional modeling
JP7192017B2 (en) 2020-06-29 2022-12-19 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method and apparatus, electronic device, storage medium and computer program for three-dimensional modeling
US11697428B2 (en) 2020-06-29 2023-07-11 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for 3D modeling
CN111767844B (en) * 2020-06-29 2023-12-29 阿波罗智能技术(北京)有限公司 Method and apparatus for three-dimensional modeling
CN112866651A (en) * 2021-02-03 2021-05-28 四川新视创伟超高清科技有限公司 Super-channel super-machine-position video processing or monitoring system and method based on 8K camera

Also Published As

Publication number Publication date
JP5622986B2 (en) 2014-11-12

Similar Documents

Publication Publication Date Title
JP5622986B2 (en) Image display system, image processing apparatus, and image display method
JP5765995B2 (en) Image display system
JP6413207B2 (en) Vehicle display device
JP5911775B2 (en) Image generation apparatus, image display system, and image generation method
JP5813944B2 (en) Image display system, image processing apparatus, and image display method
JP5743652B2 (en) Image display system, image generation apparatus, and image generation method
JP4687411B2 (en) Vehicle peripheral image processing apparatus and program
WO2013047012A1 (en) Vehicle surroundings monitoring device
JP6548900B2 (en) Image generation apparatus, image generation method and program
JP5495071B2 (en) Vehicle periphery monitoring device
US20120249796A1 (en) Image processing device, image processing system, and image processing method
JP2010183170A (en) Display apparatus for vehicle
JP6425991B2 (en) Towing vehicle surrounding image generating apparatus and method for generating towing vehicle surrounding image
JP2011135253A (en) Image processor, image processing system and image processing method
JP2007274377A (en) Periphery monitoring apparatus, and program
JP5914114B2 (en) Parking assistance device and parking assistance method
JP2020120327A (en) Peripheral display control device
WO2010070920A1 (en) Device for generating image of surroundings of vehicle
JP2004254219A (en) Vehicular surrounding image processing apparatus and program, and recording medium
JP2007124097A (en) Apparatus for visually recognizing surrounding of vehicle
JP6258000B2 (en) Image display system, image display method, and program
JP2004056219A (en) Vehicle surroundings monitoring apparatus
JP6720729B2 (en) Display controller
JP6073433B2 (en) Image display system, image processing apparatus, and image display method
JP5273068B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140923

R150 Certificate of patent or registration of utility model

Ref document number: 5622986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250