JP2013225903A - Image processing device, image processing system and image processing method - Google Patents

Image processing device, image processing system and image processing method Download PDF

Info

Publication number
JP2013225903A
JP2013225903A JP2013128429A JP2013128429A JP2013225903A JP 2013225903 A JP2013225903 A JP 2013225903A JP 2013128429 A JP2013128429 A JP 2013128429A JP 2013128429 A JP2013128429 A JP 2013128429A JP 2013225903 A JP2013225903 A JP 2013225903A
Authority
JP
Japan
Prior art keywords
vehicle
image processing
viewpoint position
image
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013128429A
Other languages
Japanese (ja)
Other versions
JP5479639B2 (en
Inventor
Kotaro Kinoshita
功太郎 木下
Junko Nin
順子 任
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2013128429A priority Critical patent/JP5479639B2/en
Publication of JP2013225903A publication Critical patent/JP2013225903A/en
Application granted granted Critical
Publication of JP5479639B2 publication Critical patent/JP5479639B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique enabling a user to know at a glance which area in the periphery of a vehicle is displayed on a display device as a synthesis image, according to a viewpoint position of a virtual viewpoint by changing a visual field range in a model chart.SOLUTION: A synthesis image viewed from an arbitrary virtual viewpoint is generated on the basis of a plurality of images obtained by photographing the vehicle periphery using a plurality of cameras. Then, a model chart indicating the viewpoint position of the virtual viewpoint to the side face of the vehicle is output to the display device. Also, a model chart relative to the vehicle side face after changing the viewpoint position according to the operation of a vehicle user is output. Thus, the user can confirm the viewpoint position while easily imaging a positional relationship of the virtual viewpoint relative to the vehicle viewed from the side face.

Description

本発明は、車両に搭載された表示装置に画像を表示する技術に関する。   The present invention relates to a technique for displaying an image on a display device mounted on a vehicle.

一般に、車両に搭載した複数のカメラにより車両周辺の画像を取得し、自動的に、または、ユーザの操作によって、表示装置に表示することで車両周辺の監視を行う装置がある。また、カメラで撮影した画像をカメラによる視点とは異なる複数の仮想視点から見た画像となるように仮想視点の角度を調整する切替ボタンを備えた車両周囲監視装置の技術が開示されている(例えば、特許文献1参照。)。   In general, there is an apparatus that monitors an area around a vehicle by acquiring an image around the vehicle using a plurality of cameras mounted on the vehicle and displaying the image on a display device automatically or by a user operation. Further, there is disclosed a technique of a vehicle periphery monitoring device provided with a switch button for adjusting an angle of a virtual viewpoint so that an image taken by a camera is an image viewed from a plurality of virtual viewpoints different from the camera viewpoint ( For example, see Patent Document 1.)

特開2004−32464号公報JP 2004-32464 A

しかしながら、特許文献1に記載の技術は、切替ボタンによって仮想視点の視点位置を調整した後に表示装置に合成画像の画面を表示させてユーザの希望する合成画像の表示がなされているか否かを確認する。そして、ユーザが希望する表示範囲の合成画像が表示されていない場合は、再度設定画面から、切替ボタンにより仮想視点の視点位置を変更して調整をやり直すという煩わしい作業になるという問題があった。   However, the technique described in Patent Document 1 confirms whether the composite image desired by the user is displayed by displaying the composite image screen on the display device after adjusting the viewpoint position of the virtual viewpoint using the switch button. To do. When the composite image of the display range desired by the user is not displayed, there is a problem that it becomes a cumbersome operation of changing the viewpoint position of the virtual viewpoint by the switching button again from the setting screen and performing adjustment again.

本発明は、上記課題に鑑みてなされたものであり、仮想視点の視点位置に応じて車両の周辺のいずれの領域が合成画像として表示装置に表示されるのかがユーザにひと目でわかる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technology that allows a user to know at a glance which area around the vehicle is displayed on a display device as a composite image according to the viewpoint position of a virtual viewpoint. The purpose is to do.

上記課題を解決するため、請求項1の発明は、車両の周辺を複数のカメラで撮影して得られる複数の画像に基づいて任意の仮想視点からみた合成画像を生成する合成画像生成手段と、前記車両の側面に対する前記仮想視点の視点位置を示すモデル図を表示装置に出力する出力手段とを備え、前記出力手段は、前記車両のユーザの操作に応じて前記視点位置を変更した前記モデル図を出力する。   In order to solve the above-mentioned problem, the invention of claim 1 is a composite image generating means for generating a composite image viewed from an arbitrary virtual viewpoint based on a plurality of images obtained by photographing the periphery of the vehicle with a plurality of cameras, An output unit that outputs to a display device a model diagram indicating a viewpoint position of the virtual viewpoint with respect to a side surface of the vehicle, wherein the output unit changes the viewpoint position according to an operation of a user of the vehicle. Is output.

また、請求項2の発明は、請求項1に記載の画像処理装置において、前記出力手段は、前記視点位置を変更した前記モデル図とともに、変更された前記視点位置に応じて生成された前記合成画像を出力する。   According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the output unit generates the synthesis generated in accordance with the changed viewpoint position together with the model diagram in which the viewpoint position is changed. Output an image.

また、請求項3の発明は、請求項1または2に記載の画像処理装置において、前記視点位置は、2つの視点位置変更アイコンを用いた前記ユーザの操作により変更される。   According to a third aspect of the present invention, in the image processing apparatus according to the first or second aspect, the viewpoint position is changed by the user's operation using two viewpoint position change icons.

また、請求項4の発明は、車両の周辺を複数のカメラで撮影して得られる複数の画像に基づいて任意の仮想視点からみた合成画像を生成する合成画像生成手段と、
前記車両の側面に対する前記仮想視点の視野範囲を示すモデル図を表示装置に出力する出力手段とを備え、前記出力手段は、前記車両のユーザの操作に応じて前記視野範囲を変更した前記モデル図を出力する。
Further, the invention of claim 4 is a composite image generating means for generating a composite image viewed from an arbitrary virtual viewpoint based on a plurality of images obtained by photographing the periphery of the vehicle with a plurality of cameras.
An output means for outputting to the display device a model diagram showing the visual field range of the virtual viewpoint with respect to the side surface of the vehicle, wherein the output means changes the visual field range according to an operation of a user of the vehicle. Is output.

また、請求項5の発明は、請求項4に記載の画像処理装置において、前記出力手段は、前記視野範囲を変更した前記モデル図とともに、変更された前記視野範囲に応じて生成された前記合成画像を出力する。   According to a fifth aspect of the present invention, in the image processing apparatus according to the fourth aspect, the output unit generates the composite generated according to the changed visual field range together with the model diagram in which the visual field range is changed. Output an image.

請求項1ないし5の発明によれば、車両のユーザの操作に応じて視点位置を変更した車両の側面に対するモデル図を出力することで、ユーザは側面からみた車両に対する仮想視点の位置関係を容易にイメージしながら視点位置を確認できる。   According to the first to fifth aspects of the invention, by outputting a model diagram for the side surface of the vehicle whose viewpoint position has been changed in accordance with the operation of the user of the vehicle, the user can easily position the virtual viewpoint relative to the vehicle as viewed from the side surface. You can check the viewpoint position while imagining.

また、特に請求項2の発明によれば、視点位置を変更したモデル図とともに、変更された視点位置に応じて生成された合成画像を出力することで、ユーザは生成された合成画像がどの視点位置からみた合成画像なのかを確認できる。   Further, according to the invention of claim 2, by outputting a composite image generated in accordance with the changed viewpoint position together with the model diagram in which the viewpoint position is changed, the user can select which viewpoint of the generated composite image. You can check whether it is a composite image as seen from the position.

また、特に請求項3の発明によれば、視点位置が2つの視点位置変更アイコンを用いたユーザの操作により変更されることで、ユーザはモデル図における視点位置の変更を確認しながら視点位置を変更する操作を行える。   In particular, according to the invention of claim 3, the viewpoint position is changed by a user operation using two viewpoint position change icons, so that the user can change the viewpoint position while confirming the change of the viewpoint position in the model diagram. Can be changed.

また、特に請求項4の発明によれば、 車両のユーザの操作に応じて視野範囲を変更した車両の側面に対するモデル図を出力することで、ユーザは側面からみた車両に対する仮想視点の視野範囲を確認できる。   Further, according to the invention of claim 4 in particular, by outputting a model diagram for the side surface of the vehicle in which the visual field range is changed according to the operation of the user of the vehicle, the user can set the visual range of the virtual viewpoint for the vehicle as viewed from the side surface. I can confirm.

さらに、特に請求項5の発明によれば、視野範囲を変更したモデル図とともに、変更された視野範囲に応じて生成された合成画像を出力することで、ユーザは生成された合成画像がどの視野範囲からみた合成画像なのかを確認できる。   Further, according to the invention of claim 5, in particular, by outputting a composite image generated according to the changed visual field range together with a model diagram in which the visual field range is changed, the user can determine which visual field the generated composite image is. You can check whether it is a composite image from the range.

図1は、画像処理システムの構成を示した図である。FIG. 1 is a diagram illustrating a configuration of an image processing system. 図2は、車載カメラが車両に配置される位置を示す図である。FIG. 2 is a diagram illustrating a position where the in-vehicle camera is arranged in the vehicle. 図3は、合成画像を生成する手法を説明するための図である。FIG. 3 is a diagram for explaining a method of generating a composite image. 図4は、画像処理システムの動作モードの遷移を示す図である。FIG. 4 is a diagram illustrating transition of operation modes of the image processing system. 図5は、モデル図の第1の例を示した図である。FIG. 5 is a diagram showing a first example of a model diagram. 図6は、モデル図の第2の例を示した図である。FIG. 6 is a diagram showing a second example of a model diagram. 図7は、モデル図と合成画像とをともに表示した第1の例を示した図である。FIG. 7 is a diagram showing a first example in which both a model diagram and a composite image are displayed. 図8は、モデル図と合成画像とをともに表示した第2の例を示した図である。FIG. 8 is a diagram showing a second example in which both the model diagram and the composite image are displayed. 図9は、モデル図による視点位置設定処理のフローチャートである。FIG. 9 is a flowchart of the viewpoint position setting process based on the model diagram.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1−1.システム構成>
図1は、画像処理システム120の構成を示すブロック図である。この画像処理システム120は、車両(本実施の形態では、自動車)に搭載されるものであり、車両の周辺を撮影して画像を生成し、その生成した画像を車室内のナビゲーション装置20などの表示装置に出力する機能を有している。画像処理システム120のユーザ(代表的にはドライバ)は、この画像処理システム120を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できるようになっている。
<1-1. System configuration>
FIG. 1 is a block diagram showing a configuration of the image processing system 120. The image processing system 120 is mounted on a vehicle (in this embodiment, an automobile), generates an image by photographing the periphery of the vehicle, and uses the generated image as a navigation device 20 in the vehicle interior. It has a function of outputting to a display device. By using this image processing system 120, a user (typically a driver) of the image processing system 120 can grasp the state around the vehicle in almost real time.

図1に示すように、画像処理システム120は、車両の周辺を示す周辺画像を生成してナビゲーション装置20などの表示装置に画像情報を出力する画像処理装置100と、車両の周囲を撮影するカメラを備えている撮影部5とを主に備えている。   As shown in FIG. 1, an image processing system 120 includes an image processing device 100 that generates a peripheral image indicating the periphery of the vehicle and outputs image information to a display device such as a navigation device 20, and a camera that captures the periphery of the vehicle. And a photographing unit 5 having the above.

ナビゲーション装置20は、ユーザに対しナビゲーション案内を行うものであり、タッチパネル機能を備えた液晶などのディスプレイ21と、ユーザが操作を行う操作部22と、装置全体を制御する制御部23とを備えている。ディスプレイ21の画面がユーザから視認可能なように、ナビゲーション装置20は車両のインストルメントパネルなどに設置される。ユーザからの各種の指示は、操作部22とタッチパネルとしてのディスプレイ21とによって受け付けられる。制御部23は、CPU、RAM及びROMなどを備えたコンピュータとして構成され、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。   The navigation device 20 provides navigation guidance to the user, and includes a display 21 such as a liquid crystal provided with a touch panel function, an operation unit 22 that is operated by the user, and a control unit 23 that controls the entire device. Yes. The navigation device 20 is installed on an instrument panel or the like of the vehicle so that the screen of the display 21 is visible from the user. Various instructions from the user are received by the operation unit 22 and the display 21 as a touch panel. The control part 23 is comprised as a computer provided with CPU, RAM, ROM, etc., and various functions including a navigation function are implement | achieved when CPU performs arithmetic processing according to a predetermined program.

ナビゲーション装置20は、画像処理装置100と通信可能に接続され、画像処理装置100との間で各種の制御信号の送受信や、画像処理装置100で生成された周辺画像の受信が可能となっている。ディスプレイ21には、制御部23の制御により、通常はナビゲーション装置20単体の機能に基づく画像が表示されるが、所定の条件下で画像処理装置100で生成された車両の周辺の様子を示す周辺画像が表示される。これにより、ナビゲーション装置20は、画像処理装置100で生成された周辺画像を受信して表示する表示装置としても機能する。   The navigation apparatus 20 is communicably connected to the image processing apparatus 100, and can transmit and receive various control signals to and from the image processing apparatus 100 and receive peripheral images generated by the image processing apparatus 100. . An image based on the function of the navigation device 20 alone is normally displayed on the display 21 under the control of the control unit 23, but the periphery showing the state of the periphery of the vehicle generated by the image processing device 100 under a predetermined condition An image is displayed. Thereby, the navigation device 20 also functions as a display device that receives and displays a peripheral image generated by the image processing device 100.

画像処理装置100は、その本体部10が周辺画像を生成する機能を有するECU(Electronic Control Unit)として構成され、車両の所定の位置に配置される。画像処理装置100は、車両の周辺を撮影する撮影部5を備えており、この撮影部5で車両の周辺を撮影して得られる撮影画像に基づいて仮想視点からみた合成画像を生成する画像生成装置として機能する。これらの撮影部5が備える複数の車載カメラ51,52,53は、本体部10とは別の車両の適位置に配置されるが詳細は後述する。   The image processing apparatus 100 is configured as an ECU (Electronic Control Unit) whose main body 10 has a function of generating a peripheral image, and is arranged at a predetermined position of the vehicle. The image processing apparatus 100 includes an imaging unit 5 that captures the periphery of the vehicle. The image generation unit 5 generates a composite image viewed from a virtual viewpoint based on a captured image obtained by capturing the periphery of the vehicle. Functions as a device. The plurality of in-vehicle cameras 51, 52, and 53 provided in these photographing units 5 are arranged at appropriate positions on a vehicle different from the main body unit 10, but will be described in detail later.

画像処理装置100の本体部10は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して表示用の周辺画像を生成する画像生成部3と、ナビゲーション装置20との間で通信を行うナビ通信部42とを主に備えている。   The main body 10 of the image processing apparatus 100 includes a control unit 1 that controls the entire apparatus, an image generation unit 3 that generates a peripheral image for display by processing a captured image acquired by the imaging unit 5, and a navigation device 20. And a navigation communication unit 42 that communicates with each other.

ナビゲーション装置20の操作部22やディスプレイ21によって受け付けられたユーザからの各種の指示は、制御信号としてナビ通信部42によって受け付けられて制御部1に入力される。また、画像処理装置100は、表示内容を切り替える指示をユーザから受け付ける切替スイッチ43を備えている。この切替スイッチ43からもユーザの指示を示す信号が制御部1に入力される。これにより、画像処理装置100は、ナビゲーション装置20に対するユーザの操作、及び、切替スイッチ43に対するユーザの操作の双方に応答した動作が可能となっている。切替スイッチ43は、ユーザが操作しやすいように、本体部10とは別に車両の適位置に配置される。   Various instructions from the user received by the operation unit 22 or the display 21 of the navigation device 20 are received by the navigation communication unit 42 as control signals and input to the control unit 1. In addition, the image processing apparatus 100 includes a changeover switch 43 that receives an instruction to switch display contents from a user. A signal indicating a user instruction is also input to the control unit 1 from the changeover switch 43. As a result, the image processing apparatus 100 can operate in response to both a user operation on the navigation apparatus 20 and a user operation on the changeover switch 43. The changeover switch 43 is arranged at an appropriate position of the vehicle separately from the main body unit 10 so that the user can easily operate.

画像生成部3は、各種の画像処理が可能なハードウェア回路として構成されており、合成画像生成部31を主な機能として備えている。   The image generation unit 3 is configured as a hardware circuit capable of various image processing, and includes a composite image generation unit 31 as a main function.

合成画像生成部31は、撮影部5の複数の車載カメラ51,52,53で取得された複数の撮影画像に基づいて、車両の周辺の任意の仮想視点からみた合成画像を生成する。合成画像生成部31が仮想視点からみた合成画像を生成する手法については後述する。   The composite image generation unit 31 generates a composite image viewed from an arbitrary virtual viewpoint around the vehicle based on the plurality of captured images acquired by the plurality of in-vehicle cameras 51, 52, and 53 of the photographing unit 5. A method in which the composite image generation unit 31 generates a composite image viewed from a virtual viewpoint will be described later.

ナビ通信部42は、画像生成部3で生成された合成画像やその合成画像の仮想視点からの視野範囲を示すモデル図をナビゲーション装置20へ出力する出力部42aと、ナビゲーション装置20のタッチパネル機能を備えたディスプレイ21や操作部22からのユーザが操作した情報を受信する受付部42bとを備えている。ここでいうモデル図とは、実際の車両を模したモデル車両の画像に対するユーザが選択可能な仮想視点の視点位置の複数の候補が示されており、視点位置をユーザが視点位置変更アイコン用いて変更するための画像である。そして、視点位置の変更はナビゲーション装置のタッチパネル機能を備えたディスプレイ21や操作部22を操作することで、任意の仮想視点の視点位置に変更可能である。なお、以下では合成画像とモデル図とをあわせて画像情報ということもある。   The navigation communication unit 42 outputs the composite image generated by the image generation unit 3 and the model diagram indicating the visual field range from the virtual viewpoint of the composite image to the navigation device 20 and the touch panel function of the navigation device 20. And a receiving unit 42b that receives information operated by the user from the display 21 and the operation unit 22 provided. Here, the model diagram indicates a plurality of candidate viewpoint positions of a virtual viewpoint that can be selected by the user for an image of a model vehicle imitating an actual vehicle, and the user uses the viewpoint position change icon for the viewpoint position. It is an image for changing. The viewpoint position can be changed to the viewpoint position of an arbitrary virtual viewpoint by operating the display 21 or the operation unit 22 having the touch panel function of the navigation device. Hereinafter, the combined image and the model diagram may be collectively referred to as image information.

出力部42aからの画像情報の出力は制御部1の画像情報出力指示信号に基づいて行われる。この信号を受けて、たとえば合成画像によって表現可能な、車両に対する仮想視点からの視野範囲を示すモデル図が出力される。これにより、ユーザは合成画像としてナビゲーション装置20に表示される画像の仮想視点からの視野範囲を示すモデル図を確認できる。   The output of the image information from the output unit 42a is performed based on the image information output instruction signal of the control unit 1. In response to this signal, for example, a model diagram showing a visual field range from a virtual viewpoint with respect to the vehicle that can be expressed by a composite image is output. Thereby, the user can confirm the model figure which shows the visual field range from the virtual viewpoint of the image displayed on the navigation apparatus 20 as a synthesized image.

また、出力部42aは上述のモデル図とともに合成画像をナビゲーション装置20に出力することもできる。これにより、車両に対する仮想視点からの視野範囲を示すモデル図と、ユーザが選択した仮想視点の視点位置に基づいて生成される合成画像をナビゲーション装置20の一つの画面で確認しながら、視点位置の設定を行える。   The output unit 42a can also output a composite image to the navigation device 20 together with the above model diagram. Thereby, while confirming the model figure which shows the visual field range from the virtual viewpoint with respect to the vehicle and the synthesized image generated based on the viewpoint position of the virtual viewpoint selected by the user on one screen of the navigation device 20, the viewpoint position can be changed. Can be set.

受信部42bはモデル図がナビゲーション装置20に表示された状態で、後述する仮想視点の視点位置の変更をユーザから受け付け、その結果、仮想視点の視点位置が変更されたモデル図が出力部42aから出力される。   The receiving unit 42b accepts a change in the viewpoint position of the virtual viewpoint described later from the user in a state where the model diagram is displayed on the navigation device 20, and as a result, the model diagram in which the viewpoint position of the virtual viewpoint is changed is output from the output unit 42a. Is output.

制御部1は、CPU、RAM及びROMなどを備えたコンピュータとして構成され、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す、画像制御部11および表示制御部12は、このようにして実現される制御部1の機能のうちの一部を示している。   The control unit 1 is configured as a computer including a CPU, a RAM, a ROM, and the like, and various control functions are realized by the CPU performing arithmetic processing according to a predetermined program. An image control unit 11 and a display control unit 12 shown in the figure show some of the functions of the control unit 1 realized in this way.

画像制御部11は、画像生成部3によって実行される画像処理を制御するものである。例えば、画像制御部11は、合成画像生成部31が生成する合成画像の生成に必要な各種パラメータなどを指示する。   The image control unit 11 controls image processing executed by the image generation unit 3. For example, the image control unit 11 instructs various parameters necessary for generating a composite image generated by the composite image generation unit 31.

表示制御部12は、主に画像処理装置100で処理された画像情報をナビゲーション装置20に表示させる場合の制御を行う。たとえば、合成画像生成部31で生成された合成画像情報のナビゲーション装置20への出力制御や、モデル図のナビゲーション装置20への出力制御などを行う。   The display control unit 12 mainly performs control when displaying the image information processed by the image processing device 100 on the navigation device 20. For example, output control of the composite image information generated by the composite image generation unit 31 to the navigation device 20 and output control of the model diagram to the navigation device 20 are performed.

また、画像処理装置100の本体部10は、不揮発性メモリ40、カード読取部44、及び、信号入力部41をさらに備えており、これらは制御部1に接続されている。   The main body 10 of the image processing apparatus 100 further includes a nonvolatile memory 40, a card reading unit 44, and a signal input unit 41, which are connected to the control unit 1.

不揮発性メモリ40は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ40には、主に車種別データ4a、および、モデル図データ4bが記憶されている。   The nonvolatile memory 40 is configured by a flash memory or the like that can maintain stored contents even when the power is turned off. The nonvolatile memory 40 mainly stores vehicle type data 4a and model diagram data 4b.

車種別データ4aは、合成画像生成部31が合成画像を生成する際に必要となる車両の種別に応じたデータなどである。   The vehicle type data 4a is data corresponding to the type of vehicle required when the composite image generation unit 31 generates a composite image.

また、モデル図データ4bは、主に車種ごとのモデル図である車両と複数の仮想視点の視点位置候補、および、ユーザの操作により視点位置の変更を行う視点位置候補変更アイコンなどを含むデータである。このモデル図データ4bは制御部1の表示制御部12の画像情報出力指示信号により出力部42aを介してナビゲーション装置20に出力される。   The model diagram data 4b is data mainly including a vehicle and a plurality of virtual viewpoint viewpoint position candidates, and viewpoint position candidate change icons for changing the viewpoint position by a user operation. is there. The model diagram data 4b is output to the navigation device 20 via the output unit 42a in response to an image information output instruction signal from the display control unit 12 of the control unit 1.

カード読取部44は、可搬性の記録媒体であるメモリカードMKの読み取りを行う。カード読取部44は、メモリカードMKの着脱が可能なカードスロットを備えており、そのカードスロットに装着されたメモリカードMKに記録されたデータを読み取る。カード読取部44で読み取られたデータは、制御部1に入力される。   The card reading unit 44 reads a memory card MK that is a portable recording medium. The card reading unit 44 includes a card slot in which the memory card MK can be attached and detached, and reads data recorded on the memory card MK attached to the card slot. Data read by the card reading unit 44 is input to the control unit 1.

メモリカードMKは、種々のデータを記憶可能なフラッシュメモリなどで構成されており、画像処理装置100はメモリカードMKに記憶された種々のデータを利用できる。例えば、メモリカードMKにプログラムを記憶させ、これを読み出すことで、制御部1の機能を実現するプログラム(ファームウェア)を更新することが可能である。また、メモリカードMKに不揮発性メモリ40に記憶された車種別データ4aとは異なる種別の車両に応じた車種別データを記憶させ、これを読み出して不揮発性メモリ40に記憶させることで、画像処理システム120を異なる種別の車両に対応させることも可能である。   The memory card MK is composed of a flash memory or the like that can store various data, and the image processing apparatus 100 can use various data stored in the memory card MK. For example, it is possible to update a program (firmware) that realizes the function of the control unit 1 by storing the program in the memory card MK and reading the program. Further, by storing vehicle type data corresponding to a vehicle of a type different from the vehicle type data 4a stored in the non-volatile memory 40 in the memory card MK, and reading this out and storing it in the non-volatile memory 40, image processing It is also possible for the system 120 to correspond to different types of vehicles.

また、信号入力部41は、車両に設けられた各種装置からの信号を入力する。この信号入力部41を介して、画像表示システム120の外部からの信号が制御部1に入力される。具体的には、シフトセンサ81、および、車速度センサ82などから、各種情報を示す信号が制御部1に入力される。   Moreover, the signal input part 41 inputs the signal from the various apparatuses provided in the vehicle. A signal from the outside of the image display system 120 is input to the control unit 1 via the signal input unit 41. Specifically, signals indicating various information are input to the control unit 1 from the shift sensor 81 and the vehicle speed sensor 82.

シフトセンサ81からは、車両9の変速装置のシフトレバーの操作の位置、すなわち、”P(駐車)”,”D(前進)”,”N(中立)”,”R(後退)”などのシフトポジションが入力される。車速度センサ82からは、その時点の車両9の走行速度(km/h)が入力される。   From the shift sensor 81, the operation position of the shift lever of the transmission of the vehicle 9, ie, “P (parking)”, “D (forward)”, “N (neutral)”, “R (reverse)”, etc. The shift position is input. From the vehicle speed sensor 82, the traveling speed (km / h) of the vehicle 9 at that time is input.

<1−2.撮影部>
次に、画像処理装置100の撮影部5について詳細に説明する。撮影部5は、制御部1に電気的に接続され、制御部1からの信号に基づいて動作する。
<1-2. Shooting Department>
Next, the photographing unit 5 of the image processing apparatus 100 will be described in detail. The photographing unit 5 is electrically connected to the control unit 1 and operates based on a signal from the control unit 1.

撮影部5は、車載カメラであるフロントカメラ51、バックカメラ52及びサイドカメラ53を備えている。これらの車載カメラ51,52,53はそれぞれ、CCDやCMOSなどの撮像素子を備えており電子的に画像を取得する。   The photographing unit 5 includes a front camera 51, a back camera 52, and a side camera 53 that are in-vehicle cameras. Each of these on-vehicle cameras 51, 52, and 53 includes an image sensor such as a CCD or a CMOS and electronically acquires an image.

図2は、車載カメラ51,52,53が車両9に配置される位置を示す図である。なお、以下の説明においては、方向及び向きを示す際に、適宜、図中に示す3次元のXYZ直交座標を用いる。このXYZ軸は車両9に対して相対的に固定される。ここで、X軸方向は車両9の左右方向に沿い、Y軸方向は車両9の直進方向(前後方向)に沿い、Z軸方向は鉛直方向に沿っている。また、便宜上、+X側を車両9の右側、+Y側を車両9の後側、+Z側を上側とする。   FIG. 2 is a diagram illustrating positions where the in-vehicle cameras 51, 52, 53 are arranged on the vehicle 9. In the following description, the three-dimensional XYZ orthogonal coordinates shown in the figure are used as appropriate when indicating the direction and direction. The XYZ axes are fixed relative to the vehicle 9. Here, the X-axis direction is along the left-right direction of the vehicle 9, the Y-axis direction is along the straight traveling direction (front-rear direction) of the vehicle 9, and the Z-axis direction is along the vertical direction. For convenience, the + X side is the right side of the vehicle 9, the + Y side is the rear side of the vehicle 9, and the + Z side is the upper side.

フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向(平面視でY軸方向の−Y側)に向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向(平面視でY軸方向の+Y側)に向けられている。また、サイドカメラ53は、左右のドアミラー93にそれぞれ設けられており、その光軸53aは車両9の左右方向(平面視でX軸方向)に沿って外部に向けられている。なお、フロントカメラ51やバックカメラ52の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。   The front camera 51 is provided in the vicinity of the license plate mounting position at the front end of the vehicle 9, and its optical axis 51 a is directed in the straight traveling direction of the vehicle 9 (−Y side in the Y-axis direction in plan view). The back camera 52 is provided in the vicinity of the license plate mounting position at the rear end of the vehicle 9, and its optical axis 52 a is directed in the reverse direction of the vehicle 9 in the straight traveling direction (+ Y side in the Y-axis direction in plan view). Yes. The side cameras 53 are provided on the left and right door mirrors 93, respectively, and the optical axis 53a is directed to the outside along the left-right direction of the vehicle 9 (X-axis direction in plan view). Note that the mounting position of the front camera 51 and the back camera 52 is preferably approximately the center in the left and right, but may be slightly shifted in the left and right directions from the center in the left and right.

これらの車載カメラ51,52,53のレンズとしては魚眼レンズなどが採用されており、車載カメラ51,52,53は180度以上の画角αを有している。このため、4つの車載カメラ51,52,53を利用することで、車両9の全周囲の撮影が可能となっている。   As the lenses of these in-vehicle cameras 51, 52, and 53, fish-eye lenses are employed, and the in-vehicle cameras 51, 52, and 53 have an angle of view α of 180 degrees or more. For this reason, it is possible to shoot the entire periphery of the vehicle 9 by using the four in-vehicle cameras 51, 52, and 53.

<1−3.画像変換処理>
次に、画像生成部3の合成画像生成部31が、撮影部5で得られた複数の撮影画像に基づいて車両9の周辺を任意の仮想視点からみた様子を示す合成画像を生成する手法について説明する。合成画像を生成する際には、不揮発性メモリ40に予め記憶された車種別データ4aが利用される。図3は、合成画像を生成する手法を説明するための図である。
<1-3. Image conversion processing>
Next, a method in which the composite image generation unit 31 of the image generation unit 3 generates a composite image that shows how the periphery of the vehicle 9 is viewed from an arbitrary virtual viewpoint based on a plurality of captured images obtained by the imaging unit 5. explain. When generating the composite image, the vehicle type data 4a stored in advance in the nonvolatile memory 40 is used. FIG. 3 is a diagram for explaining a method of generating a composite image.

撮影部5のフロントカメラ51、バックカメラ52及びサイドカメラ53で同時に撮影が行われると、車両9の前方、後方、左側方、及び、右側方をそれぞれ示す4つの撮影画像P1〜P4が取得される。すなわち、撮影部5で取得される4つの撮影画像P1〜P4には、撮影時点の車両9の全周囲を示す情報が含まれていることになる。   When the front camera 51, the back camera 52, and the side camera 53 of the photographing unit 5 are simultaneously photographed, four photographed images P1 to P4 that respectively indicate the front, rear, left side, and right side of the vehicle 9 are acquired. The That is, the four captured images P1 to P4 acquired by the imaging unit 5 include information indicating the entire periphery of the vehicle 9 at the time of shooting.

次に、4つの撮影画像P1〜P4の各画素が、仮想的な三次元空間における立体曲面SP2に投影される。立体曲面SP2は、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両9が存在する位置として定められている。撮影画像P1〜P4に含まれる各画素の位置と、この立体曲面SP2の各画素の位置とは予め対応関係が定められている。このため、立体曲面SP2の各画素の値は、この対応関係と撮影画像P1〜P4に含まれる各画素の値とに基づいて決定できる。   Next, each pixel of the four captured images P1 to P4 is projected onto the three-dimensional curved surface SP2 in the virtual three-dimensional space. The three-dimensional curved surface SP2 has, for example, a substantially hemispherical shape (a bowl shape), and a center portion (a bottom portion of the bowl) is determined as a position where the vehicle 9 exists. A correspondence relationship is determined in advance between the positions of the pixels included in the captured images P1 to P4 and the positions of the pixels of the solid curved surface SP2. For this reason, the value of each pixel of the solid curved surface SP2 can be determined based on this correspondence and the value of each pixel included in the captured images P1 to P4.

なお、撮影画像P1〜P4の撮影は、上記のとおり車載カメラ51,52,53は180度以上の画角αを有している広角カメラを用いている。このように広角カメラで撮影を行った場合、画像の一部がカメラのフードやフィルター枠などの障害物に遮られて周辺領域の光量低下がおこることにより、画面内に撮影者が意図しない陰りが生じることがある。このように陰りが生じている現象を一般に「ケラレ」という。   Note that, as described above, the in-vehicle cameras 51, 52, and 53 use the wide-angle camera having the angle of view α of 180 degrees or more for capturing the captured images P1 to P4. When shooting with a wide-angle camera in this way, part of the image is obstructed by obstacles such as the camera hood and filter frame, and the amount of light in the surrounding area is reduced. May occur. This phenomenon of shadowing is generally called “vignetting”.

図3に示す立体曲面SP1は、撮影画像P1〜P4の一部のケラレの発生により、それらの画像を投影した立体曲面SP1の周辺の所定領域に光量低下による陰りが生じている状態を示している。このように陰りが生じている立体曲面をそのままナビゲーション装置20に表示すると、所定の仮想視点からみた合成画像が略半球状(お椀形状)とはならない。   The solid curved surface SP1 shown in FIG. 3 shows a state in which a certain amount of vignetting of the captured images P1 to P4 causes a shadow due to a decrease in the amount of light in a predetermined area around the solid curved surface SP1 on which these images are projected. Yes. When the three-dimensional curved surface that is shaded in this way is displayed on the navigation device 20 as it is, the synthesized image viewed from a predetermined virtual viewpoint does not become a substantially hemispherical shape (a bowl shape).

そのため、立体曲面SP1のうちケラレによる光量低下が生じている周辺領域を除いた中央の略半球状(お椀形状)の領域である立体曲面SP2を用いて、任意の仮想視点に応じた合成画像を生成する。たとえば図4に示すように、立体曲面SP1の破線部分を境界として、ケラレによる光量低下が生じている周辺領域を取り除いて、立体曲面SP2とする。これにより、略半球状(お椀形状)の被写体の画像を形成でき、ユーザがお椀を上から覗き込んだように立体的に表示された車両と障害物との位置関係を把握できる画像を提供できる。   For this reason, a composite image corresponding to an arbitrary virtual viewpoint is used by using the solid curved surface SP2 which is a substantially hemispherical (bowl-shaped) region in the center excluding the peripheral region where the light amount is reduced due to vignetting in the solid curved surface SP1. Generate. For example, as illustrated in FIG. 4, the solid curved surface SP <b> 2 is formed by removing the peripheral region where the light amount is reduced due to vignetting with the broken line portion of the solid curved surface SP <b> 1 as a boundary. As a result, an image of a substantially hemispherical (bowl-shaped) subject can be formed, and an image that can grasp the positional relationship between the vehicle and the obstacle displayed in a three-dimensional manner as if the user looked into the bowl from above can be provided. .

なお、上記では一例としてケラレによる光量低下の場合の処理について述べたが、ケラレ以外の光量低下(たとえば、口径食による光量低下など)が発生した場合にも適用可能である。   In the above description, the processing in the case where the amount of light is reduced due to vignetting has been described as an example.

また、撮影画像P1〜P4の各画素の位置と立体曲面SPの各画素の位置との対応関係は、車両9における4つの車載カメラ51,52,53の配置(相互間距離、地上高さ、光軸角度等)に依存する。このため、この対応関係を示すテーブルデータが、不揮発性メモリ40に記憶された車種別データ4aに含まれている。   The correspondence between the positions of the pixels of the captured images P1 to P4 and the positions of the pixels of the three-dimensional curved surface SP is determined by the arrangement of the four on-vehicle cameras 51, 52, and 53 in the vehicle 9 (the distance between each other, the ground height, Depending on the optical axis angle, etc.). For this reason, the table data indicating this correspondence is included in the vehicle type data 4 a stored in the nonvolatile memory 40.

また、車種別データ4aに含まれる車体の形状やサイズを示すポリゴンデータが利用され、車両9の三次元形状を示すポリゴンモデルである車両像が仮想的に構成される。構成された車両像は、立体曲面SPが設定される三次元空間において、車両9の位置と定められた略半球状の中心部分に配置される。   Further, polygon data indicating the shape and size of the vehicle body included in the vehicle type data 4a is used, and a vehicle image that is a polygon model indicating the three-dimensional shape of the vehicle 9 is virtually configured. The configured vehicle image is arranged in a substantially hemispherical central portion determined as the position of the vehicle 9 in the three-dimensional space where the three-dimensional curved surface SP is set.

さらに、立体曲面SPが存在する三次元空間に対して、制御部1により仮想視点VPが設定される。仮想視点VPは、視点位置と視野方向とで規定され、この三次元空間における車両9の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。   Further, the virtual viewpoint VP is set by the control unit 1 for the three-dimensional space where the solid curved surface SP exists. The virtual viewpoint VP is defined by the viewpoint position and the visual field direction, and is set to an arbitrary visual field position corresponding to the periphery of the vehicle 9 in this three-dimensional space toward an arbitrary visual field direction.

そして、設定された仮想視点VPに応じて、上記のように立体曲面SP2における必要な領域が画像として切り出される。仮想視点VPと、立体曲面SPにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性メモリ40等に予め記憶されている。一方で、設定された仮想視点VPに応じてポリゴンで構成された車両像に関してレンダリングがなされ、その結果となる二次元の車両像が、切り出された画像に対して重畳される。これにより、車両9及びその車両9の周辺を任意の仮想視点からみた様子を示す合成画像が生成されることになる。   Then, according to the set virtual viewpoint VP, a necessary area on the three-dimensional curved surface SP2 is cut out as an image as described above. The relationship between the virtual viewpoint VP and a necessary area in the three-dimensional curved surface SP is determined in advance, and is stored in advance in the nonvolatile memory 40 or the like as table data. On the other hand, rendering is performed on the vehicle image composed of polygons according to the set virtual viewpoint VP, and the resulting two-dimensional vehicle image is superimposed on the cut out image. Thereby, the composite image which shows a mode that the vehicle 9 and the periphery of the vehicle 9 were seen from arbitrary virtual viewpoints will be produced | generated.

例えば、視点位置が車両9の位置の略中央の直上位置で、視野方向が略直下方向とした仮想視点VP11を設定した場合は、車両9の略直上から車両9を見下ろすように、車両9(実際には車両像)及び車両9の周辺の様子を示す合成画像CP1が生成される。また、図中に示すように、視点位置が車両9の位置の左後方で、視野方向が車両9における略前方とした仮想視点VP12を設定した場合は、車両9の左後方からその周辺全体を見渡すように、車両9(実際には車両像)及び車両9の周辺の様子を示す合成画像CP2が生成される。   For example, when the virtual viewpoint VP11 in which the viewpoint position is a position just above the center of the position of the vehicle 9 and the visual field direction is a direction immediately below the vehicle 9 is set, the vehicle 9 ( Actually, a composite image CP1 showing the vehicle image) and the surroundings of the vehicle 9 is generated. Also, as shown in the figure, when the virtual viewpoint VP12 is set with the viewpoint position at the left rear of the position of the vehicle 9 and the visual field direction substantially in front of the vehicle 9, the entire periphery from the left rear of the vehicle 9 is set. As seen, a composite image CP <b> 2 is generated that shows the vehicle 9 (actually a vehicle image) and the surroundings of the vehicle 9.

なお、実際に合成画像を生成する場合においては、立体曲面SP2の全ての画素の値を決定する必要はなく、設定された仮想視点VPに対応して必要となる領域の画素の値のみを撮影画像P1〜P4に基づいて決定することで、処理速度を向上できる。   In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface SP2, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint VP are photographed. By determining based on the images P1 to P4, the processing speed can be improved.

<1−4.動作モード>
次に、画像処理システム120の動作モードについて説明する。図4は、画像処理システム120の動作モードの遷移を示す図である。画像処理システム120は、ナビモードM0、周囲確認モードM1、フロントモードM2、及び、バックモードM3の4つの動作モードを有している。これらの動作モードは、ドライバの操作や車両9の走行状態に応じて制御部1の制御により切り替えられるようになっている。
<1-4. Operation mode>
Next, the operation mode of the image processing system 120 will be described. FIG. 4 is a diagram illustrating transition of operation modes of the image processing system 120. The image processing system 120 has four operation modes: a navigation mode M0, a surrounding confirmation mode M1, a front mode M2, and a back mode M3. These operation modes can be switched by the control of the control unit 1 in accordance with the operation of the driver and the traveling state of the vehicle 9.

ナビモードM0は、ナビゲーション装置20の機能により、ナビゲーション案内用の地図画像などをディスプレイ21に表示する動作モードである。ナビモードM0では、画像処理装置100の機能が利用されず、ナビゲーション装置20単体の機能で各種の表示がなされる。このため、ナビゲーション装置20が、テレビジョン放送の電波を受信して表示する機能を有している場合は、ナビゲーション案内用の地図画像に代えて、テレビジョン放送画面が表示されることもある。   The navigation mode M0 is an operation mode in which a map image for navigation guidance is displayed on the display 21 by the function of the navigation device 20. In the navigation mode M0, the functions of the image processing apparatus 100 are not used, and various displays are performed using the functions of the navigation apparatus 20 alone. For this reason, when the navigation device 20 has a function of receiving and displaying television broadcast radio waves, a television broadcast screen may be displayed instead of the map image for navigation guidance.

これに対して、周囲確認モードM1、フロントモードM2及びバックモードM3は、画像処理装置100の機能を利用して、車両9の周辺の状況をリアルタイムで示す表示用画像をディスプレイ21に表示する動作モードである。   On the other hand, in the surrounding confirmation mode M1, the front mode M2, and the back mode M3, an operation for displaying on the display 21 a display image that shows the situation around the vehicle 9 in real time by using the function of the image processing apparatus 100. Mode.

周囲確認モードM1は、車両9を見下ろした状態で車両9の周囲を周回するようなアニメーション表現を行う動作モードである。フロントモードM2は、前進時に必要となる車両9の前方や側方を主に示す表示用画像を表示する動作モードである。また、バックモードM3は、後退時に必要となる車両9の後方を主に示す表示用画像を表示する動作モードである。   The surrounding confirmation mode M <b> 1 is an operation mode in which an animation is expressed such that the vehicle 9 circulates around the vehicle 9 while looking down at the vehicle 9. The front mode M2 is an operation mode for displaying a display image that mainly indicates the front or side of the vehicle 9 that is required when moving forward. The back mode M3 is an operation mode for displaying a display image that mainly indicates the rear of the vehicle 9 that is required when the vehicle is moving backward.

画像処理システム120は起動すると、最初に周囲確認モードM1となる。周囲確認モードM1の場合には、車両9の周囲を周回するようなアニメーション表現がなされた後に所定時間(例えば、6秒)が経過すると、自動的にフロントモードM2に切り替えられる。また、フロントモードM2の場合において、走行速度が例えば0km/hの状態(停止状態)で切替スイッチ43が所定時間以上継続して押下されると、周囲確認モードM1に切り替えられる。なお、ドライバからの所定の指示で、周囲確認モードM1からフロントモードM2に切り替えるようにしてもよい。   When the image processing system 120 is activated, it first enters the surrounding confirmation mode M1. In the case of the surrounding confirmation mode M1, when a predetermined time (for example, 6 seconds) elapses after the animation expression that goes around the vehicle 9 is made, the mode is automatically switched to the front mode M2. Further, in the case of the front mode M2, for example, when the changeover switch 43 is continuously pressed for a predetermined time or more while the traveling speed is 0 km / h (stopped state), the surrounding confirmation mode M1 is switched. Note that the surrounding confirmation mode M1 may be switched to the front mode M2 in accordance with a predetermined instruction from the driver.

また、フロントモードM2の場合に走行速度が例えば10km/h以上になったときは、ナビモードM0に切り替えられる。逆に、ナビモードM0の場合に車速度センサ82から入力される走行速度が例えば10km/h未満になったときは、フロントモードM2に切り替えられる。   Further, in the case of the front mode M2, when the traveling speed becomes, for example, 10 km / h or more, the mode is switched to the navigation mode M0. Conversely, when the traveling speed input from the vehicle speed sensor 82 is less than 10 km / h in the navigation mode M0, the mode is switched to the front mode M2.

車両9の走行速度が比較的高い場合においては、ドライバを走行に集中させるためにフロントモードM2が解除される。逆に、車両9の走行速度が比較的低い場合においては、ドライバは車両9の周辺の状況をより考慮した運転、具体的には、見通しの悪い交差点への進入、方向変更、あるいは、幅寄せなどを行っている場面が多い。このため、走行速度が比較的低い場合においては、ナビモードM0からフロントモードM2に切り替えられる。なお、ナビモードM0からフロントモードM2に切り替える場合は、走行速度が10km/h未満という条件に、ドライバからの明示的な操作指示があるという条件を加えてもよい。   When the traveling speed of the vehicle 9 is relatively high, the front mode M2 is canceled in order to concentrate the driver on traveling. On the other hand, when the traveling speed of the vehicle 9 is relatively low, the driver drives in consideration of the situation around the vehicle 9, more specifically, approaching an intersection with poor visibility, changing direction, or shifting the width. There are a lot of scenes that do. For this reason, when the traveling speed is relatively low, the navigation mode M0 is switched to the front mode M2. When switching from the navigation mode M0 to the front mode M2, a condition that there is an explicit operation instruction from the driver may be added to the condition that the traveling speed is less than 10 km / h.

また、ナビモードM0の場合において、走行速度が例えば0km/hの状態(停止状態)で切替スイッチ43が所定時間以上継続して押下されると、周囲確認モードM1に切り替えられる。そして、車両9の周囲を周回するようなアニメーション表現がなされた後に所定時間(例えば、6秒)が経過すると、自動的にもとのモードであるナビモードM2に切り替える。   In the case of the navigation mode M0, when the changeover switch 43 is continuously pressed for a predetermined time or more while the traveling speed is, for example, 0 km / h (stopped state), the surrounding confirmation mode M1 is switched. Then, when a predetermined time (for example, 6 seconds) elapses after the animation expression is made to circulate around the vehicle 9, the mode is automatically switched to the navigation mode M2 which is the original mode.

また、ナビモードM0あるいはフロントモードM2の場合に、シフトセンサ81から入力されるシフトレバーの位置が”R(後退)”となったときは、バックモードM3に切り替えられる。すなわち、車両9の変速装置が”R(後退)”の位置に操作されているときには、車両9は後退する状態であるため、車両9の後方を主に示すバックモードM3に切り替えられる。   In the navigation mode M0 or the front mode M2, when the position of the shift lever input from the shift sensor 81 is “R (reverse)”, the mode is switched to the back mode M3. That is, when the transmission of the vehicle 9 is operated to the “R (reverse)” position, since the vehicle 9 is in a reverse state, the vehicle 9 is switched to the back mode M3 mainly showing the rear of the vehicle 9.

一方、バックモードM3の場合に、シフトレバーの位置が”R(後退)”以外となったときは、その時点の走行速度を基準として、ナビモードM0あるいはフロントモードM2に切り替えられる。すなわち、走行速度が10km/h以上であればナビモードM0に切り替えられ、走行速度が10km/h未満であればフロントモードM2に切り替えられる。
<1−5.モデル図>
次に、画像処理装置100に備えられたナビ通信部42の出力部42aから出力され、ナビゲーション装置20に表示されるモデル図について、モデル図の第1の例を示した図5を用いて説明する。
On the other hand, in the case of the back mode M3, when the position of the shift lever is other than “R (reverse)”, the mode is switched to the navigation mode M0 or the front mode M2 based on the traveling speed at that time. That is, if the traveling speed is 10 km / h or more, the mode is switched to the navigation mode M0, and if the traveling speed is less than 10 km / h, the mode is switched to the front mode M2.
<1-5. Model diagram>
Next, a model diagram output from the output unit 42a of the navigation communication unit 42 included in the image processing apparatus 100 and displayed on the navigation device 20 will be described with reference to FIG. 5 showing a first example of the model diagram. To do.

図5に示すモデル図MD1には、モデル車両MCに対して複数の仮想視点の視点位置の候補VP1〜VP5が設けられている。ユーザは視点位置変更アイコン61を操作することでこれらの候補から任意の視点位置に変更する。なおこの操作は、ナビゲーション装置20のタッチパネル機能を備えたディスプレイ21や操作部22を用いて行われる。   In the model diagram MD1 shown in FIG. 5, candidate positions VP1 to VP5 of a plurality of virtual viewpoints are provided for the model vehicle MC. The user changes these candidates to arbitrary viewpoint positions by operating the viewpoint position change icon 61. This operation is performed using the display 21 or the operation unit 22 having the touch panel function of the navigation device 20.

図5に示されている例では、モデル車両MCの後方に位置する視点位置VP1が選択されており、この視点位置VP1からの視野範囲FE1が斜線にて表示されている。この視野範囲FE1は、たとえば、上記のバックモードやフロントモードの際にナビゲーション装置20に表示される合成画像の表示範囲に対応している。   In the example shown in FIG. 5, the viewpoint position VP1 located behind the model vehicle MC is selected, and the visual field range FE1 from the viewpoint position VP1 is displayed with diagonal lines. The visual field range FE1 corresponds to the display range of the composite image displayed on the navigation device 20 in the back mode or the front mode, for example.

戻るボタン71は、ひとつ前の画面である図示しない設定画面に戻る際に、ユーザにより選択される。また、完了ボタン72は、仮想視点の位置の変更情報を不揮発性メモリ40に記憶してひとつ前の画面である図示しない設定メニュー画面に戻る際に、ユーザにより選択される。そして、設定された仮想視点の視点位置に基づいて、上記のバックモードやフロントモードの合成画像の表示が行われる。   The return button 71 is selected by the user when returning to a previous setting screen (not shown). The completion button 72 is selected by the user when the change information of the position of the virtual viewpoint is stored in the nonvolatile memory 40 and the screen returns to the setting menu screen (not shown) which is the previous screen. Then, based on the set viewpoint position of the virtual viewpoint, the composite image in the back mode or the front mode is displayed.

次に、別の視点位置からの視野範囲を示したモデル図を第2の例とし、図6を用いて説明する。図6において上記図5に示すモデル図と異なる点は、仮想視点の視点位置がモデル車両MCの後方の視点位置VP1からモデル車両MCの直上(真上)の視点位置VP3に変更された点である。この変更はユーザのタッチパネル機能を備えたディスプレイ21や操作部22の操作に基づいて行われる。   Next, a model diagram showing a visual field range from another viewpoint position will be described as a second example with reference to FIG. 6 differs from the model diagram shown in FIG. 5 in that the viewpoint position of the virtual viewpoint is changed from the viewpoint position VP1 behind the model vehicle MC to the viewpoint position VP3 immediately above (directly above) the model vehicle MC. is there. This change is performed based on the operation of the display 21 or the operation unit 22 having a touch panel function of the user.

そして、この視点位置の変更に伴い、視野範囲も視点位置VP1に対応するFE1の視野範囲から視点位置VP3に対応する視野範囲FE3に変更される。これにより、車両に対する仮想視点からの視野範囲を示すモデル図を出力しつつ、仮想視点の視点位置の変更を受け付けることができる。また、仮想視点の視点位置の変更に応じて、視野範囲を変更したモデル図を出力することで、仮想視点の視点位置に応じて車両の周辺のいずれの領域が合成画像として表示装置に表示されるのかがユーザはひと目でわかる。このため、仮想視点の位置を設定した後に合成画像を表示させて確認した結果、ユーザが希望する合成画像が示されていない場合は、設定をやり直すという煩わしい作業を解消できる。   With the change of the viewpoint position, the visual field range is also changed from the visual field range of FE1 corresponding to the visual point position VP1 to the visual field range FE3 corresponding to the visual point position VP3. Thereby, the change of the viewpoint position of the virtual viewpoint can be accepted while outputting the model diagram indicating the visual field range from the virtual viewpoint to the vehicle. In addition, by outputting a model diagram in which the visual field range is changed according to the change in the viewpoint position of the virtual viewpoint, any region around the vehicle is displayed as a composite image on the display device according to the viewpoint position of the virtual viewpoint. The user knows at a glance whether or not For this reason, if the composite image desired by the user is not shown as a result of displaying and confirming the composite image after setting the position of the virtual viewpoint, the troublesome work of redoing the setting can be eliminated.

また、選択された視点位置の表示態様を他の視点位置の候補の表示態様とは異ならせる。これにより、ユーザは表示装置をみて選択している視点位置をひと目で確認できる。   Further, the display mode of the selected viewpoint position is made different from the display modes of other viewpoint position candidates. Thereby, the user can confirm at a glance the viewpoint position selected by viewing the display device.

このようにユーザにより選択されている視点位置の表示態様と選択されていない視点位置の表示態様とを異ならせる方法としては、それぞれの表示の明るさを変えることがあげられる。たとえば、選択されている視点位置を明るい色(黄色や赤色などの光で照らされているような色)とし、選択されていない視点位置を暗い色(黒色や茶色などの光が遮られているような色)とする。   As a method of making the display mode of the viewpoint position selected by the user different from the display mode of the viewpoint position not selected in this way, the brightness of each display can be changed. For example, the selected viewpoint position is a bright color (color that is illuminated by light such as yellow or red), and the unselected viewpoint position is a dark color (black or brown light is blocked) Color).

なお、視点位置がVP1からVP3に変更されたことにより車両後方の後部ガラス上端部のルーフスポイラーの付近(図6では黒塗りで表示されている部分の死角領域FS3)が仮想視点の視点位置VP3から死角となる範囲として表示されている。このようにユーザに選択された視点位置から死角となる範囲は視野範囲FE3の表示態様と異なる表示態様とする。これにより、ユーザが設定する仮想視点から死角となって合成画像によって表示されない部分がひと目で確認できる。   Note that when the viewpoint position is changed from VP1 to VP3, the vicinity of the roof spoiler at the upper end of the rear glass at the rear of the vehicle (the blind spot area FS3 in black in FIG. 6) is the viewpoint position VP3 of the virtual viewpoint. It is displayed as a range that becomes a blind spot. Thus, the range which becomes a blind spot from the viewpoint position selected by the user is set to a display mode different from the display mode of the visual field range FE3. Thereby, it is possible to confirm at a glance a portion that becomes a blind spot from the virtual viewpoint set by the user and is not displayed by the composite image.

視野範囲の表示態様と死角となる範囲の表示態様とを異ならせる方法としては、両者の明るさを変える。たとえば、視野範囲を明るい色(黄色や赤色などの光で照らされているような色)とし、死角となる範囲を暗い色(黒色や茶色などの光が遮られているような色)とする。   As a method of making the display mode of the visual field range different from the display mode of the range that becomes the blind spot, the brightness of both is changed. For example, the field of view is a bright color (color that is illuminated by light such as yellow or red), and the range that becomes a blind spot is dark (color that is blocked by light such as black or brown). .

さらに、別の例としてモデル図と合成画像とを組み合わせてナビゲーション装置20に表示する第1の例を図7に示し、第2の例を図8に示す。図7では、上述の図5において説明したモデル図とともにその表示範囲FE1に対応して表示される合成画像CI1をナビゲーション装置20の一画面で表示している。これにより、ユーザは車両に対する仮想視点からの視野範囲を示すモデル図と、ユーザが選択した仮想視点の視点位置に基づいて生成される合成画像とを一画面で実際に確認しながら、視点位置の設定を行える。   Further, as another example, a first example in which a model diagram and a composite image are combined and displayed on the navigation device 20 is shown in FIG. 7, and a second example is shown in FIG. In FIG. 7, the composite image CI1 displayed corresponding to the display range FE1 is displayed on one screen of the navigation device 20 together with the model diagram described in FIG. As a result, the user can confirm the viewpoint position while actually confirming the model diagram showing the visual field range from the virtual viewpoint with respect to the vehicle and the composite image generated based on the viewpoint position of the virtual viewpoint selected by the user on one screen. Can be set.

図8は上述の図6において説明したモデル図とともにその表示範囲FE3に対応して表示される合成画像CI3をナビゲーション装置20の一画面で表示している。そして、図7から図8へのモデル図および合成画像の変更は、ユーザが視点位置変更アイコン61を操作して行う。これにより、ユーザは仮想視点の視点位置とその視点位置に対応したナビゲーション装置20に表示される合成画像の表示範囲を確認しながら、視点位置の変更を行える。   FIG. 8 displays the composite image CI3 displayed corresponding to the display range FE3 on one screen of the navigation device 20 together with the model diagram described in FIG. Then, the model diagram and the composite image are changed from FIG. 7 to FIG. 8 by the user operating the viewpoint position change icon 61. Thus, the user can change the viewpoint position while confirming the viewpoint position of the virtual viewpoint and the display range of the composite image displayed on the navigation device 20 corresponding to the viewpoint position.

なお、上述の実施の形態では、視点位置の変更はVP1からVP3への変更について述べたがこれ以外の視点位置への変更も可能であり、また実施の形態で述べた5箇所の視点位置に限定されることはなく、この5箇所以外の位置に視点位置を設けてもよい。また、視点位置の数を5箇所よりも減らしてもよい。   In the above-described embodiment, the viewpoint position is changed from VP1 to VP3. However, the viewpoint position can be changed to other viewpoint positions, and the five viewpoint positions described in the embodiment can be changed. There is no limitation, and viewpoint positions may be provided at positions other than these five positions. Further, the number of viewpoint positions may be reduced from five.

さらに、モデル図と合成画像とをともに表示する場合、一画面で表示する以外にそれぞれを別画面として表示してもよい。   Further, when both the model diagram and the composite image are displayed, they may be displayed as separate screens in addition to being displayed on one screen.

<2.動作>
次に、モデル図による視点位置設定処理を図9に示すフローチャートを用いて説明する。画像処理装置100は、ユーザが合成画像の仮想視点の視点位置を設定するためにタッチ機能を備えたディスプレイ21や操作部22を操作した旨の設定ボタン押下信号を受信する(ステップS101がYes)と、不揮発性メモリ40に記憶されている図示しない設定画面の情報をナビゲーション装置20へ出力して(ステップS102)、次の処理であるステップS103へ進む。なお、設定ボタン押下信号を受信していない場合(ステップS101がNo)は、処理を終了する。
<2. Operation>
Next, the viewpoint position setting process based on the model diagram will be described with reference to the flowchart shown in FIG. The image processing apparatus 100 receives a setting button pressing signal indicating that the user has operated the display 21 or the operation unit 22 having a touch function in order to set the viewpoint position of the virtual viewpoint of the composite image (Yes in step S101). Then, information on a setting screen (not shown) stored in the nonvolatile memory 40 is output to the navigation device 20 (step S102), and the process proceeds to step S103, which is the next process. If the setting button pressing signal has not been received (No in step S101), the process ends.

次に、ステップS103では設定画面のうちの仮想視点の視点位置設定ボタンが押下された信号を受信する(ステップS103がYes)と、現在設定されている視点位置に対応した視野範囲を示すモデル図を不揮発性メモリ40のモデル図データ4bから読み出して、出力部42aを介してナビゲーション装置20へ出力する(ステップS104)。なお、画像処理装置100の受信部42bが仮想視点の視点位置設定ボタンの押下信号を受信していない場合(ステップS103がNo)は、処理を終了する。   Next, in step S103, when a signal indicating that the viewpoint position setting button of the virtual viewpoint in the setting screen is pressed is received (step S103 is Yes), a model diagram showing a visual field range corresponding to the currently set viewpoint position. Is read from the model diagram data 4b of the nonvolatile memory 40 and output to the navigation device 20 via the output unit 42a (step S104). If the receiving unit 42b of the image processing apparatus 100 has not received a pressing signal for the virtual viewpoint viewpoint position setting button (No in step S103), the process ends.

そして、ナビゲーション装置20に表示されたモデル図の視点位置変更アイコン61をユーザが操作したことで、視点位置を所定の位置に変更した場合はその信号を受付部42bが受信する(ステップS105がYes)と、不揮発性メモリ40に変更した視点位置情報を記憶する(ステップS106)。   When the viewpoint position is changed to a predetermined position by the user operating the viewpoint position change icon 61 of the model diagram displayed on the navigation device 20, the reception unit 42b receives the signal (Yes in step S105). ) And the changed viewpoint position information is stored in the nonvolatile memory 40 (step S106).

なお、視点位置の変更に伴う信号を受付部42bが受信していない場合は、ナビゲーション装置20に同一の視点位置のモデル図がそのまま表示された状態となり、次の処理であるステップS108へ進む。   If the reception unit 42b has not received a signal associated with a change in viewpoint position, the model diagram of the same viewpoint position is displayed as it is on the navigation device 20, and the process proceeds to step S108, which is the next process.

ステップS106にて視点位置の情報を記憶した後は、変更された視点位置でその視点位置に対応した視野範囲を示すモデル図情報をモデル図データ4bから読み出して、出力部42aからナビゲーション装置20へ出力する(ステップS107)。これにより、車両に対する仮想視点からの視野範囲を示すモデル図を出力しつつ、仮想視点の視点位置の変更を受け付ける。   After the information on the viewpoint position is stored in step S106, model diagram information indicating the visual field range corresponding to the viewpoint position at the changed viewpoint position is read from the model diagram data 4b and sent from the output unit 42a to the navigation device 20. Output (step S107). Thereby, the change of the viewpoint position of the virtual viewpoint is accepted while outputting the model diagram showing the visual field range from the virtual viewpoint to the vehicle.

そして、仮想視点の視点位置の変更に応じて、視野範囲を変更したモデル図を出力することで、仮想視点の視点位置に応じて車両の周辺のいずれの領域が合成画像として表示装置に表示されるのかがひと目でわかる。このため、仮想視点の位置を設定した後に合成画像を表示させて確認した結果、ユーザが希望する合成画像が示されていない場合は、設定をやり直すという煩わしい作業を解消できる。   Then, by outputting a model diagram in which the visual field range is changed according to the change of the viewpoint position of the virtual viewpoint, any region around the vehicle is displayed as a composite image on the display device according to the viewpoint position of the virtual viewpoint. At a glance. For this reason, if the composite image desired by the user is not shown as a result of displaying and confirming the composite image after setting the position of the virtual viewpoint, the troublesome work of redoing the setting can be eliminated.

次に、モデル図内の完了ボタン72が押下された信号を受信する(ステップS108がYes)と、変更後の視点位置の設定のまま処理を終了して、設定ボタン押下前の画面(例えば、ナビモードの画面)に戻る。なお、完了ボタンが押下された信号を受信していない場合(ステップS108がNo)の場合は、ナビゲーション装置20にモデル図がそのまま表示された状態となる。または、所定時間経過後にナビモードの画面に戻る。   Next, when a signal indicating that the completion button 72 in the model diagram has been pressed is received (Yes in step S108), the process ends with the setting of the changed viewpoint position, and a screen before the setting button is pressed (for example, Return to the navigation mode screen. If the signal indicating that the completion button has been pressed is not received (No in step S108), the model diagram is displayed as it is on the navigation device 20. Alternatively, the screen returns to the navigation mode screen after a predetermined time has elapsed.

なお、上記処理で説明した不揮発性メモリ40に記憶されているモデルデータ4bや図示しない設定画面のデータなどはナビゲーション装置20に備えられた図示しないメモリに記憶していてもよい。
<3.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態で説明した形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
Note that the model data 4b stored in the non-volatile memory 40 described in the above processing, setting screen data (not shown), and the like may be stored in a memory (not shown) provided in the navigation device 20.
<3. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made. Below, such a modification is demonstrated. All forms including those described in the above embodiment and those described below can be combined as appropriate.

上記実施の形態では、画像処理装置100とナビゲーション装置20とは別の装置であるとして説明したが、画像処理装置100とナビゲーション装置20とが同一の筐体内に配置されて一体型の装置として構成されてもよい。   In the above embodiment, the image processing apparatus 100 and the navigation apparatus 20 are described as separate apparatuses. However, the image processing apparatus 100 and the navigation apparatus 20 are arranged in the same casing and configured as an integrated apparatus. May be.

また、上記実施の形態では、画像処理装置100で生成された画像を表示する表示装置はナビゲーション装置20であるとして説明したが、ナビゲーション機能等の特殊な機能を有していない一般的な表示装置であってもよい。   In the above embodiment, the display device that displays the image generated by the image processing device 100 is described as the navigation device 20, but a general display device that does not have a special function such as a navigation function. It may be.

また、上記実施の形態において、画像処理装置100の制御部1によって実現されると説明した機能の一部は、ナビゲーション装置20の制御部23によって実現されてもよい。   In the above embodiment, some of the functions described as being realized by the control unit 1 of the image processing apparatus 100 may be realized by the control unit 23 of the navigation apparatus 20.

また、上記実施の形態において、信号入力部41を介して画像処理装置100の制御部1に入力されると説明した信号の一部または全部は、ナビゲーション装置20に入力されるようになっていてもよい。この場合は、ナビ通信部42を経由して、画像処理装置100の制御部1に当該信号を入力すればよい。   In the above embodiment, part or all of the signals described as being input to the control unit 1 of the image processing apparatus 100 via the signal input unit 41 are input to the navigation apparatus 20. Also good. In this case, the signal may be input to the control unit 1 of the image processing apparatus 100 via the navigation communication unit 42.

また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。   Further, in the above-described embodiment, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. Also good. Conversely, some of the functions realized by the hardware circuit may be realized by software.

1 制御部
3 画像生成部
5 撮影部
20 ナビゲーション装置
40 不揮発性メモリ
41 信号入力部
42 ナビ通信部
81 シフトセンサ
82 車速度センサ
1 Control unit
3 Image generator 5 Imager 20 Navigation device 40 Non-volatile memory 41 Signal input unit 42 Navigation communication unit 81 Shift sensor 82 Vehicle speed sensor

Claims (5)

車両の周辺を複数のカメラで撮影して得られる複数の画像に基づいて任意の仮想視点からみた合成画像を生成する合成画像生成手段と、
前記車両の側面に対する前記仮想視点の視点位置を示すモデル図を表示装置に出力する出力手段とを備え、
前記出力手段は、前記車両のユーザの操作に応じて前記視点位置を変更した前記モデル図を出力すること、
を特徴とする画像処理装置。
Composite image generation means for generating a composite image viewed from an arbitrary virtual viewpoint based on a plurality of images obtained by photographing the periphery of the vehicle with a plurality of cameras;
An output means for outputting a model diagram showing a viewpoint position of the virtual viewpoint with respect to a side surface of the vehicle to a display device;
The output means outputs the model diagram in which the viewpoint position is changed according to an operation of a user of the vehicle;
An image processing apparatus.
請求項1に記載の画像処理装置において、
前記出力手段は、前記視点位置を変更した前記モデル図とともに、変更された前記視点位置に応じて生成された前記合成画像を出力すること、
を特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The output means outputs the composite image generated according to the changed viewpoint position together with the model diagram in which the viewpoint position has been changed.
An image processing apparatus.
請求項1または2に記載の画像処理装置において、
前記視点位置は、2つの視点位置変更アイコンを用いた前記ユーザの操作により変更されること、
を特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The viewpoint position is changed by the user's operation using two viewpoint position change icons;
An image processing apparatus.
車両の周辺を複数のカメラで撮影して得られる複数の画像に基づいて任意の仮想視点からみた合成画像を生成する合成画像生成手段と、
前記車両の側面に対する前記仮想視点の視野範囲を示すモデル図を表示装置に出力する出力手段とを備え、
前記出力手段は、前記車両のユーザの操作に応じて前記視野範囲を変更した前記モデル図を出力すること、
を特徴とする画像処理装置。
Composite image generation means for generating a composite image viewed from an arbitrary virtual viewpoint based on a plurality of images obtained by photographing the periphery of the vehicle with a plurality of cameras;
Output means for outputting a model diagram showing a visual field range of the virtual viewpoint with respect to a side surface of the vehicle to a display device;
The output means outputs the model diagram in which the visual field range is changed according to an operation of a user of the vehicle;
An image processing apparatus.
請求項4に記載の画像処理装置において、
前記出力手段は、前記視野範囲を変更した前記モデル図とともに、変更された前記視野範囲に応じて生成された前記合成画像を出力すること、
を特徴とする画像処理装置。
The image processing apparatus according to claim 4.
The output means outputs the composite image generated according to the changed visual field range together with the model diagram in which the visual field range is changed,
An image processing apparatus.
JP2013128429A 2013-06-19 2013-06-19 Image processing apparatus, image processing system, and image processing method Active JP5479639B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013128429A JP5479639B2 (en) 2013-06-19 2013-06-19 Image processing apparatus, image processing system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013128429A JP5479639B2 (en) 2013-06-19 2013-06-19 Image processing apparatus, image processing system, and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010008827A Division JP5302227B2 (en) 2010-01-19 2010-01-19 Image processing apparatus, image processing system, and image processing method

Publications (2)

Publication Number Publication Date
JP2013225903A true JP2013225903A (en) 2013-10-31
JP5479639B2 JP5479639B2 (en) 2014-04-23

Family

ID=49595623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013128429A Active JP5479639B2 (en) 2013-06-19 2013-06-19 Image processing apparatus, image processing system, and image processing method

Country Status (1)

Country Link
JP (1) JP5479639B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159863A1 (en) * 2016-03-18 2017-09-21 株式会社デンソー Information processing device
JP2019129530A (en) * 2018-01-22 2019-08-01 株式会社ユピテル System, control method, and program
CN110503597A (en) * 2019-07-09 2019-11-26 浙江浩腾电子科技股份有限公司 A kind of vehicle point of view normalization method based on 2D structural model
US10703275B2 (en) 2016-05-18 2020-07-07 Denso Ten Limited Image generation apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134507A (en) * 2001-10-24 2003-05-09 Nissan Motor Co Ltd Monitor device for rear of vehicle
JP2005341466A (en) * 2004-05-31 2005-12-08 Auto Network Gijutsu Kenkyusho:Kk In-vehicle camera system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134507A (en) * 2001-10-24 2003-05-09 Nissan Motor Co Ltd Monitor device for rear of vehicle
JP2005341466A (en) * 2004-05-31 2005-12-08 Auto Network Gijutsu Kenkyusho:Kk In-vehicle camera system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159863A1 (en) * 2016-03-18 2017-09-21 株式会社デンソー Information processing device
JP2017175182A (en) * 2016-03-18 2017-09-28 株式会社デンソー Information processing unit
US10703275B2 (en) 2016-05-18 2020-07-07 Denso Ten Limited Image generation apparatus
JP2019129530A (en) * 2018-01-22 2019-08-01 株式会社ユピテル System, control method, and program
JP7277894B2 (en) 2018-01-22 2023-05-19 株式会社ユピテル System, control method, program, etc.
CN110503597A (en) * 2019-07-09 2019-11-26 浙江浩腾电子科技股份有限公司 A kind of vehicle point of view normalization method based on 2D structural model
CN110503597B (en) * 2019-07-09 2023-05-16 浙江浩腾电子科技股份有限公司 Vehicle viewpoint normalization method based on 2D structure model

Also Published As

Publication number Publication date
JP5479639B2 (en) 2014-04-23

Similar Documents

Publication Publication Date Title
JP5302227B2 (en) Image processing apparatus, image processing system, and image processing method
JP5087051B2 (en) Image generating apparatus and image display system
WO2011078201A1 (en) Image processing device, image processing system, and image processing method
JP5627253B2 (en) Image processing apparatus, electronic apparatus, and image processing method
JP5765995B2 (en) Image display system
JP5341789B2 (en) Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program
JP5271154B2 (en) Image generating apparatus and image display system
JP5697512B2 (en) Image generation apparatus, image display system, and image display apparatus
JP5658507B2 (en) Image display system, image generation apparatus, and image display method
JP5914114B2 (en) Parking assistance device and parking assistance method
JP2012217000A (en) Image display system, image generation apparatus, and image generation method
JP5479639B2 (en) Image processing apparatus, image processing system, and image processing method
JP2012046124A (en) Image display system, image processing device and image display method
JP6118936B2 (en) Image processing device
JP5677168B2 (en) Image display system, image generation apparatus, and image generation method
JP2012065228A (en) Image processing apparatus, image display system, and image display method
JP5466743B2 (en) Image generating apparatus and image display system
JP2012061954A (en) Image display system, image processing device and image display method
JP5643028B2 (en) Image display system, image processing apparatus, and image processing method
JP2012191479A (en) Information processing system, server device, and in-vehicle device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140212

R150 Certificate of patent or registration of utility model

Ref document number: 5479639

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250