JP5829851B2 - Image processing system, vehicle apparatus, image processing apparatus, program, and image display method - Google Patents

Image processing system, vehicle apparatus, image processing apparatus, program, and image display method Download PDF

Info

Publication number
JP5829851B2
JP5829851B2 JP2011152541A JP2011152541A JP5829851B2 JP 5829851 B2 JP5829851 B2 JP 5829851B2 JP 2011152541 A JP2011152541 A JP 2011152541A JP 2011152541 A JP2011152541 A JP 2011152541A JP 5829851 B2 JP5829851 B2 JP 5829851B2
Authority
JP
Japan
Prior art keywords
image
vehicle
image processing
captured images
composite image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011152541A
Other languages
Japanese (ja)
Other versions
JP2013021468A (en
Inventor
渡邊 栄治郎
栄治郎 渡邊
古川 健司
健司 古川
前畑 実
実 前畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2011152541A priority Critical patent/JP5829851B2/en
Publication of JP2013021468A publication Critical patent/JP2013021468A/en
Application granted granted Critical
Publication of JP5829851B2 publication Critical patent/JP5829851B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両に搭載されたカメラで得られた画像を処理する技術に関する。   The present invention relates to a technique for processing an image obtained by a camera mounted on a vehicle.

従来より、自動車などの車両に搭載されたカメラで得られた撮影画像を用いて、車両の周辺の領域を示す画像をディスプレイに表示する車載装置が知られている。このような車載装置を利用することにより、ユーザ(代表的にはドライバ)は、車両の周辺の様子を把握することができる。   2. Description of the Related Art Conventionally, an in-vehicle device that displays an image showing a region around a vehicle on a display using a captured image obtained by a camera mounted on the vehicle such as an automobile is known. By using such a vehicle-mounted device, a user (typically a driver) can grasp the situation around the vehicle.

例えば、車両の後方を示す画像を表示する車載装置であるバックモニタ装置を利用すれば、ユーザは車両を後退させる場合に、車両の後方に存在する物体を把握しやすい。このため、ユーザは、車両と物体との接触を回避しつつ、車両を安全に後退させることができる。   For example, if a back monitor device that is an in-vehicle device that displays an image showing the rear of the vehicle is used, the user can easily grasp an object that exists behind the vehicle when the vehicle is moved backward. Therefore, the user can safely move the vehicle backward while avoiding contact between the vehicle and the object.

また、近年では、車両の周辺の異なる方向を撮影する複数のカメラでそれぞれ得られた複数の撮影画像を用いて仮想視点からみた合成画像を生成し、その合成画像を表示する車載装置も提案されている(例えば、特許文献1参照。)。ユーザは、このような合成画像を確認することで、車両の近傍に存在する物体の位置を直感的に把握することができる。   In recent years, an in-vehicle device that generates a composite image viewed from a virtual viewpoint using a plurality of captured images respectively obtained by a plurality of cameras that capture different directions around the vehicle and displays the composite image has also been proposed. (For example, refer to Patent Document 1). The user can intuitively grasp the position of an object existing in the vicinity of the vehicle by checking such a composite image.

特許第3286306号公報Japanese Patent No. 3286306

しかしながら、上記のような合成画像を生成するためには複雑かつ多大な演算処理が必要となるため、車載装置は、演算能力の高い高性能な集積回路を備える必要がある。このため、ユーザがこのような合成画像の表示機能を所望する場合、比較的コストの高い車載装置の導入が必要となるため、コストの低減が求められていた。   However, in order to generate the composite image as described above, complicated and enormous arithmetic processing is required, and thus the in-vehicle device needs to include a high-performance integrated circuit with high arithmetic capability. For this reason, when a user desires such a composite image display function, it is necessary to introduce a relatively high-cost in-vehicle device, and thus a reduction in cost has been demanded.

本発明は、上記課題に鑑みてなされたものであり、比較的コストの低い車両用装置を用いて合成画像を表示させることができる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of displaying a composite image using a vehicular apparatus with relatively low cost.

上記課題を解決するため、請求項1の発明は、画像処理システムであって、車両で用いられる車両用装置と、前記車両用装置とは別個に構成される画像処理装置と、を備え、前記車両用装置は、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、前記複数の撮影画像を前記画像処理装置に送信する第1送信手段と、前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する第1受信手段と、前記合成画像を表示装置に出力して表示させる出力手段と、を備え、前記画像処理装置は、前記車両用装置から送信された前記複数の撮影画像を受信する第2受信手段と、前記複数の撮影画像に基づいて前記合成画像を生成する生成手段と、前記合成画像を前記車両用装置に送信する第2送信手段と、を備え、前記出力手段は、前記第1送信手段が前記複数の撮影画像を送信してから該複数の撮影画像に基づく前記合成画像を前記第1受信手段が受信するまでの期間、該複数の撮影画像の少なくとも一つを前記表示装置に出力して表示させる
In order to solve the above-mentioned problem, an invention of claim 1 is an image processing system, comprising: a vehicle device used in a vehicle; and an image processing device configured separately from the vehicle device, The vehicle apparatus includes an acquisition unit that acquires a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle, a first transmission unit that transmits the plurality of captured images to the image processing device, First receiving means for receiving a composite image generated by the image processing device based on a plurality of photographed images and showing a region around the vehicle as viewed from a virtual viewpoint; and outputting the composite image to a display device for display Output means for causing the image processing apparatus to generate a composite image based on the second reception means for receiving the plurality of photographed images transmitted from the vehicle device and the plurality of photographed images. Generator When, and a second transmission means for transmitting the composite image device for the vehicle, said output means, said first transmission means based on the plurality of captured images from the transmission of the plurality of captured images During the period until the first receiving means receives the composite image, at least one of the plurality of captured images is output and displayed on the display device .

また、請求項の発明は、画像処理システムであって、車両で用いられる車両用装置と、前記車両用装置とは別個に構成される画像処理装置と、を備え、前記車両用装置は、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、前記複数の撮影画像を前記画像処理装置に送信する第1送信手段と、前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する第1受信手段と、前記合成画像を表示装置に出力して表示させる出力手段と、を備え、前記画像処理装置は、前記車両用装置から送信された前記複数の撮影画像を受信する第2受信手段と、前記複数の撮影画像に基づいて前記合成画像を生成する生成手段と、前記合成画像を前記車両用装置に送信する第2送信手段と、を備え、前記取得手段は、前記複数の撮影画像のそれぞれを周期的に取得するものであり、前記車両用装置は、前記複数の撮影画像のうち、含まれる被写体が時間的に変化した変化画像を特定する特定手段、をさらに備え、前記変化画像がある場合は、前記第1送信手段は、前記複数の撮影画像のうちの前記変化画像のみを送信し、前記生成手段は、過去に前記合成画像の生成に用いた前記複数の撮影画像のうち、前記変化画像に対応する前記撮影画像のみを前記変化画像に替えて、新たな前記合成画像を生成し、前記出力手段は、前記変化画像に基づく前記合成画像を出力する前に、前記変化画像を前記表示装置に出力して表示させる。
The invention of claim 2 is an image processing system comprising a vehicle device used in a vehicle and an image processing device configured separately from the vehicle device, wherein the vehicle device includes: An acquisition unit that acquires a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle, a first transmission unit that transmits the plurality of captured images to the image processing device, and a plurality of captured images. First receiving means for receiving a composite image generated by the image processing device based on a virtual viewpoint and showing a region around the vehicle, and output means for outputting and displaying the composite image on a display device; The image processing apparatus includes: a second receiving unit configured to receive the plurality of captured images transmitted from the vehicle device; a generating unit configured to generate the composite image based on the plurality of captured images; Composite image Second transmitting means for transmitting to the vehicular apparatus, wherein the acquiring means periodically acquires each of the plurality of captured images, and the vehicular apparatus includes the plurality of captured images. Among them, the information processing apparatus further includes a specifying unit that specifies a change image in which an included subject has changed with time, and when there is the change image, the first transmission unit only includes the change image of the plurality of captured images. And the generation means replaces only the captured image corresponding to the change image among the plurality of captured images used for generation of the composite image in the past with the change image, thereby generating a new composite image. The output means outputs the change image to the display device for display before outputting the composite image based on the change image.

また、請求項の発明は、請求項に記載の画像処理システムにおいて、前記車両用装置は、前記変化画像がある場合に、ユーザに警告する警告手段、をさらに備えている。
Further, the invention of claim 3, in the image processing system according to claim 2, wherein the vehicle device, when there is the change in image, a warning means for warning the user, the more.

また、請求項の発明は、画像処理システムであって、車両で用いられる車両用装置と、前記車両用装置とは別個に構成される画像処理装置と、を備え、前記車両用装置は、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、前記複数の撮影画像を前記画像処理装置に送信する第1送信手段と、前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する第1受信手段と、前記合成画像を表示装置に出力して表示させる出力手段と、を備え、前記画像処理装置は、前記車両用装置から送信された前記複数の撮影画像を受信する第2受信手段と、前記複数の撮影画像に基づいて前記合成画像を生成する生成手段と、前記合成画像を前記車両用装置に送信する第2送信手段と、を備え、前記画像処理装置は、地表の様子を示す地表画像を記憶する記憶手段と、前記車両の位置を示す位置情報に基づいて、前記車両の周辺を示す前記地表画像と前記合成画像とを含む結合画像を生成する結合手段と、をさらに備え、前記第1送信手段は、前記位置情報を前記画像処理装置に送信し、前記第2送信手段は、前記結合画像を前記車両用装置に送信し、前記出力手段は、前記結合画像を前記表示装置に出力して表示させる。
According to a fourth aspect of the present invention, there is provided an image processing system comprising: a vehicle device used in a vehicle; and an image processing device configured separately from the vehicle device, wherein the vehicle device includes: An acquisition unit that acquires a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle, a first transmission unit that transmits the plurality of captured images to the image processing device, and a plurality of captured images. First receiving means for receiving a composite image generated by the image processing device based on a virtual viewpoint and showing a region around the vehicle, and output means for outputting and displaying the composite image on a display device; The image processing apparatus includes: a second receiving unit configured to receive the plurality of captured images transmitted from the vehicle device; a generating unit configured to generate the composite image based on the plurality of captured images; Composite image And a second transmission means for transmitting to the device for the vehicle, the image processing apparatus, based on a storage means for storing the ground image showing the surface of a state, the position information indicating the position of said vehicle, said vehicle Combining means for generating a combined image including the ground image indicating the periphery of the image and the composite image, wherein the first transmission means transmits the position information to the image processing device, and the second transmission The means transmits the combined image to the vehicle device, and the output means outputs the combined image to the display device for display.

また、請求項の発明は、請求項に記載の画像処理システムにおいて、前記第1送信手段は、前記地表画像の縮尺に係る縮尺情報を前記画像処理装置に送信し、前記結合手段は、前記縮尺情報に応じた縮尺の前記地表画像を含む前記結合画像を生成する。
According to a fifth aspect of the present invention, in the image processing system according to the fourth aspect , the first transmission unit transmits scale information related to the scale of the ground image to the image processing device, and the combination unit includes: The combined image including the ground image having a scale corresponding to the scale information is generated.

また、請求項の発明は、画像処理システムであって、車両で用いられる車両用装置と、前記車両用装置とは別個に構成される画像処理装置と、を備え、前記車両用装置は、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、前記複数の撮影画像を前記画像処理装置に送信する第1送信手段と、前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する第1受信手段と、前記合成画像を表示装置に出力して表示させる出力手段と、を備え、前記画像処理装置は、前記車両用装置から送信された前記複数の撮影画像を受信する第2受信手段と、前記複数の撮影画像に基づいて前記合成画像を生成する生成手段と、前記合成画像を前記車両用装置に送信する第2送信手段と、を備え、前記画像処理装置は、前記複数のカメラをそれぞれ指定するための複数のボタン、をさらに備え、前記出力手段は、前記合成画像中における前記複数のカメラそれぞれの位置の近傍に当該カメラが対応する前記ボタンの識別情報を重畳した前記合成画像を前記表示装置に出力して表示させる。
The invention of claim 6 is an image processing system, comprising: a vehicle device used in a vehicle; and an image processing device configured separately from the vehicle device, wherein the vehicle device includes: An acquisition unit that acquires a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle, a first transmission unit that transmits the plurality of captured images to the image processing device, and a plurality of captured images. First receiving means for receiving a composite image generated by the image processing device based on a virtual viewpoint and showing a region around the vehicle, and output means for outputting and displaying the composite image on a display device; The image processing apparatus includes: a second receiving unit configured to receive the plurality of captured images transmitted from the vehicle device; a generating unit configured to generate the composite image based on the plurality of captured images; Composite image And a second transmission means for transmitting to the device for the vehicle, the image processing apparatus, a plurality of buttons for designating each of the plurality of cameras, further wherein the output means during the composite image The composite image in which the identification information of the button corresponding to the camera is superimposed in the vicinity of the position of each of the plurality of cameras is output and displayed on the display device.

また、請求項の発明は、請求項に記載の画像処理システムにおいて、前記生成手段は、前記複数のボタンのいずれかがユーザに操作された場合は、操作された前記ボタンに対応する前記カメラの位置の近傍を拡大した前記合成画像を生成する。
The invention according to claim 7 is the image processing system according to claim 6 , wherein, when any of the plurality of buttons is operated by a user, the generation unit corresponds to the operated button. The composite image in which the vicinity of the camera position is enlarged is generated.

また、請求項の発明は、請求項に記載の画像処理システムにおいて、前記第2送信手段は、前記複数のボタンのいずれかがユーザに操作された場合は、操作された前記ボタンを特定するボタン情報を前記車両用装置に送信し、前記出力手段は、前記ボタン情報に基づいて、操作された前記ボタンに対応する前記カメラで得られた前記撮影画像を前記表示装置に出力して表示させる。
The invention according to claim 8 is the image processing system according to claim 6 , wherein when the user operates any of the plurality of buttons, the second transmission unit specifies the operated button. Button information to be transmitted to the vehicular device, and the output means outputs, based on the button information, the captured image obtained by the camera corresponding to the operated button to the display device for display. Let

また、請求項の発明は、請求項6ないし8のいずれかに記載の画像処理システムにおいて、前記合成画像は、車両像を含み、前記ボタンの識別情報は、前記合成画像中の前記車両像に重なるように重畳される。
The invention according to claim 9 is the image processing system according to any one of claims 6 to 8 , wherein the composite image includes a vehicle image, and the identification information of the button is the vehicle image in the composite image. Is superimposed so as to overlap.

また、請求項10の発明は、請求項6ないし9のいずれかに記載の画像処理システムにおいて、前記画像処理装置は、前記合成画像中における前記複数のカメラそれぞれの位置の近傍に当該カメラが対応する前記ボタンの識別情報を重畳した前記合成画像を表示する表示手段、をさらに備えている。
The invention according to claim 10 is the image processing system according to any one of claims 6 to 9 , wherein the image processing apparatus corresponds to the position of each of the plurality of cameras in the composite image. Display means for displaying the composite image on which the identification information of the button to be superimposed is displayed.

また、請求項11の発明は、請求項10に記載の画像処理システムにおいて、前記表示手段は、画面の長手方向と、前記合成画像中の車両の像の長手方向とが一致するように前記合成画像を表示する。
The invention according to claim 11 is the image processing system according to claim 10 , wherein the display means is configured so that the longitudinal direction of the screen matches the longitudinal direction of the vehicle image in the composite image. Display an image.

また、請求項12の発明は、車両で用いられる車両用装置であって、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、前記複数の撮影画像を、前記車両用装置とは別個に構成される画像処理装置に送信する送信手段と、前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する受信手段と、前記合成画像を表示装置に出力して表示させる出力手段と、を備え、前記出力手段は、前記送信手段が前記複数の撮影画像を送信してから該複数の撮影画像に基づく前記合成画像を前記受信手段が受信するまでの期間、該複数の撮影画像の少なくとも一つを前記表示装置に出力して表示させる
また、請求項13の発明は、車両で用いられる車両用装置であって、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、前記複数の撮影画像を、前記車両用装置とは別個に構成される画像処理装置に送信する送信手段と、前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する受信手段と、前記合成画像を表示装置に出力して表示させる出力手段と、を備え、前記取得手段は、前記複数の撮影画像のそれぞれを周期的に取得するものであり、前記車両用装置は、前記複数の撮影画像のうち、含まれる被写体が時間的に変化した変化画像を特定する特定手段、をさらに備え、前記変化画像がある場合は、前記送信手段は、前記複数の撮影画像のうちの前記変化画像のみを送信し、前記受信手段は、過去に前記合成画像の生成に用いた前記複数の撮影画像のうち、前記変化画像に対応する前記撮影画像のみを前記変化画像に替えて前記画像処理装置で生成された新たな前記合成画像を受信し、前記出力手段は、前記変化画像に基づく前記合成画像を出力する前に、前記変化画像を前記表示装置に出力して表示させる。
また、請求項14の発明は、車両で用いられる車両用装置であって、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、前記複数の撮影画像を、前記車両用装置とは別個に構成される画像処理装置に送信する送信手段と、前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する受信手段と、前記合成画像を表示装置に出力して表示させる出力手段と、を備え、前記送信手段は、前記車両の位置を示す位置情報を前記画像処理装置に送信し、前記受信手段は、前記位置情報に基づいて前記画像処理装置で生成された、前記車両の周辺の地表の様子を示す地表画像と前記合成画像とを含む結合画像を受信し、前記出力手段は、前記結合画像を前記表示装置に出力して表示させる。
また、請求項15の発明は、車両で用いられる車両用装置であって、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、前記複数の撮影画像を、前記車両用装置とは別個に構成される画像処理装置に送信する送信手段と、前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する受信手段と、前記合成画像を表示装置に出力して表示させる出力手段と、を備え、前記画像処理装置は、前記複数のカメラをそれぞれ指定するための複数のボタン、を備え、前記出力手段は、前記合成画像中における前記複数のカメラそれぞれの位置の近傍に当該カメラが対応する前記ボタンの識別情報を重畳した前記合成画像を前記表示装置に出力して表示させる。
The invention of claim 12 is an apparatus for a vehicle used in a vehicle, the acquisition means for acquiring a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle, and the plurality of captured images. Transmitting means for transmitting the image to an image processing device configured separately from the vehicle device, and a region around the vehicle as viewed from a virtual viewpoint, generated by the image processing device based on the plurality of captured images Receiving means for receiving a composite image indicating the output, and output means for outputting and displaying the composite image on a display device , wherein the output means transmits the plurality of captured images after the transmission means transmits the plurality of captured images. During the period until the receiving unit receives the composite image based on a plurality of photographed images, at least one of the plurality of photographed images is output and displayed on the display device .
The invention of claim 13 is an apparatus for a vehicle used in a vehicle, the acquisition means for acquiring a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle, and the plurality of captured images. Transmitting means for transmitting the image to an image processing device configured separately from the vehicle device, and a region around the vehicle as viewed from a virtual viewpoint, generated by the image processing device based on the plurality of captured images Receiving means for receiving a composite image indicating the output and output means for outputting and displaying the composite image on a display device, wherein the acquisition means periodically acquires each of the plurality of captured images. And the vehicle apparatus further includes a specifying unit that specifies a change image in which a subject included in the plurality of captured images changes with time, and when there is the change image, the transmission unit includes: Previous Only the change image of the plurality of photographed images is transmitted, and the receiving unit transmits only the photographed image corresponding to the change image among the plurality of photographed images used for generation of the composite image in the past. The new composite image generated by the image processing device is received instead of the change image, and the output means outputs the change image to the display device before outputting the composite image based on the change image. To display.
The invention of claim 14 is an apparatus for a vehicle used in a vehicle, the acquisition means for acquiring a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle, and the plurality of captured images. Transmitting means for transmitting the image to an image processing device configured separately from the vehicle device, and a region around the vehicle as viewed from a virtual viewpoint, generated by the image processing device based on the plurality of captured images Receiving means for receiving a composite image indicating the output and output means for outputting and displaying the composite image on a display device, wherein the transmission means transmits position information indicating the position of the vehicle to the image processing device. The receiving means receives a combined image generated by the image processing device based on the position information and including a ground image indicating the state of the ground surface around the vehicle and the composite image, and the output means Is The serial combination image to be displayed is outputted to the display device.
The invention of claim 15 is an apparatus for a vehicle used in a vehicle, the acquisition means for acquiring a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle, and the plurality of captured images. Transmitting means for transmitting the image to an image processing device configured separately from the vehicle device, and a region around the vehicle as viewed from a virtual viewpoint, generated by the image processing device based on the plurality of captured images Receiving means for receiving a composite image showing, and output means for outputting and displaying the composite image on a display device, the image processing device, a plurality of buttons for designating each of the plurality of cameras, And the output means superimposes the composite image in which the identification information of the button corresponding to the camera is superimposed on the display device in the vicinity of the position of each of the plurality of cameras in the composite image. To display the force.

また、請求項16の発明は、車両で用いられる車両用装置と、前記車両用装置とは別個に構成される画像処理装置とを用いて画像を表示する画像表示方法であって、(a)前記車両用装置が、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する工程と、(b)前記複数の撮影画像を前記車両用装置から前記画像処理装置に送信する工程と、(c)前記画像処理装置が、前記複数の撮影画像に基づいて、仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する工程と、(d)前記合成画像を前記画像処理装置から前記車両用装置に送信する工程と、(e)前記車両用装置が、前記合成画像を表示装置に出力して表示させる工程と、を備え、前記工程(e)は、前記工程(b)で前記車両用装置が前記複数の撮影画像を送信してから該複数の撮影画像に基づく前記合成画像を前記工程(d)で前記車両用装置が受信するまでの期間、該複数の撮影画像の少なくとも一つを前記表示装置に出力して表示させる。
また、請求項17の発明は、車両で用いられる車両用装置と、前記車両用装置とは別個に構成される画像処理装置とを用いて画像を表示する画像表示方法であって、(a)前記車両用装置が、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する工程と、(b)前記複数の撮影画像を前記車両用装置から前記画像処理装置に送信する工程と、(c)前記画像処理装置が、前記複数の撮影画像に基づいて、仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する工程と、(d)前記合成画像を前記画像処理装置から前記車両用装置に送信する工程と、(e)前記車両用装置が、前記合成画像を表示装置に出力して表示させる工程と、を備え、前記工程(a)は、前記複数の撮影画像のそれぞれを周期的に取得するものであり、前記画像表示方法は、(f)前記車両用装置が、前記複数の撮影画像のうち、含まれる被写体が時間的に変化した変化画像を特定する工程、をさらに備え、前記変化画像がある場合は、前記工程(b)は、前記複数の撮影画像のうちの前記変化画像のみを送信し、前記工程(c)は、過去に前記合成画像の生成に用いた前記複数の撮影画像のうち、前記変化画像に対応する前記撮影画像のみを前記変化画像に替えて、新たな前記合成画像を生成し、前記工程(e)は、前記変化画像に基づく前記合成画像を出力する前に、前記変化画像を前記表示装置に出力して表示させる。
また、請求項18の発明は、車両で用いられる車両用装置と、前記車両用装置とは別個に構成される画像処理装置とを用いて画像を表示する画像表示方法であって、(a)前記車両用装置が、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する工程と、(b)前記複数の撮影画像を前記車両用装置から前記画像処理装置に送信する工程と、(c)前記画像処理装置が、前記複数の撮影画像に基づいて、仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する工程と、(d)前記合成画像を前記画像処理装置から前記車両用装置に送信する工程と、(e)前記車両用装置が、前記合成画像を表示装置に出力して表示させる工程と、を備え、前記画像表示方法は、(f)前記画像処理装置が、前記車両の位置を示す位置情報に基づいて、前記車両の周辺の地表の様子を示す地表画像と前記合成画像とを含む結合画像を生成する工程、をさらに備え、前記工程(b)は、前記位置情報を前記車両用装置から前記画像処理装置に送信し、前記工程(d)は、前記結合画像を前記画像処理装置から前記車両用装置に送信し、前記工程(e)は、前記結合画像を前記表示装置に出力して表示させる。
また、請求項19の発明は、車両で用いられる車両用装置と、前記車両用装置とは別個に構成される画像処理装置とを用いて画像を表示する画像表示方法であって、(a)前記車両用装置が、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する工程と、(b)前記複数の撮影画像を前記車両用装置から前記画像処理装置に送信する工程と、(c)前記画像処理装置が、前記複数の撮影画像に基づいて、仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する工程と、(d)前記合成画像を前記画像処理装置から前記車両用装置に送信する工程と、(e)前記車両用装置が、前記合成画像を表示装置に出力して表示させる工程と、を備え、前記画像処理装置は、前記複数のカメラをそれぞれ指定するための複数のボタン、を備え、前記工程(e)は、前記合成画像中における前記複数のカメラそれぞれの位置の近傍に当該カメラが対応する前記ボタンの識別情報を重畳した前記合成画像を前記表示装置に出力して表示させる。
The invention of claim 16 is an image display method for displaying an image using a vehicle apparatus used in a vehicle and an image processing apparatus configured separately from the vehicle apparatus, wherein: (a) The vehicle device acquiring a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle; and (b) transmitting the plurality of captured images from the vehicle device to the image processing device. And (c) the image processing device generates a composite image showing a region around the vehicle viewed from a virtual viewpoint based on the plurality of captured images, and (d) the composite image is converted into the composite image. Transmitting from the image processing device to the vehicle device; and (e) the vehicle device outputting and displaying the composite image on a display device, wherein the step (e) includes the step In (b), the vehicle apparatus is During the period from when the captured image is transmitted until the vehicle device receives the composite image based on the plurality of captured images in step (d), at least one of the plurality of captured images is sent to the display device. Output and display.
The invention according to claim 17 is an image display method for displaying an image using a vehicle apparatus used in a vehicle and an image processing apparatus configured separately from the vehicle apparatus, wherein (a) The vehicle device acquiring a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle; and (b) transmitting the plurality of captured images from the vehicle device to the image processing device. And (c) the image processing device generates a composite image showing a region around the vehicle viewed from a virtual viewpoint based on the plurality of captured images, and (d) the composite image is converted into the composite image. A step of transmitting from the image processing device to the vehicle device; and (e) the vehicle device outputting and displaying the composite image on a display device, wherein the step (a) includes the plurality of steps. Each of the captured images of The image display method further includes: (f) the vehicle device further including a step of identifying a change image in which an included subject has changed in time among the plurality of captured images. When there is an image, the step (b) transmits only the changed image among the plurality of captured images, and the step (c) includes the plurality of captured images used for generating the composite image in the past. Of the images, only the captured image corresponding to the change image is replaced with the change image to generate a new composite image, and the step (e) is performed before outputting the composite image based on the change image. In addition, the change image is output and displayed on the display device.
The invention of claim 18 is an image display method for displaying an image using a vehicle device used in a vehicle and an image processing device configured separately from the vehicle device, wherein: (a) The vehicle device acquiring a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle; and (b) transmitting the plurality of captured images from the vehicle device to the image processing device. And (c) the image processing device generates a composite image showing a region around the vehicle viewed from a virtual viewpoint based on the plurality of captured images, and (d) the composite image is converted into the composite image. A step of transmitting from the image processing device to the vehicle device; and (e) the vehicle device outputting and displaying the composite image on a display device, and the image display method comprises (f) The image processing device is provided on the vehicle. Generating a combined image including a ground image indicating the state of the ground surface around the vehicle and the composite image based on position information indicating a position, wherein the step (b) The vehicle apparatus transmits the combined image to the image processing apparatus, the step (d) transmits the combined image from the image processing apparatus to the vehicle apparatus, and the step (e) displays the combined image on the display. Output to device and display.
The invention according to claim 19 is an image display method for displaying an image using a vehicle apparatus used in a vehicle and an image processing apparatus configured separately from the vehicle apparatus. The vehicle device acquiring a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle; and (b) transmitting the plurality of captured images from the vehicle device to the image processing device. And (c) the image processing device generates a composite image showing a region around the vehicle viewed from a virtual viewpoint based on the plurality of captured images, and (d) the composite image is converted into the composite image. A step of transmitting from the image processing device to the vehicle device; and (e) the vehicle device outputting and displaying the composite image on a display device, wherein the image processing device includes the plurality of the image processing devices. To specify each camera And the step (e) includes displaying the composite image in which the identification information of the button corresponding to the camera is superimposed in the vicinity of the position of each of the plurality of cameras in the composite image. Output to and display.

請求項1ないし19の発明によれば、車両で用いられる車両用装置が仮想視点からみた合成画像を生成する機能を備えなくとも、合成画像を表示装置に表示させることができる。このため、比較的コストの低い車両用装置を用いて合成画像を表示装置に表示させることができる。   According to the first to nineteenth aspects of the present invention, the composite image can be displayed on the display device even if the vehicle device used in the vehicle does not have a function of generating the composite image viewed from the virtual viewpoint. For this reason, a composite image can be displayed on a display apparatus using the apparatus for vehicles with comparatively low cost.

また、特に請求項1、12及び16の発明によれば、合成画像を受信するまでは複数の撮影画像の少なくとも一つを表示させることから、合成画像の表示前であっても、ユーザは車両の周辺の様子を把握することができる。
In particular, according to the first, twelfth, and sixteenth aspects of the invention, at least one of the plurality of photographed images is displayed until the composite image is received. You can see the surrounding area.

また、特に請求項2、13及び17の発明によれば、合成画像を出力する前に変化画像を表示装置に表示させることから、合成画像の表示前であっても、ユーザは車両の周辺における変化のあった被写体を確認することができる。
Further, according to the inventions of claims 2, 13 and 17 in particular, since the change image is displayed on the display device before the composite image is output, the user can display the image in the vicinity of the vehicle even before the composite image is displayed. The subject that has changed can be confirmed.

また、特に請求項の発明によれば、変化画像がある場合にユーザに警告するため、ユーザは車両の周辺において変化のあった被写体が存在することを認識することができる。
In particular, according to the invention of claim 3 , since the user is warned when there is a change image, the user can recognize that there is a subject that has changed around the vehicle.

また、特に請求項4、14及び18の発明によれば、車両の周辺を示す地表画像と合成画像とを含む結合画像が表示されるため、ユーザは車両の近傍の物体の情報とともに、車両の周辺の地表の情報も得ることができる。
In particular, according to the inventions of claims 4, 14 and 18, since the combined image including the ground image indicating the periphery of the vehicle and the composite image is displayed, the user can view the vehicle information together with the information on the object in the vicinity of the vehicle. Information on the surrounding surface can also be obtained.

また、特に請求項の発明によれば、車両用装置から送信される縮尺情報に応じた縮尺の地表画像が生成されるため、車両用装置において必要な縮尺の地表画像を表示させることができる。
In particular, according to the fifth aspect of the present invention, since the ground image of a scale corresponding to the scale information transmitted from the vehicle device is generated, the ground image of a scale necessary for the vehicle device can be displayed. .

また、特に請求項6、15及び19の発明によれば、合成画像中における複数のカメラそれぞれの位置の近傍に対応するボタンの識別情報が重畳された合成画像が表示装置に表示される。このため、ユーザは、いずれのボタンがいずれのカメラと対応しているかを明確に把握することができる。
According to the sixth, fifteenth and nineteenth aspects of the present invention, the combined image in which the identification information of the buttons corresponding to the vicinity of the positions of the plurality of cameras in the combined image is superimposed is displayed on the display device. Therefore, the user can clearly grasp which button corresponds to which camera.

また、特に請求項の発明によれば、操作されたボタンに対応するカメラの位置の近傍を拡大した合成画像が表示されるため、ユーザは合成画像の所望の位置を拡大して確認することができる。
In particular, according to the invention of claim 7 , since the composite image in which the vicinity of the position of the camera corresponding to the operated button is enlarged is displayed, the user can enlarge and confirm the desired position of the composite image. Can do.

また、特に請求項の発明によれば、操作されたボタンに対応するカメラで得られた撮影画像が表示されるため、ユーザは所望の撮影画像を確認することができる。
In particular, according to the eighth aspect of the present invention, since the captured image obtained by the camera corresponding to the operated button is displayed, the user can confirm the desired captured image.

また、特に請求項の発明によれば、車両の周辺の被写体が、ボタンの識別情報によって隠れないようにすることができる。
In particular, according to the ninth aspect of the present invention, it is possible to prevent subjects around the vehicle from being hidden by the button identification information.

また、特に請求項10の発明によれば、画像処理装置において合成画像中における複数のカメラそれぞれの位置の近傍に対応するボタンの識別情報が重畳された合成画像が表示される。このため、ユーザは、いずれのボタンがいずれのカメラと対応しているかを画像処理装置の表示手段においても把握することができる。
In particular, according to the invention of claim 10 , the composite image in which the identification information of the button corresponding to the vicinity of the position of each of the plurality of cameras in the composite image is superimposed in the composite image is displayed. For this reason, the user can also grasp which button corresponds to which camera on the display means of the image processing apparatus.

また、特に請求項11の発明によれば、画面の長手方向と合成画像中の車両の像の長手方向とが一致するように合成画像が表示されるため、車両の像を比較的大きなサイズで表示することができる。
In particular, according to the invention of claim 11 , the composite image is displayed so that the longitudinal direction of the screen and the longitudinal direction of the vehicle image in the composite image coincide with each other. Can be displayed.

図1は、第1の実施の形態の画像処理システムの概要を示す図である。FIG. 1 is a diagram illustrating an overview of an image processing system according to the first embodiment. 図2は、第1の実施の形態の車載装置の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of the in-vehicle device according to the first embodiment. 図3は、車載カメラが配置される位置を示す図である。FIG. 3 is a diagram illustrating a position where the in-vehicle camera is arranged. 図4は、第1の実施の形態の可搬性装置の構成を示す図である。FIG. 4 is a diagram illustrating a configuration of the portable device according to the first embodiment. 図5は、合成画像を生成する手法を説明する図である。FIG. 5 is a diagram illustrating a method for generating a composite image. 図6は、第1の実施の形態の画像処理システムの処理の流れを示す図である。FIG. 6 is a diagram illustrating a processing flow of the image processing system according to the first embodiment. 図7は、表示画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of a display image. 図8は、第2の実施の形態の画像処理システムの処理の流れを示す図である。FIG. 8 is a diagram illustrating a processing flow of the image processing system according to the second embodiment. 図9は、表示画像の遷移例を示す図である。FIG. 9 is a diagram illustrating a transition example of the display image. 図10は、表示画像の遷移を示す図である。FIG. 10 is a diagram illustrating transition of the display image. 図11は、第3の実施の形態の車載装置の構成を示す図である。FIG. 11 is a diagram illustrating a configuration of the in-vehicle device according to the third embodiment. 図12は、表示画像の遷移例を示す図である。FIG. 12 is a diagram illustrating a transition example of the display image. 図13は、第3の実施の形態の画像処理システムの処理の流れを示す図である。FIG. 13 is a diagram illustrating a processing flow of the image processing system according to the third embodiment. 図14は、可搬性装置の操作部と車載装置の表示内容との関係を示す図である。FIG. 14 is a diagram illustrating the relationship between the operation unit of the portable device and the display content of the in-vehicle device. 図15は、表示画像の遷移例を示す図である。FIG. 15 is a diagram illustrating a transition example of the display image. 図16は、第4の実施の形態の画像処理システムの処理の流れを示す図である。FIG. 16 is a diagram illustrating a processing flow of the image processing system according to the fourth embodiment. 図17は、表示画像の一例を示す図である。FIG. 17 is a diagram illustrating an example of a display image. 図18は、表示画像の遷移例を示す図である。FIG. 18 is a diagram illustrating a transition example of the display image. 図19は、第5の実施の形態の画像処理システムの処理の流れを示す図である。FIG. 19 is a diagram illustrating a processing flow of the image processing system according to the fifth embodiment. 図20は、第6の実施の形態の画像処理システムの概要を示す図である。FIG. 20 is a diagram illustrating an overview of an image processing system according to the sixth embodiment. 図21は、第6の実施の形態の車載装置の構成を示す図である。FIG. 21 is a diagram illustrating a configuration of the in-vehicle device according to the sixth embodiment. 図22は、第6の実施の形態のサーバ装置の構成を示す図である。FIG. 22 is a diagram illustrating a configuration of a server device according to the sixth embodiment. 図23は、第6の実施の形態の画像処理システムの処理の流れを示す図である。FIG. 23 is a diagram illustrating a processing flow of the image processing system according to the sixth embodiment. 図24は、第7の実施の形態の車載装置の構成を示す図である。FIG. 24 is a diagram illustrating a configuration of the in-vehicle device according to the seventh embodiment. 図25は、第7の実施の形態のサーバ装置の構成を示す図である。FIG. 25 is a diagram illustrating a configuration of a server device according to the seventh embodiment. 図26は、第6の実施の形態の画像処理システムの処理の流れを示す図である。FIG. 26 is a diagram illustrating a processing flow of the image processing system according to the sixth embodiment. 図27は、結合画像の一例を示す図である。FIG. 27 is a diagram illustrating an example of a combined image. 図28は、表示画像の遷移を示す図である。FIG. 28 is a diagram illustrating transition of a display image. 図29は、縮尺を変更するための画像処理システムの処理の流れを示す図である。FIG. 29 is a diagram illustrating a processing flow of the image processing system for changing the scale.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1の実施の形態>
<1−1.システムの概要>
図1は、第1の実施の形態の画像処理システム10の概要を示す図である。画像処理システム10は、自動車などの車両9に搭載される車載装置2と、車載装置2とは別個に構成される可搬性装置3とを備えている。
<1. First Embodiment>
<1-1. System overview>
FIG. 1 is a diagram illustrating an overview of an image processing system 10 according to the first embodiment. The image processing system 10 includes an in-vehicle device 2 mounted on a vehicle 9 such as an automobile, and a portable device 3 configured separately from the in-vehicle device 2.

車載装置2及び可搬性装置3の双方は、Bluetooth(登録商標)などの所定の通信方式に準拠した無線通信機能を有している。したがって、車載装置2と可搬性装置3とは、無線通信によって相互にデータを送受信することが可能となっている。なお、車載装置2と可搬性装置3とを通信ケーブルで物理的に接続し、車載装置2と可搬性装置3とが有線通信によって相互にデータを送受信可能となっていてもよい。   Both the in-vehicle device 2 and the portable device 3 have a wireless communication function based on a predetermined communication method such as Bluetooth (registered trademark). Therefore, the in-vehicle device 2 and the portable device 3 can transmit / receive data to / from each other by wireless communication. The in-vehicle device 2 and the portable device 3 may be physically connected by a communication cable so that the in-vehicle device 2 and the portable device 3 can transmit and receive data to each other through wired communication.

車載装置2は、車両9で用いられる車両用装置であり、車両9の周辺を撮影する複数の車載カメラ5と、ディスプレイ29とを備えている。車載装置2は、複数の車載カメラ5で得られた撮影画像に基づく画像を、車両9の車室内のディスプレイ29に表示する機能を有している。   The in-vehicle device 2 is a vehicle device used in the vehicle 9, and includes a plurality of in-vehicle cameras 5 that capture the periphery of the vehicle 9 and a display 29. The in-vehicle device 2 has a function of displaying images based on captured images obtained by the plurality of in-vehicle cameras 5 on the display 29 in the vehicle interior of the vehicle 9.

また、可搬性装置3は、例えば、携帯電話やスマートフォンなど、車両9に乗車したユーザが所持する携帯型の装置である。可搬性装置3は、通話機能とともに画像処理機能を有しており、画像処理装置として機能する。この可搬性装置3が備える画像処理機能の一つとして、仮想視点からみた合成画像を生成する機能がある。   Moreover, the portable apparatus 3 is a portable apparatus possessed by a user who gets on the vehicle 9, such as a mobile phone or a smartphone. The portable device 3 has an image processing function as well as a call function, and functions as an image processing device. One of the image processing functions provided in the portable device 3 is a function of generating a composite image viewed from a virtual viewpoint.

画像処理システム10では、このように可搬性装置3が合成画像を生成する機能を備えるため、車載装置2が合成画像を生成する機能を備えていなくとも、合成画像を車載装置2のディスプレイ29に表示できるようになっている。車載装置2は、複数の車載カメラ5でそれぞれ得られた複数の撮影画像を可搬性装置3に送信する。可搬性装置3は、これら複数の撮影画像に基づいて仮想視点からみた合成画像を生成する。そして、可搬性装置3は生成した合成画像を車載装置2に返信し、車載装置2がこの合成画像をディスプレイ29に表示する。以下、このような画像処理システム10の構成及び処理について詳細に説明する。   In the image processing system 10, since the portable device 3 has a function of generating a composite image, the composite image is displayed on the display 29 of the in-vehicle device 2 even if the in-vehicle device 2 does not have a function of generating a composite image. It can be displayed. The in-vehicle device 2 transmits a plurality of captured images respectively obtained by the plurality of in-vehicle cameras 5 to the portable device 3. The portable device 3 generates a composite image viewed from a virtual viewpoint based on the plurality of captured images. The portable device 3 returns the generated composite image to the in-vehicle device 2, and the in-vehicle device 2 displays the composite image on the display 29. Hereinafter, the configuration and processing of such an image processing system 10 will be described in detail.

<1−2.車載装置の構成>
まず、車載装置2の構成について説明する。図2は、車載装置2の構成を示す図である。車載装置2は、前述した複数の車載カメラ5及びディスプレイ29とともに、本体部21と操作部22とを備えている。
<1-2. Configuration of in-vehicle device>
First, the configuration of the in-vehicle device 2 will be described. FIG. 2 is a diagram illustrating a configuration of the in-vehicle device 2. The in-vehicle device 2 includes a main body 21 and an operation unit 22 together with the plurality of in-vehicle cameras 5 and the display 29 described above.

ディスプレイ29は、例えば、液晶パネルなどを備えた薄型の表示装置である。ディスプレイ29は、本体部21と一体化されており、本体部21から出力される表示画像を表示する。ディスプレイ29は、その表示画面がユーザから視認可能なように、車室内のインストルメントパネルなどに配置される。   The display 29 is a thin display device including a liquid crystal panel, for example. The display 29 is integrated with the main body 21 and displays a display image output from the main body 21. The display 29 is arranged on an instrument panel or the like in the passenger compartment so that the display screen can be visually recognized by the user.

複数の車載カメラ5はそれぞれ、レンズと撮像素子とを備えており、車両9の周辺を示す撮影画像を電子的に取得する。各車載カメラ5F,5B,5L,5Rは、所定の周期(例えば、1/30秒)で周期的に撮影を行う。   Each of the plurality of in-vehicle cameras 5 includes a lens and an imaging device, and electronically acquires a captured image showing the periphery of the vehicle 9. Each of the in-vehicle cameras 5F, 5B, 5L, and 5R periodically shoots at a predetermined cycle (for example, 1/30 second).

複数の車載カメラ5はそれぞれ、本体部21とは別に車両9の適位置に配置され、取得した撮影画像を本体部21に入力する。複数の車載カメラ5は、フロントカメラ5F、バックカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rを含んでいる。これら4つの車載カメラ5F,5B,5L,5Rは、車両9の異なる位置に配置され、車両9の周辺の異なる方向を撮影する。   Each of the plurality of in-vehicle cameras 5 is disposed at an appropriate position of the vehicle 9 separately from the main body 21 and inputs the acquired captured image to the main body 21. The plurality of in-vehicle cameras 5 include a front camera 5F, a back camera 5B, a left side camera 5L, and a right side camera 5R. These four in-vehicle cameras 5F, 5B, 5L, and 5R are arranged at different positions of the vehicle 9 and photograph different directions around the vehicle 9.

図3は、車載カメラ5F,5B,5L,5Rが車両9に配置される位置を示す図である。フロントカメラ5Fは、車両9の前端の左右中央の近傍に設けられ、その光軸5Faは車両9の前方(直進方向)に向けられている。バックカメラ5Bは、車両9の後端の左右中央の近傍に設けられ、その光軸5Baは車両9の後方(直進方向の逆方向)に向けられている。左サイドカメラ5Lは車両9の左側のサイドミラー93Lに設けられ、その光軸5Laは車両9の左側方(直進方向の直交方向)に向けられている。また、右サイドカメラ5Rは車両9の右側のサイドミラー93Rに設けられ、その光軸5Raは車両9の右側方(直進方向の直交方向)に向けられている。   FIG. 3 is a diagram illustrating positions where the in-vehicle cameras 5F, 5B, 5L, and 5R are arranged on the vehicle 9. The front camera 5F is provided in the vicinity of the left and right center of the front end of the vehicle 9, and its optical axis 5Fa is directed to the front (straight direction) of the vehicle 9. The back camera 5B is provided in the vicinity of the left and right center of the rear end of the vehicle 9, and its optical axis 5Ba is directed to the rear of the vehicle 9 (the direction opposite to the straight traveling direction). The left side camera 5L is provided on the left side mirror 93L of the vehicle 9, and its optical axis 5La is directed to the left side of the vehicle 9 (a direction orthogonal to the straight traveling direction). The right side camera 5R is provided on the right side mirror 93R of the vehicle 9, and its optical axis 5Ra is directed to the right side of the vehicle 9 (a direction orthogonal to the straight traveling direction).

これらの車載カメラ5F,5B,5L,5Rのレンズには魚眼レンズなどが採用され、各車載カメラ5F,5B,5L,5Rは180度以上の画角θを有している。このため、4つの車載カメラ5F,5B,5L,5Rを利用することで、車両9の全周囲を撮影することが可能となっている。   A fish-eye lens or the like is adopted as the lens of these in-vehicle cameras 5F, 5B, 5L, and 5R, and each of the in-vehicle cameras 5F, 5B, 5L, and 5R has an angle of view θ of 180 degrees or more. For this reason, it is possible to photograph the entire periphery of the vehicle 9 by using the four in-vehicle cameras 5F, 5B, 5L, and 5R.

図1に戻り、操作部22は、ユーザが直接的に操作可能な部材であり、タッチパネル及び操作ボタンを含んでいる。タッチパネルはディスプレイ29の表示画面に重ねて設けられ、操作ボタンはディスプレイ29の表示画面の周囲に設けられる。ユーザが操作部22を操作した場合は、その操作内容を示す信号が本体部21に入力される。   Returning to FIG. 1, the operation unit 22 is a member that can be directly operated by the user, and includes a touch panel and operation buttons. The touch panel is provided so as to overlap the display screen of the display 29, and the operation buttons are provided around the display screen of the display 29. When the user operates the operation unit 22, a signal indicating the operation content is input to the main body unit 21.

また、本体部21は、制御部23と、画像取得部24と、記憶部25と、画像出力部26と、スピーカ27と、データ通信部28とを備えている。   The main body unit 21 includes a control unit 23, an image acquisition unit 24, a storage unit 25, an image output unit 26, a speaker 27, and a data communication unit 28.

画像取得部24は、4つの車載カメラ5F,5B,5L,5Rでそれぞれ得られた撮影画像を取得する。したがって、画像取得部24は、車両9の前方、後方、左側方及び右側方をそれぞれ示す4つの撮影画像を取得する。画像取得部24は、これら4つの撮影画像のそれぞれを所定の周期(例えば、1/30秒)で周期的に取得する。   The image acquisition unit 24 acquires captured images respectively obtained by the four in-vehicle cameras 5F, 5B, 5L, and 5R. Therefore, the image acquisition unit 24 acquires four captured images that respectively indicate the front, rear, left side, and right side of the vehicle 9. The image acquisition unit 24 periodically acquires each of these four captured images at a predetermined cycle (for example, 1/30 seconds).

記憶部25は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部25は、車両情報25a及びプログラム25bを記憶している。車両情報25aは、車載装置2が搭載される車両9の種別を特定する情報である。車両9の種別には、モデル(車種)、及び、ボディカラーなどが含まれる。   The storage unit 25 is a non-volatile memory such as a flash memory, for example, and stores various types of information. The storage unit 25 stores vehicle information 25a and a program 25b. The vehicle information 25a is information that identifies the type of the vehicle 9 on which the in-vehicle device 2 is mounted. The type of the vehicle 9 includes a model (vehicle type), a body color, and the like.

画像出力部26は、表示すべき表示画像を、ディスプレイ29に出力して表示させる。このような表示画像には、必要に応じて撮影画像や合成画像が含まれる。   The image output unit 26 outputs and displays a display image to be displayed on the display 29. Such display images include photographed images and composite images as necessary.

スピーカ27は、制御部23からの電気信号に基づいて、動作音や警告音など各種の音を出力する。   The speaker 27 outputs various sounds such as an operation sound and a warning sound based on the electrical signal from the control unit 23.

データ通信部28は、無線通信によって外部の通信装置と通信する。データ通信部28は、可搬性装置3との間でデータの送受信を行うことが可能である。データ通信部28は、複数の撮影画像を可搬性装置3に送信するとともに、合成画像を可搬性装置3から受信する。   The data communication unit 28 communicates with an external communication device by wireless communication. The data communication unit 28 can exchange data with the portable device 3. The data communication unit 28 transmits a plurality of captured images to the portable device 3 and receives a composite image from the portable device 3.

また、制御部23は、車載装置2の全体を統括的に制御するマイクロコンピュータである。制御部23は、CPU、RAM及びROMなどを備えており、記憶部25に記憶されたプログラム25bに従ってCPUが演算処理を行うことで、各種の制御機能が実現される。   The control unit 23 is a microcomputer that comprehensively controls the entire in-vehicle device 2. The control unit 23 includes a CPU, a RAM, a ROM, and the like, and various control functions are realized by the CPU performing arithmetic processing according to a program 25b stored in the storage unit 25.

図中に示す表示制御部23aは、プログラム25bに従ってCPUが演算処理を行うことで実現される制御部23の機能の一つである。   The display control unit 23a shown in the drawing is one of the functions of the control unit 23 realized by the CPU performing arithmetic processing according to the program 25b.

表示制御部23aは、ディスプレイ29の表示に係る各種の制御を行う。表示制御部23aは、例えば、撮影画像や合成画像を利用してディスプレイ29に表示すべき表示画像を、その時点の動作モードに応じて生成する。   The display control unit 23 a performs various controls related to the display on the display 29. The display control unit 23a generates, for example, a display image to be displayed on the display 29 using a captured image or a composite image according to the operation mode at that time.

車載装置2は、動作モードとして、車載カメラ5で得られた撮影画像を主に表示する通常モードと、仮想視点からみた合成画像を主に表示する全周囲モードとを備えている。車載装置2は、起動時には通常モードとなっているが、可搬性装置3との間で通信が確立し、かつ、ユーザの指示がある場合は全周囲モードに移行する。   The in-vehicle device 2 includes, as operation modes, a normal mode that mainly displays captured images obtained by the in-vehicle camera 5 and an all-around mode that mainly displays a composite image viewed from a virtual viewpoint. The in-vehicle device 2 is in the normal mode when it is activated, but shifts to the all-around mode when communication with the portable device 3 is established and there is an instruction from the user.

通常モードでは、表示制御部23aは、ユーザから選択されたいずれかの車載カメラ5で得られた撮影画像を含む表示画像を生成する。そして、表示制御部23aは、画像出力部26を制御して、この表示画像をディスプレイ29に出力させる。これにより、撮影画像を含む表示画像がディスプレイ29に表示される。   In the normal mode, the display control unit 23a generates a display image including a captured image obtained by any of the in-vehicle cameras 5 selected by the user. Then, the display control unit 23 a controls the image output unit 26 to cause the display 29 to output this display image. Thereby, a display image including the photographed image is displayed on the display 29.

一方、全周囲モードでは、表示制御部23aは、データ通信部28を制御して、4つの撮影画像を可搬性装置3に送信させる。そして、表示制御部23aは、データ通信部28を制御して、可搬性装置3で生成された合成画像を受信させる。そして、表示制御部23aは、この合成画像を含む表示画像を生成し、画像出力部26を制御して表示画像をディスプレイ29に出力させる。これにより、仮想視点からみた合成画像を含む表示画像がディスプレイ29に表示される。   On the other hand, in the all-around mode, the display control unit 23 a controls the data communication unit 28 to transmit four captured images to the portable device 3. Then, the display control unit 23 a controls the data communication unit 28 to receive the composite image generated by the portable device 3. Then, the display control unit 23a generates a display image including the composite image, and controls the image output unit 26 to output the display image to the display 29. As a result, a display image including the composite image viewed from the virtual viewpoint is displayed on the display 29.

<1−3.可搬性装置の構成>
次に、可搬性装置3の構成について説明する。図4は、可搬性装置3の構成を示す図である。可搬性装置3は、制御部31と、マイク32と、スピーカ33と、音声通信部34と、操作部35と、ディスプレイ36と、データ通信部37と、記憶部38とを備えている。
<1-3. Configuration of portable device>
Next, the configuration of the portable device 3 will be described. FIG. 4 is a diagram illustrating a configuration of the portable device 3. The portable device 3 includes a control unit 31, a microphone 32, a speaker 33, a voice communication unit 34, an operation unit 35, a display 36, a data communication unit 37, and a storage unit 38.

マイク32は、周辺の音を電気信号に変換する。マイク32は、例えば、通話中のユーザが発した音声を電気信号に変換する。スピーカ33は、電気信号に基づいて各種の音を出力する。スピーカ33は、例えば、通話相手が発した音声を出力する。音声通信部34は、通話にかかる音声の電気信号を、基地局との間で送受信する。これらマイク32、スピーカ33及び音声通信部34により、可搬性装置3の通話機能が実現される。   The microphone 32 converts surrounding sounds into electrical signals. The microphone 32 converts, for example, a voice uttered by a user during a call into an electric signal. The speaker 33 outputs various sounds based on the electrical signal. The speaker 33 outputs, for example, a voice uttered by the other party. The voice communication unit 34 transmits / receives a voice electrical signal for a call to / from the base station. The microphone 32, the speaker 33, and the voice communication unit 34 realize the call function of the portable device 3.

操作部35は、ユーザが直接的に操作可能な部材であり、複数の操作ボタンを含んでいる。ユーザが操作部35を操作した場合は、その操作内容を示す信号が制御部31に入力される。   The operation unit 35 is a member that can be directly operated by the user, and includes a plurality of operation buttons. When the user operates the operation unit 35, a signal indicating the operation content is input to the control unit 31.

ディスプレイ36は、例えば、液晶パネルを備えており、制御部31からの信号に基づいて各種の画像を表示する。   The display 36 includes, for example, a liquid crystal panel, and displays various images based on signals from the control unit 31.

データ通信部37は、無線通信によって外部の通信装置と通信する。データ通信部37は、車載装置2との間でデータの送受信を行うことが可能である。データ通信部37は、複数の撮影画像を車載装置2から受信するとともに、合成画像を車載装置2に送信する。   The data communication unit 37 communicates with an external communication device by wireless communication. The data communication unit 37 can exchange data with the in-vehicle device 2. The data communication unit 37 receives a plurality of captured images from the in-vehicle device 2 and transmits a composite image to the in-vehicle device 2.

記憶部38は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部38は、複数の車両像90、及び、プログラム39を記憶している。これらの複数の車両像90はそれぞれ、車両の外観を示す像のデータであり、合成画像を生成する際に利用される。記憶部38には、様々な車両の種別(モデル及びボディカラー)に対応した車両像90が予め記憶されている。   The storage unit 38 is a non-volatile memory such as a flash memory, for example, and stores various types of information. The storage unit 38 stores a plurality of vehicle images 90 and a program 39. Each of the plurality of vehicle images 90 is image data indicating the appearance of the vehicle, and is used when generating a composite image. The storage unit 38 stores in advance vehicle images 90 corresponding to various vehicle types (models and body colors).

また、制御部31は、可搬性装置3の全体を統括的に制御するマイクロコンピュータである。制御部31は、CPU、RAM及びROMなどを備えており、記憶部38に記憶されたプログラム39に従ってCPUが演算処理を行うことで、各種の制御機能が実現される。   The control unit 31 is a microcomputer that comprehensively controls the entire portable device 3. The control unit 31 includes a CPU, a RAM, a ROM, and the like, and various control functions are realized by the CPU performing arithmetic processing according to a program 39 stored in the storage unit 38.

図中に示す合成画像生成部31aは、プログラム39に従ってCPUが演算処理を行うことで実現される制御部31の機能の一つである。合成画像生成部31aは、車載装置2で取得された4つの撮影画像に基づいて、仮想視点からみた車両9の周辺の領域を示す合成画像を生成する。合成画像生成部31aは、車載装置2との間で通信が確立し、かつ、ユーザの指示がある場合に有効化される。   A composite image generation unit 31 a shown in the drawing is one of the functions of the control unit 31 realized by the CPU performing arithmetic processing according to the program 39. Based on the four captured images acquired by the in-vehicle device 2, the composite image generation unit 31 a generates a composite image that indicates an area around the vehicle 9 as viewed from the virtual viewpoint. The composite image generation unit 31a is validated when communication is established with the in-vehicle device 2 and there is a user instruction.

図5は、合成画像生成部31aが合成画像を生成する手法を説明するための図である。   FIG. 5 is a diagram for explaining a method in which the composite image generation unit 31a generates a composite image.

車載装置2のフロントカメラ5F、バックカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rのそれぞれで撮影が行われると、車両9の前方、後方、左側方及び右側方をそれぞれ示す4つの撮影画像PF,PB,PL,PRが取得される。これら4つの撮影画像PF,PB,PL,PRには、車両9の全周囲のデータが含まれている。   When shooting is performed with each of the front camera 5F, the back camera 5B, the left side camera 5L, and the right side camera 5R of the in-vehicle device 2, four shootings that respectively indicate the front, rear, left side, and right side of the vehicle 9 are performed. Images PF, PB, PL, and PR are acquired. These four captured images PF, PB, PL, and PR include data around the entire vehicle 9.

これら4つの撮影画像PF,PB,PL,PRは、車載装置2から可搬性装置3に送信される。可搬性装置3の合成画像生成部31aは、これら4つの撮影画像PF,PB,PL,PRを用いて合成画像CPを生成する。   These four captured images PF, PB, PL, and PR are transmitted from the in-vehicle device 2 to the portable device 3. The composite image generation unit 31a of the portable device 3 generates a composite image CP using these four captured images PF, PB, PL, and PR.

まず、4つの撮影画像PF,PB,PL,PRのデータ(各画素の値)が、仮想的な三次元空間における立体曲面である投影面TSに投影される。投影面TSは、例えば略半球状(お椀形状)をしている。この投影面TSの中心部分(お椀の底部分)は、車両9が存在する位置として定められている。一方、投影面TSのその他の部分は、撮影画像PF,PB,PL,PRのデータと対応付けられており、対応するデータが投影される。撮影画像PF,PB,PL,PRのデータと投影面TSの位置との対応関係を示す情報は、予め記憶部25に記憶されている。   First, data (values of each pixel) of the four captured images PF, PB, PL, and PR are projected onto a projection surface TS that is a three-dimensional curved surface in a virtual three-dimensional space. The projection surface TS has, for example, a substantially hemispherical shape (a bowl shape). The center part (bottom part of the bowl) of the projection surface TS is determined as a position where the vehicle 9 exists. On the other hand, the other part of the projection surface TS is associated with the data of the captured images PF, PB, PL, PR, and the corresponding data is projected. Information indicating the correspondence between the data of the captured images PF, PB, PL, PR and the position of the projection plane TS is stored in the storage unit 25 in advance.

投影面TSにおいて車両9の前方に相当する領域は、フロントカメラ5Fで得られた撮影画像(以下、「フロント画像」という。)PFのデータが投影される。また、投影面TSにおいて車両9の後方に相当する領域は、バックカメラ5Bで得られた撮影画像(以下、「バック画像」という。)PBのデータが投影される。また、投影面TSにおいて車両9の左側方に相当する領域は左サイドカメラ5Lで得られた撮影画像(以下、「左サイド画像」という。)PLのデータが投影され、投影面TSにおいて車両9の右側方に相当する領域は右サイドカメラ5Rで得られた撮影画像(以下、「右サイド画像」という。)PRのデータが投影される。   A region corresponding to the front side of the vehicle 9 on the projection surface TS is projected with data of a captured image (hereinafter referred to as “front image”) PF obtained by the front camera 5F. On the projection surface TS, an area corresponding to the rear of the vehicle 9 is projected with data of a captured image (hereinafter referred to as “back image”) PB obtained by the back camera 5B. In addition, a region corresponding to the left side of the vehicle 9 on the projection surface TS is projected with data of a captured image PL (hereinafter referred to as “left side image”) PL obtained by the left side camera 5L. The area corresponding to the right side of the image is projected data of a captured image (hereinafter referred to as “right side image”) PR obtained by the right side camera 5R.

このように投影面TSの各部分のデータが決定されると、三次元空間に対して仮想視点VPが設定される。仮想視点VPは、三次元空間における任意の視点位置に任意の視野方向に向けて設定することができる。そして、投影面TSのうち、設定された仮想視点VPからみて所定の視野角に含まれる領域が画像として切り出される。このようにして切り出して得られた画像が、仮想視点VPからみた車両9の周囲の領域を示す合成画像CPとなる。   Thus, when the data of each part of the projection surface TS is determined, the virtual viewpoint VP is set for the three-dimensional space. The virtual viewpoint VP can be set at an arbitrary viewpoint position in the three-dimensional space in an arbitrary viewing direction. Then, a region included in a predetermined viewing angle as viewed from the set virtual viewpoint VP is cut out as an image in the projection plane TS. The image obtained by cutting out in this way becomes a composite image CP showing the area around the vehicle 9 as viewed from the virtual viewpoint VP.

さらに、このようにして生成された合成画像CPには、車両9が存在する位置に車両像90が重畳される。合成画像CPに重畳される車両像90としては、車両9の種別に応じたものが記憶部25から読み出されて使用される。これにより、合成画像CPに車両像90が含まれることになる。ユーザは、このような合成画像CPを視認することで、車両9の周辺の被写体の位置を車両9に対する相対位置で把握することができる。   Furthermore, the vehicle image 90 is superimposed on the position where the vehicle 9 exists in the composite image CP generated in this way. As the vehicle image 90 superimposed on the composite image CP, an image corresponding to the type of the vehicle 9 is read from the storage unit 25 and used. As a result, the vehicle image 90 is included in the composite image CP. The user can grasp the position of the subject around the vehicle 9 by the relative position with respect to the vehicle 9 by visually recognizing the composite image CP.

このような処理により、例えば図に示すように、視点位置を車両9の直上、視野方向を直下とした仮想視点VPaを設定した場合には、車両9及び車両9の周辺の領域を俯瞰する合成画像CPaが生成される。また、視点位置を車両9の左後方、視野方向を車両9の前方とした仮想視点VPbを設定した場合には、車両9の左後方からその周辺全体を見渡すように、車両9及び車両9の周辺の領域を示す合成画像CPbが生成される。   As a result of such processing, for example, as shown in the figure, when a virtual viewpoint VPa is set with the viewpoint position directly above the vehicle 9 and the visual field direction directly below, the composition for overlooking the vehicle 9 and the area around the vehicle 9 An image CPa is generated. Further, when the virtual viewpoint VPb is set with the viewpoint position at the left rear of the vehicle 9 and the visual field direction at the front of the vehicle 9, the vehicle 9 and the vehicle 9 A composite image CPb showing the peripheral region is generated.

<1−4.処理の流れ>
次に、画像処理システム10の処理の流れについて説明する。図6は、画像処理システム10の処理の流れを示す図である。図中の左側は車載装置2の処理の流れを示しており、図中の右側は可搬性装置3の処理の流れを示している。これらの処理は、車載装置2と可搬性装置3との間で通信が確立し、かつ、それぞれの装置に対してユーザが所定の操作を行った場合(全周囲モードの場合)に実行される。車載装置2では、表示制御部23aの制御により、図6に示す処理が所定の周期(例えば、1/30秒)で繰り返し実行される。また、可搬性装置3では、制御部31の制御により、車載装置2からの信号に応答して図6に示す処理が実行される。
<1-4. Process flow>
Next, a processing flow of the image processing system 10 will be described. FIG. 6 is a diagram showing a flow of processing of the image processing system 10. The left side in the figure shows the processing flow of the in-vehicle device 2, and the right side in the figure shows the processing flow of the portable device 3. These processes are executed when communication is established between the in-vehicle device 2 and the portable device 3 and the user performs a predetermined operation on each device (in the case of the all-around mode). . In the in-vehicle device 2, the process shown in FIG. 6 is repeatedly executed at a predetermined cycle (for example, 1/30 second) under the control of the display control unit 23 a. Moreover, in the portable apparatus 3, the process shown in FIG. 6 is performed in response to the signal from the vehicle-mounted apparatus 2 by control of the control part 31. FIG.

まず、車載装置2の4つの車載カメラ5F,5B,5L,5Rのそれぞれが、車両9の周辺を撮影する。そして、本体部21の画像取得部24が、4つの車載カメラ5F,5B,5L,5Rでそれぞれ得られた4つの撮影画像PF,PB,PL,PRを取得する(ステップSA11)。   First, each of the four vehicle-mounted cameras 5F, 5B, 5L, and 5R of the vehicle-mounted device 2 images the periphery of the vehicle 9. And the image acquisition part 24 of the main-body part 21 acquires four picked-up images PF, PB, PL, PR obtained by four vehicle-mounted cameras 5F, 5B, 5L, 5R, respectively (step SA11).

次に、車載装置2のデータ通信部28が、4つの撮影画像PF,PB,PL,PRを無線通信によって可搬性装置3に送信する(ステップSA12)。また、データ通信部28は、これらの撮影画像PF,PB,PL,PRと併せて、車両情報25a、及び、サイズ情報を可搬性装置3に送信する。前述のように車両情報25aは、車両9の種別を特定する情報である。一方、サイズ情報は、車載装置2のディスプレイ29への表示に適した合成画像CPのサイズを縦横の画素数で指定する情報である。   Next, the data communication unit 28 of the in-vehicle device 2 transmits the four captured images PF, PB, PL, PR to the portable device 3 by wireless communication (step SA12). In addition, the data communication unit 28 transmits the vehicle information 25a and the size information to the portable device 3 together with the captured images PF, PB, PL, and PR. As described above, the vehicle information 25 a is information that identifies the type of the vehicle 9. On the other hand, the size information is information for designating the size of the composite image CP suitable for display on the display 29 of the in-vehicle device 2 by the number of vertical and horizontal pixels.

可搬性装置3のデータ通信部37は、車載装置2から送信されたこれら4つの撮影画像PF,PB,PL,PR、車両情報25a、及び、サイズ情報を受信する(ステップSB11)。   The data communication unit 37 of the portable device 3 receives these four captured images PF, PB, PL, PR, vehicle information 25a, and size information transmitted from the in-vehicle device 2 (step SB11).

可搬性装置3は、これらの情報の受信に応答して合成画像CPを生成する。すなわち、合成画像生成部31aが、前述した手法により、4つの撮影画像に基づいて、仮想視点からみた車両9の周辺の領域を示す合成画像CPを生成する(ステップSB12)。前述のように、仮想視点VPは任意の視点位置及び任意の視野方向に設定できるが、本実施の形態では、視点位置を車両9の直上、視野方向を直下とした仮想視点VPaが設定される。これにより、車両9及び車両9の周辺の領域を俯瞰する合成画像CPが生成される。   The portable device 3 generates a composite image CP in response to receiving these pieces of information. That is, the composite image generation unit 31a generates a composite image CP that indicates a region around the vehicle 9 viewed from the virtual viewpoint based on the four captured images by the above-described method (step SB12). As described above, the virtual viewpoint VP can be set at an arbitrary viewpoint position and an arbitrary visual field direction, but in this embodiment, a virtual viewpoint VPa is set with the viewpoint position directly above the vehicle 9 and the visual field direction immediately below. . As a result, a composite image CP is generated that overlooks the vehicle 9 and the area around the vehicle 9.

また、合成画像生成部31aは、この合成画像CPを生成する際に、車載装置2から送信された車両情報25aに基づいて車両9の種別に応じた車両像90を記憶部38から読み出し、この車両像90を合成画像CPに含める。これにより、実際の車両9のモデルに即した形状、かつ、実際の車両9のボディカラーに即した色の車両像90が合成画像CPに含められる。   Further, when generating the composite image CP, the composite image generation unit 31a reads the vehicle image 90 corresponding to the type of the vehicle 9 from the storage unit 38 based on the vehicle information 25a transmitted from the in-vehicle device 2, and this The vehicle image 90 is included in the composite image CP. As a result, a vehicle image 90 having a shape that conforms to the model of the actual vehicle 9 and a color that conforms to the body color of the actual vehicle 9 is included in the composite image CP.

また、合成画像生成部31aは、車載装置2から送信されたサイズ情報に基づいて、サイズ情報で指定するサイズの合成画像CPを生成する。これにより、車載装置2での表示に適したサイズの合成画像CPが生成される。   Further, the composite image generation unit 31a generates a composite image CP having a size specified by the size information based on the size information transmitted from the in-vehicle device 2. As a result, a composite image CP having a size suitable for display on the in-vehicle device 2 is generated.

次に、可搬性装置3のデータ通信部37は、生成された合成画像CPを無線通信によって車載装置2に送信する(ステップSB13)。車載装置2のデータ通信部28は、可搬性装置3から送信されたこの合成画像CPを受信する(ステップSA13)。   Next, the data communication unit 37 of the portable device 3 transmits the generated composite image CP to the in-vehicle device 2 by wireless communication (step SB13). The data communication unit 28 of the in-vehicle device 2 receives this composite image CP transmitted from the portable device 3 (step SA13).

車載装置2は、4つの撮影画像PF,PB,PL,PRを送信した後(ステップSA12の後)は合成画像CPを受信するまで処理を待機し、合成画像CPの受信(ステップSA13)に応答して処理を再開する。   After transmitting the four captured images PF, PB, PL, and PR (after step SA12), the in-vehicle device 2 waits for processing until the composite image CP is received, and responds to reception of the composite image CP (step SA13). To resume processing.

具体的には、まず、表示制御部23aが、受信した合成画像CPを含む表示画像を生成する。合成画像CPは既に表示に適したサイズに調整されているため、表示制御部23aは表示画像を容易に生成することができる。そして、画像出力部26が、生成された表示画像をディスプレイ29に出力する。これにより、合成画像CPを含む表示画像がディスプレイ29に表示される(ステップSA14)。   Specifically, first, the display control unit 23a generates a display image including the received composite image CP. Since the composite image CP has already been adjusted to a size suitable for display, the display control unit 23a can easily generate a display image. Then, the image output unit 26 outputs the generated display image to the display 29. As a result, a display image including the composite image CP is displayed on the display 29 (step SA14).

図7は、このようにしてディスプレイ29に表示された表示画像DPの一例を示す図である。図に示すように表示画像DPには、仮想視点からみた車両9の周辺の領域を示す合成画像CPが含まれている。この合成画像CPには、車両9のモデル及びボディカラーに応じた車両像90が含まれている。前述のように図6に示す処理は所定の周期で繰り返されるため、合成画像CPの内容も所定の周期で更新される。したがって、ユーザはこのような表示画像DPを視認することで、車両9の周辺に存在する物体を把握することができる。   FIG. 7 is a diagram showing an example of the display image DP displayed on the display 29 in this way. As shown in the figure, the display image DP includes a composite image CP showing a region around the vehicle 9 as viewed from the virtual viewpoint. The composite image CP includes a vehicle image 90 corresponding to the model of the vehicle 9 and the body color. As described above, since the process shown in FIG. 6 is repeated at a predetermined cycle, the content of the composite image CP is also updated at a predetermined cycle. Therefore, the user can grasp an object existing around the vehicle 9 by visually recognizing such display image DP.

以上のように、画像処理システム10は、車両9で用いられる車載装置2と、車載装置2とは別個に構成される可搬性装置3とを備えている。車載装置2は、複数の車載カメラ5でそれぞれ得られた複数の撮影画像を可搬性装置3に送信する。可搬性装置3は、これら複数の撮影画像に基づいて仮想視点からみた合成画像CPを生成する。そして、可搬性装置3は生成した合成画像CPを車載装置2に返信し、車載装置2がこの合成画像CPをディスプレイ29に表示する。したがって、車載装置2が合成画像CPを生成する機能を備えなくとも、合成画像CPをディスプレイ29に表示させることができる。これにより、比較的コストの低い車載装置を用いた場合であっても、合成画像CPをディスプレイ29に表示させることができる。   As described above, the image processing system 10 includes the in-vehicle device 2 used in the vehicle 9 and the portable device 3 configured separately from the in-vehicle device 2. The in-vehicle device 2 transmits a plurality of captured images respectively obtained by the plurality of in-vehicle cameras 5 to the portable device 3. The portable device 3 generates a composite image CP viewed from a virtual viewpoint based on the plurality of captured images. Then, the portable device 3 returns the generated composite image CP to the in-vehicle device 2, and the in-vehicle device 2 displays the composite image CP on the display 29. Therefore, the composite image CP can be displayed on the display 29 even if the in-vehicle device 2 does not have a function of generating the composite image CP. Thereby, even if it is a case where the vehicle-mounted apparatus with comparatively low cost is used, synthetic | combination image CP can be displayed on the display 29. FIG.

また、ユーザは、合成画像CPの生成機能を備えていない車載装置2を導入した場合であっても、合成画像CPの生成機能を備えた可搬性装置3を導入すれば、合成画像CPの表示機能を事後的に追加することができる。また、可搬性装置3は、プログラムが記憶された所定のサーバ装置や記録媒体から当該プログラムを取得すれば、このような合成画像CPの生成機能を備えることができる。このため、このような合成画像CPの表示機能を容易に追加することができる。   Even if the user introduces the in-vehicle device 2 that does not have the function of generating the composite image CP, the user can display the composite image CP by introducing the portable device 3 that has the function of generating the composite image CP. Functions can be added later. Moreover, if the portable apparatus 3 acquires the said program from the predetermined | prescribed server apparatus and recording medium in which the program was memorize | stored, it can be provided with the production | generation function of such a composite image CP. For this reason, such a display function of the composite image CP can be easily added.

また、車載装置2のデータ通信部28は、合成画像CPのサイズを指定するサイズ情報を可搬性装置3に送信する。一方で、可搬性装置3の合成画像生成部31aはサイズ情報で指定するサイズの合成画像CPを生成する。したがって、可搬性装置3は、車載装置2側の要請に応じたサイズの合成画像CPを生成できる。このため、可搬性装置3は、通信相手となる車載装置が変更されたとしても、通信相手の車載装置のハードに応じた適切なサイズの合成画像CPを生成することができる。   The data communication unit 28 of the in-vehicle device 2 transmits size information specifying the size of the composite image CP to the portable device 3. On the other hand, the composite image generation unit 31a of the portable device 3 generates a composite image CP having a size specified by the size information. Therefore, the portable device 3 can generate a composite image CP having a size according to a request on the in-vehicle device 2 side. For this reason, the portable device 3 can generate a composite image CP of an appropriate size according to the hardware of the in-vehicle device that is the communication partner even if the in-vehicle device that is the communication partner is changed.

また、車載装置2のデータ通信部28は、車両9の種別(モデル及びボディカラー)を示す車両情報25aを可搬性装置3に送信する。一方で、可搬性装置3の合成画像生成部31aは、車両情報25aに基づいて、車両9の種別に応じた車両像90を合成画像CPに含める。したがって、実際の車両9の種別に即した車両像90を合成画像CPに含めることができ、臨場感のある合成画像CPを生成することができる。   In addition, the data communication unit 28 of the in-vehicle device 2 transmits vehicle information 25 a indicating the type (model and body color) of the vehicle 9 to the portable device 3. On the other hand, the composite image generation unit 31a of the portable device 3 includes the vehicle image 90 corresponding to the type of the vehicle 9 in the composite image CP based on the vehicle information 25a. Therefore, the vehicle image 90 corresponding to the type of the actual vehicle 9 can be included in the composite image CP, and a realistic composite image CP can be generated.

<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第1の実施の形態では、車載装置2は撮影画像を送信してから合成画像を受信するまでの期間は処理を待機していた。車載装置2が撮影画像を送信してから合成画像を受信するまでの時間は、車載装置2と可搬性装置3との間の通信速度、及び、可搬性装置3の処理速度に依存する。したがって、これらの速度によっては、車載装置2を全周囲モードに移行させた直後に、しばらくの間、合成画像CPがディスプレイ29に表示されない状態となる可能性がある。
<2. Second Embodiment>
Next, a second embodiment will be described. In the first embodiment, the in-vehicle device 2 waits for processing during a period from when the captured image is transmitted to when the composite image is received. The time from when the in-vehicle device 2 transmits the captured image to when the composite image is received depends on the communication speed between the in-vehicle device 2 and the portable device 3 and the processing speed of the portable device 3. Therefore, depending on these speeds, the composite image CP may not be displayed on the display 29 for a while immediately after the vehicle-mounted device 2 is shifted to the all-around mode.

このため、第2の実施の形態の車載装置2は、撮影画像を送信してから合成画像を受信するまでの期間において、撮影画像をディスプレイ29に表示させるようにしている。第2の実施の形態の画像処理システム10の構成及び処理は第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。   For this reason, the in-vehicle device 2 according to the second embodiment displays the photographed image on the display 29 during a period from when the photographed image is transmitted to when the composite image is received. Since the configuration and processing of the image processing system 10 of the second embodiment are substantially the same as those of the first embodiment, the following description will be focused on differences from the first embodiment.

図8は、第2の実施の形態の画像処理システム10の処理の流れを示す図である。図8におけるステップSA21,SA22,SA25,SA26の車載装置2の処理は、図6のステップSA11,SA12,SA13,SA14の処理と同様である。また、図8におけるステップSB21〜SB23の可搬性装置3の処理は、図6のステップSB11〜SB13と同様である。したがって、本実施の形態においても、車載装置2が複数の撮影画像を可搬性装置3に送信し、可搬性装置3が合成画像CPを生成して車載装置2に送信し、車載装置2がその合成画像CPを表示することになる。   FIG. 8 is a diagram illustrating a processing flow of the image processing system 10 according to the second embodiment. The processing of the in-vehicle device 2 in steps SA21, SA22, SA25, and SA26 in FIG. 8 is the same as the processing in steps SA11, SA12, SA13, and SA14 in FIG. Moreover, the process of the portable apparatus 3 of step SB21-SB23 in FIG. 8 is the same as that of step SB11-SB13 of FIG. Accordingly, also in the present embodiment, the in-vehicle device 2 transmits a plurality of captured images to the portable device 3, and the portable device 3 generates a composite image CP and transmits it to the in-vehicle device 2, and the in-vehicle device 2 The composite image CP is displayed.

ただし、第2の実施の形態においては、車載装置2が複数の撮影画像を送信してから合成画像を受信するまでの期間(ステップSA22からステップSA25までの期間)に、ステップSA23,SA24が実行される。   However, in the second embodiment, steps SA23 and SA24 are executed in a period (a period from step SA22 to step SA25) from when the in-vehicle device 2 transmits a plurality of captured images to when a composite image is received. Is done.

まず、ディスプレイ29に既に合成画像CPが表示されているか否かが判定される(ステップSA23)。図8の処理が2回目以降である場合は、合成画像CPが既に表示されている。したがって、この場合は(ステップSA23にてYes)、合成画像CPの表示を優先させ、処理はそのままステップSA25に進む。   First, it is determined whether or not the composite image CP is already displayed on the display 29 (step SA23). When the process in FIG. 8 is performed for the second time or later, the composite image CP is already displayed. Therefore, in this case (Yes in step SA23), priority is given to the display of the composite image CP, and the process directly proceeds to step SA25.

一方、図8の処理が初回である場合、すなわち、全周囲モードに移行させた直後は、合成画像CPがディスプレイ29に表示されていない。この場合は(ステップSA23にてNo)、表示制御部23aが、可搬性装置3に送信したものと同一の4つの撮影画像PF,PB,PL,PRを含む表示画像DPを生成する。そして、表示制御部23aは、画像出力部26を制御して、この表示画像DPをディスプレイ29に出力させる。これにより、4つの撮影画像PF,PB,PL,PRを含む表示画像DPがディスプレイ29に表示される(ステップSA24)。その後、処理はステップSA25に進む。   On the other hand, when the process in FIG. 8 is the first time, that is, immediately after the transition to the all-around mode, the composite image CP is not displayed on the display 29. In this case (No in step SA23), the display control unit 23a generates a display image DP including the same four captured images PF, PB, PL, PR as those transmitted to the portable device 3. Then, the display control unit 23 a controls the image output unit 26 to cause the display 29 to output this display image DP. As a result, the display image DP including the four captured images PF, PB, PL, and PR is displayed on the display 29 (step SA24). Thereafter, the processing proceeds to step SA25.

図9の上部は、ステップSA24において表示される表示画像DPの例を示している。この表示画像DPには、4つの撮影画像PF,PB,PL,PRが含まれている。その後、車載装置2が合成画像CPを可搬性装置3から受信すると、図9の下部に示すような合成画像CPを含む表示画像DPがディスプレイ29に表示される。ユーザは、合成画像CPが表示される前であっても、図9の上部に示すような撮影画像PF,PB,PL,PRを含む表示画像DPを視認することで、車両9の周辺の様子を把握できることになる。   The upper part of FIG. 9 shows an example of the display image DP displayed in step SA24. This display image DP includes four captured images PF, PB, PL, and PR. Thereafter, when the in-vehicle device 2 receives the composite image CP from the portable device 3, a display image DP including the composite image CP as shown in the lower part of FIG. Even before the composite image CP is displayed, the user visually recognizes the display image DP including the captured images PF, PB, PL, and PR as shown in the upper part of FIG. Can be grasped.

以上のように、第2の実施の形態の画像処理システム10においては、車載装置2のデータ通信部28が複数の撮影画像を送信してから該複数の撮影画像に基づく合成画像CPを受信するまでの期間、画像出力部26が該複数の撮影画像をディスプレイ29に出力して表示させる。このため、合成画像CPの表示前であっても、ユーザは車両9の周辺の様子を把握できる。   As described above, in the image processing system 10 according to the second embodiment, the data communication unit 28 of the in-vehicle device 2 transmits a plurality of captured images and then receives a composite image CP based on the plurality of captured images. Until this period, the image output unit 26 outputs the plurality of captured images to the display 29 for display. For this reason, even before the composite image CP is displayed, the user can grasp the situation around the vehicle 9.

なお、上記では、車載装置2が撮影画像を送信してから合成画像を受信するまでの期間、4つの撮影画像PF,PB,PL,PRの全てを表示するようにしているが、4つの撮影画像PF,PB,PL,PRのうちの少なくとも1つを表示すればよい。例えば、最も死角となりやすい後方を示すバック画像PBのみを表示するようにしてもよい。また、図10に示すように、4つの撮影画像PF,PB,PL,PRを、時系列的に順次に表示するようにしてもよい。また、車載装置2は、少なくとも撮影画像を送信してから合成画像を受信するまでの期間に撮影画像を表示すればよく、撮影画像の送信前、あるいは、合成画像の受信後も撮影画像を表示してもよい。   In the above description, all four captured images PF, PB, PL, and PR are displayed during the period from when the in-vehicle device 2 transmits the captured image to when the composite image is received. It is only necessary to display at least one of the images PF, PB, PL, and PR. For example, you may make it display only the back image PB which shows the back which becomes the blind spot most easily. Further, as shown in FIG. 10, the four captured images PF, PB, PL, and PR may be sequentially displayed in time series. Further, the in-vehicle device 2 only needs to display the captured image during a period from when the captured image is transmitted to when the composite image is received, and displays the captured image before transmission of the captured image or after reception of the composite image. May be.

<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第1の実施の形態では、車載装置2は常に4つの撮影画像の全てを可搬性装置3に送信していた。しかしながら、このように常に4つの撮影画像の全てを送信した場合には、送信するデータ量が多くなることなどから、全体的な処理速度が低下する可能性がある。
<3. Third Embodiment>
Next, a third embodiment will be described. In the first embodiment, the in-vehicle device 2 always transmits all four captured images to the portable device 3. However, when all of the four captured images are always transmitted in this way, the amount of data to be transmitted increases, so that the overall processing speed may be reduced.

このため、第3の実施の形態の車載装置2は、4つの撮影画像の全てを可搬性装置3に送信する全画像送信を実行する周期を、第1の実施の形態よりも長くしている。一方で、車載装置2は、全画像送信と全画像送信との間においては、含まれる被写体が時間的に変化した撮影画像のみを可搬性装置3に送信するようにしている。第3の実施の形態の画像処理システム10の構成及び処理は第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。   For this reason, the in-vehicle device 2 of the third embodiment makes the cycle for executing all image transmissions for transmitting all four captured images to the portable device 3 longer than that of the first embodiment. . On the other hand, the in-vehicle device 2 is configured to transmit only a captured image in which an included subject is temporally changed to the portable device 3 between all image transmissions. Since the configuration and processing of the image processing system 10 of the third embodiment are substantially the same as those of the first embodiment, the following description will be focused on differences from the first embodiment.

図11は、第3の実施の形態の車載装置2の構成を示す図である。第3の実施の形態の車載装置2は、プログラム25bに従ってCPUが演算処理を行うことで実現される制御部23の機能として、表示制御部23aの他に、変化検出部23b及び警告制御部23cを備えている。第3の実施の形態の車載装置2の他の構成は、第1の実施の形態と同様である。   FIG. 11 is a diagram illustrating a configuration of the in-vehicle device 2 according to the third embodiment. The in-vehicle device 2 according to the third embodiment has a change detection unit 23b and a warning control unit 23c in addition to the display control unit 23a as functions of the control unit 23 realized by the CPU performing arithmetic processing according to the program 25b. It has. Other configurations of the in-vehicle device 2 of the third embodiment are the same as those of the first embodiment.

変化検出部23bは、車載カメラ5F,5B,5L,5Rのそれぞれで周期的に得られる撮影画像のうち、含まれる被写体が時間的に変化した変化画像を特定する。すなわち、変化検出部23bは、同一の車載カメラで時間的に連続して得られる撮影画像同士(前フレーム、及び、現フレーム)において、対応する画素の値の差分をとり、その差分の総和が所定の閾値を超えた撮影画像を変化画像として特定する。   The change detection unit 23b specifies a change image in which an included subject has changed in time among captured images periodically obtained by the in-vehicle cameras 5F, 5B, 5L, and 5R. That is, the change detection unit 23b takes a difference between corresponding pixel values in captured images (previous frame and current frame) obtained continuously in time with the same in-vehicle camera, and the sum of the differences is obtained. A captured image that exceeds a predetermined threshold is specified as a change image.

より具体的には、変化検出部23bは、フロント画像PFについては前フレームのフロント画像PFとの差分、バック画像PBについては前フレームのバック画像PBとの差分、左サイド画像PLについては前フレームの左サイド画像PLとの差分、右サイド画像PFについては前フレームの右サイド画像PRとの差分をそれぞれ導出する。そして、変化検出部23bは、4つの撮影画像PF,PB,PL,PRのうち、導出した差分の総和が所定の閾値を超える撮影画像については、含まれる被写体が変化したと判断する。変化検出部23bは、このように変化のあった被写体を含む撮影画像を変化画像として特定する。   More specifically, the change detection unit 23b determines the difference from the front image PF of the previous frame for the front image PF, the difference from the back image PB of the previous frame for the back image PB, and the previous frame for the left side image PL. For the right side image PF, the difference from the right side image PR of the previous frame is derived respectively. Then, the change detection unit 23b determines that the subject included in the captured image in which the sum of the derived differences exceeds the predetermined threshold among the four captured images PF, PB, PL, and PR. The change detection unit 23b specifies a captured image including the subject that has changed in this way as a change image.

警告制御部23cは、変化検出部23bが変化画像があると判断した場合に、ユーザに警告する。警告制御部23cは、変化画像がある場合は、スピーカ27を制御してスピーカ27から所定の警告音を出力させる。   The warning control unit 23c warns the user when the change detection unit 23b determines that there is a change image. When there is a change image, the warning control unit 23c controls the speaker 27 to output a predetermined warning sound from the speaker 27.

また、本実施の形態の表示制御部23aは、変化検出部23bが変化画像があると判断した場合は、当該変化画像をディスプレイ29に表示させる。変化画像がある場合、すなわち、車両9の周辺の被写体に変化が生じた場合であっても、その被写体の変化が合成画像CPの内容に反映されるまでにはタイムラグがある。このため、本実施の形態の表示制御部23aは、変化画像がある場合には、その変化画像に基づいて生成される合成画像CPの表示に先立って、その変化画像をディスプレイ29に表示させる。すなわち、画像出力部26は、変化画像に基づく合成画像CPを出力する前に、変化画像をディスプレイ29に出力して表示させることになる。   In addition, when the change detection unit 23b determines that there is a change image, the display control unit 23a of the present embodiment displays the change image on the display 29. Even when there is a change image, that is, when a change occurs in a subject around the vehicle 9, there is a time lag before the change in the subject is reflected in the content of the composite image CP. For this reason, if there is a change image, the display control unit 23a of the present embodiment displays the change image on the display 29 prior to the display of the composite image CP generated based on the change image. That is, the image output unit 26 outputs and displays the change image on the display 29 before outputting the composite image CP based on the change image.

図12は、本実施の形態の全周囲モードにおいてディスプレイ29に表示される表示画像DPの遷移を示す図である。変化画像がない場合、すなわち、被写体に変化が無い場合は、表示画像DPには合成画像CPのみが含まれている(状態ST1)。   FIG. 12 is a diagram showing a transition of the display image DP displayed on the display 29 in the all-around mode of the present embodiment. When there is no change image, that is, when there is no change in the subject, only the composite image CP is included in the display image DP (state ST1).

このような状態において、変化画像がある場合、すなわち、被写体に変化が生じた場合は、表示画像DPに当該変化画像が含められ、変化画像を含む表示画像DPがディスプレイ29に表示される(状態ST2)。図12の例では、バック画像PB中の被写体Sbに変化が生じており、このバック画像PBが変化画像としてディスプレイ29に表示されている。なお、表示画像DPには合成画像CPも含まれているが、この時点は被写体Sbが変化した直後のため、合成画像CPの内容に当該被写体Sbの様子は反映されていない。   In such a state, when there is a change image, that is, when a change occurs in the subject, the change image is included in the display image DP, and the display image DP including the change image is displayed on the display 29 (state) ST2). In the example of FIG. 12, a change has occurred in the subject Sb in the back image PB, and this back image PB is displayed on the display 29 as a change image. Note that the composite image CP is also included in the display image DP, but since the time immediately after the subject Sb changes, the state of the subject Sb is not reflected in the content of the composite image CP.

その後、変化画像に基づいて生成された被写体Sbの様子を反映した合成画像CPが表示可能となると、当該合成画像CPがディスプレイ29に表示される。一方で、変化画像(バック画像PB)はディスプレイ29に表示されなくなる(状態ST3)。   Thereafter, when the composite image CP reflecting the state of the subject Sb generated based on the change image can be displayed, the composite image CP is displayed on the display 29. On the other hand, the change image (back image PB) is not displayed on the display 29 (state ST3).

ユーザは、このような表示画像DPを視認することで、被写体に変化があったこと(すなわち、車両9の周辺に動く物体が存在すること)を認識できる。また、被写体に変化が生じた場合には、当該被写体を含む合成画像CPの表示前に、当該被写体を含む変化画像が表示されるため、ユーザは当該被写体を速やかに確認することができる。   By visually recognizing such display image DP, the user can recognize that the subject has changed (that is, there is a moving object around the vehicle 9). Further, when a change occurs in the subject, the change image including the subject is displayed before the composite image CP including the subject is displayed, so that the user can quickly confirm the subject.

図13は、第3の実施の形態の画像処理システム10の処理の流れを示す図である。本実施の形態においても、車載装置2では、表示制御部23aの制御により、図13に示す処理が所定の第1周期(例えば、1/30秒)で繰り返し実行される。ただし、第3の実施の形態では、この第1周期より長い第2周期(例えば、1秒)ごとに、他の場合と異なる特定処理が実行される。   FIG. 13 is a diagram illustrating a processing flow of the image processing system 10 according to the third embodiment. Also in the present embodiment, in the in-vehicle device 2, the process shown in FIG. 13 is repeatedly executed at a predetermined first period (for example, 1/30 second) under the control of the display control unit 23 a. However, in the third embodiment, a specific process different from the other cases is executed every second period (for example, 1 second) longer than the first period.

第2周期ごとの特定処理では(ステップSA30にてYes)、第1の実施の形態とほぼ同様の処理が実行される。すなわち、まず、車載装置2の画像取得部24が4つの撮影画像PF,PB,PL,PRを取得し(ステップSA31)、車載装置2のデータ通信部28が4つの撮影画像PF,PB,PL,PRの全てを可搬性装置3に送信する全画像送信を実行する(ステップSA32)。   In the specific process for each second period (Yes in step SA30), substantially the same process as in the first embodiment is executed. That is, first, the image acquisition unit 24 of the in-vehicle device 2 acquires four captured images PF, PB, PL, PR (step SA31), and the data communication unit 28 of the in-vehicle device 2 acquires four captured images PF, PB, PL. , PR all images are transmitted to the portable device 3 (step SA32).

可搬性装置3のデータ通信部37がこれらの4つの撮影画像PF,PB,PL,PRを受信すると(ステップSB31)、可搬性装置3の記憶部38が受信した4つの撮影画像の全てを記憶する。これにより、記憶部38が過去に撮影画像を記憶していた場合は、4つの撮影画像PF,PB,PL,PRの全てが更新される(ステップSB32)。そして、合成画像生成部31aが、記憶部38に記憶されている4つの撮影画像PF,PB,PL,PRを用いて合成画像CPを生成し(ステップSB33)、データ通信部37が生成された合成画像CPを車載装置2に送信する(ステップSB34)。   When the data communication unit 37 of the portable device 3 receives these four captured images PF, PB, PL, PR (step SB31), all of the four captured images received by the storage unit 38 of the portable device 3 are stored. To do. Thereby, when the memory | storage part 38 memorize | stored the picked-up image in the past, all four picked-up images PF, PB, PL, PR are updated (step SB32). Then, the composite image generation unit 31a generates a composite image CP using the four captured images PF, PB, PL, and PR stored in the storage unit 38 (step SB33), and the data communication unit 37 is generated. The composite image CP is transmitted to the in-vehicle device 2 (step SB34).

車載装置2のデータ通信部28がこの合成画像CPを受信すると(ステップSA38)、車載装置2の画像出力部26が合成画像CPを含む表示画像DPをディスプレイ29に出力して表示させる(ステップSA39)。   When the data communication unit 28 of the in-vehicle device 2 receives this composite image CP (step SA38), the image output unit 26 of the in-vehicle device 2 outputs and displays the display image DP including the composite image CP on the display 29 (step SA39). ).

この特定処理は第2周期ごとに実行されるため、第2周期ごとに4つの撮影画像PF,PB,PL,PRの全ての内容を反映した新たな合成画像CPがディスプレイ29に表示されることになる。   Since this specifying process is executed every second period, a new composite image CP reflecting all the contents of the four captured images PF, PB, PL, PR is displayed on the display 29 every second period. become.

一方、特定処理以外の場合(全画像送信と全画像送信との間の場合)は(ステップSA30にてNo)、まず、車載装置2の画像取得部24が4つの撮影画像PF,PB,PL,PRを取得する(ステップSA33)。次に、変化検出部23bが、前述した手法により、これら4つの撮影画像PF,PB,PL,PRのうちから、含まれる被写体が時間的に変化した変化画像を特定する。そして、変化画像が存在しない場合は(ステップSA34にてNo)、そのまま処理が終了する。   On the other hand, in cases other than the specific processing (between all image transmission and all image transmission) (No in step SA30), first, the image acquisition unit 24 of the in-vehicle device 2 has four captured images PF, PB, and PL. , PR are acquired (step SA33). Next, the change detection unit 23b specifies a change image in which the included subject has temporally changed from these four captured images PF, PB, PL, and PR by the above-described method. If there is no change image (No in step SA34), the process ends.

また、変化画像が存在する場合は(ステップSA34にてYes)、車載装置2のデータ通信部28が、4つの撮影画像PF,PB,PL,PRのうちの変化画像のみを可搬性装置3に送信する(ステップSA35)。   If a change image exists (Yes in step SA34), the data communication unit 28 of the in-vehicle device 2 sends only the change image of the four captured images PF, PB, PL, PR to the portable device 3. Transmit (step SA35).

可搬性装置3のデータ通信部37が変化画像を受信すると(ステップSB31)、可搬性装置3の記憶部38が受信した変化画像を記憶する。これにより、記憶部38が記憶している過去に得られた4つの撮影画像PF,PB,PL,PRのうち、変化画像に対応する撮影画像のみが更新される(ステップSB32)。例えば、変化画像がフロント画像PFの場合はフロント画像PFのみが更新され、変化画像がバック画像PBの場合はバック画像PBのみが更新される。したがって、変化画像に対応しない過去の撮影画像については、記憶部38に記憶された状態で維持される。   When the data communication unit 37 of the portable device 3 receives the change image (step SB31), the change image received by the storage unit 38 of the portable device 3 is stored. As a result, of the four captured images PF, PB, PL, PR obtained in the past stored in the storage unit 38, only the captured image corresponding to the changed image is updated (step SB32). For example, when the change image is the front image PF, only the front image PF is updated, and when the change image is the back image PB, only the back image PB is updated. Therefore, the past photographed image that does not correspond to the change image is maintained in the state stored in the storage unit 38.

そして、合成画像生成部31aが、記憶部38に記憶されている4つの撮影画像PF,PB,PL,PRを用いて合成画像CPを生成する(ステップSB33)。これにより、合成画像生成部31aは、過去に合成画像CPの生成に用いた4つの撮影画像PF,PB,PL,PRのうち、変化画像に対応する撮影画像のみを変化画像に替えて、新たな合成画像CPを生成することになる。その結果、変化した被写体を含む新たな合成画像CPが生成される。新たな合成画像CPが生成されると、データ通信部37が生成された合成画像CPを車載装置2に送信する(ステップSB34)。   Then, the composite image generation unit 31a generates a composite image CP using the four captured images PF, PB, PL, PR stored in the storage unit 38 (step SB33). As a result, the composite image generation unit 31a replaces only the captured image corresponding to the change image among the four captured images PF, PB, PL, and PR used to generate the composite image CP in the past, and changes the new image. A composite image CP is generated. As a result, a new composite image CP including the changed subject is generated. When a new composite image CP is generated, the data communication unit 37 transmits the generated composite image CP to the in-vehicle device 2 (step SB34).

また、車載装置2は、変化画像を送信した後(ステップSA35の後)は、この変化画像に基づく合成画像CPを受信するまで、変化画像を表示する。具体的には、表示制御部23aが、可搬性装置3に送信したものと同一の変化画像を含む表示画像DPを生成する。そして、表示制御部23aは、画像出力部26を制御して、この表示画像DPをディスプレイ29に出力させる。これにより、図12の状態ST2のような、変化画像を含む表示画像DPがディスプレイ29に表示される(ステップSA36)。   Moreover, after transmitting the change image (after step SA35), the in-vehicle device 2 displays the change image until the composite image CP based on the change image is received. Specifically, the display control unit 23 a generates a display image DP including the same change image as that transmitted to the portable device 3. Then, the display control unit 23 a controls the image output unit 26 to cause the display 29 to output this display image DP. Thereby, the display image DP including the change image as in the state ST2 of FIG. 12 is displayed on the display 29 (step SA36).

次に、警告制御部23cが、スピーカ27を制御してスピーカ27からビープ音などの所定の警告音を出力させる(ステップSA37)。これにより、変化画像がある場合、すなわち、車両9の周辺に動く物体が存在する場合に、ユーザにその旨が知らされることになる。   Next, the warning control unit 23c controls the speaker 27 to output a predetermined warning sound such as a beep sound from the speaker 27 (step SA37). Thereby, when there is a change image, that is, when there is a moving object around the vehicle 9, the user is notified of that.

その後、車載装置2のデータ通信部28が、変化画像に基づく合成画像CPを受信すると(ステップSA38)、表示制御部23aが、変化画像に基づく合成画像CPを含む表示画像DPを生成する。そして、画像出力部26が、この表示画像DPをディスプレイ29に出力して表示させる。これにより、図12の状態ST3のような、変化した被写体Sbを含む合成画像CPがディスプレイ29に表示されることになる(ステップSA39)。   Thereafter, when the data communication unit 28 of the in-vehicle device 2 receives the composite image CP based on the change image (step SA38), the display control unit 23a generates a display image DP including the composite image CP based on the change image. Then, the image output unit 26 outputs the display image DP to the display 29 for display. As a result, the composite image CP including the changed subject Sb as in the state ST3 in FIG. 12 is displayed on the display 29 (step SA39).

以上のように、第3の実施の形態の画像処理システム10においては、車載装置2の変化検出部23bが、4つの撮影画像のうち含まれる被写体が時間的に変化した変化画像を特定する。このような変化画像がある場合は、車載装置2のデータ通信部28は、変化画像のみを可搬性装置3に送信する。そして、可搬性装置3の合成画像生成部31aは、過去に合成画像CPの生成に用いた4つの撮影画像のうち変化画像に対応する撮影画像のみを変化画像に替えて新たな合成画像を生成する。このため、車載装置2が可搬性装置3に送信するデータ量を有効に低減して処理速度を向上しつつ、車両9の周辺において変化のあった被写体を含む合成画像CPを生成することができる。   As described above, in the image processing system 10 according to the third embodiment, the change detection unit 23b of the in-vehicle device 2 identifies a change image in which a subject included in the four captured images has changed over time. When there is such a change image, the data communication unit 28 of the in-vehicle device 2 transmits only the change image to the portable device 3. Then, the composite image generation unit 31a of the portable device 3 generates a new composite image by replacing only the captured image corresponding to the change image among the four captured images used for generating the composite image CP in the past with the change image. To do. Therefore, it is possible to generate a composite image CP including a subject that has changed around the vehicle 9 while effectively reducing the amount of data transmitted from the in-vehicle device 2 to the portable device 3 and improving the processing speed. .

また、車載装置2の画像出力部26は、変化画像がある場合は、変化画像に基づく合成画像CPを出力する前に、変化画像をディスプレイ29に出力して表示させる。このため、変化画像に基づく合成画像CPの表示前であっても、ユーザは車両9の周辺において変化のあった被写体を確認することができる。   In addition, when there is a change image, the image output unit 26 of the in-vehicle device 2 outputs the change image to the display 29 and displays it before outputting the composite image CP based on the change image. For this reason, even before the composite image CP based on the change image is displayed, the user can check the subject that has changed around the vehicle 9.

また、警告制御部23cは、変化画像がある場合に、スピーカ27から所定の警告音を出力させて、ユーザに警告する。このため、ユーザは車両9の周辺において変化のあった被写体(すなわち、動く物体)が存在することを認識することができる。   Further, when there is a change image, the warning control unit 23c outputs a predetermined warning sound from the speaker 27 to warn the user. For this reason, the user can recognize that there is a subject (that is, a moving object) that has changed around the vehicle 9.

<4.第4の実施の形態>
次に、第4の実施の形態について説明する。第4の実施の形態の画像処理システム10の構成及び処理は第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。第4の実施の形態においては、ユーザが可搬性装置3を操作することで、車載装置2に表示される表示画像DPの内容を変更できるようになっている。
<4. Fourth Embodiment>
Next, a fourth embodiment will be described. Since the configuration and processing of the image processing system 10 of the fourth embodiment are substantially the same as those of the first embodiment, the following description will be focused on differences from the first embodiment. In the fourth embodiment, the content of the display image DP displayed on the in-vehicle device 2 can be changed by the user operating the portable device 3.

図14は、可搬性装置3の操作部35と車載装置2の表示内容との関係を示す図である。   FIG. 14 is a diagram illustrating the relationship between the operation unit 35 of the portable device 3 and the display content of the in-vehicle device 2.

可搬性装置3は、操作部35の一部に、テンキーとして機能する複数の操作ボタンを備えている。そして、これらの操作ボタンのうち、「2」ボタン35F、「8」ボタン35B、「4」ボタン35L及び「6」ボタン35Rは、車両9に搭載された4つの車載カメラ5にそれぞれ対応付けられている。具体的には、「2」ボタン35Fはフロントカメラ5F、「8」ボタン35Bはバックカメラ5B、「4」ボタン35Lは左サイドカメラ5L、「6」ボタン35Rは右サイドカメラ5Rにそれぞれ対応付けられている。これらの4つ操作ボタン35F,36B,36L,36Rは、対応づけられた車載カメラ5を指定するための操作部材として機能する。   The portable device 3 includes a plurality of operation buttons that function as numeric keys on a part of the operation unit 35. Among these operation buttons, the “2” button 35F, the “8” button 35B, the “4” button 35L, and the “6” button 35R are associated with the four in-vehicle cameras 5 mounted on the vehicle 9, respectively. ing. Specifically, the “2” button 35F is associated with the front camera 5F, the “8” button 35B is associated with the back camera 5B, the “4” button 35L is associated with the left side camera 5L, and the “6” button 35R is associated with the right side camera 5R. It has been. These four operation buttons 35F, 36B, 36L, and 36R function as operation members for designating the in-vehicle camera 5 associated therewith.

一方で、車載装置2のディスプレイ29に表示される合成画像CPにおいては、4つの車載カメラ5それぞれの位置(より正確には、4つの車載カメラ5それぞれの実際の配置位置に相当する位置)の近傍には、ラベルCF,CL,CB,CRが重畳されている。これらのラベルCF,CL,CB,CRは、各車載カメラ5が対応する操作ボタンを識別するための識別情報となる。   On the other hand, in the composite image CP displayed on the display 29 of the in-vehicle device 2, the position of each of the four in-vehicle cameras 5 (more precisely, the position corresponding to the actual arrangement position of each of the four in-vehicle cameras 5). In the vicinity, labels CF, CL, CB, and CR are superimposed. These labels CF, CL, CB, CR serve as identification information for identifying the operation buttons corresponding to the in-vehicle cameras 5.

具体的には、合成画像CP中のフロントカメラ5Fの位置の近傍には「2」を示すラベルCFが重畳され、バックカメラ5Bの位置の近傍には「8」を示すラベルCBが重畳され、左サイドカメラ5Lの位置の近傍には「4」を示すラベルCLが重畳され、右サイドカメラ5Rの位置の近傍には「6」を示すラベルCRが重畳されている。したがって、ユーザは、このようなラベルCF,CL,CB,CRが重畳された合成画像CPを視認することで、「2」ボタン35Fはフロントカメラ5F、「8」ボタン35Bはバックカメラ5B、「4」ボタン35Lは左サイドカメラ5L、「6」ボタン35Rは右サイドカメラ5Rにそれぞれ対応付けられていることを明確に把握できる。   Specifically, a label CF indicating “2” is superimposed in the vicinity of the position of the front camera 5F in the composite image CP, and a label CB indicating “8” is superimposed in the vicinity of the position of the back camera 5B. A label CL indicating “4” is superimposed near the position of the left side camera 5L, and a label CR indicating “6” is superimposed near the position of the right side camera 5R. Therefore, the user visually recognizes the composite image CP on which the labels CF, CL, CB, and CR are superimposed, so that the “2” button 35F is the front camera 5F, the “8” button 35B is the back camera 5B, “ It can be clearly understood that the “4” button 35L is associated with the left side camera 5L, and the “6” button 35R is associated with the right side camera 5R.

また、このようなラベルCF,CL,CB,CRが重畳された合成画像CPは、可搬性装置3のディスプレイ36にも表示される。このため、ユーザは、いずれの操作ボタンがいずれの車載カメラ5と対応しているかを、可搬性装置3のディスプレイ36を確認することによっても把握できる。また、ディスプレイ36は、その画面の長手方向と、合成画像CP中の車両像90の長手方向とが一致するように合成画像CPを表示する。このため、可搬性装置3が備える比較的小さなサイズのディスプレイ36においても、車両像90を比較的大きなサイズで表示することができる。   Further, the composite image CP on which such labels CF, CL, CB, CR are superimposed is also displayed on the display 36 of the portable device 3. For this reason, the user can grasp which operation button corresponds to which in-vehicle camera 5 by checking the display 36 of the portable device 3. The display 36 displays the composite image CP so that the longitudinal direction of the screen matches the longitudinal direction of the vehicle image 90 in the composite image CP. For this reason, the vehicle image 90 can be displayed in a relatively large size even on the relatively small display 36 provided in the portable device 3.

また、図14に示す状態において、ユーザが、4つ操作ボタン35F,36B,36L,36Rのいずれかを操作した場合は、操作された操作ボタンに対応する車載カメラ5の位置の近傍を拡大した合成画像CPが表示される。例えば、図15に示すように、ユーザが「4」ボタン35Lを操作した場合は、「4」ボタン35Lに対応する左サイドカメラ5Lの位置の近傍を拡大した合成画像CPが表示されることになる。したがって、ユーザは、可搬性装置3の操作ボタンを操作することで、合成画像CPの所望の位置を拡大して確認することができる。   In the state shown in FIG. 14, when the user operates any of the four operation buttons 35F, 36B, 36L, and 36R, the vicinity of the position of the in-vehicle camera 5 corresponding to the operated operation button is enlarged. A composite image CP is displayed. For example, as illustrated in FIG. 15, when the user operates the “4” button 35L, the composite image CP in which the vicinity of the position of the left side camera 5L corresponding to the “4” button 35L is enlarged is displayed. Become. Therefore, the user can enlarge and confirm a desired position of the composite image CP by operating the operation button of the portable device 3.

図16は、第4の実施の形態の画像処理システム10の処理の流れを示す図である。まず、車載装置2の画像取得部24が4つの撮影画像PF,PB,PL,PRを取得し(ステップSA41)、車載装置2のデータ通信部28が4つの撮影画像PF,PB,PL,PRを可搬性装置3に送信する(ステップSA42)。   FIG. 16 is a diagram illustrating a processing flow of the image processing system 10 according to the fourth embodiment. First, the image acquisition unit 24 of the in-vehicle device 2 acquires four captured images PF, PB, PL, PR (step SA41), and the data communication unit 28 of the in-vehicle device 2 acquires four captured images PF, PB, PL, PR. Is transmitted to the portable device 3 (step SA42).

可搬性装置3のデータ通信部37は、これらの4つの撮影画像PF,PB,PL,PRを受信する(ステップSB41)。次に、可搬性装置3の4つ操作ボタン35F,36B,36L,36Rのいずれかがユーザに操作されたか否かが判定される。   The data communication unit 37 of the portable device 3 receives these four captured images PF, PB, PL, PR (step SB41). Next, it is determined whether or not any of the four operation buttons 35F, 36B, 36L, and 36R of the portable device 3 has been operated by the user.

4つの操作ボタンのいずれも操作されていない場合(ステップSB42にてNo)は、合成画像生成部31aは、適位置にラベルCF,CL,CB,CRを重畳した合成画像CPを生成する(ステップSB43)。一方、4つの操作ボタンのいずれかが操作された場合(ステップSB42にてYes)は、合成画像生成部31aは、操作された操作ボタンに対応する車載カメラ5の位置の近傍を拡大した合成画像CPを生成する(ステップSB44)。   When none of the four operation buttons is operated (No in step SB42), the composite image generation unit 31a generates a composite image CP in which labels CF, CL, CB, and CR are superimposed at appropriate positions (step). SB43). On the other hand, when any of the four operation buttons is operated (Yes in Step SB42), the composite image generation unit 31a enlarges the vicinity of the position of the in-vehicle camera 5 corresponding to the operated operation button. A CP is generated (step SB44).

次に、可搬性装置3のディスプレイ36が、生成された合成画像CPを表示する(ステップSB45)。これとともに、データ通信部37が、生成された合成画像CPを車載装置2に送信する(ステップSB46)。   Next, the display 36 of the portable device 3 displays the generated composite image CP (step SB45). At the same time, the data communication unit 37 transmits the generated composite image CP to the in-vehicle device 2 (step SB46).

車載装置2のデータ通信部28がこの合成画像CPを受信すると(ステップSA43)、車載装置2の画像出力部26が合成画像CPを含む表示画像DPをディスプレイ29に出力して表示させる(ステップSA44)。   When the data communication unit 28 of the in-vehicle device 2 receives this composite image CP (step SA43), the image output unit 26 of the in-vehicle device 2 outputs and displays the display image DP including the composite image CP on the display 29 (step SA44). ).

これにより、可搬性装置3の4つの操作ボタンのいずれも操作されていない場合は、ラベルCF,CL,CB,CRが重畳された合成画像CPが車載装置2のディスプレイ29に表示される。一方、可搬性装置3の4つの操作ボタンのいずれかが操作された場合は、操作された操作ボタンに対応する車載カメラ5の位置の近傍を拡大した合成画像CPが車載装置2のディスプレイ29に表示される。   Thereby, when none of the four operation buttons of the portable device 3 is operated, the composite image CP on which the labels CF, CL, CB, and CR are superimposed is displayed on the display 29 of the in-vehicle device 2. On the other hand, when any of the four operation buttons of the portable device 3 is operated, the composite image CP in which the vicinity of the position of the vehicle-mounted camera 5 corresponding to the operated button is enlarged is displayed on the display 29 of the vehicle-mounted device 2. Is displayed.

以上のように、第4の実施の形態の画像処理システム10においては、合成画像CP中における複数の車載カメラ5それぞれの位置の近傍に、対応する操作ボタンの識別情報となるラベルが重畳された合成画像CPが車載装置2のディスプレイ29に表示される。このため、ユーザは、いずれの操作ボタンがいずれの車載カメラと対応しているかを明確に把握することができる。   As described above, in the image processing system 10 according to the fourth embodiment, labels serving as identification information of corresponding operation buttons are superimposed in the vicinity of the positions of the plurality of in-vehicle cameras 5 in the composite image CP. The composite image CP is displayed on the display 29 of the in-vehicle device 2. For this reason, the user can clearly grasp which operation button corresponds to which in-vehicle camera.

また、4つの操作ボタンのいずれかがユーザに操作された場合は、合成画像生成部31aは、操作された操作ボタンに対応する車載カメラ5の位置の近傍を拡大した合成画像CPを生成し、この合成画像CPが車載装置2のディスプレイ29に表示される。このため、ユーザは合成画像CPの所望の位置を拡大して確認することができる。   When any of the four operation buttons is operated by the user, the composite image generation unit 31a generates a composite image CP in which the vicinity of the position of the in-vehicle camera 5 corresponding to the operated operation button is enlarged, This composite image CP is displayed on the display 29 of the in-vehicle device 2. For this reason, the user can enlarge and confirm a desired position of the composite image CP.

なお、図14及び図15の例では、操作ボタンの識別情報となるラベルCF,CL,CB,CRは、車両像90の周囲に重畳されていた。これに対して、図17に示すように、ラベルCF,CL,CB,CRが、合成画像CP中の車両像90に重なるように重畳されるようにしてもよい。このようにすれば、合成画像CP中において、ラベルCF,CL,CB,CRにより車両9の周辺の被写体が隠れないようにすることができる。   14 and 15, the labels CF, CL, CB, and CR that are identification information of the operation buttons are superimposed on the periphery of the vehicle image 90. On the other hand, as shown in FIG. 17, the labels CF, CL, CB, and CR may be superimposed so as to overlap the vehicle image 90 in the composite image CP. In this way, it is possible to prevent the subject around the vehicle 9 from being hidden by the labels CF, CL, CB, and CR in the composite image CP.

<5.第5の実施の形態>
次に、第5の実施の形態について説明する。第5の実施の形態の画像処理システム10の構成及び処理は第4の実施の形態とほぼ同様であるため、以下、第4の実施の形態との相違点を中心に説明する。第4の実施の形態においては、可搬性装置3の4つの操作ボタンのいずれかが操作された場合は、操作された操作ボタンに対応する車載カメラ5の位置の近傍を拡大した合成画像CPが車載装置2のディスプレイ29に表示されていた。これに対して、第5の実施の形態においては、可搬性装置3の4つの操作ボタンのいずれかが操作された場合は、操作された操作ボタンに対応する車載カメラ5で得られた撮影画像が車載装置2のディスプレイ29に表示されるようになっている。
<5. Fifth embodiment>
Next, a fifth embodiment will be described. Since the configuration and processing of the image processing system 10 of the fifth embodiment are substantially the same as those of the fourth embodiment, the following description will be focused on differences from the fourth embodiment. In the fourth embodiment, when any of the four operation buttons of the portable device 3 is operated, the composite image CP in which the vicinity of the position of the in-vehicle camera 5 corresponding to the operated operation button is enlarged is displayed. It was displayed on the display 29 of the in-vehicle device 2. On the other hand, in the fifth embodiment, when any of the four operation buttons of the portable device 3 is operated, a captured image obtained by the in-vehicle camera 5 corresponding to the operated operation button. Is displayed on the display 29 of the in-vehicle device 2.

例えば、図18に示すように、ユーザが「4」ボタン35Lを操作した場合は、「4」ボタン35Lに対応する左サイドカメラ5Lで得られた左サイド画像PLを含む表示画像DPがディスプレイ29に表示されることになる。したがって、ユーザは、可搬性装置3の操作ボタンを操作することで、所望の車載カメラ5で得られた撮影画像を確認することができる。   For example, as shown in FIG. 18, when the user operates the “4” button 35L, the display image DP including the left side image PL obtained by the left side camera 5L corresponding to the “4” button 35L is displayed on the display 29. Will be displayed. Therefore, the user can confirm the captured image obtained by the desired in-vehicle camera 5 by operating the operation button of the portable device 3.

図19は、第5の実施の形態の画像処理システム10の処理の流れを示す図である。まず、車載装置2の画像取得部24が4つの撮影画像PF,PB,PL,PRを取得し(ステップSA51)、車載装置2のデータ通信部28が4つの撮影画像PF,PB,PL,PRを可搬性装置3に送信する(ステップSA52)。   FIG. 19 is a diagram illustrating a processing flow of the image processing system 10 according to the fifth embodiment. First, the image acquisition unit 24 of the in-vehicle device 2 acquires four captured images PF, PB, PL, PR (step SA51), and the data communication unit 28 of the in-vehicle device 2 acquires four captured images PF, PB, PL, PR. Is transmitted to the portable device 3 (step SA52).

可搬性装置3のデータ通信部37は、これらの4つの撮影画像PF,PB,PL,PRを受信する(ステップSB51)。   The data communication unit 37 of the portable device 3 receives these four captured images PF, PB, PL, PR (step SB51).

次に、可搬性装置3の4つ操作ボタン35F,36B,36L,36Rのいずれかがユーザに操作されたか否かが判定される。4つの操作ボタンのいずれも操作されていない場合(ステップSB52にてNo)は、処理はそのままステップSB54に進む。一方、4つの操作ボタンのいずれかが操作された場合(ステップSB42にてYes)は、データ通信部28が操作された操作ボタンを特定するボタン情報を車載装置2に送信してから(ステップSB53)、処理がステップSB54に進むことになる。   Next, it is determined whether or not any of the four operation buttons 35F, 36B, 36L, and 36R of the portable device 3 has been operated by the user. If none of the four operation buttons has been operated (No in step SB52), the process proceeds directly to step SB54. On the other hand, when any one of the four operation buttons is operated (Yes in Step SB42), the button information for specifying the operation button operated by the data communication unit 28 is transmitted to the in-vehicle device 2 (Step SB53). ), The process proceeds to step SB54.

車載装置2のデータ通信部28がこのボタン情報を受信すると(ステップSA53にてYes)、表示制御部23aが、ボタン情報に基づいて操作された操作ボタンを特定する。そして、表示制御部23aは、操作された操作ボタンに対応する車載カメラ5の撮影画像を含む表示画像DPを生成する。この際、既に合成画像CPが表示されている場合は、当該合成画像と、操作された操作ボタンに対応する車載カメラ5の撮影画像とを含む表示画像DPを生成する。   When the data communication unit 28 of the in-vehicle device 2 receives this button information (Yes in step SA53), the display control unit 23a specifies the operation button operated based on the button information. And the display control part 23a produces | generates display image DP containing the picked-up image of the vehicle-mounted camera 5 corresponding to the operated operation button. At this time, when the composite image CP is already displayed, a display image DP including the composite image and a captured image of the in-vehicle camera 5 corresponding to the operated operation button is generated.

そして、表示制御部23aは、画像出力部26を制御して、この表示画像DPをディスプレイ29に出力させる。これにより、操作された操作ボタンに対応する車載カメラ5の撮影画像を含む表示画像DPがディスプレイ29に表示される(ステップSA54)。   Then, the display control unit 23 a controls the image output unit 26 to cause the display 29 to output this display image DP. Thereby, the display image DP including the captured image of the in-vehicle camera 5 corresponding to the operated operation button is displayed on the display 29 (step SA54).

また、ステップSB54においては、可搬性装置3の合成画像生成部31aが、適位置にラベルCF,CL,CB,CRを重畳した合成画像CPを生成する。次に、可搬性装置3のディスプレイ36が、生成された合成画像CPを表示する(ステップSB55)。これとともに、可搬性装置3のデータ通信部37が、生成された合成画像CPを車載装置2に送信する(ステップSB56)。   In step SB54, the composite image generation unit 31a of the portable device 3 generates a composite image CP in which labels CF, CL, CB, and CR are superimposed at appropriate positions. Next, the display 36 of the portable device 3 displays the generated composite image CP (step SB55). At the same time, the data communication unit 37 of the portable device 3 transmits the generated composite image CP to the in-vehicle device 2 (step SB56).

車載装置2のデータ通信部28がこの合成画像CPを受信すると(ステップSA55)、車載装置2の画像出力部26が合成画像CPを含む表示画像DPをディスプレイ29に出力して表示させる(ステップSA56)。   When the data communication unit 28 of the in-vehicle device 2 receives this composite image CP (step SA55), the image output unit 26 of the in-vehicle device 2 outputs and displays the display image DP including the composite image CP on the display 29 (step SA56). ).

以上のように、第5の実施の形態の画像処理システム10においては、4つの操作ボタンのいずれかがユーザに操作された場合は、操作された操作ボタンを特定するボタン情報が可搬性装置3から車載装置2に送信される。そして、車載装置2では、このボタン情報に基づいて、操作された操作ボタンに対応する車載カメラ5で得られた撮影画像がディスプレイ29に表示される。したがって、ユーザは所望の撮影画像を確認することができる。   As described above, in the image processing system 10 according to the fifth embodiment, when one of the four operation buttons is operated by the user, the button information for specifying the operated operation button is the portable device 3. To the in-vehicle device 2. In the in-vehicle device 2, a captured image obtained by the in-vehicle camera 5 corresponding to the operated operation button is displayed on the display 29 based on the button information. Therefore, the user can confirm a desired captured image.

なお、本実施の形態においても、図17に示すように、ラベルCF,CL,CB,CRが、合成画像CP中の車両像90に重なるように重畳されてもよい。   Also in the present embodiment, as shown in FIG. 17, the labels CF, CL, CB, and CR may be superimposed so as to overlap the vehicle image 90 in the composite image CP.

<6.第6の実施の形態>
次に、第6の実施の形態について説明する。第1の実施の形態の画像処理システム10では、ユーザが所持する可搬性装置3において合成画像が生成されていた。これに対して、第6の実施の形態の画像処理システムでは、可搬性装置3に替えてネットワーク上のサーバ装置において合成画像が生成されるようになっている。以下、第1の実施の形態との相違点を中心に説明する。
<6. Sixth Embodiment>
Next, a sixth embodiment will be described. In the image processing system 10 of the first embodiment, the composite image is generated in the portable device 3 possessed by the user. In contrast, in the image processing system according to the sixth embodiment, a composite image is generated in a server device on the network instead of the portable device 3. Hereinafter, the difference from the first embodiment will be mainly described.

図20は、第6の実施の形態の画像処理システム11の概要を示す図である。画像処理システム11は、車両9に搭載される車載装置2と、車載装置2とは別個に構成されるサーバ装置4とを備えている。車両9とサーバ装置4とは、インターネットなどのネットワーク8を介して相互にデータを送受信することが可能となっている。サーバ装置4は、画像処理機能を有しており、画像処理装置として機能する。このサーバ装置4が備える画像処理機能の一つとして、仮想視点からみた合成画像を生成する機能がある。   FIG. 20 is a diagram illustrating an overview of the image processing system 11 according to the sixth embodiment. The image processing system 11 includes an in-vehicle device 2 mounted on the vehicle 9 and a server device 4 configured separately from the in-vehicle device 2. The vehicle 9 and the server device 4 can transmit and receive data to and from each other via a network 8 such as the Internet. The server device 4 has an image processing function and functions as an image processing device. One of the image processing functions provided in the server device 4 is a function of generating a composite image viewed from a virtual viewpoint.

図21は、第6の実施の形態の車載装置2の構成を示す図である。第6の実施の形態の車載装置2は、図2に示すものとほぼ同様の構成であるが、データ通信部28に替えてデータ通信部28aを備えている。このデータ通信部28aは、無線通信を利用したネットワーク8への接続機能を有している。これにより、データ通信部28aは、ネットワーク8に接続されたサーバ装置4との間でデータの送受信を行うことが可能である。なお、データ通信部28aが、ユーザが所持する携帯電話等の他の通信装置を中継器として利用して、ネットワーク8に接続されたサーバ装置4との間でデータの送受信を行うことが可能となっていてもよい。   FIG. 21 is a diagram illustrating a configuration of the in-vehicle device 2 according to the sixth embodiment. The in-vehicle device 2 of the sixth embodiment has substantially the same configuration as that shown in FIG. 2, but includes a data communication unit 28 a instead of the data communication unit 28. The data communication unit 28a has a function of connecting to the network 8 using wireless communication. Thereby, the data communication unit 28 a can transmit and receive data to and from the server device 4 connected to the network 8. The data communication unit 28a can transmit / receive data to / from the server device 4 connected to the network 8 by using another communication device such as a mobile phone possessed by the user as a relay. It may be.

図22は、サーバ装置4の構成を示す図である。サーバ装置4は、制御部41と、データ通信部42と、記憶部43とを備えている。   FIG. 22 is a diagram illustrating a configuration of the server device 4. The server device 4 includes a control unit 41, a data communication unit 42, and a storage unit 43.

データ通信部42は、ネットワーク8に接続され、ネットワーク8への接続機能を有する他の通信装置との間でデータ通信を行う。これにより、データ通信部42は、車載装置2との間でデータの送受信を行うことが可能である。   The data communication unit 42 is connected to the network 8 and performs data communication with other communication devices having a function of connecting to the network 8. Thereby, the data communication part 42 can transmit / receive data between the vehicle-mounted apparatuses 2.

記憶部43は、ハードディスクなどの不揮発性の記憶装置であり、各種の情報を記憶する。記憶部38は、複数の車両像90、及び、プログラム44を記憶している。   The storage unit 43 is a non-volatile storage device such as a hard disk, and stores various types of information. The storage unit 38 stores a plurality of vehicle images 90 and a program 44.

また、制御部41は、CPU、RAM及びROMなどを備えたコンピュータである。記憶部43に記憶されたプログラム44に従ってCPUが演算処理を行うことで、制御部41の各種の機能が実現される。   The control unit 41 is a computer that includes a CPU, a RAM, a ROM, and the like. Various functions of the control unit 41 are realized by the CPU performing arithmetic processing according to the program 44 stored in the storage unit 43.

図中に示す合成画像生成部41aは、プログラム44に従ってCPUが演算処理を行うことで実現される制御部41の機能の一つである。この合成画像生成部41aは、第1の実施の形態の合成画像生成部31aと同様の手法によって、4つの撮影画像に基づいて仮想視点からみた車両9の周辺の領域を示す合成画像を生成する。   A composite image generation unit 41 a shown in the figure is one of the functions of the control unit 41 realized by the CPU performing arithmetic processing according to the program 44. The composite image generation unit 41a generates a composite image indicating a region around the vehicle 9 viewed from the virtual viewpoint based on the four captured images, using the same method as the composite image generation unit 31a of the first embodiment. .

図23は、第6の実施の形態の画像処理システム11の処理の流れを示す図である。図中の左側は車載装置2の処理の流れを示しており、図中の右側はサーバ装置4の処理の流れを示している。車載装置2の処理の流れは、第1の実施の形態(図6)とほぼ同様である。サーバ装置4では、制御部41の制御により、車載装置2からの信号に応答して図23に示す処理が実行される。   FIG. 23 is a diagram illustrating a processing flow of the image processing system 11 according to the sixth embodiment. The left side in the drawing shows the processing flow of the in-vehicle device 2, and the right side in the drawing shows the processing flow of the server device 4. The processing flow of the in-vehicle device 2 is almost the same as that of the first embodiment (FIG. 6). In the server device 4, the processing shown in FIG. 23 is executed in response to a signal from the in-vehicle device 2 under the control of the control unit 41.

まず、車載装置2の画像取得部24が4つの撮影画像PF,PB,PL,PRを取得する(ステップSA61)。次に、車載装置2のデータ通信部28aが4つの撮影画像PF,PB,PL,PR、車両情報25a、及び、サイズ情報をサーバ装置4に送信する(ステップSA62)。   First, the image acquisition unit 24 of the in-vehicle device 2 acquires four captured images PF, PB, PL, PR (step SA61). Next, the data communication unit 28a of the in-vehicle device 2 transmits the four captured images PF, PB, PL, PR, vehicle information 25a, and size information to the server device 4 (step SA62).

サーバ装置4のデータ通信部42は、これらの4つの撮影画像PF,PB,PL,PR、車両情報25a、及び、サイズ情報を受信する(ステップSC11)。この受信に応答して、サーバ装置4の合成画像生成部41aは、4つの撮影画像を用いて、仮想視点からみた車両9の周辺の領域を示す合成画像CPを生成する(ステップSC12)。   The data communication unit 42 of the server device 4 receives these four captured images PF, PB, PL, PR, vehicle information 25a, and size information (step SC11). In response to this reception, the composite image generation unit 41a of the server device 4 generates a composite image CP that indicates an area around the vehicle 9 as viewed from the virtual viewpoint, using the four captured images (step SC12).

合成画像生成部41aは、この合成画像CPを生成する際に、車載装置2から送信された車両情報25aに基づいて車両9の種別に応じた車両像90を記憶部43から読み出し、この車両像90を合成画像CPに含める。また、合成画像生成部41aは、車載装置2から送信されたサイズ情報に基づいて、サイズ情報で指定するサイズの合成画像CPを生成する。   The composite image generation unit 41a reads the vehicle image 90 corresponding to the type of the vehicle 9 from the storage unit 43 based on the vehicle information 25a transmitted from the in-vehicle device 2 when generating the composite image CP. 90 is included in the composite image CP. The composite image generation unit 41a generates a composite image CP having a size specified by the size information based on the size information transmitted from the in-vehicle device 2.

次に、サーバ装置4のデータ通信部42が、生成された合成画像CPを車載装置2に送信する(ステップSC13)。   Next, the data communication unit 42 of the server device 4 transmits the generated composite image CP to the in-vehicle device 2 (step SC13).

車載装置2のデータ通信部28aがこの合成画像CPを受信すると(ステップSA63)、車載装置2の画像出力部26が合成画像CPを含む表示画像DPをディスプレイ29に出力して表示させる(ステップSA64)。   When the data communication unit 28a of the in-vehicle device 2 receives this composite image CP (step SA63), the image output unit 26 of the in-vehicle device 2 outputs and displays the display image DP including the composite image CP on the display 29 (step SA64). ).

以上のように、第6の実施の形態の画像処理システム11では、ネットワーク8上のサーバ装置4において合成画像が生成される。このため、本実施の形態の画像処理システム11においても、車載装置2が合成画像CPを生成する機能を備えなくとも、合成画像CPをディスプレイ29に表示させることができる。したがって、比較的コストの低い車載装置を用いた場合であっても、合成画像CPをディスプレイ29に表示させることができる。また、ユーザは、合成画像CPの生成機能を備えた可搬性装置等を導入する必要も無いため、合成画像CPの表示機能を容易に追加することができる。   As described above, in the image processing system 11 according to the sixth embodiment, a composite image is generated in the server device 4 on the network 8. For this reason, also in the image processing system 11 of the present embodiment, the composite image CP can be displayed on the display 29 even if the in-vehicle device 2 does not have a function of generating the composite image CP. Therefore, the composite image CP can be displayed on the display 29 even when an in-vehicle device having a relatively low cost is used. Further, since the user does not need to introduce a portable device or the like having a function for generating the composite image CP, a display function for the composite image CP can be easily added.

なお、本実施の形態では、第1の実施の形態の可搬性装置3に替えてサーバ装置4を用いる場合について説明したが、第2または第3の実施の形態の可搬性装置3に替えてサーバ装置4を用いるようにしてもよい。   In the present embodiment, the case where the server device 4 is used instead of the portable device 3 of the first embodiment has been described. However, the portable device 3 of the second or third embodiment is used instead. The server device 4 may be used.

<7.第7の実施の形態>
次に、第7の実施の形態について説明する。一般に、サーバ装置は、可搬性装置等と比較して大容量の記憶装置を有している。このため、このように比較的大容量の記憶装置を有するサーバ装置に合成画像を生成させる場合においては、合成画像と他の画像とを組み合わせることも可能である。
<7. Seventh Embodiment>
Next, a seventh embodiment will be described. In general, a server device has a large-capacity storage device compared to a portable device or the like. For this reason, in the case where the server device having a relatively large capacity storage device generates a composite image, it is also possible to combine the composite image with another image.

第7の実施の形態においては、サーバ装置4において航空写真の画像(以下、「航空画像」という。)が予め記憶されており、この航空画像と合成画像とを組み合わせた結合画像が生成されるようになっている。第7の実施の形態の画像処理システム11の構成及び処理は第6の実施の形態とほぼ同様であるため、以下、第6の実施の形態との相違点を中心に説明する。   In the seventh embodiment, an aerial photograph image (hereinafter referred to as “aerial image”) is stored in advance in the server device 4, and a combined image obtained by combining the aerial image and the composite image is generated. It is like that. Since the configuration and processing of the image processing system 11 of the seventh embodiment are substantially the same as those of the sixth embodiment, the following description will be focused on differences from the sixth embodiment.

図24は、第7の実施の形態の車載装置2の構成を示す図である。第7の実施の形態の車載装置2は、図21に示す第6の実施の形態の車載装置2の構成に加えて、位置取得部20を備えている。位置取得部20は、複数のGPS衛星からの信号を受信して、車両9の位置を示す位置情報(緯度経度)を取得する。   FIG. 24 is a diagram illustrating a configuration of the in-vehicle device 2 according to the seventh embodiment. The in-vehicle device 2 of the seventh embodiment includes a position acquisition unit 20 in addition to the configuration of the in-vehicle device 2 of the sixth embodiment shown in FIG. The position acquisition unit 20 receives signals from a plurality of GPS satellites and acquires position information (latitude and longitude) indicating the position of the vehicle 9.

図25は、第7の実施の形態のサーバ装置4の構成を示す図である。第7の実施の形態のサーバ装置4においては、記憶部43が、車両像90及びプログラム44の他に、航空画像データベース45を記憶している。航空画像データベース45には、上空から地表の様子を撮影した多数の航空画像がそれぞれの位置を示す位置情報(緯度経度)と関連付けて記憶されている。   FIG. 25 is a diagram illustrating a configuration of the server device 4 according to the seventh embodiment. In the server device 4 of the seventh embodiment, the storage unit 43 stores an aerial image database 45 in addition to the vehicle image 90 and the program 44. In the aerial image database 45, a large number of aerial images obtained by photographing the state of the ground surface from above are stored in association with position information (latitude and longitude) indicating the respective positions.

また、サーバ装置4は、プログラム44に従ってCPUが演算処理を行うことで実現される制御部41の機能として、合成画像生成部41aの他に、画像結合部41bを備えている。画像結合部41bは、航空画像と合成画像生成部41aが生成した合成画像とを結合して、航空画像と合成画像とを含む結合画像を生成する。   In addition to the composite image generation unit 41a, the server device 4 includes an image combination unit 41b as a function of the control unit 41 realized by the CPU performing arithmetic processing according to the program 44. The image combining unit 41b combines the aerial image and the combined image generated by the combined image generating unit 41a to generate a combined image including the aerial image and the combined image.

図26は、第6の実施の形態の画像処理システム11の処理の流れを示す図である。まず、車載装置2の画像取得部24が4つの撮影画像PF,PB,PL,PRを取得する(ステップSA71)。次に、車載装置2の位置取得部20が、その時点における車両9の位置を示す位置情報を取得する(ステップSA72)。   FIG. 26 is a diagram illustrating a processing flow of the image processing system 11 according to the sixth embodiment. First, the image acquisition unit 24 of the in-vehicle device 2 acquires four captured images PF, PB, PL, PR (step SA71). Next, the position acquisition unit 20 of the in-vehicle device 2 acquires position information indicating the position of the vehicle 9 at that time (step SA72).

次に、車載装置2のデータ通信部28aが4つの撮影画像PF,PB,PL,PRをサーバ装置4に送信する(ステップSA73)。また、この際、データ通信部28aは、これら4つの撮影画像PF,PB,PL,PRとともに、位置情報をサーバ装置4に送信する。   Next, the data communication unit 28a of the in-vehicle device 2 transmits four captured images PF, PB, PL, and PR to the server device 4 (step SA73). At this time, the data communication unit 28a transmits the position information to the server device 4 together with the four captured images PF, PB, PL, and PR.

サーバ装置4のデータ通信部42は、4つの撮影画像PF,PB,PL,PRとともに位置情報を受信する(ステップSC21)。この受信に応答して、サーバ装置4の合成画像生成部41aは、4つの撮影画像を用いて、仮想視点からみた車両9の周辺の領域を示す合成画像CPを生成する(ステップSC22)。   The data communication unit 42 of the server device 4 receives the position information together with the four captured images PF, PB, PL, PR (step SC21). In response to this reception, the composite image generation unit 41a of the server device 4 generates a composite image CP that indicates the area around the vehicle 9 as viewed from the virtual viewpoint, using the four captured images (step SC22).

次に、画像結合部41bが、車載装置2から受信した位置情報に基づいて、この位置情報が示す位置(すなわち、車両9の位置)を中心とした航空画像を、航空画像データベース45から取得する(ステップSC23)。これにより、車両9の周辺を示す航空画像が取得される。   Next, based on the position information received from the in-vehicle device 2, the image combining unit 41 b acquires an aerial image centered on the position indicated by the position information (that is, the position of the vehicle 9) from the aerial image database 45. (Step SC23). Thereby, an aerial image showing the periphery of the vehicle 9 is acquired.

そして、画像結合部41bは、この航空画像の中央部分に合成画像CPを重畳することにより、航空画像と合成画像CPとを含む結合画像を生成する(ステップSC24)。この際、画像結合部41bは、航空画像の縮尺に合うように合成画像CPのサイズを調整する。   Then, the image combination unit 41b generates a combined image including the aerial image and the composite image CP by superimposing the composite image CP on the central portion of the aerial image (step SC24). At this time, the image combining unit 41b adjusts the size of the composite image CP so as to match the scale of the aerial image.

図27は、このようにして生成された結合画像OPの一例を示す図である。結合画像OPは、その中央部分が合成画像CPとなっており、その合成画像CPの外側部分が航空画像APとなっている。ユーザは、このような結合画像OPを視認することで、車両9の近傍の物体の情報とともに、車両9の周辺の比較的広い範囲の地表の情報も得ることができる。例えば、車両9が駐車場に存在する場合は、ユーザは、結合画像OPに基づいて、駐車場の出口、駐車場で定められた進行方向、駐車場の全体形状などを把握することができる。   FIG. 27 is a diagram illustrating an example of the combined image OP generated in this way. The combined image OP has a composite image CP at the center thereof, and an aerial image AP at the outer portion of the composite image CP. By visually recognizing such a combined image OP, the user can obtain information on the surface of a relatively wide area around the vehicle 9 as well as information on objects near the vehicle 9. For example, when the vehicle 9 exists in the parking lot, the user can grasp the exit of the parking lot, the traveling direction determined in the parking lot, the overall shape of the parking lot, and the like based on the combined image OP.

次に、サーバ装置4のデータ通信部42が、合成画像CPと航空画像APとを含む結合画像OPを車載装置2に送信する(図26のステップSC25)。   Next, the data communication unit 42 of the server device 4 transmits the combined image OP including the composite image CP and the aerial image AP to the in-vehicle device 2 (step SC25 in FIG. 26).

車載装置2のデータ通信部28aがこの結合画像OPを受信すると(ステップSA74)、表示制御部23aが、受信した結合画像OPを含む表示画像DPを生成する。そして、画像出力部26が、生成された表示画像DPをディスプレイ29に出力する。これにより、結合画像OPを含む表示画像DPがディスプレイ29に表示される(ステップSA75)。   When the data communication unit 28a of the in-vehicle device 2 receives this combined image OP (Step SA74), the display control unit 23a generates a display image DP including the received combined image OP. Then, the image output unit 26 outputs the generated display image DP to the display 29. Thereby, the display image DP including the combined image OP is displayed on the display 29 (step SA75).

図28の上部は、このようにして表示された結合画像OPを含む表示画像DPの例を示す図である。図に示すように、表示画像DPには、縮尺を変更するための2つのコマンドボタンB1,B2が含まれている。ユーザは、ディスプレイ29の表示画面に表示されたこれら2つのコマンドボタンB1,B2に触れることで、結合画像OP中の航空画像APの縮尺を変更できるようになっている。   The upper part of FIG. 28 is a diagram showing an example of the display image DP including the combined image OP displayed in this way. As shown in the figure, the display image DP includes two command buttons B1 and B2 for changing the scale. The user can change the scale of the aerial image AP in the combined image OP by touching these two command buttons B1 and B2 displayed on the display screen of the display 29.

例えば、詳細ボタンB1に触れた場合は、図28の下部に示すように、航空画像APが示す地表の様子が拡大され、航空画像APに含まれる地表の範囲は狭くなる。一方、広域ボタンB2に触れた場合は、航空画像APが示す地表の様子が縮小され、航空画像APに含まれる地表の範囲は広くなる。また、このように航空画像APの縮尺が変更されると、航空画像APの縮尺に合わせて合成画像CPのサイズ(縮尺)も調整される。このように、ユーザは、航空画像APの縮尺を所望に変更できるため、必要な地表の範囲を含む航空画像APをディスプレイ29に表示させることができる。   For example, when the detail button B1 is touched, as shown in the lower part of FIG. 28, the state of the ground surface indicated by the aerial image AP is enlarged, and the range of the ground surface included in the aerial image AP is narrowed. On the other hand, when the wide area button B2 is touched, the state of the ground surface indicated by the aerial image AP is reduced, and the range of the ground surface included in the aerial image AP is widened. Further, when the scale of the aerial image AP is changed in this way, the size (scale) of the composite image CP is also adjusted in accordance with the scale of the aerial image AP. Thus, since the user can change the scale of the aerial image AP as desired, the aerial image AP including the necessary ground surface range can be displayed on the display 29.

図29は、このような縮尺の変更指示に対応する画像処理システム11の処理の流れを示す図である。車載装置2では、制御部23の制御により、図26に示す処理とは独立して、図29に示す処理が所定の周期で繰り返し実行される。また、サーバ装置4では、制御部41の制御により、車載装置2からの信号に応答して図29に示す処理が実行される。   FIG. 29 is a diagram showing a processing flow of the image processing system 11 corresponding to such a scale change instruction. In the in-vehicle device 2, the process shown in FIG. 29 is repeatedly executed at a predetermined cycle independently of the process shown in FIG. 26 under the control of the control unit 23. Moreover, in the server apparatus 4, the process shown in FIG. 29 is performed in response to the signal from the vehicle-mounted apparatus 2 by control of the control part 41. FIG.

まず、車載装置2の制御部23が、ユーザから航空画像APの縮尺の変更指示がなされたか否かを判断する(ステップSA81)。すなわち、制御部23が、操作部22に含まれるタッチパネルからの信号に基づいて、ユーザが2つのコマンドボタンB1,B2のいずれかに触れたか否かを判断する。航空画像APの縮尺の変更指示が無い場合は(ステップSA81にてNo)、そのまま処理が終了する。   First, the control unit 23 of the in-vehicle device 2 determines whether or not an instruction to change the scale of the aerial image AP has been given by the user (step SA81). That is, the control unit 23 determines whether or not the user has touched one of the two command buttons B1 and B2 based on a signal from the touch panel included in the operation unit 22. If there is no instruction to change the scale of the aerial image AP (No in step SA81), the process ends.

航空画像APの縮尺の変更指示があった場合は(ステップSA81にてYes)、車載装置2のデータ通信部28aが、航空画像APの縮尺の変更を指示する縮尺情報をサーバ装置4に送信する(ステップSA82)。触れられたコマンドボタンが詳細ボタンB1の場合は地表の様子の拡大を指示する縮尺情報が送信され、触れられたコマンドボタンが広域ボタンB2の場合は地表の様子の縮小を指示する縮尺情報が送信される。   When there is an instruction to change the scale of the aerial image AP (Yes in step SA81), the data communication unit 28a of the in-vehicle device 2 transmits to the server device 4 scale information that instructs to change the scale of the aerial image AP. (Step SA82). When the touched command button is the detail button B1, scale information for instructing expansion of the appearance of the ground surface is transmitted. When the touched command button is the wide area button B2, scale information for instructing reduction of the appearance of the ground surface is transmitted. Is done.

サーバ装置4のデータ通信部42は、この縮尺情報を受信する(ステップSC31)。この縮尺情報の受信に応答して、サーバ装置4の画像結合部41bは、縮尺情報に応じて航空画像APの縮尺を変更する(ステップSC32)。以降、画像結合部41bは、縮尺情報に応じた縮尺の航空画像APを含む結合画像OPを生成することになる。   The data communication unit 42 of the server device 4 receives this scale information (step SC31). In response to the reception of the scale information, the image combining unit 41b of the server device 4 changes the scale of the aerial image AP according to the scale information (step SC32). Thereafter, the image combining unit 41b generates a combined image OP including the aerial image AP with a scale corresponding to the scale information.

以上のように、第6の実施の形態の画像処理システム11では、サーバ装置4の記憶部25が地表の様子を示す航空画像を記憶しており、画像結合部41bが、車両9の位置を示す位置情報に基づいて、車両9の周辺を示す航空画像と合成画像とを含む結合画像を生成する。そして、車載装置2がこの結合画像OPをディスプレイ29に表示する。このような結合画像OPがディスプレイ29に表示されるため、ユーザは車両9の近傍の物体の情報とともに、車両9の周辺の比較的広い範囲の地表の情報も得ることができる。   As described above, in the image processing system 11 according to the sixth embodiment, the storage unit 25 of the server device 4 stores the aerial image indicating the state of the ground surface, and the image combining unit 41b determines the position of the vehicle 9. Based on the position information shown, a combined image including an aerial image showing the periphery of the vehicle 9 and a composite image is generated. The in-vehicle device 2 displays the combined image OP on the display 29. Since such a combined image OP is displayed on the display 29, the user can obtain information on the surface of a relatively wide area around the vehicle 9 as well as information on objects near the vehicle 9.

また、車載装置2から送信される縮尺情報に応じた縮尺の航空画像APが生成されるため、ユーザが必要となる縮尺の航空画像APをディスプレイ29に表示させることができる。   Further, since the aerial image AP having a reduced scale corresponding to the reduced scale information transmitted from the in-vehicle device 2 is generated, the aerial image AP having a reduced scale required by the user can be displayed on the display 29.

なお、本実施の形態では、サーバ装置4が航空画像を記憶しているものとして説明したが、可搬性装置3に航空画像を記憶させ、可搬性装置3が合成画像と航空画像とを含む結合画像を生成するようにしてもよい。   In the present embodiment, the server device 4 has been described as storing aerial images. However, the portable device 3 stores the aerial image, and the portable device 3 includes the combined image and the aerial image. An image may be generated.

<8.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<8. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. All the forms including the above-described embodiment and the form described below can be appropriately combined.

上記実施の形態では、車両で用いられる車両用装置として車載装置2を例に説明を行ったが、車両用装置が携帯電話やスマートフォンなどの可搬性の通信装置として構成されていてもよい。   In the said embodiment, although the vehicle-mounted apparatus 2 was demonstrated to the example as a vehicle apparatus used with a vehicle, the apparatus for vehicles may be comprised as portable communication apparatuses, such as a mobile telephone and a smart phone.

また、上記実施の形態では、車両9及び車両9の周辺の領域を俯瞰する合成画像が生成されていたが、任意の仮想視点からみた合成画像を生成するようにしてもよい。   Moreover, in the said embodiment, although the synthesized image which looks down the area | region of the vehicle 9 and the periphery of the vehicle 9 was produced | generated, you may make it produce | generate the synthesized image seen from arbitrary virtual viewpoints.

また、上記実施の形態では、ディスプレイ29は本体部21と一体化されていたが、ディスプレイが本体部とは別体として設けられていてもよい。   Moreover, in the said embodiment, although the display 29 was integrated with the main-body part 21, the display may be provided as a different body from the main-body part.

また、上記実施の形態では、車載装置2から複数の撮影画像を送信するごとに、車両情報25a及びサイズ情報が画像処理装置(可搬性装置3あるいはサーバ装置4)に送信されていた。これに対して、車載装置2から画像処理装置に対し車両情報25a及びサイズ情報が1回のみ送信され、この車両情報25a及びサイズ情報が車載装置2の識別情報と関連付けられて、画像処理装置に記憶されるようにしてもよい。   Moreover, in the said embodiment, whenever it transmitted the some picked-up image from the vehicle-mounted apparatus 2, the vehicle information 25a and size information were transmitted to the image processing apparatus (the portable apparatus 3 or the server apparatus 4). On the other hand, the vehicle information 25a and the size information are transmitted only once from the in-vehicle device 2 to the image processing device, and the vehicle information 25a and the size information are associated with the identification information of the in-vehicle device 2 to the image processing device. It may be stored.

また、第7の実施の形態では、地表の様子を示す地表画像として航空画像が用いられていたが、衛星写真の画像や、イラストで表現される一般的な地図画像などを用いてもよい。   In the seventh embodiment, an aerial image is used as a ground image indicating the state of the ground surface. However, an image of a satellite photograph or a general map image represented by an illustration may be used.

また、第7の実施の形態では、縮尺情報をサーバ装置4に送信して地表画像(航空画像)に含まれる地表の範囲が変更されていた。これに対して、縮尺情報をサーバ装置4に送信することで、地表画像の縮尺と合成画像の縮尺とが一致するように調整できるようにしてもよい。   In the seventh embodiment, the scale information is transmitted to the server device 4 to change the range of the ground surface included in the ground surface image (aerial image). On the other hand, the scale information may be transmitted to the server device 4 so that the scale of the ground image and the scale of the composite image can be adjusted.

また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に合成処理を生成する機能を含む各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。   Further, in the above-described embodiment, it has been described that various functions including a function of generating a synthesis process by software are realized by a CPU arithmetic process according to a program. However, some of these functions are electrically It may be realized by a simple hardware circuit.

2 車載装置
3 可搬性装置
4 サーバ装置
5 車載カメラ
9 車両
35 操作部
10 画像処理システム
11 画像処理システム
90 車両像
AP 航空画像
CP 合成画像
DP 表示画像
OP 結合画像
2 In-vehicle device 3 Portable device 4 Server device 5 In-vehicle camera 9 Vehicle 35 Operation unit 10 Image processing system 11 Image processing system 90 Vehicle image AP Aerial image CP Composite image DP Display image OP Combined image

Claims (19)

画像処理システムであって、
車両で用いられる車両用装置と、
前記車両用装置とは別個に構成される画像処理装置と、
を備え、
前記車両用装置は、
前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を前記画像処理装置に送信する第1送信手段と、
前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する第1受信手段と、
前記合成画像を表示装置に出力して表示させる出力手段と、
を備え、
前記画像処理装置は、
前記車両用装置から送信された前記複数の撮影画像を受信する第2受信手段と、
前記複数の撮影画像に基づいて前記合成画像を生成する生成手段と、
前記合成画像を前記車両用装置に送信する第2送信手段と、
を備え
前記出力手段は、前記第1送信手段が前記複数の撮影画像を送信してから該複数の撮影画像に基づく前記合成画像を前記第1受信手段が受信するまでの期間、該複数の撮影画像の少なくとも一つを前記表示装置に出力して表示させることを特徴とする画像処理システム。
An image processing system,
A vehicle device used in a vehicle;
An image processing device configured separately from the vehicle device;
With
The vehicle device includes:
Obtaining means for obtaining a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle;
First transmission means for transmitting the plurality of captured images to the image processing apparatus;
First receiving means for receiving a composite image generated by the image processing device based on the plurality of captured images and indicating a region around the vehicle as viewed from a virtual viewpoint;
Output means for outputting and displaying the composite image on a display device;
With
The image processing apparatus includes:
Second receiving means for receiving the plurality of captured images transmitted from the vehicle device;
Generating means for generating the composite image based on the plurality of captured images;
Second transmission means for transmitting the composite image to the vehicle device;
Equipped with a,
The output means is a period of time from when the first transmission means transmits the plurality of captured images to when the first reception means receives the composite image based on the plurality of captured images. An image processing system characterized in that at least one is output and displayed on the display device .
画像処理システムであって、
車両で用いられる車両用装置と、
前記車両用装置とは別個に構成される画像処理装置と、
を備え、
前記車両用装置は、
前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を前記画像処理装置に送信する第1送信手段と、
前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する第1受信手段と、
前記合成画像を表示装置に出力して表示させる出力手段と、
を備え、
前記画像処理装置は、
前記車両用装置から送信された前記複数の撮影画像を受信する第2受信手段と、
前記複数の撮影画像に基づいて前記合成画像を生成する生成手段と、
前記合成画像を前記車両用装置に送信する第2送信手段と、
を備え、
前記取得手段は、前記複数の撮影画像のそれぞれを周期的に取得するものであり、
前記車両用装置は、
前記複数の撮影画像のうち、含まれる被写体が時間的に変化した変化画像を特定する特定手段、
をさらに備え、
前記変化画像がある場合は、
前記第1送信手段は、前記複数の撮影画像のうちの前記変化画像のみを送信し、
前記生成手段は、過去に前記合成画像の生成に用いた前記複数の撮影画像のうち、前記変化画像に対応する前記撮影画像のみを前記変化画像に替えて、新たな前記合成画像を生成し、
前記出力手段は、前記変化画像に基づく前記合成画像を出力する前に、前記変化画像を前記表示装置に出力して表示させることを特徴とする画像処理システム。
An image processing system,
A vehicle device used in a vehicle;
An image processing device configured separately from the vehicle device;
With
The vehicle device is:
Obtaining means for obtaining a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle;
First transmission means for transmitting the plurality of captured images to the image processing apparatus;
First receiving means for receiving a composite image generated by the image processing device based on the plurality of captured images and indicating a region around the vehicle as viewed from a virtual viewpoint;
Output means for outputting and displaying the composite image on a display device;
With
The image processing apparatus includes:
Second receiving means for receiving the plurality of captured images transmitted from the vehicle device;
Generating means for generating the composite image based on the plurality of captured images;
Second transmission means for transmitting the composite image to the vehicle device;
With
The acquisition means periodically acquires each of the plurality of captured images,
The vehicle device is:
A specifying means for specifying a change image in which an included subject has temporally changed among the plurality of captured images;
Further comprising
If there is a change image,
The first transmission means transmits only the change image among the plurality of captured images,
The generation unit generates a new composite image by replacing only the captured image corresponding to the change image among the plurality of captured images used for generating the composite image in the past, and the change image.
The output means outputs the change image to the display device for display before outputting the composite image based on the change image .
請求項に記載の画像処理システムにおいて、
前記車両用装置は、
前記変化画像がある場合に、ユーザに警告する警告手段、
をさらに備えることを特徴とする画像処理システム。
The image processing system according to claim 2 ,
The vehicle device includes:
Warning means for warning the user when there is the change image,
An image processing system further comprising:
画像処理システムであって、
車両で用いられる車両用装置と、
前記車両用装置とは別個に構成される画像処理装置と、
を備え、
前記車両用装置は、
前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を前記画像処理装置に送信する第1送信手段と、
前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する第1受信手段と、
前記合成画像を表示装置に出力して表示させる出力手段と、
を備え、
前記画像処理装置は、
前記車両用装置から送信された前記複数の撮影画像を受信する第2受信手段と、
前記複数の撮影画像に基づいて前記合成画像を生成する生成手段と、
前記合成画像を前記車両用装置に送信する第2送信手段と、
を備え、
前記画像処理装置は、
地表の様子を示す地表画像を記憶する記憶手段と、
前記車両の位置を示す位置情報に基づいて、前記車両の周辺を示す前記地表画像と前記合成画像とを含む結合画像を生成する結合手段と、
をさらに備え、
前記第1送信手段は、前記位置情報を前記画像処理装置に送信し、
前記第2送信手段は、前記結合画像を前記車両用装置に送信し、
前記出力手段は、前記結合画像を前記表示装置に出力して表示させることを特徴とする画像処理システム。
An image processing system,
A vehicle device used in a vehicle;
An image processing device configured separately from the vehicle device;
With
The vehicle device is:
Obtaining means for obtaining a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle;
First transmission means for transmitting the plurality of captured images to the image processing apparatus;
First receiving means for receiving a composite image generated by the image processing device based on the plurality of captured images and indicating a region around the vehicle as viewed from a virtual viewpoint;
Output means for outputting and displaying the composite image on a display device;
With
The image processing apparatus includes:
Second receiving means for receiving the plurality of captured images transmitted from the vehicle device;
Generating means for generating the composite image based on the plurality of captured images;
Second transmission means for transmitting the composite image to the vehicle device;
With
The image processing apparatus includes:
Storage means for storing a ground image showing a state of the ground surface;
A combining unit configured to generate a combined image including the ground image indicating the periphery of the vehicle and the composite image based on position information indicating the position of the vehicle;
Further comprising
The first transmission means transmits the position information to the image processing apparatus,
The second transmission means transmits the combined image to the vehicle device,
The image processing system , wherein the output means outputs the combined image to the display device for display .
請求項4に記載の画像処理システムにおいて、
前記第1送信手段は、前記地表画像の縮尺に係る縮尺情報を前記画像処理装置に送信し、
前記結合手段は、前記縮尺情報に応じた縮尺の前記地表画像を含む前記結合画像を生成することを特徴とする画像処理システム。
The image processing system according to claim 4,
The first transmission means transmits scale information related to a scale of the ground image to the image processing apparatus;
The image processing system , wherein the combining unit generates the combined image including the ground image having a scale corresponding to the scale information .
画像処理システムであって、
車両で用いられる車両用装置と、
前記車両用装置とは別個に構成される画像処理装置と、
を備え、
前記車両用装置は、
前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を前記画像処理装置に送信する第1送信手段と、
前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する第1受信手段と、
前記合成画像を表示装置に出力して表示させる出力手段と、
を備え、
前記画像処理装置は、
前記車両用装置から送信された前記複数の撮影画像を受信する第2受信手段と、
前記複数の撮影画像に基づいて前記合成画像を生成する生成手段と、
前記合成画像を前記車両用装置に送信する第2送信手段と、
を備え、
前記画像処理装置は、
前記複数のカメラをそれぞれ指定するための複数のボタン、
をさらに備え、
前記出力手段は、前記合成画像中における前記複数のカメラそれぞれの位置の近傍に当該カメラが対応する前記ボタンの識別情報を重畳した前記合成画像を前記表示装置に出力して表示させることを特徴とする画像処理システム。
An image processing system,
A vehicle device used in a vehicle;
An image processing device configured separately from the vehicle device;
With
The vehicle device is:
Obtaining means for obtaining a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle;
First transmission means for transmitting the plurality of captured images to the image processing apparatus;
First receiving means for receiving a composite image generated by the image processing device based on the plurality of captured images and indicating a region around the vehicle as viewed from a virtual viewpoint;
Output means for outputting and displaying the composite image on a display device;
With
The image processing apparatus includes:
Second receiving means for receiving the plurality of captured images transmitted from the vehicle device;
Generating means for generating the composite image based on the plurality of captured images;
Second transmission means for transmitting the composite image to the vehicle device;
With
The image processing apparatus includes:
A plurality of buttons for designating each of the plurality of cameras;
Further comprising
The output means outputs the composite image in which the identification information of the button corresponding to the camera is superimposed in the vicinity of the position of each of the plurality of cameras in the composite image to be displayed on the display device. Image processing system.
請求項に記載の画像処理システムにおいて、
前記生成手段は、前記複数のボタンのいずれかがユーザに操作された場合は、操作された前記ボタンに対応する前記カメラの位置の近傍を拡大した前記合成画像を生成することを特徴とする画像処理システム。
The image processing system according to claim 6 .
The generation unit generates the composite image in which the vicinity of the position of the camera corresponding to the operated button is enlarged when any of the plurality of buttons is operated by a user. Processing system.
請求項に記載の画像処理システムにおいて、
前記第2送信手段は、前記複数のボタンのいずれかがユーザに操作された場合は、操作された前記ボタンを特定するボタン情報を前記車両用装置に送信し、
前記出力手段は、前記ボタン情報に基づいて、操作された前記ボタンに対応する前記カメラで得られた前記撮影画像を前記表示装置に出力して表示させることを特徴とする画像処理システム。
The image processing system according to claim 6 .
The second transmission means transmits button information for identifying the operated button to the vehicle device when any of the plurality of buttons is operated by a user,
The output means is configured to output and display the captured image obtained by the camera corresponding to the operated button on the display device based on the button information .
請求項6ないし8のいずれかに記載の画像処理システムにおいて、
前記合成画像は、車両像を含み、
前記ボタンの識別情報は、前記合成画像中の前記車両像に重なるように重畳されることを特徴とする画像処理システム。
The image processing system according to any one of claims 6 to 8 ,
The composite image includes a vehicle image,
The identification information of the button is superimposed so as to overlap the vehicle image in the composite image .
請求項6ないし9のいずれかに記載の画像処理システムにおいて、
前記画像処理装置は、
前記合成画像中における前記複数のカメラそれぞれの位置の近傍に当該カメラが対応する前記ボタンの識別情報を重畳した前記合成画像を表示する表示手段、
をさらに備えることを特徴とする画像処理システム。
The image processing system according to any one of claims 6 to 9 ,
The image processing apparatus includes:
Display means for displaying the composite image in which the identification information of the button corresponding to the camera is superimposed in the vicinity of the position of each of the plurality of cameras in the composite image;
An image processing system further comprising:
請求項10に記載の画像処理システムにおいて、
前記表示手段は、画面の長手方向と、前記合成画像中の車両の像の長手方向とが一致するように前記合成画像を表示することを特徴とする画像処理システム。
The image processing system according to claim 10.
The image processing system , wherein the display unit displays the composite image so that a longitudinal direction of a screen matches a longitudinal direction of a vehicle image in the composite image .
車両で用いられる車両用装置であって、  A vehicle device used in a vehicle,
前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、  Obtaining means for obtaining a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle;
前記複数の撮影画像を、前記車両用装置とは別個に構成される画像処理装置に送信する送信手段と、  Transmitting means for transmitting the plurality of captured images to an image processing device configured separately from the vehicle device;
前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する受信手段と、  Receiving means for receiving a composite image generated by the image processing device based on the plurality of photographed images and indicating a region around the vehicle as viewed from a virtual viewpoint;
前記合成画像を表示装置に出力して表示させる出力手段と、  Output means for outputting and displaying the composite image on a display device;
を備え、With
前記出力手段は、前記送信手段が前記複数の撮影画像を送信してから該複数の撮影画像に基づく前記合成画像を前記受信手段が受信するまでの期間、該複数の撮影画像の少なくとも一つを前記表示装置に出力して表示させることを特徴とする車両用装置。  The output means outputs at least one of the plurality of photographed images during a period from when the transmission means transmits the plurality of photographed images to when the reception means receives the composite image based on the plurality of photographed images. An apparatus for a vehicle, wherein the display device outputs and displays the display device.
車両で用いられる車両用装置であって、  A vehicle device used in a vehicle,
前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、  Obtaining means for obtaining a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle;
前記複数の撮影画像を、前記車両用装置とは別個に構成される画像処理装置に送信する送信手段と、  Transmitting means for transmitting the plurality of captured images to an image processing device configured separately from the vehicle device;
前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する受信手段と、  Receiving means for receiving a composite image generated by the image processing device based on the plurality of photographed images and indicating a region around the vehicle as viewed from a virtual viewpoint;
前記合成画像を表示装置に出力して表示させる出力手段と、  Output means for outputting and displaying the composite image on a display device;
を備え、With
前記取得手段は、前記複数の撮影画像のそれぞれを周期的に取得するものであり、  The acquisition means periodically acquires each of the plurality of captured images,
前記車両用装置は、  The vehicle device includes:
前記複数の撮影画像のうち、含まれる被写体が時間的に変化した変化画像を特定する特定手段、    A specifying means for specifying a change image in which an included subject has temporally changed among the plurality of captured images;
をさらに備え、Further comprising
前記変化画像がある場合は、  If there is a change image,
前記送信手段は、前記複数の撮影画像のうちの前記変化画像のみを送信し、    The transmission means transmits only the change image among the plurality of captured images,
前記受信手段は、過去に前記合成画像の生成に用いた前記複数の撮影画像のうち、前記変化画像に対応する前記撮影画像のみを前記変化画像に替えて前記画像処理装置で生成された新たな前記合成画像を受信し、    The receiving unit replaces only the photographed image corresponding to the change image among the plurality of photograph images used in the generation of the composite image in the past with the change image, and generates a new image generated by the image processing apparatus. Receiving the composite image;
前記出力手段は、前記変化画像に基づく前記合成画像を出力する前に、前記変化画像を前記表示装置に出力して表示させることを特徴とする車両用装置。    The output device outputs the change image to the display device and displays the change image before outputting the composite image based on the change image.
車両で用いられる車両用装置であって、  A vehicle device used in a vehicle,
前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、  Obtaining means for obtaining a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle;
前記複数の撮影画像を、前記車両用装置とは別個に構成される画像処理装置に送信する送信手段と、  Transmitting means for transmitting the plurality of captured images to an image processing device configured separately from the vehicle device;
前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する受信手段と、  Receiving means for receiving a composite image generated by the image processing device based on the plurality of photographed images and indicating a region around the vehicle as viewed from a virtual viewpoint;
前記合成画像を表示装置に出力して表示させる出力手段と、  Output means for outputting and displaying the composite image on a display device;
を備え、With
前記送信手段は、前記車両の位置を示す位置情報を前記画像処理装置に送信し、  The transmission means transmits position information indicating the position of the vehicle to the image processing device,
前記受信手段は、前記位置情報に基づいて前記画像処理装置で生成された、前記車両の周辺の地表の様子を示す地表画像と前記合成画像とを含む結合画像を受信し、  The receiving means receives a combined image including the ground image indicating the state of the ground surface around the vehicle and the composite image generated by the image processing device based on the position information,
前記出力手段は、前記結合画像を前記表示装置に出力して表示させることを特徴とする車両用装置。  The vehicle device, wherein the output means outputs the combined image to the display device for display.
車両で用いられる車両用装置であって、  A vehicle device used in a vehicle,
前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する取得手段と、  Obtaining means for obtaining a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle;
前記複数の撮影画像を、前記車両用装置とは別個に構成される画像処理装置に送信する送信手段と、  Transmitting means for transmitting the plurality of captured images to an image processing device configured separately from the vehicle device;
前記複数の撮影画像に基づいて前記画像処理装置で生成された、仮想視点からみた前記車両の周辺の領域を示す合成画像を受信する受信手段と、  Receiving means for receiving a composite image generated by the image processing device based on the plurality of photographed images and indicating a region around the vehicle as viewed from a virtual viewpoint;
前記合成画像を表示装置に出力して表示させる出力手段と、  Output means for outputting and displaying the composite image on a display device;
を備え、With
前記画像処理装置は、前記複数のカメラをそれぞれ指定するための複数のボタン、を備え、  The image processing apparatus includes a plurality of buttons for designating the plurality of cameras,
前記出力手段は、前記合成画像中における前記複数のカメラそれぞれの位置の近傍に当該カメラが対応する前記ボタンの識別情報を重畳した前記合成画像を前記表示装置に出力して表示させることを特徴とする車両用装置。  The output means outputs the composite image in which the identification information of the button corresponding to the camera is superimposed in the vicinity of the position of each of the plurality of cameras in the composite image to be displayed on the display device. A vehicle device.
車両で用いられる車両用装置と、前記車両用装置とは別個に構成される画像処理装置とを用いて画像を表示する画像表示方法であって、  An image display method for displaying an image using a vehicular apparatus used in a vehicle and an image processing apparatus configured separately from the vehicular apparatus,
(a)前記車両用装置が、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する工程と、  (A) the vehicle device acquiring a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle;
(b)前記複数の撮影画像を前記車両用装置から前記画像処理装置に送信する工程と、  (B) transmitting the plurality of captured images from the vehicle device to the image processing device;
(c)前記画像処理装置が、前記複数の撮影画像に基づいて、仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する工程と、  (C) The image processing device generates a composite image indicating a region around the vehicle viewed from a virtual viewpoint based on the plurality of captured images;
(d)前記合成画像を前記画像処理装置から前記車両用装置に送信する工程と、  (D) transmitting the composite image from the image processing device to the vehicle device;
(e)前記車両用装置が、前記合成画像を表示装置に出力して表示させる工程と、  (E) the vehicle device outputting and displaying the composite image on a display device;
を備え、With
前記工程(e)は、前記工程(b)で前記車両用装置が前記複数の撮影画像を送信してから該複数の撮影画像に基づく前記合成画像を前記工程(d)で前記車両用装置が受信するまでの期間、該複数の撮影画像の少なくとも一つを前記表示装置に出力して表示させることを特徴とする画像表示方法。  In the step (e), the vehicular apparatus transmits the plurality of captured images in the step (b), and then the combined image based on the plurality of captured images is displayed in the step (d). An image display method, comprising: outputting and displaying at least one of the plurality of photographed images on the display device during a period until reception.
車両で用いられる車両用装置と、前記車両用装置とは別個に構成される画像処理装置とを用いて画像を表示する画像表示方法であって、  An image display method for displaying an image using a vehicular apparatus used in a vehicle and an image processing apparatus configured separately from the vehicular apparatus,
(a)前記車両用装置が、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する工程と、  (A) the vehicle device acquiring a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle;
(b)前記複数の撮影画像を前記車両用装置から前記画像処理装置に送信する工程と、  (B) transmitting the plurality of captured images from the vehicle device to the image processing device;
(c)前記画像処理装置が、前記複数の撮影画像に基づいて、仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する工程と、  (C) The image processing device generates a composite image indicating a region around the vehicle viewed from a virtual viewpoint based on the plurality of captured images;
(d)前記合成画像を前記画像処理装置から前記車両用装置に送信する工程と、  (D) transmitting the composite image from the image processing device to the vehicle device;
(e)前記車両用装置が、前記合成画像を表示装置に出力して表示させる工程と、  (E) the vehicle device outputting and displaying the composite image on a display device;
を備え、With
前記工程(a)は、前記複数の撮影画像のそれぞれを周期的に取得するものであり、  The step (a) periodically acquires each of the plurality of captured images.
前記画像表示方法は、  The image display method includes:
(f)前記車両用装置が、前記複数の撮影画像のうち、含まれる被写体が時間的に変化した変化画像を特定する工程、  (F) a step in which the vehicular device specifies a change image in which an included subject has changed in time among the plurality of captured images;
をさらに備え、Further comprising
前記変化画像がある場合は、  If there is a change image,
前記工程(b)は、前記複数の撮影画像のうちの前記変化画像のみを送信し、    The step (b) transmits only the change image among the plurality of captured images,
前記工程(c)は、過去に前記合成画像の生成に用いた前記複数の撮影画像のうち、前記変化画像に対応する前記撮影画像のみを前記変化画像に替えて、新たな前記合成画像を生成し、    The step (c) generates a new composite image by replacing only the photographed image corresponding to the change image among the plurality of photograph images used for generating the composite image in the past with the change image. And
前記工程(e)は、前記変化画像に基づく前記合成画像を出力する前に、前記変化画像を前記表示装置に出力して表示させることを特徴とする画像表示方法。    The step (e) outputs the change image to the display device for display before outputting the composite image based on the change image.
車両で用いられる車両用装置と、前記車両用装置とは別個に構成される画像処理装置とを用いて画像を表示する画像表示方法であって、  An image display method for displaying an image using a vehicular apparatus used in a vehicle and an image processing apparatus configured separately from the vehicular apparatus,
(a)前記車両用装置が、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する工程と、  (A) the vehicle device acquiring a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle;
(b)前記複数の撮影画像を前記車両用装置から前記画像処理装置に送信する工程と、  (B) transmitting the plurality of captured images from the vehicle device to the image processing device;
(c)前記画像処理装置が、前記複数の撮影画像に基づいて、仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する工程と、  (C) The image processing device generates a composite image indicating a region around the vehicle viewed from a virtual viewpoint based on the plurality of captured images;
(d)前記合成画像を前記画像処理装置から前記車両用装置に送信する工程と、  (D) transmitting the composite image from the image processing device to the vehicle device;
(e)前記車両用装置が、前記合成画像を表示装置に出力して表示させる工程と、  (E) the vehicle device outputting and displaying the composite image on a display device;
を備え、With
前記画像表示方法は、  The image display method includes:
(f)前記画像処理装置が、前記車両の位置を示す位置情報に基づいて、前記車両の周辺の地表の様子を示す地表画像と前記合成画像とを含む結合画像を生成する工程、  (F) The image processing device generates a combined image including a ground image indicating the state of the ground surface around the vehicle and the composite image based on position information indicating the position of the vehicle.
をさらに備え、Further comprising
前記工程(b)は、前記位置情報を前記車両用装置から前記画像処理装置に送信し、  The step (b) transmits the position information from the vehicle device to the image processing device,
前記工程(d)は、前記結合画像を前記画像処理装置から前記車両用装置に送信し、  The step (d) transmits the combined image from the image processing device to the vehicle device,
前記工程(e)は、前記結合画像を前記表示装置に出力して表示させることを特徴とする画像表示方法。  In the step (e), the combined image is output and displayed on the display device.
車両で用いられる車両用装置と、前記車両用装置とは別個に構成される画像処理装置とを用いて画像を表示する画像表示方法であって、
(a)前記車両用装置が、前記車両に搭載された複数のカメラでそれぞれ得られた複数の撮影画像を取得する工程と、
(b)前記複数の撮影画像を前記車両用装置から前記画像処理装置に送信する工程と、
(c)前記画像処理装置が、前記複数の撮影画像に基づいて、仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する工程と、
(d)前記合成画像を前記画像処理装置から前記車両用装置に送信する工程と、
(e)前記車両用装置が、前記合成画像を表示装置に出力して表示させる工程と、
を備え
前記画像処理装置は、前記複数のカメラをそれぞれ指定するための複数のボタン、を備え、
前記工程(e)は、前記合成画像中における前記複数のカメラそれぞれの位置の近傍に当該カメラが対応する前記ボタンの識別情報を重畳した前記合成画像を前記表示装置に出力して表示させることを特徴とする画像表示方法。
An image display method for displaying an image using a vehicular apparatus used in a vehicle and an image processing apparatus configured separately from the vehicular apparatus,
(A) the vehicle device acquiring a plurality of captured images respectively obtained by a plurality of cameras mounted on the vehicle;
(B) transmitting the plurality of captured images from the vehicle device to the image processing device;
(C) The image processing device generates a composite image indicating a region around the vehicle viewed from a virtual viewpoint based on the plurality of captured images;
(D) transmitting the composite image from the image processing device to the vehicle device;
(E) the vehicle device outputting and displaying the composite image on a display device;
Equipped with a,
The image processing apparatus includes a plurality of buttons for designating the plurality of cameras,
In the step (e), the composite image in which the identification information of the button corresponding to the camera is superimposed in the vicinity of the position of each of the plurality of cameras in the composite image is output and displayed on the display device. Characteristic image display method.
JP2011152541A 2011-07-11 2011-07-11 Image processing system, vehicle apparatus, image processing apparatus, program, and image display method Active JP5829851B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011152541A JP5829851B2 (en) 2011-07-11 2011-07-11 Image processing system, vehicle apparatus, image processing apparatus, program, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011152541A JP5829851B2 (en) 2011-07-11 2011-07-11 Image processing system, vehicle apparatus, image processing apparatus, program, and image display method

Publications (2)

Publication Number Publication Date
JP2013021468A JP2013021468A (en) 2013-01-31
JP5829851B2 true JP5829851B2 (en) 2015-12-09

Family

ID=47692483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011152541A Active JP5829851B2 (en) 2011-07-11 2011-07-11 Image processing system, vehicle apparatus, image processing apparatus, program, and image display method

Country Status (1)

Country Link
JP (1) JP5829851B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6536032B2 (en) * 2014-12-24 2019-07-03 株式会社富士通ゼネラル In-vehicle camera
JP6563694B2 (en) * 2015-05-29 2019-08-21 株式会社デンソーテン Image processing apparatus, image processing system, image composition apparatus, image processing method, and program
JP6606956B2 (en) * 2015-09-30 2019-11-20 アイシン精機株式会社 Perimeter monitoring device
JP2017147505A (en) 2016-02-15 2017-08-24 トヨタ自動車株式会社 Ambient image display device for vehicle
JP7114283B2 (en) * 2018-03-13 2022-08-08 関西電力株式会社 Communications system
JP7206886B2 (en) 2018-12-19 2023-01-18 トヨタ自動車株式会社 Driving support device
JP2020142752A (en) 2019-03-08 2020-09-10 トヨタ自動車株式会社 Parking support device
JP2022100774A (en) 2020-12-24 2022-07-06 トヨタ自動車株式会社 Parking support device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242009A (en) * 2002-02-19 2003-08-29 Fuji Photo Film Co Ltd Method, device, and program for image processing
JP4656005B2 (en) * 2006-06-02 2011-03-23 日産自動車株式会社 Image processing system and image processing method
JP2011008421A (en) * 2009-06-24 2011-01-13 Fujitsu Ten Ltd Image generation device and image display system
JP5471361B2 (en) * 2009-11-26 2014-04-16 富士通株式会社 Image determination apparatus, image determination method, and image determination program

Also Published As

Publication number Publication date
JP2013021468A (en) 2013-01-31

Similar Documents

Publication Publication Date Title
JP5829851B2 (en) Image processing system, vehicle apparatus, image processing apparatus, program, and image display method
US10410562B2 (en) Image generating device and image generating method
JP6428268B2 (en) Image display device, image display method, and image display system
JP6572893B2 (en) Information processing apparatus and information processing method, computer program, and image processing system
JP6030317B2 (en) Image processing apparatus, image display system, display apparatus, image processing method, and program
JP4827994B1 (en) Terminal device, image display method and image display program executed by terminal device
WO2018092379A1 (en) Image processing device and image processing method
JP6077214B2 (en) Image processing apparatus, image processing method, program, and image processing system
JP5658507B2 (en) Image display system, image generation apparatus, and image display method
KR20200056988A (en) Lens barrel and imaging device
CN111301284B (en) In-vehicle device, program, and vehicle
US20170015260A1 (en) Apparatus And Method For Exchanging And Displaying Data Between Electronic Eyewear, Vehicles And Other Devices
JP6950706B2 (en) Information processing equipment and methods, and programs
JP2016192772A (en) Display device and program
CN105872482A (en) Vehicle system and image display method thereof
JPWO2018159113A1 (en) Electronics
JP2013055416A (en) Exterior video provision system
US11482159B2 (en) Display control device, display control method, and display control program
WO2018034171A1 (en) Image processing device and image processing method
JP6941472B2 (en) Video playback device, video playback system, and video playback method
JP2020150295A (en) Vehicle crime prevention device
JP2007074081A (en) On-vehicle communication apparatus
JP6419894B2 (en) Image processing apparatus, display apparatus, portable display apparatus, image processing method, display apparatus display method, portable display apparatus display method, and program
US20220319122A1 (en) Method for operating a head-mounted display apparatus in a motor vehicle, control device, and head-mounted display apparatus
JP6563694B2 (en) Image processing apparatus, image processing system, image composition apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151023

R150 Certificate of patent or registration of utility model

Ref document number: 5829851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250