JP6725734B2 - Image display device, image display system, image display method, and program - Google Patents

Image display device, image display system, image display method, and program Download PDF

Info

Publication number
JP6725734B2
JP6725734B2 JP2019143483A JP2019143483A JP6725734B2 JP 6725734 B2 JP6725734 B2 JP 6725734B2 JP 2019143483 A JP2019143483 A JP 2019143483A JP 2019143483 A JP2019143483 A JP 2019143483A JP 6725734 B2 JP6725734 B2 JP 6725734B2
Authority
JP
Japan
Prior art keywords
image
vehicle
user
virtual viewpoint
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019143483A
Other languages
Japanese (ja)
Other versions
JP2020017960A (en
Inventor
康嘉 澤田
康嘉 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019143483A priority Critical patent/JP6725734B2/en
Publication of JP2020017960A publication Critical patent/JP2020017960A/en
Application granted granted Critical
Publication of JP6725734B2 publication Critical patent/JP6725734B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、車両周辺を示す画像を表示する技術に関する。 The present invention relates to a technique of displaying an image showing the vicinity of a vehicle.

従来より、自動車等の車両周辺を撮影した画像を合成し、仮想的な視点から車両周辺を見た様子を表示する技術が知られている。このような技術により、ユーザ(代表的には運転者)は、車両内に居ながらにして車両周辺の状況を確認できる。 2. Description of the Related Art Conventionally, there has been known a technique of synthesizing images obtained by photographing the periphery of a vehicle such as an automobile and displaying the appearance of the periphery of the vehicle from a virtual viewpoint. With such a technique, a user (typically a driver) can confirm the situation around the vehicle while staying in the vehicle.

また、近年では、このような画像をユーザの携帯する携帯端末に送信する技術が提案されている(例えば、特許文献1)。ユーザは、このような画像を視認することで、車両から遠隔に所在しても、車両の状態や盗難の恐れを把握できる。 Further, in recent years, a technique of transmitting such an image to a mobile terminal carried by a user has been proposed (for example, Patent Document 1). By visually recognizing such an image, the user can understand the state of the vehicle and the risk of theft even if the vehicle is located remotely.

特開2012−121384号公報JP2012-121384A

しかし、提案された技術では、車両周辺を見る視点が限定されており、必ずしもユーザの希望する角度から周辺画像を視認できなかった。このため、例えば車両付近に不審者が接近している画像を携帯端末上で確認しても、不審者がどのような人物であるか、どのような行動をしているかは明確に判明せず、却ってユーザの不安を助長する恐れが生じていた。 However, in the proposed technique, the viewpoint of seeing the periphery of the vehicle is limited, and the peripheral image cannot always be visually recognized from the angle desired by the user. Therefore, for example, even if the image of a suspicious person approaching the vehicle is confirmed on the mobile terminal, it is not clear clearly what kind of person the suspicious person is and what kind of action the suspicious person is taking. On the contrary, there is a fear that the user's anxiety is promoted.

本発明は、上記課題に鑑み、仮想的な視点から車両周辺を示す画像を表示した場合、ユーザが希望する視点に仮想視点を変更できる技術を提供することを目的とする。 In view of the above problems, it is an object of the present invention to provide a technique capable of changing a virtual viewpoint to a viewpoint desired by a user when displaying an image showing a vehicle periphery from a virtual viewpoint.

上記課題を解決するため、第1の発明は、画像を表示する画像表示装置であって、カメラで撮影された画像を用い、仮想的な視点から見た合成画像を生成する生成手段と、前記合成画像の、前記視点の変更に対するユーザ操作を検出する操作検出手段と、を有し、前記操作検出手段は、前記合成画像が表示される画像領域と、予め定められた前記視点に対応する、前記合成画像の表示を選択する複数のボタンが表示されるボタン領域と、を有し、前記画像領域には、前記ボタンで選択されている前記視点に対応する前記合成画像が表示されるとともに、前記画像領域においてタッチ操作が行われた際には、前記タッチ操作に応じた前記視点で前記画像領域に前記合成画像が表示され、前記タッチ操作は、フリック操作又はピンチイン操作である。 In order to solve the above problems, a first aspect of the present invention is an image display device that displays an image, and a generation unit that generates a composite image viewed from a virtual viewpoint using an image captured by a camera, An operation detection unit that detects a user operation for changing the viewpoint of the composite image, the operation detection unit corresponding to an image region in which the composite image is displayed and the predetermined viewpoint. A button area in which a plurality of buttons for selecting the display of the composite image are displayed, and the image area displays the composite image corresponding to the viewpoint selected by the button, When a touch operation is performed in the image area, the composite image is displayed in the image area from the viewpoint corresponding to the touch operation, and the touch operation is a flick operation or a pinch-in operation.

また、第2の発明は、画像を表示する画像表示装置であって、カメラで撮影された画像を用い、仮想的な視点から見た合成画像を生成する生成手段と、前記合成画像の、前記視点の変更に対するユーザ操作を検出する操作検出手段と、を有し、前記操作検出手段は、前記合成画像が表示される画像領域と、予め定められた前記視点に対応する、前記合成画像の表示を選択する複数のボタンが表示されるボタン領域と、を有し、前記ボタンは、車両の前後左右方向に対応する前記ボタン領域の上下左右方向に、それぞれの前記ボタンが配置され、前記ボタン領域には、車両周囲の広い領域における初期表示の前記視点での表示を選択するボタンがさらに表示され、前記画像領域には、当該ボタンで選択されている前記視点に対応する前記合成画像が表示される。 A second aspect of the present invention is an image display device that displays an image, wherein the image capturing device uses a image captured by a camera to generate a composite image viewed from a virtual viewpoint; Operation detecting means for detecting a user operation for changing the viewpoint, wherein the operation detecting means displays an image area in which the combined image is displayed, and displays the combined image corresponding to the predetermined viewpoint. A button area in which a plurality of buttons for selecting are displayed, and the buttons are arranged in the up, down, left, and right directions of the button area corresponding to the front, rear, left, and right directions of the vehicle. , A button for selecting the display from the viewpoint of the initial display in a wide area around the vehicle is further displayed, and the composite image corresponding to the viewpoint selected by the button is displayed in the image area. It

また、第3の発明は、カメラで撮影された撮影画像を用い、仮想的な視点から見た形で生成した合成画像についての画像情報を入手する通信手段と、入手した前記画像情報に基づき画像表示を行う表示手段と、前記表示手段に表示された前記合成画像の前記視点を変更するユーザ指示を与える操作検出手段と、を有し、前記操作検出手段は、前記表示手段におけるユーザのタッチ操作を検出するタッチパネルを有し、前記表示手段は、前記合成画像が表示される画像領域と、予め定められた前記視点に対応する前記合成画像の表示を指示する複数のボタンが表示されるボタン領域と、を有し、前記画像領域には、前記ボタンで選択されている前記視点に対応する前記合成画像が表示されるとともに、前記画像領域においてタッチ操作が行われた際には、前記タッチ操作に応じた前記視点の前記合成画像が前記画像領域に表示され、前記タッチ操作は、フリック操作またはピンチイン操作であることを特徴とする端末装置である。 Further, a third aspect of the present invention uses a captured image captured by a camera, obtains image information about a composite image generated in a form viewed from a virtual viewpoint, and an image based on the obtained image information. Display operation means for displaying, and operation detection means for giving a user instruction to change the viewpoint of the composite image displayed on the display means, wherein the operation detection means is a user's touch operation on the display means. A touch panel for detecting the, and the display means displays an image area in which the composite image is displayed, and a button area in which a plurality of buttons for instructing the display of the composite image corresponding to the predetermined viewpoint are displayed. And, in the image area, the composite image corresponding to the viewpoint selected by the button is displayed, and when a touch operation is performed in the image area, the touch operation is performed. The combined image of the viewpoint corresponding to is displayed in the image area, and the touch operation is a flick operation or a pinch-in operation.

また、第4の発明は、カメラで撮影された撮影画像を用い、仮想的な視点から見た形で生成した合成画像についての画像情報を入手する通信手段と、入手した前記画像情報に基づき画像表示を行う表示手段と、前記表示手段に表示された前記合成画像の前記視点を変更するユーザ指示を与える操作検出手段と、を有し、前記操作検出手段は、前記表示手段におけるユーザのタッチ操作を検出するタッチパネルを有し、前記表示手段は、前記合成画像が表示される画像領域と、予め定められた前記視点に対応する前記合成画像の表示を指示する複数のボタンが表示されるボタン領域と、を有し、前記ボタンは、車両の前後左右方向に対応する、前記ボタン領域の上下左右方向にそれぞれのボタンが配置され、前記ボタン領域には、車両周囲の広い領域における初期表示の前記視点での表示を選択するボタンがさらに配置され、前記画像領域には、当該ボタンで選択されている前記視点に対応する前記合成画像が表示されることを特徴とする端末装置である。 Further, a fourth aspect of the present invention uses a captured image captured by a camera, obtains image information about a composite image generated in a form viewed from a virtual viewpoint, and an image based on the obtained image information. Display operation means for displaying, and operation detection means for giving a user instruction to change the viewpoint of the composite image displayed on the display means, wherein the operation detection means is a user's touch operation on the display means. A touch panel for detecting the, and the display means displays an image area in which the composite image is displayed, and a button area in which a plurality of buttons for instructing the display of the composite image corresponding to the predetermined viewpoint are displayed. And, the buttons correspond to the front, rear, left, and right directions of the vehicle, and the respective buttons are arranged in the up, down, left, and right directions of the button area, and in the button area, the initial display in a wide area around the vehicle is provided. The terminal device is characterized in that a button for selecting display from a viewpoint is further arranged, and the composite image corresponding to the viewpoint selected by the button is displayed in the image area.

また、第5の発明は、第3又は第4の発明において、前記通信手段はセキュリティ装置が異常を検知した際、通知を受信する。 In addition, in a fifth aspect based on the third or fourth aspect, the communication means receives a notification when the security device detects an abnormality.

第1〜第5の発明によれば、ユーザの操作に基づいて合成画像の仮想視点の位置を変更するので、ユーザの望む視点から容易に被写体を表示できる。 According to the first to fifth aspects, the position of the virtual viewpoint of the composite image is changed based on the user's operation, so that the subject can be easily displayed from the viewpoint desired by the user.

また、車両の特定位置に設定された特定点に向けて仮想視点の方向を定め、ワールド座標系及び視点座標系に基づき仮想視点の位置を変更するので、様々な方向及び位置から被写体を表示できる。 Further, since the direction of the virtual viewpoint is determined toward the specific point set at the specific position of the vehicle and the position of the virtual viewpoint is changed based on the world coordinate system and the viewpoint coordinate system, the subject can be displayed from various directions and positions. ..

また、特に第5の発明によれば、画像表示装置のユーザは、車両から遠隔に所在しても、車両の盗難に繋がる事前現象が発生したことを認識でき、速やかに車両周辺の様子を画面で確認できる。 According to the fifth aspect of the invention, the user of the image display device can recognize that a prior phenomenon that may lead to the theft of the vehicle has occurred, even if the user is remotely located from the vehicle, and promptly displays a screen around the vehicle. You can check it at.

図1は、画像表示システムの概要を示す図である。FIG. 1 is a diagram showing an outline of an image display system. 図2は、画像表示システムの概要を示す図である。FIG. 2 is a diagram showing an outline of the image display system. 図3は、第1の実施の形態の画像取得装置の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of the image acquisition device according to the first embodiment. 図4は、カメラの配置を説明する図である。FIG. 4 is a diagram illustrating the arrangement of cameras. 図5は、第1の実施の形態の携帯端末の構成を示すブロック図である。FIG. 5 is a block diagram showing the configuration of the mobile terminal according to the first embodiment. 図6は、周辺画像及び合成画像を生成する手法を説明する図である。FIG. 6 is a diagram illustrating a method of generating a peripheral image and a composite image. 図7は、仮想視点の位置を示す図である。FIG. 7 is a diagram showing the position of the virtual viewpoint. 図8は、仮想視点の位置を示す図である。FIG. 8 is a diagram showing the position of the virtual viewpoint. 図9は、仮想視点の動きを説明する図である。FIG. 9 is a diagram for explaining the movement of the virtual viewpoint. 図10は、仮想視点の動きを説明する図である。FIG. 10 is a diagram for explaining the movement of the virtual viewpoint. 図11は、仮想視点の動きを説明する図である。FIG. 11 is a diagram for explaining the movement of the virtual viewpoint. 図12は、仮想視点の動きを説明する図である。FIG. 12 is a diagram for explaining the movement of the virtual viewpoint. 図13は、表示画像を例示する図である。FIG. 13 is a diagram illustrating a display image. 図14は、表示画像を例示する図である。FIG. 14 is a diagram illustrating a display image. 図15は、表示画像を例示する図である。FIG. 15 is a diagram illustrating a display image. 図16は、表示画像を例示する図である。FIG. 16 is a diagram illustrating a display image. 図17は、表示画像を例示する図である。FIG. 17 is a diagram illustrating a display image. 図18は、表示画像を例示する図である。FIG. 18 is a diagram illustrating a display image. 図19は、表示画像を例示する図である。FIG. 19 is a diagram illustrating a display image. 図20は、表示画像を例示する図である。FIG. 20 is a diagram illustrating a display image. 図21は、表示画像を例示する図である。FIG. 21 is a diagram illustrating a display image. 図22は、表示画像を例示する図である。FIG. 22 is a diagram illustrating a display image. 図23は、表示画像を例示する図である。FIG. 23 is a diagram illustrating a display image. 図24は、表示画像を例示する図である。FIG. 24 is a diagram illustrating a display image. 図25は、第1の実施の形態の処理手順を示すフローチャートである。FIG. 25 is a flowchart showing the processing procedure of the first embodiment. 図26は、第1の実施の形態の処理手順を示すフローチャートである。FIG. 26 is a flowchart showing the processing procedure of the first embodiment. 図27は、第1の実施の形態の携帯端末の構成を示すブロック図である。FIG. 27 is a block diagram showing the configuration of the mobile terminal according to the first embodiment. 図28は、仮想視点の動きを説明する図である。FIG. 28 is a diagram for explaining the movement of the virtual viewpoint. 図29は、仮想視点の動きを説明する図である。FIG. 29 is a diagram for explaining the movement of the virtual viewpoint. 図30は、表示画像を例示する図である。FIG. 30 is a diagram illustrating a display image. 図31は、第2の実施の形態の処理手順を示すフローチャートである。FIG. 31 is a flowchart showing the processing procedure of the second embodiment. 図32は、第2の実施の形態の処理手順を示すフローチャートである。FIG. 32 is a flowchart showing the processing procedure of the second embodiment. 図33は、画像表示システムの変形例を示す図である。FIG. 33 is a diagram showing a modified example of the image display system.

以下、図面を参照しつつ本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1の実施の形態>
<1−1.概要>
図1は、本発明の実施の形態に係る画像表示システム1の概要を示す。画像表示システム1は、車両2に備えた画像取得装置3が車両2に配置されたカメラ4(4F、4B、4L、4R)から取得した車両2周辺の画像を、車両2から遠隔に所在するユーザの有する携帯端末8に表示させるシステムである。
<1. First Embodiment>
<1-1. Overview>
FIG. 1 shows an outline of an image display system 1 according to an embodiment of the present invention. In the image display system 1, an image around the vehicle 2 acquired by the image acquisition device 3 provided in the vehicle 2 from the cameras 4 (4F, 4B, 4L, 4R) arranged in the vehicle 2 is located remotely from the vehicle 2. This is a system for displaying on the mobile terminal 8 of the user.

このようなシステムにおいて、車両2には監視センサを備えたセキュリティ装置5が設置される。監視センサは、不審者SIが車両2への異常に接近した場合や、車両2に対して物理的な危害を加えた場合に作動し、セキュリティ装置5は監視センサが作動した旨をユーザに通知する。セキュリティ装置5から通知を受けたユーザは、画像取得装置3に画像の送信を要求し、携帯端末8に車両2周辺の画像を表示させる。この際、ユーザは、画像の表示される範囲を自在に変更し、所望する角度から車両2周辺の状況を参照する。 In such a system, the vehicle 2 is provided with a security device 5 having a monitoring sensor. The monitoring sensor is activated when the suspicious person SI approaches the vehicle 2 abnormally or physically damages the vehicle 2, and the security device 5 notifies the user that the monitoring sensor has been activated. To do. The user who receives the notification from the security device 5 requests the image acquisition device 3 to transmit the image, and causes the mobile terminal 8 to display the image around the vehicle 2. At this time, the user freely changes the display range of the image and refers to the situation around the vehicle 2 from a desired angle.

図2は、携帯端末8に車両2周辺の画像を表示させたディスプレイ83の例である。ユーザは、携帯端末8のタッチパネル83aを操作することにより、画像の表示範囲を変え、危惧する個所を詳細に点検できる。ユーザは、車両2周辺の画像を参照し、必要に応じて遠隔から車両2のアラームを作動させたり、また警備会社へ通報できる。このような画像表示システム1を用いることにより、ユーザは車両2から遠隔に所在した場合であっても、自らの所有する車両2を常時安全に維持できる。 FIG. 2 is an example of the display 83 in which the image of the vicinity of the vehicle 2 is displayed on the mobile terminal 8. By operating the touch panel 83a of the mobile terminal 8, the user can change the display range of the image and inspect the concerned area in detail. The user can refer to the image around the vehicle 2 and remotely activate the alarm of the vehicle 2 or notify the security company if necessary. By using the image display system 1 as described above, the user can always maintain the vehicle 2 owned by the user safely even when the user is located remote from the vehicle 2.

<1−2.構成>
次に、画像表示システム1に利用される車両2の備える各装置の構成について説明する。図3は、車両2の備える各装置の構成を示す。車両2は、画像取得装置3、カメラ4、セキュリティ装置5、及び警報器6を備える。
<1-2. Composition>
Next, the configuration of each device included in the vehicle 2 used in the image display system 1 will be described. FIG. 3 shows a configuration of each device included in the vehicle 2. The vehicle 2 includes an image acquisition device 3, a camera 4, a security device 5, and an alarm device 6.

画像取得装置3は、車両に設置されたカメラ4から画像データを受信し、受信した画像データを携帯端末8へ送信する電子制御装置である。画像取得装置3は、制御部31、通信部32、記憶部33を備える。 The image acquisition device 3 is an electronic control device that receives image data from the camera 4 installed in the vehicle and transmits the received image data to the mobile terminal 8. The image acquisition device 3 includes a control unit 31, a communication unit 32, and a storage unit 33.

制御部31は、CPU、RAM、及びROMを備えたマイクロコンピュータである。制御部31は、画像取得装置3が備える他の構成と接続され、装置全体を制御する。制御部31は、要求受信部31a、カメラ制御部31b、画像取得部31c、画像送信部31d、及び盗難防止部31eを備える。 The control unit 31 is a microcomputer including a CPU, RAM, and ROM. The control unit 31 is connected to another configuration included in the image acquisition device 3 and controls the entire device. The control unit 31 includes a request reception unit 31a, a camera control unit 31b, an image acquisition unit 31c, an image transmission unit 31d, and an antitheft unit 31e.

要求受信部31aは、携帯端末8を所持するユーザから、カメラ4を作動させ撮影を開始すべき要求信号を受信する。 The request receiving unit 31a receives a request signal from the user who possesses the mobile terminal 8 to activate the camera 4 and start photographing.

カメラ制御部31bは、要求受信部31aがユーザから撮影開始の要求信号を受信すると、カメラ4に作動信号を送信し、カメラ4に撮影を開始させる。 When the request receiving unit 31a receives a request signal to start shooting from the user, the camera control unit 31b transmits an operation signal to the camera 4 and causes the camera 4 to start shooting.

画像取得部31cは、カメラ4から送信される画像データを取得し、取得した画像データを制御部31で処理可能な形式に変換する。 The image acquisition unit 31c acquires the image data transmitted from the camera 4 and converts the acquired image data into a format that can be processed by the control unit 31.

画像送信部31dは、画像取得部31cがカメラ4から取得した画像データを通信部32を介して携帯端末8へ送信する。 The image transmission unit 31d transmits the image data acquired by the image acquisition unit 31c from the camera 4 to the mobile terminal 8 via the communication unit 32.

盗難防止部31eは、警報器6に作動信号を送信し、警報器6に警報を行わせる。これにより、車両2が盗難されるのを防止する。なお、盗難防止部31eは、警報器6に警報を行わせると共に、エンジン制御装置(図示せず)を制御し、エンジンが作動しないようにしてもよい。また、通信部32を介して警備会社へ通報してもよい。要するに、盗難防止部31eは、車両2に備わる機器を利用し、車両2の盗難が防止されるよう機能すればよい。 The anti-theft unit 31e transmits an operation signal to the alarm device 6 to cause the alarm device 6 to issue an alarm. This prevents the vehicle 2 from being stolen. The anti-theft unit 31e may cause the alarm device 6 to issue an alarm and control an engine control device (not shown) to prevent the engine from operating. Moreover, you may notify to a security company via the communication part 32. In short, the anti-theft unit 31e may use a device provided in the vehicle 2 and function to prevent the vehicle 2 from being stolen.

通信部32は、無線通信を利用した通信機能を備え、ネットワーク7を介して携帯端末8と情報通信を行う。例えば、WiMAX(Worldwide Interoperability for Microwave Access)やLTE(Long Term Evolution)等の無線通信技術を利用した情報通信である。 The communication unit 32 has a communication function using wireless communication, and performs information communication with the mobile terminal 8 via the network 7. For example, it is information communication using a wireless communication technology such as WiMAX (Worldwide Interoperability for Microwave Access) and LTE (Long Term Evolution).

記憶部33は、データを記憶するメモリである。例えば、EEPROM(Electrical Erasable Programmable Read-Only memory)や、フラッシュメモリ、磁気ディスクを備えたハードディスクドライブ等の不揮発性の記憶媒体である。また、記憶部33は、プログラム33aを記憶している。 The storage unit 33 is a memory that stores data. For example, it is a non-volatile storage medium such as an EEPROM (Electrical Erasable Programmable Read-Only memory), a flash memory, or a hard disk drive provided with a magnetic disk. The storage unit 33 also stores a program 33a.

プログラム33aは、制御部31により読み出され、制御部31が画像取得装置3を制御するために実行されるファームウェアである。 The program 33 a is firmware that is read by the control unit 31 and is executed by the control unit 31 to control the image acquisition device 3.

次に、カメラ4を説明する。カメラ4は、フロントカメラ4F、リアカメラ4B、左サイドカメラ4L、及び、右サイドカメラ4Rを含む。各カメラ(4F、4B、4L、4R)は、レンズと撮像素子とを備え、車両2の異なる位置に配置される。 Next, the camera 4 will be described. The camera 4 includes a front camera 4F, a rear camera 4B, a left side camera 4L, and a right side camera 4R. Each camera (4F, 4B, 4L, 4R) includes a lens and an image sensor, and is arranged at different positions of the vehicle 2.

図4は、カメラ4(4F、4B、4L、4R)が車両2に配置される位置と、各カメラの光軸が向けられる方向とを示す。フロントカメラ4Fは、車両2前端に設置され、光軸4Faが車両2の直進方向に向けられる。リアカメラ4Bは、車両2後端に設置され、光軸4Baが車両2の直進方向と反対の方向、すなわち後進方向に向けられる。左サイドカメラ4Lは、左側のサイドミラーMLに設置され、光軸4Laが車両2の左方向(直進方向に対する直交方向)に向けられる。また、右サイドカメラ4Rは、右側のサイドミラーMRに設置され、その光軸4Raが車両2の右方向(直進方向に対する直交方向)に向けられる。 FIG. 4 shows the positions where the cameras 4 (4F, 4B, 4L, 4R) are arranged in the vehicle 2 and the directions in which the optical axes of the cameras are directed. The front camera 4F is installed at the front end of the vehicle 2, and the optical axis 4Fa is directed in the straight traveling direction of the vehicle 2. The rear camera 4B is installed at the rear end of the vehicle 2, and the optical axis 4Ba is directed in the direction opposite to the straight traveling direction of the vehicle 2, that is, in the reverse traveling direction. The left side camera 4L is installed on the left side mirror ML, and the optical axis 4La is directed to the left direction of the vehicle 2 (direction orthogonal to the straight traveling direction). Further, the right side camera 4R is installed on the right side mirror MR, and its optical axis 4Ra is directed to the right direction of the vehicle 2 (direction orthogonal to the straight traveling direction).

カメラ4の各カメラ(4F、4B、4L、4R)は、車両2周辺の異なる方向を撮影し、撮影画像を電子的に取得する。また、カメラ4の備えるレンズは、標準的なレンズよりも焦点距離が比較的短く、180度以上の画角θを有する。このため、4つのカメラ4を用いることで、車両2の全周囲を撮影できる。 Each camera (4F, 4B, 4L, 4R) of the camera 4 captures images in different directions around the vehicle 2 and acquires captured images electronically. Further, the lens included in the camera 4 has a relatively shorter focal length than a standard lens and has an angle of view θ of 180 degrees or more. Therefore, by using the four cameras 4, the entire circumference of the vehicle 2 can be photographed.

図3を再度参照する。セキュリティ装置5は、車両2や車両2内の物品に対する盗難に繋がる事前現象を検出し、車両2のユーザの所持する携帯端末8へ盗難の恐れが発生した旨を電子メールで通知する装置である。セキュリティ装置5は、監視センサ5a及びメール通知部5bを備える。 Referring back to FIG. The security device 5 is a device that detects a prior phenomenon leading to theft of the vehicle 2 or an article in the vehicle 2 and notifies the mobile terminal 8 of the user of the vehicle 2 of the possibility of theft by e-mail. .. The security device 5 includes a monitoring sensor 5a and an email notification unit 5b.

監視センサ5aは、車両2や車両2内の物品に対する盗難に繋がる事前現象を検出するセンサである。例えば、車両2に発生した振動を検出する振動センサや、車両2のガラスの破壊を検出するガラス割れセンサ、ジャッキやクレーンによる車両2の傾きを検出する傾斜センサ、車両2内への侵入者を検出する侵入センサ等である。 The monitoring sensor 5a is a sensor that detects a prior phenomenon that may lead to theft of the vehicle 2 or articles in the vehicle 2. For example, a vibration sensor that detects vibration generated in the vehicle 2, a glass breakage sensor that detects breakage of the glass of the vehicle 2, an inclination sensor that detects the inclination of the vehicle 2 due to a jack or a crane, an intruder inside the vehicle 2 For example, an intrusion sensor for detecting.

メール通知部5bは、監視センサ5aが盗難に繋がる事前現象を検出すると、盗難の恐れが発生した旨をユーザへ通知する。具体的には、メール通知部5bは、盗難の恐れが発生した旨を内容とする電子メールを生成し、ユーザの携帯する携帯端末8へ電子メールを送信する。なお、電子メールを利用した文字情報でなく、音声情報で通知してもよい。この場合、携帯端末8で音声情報を読み上げればよい。また、メール通知部5bは、セキュリティ装置5に複数の監視センサが備わる場合は、いずれの監視センサが盗難に繋がる事前現象を検出したのかを電子メールに含めるのが好ましい。ユーザが車両2の状況を把握し易くするためである。 When the monitoring sensor 5a detects a prior phenomenon that leads to theft, the email notification unit 5b notifies the user that the fear of theft has occurred. Specifically, the email notification unit 5b generates an email having the content of the fear of theft, and sends the email to the mobile terminal 8 carried by the user. Note that the notification may be made by voice information instead of the text information using the electronic mail. In this case, the mobile terminal 8 may read the voice information. Further, when the security device 5 is provided with a plurality of monitoring sensors, the mail notification unit 5b preferably includes in the e-mail which monitoring sensor has detected a prior phenomenon leading to theft. This is because it is easy for the user to understand the situation of the vehicle 2.

警報器6は、周囲に音声を発し、警告を行う装置である。スピーカや車両2に備わるホーンである。なお、警報器6は、音声を発するもののほか、光を発するものでもよい。例えば、警告灯や車両2に備わるライトである。要するに、周囲に注意を喚起し、警告を行うものであればよい。 The alarm device 6 is a device that gives a sound to the surroundings to give a warning. It is a horn provided for the speaker and the vehicle 2. The alarm device 6 may be one that emits light as well as one that emits sound. For example, it is a warning light or a light provided in the vehicle 2. In short, it is sufficient that it calls attention to the surroundings and gives a warning.

次に、携帯端末8を説明する。携帯端末8は、ユーザに携帯され、画像を表示する機能や情報ネットワークと接続する機能等を備える情報端末である。例えば、携帯電話やスマートフォンである。図5は、携帯端末8の構成を示す。携帯端末8は、制御部81、通信部82、ディスプレイ83、及び記憶部84を備える。 Next, the mobile terminal 8 will be described. The mobile terminal 8 is an information terminal that is carried by a user and has a function of displaying an image, a function of connecting to an information network, and the like. For example, mobile phones and smartphones. FIG. 5 shows the configuration of the mobile terminal 8. The mobile terminal 8 includes a control unit 81, a communication unit 82, a display 83, and a storage unit 84.

制御部81は、CPU、RAM、及びROMを備えたマイクロコンピュータである。制御部81は、携帯端末8が備える他の構成と接続され、端末全体を制御する。制御部81の備える各機能は後述する。 The control unit 81 is a microcomputer including a CPU, RAM, and ROM. The control unit 81 is connected to another configuration included in the mobile terminal 8 and controls the entire terminal. Each function of the control unit 81 will be described later.

通信部82は、無線通信を利用した通信機能を備え、ネットワーク7を介して画像取得装置3及びセキュリティ装置5と情報通信を行う。例えば、WiMAX(Worldwide Interoperability for Microwave Access)やLTE(Long Term Evolution)等の無線通信技術を利用した情報通信である。 The communication unit 82 has a communication function using wireless communication, and performs information communication with the image acquisition device 3 and the security device 5 via the network 7. For example, it is information communication using a wireless communication technology such as WiMAX (Worldwide Interoperability for Microwave Access) and LTE (Long Term Evolution).

ディスプレイ83は、文字や図形等の各種情報を表示し、ユーザに情報を視覚的に提示する。例えば、液晶ディスプレイや、プラズマディスプレイ、有機ELディスプレイ等の表示装置である。ディスプレイ83は、タッチパネル83aを備える。 The display 83 displays various information such as characters and figures, and visually presents the information to the user. For example, it is a display device such as a liquid crystal display, a plasma display, or an organic EL display. The display 83 includes a touch panel 83a.

タッチパネル83aは、ディスプレイ83に表示されたボタン領域へのユーザの接触を感知し、感知した位置情報を制御部81へ送信する。 The touch panel 83a senses a user's touch on the button area displayed on the display 83, and transmits the sensed position information to the control unit 81.

記憶部84は、データを記憶するメモリである。例えば、EEPROM(Electrical Erasable Programmable Read-Only memory)や、フラッシュメモリ、磁気ディスクを備えたハードディスクドライブ等の不揮発性の記憶媒体である。また、記憶部84は、車体画像データ84a及びプログラム84bを記憶している。 The storage unit 84 is a memory that stores data. For example, it is a non-volatile storage medium such as an EEPROM (Electrical Erasable Programmable Read-Only memory), a flash memory, or a hard disk drive provided with a magnetic disk. The storage unit 84 also stores vehicle body image data 84a and a program 84b.

車体画像データ84aは、車両2の外観を示す画像データである。車体画像データ84aは、車両2を外部のあらゆる角度からみた場合の画像データを含む。なお、車体画像データ84aは、予め携帯端末8に記憶せず、画像取得装置3を車両2に取り付け後、ネットワーク7を介して外部サーバから取得してもよい。この場合、画像取得装置3を取り付けた車両2の外観に合致する車体画像データ84aを取得できる。ユーザは、携帯端末8から外部サーバへ車両2の車種名等を送信し、車体画像データ84aを要求すればよい。 The vehicle body image data 84a is image data showing the appearance of the vehicle 2. The vehicle body image data 84a includes image data when the vehicle 2 is viewed from any angle outside. The vehicle body image data 84a may be acquired from an external server via the network 7 after the image acquisition device 3 is attached to the vehicle 2 without being stored in the mobile terminal 8 in advance. In this case, the vehicle body image data 84a that matches the appearance of the vehicle 2 to which the image acquisition device 3 is attached can be acquired. The user may transmit the vehicle type name of the vehicle 2 from the mobile terminal 8 to the external server and request the vehicle body image data 84a.

プログラム84bは、制御部81により読み出され、制御部81が携帯端末8を制御するために実行されるファームウェアである。 The program 84b is firmware read by the control unit 81 and executed by the control unit 81 to control the mobile terminal 8.

前述の制御部81が備える各機能を説明する。制御部81は、画像取得部81a、画像生成部81b、表示制御部81c、及び操作検出部81dを備える。 Each function of the control unit 81 will be described. The control unit 81 includes an image acquisition unit 81a, an image generation unit 81b, a display control unit 81c, and an operation detection unit 81d.

画像取得部81aは、画像取得装置3から送信される画像データを取得し、取得した画像データを制御部81で処理可能な形式に変換する。すなわち、画像取得部81aは、複数のカメラ4で被写体をそれぞれ撮影した複数の画像を取得する
画像生成部81bは、カメラ4で取得された複数の撮影画像を合成し、仮想視点からみた車両2周辺の様子を示す周辺画像を生成する。仮想視点は、車両2外部の位置から車両2を俯瞰する視点である。また、画像生成部81bは、仮想視点からみえる車両2を示す車体画像を周辺画像に重畳する。なお、画像生成部81bによる周辺画像の生成手法及び仮想視点の設定手法は後述する。
The image acquisition unit 81a acquires the image data transmitted from the image acquisition device 3 and converts the acquired image data into a format that can be processed by the control unit 81. That is, the image acquisition unit 81a acquires a plurality of images obtained by shooting the subject with each of the plurality of cameras 4, and the image generation unit 81b combines the plurality of captured images acquired by the camera 4 and the vehicle 2 viewed from the virtual viewpoint. A peripheral image showing the surroundings is generated. The virtual viewpoint is a viewpoint overlooking the vehicle 2 from a position outside the vehicle 2. In addition, the image generation unit 81b superimposes the vehicle body image showing the vehicle 2 that can be seen from the virtual viewpoint on the peripheral image. The peripheral image generation method and the virtual viewpoint setting method by the image generation unit 81b will be described later.

表示制御部81cは、画像や文字等のデータをディスプレイ83に表示する。また、表示制御部81cは、タッチパネル83aに入力されるタッチ位置に基づき、ディスプレイ83に表示する画像等を変化させる。 The display control unit 81c displays data such as images and characters on the display 83. Further, the display control unit 81c changes the image or the like displayed on the display 83 based on the touch position input on the touch panel 83a.

操作検出部81dは、ユーザのタッチパネル83aに対する操作を検出する。具体的には、操作検出部81dは、タッチパネル83aから送信されるタッチ位置情報により、ユーザの指先がタッチパネル83aに接触後、タッチパネル83a上のどの方向へ移動しているかを検出する。 The operation detector 81d detects an operation on the touch panel 83a by the user. Specifically, the operation detection unit 81d detects in which direction on the touch panel 83a the user's fingertip has moved after touching the touch panel 83a based on the touch position information transmitted from the touch panel 83a.

なお、ユーザのタッチパネル83aに対する操作とは、例えば、指先をタッチパネル83aに接触させたままスライドさせる、いわゆるフリック操作である。また、2本の指先をタッチパネル83aに接触させたまま指先と指先の間隔を縮める、いわゆるピンチイン操作である。また、2本の指先をタッチパネル83aに接触させたまま指先と指先の間隔を広げる、いわゆるピンチアウト操作である。 The operation performed on the touch panel 83a by the user is, for example, a so-called flick operation in which the fingertip is slid while being in contact with the touch panel 83a. Further, this is a so-called pinch-in operation in which the distance between the fingertips is reduced while the two fingertips are in contact with the touch panel 83a. Further, this is a so-called pinch-out operation in which the distance between the fingertips is widened while the two fingertips are in contact with the touch panel 83a.

通知部81eは、通信部82を介して携帯端末8の外部の装置へ所定の信号を送信する。通知部81eが送信する信号は、例えば、画像取得装置に対して画像データの送信を要求する信号等である。 The notification unit 81e transmits a predetermined signal to a device external to the mobile terminal 8 via the communication unit 82. The signal transmitted by the notification unit 81e is, for example, a signal requesting the image acquisition apparatus to transmit image data.

<1−3.周辺画像及び合成画像の生成>
次に、画像生成部81bが、車両2の周辺領域を示す周辺画像AP、及び周辺画像APに車体画像10を重畳した合成画像CPを生成する手法を説明する。図6は、画像生成部81bが周辺画像APを生成する手法を示す。
<1-3. Generation of peripheral image and composite image>
Next, a method will be described in which the image generation unit 81b generates the peripheral image AP showing the peripheral region of the vehicle 2 and the composite image CP in which the vehicle body image 10 is superimposed on the peripheral image AP. FIG. 6 shows a method in which the image generation unit 81b generates the peripheral image AP.

まず、フロントカメラ4F、リアカメラ4B、左サイドカメラ4L、及び右サイドカメラ4Rの各々が車両2周辺を撮影すると、車両2の前方、後方、左側方、及び右側方を各々示す4つの画像AP(F)、AP(B)、AP(L)、AP(R)が取得される。これら4つの画像は、車両2の全周囲を示す画像データを含む。 First, when each of the front camera 4F, the rear camera 4B, the left side camera 4L, and the right side camera 4R takes a picture around the vehicle 2, four images AP showing the front, the rear, the left side, and the right side of the vehicle 2 are shown. (F), AP(B), AP(L), AP(R) are acquired. These four images include image data showing the entire circumference of the vehicle 2.

画像生成部81bは、これら4つの画像AP(F)、AP(B)、AP(L)、AP(R)に含まれるデータ(各画素の値)を、仮想的な三次元空間における立体曲面である投影面TSに投影する。投影面TSは、例えば、略半球状(お椀形状)である。この投影面TSの中心部(お椀の底部分)は、車両2の存在位置である。また、投影面TSの中心部以外の部分は、画像AP(F)、AP(B)、AP(L)、AP(R)のいずれかと対応付けられる。 The image generation unit 81b converts the data (value of each pixel) included in these four images AP(F), AP(B), AP(L), and AP(R) into a three-dimensional curved surface in a virtual three-dimensional space. Is projected onto the projection surface TS. The projection surface TS has, for example, a substantially hemispherical shape (bowl shape). The center of the projection plane TS (bottom of the bowl) is the position where the vehicle 2 exists. A portion other than the central portion of the projection surface TS is associated with any one of the images AP(F), AP(B), AP(L), and AP(R).

画像生成部81bは、投影面TSの中心部以外の部分に、周辺画像AP(F)、AP(B)、AP(L)、AP(R)を投影する。画像生成部81bは、投影面TSにおける車両2前方に相当する領域にフロントカメラ4Fの画像AP(F)を投影し、車両2後方に相当する領域にリアカメラ4Bの画像AP(B)を投影する。さらに、画像生成部81bは、投影面TSにおける車両2左側方に相当する領域に左サイドカメラ4Lの画像AP(L)を投影し、車両2右側方に相当する領域に右サイドカメラ4Rの画像AP(R)を投影する。これにより、車両2全周囲の領域を示す周辺画像APが生成される。 The image generation unit 81b projects the peripheral images AP(F), AP(B), AP(L), and AP(R) onto a portion other than the central portion of the projection surface TS. The image generation unit 81b projects the image AP(F) of the front camera 4F on an area corresponding to the front of the vehicle 2 on the projection surface TS, and projects the image AP(B) of the rear camera 4B on the area corresponding to the rear of the vehicle 2. To do. Further, the image generation unit 81b projects the image AP(L) of the left side camera 4L on the area corresponding to the left side of the vehicle 2 on the projection surface TS, and the image of the right side camera 4R on the area corresponding to the right side of the vehicle 2. Project AP(R). As a result, a peripheral image AP showing the entire area around the vehicle 2 is generated.

次に、画像生成部81bは、この三次元空間における任意の視点位置から任意の視点方向に向けた仮想視点VPを設定する。そして、投影面TSのうち、設定した仮想視点VPからみた視野角に含まれる領域に投影された画像データを切り出す。切り出した画像データにより、仮想視点VPからみた車両2周辺の領域を示す周辺画像APが生成される。 Next, the image generation unit 81b sets a virtual viewpoint VP from an arbitrary viewpoint position in this three-dimensional space to an arbitrary viewpoint direction. Then, the image data projected on the area included in the viewing angle viewed from the set virtual viewpoint VP on the projection surface TS is cut out. A peripheral image AP showing an area around the vehicle 2 viewed from the virtual viewpoint VP is generated from the cut-out image data.

画像生成部81bは、記憶部84から車体画像データを読み出し、仮想視点VPからみた車両2の車体画像10を生成する。そして、仮想視点VPからみた車両2周辺の領域を示す周辺画像APに車体画像10を合成し、合成画像CPを生成する。 The image generation unit 81b reads the vehicle body image data from the storage unit 84 and generates the vehicle body image 10 of the vehicle 2 viewed from the virtual viewpoint VP. Then, the vehicle body image 10 is combined with the peripheral image AP showing the area around the vehicle 2 as viewed from the virtual viewpoint VP to generate a combined image CP.

画像生成部81bは、視点位置を車両2の直上、視野方向を直下とした仮想視点VPtを設定した場合、周辺画像AP(F)、AP(B)、AP(L)、AP(R)及び車体画像10を用いて、車両2及び車両2の周辺領域を俯瞰する合成画像CPtを生成する。合成画像CPtは、車両2を直上から見下ろしたような画像であり、車両2周囲の領域を示す。 When the image generation unit 81b sets a virtual viewpoint VPt in which the viewpoint position is directly above the vehicle 2 and the view direction is directly below, the peripheral images AP(F), AP(B), AP(L), AP(R) and The body image 10 is used to generate a synthetic image CPt that looks down at the vehicle 2 and the surrounding area of the vehicle 2. The composite image CPt is an image that looks down on the vehicle 2 from directly above, and shows a region around the vehicle 2.

また、画像生成部81bは、視点位置を車両2の前方上方、視野方向を車両2の後方下向きとした仮想視点VPbを設定した場合、周辺画像AP(B)、AP(L)、AP(R)及び車体画像10を用いて、車両2及び車両2の周辺領域を俯瞰する合成画像CPbを生成する。合成画像CPbは、車両2を前方上方から後方を見下ろしたような画像であり、車両2後方の領域を示す。 Further, when the image generation unit 81b sets a virtual viewpoint VPb in which the viewpoint position is the upper front of the vehicle 2 and the view direction is the lower rear of the vehicle 2, the peripheral images AP(B), AP(L), AP(R). ) And the vehicle body image 10 are used to generate a synthetic image CPb that looks down at the vehicle 2 and the surrounding area of the vehicle 2. The composite image CPb is an image of the vehicle 2 looking down from the upper front to the rear, and shows a region behind the vehicle 2.

また、画像生成部81bは、視点位置を車両2の左斜め後方かつ上方、視野方向を車両2の前方下向きとした仮想視点VPlを設定した場合、周辺画像AP(F)、AP(L)、AP(R)及び車体画像10を用いて、車両2及び車両2の周辺領域を俯瞰する合成画像CPlを生成する。合成画像CPlは、車両2を左斜め後方かつ上方から前方を見下ろしたような画像であり、車両2左側の領域を示す。 Further, when the image generation unit 81b sets a virtual viewpoint VPl in which the viewpoint position is diagonally rearward and upward of the vehicle 2 and the visual field direction is forward and downward of the vehicle 2, the peripheral images AP(F), AP(L), Using AP(R) and the vehicle body image 10, a synthetic image CPl that looks down at the vehicle 2 and the surrounding area of the vehicle 2 is generated. The composite image CPl is an image in which the vehicle 2 is viewed diagonally to the left rearward and from above to the front, and shows a region on the left side of the vehicle 2.

<1−4.仮想視点の設定>
次に、画像生成部81bが、仮想視点VPを設定する手法を詳細に説明する。図7ないし図12は、画像生成部81bが、仮想視点VPを設定する手法を示す。なお、各図において、3次元のXYZ直交座標系ccを用い、適宜方向及び向きを示す。直交座標系ccの各座標軸は、車両2に対して相対的に固定される。すなわち、X軸方向を車両2の左右方向、Y軸方向を車両2の前後方向、Z軸方向を鉛直方向とする。また、+X側を車両2の右方側、+Y側を車両2の前方側、+Z側を鉛直上側とする。したがって、−X側は車両2の左方側、−Y側は車両2の後方側、−Z側は鉛直下側である。
<1-4. Setting virtual viewpoint>
Next, a method for the image generation unit 81b to set the virtual viewpoint VP will be described in detail. 7 to 12 show a method in which the image generation unit 81b sets the virtual viewpoint VP. In addition, in each drawing, a three-dimensional XYZ orthogonal coordinate system cc is used to indicate an appropriate direction and direction. Each coordinate axis of the orthogonal coordinate system cc is fixed relative to the vehicle 2. That is, the X-axis direction is the left-right direction of the vehicle 2, the Y-axis direction is the front-back direction of the vehicle 2, and the Z-axis direction is the vertical direction. Further, the +X side is the right side of the vehicle 2, the +Y side is the front side of the vehicle 2, and the +Z side is the vertically upper side. Therefore, the -X side is the left side of the vehicle 2, the -Y side is the rear side of the vehicle 2, and the -Z side is the vertically lower side.

まず、図7を参照する。図7は、車両2を鉛直上方向(+Z側)から見た図であり、仮想視点VPのうち基準となる5つの基準仮想視点VPa(VPat、VPaf、VPab、VPal、VPar)を示す。 First, refer to FIG. FIG. 7 is a diagram of the vehicle 2 viewed from the vertically upward direction (+Z side), and shows five reference virtual viewpoints VPa (VPat, VPaf, VPab, VPal, VPar) that serve as references of the virtual viewpoint VP.

5つの基準仮想視点VPaは各々、5つの基準位置(VLt、VLf、VLb、VLl、VLr)、5つの移動中心点RC(RCt、RCf、RCb、RCl、RCr)、及び5つの基準方向(VDt、VDf、VDb、VDtl、VDr)を含む。 Each of the five reference virtual viewpoints VPa has five reference positions (VLt, VLf, VLb, VLl, VLr), five movement center points RC (RCt, RCf, RCb, RCl, RCr), and five reference directions (VDt). , VDf, VDb, VDtl, VDr).

基準位置VLtは、車両2の直上に位置する。基準位置VLfは、車両2の直上のやや前方(+Y側)に位置する。基準位置VLbは、車両2の直上のやや後方(−Y側)に位置する。基準位置VLlは、車両2の左斜め後方(−Y側かつ−X側)に位置する。基準位置VLrは、車両2の右斜め後方(+X側かつ−Y側)に位置する。各基準位置VLの高さ(+Z側)は、車両2の接する接地面GRから同一の高さである。例えば、車高の2倍の高さである。 The reference position VLt is located directly above the vehicle 2. The reference position VLf is located slightly forward of the vehicle 2 (on the +Y side). The reference position VLb is located slightly behind the vehicle 2 (on the −Y side). The reference position VLl is located diagonally left rear of the vehicle 2 (−Y side and −X side). The reference position VLr is located diagonally to the right rear of the vehicle 2 (+X side and −Y side). The height (on the +Z side) of each reference position VL is the same as the height from the ground plane GR with which the vehicle 2 is in contact. For example, it is twice as high as the vehicle height.

図8は、車両2を水平方向右側(+X側)から見た図であり、移動中心点RC及び基準方向VDを説明する図である。移動中心点RCは、仮想視点VPが移動する際の中心となる基準点である。したがって、仮想視点VPの視点位置が移動しても、視点方向は常に移動中心点RCを向く。移動中心点RCを用いた仮想視点VP視点位置を移動させる手法は後述する。 FIG. 8 is a diagram of the vehicle 2 viewed from the right side (+X side) in the horizontal direction, and is a diagram illustrating the movement center point RC and the reference direction VD. The movement center point RC is a reference point that serves as a center when the virtual viewpoint VP moves. Therefore, even if the viewpoint position of the virtual viewpoint VP moves, the viewpoint direction always faces the movement center point RC. A method of moving the virtual viewpoint VP viewpoint position using the moving center point RC will be described later.

移動中心点RCtは、車両の特定位置に設定された特定点である。移動中心点RCtは、車両2の中心に位置する。移動中心点RCfは、車両2の左右中心、かつ車両2の前端やや前方(+Y側)に位置する。移動中心点RCbは、車両2の左右中心、かつ車両2の後端やや後方(−Y側)に位置する。移動中心点RClは、車両2の前後中心、かつ車両2のやや左外側(−X側)に位置する。移動中心点RCrは、車両2の前後中心、かつ車両2のやや右外側(+X側)に位置する。各移動中心点RCの高さ(+Z側)は、車両2に着座したユーザの目線の高さhである。 The movement center point RCt is a specific point set at a specific position of the vehicle. The movement center point RCt is located at the center of the vehicle 2. The movement center point RCf is located at the left-right center of the vehicle 2 and slightly forward (on the +Y side) of the front end of the vehicle 2. The movement center point RCb is located at the left-right center of the vehicle 2 and slightly rearward (−Y side) of the rear end of the vehicle 2. The movement center point RCl is located at the front-rear center of the vehicle 2 and slightly outside of the vehicle 2 (−X side). The movement center point RCr is located at the center of the vehicle 2 in the front-rear direction and slightly outside the vehicle 2 (on the +X side). The height (on the +Z side) of each movement center point RC is the height h of the line of sight of the user sitting in the vehicle 2.

基準方向VDtは、基準位置VLtから移動中心点RCtの方向(−Z側)を向く。基準方向VDfは、基準位置VLfから移動中心点RCfの方向(−Z側かつ+Y側)を向く。基準方向VDbは、基準位置VLbから移動中心点RCbの方向(−Z側かつ−Y側)を向く。基準方向VDlは、基準位置VLlから移動中心点RClの方向(−Z側かつ+Y側)を向く。基準方向VDrは、基準位置VLrから移動中心点RCrの方向(−Z側かつ+Y側)を向く。 The reference direction VDt faces from the reference position VLt to the movement center point RCt (−Z side). The reference direction VDf faces the direction (−Z side and +Y side) of the movement center point RCf from the reference position VLf. The reference direction VDb faces the direction (−Z side and −Y side) of the movement center point RCb from the reference position VLb. The reference direction VDl faces the direction (−Z side and +Y side) of the movement center point RCl from the reference position VL1. The reference direction VDr faces the direction (−Z side and +Y side) of the movement center point RCr from the reference position VLr.

このように、仮想視点VPは、視点位置VDから移動中心点RCを見た視点である。また、基準仮想視点VPatは、車両2を直上から俯瞰する視点(トップビュー)である。基準仮想視点VPafは、車両2を前方かつ上方から車両2前方を見る視点である(フロントビュー)。基準仮想視点VPabは、車両2を後方かつ上方から車両2後方を見る視点(バックビュー)である。基準仮想視点VPalは、車両2を左斜め後方かつ上方から車両2の左側領域を見る視点(左サイドビュー)である。基準仮想視点VParは、車両2を右斜め後方かつ上方から車両2の右側領域を見る視点(右サイドビュー)である。 As described above, the virtual viewpoint VP is a viewpoint in which the movement center point RC is viewed from the viewpoint position VD. The reference virtual viewpoint VPat is a viewpoint (top view) that looks down at the vehicle 2 from directly above. The reference virtual viewpoint VPaf is a viewpoint where the vehicle 2 is viewed from the front and the front of the vehicle 2 from above (front view). The reference virtual viewpoint VPab is a viewpoint (back view) in which the vehicle 2 is viewed from behind and above the vehicle 2. The reference virtual viewpoint VPal is a viewpoint (left side view) in which the vehicle 2 is viewed from the diagonally left rear side and from above of the left side region of the vehicle 2. The reference virtual viewpoint VPar is a viewpoint (right side view) in which the vehicle 2 is viewed from the diagonally right rear side and the right side area of the vehicle 2 from above.

このような基準仮想視点VPaは、ユーザにより選択される。ユーザによる選択は、各基準仮想視点VPと対応付けられたタッチパネルボタンへのタッチ操作により選択される。すなわち、合成画像CPがディスプレイに表示されている際、ユーザによりいずれかの基準仮想視点VPaが選択されると、画像生成部81bは、かかる基準仮想視点VPaから見た合成画像を生成する。これにより、ユーザは、仮想視点の位置を様々に変化させた後、基準仮想視点VPに仮想視点を戻せなくなった場合でも、タッチパネルボタンへのタッチ操作により容易に仮想視点を基準仮想視点VPに設定することができる。 Such a reference virtual viewpoint VPa is selected by the user. The selection by the user is made by touching a touch panel button associated with each reference virtual viewpoint VP. That is, when the user selects one of the reference virtual viewpoints VPa while the composite image CP is displayed on the display, the image generation unit 81b generates a composite image viewed from the reference virtual viewpoint VPa. Thereby, even if the user cannot change the virtual viewpoint to the reference virtual viewpoint VP after changing the position of the virtual viewpoint variously, the user can easily set the virtual viewpoint to the reference virtual viewpoint VP by touching the touch panel button. can do.

なお、ユーザの視点選択前の画像表示初期においては、基準仮想視点VPaのうちいずれかの視点を予め設定される。この際、車両2を直上から俯瞰する基準仮想視点VPatで合成画像CPを生成することが好ましい。車両2周辺の広い領域をユーザに提示でき、初期表示として好適だからである。 It should be noted that, in the initial stage of image display before the user selects the viewpoint, one of the reference virtual viewpoints VPa is preset. At this time, it is preferable to generate the composite image CP at the reference virtual viewpoint VPat that looks down at the vehicle 2 from directly above. This is because a wide area around the vehicle 2 can be presented to the user and is suitable as an initial display.

次に、移動中心点RCを用いた視点位置VLを移動させる手法について説明する。まず、ユーザからディスプレイを見て左右方向(水平方向)に視点位置VLを移動させる手法について、図9及び図10を参照して説明する。以下で説明する視点位置VLの移動は、ユーザによるタッチパネルへの左右方向(水平方向)のフリック操作に対応して行われる。 Next, a method of moving the viewpoint position VL using the movement center point RC will be described. First, a method of moving the viewpoint position VL in the left-right direction (horizontal direction) when the user views the display will be described with reference to FIGS. 9 and 10. The movement of the viewpoint position VL described below is performed in response to a flick operation on the touch panel by the user in the left-right direction (horizontal direction).

図9は、車両2を鉛直上方向(+Z側)から見た図であり、基準仮想視点VPalの基準位置VLlが移動する軌跡を示す。基準位置VLlは、移動中心点RClを中心に移動軌跡OBlhを移動する。視点位置VLの移動は、移動中心点RClの位置を原点とする車両2に相対的に固定される直交座標系cc(ワールド座標系)を基準とする。視点位置VLlの移動する基準となる座標軸は、移動中心点RClの位置における直交座標系ccのZ軸である。 FIG. 9 is a diagram of the vehicle 2 viewed from the vertically upward direction (+Z side), and shows a trajectory along which the reference position VLl of the reference virtual viewpoint VPal moves. The reference position VLl moves along the movement locus OBlh around the movement center point RCl. The movement of the viewpoint position VL is based on an orthogonal coordinate system cc (world coordinate system) that is relatively fixed to the vehicle 2 whose origin is the position of the movement center point RCl. The coordinate axis that serves as a reference for movement of the viewpoint position VLl is the Z axis of the orthogonal coordinate system cc at the position of the movement center point RCl.

図10は、車両2を水平方向右側(+X側)から見た図であり、図9と同様に基準仮想視点VPalの基準位置VLlが移動する軌跡を示す。基準位置VLlは、移動中心点RClを中心に移動軌跡OBlhを移動する。視点位置VLlの移動する基準となる座標軸は、移動中心点RCの位置における直交座標系ccのZ軸(AXl)である。 FIG. 10 is a diagram of the vehicle 2 viewed from the right side (+X side) in the horizontal direction, and shows a trajectory along which the reference position VLl of the reference virtual viewpoint VPal moves, as in FIG. 9. The reference position VLl moves along the movement locus OBlh around the movement center point RCl. The coordinate axis that serves as a reference for movement of the viewpoint position VLl is the Z axis (AXl) of the orthogonal coordinate system cc at the position of the movement center point RC.

図9及び図10において、視点方向VDlは、視点位置VLlが移動軌跡OBlhのどこに位置しても、視点位置VLlから移動中心点RClの方向を向く。したがって、基準位置VLlが移動軌跡OBlh上を移動すると、ディスプレイ83を見みているユーザは、画像が横方向に移動しているように見える。 9 and 10, the viewpoint direction VDl faces the direction of the movement center point RCl from the viewpoint position VLl, wherever the viewpoint position VLl is located on the movement trajectory OBlh. Therefore, when the reference position VLl moves on the movement locus OBlh, the user looking at the display 83 looks as if the image is moving in the horizontal direction.

また、ユーザがタッチパネル83aに対し、左方向から右方向へ(水平方向)のフリック操作を行った場合、VLlは、移動軌跡OBlh上を反時計回りに移動する。一方、ユーザがタッチパネル83aに対し、右方向から左方向へ(水平方向)のフリック操作を行った場合、VLlは、移動軌跡OBlh上を時計回りに移動する。これにより、ユーザのフリック操作の方向と画像の移動する方向とが一致し、ユーザは直感的にタッチパネル操作を行うことができる。 When the user performs a flick operation on the touch panel 83a from left to right (horizontal direction), the VLl moves counterclockwise on the movement locus OBlh. On the other hand, when the user performs a flick operation from the right direction to the left direction (horizontal direction) on the touch panel 83a, VLl moves clockwise on the movement track OBlh. As a result, the direction of the user's flick operation matches the direction of movement of the image, and the user can intuitively perform the touch panel operation.

次に、ユーザからディスプレイを見て上下方向(垂直方向)に視点位置VLを移動させる手法について、図11及び図12を参照して説明する。以下で説明する視点位置VLの移動は、ユーザによるタッチパネルへの上下方向(垂直方向)のフリック操作に対応して行われる。 Next, a method of moving the viewpoint position VL in the up-down direction (vertical direction) when the user views the display will be described with reference to FIGS. 11 and 12. The movement of the viewpoint position VL described below is performed in response to a flick operation in the vertical direction (vertical direction) on the touch panel by the user.

なお、図11及び図12においては、3次元のXYZ直交座標系ccに加えて3次元のXYZ直交座標系VPcc(視点座標系)をさらに用い、適宜方向及び向きを示す。直交座標系VPccの各座標軸は、仮想視点VPに対して相対的に固定される。すなわち、X軸(VPx)方向を仮想視点VPの左右方向、Y軸(VPy)方向を仮想視点VPの前後方向、Z軸(VPz)方向を仮想視点VPの垂直方向とする。また、+X側を仮想視点VPの右方側、+Y側を仮想視点VPの前方側、+Z側を仮想視点VPの垂直上側とする。したがって、−X側は仮想視点VPの左方側、−Y側は仮想視点VPの後方側、−Z側は垂直下側である。 11 and 12, a three-dimensional XYZ Cartesian coordinate system VPcc (viewpoint coordinate system) is used in addition to the three-dimensional XYZ Cartesian coordinate system cc, and directions and directions are shown as appropriate. Each coordinate axis of the orthogonal coordinate system VPcc is fixed relative to the virtual viewpoint VP. That is, the X-axis (VPx) direction is the left-right direction of the virtual viewpoint VP, the Y-axis (VPy) direction is the front-back direction of the virtual viewpoint VP, and the Z-axis (VPz) direction is the vertical direction of the virtual viewpoint VP. The +X side is the right side of the virtual viewpoint VP, the +Y side is the front side of the virtual viewpoint VP, and the +Z side is the vertical upper side of the virtual viewpoint VP. Therefore, the −X side is the left side of the virtual viewpoint VP, the −Y side is the rear side of the virtual viewpoint VP, and the −Z side is the vertically lower side.

図11は、車両2を鉛直上方向(+Z側)から見た図であり、基準仮想視点VPalの基準位置VLlが移動する軌跡を示す。基準位置VLlは、移動中心点RClを中心に移動軌跡OBlvを移動する。視点位置VLの移動は、移動中心点RClの位置を原点とする仮想視点VPに相対的に固定される直交座標系VPccを基準とする。視点位置VLlの移動する基準となる座標軸は、移動中心点RClの位置における直交座標系VPccのX軸(AXlv)である。 FIG. 11 is a diagram of the vehicle 2 viewed from the vertically upward direction (+Z side), and shows a trajectory along which the reference position VLl of the reference virtual viewpoint VPal moves. The reference position VLl moves along the movement locus OBlv around the movement center point RCl. The movement of the viewpoint position VL is based on the orthogonal coordinate system VPcc relatively fixed to the virtual viewpoint VP having the origin of the position of the movement center point RCl. The coordinate axis on which the viewpoint position VLl moves is the X axis (AXlv) of the orthogonal coordinate system VPcc at the position of the movement center point RCl.

図12は、車両2を水平方向右側(−X側)から見た図であり、図11と同様に基準仮想視点VPalの基準位置VLlが移動する軌跡を示す。基準位置VLlは、移動中心点RClを中心に移動軌跡OBlvを移動する。視点位置VLlの移動する基準となる座標軸は、移動中心点RCの位置における直交座標系ccのX軸である。 FIG. 12 is a diagram of the vehicle 2 viewed from the right side (−X side) in the horizontal direction, and shows the trajectory along which the reference position VLl of the reference virtual viewpoint VPal moves, as in FIG. 11. The reference position VLl moves along the movement locus OBlv around the movement center point RCl. The coordinate axis that serves as a reference for moving the viewpoint position VLl is the X axis of the orthogonal coordinate system cc at the position of the moving center point RC.

図11及び図12において、視点方向VDlは、視点位置VLlが移動軌跡OBlvのどこに位置しても、視点位置VLlから移動中心点RClの方向を向く。したがって、基準位置VLlが移動軌跡OBlv上を移動すると、ディスプレイ83を見みているユーザは、画像が上下方向に移動しているように見える。 11 and 12, the viewpoint direction VDl faces the direction of the movement center point RCl from the viewpoint position VLl, wherever the viewpoint position VLl is located on the movement trajectory OBlv. Therefore, when the reference position VLl moves on the movement locus OBlv, the user looking at the display 83 looks as if the image is moving vertically.

なお、移動軌跡OBlvは、車両2の接地面GRより上側に設定される。したがって、基準位置VLlは、破線で示した移動軌跡OBlvを移動し、実線で示した移動軌跡OBlxは移動しない。これにより、車両2を接地面下から見るという、通常起こり得ない視点位置からの画像表示を防止できる。ユーザは違和感なく視点位置を移動ができる。 The movement locus OBlv is set above the ground contact surface GR of the vehicle 2. Therefore, the reference position VLl moves along the movement locus OBlv indicated by the broken line, and the movement locus OBlx indicated by the solid line does not move. As a result, it is possible to prevent the image display from a viewpoint position where the vehicle 2 is viewed from below the ground contact surface, which would not normally occur. The user can move the viewpoint position without feeling discomfort.

また、ユーザがタッチパネル83aに対し、上方向から下方向へ(垂直方向)のフリック操作を行った場合、VLlは、移動軌跡OBlv上を時計回りに移動する。一方、ユーザがタッチパネル83aに対し、下方向から上方向へ(垂直方向)のフリック操作を行った場合、VLlは、移動軌跡OBlv上を反時計回りに移動する。これにより、ユーザのフリック操作の方向と画像の移動する方向とが一致し、ユーザは直感的にタッチパネル操作を行うことができる。 When the user performs a flick operation on the touch panel 83a from the upper direction to the lower direction (vertical direction), the VLl moves clockwise on the movement locus OBlv. On the other hand, when the user performs a flick operation from the lower direction to the upper direction (vertical direction) on the touch panel 83a, the VLl moves on the movement locus OBlv in the counterclockwise direction. As a result, the direction of the user's flick operation matches the direction of movement of the image, and the user can intuitively perform the touch panel operation.

<1−5.合成画像の表示例>
次に、ディスプレイ83に表示される合成画像CPの例について、図13ないし図24を参照して説明する。
<1-5. Example of displaying composite image>
Next, an example of the composite image CP displayed on the display 83 will be described with reference to FIGS. 13 to 24.

図13は、仮想視点VPに基準仮想視点VPatが設定され、基準仮想視点VPatから車両2を見た合成画像CPt1が、ディスプレイ83に表示された例である。合成画像CPt1は、車両2の周囲を示す周辺画像に加え車体画像10を表示する。合成画像CPt1は、ユーザが車両2の周囲を示すタッチパネルボタンTB13にタッチ操作した場合、及び合成画像CPの初期表示の場合に表示される。合成画像CPt1を参照することで、ユーザは車両2周囲の状況を一覧で確認することができる。 FIG. 13 is an example in which the reference virtual viewpoint VPat is set to the virtual viewpoint VP, and the composite image CPt1 in which the vehicle 2 is viewed from the reference virtual viewpoint VPat is displayed on the display 83. The composite image CPt1 displays the vehicle body image 10 in addition to the peripheral image showing the periphery of the vehicle 2. The composite image CPt1 is displayed when the user performs a touch operation on the touch panel button TB13 indicating the periphery of the vehicle 2 and when the composite image CP is initially displayed. By referring to the composite image CPt1, the user can check the situation around the vehicle 2 in a list.

図14は、合成画像CPt1(図13)の表示後、図9のOBlh上を時計回りに移動させて基準仮想視点VPatを設定し、設定された基準仮想視点VPatから車両2を見た合成画像CPt2が、ディスプレイ83に表示された例である。合成画像CPt2は、ユーザからディスプレイ83を見て、左方向に回転して表示された車両2の周囲を示す周辺画像に加え車体画像10を表示する。合成画像CPt2は、合成画像CPt1(図13)が表示された状態で、タッチパネル83aに対し、左方向から右方向へ(水平方向)フリック操作FHが行われた場合に表示される。合成画像CPt2を参照することで、ユーザは車両2周囲の状況を合成画像CPt1とは異なる角度から確認できる。 In FIG. 14, after the composite image CPt1 (FIG. 13) is displayed, the reference virtual viewpoint VPat is set by moving clockwise on OBlh in FIG. 9, and the vehicle 2 is viewed from the set reference virtual viewpoint VPat. CPt2 is an example displayed on the display 83. The composite image CPt2 displays the vehicle body image 10 in addition to the peripheral image showing the periphery of the vehicle 2 which is rotated leftward when the display 83 is viewed from the user. The composite image CPt2 is displayed when the flick operation FH is performed from the left direction to the right direction (horizontal direction) on the touch panel 83a while the composite image CPt1 (FIG. 13) is displayed. By referring to the composite image CPt2, the user can confirm the situation around the vehicle 2 from an angle different from that of the composite image CPt1.

図15は、合成画像CPt1(図13)の表示後、図12のOBlh上を反時計回りに移動させて基準仮想視点VPatを設定し、設定された基準仮想視点VPatから車両2を見た合成画像CPt3が、ディスプレイ83に表示された例である。合成画像CPt3は、車両2の前端直下を含めて表示される。合成画像CPt2は、合成画像CPt1(図13)が表示された状態で、タッチパネル83aに対し、上方向から下方向へ(垂直方向)フリック操作FVが行われた場合に表示される。合成画像CPt2を参照することで、ユーザは車両2周囲の状況を前端直下を含めて確認できる。 In FIG. 15, after the composite image CPt1 (FIG. 13) is displayed, the reference virtual viewpoint VPat is set by moving counterclockwise on OBlh in FIG. 12, and the vehicle 2 is viewed from the set reference virtual viewpoint VPat. The image CPt3 is an example displayed on the display 83. The composite image CPt3 is displayed including immediately below the front end of the vehicle 2. The combined image CPt2 is displayed when the combined image CPt1 (FIG. 13) is displayed and the flick operation FV is performed on the touch panel 83a from the upper direction to the lower direction (vertical direction). By referring to the composite image CPt2, the user can confirm the situation around the vehicle 2 including the area immediately below the front end.

図16は、仮想視点VPに基準仮想視点VPafが設定され、基準仮想視点VPafから車両2を見た合成画像CPf1が、ディスプレイ83に表示された例である。合成画像CPf1は、車両2の前方を示す周辺画像に加え車体画像10を表示する。合成画像CPf1は、ユーザが車両2の前方を示すタッチパネルボタンTB16にタッチ操作した場合に表示される。合成画像CPf1を参照することで、ユーザは車両2前方の状況を確認することができる。 FIG. 16 is an example in which the reference virtual viewpoint VPaf is set as the virtual viewpoint VP, and the composite image CPf1 of the vehicle 2 viewed from the reference virtual viewpoint VPaf is displayed on the display 83. The composite image CPf1 displays the vehicle body image 10 in addition to the peripheral image showing the front of the vehicle 2. The composite image CPf1 is displayed when the user touch-operates the touch panel button TB16 indicating the front of the vehicle 2. By referring to the composite image CPf1, the user can confirm the situation in front of the vehicle 2.

図17は、合成画像CPf1(図16)の表示後、図9のOBlh上を時計回りに移動させて基準仮想視点VPafを設定し、設定された基準仮想視点VPafから車両2を見た合成画像CPf2が、ディスプレイ83に表示された例である。合成画像CPf2は、ユーザからディスプレイ83を見て、左方向に回転して表示された車両2の周囲を示す周辺画像に加え車体画像10を表示する。合成画像CPf2は、合成画像CPf1(図16)が表示された状態で、タッチパネル83aに対し、左方向から右方向へ(水平方向)フリック操作FHが行われた場合に表示される。合成画像CPf2を参照することで、ユーザは車両2前方の状況を合成画像CPf1とは異なる角度から確認できる。 17 is a composite image in which the vehicle 2 is viewed from the set reference virtual viewpoint VPaf by moving the OBlh in FIG. 9 in the clockwise direction after the display of the composite image CPf1 (FIG. 16) and setting the reference virtual viewpoint VPaf. CPf2 is an example displayed on the display 83. The composite image CPf2 displays the vehicle body image 10 in addition to the peripheral image showing the periphery of the vehicle 2 which is rotated leftward when the display 83 is viewed from the user. The composite image CPf2 is displayed when the flick operation FH is performed from the left direction to the right direction (horizontal direction) on the touch panel 83a while the composite image CPf1 (FIG. 16) is displayed. By referring to the composite image CPf2, the user can confirm the situation in front of the vehicle 2 from an angle different from that of the composite image CPf1.

図18は、合成画像CPf1(図16)の表示後、図12のOBlh上を反時計回りに移動させて基準仮想視点VPafを設定し、設定された基準仮想視点VPafから車両2を見た合成画像CPf3が、ディスプレイ83に表示された例である。合成画像CPf3は、車両2の前方領域を合成画像CPf1より詳細に表示する。合成画像CPt3は、合成画像CPf1(図16)が表示された状態で、タッチパネル83aに対し、上方向から下方向へ(垂直方向)フリック操作FVが行われた場合に表示される。合成画像CPt3を参照することで、ユーザは車両2前方の状況を詳細に確認できる。 In FIG. 18, after the combined image CPf1 (FIG. 16) is displayed, the reference virtual viewpoint VPaf is set by moving the object OBlh in the counterclockwise direction in FIG. The image CPf3 is an example displayed on the display 83. The composite image CPf3 displays the front area of the vehicle 2 in more detail than the composite image CPf1. The composite image CPt3 is displayed when the flick operation FV is performed from the upper direction to the lower direction (vertical direction) on the touch panel 83a while the composite image CPf1 (FIG. 16) is displayed. The user can check the situation in front of the vehicle 2 in detail by referring to the composite image CPt3.

図19は、仮想視点VPに基準仮想視点VPabが設定され、基準仮想視点VPabから車両2を見た合成画像CPb1が、ディスプレイ83に表示された例である。合成画像CPb1は、車両2の後方を示す周辺画像に加え車体画像10を表示する。合成画像CPb1は、ユーザが車両2の後方を示すタッチパネルボタンTB19にタッチ操作した場合に表示される。合成画像CPb1を参照することで、ユーザは車両2後方の状況を確認することができる。 FIG. 19 is an example in which the reference virtual viewpoint VPab is set as the virtual viewpoint VP, and the combined image CPb1 of the vehicle 2 viewed from the reference virtual viewpoint VPab is displayed on the display 83. The composite image CPb1 displays the vehicle body image 10 in addition to the peripheral image showing the rear of the vehicle 2. The composite image CPb1 is displayed when the user touch-operates the touch panel button TB19 indicating the rear of the vehicle 2. By referring to the composite image CPb1, the user can confirm the situation behind the vehicle 2.

図20は、合成画像CPb1(図19)の表示後、図9のOBlh上を時計回りに移動させて基準仮想視点VPabを設定し、設定された基準仮想視点VPabから車両2を見た合成画像CPb2が、ディスプレイ83に表示された例である。合成画像CPb2は、ユーザからディスプレイ83を見て、左方向に移動して表示された車両2の後方を示す周辺画像に加え車体画像10を表示する。合成画像CPb2は、合成画像CPb1(図19)が表示された状態で、タッチパネル83aに対し、左方向から右方向へ(水平方向)フリック操作FHが行われた場合に表示される。合成画像CPb2を参照することで、ユーザは車両2後方の状況を合成画像CPb1とは異なる角度から確認できる。 20 is a composite image in which the vehicle 2 is viewed from the set reference virtual viewpoint VPab by moving the OBlh in FIG. 9 in the clockwise direction after setting the composite image CPb1 (FIG. 19) and setting the reference virtual viewpoint VPab. CPb2 is an example displayed on the display 83. The composite image CPb2 displays the vehicle body image 10 in addition to the peripheral image showing the rear of the vehicle 2 displayed by moving to the left when the user views the display 83. The composite image CPb2 is displayed when the flick operation FH is performed from the left direction to the right direction (horizontal direction) on the touch panel 83a while the composite image CPb1 (FIG. 19) is displayed. By referring to the composite image CPb2, the user can confirm the situation behind the vehicle 2 from an angle different from that of the composite image CPb1.

図21は、合成画像CPb1(図19)の表示後、図12のOBlh上を反時計回りに移動させて基準仮想視点VPabを設定し、設定された基準仮想視点VPabから車両2を見た合成画像CPb3が、ディスプレイ83に表示された例である。合成画像CPb3は、車両2の後方領域を合成画像CPb1より詳細に表示する。合成画像CPb3は、合成画像CPb1(図16)が表示された状態で、タッチパネル83aに対し、上方向から下方向へ(垂直方向)フリック操作FVが行われた場合に表示される。合成画像CPb3を参照することで、ユーザは車両2後方の状況を詳細に確認できる。 In FIG. 21, after the combined image CPb1 (FIG. 19) is displayed, the reference virtual viewpoint VPab is set by moving counterclockwise on OBlh in FIG. 12, and the vehicle 2 is viewed from the set reference virtual viewpoint VPab. The image CPb3 is an example displayed on the display 83. The composite image CPb3 displays the rear area of the vehicle 2 in more detail than the composite image CPb1. The composite image CPb3 is displayed when the flick operation FV is performed from the upper direction to the lower direction (vertical direction) on the touch panel 83a while the composite image CPb1 (FIG. 16) is displayed. The user can check the situation behind the vehicle 2 in detail by referring to the composite image CPb3.

図22は、仮想視点VPに基準仮想視点VPalが設定され、基準仮想視点VPalから車両2を見た合成画像CPl1が、ディスプレイ83に表示された例である。合成画像CPl1は、車両2の左方を示す周辺画像に加え車体画像10を表示する。合成画像CPl1は、ユーザが車両2の左方を示すタッチパネルボタンTB22にタッチ操作した場合に表示される。合成画像CPl1を参照することで、ユーザは車両2左方の状況を確認することができる。 FIG. 22 is an example in which the reference virtual viewpoint VPal is set to the virtual viewpoint VP, and the composite image CPl1 in which the vehicle 2 is viewed from the reference virtual viewpoint VPal is displayed on the display 83. The composite image CPl1 displays the vehicle body image 10 in addition to the peripheral image showing the left side of the vehicle 2. The composite image CPl1 is displayed when the user touch-operates the touch panel button TB22 indicating the left side of the vehicle 2. The user can check the situation on the left side of the vehicle 2 by referring to the composite image CPl1.

図23は、合成画像CPl1(図22)の表示後、図9のOBlh上を時計回りに移動させて基準仮想視点VPalを設定し、設定された基準仮想視点VPalから車両2を見た合成画像CPb2が、ディスプレイ83に表示された例である。合成画像CPl2は、ユーザからディスプレイ83を見て、左方向に移動して表示された車両2の左方を示す周辺画像に加え車体画像10を表示する。合成画像CPl2は、合成画像CPl1(図22)が表示された状態で、タッチパネル83aに対し、左方向から右方向へ(水平方向)フリック操作FHが行われた場合に表示される。合成画像CPl2を参照することで、ユーザは車両2左方の状況を合成画像CPl1とは異なる角度から確認できる。 23 is a composite image in which the vehicle 2 is viewed from the set reference virtual viewpoint VPal by moving the OBlh in FIG. 9 in the clockwise direction after displaying the composite image CPl1 (FIG. 22). CPb2 is an example displayed on the display 83. The composite image CP12 displays the vehicle body image 10 in addition to the peripheral image showing the left side of the vehicle 2 displayed by moving to the left when the user views the display 83. The composite image CP12 is displayed when the flick operation FH is performed from the left direction to the right direction (horizontal direction) on the touch panel 83a in a state where the composite image CP12 (FIG. 22) is displayed. By referring to the composite image CPl2, the user can confirm the situation on the left side of the vehicle 2 from an angle different from that of the composite image CPl1.

図24は、合成画像CPl1(図22)の表示後、図12のOBlh上を反時計回りに移動させて基準仮想視点VPalを設定し、設定された基準仮想視点VPalから車両2を見た合成画像CPl3が、ディスプレイ83に表示された例である。合成画像CPl3は、車両2の左方領域を合成画像CPl1より詳細に表示する。合成画像CPl3は、合成画像CPl1(図22)が表示された状態で、タッチパネル83aに対し、上方向から下方向へ(垂直方向)フリック操作FVが行われた場合に表示される。合成画像CPl3を参照することで、ユーザは車両2左方の状況を詳細に確認できる。 In FIG. 24, after the composite image CPl1 (FIG. 22) is displayed, the reference virtual viewpoint VPal is set by moving counterclockwise on OBlh in FIG. 12, and the vehicle 2 is viewed from the set reference virtual viewpoint VPal. The image CPl3 is an example displayed on the display 83. The composite image CPl3 displays the left area of the vehicle 2 in more detail than the composite image CPl1. The combined image CPl3 is displayed when the combined image CPl1 (FIG. 22) is displayed and a flick operation FV is performed on the touch panel 83a from the upper direction to the lower direction (vertical direction). The user can check the situation on the left side of the vehicle 2 in detail by referring to the composite image CP13.

なお、車両2の右方を示す合成画像CPについては、図22から図24で説明した車両2の左方を示す場合に対し、左右対照に操作及び制御を行えばよい。車両2の右方を示す合成画像CPを参照することで、ユーザは車両2右方の状況を確認することができる。 The synthetic image CP showing the right side of the vehicle 2 may be operated and controlled symmetrically with respect to the case of the left side of the vehicle 2 described with reference to FIGS. 22 to 24. By referring to the composite image CP showing the right side of the vehicle 2, the user can confirm the situation on the right side of the vehicle 2.

<1−6.処理>
次に、画像表示システム1の処理手順を図25及び図26を参照しつつ説明する。図25は、画像取得装置3、セキュリティ装置5、及び携帯端末8の処理手順を示す。図26は、警報器6及び携帯端末8の処理手順を示す。本処理は、所定周期で繰り返し実行される。
<1-6. Processing>
Next, a processing procedure of the image display system 1 will be described with reference to FIGS. 25 and 26. FIG. 25 shows a processing procedure of the image acquisition device 3, the security device 5, and the mobile terminal 8. FIG. 26 shows a processing procedure of the alarm device 6 and the mobile terminal 8. This process is repeatedly executed at a predetermined cycle.

まず、セキュリティ装置5が、監視センサ5aが作動したか否か判断する(図25のステップS101)。 First, the security device 5 determines whether or not the monitoring sensor 5a has operated (step S101 in FIG. 25).

セキュリティ装置5は、監視センサ5aが作動したと判断すると(ステップS101でYes)、メール通知部5bを制御し、ユーザの携帯端末8に対し、監視センサ5aが作動した旨、すなわち車両2に盗難に繋がる事前現象が発生した旨を内容とする電子メールを送信する(ステップS102)。なお、監視センサ5aが作動する場合とは、監視センサ5aが車両2に振動や傾斜の発生を検出した場合や、ガラスの破壊を検出した場合、車両2内への侵入者を検出した場合等である。 When the security device 5 determines that the monitoring sensor 5a has operated (Yes in step S101), the security device 5 controls the mail notification unit 5b to indicate to the mobile terminal 8 of the user that the monitoring sensor 5a has operated, that is, the vehicle 2 has stolen it. An e-mail having the content of the occurrence of a prior phenomenon leading to is transmitted (step S102). In addition, when the monitoring sensor 5a operates, when the monitoring sensor 5a detects the occurrence of vibration or inclination in the vehicle 2, when the glass is broken, or when an intruder into the vehicle 2 is detected, etc. Is.

セキュリティ装置5が、監視センサ5aが作動していないと判断した場合、(ステップS101でNo)、及びメール通知部5bが電子メールを送信した場合は、セキュリティ装置5の処理は終了し、所定時間経過後に再度処理を開始する。 If the security device 5 determines that the monitoring sensor 5a is not operating (No in step S101), and if the mail notification unit 5b sends an e-mail, the processing of the security device 5 ends and the predetermined time elapses. After the lapse of time, the process is started again.

携帯端末8の通信部82がメール通知部5bから送信された電子メールを受信すると、表示制御部81cがディスプレイ83に電子メールの内容を表示する(ステップS201)。ユーザは、ディスプレイに表示された電子メールの内容を確認し、車両2の周辺画像
を表示させるか否か判断する。ユーザは、車両2の周辺画像を表示させることを希望する
場合は、タッチパネル83aの所定位置へタッチ操作を行えばよい。
When the communication unit 82 of the mobile terminal 8 receives the email sent from the email notification unit 5b, the display control unit 81c displays the content of the email on the display 83 (step S201). The user confirms the content of the email displayed on the display and determines whether or not to display the peripheral image of the vehicle 2. When the user desires to display a peripheral image of the vehicle 2, the user may perform a touch operation on a predetermined position on the touch panel 83a.

操作検出部81dは、ユーザがタッチパネル83aにおける周辺画像を表示させるべき所定位置へタッチ操作を行ったか否か判断する(ステップS202)。 The operation detection unit 81d determines whether or not the user has performed a touch operation on a predetermined position on the touch panel 83a where the peripheral image should be displayed (step S202).

操作検出部81dが、ユーザがタッチパネル83aにおける周辺画像を表示させるべき所定位置へタッチ操作を行い、画像の表示を希望すると判断すると(ステップS202でYes)、通知部81eが、画像取得装置3へ画像の送信を要求する信号を送信する(ステップS203)。 When the operation detection unit 81d performs a touch operation on a predetermined position on the touch panel 83a where the user should display the peripheral image and determines that the user desires to display the image (Yes in step S202), the notification unit 81e causes the image acquisition device 3 to operate. A signal requesting transmission of an image is transmitted (step S203).

一方、操作検出部81dがユーザがタッチパネル83aにおける周辺画像を表示させないことを示す所定位置へタッチ操作を行った場合、すなわち画像の表示を希望しないと判断すると(ステップS202でNo)、処理は終了する。ユーザが画像の表示を希望しない以上、処理を継続する必要はないからである。 On the other hand, when the operation detection unit 81d performs a touch operation on the touch panel 83a by the user at a predetermined position indicating that the peripheral image is not displayed, that is, when it is determined that the image display is not desired (No in step S202), the process ends. To do. This is because it is not necessary to continue the process unless the user wants to display an image.

画像取得装置3の要求受信部31aが携帯端末8から画像の送信を要求する信号を受信すると、カメラ制御部31bが、カメラ4(4F、4B、4L、4R)を制御し、撮影を開始させる(ステップS301)。 When the request receiving unit 31a of the image acquisition device 3 receives a signal requesting the transmission of an image from the mobile terminal 8, the camera control unit 31b controls the cameras 4 (4F, 4B, 4L, 4R) to start shooting. (Step S301).

画像取得部31cがカメラ4(4F、4B、4L、4R)が撮影した画像データを受信すると、画像送信部31dは、通信部32を介し、画像データを携帯端末8へ送信する(ステップS302)。 When the image acquisition unit 31c receives the image data captured by the camera 4 (4F, 4B, 4L, 4R), the image transmission unit 31d transmits the image data to the mobile terminal 8 via the communication unit 32 (step S302). ..

携帯端末8の画像取得部81aが画像取得装置3から送信された画像データを受信すると、画像生成部81bは、周辺画像を生成するための仮想視点の位置及び方向を設定する。(ステップS204)。画像生成部81bは、最初に周辺画像を生成する際には、仮想視点の位置は車両2の直上とし、かつ仮想視点の方向は下向き(トップビュー)として設定する。ユーザが車両2の真上の位置から下方向を見たような視点である。このような視点は、最初にユーザへ表示すべき仮想視点の位置及び方向として好ましい。車両の全周囲を表示するので、ユーザに広範囲に渡る状況を伝えることができるからである。 When the image acquisition unit 81a of the mobile terminal 8 receives the image data transmitted from the image acquisition device 3, the image generation unit 81b sets the position and direction of the virtual viewpoint for generating the peripheral image. (Step S204). When generating the peripheral image for the first time, the image generation unit 81b sets the position of the virtual viewpoint to be directly above the vehicle 2 and sets the direction of the virtual viewpoint to be downward (top view). The viewpoint is such that the user looks downward from the position directly above the vehicle 2. Such a viewpoint is preferable as the position and direction of the virtual viewpoint that should be first displayed to the user. Since the entire circumference of the vehicle is displayed, it is possible to inform the user of a wide range of situations.

画像生成部81bは、仮想視点を設定すると、上述の手法により周辺画像を生成する。そして、記憶部84から車体画像データ84aを読み出し、生成した周辺画像に車体画像を合成した合成画像を生成する(ステップS205)。 When the virtual viewpoint is set, the image generation unit 81b generates the peripheral image by the method described above. Then, the vehicle body image data 84a is read from the storage unit 84, and a synthesized image in which the vehicle image is synthesized with the generated peripheral image is generated (step S205).

画像生成部81bが合成画像を生成すると、表示制御部81cは、ディスプレイ83に合成画像を表示する(ステップS206)。これにより、ユーザは車両2周辺の様子を確認することができる。 When the image generation unit 81b generates the composite image, the display control unit 81c displays the composite image on the display 83 (step S206). This allows the user to check the state around the vehicle 2.

表示制御部81cがディスプレイ83に合成画像を表示すると、操作検出部81dは、ユーザがディスプレイ83に対してフリック操作が行われたか否か判断する(ステップS207)。 When the display control unit 81c displays the composite image on the display 83, the operation detection unit 81d determines whether the user has performed a flick operation on the display 83 (step S207).

操作検出部81dがユーザによりフリック操作が行われたと判断すると(ステップS207でYes)、画像生成部81bは、仮想視点を再度設定する(ステップS204)。 When the operation detection unit 81d determines that the user has performed the flick operation (Yes in step S207), the image generation unit 81b sets the virtual viewpoint again (step S204).

この際、ユーザがディスプレイ83に対して左右方向(水平方向)のフリック操作を行った場合は、前述の通りワールド座標系の鉛直方向軸を基準に仮想視点を回転させて仮想視点の位置を設定する。 At this time, when the user performs a flick operation in the left-right direction (horizontal direction) on the display 83, as described above, the virtual viewpoint is rotated based on the vertical axis of the world coordinate system to set the position of the virtual viewpoint. To do.

さらに、フリック操作がディスプレイ83に対して右側から左側への操作である場合は、仮想視点をワールド座標系の鉛直方向軸を上から見た場合に、いわゆる反時計回りとなるよう仮想視点の位置を回転させる。また、フリック操作がディスプレイ83に対して左側から右側への操作である場合は、ワールド座標系の鉛直方向軸を上から見た場合に、いわゆる時計回りとなるよう仮想視点の位置を回転させる。 Furthermore, when the flick operation is an operation from the right side to the left side with respect to the display 83, the position of the virtual viewpoint becomes so-called counterclockwise when the vertical axis of the world coordinate system is viewed from above. To rotate. When the flick operation is an operation from the left side to the right side of the display 83, the position of the virtual viewpoint is rotated so as to be so-called clockwise when the vertical axis of the world coordinate system is viewed from above.

一方、ユーザがディスプレイ83に対して上下方向(垂直方向)のフリック操作を行った場合は、前述の通り視点座標系の水平方向軸を基準に仮想視点を回転させて仮想視点の位置を設定する。 On the other hand, when the user performs a flick operation in the up-down direction (vertical direction) on the display 83, as described above, the virtual viewpoint is rotated around the horizontal axis of the viewpoint coordinate system to set the position of the virtual viewpoint. ..

さらに、フリック操作がディスプレイ83に対して上側から下側への操作である場合は、仮想視点を視点座標系の水平方向軸を視点の右から見た場合に、いわゆる反時計回りとなるよう仮想視点の位置を回転させる。また、フリック操作がディスプレイ83に対して下側から上側への操作である場合は、視点座標系の水平方向軸を視点の右から見た場合に、いわゆる時計回りとなるよう仮想視点の位置を回転させる。 Furthermore, when the flick operation is an operation from the upper side to the lower side with respect to the display 83, the virtual viewpoint is so-called counterclockwise when viewed from the right side of the horizontal axis of the viewpoint coordinate system. Rotate the viewpoint position. Further, when the flick operation is an operation from the lower side to the upper side with respect to the display 83, the position of the virtual viewpoint is set so as to be so-called clockwise when the horizontal axis of the viewpoint coordinate system is viewed from the right of the viewpoint. Rotate.

このような仮想視点の位置を回転させる手法により、ユーザがフリック操作により視点を移動させたい方向と、表示される画像が移動する方向とが一致し、ユーザは直感的に、タッチパネル83aへの操作により画像を移動させることができる。 With such a method of rotating the position of the virtual viewpoint, the direction in which the user wants to move the viewpoint by flicking matches the direction in which the displayed image moves, and the user intuitively operates the touch panel 83a. The image can be moved by.

一方、操作検出部81dは、ユーザによりフリック操作が行われないと判断すると(ステップS207でNo)、仮想視点を基準視点に変更する操作があるか否か判断する(ステップS208)。操作検出部81dは、基準視点を示すいずれかのタッチパネルボタンにユーザがタッチ操作を行ったか否かにより判断する。 On the other hand, when the operation detection unit 81d determines that the flick operation is not performed by the user (No in step S207), the operation detection unit 81d determines whether or not there is an operation for changing the virtual viewpoint to the reference viewpoint (step S208). The operation detection unit 81d determines whether or not the user has performed a touch operation on any touch panel button indicating the reference viewpoint.

操作検出部81dが仮想視点を基準視点に変更する操作があると判断すると(ステップS208でYes)、画像生成部81bは、ユーザがタッチ操作により所望した基準視点に仮想視点の位置及び方向を設定する(ステップS204)。例えば、画像生成部81bは、ユーザが車両2左側領域を表示する基準視点を希望した場合には、図9及び図10に示したような仮想視点の位置及び方向設定する。なお、基準視点は、車両直上、車両2左側、車両2右側、車両2前側、及び車両2後側の5視点である。車両の特定位置に設定される特定点である移動中心点RCの位置は、ユーザが所望した基準視点に応じた位置に設
定される。
When the operation detection unit 81d determines that there is an operation for changing the virtual viewpoint to the reference viewpoint (Yes in step S208), the image generation unit 81b sets the position and direction of the virtual viewpoint to the reference viewpoint desired by the user by touch operation. (Step S204). For example, when the user desires the reference viewpoint for displaying the left area of the vehicle 2, the image generation unit 81b sets the position and direction of the virtual viewpoint as shown in FIGS. 9 and 10. The reference viewpoints are five viewpoints immediately above the vehicle, the left side of the vehicle 2, the right side of the vehicle 2, the front side of the vehicle 2, and the rear side of the vehicle 2. The position of the movement center point RC, which is the specific point set at the specific position of the vehicle, is set at a position according to the reference viewpoint desired by the user.

一方、操作検出部81dは、仮想視点を基準視点に変更する操作がないと判断すると(ステップS208でNo)、ユーザが車両2に備えた警報器6を作動させようとしているか否か判断する(ステップS209)。操作検出部81dは、ユーザがタッチパネル83aにおける警報器を作動させることを示す所定位置へタッチ操作を行ったか否かにより判断する。 On the other hand, if the operation detecting unit 81d determines that there is no operation for changing the virtual viewpoint to the reference viewpoint (No in step S208), it determines whether the user is trying to activate the alarm device 6 provided in the vehicle 2 ( Step S209). The operation detection unit 81d determines whether or not the user has performed a touch operation on a predetermined position that indicates to activate the alarm device on the touch panel 83a.

操作検出部81dは、ユーザが警報器6を作動させようとしていると判断すると(ステップS209でYes)、通知部81eが画像取得装置3へ警報器6を作動するよう要求する信号を送信する(ステップS210)。 When the operation detection unit 81d determines that the user intends to activate the alarm device 6 (Yes in step S209), the notification unit 81e transmits a signal requesting the image acquisition device 3 to activate the alarm device 6 ( Step S210).

通知部81eが警報器6を作動するよう要求する信号を送信すると、画像取得装置3の盗難防止部31eは、警報器6に警報を行わせる(ステップS401)。なお、警報器6による警報は、所定時間経過後に終了する。かかる所定時間は、不審者に対し警告を与えるのに十分な時間であればよい。例えば、5秒である。元より、ユーザが警報の終了時を操作してもよい。 When the notification unit 81e transmits a signal requesting to activate the alarm device 6, the anti-theft unit 31e of the image acquisition device 3 causes the alarm device 6 to issue an alarm (step S401). The alarm by the alarm device 6 ends after a predetermined time has elapsed. The predetermined time may be a time sufficient to give a warning to a suspicious person. For example, 5 seconds. In the first place, the user may operate the end time of the alarm.

操作検出部81dが、ユーザが警報器6を作動させようとしていないと判断する場合(ステップS209でNo)、及び盗難防止部31eが警報器6に警報を行わせた場合(ステップS210)、操作検出部81dは、ユーザが画像表示を終了させようとしているか否か判断する(ステップS211)。 When the operation detection unit 81d determines that the user is not trying to activate the alarm device 6 (No in step S209) and when the anti-theft unit 31e causes the alarm device 6 to issue an alarm (step S210), the operation is performed. The detection unit 81d determines whether or not the user is about to end the image display (step S211).

操作検出部81dが、ユーザが画像表示を終了させようとしていると判断すると(ステップS211でYes)、通知部81eは、画像取得装置3へ撮影を終了するよう要求する信号を送信する(ステップS212)。通知部81eが画像取得装置3へ撮影を終了するよう要求する信号を送信すると、携帯端末8の処理は終了する。 When the operation detection unit 81d determines that the user is about to end the image display (Yes in step S211), the notification unit 81e transmits a signal requesting the image acquisition device 3 to end the image capturing (step S212). ). When the notification unit 81e transmits a signal requesting the image acquisition device 3 to end shooting, the process of the mobile terminal 8 ends.

一方、操作検出部81dが、ユーザが画像表示を終了させようとしていないと判断すると(ステップS211でNo)、表示制御部81cが画像の生成及び表示を継続し、処理はステップS205以下を再度実行する。 On the other hand, when the operation detection unit 81d determines that the user is not trying to end the image display (No in step S211), the display control unit 81c continues to generate and display the image, and the process is performed again from step S205. To do.

画像取得装置3は、ステップS302において画像送信部31dが画像データを送信すると、要求受信部31aが携帯端末8から撮影を終了するよう要求する終了要求信号が送信されたか否か判断する(ステップS303)。画像取得装置3は、この終了要求信号を受信するまでは、カメラ4(4F、4B、4L、4R)において直近に得られた画像データを繰り返し携帯端末8に送信する。これにより、携帯端末8の画像生成部81bは、直近に得られた画像データに基づいて、車両2周辺の様子を略リアルタイムに示す周辺画像を生成できる。 When the image transmitting unit 31d transmits the image data in step S302, the image acquisition device 3 determines whether the request receiving unit 31a has transmitted from the mobile terminal 8 an end request signal requesting to end the image capturing (step S303). ). The image acquisition device 3 repeatedly transmits the image data most recently obtained by the camera 4 (4F, 4B, 4L, 4R) to the mobile terminal 8 until receiving the end request signal. As a result, the image generation unit 81b of the mobile terminal 8 can generate a peripheral image that shows a state around the vehicle 2 in substantially real time based on the image data obtained most recently.

要求受信部31aが携帯端末8から撮影を終了するよう要求する終了要求信号が送信されたと判断すると(ステップS303でYes)、カメラ制御部31bが、カメラ4(4F、4B、4L、4R)を制御し、撮影を停止させる(ステップS304)。カメラ制御部31bがカメラ4(4F、4B、4L、4R)を制御し、撮影を停止させると、画像取得装置3の処理は終了する。 When the request receiving unit 31a determines that the end request signal requesting the end of shooting is transmitted from the mobile terminal 8 (Yes in step S303), the camera control unit 31b controls the camera 4 (4F, 4B, 4L, 4R). It controls and stops photographing (step S304). When the camera control unit 31b controls the cameras 4 (4F, 4B, 4L, 4R) and stops the shooting, the process of the image acquisition device 3 ends.

以上のように、第1の実施の形態では、ユーザの操作に基づいて、仮想視点の位置を変更して合成画像を表示する。これにより、ユーザの望む視点から容易に被写体を表示できる。 As described above, in the first embodiment, the position of the virtual viewpoint is changed based on the user's operation to display the composite image. Accordingly, the subject can be easily displayed from the viewpoint desired by the user.

<2.第2の実施の形態>
<2−1.概要>
次に、第2の実施の形態について説明する。前述の第1の実施の形態は、視点位置VLが車両2の直上かつ視点方向VDが下向き(−Z側)である場合(すなわち、トップビューである場合)に、ユーザの左右方向(水平方向)のフリック操作に対する視点位置VLの移動は、直交座標系ccの鉛直軸(Z軸)を基準とした。これにより、合成画像CPは左右いずれかに回転して表示された。
<2. Second Embodiment>
<2-1. Overview>
Next, a second embodiment will be described. In the above-described first embodiment, when the viewpoint position VL is directly above the vehicle 2 and the viewpoint direction VD is downward (−Z side) (that is, the top view), the user's left-right direction (horizontal direction). ) The movement of the viewpoint position VL with respect to the flick operation is based on the vertical axis (Z axis) of the orthogonal coordinate system cc. As a result, the composite image CP is displayed rotated to the left or right.

しかし、合成画像CPを回転して表示させても、ユーザに対し新たな周辺領域を提示するものではない。 However, rotating and displaying the composite image CP does not present a new peripheral region to the user.

そこで、第2の実施の形態は、トップビューにおいて、視点位置VLの移動は直交座標系ccの車両2の前後となる軸(Y軸)を基準とする。これにより、トップビューにおいて、ユーザがタッチパネル83aに対して左右方向(水平方向)のフリック操作を行うと、車両2側面を含めた車両2の左右の領域が表示されるため、ユーザは車両2の左右領域を詳細に確認できる。 Therefore, in the second embodiment, the movement of the viewpoint position VL in the top view is based on the axis (Y axis) which is the front and rear of the vehicle 2 in the orthogonal coordinate system cc. As a result, when the user performs a flick operation in the left-right direction (horizontal direction) on the touch panel 83a in the top view, the left and right regions of the vehicle 2 including the side surface of the vehicle 2 are displayed. You can check the left and right areas in detail.

第2の実施の形態は、第1の実施の形態と同様の構成及び処理を含むため、以下、第1の実施の形態との相違点を主に説明する。 Since the second embodiment includes the same configuration and processing as those of the first embodiment, the differences from the first embodiment will be mainly described below.

<2−2.構成>
まず、第2の実施の形態における携帯端末8の構成について説明する。図27は、第2の実施の形態の携帯端末8の構成を示す。第1の実施の形態との主な相違点は、携帯端末8の制御部81が座標軸変換部81fを備える点である。その他の構成は、第1の実施の形態と同様に構成され、また同様に機能する。
<2-2. Composition>
First, the configuration of the mobile terminal 8 according to the second embodiment will be described. FIG. 27 shows the configuration of the mobile terminal 8 according to the second embodiment. The main difference from the first embodiment is that the control unit 81 of the mobile terminal 8 includes a coordinate axis conversion unit 81f. Other configurations are the same as those of the first embodiment and function similarly.

座標軸変換部81fは、仮想視点がトップビューである場合に、視点位置VLを移動させる基準となる座標軸を直交座標系ccの鉛直軸(Z軸)から車両前後軸(Y軸)へ変換する。 When the virtual viewpoint is the top view, the coordinate axis conversion unit 81f converts the coordinate axis serving as a reference for moving the viewpoint position VL from the vertical axis (Z axis) of the orthogonal coordinate system cc to the vehicle front-rear axis (Y axis).

<2−3.仮想視点の設定>
次に、トップビュー表示において、ユーザからディスプレイを見て左右方向(水平方向)に視点位置VLを移動させる手法について、図28及び図29を参照して説明する。以下で説明する視点位置VLの移動は、トップビュー表示において、ユーザによるタッチパネルへの左右方向(水平方向)のフリック操作に対応して行われる。
<2-3. Setting virtual viewpoint>
Next, a method of moving the viewpoint position VL in the left-right direction (horizontal direction) when the user views the display in the top view display will be described with reference to FIGS. 28 and 29. The movement of the viewpoint position VL described below is performed in response to a flick operation in the left-right direction (horizontal direction) on the touch panel by the user in the top view display.

図28は、車両2を鉛直上方向(+Z側)から見た図であり、基準仮想視点VPatの基準位置VLtが移動する軌跡を示す。基準位置VLtは、移動中心点RCtを中心に移動軌跡OBthを移動する。視点位置VLtの移動は、移動中心点RCtの位置を原点とする仮想視点VPに相対的に固定される直交座標系ccを基準とする。視点位置VLtの移動する基準となる座標軸は、移動中心点RCtの位置における直交座標系ccのY軸(AXth)である。すなわち、車両2の前後方向に沿った軸である。 FIG. 28 is a diagram of the vehicle 2 viewed from the vertically upward direction (+Z side), and shows a trajectory along which the reference position VLt of the reference virtual viewpoint VPat moves. The reference position VLt moves along the movement locus OBth around the movement center point RCt. The movement of the viewpoint position VLt is based on the orthogonal coordinate system cc relatively fixed to the virtual viewpoint VP with the position of the movement center point RCt as the origin. The coordinate axis that serves as a reference for movement of the viewpoint position VLt is the Y axis (AXth) of the orthogonal coordinate system cc at the position of the movement center point RCt. That is, it is an axis along the front-rear direction of the vehicle 2.

図29は、車両2を水平方向後側(−Y側)から見た図であり、図28と同様に基準仮想視点VPatの基準位置VLtが移動する軌跡を示す。基準位置VLtは、移動中心点RCtを中心に移動軌跡OBthを移動する。移動軌跡OBthは、水平方向後側(−Y側)から見ると円形となる。視点位置VLlの移動する基準となる座標軸は、移動中心点RCtの位置における直交座標系ccのY軸である。 FIG. 29 is a diagram of the vehicle 2 viewed from the rear side (−Y side) in the horizontal direction, and shows a trajectory along which the reference position VLt of the reference virtual viewpoint VPat moves, similarly to FIG. 28. The reference position VLt moves along the movement locus OBth around the movement center point RCt. The movement trajectory OBth has a circular shape when viewed from the rear side (−Y side) in the horizontal direction. The coordinate axis on which the viewpoint position VLl moves is the Y axis of the orthogonal coordinate system cc at the position of the movement center point RCt.

図28及び図29において、視点方向VDtは、視点位置VLtが移動軌跡OBthのどこに位置しても、視点位置VLtから移動中心点RCtの方向を向く。したがって、基準位置VLtが移動軌跡OBth上を移動すると、ディスプレイ83を見みているユーザは、画像が左右方向(水平方向)に移動しているように見える。特に、視点位置VLlの移動する基準となる座標軸を、移動中心点RCtの位置における直交座標系ccのY軸としたので、ユーザは車両2の側面に回り込むようにして車両2周辺の画像を参照することができる。 28 and 29, the viewpoint direction VDt is directed from the viewpoint position VLt to the movement center point RCt wherever the viewpoint position VLt is located on the movement trajectory OBth. Therefore, when the reference position VLt moves on the movement locus OBth, the user looking at the display 83 appears to move the image in the left-right direction (horizontal direction). In particular, since the coordinate axis that serves as the reference for moving the viewpoint position VLl is the Y axis of the orthogonal coordinate system cc at the position of the movement center point RCt, the user refers to the image around the vehicle 2 by turning around the side surface of the vehicle 2. can do.

なお、移動軌跡OBthは、車両2の接地面GRより下側には設定されない。したがって、基準位置VLtは、破線で示した移動軌跡OBthを移動し、実線で示した移動軌跡OBtxは移動しない。 The movement locus OBth is not set below the ground contact surface GR of the vehicle 2. Therefore, the reference position VLt moves along the movement locus OBth indicated by the broken line, and the movement locus OBtx indicated by the solid line does not move.

また、ユーザがタッチパネル83aに対し、左方向から右方向へ(水平方向)のフリック操作を行った場合、VLtは、移動軌跡OBth上を反時計回りに移動する。一方、ユーザがタッチパネル83aに対し、左方向から右方向へ(水平方向)のフリック操作を行った場合、VLtは、移動軌跡OBth上を時計回りに移動する。これにより、ユーザのフリック操作の方向と画像の移動する方向とが一致し、ユーザは直感的にタッチパネル操作を行うことができる。 When the user performs a flick operation on the touch panel 83a from the left direction to the right direction (horizontal direction), the VLt moves counterclockwise on the movement track OBth. On the other hand, when the user performs a flick operation on the touch panel 83a from the left direction to the right direction (horizontal direction), the VLt moves clockwise on the movement track OBth. As a result, the direction of the user's flick operation matches the direction of movement of the image, and the user can intuitively perform the touch panel operation.

<2−4.合成画像の表示例>
図30の上段図は、仮想視点VPに基準仮想視点VPatが設定され、基準仮想視点VPatから車両2を見た合成画像CPt1が、ディスプレイ83に表示された例である。すなわち、合成画像CPt1は、仮想視点がトップビューである場合の合成画像である。
<2-4. Example of displaying composite image>
The upper diagram of FIG. 30 is an example in which the reference virtual viewpoint VPat is set to the virtual viewpoint VP, and the composite image CPt1 of the vehicle 2 viewed from the reference virtual viewpoint VPat is displayed on the display 83. That is, the composite image CPt1 is a composite image when the virtual viewpoint is the top view.

図30の下段図は、合成画像CPt1の表示後、視点位置VLを移動させる座標軸を直交座標系ccの鉛直軸(Z軸)から車両前後軸(Y軸)へ変換した場合の合成画像CPt4である。すなわち、図29のOBth上を反時計回りに移動させて基準仮想視点VPatを設定し、設定された基準仮想視点VPatから車両2を見た合成画像CPt4が、ディスプレイ83に表示された例である。合成画像CPt4は、車両2側面を含めた車両2の周辺画像に加え車体画像10を表示する。このため、ユーザはトップビューから車両2の左右領域を詳細に確認できる。合成画像CPt4は、合成画像CPt1が表示された状態で、タッチパネル83aに対し、左方向から右方向へ(水平方向)フリック操作FHが行われた場合に表示される。合成画像CPt2を参照することで、ユーザは車両2側面を含めた車両2の左右の領域を詳細に確認できる。 The lower diagram of FIG. 30 shows a composite image CPt4 when the coordinate axis for moving the viewpoint position VL is converted from the vertical axis (Z axis) of the orthogonal coordinate system cc to the vehicle longitudinal axis (Y axis) after the display of the composite image CPt1. is there. That is, this is an example in which the reference virtual viewpoint VPat is set by moving it counterclockwise on OBth in FIG. 29, and the composite image CPt4 in which the vehicle 2 is viewed from the set reference virtual viewpoint VPat is displayed on the display 83. .. The composite image CPt4 displays the vehicle body image 10 in addition to the peripheral image of the vehicle 2 including the side surface of the vehicle 2. Therefore, the user can check the left and right regions of the vehicle 2 in detail from the top view. The composite image CPt4 is displayed when the flick operation FH is performed from the left direction to the right direction (horizontal direction) on the touch panel 83a while the composite image CPt1 is displayed. By referring to the composite image CPt2, the user can check the left and right regions of the vehicle 2 including the side surface of the vehicle 2 in detail.

<2−5.処理>
次に、第2の実施の形態における処理手順を図31及び図32を参照して説明する。図31は、第2の実施の形態における画像取得装置3、セキュリティ装置5、及び携帯端末8の処理手順を示す。図25で示した第1の実施の形態における処理手順との相違点は、ステップS209の処理を備える点である。
<2-5. Processing>
Next, a processing procedure in the second embodiment will be described with reference to FIGS. 31 and 32. FIG. 31 shows the processing procedure of the image acquisition device 3, the security device 5, and the mobile terminal 8 in the second embodiment. The difference from the processing procedure in the first embodiment shown in FIG. 25 is that the processing of step S209 is provided.

まず、画像生成部81bは、周辺画像を生成するための仮想視点の位置及び方向を設定する。(ステップS204)。画像生成部81bは、最初に周辺画像を生成する際には、仮想視点の位置は車両2の直上とし、かつ仮想視点の方向は下向き(トップビュー)として設定する。また、座標軸変換部81fは、視点位置VLを移動させる基準となる軸を車両前後軸(Y軸)に設定する。 First, the image generation unit 81b sets the position and direction of the virtual viewpoint for generating the peripheral image. (Step S204). When generating the peripheral image for the first time, the image generation unit 81b sets the position of the virtual viewpoint to be directly above the vehicle 2 and sets the direction of the virtual viewpoint to be downward (top view). Further, the coordinate axis conversion unit 81f sets the axis serving as a reference for moving the viewpoint position VL to the vehicle front-rear axis (Y axis).

ステップS205、ステップS206、及びステップS207が実行されると、操作検出部81dは、仮想視点を基準視点に変更する操作があるか否か判断する(ステップS208)。操作検出部81dは、基準視点を示すいずれかのタッチパネルボタンにユーザがタッチ操作を行ったか否かにより判断する。 When step S205, step S206, and step S207 are executed, the operation detection unit 81d determines whether or not there is an operation for changing the virtual viewpoint to the reference viewpoint (step S208). The operation detection unit 81d determines whether or not the user has performed a touch operation on any touch panel button indicating the reference viewpoint.

操作検出部81dが仮想視点を基準視点に変更する操作があると判断すると(ステップS208でYes)、画像生成部81bは、座標軸の設定処理(ステップS209)を実行する。 When the operation detection unit 81d determines that there is an operation for changing the virtual viewpoint to the reference viewpoint (Yes in step S208), the image generation unit 81b executes the coordinate axis setting process (step S209).

図32は、座標軸の設定処理(ステップS209)の詳細を示す。座標軸の設定処理(ステップS209)に処理が移行すると、操作検出部81dは、仮想視点がトップビューの視点に変更されたか否か判断する(ステップS401)。 FIG. 32 shows details of the coordinate axis setting process (step S209). When the process proceeds to the coordinate axis setting process (step S209), the operation detection unit 81d determines whether the virtual viewpoint has been changed to the top view viewpoint (step S401).

仮想視点がトップビューの視点に変更されたと判断すると(ステップS401でYes)、座標軸変換部81fは、視点位置VLを移動させる基準となる座標軸を車両前後軸(Y軸)に設定する(ステップS402)。 When it is determined that the virtual viewpoint has been changed to the top-view viewpoint (Yes in step S401), the coordinate axis conversion unit 81f sets the coordinate axis that is the reference for moving the viewpoint position VL to the vehicle front-rear axis (Y axis) (step S402). ).

一方、仮想視点がトップビュー以外の視点に変更されたと判断すると(ステップS401でNo)、座標軸変換部81fは、視点位置VLを移動させる基準となる座標軸を鉛直軸(Z軸)に設定する(ステップS403)。 On the other hand, when determining that the virtual viewpoint has been changed to a viewpoint other than the top view (No in step S401), the coordinate axis conversion unit 81f sets the coordinate axis serving as the reference for moving the viewpoint position VL to the vertical axis (Z axis) ( Step S403).

ステップS402又はステップS403が実行されると、処理は図31に戻り、再度ステップS204以下の処理が実行される。 When step S402 or step S403 is executed, the process returns to FIG. 31, and the processes after step S204 are executed again.

以上、第2の実施の形態は、トップビューにおいて、視点位置VLの移動は直交座標系ccの車両2の前後となる軸(Y軸)を基準とする。これにより、トップビューにおいて、ユーザがタッチパネル83aに対して左右方向(水平方向)のフリック操作を行うと、車両2側面を含めた車両2の左右の領域が表示されるため、ユーザは車両2の左右領域を詳細に確認できる。 As described above, in the second embodiment, the movement of the viewpoint position VL in the top view is based on the axis (Y axis) that is the front and rear of the vehicle 2 in the orthogonal coordinate system cc. As a result, when the user performs a flick operation in the left-right direction (horizontal direction) on the touch panel 83a in the top view, the left and right regions of the vehicle 2 including the side surface of the vehicle 2 are displayed. You can check the left and right areas in detail.

<3.変形例>
以上、本発明の実施の形態について説明した。しかし、本発明は上記実施の形態に限定されることはない。様々な変形が可能である。以下、変形例を説明する。なお、上記及び以下の実施の形態は、適宜組み合わせ可能である。
<3. Modification>
The embodiments of the present invention have been described above. However, the present invention is not limited to the above embodiment. Various modifications are possible. Hereinafter, modified examples will be described. The above and the following embodiments can be combined as appropriate.

上記実施の形態では、画像取得装置3は、ユーザから画像送信の要求の受信時に、撮影を開始した。しかし、ユーザから画像送信の要求の受信前に、撮影を開始してもよい。すなわち、監視センサ5aの作動時に撮影を開始してもよい。この場合、ユーザは、監視センサ5aが作動するような車両2の異常発生時から、車両2周辺の様子を参照できる。 In the above-described embodiment, the image acquisition device 3 starts shooting when receiving the image transmission request from the user. However, shooting may be started before the user receives a request for image transmission. That is, the photographing may be started when the monitoring sensor 5a is activated. In this case, the user can refer to the situation around the vehicle 2 from the time when the abnormality of the vehicle 2 occurs such that the monitoring sensor 5a operates.

図33は、画像取得装置3が監視センサ5aの作動時に撮影を開始する画像表示システム1aの概要を示す。監視センサ5aが車両2の異常を検出すると、セキュリティ装置5は、画像取得装置3へ撮影開始を要求する信号を送信する。画像取得装置3は、かかる信号を受信すると、カメラ4を作動させ撮影を開始する。すなわち、画像取得装置3は、ユーザからの画像送信の要求を待たず、車両2の異常発生時に撮影を開始する。画像取得装置3は、撮影を開始すると、画像データを外部に設置されたサーバSVへ送信する。これにより、画像データは車両2の異常発生時からサーバSVに保存される。したがって、ユーザは、セキュリティ装置5から車両2の異常発生を通知するメールを受信すると、サーバSVに対して画像送信の要求を行う。サーバSVは、画像送信の要求を受信すると、ユーザの所持する携帯端末8へ車両2の異常発生時からの画像データを送信する。これにより、ユーザは、監視センサ5aの作動時、すなわち、車両2の異常発生時からの車両2周辺の様子を参照できる。また、サーバSVを、画像データを送受信する専用サーバとすれば、画像データを他者に傍受される恐れがなく、画像データの秘匿性を高めることができる。なお、ユーザは現在の車両2周辺の様子を確認したい場合には、サーバSVへ現在の画像データの送信を要求すればよい。この場合、サーバSVは、異常発生時から現在までの画像データの送信を省略し、現在の画像データを送信する。 FIG. 33 shows an outline of the image display system 1a in which the image acquisition device 3 starts photographing when the monitoring sensor 5a operates. When the monitoring sensor 5a detects the abnormality of the vehicle 2, the security device 5 transmits a signal requesting the start of shooting to the image acquisition device 3. Upon receiving such a signal, the image acquisition device 3 activates the camera 4 to start photographing. That is, the image acquisition device 3 does not wait for a request for image transmission from the user, and starts capturing an image when an abnormality occurs in the vehicle 2. When the image acquisition device 3 starts photographing, the image acquisition device 3 transmits the image data to the server SV installed outside. As a result, the image data is stored in the server SV from the time when the abnormality of the vehicle 2 occurs. Therefore, when the user receives the email notifying of the abnormality occurrence of the vehicle 2 from the security device 5, the user requests the server SV to transmit the image. Upon receiving the image transmission request, the server SV transmits the image data from the time when the abnormality of the vehicle 2 occurs to the mobile terminal 8 owned by the user. Accordingly, the user can refer to the state around the vehicle 2 when the monitoring sensor 5a is activated, that is, when the abnormality of the vehicle 2 occurs. Further, if the server SV is a dedicated server for transmitting and receiving image data, there is no fear that the image data will be intercepted by others, and the confidentiality of the image data can be enhanced. When the user wants to confirm the current surroundings of the vehicle 2, the user may request the server SV to transmit the current image data. In this case, the server SV omits the transmission of the image data from the time when the abnormality occurs until the present, and transmits the current image data.

他の変形例を説明する。上記実施の形態では、画像取得装置3、カメラ4、セキュリティ装置5、及び警報器6は車両2に搭載されると説明した。しかし、車両2でなくともよい。住宅やビルディング等でもよい。要するに、監視すべき土地や建物、物品であればよい。 Another modification will be described. In the above-mentioned embodiment, it was explained that the image acquisition device 3, the camera 4, the security device 5, and the alarm device 6 are mounted on the vehicle 2. However, it may not be the vehicle 2. It may be a house or building. In short, it can be any land, building or article to be monitored.

また、上記実施の形態では、ユーザが入力操作を行うものとしてタッチパネルを説明した。しかし、タッチパネルでなくともよい。押しボタン式のスイッチでもよい。例えば、いわゆる十字キーである。要するに、ユーザの入力操作が判別できればよい。 Further, in the above-described embodiment, the touch panel has been described as a user performing an input operation. However, it does not have to be a touch panel. A push button type switch may be used. For example, a so-called cross key. In short, it suffices if the user's input operation can be determined.

また、上記実施の形態では、画像取得装置3と携帯端末8とを別体の装置として説明した。しかし、画像取得装置3と携帯端末8とを一体の装置として構成してもよい。 In the above embodiment, the image acquisition device 3 and the mobile terminal 8 are described as separate devices. However, the image acquisition device 3 and the mobile terminal 8 may be configured as an integrated device.

また、上記実施の形態では、各機能はプログラムに従ったソフトウェアとして実現されると説明した。しかし、ソフトウェアでなくともよい。電気的なハードウェア回路として
実現されてもよい。
Further, in the above embodiment, it has been described that each function is realized as software according to a program. However, it need not be software. It may be realized as an electrical hardware circuit.

1 画像表示システム
2 車両
3 画像取得装置
4 カメラ
5 セキュリティ装置
6 警報器
7 ネットワーク
8 携帯端末
1 image display system 2 vehicle 3 image acquisition device 4 camera 5 security device 6 alarm device 7 network 8 mobile terminal

Claims (3)

カメラが撮影した撮影画像を用いて車体画像を含む合成画像を生成し、生成した合成画像を表示する画像表示装置であって、
複数の仮想視点の各々が対応付けられた複数のボタンのうち一のボタンの選択を受け付けた場合、前記一のボタンに対応付けられた仮想視点から見た合成画像を表示装置に表示する表示制御手段と、
前記仮想視点から見た合成画像に対するタッチ操作であるスライド操作又はピンチ操作を検出する操作検出手段と、を有し、
前記タッチ操作が前記一のボタンの選択後に前記操作検出手段により検出された場合、前記表示制御手段は、前記一のボタンの選択に基づく仮想視点から見た合成画像を前記タッチ操作に応じて変更して表示する、画像表示装置。
An image display device for generating a composite image including a vehicle body image using a captured image captured by a camera, and displaying the generated composite image,
Display control for displaying, on a display device, a composite image viewed from the virtual viewpoint associated with the one button when the selection of one of the plurality of buttons associated with each of the plurality of virtual viewpoints is accepted. Means and
An operation detection unit that detects a slide operation or a pinch operation, which is a touch operation on the composite image viewed from the virtual viewpoint,
When the touch operation is detected by the operation detection unit after the selection of the one button, the display control unit changes the composite image viewed from the virtual viewpoint based on the selection of the one button according to the touch operation. An image display device for displaying.
前記複数のボタンは、初期表示の仮想視点を選択するボタンと、前記カメラを搭載する車両の前後左右の各々に対応するボタンとを含む
ことを特徴とする請求項1に記載の画像表示装置。
The image display device according to claim 1, wherein the plurality of buttons include a button for selecting a virtual viewpoint for initial display and buttons corresponding to front, rear, left, and right of a vehicle equipped with the camera.
カメラが撮影した撮影画像を用いて生成されるとともに車体画像を含む合成画像を表示する端末装置であって、
複数の仮想視点の各々が対応付けられた複数のボタンのうち一のボタンの選択を受け付けた場合、前記一のボタンに対応付けられた仮想視点から見た合成画像を表示装置に表示する表示制御手段と、
前記仮想視点から見た合成画像に対するタッチ操作であるスライド操作又はピンチ操作を検出する操作検出手段と、を有し、
前記タッチ操作が前記一のボタンの選択後に前記操作検出手段により検出された場合、前記表示制御手段は、前記一のボタンの選択に基づく仮想視点から見た合成画像を前記タッチ操作に応じて変更して表示する、端末装置。
A terminal device that displays a composite image including a vehicle body image, which is generated using a captured image captured by a camera,
Display control for displaying, on a display device, a composite image viewed from the virtual viewpoint associated with the one button when the selection of one of the plurality of buttons associated with each of the plurality of virtual viewpoints is accepted. Means and
An operation detection unit that detects a slide operation or a pinch operation, which is a touch operation on the composite image viewed from the virtual viewpoint,
When the touch operation is detected by the operation detection unit after the selection of the one button, the display control unit changes the composite image viewed from the virtual viewpoint based on the selection of the one button according to the touch operation. And display the terminal device.
JP2019143483A 2019-08-05 2019-08-05 Image display device, image display system, image display method, and program Active JP6725734B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019143483A JP6725734B2 (en) 2019-08-05 2019-08-05 Image display device, image display system, image display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019143483A JP6725734B2 (en) 2019-08-05 2019-08-05 Image display device, image display system, image display method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018102248A Division JP6568981B2 (en) 2018-05-29 2018-05-29 Image display device, image display system, image display method, and program

Publications (2)

Publication Number Publication Date
JP2020017960A JP2020017960A (en) 2020-01-30
JP6725734B2 true JP6725734B2 (en) 2020-07-22

Family

ID=69581673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019143483A Active JP6725734B2 (en) 2019-08-05 2019-08-05 Image display device, image display system, image display method, and program

Country Status (1)

Country Link
JP (1) JP6725734B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007183877A (en) * 2006-01-10 2007-07-19 Nissan Motor Co Ltd Driving support device for vehicle and display method for bird's-eye video
JP5158051B2 (en) * 2009-09-18 2013-03-06 三菱自動車工業株式会社 Driving assistance device
JP5872764B2 (en) * 2010-12-06 2016-03-01 富士通テン株式会社 Image display system
JP5813944B2 (en) * 2010-12-06 2015-11-17 富士通テン株式会社 Image display system, image processing apparatus, and image display method
KR101265711B1 (en) * 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d vehicle around view generating method and apparatus
JP5910446B2 (en) * 2012-02-29 2016-04-27 株式会社Jvcケンウッド Image processing apparatus, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2020017960A (en) 2020-01-30

Similar Documents

Publication Publication Date Title
JP6347934B2 (en) Image display device, image display system, image display method, and program
CN107408026B (en) Information processing apparatus, information processing method, and computer program
JP7283059B2 (en) Perimeter monitoring device
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP2019156298A (en) Vehicle remote control device and vehicle remote control method
JP5991648B2 (en) Display control device for vehicle
JP5640433B2 (en) Image information providing apparatus and image information providing method
JP2017073733A (en) Viewing device for vehicle and viewing control program for vehicle
JP2020005146A (en) Output control device, display terminal, information processing apparatus, movable body, remote control system, output control method, program, and photographing control device
JP2008219559A (en) In-vehicle camera system
CN109104562B (en) Information processing apparatus, information processing method, and recording medium
JP2019144756A (en) Vehicle remote operation device, vehicle remote operation system and vehicle remote operation method
JP2019145951A (en) Vehicle remote control device, vehicle remote control system and vehicle remote control method
JP2019116220A (en) Vehicular visible device
JP2019161549A (en) Vehicle remote operation device and vehicle remote operation method
JP6568981B2 (en) Image display device, image display system, image display method, and program
JP7051369B2 (en) Image processing device and image processing method
JP7112191B2 (en) Image processing device and image processing method
JP6725734B2 (en) Image display device, image display system, image display method, and program
JP5631065B2 (en) Video distribution system, control terminal, network camera, control method and program
JP2020150295A (en) Vehicle crime prevention device
JP2016141303A (en) Visual field support device
JP2019038372A (en) Image display device
JP7103773B2 (en) Image processing device and image processing method
JP2021027390A (en) Display terminal, remote control system, display control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200625

R150 Certificate of patent or registration of utility model

Ref document number: 6725734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250