JP7103773B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7103773B2
JP7103773B2 JP2017205379A JP2017205379A JP7103773B2 JP 7103773 B2 JP7103773 B2 JP 7103773B2 JP 2017205379 A JP2017205379 A JP 2017205379A JP 2017205379 A JP2017205379 A JP 2017205379A JP 7103773 B2 JP7103773 B2 JP 7103773B2
Authority
JP
Japan
Prior art keywords
vehicle
image
contact
outside
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017205379A
Other languages
Japanese (ja)
Other versions
JP2019080157A (en
Inventor
史晃 板東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017205379A priority Critical patent/JP7103773B2/en
Publication of JP2019080157A publication Critical patent/JP2019080157A/en
Application granted granted Critical
Publication of JP7103773B2 publication Critical patent/JP7103773B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.

近年、車両に対するセキュリティー機能が種々提案されている。例えば、窓ガラスを割られるなどの危害が車両に加えられた場合に、サイレン等の警報を鳴らしたり、ランプ等を点滅させたりする装置が車両に搭載される。さらに、例えば特許文献1では、車両に対して接近者を検知した場合に、車載カメラで接近者を撮影し、その画像を車両の所有者の携帯端末に送信するセキュリティー機能が提案されている。 In recent years, various security functions for vehicles have been proposed. For example, when a vehicle is injured, such as a broken window glass, the vehicle is equipped with a device that sounds an alarm such as a siren or blinks a lamp or the like. Further, for example, Patent Document 1 proposes a security function in which, when an approaching person is detected with respect to a vehicle, the approaching person is photographed by an in-vehicle camera and the image is transmitted to the mobile terminal of the owner of the vehicle.

特開2011-207444号公報Japanese Unexamined Patent Publication No. 2011-207444

しかしながら、従来技術のように車内視点で車両に接近する人や他の物体を撮影する場合、画像上で、例えば窓枠やボディ等の車両の一部が対象物と重なって記録されることがある。すなわち、対象物の全貌を把握することができない虞があることに課題があった。したがって、車両に危害が加えられた際に、車両に接近する人や他の物体を画像として記録しても、その画像を有効に活用できないことが懸念された。 However, when a person or other object approaching the vehicle is photographed from the viewpoint inside the vehicle as in the conventional technique, a part of the vehicle such as a window frame or a body may be recorded on the image so as to overlap with the object. be. That is, there is a problem that the whole picture of the object may not be grasped. Therefore, when the vehicle is harmed, there is a concern that even if a person or another object approaching the vehicle is recorded as an image, the image cannot be effectively used.

本発明は、上記の課題に鑑みなされたものであり、車両に危害が加えられた際に、状況把握や事後対応において有効な画像を得ることを可能とする技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of obtaining an effective image in grasping a situation and responding after the fact when a vehicle is harmed. ..

本発明に係る画像処理装置は、少なくとも車両の室外に搭載されて前記車両の全周囲を撮像する車載カメラで撮影された撮影画像を処理する画像処理装置であって、前記車両の内部に乗員がいないことを検出した場合に、前記車載カメラが搭載された車両への外部からの接触を予測または検出する接近検出部と、前記車両の内部の所定位置を視点位置とし、前記視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を透過像として含む車外画像を生成する画像生成部と、前記車外画像を外部装置に対して送信する通信部と、を備え、前記接近検出部が前記車両への前記接触を予測または検出した場合に、前記画像生成部が前記車外画像を生成し、当該車外画像を前記通信部を介して前記外部装置に対して送信する構成(第1の構成)である。 The image processing device according to the present invention is an image processing device that is mounted at least outside the vehicle and processes images taken by an in-vehicle camera that captures the entire circumference of the vehicle , and an occupant is inside the vehicle. The approach detection unit that predicts or detects external contact with the vehicle on which the in-vehicle camera is mounted when it is detected that the image is not present, and a predetermined position inside the vehicle as a viewpoint position, as viewed from the viewpoint position. The approach is provided with an image generation unit that generates an image outside the vehicle including the image of the vehicle as a transmission image with the direction of the contact position as the line-of-sight direction, and a communication unit that transmits the image outside the vehicle to an external device. When the detection unit predicts or detects the contact with the vehicle, the image generation unit generates the vehicle exterior image and transmits the vehicle exterior image to the external device via the communication unit (No. 1). 1 configuration).

また、上記第1の構成の画像処理装置において、前記接近検出部は、前記車両に接近する物体を検出し、前記物体による前記車両への前記接触を予測する構成(第2の構成)であっても良い。 Further, in the image processing device having the first configuration, the approach detection unit has a configuration (second configuration) of detecting an object approaching the vehicle and predicting the contact of the object with the vehicle (second configuration). You may.

また、上記第2の構成の画像処理装置において、前記接近検出部は、前記物体が前記車両への接近後、前記物体が所定時間、前記車両から所定範囲内に滞在することで、前記物体による前記車両への前記接触を予測する構成(第3の構成)であっても良い。 Further, in the image processing device having the second configuration, the approach detection unit is based on the object by staying within a predetermined range from the vehicle for a predetermined time after the object approaches the vehicle. The configuration may be such that the contact with the vehicle is predicted (third configuration).

また、上記第1から第3の構成の画像処理装置において、前記接近検出部が前記車両への前記接触を予測した場合に、前記画像生成部が前記車外画像の生成を開始し、さらに、前記接近検出部が前記車両への前記接触を検出した場合に、前記通信部が前記車外画像を前記外部装置に対して送信する構成(第4の構成)であっても良い。 Further, in the image processing apparatus having the first to third configurations, when the approach detection unit predicts the contact with the vehicle, the image generation unit starts generating the image outside the vehicle, and further, the above. When the approach detection unit detects the contact with the vehicle, the communication unit may transmit the image outside the vehicle to the external device (fourth configuration).

また、上記第1から第4の構成の画像処理装置において、前記画像生成部は、前記車外画像の生成とは異なるタイミングである、前記車両の内部に人が侵入したことを判断した場合に、さらに前記車両の内部が撮影された車内画像を生成し、前記通信部は、さらに前記車内画像を前記外部装置に対して送信する構成(第5の構成)であっても良い。 Further, in the image processing apparatus having the first to fourth configurations, when the image generation unit determines that a person has invaded the inside of the vehicle at a timing different from the generation of the image outside the vehicle, Further, the vehicle interior image obtained by capturing the inside of the vehicle may be generated, and the communication unit may further transmit the vehicle interior image to the external device (fifth configuration).

また、上記第1から第の構成の画像処理装置において、前記車外画像の記録が可能な記憶部を備える構成(第の構成)であっても良い。 Further, the image processing apparatus having the first to fifth configurations may have a configuration ( sixth configuration) including a storage unit capable of recording the image outside the vehicle.

また、上記第の構成の画像処理装置において、前記車外画像は、前記接近検出部が前記車両への前記接触を予測したことに基づいて前記記憶部に記憶され、前記記憶部に記憶された当該車外画像は、前記接近検出部が前記車両への前記接触を検出した場合に、前記記憶部に保存され、前記接近検出部が前記車両への前記接触を予測しなくなった場合に、前記記憶部から破棄される構成(第の構成)であっても良い。 Further, in the image processing device having the sixth configuration, the image outside the vehicle is stored in the storage unit based on the fact that the approach detection unit predicts the contact with the vehicle, and is stored in the storage unit. The outside image is stored in the storage unit when the approach detection unit detects the contact with the vehicle, and the storage is stored when the approach detection unit no longer predicts the contact with the vehicle. It may be a configuration ( seventh configuration) that is discarded from the unit.

また、上記第1から第の構成の画像処理装置において、前記通信部は、前記車外画像の記録に係る指令を前記外部装置に対して送信する構成(第の構成)であっても良い。 Further, in the image processing devices having the first to seventh configurations, the communication unit may have a configuration ( eighth configuration) of transmitting a command related to recording the image outside the vehicle to the external device. ..

また、本発明に係る画像処理方法は、少なくとも車両の室外に搭載されて前記車両の全周囲を撮像する車載カメラで撮影された撮影画像を処理する画像処理方法であって、前記車両の内部に乗員がいないことを検出した場合に、前記車載カメラが搭載された車両への外部からの接触を予測または検出する工程と、前記車両への外部からの接触が予測または検出された場合に、前記車両の内部の所定位置を視点位置とし、前記視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を透過像として含む車外画像を生成する工程と、前記車外画像を外部装置に対して送信する工程と、を含む構成(第の構成)である。 Further, the image processing method according to the present invention is an image processing method that processes an image taken by an in-vehicle camera that is mounted at least outside the vehicle and captures the entire circumference of the vehicle, and is inside the vehicle. The process of predicting or detecting external contact with the vehicle equipped with the in-vehicle camera when it is detected that there is no occupant, and the above -mentioned when external contact with the vehicle is predicted or detected. A step of generating an outside image including the image of the vehicle as a transmission image by setting a predetermined position inside the vehicle as the viewpoint position and the direction of the contact position as seen from the viewpoint position as the line-of-sight direction, and the outside image as the outside. It is a configuration ( nineth configuration) including a step of transmitting to the device.

本発明の構成によれば、例えば車両に接近する人の顔や行動を、画像として確認することができる。すなわち、車両に危害が加えられた際に、状況把握や事後対応において有効な画像を得ることが可能になる。 According to the configuration of the present invention, for example, the face and behavior of a person approaching a vehicle can be confirmed as an image. That is, when the vehicle is harmed, it is possible to obtain an image that is effective in grasping the situation and responding after the fact.

実施形態の画像処理装置の構成を示すブロック図Block diagram showing the configuration of the image processing apparatus of the embodiment 車載カメラが車両に配置される位置を例示する図The figure which illustrates the position where the in-vehicle camera is arranged in a vehicle 仮想視点画像を生成する手法を説明するための図Diagram to explain the method of generating a virtual viewpoint image 第1実施形態の車外画像の生成、送信に係る処理フローの例を示すフローチャートA flowchart showing an example of a processing flow related to generation and transmission of an image outside the vehicle according to the first embodiment. 車両への外部からの接触の状況を示す説明図Explanatory drawing showing the situation of external contact with the vehicle 車外画像の第1例を示す模式図Schematic diagram showing the first example of the image outside the vehicle 車外画像の第1例が表示された外部装置を示す模式図Schematic diagram showing an external device on which the first example of an outside vehicle image is displayed. 第1実施形態の変形例の車内画像の例を示す模式図Schematic diagram showing an example of an in-vehicle image of a modified example of the first embodiment 車外画像及び車内画像が表示された外部装置の例を示す模式図Schematic diagram showing an example of an external device on which an image outside the vehicle and an image inside the vehicle are displayed. 第2実施形態の車外画像の生成、送信に係る処理フローの例を示すフローチャートA flowchart showing an example of a processing flow related to generation and transmission of an image outside the vehicle according to the second embodiment. 車両への外部からの接近の状況を示す説明図Explanatory drawing showing the situation of approaching the vehicle from the outside 車外画像の第2例を示す模式図Schematic diagram showing the second example of the outside image 第3実施形態の車外画像の生成、送信に係る処理フローの例を示すフローチャートA flowchart showing an example of a processing flow related to generation and transmission of an image outside the vehicle according to the third embodiment. 第4実施形態の車外画像の生成、送信に係る処理フローの例を示すフローチャートA flowchart showing an example of a processing flow related to generation and transmission of an image outside the vehicle according to the fourth embodiment.

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。なお、本発明は以下に示す実施形態の内容に限定されるものではない。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. The present invention is not limited to the contents of the embodiments shown below.

また、以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向(前方)」とする。車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向(後方)」とする。車両の直進進行方向及び鉛直線に垂直な方向であって、前方を向いている運転手の右側から左側に向かう方向を「左方向」とする。車両の直進進行方向及び鉛直線に垂直な方向であって、前方を向いている運転手の左側から右側に向かう方向を「右方向」とする。 Further, in the following description, the direction from the driver's seat to the steering wheel, which is the straight-ahead traveling direction of the vehicle, is referred to as "forward direction (forward)". The direction in which the vehicle travels straight from the steering wheel to the driver's seat is defined as the "rear direction (rear)". The direction from the right side to the left side of the driver who is facing forward, which is the direction perpendicular to the straight line and the straight line of the vehicle, is defined as the "left direction". The direction from the left side to the right side of the driver who is facing forward, which is the direction perpendicular to the straight line and the straight line of the vehicle, is defined as the "right direction".

<1.画像処理装置の概略>
図1は、実施形態の画像処理装置1の構成を示すブロック図である。画像処理装置1は、例えば撮影部2と、センサ部3と、外部装置4と、を含む車両周辺監視システムに組み込むことができる。車両周辺監視システムは、撮影部2(車載カメラ)が搭載された車両の周辺状況を監視するシステムである。
<1. Outline of image processing device>
FIG. 1 is a block diagram showing the configuration of the image processing device 1 of the embodiment. The image processing device 1 can be incorporated into a vehicle peripheral monitoring system including, for example, a photographing unit 2, a sensor unit 3, and an external device 4. The vehicle peripheral monitoring system is a system for monitoring the peripheral conditions of a vehicle equipped with a photographing unit 2 (vehicle-mounted camera).

画像処理装置1は、車載カメラで撮影された撮影画像を処理する装置である。画像処理装置1は、車載カメラを搭載する車両ごとに備えられる。本実施形態では、画像処理装置1は、撮影部2から撮影画像を取得して処理する。また、画像処理装置1は、センサ部3から情報を取得し、当該取得情報に基づいて画像処理に関する判断を行う。 The image processing device 1 is a device that processes a captured image captured by an in-vehicle camera. The image processing device 1 is provided for each vehicle equipped with an in-vehicle camera. In the present embodiment, the image processing device 1 acquires a photographed image from the photographing unit 2 and processes it. Further, the image processing device 1 acquires information from the sensor unit 3 and makes a determination regarding image processing based on the acquired information.

撮影部2は、車両周辺及び車室内部の状況を監視する目的で設けられる。撮影部2は、例えば5つのカメラ21~25を備える。5つのカメラ21~25は、車載カメラである。図2は、車載カメラ21~25が車両5に配置される位置を例示する図である。 The photographing unit 2 is provided for the purpose of monitoring the conditions around the vehicle and inside the vehicle interior. The photographing unit 2 includes, for example, five cameras 21 to 25. The five cameras 21 to 25 are in-vehicle cameras. FIG. 2 is a diagram illustrating a position where the vehicle-mounted cameras 21 to 25 are arranged in the vehicle 5.

車載カメラ21は車両5の前端に設けられる。このため、車載カメラ21をフロントカメラ21とも呼ぶ。フロントカメラ21の光軸21aは上からの平面視で車両5の前後方向に沿って延びる。フロントカメラ21は車両5の前方向を撮影する。車載カメラ23は車両5の後端に設けられる。このため、車載カメラ23をバックカメラ23とも呼ぶ。バックカメラ23の光軸23aは上からの平面視で車両5の前後方向に沿って延びる。バックカメラ23は車両5の後方向を撮影する。フロントカメラ21及びバックカメラ23の取付位置は、車両5の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であっても良い。 The in-vehicle camera 21 is provided at the front end of the vehicle 5. Therefore, the vehicle-mounted camera 21 is also referred to as a front camera 21. The optical axis 21a of the front camera 21 extends along the front-rear direction of the vehicle 5 in a plan view from above. The front camera 21 photographs the front direction of the vehicle 5. The vehicle-mounted camera 23 is provided at the rear end of the vehicle 5. Therefore, the in-vehicle camera 23 is also referred to as a back camera 23. The optical axis 23a of the back camera 23 extends along the front-rear direction of the vehicle 5 in a plan view from above. The back camera 23 photographs the rear direction of the vehicle 5. The front camera 21 and the back camera 23 are preferably mounted at the center of the left and right sides of the vehicle 5, but may be slightly deviated from the center of the left and right sides in the left-right direction.

車載カメラ22は車両5の右側ドアミラー51に設けられる。このため、車載カメラ22を右サイドカメラ22とも呼ぶ。右サイドカメラ22の光軸22aは上からの平面視で車両5の左右方向に沿って延びる。右サイドカメラ22は車両5の右方向を撮影する。車載カメラ24は車両5の左側ドアミラー52に設けられる。このため、車載カメラ24を左サイドカメラ24とも呼ぶ。左サイドカメラ24の光軸24aは上からの平面視で車両5の左右方向に沿って延びる。左サイドカメラ24は車両5の左方向を撮影する。 The vehicle-mounted camera 22 is provided on the right door mirror 51 of the vehicle 5. Therefore, the in-vehicle camera 22 is also referred to as a right side camera 22. The optical axis 22a of the right side camera 22 extends along the left-right direction of the vehicle 5 in a plan view from above. The right side camera 22 photographs the vehicle 5 in the right direction. The vehicle-mounted camera 24 is provided on the left side door mirror 52 of the vehicle 5. Therefore, the in-vehicle camera 24 is also referred to as a left side camera 24. The optical axis 24a of the left side camera 24 extends along the left-right direction of the vehicle 5 in a plan view from above. The left side camera 24 photographs the vehicle 5 in the left direction.

なお、車両5がいわゆるドアミラーレス車である場合、右サイドカメラ22は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく設けられ、左サイドカメラ24は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく設けられる。 When the vehicle 5 is a so-called door mirrorless vehicle, the right side camera 22 is provided around the rotation axis (hinge portion) of the right side door without passing through the door mirror, and the left side camera 24 is the rotation axis of the left side door. It is provided around the (hinge part) without using a door mirror.

車載カメラ25は車両5の車室内部の前端に設けられる。このため、車載カメラ25を車内カメラ25とも呼ぶ。車内カメラ25は、例えば運転席または助手席の前側上方、或いは運転席と助手席との間の前側上方に配置される。車内カメラ25の光軸25aは上からの平面視で車両5の前後方向に沿って延びる。車内カメラ25は車室内部を、前方から後方に向かって撮影する。 The vehicle-mounted camera 25 is provided at the front end of the vehicle interior of the vehicle 5. Therefore, the in-vehicle camera 25 is also referred to as an in-vehicle camera 25. The in-vehicle camera 25 is arranged, for example, above the front side of the driver's seat or the passenger seat, or above the front side between the driver's seat and the passenger seat. The optical axis 25a of the in-vehicle camera 25 extends along the front-rear direction of the vehicle 5 in a plan view from above. The in-vehicle camera 25 photographs the inside of the vehicle interior from the front to the rear.

車載カメラ21~25のレンズとしては、例えば魚眼レンズが使用される。車載カメラ21~24は、それぞれの水平方向の画角θが180度以上であるため、車両5の水平方向における全周囲を撮影することができる。車内カメラ25も同様に、水平方向の画角θが180度程度であるため、車両5の車室内部の水平方向における全域を撮影することができる。 As the lenses of the in-vehicle cameras 21 to 25, for example, a fisheye lens is used. Since the in-vehicle cameras 21 to 24 have an angle of view θ of 180 degrees or more in the horizontal direction, the vehicle-mounted cameras 21 to 24 can photograph the entire circumference of the vehicle 5 in the horizontal direction. Similarly, since the in-vehicle camera 25 also has a horizontal angle of view θ of about 180 degrees, it is possible to photograph the entire area of the vehicle interior of the vehicle 5 in the horizontal direction.

図1に戻って、センサ部3は、車載カメラ21~25が搭載される車両5に関する情報を検出する複数のセンサを有する。車両5に関する情報には、車両自体の情報と、車両周辺の情報とが含まれて良い。本実施形態では、センサ部3は、例えば車両の乗員のシートへの着座を検出する着座センサ、車両の変速装置のシフトレバーの操作位置を検出するシフトセンサ、車両のドアの開閉を検知するドア開閉センサ、車両の振動を検出する振動センサ、車両の傾きを検出する傾斜センサ、車両周辺の人や動物、車両、その他の物体を検出する超音波センサ及びレーダ等が含まれる。なお、超音波センサ、レーダのほか、赤外線等を用いた光センサなどを利用し、人などを検出しても良い。 Returning to FIG. 1, the sensor unit 3 has a plurality of sensors that detect information about the vehicle 5 on which the vehicle-mounted cameras 21 to 25 are mounted. The information about the vehicle 5 may include information about the vehicle itself and information around the vehicle. In the present embodiment, the sensor unit 3 is, for example, a seating sensor that detects the seating of a vehicle occupant on a seat, a shift sensor that detects the operating position of a shift lever of a vehicle transmission, and a door that detects the opening and closing of a vehicle door. Includes open / close sensors, vibration sensors that detect vehicle vibrations, tilt sensors that detect vehicle tilt, ultrasonic sensors and radars that detect people, animals, vehicles, and other objects around the vehicle. In addition to ultrasonic sensors and radars, optical sensors using infrared rays or the like may be used to detect humans and the like.

外部装置4は、画像処理装置1から出力される表示用画像を受信する装置である。外部装置4は、例えば車両5の所有者等が所持する端末、サーバ等が含まれる。端末としては、例えばスマートフォン等の携帯端末、パーソナルコンピュータ等の据え置き型情報端末等が含まれる。本実施形態では、外部装置4は、例えばスマートフォン等の携帯端末であって、画像処理装置1から出力された表示用画像を画面表示する表示部41を備える表示装置である。表示部41は、例えば液晶表示パネルであって、タッチパネル方式等の入力部を備え、外部から情報を入力できる構成であって良い。 The external device 4 is a device that receives a display image output from the image processing device 1. The external device 4 includes, for example, a terminal, a server, or the like owned by the owner or the like of the vehicle 5. Examples of the terminal include a mobile terminal such as a smartphone, a stationary information terminal such as a personal computer, and the like. In the present embodiment, the external device 4 is, for example, a mobile terminal such as a smartphone, and is a display device including a display unit 41 that displays a display image output from the image processing device 1 on the screen. The display unit 41 may be, for example, a liquid crystal display panel, which may include an input unit such as a touch panel system, and may have a configuration in which information can be input from the outside.

<2.画像処理装置の詳細>
画像処理装置1は、画像生成部11、制御部12、記憶部13及び通信部14を含んで構成される。
<2. Details of image processing device>
The image processing device 1 includes an image generation unit 11, a control unit 12, a storage unit 13, and a communication unit 14.

画像生成部11は、撮影部2で撮影された撮影画像を処理して表示用画像を生成する。本実施形態では、画像生成部11は、各種の画像処理が可能なハードウェア回路として構成される。本実施形態では、画像生成部11は、車両5に搭載された車載カメラ21~24によって撮影された撮影画像に基づき、仮想視点から見た車両5の周辺を示す仮想視点画像を生成する。さらに、画像生成部11は、仮想視点画像に基づき、表示装置である外部装置4で表示するための表示用画像を生成する。仮想視点画像を生成する手法の詳細については後述する。 The image generation unit 11 processes the captured image captured by the photographing unit 2 to generate a display image. In the present embodiment, the image generation unit 11 is configured as a hardware circuit capable of performing various image processing. In the present embodiment, the image generation unit 11 generates a virtual viewpoint image showing the periphery of the vehicle 5 as seen from a virtual viewpoint, based on the captured images taken by the vehicle-mounted cameras 21 to 24 mounted on the vehicle 5. Further, the image generation unit 11 generates a display image to be displayed by the external device 4 which is a display device based on the virtual viewpoint image. The details of the method for generating the virtual viewpoint image will be described later.

制御部12は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む、いわゆるマイコンである。記憶部13は、不揮発性のメモリである。制御部12は、記憶部13に記憶されたプログラムに基づいて情報の処理及び送受信を行う。制御部12は、有線または無線で、撮影部2、センサ部3及び外部装置4に接続される。 The control unit 12 is a so-called microcomputer including a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory) (not shown). The storage unit 13 is a non-volatile memory. The control unit 12 processes and transmits / receives information based on the program stored in the storage unit 13. The control unit 12 is connected to the photographing unit 2, the sensor unit 3, and the external device 4 by wire or wirelessly.

制御部12は、画像取得部121と、画像制御部122と、接近検出部123と、を備える。制御部12が備えるこれらの各構成要素それぞれの機能は、プログラムに従ってCPUが演算処理を行うことによって実現される。 The control unit 12 includes an image acquisition unit 121, an image control unit 122, and an approach detection unit 123. The functions of each of these constituent elements included in the control unit 12 are realized by the CPU performing arithmetic processing according to a program.

画像取得部121は、車載カメラ21~25で撮影された撮影画像を取得する。本実施形態では、車載カメラ21~25の数は5つであり、画像取得部121は、車載カメラ21~25それぞれで撮影された撮影画像を取得する。 The image acquisition unit 121 acquires captured images taken by the vehicle-mounted cameras 21 to 25. In the present embodiment, the number of the vehicle-mounted cameras 21 to 25 is 5, and the image acquisition unit 121 acquires the captured images taken by the vehicle-mounted cameras 21 to 25, respectively.

画像制御部122は、画像生成部11によって実行される画像処理の制御を行う。例えば、画像制御部122は、画像生成部11に対して、仮想視点画像及び表示用画像を生成するために必要となる各種のパラメータ等の指示を行う。また、画像制御部122は、画像生成部11によって生成された表示用画像を外部装置4に対して出力する際の制御を行う。 The image control unit 122 controls the image processing executed by the image generation unit 11. For example, the image control unit 122 instructs the image generation unit 11 various parameters and the like necessary for generating the virtual viewpoint image and the display image. Further, the image control unit 122 controls when the display image generated by the image generation unit 11 is output to the external device 4.

接近検出部123は、車載カメラ21~24が搭載された車両5への外部からの接触を予測または検出する。詳細には、接近検出部123は、車両5に対して接近する人や動物、車両、その他の物体を検出するとともに、それらによる車両5への接触を検出する。 The approach detection unit 123 predicts or detects external contact with the vehicle 5 on which the vehicle-mounted cameras 21 to 24 are mounted. Specifically, the approach detection unit 123 detects people, animals, vehicles, and other objects approaching the vehicle 5, and also detects contact by them with the vehicle 5.

さらに具体的には、接近検出部123は、車両5への外部からの接触の予測または検出の開始に先立って、例えばセンサ部3の着座センサ、シフトセンサ、ドア開閉センサからの検出信号に基づき、車両5の内部に乗員がいないことを検出する。例えば、乗員が着座しておらず、且つイグニッションスイッチがOFFである場合、車両5の内部に乗員がいないことが検出される。また例えば、乗員の着座しておらず、且つドアが閉じている場合、車両5の内部に乗員がいないことが検出される。また例えば、乗員の着座しておらず、且つシフトレバーが「P」、「N」、「R」のいずれかの位置である場合、車両5の内部に乗員がいないことが検出される。なお、車両5の内部に乗員がいないことを検出する手段は、これらに限定されない。例えば、イグニッションスイッチがOFFになり、その後運転席ドアが閉から開になりさらに閉になる、すなわち運転者が降車したと推定され、且つ全ドアが閉且つロックされた場合に車両5の内部に乗員がいないと検出されても良い。 More specifically, the approach detection unit 123 is based on detection signals from, for example, a seating sensor, a shift sensor, and a door open / close sensor of the sensor unit 3 prior to the prediction or start of detection of external contact with the vehicle 5. , Detects that there are no occupants inside the vehicle 5. For example, when the occupant is not seated and the ignition switch is OFF, it is detected that there is no occupant inside the vehicle 5. Further, for example, when the occupant is not seated and the door is closed, it is detected that there is no occupant inside the vehicle 5. Further, for example, when the occupant is not seated and the shift lever is in any of the "P", "N", and "R" positions, it is detected that there is no occupant inside the vehicle 5. The means for detecting that there is no occupant inside the vehicle 5 is not limited to these. For example, when the ignition switch is turned off, then the driver's door is closed and then closed, that is, when it is estimated that the driver has disembarked and all the doors are closed and locked, the inside of the vehicle 5 It may be detected that there is no occupant.

続いて、接近検出部123は、例えば振動センサから車両の振動の程度を表す検出信号を取得し、また、傾斜センサから車両の傾きの程度を表す検出信号を取得する。これらの検出信号の取得に基づき、接近検出部123は、車両5への外部からの接触を検出する。そして、画像処理装置1は撮影部2に、車載カメラ21~24による車両周辺の撮影を指示する指令を送信する。接近検出部123は、車載カメラ21~24で撮影された車両周辺の撮影画像に基づき、車両周辺の人や動物、車両、その他の物体を画像認識により検出する。これにより、接近検出部123は、車両5に対して接近または接触する人や車両などの有無や方向、位置を検出する。 Subsequently, the approach detection unit 123 acquires a detection signal indicating the degree of vibration of the vehicle from, for example, a vibration sensor, and acquires a detection signal indicating the degree of inclination of the vehicle from the inclination sensor. Based on the acquisition of these detection signals, the approach detection unit 123 detects contact from the outside with the vehicle 5. Then, the image processing device 1 transmits a command to the photographing unit 2 to instruct the in-vehicle cameras 21 to 24 to photograph the surroundings of the vehicle. The approach detection unit 123 detects people, animals, vehicles, and other objects around the vehicle by image recognition based on the captured images around the vehicle taken by the vehicle-mounted cameras 21 to 24. As a result, the approach detection unit 123 detects the presence / absence, direction, and position of a person or vehicle approaching or contacting the vehicle 5.

なお、車載カメラ21~24の起動トリガーとして振動センサや傾斜センサ等を用いることなく、例えば車載カメラ21~24を一定の時間を隔てて周期的に起動させ、車載カメラ21~24に車両周辺を撮影させても良い。 It should be noted that, for example, the in-vehicle cameras 21 to 24 are periodically activated at regular intervals without using a vibration sensor, an inclination sensor, or the like as an activation trigger of the in-vehicle cameras 21 to 24, and the in-vehicle cameras 21 to 24 are used to display the surroundings of the vehicle. You may let me take a picture.

また、車両周辺の人や動物、車両、その他の物体の検出には、例えばセンサ部3の超音波センサ、レーダを用いても良い。超音波センサ及びレーダは、例えば車両5のフロントバンパー、リアバンパー及びドアなどの複数箇所に埋設される。超音波センサ及びレーダは、送信波を車両周辺に向けて送信し、人や他の車両などで反射した反射波を受信することで、人や他の車両などの有無や方向、位置を検出する。 Further, for detecting people, animals, vehicles, and other objects around the vehicle, for example, an ultrasonic sensor or radar of the sensor unit 3 may be used. Ultrasonic sensors and radars are embedded in a plurality of locations such as the front bumper, the rear bumper, and the door of the vehicle 5. Ultrasonic sensors and radars transmit transmitted waves toward the periphery of the vehicle and receive reflected waves reflected by people and other vehicles to detect the presence, direction, and position of people and other vehicles. ..

記憶部13は、例えばフラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部13は、例えばファームウェアとしてのプログラム、画像生成部11が仮想視点画像及び表示用画像を生成するための各種のデータを記憶する。また、記憶部13は、画像取得部121及び接近検出部123が処理を実行するために必要となる各種のデータを記憶する。 The storage unit 13 is a non-volatile memory such as a flash memory, and stores various types of information. The storage unit 13 stores, for example, a program as firmware, and various data for the image generation unit 11 to generate a virtual viewpoint image and a display image. In addition, the storage unit 13 stores various data required for the image acquisition unit 121 and the approach detection unit 123 to execute the process.

通信部14は、例えば無線によって外部装置4と接続される。画像処理装置1は、通信部14を介して外部装置4に、画像生成部11で生成された表示用画像を出力することが可能である。 The communication unit 14 is connected to the external device 4 by radio, for example. The image processing device 1 can output the display image generated by the image generation unit 11 to the external device 4 via the communication unit 14.

<3.仮想視点画像の生成>
画像生成部11が、仮想視点から見た車両5の周辺の様子を示す仮想視点画像を生成する手法について説明する。図3は、仮想視点画像を生成する手法を説明するための図である。
<3. Generation of virtual viewpoint image>
A method in which the image generation unit 11 generates a virtual viewpoint image showing the state of the surroundings of the vehicle 5 as seen from the virtual viewpoint will be described. FIG. 3 is a diagram for explaining a method for generating a virtual viewpoint image.

フロントカメラ21、右サイドカメラ22、バックカメラ23及び左サイドカメラ24によって、車両5の前方、右側方、後方及び左側方それぞれを示す4つの撮影画像P21~P24が同時に取得される。これら4つの撮影画像P21~P24には、車両5の全周囲のデータが含まれる。画像生成部11は、これら4つの撮影画像P21~P24を、画像取得部121を介して取得する。 The front camera 21, the right side camera 22, the back camera 23, and the left side camera 24 simultaneously acquire four captured images P21 to P24 indicating the front, right side, rear side, and left side of the vehicle 5. These four captured images P21 to P24 include data on the entire circumference of the vehicle 5. The image generation unit 11 acquires these four captured images P21 to P24 via the image acquisition unit 121.

画像生成部11は、これら4つの撮影画像P21~P24に含まれるデータ(各画素の値)を、仮想的な三次元空間における立体的な曲面である投影面TSに投影する。投影面TSは、例えば略半球形状(お椀形状)をしており、その中心部(お椀の底部分)が車両5の位置として定められる。 The image generation unit 11 projects the data (values of each pixel) included in these four captured images P21 to P24 onto the projection surface TS which is a three-dimensional curved surface in a virtual three-dimensional space. The projection surface TS has, for example, a substantially hemispherical shape (bowl shape), and its central portion (bottom portion of the bowl) is defined as the position of the vehicle 5.

投影面TSでは、車両5の領域の外側の領域に、撮影画像のデータが投影される。撮影画像P21~P24に含まれる各画素の位置と、投影面TSの各画素の位置とは予め対応関係が定められる。この対応関係を示すテーブルデータは、記憶部13に記憶される。投影面TSの各画素の値は、この対応関係と、撮影画像P21~P24に含まれる各画素の値とに基づいて決定できる。 On the projection surface TS, the data of the captured image is projected on the area outside the area of the vehicle 5. The correspondence between the position of each pixel included in the captured images P21 to P24 and the position of each pixel on the projection surface TS is determined in advance. The table data showing this correspondence is stored in the storage unit 13. The value of each pixel of the projection surface TS can be determined based on this correspondence and the value of each pixel included in the captured images P21 to P24.

次に、画像生成部11は、画像制御部122の制御により、三次元空間に対して仮想視点VPを設定する。仮想視点VPは、視点位置と視線方向とで規定される。画像生成部11は、任意の視点位置、且つ、任意の視線方向の仮想視点VPを三次元空間に設定できる。画像生成部11は、投影面TSのうち、設定された仮想視点VPから見た視野内に含まれる領域に投影されたデータを画像として切り出す。これにより、画像生成部11は、任意の仮想視点VPから見た仮想視点画像を生成する。 Next, the image generation unit 11 sets the virtual viewpoint VP for the three-dimensional space under the control of the image control unit 122. The virtual viewpoint VP is defined by the viewpoint position and the line-of-sight direction. The image generation unit 11 can set a virtual viewpoint VP at an arbitrary viewpoint position and an arbitrary line-of-sight direction in a three-dimensional space. The image generation unit 11 cuts out the data projected on the area included in the field of view seen from the set virtual viewpoint VP in the projection surface TS as an image. As a result, the image generation unit 11 generates a virtual viewpoint image viewed from an arbitrary virtual viewpoint VP.

例えば、図3に示すように、視点位置を車両5の直上、視線方向を直下とした仮想視点VPaを想定した場合、車両5及び車両5の周辺を俯瞰する仮想視点画像(俯瞰画像)CPaを生成することができる。また、視点位置を車両5の内部、視線方向を車両5の左前方とした仮想視点VPbを想定した場合、車両5の内部から見た車両5の左前方の周辺を示す仮想視点画像CPbを生成することができる。 For example, as shown in FIG. 3, assuming a virtual viewpoint VPa with the viewpoint position directly above the vehicle 5 and the line-of-sight direction directly below, a virtual viewpoint image (overhead image) CPa that gives a bird's-eye view of the vehicle 5 and the surroundings of the vehicle 5 is obtained. Can be generated. Further, assuming a virtual viewpoint VPb in which the viewpoint position is the inside of the vehicle 5 and the line-of-sight direction is the left front of the vehicle 5, a virtual viewpoint image CPb showing the periphery of the left front of the vehicle 5 as seen from the inside of the vehicle 5 is generated. can do.

なお、仮想視点画像CPa中に示す車両5の像5pは、予めビットマップなどのデータとして用意され、記憶部24に記憶される。仮想視点画像の生成の際には、当該仮想視点画像の仮想視点VPの視点位置と視線方向とに応じた形状の車両5の像5pのデータが読み出されて、仮想視点画像CPa中に含められる。 The image 5p of the vehicle 5 shown in the virtual viewpoint image CPa is prepared in advance as data such as a bitmap and stored in the storage unit 24. When the virtual viewpoint image is generated, the data of the image 5p of the vehicle 5 having a shape corresponding to the viewpoint position and the line-of-sight direction of the virtual viewpoint VP of the virtual viewpoint image is read out and included in the virtual viewpoint image CPa. Be done.

図3の仮想視点画像CPbについて、より詳細に説明すれば、仮想視点画像CPbは、車両5の内部の所定位置である運転者の視点付近を視点位置とし、車両5の左前方を視線方向とした仮想視点に基づく車両5の車外画像である。以下の説明において、車両5の内部の所定位置を視点位置とし、当該視点位置から見た車両5の外部の方向を視線方向とした仮想視点画像のことを、車外画像Pxと呼ぶ場合がある。 The virtual viewpoint image CPb of FIG. 3 will be described in more detail. In the virtual viewpoint image CPb, the viewpoint position is near the driver's viewpoint, which is a predetermined position inside the vehicle 5, and the left front of the vehicle 5 is the line-of-sight direction. It is an outside image of the vehicle 5 based on the virtual viewpoint. In the following description, a virtual viewpoint image in which a predetermined position inside the vehicle 5 is a viewpoint position and a direction outside the vehicle 5 as seen from the viewpoint position is a line-of-sight direction may be referred to as an outside vehicle image Px.

車外画像Pxである仮想視点画像CPbには、画像生成部11が生成した仮想視点画像に、車両5の透過像5tが含められる。車外画像Pxは、車両5の内部を仮想視点の視点位置とした場合に、視線方向に見える現実の光景により近い状況を表現した画像であり、車両5とその周囲の物体との位置関係も理解し易い。車外画像Pxでは、車両5の周囲の物体が、車両5の一部と重なって隠れてしまうことを防ぐため、車両5の像を透過像5tとする。 The virtual viewpoint image CPb, which is the external image Px, includes the transmission image 5t of the vehicle 5 in the virtual viewpoint image generated by the image generation unit 11. The vehicle exterior image Px is an image expressing a situation closer to the actual scene seen in the line-of-sight direction when the inside of the vehicle 5 is set as the viewpoint position of the virtual viewpoint, and the positional relationship between the vehicle 5 and the surrounding objects is also understood. Easy to do. In the vehicle exterior image Px, the image of the vehicle 5 is set as a transmission image 5t in order to prevent an object around the vehicle 5 from overlapping with a part of the vehicle 5 and hiding.

なお、車外画像Px中に示す車両5の透過像5tは、予めビットマップなどのデータとして用意され、記憶部24に記憶される。車外画像の生成の際には、当該車外画像の仮想視点VPの視点位置と視線方向とに応じた形状の透過像5tのデータが読み出されて、車外画像Px中に含められる。 The transmission image 5t of the vehicle 5 shown in the vehicle exterior image Px is prepared in advance as data such as a bitmap and stored in the storage unit 24. When the vehicle exterior image is generated, the data of the transmission image 5t having a shape corresponding to the viewpoint position and the line-of-sight direction of the virtual viewpoint VP of the vehicle exterior image is read out and included in the vehicle exterior image Px.

このようにして、画像生成部11は、仮想の立体的な投影面TSを用いることで、現実に近い臨場感のある仮想視点画像CPa、CPbを生成することができる。さらに、画像生成部11は、車両5の内部の所定位置を仮想視点VPの視点位置とし、当該視点位置から見た車両5の外部の方向を視線方向とし、車両5の像を透過像5tとして含む車外画像Pxを生成する。 In this way, the image generation unit 11 can generate virtual viewpoint images CPa and CPb that have a realistic sensation by using the virtual three-dimensional projection surface TS. Further, the image generation unit 11 sets a predetermined position inside the vehicle 5 as the viewpoint position of the virtual viewpoint VP, sets the direction outside the vehicle 5 as seen from the viewpoint position as the line-of-sight direction, and sets the image of the vehicle 5 as the transmission image 5t. Generate a vehicle exterior image Px including.

<4.車外画像の生成、送信に係る処理>
本実施形態において、画像処理装置1は、車外画像Pxを生成し、当該車外画像Pxを外部装置4に対して送信する。
<4. Processing related to generation and transmission of images outside the vehicle>
In the present embodiment, the image processing device 1 generates the vehicle exterior image Px and transmits the vehicle exterior image Px to the external device 4.

<4-1.第1実施形態>
図4は、第1実施形態の車外画像Pxの生成、送信に係る処理フローの例を示すフローチャートである。第1実施形態の車外画像Pxの生成、送信に係る処理について、図4を参照しつつ説明する。
<4-1. First Embodiment>
FIG. 4 is a flowchart showing an example of a processing flow related to the generation and transmission of the vehicle exterior image Px of the first embodiment. The processing related to the generation and transmission of the vehicle exterior image Px of the first embodiment will be described with reference to FIG.

図4に示すように、まず、車両5では、車両5への外部からの接触が接近検出部123によって監視される。(ステップS101)。画像処理装置1では、所定の開始条件が成立すると、車両5への外部からの接触の監視が開始される。所定の開始条件とは、例えば先に説明したように、車両5の内部に乗員がいなくなった場合であっても良い。例えば、乗員が着座しておらず、且つイグニッションスイッチがOFFである場合、車両5の内部に乗員がいないことが検出され、監視モードに入り、車両5への外部からの接触の監視が開始される。なお、監視モードは正規のユーザーが車両の運転を開始するときに解除される。例えば、キーによりドアがアンロックされた場合や、図示せぬキーレスエントリ装置の送信機によりドアがアンロックされた場合に、正規のユーザーが車両の運転を開始すると判断される。 As shown in FIG. 4, first, in the vehicle 5, the contact from the outside with the vehicle 5 is monitored by the approach detection unit 123. (Step S101). When the predetermined start condition is satisfied, the image processing device 1 starts monitoring the contact from the outside to the vehicle 5. The predetermined start condition may be, for example, when there are no occupants inside the vehicle 5, as described above. For example, when the occupant is not seated and the ignition switch is OFF, it is detected that there is no occupant inside the vehicle 5, the monitoring mode is entered, and the monitoring of the external contact with the vehicle 5 is started. To. The monitoring mode is canceled when a legitimate user starts driving the vehicle. For example, if the door is unlocked by a key, or if the door is unlocked by a transmitter of a keyless entry device (not shown), it is determined that a legitimate user starts driving the vehicle.

次に、車両5への外部からの接触を検出したか否かが判定される(ステップS102)。車両5への外部からの接触は、例えばセンサ部3の振動センサから取得した車両の振動の程度を表す検出信号に基づき判定される。また、車両5への外部からの接触は、例えばセンサ部3の傾斜センサから取得した車両の傾きの程度を表す検出信号に基づき判定される。また、車両5への外部からの接触の検出に、例えばセンサ部3の超音波センサ、レーダを用いても良い。 Next, it is determined whether or not an external contact with the vehicle 5 has been detected (step S102). The external contact with the vehicle 5 is determined based on, for example, a detection signal indicating the degree of vibration of the vehicle acquired from the vibration sensor of the sensor unit 3. Further, the external contact with the vehicle 5 is determined based on, for example, a detection signal indicating the degree of inclination of the vehicle acquired from the inclination sensor of the sensor unit 3. Further, for detecting an external contact with the vehicle 5, for example, an ultrasonic sensor or radar of the sensor unit 3 may be used.

車両5への外部からの接触を検出しない場合(ステップS102のNo)、ステップS101に戻って、車両5への物体の接触の監視が継続される。 If no external contact with the vehicle 5 is detected (No in step S102), the process returns to step S101 to continue monitoring the contact of the object with the vehicle 5.

車両5への外部からの接触を検出した場合(ステップS102のYes)、車両5の周辺画像の取得が行われる(ステップS103)。図5は、車両5への外部からの接触の状況を示す説明図である。図5に示すように、本実施形態では、例えば、駐車中の車両5に人Trが接触したこととする。接触位置は、車両5の左前部5fである。車両5の周辺画像は、車載カメラ21~24に車両周辺を撮影させることで取得することができる。画像処理装置1は撮影部2に、車載カメラ21~24による車両周辺の撮影を指示する指令を送信する。画像処理装置1は、車載カメラ21~24それぞれで撮影された撮影画像を画像取得部121を介して取得し、記憶部13に記憶する。 When an external contact with the vehicle 5 is detected (Yes in step S102), a peripheral image of the vehicle 5 is acquired (step S103). FIG. 5 is an explanatory diagram showing a state of contact with the vehicle 5 from the outside. As shown in FIG. 5, in the present embodiment, for example, it is assumed that the human Tr comes into contact with the parked vehicle 5. The contact position is the left front portion 5f of the vehicle 5. The peripheral image of the vehicle 5 can be acquired by having the in-vehicle cameras 21 to 24 take a picture of the periphery of the vehicle. The image processing device 1 transmits a command to the photographing unit 2 instructing the in-vehicle cameras 21 to 24 to photograph the surroundings of the vehicle. The image processing device 1 acquires captured images taken by the in-vehicle cameras 21 to 24 via the image acquisition unit 121 and stores them in the storage unit 13.

図4に戻って、次に、接触位置及び接触方向が検出される(ステップS104)。例えば、接触位置及び接触方向は、車載カメラ21~24に撮影させた車両周辺の撮影画像に基づいて検出される。接近検出部123は、車両5に対して外部から接触する人Trの接触位置及び接触方向を検出する。また例えば、接触位置及び接触方向は、センサ部3の超音波センサ、レーダを用いても検出することができる。 Returning to FIG. 4, the contact position and contact direction are then detected (step S104). For example, the contact position and the contact direction are detected based on the captured images around the vehicle taken by the vehicle-mounted cameras 21 to 24. The approach detection unit 123 detects the contact position and contact direction of the person Tr that comes into contact with the vehicle 5 from the outside. Further, for example, the contact position and the contact direction can be detected by using an ultrasonic sensor or a radar of the sensor unit 3.

次に、仮想視点画像が生成される(ステップS105)。画像生成部11は、ステップS103で取得し、記憶部13に記憶した車両周辺の複数の撮影画像に基づき、仮想視点から見た車両5の周辺の様子を示す仮想視点画像を生成する。 Next, a virtual viewpoint image is generated (step S105). The image generation unit 11 generates a virtual viewpoint image showing the state of the surroundings of the vehicle 5 as seen from a virtual viewpoint, based on a plurality of captured images around the vehicle acquired in step S103 and stored in the storage unit 13.

次に、画像生成部11は、車両5の透過像5tを含む車外画像Pxを生成し、記憶部13に記憶させる(ステップS106)。図6は、車外画像Pxの第1例を示す模式図である。例えば、本実施形態では、ステップS104において、車両5の左前部5fで、車両5への外部からの接触を検出したこととする。これにより、画像生成部11は、車両5の内部の所定位置である運転者の視点付近を視点位置とし、当該視点位置から見た接触の位置の方向である車両5の左前部5fを視線方向とした仮想視点VPx(図5参照)に基づき、図6に示す車外画像Pxを生成する。 Next, the image generation unit 11 generates an external image Px including the transmission image 5t of the vehicle 5 and stores it in the storage unit 13 (step S106). FIG. 6 is a schematic view showing a first example of the vehicle exterior image Px. For example, in the present embodiment, it is assumed that in step S104, an external contact with the vehicle 5 is detected at the left front portion 5f of the vehicle 5. As a result, the image generation unit 11 sets the vicinity of the driver's viewpoint, which is a predetermined position inside the vehicle 5, as the viewpoint position, and the left front portion 5f of the vehicle 5, which is the direction of the contact position as seen from the viewpoint position, is the line-of-sight direction. The vehicle exterior image Px shown in FIG. 6 is generated based on the virtual viewpoint VPx (see FIG. 5).

車外画像Pxは、画像生成部11が生成した仮想視点画像に、車両5の像を透過像5tとして含む。車外画像Pxの仮想視点画像には、車両5に接触した人Trの像Tpが含まれる。さらに、画像生成部11は、車外画像Pxの仮想視点画像に基づき、外部装置4で表示するための車外画像Pxの表示用画像を生成する。 The vehicle exterior image Px includes an image of the vehicle 5 as a transmission image 5t in the virtual viewpoint image generated by the image generation unit 11. The virtual viewpoint image of the vehicle exterior image Px includes the image Tp of the person Tr in contact with the vehicle 5. Further, the image generation unit 11 generates a display image of the vehicle exterior image Px for display by the external device 4 based on the virtual viewpoint image of the vehicle exterior image Px.

なお、図6及び後述する図7において、車外画像Pxに含まれる車両5に接触した人Trの像Tpは簡略化して描画されているが、実際には、接触した人Trが不審者であるか否かを識別可能な程度に表示される。さらに、後述する他の図面の人Trの像Tpについても同様である。 In FIG. 6 and FIG. 7 described later, the image Tp of the person Tr in contact with the vehicle 5 included in the external image Px is drawn in a simplified manner, but in reality, the person Tr in contact is a suspicious person. It is displayed to the extent that it can be identified. Further, the same applies to the image Tp of the human Tr in other drawings described later.

図4に戻って、次に、通信部14が、車外画像Pxを外部装置4に対して送信する(ステップS107)。画像処理装置1は、例えば車外画像Pxの表示用画像が添付された電子メール等を作成し、当該電子メールを通信部14を介して外部装置4に送信する。電子メール等には、例えば車両5に対して人Trが接触したことを知らせる旨のメッセージが記載される。 Returning to FIG. 4, the communication unit 14 then transmits the vehicle exterior image Px to the external device 4 (step S107). The image processing device 1 creates, for example, an e-mail or the like to which a display image of the vehicle exterior image Px is attached, and transmits the e-mail to the external device 4 via the communication unit 14. In the e-mail or the like, for example, a message notifying that the human Tr has contacted the vehicle 5 is described.

図7は、車外画像Pxの第1例が表示された外部装置4を示す模式図である。例えば、スマートフォン等の携帯端末である外部装置4では、表示部41に車外画像Pxを表示させることができる。車外画像Pxが外部装置4に対して送信されると、図4に示す処理フローが終了される。 FIG. 7 is a schematic view showing an external device 4 on which the first example of the vehicle exterior image Px is displayed. For example, in the external device 4 which is a mobile terminal such as a smartphone, the display unit 41 can display the image Px outside the vehicle. When the vehicle exterior image Px is transmitted to the external device 4, the processing flow shown in FIG. 4 is terminated.

なお、車外画像Pxの外部装置4への送信は、電子メール等に画像データを添付して行うほか、例えば、車外画像Pxが保存されたネットワーク上のアドレスを送信することでも行うことが可能である。この場合、車外画像Pxは、画像処理装置1の記憶部13、またはネットワーク上の他の外部装置(サーバ等)に保存される。 The image Px outside the vehicle can be transmitted to the external device 4 by attaching the image data to an e-mail or the like, or by transmitting, for example, an address on the network in which the image Px outside the vehicle is stored. be. In this case, the vehicle exterior image Px is stored in the storage unit 13 of the image processing device 1 or another external device (server or the like) on the network.

また、外部装置4で表示可能な車外画像Pxは、既に撮影済みの画像(静止画)であるほか、画像生成部11によって生成される撮影済みの車外画像Pxの映像(動画)であっても良い。さらに、この車外画像Pxの映像(動画)は、現在の状況を示すリアルタイム(生中継)の映像であっても良い。これらの場合、画像処理装置1から外部装置4に送信される電子メール等には、リアルタイムの車外画像Pxである映像にアクセスするためのネットワークアドレス、閲覧方法等を知らせる旨のメッセージが記載される。 Further, the vehicle exterior image Px that can be displayed by the external device 4 is an image (still image) that has already been captured, or even a video (moving image) of the captured vehicle exterior image Px generated by the image generation unit 11. good. Further, the video (moving image) of the external image Px may be a real-time (live broadcast) video showing the current situation. In these cases, the e-mail or the like transmitted from the image processing device 1 to the external device 4 contains a message notifying the network address, viewing method, etc. for accessing the video which is the real-time external image Px. ..

また、車外画像Pxの静止画及び動画は、記録、録画することができる。車外画像Pxの静止画及び動画の記録、録画は、画像処理装置1の記憶部13で行っても良いし、外部装置4の記憶部(不図示)で行っても良い。車外画像Pxを外部装置4に記録させる場合、通信部14は、車外画像Px自体の送信に加えて、車外画像Pxの記録に係る指令を外部装置4に対して送信する。 Further, the still image and the moving image of the vehicle exterior image Px can be recorded and recorded. The recording and recording of the still image and the moving image of the external image Px may be performed by the storage unit 13 of the image processing device 1 or may be performed by the storage unit (not shown) of the external device 4. When the external device 4 is to record the external image Px, the communication unit 14 transmits a command related to the recording of the external image Px to the external device 4 in addition to transmitting the external image Px itself.

また、外部装置4の表示部41では、車外画像Px及びそのリアルタイム映像に対して、例えば拡大、縮小などといった操作を行うことができる。この場合、例えば表示部41に備えられたタッチパネル等を用いて操作することができる。 In addition, the display unit 41 of the external device 4 can perform operations such as enlargement and reduction of the image Px outside the vehicle and its real-time image. In this case, for example, the operation can be performed using a touch panel or the like provided on the display unit 41.

また、外部装置4の表示部41において、車外画像Px及びそのリアルタイム映像は、自由に視点切替ができることにしても良い。この場合、例えば表示部41に備えられたタッチパネル等を用いて操作し、視点切替を行うことができる。 Further, on the display unit 41 of the external device 4, the viewpoint of the external image Px and its real-time image may be freely switched. In this case, for example, the viewpoint can be switched by operating using a touch panel or the like provided on the display unit 41.

具体的には、外部装置4の表示部41において、タッチパネル等を用いて新たな視点位置及び視線方向が決定される。外部装置4は、決定した視点位置及び視線方向の情報(以下、視線情報という)を通信部14に送信する。画像制御部122は、通信部14を介して受信した視線情報に基づき画像生成部11に新たな車外画像Pxまたはリアルタイム映像を生成させ、通信部14から外部装置4に送信する。このようにして、外部装置4で視点位置及び視線方向が変更されると、その変更された新たな車外画像Pxまたはリアルタイム映像が外部装置4の表示部41に表示される。さらに、視点位置が異なる複数の車外画像Pxを同時に、表示部41に表示させることにしても良い。 Specifically, on the display unit 41 of the external device 4, a new viewpoint position and line-of-sight direction are determined using a touch panel or the like. The external device 4 transmits the determined viewpoint position and line-of-sight direction information (hereinafter referred to as line-of-sight information) to the communication unit 14. The image control unit 122 causes the image generation unit 11 to generate a new vehicle exterior image Px or real-time image based on the line-of-sight information received via the communication unit 14, and transmits the new vehicle exterior image Px or real-time image from the communication unit 14 to the external device 4. In this way, when the viewpoint position and the line-of-sight direction are changed by the external device 4, the changed new external image Px or real-time image is displayed on the display unit 41 of the external device 4. Further, a plurality of vehicle exterior image Px having different viewpoint positions may be displayed on the display unit 41 at the same time.

上記のように、本実施形態の画像処理装置1は、車両5への外部からの接触を検出した場合に、仮想視点画像に車両5の像を透過像5tとして含む車外画像Pxを生成し、当該車外画像Pxを外部装置4に対して送信する。これにより、車両5に接触した人Trの顔や行動を、車外画像Pxとして確認することができる。すなわち、車両5に危害が加えられた際に、状況把握や事後対応において有効な車外画像Pxを得ることが可能になる。 As described above, when the image processing device 1 of the present embodiment detects an external contact with the vehicle 5, it generates an external image Px including the image of the vehicle 5 as a transmission image 5t in the virtual viewpoint image. The vehicle exterior image Px is transmitted to the external device 4. As a result, the face and behavior of the person Tr who has come into contact with the vehicle 5 can be confirmed as the image Px outside the vehicle. That is, when the vehicle 5 is harmed, it is possible to obtain an external image Px that is effective in grasping the situation and responding after the fact.

また、接近検出部123は、車両5の振動または傾きに基づいて車両5への外部からの接触を検出する。これにより、車両5への物体の接触のタイミングを、適正に判別することができる。そして、車両5への物体の接触の直後から、車両5に接触した人Trの顔や行動を、車外画像Pxとして確認することが可能である。 Further, the approach detection unit 123 detects contact from the outside with the vehicle 5 based on the vibration or inclination of the vehicle 5. Thereby, the timing of the contact of the object with the vehicle 5 can be appropriately determined. Immediately after the object comes into contact with the vehicle 5, the face and behavior of the person Tr who has come into contact with the vehicle 5 can be confirmed as an external image Px.

また、接近検出部123は、車両5の内部に乗員がいないことを検出し、さらに車両5への外部からの接触の検出を開始する。これにより、画像処理装置1は、車両5の内部に乗員がいる場合に作動せず、適正なタイミングで作動させることが可能である。 Further, the approach detection unit 123 detects that there is no occupant inside the vehicle 5, and further starts detecting contact with the vehicle 5 from the outside. As a result, the image processing device 1 does not operate when there is an occupant inside the vehicle 5, and can be operated at an appropriate timing.

また、外部装置4に送信される車外画像Pxは、静止画または動画である。さらに、車外画像Pxの動画は、生中継の映像である。これらにより、例えば静止画、動画及び生中継映像によって、車両5に接触した人Trの顔や行動を見ることができる。したがって、車両5に危害が加えられた際の、状況把握や事後対応において一層有効である。 Further, the vehicle exterior image Px transmitted to the external device 4 is a still image or a moving image. Further, the moving image of the outside vehicle image Px is a live broadcast image. As a result, the face and behavior of the person Tr who has come into contact with the vehicle 5 can be seen, for example, by still images, moving images, and live broadcast images. Therefore, it is more effective in grasping the situation and responding after the fact when the vehicle 5 is harmed.

また、画像処理装置1は、車外画像Pxの記録が可能な記憶部13を備える。これにより、任意のタイミングで、画像処理装置1の車外画像Pxを見ることが可能である。 Further, the image processing device 1 includes a storage unit 13 capable of recording an image Px outside the vehicle. Thereby, it is possible to see the vehicle exterior image Px of the image processing device 1 at an arbitrary timing.

また、通信部14は、車外画像Px自体の送信に加えて、車外画像Pxの記録に係る指令を外部装置4に対して送信する。これにより、車外画像Pxを外部装置4に記録させることができる。したがって、外部装置4において、任意のタイミングで、画像処理装置1の車外画像Pxを見ることが可能である。 Further, in addition to transmitting the vehicle exterior image Px itself, the communication unit 14 transmits a command related to recording the vehicle exterior image Px to the external device 4. As a result, the vehicle exterior image Px can be recorded in the external device 4. Therefore, in the external device 4, it is possible to see the vehicle exterior image Px of the image processing device 1 at an arbitrary timing.

<4-1-1.第1実施形態の変形例>
図8は、第1実施形態の変形例の車内画像Pyの例を示す模式図である。変形例の画像処理装置1は、画像生成部11が車内画像Pyを生成する。画像生成部11は、車外画像Pxに加えて、さらに車両5の内部が撮影された車内画像Pyを生成する。
<4-1-1. Modification example of the first embodiment>
FIG. 8 is a schematic view showing an example of an in-vehicle image Py of a modified example of the first embodiment. In the image processing device 1 of the modified example, the image generation unit 11 generates the in-vehicle image Py. The image generation unit 11 further generates an in-vehicle image Py in which the inside of the vehicle 5 is photographed in addition to the in-vehicle image Px.

車内画像Pyには、車内カメラ25が撮影した撮影画像が用いられる。例えば、車両5の内部に人Trが侵入した場合、車内画像Pyには、車両5の内部を表す像に、車両5に侵入した人Trの像Tpが含まれる。さらに、画像生成部11は、車内画像Pyに基づき、外部装置4で表示するための車内画像Pyの表示用画像を生成する。なお、車両5の内部に人Trが侵入したかどうかは、監視モード中にドアがアンロックされることなく開いたことを検出することで判断できるが、それに限定されない。 As the in-vehicle image Py, a photographed image taken by the in-vehicle camera 25 is used. For example, when a human Tr invades the inside of the vehicle 5, the in-vehicle image Py includes the image Tp of the human Tr invading the vehicle 5 in the image representing the inside of the vehicle 5. Further, the image generation unit 11 generates a display image of the vehicle interior image Py to be displayed by the external device 4 based on the vehicle interior image Py. Whether or not a human Tr has invaded the inside of the vehicle 5 can be determined by detecting that the door is opened without being unlocked during the monitoring mode, but the present invention is not limited to this.

通信部14は、車外画像Pxに加えて、さらに車内画像Pyを外部装置4に対して送信する。画像処理装置1は、例えば車外画像Pxの表示用画像及び車内画像Pyの表示用画像が添付された電子メール等を作成し、当該電子メールを通信部14を介して外部装置4に送信する。電子メール等には、例えば車両5の内部に人Trが侵入したことを知らせる旨のメッセージが記載される。 The communication unit 14 further transmits the in-vehicle image Py to the external device 4 in addition to the in-vehicle image Px. The image processing device 1 creates, for example, an e-mail or the like to which a display image of the vehicle exterior image Px and a display image of the vehicle interior image Py are attached, and transmits the e-mail to the external device 4 via the communication unit 14. In the e-mail or the like, for example, a message notifying that the human Tr has invaded the inside of the vehicle 5 is described.

図9は、車外画像Px及び車内画像Pyが表示された外部装置4の例を示す模式図である。例えば、スマートフォン等の携帯端末である外部装置4では、表示部41に車外画像Px及び車内画像Pyを表示させることができる。 FIG. 9 is a schematic view showing an example of an external device 4 on which the vehicle exterior image Px and the vehicle interior image Py are displayed. For example, in the external device 4 which is a mobile terminal such as a smartphone, the display unit 41 can display the vehicle exterior image Px and the vehicle interior image Py.

なお、外部装置4の表示部41では、車外画像Px及び車内画像Pyの両方を同時に表示させても良いし、車外画像Px及び車内画像Pyのいずれか一方を個別に選択して表示させても良い。 The display unit 41 of the external device 4 may display both the outside image Px and the inside image Py at the same time, or may individually select and display either the outside image Px or the inside image Py. good.

この構成によれば、車両5の内部に侵入した人Trの顔や行動を、車内画像Pyとして確認することができる。すなわち、車両5に危害が加えられた際に、状況把握や事後対応においてより一層有効な車外画像Px及び車内画像Pyを得ることが可能になる。 According to this configuration, the face and behavior of the person Tr who has invaded the inside of the vehicle 5 can be confirmed as an in-vehicle image Py. That is, when the vehicle 5 is harmed, it becomes possible to obtain an outside image Px and an inside image Py that are even more effective in grasping the situation and responding after the fact.

<4-2.第2実施形態>
図10は、第2実施形態の車外画像Pxの生成、送信に係る処理フローの例を示すフローチャートである。なお、第2実施形態の基本的な構成は先に説明した第1実施形態と同じであるので、第1実施形態と異なる構成については以下で説明し、第1実施形態と共通する構成については詳細な説明を省略する。
<4-2. Second Embodiment>
FIG. 10 is a flowchart showing an example of a processing flow related to the generation and transmission of the vehicle exterior image Px of the second embodiment. Since the basic configuration of the second embodiment is the same as that of the first embodiment described above, the configuration different from the first embodiment will be described below, and the configuration common to the first embodiment will be described below. A detailed description will be omitted.

第2実施形態の画像処理装置1は、接近検出部123が、車両5に接近する物体を検出し、当該物体による車両5への接触を予測する。すなわち、図10に示すように、まず、車両5では、車両5に対して外部から接近する人や動物、車両、その他の物体が接近検出部123によって監視される(ステップS201)。画像処理装置1では、例えば車両5の内部に乗員がいなくなった場合等の所定の開始条件が成立すると、監視モードとなり、車両5への外部からの接近の監視が開始される。 In the image processing device 1 of the second embodiment, the approach detection unit 123 detects an object approaching the vehicle 5 and predicts the contact of the object with the vehicle 5. That is, as shown in FIG. 10, first, in the vehicle 5, a person, an animal, a vehicle, or another object approaching the vehicle 5 from the outside is monitored by the approach detection unit 123 (step S201). In the image processing device 1, when a predetermined start condition such as when there is no occupant inside the vehicle 5 is satisfied, the monitoring mode is set and the monitoring of the approach to the vehicle 5 from the outside is started.

次に、車両5への外部からの接近を検出したか否かが判定される(ステップS202)。車両5に接近する物体の検出に関して、詳細には、接近検出部123は、物体が車両5から所定範囲内に進入することで、物体による車両5への接触を予測する。車両5からの所定範囲としては、例えば半径3m以内などといった範囲を任意に設定することができる。車両周辺の人や動物、車両、その他の物体の検出には、例えばセンサ部3の超音波センサ、レーダの検出信号、またはカメラ21~24の撮影画像による画像認識に基づき判定される。 Next, it is determined whether or not the approach to the vehicle 5 from the outside is detected (step S202). Regarding the detection of an object approaching the vehicle 5, in detail, the approach detection unit 123 predicts the contact of the object with the vehicle 5 by entering the object within a predetermined range from the vehicle 5. As a predetermined range from the vehicle 5, for example, a range such as within a radius of 3 m can be arbitrarily set. The detection of people, animals, vehicles, and other objects around the vehicle is determined based on, for example, image recognition based on the ultrasonic sensor of the sensor unit 3, the detection signal of the radar, or the captured image of the cameras 21 to 24.

車両5への外部からの接近を検出した場合(ステップS202のYes)、車両5の周辺画像の取得が行われる(ステップS203)。以下、接近位置及び接近方向の検出(ステップS204)、仮想視点画像の生成(ステップS205)、車両5の透過像5tを含む車外画像Pxの生成及び記憶(ステップS206)、車外画像Pxの外部装置4への送信(ステップS207)が、順次行われる。 When the approach to the vehicle 5 from the outside is detected (Yes in step S202), the peripheral image of the vehicle 5 is acquired (step S203). Hereinafter, detection of the approaching position and approaching direction (step S204), generation of a virtual viewpoint image (step S205), generation and storage of an external image Px including a transmission image 5t of the vehicle 5 (step S206), an external device of the external device Px. The transmission to 4 (step S207) is sequentially performed.

なお、本実施形態では、車両5に接近する物体を検出し、当該物体による車両5への接触を予測するので、予測される接触の位置は、車両5に接近する物体の位置である。図11は、車両5への外部からの接近の状況を示す説明図である。図12は、車外画像Pxの第2例を示す模式図である。。図11及び図12は、例えば図5及び図6を用いて説明した車外画像Pxの第1例の、車両5への人Trの接触の直前の状況を示す図である。すなわち、車外画像Pxの第2例において車両5に接近する人Trの位置は、車両5の左前部5fである。 In the present embodiment, an object approaching the vehicle 5 is detected and the contact of the object with the vehicle 5 is predicted. Therefore, the predicted contact position is the position of the object approaching the vehicle 5. FIG. 11 is an explanatory diagram showing a situation of approaching the vehicle 5 from the outside. FIG. 12 is a schematic view showing a second example of the vehicle exterior image Px. .. 11 and 12 are diagrams showing a situation immediately before the contact of the human Tr with the vehicle 5 in the first example of the vehicle exterior image Px described with reference to, for example, FIGS. 5 and 6. That is, in the second example of the external image Px, the position of the person Tr approaching the vehicle 5 is the left front portion 5f of the vehicle 5.

したがって、画像生成部11は、車両5の内部の所定位置である運転者の視点付近を視点位置とし、当該視点位置から見た車両5に接近する人Trの位置である車両5の左前部5fの方向を視線方向とした仮想視点に基づき、車外画像Pxを生成する(ステップS206)。車外画像Pxの仮想視点画像には、車両5の透過像5tに加えて、車両5に接近する人Trの像Tpが含まれる。 Therefore, the image generation unit 11 has the viewpoint position near the driver's viewpoint, which is a predetermined position inside the vehicle 5, and the left front portion 5f of the vehicle 5, which is the position of the person Tr approaching the vehicle 5 as seen from the viewpoint position. The vehicle exterior image Px is generated based on the virtual viewpoint with the direction of the line of sight as the line-of-sight direction (step S206). The virtual viewpoint image of the vehicle exterior image Px includes an image Tp of a person Tr approaching the vehicle 5 in addition to the transmission image 5t of the vehicle 5.

ステップS203~S205、S207の詳細は、第1実施形態と同様であるので、説明を省略する。 The details of steps S203 to S205 and S207 are the same as those in the first embodiment, and thus the description thereof will be omitted.

上記のように、第2実施形態の画像処理装置1は、接近検出部123が、車両5に接近する物体(人Tr)を検出し、物体(人Tr)による車両5への接触を予測する。これにより、人Trが車両5に接近する段階において、その人Trの顔や行動を車外画像Pxとして確認することができる。すなわち、その後、車両5に危害が加えられた際に、状況把握や事後対応において有効な車外画像Pxを得ることが可能になる。 As described above, in the image processing device 1 of the second embodiment, the approach detection unit 123 detects an object (human Tr) approaching the vehicle 5 and predicts the contact of the object (human Tr) with the vehicle 5. .. As a result, when the human Tr approaches the vehicle 5, the face and behavior of the human Tr can be confirmed as an external image Px. That is, after that, when the vehicle 5 is harmed, it becomes possible to obtain an external image Px that is effective in grasping the situation and responding after the fact.

<4-3.第3実施形態>
図13は、第3実施形態の車外画像Pxの生成、送信に係る処理フローの例を示すフローチャートである。なお、第3実施形態の基本的な構成は先に説明した第1及び第2の実施形態と同じであるので、これらの実施形態と異なる構成については以下で説明し、これらの実施形態と共通する構成については詳細な説明を省略する。
<4-3. Third Embodiment>
FIG. 13 is a flowchart showing an example of a processing flow related to the generation and transmission of the vehicle exterior image Px of the third embodiment. Since the basic configuration of the third embodiment is the same as that of the first and second embodiments described above, configurations different from these embodiments will be described below and are common to these embodiments. A detailed description of the configuration to be performed will be omitted.

第3実施形態の画像処理装置1では、図13に示すように、まず、車両5では、車両5に対して外部から接近する人や動物、車両、その他の物体が接近検出部123によって監視される(ステップS301)。画像処理装置1では、例えば車両5の内部に乗員がいなくなった場合等の所定の開始条件が成立すると、監視モードとなり、車両5への外部からの接近の監視が開始される。 In the image processing device 1 of the third embodiment, as shown in FIG. 13, first, in the vehicle 5, a person, an animal, a vehicle, or another object approaching the vehicle 5 from the outside is monitored by the approach detection unit 123. (Step S301). In the image processing device 1, when a predetermined start condition such as when there is no occupant inside the vehicle 5 is satisfied, the monitoring mode is set and the monitoring of the approach to the vehicle 5 from the outside is started.

次に、車両5への外部からの接近を検出したか否かが判定される(ステップS302)。車両5に接近する物体の検出に関して、詳細には、接近検出部123は、物体が車両5から所定範囲内(例えば半径3m以内)に進入することで、物体による車両5への接触を予測する。車両周辺の人や動物、車両、その他の物体の検出は、例えばセンサ部3の超音波センサ、レーダの検出信号、またはカメラ21~24の撮影画像による画像認識に基づき判定される。 Next, it is determined whether or not the approach to the vehicle 5 from the outside is detected (step S302). Regarding the detection of an object approaching the vehicle 5, in detail, the approach detection unit 123 predicts the contact of the object with the vehicle 5 by entering the object within a predetermined range (for example, within a radius of 3 m) from the vehicle 5. .. Detection of people, animals, vehicles, and other objects around the vehicle is determined based on, for example, image recognition based on the ultrasonic sensor of the sensor unit 3, the detection signal of the radar, or the captured image of the cameras 21 to 24.

車両5への外部からの接近を検出した場合(ステップS302のYes)、物体が車両5に接近した状態で、所定時間経過したか否かが判定される(ステップS303)。詳細には、接近検出部123は、物体が車両5への接近後、物体が所定時間、車両5から所定範囲内に滞在することで、物体による車両5への接触を予測する。物体の滞在に係る所定時間としては、例えば1分などといった時間を任意に設定することができる。車両周辺の物体の検出は、引き続き、例えばセンサ部3の超音波センサ、レーダの検出信号等に基づき判定される。 When the approach to the vehicle 5 from the outside is detected (Yes in step S302), it is determined whether or not a predetermined time has elapsed while the object is approaching the vehicle 5 (step S303). Specifically, the approach detection unit 123 predicts the contact of the object with the vehicle 5 by staying within a predetermined range from the vehicle 5 for a predetermined time after the object approaches the vehicle 5. As the predetermined time for staying the object, a time such as 1 minute can be arbitrarily set. The detection of an object around the vehicle is subsequently determined based on, for example, an ultrasonic sensor of the sensor unit 3, a radar detection signal, or the like.

物体が車両5に接近した状態で、所定時間経過していない場合(ステップS303のNo)、ステップS302に戻って、物体の接近状態の監視が継続される。さらに、車両5への物体の接近を検出しない場合、または車両5への物体の接近を検出しなくなった場合(ステップS302のNo)、ステップS301に戻って、車両5への物体の接近の監視が継続される。 When the object is approaching the vehicle 5 and the predetermined time has not elapsed (No in step S303), the process returns to step S302 and the monitoring of the approaching state of the object is continued. Further, when the approach of the object to the vehicle 5 is not detected, or when the approach of the object to the vehicle 5 is not detected (No in step S302), the process returns to step S301 to monitor the approach of the object to the vehicle 5. Is continued.

物体が車両5に接近した状態で、所定時間経過した場合(ステップS303のYes)、車両5の周辺画像の取得が行われる(ステップS304)。以下、接近位置及び接近方向の検出(ステップS305)、仮想視点画像の生成(ステップS306)、車両5の透過像5tを含む車外画像Pxの生成及び記憶(ステップS307)、車外画像Pxの外部装置4への送信(ステップS308)が、順次行われる。ステップS304~ステップS308の詳細は、第1及び第2の実施形態と同様であるので、説明を省略する。 When a predetermined time elapses with the object approaching the vehicle 5 (Yes in step S303), the peripheral image of the vehicle 5 is acquired (step S304). Hereinafter, detection of the approaching position and approaching direction (step S305), generation of a virtual viewpoint image (step S306), generation and storage of an external image Px including a transmission image 5t of the vehicle 5 (step S307), an external device of the external device Px. The transmission to 4 (step S308) is sequentially performed. The details of steps S304 to S308 are the same as those of the first and second embodiments, and thus the description thereof will be omitted.

上記のように、第3実施形態の画像処理装置1は、接近検出部123が、物体が車両5への接近後、物体が所定時間、車両5から所定範囲内に滞在することで、物体による車両5への接触を予測する。これにより、例えば人が車両5に接近し、車両周辺に長く滞在した場合に、その人の顔や行動を車外画像Pxとして確認することができる。そして、例えば車両周辺を人や動物、車両、その他の物体が単に通過しただけの場合に、車外画像Pxの生成、送信を行わないようにすることができる。したがって、効率良く、車両5に危害が加えられた際の、状況把握や事後対応において有効な車外画像Pxを得ることが可能になる。 As described above, in the image processing device 1 of the third embodiment, the approach detection unit 123 depends on the object by allowing the object to stay within a predetermined range from the vehicle 5 for a predetermined time after the object approaches the vehicle 5. Predict contact with vehicle 5. Thereby, for example, when a person approaches the vehicle 5 and stays in the vicinity of the vehicle for a long time, the face and behavior of the person can be confirmed as an outside image Px. Then, for example, when a person, an animal, a vehicle, or another object simply passes around the vehicle, the external image Px can be prevented from being generated or transmitted. Therefore, it is possible to efficiently obtain an external image Px that is effective in grasping the situation and responding after the fact when the vehicle 5 is harmed.

<4-4.第4実施形態>
図14は、第4実施形態の車外画像Pxの生成、送信に係る処理フローの例を示すフローチャートである。なお、第4実施形態の基本的な構成は先に説明した第1、第2及び第3の実施形態と同じであるので、これらの実施形態と異なる構成については以下で説明し、これらの実施形態と共通する構成については詳細な説明を省略する。
<4-4. Fourth Embodiment>
FIG. 14 is a flowchart showing an example of a processing flow related to the generation and transmission of the vehicle exterior image Px of the fourth embodiment. Since the basic configuration of the fourth embodiment is the same as that of the first, second, and third embodiments described above, configurations different from these embodiments will be described below, and these embodiments will be described. Detailed description of the configuration common to the form will be omitted.

第4実施形態の画像処理装置1では、図14に示すように、まず、車両5では、車両5に対して外部から接近する人や動物、車両、その他の物体が接近検出部123によって監視される(ステップS401)。以下、車両5への物体の接近の判定(ステップS402)、車両5の周辺画像の取得(ステップS403)、接近位置及び接近方向の検出(ステップS404)、仮想視点画像の生成(ステップS405)、車両5の透過像5tを含む車外画像Pxの生成及び記憶(ステップS406)が、順次行われる。ステップS401~ステップS406の詳細は、第1及び第2の実施形態と同様であるので、説明を省略する。 In the image processing device 1 of the fourth embodiment, as shown in FIG. 14, first, in the vehicle 5, a person, an animal, a vehicle, or another object approaching the vehicle 5 from the outside is monitored by the approach detection unit 123. (Step S401). Hereinafter, determination of the approach of an object to the vehicle 5 (step S402), acquisition of a peripheral image of the vehicle 5 (step S403), detection of an approach position and approach direction (step S404), generation of a virtual viewpoint image (step S405), Generation and storage (step S406) of the external image Px including the transmission image 5t of the vehicle 5 is sequentially performed. The details of steps S401 to S406 are the same as those of the first and second embodiments, and thus the description thereof will be omitted.

次に、車両5への外部からの接触を検出したか否かが判定される(ステップS407)。車両5への外部からの接触は、例えばセンサ部3の振動センサ、傾斜センサ、超音波センサ、レーダ等の検出信号に基づき判定される。 Next, it is determined whether or not an external contact with the vehicle 5 has been detected (step S407). External contact with the vehicle 5 is determined based on detection signals of, for example, a vibration sensor, an inclination sensor, an ultrasonic sensor, a radar, or the like of the sensor unit 3.

車両5への外部からの接触を検出した場合(ステップS407のYes)、通信部14が、車外画像Pxを外部装置4に対して送信する(ステップS408)。車外画像Pxが外部装置4に対して送信されると、図14に示す処理フローが終了される。 When an external contact with the vehicle 5 is detected (Yes in step S407), the communication unit 14 transmits the vehicle exterior image Px to the external device 4 (step S408). When the vehicle exterior image Px is transmitted to the external device 4, the processing flow shown in FIG. 14 is terminated.

車両5への外部からの接触を検出しない場合(ステップS407のNo)、物体が車両5に接近した状態であるか否かが判定される(ステップS409)。引き続き、車両周辺の物体の検出は、例えばセンサ部3の超音波センサ、レーダの検出信号等に基づき判定される。物体が車両5に接近した状態である場合(ステップS409のYes)、ステップS407に戻って、車両5への物体の接触の判定が行われる。 When no external contact with the vehicle 5 is detected (No in step S407), it is determined whether or not the object is in a state of approaching the vehicle 5 (step S409). Subsequently, the detection of an object around the vehicle is determined based on, for example, the ultrasonic sensor of the sensor unit 3, the detection signal of the radar, and the like. When the object is in a state of approaching the vehicle 5 (Yes in step S409), the process returns to step S407 to determine the contact of the object with the vehicle 5.

車両5への物体の接近を検出しなくなった場合(ステップS409のNo)、ステップS406で生成された車外画像Pxは破棄される(ステップS410)。すなわち、画像処理装置1は、一時的に記憶部13に記憶させた車外画像Pxを消去する。そして、ステップS401に戻って、車両5への物体の接近の監視が継続される。 When the approach of the object to the vehicle 5 is no longer detected (No in step S409), the outside image Px generated in step S406 is discarded (step S410). That is, the image processing device 1 erases the vehicle exterior image Px temporarily stored in the storage unit 13. Then, returning to step S401, monitoring of the approach of the object to the vehicle 5 is continued.

上記のように、第4実施形態の画像処理装置1は、接近検出部123が車両5への外部からの接触を予測した場合に、画像生成部11が車外画像Pxの生成を開始し、さらに接近検出部123が車両5への外部からの接触を検出した場合に、通信部14が車外画像Pxを外部装置4に対して送信する。これにより、例えば人が車両5に接近する段階において、迅速に、その人の顔や行動を車外画像Pxとして確認することができる。さらに、実際に車両5に接触した場合のみ、その車外画像Pxを外部装置4に対して送信することができる。したがって、より一層効率良く、車両5に危害が加えられた際の、状況把握や事後対応において有効な車外画像Pxを得ることが可能になる。 As described above, in the image processing device 1 of the fourth embodiment, when the approach detection unit 123 predicts the external contact with the vehicle 5, the image generation unit 11 starts generating the external image Px, and further. When the approach detection unit 123 detects an external contact with the vehicle 5, the communication unit 14 transmits the vehicle exterior image Px to the external device 4. As a result, for example, when a person approaches the vehicle 5, the face and behavior of the person can be quickly confirmed as an external image Px. Further, only when the vehicle actually touches the vehicle 5, the vehicle exterior image Px can be transmitted to the external device 4. Therefore, it becomes possible to obtain an external image Px that is more efficient and effective in grasping the situation and responding after the fact when the vehicle 5 is harmed.

また、車外画像Pxは、接近検出部123が車両5への接触を予測したこと、すなわち車両5への接近を検出したことに基づいて記憶部13に記憶され、記憶部13に記憶された当該車外画像Pxは、接近検出部123が車両5への接触を検出した場合に、記憶部13に保存され、接近検出部123が車両5への接触を予測しなくなった、すなわち車両5への接近を検出しなくなった場合に、記憶部13から破棄される。したがって、記憶部13の記憶容量を有効に活用することができる。 Further, the external image Px is stored in the storage unit 13 based on the fact that the approach detection unit 123 predicts the contact with the vehicle 5, that is, the detection of the approach to the vehicle 5, and is stored in the storage unit 13. The vehicle exterior image Px is stored in the storage unit 13 when the approach detection unit 123 detects contact with the vehicle 5, and the approach detection unit 123 no longer predicts contact with the vehicle 5, that is, the approach to the vehicle 5. When is no longer detected, it is discarded from the storage unit 13. Therefore, the storage capacity of the storage unit 13 can be effectively utilized.

<5.その他>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は全ての点で例示であって、制限的なものではないと考えられるべきである。本発明の技術的範囲は上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、上記の複数の実施形態及び実施例は可能な範囲で組み合わせて実施しても良い。
<5. Others>
The various technical features disclosed herein can be modified in addition to the above embodiments without departing from the spirit of the technical creation. That is, it should be considered that the above embodiment is exemplary in all respects and is not restrictive. It should be understood that the technical scope of the present invention is indicated by the scope of claims, not the description of the above embodiment, and includes all modifications belonging to the meaning and scope equivalent to the scope of claims. Is. Moreover, the above-mentioned plurality of embodiments and examples may be carried out in combination to the extent possible.

例えば、第2、第3及び第4の実施形態において、車外画像Pxに加えて、さらに車内画像Pyを外部装置4に対して送信しても良い。これにより、車両5の状況把握等において、車内画像Pyを有効活用することができる。 For example, in the second, third, and fourth embodiments, in addition to the vehicle exterior image Px, the vehicle interior image Py may be further transmitted to the external device 4. As a result, the in-vehicle image Py can be effectively used in grasping the situation of the vehicle 5.

また、上記実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能のうちの一部は電気的なハードウェア回路によって実現されても良い。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されても良い。 Further, in the above embodiment, it has been explained that various functions are realized by software by the arithmetic processing of the CPU according to the program, but some of these functions are realized by the electric hardware circuit. You may. On the contrary, some of the functions realized by the hardware circuit may be realized by software.

1 画像処理装置
3 センサ部
4 外部装置
5 車両
11 画像生成部
12 制御部
13 記憶部
14 通信部
21 フロントカメラ(車載カメラ)
22 右サイドカメラ(車載カメラ)
23 バックカメラ(車載カメラ)
24 左サイドカメラ(車載カメラ)
123 接近検出部
1 Image processing device 3 Sensor unit 4 External device 5 Vehicle 11 Image generation unit 12 Control unit 13 Storage unit 14 Communication unit 21 Front camera (vehicle-mounted camera)
22 Right side camera (vehicle-mounted camera)
23 Back camera (vehicle-mounted camera)
24 Left side camera (vehicle-mounted camera)
123 Approach detector

Claims (9)

少なくとも車両の室外に搭載されて前記車両の全周囲を撮像する車載カメラで撮影された撮影画像を処理する画像処理装置であって、
前記車両の内部に乗員がいないことを検出した場合に、前記車載カメラが搭載された車両への外部からの接触を予測または検出する接近検出部と、
前記車両の内部の所定位置を視点位置とし、前記視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を透過像として含む車外画像を生成する画像生成部と、
前記車外画像を外部装置に対して送信する通信部と、を備え、
前記接近検出部が前記車両への前記接触を予測または検出した場合に、前記画像生成部が前記車外画像を生成し、当該車外画像を前記通信部を介して前記外部装置に対して送信する画像処理装置。
An image processing device that processes at least an image taken by an in-vehicle camera that is mounted outside the vehicle and captures the entire circumference of the vehicle.
An approach detection unit that predicts or detects external contact with the vehicle equipped with the in-vehicle camera when it detects that there is no occupant inside the vehicle.
An image generation unit that generates an outside image including the image of the vehicle as a transmission image, with a predetermined position inside the vehicle as the viewpoint position and the direction of the contact position as seen from the viewpoint position as the line-of-sight direction.
A communication unit that transmits the outside image to an external device is provided.
When the approach detection unit predicts or detects the contact with the vehicle, the image generation unit generates the vehicle exterior image and transmits the vehicle exterior image to the external device via the communication unit. Processing equipment.
前記接近検出部は、前記車両に接近する物体を検出し、前記物体による前記車両への前記接触を予測する請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the approach detection unit detects an object approaching the vehicle and predicts the contact of the object with the vehicle. 前記接近検出部は、前記物体が前記車両への接近後、前記物体が所定時間、前記車両から所定範囲内に滞在することで、前記物体による前記車両への前記接触を予測する請求項2に記載の画像処理装置。 The approach detection unit according to claim 2 predicts the contact of the object with the vehicle by staying within a predetermined range from the vehicle for a predetermined time after the object approaches the vehicle. The image processing apparatus described. 前記接近検出部が前記車両への前記接触を予測した場合に、前記画像生成部が前記車外画像の生成を開始し、さらに、
前記接近検出部が前記車両への前記接触を検出した場合に、前記通信部が前記車外画像を前記外部装置に対して送信する請求項1から請求項3のいずれかに記載の画像処理装置。
When the approach detection unit predicts the contact with the vehicle, the image generation unit starts generating the outside image, and further
The image processing device according to any one of claims 1 to 3, wherein when the approach detection unit detects the contact with the vehicle, the communication unit transmits the image outside the vehicle to the external device.
前記画像生成部は、前記車外画像の生成とは異なるタイミングである、前記車両の内部に人が侵入したことを判断した場合に、さらに前記車両の内部が撮影された車内画像を生成し、
前記通信部は、さらに前記車内画像を前記外部装置に対して送信する請求項1から請求項4のいずれかに記載の画像処理装置。
The image generation unit further generates an in-vehicle image in which the inside of the vehicle is photographed when it is determined that a person has invaded the inside of the vehicle at a timing different from the generation of the outside image .
The image processing device according to any one of claims 1 to 4, wherein the communication unit further transmits the in-vehicle image to the external device.
前記車外画像の記録が可能な記憶部を備える請求項1から請求項のいずれかに記載の画像処理装置。 The image processing device according to any one of claims 1 to 5 , further comprising a storage unit capable of recording an image outside the vehicle. 前記車外画像は、前記接近検出部が前記車両への前記接触を予測したことに基づいて前記記憶部に記憶され、
前記記憶部に記憶された当該車外画像は、
前記接近検出部が前記車両への前記接触を検出した場合に、前記記憶部に保存され、
前記接近検出部が前記車両への前記接触を予測しなくなった場合に、前記記憶部から破棄される請求項に記載の画像処理装置。
The outside image is stored in the storage unit based on the fact that the approach detection unit predicts the contact with the vehicle.
The image of the outside of the vehicle stored in the storage unit is
When the approach detection unit detects the contact with the vehicle, it is stored in the storage unit.
The image processing device according to claim 6 , wherein when the approach detection unit does not predict the contact with the vehicle, the image processing device is discarded from the storage unit.
前記通信部は、前記車外画像の記録に係る指令を前記外部装置に対して送信する請求項1から請求項のいずれかに記載の画像処理装置。 The image processing device according to any one of claims 1 to 7 , wherein the communication unit transmits a command for recording an image outside the vehicle to the external device. 少なくとも車両の室外に搭載されて前記車両の全周囲を撮像する車載カメラで撮影された撮影画像を処理する画像処理方法であって、
前記車両の内部に乗員がいないことを検出した場合に、前記車載カメラが搭載された車両への外部からの接触を予測または検出する工程と、
前記車両への外部からの接触が予測または検出された場合に、前記車両の内部の所定位置を視点位置とし、前記視点位置から見た前記接触の位置の方向を視線方向とし、前記車両の像を透過像として含む車外画像を生成する工程と、
前記車外画像を外部装置に対して送信する工程と、を含む画像処理方法。
It is an image processing method that processes an image taken by an in-vehicle camera that is mounted at least outside the vehicle and captures the entire circumference of the vehicle.
A process of predicting or detecting external contact with the vehicle equipped with the in-vehicle camera when it is detected that there is no occupant inside the vehicle.
When an external contact with the vehicle is predicted or detected, the predetermined position inside the vehicle is set as the viewpoint position, and the direction of the contact position viewed from the viewpoint position is set as the line-of-sight direction, and the image of the vehicle. And the process of generating an image of the outside of the vehicle including as a transmission image
An image processing method including a step of transmitting an image outside the vehicle to an external device.
JP2017205379A 2017-10-24 2017-10-24 Image processing device and image processing method Active JP7103773B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017205379A JP7103773B2 (en) 2017-10-24 2017-10-24 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017205379A JP7103773B2 (en) 2017-10-24 2017-10-24 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2019080157A JP2019080157A (en) 2019-05-23
JP7103773B2 true JP7103773B2 (en) 2022-07-20

Family

ID=66626579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017205379A Active JP7103773B2 (en) 2017-10-24 2017-10-24 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7103773B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104675A1 (en) 2008-02-20 2009-08-27 クラリオン株式会社 Vehicle peripheral image display system
JP2011207444A (en) 2010-03-30 2011-10-20 Denso Corp Control device for vehicle and security system for vehicle
JP2013162328A (en) 2012-02-06 2013-08-19 Fujitsu Ten Ltd Image processing apparatus, image processing method, program, and image processing system
JP2014067120A (en) 2012-09-25 2014-04-17 Fujitsu Ten Ltd Image generation device, image display system and image generation method
JP2016009250A (en) 2014-06-23 2016-01-18 トヨタ自動車株式会社 Vehicle emergency call system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104675A1 (en) 2008-02-20 2009-08-27 クラリオン株式会社 Vehicle peripheral image display system
JP2011207444A (en) 2010-03-30 2011-10-20 Denso Corp Control device for vehicle and security system for vehicle
JP2013162328A (en) 2012-02-06 2013-08-19 Fujitsu Ten Ltd Image processing apparatus, image processing method, program, and image processing system
JP2014067120A (en) 2012-09-25 2014-04-17 Fujitsu Ten Ltd Image generation device, image display system and image generation method
JP2016009250A (en) 2014-06-23 2016-01-18 トヨタ自動車株式会社 Vehicle emergency call system

Also Published As

Publication number Publication date
JP2019080157A (en) 2019-05-23

Similar Documents

Publication Publication Date Title
CN108958467B (en) Apparatus and method for controlling display of hologram, vehicle system
US10146227B2 (en) Driving assistance apparatus
EP2163428B1 (en) Intelligent driving assistant systems
JP5093611B2 (en) Vehicle periphery confirmation device
US20190286123A1 (en) Remote vehicle control device and remote vehicle control method
US11267394B2 (en) Projection apparatus for indicating a recommended position to observe a movable body, portable device, and recording medium
CN112165609A (en) Image display device and image display system
CN107809577A (en) Vehicle intrusion detection is carried out by panorama camera
JP2010257249A (en) On-vehicle security device
US11092960B2 (en) Remote vehicle control device and remote vehicle control method
US11181909B2 (en) Remote vehicle control device, remote vehicle control system, and remote vehicle control method
JP2013078151A (en) Display device for vehicle
JP4984521B2 (en) In-vehicle camera control device
WO2018177702A1 (en) Parking assist system and method and a vehicle equipped with the system
US20190286118A1 (en) Remote vehicle control device and remote vehicle control method
KR101305310B1 (en) Method for providing around view of vehicle
JP2008120142A (en) Information display system for automobile
JP7063652B2 (en) Vehicle remote control device, vehicle remote control system and vehicle remote control method
JP2008168714A (en) Vehicle condition monitoring device and image processing device
JP7051369B2 (en) Image processing device and image processing method
WO2017022262A1 (en) Surrounding monitoring device for operating machines
JP7112191B2 (en) Image processing device and image processing method
JP2020017077A (en) Accident notification device and accident notification method
JP7103773B2 (en) Image processing device and image processing method
JP2020150295A (en) Vehicle crime prevention device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200930

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220707

R150 Certificate of patent or registration of utility model

Ref document number: 7103773

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150