JP2021086342A - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP2021086342A
JP2021086342A JP2019213974A JP2019213974A JP2021086342A JP 2021086342 A JP2021086342 A JP 2021086342A JP 2019213974 A JP2019213974 A JP 2019213974A JP 2019213974 A JP2019213974 A JP 2019213974A JP 2021086342 A JP2021086342 A JP 2021086342A
Authority
JP
Japan
Prior art keywords
vehicle
image
information
peripheral
bird
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019213974A
Other languages
Japanese (ja)
Inventor
吉栄 阪本
Yoshihide Sakamoto
吉栄 阪本
洋平 寺田
Yohei Terada
洋平 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019213974A priority Critical patent/JP2021086342A/en
Publication of JP2021086342A publication Critical patent/JP2021086342A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

To provide an information processing device and an information processing method which enable a user to easily grasp a situation around a vehicle.SOLUTION: An information processing device comprises an acquisition unit, a detection unit and a generation unit. The acquisition unit acquires vehicle information including a picked-up image which is picked up in a vehicle. The detection unit detects a positional relation between the vehicle and a surrounding object which is present around the vehicle, on the basis of the vehicle information acquired by the acquisition unit. The generation unit generates an overhead view image including images of the vehicle and the surrounding object in the positional relation detected by the detection unit on the basis of the vehicle information, the overhead view image being in predetermined timing in accordance with a road situation of a road on which the vehicle travels.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置および情報処理方法に関する。 The present invention relates to an information processing apparatus and an information processing method.

従来、車両に搭載されるドライブレコーダを用い、車両の周辺を撮像して記録する技術が知られている。また、ドライブレコーダによって撮像された撮像画像をユーザに提供することで、車両の周辺の状況をユーザに把握させる技術も種々提案されている(例えば、特許文献1参照)。 Conventionally, a technique has been known in which a drive recorder mounted on a vehicle is used to image and record the periphery of the vehicle. Further, various techniques have been proposed in which the user is made to grasp the situation around the vehicle by providing the captured image captured by the drive recorder to the user (see, for example, Patent Document 1).

特開2011−227571号公報Japanese Unexamined Patent Publication No. 2011-227571

しかしながら、従来技術には、ユーザに対して車両の周辺の状況を容易に把握させるという点で改善の余地があった。 However, there is room for improvement in the prior art in that the user can easily grasp the situation around the vehicle.

本発明は、上記に鑑みてなされたものであって、ユーザに対して車両の周辺の状況を容易に把握させることができる情報処理装置および情報処理方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an information processing device and an information processing method capable of allowing a user to easily grasp the situation around a vehicle.

上記課題を解決し、目的を達成するために、本発明は、情報処理装置において、取得部と、検出部と、生成部とを備える。取得部は、車両において撮像された撮像画像を含む車両情報を取得する。検出部は、前記取得部によって取得された前記車両情報に基づいて、前記車両と前記車両の周辺に存在する周辺物体との位置関係を検出する。生成部は、前記車両情報に基づいて、前記検出部によって検出された前記位置関係にある前記車両および前記周辺物体の画像を含む俯瞰画像であって、前記車両が走行する道路の道路状況に応じた所定のタイミングにおける前記俯瞰画像を生成する。 In order to solve the above problems and achieve the object, the present invention includes an acquisition unit, a detection unit, and a generation unit in the information processing apparatus. The acquisition unit acquires vehicle information including the captured image captured in the vehicle. The detection unit detects the positional relationship between the vehicle and peripheral objects existing around the vehicle based on the vehicle information acquired by the acquisition unit. The generation unit is a bird's-eye view image including images of the vehicle and the peripheral objects in the positional relationship detected by the detection unit based on the vehicle information, and depends on the road condition of the road on which the vehicle travels. The bird's-eye view image is generated at a predetermined timing.

本発明によれば、ユーザに対して車両の周辺の状況を容易に把握させることができる。 According to the present invention, the user can easily grasp the situation around the vehicle.

図1は、実施形態に係る情報処理方法の概要を示す図である。FIG. 1 is a diagram showing an outline of an information processing method according to an embodiment. 図2は、情報処理装置を含む情報処理システムの構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of an information processing system including an information processing device. 図3は、車載装置の構成例を示すブロック図である。FIG. 3 is a block diagram showing a configuration example of an in-vehicle device. 図4は、情報処理装置の構成例を示すブロック図である。FIG. 4 is a block diagram showing a configuration example of the information processing device. 図5は、車両情報の一例を示す図である。FIG. 5 is a diagram showing an example of vehicle information. 図6は、アニメーション画像の情報の一例を示す図である。FIG. 6 is a diagram showing an example of information of the animation image. 図7は、俯瞰画像の情報の一例を示す図である。FIG. 7 is a diagram showing an example of information on the bird's-eye view image. 図8は、俯瞰画像の一例を示す図である。FIG. 8 is a diagram showing an example of a bird's-eye view image. 図9は、情報処理装置が実行する処理手順を示すフローチャートである。FIG. 9 is a flowchart showing a processing procedure executed by the information processing apparatus.

以下、添付図面を参照して、本願の開示する情報処理装置および情報処理方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of the information processing apparatus and information processing method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited to the embodiments shown below.

<1.情報処理方法の概要>
以下では先ず、実施形態に係る情報処理方法の概要について図1を参照して説明する。図1は、実施形態に係る情報処理方法の概要を示す図である。
<1. Overview of information processing method>
Hereinafter, first, an outline of the information processing method according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an outline of an information processing method according to an embodiment.

実施形態に係る情報処理方法は、例えば情報処理システム1に含まれる情報処理装置50によって実行される。具体的に説明すると、図1に示すように、情報処理システム1は、車載装置10と、上記した情報処理装置50とを備える。 The information processing method according to the embodiment is executed by, for example, the information processing device 50 included in the information processing system 1. More specifically, as shown in FIG. 1, the information processing system 1 includes an in-vehicle device 10 and the above-mentioned information processing device 50.

車載装置10は、車両C1に搭載される。車載装置10は、例えばドライブレコーダを含む。車載装置10は、車両C1の周辺を撮像し、撮像された撮像画像を記録することができる。 The in-vehicle device 10 is mounted on the vehicle C1. The in-vehicle device 10 includes, for example, a drive recorder. The in-vehicle device 10 can image the periphery of the vehicle C1 and record the captured image.

ところで、従来技術にあっては、車載装置10によって撮像された撮像画像を、例えば車両C1のユーザに対して提供していた。詳しくは、例えば、車両C1が、車両C1の周辺に存在する周辺車両C2と接触する、あるいは接触しそうになったりするなど所定のイベントが発生した場合、撮像画像を提供することで、イベント発生時の車両C1の周辺の状況をユーザに把握させるようにしていた。なお、図1では、車両C1および周辺車両C2が交差点Dに進入し、交差点Dを直進する車両C1と交差点Dを右折する周辺車両C2とが接触する場合を一例に挙げて説明を続ける。 By the way, in the prior art, the captured image captured by the in-vehicle device 10 is provided to, for example, the user of the vehicle C1. Specifically, for example, when a predetermined event occurs, such as when the vehicle C1 comes into contact with or is about to come into contact with a peripheral vehicle C2 existing around the vehicle C1, the captured image is provided to provide an image at the time of the event occurrence. The user was made to grasp the situation around the vehicle C1. In FIG. 1, a case where the vehicle C1 and the peripheral vehicle C2 enter the intersection D and the vehicle C1 traveling straight at the intersection D and the peripheral vehicle C2 turning right at the intersection D come into contact with each other will be described as an example.

しかしながら、ユーザは、車載装置10によって撮像された撮像画像だけでは、イベント発生時またはイベント発生前における車両C1の周辺の状況を十分に把握することが難しかった。また、ユーザは、車両C1の周辺の状況を十分に把握できないと、イベントの発生原因を特定することが難しかった、具体的にはイベントの発生原因が車両C1側にあるのか、周辺車両C2側にあるのかを特定することが難しかった。 However, it has been difficult for the user to sufficiently grasp the situation around the vehicle C1 at the time of the event occurrence or before the event occurrence only by the captured image captured by the in-vehicle device 10. Further, it was difficult for the user to identify the cause of the event unless the situation around the vehicle C1 was sufficiently grasped. Specifically, whether the cause of the event was on the vehicle C1 side or the peripheral vehicle C2 side. It was difficult to identify if it was in.

そこで、本実施形態に係る情報処理装置50にあっては、ユーザに対して車両C1の周辺の状況を容易に把握させることができるような構成とした。 Therefore, the information processing device 50 according to the present embodiment is configured so that the user can easily grasp the situation around the vehicle C1.

以下、具体的に説明すると、情報処理装置50は、車載装置10と各種の情報を通信可能な装置である。情報処理装置50としては、例えばパーソナルコンピュータやサーバなどを用いることができるが、これに限定されるものではない。 Specifically, the information processing device 50 is a device capable of communicating various types of information with the in-vehicle device 10. As the information processing device 50, for example, a personal computer, a server, or the like can be used, but the information processing device 50 is not limited thereto.

なお、図1では、車載装置10と情報処理装置50とが別体である構成例を示したが、これに限られず、例えば、車載装置10と情報処理装置50とを一体とし、車載装置10が情報処理装置50として機能するように構成してもよい。 Note that FIG. 1 shows a configuration example in which the vehicle-mounted device 10 and the information processing device 50 are separate bodies, but the present invention is not limited to this, and for example, the vehicle-mounted device 10 and the information processing device 50 are integrated into the vehicle-mounted device 10. May function as the information processing device 50.

情報処理装置50は、車両C1において撮像された撮像画像を含む車両情報を取得する(ステップS1)。ここで、撮像画像には、周辺車両C2、車両C1の周辺(例えば前方)にある信号機E1,E2、車両C1および周辺車両C2が走行する道路の停止線F1,F2など、車両C1の周辺に存在する周辺物体が含まれるものとする。また、撮像画像には、撮像画像が撮像された位置を示す位置情報や撮像された日時を示す日時情報などが含まれてもよい。 The information processing device 50 acquires vehicle information including the captured image captured by the vehicle C1 (step S1). Here, the captured image includes the peripheral vehicle C2, the traffic lights E1 and E2 around the vehicle C1 (for example, in front), the stop lines F1 and F2 of the road on which the vehicle C1 and the peripheral vehicle C2 travel, and the like around the vehicle C1. It is assumed that existing peripheral objects are included. Further, the captured image may include position information indicating the position where the captured image was captured, date and time information indicating the date and time when the captured image was captured, and the like.

なお、図1に想像線で示すように、周辺車両C2にも車載装置10が搭載される場合がある。かかる場合、情報処理装置50は、周辺車両C2の車載装置10から撮像画像を含む車両情報を取得することができる。すなわち、周辺車両C2に搭載される車載装置10は、周辺車両C2の周辺を撮像し、撮像された撮像画像(以下、「周辺車両撮像画像」と記載する場合がある)を記録する。そして、情報処理装置50は、周辺車両C2の車載装置10から周辺車両撮像画像を含む車両情報を取得することができる。 As shown by an imaginary line in FIG. 1, the in-vehicle device 10 may also be mounted on the peripheral vehicle C2. In such a case, the information processing device 50 can acquire vehicle information including a captured image from the in-vehicle device 10 of the peripheral vehicle C2. That is, the in-vehicle device 10 mounted on the peripheral vehicle C2 captures the periphery of the peripheral vehicle C2 and records the captured image (hereinafter, may be referred to as "peripheral vehicle captured image"). Then, the information processing device 50 can acquire vehicle information including a peripheral vehicle captured image from the in-vehicle device 10 of the peripheral vehicle C2.

周辺車両撮像画像には、車両C1、周辺車両C2の周辺にある信号機E1,E2、道路の停止線F1,F2など、周辺車両C2の周辺に存在する周辺物体が含まれるものとする。また、周辺車両撮像画像には、撮像画像と同様、周辺車両撮像画像が撮像された位置を示す位置情報や撮像された日時を示す日時情報などが含まれてもよい。 It is assumed that the peripheral vehicle captured image includes peripheral objects existing around the peripheral vehicle C2, such as the traffic lights E1 and E2 around the vehicle C1 and the peripheral vehicle C2, and the road stop lines F1 and F2. Further, the peripheral vehicle captured image may include position information indicating the position where the peripheral vehicle captured image was captured, date and time information indicating the date and time when the image was captured, and the like, as in the captured image.

なお、上記では、情報処理装置50は、車両情報を、車両C1の車載装置10および周辺車両C2の車載装置10からそれぞれ取得するようにしたが、これに限定されるものではない。すなわち、例えば、周辺車両C2の車載装置10は、周辺車両撮像画像を含む車両情報を車車間通信などの無線通信を介して車両C1の車載装置10へ送信する。そして、情報処理装置50は、周辺車両撮像画像を含む車両情報と、車両C1の車載装置10が撮像した撮像画像を含む車両情報とを一緒に、車両C1の車載装置10から取得するようにしてもよい。この場合、車両C1の車載装置10のメモリカードに車両C1および周辺車両の車両情報を記録し、情報処理装置50は、メモリカードから各車両情報を取得するようにしてもよい。 In the above description, the information processing device 50 acquires vehicle information from the vehicle-mounted device 10 of the vehicle C1 and the vehicle-mounted device 10 of the peripheral vehicle C2, respectively, but the information processing device 50 is not limited to this. That is, for example, the in-vehicle device 10 of the peripheral vehicle C2 transmits the vehicle information including the captured image of the peripheral vehicle to the in-vehicle device 10 of the vehicle C1 via wireless communication such as inter-vehicle communication. Then, the information processing device 50 acquires the vehicle information including the peripheral vehicle captured image and the vehicle information including the captured image captured by the vehicle-mounted device 10 of the vehicle C1 from the vehicle-mounted device 10 of the vehicle C1 together. May be good. In this case, the vehicle information of the vehicle C1 and the peripheral vehicles may be recorded in the memory card of the vehicle-mounted device 10 of the vehicle C1, and the information processing device 50 may acquire each vehicle information from the memory card.

次いで、情報処理装置50は、取得された車両情報に基づいて、車両C1と車両C1の周辺に存在する周辺物体との位置関係を検出する(ステップS2)。例えば、情報処理装置50は、車両情報に含まれる撮像画像や周辺車両撮像画像を解析し、車両C1と周辺物体(ここでは、例えば周辺車両C2や信号機E1,E2、停止線F1,F2等)との相対位置や、車両C1から周辺物体までの距離などの位置関係を検出する。 Next, the information processing device 50 detects the positional relationship between the vehicle C1 and the peripheral objects existing around the vehicle C1 based on the acquired vehicle information (step S2). For example, the information processing device 50 analyzes the captured image and the peripheral vehicle captured image included in the vehicle information, and analyzes the vehicle C1 and the peripheral objects (here, for example, the peripheral vehicle C2, the traffic lights E1, E2, the stop lines F1, F2, etc.). Detects the relative position with and the positional relationship such as the distance from the vehicle C1 to the surrounding objects.

次いで、情報処理装置50は、車両情報に基づいて俯瞰画像Aを生成する(ステップS3)。なお、俯瞰画像Aは、車両情報に含まれる撮像画像が撮像された場所(ここでは交差点D)を所定の仮想視点から見たときの画像(例えばアニメーション画像)である。具体的に図1に示す例では、俯瞰画像Aは、交差点Dを上方から見たときの画像である。 Next, the information processing device 50 generates a bird's-eye view image A based on the vehicle information (step S3). The bird's-eye view image A is an image (for example, an animation image) when the place where the captured image included in the vehicle information is captured (here, the intersection D) is viewed from a predetermined virtual viewpoint. Specifically, in the example shown in FIG. 1, the bird's-eye view image A is an image when the intersection D is viewed from above.

例えば、情報処理装置50は、車両情報に基づいて、検出された位置関係にある車両C1および周辺物体(ここでは、例えば周辺車両C2や信号機E1,E2、停止線F1,F2等)の画像を含む俯瞰画像Aを生成する。 For example, the information processing device 50 captures images of the detected vehicle C1 and peripheral objects (here, for example, peripheral vehicles C2, traffic lights E1, E2, stop lines F1, F2, etc.) based on vehicle information. Generate a bird's-eye view image A including.

なお、俯瞰画像Aにおいて、車両C1および周辺物体の画像は、例えば、情報処理装置50において予め用意された画像、言い換えると、情報処理装置50に予め記憶された画像を用いてもよいし、撮像画像等の解析結果に基づいて情報処理装置50が描画した画像を用いてもよい。また、俯瞰画像Aにおいて、歩道や横断歩道などを含む交差点Dの全体の画像は、例えば、情報処理装置50において予め用意された画像を用いてもよいし、情報処理装置50が、撮像画像に含まれる位置情報に基づいて地図情報サーバ(外部サーバ。図示せず)から取得した画像を用いてもよいし、撮像画像等の解析結果に基づいて描画した画像を用いてもよい。 In the bird's-eye view image A, as the image of the vehicle C1 and the peripheral objects, for example, an image prepared in advance in the information processing device 50, in other words, an image stored in advance in the information processing device 50 may be used or captured. An image drawn by the information processing apparatus 50 based on an analysis result such as an image may be used. Further, in the bird's-eye view image A, the entire image of the intersection D including the sidewalk, the crosswalk, and the like may be, for example, an image prepared in advance in the information processing device 50, or the information processing device 50 may be used as the captured image. An image acquired from a map information server (external server, not shown) based on the included position information may be used, or an image drawn based on an analysis result such as an captured image may be used.

また、情報処理装置50は、車両C1が走行する道路の道路状況に応じた所定のタイミングにおける俯瞰画像Aを生成する。これにより、ユーザは、生成された俯瞰画像Aを確認(視認)することで、車両C1の周辺の状況を容易に把握することができる。また、ユーザは、車両C1の周辺の状況を把握することで、所定のイベントの発生原因を特定することも可能となる。 Further, the information processing device 50 generates a bird's-eye view image A at a predetermined timing according to the road condition of the road on which the vehicle C1 travels. As a result, the user can easily grasp the situation around the vehicle C1 by confirming (visually) the generated bird's-eye view image A. In addition, the user can identify the cause of the occurrence of a predetermined event by grasping the situation around the vehicle C1.

すなわち、例えば車両C1と周辺車両C2とが接触するなど所定のイベントが発生した場合、ユーザは、イベントが発生する前であって、車両C1が走行する道路の道路状況が変わるタイミングにおける車両C1の周辺の状況を把握することで、イベントの発生原因を特定できることがある。 That is, when a predetermined event occurs, for example, when the vehicle C1 and the peripheral vehicle C2 come into contact with each other, the user can use the vehicle C1 at the timing when the road condition of the road on which the vehicle C1 travels changes before the event occurs. By understanding the surrounding situation, it may be possible to identify the cause of the event.

そこで、本実施形態において、上記した道路状況は、例えば車両C1が走行する道路に設定された信号機E1,E2の状態を含む。そしてここでは、道路状況に応じた所定のタイミングは、例えば道路状況が変化したタイミング、言い換えると、信号機E1,E2の状態が変化したタイミングに設定される。 Therefore, in the present embodiment, the above-mentioned road condition includes, for example, the state of the traffic lights E1 and E2 set on the road on which the vehicle C1 travels. Here, the predetermined timing according to the road condition is set to, for example, the timing when the road condition changes, in other words, the timing when the states of the traffic lights E1 and E2 change.

図1の例では、所定のタイミングは、信号機E1の状態が赤信号に変化したタイミングである。また、図1に示す俯瞰画像Aでは、周辺車両C2が交差点Dにおいて右折を行い、車両C1は、信号機E1の状態が赤信号になったにもかかわらず、交差点Dに進入している様子が示される。なお、俯瞰画像Aについては、図8などを参照して後に詳しく説明する。 In the example of FIG. 1, the predetermined timing is the timing when the state of the traffic light E1 changes to a red light. Further, in the bird's-eye view image A shown in FIG. 1, the peripheral vehicle C2 makes a right turn at the intersection D, and the vehicle C1 is entering the intersection D even though the traffic light E1 is in a red light. Shown. The bird's-eye view image A will be described in detail later with reference to FIG. 8 and the like.

次いで、情報処理装置50は、生成された俯瞰画像Aを出力する(ステップS4)。例えば、情報処理装置50は、情報処理装置50自身が備える表示部52(後述)に俯瞰画像Aを出力してもよいし、車載装置10に俯瞰画像Aを出力して表示させてもよい。 Next, the information processing device 50 outputs the generated bird's-eye view image A (step S4). For example, the information processing device 50 may output the bird's-eye view image A to the display unit 52 (described later) included in the information processing device 50 itself, or may output the bird's-eye view image A to the in-vehicle device 10 for display.

これにより、ユーザは、生成された俯瞰画像Aを確認することで、車両C1の周辺の状況を容易に把握することができる。また、ユーザは、例えば信号機E1の状態が赤信号に変化したタイミングのときに車両C1が交差点Dに進入したなど、車両C1の周辺の状況を把握することで、所定のイベントの発生原因が車両C1側にあることを特定することも可能となる。 As a result, the user can easily grasp the situation around the vehicle C1 by checking the generated bird's-eye view image A. Further, the user can grasp the situation around the vehicle C1 such that the vehicle C1 enters the intersection D at the timing when the state of the traffic light E1 changes to a red light, so that the cause of the occurrence of the predetermined event is the vehicle. It is also possible to specify that it is on the C1 side.

<2.情報処理装置を含む情報処理システムの構成>
次に、実施形態に係る情報処理装置50を含む情報処理システム1の構成について、図2を用いて説明する。図2は、情報処理装置50を含む情報処理システム1の構成例を示すブロック図である。なお、図2などのブロック図では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
<2. Configuration of information processing system including information processing device>
Next, the configuration of the information processing system 1 including the information processing device 50 according to the embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration example of the information processing system 1 including the information processing device 50. In the block diagram of FIG. 2 and the like, only the components necessary for explaining the features of the present embodiment are represented by functional blocks, and the description of general components is omitted.

換言すれば、図2などのブロック図に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component shown in the block diagram such as FIG. 2 is a functional concept and does not necessarily have to be physically configured as shown in the figure. For example, the specific form of distribution / integration of each functional block is not limited to the one shown in the figure, and all or part of the functional blocks are functionally or physically distributed in arbitrary units according to various loads and usage conditions. -It is possible to integrate and configure.

図2に示すように、情報処理システム1は、上記した車載装置10と、情報処理装置50と、監視カメラ100とを含み、これらはインターネット網などの通信ネットワークNを介して通信可能に接続される。なお、車載装置10と、情報処理装置50と、監視カメラ100とは、上記した通信ネットワークNに限らず、その他の種類の無線通信や有線通信を介して通信可能に接続されてもよい。また、車載装置10同士は、車車間通信などの無線通信を介して通信可能に接続されてもよい。 As shown in FIG. 2, the information processing system 1 includes the above-mentioned in-vehicle device 10, the information processing device 50, and a surveillance camera 100, which are communicably connected via a communication network N such as an Internet network. To. The in-vehicle device 10, the information processing device 50, and the surveillance camera 100 are not limited to the above-mentioned communication network N, and may be communicably connected via other types of wireless communication or wired communication. Further, the in-vehicle devices 10 may be connected to each other so as to be able to communicate with each other via wireless communication such as vehicle-to-vehicle communication.

監視カメラ100は、車両C1や周辺車両C2が走行する道路に設置されるカメラである。監視カメラ100は、周辺を撮像し、撮像された撮像画像を記録することができる。監視カメラ100によって撮像される撮像画像には、道路を走行する車両C1や周辺車両C2、信号機E1,E2、停止線F1,F2(図1参照)などが含まれてもよい。そして、監視カメラ100は、撮像された撮像画像を含む車両情報を情報処理装置50へ送信することができる。また、監視カメラ100の撮像画像には、撮像画像が撮像された位置(すなわち監視カメラ100の位置)を示す位置情報や、撮像画像が撮像された日時を示す日時情報などが含まれてもよい。 The surveillance camera 100 is a camera installed on the road on which the vehicle C1 and the peripheral vehicle C2 travel. The surveillance camera 100 can image the surroundings and record the captured image. The captured image captured by the surveillance camera 100 may include a vehicle C1 traveling on a road, a peripheral vehicle C2, traffic lights E1 and E2, stop lines F1 and F2 (see FIG. 1), and the like. Then, the surveillance camera 100 can transmit the vehicle information including the captured image to the information processing device 50. Further, the captured image of the surveillance camera 100 may include position information indicating the position where the captured image was captured (that is, the position of the surveillance camera 100), date and time information indicating the date and time when the captured image was captured, and the like. ..

なお、上記した情報処理システム1では、監視カメラ100を含むようにしたが、これに限定されるものではなく、監視カメラ100を含まない構成であってもよい。また、図2では、車載装置10が複数台である例を示したが、これに限られず、1台であってもよい。 Although the information processing system 1 described above includes the surveillance camera 100, the information processing system 1 is not limited to this, and the configuration may not include the surveillance camera 100. Further, although FIG. 2 shows an example in which the number of in-vehicle devices 10 is a plurality of devices, the present invention is not limited to this, and the number of in-vehicle devices 10 may be one.

次いで、上記した車載装置10および情報処理装置50の構成について具体的に説明する。 Next, the configurations of the in-vehicle device 10 and the information processing device 50 described above will be specifically described.

<3.車載装置の構成>
図3は、車載装置10の構成例を示すブロック図である。図3に示すように、車載装置10は、通信部11と、車載カメラ12と、車載センサ群13と、制御装置20とを備える。
<3. In-vehicle device configuration>
FIG. 3 is a block diagram showing a configuration example of the in-vehicle device 10. As shown in FIG. 3, the vehicle-mounted device 10 includes a communication unit 11, a vehicle-mounted camera 12, a vehicle-mounted sensor group 13, and a control device 20.

通信部11は、通信ネットワークNに双方向通信可能に接続する通信インターフェイスであり、情報処理装置50等との間で情報の送受信を行う。 The communication unit 11 is a communication interface that connects to the communication network N so that bidirectional communication is possible, and transmits / receives information to / from the information processing device 50 or the like.

車載カメラ12は、例えばドライブレコーダのカメラであり、車両C1の周辺を撮像する。車載カメラ12は、撮像した撮像画像を制御装置20へ出力する。 The in-vehicle camera 12 is, for example, a camera of a drive recorder, and images the periphery of the vehicle C1. The in-vehicle camera 12 outputs the captured image to the control device 20.

車載センサ群13には、例えば、車両C1の速度を検出する車速センサや、GPS(Global Positioning System)衛星からの信号に基づいて車両C1の位置を示す位置情報を検出するGPS受信機などが含まれるが、これらに限定されるものではない。車載センサ群13は、得られた車両C1の速度を示す車速情報や車両C1の位置情報などを制御装置20へ出力する。 The in-vehicle sensor group 13 includes, for example, a vehicle speed sensor that detects the speed of the vehicle C1, a GPS receiver that detects position information indicating the position of the vehicle C1 based on a signal from a GPS (Global Positioning System) satellite, and the like. However, it is not limited to these. The in-vehicle sensor group 13 outputs the vehicle speed information indicating the speed of the obtained vehicle C1 and the position information of the vehicle C1 to the control device 20.

制御装置20は、制御部30と、記憶部40とを備える。制御部30は、処理部31と、送信部32とを備え、CPU(Central Processing Unit)などを有するマイクロコンピュータである。 The control device 20 includes a control unit 30 and a storage unit 40. The control unit 30 is a microcomputer including a processing unit 31 and a transmission unit 32, and has a CPU (Central Processing Unit) and the like.

記憶部40は、例えば、不揮発性メモリやデータフラッシュ、ハードディスクドライブといった記憶デバイスで構成される記憶部である。かかる記憶部40には、撮像画像41、車速情報42および各種プログラムなどが記憶される。 The storage unit 40 is a storage unit composed of storage devices such as a non-volatile memory, a data flash, and a hard disk drive. The storage unit 40 stores the captured image 41, the vehicle speed information 42, various programs, and the like.

撮像画像41は、車載カメラ12によって撮像された撮像画像である。車速情報42は、車載センサ群13の車速センサによって得られた車速の情報である。例えば、車速情報42にあっては、車両C1の車速情報が時系列で記憶されるため、車速情報42には、撮像画像が撮像されたときの車速情報が含まれることとなる。 The captured image 41 is a captured image captured by the vehicle-mounted camera 12. The vehicle speed information 42 is information on the vehicle speed obtained by the vehicle speed sensor of the vehicle-mounted sensor group 13. For example, in the vehicle speed information 42, since the vehicle speed information of the vehicle C1 is stored in time series, the vehicle speed information 42 includes the vehicle speed information when the captured image is captured.

制御部30の処理部31は、車載カメラ12から送信される撮像画像を取得し、記憶部40に撮像画像41として記憶させる。このとき、処理部31は、例えば、車載センサ群13から送信される位置情報を、撮像画像が撮像された位置を示す位置情報として、撮像画像に対応付けて記憶させるようにしてもよい。また、処理部31は、撮像画像が撮像されたときの日時を示す日時情報を、撮像画像に対応付けて記憶させるようにしてもよい。 The processing unit 31 of the control unit 30 acquires the captured image transmitted from the vehicle-mounted camera 12 and stores it in the storage unit 40 as the captured image 41. At this time, the processing unit 31 may store, for example, the position information transmitted from the vehicle-mounted sensor group 13 in association with the captured image as position information indicating the position where the captured image is captured. Further, the processing unit 31 may store date and time information indicating the date and time when the captured image was captured in association with the captured image.

また、処理部31は、撮像画像が撮像されたとき、車載センサ群13から送信される車速情報を取得し、記憶部40に撮像画像に対応付けて車速情報42として記憶させる。 Further, the processing unit 31 acquires the vehicle speed information transmitted from the vehicle-mounted sensor group 13 when the captured image is captured, and stores the vehicle speed information 42 in association with the captured image in the storage unit 40.

送信部32は、記憶部40に記憶される撮像画像41や車速情報42を通信部11を介して情報処理装置50へ送信することができる。 The transmission unit 32 can transmit the captured image 41 and the vehicle speed information 42 stored in the storage unit 40 to the information processing device 50 via the communication unit 11.

<4.情報処理装置の構成>
次に、情報処理装置50について図4を参照して説明する。図4は、情報処理装置50の構成例を示すブロック図である。図4に示すように、情報処理装置50は、通信部51と、表示部52と、制御装置60とを備える。
<4. Information processing device configuration>
Next, the information processing device 50 will be described with reference to FIG. FIG. 4 is a block diagram showing a configuration example of the information processing device 50. As shown in FIG. 4, the information processing device 50 includes a communication unit 51, a display unit 52, and a control device 60.

通信部51は、通信ネットワークNに双方向通信可能に接続する通信インターフェイスであり、車載装置10や監視カメラ100等との間で情報の送受信を行う。表示部52は、上記した俯瞰画像Aなどを表示することができるディスプレイである。 The communication unit 51 is a communication interface that connects to the communication network N so that bidirectional communication is possible, and transmits / receives information to / from the in-vehicle device 10 and the surveillance camera 100. The display unit 52 is a display capable of displaying the above-mentioned bird's-eye view image A and the like.

制御装置60は、制御部70と、記憶部80とを備える。制御部70は、取得部71と、検出部72と、生成部73と、出力部74とを備える。 The control device 60 includes a control unit 70 and a storage unit 80. The control unit 70 includes an acquisition unit 71, a detection unit 72, a generation unit 73, and an output unit 74.

ここで、制御装置60は、例えば、CPU、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ、入出力ポートなどを有するコンピュータや各種の回路を含む。 Here, the control device 60 includes, for example, a computer having a CPU, a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk drive, an input / output port, and various circuits.

コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部70の取得部71、検出部72、生成部73および出力部74として機能する。 The CPU of the computer functions as the acquisition unit 71, the detection unit 72, the generation unit 73, and the output unit 74 of the control unit 70 by reading and executing the program stored in the ROM, for example.

また、制御部70の取得部71、検出部72、生成部73および出力部74の少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 Further, at least a part or all of the acquisition unit 71, the detection unit 72, the generation unit 73, and the output unit 74 of the control unit 70 are used by hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). It can also be configured.

また、記憶部80は、例えば、不揮発性メモリやデータフラッシュ、ハードディスクドライブといった記憶デバイスで構成される記憶部である。かかる記憶部80には、車両情報81、生成用画像82、俯瞰画像83、各種プログラムなどが記憶される。 Further, the storage unit 80 is a storage unit composed of storage devices such as a non-volatile memory, a data flash, and a hard disk drive. The storage unit 80 stores vehicle information 81, a generation image 82, a bird's-eye view image 83, various programs, and the like.

車両情報81は、撮像画像を含む。例えば、車両情報81は、車両C1において撮像された撮像画像、周辺車両C2において撮像された周辺車両撮像画像、監視カメラ100において撮像された撮像画像などを含む。 The vehicle information 81 includes a captured image. For example, the vehicle information 81 includes a captured image captured by the vehicle C1, a peripheral vehicle captured image captured by the peripheral vehicle C2, a captured image captured by the surveillance camera 100, and the like.

また、車両情報81は、撮像画像や周辺車両撮像画像が撮像されたときの車速情報、位置情報、日時情報などを含んでいてもよい。なお、撮像画像は、上記した所定のタイミングにおける俯瞰画像の生成に用いられることから、撮像画像が撮像されたときの車速情報は、所定のタイミングにおける車両C1や周辺車両C2の速度を示す車速情報であるともいえる。 Further, the vehicle information 81 may include vehicle speed information, position information, date and time information, and the like when the captured image and the captured image of the surrounding vehicle are captured. Since the captured image is used to generate the bird's-eye view image at the predetermined timing, the vehicle speed information when the captured image is captured is the vehicle speed information indicating the speed of the vehicle C1 and the peripheral vehicle C2 at the predetermined timing. It can be said that.

ここで、図5を用いて、車両情報81について説明する。図5は、車両情報81の一例を示す図である。図5に示すように、車両情報81には、「車両情報ID」、「情報取得元」、「画像情報」、「位置情報」、「日時情報」および「車速情報」等の項目が含まれ、これら各項目の情報は互いに関連付けられている。 Here, the vehicle information 81 will be described with reference to FIG. FIG. 5 is a diagram showing an example of vehicle information 81. As shown in FIG. 5, the vehicle information 81 includes items such as "vehicle information ID", "information acquisition source", "image information", "position information", "date and time information", and "vehicle speed information". , The information of each of these items is associated with each other.

「車両情報ID」は、車両情報を識別する識別情報である。「情報取得元」は、画像情報や車速情報などの各種情報の取得元を示す情報である。ここで、「情報取得元」としては、車両C1や周辺車両C2、監視カメラ100などである。 The "vehicle information ID" is identification information that identifies vehicle information. The "information acquisition source" is information indicating an acquisition source of various information such as image information and vehicle speed information. Here, the "information acquisition source" includes a vehicle C1, a peripheral vehicle C2, a surveillance camera 100, and the like.

「画像情報」は、撮像された撮像画像の情報である。なお、図5に示す例では、便宜上、「画像情報」を「撮像画像M1」といったように抽象的な記載とするが、「撮像画像M1」には具体的な情報が記憶されるものとする。以下、他の情報についても抽象的に記載する場合がある。 "Image information" is information on a captured image. In the example shown in FIG. 5, for convenience, the "image information" is described as an abstract description such as "captured image M1", but specific information is stored in the "captured image M1". .. Hereinafter, other information may also be described abstractly.

「位置情報」は、撮像画像や周辺車両撮像画像が撮像された位置を示す情報である。「日時情報」は、撮像画像や周辺車両撮像画像が撮像された日時を示す情報である。「車速情報」は、撮像画像が撮像されたときの車両C1の車速や、周辺車両撮像画像が撮像されたときの周辺車両C2の車速を示す情報である。 The "position information" is information indicating the position where the captured image or the captured image of the surrounding vehicle is captured. The "date and time information" is information indicating the date and time when the captured image or the image captured by the surrounding vehicle was captured. The "vehicle speed information" is information indicating the vehicle speed of the vehicle C1 when the captured image is captured and the vehicle speed of the peripheral vehicle C2 when the peripheral vehicle captured image is captured.

図5に示す例において、車両情報ID「J01」で識別されるデータは、情報取得元が「車両」、画像情報が「撮像画像M1」、位置情報が「位置N1」、日時情報が「日時P1」、車速情報が「車速Q1」であることを示している。また、車両情報ID「K01」で識別されるデータは、情報取得元が「周辺車両」、画像情報が「撮像画像M2」、位置情報が「位置N2」、日時情報が「日時P2」、車速情報が「車速Q2」であることを示している。また、車両情報ID「L01」で識別されるデータは、情報取得元が「監視カメラ」、画像情報が「撮像画像M3」、位置情報が「位置N3」、日時情報が「日時P3」であることを示している。 In the example shown in FIG. 5, the data identified by the vehicle information ID "J01" has the information acquisition source "vehicle", the image information "captured image M1", the position information "position N1", and the date and time information "date and time". "P1", indicating that the vehicle speed information is "vehicle speed Q1". In addition, the data identified by the vehicle information ID "K01" has the information acquisition source "peripheral vehicle", the image information "captured image M2", the position information "position N2", the date and time information "date and time P2", and the vehicle speed. It shows that the information is "vehicle speed Q2". Further, the data identified by the vehicle information ID "L01" has an information acquisition source of "surveillance camera", image information of "captured image M3", position information of "position N3", and date and time information of "date and time P3". It is shown that.

なお、図5では、情報取得元が「監視カメラ」である場合に車速情報が含まれない例を示したが、これに限定されるものではなく、例えば撮像画像M3の解析処理等から車両C1の車速や周辺車両C2の車速が得られる場合、得られた車速を車速情報として含むようにしてもよい。 Note that FIG. 5 shows an example in which vehicle speed information is not included when the information acquisition source is a “surveillance camera”, but the present invention is not limited to this, and the vehicle C1 is not limited to this, for example, from the analysis processing of the captured image M3. When the vehicle speed of the above and the vehicle speed of the peripheral vehicle C2 can be obtained, the obtained vehicle speed may be included as the vehicle speed information.

図4の説明に戻ると、生成用画像82は、俯瞰画像の生成に用いられる画像の情報である。例えば、生成用画像82は、所定の仮想視点(例えば上方)から見たときの車両C1の画像、および、周辺物体(例えば周辺車両C2や信号機E1,E2、停止線F1,F2など)の画像を含む。また、生成用画像82は、車両C1や周辺物体を模式化あるいは単純化した画像であるが、これに限定されるものではない。 Returning to the description of FIG. 4, the generation image 82 is the information of the image used for generating the bird's-eye view image. For example, the generation image 82 is an image of the vehicle C1 when viewed from a predetermined virtual viewpoint (for example, above) and an image of peripheral objects (for example, peripheral vehicles C2, traffic lights E1, E2, stop lines F1, F2, etc.). including. Further, the generation image 82 is a schematic or simplified image of the vehicle C1 and surrounding objects, but is not limited thereto.

上記した生成用画像82は、俯瞰画像の生成前に予め用意される。例えば、生成用画像82は、記憶部80に予め記憶された画像であるが、これに限られず、俯瞰画像の生成前に外部サーバ(図示せず)から取得された画像などであってもよい。 The above-mentioned generation image 82 is prepared in advance before the generation of the bird's-eye view image. For example, the generation image 82 is an image stored in advance in the storage unit 80, but is not limited to this, and may be an image acquired from an external server (not shown) before the generation of the bird's-eye view image. ..

ここで、図6を用いて、生成用画像82について説明する。図6は、生成用画像82の情報の一例を示す図である。図6に示すように、生成用画像82には、「生成用画像ID」および「生成用画像情報」等の項目が含まれ、これら各項目の情報は互いに関連付けられている。 Here, the generation image 82 will be described with reference to FIG. FIG. 6 is a diagram showing an example of information of the generation image 82. As shown in FIG. 6, the generation image 82 includes items such as “generation image ID” and “generation image information”, and the information of each of these items is associated with each other.

「生成用画像ID」は、生成用画像を識別する識別情報である。「生成用画像情報」は、生成用画像の情報である。例えば、「生成用画像情報」には、上記した所定の仮想視点から見たときの車両C1および周辺物体の画像が含まれる。 The "generated image ID" is identification information for identifying the generated image. "Generation image information" is information on the generation image. For example, the "generated image information" includes images of the vehicle C1 and surrounding objects when viewed from the above-mentioned predetermined virtual viewpoint.

なお、「生成用画像情報」において、周辺物体である周辺車両C2として用いられる車両画像は、複数種類あってもよい。すなわち、周辺車両C2は、例えば乗用車、トラック、バス、自動二輪車、小型車、大型車など、様々な車種、様々な大きさの車両になる可能性がある。従って、「生成用画像情報」には、各種の車種、各種の大きさの車両画像が複数用意され、用意された複数種類の車両画像の中から、撮像された撮像画像等に応じて周辺車両C2の車両画像が適宜に選択されるようにしてもよい。 In the "generated image information", there may be a plurality of types of vehicle images used as the peripheral vehicle C2 which is a peripheral object. That is, the peripheral vehicle C2 may be a vehicle of various types and sizes, such as a passenger car, a truck, a bus, a motorcycle, a small car, or a large car. Therefore, a plurality of vehicle images of various vehicle types and sizes are prepared in the "generated image information", and from among the prepared multiple types of vehicle images, peripheral vehicles are prepared according to the captured images and the like. The vehicle image of C2 may be appropriately selected.

図6に示す例において、生成用画像ID「T01」で識別されるデータは、生成用画像情報が「車両画像U1」であることを示している。また、生成用画像ID「T02」で識別されるデータは、生成用画像情報が「車両画像U2」であることを示している。また、生成用画像ID「T11」で識別されるデータは、生成用画像情報が「信号機画像V1」であることを示している。また、生成用画像ID「T21」で識別されるデータは、生成用画像情報が「停止線画像W1」であることを示している。 In the example shown in FIG. 6, the data identified by the generation image ID "T01" indicates that the generation image information is "vehicle image U1". Further, the data identified by the generation image ID "T02" indicates that the generation image information is "vehicle image U2". Further, the data identified by the generation image ID "T11" indicates that the generation image information is "traffic light image V1". Further, the data identified by the generation image ID "T21" indicates that the generation image information is the "stop line image W1".

なお、図6に示す生成用画像情報は、あくまでも例示であって限定されるものではない。すなわち、生成用画像情報は、例えば、道路画像、車線画像、中央分離帯画像、歩道画像、横断歩道画像など、車両C1が走行する道路に関する各種の画像の情報を含んでいてもよい。 The image information for generation shown in FIG. 6 is merely an example and is not limited. That is, the generation image information may include information on various images related to the road on which the vehicle C1 travels, such as a road image, a lane image, a median strip image, a sidewalk image, and a pedestrian crossing image.

図4の説明に戻ると、俯瞰画像83は、後述するように、生成部73によって生成される俯瞰画像の情報である。 Returning to the description of FIG. 4, the bird's-eye view image 83 is information on the bird's-eye view image generated by the generation unit 73, as will be described later.

ここで、図7を用いて、俯瞰画像83について説明する。図7は、俯瞰画像83の情報の一例を示す図である。図7に示すように、俯瞰画像83には、「俯瞰画像ID」および「俯瞰画像」等の項目が含まれ、これら各項目の情報は互いに関連付けられている。 Here, the bird's-eye view image 83 will be described with reference to FIG. 7. FIG. 7 is a diagram showing an example of the information of the bird's-eye view image 83. As shown in FIG. 7, the bird's-eye view image 83 includes items such as “bird's-eye view image ID” and “bird's-eye view image”, and the information of each item is associated with each other.

「俯瞰画像ID」は、俯瞰画像を識別する識別情報である。「俯瞰画像」は、生成された俯瞰画像の情報である。図7に示す例において、俯瞰画像ID「X01」で識別されるデータは、俯瞰画像が「俯瞰画像A1」であることを示している。 The "overhead image ID" is identification information for identifying the bird's-eye view image. The "overhead image" is the information of the generated bird's-eye view image. In the example shown in FIG. 7, the data identified by the bird's-eye view image ID "X01" indicates that the bird's-eye view image is the "bird's-eye view image A1".

図4の説明に戻ると、制御部70の取得部71は、車両C1や周辺車両C2の車載装置10、監視カメラ100などから各種の車両情報を取得する。 Returning to the description of FIG. 4, the acquisition unit 71 of the control unit 70 acquires various vehicle information from the vehicle-mounted device 10 of the vehicle C1 and the peripheral vehicle C2, the surveillance camera 100, and the like.

例えば、取得部71は、車両C1に搭載された車載装置10から、車両C1において撮像された撮像画像を含む車両情報を取得する。例えば、取得部71は、周辺車両C2に搭載された車載装置10から、周辺車両C2において撮像された周辺車両撮像画像を含む車両情報を取得する。例えば、取得部71は、監視カメラ100から、監視カメラ100において撮像された撮像画像を含む車両情報を取得する。そして、取得部71は、取得した撮像画像を含む車両情報を記憶部80に車両情報81(図5参照)として記憶させる。また、撮像画像には、上記したように、撮像画像が撮像された位置を示す位置情報や撮像された日時を示す日時情報などが含まれるため、取得部71は、位置情報および日時情報などを対応する撮像画像に対応付けて記憶部80に記憶させてもよい(図5参照)。 For example, the acquisition unit 71 acquires vehicle information including the captured image captured by the vehicle C1 from the vehicle-mounted device 10 mounted on the vehicle C1. For example, the acquisition unit 71 acquires vehicle information including a peripheral vehicle image captured by the peripheral vehicle C2 from the vehicle-mounted device 10 mounted on the peripheral vehicle C2. For example, the acquisition unit 71 acquires vehicle information including the captured image captured by the surveillance camera 100 from the surveillance camera 100. Then, the acquisition unit 71 stores the vehicle information including the acquired captured image in the storage unit 80 as the vehicle information 81 (see FIG. 5). Further, as described above, the captured image includes position information indicating the position where the captured image was captured, date and time information indicating the date and time when the captured image was captured, and the like, so that the acquisition unit 71 obtains the position information and the date and time information. It may be stored in the storage unit 80 in association with the corresponding captured image (see FIG. 5).

取得部71は、車両情報として車速情報を取得する。例えば、取得部71は、車両情報として、所定のタイミングにおける車両C1や周辺車両C2の速度を示す車速情報を含む車速情報を取得し、記憶部80に記憶させる。このとき、取得部71は、車速情報を対応する撮像画像に対応付けて、記憶部80に車両情報81(図5参照)として記憶させてもよい。 The acquisition unit 71 acquires vehicle speed information as vehicle information. For example, the acquisition unit 71 acquires vehicle speed information including vehicle speed information indicating the speeds of the vehicle C1 and peripheral vehicles C2 at a predetermined timing as vehicle information, and stores the vehicle speed information in the storage unit 80. At this time, the acquisition unit 71 may store the vehicle speed information in the storage unit 80 as the vehicle information 81 (see FIG. 5) in association with the corresponding captured image.

検出部72は、車両C1と車両C1の周辺に存在する周辺物体(例えば周辺車両C2や信号機E1,E2、停止線F1,F2等。図1参照)との位置関係を検出する。 The detection unit 72 detects the positional relationship between the vehicle C1 and peripheral objects existing around the vehicle C1 (for example, peripheral vehicles C2, traffic lights E1, E2, stop lines F1, F2, etc., see FIG. 1).

例えば、検出部72は、記憶部80にアクセスして車両情報81を読み込み、車両情報に含まれる同じ日時における撮像画像や周辺車両撮像画像を抽出し、抽出された撮像画像や周辺車両撮像画像を解析する。 For example, the detection unit 72 accesses the storage unit 80, reads the vehicle information 81, extracts the captured image and the peripheral vehicle captured image at the same date and time included in the vehicle information, and extracts the extracted captured image and the peripheral vehicle captured image. To analyze.

例えば、検出部72は、撮像画像や周辺車両撮像画像について、エッジ検出処理、検出されたエッジのフィルタリング処理・連結処理、モデルを用いた画像認識処理など各種の適宜な処理により解析を行うことで、撮像画像や周辺車両撮像画像に含まれる車両C1や周辺物体の位置を検出することができる。なお、検出部72において解析に用いられる処理は、上記に限定されるものではない。 For example, the detection unit 72 analyzes the captured image and the captured image of the surrounding vehicle by various appropriate processes such as edge detection processing, filtering processing / connection processing of the detected edge, and image recognition processing using a model. , The position of the vehicle C1 and peripheral objects included in the captured image and the peripheral vehicle captured image can be detected. The processing used in the analysis in the detection unit 72 is not limited to the above.

そして、検出部72は、撮像画像等の解析結果に基づいて、車両C1と周辺物体との相対位置や、車両C1から周辺物体までの距離などの位置関係を検出する。そして、検出部72は、検出された位置関係を示す情報を生成部73へ出力する。 Then, the detection unit 72 detects the relative position between the vehicle C1 and the peripheral object and the positional relationship such as the distance from the vehicle C1 to the peripheral object based on the analysis result of the captured image or the like. Then, the detection unit 72 outputs the information indicating the detected positional relationship to the generation unit 73.

生成部73は、俯瞰画像Aを生成する。出力部74は、生成部73によって生成された俯瞰画像Aを、表示部52に出力する。なお、出力部74は、通信部51を介して車載装置10に俯瞰画像Aを出力して表示させてもよい。 The generation unit 73 generates the bird's-eye view image A. The output unit 74 outputs the bird's-eye view image A generated by the generation unit 73 to the display unit 52. The output unit 74 may output the bird's-eye view image A to the in-vehicle device 10 via the communication unit 51 and display it.

図8は、俯瞰画像Aの一例を示す図である。なお、俯瞰画像Aは、静止画であるが、これに限られず、動画であってもよい。 FIG. 8 is a diagram showing an example of the bird's-eye view image A. The bird's-eye view image A is a still image, but is not limited to this, and may be a moving image.

図8に示すように、例えば、生成部73は、車両C1の車両情報に基づいて、検出部72によって検出された位置関係にある車両C1および周辺物体の画像を含む俯瞰画像Aを生成する。かかる俯瞰画像Aは、車両情報に含まれる撮像画像が撮像された場所(ここでは交差点D)を所定の仮想視点(例えば上方(上空))から見たときの画像である。また、俯瞰画像Aは、予め用意され所定の仮想視点から見たときの車両C1および周辺物体の画像を合成したアニメーション画像である。 As shown in FIG. 8, for example, the generation unit 73 generates a bird's-eye view image A including images of the vehicle C1 and peripheral objects in a positional relationship detected by the detection unit 72 based on the vehicle information of the vehicle C1. The bird's-eye view image A is an image when the place where the captured image included in the vehicle information is captured (here, the intersection D) is viewed from a predetermined virtual viewpoint (for example, above (above)). Further, the bird's-eye view image A is an animation image prepared in advance and synthesizing images of the vehicle C1 and surrounding objects when viewed from a predetermined virtual viewpoint.

以下、俯瞰画像Aの生成について詳説すると、生成部73は先ず、自車である車両C1の車両情報(例えば撮像画像)から検出された車両C1と周辺物体との位置関係に基づき、記憶部80の予め用意された生成用画像82を読み込んで、車両C1および周辺物体に対応する画像(生成用画像)を取得する。例えば、生成部73は、生成用画像82に含まれる複数種類の車両画像の中から、撮像画像に含まれる車両C1および周辺物体である周辺車両C2の車種、大きさなどに応じた車両画像を選択して取得する。また、生成部73は、撮像画像に周辺物体である信号機E1の状態や停止線F1,F2が含まれる場合、生成用画像82の中から、信号機E1の状態や停止線F1,F2に対応する画像(生成用画像)を選択して取得する。 Hereinafter, the generation of the bird's-eye view image A will be described in detail. First, the generation unit 73 first stores the storage unit 80 based on the positional relationship between the vehicle C1 and the peripheral objects detected from the vehicle information (for example, the captured image) of the vehicle C1 which is the own vehicle. The image 82 for generation prepared in advance is read, and an image (image for generation) corresponding to the vehicle C1 and surrounding objects is acquired. For example, the generation unit 73 selects a vehicle image according to the vehicle type, size, etc. of the vehicle C1 included in the captured image and the peripheral vehicle C2 which is a peripheral object from among the plurality of types of vehicle images included in the generation image 82. Select and get. Further, when the captured image includes the state of the traffic light E1 which is a peripheral object and the stop lines F1 and F2, the generation unit 73 corresponds to the state of the traffic light E1 and the stop lines F1 and F2 from the generation image 82. Select and acquire an image (image for generation).

ここで、生成部73は、俯瞰画像Aを生成するにあたって、車両C1の車両情報からは得られない情報、言い換えると、俯瞰画像Aの生成に不足する情報について、周辺車両C2の車両情報など他車両の車両情報を用いて得るようにしてもよい。 Here, when generating the bird's-eye view image A, the generation unit 73 obtains information that cannot be obtained from the vehicle information of the vehicle C1, in other words, information that is insufficient for generating the bird's-eye view image A, vehicle information of the peripheral vehicle C2, and the like. It may be obtained by using the vehicle information of the vehicle.

具体的には、例えば図8に示すように、車両C1の対向車線にある信号機E2の状態(信号の色など)の情報は、車両C1の車両情報に含まれる撮像画像から得ることができない。そこで、生成部73は、例えば周辺車両C2の車両情報に含まれる周辺車両撮像画像に基づいて信号機E2の状態を検出する。そして、生成部73は、生成用画像82の中から、検出された信号機E2の状態に対応する画像(生成用画像)を選択して取得してもよい。 Specifically, for example, as shown in FIG. 8, information on the state (signal color, etc.) of the traffic light E2 in the oncoming lane of the vehicle C1 cannot be obtained from the captured image included in the vehicle information of the vehicle C1. Therefore, the generation unit 73 detects the state of the traffic light E2 based on, for example, the image captured by the peripheral vehicle included in the vehicle information of the peripheral vehicle C2. Then, the generation unit 73 may select and acquire an image (generation image) corresponding to the detected state of the traffic light E2 from the generation image 82.

また、上記のように周辺車両C2の車両情報を利用する場合、本実施形態にあっては、車両C1の車両情報と周辺車両C2の車両情報とを同期させるようにする。例えば、生成部73は、俯瞰画像Aの生成に用いる車両C1で撮像された撮像画像と同じ日時に、周辺車両C2で撮像された周辺車両撮像画像を抽出し、抽出された周辺車両撮像画像に基づいて信号機E2の状態を検出するようにする。このように、本実施形態にあっては、日時情報を用いることで、車両C1の車両情報と周辺車両C2の車両情報とを同期させることができ、よって精度の良い俯瞰画像Aを生成することが可能になる。 Further, when the vehicle information of the peripheral vehicle C2 is used as described above, in the present embodiment, the vehicle information of the vehicle C1 and the vehicle information of the peripheral vehicle C2 are synchronized. For example, the generation unit 73 extracts the peripheral vehicle image captured by the peripheral vehicle C2 at the same date and time as the image captured by the vehicle C1 used to generate the bird's-eye view image A, and uses the extracted peripheral vehicle image as the extracted peripheral vehicle image. Based on this, the state of the traffic light E2 is detected. As described above, in the present embodiment, by using the date and time information, the vehicle information of the vehicle C1 and the vehicle information of the peripheral vehicle C2 can be synchronized, and therefore an accurate bird's-eye view image A can be generated. Becomes possible.

なお、上記では、生成部73は、周辺車両C2の車両情報を用いて信号機E2の状態を検出したが、これに限定されるものではなく、例えば監視カメラ100の車両情報を用いて信号機E2の状態を検出してもよい。 In the above, the generation unit 73 detects the state of the traffic light E2 using the vehicle information of the peripheral vehicle C2, but is not limited to this, and for example, the generation unit 73 uses the vehicle information of the surveillance camera 100 to detect the state of the traffic light E2. The condition may be detected.

また、生成部73は、例えば道路、歩道や横断歩道などを含む交差点Dの全体の画像については、車両C1と周辺物体との位置関係に基づき、予め用意された生成用画像82の中から道路、歩道や横断歩道などに対応する画像(生成用画像)を選択して取得してもよいし、撮像画像に含まれる位置情報に基づいて地図情報サーバから道路等に対応する画像(生成用画像)を取得してもよい。 Further, for the entire image of the intersection D including, for example, a road, a sidewalk, a pedestrian crossing, etc., the generation unit 73 selects a road from the generation images 82 prepared in advance based on the positional relationship between the vehicle C1 and the surrounding objects. , An image corresponding to a sidewalk or a pedestrian crossing (generation image) may be selected and acquired, or an image corresponding to a road or the like (generation image) from a map information server based on the position information included in the captured image. ) May be obtained.

そして、生成部73は、取得された各種の生成用画像を用いて俯瞰画像Aを生成する。例えば、生成部73は、車両C1と周辺物体との位置関係に基づいて、道路、歩道や横断歩道などを含む交差点Dの全体の画像において対応する位置に、車両C1や周辺車両C2を示す車両画像、信号機E1,E2の状態を示す画像、および、停止線F1,F2を示す画像などを嵌め込んで合成し、図8に示すような俯瞰画像Aを生成する。このため、俯瞰画像Aには、車両C1の撮像画像や周辺車両C2の周辺車両撮像画像自体が含まれない。 Then, the generation unit 73 generates a bird's-eye view image A using the various acquired images for generation. For example, the generation unit 73 indicates the vehicle C1 and the peripheral vehicle C2 at the corresponding positions in the entire image of the intersection D including the road, the sidewalk, the pedestrian crossing, etc., based on the positional relationship between the vehicle C1 and the peripheral object. An image, an image showing the states of the traffic lights E1 and E2, an image showing the stop lines F1 and F2, and the like are fitted and combined to generate a bird's-eye view image A as shown in FIG. Therefore, the bird's-eye view image A does not include the captured image of the vehicle C1 or the peripheral vehicle captured image itself of the peripheral vehicle C2.

すなわち、本実施形態に係る生成部73は、撮像画像や周辺車両撮像画像自体を用いず、予め用意され所定の仮想視点から見たときの車両C1や周辺車両C2を示す車両画像、信号機E1,E2の状態を示す画像、および、停止線F1,F2を示す画像などを、交差点Dの全体の画像の対応する位置に合成して得られるアニメーション画像を俯瞰画像Aとして生成する。 That is, the generation unit 73 according to the present embodiment does not use the captured image or the peripheral vehicle captured image itself, but is prepared in advance and shows the vehicle C1 and the peripheral vehicle C2 when viewed from a predetermined virtual viewpoint. An animation image obtained by synthesizing an image showing the state of E2, an image showing the stop lines F1 and F2, and the like at corresponding positions of the entire image of the intersection D is generated as a bird's-eye view image A.

なお、上記において、俯瞰画像Aには、撮像画像や周辺車両撮像画像自体が含まれないようにしたが、これに限定されるものではない。すなわち、例えば、生成部73は、道路など平面的な周辺物体については、撮像画像等に含まれる画像(ここでは道路画像)を用いて俯瞰画像Aを生成してもよい。 In the above, the bird's-eye view image A does not include the captured image or the peripheral vehicle captured image itself, but is not limited to this. That is, for example, the generation unit 73 may generate a bird's-eye view image A by using an image (here, a road image) included in the captured image or the like for a flat peripheral object such as a road.

このように、生成部73は、予め用意された周辺物体の画像として、車両C1の周辺に存在する周辺車両C2の画像、車両C1や周辺車両C2が走行する道路の停止線F1,F2の画像、および、当該道路の信号機E1,E2の状態の画像を含む俯瞰画像Aを生成する。 As described above, the generation unit 73 has, as images of the peripheral objects prepared in advance, an image of the peripheral vehicle C2 existing around the vehicle C1 and an image of the stop lines F1 and F2 of the road on which the vehicle C1 and the peripheral vehicle C2 travel. , And generate a bird's-eye view image A including an image of the state of the traffic lights E1 and E2 of the road.

上記のようにして生成された俯瞰画像Aは、出力部74によって表示部52に出力される。これにより、ユーザは、俯瞰画像Aを確認することで、車両C1と周辺物体(ここでは、周辺車両C2や信号機E1,E2、停止線F1,F2等)との位置関係を把握でき、よって車両C1の周辺の状況を容易に把握することができる。 The bird's-eye view image A generated as described above is output to the display unit 52 by the output unit 74. As a result, the user can grasp the positional relationship between the vehicle C1 and the peripheral objects (here, peripheral vehicles C2, traffic lights E1, E2, stop lines F1, F2, etc.) by checking the bird's-eye view image A, and thus the vehicle. The situation around C1 can be easily grasped.

なお、上記した俯瞰画像Aには、周辺車両C2の画像、停止線F1,F2の画像、および、信号機E1,E2の状態の画像が含まれるようにしたが、これに限定されるものではない。例えば、俯瞰画像Aには、周辺車両C2の画像、停止線F1,F2の画像、および、信号機E1,E2の状態の画像の少なくともいずれかが含まれるようにしてもよい。 The above-mentioned bird's-eye view image A includes, but is not limited to, an image of the peripheral vehicle C2, an image of the stop lines F1 and F2, and an image of the state of the traffic lights E1 and E2. .. For example, the bird's-eye view image A may include at least one of an image of the peripheral vehicle C2, an image of the stop lines F1 and F2, and an image of the states of the traffic lights E1 and E2.

また、生成部73は、車両C1や周辺車両C2が走行する道路の道路状況に応じた所定のタイミングにおける俯瞰画像Aを生成する。例えば、生成部73は、道路状況が変化したタイミングを所定のタイミングとし、道路状況が変化したタイミングにおける俯瞰画像Aを生成する。 Further, the generation unit 73 generates a bird's-eye view image A at a predetermined timing according to the road condition of the road on which the vehicle C1 and the peripheral vehicle C2 travel. For example, the generation unit 73 sets the timing when the road condition changes as a predetermined timing, and generates the bird's-eye view image A at the timing when the road condition changes.

詳しくは、生成部73は、車両C1や周辺車両C2の停止に関する道路状況や、車両C1や周辺車両C2の発進に関する道路状況などが変化したタイミングにおける俯瞰画像Aを生成する。具体的には、生成部73は、信号機E1や信号機E2の状態が赤信号に変化したタイミング、青信号に変化したタイミング、黄信号に変化したタイミングなど道路状況が変化したタイミングにおける俯瞰画像Aを生成する。なお、上記した所定のタイミングは、ユーザによって指定されるが、これに限定されるものではない。 Specifically, the generation unit 73 generates a bird's-eye view image A at the timing when the road condition regarding the stop of the vehicle C1 and the peripheral vehicle C2 and the road condition regarding the start of the vehicle C1 and the peripheral vehicle C2 change. Specifically, the generation unit 73 generates a bird's-eye view image A at the timing when the road conditions such as the timing when the state of the traffic light E1 and the traffic light E2 changes to a red signal, the timing when the signal changes to a green signal, and the timing when the road condition changes to a yellow signal. To do. The predetermined timing described above is specified by the user, but is not limited to this.

図8の例は、図1と同様、信号機E1の状態が赤信号に変化したタイミングが所定のタイミングとしてユーザによって指定され、かかる所定のタイミングにおける俯瞰画像Aである。また、図8に示す俯瞰画像Aの例では、信号機E2の右折信号の状態が青信号であることも示している。なお、この信号機E2の状態(信号の色など)の情報は、上記したように、周辺車両C2の車両情報に含まれる周辺車両撮像画像に基づいて得られた情報である。 An example of FIG. 8 is a bird's-eye view image A at a predetermined timing in which the timing at which the state of the traffic light E1 changes to a red signal is designated by the user as a predetermined timing, as in FIG. Further, in the example of the bird's-eye view image A shown in FIG. 8, it is also shown that the state of the right turn signal of the traffic light E2 is a green light. The information on the state (signal color, etc.) of the traffic light E2 is information obtained based on the peripheral vehicle image captured in the vehicle information of the peripheral vehicle C2 as described above.

これにより、ユーザは、生成された俯瞰画像Aを確認することで、例えば信号機E1の状態が赤信号に変化したタイミングのときに車両C1が交差点Dに進入したこと、また、周辺車両C2が右折するときの信号機E2の状態は青信号であることなど、車両C1の周辺の状況を容易に把握することができ、よって所定のイベントの発生原因が車両C1側にあることを特定することも可能となる。 As a result, the user confirms the generated bird's-eye view image A so that, for example, the vehicle C1 enters the intersection D at the timing when the state of the traffic light E1 changes to a red light, and the peripheral vehicle C2 turns right. It is possible to easily grasp the situation around the vehicle C1 such as the state of the traffic light E2 at the time of the event being a green light, and thus it is also possible to identify that the cause of the occurrence of a predetermined event is on the vehicle C1 side. Become.

なお、上記では、信号機E1の状態が赤信号に変化するなど道路状況が変化したタイミングを所定のタイミングとしたが、これに限定されるものではない。すなわち、例えば、所定のタイミングは、車両C1が停止線F1に差し掛かったタイミングや停止線F1を越えたタイミング、また、周辺車両C2が停止線F2に差し掛かったタイミングや停止線F2を越えたタイミングなどその他のタイミングであってもよい。 In the above, the timing at which the road condition changes, such as the state of the traffic light E1 changing to a red light, is set as a predetermined timing, but the timing is not limited to this. That is, for example, the predetermined timing includes the timing when the vehicle C1 approaches the stop line F1, the timing when the vehicle C1 crosses the stop line F1, the timing when the peripheral vehicle C2 approaches the stop line F2, the timing when the vehicle C2 crosses the stop line F2, and the like. Other timings may be used.

また、生成部73は、記憶部80にアクセスし、撮像画像に対応付けて記憶される車速情報を読み出し、車速情報を含む俯瞰画像Aを生成してもよい。例えば、生成部73は、俯瞰画像Aにおいて、車両C1の車速を表示欄Y1に表示し、周辺車両C2の車速を表示欄Y2に表示してもよい。なお、図8に示す俯瞰画像Aの例では、車両C1の車速が「70km/h」、周辺車両C2の車速が「30km/h」であることを示している。 Further, the generation unit 73 may access the storage unit 80, read out the vehicle speed information stored in association with the captured image, and generate the bird's-eye view image A including the vehicle speed information. For example, the generation unit 73 may display the vehicle speed of the vehicle C1 in the display column Y1 and the vehicle speed of the peripheral vehicle C2 in the display column Y2 in the bird's-eye view image A. In the example of the bird's-eye view image A shown in FIG. 8, it is shown that the vehicle speed of the vehicle C1 is "70 km / h" and the vehicle speed of the peripheral vehicle C2 is "30 km / h".

これにより、ユーザは、生成された俯瞰画像Aを確認することで、例えば車両C1や周辺車両C2の車速を把握することができる。また、例えば、図8に示す交差点Dの速度制限が「50km/h」である場合、ユーザは、車両C1が速度制限を超過した状態で、交差点Dに進入したことなども容易に把握することができる。 As a result, the user can grasp the vehicle speeds of, for example, the vehicle C1 and the peripheral vehicle C2 by checking the generated bird's-eye view image A. Further, for example, when the speed limit of the intersection D shown in FIG. 8 is "50 km / h", the user can easily grasp that the vehicle C1 has entered the intersection D with the speed limit exceeded. Can be done.

なお、上記では、生成部73は、車両C1や周辺車両C2の車速を示す情報を含む俯瞰画像Aを生成するようにしたが、これに限定されるものではない。すなわち、生成部73は、車速に代えて、あるいは加えて、車両C1や周辺車両C2の加速度を示す情報を含む俯瞰画像Aを生成してもよい。 In the above description, the generation unit 73 generates the bird's-eye view image A including the information indicating the vehicle speeds of the vehicle C1 and the peripheral vehicle C2, but the present invention is not limited to this. That is, the generation unit 73 may generate a bird's-eye view image A including information indicating the acceleration of the vehicle C1 and the peripheral vehicle C2 instead of or in addition to the vehicle speed.

<5.実施形態に係る情報処理装置の制御処理>
次に、情報処理装置50における具体的な処理手順について図9を用いて説明する。図9は、情報処理装置50が実行する処理手順を示すフローチャートである。
<5. Control processing of the information processing device according to the embodiment>
Next, a specific processing procedure in the information processing apparatus 50 will be described with reference to FIG. FIG. 9 is a flowchart showing a processing procedure executed by the information processing apparatus 50.

図9に示すように、情報処理装置50の制御部70は、車両C1において撮像された撮像画像などを含む車両情報を取得する(ステップS10)。次いで、制御部70は、取得された車両情報に基づいて、車両C1と周辺物体(例えば、周辺車両C2や信号機E1,E2、停止線F1,F2等)との位置関係を検出する(ステップS11)。 As shown in FIG. 9, the control unit 70 of the information processing device 50 acquires vehicle information including an captured image captured by the vehicle C1 (step S10). Next, the control unit 70 detects the positional relationship between the vehicle C1 and peripheral objects (for example, peripheral vehicles C2, traffic lights E1, E2, stop lines F1, F2, etc.) based on the acquired vehicle information (step S11). ).

次いで、制御部70は、車両情報に基づいて、検出された位置関係にある車両C1および周辺物体の画像(生成用画像)を含む俯瞰画像Aであって、ユーザにより指定された、車両C1が走行する道路の道路状況に応じた所定のタイミングにおける俯瞰画像Aを生成する(ステップS12)。続いて、制御部70は、生成された俯瞰画像を表示部52などへ出力する(ステップS13)。 Next, the control unit 70 is a bird's-eye view image A including an image (generation image) of the vehicle C1 having a detected positional relationship and a peripheral object based on the vehicle information, and the vehicle C1 designated by the user is A bird's-eye view image A is generated at a predetermined timing according to the road condition of the traveling road (step S12). Subsequently, the control unit 70 outputs the generated bird's-eye view image to the display unit 52 or the like (step S13).

上述してきたように、実施形態に係る情報処理装置50は、取得部71と、検出部72と、生成部73とを備える。取得部71は、車両C1において撮像された撮像画像を含む車両情報を取得する。検出部72は、取得部71によって取得された車両情報に基づいて、車両C1と車両の周辺に存在する周辺物体との位置関係を検出する。生成部73は、車両情報に基づいて、検出部72によって検出された位置関係にある車両C1および周辺物体の画像を含む俯瞰画像であって、車両C1が走行する道路の道路状況に応じた所定のタイミングにおける俯瞰画像を生成する。これにより、ユーザに対して車両C1の周辺の状況を容易に把握させることができる。 As described above, the information processing apparatus 50 according to the embodiment includes an acquisition unit 71, a detection unit 72, and a generation unit 73. The acquisition unit 71 acquires vehicle information including the captured image captured by the vehicle C1. The detection unit 72 detects the positional relationship between the vehicle C1 and peripheral objects existing around the vehicle based on the vehicle information acquired by the acquisition unit 71. The generation unit 73 is a bird's-eye view image including images of the vehicle C1 and surrounding objects in a positional relationship detected by the detection unit 72 based on the vehicle information, and is a predetermined image according to the road condition of the road on which the vehicle C1 travels. Generate a bird's-eye view image at the timing of. As a result, the user can easily grasp the situation around the vehicle C1.

なお、上記した実施形態に係る情報処理装置50は、所定のタイミングにおける俯瞰画像Aを生成するようにしたが、これに限定されるものではなく、例えば任意のタイミングにおける俯瞰画像Aを生成してもよい。 The information processing device 50 according to the above-described embodiment is designed to generate a bird's-eye view image A at a predetermined timing, but the present invention is not limited to this, and for example, a bird's-eye view image A at an arbitrary timing is generated. May be good.

また、図8等に示す例では、俯瞰画像Aは交差点Dを上方から見たときの画像であるが、これに限定されるものではなく、例えば斜め上方からなどその他の視点から見たときの画像であってもよい。 Further, in the example shown in FIG. 8 and the like, the bird's-eye view image A is an image when the intersection D is viewed from above, but is not limited to this, and is not limited to this, and is when viewed from another viewpoint such as from diagonally above. It may be an image.

また、図8等では、信号機E1,E2の状態がユーザによって認識されやすいように、信号機E1,E2の信号灯が上方を向くような信号機画像(生成画像)を用いるようにしたが、これはあくまでも例示であって限定されるものではない。すなわち、例えば、信号灯が側方を向くような信号機E1,E2の画像、言い換えると、信号機E1,E2を実際に上方から見たときのような画像に、信号機E1,E2の状態(信号の色)に応じた色を着色したものなど、その他の種類の信号機画像を用いてもよい。 Further, in FIG. 8 and the like, a traffic light image (generated image) in which the signal lights of the traffic lights E1 and E2 face upward is used so that the state of the traffic lights E1 and E2 can be easily recognized by the user. It is an example and is not limited. That is, for example, an image of the traffic lights E1 and E2 in which the signal light faces sideways, in other words, an image of the traffic lights E1 and E2 actually viewed from above, and the state of the traffic lights E1 and E2 (the color of the signal). ) May be used, and other types of traffic light images may be used.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and variations can be easily derived by those skilled in the art. For this reason, the broader aspects of the invention are not limited to the particular details and representative embodiments expressed and described as described above. Therefore, various modifications can be made without departing from the spirit or scope of the general concept of the invention as defined by the appended claims and their equivalents.

1 情報処理システム
10 車載装置
50 情報処理装置
71 取得部
72 検出部
73 生成部
C1 車両
C2 周辺車両
1 Information processing system 10 In-vehicle device 50 Information processing device 71 Acquisition unit 72 Detection unit 73 Generation unit C1 Vehicle C2 Peripheral vehicle

Claims (7)

車両において撮像された撮像画像を含む車両情報を取得する取得部と、
前記取得部によって取得された前記車両情報に基づいて、前記車両と前記車両の周辺に存在する周辺物体との位置関係を検出する検出部と、
前記車両情報に基づいて、前記検出部によって検出された前記位置関係にある前記車両および前記周辺物体の画像を含む俯瞰画像であって、前記車両が走行する道路の道路状況に応じた所定のタイミングにおける前記俯瞰画像を生成する生成部と
を備えることを特徴とする情報処理装置。
An acquisition unit that acquires vehicle information including captured images captured in the vehicle,
Based on the vehicle information acquired by the acquisition unit, a detection unit that detects the positional relationship between the vehicle and peripheral objects existing around the vehicle, and a detection unit.
A bird's-eye view image including images of the vehicle and its peripheral objects in the positional relationship detected by the detection unit based on the vehicle information, and at a predetermined timing according to the road condition of the road on which the vehicle travels. An information processing apparatus including a generation unit for generating the bird's-eye view image in the above.
前記生成部は、
前記検出部によって検出された前記位置関係に基づいて、予め用意され所定の仮想視点から見たときの前記車両および前記周辺物体の画像を合成したアニメーション画像を前記俯瞰画像として生成すること
を特徴とする請求項1に記載の情報処理装置。
The generator
Based on the positional relationship detected by the detection unit, an animation image obtained by synthesizing images of the vehicle and the peripheral objects prepared in advance and viewed from a predetermined virtual viewpoint is generated as the bird's-eye view image. The information processing apparatus according to claim 1.
前記取得部は、
前記車両情報として、前記所定のタイミングにおける前記車両の速度を示す車速情報を取得し、
前記生成部は、
前記取得部によって取得された前記車速情報を含む前記俯瞰画像を生成すること
を特徴とする請求項1または2に記載の情報処理装置。
The acquisition unit
As the vehicle information, vehicle speed information indicating the speed of the vehicle at the predetermined timing is acquired, and the vehicle speed information is acquired.
The generator
The information processing device according to claim 1 or 2, wherein the bird's-eye view image including the vehicle speed information acquired by the acquisition unit is generated.
前記生成部は、
前記道路状況が変化したタイミングを前記所定のタイミングとし、前記道路状況が変化したタイミングにおける前記俯瞰画像を生成すること
を特徴とする請求項1〜3のいずれか一つに記載の情報処理装置。
The generator
The information processing apparatus according to any one of claims 1 to 3, wherein the timing at which the road condition changes is set as the predetermined timing, and the bird's-eye view image at the timing at which the road condition changes is generated.
前記周辺物体は前記車両の周辺に存在する周辺車両を含み、
前記取得部は、
前記車両情報として、前記周辺車両において撮像された周辺車両撮像画像を取得すること
を特徴とする請求項1〜4のいずれか一つに記載の情報処理装置。
The peripheral object includes peripheral vehicles existing around the vehicle, and includes peripheral vehicles.
The acquisition unit
The information processing device according to any one of claims 1 to 4, wherein as the vehicle information, a peripheral vehicle image captured by the peripheral vehicle is acquired.
前記生成部は、
予め用意された前記周辺物体の画像として、前記車両の周辺に存在する周辺車両の画像、前記車両が走行する道路の停止線の画像、および、当該道路の信号機の状態の画像の少なくともいずれかを含む前記俯瞰画像を生成すること
を特徴とする請求項1〜5のいずれか一つに記載の情報処理装置。
The generator
As an image of the peripheral object prepared in advance, at least one of an image of a peripheral vehicle existing around the vehicle, an image of a stop line of the road on which the vehicle travels, and an image of the state of a traffic light on the road are used. The information processing apparatus according to any one of claims 1 to 5, wherein the bird's-eye view image including the above is generated.
車両において撮像された撮像画像を含む車両情報を取得する取得工程と、
前記取得工程によって取得された前記車両情報に基づいて、前記車両と前記車両の周辺に存在する周辺物体との位置関係を検出する検出工程と、
前記車両情報に基づいて、前記検出工程によって検出された前記位置関係にある前記車両および前記周辺物体の画像を含む俯瞰画像であって、前記車両が走行する道路の道路状況に応じた所定タイミングにおける前記俯瞰画像を生成する生成工程と
を含むことを特徴とする情報処理方法。
The acquisition process for acquiring vehicle information including captured images captured in the vehicle, and
Based on the vehicle information acquired by the acquisition step, a detection step of detecting the positional relationship between the vehicle and peripheral objects existing around the vehicle, and a detection step.
It is a bird's-eye view image including images of the vehicle and the peripheral objects in the positional relationship detected by the detection step based on the vehicle information, and at a predetermined timing according to the road condition of the road on which the vehicle travels. An information processing method including a generation step of generating a bird's-eye view image.
JP2019213974A 2019-11-27 2019-11-27 Information processing device and information processing method Pending JP2021086342A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019213974A JP2021086342A (en) 2019-11-27 2019-11-27 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019213974A JP2021086342A (en) 2019-11-27 2019-11-27 Information processing device and information processing method

Publications (1)

Publication Number Publication Date
JP2021086342A true JP2021086342A (en) 2021-06-03

Family

ID=76087783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019213974A Pending JP2021086342A (en) 2019-11-27 2019-11-27 Information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP2021086342A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227571A (en) * 2010-04-15 2011-11-10 Fujitsu Ltd Information processing method, information processing program, and information processing apparatus
JP2014089491A (en) * 2012-10-29 2014-05-15 Hitachi Consumer Electronics Co Ltd Picture processing system
JP2017126213A (en) * 2016-01-14 2017-07-20 株式会社リコー Intersection state check system, imaging device, on-vehicle device, intersection state check program and intersection state check method
JP2017191472A (en) * 2016-04-13 2017-10-19 日産自動車株式会社 Image display method and image display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227571A (en) * 2010-04-15 2011-11-10 Fujitsu Ltd Information processing method, information processing program, and information processing apparatus
JP2014089491A (en) * 2012-10-29 2014-05-15 Hitachi Consumer Electronics Co Ltd Picture processing system
JP2017126213A (en) * 2016-01-14 2017-07-20 株式会社リコー Intersection state check system, imaging device, on-vehicle device, intersection state check program and intersection state check method
JP2017191472A (en) * 2016-04-13 2017-10-19 日産自動車株式会社 Image display method and image display device

Similar Documents

Publication Publication Date Title
JP6894471B2 (en) Patrol car patrol by self-driving car (ADV) subsystem
US11630998B2 (en) Systems and methods for automatically training neural networks
CN106255899B (en) Device for signaling an object to a navigation module of a vehicle equipped with such a device
CN106611512B (en) Method, device and system for processing starting of front vehicle
JP7040374B2 (en) Object detection device, vehicle control system, object detection method and computer program for object detection
US20230106791A1 (en) Control device for vehicle and automatic driving system
US20180017799A1 (en) Heads Up Display For Observing Vehicle Perception Activity
CN110796007B (en) Scene recognition method and computing device
JP6743732B2 (en) Image recording system, image recording method, image recording program
Haas et al. Advanced driver assistance systems
US11189162B2 (en) Information processing system, program, and information processing method
WO2022005478A1 (en) Systems and methods for detecting projection attacks on object identification systems
Matsuda et al. A system for real-time on-street parking detection and visualization on an edge device
Ke et al. Edge computing for real-time near-crash detection for smart transportation applications
US20200250970A1 (en) Information processing apparatus, information processing method and program
JP2015028711A (en) Traffic environment information recorder for vehicle
JP5145138B2 (en) Driving support device, driving support control method, and driving support control processing program
JP2021086342A (en) Information processing device and information processing method
JP7021899B2 (en) Image generator and image generation method
US20220237926A1 (en) Travel management device, travel management method, and recording medium
CN114333414A (en) Parking yield detection device, parking yield detection system, and recording medium
US11881031B2 (en) Hierarchical processing of traffic signal face states
Rahman et al. Adas reliability against weather conditions: Quantification of performance robustness
WO2020073270A1 (en) Snapshot image of traffic scenario
Georoceanu Extending parking assistance for automative user interfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240213