JP2021086342A - Information processing device and information processing method - Google Patents
Information processing device and information processing method Download PDFInfo
- Publication number
- JP2021086342A JP2021086342A JP2019213974A JP2019213974A JP2021086342A JP 2021086342 A JP2021086342 A JP 2021086342A JP 2019213974 A JP2019213974 A JP 2019213974A JP 2019213974 A JP2019213974 A JP 2019213974A JP 2021086342 A JP2021086342 A JP 2021086342A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- information
- peripheral
- bird
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 86
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 238000001514 detection method Methods 0.000 claims abstract description 27
- 230000002093 peripheral effect Effects 0.000 claims description 125
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 89
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 89
- 238000000034 method Methods 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 2
- 230000006854 communication Effects 0.000 description 18
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 16
- 238000004458 analytical method Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000007175 bidirectional communication Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、情報処理装置および情報処理方法に関する。 The present invention relates to an information processing apparatus and an information processing method.
従来、車両に搭載されるドライブレコーダを用い、車両の周辺を撮像して記録する技術が知られている。また、ドライブレコーダによって撮像された撮像画像をユーザに提供することで、車両の周辺の状況をユーザに把握させる技術も種々提案されている(例えば、特許文献1参照)。 Conventionally, a technique has been known in which a drive recorder mounted on a vehicle is used to image and record the periphery of the vehicle. Further, various techniques have been proposed in which the user is made to grasp the situation around the vehicle by providing the captured image captured by the drive recorder to the user (see, for example, Patent Document 1).
しかしながら、従来技術には、ユーザに対して車両の周辺の状況を容易に把握させるという点で改善の余地があった。 However, there is room for improvement in the prior art in that the user can easily grasp the situation around the vehicle.
本発明は、上記に鑑みてなされたものであって、ユーザに対して車両の周辺の状況を容易に把握させることができる情報処理装置および情報処理方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an information processing device and an information processing method capable of allowing a user to easily grasp the situation around a vehicle.
上記課題を解決し、目的を達成するために、本発明は、情報処理装置において、取得部と、検出部と、生成部とを備える。取得部は、車両において撮像された撮像画像を含む車両情報を取得する。検出部は、前記取得部によって取得された前記車両情報に基づいて、前記車両と前記車両の周辺に存在する周辺物体との位置関係を検出する。生成部は、前記車両情報に基づいて、前記検出部によって検出された前記位置関係にある前記車両および前記周辺物体の画像を含む俯瞰画像であって、前記車両が走行する道路の道路状況に応じた所定のタイミングにおける前記俯瞰画像を生成する。 In order to solve the above problems and achieve the object, the present invention includes an acquisition unit, a detection unit, and a generation unit in the information processing apparatus. The acquisition unit acquires vehicle information including the captured image captured in the vehicle. The detection unit detects the positional relationship between the vehicle and peripheral objects existing around the vehicle based on the vehicle information acquired by the acquisition unit. The generation unit is a bird's-eye view image including images of the vehicle and the peripheral objects in the positional relationship detected by the detection unit based on the vehicle information, and depends on the road condition of the road on which the vehicle travels. The bird's-eye view image is generated at a predetermined timing.
本発明によれば、ユーザに対して車両の周辺の状況を容易に把握させることができる。 According to the present invention, the user can easily grasp the situation around the vehicle.
以下、添付図面を参照して、本願の開示する情報処理装置および情報処理方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of the information processing apparatus and information processing method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited to the embodiments shown below.
<1.情報処理方法の概要>
以下では先ず、実施形態に係る情報処理方法の概要について図1を参照して説明する。図1は、実施形態に係る情報処理方法の概要を示す図である。
<1. Overview of information processing method>
Hereinafter, first, an outline of the information processing method according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an outline of an information processing method according to an embodiment.
実施形態に係る情報処理方法は、例えば情報処理システム1に含まれる情報処理装置50によって実行される。具体的に説明すると、図1に示すように、情報処理システム1は、車載装置10と、上記した情報処理装置50とを備える。
The information processing method according to the embodiment is executed by, for example, the
車載装置10は、車両C1に搭載される。車載装置10は、例えばドライブレコーダを含む。車載装置10は、車両C1の周辺を撮像し、撮像された撮像画像を記録することができる。
The in-
ところで、従来技術にあっては、車載装置10によって撮像された撮像画像を、例えば車両C1のユーザに対して提供していた。詳しくは、例えば、車両C1が、車両C1の周辺に存在する周辺車両C2と接触する、あるいは接触しそうになったりするなど所定のイベントが発生した場合、撮像画像を提供することで、イベント発生時の車両C1の周辺の状況をユーザに把握させるようにしていた。なお、図1では、車両C1および周辺車両C2が交差点Dに進入し、交差点Dを直進する車両C1と交差点Dを右折する周辺車両C2とが接触する場合を一例に挙げて説明を続ける。
By the way, in the prior art, the captured image captured by the in-
しかしながら、ユーザは、車載装置10によって撮像された撮像画像だけでは、イベント発生時またはイベント発生前における車両C1の周辺の状況を十分に把握することが難しかった。また、ユーザは、車両C1の周辺の状況を十分に把握できないと、イベントの発生原因を特定することが難しかった、具体的にはイベントの発生原因が車両C1側にあるのか、周辺車両C2側にあるのかを特定することが難しかった。
However, it has been difficult for the user to sufficiently grasp the situation around the vehicle C1 at the time of the event occurrence or before the event occurrence only by the captured image captured by the in-
そこで、本実施形態に係る情報処理装置50にあっては、ユーザに対して車両C1の周辺の状況を容易に把握させることができるような構成とした。
Therefore, the
以下、具体的に説明すると、情報処理装置50は、車載装置10と各種の情報を通信可能な装置である。情報処理装置50としては、例えばパーソナルコンピュータやサーバなどを用いることができるが、これに限定されるものではない。
Specifically, the
なお、図1では、車載装置10と情報処理装置50とが別体である構成例を示したが、これに限られず、例えば、車載装置10と情報処理装置50とを一体とし、車載装置10が情報処理装置50として機能するように構成してもよい。
Note that FIG. 1 shows a configuration example in which the vehicle-mounted
情報処理装置50は、車両C1において撮像された撮像画像を含む車両情報を取得する(ステップS1)。ここで、撮像画像には、周辺車両C2、車両C1の周辺(例えば前方)にある信号機E1,E2、車両C1および周辺車両C2が走行する道路の停止線F1,F2など、車両C1の周辺に存在する周辺物体が含まれるものとする。また、撮像画像には、撮像画像が撮像された位置を示す位置情報や撮像された日時を示す日時情報などが含まれてもよい。
The
なお、図1に想像線で示すように、周辺車両C2にも車載装置10が搭載される場合がある。かかる場合、情報処理装置50は、周辺車両C2の車載装置10から撮像画像を含む車両情報を取得することができる。すなわち、周辺車両C2に搭載される車載装置10は、周辺車両C2の周辺を撮像し、撮像された撮像画像(以下、「周辺車両撮像画像」と記載する場合がある)を記録する。そして、情報処理装置50は、周辺車両C2の車載装置10から周辺車両撮像画像を含む車両情報を取得することができる。
As shown by an imaginary line in FIG. 1, the in-
周辺車両撮像画像には、車両C1、周辺車両C2の周辺にある信号機E1,E2、道路の停止線F1,F2など、周辺車両C2の周辺に存在する周辺物体が含まれるものとする。また、周辺車両撮像画像には、撮像画像と同様、周辺車両撮像画像が撮像された位置を示す位置情報や撮像された日時を示す日時情報などが含まれてもよい。 It is assumed that the peripheral vehicle captured image includes peripheral objects existing around the peripheral vehicle C2, such as the traffic lights E1 and E2 around the vehicle C1 and the peripheral vehicle C2, and the road stop lines F1 and F2. Further, the peripheral vehicle captured image may include position information indicating the position where the peripheral vehicle captured image was captured, date and time information indicating the date and time when the image was captured, and the like, as in the captured image.
なお、上記では、情報処理装置50は、車両情報を、車両C1の車載装置10および周辺車両C2の車載装置10からそれぞれ取得するようにしたが、これに限定されるものではない。すなわち、例えば、周辺車両C2の車載装置10は、周辺車両撮像画像を含む車両情報を車車間通信などの無線通信を介して車両C1の車載装置10へ送信する。そして、情報処理装置50は、周辺車両撮像画像を含む車両情報と、車両C1の車載装置10が撮像した撮像画像を含む車両情報とを一緒に、車両C1の車載装置10から取得するようにしてもよい。この場合、車両C1の車載装置10のメモリカードに車両C1および周辺車両の車両情報を記録し、情報処理装置50は、メモリカードから各車両情報を取得するようにしてもよい。
In the above description, the
次いで、情報処理装置50は、取得された車両情報に基づいて、車両C1と車両C1の周辺に存在する周辺物体との位置関係を検出する(ステップS2)。例えば、情報処理装置50は、車両情報に含まれる撮像画像や周辺車両撮像画像を解析し、車両C1と周辺物体(ここでは、例えば周辺車両C2や信号機E1,E2、停止線F1,F2等)との相対位置や、車両C1から周辺物体までの距離などの位置関係を検出する。
Next, the
次いで、情報処理装置50は、車両情報に基づいて俯瞰画像Aを生成する(ステップS3)。なお、俯瞰画像Aは、車両情報に含まれる撮像画像が撮像された場所(ここでは交差点D)を所定の仮想視点から見たときの画像(例えばアニメーション画像)である。具体的に図1に示す例では、俯瞰画像Aは、交差点Dを上方から見たときの画像である。
Next, the
例えば、情報処理装置50は、車両情報に基づいて、検出された位置関係にある車両C1および周辺物体(ここでは、例えば周辺車両C2や信号機E1,E2、停止線F1,F2等)の画像を含む俯瞰画像Aを生成する。
For example, the
なお、俯瞰画像Aにおいて、車両C1および周辺物体の画像は、例えば、情報処理装置50において予め用意された画像、言い換えると、情報処理装置50に予め記憶された画像を用いてもよいし、撮像画像等の解析結果に基づいて情報処理装置50が描画した画像を用いてもよい。また、俯瞰画像Aにおいて、歩道や横断歩道などを含む交差点Dの全体の画像は、例えば、情報処理装置50において予め用意された画像を用いてもよいし、情報処理装置50が、撮像画像に含まれる位置情報に基づいて地図情報サーバ(外部サーバ。図示せず)から取得した画像を用いてもよいし、撮像画像等の解析結果に基づいて描画した画像を用いてもよい。
In the bird's-eye view image A, as the image of the vehicle C1 and the peripheral objects, for example, an image prepared in advance in the
また、情報処理装置50は、車両C1が走行する道路の道路状況に応じた所定のタイミングにおける俯瞰画像Aを生成する。これにより、ユーザは、生成された俯瞰画像Aを確認(視認)することで、車両C1の周辺の状況を容易に把握することができる。また、ユーザは、車両C1の周辺の状況を把握することで、所定のイベントの発生原因を特定することも可能となる。
Further, the
すなわち、例えば車両C1と周辺車両C2とが接触するなど所定のイベントが発生した場合、ユーザは、イベントが発生する前であって、車両C1が走行する道路の道路状況が変わるタイミングにおける車両C1の周辺の状況を把握することで、イベントの発生原因を特定できることがある。 That is, when a predetermined event occurs, for example, when the vehicle C1 and the peripheral vehicle C2 come into contact with each other, the user can use the vehicle C1 at the timing when the road condition of the road on which the vehicle C1 travels changes before the event occurs. By understanding the surrounding situation, it may be possible to identify the cause of the event.
そこで、本実施形態において、上記した道路状況は、例えば車両C1が走行する道路に設定された信号機E1,E2の状態を含む。そしてここでは、道路状況に応じた所定のタイミングは、例えば道路状況が変化したタイミング、言い換えると、信号機E1,E2の状態が変化したタイミングに設定される。 Therefore, in the present embodiment, the above-mentioned road condition includes, for example, the state of the traffic lights E1 and E2 set on the road on which the vehicle C1 travels. Here, the predetermined timing according to the road condition is set to, for example, the timing when the road condition changes, in other words, the timing when the states of the traffic lights E1 and E2 change.
図1の例では、所定のタイミングは、信号機E1の状態が赤信号に変化したタイミングである。また、図1に示す俯瞰画像Aでは、周辺車両C2が交差点Dにおいて右折を行い、車両C1は、信号機E1の状態が赤信号になったにもかかわらず、交差点Dに進入している様子が示される。なお、俯瞰画像Aについては、図8などを参照して後に詳しく説明する。 In the example of FIG. 1, the predetermined timing is the timing when the state of the traffic light E1 changes to a red light. Further, in the bird's-eye view image A shown in FIG. 1, the peripheral vehicle C2 makes a right turn at the intersection D, and the vehicle C1 is entering the intersection D even though the traffic light E1 is in a red light. Shown. The bird's-eye view image A will be described in detail later with reference to FIG. 8 and the like.
次いで、情報処理装置50は、生成された俯瞰画像Aを出力する(ステップS4)。例えば、情報処理装置50は、情報処理装置50自身が備える表示部52(後述)に俯瞰画像Aを出力してもよいし、車載装置10に俯瞰画像Aを出力して表示させてもよい。
Next, the
これにより、ユーザは、生成された俯瞰画像Aを確認することで、車両C1の周辺の状況を容易に把握することができる。また、ユーザは、例えば信号機E1の状態が赤信号に変化したタイミングのときに車両C1が交差点Dに進入したなど、車両C1の周辺の状況を把握することで、所定のイベントの発生原因が車両C1側にあることを特定することも可能となる。 As a result, the user can easily grasp the situation around the vehicle C1 by checking the generated bird's-eye view image A. Further, the user can grasp the situation around the vehicle C1 such that the vehicle C1 enters the intersection D at the timing when the state of the traffic light E1 changes to a red light, so that the cause of the occurrence of the predetermined event is the vehicle. It is also possible to specify that it is on the C1 side.
<2.情報処理装置を含む情報処理システムの構成>
次に、実施形態に係る情報処理装置50を含む情報処理システム1の構成について、図2を用いて説明する。図2は、情報処理装置50を含む情報処理システム1の構成例を示すブロック図である。なお、図2などのブロック図では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
<2. Configuration of information processing system including information processing device>
Next, the configuration of the information processing system 1 including the
換言すれば、図2などのブロック図に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component shown in the block diagram such as FIG. 2 is a functional concept and does not necessarily have to be physically configured as shown in the figure. For example, the specific form of distribution / integration of each functional block is not limited to the one shown in the figure, and all or part of the functional blocks are functionally or physically distributed in arbitrary units according to various loads and usage conditions. -It is possible to integrate and configure.
図2に示すように、情報処理システム1は、上記した車載装置10と、情報処理装置50と、監視カメラ100とを含み、これらはインターネット網などの通信ネットワークNを介して通信可能に接続される。なお、車載装置10と、情報処理装置50と、監視カメラ100とは、上記した通信ネットワークNに限らず、その他の種類の無線通信や有線通信を介して通信可能に接続されてもよい。また、車載装置10同士は、車車間通信などの無線通信を介して通信可能に接続されてもよい。
As shown in FIG. 2, the information processing system 1 includes the above-mentioned in-
監視カメラ100は、車両C1や周辺車両C2が走行する道路に設置されるカメラである。監視カメラ100は、周辺を撮像し、撮像された撮像画像を記録することができる。監視カメラ100によって撮像される撮像画像には、道路を走行する車両C1や周辺車両C2、信号機E1,E2、停止線F1,F2(図1参照)などが含まれてもよい。そして、監視カメラ100は、撮像された撮像画像を含む車両情報を情報処理装置50へ送信することができる。また、監視カメラ100の撮像画像には、撮像画像が撮像された位置(すなわち監視カメラ100の位置)を示す位置情報や、撮像画像が撮像された日時を示す日時情報などが含まれてもよい。
The surveillance camera 100 is a camera installed on the road on which the vehicle C1 and the peripheral vehicle C2 travel. The surveillance camera 100 can image the surroundings and record the captured image. The captured image captured by the surveillance camera 100 may include a vehicle C1 traveling on a road, a peripheral vehicle C2, traffic lights E1 and E2, stop lines F1 and F2 (see FIG. 1), and the like. Then, the surveillance camera 100 can transmit the vehicle information including the captured image to the
なお、上記した情報処理システム1では、監視カメラ100を含むようにしたが、これに限定されるものではなく、監視カメラ100を含まない構成であってもよい。また、図2では、車載装置10が複数台である例を示したが、これに限られず、1台であってもよい。
Although the information processing system 1 described above includes the surveillance camera 100, the information processing system 1 is not limited to this, and the configuration may not include the surveillance camera 100. Further, although FIG. 2 shows an example in which the number of in-
次いで、上記した車載装置10および情報処理装置50の構成について具体的に説明する。
Next, the configurations of the in-
<3.車載装置の構成>
図3は、車載装置10の構成例を示すブロック図である。図3に示すように、車載装置10は、通信部11と、車載カメラ12と、車載センサ群13と、制御装置20とを備える。
<3. In-vehicle device configuration>
FIG. 3 is a block diagram showing a configuration example of the in-
通信部11は、通信ネットワークNに双方向通信可能に接続する通信インターフェイスであり、情報処理装置50等との間で情報の送受信を行う。
The
車載カメラ12は、例えばドライブレコーダのカメラであり、車両C1の周辺を撮像する。車載カメラ12は、撮像した撮像画像を制御装置20へ出力する。
The in-
車載センサ群13には、例えば、車両C1の速度を検出する車速センサや、GPS(Global Positioning System)衛星からの信号に基づいて車両C1の位置を示す位置情報を検出するGPS受信機などが含まれるが、これらに限定されるものではない。車載センサ群13は、得られた車両C1の速度を示す車速情報や車両C1の位置情報などを制御装置20へ出力する。
The in-
制御装置20は、制御部30と、記憶部40とを備える。制御部30は、処理部31と、送信部32とを備え、CPU(Central Processing Unit)などを有するマイクロコンピュータである。
The
記憶部40は、例えば、不揮発性メモリやデータフラッシュ、ハードディスクドライブといった記憶デバイスで構成される記憶部である。かかる記憶部40には、撮像画像41、車速情報42および各種プログラムなどが記憶される。
The
撮像画像41は、車載カメラ12によって撮像された撮像画像である。車速情報42は、車載センサ群13の車速センサによって得られた車速の情報である。例えば、車速情報42にあっては、車両C1の車速情報が時系列で記憶されるため、車速情報42には、撮像画像が撮像されたときの車速情報が含まれることとなる。
The captured
制御部30の処理部31は、車載カメラ12から送信される撮像画像を取得し、記憶部40に撮像画像41として記憶させる。このとき、処理部31は、例えば、車載センサ群13から送信される位置情報を、撮像画像が撮像された位置を示す位置情報として、撮像画像に対応付けて記憶させるようにしてもよい。また、処理部31は、撮像画像が撮像されたときの日時を示す日時情報を、撮像画像に対応付けて記憶させるようにしてもよい。
The
また、処理部31は、撮像画像が撮像されたとき、車載センサ群13から送信される車速情報を取得し、記憶部40に撮像画像に対応付けて車速情報42として記憶させる。
Further, the
送信部32は、記憶部40に記憶される撮像画像41や車速情報42を通信部11を介して情報処理装置50へ送信することができる。
The
<4.情報処理装置の構成>
次に、情報処理装置50について図4を参照して説明する。図4は、情報処理装置50の構成例を示すブロック図である。図4に示すように、情報処理装置50は、通信部51と、表示部52と、制御装置60とを備える。
<4. Information processing device configuration>
Next, the
通信部51は、通信ネットワークNに双方向通信可能に接続する通信インターフェイスであり、車載装置10や監視カメラ100等との間で情報の送受信を行う。表示部52は、上記した俯瞰画像Aなどを表示することができるディスプレイである。
The
制御装置60は、制御部70と、記憶部80とを備える。制御部70は、取得部71と、検出部72と、生成部73と、出力部74とを備える。
The
ここで、制御装置60は、例えば、CPU、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ、入出力ポートなどを有するコンピュータや各種の回路を含む。
Here, the
コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部70の取得部71、検出部72、生成部73および出力部74として機能する。
The CPU of the computer functions as the
また、制御部70の取得部71、検出部72、生成部73および出力部74の少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
Further, at least a part or all of the
また、記憶部80は、例えば、不揮発性メモリやデータフラッシュ、ハードディスクドライブといった記憶デバイスで構成される記憶部である。かかる記憶部80には、車両情報81、生成用画像82、俯瞰画像83、各種プログラムなどが記憶される。
Further, the
車両情報81は、撮像画像を含む。例えば、車両情報81は、車両C1において撮像された撮像画像、周辺車両C2において撮像された周辺車両撮像画像、監視カメラ100において撮像された撮像画像などを含む。
The
また、車両情報81は、撮像画像や周辺車両撮像画像が撮像されたときの車速情報、位置情報、日時情報などを含んでいてもよい。なお、撮像画像は、上記した所定のタイミングにおける俯瞰画像の生成に用いられることから、撮像画像が撮像されたときの車速情報は、所定のタイミングにおける車両C1や周辺車両C2の速度を示す車速情報であるともいえる。
Further, the
ここで、図5を用いて、車両情報81について説明する。図5は、車両情報81の一例を示す図である。図5に示すように、車両情報81には、「車両情報ID」、「情報取得元」、「画像情報」、「位置情報」、「日時情報」および「車速情報」等の項目が含まれ、これら各項目の情報は互いに関連付けられている。
Here, the
「車両情報ID」は、車両情報を識別する識別情報である。「情報取得元」は、画像情報や車速情報などの各種情報の取得元を示す情報である。ここで、「情報取得元」としては、車両C1や周辺車両C2、監視カメラ100などである。 The "vehicle information ID" is identification information that identifies vehicle information. The "information acquisition source" is information indicating an acquisition source of various information such as image information and vehicle speed information. Here, the "information acquisition source" includes a vehicle C1, a peripheral vehicle C2, a surveillance camera 100, and the like.
「画像情報」は、撮像された撮像画像の情報である。なお、図5に示す例では、便宜上、「画像情報」を「撮像画像M1」といったように抽象的な記載とするが、「撮像画像M1」には具体的な情報が記憶されるものとする。以下、他の情報についても抽象的に記載する場合がある。 "Image information" is information on a captured image. In the example shown in FIG. 5, for convenience, the "image information" is described as an abstract description such as "captured image M1", but specific information is stored in the "captured image M1". .. Hereinafter, other information may also be described abstractly.
「位置情報」は、撮像画像や周辺車両撮像画像が撮像された位置を示す情報である。「日時情報」は、撮像画像や周辺車両撮像画像が撮像された日時を示す情報である。「車速情報」は、撮像画像が撮像されたときの車両C1の車速や、周辺車両撮像画像が撮像されたときの周辺車両C2の車速を示す情報である。 The "position information" is information indicating the position where the captured image or the captured image of the surrounding vehicle is captured. The "date and time information" is information indicating the date and time when the captured image or the image captured by the surrounding vehicle was captured. The "vehicle speed information" is information indicating the vehicle speed of the vehicle C1 when the captured image is captured and the vehicle speed of the peripheral vehicle C2 when the peripheral vehicle captured image is captured.
図5に示す例において、車両情報ID「J01」で識別されるデータは、情報取得元が「車両」、画像情報が「撮像画像M1」、位置情報が「位置N1」、日時情報が「日時P1」、車速情報が「車速Q1」であることを示している。また、車両情報ID「K01」で識別されるデータは、情報取得元が「周辺車両」、画像情報が「撮像画像M2」、位置情報が「位置N2」、日時情報が「日時P2」、車速情報が「車速Q2」であることを示している。また、車両情報ID「L01」で識別されるデータは、情報取得元が「監視カメラ」、画像情報が「撮像画像M3」、位置情報が「位置N3」、日時情報が「日時P3」であることを示している。 In the example shown in FIG. 5, the data identified by the vehicle information ID "J01" has the information acquisition source "vehicle", the image information "captured image M1", the position information "position N1", and the date and time information "date and time". "P1", indicating that the vehicle speed information is "vehicle speed Q1". In addition, the data identified by the vehicle information ID "K01" has the information acquisition source "peripheral vehicle", the image information "captured image M2", the position information "position N2", the date and time information "date and time P2", and the vehicle speed. It shows that the information is "vehicle speed Q2". Further, the data identified by the vehicle information ID "L01" has an information acquisition source of "surveillance camera", image information of "captured image M3", position information of "position N3", and date and time information of "date and time P3". It is shown that.
なお、図5では、情報取得元が「監視カメラ」である場合に車速情報が含まれない例を示したが、これに限定されるものではなく、例えば撮像画像M3の解析処理等から車両C1の車速や周辺車両C2の車速が得られる場合、得られた車速を車速情報として含むようにしてもよい。 Note that FIG. 5 shows an example in which vehicle speed information is not included when the information acquisition source is a “surveillance camera”, but the present invention is not limited to this, and the vehicle C1 is not limited to this, for example, from the analysis processing of the captured image M3. When the vehicle speed of the above and the vehicle speed of the peripheral vehicle C2 can be obtained, the obtained vehicle speed may be included as the vehicle speed information.
図4の説明に戻ると、生成用画像82は、俯瞰画像の生成に用いられる画像の情報である。例えば、生成用画像82は、所定の仮想視点(例えば上方)から見たときの車両C1の画像、および、周辺物体(例えば周辺車両C2や信号機E1,E2、停止線F1,F2など)の画像を含む。また、生成用画像82は、車両C1や周辺物体を模式化あるいは単純化した画像であるが、これに限定されるものではない。
Returning to the description of FIG. 4, the
上記した生成用画像82は、俯瞰画像の生成前に予め用意される。例えば、生成用画像82は、記憶部80に予め記憶された画像であるが、これに限られず、俯瞰画像の生成前に外部サーバ(図示せず)から取得された画像などであってもよい。
The above-mentioned
ここで、図6を用いて、生成用画像82について説明する。図6は、生成用画像82の情報の一例を示す図である。図6に示すように、生成用画像82には、「生成用画像ID」および「生成用画像情報」等の項目が含まれ、これら各項目の情報は互いに関連付けられている。
Here, the
「生成用画像ID」は、生成用画像を識別する識別情報である。「生成用画像情報」は、生成用画像の情報である。例えば、「生成用画像情報」には、上記した所定の仮想視点から見たときの車両C1および周辺物体の画像が含まれる。 The "generated image ID" is identification information for identifying the generated image. "Generation image information" is information on the generation image. For example, the "generated image information" includes images of the vehicle C1 and surrounding objects when viewed from the above-mentioned predetermined virtual viewpoint.
なお、「生成用画像情報」において、周辺物体である周辺車両C2として用いられる車両画像は、複数種類あってもよい。すなわち、周辺車両C2は、例えば乗用車、トラック、バス、自動二輪車、小型車、大型車など、様々な車種、様々な大きさの車両になる可能性がある。従って、「生成用画像情報」には、各種の車種、各種の大きさの車両画像が複数用意され、用意された複数種類の車両画像の中から、撮像された撮像画像等に応じて周辺車両C2の車両画像が適宜に選択されるようにしてもよい。 In the "generated image information", there may be a plurality of types of vehicle images used as the peripheral vehicle C2 which is a peripheral object. That is, the peripheral vehicle C2 may be a vehicle of various types and sizes, such as a passenger car, a truck, a bus, a motorcycle, a small car, or a large car. Therefore, a plurality of vehicle images of various vehicle types and sizes are prepared in the "generated image information", and from among the prepared multiple types of vehicle images, peripheral vehicles are prepared according to the captured images and the like. The vehicle image of C2 may be appropriately selected.
図6に示す例において、生成用画像ID「T01」で識別されるデータは、生成用画像情報が「車両画像U1」であることを示している。また、生成用画像ID「T02」で識別されるデータは、生成用画像情報が「車両画像U2」であることを示している。また、生成用画像ID「T11」で識別されるデータは、生成用画像情報が「信号機画像V1」であることを示している。また、生成用画像ID「T21」で識別されるデータは、生成用画像情報が「停止線画像W1」であることを示している。 In the example shown in FIG. 6, the data identified by the generation image ID "T01" indicates that the generation image information is "vehicle image U1". Further, the data identified by the generation image ID "T02" indicates that the generation image information is "vehicle image U2". Further, the data identified by the generation image ID "T11" indicates that the generation image information is "traffic light image V1". Further, the data identified by the generation image ID "T21" indicates that the generation image information is the "stop line image W1".
なお、図6に示す生成用画像情報は、あくまでも例示であって限定されるものではない。すなわち、生成用画像情報は、例えば、道路画像、車線画像、中央分離帯画像、歩道画像、横断歩道画像など、車両C1が走行する道路に関する各種の画像の情報を含んでいてもよい。 The image information for generation shown in FIG. 6 is merely an example and is not limited. That is, the generation image information may include information on various images related to the road on which the vehicle C1 travels, such as a road image, a lane image, a median strip image, a sidewalk image, and a pedestrian crossing image.
図4の説明に戻ると、俯瞰画像83は、後述するように、生成部73によって生成される俯瞰画像の情報である。
Returning to the description of FIG. 4, the bird's-
ここで、図7を用いて、俯瞰画像83について説明する。図7は、俯瞰画像83の情報の一例を示す図である。図7に示すように、俯瞰画像83には、「俯瞰画像ID」および「俯瞰画像」等の項目が含まれ、これら各項目の情報は互いに関連付けられている。
Here, the bird's-
「俯瞰画像ID」は、俯瞰画像を識別する識別情報である。「俯瞰画像」は、生成された俯瞰画像の情報である。図7に示す例において、俯瞰画像ID「X01」で識別されるデータは、俯瞰画像が「俯瞰画像A1」であることを示している。 The "overhead image ID" is identification information for identifying the bird's-eye view image. The "overhead image" is the information of the generated bird's-eye view image. In the example shown in FIG. 7, the data identified by the bird's-eye view image ID "X01" indicates that the bird's-eye view image is the "bird's-eye view image A1".
図4の説明に戻ると、制御部70の取得部71は、車両C1や周辺車両C2の車載装置10、監視カメラ100などから各種の車両情報を取得する。
Returning to the description of FIG. 4, the
例えば、取得部71は、車両C1に搭載された車載装置10から、車両C1において撮像された撮像画像を含む車両情報を取得する。例えば、取得部71は、周辺車両C2に搭載された車載装置10から、周辺車両C2において撮像された周辺車両撮像画像を含む車両情報を取得する。例えば、取得部71は、監視カメラ100から、監視カメラ100において撮像された撮像画像を含む車両情報を取得する。そして、取得部71は、取得した撮像画像を含む車両情報を記憶部80に車両情報81(図5参照)として記憶させる。また、撮像画像には、上記したように、撮像画像が撮像された位置を示す位置情報や撮像された日時を示す日時情報などが含まれるため、取得部71は、位置情報および日時情報などを対応する撮像画像に対応付けて記憶部80に記憶させてもよい(図5参照)。
For example, the
取得部71は、車両情報として車速情報を取得する。例えば、取得部71は、車両情報として、所定のタイミングにおける車両C1や周辺車両C2の速度を示す車速情報を含む車速情報を取得し、記憶部80に記憶させる。このとき、取得部71は、車速情報を対応する撮像画像に対応付けて、記憶部80に車両情報81(図5参照)として記憶させてもよい。
The
検出部72は、車両C1と車両C1の周辺に存在する周辺物体(例えば周辺車両C2や信号機E1,E2、停止線F1,F2等。図1参照)との位置関係を検出する。
The
例えば、検出部72は、記憶部80にアクセスして車両情報81を読み込み、車両情報に含まれる同じ日時における撮像画像や周辺車両撮像画像を抽出し、抽出された撮像画像や周辺車両撮像画像を解析する。
For example, the
例えば、検出部72は、撮像画像や周辺車両撮像画像について、エッジ検出処理、検出されたエッジのフィルタリング処理・連結処理、モデルを用いた画像認識処理など各種の適宜な処理により解析を行うことで、撮像画像や周辺車両撮像画像に含まれる車両C1や周辺物体の位置を検出することができる。なお、検出部72において解析に用いられる処理は、上記に限定されるものではない。
For example, the
そして、検出部72は、撮像画像等の解析結果に基づいて、車両C1と周辺物体との相対位置や、車両C1から周辺物体までの距離などの位置関係を検出する。そして、検出部72は、検出された位置関係を示す情報を生成部73へ出力する。
Then, the
生成部73は、俯瞰画像Aを生成する。出力部74は、生成部73によって生成された俯瞰画像Aを、表示部52に出力する。なお、出力部74は、通信部51を介して車載装置10に俯瞰画像Aを出力して表示させてもよい。
The
図8は、俯瞰画像Aの一例を示す図である。なお、俯瞰画像Aは、静止画であるが、これに限られず、動画であってもよい。 FIG. 8 is a diagram showing an example of the bird's-eye view image A. The bird's-eye view image A is a still image, but is not limited to this, and may be a moving image.
図8に示すように、例えば、生成部73は、車両C1の車両情報に基づいて、検出部72によって検出された位置関係にある車両C1および周辺物体の画像を含む俯瞰画像Aを生成する。かかる俯瞰画像Aは、車両情報に含まれる撮像画像が撮像された場所(ここでは交差点D)を所定の仮想視点(例えば上方(上空))から見たときの画像である。また、俯瞰画像Aは、予め用意され所定の仮想視点から見たときの車両C1および周辺物体の画像を合成したアニメーション画像である。
As shown in FIG. 8, for example, the
以下、俯瞰画像Aの生成について詳説すると、生成部73は先ず、自車である車両C1の車両情報(例えば撮像画像)から検出された車両C1と周辺物体との位置関係に基づき、記憶部80の予め用意された生成用画像82を読み込んで、車両C1および周辺物体に対応する画像(生成用画像)を取得する。例えば、生成部73は、生成用画像82に含まれる複数種類の車両画像の中から、撮像画像に含まれる車両C1および周辺物体である周辺車両C2の車種、大きさなどに応じた車両画像を選択して取得する。また、生成部73は、撮像画像に周辺物体である信号機E1の状態や停止線F1,F2が含まれる場合、生成用画像82の中から、信号機E1の状態や停止線F1,F2に対応する画像(生成用画像)を選択して取得する。
Hereinafter, the generation of the bird's-eye view image A will be described in detail. First, the
ここで、生成部73は、俯瞰画像Aを生成するにあたって、車両C1の車両情報からは得られない情報、言い換えると、俯瞰画像Aの生成に不足する情報について、周辺車両C2の車両情報など他車両の車両情報を用いて得るようにしてもよい。
Here, when generating the bird's-eye view image A, the
具体的には、例えば図8に示すように、車両C1の対向車線にある信号機E2の状態(信号の色など)の情報は、車両C1の車両情報に含まれる撮像画像から得ることができない。そこで、生成部73は、例えば周辺車両C2の車両情報に含まれる周辺車両撮像画像に基づいて信号機E2の状態を検出する。そして、生成部73は、生成用画像82の中から、検出された信号機E2の状態に対応する画像(生成用画像)を選択して取得してもよい。
Specifically, for example, as shown in FIG. 8, information on the state (signal color, etc.) of the traffic light E2 in the oncoming lane of the vehicle C1 cannot be obtained from the captured image included in the vehicle information of the vehicle C1. Therefore, the
また、上記のように周辺車両C2の車両情報を利用する場合、本実施形態にあっては、車両C1の車両情報と周辺車両C2の車両情報とを同期させるようにする。例えば、生成部73は、俯瞰画像Aの生成に用いる車両C1で撮像された撮像画像と同じ日時に、周辺車両C2で撮像された周辺車両撮像画像を抽出し、抽出された周辺車両撮像画像に基づいて信号機E2の状態を検出するようにする。このように、本実施形態にあっては、日時情報を用いることで、車両C1の車両情報と周辺車両C2の車両情報とを同期させることができ、よって精度の良い俯瞰画像Aを生成することが可能になる。
Further, when the vehicle information of the peripheral vehicle C2 is used as described above, in the present embodiment, the vehicle information of the vehicle C1 and the vehicle information of the peripheral vehicle C2 are synchronized. For example, the
なお、上記では、生成部73は、周辺車両C2の車両情報を用いて信号機E2の状態を検出したが、これに限定されるものではなく、例えば監視カメラ100の車両情報を用いて信号機E2の状態を検出してもよい。
In the above, the
また、生成部73は、例えば道路、歩道や横断歩道などを含む交差点Dの全体の画像については、車両C1と周辺物体との位置関係に基づき、予め用意された生成用画像82の中から道路、歩道や横断歩道などに対応する画像(生成用画像)を選択して取得してもよいし、撮像画像に含まれる位置情報に基づいて地図情報サーバから道路等に対応する画像(生成用画像)を取得してもよい。
Further, for the entire image of the intersection D including, for example, a road, a sidewalk, a pedestrian crossing, etc., the
そして、生成部73は、取得された各種の生成用画像を用いて俯瞰画像Aを生成する。例えば、生成部73は、車両C1と周辺物体との位置関係に基づいて、道路、歩道や横断歩道などを含む交差点Dの全体の画像において対応する位置に、車両C1や周辺車両C2を示す車両画像、信号機E1,E2の状態を示す画像、および、停止線F1,F2を示す画像などを嵌め込んで合成し、図8に示すような俯瞰画像Aを生成する。このため、俯瞰画像Aには、車両C1の撮像画像や周辺車両C2の周辺車両撮像画像自体が含まれない。
Then, the
すなわち、本実施形態に係る生成部73は、撮像画像や周辺車両撮像画像自体を用いず、予め用意され所定の仮想視点から見たときの車両C1や周辺車両C2を示す車両画像、信号機E1,E2の状態を示す画像、および、停止線F1,F2を示す画像などを、交差点Dの全体の画像の対応する位置に合成して得られるアニメーション画像を俯瞰画像Aとして生成する。
That is, the
なお、上記において、俯瞰画像Aには、撮像画像や周辺車両撮像画像自体が含まれないようにしたが、これに限定されるものではない。すなわち、例えば、生成部73は、道路など平面的な周辺物体については、撮像画像等に含まれる画像(ここでは道路画像)を用いて俯瞰画像Aを生成してもよい。
In the above, the bird's-eye view image A does not include the captured image or the peripheral vehicle captured image itself, but is not limited to this. That is, for example, the
このように、生成部73は、予め用意された周辺物体の画像として、車両C1の周辺に存在する周辺車両C2の画像、車両C1や周辺車両C2が走行する道路の停止線F1,F2の画像、および、当該道路の信号機E1,E2の状態の画像を含む俯瞰画像Aを生成する。
As described above, the
上記のようにして生成された俯瞰画像Aは、出力部74によって表示部52に出力される。これにより、ユーザは、俯瞰画像Aを確認することで、車両C1と周辺物体(ここでは、周辺車両C2や信号機E1,E2、停止線F1,F2等)との位置関係を把握でき、よって車両C1の周辺の状況を容易に把握することができる。
The bird's-eye view image A generated as described above is output to the
なお、上記した俯瞰画像Aには、周辺車両C2の画像、停止線F1,F2の画像、および、信号機E1,E2の状態の画像が含まれるようにしたが、これに限定されるものではない。例えば、俯瞰画像Aには、周辺車両C2の画像、停止線F1,F2の画像、および、信号機E1,E2の状態の画像の少なくともいずれかが含まれるようにしてもよい。 The above-mentioned bird's-eye view image A includes, but is not limited to, an image of the peripheral vehicle C2, an image of the stop lines F1 and F2, and an image of the state of the traffic lights E1 and E2. .. For example, the bird's-eye view image A may include at least one of an image of the peripheral vehicle C2, an image of the stop lines F1 and F2, and an image of the states of the traffic lights E1 and E2.
また、生成部73は、車両C1や周辺車両C2が走行する道路の道路状況に応じた所定のタイミングにおける俯瞰画像Aを生成する。例えば、生成部73は、道路状況が変化したタイミングを所定のタイミングとし、道路状況が変化したタイミングにおける俯瞰画像Aを生成する。
Further, the
詳しくは、生成部73は、車両C1や周辺車両C2の停止に関する道路状況や、車両C1や周辺車両C2の発進に関する道路状況などが変化したタイミングにおける俯瞰画像Aを生成する。具体的には、生成部73は、信号機E1や信号機E2の状態が赤信号に変化したタイミング、青信号に変化したタイミング、黄信号に変化したタイミングなど道路状況が変化したタイミングにおける俯瞰画像Aを生成する。なお、上記した所定のタイミングは、ユーザによって指定されるが、これに限定されるものではない。
Specifically, the
図8の例は、図1と同様、信号機E1の状態が赤信号に変化したタイミングが所定のタイミングとしてユーザによって指定され、かかる所定のタイミングにおける俯瞰画像Aである。また、図8に示す俯瞰画像Aの例では、信号機E2の右折信号の状態が青信号であることも示している。なお、この信号機E2の状態(信号の色など)の情報は、上記したように、周辺車両C2の車両情報に含まれる周辺車両撮像画像に基づいて得られた情報である。 An example of FIG. 8 is a bird's-eye view image A at a predetermined timing in which the timing at which the state of the traffic light E1 changes to a red signal is designated by the user as a predetermined timing, as in FIG. Further, in the example of the bird's-eye view image A shown in FIG. 8, it is also shown that the state of the right turn signal of the traffic light E2 is a green light. The information on the state (signal color, etc.) of the traffic light E2 is information obtained based on the peripheral vehicle image captured in the vehicle information of the peripheral vehicle C2 as described above.
これにより、ユーザは、生成された俯瞰画像Aを確認することで、例えば信号機E1の状態が赤信号に変化したタイミングのときに車両C1が交差点Dに進入したこと、また、周辺車両C2が右折するときの信号機E2の状態は青信号であることなど、車両C1の周辺の状況を容易に把握することができ、よって所定のイベントの発生原因が車両C1側にあることを特定することも可能となる。 As a result, the user confirms the generated bird's-eye view image A so that, for example, the vehicle C1 enters the intersection D at the timing when the state of the traffic light E1 changes to a red light, and the peripheral vehicle C2 turns right. It is possible to easily grasp the situation around the vehicle C1 such as the state of the traffic light E2 at the time of the event being a green light, and thus it is also possible to identify that the cause of the occurrence of a predetermined event is on the vehicle C1 side. Become.
なお、上記では、信号機E1の状態が赤信号に変化するなど道路状況が変化したタイミングを所定のタイミングとしたが、これに限定されるものではない。すなわち、例えば、所定のタイミングは、車両C1が停止線F1に差し掛かったタイミングや停止線F1を越えたタイミング、また、周辺車両C2が停止線F2に差し掛かったタイミングや停止線F2を越えたタイミングなどその他のタイミングであってもよい。 In the above, the timing at which the road condition changes, such as the state of the traffic light E1 changing to a red light, is set as a predetermined timing, but the timing is not limited to this. That is, for example, the predetermined timing includes the timing when the vehicle C1 approaches the stop line F1, the timing when the vehicle C1 crosses the stop line F1, the timing when the peripheral vehicle C2 approaches the stop line F2, the timing when the vehicle C2 crosses the stop line F2, and the like. Other timings may be used.
また、生成部73は、記憶部80にアクセスし、撮像画像に対応付けて記憶される車速情報を読み出し、車速情報を含む俯瞰画像Aを生成してもよい。例えば、生成部73は、俯瞰画像Aにおいて、車両C1の車速を表示欄Y1に表示し、周辺車両C2の車速を表示欄Y2に表示してもよい。なお、図8に示す俯瞰画像Aの例では、車両C1の車速が「70km/h」、周辺車両C2の車速が「30km/h」であることを示している。
Further, the
これにより、ユーザは、生成された俯瞰画像Aを確認することで、例えば車両C1や周辺車両C2の車速を把握することができる。また、例えば、図8に示す交差点Dの速度制限が「50km/h」である場合、ユーザは、車両C1が速度制限を超過した状態で、交差点Dに進入したことなども容易に把握することができる。 As a result, the user can grasp the vehicle speeds of, for example, the vehicle C1 and the peripheral vehicle C2 by checking the generated bird's-eye view image A. Further, for example, when the speed limit of the intersection D shown in FIG. 8 is "50 km / h", the user can easily grasp that the vehicle C1 has entered the intersection D with the speed limit exceeded. Can be done.
なお、上記では、生成部73は、車両C1や周辺車両C2の車速を示す情報を含む俯瞰画像Aを生成するようにしたが、これに限定されるものではない。すなわち、生成部73は、車速に代えて、あるいは加えて、車両C1や周辺車両C2の加速度を示す情報を含む俯瞰画像Aを生成してもよい。
In the above description, the
<5.実施形態に係る情報処理装置の制御処理>
次に、情報処理装置50における具体的な処理手順について図9を用いて説明する。図9は、情報処理装置50が実行する処理手順を示すフローチャートである。
<5. Control processing of the information processing device according to the embodiment>
Next, a specific processing procedure in the
図9に示すように、情報処理装置50の制御部70は、車両C1において撮像された撮像画像などを含む車両情報を取得する(ステップS10)。次いで、制御部70は、取得された車両情報に基づいて、車両C1と周辺物体(例えば、周辺車両C2や信号機E1,E2、停止線F1,F2等)との位置関係を検出する(ステップS11)。
As shown in FIG. 9, the
次いで、制御部70は、車両情報に基づいて、検出された位置関係にある車両C1および周辺物体の画像(生成用画像)を含む俯瞰画像Aであって、ユーザにより指定された、車両C1が走行する道路の道路状況に応じた所定のタイミングにおける俯瞰画像Aを生成する(ステップS12)。続いて、制御部70は、生成された俯瞰画像を表示部52などへ出力する(ステップS13)。
Next, the
上述してきたように、実施形態に係る情報処理装置50は、取得部71と、検出部72と、生成部73とを備える。取得部71は、車両C1において撮像された撮像画像を含む車両情報を取得する。検出部72は、取得部71によって取得された車両情報に基づいて、車両C1と車両の周辺に存在する周辺物体との位置関係を検出する。生成部73は、車両情報に基づいて、検出部72によって検出された位置関係にある車両C1および周辺物体の画像を含む俯瞰画像であって、車両C1が走行する道路の道路状況に応じた所定のタイミングにおける俯瞰画像を生成する。これにより、ユーザに対して車両C1の周辺の状況を容易に把握させることができる。
As described above, the
なお、上記した実施形態に係る情報処理装置50は、所定のタイミングにおける俯瞰画像Aを生成するようにしたが、これに限定されるものではなく、例えば任意のタイミングにおける俯瞰画像Aを生成してもよい。
The
また、図8等に示す例では、俯瞰画像Aは交差点Dを上方から見たときの画像であるが、これに限定されるものではなく、例えば斜め上方からなどその他の視点から見たときの画像であってもよい。 Further, in the example shown in FIG. 8 and the like, the bird's-eye view image A is an image when the intersection D is viewed from above, but is not limited to this, and is not limited to this, and is when viewed from another viewpoint such as from diagonally above. It may be an image.
また、図8等では、信号機E1,E2の状態がユーザによって認識されやすいように、信号機E1,E2の信号灯が上方を向くような信号機画像(生成画像)を用いるようにしたが、これはあくまでも例示であって限定されるものではない。すなわち、例えば、信号灯が側方を向くような信号機E1,E2の画像、言い換えると、信号機E1,E2を実際に上方から見たときのような画像に、信号機E1,E2の状態(信号の色)に応じた色を着色したものなど、その他の種類の信号機画像を用いてもよい。 Further, in FIG. 8 and the like, a traffic light image (generated image) in which the signal lights of the traffic lights E1 and E2 face upward is used so that the state of the traffic lights E1 and E2 can be easily recognized by the user. It is an example and is not limited. That is, for example, an image of the traffic lights E1 and E2 in which the signal light faces sideways, in other words, an image of the traffic lights E1 and E2 actually viewed from above, and the state of the traffic lights E1 and E2 (the color of the signal). ) May be used, and other types of traffic light images may be used.
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and variations can be easily derived by those skilled in the art. For this reason, the broader aspects of the invention are not limited to the particular details and representative embodiments expressed and described as described above. Therefore, various modifications can be made without departing from the spirit or scope of the general concept of the invention as defined by the appended claims and their equivalents.
1 情報処理システム
10 車載装置
50 情報処理装置
71 取得部
72 検出部
73 生成部
C1 車両
C2 周辺車両
1
Claims (7)
前記取得部によって取得された前記車両情報に基づいて、前記車両と前記車両の周辺に存在する周辺物体との位置関係を検出する検出部と、
前記車両情報に基づいて、前記検出部によって検出された前記位置関係にある前記車両および前記周辺物体の画像を含む俯瞰画像であって、前記車両が走行する道路の道路状況に応じた所定のタイミングにおける前記俯瞰画像を生成する生成部と
を備えることを特徴とする情報処理装置。 An acquisition unit that acquires vehicle information including captured images captured in the vehicle,
Based on the vehicle information acquired by the acquisition unit, a detection unit that detects the positional relationship between the vehicle and peripheral objects existing around the vehicle, and a detection unit.
A bird's-eye view image including images of the vehicle and its peripheral objects in the positional relationship detected by the detection unit based on the vehicle information, and at a predetermined timing according to the road condition of the road on which the vehicle travels. An information processing apparatus including a generation unit for generating the bird's-eye view image in the above.
前記検出部によって検出された前記位置関係に基づいて、予め用意され所定の仮想視点から見たときの前記車両および前記周辺物体の画像を合成したアニメーション画像を前記俯瞰画像として生成すること
を特徴とする請求項1に記載の情報処理装置。 The generator
Based on the positional relationship detected by the detection unit, an animation image obtained by synthesizing images of the vehicle and the peripheral objects prepared in advance and viewed from a predetermined virtual viewpoint is generated as the bird's-eye view image. The information processing apparatus according to claim 1.
前記車両情報として、前記所定のタイミングにおける前記車両の速度を示す車速情報を取得し、
前記生成部は、
前記取得部によって取得された前記車速情報を含む前記俯瞰画像を生成すること
を特徴とする請求項1または2に記載の情報処理装置。 The acquisition unit
As the vehicle information, vehicle speed information indicating the speed of the vehicle at the predetermined timing is acquired, and the vehicle speed information is acquired.
The generator
The information processing device according to claim 1 or 2, wherein the bird's-eye view image including the vehicle speed information acquired by the acquisition unit is generated.
前記道路状況が変化したタイミングを前記所定のタイミングとし、前記道路状況が変化したタイミングにおける前記俯瞰画像を生成すること
を特徴とする請求項1〜3のいずれか一つに記載の情報処理装置。 The generator
The information processing apparatus according to any one of claims 1 to 3, wherein the timing at which the road condition changes is set as the predetermined timing, and the bird's-eye view image at the timing at which the road condition changes is generated.
前記取得部は、
前記車両情報として、前記周辺車両において撮像された周辺車両撮像画像を取得すること
を特徴とする請求項1〜4のいずれか一つに記載の情報処理装置。 The peripheral object includes peripheral vehicles existing around the vehicle, and includes peripheral vehicles.
The acquisition unit
The information processing device according to any one of claims 1 to 4, wherein as the vehicle information, a peripheral vehicle image captured by the peripheral vehicle is acquired.
予め用意された前記周辺物体の画像として、前記車両の周辺に存在する周辺車両の画像、前記車両が走行する道路の停止線の画像、および、当該道路の信号機の状態の画像の少なくともいずれかを含む前記俯瞰画像を生成すること
を特徴とする請求項1〜5のいずれか一つに記載の情報処理装置。 The generator
As an image of the peripheral object prepared in advance, at least one of an image of a peripheral vehicle existing around the vehicle, an image of a stop line of the road on which the vehicle travels, and an image of the state of a traffic light on the road are used. The information processing apparatus according to any one of claims 1 to 5, wherein the bird's-eye view image including the above is generated.
前記取得工程によって取得された前記車両情報に基づいて、前記車両と前記車両の周辺に存在する周辺物体との位置関係を検出する検出工程と、
前記車両情報に基づいて、前記検出工程によって検出された前記位置関係にある前記車両および前記周辺物体の画像を含む俯瞰画像であって、前記車両が走行する道路の道路状況に応じた所定タイミングにおける前記俯瞰画像を生成する生成工程と
を含むことを特徴とする情報処理方法。 The acquisition process for acquiring vehicle information including captured images captured in the vehicle, and
Based on the vehicle information acquired by the acquisition step, a detection step of detecting the positional relationship between the vehicle and peripheral objects existing around the vehicle, and a detection step.
It is a bird's-eye view image including images of the vehicle and the peripheral objects in the positional relationship detected by the detection step based on the vehicle information, and at a predetermined timing according to the road condition of the road on which the vehicle travels. An information processing method including a generation step of generating a bird's-eye view image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019213974A JP2021086342A (en) | 2019-11-27 | 2019-11-27 | Information processing device and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019213974A JP2021086342A (en) | 2019-11-27 | 2019-11-27 | Information processing device and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021086342A true JP2021086342A (en) | 2021-06-03 |
Family
ID=76087783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019213974A Pending JP2021086342A (en) | 2019-11-27 | 2019-11-27 | Information processing device and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021086342A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011227571A (en) * | 2010-04-15 | 2011-11-10 | Fujitsu Ltd | Information processing method, information processing program, and information processing apparatus |
JP2014089491A (en) * | 2012-10-29 | 2014-05-15 | Hitachi Consumer Electronics Co Ltd | Picture processing system |
JP2017126213A (en) * | 2016-01-14 | 2017-07-20 | 株式会社リコー | Intersection state check system, imaging device, on-vehicle device, intersection state check program and intersection state check method |
JP2017191472A (en) * | 2016-04-13 | 2017-10-19 | 日産自動車株式会社 | Image display method and image display device |
-
2019
- 2019-11-27 JP JP2019213974A patent/JP2021086342A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011227571A (en) * | 2010-04-15 | 2011-11-10 | Fujitsu Ltd | Information processing method, information processing program, and information processing apparatus |
JP2014089491A (en) * | 2012-10-29 | 2014-05-15 | Hitachi Consumer Electronics Co Ltd | Picture processing system |
JP2017126213A (en) * | 2016-01-14 | 2017-07-20 | 株式会社リコー | Intersection state check system, imaging device, on-vehicle device, intersection state check program and intersection state check method |
JP2017191472A (en) * | 2016-04-13 | 2017-10-19 | 日産自動車株式会社 | Image display method and image display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6894471B2 (en) | Patrol car patrol by self-driving car (ADV) subsystem | |
US11630998B2 (en) | Systems and methods for automatically training neural networks | |
CN106255899B (en) | Device for signaling an object to a navigation module of a vehicle equipped with such a device | |
CN106611512B (en) | Method, device and system for processing starting of front vehicle | |
JP7040374B2 (en) | Object detection device, vehicle control system, object detection method and computer program for object detection | |
US20230106791A1 (en) | Control device for vehicle and automatic driving system | |
US20180017799A1 (en) | Heads Up Display For Observing Vehicle Perception Activity | |
CN110796007B (en) | Scene recognition method and computing device | |
JP6743732B2 (en) | Image recording system, image recording method, image recording program | |
Haas et al. | Advanced driver assistance systems | |
US11189162B2 (en) | Information processing system, program, and information processing method | |
WO2022005478A1 (en) | Systems and methods for detecting projection attacks on object identification systems | |
Matsuda et al. | A system for real-time on-street parking detection and visualization on an edge device | |
Ke et al. | Edge computing for real-time near-crash detection for smart transportation applications | |
US20200250970A1 (en) | Information processing apparatus, information processing method and program | |
JP2015028711A (en) | Traffic environment information recorder for vehicle | |
JP5145138B2 (en) | Driving support device, driving support control method, and driving support control processing program | |
JP2021086342A (en) | Information processing device and information processing method | |
JP7021899B2 (en) | Image generator and image generation method | |
US20220237926A1 (en) | Travel management device, travel management method, and recording medium | |
CN114333414A (en) | Parking yield detection device, parking yield detection system, and recording medium | |
US11881031B2 (en) | Hierarchical processing of traffic signal face states | |
Rahman et al. | Adas reliability against weather conditions: Quantification of performance robustness | |
WO2020073270A1 (en) | Snapshot image of traffic scenario | |
Georoceanu | Extending parking assistance for automative user interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240213 |