JP2019079203A - Image generation device and image generation method - Google Patents

Image generation device and image generation method Download PDF

Info

Publication number
JP2019079203A
JP2019079203A JP2017204732A JP2017204732A JP2019079203A JP 2019079203 A JP2019079203 A JP 2019079203A JP 2017204732 A JP2017204732 A JP 2017204732A JP 2017204732 A JP2017204732 A JP 2017204732A JP 2019079203 A JP2019079203 A JP 2019079203A
Authority
JP
Japan
Prior art keywords
image
vehicle
unit
moving object
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017204732A
Other languages
Japanese (ja)
Other versions
JP7021899B2 (en
Inventor
春樹 白石
Haruki Shiraishi
春樹 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017204732A priority Critical patent/JP7021899B2/en
Publication of JP2019079203A publication Critical patent/JP2019079203A/en
Application granted granted Critical
Publication of JP7021899B2 publication Critical patent/JP7021899B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To cause a user to intuitively grasp a situation of a near-miss.SOLUTION: An image generation device comprises a detection unit, an extraction unit, a conversion unit and a correlation unit. The detection unit detects danger avoiding driving from travel data of a vehicle. In a case where the danger avoiding driving is detected by the detection unit, the extraction unit extracts a moving object from a picked-up video image that is obtained by continuously imaging the outside of the vehicle. The conversion unit converts the moving object that is extracted by the extraction unit, into an abstracted animation image. The correlation unit correlates location information of the danger avoiding driving to the animation image resulting from the conversion by the conversion unit.SELECTED DRAWING: Figure 1

Description

本発明は、画像生成装置および画像生成方法に関する。   The present invention relates to an image generation apparatus and an image generation method.

近年、車両に搭載されるナビゲーション装置において、車両が注意して走行する必要があるヒヤリハット地点を通過する際に、ドライバに注意喚起を促す技術が提案されている(例えば、特許文献1参照)。   In recent years, in a navigation device mounted on a vehicle, there has been proposed a technique for prompting a driver to call attention when passing through a near-miss point where the vehicle needs to travel with caution (see, for example, Patent Document 1).

特開2010―128980号公報JP, 2010-128980, A

しかしながら、従来技術は、単にヒヤリハット地点の存在をユーザに通知するためのものであって、ユーザに対してヒヤリハットのシチュエーションを直感的に把握させる上で改善の余地があった。   However, the prior art is merely for notifying the user of the presence of a near-miss point, and there is room for improvement in making the user intuitively understand the near-miss situation.

本発明は、上記に鑑みてなされたものであって、ユーザに対してヒヤリハット時のシチュエーションを直感的に把握させることができる画像生成装置および画像生成方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an image generation device and an image generation method that can make a user intuitively grasp situations at the time of nearing.

上述した課題を解決し、目的を達成するために、実施形態に係る画像生成装置は、検出部と、抽出部と、変換部と、対応付け部とを備える。前記検出部は、車両の走行データから危険回避運転を検出する。前記抽出部は、前記検出部によって前記危険回避運転が検出された場合に、前記車両の外部を継続的に撮像した撮像映像から移動物体を抽出する。前記変換部は、前記抽出部によって抽出された前記移動物体を抽象化したアニメーション画像へ変換する。対応付け部は、前記変換部によって変換された前記アニメーション画像に対して前記危険回避運転の位置情報を対応付ける。   In order to solve the problems described above and achieve an object, an image generation apparatus according to an embodiment includes a detection unit, an extraction unit, a conversion unit, and an association unit. The detection unit detects danger avoidance driving from travel data of the vehicle. The extraction unit extracts a moving object from a captured image obtained by continuously capturing the outside of the vehicle when the danger avoidance driving is detected by the detection unit. The conversion unit converts the moving object extracted by the extraction unit into an abstracted animation image. The association unit associates position information of the danger avoidance driving with the animation image converted by the conversion unit.

本発明によれば、ユーザに対してヒヤリハットのシチュエーションを直感的に把握させることができる。   According to the present invention, it is possible to make the user intuitively grasp the situation of the near incident.

図1は、画像生成方法の概要を示す図である。FIG. 1 is a diagram showing an outline of an image generation method. 図2は、画像生成システムの構成例を示す図である。FIG. 2 is a diagram showing an example of the configuration of an image generation system. 図3は、画像生成装置のブロック図である。FIG. 3 is a block diagram of an image generation apparatus. 図4は、車載カメラの設置位置を示す模式図である。FIG. 4 is a schematic view showing the installation position of the on-vehicle camera. 図5は、ユーザデータベースの具体例を示す図である。FIG. 5 is a diagram showing a specific example of the user database. 図6は、ヒヤリハット地点データベースの具体例を示す図である。FIG. 6 is a diagram showing a specific example of the near-miss point database. 図7は、3次元地図画像の一例を示す図である。FIG. 7 is a view showing an example of a three-dimensional map image. 図8は、表示映像の概念図である。FIG. 8 is a conceptual view of a display image. 図9は、車載装置のブロック図である。FIG. 9 is a block diagram of the in-vehicle apparatus. 図10は、検索画面の一例を示す図である。FIG. 10 is a diagram showing an example of a search screen. 図11は、表示画面の一例を示す図である。FIG. 11 is a diagram showing an example of the display screen. 図12は、画像生成装置が実行する処理手順を示すフローチャートである。FIG. 12 is a flowchart showing the processing procedure executed by the image generation apparatus.

以下、添付図面を参照して、実施形態に係る画像生成装置および画像生成方法を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。   Hereinafter, an image generation apparatus and an image generation method according to an embodiment will be described in detail with reference to the accompanying drawings. Note that the present invention is not limited by the embodiments described below.

まず、図1を用いて実施形態に係る画像生成方法の概要について説明する。図1は、画像生成方法の概要を示す図である。かかる画像生成方法は、画像生成装置によって実行される。   First, an outline of an image generation method according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an outline of an image generation method. Such an image generation method is performed by an image generation device.

実施形態に係る画像生成方法は、車両が急ブレーキ等を行った際のいわゆるヒヤリハット地点におけるヒヤリハットの事象を映像化してユーザに直感的に把握させるものである。   The image generation method according to the embodiment is to make the user intuitively grasp an event of a near incident at a so-called near incident when the vehicle suddenly brakes or the like.

ここで、実施形態に係る画像生成方法に先立ち、従来技術について説明する。従来技術において、ヒヤリハット地点を車両が通過する際に、運転者へ注意喚起を促すものがある。   Here, prior to the image generation method according to the embodiment, the prior art will be described. In the prior art, when the vehicle passes the near spot point, there is one that urges the driver to be alerted.

しかしながら、従来技術では、ディスプレイ上に表示された地図画像にヒヤリハット地点を重畳して表示したり、スピーカから注意喚起を促す音声を出力したりするのみであった。このため、従来技術では、ユーザは実際のシチュエーションを把握し難かった。   However, in the prior art, the near-miss point is superimposed and displayed on the map image displayed on the display, or only the voice for calling attention is output from the speaker. For this reason, in the prior art, it was difficult for the user to grasp the actual situation.

これに対して、ヒヤリハット時に撮像された実際の映像をユーザに提示することも考えられる。しかしながら、かかる場合に、映像に写る通行人や、通行車両のプライバシーが侵害されるおそれがあり、個人情報を保護する観点から好ましくない。   On the other hand, it is also conceivable to present the user with the actual video captured at the time of the incident. However, in such a case, there is a possibility that the privacy of a passing person appearing in the image or a passing vehicle may be violated, which is not preferable from the viewpoint of protecting personal information.

そこで、実施形態に係る画像生成方法では、個人情報を保護しつつ、ユーザに対してヒヤリハットの事例を直感的に把握させることとした。つまり、実施形態に係る画像生成方法では、映像に写る通行人や、通行車両を加工することで、プライバシーを保護しつつ、ヒヤリハットのシチュエーションをユーザに直感的に把握させることが可能となる。   Therefore, in the image generation method according to the embodiment, the user is made to intuitively grasp an example of a near incident while protecting personal information. That is, in the image generation method according to the embodiment, it is possible to intuitively grasp the situation of the hiyari hat while protecting the privacy by processing the passersby shown in the image and the passing vehicle.

具体的には、図1に示すように、まず、実施形態に係る画像生成方法では、車両の走行データから危険回避運転を検出する(ステップS1)。ここで、危険回避運転とは、例えば、急ブレーキ、急操舵等を含む。また、危険回避運転は、危険を回避できた場合のみならず、危険を回避しようとしたものの、危険を避けられなかった場合を含む。   Specifically, as shown in FIG. 1, in the image generation method according to the embodiment, the danger avoidance driving is detected from the traveling data of the vehicle (step S1). Here, the danger avoidance driving includes, for example, sudden braking, sudden steering, and the like. In addition, the danger avoidance driving includes not only the case where the danger could be avoided but also the case where the danger could not be avoided although the danger was tried to be avoided.

次に、実施形態に係る画像生成方法では、車両の外部が撮像された撮像映像Lから移動物体を抽出する(ステップS2)。ここで、移動物体とは、撮像映像Lに写る通行人や、通行車両を示す。同図に示す例では、歩行者Pおよび通行車両Tcを移動物体として抽出した場合について示す。なお、移動物体とは、時系列的な撮像映像Lにおいて静止中の歩行者や停止中の通行車両を含む。   Next, in the image generation method according to the embodiment, a moving object is extracted from the captured image L in which the outside of the vehicle is captured (step S2). Here, the moving object indicates a passerby shown in the captured image L or a passing vehicle. The example shown in the figure shows the case where the pedestrian P and the passing vehicle Tc are extracted as moving objects. In addition, a moving object includes a pedestrian at rest and a passing vehicle at rest in the time-series captured image L.

続いて、実施形態に係る画像生成方法では、抽出した移動物体をアニメーション画像Gへ変換する(ステップS3)。アニメーション画像Gとは、例えば、3次元のポリゴン画像であるが、移動物体を抽象化したものであれば、その態様は問わない。   Subsequently, in the image generation method according to the embodiment, the extracted moving object is converted into an animation image G (step S3). The animation image G is, for example, a three-dimensional polygon image, but the form is not limited as long as the moving object is abstracted.

このように、実施形態に係る画像生成方法では、移動物体をアニメーション画像Gへ変換することで、歩行者Pや通行車両Tcの個人情報を保護することが可能となる。   Thus, in the image generation method according to the embodiment, by converting the moving object into the animation image G, it becomes possible to protect the personal information of the pedestrian P and the passing vehicle Tc.

次に、実施形態に係る画像生成方法では、アニメーション画像Gに対して危険回避運転の位置情報を対応付ける(ステップS4)。ここで、位置情報とは、例えば、移動物体の実際の位置であり、移動物体の向き等を含む。   Next, in the image generation method according to the embodiment, position information of the danger avoidance driving is associated with the animation image G (step S4). Here, the position information is, for example, the actual position of the moving object, and includes the direction of the moving object.

このように、実施形態に係る画像生成方法では、アニメーション画像Gに対して位置情報を対応付けることで、危険回避運転の実際のシチュエーションを地図画像上で表示することが可能となる。   As described above, in the image generation method according to the embodiment, by associating the animation image G with the position information, it becomes possible to display the actual situation of the danger avoidance driving on the map image.

これにより、運転者は、危険回避運転が多発するポイント(以下、ヒヤリハット地点と記載する)を通過する前に、かかるヒヤリハット地点のアニメーション画像Gを事前に確認することが可能となる。   As a result, the driver can confirm in advance the animation image G of such a near-miss point before passing a point where frequent danger avoidance driving occurs (hereinafter referred to as a near-miss point).

このように、実施形態に係る画像生成方法では、危険回避運転を検出した場合に、撮像映像Lに写る移動物体をアニメーション画像Gに変換することで、ヒヤリハット時のシチュエーションを直感的に把握させることが可能となる。   As described above, in the image generation method according to the embodiment, when danger-avoidance driving is detected, a moving object captured in the captured image L is converted into the animation image G to intuitively grasp the situation at the time of the incident. Is possible.

次に、図2を用いて実施形態に係る画像生成システム100について説明する。図2は、画像生成システム100の構成例を示す図である。図2に示すように、画像生成システム100は、画像生成装置1と、複数の車載装置50とを備える。画像生成装置1と、複数の車載装置50とは、ネットワークNを介して双方向に情報を送受信することが可能である。   Next, an image generation system 100 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an exemplary configuration of the image generation system 100. As shown in FIG. As shown in FIG. 2, the image generation system 100 includes an image generation device 1 and a plurality of in-vehicle devices 50. The image generation device 1 and the plurality of in-vehicle devices 50 can transmit and receive information bidirectionally via the network N.

各車載装置50は、それぞれ車両Cに搭載され、DCM(Date Communication Module)などの車載通信モジュールやドライブレコーダ等を含む。車載装置50は、それぞれ車両Cの走行データや、ドライブレコーダで撮像された撮像映像Lを含む情報を所定周期で画像生成装置1へ送信する。   Each in-vehicle device 50 is mounted on the vehicle C, and includes an in-vehicle communication module such as a DCM (Date Communication Module) or a drive recorder. The in-vehicle device 50 transmits information including the traveling data of the vehicle C and the captured image L captured by the drive recorder to the image generation device 1 at a predetermined cycle.

画像生成装置1は、各車載装置50から送信される情報に基づいて危険回避運転を検出し、かかる移動物体をアニメーション画像Gへ変換する処理を実行することとなる。   The image generation device 1 detects the danger avoidance driving based on the information transmitted from each on-vehicle device 50, and executes the processing of converting the moving object into the animation image G.

このように、実施形態に係る画像生成システム100では、各車載装置50から送信される情報を画像生成装置1へ集積することで、多様なシチュエーションにおける危険回避運転に関する事象をビッグデータ化することが可能となる。   As described above, in the image generation system 100 according to the embodiment, the information transmitted from each in-vehicle device 50 is accumulated in the image generation device 1 to make the event related to the danger avoidance driving in various situations big data. It becomes possible.

例えば、ビッグデータ化した危険回避運転に関する情報は、運転者に対して事前にヒヤリハット時のシチュエーションを把握させるのみならず、交通安全に関する教育や、インフラの整備等に活用することが可能である。なお、ここでは、画像生成装置1が、車載装置50と別体である場合について説明したが、画像生成装置1と、車載装置50とは一体であってもよい。つまり、画像生成装置1を各車両Cに搭載し、車載装置50の機能を兼ねることにしてもよい。   For example, the information regarding danger avoidance driving made into big data can be used not only for the driver to grasp the situation at the time of hiyari hat in advance but also for education on traffic safety, maintenance of infrastructure, and the like. In addition, although the case where the image generation apparatus 1 was separate body from the vehicle-mounted apparatus 50 was demonstrated here, the image generation apparatus 1 and the vehicle-mounted apparatus 50 may be integral. That is, the image generation device 1 may be mounted on each vehicle C, and may have the function of the on-vehicle device 50.

かかる場合に、画像生成システム100では、画像生成装置1によって生成されたアニメーション画像Gを集約するサーバ装置を別途備えることにしてもよい。   In such a case, the image generation system 100 may separately include a server device that aggregates the animation image G generated by the image generation device 1.

次に、図3を用いて実施形態に係る画像生成装置1の構成例について説明する。図3は、画像生成装置1のブロック図である。図3に示すように、画像生成装置1は、通信部2と、制御部3と、記憶部4とを備える。通信部2は、上述した各車載装置50とデータの送受信を行う通信インターフェースである。   Next, a configuration example of the image generation device 1 according to the embodiment will be described with reference to FIG. FIG. 3 is a block diagram of the image generation device 1. As shown in FIG. 3, the image generation device 1 includes a communication unit 2, a control unit 3, and a storage unit 4. The communication unit 2 is a communication interface that transmits and receives data to and from each of the in-vehicle devices 50 described above.

制御部3は、検出部31と、抽出部32と、変換部33と、対応付け部34と、生成部35とを備える。また、記憶部4は、ヒヤリハット地点データベース41と、ユーザデータベース42と、3次元地図データベース43とを記憶する。   The control unit 3 includes a detection unit 31, an extraction unit 32, a conversion unit 33, an association unit 34, and a generation unit 35. Further, the storage unit 4 stores a near-miss point database 41, a user database 42, and a three-dimensional map database 43.

制御部3は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。   The control unit 3 includes, for example, a computer having a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), a hard disk drive (HDD), an input / output port, and various circuits.

コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部3の検出部31、抽出部32、変換部33、対応付け部34および生成部35として機能する。   The CPU of the computer functions as, for example, the detection unit 31, the extraction unit 32, the conversion unit 33, the association unit 34, and the generation unit 35 of the control unit 3 by reading and executing a program stored in the ROM.

また、制御部3の検出部31、抽出部32、変換部33、対応付け部34および生成部35の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。   In addition, at least one or all of the detection unit 31, the extraction unit 32, the conversion unit 33, the association unit 34, and the generation unit 35 of the control unit 3 may be an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). It can also be configured with hardware such as

また、記憶部4は、例えば、RAMやHDDに対応する。RAMやHDDは、ヒヤリハット地点データベース41、ユーザデータベース42および3次元地図データベース43や各種プログラムの情報を記憶することができる。なお、画像生成装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。   The storage unit 4 corresponds to, for example, a RAM or an HDD. The RAM and the HDD can store the near-miss point database 41, the user database 42, the three-dimensional map database 43, and information of various programs. The image generation apparatus 1 may acquire the above-described program and various information via another computer connected via a wired or wireless network or a portable recording medium.

制御部3の検出部31は、車両Cの走行データから危険回避運転を検出する。具体的には、検出部31は、各車載装置50から送信される走行データから例えば、急ブレーキ、急操舵を危険回避運転として検出する。   The detection unit 31 of the control unit 3 detects the danger avoidance driving from the traveling data of the vehicle C. Specifically, the detection unit 31 detects, for example, sudden braking and sudden steering as danger avoidance driving from the traveling data transmitted from each on-vehicle device 50.

より詳細には、検出部31は、走行データのうち、車両Cの速度の推移や、車両Cに生じる加速度に基づいて急ブレーキを検出し、車両Cの舵角の推移に基づいて急操舵を検出する。また、検出部31は、車両Cの加速度や、エアバッグの作動状況から車両Cの衝突を検出することもできる。   More specifically, the detection unit 31 detects a sudden brake based on the transition of the speed of the vehicle C and the acceleration generated in the vehicle C among the traveling data, and performs the rapid steering based on the transition of the steering angle of the vehicle C. To detect. The detection unit 31 can also detect a collision of the vehicle C from the acceleration of the vehicle C or the operation state of the air bag.

なお、検出部31は、車両Cから撮像された撮像映像Lや、車両Cが備えるレーダ装置の検知結果に基づいて危険回避運転を検出することにしてもよい。   The detection unit 31 may detect the danger avoidance driving based on the captured image L captured from the vehicle C and the detection result of the radar device included in the vehicle C.

具体的には、検出部31は、例えば、時系列の撮像映像Lから同一の特徴点を結んだベクトル、いわゆるオプティカルフローに基づいて車両Cの速度や旋回角を導出し、危険回避運転を検出することもできる。   Specifically, the detection unit 31 derives the speed and turning angle of the vehicle C based on, for example, a vector connecting the same feature points from the time-series captured image L, so-called optical flow, and detects danger avoidance driving You can also

このとき、検出部31は、車両Cの進行方向について障害物の有無を撮像映像Lやレーダ装置の検知結果に基づいて判定することもできる。つまり、検出部31は、検出した危険回避運転が障害物等による外的要因によるものか、運転者による内的要因によるものかを判定することもできる。   At this time, the detection unit 31 can also determine the presence or absence of an obstacle in the traveling direction of the vehicle C based on the captured image L and the detection result of the radar device. That is, the detection unit 31 can also determine whether the detected danger avoidance driving is due to an external factor such as an obstacle or the like or an internal factor due to the driver.

かかる場合に、検出部31は、検出した危険回避運転のうち、外的要因による危険回避運転のみを危険回避運転として判定することもできる。つまり、内的要因に基づく危険回避運転を排除することで、外的要因に基づくヒヤリハット地点のみを抽出することが可能となる。   In such a case, the detection unit 31 can also determine, among the detected danger avoidance driving, only the danger avoidance driving due to an external factor as the danger avoidance driving. That is, by excluding the danger avoiding operation based on the internal factor, it becomes possible to extract only the incident point based on the external factor.

検出部31は、危険回避運転を検出した場合、危険回避運転の発生した時刻を示す時刻情報および危険回避運転の発生地点、危険回避運転時を含む前後の時刻に撮像された撮像映像L等を含む情報を抽出部32へ通知する。   When detecting the danger avoidance driving, the detection unit 31 detects the time information indicating the time when the danger avoidance driving occurred, the occurrence point of the danger avoidance driving, and the captured image L captured before and after the danger avoidance driving. The information to be included is notified to the extraction unit 32.

抽出部32は、検出部31によって危険回避運転が検出された場合に、車両Cの外部が撮像された撮像映像Lから移動物体を抽出する。例えば、抽出部32は、危険回避運転時を含む前後の時刻に撮像された撮像映像Lからテンプレート画像とのマッチング処理によって撮像映像Lに写る歩行者や他車両を移動物体として抽出することができる。   When the danger avoidance driving is detected by the detection unit 31, the extraction unit 32 extracts a moving object from the captured image L in which the outside of the vehicle C is captured. For example, the extraction unit 32 can extract a pedestrian or another vehicle shown in the captured image L as a moving object by matching processing with a template image from the captured image L captured before and after time including danger avoidance driving .

また、抽出部32は、抽出した移動物体の撮像映像L上の座標位置およびかかる移動物体の種別等を示す移動物体情報を変換部33へ通知する。なお、抽出部32は、上記のマッチング処理のみならず、いわゆる背景差分法などその他の手法を用いて撮像映像Lから移動物体を抽出することにしてもよい。   In addition, the extraction unit 32 notifies the conversion unit 33 of moving object information indicating the coordinate position of the extracted moving object on the captured image L and the type of the moving object. The extraction unit 32 may extract the moving object from the captured image L using not only the above-described matching process but also other methods such as a so-called background subtraction method.

変換部33は、抽出部32によって抽出された移動物体を抽象化したアニメーション画像Gへ変換する。例えば、変換部33は、上記の移動物体情報に基づいて移動物体の種別に応じたアニメーション画像Gを撮像映像L上の座標位置に重畳することで移動物体をアニメーション画像Gへ変換する。変換部33は、変換したアニメーション画像Gに関する情報を対応付け部34へ出力する。   The conversion unit 33 converts the moving object extracted by the extraction unit 32 into an abstracted animation image G. For example, the converting unit 33 converts the moving object into the animation image G by superimposing the animation image G corresponding to the type of the moving object on the coordinate position on the captured image L based on the moving object information. The conversion unit 33 outputs information related to the converted animation image G to the association unit 34.

ここで、上述したように、アニメーション画像Gは、3次元のポリゴン画像であり、視点方向を変更可能な自由視点画像である。つまり、ユーザは、アニメーション画像Gに対して画像上で視点の角度を変えて視認することができる。このため、変換部33は、アニメーション画像Gへの変換に際して、移動物体の実際の大きさや、撮像映像Lを撮像する車載カメラCmと移動物体との相対距離を決定する必要がある。   Here, as described above, the animation image G is a three-dimensional polygon image, and is a free viewpoint image capable of changing the viewpoint direction. That is, the user can visually recognize the animation image G by changing the angle of the viewpoint on the image. Therefore, when converting to the animation image G, the conversion unit 33 needs to determine the actual size of the moving object and the relative distance between the on-vehicle camera Cm that captures the captured image L and the moving object.

そこで、変換部33は、車両Cの外部を撮像する車載カメラCmの設置位置に基づいて移動物体の実際の大きさや相対距離を決定する。図4は、車載カメラCmの設置位置を示す模式図である。図4に示すように、取り付け位置は、取付高さHおよび取付俯角θを含む。   Therefore, the conversion unit 33 determines the actual size and relative distance of the moving object based on the installation position of the on-vehicle camera Cm that captures the outside of the vehicle C. FIG. 4 is a schematic view showing the installation position of the on-vehicle camera Cm. As shown in FIG. 4, the mounting position includes the mounting height H and the mounting wedge angle θ.

取付高さHとは、路面から車載カメラCmのレンズまでの高さを示し、例えば、車両Cの車種や、取付位置に応じて異なる。また、取付俯角θとは、路面から車載カメラCmの垂線に対する撮像軸axの角度を示す。   The mounting height H indicates the height from the road surface to the lens of the on-vehicle camera Cm, which differs depending on, for example, the type of the vehicle C and the mounting position. Further, the attachment drop angle θ indicates the angle of the imaging axis ax with respect to the vertical line of the on-vehicle camera Cm from the road surface.

取付俯角θについても、取付高さHと同様に車両C毎に固有の値である。なお、取付高さHおよび取付俯角θに関する情報は、例えば、画像生成システム100に対する車載装置50の初期登録時に画像生成装置1に登録される。   Similarly to the mounting height H, the mounting wedge angle θ is a value specific to each vehicle C. The information on the mounting height H and the mounting depression angle θ is registered in the image generation device 1 at the time of initial registration of the on-vehicle device 50 with respect to the image generation system 100, for example.

変換部33は、車載カメラCmの取付高さHおよび取付俯角θに基づいて車載カメラCmの撮像領域を導出し、かかる撮像領域を路面上の座標系に変換する。そして、変換部33は、かかる座標系に基づいて撮像映像Lに写る移動物体の実際の大きさや相対距離を決定する。   The conversion unit 33 derives an imaging area of the on-vehicle camera Cm based on the mounting height H and the mounting depression angle θ of the on-vehicle camera Cm, and converts the imaging area to a coordinate system on the road surface. Then, the conversion unit 33 determines the actual size and relative distance of the moving object shown in the captured image L based on the coordinate system.

このように、変換部33は、車載カメラCm毎の取り付け位置に基づいて移動物体の実際の大きさや相対距離を決定することで、撮像映像Lから移動物体の大きさや相対距離を正確に導出することができる。   Thus, the conversion unit 33 accurately derives the size and relative distance of the moving object from the captured image L by determining the actual size and relative distance of the moving object based on the mounting position of each on-vehicle camera Cm. be able to.

図3の説明に戻り、対応付け部34について説明する。対応付け部34は、変換部33によって変換されたアニメーション画像Gにヒヤリハット地点の位置情報を対応付ける。例えば、対応付け部34は、危険回避運転時の位置情報を各アニメーション画像Gへ対応付ける。   Returning to the description of FIG. 3, the association unit 34 will be described. The associating unit 34 associates the animation image G converted by the converting unit 33 with the position information of the near-miss point. For example, the associating unit 34 associates the position information at the time of danger avoidance driving with each animation image G.

このとき、対応付け部34は、危険回避運転前後の位置情報の推移に基づき、車両Cの進行方向、すなわち、車載カメラCmの撮像方向を推定し、かかる撮像方向に関する情報をアニメーション画像Gへ対応付ける。   At this time, the associating unit 34 estimates the traveling direction of the vehicle C, that is, the imaging direction of the on-vehicle camera Cm based on the transition of the position information before and after danger avoidance driving, and associates information on the imaging direction with the animation image G. .

つまり、対応付け部34は、推定した撮像位置および撮像方向と、変換部33によって導出された撮像映像L上における移動物体の位置情報とに基づいてアニメーション画像Gの正確な位置や向きを対応付けることができる。   That is, the associating unit 34 associates the correct position and direction of the animation image G based on the estimated imaging position and imaging direction and the position information of the moving object on the captured image L derived by the converting unit 33. Can.

また、対応付け部34は、アニメーション画像Gに対して危険回避運転を行った運転者に関する運転者情報を対応付ける。かかる運転者情報は、記憶部4のユーザデータベース42に格納される。   Further, the associating unit 34 associates, with the animation image G, driver information on the driver who has performed the danger avoidance driving. The driver information is stored in the user database 42 of the storage unit 4.

図5は、ユーザデータベース42の具体例を示す図である。図5に示すように、ユーザデータベース42には、運転者情報として「ユーザID」、「車両ID」、「性別」、「走行距離」、「運転スキル」、「違反回数」が互いに対応付けられる。   FIG. 5 shows a specific example of the user database 42. As shown in FIG. As shown in FIG. 5, in the user database 42, “user ID”, “vehicle ID”, “sex”, “travel distance”, “driving skill”, and “number of times of violation” are associated with one another as driver information. .

「ユーザID」は、運転者を識別する識別子であり、「車両ID」は、運転者が乗車する車両Cを識別する識別子である。また、「性別」は、運転者の性別を示し、「走行距離」は、運転者が車両Cを運転した距離を示す。   The “user ID” is an identifier for identifying the driver, and the “vehicle ID” is an identifier for identifying the vehicle C on which the driver gets in. Also, “sex” indicates the gender of the driver, and “travel distance” indicates the distance the driver has driven the vehicle C.

「運転スキル」は、運転者の運転に関する技量を示し、「違反回数」は、例えば、運転者が道路交通法を違反した回数を示す。なお、運転スキルについは、例えば、画像生成装置1に運転スキルを診断する診断部を設けることにしてもよいし、外部の装置で診断した運転スキルをユーザデータベース42へ登録することにしてもよい。   The “driving skill” indicates the driver's driving skill, and the “number of violations” indicates, for example, the number of times the driver violates the road traffic law. For the driving skill, for example, the image generation device 1 may be provided with a diagnosis unit for diagnosing the driving skill, or the driving skill diagnosed by an external device may be registered in the user database 42. .

このように、対応付け部34は、運転者情報をアニメーション画像Gへ対応付けることで、各アニメーション画像Gの検索を容易にすることができる。つまり、ユーザID、性別、走行距離等の検索条件の入力によってアニメーション画像Gを容易に検索することができる。なお、かかる点の詳細については、図10を用いて後述する。   Thus, the association unit 34 can facilitate the search for each animation image G by associating the driver information with the animation image G. That is, the animation image G can be easily searched by inputting the search conditions such as the user ID, the sex, the traveling distance and the like. The details of this point will be described later with reference to FIG.

さらに、対応付け部34は、アニメーション画像Gに対して、危険回避運転時の時刻、天候等に関する情報を対応付けることもできる。そして、対応付け部34は、アニメーション画像Gについて情報の対応付けを終えると、アニメーション画像Gを図3に示すヒヤリハット地点データベース41に格納する。   Furthermore, the association unit 34 can also associate the animation image G with information regarding the time of the danger avoidance driving, the weather, and the like. When the association unit 34 completes the association of information on the animation image G, the association unit 34 stores the animation image G in the near-miss point database 41 illustrated in FIG. 3.

図6は、ヒヤリハット地点データベース41の具体例を示す図である。図6に示すように、ヒヤリハット地点データベース41には、各アニメーション画像Gについて、「画像ID」、「ユーザID」、「位置」、「ヒヤリハット種別」、「日時」、「天候」等の情報が対応付けられて記憶される。   FIG. 6 is a view showing a specific example of the near incident point database 41. As shown in FIG. As shown in FIG. 6, in the near-miss hat point database 41, for each animation image G, information such as “image ID”, “user ID”, “position”, “miss type”, “date and time”, “weather” etc. It is matched and memorized.

「画像ID」は、アニメーション画像Gを識別する識別子であり、「ユーザID」は、危険回避運転の運転者を示す識別子であり、ユーザIDには、図5に示したように、運転者情報が紐付けられる。   The “image ID” is an identifier for identifying the animation image G, the “user ID” is an identifier for indicating the driver of the hazard avoidance driving, and the user ID indicates the driver information as shown in FIG. Is tied.

「位置」は、アニメーション画像Gを地図画像上で表示する位置を示す。「ヒヤリハット種別」は、危険回避運転時のヒヤリハットに関する事象を示す。「日時」は、危険回避運転が発生した日時を示し、「天候」は、ヒヤリハット時の天候を示す。   "Position" indicates the position where the animation image G is displayed on the map image. "Hyari-hat type" indicates an event related to a hiyari-hat during danger avoidance operation. "Date" indicates the date and time when the danger avoidance operation occurred, and "weather" indicates the weather at the time of the incident.

例えば、天候に関する情報は、「位置」および「日時」に基づいて外部の装置、もしくは、各車載装置50から取得することができる。   For example, information on weather can be acquired from an external device or each on-vehicle device 50 based on the “position” and the “date and time”.

図3の説明に戻り、生成部35について説明する。生成部35は、位置情報に基づき、アニメーション画像を撮像映像Lに対応した3次元地図画像に重畳させた表示映像Dを生成する。   Returning to the description of FIG. 3, the generation unit 35 will be described. The generation unit 35 generates a display video D in which the animation image is superimposed on the three-dimensional map image corresponding to the captured video L based on the position information.

かかる3次元地図画像は、記憶部4の3次元地図データベース43に記憶される。図7は、3次元地図画像の一例を示す図である。図7に示すように、3次元地図画像は、例えば、ビルなどの建物を3次元的に表現した画像である。   The three-dimensional map image is stored in the three-dimensional map database 43 of the storage unit 4. FIG. 7 is a view showing an example of a three-dimensional map image. As shown in FIG. 7, the three-dimensional map image is, for example, an image three-dimensionally expressing a building such as a building.

3次元地図画像には、実際の位置情報が対応付けられており、生成部35は、アニメーション画像Gに対応付けられた位置情報に基づき、3次元地図画像上にアニメーション画像Gを重畳する。   Actual position information is associated with the three-dimensional map image, and based on the position information associated with the animation image G, the generation unit 35 superimposes the animation image G on the three-dimensional map image.

これにより、アニメーション画像Gを3次元地図画像上の実位置に重畳することが可能となる。また、アニメーション画像Gおよび3次元地図画像は、いずれも視点位置を変更可能である。   Thereby, it becomes possible to superimpose the animation image G on the real position on the three-dimensional map image. In addition, both the animation image G and the three-dimensional map image can change the viewpoint position.

このため、表示映像Dにおいては、3次元地図画像およびアニメーション画像Gについて視点位置を変更して表示することが可能である。つまり、図8に示すように、車載カメラCmの撮像位置や、撮像軸axを疑似的に変更させて表示映像Dを表示することが可能である。なお、図8は、表示映像Dの概念図である。   For this reason, in the display image D, it is possible to change and display the viewpoint position of the three-dimensional map image and the animation image G. That is, as shown in FIG. 8, it is possible to display the display image D by changing the imaging position of the on-vehicle camera Cm and the imaging axis ax in a pseudo manner. FIG. 8 is a conceptual view of the display image D.

このように、視点位置を変更可能とすることで、任意の視点位置からヒヤリハットのシチュエーションを検証することが可能となる。すなわち、ヒヤリハット時の運転者の視点からの画像のみならず、他車両や、歩行者から車両Cを見た画像、さらに、全体を俯瞰した俯瞰画像等を表示映像Dとして表示することが可能となる。   As described above, by making the viewpoint position changeable, it is possible to verify the situation of the near incident from any viewpoint position. That is, it is possible to display not only the image from the driver's point of view at the time of the incident, but also an image of the other vehicle or a pedestrian looking at the vehicle C, and a bird's-eye view etc. Become.

つまり、生成部35は、アニメーション画像Gを3次元地図画像に重畳することで、多様な角度からヒヤリハット時のシチュエーションを検証することが可能となる。   That is, by superimposing the animation image G on the three-dimensional map image, the generation unit 35 can verify the situation at the time of near loss from various angles.

特に、生成部35は、ドライバの視点位置や移動物体の視点位置を含む視点位置から見た表示画像Dを生成することで、ドライバおよび移動物体の双方の視点からヒヤリハットのシチュエーションを検証することができる。   In particular, the generation unit 35 generates a display image D viewed from the viewpoint position including the viewpoint position of the driver and the viewpoint position of the moving object, thereby verifying the situation of the near-missing hat from both the driver and the moving object it can.

つまり、ユーザが、ヒヤリハットの発生原因を多様な角度から解析することが可能となる。これにより、ユーザが、ヒヤリハットを未然に防ぐための運転知識を深めることできるので、ヒヤリハットの発生を抑止する効果が期待される。   In other words, it is possible for the user to analyze the cause of the near-miss occurrence from various angles. As a result, the user can deepen driving knowledge for preventing a near incident, and therefore, the effect of suppressing the occurrence of near incident is expected.

また、アニメーション画像Gを重畳した3次元地図画像を表示し、実際に撮影された映像を表示しないことで、ヒヤリハットの事象を発生させたドライバやそのドライバの所属する企業(タクシー会社等)が特定されることを防止できる。これは、実際に撮影された映像には、個人を特定する私物や企業を示すマークを含む場合があるからである。   In addition, the 3D map image on which the animation image G is superimposed is displayed, and the actually captured image is not displayed, thereby identifying the driver that generated the incident event and the company (taxi company etc.) to which the driver belongs. Can be prevented. This is because the video actually taken may include a mark indicating a personal thing or a company identifying the individual.

このように個人や企業を特定できないようにすることで、複数人や複数企業でヒヤリハット時のシチュエーションの検証に有効なシーンを安心して共有することができる。   In this way, by making it impossible to identify individuals or companies, it is possible to safely share a scene effective for verification of situations at the time of hiyarihat among multiple people or multiple companies.

また、生成部35は、アニメーション画像Gに対応付けられた天候情報や時刻情報を反映させた表示映像Dを生成することも可能である。かかる点の詳細については、後述する。   In addition, the generation unit 35 can also generate a display video D reflecting weather information and time information associated with the animation image G. Details of this point will be described later.

次に、図9を用いて実施形態に係る車載装置50について説明する。図9は、車載装置50のブロック図である。図9に示すように、車載装置50は、ナビゲーション装置60、表示装置70、車載カメラCm、免許証リーダLlが接続される。   Next, the on-vehicle apparatus 50 according to the embodiment will be described with reference to FIG. FIG. 9 is a block diagram of the in-vehicle apparatus 50. As shown in FIG. As shown in FIG. 9, the in-vehicle apparatus 50 is connected with the navigation apparatus 60, the display apparatus 70, the in-vehicle camera Cm, and the license reader Ll.

また、車載装置50は、ブレーキセンサSc1、アクセルセンサSc2、ステアリングセンサSc3、GセンサSc4、GPS(Global Positioning System)Sc5等から取得した情報を走行データとして画像生成装置1へ送信する。   Further, the on-vehicle device 50 transmits information acquired from the brake sensor Sc1, the accelerator sensor Sc2, the steering sensor Sc3, the G sensor Sc4, the GPS (Global Positioning System) Sc5 and the like to the image generation device 1 as traveling data.

車載カメラCmは、上述したように、いわゆるドライブレコーダであり、車両Cの前方を撮像した撮像映像Lを車載装置50へ出力する。なお、車載カメラCmを車載装置50に含める構成にすることにしてもよい。   As described above, the in-vehicle camera Cm is a so-called drive recorder, and outputs a captured image L obtained by imaging the front of the vehicle C to the in-vehicle device 50. The on-vehicle camera Cm may be included in the on-vehicle apparatus 50.

免許証リーダLlは、運転者の免許証から情報を読み取る装置である。例えば、免許証リーダLlは、運転者の免許証から運転者の氏名、年齢、住所、免許証の色の区分等を読み取り、車載装置50へ出力する。   The license reader Ll is a device that reads information from the driver's license. For example, the license reader Ll reads the driver's name, age, address, classification of license color, and the like from the driver's license, and outputs the driver's license, etc., to the on-vehicle device 50.

なお、車載装置50は、免許証リーダLlに代えて、運転者が撮像された撮像映像から運転者を識別したり、指紋等を用いた生体認証により運転者を識別したりすることにしてもよい。   Note that, instead of the license reader Ll, the in-vehicle apparatus 50 may identify the driver from the captured image captured by the driver, or identify the driver by biometric authentication using a fingerprint or the like. Good.

車載装置50は、通信部51と、制御部52とを備える。通信部51は、画像生成装置1とデータを送受信する通信インターフェースである。制御部52は、車載装置50の全体を制御するCPUとして機能する。   The in-vehicle apparatus 50 includes a communication unit 51 and a control unit 52. The communication unit 51 is a communication interface that transmits and receives data to and from the image generation device 1. The control unit 52 functions as a CPU that controls the entire in-vehicle device 50.

例えば、制御部52は、車載カメラCmで撮像された撮像映像Lや走行データに対して運転者情報を紐付けて通信部51を介して画像生成装置1へ送信する。   For example, the control unit 52 associates driver information with the captured image L captured by the on-vehicle camera Cm and travel data, and transmits the driver information to the image generation device 1 via the communication unit 51.

また、制御部52は、ナビゲーション装置60から車両Cの進路情報を取得し、かかる進路情報を画像生成装置1へ送信する。これにより、画像生成装置1から車載装置50へ車両Cの進路上のヒヤリハット地点に関する表示映像Dが送信され、かかる表示映像Dが表示装置70の表示部71に表示される。   In addition, the control unit 52 acquires course information of the vehicle C from the navigation device 60, and transmits the course information to the image generation device 1. Thereby, the display image D regarding the near-miss point on the route of the vehicle C is transmitted from the image generation device 1 to the on-vehicle device 50, and the display image D is displayed on the display unit 71 of the display device 70.

なお、車載装置50に予め表示映像Dに関する情報を記憶しておき、車載装置50がかかる情報に基づいて表示映像Dを選択して表示部71に表示することにしてもよい。つまり、画像生成装置1によって生成された表示映像Dに関する情報を所定の周期で車載装置50にアップデートして用いることにしてもよい。   Information on the display image D may be stored in advance in the in-vehicle apparatus 50, and the in-vehicle apparatus 50 may select the display image D based on the information and display the selected image on the display unit 71. That is, the information on the display image D generated by the image generation device 1 may be updated and used in the on-vehicle device 50 at a predetermined cycle.

ナビゲーション装置60は、車両Cの現在地や、目的地までの経路を示すナビゲーション画像を生成し、表示装置70へ出力する。表示装置70は、例えば、タッチパネルディスプレイであり、表示部71と、操作部72とを備え、上記のナビゲーション画像や表示映像Dを表示する。   The navigation device 60 generates a navigation image indicating the current position of the vehicle C and the route to the destination, and outputs the navigation image to the display device 70. The display device 70 is, for example, a touch panel display, includes a display unit 71 and an operation unit 72, and displays the navigation image and the display video D described above.

ところで、上述したように、アニメーション画像Gを含む表示映像Dには、運転者情報や、時刻情報、天候情報等が対応付けられる。このため、ユーザは、表示部71に表示された検索画面を見ながら、操作部72に対する操作によってアニメーション画像Gを条件検索することが可能である。   By the way, as described above, driver information, time information, weather information and the like are associated with the display image D including the animation image G. Therefore, the user can conditionally search the animation image G by operating the operation unit 72 while looking at the search screen displayed on the display unit 71.

図10は、検索画面の一例を示す図である。図10に示すように、検索画面には、性別、天候、年代、時間帯、免許証等の検索条件が表示される。   FIG. 10 is a diagram showing an example of a search screen. As shown in FIG. 10, search conditions such as gender, weather, age, time zone, and license are displayed on the search screen.

かかる検索条件の各項目が選択されると、検索条件に合致するヒヤリハット地点Sが地図上に表示される。そして、例えば、地図上のヒヤリハット地点Sが選択されると、選択されたヒヤリハット地点Sにおけるアニメーション画像Gを含む表示映像Dが再生される。   When each item of the search condition is selected, a near-miss point S that matches the search condition is displayed on the map. Then, for example, when the near-miss point S on the map is selected, the display image D including the animation image G at the selected near-miss point S is reproduced.

これにより、ユーザは、所望するヒヤリハット地点Sにおけるヒヤリハットのシチュエーションを確認することが可能となる。また、表示映像Dの条件検索を可能とすることで、ユーザが所望する表示映像Dを簡便な操作で検索することができる。   This enables the user to confirm the situation of the near incident at the desired near incident point S. Further, by enabling the condition search of the display video D, the display video D desired by the user can be searched by a simple operation.

また、画像生成システム100では、所定の地点からヒヤリハット地点までの表示映像Dを再生することも可能である。図11は、表示画面の具体例を示す図である。   Moreover, in the image generation system 100, it is also possible to reproduce the display image D from the predetermined point to the near point. FIG. 11 is a diagram showing a specific example of the display screen.

図11に示すように、表示画面には、車両Cの走行位置を示すアイコンIが表示された地図画像Mと、表示映像Dが表示される。ここで、表示映像Dは、アイコンIの位置における運転者の視点画像である。   As shown in FIG. 11, on the display screen, a map image M on which an icon I indicating the traveling position of the vehicle C is displayed, and a display video D are displayed. Here, the display image D is a viewpoint image of the driver at the position of the icon I.

つまり、表示映像Dは、車両Cが実際にアイコンIの位置を走行した際に運転席から見える景色が表示される。このとき、車両Cにあわせて視点位置の高さを調整することも可能である。   That is, when the vehicle C actually travels the position of the icon I, the display image D displays the view seen from the driver's seat. At this time, it is also possible to adjust the height of the viewpoint position in accordance with the vehicle C.

すなわち、車両Cの運転席の高さに応じて視点位置の高さを変更して表示映像Dを表示することができる。これにより、リアリティーの高い表示映像Dを提供することが可能となる。   That is, according to the height of the driver's seat of the vehicle C, the height of the viewpoint position can be changed and the display image D can be displayed. This makes it possible to provide a highly realistic display image D.

また、表示画面では、アイコンIの移動に伴って、表示映像Dが更新される。すなわち、アイコンIが移動すると、移動した位置から運転者が見える景色が表示映像Dに随時表示される。つまり、表示画像Dを再生した場合の時間的変化に連動して、車両Cの位置を示すアイコンIを地図画像上で移動する。   Further, on the display screen, the display video D is updated as the icon I moves. That is, when the icon I moves, the view that the driver can see from the moved position is displayed on the display video D as needed. That is, in conjunction with the temporal change when the display image D is reproduced, the icon I indicating the position of the vehicle C is moved on the map image.

同図に示す例では、地図画像M上に表示されたアイコンIが右折後に、ヒヤリハット地点Sが見える場合を示す。このため、かかるアイコンIの位置からは、ヒヤリハット地点Sを視認することはできないので、表示映像Dにはヒヤリハット地点Sは表示されず、かかるヒヤリハット地点Sの手前にある交差点が表示される。   In the example shown in the figure, it is shown that the icon I displayed on the map image M can see the near-miss point S after the right turn. For this reason, since it is not possible to visually recognize the near-miss point S from the position of the icon I, the near-miss point S is not displayed on the display image D, and an intersection in front of the near-miss point S is displayed.

このように、画像生成システム100では、ヒヤリハット地点Sにおける表示映像Dだけでなく、ヒヤリハット地点Sに至るまでの表示映像Dを生成することが可能である。   As described above, the image generation system 100 can generate not only the display image D at the near-miss point S but also the display image D up to the near-end point S.

これにより、運転者は、ヒヤリハット地点Sにおける表示映像Dのみならず、ヒヤリハット地点Sに至るまでの走行ルートにおける表示映像Dを事前に確認することができる。したがって、ユーザは、走行ルートとともにヒヤリハットの内容を確認することができる。   As a result, the driver can confirm not only the display image D at the near-miss point S but also the display image D on the travel route up to the near-end point S in advance. Therefore, the user can confirm the contents of the near incident along with the travel route.

なお、この際に、例えば、走行ルートにおいて、ヒヤリハット地点Sの手前にある特徴的な構造物を強調して表示することにしてもよい。これにより、ユーザは、走行ルートを実際に走行する際に、かかる構造物を目印として、ヒヤリハット地点Sに近づいたことを認識することが可能となる。   At this time, for example, a characteristic structure located in front of the near spot S may be emphasized and displayed on the traveling route. As a result, when actually traveling on the traveling route, the user can recognize that the near-miss point S is approached by using the structure as a mark.

つまり、かかる構造物を強調して表示することにより、ユーザに対してヒヤリハット地点Sの実際の位置を印象付けて記憶させることが可能となる。また、アイコンIの移動に伴って、アイコンIの位置から見える表示映像Dを表示することで、ユーザは、車両Cの位置とともに、かかる位置における風景を同時に視聴することが可能となる。   That is, by emphasizing and displaying such a structure, it is possible to impress and store the actual position of the near-miss point S for the user. Also, by displaying the display image D seen from the position of the icon I along with the movement of the icon I, the user can simultaneously view the scenery at the position as well as the position of the vehicle C.

ところで、画像生成システム100では、表示映像Dを車両Cのフロントガラスに見立てて、時刻や天候に応じて表示態様を変更することも可能である。具体的には、天候が雨や雪であれば、表示映像Dに雨や雪を表示する。   By the way, in the image generation system 100, the display image D can be regarded as the windshield of the vehicle C, and the display mode can be changed according to the time and the weather. Specifically, if the weather is rain or snow, the display video D displays rain or snow.

例えば、画像生成システム100では、時刻に応じて表示映像Dの明るさを変化させて表示したり、降水量や積雪量に応じて雨や雪の量を調整して表示映像Dに重畳したりすることができる。また、表示映像Dにワイパが動作するアニメーションを重畳して表示することも可能である。かかる場合に、雨や雪の量に応じてワイパの速度を調整することもできる。   For example, in the image generation system 100, the brightness of the display image D is changed and displayed according to the time, or the amount of rain or snow is adjusted according to the amount of precipitation or the amount of snow accumulation to be superimposed on the display image D can do. It is also possible to superimpose and display an animation in which the wiper operates on the display image D. In such a case, the speed of the wiper can also be adjusted according to the amount of rain or snow.

このように、画像生成システム100では、時刻や天候を表示映像Dに反映させる。これにより、運転者は、時刻や天候から想定される視界の表示映像Dを視聴することができる。つまり、現在の運転状況にあわせてリアリティーの高い表示映像Dを提供することが可能となる。   As described above, the image generation system 100 reflects the time and weather on the display image D. Thereby, the driver can view the display image D of the field of vision assumed from the time and weather. That is, it is possible to provide a highly realistic display image D in accordance with the current driving situation.

次に、図12を用いて実施形態に係る画像生成装置1が実行する処理手順について説明する。図12は、画像生成装置1が実行する処理手順を示すフローチャートである。図12に示すように、まず、画像生成装置1は、走行データを受信し(ステップS101)、危険回避運転を検出したか否かを判定する(ステップS102)。   Next, processing procedures executed by the image generation device 1 according to the embodiment will be described using FIG. FIG. 12 is a flowchart showing the processing procedure executed by the image generation device 1. As shown in FIG. 12, first, the image generating device 1 receives traveling data (step S101), and determines whether or not danger avoidance driving has been detected (step S102).

抽出部32は、検出部31が危険回避運転を検出した場合(ステップS102,Yes)、撮像映像Lから移動物体を抽出する(ステップS103)。一方、危険回避運転を検出しなかった場合(ステップS102,No)、処理を終了する。   The extraction unit 32 extracts a moving object from the captured image L when the detection unit 31 detects a danger avoiding operation (Yes at Step S102) (Step S103). On the other hand, when the danger avoidance driving is not detected (step S102, No), the process ends.

続いて、変換部33は、移動物体をアニメーション画像Gへ変換し(ステップS104)、対応付け部34は、アニメーション画像Gに対して危険回避運転の位置情報を対応付けて(ステップS105)、処理を終了する。   Subsequently, the conversion unit 33 converts the moving object into an animation image G (step S104), and the association unit 34 associates position information of the danger avoidance driving with the animation image G (step S105), Finish.

上述したように、実施形態に係る画像生成装置1は、検出部31と、抽出部32と、変換部33と、対応付け部34とを備える。検出部31は、車両Cの走行データから危険回避運転を検出する。抽出部32は、検出部31によって危険回避運転が検出された場合に、車両Cの外部を継続的に撮像した撮像映像Lから移動物体を抽出する。   As described above, the image generation device 1 according to the embodiment includes the detection unit 31, the extraction unit 32, the conversion unit 33, and the association unit 34. The detection unit 31 detects the danger avoidance driving from the traveling data of the vehicle C. When the danger avoidance driving is detected by the detection unit 31, the extraction unit 32 extracts a moving object from the captured image L obtained by continuously capturing the outside of the vehicle C.

変換部33は、抽出部32によって抽出された移動物体を抽象化したアニメーション画像Gへ変換する。対応付け部34は、変換部33によって変換されたアニメーション画像Gに対して危険回避運転の位置情報を対応付ける。したがって、実施形態に係る画像生成装置1によれば、ユーザに対してヒヤリハット時のシチュエーションを直感的に把握させることができる。   The conversion unit 33 converts the moving object extracted by the extraction unit 32 into an abstracted animation image G. The association unit 34 associates the position information of the danger avoidance driving with the animation image G converted by the conversion unit 33. Therefore, according to the image generation device 1 according to the embodiment, it is possible to intuitively grasp the situation at the time of near call for the user.

ところで、上述した実施形態では、画像生成装置1が、ヒヤリハットに対する表示映像Dを生成する場合について説明したが、これに限定されるものではない。   By the way, although the case where the image generation device 1 generates the display image D for a near-miss hat has been described in the embodiment described above, the present invention is not limited to this.

そこで、以下では、画像生成装置1の変形例について説明する。変形例に係る画像生成装置1は、車両Cの走行データに基づいて運転者の視点画像を再現した表示映像Dを生成する。   So, below, the modification of the image generation apparatus 1 is demonstrated. The image generation device 1 according to the modification generates the display image D in which the viewpoint image of the driver is reproduced based on the traveling data of the vehicle C.

このとき、例えば、画像生成装置1には、各道路における法定速度、道路標識に関する情報を記憶しておき、走行データから道路交通法の違反を検出することもできる。   At this time, for example, it is possible to store information on legal speed and road signs on each road in the image generation device 1 and detect a violation of the Road Traffic Act from travel data.

画像生成装置1は、かかる違反を検出した場合に、違反内容を示すテロップを表示映像Dに重畳して表示することもできる。また、画像生成装置1は、撮像映像Lに写る信号機の点灯状態を検出し、信号無視等の違反を検出することも可能である。   When the image generation device 1 detects such a violation, the image generation device 1 can also superimpose a telop indicating the content of the violation on the display video D and display it. The image generation device 1 can also detect the lighting state of the traffic light shown in the captured image L and detect a violation such as signal neglect.

なお、上述した実施形態では、車載装置50を介して表示映像Dをユーザに提示する場合について説明したが、パソコン等の表示部を介して表示映像Dをユーザへ提示することにしてもよい。   In the embodiment described above, the display video D is presented to the user via the in-vehicle apparatus 50. However, the display video D may be presented to the user via the display unit such as a personal computer.

かかる場合に、例えば、トラック、バス等を含む営業車両の運行を管理する管理者が営業所等で各運転者に対してヒヤリハット地点およびヒヤリハットのシチュエーションを事前に確認させることができる。   In such a case, for example, a manager who manages the operation of a sales vehicle including a truck, a bus, etc. can make each driver confirm beforehand the situation of the near-miss point and near-miss point in the office or the like.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the invention are not limited to the specific details and representative embodiments represented and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1 画像生成装置
31 検出部
32 抽出部
33 変換部
34 対応付け部
35 生成部
C 車両
D 表示映像
G アニメーション画像
DESCRIPTION OF SYMBOLS 1 Image generation apparatus 31 Detection part 32 Extraction part 33 Conversion part 34 Correspondence part 35 Generation part C Vehicle D Display image G Animation image

Claims (7)

車両の走行データから危険回避運転を検出する検出部と、
前記検出部によって前記危険回避運転が検出された場合に、前記車両の外部を継続的に撮像した撮像映像から移動物体を抽出する抽出部と、
前記抽出部によって抽出された前記移動物体を抽象化したアニメーション画像へ変換する変換部と、
前記変換部によって変換された前記アニメーション画像に対して前記危険回避運転の位置情報を対応付ける対応付け部と
を備えることを特徴とする画像生成装置。
A detection unit that detects danger avoidance driving from traveling data of the vehicle;
An extraction unit that extracts a moving object from a captured image obtained by continuously capturing the outside of the vehicle when the danger avoidance driving is detected by the detection unit;
A conversion unit that converts the moving object extracted by the extraction unit into an abstracted animation image;
An associating unit that associates position information of the danger avoidance driving with the animation image converted by the converting unit.
前記位置情報に基づき、前記アニメーション画像を前記撮像映像に対応した3次元地図画像に重畳させた表示映像を生成する生成部
をさらに備えること
を特徴とする請求項1に記載の画像生成装置。
The image generation apparatus according to claim 1, further comprising: a generation unit configured to generate a display image obtained by superimposing the animation image on a three-dimensional map image corresponding to the captured image based on the position information.
前記生成部は、
前記車両のドライバおよび前記移動物体の視点位置を含んだ視点位置を変更可能にして、前記表示映像を生成すること
を特徴とする請求項2に記載の画像生成装置。
The generation unit is
The image generation apparatus according to claim 2, wherein the display image is generated by changing a viewpoint position including a driver of the vehicle and a viewpoint position of the moving object.
前記生成部は、
前記表示映像を再生した場合の時間的変化に連動して、前記車両の位置を示すアイコン画像を地図画像上で移動させること
を特徴とする請求項2または3に記載の画像生成装置。
The generation unit is
The image generation apparatus according to claim 2 or 3, wherein an icon image indicating the position of the vehicle is moved on a map image in conjunction with a temporal change when the display video is reproduced.
前記生成部は、
天候情報および時刻情報に応じた前記表示映像を生成すること
を特徴とする請求項2、3または4に記載の画像生成装置。
The generation unit is
The image generation device according to claim 2, 3 or 4, wherein the display image is generated according to weather information and time information.
前記対応付け部は、
前記アニメーション画像に対して前記車両の運転者に関する運転者情報を対応付けること
を特徴とする請求項1〜5のいずれか一つに記載の画像生成装置。
The association unit is
The image generation device according to any one of claims 1 to 5, wherein driver information on a driver of the vehicle is associated with the animation image.
車両の走行データから危険回避運転を検出する検出工程と、
前記検出工程によって前記危険回避運転が検出された場合に、前記車両の外部を継続的に撮像した撮像映像から移動物体を抽出する抽出工程と、
前記抽出工程によって抽出された前記移動物体を抽象化したアニメーション画像へ変換する変換工程と、
前記変換工程によって変換された前記アニメーション画像に対して前記危険回避運転の位置情報を対応付ける対応付け工程と
を含むことを特徴とする画像生成方法。
A detection step of detecting danger avoidance driving from travel data of the vehicle;
An extraction step of extracting a moving object from a captured image obtained by continuously capturing the outside of the vehicle when the danger avoidance driving is detected in the detection step;
Converting the moving object extracted by the extracting step into an abstracted animation image;
An associating step of associating position information of the danger avoidance driving with the animation image converted by the converting step.
JP2017204732A 2017-10-23 2017-10-23 Image generator and image generation method Active JP7021899B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017204732A JP7021899B2 (en) 2017-10-23 2017-10-23 Image generator and image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017204732A JP7021899B2 (en) 2017-10-23 2017-10-23 Image generator and image generation method

Publications (2)

Publication Number Publication Date
JP2019079203A true JP2019079203A (en) 2019-05-23
JP7021899B2 JP7021899B2 (en) 2022-02-17

Family

ID=66627774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017204732A Active JP7021899B2 (en) 2017-10-23 2017-10-23 Image generator and image generation method

Country Status (1)

Country Link
JP (1) JP7021899B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11403343B2 (en) 2019-07-26 2022-08-02 Toyota Jidosha Kabushiki Kaisha Retrieval of video and vehicle behavior for a driving scene described in search text

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164001A (en) * 2002-11-08 2004-06-10 Matsushita Electric Ind Co Ltd Device for supporting safe driving, base station for supporting safe driving and system for supporting safe driving
JP2008003657A (en) * 2006-06-20 2008-01-10 Hitachi Ltd Driving information aggregation device, system, information aggregation method, and information aggregation program
JP2008204304A (en) * 2007-02-22 2008-09-04 Hitachi Ltd Vehicle behavior reproduction method and system
JP2010238209A (en) * 2009-03-31 2010-10-21 Fujitsu Ten Ltd In-vehicle system
JP2011239001A (en) * 2010-04-30 2011-11-24 Techno Safety Co Ltd Image editing device, image reproduction device, and image editing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164001A (en) * 2002-11-08 2004-06-10 Matsushita Electric Ind Co Ltd Device for supporting safe driving, base station for supporting safe driving and system for supporting safe driving
JP2008003657A (en) * 2006-06-20 2008-01-10 Hitachi Ltd Driving information aggregation device, system, information aggregation method, and information aggregation program
JP2008204304A (en) * 2007-02-22 2008-09-04 Hitachi Ltd Vehicle behavior reproduction method and system
JP2010238209A (en) * 2009-03-31 2010-10-21 Fujitsu Ten Ltd In-vehicle system
JP2011239001A (en) * 2010-04-30 2011-11-24 Techno Safety Co Ltd Image editing device, image reproduction device, and image editing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11403343B2 (en) 2019-07-26 2022-08-02 Toyota Jidosha Kabushiki Kaisha Retrieval of video and vehicle behavior for a driving scene described in search text

Also Published As

Publication number Publication date
JP7021899B2 (en) 2022-02-17

Similar Documents

Publication Publication Date Title
CN107380164B (en) Driver assistance system based on computer vision and support system
CN106536299B (en) System and method based on test object abrupt deceleration vehicle
CN111164967B (en) Image processing apparatus and image processing method
CN106611512B (en) Method, device and system for processing starting of front vehicle
JP7355151B2 (en) Information processing device, information processing method, program
JP4752836B2 (en) Road environment information notification device and road environment information notification program
CN109859513A (en) Road junction roadway air navigation aid and device
US20170301107A1 (en) Image processing device, in-vehicle display system, display device, image processing method, and computer readable medium
US11003925B2 (en) Event prediction system, event prediction method, program, and recording medium having same recorded therein
CN108615407A (en) Device and method for preventing pedestrian impact accident
JP6127659B2 (en) Driving support device and driving support method
WO2020100922A1 (en) Data distribution system, sensor device, and server
JP4993644B2 (en) Train operation support device
US20200175863A1 (en) Information providing system, server, onboard device, vehicle, storage medium, and information providing method
TW201333896A (en) Remote traffic management system using video radar
WO2021090943A1 (en) Image processing device and image processing method
CN110803169A (en) System and method for displaying information in a vehicle
JP6302920B2 (en) Method and means for recognizing marked danger locations and / or construction sites in the area of the roadway
JP2013206031A (en) Driving evaluation system, driving evaluation method, and driving evaluation program
JP2017129973A (en) Driving support apparatus and driving support method
KR101760261B1 (en) Around view monitoring system having function of black box and operating method
JP7021899B2 (en) Image generator and image generation method
KR101671223B1 (en) Real-time noise analyzing system and a method for analyzing a real-time noise using the same
JP2011103058A (en) Erroneous recognition prevention device
CN108665757A (en) Simulating vehicle emergency system and its application

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220204

R150 Certificate of patent or registration of utility model

Ref document number: 7021899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150