JP2019079203A - Image generation device and image generation method - Google Patents
Image generation device and image generation method Download PDFInfo
- Publication number
- JP2019079203A JP2019079203A JP2017204732A JP2017204732A JP2019079203A JP 2019079203 A JP2019079203 A JP 2019079203A JP 2017204732 A JP2017204732 A JP 2017204732A JP 2017204732 A JP2017204732 A JP 2017204732A JP 2019079203 A JP2019079203 A JP 2019079203A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- unit
- moving object
- image generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像生成装置および画像生成方法に関する。 The present invention relates to an image generation apparatus and an image generation method.
近年、車両に搭載されるナビゲーション装置において、車両が注意して走行する必要があるヒヤリハット地点を通過する際に、ドライバに注意喚起を促す技術が提案されている(例えば、特許文献1参照)。 In recent years, in a navigation device mounted on a vehicle, there has been proposed a technique for prompting a driver to call attention when passing through a near-miss point where the vehicle needs to travel with caution (see, for example, Patent Document 1).
しかしながら、従来技術は、単にヒヤリハット地点の存在をユーザに通知するためのものであって、ユーザに対してヒヤリハットのシチュエーションを直感的に把握させる上で改善の余地があった。 However, the prior art is merely for notifying the user of the presence of a near-miss point, and there is room for improvement in making the user intuitively understand the near-miss situation.
本発明は、上記に鑑みてなされたものであって、ユーザに対してヒヤリハット時のシチュエーションを直感的に把握させることができる画像生成装置および画像生成方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an image generation device and an image generation method that can make a user intuitively grasp situations at the time of nearing.
上述した課題を解決し、目的を達成するために、実施形態に係る画像生成装置は、検出部と、抽出部と、変換部と、対応付け部とを備える。前記検出部は、車両の走行データから危険回避運転を検出する。前記抽出部は、前記検出部によって前記危険回避運転が検出された場合に、前記車両の外部を継続的に撮像した撮像映像から移動物体を抽出する。前記変換部は、前記抽出部によって抽出された前記移動物体を抽象化したアニメーション画像へ変換する。対応付け部は、前記変換部によって変換された前記アニメーション画像に対して前記危険回避運転の位置情報を対応付ける。 In order to solve the problems described above and achieve an object, an image generation apparatus according to an embodiment includes a detection unit, an extraction unit, a conversion unit, and an association unit. The detection unit detects danger avoidance driving from travel data of the vehicle. The extraction unit extracts a moving object from a captured image obtained by continuously capturing the outside of the vehicle when the danger avoidance driving is detected by the detection unit. The conversion unit converts the moving object extracted by the extraction unit into an abstracted animation image. The association unit associates position information of the danger avoidance driving with the animation image converted by the conversion unit.
本発明によれば、ユーザに対してヒヤリハットのシチュエーションを直感的に把握させることができる。 According to the present invention, it is possible to make the user intuitively grasp the situation of the near incident.
以下、添付図面を参照して、実施形態に係る画像生成装置および画像生成方法を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, an image generation apparatus and an image generation method according to an embodiment will be described in detail with reference to the accompanying drawings. Note that the present invention is not limited by the embodiments described below.
まず、図1を用いて実施形態に係る画像生成方法の概要について説明する。図1は、画像生成方法の概要を示す図である。かかる画像生成方法は、画像生成装置によって実行される。 First, an outline of an image generation method according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an outline of an image generation method. Such an image generation method is performed by an image generation device.
実施形態に係る画像生成方法は、車両が急ブレーキ等を行った際のいわゆるヒヤリハット地点におけるヒヤリハットの事象を映像化してユーザに直感的に把握させるものである。 The image generation method according to the embodiment is to make the user intuitively grasp an event of a near incident at a so-called near incident when the vehicle suddenly brakes or the like.
ここで、実施形態に係る画像生成方法に先立ち、従来技術について説明する。従来技術において、ヒヤリハット地点を車両が通過する際に、運転者へ注意喚起を促すものがある。 Here, prior to the image generation method according to the embodiment, the prior art will be described. In the prior art, when the vehicle passes the near spot point, there is one that urges the driver to be alerted.
しかしながら、従来技術では、ディスプレイ上に表示された地図画像にヒヤリハット地点を重畳して表示したり、スピーカから注意喚起を促す音声を出力したりするのみであった。このため、従来技術では、ユーザは実際のシチュエーションを把握し難かった。 However, in the prior art, the near-miss point is superimposed and displayed on the map image displayed on the display, or only the voice for calling attention is output from the speaker. For this reason, in the prior art, it was difficult for the user to grasp the actual situation.
これに対して、ヒヤリハット時に撮像された実際の映像をユーザに提示することも考えられる。しかしながら、かかる場合に、映像に写る通行人や、通行車両のプライバシーが侵害されるおそれがあり、個人情報を保護する観点から好ましくない。 On the other hand, it is also conceivable to present the user with the actual video captured at the time of the incident. However, in such a case, there is a possibility that the privacy of a passing person appearing in the image or a passing vehicle may be violated, which is not preferable from the viewpoint of protecting personal information.
そこで、実施形態に係る画像生成方法では、個人情報を保護しつつ、ユーザに対してヒヤリハットの事例を直感的に把握させることとした。つまり、実施形態に係る画像生成方法では、映像に写る通行人や、通行車両を加工することで、プライバシーを保護しつつ、ヒヤリハットのシチュエーションをユーザに直感的に把握させることが可能となる。 Therefore, in the image generation method according to the embodiment, the user is made to intuitively grasp an example of a near incident while protecting personal information. That is, in the image generation method according to the embodiment, it is possible to intuitively grasp the situation of the hiyari hat while protecting the privacy by processing the passersby shown in the image and the passing vehicle.
具体的には、図1に示すように、まず、実施形態に係る画像生成方法では、車両の走行データから危険回避運転を検出する(ステップS1)。ここで、危険回避運転とは、例えば、急ブレーキ、急操舵等を含む。また、危険回避運転は、危険を回避できた場合のみならず、危険を回避しようとしたものの、危険を避けられなかった場合を含む。 Specifically, as shown in FIG. 1, in the image generation method according to the embodiment, the danger avoidance driving is detected from the traveling data of the vehicle (step S1). Here, the danger avoidance driving includes, for example, sudden braking, sudden steering, and the like. In addition, the danger avoidance driving includes not only the case where the danger could be avoided but also the case where the danger could not be avoided although the danger was tried to be avoided.
次に、実施形態に係る画像生成方法では、車両の外部が撮像された撮像映像Lから移動物体を抽出する(ステップS2)。ここで、移動物体とは、撮像映像Lに写る通行人や、通行車両を示す。同図に示す例では、歩行者Pおよび通行車両Tcを移動物体として抽出した場合について示す。なお、移動物体とは、時系列的な撮像映像Lにおいて静止中の歩行者や停止中の通行車両を含む。 Next, in the image generation method according to the embodiment, a moving object is extracted from the captured image L in which the outside of the vehicle is captured (step S2). Here, the moving object indicates a passerby shown in the captured image L or a passing vehicle. The example shown in the figure shows the case where the pedestrian P and the passing vehicle Tc are extracted as moving objects. In addition, a moving object includes a pedestrian at rest and a passing vehicle at rest in the time-series captured image L.
続いて、実施形態に係る画像生成方法では、抽出した移動物体をアニメーション画像Gへ変換する(ステップS3)。アニメーション画像Gとは、例えば、3次元のポリゴン画像であるが、移動物体を抽象化したものであれば、その態様は問わない。 Subsequently, in the image generation method according to the embodiment, the extracted moving object is converted into an animation image G (step S3). The animation image G is, for example, a three-dimensional polygon image, but the form is not limited as long as the moving object is abstracted.
このように、実施形態に係る画像生成方法では、移動物体をアニメーション画像Gへ変換することで、歩行者Pや通行車両Tcの個人情報を保護することが可能となる。 Thus, in the image generation method according to the embodiment, by converting the moving object into the animation image G, it becomes possible to protect the personal information of the pedestrian P and the passing vehicle Tc.
次に、実施形態に係る画像生成方法では、アニメーション画像Gに対して危険回避運転の位置情報を対応付ける(ステップS4)。ここで、位置情報とは、例えば、移動物体の実際の位置であり、移動物体の向き等を含む。 Next, in the image generation method according to the embodiment, position information of the danger avoidance driving is associated with the animation image G (step S4). Here, the position information is, for example, the actual position of the moving object, and includes the direction of the moving object.
このように、実施形態に係る画像生成方法では、アニメーション画像Gに対して位置情報を対応付けることで、危険回避運転の実際のシチュエーションを地図画像上で表示することが可能となる。 As described above, in the image generation method according to the embodiment, by associating the animation image G with the position information, it becomes possible to display the actual situation of the danger avoidance driving on the map image.
これにより、運転者は、危険回避運転が多発するポイント(以下、ヒヤリハット地点と記載する)を通過する前に、かかるヒヤリハット地点のアニメーション画像Gを事前に確認することが可能となる。 As a result, the driver can confirm in advance the animation image G of such a near-miss point before passing a point where frequent danger avoidance driving occurs (hereinafter referred to as a near-miss point).
このように、実施形態に係る画像生成方法では、危険回避運転を検出した場合に、撮像映像Lに写る移動物体をアニメーション画像Gに変換することで、ヒヤリハット時のシチュエーションを直感的に把握させることが可能となる。 As described above, in the image generation method according to the embodiment, when danger-avoidance driving is detected, a moving object captured in the captured image L is converted into the animation image G to intuitively grasp the situation at the time of the incident. Is possible.
次に、図2を用いて実施形態に係る画像生成システム100について説明する。図2は、画像生成システム100の構成例を示す図である。図2に示すように、画像生成システム100は、画像生成装置1と、複数の車載装置50とを備える。画像生成装置1と、複数の車載装置50とは、ネットワークNを介して双方向に情報を送受信することが可能である。
Next, an
各車載装置50は、それぞれ車両Cに搭載され、DCM(Date Communication Module)などの車載通信モジュールやドライブレコーダ等を含む。車載装置50は、それぞれ車両Cの走行データや、ドライブレコーダで撮像された撮像映像Lを含む情報を所定周期で画像生成装置1へ送信する。
Each in-
画像生成装置1は、各車載装置50から送信される情報に基づいて危険回避運転を検出し、かかる移動物体をアニメーション画像Gへ変換する処理を実行することとなる。
The image generation device 1 detects the danger avoidance driving based on the information transmitted from each on-
このように、実施形態に係る画像生成システム100では、各車載装置50から送信される情報を画像生成装置1へ集積することで、多様なシチュエーションにおける危険回避運転に関する事象をビッグデータ化することが可能となる。
As described above, in the
例えば、ビッグデータ化した危険回避運転に関する情報は、運転者に対して事前にヒヤリハット時のシチュエーションを把握させるのみならず、交通安全に関する教育や、インフラの整備等に活用することが可能である。なお、ここでは、画像生成装置1が、車載装置50と別体である場合について説明したが、画像生成装置1と、車載装置50とは一体であってもよい。つまり、画像生成装置1を各車両Cに搭載し、車載装置50の機能を兼ねることにしてもよい。
For example, the information regarding danger avoidance driving made into big data can be used not only for the driver to grasp the situation at the time of hiyari hat in advance but also for education on traffic safety, maintenance of infrastructure, and the like. In addition, although the case where the image generation apparatus 1 was separate body from the vehicle-mounted
かかる場合に、画像生成システム100では、画像生成装置1によって生成されたアニメーション画像Gを集約するサーバ装置を別途備えることにしてもよい。
In such a case, the
次に、図3を用いて実施形態に係る画像生成装置1の構成例について説明する。図3は、画像生成装置1のブロック図である。図3に示すように、画像生成装置1は、通信部2と、制御部3と、記憶部4とを備える。通信部2は、上述した各車載装置50とデータの送受信を行う通信インターフェースである。
Next, a configuration example of the image generation device 1 according to the embodiment will be described with reference to FIG. FIG. 3 is a block diagram of the image generation device 1. As shown in FIG. 3, the image generation device 1 includes a
制御部3は、検出部31と、抽出部32と、変換部33と、対応付け部34と、生成部35とを備える。また、記憶部4は、ヒヤリハット地点データベース41と、ユーザデータベース42と、3次元地図データベース43とを記憶する。
The
制御部3は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。
The
コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部3の検出部31、抽出部32、変換部33、対応付け部34および生成部35として機能する。
The CPU of the computer functions as, for example, the
また、制御部3の検出部31、抽出部32、変換部33、対応付け部34および生成部35の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
In addition, at least one or all of the
また、記憶部4は、例えば、RAMやHDDに対応する。RAMやHDDは、ヒヤリハット地点データベース41、ユーザデータベース42および3次元地図データベース43や各種プログラムの情報を記憶することができる。なお、画像生成装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
The
制御部3の検出部31は、車両Cの走行データから危険回避運転を検出する。具体的には、検出部31は、各車載装置50から送信される走行データから例えば、急ブレーキ、急操舵を危険回避運転として検出する。
The
より詳細には、検出部31は、走行データのうち、車両Cの速度の推移や、車両Cに生じる加速度に基づいて急ブレーキを検出し、車両Cの舵角の推移に基づいて急操舵を検出する。また、検出部31は、車両Cの加速度や、エアバッグの作動状況から車両Cの衝突を検出することもできる。
More specifically, the
なお、検出部31は、車両Cから撮像された撮像映像Lや、車両Cが備えるレーダ装置の検知結果に基づいて危険回避運転を検出することにしてもよい。
The
具体的には、検出部31は、例えば、時系列の撮像映像Lから同一の特徴点を結んだベクトル、いわゆるオプティカルフローに基づいて車両Cの速度や旋回角を導出し、危険回避運転を検出することもできる。
Specifically, the
このとき、検出部31は、車両Cの進行方向について障害物の有無を撮像映像Lやレーダ装置の検知結果に基づいて判定することもできる。つまり、検出部31は、検出した危険回避運転が障害物等による外的要因によるものか、運転者による内的要因によるものかを判定することもできる。
At this time, the
かかる場合に、検出部31は、検出した危険回避運転のうち、外的要因による危険回避運転のみを危険回避運転として判定することもできる。つまり、内的要因に基づく危険回避運転を排除することで、外的要因に基づくヒヤリハット地点のみを抽出することが可能となる。
In such a case, the
検出部31は、危険回避運転を検出した場合、危険回避運転の発生した時刻を示す時刻情報および危険回避運転の発生地点、危険回避運転時を含む前後の時刻に撮像された撮像映像L等を含む情報を抽出部32へ通知する。
When detecting the danger avoidance driving, the
抽出部32は、検出部31によって危険回避運転が検出された場合に、車両Cの外部が撮像された撮像映像Lから移動物体を抽出する。例えば、抽出部32は、危険回避運転時を含む前後の時刻に撮像された撮像映像Lからテンプレート画像とのマッチング処理によって撮像映像Lに写る歩行者や他車両を移動物体として抽出することができる。
When the danger avoidance driving is detected by the
また、抽出部32は、抽出した移動物体の撮像映像L上の座標位置およびかかる移動物体の種別等を示す移動物体情報を変換部33へ通知する。なお、抽出部32は、上記のマッチング処理のみならず、いわゆる背景差分法などその他の手法を用いて撮像映像Lから移動物体を抽出することにしてもよい。
In addition, the
変換部33は、抽出部32によって抽出された移動物体を抽象化したアニメーション画像Gへ変換する。例えば、変換部33は、上記の移動物体情報に基づいて移動物体の種別に応じたアニメーション画像Gを撮像映像L上の座標位置に重畳することで移動物体をアニメーション画像Gへ変換する。変換部33は、変換したアニメーション画像Gに関する情報を対応付け部34へ出力する。
The
ここで、上述したように、アニメーション画像Gは、3次元のポリゴン画像であり、視点方向を変更可能な自由視点画像である。つまり、ユーザは、アニメーション画像Gに対して画像上で視点の角度を変えて視認することができる。このため、変換部33は、アニメーション画像Gへの変換に際して、移動物体の実際の大きさや、撮像映像Lを撮像する車載カメラCmと移動物体との相対距離を決定する必要がある。
Here, as described above, the animation image G is a three-dimensional polygon image, and is a free viewpoint image capable of changing the viewpoint direction. That is, the user can visually recognize the animation image G by changing the angle of the viewpoint on the image. Therefore, when converting to the animation image G, the
そこで、変換部33は、車両Cの外部を撮像する車載カメラCmの設置位置に基づいて移動物体の実際の大きさや相対距離を決定する。図4は、車載カメラCmの設置位置を示す模式図である。図4に示すように、取り付け位置は、取付高さHおよび取付俯角θを含む。
Therefore, the
取付高さHとは、路面から車載カメラCmのレンズまでの高さを示し、例えば、車両Cの車種や、取付位置に応じて異なる。また、取付俯角θとは、路面から車載カメラCmの垂線に対する撮像軸axの角度を示す。 The mounting height H indicates the height from the road surface to the lens of the on-vehicle camera Cm, which differs depending on, for example, the type of the vehicle C and the mounting position. Further, the attachment drop angle θ indicates the angle of the imaging axis ax with respect to the vertical line of the on-vehicle camera Cm from the road surface.
取付俯角θについても、取付高さHと同様に車両C毎に固有の値である。なお、取付高さHおよび取付俯角θに関する情報は、例えば、画像生成システム100に対する車載装置50の初期登録時に画像生成装置1に登録される。
Similarly to the mounting height H, the mounting wedge angle θ is a value specific to each vehicle C. The information on the mounting height H and the mounting depression angle θ is registered in the image generation device 1 at the time of initial registration of the on-
変換部33は、車載カメラCmの取付高さHおよび取付俯角θに基づいて車載カメラCmの撮像領域を導出し、かかる撮像領域を路面上の座標系に変換する。そして、変換部33は、かかる座標系に基づいて撮像映像Lに写る移動物体の実際の大きさや相対距離を決定する。
The
このように、変換部33は、車載カメラCm毎の取り付け位置に基づいて移動物体の実際の大きさや相対距離を決定することで、撮像映像Lから移動物体の大きさや相対距離を正確に導出することができる。
Thus, the
図3の説明に戻り、対応付け部34について説明する。対応付け部34は、変換部33によって変換されたアニメーション画像Gにヒヤリハット地点の位置情報を対応付ける。例えば、対応付け部34は、危険回避運転時の位置情報を各アニメーション画像Gへ対応付ける。
Returning to the description of FIG. 3, the
このとき、対応付け部34は、危険回避運転前後の位置情報の推移に基づき、車両Cの進行方向、すなわち、車載カメラCmの撮像方向を推定し、かかる撮像方向に関する情報をアニメーション画像Gへ対応付ける。
At this time, the associating
つまり、対応付け部34は、推定した撮像位置および撮像方向と、変換部33によって導出された撮像映像L上における移動物体の位置情報とに基づいてアニメーション画像Gの正確な位置や向きを対応付けることができる。
That is, the associating
また、対応付け部34は、アニメーション画像Gに対して危険回避運転を行った運転者に関する運転者情報を対応付ける。かかる運転者情報は、記憶部4のユーザデータベース42に格納される。
Further, the associating
図5は、ユーザデータベース42の具体例を示す図である。図5に示すように、ユーザデータベース42には、運転者情報として「ユーザID」、「車両ID」、「性別」、「走行距離」、「運転スキル」、「違反回数」が互いに対応付けられる。
FIG. 5 shows a specific example of the
「ユーザID」は、運転者を識別する識別子であり、「車両ID」は、運転者が乗車する車両Cを識別する識別子である。また、「性別」は、運転者の性別を示し、「走行距離」は、運転者が車両Cを運転した距離を示す。 The “user ID” is an identifier for identifying the driver, and the “vehicle ID” is an identifier for identifying the vehicle C on which the driver gets in. Also, “sex” indicates the gender of the driver, and “travel distance” indicates the distance the driver has driven the vehicle C.
「運転スキル」は、運転者の運転に関する技量を示し、「違反回数」は、例えば、運転者が道路交通法を違反した回数を示す。なお、運転スキルについは、例えば、画像生成装置1に運転スキルを診断する診断部を設けることにしてもよいし、外部の装置で診断した運転スキルをユーザデータベース42へ登録することにしてもよい。
The “driving skill” indicates the driver's driving skill, and the “number of violations” indicates, for example, the number of times the driver violates the road traffic law. For the driving skill, for example, the image generation device 1 may be provided with a diagnosis unit for diagnosing the driving skill, or the driving skill diagnosed by an external device may be registered in the
このように、対応付け部34は、運転者情報をアニメーション画像Gへ対応付けることで、各アニメーション画像Gの検索を容易にすることができる。つまり、ユーザID、性別、走行距離等の検索条件の入力によってアニメーション画像Gを容易に検索することができる。なお、かかる点の詳細については、図10を用いて後述する。
Thus, the
さらに、対応付け部34は、アニメーション画像Gに対して、危険回避運転時の時刻、天候等に関する情報を対応付けることもできる。そして、対応付け部34は、アニメーション画像Gについて情報の対応付けを終えると、アニメーション画像Gを図3に示すヒヤリハット地点データベース41に格納する。
Furthermore, the
図6は、ヒヤリハット地点データベース41の具体例を示す図である。図6に示すように、ヒヤリハット地点データベース41には、各アニメーション画像Gについて、「画像ID」、「ユーザID」、「位置」、「ヒヤリハット種別」、「日時」、「天候」等の情報が対応付けられて記憶される。
FIG. 6 is a view showing a specific example of the near
「画像ID」は、アニメーション画像Gを識別する識別子であり、「ユーザID」は、危険回避運転の運転者を示す識別子であり、ユーザIDには、図5に示したように、運転者情報が紐付けられる。 The “image ID” is an identifier for identifying the animation image G, the “user ID” is an identifier for indicating the driver of the hazard avoidance driving, and the user ID indicates the driver information as shown in FIG. Is tied.
「位置」は、アニメーション画像Gを地図画像上で表示する位置を示す。「ヒヤリハット種別」は、危険回避運転時のヒヤリハットに関する事象を示す。「日時」は、危険回避運転が発生した日時を示し、「天候」は、ヒヤリハット時の天候を示す。 "Position" indicates the position where the animation image G is displayed on the map image. "Hyari-hat type" indicates an event related to a hiyari-hat during danger avoidance operation. "Date" indicates the date and time when the danger avoidance operation occurred, and "weather" indicates the weather at the time of the incident.
例えば、天候に関する情報は、「位置」および「日時」に基づいて外部の装置、もしくは、各車載装置50から取得することができる。
For example, information on weather can be acquired from an external device or each on-
図3の説明に戻り、生成部35について説明する。生成部35は、位置情報に基づき、アニメーション画像を撮像映像Lに対応した3次元地図画像に重畳させた表示映像Dを生成する。
Returning to the description of FIG. 3, the
かかる3次元地図画像は、記憶部4の3次元地図データベース43に記憶される。図7は、3次元地図画像の一例を示す図である。図7に示すように、3次元地図画像は、例えば、ビルなどの建物を3次元的に表現した画像である。
The three-dimensional map image is stored in the three-
3次元地図画像には、実際の位置情報が対応付けられており、生成部35は、アニメーション画像Gに対応付けられた位置情報に基づき、3次元地図画像上にアニメーション画像Gを重畳する。
Actual position information is associated with the three-dimensional map image, and based on the position information associated with the animation image G, the
これにより、アニメーション画像Gを3次元地図画像上の実位置に重畳することが可能となる。また、アニメーション画像Gおよび3次元地図画像は、いずれも視点位置を変更可能である。 Thereby, it becomes possible to superimpose the animation image G on the real position on the three-dimensional map image. In addition, both the animation image G and the three-dimensional map image can change the viewpoint position.
このため、表示映像Dにおいては、3次元地図画像およびアニメーション画像Gについて視点位置を変更して表示することが可能である。つまり、図8に示すように、車載カメラCmの撮像位置や、撮像軸axを疑似的に変更させて表示映像Dを表示することが可能である。なお、図8は、表示映像Dの概念図である。 For this reason, in the display image D, it is possible to change and display the viewpoint position of the three-dimensional map image and the animation image G. That is, as shown in FIG. 8, it is possible to display the display image D by changing the imaging position of the on-vehicle camera Cm and the imaging axis ax in a pseudo manner. FIG. 8 is a conceptual view of the display image D.
このように、視点位置を変更可能とすることで、任意の視点位置からヒヤリハットのシチュエーションを検証することが可能となる。すなわち、ヒヤリハット時の運転者の視点からの画像のみならず、他車両や、歩行者から車両Cを見た画像、さらに、全体を俯瞰した俯瞰画像等を表示映像Dとして表示することが可能となる。 As described above, by making the viewpoint position changeable, it is possible to verify the situation of the near incident from any viewpoint position. That is, it is possible to display not only the image from the driver's point of view at the time of the incident, but also an image of the other vehicle or a pedestrian looking at the vehicle C, and a bird's-eye view etc. Become.
つまり、生成部35は、アニメーション画像Gを3次元地図画像に重畳することで、多様な角度からヒヤリハット時のシチュエーションを検証することが可能となる。
That is, by superimposing the animation image G on the three-dimensional map image, the
特に、生成部35は、ドライバの視点位置や移動物体の視点位置を含む視点位置から見た表示画像Dを生成することで、ドライバおよび移動物体の双方の視点からヒヤリハットのシチュエーションを検証することができる。
In particular, the
つまり、ユーザが、ヒヤリハットの発生原因を多様な角度から解析することが可能となる。これにより、ユーザが、ヒヤリハットを未然に防ぐための運転知識を深めることできるので、ヒヤリハットの発生を抑止する効果が期待される。 In other words, it is possible for the user to analyze the cause of the near-miss occurrence from various angles. As a result, the user can deepen driving knowledge for preventing a near incident, and therefore, the effect of suppressing the occurrence of near incident is expected.
また、アニメーション画像Gを重畳した3次元地図画像を表示し、実際に撮影された映像を表示しないことで、ヒヤリハットの事象を発生させたドライバやそのドライバの所属する企業(タクシー会社等)が特定されることを防止できる。これは、実際に撮影された映像には、個人を特定する私物や企業を示すマークを含む場合があるからである。 In addition, the 3D map image on which the animation image G is superimposed is displayed, and the actually captured image is not displayed, thereby identifying the driver that generated the incident event and the company (taxi company etc.) to which the driver belongs. Can be prevented. This is because the video actually taken may include a mark indicating a personal thing or a company identifying the individual.
このように個人や企業を特定できないようにすることで、複数人や複数企業でヒヤリハット時のシチュエーションの検証に有効なシーンを安心して共有することができる。 In this way, by making it impossible to identify individuals or companies, it is possible to safely share a scene effective for verification of situations at the time of hiyarihat among multiple people or multiple companies.
また、生成部35は、アニメーション画像Gに対応付けられた天候情報や時刻情報を反映させた表示映像Dを生成することも可能である。かかる点の詳細については、後述する。
In addition, the
次に、図9を用いて実施形態に係る車載装置50について説明する。図9は、車載装置50のブロック図である。図9に示すように、車載装置50は、ナビゲーション装置60、表示装置70、車載カメラCm、免許証リーダLlが接続される。
Next, the on-
また、車載装置50は、ブレーキセンサSc1、アクセルセンサSc2、ステアリングセンサSc3、GセンサSc4、GPS(Global Positioning System)Sc5等から取得した情報を走行データとして画像生成装置1へ送信する。
Further, the on-
車載カメラCmは、上述したように、いわゆるドライブレコーダであり、車両Cの前方を撮像した撮像映像Lを車載装置50へ出力する。なお、車載カメラCmを車載装置50に含める構成にすることにしてもよい。
As described above, the in-vehicle camera Cm is a so-called drive recorder, and outputs a captured image L obtained by imaging the front of the vehicle C to the in-
免許証リーダLlは、運転者の免許証から情報を読み取る装置である。例えば、免許証リーダLlは、運転者の免許証から運転者の氏名、年齢、住所、免許証の色の区分等を読み取り、車載装置50へ出力する。
The license reader Ll is a device that reads information from the driver's license. For example, the license reader Ll reads the driver's name, age, address, classification of license color, and the like from the driver's license, and outputs the driver's license, etc., to the on-
なお、車載装置50は、免許証リーダLlに代えて、運転者が撮像された撮像映像から運転者を識別したり、指紋等を用いた生体認証により運転者を識別したりすることにしてもよい。
Note that, instead of the license reader Ll, the in-
車載装置50は、通信部51と、制御部52とを備える。通信部51は、画像生成装置1とデータを送受信する通信インターフェースである。制御部52は、車載装置50の全体を制御するCPUとして機能する。
The in-
例えば、制御部52は、車載カメラCmで撮像された撮像映像Lや走行データに対して運転者情報を紐付けて通信部51を介して画像生成装置1へ送信する。 For example, the control unit 52 associates driver information with the captured image L captured by the on-vehicle camera Cm and travel data, and transmits the driver information to the image generation device 1 via the communication unit 51.
また、制御部52は、ナビゲーション装置60から車両Cの進路情報を取得し、かかる進路情報を画像生成装置1へ送信する。これにより、画像生成装置1から車載装置50へ車両Cの進路上のヒヤリハット地点に関する表示映像Dが送信され、かかる表示映像Dが表示装置70の表示部71に表示される。
In addition, the control unit 52 acquires course information of the vehicle C from the navigation device 60, and transmits the course information to the image generation device 1. Thereby, the display image D regarding the near-miss point on the route of the vehicle C is transmitted from the image generation device 1 to the on-
なお、車載装置50に予め表示映像Dに関する情報を記憶しておき、車載装置50がかかる情報に基づいて表示映像Dを選択して表示部71に表示することにしてもよい。つまり、画像生成装置1によって生成された表示映像Dに関する情報を所定の周期で車載装置50にアップデートして用いることにしてもよい。
Information on the display image D may be stored in advance in the in-
ナビゲーション装置60は、車両Cの現在地や、目的地までの経路を示すナビゲーション画像を生成し、表示装置70へ出力する。表示装置70は、例えば、タッチパネルディスプレイであり、表示部71と、操作部72とを備え、上記のナビゲーション画像や表示映像Dを表示する。
The navigation device 60 generates a navigation image indicating the current position of the vehicle C and the route to the destination, and outputs the navigation image to the
ところで、上述したように、アニメーション画像Gを含む表示映像Dには、運転者情報や、時刻情報、天候情報等が対応付けられる。このため、ユーザは、表示部71に表示された検索画面を見ながら、操作部72に対する操作によってアニメーション画像Gを条件検索することが可能である。
By the way, as described above, driver information, time information, weather information and the like are associated with the display image D including the animation image G. Therefore, the user can conditionally search the animation image G by operating the operation unit 72 while looking at the search screen displayed on the
図10は、検索画面の一例を示す図である。図10に示すように、検索画面には、性別、天候、年代、時間帯、免許証等の検索条件が表示される。 FIG. 10 is a diagram showing an example of a search screen. As shown in FIG. 10, search conditions such as gender, weather, age, time zone, and license are displayed on the search screen.
かかる検索条件の各項目が選択されると、検索条件に合致するヒヤリハット地点Sが地図上に表示される。そして、例えば、地図上のヒヤリハット地点Sが選択されると、選択されたヒヤリハット地点Sにおけるアニメーション画像Gを含む表示映像Dが再生される。 When each item of the search condition is selected, a near-miss point S that matches the search condition is displayed on the map. Then, for example, when the near-miss point S on the map is selected, the display image D including the animation image G at the selected near-miss point S is reproduced.
これにより、ユーザは、所望するヒヤリハット地点Sにおけるヒヤリハットのシチュエーションを確認することが可能となる。また、表示映像Dの条件検索を可能とすることで、ユーザが所望する表示映像Dを簡便な操作で検索することができる。 This enables the user to confirm the situation of the near incident at the desired near incident point S. Further, by enabling the condition search of the display video D, the display video D desired by the user can be searched by a simple operation.
また、画像生成システム100では、所定の地点からヒヤリハット地点までの表示映像Dを再生することも可能である。図11は、表示画面の具体例を示す図である。
Moreover, in the
図11に示すように、表示画面には、車両Cの走行位置を示すアイコンIが表示された地図画像Mと、表示映像Dが表示される。ここで、表示映像Dは、アイコンIの位置における運転者の視点画像である。 As shown in FIG. 11, on the display screen, a map image M on which an icon I indicating the traveling position of the vehicle C is displayed, and a display video D are displayed. Here, the display image D is a viewpoint image of the driver at the position of the icon I.
つまり、表示映像Dは、車両Cが実際にアイコンIの位置を走行した際に運転席から見える景色が表示される。このとき、車両Cにあわせて視点位置の高さを調整することも可能である。 That is, when the vehicle C actually travels the position of the icon I, the display image D displays the view seen from the driver's seat. At this time, it is also possible to adjust the height of the viewpoint position in accordance with the vehicle C.
すなわち、車両Cの運転席の高さに応じて視点位置の高さを変更して表示映像Dを表示することができる。これにより、リアリティーの高い表示映像Dを提供することが可能となる。 That is, according to the height of the driver's seat of the vehicle C, the height of the viewpoint position can be changed and the display image D can be displayed. This makes it possible to provide a highly realistic display image D.
また、表示画面では、アイコンIの移動に伴って、表示映像Dが更新される。すなわち、アイコンIが移動すると、移動した位置から運転者が見える景色が表示映像Dに随時表示される。つまり、表示画像Dを再生した場合の時間的変化に連動して、車両Cの位置を示すアイコンIを地図画像上で移動する。 Further, on the display screen, the display video D is updated as the icon I moves. That is, when the icon I moves, the view that the driver can see from the moved position is displayed on the display video D as needed. That is, in conjunction with the temporal change when the display image D is reproduced, the icon I indicating the position of the vehicle C is moved on the map image.
同図に示す例では、地図画像M上に表示されたアイコンIが右折後に、ヒヤリハット地点Sが見える場合を示す。このため、かかるアイコンIの位置からは、ヒヤリハット地点Sを視認することはできないので、表示映像Dにはヒヤリハット地点Sは表示されず、かかるヒヤリハット地点Sの手前にある交差点が表示される。 In the example shown in the figure, it is shown that the icon I displayed on the map image M can see the near-miss point S after the right turn. For this reason, since it is not possible to visually recognize the near-miss point S from the position of the icon I, the near-miss point S is not displayed on the display image D, and an intersection in front of the near-miss point S is displayed.
このように、画像生成システム100では、ヒヤリハット地点Sにおける表示映像Dだけでなく、ヒヤリハット地点Sに至るまでの表示映像Dを生成することが可能である。
As described above, the
これにより、運転者は、ヒヤリハット地点Sにおける表示映像Dのみならず、ヒヤリハット地点Sに至るまでの走行ルートにおける表示映像Dを事前に確認することができる。したがって、ユーザは、走行ルートとともにヒヤリハットの内容を確認することができる。 As a result, the driver can confirm not only the display image D at the near-miss point S but also the display image D on the travel route up to the near-end point S in advance. Therefore, the user can confirm the contents of the near incident along with the travel route.
なお、この際に、例えば、走行ルートにおいて、ヒヤリハット地点Sの手前にある特徴的な構造物を強調して表示することにしてもよい。これにより、ユーザは、走行ルートを実際に走行する際に、かかる構造物を目印として、ヒヤリハット地点Sに近づいたことを認識することが可能となる。 At this time, for example, a characteristic structure located in front of the near spot S may be emphasized and displayed on the traveling route. As a result, when actually traveling on the traveling route, the user can recognize that the near-miss point S is approached by using the structure as a mark.
つまり、かかる構造物を強調して表示することにより、ユーザに対してヒヤリハット地点Sの実際の位置を印象付けて記憶させることが可能となる。また、アイコンIの移動に伴って、アイコンIの位置から見える表示映像Dを表示することで、ユーザは、車両Cの位置とともに、かかる位置における風景を同時に視聴することが可能となる。 That is, by emphasizing and displaying such a structure, it is possible to impress and store the actual position of the near-miss point S for the user. Also, by displaying the display image D seen from the position of the icon I along with the movement of the icon I, the user can simultaneously view the scenery at the position as well as the position of the vehicle C.
ところで、画像生成システム100では、表示映像Dを車両Cのフロントガラスに見立てて、時刻や天候に応じて表示態様を変更することも可能である。具体的には、天候が雨や雪であれば、表示映像Dに雨や雪を表示する。
By the way, in the
例えば、画像生成システム100では、時刻に応じて表示映像Dの明るさを変化させて表示したり、降水量や積雪量に応じて雨や雪の量を調整して表示映像Dに重畳したりすることができる。また、表示映像Dにワイパが動作するアニメーションを重畳して表示することも可能である。かかる場合に、雨や雪の量に応じてワイパの速度を調整することもできる。
For example, in the
このように、画像生成システム100では、時刻や天候を表示映像Dに反映させる。これにより、運転者は、時刻や天候から想定される視界の表示映像Dを視聴することができる。つまり、現在の運転状況にあわせてリアリティーの高い表示映像Dを提供することが可能となる。
As described above, the
次に、図12を用いて実施形態に係る画像生成装置1が実行する処理手順について説明する。図12は、画像生成装置1が実行する処理手順を示すフローチャートである。図12に示すように、まず、画像生成装置1は、走行データを受信し(ステップS101)、危険回避運転を検出したか否かを判定する(ステップS102)。 Next, processing procedures executed by the image generation device 1 according to the embodiment will be described using FIG. FIG. 12 is a flowchart showing the processing procedure executed by the image generation device 1. As shown in FIG. 12, first, the image generating device 1 receives traveling data (step S101), and determines whether or not danger avoidance driving has been detected (step S102).
抽出部32は、検出部31が危険回避運転を検出した場合(ステップS102,Yes)、撮像映像Lから移動物体を抽出する(ステップS103)。一方、危険回避運転を検出しなかった場合(ステップS102,No)、処理を終了する。
The
続いて、変換部33は、移動物体をアニメーション画像Gへ変換し(ステップS104)、対応付け部34は、アニメーション画像Gに対して危険回避運転の位置情報を対応付けて(ステップS105)、処理を終了する。
Subsequently, the
上述したように、実施形態に係る画像生成装置1は、検出部31と、抽出部32と、変換部33と、対応付け部34とを備える。検出部31は、車両Cの走行データから危険回避運転を検出する。抽出部32は、検出部31によって危険回避運転が検出された場合に、車両Cの外部を継続的に撮像した撮像映像Lから移動物体を抽出する。
As described above, the image generation device 1 according to the embodiment includes the
変換部33は、抽出部32によって抽出された移動物体を抽象化したアニメーション画像Gへ変換する。対応付け部34は、変換部33によって変換されたアニメーション画像Gに対して危険回避運転の位置情報を対応付ける。したがって、実施形態に係る画像生成装置1によれば、ユーザに対してヒヤリハット時のシチュエーションを直感的に把握させることができる。
The
ところで、上述した実施形態では、画像生成装置1が、ヒヤリハットに対する表示映像Dを生成する場合について説明したが、これに限定されるものではない。 By the way, although the case where the image generation device 1 generates the display image D for a near-miss hat has been described in the embodiment described above, the present invention is not limited to this.
そこで、以下では、画像生成装置1の変形例について説明する。変形例に係る画像生成装置1は、車両Cの走行データに基づいて運転者の視点画像を再現した表示映像Dを生成する。 So, below, the modification of the image generation apparatus 1 is demonstrated. The image generation device 1 according to the modification generates the display image D in which the viewpoint image of the driver is reproduced based on the traveling data of the vehicle C.
このとき、例えば、画像生成装置1には、各道路における法定速度、道路標識に関する情報を記憶しておき、走行データから道路交通法の違反を検出することもできる。 At this time, for example, it is possible to store information on legal speed and road signs on each road in the image generation device 1 and detect a violation of the Road Traffic Act from travel data.
画像生成装置1は、かかる違反を検出した場合に、違反内容を示すテロップを表示映像Dに重畳して表示することもできる。また、画像生成装置1は、撮像映像Lに写る信号機の点灯状態を検出し、信号無視等の違反を検出することも可能である。 When the image generation device 1 detects such a violation, the image generation device 1 can also superimpose a telop indicating the content of the violation on the display video D and display it. The image generation device 1 can also detect the lighting state of the traffic light shown in the captured image L and detect a violation such as signal neglect.
なお、上述した実施形態では、車載装置50を介して表示映像Dをユーザに提示する場合について説明したが、パソコン等の表示部を介して表示映像Dをユーザへ提示することにしてもよい。
In the embodiment described above, the display video D is presented to the user via the in-
かかる場合に、例えば、トラック、バス等を含む営業車両の運行を管理する管理者が営業所等で各運転者に対してヒヤリハット地点およびヒヤリハットのシチュエーションを事前に確認させることができる。 In such a case, for example, a manager who manages the operation of a sales vehicle including a truck, a bus, etc. can make each driver confirm beforehand the situation of the near-miss point and near-miss point in the office or the like.
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the invention are not limited to the specific details and representative embodiments represented and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.
1 画像生成装置
31 検出部
32 抽出部
33 変換部
34 対応付け部
35 生成部
C 車両
D 表示映像
G アニメーション画像
DESCRIPTION OF SYMBOLS 1
Claims (7)
前記検出部によって前記危険回避運転が検出された場合に、前記車両の外部を継続的に撮像した撮像映像から移動物体を抽出する抽出部と、
前記抽出部によって抽出された前記移動物体を抽象化したアニメーション画像へ変換する変換部と、
前記変換部によって変換された前記アニメーション画像に対して前記危険回避運転の位置情報を対応付ける対応付け部と
を備えることを特徴とする画像生成装置。 A detection unit that detects danger avoidance driving from traveling data of the vehicle;
An extraction unit that extracts a moving object from a captured image obtained by continuously capturing the outside of the vehicle when the danger avoidance driving is detected by the detection unit;
A conversion unit that converts the moving object extracted by the extraction unit into an abstracted animation image;
An associating unit that associates position information of the danger avoidance driving with the animation image converted by the converting unit.
をさらに備えること
を特徴とする請求項1に記載の画像生成装置。 The image generation apparatus according to claim 1, further comprising: a generation unit configured to generate a display image obtained by superimposing the animation image on a three-dimensional map image corresponding to the captured image based on the position information.
前記車両のドライバおよび前記移動物体の視点位置を含んだ視点位置を変更可能にして、前記表示映像を生成すること
を特徴とする請求項2に記載の画像生成装置。 The generation unit is
The image generation apparatus according to claim 2, wherein the display image is generated by changing a viewpoint position including a driver of the vehicle and a viewpoint position of the moving object.
前記表示映像を再生した場合の時間的変化に連動して、前記車両の位置を示すアイコン画像を地図画像上で移動させること
を特徴とする請求項2または3に記載の画像生成装置。 The generation unit is
The image generation apparatus according to claim 2 or 3, wherein an icon image indicating the position of the vehicle is moved on a map image in conjunction with a temporal change when the display video is reproduced.
天候情報および時刻情報に応じた前記表示映像を生成すること
を特徴とする請求項2、3または4に記載の画像生成装置。 The generation unit is
The image generation device according to claim 2, 3 or 4, wherein the display image is generated according to weather information and time information.
前記アニメーション画像に対して前記車両の運転者に関する運転者情報を対応付けること
を特徴とする請求項1〜5のいずれか一つに記載の画像生成装置。 The association unit is
The image generation device according to any one of claims 1 to 5, wherein driver information on a driver of the vehicle is associated with the animation image.
前記検出工程によって前記危険回避運転が検出された場合に、前記車両の外部を継続的に撮像した撮像映像から移動物体を抽出する抽出工程と、
前記抽出工程によって抽出された前記移動物体を抽象化したアニメーション画像へ変換する変換工程と、
前記変換工程によって変換された前記アニメーション画像に対して前記危険回避運転の位置情報を対応付ける対応付け工程と
を含むことを特徴とする画像生成方法。 A detection step of detecting danger avoidance driving from travel data of the vehicle;
An extraction step of extracting a moving object from a captured image obtained by continuously capturing the outside of the vehicle when the danger avoidance driving is detected in the detection step;
Converting the moving object extracted by the extracting step into an abstracted animation image;
An associating step of associating position information of the danger avoidance driving with the animation image converted by the converting step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017204732A JP7021899B2 (en) | 2017-10-23 | 2017-10-23 | Image generator and image generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017204732A JP7021899B2 (en) | 2017-10-23 | 2017-10-23 | Image generator and image generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019079203A true JP2019079203A (en) | 2019-05-23 |
JP7021899B2 JP7021899B2 (en) | 2022-02-17 |
Family
ID=66627774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017204732A Active JP7021899B2 (en) | 2017-10-23 | 2017-10-23 | Image generator and image generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7021899B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11403343B2 (en) | 2019-07-26 | 2022-08-02 | Toyota Jidosha Kabushiki Kaisha | Retrieval of video and vehicle behavior for a driving scene described in search text |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004164001A (en) * | 2002-11-08 | 2004-06-10 | Matsushita Electric Ind Co Ltd | Device for supporting safe driving, base station for supporting safe driving and system for supporting safe driving |
JP2008003657A (en) * | 2006-06-20 | 2008-01-10 | Hitachi Ltd | Driving information aggregation device, system, information aggregation method, and information aggregation program |
JP2008204304A (en) * | 2007-02-22 | 2008-09-04 | Hitachi Ltd | Vehicle behavior reproduction method and system |
JP2010238209A (en) * | 2009-03-31 | 2010-10-21 | Fujitsu Ten Ltd | In-vehicle system |
JP2011239001A (en) * | 2010-04-30 | 2011-11-24 | Techno Safety Co Ltd | Image editing device, image reproduction device, and image editing method |
-
2017
- 2017-10-23 JP JP2017204732A patent/JP7021899B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004164001A (en) * | 2002-11-08 | 2004-06-10 | Matsushita Electric Ind Co Ltd | Device for supporting safe driving, base station for supporting safe driving and system for supporting safe driving |
JP2008003657A (en) * | 2006-06-20 | 2008-01-10 | Hitachi Ltd | Driving information aggregation device, system, information aggregation method, and information aggregation program |
JP2008204304A (en) * | 2007-02-22 | 2008-09-04 | Hitachi Ltd | Vehicle behavior reproduction method and system |
JP2010238209A (en) * | 2009-03-31 | 2010-10-21 | Fujitsu Ten Ltd | In-vehicle system |
JP2011239001A (en) * | 2010-04-30 | 2011-11-24 | Techno Safety Co Ltd | Image editing device, image reproduction device, and image editing method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11403343B2 (en) | 2019-07-26 | 2022-08-02 | Toyota Jidosha Kabushiki Kaisha | Retrieval of video and vehicle behavior for a driving scene described in search text |
Also Published As
Publication number | Publication date |
---|---|
JP7021899B2 (en) | 2022-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107380164B (en) | Driver assistance system based on computer vision and support system | |
CN106536299B (en) | System and method based on test object abrupt deceleration vehicle | |
CN111164967B (en) | Image processing apparatus and image processing method | |
CN106611512B (en) | Method, device and system for processing starting of front vehicle | |
JP7355151B2 (en) | Information processing device, information processing method, program | |
JP4752836B2 (en) | Road environment information notification device and road environment information notification program | |
CN109859513A (en) | Road junction roadway air navigation aid and device | |
US20170301107A1 (en) | Image processing device, in-vehicle display system, display device, image processing method, and computer readable medium | |
US11003925B2 (en) | Event prediction system, event prediction method, program, and recording medium having same recorded therein | |
CN108615407A (en) | Device and method for preventing pedestrian impact accident | |
JP6127659B2 (en) | Driving support device and driving support method | |
WO2020100922A1 (en) | Data distribution system, sensor device, and server | |
JP4993644B2 (en) | Train operation support device | |
US20200175863A1 (en) | Information providing system, server, onboard device, vehicle, storage medium, and information providing method | |
TW201333896A (en) | Remote traffic management system using video radar | |
WO2021090943A1 (en) | Image processing device and image processing method | |
CN110803169A (en) | System and method for displaying information in a vehicle | |
JP6302920B2 (en) | Method and means for recognizing marked danger locations and / or construction sites in the area of the roadway | |
JP2013206031A (en) | Driving evaluation system, driving evaluation method, and driving evaluation program | |
JP2017129973A (en) | Driving support apparatus and driving support method | |
KR101760261B1 (en) | Around view monitoring system having function of black box and operating method | |
JP7021899B2 (en) | Image generator and image generation method | |
KR101671223B1 (en) | Real-time noise analyzing system and a method for analyzing a real-time noise using the same | |
JP2011103058A (en) | Erroneous recognition prevention device | |
CN108665757A (en) | Simulating vehicle emergency system and its application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7021899 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |