JP2020113066A - Video processing device, video processing method, and program - Google Patents
Video processing device, video processing method, and program Download PDFInfo
- Publication number
- JP2020113066A JP2020113066A JP2019003707A JP2019003707A JP2020113066A JP 2020113066 A JP2020113066 A JP 2020113066A JP 2019003707 A JP2019003707 A JP 2019003707A JP 2019003707 A JP2019003707 A JP 2019003707A JP 2020113066 A JP2020113066 A JP 2020113066A
- Authority
- JP
- Japan
- Prior art keywords
- driver
- unit
- gaze
- vehicle
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000003384 imaging method Methods 0.000 claims abstract description 34
- 230000002093 peripheral effect Effects 0.000 claims description 66
- 210000003128 head Anatomy 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 15
- 210000005252 bulbus oculi Anatomy 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 24
- 238000000034 method Methods 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 210000001508 eye Anatomy 0.000 description 6
- 238000009795 derivation Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 235000002673 Dioscorea communis Nutrition 0.000 description 1
- 241000544230 Dioscorea communis Species 0.000 description 1
- 208000035753 Periorbital contusion Diseases 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、映像処理装置、映像処理方法、およびプログラムに関する。 The present invention relates to a video processing device, a video processing method, and a program.
車両事故などが起こった際に、事故を起こした運転者がどのような運転を行っていたのかを把握する技術が知られている。 There is known a technique for grasping what kind of driving was performed by the driver who caused the accident when a vehicle accident or the like occurred.
例えば、特許文献1には、車両の周辺画像に、車両を運転している運転者の視線方向を示すマーカを重畳して表示させることで、運転者の視線方向を把握することのできる技術が開示されている。 For example, in Patent Document 1, there is a technique that can grasp the driver's line-of-sight direction by superimposing and displaying a marker indicating the line-of-sight direction of the driver who is driving the vehicle on a peripheral image of the vehicle. It is disclosed.
特許文献1は、周辺画像における運転者の視線方向を特定できるが、運転者が具体的に何を見ているか特定できない可能性がある。そのため、運転者が、車両事故などを起こした際に、見ていたものを判定することのできる技術が望まれている。 In Patent Document 1, the driver's line-of-sight direction in the peripheral image can be specified, but it may not be possible to specify what the driver is actually looking at. Therefore, there is a demand for a technique that enables a driver to determine what he/she was looking at when a vehicle accident or the like occurs.
本発明は、車両事故などを起こした際に、運転者が見ていたものを判定することのできる映像処理装置、映像処理方法、およびプログラムを提供することを課題とする。 It is an object of the present invention to provide a video processing device, a video processing method, and a program capable of determining what a driver is looking at when a vehicle accident or the like occurs.
本発明の第一の態様の映像処理装置は、車両の周囲を撮像する撮像部から映像データを取得する映像データ取得部と、前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定する視線推定部と、前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出する注視点導出部と、前記注視点を基準とした注視映像データを前記映像データから切出す映像処理部と、前記注視映像データを出力する出力制御部と、を備える。 The video processing device of the first aspect of the present invention is based on a video data acquisition unit that acquires video data from an imaging unit that images the surroundings of the vehicle, and the position and orientation of the head of the driver who drives the vehicle, A gaze estimation unit that estimates the driver's gaze direction, a gaze point deriving unit that derives a gaze point of the driver based on the gaze direction of the driver, and gaze image data based on the gaze point Is provided from the video data, and an output control unit that outputs the gaze video data.
本発明の第二の態様の映像処理方法は、車両の周囲を撮像する撮像部から映像データを取得するステップと、前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定するステップと、前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出するステップと、前記注視点を基準とした注視映像データを前記映像データから切出すステップと、前記注視映像データを出力するステップと、を含む。 A video processing method according to a second aspect of the present invention is based on the step of acquiring video data from an imaging unit for imaging the surroundings of a vehicle and the position and orientation of the head of a driver who drives the vehicle, based on the driver. Estimating a line-of-sight direction of the driver, deriving a gaze point of the driver based on the line-of-sight direction of the driver, and cutting out gaze image data based on the gaze point from the image data And a step of outputting the gaze image data.
本発明の第三の態様のプログラムは、車両の周囲を撮像する撮像部から映像データを取得するステップと、前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定するステップと、前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出するステップと、前記注視点を基準とした注視映像データを前記映像データから切出すステップと、前記注視映像データを出力するステップと、を映像処理装置として動作するコンピュータに実行させる。 A program according to a third aspect of the present invention is based on a step of acquiring video data from an image capturing unit that captures an image of the surroundings of a vehicle, and the line of sight of the driver based on the position and orientation of the head of the driver who drives the vehicle. A step of estimating a direction, a step of deriving a gazing point of the driver based on the line-of-sight direction of the driver, a step of cutting out gaze video data based on the gazing point from the video data, The step of outputting the gaze image data is executed by a computer operating as an image processing device.
本発明によれば車両事故などを起こした際に、運転者が見ていたものを判定することができる。 According to the present invention, it is possible to determine what the driver was looking at when a vehicle accident or the like occurred.
以下、図面を参照しながら、本発明の実施形態について詳細に説明する。なお、各図において同一または相当する部分には同一の符号を付して適宜説明は省略する。また、下記実施形態又は実施例における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能であり、また、実施形態又は実施例が複数ある場合には、各実施形態又は実施例を組み合わせることも可能である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are designated by the same reference numerals, and description thereof will be omitted as appropriate. In addition, constituent elements in the following embodiments or examples include elements that can be easily replaced by those skilled in the art, or substantially the same elements. Furthermore, the constituent elements described below can be combined as appropriate, and when there are a plurality of embodiments or examples, it is also possible to combine the respective embodiments or examples.
図1は、本発明の第一実施形態に係る映像処理システムの構成を示すブロック図である。図1に示すように、映像処理システム1は、撮像部10と、表示部20と、映像処理装置100とを備える。図2に示すように、映像処理装置100は、車両Cに搭載される。図2には、左サイドミラー2と、右サイドミラー3と、ルームミラー4と、ステアリングホイール5とが示されている。映像処理システム1は、例えば、車両Cに搭載されるドライブレコーダであり、車両Cの周辺の画像と、車両周辺の映像から運転者の見ているものを切出した映像との両方を表示部20に表示したり、記憶媒体に記録したりする。
FIG. 1 is a block diagram showing the configuration of a video processing system according to the first embodiment of the present invention. As shown in FIG. 1, the video processing system 1 includes an
撮像部10は、周辺撮像部11と、運転者撮像部12とを有する。図2では、撮像部10は、ルームミラー4の上方に配置されているが、これは模式的に示した一例であり、撮像部10を配置する位置を限定するものではない。
The
周辺撮像部11は、車両Cの周囲を撮像する。周辺撮像部11は、例えば、全天球カメラなどの広角カメラである。周辺撮像部11は、例えば、車両Cの前方を撮像する前方カメラと、後方を撮像する後方カメラと、左側方を撮像する左側方カメラと、右側方を撮像する右側方カメラとの複数のカメラから構成されていてもよい。周辺撮像部11は、運転者の視線の方向に応じて駆動するカメラであってもよい。この場合、周辺撮像部11は、通常時は車両Cの進行方向を撮像し、後述する運転者撮像部12によって撮像された運転者の頭部や、視線の方向に追従して駆動し、運転者の視線の方向を撮像する構成とすればよい。
The
図3は、周辺撮像部11が撮像した周辺映像データ300を説明するための図である。図3に示すように、周辺撮像部11は、前方と、後方と、左側方と、右側方とを含む車両Cの周辺を撮像する。周辺撮像部11は、撮像した前方を前方映像データ210として映像データ取得部111に出力する。周辺撮像部11は、撮像した後方を後方映像データ220として映像データ取得部111に出力する。周辺撮像部11は、撮像した左側方を左側映像データ230として映像データ取得部111に出力する。周辺撮像部11は、撮像した右側方を右側映像データ240として映像データ取得部111に出力する。周辺撮像部11は、全天球カメラで全天球映像を撮像した場合には、その映像を全天球映像データとして映像データ取得部111に出力する。
FIG. 3 is a diagram for explaining the
再び図1を参照する。運転者撮像部12は、少なくとも運転者の顔の向きを判別できるように運転者の頭部を撮像する。運転者撮像部12は、運転者の眼球を撮像できる場合には、運転者の眼球を撮像することが好ましい。運転者撮像部12は、例えば、ルームミラー4の近傍や、ステアリングホイール5の前方に設けられる。なお、運転者撮像部12は、例えば、周辺撮像部11が車両Cの内部に設けられた全天球カメラであり、周辺撮像部11で運転者を撮像できる場合には、備えていなくてもよい。
Referring back to FIG. The
表示部20は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。表示部20は、映像処理装置100によって処理された映像を表示する。具体的には、表示部20は、周辺映像データ300を表示してもよいし、少なくとも前方映像データ210を表示すればよい。
The
映像処理装置100は、制御部110と、記憶部130とを備える。
The
制御部110は、映像処理システム1を構成する各部を制御する。具体的には、制御部110は、記憶部130に記憶されているプログラムを展開して実行することによって、映像処理システム1を構成する各部を制御する。制御部110は、例えば、CPU(Central Processing Unit)を含む電子的な回路などで実現することができる。制御部110は、映像データ取得部111と、視線推定部112と、注視点導出部113と、映像処理部114と、出力制御部115とを有する。
The
映像データ取得部111は、周辺撮像部11が撮像した車両Cの周辺映像データ300を取得する。映像データ取得部111は、運転者撮像部12が撮像した運転者の頭部映像データを取得する。映像データ取得部111は、周辺映像データ300を注視点導出部113に出力し、頭部映像データを視線推定部112に出力する。映像データ取得部111は、周辺映像データ300を、例えば、記憶部130や、外部の記憶装置などに出力する。すなわち、本実施形態では、周辺映像データ300と、運転者の視線の方向の映像との両方の映像を記憶または出力する。
The video
視線推定部112は、運転者の頭部映像データに基づいて、運転者の視線の方向を推定する。具体的には、視線推定部112は、運転者の顔の向きに基づいて、運転者の視線の方向を推定する。視線推定部112は、運転者の視線の方向の推定結果を注視点導出部113に出力する。視線推定部112は、推定結果を記憶部130に履歴として格納する。
The line-of-
注視点導出部113は、周辺映像データ300と、運転者の視線の方向の推定結果に基づいて、周辺映像データ300における注視点の位置データを導出する。具体的には、注視点の位置データとは、運転者の視線の方向ベクトルと、周辺映像データ300との交点を意味する。
The gazing
図4は、周辺映像データ300における注視点の位置データを導出し、導出した注視点を基準として注視映像データを切出す方法を説明するための図である。図4には、周辺映像データ300の一例として、前方映像データ210が示されている。まず、注視点導出部113は、運転者の視線の推定結果に基づいて、視線ベクトルVを導出する。そして、注視点導出部113は、例えば、視線ベクトルVと前方映像データ210との交点に、注視点Pの位置データを導出する。注視点導出部113は、導出した注視点Pの位置データを映像処理部114に出力する。以下では、前方映像データ210を例として説明するが、後方映像データ220と、左側映像データ230と、右側映像データ240についても同様である。
FIG. 4 is a diagram for explaining a method of deriving position data of a gazing point in the
映像処理部114は、注視点Pの位置を基準(中心)とした所定範囲の注視映像データを前方映像データ210から切出す。図4に示すように、映像処理部114は、注視点Pを基準として範囲Xの注視映像データを前方映像データ210から切出す。ここでは、映像処理部114は、例えば、注視点Pを基準として、人の注意力が及ぶ範囲、言い換えると、人が映像から被撮影物を認識可能な範囲を切出す。映像処理部114は、運転者の視線の方向に応じて切出す範囲Xを変えてもよい。この場合、映像処理部114は、目視などで左右方向を見た場合に切出す範囲を予め設定されていればよい。例えば、映像処理部114は、左側映像データ230や、右側映像データ240から切出す注視映像データの範囲を、前方映像データ210から切出す注視映像データの範囲よりも狭くしてもよい。
The
映像処理部114は、例えば、運転者ごとに切出す範囲を変えてもよい。この場合、例えば、記憶部130に、運転者ごとの切出す範囲を予め記憶しておけばよい。映像処理部114は、例えば、運転者の通常時の視線の動きとは異なる動きをした場合に、導出された注視点Pの周辺を拡大して表示したり、切出す範囲を変更したりしてもよい。この場合、例えば、記憶部130に、運転者の通常時の視線の動きなどを記憶させればよい。通常時の視線の動きと異なる動きとは、運転時に運転者の視線が動く平均的な範囲から外れる動き、視線が動く平均的な速度の範囲から外れた動き、視線が留まる時間が平均的な時間より長い動きなどである。
The
映像処理部114は、例えば、注視点Pの位置が変わるたびに切出す位置を変更してもよいし、注視点Pが第一の位置で検出された後、第一の位置から所定の距離以上離れた位置で注視点Pが検出された場合にのみ切出す位置を変更してもよい。この場合、映像処理部114は、例えば、第一の位置から範囲Xの外縁までの距離の50%以上近づいた位置で注視点Pが検出された場合に切出す位置を変更する。また、映像処理部114は、第一の位置から範囲Xの外縁まで距離の20%以上近づいた位置で注視点Pが検出された場合に切出す位置を変更してもよいし、80%以上近づいた位置で注視点Pが検出された場合に切出す位置を変更してもよい。すなわち、第一の位置からの所定距離は、ユーザの所望の値に設定するようにすればよい。
The
図5を用いて、注視映像データを拡大する方法について説明する。図5は、注視映像データを拡大する方法の一例を説明するための図である。 A method of enlarging the gaze image data will be described with reference to FIG. FIG. 5 is a diagram for explaining an example of a method of enlarging the gaze image data.
映像処理部114は、例えば、運転者が特定の場所を所定時間(例えば、5秒間)注視していた場合には、その場所を拡大してもよい。図5に示す例では、運転者は、車両C2を所定の時間注視していたとする。この場合、映像処理部114は、注視点Pを基準とした
所定範囲を拡大して表示する。ここで、映像処理部114が拡大する範囲Xaは、図4に示す通常の切出し範囲Xよりも小さくすることが好ましい。
For example, when the driver is gazing at a specific place for a predetermined time (for example, 5 seconds), the
図6は、切出した注視映像データを拡大した様子を示す図である。図6に示すように、映像処理部114は、切出した注視映像データを拡大してもよい。この場合、映像処理部114は、例えば、拡大した注視映像データに対して物体認識処理をかけることによって、範囲Xaに含まれる物体を抽出するようにしてもよい。
FIG. 6 is a diagram showing a state in which the cut out gaze image data is enlarged. As illustrated in FIG. 6, the
図7を用いて、運転者の視線の軌跡を表示させる方法について説明する。図7は、運転者の視線の軌跡を表示させる方法の一例を説明するための図である。 A method of displaying the trajectory of the line of sight of the driver will be described with reference to FIG. 7. FIG. 7 is a diagram for explaining an example of a method of displaying the trajectory of the line of sight of the driver.
図7に示すように、映像処理部114は、例えば、切出した範囲Xにおける運転者の視線の軌跡を前方映像データ210に重畳して表示させてもよい。図7に示す例では、前方映像データ210において、運転者の視線の軌跡Tが示されている。運転者の視線の軌跡Tには、一定時間注視していたポイントである、第一注視点P1と、第二注視点P2と、第三注視点P3と、第四注視点P4と、第五注視点P5と、第六注視点P6と、第七注視点P7と、第八注視点P8と、第九注視点P9とが白丸で示されている。この場合、運転者は、第一注視点P1から第九注視点P9まで順に視線を動かしたことを意味している。この場合、範囲Xの中心は、第九注視点P9となる。ここで、例えば、運転者が注視していた時間に応じて、第一注視点P1から第九注視点P9の大きさを変えてもよい。図7に示す例では、第一注視点P1が最も大きく、次に第六注視点P6と、第九注視点P9とが大きく、第二注視点P2と、第三注視点P3と、第四注視点P4と、第五注視点P5と、第七注視点P7と、第八注視点P8とが最も小さい。この場合、運転者は、第一注視点P1を注視していた時間が最も長く、次に第六注視点P6と、第九注視点P9とを注視していた時間が長く、第二注視点P2と、第三注視点P3と、第四注視点P4と、第五注視点P5と、第七注視点P7と、第八注視点P8とを注視していた時間が最も短いことを意味している。映像処理部114は、上述したような運転者の視線の軌跡を常時表示させてもよいし、運転者の特定の動作が検出された場合にのみ表示させてもよい。運転者の特定の動作とは、特定のポイントを所定時間(例えば、5秒間)注視する、通常時よりも視線の動きが激しく変動するなどが挙げられるが、これらに限定されない。また、映像処理部114は、車両の走行好況に応じて、運転者の視線の軌跡を表示する時間を変えるようにしてもよい。映像処理部114は、例えば、市街地や、繁華街を走行している場合には、軌跡を表示する時間を短くしたり、長くしたりしてもよい。また、映像処理部114は、交差点の右左折時などの周囲の状況をより注意深く確認する必要のある状況では、軌跡を表示する時間を長くするようにしてもよい。
As shown in FIG. 7, for example, the
図8は、運転者の視線の軌跡を表示させる方法の図7とは異なる一例を説明するための図である。図8に示すように、映像処理部114は、周辺映像データ300において、運転者が見ていた範囲を表示してもよい。図8には、運転者が見ていた範囲として、左側映像データ230内の第一範囲A1と、前方映像データ210内の第二範囲A2と、右側映像データ240内の第三範囲A3とが示されている。この場合、例えば、第一範囲A1は時刻t1の時点で運転者が見ていた範囲であり、第二範囲A2が時刻t1よりも後の時刻t2の時点で運転者が見ていた範囲であり、第三範囲A3が時刻t2よりも後の時刻t3の時点で運転者が見ていた範囲である。すなわち、映像処理部114は、周辺映像データ300において、見ていた範囲の時間変化を可視化する。
FIG. 8: is a figure for demonstrating an example different from FIG. 7 of the method of displaying the locus|trajectory of a driver|operator's gaze. As shown in FIG. 8, the
映像処理部114は、図6と、図7と、図8との表示方式を状況に応じて切り替えるようにしてもよい。また、図6と、図7と、図8との表示方式は、ユーザが自由に切り替えられるようにしてもよい。
The
映像処理部114は、車両Cが特定の場所を走行している場合に、運転者の視線の軌跡を周辺映像データ300に表示するようにしてもよい。特定の場所とは、例えば、市街地などの死角が多い場所を挙げられるが、これに限定されない。
The
映像処理部114は、注視映像データを出力制御部115に出力する。
The
出力制御部115は、注視映像データを出力する。出力制御部115は、例えば、注視映像データを表示部20に出力する。これにより、運転者などは、表示部20を視認することで、注視映像データを確認することができる。出力制御部115は、例えば、注視映像データを記憶部130に出力してもよいし、図示しないSDカードなどの可搬型記録媒体に出力してもよい。これにより、運転者などは車両以外の場所で注視映像データを確認することができる。
The
記憶部130は、制御部110が映像処理システム1の各部を制御するためのプログラムを記憶している。記憶部130は、例えば、周辺映像データ300から注視映像データを切出す範囲を運転者ごとに記憶してもよい。記憶部130は、例えば、運転をしている際の通常時の視線の動きの傾向を運転者ごとに記憶している。記憶部130は、例えば、推定された運転者の視線の方向を履歴として記憶している。記憶部130は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、ソリッドステートドライブ、光ディスクなどの記憶装置である。
The
図9を用いて、映像処理装置100の制御部110の処理について説明する。図9は、制御部110の処理の流れの一例を示すフローチャートである。
The processing of the
まず、制御部110は、周辺画像データと、頭部映像データとを取得する(ステップS101)。具体的には、制御部110は、映像データ取得部111によって、周辺画像データと、頭部映像データとを取得する。そして、制御部110は、ステップS102に進む。
First, the
制御部110は、頭部映像データに基づいて、運転者の視線の方向を推定する(ステップS102)。具体的には、制御部110は、視線推定部112によって、運転者の視線の方向を推定する。そして、制御部110は、ステップS103に進む。
The
制御部110は、周辺映像データ300と、運転者の視線の方向の推定結果に基づいて、注視点の位置データを導出する(ステップS103)。具体的には、制御部110は、注視点導出部113によって、注視点の位置データを導出する。そして、制御部110は、ステップS104に進む。
The
制御部110は、周辺映像データ300から、注視点を基準とした所定範囲の注視映像データを切出す(ステップS104)。具体的には、制御部110は、映像処理部114によって、周辺映像データ300から注視映像データを切出す。そして、制御部110は、ステップS105に進む。
The
制御部110は、注視映像データを出力する(ステップS105)。具体的には、制御部110は、出力制御部115によって、注視映像データを出力する。そして、制御部110は、図9の処理を終了する。
The
図10を用いて、映像処理装置100の制御部110の図9とは異なる処理について説明する。図10は、制御部110の処理の流れの一例を示すフローチャートである。
Processing different from that of FIG. 9 of the
ステップS201からステップS204は、図9に図示のステップS101からステップS104と同様なので説明は省略する。 Since steps S201 to S204 are the same as steps S101 to S104 shown in FIG. 9, description thereof will be omitted.
制御部110は、運転者の特定の動作を検出する(ステップS205)。具体的には、制御部110は、映像処理部114によって運転者の特定の動作を検出する。なお、ステップS205では、特定の場所を走行しているか否かを検出するようにしてもよい。そして、制御部110は、ステップS206に進む。
The
運転者の特定の動作が検出された場合(ステップS206の「Yes」)、制御部110は、ステップS207に進み、拡大した注視映像データと、運転者の視線の軌跡を表示した注視映像データとの少なくとも一方を出力する(ステップS207)。具体的には、制御部110は、映像処理部114によって、拡大した注視映像データと、運転者の視線の軌跡を表示した注視映像データとの少なくとも一方を出力する。そして、制御部110は、図10の処理を終了する。
When the specific motion of the driver is detected (“Yes” in step S206), the
一方、運転者の特定の動作が検出されなかった場合(ステップS206の「No」)、制御部110は、ステップS208に進み、ステップS204で切出した注視映像データを出力する(ステップS208)。具体的には、制御部110は、映像処理部114によって、ステップS204で切出した注視映像データを出力する。そして、制御部110は、図10の処理を終了する。
On the other hand, when the specific motion of the driver is not detected (“No” in step S206), the
上述のとおり、第一実施形態は、周辺映像データのうち、運転者が運転中に注視したと推定された箇所を注視映像データとして出力することができる。これにより、第一実施形態は、例えば、運転者の視線方向の映像を記録するドライブレコーダを提供することができる。 As described above, the first embodiment can output, as the gaze image data, the portion of the peripheral image data that is estimated to be gazed by the driver while driving. Thereby, the first embodiment can provide, for example, a drive recorder that records an image in the line-of-sight direction of the driver.
また、第一実施形態は、運転者の視線方向の映像を記録することができるので、赤信号の見落とし、歩行者などの飛び出しに対する気づきの遅れ、わき見運転などを映像から判定することができる。これにより、第一実施形態は、例えば、自動車事故が起こった際の運転者の運転状況を、精度よく分析することができる。 Further, in the first embodiment, since the image of the driver's line-of-sight direction can be recorded, the oversight of the red traffic light, the delay in noticing the pedestrian's jumping out, the side-view driving, and the like can be determined from the image. As a result, the first embodiment can accurately analyze the driving situation of the driver when a car accident occurs, for example.
さらに、第一実施形態は、運転者の視線方向の映像を記録することができるので、例えば、珍しい建物、綺麗な景色、標識や周囲を走行する車両などを運転者目線で記録することができる。これにより、第一実施形態は、旅行などの楽しい思い出を運転者目線で記録することができる。 Furthermore, since the first embodiment can record an image in the direction of the driver's line of sight, it is possible to record, for example, an unusual building, a beautiful landscape, a sign or a vehicle traveling around from the driver's perspective. .. As a result, the first embodiment can record pleasant memories such as a trip from the driver's point of view.
[第一実施形態の第一変形例]
図11は、本発明の第一実施形態の第一変形例に係る映像処理システム1Aの構成を示すブロック図である。図11に示すように、映像処理システム1Aは、映像処理装置100Aの制御部110Aが、視線検出部116を備えている点で、映像処理システム1と異なっている。
[First Modification of First Embodiment]
FIG. 11 is a block diagram showing a configuration of a
映像処理システム1Aにおいては、運転者撮像部12は、運転者の眼球の様子を撮像する。この場合、運転者撮像部12は、運転者の眼球の様子を眼球映像データとして映像データ取得部111に出力する。
In the
映像データ取得部111は、運転者撮像部12から眼球映像データを取得する。映像データ取得部111は、眼球映像データを視線検出部116に出力する。
The video
視線検出部116は、眼球映像データから例えば目の輪郭および黒目の位置に基づいて、運転者の視線の方向を検出する。視線検出部116が運転者の視線の方向を検出する方法に特に制限なく、公知の技術を用いて検出すればよい。例えば、視線検出部116は、アイトラッキング、ゲイズプロットなどによって運転者の視線を検出する。視線検出部116は、検出結果を注視点導出部113に出力する。視線検出部116は、視線の検出結果を履歴として記憶部130に格納する。
The line-of-
注視点導出部113は、周辺映像データ300と、運転者の視線の検出結果に基づいて、周辺映像データ300における注視点の位置データを導出する。注視点導出部113は、注視点の位置データを映像処理部114に出力する。映像処理部114と、出力制御部115との処理は第一実施形態と同じなので、説明は省略する。
The gazing
上述のとおり、第一実施形態の第一変形例は、周辺映像データ300のうち、運転者が運転中に注視した箇所を注視映像データとして切出すことができる。これにより、第一実施形態の第一変形例は、より精度を向上させることができる。
As described above, in the first modified example of the first embodiment, the part of the
[第一実施形態の第二変形例]
図12は、第一実施形態の第二変形例に係る映像処理システム1Bの構成を示すブロック図である。映像処理システム1Bは、照度センサ30と、雨量センサ40とを備えている点、映像処理装置100Bの制御部110Bが車両情報取得部117と、周辺情報取得部118とを備えている点で、映像処理システム1と異なっている。映像処理システム1Bは、照度センサ30や、雨量センサ40の検出結果、車両情報取得部117によって取得された車両情報に応じて切出す範囲を変更する。具体的には、映像処理システム1Bは、車両情報や、周辺情報に応じて変化する、運転者が視認する範囲を切出す。
[Second Modification of First Embodiment]
FIG. 12 is a block diagram showing the configuration of the
照度センサ30は、映像処理システム1Bを搭載する車両の周囲の照度を検出する。照度センサ30は、検出した照度を映像処理部114に出力する。
The
雨量センサ40は、映像処理システム1Bを搭載する車両の周囲の雨量を検出する。雨量センサ40は、検出した雨量を映像処理部114に出力する。
The
照度センサ30や、雨量センサ40は、映像処理システム1Bが備える車両Cの周辺情報を取得するセンサの一例であり、本実施形態が備えるセンサの種類を限定するものではない。映像処理システム1Bは、照度センサ30や、雨量センサ40に限らず、車両Cの周辺のその他の周辺情報を検出するセンサを備えていてもよい。この場合、映像処理部114は、検出された周辺情報に応じて、切出す範囲を変更する。
The
車両情報取得部117は、例えば、車両Cの速度を含む車両情報を、CAN(Controller Area Network)や車両Cの状態をセンシングする各種センサなどから取得する。車両情報取得部117は、例えば、車両情報として、GPS(Global Positioning System)受信機を使用して取得した車両Cの現在地情報を取得する。車両情報取得部117は、取得した車両情報を映像処理部114に出力する。
The vehicle
周辺情報取得部118は、照度センサ30から車両Cの周囲の照度の検出結果を取得する。周辺情報取得部118は、雨量センサ40から車両Cの周囲の雨量の検出結果を取得する。周辺情報取得部118は、映像処理システム1Bがその他の周辺情報を検出するセンサを備えている場合には、そのセンサが取得した周辺情報を取得する。
The peripheral
映像処理部114は、車両の周囲の照度に応じて注視映像データの切出し範囲を変更する。映像処理部114は、例えば、車両の周囲の明るさが暗いほど注視映像データの切出し範囲を広くする。この場合、映像処理部114は、注視映像データの切出し範囲を線形に変化させてもよいし、段階的に変化させてもよい。
The
映像処理部114は、車両の周囲の雨量に応じて注視映像データの切出し範囲を変更する。映像処理部114は、例えば、車両の周囲の雨量が多いほど注視映像データの切出し範囲を広くする。この場合、映像処理部114は、注視映像データの切出し範囲を線形に変化させてもよいし、段階的に変化させてもよい。
The
映像処理部114は、車両情報に応じて注視映像データの切出し範囲を変更する。映像処理部114は、例えば、車両情報に含まれる車両の速度情報に基づいて、注視映像データの切出し範囲を変更する。映像処理部114は、例えば、車両の速度が速いほど切出す範囲を狭くする。この場合、映像処理部114は、注視映像データの切出し範囲を線形に変化させてもよいし、段階的に変化させてもよい。
The
映像処理部114は、例えば、車両情報に含まれる位置情報に応じて切出し範囲を変更してもよい。映像処理部114は、例えば、車両Cの現在位置が高速道路であると判定された場合、注視映像データの切出す範囲を狭くする。映像処理部114は、例えば、車両Cの現在位置が商店街などの物が多かったり、道路の幅が狭かったりする場所である場合には、切出す範囲を狭くする。映像処理部114は、例えば、道路の幅が広い場所である場合には、切出す範囲を広くする。
The
映像処理部114は、周辺情報と、車両情報との両方に基づいて、切出し範囲を変更してもよいし、周辺情報と、車両情報との少なくとも一方に基づいて、切出し範囲を変更してもよい。
The
図13は、注視映像データの切出す範囲を変更する方法を説明するための図である。図13に示すように、映像処理部114は、例えば、通常時には、前方映像データ210から注視点Pを基準として範囲X1の注視映像データを切出す。映像処理部114は、周辺情報や、車両情報に基づいて切出し範囲を狭くすると判断した場合には、例えば、前方映像データ210から注視点Pを基準として範囲X2の注視映像データを切出す。映像処理部114は、周辺情報や、車両情報に基づいて切出し範囲を広くすると判断した場合には、例えば、前方映像データ210から注視点Pを基準として範囲X3の注視映像データを切出す。なお、映像処理部114は、注視映像データの範囲を変更し、変更された注視映像データの範囲内における、運転者の視線の軌跡を表示するようにしてもよい。
FIG. 13 is a diagram for explaining a method of changing the cut-out range of the gaze video data. As shown in FIG. 13, for example, the
図14を用いて、映像処理装置100Bの制御部110Bの処理について説明する。図14は、制御部110Bの処理の流れの一例を示すフローチャートである。
The processing of the
ステップS301からステップS303については、図9に図示のステップS101からステップS103と同様なので説明は省略する。 Since steps S301 to S303 are the same as steps S101 to S103 shown in FIG. 9, description thereof will be omitted.
制御部110Bは、車両情報と、周辺情報との少なくとも一方を取得する(ステップS304)。具体的には、制御部110Bは、車両情報取得部117によって車両情報を取得し、周辺情報取得部118によって周辺情報を取得する。そして、制御部110Bは、ステップS305に進む。
制御部110Bは、車両情報と、周辺情報との少なくとも一方に基づいて、注視点を基準とした所定範囲の注視映像データを周辺映像データ300から切出す(ステップS305)。具体的には、制御部110Bは、映像処理部114によって、所定範囲の注視映像データを周辺映像データ300から切出す。そして、制御部110Bは、ステップS306に進む。
The
ステップS306は、図9に図示のステップS105と同様なので説明は省略する。そして、制御部110Bは、図14の処理を終了する。
Since step S306 is similar to step S105 shown in FIG. 9, description thereof will be omitted. Then, the
上述のとおり、第一実施形態の第二変形例は、車両情報と、周辺情報との少なくとも一方に基づいて、周辺映像データ300から注視映像データを切出す範囲を変更することができる。これにより、第一実施形態の第二変形例は、より精度を向上させることができる。また、第一実施形態の第二変形例は、状況に応じて範囲が変更された注視映像データにおける運転者の目線の軌跡を表示させることによって、より詳細に運転者の視線の動きを判定することができる。
As described above, in the second modification of the first embodiment, the range in which the gaze video data is cut out from the
[第二実施形態]
図15を用いて、本発明の第二実施形態に係る映像処理システム1Cについて説明する。図15は、映像処理システム1Cの構成を示すブロック図である。
[Second embodiment]
A video processing system 1C according to the second embodiment of the present invention will be described with reference to FIG. FIG. 15 is a block diagram showing the configuration of the video processing system 1C.
図15に示すように、映像処理システム1Cは、映像処理装置100Cの制御部110Cが注視点履歴管理部119と、ミラー位置取得部120と、相対位置算出部121とを備えている点で映像処理システム1とは異なっている。
As shown in FIG. 15, the video processing system 1C is a video in that the
注視点履歴管理部119は、記憶部130が記憶している運転者の視線の方向の履歴に基づいて、例えば、左右方向において運転者が最も頻繁に見ている最頻注視点を取得する。注視点履歴管理部119は、例えば、上下方向において運転者が頻繁に見ている箇所を取得する。注視点履歴管理部119は、取得結果を映像処理部114に出力する。
The gazing point
ミラー位置取得部120は、例えば、図2に示すような左サイドミラー2と、右サイドミラー3と、ルームミラー4との車両Cにおける位置を、例えば、CANなどから取得する。ミラー位置取得部120は、左サイドミラー2と、右サイドミラー3と、ルームミラー4との位置情報を、相対位置算出部121に出力する。
The mirror
相対位置算出部121は、左サイドミラー2と、右サイドミラー3と、ルームミラー4との位置情報に基づいて、各ミラーの位置を運転者からの相対位置として算出する。ここでは、例えば、映像データ取得部111が運転者の頭部映像データを相対位置算出部121に出力する。この場合、相対位置算出部121は、左サイドミラー2と、右サイドミラー3と、ルームミラー4との位置情報と、頭部映像データに含まれる運転者の頭部の位置に基づいて、各ミラーの位置を運転者からの相対位置として算出する。相対位置算出部121は、各ミラーの相対位置を映像処理部114に出力する。
The relative
映像処理部114は、左方向における最頻注視点と、左サイドミラー2の相対位置とを整合させる。映像処理部114は、右方向における最頻注視点と、右サイドミラー3の相対位置とを整合させる。映像処理部114は、上下方向における最頻注視点と、ルームミラー4の相対位置とを整合させる。これは、左方向における最頻注視点は左サイドミラー2の相対位置と一致し、右方向における最頻注視点は右サイドミラー3の相対位置と一致し、上下方向における最頻注視点はルームミラー4の相対位置と一致すると考えられるためである。そして、映像処理部114は、視線の角度と、各ミラーの相対位置とが一致するように注視映像データを切出すように調整する。これにより、本実施形態は、注視点の基準が補正されることになるので、運転者の注視点の導出精度を向上することができる。
The
図16を用いて、映像処理装置100Cの制御部110Cの処理について説明する。図16は、制御部110Cの処理の流れの一例を示すフローチャートである。
Processing of the
制御部110Cは、左右方向および上下方向の少なくとも1つの最頻注視点を取得する(ステップS401)。具体的には、制御部110Cは、注視点履歴管理部119によって、最頻注視点を取得する。そして、制御部110Cは、ステップS402に進む。
The
制御部110Cは、左サイドミラー2と、右サイドミラー3と、ルームミラー4との少なくとも1つの位置を取得する(ステップS402)。具体的には、制御部110Cは、ミラー位置取得部120によって、ステップS401で取得した最頻注視点に対応するミラーの位置を取得する。そして、制御部110Cは、ステップS403に進む。
The
制御部110Cは、運転者の頭部映像データを取得する(ステップS403)。具体的には、制御部110Cは、映像データ取得部111によって、運転者の頭部映像データを取得する。そして、制御部110Cは、ステップS404に進む。
The
制御部110Cは、ステップS402で取得したミラーの位置と、ステップS403で取得した運転者の頭部映像データに基づいて、ミラーの相対位置を算出する(ステップS404)。具体的には、制御部110Cは、相対位置算出部121によって、ミラーの相対位置を算出する。そして、制御部110Cは、ステップS405に進む。
The
制御部110Cは、ステップS401で取得した最頻注視点と、ステップS404で算出したミラーの相対位置に基づいて、注視映像データの切出し位置を調整する(ステップS405)。具体的には、制御部110Cは、映像処理部114によって、注視映像データの切出し位置を調整する。そして、制御部110Cは、図16の処理を終了する。
The
上述のとおり、第二実施形態は、運転者の最頻注視点と、ミラーの相対位置に基づいて、注視映像データの切出し位置を調整することができる。これにより、第二実施形態は、より精度を向上させることができる。 As described above, in the second embodiment, the cutout position of the gaze image data can be adjusted based on the driver's most frequent gaze point and the relative position of the mirror. Thereby, the second embodiment can further improve the accuracy.
[第三実施形態]
図17を用いて、本発明の第三実施形態に係る映像処理システム1Dの構成について説明する。図17は、本発明委の第三実施形態に係る映像処理システム1Dの構成を示すブロック図である。
[Third embodiment]
The configuration of the
図17に示すように、映像処理システム1Dは、映像処理装置100Dの制御部110Dが、運転技術判定部122を備えている点で、映像処理システム1とは異なっている。
As shown in FIG. 17, the
運転技術判定部122は、例えば、映像データ取得部111が取得した運転者の頭部映像データや、映像処理部114によって処理された注視映像データなどに基づいて、運転者の運転技術の習熟度を判定する。
The driving
運転技術判定部122は、例えば、頭部映像データに基づいて、図2に示す左サイドミラー2と、右サイドミラー3と、ルームミラー4とを運転者が確認している頻度を判定する。運転技術判定部122は、例えば、注視映像データに基づいて、標識、他車両、歩行者などを確認しているかを判定することによって、運転者の注意力がどこを向いているかを判定する。
The driving
運転技術判定部122は、例えば、判定結果に応じて、運転者の運転技術に点数を付けてもよい。具体的には、運転技術判定部122は、運転者が適切に視線を動かしていなかったり、標識を適切に視認していなかったりした場合には、点数を低くつける。運転技術判定部122は、例えば、運転者の信号の確認が疎かであり、赤信号から青信号に変わった場合に適切に発進しなかった場合には、運転者に対して警告を発するようにしてもよい。この場合、運転技術判定部122は、例えば、車両Cが備えるスピーカに音声信号を出力し、音声によって警告を発するようにすればよい。
The driving
上述のとおり、第三実施形態は、頭部映像データや、映像データに基づいて、運転者の運転技術を判定することができる。これにより、運転者は、例えば、判定結果に基づいて、ヒヤリハット事象への気づきの遅れなどを把握することができるので、判定結果を運転技術の向上に役立てることができる。すなわち、第三実施形態は、運転者の運転技術を向上させる運転訓練のための装置として使用することもできる。 As described above, the third embodiment can determine the driving skill of the driver based on the head image data and the image data. With this, the driver can grasp the delay in recognizing a near-miss event, for example, based on the determination result, and thus the determination result can be used for improving the driving technique. That is, the third embodiment can also be used as a device for driving training that improves the driving skill of the driver.
1,1A,1B,1C,1D 映像処理システム
2 左サイドミラー
3 右サイドミラー
4 ルームミラー
5 ステアリングホイール
10 撮像部
11 周辺撮像部
12 運転者撮像部
20 表示部
30 照度センサ
40 雨量センサ
100,100A,100B,100C,100D 映像処理装置
110,110A,110B,110C,110D 制御部
111 映像データ取得部
112 視線推定部
113 注視点導出部
114 映像処理部
115 出力制御部
116 視線検出部
117 車両情報取得部
118 周辺情報取得部
119 注視点履歴管理部
120 ミラー位置取得部
121 相対位置算出部
122 運転技術判定部
130 記憶部
1, 1A, 1B, 1C, 1D Image processing system 2 Left side mirror 3 Right side mirror 4
Claims (9)
前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定する視線推定部と、
前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出する注視点導出部と、
前記注視点を基準とした注視映像データを前記映像データから切出す映像処理部と、
前記注視映像データを出力する出力制御部と、を備える、
映像処理装置。 A video data acquisition unit that acquires video data from an imaging unit that images the surroundings of the vehicle;
A line-of-sight estimation unit that estimates the line-of-sight direction of the driver based on the position and orientation of the head of the driver who drives the vehicle,
A gazing point deriving unit for deriving a gazing point of the driver based on the line-of-sight direction of the driver,
An image processing unit that cuts out gaze image data based on the gaze point from the image data,
An output control unit for outputting the gaze image data,
Video processing device.
請求項1に記載の映像処理装置。 Further comprising a line-of-sight direction detection unit that detects the line-of-sight direction of the driver based on the image of the eyeball of the driver,
The video processing device according to claim 1.
前記映像処理部は、前記車両情報と、前記視線方向に基づいて、前記注視映像データの切出し範囲を決定する、
請求項1または2に記載の映像処理装置。 Further comprising a vehicle information acquisition unit for acquiring vehicle information including the vehicle speed of the vehicle,
The image processing unit determines a cutout range of the gaze image data based on the vehicle information and the line-of-sight direction,
The video processing device according to claim 1.
請求項1から3のいずれか1項に記載の映像処理装置。 The video processing unit determines a cutout range of the gaze video data based on peripheral information of the periphery of the vehicle,
The video processing device according to claim 1.
請求項1から4のいずれか1項に記載の映像処理装置。 The image processing unit visualizes the movement of the driver's line of sight in the image data or the gaze image data,
The video processing device according to claim 1.
請求項5に記載の映像処理装置。 Based on the movement of the driver's line of sight, further comprising a driving skill determination unit that determines the skill level of the driving skill of the driver,
The video processing device according to claim 5.
前記車両のサイドミラーまたはルームミラーの位置を、前記運転者からの相対位置として取得するミラー位置取得部とをさらに備え、
前記映像処理部は、前記最頻注視点と、前記サイドミラーまたは前記ルームミラーの相対位置とを整合させることで、前記注視点の基準を補正する、
請求項1から6のいずれか1項に記載の映像処理装置。 A gazing point history management unit that manages the history of the gazing point and derives the most frequent gazing point in at least one of the left direction, the right direction, and the vertical direction of the gazing point,
Further comprising a mirror position acquisition unit for acquiring the position of the side mirror or the rearview mirror of the vehicle as a relative position from the driver,
The image processing unit corrects the reference of the gazing point by matching the most frequent gazing point and the relative position of the side mirror or the room mirror.
The video processing device according to claim 1.
前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定するステップと、
前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出するステップと、
前記注視点を基準とした注視映像データを前記映像データから切出すステップと、
前記注視映像データを出力するステップと、を含む、
映像処理方法。 A step of acquiring video data from an image capturing unit that captures an image of the surroundings of the vehicle;
Estimating the line-of-sight direction of the driver based on the position and orientation of the head of the driver driving the vehicle,
Deriving a gazing point of the driver based on the line-of-sight direction of the driver,
Cutting out gaze image data based on the gaze point from the image data,
Outputting the gaze image data,
Video processing method.
前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定するステップと、
前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出するステップと、
前記注視点を基準とした注視映像データを前記映像データから切出すステップと、
前記注視映像データを出力するステップと、
を映像処理装置として動作するコンピュータに実行させるためのプログラム。 A step of acquiring video data from an image capturing unit that captures an image of the surroundings of the vehicle;
Estimating the line-of-sight direction of the driver based on the position and orientation of the head of the driver driving the vehicle,
Deriving a gazing point of the driver based on the line-of-sight direction of the driver,
Cutting out gaze image data based on the gaze point from the image data,
Outputting the gaze image data,
A program for causing a computer that operates as a video processing device to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019003707A JP7275586B2 (en) | 2019-01-11 | 2019-01-11 | Video processing device and video processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019003707A JP7275586B2 (en) | 2019-01-11 | 2019-01-11 | Video processing device and video processing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020113066A true JP2020113066A (en) | 2020-07-27 |
JP2020113066A5 JP2020113066A5 (en) | 2022-01-19 |
JP7275586B2 JP7275586B2 (en) | 2023-05-18 |
Family
ID=71666943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019003707A Active JP7275586B2 (en) | 2019-01-11 | 2019-01-11 | Video processing device and video processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7275586B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7140895B1 (en) | 2021-08-13 | 2022-09-21 | 東京海上日動火災保険株式会社 | Accident analysis device, accident analysis method and program |
WO2023272635A1 (en) * | 2021-06-30 | 2023-01-05 | 华为技术有限公司 | Target position determining method, determining apparatus and determining system |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005182307A (en) * | 2003-12-17 | 2005-07-07 | Denso Corp | Vehicle driving support device |
JP2012008790A (en) * | 2010-06-24 | 2012-01-12 | Toshiba Alpine Automotive Technology Corp | Driving support device and driving support method |
JP2013016037A (en) * | 2011-07-04 | 2013-01-24 | Toyota Central R&D Labs Inc | Traveling scene recognition model generation device, driving support device, and program |
JPWO2011064831A1 (en) * | 2009-11-30 | 2013-04-11 | 富士通株式会社 | Diagnostic device and diagnostic method |
JP2014048885A (en) * | 2012-08-31 | 2014-03-17 | Daimler Ag | Diminished attentiveness detection system |
JP2014194625A (en) * | 2013-03-28 | 2014-10-09 | Fujitsu Ltd | Visual confirmation evaluation device, method and program |
JP2015211741A (en) * | 2014-05-02 | 2015-11-26 | 富士通株式会社 | Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method |
JP2018069806A (en) * | 2016-10-25 | 2018-05-10 | アイシン精機株式会社 | Display control device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011064831A (en) | 2009-09-15 | 2011-03-31 | Ricoh Co Ltd | Image forming apparatus and image forming method |
-
2019
- 2019-01-11 JP JP2019003707A patent/JP7275586B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005182307A (en) * | 2003-12-17 | 2005-07-07 | Denso Corp | Vehicle driving support device |
JPWO2011064831A1 (en) * | 2009-11-30 | 2013-04-11 | 富士通株式会社 | Diagnostic device and diagnostic method |
JP2012008790A (en) * | 2010-06-24 | 2012-01-12 | Toshiba Alpine Automotive Technology Corp | Driving support device and driving support method |
JP2013016037A (en) * | 2011-07-04 | 2013-01-24 | Toyota Central R&D Labs Inc | Traveling scene recognition model generation device, driving support device, and program |
JP2014048885A (en) * | 2012-08-31 | 2014-03-17 | Daimler Ag | Diminished attentiveness detection system |
JP2014194625A (en) * | 2013-03-28 | 2014-10-09 | Fujitsu Ltd | Visual confirmation evaluation device, method and program |
JP2015211741A (en) * | 2014-05-02 | 2015-11-26 | 富士通株式会社 | Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method |
JP2018069806A (en) * | 2016-10-25 | 2018-05-10 | アイシン精機株式会社 | Display control device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023272635A1 (en) * | 2021-06-30 | 2023-01-05 | 华为技术有限公司 | Target position determining method, determining apparatus and determining system |
JP7140895B1 (en) | 2021-08-13 | 2022-09-21 | 東京海上日動火災保険株式会社 | Accident analysis device, accident analysis method and program |
JP2023026182A (en) * | 2021-08-13 | 2023-02-24 | 東京海上日動火災保険株式会社 | Accident analysis device, accident analysis method and program |
Also Published As
Publication number | Publication date |
---|---|
JP7275586B2 (en) | 2023-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6081570B2 (en) | Driving support device and image processing program | |
JP5099451B2 (en) | Vehicle periphery confirmation device | |
US8330816B2 (en) | Image processing device | |
US20060262140A1 (en) | Method and apparatus to facilitate visual augmentation of perceived reality | |
US20200282832A1 (en) | Display device and computer program | |
JP2010160606A (en) | Information presentation system for vehicle | |
JP2010033106A (en) | Driver support device, driver support method, and driver support processing program | |
JP7006460B2 (en) | Vehicle display control device, vehicle display system, vehicle display control method, and program | |
JP6890288B2 (en) | Image processing equipment, image display system and image processing method | |
KR20190018708A (en) | Digital rearview mirror control unit and method | |
JP7275586B2 (en) | Video processing device and video processing method | |
JP2012153256A (en) | Image processing apparatus | |
JP5422622B2 (en) | Head-up display device | |
JPWO2020105685A1 (en) | Display controls, methods, and computer programs | |
JP2007025739A (en) | Image display device for vehicle | |
JP4857159B2 (en) | Vehicle driving support device | |
JP2009105741A (en) | In-vehicle perimeter monitoring system | |
JP2005214730A (en) | Image display device, method, and program for vehicle | |
JP2007280203A (en) | Information presenting device, automobile and information presenting method | |
JP2007133644A (en) | Pedestrian recognition device | |
JP5083137B2 (en) | Driving assistance device | |
JP2007218655A (en) | Navigation device | |
JP7218237B2 (en) | Moving object detector | |
JP2018019155A (en) | Display controller for vehicle, display system for vehicle, display control method for vehicle and program | |
TW202141975A (en) | Vehicle-mounted display device based on automobile a-pillar, method, system and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220111 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7275586 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |