JP2020113066A - Video processing device, video processing method, and program - Google Patents

Video processing device, video processing method, and program Download PDF

Info

Publication number
JP2020113066A
JP2020113066A JP2019003707A JP2019003707A JP2020113066A JP 2020113066 A JP2020113066 A JP 2020113066A JP 2019003707 A JP2019003707 A JP 2019003707A JP 2019003707 A JP2019003707 A JP 2019003707A JP 2020113066 A JP2020113066 A JP 2020113066A
Authority
JP
Japan
Prior art keywords
driver
unit
gaze
vehicle
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019003707A
Other languages
Japanese (ja)
Other versions
JP7275586B2 (en
JP2020113066A5 (en
Inventor
修治 小川
Shuji Ogawa
修治 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019003707A priority Critical patent/JP7275586B2/en
Publication of JP2020113066A publication Critical patent/JP2020113066A/en
Publication of JP2020113066A5 publication Critical patent/JP2020113066A5/ja
Application granted granted Critical
Publication of JP7275586B2 publication Critical patent/JP7275586B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

To determine what a driver was looking at in the event of a vehicle accident.SOLUTION: An image processing device 100 includes: a video data acquisition unit 111 that acquires video data from an imaging unit that images the surroundings of a vehicle; a gaze estimation unit 112 that estimates a gaze direction of a driver driving the vehicle on the basis of a position and orientation of a head of the driver; a gazing point deriving unit 113 that derives a gazing point of the driver based on the driver's gaze direction; a video processing unit 114 that cuts out a gaze video data based on the gazing point from the video data; and an output control unit 115 that outputs gaze video data.SELECTED DRAWING: Figure 1

Description

本発明は、映像処理装置、映像処理方法、およびプログラムに関する。 The present invention relates to a video processing device, a video processing method, and a program.

車両事故などが起こった際に、事故を起こした運転者がどのような運転を行っていたのかを把握する技術が知られている。 There is known a technique for grasping what kind of driving was performed by the driver who caused the accident when a vehicle accident or the like occurred.

例えば、特許文献1には、車両の周辺画像に、車両を運転している運転者の視線方向を示すマーカを重畳して表示させることで、運転者の視線方向を把握することのできる技術が開示されている。 For example, in Patent Document 1, there is a technique that can grasp the driver's line-of-sight direction by superimposing and displaying a marker indicating the line-of-sight direction of the driver who is driving the vehicle on a peripheral image of the vehicle. It is disclosed.

特開2007−72567号公報JP, 2007-72567, A

特許文献1は、周辺画像における運転者の視線方向を特定できるが、運転者が具体的に何を見ているか特定できない可能性がある。そのため、運転者が、車両事故などを起こした際に、見ていたものを判定することのできる技術が望まれている。 In Patent Document 1, the driver's line-of-sight direction in the peripheral image can be specified, but it may not be possible to specify what the driver is actually looking at. Therefore, there is a demand for a technique that enables a driver to determine what he/she was looking at when a vehicle accident or the like occurs.

本発明は、車両事故などを起こした際に、運転者が見ていたものを判定することのできる映像処理装置、映像処理方法、およびプログラムを提供することを課題とする。 It is an object of the present invention to provide a video processing device, a video processing method, and a program capable of determining what a driver is looking at when a vehicle accident or the like occurs.

本発明の第一の態様の映像処理装置は、車両の周囲を撮像する撮像部から映像データを取得する映像データ取得部と、前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定する視線推定部と、前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出する注視点導出部と、前記注視点を基準とした注視映像データを前記映像データから切出す映像処理部と、前記注視映像データを出力する出力制御部と、を備える。 The video processing device of the first aspect of the present invention is based on a video data acquisition unit that acquires video data from an imaging unit that images the surroundings of the vehicle, and the position and orientation of the head of the driver who drives the vehicle, A gaze estimation unit that estimates the driver's gaze direction, a gaze point deriving unit that derives a gaze point of the driver based on the gaze direction of the driver, and gaze image data based on the gaze point Is provided from the video data, and an output control unit that outputs the gaze video data.

本発明の第二の態様の映像処理方法は、車両の周囲を撮像する撮像部から映像データを取得するステップと、前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定するステップと、前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出するステップと、前記注視点を基準とした注視映像データを前記映像データから切出すステップと、前記注視映像データを出力するステップと、を含む。 A video processing method according to a second aspect of the present invention is based on the step of acquiring video data from an imaging unit for imaging the surroundings of a vehicle and the position and orientation of the head of a driver who drives the vehicle, based on the driver. Estimating a line-of-sight direction of the driver, deriving a gaze point of the driver based on the line-of-sight direction of the driver, and cutting out gaze image data based on the gaze point from the image data And a step of outputting the gaze image data.

本発明の第三の態様のプログラムは、車両の周囲を撮像する撮像部から映像データを取得するステップと、前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定するステップと、前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出するステップと、前記注視点を基準とした注視映像データを前記映像データから切出すステップと、前記注視映像データを出力するステップと、を映像処理装置として動作するコンピュータに実行させる。 A program according to a third aspect of the present invention is based on a step of acquiring video data from an image capturing unit that captures an image of the surroundings of a vehicle, and the line of sight of the driver based on the position and orientation of the head of the driver who drives the vehicle. A step of estimating a direction, a step of deriving a gazing point of the driver based on the line-of-sight direction of the driver, a step of cutting out gaze video data based on the gazing point from the video data, The step of outputting the gaze image data is executed by a computer operating as an image processing device.

本発明によれば車両事故などを起こした際に、運転者が見ていたものを判定することができる。 According to the present invention, it is possible to determine what the driver was looking at when a vehicle accident or the like occurred.

図1は、本発明の第一実施形態に係る映像処理システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a video processing system according to the first embodiment of the present invention. 図2は、本発明の第一実施形態に係る映像処理システムの構成を示す概略図である。FIG. 2 is a schematic diagram showing the configuration of the video processing system according to the first embodiment of the present invention. 図3は、車両周辺を撮像する範囲を説明するための模式図である。FIG. 3 is a schematic diagram for explaining a range in which the periphery of the vehicle is imaged. 図4は、周辺映像データにおける注視点の位置データを導出し、導出した注視点を基準として注視映像データを切出す方法を説明するための図である。FIG. 4 is a diagram for explaining a method of deriving position data of a gazing point in peripheral video data and cutting out the gazing video data with the derived gazing point as a reference. 図5は、注視映像データを拡大する方法の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of a method of enlarging the gaze image data. 図6は、切出した注視映像データを拡大した様子を示す図である。FIG. 6 is a diagram showing a state in which the cut out gaze image data is enlarged. 図7は、運転者の視線の軌跡を表示させる方法の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of a method of displaying the trajectory of the line of sight of the driver. 図8は、運転者の視線の軌跡の範囲を表示させる方法の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of a method of displaying the range of the trajectory of the line of sight of the driver. 図9は、本発明の第一実施形態に係る映像処理システムの処理の流れの一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of the flow of processing of the video processing system according to the first embodiment of the present invention. 図10は、本発明の第一実施形態に係る映像処理システムの処理の流れの一例を示すフローチャートである。FIG. 10 is a flowchart showing an example of the processing flow of the video processing system according to the first embodiment of the present invention. 図11は、本発明の第一実施形態の第一変形例に係る映像処理システムの構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of the video processing system according to the first modified example of the first embodiment of the present invention. 図12は、本発明の第一実施形態の第二変形例に係る映像処理システムの構成を示すブロック図である。FIG. 12 is a block diagram showing the configuration of the video processing system according to the second modification of the first embodiment of the present invention. 図13は、注視映像データの切出す範囲を変更する方法を説明するための図である。FIG. 13 is a diagram for explaining a method of changing the cut-out range of the gaze video data. 図14は、本発明の第一実施形態の第二変形例に係る映像処理システムの処理の流れの一例を示すフローチャートである。FIG. 14 is a flowchart showing an example of the processing flow of the video processing system according to the second modification of the first embodiment of the present invention. 図15は、本発明の第二実施形態に係る映像処理システムの構成を示すブロック図である。FIG. 15 is a block diagram showing the configuration of the video processing system according to the second embodiment of the present invention. 図16は、本発明の第二実施形態に係る映像処理システムの処理の流れの一例を示すフローチャートである。FIG. 16 is a flowchart showing an example of the processing flow of the video processing system according to the second embodiment of the present invention. 図17は、本発明の第三実施形態に係る映像処理システムの構成を示すブロック図である。FIG. 17 is a block diagram showing the configuration of the video processing system according to the third embodiment of the present invention.

以下、図面を参照しながら、本発明の実施形態について詳細に説明する。なお、各図において同一または相当する部分には同一の符号を付して適宜説明は省略する。また、下記実施形態又は実施例における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能であり、また、実施形態又は実施例が複数ある場合には、各実施形態又は実施例を組み合わせることも可能である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are designated by the same reference numerals, and description thereof will be omitted as appropriate. In addition, constituent elements in the following embodiments or examples include elements that can be easily replaced by those skilled in the art, or substantially the same elements. Furthermore, the constituent elements described below can be combined as appropriate, and when there are a plurality of embodiments or examples, it is also possible to combine the respective embodiments or examples.

図1は、本発明の第一実施形態に係る映像処理システムの構成を示すブロック図である。図1に示すように、映像処理システム1は、撮像部10と、表示部20と、映像処理装置100とを備える。図2に示すように、映像処理装置100は、車両Cに搭載される。図2には、左サイドミラー2と、右サイドミラー3と、ルームミラー4と、ステアリングホイール5とが示されている。映像処理システム1は、例えば、車両Cに搭載されるドライブレコーダであり、車両Cの周辺の画像と、車両周辺の映像から運転者の見ているものを切出した映像との両方を表示部20に表示したり、記憶媒体に記録したりする。 FIG. 1 is a block diagram showing the configuration of a video processing system according to the first embodiment of the present invention. As shown in FIG. 1, the video processing system 1 includes an imaging unit 10, a display unit 20, and a video processing device 100. As shown in FIG. 2, the video processing device 100 is mounted on the vehicle C. FIG. 2 shows the left side mirror 2, the right side mirror 3, the room mirror 4, and the steering wheel 5. The image processing system 1 is, for example, a drive recorder mounted on the vehicle C, and displays both an image around the vehicle C and an image obtained by cutting out what the driver sees from the image around the vehicle C. Displayed on or recorded in a storage medium.

撮像部10は、周辺撮像部11と、運転者撮像部12とを有する。図2では、撮像部10は、ルームミラー4の上方に配置されているが、これは模式的に示した一例であり、撮像部10を配置する位置を限定するものではない。 The imaging unit 10 includes a peripheral imaging unit 11 and a driver imaging unit 12. In FIG. 2, the imaging unit 10 is arranged above the room mirror 4, but this is a schematic example and the position where the imaging unit 10 is arranged is not limited.

周辺撮像部11は、車両Cの周囲を撮像する。周辺撮像部11は、例えば、全天球カメラなどの広角カメラである。周辺撮像部11は、例えば、車両Cの前方を撮像する前方カメラと、後方を撮像する後方カメラと、左側方を撮像する左側方カメラと、右側方を撮像する右側方カメラとの複数のカメラから構成されていてもよい。周辺撮像部11は、運転者の視線の方向に応じて駆動するカメラであってもよい。この場合、周辺撮像部11は、通常時は車両Cの進行方向を撮像し、後述する運転者撮像部12によって撮像された運転者の頭部や、視線の方向に追従して駆動し、運転者の視線の方向を撮像する構成とすればよい。 The peripheral imaging unit 11 captures an image around the vehicle C. The peripheral imaging unit 11 is, for example, a wide-angle camera such as a spherical camera. The peripheral imaging unit 11 includes, for example, a plurality of cameras including a front camera that captures the front of the vehicle C, a rear camera that captures the rear, a left camera that captures the left side, and a right camera that captures the right side. It may be composed of. The peripheral imaging unit 11 may be a camera that drives according to the direction of the line of sight of the driver. In this case, the peripheral image capturing unit 11 normally captures the traveling direction of the vehicle C, and drives by following the driver's head imaged by the driver image capturing unit 12 described later and the direction of the line of sight to drive the vehicle. The configuration may be such that the direction of the line of sight of the person is imaged.

図3は、周辺撮像部11が撮像した周辺映像データ300を説明するための図である。図3に示すように、周辺撮像部11は、前方と、後方と、左側方と、右側方とを含む車両Cの周辺を撮像する。周辺撮像部11は、撮像した前方を前方映像データ210として映像データ取得部111に出力する。周辺撮像部11は、撮像した後方を後方映像データ220として映像データ取得部111に出力する。周辺撮像部11は、撮像した左側方を左側映像データ230として映像データ取得部111に出力する。周辺撮像部11は、撮像した右側方を右側映像データ240として映像データ取得部111に出力する。周辺撮像部11は、全天球カメラで全天球映像を撮像した場合には、その映像を全天球映像データとして映像データ取得部111に出力する。 FIG. 3 is a diagram for explaining the peripheral video data 300 imaged by the peripheral imaging unit 11. As shown in FIG. 3, the peripheral imaging unit 11 images the surroundings of the vehicle C including the front, the rear, the left side, and the right side. The peripheral imaging unit 11 outputs the imaged front as the front video data 210 to the video data acquisition unit 111. The peripheral imaging unit 11 outputs the captured rearward as rear image data 220 to the image data acquisition unit 111. The peripheral imaging unit 11 outputs the captured left side as the left side video data 230 to the video data acquisition unit 111. The peripheral imaging unit 11 outputs the captured right side as the right side video data 240 to the video data acquisition unit 111. When the omnidirectional camera captures a omnidirectional image, the peripheral imaging unit 11 outputs the image to the image data acquisition unit 111 as omnidirectional image data.

再び図1を参照する。運転者撮像部12は、少なくとも運転者の顔の向きを判別できるように運転者の頭部を撮像する。運転者撮像部12は、運転者の眼球を撮像できる場合には、運転者の眼球を撮像することが好ましい。運転者撮像部12は、例えば、ルームミラー4の近傍や、ステアリングホイール5の前方に設けられる。なお、運転者撮像部12は、例えば、周辺撮像部11が車両Cの内部に設けられた全天球カメラであり、周辺撮像部11で運転者を撮像できる場合には、備えていなくてもよい。 Referring back to FIG. The driver imaging unit 12 images the driver's head so that at least the driver's face orientation can be determined. The driver image capturing unit 12 preferably captures the driver's eyeball when the driver's eyeball can be captured. The driver imaging unit 12 is provided, for example, near the rearview mirror 4 or in front of the steering wheel 5. Note that the driver imaging unit 12 is, for example, a omnidirectional camera in which the peripheral imaging unit 11 is provided inside the vehicle C, and may not be provided if the peripheral imaging unit 11 can image the driver. Good.

表示部20は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。表示部20は、映像処理装置100によって処理された映像を表示する。具体的には、表示部20は、周辺映像データ300を表示してもよいし、少なくとも前方映像データ210を表示すればよい。 The display unit 20 is a display including, for example, a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL (Organic Electro-Luminescence) display. The display unit 20 displays the image processed by the image processing device 100. Specifically, the display unit 20 may display the peripheral image data 300, or at least the front image data 210.

映像処理装置100は、制御部110と、記憶部130とを備える。 The video processing device 100 includes a control unit 110 and a storage unit 130.

制御部110は、映像処理システム1を構成する各部を制御する。具体的には、制御部110は、記憶部130に記憶されているプログラムを展開して実行することによって、映像処理システム1を構成する各部を制御する。制御部110は、例えば、CPU(Central Processing Unit)を含む電子的な回路などで実現することができる。制御部110は、映像データ取得部111と、視線推定部112と、注視点導出部113と、映像処理部114と、出力制御部115とを有する。 The control unit 110 controls each unit included in the video processing system 1. Specifically, the control unit 110 controls each unit configuring the video processing system 1 by expanding and executing the program stored in the storage unit 130. The control unit 110 can be realized by, for example, an electronic circuit including a CPU (Central Processing Unit). The control unit 110 includes a video data acquisition unit 111, a line-of-sight estimation unit 112, a gazing point derivation unit 113, a video processing unit 114, and an output control unit 115.

映像データ取得部111は、周辺撮像部11が撮像した車両Cの周辺映像データ300を取得する。映像データ取得部111は、運転者撮像部12が撮像した運転者の頭部映像データを取得する。映像データ取得部111は、周辺映像データ300を注視点導出部113に出力し、頭部映像データを視線推定部112に出力する。映像データ取得部111は、周辺映像データ300を、例えば、記憶部130や、外部の記憶装置などに出力する。すなわち、本実施形態では、周辺映像データ300と、運転者の視線の方向の映像との両方の映像を記憶または出力する。 The video data acquisition unit 111 acquires the peripheral video data 300 of the vehicle C captured by the peripheral imaging unit 11. The video data acquisition unit 111 acquires the head video data of the driver captured by the driver imaging unit 12. The video data acquisition unit 111 outputs the peripheral video data 300 to the gazing point derivation unit 113 and outputs the head video data to the gaze estimation unit 112. The video data acquisition unit 111 outputs the peripheral video data 300 to, for example, the storage unit 130 or an external storage device. That is, in the present embodiment, both the peripheral image data 300 and the image in the direction of the line of sight of the driver are stored or output.

視線推定部112は、運転者の頭部映像データに基づいて、運転者の視線の方向を推定する。具体的には、視線推定部112は、運転者の顔の向きに基づいて、運転者の視線の方向を推定する。視線推定部112は、運転者の視線の方向の推定結果を注視点導出部113に出力する。視線推定部112は、推定結果を記憶部130に履歴として格納する。 The line-of-sight estimating unit 112 estimates the direction of the line of sight of the driver based on the head image data of the driver. Specifically, the line-of-sight estimation unit 112 estimates the direction of the driver's line of sight based on the orientation of the driver's face. The gaze estimation unit 112 outputs the estimation result of the driver's gaze direction to the gazing point derivation unit 113. The gaze estimation unit 112 stores the estimation result in the storage unit 130 as a history.

注視点導出部113は、周辺映像データ300と、運転者の視線の方向の推定結果に基づいて、周辺映像データ300における注視点の位置データを導出する。具体的には、注視点の位置データとは、運転者の視線の方向ベクトルと、周辺映像データ300との交点を意味する。 The gazing point deriving unit 113 derives position data of the gazing point in the peripheral image data 300 based on the peripheral image data 300 and the estimation result of the direction of the line of sight of the driver. Specifically, the position data of the gazing point means an intersection between the direction vector of the line of sight of the driver and the peripheral image data 300.

図4は、周辺映像データ300における注視点の位置データを導出し、導出した注視点を基準として注視映像データを切出す方法を説明するための図である。図4には、周辺映像データ300の一例として、前方映像データ210が示されている。まず、注視点導出部113は、運転者の視線の推定結果に基づいて、視線ベクトルVを導出する。そして、注視点導出部113は、例えば、視線ベクトルVと前方映像データ210との交点に、注視点Pの位置データを導出する。注視点導出部113は、導出した注視点Pの位置データを映像処理部114に出力する。以下では、前方映像データ210を例として説明するが、後方映像データ220と、左側映像データ230と、右側映像データ240についても同様である。 FIG. 4 is a diagram for explaining a method of deriving position data of a gazing point in the peripheral video data 300 and cutting out the gazing video data based on the derived gazing point. In FIG. 4, the front image data 210 is shown as an example of the peripheral image data 300. First, the gazing point deriving unit 113 derives the line-of-sight vector V based on the estimation result of the line-of-sight of the driver. Then, the gazing point deriving unit 113 derives the position data of the gazing point P at the intersection of the line-of-sight vector V and the front video data 210, for example. The gazing point deriving unit 113 outputs the derived position data of the gazing point P to the video processing unit 114. Hereinafter, the front video data 210 will be described as an example, but the same applies to the rear video data 220, the left video data 230, and the right video data 240.

映像処理部114は、注視点Pの位置を基準(中心)とした所定範囲の注視映像データを前方映像データ210から切出す。図4に示すように、映像処理部114は、注視点Pを基準として範囲Xの注視映像データを前方映像データ210から切出す。ここでは、映像処理部114は、例えば、注視点Pを基準として、人の注意力が及ぶ範囲、言い換えると、人が映像から被撮影物を認識可能な範囲を切出す。映像処理部114は、運転者の視線の方向に応じて切出す範囲Xを変えてもよい。この場合、映像処理部114は、目視などで左右方向を見た場合に切出す範囲を予め設定されていればよい。例えば、映像処理部114は、左側映像データ230や、右側映像データ240から切出す注視映像データの範囲を、前方映像データ210から切出す注視映像データの範囲よりも狭くしてもよい。 The video processing unit 114 cuts out the gazing video data in a predetermined range with the position of the gazing point P as a reference (center) from the front video data 210. As shown in FIG. 4, the video processing unit 114 cuts out the gazing video data in the range X from the front video data 210 with the gazing point P as a reference. Here, the image processing unit 114 cuts out, for example, a range in which a person's attention is exerted, that is, a range in which a person can recognize an object to be photographed from the image with the gazing point P as a reference. The image processing unit 114 may change the cut-out range X according to the direction of the line of sight of the driver. In this case, the image processing unit 114 may be preset with a range to be cut out when the left and right directions are visually observed. For example, the image processing unit 114 may narrow the range of the gaze image data cut out from the left side image data 230 and the right side image data 240 to be narrower than the range of the gaze image data cut out from the front image data 210.

映像処理部114は、例えば、運転者ごとに切出す範囲を変えてもよい。この場合、例えば、記憶部130に、運転者ごとの切出す範囲を予め記憶しておけばよい。映像処理部114は、例えば、運転者の通常時の視線の動きとは異なる動きをした場合に、導出された注視点Pの周辺を拡大して表示したり、切出す範囲を変更したりしてもよい。この場合、例えば、記憶部130に、運転者の通常時の視線の動きなどを記憶させればよい。通常時の視線の動きと異なる動きとは、運転時に運転者の視線が動く平均的な範囲から外れる動き、視線が動く平均的な速度の範囲から外れた動き、視線が留まる時間が平均的な時間より長い動きなどである。 The image processing unit 114 may change the cut-out range for each driver, for example. In this case, for example, the cut-out range for each driver may be stored in the storage unit 130 in advance. The image processing unit 114, for example, enlarges and displays the periphery of the derived gazing point P or changes the cut-out range when the movement of the line of sight of the driver is different from the normal movement. May be. In this case, for example, the movement of the driver's normal line of sight may be stored in the storage unit 130. The movement that differs from the movement of the line of sight during normal operation means movement that the driver's line of sight moves outside the average range of movement, movement outside the range of average speed at which the line of sight moves, and average time during which the line of sight remains For example, the movement is longer than the time.

映像処理部114は、例えば、注視点Pの位置が変わるたびに切出す位置を変更してもよいし、注視点Pが第一の位置で検出された後、第一の位置から所定の距離以上離れた位置で注視点Pが検出された場合にのみ切出す位置を変更してもよい。この場合、映像処理部114は、例えば、第一の位置から範囲Xの外縁までの距離の50%以上近づいた位置で注視点Pが検出された場合に切出す位置を変更する。また、映像処理部114は、第一の位置から範囲Xの外縁まで距離の20%以上近づいた位置で注視点Pが検出された場合に切出す位置を変更してもよいし、80%以上近づいた位置で注視点Pが検出された場合に切出す位置を変更してもよい。すなわち、第一の位置からの所定距離は、ユーザの所望の値に設定するようにすればよい。 The image processing unit 114 may change the cut-out position each time the position of the gazing point P changes, or after the gazing point P is detected at the first position, a predetermined distance from the first position. The position to be cut out may be changed only when the gazing point P is detected at a position distant from the above. In this case, the image processing unit 114 changes the position to be cut out when the gazing point P is detected at a position closer than 50% of the distance from the first position to the outer edge of the range X, for example. Further, the image processing unit 114 may change the position to be cut out when the gazing point P is detected at a position closer to the outer edge of the range X by 20% or more of the distance from the first position, or 80% or more. The position to be cut out when the gazing point P is detected at the approaching position may be changed. That is, the predetermined distance from the first position may be set to a value desired by the user.

図5を用いて、注視映像データを拡大する方法について説明する。図5は、注視映像データを拡大する方法の一例を説明するための図である。 A method of enlarging the gaze image data will be described with reference to FIG. FIG. 5 is a diagram for explaining an example of a method of enlarging the gaze image data.

映像処理部114は、例えば、運転者が特定の場所を所定時間(例えば、5秒間)注視していた場合には、その場所を拡大してもよい。図5に示す例では、運転者は、車両C2を所定の時間注視していたとする。この場合、映像処理部114は、注視点Pを基準とした
所定範囲を拡大して表示する。ここで、映像処理部114が拡大する範囲Xaは、図4に示す通常の切出し範囲Xよりも小さくすることが好ましい。
For example, when the driver is gazing at a specific place for a predetermined time (for example, 5 seconds), the image processing unit 114 may enlarge the place. In the example shown in FIG. 5, it is assumed that the driver is gazing at the vehicle C2 for a predetermined time. In this case, the video processing unit 114 enlarges and displays the predetermined range based on the gazing point P. Here, it is preferable that the range Xa expanded by the image processing unit 114 be smaller than the normal cutout range X shown in FIG.

図6は、切出した注視映像データを拡大した様子を示す図である。図6に示すように、映像処理部114は、切出した注視映像データを拡大してもよい。この場合、映像処理部114は、例えば、拡大した注視映像データに対して物体認識処理をかけることによって、範囲Xaに含まれる物体を抽出するようにしてもよい。 FIG. 6 is a diagram showing a state in which the cut out gaze image data is enlarged. As illustrated in FIG. 6, the video processing unit 114 may enlarge the cut gaze video data. In this case, the image processing unit 114 may extract the objects included in the range Xa by subjecting the enlarged gaze image data to object recognition processing, for example.

図7を用いて、運転者の視線の軌跡を表示させる方法について説明する。図7は、運転者の視線の軌跡を表示させる方法の一例を説明するための図である。 A method of displaying the trajectory of the line of sight of the driver will be described with reference to FIG. 7. FIG. 7 is a diagram for explaining an example of a method of displaying the trajectory of the line of sight of the driver.

図7に示すように、映像処理部114は、例えば、切出した範囲Xにおける運転者の視線の軌跡を前方映像データ210に重畳して表示させてもよい。図7に示す例では、前方映像データ210において、運転者の視線の軌跡Tが示されている。運転者の視線の軌跡Tには、一定時間注視していたポイントである、第一注視点P1と、第二注視点P2と、第三注視点P3と、第四注視点P4と、第五注視点P5と、第六注視点P6と、第七注視点P7と、第八注視点P8と、第九注視点P9とが白丸で示されている。この場合、運転者は、第一注視点P1から第九注視点P9まで順に視線を動かしたことを意味している。この場合、範囲Xの中心は、第九注視点P9となる。ここで、例えば、運転者が注視していた時間に応じて、第一注視点P1から第九注視点P9の大きさを変えてもよい。図7に示す例では、第一注視点P1が最も大きく、次に第六注視点P6と、第九注視点P9とが大きく、第二注視点P2と、第三注視点P3と、第四注視点P4と、第五注視点P5と、第七注視点P7と、第八注視点P8とが最も小さい。この場合、運転者は、第一注視点P1を注視していた時間が最も長く、次に第六注視点P6と、第九注視点P9とを注視していた時間が長く、第二注視点P2と、第三注視点P3と、第四注視点P4と、第五注視点P5と、第七注視点P7と、第八注視点P8とを注視していた時間が最も短いことを意味している。映像処理部114は、上述したような運転者の視線の軌跡を常時表示させてもよいし、運転者の特定の動作が検出された場合にのみ表示させてもよい。運転者の特定の動作とは、特定のポイントを所定時間(例えば、5秒間)注視する、通常時よりも視線の動きが激しく変動するなどが挙げられるが、これらに限定されない。また、映像処理部114は、車両の走行好況に応じて、運転者の視線の軌跡を表示する時間を変えるようにしてもよい。映像処理部114は、例えば、市街地や、繁華街を走行している場合には、軌跡を表示する時間を短くしたり、長くしたりしてもよい。また、映像処理部114は、交差点の右左折時などの周囲の状況をより注意深く確認する必要のある状況では、軌跡を表示する時間を長くするようにしてもよい。 As shown in FIG. 7, for example, the image processing unit 114 may superimpose the trajectory of the line of sight of the driver in the cut out range X on the front image data 210 and display it. In the example shown in FIG. 7, the trajectory T of the line of sight of the driver is shown in the front video data 210. On the trajectory T of the driver's line of sight, the points that have been gazing for a certain time, that is, the first gazing point P1, the second gazing point P2, the third gazing point P3, the fourth gazing point P4, and the fifth gazing point P4. The gazing point P5, the sixth gazing point P6, the seventh gazing point P7, the eighth gazing point P8, and the ninth gazing point P9 are indicated by white circles. In this case, it means that the driver sequentially moved the line of sight from the first gazing point P1 to the ninth gazing point P9. In this case, the center of the range X is the ninth gazing point P9. Here, for example, the sizes of the first gazing point P1 to the ninth gazing point P9 may be changed according to the time the driver is gazing. In the example shown in FIG. 7, the first gazing point P1 is the largest, the sixth gazing point P6 and the ninth gazing point P9 are next, the second gazing point P2, the third gazing point P3, and the fourth gazing point P3. The gazing point P4, the fifth gazing point P5, the seventh gazing point P7, and the eighth gazing point P8 are the smallest. In this case, the driver has watched the first gazing point P1 for the longest time, then has the sixth gazing point P6 and the ninth gazing point P9 for a long time, and the second gazing point. P2, the third gazing point P3, the fourth gazing point P4, the fifth gazing point P5, the seventh gazing point P7, and the eighth gazing point P8 mean that the time is the shortest. ing. The image processing unit 114 may always display the trajectory of the line of sight of the driver as described above, or may display it only when a specific motion of the driver is detected. The specific operation of the driver includes, but is not limited to, gazing at a specific point for a predetermined time (for example, 5 seconds), the movement of the line of sight changes more drastically than in normal times, and the like. In addition, the image processing unit 114 may change the time for displaying the trajectory of the line of sight of the driver, depending on the driving conditions of the vehicle. For example, when the image processing unit 114 is traveling in an urban area or a downtown area, the time for displaying the locus may be shortened or lengthened. Further, the image processing unit 114 may lengthen the time for displaying the locus in a situation in which it is necessary to check the surrounding situation more carefully, such as when turning right or left at an intersection.

図8は、運転者の視線の軌跡を表示させる方法の図7とは異なる一例を説明するための図である。図8に示すように、映像処理部114は、周辺映像データ300において、運転者が見ていた範囲を表示してもよい。図8には、運転者が見ていた範囲として、左側映像データ230内の第一範囲A1と、前方映像データ210内の第二範囲A2と、右側映像データ240内の第三範囲A3とが示されている。この場合、例えば、第一範囲A1は時刻t1の時点で運転者が見ていた範囲であり、第二範囲A2が時刻t1よりも後の時刻t2の時点で運転者が見ていた範囲であり、第三範囲A3が時刻t2よりも後の時刻t3の時点で運転者が見ていた範囲である。すなわち、映像処理部114は、周辺映像データ300において、見ていた範囲の時間変化を可視化する。 FIG. 8: is a figure for demonstrating an example different from FIG. 7 of the method of displaying the locus|trajectory of a driver|operator's gaze. As shown in FIG. 8, the image processing unit 114 may display the range in which the driver is viewing in the peripheral image data 300. In FIG. 8, as the driver's range, the first range A1 in the left image data 230, the second range A2 in the front image data 210, and the third range A3 in the right image data 240 are shown. It is shown. In this case, for example, the first range A1 is the range seen by the driver at the time t1, and the second range A2 is the range seen by the driver at the time t2 after the time t1. The third range A3 is the range that the driver is watching at the time t3 after the time t2. That is, the video processing unit 114 visualizes the temporal change in the range that is being viewed in the peripheral video data 300.

映像処理部114は、図6と、図7と、図8との表示方式を状況に応じて切り替えるようにしてもよい。また、図6と、図7と、図8との表示方式は、ユーザが自由に切り替えられるようにしてもよい。 The video processing unit 114 may switch the display system of FIG. 6, FIG. 7, and FIG. 8 depending on the situation. Further, the display system of FIGS. 6, 7, and 8 may be freely switched by the user.

映像処理部114は、車両Cが特定の場所を走行している場合に、運転者の視線の軌跡を周辺映像データ300に表示するようにしてもよい。特定の場所とは、例えば、市街地などの死角が多い場所を挙げられるが、これに限定されない。 The image processing unit 114 may display the trajectory of the line of sight of the driver in the peripheral image data 300 when the vehicle C is traveling in a specific place. Examples of the specific place include, but are not limited to, a place having many blind spots such as an urban area.

映像処理部114は、注視映像データを出力制御部115に出力する。 The image processor 114 outputs the gaze image data to the output controller 115.

出力制御部115は、注視映像データを出力する。出力制御部115は、例えば、注視映像データを表示部20に出力する。これにより、運転者などは、表示部20を視認することで、注視映像データを確認することができる。出力制御部115は、例えば、注視映像データを記憶部130に出力してもよいし、図示しないSDカードなどの可搬型記録媒体に出力してもよい。これにより、運転者などは車両以外の場所で注視映像データを確認することができる。 The output control unit 115 outputs the gaze image data. The output control unit 115 outputs the gaze image data to the display unit 20, for example. Thereby, the driver or the like can confirm the gaze image data by visually recognizing the display unit 20. The output control unit 115 may output the gaze image data to the storage unit 130, or may output it to a portable recording medium such as an SD card (not shown), for example. As a result, the driver or the like can confirm the gaze image data at a place other than the vehicle.

記憶部130は、制御部110が映像処理システム1の各部を制御するためのプログラムを記憶している。記憶部130は、例えば、周辺映像データ300から注視映像データを切出す範囲を運転者ごとに記憶してもよい。記憶部130は、例えば、運転をしている際の通常時の視線の動きの傾向を運転者ごとに記憶している。記憶部130は、例えば、推定された運転者の視線の方向を履歴として記憶している。記憶部130は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、ソリッドステートドライブ、光ディスクなどの記憶装置である。 The storage unit 130 stores a program for the control unit 110 to control each unit of the video processing system 1. The storage unit 130 may store, for example, a range in which the gaze image data is cut out from the peripheral image data 300 for each driver. The storage unit 130 stores, for example, the tendency of the movement of the line of sight during normal driving for each driver. The storage unit 130 stores, for example, the estimated direction of the line of sight of the driver as a history. The storage unit 130 is, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk, a solid state drive, or an optical disk.

図9を用いて、映像処理装置100の制御部110の処理について説明する。図9は、制御部110の処理の流れの一例を示すフローチャートである。 The processing of the control unit 110 of the video processing device 100 will be described with reference to FIG. 9. FIG. 9 is a flowchart showing an example of the processing flow of the control unit 110.

まず、制御部110は、周辺画像データと、頭部映像データとを取得する(ステップS101)。具体的には、制御部110は、映像データ取得部111によって、周辺画像データと、頭部映像データとを取得する。そして、制御部110は、ステップS102に進む。 First, the control unit 110 acquires peripheral image data and head image data (step S101). Specifically, the control unit 110 causes the video data acquisition unit 111 to acquire peripheral image data and head video data. Then, the control unit 110 proceeds to step S102.

制御部110は、頭部映像データに基づいて、運転者の視線の方向を推定する(ステップS102)。具体的には、制御部110は、視線推定部112によって、運転者の視線の方向を推定する。そして、制御部110は、ステップS103に進む。 The control unit 110 estimates the direction of the driver's line of sight based on the head image data (step S102). Specifically, the control unit 110 causes the line-of-sight estimation unit 112 to estimate the direction of the driver's line of sight. Then, the control unit 110 proceeds to step S103.

制御部110は、周辺映像データ300と、運転者の視線の方向の推定結果に基づいて、注視点の位置データを導出する(ステップS103)。具体的には、制御部110は、注視点導出部113によって、注視点の位置データを導出する。そして、制御部110は、ステップS104に進む。 The control unit 110 derives the position data of the gazing point based on the peripheral image data 300 and the estimation result of the direction of the line of sight of the driver (step S103). Specifically, the control unit 110 causes the gazing point deriving unit 113 to derive the position data of the gazing point. Then, the control unit 110 proceeds to step S104.

制御部110は、周辺映像データ300から、注視点を基準とした所定範囲の注視映像データを切出す(ステップS104)。具体的には、制御部110は、映像処理部114によって、周辺映像データ300から注視映像データを切出す。そして、制御部110は、ステップS105に進む。 The control unit 110 cuts out the gazing video data in a predetermined range based on the gazing point from the peripheral video data 300 (step S104). Specifically, the control unit 110 causes the video processing unit 114 to cut out the gaze video data from the peripheral video data 300. Then, the control unit 110 proceeds to step S105.

制御部110は、注視映像データを出力する(ステップS105)。具体的には、制御部110は、出力制御部115によって、注視映像データを出力する。そして、制御部110は、図9の処理を終了する。 The control unit 110 outputs the gaze image data (step S105). Specifically, the control unit 110 causes the output control unit 115 to output the gaze image data. Then, the control unit 110 ends the processing of FIG.

図10を用いて、映像処理装置100の制御部110の図9とは異なる処理について説明する。図10は、制御部110の処理の流れの一例を示すフローチャートである。 Processing different from that of FIG. 9 of the control unit 110 of the video processing device 100 will be described with reference to FIG. 10. FIG. 10 is a flowchart showing an example of the processing flow of the control unit 110.

ステップS201からステップS204は、図9に図示のステップS101からステップS104と同様なので説明は省略する。 Since steps S201 to S204 are the same as steps S101 to S104 shown in FIG. 9, description thereof will be omitted.

制御部110は、運転者の特定の動作を検出する(ステップS205)。具体的には、制御部110は、映像処理部114によって運転者の特定の動作を検出する。なお、ステップS205では、特定の場所を走行しているか否かを検出するようにしてもよい。そして、制御部110は、ステップS206に進む。 The control unit 110 detects a specific motion of the driver (step S205). Specifically, the control unit 110 causes the video processing unit 114 to detect a specific motion of the driver. In step S205, it may be detected whether or not the vehicle is traveling in a specific place. Then, the control unit 110 proceeds to step S206.

運転者の特定の動作が検出された場合(ステップS206の「Yes」)、制御部110は、ステップS207に進み、拡大した注視映像データと、運転者の視線の軌跡を表示した注視映像データとの少なくとも一方を出力する(ステップS207)。具体的には、制御部110は、映像処理部114によって、拡大した注視映像データと、運転者の視線の軌跡を表示した注視映像データとの少なくとも一方を出力する。そして、制御部110は、図10の処理を終了する。 When the specific motion of the driver is detected (“Yes” in step S206), the control unit 110 proceeds to step S207 and expands the gaze image data and the gaze image data that displays the trajectory of the line of sight of the driver. Is output (step S207). Specifically, the control unit 110 causes the image processing unit 114 to output at least one of the enlarged gaze image data and the gaze image data displaying the trajectory of the line of sight of the driver. Then, the control unit 110 ends the processing of FIG.

一方、運転者の特定の動作が検出されなかった場合(ステップS206の「No」)、制御部110は、ステップS208に進み、ステップS204で切出した注視映像データを出力する(ステップS208)。具体的には、制御部110は、映像処理部114によって、ステップS204で切出した注視映像データを出力する。そして、制御部110は、図10の処理を終了する。 On the other hand, when the specific motion of the driver is not detected (“No” in step S206), the control unit 110 proceeds to step S208 and outputs the gaze image data cut out in step S204 (step S208). Specifically, the control unit 110 causes the video processing unit 114 to output the gaze video data cut out in step S204. Then, the control unit 110 ends the processing of FIG.

上述のとおり、第一実施形態は、周辺映像データのうち、運転者が運転中に注視したと推定された箇所を注視映像データとして出力することができる。これにより、第一実施形態は、例えば、運転者の視線方向の映像を記録するドライブレコーダを提供することができる。 As described above, the first embodiment can output, as the gaze image data, the portion of the peripheral image data that is estimated to be gazed by the driver while driving. Thereby, the first embodiment can provide, for example, a drive recorder that records an image in the line-of-sight direction of the driver.

また、第一実施形態は、運転者の視線方向の映像を記録することができるので、赤信号の見落とし、歩行者などの飛び出しに対する気づきの遅れ、わき見運転などを映像から判定することができる。これにより、第一実施形態は、例えば、自動車事故が起こった際の運転者の運転状況を、精度よく分析することができる。 Further, in the first embodiment, since the image of the driver's line-of-sight direction can be recorded, the oversight of the red traffic light, the delay in noticing the pedestrian's jumping out, the side-view driving, and the like can be determined from the image. As a result, the first embodiment can accurately analyze the driving situation of the driver when a car accident occurs, for example.

さらに、第一実施形態は、運転者の視線方向の映像を記録することができるので、例えば、珍しい建物、綺麗な景色、標識や周囲を走行する車両などを運転者目線で記録することができる。これにより、第一実施形態は、旅行などの楽しい思い出を運転者目線で記録することができる。 Furthermore, since the first embodiment can record an image in the direction of the driver's line of sight, it is possible to record, for example, an unusual building, a beautiful landscape, a sign or a vehicle traveling around from the driver's perspective. .. As a result, the first embodiment can record pleasant memories such as a trip from the driver's point of view.

[第一実施形態の第一変形例]
図11は、本発明の第一実施形態の第一変形例に係る映像処理システム1Aの構成を示すブロック図である。図11に示すように、映像処理システム1Aは、映像処理装置100Aの制御部110Aが、視線検出部116を備えている点で、映像処理システム1と異なっている。
[First Modification of First Embodiment]
FIG. 11 is a block diagram showing a configuration of a video processing system 1A according to a first modified example of the first embodiment of the present invention. As shown in FIG. 11, the video processing system 1A differs from the video processing system 1 in that the control unit 110A of the video processing device 100A includes a line-of-sight detection unit 116.

映像処理システム1Aにおいては、運転者撮像部12は、運転者の眼球の様子を撮像する。この場合、運転者撮像部12は、運転者の眼球の様子を眼球映像データとして映像データ取得部111に出力する。 In the image processing system 1A, the driver image capturing unit 12 captures an image of the eyes of the driver. In this case, the driver imaging unit 12 outputs the state of the eyes of the driver to the video data acquisition unit 111 as eyeball video data.

映像データ取得部111は、運転者撮像部12から眼球映像データを取得する。映像データ取得部111は、眼球映像データを視線検出部116に出力する。 The video data acquisition unit 111 acquires eyeball video data from the driver imaging unit 12. The video data acquisition unit 111 outputs the eyeball video data to the visual line detection unit 116.

視線検出部116は、眼球映像データから例えば目の輪郭および黒目の位置に基づいて、運転者の視線の方向を検出する。視線検出部116が運転者の視線の方向を検出する方法に特に制限なく、公知の技術を用いて検出すればよい。例えば、視線検出部116は、アイトラッキング、ゲイズプロットなどによって運転者の視線を検出する。視線検出部116は、検出結果を注視点導出部113に出力する。視線検出部116は、視線の検出結果を履歴として記憶部130に格納する。 The line-of-sight detection unit 116 detects the direction of the driver's line of sight from the eyeball image data based on, for example, the contour of the eye and the position of the black eye. There is no particular limitation on the method by which the line-of-sight detection unit 116 detects the direction of the line of sight of the driver, and any known technique may be used. For example, the line-of-sight detection unit 116 detects the line of sight of the driver by eye tracking, gaze plot, or the like. The line-of-sight detection unit 116 outputs the detection result to the gazing point derivation unit 113. The line-of-sight detection unit 116 stores the line-of-sight detection result in the storage unit 130 as a history.

注視点導出部113は、周辺映像データ300と、運転者の視線の検出結果に基づいて、周辺映像データ300における注視点の位置データを導出する。注視点導出部113は、注視点の位置データを映像処理部114に出力する。映像処理部114と、出力制御部115との処理は第一実施形態と同じなので、説明は省略する。 The gazing point deriving unit 113 derives position data of the gazing point in the peripheral video data 300 based on the peripheral video data 300 and the detection result of the line of sight of the driver. The gazing point deriving unit 113 outputs the position data of the gazing point to the video processing unit 114. The processes of the video processing unit 114 and the output control unit 115 are the same as those in the first embodiment, and thus the description thereof will be omitted.

上述のとおり、第一実施形態の第一変形例は、周辺映像データ300のうち、運転者が運転中に注視した箇所を注視映像データとして切出すことができる。これにより、第一実施形態の第一変形例は、より精度を向上させることができる。 As described above, in the first modified example of the first embodiment, the part of the peripheral image data 300 that the driver gazes while driving can be cut out as the gaze image data. Thereby, the first modification of the first embodiment can further improve the accuracy.

[第一実施形態の第二変形例]
図12は、第一実施形態の第二変形例に係る映像処理システム1Bの構成を示すブロック図である。映像処理システム1Bは、照度センサ30と、雨量センサ40とを備えている点、映像処理装置100Bの制御部110Bが車両情報取得部117と、周辺情報取得部118とを備えている点で、映像処理システム1と異なっている。映像処理システム1Bは、照度センサ30や、雨量センサ40の検出結果、車両情報取得部117によって取得された車両情報に応じて切出す範囲を変更する。具体的には、映像処理システム1Bは、車両情報や、周辺情報に応じて変化する、運転者が視認する範囲を切出す。
[Second Modification of First Embodiment]
FIG. 12 is a block diagram showing the configuration of the video processing system 1B according to the second modified example of the first embodiment. The video processing system 1B includes an illuminance sensor 30 and a rainfall sensor 40, and the control unit 110B of the video processing device 100B includes a vehicle information acquisition unit 117 and a peripheral information acquisition unit 118. It is different from the video processing system 1. The image processing system 1B changes the cut-out range according to the detection results of the illuminance sensor 30 and the rainfall sensor 40 and the vehicle information acquired by the vehicle information acquisition unit 117. Specifically, the image processing system 1B cuts out a range visually recognized by the driver, which changes according to vehicle information and surrounding information.

照度センサ30は、映像処理システム1Bを搭載する車両の周囲の照度を検出する。照度センサ30は、検出した照度を映像処理部114に出力する。 The illuminance sensor 30 detects the illuminance around a vehicle equipped with the video processing system 1B. The illuminance sensor 30 outputs the detected illuminance to the video processing unit 114.

雨量センサ40は、映像処理システム1Bを搭載する車両の周囲の雨量を検出する。雨量センサ40は、検出した雨量を映像処理部114に出力する。 The rainfall sensor 40 detects the amount of rainfall around the vehicle equipped with the video processing system 1B. The rainfall sensor 40 outputs the detected rainfall amount to the video processing unit 114.

照度センサ30や、雨量センサ40は、映像処理システム1Bが備える車両Cの周辺情報を取得するセンサの一例であり、本実施形態が備えるセンサの種類を限定するものではない。映像処理システム1Bは、照度センサ30や、雨量センサ40に限らず、車両Cの周辺のその他の周辺情報を検出するセンサを備えていてもよい。この場合、映像処理部114は、検出された周辺情報に応じて、切出す範囲を変更する。 The illuminance sensor 30 and the rainfall sensor 40 are examples of sensors that acquire peripheral information about the vehicle C included in the image processing system 1B, and the types of sensors included in the present embodiment are not limited. The image processing system 1B is not limited to the illuminance sensor 30 and the rainfall sensor 40, and may include a sensor that detects other peripheral information around the vehicle C. In this case, the video processing unit 114 changes the cutout range according to the detected peripheral information.

車両情報取得部117は、例えば、車両Cの速度を含む車両情報を、CAN(Controller Area Network)や車両Cの状態をセンシングする各種センサなどから取得する。車両情報取得部117は、例えば、車両情報として、GPS(Global Positioning System)受信機を使用して取得した車両Cの現在地情報を取得する。車両情報取得部117は、取得した車両情報を映像処理部114に出力する。 The vehicle information acquisition unit 117 acquires vehicle information including the speed of the vehicle C from a CAN (Controller Area Network) or various sensors that sense the state of the vehicle C, for example. The vehicle information acquisition unit 117 acquires, as the vehicle information, the current position information of the vehicle C acquired using a GPS (Global Positioning System) receiver, for example. The vehicle information acquisition unit 117 outputs the acquired vehicle information to the video processing unit 114.

周辺情報取得部118は、照度センサ30から車両Cの周囲の照度の検出結果を取得する。周辺情報取得部118は、雨量センサ40から車両Cの周囲の雨量の検出結果を取得する。周辺情報取得部118は、映像処理システム1Bがその他の周辺情報を検出するセンサを備えている場合には、そのセンサが取得した周辺情報を取得する。 The peripheral information acquisition unit 118 acquires the detection result of the illuminance around the vehicle C from the illuminance sensor 30. The peripheral information acquisition unit 118 acquires the detection result of the amount of rainfall around the vehicle C from the rainfall sensor 40. When the image processing system 1B includes a sensor that detects other peripheral information, the peripheral information acquisition unit 118 acquires the peripheral information acquired by the sensor.

映像処理部114は、車両の周囲の照度に応じて注視映像データの切出し範囲を変更する。映像処理部114は、例えば、車両の周囲の明るさが暗いほど注視映像データの切出し範囲を広くする。この場合、映像処理部114は、注視映像データの切出し範囲を線形に変化させてもよいし、段階的に変化させてもよい。 The image processing unit 114 changes the cutout range of the gaze image data according to the illuminance around the vehicle. For example, the image processing unit 114 widens the cutout range of the gaze image data as the brightness around the vehicle becomes darker. In this case, the video processing unit 114 may linearly change the cutout range of the gaze video data, or may change it stepwise.

映像処理部114は、車両の周囲の雨量に応じて注視映像データの切出し範囲を変更する。映像処理部114は、例えば、車両の周囲の雨量が多いほど注視映像データの切出し範囲を広くする。この場合、映像処理部114は、注視映像データの切出し範囲を線形に変化させてもよいし、段階的に変化させてもよい。 The image processing unit 114 changes the cutout range of the gaze image data according to the amount of rainfall around the vehicle. For example, the image processing unit 114 widens the cutout range of the gaze image data as the amount of rainfall around the vehicle increases. In this case, the video processing unit 114 may linearly change the cutout range of the gaze video data, or may change it stepwise.

映像処理部114は、車両情報に応じて注視映像データの切出し範囲を変更する。映像処理部114は、例えば、車両情報に含まれる車両の速度情報に基づいて、注視映像データの切出し範囲を変更する。映像処理部114は、例えば、車両の速度が速いほど切出す範囲を狭くする。この場合、映像処理部114は、注視映像データの切出し範囲を線形に変化させてもよいし、段階的に変化させてもよい。 The video processing unit 114 changes the cutout range of the gaze video data according to the vehicle information. The image processing unit 114 changes the cut-out range of the gaze image data based on the vehicle speed information included in the vehicle information, for example. The image processing unit 114 narrows the cutout range as the vehicle speed increases, for example. In this case, the video processing unit 114 may linearly change the cutout range of the gaze video data, or may change it stepwise.

映像処理部114は、例えば、車両情報に含まれる位置情報に応じて切出し範囲を変更してもよい。映像処理部114は、例えば、車両Cの現在位置が高速道路であると判定された場合、注視映像データの切出す範囲を狭くする。映像処理部114は、例えば、車両Cの現在位置が商店街などの物が多かったり、道路の幅が狭かったりする場所である場合には、切出す範囲を狭くする。映像処理部114は、例えば、道路の幅が広い場所である場合には、切出す範囲を広くする。 The image processing unit 114 may change the cutout range according to the position information included in the vehicle information, for example. For example, when it is determined that the current position of the vehicle C is the highway, the image processing unit 114 narrows the cutout range of the gaze image data. For example, when the current position of the vehicle C is a place where there are many things such as a shopping street or the width of the road is narrow, the image processing unit 114 narrows the cutout range. For example, when the road is wide, the image processing unit 114 widens the cutout range.

映像処理部114は、周辺情報と、車両情報との両方に基づいて、切出し範囲を変更してもよいし、周辺情報と、車両情報との少なくとも一方に基づいて、切出し範囲を変更してもよい。 The image processing unit 114 may change the cutout range based on both the peripheral information and the vehicle information, or may change the cutout range based on at least one of the peripheral information and the vehicle information. Good.

図13は、注視映像データの切出す範囲を変更する方法を説明するための図である。図13に示すように、映像処理部114は、例えば、通常時には、前方映像データ210から注視点Pを基準として範囲X1の注視映像データを切出す。映像処理部114は、周辺情報や、車両情報に基づいて切出し範囲を狭くすると判断した場合には、例えば、前方映像データ210から注視点Pを基準として範囲X2の注視映像データを切出す。映像処理部114は、周辺情報や、車両情報に基づいて切出し範囲を広くすると判断した場合には、例えば、前方映像データ210から注視点Pを基準として範囲X3の注視映像データを切出す。なお、映像処理部114は、注視映像データの範囲を変更し、変更された注視映像データの範囲内における、運転者の視線の軌跡を表示するようにしてもよい。 FIG. 13 is a diagram for explaining a method of changing the cut-out range of the gaze video data. As shown in FIG. 13, for example, the video processing unit 114 normally cuts out the gazing video data of the range X1 from the front video data 210 with the gazing point P as a reference. When the image processing unit 114 determines that the cut-out range is narrowed based on the peripheral information and the vehicle information, the image processing unit 114 cuts out the gaze image data in the range X2 from the front image data 210 with the gaze point P as a reference. When the video processing unit 114 determines to widen the cutout range based on the peripheral information and the vehicle information, the video processing unit 114 cuts out the watched video data in the range X3 from the front video data 210 with the gazing point P as a reference. The image processing unit 114 may change the range of the gaze image data and display the trajectory of the line of sight of the driver within the changed range of the gaze image data.

図14を用いて、映像処理装置100Bの制御部110Bの処理について説明する。図14は、制御部110Bの処理の流れの一例を示すフローチャートである。 The processing of the control unit 110B of the video processing device 100B will be described with reference to FIG. FIG. 14 is a flowchart showing an example of the processing flow of the control unit 110B.

ステップS301からステップS303については、図9に図示のステップS101からステップS103と同様なので説明は省略する。 Since steps S301 to S303 are the same as steps S101 to S103 shown in FIG. 9, description thereof will be omitted.

制御部110Bは、車両情報と、周辺情報との少なくとも一方を取得する(ステップS304)。具体的には、制御部110Bは、車両情報取得部117によって車両情報を取得し、周辺情報取得部118によって周辺情報を取得する。そして、制御部110Bは、ステップS305に進む。 Control unit 110B acquires at least one of vehicle information and peripheral information (step S304). Specifically, the control unit 110B acquires the vehicle information by the vehicle information acquisition unit 117 and acquires the peripheral information by the peripheral information acquisition unit 118. Then, the control unit 110B proceeds to step S305.

制御部110Bは、車両情報と、周辺情報との少なくとも一方に基づいて、注視点を基準とした所定範囲の注視映像データを周辺映像データ300から切出す(ステップS305)。具体的には、制御部110Bは、映像処理部114によって、所定範囲の注視映像データを周辺映像データ300から切出す。そして、制御部110Bは、ステップS306に進む。 The control unit 110B cuts out the gaze image data in a predetermined range based on the gaze point from the peripheral image data 300 based on at least one of the vehicle information and the peripheral information (step S305). Specifically, the control unit 110B causes the video processing unit 114 to cut out a predetermined range of gaze video data from the peripheral video data 300. Then, the control unit 110B proceeds to step S306.

ステップS306は、図9に図示のステップS105と同様なので説明は省略する。そして、制御部110Bは、図14の処理を終了する。 Since step S306 is similar to step S105 shown in FIG. 9, description thereof will be omitted. Then, the control unit 110B ends the process of FIG.

上述のとおり、第一実施形態の第二変形例は、車両情報と、周辺情報との少なくとも一方に基づいて、周辺映像データ300から注視映像データを切出す範囲を変更することができる。これにより、第一実施形態の第二変形例は、より精度を向上させることができる。また、第一実施形態の第二変形例は、状況に応じて範囲が変更された注視映像データにおける運転者の目線の軌跡を表示させることによって、より詳細に運転者の視線の動きを判定することができる。 As described above, in the second modification of the first embodiment, the range in which the gaze video data is cut out from the peripheral video data 300 can be changed based on at least one of the vehicle information and the peripheral information. Thereby, the second modification of the first embodiment can further improve the accuracy. Further, the second modified example of the first embodiment determines the movement of the driver's line of sight in more detail by displaying the trajectory of the driver's line of sight in the gaze image data whose range is changed according to the situation. be able to.

[第二実施形態]
図15を用いて、本発明の第二実施形態に係る映像処理システム1Cについて説明する。図15は、映像処理システム1Cの構成を示すブロック図である。
[Second embodiment]
A video processing system 1C according to the second embodiment of the present invention will be described with reference to FIG. FIG. 15 is a block diagram showing the configuration of the video processing system 1C.

図15に示すように、映像処理システム1Cは、映像処理装置100Cの制御部110Cが注視点履歴管理部119と、ミラー位置取得部120と、相対位置算出部121とを備えている点で映像処理システム1とは異なっている。 As shown in FIG. 15, the video processing system 1C is a video in that the control unit 110C of the video processing device 100C includes a gazing point history management unit 119, a mirror position acquisition unit 120, and a relative position calculation unit 121. It is different from the processing system 1.

注視点履歴管理部119は、記憶部130が記憶している運転者の視線の方向の履歴に基づいて、例えば、左右方向において運転者が最も頻繁に見ている最頻注視点を取得する。注視点履歴管理部119は、例えば、上下方向において運転者が頻繁に見ている箇所を取得する。注視点履歴管理部119は、取得結果を映像処理部114に出力する。 The gazing point history management unit 119 acquires, for example, the most frequent gazing point that the driver sees most frequently in the left-right direction, based on the history of the direction of the driver's line of sight stored in the storage unit 130. The gazing point history management unit 119 acquires, for example, a portion frequently viewed by the driver in the vertical direction. The gazing point history management unit 119 outputs the acquisition result to the video processing unit 114.

ミラー位置取得部120は、例えば、図2に示すような左サイドミラー2と、右サイドミラー3と、ルームミラー4との車両Cにおける位置を、例えば、CANなどから取得する。ミラー位置取得部120は、左サイドミラー2と、右サイドミラー3と、ルームミラー4との位置情報を、相対位置算出部121に出力する。 The mirror position acquisition unit 120 acquires, for example, the positions of the left side mirror 2, the right side mirror 3, and the room mirror 4 in the vehicle C as shown in FIG. 2 from CAN, for example. The mirror position acquisition unit 120 outputs the position information of the left side mirror 2, the right side mirror 3, and the room mirror 4 to the relative position calculation unit 121.

相対位置算出部121は、左サイドミラー2と、右サイドミラー3と、ルームミラー4との位置情報に基づいて、各ミラーの位置を運転者からの相対位置として算出する。ここでは、例えば、映像データ取得部111が運転者の頭部映像データを相対位置算出部121に出力する。この場合、相対位置算出部121は、左サイドミラー2と、右サイドミラー3と、ルームミラー4との位置情報と、頭部映像データに含まれる運転者の頭部の位置に基づいて、各ミラーの位置を運転者からの相対位置として算出する。相対位置算出部121は、各ミラーの相対位置を映像処理部114に出力する。 The relative position calculation unit 121 calculates the position of each mirror as a relative position from the driver based on the positional information of the left side mirror 2, the right side mirror 3, and the room mirror 4. Here, for example, the image data acquisition unit 111 outputs the driver's head image data to the relative position calculation unit 121. In this case, the relative position calculation unit 121 determines each position based on the position information of the left side mirror 2, the right side mirror 3, and the room mirror 4, and the position of the driver's head included in the head image data. The position of the mirror is calculated as a relative position from the driver. The relative position calculation unit 121 outputs the relative position of each mirror to the video processing unit 114.

映像処理部114は、左方向における最頻注視点と、左サイドミラー2の相対位置とを整合させる。映像処理部114は、右方向における最頻注視点と、右サイドミラー3の相対位置とを整合させる。映像処理部114は、上下方向における最頻注視点と、ルームミラー4の相対位置とを整合させる。これは、左方向における最頻注視点は左サイドミラー2の相対位置と一致し、右方向における最頻注視点は右サイドミラー3の相対位置と一致し、上下方向における最頻注視点はルームミラー4の相対位置と一致すると考えられるためである。そして、映像処理部114は、視線の角度と、各ミラーの相対位置とが一致するように注視映像データを切出すように調整する。これにより、本実施形態は、注視点の基準が補正されることになるので、運転者の注視点の導出精度を向上することができる。 The image processing unit 114 matches the most frequent gaze point in the left direction with the relative position of the left side mirror 2. The image processing unit 114 matches the most frequent gaze point in the right direction with the relative position of the right side mirror 3. The image processing unit 114 matches the most frequent gaze point in the vertical direction with the relative position of the room mirror 4. This is because the most frequent gaze point in the left direction matches the relative position of the left side mirror 2, the most gaze point in the right direction coincides with the relative position of the right side mirror 3, and the most frequent gaze point in the vertical direction is the room. This is because it is considered that the position matches the relative position of the mirror 4. Then, the image processing unit 114 adjusts to cut out the gaze image data so that the angle of the line of sight and the relative position of each mirror match. As a result, in the present embodiment, the reference of the gazing point is corrected, so that the accuracy of deriving the gazing point of the driver can be improved.

図16を用いて、映像処理装置100Cの制御部110Cの処理について説明する。図16は、制御部110Cの処理の流れの一例を示すフローチャートである。 Processing of the control unit 110C of the video processing device 100C will be described with reference to FIG. FIG. 16 is a flowchart showing an example of the processing flow of the control unit 110C.

制御部110Cは、左右方向および上下方向の少なくとも1つの最頻注視点を取得する(ステップS401)。具体的には、制御部110Cは、注視点履歴管理部119によって、最頻注視点を取得する。そして、制御部110Cは、ステップS402に進む。 The control unit 110C acquires at least one most frequent gaze point in the horizontal direction and the vertical direction (step S401). Specifically, the control unit 110C acquires the most frequent gaze point by the gaze point history management unit 119. Then, the control unit 110C proceeds to step S402.

制御部110Cは、左サイドミラー2と、右サイドミラー3と、ルームミラー4との少なくとも1つの位置を取得する(ステップS402)。具体的には、制御部110Cは、ミラー位置取得部120によって、ステップS401で取得した最頻注視点に対応するミラーの位置を取得する。そして、制御部110Cは、ステップS403に進む。 The control unit 110C acquires at least one position of the left side mirror 2, the right side mirror 3, and the room mirror 4 (step S402). Specifically, the control unit 110C causes the mirror position acquisition unit 120 to acquire the position of the mirror corresponding to the most frequently watched point acquired in step S401. Then, the control unit 110C proceeds to step S403.

制御部110Cは、運転者の頭部映像データを取得する(ステップS403)。具体的には、制御部110Cは、映像データ取得部111によって、運転者の頭部映像データを取得する。そして、制御部110Cは、ステップS404に進む。 The control unit 110C acquires the driver's head image data (step S403). Specifically, the control unit 110C causes the video data acquisition unit 111 to acquire the head video data of the driver. Then, the control unit 110C proceeds to step S404.

制御部110Cは、ステップS402で取得したミラーの位置と、ステップS403で取得した運転者の頭部映像データに基づいて、ミラーの相対位置を算出する(ステップS404)。具体的には、制御部110Cは、相対位置算出部121によって、ミラーの相対位置を算出する。そして、制御部110Cは、ステップS405に進む。 The control unit 110C calculates the relative position of the mirror based on the position of the mirror acquired in step S402 and the head image data of the driver acquired in step S403 (step S404). Specifically, the control unit 110C causes the relative position calculation unit 121 to calculate the relative position of the mirror. Then, the control unit 110C proceeds to step S405.

制御部110Cは、ステップS401で取得した最頻注視点と、ステップS404で算出したミラーの相対位置に基づいて、注視映像データの切出し位置を調整する(ステップS405)。具体的には、制御部110Cは、映像処理部114によって、注視映像データの切出し位置を調整する。そして、制御部110Cは、図16の処理を終了する。 The control unit 110C adjusts the cutout position of the gaze image data based on the most frequent gaze point acquired in step S401 and the relative position of the mirror calculated in step S404 (step S405). Specifically, the control unit 110C causes the video processing unit 114 to adjust the cutout position of the gaze video data. Then, the control unit 110C ends the process of FIG.

上述のとおり、第二実施形態は、運転者の最頻注視点と、ミラーの相対位置に基づいて、注視映像データの切出し位置を調整することができる。これにより、第二実施形態は、より精度を向上させることができる。 As described above, in the second embodiment, the cutout position of the gaze image data can be adjusted based on the driver's most frequent gaze point and the relative position of the mirror. Thereby, the second embodiment can further improve the accuracy.

[第三実施形態]
図17を用いて、本発明の第三実施形態に係る映像処理システム1Dの構成について説明する。図17は、本発明委の第三実施形態に係る映像処理システム1Dの構成を示すブロック図である。
[Third embodiment]
The configuration of the video processing system 1D according to the third embodiment of the present invention will be described with reference to FIG. FIG. 17 is a block diagram showing the configuration of a video processing system 1D according to the third embodiment of the present invention.

図17に示すように、映像処理システム1Dは、映像処理装置100Dの制御部110Dが、運転技術判定部122を備えている点で、映像処理システム1とは異なっている。 As shown in FIG. 17, the video processing system 1D is different from the video processing system 1 in that the control unit 110D of the video processing device 100D includes a driving technique determination unit 122.

運転技術判定部122は、例えば、映像データ取得部111が取得した運転者の頭部映像データや、映像処理部114によって処理された注視映像データなどに基づいて、運転者の運転技術の習熟度を判定する。 The driving skill determination unit 122, for example, based on the driver's head image data acquired by the image data acquisition unit 111, the gaze image data processed by the image processing unit 114, and the like, the driver's skill level of the driving technique. To judge.

運転技術判定部122は、例えば、頭部映像データに基づいて、図2に示す左サイドミラー2と、右サイドミラー3と、ルームミラー4とを運転者が確認している頻度を判定する。運転技術判定部122は、例えば、注視映像データに基づいて、標識、他車両、歩行者などを確認しているかを判定することによって、運転者の注意力がどこを向いているかを判定する。 The driving skill determination unit 122 determines the frequency with which the driver confirms the left side mirror 2, the right side mirror 3, and the room mirror 4 shown in FIG. 2, for example, based on the head image data. The driving skill determination unit 122 determines where the driver's attention is directed, for example, by determining whether a sign, another vehicle, or a pedestrian is being confirmed based on the gaze image data.

運転技術判定部122は、例えば、判定結果に応じて、運転者の運転技術に点数を付けてもよい。具体的には、運転技術判定部122は、運転者が適切に視線を動かしていなかったり、標識を適切に視認していなかったりした場合には、点数を低くつける。運転技術判定部122は、例えば、運転者の信号の確認が疎かであり、赤信号から青信号に変わった場合に適切に発進しなかった場合には、運転者に対して警告を発するようにしてもよい。この場合、運転技術判定部122は、例えば、車両Cが備えるスピーカに音声信号を出力し、音声によって警告を発するようにすればよい。 The driving skill determination unit 122 may score the driving skill of the driver, for example, according to the determination result. Specifically, the driving skill determination unit 122 gives a low score when the driver does not properly move the line of sight or does not properly visually recognize the sign. For example, when the driver's signal is sparsely confirmed and the driver does not start properly when the red signal changes to the green signal, the driving skill determination unit 122 gives a warning to the driver. Good. In this case, the driving skill determination unit 122 may output a voice signal to a speaker included in the vehicle C and issue a warning by voice, for example.

上述のとおり、第三実施形態は、頭部映像データや、映像データに基づいて、運転者の運転技術を判定することができる。これにより、運転者は、例えば、判定結果に基づいて、ヒヤリハット事象への気づきの遅れなどを把握することができるので、判定結果を運転技術の向上に役立てることができる。すなわち、第三実施形態は、運転者の運転技術を向上させる運転訓練のための装置として使用することもできる。 As described above, the third embodiment can determine the driving skill of the driver based on the head image data and the image data. With this, the driver can grasp the delay in recognizing a near-miss event, for example, based on the determination result, and thus the determination result can be used for improving the driving technique. That is, the third embodiment can also be used as a device for driving training that improves the driving skill of the driver.

1,1A,1B,1C,1D 映像処理システム
2 左サイドミラー
3 右サイドミラー
4 ルームミラー
5 ステアリングホイール
10 撮像部
11 周辺撮像部
12 運転者撮像部
20 表示部
30 照度センサ
40 雨量センサ
100,100A,100B,100C,100D 映像処理装置
110,110A,110B,110C,110D 制御部
111 映像データ取得部
112 視線推定部
113 注視点導出部
114 映像処理部
115 出力制御部
116 視線検出部
117 車両情報取得部
118 周辺情報取得部
119 注視点履歴管理部
120 ミラー位置取得部
121 相対位置算出部
122 運転技術判定部
130 記憶部
1, 1A, 1B, 1C, 1D Image processing system 2 Left side mirror 3 Right side mirror 4 Rearview mirror 5 Steering wheel 10 Imaging unit 11 Peripheral imaging unit 12 Driver imaging unit 20 Display unit 30 Illuminance sensor 40 Rainfall sensor 100, 100A , 100B, 100C, 100D Video processing device 110, 110A, 110B, 110C, 110D Control unit 111 Video data acquisition unit 112 Eye gaze estimation unit 113 Gaze point deriving unit 114 Video processing unit 115 Output control unit 116 Eye gaze detection unit 117 Vehicle information acquisition Part 118 Surrounding information acquisition part 119 Gaze point history management part 120 Mirror position acquisition part 121 Relative position calculation part 122 Driving skill determination part 130 Storage part

Claims (9)

車両の周囲を撮像する撮像部から映像データを取得する映像データ取得部と、
前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定する視線推定部と、
前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出する注視点導出部と、
前記注視点を基準とした注視映像データを前記映像データから切出す映像処理部と、
前記注視映像データを出力する出力制御部と、を備える、
映像処理装置。
A video data acquisition unit that acquires video data from an imaging unit that images the surroundings of the vehicle;
A line-of-sight estimation unit that estimates the line-of-sight direction of the driver based on the position and orientation of the head of the driver who drives the vehicle,
A gazing point deriving unit for deriving a gazing point of the driver based on the line-of-sight direction of the driver,
An image processing unit that cuts out gaze image data based on the gaze point from the image data,
An output control unit for outputting the gaze image data,
Video processing device.
前記運転者の眼球の映像に基づいて、前記運転者の視線方向を検出する視線方向検出部をさらに備える、
請求項1に記載の映像処理装置。
Further comprising a line-of-sight direction detection unit that detects the line-of-sight direction of the driver based on the image of the eyeball of the driver,
The video processing device according to claim 1.
前記車両の車両速度を含む車両情報を取得する車両情報取得部をさらに備え、
前記映像処理部は、前記車両情報と、前記視線方向に基づいて、前記注視映像データの切出し範囲を決定する、
請求項1または2に記載の映像処理装置。
Further comprising a vehicle information acquisition unit for acquiring vehicle information including the vehicle speed of the vehicle,
The image processing unit determines a cutout range of the gaze image data based on the vehicle information and the line-of-sight direction,
The video processing device according to claim 1.
前記映像処理部は、前記車両の周辺の周辺情報に基づいて、前記注視映像データの切出し範囲を決定する、
請求項1から3のいずれか1項に記載の映像処理装置。
The video processing unit determines a cutout range of the gaze video data based on peripheral information of the periphery of the vehicle,
The video processing device according to claim 1.
前記映像処理部は、前記映像データまたは前記注視映像データにおいて、前記運転者の視線の動きを可視化する、
請求項1から4のいずれか1項に記載の映像処理装置。
The image processing unit visualizes the movement of the driver's line of sight in the image data or the gaze image data,
The video processing device according to claim 1.
前記運転者の視線の動きに基づいて、前記運転者の運転技術の習熟度を判定する運転技術判定部をさらに備える、
請求項5に記載の映像処理装置。
Based on the movement of the driver's line of sight, further comprising a driving skill determination unit that determines the skill level of the driving skill of the driver,
The video processing device according to claim 5.
前記注視点の履歴を管理し、前記注視点の左方向、右方向および上下方向の少なくとも一方の最頻注視点を導出する注視点履歴管理部と、
前記車両のサイドミラーまたはルームミラーの位置を、前記運転者からの相対位置として取得するミラー位置取得部とをさらに備え、
前記映像処理部は、前記最頻注視点と、前記サイドミラーまたは前記ルームミラーの相対位置とを整合させることで、前記注視点の基準を補正する、
請求項1から6のいずれか1項に記載の映像処理装置。
A gazing point history management unit that manages the history of the gazing point and derives the most frequent gazing point in at least one of the left direction, the right direction, and the vertical direction of the gazing point,
Further comprising a mirror position acquisition unit for acquiring the position of the side mirror or the rearview mirror of the vehicle as a relative position from the driver,
The image processing unit corrects the reference of the gazing point by matching the most frequent gazing point and the relative position of the side mirror or the room mirror.
The video processing device according to claim 1.
車両の周囲を撮像する撮像部から映像データを取得するステップと、
前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定するステップと、
前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出するステップと、
前記注視点を基準とした注視映像データを前記映像データから切出すステップと、
前記注視映像データを出力するステップと、を含む、
映像処理方法。
A step of acquiring video data from an image capturing unit that captures an image of the surroundings of the vehicle;
Estimating the line-of-sight direction of the driver based on the position and orientation of the head of the driver driving the vehicle,
Deriving a gazing point of the driver based on the line-of-sight direction of the driver,
Cutting out gaze image data based on the gaze point from the image data,
Outputting the gaze image data,
Video processing method.
車両の周囲を撮像する撮像部から映像データを取得するステップと、
前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定するステップと、
前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出するステップと、
前記注視点を基準とした注視映像データを前記映像データから切出すステップと、
前記注視映像データを出力するステップと、
を映像処理装置として動作するコンピュータに実行させるためのプログラム。
A step of acquiring video data from an image capturing unit that captures an image of the surroundings of the vehicle;
Estimating the line-of-sight direction of the driver based on the position and orientation of the head of the driver driving the vehicle,
Deriving a gazing point of the driver based on the line-of-sight direction of the driver,
Cutting out gaze image data based on the gaze point from the image data,
Outputting the gaze image data,
A program for causing a computer that operates as a video processing device to execute.
JP2019003707A 2019-01-11 2019-01-11 Video processing device and video processing method Active JP7275586B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019003707A JP7275586B2 (en) 2019-01-11 2019-01-11 Video processing device and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019003707A JP7275586B2 (en) 2019-01-11 2019-01-11 Video processing device and video processing method

Publications (3)

Publication Number Publication Date
JP2020113066A true JP2020113066A (en) 2020-07-27
JP2020113066A5 JP2020113066A5 (en) 2022-01-19
JP7275586B2 JP7275586B2 (en) 2023-05-18

Family

ID=71666943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019003707A Active JP7275586B2 (en) 2019-01-11 2019-01-11 Video processing device and video processing method

Country Status (1)

Country Link
JP (1) JP7275586B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7140895B1 (en) 2021-08-13 2022-09-21 東京海上日動火災保険株式会社 Accident analysis device, accident analysis method and program
WO2023272635A1 (en) * 2021-06-30 2023-01-05 华为技术有限公司 Target position determining method, determining apparatus and determining system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182307A (en) * 2003-12-17 2005-07-07 Denso Corp Vehicle driving support device
JP2012008790A (en) * 2010-06-24 2012-01-12 Toshiba Alpine Automotive Technology Corp Driving support device and driving support method
JP2013016037A (en) * 2011-07-04 2013-01-24 Toyota Central R&D Labs Inc Traveling scene recognition model generation device, driving support device, and program
JPWO2011064831A1 (en) * 2009-11-30 2013-04-11 富士通株式会社 Diagnostic device and diagnostic method
JP2014048885A (en) * 2012-08-31 2014-03-17 Daimler Ag Diminished attentiveness detection system
JP2014194625A (en) * 2013-03-28 2014-10-09 Fujitsu Ltd Visual confirmation evaluation device, method and program
JP2015211741A (en) * 2014-05-02 2015-11-26 富士通株式会社 Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method
JP2018069806A (en) * 2016-10-25 2018-05-10 アイシン精機株式会社 Display control device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011064831A (en) 2009-09-15 2011-03-31 Ricoh Co Ltd Image forming apparatus and image forming method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182307A (en) * 2003-12-17 2005-07-07 Denso Corp Vehicle driving support device
JPWO2011064831A1 (en) * 2009-11-30 2013-04-11 富士通株式会社 Diagnostic device and diagnostic method
JP2012008790A (en) * 2010-06-24 2012-01-12 Toshiba Alpine Automotive Technology Corp Driving support device and driving support method
JP2013016037A (en) * 2011-07-04 2013-01-24 Toyota Central R&D Labs Inc Traveling scene recognition model generation device, driving support device, and program
JP2014048885A (en) * 2012-08-31 2014-03-17 Daimler Ag Diminished attentiveness detection system
JP2014194625A (en) * 2013-03-28 2014-10-09 Fujitsu Ltd Visual confirmation evaluation device, method and program
JP2015211741A (en) * 2014-05-02 2015-11-26 富士通株式会社 Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method
JP2018069806A (en) * 2016-10-25 2018-05-10 アイシン精機株式会社 Display control device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023272635A1 (en) * 2021-06-30 2023-01-05 华为技术有限公司 Target position determining method, determining apparatus and determining system
JP7140895B1 (en) 2021-08-13 2022-09-21 東京海上日動火災保険株式会社 Accident analysis device, accident analysis method and program
JP2023026182A (en) * 2021-08-13 2023-02-24 東京海上日動火災保険株式会社 Accident analysis device, accident analysis method and program

Also Published As

Publication number Publication date
JP7275586B2 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
JP6081570B2 (en) Driving support device and image processing program
JP5099451B2 (en) Vehicle periphery confirmation device
US8330816B2 (en) Image processing device
US20060262140A1 (en) Method and apparatus to facilitate visual augmentation of perceived reality
US20200282832A1 (en) Display device and computer program
JP2010160606A (en) Information presentation system for vehicle
JP2010033106A (en) Driver support device, driver support method, and driver support processing program
JP7006460B2 (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
JP6890288B2 (en) Image processing equipment, image display system and image processing method
KR20190018708A (en) Digital rearview mirror control unit and method
JP7275586B2 (en) Video processing device and video processing method
JP2012153256A (en) Image processing apparatus
JP5422622B2 (en) Head-up display device
JPWO2020105685A1 (en) Display controls, methods, and computer programs
JP2007025739A (en) Image display device for vehicle
JP4857159B2 (en) Vehicle driving support device
JP2009105741A (en) In-vehicle perimeter monitoring system
JP2005214730A (en) Image display device, method, and program for vehicle
JP2007280203A (en) Information presenting device, automobile and information presenting method
JP2007133644A (en) Pedestrian recognition device
JP5083137B2 (en) Driving assistance device
JP2007218655A (en) Navigation device
JP7218237B2 (en) Moving object detector
JP2018019155A (en) Display controller for vehicle, display system for vehicle, display control method for vehicle and program
TW202141975A (en) Vehicle-mounted display device based on automobile a-pillar, method, system and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R150 Certificate of patent or registration of utility model

Ref document number: 7275586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150