JP2022048481A - Object recognition control device and object recognition control method - Google Patents

Object recognition control device and object recognition control method Download PDF

Info

Publication number
JP2022048481A
JP2022048481A JP2020154319A JP2020154319A JP2022048481A JP 2022048481 A JP2022048481 A JP 2022048481A JP 2020154319 A JP2020154319 A JP 2020154319A JP 2020154319 A JP2020154319 A JP 2020154319A JP 2022048481 A JP2022048481 A JP 2022048481A
Authority
JP
Japan
Prior art keywords
video data
driver
vehicle
confirmation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020154319A
Other languages
Japanese (ja)
Inventor
康利 酒井
Yasutoshi Sakai
啓太 林
Keita Hayashi
紘史 谷山
Hiroshi Taniyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020154319A priority Critical patent/JP2022048481A/en
Publication of JP2022048481A publication Critical patent/JP2022048481A/en
Pending legal-status Critical Current

Links

Images

Abstract

To appropriately recognize an object.SOLUTION: A control section 20 being an object recognition control device includes: a video data acquisition section 21 for acquiring video data photographed by a camera 11 for photographing the periphery of a vehicle; a confirmation direction detection section 22 for detecting a visual line direction of an operator of the vehicle and detecting a direction which is not surely visually confirmed by the operator; a recognition processing section 23 for recognizing the video data acquired by the video data acquisition section 21 as a specific object when a score indicating specific object likeness is equal to or more than a threshold in the video data; and a presentation processing section 24 for presenting information of the specific object recognized by the recognition processing section 23 to the operator of the vehicle. The recognition processing section 23 changes a threshold of a score based on a direction which is detected by the confirmation direction detection section 22 and which is not surely visually confirmed by the operator.SELECTED DRAWING: Figure 1

Description

本発明は、オブジェクト認識制御装置およびオブジェクト認識制御方法に関する。 The present invention relates to an object recognition control device and an object recognition control method.

撮影画像における人物認識は、人物認識辞書を用いた認識処理において、人物らしさを示すスコアが所定の閾値以上である場合、人物であると判断する。撮影画像に対して認識辞書を用いて歩行者らしさを示すスコアが高いことで対象物が歩行者であることを判断する技術が知られている(例えば、特許文献1参照)。 In the recognition process using the person recognition dictionary, the person recognition in the captured image is determined to be a person when the score indicating the person-likeness is equal to or higher than a predetermined threshold value. There is known a technique for determining that an object is a pedestrian based on a high score indicating pedestrian-likeness using a recognition dictionary for captured images (see, for example, Patent Document 1).

特開2016-015029号公報Japanese Unexamined Patent Publication No. 2016-015029

通常は、車両の運転者の目視によって人物及び人物が乗車している自転車など注意を要する対象となる特定オブジェクトを確認しながら運転する。運転者の目視確認がある方向に集中してしまう場合、目視確認が疎かになっている方向の人物及び人物が乗車している自転車などに気が付くのが遅れたり、見落としたりするおそれがある。このような状態で、人物及び人物が乗車している自転車などの認識処理において認識漏れが生じた場合、安全を損なう可能性がある。 Normally, the driver of the vehicle visually confirms a person and a specific object that requires attention, such as a bicycle on which the person is riding, while driving. If the driver's visual confirmation is concentrated in a certain direction, there is a risk that the person in the direction in which the visual confirmation is neglected and the bicycle on which the person is riding may be delayed or overlooked. In such a state, if recognition omission occurs in the recognition process of a person and a bicycle on which the person is riding, safety may be impaired.

本発明は、上記に鑑みてなされたものであって、オブジェクトの認識を適切に行うことを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to appropriately recognize an object.

上述した課題を解決し、目的を達成するために、本発明に係るオブジェクト認識制御装置は、車両の周辺を撮影する撮影部が撮影した映像データを取得する映像データ取得部と、前記車両の運転者の視線方向を検出し、前記運転者による目視確認が疎かになっている方向を検出する確認方向検出部と、前記映像データ取得部が取得した前記映像データに対して、特定オブジェクトらしさを示すスコアが閾値以上である場合、前記特定オブジェクトとして認識する認識処理部と、前記認識処理部が認識した前記特定オブジェクトの情報を前記車両の運転者に提示する提示処理部と、を備え、前記認識処理部は、前記確認方向検出部が検出した前記運転者による目視確認が疎かになっている方向に基づいて、前記閾値を変化させる。 In order to solve the above-mentioned problems and achieve the object, the object recognition control device according to the present invention includes a video data acquisition unit that acquires video data taken by a shooting unit that shoots the periphery of the vehicle, and an operation of the vehicle. The confirmation direction detection unit that detects the line-of-sight direction of the person and detects the direction in which the visual confirmation by the driver is sparse, and the video data acquired by the video data acquisition unit show the specific object-likeness. When the score is equal to or higher than the threshold value, the recognition processing unit that recognizes the specific object and the presentation processing unit that presents the information of the specific object recognized by the recognition processing unit to the driver of the vehicle are provided. The processing unit changes the threshold value based on the direction in which the visual confirmation by the driver detected by the confirmation direction detection unit is neglected.

本発明に係るオブジェクト認識制御装置が実行するオブジェクト認識制御方法は、車両の周辺を撮影する撮影部が撮影した映像データを取得する映像データ取得ステップと、前記車両の運転者の視線方向を検出し、前記運転者による目視確認が疎かになっている方向を検出する確認方向検出ステップと、前記映像データ取得ステップで取得した映像データに対して、特定オブジェクトらしさを示すスコアが閾値以上である場合、前記特定オブジェクトとして認識する認識処理ステップと、前記認識処理ステップで認識した前記特定オブジェクトの情報を前記車両の運転者に提示する提示処理ステップと、を含み、前記認識処理ステップにおいては、前記確認方向検出ステップが検出した前記運転者による目視確認が疎かになっている方向に基づいて、前記閾値を変化させる。 The object recognition control method executed by the object recognition control device according to the present invention detects a video data acquisition step of acquiring video data taken by a shooting unit that shoots the periphery of the vehicle and a line-of-sight direction of the driver of the vehicle. When the score indicating the specific object-likeness is equal to or higher than the threshold value for the video data acquired in the confirmation direction detection step for detecting the direction in which the visual confirmation by the driver is sparse and the video data acquisition step. In the recognition processing step, the confirmation direction includes a recognition processing step of recognizing the specific object and a presentation processing step of presenting the information of the specific object recognized in the recognition processing step to the driver of the vehicle. The threshold value is changed based on the direction in which the visual confirmation by the driver detected by the detection step is sparse.

本発明によれば、オブジェクトの認識を適切に行うことができるという効果を奏する。 According to the present invention, there is an effect that the object can be recognized appropriately.

図1は、第一実施形態に係るオブジェクト認識制御装置を有するオブジェクト認識装置の構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of an object recognition device having an object recognition control device according to the first embodiment. 図2は、映像データにおける範囲の一例を示す概略図である。FIG. 2 is a schematic diagram showing an example of a range in video data. 図3は、映像データにおける範囲の他の例を示す概略図である。FIG. 3 is a schematic diagram showing another example of the range in the video data. 図4は、第一実施形態に係るオブジェクト認識制御装置における処理の流れを示すフローチャートである。FIG. 4 is a flowchart showing a processing flow in the object recognition control device according to the first embodiment. 図5は、映像データにおける範囲の一例を示す概略図である。FIG. 5 is a schematic diagram showing an example of a range in video data. 図6は、映像データにおける範囲の他の例を示す概略図である。FIG. 6 is a schematic diagram showing another example of the range in the video data.

以下に添付図面を参照して、本発明に係るオブジェクト認識制御装置およびオブジェクト認識制御方法の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of the object recognition control device and the object recognition control method according to the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the following embodiments.

[第一実施形態]
<オブジェクト認識装置>
図1は、第一実施形態に係るオブジェクト認識制御装置である制御部20を有するオブジェクト認識装置10の構成例を示すブロック図である。オブジェクト認識装置10は、映像データに対してオブジェクト認識辞書を用いた認識処理を行って、オブジェクトを認識する。オブジェクト認識装置10は、認識したオブジェクトに関する情報を運転者に通知する。
[First Embodiment]
<Object recognition device>
FIG. 1 is a block diagram showing a configuration example of an object recognition device 10 having a control unit 20 which is an object recognition control device according to the first embodiment. The object recognition device 10 recognizes an object by performing a recognition process using an object recognition dictionary on the video data. The object recognition device 10 notifies the driver of information about the recognized object.

オブジェクト認識装置10は、カメラ(撮影部)11と、車内カメラ12と、認識辞書記憶部13と、表示部14と、制御部(オブジェクト認識制御装置)20とを有する。オブジェクト認識装置10は、例えば、車両にあらかじめ設置されている安全運転支援機能を有する装置やナビゲーション装置、ドライブレコーダー等の機能として実装されていてもよい。 The object recognition device 10 includes a camera (shooting unit) 11, an in-vehicle camera 12, a recognition dictionary storage unit 13, a display unit 14, and a control unit (object recognition control device) 20. The object recognition device 10 may be implemented as a function of, for example, a device having a safe driving support function, a navigation device, a drive recorder, etc., which are installed in advance in the vehicle.

カメラ11は、車両の周辺を撮影するカメラである。カメラ11は、車両に搭載され、車両の進行方向を撮影する。カメラ11は、遠赤外線カメラ、可視光カメラ、または遠赤外線カメラおよび可視光カメラの組み合わせで構成される。カメラ11は、例えば、車両の進行方向である前方を撮影可能な位置に配置されている。カメラ11は、エンジンが始動してから停止するまでの間、つまり車両が動作している間は、映像を常時撮影する。カメラ11は、撮影した映像データを制御部20の映像データ取得部21へ出力する。映像データは、例えば毎秒30フレームの画像から構成される動画像である。本実施形態では、カメラ11は、車両の前方に配置されている。 The camera 11 is a camera that photographs the periphery of the vehicle. The camera 11 is mounted on the vehicle and photographs the traveling direction of the vehicle. The camera 11 is composed of a far-infrared camera, a visible light camera, or a combination of a far-infrared camera and a visible light camera. The camera 11 is arranged, for example, at a position where the front side, which is the traveling direction of the vehicle, can be photographed. The camera 11 constantly captures images from the start of the engine to the stop of the engine, that is, while the vehicle is in operation. The camera 11 outputs the captured video data to the video data acquisition unit 21 of the control unit 20. The video data is, for example, a moving image composed of an image of 30 frames per second. In this embodiment, the camera 11 is arranged in front of the vehicle.

車内カメラ12は、車両の車室内を撮影するカメラである。車内カメラ12は、運転席に着座している運転者の顔部を撮影可能な位置に配置されている。車内カメラ12は、例えば、可視光カメラまたは遠赤外線カメラ、または近赤外線カメラで構成される。車内カメラ12は、例えば、可視光カメラと遠赤外線カメラまたは近赤外線カメラとの組み合わせで構成されてもよい。車内カメラ12は、エンジンが始動してから停止するまでの間、つまり車両が動作している間は、映像を常時撮影する。車内カメラ12は、撮影した車内映像データを制御部20の映像データ取得部21へ出力する。車内映像データは、例えば毎秒30フレームの画像から構成される動画像である。 The in-vehicle camera 12 is a camera that photographs the interior of the vehicle. The in-vehicle camera 12 is arranged at a position where the face of the driver sitting in the driver's seat can be photographed. The in-vehicle camera 12 is composed of, for example, a visible light camera, a far-infrared camera, or a near-infrared camera. The in-vehicle camera 12 may be composed of, for example, a combination of a visible light camera and a far-infrared camera or a near-infrared camera. The in-vehicle camera 12 constantly captures an image from the start of the engine to the stop of the engine, that is, while the vehicle is in operation. The in-vehicle camera 12 outputs the captured in-vehicle video data to the video data acquisition unit 21 of the control unit 20. The in-vehicle video data is, for example, a moving image composed of an image of 30 frames per second.

認識辞書記憶部13は、映像データから各種のオブジェクトを認識するための辞書データ記憶している。認識辞書記憶部13は、例えば、特定オブジェクトが撮影された様々な映像を機械学習させ、映像データに含まれるオブジェクトが特定オブジェクトであることを照合可能なオブジェクト認識辞書を記憶している。認識辞書記憶部13は、例えば、ROM(Read Only Memory)、フラッシュメモリなどの半導体メモリ素子、または、ネットワークを介した外部記憶装置などの記憶装置である。 The recognition dictionary storage unit 13 stores dictionary data for recognizing various objects from video data. The recognition dictionary storage unit 13 stores, for example, an object recognition dictionary capable of machine learning various images captured by a specific object and collating that the object included in the image data is a specific object. The recognition dictionary storage unit 13 is, for example, a storage device such as a ROM (Read Only Memory), a semiconductor memory element such as a flash memory, or an external storage device via a network.

表示部14は、各種の情報を表示する装置であり、一例としては、オブジェクト認識装置10に固有の表示装置、または、ドライブレコーダー及びナビゲーションシステムを含む他のシステムと共用した表示装置などである。表示部14は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどを含むディスプレイである。表示部14は、制御部20の提示処理部24から出力された映像信号に基づいて、映像を表示する。本実施形態では、表示部14は、車両の運転者が運転中に目視可能な位置に配置されている。 The display unit 14 is a device that displays various types of information, and as an example, is a display device unique to the object recognition device 10, or a display device shared with other systems including a drive recorder and a navigation system. The display unit 14 is a display including, for example, a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL (Electro-Luminence) display. The display unit 14 displays a video based on the video signal output from the presentation processing unit 24 of the control unit 20. In the present embodiment, the display unit 14 is arranged at a position that can be visually recognized by the driver of the vehicle while driving.

<オブジェクト認識制御装置>
制御部20は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置(制御装置)である。制御部20は、記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部20には図示しない内部メモリが含まれ、内部メモリは制御部20におけるデータの一時記憶などに用いられる。このため、制御部20は、オブジェクト認識装置10によるオブジェクト認識方法を実行させる。また、制御部20は、本発明にかかるプログラムを動作させるコンピュータである。制御部20は、バス20Xに接続された、映像データ取得部21と、確認方向検出部22と、認識処理部23と、提示処理部24とを有する。
<Object recognition control device>
The control unit 20 is, for example, an arithmetic processing unit (control device) configured by a CPU (Central Processing Unit) or the like. The control unit 20 loads the stored program into the memory and executes the instruction included in the program. The control unit 20 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the control unit 20 and the like. Therefore, the control unit 20 causes the object recognition device 10 to execute the object recognition method. Further, the control unit 20 is a computer that operates the program according to the present invention. The control unit 20 includes a video data acquisition unit 21, a confirmation direction detection unit 22, a recognition processing unit 23, and a presentation processing unit 24, which are connected to the bus 20X.

映像データ取得部21は、カメラ11が撮影した映像データを取得する。より詳しくは、映像データ取得部21は、カメラ11が出力した、車両の進行方向である前方を撮影した映像データを取得する。 The video data acquisition unit 21 acquires video data taken by the camera 11. More specifically, the video data acquisition unit 21 acquires video data output by the camera 11 and captured in front of the vehicle in the traveling direction.

映像データ取得部21は、車内カメラ12が撮影した映像データを取得する。より詳しくは、映像データ取得部21は、車内カメラ12が出力した車内映像データであり、車両の運転者の顔が撮影された映像データを取得する。 The video data acquisition unit 21 acquires video data taken by the in-vehicle camera 12. More specifically, the video data acquisition unit 21 acquires in-vehicle video data output by the in-vehicle camera 12 and acquires video data in which the face of the driver of the vehicle is photographed.

確認方向検出部22は、車両の運転者の視線方向を検出し、運転者による目視確認が疎かになっている方向を検出する。本実施形態では、確認方向検出部22は、車内カメラ12が撮影した車内映像データに画像処理を行って、運転者の顔部を認識して運転者による目視確認が疎かになっている方向を検出する。より詳しくは、確認方向検出部22は、例えば、車内映像データから運転者の眼を認識して、視線の向きを示す情報を取得する。確認方向検出部22は、車両の運転者の視線の向きから、運転者が目視確認している方向に偏りがあるか否か、言い換えると、運転者による目視確認が疎かになっている方向があるか否かを判定する。車両の運転者の目の映像に基づく視線検出は、目の映像から検出した目頭と光彩の位置関係に基づく視線検出や、角膜反射と瞳孔の位置関係に基づく視線検出など任意の手法が適用可能である。 The confirmation direction detection unit 22 detects the line-of-sight direction of the driver of the vehicle, and detects the direction in which the visual confirmation by the driver is neglected. In the present embodiment, the confirmation direction detection unit 22 performs image processing on the in-vehicle video data taken by the in-vehicle camera 12, recognizes the driver's face, and indicates a direction in which the driver's visual confirmation is neglected. To detect. More specifically, the confirmation direction detection unit 22 recognizes the driver's eyes from, for example, in-vehicle video data, and acquires information indicating the direction of the line of sight. The confirmation direction detection unit 22 indicates whether or not there is a bias in the direction visually confirmed by the driver from the direction of the driver's line of sight of the vehicle, in other words, the direction in which the driver's visual confirmation is sparse. Determine if it exists. Any method can be applied to the line-of-sight detection based on the image of the driver's eyes, such as the line-of-sight detection based on the positional relationship between the inner corner of the eye and the glow detected from the image of the eye, or the line-of-sight detection based on the positional relationship between the corneal reflex and the pupil. Is.

本実施形態では、確認方向検出部22は、車両の運転者が車両の進行方向である前方を向いているときにおける、正面方向または左右方向に対して目視確認が疎かになっている方向を検出する。 In the present embodiment, the confirmation direction detection unit 22 detects a direction in which visual confirmation is sparse with respect to the front direction or the left-right direction when the driver of the vehicle is facing forward, which is the traveling direction of the vehicle. do.

確認方向検出部22は、運転者の顔の向きおよび視線方向から、運転者が車両の運転中に車両の進行方向である正面方向を向いている場合や、定期的に左右方向などを向いている場合は、車両の運転者による目視確認が疎かになっている方向はないと判断する。確認方向検出部22は、例えば、運転者が右前方に視線を向けている期間が、例えば5秒以上継続されている場合、左方向の目視確認が疎かになっていると判断する。確認方向検出部22は、例えば、運転者が左前方に視線を向けている期間が、例えば5秒以上継続されている場合、右方向の目視確認が疎かになっていると判断する。 The confirmation direction detection unit 22 faces the front direction, which is the traveling direction of the vehicle, while the driver is driving, or periodically faces the left-right direction, etc., from the direction of the driver's face and the line-of-sight direction. If so, it is judged that there is no direction in which the visual confirmation by the driver of the vehicle is neglected. The confirmation direction detection unit 22 determines that, for example, when the period in which the driver is looking forward to the right continues for, for example, 5 seconds or more, the visual confirmation in the left direction is sparse. The confirmation direction detection unit 22 determines that, for example, when the period in which the driver is looking forward to the left continues for, for example, 5 seconds or more, the visual confirmation in the right direction is sparse.

認識処理部23は、映像データ取得部21が取得した映像データから、車両の周辺の特定オブジェクトを認識する。認識処理部23は、映像データに対して、認識辞書記憶部13が記憶しているオブジェクト認識辞書を用いたパターンマッチングを行って、特定オブジェクトを認識するオブジェクト認識処理を行う。オブジェクト認識処理においては、公知の方法を使用可能である。認識処理部23は、オブジェクト認識装置10が起動している間は、常時処理を行ってもよい。 The recognition processing unit 23 recognizes a specific object around the vehicle from the video data acquired by the video data acquisition unit 21. The recognition processing unit 23 performs pattern matching on the video data using the object recognition dictionary stored in the recognition dictionary storage unit 13 to perform object recognition processing for recognizing a specific object. A known method can be used in the object recognition process. The recognition processing unit 23 may always perform processing while the object recognition device 10 is running.

特定オブジェクトとは、人物、人物が乗車している自転車を含む二輪車、および、他車両を含む。 The specific object includes a person, a two-wheeled vehicle including a bicycle on which the person is riding, and another vehicle.

認識処理部23は、映像データ取得部21が取得した映像データに対して、特定オブジェクトらしさを示すスコアが所定の閾値以上である場合、特定オブジェクトとして認識する。通常時のスコアの閾値を規定値Aとする。スコアの閾値は、確認方向検出部22による検出結果に応じて変更される。変更されたスコアの閾値をBとする。 The recognition processing unit 23 recognizes the video data acquired by the video data acquisition unit 21 as a specific object when the score indicating the specific object-likeness is equal to or higher than a predetermined threshold value. The threshold value of the normal score is set to the specified value A. The threshold value of the score is changed according to the detection result by the confirmation direction detection unit 22. Let B be the threshold of the changed score.

認識処理部23は、確認方向検出部22の検出結果に基づいて、スコアの閾値を変化させて特定オブジェクトを認識する。認識処理部23は、確認方向検出部22が検出した運転者による目視確認が疎かになっている方向に基づいて、スコアの閾値を変化させる。より詳しくは、認識処理部23は、検出結果が、運転者による目視確認が疎かになっている方向があることを示す場合、目視確認が疎かになっている方向に対して、通常時のスコアの閾値Aよりも低い閾値B(B<A)を用いて特定オブジェクトとして認識する。これにより、運転者による目視確認が疎かになっている方向があることを示す場合、特定オブジェクトとして認識されやすくする。認識処理部23は、検出結果が、運転者による目視確認が疎かになっている方向がないことを示す場合、通常時のスコアの閾値Aを用いて特定オブジェクトとして認識する。 The recognition processing unit 23 recognizes a specific object by changing the threshold value of the score based on the detection result of the confirmation direction detection unit 22. The recognition processing unit 23 changes the score threshold value based on the direction in which the driver's visual confirmation detected by the confirmation direction detection unit 22 is sparse. More specifically, when the detection result indicates that there is a direction in which the visual confirmation by the driver is sparse, the recognition processing unit 23 sets the normal score with respect to the direction in which the visual confirmation is sparse. It is recognized as a specific object by using a threshold value B (B <A) lower than the threshold value A of. This makes it easier for the driver to recognize the object as a specific object when it indicates that there is a direction in which the visual confirmation by the driver is sparse. When the detection result indicates that there is no direction in which the visual confirmation by the driver is sparse, the recognition processing unit 23 recognizes the object as a specific object by using the threshold value A of the score at the normal time.

例えば、特定オブジェクトらしさを示すスコアは最大1.0である。一例として、閾値Aを0.9、閾値Bを0.7とする。認識処理部23は、通常時は、スコアが0.9以上である場合、検出したオブジェクトが特定オブジェクトであると判断する。認識処理部23は、運転者による目視確認が疎かになっている方向があるときは、目視確認が疎かになっている方向に対して、スコアが0.7以上である場合、検出したオブジェクトが特定オブジェクトであると判断する。認識処理部23は、スコアが0.7以上であることを条件としてオブジェクト認識を行っているときは、運転者による目視確認が疎かになっている方向がなくなったときに、通常の閾値を用いる認識処理に戻る。 For example, the maximum score indicating the uniqueness of a specific object is 1.0. As an example, the threshold value A is 0.9 and the threshold value B is 0.7. Normally, when the score is 0.9 or more, the recognition processing unit 23 determines that the detected object is a specific object. When the recognition processing unit 23 has a direction in which the visual confirmation by the driver is sparse, the detected object is detected when the score is 0.7 or more with respect to the direction in which the visual confirmation is sparse. Judge that it is a specific object. When the recognition processing unit 23 performs object recognition on the condition that the score is 0.7 or more, the recognition processing unit 23 uses a normal threshold value when there is no direction in which the visual confirmation by the driver is sparse. Return to the recognition process.

スコアの閾値は、特定オブジェクトごとに、言い換えると、認識辞書ごとに設定されていてもよい。 The score threshold value may be set for each specific object, in other words, for each recognition dictionary.

スコアの閾値は、段階的に変化させてもよいし、目視確認が疎かになっている方向から疎かになっていない方向に対してリニアに変化させてもよい。 The threshold value of the score may be changed stepwise, or may be changed linearly from the direction in which the visual confirmation is sparse to the direction in which the visual confirmation is not sparse.

認識処理部23は、映像データ取得部21が取得した映像データにおける、確認方向検出部22が検出した運転者による目視確認が疎かになっている方向に対して、スコアの閾値を低くしてもよい。 Even if the recognition processing unit 23 lowers the threshold value of the score in the video data acquired by the video data acquisition unit 21, the threshold value of the score is lowered with respect to the direction in which the driver's visual confirmation detected by the confirmation direction detection unit 22 is sparse. good.

図2は、映像データ100における範囲の一例を示す概略図である。図2に示すように、映像データ100を左右方向の中心線を境にして、左側範囲ALと右側範囲ARとに分けてもよい。認識処理部23は、映像データ100に対して、例えば、運転者による目視確認が疎かになっている方向が右側範囲ARである場合、映像データ100の右側範囲ARについてスコアの閾値を低くしてもよい。この場合、運転者による目視確認が疎かになっていない、左側範囲ALについてスコアの閾値は通常の閾値とする。 FIG. 2 is a schematic diagram showing an example of the range in the video data 100. As shown in FIG. 2, the video data 100 may be divided into a left range AL and a right range AR with the center line in the left-right direction as a boundary. For example, when the direction in which the driver does not visually confirm the video data 100 is the right range AR, the recognition processing unit 23 lowers the score threshold value for the right range AR of the video data 100. May be good. In this case, the threshold value of the score is the normal threshold value for the left range AL, which is not neglected by the driver.

図3は、映像データにおける範囲の他の例を示す概略図である。図3に示すように、映像データ100を左右方向の中心部である中央範囲ACを設定し、左側範囲ALと右側範囲ARとに分けてもよい。認識処理部23は、映像データ100に対して、例えば、運転者による目視確認が疎かになっている方向が右側範囲ARである場合、映像データ100の右側範囲ARについてスコアの閾値を低くしてもよい。この場合、運転者による目視確認が疎かになっていない左側範囲ALおよび中央範囲ACについてスコアの閾値は通常の閾値とする。 FIG. 3 is a schematic diagram showing another example of the range in the video data. As shown in FIG. 3, the video data 100 may be divided into a left range AL and a right range AR by setting a central range AC which is a central portion in the left-right direction. For example, when the direction in which the driver does not visually confirm the video data 100 is the right range AR, the recognition processing unit 23 lowers the score threshold value for the right range AR of the video data 100. May be good. In this case, the score threshold is the normal threshold for the left range AL and the center range AC where the visual confirmation by the driver is not neglected.

提示処理部24は、認識処理部23が認識した特定オブジェクトの情報を車両の運転者に提示する。提示処理部24が認識した特定オブジェクトの情報を提示することによって、車両の運転者に対して、特定オブジェクトへの注意を促す。提示処理部24は、表示部14による表示または図示しない音声出力部から出力される音声を用いて、認識した特定オブジェクトの情報を運転者に提示する。このため、提示処理部24は、表示部14による表示で特定オブジェクトの情報を運転者に提示する場合は、表示制御部として機能する。より詳しくは、提示処理部24は、車両の運転者に情報を提示する映像を生成する。提示処理部24は、例えば、映像データに対して、認識された特定オブジェクトの範囲に枠線を重ねて表示させる提示用映像データを生成する。提示処理部24は、例えば、特定オブジェクトへの注意を促す文字またはアイコンを表示させる提示用映像データを生成してもよい。提示処理部24は、映像とともに出力する警告音などの音声を生成してもよい。提示処理部24は、生成した映像を表示させる映像信号を表示部14に出力して、映像を表示させる。提示処理部24は、映像ともに生成した音声を出力させる音声信号を図示しないスピーカに出力してもよい。 The presentation processing unit 24 presents the information of the specific object recognized by the recognition processing unit 23 to the driver of the vehicle. By presenting the information of the specific object recognized by the presentation processing unit 24, the driver of the vehicle is alerted to the specific object. The presentation processing unit 24 presents the recognized specific object information to the driver by using the display by the display unit 14 or the voice output from the voice output unit (not shown). Therefore, the presentation processing unit 24 functions as a display control unit when the information of the specific object is presented to the driver by the display by the display unit 14. More specifically, the presentation processing unit 24 generates an image that presents information to the driver of the vehicle. The presentation processing unit 24 generates, for example, presentation video data for displaying video data by superimposing a frame line on a recognized specific object range. The presentation processing unit 24 may generate presentation video data for displaying characters or icons that call attention to a specific object, for example. The presentation processing unit 24 may generate audio such as a warning sound to be output together with the video. The presentation processing unit 24 outputs a video signal for displaying the generated video to the display unit 14 to display the video. The presentation processing unit 24 may output an audio signal for outputting the audio generated together with the video to a speaker (not shown).

車両の運転者に提示する映像は、例えば、車両の周辺に特定オブジェクトが検出されたことを示す文字またはアイコンなどの映像である。 The image presented to the driver of the vehicle is, for example, an image such as a character or an icon indicating that a specific object has been detected around the vehicle.

<制御部における処理>
次に、図4を用いて、制御部20における処理の流れについて説明する。図4は、第一実施形態に係るオブジェクト認識制御装置である制御部20における処理の流れを示すフローチャートである。オブジェクト認識装置10が起動されると、図4に示すフローチャートの処理が開始される。図4の処理の開始は、任意の条件で開始される。例えば、オブジェクト認識装置10を搭載している車両のエンジンが始動するなど車両が利用可能になった場合や、ユーザの操作によってオブジェクト認識装置10の動作が開始されたときなどである。また、ステップS101の処理は、車両が走行していることを条件として実行されてもよい。
<Processing in the control unit>
Next, the flow of processing in the control unit 20 will be described with reference to FIG. FIG. 4 is a flowchart showing a processing flow in the control unit 20 which is the object recognition control device according to the first embodiment. When the object recognition device 10 is activated, the processing of the flowchart shown in FIG. 4 is started. The start of the process of FIG. 4 is started under arbitrary conditions. For example, when the vehicle becomes available, such as when the engine of the vehicle equipped with the object recognition device 10 starts, or when the operation of the object recognition device 10 is started by the user's operation. Further, the process of step S101 may be executed on condition that the vehicle is running.

図4の処理の開始に伴い、制御部20は、撮影及びオブジェクト認識処理を開始する(ステップS101)。より詳しくは、制御部20は、カメラ11によって撮影を開始させる。制御部20は、映像データ取得部21によって、カメラ11が出力した映像データを取得する。制御部20は、認識処理部23によって、映像データ取得部21が取得した映像データから、車両の周辺の特定オブジェクトを認識する。ステップS101におけるオブジェクト認識処理のスコアの閾値は、通常時のスコアの閾値Aである。例えば、制御部20は、認識処理部23によって、スコアが0.9以上である場合、検出したオブジェクトが特定オブジェクトであると判断する。また、制御部20は、車内カメラ12によって撮影を開始させる。制御部20は、映像データ取得部21によって、車内カメラ12が出力した車内映像データを取得する。制御部20は、ステップS102に進む。 With the start of the process of FIG. 4, the control unit 20 starts the shooting and the object recognition process (step S101). More specifically, the control unit 20 starts shooting by the camera 11. The control unit 20 acquires the video data output by the camera 11 by the video data acquisition unit 21. The control unit 20 recognizes a specific object around the vehicle from the video data acquired by the video data acquisition unit 21 by the recognition processing unit 23. The threshold value of the score of the object recognition process in step S101 is the threshold value A of the score at the normal time. For example, the control unit 20 determines that the detected object is a specific object when the score is 0.9 or more by the recognition processing unit 23. Further, the control unit 20 starts shooting by the in-vehicle camera 12. The control unit 20 acquires the in-vehicle video data output by the in-vehicle camera 12 by the video data acquisition unit 21. The control unit 20 proceeds to step S102.

ステップS101による処理が開始されるとともに、制御部20は、運転者による目視確認が疎かになっている方向があるか否かを判定する(ステップS102)。より詳しくは、制御部20は、確認方向検出部22によって、映像データ取得部21が取得した映像データから、運転者の視線を検出する。制御部20は、確認方向検出部22の検出結果が、運転者による目視確認が疎かになっている方向があることを示す場合(ステップS102でYes)、ステップS104へ進む。制御部20は、確認方向検出部22の検出結果が、運転者による目視確認が疎かになっている方向がないことを示す場合(ステップS102でNo)、ステップS103へ進む。 At the same time as the process in step S101 is started, the control unit 20 determines whether or not there is a direction in which the visual confirmation by the driver is neglected (step S102). More specifically, the control unit 20 detects the driver's line of sight from the video data acquired by the video data acquisition unit 21 by the confirmation direction detection unit 22. When the detection result of the confirmation direction detection unit 22 indicates that there is a direction in which the visual confirmation by the driver is sparse (Yes in step S102), the control unit 20 proceeds to step S104. When the detection result of the confirmation direction detection unit 22 indicates that there is no direction in which the visual confirmation by the driver is sparse (No in step S102), the control unit 20 proceeds to step S103.

運転者による目視確認が疎かになっている方向がないことを示す場合(ステップS102でNo)、制御部20は、認識処理部23によって、通常時のスコアの閾値Aを用いて特定オブジェクト認識処理を実行する(ステップS103)。より詳しくは、認識処理部23は、スコアが0.9以上である場合、検出したオブジェクトが特定オブジェクトであると判断する。制御部20は、ステップS105へ進む。 When it is shown that there is no direction in which the visual confirmation by the driver is sparse (No in step S102), the control unit 20 performs the specific object recognition process by the recognition process unit 23 using the threshold value A of the normal score. Is executed (step S103). More specifically, when the score is 0.9 or more, the recognition processing unit 23 determines that the detected object is a specific object. The control unit 20 proceeds to step S105.

運転者による目視確認が疎かになっている方向があることを示す場合(ステップS102でYes)、制御部20は、認識処理部23によって、通常時のスコアの閾値Aよりも低い閾値Bを用いて特定オブジェクト認識処理を実行する(ステップS104)。より詳しくは、認識処理部23は、スコアが0.7以上である場合、検出したオブジェクトが特定オブジェクトであると判断する。これにより、運転者による目視確認が疎かになっている方向がある場合、通常時に比べて、検出したオブジェクトが特定オブジェクトと認識されやすくなる。制御部20は、ステップS105へ進む。 When it indicates that there is a direction in which the visual confirmation by the driver is sparse (Yes in step S102), the control unit 20 uses the threshold value B lower than the threshold value A of the normal score by the recognition processing unit 23. To execute the specific object recognition process (step S104). More specifically, when the score is 0.7 or more, the recognition processing unit 23 determines that the detected object is a specific object. As a result, when there is a direction in which the visual confirmation by the driver is sparse, the detected object is more likely to be recognized as a specific object as compared with the normal time. The control unit 20 proceeds to step S105.

制御部20は、認識処理部23のオブジェクト認識結果に基づいて、特定オブジェクトを認識したか否かを判定する(ステップS105)。制御部20は、特定オブジェクトを認識したと判定する場合(ステップS105でYes)、ステップS106へ進む。制御部20は、特定オブジェクトを認識したと判定しない場合(ステップS105でNo)、ステップS107へ進む。 The control unit 20 determines whether or not the specific object has been recognized based on the object recognition result of the recognition processing unit 23 (step S105). When the control unit 20 determines that the specific object has been recognized (Yes in step S105), the control unit 20 proceeds to step S106. If the control unit 20 does not determine that the specific object has been recognized (No in step S105), the control unit 20 proceeds to step S107.

制御部20は、提示処理部24によって、認識された特定オブジェクトの範囲に枠線を表示する(ステップS106)。より詳しくは、制御部20は、提示処理部24によって、映像データに、車両の周辺の特定オブジェクトを囲う枠線を重ねて表示部14に表示させる。制御部20は、ステップS107へ進む。 The control unit 20 displays a frame line in the range of the specific object recognized by the presentation processing unit 24 (step S106). More specifically, the control unit 20 causes the presentation processing unit 24 to superimpose a frame line surrounding a specific object around the vehicle on the video data and display it on the display unit 14. The control unit 20 proceeds to step S107.

制御部20は、撮影及びオブジェクト認識処理を終了するか否かを判定する(ステップS107)。制御部20は、例えば、オブジェクト認識処理を終了する操作を検出した場合、または、車両が停止してエンジンがOFFされた場合などは、撮影及びオブジェクト認識処理を終了すると判定する。制御部20は、撮影及びオブジェクト認識処理を終了すると判定する場合(ステップS107でYes)、処理を終了する。制御部20は、撮影及びオブジェクト認識処理を終了すると判定しない場合(ステップS107でNo)、ステップS102の処理を再度実行する。 The control unit 20 determines whether or not to end the shooting and object recognition processing (step S107). The control unit 20 determines that the shooting and the object recognition process are finished, for example, when the operation for ending the object recognition process is detected, or when the vehicle is stopped and the engine is turned off. When the control unit 20 determines that the shooting and the object recognition process are completed (Yes in step S107), the control unit 20 ends the process. If the control unit 20 does not determine that the photographing and object recognition processing is completed (No in step S107), the control unit 20 re-executes the processing in step S102.

<効果>
上述したように、本実施形態では、運転者による目視確認が疎かになっている方向があるか否かに応じて、オブジェクト認識処理におけるスコアの閾値を変化させる。本実施形態によれば、運転者による目視確認が疎かになっている方向があるか否かに応じて、特定オブジェクトの認識を適切に行うことができる。
<Effect>
As described above, in the present embodiment, the threshold value of the score in the object recognition process is changed depending on whether or not there is a direction in which the visual confirmation by the driver is sparse. According to the present embodiment, it is possible to appropriately recognize a specific object depending on whether or not there is a direction in which the driver's visual confirmation is neglected.

本実施形態では、運転者による目視確認が疎かになっている方向があることを示す場合、当該方向に対してオブジェクト認識処理におけるスコアの閾値を低くする。本実施形態によれば、運転者による目視確認が疎かになっている方向があり、運転者の人物などに対する注意が疎かになる可能性がある場合、当該方向に対して特定オブジェクトを認識しやすくすることができる。本実施形態によれば、より安全な運転を支援することができる。 In the present embodiment, when it is shown that there is a direction in which the visual confirmation by the driver is sparse, the threshold value of the score in the object recognition process is lowered with respect to the direction. According to the present embodiment, when there is a direction in which the driver's visual confirmation is neglected and there is a possibility that the driver's attention to the person or the like is neglected, it is easy to recognize the specific object in the direction. can do. According to this embodiment, safer driving can be supported.

また、本実施形態では、運転者による目視確認が疎かになっている方向があることを示す場合、当該方向に対してオブジェクト認識処理におけるスコアの閾値を低くするため、物体の陰に一部が隠れた人物などの特定オブジェクトのように通常のスコアでは特定オブジェクトとして認識されない場合であっても、特定オブジェクトとして認識する。このため、車両の運転者は、より適切に特定オブジェクトの存在を知ることができる。 Further, in the present embodiment, when it is shown that there is a direction in which the visual confirmation by the driver is sparse, a part of the object is behind the object in order to lower the threshold of the score in the object recognition process with respect to the direction. Even if it is not recognized as a specific object by a normal score like a specific object such as a hidden person, it is recognized as a specific object. Therefore, the driver of the vehicle can more appropriately know the existence of the specific object.

さらに、本実施形態では、運転者による目視確認が疎かになっている方向があることを示す場合、当該方向に対してオブジェクト認識処理におけるスコアの閾値を低くするため、特定オブジェクトではない物体を特定オブジェクトとして判断する誤認識が増加する。しかし、誤認識であっても、特定オブジェクトが存在することとして提示されるため、車両の運転者に、より安全性を重んじた運転を行わせることができる。 Further, in the present embodiment, when it is shown that there is a direction in which the visual confirmation by the driver is sparse, an object that is not a specific object is specified in order to lower the threshold value of the score in the object recognition process with respect to the direction. Misrecognition as an object increases. However, even if it is a misrecognition, it is presented as the existence of a specific object, so that the driver of the vehicle can be made to drive with more emphasis on safety.

[第二実施形態]
図5、図6を参照しながら、本実施形態に係るオブジェクト認識装置10について説明する。図5は、映像データにおける範囲の一例を示す概略図である。図6は、映像データにおける範囲の他の例を示す概略図である。第二実施形態にかかるオブジェクト認識装置10の構成は第一実施形態のオブジェクト認識装置10と同一であり、処理が異なるため、構成の説明は省略する。
[Second Embodiment]
The object recognition device 10 according to the present embodiment will be described with reference to FIGS. 5 and 6. FIG. 5 is a schematic diagram showing an example of a range in video data. FIG. 6 is a schematic diagram showing another example of the range in the video data. Since the configuration of the object recognition device 10 according to the second embodiment is the same as that of the object recognition device 10 of the first embodiment and the processing is different, the description of the configuration will be omitted.

認識処理部23は、確認方向検出部22が検出した運転者による目視確認が疎かになっている左右方向に基づいて、スコアの閾値を、運転者の正面からより離れた方向に対して小さくなるように変化させる。 The recognition processing unit 23 reduces the score threshold value in a direction farther from the front of the driver, based on the left-right direction in which the driver's visual confirmation detected by the confirmation direction detection unit 22 is sparse. To change.

図5に示すように、映像データ100を左右方向に4つに分けて、左から順番に、第一左側範囲AL1と第二左側範囲AL2と第二右側範囲AR2と第一右側範囲AR1とに分けてもよい。例えば、車両の運転者が右方向の目視確認が疎かになっている場合、第一右側範囲AR1の閾値を0.6、第二右側範囲AR2の閾値を0.7とする。例えば、車両の運転者が左方向の目視確認が疎かになっている場合、第一左側範囲AL1の閾値を0.6、第二左側範囲AL2の閾値を0.7とする。 As shown in FIG. 5, the video data 100 is divided into four in the left-right direction, and in order from the left, the first left side range AL1, the second left side range AL2, the second right side range AR2, and the first right side range AR1. You may divide it. For example, when the driver of the vehicle is not visually confirmed in the right direction, the threshold value of the first right range AR1 is 0.6 and the threshold value of the second right range AR2 is 0.7. For example, when the driver of the vehicle is not visually confirmed in the left direction, the threshold value of the first left side range AL1 is 0.6 and the threshold value of the second left side range AL2 is 0.7.

図6に示すように、映像データ100を左右方向の中心部であるAC2を設定して4つに分け、左から順番に、左側範囲AL1と左側範囲AL2と右側範囲AR2と右側範囲AR1とに分けてもよい。この場合も、上記と同様に閾値を設定可能である。 As shown in FIG. 6, the video data 100 is divided into four by setting AC2, which is the central portion in the left-right direction, and in order from the left, the left range AL1, the left range AL2, the right range AR2, and the right range AR1. You may divide it. In this case as well, the threshold value can be set in the same manner as described above.

上述したように、本実施形態では、生体情報が、集中度が低下していることを示す場合、オブジェクト認識処理のスコアの閾値を低くする。本実施形態によれば、オブジェクトの認識を適切に行うことができる。 As described above, in the present embodiment, when the biometric information indicates that the concentration is reduced, the threshold value of the score of the object recognition process is lowered. According to this embodiment, the object can be appropriately recognized.

上述した各実施形態においては、車両の運転者が車両の進行方向における右方向または左方向に対して目視確認が疎かになっている例を説明したが、車両の運転者が車両の進行方向における正面方向、つまり図3における中央範囲ACや図6における中央範囲AC2の方向から視線が所定の期間動いていない状態は、左右方向に対して、スコアの閾値を低くしてもよい。 In each of the above-described embodiments, the example in which the driver of the vehicle is not visually confirmed with respect to the right or left direction in the traveling direction of the vehicle has been described, but the driver of the vehicle is in the traveling direction of the vehicle. In the state in which the line of sight does not move for a predetermined period from the front direction, that is, the direction of the central range AC in FIG. 3 or the direction of the central range AC2 in FIG. 6, the score threshold may be lowered in the left-right direction.

これまで本発明に係るオブジェクト認識装置10について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよい。 Although the object recognition device 10 according to the present invention has been described so far, it may be implemented in various different embodiments other than the above-described embodiment.

図示したオブジェクト認識装置10の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the illustrated object recognition device 10 is functionally conceptual and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed or integrated in an arbitrary unit according to the processing load and usage status of each device. You may.

オブジェクト認識装置10の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the object recognition device 10 is realized by, for example, a program loaded in a memory as software. In the above embodiment, it has been described as a functional block realized by cooperation of these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The above-mentioned components include those that can be easily assumed by those skilled in the art and those that are substantially the same. Further, the above configurations can be combined as appropriate. Further, various omissions, substitutions or changes of the configuration can be made without departing from the gist of the present invention.

上記では、出力制御部は、表示部に情報を表示させるものとして説明したが、これに限定されない。出力制御部は、例えば、車内に設置されたスピーカから音声を出力させてもよい。 In the above, the output control unit has been described as displaying information on the display unit, but the present invention is not limited to this. The output control unit may, for example, output sound from a speaker installed in the vehicle.

10 オブジェクト認識装置
11 カメラ(撮影部)
12 車内カメラ
13 認識辞書記憶部
14 表示部
20 制御部(オブジェクト認識制御装置)
21 映像データ取得部
22 確認方向検出部
23 認識処理部
24 提示処理部
10 Object recognition device 11 Camera (shooting unit)
12 In-vehicle camera 13 Recognition dictionary storage unit 14 Display unit 20 Control unit (object recognition control device)
21 Video data acquisition unit 22 Confirmation direction detection unit 23 Recognition processing unit 24 Presentation processing unit

Claims (5)

車両の周辺を撮影する撮影部が撮影した映像データを取得する映像データ取得部と、
前記車両の運転者の視線方向を検出し、前記運転者による目視確認が疎かになっている方向を検出する確認方向検出部と、
前記映像データ取得部が取得した前記映像データに対して、特定オブジェクトらしさを示すスコアが閾値以上である場合、前記特定オブジェクトとして認識する認識処理部と、
前記認識処理部が認識した前記特定オブジェクトの情報を前記車両の運転者に提示する提示処理部と、
を備え、
前記認識処理部は、前記確認方向検出部が検出した前記運転者による目視確認が疎かになっている方向に基づいて、前記閾値を変化させる、
オブジェクト認識制御装置。
The video data acquisition unit that acquires the video data taken by the shooting unit that shoots the surroundings of the vehicle, and the video data acquisition unit.
A confirmation direction detection unit that detects the line-of-sight direction of the driver of the vehicle and detects a direction in which the visual confirmation by the driver is sparse.
When the score indicating the specific object-likeness is equal to or higher than the threshold value for the video data acquired by the video data acquisition unit, the recognition processing unit recognizes the video data as the specific object.
A presentation processing unit that presents information on the specific object recognized by the recognition processing unit to the driver of the vehicle, and a presentation processing unit.
Equipped with
The recognition processing unit changes the threshold value based on the direction in which the visual confirmation by the driver detected by the confirmation direction detection unit is sparse.
Object recognition controller.
前記認識処理部は、前記映像データ取得部が取得した前記映像データにおける、前記確認方向検出部が検出した前記運転者による目視確認が疎かになっている方向に対して、前記閾値を低くする、
請求項1に記載のオブジェクト認識制御装置。
The recognition processing unit lowers the threshold value with respect to the direction in which the visual confirmation by the driver detected by the confirmation direction detection unit is neglected in the video data acquired by the video data acquisition unit.
The object recognition control device according to claim 1.
前記確認方向検出部は、前記車両の運転者が、所定期間視線を向けていない方向を、目視確認が疎かになっている方向として検出する、
請求項1または2に記載のオブジェクト認識制御装置。
The confirmation direction detection unit detects a direction in which the driver of the vehicle has not turned his / her line of sight for a predetermined period as a direction in which visual confirmation is sparse.
The object recognition control device according to claim 1 or 2.
前記認識処理部は、前記確認方向検出部が検出した前記運転者による目視確認が疎かになっている左右方向に基づいて、前記閾値を、前記運転者の正面からより離れた方向に対して小さくなるように変化させる、
請求項3に記載のオブジェクト認識制御装置。
The recognition processing unit sets the threshold value smaller with respect to a direction farther from the front of the driver, based on the left-right direction in which the visual confirmation by the driver detected by the confirmation direction detection unit is sparse. Change to be,
The object recognition control device according to claim 3.
車両の周辺を撮影する撮影部が撮影した映像データを取得する映像データ取得ステップと、
前記車両の運転者の視線方向を検出し、前記運転者による目視確認が疎かになっている方向を検出する確認方向検出ステップと、
前記映像データ取得ステップで取得した映像データに対して、特定オブジェクトらしさを示すスコアが閾値以上である場合、前記特定オブジェクトとして認識する認識処理ステップと、
前記認識処理ステップで認識した前記特定オブジェクトの情報を前記車両の運転者に提示する提示処理ステップと、
を含み、
前記認識処理ステップにおいては、前記確認方向検出ステップが検出した前記運転者による目視確認が疎かになっている方向に基づいて、前記閾値を変化させる、
オブジェクト認識制御装置が実行するオブジェクト認識制御方法。
A video data acquisition step to acquire video data taken by the shooting unit that shoots the surroundings of the vehicle, and
A confirmation direction detection step that detects the line-of-sight direction of the driver of the vehicle and detects a direction in which the visual confirmation by the driver is sparse.
When the score indicating the specific object-likeness is equal to or higher than the threshold value for the video data acquired in the video data acquisition step, the recognition processing step for recognizing the specific object and the recognition processing step.
A presentation processing step that presents information on the specific object recognized in the recognition processing step to the driver of the vehicle, and a presentation processing step.
Including
In the recognition processing step, the threshold value is changed based on the direction in which the visual confirmation by the driver detected by the confirmation direction detection step is sparse.
The object recognition control method executed by the object recognition control device.
JP2020154319A 2020-09-15 2020-09-15 Object recognition control device and object recognition control method Pending JP2022048481A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020154319A JP2022048481A (en) 2020-09-15 2020-09-15 Object recognition control device and object recognition control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020154319A JP2022048481A (en) 2020-09-15 2020-09-15 Object recognition control device and object recognition control method

Publications (1)

Publication Number Publication Date
JP2022048481A true JP2022048481A (en) 2022-03-28

Family

ID=80844119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020154319A Pending JP2022048481A (en) 2020-09-15 2020-09-15 Object recognition control device and object recognition control method

Country Status (1)

Country Link
JP (1) JP2022048481A (en)

Similar Documents

Publication Publication Date Title
US9888875B2 (en) Driver monitoring apparatus
US10970572B2 (en) Driver condition detection system
JP5082834B2 (en) Aside look detection device and method, and program
JP2016103249A (en) Driving support device and driving support method
JP2009015550A (en) Apparatus, method and program for detecting act of looking aside
JP2020024532A (en) Inattentive driving detection device
JP2010033106A (en) Driver support device, driver support method, and driver support processing program
JP6805716B2 (en) Display device, display method, program
JP2018121287A (en) Display control apparatus for vehicle, display system for vehicle, display control method for vehicle, and program
JP2017091013A (en) Driving support device
JP6672972B2 (en) Safe driving support device and safe driving support program
JP2018148530A (en) Vehicle display controller, vehicle display system, vehicle display control method, and program
JP2022048481A (en) Object recognition control device and object recognition control method
JP6962141B2 (en) Driver status detector
WO2022185653A1 (en) Vehicular recording control device and recording control method
JP2021024402A (en) Display control device for vehicle and display system for vehicle
JP2022042239A (en) Object recognition controller and method for controlling object recognition
JP2019095892A (en) Vehicle drive supporting device and vehicle drive supporting program
JP7296838B2 (en) Emergency call device and method
JP2016158160A (en) Imaging device, control method, program and storage medium
JP6766433B2 (en) Vehicle display control device, vehicle display system, vehicle display control method and program
JP6852407B2 (en) Driver status detector
JP2017163345A (en) Vehicle display controller, vehicle display system, vehicle display control method, and program
JP2022099160A (en) Distraction assessment device and distraction assessment method
JP2021033872A (en) Display control device for vehicle, display control method for vehicle, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240306