JP2024045551A - Information Output Device - Google Patents
Information Output Device Download PDFInfo
- Publication number
- JP2024045551A JP2024045551A JP2024020867A JP2024020867A JP2024045551A JP 2024045551 A JP2024045551 A JP 2024045551A JP 2024020867 A JP2024020867 A JP 2024020867A JP 2024020867 A JP2024020867 A JP 2024020867A JP 2024045551 A JP2024045551 A JP 2024045551A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- visual saliency
- image
- inattentive
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 105
- 238000001514 detection method Methods 0.000 claims abstract description 31
- 238000012545 processing Methods 0.000 abstract description 51
- 230000010365 information processing Effects 0.000 abstract description 17
- 238000013507 mapping Methods 0.000 description 36
- 238000011176 pooling Methods 0.000 description 29
- 238000000034 method Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 27
- 238000000605 extraction Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 12
- 230000004913 activation Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 239000003973 paint Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002650 habitual effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】簡易な構成で脇見の傾向を検出する。【解決手段】情報処理装置1は、視覚顕著性処理部3が、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップを時系列に取得し、視覚顕著性ピーク検出部4が、視覚顕著性マップにおける少なくとも1つのピーク位置を時系列に検出する。そして、脇見傾向判定部5部が、画像における注視エリアGを設定し、ピーク位置が注視エリアGから所定時間以上連続して外れていた場合は、脇見警告部6が脇見の傾向がある旨の情報を出力する。【選択図】図1[Problem] Detecting inattentive tendencies with a simple configuration. [Solution] In an information processing device (1), a visual saliency processing unit (3) acquires a visual saliency map in time series obtained by estimating the level of visual saliency in an image captured of the outside from a moving object, and a visual saliency peak detection unit (4) detects at least one peak position in the visual saliency map in time series. Then, an inattentive tendency determination unit (5) sets a gaze area G in the image, and if the peak position is out of the gaze area G for a predetermined period of time or more, an inattentive tendency warning unit (6) outputs information indicating that there is an inattentive tendency. [Selected Figure] Figure 1
Description
本発明は、移動体から外部を撮像した画像に基づいて所定の情報を出力する情報出力装置に関する。 The present invention relates to an information output device that outputs predetermined information based on an image captured from a moving object.
交通事故を減少させるために運転者の脇見を検出することが行われている。例えば、特許文献1には、車内カメラ1で撮像された撮像画像Gに基づいて、車両前方に存在する視認対象物となる視覚特徴点(例えば前方車両44、信号機45)を検出し、視覚特徴点と判定対象者の注視点とに基づいて、わき見状態であるか否かを判定することが記載されている。
Detection of driver inattentiveness is being carried out to reduce traffic accidents. For example, in
特許文献1に記載した方法の場合、運転者の画像から、運転者の視線や顔の向き、姿勢などを検出し、運転者がどこを見ているからを走行画像と照らし合わせて判断していた。そのため、走行画像だけでなく運転者側の映像も必要となりカメラが複数必要となる。また、運転者の視線と走行画像との照合のために膨大な演算処理を必要としていた。
In the case of the method described in
本発明が解決しようとする課題としては、簡易な構成で脇見の傾向を検出することが一例として挙げられる。 An example of the problem to be solved by the present invention is to detect a tendency to look aside with a simple configuration.
上記課題を解決するために、請求項1に記載の発明は、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を時系列に取得する取得部と、前記視覚顕著性分布情報における少なくとも1つのピーク位置を検出するピーク位置検出部と、前記画像における前記移動体の運転者が注視すべき範囲を設定する注視範囲設定部と、前記ピーク位置が前記注視すべき範囲から連続して外れていた場合は脇見の傾向がある旨の情報を出力する脇見出力部と、を備えることを特徴としている。
In order to solve the above problem, the invention according to
以下、本発明の一実施形態にかかる情報出力装置を説明する。本発明の一実施形態にかかる情報出力装置は、取得部が、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を時系列に取得し、ピーク位置検出部が、視覚顕著性分布情報における少なくとも1つのピーク位置を時系列に検出する。そして、注視範囲設定部が、画像における移動体の運転者が注視すべき範囲を設定し、脇見出力部が、ピーク位置が注視すべき範囲から所定時間以上連続して外れていた場合は脇見の傾向がある旨の情報を出力する。この視覚顕著性分布情報には、統計的なヒトの視線の集まりやすさを示している。したがって、視覚顕著性分布情報のピークは、その中で最も統計的にヒトの視線が集まりやすい位置を示している。そのため、視覚的顕著性分布情報を用いることで、実際の運転手の視線を計測することなく、簡易な構成で脇見の傾向を検出することができる。 The information output device according to one embodiment of the present invention will be described below. In the information output device according to one embodiment of the present invention, the acquisition unit acquires visual saliency distribution information in a time series, which is obtained by estimating the level of visual saliency in an image based on an image of the outside taken from a moving body, and the peak position detection unit detects at least one peak position in the visual saliency distribution information in a time series. Then, the gaze range setting unit sets a range in the image that the driver of the moving body should gaze at, and the inattentive output unit outputs information indicating a tendency to inattentiveness if the peak position is out of the gaze range for a predetermined period of time or more. This visual saliency distribution information indicates the statistical likelihood of human gaze gathering. Therefore, the peak of the visual saliency distribution information indicates the position that is statistically most likely to attract human gaze. Therefore, by using the visual saliency distribution information, it is possible to detect a tendency to inattentiveness with a simple configuration without measuring the actual driver's gaze.
また、注視範囲設定部は、注視すべき範囲を画像の消失点に基づいて設定してもよい。このようにすることにより、例えば前方車両等を検出しなくても注視すべき範囲を容易に設定することが可能となる。 The gaze range setting unit may also set the gaze range based on the vanishing point of the image. In this way, it becomes possible to easily set the gaze range without detecting, for example, a vehicle ahead.
また、脇見出力部は、ピーク位置が注視すべき範囲よりも上方又は下方に所定時間以上連続して位置していた場合は、固定物による脇見の傾向がある旨の情報を出力してもよい。注視すべき範囲よりも上方は、一般的に建物や交通信号、標識、街灯などの固定物が映り込むエリアであり、注視すべき範囲よりも下方は、一般的に道路標識等の路上ペイントが映り込むエリアである。つまり、これらの範囲にピーク位置が含まれる場合は、脇見による脇見対象物が固定物であると特定することができる。 The inattentive output unit may also output information indicating a tendency to look away due to a fixed object if the peak position is located above or below the range to be watched for a predetermined period of time or more. The area above the range to be watched is generally an area in which fixed objects such as buildings, traffic signals, signs, and street lights are reflected, while the area below the range to be watched is generally an area in which road markings such as road signs are reflected. In other words, if the peak position is included in these ranges, it is possible to identify that the object that is the cause of inattentive looking is a fixed object.
また、移動体の移動速度を取得する速度取得部を備え、注視範囲設定部は、移動速度に基づいて注視すべき範囲を変更してもよい。例えば高速走行時には、運転者の視野が狭くなることが知られており、それを考慮して注視すべき範囲を設定することができる。なお、速度取得部は、車速センサや加速度センサ等から速度に関する情報を取得してもよいし、撮像画像から速度を求めてもよい。 The vehicle may also include a speed acquisition unit that acquires the moving speed of the moving body, and the gaze range setting unit may change the gaze range based on the moving speed. For example, it is known that the driver's field of vision narrows when driving at high speed, and the gaze range can be set taking this into consideration. The speed acquisition unit may acquire information about speed from a vehicle speed sensor, an acceleration sensor, etc., or may determine the speed from a captured image.
また、移動体の位置情報を取得する位置取得部を備え、注視範囲設定部は、位置情報に基づいて注視すべき範囲を変更してもよい。このようにすることにより、例えば住宅街、幹線道路、繁華街等の走行している位置に応じて注視すべき範囲を設定することができる。 Furthermore, the apparatus may include a position acquisition section that acquires position information of the moving body, and the gaze range setting section may change the range to be gazed on based on the position information. By doing this, it is possible to set the range to be watched depending on the location where the vehicle is traveling, such as a residential area, a main road, or a downtown area.
また、取得部は、画像を写像処理可能な中間データに変換する入力部と、中間データを写像データに変換する非線形写像部と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部と、を備え、非線形写像部は、中間データに対し特徴の抽出を行う特徴抽出部と、特徴抽出部で生成されたデータのアップサンプルを行うアップサンプル部と、を備えてもよい。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。また、このようにして推定した視覚顕著性は、文脈的な注意状態を反映したものとなる。 The acquisition unit also includes an input unit that converts the image into intermediate data that can be mapped, a nonlinear mapping unit that converts the intermediate data into mapped data, and generates saliency estimation information that indicates a saliency distribution based on the mapped data. The nonlinear mapping section may include a feature extraction section that extracts features from the intermediate data, and an upsampling section that upsamples the data generated by the feature extraction section. By doing so, visual saliency can be estimated with low calculation cost. Furthermore, the visual saliency estimated in this way reflects the contextual attention state.
また、本発明の一実施形態にかかる情報出力方法は、取得工程で、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を時系列に取得し、ピーク位置検出工程で、視覚顕著性分布情報における少なくとも1つのピーク位置を時系列に検出する。そして、注視範囲設定工程で、画像における移動体の運転者が注視すべき範囲を設定し、脇見出力工程で、ピーク位置が注視すべき範囲から所定時間以上連続して外れていた場合は脇見の傾向がある旨の情報を出力する。この視覚顕著性分布情報には、統計的なヒトの視線の集まりやすさを示している。したがって、視覚顕著性分布情報のピークは、その中で最も統計的にヒトの視線が集まりやすい位置を示している。そのため、視覚的顕著性分布情報を用いることで、実際の運転手の視線を計測することなく、簡易な構成で脇見の傾向を検出することができる。 Further, in the information output method according to an embodiment of the present invention, in the acquisition step, the visual saliency obtained by estimating the level of visual saliency in the image based on the image captured from the outside from the moving object Distribution information is acquired in time series, and at least one peak position in the visual saliency distribution information is detected in time series in the peak position detection step. Then, in the gaze range setting step, the range that the driver of the moving object should gaze on in the image is set, and in the inattentiveness output step, if the peak position is out of the gaze range for a predetermined period of time or more, the inattentiveness is detected. Outputs information indicating that there is a trend. This visual saliency distribution information shows the statistical ease with which people's gaze is attracted. Therefore, the peak of the visual saliency distribution information indicates the position where human gaze is statistically most likely to be attracted. Therefore, by using visual saliency distribution information, it is possible to detect a tendency to look aside with a simple configuration without actually measuring the driver's line of sight.
また、上述した情報出力方法を、コンピュータにより実行させている。このようにすることにより、コンピュータを用いて実際の運転手の視線を計測することなく、簡便な構成で脇見の傾向を検出することができる。 Further, the information output method described above is executed by a computer. By doing so, it is possible to detect a tendency to look aside with a simple configuration without using a computer to measure the driver's actual line of sight.
また、上述した情報出力プログラムをコンピュータ読み取り可能な記憶媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。 Furthermore, the above-described information output program may be stored in a computer-readable storage medium. By doing so, the program can be distributed as a standalone program in addition to being incorporated into a device, and version upgrades can be easily performed.
本発明の第1の実施例にかかる情報出力装置を図1~図12を参照して説明する。本実施例にかかる情報出力装置は、例えば自動車等の移動体に設置されるに限らず、事業所等に設置されるサーバ装置等で構成してもよい。即ち、リアルタイムに解析する必要はなく、走行後等に解析を行ってもよい。 An information output device according to a first embodiment of the present invention will be described with reference to Figs. 1 to 12. The information output device according to this embodiment is not limited to being installed in a moving object such as an automobile, but may also be configured as a server device or the like installed in a business establishment or the like. In other words, analysis does not need to be performed in real time, and analysis may be performed after driving, etc.
図1に示したように、情報出力装置1は、走行画像取得部2と、視覚顕著性処理部3と、視覚顕著性ピーク検出部4と、脇見傾向判定部5と、脇見警告部6と、を備えている。
As shown in FIG. 1, the
走行画像取得部2は、例えばカメラなどで撮像された画像(例えば動画像)が入力され、その画像を画像データとして出力する。なお、入力された動画像は、例えばフレーム毎等の時系列に分解された画像データとして出力する。走行画像取得部2に入力される画像として静止画を入力してもよいが、時系列に沿った複数の静止画からなる画像群として入力するのが好ましい。
The driving
走行画像取得部2に入力される画像は、例えば車両の進行方向が撮像された画像が挙げられる。つまり、移動体から外部を連続的に撮像した画像とする。この画像はいわゆるパノラマ画像や複数カメラを用いて取得した画像等の水平方向に180°や360°等進行方向以外が含まれる画像であってもよい。また、走行画像取得部2には入力されるのは、カメラで撮像された画像に限らず、ハードディスクドライブやメモリカード等の記録媒体から読み出した画像であってもよい。
The images input to the driving
視覚顕著性処理部3は、走行画像取得部2から画像データが入力され、後述する視覚顕著性推定情報として視覚顕著性マップを出力する。即ち、視覚顕著性処理部3は、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップ(視覚顕著性分布情報)を取得する取得部として機能する。
The visual
図2は、視覚顕著性処理部3の構成を例示するブロック図である。本実施例に係る視覚顕著性処理部3は、入力部310、非線形写像部320、出力部330および記憶部390を備える。入力部310は、画像を写像処理可能な中間データに変換する。非線形写像部320は、中間データを写像データに変換する。出力部330は、写像データに基づき顕著性分布を示す顕著性推定情報を生成する。そして、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322とを備える。記憶部390は、走行画像取得部2から入力された画像データや後述するフィルタの係数等が保持されている。以下に詳しく説明する。
FIG. 2 is a block diagram illustrating the configuration of the visual
図3(a)は、視覚顕著性処理部3へ入力する画像を例示する図であり、図3(b)は、図3(a)に対し推定される、視覚顕著性分布を示す画像を例示する図である。本実施例に係る視覚顕著性処理部3は、画像における各部分の視覚顕著性を推定する装置である。視覚顕著性とは例えば、目立ちやすさや視線の集まりやすさを意味する。具体的には視覚顕著性は、確率等で示される。ここで、確率の大小は、たとえばその画像を見た人の視線がその位置に向く確率の大小に対応する。
FIG. 3(a) is a diagram illustrating an image input to the visual
図3(a)と図3(b)とは、互いに位置が対応している。そして、図3(a)において、視覚顕著性が高い位置ほど、図3(b)において輝度が高く表示されている。図3(b)のような視覚顕著性分布を示す画像は、出力部330が出力する視覚顕著性マップの一例である。本図の例において、視覚顕著性は、256階調の輝度値で可視化されている。出力部330が出力する視覚顕著性マップの例については詳しく後述する。
Figure 3(a) and Figure 3(b) correspond to each other in terms of position. In Figure 3(a), the higher the visual saliency is at a position, the higher the luminance is displayed in Figure 3(b). The image showing the visual saliency distribution as in Figure 3(b) is an example of a visual saliency map output by the
図4は、本実施例に係る視覚顕著性処理部3の動作を例示するフローチャートである。図4に示したフローチャートは、コンピュータによって実行される情報出力方法の一部であって、入力ステップS115、非線形写像ステップS120、および出力ステップS130を含む。入力ステップS115では、画像が写像処理可能な中間データに変換される。非線形写像ステップS120では、中間データが写像データに変換される。出力ステップS130では、写像データに基づき顕著性分布を示す視覚顕著性推定情報(視覚顕著性分布情報)が生成される。ここで、非線形写像ステップS120は、中間データに対し特徴の抽出を行う特徴抽出ステップS121と、特徴抽出ステップS121で生成されたデータのアップサンプルを行うアップサンプルステップS122とを含む。
FIG. 4 is a flowchart illustrating the operation of the visual
図2に戻り、視覚顕著性処理部3の各構成要素について説明する。入力ステップS115において入力部310は、画像を取得し、中間データに変換する。入力部310は、画像データを走行画像取得部2から取得する。そして入力部310は、取得した画像を中間データに変換する。中間データは非線形写像部320が受け付け可能なデータであれば特に限定されないが、たとえば高次元テンソルである。また、中間データはたとえば、取得した画像に対し輝度を正規化したデータ、または、取得した画像の各画素を、輝度の傾きに変換したデータである。入力ステップS115において入力部310は、さらに画像のノイズ除去や解像度変換等を行っても良い。
Returning to FIG. 2, each component of the visual
非線形写像ステップS120において、非線形写像部320は入力部310から中間データを取得する。そして、非線形写像部320において中間データが写像データに変換される。ここで、写像データは例えば高次元テンソルである。非線形写像部320で中間データに施される写像処理は、たとえばパラメータ等により制御可能な写像処理であり、関数、汎関数、またはニューラルネットワークによる処理であることが好ましい。
In the nonlinear mapping step S120, the
図5は、非線形写像部320の構成を詳しく例示する図であり、図6は、中間層323の構成を例示する図である。上記した通り、非線形写像部320は、特徴抽出部321およびアップサンプル部322を備える。特徴抽出部321において特徴抽出ステップS121が行われ、アップサンプル部322においてアップサンプルステップS122が行われる。また、本図の例において、特徴抽出部321およびアップサンプル部322の少なくとも一方は、複数の中間層323を含むニューラルネットワークを含んで構成される。ニューラルネットワークにおいては、複数の中間層323が結合されている。
FIG. 5 is a diagram illustrating the configuration of the
特にニューラルネットワークは畳み込みニューラルネットワークであることが好ましい。具体的には、複数の中間層323のそれぞれは、一または二以上の畳み込み層324を含む。そして、畳み込み層324では、入力されたデータに対し複数のフィルタ325による畳み込みが行われ、複数のフィルタ325の出力に対し活性化処理が施される。
In particular, it is preferable that the neural network is a convolutional neural network. Specifically, each of the multiple
図5の例において、特徴抽出部321は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間に第1のプーリング部326を備える。また、アップサンプル部322は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間にアンプーリング部328を備える。さらに、特徴抽出部321とアップサンプル部322とは、オーバーラッププーリングを行う第2のプーリング部327を介して互いに接続されている。
In the example of FIG. 5, the
なお、本図の例において各中間層323は、二以上の畳み込み層324からなる。ただし、少なくとも一部の中間層323は、一の畳み込み層324のみからなってもよい。互いに隣り合う中間層323は、第1のプーリング部326、第2のプーリング部327およびアンプーリング部328のいずれかで区切られる。ここで、中間層323に二以上の畳み込み層324が含まれる場合、それらの畳み込み層324におけるフィルタ325の数は互いに等しいことが好ましい。
Note that in the example shown in this figure, each
本図では、「A×B」と記された中間層323は、B個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対しA個の畳み込みフィルタを含むことを意味している。このような中間層323を以下では「A×B中間層」とも呼ぶ。たとえば、64×2中間層323は、2個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対し64個の畳み込みフィルタを含むことを意味している。
In this diagram, the
本図の例において、特徴抽出部321は、64×2中間層323、128×2中間層323、256×3中間層323、および、512×3中間層323をこの順に含む。また、アップサンプル部322は、512×3中間層323、256×3中間層323、128×2中間層323、および64×2中間層323をこの順に含む。また、第2のプーリング部327は、2つの512×3中間層323を互いに接続している。なお、非線形写像部320を構成する中間層323の数は特に限定されず、たとえば画像データの画素数に応じて定めることができる。
In the example shown in the figure, the
なお、本図は非線形写像部320の構成の一例であり、非線形写像部320は他の構成を有していても良い。たとえば、64×2中間層323の代わりに64×1中間層323が含まれても良い。中間層323に含まれる畳み込み層324の数が削減されることで、計算コストがより低減される可能性がある。また、たとえば、64×2中間層323の代わりに32×2中間層323が含まれても良い。中間層323のチャネル数が削減されることで、計算コストがより低減される可能性がある。さらに、中間層323における畳み込み層324の数とチャネル数との両方を削減しても良い。
Note that this diagram is an example of the configuration of the
ここで、特徴抽出部321に含まれる複数の中間層323においては、第1のプーリング部326を経る毎にフィルタ325の数が増加することが好ましい。具体的には、第1の中間層323aと第2の中間層323bとが、第1のプーリング部326を介して互いに連続しており、第1の中間層323aの後段に第2の中間層323bが位置する。そして、第1の中間層323aは、各チャネルに対するフィルタ325の数がN1である畳み込み層324で構成されており、第2の中間層323bは、各チャネルに対するフィルタ325の数がN2である畳み込み層324で構成されている。このとき、N2>N1が成り立つことが好ましい。また、N2=N1×2が成り立つことがより好ましい。
Here, in the multiple
また、アップサンプル部322に含まれる複数の中間層323においては、アンプーリング部328を経る毎にフィルタ325の数が減少することが好ましい。具体的には、第3の中間層323cと第4の中間層323dとが、アンプーリング部328を介して互いに連続しており、第3の中間層323cの後段に第4の中間層323dが位置する。そして、第3の中間層323cは、各チャネルに対するフィルタ325の数がN3である畳み込み層324で構成されており、第4の中間層323dは、各チャネルに対するフィルタ325の数がN4である畳み込み層324で構成されている。このとき、N4<N3が成り立つことが好ましい。また、N3=N4×2が成り立つことがより好ましい。
In addition, in the multiple
特徴抽出部321では、入力部310から取得した中間データから勾配や形状など、複数の抽象度を持つ画像特徴を中間層323のチャネルとして抽出する。図6は、64×2中間層323の構成を例示している。本図を参照して、中間層323における処理を説明する。本図の例において、中間層323は第1の畳み込み層324aと第2の畳み込み層324bとで構成されており、各畳み込み層324は64個のフィルタ325を備える。第1の畳み込み層324aでは、中間層323に入力されたデータの各チャネルに対して、フィルタ325を用いた畳み込み処理が施される。たとえば入力部310へ入力された画像がRGB画像である場合、3つのチャネルh0i(i=1..3)のそれぞれに対して処理が施される。また、本図の例において、フィルタ325は64種の3×3フィルタであり、すなわち合計64×3種のフィルタである。畳み込み処理の結果、各チャネルiに対して、64個の結果h0i,j(i=1..3,j=1..64)が得られる。
The
次に、複数のフィルタ325の出力に対し、活性化部329において活性化処理が行われる。具体的には、全チャネルの対応する結果jについて、対応する要素毎の総和に活性化処理が施される。この活性化処理により、64チャネルの結果h1i(i=1..64)、すなわち、第1の畳み込み層324aの出力が、画像特徴として得られる。活性化処理は特に限定されないが、双曲関数、シグモイド関数、および正規化線形関数の少なくともいずれかを用いる処理が好ましい。
Next, the
さらに、第1の畳み込み層324aの出力データを第2の畳み込み層324bの入力データとし、第2の畳み込み層324bにて第1の畳み込み層324aと同様の処理を行って、64チャネルの結果h2i(i=1..64)、すなわち第2の畳み込み層324bの出力が、画像特徴として得られる。第2の畳み込み層324bの出力がこの64×2中間層323の出力データとなる。
Furthermore, the output data of the first
ここで、フィルタ325の構造は特に限定されないが、3×3の二次元フィルタであることが好ましい。また、各フィルタ325の係数は独立に設定可能である。本実施例において、各フィルタ325の係数は記憶部390に保持されており、非線形写像部320がそれを読み出して処理に用いることができる。ここで、複数のフィルタ325の係数は機械学習を用いて生成、修正された補正情報に基づいて定められてもよい。たとえば、補正情報は、複数のフィルタ325の係数を、複数の補正パラメータとして含む。非線形写像部320は、この補正情報をさらに用いて中間データを写像データに変換することができる。記憶部390は視覚顕著性処理部3に備えられていてもよいし、視覚顕著性処理部3の外部に設けられていてもよい。また、非線形写像部320は補正情報を、通信ネットワークを介して外部から取得しても良い。
Here, the structure of the
図7(a)および図7(b)はそれぞれ、フィルタ325で行われる畳み込み処理の例を示す図である。図7(a)および図7(b)では、いずれも3×3畳み込みの例が示されている。図7(a)の例は、最近接要素を用いた畳み込み処理である。図7(b)の例は、距離が二以上の近接要素を用いた畳み込み処理である。なお、距離が三以上の近接要素を用いた畳み込み処理も可能である。フィルタ325は、距離が二以上の近接要素を用いた畳み込み処理を行うことが好ましい。より広範囲の特徴を抽出することができ、視覚顕著性の推定精度をさらに高めることができるからである。
FIGS. 7A and 7B are diagrams showing examples of convolution processing performed by the
以上、64×2中間層323の動作について説明した。他の中間層323(128×2中間層323、256×3中間層323、および、512×3中間層323等)の動作についても、畳み込み層324の数およびチャネルの数を除いて、64×2中間層323の動作と同じである。また、特徴抽出部321における中間層323の動作も、アップサンプル部322における中間層323の動作も上記と同様である。
The above describes the operation of the 64×2
図8(a)は、第1のプーリング部326の処理を説明するための図であり、図8(b)は、第2のプーリング部327の処理を説明するための図であり、図8(c)は、アンプーリング部328の処理を説明するための図である。
Figure 8(a) is a diagram for explaining the processing of the
特徴抽出部321において、中間層323から出力されたデータは、第1のプーリング部326においてチャネル毎にプーリング処理が施された後、次の中間層323に入力される。第1のプーリング部326ではたとえば、非オーバーラップのプーリング処理が行われる。図8(a)では、各チャネルに含まれる要素群に対し、2×2の4つの要素30を1つの要素30に対応づける処理を示している。第1のプーリング部326ではこのような対応づけが全ての要素30に対し行われる。ここで、2×2の4つの要素30は互いに重ならないよう選択される。本例では、各チャネルの要素数が4分の1に縮小される。なお、第1のプーリング部326において要素数が縮小される限り、対応づける前後の要素30の数は特に限定されない。
In the
特徴抽出部321から出力されたデータは、第2のプーリング部327を介してアップサンプル部322に入力される。第2のプーリング部327では、特徴抽出部321からの出力データに対し、オーバーラッププーリングが施される。図8(b)では、一部の要素30をオーバーラップさせながら、2×2の4つの要素30を1つの要素30に対応づける処理を示している。すなわち、繰り返される対応づけにおいて、ある対応づけにおける2×2の4つの要素30のうち一部が、次の対応づけにおける2×2の4つの要素30にも含まれる。本図のような第2のプーリング部327では要素数は縮小されない。なお、第2のプーリング部327において対応づける前後の要素30の数は特に限定されない。
The data output from the
第1のプーリング部326および第2のプーリング部327で行われる各処理の方法は特に限定されないが、たとえば、4つの要素30の最大値を1つの要素30とする対応づけ(max pooling)や4つの要素30の平均値を1つの要素30とする対応づけ(average pooling)が挙げられる。
The method of each process performed by the
第2のプーリング部327から出力されたデータは、アップサンプル部322における中間層323に入力される。そして、アップサンプル部322の中間層323からの出力データはアンプーリング部328においてチャネル毎にアンプーリング処理が施された後、次の中間層323に入力される。図8(c)では、1つの要素30を複数の要素30に拡大する処理を示している。拡大の方法は特に限定されないが、1つの要素30を2×2の4つの要素30へ複製する方法が例として挙げられる。
The data output from the
アップサンプル部322の最後の中間層323の出力データは写像データとして非線形写像部320から出力され、出力部330に入力される。出力ステップS130において出力部330は、非線形写像部320から取得したデータに対し、たとえば正規化や解像度変換等を行うことで視覚顕著性マップを生成し、出力する。視覚顕著性マップはたとえば、図3(b)に例示したような視覚顕著性を輝度値で可視化した画像(画像データ)である。また、視覚顕著性マップはたとえば、ヒートマップのように視覚顕著性に応じて色分けされた画像であっても良いし、視覚顕著性が予め定められた基準より高い視覚顕著領域を、その他の位置とは識別可能にマーキングした画像であっても良い。さらに、視覚顕著性推定情報は画像等として示されたマップ情報に限定されず、視覚顕著領域を示す情報を列挙したテーブル等であっても良い。
The output data of the last
視覚顕著性ピーク検出部4は、視覚顕著性処理部3において取得した視覚顕著性マップにおいて、ピークとなる位置(画素)を検出する。ここで、本実施例においてピークとは画素値が最大値(輝度が最大)となる視覚顕著性が高い画素であり、位置は座標で表される。即ち、視覚顕著性ピーク検出部4は、視覚顕著性マップ(視覚顕著性分布情報)における少なくとも1つのピーク位置を検出するピーク位置検出部として機能する。
The visual saliency
脇見傾向判定部5は、視覚顕著性ピーク検出部4で検出されたピークとなる位置に基づいて、走行画像取得部2から入力された画像が脇見の傾向があるか判定する。脇見傾向判定部5は、まず、走行画像取得部2から入力された画像について注視エリア(注視すべき範囲)を設定する。注視エリアの設定方法について図9を参照して説明する。即ち、脇見傾向判定部5は、画像における移動体の運転者が注視すべき範囲を設定する注視範囲設定部として機能する。
The inattentive
図9に示した画像Pにおいて、注視エリアGは、消失点Vの周囲に設定されている。即ち、注視エリアG(注視すべき範囲)を画像の消失点に基づいて設定している。この注視エリアGは、予め注視エリアGの大きさ(例えば幅3m、高さ2m)を設定し、画像Pの水平画素数、垂直画素数、水平画角、垂直画角、先行車両までの車間距離、画像を撮像しているドライブレコーダー等のカメラの取り付け高さ等から、設定した大きさの画素数を算出することが可能である。なお、消失点は、白線等から推定してもよいし、オプティカルフロー等を用いて推定してもよい。また、先行車両までの車間距離は、実際の先行車両を検出する必要はなく仮想的に設定するものでよい。 In the image P shown in FIG. 9, the gaze area G is set around the vanishing point V. That is, the gaze area G (range to be watched) is set based on the vanishing point of the image. This gaze area G is determined by setting the size of the gaze area G (for example, 3 m in width and 2 m in height) in advance, and determining the number of horizontal pixels, the number of vertical pixels, the horizontal angle of view, the vertical angle of view, and the distance to the preceding vehicle. It is possible to calculate the number of pixels of the set size from the distance, the mounting height of the camera such as a drive recorder that is capturing the image, etc. Note that the vanishing point may be estimated from a white line or the like, or may be estimated using optical flow or the like. Furthermore, the inter-vehicle distance to the preceding vehicle may be set virtually without the need to actually detect the preceding vehicle.
次に、設定した注視エリアGに基づいて画像Pにおける脇見検出エリアを設定する(図10の網掛け部分)。この脇見検出エリアは、上方エリアIu、下方エリアId、左側方エリアIl、右側方エリアIrがそれぞれ設定される。これらのエリアは、消失点Vと、注視エリアGの各頂点を結ぶ線分により区分けされる。即ち、上方エリアIuと左側方エリアIlとは、消失点Vと注視エリアGの頂点Gaとを結ぶ線分L1により区切られている。上方エリアIuと右側方エリアIrとは、消失点Vと注視エリアGの頂点Gdとを結ぶ線分L2により区切られている。下方エリアIdと左側方エリアIlとは、消失点Vと注視エリアGの頂点Gbとを結ぶ線分L3により区切られている。下方エリアIdと右側方エリアIrとは、消失点Vと注視エリアGの頂点Gcとを結ぶ線分L4により区切られている。 Next, an inattentive detection area in image P is set based on the set gaze area G (shaded area in FIG. 10). The inattentive detection area is set to an upper area Iu, a lower area Id, a left side area Il, and a right side area Ir. These areas are divided by lines connecting the vanishing point V and each vertex of gaze area G. That is, the upper area Iu and the left side area Il are separated by a line segment L1 connecting the vanishing point V and the vertex Ga of gaze area G. The upper area Iu and the right side area Ir are separated by a line segment L2 connecting the vanishing point V and the vertex Gd of gaze area G. The lower area Id and the left side area Il are separated by a line segment L3 connecting the vanishing point V and the vertex Gb of gaze area G. The lower area Id and the right side area Ir are separated by a line segment L4 connecting the vanishing point V and the vertex Gc of gaze area G.
なお、脇見検出エリアは図10に示したような区分けに限らない。例えば、図11に示したようにしてもよい。図11は、注視エリアGの各辺を延長した線分により脇見検出エリアを区分けしている。図11の方法は、形状が単純になるので、脇見検出エリアの区分けにかかる処理を軽減することができる。 Note that the inattentiveness detection area is not limited to the division as shown in FIG. For example, the configuration shown in FIG. 11 may be used. In FIG. 11, the inattentiveness detection area is divided by line segments obtained by extending each side of the gaze area G. Since the method of FIG. 11 has a simple shape, it is possible to reduce the processing involved in dividing the inattentiveness detection areas.
次に、脇見傾向判定部5における脇見傾向の判定について説明する。視覚顕著性ピーク検出部4で検出されたピーク位置が、所定時間以上注視エリアGから連続して外れていた場合は脇見傾向であると判定する。ここで、所定時間は例えば2秒とすることができるが適宜変更してもよい。即ち、脇見傾向判定部5は、ピーク位置が注視すべき範囲から所定時間以上連続して外れていたか判定している。
Next, the determination of the inattentive tendency by the inattentive
また、脇見傾向判定部5は、脇見検出エリアが上方エリアIu又は下方エリアIdであった場合は固定物による脇見の傾向があると判定してもよい。これは、車両から前方を撮像した画像の場合、上方エリアIuには、建物や交通信号、標識、街灯などの固定物が映り込むのが一般的であり、下方エリアIdには、道路標識等の路上ペイントが映り込むのが一般的である。一方、左側方エリアIlや右側方エリアIrは、他の走行車線等を走行する車両等の自車両以外の移動体が映り込むことがあり、エリアにより脇見対象物(固定物か移動体か)まで判定するのは困難である。
The inattentive
脇見警告部6は、脇見傾向判定部5の判定結果に基づいて警告等を報知する。警告の報知の方法は、運転者等が視認可能な表示装置等に表示することにより行ってもよいし、音声や振動として出力してもよい。即ち、脇見警告部6は、脇見の傾向がある旨の情報を出力する脇見出力部として機能する。本実施例では、警告を脇見の傾向がある旨の情報としているが、脇見の傾向がある旨の情報として、フラグ等の脇見検出の情報に加え、その際の時刻、位置等の情報を含めて記憶媒体や情報出力装置1の外部に通信等で出力してもよい。また、脇見傾向判定部5の判定結果に基づき、ヒヤリハットに係る情報としてその結果を出力してもよい。
The inattentiveness warning section 6 issues a warning or the like based on the determination result of the inattentiveness
次に、上述した構成の情報出力装置1における動作(情報出力方法)について、図12のフローチャートを参照して説明する。また、このフローチャートを情報出力装置1として機能するコンピュータで実行されるプログラムとして構成することで情報処理プログラムとすることができる。また、この情報出力プログラムは、情報出力装置1が有するメモリ等に記憶するに限らず、メモリカードや光ディスク等の記憶媒体に格納してもよい。
Next, the operation (information output method) of the
まず、脇見警告部6は、脇見警告スイッチ(SW)がONかOFFか判断する(ステップS101)。脇見警告SWとは、脇見警告部6による警告を実行するか否かを切り替えるスイッチであり、脇見警告部6が有して、脇見傾向判定部5により切り替え制御がされる。
First, the inattentive warning unit 6 determines whether the inattentive warning switch (SW) is ON or OFF (step S101). The inattentive warning SW is a switch that switches whether or not the inattentive warning unit 6 issues a warning, and is provided in the inattentive warning unit 6 and is switched under the control of the inattentive
脇見警告SWがONの場合は(ステップS101;SW=ON)、脇見警告部6は、警告タイマー閾値の比較を行う(ステップS102)。警告タイマーとは、脇見警告部6による警告を実行する期間を計時するタイマーであり、警告タイマー閾値とは、その警告の実行期間を定める閾値である。つまり、脇見警告部6による警告は警告タイマー閾値に定められた期間だけ警告を行う。 When the inattentive warning SW is ON (step S101; SW = ON), the inattentive warning unit 6 performs a comparison with the warning timer threshold (step S102). The warning timer is a timer that measures the period during which the inattentive warning unit 6 issues a warning, and the warning timer threshold is a threshold that determines the period during which the warning is executed. In other words, the inattentive warning unit 6 issues a warning only for the period determined by the warning timer threshold.
警告タイマー閾値を超えていた場合は(ステップS102;閾値超え)、脇見警告部6は、脇見警告SWをOFFにして警告タイマーを停止して(ステップS103)、後述すステップS104が実行される。警告タイマー閾値を超えていない場合は(ステップS102;閾値超えない)、何もせずに後述するステップS104が実行される。 If the warning timer threshold is exceeded (step S102; threshold exceeded), the inattentiveness warning section 6 turns off the inattentiveness warning SW to stop the warning timer (step S103), and step S104, which will be described later, is executed. If the warning timer threshold has not been exceeded (step S102; threshold not exceeded), step S104, which will be described later, is executed without doing anything.
一方、脇見警告SWがOFFの場合又は、上述したステップS102、S103から進んだ場合は、走行画像取得部2が走行画像を取得し(ステップS104)、視覚顕著性処理部3において視覚顕著性画像処理(視覚顕著性マップの取得)を行う(ステップS105)。そして、視覚顕著性ピーク検出部4が、ステップS105で視覚顕著性処理部3が取得した視覚顕著性マップに基づいてピーク位置を取得(検出)する(ステップS106)。
On the other hand, if the inattentive warning switch is OFF or if the process proceeds from steps S102 or S103 described above, the driving
次に、脇見傾向判定部5が、注視エリアGを設定して、当該注視エリアGと視覚顕著性ピーク検出部4が取得したピーク位置とを比較する(ステップS107)。比較した結果ピーク位置が注視エリアG外である場合は(ステップS107;注視エリア外)、脇見傾向判定部5は、滞留タイマーが開始後か停止中か判定する(ステップS108)。滞留タイマーとは、ピーク位置が注視エリアG外に滞留している時間を計測するタイマーである。なお、注視エリアGの設定は、ステップS104で画像を取得した際に行ってもよい。
Next, the inattentive
滞留タイマーが停止中である場合は(ステップS108;停止中)、脇見傾向判定部5は、滞留タイマーを開始する(ステップS109)。一方、滞留タイマーが開始後である場合は(ステップS108;開始後)、脇見傾向判定部5は、滞留タイマー閾値の比較を行う(ステップS110)。滞留タイマー閾値とは、ピーク位置が注視エリアG外に滞留している時間の閾値であり、上述したように2秒などと設定されている。
If the dwell timer is stopped (step S108; stopped), the inattentive
滞留タイマーが閾値を超えていた場合は(ステップS110;閾値超え)、脇見傾向判定部5は、脇見警告部6の脇見警告SWをONにして、警告タイマーを開始させる(ステップS111)。そして、脇見傾向判定部5は、滞留タイマーを停止させる(ステップS112)。つまり、ピーク位置が注視エリアG外に滞留している時間が閾値以上であったので、脇見警告部6による警告を開始させる。
If the retention timer exceeds the threshold (step S110; exceeds the threshold), the inattentive
一方、滞留タイマーが閾値を超えない場合は(ステップS110;閾値超えない)、脇見傾向判定部5は、何もせずにステップS101に戻る。
On the other hand, if the dwell timer does not exceed the threshold (step S110; threshold not exceeded), the inattentive
また、ステップS107で比較した結果、ピーク位置が注視エリアG内である場合は(ステップS107;注視エリア内)、脇見傾向判定部5は、滞留タイマーを停止させる(ステップS112)。
Also, if the comparison in step S107 shows that the peak position is within the gaze area G (step S107; within gaze area), the inattentive driving
以上の説明から明らかなように、ステップS105が取得工程、ステップS106がピーク位置検出工程、ステップS107が注視範囲設定工程、ステップS107~S111が脇見出力工程としてそれぞれ機能する。 As is clear from the above explanation, step S105 functions as an acquisition process, step S106 functions as a peak position detection process, step S107 functions as a gaze range setting process, and steps S107 to S111 functions as an aside-gaze output process.
本実施例によれば、情報出力装置1は、視覚顕著性処理部3が、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップを時系列に取得し、視覚顕著性ピーク検出部4が、視覚顕著性マップにおける少なくとも1つのピーク位置を時系列に検出する。そして、脇見傾向判定部5部が、画像における注視エリアGを設定し、ピーク位置が注視エリアGから所定時間以上連続して外れていた場合は、脇見警告部6が脇見の傾向がある旨の情報を出力する。この視覚顕著性マップには、統計的なヒトの視線の集まりやすさを示している。したがって、視覚顕著性マップのピークは、その中で最も統計的にヒトの視線が集まりやすい位置を示している。そのため、視覚的顕著性マップを用いることで、実際の運転手の視線を計測することなく、簡易な構成で脇見の傾向を検出することができる。
According to the present embodiment, the
また、脇見傾向判定部5は、注視エリアGを画像の消失点Vに基づいて設定している。このようにすることにより、例えば前方車両等を検出しなくても注視エリアGを容易に設定することが可能となる。
The inattentive
また、脇見傾向判定部5が、ピーク位置が注視エリアGよりも上方又は下方に所定時間以上連続して位置していた場合は、脇見警告部6が、固定物による脇見の傾向がある旨の情報を出力してもよい。注視エリアGよりも上方は、一般的に建物や交通信号、標識、街灯などの固定物が映り込むエリアであり、注視エリアGよりも下方は、一般的に道路標識等の路上ペイントが映り込むエリアである。つまり、範囲にピーク位置が含まれる場合は、脇見による脇見対象物が固定物であると特定することができる。
In addition, if the inattentive
また、視覚顕著性処理部3は、画像を写像処理可能な中間データに変換する入力部310と、中間データを写像データに変換する非線形写像部320と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部330と、を備え、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322と、を備えている。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。また、このようにして推定した視覚顕著性は、文脈的な注意状態を反映したものとなる。
The visual
なお、注視エリアGは、固定的な範囲に設定されるに限らない。例えば移動体の移動速度に応じて変更してもよい。例えば高速走行時には、運転者の視野が狭くなることが知られている。そこで、例えば脇見傾向判定部5が、車両に搭載されている速度センサ等から車速を取得して、速度が高くなるにしたがって注視エリアGの範囲を狭めてもよい。また、移動速度に応じて適正な車間距離も変化するため、図9を参照して説明した算出方法による注視エリアGの範囲も変化させてもよい。車両の速度は、速度センサに限らず、加速度センサや撮像画像から求めてもよい。
Note that the gaze area G is not limited to being set to a fixed range. For example, it may be changed according to the moving speed of the moving body. For example, it is known that the driver's field of vision narrows when driving at high speed. Therefore, for example, the inattentive
また、注視エリアGを車両等の走行位置や状況に応じて変更してもよい。周囲への注意が必要な状況であれば、注視エリアGを広くする必要がある。例えば、住宅街、幹線道路、繁華街等の走行する位置によって注視すべき範囲は変わる。住宅街であれば歩行者は少ないが急な飛び出しに注意する必要があり注視エリアGは狭くできない。一方で、幹線道路であれば、走行速度が高くなり、上述したように視野が狭くなる。 Furthermore, the viewing area G may be changed depending on the driving position and situation of the vehicle or the like. If the situation requires attention to the surroundings, the gaze area G needs to be widened. For example, the range to be watched changes depending on where the vehicle is traveling, such as in a residential area, on a main road, or in a downtown area. If it is a residential area, there are few pedestrians, but it is necessary to be careful about sudden jumps, so the gaze area G cannot be narrowed. On the other hand, if the vehicle is on a main road, the traveling speed will be high and the field of view will be narrow as described above.
具体例を示すと、通学路、公園、学校近傍は子供の飛び出しの危険性があると考えられる。駅学校近傍、催事の場所・観光地近傍等は歩行者が多いと考えられる。駐輪場近傍、学校近傍等は自転車が多いと考えられる。歓楽街近傍等は酔客が多いと考えられる。以上のような地点等は、周囲への注意が必要な状況であり、注視エリアGを広くして、脇見傾向と判定されるエリアを狭くしてもよい。一方で、高速道路走行時や、交通量・人口密度の低い地域等は、走行速度が高くなる傾向があり、注視エリアGを狭くして、脇見傾向と判定されるエリアを広くしてもよい。 To give specific examples, school routes, parks, and areas near schools are considered to be at risk of children running out into the street. There are considered to be many pedestrians near train stations, schools, event locations, and tourist sites. There are considered to be many bicycles near bicycle parking lots and schools. There are considered to be many drunk people near entertainment districts. Such locations are situations that require attention to the surroundings, so the gaze area G may be widened and the area determined to have a tendency to look away may be narrowed. On the other hand, when driving on highways or in areas with low traffic volume and population density, there is a tendency for driving speeds to be high, so the gaze area G may be narrowed and the area determined to have a tendency to look away may be widened.
また、時間帯やイベント等で注視エリアGを変化させてもよい。例えば、通勤通学時間帯は、周囲への注意が必要な状況であり、通常時間帯よりも注視エリアGを広くして脇見傾向と判定されるエリアを狭くしてもよい。あるいは薄暮~夜間にかけても同様に注視エリアGを広くして脇見傾向と判定されるエリアを狭くしてもよい。一方で深夜は注視エリアGを狭くして脇見傾向と判定されるエリアを広くしてもよい。 The gaze area G may also be changed depending on the time of day, events, etc. For example, during commuting hours, when attention to the surroundings is required, the gaze area G may be made wider than during normal hours, narrowing the area determined to be prone to looking away. Similarly, the gaze area G may be made wider from twilight to nighttime, narrowing the area determined to be prone to looking away. On the other hand, in the middle of the night, the gaze area G may be narrowed, widening the area determined to be prone to looking away.
さらに、イベント情報により注視エリアGを変化させてもよい。例えば催事等は人の往来が多い場所や時間帯となるので、通常より注視エリアGを広くして脇見傾向の判定を緩くしてもよい。 Furthermore, the gaze area G may be changed depending on event information. For example, special events and similar events are held in locations and at times with high pedestrian traffic, so the gaze area G may be made wider than usual to loosen the judgment of the tendency to look away.
このような地点の情報は、脇見傾向判定部5が、GPS受信機や地図データ等の現在位置及び走行している地域が判別できる手段から情報を取得し、画像データと対応付けておくことで、注視エリアGの範囲を変化させることができる。時刻情報は情報出力装置1が内部又は外部から取得すればよい。イベント情報は外部サイト等から取得すればよい。また、位置と時刻、日付を組み合わせて変更の判定を行ってもよいし、何れか一つを用いて変更の判定を行ってもよい。
Information on such points can be obtained by the inattentiveness
さらに、高速走行する際には、滞留タイマー閾値を短くしてもよい。これは、高速走行時は、短時間の脇見でも危険な状態になるためである。 Furthermore, when driving at high speeds, the dwell timer threshold may be shortened. This is because even a brief moment of inattentive driving can be dangerous when driving at high speeds.
次に、本発明の第2の実施例にかかる情報処理装置を図13~図15を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。 Next, an information processing device according to a second embodiment of the present invention will be described with reference to Figures 13 to 15. Note that the same parts as those in the first embodiment described above are given the same reference numerals and the description will be omitted.
図13に本実施例の典型的なシステム構成例を示す。本実施例にかかるシステムは情報処理装置1Aとサーバ装置10と、を有している。本実施例にかかる情報処理装置1Aは、車両Vに搭載されている。そして、情報処理装置1Aとサーバ装置10とは、インターネット等のネットワークNを介して通信可能となっている。
FIG. 13 shows a typical system configuration example of this embodiment. The system according to this embodiment includes an
本実施例にかかる情報処理装置1Aを図14に示す。情報処理装置1Aは、走行画像取得部2と、視覚顕著性処理部3と、視覚顕著性ピーク検出部4と、脇見傾向判定部5Aと、出力部7と、を備えている。
FIG. 14 shows an
走行画像取得部2と、視覚顕著性処理部3と、視覚顕著性ピーク検出部4と、は第1の実施例と同様である。脇見傾向判定部5Aは、脇見の傾向を判定するに加えて、脇見の傾向があると判定された際の脇見対象物(ピーク位置)が常在対象物か否かを判定する。即ち、脇見傾向判定部5Aは、ピーク位置が注視エリアG(注視すべき範囲)から所定時間以上連続して外れていた場合、ピーク位置に対応するのが常在対象物であるか判定する判定部として機能する。
The running
常在対象物とは、第1の実施例で説明した建物や交通信号、標識、街灯、路上ペイントなどの固定物を示し、映像撮影場所から常時観察できる(建物等の常にその位置に存在する)脇見対象物をいう。 A constantly present object refers to a fixed object such as a building, traffic signal, sign, street lamp, or road paint as described in the first embodiment, and is an object that can be constantly observed from the video shooting location (a building or other object that is always present in that position).
常在対象物の判定は、第1の実施例で説明した、ピーク位置が上方エリアIuか下方エリアIdかの判定に加えて、ピーク位置が左側方エリアIlや右側方エリアIrであった場合にも判定を行う。 The determination of whether a constant object is present is made not only when the peak position is in the upper area Iu or the lower area Id, as described in the first embodiment, but also when the peak position is in the left side area Il or the right side area Ir.
ピーク位置が上方エリアIuか下方エリアIdである場合はエリアのみで常在対象物の判定が可能である。一方、ピーク位置が左側方エリアIlや右側方エリアIrであった場合は、エリアだけでは脇見対象物が常在対象物か判定できないため、物体認識を用いて判定を行う。物体認識(物体検出ともいう)は周知のアルゴリズムを用いればよく、具体的な方法は特に限定されない。 If the peak position is in the upper area Iu or the lower area Id, it is possible to determine whether the object is a resident object based only on the area. On the other hand, if the peak position is in the left area Il or the right area Ir, it is not possible to determine whether the inattentive object is a permanent object based only on the area, so the determination is performed using object recognition. Object recognition (also referred to as object detection) may be performed using a well-known algorithm, and the specific method is not particularly limited.
また、物体認識に限らず相対速度を利用して常在対象物の判定を行ってもよい。これは、自車速度と脇見対象物のフレーム間の移動速度から相対速度を求め、その相対速度から脇見対象物が常在対象物か判定する。ここで、脇見対象物のフレーム間の移動速度は、ピーク位置のフレーム間の移動速度を求めればよい。そして求めた相対速度が所定の閾値以上である場合は、ある位置に固定されている物(常在対象物)と判定することができる。 In addition, relative velocity may be used in addition to object recognition to determine a resident object. This calculates the relative speed from the speed of the own vehicle and the moving speed of the object to be looked at in between frames, and then determines from the relative speed whether the object to be looked at is a permanent object. Here, the inter-frame moving speed of the inattentive object can be determined by calculating the inter-frame moving speed of the peak position. If the determined relative velocity is greater than or equal to a predetermined threshold, it can be determined that the object is fixed at a certain position (a permanent object).
常在対象物は、上述したように、ある位置に固定され、映像撮影場所から常時観察できる(建物等の常にその位置に存在する)ものであるので、本実施例による判定を行うことで、脇見対象物(ピーク位置)が常在対象物と判定された位置では、常に脇見し易い位置であると見なすことができる。 As described above, a permanent object is fixed at a certain position and can be observed at all times from the video shooting location (always existing at that position, such as a building), so by making the determination according to this embodiment, A position where the object of inattentiveness (peak position) is determined to be a constant object can be considered to be a position where it is easy to look aside.
出力部7は、脇見傾向判定部5において脇見対象物が常在対象物であると判定した場合は、判定結果をサーバ装置10へ送信する。あるいは判定結果として常在対象物の有無を常に送信するようにしてもよい。このとき、リアルタイムに判定した場合は判定時刻、メモリカード等に保存された画像を判定した場合は画像の撮像時刻や日付を付加してもよい。時刻の情報を付加することで、時間帯により脇見し易い地点等を抽出することができる。例えば、昼間にのみ見える建物により脇見し易い地点、照明等の影響により脇見し易い地点、花火などのイベントにより脇見し易い地点、等が判別できる。また、撮像地点の情報を付加してもよい。
When the inattentive
サーバ装置10は、情報処理装置1Aから送信された判定結果を集計する。例えば、位置情報を含めて情報処理装置1A(車両)から送信された判定結果を集計することで、脇見し易い地点を抽出することができる。さらに、時間情報を含めることで、時間帯による脇見のし易い地点を抽出することができる。
The
本実施例にかかる情報処理装置1Aにおける動作について、図15のフローチャートを参照して説明する。図15において、ステップS104~S110、S112は、図12と同様である。また、図12のステップS101~S103は、本実施例では警告は必須ではないので省略した。
The operation of the
図15では、滞留タイマーが閾値を超えていた場合は(ステップS110;閾値超え)、脇見傾向判定部5は、常在対象物の判定及び判定結果の送信を行う(ステップS111A)。ステップS111Aでは、上述した物体認識等により常在対象物の判定を行って判定結果をサーバ装置10に送信する。
In FIG. 15, if the dwell timer exceeds the threshold (step S110; exceeded threshold), the inattentive
なお、図15に示したフローチャートでは、警告に係るステップは省略したが、警告も行うようにしてもよい。警告をする場合は、図1に示した脇見警告部6も備え、ステップS101~S103も実行するようにし、ステップS111Aの前後又は並行して図12のステップS111を実行するようにすればよい。 Note that in the flowchart shown in FIG. 15, steps related to warnings are omitted, but warnings may also be issued. If a warning is to be issued, the inattentiveness warning unit 6 shown in FIG. 1 may be provided, steps S101 to S103 may also be executed, and step S111 in FIG. 12 may be executed before, after, or in parallel with step S111A.
また、本実施例では、車両側の情報処理装置1Aが常在対象物の判定を行っていたが、サーバ装置10側で常在対象物の判定を行ってもよい。つまり、走行画像等をサーバ装置10が取得し、その画像に対して常在対象物の判定を行って、判定結果をサーバ装置10内の記憶装置や他のサーバ装置等に出力するようにしてもよい。
In addition, in this embodiment, the
本実施例によれば、情報処理装置1Aは、視覚顕著性処理部3が、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップを時系列に取得し、視覚顕著性ピーク検出部4が、視覚顕著性マップにおける少なくとも1つのピーク位置を時系列に検出する。そして、脇見傾向判定部5部が、画像における注視エリアGを設定し、ピーク位置が注視エリアGから所定時間以上連続して外れていた場合、ピーク位置に対応するのが常在対象物であるか判定する。このようにすることにより、視覚顕著性マップに基づいて検出された脇見対象物が映像撮影場所から常時観察できる(建物等の常にその位置に存在する)常在対象物か、移動体かを判定することが可能となる。したがって、脇見対象物を少なくとも常在対象物であるか特定することができる。
According to the present embodiment, the
また、脇見傾向判定部5部は、ピーク位置が注視エリアGよりも左側方又は右側方に外れていた場合に、物体認識により常在対象物であるか判定してもよい。このようにすることにより、ピーク位置が注視すべき範囲よりも左側方又は右側方に外れていた場合は、ピーク位置に対応するのは常在対象物または移動体のいずれかであるので、物体認識を行うことで、建物等の常在対象物と自動車等の移動体とを精度良く判定することができる。
The inattentive
また、脇見傾向判定部5部が、移動体の移動速度を取得し、ピーク位置が注視エリアGよりも左側方又は右側方に外れていた場合に、移動速度に基づいてピーク位置が示す物体の相対速度を算出し、相対速度に基づいて常在対象物であるか判定してもよい。このようにすることにより、相対速度により常在対象物を判定することができ、判定時の処理負荷を軽減することができる。
In addition, the inattentiveness
また、判定結果を出力する出力部7を備えている。このようにすることにより、例えば車両で判定した結果をサーバ装置10等へ送信して集計することが可能となる。
The system also includes an
また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の情報処理装置を具備する限り、勿論、本発明の範疇に含まれるものである。 Further, the present invention is not limited to the above embodiments. That is, those skilled in the art can implement various modifications based on conventionally known knowledge without departing from the gist of the present invention. Of course, such modifications fall within the scope of the present invention as long as they still include the information processing apparatus of the present invention.
1 情報出力装置
2 走行画像取得部
3 視覚顕著性処理部(取得部)
4 視覚顕著性ピーク検出部(ピーク位置検出部)
5 脇見傾向判定部(注視範囲設定部、脇見出力部、速度取得部、位置取得部、判定部)
6 脇見警告部
7 出力部
1
4. Visual saliency peak detection unit (peak position detection unit)
5. Inattentive tendency determination unit (gaze range setting unit, inattentive output unit, speed acquisition unit, position acquisition unit, determination unit)
6
Claims (1)
前記視覚顕著性分布情報における少なくとも1つのピーク位置を検出するピーク位置検出部と、
前記画像における前記移動体の運転者が注視すべき範囲を設定する注視範囲設定部と、
前記ピーク位置が前記注視すべき範囲から連続して外れていた場合は脇見の傾向がある旨の情報を出力する脇見出力部と、
を備えることを特徴とする情報出力装置。 an acquisition unit that acquires visual saliency distribution information in time series obtained by estimating the level of visual saliency in the image based on an image taken of the outside from the moving body;
a peak position detection unit that detects at least one peak position in the visual saliency distribution information;
a gaze range setting unit that sets a range in the image that the driver of the mobile object should gaze at;
an inattentiveness output unit that outputs information indicating that there is a tendency to inattentiveness when the peak position is continuously out of the range to be watched;
An information output device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024020867A JP2024045551A (en) | 2020-03-10 | 2024-02-15 | Information Output Device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020041001A JP2021144310A (en) | 2020-03-10 | 2020-03-10 | Information output device |
JP2024020867A JP2024045551A (en) | 2020-03-10 | 2024-02-15 | Information Output Device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020041001A Division JP2021144310A (en) | 2020-03-10 | 2020-03-10 | Information output device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024045551A true JP2024045551A (en) | 2024-04-02 |
Family
ID=77766584
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020041001A Pending JP2021144310A (en) | 2020-03-10 | 2020-03-10 | Information output device |
JP2024020867A Pending JP2024045551A (en) | 2020-03-10 | 2024-02-15 | Information Output Device |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020041001A Pending JP2021144310A (en) | 2020-03-10 | 2020-03-10 | Information output device |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP2021144310A (en) |
-
2020
- 2020-03-10 JP JP2020041001A patent/JP2021144310A/en active Pending
-
2024
- 2024-02-15 JP JP2024020867A patent/JP2024045551A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2021144310A (en) | 2021-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210357670A1 (en) | Driver Attention Detection Method | |
JP5171629B2 (en) | Driving information providing device | |
US10891859B1 (en) | Displaying sensor data and supplemental data as a mask for autonomous vehicles | |
US10732420B2 (en) | Head up display with symbols positioned to augment reality | |
US11972616B2 (en) | Enhanced navigation instructions with landmarks under difficult driving conditions | |
Langner et al. | Traffic awareness driver assistance based on stereovision, eye-tracking, and head-up display | |
US9305221B2 (en) | Method and apparatus for identifying a possible collision object | |
JP2006338594A (en) | Pedestrian recognition system | |
JP2022169621A (en) | Reproduction device, reproduction method, program for the same, recording apparatus, and control method of recording apparatus | |
KR101986734B1 (en) | Driver assistance apparatus in vehicle and method for guidance a safety driving thereof | |
JP7042185B2 (en) | Distance calculation device | |
JP2010224670A (en) | Periphery monitoring device for vehicle | |
US20150158430A1 (en) | Operating a Head-Up Display of a Vehicle and Image Determining System for the Head-Up Display | |
JP4752158B2 (en) | Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device | |
JP2024019588A (en) | Map data generation device | |
KR20080004833A (en) | Apparatus and method for detecting a navigation vehicle in day and night according to luminous state | |
JP4986070B2 (en) | Ambient monitoring device for vehicles | |
JP6822434B2 (en) | Parking support device | |
JP7331728B2 (en) | Driver state estimation device | |
JP2024045551A (en) | Information Output Device | |
US20220105866A1 (en) | System and method for adjusting a lead time of external audible signals of a vehicle to road users | |
JP2021144311A (en) | Information processor | |
JP2012103849A (en) | Information provision device | |
JP5383246B2 (en) | Vehicle periphery monitoring device | |
JP5742180B2 (en) | Gaze point estimation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240215 |