JP2024120092A - In-vehicle device and recording method - Google Patents

In-vehicle device and recording method Download PDF

Info

Publication number
JP2024120092A
JP2024120092A JP2024103872A JP2024103872A JP2024120092A JP 2024120092 A JP2024120092 A JP 2024120092A JP 2024103872 A JP2024103872 A JP 2024103872A JP 2024103872 A JP2024103872 A JP 2024103872A JP 2024120092 A JP2024120092 A JP 2024120092A
Authority
JP
Japan
Prior art keywords
driver
vehicle
information
unit
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024103872A
Other languages
Japanese (ja)
Inventor
健太朗 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2024103872A priority Critical patent/JP2024120092A/en
Publication of JP2024120092A publication Critical patent/JP2024120092A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】運転者が運転中に何かを思い出した場合に、思い出した事実に関連する情報を記録する。【解決手段】車載装置100は、車両の運転者の視線方向を検出する視線検出部120と、前記運転者の視線移動の速度に少なくとも基づいて、前記運転者が前記視線方向にある特定の対象を見ている状態であることを判定し、前記対象を推定する推定部130と、前記対象に関連する情報をメモ情報として記録する情報処理部160と、車両の運転が終了したときに、運転中に記録した前記メモ情報を出力する出力部190と、を備える。【選択図】図1[Problem] When a driver remembers something while driving, information related to the remembered fact is recorded. [Solution] An in-vehicle device 100 includes a gaze detection unit 120 that detects the gaze direction of the driver of the vehicle, an estimation unit 130 that determines whether the driver is looking at a specific object in the gaze direction based at least on the speed of the driver's gaze movement and estimates the object, an information processing unit 160 that records information related to the object as memo information, and an output unit 190 that outputs the memo information recorded during driving when driving of the vehicle is completed. [Selected Figure] Figure 1

Description

本発明は、車載装置及び記録方法に関する。 The present invention relates to an in-vehicle device and a recording method.

車両の乗員の挙動から関心事項を抽出して、当該関心事項に関する情報を提示する技術
が提案されている。特許文献1は、普段と異なる運転パターンを検出した後、運転者の視
線の動き等による挙動変化から関心を示しているかを判定し、関心を示している施設に関
する情報を提示する技術を開示している。
A technology has been proposed that extracts matters of interest from the behavior of vehicle occupants and presents information related to the matters of interest. Patent Document 1 discloses a technology that detects a driving pattern that is different from usual, determines whether the driver is showing interest based on changes in behavior such as eye movements, and presents information related to facilities that the driver is showing interest in.

特許文献2は、バスの乗客の興味の対象を抽出し、関連する情報を提示する技術を提示
している。ここで、乗客の興味は、視線や会話などの動的情報、及び乗客のアカウントに
予め登録された顧客情報から抽出される。
Patent Literature 2 presents a technology for extracting the interests of bus passengers and presenting related information, where the interests of passengers are extracted from dynamic information such as gaze and conversation, and customer information registered in advance in the passenger's account.

特許文献1及び2にかかる技術により、挙動変化をトリガーとして、運転者等の望んで
いる情報を提示することが可能となる。一方で、これらの技術を用いて、運転者が車両の
走行中にふと思い出したことを記録したり、運転者自身が自覚していない関心事項を抽出
したりすることは困難である。
The techniques disclosed in Patent Documents 1 and 2 make it possible to present information desired by the driver, etc., using a change in behavior as a trigger. However, it is difficult to use these techniques to record something that the driver suddenly remembers while driving the vehicle, or to extract an interest that the driver is not aware of.

特開2009-168473号公報JP 2009-168473 A 特開2020-57066号公報JP 2020-57066 A

上記のように、運転者が運転中に何かを思い出した場合に、運転中は手を放すことがで
きず、思い出した事実に関連する情報を記録することが困難であるという問題があった。
また運転中には信号やカーブなどでの車両操作、他車両との接近の回避、走行経路の選択
などのために思考するべきことが多いため、運転終了時には思い出したことを忘れてしま
うという問題があった。そこで、運転者が運転中に何かを思い出した場合に、思い出した
事実に関連する情報を記録することができる車載装置及び記録方法を提供する。
As described above, when a driver remembers something while driving, there is a problem in that the driver cannot take his/her hands off the wheel while driving, making it difficult to record information related to the fact that he/she remembered.
In addition, there are many things to think about while driving, such as operating the vehicle at traffic lights and curves, avoiding approaching other vehicles, selecting a driving route, etc., so there is a problem that what you remember is forgotten when you finish driving. Therefore, we provide an in-vehicle device and a recording method that can record information related to a fact that the driver remembers when he or she remembers something while driving.

本発明は、車両の運転者の視線方向を検出する視線検出部と、運転者の視線移動の速度に少なくとも基づいて、運転者が視線方向にある特定の対象を見ている状態であることを判定し、対象を推定する推定部と、対象に関連する情報をメモ情報として記録する情報処理部と、車両の運転が終了したときに、運転中に記録したメモ情報を出力する出力部と、を備える車載装置を提供する。 The present invention provides an in-vehicle device that includes a gaze detection unit that detects the gaze direction of a vehicle driver, an estimation unit that determines whether the driver is looking at a specific target in the gaze direction based at least on the speed of the driver's gaze movement and estimates the target, an information processing unit that records information related to the target as memo information, and an output unit that outputs the memo information recorded during driving when driving of the vehicle is completed.

本発明は、車両の運転者の視線方向を検出する視線検出ステップと、運転者の視線移動の速度に少なくとも基づいて、運転者が視線方向にある特定の対象を見ている状態であることを判定し、対象を推定する推定ステップと、対象に関連する情報をメモ情報として記録する情報処理ステップと、車両の運転が終了したときに、運転中に記録したメモ情報を出力する出力ステップと、を備える記録方法を提供する。 The present invention provides a recording method including a gaze detection step for detecting the gaze direction of a vehicle driver, an estimation step for determining whether the driver is looking at a specific target in the gaze direction based at least on the speed of the driver's gaze movement and estimating the target, an information processing step for recording information related to the target as memo information, and an output step for outputting the memo information recorded during driving when driving of the vehicle is completed.

本発明によれば、運転者が運転中に何かを思い出した場合に、思い出した事実に関連す
る情報を記録することができる車載装置及び記録方法を提供することができる。
According to the present invention, it is possible to provide an in-vehicle device and a recording method that, when a driver remembers something while driving, can record information related to the fact that the driver remembers.

実施形態1にかかる車載装置の構成を示すブロック図である。1 is a block diagram showing a configuration of an in-vehicle device according to a first embodiment; 実施形態1にかかる車載装置の動作を示すフローチャートである。4 is a flowchart showing an operation of the in-vehicle device according to the first embodiment. 実施形態2にかかる車載装置の構成を示すブロック図である。FIG. 11 is a block diagram showing a configuration of an in-vehicle device according to a second embodiment.

(実施形態1)
まず、図1を用いて、実施形態1にかかる車載装置100の構成について説明する。車
載装置100は、例えば、ドライブレコーダーである。車載装置100は、画像取得部1
10と、視線検出部120と、推定部130と、記憶部140と、判定部150と、情報
処理部160と、情報提示部170とを備える。
(Embodiment 1)
First, the configuration of an in-vehicle device 100 according to the first embodiment will be described with reference to FIG. 1. The in-vehicle device 100 is, for example, a drive recorder. The in-vehicle device 100 includes an image acquisition unit 1
The image forming apparatus includes a gaze detection unit 10 , a gaze detection unit 120 , an estimation unit 130 , a storage unit 140 , a determination unit 150 , an information processing unit 160 , and an information presentation unit 170 .

画像取得部110は、車両の運転者、及び車両外部を撮影した画像をカメラ10から取
得する。画像取得部110は、超広角レンズ(魚眼、360レンズ)などを用いて運転者
及び車両外部を同時に撮影した画像を取得してもよく、運転者と車両外部とが別々のカメ
ラで撮影された複数の画像を取得してもよい。なお、カメラ10は、赤外線カメラであっ
てもよい。画像取得部110において車両外部を撮影した画像の取得は必ずしも必須の構
成ではなく、無くともよい。
The image acquisition unit 110 acquires images of the driver of the vehicle and the outside of the vehicle from the camera 10. The image acquisition unit 110 may acquire images of the driver and the outside of the vehicle simultaneously using an ultra-wide-angle lens (fisheye, 360 lens) or the like, or may acquire multiple images of the driver and the outside of the vehicle captured by separate cameras. The camera 10 may be an infrared camera. Acquisition of images of the outside of the vehicle in the image acquisition unit 110 is not necessarily a required configuration, and may be omitted.

視線検出部120は、運転者の顔画像から視線方向を検出する。視線方向は、例えば上
中下、左中右の9象限の1つとして検出される。視線方向は、細かく特定して検出される
ことが好ましい。さらに、視線検出部120は、運転者が一定方向を見つめている期間を
検出してもよく、車両の走行に伴う視線移動を検出してもよい。また、視線検出部120
は、動く物体を見ていることによる視線移動を検出してもよい。視線検出部120は、検
出した視線方向を推定部130に出力する。
The gaze detection unit 120 detects the gaze direction from the face image of the driver. The gaze direction is detected as one of nine quadrants, for example, upper, middle, lower, left, middle, and right. It is preferable that the gaze direction is detected in detail. Furthermore, the gaze detection unit 120 may detect a period during which the driver is gazing in a certain direction, or may detect gaze movement accompanying the traveling of the vehicle. In addition, the gaze detection unit 120
The gaze detection unit 120 may detect a gaze movement caused by watching a moving object. The gaze detection unit 120 outputs the detected gaze direction to the estimation unit 130.

視線検出部120は、目頭と虹彩との位置関係や、角膜反射と瞳孔との位置関係に基づ
き視線を検出することができる。視線検出部120は、顔の向きに基づいて運転者が見て
いる方向を検出し、視線方向としてもよい。視線検出技術としては、公知の技術が用いら
れてよい。
The gaze detection unit 120 can detect the gaze based on the positional relationship between the inner corner of the eye and the iris, or the positional relationship between the corneal reflex and the pupil. The gaze detection unit 120 may detect the direction in which the driver is looking based on the direction of the face, and use this as the gaze direction. A known technique may be used as the gaze detection technique.

推定部130は、運転者が見ている対象を、少なくとも視線方向に基づいて推定する。
たとえば推定部130は、運転者の視線方向が左右方向の中央やや下方であることが検出
された場合、運転者が見ている対象を道路または車両前方を走行する他車両であると推定
する。運転者が見ている対象を、視線方向および車両周囲状況に基づいて推定してもよい
。車両周囲状況は、画像取得部110が取得した車両外部を撮影した画像や、図示しない
カーナビゲーション装置または図示しない通信部を介してインターネット等から取得した
、地図情報から判定される。推定部130は、推定結果を判定部150に出力する。
The estimation unit 130 estimates the target that the driver is looking at based on at least the line of sight direction.
For example, when the estimation unit 130 detects that the driver's line of sight is slightly below the center in the left-right direction, it estimates that the object the driver is looking at is the road or another vehicle traveling in front of the vehicle. The object the driver is looking at may be estimated based on the line of sight direction and the vehicle surroundings. The vehicle surroundings are determined from an image captured by the image acquisition unit 110 of the outside of the vehicle, or map information acquired from a car navigation device (not shown) or the Internet via a communication unit (not shown). The estimation unit 130 outputs the estimation result to the determination unit 150.

ここで、推定部130は、まず、運転者の瞳孔の動きや顔の向きの変化、運転者が一定
方向を見つめている期間などから、運転者が視線方向全体を眺めている状態なのか、視線
方向にある特定の対象を見ている(注視している)状態なのかを判定する。例えば推定部
130は、運転者が左右方向の中央部を見ていることが多く、視線の動きが細かい場合、
運転者が視線方向全体を眺めている状態と推定する。運転者の視線移動の速度や方向と、
車両の移動速度に相関があるか否かを判定して、視線方向にある特定の対象を見ている状
態であることを判定してもよい。運転者が特定の対象を見ている場合、推定部130は、
運転者が見ている対象を推定する。対象は、「○○郵便局」のように1つの施設として推
定されてもよく、「○○バーガー」のように複数の店舗の総称として推定されてもよく、
「ラーメン屋」のように1つのジャンルとして推定されてもよい。対象は、施設に限られ
ず、田、植木等であってもよい。
Here, the estimation unit 130 first determines whether the driver is looking in the entire line of sight or looking (gazing) at a specific object in the line of sight based on the movement of the driver's pupils, changes in the direction of the face, the period during which the driver gazes in a certain direction, etc. For example, if the driver often looks at the center in the left-right direction and the movement of the driver's gaze is small, the estimation unit 130 may determine that the driver is looking in the center of the left-right direction and looking at (gazing at) a specific object in the line of sight.
It is assumed that the driver is looking in the entire direction of the line of sight. The speed and direction of the driver's line of sight movement,
Alternatively, the estimation unit 130 may determine whether or not there is a correlation with the vehicle's moving speed to determine whether the driver is looking at a specific target in the line of sight.
The object that the driver is looking at is estimated. The object may be estimated as a single facility such as "XX Post Office" or as a collective name for multiple stores such as "XX Burger."
The object may be estimated as one genre, such as "ramen shop." The object is not limited to a facility, and may be a rice field, a plantation, or the like.

推定部130は、画像認識技術を用いて、視線方向と車両外部画像とに基づき対象を推
定してもよい。例えば、運転者が左上方向を見ており、車両外部画像からそこに写ってい
るものが郵便局の看板であると画像認識された場合、推定部130は、運転者が見ている
対象を、郵便局と推定できる。推定部130は、道路、他車両、信号、標識などを画像認
識して運転者が見ている対象であると推定してもよい。
The estimation unit 130 may estimate the object based on the line of sight and the vehicle exterior image using an image recognition technique. For example, when the driver is looking to the upper left and the vehicle exterior image shows a post office sign, the estimation unit 130 can estimate that the object the driver is looking at is the post office. The estimation unit 130 may estimate that the object the driver is looking at is the post office by performing image recognition of roads, other vehicles, traffic lights, signs, and the like.

また、推定部130は、視線方向と地図情報とに基づいて、運転者が見ている対象を推
定してもよい。例えば、運転者が前方やや左を見ている場合、推定部130は、車両の現
在位置の進行方向左前方にある施設が郵便局であることを地図情報から取得し、運転者が
見ている対象は郵便局であると推定してもよい。推定部130は、信号、標識などの存在
を地図情報から取得して運転者が見ている対象であると推定してもよい。
The estimation unit 130 may also estimate the object that the driver is looking at based on the line of sight and map information. For example, when the driver is looking slightly to the left ahead, the estimation unit 130 may acquire from the map information that the facility located to the left ahead of the vehicle's current position in the traveling direction is a post office, and may estimate that the object that the driver is looking at is the post office. The estimation unit 130 may also acquire from the map information the presence of a traffic light, a sign, or the like, and estimate that the object that the driver is looking at is the post office.

さらに、推定部130は、視線方向と、車両の走行情報とに基づいて、運転者が見てい
る対象を推定してもよい。例えば、運転者が左の真横方向を見た後に車両が左折した場合
、推定部130は、運転者が見ている対象は左サイドミラーであると推定してもよい。
Furthermore, the estimation unit 130 may estimate an object that the driver is looking at based on the line of sight direction and the vehicle driving information. For example, when the driver looks directly to the left and then the vehicle turns left, the estimation unit 130 may estimate that the object that the driver is looking at is the left side mirror.

なお、推定部130は、視線方向と事故現場の位置を示す情報とに基づいて、運転者が
見ている対象は事故現場であると推定してもよい。事故現場の位置を示す情報は、図示し
ない通信部を介してインターネット等から取得されてもよい。
The estimation unit 130 may estimate that the object the driver is looking at is the accident site based on the line of sight direction and the information indicating the location of the accident site. The information indicating the location of the accident site may be obtained from the Internet or the like via a communication unit (not shown).

記憶部140は、ハードディスク、フラッシュメモリ、SDカード等の記憶装置または
記憶媒体である。また、記憶部140は、一時的に情報を保持するための記憶領域である
RAM(Random Access Memory)等の揮発性記憶装置を含んでもよい。記憶部140は、
履歴141及びメモ情報142を記憶する。記憶部140は、カメラ10による撮影映像
をさらに記憶してもよい。
The storage unit 140 is a storage device or storage medium such as a hard disk, a flash memory, or an SD card. The storage unit 140 may also include a volatile storage device such as a RAM (Random Access Memory) that is a storage area for temporarily storing information.
It stores history 141 and memo information 142. The storage unit 140 may further store images captured by the camera 10.

履歴141は、推定部130の推定結果の履歴を管理するデータベースである。履歴1
41は、車両の運転と関係しない対象のみを記憶してもよい。また、履歴141は、推定
された対象と、運転者が対象を見た時刻とを対応付けて記憶してもよい。さらに、履歴1
41は、運転者が対象を見た時間の長さを記憶してもよい。メモ情報142は、後述する
情報処理部160によって記録される情報である。なお、履歴141及びメモ情報142
は、車載装置100の外部のサーバに記憶されてもよい。
History 141 is a database that manages the history of the estimation results of the estimation unit 130.
The history 141 may store only objects that are not related to the driving of the vehicle. The history 141 may store the estimated object in association with the time when the driver saw the object.
The history 141 may store the length of time that the driver looked at the target. The memo information 142 is information recorded by the information processing unit 160, which will be described later.
may be stored in a server external to the in-vehicle device 100.

判定部150は、推定部130が推定した対象が車両の運転と関係しないものである場
合、運転者が当該対象を目視する頻度、つまり普段見ているか否かを、履歴141に基づ
き判定する。判定部150による判定結果は、情報処理部160、あるいは情報提示部1
70に出力される。
When the object estimated by the estimation unit 130 is not related to the driving of the vehicle, the determination unit 150 determines the frequency with which the driver looks at the object, that is, whether the driver usually looks at the object, based on the history 141. The determination result by the determination unit 150 is sent to the information processing unit 160 or the information presentation unit 1
70 is output.

ここで、判定部150は、まず、運転者が見ている対象が車両の運転と関係するか否か
を判別する。車両の運転と関係するものとは、道路、他車両、信号、標識、ミラー等であ
る。車両の運転と関係するものには、事故現場が含まれていてもよい。
Here, the determination unit 150 first determines whether the object the driver is looking at is related to the driving of the vehicle. The object related to the driving of the vehicle is a road, another vehicle, a traffic light, a sign, a mirror, etc. The object related to the driving of the vehicle may include an accident scene.

次に、判定部150は、運転者が対象を普段見ているか否かを判定する。判定部150
は、対象が履歴141に含まれているか否かにより、対象を目視する頻度が所定値1以上
か未満かに応じて判定を行ってもよく、対象が履歴141に所定数以上含まれているか否
かにより、対象を目視する頻度が所定数以上であるか未満であるかに応じて判定を行って
もよい。また、判定部150は、対象が1週間に3回以上見られているか否かなどの直近
の期間の履歴141を参照することにより対象を目視する頻度の判定を行ってもよく、対
象に隣接する道路を2回通る際に1回以上見られているか否かなどの走行履歴との比較に
より対象を目視する頻度の判定を行ってもよい。
Next, the determination unit 150 determines whether the driver usually looks at the target.
may determine whether the frequency of visually observing the target is equal to or greater than a predetermined value 1 depending on whether the target is included in the history 141, or may determine whether the frequency of visually observing the target is equal to or greater than a predetermined number depending on whether the target is included a predetermined number or more in the history 141. The determination unit 150 may also determine the frequency of visually observing the target by referring to the history 141 of the most recent period, such as whether the target is viewed three or more times in one week, or may determine the frequency of visually observing the target by comparing with the driving history, such as whether the target is viewed once or more when passing a road adjacent to the target twice.

ここで、判定部150は、運転者が対象を見ている時間(注視時間)を考慮して判定を
行ってもよい。例えば、判定部150は、運転者が対象を1秒間以上見た回数が所定数以
上の場合に、運転者が当該対象を普段見ていると判定してもよい。
Here, the determination unit 150 may make the determination in consideration of the time during which the driver looks at the target (gazing time). For example, the determination unit 150 may determine that the driver usually looks at the target when the number of times the driver looks at the target for one second or more is equal to or greater than a predetermined number.

ここで、判定部150は、時間帯や曜日等の条件を考慮して履歴141を参照してもよ
い。例えば、判定部150は、夜間や休日に飲食店が見られる傾向があることを考慮して
、運転者が当該対象を普段見ているか否かを判別してもよい。
Here, the determination unit 150 may refer to the history 141 while taking into consideration conditions such as a time period, a day of the week, etc. For example, the determination unit 150 may determine whether the driver usually sees the target, taking into consideration that restaurants tend to be seen at night or on holidays.

情報処理部160は、運転者が対象を普段見ていない場合、当該対象に関連する情報を
メモ情報142として記録する。したがって、情報処理部160は、対象が運転と関係せ
ず、かつ、運転者が普段見ないものである場合に、メモ情報142を記録することとなる
。情報処理部160は、推定部130が推定した対象の名称をメモ情報142として記録
してもよく、対象が写った画像を画像取得部110から取得してメモ情報142として記
録してもよい。情報処理部160は、推定部130が推定した対象の地図情報、例えば図
示しないカーナビゲーション装置の画面をキャプチャして、メモ情報142として記録し
てもよい。
When the driver does not normally see the target, the information processing unit 160 records information related to the target as the memo information 142. Therefore, when the target is not related to driving and is not normally seen by the driver, the information processing unit 160 records the memo information 142. The information processing unit 160 may record the name of the target estimated by the estimation unit 130 as the memo information 142, or may acquire an image in which the target is shown from the image acquisition unit 110 and record it as the memo information 142. The information processing unit 160 may capture map information of the target estimated by the estimation unit 130, for example, a screen of a car navigation device (not shown), and record it as the memo information 142.

また、情報処理部160は、対象の名称を一部に含むメッセージを作成し、メモ情報1
42として記録してもよい。メッセージは、例えば、運転者が見ている対象が郵便局であ
った場合、「郵便局に用事がありませんか?」等である。情報処理部は、該メッセージを
音声メモとして作成し、あるいは画像メモとして作成し、メモ情報142として記録して
もよい。
In addition, the information processing unit 160 creates a message including the name of the target as a part of the memo information 1
For example, if the object the driver is looking at is a post office, the message may be, "Do you have business at the post office?" The information processing unit may create the message as a voice memo or an image memo and record it as memo information 142.

また、メモ情報142は、運転者によって発声された音声であってもよい。情報処理部
160は、対象の名称を含むメッセージ(例えば、「郵便局に用事がありませんか?)を
運転者に対して通知した後、運転者による音声をマイク20で収音してメモ情報142と
して記録してもよい。情報処理部160は、該メッセージをスピーカ30から出力しても
よく、モニタに出力してもよい。これにより、運転者は、郵便局に用事があったことを思
い出し、音声等による情報記録(「郵便局に用事があった」)を行うことができる。
The memo information 142 may also be a voice uttered by the driver. The information processing unit 160 may notify the driver of a message including the name of the target (for example, "Do you have business at the post office?"), and then collect the driver's voice with the microphone 20 and record it as the memo information 142. The information processing unit 160 may output the message from the speaker 30 or to a monitor. This allows the driver to remember that he or she has business at the post office, and to record information by voice or the like ("I have business at the post office").

ここで、情報処理部160は、対象が撮影された時点と、運転者の発声期間とを共に含
む期間の動画をメモ情報142として記録してもよい。また、情報処理部160は、運転
者が発声した音声と、当該音声が発声された期間の車両の外部映像とをメモ情報142と
して記録してもよい。すなわち、情報処理部160は、運転者の発声を検出し、その終わ
りまでの期間の外部映像を記録してもよい。
Here, the information processing unit 160 may record a video of a period including both the time when the target was photographed and the period during which the driver spoke as the memo information 142. The information processing unit 160 may also record a voice uttered by the driver and an external image of the vehicle during the period during which the voice was uttered as the memo information 142. That is, the information processing unit 160 may detect the driver's speech and record an external image of the period until the end of the speech.

また、推定された対象の名称(例えば、「○○郵便局」)を、作成されたファイルに紐
づけることが好ましい。したがって、情報処理部160は、メモ情報142と、対象の名
称とを対応付けて記録してもよい。例えば、情報処理部160は、「○○郵便局」という
名称をメモ情報142のファイル名としてもよく、当該名称を音声合成した音声メモと、
メモ情報142とを結合してもよく、当該名称を字幕データとして画像メモに重畳しても
よく、当該名称をメタデータとしてメモ情報142に埋め込んでもよい。
It is also preferable to link the estimated name of the object (e.g., "XX Post Office") to the created file. Therefore, the information processing unit 160 may record the memo information 142 and the name of the object in association with each other. For example, the information processing unit 160 may set the name "XX Post Office" as the file name of the memo information 142, and may create a voice memo by voice-synthesizing the name,
The name may be combined with the memo information 142, the name may be superimposed on the image memo as subtitle data, or the name may be embedded in the memo information 142 as metadata.

情報提示部170は、運転者が対象を普段見ている場合、当該対象に関連する情報を運
転者に対して提示する。したがって、情報提示部170は、対象が運転に関係するもので
なく、かつ、運転者が普段見ているものである場合に、情報の提示を行うこととなる。情
報提示部170は、提示情報をスピーカ30に出力してもよく、モニタに出力してもよい
When the driver normally looks at an object, the information presenting unit 170 presents information related to the object to the driver. Therefore, when the object is not related to driving and is something the driver normally looks at, the information presenting unit 170 presents information. The information presenting unit 170 may output the presented information to the speaker 30 or to a monitor.

情報提示部170は、例えば、「○○ラーメンをよく見ていますね」等の対象の名称に
関連する情報を出力してもよい。これにより、運転者は、自分が潜在的に関心を持ってい
ることを認識することができる。
The information presentation unit 170 may output information related to the name of the target, such as "You often look at XX ramen." This allows the driver to recognize that he or she is potentially interested in the target.

また、情報提示部170は、対象の名称に関連する情報を、図示しない通信部を介して
インターネット等から取得し、取得した情報を出力してもよい。情報提示部170は、例
えば、「○○ラーメン」がキャンペーンを実施しているか否か、或いは評判の良し悪しを
、運転者に提示することができる。
The information presentation unit 170 may also obtain information related to the target name from the Internet or the like via a communication unit (not shown) and output the obtained information. For example, the information presentation unit 170 may present to the driver whether or not "XX ramen" is running a campaign, or whether the ramen has a good or bad reputation.

また、情報提示部170は、対象の名称に関連する情報を、図示しないカーナビゲーショ
ン装置に送信し、カーナビゲーション装置にて検索や登録が行えるようにしてもよい。
Furthermore, the information presenting unit 170 may transmit information related to the target name to a car navigation device (not shown) so that the information can be searched and registered in the car navigation device.

なお、情報提示部170は、対象が運転に関係するものであり、かつ、運転者が普段見
ないものである場合に、情報提示を行ってもよい。例えば、運転者が、普段は見ていない
駐車禁止標識を見ている場合、運転者が駐車場を探していると判断できるため、情報提示
部170は、インターネット等で検索した駐車場情報を運転者に提示してもよい。また、
例えば、運転者がルームミラーを普段以上に見ている場合、後続車が気になっていると判
断できるため、情報提示部170は、前方に注意を向けるように促すための情報を提示す
ることができる。
The information presentation unit 170 may present information when the target is related to driving and is not something the driver would normally see. For example, when the driver sees a no parking sign that the driver does not normally see, it can be determined that the driver is looking for a parking space, so the information presentation unit 170 may present the driver with parking space information searched for on the Internet or the like.
For example, if the driver is looking at the rearview mirror more than usual, it can be determined that the driver is concerned about the following vehicle, and the information presentation unit 170 can present information to encourage the driver to pay attention to the road ahead.

次に、図2を用いて車載装置100の動作の流れについて説明する。まず、視線検出部
120は、画像取得部110により取得された画像内の運転者の顔画像から、運転者の視
線方向を検出する(ステップS101)。次に、推定部130は、運転者が視線方向全体
を眺めている状態か、視線方向にある特定の対象を見ている(注視している)状態である
かを判定する(ステップS102)。運転者が特定の対象を見ていない場合(ステップS
102のNo)、車載装置100は、ステップS101の処理に戻る。運転者が特定の対
象を見ている場合(ステップS102のYes)、推定部130は、運転者の視線方向に
ある対象を推定する(ステップS103)。
Next, the flow of operations of the in-vehicle device 100 will be described with reference to Fig. 2. First, the gaze detection unit 120 detects the gaze direction of the driver from the face image of the driver in the image acquired by the image acquisition unit 110 (step S101). Next, the estimation unit 130 judges whether the driver is looking at the entire gaze direction or is looking at (gazing at) a specific target in the gaze direction (step S102). If the driver is not looking at a specific target (step S
If the driver is looking at a specific target (Yes in step S102), the estimation unit 130 estimates an target in the driver's line of sight (step S103).

次に、判定部150は、ステップS103で推定した対象が、運転と直接的に関係のあ
るものであるか否かを判定する(ステップS104)。対象が車両の運転に関係するもの
である場合(ステップS104のYes)、車載装置100は、ステップS101の処理
に戻る。
Next, the determination unit 150 determines whether the object estimated in step S103 is directly related to driving (step S104). If the object is related to driving of the vehicle (Yes in step S104), the in-vehicle device 100 returns to the process of step S101.

対象が車両の運転に関係するものでない場合(ステップS104のNo)、判定部15
0は、運転者が対象を普段から見ているか否かを判別する(ステップS105)。運転者
が対象を普段見ていない場合(ステップS105のNo)、情報処理部160は、運転者
が当該対象について思い出したことがあると判定し(ステップS106)、画像メモある
いは音声メモをメモ情報142として記録する(ステップS107)。ここで、情報処理
部160は、「郵便局に用事がありませんか?」等のメッセージを通知してもよい。
If the target is not related to driving the vehicle (No in step S104), the determination unit 15
The information processing unit 160 determines whether the driver usually looks at the target (step S105). If the driver does not usually look at the target (No in step S105), the information processing unit 160 determines that the driver has remembered the target (step S106), and records an image memo or a voice memo as the memo information 142 (step S107). Here, the information processing unit 160 may notify a message such as "Do you have business at the post office?"

運転者が対象を普段見ている場合(ステップS105のYes)、情報提示部170は
、運転者が対象に興味を持っているものと判定して(ステップS108)、対象に関する
情報を運転者に提示する(ステップS109)。最後に、推定結果の履歴141が更新さ
れる(ステップS110)。
If the driver normally looks at the target (Yes in step S105), the information presenter 170 determines that the driver is interested in the target (step S108), and presents information about the target to the driver (step S109). Finally, the estimation result history 141 is updated (step S110).

実施形態1にかかる車載装置100は、運転者が見ている対象を、運転者が普段見てい
るものと普段見ていないものとに判別する。したがって、実施形態1にかかる車載装置1
00は、運転者が興味のある情報を提示することができる。また運転者が思い出したこと
に関する情報を、手を放すことができない運転中に自動でメモ情報として記録することが
できる。
The in-vehicle device 100 according to the first embodiment distinguishes between an object that the driver is looking at and an object that the driver is not looking at.
The 00 can present information that the driver is interested in. It can also automatically record information that the driver remembers as memo information while driving, when the driver cannot take his/her hands off the wheel.

(実施の形態2)
実施形態2にかかる車載装置100aは、車両の運転が終了したときに情報処理部16
0が記録したメモ情報を出力する。図3は、車載装置100aの構成例を示すブロック図
である。以下では、実施形態1と異なる点について説明する。
(Embodiment 2)
In the in-vehicle device 100a according to the second embodiment, when driving of the vehicle is ended, the information processing unit 16
3 is a block diagram showing an example of the configuration of the in-car device 100a. The following describes the differences from the first embodiment.

車載装置100aは、運転者が所持する通信端末40とネットワーク200を介して接
続されている。ネットワーク200は、インターネット、イントラネット、携帯電話網、
LAN(Local Area Network)等の通信回線網である。通信端末40
は、携帯電話端末、スマートフォン、タブレット端末、PC(Personal Com
puter)等である。なお、車載装置100aは、メモ情報142を、通信端末40で
はなくスピーカ30、図示しないモニタ画面等に出力してもよい。
The in-vehicle device 100a is connected to a communication terminal 40 carried by a driver via a network 200. The network 200 may be the Internet, an intranet, a mobile phone network,
A communication line network such as a LAN (Local Area Network).
The device is used on mobile phones, smartphones, tablet devices, and PCs (Personal Computers).
The in-car device 100a may output the memo information 142 to the speaker 30, a monitor screen (not shown), or the like, instead of the communication terminal 40.

車載装置100aは、図1の構成に加えて、通信部180と、出力部190とを備えて
いる。通信部180は、ネットワーク200との通信インタフェースである。車載装置1
00aが、メモ情報142をスピーカ30等に出力する場合、車載装置100aは通信部
180を備えていなくてもよい。
The in-vehicle device 100a includes a communication unit 180 and an output unit 190 in addition to the components shown in FIG. 1. The communication unit 180 is a communication interface with the network 200.
In the case where the in-car device 100a outputs the memo information 142 to the speaker 30 or the like, the in-car device 100a does not need to include the communication unit 180.

出力部190は、車載装置100aが搭載された車両の運転が終了したか否かを判定す
る。出力部190は、車両に搭載された図示しないカーナビゲーション装置と連動して、
車両が目的地付近に到着したときや目的地まで所定の距離(例えば100mなど)となっ
たときに運転が終了したと判定してもよい。目的地とは、カーナビゲーション装置に設定
された目的地以外にも、登録された自宅や現在位置が駐車場であることで判定されてもよ
い。また、出力部190は、車両のギア情報を取得して車両が駐車動作に入ったことや、
駐車動作が終了したことを走行情報から判定したときに、運転が終了したと判定してもよ
い。出力部190は、エンジンがオフとなったことを検知することにより、運転が終了し
たと判定してもよい。
The output unit 190 determines whether or not driving of the vehicle in which the in-vehicle device 100a is installed has ended. The output unit 190 is linked to a car navigation device (not shown) installed in the vehicle,
The driving may be determined to have ended when the vehicle arrives near the destination or when the destination is a predetermined distance away (e.g., 100 m). The destination may be determined not only by the destination set in the car navigation device, but also by the registered home or the current location being a parking lot. The output unit 190 may also acquire gear information of the vehicle to detect when the vehicle has entered a parking operation,
The output unit 190 may determine that driving has ended when it is determined from the driving information that the parking operation has ended. The output unit 190 may determine that driving has ended by detecting that the engine has been turned off.

出力部190は、車両の運転が終了したときに、メモ情報142を出力する。出力部1
90は、音声メモをスピーカ30から音声出力してもよく、画像メモを図示しないモニタ
に表示させてもよい。出力部190は、送信先として予め登録された通信端末40に、通
信部180を介してメモ情報142を出力してもよい。出力部190は、送信先として予
め登録されたメールアドレスや電話番号、SNS(social networking service)などに
通信部180を介してメモ情報142を出力してもよい。
The output unit 190 outputs the memo information 142 when driving of the vehicle is completed.
The output unit 190 may output a voice memo from the speaker 30, or may display an image memo on a monitor (not shown). The output unit 190 may output the memo information 142 via the communication unit 180 to a communication terminal 40 that is registered in advance as a destination. The output unit 190 may output the memo information 142 via the communication unit 180 to an email address, a telephone number, a social networking service (SNS), or the like that is registered in advance as a destination.

実施形態2にかかる車載装置100aは、運転が終了したときに記録したメモ情報を出
力する。したがって、運転者は、運転が終了した後にメモ情報を確認し、思い出した作業
を行うことができる。また、運転者は、スピーカ、モニタ等から出力されたメモ情報を確
認して、手帳等にメモをとることができる。
The in-vehicle device 100a according to the second embodiment outputs the recorded memo information when driving is completed. Therefore, the driver can check the memo information after driving is completed and perform the work that he remembers. In addition, the driver can check the memo information output from the speaker, monitor, etc., and take notes in a notebook, etc.

また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(no
n-transitory computer readable medium)を用
いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体
は、様々なタイプの実体のある記録媒体(tangible storage medi
um)を含む。非一時的なコンピュータ可読媒体は、例えば、磁気記録媒体、光磁気記録
媒体、CD-ROM(Read Only Memory)、CD-R、CD-R/W、
半導体メモリを含む。磁気記録媒体は、例えば、フレキシブルディスク、磁気テープ、ハ
ードディスクドライブなどである。光磁気記録媒体は、例えば光磁気ディスクなどである
。半導体メモリは、例えば、マスクROM、PROM(Programmable RO
M)、EPROM(Erasable PROM)、フラッシュROM、RAM(Ran
dom Access Memory)などである。また、プログラムは、様々なタイプ
の一時的なコンピュータ可読媒体(transitory computer read
able medium)によってコンピュータに供給されてもよい。一時的なコンピュ
ータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読
媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコ
ンピュータに供給できる。
The above-mentioned program can be stored on various types of non-transitory computer-readable media (e.g.,
Non-transitory computer readable media can be used to store and provide information to a computer. Non-transitory computer readable media includes various types of tangible storage media.
Examples of non-transitory computer-readable media include magnetic recording media, magneto-optical recording media, CD-ROMs (Read Only Memories), CD-Rs, CD-R/Ws,
The magnetic recording medium includes, for example, a flexible disk, a magnetic tape, a hard disk drive, etc. The magneto-optical recording medium includes, for example, a magneto-optical disk, etc. The semiconductor memory includes, for example, a mask ROM, a PROM (Programmable ROM), etc.
M), EPROM (Erasable PROM), Flash ROM, RAM (Ran
The program may also be stored on various types of transient computer readable media, such as a temporary access memory (TEMM).
The program may be supplied to the computer via a temporary computer-readable medium. Examples of the temporary computer-readable medium include an electric signal, an optical signal, and an electromagnetic wave. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

上述の実施形態にかかる車載装置は、ドライバーモニタリングシステムの分野に適用す
ることができる。尚、車載装置以外の装置が、人物の視線を検出し、当該人物が見ている
対象を推定することもできる。例えば、眼鏡型デバイスに、視線検出装置と、周囲の景色
を撮影するカメラを取り付けることにより、同様のシステムを実現できる。これにより、
運転中だけでなく普段の生活から、人物の潜在的な関心の調査が可能となる。
The in-vehicle device according to the above-described embodiment can be applied to the field of driver monitoring systems. It should be noted that a device other than an in-vehicle device can detect the gaze of a person and estimate the object that the person is looking at. For example, a similar system can be realized by attaching a gaze detection device and a camera that captures the surrounding scenery to a glasses-type device. This allows:
This makes it possible to investigate a person's potential interests not only while driving but also during their everyday life.

10 カメラ
20 マイク
30 スピーカ
40 通信端末
100、100a 車載装置
110 画像取得部
120 視線検出部
130 推定部
140 記憶部
141 履歴
142 メモ情報
150 判定部
160 情報処理部
170 情報提示部
180 通信部
190 出力部
200 ネットワーク
REFERENCE SIGNS LIST 10 Camera 20 Microphone 30 Speaker 40 Communication terminal 100, 100a Vehicle-mounted device 110 Image acquisition unit 120 Line-of-sight detection unit 130 Estimation unit 140 Storage unit 141 History 142 Memo information 150 Determination unit 160 Information processing unit 170 Information presentation unit 180 Communication unit 190 Output unit 200 Network

Claims (3)

車両の運転者の視線方向を検出する視線検出部と、
前記運転者の視線移動の速度に少なくとも基づいて、前記運転者が前記視線方向にある特定の対象を見ている状態であることを判定し、前記対象を推定する推定部と、
前記対象に関連する情報をメモ情報として記録する情報処理部と、
車両の運転が終了したときに、運転中に記録した前記メモ情報を出力する出力部と、
を備えた車載装置。
A gaze detection unit that detects the gaze direction of a driver of the vehicle;
An estimation unit that determines whether the driver is looking at a specific target in the line of sight direction based at least on a speed of the driver's line of sight movement and estimates the target;
an information processing unit that records information related to the target as memo information;
an output unit that outputs the memo information recorded during driving when driving of the vehicle is completed;
An in-vehicle device comprising:
前記推定部は、前記運転者の視線移動の速度と、前記車両の移動速度に相関があるか否かに基づいて、前記運転者が前記視線方向にある特定の対象を見ている状態であることを判定し、
前記情報処理部は、前記メモ情報として前記対象の名称を一部に含むメッセージを記録し、
前記出力部は、前記車両が目的地付近に到着したとき、前記目的地まで所定の距離となったとき、前記車両の駐車動作が終了したとき、の少なくともいずれかを前記車両の運転が終了したときとして、前記メッセージを出力する、
請求項1に記載の車載装置。
The estimation unit determines whether the driver is looking at a specific target in the line of sight direction based on whether there is a correlation between a speed of the driver's line of sight movement and a moving speed of the vehicle,
The information processing unit records a message including a name of the target as the memo information,
The output unit outputs the message when at least one of the following times is determined as the end of driving of the vehicle: when the vehicle has arrived near a destination; when the destination is a predetermined distance away; and when a parking operation of the vehicle has been completed.
The in-vehicle device according to claim 1 .
車両の運転者の視線方向を検出する視線検出ステップと、
前記運転者の視線移動の速度に少なくとも基づいて、前記運転者が前記視線方向にある特定の対象を見ている状態であることを判定し、前記対象を推定する推定ステップと、
前記対象に関連する情報をメモ情報として記録する情報処理ステップと、
車両の運転が終了したときに、運転中に記録した前記メモ情報を出力する出力ステップと、
を備えた記録方法。
a gaze detection step of detecting a gaze direction of a driver of the vehicle;
an estimation step of determining that the driver is looking at a specific target in the line of sight direction based at least on a speed of the driver's line of sight movement, and estimating the target;
An information processing step of recording information related to the subject as memo information;
an output step of outputting the memo information recorded during driving when driving of the vehicle is completed;
A recording method comprising:
JP2024103872A 2020-09-11 2024-06-27 In-vehicle device and recording method Pending JP2024120092A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024103872A JP2024120092A (en) 2020-09-11 2024-06-27 In-vehicle device and recording method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020152671A JP7521343B2 (en) 2020-09-11 2020-09-11 In-vehicle device and recording method
JP2024103872A JP2024120092A (en) 2020-09-11 2024-06-27 In-vehicle device and recording method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020152671A Division JP7521343B2 (en) 2020-09-11 2020-09-11 In-vehicle device and recording method

Publications (1)

Publication Number Publication Date
JP2024120092A true JP2024120092A (en) 2024-09-03

Family

ID=80780138

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020152671A Active JP7521343B2 (en) 2020-09-11 2020-09-11 In-vehicle device and recording method
JP2024103872A Pending JP2024120092A (en) 2020-09-11 2024-06-27 In-vehicle device and recording method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020152671A Active JP7521343B2 (en) 2020-09-11 2020-09-11 In-vehicle device and recording method

Country Status (1)

Country Link
JP (2) JP7521343B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007141223A (en) 2005-10-17 2007-06-07 Omron Corp Information processing apparatus and method, recording medium, and program
JP2008157661A (en) 2006-12-21 2008-07-10 Denso It Laboratory Inc Navigation system

Also Published As

Publication number Publication date
JP2022046989A (en) 2022-03-24
JP7521343B2 (en) 2024-07-24

Similar Documents

Publication Publication Date Title
JP6694112B2 (en) AR display device and AR display method
US10281721B2 (en) System and method for augmented reality head up display for vehicles
US20200372792A1 (en) Crowdsourced realtime traffic images and videos
US11367107B2 (en) Information processing apparatus and information processing method
CN111163974B (en) Display system and method for vehicle
US20150163620A1 (en) Method and Apparatus For Social Telematics
JP7450287B2 (en) Playback device, playback method, program thereof, recording device, recording device control method, etc.
US20190005310A1 (en) Public service system and method using autonomous smart car
JP6613623B2 (en) On-vehicle device, operation mode control system, and operation mode control method
US20240249520A1 (en) Integrated internal and external camera system in vehicles
JP2013255168A (en) Imaging apparatus and imaging method
US20190349552A1 (en) Server, vehicle image capturing system, and vehicle image capturing method
US11960621B2 (en) Systems and methods for ensuring privacy in an autonomous vehicle
US20220019824A1 (en) Method and Device for Monitoring a Passenger of a Vehicle, and System for Analyzing the Perception of Objects
Kashevnik et al. Context-based driver support system development: Methodology and case study
JP7521343B2 (en) In-vehicle device and recording method
US11302304B2 (en) Method for operating a sound output device of a motor vehicle using a voice-analysis and control device
CN106168487B (en) System and method for customizing navigation data based on user identification
JP6917426B2 (en) Image display device, image display method, and image display system
JP7301715B2 (en) State Prediction Server and Alert Device Applied to Vehicle System Using Surveillance Camera
CN110458610B (en) Information processing method and device, vehicle and storage medium
JP7359208B2 (en) Information processing device, information processing method and program
JP2019079203A (en) Image generation device and image generation method
JP2014154125A (en) Travel support system, travel support method and computer program
JP2017126892A (en) Electronic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240628