JP2012201232A - Visual line direction detecting device - Google Patents
Visual line direction detecting device Download PDFInfo
- Publication number
- JP2012201232A JP2012201232A JP2011068050A JP2011068050A JP2012201232A JP 2012201232 A JP2012201232 A JP 2012201232A JP 2011068050 A JP2011068050 A JP 2011068050A JP 2011068050 A JP2011068050 A JP 2011068050A JP 2012201232 A JP2012201232 A JP 2012201232A
- Authority
- JP
- Japan
- Prior art keywords
- driver
- congestion
- calibration
- sight
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
Description
本発明は、車両を運転する運転者の視線方向を検出する視線方向検出装置に関する。 The present invention relates to a gaze direction detection device that detects a gaze direction of a driver who drives a vehicle.
従来の視線方向検出装置は、運転者の顔を撮影するカメラを備えるとともに、運転者の顔を撮影した画像と運転者の視線方向とを対応づけたフィルタ情報(視線検出用モデル)を用いて、カメラで撮影された運転者の顔の画像から運転者の視線方向を検出する処理を行っている。
このうちフィルタ情報は、運転者の個体差によって異なるので、これに対応した補正(キャリブレーション)を行う必要がある。
この一例として、自車両に備えられたナビゲーション装置やエアコン等の装備品のスイッチが操作されたとき、運転者の視線がこれら装備品の方向を向いているとして、これら装備品が操作されたときの運転者の顔を撮影し、この撮影された画像の画像情報(キャリブレーション情報)に基づいてキャリブレーションを行う方法が知られている(特許文献1)。
A conventional gaze direction detection device includes a camera that captures a driver's face, and uses filter information (gaze detection model) that associates an image of the driver's face with the driver's gaze direction. Then, a process of detecting the driver's line-of-sight direction from the driver's face image taken by the camera is performed.
Of these, the filter information varies depending on individual differences among drivers, and it is necessary to perform correction (calibration) corresponding thereto.
As an example of this, when a switch of equipment such as a navigation device or an air conditioner provided in the host vehicle is operated, the equipment is operated assuming that the driver's line of sight is facing the direction of the equipment. A method is known in which a driver's face is photographed and calibration is performed based on image information (calibration information) of the photographed image (Patent Document 1).
しかし、これらの装備品は、運転席に座っている運転者から手の届く範囲、すなわち、運転者の目が中央に寄る輻輳が生じる範囲内に配置されているものばかりであり、数も限られている。
そのため、これらに基づいてキャリブレーション情報を収集しようとしても、その限定された範囲内でしかできないので、この範囲内での精度のキャリブレーションしかできなかった。
この精度を上げるため、別途、キャリブレーション情報を収集する処理を行うことも考えられるが、運転者にこの処理を実行するための操作負担やこの処理につきあう負担等を負わせることも考えられる。
そこで、本発明は、輻輳が発生しない範囲にまでキャリブレーション情報を収集する範囲を広げ、より正確なキャリブレーションを行うとともに、この範囲の拡大に伴う負担を運転者に負わせることのない視線方向検出装置を提供することを目的とする。
However, these pieces of equipment are only located within the reach of the driver sitting in the driver's seat, that is, within the range where the congestion of the driver's eyes approaching the center occurs. It has been.
Therefore, even if it is attempted to collect calibration information based on these, it can only be performed within the limited range, and thus only calibration with accuracy within this range can be performed.
In order to increase this accuracy, it is conceivable to separately perform a process of collecting calibration information. However, it is also conceivable that the driver is burdened with an operation load for executing this process or a burden associated with this process.
Therefore, the present invention extends the range of collecting calibration information to a range where congestion does not occur, performs more accurate calibration, and does not impose a burden on the driver due to the expansion of this range. An object is to provide a detection device.
上記目的を達成するため、本発明の請求項1に記載された視線方向検出装置を構成するキャリブレーション手段は、非輻輳時にキャリブレーション情報を収集する非輻輳時取得手段と、輻輳時にキャリブレーション情報を収集する輻輳時取得手段とを備えている。
In order to achieve the above object, the calibration means constituting the gaze direction detecting device according to
非輻輳時取得手段は、運転者の目に輻輳が発生していないときに運転者の視線が第1方向を向く第1事象が発生した場合、撮影手段により撮影した第1画像をキャリブレーション情報として取得する。
輻輳時取得手段は、運転者の目に輻輳が発生しているときに運転者の視線が第2方向を向く第2事象が発生した場合、撮影手段により撮影した第2画像をキャリブレーション情報として取得する。
そして、キャリブレーション手段は、非輻輳時取得手段及び輻輳時取得手段によって得られたキャリブレーション情報に基づいて、フィルタ情報のキャリブレーションを実行する。
The non-congestion acquisition unit is configured to perform calibration information on the first image captured by the imaging unit when a first event occurs in which the driver's line of sight faces the first direction when no congestion occurs in the driver's eyes. Get as.
When the second event occurs when the driver's eyes are congested and the driver's line of sight is in the second direction, the acquisition unit at the time of congestion is used as calibration information. get.
Then, the calibration unit performs the calibration of the filter information based on the calibration information obtained by the non-congestion acquisition unit and the congestion acquisition unit.
このようにすると、輻輳が発生する場合と発生しない場合の両方のキャリブレーション情報を収集することができるので、フィルタ情報の正確なキャリブレーションを実行することができる。 In this way, it is possible to collect both calibration information when congestion occurs and when congestion does not occur, so that accurate calibration of filter information can be performed.
また、本発明では、キャリブレーション情報の収集とは無関係の第1事象または第2事象が生じたときにキャリブレーション情報を収集しているため、輻輳が発生する範囲にまでキャリブレーション情報を収集する範囲を広げても、運転者に負担を負わせることなくキャリブレーション情報を収集することができる。 In the present invention, since the calibration information is collected when the first event or the second event unrelated to the collection of the calibration information occurs, the calibration information is collected up to the range where congestion occurs. Even if the range is expanded, calibration information can be collected without burdening the driver.
次に、本発明の請求項2に記載された視線方向検出装置は、請求項1に記載の視線方向検出装置の構成に加え、自車両のブレーキの踏み込みを検出するブレーキ検出手段と、視線方向検出装置を備える自車両の前方を走行する他車両との離間距離が、ブレーキ操作をすれば自車両の他車両への衝突を防止可能な距離以上離れた安全走行状態で走行しているか判定する走行状態判定手段と、を備えている。
そして、非輻輳時取得手段は、第1事象として、安全走行状態で自車両が走行しているときに最初のブレーキの踏み込みがあった場合、運転者の視線が第1方向である他車両に向いていて、輻輳が発生していないものとして、このブレーキの踏み込みがあったときに撮影手段により撮影した第1画像をキャリブレーション情報として取得している。
そのため本発明では、安全走行状態で最初にブレーキが踏み込まれるだけで、輻輳が発生していないときのキャリブレーション情報を取得できる。
次に、本発明の請求項3に記載された視線方向検出装置は、請求項1,2のいずれか1項に記載の視線方向検出装置の構成に加え、第2事象として自車両の装備具が操作されると第1対応表示を行う第1対応表示手段を備えている。
そして、輻輳時取得手段は、装備具が操作されたとき、運転者の視線が第2方向である第1対応表示に向いていて輻輳が発生しているものとして、この第1対応表示があったとき撮影手段により撮影した第2画像をキャリブレーション情報として取得している。
そのため本発明では、自動車の装備具が操作されるだけで、輻輳が発生しているときのキャリブレーション情報として、この装備具が操作されたときに表示される第1対応表示に向いている運転者の顔を撮影した第2画像を確実に取得できる。
次に、本発明の請求項4に記載された視線方向検出装置は、請求項1〜3のいずれか1項に記載の視線方向検出装置の構成に加え、第2事象として運転者に対する報知がなされると第2対応表示を行う第2対応表示手段を備えている。
そして、輻輳時取得手段は、報知がされたとき、運転者の視線が第2方向である第2対応表示に向いていて輻輳が発生しているものとして、第2対応表示があったとき撮影手段により撮影した第2画像をキャリブレーション情報として取得している。
そのため本発明では、運転者に対する報知がなされるだけで、輻輳が発生しているときのキャリブレーション情報として、この報知がなされたときに表示される第2対応表示に向いている運転者の顔を撮影した画像を確実に取得できる。
次に、本発明の請求項5に記載された視線方向検出装置は、請求項1〜4のいずれか1項に記載の視線方向検出装置の構成に加え、撮影手段で撮影した運転者の画像により顔向きを算出する顔向算出手段と、第2事象が発生した場合に運顔向算出手段で算出された顔向きが、運転者の視線が第2方向を向いているときに予定されている顔向きの範囲内か判定する顔向判定手段と、を備えている。
そして、輻輳時取得手段は、顔向算出手段で算出された顔向きが、予定されている顔向きの範囲内にないと判断された場合、取得禁止手段が、第2画像をキャリブレーション情報として取得することを禁止している。
そのため、本発明では、第2事象が発生したときでも、運転者の顔向きが想定されるものよりも大きくずれているときに、第2画像をキャリブレーション情報として取得することを禁止しているので、正確なキャリブレーションを実行することができる。
Next, in addition to the configuration of the gaze direction detection device according to
Then, the non-congestion acquisition means, as a first event, when there is a first stepping on the brake when the host vehicle is traveling in a safe traveling state, the driver's line of sight is directed to other vehicles whose first direction is the first direction. The first image taken by the photographing means when the brake is depressed is acquired as calibration information on the assumption that there is no congestion.
Therefore, in the present invention, calibration information when congestion is not generated can be acquired only by first depressing the brake in the safe driving state.
Next, the gaze direction detecting device according to
Then, when the equipment is operated, the acquisition means at the time of the congestion is assumed that the driver's line of sight is directed to the first correspondence display in the second direction and the congestion occurs, and the first correspondence display is present. The second image taken by the photographing means is acquired as calibration information.
For this reason, in the present invention, driving that is suitable for the first correspondence display that is displayed when the equipment is operated as calibration information when the equipment is operated only by operating the equipment of the automobile. The second image obtained by photographing the person's face can be reliably acquired.
Next, in addition to the configuration of the gaze direction detecting device according to any one of
Then, when the notification is given, the acquisition means at the time of congestion is taken when the second correspondence display is present on the assumption that the driver's line of sight is facing the second correspondence display in the second direction and congestion has occurred. A second image taken by the means is acquired as calibration information.
Therefore, in the present invention, the driver's face that is suitable for the second correspondence display that is displayed when the notification is made as the calibration information when the congestion occurs only by notifying the driver. It is possible to reliably acquire an image obtained by shooting.
Next, a gaze direction detection device according to a fifth aspect of the present invention is an image of a driver photographed by a photographing means in addition to the configuration of the gaze direction detection device according to any one of the first to fourth aspects. The face orientation calculating means for calculating the face orientation according to the above and the face orientation calculated by the face orientation calculating means when the second event occurs are scheduled when the driver's line of sight is in the second direction. And face direction determining means for determining whether the face is within the range of the face direction.
Then, when it is determined that the face direction calculated by the face direction calculating unit is not within the range of the planned face direction, the acquisition prohibiting unit uses the second image as calibration information. It is prohibited to acquire.
For this reason, in the present invention, even when the second event occurs, it is prohibited to acquire the second image as calibration information when the driver's face orientation deviates more than expected. So accurate calibration can be performed.
以下に本発明の実施形態を図面と共に説明する。
[1.全体構成]
本実施形態の視線方向検出装置1は、図1に示すように、後述する視線方向監視処理等を実行する中央制御装置3と、顔向検出器4と、視線方向検出器5と、インターフェイス部6とを備えている。
Embodiments of the present invention will be described below with reference to the drawings.
[1. overall structure]
As shown in FIG. 1, the gaze
中央制御装置3は、視線方向監視処理等に関するプログラムにより各種処理を実行するCPU30と、プログラム等を記憶するROM31と、CPU30で実行される処理等で用いる各種情報を書込消去が可能なRAM32とを備えている。
The
このうちRAM32は、視線方向監視処理において、後述するカメラ7で撮影される輻輳時画像及び非輻輳時画像の画像情報をそれぞれ記憶する記憶領域が設定されており、以下では、各画像の記憶領域を、それぞれ輻輳時画像記憶部32a及び非輻輳時画像記憶部32bと呼ぶ。尚、これら輻輳時画像記憶部32a及び非輻輳時画像記憶部32bに記憶されている画像情報をまとめてキャリブレーション情報と呼ぶ。
Among these, the
また、RAM32には、カメラ7で運転者の顔を撮影した画像に基づいて、運転者の視線方向を検出するためのフィルタ情報を記憶するフィルタ情報記憶部32cが設定されている。
Further, in the
中央制御装置3は、インターフェイス部6を介し、CAN上の各種装置と通信可能に接続されている。
中央制御装置3と通信可能な装置としては、後述する視線方向監視処理で主に用いられるカメラ7及びスピーカ8の他に、ODOメータリセットボタン20、ODOメータ21、ヘッドアップディスプレイ(以下「HUD」という)点灯表示ボタン30、HUD用の輝度調整ボタン31、HUD用の投射機32がある。
The
The devices that can communicate with the
また、中央制御装置3と通信可能な装置としては、ガソリン残量報知器40、ガソリン残量表示器41、速度検出器50、ブレーキ踏込量検出器51、前方監視装置52があり、他に、オートクルーズ装置100、オートクルーズ動作状態表示器101、冷却水温度警告灯102などがある。
Further, as devices capable of communicating with the
このうち、カメラ7は、インパネに設置されており、前方を向いて運転席に座っている運転者の顔を正面から撮影できる位置に配置されている。尚、カメラ7は、インパネ以外に設置されていてもよい。例えば、ステアリングコラムの上部に設置してもよい。 Among these, the camera 7 is installed in the instrument panel, and is arranged at a position where the face of the driver sitting in the driver's seat facing forward can be photographed from the front. The camera 7 may be installed other than the instrument panel. For example, you may install in the upper part of a steering column.
スピーカ8は、視線方向監視処理等で出力が指示された音声や警報音を出力する。
ODOメータリセットボタン20は、押下するとODOメータ21の表示を0に戻すことができるボタンである。ODOメータリセットボタン20及びODOメータ21はインパネ上に隣接して配置されるとともに、ODOメータリセットボタン20は、インパネ上のドライバーから操作可能な位置に配置され、ODOメータ21はインパネ上のドライバーから視認可能な位置に配置される。
The speaker 8 outputs a sound or an alarm sound that is instructed to be output in a visual line direction monitoring process or the like.
The ODO
HUD用の投射機32は、運転者から見てフロントガラス越しの車両外部の虚像面に画像が表示されているように見える画像を、図示しないフロントガラス上に表示する装置である。
The
HUD用の点灯表示ボタン30及びHUD用の輝度調整ボタン31は、投射機32を始めとするHUD機能をオンオフさせるボタンと、投射機32が投射する画像の輝度を調整するボタンである。
The HUD
点灯表示ボタン30及び輝度調整ボタン31は、インパネ上に配置され、投射機32は、インパネ内に配置される。
ガソリン残量報知器40は、図示しないガソリンタンク内のガソリン残量を検出して、残量が少なくなってきた場合に報知を行う装置である。
The
The gasoline remaining
ガソリン残量表示器41は、ガソリン残量報知器40で検出されたガソリンタンク内のガソリン量を表示する装置で、インパネ上のドライバーから視認可能な位置に設置される。
The gasoline remaining
速度検出器50は、自車両の速度を検出する装置である。
ブレーキ踏込量検出器51は、自車両のブレーキペダルの踏込量を検出する装置である。
The
The brake
前方監視装置52は、主に、自車両の前方を走行する他車量までの距離を計測する装置である。この前方監視装置52による距離の測定は、ミリ波によるものでもよいし、Lidarやカメラを用いてもよい。
[2.視線方向監視処理]
次に、中央制御装置3で実行される視線方向監視処理について説明する。
The
[2. Gaze direction monitoring process]
Next, the gaze direction monitoring process executed by the
尚、以下の説明では、特に説明がない場合、ステップ番号が小さいものから大きいものに順に実行されるものとして説明する。
この視線方向監視処理は、図示しないスタートボタンを操作すると開始される。
In the following description, it is assumed that the step numbers are executed in order from the smallest to the largest, unless otherwise specified.
This line-of-sight direction monitoring process is started when a start button (not shown) is operated.
図2に示すように、視線方向監視処理がスタートするとすぐに、S10の処理が実行され、S10では、カメラ7により運転者の顔を撮影する制御が実行され、運転者の顔を撮影した画像の画像情報を取得する処理が実行される。 As shown in FIG. 2, as soon as the line-of-sight direction monitoring process is started, the process of S10 is executed. In S10, control for capturing the driver's face is executed by the camera 7, and an image of the driver's face is captured. The process of acquiring the image information is executed.
このS10において行われるカメラ7による運転者の顔を撮影する処理は、視線方向監視処理が実行されている間、常時行われ、以下の処理は、S10において撮影された1フレームの画像毎に実行される。 The process of photographing the driver's face by the camera 7 performed in S10 is always performed while the line-of-sight direction monitoring process is being performed, and the following process is performed for each frame image captured in S10. Is done.
S12では、前回キャリブレーション処理(S50)を行ってから、予め定めた更新期間が経過したかを判定する処理が実行される。
この更新期間は、例えば、30分としてもよい。
In S12, a process for determining whether a predetermined update period has elapsed since the previous calibration process (S50) was performed.
This update period may be, for example, 30 minutes.
S12の処理で、更新期間が経過したと判定されると(S12:YES)、次にS30の処理が実行され、経過していないと判定されると(S12:NO)、次にS14の処理が実行される。 If it is determined in the process of S12 that the update period has elapsed (S12: YES), the process of S30 is executed next. If it is determined that the update period has not elapsed (S12: NO), then the process of S14 is performed. Is executed.
S30及びS50では、後述するキャリブレーション情報取得処理、及び、キャリブレーション処理が実行される。
S14では、S10の処理で運転者の顔を撮影した画像の画像情報と、フィルタ情報記憶部32cに記憶されたフィルタ情報から、S10で運転者の顔を撮影したときの運転者の視線方向を検出する処理が実行される。
In S30 and S50, calibration information acquisition processing and calibration processing to be described later are executed.
In S14, the line-of-sight direction of the driver when the driver's face is photographed in S10 is determined from the image information of the image obtained by photographing the driver's face in the process of S10 and the filter information stored in the filter
S16では、S14で検出された運転者の視線方向が、よそ見をしているときに想定される予め定められた範囲を向いているか判定する処理が実行される。
S16の処理で運転者がよそ見をしていないと判定されたら、再び、S10以下の処理が実行され、よそ見をしていると判定されたら、S18で、スピーカ8から警報音を発する処理が実行され、再びS10以下の処理が実行される。
[3.キャリブレーション情報取得処理]
次に、中央制御装置10で実行されるキャリブレーション情報取得処理について図3を用いて説明する。
In S16, a process of determining whether the driver's line-of-sight direction detected in S14 is in a predetermined range assumed when looking away is executed.
If it is determined that the driver is not looking away in the process of S16, the process of S10 and subsequent steps is executed again. If it is determined that the driver is looking away, the process of emitting an alarm sound from the speaker 8 is executed in S18. Then, the processing after S10 is executed again.
[3. Calibration information acquisition process]
Next, calibration information acquisition processing executed by the central controller 10 will be described with reference to FIG.
このキャリブレーション情報取得処理が開始されると、S32〜S38の処理が順次実行される。
S32では、S10で運転者の顔画像が撮影されたとき、ODOメータリセットボタン20が押下されたかが判定され、押下されたと判定された場合(S32:YES)、S320の処理が実行され(1)、押下されていない場合、S34の処理が実行される。
When the calibration information acquisition process is started, the processes of S32 to S38 are sequentially executed.
In S32, it is determined whether or not the ODO
S320では、顔向検出器4において、S10で撮影された画像の画像情報と、画像情報から運転者の顔向きを検出するために別途取得した顔向検出用情報(運転者の顔画像と顔向方向との対応関係を示す情報)とに基づき顔向運転者の顔向きが検出され、その運転者の顔向きが、ODOメータ21を見たときに予定されている顔向方向から見て±5度の範囲内に収まっているか判定する処理が実行される。
In S320, the
この顔向検出用情報は、図2の視線方向監視処理を実行する前に取得した、運転者に指定方向を向かせて撮影した運転者の顔の画像と、その指定方向とを対応づけた情報である。この顔向検出用情報は、定期的に更新してもよい。 This face orientation detection information associates an image of the driver's face acquired before executing the gaze direction monitoring process of FIG. 2 and photographed with the driver facing the designated direction and the designated direction. Information. This face direction detection information may be updated periodically.
そして、運転者の顔向きが±5度以内に収まっている場合(S320:YES)、ODOメータ21に視線が向いている画像として、S10においてカメラ17で撮影された画像の画像情報をRAM13に記憶する処理が実行された後(S322)、キャリブレーション処理S50に移行し(5)、収まっていない場合(S320:NO)、S14の処理に移行し、S10で取得した画像はよそ見の判定(S16)に用いられる。
If the driver's face orientation is within ± 5 degrees (S320: YES), the image information of the image taken by the camera 17 in S10 is stored in the RAM 13 as an image whose line of sight is facing the
S34では、S10で運転者の顔画像が撮影されたとき、HUDの点灯表示ボタン30又は輝度調整ボタン31が操作されたかが判定され、操作されたと判定された場合(S34:YES)、S340の処理が実行され(2)、押下されていない場合(S34:NO)、S36の処理が実行される。
In S34, when the driver's face image is photographed in S10, it is determined whether the HUD
S340では、顔向検出器15において、S10で撮影された画像の画像情報から、顔向検出用情報に基づき運転者の顔向きが検出され、その運転者の顔向きが、HUD32を見たときの顔向きから±5度以内に収まっているか判定する処理が実行される。 In S340, when the face direction detector 15 detects the driver's face direction based on the face direction detection information from the image information of the image taken in S10, and the driver's face direction looks at the HUD 32 A process for determining whether the angle is within ± 5 degrees from the face orientation is executed.
そして、運転者の顔向きが±5度以内に収まっている場合(S340:YES)、HUDの投射機32が投射している画像が表示された方向に視線が向いている画像として、S10においてカメラ7で撮影された画像の画像情報をRAM13に記憶する処理が実行された後(S342)、キャリブレーション処理S50に移行し(5)、収まっていない場合(S340:NO)、S14の処理に移行する。
When the driver's face orientation is within ± 5 degrees (S340: YES), in S10, the image is directed in the direction in which the image projected by the
S36では、S10で運転者の顔画像が撮影されたとき、ガソリン残量検出部から警報が発せられたかが判定され、警報が発せられたと判定された場合(S36:YES)、S360の処理が実行され(3)、発せられていない場合、S38の処理が実行される。 In S36, when the driver's face image is photographed in S10, it is determined whether an alarm is issued from the gasoline remaining amount detection unit. If it is determined that the alarm is issued (S36: YES), the process of S360 is executed. (3) If not issued, the process of S38 is executed.
S360では、顔向検出器15において、S10で撮影された画像の画像情報から、顔向検出用情報に基づき運転者の顔向きが検出され、その運転者の顔向きが、ガソリン残量表示器41を見たときの顔向きから±5度以内に収まっているか判定する処理が実行される。 In S360, the face direction detector 15 detects the driver's face direction from the image information of the image taken in S10 based on the face direction detection information, and the driver's face direction is determined based on the remaining gasoline indicator. A process of determining whether the face is within ± 5 degrees from the face orientation when viewing 41 is executed.
そして、運転者の顔向きが±5度以内に収まっている場合(S360:YES)、ガソリン残量表示器41に視線が向いている画像として、S10においてカメラ7で撮影された画像の画像情報をRAM13に記憶する処理が実行された後(S362)、キャリブレーション処理(S50)に移行し(5)、収まっていない場合(S340:NO)、S14の処理に移行する。
If the driver's face orientation is within ± 5 degrees (S360: YES), the image information of the image taken by the camera 7 in S10 as an image whose line of sight is facing the gasoline remaining
S38では、S10で運転者の顔画像が撮影されたとき、自車両が走行し、その速度が10km/hを超えているかが判定され、超えていると判定された場合(S38:YES)、S380の処理が実行され(4)、超えていない場合、S14の処理に移行する。 In S38, when the driver's face image is photographed in S10, it is determined whether the host vehicle travels and the speed exceeds 10 km / h. If it is determined that the speed exceeds (S38: YES), The process of S380 is executed (4), and if not exceeded, the process proceeds to S14.
S380では、自車両の前方を走行する他車両との離間距離が、ブレーキ操作をすれば自車両の他車両への衝突を防止可能な距離以上離れた安全走行状態であるか否か、具体的には、自車両が前方を走行する他車両から10m以上離れているか判定する処理が実行される。 In S380, whether or not the distance from the other vehicle traveling in front of the host vehicle is a safe driving state that is more than a distance that can prevent a collision of the host vehicle with the other vehicle if the brake operation is performed, Is executed to determine whether the host vehicle is 10 m or more away from other vehicles traveling ahead.
そして、自車両が他車両から10m以上離れていると判定されると(S380:YES)、S382の処理が実行され、10m以上離れていないと判定されると(S380:NO)、S14の処理に移行する。 If it is determined that the host vehicle is separated from the other vehicle by 10 m or more (S380: YES), the process of S382 is executed. If it is determined that the vehicle is not separated by 10 m or more (S380: NO), the process of S14 is performed. Migrate to
S382では、安全走行状態で運転者が踏み込んだブレーキが最初のものか判定する処理が実行される。そして、最初にブレーキを踏み込んだものと判定されると(S382:YES)、S384の処理が実行され、最初にブレーキを踏み込んだものではないと判定されると(S382:NO)、S14の処理に移行する。 In S382, a process of determining whether the brake that the driver has depressed in the safe driving state is the first one is executed. If it is determined that the brake is first depressed (S382: YES), the process of S384 is executed. If it is determined that the brake is not initially depressed (S382: NO), the process of S14 is performed. Migrate to
S384では、前方車両に運転者の視線の方向がある画像として、S10においてカメラ7で撮影された画像の画像情報をRAM13に記憶する処理が実行され(S384)、キャリブレーション処理(S50)に移行する。
[4.キャリブレーション処理]
次に、中央制御装置10で実行されるキャリブレーション処理(S50)について図4を用いて説明する。
In S384, the image information of the image taken by the camera 7 in S10 is stored in the RAM 13 as an image having the driver's line of sight on the vehicle ahead (S384), and the process proceeds to the calibration process (S50). To do.
[4. Calibration process]
Next, the calibration process (S50) executed by the central controller 10 will be described with reference to FIG.
尚、キャリブレーション処理とは、撮影画像に基づき視線方向を検出するアルゴリズムを、実際の視線方向及びその状態での撮影画像に基づき補正することで、運転者の個体差等に関係なく視線方向を精度よく検出可能とするための処理である。 The calibration process is an algorithm that detects the gaze direction based on the captured image, and corrects the gaze direction based on the actual gaze direction and the captured image in that state. This is a process for enabling detection with high accuracy.
このキャリブレーション処理(S50)が開始されると、キャリブレーション情報取得処理(S30)で取得された情報が、非輻輳時情報か否か、すなわち、運転者の視線方向が他車両を向いている情報か否かを判断する処理が実行され(S52)、非輻輳時情報を取得したと判断されると(S52:YES)、S54の処理が実行され、輻輳時情報を取得したと判断されると(S52:NO)、S56の処理が実行される。 When the calibration process (S50) is started, whether or not the information acquired in the calibration information acquisition process (S30) is non-congestion information, that is, the driver's line-of-sight direction is directed to another vehicle. A process for determining whether or not the information is information is executed (S52). If it is determined that the information at the time of non-congestion is acquired (S52: YES), the process at S54 is executed and it is determined that the information at the time of congestion is acquired. (S52: NO), the process of S56 is executed.
S54では、RAM13に記憶された画像、すなわち、S10において運転者の視線が他車両に向いているときにカメラ7で撮影した運転者の顔の画像と、顔向検出用情報に基づいて、顔向きを算出する処理が実行され、S56の処理が実行される。 In S54, based on the image stored in the RAM 13, that is, the driver's face image captured by the camera 7 when the driver's line of sight is facing another vehicle in S10, and the face direction detection information, The process for calculating the direction is executed, and the process of S56 is executed.
S56では、S54が実行された場合、非輻輳時画像記憶部32aに記憶された画像情報を、RAM13に記憶された画像情報で更新し、S320、S340、S360が実行された場合、輻輳時画像記憶部32bに記憶された各表示に対応する画像情報を、RAM13に記憶された画像情報で更新する。
In S56, when S54 is executed, the image information stored in the non-congestion
S58では、更新されたキャリブレーション情報、及び、S54、S320、S340、S360で算出された顔向きに基づき、各表示21,32,41や前方を走行する他車両への視線方向を検出し、検出した視線方向と、各表示21,32,41や前方を走行する他車両の位置との関係に基づき、運転者の顔の画像から視線方向を検出するためのフィルタ情報である視線検出用モデルを生成(補正)、すなわち、キャリブレーションを実行する。
In S58, based on the updated calibration information and the face orientation calculated in S54, S320, S340, and S360, the
その後、本キャリブレーション処理を終了し、図2のS12へ移行する。
[5.効果]
以上説明したように、本実施形態では、非輻輳時にキャリブレーション情報を収集している(S384)とともに、輻輳時にキャリブレーション情報を収集している(S322、S342、S362)。
そして、キャリブレーション処理(S50)では、これら収集されたキャリブレーション情報に基づいて、フィルタ情報のキャリブレーションを実行している(S58)。
Thereafter, the calibration process is terminated, and the process proceeds to S12 in FIG.
[5. effect]
As described above, in the present embodiment, calibration information is collected during non-congestion (S384) and calibration information is collected during congestion (S322, S342, S362).
In the calibration process (S50), the filter information is calibrated based on the collected calibration information (S58).
このようにすると、輻輳が発生する場合と発生しない場合の両方のキャリブレーション用の情報を収集することができるので、フィルタ情報の正確なキャリブレーションを実行することができる。 In this way, it is possible to collect information for calibration both when congestion occurs and when it does not occur, so that accurate calibration of filter information can be performed.
また、本実施形態では、輻輳が発生しない範囲にキャリブレーション情報を収集する範囲を広げても、運転者に何らの負担を負わせることなくキャリブレーション情報を収集することができる。 In the present embodiment, calibration information can be collected without imposing any burden on the driver even if the range for collecting calibration information is expanded to a range where congestion does not occur.
次に、本実施形態では、自車両と他車両とが離間距離(10m)以上離れた状態で走行しているときに(S380:YES)、最初にブレーキが踏み込まれた場合(S382:YES)、運転者の視線の先が、高い確率で前方を走行している他車両に位置するので、輻輳が発生しておらず、かつ、運転者の視線方向が他車両を向いていると判断している。
そのため本実施形態では、この最初にブレーキが踏まれたときに、運転者の視線が他車両を向く方向(第1方向)に運転者の視線があることが推定される事象(第1事象)が発生したものとして、このときカメラ7で撮影した画像(第1画像)を、キャリブレーション情報として取得している。
従って、本実施形態のように構成すると、輻輳が発生していない場合のキャリブレーション情報を取得できるので、正確なキャリブレーションを行うことができる。
次に、本実施形態では、ODOメータリセットボタン20など操作具が操作されたときに(S32、S34:YES)、運転者の視線が対応する表示(第1対応表示)を向く方向(第2方向)に運転者の視線があることが推定される事象(第2事象)が発生したものとして、カメラ7で撮影した画像(第2画像)を、キャリブレーション情報として取得している(S322、S342)。
従って、本実施形態のように構成すると、輻輳が発生している場合のキャリブレーション情報を取得できるので、正確なキャリブレーションを行うことができる。
また、本実施形態では、ガソリン残量の報知がなされたときに(S36:YES)、運転者の視線がその報知に対応する表示(第2対応表示)を向く方向(第2方向)に運転者の視線があることが推定される事象(第2事象)が発生したものとして、このときカメラ7で撮影した第2画像を、キャリブレーション情報として取得している(S362)。
従って、本実施形態のように構成すると、輻輳が発生している場合のキャリブレーション情報を取得できるので、正確なキャリブレーションを行うことができる。
また、本実施形態では、第2方向に運転者の視線が向いていることが想定されない方向に運転者の顔が向いている場合に(S320,S340,S360:NO)、運転者の顔を撮影した画像をキャリブレーション画像として取得することを防止しているので、正確なキャリブレーションを行うことができる。
(その他の実施形態)
尚、輻輳が発生しているときに運転者が視線を向ける表示として、ODOメータ21等を例示したが、その他に、ウォッシャ液の残量表示や、ナビゲーション装置が操作されたときのナビゲーション装置の表示画面や、オーディオが操作されたときのオーディオ装置の表示画面等も考え得る。
Next, in the present embodiment, when the host vehicle and the other vehicle are traveling with a separation distance (10 m) or more (S380: YES), the brake is first depressed (S382: YES). Because the driver's line of sight is located in another vehicle that is traveling ahead with high probability, it is determined that congestion has not occurred and the driver's line of sight is facing the other vehicle. ing.
Therefore, in the present embodiment, when the brake is stepped on for the first time, it is estimated that the driver's line of sight is in the direction (first direction) in which the driver's line of sight faces the other vehicle (first event). In this case, the image (first image) taken by the camera 7 at this time is acquired as calibration information.
Therefore, if configured as in the present embodiment, calibration information when no congestion has occurred can be acquired, so that accurate calibration can be performed.
Next, in the present embodiment, when an operation tool such as the ODO
Therefore, if configured as in the present embodiment, calibration information when congestion occurs can be acquired, so that accurate calibration can be performed.
Further, in the present embodiment, when the remaining amount of gasoline is notified (S36: YES), driving in a direction (second direction) in which the driver's line of sight faces a display corresponding to the notification (second correspondence display). The second image captured by the camera 7 at this time is acquired as calibration information on the assumption that an event (second event) that is estimated to have a person's line of sight has occurred (S362).
Therefore, if configured as in the present embodiment, calibration information when congestion occurs can be acquired, so that accurate calibration can be performed.
In the present embodiment, when the driver's face is facing in a direction in which the driver's line of sight is not assumed to be facing in the second direction (S320, S340, S360: NO), the driver's face is Since the captured image is prevented from being acquired as a calibration image, accurate calibration can be performed.
(Other embodiments)
The
また、輻輳が発生している場合として、ドアミラーの角度調整ボタンが操作されたときにドアミラーを見る場合なども考えられる。
また、上記実施形態のS320,S340,S360では、許容範囲を±5度としたが、例えばこれを±1としてもよく、精度等に応じてその範囲を拡縮してよい。
Moreover, as a case where congestion has occurred, a case where the door mirror is viewed when the angle adjustment button of the door mirror is operated may be considered.
In S320, S340, and S360 of the above-described embodiment, the allowable range is ± 5 degrees. However, for example, this may be ± 1, and the range may be enlarged or reduced according to accuracy.
また、自車両が走行していることを判断する基準として自車両が10km/hで走行していることを基準としたが(S38)、これに限られるものではない。
また、自車両の他車両への衝突を防止可能な距離として10mとしたが、これに限られるものではない。
(対応関係)
請求項に記載された撮影手段は、実施形態のカメラ7に対応し、視線方向検出手段は、S10,S14の処理に対応し、非輻輳時取得手段は、S38、S380〜S384の処理に相当し、輻輳時取得処理は、S32,S34,S36,S320,S322,S340,S342,S360,S362の処理に相当する。
Moreover, although the reference | standard that the own vehicle is drive | working at 10 km / h was used as a reference | standard as a reference | standard which judges that the own vehicle is drive | working (S38), it is not restricted to this.
In addition, although the distance that can prevent a collision of the host vehicle with another vehicle is 10 m, the distance is not limited to this.
(Correspondence)
The imaging means recited in the claims corresponds to the camera 7 of the embodiment, the line-of-sight direction detection means corresponds to the processes of S10 and S14, and the non-congestion acquisition means corresponds to the processes of S38, S380 to S384. The congestion acquisition process corresponds to the processes of S32, S34, S36, S320, S322, S340, S342, S360, and S362.
請求項に記載された装備具は、ODOメータリセットボタン20や、HUD用の点灯表示ボタン30、HUD用の輝度調整ボタン31に相当する。
請求項に記載されたブレーキ検出手段は、実施形態のブレーキ踏込量検出器51に対応し、走行状態判定手段はS380の処理に相当し、第1対応表示手段は、ODOメータ21、HUDの投射機32に相当し、第2対応表示手段は、ガソリン残量表示器41に相当する。
The equipment described in the claims corresponds to the ODO
The brake detection means described in the claims corresponds to the brake
請求項に記載された顔向算出手段は、本実施形態のS320,S340,S360で顔向きを算出する処理に相当し、顔向判定手段は、S322,S342,S362に相当し、取得禁止手段はS320,S340,S360の処理に相当する。 The face direction calculation means described in the claims corresponds to the process of calculating the face direction in S320, S340, and S360 of the present embodiment, and the face direction determination means corresponds to S322, S342, and S362, and the acquisition prohibition means. Corresponds to the processing of S320, S340, and S360.
また、本発明は、特許請求の範囲に記載された発明の趣旨に合致するものであればよく、上述の実施形態に限定されるものではない。 Further, the present invention is not limited to the above-described embodiment as long as it matches the gist of the invention described in the claims.
1…視線方向検出装置、3…中央制御装置、4…顔向検出器、5…視線方向検出器、6…インターフェイス部、7…カメラ、8…スピーカ、10…中央制御装置、17…カメラ、20…ODOメータリセットボタン、21…ODOメータ、30…点灯表示ボタン、31…輝度調整ボタン、32…投射機、32a…非輻輳時画像記憶部、32b…輻輳時画像記憶部、32c…フィルタ情報記憶部、40…ガソリン残量報知器、41…ガソリン残量表示器、50…速度検出器、51…ブレーキ踏込量検出器、52…前方監視装置。
DESCRIPTION OF
Claims (5)
運転者の顔を撮影した画像と運転者の視線方向とを対応づけたフィルタ情報を用いて、前記撮影手段で撮影された運転者の顔の画像から運転者の視線方向を検出する視線方向検出手段と、
前記フィルタ情報のキャリブレーションを実行するキャリブレーション手段とを備えた視線方向検出装置において、
前記キャリブレーション手段は、
運転者の目に輻輳が発生していないときに運転者の視線が第1方向を向く第1事象が発生した場合、前記撮影手段により撮影した第1画像をキャリブレーション情報として取得する非輻輳時取得手段と、
運転者の目に輻輳が発生しているときに運転者の視線が第2方向を向く第2事象が発生した場合、前記撮影手段により撮影した第2画像をキャリブレーション情報として取得する輻輳時取得手段と、
を備え、
前記非輻輳時取得手段及び前記輻輳時取得手段によって得られた前記キャリブレーション情報に基づいて、前記フィルタ情報のキャリブレーションを実行することを特徴とする視線方向検出装置。 Photographing means for photographing the driver's face;
Gaze direction detection that detects the driver's gaze direction from the driver's face image captured by the imaging means, using filter information that associates the driver's face image with the driver's gaze direction Means,
In a gaze direction detection device comprising calibration means for performing calibration of the filter information,
The calibration means includes
When a first event occurs in which the driver's line of sight faces the first direction when no congestion occurs in the driver's eyes, the first image captured by the imaging unit is acquired as calibration information. Acquisition means;
Acquisition at the time of congestion when the second event occurs when the driver's eyes are congested and the driver's line of sight is in the second direction, and the second image captured by the imaging unit is acquired as calibration information. Means,
With
A line-of-sight direction detection apparatus, wherein the filter information is calibrated based on the calibration information obtained by the non-congestion acquisition unit and the congestion acquisition unit.
自車両のブレーキの踏み込みを検出するブレーキ検出手段と、
当該視線方向検出装置を備える自車両の前方を走行する他車両との離間距離が、ブレーキ操作をすれば自車両の他車両への衝突を防止可能な距離以上離れた安全走行状態で走行しているか判定する走行状態判定手段と、
を備え、
前記非輻輳時取得手段は、
前記第1事象として、前記安全走行状態で自車両が走行しているときに最初のブレーキの踏み込みがあった場合、運転者の視線が前記第1方向である前記他車両に向いていて輻輳が発生していないものとして、この踏み込みがあったとき前記撮影手段により撮影した前記第1画像をキャリブレーション情報として取得することを特徴とする視線方向検出装置。 In the gaze direction detecting device according to claim 1,
Brake detecting means for detecting depression of the brake of the own vehicle;
Drive in a safe driving state where the distance from the other vehicle traveling in front of the host vehicle provided with the line-of-sight direction detection device is more than a distance that can prevent a collision of the host vehicle with the other vehicle if a brake operation is performed. Traveling state determining means for determining whether or not
With
The non-congestion acquisition means includes:
As the first event, when the host vehicle is traveling in the safe driving state and the first brake is depressed, the driver's line of sight is directed to the other vehicle in the first direction and congestion occurs. A line-of-sight direction detection apparatus, wherein the first image captured by the imaging unit is acquired as calibration information when it has been stepped on.
前記第2事象として自車両の装備具が操作されると第1対応表示を行う第1対応表示手段を備え、
前記輻輳時取得手段は、
前記装備具が操作されたとき、運転者の視線が前記第2方向である前記第1対応表示に向いていて輻輳が発生しているものとして、前記第1対応表示があったとき前記撮影手段により撮影した前記第2画像をキャリブレーション情報として取得する
ことを特徴とする視線方向検出装置。 In the gaze direction detecting device according to any one of claims 1 and 2,
When the equipment of the host vehicle is operated as the second event, the first correspondence display means for performing a first correspondence display,
The acquisition means at the time of congestion is
When the equipment is operated, it is assumed that the driver's line of sight is directed to the first correspondence display in the second direction and congestion occurs. The gaze direction detecting device, wherein the second image captured by the step (2) is acquired as calibration information.
前記第2事象として運転者に対する報知がなされたとき、該報知に対応した第2対応表示を行う第2対応表示手段を備え、
前記輻輳時取得手段は、
前記報知がされたとき、運転者の視線が前記第2方向である前記第2対応表示に向いていて輻輳が発生しているものとして、前記第2対応表示があったとき前記撮影手段により撮影した前記第2画像をキャリブレーション情報として取得する
ことを特徴とする視線方向検出装置。 In the gaze direction detecting device according to any one of claims 1 to 3,
A second correspondence display means for performing a second correspondence display corresponding to the notification when the notification is made to the driver as the second event;
The acquisition means at the time of congestion is
When the notification is given, it is assumed that the driver's line of sight is facing the second correspondence display in the second direction and congestion is occurring. An eye-gaze direction detecting apparatus that acquires the second image as calibration information.
前記撮影手段で撮影した運転者の画像により顔向きを算出する顔向算出手段と、
前記第2事象が発生した場合に前記顔向算出手段で算出された顔向きが、運転者の視線が前記第2方向を向いているときに予定されている顔向きの範囲内か判定する顔向判定手段と、
を備え、
前記輻輳時取得手段は、
前記顔向算出手段で算出された顔向きが、予定されている顔向きの範囲内にないと判断された場合、前記第2画像をキャリブレーション情報として取得することを禁止する取得禁止手段を備えることを特徴とする視線方向検出装置。 In the gaze direction detecting device according to any one of claims 1 to 4,
A face orientation calculating means for calculating a face orientation from an image of the driver photographed by the photographing means;
A face for determining whether the face orientation calculated by the face orientation calculation means when the second event occurs is within the range of the face orientation planned when the driver's line of sight is facing the second direction Direction determination means;
With
The acquisition means at the time of congestion is
An acquisition prohibiting unit that prohibits acquisition of the second image as calibration information when it is determined that the face orientation calculated by the face orientation calculating unit is not within the range of the planned face orientation; A gaze direction detecting device characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011068050A JP5561219B2 (en) | 2011-03-25 | 2011-03-25 | Gaze direction detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011068050A JP5561219B2 (en) | 2011-03-25 | 2011-03-25 | Gaze direction detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012201232A true JP2012201232A (en) | 2012-10-22 |
JP5561219B2 JP5561219B2 (en) | 2014-07-30 |
Family
ID=47182657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011068050A Expired - Fee Related JP5561219B2 (en) | 2011-03-25 | 2011-03-25 | Gaze direction detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5561219B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11425329B2 (en) * | 2019-02-27 | 2022-08-23 | Jvckenwood Corporation | Recording/reproducing device, recording/reproducing method, and program for movable object and recording and reproducing captured by camera |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09238905A (en) * | 1996-03-05 | 1997-09-16 | Nissan Motor Co Ltd | Apparatus for measurement of direction of visual axis |
JP2002083400A (en) * | 2000-09-06 | 2002-03-22 | Honda Motor Co Ltd | On-vehicle information processor for judging compatibility of view area of driver |
JP2006263334A (en) * | 2005-03-25 | 2006-10-05 | Nissan Motor Co Ltd | Device and method for detecting visual line direction for vehicle |
-
2011
- 2011-03-25 JP JP2011068050A patent/JP5561219B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09238905A (en) * | 1996-03-05 | 1997-09-16 | Nissan Motor Co Ltd | Apparatus for measurement of direction of visual axis |
JP2002083400A (en) * | 2000-09-06 | 2002-03-22 | Honda Motor Co Ltd | On-vehicle information processor for judging compatibility of view area of driver |
JP2006263334A (en) * | 2005-03-25 | 2006-10-05 | Nissan Motor Co Ltd | Device and method for detecting visual line direction for vehicle |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11425329B2 (en) * | 2019-02-27 | 2022-08-23 | Jvckenwood Corporation | Recording/reproducing device, recording/reproducing method, and program for movable object and recording and reproducing captured by camera |
Also Published As
Publication number | Publication date |
---|---|
JP5561219B2 (en) | 2014-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6497915B2 (en) | Driving support system | |
JP5723106B2 (en) | Vehicle display device and vehicle display method | |
US20190155279A1 (en) | Automatic driving system for vehicles | |
US10040350B2 (en) | Control apparatus and related method | |
CN102224443B (en) | Vehicle display device and display method | |
US9904362B2 (en) | Systems and methods for use at a vehicle including an eye tracking device | |
US9530065B2 (en) | Systems and methods for use at a vehicle including an eye tracking device | |
JP3785669B2 (en) | Gaze direction measuring device | |
JP2010018201A (en) | Driver assistant device, driver assistant method, and driver assistant processing program | |
JP6075248B2 (en) | Information display device | |
JP2005267108A (en) | Driving support device | |
JP2007094716A (en) | Vehicle driving support device | |
JP2009244959A (en) | Driving support device and driving support method | |
JP6187155B2 (en) | Gaze target estimation device | |
JP2016055801A (en) | On-vehicle display device | |
JP2015207163A (en) | State estimation device and state estimation program | |
WO2019230270A1 (en) | Display control device, display control program, and persistent tangible computer-readable recording medium therefor | |
JP2014071627A (en) | Driving condition display system, driving condition display program, and driving condition display method | |
JP5644414B2 (en) | Awakening level determination device, awakening level determination method, and program | |
JP2017126151A (en) | Sight line detection device and sight line detection method | |
JP5561219B2 (en) | Gaze direction detection device | |
US20230001947A1 (en) | Information processing apparatus, vehicle, and information processing method | |
JP6687006B2 (en) | Driver determination device, driver state determination device including the same, and methods and programs thereof | |
JP2007133644A (en) | Pedestrian recognition device | |
US20150130940A1 (en) | Apparatus for controlling display of vehicle cluster and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130417 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140225 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140513 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140526 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5561219 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |