JP2007230369A - On-vehicle apparatus adjusting device - Google Patents

On-vehicle apparatus adjusting device Download PDF

Info

Publication number
JP2007230369A
JP2007230369A JP2006054580A JP2006054580A JP2007230369A JP 2007230369 A JP2007230369 A JP 2007230369A JP 2006054580 A JP2006054580 A JP 2006054580A JP 2006054580 A JP2006054580 A JP 2006054580A JP 2007230369 A JP2007230369 A JP 2007230369A
Authority
JP
Japan
Prior art keywords
face
driver
vehicle
line
vehicle device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006054580A
Other languages
Japanese (ja)
Other versions
JP4894300B2 (en
Inventor
Seiki Moriizumi
清貴 森泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006054580A priority Critical patent/JP4894300B2/en
Publication of JP2007230369A publication Critical patent/JP2007230369A/en
Application granted granted Critical
Publication of JP4894300B2 publication Critical patent/JP4894300B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K2360/149

Abstract

<P>PROBLEM TO BE SOLVED: To provide an on-vehicle apparatus adjusting device capable of continuously adjusting the state of an on-vehicle apparatus according to the intention of a driver even when a vehicle is traveling. <P>SOLUTION: The on-vehicle apparatus adjustment device 1 for adjusting the state of an on-vehicle apparatus comprises a starting means 12 for starting the on-vehicle apparatus adjusting device, a face direction detection means 14 for detecting the angle of the face direction of a driver, and on-vehicle apparatus control means 15, 18 for controlling the state of the on-vehicle apparatus 17 according to the angle of the face direction detected by the face direction detection means. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車載装置の状態を調整する車載装置調整装置に関し、特に、運転者がステアリング操作をしながら容易に車載装置の状態を調整できる車載装置調整装置に関する。   The present invention relates to an in-vehicle device adjustment device that adjusts the state of an in-vehicle device, and more particularly to an in-vehicle device adjustment device that allows a driver to easily adjust the state of the in-vehicle device while performing a steering operation.

車両の運転中、運転者はステアリング、アクセル又はブレーキペダル等を操作しているので、これらから手や足を離してその他の装置を操作することは困難な状態となる。そこで車両では、運転者の音声を分析しその特徴量に基づき運転者の発した言葉を操作内容に変換する音声認識装置を備え、手や足による操作の代用とすることが行われている。   Since the driver operates the steering, the accelerator, the brake pedal, or the like while driving the vehicle, it is difficult to operate other devices with their hands or feet away from them. Therefore, a vehicle is provided with a voice recognition device that analyzes a driver's voice and converts words spoken by the driver into operation contents based on the feature amount, and is used as a substitute for an operation with a hand or a foot.

また、車両を運転中に運転者の顔や視線の方向を検出して、顔や視線の方向に前照灯の照明軸方向を制御する車両用インターフェイスが提案されている(例えば、特許文献1参照。)。カーブや右左折を走行する場合、運転者は進行する方向を注視するので、運転者の顔や視線の方向に応じて前照灯の照射軸方向を制御することで、運転中であっても前照灯を制御することができる。
特開平7−96803号公報
Further, there has been proposed a vehicle interface that detects the direction of the driver's face and line of sight while driving the vehicle, and controls the illumination axis direction of the headlamp in the direction of the face and line of sight (for example, Patent Document 1). reference.). When driving on a curve or turning left or right, the driver pays attention to the direction of travel, so even if you are driving, you can control the direction of the headlamp's illumination axis according to the driver's face or line of sight. The headlamp can be controlled.
JP-A-7-96803

しかしながら、音声認識装置は、「オン」や「オフ」などの不連続な状態の操作は可能であるが、車載装置の状態を連続的に調整するようなことが困難である。これは、音声では状態の連続的な尺度を表現することが困難なためである。音声操作を繰り返して、最終的に所望の状態に到達することも可能であるがその過程が煩わしい場合が多い。   However, the voice recognition device can operate in a discontinuous state such as “ON” or “OFF”, but it is difficult to continuously adjust the state of the in-vehicle device. This is because it is difficult to express a continuous measure of state with speech. It is possible to repeat a voice operation to finally reach a desired state, but the process is often troublesome.

また、運転者の顔向きや視線を検出して前照灯の照射軸方向を制御する場合、連続的に照射軸方向を制御できるが、これは運転者の顔向きや視線を自動的に検出して制御するものであり、運転者の意志を反映したものではない。すなわち、特許文献1記載の車両用インターフェイスでは運転者の意志による制御が困難である。   In addition, when detecting the driver's face direction and line of sight and controlling the direction of the headlamp's illumination axis, the direction of the illumination axis can be controlled continuously, but this automatically detects the driver's face direction and line of sight. Therefore, it does not reflect the will of the driver. That is, the vehicle interface described in Patent Document 1 is difficult to control by the driver's will.

本発明は、上記問題に鑑み、走行中であっても、運転者の意志に応じて車載装置の状態の連続的な調整が容易な車載装置調整装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an in-vehicle device adjustment device that can easily adjust the state of the in-vehicle device according to the driver's will even during traveling.

上記課題に鑑み、本発明は、車載装置の状態を調整する車載装置調整装置において、当該車載装置調整装置を起動する起動手段(例えば、音声認識装置12、押下ボタン)と、運転者の顔向き角度を検出する顔向き検出手段と、顔向き検出手段により検出された顔向き角度に応じて、車載装置の状態を制御する車載装置制御手段(例えば、ナビECU15、サスペンション制御ECU18等の車載装置を制御する手段)と、を有することを特徴とする。   In view of the above-described problems, the present invention provides an in-vehicle device adjustment device that adjusts the state of an in-vehicle device, an activation means (for example, a voice recognition device 12, a push button) that activates the in-vehicle device adjustment device, and a driver's face orientation. Face orientation detection means for detecting the angle and vehicle equipment control means for controlling the state of the vehicle equipment according to the face orientation angle detected by the face orientation detection means (for example, onboard devices such as the navigation ECU 15 and the suspension control ECU 18) Means for controlling).

本発明によれば、走行中であっても、運転者の意志に応じて車載装置の状態の連続的な調整が容易な車載装置調整装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, even if it is drive | working, according to a driver | operator's will, the vehicle-mounted apparatus adjustment apparatus with which the continuous adjustment of the state of a vehicle-mounted apparatus is easy can be provided.

また、本発明の一形態において、車載装置制御手段により制御される車載装置の状態を乗員に報知する報知手段(例えば、表示装置16に表示される調整画面、スピーカ17から出力される音声)、を有することを特徴とする。   Further, in one embodiment of the present invention, notification means (for example, an adjustment screen displayed on the display device 16, sound output from the speaker 17) for notifying the occupant of the state of the on-vehicle device controlled by the on-vehicle device control means, It is characterized by having.

本発明によれば、運転者は車載装置の調整状態を視覚又は聴覚で認識することができる。   According to the present invention, the driver can recognize the adjustment state of the in-vehicle device visually or audibly.

また、本発明の一形態において、運転者の視線方向を検出する視線方向検出手段と、自車両の進行方向を検出する進行方向検出手段と、視線方向検出手段により検出された運転者の視線方向と、進行方向検出手段により検出された進行方向とが所定以上異なる場合、運転者に警報する警報手段と、を有することを特徴とする。   In one embodiment of the present invention, a gaze direction detection unit that detects the gaze direction of the driver, a travel direction detection unit that detects a travel direction of the host vehicle, and the gaze direction of the driver detected by the gaze direction detection unit And warning means for warning the driver when the traveling direction detected by the traveling direction detection means differs by a predetermined amount or more.

本発明によれば、顔向き角度により車載装置を操作している間に運転者の視線が進行方向と大きく異なった場合、警報を吹聴して運転者に注意を促すことができるので、安全性が向上する。   According to the present invention, when the driver's line of sight is greatly different from the traveling direction while operating the vehicle-mounted device according to the face orientation angle, the driver can be alerted by alerting the driver. Will improve.

また、本発明の一形態において、運転者の視線方向を検出する視線方向検出手段を有し、報知手段は、視線方向検出手段により検出された視線方向に車載装置の状態を表示する、ことを特徴とする。   Moreover, in one form of this invention, it has a gaze direction detection means to detect a driver | operator's gaze direction, and an alerting | reporting means displays the state of a vehicle-mounted apparatus in the gaze direction detected by the gaze direction detection means. Features.

本発明によれば、顔向き角度により音量を調整している場合であっても、運転者から見やすい位置に音量調整画面を表示することができる。   According to the present invention, even when the volume is adjusted according to the face orientation angle, the volume adjustment screen can be displayed at a position that is easy for the driver to see.

走行中であっても、運転者の意志に応じて車載装置の状態の連続的な調整が容易な車載装置調整装置を提供することができる。   Even when the vehicle is traveling, it is possible to provide an in-vehicle device adjustment device that can easily adjust the state of the in-vehicle device according to the will of the driver.

以下、本発明を実施するための最良の形態を、図面を参照しながら実施例を挙げて説明する。本実施の形態の車載装置調整装置は、運転者が所定の車載装置を指定した場合に、運転者の顔向きを検出して、該車載装置の状態を連続的に調整することを可能にする。なお、連続的とは連続的と見なせる程度に多段階であればよい。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the accompanying drawings. The in-vehicle device adjustment device of the present embodiment makes it possible to detect the driver's face orientation and continuously adjust the state of the in-vehicle device when the driver designates a predetermined on-vehicle device. . In addition, what is necessary is just to be multistage so that it can be considered that it is continuous.

図1は車載装置調整装置の機能ブロック図を示す。図1の車載装置調整装置1はスピーカ17の音量を調整する。音量は乗員とのインターフェイスとなるナビゲーションシステムを介して調整されるため、図1の車載装置調整装置1はナビECU15により制御されるものである。ナビECU15には、音声認識装置12、顔向きECU14、表示装置16及びスピーカ17が接続されている。   FIG. 1 shows a functional block diagram of the in-vehicle device adjustment device. 1 adjusts the volume of the speaker 17. Since the sound volume is adjusted via a navigation system that serves as an interface with the occupant, the in-vehicle device adjustment device 1 in FIG. 1 is controlled by the navigation ECU 15. The navigation ECU 15 is connected to a voice recognition device 12, a face orientation ECU 14, a display device 16, and a speaker 17.

また、ナビECU15には、ステアリングセンサ21、ヨーレートセンサ22及び車速センサ23が、CAN(Controller Area Network)プロトコルを介して接続されている。   A steering sensor 21, a yaw rate sensor 22 and a vehicle speed sensor 23 are connected to the navigation ECU 15 via a CAN (Controller Area Network) protocol.

ステアリングセンサ21は、車両の操舵角を検出するセンサでありステアリングの回転角を検出する。ステアリングの回転角と操舵角には一定の関係があるため、ステアリングの回転角を検出することで車両の操舵角が検出される。ヨーレートセンサ22は、車両の重心を通り同車両の前後方向に延びる軸線(ローリング軸)回りの回転角速度を検出する。また、車速センサ23は、各輪毎の車輪の回転速度に基づき車両の走行速度を検出する。後述するように、これらのセンサの検出値に基づき車両の進行方向が検出される。   The steering sensor 21 is a sensor that detects the steering angle of the vehicle, and detects the rotation angle of the steering. Since there is a fixed relationship between the steering rotation angle and the steering angle, the vehicle steering angle is detected by detecting the steering rotation angle. The yaw rate sensor 22 detects a rotational angular velocity about an axis (rolling axis) that passes through the center of gravity of the vehicle and extends in the front-rear direction of the vehicle. Further, the vehicle speed sensor 23 detects the traveling speed of the vehicle based on the rotational speed of each wheel. As will be described later, the traveling direction of the vehicle is detected based on the detection values of these sensors.

〔音声認識〕
音声認識装置12について説明する。音声認識装置12にはマイクロフォン11が接続されており、車室内の音を継続的に取得している。取得された音はマイクロフォン11により電気信号に変換され、音声認識装置12に出力される。
〔voice recognition〕
The voice recognition device 12 will be described. A microphone 11 is connected to the voice recognition device 12 and continuously acquires sound in the passenger compartment. The acquired sound is converted into an electric signal by the microphone 11 and output to the voice recognition device 12.

図2は音声認識装置12の機能ブロック図を示す。変換された電気信号は音声分析部12aに入力される。音声分析部12aは、電気信号からフーリエ変換等の処理を施し音声の認識に有効な特徴量を抽出する。車両が走行している場合、ロードノイズ等の音声以外の雑音がマイクロフォンに入力されるが、このような雑音はフィルタなどにより除去する。   FIG. 2 is a functional block diagram of the voice recognition device 12. The converted electrical signal is input to the voice analysis unit 12a. The voice analysis unit 12a performs processing such as Fourier transform on the electric signal and extracts a feature amount effective for voice recognition. When the vehicle is traveling, noise other than voice such as road noise is input to the microphone, and such noise is removed by a filter or the like.

音響モデル12bは、特徴量の音響に発音記号(音素)が対応する確率を対応づけたデータベースであり、予め大量の学習データに基づきから各音素の特徴がデータ化されている。音素は言語の発音の基本となる部品である。音素は実際の音(おん)の元になるが、同じ音素が前後の音素や方言、話者などによって異なる音になることがあるため母音や子音が複雑に組み合わされた音となり音素と文字とは1対1に対応しない。音響モデル12bは、入力された音声の特徴量から抽出可能な音素を選択可能とする。   The acoustic model 12b is a database in which the probability that a phonetic symbol (phoneme) corresponds to the sound of a feature amount is associated, and features of each phoneme are converted into data from a large amount of learning data in advance. Phonemes are the basic components of language pronunciation. The phoneme is the source of the actual sound (on), but the same phoneme may be different depending on the phoneme, dialect, speaker, etc. before and after, so it becomes a complex combination of vowels and consonants. Does not correspond one to one. The acoustic model 12b makes it possible to select phonemes that can be extracted from the feature amount of the input speech.

言語モデル12dは、語彙、文法あるいは言語統計などにより、発声内容を規定する単語の辞書である。すなわち、言語モデル12dを参照することで、あり得ない単語列は排除される。また、言語モデル12dには各単語が使用される確率が対応付けられている。例えば、車両で使用する場合、車載装置の名称などが入力音声となる可能性が高い。   The language model 12d is a dictionary of words that defines the content of utterance based on vocabulary, grammar, or language statistics. That is, by referring to the language model 12d, an impossible word string is excluded. Further, the probability that each word is used is associated with the language model 12d. For example, when used in a vehicle, there is a high possibility that the name of the in-vehicle device is input voice.

音声認識部12cは、入力音声の特徴量に基づき、音響モデル12b及び言語モデル12dを参照して、与えられた文法の中で、入力された特徴量にもっとも合致する音素列を選び出し、認識結果として出力する。   The speech recognition unit 12c refers to the acoustic model 12b and the language model 12d based on the feature amount of the input speech, selects a phoneme string that most closely matches the input feature amount in the given grammar, and recognizes the recognition result. Output as.

運転者が例えば「音量」と発声した場合、音声認識部12cは「オンリョウ」という単語を認識して、単語に応じて予め定められた信号に変換してナビECU15に出力する。   For example, when the driver utters “volume”, the voice recognition unit 12 c recognizes the word “ONRIO”, converts the word into a predetermined signal according to the word, and outputs the signal to the navigation ECU 15.

〔顔向き認識〕
顔向き角度の認識について説明する。顔向きECU14には顔向きカメラ13が接続されている。顔向きカメラ13は、車室内の所定位置に設けられ、車両運転者の顔を含むように撮影して得られた顔画像(運転者の顔及び背景を含む画像)を顔向きECU14に送出する。顔向きカメラ13は、所定の時間間隔で運転者の顔を撮影して顔向きECU14に顔画像を出力する。
(Face orientation recognition)
Recognition of the face orientation angle will be described. A face orientation camera 13 is connected to the face orientation ECU 14. The face-facing camera 13 is provided at a predetermined position in the passenger compartment, and sends a face image (an image including the driver's face and background) obtained by photographing so as to include the face of the vehicle driver to the face-facing ECU 14. . The face-facing camera 13 shoots the driver's face at predetermined time intervals and outputs a face image to the face-facing ECU 14.

顔向きECU14は、顔画像から顔の位置を検出し、顔の目の配置や輪郭線との関係に基づいて顔の向きを検出する。顔画像における顔の位置は、例えば、順次撮影される顔画像の差分演算や、顔の標準画像(テンプレート)を使用したパターンマッチング、カラーの顔画像を用いて肌色の領域を検出する等の方法がある。   The face direction ECU 14 detects the position of the face from the face image, and detects the face direction based on the relationship between the face eye arrangement and the contour line. The position of the face in the face image is determined by, for example, a method of calculating a difference between the sequentially captured face images, pattern matching using a standard face image (template), or detecting a skin color region using a color face image. There is.

順次入力される顔画像の差分演算を行うと、車や乗員の微振動のため顔の輪郭が浮かび上がる。すなわち、輪郭部分が微少移動しながら顔画像として順次撮影されるので、所定数の顔画像において変動の大きい領域が顔の位置として検出される。差分演算では、画素毎に輝度を比較して、所定以上の輝度差がある領域を検出すれば、輪郭部分を浮かび上がらせることができる。   When the difference calculation of the sequentially inputted face images is performed, the outline of the face emerges due to the slight vibrations of the car and the passenger. That is, since the contour portion is sequentially photographed as a face image while slightly moving, an area having a large variation in a predetermined number of face images is detected as the face position. In the difference calculation, if the luminance is compared for each pixel and a region having a luminance difference greater than or equal to a predetermined value is detected, the contour portion can be raised.

図3(a)は差分画像により顔の輪郭が検出された顔画像の一例を示す。図3(a)では顔画像の左上を原点(0,0)、右方向をX軸と、下方向をY軸とした。差分画像から顔の位置を検出する場合、輪郭部分に輝度が変動する領域が検出されるので、輝度の変動の大きい画素をX方向及びY方向に射影すれば、顔の位置の左端と右端及び上端と下端にピークが得られる。顔向きECU14は、所定枚数に渡って変動画素の射影を積算することで、安定した顔の位置を検出できる。図3(a)では、顔の左端がx1、右端がx2,上端がy1、下端がy2に検出されている。   FIG. 3A shows an example of a face image in which the outline of the face is detected from the difference image. In FIG. 3A, the upper left of the face image is the origin (0, 0), the right direction is the X axis, and the lower direction is the Y axis. When detecting the position of the face from the difference image, an area where the luminance varies in the contour portion is detected. Therefore, if pixels with large luminance variations are projected in the X direction and the Y direction, the left and right edges of the face position and Peaks are obtained at the top and bottom. The face direction ECU 14 can detect a stable face position by integrating the projections of the varying pixels over a predetermined number. In FIG. 3A, the left end of the face is detected as x1, the right end is detected as x2, the upper end is detected as y1, and the lower end is detected as y2.

なお、パターンマッチングを用いる場合には、顔画像のテンプレートを用意しておき、テンプレートと顔画像とを一画素ずつずらして輝度の相関を検出し、最も相関が高くなる領域に顔画像があると検出する。この場合、顔の向きや角度が異なっても顔の位置を検出できるように、向きや角度の異なるテンプレートをいくつか用意し置くことが好ましい。なお、パターンマッチングにより顔の位置を検出する場合、ニューラルネットワークやサポートベクターマシンなど周知のパターンマッチングを用いてもよい。   When using pattern matching, prepare a face image template, detect the correlation of brightness by shifting the template and face image one pixel at a time, and if there is a face image in the region with the highest correlation To detect. In this case, it is preferable to prepare several templates having different orientations and angles so that the position of the face can be detected even if the orientation and angle of the face are different. In the case of detecting the face position by pattern matching, a known pattern matching such as a neural network or a support vector machine may be used.

ついで、顔向きECU14は両目の位置を検出する。例えば、顔の位置として決定された座標(x1、y1)、(x2、y2)を対角頂点とする部分画像を取り出し(顔の外接矩形)、上部半分についてY軸方向に1画素ずつ輝度が所定以下(濃度が高い)の画素を検出していく(2値化処理)。図3(b)は顔の外接矩形の一例を示す図である。全てのY軸方向の画素列について検出されたら、輝度が所定以下の画素が連結された領域を抽出する。   Next, the face direction ECU 14 detects the position of both eyes. For example, a partial image having diagonal vertices at coordinates (x1, y1) and (x2, y2) determined as face positions is extracted (face circumscribed rectangle), and the brightness of the upper half is 1 pixel in the Y-axis direction. Pixels below a predetermined level (high density) are detected (binarization processing). FIG. 3B is a diagram illustrating an example of a circumscribed rectangle of the face. When all the pixel columns in the Y-axis direction are detected, an area where pixels having a luminance equal to or lower than a predetermined value is connected is extracted.

顔であれば、頭髪、眉部及び瞳孔(黒目部分)の領域が抽出されることが予想されるため、下から、X軸方向の1画素列毎に輝度が所定以下と検出された領域を抽出し、瞳孔程度として横に比較的長く続く領域を検出することで両目の位置をそれぞれ検出できる。図3(b)では左側の瞳孔位置の座標を(x3,y3)、右側の瞳孔位置を(x4,y4)とした。なお、目の色が異なる例えば外国においては輝度の閾値を変更することで対応できる。   If it is a face, it is expected that areas of the hair, eyebrows, and pupils (black eyes) will be extracted. Therefore, from below, areas where the luminance is detected to be equal to or lower than a predetermined value for each pixel column in the X-axis direction The positions of both eyes can be detected by extracting and detecting a region that continues relatively long sideways as the pupil. In FIG. 3B, the coordinates of the left pupil position are (x3, y3), and the right pupil position is (x4, y4). For example, in foreign countries where the color of the eyes is different, this can be dealt with by changing the luminance threshold.

両目の位置はパターンマッチングにより検出してもよい。テンプレートとして、予め、運転者の正面向き、斜め横向き等の両目の部分の画像データを取得しておき、それを使用して顔位置の画像として抽出された外接矩形から両目の位置を検出する。   The positions of both eyes may be detected by pattern matching. As the template, image data of both eyes such as the driver's front direction and oblique sideways is acquired in advance, and the position of both eyes is detected from the circumscribed rectangle extracted as the image of the face position using the acquired image data.

以上のような方法により顔向きECU14は、まず、初期状態の顔の位置を示す座標(x1、y1)、(x2、y2)及び目の位置を示す座標(x3,y3)、(x4,y4)を検出する。初期状態の顔の向きは、例えば運転者が正面を向いている状態であるが、正面を向いていなくても顔の向きによる操作開始時の顔の向きが分かればよい。操作の開始時であることは、後述のように、運転者が音声や押下ボタンの操作により起動操作を行うことで検出される。   First, the face direction ECU 14 uses the above-described method to set the coordinates (x1, y1), (x2, y2) indicating the position of the face in the initial state and the coordinates (x3, y3), (x4, y4) indicating the position of the eyes. ) Is detected. The face orientation in the initial state is, for example, a state in which the driver is facing the front, but the face orientation at the start of the operation depending on the face orientation may be known even if the driver is not facing the front. As described later, the start of the operation is detected by the driver performing a starting operation by voice or pressing button operation.

運転者が左右のいずれかに水平に顔を向けた場合、顔の両端の座標と両目の位置の座標の関係が変化する。図4(a)は運転者が左方向を向いた場合に撮影される顔画像の一例を示す。図4(a)に示すように、顔の左端の座標x1から左目の位置の座標x3までの距離「x3−x1」は大きくなり、両目間の距離「x4−x3」は狭くなり、右目の位置の座標x4から顔の右端の座標x2までの距離「x2−x4」は狭くなる。   When the driver turns his face horizontally to either the left or right, the relationship between the coordinates of both ends of the face and the coordinates of the positions of both eyes changes. FIG. 4A shows an example of a face image that is taken when the driver turns to the left. As shown in FIG. 4A, the distance “x3-x1” from the coordinate x1 of the left end of the face to the coordinate x3 of the position of the left eye is increased, the distance “x4-x3” between both eyes is decreased, and the right eye The distance “x2−x4” from the coordinate x4 of the position to the coordinate x2 of the right end of the face becomes narrower.

したがって、顔向きECU14は、顔の端部の左右いずれが広くなるかにより顔の向いた方向を検出し、「x4−x3」又は「x2−x4」の変化により正面に対する運転者の顔向き角度を算出できる。正面を向いている場合の「x4−x3」をA、右又は左の水平方向を向いた場合の「x4−x3」をBとすれは、顔向き角度F_θは次式で与えられる。
F_θ=arccos(B/A) … (1)
また、運転者が上下のいずれかに顔を向けた場合、顔の上下の座標と両目の位置の座標の関係が変化する。図4(b)は、運転者が下向を向いた場合に撮影される顔画像の一例を示す。図4(b)に示すように、顔の下端の座標y2から両目の位置の座標y3、y4までの距離「y2−y3(y4)」は小さくなり、両目の位置の座標y3、y4から顔の上端の座標y1までの距離「y3(y4)−y1」は広くなる。反対に、運転者が上方向を向いた場合、顔の下端の座標y2から両目の位置の座標y3、y4までの距離「y2−y3(y4)」は大きくなる。
Therefore, the face direction ECU 14 detects the direction of the face depending on whether the left or right end of the face is widened, and the driver's face direction angle with respect to the front according to the change of “x4-x3” or “x2-x4” Can be calculated. If “x4-x3” when facing the front is A, and “x4-x3” when facing the right or left horizontal direction is B, the face orientation angle F_θ is given by the following equation.
F_θ = arccos (B / A) (1)
Further, when the driver turns his / her face up or down, the relationship between the upper and lower coordinates of the face and the coordinates of the positions of both eyes changes. FIG. 4B shows an example of a face image that is captured when the driver faces downward. As shown in FIG. 4B, the distance “y2−y3 (y4)” from the coordinate y2 of the lower end of the face to the coordinates y3 and y4 of the positions of both eyes is reduced, and the face is determined from the coordinates y3 and y4 of the positions of both eyes. The distance “y3 (y4) −y1” to the coordinate y1 of the upper end of is widened. Conversely, when the driver turns upward, the distance “y2−y3 (y4)” from the coordinate y2 of the lower end of the face to the coordinates y3 and y4 of the positions of both eyes increases.

したがって、顔向きECU14は、顔の下端の座標y2から両目の位置座標y3、y4までの距離が小さくなるか大きくなるかにより顔の向いた方向を検出し、「y2−y3」の変化により正面に対する上下方向の運転者の顔向き角度を算出できる。正面を向いている場合の「y2−y3」をC、上又は下を向いた場合の「y2−y3」をDとすれは、顔向き角度F_αは次式で与えられる。
F_α=arccos(D/C) … (2)
式(1)及び(2)により顔向きECU14が算出した顔向き角度はナビECU15に送出される。なお、顔向き角度の検出方法は上述した方法に限れられるものではなく、鼻や口の位置を検出し、それらと目の位置との関係(距離)を利用してもよい。
Therefore, the face direction ECU 14 detects the direction in which the face faces depending on whether the distance from the coordinate y2 of the lower end of the face to the position coordinates y3, y4 of both eyes is small or large, and the front is determined by the change of “y2-y3”. The face direction angle of the driver in the vertical direction with respect to can be calculated. When “y2−y3” when facing the front is C and “y2−y3” when facing upward or downward is D, the face orientation angle F_α is given by the following equation.
F_α = arccos (D / C) (2)
The face orientation angle calculated by the face orientation ECU 14 according to the expressions (1) and (2) is sent to the navigation ECU 15. Note that the method of detecting the face orientation angle is not limited to the above-described method, and the positions of the nose and mouth may be detected and the relationship (distance) between them and the position of the eyes may be used.

〔視線方向の検出について〕
視線検出ECU19は、2つのカメラ13A及び13Bに接続され、2つのカメラが同期して撮影した画像データ(以下、視線画像という)が入力される。カメラ13A又は13Bのうち一方は、カメラ13が兼用することができる。
[Gaze direction detection]
The line-of-sight detection ECU 19 is connected to the two cameras 13A and 13B, and receives image data (hereinafter referred to as line-of-sight image) taken by the two cameras in synchronization. One of the cameras 13A and 13B can be shared by the camera 13.

図5(a)は視線検出装置の機能ブロック図を示す。撮影された画像データは視線検出ECU19に入力される。視線方向検出ECU19は、カメラ13A及び13Bにより撮影された視線画像から黒目や白目などの特徴部を検出し、眼球の中心位置及び瞳孔の中心位置から視線方向を検出する。なお、カメラ13A及び13Bの内部パラメータ及び相対的な位置関係は既知である。   FIG. 5A shows a functional block diagram of the visual line detection device. The captured image data is input to the line-of-sight detection ECU 19. The gaze direction detection ECU 19 detects features such as black eyes and white eyes from the gaze images taken by the cameras 13A and 13B, and detects the gaze direction from the center position of the eyeball and the center position of the pupil. The internal parameters and relative positional relationship of the cameras 13A and 13B are known.

図5(b)はカメラ13A及び13Bと視線画像との関係を示す図である。三次元座標算出部19Aは、カメラ13A及び13Bで撮影さえた視線画像から対応点を検出し、運転者の眼球など特徴部までの距離を演算する。カメラ13A及び13Bに撮影される視線画像は視差以外の相違点を内部パラメータで吸収するので、対応点が撮影される画素位置の違いにより特徴点までの距離Lが検出される。   FIG. 5B is a diagram showing the relationship between the cameras 13A and 13B and the line-of-sight image. The three-dimensional coordinate calculation unit 19A detects corresponding points from the line-of-sight images captured by the cameras 13A and 13B, and calculates a distance to a characteristic part such as a driver's eyeball. Since the line-of-sight images captured by the cameras 13A and 13B absorb differences other than parallax using internal parameters, the distance L to the feature point is detected based on the difference in pixel position where the corresponding point is captured.

運転者の眼球は白目の中心に瞳孔があるので、視線画像を二値化すれば瞳孔が検出される。瞳孔部分は略円形としているので、瞳孔中心算出部19Bは二値化画像の黒目部分の中心(KOL、KOR)の座標を算出する。   Since the driver's eyeball has a pupil at the center of the white eye, the pupil can be detected by binarizing the line-of-sight image. Since the pupil part is substantially circular, the pupil center calculation unit 19B calculates the coordinates of the center (KOL, KOR) of the black eye part of the binarized image.

ついで、眼球中心算出部19Cは、白目部分の画像から眼球中心を算出する。白目上には、特徴部分となる多くの微細な血管がランダムに存在するため、血管のパターン同士によって左右の視線画像を対応させることができる。白目部分が対応することで、血管パターン上の正確な座標が求められる。   Next, the eyeball center calculation unit 19C calculates the eyeball center from the image of the white eye part. Since many fine blood vessels serving as characteristic portions are randomly present on the white eye, the left and right line-of-sight images can be associated with each other by the blood vessel patterns. Corresponding to the white-eye portion, accurate coordinates on the blood vessel pattern are obtained.

図5(c)は眼球の概略断面を示す図である。眼球を球として考えると、白目上の血管はこの球の表面に存在することになる。また、球を特定するためには、中心座標(三次元なので3つ)及び半径がわかればよい。したがって、4つの変数が存在するため、血管上の4つの座標が与えられれば、眼球の中心座標を算出できる。   FIG. 5C shows a schematic cross section of the eyeball. When the eyeball is considered as a sphere, the blood vessels in the white eye are present on the surface of the sphere. In addition, in order to specify the sphere, it is only necessary to know the center coordinates (three because it is three-dimensional) and the radius. Therefore, since there are four variables, the center coordinates of the eyeball can be calculated if four coordinates on the blood vessel are given.

視線検出部19Dは、黒目の中心座標と眼球の中心座標から視線方向を検出する。人の視線は、眼球の中心と黒目の中心を通る線に等しいとしてよいので、2点の座標を通る直線が視線方向となる。左右の眼球があるため、直線は2本得られるが、視線検出部19Dは2本の直線の方向の平均を視線方向とする。   The line-of-sight detection unit 19D detects the line-of-sight direction from the center coordinates of the black eye and the center coordinates of the eyeball. Since the human line of sight may be equal to a line passing through the center of the eyeball and the center of the black eye, a straight line passing through the coordinates of the two points is the line-of-sight direction. Since there are left and right eyeballs, two straight lines are obtained, but the line-of-sight detection unit 19D sets the average of the directions of the two lines as the line-of-sight direction.

〔ナビゲーションシステム〕
ナビECU15はGPS(Global Positioning System)/INS(Inertial Navigation System)装置2により検出される車両の走行位置に基づき、道路地図を格納した地図データベースから現在の車両位置周辺の地図を表示したり、目的地までの走行経路を案内する。
[Navigation system]
The navigation ECU 15 displays a map around the current vehicle position from a map database storing a road map based on the vehicle travel position detected by a GPS (Global Positioning System) / INS (Internal Navigation System) device 2, Guide the route to the ground.

また、ナビECU15には表示装置16及びスピーカ17が接続されている。表示装置16は、液晶や有機EL、HUD(Head Up Display)等であり、道路地図や交通情報、目的地までのルート等を表示する。なお、表示装置16はタッチパネルなどの操作部を有していてもよい。   A display device 16 and a speaker 17 are connected to the navigation ECU 15. The display device 16 is a liquid crystal, organic EL, HUD (Head Up Display) or the like, and displays a road map, traffic information, a route to the destination, and the like. The display device 16 may have an operation unit such as a touch panel.

また、スピーカ17は、アンプで増幅された電流により振動面が振動して音を出力する。音量は電流に比例するので、電流量を制御することで音量を制御できる。スピーカ17からナビECU15が案内する交差点などの進行方向を音声により出力する。   In addition, the speaker 17 outputs sound by vibrating the vibration surface by the current amplified by the amplifier. Since the volume is proportional to the current, the volume can be controlled by controlling the amount of current. A traveling direction such as an intersection guided by the navigation ECU 15 from the speaker 17 is output by voice.

なお、ナビECU15にはテレビ/ラジオの受信機が接続されていてもよい。地上放送やHEO(Highly Elliptical Orbit)衛星、ワンセグ等の電波を受信し映像及び音声を表示装置16やスピーカ17から出力する。また、DVDなどのメディアを再生して表示してもよい。   The navigation ECU 15 may be connected to a television / radio receiver. It receives radio waves such as terrestrial broadcasts, HEO (Highly Elliptical Orbit) satellites, and One Seg, and outputs video and audio from the display device 16 and the speaker 17. Further, media such as a DVD may be reproduced and displayed.

〔各ECUのハードウェア構成〕
顔向きECU14、ナビECU15、視線検出ECU19及び音声認識装置12は、CPU、ROM、RAM、NV−RAM(Non-Volatile RAM)及び通信部等がバスにより接続されたマイコンであり、ROMに格納されたプログラムをCPUが実行することで後述する制御を実行する。
[Hardware configuration of each ECU]
The face-facing ECU 14, the navigation ECU 15, the line-of-sight detection ECU 19, and the voice recognition device 12 are microcomputers in which a CPU, ROM, RAM, NV-RAM (Non-Volatile RAM), a communication unit, and the like are connected by a bus, and are stored in the ROM. The later-described control is executed by the CPU executing the program.

顔向きECU14は、プログラムを実行することで運転者の顔向き角度を検出する顔向き検出手段を実現する。ナビECU15は、プログラムを実行することで、検出された顔向き角度に応じて車載装置の状態を制御する車載装置制御手段、制御の状態を乗員に報知する報知手段、進行方向と視線方向とが異なる場合に運転者に警報する警報手段、自車両の進行方向を検出する進行方向検出手段、等を実現する。視線検出ECU19は、プログラムを実行することで、運転者の視線方向を検出する視線方向検出手段を実現する。音声認識装置12は、プログラムを実行することで乗員の発した音声を認識する。   The face direction ECU 14 implements a face direction detection unit that detects a driver's face direction angle by executing a program. The navigation ECU 15 executes the program, so that the in-vehicle device control means for controlling the state of the in-vehicle device according to the detected face orientation angle, the informing means for informing the occupant of the control state, the traveling direction and the line-of-sight direction are A warning means for warning the driver when different, a traveling direction detection means for detecting the traveling direction of the host vehicle, and the like are realized. The line-of-sight detection ECU 19 implements a line-of-sight direction detection unit that detects the direction of the driver's line of sight by executing a program. The voice recognition device 12 recognizes voice generated by the occupant by executing a program.

〔顔向きによる音量調整〕
以上の構成を用いて、車載装置調整装置が顔向き角度によりスピーカ17の音量を調整する処理の手順を図6のフローチャート図に基づき説明する。
[Volume adjustment by face orientation]
With reference to the flowchart of FIG. 6, the procedure of the process in which the in-vehicle device adjustment device adjusts the volume of the speaker 17 according to the face orientation angle will be described using the above configuration.

音量を調整する場合、運転者は車載装置調整装置を起動するため所定の起動操作を行う(S11)。これにより車載装置調整装置が起動する。起動操作は、例えば、「音量」という発声やボタンのスイッチ押下など、どのようなものでもよい。本実施例では運転者が「音量」と発声すると、音声認識装置12がその音声を認識しナビECU15に制御信号を送出する。なお、起動操作のための言葉は車載装置に応じて予め登録されている。   When adjusting the volume, the driver performs a predetermined activation operation to activate the in-vehicle device adjustment device (S11). As a result, the in-vehicle device adjustment device is activated. The activation operation may be any operation such as “sound volume” or pressing a button switch. In this embodiment, when the driver utters “volume”, the voice recognition device 12 recognizes the voice and sends a control signal to the navigation ECU 15. Note that words for the activation operation are registered in advance according to the in-vehicle device.

ナビECU15は音量調整を行うための音量調整手段を起動する(S12)。また、起動したことを運転者に認識させるため、道路地図の画面やテレビの画面を終了させて、表示装置16に音量調整画面を表示する。なお、音量調整画面は道路地図の画面やテレビの画面にスーパーインポーズしてもよい。また、ナビECU15は顔向き角度により音量の調整が可能になったことをスピーカ17から音声により運転者に報知する。   The navigation ECU 15 activates a volume adjusting means for adjusting the volume (S12). Further, in order to make the driver recognize that it has been activated, the screen of the road map or the screen of the television is ended and a volume adjustment screen is displayed on the display device 16. The volume adjustment screen may be superimposed on a road map screen or a television screen. Further, the navigation ECU 15 informs the driver by voice from the speaker 17 that the volume can be adjusted by the face angle.

図7は、音量調整画面の一例を示す。音量調整画面には右の方向が音量を大きくする方向で、左の方向が音量を小さくする方向であることが示されている。運転者はこれを参照して、どちらの方向に顔を向ければ所望の音量調整ができるか知ることができる。また、音量調整画面には現在の音量設定を示すバー161が表示される。   FIG. 7 shows an example of the volume adjustment screen. The volume adjustment screen shows that the right direction is a direction to increase the volume and the left direction is a direction to decrease the volume. By referring to this, the driver can know in which direction the face can be turned to achieve the desired volume adjustment. In addition, a bar 161 indicating the current volume setting is displayed on the volume adjustment screen.

ついで、顔向きECU14は、顔向き角度を検出する(S13)。音量調整画面が起動した直後に検出される顔向き角度は顔向き角度を検出するための初期状態である。初期状態の顔向き角度は左右いずれかに顔を向けていてもよいが、正面向きであることが好適である。   Next, the face direction ECU 14 detects a face direction angle (S13). The face orientation angle detected immediately after the volume adjustment screen is activated is an initial state for detecting the face orientation angle. The face orientation angle in the initial state may be directed to the left or right, but is preferably front-facing.

ついで、運転者が顔を左右いずれかに向けると順次顔向きECU114は運転者の顔向きを検出し、ナビECU15は顔向き角度に応じてスピーカ17の音量を制御する(S14)。すなわち、運転者が右方向を向いたら音量を大きくし、左方向を向いたら音量を小さく制御する。顔向きECU14は、所定時間にほぼ決まった数のフレームを画像処理して顔向き角度を検出するので、顔向き角度の変化の速度又は変化量に応じて音量を調整できる。   Next, when the driver turns his / her face left or right, the face direction ECU 114 sequentially detects the driver's face direction, and the navigation ECU 15 controls the volume of the speaker 17 according to the face direction angle (S14). That is, the volume is increased when the driver turns right, and the volume is reduced when the driver turns left. Since the face orientation ECU 14 detects the face orientation angle by performing image processing on a substantially fixed number of frames in a predetermined time, the volume can be adjusted according to the speed or amount of change of the face orientation angle.

ナビECU15は、運転者から音量調整の終了操作が検出されるか否かを判定する(S15)。終了操作は、例えば、運転者による「音量終わり」や「終わり」という発声である。運転者が「音量終わり」と発声すると、音声認識装置12がその音声を認識しナビECU15に制御信号を送出する。なお、終了操作のための言葉は予め登録されている。   The navigation ECU 15 determines whether or not a volume adjustment end operation is detected from the driver (S15). The end operation is, for example, a voice “end of volume” or “end” by the driver. When the driver utters “volume end”, the voice recognition device 12 recognizes the voice and sends a control signal to the navigation ECU 15. Note that words for the end operation are registered in advance.

終了操作が検出されなければ(S15のNo)、ステップS13とS14の制御を繰り返す。また、終了操作が検出されたら(S15のYes)、車載装置調整装置は音量の調整制御を終了し、表示装置16の画面を元に戻す。   If the end operation is not detected (No in S15), the control in steps S13 and S14 is repeated. When the end operation is detected (Yes in S15), the in-vehicle device adjustment device ends the volume adjustment control and returns the screen of the display device 16 to the original state.

以上のように、本実施例の車載装置調整装置は、運転者が手や足による操作を行わずに、音量調整をすることができるので、走行中であっても操作の際に目線がスイッチに奪われることがなく安全性が向上する。   As described above, the in-vehicle device adjustment device of the present embodiment can adjust the volume without the driver performing an operation with his / her hands or feet. Safety is improved without being deprived of.

また、本実施例では、スピーカの音量の調整を顔向き角度で操作したが、状態が連続的に制御される車載装置、例えば、ミラー位置、クルーズコントロールによる車速設定、シート等に好適に適用することができる。   In this embodiment, the volume of the speaker is adjusted with the face angle, but the present invention is preferably applied to an in-vehicle device whose state is continuously controlled, for example, mirror position, vehicle speed setting by cruise control, seat, etc. be able to.

ミラーの位置の場合、運転者が例えば「ミラー、右」と発声すると、音声認識装置12がその音声を認識しナビECU15に制御信号を送出する。ナビECUは、右側のドアミラーの角度(位置)を操作する画面を表示し、運転者の顔向き角度に応じてドアミラーの角度を制御する。すなわち、運転者が右に向けばドアミラーの角度を右向きに制御し、左に向けばドアミラーの角度を左向きに制御する。   In the case of the mirror position, for example, when the driver utters “mirror, right”, the voice recognition device 12 recognizes the voice and sends a control signal to the navigation ECU 15. The navigation ECU displays a screen for operating the angle (position) of the right door mirror, and controls the angle of the door mirror according to the driver's face orientation angle. That is, if the driver turns to the right, the angle of the door mirror is controlled to the right, and if the driver is turned to the left, the angle of the door mirror is controlled to the left.

また、表示装置17には図8(a)のような車載装置の状態を示す画像が表示される。すなわち、顔向き角度に応じて調整されるドアミラーの角度が表示されるので、視覚で状態が認識できる車載装置であれば調整された状態を視覚的に運転者が確認することができる。運転者が「終了」と発声すると、操作された角度でドアミラーが固定される。なお、ドアミラーはルームミラーであってもよい。   Further, an image showing the state of the in-vehicle device as shown in FIG. 8A is displayed on the display device 17. That is, since the angle of the door mirror that is adjusted according to the face orientation angle is displayed, the driver can visually confirm the adjusted state if the vehicle-mounted device can recognize the state visually. When the driver says “End”, the door mirror is fixed at the operated angle. The door mirror may be a room mirror.

クルーズコントロールによる車速設定の場合、通常、走行時は一定速度(以下、巡航速度という)で巡航走行し、加速ボタンやアクセルペダルを踏み込むことで車両が加速する。そして、加速終了時に加速ボタンやアクセルペダルを放せば巡航速度に自動的に減速する。   When the vehicle speed is set by cruise control, the vehicle usually travels at a constant speed (hereinafter referred to as a cruise speed) during traveling, and the vehicle is accelerated by depressing an acceleration button or an accelerator pedal. When the acceleration button or accelerator pedal is released at the end of acceleration, the cruise speed is automatically reduced.

顔向き角度でクルーズコントロールによる車速を操作する場合、運転者が例えば「クルーズコントロール」と発声すると、音声認識装置12がその音声を認識しナビECU15に制御信号を送出する。ナビECU15は、クルーズコントロールによる車速を操作する画面を表示し、運転者の顔向き角度に応じて車速を制御する。   When operating the vehicle speed by cruise control at the face orientation angle, when the driver utters “cruise control”, for example, the voice recognition device 12 recognizes the voice and sends a control signal to the navigation ECU 15. The navigation ECU 15 displays a screen for operating the vehicle speed by cruise control, and controls the vehicle speed according to the driver's face orientation angle.

顔向き角度の検出は左右それぞれの方向で可能であるが、通常、クルーズコントロール中にブレーキ操作するとクルーズコントロールが解除されるので、操作方法を統一するように検出する顔向き方向は一方向のみ(加速方向のみ)とすることが好ましい。   Although it is possible to detect the face orientation angle in both the left and right directions, usually when the brake is operated during cruise control, cruise control is canceled, so the face orientation direction to be detected to unify the operation method is only one direction ( It is preferable that the acceleration direction only).

顔向き角度による加速の操作が終了した場合、運転者が「終了」と発声すると、自車両は巡航速度に自動的に減速する。   When the acceleration operation by the face angle is finished, when the driver utters “End”, the host vehicle automatically decelerates to the cruising speed.

また、顔向き角度による加速の操作が終了した場合、運転者が「終了」と発声する前に「セット」と発声すると、発声した際の走行速度を巡航速度に設定して、巡航走行を開始する。新たな巡航速度が設定された場合、ナビECU15は現在の巡航速度をスピーカ17から出力しまた表示装置16に表示して運転者に報知する。   Also, when the acceleration operation by the face angle is finished, if the driver says “Set” before saying “End”, the driving speed at the time of speaking is set as the cruise speed, and the cruise start To do. When a new cruise speed is set, the navigation ECU 15 outputs the current cruise speed from the speaker 17 and displays it on the display device 16 to notify the driver.

また、シート位置を調整する場合、運転者が例えば「シート」と発声すると、音声認識装置12がその音声を認識しナビECU15に制御信号を送出する。ナビECU15は、シートのリクライニング角度を操作する画面を表示し、運転者の顔向き角度に応じてシートのリクライニング角度を制御する。例えば、運転者が右に向けばシートを倒し、左に向けばシートを立てる。また、運転者が「終了」と発声すると、操作されたリクライニング角度でシートが固定される。   When adjusting the seat position, for example, when the driver utters “seat”, the voice recognition device 12 recognizes the voice and sends a control signal to the navigation ECU 15. The navigation ECU 15 displays a screen for operating the reclining angle of the seat, and controls the reclining angle of the seat according to the driver's face angle. For example, when the driver turns to the right, the seat is pushed down, and when the driver turns to the left, the seat is raised. Further, when the driver utters “End”, the seat is fixed at the operated reclining angle.

また、表示装置17には図8(b)のような車載装置の状態を示す画像が表示される。すなわち、顔向き角度に応じて調整されるシートのリクライニング角度が表示されるため、視覚で認識できる車載装置であれば調整される状態を視覚的に運転者が確認することができる。   Further, an image showing the state of the in-vehicle device as shown in FIG. 8B is displayed on the display device 17. That is, since the reclining angle of the seat adjusted according to the face orientation angle is displayed, the driver can visually confirm the adjusted state if the vehicle-mounted device can be visually recognized.

以上のように、顔向き角度で車載装置を制御すると、ボタンの位置等を把握していなくても、状態を連続的に制御するすべての車載装置を同じ操作方法で操作できるので、運転者の使い勝手が向上する。   As described above, when the vehicle-mounted device is controlled by the face-facing angle, all the vehicle-mounted devices that continuously control the state can be operated by the same operation method without knowing the position of the button, etc. Usability is improved.

〔顔向きによるサスペンション調整〕
本実施例の車載装置調整装置は連続的に状態を制御することがある車載装置に好適に適用できる。図9は車載装置調整装置の機能ブロック図を別の形態を示す。なお、図9において図1と同一部分には同一の符号を付しその説明は省略する。
[Suspension adjustment by face orientation]
The in-vehicle device adjustment device of the present embodiment can be suitably applied to an in-vehicle device that may continuously control the state. FIG. 9 shows another form of the functional block diagram of the in-vehicle device adjustment device. In FIG. 9, the same parts as those in FIG.

図9の車載装置調整装置はナビECU15にサスペンション制御ECU18が接続されている。サスペンション制御ECU18は、いわゆる電子制御サスペンションを制御する。電子制御サスペンションは、スプリングとダンパにより車体を懸架する懸架装置において、ダンパの上部に減衰力を切換制御するアクチュエータを設けて構成される。   The suspension control ECU 18 is connected to the navigation ECU 15 in the in-vehicle device adjustment device of FIG. The suspension control ECU 18 controls a so-called electronically controlled suspension. The electronically controlled suspension is a suspension device in which a vehicle body is suspended by a spring and a damper, and an actuator for switching and controlling a damping force is provided above the damper.

ダンパが内設するロータリバルブには大小複数のオリフィスが形成されており、ダンパの上部に一体に接続されたアクチュエータを駆動すると、ロータリバルブが回転してオリフィスが開閉し、通過するオイルの流量を変化させてダンパの減衰力を連続的に切り替えることができる。   The rotary valve installed in the damper has multiple large and small orifices.When an actuator connected to the upper part of the damper is driven, the rotary valve rotates and the orifice opens and closes, and the flow rate of the passing oil is reduced. The damping force of the damper can be continuously switched by changing.

サスペンション制御ECU18は、ナビECU15とCANプロトコル等によりECU間通信を行い、顔向き角度の検出結果を受信する。すなわち、サスペンション制御ECU18は、顔向き角度の検出結果に基づき、各輪のダンパのアクチュエータを制御し、ダンパの減衰力を制御することができる。   The suspension control ECU 18 communicates with the navigation ECU 15 using the CAN protocol or the like, and receives the detection result of the face angle. That is, the suspension control ECU 18 can control the damper damping force by controlling the damper actuator of each wheel based on the detection result of the face angle.

なお、電子制御サスペンションではスプリングの代わりにエアバネを用いてもよい。エアバネのエア室をメインとサブの2つに分け、エア封入口からエアを出入りさせることによりバネの力を2段階とすることができ、また、乗車人数、車載重量の変化に対して車高を一定に保つことができる。エアの出入りはアクチュエータにより駆動されるエア・バルブによりエア通路を切り替えることで制御される。   In the electronically controlled suspension, an air spring may be used instead of the spring. By dividing the air chamber of the air spring into two main and sub, and letting air in and out through the air sealing port, the spring force can be divided into two stages, and the vehicle height against changes in the number of passengers and vehicle weight Can be kept constant. Air in / out is controlled by switching the air passage by an air valve driven by an actuator.

サスペンション制御ECU18が顔向き角度によりサスペンションの減衰力(以下、硬さという)を調整する処理の手順を図10のフローチャート図に基づき説明する。   The procedure of the process in which the suspension control ECU 18 adjusts the damping force (hereinafter referred to as hardness) of the suspension according to the face angle will be described with reference to the flowchart of FIG.

サスペンションの硬さを調整する場合、運転者は車載装置調整装置を起動するため所定の起動操作を行う(S21)。これにより車載装置調整装置が起動する。起動操作は、例えば、「サスペンション」という発声や、ボタンのスイッチ押下など、どのようなものでもよい。運転者が「サスペンション」と発声すると、音声認識装置12がその音声を認識しナビECU15に制御信号を送出する。なお、起動操作のための言葉は車載装置に応じて予め登録されている。   When adjusting the hardness of the suspension, the driver performs a predetermined activation operation to activate the in-vehicle device adjustment device (S21). As a result, the in-vehicle device adjustment device is activated. The activation operation may be any operation such as utterance of “suspension” or pressing a button switch. When the driver utters “suspension”, the voice recognition device 12 recognizes the voice and sends a control signal to the navigation ECU 15. Note that words for the activation operation are registered in advance according to the in-vehicle device.

ナビECU15はサスペンション調整を行うためのサスペンション調整画面を表示する(S22)。また、ナビECU15は顔向き角度によりサスペンションの硬さ調整が可能になったことをスピーカ17から音声により運転者に報知する。これにより、運転者は車載装置調整装置が起動したことを認識できる。また、ナビECU15は、サスペンション制御ECU18と通信を開始する。   The navigation ECU 15 displays a suspension adjustment screen for performing suspension adjustment (S22). Further, the navigation ECU 15 informs the driver by voice from the speaker 17 that the suspension hardness can be adjusted by the face orientation angle. Thereby, the driver | operator can recognize that the vehicle-mounted apparatus adjustment apparatus started. Further, the navigation ECU 15 starts communication with the suspension control ECU 18.

図11は、サスペンション調整画面の一例を示す。サスペンション調整画面には右の方向がサスペンションを軟らかくする方向で、左の方向が硬くする方向であることが示されている。運転者はこれを参照して、どちらの方向に顔を向ければ所望のサスペンション調整ができるか知ることができる。また、サスペンション調整画面には現在のサスペンションの硬さを示すバー162が表示される。   FIG. 11 shows an example of the suspension adjustment screen. The suspension adjustment screen shows that the right direction is the direction that softens the suspension and the left direction is the direction that makes it hard. By referring to this, the driver can know in which direction the desired suspension can be adjusted. In addition, a bar 162 indicating the current suspension hardness is displayed on the suspension adjustment screen.

ついで、顔向きECU14は、顔向き角度を検出する(S23)。サスペンション調整画面が起動した直後に検出される顔向き角度は顔向き角度を検出するための初期状態である。初期状態の顔向き角度は左右いずれかに顔を向けていてもよいが、正面向きであることが好適である。   Next, the face direction ECU 14 detects a face direction angle (S23). The face orientation angle detected immediately after the suspension adjustment screen is activated is an initial state for detecting the face orientation angle. The face orientation angle in the initial state may be directed to the left or right, but is preferably front-facing.

ついで、運転者が顔を左右いずれかに向けると順次顔向きECU14は運転者の顔向きを検出し、ナビECU15は顔向き角度をサスペンション制御ECU18に送出するので、サスペンション制御ECU18は顔向き角度に応じてサスペンションの硬さを制御する(S24)。すなわち、運転者が右方向を向いたらサスペンションを軟らかくし、左方向を向いたら硬くする。   Next, when the driver turns his / her face to the left or right, the face direction ECU 14 sequentially detects the driver's face direction, and the navigation ECU 15 sends the face direction angle to the suspension control ECU 18. Accordingly, the hardness of the suspension is controlled (S24). That is, the suspension is softened when the driver turns to the right and hardened when the driver turns to the left.

ナビECU15は、運転者からサスペンションの硬さ調整の終了操作が検出されるか否かを判定する(S25)。終了操作は、例えば、運転者による「サスペンション終わり」や「終わり」という発声である。運転者が「サスペンション終わり」と発声すると、音声認識装置12がその音声を認識しナビECU15に制御信号を送出する。なお、終了操作のための言葉は予め登録されている。   The navigation ECU 15 determines whether or not an end operation for adjusting the hardness of the suspension is detected from the driver (S25). The end operation is, for example, a voice of “end of suspension” or “end” by the driver. When the driver utters “end of suspension”, the voice recognition device 12 recognizes the voice and sends a control signal to the navigation ECU 15. Note that words for the end operation are registered in advance.

終了操作が検出されなければ(S25のNo)、ステップS23とS24の制御を繰り返す。また、終了操作が検出されたら(S25のYes)、車載装置調整装置はサスペンションの調整制御を終了し、表示装置16の画面を元に戻す。   If the end operation is not detected (No in S25), the control in steps S23 and S24 is repeated. When the end operation is detected (Yes in S25), the in-vehicle device adjustment device ends the suspension adjustment control and returns the screen of the display device 16 to the original state.

以上のように、本実施例の車載装置調整装置は、運転者が手や足による操作を行わずに、サスペンションの硬さ調整ができるので、走行中であっても操作の際に目線がスイッチに奪われることがなく安全性が向上する。また、ボタンの位置等を把握していなくても、状態を連続的に制御するすべての車載装置を同じ操作方法で操作できるので、運転者の使い勝手も向上する。   As described above, the in-vehicle device adjustment apparatus of the present embodiment can adjust the suspension hardness without the driver's operation by hand or foot. Safety is improved without being deprived of. Further, even if the position of the button or the like is not grasped, all the in-vehicle devices that continuously control the state can be operated by the same operation method, so that the convenience of the driver is improved.

〔視線の検出による警報〕
顔向き角度により車載装置を操作する場合、運転者は顔を右又は左に向けることになるが、操作中であっても視線は進行方向を向いていることが望ましい。そこで、顔向き角度による操作中、視線の方向を検出し、視線が進行方向と所定以上異なった場合、運転者に注意を促す車載装置調整装置について説明する。なお、車載装置調整装置の機能ブロック図は図1又は図9のいずれであってもよい。
[Alarm by detecting line of sight]
When operating the vehicle-mounted device according to the face orientation angle, the driver turns his / her face to the right or left, but it is desirable that the line of sight is in the traveling direction even during the operation. Therefore, an on-vehicle device adjustment device that detects the direction of the line of sight during an operation based on the face orientation angle and alerts the driver when the line of sight differs from the traveling direction by a predetermined amount or more will be described. The functional block diagram of the in-vehicle device adjustment device may be either FIG. 1 or FIG.

車両の進行方向は、ステアリングセンサ21により検出した操舵角やヨーレートセンサ22により検出したヨーレートにより検出される。ナビECU15は車両の進行方向と視線角度が所定以上となった場合に、警報を吹聴する。   The traveling direction of the vehicle is detected by the steering angle detected by the steering sensor 21 or the yaw rate detected by the yaw rate sensor 22. The navigation ECU 15 sounds an alarm when the traveling direction of the vehicle and the line-of-sight angle exceed a predetermined value.

図12は、顔向き角度により車載装置を操作中に視線が進行方向と所定以上異なった場合、ナビECU15が警報を吹聴する制御手順のフローチャート図を示す。なお、既に説明したステップについては簡単に説明する。   FIG. 12 is a flowchart of a control procedure in which the navigation ECU 15 sounds a warning when the line of sight differs from the traveling direction by a predetermined amount or more during operation of the in-vehicle device depending on the face orientation angle. The steps already described will be briefly described.

音量を調整する場合、運転者は車載装置調整装置を起動するため所定の起動操作を行う(S31)。これにより車載装置調整装置が起動する。ナビECU15は音量調整を行うための音量調整手段を起動する(S32)。また、起動したことを運転者に認識させるため、道路地図の画面やテレビの画面を終了させて、表示装置16に音量調整画面を表示する。 ついで、顔向きECU14は、顔向き角度を検出する(S33)。音量調整画面が起動した直後に検出される顔向き角度は顔向き角度を検出するための初期状態である。運転者が顔を左右いずれかに向けると順次顔向きECU114は運転者の顔向きを検出する。   When adjusting the volume, the driver performs a predetermined activation operation to activate the in-vehicle device adjustment device (S31). As a result, the in-vehicle device adjustment device is activated. The navigation ECU 15 activates a volume adjustment means for adjusting the volume (S32). Further, in order to make the driver recognize that it has been activated, the screen of the road map or the screen of the television is ended and a volume adjustment screen is displayed on the display device 16. Next, the face direction ECU 14 detects a face direction angle (S33). The face orientation angle detected immediately after the volume adjustment screen is activated is an initial state for detecting the face orientation angle. When the driver turns his / her face to the left or right, the face direction ECU 114 sequentially detects the driver's face direction.

顔向き角度を検出するのと平行して、視線検出ECU19は視線画像から眼球中心及び瞳孔中心を検出しそれらから視線方向を検出する(S34)。検出された視線方向はナビECU15に送出される。また、ナビECU15は操舵角やヨーレート等により車両の進行方向を検出する(S35)。   In parallel with the detection of the face orientation angle, the line-of-sight detection ECU 19 detects the center of the eyeball and the center of the pupil from the line-of-sight image, and detects the direction of the line of sight from them (S34). The detected line-of-sight direction is sent to the navigation ECU 15. The navigation ECU 15 detects the traveling direction of the vehicle based on the steering angle, the yaw rate, and the like (S35).

図13(a)は車両の進行方向と視線方向が所定以上に異なっている場合の視線方向を、図13(b)は車両の進行方向と視線方向がほぼ同じ方向である場合の視線方向を示す図である。顔向きで車載装置を操作するため、運転者は、図13(a)及び(b)ではいずれも右方向を向いている。しかしながら、図13(b)では運転者の視線方向は顔の正面方向に対し左になっているので、車両の進行方向とほぼ同じである。これに対し図13(a)では、視線方向は顔の正面方向とほぼ同じ方向になっているので、視線方向も顔向き角度と同じ右方向になっている。   FIG. 13A shows the line-of-sight direction when the traveling direction of the vehicle and the line-of-sight direction are different from each other by a predetermined amount, and FIG. 13B shows the line-of-sight direction when the vehicle traveling direction and the line-of-sight direction are substantially the same. FIG. In order to operate the vehicle-mounted device with the face facing, the driver is facing the right direction in FIGS. 13 (a) and 13 (b). However, in FIG. 13B, the driver's line-of-sight direction is on the left with respect to the front direction of the face, and is therefore substantially the same as the traveling direction of the vehicle. On the other hand, in FIG. 13A, since the line-of-sight direction is substantially the same as the front direction of the face, the line-of-sight direction is also the right direction as the face direction angle.

ナビECU15は、図13のように視線方向と進行方向とを比較し、視線方向が進行方向と所定以上異なるか否かを判定する(S36)。視線方向と進行方向とが所定以上異なる場合(S36のYes)、スピーカ17から警報を吹聴する(S38)。これにより、運転者は顔向き角度による操作のため、視線が進行方向とずれていることを認識でき、安全性が向上する。   The navigation ECU 15 compares the line-of-sight direction and the traveling direction as shown in FIG. 13, and determines whether or not the line-of-sight direction differs from the traveling direction by a predetermined amount or more (S36). If the line-of-sight direction and the traveling direction are different from each other by a predetermined amount (Yes in S36), an alarm is heard from the speaker 17 (S38). Accordingly, the driver can recognize that the line of sight is deviated from the traveling direction because of the operation based on the face angle, and safety is improved.

視線方向が進行方向と所定以上異ならない場合(S36のNo)、ナビECU15は顔向き角度に応じてスピーカ17の音量を制御する(S37)。すなわち、運転者が右方向を向いたら音量を大きくし、左方向を向いたら音量を小さく制御する。   If the line-of-sight direction does not differ from the traveling direction by a predetermined amount or more (No in S36), the navigation ECU 15 controls the volume of the speaker 17 according to the face orientation angle (S37). That is, the volume is increased when the driver turns right, and the volume is reduced when the driver turns left.

ナビECU15は、運転者から音量調整の終了操作が検出されるか否かを判定し(S39)、運転者が「音量終わり」等と発声すると、音声認識装置12がその音声を認識しナビECU15に制御信号を送出し、ナビECU15は音量の調整制御を終了する。   The navigation ECU 15 determines whether or not a volume adjustment end operation is detected from the driver (S39). When the driver utters “volume end” or the like, the voice recognition device 12 recognizes the voice and the navigation ECU 15 The navigation ECU 15 ends the volume adjustment control.

以上のように、本実施例の車載装置調整装置は、顔向き角度により車載装置を操作している間に運転者の視線が進行方向と大きく異なった場合、警報を吹聴して運転者に注意を促すことができる。   As described above, the in-vehicle device adjustment device according to the present embodiment, when operating the on-vehicle device according to the face orientation angle, when the driver's line of sight differs greatly from the traveling direction, be careful of the driver by sounding an alarm. Can be encouraged.

〔音量調整画面の表示位置の制御〕
視線方向に応じて音量調整画面の表示位置を調整する車載装置調整装置について説明する。表示位置が調整可能であることが要求されるため、本実施例に用いる表示装置16はHUD又はプロジェクター等、表示位置を調整できるデバイスであることが好適である。
[Control of display position of volume adjustment screen]
An in-vehicle device adjustment device that adjusts the display position of the volume adjustment screen according to the line-of-sight direction will be described. Since the display position is required to be adjustable, the display device 16 used in this embodiment is preferably a device that can adjust the display position, such as a HUD or a projector.

HUDは、ダッシュボード等に音量調整画面の虚像を投影する投光器を備え、アクチュエータにより投光方向を制御可能なように構成される。ナビECU15は視線検出ECU19により検出された視線方向に応じて、投光器の投光方向を制御して、運転者の視線方向に音量調整画面を表示する。   The HUD includes a projector that projects a virtual image of a volume adjustment screen on a dashboard or the like, and is configured to be able to control the direction of projection by an actuator. The navigation ECU 15 controls the light projecting direction of the projector according to the line-of-sight direction detected by the line-of-sight detection ECU 19, and displays a volume adjustment screen in the driver's line-of-sight direction.

図14は、顔向き角度に応じて音量調整画面の表示位置を制御する手順を示すフローチャート図である。   FIG. 14 is a flowchart showing a procedure for controlling the display position of the volume adjustment screen in accordance with the face orientation angle.

音量を調整する場合、運転者は車載装置調整装置を起動するため所定の起動操作を行う(S41)。これにより車載装置調整装置が起動する。ナビECU15は音量調整を行うための音量調整手段を起動する(S42)。また、起動したことを運転者に認識させるため、道路地図の画面やテレビの画面を終了させて、HUDによりフロントガラスに音量調整画面を表示する。   When adjusting the volume, the driver performs a predetermined activation operation to activate the in-vehicle device adjustment device (S41). As a result, the in-vehicle device adjustment device is activated. The navigation ECU 15 activates a volume adjusting means for adjusting the volume (S42). Further, in order to make the driver recognize that it has been activated, the road map screen and the television screen are terminated, and the volume adjustment screen is displayed on the windshield by the HUD.

ついで、顔向きECU14は、顔向き角度を検出する(S43)。音量調整画面が起動した直後に検出される顔向き角度は顔向き角度を検出するための初期状態である。運転者が顔を左右いずれかに向けると順次顔向きECU114は運転者の顔向きを検出する。   Next, the face direction ECU 14 detects a face direction angle (S43). The face orientation angle detected immediately after the volume adjustment screen is activated is an initial state for detecting the face orientation angle. When the driver turns his / her face to the left or right, the face direction ECU 114 sequentially detects the driver's face direction.

ナビECU15は顔向き角度に応じてスピーカ17の音量を制御する(S44)。すなわち、運転者が右方向を向いたら音量を大きくし、左方向を向いたら音量を小さく制御する。   The navigation ECU 15 controls the volume of the speaker 17 according to the face orientation angle (S44). That is, the volume is increased when the driver turns right, and the volume is reduced when the driver turns left.

ついで、視線検出ECU19は、視線画像から眼球中心及び瞳孔中心を検出しそれらから視線方向を検出する(S45)。検出された視線方向はナビECU15に送出されるので、ナビECU15は視線方向に応じて音量調整画面の表示位置を制御する(S46)。   Next, the line-of-sight detection ECU 19 detects the center of the eyeball and the center of the pupil from the line-of-sight image, and detects the line-of-sight direction therefrom (S45). Since the detected line-of-sight direction is sent to the navigation ECU 15, the navigation ECU 15 controls the display position of the volume adjustment screen according to the line-of-sight direction (S46).

図15は、視線方向に基づき表示された音量調整画面の一例を示す。なお、音量調整画面はフロントガラスに表示されている。図15(a)では視線方向が左側であるため、左柄に音量調整画面が、図15(b)では視線方向が右側であるため右側に音量調整画面が表示されている。   FIG. 15 shows an example of a volume adjustment screen displayed based on the line-of-sight direction. The volume adjustment screen is displayed on the windshield. Since the line-of-sight direction is the left side in FIG. 15A, the volume adjustment screen is displayed on the left handle, and in FIG. 15B, the volume adjustment screen is displayed on the right side because the line-of-sight direction is the right side.

ナビECU15は、運転者から音量調整の終了操作が検出されるか否かを判定し(S47)、運転者が「音量終わり」等と発声すると、音声認識装置12がその音声を認識しナビECU15に制御信号を送出し、ナビECU15は音量の調整制御を終了する。   The navigation ECU 15 determines whether or not a volume adjustment end operation is detected from the driver (S47). When the driver utters “volume end” or the like, the voice recognition device 12 recognizes the voice and the navigation ECU 15 The navigation ECU 15 ends the volume adjustment control.

このように、視線方向に応じて音量調整画面の表示位置が制御されることで、顔向き角度により音量を調整している場合であっても、運転者から見やすい位置に音量調整画面を表示することができる。例えば、車両がコーナを走行する場合など、運転者の視線は斜め前方の進行方向を向くので、視線方向に応じて表示位置を制御することで、運転者の視線方向、車両の進行方向及び表示位置を一致させることができる。なお、本実施例においても、車両の進行方向と運転者の視線方向とが所定以上異なる場合に、警報を吹聴してもよい。   In this way, by controlling the display position of the volume adjustment screen according to the line-of-sight direction, the volume adjustment screen is displayed at a position that is easy to see from the driver even when the volume is adjusted by the face orientation angle. be able to. For example, when the vehicle travels around a corner, the driver's line of sight is directed forward in the diagonal direction, so by controlling the display position according to the direction of the line of sight, the driver's line of sight, the vehicle's direction of travel, and display The positions can be matched. Also in the present embodiment, an alarm may be heard when the traveling direction of the vehicle and the driver's line-of-sight direction are different from each other by a predetermined amount or more.

以上のように、本実施の形態の車載装置調整装置は、走行中であっても、運転者の意志に応じて車載装置の状態の連続的な調整が容易である。また、状態を連続的に調整する場合、同じ操作方法で種々の車載装置を操作できるので運転者の使い勝手も向上する。また、顔向き角度が進行方向と大きく異なった場合には警報を吹聴できるので安全性が損なわれることもない。運転者の視線方向に応じて、調整するための画面の表示位置を制御できるため、運転者が容易に視認することができる。   As described above, the on-vehicle device adjustment device of the present embodiment can easily adjust the state of the on-vehicle device according to the driver's will even during traveling. Moreover, when adjusting a state continuously, since various vehicle-mounted apparatuses can be operated with the same operation method, a driver's convenience is also improved. Further, when the face angle is greatly different from the traveling direction, an alarm can be heard and the safety is not impaired. Since the display position of the screen for adjustment can be controlled in accordance with the driver's line-of-sight direction, the driver can easily view it.

車載装置調整装置の機能ブロック図である。It is a functional block diagram of an in-vehicle device adjustment device. 音声認識装置の機能ブロック図である。It is a functional block diagram of a voice recognition device. 差分画像により顔の輪郭が検出された顔画像の一例である。It is an example of the face image from which the outline of the face was detected by the difference image. 運転者が左方向を向いた場合に撮影される顔画像の一例である。It is an example of the face image image | photographed when a driver | operator faces the left direction. 視線検出装置の機能ブロック図である。It is a functional block diagram of a gaze detection device. 車載装置調整装置が顔向き角度によりスピーカの音量を調整する処理の手順を示すフローチャート図である。It is a flowchart figure which shows the procedure of the process which a vehicle-mounted apparatus adjustment apparatus adjusts the volume of a speaker with a face direction angle. 音量調整画面の一例である。It is an example of a volume adjustment screen. 表示装置に表示される車載装置の状態の一例である。It is an example of the state of the vehicle-mounted apparatus displayed on a display apparatus. 車載装置調整装置の機能ブロック図の一例である。It is an example of the functional block diagram of a vehicle-mounted apparatus adjustment apparatus. 車載装置調整装置が顔向き角度によりサスペンションの減衰力を調整する処理の手順を示すフローチャート図である。It is a flowchart figure which shows the procedure of the process which an in-vehicle apparatus adjustment apparatus adjusts the damping force of a suspension with a face direction angle. サスペンション調整画面の一例である。It is an example of a suspension adjustment screen. 顔向き操作中に視線が進行方向と所定以上異なった場合、ナビECUが警報を吹聴する制御手順のフローチャート図である。FIG. 10 is a flowchart of a control procedure in which a navigation ECU sounds an alarm when a line of sight differs from a traveling direction by a predetermined amount or more during a face-facing operation. 車両の進行方向と視線方向との関係の一例を示す図である。It is a figure which shows an example of the relationship between the advancing direction of a vehicle, and a gaze direction. 顔向き角度に応じて音量調整画面の表示位置を制御する手順を示すフローチャート図である。It is a flowchart figure which shows the procedure which controls the display position of a volume adjustment screen according to a face direction angle. 視線方向に基づき表示された音量調整画面の一例である。It is an example of the volume adjustment screen displayed based on the gaze direction.

符号の説明Explanation of symbols

1 車載装置調整装置
11 マイクロフォン
12 音声認識装置
13 カメラ
14 顔向きECU
15 ナビECU
16 表示装置
17 スピーカ
18 サスペンション制御ECU
19 視線検出ECU

DESCRIPTION OF SYMBOLS 1 In-vehicle apparatus adjustment apparatus 11 Microphone 12 Voice recognition apparatus 13 Camera 14 Face direction ECU
15 Navi ECU
16 Display device 17 Speaker
18 Suspension control ECU
19 Gaze detection ECU

Claims (4)

車載装置の状態を調整する車載装置調整装置において、
当該車載装置調整装置を起動する起動手段と、
運転者の顔向き角度を検出する顔向き検出手段と、
前記顔向き検出手段により検出された顔向き角度に応じて、車載装置の状態を制御する車載装置制御手段と、
を有することを特徴とする車載装置調整装置。
In the in-vehicle device adjustment device that adjusts the state of the in-vehicle device,
Starting means for starting the in-vehicle device adjustment device;
A face direction detecting means for detecting a driver's face angle;
In-vehicle device control means for controlling the state of the in-vehicle device according to the face orientation angle detected by the face orientation detection means;
An in-vehicle device adjustment device comprising:
前記車載装置制御手段により制御される車載装置の状態を乗員に報知する報知手段、
を有することを特徴とする請求項1記載の車載装置調整装置。
Informing means for notifying the passenger of the state of the in-vehicle device controlled by the in-vehicle device control means,
The in-vehicle device adjustment device according to claim 1, wherein
運転者の視線方向を検出する視線方向検出手段と、
自車両の進行方向を検出する進行方向検出手段と、
前記視線方向検出手段により検出された運転者の視線方向と、前記進行方向検出手段により検出された進行方向とが所定以上異なる場合、運転者に警報する警報手段と、
を有することを特徴とする請求項1記載の車載装置調整装置。
Gaze direction detecting means for detecting the gaze direction of the driver;
Traveling direction detection means for detecting the traveling direction of the host vehicle;
When the driver's line-of-sight direction detected by the line-of-sight direction detection unit and the traveling direction detected by the traveling direction detection unit are different from each other by a predetermined amount, an alarm unit that warns the driver;
The in-vehicle device adjustment device according to claim 1, wherein
運転者の視線方向を検出する視線方向検出手段を有し、
前記報知手段は、前記視線方向検出手段により検出された視線方向に車載装置の状態を表示する、
ことを特徴とする請求項2記載の車載装置調整装置。


Gaze direction detecting means for detecting the gaze direction of the driver,
The notification means displays the state of the in-vehicle device in the line-of-sight direction detected by the line-of-sight direction detection means.
The in-vehicle device adjustment device according to claim 2.


JP2006054580A 2006-03-01 2006-03-01 In-vehicle device adjustment device Expired - Fee Related JP4894300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006054580A JP4894300B2 (en) 2006-03-01 2006-03-01 In-vehicle device adjustment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006054580A JP4894300B2 (en) 2006-03-01 2006-03-01 In-vehicle device adjustment device

Publications (2)

Publication Number Publication Date
JP2007230369A true JP2007230369A (en) 2007-09-13
JP4894300B2 JP4894300B2 (en) 2012-03-14

Family

ID=38551392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006054580A Expired - Fee Related JP4894300B2 (en) 2006-03-01 2006-03-01 In-vehicle device adjustment device

Country Status (1)

Country Link
JP (1) JP4894300B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007261312A (en) * 2006-03-27 2007-10-11 Toyota Motor Corp Headlamp controller for vehicle
JP2009073284A (en) * 2007-09-19 2009-04-09 Aisin Seiki Co Ltd Lighting control system for vehicle, and lighting control method for vehicle
JP2010066968A (en) * 2008-09-10 2010-03-25 Toyota Motor Corp Visual line state detection device
WO2010100842A1 (en) * 2009-03-02 2010-09-10 パナソニック株式会社 Image capturing device, operator monitoring device, method for measuring distance to face, and program
JP2012022579A (en) * 2010-07-15 2012-02-02 Fujitsu Ltd Face direction detector, face direction detection program and face direction detection method
EP2567869A3 (en) * 2011-09-08 2013-07-17 Honda Motor Co., Ltd. Vehicle-mounted device identifying apparatus
WO2013136740A1 (en) * 2012-03-14 2013-09-19 株式会社デンソー Driving assistance device and driving assistance method
WO2017056570A1 (en) * 2015-09-30 2017-04-06 アイシン精機株式会社 Driving support device
JP2017068672A (en) * 2015-09-30 2017-04-06 アイシン精機株式会社 Driving support device
JP2017081074A (en) * 2015-10-30 2017-05-18 京セラドキュメントソリューションズ株式会社 Image forming apparatus
EP3342665A1 (en) * 2016-12-30 2018-07-04 Hyundai Motor Company Pedestrian collision prevention apparatus and method considering pedestrian gaze
DE102018131805A1 (en) 2017-12-11 2019-06-13 Omron Corporation DEVICE FOR DETECTING A FACIAL POSITION

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06261863A (en) * 1993-03-11 1994-09-20 Nissan Motor Co Ltd Sight line direction measuring instrument
JPH0796803A (en) * 1993-08-04 1995-04-11 Nissan Motor Co Ltd Interface for vehicle
JPH07329657A (en) * 1994-06-02 1995-12-19 Nissan Motor Co Ltd Warning display device for vehicle
JPH0976815A (en) * 1995-09-11 1997-03-25 Mitsubishi Motors Corp Auxiliary device for driving operation
JP2005153660A (en) * 2003-11-25 2005-06-16 Fujitsu Ten Ltd Driving assisting device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06261863A (en) * 1993-03-11 1994-09-20 Nissan Motor Co Ltd Sight line direction measuring instrument
JPH0796803A (en) * 1993-08-04 1995-04-11 Nissan Motor Co Ltd Interface for vehicle
JPH07329657A (en) * 1994-06-02 1995-12-19 Nissan Motor Co Ltd Warning display device for vehicle
JPH0976815A (en) * 1995-09-11 1997-03-25 Mitsubishi Motors Corp Auxiliary device for driving operation
JP2005153660A (en) * 2003-11-25 2005-06-16 Fujitsu Ten Ltd Driving assisting device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4506703B2 (en) * 2006-03-27 2010-07-21 トヨタ自動車株式会社 Vehicle headlamp control device
JP2007261312A (en) * 2006-03-27 2007-10-11 Toyota Motor Corp Headlamp controller for vehicle
JP2009073284A (en) * 2007-09-19 2009-04-09 Aisin Seiki Co Ltd Lighting control system for vehicle, and lighting control method for vehicle
JP2010066968A (en) * 2008-09-10 2010-03-25 Toyota Motor Corp Visual line state detection device
WO2010100842A1 (en) * 2009-03-02 2010-09-10 パナソニック株式会社 Image capturing device, operator monitoring device, method for measuring distance to face, and program
JP2010204304A (en) * 2009-03-02 2010-09-16 Panasonic Corp Image capturing device, operator monitoring device, method for measuring distance to face
JP2012022579A (en) * 2010-07-15 2012-02-02 Fujitsu Ltd Face direction detector, face direction detection program and face direction detection method
US8953042B2 (en) 2011-09-08 2015-02-10 Honda Motor Co., Ltd. Vehicle-mounted device identifying apparatus
EP2567869A3 (en) * 2011-09-08 2013-07-17 Honda Motor Co., Ltd. Vehicle-mounted device identifying apparatus
WO2013136740A1 (en) * 2012-03-14 2013-09-19 株式会社デンソー Driving assistance device and driving assistance method
US9317759B2 (en) 2012-03-14 2016-04-19 Denso Corporation Driving assistance device and driving assistance method
WO2017056570A1 (en) * 2015-09-30 2017-04-06 アイシン精機株式会社 Driving support device
JP2017068672A (en) * 2015-09-30 2017-04-06 アイシン精機株式会社 Driving support device
CN108028018A (en) * 2015-09-30 2018-05-11 爱信精机株式会社 Drive assistance device
JP2017081074A (en) * 2015-10-30 2017-05-18 京セラドキュメントソリューションズ株式会社 Image forming apparatus
EP3342665A1 (en) * 2016-12-30 2018-07-04 Hyundai Motor Company Pedestrian collision prevention apparatus and method considering pedestrian gaze
US10922975B2 (en) 2016-12-30 2021-02-16 Hyundai Motor Company Pedestrian collision prevention apparatus and method considering pedestrian gaze
DE102018131805A1 (en) 2017-12-11 2019-06-13 Omron Corporation DEVICE FOR DETECTING A FACIAL POSITION
US10776944B2 (en) 2017-12-11 2020-09-15 Omron Corporation Face position detecting device

Also Published As

Publication number Publication date
JP4894300B2 (en) 2012-03-14

Similar Documents

Publication Publication Date Title
JP4894300B2 (en) In-vehicle device adjustment device
JP4380541B2 (en) Vehicle agent device
US10994612B2 (en) Agent system, agent control method, and storage medium
JP6555647B2 (en) Vehicle driving support system and vehicle driving support method
JP6693354B2 (en) Vehicle information presentation device
JP2016007989A (en) Vehicle control system and vehicle control method
JP6555646B2 (en) Vehicle driving support system
JP6593712B2 (en) Vehicle driving support system
JP2005138755A (en) Device and program for displaying virtual images
US10901503B2 (en) Agent apparatus, agent control method, and storage medium
JP2008058409A (en) Speech recognizing method and speech recognizing device
JP7250547B2 (en) Agent system, information processing device, information processing method, and program
JP2007280352A (en) Sight direction determination apparatus
JP4722499B2 (en) Voice recognition type device control apparatus and vehicle
JP2017004043A (en) Driver state determination method and driver state determination device
JP2018149822A (en) Operation mode changeover control device, method and program
JP6631545B2 (en) Dependency estimator
WO2020250645A1 (en) In-vehicle communication device, vehicle remote control system, communication method, and program
JP2019164519A (en) Display control device and display control method
JP7280072B2 (en) Notification control device and notification control method
US20230351895A1 (en) Traffic safety support system
US20230311927A1 (en) Traffic safety support system
WO2022239642A1 (en) Information providing device for vehicle, information providing method for vehicle, and information providing program for vehicle
JP6374834B2 (en) Vehicle information providing device
JP2017161423A (en) Car onboard information presentation device, and information presentation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111212

R151 Written notification of patent or utility model registration

Ref document number: 4894300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees