JP2007255971A - On-vehicle electronic device, and operation control method of same - Google Patents

On-vehicle electronic device, and operation control method of same Download PDF

Info

Publication number
JP2007255971A
JP2007255971A JP2006078392A JP2006078392A JP2007255971A JP 2007255971 A JP2007255971 A JP 2007255971A JP 2006078392 A JP2006078392 A JP 2006078392A JP 2006078392 A JP2006078392 A JP 2006078392A JP 2007255971 A JP2007255971 A JP 2007255971A
Authority
JP
Japan
Prior art keywords
unit
user
feature data
information
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006078392A
Other languages
Japanese (ja)
Inventor
Satohiko Sawashi
聡彦 澤志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006078392A priority Critical patent/JP2007255971A/en
Publication of JP2007255971A publication Critical patent/JP2007255971A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform automatic setting to a suitable operation state corresponding to an individual user. <P>SOLUTION: An imaging part capable of imaging a user on board is provided on a position near a display part or an operation panel or the like of a navigation device or an audio reproduction device, and face feature data are detected from an image imaged by the imaging part (F102). The face feature data are used as information for discriminating the individual user. When the individual user is discriminated, each control corresponding to the individual user is performed in navigation operation or in audio reproduction operation (F104, F105, F106). For example, navigation output according to user's liking or necessity is performed, as a traveling guide by map image display or a voice in the case of the navigation device. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、例えばナビゲーション装置やオーディオ再生装置などの車載用電子機器と、その動作制御方法に関するものである。   The present invention relates to an in-vehicle electronic device such as a navigation device or an audio playback device, and an operation control method thereof.

特開2003−32776号公報JP 2003-32776 A 特開平7−329639号公報JP-A-7-329639 特開平9−90963号公報Japanese Patent Laid-Open No. 9-90963

車載用の電子機器として、例えばナビゲーション装置やオーディオ再生装置が広く利用されている。
そしてこれらの車載用機器として、特に撮像部(カメラ)を備えるようにして、撮像した画像から例えば自動車の乗車人数や乗車位置を判別するなどし、それらの状況に応じて音響特性を調整する技術が、上記特許文献に記載されている。
For example, navigation devices and audio playback devices are widely used as in-vehicle electronic devices.
And, as these in-vehicle devices, in particular, an imaging unit (camera) is provided, and for example, the number of passengers and the boarding position of a car are discriminated from the taken images, and the acoustic characteristics are adjusted according to those situations. Is described in the above patent document.

ところで車載用電子機器は、ユーザー個人毎に、使用する際の設定の好みや動作の必要性が異なる。例えば一台の自動車を家族で使用している場合、車載用電子機器のユーザーは複数となるが、車載用電子機器の動作に関してそれぞれの好みや必要性が異なる。
例えばナビゲーション装置の場合、表示や音声によるガイド内容として、欲する内容がユーザー毎に異なり、ユーザー個人毎にとって、過剰なガイドとなったり、逆に望むガイド内容が出力されないといったことが生ずる。
オーディオ再生装置の場合、音量、音響設定などの好みがユーザー毎に異なる。
このため、乗車するユーザーが代わる毎に、各人は自分の好みの状態に操作し直す必要があり、操作が面倒となる。或いは操作が面倒であれば、好みでない動作状態を認容しなければならない。
By the way, in-vehicle electronic devices have different preference for setting and necessity of operation for each individual user. For example, when a single automobile is used by a family, there are a plurality of users of in-vehicle electronic devices, but each user has different preferences and needs regarding the operation of the in-vehicle electronic devices.
For example, in the case of a navigation device, the desired content of the display or voice guide varies from user to user, resulting in an excessive guide for each individual user, or conversely, the desired guide content is not output.
In the case of an audio playback device, preferences such as volume and sound settings vary from user to user.
For this reason, each time a user who gets on the vehicle changes, each person needs to re-operate to his / her favorite state, which is troublesome. Or, if the operation is troublesome, an unfavorable operation state must be accepted.

そこで本発明では、乗車するユーザーが代わっても、各人が毎回面倒な操作を行うことなく、乗車するユーザーに適した動作が行われる車載用電子機器を提供することを目的とする。   Therefore, an object of the present invention is to provide an in-vehicle electronic device that can perform an operation suitable for a user who gets on the vehicle without performing troublesome operations each time even if the user who gets on the vehicle changes.

本発明の車載用電子機器は、車内の人物を撮像できるように配置された撮像部と、上記撮像部で撮像された画像データを解析し、撮像された人物の顔特徴データを生成する画像解析部と、顔特徴データに対応したユーザー情報を記憶するメモリ部と、上記メモリ部から上記画像解析部で生成された顔特徴データに対応するユーザー情報を読み出し、読み出したユーザー情報に基づいた動作制御を実行する制御部とを備える。   An in-vehicle electronic device according to the present invention includes an imaging unit arranged so as to capture an image of a person in a vehicle, and image analysis that analyzes image data captured by the imaging unit and generates facial feature data of the captured person A memory unit for storing user information corresponding to the facial feature data, and reading out the user information corresponding to the facial feature data generated by the image analysis unit from the memory unit, and controlling the operation based on the read user information The control part which performs is provided.

また上記車載用電子機器は車載用のナビゲーション装置であって、表示部と、ナビゲーション情報を取得するナビゲーション情報取得部とを更に備える。そして上記制御部は、上記表示部において、上記ナビゲーション情報取得部で取得したナビゲーション情報としての地図情報による地図表示を実行させる際に、上記画像解析部で生成された顔特徴データに対応して上記メモリ部から読み出したユーザー情報に基づいて、地図表示上の表示内容を制御する。
また上記車載用電子機器は車載用のナビゲーション装置であって、音声出力部と、ナビゲーション情報を取得するナビゲーション情報取得部と、現在位置情報を検出する位置検出部とを更に備える。そして上記制御部は、上記音声出力部から、上記ナビゲーション情報取得部で取得したナビゲーション情報又は上記位置検出部で検出した現在位置情報に基づいた音声出力を実行させる動作に関して、上記画像解析部で生成された顔特徴データに対応して上記メモリ部から読み出したユーザー情報に基づいて、音声出力内容を制御する。
Moreover, the said vehicle-mounted electronic device is a vehicle-mounted navigation apparatus, Comprising: A display part and the navigation information acquisition part which acquires navigation information are further provided. And when the said control part performs the map display by the map information as the navigation information acquired in the said navigation information acquisition part in the said display part, it corresponds to the said face feature data produced | generated by the said image analysis part. The display contents on the map display are controlled based on the user information read from the memory unit.
The on-vehicle electronic device is an on-vehicle navigation device, and further includes an audio output unit, a navigation information acquisition unit that acquires navigation information, and a position detection unit that detects current position information. The control unit generates, from the audio output unit, the image analysis unit with respect to an operation for executing audio output based on the navigation information acquired by the navigation information acquisition unit or the current position information detected by the position detection unit. The voice output content is controlled based on the user information read from the memory unit corresponding to the face feature data.

なお、ここでのナビゲーション情報とは、地図データや地図上に表示する画像データ、POI(Point of Interest)データ、車線/進路情報、有料道路の料金情報、走行上の注意や案内の情報、道路情報、渋滞情報など、ナビゲーション動作として出力する情報の元となる情報のことである。
そしてナビゲーション情報取得部とは、例えば光ディスク、HDD(Hard Disc Drive)などの記録媒体からナビゲーション情報を再生したり、或いは外部と通信してナビゲーション情報を受信するなどして情報を取得する部位である。
The navigation information here is map data, image data to be displayed on the map, POI (Point of Interest) data, lane / route information, toll road toll information, driving attention and guidance information, road This is information that is the source of information to be output as navigation operations, such as information and traffic jam information.
The navigation information acquisition unit is a part that acquires information by reproducing navigation information from a recording medium such as an optical disk or HDD (Hard Disc Drive), or by receiving navigation information by communicating with the outside. .

また上記車載用電子機器は車載用のオーディオ再生装置であって、オーディオソースから供給されるオーディオ信号について信号処理を行うオーディオ信号処理部と、上記オーディオ信号処理部で信号処理されたオーディオ信号を1又は複数のスピーカに供給するオーディオ出力処理部とを更に備える。そして上記制御部は、上記画像解析部で生成された顔特徴データに対応して上記メモリ部から読み出したユーザー情報に基づいて、上記オーディオ信号処理部での信号処理を制御する。
なお、上記オーディオ信号処理部での信号処理とは、例えば音量調整処理、イコライジングやリバーブなどの音響処理、複数チャンネルスピーカの出力バランスの設定処理などである。
また上記車載用電子機器は車載用のオーディオ再生装置であって、複数のオーディオソースからのオーディオ信号を選択する選択部と、上記選択部で選択されたオーディオ信号を1又は複数のスピーカに供給するオーディオ出力処理部とを更に備える。そして上記制御部は、上記画像解析部で生成された顔特徴データに対応して上記メモリ部から読み出したユーザー情報に基づいて、上記選択部でのオーディオ信号の選択動作を制御する。
The in-vehicle electronic device is an in-vehicle audio playback device, and an audio signal processing unit that performs signal processing on an audio signal supplied from an audio source, and an audio signal that has been signal-processed by the audio signal processing unit. Or an audio output processing unit for supplying to a plurality of speakers. The control unit controls signal processing in the audio signal processing unit based on user information read from the memory unit corresponding to the facial feature data generated by the image analysis unit.
The signal processing in the audio signal processing unit includes, for example, volume adjustment processing, acoustic processing such as equalizing and reverb, and output balance setting processing of a multi-channel speaker.
The in-vehicle electronic device is an in-vehicle audio reproduction device, and selects a selection unit that selects audio signals from a plurality of audio sources, and supplies the audio signal selected by the selection unit to one or a plurality of speakers. And an audio output processing unit. The control unit controls an audio signal selection operation in the selection unit based on user information read from the memory unit corresponding to the facial feature data generated by the image analysis unit.

また、上記画像解析部が生成する上記顔特徴データは、顔の構成要素の相対位置情報である。
また上記ユーザー情報を入力する入力部を更に備え、上記制御部は、上記入力部により入力されたユーザー情報を、上記画像解析部で生成された顔特徴データに対応させて、上記メモリ部に記憶させる。
また操作入力部を更に備え、上記制御部は、上記操作入力部を用いた操作内容、もしくは操作内容の履歴によりユーザー情報を生成し、上記画像解析部で生成された顔特徴データに対応させて、上記メモリ部に記憶させる。
Also, the face feature data generated by the image analysis unit is relative position information of face components.
The controller further includes an input unit for inputting the user information, and the control unit stores the user information input by the input unit in the memory unit in association with the facial feature data generated by the image analysis unit. Let
The control unit further includes an operation input unit, and the control unit generates user information based on an operation content using the operation input unit or a history of the operation content, and corresponds to the facial feature data generated by the image analysis unit. And stored in the memory unit.

本発明の動作制御方法は、車内の人物を撮像できるように配置された撮像部と、上記撮像部で撮像された画像データを解析し、撮像された人物の顔特徴データを生成する画像解析部と、顔特徴データに対応したユーザー情報を記憶するメモリ部とを備えた車載用電子機器の動作制御方法であり、上記画像解析部で顔特徴データを生成するステップと、上記メモリ部から、上記顔特徴データに対応するユーザー情報を読み出すステップと、読み出したユーザー情報に基づいて動作制御を実行するステップとを備える。   An operation control method according to the present invention includes an imaging unit arranged to capture an image of a person in a vehicle, and an image analysis unit that analyzes image data captured by the imaging unit and generates facial feature data of the captured person And a memory unit for storing user information corresponding to the facial feature data, a method for controlling the operation of the in-vehicle electronic device, the step of generating facial feature data in the image analysis unit, and the memory unit, A step of reading user information corresponding to the facial feature data, and a step of executing operation control based on the read user information.

以上の本発明の場合、例えばナビゲーション装置やオーディオ再生装置の表示部や操作パネル付近などの位置に、乗車しているユーザーを撮像できる撮像部を設け、撮像部で撮像した画像から顔特徴データを検出する。顔特徴データはユーザー個人を判別する情報として用いる。そしてユーザー個人を判別したら、ナビゲーション動作やオーディオ再生動作においてそのユーザー個人に応じた制御を行う。   In the case of the present invention described above, for example, an imaging unit capable of imaging a user who is on board is provided at a position such as a display unit or an operation panel of a navigation device or an audio playback device, and facial feature data is obtained from an image captured by the imaging unit. To detect. The face feature data is used as information for identifying the individual user. When the individual user is identified, control according to the individual user is performed in the navigation operation and the audio reproduction operation.

本発明によれば、撮像部で撮像された人物の顔特徴データにより、ユーザーを判別し、そのユーザーに対応したユーザー情報に基づいた動作制御を実行することで、個々のユーザーに適した動作が行われる。例えばナビゲーション装置の場合の地図画像表示や音声による走行ガイドなどとして、ユーザーの好みや必要性に応じたナビゲーション出力を行うことができる。同様にオーディオ再生装置の場合は、再生出力されるオーディオ信号として、ユーザーの好み等に応じた音量、音質(音響効果)、バランス、オーディオソース選択などが行われる。
即ち、複数のユーザーが乗車する車の車載用電子機器として、個々のユーザーが、調整操作を行わなくとも、乗車しているユーザーにとって快適なナビゲーション動作やオーディオ再生動作等が実現できる。
According to the present invention, the user can be identified based on the facial feature data of the person captured by the imaging unit, and the motion control based on the user information corresponding to the user is performed, so that the motion suitable for each user can be performed. Done. For example, navigation output according to the user's preference and necessity can be performed as a map image display in the case of a navigation device or a travel guide by voice. Similarly, in the case of an audio playback device, the volume, sound quality (acoustic effect), balance, audio source selection, and the like according to the user's preferences are performed as the audio signal to be played back and output.
That is, as an in-vehicle electronic device for a vehicle on which a plurality of users get on, an individual user can perform a navigation operation and an audio reproduction operation that are comfortable for the user who is on board without performing an adjustment operation.

以下、本発明の車載用電子機器の実施の形態として、ナビゲーション装置、オーディオ再生装置の例を、次の順序で説明する。
[1.第1の実施の形態:ナビゲーション装置]
[2.第2の実施の形態:オーディオ再生装置]
[3.実施の形態の効果及び変形例]
Hereinafter, examples of a navigation device and an audio playback device will be described in the following order as embodiments of the in-vehicle electronic device of the present invention.
[1. First Embodiment: Navigation Device]
[2. Second Embodiment: Audio Playback Device]
[3. Effects and modifications of the embodiment]

[1.第1の実施の形態:ナビゲーション装置]

図1は実施の形態の車載用ナビゲーション装置10のブロック図である。
図1のナビゲーション装置10は、演算処理部1、操作入力部2、映像信号処理部3、位置検出部4、センサ部5、ディスクドライブ装置部6、音声合成/再生処理部7、表示部8、スピーカ部9、撮像部16、画像解析部17、通信部18を有する。これらの各部は、一体的に設けられても良いし、それぞれ別の筐体の装置部とされ、有線又は無線で通信可能に接続されるものであってもよい。
[1. First Embodiment: Navigation Device]

FIG. 1 is a block diagram of an in-vehicle navigation device 10 according to an embodiment.
1 includes an arithmetic processing unit 1, an operation input unit 2, a video signal processing unit 3, a position detection unit 4, a sensor unit 5, a disk drive unit 6, a voice synthesis / playback processing unit 7, and a display unit 8. A speaker unit 9, an imaging unit 16, an image analysis unit 17, and a communication unit 18. Each of these units may be provided integrally, or may be a device unit of a separate casing, and may be connected to be communicable by wire or wirelessly.

操作入力部2は、ユーザの操作を受け、その操作情報を演算処理部1に伝達する装置部である。例えばナビゲーション装置10の本体筐体のパネル上に設けられた各種のキーやジョグダイヤル、スティック等の操作子として実現されたり、本体筐体とは別体に設けられたリモートコントローラなどとして実現される。リモートコントローラとされる場合、リモートコントローラ上に設けられたキーやダイヤル等の操作子の操作情報を、赤外線や電波により演算処理部1に送信したり、或いは演算処理部1を有する筐体と有線接続されて操作情報を送信する。
また操作入力部2としては、表示画面上のタッチパネルとされる場合もある。その場合、表示部8と一体的に設けられる。さらには表示部8に表示されたメニュー画面やアイコン表示に対してマウスや所定のポインティングデバイスによってクリックを行う形態も操作入力部2の一態様として考えられる。
The operation input unit 2 is a device unit that receives a user operation and transmits the operation information to the arithmetic processing unit 1. For example, it is realized as an operator such as various keys, a jog dial, or a stick provided on the panel of the main body casing of the navigation device 10, or as a remote controller provided separately from the main body casing. In the case of a remote controller, operation information of operating elements such as keys and dials provided on the remote controller is transmitted to the arithmetic processing unit 1 by infrared rays or radio waves, or a casing having the arithmetic processing unit 1 is wired. Connect and send operation information.
The operation input unit 2 may be a touch panel on a display screen. In that case, it is provided integrally with the display unit 8. Furthermore, a mode in which a menu or icon display displayed on the display unit 8 is clicked with a mouse or a predetermined pointing device is also considered as one mode of the operation input unit 2.

表示部8及びスピーカ部9は、ユーザーに対する画像や音声の出力装置部となる。
表示部8は、演算処理部1でのナビゲーション動作のための処理で生成された地図画像、経路案内画像、操作メニュー、アイコン、POI(Point of Interest)情報、検索リスト等の各種ナビゲーション画像を表示する。
映像信号処理部3は、演算処理部1で生成されたナビゲーション画像データやその他の画像データに関して必要な処理を行い、表示部8での表示を実行させる。
スピーカ部9は、演算処理部1でのナビゲーション動作のための処理に基づく音声の出力を行う。
音声合成/再生処理部7は、ナビゲーション音声、例えば経路案内処理によるガイド音声等を出力するための音声合成処理を実行し、スピーカ部9から出力させる。
The display unit 8 and the speaker unit 9 serve as an image or audio output device unit for the user.
The display unit 8 displays various navigation images such as a map image, a route guidance image, an operation menu, an icon, POI (Point of Interest) information, a search list, etc. generated by the processing for the navigation operation in the arithmetic processing unit 1. To do.
The video signal processing unit 3 performs necessary processing on the navigation image data generated by the arithmetic processing unit 1 and other image data, and causes the display unit 8 to execute display.
The speaker unit 9 outputs sound based on processing for navigation operation in the arithmetic processing unit 1.
The voice synthesis / playback processing unit 7 executes voice synthesis processing for outputting navigation voice, for example, guide voice by route guidance processing, and outputs the voice from the speaker unit 9.

位置検出部4は、当該ナビゲーション装置10の位置、即ち当該ナビゲーション装置10が搭載された自動車の位置を検出する装置部であり、例えばGPS(Global Positioning System)を利用したGPS測位装置である。既に公知の通り、GPS測位装置は、複数のGPS衛星から送られてくる電波を受信することで、静止衛星からの位置を計算し、自車の地図上の位置として緯度、経度を求める。
位置検出部4は測位した自車位置としての緯度、経度の情報を演算処理部1に供給する。
The position detection unit 4 is a device unit that detects the position of the navigation device 10, that is, the position of an automobile on which the navigation device 10 is mounted, and is a GPS positioning device that uses, for example, GPS (Global Positioning System). As already known, the GPS positioning device calculates the position from the geostationary satellite by receiving radio waves transmitted from a plurality of GPS satellites, and obtains the latitude and longitude as the position on the map of the own vehicle.
The position detection unit 4 supplies latitude and longitude information as the measured vehicle position to the arithmetic processing unit 1.

センサ部5は、車の走行状況や挙動等を検出する装置部である。例えば、車輪の回転数を検知する車速センサ、車体の回転角速度を検知する振動ジャイロセンサ、車の加速度を検知する加速度センサ、車の振動を検知する振動センサなどである。また、車の走行操作装置の状態を検出する装置、例えばパーキングブレーキスイッチやブレーキランプスイッチ、ステアリング舵角センサ、スロットル開度センサなども想定される。
センサ部5によるこれらの検出情報は、演算処理部1に供給される。演算処理部1では、これらのセンサ部5からの検出情報と、位置検出部4からの位置情報とを併せて用いることで、より精度の高い自車位置検出を実行することができる。
The sensor unit 5 is a device unit that detects a traveling state or behavior of a car. For example, a vehicle speed sensor that detects the number of rotations of a wheel, a vibration gyro sensor that detects the rotational angular velocity of a vehicle body, an acceleration sensor that detects vehicle acceleration, and a vibration sensor that detects vehicle vibration. In addition, a device that detects the state of the vehicle travel operation device, for example, a parking brake switch, a brake lamp switch, a steering angle sensor, a throttle opening sensor, and the like is also assumed.
Information detected by the sensor unit 5 is supplied to the arithmetic processing unit 1. In the arithmetic processing unit 1, by using the detection information from the sensor unit 5 and the position information from the position detection unit 4 together, it is possible to perform more accurate vehicle position detection.

ディスクドライブ装置部6は、CD(Compact Disc)方式或いはDVD(Digital Versatile Disc)方式、或いはブルーレイディスク方式など外部記録媒体としてのディスク90について再生を行う再生装置である。
このディスクドライブ装置6に地図データ等を含むナビゲーション情報が記録されたディスク90が装填されることで、本ナビゲーション装置10はナビゲーション情報を読み込むことができ、地図データ等に基づいたナビゲーション処理が可能となる。
なお、本明細書では「ナビゲーション情報」とは、ナビゲーション処理に用いるデータの総称として用いており、ナビゲーション情報には、地図データ、地図画像を生成するための地図画像や地図画像上のアイコン等を含む地図描画データ、経路計算用のデータ、経路誘導データ、POI(Point of Interest)データ、検索用データ、管理データなどが含まれる。POIデータとは、レストラン、各種店舗、スポーツ施設、娯楽施設など、多様な地点情報を示すものであり、例えばこれらの各種地点をジャンル別等に体系化して検索できるようにした情報である。
一般に車載用ナビゲーション装置では、ユーザーが目的地を設定することに応じて好適な経路を算出し、表示部において地図画像上で経路を表示するナビゲーション動作が行われる。このナビゲーション動作のためには、まずユーザーが目的地を入力することが必要であるが、この目的地の入力のためには様々な方式があり、例えば目的地の住所や地名等を入力する方式や、地図上で位置を指定する方式、さらには目的地を検索して選択する方式などがある。検索による方式としてPOI入力方式が知られている。例えばユーザーの操作に応じて、POIデータとしての地点情報をカテゴリ別などで分類したデータベースに対して検索を行い、検索結果をリスト表示する。そしてユーザーがリストアップされたエントリの1つを指定することで、目的地として登録できるものである。検索のためのユーザーの入力は、例えばメニュー形式などでカテゴリを指定し、指定されたカテゴリをキーとして検索を行ったり、或いはユーザーがキーとなる文字等を入力し、これに基づいて検索するなど、多様な形態がある。
The disc drive unit 6 is a playback device that plays back a disc 90 as an external recording medium such as a CD (Compact Disc) system, a DVD (Digital Versatile Disc) system, or a Blu-ray Disc system.
By loading a disc 90 on which navigation information including map data and the like is recorded in the disc drive device 6, the navigation device 10 can read the navigation information and perform navigation processing based on the map data and the like. Become.
In this specification, “navigation information” is used as a general term for data used for navigation processing, and the navigation information includes map data, a map image for generating a map image, an icon on the map image, and the like. This includes map drawing data, route calculation data, route guidance data, POI (Point of Interest) data, search data, management data, and the like. The POI data indicates various point information such as restaurants, various stores, sports facilities, and entertainment facilities. For example, the POI data is information that enables these various points to be systematically searched by genre or the like.
In general, in an in-vehicle navigation device, a suitable route is calculated according to a user setting a destination, and a navigation operation for displaying the route on a map image is performed on a display unit. For this navigation operation, it is first necessary for the user to input a destination, but there are various methods for inputting the destination. For example, a method for inputting an address or a place name of the destination. And a method for specifying a position on a map, and a method for searching and selecting a destination. A POI input method is known as a search method. For example, in response to a user operation, a search is performed on a database in which point information as POI data is classified by category or the like, and search results are displayed in a list. The user can register as a destination by designating one of the listed entries. The user input for the search is, for example, specifying a category in a menu format, etc., and searching using the specified category as a key, or inputting a character etc. as a key by the user and searching based on this There are various forms.

ディスクドライブ装置部6は、演算処理部1を有する本体筐体に一体的に設けられても良いし、別体とされて有線又は無線で演算処理部1と通信可能とされてもよい。
なお説明上は、再生される外部記録媒体の例として、CD方式又はDVD方式のディスク90を挙げているが、他の種類の光ディスクや光磁気ディスク、或いはメモリカードなどの可搬型の記録媒体が外部記録媒体として用いられても良い。もちろんその場合は、外部記録媒体に対応した再生装置部が設けられる。またHDDとしてのディスクドライブ装置部6が設けられても良い。
The disk drive device unit 6 may be provided integrally with the main body housing having the arithmetic processing unit 1, or may be provided separately and communicated with the arithmetic processing unit 1 by wire or wirelessly.
In the description, a CD-type or DVD-type disc 90 is given as an example of an external recording medium to be reproduced. However, other types of portable recording media such as an optical disc, a magneto-optical disc, or a memory card are used. It may be used as an external recording medium. Of course, in that case, a playback device corresponding to the external recording medium is provided. Further, a disk drive unit 6 as an HDD may be provided.

撮像部16は、撮像光学レンズ系、レンズ駆動系、CCDセンサやCMOSセンサによる撮像素子部、撮像素子部で撮像された画像信号についてサンプリング、ゲイン調整、映像信号処理(輝度処理、色処理、補正処理等)等を行う撮像信号処理回路などを搭載して形成され、撮像動作により画像データを出力する。この撮像部16により、自動車内のユーザーの顔の撮像が行われる。
図3には、自動車内のフロントコンソールに配置されたナビゲーション装置10を示しているが、そのフロントパネル上には、表示部8としての画面や、操作入力部2としての各種操作子とともに、撮像部16における撮像レンズ16aが設けられる。この撮像レンズ16aは、例えば運転席のユーザーの顔の位置を被写体方向として捉えるように撮像方向が設定されている。
なお、撮像部16の撮像方向は、運転者の顔の方向に固定しても良いが、助手席方向や後部座席方向に変更できるようにしてもよい。また車内を広角で撮像し、車内のユーザーの全ての顔を被写体として捉えることができるようにしてもよい。
The imaging unit 16 performs sampling, gain adjustment, video signal processing (luminance processing, color processing, correction) on an imaging optical lens system, a lens driving system, an imaging device unit using a CCD sensor or a CMOS sensor, and an image signal captured by the imaging device unit. The imaging signal processing circuit for performing processing etc. is mounted, and image data is output by the imaging operation. The imaging unit 16 captures the face of the user in the car.
FIG. 3 shows a navigation device 10 arranged on a front console in an automobile. On the front panel, an image is displayed together with a screen as a display unit 8 and various operators as an operation input unit 2. An imaging lens 16a in the unit 16 is provided. The imaging direction of the imaging lens 16a is set so that, for example, the position of the face of the user at the driver's seat is captured as the subject direction.
The imaging direction of the imaging unit 16 may be fixed in the direction of the driver's face, but may be changed to the passenger seat direction or the rear seat direction. Alternatively, the interior of the vehicle may be imaged at a wide angle so that all faces of users in the vehicle can be captured as subjects.

画像解析部17は、撮像部16で得られた撮像画像データについて解析処理を行う。
この画像解析部17は、撮像画像データから人物の顔の画像を処理対象のオブジェクトとして抽出する処理と、抽出した顔画像から、顔特徴データFDTを生成する処理を行う。
顔特徴データFDTとは、例えば顔の構成要素の相対位置情報であり、ここでは比情報Fa、Fbの2つのデータを含む例とする。
比情報Faは、図4(b)に示す、目の中心と鼻との距離ENと目の間隔の距離Edの比とする。例えばFa=Ed/ENとする。
比情報Fbは、目の中心と口との距離EMと目の間隔の距離Edの比とする。例えばFb=Ed/EMとする。
このような顔の構成要素の相対位置情報は、個人毎に特有となるとともに、髪型や眼鏡等の装着物などによる、外観上の変化の影響を受けない情報である。さらに加齢によっても変化しないことが知られている。従って、これら比情報Fa,Fbを含む顔特徴データFDTは、ユーザー個人の顔を高い精度で識別できる情報となる。
画像解析部17は、撮像画像データからこのような顔特徴データFDTを生成して演算処理部1に供給する。
The image analysis unit 17 performs analysis processing on the captured image data obtained by the imaging unit 16.
The image analysis unit 17 performs a process of extracting a human face image from the captured image data as an object to be processed, and a process of generating face feature data FDT from the extracted face image.
The face feature data FDT is, for example, the relative position information of the constituent elements of the face. Here, the face feature data FDT is an example including two pieces of ratio information Fa and Fb.
The ratio information Fa is a ratio of the distance EN between the center of the eye and the nose and the distance Ed between the eyes shown in FIG. For example, Fa = Ed / EN.
The ratio information Fb is the ratio of the distance EM between the center of the eye and the mouth and the distance Ed between the eyes. For example, Fb = Ed / EM.
The relative position information of such facial components is information that is unique to each individual and is not affected by changes in appearance due to an attachment such as a hairstyle or glasses. Furthermore, it is known that it does not change with aging. Therefore, the face feature data FDT including the ratio information Fa and Fb is information that can identify the individual face of the user with high accuracy.
The image analysis unit 17 generates such face feature data FDT from the captured image data and supplies it to the arithmetic processing unit 1.

通信部18は、携帯電話網や他の無線ネットワークを介して情報サーバと通信を行う通信部である。演算処理部1は、通信部18による所定の情報サーバとの間の通信により、例えば道路状況、渋滞情報などを得ることができる。   The communication unit 18 is a communication unit that communicates with the information server via a mobile phone network or another wireless network. The arithmetic processing unit 1 can obtain, for example, road conditions, traffic jam information, and the like by communication with a predetermined information server by the communication unit 18.

演算処理部1は、ナビゲーション動作としての必要な演算処理を行う装置部であり、例えばCPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、不揮発性メモリ14、インターフェース部15を備えて構成される。
ROM12には動作プログラムや各種処理に用いる定数、固定情報が記憶される。なお、動作プログラムは、ディスクドライブ装置部6に装填されたディスク90に格納され、動作時に演算処理部1内にロードされるようにしてもよい。
RAM13は、ワーク領域やプログラムのロード領域に用いられたり、一時的な情報の蓄積に用いられる。またディスクドライブ装置部6で読み出されたデータについてのバッファリングやデータ処理のための一時的な格納領域ともされる。
The arithmetic processing unit 1 is a device unit that performs necessary arithmetic processing as a navigation operation. For example, a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, and a nonvolatile memory 14. The interface unit 15 is provided.
The ROM 12 stores operation programs, constants used for various processes, and fixed information. The operation program may be stored in the disk 90 loaded in the disk drive unit 6 and loaded into the arithmetic processing unit 1 during operation.
The RAM 13 is used as a work area or a program load area, or is used for temporarily storing information. Further, it is also used as a temporary storage area for buffering or data processing for data read by the disk drive unit 6.

不揮発性メモリ14は書換え可能かつシステムの電源供給が途絶えた時にも記憶したデータを保持できるメモリであり、例えばフラッシュメモリである。なお電池によりバックアップされたSRAM(Static Random Access Memory)等でもよい。この不揮発性メモリ14には、各種処理に用いる係数やユーザが登録した情報や指定した経路情報、過去の走行履歴情報などが記憶される。
さらに本例では、不揮発性メモリ14は後述するユーザーデータベースの格納にも用いられる。
The non-volatile memory 14 is a rewritable memory that can hold stored data even when the system power supply is interrupted, and is a flash memory, for example. An SRAM (Static Random Access Memory) backed up by a battery may be used. The nonvolatile memory 14 stores coefficients used for various processes, information registered by the user, designated route information, past travel history information, and the like.
Further, in this example, the nonvolatile memory 14 is also used for storing a user database, which will be described later.

CPU11は、ROM12に記憶されたプログラムに基づいて、ナビゲーション装置として必要な情報処理や制御処理を行う。これらの情報処理や制御処理のために、RAM13をワーク領域として用いたり、ROM12や不揮発性メモリ14に記憶された情報を参照する。   The CPU 11 performs information processing and control processing necessary as a navigation device based on a program stored in the ROM 12. For these information processing and control processing, the RAM 13 is used as a work area, or information stored in the ROM 12 or the nonvolatile memory 14 is referred to.

インターフェース15は、演算処理部1と他の各部、即ち操作入力部2、映像信号処理部3、位置検出部4、センサ部5、ディスクドライブ装置部6、音声合成/再生処理部7、画像解析部17、通信部18との間での入出力を行う。インターフェース部15は、操作入力部2からの操作情報や各種入力情報、位置検出部4からの位置情報、センサ部5による検出情報を入力し、CPU11に伝達する。またインターフェース部15は、CPU11が出力する制御情報や画像データ、音声データを映像信号処理部3や音声合成/再生処理部7に供給し、ナビゲーションシステムとしての必要な表示出力、音声出力を実行させる。またインターフェース部15はCPU11からのアクセス要求をディスクドライブ装置部6に伝え、ディスクドライブ装置部6に所要のデータ再生を実行させる。またインターフェース部15は、ディスクドライブ装置部6での再生動作によって転送されてくるナビゲーション情報を演算処理部1内に取り込む。またインターフェース部15は、画像解析部17で生成される顔特徴データ17をCPU11に伝達する。またインターフェース部15は通信部18により行われるデータ通信のためのデータ授受を行う。   The interface 15 includes an arithmetic processing unit 1 and other units, that is, an operation input unit 2, a video signal processing unit 3, a position detection unit 4, a sensor unit 5, a disk drive device unit 6, a voice synthesis / reproduction processing unit 7, and an image analysis. Input / output is performed between the unit 17 and the communication unit 18. The interface unit 15 inputs operation information and various input information from the operation input unit 2, position information from the position detection unit 4, and detection information by the sensor unit 5, and transmits them to the CPU 11. The interface unit 15 supplies control information, image data, and audio data output from the CPU 11 to the video signal processing unit 3 and the audio synthesis / reproduction processing unit 7 to execute necessary display output and audio output as a navigation system. . Further, the interface unit 15 transmits an access request from the CPU 11 to the disk drive device unit 6 and causes the disk drive device unit 6 to execute required data reproduction. Further, the interface unit 15 takes in the navigation information transferred by the reproduction operation in the disk drive device unit 6 into the arithmetic processing unit 1. The interface unit 15 transmits the facial feature data 17 generated by the image analysis unit 17 to the CPU 11. The interface unit 15 exchanges data for data communication performed by the communication unit 18.

図2に、CPU11が有する機能、即ちROM12等に記憶されたプログラムに基づいた演算処理により実現される機能を示す。
CPU11の機能として、ナビゲーション処理制御機能21、顔特徴データ対応学習/設定機能22、顔特徴データ対応制御機能23が設けられる。これらの機能は、それぞれが個別のプログラムモジュールで実現されても良いし、1つのプログラム内に複数の機能を実行するためのプログラムが混在しても良い。
FIG. 2 shows functions that the CPU 11 has, that is, functions that are realized by arithmetic processing based on a program stored in the ROM 12 or the like.
As functions of the CPU 11, a navigation processing control function 21, a facial feature data correspondence learning / setting function 22, and a facial feature data correspondence control function 23 are provided. Each of these functions may be realized by individual program modules, and a program for executing a plurality of functions may be mixed in one program.

ナビゲーション処理制御機能21は、ナビゲーション装置として必要とされる処理動作を制御する機能であり、他の各部に対して処理の指示やタイミング制御を行い、系統的なナビゲーション動作を実行させる。
例えばナビゲーション処理制御機能21は、ユーザーの目的地や中継地点の登録、経路探索等の処理や、自車の進行に伴った経路案内の処理を行う。また、後述する通常ナビゲーションモード、簡易ナビゲーションモードの設定や、モードに応じた処理の指示を行う。
またナビゲーション処理制御機能21は、ディスクドライブ装置部6を制御し、ディスク90からのナビゲーション情報の読込を実行させる。例えば自車位置やユーザーに指定された位置、或いはユーザーが指定した経路情報などに応じて、必要とされる範囲の地図情報、地図描画用データ、POIデータ、ガイド情報等をRAM13に読み込む。
またナビゲーション処理制御機能21は、位置検出部4からの位置情報とセンサ部5からの検出情報に基づいて、自車位置や自車の挙動を判別する。
またナビゲーション処理制御機能21は、表示部8に表示する画像データ、例えば地図画像、メニュー画像、アイコン画像、各種イメージ画像、各種案内画像のための画像データを生成する。
またナビゲーション処理制御機能21は、経路案内音声等の音声出力制御を行う。
The navigation processing control function 21 is a function for controlling processing operations required as a navigation device, and performs processing instructions and timing control for other units to execute systematic navigation operations.
For example, the navigation processing control function 21 performs processing such as registration of the user's destination and relay point, route search, and route guidance accompanying the progress of the host vehicle. Also, a normal navigation mode and a simple navigation mode, which will be described later, are set, and processing instructions corresponding to the mode are given.
The navigation processing control function 21 controls the disk drive device unit 6 to read navigation information from the disk 90. For example, map information, map drawing data, POI data, guide information, etc. in a required range are read into the RAM 13 according to the vehicle position, the position designated by the user, or the route information designated by the user.
Further, the navigation processing control function 21 determines the own vehicle position and the behavior of the own vehicle based on the position information from the position detection unit 4 and the detection information from the sensor unit 5.
The navigation processing control function 21 generates image data to be displayed on the display unit 8, for example, image data for a map image, a menu image, an icon image, various image images, and various guide images.
The navigation processing control function 21 performs voice output control such as route guidance voice.

顔特徴データ対応学習/設定機能22は、顔特徴データFDTで識別される個々のユーザーについてのユーザー情報を、自動的な学習処理もしくはユーザー操作に応じた設定処理によりユーザーデータベースに登録する機能である。
ユーザーデータベースは例えば図5のようなデータベースであり、例えばこのユーザーデータベースは不揮発性メモリ14内の記憶領域に格納される。
ユーザーデータベースは、図5のように、個々の顔特徴データFDT(FDT1,FDT2・・・)、つまりユーザー個人毎に、ユーザー情報を登録するデータベースである。この場合、ユーザー情報の例として目的地履歴情報、嗜好種別情報、音声ガイド選択情報を挙げている。
The face feature data correspondence learning / setting function 22 is a function for registering user information about each user identified by the face feature data FDT in the user database by automatic learning processing or setting processing according to user operation. .
The user database is a database as shown in FIG. 5, for example, and this user database is stored in a storage area in the nonvolatile memory 14, for example.
As shown in FIG. 5, the user database is a database for registering user information for each face feature data FDT (FDT1, FDT2,...), That is, for each individual user. In this case, destination history information, preference type information, and voice guide selection information are cited as examples of user information.

例えば顔特徴データFDT1が「ユーザーA」、顔特徴データFDT2が「ユーザーB」であるとする。
目的地履歴情報は、各ユーザーが設定した目的地情報を登録したものである。
例えばユーザーAがナビゲーション装置10を使用して目的地を選択した場合に、その目的地を示す目的地情報PP11、PP12・・・が顔特徴データFDT1に対応した目的地履歴情報として登録される。
またユーザーBがナビゲーション装置10を使用して目的地を選択した場合は、その目的地を示す目的地情報PP21、PP22・・・が顔特徴データFDT2に対応した目的地履歴情報として登録される。
For example, it is assumed that the face feature data FDT1 is “user A” and the face feature data FDT2 is “user B”.
The destination history information is obtained by registering destination information set by each user.
For example, when the user A selects a destination using the navigation device 10, destination information PP11, PP12,... Indicating the destination is registered as destination history information corresponding to the face feature data FDT1.
When the user B selects a destination using the navigation device 10, destination information PP21, PP22,... Indicating the destination is registered as destination history information corresponding to the face feature data FDT2.

嗜好種別情報は、ユーザーが興味を持っている分野やナビゲーション装置としてのガイドを欲する分野(嗜好種別)を示す情報である。これは、例えば「スポーツ」「ファッション」「ショッピング」「音楽」「グルメ」「レジャー」などの各分野や、これらをさらに再分類した分野(例えば「スポーツ」の下位として「野球」「サッカー」「テニス」・・・等)などを示す情報が嗜好種別情報である。この種別は、POIデータにおける分類に沿ったものとすればよい。
例えばユーザーAが興味を持っている分野が「スポーツ」「音楽」であるとすると、顔特徴データFDT1に対応して嗜好種別情報として「スポーツ」を示す値LJ1や「音楽」を示す値LJ2等が登録される。
またユーザーBが興味を持っている分野が「ファッション」「ショッピング」「グルメ」であるとすると、顔特徴データFDT2に対応して、嗜好種別情報として「ファッション」を示す値LJ3、「ショッピング」を示す値LJ4、「グルメ」を示す値LJ5等が登録される。
The preference type information is information indicating a field in which the user is interested and a field (preference type) in which a guide as a navigation device is desired. This includes, for example, “sports”, “fashion”, “shopping”, “music”, “gourmet”, “leisure”, and fields that are further reclassified (for example, “baseball”, “soccer”, “ Information indicating “tennis”, etc.) is the preference type information. This type may be in accordance with the classification in the POI data.
For example, if the field in which the user A is interested is “sports” and “music”, the value LJ1 indicating “sports” or the value LJ2 indicating “music” as preference type information corresponding to the face feature data FDT1 Is registered.
If the field in which user B is interested is “fashion”, “shopping”, and “gourmet”, the value LJ3 indicating “fashion” as “preference type information” corresponding to the face feature data FDT2, “shopping” is set. A value LJ4 indicating, a value LJ5 indicating “gourmet”, and the like are registered.

音声ガイド選択情報は、ユーザーが音声によるナビゲーションを出力させたいとして選択された内容を示す情報である。
上記ナビゲーション処理制御機能21によるナビゲーション動作として、音声による各種ガイド出力がおこなれるが、その音声の内容としては、例えば、右折、左折等を指示する「経路案内音声」、道路幅、車線数、カーブ、上り下りなどを案内する「道路情報音声」、「渋滞情報音声」、「有料道路の料金案内音声」、適切な進路や車線を案内する「推奨走行案内音声」、走行中にユーザーの注意を促す「注意音声」、さらにはナビゲーション装置10の操作方法の「操作ガイド音声」など、多様な種類がある。
これらの中で、各ユーザーが必要と考える音声ガイドが、音声ガイド選択情報として登録される。
例えばユーザーAが、音声ガイドは最小限必要なもののみが良いと選択した場合は、例えば「経路案内音声」を示す値AG1が顔特徴データFDT1に対応して登録される。
またユーザーBが、「経路案内音声」「渋滞情報音声」「操作ガイド音声」を必要と考えて選択した場合は、顔特徴データFDT2に対応して、これらを示す値AG1,AG2,AG3が登録される。
The voice guide selection information is information indicating the content selected by the user for outputting voice navigation.
As the navigation operation by the navigation processing control function 21, various guide outputs by voice are performed. The contents of the voice include, for example, “route guidance voice” instructing right turn, left turn, road width, number of lanes, curve, etc. , “Road information voice” to guide up and down, “Congestion information voice”, “Toll road toll guide voice”, “Recommended driving guidance voice” to guide the appropriate course and lane, etc. There are various types such as “attention voice” to be urged and “operation guide voice” of the operation method of the navigation device 10.
Among these, a voice guide that each user thinks is necessary is registered as voice guide selection information.
For example, when the user A selects that only the minimum necessary voice guidance is required, for example, a value AG1 indicating “route guidance voice” is registered corresponding to the face feature data FDT1.
Also, when the user B selects “route guidance voice”, “traffic congestion information voice”, and “operation guide voice” as necessary, values AG1, AG2, and AG3 indicating these are registered corresponding to the face feature data FDT2. Is done.

顔特徴データ対応学習/設定機能22によっては、このようなユーザーデータベースとして、顔特徴データFDTに対応したデータ群が生成される。   Depending on the facial feature data correspondence learning / setting function 22, a data group corresponding to the facial feature data FDT is generated as such a user database.

顔特徴データ対応制御機能23は、ナビゲーション動作としての地図画像表示や音声出力において、上記ユーザーデータベースに登録された内容に基づいた制御を行う機能である。即ち顔特徴データ対応制御機能23は、乗車しているユーザー(例えば運転者)を、顔特徴データFDTにより判別し、そのユーザーが顔特徴データFDT1のユーザーであれば、ユーザーデータベースにおいて顔特徴データFDT1に対応して登録されている内容に沿うように画像や音声の出力制御を行う。
例えばユーザーAが運転者である場合、顔特徴データFDT1に対応して登録されている嗜好種別情報LJ1、LJ2に該当する施設や店舗のアイコンや名称を地図画像上に表示させる。嗜好種別情報LJに対応する施設や店舗などの情報は、POIデータを検索することで得ることができる。また、顔特徴データFDT1に対応した目的地履歴情報として記憶されている各目的地を表示させる。また、音声ガイドについては、顔特徴データFDT1の音声ガイド選択情報として選択されている内容の音声のみを出力するように制御する。
一方、ユーザーBが運転者である場合、顔特徴データFDT2に対応して登録されている嗜好種別情報LJ3、LJ4、LJ5に該当する施設や店舗のアイコンや名称を地図画像上に表示させる。また、顔特徴データFDT2に対応した目的地履歴情報として記憶されている各目的地を表示させる。音声ガイドについては、顔特徴データFDT2の音声ガイド選択情報として選択されている内容の音声のみを出力するように制御する。
つまり顔特徴データ対応制御機能23は、ナビゲーション処理制御機能21が実行するナビゲーション処理において表示及び音声出力する内容を、ユーザー毎に切り換えるように制御するものである。
The face feature data correspondence control function 23 is a function that performs control based on the contents registered in the user database in map image display and voice output as navigation operations. That is, the face feature data correspondence control function 23 discriminates a user (for example, a driver) who is in the vehicle from the face feature data FDT, and if the user is a user of the face feature data FDT1, the face feature data FDT1 is stored in the user database. The output control of the image and the sound is performed so as to follow the contents registered corresponding to.
For example, when the user A is a driver, icons and names of facilities and stores corresponding to the preference type information LJ1 and LJ2 registered corresponding to the face feature data FDT1 are displayed on the map image. Information such as facilities and stores corresponding to the preference type information LJ can be obtained by searching the POI data. Further, each destination stored as destination history information corresponding to the face feature data FDT1 is displayed. The voice guide is controlled so that only the voice of the content selected as the voice guide selection information of the face feature data FDT1 is output.
On the other hand, when the user B is a driver, icons and names of facilities and stores corresponding to the preference type information LJ3, LJ4, and LJ5 registered corresponding to the face feature data FDT2 are displayed on the map image. Further, each destination stored as the destination history information corresponding to the face feature data FDT2 is displayed. The voice guide is controlled so as to output only the voice of the content selected as the voice guide selection information of the face feature data FDT2.
That is, the face feature data correspondence control function 23 controls to switch the contents to be displayed and output in the navigation process executed by the navigation process control function 21 for each user.

以上の構成のナビゲーション装置10の処理動作を説明していく。なお以下の動作例では、撮像部16は、運転席に座ったときの運転者の顔の位置を中心とした範囲を被写体方向とし、従って画像解析部17は、運転者の顔特徴データFDTを生成するものとして説明する。   The processing operation of the navigation device 10 having the above configuration will be described. In the following operation example, the imaging unit 16 sets the range around the position of the driver's face when sitting in the driver's seat as the subject direction, and thus the image analysis unit 17 uses the driver's face feature data FDT. It is assumed that it is generated.

図6は、ナビゲーション装置10が電源オンとされたときのCPU11の処理を示している。例えばユーザーが自動車のエンジンキーをアクセサリポジションとするか、もしくはエンジンをかけることで、ナビゲーション装置10が電源オンとされる。
電源オンとなったら、CPU11はステップF101として起動処理を行い、動作プログラムのロードや各部の起動制御を行う。
FIG. 6 shows processing of the CPU 11 when the navigation device 10 is turned on. For example, the navigation device 10 is turned on when the user sets the engine key of the automobile to the accessory position or starts the engine.
When the power is turned on, the CPU 11 performs activation processing as step F101, and loads the operation program and controls activation of each unit.

電源オン時の起動処理を完了したら、CPU11はステップF102で、撮像部16の撮像処理及び画像解析部17の顔特徴データFDTの生成処理を開始させ、画像解析部17からの顔特徴データFDTの取込を開始する。
なお、画像解析部17での顔特徴データFDTの生成及びCPU11の顔特徴データFDTの取込は、その顔特徴データFDTの生成に要する時間間隔で常時連続的に行っても良いし、或る程度の時間間隔で定期的に行うようにしても良い。また、通常、車のエンジンが起動されている状態で運転者が頻繁に代わることは無いことを考えれば、運転中に顔特徴データFDTを取り込んだ後は、停車、エンジン停止など、運転者が代わる可能性のあるタイミングをセンサ部5の情報から検出し、それに応じて顔特徴データFDTを新たに取り込むようにしてもよい。
When the power-on startup process is completed, the CPU 11 starts the imaging process of the imaging unit 16 and the generation process of the facial feature data FDT of the image analysis unit 17 in step F102, and the facial feature data FDT from the image analysis unit 17 is started. Start importing.
The generation of the facial feature data FDT in the image analysis unit 17 and the capture of the facial feature data FDT by the CPU 11 may be performed continuously at a time interval required for the generation of the facial feature data FDT, or You may make it perform regularly with the time interval of a grade. Also, considering that the driver does not frequently change when the car engine is activated, after the facial feature data FDT is captured during driving, the driver may stop the vehicle, stop the engine, etc. Timing that may be replaced may be detected from the information of the sensor unit 5, and the face feature data FDT may be newly fetched accordingly.

顔特徴データFDTを取り込んだら、CPU11はステップF103で、その顔特徴データFDTがユーザーデータベースに登録されているユーザーに相当するか否かを確認する。即ちユーザーデータベースを検索して、同一(或いは或る程度の許容範囲内で類似)の顔特徴データFDTが存在するか否かを確認する。
ユーザーデータベースの登録については図8,図9で後述する処理などで行われるが、CPU11が、過去にユーザーの操作に応じた登録処理や学習による登録処理が行われていれば、ユーザーデータベースには1又は複数の顔特徴データFDTに対して図5のような内容のユーザー情報が記憶されている。
After fetching the face feature data FDT, the CPU 11 checks in step F103 whether the face feature data FDT corresponds to a user registered in the user database. That is, the user database is searched to check whether the same (or similar within a certain allowable range) face feature data FDT exists.
Registration of the user database is performed by the processing described later with reference to FIGS. 8 and 9, but if the CPU 11 has performed registration processing or learning registration processing according to user operations in the past, User information having contents as shown in FIG. 5 is stored for one or a plurality of face feature data FDT.

もし、今回取り込まれた顔特徴データFDTが、ユーザーデータベースに登録されていない顔特徴データFDTであったら、CPU11は処理をステップF106に進め、通常のナビゲーション動作の設定を行い、ステップF107のナビゲーション処理にうつる。通常のナビゲーション動作の設定とは、ナビゲーション処理において表示出力する内容や、出力する音声ガイドの内容として、例えば装置内でデフォルトで決められている設定である。
ステップF107でのナビゲーション処理では、上述したナビゲーション処理制御機能21の制御に基づいて、ディスクドライブ装置部6からのナビゲーション情報の読み込み、位置検出部4からの現在位置情報の取得、センサ部5の検出情報の取得、通信部18を介した通信、操作入力部2からの操作の検知を行うと共に、これらに基づいて、ユーザーに対して表示部8で地図画像等を表示させたり、スピーカ部9からのガイド音声の出力を実行させる。
If the facial feature data FDT captured this time is facial feature data FDT that is not registered in the user database, the CPU 11 advances the process to step F106, sets a normal navigation operation, and performs the navigation process of step F107. To move on. The normal navigation operation setting is, for example, a setting determined by default in the apparatus as the content to be displayed and output in the navigation process and the content of the voice guide to be output.
In the navigation processing at step F107, based on the control of the navigation processing control function 21 described above, the navigation information is read from the disk drive device section 6, the current position information is acquired from the position detection section 4, and the sensor section 5 is detected. Acquiring information, communicating via the communication unit 18, and detecting an operation from the operation input unit 2, and based on these, display a map image or the like on the display unit 8 to the user, or from the speaker unit 9 The guide voice is output.

一方、ステップF103で、今回の顔特徴データFDT(つまり運転者)が、ユーザーデータベースに登録された顔特徴データFDTであると判別された場合は、CPU11は処理をステップF104、F105として顔特徴データ対応制御機能23による処理を行う。まずステップF104では、ユーザーデータベースからユーザー情報を読み出す。例えば取り込まれた顔特徴データFDTが「FDT1」であったとしたら、図5のユーザーデータベースにおいて顔特徴データ「FDT1」に対して登録されている目的地履歴情報、嗜好種別情報、音声ガイド選択情報を読み出すことになる。
そしてCPU11はステップF105で、読み出したユーザー情報に基づいて、ナビゲーション動作の設定を行う。これは、顔特徴データ対応制御機能23が、ナビゲーション処理制御機能21によって実行されるナビゲーション動作処理において、特にユーザー情報に基づいた表示処理や音声ガイドの出力処理が行われるように指示する処理であり、表示出力や音声ガイド出力に関する動作設定を通常の設定ではなく現在の運転者であるユーザー個人に対応した設定とする処理である。
続いてステップF107でのナビゲーション処理として、上述したようにナビゲーション処理制御機能21の制御に基づいてナビゲーション動作が行われるものとなるが、この場合は、ユーザー個人に対応した設定状態で、表示出力や音声ガイド出力が行われることになる。
On the other hand, when it is determined in step F103 that the current facial feature data FDT (that is, the driver) is the facial feature data FDT registered in the user database, the CPU 11 performs processing in steps F104 and F105 as facial feature data. Processing by the correspondence control function 23 is performed. First, in step F104, user information is read from the user database. For example, if the captured face feature data FDT is “FDT1”, destination history information, preference type information, and voice guide selection information registered for the face feature data “FDT1” in the user database of FIG. Will be read.
In step F105, the CPU 11 sets a navigation operation based on the read user information. This is a process in which the facial feature data correspondence control function 23 instructs that the display process or the voice guide output process based on the user information be performed in the navigation operation process executed by the navigation process control function 21. In this process, the operation setting related to the display output and the voice guide output is set not to the normal setting but to the setting corresponding to the individual user who is the current driver.
Subsequently, as the navigation processing in step F107, the navigation operation is performed based on the control of the navigation processing control function 21 as described above. In this case, the display output and the setting state corresponding to the individual user are performed. Voice guidance output is performed.

なお、ステップF102で顔特徴データFDTの取込が開始された以降は、ステップF107のナビゲーション動作中も、例えば定期的、或いは運転者の変更の可能性がある場合などに、CPU11は逐次顔特徴データFDTを取り込んでおり、取り込まれる顔特徴データFDTが変化したか否か(つまり運転者が代わったか否か)を確認している。
顔特徴データFDTの変化が検知されなければ、ステップF107のナビゲーション処理が、それまでの設定状態で継続されるが、もし顔特徴データFDTの変化を検知したら、ステップF108からF103に戻って、上述した処理を行う。
従って、もし運転者が代わると、ステップF105もしくはF106で再度ナビゲーション動作設定が行われ、その後のステップF107のナビゲーション動作の設定が変更されることになる。
In addition, after the start of the capture of the facial feature data FDT in step F102, the CPU 11 sequentially detects the facial feature even during the navigation operation in step F107, for example, when there is a possibility that the driver may change regularly. Data FDT is captured, and it is confirmed whether or not the captured facial feature data FDT has changed (that is, whether or not the driver has changed).
If no change in the face feature data FDT is detected, the navigation processing in step F107 is continued in the set state up to that point. However, if a change in the face feature data FDT is detected, the process returns from step F108 to F103, and is described above. Perform the process.
Therefore, if the driver is replaced, the navigation operation setting is performed again in step F105 or F106, and the subsequent navigation operation setting in step F107 is changed.

この図9の処理からわかるように、ステップF107のナビゲーション処理では、運転者に応じて動作設定、つまり表示内容と音声ガイド出力内容が切り換えられる。このようなユーザー個人に対応した動作設定による出力例を示す。
例えば図7(a)(b)は、表示部8に表示する地図画像の例である。例えば自車位置31を略中心とした地図画像30が表示され、また地図画像30上では、目的地32(或いは経由地)が表示されている。また図では表現していないが、目的地32までの経路が異なる色などで表示される。
ここで図7(a)は、運転者がユーザーA(顔特徴データFDT1)の場合の表示例、図7(b)は、運転者がユーザーB(顔特徴データFDT2)の場合の表示例としている。
As can be seen from the process of FIG. 9, in the navigation process of step F107, the operation setting, that is, the display content and the voice guide output content are switched according to the driver. An output example based on such an operation setting corresponding to an individual user is shown.
For example, FIGS. 7A and 7B are examples of map images displayed on the display unit 8. For example, a map image 30 centered on the vehicle position 31 is displayed, and a destination 32 (or waypoint) is displayed on the map image 30. Although not shown in the figure, the route to the destination 32 is displayed in a different color or the like.
Here, FIG. 7A shows a display example when the driver is the user A (face feature data FDT1), and FIG. 7B shows a display example when the driver is the user B (face feature data FDT2). Yes.

図7(a)(b)では、いずれも基本的な地図画像30は同じであるが、図7(a)の場合、ユーザーデータベースに顔特徴データFDT1に対応して登録されている嗜好種別情報及び目的地履歴情報が反映された表示となる。
即ちユーザーAが、「スポーツ」や「音楽」を嗜好することが嗜好種別情報として示されているとすると、図7(a)のように、嗜好種別情報に応じた画像33が表示される。例えばCPU11は、POIデータを参照して、現在の表示中の地図範囲内で「スポーツ」や「音楽」に関連する店舗や施設を検出し、その店舗等を提示する画像33として表示させるようにすることで、画像33としてスポーツショップや音楽ショップ等が明示される。
またユーザーAが過去に目的地として目的地履歴情報に登録されている地点が、現在の表示中の地図範囲内に存在すれば、過去の目的地を提示する画像34を表示させる。
このような表示が行われることで、ユーザーAが、現在位置の近くに自分の興味のある店舗や施設が存在することや、過去に訪れた場所などを認識でき、ユーザーAにとって有用な地図表示となる。
7 (a) and 7 (b), the basic map image 30 is the same, but in the case of FIG. 7 (a), preference type information registered in the user database corresponding to the face feature data FDT1. The destination history information is reflected.
That is, if the preference type information indicates that the user A likes “sports” or “music”, an image 33 corresponding to the preference type information is displayed as shown in FIG. For example, the CPU 11 refers to the POI data, detects stores and facilities related to “sports” and “music” within the currently displayed map range, and displays them as an image 33 for presenting the stores and the like. By doing so, a sport shop, a music shop, etc. are clearly shown as the image 33.
Further, if a point registered in the destination history information as a destination in the past by the user A exists in the currently displayed map range, an image 34 presenting the past destination is displayed.
By performing such a display, the user A can recognize that there are shops and facilities that he / she is interested in near the current position, a place visited in the past, and the like, and a useful map display for the user A It becomes.

一方、ユーザーBが運転者であるときは、図7(b)のような表示となる。
即ちユーザーBが、「ファッション」や「ショッピング」等を嗜好することが嗜好種別情報として示されているとすると、図7(b)のように、嗜好種別情報に応じた画像33が表示される。例えばCPU11は、POIデータを参照して、現在の表示中の地図範囲内で「ファッション」や「ショッピング」に関連する店舗や施設を検出し、その店舗等を提示する画像33として表示させるようにすることで、画像33としてファッション関係の店舗等が明示される。
またユーザーBが過去に目的地として目的地履歴情報に登録されている地点が、現在の表示中の地図範囲内に存在すれば、過去の目的地を提示する画像34を表示させる。
このような表示が行われることで、ユーザーBが、現在位置の近くに自分の興味のある店舗や施設が存在することや、過去に訪れた場所などを認識でき、ユーザーBにとって有用な地図表示となる。
On the other hand, when the user B is a driver, the display is as shown in FIG.
That is, if the preference type information indicates that the user B likes “fashion”, “shopping”, etc., an image 33 corresponding to the preference type information is displayed as shown in FIG. 7B. . For example, the CPU 11 refers to the POI data, detects stores and facilities related to “fashion” and “shopping” within the currently displayed map range, and displays them as an image 33 for presenting the stores and the like. By doing so, a fashion-related store or the like is clearly shown as the image 33.
Further, if a point where the user B has been registered in the destination history information as a destination in the past is within the currently displayed map range, an image 34 presenting the past destination is displayed.
By performing such display, the user B can recognize that there is a store or facility in which he / she is interested in near the current position, a place visited in the past, and the like, and a map display useful for the user B It becomes.

例えばこのように、ステップF107でのナビゲーション処理の際には、CPU11は顔特徴データFDTによって判別したユーザーの嗜好や履歴に応じた地図表示、即ちユーザーデータベース登録された嗜好種別情報に該当する店舗、施設等の表示や、目的地履歴情報による過去の目的地の表示を行うことで、ユーザー個人にあわせて有効なナビゲーション表示を行うことができる。   For example, in the navigation process in step F107 as described above, the CPU 11 displays a map corresponding to the user's preference and history determined by the face feature data FDT, that is, a store corresponding to the preference type information registered in the user database, By displaying facilities and the like and past destinations by destination history information, it is possible to perform effective navigation display according to the individual user.

またスピーカ部9から出力させる音声ガイドの内容も、CPU11はユーザーデータベースの登録内容に応じて制御する。
CPU11はステップF107において、音声ガイド情報として、経路案内音声、道路情報音声、渋滞情報音声、有料道路の料金案内音声、推奨走行案内音声、注意音声、操作ガイド音声など、多様な種類の音声を所要のタイミングで出力させる。
即ちCPU11は、右折・左折・直進などを告知する経路案内音声については、現在位置情報、目的地までの経路探索結果、地図データに基づいて、例えば交差点に接近したタイミングなどでスピーカ部9から出力させる。
またCPU11は道路情報音声、料金案内音声、推奨走行案内音声、注意音声などを、地図データに付加された情報や、現在位置に応じた所要のタイミングで出力させる。
またCPU11は、通信部18を介して受信した渋滞情報の音声を、所要のタイミングで出力させる。
またCPU11は、ユーザーは操作入力部2で操作を行うための操作ガイド音声を、操作の必要性や表示中の内容などに応じた所要のタイミングで出力させる。
Further, the content of the voice guide output from the speaker unit 9 is also controlled by the CPU 11 according to the registered content of the user database.
In step F107, the CPU 11 requires various types of voice such as route guidance voice, road information voice, traffic jam information voice, toll road toll guidance voice, recommended driving guidance voice, caution voice, and operation guide voice as voice guide information. Output at the timing.
That is, the CPU 11 outputs the route guidance voice for notifying the right turn / left turn / straight ahead from the speaker unit 9 based on the current position information, the route search result to the destination, the map data, for example, when approaching the intersection, etc. Let
Further, the CPU 11 outputs road information voice, toll guidance voice, recommended travel guidance voice, caution voice, etc. at a required timing according to the information added to the map data and the current position.
Further, the CPU 11 outputs the sound of the traffic jam information received via the communication unit 18 at a required timing.
In addition, the CPU 11 outputs an operation guide voice for the user to perform an operation with the operation input unit 2 at a required timing according to the necessity of the operation, the content being displayed, and the like.

例えばステップF106による通常の設定では、これらの各内容のガイド音声を全て出力させるように設定されているとする。
一方、ステップF105でユーザー個人に応じた設定がされる場合とは、ユーザーデータベースにおいて音声ガイド選択情報として登録されている音声のみを出力させる。
即ちユーザーAについて、顔特徴データFDT1に対応した音声ガイド選択情報として、経路案内音声のみが登録されている場合、ユーザーAが運転者であるときは、ステップF105の設定で経路案内音声のみが出力されるように設定されることになり、ステップF107のナビゲーション処理中には、音声ガイド情報としては経路案内音声のみが出力される。
またユーザーBについて、顔特徴データFDT2に対応した音声ガイド選択情報として、経路案内音声、渋滞情報音声、操作ガイド音声が登録されている場合、ユーザーBが運転者であるときは、ステップF105の設定で経路案内音声、渋滞情報音声、操作ガイド音声が出力されるように設定されることになり、ステップF107のナビゲーション処理中には、音声ガイド情報としては経路案内音声、渋滞情報音声、操作ガイド音声のみが出力される。
For example, in the normal setting in step F106, it is assumed that the setting is made so as to output all the guide voices of these contents.
On the other hand, in the case where the setting according to the individual user is made in step F105, only the voice registered as the voice guide selection information in the user database is output.
That is, for the user A, when only the route guidance voice is registered as the voice guide selection information corresponding to the facial feature data FDT1, when the user A is the driver, only the route guidance voice is output in the setting of step F105. During the navigation process of step F107, only route guidance voice is output as voice guide information.
For user B, when route guidance voice, traffic jam information voice, and operation guide voice are registered as voice guide selection information corresponding to face feature data FDT2, if user B is a driver, the setting of step F105 is performed. The route guidance voice, the traffic jam information voice, and the operation guide voice are set to be output in step F107. During the navigation process in step F107, the voice guide information includes the route guidance voice, the traffic jam information voice, and the operation guide voice. Is output only.

例えばこのように、ステップF107でのナビゲーション処理の際には、CPU11は顔特徴データFDTによって判別したユーザーについての音声ガイド選択情報に応じたガイド音声出力を行うことで、ユーザー個人にあわせて好適な音声ガイドを行うことができる。   For example, during the navigation processing in step F107 as described above, the CPU 11 performs guide voice output according to the voice guide selection information for the user determined by the face feature data FDT, which is suitable for the individual user. Voice guidance can be performed.

ところで、以上の説明では、ユーザーデータベースにユーザー個人に対応したユーザー情報が登録されていることを前提に述べた。以下では、ユーザーデータベースへのユーザー情報の登録処理について説明する。
ユーザーデータベースへのユーザー情報の登録は、ユーザーの登録操作に基づいて行われたり、学習動作によって自動的に行われる。
By the way, the above explanation is based on the assumption that user information corresponding to individual users is registered in the user database. Hereinafter, a process for registering user information in the user database will be described.
Registration of user information in the user database is performed based on a user registration operation or automatically by a learning operation.

図8は、ユーザーが登録操作を行う場合のCPU11の処理を示している。なお、この図8の処理は、図6のステップF107のナビゲーション処理中に、ユーザーが操作入力部2を用いて登録モード操作を行った場合に開始されればよい。CPU11、顔特徴データ対応学習/設定機能22による処理として図8の処理を行う。   FIG. 8 shows processing of the CPU 11 when the user performs a registration operation. The process in FIG. 8 may be started when the user performs a registration mode operation using the operation input unit 2 during the navigation process in step F107 in FIG. The processing of FIG. 8 is performed as processing by the CPU 11 and the facial feature data correspondence learning / setting function 22.

CPU11は、ユーザーが操作入力部2を用いて登録モード操作を行ったことを検知したら、処理を図8のステップF201からF202に進める。
ステップF202では、CPU11は、その時点で取り込まれている顔特徴データFDTについて、ユーザーデータベースに登録されている顔特徴データFDTであるか否かを確認する。なお、顔特徴データFDTの取込が或る程度の時間行われていなければ、この時点で新たに顔特徴データFDTを取り込んで、その顔特徴データFDTがユーザーデータベースに登録されているものでであるか否かを判断しても良い。
When the CPU 11 detects that the user has performed the registration mode operation using the operation input unit 2, the process proceeds from step F201 to F202 in FIG.
In step F202, the CPU 11 checks whether or not the facial feature data FDT captured at that time is the facial feature data FDT registered in the user database. If the facial feature data FDT has not been taken in for a certain period of time, the facial feature data FDT is newly fetched at this point, and the facial feature data FDT is registered in the user database. It may be determined whether or not there is.

現在の顔特徴データFDT(即ち現在の運転者)が、ユーザーデータベースに登録されていない顔特徴データFDTであれば、ステップF203からF204に進み、現在の顔特徴データFDTを新規の顔特徴データとして新たにユーザーデータベースに登録してからステップF205に進む。
現在の顔特徴データFDTが既に登録されている顔特徴データであったら、ステップF203からそのままF205に進む。
If the current face feature data FDT (that is, the current driver) is face feature data FDT not registered in the user database, the process proceeds from step F203 to F204, and the current face feature data FDT is set as new face feature data. After newly registering in the user database, the process proceeds to step F205.
If the current face feature data FDT is already registered face feature data, the process proceeds from step F203 to F205 as it is.

CPU11はステップF205では、表示部8に登録用の画面を表示する。
登録用画面は、例えばメニュー形式で、ユーザーの趣味・嗜好や、音声ガイドの内容を選択させるような画面とし、ユーザーがその画面表示を見ながら選択操作することで、趣味・嗜好や、望む音声ガイドの内容を入力できるようにする。
例えば嗜好種別の選択画面として、メニュー形式で「スポーツ」「ファッション」「ショッピング」「音楽」「グルメ」「レジャー」などの各分野の項目を表示させ、これらのうちからユーザーが選択できるようにする。もちろん、階層的にメニュー画面が進んで、これらの下位の分類も選択できるようにしてもよい。
また、ガイド音声の内容の選択画面として、メニュー形式で「経路案内音声」「道路情報音声」「渋滞情報音声」「有料道路の料金案内音声」「推奨走行案内音声」「注意音声」「操作ガイド音声」などの項目を表示させ、ユーザーが出力させ音声内容を選択できるようにする。
In step F205, the CPU 11 displays a registration screen on the display unit 8.
The registration screen is, for example, a menu format that allows the user to select the user's hobbies / preferences and the content of the voice guide. The user can select and operate the hobbies / preferences and desired audio while viewing the screen display. Make it possible to enter the contents of the guide.
For example, as a selection screen for preference types, items in each field such as “sports”, “fashion”, “shopping”, “music”, “gourmet”, and “leisure” are displayed in a menu format so that the user can select from these items. . Of course, the menu screen may be hierarchically advanced so that these lower classifications can be selected.
In addition, as a selection screen for the content of the guide voice, “route guidance voice”, “road information voice”, “congestion information voice”, “toll road voice guidance voice”, “recommended driving guidance voice”, “caution voice”, “operation guide” Items such as “speech” are displayed, and the user can output and select the sound content.

CPU11は、このような登録用の画面表示を行い、またユーザー操作に応じてメニュー画面を切り換えさせながらユーザーの選択決定操作を待機する。ユーザーが項目を選択決定する操作を行ったら、ステップF206からF207に進んで、選択された項目を記憶する。これを登録終了操作がおこなわれるまで繰り返す。
ユーザーが、例えばメニュー画面や操作案内の表示に従って、嗜好種別やガイド音声を選択する操作を行っていくことで、各選択結果がCPU11に記憶される。
ユーザーが一連の登録のための選択操作を完了するとして登録終了操作を行ったら、CPU11はステップF208からF209に進み、顔特徴データFDTに対応させて、選択された内容をユーザーデータベースに登録する。即ちユーザーの選択操作に応じて、そのユーザーの顔特徴データFDTに対応された状態で、嗜好種別情報、音声ガイド選択情報がユーザーデータベースに登録されることになる。
The CPU 11 displays such a registration screen, and waits for a user's selection decision operation while switching the menu screen according to the user operation. When the user performs an operation of selecting and determining an item, the process proceeds from step F206 to F207 to store the selected item. This is repeated until the registration end operation is performed.
Each selection result is memorize | stored in CPU11 because a user performs operation which selects a preference classification and a guide audio | voice according to the display of a menu screen or operation guidance, for example.
When the user completes the selection operation for registration and performs the registration end operation, the CPU 11 proceeds from step F208 to F209, and registers the selected content in the user database in correspondence with the face feature data FDT. That is, according to the user's selection operation, the preference type information and the voice guide selection information are registered in the user database in a state corresponding to the user's face feature data FDT.

なお、この処理では新規なユーザーは無条件で登録される(ステップF203→F204)としたが、新規なユーザーの顔特徴データFDTを登録する際には、例えば車のオーナー等が予め設定したパスワード等の入力を要求するようにし、乗車した人物がむやみに登録されないようにしてもよい。   In this process, a new user is registered unconditionally (steps F203 → F204). However, when registering the new user's face feature data FDT, for example, a password set in advance by the car owner or the like May be requested so that the person who gets on the vehicle is not registered unnecessarily.

図9は、CPU11がユーザーデータベースに目的地履歴情報を登録すると共に、学習動作により嗜好種別情報を登録する処理例を示している。
図9の処理も、図6のステップF107のナビゲーション処理中に行われるもので、この場合、ユーザーが操作入力部2を用いて目的地指定操作を行った場合の処理としている。
一般に車載用ナビゲーション装置では、ユーザーが目的地を設定することに応じて好適な経路を算出し、表示部において地図画像上で経路を表示するナビゲーション動作が行われる。
このナビゲーション動作のためには、まずユーザーが目的地を入力することが必要であるが、この目的地の入力のためには様々な方式があり、例えば目的地の住所や地名等を入力する方式や、地図上で位置を指定する方式、さらには目的地を検索して選択する方式などがある。
ユーザーが目的地指定を行おうとする場合、CPU11は、まずユーザーに出発地、目的地、経由地等、経路探索のために必要な情報の入力を求める表示を表示部8で実行させる。ユーザーは表示部8でのメニュー表示、ガイド表示、地図表示等に従って、操作入力部2を用いて目的地等を入力する。CPU11は、ユーザーの入力に従って、出発地、経由地、目的地等を設定する。
このような目的地指定操作が行われたら、CPU11は処理をステップF302に進め、目的地(経由地)に対する経路探索計算を行う。即ち出発地から目的地までの最適ルート、場合によっては経由地を介した最適経路を探索する。そして探索結果を目的地までの経路情報として決定する。
ここで決定された経路情報が、以降のナビゲーション処理での表示や音声ガイドに反映される。
FIG. 9 shows a processing example in which the CPU 11 registers the destination history information in the user database and registers the preference type information by the learning operation.
The process in FIG. 9 is also performed during the navigation process in step F107 in FIG. 6. In this case, the process is performed when the user performs a destination designation operation using the operation input unit 2.
In general, in an in-vehicle navigation device, a suitable route is calculated according to a user setting a destination, and a navigation operation for displaying the route on a map image is performed on a display unit.
For this navigation operation, it is first necessary for the user to input a destination, but there are various methods for inputting the destination. For example, a method for inputting an address or a place name of the destination. And a method for specifying a position on a map, and a method for searching and selecting a destination.
When the user intends to specify a destination, the CPU 11 first causes the display unit 8 to execute a display requesting the user to input information necessary for route search such as a departure point, a destination, and a waypoint. The user inputs a destination or the like using the operation input unit 2 in accordance with menu display, guide display, map display, or the like on the display unit 8. The CPU 11 sets a departure place, a waypoint, a destination, and the like according to a user input.
If such a destination designation operation is performed, the CPU 11 advances the process to step F302, and performs route search calculation for the destination (route point). That is, the optimum route from the starting point to the destination, and in some cases, the optimum route via the waypoint is searched. Then, the search result is determined as route information to the destination.
The route information determined here is reflected in the display and voice guidance in the subsequent navigation processing.

CPU11では、ナビゲーション処理制御機能21による通常のナビゲーション処理制御としてステップF302までが行われるが、本例の場合、CPU11の顔特徴データ対応学習/設定機能22による処理として、ステップF303以降が行われる。
ステップF303では、CPU11は、その時点で取り込まれている顔特徴データFDTについて、ユーザーデータベースに登録されている顔特徴データFDTであるか否かを確認する。なお、顔特徴データFDTの取込が或る程度の時間行われていなければ、この時点で新たに顔特徴データFDTを取り込んで、その顔特徴データFDTがユーザーデータベースに登録されているものでであるか否かを判断しても良い。
In the CPU 11, up to step F302 is performed as normal navigation processing control by the navigation processing control function 21, but in the case of this example, step F303 and subsequent steps are performed as processing by the facial feature data correspondence learning / setting function 22 of the CPU 11.
In step F303, the CPU 11 checks whether or not the facial feature data FDT captured at that time is the facial feature data FDT registered in the user database. If the facial feature data FDT has not been taken in for a certain period of time, the facial feature data FDT is newly fetched at this point, and the facial feature data FDT is registered in the user database. It may be determined whether or not there is.

現在の顔特徴データFDT(即ち現在の運転者)が、ユーザーデータベースに登録されていない顔特徴データFDTであれば、ステップF304からF305に進み、現在の顔特徴データFDTを新規の顔特徴データとして新たにユーザーデータベースに登録してからステップF306に進む。
現在の顔特徴データFDTが既に登録されている顔特徴データであったら、ステップF304からそのままF306に進む。
If the current face feature data FDT (that is, the current driver) is face feature data FDT not registered in the user database, the process proceeds from step F304 to F305, and the current face feature data FDT is set as new face feature data. After newly registering in the user database, the process proceeds to step F306.
If the current face feature data FDT is already registered face feature data, the process proceeds from step F304 to F306 as it is.

ステップF306では、今回設定された目的地の情報を、ユーザーデータベースに登録する。即ち、この時点で取得されている顔特徴データFDTに対応させて、目的地情報をユーザーデータベースの目的地履歴情報として追加登録する。
この処理により、ユーザーがナビゲーション装置10において目的地指定を行う毎に、ユーザーデータベースには、そのユーザーに対応して、今回の目的地が目的地履歴情報として登録されることになる。
In step F306, the destination information set this time is registered in the user database. That is, destination information is additionally registered as destination history information in the user database in association with the face feature data FDT acquired at this time.
With this process, every time a user designates a destination in the navigation apparatus 10, the current destination is registered in the user database as destination history information corresponding to the user.

またステップF307では、登録されている目的地履歴情報から、嗜好種別の判定処理を行う。即ち今回目的地履歴情報に追加された目的地を含んで、この時点で目的地履歴情報に登録されている各目的地の種別を判別し、ユーザーの嗜好を推定する学習処理を行う。
例えば履歴登録されている各目的地について、POIデータを参照し、分類が判定できる目的地を抽出する。そして抽出された各目的地の分類、例えばスポーツ関係、ショッピング関係などの分類を集計し、そのユーザーが目的地とする機会の多い分類を判定する。例えば所定回数以上目的地とされた分類を判定するなどの処理を行なって、ユーザーの嗜好種別を推定する。
In step F307, a preference type determination process is performed from the registered destination history information. That is, a learning process is performed in which the destination added to the destination history information this time is included, the type of each destination registered in the destination history information at this time is determined, and the user's preference is estimated.
For example, for each destination registered in the history, the destination where classification can be determined is extracted with reference to the POI data. Then, the extracted classifications of each destination, for example, classifications such as sports relations and shopping relations, are totaled, and the classification that the user has many opportunities as the destinations is determined. For example, the user's preference type is estimated by performing a process such as determining a classification that is a destination more than a predetermined number of times.

例えば目的地履歴情報に登録された目的地が少数であったり、多様な分野に分散しすぎているなどで、ステップF307で或る嗜好種別を判定できなかった場合は、ステップF308で判定不能として処理を終える。
一方、目的地履歴情報に登録された目的地の分類の傾向から、ユーザーの嗜好種別が推定できた場合は、ステップF309に進む。ステップF309では、その嗜好種別が、当該ユーザー(顔特徴データFDT)に対応した嗜好種別情報として、既にユーザーデータベースに登録されているか否かを判断し、登録されていれば、処理を終える。登録されていなければステップF310に進み、CPU11は今回判定した嗜好種別を、当該ユーザー(顔特徴データFDT)に対応した新たな嗜好種別としてユーザーデータベースの嗜好種別情報に登録して処理を終える。
For example, if a certain preference type cannot be determined in Step F307 because there are a small number of destinations registered in the destination history information or the destination is too dispersed in various fields, it is determined that the determination cannot be made in Step F308. Finish the process.
On the other hand, if the user's preference type can be estimated from the classification tendency of the destination registered in the destination history information, the process proceeds to step F309. In step F309, it is determined whether or not the preference type is already registered in the user database as the preference type information corresponding to the user (face feature data FDT). If not registered, the process proceeds to step F310, and the CPU 11 registers the currently determined preference type in the preference type information of the user database as a new preference type corresponding to the user (face feature data FDT), and ends the process.

例えばこの図9の処理により、ユーザーの目的地指定に応じてユーザーデータベースに目的地履歴情報が追加登録され、また目的地履歴情報から推定される、ユーザー嗜好種別が嗜好種別情報として登録されることになる。
そして、図8,図9のような処理でユーザー情報がユーザーデータベースに登録されることで、上記図6の処理において述べたように、ユーザー個人の目的地履歴、嗜好種別情報、音声ガイド選択情報に応じたナビゲーション処理が実行されるものとなる。
For example, according to the processing of FIG. 9, destination history information is additionally registered in the user database in accordance with the user's destination designation, and the user preference type estimated from the destination history information is registered as preference type information. become.
Then, by registering the user information in the user database through the processes shown in FIGS. 8 and 9, as described in the process of FIG. 6 above, the user's personal destination history, preference type information, voice guide selection information The navigation process corresponding to is executed.

[2.第2の実施の形態:オーディオ再生装置]

続いて第2の実施の形態を説明する。第2の実施の形態は、車載用のオーディオ再生装置の例である。
図10はオーディオ再生装置100の構成を示している。このオーディオ再生装置100は、図12のように自動車のフロントコンソールなどに取り付けられる車載用のオーディオ再生装置であって、例えばCD(Compact Disc)やミニディスクなどのオーディオディスクの再生機能やラジオチューナ機能などを備え、自動車内に配置されたスピーカから音楽等の再生音声を出力させる装置である。
[2. Second Embodiment: Audio Playback Device]

Next, a second embodiment will be described. The second embodiment is an example of an on-vehicle audio playback device.
FIG. 10 shows the configuration of the audio playback device 100. The audio playback apparatus 100 is an in-vehicle audio playback apparatus attached to a front console of an automobile as shown in FIG. 12, for example, a playback function or a radio tuner function of an audio disc such as a CD (Compact Disc) or a minidisc. Etc., and a device for outputting reproduced sound such as music from a speaker disposed in the automobile.

図10のオーディオ再生装置100において、CPU110は、動作プログラムや操作入力に応じて、オーディオ再生のために各部を制御する。
メモリ部111は、CPU110において実行されるプログラムコードを格納したり、実行中の作業データを一時保管するために使用される。この図の場合、メモリ部111としては、揮発メモリ、不揮発性メモリの双方を含むものとして示している。例えばプログラムを格納するROM、演算ワーク領域や各種一時記憶のためのRAM、EEP−ROM(Electrically Erasable and Programmable Read Only Memory)等の不揮発性メモリを含む。
またメモリ部111としての不揮発性メモリには、ユーザー個人に対応したユーザー情報を登録するユーザーデータベースが格納される。
In the audio reproduction device 100 of FIG. 10, the CPU 110 controls each unit for audio reproduction in accordance with an operation program and operation input.
The memory unit 111 is used for storing program codes executed by the CPU 110 and temporarily storing work data being executed. In the case of this figure, the memory unit 111 is shown as including both a volatile memory and a nonvolatile memory. For example, it includes a non-volatile memory such as a ROM for storing a program, a RAM for a calculation work area and various temporary storages, and an EEP-ROM (Electrically Erasable and Programmable Read Only Memory).
The nonvolatile memory as the memory unit 111 stores a user database for registering user information corresponding to individual users.

操作部112は、オーディオ再生装置100のフロントパネルに配置される各種操作キーやダイヤル等の操作子を備える。ユーザーは操作部112により、例えばオーディオモード(ソース切換)操作、ボリューム(音量)操作、音質操作、ディスク再生操作、早送り/早戻し操作、頭出し操作、ラジオ放送等の選局操作が可能とされる。
表示部113は、例えば液晶パネルによる表示部とされ、図12に示したように、オーディオ再生装置100のフロントパネルに設けられる。この表示部113では、CPU110の制御に基づいて、オーディオモード表示、再生や早送りなどの動作を示す表示、スペクトルアナライザ表示、音量レベル表示、再生している曲等のトラックナンバや受信している放送局の表示などが行われる。
The operation unit 112 includes various operation keys and operators such as a dial disposed on the front panel of the audio playback device 100. The user can perform channel selection operations such as an audio mode (source switching) operation, volume (volume) operation, sound quality operation, disc playback operation, fast forward / fast reverse operation, cueing operation, radio broadcasting, and the like by the operation unit 112. The
The display unit 113 is, for example, a display unit using a liquid crystal panel, and is provided on the front panel of the audio playback device 100 as shown in FIG. In this display unit 113, based on the control of the CPU 110, an audio mode display, a display indicating operations such as playback and fast-forwarding, a spectrum analyzer display, a volume level display, a track number of a song being played back, and a received broadcast The station is displayed.

再生出力するオーディオ信号のソースとして、ディスク再生部115、チューナ部116、外部入力部117を示している。セレクタ118はこれらオーディオ信号のソースを選択する回路である。
なお、オーディオ信号のソースとして、これ以外に楽曲等を記憶させたHDD(Hard Disc Drive)や、メモリカードからオーディオ信号を再生するメモリカードリーダなどが設けられても良い。
As a source of audio signals to be reproduced and output, a disk reproducing unit 115, a tuner unit 116, and an external input unit 117 are shown. The selector 118 is a circuit that selects the source of these audio signals.
In addition, as a source of the audio signal, an HDD (Hard Disc Drive) in which music or the like is stored, a memory card reader for reproducing the audio signal from the memory card, or the like may be provided.

ディスク再生部115は、例えばCD(Compact Disc)/DVD(Digital Versatile Disc)等の光ディスクに対する再生装置部、もしくはミニディスク等の光ディスク/光磁気ディスクに対する再生装置部とされる。
ユーザーが操作部112からディスク再生に関する操作を行うことで、CPU110はディスク再生部115に再生動作を開始させたり、操作に応じた動作(頭出しサーチ等)を実行させる。ディスク再生部115で再生が行われるときはCPU110はセレクタ118がディスク再生部115を選択するように制御する。そしてディスク再生部115でディスクから再生されたオーディオ信号は、デジタルデータのままセレクタ118を介してDSP(Digital Signal Processor)114に供給される。
The disc playback unit 115 is a playback unit for an optical disc such as a CD (Compact Disc) / DVD (Digital Versatile Disc), or a playback unit for an optical disc such as a mini disc / magneto-optical disc.
When the user performs an operation related to disc playback from the operation unit 112, the CPU 110 causes the disc playback unit 115 to start a playback operation or to execute an operation (such as a cue search) according to the operation. When playback is performed by the disk playback unit 115, the CPU 110 controls the selector 118 to select the disk playback unit 115. The audio signal reproduced from the disk by the disk reproducing unit 115 is supplied to a DSP (Digital Signal Processor) 114 via the selector 118 as digital data.

チューナ部116は、ラジオ放送等の放送受信器であり、放送波の受信/復調を行う。チューナ部116で放送受信を行うときはCPU110はセレクタ118がチューナ部116を選択するように制御する。そしてチューナ部116で復調されたオーディオ信号はデジタルデータに変換されて、セレクタ118を介してDSP114に供給される。   The tuner unit 116 is a broadcast receiver such as a radio broadcast and receives / demodulates broadcast waves. When the tuner unit 116 performs broadcast reception, the CPU 110 controls the selector 118 to select the tuner unit 116. The audio signal demodulated by the tuner unit 116 is converted into digital data and supplied to the DSP 114 via the selector 118.

外部入力部117は、例えばチェンジャーシステム、ナビゲーション装置など、同じく自動車内に搭載された外部の機器からのオーディオ信号を入力する回路部である。
ユーザー操作によりソースとして外部入力部117が指定された場合、CPU110はセレクタ118が外部入力部117を選択するように制御する。そして外部入力部117により外部機器から入力されたオーディオ信号(デジタルデータ)は、セレクタ118を介してDSP114に供給される。
The external input unit 117 is a circuit unit that inputs an audio signal from an external device that is also mounted in the automobile, such as a changer system or a navigation device.
When the external input unit 117 is designated as a source by a user operation, the CPU 110 controls the selector 118 to select the external input unit 117. The audio signal (digital data) input from the external device by the external input unit 117 is supplied to the DSP 114 via the selector 118.

DSP114は、出力するオーディオ信号に対して各種の信号処理を行う。例えばイコライジング/リバーブ等の音響効果処理、音量調整処理、タイムアライメント処理、チャンネルデバイド処理、スピーカバランス調整処理などを行う。
音量調整処理、音響効果処理、スピーカバランス調整処理などは、操作部112からのユーザー操作に基づいて行う。
The DSP 114 performs various signal processing on the output audio signal. For example, acoustic effect processing such as equalization / reverb, volume adjustment processing, time alignment processing, channel divide processing, speaker balance adjustment processing, and the like are performed.
Volume adjustment processing, sound effect processing, speaker balance adjustment processing, and the like are performed based on a user operation from the operation unit 112.

DSP114では、以上のような各種の音声信号処理を行って、例えば4チャンネルスピーカから出力する4チャンネルのオーディオ信号を出力する。
各チャンネルのオーディオ信号は、D/A変換器119a,119b,119c,119dにおいてアナログ信号に変換された後、それぞれアンプ部120a,120b,120c,120dで増幅され、スピーカ121a,121b,121c,121dから音声として出力される。スピーカ121a,121b,121c,121dは、例えばフロント右スピーカ、フロント左スピーカ、リア右スピーカ、リア左スピーカとして車内に配置されている。
なお、DSP114で行われるスピーカバランス調整処理とは、例えばフロント側スピーカとリア側スピーカでの音量バランスや、左側のスピーカと右側のスピーカでの音量バランスなどの可変設定処理である。
ユーザーは、フロント側スピーカとリア側スピーカとの音量バランス等を操作により任意に設定できる。
The DSP 114 performs various types of audio signal processing as described above, and outputs, for example, a 4-channel audio signal output from a 4-channel speaker.
The audio signals of the respective channels are converted into analog signals by the D / A converters 119a, 119b, 119c, and 119d, and then amplified by the amplifier units 120a, 120b, 120c, and 120d, and the speakers 121a, 121b, 121c, and 121d, respectively. Is output as audio. The speakers 121a, 121b, 121c, and 121d are arranged in the vehicle as, for example, a front right speaker, a front left speaker, a rear right speaker, and a rear left speaker.
Note that the speaker balance adjustment processing performed by the DSP 114 is variable setting processing such as volume balance between the front speaker and the rear speaker and volume balance between the left speaker and the right speaker.
The user can arbitrarily set the volume balance between the front side speaker and the rear side speaker by operation.

撮像部123は、撮像光学レンズ系、レンズ駆動系、CCDセンサやCMOSセンサによる撮像素子部、撮像素子部で撮像された画像信号についてサンプリング、ゲイン調整、映像信号処理(輝度処理、色処理、補正処理等)等を行う撮像信号処理回路などを搭載して形成され、撮像動作により画像データを出力する。この撮像部123により、自動車内のユーザーの顔の撮像が行われる。
撮像部123における撮像レンズ123aは図12のように、オーディオ再生装置100のフロントパネル上に設けられており、この撮像レンズ123aは、例えば運転席のユーザーの顔の位置を被写体方向として捉えるように撮像方向が設定されている。
もちろん、撮像部123の撮像方向は、運転者の顔の方向に固定しても良いが、助手席方向や後部座席方向に変更できるようにしてもよい。また車内を広角で撮像し、車内のユーザーの全ての顔を被写体として捉えることができるようにしてもよい。
The imaging unit 123 performs sampling, gain adjustment, video signal processing (luminance processing, color processing, correction) on an imaging optical lens system, a lens driving system, an imaging device unit using a CCD sensor or a CMOS sensor, and an image signal captured by the imaging device unit. The imaging signal processing circuit for performing processing etc. is mounted, and image data is output by the imaging operation. The imaging unit 123 images the face of the user in the car.
The imaging lens 123a in the imaging unit 123 is provided on the front panel of the audio reproduction device 100 as shown in FIG. 12, and this imaging lens 123a captures the position of the face of the user at the driver's seat as the subject direction, for example. The imaging direction is set.
Of course, the imaging direction of the imaging unit 123 may be fixed in the direction of the driver's face, but may be changed to the passenger seat direction or the rear seat direction. Alternatively, the interior of the vehicle may be imaged at a wide angle so that all faces of users in the vehicle can be captured as subjects.

画像解析部124は、撮像部123で得られた撮像画像データについて解析処理を行う。
この画像解析部124は、撮像画像データから人物の顔の画像を処理対象のオブジェクトとして抽出する処理と、抽出した顔画像から、顔特徴データFDTを生成する処理を行う。第1の実施の形態の場合と同様、顔特徴データFDTは、例えば顔の構成要素の相対位置情報であり、図4で説明した比情報Fa、Fbの2つのデータを含む。
画像解析部124は、撮像画像データから生成した顔特徴データFDTをCPU110に供給する。
The image analysis unit 124 performs analysis processing on the captured image data obtained by the imaging unit 123.
The image analysis unit 124 performs a process of extracting a human face image from the captured image data as a processing target object, and a process of generating face feature data FDT from the extracted face image. As in the case of the first embodiment, the face feature data FDT is, for example, the relative position information of the constituent elements of the face, and includes two pieces of data of the ratio information Fa and Fb described with reference to FIG.
The image analysis unit 124 supplies the face feature data FDT generated from the captured image data to the CPU 110.

図11に、CPU100が有する機能、即ちメモリ部111のROM等に記憶されたプログラムに基づいた演算処理により実現される機能を示す。
CPU100の機能として、オーディオ再生装置制御機能131、顔特徴データ対応学習/設定機能132、顔特徴データ対応制御機能133が設けられる。これらの機能は、それぞれが個別のプログラムモジュールで実現されても良いし、1つのプログラム内に複数の機能を実行するためのプログラムが混在しても良い。
FIG. 11 shows functions that the CPU 100 has, that is, functions that are realized by arithmetic processing based on a program stored in a ROM or the like of the memory unit 111.
As functions of the CPU 100, an audio playback device control function 131, a face feature data correspondence learning / setting function 132, and a face feature data correspondence control function 133 are provided. Each of these functions may be realized by individual program modules, and a program for executing a plurality of functions may be mixed in one program.

オーディオ再生制御機能131は、オーディオ再生装置として必要とされる処理動作を制御する機能であり、他の各部に対して処理の指示やタイミング制御を行い、必要なオーディオ再生動作を実行させる。
例えばオーディオソースであるディスク再生部115やチューナ部116の動作制御、競れ苦端部118の切換制御、DSP114のオーディオ信号処理の制御、撮像部123の撮像動作制御、表示部113の表示動作制御、操作部112の操作入力の検知などの処理を行う。
The audio playback control function 131 is a function for controlling processing operations required as an audio playback device, and performs processing instructions and timing control for other units to execute necessary audio playback operations.
For example, operation control of the disc playback unit 115 and the tuner unit 116 which are audio sources, switching control of the hard-to-come end portion 118, control of audio signal processing of the DSP 114, imaging control of the imaging unit 123, display control of the display unit 113 Processing such as detection of an operation input of the operation unit 112 is performed.

顔特徴データ対応学習/設定機能132は、顔特徴データFDTで識別される個々のユーザーについてのユーザー情報を、自動的な学習処理もしくはユーザー操作に応じた設定処理によりユーザーデータベースに登録する機能である。
ユーザーデータベースは例えば図13のようなデータベースであり、例えばこのユーザーデータベースはメモリ部111内の不揮発性メモリに格納される。
ユーザーデータベースは、図13のように、個々の顔特徴データFDT(FDT1,FDT2・・・)、つまりユーザー個人毎に、ユーザー情報を登録するデータベースである。この場合、ユーザー情報の例として音響設定情報、ソース設定情報を挙げている。音響設定情報とは、イコライジングやリバーブ等のための音響効果値EF、音量値VOL、スピーカバランス調整値SPBなどである。ソース設定情報ASは、例えば図10のようにディスク再生部115,チューナ部116、外部入力部117の3つのオーディオソースが存在する場合、そのうちの1つを示す値である。
The face feature data correspondence learning / setting function 132 is a function for registering user information about each user identified by the face feature data FDT in the user database by automatic learning processing or setting processing according to user operation. .
The user database is a database as shown in FIG. 13, for example, and this user database is stored in a nonvolatile memory in the memory unit 111, for example.
As shown in FIG. 13, the user database is a database for registering user information for each face feature data FDT (FDT1, FDT2,...), That is, for each individual user. In this case, acoustic setting information and source setting information are given as examples of user information. The sound setting information includes sound effect value EF, volume value VOL, speaker balance adjustment value SPB, etc. for equalizing and reverb. The source setting information AS is a value indicating one of the three audio sources, for example, the disc playback unit 115, the tuner unit 116, and the external input unit 117 as shown in FIG.

例えば顔特徴データFDT1が「ユーザーA」、顔特徴データFDT2が「ユーザーB」であるとする。
音響設定情報は、各ユーザーが設定した音響設定値を登録したものである。例えばユーザーAがオーディオ再生装置100の使用のために登録した音響効果値EF、音量値VOL、スピーカバランス調整値SPBが、顔特徴データFDT1に対応して登録される。
またユーザーBがオーディオ再生装置100の使用のために登録した音響効果値EF、音量値VOL、スピーカバランス調整値SPBが、顔特徴データFDT2に対応して登録される。
For example, it is assumed that the face feature data FDT1 is “user A” and the face feature data FDT2 is “user B”.
The sound setting information is information in which sound setting values set by each user are registered. For example, the acoustic effect value EF, the volume value VOL, and the speaker balance adjustment value SPB registered by the user A for using the audio playback device 100 are registered corresponding to the face feature data FDT1.
Also, the acoustic effect value EF, volume value VOL, and speaker balance adjustment value SPB registered by the user B for use of the audio playback device 100 are registered corresponding to the face feature data FDT2.

ソース設定情報ASは、ユーザーが選択したオーディオソースを示す情報である。例えばユーザーAがディスク再生部115を通常使用するオーディオソースとして選択した場合、ディスク再生部115を示す値がソース設定情報ASとして顔特徴データFDT1に対応して登録される。またユーザーBがチューナ部116を通常使用するオーディオソースとして選択した場合、チューナ部116を示す値がソース設定情報ASとして顔特徴データFDT2に対応して登録される。
顔特徴データ対応学習/設定機能132によっては、このようなユーザーデータベースとして、顔特徴データFDTに対応したデータ群が生成される。
The source setting information AS is information indicating the audio source selected by the user. For example, when the user A selects the disc playback unit 115 as an audio source for normal use, a value indicating the disc playback unit 115 is registered as source setting information AS corresponding to the face feature data FDT1. When the user B selects the tuner unit 116 as an audio source for normal use, a value indicating the tuner unit 116 is registered as source setting information AS corresponding to the face feature data FDT2.
Depending on the facial feature data correspondence learning / setting function 132, a data group corresponding to the facial feature data FDT is generated as such a user database.

顔特徴データ対応制御機能133は、オーディオ再生動作の際に、セレクタ部118でのソース選択やDSP114でのオーディオ信号処理に関して、上記ユーザーデータベースに登録された内容に基づいた動作が行われるように制御する機能である。即ち顔特徴データ対応制御機能133は、乗車しているユーザー(例えば運転者)を、顔特徴データFDTにより判別し、そのユーザーが顔特徴データFDT1のユーザーであれば、ユーザーデータベースにおいて顔特徴データFDT1に対応して登録されている内容に沿うようにソース選択やオーディオ信号処理が実行されるように制御する。
例えばユーザーAが運転者である場合、顔特徴データFDT1に対応して登録されているソース設定情報ASに示されたソースが、最初のオーディオソースとして選択されるようにし、また音響設定情報で示される値として、音響効果、音量、スピーカバランス調整が行われるようにする。
一方、ユーザーBが運転者である場合、顔特徴データFDT2に対応して登録されてい
るソース設定情報ASに示されたソースが、最初のオーディオソースとして選択されるようにし、また音響設定情報で示される値として、音響効果、音量、スピーカバランス調整が行われるようにする。
つまり顔特徴データ対応制御機能133は、オーディオ再生時のソース選択やオーディオ信号処理の内容を、ユーザー毎に切り換えるように制御するものである。
The face feature data correspondence control function 133 performs control based on the contents registered in the user database regarding the source selection in the selector unit 118 and the audio signal processing in the DSP 114 during the audio reproduction operation. It is a function to do. That is, the face feature data correspondence control function 133 discriminates a user (for example, a driver) who is in the vehicle from the face feature data FDT, and if the user is a user of the face feature data FDT1, the face feature data FDT1 is stored in the user database. Control is performed so that source selection and audio signal processing are executed in accordance with the contents registered corresponding to the above.
For example, when the user A is a driver, the source indicated in the source setting information AS registered corresponding to the face feature data FDT1 is selected as the first audio source and indicated by the acoustic setting information. The sound effect, volume, and speaker balance adjustment are performed as the values to be set.
On the other hand, when the user B is a driver, the source indicated in the source setting information AS registered corresponding to the face feature data FDT2 is selected as the first audio source, and the acoustic setting information As the values shown, the acoustic effect, volume, and speaker balance are adjusted.
That is, the face feature data correspondence control function 133 controls to switch the source selection and audio signal processing contents during audio playback for each user.

以上の構成のオーディオ再生装置100の処理動作を説明していく。なお撮像部123は、運転席に座ったときの運転者の顔の位置を中心とした範囲を被写体方向とし、従って画像解析部124は、運転者の顔特徴データFDTを生成するものとして説明する。   The processing operation of the audio playback apparatus 100 having the above configuration will be described. Note that the imaging unit 123 assumes that the range centered on the position of the driver's face when sitting in the driver's seat is the subject direction, and therefore the image analysis unit 124 generates the driver's face feature data FDT. .

図14は、オーディオ再生装置100が電源オンとされたときのCPU110の処理を示している。例えばユーザーが自動車のエンジンキーをアクセサリポジションとするか、もしくはエンジンをかけることで、オーディオ再生装置100が電源オンとされる。
電源オンとなったら、CPU110はステップF401として起動処理を行い、動作プログラムのロードや各部の起動制御を行う。
FIG. 14 shows processing of the CPU 110 when the audio playback device 100 is turned on. For example, the audio playback device 100 is turned on when the user sets the engine key of the car to the accessory position or starts the engine.
When the power is turned on, the CPU 110 performs activation processing as step F401, and loads an operation program and controls activation of each unit.

電源オン時の起動処理を完了したら、CPU110はステップF402で、撮像部123の撮像処理及び画像解析部124の顔特徴データFDTの生成処理を開始させ、画像解析部124からの顔特徴データFDTの取込を開始する。
上記第1の実施の形態の場合と同様に、画像解析部124での顔特徴データFDTの生成及びCPU110の顔特徴データFDTの取込は、その顔特徴データFDTの生成に要する時間間隔で常時連続して行っても良いし、或る程度の時間間隔で定期的に行うようにしても良い。また、停車時、エンジン停止時などを検出できるようにして、運転者が代わる可能性のあるタイミングで顔特徴データFDTを新たに取り込むようにしてもよい。
When the power-on startup process is completed, the CPU 110 starts the imaging process of the imaging unit 123 and the generation process of the facial feature data FDT of the image analysis unit 124 in step F402, and the facial feature data FDT from the image analysis unit 124 is started. Start importing.
As in the case of the first embodiment, the generation of the facial feature data FDT by the image analysis unit 124 and the capture of the facial feature data FDT by the CPU 110 are always performed at time intervals required for the generation of the facial feature data FDT. It may be performed continuously or periodically at a certain time interval. Further, it is possible to detect when the vehicle is stopped, when the engine is stopped, etc., and to newly capture the face feature data FDT at a timing at which the driver may change.

顔特徴データFDTを取り込んだら、CPU110はステップF403で、その顔特徴データFDTがユーザーデータベースに登録されているユーザーに相当するか否かを確認する。即ちユーザーデータベースを検索して、同一(或いは或る程度の許容範囲内で類似)の顔特徴データFDTが存在するか否かを確認する。
もし、今回取り込まれた顔特徴データFDTが、ユーザーデータベースに登録されていない顔特徴データFDTであったら、CPU110は処理をステップF406に進め、通常のオーディオ再生動作の設定を行い、ステップF407のオーディオ再生処理にうつる。通常のオーディオ再生設定とは、最初に選択するオーディオソースや、音響効果値、音量値、スピーカバランス調整値として、例えば装置内でデフォルトで決められている設定である。或いは、前回の電源オフ時におけるこれらの値を記憶しておき(いわゆるラストメモリ)、その記憶値に応じた設定としてもよい。
When the facial feature data FDT is captured, the CPU 110 confirms in step F403 whether the facial feature data FDT corresponds to a user registered in the user database. That is, the user database is searched to check whether the same (or similar within a certain allowable range) face feature data FDT exists.
If the facial feature data FDT fetched this time is facial feature data FDT that is not registered in the user database, the CPU 110 advances the processing to step F406, sets a normal audio reproduction operation, and performs the audio of step F407. Change to playback process. The normal audio reproduction setting is a setting determined by default in the apparatus, for example, as the audio source to be selected first, the sound effect value, the volume value, and the speaker balance adjustment value. Alternatively, these values at the time of previous power-off may be stored (so-called last memory) and set according to the stored values.

ステップF407でのオーディオ再生処理では、ユーザーの操作や、上述したオーディオ再生制御機能131の制御に基づいて、選択されているオーディオソースからの再生音声出力が行われる。   In the audio playback process in step F407, playback audio output from the selected audio source is performed based on the user's operation or the control of the audio playback control function 131 described above.

一方、ステップF403で、今回の顔特徴データFDT(つまり運転者)が、ユーザーデータベースに登録された顔特徴データFDTであると判別された場合は、CPU110は処理をステップF404、F405として顔特徴データ対応制御機能133による処理を行う。まずステップF404では、ユーザーデータベースからユーザー情報を読み出す。例えば取り込まれた顔特徴データFDTが「FDT1」であったとしたら、図13のユーザーデータベースにおいて顔特徴データ「FDT1」に対して登録されている音響設定情報EF,VOL,SPB、ソース設定情報ASを読み出す。
そしてCPU110はステップF405で、読み出したユーザー情報に基づいて、オーディオ再生動作の設定、即ちオーディオソース及びオーディオ信号処理の設定を行う。
続いてステップF407でのオーディオ再生処理として、オーディオ再生動作が行われるものとなるが、この場合は、ユーザー個人に対応した設定状態で動作が行われる。つまりこの場合CPU110は、音響設定情報EF,VOL,SPBに示された値で音量調整、音響効果処理、スピーカバランス調整処理が行われるようにDSP114を制御し、またソース設定情報ASに基づいてセレクタ部118の切換制御及びソース指定された部位の動作制御を行うことになる。
On the other hand, if it is determined in step F403 that the current facial feature data FDT (that is, the driver) is the facial feature data FDT registered in the user database, the CPU 110 performs processing in steps F404 and F405 to perform facial feature data. Processing by the correspondence control function 133 is performed. First, in step F404, user information is read from the user database. For example, if the captured face feature data FDT is “FDT1”, the acoustic setting information EF, VOL, SPB, and source setting information AS registered for the face feature data “FDT1” in the user database of FIG. read out.
In step F405, the CPU 110 sets audio playback operation, that is, audio source and audio signal processing, based on the read user information.
Subsequently, an audio playback operation is performed as the audio playback processing in step F407. In this case, the operation is performed in a setting state corresponding to the individual user. That is, in this case, the CPU 110 controls the DSP 114 so that the volume adjustment, the sound effect processing, and the speaker balance adjustment processing are performed with the values indicated in the sound setting information EF, VOL, and SPB, and the selector 110 is selected based on the source setting information AS. The switching control of the unit 118 and the operation control of the part designated as the source are performed.

なお、ステップF402で顔特徴データFDTの取込が開始された以降は、ステップF407のオーディオ再生動作中も、例えば定期的、或いは運転者の変更の可能性がある場合などに、CPU110は逐次顔特徴データFDTを取り込んでおり、取り込まれる顔特徴データFDTが変化したか否か(つまり運転者が代わったか否か)を確認している。
顔特徴データFDTの変化が検知されなければ、ステップF407のオーディオ再生処理が、それまでの設定状態で継続されるが、もし顔特徴データFDTの変化を検知したら、ステップF408からF403に戻って、上述した処理を行う。
従って、もし運転者が代わると、ステップF405もしくはF406で再度オーディオ再生動作設定が行われ、その後のステップF407のナビゲーション動作の設定が変更されることになる。
It should be noted that after capturing the facial feature data FDT in step F402, the CPU 110 sequentially detects the face even during the audio playback operation in step F407, for example, periodically or when there is a possibility of change of the driver. Feature data FDT is captured, and it is confirmed whether or not the captured facial feature data FDT has changed (that is, whether or not the driver has changed).
If no change in the face feature data FDT is detected, the audio reproduction process in step F407 is continued in the setting state until then. If a change in the face feature data FDT is detected, the process returns from step F408 to F403, The above-described processing is performed.
Therefore, if the driver changes, the audio playback operation setting is performed again in step F405 or F406, and the subsequent navigation operation setting in step F407 is changed.

この図14の処理からわかるように、ステップF407のオーディオ再生処理では、運転者に応じて動作設定、つまりソース選択やオーディオ信号処理の値が切り換えられることになる。
例えば、通常はCD等のディスク再生音楽をいつも聴く人や、通常はラジオ放送を主に聞く人など、ユーザー個人毎にオーディオソースの選択の傾向が異なる。
また大音量を好む人、大音量を嫌う人という違いもある。音響効果やスピーカバランスの設定に関しても好みがある。
本例の場合、ユーザー毎に、そのユーザーに適したオーディオソースや音量、音響効果、スピーカバランス調整などが自動的に行われることになる。これによって、乗車するユーザーが代わる毎に、ソース選択を切り換えたり、音量や音響効果、スピーカバランス調整をし直すような操作を行う必要はなく、各ユーザーにとって快適なオーディオ再生を楽しむことができるようになる。
As can be seen from the processing in FIG. 14, in the audio reproduction processing in step F407, the operation setting, that is, the value of source selection or audio signal processing is switched according to the driver.
For example, the tendency of selecting an audio source differs for each individual user, for example, a person who always listens to disc playback music such as a CD or a person who mainly listens to radio broadcasts.
There are also differences between those who like loud sounds and those who don't like loud sounds. There are also preferences for setting sound effects and speaker balance.
In the case of this example, for each user, an audio source, sound volume, sound effect, speaker balance adjustment, and the like suitable for the user are automatically performed. This makes it possible to enjoy comfortable audio playback for each user, without having to switch the source selection or re-adjust the volume, sound effects, and speaker balance each time the user changes. become.

ユーザーデータベースへのユーザー情報の登録は、ユーザーの登録操作に基づいて行われたり、学習動作によって自動的に行われる。
ユーザーが登録操作を行う場合のCPU110の処理は、上述した図8とほぼ同様とすればよい。
即ち図8のステップF201〜F204の処理を行った後、ステップF205で、オーディオソース選択のための画面や、音量、音響効果、スピーカバランス調整のための設定を行う画面を表示させ、ユーザーの項目の選択操作や値の入力操作に応じて、ステップF209で、顔特徴データFDTに対応するユーザー情報としてユーザーデータベースに音響設定情報(EF,VOL,SPB)やソース設定情報ASを登録すればよい。
なお、音響設定情報(EF,VOL,SPB)の登録のためには、例えば再生音声出力を行った状態でユーザー操作により好みの音量、音響効果状態、スピーカバランス調整状態を可変させ、ユーザーが決定操作したときのこれらの値を、音響設定情報としての音響効果値EF、音量値VOL、スピーカバランス調整値SPBとして登録すればよい。
Registration of user information in the user database is performed based on a user registration operation or automatically by a learning operation.
The processing of the CPU 110 when the user performs a registration operation may be almost the same as that in FIG.
That is, after performing the processing of steps F201 to F204 in FIG. 8, in step F205, a screen for selecting an audio source and a screen for setting the volume, sound effect, and speaker balance are displayed. In step F209, acoustic setting information (EF, VOL, SPB) and source setting information AS may be registered in the user database as user information corresponding to the facial feature data FDT.
In order to register the sound setting information (EF, VOL, SPB), for example, the user can determine the sound volume, sound effect state, and speaker balance adjustment state by changing the user's operation in a state in which reproduced sound is output. These values when operated may be registered as sound effect value EF, volume value VOL, and speaker balance adjustment value SPB as sound setting information.

また、このようなユーザー操作に基づく登録の他、学習処理による登録を行うこともできる。
例えばユーザーデータベースを図15のような内容とする。即ち、ユーザーデータベースには、音響設定情報(EF,VOL,SPB)、ソース設定情報ASとともに、これらの履歴情報として音響設定履歴情報やソース履歴情報を登録する。
In addition to registration based on such user operations, registration by learning processing can also be performed.
For example, the user database has contents as shown in FIG. That is, the acoustic setting history information and the source history information are registered in the user database as well as the acoustic setting information (EF, VOL, SPB) and the source setting information AS.

例えば図14のステップF407のオーディオ再生処理中には、ユーザーの操作に応じて図16の処理が行われるようにする。
図16はユーザーが音量変更操作、音響効果変更操作、スピーカバランス変更操作、ソース変更操作を行った際の処理を示している。
For example, during the audio reproduction process in step F407 in FIG. 14, the process in FIG. 16 is performed according to the user's operation.
FIG. 16 shows processing when the user performs volume change operation, sound effect change operation, speaker balance change operation, and source change operation.

CPU110は、ユーザーが音量変更操作を行ったら、処理をステップF501からF505に進め、DSP114に対して操作に応じた音量変更制御を行う。これにより再生されている音楽等の出力音量が変更される。次にステップF506で、今回の変更後の音量値をユーザーデータベースに登録する。即ち、この時点で取得されている顔特徴データFDTに対応させて、音響設定履歴情報の音量値VOLxxとして追加登録する。
ステップF505では、音響設定履歴情報に追加登録された音量値VOLxxを加えた、その時点で履歴登録されている音量値(例えばユーザーAの場合としたら、図15のVOL11,VOL12・・・VOLxx)を用いて、このユーザーの好む音量値を算出する。例えば履歴登録されいる音量値VOL11,VOL12・・・の平均値を算出するなどして、これをユーザーの好む音量値とする。なお、平均値をとるときに、履歴として登録されている各音量値の分布や標準偏差などを求め、代表的な音量と極端に異なる音量値は、平均値算出から除外するようにするとよい。
そして例えば平均値などとして音量値が算出されたら、それを新たな音響設定情報における音量値VOLとして更新する。
When the user performs a volume change operation, the CPU 110 advances the process from step F501 to F505, and controls the DSP 114 for volume change according to the operation. As a result, the output volume of the music being played is changed. Next, in step F506, the volume value after this change is registered in the user database. That is, it is additionally registered as the volume value VOLxx of the sound setting history information in association with the face feature data FDT acquired at this time.
In step F505, the volume value VOLxx additionally registered in the sound setting history information is added, and the volume value registered in the history at that time (for example, in the case of the user A, VOL11, VOL12... VOLxx in FIG. 15). Is used to calculate the volume value preferred by the user. For example, the average value of the volume values VOL11, VOL12,... Registered in the history is calculated, and this is set as the volume value preferred by the user. When taking the average value, it is preferable to obtain the distribution and standard deviation of each volume value registered as a history, and exclude the volume value extremely different from the representative volume from the average value calculation.
For example, when the volume value is calculated as an average value or the like, it is updated as the volume value VOL in the new acoustic setting information.

またCPU110は、ユーザーが音響効果としてイコライジングやリバーブレベル等の変更操作を行ったら、処理をステップF502からF508に進め、DSP114に対して操作に応じた音響効果値の変更制御を行う。これにより再生されている音楽等の出力音量の音響効果が変更される。次にステップF509で、今回の変更後の音響効果値をユーザーデータベースに登録する。即ち、この時点で取得されている顔特徴データFDTに対応させて、音響設定履歴情報の音響効果値EFxxとして追加登録する。
ステップF510では、音響設定履歴情報に追加登録された音響設定値EFxxを加えた、その時点で履歴登録されている音響効果値(ユーザーAの場合としたらEF11,EF12・・・EFxx)を用いて、このユーザーの好む音量値を算出する。例えば履歴登録されいる音響効果値EF11,EF12・・・の平均値を算出するなどして、これをユーザーの好む音響効果値とする。この場合も、履歴登録された音響効果値において代表的な音響効果値と極端に異なる音響効果値は、平均値算出から除外するようにするとよい。
そして例えば平均値などとして音響効果値が算出されたら、それを新たな音響設定情報における音響効果値EFとして更新する。
In addition, when the user performs an operation of changing the equalizing, reverb level, or the like as the sound effect, the CPU 110 advances the process from step F502 to F508, and controls the DSP 114 to change the sound effect value according to the operation. As a result, the sound effect of the output volume of the music being played is changed. Next, in step F509, the sound effect value after this change is registered in the user database. That is, it is additionally registered as the acoustic effect value EFxx of the acoustic setting history information in association with the face feature data FDT acquired at this time.
In step F510, the acoustic setting value EFxx additionally registered in the acoustic setting history information is added, and the acoustic effect values registered in the history at that time (in the case of the user A, EF11, EF12... EFxx) are used. The sound volume value that this user likes is calculated. For example, the average value of the acoustic effect values EF11, EF12,... Registered in the history is calculated, and this is set as the acoustic effect value preferred by the user. In this case as well, sound effect values that are extremely different from typical sound effect values in the sound effect values registered in the history may be excluded from the average value calculation.
For example, when the sound effect value is calculated as an average value or the like, it is updated as the sound effect value EF in the new sound setting information.

またCPU110は、ユーザーがスピーカバランス変更操作を行ったら、処理をステップF503からF511に進め、DSP114に対して操作に応じたスピーカバランスの変更制御を行う。これにより再生されている音楽等の出力のスピーカバランスが変更される。次にステップF512で、今回の変更後のスピーカバランス調整値をユーザーデータベースに登録する。即ち、この時点で取得されている顔特徴データFDTに対応させて、音響設定履歴情報のスピーカバランス調整値SPBxxとして追加登録する。
ステップF513では、音響設定履歴情報に追加登録されたスピーカバランス調整値SPBxxを加えた、その時点で履歴登録されているスピーカバランス調整値(ユーザーAの場合としたらSPB11,SPB12・・・SPBxx)を用いて、このユーザーの好むスピーカバランス調整値を算出する。これも平均的な値を算出すればよい。
そして例えば平均値などとしてスピーカバランス調整値が算出されたら、それを新たな音響設定情報におけるスピーカバランス調整値SPBとして更新する。
In addition, when the user performs a speaker balance change operation, the CPU 110 advances the processing from step F503 to F511, and controls the DSP 114 to change the speaker balance according to the operation. As a result, the speaker balance of the output of music or the like being reproduced is changed. In step F512, the speaker balance adjustment value after the change is registered in the user database. That is, it is additionally registered as the speaker balance adjustment value SPBxx of the sound setting history information in association with the face feature data FDT acquired at this time.
In step F513, the speaker balance adjustment value SPBxx additionally registered in the acoustic setting history information is added, and the speaker balance adjustment value (SPB11, SPB12... SPBxx in the case of the user A) registered at that time is added. Use this to calculate the speaker balance adjustment value preferred by this user. An average value may be calculated for this.
For example, when the speaker balance adjustment value is calculated as an average value or the like, it is updated as the speaker balance adjustment value SPB in the new sound setting information.

またCPU110は、ユーザーがオーディオソースの切り換え操作を行ったら、処理をステップF504からF514に進め、セレクタ部118の切換制御及び新たに選択されたオーディオソースの動作制御(例えばチューナ部116が選択された場合はチューナ部116の動作制御)を行う。これにより再生出力されるオーディオソースが切り換えられる。次にステップF515で、今回の変更後のオーディオソースを示す値をユーザーデータベースに登録する。即ち、この時点で取得されている顔特徴データFDTに対応させて、ソース履歴情報に、今回のオーディオソースを示す値を追加登録する。
ステップF516では、ソース履歴情報に追加登録されたオーディオソースを加えた、その時点で履歴登録されているオーディオソースを用いて、このユーザーの好むオーディオソースを判別する。例えばオーディオソースとしてディスク再生部115(AS1)、チューナ部116(AS2)、外部入力部117(AS3)として、それぞれ履歴登録されている数を集計し、最大数のオーディオソースを、そのユーザーが好むオーディオソースと判定する。そして判定したオーディオソースにより、ソース設定情報ASの値を更新する。
Further, when the user performs an audio source switching operation, the CPU 110 advances the processing from step F504 to F514, and performs switching control of the selector unit 118 and operation control of the newly selected audio source (for example, the tuner unit 116 is selected). In this case, the operation of the tuner unit 116 is controlled). As a result, the audio source to be reproduced and output is switched. Next, in step F515, a value indicating the audio source after the change is registered in the user database. That is, a value indicating the current audio source is additionally registered in the source history information in association with the face feature data FDT acquired at this time.
In step F516, the audio source preferred by the user is discriminated using the audio source that is additionally registered in the source history information and the audio source that is registered in history at that time. For example, the disc playback unit 115 (AS 1), the tuner unit 116 (AS 2), and the external input unit 117 (AS 3) are aggregated as the audio sources, and the number of registered history is counted, and the user prefers the maximum number of audio sources. Judge as an audio source. Then, the value of the source setting information AS is updated with the determined audio source.

例えばこのような処理が行われることで、図15のようなユーザーデータベースでは、音響設定情報(EF,VOL、SPB)及びソース設定情報ASが、ユーザーの使用時の操作に応じて経時的に好む傾向が学習され、その結果、音響設定情報(EF,VOL、SPB)及びソース設定情報ASはユーザーの好みの設定状態を示すものとなる。そして図14のステップF405でオーディオ再生動作の設定が行われるときに、このような学習結果としての音響設定情報(EF,VOL、SPB)及びソース設定情報ASが反映されることで、ユーザーの好みの状態のオーディオ再生が行われることになる。
For example, by performing such processing, in the user database as shown in FIG. 15, the sound setting information (EF, VOL, SPB) and the source setting information AS are favored over time according to the operation at the time of use by the user. The tendency is learned, and as a result, the sound setting information (EF, VOL, SPB) and the source setting information AS indicate the user's favorite setting state. Then, when the audio playback operation is set in step F405 of FIG. 14, the acoustic setting information (EF, VOL, SPB) and the source setting information AS as such learning results are reflected, so that the user's preference In this state, audio playback is performed.

[3.実施の形態の効果及び変形例]

以上、実施の形態を説明してきたが、これらのような実施の形態によれば、撮像された人物の顔特徴データFDTによりユーザーを判別し、ユーザーデータベースにおいてそのユーザーに対応したユーザー情報に基づいた動作制御を実行することで、個々のユーザーに適した動作が行われる。
例えばナビゲーション装置10の場合の地図画像表示や音声による走行ガイドなどとして、ユーザーの好みや必要性に応じたナビゲーション出力を行うことができる。
同様にオーディオ再生装置100の場合は、再生出力されるオーディオ信号として、ユーザーの好み等に応じた音量、音質(音響効果)、スピーカバランス、オーディオソース選択などが行われる。
即ち、複数のユーザーが乗車する車の車載用電子機器として、個々のユーザーが、わざわざ調整操作を行わなくとも、乗車しているユーザー(運転者)にとって快適なナビゲーション動作やオーディオ再生動作等が実現できる。
[3. Effects and modifications of the embodiment]

Although the embodiments have been described above, according to these embodiments, the user is identified based on the captured human face feature data FDT, and the user database is based on the user information corresponding to the user. By executing the operation control, an operation suitable for each user is performed.
For example, navigation output according to the user's preference and necessity can be performed as a map image display in the case of the navigation device 10 or a travel guide by voice.
Similarly, in the case of the audio playback device 100, the volume, sound quality (sound effect), speaker balance, audio source selection, and the like according to the user's preference are performed as the audio signal to be played back and output.
In other words, as an in-vehicle electronic device for a vehicle on which a plurality of users ride, individual users can perform navigation operations and audio playback operations that are comfortable for the rider (driver) without having to perform adjustment operations. it can.

なお、本発明は実施の形態の例に限らず、多様な変形例が考えられる。
ナビゲーション処理10やオーディオ再生装置100の構成は上記例に限らず多様に考えられる。また、ナビゲーション装置とオーディオ再生装置の複合機器も想定される。
さらに車載用の電子機器としては、これら以外に、ビデオ機器、テレビジョンチューナ機器なども想定される。
Note that the present invention is not limited to the example of the embodiment, and various modifications can be considered.
The configurations of the navigation processing 10 and the audio playback device 100 are not limited to the above example, and various configurations are conceivable. A combined device of a navigation device and an audio playback device is also envisaged.
In addition to these, video equipment, television tuner equipment, and the like are also assumed as in-vehicle electronic equipment.

ユーザーデータベースに登録されるユーザー情報も、上記例に限られない。例えばナビゲーション装置や映像再生装置、テレビジョン装置等において表示部の輝度レベル、コントラスト、シャープネスなどの調整値として、各ユーザー個人の好む値をユーザーデータベースに登録し、そのユーザーの使用時にその調整値が設定されるようにしてもよい。
オーディオ再生装置やテレビジョンチューナ機器の場合の選局(チャンネル)の好みなどもユーザー情報として採用できる。
The user information registered in the user database is not limited to the above example. For example, in navigation devices, video playback devices, television devices, etc., the values that each user prefers are registered in the user database as adjustment values for the brightness level, contrast, sharpness, etc. of the display unit. It may be set.
The user can also select channel selection preferences for audio playback devices and television tuner devices.

実施の形態では、撮像して顔特徴データFDTを検出するユーザーを、運転者としたが、もちろんこれに限らず、助手席の人物や後部座席の人物を撮像対象としても良いし、撮像対象となる人物(座席位置)を可変できるようにしてもよい。
また、車室内全体を撮像できるようにし、複数の人物が乗車するときには、それに応じた登録が行われるようにしても良い。即ち検出される顔特徴データFDTの組み合わせでユーザーデータベースを構成する。
ユーザーA、B、Cの3人の家族で使用する車のナビゲーション装置10やオーディオ再生装置100であるとして、撮像部16,123が車室内の全体を撮像するように被写体方向が設定されている場合、検出される顔特徴データFDTとしては、次の場合がある。
・ユーザーAのみ
・ユーザーBのみ
・ユーザーCのみ
・ユーザーAとB
・ユーザーAとC
・ユーザーBとC
・ユーザーAとBとC
これら7とおりの場合を、それぞれユーザーデータベースにおいて、別に登録されるようにする。そしてそれぞれの場合において、操作状況や登録操作に応じて、ユーザー情報を登録する。
このようにすることで、乗っている人物の組み合わせに応じて、適切なナビゲーション処理やオーディオ再生処理が実現できる。
In the embodiment, the user who picks up the image and detects the facial feature data FDT is the driver. However, the present invention is not limited to this, and a person in the front passenger seat or a person in the rear seat may be set as the imaging target. The person (seat position) may be variable.
Further, the entire vehicle interior can be imaged, and when a plurality of persons get on, registration corresponding to the person may be performed. That is, a user database is configured by a combination of detected face feature data FDT.
Assuming that the car navigation device 10 and the audio playback device 100 are used by a family of three users A, B, and C, the subject direction is set so that the imaging units 16 and 123 capture the entire interior of the vehicle interior. In this case, the detected face feature data FDT may be as follows.
・ User A only ・ User B only ・ User C only ・ Users A and B
・ Users A and C
・ Users B and C
・ Users A, B, and C
These seven cases are separately registered in the user database. In each case, user information is registered according to the operation status and the registration operation.
In this way, appropriate navigation processing and audio reproduction processing can be realized according to the combination of the person on board.

ところで、ナビゲーション装置10やオーディオ再生装置100に撮像部16、123を設けることで、次のような処理も可能となる。
例えば撮像画像信号から車室内の明るさを検出し、車室内の明るさに合わせて表示部8、113装置の輝度を設定する。これにより、室内が暗くなった場合に表示画面の輝度を下げることはもちろん、天気の良い日中には非常に見にくくなるカーオーディオやカーナビゲーションの表示画面の輝度を明るく調整することも可能となる。
By providing the imaging units 16 and 123 in the navigation device 10 and the audio playback device 100, the following processing is also possible.
For example, the brightness of the vehicle interior is detected from the captured image signal, and the brightness of the display units 8 and 113 is set in accordance with the brightness of the vehicle interior. This makes it possible to reduce the brightness of the display screen when the room gets dark, and to adjust the brightness of the display screen for car audio and car navigation, which is very difficult to see during sunny days. .

また、ユーザーデータベースに顔特徴データFDTを登録することは、車のセキュリティに利用できる。即ち運転席に、ユーザーデータベースに登録されていない顔特徴データFDTの人物が座っているときには、エンジンを始動させないなどの処理が可能である。   Also, registering the facial feature data FDT in the user database can be used for car security. That is, when a person with facial feature data FDT that is not registered in the user database is sitting in the driver's seat, processing such as not starting the engine is possible.

また、定期的に車室内を撮像して、例えばナビゲーション装置で得られる現在位置情報と合わせて撮像画像データ一定期間記録しておくことにより、位置情報にリンクした写真日記として利用することもできる。   Moreover, it is also possible to use as a photo diary linked to the position information by periodically imaging the passenger compartment and recording the captured image data for a certain period together with the current position information obtained by the navigation device, for example.

本発明の第1の実施の形態のナビゲーション装置のブロック図である。1 is a block diagram of a navigation device according to a first embodiment of the present invention. 第1の実施の形態のナビゲーション装置の機能構成の説明図である。It is explanatory drawing of a function structure of the navigation apparatus of 1st Embodiment. 第1の実施の形態のナビゲーション装置の設置状態の説明図である。It is explanatory drawing of the installation state of the navigation apparatus of 1st Embodiment. 実施の形態の顔特徴データの説明図である。It is explanatory drawing of the face feature data of embodiment. 第1の実施の形態のユーザーデータベースの説明図である。It is explanatory drawing of the user database of 1st Embodiment. 第1の実施の形態の処理のフローチャートである。It is a flowchart of the process of 1st Embodiment. 第1の実施の形態の地図表示例の説明図である。It is explanatory drawing of the example of a map display of 1st Embodiment. 第1の実施の形態の登録操作時の処理のフローチャートである。It is a flowchart of the process at the time of registration operation of 1st Embodiment. 第1の実施の形態の学習による登録処理のフローチャートである。It is a flowchart of the registration process by learning of 1st Embodiment. 本発明の第2の実施の形態のオーディオ再生装置のブロック図である。It is a block diagram of the audio reproduction apparatus of the 2nd Embodiment of this invention. 第2の実施の形態のオーディオ再生装置の機能構成の説明図である。It is explanatory drawing of a function structure of the audio reproduction apparatus of 2nd Embodiment. 第2の実施の形態のオーディオ再生装置の設置状態の説明図である。It is explanatory drawing of the installation state of the audio reproduction apparatus of 2nd Embodiment. 第2の実施の形態のユーザーデータベースの説明図である。It is explanatory drawing of the user database of 2nd Embodiment. 第2の実施の形態の処理のフローチャートである。It is a flowchart of the process of 2nd Embodiment. 第2の実施の形態のユーザーデータベースの変形例の説明図である。It is explanatory drawing of the modification of the user database of 2nd Embodiment. 第2の実施の形態の学習処理のフローチャートである。It is a flowchart of the learning process of 2nd Embodiment.

符号の説明Explanation of symbols

1 演算処理部、2 操作入力部、3 映像信号処理部、4 位置検出部、5 センサ部、6 ディスクドライブ装置部、7 音声合成/再生処理部、8 表示部、9 スピーカ部、11 CPU、12 ROM、13 RAM、14 不揮発性メモリ、15 インターフェース部、16 撮像部、17 画像解析部、21 ナビゲーション処理制御機能、22 顔特徴データ対応学習/設定機能、23 顔特徴データ対応制御機能、100 オーディオ再生装置、110 CPU110、111 メモリ部、112 操作部、113 表示部、114 DSP、123 撮像部、124 画像解析部、131 オーディオ再生制御機能、132 顔特徴データ対応学習/設定機能、133 顔特徴データ対応制御機能   DESCRIPTION OF SYMBOLS 1 Computation processing part, 2 Operation input part, 3 Video signal processing part, 4 Position detection part, 5 Sensor part, 6 Disk drive apparatus part, 7 Voice synthesis / reproduction processing part, 8 Display part, 9 Speaker part, 11 CPU, 12 ROM, 13 RAM, 14 Non-volatile memory, 15 Interface unit, 16 Imaging unit, 17 Image analysis unit, 21 Navigation processing control function, 22 Facial feature data correspondence learning / setting function, 23 Facial feature data correspondence control function, 100 Audio Playback device, 110 CPU 110, 111 Memory unit, 112 Operation unit, 113 Display unit, 114 DSP, 123 Imaging unit, 124 Image analysis unit, 131 Audio playback control function, 132 Face feature data correspondence learning / setting function, 133 Face feature data Corresponding control function

Claims (9)

車内の人物を撮像できるように配置された撮像部と、
上記撮像部で撮像された画像データを解析し、撮像された人物の顔特徴データを生成する画像解析部と、
顔特徴データに対応したユーザー情報を記憶するメモリ部と、
上記メモリ部から、上記画像解析部で生成された顔特徴データに対応するユーザー情報を読み出し、読み出したユーザー情報に基づいた動作制御を実行する制御部と、
を備えたことを特徴とする車載用電子機器。
An imaging unit arranged to image a person in the vehicle;
An image analysis unit that analyzes image data captured by the imaging unit and generates facial feature data of the captured person;
A memory unit for storing user information corresponding to the facial feature data;
A control unit that reads out user information corresponding to the facial feature data generated by the image analysis unit from the memory unit, and executes operation control based on the read-out user information;
An in-vehicle electronic device characterized by comprising:
上記車載用電子機器は車載用のナビゲーション装置であって、
表示部と、
ナビゲーション情報を取得するナビゲーション情報取得部と、
を更に備え、
上記制御部は、上記表示部において、上記ナビゲーション情報取得部で取得したナビゲーション情報としての地図情報による地図表示を実行させる際に、上記画像解析部で生成された顔特徴データに対応して上記メモリ部から読み出したユーザー情報に基づいて、地図表示上の表示内容を制御することを特徴とする請求項1に記載の車載用電子機器。
The in-vehicle electronic device is an in-vehicle navigation device,
A display unit;
A navigation information acquisition unit for acquiring navigation information;
Further comprising
When the control unit causes the display unit to execute map display using map information as navigation information acquired by the navigation information acquisition unit, the control unit corresponds to the face feature data generated by the image analysis unit. The vehicle-mounted electronic device according to claim 1, wherein display contents on a map display are controlled based on user information read from the unit.
上記車載用電子機器は車載用のナビゲーション装置であって、
音声出力部と、
ナビゲーション情報を取得するナビゲーション情報取得部と、
現在位置情報を検出する位置検出部と、
を更に備え、
上記制御部は、上記音声出力部から、上記ナビゲーション情報取得部で取得したナビゲーション情報又は上記位置検出部で検出した現在位置情報に基づいた音声出力を実行させる動作に関して、上記画像解析部で生成された顔特徴データに対応して上記メモリ部から読み出したユーザー情報に基づいて、音声出力内容を制御することを特徴とする請求項1に記載の車載用電子機器。
The in-vehicle electronic device is an in-vehicle navigation device,
An audio output unit;
A navigation information acquisition unit for acquiring navigation information;
A position detector for detecting current position information;
Further comprising
The control unit is generated by the image analysis unit with respect to an operation for executing audio output based on the navigation information acquired by the navigation information acquisition unit or the current position information detected by the position detection unit from the audio output unit. The in-vehicle electronic device according to claim 1, wherein the audio output content is controlled based on user information read from the memory unit corresponding to the face feature data.
上記車載用電子機器は車載用のオーディオ再生装置であって、
オーディオソースから供給されるオーディオ信号について信号処理を行うオーディオ信号処理部と、
上記オーディオ信号処理部で信号処理されたオーディオ信号を1又は複数のスピーカに供給するオーディオ出力処理部と、
を更に備え、
上記制御部は、上記画像解析部で生成された顔特徴データに対応して上記メモリ部から読み出したユーザー情報に基づいて、上記オーディオ信号処理部での信号処理を制御することを特徴とする請求項1に記載の車載用電子機器。
The in-vehicle electronic device is an in-vehicle audio playback device,
An audio signal processing unit that performs signal processing on an audio signal supplied from an audio source;
An audio output processing unit for supplying the audio signal processed by the audio signal processing unit to one or a plurality of speakers;
Further comprising
The control unit controls signal processing in the audio signal processing unit based on user information read from the memory unit corresponding to face feature data generated by the image analysis unit. Item 2. The vehicle-mounted electronic device according to Item 1.
上記車載用電子機器は車載用のオーディオ再生装置であって、
複数のオーディオソースからのオーディオ信号を選択する選択部と、
上記選択部で選択されたオーディオ信号を1又は複数のスピーカに供給するオーディオ出力処理部と、
を更に備え、
上記制御部は、上記画像解析部で生成された顔特徴データに対応して上記メモリ部から読み出したユーザー情報に基づいて、上記選択部でのオーディオ信号の選択動作を制御することを特徴とする請求項1に記載の車載用電子機器。
The in-vehicle electronic device is an in-vehicle audio playback device,
A selector for selecting audio signals from multiple audio sources;
An audio output processing unit for supplying the audio signal selected by the selection unit to one or a plurality of speakers;
Further comprising
The control unit controls an audio signal selection operation in the selection unit based on user information read from the memory unit corresponding to the facial feature data generated in the image analysis unit. The in-vehicle electronic device according to claim 1.
上記画像解析部が生成する上記顔特徴データは、顔の構成要素の相対位置情報であることを特徴とする請求項1に記載の車載用電子機器。   The in-vehicle electronic device according to claim 1, wherein the face feature data generated by the image analysis unit is relative position information of face components. 上記ユーザー情報を入力する入力部を更に備え、
上記制御部は、上記入力部により入力されたユーザー情報を、上記画像解析部で生成された顔特徴データに対応させて、上記メモリ部に記憶させることを特徴とする請求項1に記載の車載用電子機器。
An input unit for inputting the user information;
The in-vehicle unit according to claim 1, wherein the control unit stores the user information input by the input unit in the memory unit in association with the facial feature data generated by the image analysis unit. Electronic equipment.
操作入力部を更に備え、
上記制御部は、上記操作入力部を用いた操作内容、もしくは操作内容の履歴によりユーザー情報を生成し、上記画像解析部で生成された顔特徴データに対応させて、上記メモリ部に記憶させることを特徴とする請求項1に記載の車載用電子機器。
An operation input unit is further provided,
The control unit generates user information based on an operation content using the operation input unit or a history of the operation content, and stores the user information in the memory unit in association with the facial feature data generated by the image analysis unit. The vehicle-mounted electronic device according to claim 1.
車内の人物を撮像できるように配置された撮像部と、
上記撮像部で撮像された画像データを解析し、撮像された人物の顔特徴データを生成する画像解析部と、
顔特徴データに対応したユーザー情報を記憶するメモリ部と、
を備えた車載用電子機器の動作制御方法として、
上記画像解析部で顔特徴データを生成するステップと、
上記メモリ部から、上記顔特徴データに対応するユーザー情報を読み出すステップと、
読み出したユーザー情報に基づいて動作制御を実行するステップと、
を備えたことを特徴とする車載用電子機器の動作制御方法。
An imaging unit arranged to image a person in the vehicle;
An image analysis unit that analyzes the image data captured by the imaging unit and generates facial feature data of the captured person;
A memory unit for storing user information corresponding to the facial feature data;
As an operation control method for an in-vehicle electronic device equipped with
Generating facial feature data in the image analysis unit;
Reading user information corresponding to the facial feature data from the memory unit;
Executing operation control based on the read user information;
An operation control method for an on-vehicle electronic device, comprising:
JP2006078392A 2006-03-22 2006-03-22 On-vehicle electronic device, and operation control method of same Pending JP2007255971A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006078392A JP2007255971A (en) 2006-03-22 2006-03-22 On-vehicle electronic device, and operation control method of same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006078392A JP2007255971A (en) 2006-03-22 2006-03-22 On-vehicle electronic device, and operation control method of same

Publications (1)

Publication Number Publication Date
JP2007255971A true JP2007255971A (en) 2007-10-04

Family

ID=38630379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006078392A Pending JP2007255971A (en) 2006-03-22 2006-03-22 On-vehicle electronic device, and operation control method of same

Country Status (1)

Country Link
JP (1) JP2007255971A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118033A (en) * 2007-11-05 2009-05-28 Nec Access Technica Ltd Remote control device, remote control method, program for control and recording medium
JP2009113725A (en) * 2007-11-08 2009-05-28 Pioneer Electronic Corp Device, method and program for controlling instrument, and recording medium
JP2010203982A (en) * 2009-03-04 2010-09-16 Denso Corp Navigation apparatus
JPWO2009107202A1 (en) * 2008-02-26 2011-06-30 パイオニア株式会社 Acoustic signal processing apparatus and acoustic signal processing method
JPWO2009107227A1 (en) * 2008-02-29 2011-06-30 パイオニア株式会社 Acoustic signal processing apparatus and acoustic signal processing method
JP2011198259A (en) * 2010-03-23 2011-10-06 Sony Corp Electronic device and information processing program
JP2014155440A (en) * 2013-02-14 2014-08-28 Mitsubishi Agricultural Machinery Co Ltd Voice assist device for working vehicle
JP2016034773A (en) * 2014-08-01 2016-03-17 株式会社 ミックウェア Equipment control device, seat system of movable body, mirror system of the movable body, navigation device, audio device, equipment control method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118033A (en) * 2007-11-05 2009-05-28 Nec Access Technica Ltd Remote control device, remote control method, program for control and recording medium
JP2009113725A (en) * 2007-11-08 2009-05-28 Pioneer Electronic Corp Device, method and program for controlling instrument, and recording medium
JPWO2009107202A1 (en) * 2008-02-26 2011-06-30 パイオニア株式会社 Acoustic signal processing apparatus and acoustic signal processing method
JPWO2009107227A1 (en) * 2008-02-29 2011-06-30 パイオニア株式会社 Acoustic signal processing apparatus and acoustic signal processing method
JP2010203982A (en) * 2009-03-04 2010-09-16 Denso Corp Navigation apparatus
JP2011198259A (en) * 2010-03-23 2011-10-06 Sony Corp Electronic device and information processing program
US10038870B2 (en) 2010-03-23 2018-07-31 Saturn Licensing Llc Electronic device and information processing program
JP2014155440A (en) * 2013-02-14 2014-08-28 Mitsubishi Agricultural Machinery Co Ltd Voice assist device for working vehicle
JP2016034773A (en) * 2014-08-01 2016-03-17 株式会社 ミックウェア Equipment control device, seat system of movable body, mirror system of the movable body, navigation device, audio device, equipment control method, and program

Similar Documents

Publication Publication Date Title
JP2007255971A (en) On-vehicle electronic device, and operation control method of same
JP4502351B2 (en) Control apparatus and control method for mobile electronic system, mobile electronic system, and computer program
JP4533897B2 (en) PROCESS CONTROL DEVICE, ITS PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP4421789B2 (en) Control device and control method for mobile electronic system, mobile electronic system, and computer program
JP2008052408A (en) Electronic device and method for controlling operation of electronic device
JP3907994B2 (en) Guide route search method and navigation device
US20100110314A1 (en) On-Vehicle Electronic Apparatus, Movie Reproduction Method, and Movie Reproduction Program
JPWO2006082886A1 (en) Image editing apparatus, image editing method, image editing program, and computer-readable recording medium
CN101713659B (en) Navigation device
JP2010013054A (en) On-vehicle electronic device, media source selection method, and media source selection program
JP2013118521A (en) Vehicular device and music acquisition system
JP2005145322A (en) Car-mounted audio device
JP4122947B2 (en) Music information distribution device
JP3153846B2 (en) Topic providing device
JP2010032533A (en) Controller and control method of electronic system for mobile objects, electronic system for mobile objects, and computer program
JP2002139335A (en) Navigation device
JP2006190206A (en) Processor, and its method, its program and its program recording medium
JP5610680B2 (en) Navigation device and display method
JP2010283712A (en) On-vehicle device for reproducing music, and method of reproducing music of the same
JP4619744B2 (en) Car navigation system
JP2009134539A (en) Information management server, mobile terminal device, information management method, information reception method, information management program, information reception program, and recording medium
WO2007043464A1 (en) Output control device, output control method, output control program, and computer-readable recording medium
JP2009089235A (en) Parental control system
WO2007020808A1 (en) Content providing device, content providing method, content providing program, and computer readable recording medium
JP2017157070A (en) Search device, search method, search program and record medium, and navigation device