JP6385624B2 - 車載情報処理装置、車載装置および車載情報処理方法 - Google Patents
車載情報処理装置、車載装置および車載情報処理方法 Download PDFInfo
- Publication number
- JP6385624B2 JP6385624B2 JP2018522222A JP2018522222A JP6385624B2 JP 6385624 B2 JP6385624 B2 JP 6385624B2 JP 2018522222 A JP2018522222 A JP 2018522222A JP 2018522222 A JP2018522222 A JP 2018522222A JP 6385624 B2 JP6385624 B2 JP 6385624B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- operator
- information
- control unit
- input operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 70
- 238000003672 processing method Methods 0.000 title claims 2
- 238000001514 detection method Methods 0.000 claims description 109
- 238000000034 method Methods 0.000 claims description 41
- 239000000284 extract Substances 0.000 claims description 18
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/21—Voice
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Mechanical Engineering (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Transportation (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
Description
一方、運転者は手動操作が制限されている場合でも、ナビゲーション機器に搭載された音声認識機能を用いて、運転者は音声操作によりナビゲーション機器またはオーディオ機器等を操作することも可能である。しかし、この場合、運転者がタッチパネル付きディスプレイに指を近づけることにより、ナビゲーション装置またはオーディオ機器に対して操作を行う意図を明示しているにも関わらず、再度ハンドル等に設置されている発話開始ボタン等を押下する必要があるという課題があった。
実施の形態1.
図1は、実施の形態1に係る車載情報処理装置の構成を示すブロック図である。
車載情報処理装置100は、検知情報取得部101、車両情報取得部102、制御部103、特定処理部104および特定データベース105を備えて構成される。また、図1に示すように、車載情報処理装置100は、タッチパネル200、車載装置300、表示装置400、スピーカ500、マイク600および音声認識装置700と接続されている。
図1の例では、検知情報取得部101がタッチパネル200から検知情報を取得する例を示したが、タッチパッド等から検知情報を取得するように構成してもよい。
なお、制御部103のより詳細な制御内容については後述する。
具体的には、車両が右ハンドルの場合を例に説明すると、特定処理部104は、抽出された入力動作を行ったの物体の特徴量と、特定データベース105に格納された左手で入力動作を行った場合に想定される左手の形状の特徴量との一致度が閾値以上である場合には、操作者は運転者であると特定する。また、特定処理部104は、抽出された入力動作時の物体の特徴量と、特定データベース105に格納された右手で入力動作を行った場合に想定される右手の形状の特徴量との一致度が閾値以上である場合には、操作者は同乗者であると特定する。
なお、車両が左ハンドルの場合には、特定データベース105に、運転者と右手の形状の特徴量等とを対応付け、同乗者と左手の形状の特徴量等とを対応付けて記憶させればよい。
なお、表示装置400とタッチパネル200とを一体化し、タッチパネル200への入力を、表示装置400に表示された情報を選択する操作として受け付ける構成としてもよい。
図2は、実施の形態1に係る車載情報処理装置100のハードウェア構成例を示す図である。
車載情報処理装置100における検知情報取得部101、車両情報取得部102、制御部103および特定処理部104は、処理回路により実現される。すなわち、検知情報取得部101、車両情報取得部102、制御部103および特定処理部104は、入力動作の検知情報から物体の特徴点を抽出して、操作者が運転者であるか同乗者であるかの特定を行い、運転者であった場合に音声認識処理の開始を指示する処理回路を備える。
メモリ120は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
以下では、車両の走行状態および操作者の特定結果に応じて、3つに場合分けを行って説明する。
(1−1)車両が停車または駐車している場合
制御部103は、車両情報取得部102から取得した車両の走行状態を参照し、車速が「0」、またはパーキングブレーキがONである場合に、車両が停車または駐車していると判断する。
制御部103は、検知情報取得部101が取得した検知情報に記載された、入力動作が検知された位置または範囲を示す情報を、車載装置300に出力する。
車載装置300は、入力された位置または範囲を示す情報に基づいて、操作者の操作を特定し、特定した操作に対応する処理を実行する。
制御部103は、車両情報取得部102から取得した車両の走行状態を参照し、予め設定された車速以上の状態が、所定の時間継続している場合に、車両が走行中であると判断する。ここで、予め設定された車速とは、例えば時速5km等である。また所定の時間とは、例えば3秒等である。
さらに、制御部103は、特定処理部104から入力された操作者の特定結果を参照し、操作者が同乗者であると判定した場合に、検知情報取得部101が取得した検知情報に記載された、入力動作が検知された位置または範囲を示す情報を、車載装置300に出力する。即ち、制御部103は、タッチパネル200を介した操作者の操作を受け付ける。
車載装置300は、入力された位置または範囲を示す情報に基づいて、操作者の操作を特定し、特定した操作に対応する処理を実行する。
制御部103は、車両情報取得部102から取得した車両の走行状態を参照し、予め設定された車速以上の状態が、所定の時間継続している場合に、車両が走行中であると判断する。
さらに、制御部103は、特定処理部104から入力された操作者の特定結果を参照し、操作者が運転者であると判定した場合に、音声認識装置700に対して音声認識処理の開始を指示する制御情報を出力する。即ち、制御部103は、タッチパネル200を介した操作者の操作を受け付けず、音声認識処理へ移行させる。
車載装置300は、音声認識装置700から入力される音声認識結果に基づいて、操作者の操作を特定し、特定した操作に対応する処理を実行する。
図3は、実施の形態1に係る車載情報処理装置100の動作を示すフローチャートである。
車載情報処理装置100が起動されると、車載情報処理装置100の設定値が初期化される(ステップST1)。次に、検知情報取得部101は、物体がタッチパネル200に近接または接触したことを示す入力動作の検知情報を取得したか否か判定を行う(ステップST2)。入力動作の検知情報を取得していない場合(ステップST2;NO)、ステップST2の判定処理を繰り返す。
図4は、実施の形態1に係る車載情報処理装置100の制御部103による音声認識処理の開始が指示された後の表示例を示している。
表示装置400の画面401には、音声入力を受け付けていることを通知するアイコン402またはメッセージ403の少なくとも一方が表示される。運転者は、アイコン402またはメッセージ403に従って発話を行う。
上述した実施の形態2では、タッチパネル200を介して入力された入力動作の操作者を、タッチパネル200から入力される検知情報を用いて特定する構成を示したが、この実施の形態2では、赤外線カメラの撮像画像から得られる検知情報を用いて操作者の特定を行う構成を示す。
図5は、実施の形態2に係る車載情報処理装置100aの構成を示すブロック図である。
実施の形態2の車載情報処理装置100aの検知情報取得部101aは、タッチパネル200およびハードウェアスイッチ(以下、H/Wスイッチという)201から検知情報を取得し、赤外線カメラ202から撮像画像を取得する。なお、以下では、実施の形態1に係る車載情報処理装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。また、検知情報取得部101aは、タッチパネル200およびH/Wスイッチ201以外にも、タッチパッド等から検知情報を取得してもよい。
赤外線カメラ202は、操作者が入力動作を行う領域を撮影し、検知情報取得部101aに対して撮像画像を出力する。赤外線カメラ202は、例えばタッチパネル200の上部、ダッシュボードに嵌め込まれた車載装置300の上部、または表示装置400の上部等に設置される。赤外線カメラ202は、操作者が入力動作を行う領域を撮影することができるように、広範囲の領域を撮像可能に構成する。具体的には、赤外線カメラ202は、タッチパネル200、H/Wスイッチ201またはタッチパッド等を撮影可能に複数台配置される、高画角のカメラが適用される。
また、赤外線カメラ202がタッチパネル200またはH/Wスイッチ201を撮像可能な位置に配置される場合には、検知情報取得部101aは、赤外線カメラ202の撮像画像内にタッチパネル200またはH/Wスイッチ201の配置位置に相当する領域を記憶しておき、当該領域の撮像画像において所定の輝度以上が所定時間以上検出されたか判断する。
ここで、制御部103が抽出する入力動作時の物体の特徴量とは、例えば、操作者の手および指の形状、操作者の手および指の形状と操作者の腕の到来方向の組み合わせ、操作者の人差し指の頂点と操作者の手および指の形状の組み合わせ、操作者の人差し指の頂点と操作者の手および指の形状と操作者の腕の到来方向の組み合わせ等である。なお、上述した特徴量は一例であり、操作者の入力動作を特定可能な情報であれば、特徴量として用いることができる。
制御部103は、赤外線カメラ202からの撮像画像を検知情報として取得することにより、手および指の形状の検知に加えて、腕の到来方向を特徴量として抽出することができる。
制御部103は、操作者の手の形状から特徴量を抽出する場合、検知情報である撮像画像の解析を行い、輝度値が所定値以上である領域の特徴量を抽出する。撮像画像の輝度値を0から254の255段階で示した場合に、制御部103は、輝度値が例えば150以上の値を示す領域を抽出し、この領域から手および指の輪郭の形状、または各指の頂点の位置を特徴量として抽出する。
この場合、特定データベース105には、物体の特徴量として、手の形状および腕部の到来方向などが格納されている。
特定処理部104は、運転者であるかの特定において、手の形状に加えて腕の到来方向を用いた照合を行うことにより、操作者を特定する際の精度を向上させることができる。
図6は、実施の形態2に係る車載情報処理装置100aの動作を示すフローチャートである。
なお、以下では、実施の形態1に係る車載情報処理装置100と同一のステップには図3で使用した符号と同一の符号を付し、説明を省略または簡略化する。
検知情報取得部101aは、物体がタッチパネル200に近接または接触したこと、または物体がH/Wスイッチ201を押下したことを示す入力動作の検知情報を取得したか否か判定を行う(ステップST2)。入力動作の検知情報を取得していない場合(ステップST2;NO)、ステップST2の判定処理を繰り返す。
この実施の形態3では、車両の走行開始を予測し、予測結果を用いて音声認識処理を開始するかを判定する構成を示す。
図7は、実施の形態3に係る車載情報処理装置100bの構成を示すブロック図である。実施の形態3の車載情報処理装置100bは、走行予測部106を追加して備え、制御部103を制御部103aに置き換えて構成している。なお、以下では、実施の形態1に係る車載情報処理装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
走行予測部106は、取得した前方車両の撮像画像または信号の灯火情報等の少なくとも1つの情報から、自車両の走行開始を予測する。走行予測部106は、例えば前方車両の撮像画像を参照し、前方車両のブレーキランプが点灯状態から消灯状態に変わった場合に、自車両の走行が開始されると予測する。また、走行予測部106は、信号の灯火情報を参照し、所定時間(例えば、3秒など)経過後に青信号に変わる場合に、自車両の走行が開始されると予測する。走行予測部106は、予測結果を制御部103aに出力する。
なお、前方車両の撮像画像および信号の灯火情報以外にも、自車両の走行開始を予測することが可能な情報があれば、その情報を参照して自車両の走行開始を予測することが可能である。
図8は、実施の形態3に係る車載情報処理装置100bの動作を示すフローチャートである。
なお、以下では、実施の形態1に係る車載情報処理装置100と同一のステップには図3で使用した符号と同一の符号を付し、説明を省略または簡略化する。
ステップST3において制御部103aは車両が走行中でないと判定した場合に(ステップST3;NO)、制御部103aはさらに走行予測部106の予測結果を参照し、車両の走行開始が予測されているか判定を行う(ステップST21)。車両の走行開始が予測されている場合(ステップST21;YES)、制御部103aは車両が走行中であるとみなし、ステップST4の処理に進む。一方、車両の走行開始が予測されていない場合(ステップST21;NO)、制御部103aは車両が走行中でないと判断してステップST8の処理に進む。
図9は、サーバ装置803を備え、当該サーバ装置803から自車両の走行開始の予測結果を車載情報処理装置100bの制御部103aに入力する構成を示している。車載情報処理装置100bは、サーバ装置803に対して自車両の位置情報等を送信する。サーバ装置803は、格納している信号機の灯火情報と、車載情報処理装置100bから送信された自車両の位置情報等とから、自車両の走行開始を予測し、予測結果を車載情報処理装置100bに送信する。
図10で示した検知情報取得部101、車両情報取得部102、制御部103、特定処理部104、特定データベース105、音声情報取得部701および音声認識部702は、実施の形態1で示した構成要素と同一であるため、同一の符号を付して説明を省略する。
スピーカ500は、情報処理部302の制御に従い、ナビゲーション情報、オーディオ情報、ユーザに通知すべき情報を音声出力する。
Claims (9)
- 操作者の入力動作を検知したことを示す検知情報を取得する検知情報取得部と、
車両の走行状態を示す車両情報を取得する車両情報取得部と、
前記入力動作を行った操作者を特定する特定処理部と、
前記車両情報、または前記車両情報および前記特定処理部の特定結果に基づいて、前記検知情報の出力または前記操作者の音声を認識する音声認識処理の開始を制御する制御部とを備え、
前記検知情報は、操作者の入力動作を撮像した撮像画像であり、
前記制御部は、前記車両情報から前記車両が走行中であると判断した場合に、前記操作者の入力動作を撮像した撮像画像から前記操作者の特徴量を抽出し、
前記特定処理部は、前記制御部が抽出した前記操作者の特徴量の照合を行い、前記操作者が運転者であるかの特定を行うことを特徴とする車載情報処理装置。 - 前記制御部は、前記特定処理部が、前記操作者が運転者であると特定した場合に、前記音声認識処理の開始を制御することを特徴とする請求項1記載の車載情報処理装置。
- 前記制御部は、前記特定処理部が、前記操作者が運転者でないと特定した場合に、前記検知情報の出力を制御することを特徴とする請求項1記載の車載情報処理装置。
- 前記制御部は、前記車両情報から前記車両が走行中でないと判断した場合に、前記検知情報の出力を制御することを特徴とする請求項1記載の車載情報処理装置。
- 前記制御部が前記車両情報から走行中でないと判断した前記車両の走行開始を予測する走行予測部を備え、
前記制御部は、前記走行予測部が走行を開始すると予測した前記車両を、走行中であるとみなすことを特徴とする請求項1記載の車載情報処理装置。 - 前記走行予測部は、前記車両の前方を走行する車両を撮像した撮像画像、または信号機の灯火情報の少なくとも一方を用いて前記車両の走行開始を予測することを特徴とする請求項5記載の車載情報処理装置。
- 前記制御部は、信号機の灯火情報に基づいて、前記車両が走行を開始するかを予測した情報を外部サーバから取得することを特徴とする請求項5記載の車載情報処理装置。
- 操作者の入力動作を検知したことを示す検知情報を取得する検知情報取得部と、
車両の走行状態を示す車両情報を取得する車両情報取得部と、
前記入力動作を行った操作者を特定する特定処理部と、
前記車両情報、または前記車両情報および前記特定処理部の特定結果に基づいて、前記検知情報の出力または前記操作者の音声を認識する音声認識処理の開始を制御する制御部と、
前記制御部の制御に基づいて前記操作者の発話音声の音声認識を行う音声認識処理部と、
前記制御部の制御および前記音声認識処理部の音声認識結果に基づいて情報の処理および情報の提示を行い、前記音声認識処理部による音声認識処理が開始されると、前記音声認識処理の開始を通知する情報の提示を行う情報処理部とを備え、
前記検知情報は、操作者の入力動作を撮像した撮像画像であり、
前記制御部は、前記車両情報から前記車両が走行中であると判断した場合に、前記操作者の入力動作を撮像した撮像画像から前記操作者の特徴量を抽出し、
前記特定処理部は、前記制御部が抽出した前記操作者の特徴量の照合を行い、前記操作者が運転者であるかの特定を行うことを特徴とする車載装置。 - 検知情報取得部が、操作者の入力動作を検知したことを示す検知情報を取得するステップと、
車両情報取得部が、車両の走行状態を示す車両情報を取得するステップと、
制御部が、前記車両情報から前記車両が走行中であるかを判断するステップと、
特定処理部が、前記車両が走行中であると判断された場合に、前記入力動作を行った操作者を特定するステップと、
前記制御部が、前記車両情報、または前記車両情報および前記操作者を特定した特定結果に基づいて、前記検知情報の出力または前記操作者の音声を認識する音声認識処理の開始を制御するステップとを備え、
前記検知情報は、操作者の入力動作を撮像した撮像画像であり、
前記制御部は、前記車両情報から前記車両が走行中であると判断した場合に、前記操作者の入力動作を撮像した撮像画像から前記操作者の特徴量を抽出し、
前記特定処理部は、前記制御部が抽出した前記操作者の特徴量の照合を行い、前記操作者が運転者であるかの特定を行うことを特徴とする車載情報処理方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/067052 WO2017212569A1 (ja) | 2016-06-08 | 2016-06-08 | 車載情報処理装置、車載装置および車載情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6385624B2 true JP6385624B2 (ja) | 2018-09-05 |
JPWO2017212569A1 JPWO2017212569A1 (ja) | 2018-10-11 |
Family
ID=60577709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018522222A Expired - Fee Related JP6385624B2 (ja) | 2016-06-08 | 2016-06-08 | 車載情報処理装置、車載装置および車載情報処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190147261A1 (ja) |
JP (1) | JP6385624B2 (ja) |
CN (1) | CN109313040A (ja) |
DE (1) | DE112016006824B4 (ja) |
WO (1) | WO2017212569A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020111289A (ja) * | 2019-01-16 | 2020-07-27 | 本田技研工業株式会社 | 車両用入力装置 |
CN113918112A (zh) * | 2021-10-12 | 2022-01-11 | 上海仙塔智能科技有限公司 | Hud的显示处理方法、装置、电子设备与存储介质 |
US20230316782A1 (en) * | 2022-03-31 | 2023-10-05 | Veoneer Us Llc | Driver monitoring systems and methods with indirect light source and camera |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007001342A (ja) * | 2005-06-21 | 2007-01-11 | Denso Corp | 映像表示装置 |
JP2012032879A (ja) * | 2010-07-28 | 2012-02-16 | Nissan Motor Co Ltd | 入力操作装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1811341A (zh) * | 2005-01-27 | 2006-08-02 | 乐金电子(惠州)有限公司 | 车载导航装置及其工作方法 |
JP2007302223A (ja) * | 2006-04-12 | 2007-11-22 | Hitachi Ltd | 車載装置の非接触入力操作装置 |
US8249627B2 (en) * | 2009-12-21 | 2012-08-21 | Julia Olincy | “I am driving/busy” automatic response system for mobile phones |
US9648107B1 (en) * | 2011-04-22 | 2017-05-09 | Angel A. Penilla | Methods and cloud systems for using connected object state data for informing and alerting connected vehicle drivers of state changes |
US9113230B2 (en) * | 2011-12-21 | 2015-08-18 | Sony Corporation | Method, computer program, and reception apparatus for delivery of supplemental content |
US8914014B2 (en) * | 2012-02-12 | 2014-12-16 | Joel Vidal | Phone that prevents concurrent texting and driving |
KR101972089B1 (ko) * | 2012-05-15 | 2019-04-24 | 엘지전자 주식회사 | 정보 제공 방법 및 그 장치 |
DE112012006617B4 (de) * | 2012-06-25 | 2023-09-28 | Hyundai Motor Company | Bord-Informationsvorrichtung |
JP6537780B2 (ja) * | 2014-04-09 | 2019-07-03 | 日立オートモティブシステムズ株式会社 | 走行制御装置、車載用表示装置、及び走行制御システム |
KR101659027B1 (ko) * | 2014-05-15 | 2016-09-23 | 엘지전자 주식회사 | 이동 단말기 및 차량 제어 장치 |
KR20160090047A (ko) * | 2015-01-21 | 2016-07-29 | 현대자동차주식회사 | 차량, 차량의 제어 방법 및 차량에 포함되는 동작 인식 장치 |
US20180270344A1 (en) * | 2015-03-19 | 2018-09-20 | Mitsubishi Electric Corporation | Unconfirmed-information output apparatus, and unconfirmed-information output method |
CN107031403A (zh) * | 2015-09-30 | 2017-08-11 | 法拉第未来公司 | 可编程车载接口 |
-
2016
- 2016-06-08 CN CN201680086397.8A patent/CN109313040A/zh not_active Withdrawn
- 2016-06-08 JP JP2018522222A patent/JP6385624B2/ja not_active Expired - Fee Related
- 2016-06-08 US US16/300,142 patent/US20190147261A1/en not_active Abandoned
- 2016-06-08 DE DE112016006824.7T patent/DE112016006824B4/de not_active Expired - Fee Related
- 2016-06-08 WO PCT/JP2016/067052 patent/WO2017212569A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007001342A (ja) * | 2005-06-21 | 2007-01-11 | Denso Corp | 映像表示装置 |
JP2012032879A (ja) * | 2010-07-28 | 2012-02-16 | Nissan Motor Co Ltd | 入力操作装置 |
Also Published As
Publication number | Publication date |
---|---|
DE112016006824T5 (de) | 2019-02-07 |
CN109313040A (zh) | 2019-02-05 |
WO2017212569A1 (ja) | 2017-12-14 |
US20190147261A1 (en) | 2019-05-16 |
DE112016006824B4 (de) | 2020-10-29 |
JPWO2017212569A1 (ja) | 2018-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2862125B1 (en) | Depth based context identification | |
US9753459B2 (en) | Method for operating a motor vehicle | |
US10710457B2 (en) | Gesture and facial expressions control for a vehicle | |
US9656690B2 (en) | System and method for using gestures in autonomous parking | |
KR101537936B1 (ko) | 차량 및 그 제어방법 | |
JP6584731B2 (ja) | ジェスチャ操作装置及びジェスチャ操作方法 | |
CN108698550B (zh) | 停车辅助装置 | |
CN108399044B (zh) | 用户界面、运输工具和用于区分用户的方法 | |
US11118934B2 (en) | Method and system of route guidance for a towing vehicle | |
KR101490908B1 (ko) | 차량 내 손모양 궤적 인식을 이용한 사용자 인터페이스 조작 시스템 및 방법 | |
JP6604151B2 (ja) | 音声認識制御システム | |
JP2017090613A (ja) | 音声認識制御システム | |
CN110520915B (zh) | 通知控制装置及通知控制方法 | |
JP6385624B2 (ja) | 車載情報処理装置、車載装置および車載情報処理方法 | |
JP2017090614A (ja) | 音声認識制御システム | |
JP2006208460A (ja) | 音声認識型機器制御装置および車両 | |
JP2008309966A (ja) | 音声入力処理装置および音声入力処理方法 | |
JP5136948B2 (ja) | 車両用操作装置 | |
JP6524510B1 (ja) | 自動運転車 | |
KR20140079025A (ko) | 차량 내 다리 제스처 인식을 이용한 사용자 인터페이스 조작 방법 | |
CN111511599A (zh) | 用于运行辅助系统的方法和汽车用辅助系统 | |
JP2018158701A (ja) | 自動駐車制御方法およびそれを利用した自動駐車制御装置、プログラム | |
WO2017017938A1 (ja) | ジェスチャ操作システム、方法およびプログラム | |
KR20190071104A (ko) | 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법 | |
KR20130076214A (ko) | 운전자의 포인팅 제스처를 이용한 차량 구동 장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180523 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180523 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180523 |
|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180702 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180710 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180807 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6385624 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |