JP4942814B2 - 車両用操作装置 - Google Patents

車両用操作装置 Download PDF

Info

Publication number
JP4942814B2
JP4942814B2 JP2009517692A JP2009517692A JP4942814B2 JP 4942814 B2 JP4942814 B2 JP 4942814B2 JP 2009517692 A JP2009517692 A JP 2009517692A JP 2009517692 A JP2009517692 A JP 2009517692A JP 4942814 B2 JP4942814 B2 JP 4942814B2
Authority
JP
Japan
Prior art keywords
unit
voice
recognition
image
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009517692A
Other languages
English (en)
Other versions
JPWO2008149482A1 (ja
Inventor
玲子 岡田
清志 松谷
篤 河野
史尚 佐藤
裕太 川名
航 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009517692A priority Critical patent/JP4942814B2/ja
Publication of JPWO2008149482A1 publication Critical patent/JPWO2008149482A1/ja
Application granted granted Critical
Publication of JP4942814B2 publication Critical patent/JP4942814B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Description

この発明は、車両または車載機器を操作するための車両用操作装置に関し、特に操作性を向上させる技術に関する。
従来、車両を運転中に負荷なく車両または車載機器を操作する方法として、声だけで操作を行う音声操作が知られている。この音声操作を用いれば、周辺検索または楽曲検索などといった操作が可能になる。例えば、「近くのレストラン」などのような発話を行うことにより、近くのレストランが検索され、検索結果が候補として出力されるので、ユーザは候補の中から所望のレストランを選ぶという操作が可能となっている。
ところが、検索結果として得られた候補の中から所望の1つを選ぶ操作を音声操作で行うためには、候補を1つずつ確認し、決定する操作をする必要がある。したがって、何度も発話操作が必要であったり、直感的な操作ができなかったりするため、煩わしいという問題があった。また、音声操作では、音声認識の結果は、例えばナビゲーション装置のモニタに表示されるので、操作者はモニタを見て確認する必要がある。したがって、視線移動が発生するので、運転中には使い勝手が悪いという問題があった。
また、音声操作の煩わしさを低減するために、リモートコントローラ(以下、「リモコン」という)による操作またはタッチパネルによる操作を併用できるようにしたマルチモーダルが行われるようになってきているが、リモコンの場合は、決められた数のキーの中で可能となる操作数には限りが生じ、また、キーの数が多いと操作が難しくなり、各キーに割り当てられている操作がわかりにくく、直感的な操作ができないという問題があった。また、タッチパネルの場合は、モニタに触れる操作であることから必然的にモニタを見る必要が生じ、視線移動が発生するため、運転中の操作としては使い勝手が悪いという問題があった。
このような問題を解消するための、特許文献1は、音声操作に代わり、空間操作を用いることによって、運転姿勢を維持したままで車載用機器を操作可能にした情報入力装置を開示している。この情報入力装置において、ドライバは、仮想空間の範囲に入るように手を挙げ、閉じた状態から手を開いた状態とする。この手の動きはカメラで撮像され、その画像と位置が所定のものに該当するときは、入力可能なスタンバイ状態となる。続いてドライバは、仮想空間内の複数のメニュー空間のうちのいずれか選択したいものを手で掴む。この動作は同様にカメラで撮像され、手の動きや位置が認識され、手がいずれのメニュー空間を掴んだかが判定される。判定結果はナビゲーション装置に供給される。また、判定結果は、音声でドライバにコールバックされる。
また、特許文献2は、音声認識と空間操作の組合せにより機器の操作を可能にした車載機器用インタフェースを開示している。この車載機器用インタフェースは、操作者の発話に基づく入力音声と、音声辞書に登録された指示代名詞とで特徴データが一致し、且つ、予め設定された許容時間内に、操作者のジェスチャ(手の形状)が、手辞書に登録された登録パターンと一致したことが確認されると、一致した登録パターンに対応づけられた車載機器を対象機器として特定すると共に、その対象機器の動作状態を取得する。そして、取得した動作状態を、他の動作状態に切り替えるための制御コマンドを作成し、その制御コマンドを対象機器に送信する。つまり、動作状態を切り替えるべき対象機器を、音声(指示代名詞)とジェスチャ(指差し)との組み合わせによって特定する。
特開2000−75991号公報 特開2005−178473号公報
しかしながら、上述した特許文献1に開示された技術では、空間操作のためのメニューはナビゲーション装置のモニタに表示されており、操作者は、実際には何も存在しない空間内で仮想的にメニューがあるという想定のもと、音声コールバックを頼りに操作しなければならず、直感的な操作ができない。また、操作者がメニュー表示を確認するためには、ナビゲーション装置のモニタを見る必要があるので視線移動が発生し、走行中の操作としては問題がある。また、この技術では、音声操作は用いず、空間操作だけで全てを操作するため、検索のような階層が深い操作の場合には空間操作で選択する手順が数多く発生するという問題がある。
また、特許文献2に開示された技術では、音声操作は、「これ」などの指示代名詞の発話を単に空間操作のトリガとして使用するだけであり、検索などのような様々な語彙を認識するものではない。また、この技術では、空間操作で機器を指差すことにより操作対象機器を特定して操作し、モニタなどの表示部も備えていないため、指差しした機器のON/OFFのような単純操作しかできない。
この発明は、上述した問題を解消するためになされたものであり、その課題は、運転中でも運転姿勢を崩さず、視線移動を生じずに、直感的で負荷がなく使い勝手の良い操作を可能とする車両用操作装置を提供することにある。
この発明に係る車両用操作装置は、上記課題を解決するために、発話された音声を認識して認識結果を出力する音声操作部と、空間でなされた動作を認識して認識結果を出力する空間操作部と、音声操作部から送られてくる認識結果および空間操作部から送られてくる認識結果に応じた処理を実行するメイン処理部と、メイン処理部からの指示に応じて生成した画像を、フロントガラスを介して見える実景に重畳して表示する表示部と、個人を認証する個人認証処理部を備え、メイン処理部は、音声操作部から送られてくる認識結果に応じたメニューを表示部に表示させ、該メニューから1つの項目を選択するように空間でなされた動作を認識した空間操作部から送られてくる認識結果に応じた処理を実行し、空間操作部は、個人認証処理部によって認証された個人に対して設定されている認識モードを取得し、表示部に表示された項目を選択する場合に、認識モードが相対モードである場合は、空間でなされた動作を相対位置で認識し、絶対モードである場合は、絶対位置で認識することを特徴とする
この発明に係る車両用操作装置によれば、音声操作または空間操作に応じた画像を表示部に表示し、さらに、音声操作または空間操作を用いて車両用操作装置を操作できるように構成したので、例えば、音声操作だけでは煩わしい操作になる場合であっても、フロントガラスへの重畳表示と空間操作を併用することにより、運転中でも運転姿勢を崩さず、視線移動することなく、直感的で負荷がなく使い勝手の良い操作が可能となる。また、操作者は自分の好みに応じて、より使いやすい操作を行うことができる。
この発明の実施の形態1に係る車両用操作装置の構成を示すブロック図である。 この発明の実施の形態1に係る車両用操作装置の動作を示すフローチャートである。 この発明の実施の形態1に係る車両用操作装置において、フロントガラスに重畳表示される画像の例を示す図である。 この発明の実施の形態2に係る車両用操作装置の動作を示すフローチャートである。 この発明の実施の形態3に係る車両用操作装置の動作を示すフローチャートである。 この発明の実施の形態3に係る車両用操作装置において使用される対応テーブルを示す図である。 この発明の実施の形態6に係る車両用操作装置において使用される対応テーブルを示す図である。 この発明の実施の形態7に係る車両用操作装置のメイン処理部の構成を示すブロック図である。 この発明の実施の形態7に係る車両用操作装置の動作を示すフローチャートである。 この発明の実施の形態8に係る車両用操作装置において使用されるメニューアイテムの例を示す図である。 この発明の実施の形態10に係る車両用操作装置のメイン処理部の構成を示すブロック図である。 この発明の実施の形態10に係る車両用操作装置の動作を示すフローチャートである。 この発明の実施の形態11に係る車両用操作装置のメイン処理部の構成を示すブロック図である。 この発明の実施の形態11に係る車両用操作装置の動作を示すフローチャートである。 この発明の実施の形態12に係る車両用操作装置の動作を示すフローチャートである。 この発明の実施の形態13に係る車両用操作装置の動作を示すフローチャートである。 この発明の実施の形態14に係る車両用操作装置において使用される対応テーブルを示す図である。 この発明の実施の形態14に係る車両用操作装置の動作を示すフローチャートである。
以下、この発明の実施の形態を、図面を参照しながら詳細に説明する。
実施の形態1.
図1に、この発明の実施の形態1に係る車両用操作装置の構成を示すブロック図である。この車両用操作装置は、空間操作部2、音声操作部3、メイン処理部4、表示部5および音声処理部6を備えている。
空間操作部2は、空間操作を実現するために使用される。この空間操作部2は、画像入力部21、画像検出部22、動作位置判定部23および画像認識部24を備えている。画像入力部21は、例えば操作者が行った空間操作のための動作を撮影するカメラから構成されている。この画像入力部21としてのカメラは、操作者の手元の動作を撮影し易い位置、例えばフロントパネルの下部またはフロントガラスの上部などに設置されている。この画像入力部21で撮影することにより得られた画像は、画像検出部22および動作位置判定部23に送られる。
画像検出部22は、画像入力部21から送られてくる画像から、認識に必要な画像部分を検出して抽出する。例えば、画像検出部22は、手の形状または色を検出することによって手の認識に必要な部分と判断し、画像入力部21から送られてくる画像から、手の画像部分のみを抽出する。この画像検出部22で抽出された画像は、画像認識部24に送られる。
動作位置判定部23は、誤認識を避けるために、空間内での動作位置を判定する。具体的には、動作位置判定部23は、例えば赤外線センサなどを備えており、この赤外線センサによって、動かされた手などの画像の位置を判定する。この動作位置判定部23で判定された動作位置は、画像認識部24に送られる。
画像認識部24は、画像検出部22から送られてくる画像と動作位置判定部23から送られてくる動作位置とに基づき、動作内容を認識する。例えば、画像認識部24は、画像検出部22から送られてくる画像を分析し、手の形状、動き、傾き、または、位置などにより、どのような動作が行われたかを認識し、この認識した結果をメイン処理部4に送る。
音声操作部3は、音声操作を実現するために使用される。この音声操作部3は、音声入力部31、音声認識辞書32および音声認識部33を備えている。音声入力部31は、例えば操作者が音声操作のために発話した音声を入力するマイクロフォン(以下、「マイク」と略する)から構成されている。この音声入力部31としてのマイクは、操作者が発話した音声を取り込み易い位置に設置されている。この音声入力部31から入力された音声データは、音声認識部33に送られる。
音声認識辞書32は、音声操作において認識対象とする語彙を保持する。すなわち、音声認識辞書32は、音声認識の対象とする語彙を保持したデータベースであり、複数の語彙を、例えば施設名、住所、曲名などに分類して格納した複数の辞書から構成されている。音声認識の際には、音声認識辞書32の中の1つの認識辞書をアクティブにすることにより、利用者が認識対象とする語彙を指定することができる。この音声認識辞書32に記憶されている語彙は、音声認識部33によって読み出される。
音声認識部33は、音声入力部31から入力された音声データを分析し、この分析した結果と音声認識辞書32の中のアクティブにされている認識辞書に格納されている語彙および文法とのマッチング処理を行うことにより、1つの語彙を導き出す。この音声認識部33で導き出された語彙は、認識結果として、メイン処理部4に送られる。
表示部5は、フロントガラスを介して見える実景に、メイン処理部4からの指示に応じて生成した画像を重畳して表示する。この表示部5は、表示生成部51、表示投影部52および重畳表示部53を備えている。表示生成部51は、メイン処理部4からの指示に応答して、表示投影部52において投影するための映像信号を生成する。この表示生成部51で生成された映像信号は、表示投影部52に送られる。表示投影部52は、例えばプロジェクタから構成されており、表示生成部51から送られてくる映像信号に基づき画像を生成し、重畳表示部53に投影する。
重畳表示部53は、例えば、フロントガラスから見える実景に、画像を重畳して表示することを可能にするためのスクリーンから構成されている。この重畳表示部53としてのスクリーンは、ガラスに透明フィルムを貼ったり、ガラスにフィルムまたは樹脂などを挟んだりする方法などにより構成することができる。なお、スクリーンを構成する方法として、上記以外の方法を用いることもできる。
音声処理部6は、音声ガイダンスを出力するために使用される。この音声処理部6は、音声生成部61および音声出力部62を備えている。音声生成部61は、メイン処理部4からの指示に応じて、音声信号を生成する。この音声生成部61で生成された音声信号は、音声出力部62に送られる。音声出力部62は、例えばスピーカから構成されており、音声生成部61から送られてくる音声信号にしたがって音声を発生する。
メイン処理部4は、車両用操作装置の全体を制御する。このメイン処理部4は、制御部41、状態管理部42、検索処理部43およびデータベース44を備えている。制御部41は、画像認識部24から送られてくる空間操作の認識結果、音声認識部33から送られてくる音声操作の認識結果を受け取り、車両用操作装置の全体を制御する。例えば、制御部41は、音声認識部33から送られてくる音声操作の認識結果にしたがって車両用操作装置を操作するためのメニューを表示部3に表示し、画像認識部24から送られてくる空間操作の認識結果にしたがって該メニューから選択された項目の処理(例えば、検索処理)を実行する。
状態管理部42は、操作手順における状態遷移を管理する。制御部41は、この状態管理部42で操作手順毎に管理されているデータを読み出し、この読み出したデータにしたがって状態を遷移させながら処理を進める。検索処理部43は、制御部41からの指示に応答して、例えばナビゲーション装置に保持されている車載情報で用いられる施設または音楽などをデータベース44から検索する。この検索処理部43で検索された施設または音楽などのデータは、制御部41に送られる。データベース44は、検索で用いられる施設または音楽などのデータを格納している。このデータベース44は、上述したように、検索処理部43によってアクセスされる。
次に、上記のように構成される、この発明の実施の形態1に係る車両用操作装置の動作を、音声操作および空間操作を実現する操作処理を中心に、図2に示すフローチャートを参照しながら説明する。この操作処理は、発話スイッチ(図示しない)の押下をトリガとして開始される。
操作処理においては、まず、音声認識開始処理が行われる(ステップST11)。すなわち、制御部41は、音声認識部33に対して音声認識開始命令を送る。これにより、音声認識処理が開始され、車両用操作装置は、操作者の発話による音声入力の待ち状態となる。次いで、所定時間内に音声入力があったか否かが調べられる(ステップST12)。すなわち、音声認識部33は、所定時間内に音声入力部31から音声データが送られてきたかどうかを調べる。このステップST12において、所定時間内に音声入力がないことが判断されると、操作処理は終了する。
一方、ステップST12において、所定時間内に音声入力があったことが判断されると、次いで、音声認識処理が行われる(ステップST13)。すなわち、音声認識部33は、音声入力部31から入力された音声データを分析し、分析結果と音声認識辞書32に格納されている語彙とのマッチング処理を実行することにより1つの語彙を導き出し、制御部41に送る。例えば、操作者が「近くのレストラン」と発話すると、発話された音声が音声入力部31を構成するマイクから入力され、音声認識辞書32に格納されている語彙および文法とのマッチング処理が行われる。これにより、認識結果として、1つの語彙が得られる。この認識結果として得られた語彙は、メイン処理部4の制御部41に送られる。
次いで、結果処理が行われる(ステップST14)。すなわち、制御部41は、音声認識部33から受け取った音声操作の認識結果に応じた処理を行う。例えば、音声操作の認識結果が検索を指示する内容であれば、制御部41は、その指示内容を検索処理部43に渡して検索を指示する。検索処理部43は、制御部41からの指示に応答して、データベース44を検索し、この検索により得られた情報を制御部41に渡す。例えば、「近くのレストラン」という検索が指示された場合は、データベース44に含まれる施設データベースから現在地周辺のレストラン情報が検索され、制御部41に渡される。
次いで、表示出力処理が行われる(ステップST15)。すなわち、制御部41は、音声操作の認識結果に応じて、状態管理部42から遷移すべき状態を取得し、表示する内容の生成を表示生成部51に指示する。表示生成部51は、この制御部41からの指示に応じて表示する内容を表す映像信号を生成し、表示投影部52に送る。表示投影部52は、表示生成部51から送られてくる映像信号に基づき画像を生成し、重畳表示部53に投影する。これにより、例えば図3に示すような情報がフロントガラスに、実景に重畳して表示される。
次いで、音声出力処理が行われる(ステップST16)。すなわち、音声生成部61は、制御部41からの指示に応じて、音声出力するための音声ガイダンスを生成し、音声出力部62に送る。これにより、音声出力部62から音声ガイダンスが出力される。例えば、「近くのレストラン」を検索した場合であれば、表示生成部51において、検索されたレストランの候補を3件ずつ生成してフロントガラス上に投影するとともに、検索されたレストランの候補の音声ガイダンスが行われる。
次いで、操作完了であるかどうかが調べられる(ステップST17)。すなわち、制御部41は、状態管理部42から遷移すべき状態を取得し、この遷移すべき状態が終了であるかどうかを調べる。このステップST17において、操作完了であることが判断されると、操作処理は終了する。一方、ステップST17において操作完了でないことが判断されると、画像入力待ち状態になる(ステップST18)。すなわち、制御部41は、画像認識部24に対して画像認識開始命令送る。これにより、画像認識部24は、画像入力部21から画像が入力されるのを待つ「画像入力待ち状態」に入る。
次いで、所定時間内に画像入力があったかどうかが調べられる(ステップST19)。すなわち、画像認識部24は、所定時間内に、画像入力部21から操作者が動作した画像が入力され、動作位置判定部23において動作の位置が判定されたかどうかを調べる。このステップST19において、所定時間内に画像入力がないことが判断されると、操作処理は終了する。
上記ステップST19において、所定時間内に画像入力があったことが判断されると、次いで、画像検出処理が行われる(ステップST20)。すなわち、画像検出部22は、画像入力部21から送られてくる画像から、認識に必要な手の画像部分を検出して抽出し、画像認識部24に送る。次いで、画像認識処理が行われる(ステップST21)。すなわち、画像認識部24は、画像検出部22から送られてくる画像と図示しない記憶部にあらかじめ格納されている認識パターンとのマッチング処理を行うことにより、どのような動作が行われたかを認識し、認識結果を制御部41に送る。
次いで、結果処理が行われる(ステップST22)。すなわち、制御部41は、画像認識部24から認識結果を受け取り、この受け取った認識結果に応じた処理を実行する。次いで、表示出力処理が行われる(ステップST23)。すなわち、制御部41は、認識結果に応じて、状態管理部42から遷移すべき状態を取得し、表示する内容の生成を表示生成部51に指示する。表示生成部51は、この制御部41からの指示に応じて表示する内容を表す映像信号を生成し、表示投影部52に送る。表示投影部52は、表示生成部51から送られてくる映像信号に基づき画像を生成し、重畳表示部53に投影する。これにより、認識結果が、例えば選択メニューのスクロール操作を行う動作であれば、フロントガラスに重畳して表示されている表示メニューをスクロール表示させる。
次いで、音声出力処理が行われる(ステップST24)。すなわち、音声生成部61は、制御部41からの指示に応じて、音声出力するための音声ガイダンスを生成し、音声出力部62に送る。これにより、音声出力部62から選択されたアイテムに対応する音声ガイダンスが出力される。
次いで、操作完了かどうかが調べられる(ステップST25)。すなわち、制御部41は、状態管理部42から遷移すべき状態を取得し、この遷移すべき状態が終了であるかどうかを調べる。このステップST25において、操作完了であることが判断されると、操作処理は終了する。一方、ステップST25において操作完了でないことが判断されると、シーケンスはステップST18に戻って画像入力待ち状態になり、以下、上述した処理が繰り返される。
以上説明したように、この発明の実施の形態1に係る車両用操作装置によれば、音声操作だけでは煩わしい操作になる場合であっても、フロントガラスへの重畳表示と空間操作を用いることにより、運転中でも運転姿勢を崩さず視線移動することなく、使いやすく直感的な操作を行うことが可能となる。
なお、画像認識部24において、認識される動作としては、例えば手を左右に傾ける動作でメニューのスクロール操作とみなしたり、指を曲げる動作で決定操作とみなす等があるが、これらは一例であり、これに限定されるものではない。また、手以外(例えば、顔、目、口など)を使用して操作するように構成することもできる。また、図3に示した表示例は一例であり、表示場所、表示形状または表示内容などは任意に決定することができる。
実施の形態2.
上述した実施の形態1に係る車両用操作装置においては、音声操作により空間操作の認識を開始させるように構成したのに対し、この発明の実施の形態2に係る車両用操作装置は、空間の特定位置で動作がなされたことを検出して空間操作の認識を開始するようにしたものである。この実施の形態2に係る車両用操作装置の構成は、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。
次に、実施の形態2に係る車両用操作装置の動作を、空間操作を実現する操作処理を中心に、図4に示すフローチャートを参照しながら説明する。
この車両用操作装置は、電源が投入されると、常に画像入力待ち状態になる(ステップST31)。すなわち、画像認識部24は、画像入力部21から画像が入力されるのを待つ「画像入力待ち状態」に入る。次いで、所定空間内で動作があったかどうかが調べられる(ステップST32)。すなわち、画像認識部24は、動作位置判定部23において、特定空間内で画像が入力され動作が行われたかどうかを調べる。このステップST32において、所定空間内で動作がないことが判断されると、シーケンスはステップST31に戻って画像入力待ち状態を継続する。
一方、ステップST32において、所定空間内で動作があることが判断されると、これをトリガとして、画像検出処理(ステップST33)、画像認識処理(ステップST34)、結果処理(ステップST35)、表示出力処理(ステップST36)および音声出力処理(ステップST37)が順次実行される。これらステップST33〜ST37の処理は、図2のフローチャートに示すステップST20〜ST24の処理と同じである。次いで、操作完了かどうかが調べられる(ステップST38)。すなわち、制御部41は、状態管理部42から遷移すべき状態を取得し、この遷移すべき状態が終了であるかどうかを調べる。このステップST38において、操作完了であることが判断されると、操作処理は終了する。一方、ステップST38において操作完了でないことが判断されると、シーケンスはステップST31に戻って画像入力待ち状態になり、以下、上述した処理が繰り返される。
以上説明したように、この発明の実施の形態2に係る車両用操作装置によれば、操作者が特定空間内で動作を行うことにより空間認識処理を開始するように構成したので、操作者が空間操作の開始を任意の時に明示的に指示することができ、操作者が意図しない時に空間認識処理が開始されるという誤動作を防ぐことができる。
なお、操作処理を開始する時の状態は、電源投入直後でなくても、例えば音声認識操作後など、ある操作の続行状態であってもよく、どのような状態であっても操作者が任意の時に操作処理を開始させることができる。
また、空間認識処理が誤って開始されることをさらに防ぐために、ステップST32の判定処理において、例えば、ある特定空間内で一定時間動作しているという条件を付加するように構成することもできる、ある特定空間内である特定の形状で動作するという条件を付加するように構成することもできる。
実施の形態3.
この発明の実施の形態2に係る車両用操作装置は、空間でなされる動作を3次元的に認識することにより空間操作を認識するようにしたものである。この実施の形態3に係る車両用操作装置の構成は、動作位置判定部23の機能を除き、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。動作位置判定部23は、空間内における手の2次元位置のみならず3次元位置(奥行き)をも判定し、判定結果を画像認識部24に送る。
次に、実施の形態3に係る車両用操作装置の動作を、図5に示すフローチャートを参照しながら説明する。なお、図5に示すフローチャートにおいては、空間操作を認識する空間操作認識処理の部分のみを示している。
空間操作認識処理においては、まず、奥行き検出処理が行われる(ステップST41)。すなわち、動作位置判定部23は、画像入力部21から受け取った画像から空間内での手の3次元位置、つまり奥行き方向の位置を検出し、画像認識部24に送る。次いで、画像検出処理が行われる(ステップST42)。すなわち、画像検出部22は、画像入力部21から送られてくる画像から、認識に必要な手の画像部分を色または形状などに基づいて検出して抽出し、画像認識部24に送る。
次いで、画像認識処理が行われる(ステップST43)。すなわち、画像認識部24は、画像検出部22から送られてくる画像と図示しない記憶部にあらかじめ格納されている認識パターンとのマッチング処理を行うことにより、どのような動作が行われたかを認識し、この認識結果に奥行き方向の情報を含めて制御部41に送る。次いで、結果処理が行われる(ステップST44)。すなわち、制御部41は、画像認識部24から認識結果を受け取り、この受け取った認識結果に応じた処理であって、且つ奥行き方向の情報を反映した処理を実行する。
例えば、制御部41は、奥行き方向の情報に応じて、例えばナビゲーション装置の地図画面を拡大または縮小したり、再生中の音楽のボリュームを変更したり、階層的な構造で検索を行う場合において奥行き位置により階層を示したりする処理を実行する。なお、ステップST41における奥行き検出処理においては、画像から奥行きを検出するのみならず、赤外反射またはステレオ視カメラなどを用いて奥行きを検出するように構成することもできる。
以上説明したように、この発明の実施の形態3に係る車両用操作装置によれば、奥行き方向を認識することにより奥行き方向を使った操作を行うことができ、また、平面方向の動作と奥行き方向の動作を合わせた複合的な操作が可能となる。
実施の形態4.
この発明の実施の形態4に係る車両用操作装置は、音声操作部3で操作対象となる語彙の発話を認識し、空間操作部2で操作内容の詳細を指示するようにしたものである。この実施の形態4に係る車両用操作装置の構成は、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。
次に、実施の形態4に係る車両用操作装置の動作を説明する。なお、この実施の形態4に係る車両用操作装置は、音声操作部3で操作対象を指示し、空間操作部2で操作内容の詳細を指示するように限定した点を除けば、実施の形態1に係る車両用操作装置の動作と同じであるので、図2に示すフローチャートを参照しながら説明するが、実施の形態4に係る部分を中心に説明し、実施の形態1に係る部分の説明は省略または簡略化する。以下においては、ボリューム変更操作を行う場合について説明する。
操作処理においては、まず、音声認識開始処理が行われる(ステップST11)。これにより、音声認識処理が開始され、車両用操作装置は、操作者の発話による音声入力の待ち状態となる。次いで、所定時間内に音声入力があったか否かが調べられる(ステップST12)。このステップST12において、所定時間内に音声入力がないことが判断されると、操作処理は終了する。一方、ステップST12において、所定時間内に音声入力があったことが判断されると、次いで、音声認識処理が行われる(ステップST13)。例えば、音声入力の待ち状態で、操作者が「ボリューム変更」といった操作の指示命令を発話すると、その音声が音声認識部33において認識され、認識結果が制御部41に渡される。
次いで、結果処理が行われる(ステップST14)。すなわち、制御部41は状態管理部42からボリューム変更命令の後に、詳細情報を受け付け状態であることを取得し、画面表示や音声ガイダンスによって空間操作でのボリューム詳細操作の受付状態であることを示す(ステップST15およびST16)。次いで、操作完了であるかどうかが調べられる(ステップST17)。このステップST17において、操作完了であることが判断されると、操作処理は終了し、操作完了でないことが判断されると、画像入力待ち状態になる(ステップST18)。
次いで、所定時間内に画像入力があったかどうかが調べられる(ステップST19)。このステップST19において、所定時間内に画像入力がないことが判断されると、操作処理は終了する。一方、ステップST19において、所定時間内に画像入力があったことが判断されると、次いで、画像検出処理が行われる(ステップST20)。すなわち、操作者は空間操作を用いて、手の位置、角度または形状などにより、その操作に対する処理の詳細(度合い)を指示する。例えば、手の位置を上方にしてボリュームを大きくし、下方にしてボリュームを小さくしたり、手を倒す角度を大きくしてボリュームを大きくし、角度を小さくしてボリュームを小さくしたり、手の指の立てた数によりボリュームを設定する。画像検出部22は、画像入力部21から送られてくる画像から、上述した手の画像部分を検出して抽出し、画像認識部24に送る。
次いで、画像認識処理が行われる(ステップST21)。すなわち、手の位置、角度または形状などを認識することにより、その操作に対する処理の詳細(度合い)が指示される。次いで、結果処理が行われる(ステップST22)。すなわち、制御部41は、画像認識部24から認識結果を受け取り、この受け取った認識結果に応じた処理、つまり空間操作の認識結果に応じたボリューム変更処理を実行する。次いで、処理結果に応じた画面表示(ステップST23)および音声ガイダンスを行う(ステップST24)。次いで、操作完了かどうかが調べられる(ステップST25)。この場合、ボリューム変更操作として操作が完了したので、操作処理は終了する。
以上説明したように、この発明の実施の形態4に係る車両用操作装置によれば、音声操作だけでは面倒で指示しにくかったボリューム変更または地図スクロールなどの連続的またはアナログ的な操作を、空間操作により直感的に且つ簡単に指示することが可能になる。
実施の形態5.
この発明の実施の形態5に係る車両用操作装置は、表示部5に表示する画像を、空間操作部2で認識される操作方法と合致させるようにしたものである。この実施の形態5に係る車両用操作装置の構成は、表示生成部51の機能を除けば、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。表示生成部51は、図6に示すような「認識パターン」、「メニュー表示形状」および「メニュー表示画像」を対応させた対応テーブルを記憶しており、画像認識部24で認識された認識パターンに応じた画像で構成されたメニューを重畳表示部53に表示させる。
次に、実施の形態5に係る車両用操作装置の動作を説明する。なお、この実施の形態5に係る車両用操作装置は、表示部5に表示されるメニューの画像を除けば、実施の形態1に係る車両用操作装置の動作と同じであるので、図2に示すフローチャートを参照しながら、実施の形態5に係る部分のみを説明する。以下においては、ボリューム変更操作を行う場合について説明する。
図2に示すフローチャートのステップST15およびステップST22において実行される表示出力処理においては、表示生成部51は、フロントガラスに重畳して表示するメニューを生成するが、この時のメニューの画像として、空間操作の操作方法と合致する画像を生成する。すなわち、制御部41は、画像認識部24において認識された認識パターンを表示生成部に送る。表示生成部51は、図6に示す対応テーブルから認識パターンに対応するメニュー表示画像を取得して、表示投影部52に送る。これにより、重畳表示部53に、認識パターンに応じた画像のメニューが表示される。
例えば、フロントガラス入力重畳して表示されている複数のメニュー候補から選ぶ操作を空間操作により行う場合に、メニュー候補を掴むような空間操作により認識されるように規定した場合には、表示生成部51において生成されるメニュー表示の形状はボール形状とすることで、操作者が自然に掴む動作をするように促すようにする。また、メニュー候補を押すような空間操作により認識されるように規定した場合には、表示生成部51において生成されるメニュー表示の形状はボタン形状とすることで、操作者が自然に押下する動作をするように促すようにする。なお、図6に示す認識パターン、メニュー表示形状、メニュー表示画像およびそれらの対応付けは、一例であり、これらは必要に応じて任意で定めることができる。
以上説明したように、この発明の実施の形態5に係る車両用操作装置によれば、例えば、ボタン型のメニュー表示であれば押下する空間操作、ボール型のメニュー表示であれば掴む空間操作などといったメニュー表示により、操作者が直感的に空間操作の操作方法を理解でき、わかりやすい操作が可能となる。
実施の形態6.
この発明の実施の形態6に係る車両用操作装置は、空間操作部において認識可能な空間操作を表す画像によってアイコンを表示するようにしたものである。この実施の形態6に係る車両用操作装置の構成は、表示生成部51の機能を除けば、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。表示生成部51は、図7に示すような「認識パターン」と「アイコン表示画像」とを対応させた対応テーブルを記憶しており、画像認識部24で認識された認識パターンに応じたアイコンで構成されたメニューを重畳表示部53に表示させる。
次に、実施の形態6に係る車両用操作装置の動作を説明する。なお、この実施の形態6に係る車両用操作装置は、画像認識時に表示部5にアイコンが表示される点を除けば、実施の形態1に係る車両用操作装置の動作と同じであるので、図2に示すフローチャートを参照しながら、実施の形態6に係る部分のみを説明する。以下においては、ボリューム変更操作を行う場合について説明する。
図2に示すフローチャートのステップST21において、画像認識処理が実行される際、制御部41は、画像認識部24において認識された認識パターンを表示生成部に送る。表示生成部51は、図7に示す対応テーブルから認識パターンに対応するアイコン表示画像を取得して、表示投影部52に送る。これにより、重畳表示部53に、画像認識部24で認識された認識パターンに応じたアイコンがフロントガラスに、実景に重畳して表示される。
例えば、手で左右に払うような空間操作を認識可能である場合、手を左右に振る動画アイコンを表示することにより、現在、認識可能な空間操作が操作者に示される。なお、複数の空間操作が可能である場合は、複数のアイコンを同時に表示するように構成することもできる。
以上説明したように、この実施の形態6に係る車両用操作装置によれば、空間操作部2で認識可能な空間操作の操作方法が状況により変わる場合であっても、操作者はアイコンを見ることにより、現在受け付け可能な空間操作の操作方法を理解でき、わかりやすい操作が可能となる。
実施の形態7.
この発明の実施の形態7に係る車両用操作装置は、個人認証により認証された人に応じた空間操作の位置で空間操作を認識するようにしたものである。この実施の形態7に係る車両用操作装置の構成は、メイン処理部4の構成を除き、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。メイン処理部4は、図8に示すように、実施の形態1に係るメイン処理部に個人認証処理部45が追加されるとともに、データベース44に個人認証用の情報が格納されて構成されている。
個人認証処理部45は、操作者となる個人を認証する。個人認証処理部45で行われる個人認証の方法としては、例えばモニタ画面のHMI(Human Machine Interface)により個人を選択する方法、ICカードによる認証する方法、指紋認証または顔認識などにより認証する方法などといった周知の種々の方法を用いることができる。この個人認証処理部45における認証結果は、制御部41に送られる。
次に、上記のように構成される実施の形態7に係る車両用操作装置の動作を、空間操作を実現する操作処理を中心に、図9に示すフローチャートを参照しながら説明する。
操作処理においては、まず、個人認証が行われる(ステップST51)。すなわち、個人認証処理部45は、データベース44を参照して操作者となる人の個人認証を行い、認証結果を制御部41に送る。次いで、設定されている認識モードが取得される(ステップST52)。すなわち、制御部41は、ステップST51において個人認証を行った結果、その個人が設定している認識モード(相対モードまたは絶対モード)を取得する。認識モードは、個人毎に設定および変更が可能である。認識モードは、データベース44に個人毎に保存されている個人情報から取り出すように構成できる。なお、認識モードは、個人認証処理部45がICカード等から直接取得するように構成することもできる。
次いで、認識待ち状態になる(ステップST53)。このステップST53の処理は、図2のフローチャートに示すステップST18の処理と同じである。次いで、所定時間内に画像入力があったかどうかが調べられる(ステップST54)。このステップST54の処理は、図2のフローチャートに示すステップST19の処理と同じである。このステップST54において、所定時間内に画像入力がないことが判断されると、操作処理は終了する。
一方、ステップST54において、所定時間内に画像入力があったことが判断されると、次いで、動作位置判定処理が行われる(ステップST55)。すなわち、動作位置判定部23は、空間内での手の動作位置を判定し、判定結果を画像認識部24に送る。次いで、画像検出処理(ステップST56)、画像認識処理(ステップST57)および結果処理(ステップST58)が順次行われる(ステップST57)。これらステップST56〜ST58の処理は、図2のフローチャートに示すステップST20〜ST22の処理とそれぞれ同じである。
次いで、選択位置決定が行われる(ステップST59)。このステップST59においては、ステップST52において取得した認識モードが相対モードである場合は、ステップST55で判定された動作位置に依存せず、常に決まった場所が選択開始位置として決定される。例えば、操作位置が右の方であっても左の方であっても、メニューの中央のアイテムが常に選択される。操作が完了せず継続する場合は、最初の空間位置を基本位置とし、そこからの相対的な位置の移動により、選択されるメニューが変更される。一方、ステップST52において取得した認識モードが絶対モードである場合は、ステップST45で判定された動作位置に基づいて、選択開始位置が決定される。例えば、操作位置が右の方であれば、右端のアイテムを選択した状態として開始し、操作位置が左の方であれば、左端のアイテムを選択した状態として開始する。
次いで、表示出力処理(ステップST60)および音声出力処理(ステップST61)。が順次実行される。これらステップST60およびST61の処理は、図2のフローチャートに示すステップST23およびST24の処理とそれぞれ同じである。次いで、操作完了かどうかが調べられる(ステップST62)。すなわち、制御部41は、状態管理部42から遷移すべき状態を取得し、この遷移すべき状態が終了であるかどうかを調べる。このステップST62において、操作完了であることが判断されると、操作処理は終了する。一方、ステップST62において操作完了でないことが判断されると、シーケンスはステップST54に戻って画像入力待ち状態になり、以下、上述した処理が繰り返される。
以上説明したように、この発明の実施の形態7に係る車両用操作装置によれば、相対モードでの認識を可能とすることにより、操作者の個々の着座位置の違いまたは利き腕の違いなどに影響を受けずに操作をすることができる。一方、絶対モードでの認識を可能とすることにより、操作者は固定の位置による直感的な操作をすることが可能となる。
また、相対モードと絶対モードを操作者が選択できるようにすることにより、操作者が自分の好みに応じて、より使いやすい操作を行うことができる。
なお、絶対モードの場合に空間でなされた動作を認識する位置を個人により変更を可能とするように構成できる。この構成により、操作者の着座位置や、手の長さなどが異なっていても、操作者に最善の位置で設定することにより、誤認識なく、また快適な姿勢で操作をすることが可能となる。
実施の形態8.
この発明の実施の形態8に係る車両用操作装置は、操作者がメニュー項目の選択操作をした際に、そのメニュー項目に該当する音声ガイダンスを行うようにしたものである。この実施の形態8に係る車両用操作装置の構成は、データベース44にメニューアイテムが格納されている点を除けば、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。データベース44に格納されるメニューアイテムには、図10に示すような、名称、地点、住所または詳細情報などの様々な情報が付随している。
次に、実施の形態8に係る車両用操作装置の動作を説明する。なお、この実施の形態8に係る車両用操作装置は、音声ガイダンスの内容を具体化した点を除けば、実施の形態1に係る車両用操作装置の動作と同じであるので、図2に示すフローチャートを参照しながら、この実施の形態8に係る部分のみを説明する。
画像入力待ち状態(ステップST18)において、操作者が空間操作によりメニューから1つの項目を選択する操作を行い、ステップST19において、その旨が判断されると、画像検出処理(ステップST20)および画像認識処理(ステップST21)が順次行われ、該当メニューが選択されたという結果が得られる(ステップST22)。メニューが選択された状態になると、該当メニューアイテムに対する情報がデータベース44から取得され、音声出力処理(ステップST24)において、音声で読み上げられる。ここで、読み上げられる内容としては、名称または地点の情報だけであってもよいし、施設の詳細情報を説明するガイダンスが追加されてもよい。
以上説明したように、この発明の実施の形態8に係る車両用操作装置によれば、メニューの項目が選択された際に、音声ガイダンスによるフィードバックが行われるので、操作者は、表示を見なくとも操作したことを把握することができる。また、選択した項目の詳細情報を音声にて知ることが可能となる。
実施の形態9.
この発明の実施の形態9に係る車両用操作装置は、操作者が特定の空間操作をした際に、その空間操作に対応した音声ガイダンスを行うようにしたものである。
この実施の形態9に係る車両用操作装置の構成は、画像認識部24の機能を除き、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。画像認識部24においては、認識可能な空間操作に対応する認識パターンとして、音声ガイダンス読上げの動作が規定されている。
次に、実施の形態9に係る車両用操作装置の動作を説明する。なお、この実施の形態9に係る車両用操作装置は、音声ガイダンスの内容を具体化した点を除けば、実施の形態1に係る車両用操作装置の動作と同じであるので、図2に示すフローチャートを参照しながら、この実施の形態9に係る部分のみを説明する。
画像入力待ち状態(ステップST18)において、操作者が空間操作により音声ガイダンスの読み上げを指示する動作を行い、ステップST19において、その旨が判断されると、画像検出処理(ステップST20)が行われ、その後、画像認識処理が行われる(ステップST21)。この画像認識処理においては、画像認識部24は、音声ガイダンス読上げの動作であることを認識すると、音声ガイダンス読上げ要求を制御部41に送る。制御部41は、音声ガイダンス読上げ要求を受け取ると、結果処理を実行する(ステップST22)。すなわち、制御部41は、現在の状態および選択中のアイテムを状態管理部42から取得し、選択中のアイテムに対応する情報をデータベース44から取得して、音声生成部61に渡す。その後、表示出力処理(ステップST24)が行われた後に、音声出力処理が実行される(ステップST24)。この音声出力処理において、データベース44から取得された情報が音声ガイダンスとして出力される。
以上説明したように、この発明の実施の形態9に係る車両用操作装置によれば、操作者が詳細情報を知りたい場合に、特定の空間操作をすることにより、いつでも音声ガイダンスを聞くことができる。
実施の形態10.
この発明の実施の形態10に係る車両用操作装置は、表示部5に表示する表示アイテム数およびや表示内容は、運転状況に応じて変更するようにしたものである。この実施の形態10に係る車両用操作装置の構成は、メイン処理部4の構成を除き、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。メイン処理部4は、図11に示すように、実施の形態1に係るメイン処理部に車両情報取得部46が追加されて構成されている。車両情報取得部46は、ナビゲーション装置から車両情報を取得する。車両情報には、現在地または目的地などといった地点情報、走行先の道路情報、車両制御部から取得されるハンドルまたはワイパーなどの動作情報などが含まれる。
次に、上記のように構成される実施の形態10に係る車両用操作装置の動作を、図12に示すフローチャートを参照しながら説明する。なお、図12に示すフローチャートにおいては、空間操作を認識する空間操作認識処理の部分のみを示している。
空間操作認識処理においては、画像検出処理(ステップST71)、画像認識処理(ステップST72)および結果処理(ステップST73)が順次実行される。これらステップST71〜ST73の処理は、図2のフローチャートに示すステップST20〜ST22の処理と同じである。次いで、車両情報が取得される(ステップST74)。すなわち、制御部41は、車両情報取得部46から車両情報を取得する。
次いで、表示出力処理が行われる(ステップST75)。すなわち、制御部41は、認識結果に応じて、状態管理部42から遷移すべき状態を取得し、表示する内容の生成を表示生成部51に指示する。この際、制御部41は、ステップST74で取得した車両情報が、操作者の運転負荷が高いと見なされるような特定の条件を示していれば、表示内容を簡易にする、例えば表示アイテム数を減らしたり、表示内容を見やすくシンプルにしたりするように表示生成部51に指示する。操作者の運転負荷を判定する条件の例としては、走行地点から交差点付近を走行している場合、走行ルート先にカーブが存在する場合、ハンドルをきっている状態である場合、ワイパーを作動させている状態である場合などを挙げることができる。表示生成部51は、この制御部41からの指示に応じて表示する内容を表す映像信号を生成し、表示投影部52に送る。表示投影部52は、表示生成部51から送られてくる映像信号に基づき画像を生成し、重畳表示部53に投影する。その後、音声出力処理が行われる(ステップST76)。
以上説明したように、この発明の実施の形態10に係る車両用操作装置によれば、運転の負荷が高い状況の場合には、表示アイテム数を減らしたり、表示内容をシンプルに見やすくするので、操作者の操作負荷を低減することができる。
実施の形態11.
この発明の実施の形態11に係る車両用操作装置は、空間操作の操作方法または表示部5に表示する内容を、操作者の空間操作の習熟度に応じて変化させるようにしたものである。この実施の形態11に係る車両用操作装置の構成は、メイン処理部4の構成を除き、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。メイン処理部4は、図13に示すように、実施の形態7に係るメイン処理部(図8参照)に、習熟度判定部47および習熟度管理部48が追加されて構成されている。
習熟度判定部47は、操作者の空間操作の習熟度を判定する。習熟度は、使用回数、使用時間、誤認識または誤操作の回数などに基づき判定される。この習熟度判定部47による判定結果は、制御部41に送られる。習熟度管理部48は、複数の操作者の習熟度と、習熟度に応じた操作レベルを管理する。習熟度管理部48の内容は、制御部41によってアクセスされる。
次に、上記のように構成される実施の形態11に係る車両用操作装置の動作を、図14に示すフローチャートを参照しながら説明する。なお、図14に示すフローチャートにおいては、習熟度を処理する習熟度処理の部分のみを示している。この習熟度処理は、例えば、電源投入直後、その他の任意のタイミングで実行することができる。
習熟度処理においては、まず、個人認証が行われる(ステップST81)。このステップST81の処理は、図9のフローチャートに示したステップST51の処理と同じである。このステップST81の処理により操作者が特定される。次いで、習熟度レベルが取得される(ステップST82)。制御部41は、ステップST81で特定された操作者の習熟度レベルを習熟度管理部48から取得する。
次いで、習熟度変更条件を満たすかどうかが調べられる(ステップST83)。すなわち、制御部41は、習熟度判定部47から、操作者毎の習熟度の判定結果を取得し、習熟度をアップする条件を満たすかどうかを調べる。このステップST83において、習熟度変更条件を満たすことが判断されると、習熟度レベルが変更される(ステップST84)。すなわち、制御部41は、習熟度管理部48で管理されている各操作者の習熟度レベルをアップさせるといった習熟度の自動設定を行う。その後、シーケンスはステップST85に進む。なお、操作者が自ら習熟度管理部48に対して好みの習熟度を設定するように構成することもできる。上記ステップST83において、習熟度変更条件を満たさないことが判断されると、シーケンスはステップST85に進む。
ステップST85においては、操作方法が設定される。習熟度管理部48は、設定された習熟度レベルに対応して、その習熟度に応じた操作方法を保持しており、操作者が操作可能な操作を変更する。例えば、習熟度レベルが「1」であれば、メニューを二者択一とし、習熟度レベルが「2」であれば、メニューを三者択一に増やし、習熟度レベルが「3」であれば、ボリューム変更などの機器操作も可能にする。なお、操作方法の変更のみならず、表示部5に表示させる内容を習熟度に応じて変更するように構成することもできる。以上により、習熟度処理は終了する。
以上説明したように、この発明の実施の形態11に係る車両用操作装置によれば、例えば、操作者が空間操作に慣れていない場合は簡単な操作方法や表示とし、習熟に応じて操作方法のレベルを上げるなどといった、操作者の空間操作の習熟度レベルに応じて操作方法または表示を変更することが可能になるので、初心者から熟練者まで誰でも適した操作をすることが可能となる。
また、個人認証を行い個人毎の習熟度レベルを管理することにより、複数の操作者が利用する場合であっても、その操作者に適した操作レベルを提供することができる。
実施の形態12.
この発明の実施の形態12に係る車両用操作装置は、空間操作により音声操作を開始させるようにしたものである。この実施の形態12に係る車両用操作装置の構成は、画像認識部24の機能を除き、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。画像認識部24には、認識可能な空間操作に対応する認識パターンとして、音声操作開始の動作が規定されている。
次に、上記のように構成される、この発明の実施の形態12に係る車両用操作装置の動作を、図15に示すフローチャートを参照しながら説明する。
この車両用操作装置は、電源が投入されると、常に画像入力待ち状態になる(ステップST91)。このステップST91において、次いで、所定空間内で動作があったかどうかが調べられる(ステップST92)。このステップST92において、所定空間内で動作がないことが判断されると、シーケンスはステップST91に戻って画像入力待ち状態を継続する。一方、ステップST92において、所定空間内で動作があることが判断されると、これをトリガとして、画像検出処理(ステップST93)、画像認識処理(ステップST94)および結果処理(ステップST95)が順次実行される。これらステップST91〜ST95の処理は、図2のフローチャートに示すステップST18〜ST22の処理と同じである。
次いで、音声操作開始の操作であるかどうかが調べられる(ステップST96)。すなわち、制御部41は、画像認識部24から認識結果を受け取り、これが音声操作開始の動作であるかどうかを調べる。このステップST96において、音声操作開始の操作であることが判断されると、音声認識が開始される(ステップST97)。すなわち、制御部41は、音声認識部33に対して音声操作開始を要求し、音声入力部31は音声入力待ち状態になる。一方、ステップST96において、音声操作開始の操作でないことが判断されると、その他の結果処理が行われる(ステップST98)。
以上説明したように、この発明の実施の形態12に係る車両用操作装置によれば、空間操作によって音声操作のための発話開始を指示するように構成したので、音声認識操作用に発話開始を指示するためのスイッチを設ける必要がなくなる。
実施の形態13.
この発明の実施の形態13に係る車両用操作装置は、操作者の手が動作している場合に音声認識を継続させるようにしたものである。この実施の形態13に係る車両用操作装置の構成は、画像認識部24の機能を除き、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。画像認識部24には、上述した実施の形態12に係る車両用操作装置と同様に、認識可能な空間操作に対応する認識パターンとして、音声操作開始の動作が規定されている。
次に、上記のように構成される、この発明の実施の形態13に係る車両用操作装置の動作を説明する。この車両用操作装置の動作の概要は以下の通りである。すなわち、画像検出部22および動作位置判定部23において、特定の空間内で動作が存続することを画像認識部24が認識した場合は、音声認識処理を行い、特定の空間内で動作が存続しなくなった場合に音声認識処理を終了する。以下、図16に示すフローチャートを参照しながら具体的に説明する。
この車両用操作装置は、電源が投入されると、画像入力待ち状態になる(ステップST101)。このステップST101において、画像入力がないことが判断されると、ステップST101において画像入力待ち状態を継続する。一方、ステップST101において、画像入力があると、これをトリガとして、画像検出処理(ステップST102)および画像認識処理(ステップST103)が順次実行される。これらステップST102およびST103の処理は、図2のフローチャートに示すステップST20およびST21の処理とそれぞれ同じである。
次いで、音声操作開始の指示であるかどうかが調べられる(ステップST104)。このステップST104において、音声操作開始の指示であることが判断されると、音声認識が開始される(ステップST105)。すなわち、制御部41は、音声認識部33に対して音声操作開始を要求する。次いで、音声入力が開始される(ステップST106)。すなわち、音声入力部31は、音声認識部33からの音声操作開始の要求に応答して、音声入力待ち状態になる。
次いで、画像入力が継続されているかどうかが調べられる(ステップST107)。すなわち、画像認識部24は画像入力が継続されているかどうかを判定する。このステップST107において、画像入力が継続されていることが判断されると、このステップST107が繰り返し実行される。これにより、画像が継続して入力されている間は、音声認識部33においては音声入力が継続される。
このステップST107において、画像入力が継続されなくなったことが判断されるとし、音声認識処理が実行される(ステップST108)。すなわち、音声認識部33は、音声入力を終了して認識処理を行う。次いで、ステップST108における認識結果に対する処理が行われる(ステップST109)。次いで、表示出力処理(ステップST110)および音声出力処理(ステップST111)が順次行われ、その後、処理は終了する。上記ステップST104において、音声操作開始の指示でないことが判断されると、結果処理が行われ(ステップST112)、その後、処理は終了する。
以上説明したように、この発明の実施の形態13に係る車両用操作装置によれば、発話開始から発話終了までの発話中である区間を操作者が明示できるため、騒音下中でも発話音声を抽出しやすくなり、誤認識を減らすことができる。
実施の形態14.
この発明の実施の形態14に係る車両用操作装置は、操作者の空間操作に応じて音声認識辞書を切り換えるようにしたものである。まず、音声認識の一般的な仕組みとして、音声認識で用いる音声認識辞書32を語彙の種類ごとに複数に分割し、音声認識を動作させるたびに、使用する辞書を切替えることにより、認識可能となる語彙を変更できるようになっている。例えば、住所検索を行う場合には、音声認識辞書32の中の住所辞書をアクティブにさせて音声認識を行うことにより、住所の語彙のみが認識され、他の語彙を認識しないようになるので、誤認識を減らすことができる。
ところが、音声認識辞書を切替えるためには、音声操作を階層構造で行う必要がある。例えば、まず「住所検索」と発話すると住所辞書がアクティブになり住所の語彙のみ認識可能となるため、一度の発話で操作を達成できず面倒である。そこで、実施の形態14に係る車両用操作装置においては、操作者が発話時に空間操作を用いることにより、一度の発話で認識辞書を指定できるようにしている。例えば、手を右方に向けた状態で空間操作したら住所辞書をアクティブ化し、手を左方に向けた状態で空間操作したら音楽辞書をアクティブ化する。
この実施の形態13に係る車両用操作装置の構成は、画像認識部24の機能を除き、図1に示した実施の形態1に係る車両用操作装置の構成と同じである。画像認識部24は、図17に示すような、画像認識結果に対応する音声認識辞書を規定した対応テーブルを保持している。
次に、上記のように構成される、この発明の実施の形態14に係る車両用操作装置の動作を、図18に示すフローチャートを参照しながら説明する。
まず、音声入力開始処理が行われる(ステップST121)。すなわち、音声認識部33は、例えば発話ボタン押下などといった何らかのトリガが入力されると、音声認識を開始し、引き続いて、音声入力待ち状態になる(ステップST122)とともに、画像入力待ち状態になる(ステップST127)。すなわち、制御部41は、音声認識部33に対し音声入力開始要求を出し、音声認識部33は、音声入力部31からの音声入力待ち状態になる。また、制御部41は画像認識部24に対し画像認識開始要求を出し、画像認識部24は画像入力部21からの画像を入力待ち状態になる。
ステップST127における画像入力待ち状態において、空間操作の画像が入力されると、画像検出処理(ステップST128)および画像認識処理(ステップST129)が順次実行される。これらステップST128およびST129の処理は、図2のフローチャートに示したステップST20およびST21の処理とそれぞれ同じである。
次いで、認識辞書切替処理が行われる(ステップST130)。すなわち、画像認識部24は、認識結果に対応する音声認識辞書を図17に示す対応テーブルから取得し、制御部41に送る。制御部41は、画像入力部24から受け取った音声認識辞書を指定して、音声認識部33に対して、使用する認識辞書を切り替えるように要求し、音声認識部33は、この要求に応答して使用する認識辞書を切り替える。以後、切り替えられた認識辞書が音声認識に使用される。
ステップST122における音声入力待ち状態において、音声が入力されると、音声認識処理が行われる(ステップST124)。すなわち、音声認識部33は、切り替えた認識辞書を用いて、入力された音声の認識処理を行う。次いで、音声認識の結果に応じた結果処理(ステップST124)、表示出力処理(ステップST125)および音声出力処理(ステップST126)が順次行われる。
なお、図17に示す空間操作の認識結果と音声認識辞書との対応テーブルは一例であり、任意に組み合わせて作成することができる。また、認識辞書を指定する空間操作の操作方法は任意であり、位置により指定する方法、指の本数で指定する方法などを用いることができる。
以上説明したように、この発明の実施の形態14に係る車両用操作装置によれば、空間操作により音声認識辞書を切り替えることができるので、一度の発話と空間操作で、操作者が意図する語彙を音声認識させることが可能となり、誤認識が減少して操作性が向上する。

Claims (4)

  1. 発話された音声を認識して認識結果を出力する音声操作部と、
    空間でなされた動作を認識して認識結果を出力する空間操作部と、
    前記音声操作部から送られてくる認識結果および前記空間操作部から送られてくる認識結果に応じた処理を実行するメイン処理部と、
    前記メイン処理部からの指示に応じて生成した画像を、フロントガラスを介して見える実景に重畳して表示する表示部と、
    人を認証する個人認証処理部を備え、
    前記メイン処理部は、
    前記音声操作部から送られてくる認識結果に応じたメニューを前記表示部に表示させ、該メニューから1つの項目を選択するように空間でなされた動作を認識した前記空間操作部から送られてくる認識結果に応じた処理を実行し、
    前記空間操作部は、前記個人認証処理部によって認証された個人に対して設定されている認識モードを取得し、前記表示部に表示された項目を選択する場合に、認識モードが相対モードである場合は、空間でなされた動作を相対位置で認識し、絶対モードである場合は、絶対位置で認識する
    ことを特徴とする車両用操作装置。
  2. 空間操作部は、絶対モードの場合に、個人認証処理部で認識される個人によって、空間でなされた動作を認識する位置を変更する
    ことを特徴とする請求項記載の車両用操作装置。
  3. 発話された音声を認識して認識結果を出力する音声操作部と、
    空間でなされた動作を認識して認識結果を出力する空間操作部と、
    前記音声操作部から送られてくる認識結果および前記空間操作部から送られてくる認識結果に応じた処理を実行するメイン処理部と、
    前記メイン処理部からの指示に応じて生成した画像を、フロントガラスを介して見える実景に重畳して表示する表示部とを備え、
    前記メイン処理部は、空間操作の習熟度を判定する習熟度判定部を備え、該習熟度判定部で判定された習熟度に応じて前記空間操作部で認識する空間操作の方法または前記表示部に表示させる内容を変更する
    ことを特徴とする車両用操作装置。
  4. 個人を認証する個人認証処理部と、
    前記個人認証処理部で認証された個人毎に、習熟度判定部で判定された習熟度を管理する習熟度管理部とを備え、
    メイン処理部は、前記個人認証処理部で認証された個人の習熟度を前記習熟度管理部から取得し、該取得した習熟度に応じて空間操作部で認識する空間操作の方法または表示部に表示させる内容を変更する
    ことを特徴とする請求項記載の車両用操作装置。
JP2009517692A 2007-06-05 2008-03-14 車両用操作装置 Expired - Fee Related JP4942814B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009517692A JP4942814B2 (ja) 2007-06-05 2008-03-14 車両用操作装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007149605 2007-06-05
JP2007149605 2007-06-05
JP2009517692A JP4942814B2 (ja) 2007-06-05 2008-03-14 車両用操作装置
PCT/JP2008/000595 WO2008149482A1 (ja) 2007-06-05 2008-03-14 車両用操作装置

Publications (2)

Publication Number Publication Date
JPWO2008149482A1 JPWO2008149482A1 (ja) 2010-08-19
JP4942814B2 true JP4942814B2 (ja) 2012-05-30

Family

ID=40093316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009517692A Expired - Fee Related JP4942814B2 (ja) 2007-06-05 2008-03-14 車両用操作装置

Country Status (4)

Country Link
US (1) US8532871B2 (ja)
JP (1) JP4942814B2 (ja)
DE (1) DE112008001396B4 (ja)
WO (1) WO2008149482A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101581883B1 (ko) * 2009-04-30 2016-01-11 삼성전자주식회사 모션 정보를 이용하는 음성 검출 장치 및 방법
WO2011111306A1 (ja) * 2010-03-09 2011-09-15 本田技研工業株式会社 携帯機器と連携して動作可能な車載機器
WO2012008960A1 (en) * 2010-07-15 2012-01-19 Hewlett-Packard Development Company L.P. First response and second response
JP5636888B2 (ja) * 2010-11-09 2014-12-10 ソニー株式会社 情報処理装置、プログラムおよびコマンド生成方法
US20120246483A1 (en) * 2011-03-25 2012-09-27 Netanel Raisch Authentication System With Time Attributes
DE102011089195A1 (de) * 2011-06-30 2013-01-03 Johnson Controls Gmbh Vorrichtung und Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen
JP2013015788A (ja) * 2011-07-06 2013-01-24 Sony Corp 表示制御装置、表示制御方法およびプログラム
US20130030811A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation Natural query interface for connected car
EP2986014A1 (en) 2011-08-05 2016-02-17 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
WO2013022218A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing user interface thereof
WO2013022221A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
DE102012200133A1 (de) * 2012-01-05 2013-07-11 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrerinformation
DE102012203197A1 (de) * 2012-03-01 2013-09-05 Siemens Aktiengesellschaft Verfahren und System zum Steuern eines Prozesses
JP5715977B2 (ja) * 2012-03-05 2015-05-13 東芝テック株式会社 操作支援表示装置およびプログラム
SE537730C2 (sv) * 2012-05-14 2015-10-06 Scania Cv Ab Projicerat virtuellt inmatningssystem för fordon
DE102012216193B4 (de) * 2012-09-12 2020-07-30 Continental Automotive Gmbh Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten
KR20140070861A (ko) * 2012-11-28 2014-06-11 한국전자통신연구원 멀티 모달 hmi 제어 장치 및 방법
JP6049429B2 (ja) * 2012-11-30 2016-12-21 パイオニア株式会社 処理装置、処理方法及び処理装置用プログラム
DE102013000066A1 (de) * 2013-01-08 2014-07-10 Audi Ag Zoomen und Verschieben eines Bildinhalts einer Anzeigeeinrichtung
CN103279189B (zh) * 2013-06-05 2017-02-08 合肥华恒电子科技有限责任公司 一种便携式电子设备的交互装置及其交互方法
CN103336578A (zh) * 2013-07-05 2013-10-02 广州新节奏智能科技有限公司 一种新型动作感应互动广告设备
KR101518911B1 (ko) * 2013-09-02 2015-05-11 현대자동차 주식회사 차량의 스마트 기능 검색 시스템 및 그 방법
WO2015118578A1 (ja) * 2014-02-10 2015-08-13 三菱電機株式会社 マルチモーダル入力装置、端末装置およびマルチモーダル入力装置のタイムアウト制御方法
DE102014207828A1 (de) * 2014-04-25 2015-10-29 Siemens Aktiengesellschaft Verfahren zur Bereitstellung einer Diagnosenachricht bei einem Schienenfahrzeug
JP6282188B2 (ja) 2014-07-04 2018-02-21 クラリオン株式会社 情報処理装置
DE102015201901B4 (de) 2015-02-04 2021-07-22 Volkswagen Aktiengesellschaft Bestimmung einer Position eines fahrzeugfremden Objekts in einem Fahrzeug
JP6337847B2 (ja) * 2015-07-22 2018-06-06 京セラドキュメントソリューションズ株式会社 画面取得装置、画面取得方法、及び、画面取得プログラム
US10706853B2 (en) 2015-11-25 2020-07-07 Mitsubishi Electric Corporation Speech dialogue device and speech dialogue method
CN107179826B (zh) * 2016-03-11 2021-08-31 松下知识产权经营株式会社 姿势输入系统和姿势输入方法
WO2018084082A1 (ja) * 2016-11-02 2018-05-11 パナソニックIpマネジメント株式会社 ジェスチャ入力システム及びジェスチャ入力方法
WO2018185830A1 (ja) * 2017-04-04 2018-10-11 株式会社オプティム 情報処理システム、情報処理方法、情報処理装置、及びプログラム
JP6960792B2 (ja) * 2017-07-26 2021-11-05 株式会社デンソーテン 情報出力装置および情報出力方法
FR3075427A1 (fr) * 2017-12-18 2019-06-21 Orange Assistant vocal

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0934488A (ja) * 1995-07-18 1997-02-07 Mazda Motor Corp 車載機器の音声操作装置
JPH10143191A (ja) * 1996-11-13 1998-05-29 Hitachi Ltd 音声認識システム
US7158871B1 (en) * 1998-05-07 2007-01-02 Art - Advanced Recognition Technologies Ltd. Handwritten and voice control of vehicle components
JP2000075991A (ja) 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2000344028A (ja) * 1999-03-26 2000-12-12 Harness Syst Tech Res Ltd 車載ユニットのインターフェース装置
DE10039432C1 (de) * 2000-08-11 2001-12-06 Siemens Ag Bedieneinrichtung
DE10218681A1 (de) * 2002-04-26 2003-11-06 Bosch Gmbh Robert Verfahren zur Bedienungssteuerung von elektronischen Geräten und elektronisches Gerät
JP3964734B2 (ja) * 2002-05-17 2007-08-22 富士通テン株式会社 ナビゲ−ション装置
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP4311190B2 (ja) * 2003-12-17 2009-08-12 株式会社デンソー 車載機器用インターフェース
US7295904B2 (en) * 2004-08-31 2007-11-13 International Business Machines Corporation Touch gesture based interface for motor vehicle
GB2419433A (en) * 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
KR20060070280A (ko) * 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
DE102005017313A1 (de) 2005-04-14 2006-10-19 Volkswagen Ag Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug
US7826945B2 (en) * 2005-07-01 2010-11-02 You Zhang Automobile speech-recognition interface
DE102005051175A1 (de) * 2005-10-24 2007-04-26 Daimlerchrysler Ag Verfahren zur Anpassung von Informationsausgaben an zeitliche Gegebenheiten
US7764247B2 (en) * 2006-02-17 2010-07-27 Microsoft Corporation Adaptive heads-up user interface for automobiles
JP5228439B2 (ja) * 2007-10-22 2013-07-03 三菱電機株式会社 操作入力装置
DE102008051756A1 (de) * 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen

Also Published As

Publication number Publication date
JPWO2008149482A1 (ja) 2010-08-19
US8532871B2 (en) 2013-09-10
DE112008001396T5 (de) 2010-03-25
US20110218696A1 (en) 2011-09-08
WO2008149482A1 (ja) 2008-12-11
DE112008001396B4 (de) 2015-12-31

Similar Documents

Publication Publication Date Title
JP4942814B2 (ja) 車両用操作装置
CN106030697B (zh) 车载控制装置及车载控制方法
KR101647848B1 (ko) 정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모드 사용자 인터페이스
JP6030430B2 (ja) 制御装置、車両及び携帯端末
JP5172485B2 (ja) 入力装置及び入力装置の制御方法
JP6584731B2 (ja) ジェスチャ操作装置及びジェスチャ操作方法
JP2000075991A (ja) 情報入力装置
CN113302664A (zh) 运载工具的多模态用户接口
JP5925401B2 (ja) 音声認識装置、システムおよび方法
JP2003131785A (ja) インタフェース装置および操作制御方法およびプログラム製品
KR101160872B1 (ko) 입출력 인터페이스 제어 방법 및 그 장치
US9052750B2 (en) System and method for manipulating user interface by 2D camera
CN206805467U (zh) 一种基于手势识别的车辆个性化定制系统及汽车
JP2008145693A (ja) 情報処理装置及び情報処理方法
EP3908875A1 (en) Multimodal input processing for vehicle computer
CN112805662A (zh) 信息处理装置、信息处理方法和计算机程序
JP6522009B2 (ja) 音声認識システム
JP3731499B2 (ja) 音声認識制御装置、及び車載用情報処理装置
JP6214779B2 (ja) 車載機器制御システム
JP2007314014A (ja) 車載装置、プログラム、及び車載装置における使用データ決定方法
JP5446540B2 (ja) 情報検索装置、制御方法及びプログラム
JP2000250587A (ja) 音声認識装置及び音声認識翻訳装置
JP2023052452A (ja) 表示制御装置、表示システム、表示制御方法及び表示制御プログラム
EP4350689A1 (en) Display control device and display control method
JP2006047192A (ja) ナビゲーション装置、および周辺施設の検索方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120228

R150 Certificate of patent or registration of utility model

Ref document number: 4942814

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees