JP6584731B2 - ジェスチャ操作装置及びジェスチャ操作方法 - Google Patents
ジェスチャ操作装置及びジェスチャ操作方法 Download PDFInfo
- Publication number
- JP6584731B2 JP6584731B2 JP2019524773A JP2019524773A JP6584731B2 JP 6584731 B2 JP6584731 B2 JP 6584731B2 JP 2019524773 A JP2019524773 A JP 2019524773A JP 2019524773 A JP2019524773 A JP 2019524773A JP 6584731 B2 JP6584731 B2 JP 6584731B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- recognition result
- control unit
- acquisition unit
- voice recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Description
例えば特許文献1には、複数のセグメント領域を有するタッチパネルと、タッチパネルの隣接する複数のセグメント領域からなる登録パターンに機能を対応付けて記憶するパターン記憶手段と、ユーザが連続的に接触した複数のセグメント領域を入力パターンとして認識するパターン認識手段とを備え、登録パターンと一致しない入力パターンに、ユーザの操作入力に応じて選択された機能を対応付けて記憶する携帯端末装置が記載されている。
実施の形態1.
図1は、実施の形態1に係るジェスチャ操作装置2及びその周辺の構成を示すブロック図である。ジェスチャ操作装置2は、HMI(Human Machine Interface)ユニット1に内蔵されている。実施の形態1では、HMIユニット1が車両に搭載されている場合を例に説明する。
具体的には、HMIユニット1は、音声認識装置13による搭乗者の発話音声の認識結果である音声認識結果、ジェスチャ認識装置11による搭乗者のジェスチャの認識結果であるジェスチャ認識結果、及び、指示入力部14が出力する操作信号等を取得する。そして、HMIユニット1は、取得した音声認識結果、ジェスチャ認識結果及び操作信号に応じた処理を実行する。例えば、HMIユニット1は、エアコン17に対して空調の開始を指示する指示信号を出力するなど、車載機器に対して指示信号を出力する。また、例えば、HMIユニット1は、表示装置15に対して、画像の表示を指示する指示信号を出力する。また、例えば、HMIユニット1は、スピーカ16に対して、音声の出力を指示する指示信号を出力する。
なお、「搭乗者」とは、HMIユニット1が搭載された車両に搭乗している者である。「搭乗者」は、ジェスチャ操作装置2等のユーザでもある。また、「搭乗者のジェスチャ」とは、搭乗者が当該車両内で行ったジェスチャであり、「搭乗者の発話音声」とは、搭乗者が当該車両内で発話した音声である。
ジェスチャ操作装置2は、動作状態として実行状態と登録状態という2つの異なる動作状態を有している。実行状態は、搭乗者のジェスチャに応じた機能を実行する制御が行われる状態である。登録状態は、搭乗者のジェスチャに対して機能を割り当てる制御が行われる状態である。実施の形態1では、デフォルトの動作状態は実行状態であり、搭乗者が指示入力部14を操作して動作状態の切替を指示することで、実行状態から登録状態へと動作状態が切替わる。
ジェスチャ認識装置11は、車両内を撮像する赤外線カメラ等である撮像装置10から、撮像画像を取得する。ジェスチャ認識装置11は、当該撮像画像を解析して、搭乗者のジェスチャを認識し、当該ジェスチャが示されたジェスチャ認識結果を作成してジェスチャ操作装置2へ出力する。ジェスチャ認識装置11が認識の対象とするジェスチャとしては、1種類以上のジェスチャが予め定められており、ジェスチャ認識装置11は、当該予め定められたジェスチャの情報を有しているものとする。したがって、ジェスチャ認識装置11が認識する搭乗者のジェスチャは、予め定められたジェスチャのうち、いずれの種類のジェスチャであるかが特定されたジェスチャであり、この点は、ジェスチャ認識結果が示すジェスチャについても同様である。なお、撮像画像の解析によるジェスチャの認識は、公知の技術であるので、説明を省略する。
ジェスチャ認識結果取得部2aは、ジェスチャ認識装置11から、認識されたジェスチャが示されたジェスチャ認識結果を取得する。ジェスチャ認識結果取得部2aは、取得したジェスチャ認識結果を制御部2dへ出力する。
制御部2dは、動作状態が実行状態である場合、ジェスチャ認識結果取得部2aから取得したジェスチャ認識結果に対する処理と、音声認識結果取得部2bから取得した音声認識結果に対する処理とを、互いに独立して行う。
実施の形態1では、制御部2dのデフォルトの動作状態は実行状態であるとする。搭乗者が、指示入力部14を操作して実行状態から登録状態へと動作状態の切替を指示すると、当該指示を示す操作信号がHMI制御部3を介して制御部2dへ出力され、制御部2dの動作状態が登録状態へと切替わる。
ジェスチャ操作装置2の記憶部2cは、後述のメモリ102のような、各種の記憶装置で構成される。
ジェスチャ操作装置2のジェスチャ認識結果取得部2a、音声認識結果取得部2b及び制御部2dの各機能は、処理回路により実現される。当該処理回路は、専用のハードウェアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit)であってもよい。CPUは、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ又はDSP(Digital Signal Processor)とも呼ばれる。
制御部2dは、音声認識結果取得部2bが出力した音声認識結果を取得する(ステップST1)。
続いて、制御部2dは、取得した音声認識結果に示される機能情報をHMI制御部3へ出力する(ステップST2)。
制御部2dは、ジェスチャ認識結果取得部2aが出力したジェスチャ認識結果を取得する(ステップST11)。
続いて、制御部2dは、記憶部2cを参照して当該ジェスチャ認識結果に示されるジェスチャに対応付けられた機能情報を取得する(ステップST12)。
続いて、制御部2dは、取得した機能情報をHMI制御部3へ出力する(ステップST13)。
登録待ち時間が登録可能時間を超えている場合(ステップST22;NO)、制御部2dは、動作状態を登録状態から実行状態へと切替えて、登録状態での処理を終了する。
具体的には、制御部2dは、音声認識結果を取得済みであるかを判定する(ステップST23)。制御部2dは、音声認識結果を取得していない場合(ステップST23;NO)、音声認識結果取得部2bからの音声認識結果の取得を試みて(ステップST24)、その後にステップST27の処理へ移る。
一方、制御部2dは、音声認識結果を取得している場合(ステップST23;YES)、ステップST27の処理へ移る。
一方、制御部2dは、ジェスチャ認識結果を取得している場合(ステップST25;YES)、ステップST27の処理へ移る。
一方、制御部2dは、音声認識結果及びジェスチャ認識結果の両方を取得済みの場合(ステップST27;YES)、音声認識結果に示される機能情報とジェスチャ認識結果に示されるジェスチャとを対応付けて記憶部2cに登録する(ステップST28)。
搭乗者は、制御部2dの動作状態を実行状態から登録状態へと切替えた後、登録可能時間内に、左手を右から左へ移動させるとともに、「ラジオを聴きたい」と発話する。
これにより、以後、搭乗者は、左手を右から左へ移動させることにより、ラジオを起動させることができるようになる。
搭乗者は、手動操作とは異なる手段である発話によって、ジェスチャの操作意図をジェスチャ操作装置2に伝えること、すなわちジェスチャに対応する機能情報を登録することができる。したがって、搭乗者は、手動操作によってジェスチャの操作意図をジェスチャ操作装置2に伝える場合に比べて少ない手間及び時間での登録が可能となる。
また、搭乗者は、自分の好みでジェスチャと機能情報との対応付けを決めることができるので、ジェスチャによる機器操作を直感的に利用することができるようになる。
この場合、制御部2dが参照可能なように、記憶部2cには、ジェスチャ認識装置11において認識対象となっているジェスチャごとに対となるジェスチャが予め記憶されている。また、記憶部2cには、機能情報ごとに対となる機能情報についても予め記憶されている。
続いて、制御部2dは、記憶部2cにおいて第2ジェスチャに対応付けられている機能情報を、特定した第2機能情報で上書きして登録する。
具体的には、制御部2dは、動作状態が実行状態である場合、音声認識結果取得部2bに対して、音声認識装置13から音声認識結果を取得しないよう指示する。また、HMI制御部3は、音声認識装置13から直接に音声認識結果を取得するように自身の制御の切り替えを行う。そして、制御部2dは、動作状態が登録状態へと切替わった場合に、音声認識結果取得部2bに対して、音声認識装置13から音声認識結果を取得するよう指示する。また、HMI制御部3は、ジェスチャ操作装置2を介して機能情報を取得するように自身の制御の切り替えを行う。
このようにすると、搭乗者は、登録に使えるジェスチャについて分からなくてもマニュアル等を調べる必要が無くなり、利便性がよい。
ジェスチャ操作装置2は、図7に示すように、認証結果を取得する認証結果取得部2eを有し、認証結果取得部2eは、取得した認証結果を制御部2dへ出力する。
そして、制御部2dは、実行状態においてジェスチャ認識結果を取得した場合、認証結果に示される個人を対象に、当該ジェスチャ認識結果に示されるジェスチャに対応付けられた機能情報を特定する。これにより、例えば、ユーザAが「左手を右から左に移動」というジェスチャを行った場合、ラジオが起動し、ユーザBが同じジェスチャを行った場合、エアコンが起動することになる。
このように、個人ごとにジェスチャと機能情報との対応付けが登録されることで、利便性が向上する。
実施の形態2では、撮像装置10の撮像範囲に複数の人物が存在し得る場合の形態について説明する。この場合、ジェスチャ操作装置2は、登録状態において、発話した人物のジェスチャを対象に処理を行う。つまり、例えば車両内において、助手席にいる搭乗者が、ジェスチャと機能情報とを対応付けて登録したいと考え発話をした場合、ジェスチャ操作装置2は、助手席にいる搭乗者のジェスチャを登録の処理に用いる。これにより、助手席にいる搭乗者がジェスチャを行う前に運転席にいる搭乗者がジェスチャをしてしまうなどして、助手席にいる搭乗者が意図したものとは異なる登録が行われてしまうことを防ぐ。
特定結果取得部2fは、発話者特定装置18から特定結果を取得し、制御部2dへ出力する。
なお、発話者特定装置18及び特定結果取得部2fは、図3Aに示す処理回路101、又は、図3Bに示すメモリ102及びCPU103で実現することができる。
発話者特定装置18は、過去設定時間分の撮像画像を不図示の記憶部を用いて保持しており、特定結果取得部2fからの指示を受けて、発話者を特定する。
このように、制御部2dは、ジェスチャ認識結果と特定結果とを用いることで、音声認識結果取得部2bにより取得された音声認識結果に示される機能情報に対して、発話者のジェスチャを適切に対応付けて登録する。
Claims (7)
- 認識されたジェスチャに割り当てられた機能を示す機能情報を出力するジェスチャ操作装置であって、
認識されたジェスチャが示されたジェスチャ認識結果を取得するジェスチャ認識結果取得部と、
発話音声が音声認識されて発話意図に対応する機能情報が示された音声認識結果を取得する音声認識結果取得部と、
前記ジェスチャ認識結果取得部により取得されたジェスチャ認識結果に示されるジェスチャと、前記音声認識結果取得部により取得された音声認識結果に示される機能情報とを対応付けて登録する制御部とを備えることを特徴とするジェスチャ操作装置。 - 前記制御部は、動作状態として登録状態と実行状態とを有し、
前記制御部は、動作状態が登録状態である場合は、前記ジェスチャ認識結果取得部により取得されたジェスチャ認識結果に示されるジェスチャと、前記音声認識結果取得部により取得された音声認識結果に示される機能情報とを対応付けて登録し、動作状態が実行状態である場合は、前記ジェスチャ認識結果取得部により取得されたジェスチャ認識結果に示されるジェスチャに対応付けられた機能情報を出力することを特徴とする請求項1記載のジェスチャ操作装置。 - 前記制御部は、第1ジェスチャと第1機能情報とを対応付けて登録すると、当該第1機能情報と対になる第2機能情報を、当該第1ジェスチャと対になる第2ジェスチャと対応付けて登録することを特徴とする請求項1記載のジェスチャ操作装置。
- 前記制御部は、動作状態が登録状態になってから登録可能時間内に前記ジェスチャ認識結果取得部により取得されたジェスチャ認識結果に示されるジェスチャと、動作状態が登録状態になってから前記登録可能時間内に前記音声認識結果取得部により取得された音声認識結果に示される機能情報とを対応付けて登録することを特徴とする請求項2記載のジェスチャ操作装置。
- 認証された個人が示された認証結果を取得する認証結果取得部を備え、
前記制御部は、前記認証結果取得部により取得された認証結果を用いて、個人ごとに、前記ジェスチャ認識結果取得部により取得されたジェスチャ認識結果に示されるジェスチャと、前記音声認識結果取得部により取得された音声認識結果に示される機能情報とを対応付けて登録することを特徴とする請求項1記載のジェスチャ操作装置。 - 特定された発話者が示された特定結果を取得する特定結果取得部を備え、
前記ジェスチャ認識結果取得部は、認識されたジェスチャと当該ジェスチャを行った人物との対応が示されたジェスチャ認識結果を取得し、
前記制御部は、当該ジェスチャ認識結果と前記特定結果取得部により取得された特定結果とを用いて、前記音声認識結果取得部により取得された音声認識結果に示される機能情報に対して、発話者のジェスチャを対応付けて登録することを特徴とする請求項1記載のジェスチャ操作装置。 - 認識されたジェスチャに割り当てられた機能を示す機能情報を出力するジェスチャ操作装置のジェスチャ操作方法であって、
ジェスチャ認識結果取得部が、認識されたジェスチャが示されたジェスチャ認識結果を取得するジェスチャ認識結果取得ステップと、
音声認識結果取得部が、発話音声が音声認識されて発話意図に対応する機能情報が示された音声認識結果を取得する音声認識結果取得ステップと、
制御部が、前記ジェスチャ認識結果取得ステップにより取得されたジェスチャ認識結果に示されるジェスチャと、前記音声認識結果取得ステップにより取得された音声認識結果に示される機能情報とを対応付けて登録する制御ステップとを備えることを特徴とするジェスチャ操作方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/022847 WO2018235191A1 (ja) | 2017-06-21 | 2017-06-21 | ジェスチャ操作装置及びジェスチャ操作方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6584731B2 true JP6584731B2 (ja) | 2019-10-02 |
JPWO2018235191A1 JPWO2018235191A1 (ja) | 2019-11-07 |
Family
ID=64736972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019524773A Expired - Fee Related JP6584731B2 (ja) | 2017-06-21 | 2017-06-21 | ジェスチャ操作装置及びジェスチャ操作方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200201442A1 (ja) |
JP (1) | JP6584731B2 (ja) |
CN (1) | CN110770693A (ja) |
DE (1) | DE112017007546T5 (ja) |
WO (1) | WO2018235191A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10782986B2 (en) | 2018-04-20 | 2020-09-22 | Facebook, Inc. | Assisting users with personalized and contextual communication content |
US11676220B2 (en) | 2018-04-20 | 2023-06-13 | Meta Platforms, Inc. | Processing multimodal user input for assistant systems |
US11715042B1 (en) | 2018-04-20 | 2023-08-01 | Meta Platforms Technologies, Llc | Interpretability of deep reinforcement learning models in assistant systems |
US11886473B2 (en) | 2018-04-20 | 2024-01-30 | Meta Platforms, Inc. | Intent identification for agent matching by assistant systems |
KR102272309B1 (ko) * | 2019-03-15 | 2021-07-05 | 엘지전자 주식회사 | 차량 제어 장치 |
JP7254345B2 (ja) | 2019-08-26 | 2023-04-10 | 株式会社Agama-X | 情報処理装置及びプログラム |
JP2021060655A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社リクルート | 順番管理システム、順番管理端末、およびプログラム |
US20230056993A1 (en) | 2020-02-28 | 2023-02-23 | Nec Corporation | Authentication terminal, entrance/exit management system, entrance/exit management method, and program |
CN113467604A (zh) * | 2020-05-28 | 2021-10-01 | 海信集团有限公司 | 一种数据交互方法以及相关设备 |
KR102472956B1 (ko) * | 2020-08-25 | 2022-12-01 | 네이버 주식회사 | 사용자 인증 방법 및 시스템 |
CN114613362A (zh) * | 2022-03-11 | 2022-06-10 | 深圳地平线机器人科技有限公司 | 设备控制方法和装置、电子设备和介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2993872B2 (ja) * | 1995-10-16 | 1999-12-27 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | マルチモーダル情報統合解析装置 |
JPH1173297A (ja) * | 1997-08-29 | 1999-03-16 | Hitachi Ltd | 音声とジェスチャによるマルチモーダル表現の時間的関係を用いた認識方法 |
JP4031255B2 (ja) * | 2002-02-13 | 2008-01-09 | 株式会社リコー | ジェスチャコマンド入力装置 |
JP3837505B2 (ja) * | 2002-05-20 | 2006-10-25 | 独立行政法人産業技術総合研究所 | ジェスチャ認識による制御装置のジェスチャの登録方法 |
US7180500B2 (en) * | 2004-03-23 | 2007-02-20 | Fujitsu Limited | User definable gestures for motion controlled handheld devices |
KR100978929B1 (ko) * | 2008-06-24 | 2010-08-30 | 한국전자통신연구원 | 기준 제스처 데이터 등록방법, 이동단말의 구동방법 및이를 수행하는 이동단말 |
CN102207783A (zh) * | 2010-03-31 | 2011-10-05 | 鸿富锦精密工业(深圳)有限公司 | 可自定义触摸动作的电子装置及方法 |
US20110314427A1 (en) * | 2010-06-18 | 2011-12-22 | Samsung Electronics Co., Ltd. | Personalization using custom gestures |
US20130204457A1 (en) * | 2012-02-06 | 2013-08-08 | Ford Global Technologies, Llc | Interacting with vehicle controls through gesture recognition |
US9600169B2 (en) * | 2012-02-27 | 2017-03-21 | Yahoo! Inc. | Customizable gestures for mobile devices |
US10620709B2 (en) * | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
KR20160071732A (ko) * | 2014-12-12 | 2016-06-22 | 삼성전자주식회사 | 음성 입력을 처리하는 방법 및 장치 |
-
2017
- 2017-06-21 JP JP2019524773A patent/JP6584731B2/ja not_active Expired - Fee Related
- 2017-06-21 US US16/613,015 patent/US20200201442A1/en not_active Abandoned
- 2017-06-21 CN CN201780092131.9A patent/CN110770693A/zh not_active Withdrawn
- 2017-06-21 DE DE112017007546.7T patent/DE112017007546T5/de not_active Withdrawn
- 2017-06-21 WO PCT/JP2017/022847 patent/WO2018235191A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN110770693A (zh) | 2020-02-07 |
US20200201442A1 (en) | 2020-06-25 |
DE112017007546T5 (de) | 2020-02-20 |
WO2018235191A1 (ja) | 2018-12-27 |
JPWO2018235191A1 (ja) | 2019-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6584731B2 (ja) | ジェスチャ操作装置及びジェスチャ操作方法 | |
US8484033B2 (en) | Speech recognizer control system, speech recognizer control method, and speech recognizer control program | |
JP4304952B2 (ja) | 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム | |
JP2017090613A (ja) | 音声認識制御システム | |
JP6604151B2 (ja) | 音声認識制御システム | |
JP2017090612A (ja) | 音声認識制御システム | |
JP6767082B2 (ja) | 車内通話制御装置、車内通話システムおよび車内通話制御方法 | |
US20180217985A1 (en) | Control method of translation device, translation device, and non-transitory computer-readable recording medium storing a program | |
JP2017090614A (ja) | 音声認識制御システム | |
JP4660592B2 (ja) | カメラ制御装置、カメラ制御方法、カメラ制御プログラムおよび記録媒体 | |
JP4410378B2 (ja) | 音声認識方法および装置 | |
JP6522009B2 (ja) | 音声認識システム | |
JP2024505968A (ja) | 乗員発話検出方法及び装置、電子機器並びに記憶媒体 | |
JP6385624B2 (ja) | 車載情報処理装置、車載装置および車載情報処理方法 | |
JP4478146B2 (ja) | 音声認識システム、音声認識方法およびそのプログラム | |
CN107548483B (zh) | 控制方法、控制装置、系统以及包括这样的控制装置的机动车辆 | |
JP7003268B2 (ja) | 車載情報装置および携帯端末との連携方法 | |
JP2007057805A (ja) | 車両用情報処理装置 | |
JP6717537B2 (ja) | 操作制限制御装置及び操作制限制御方法 | |
KR101710695B1 (ko) | 차량용 음성 인식을 위한 마이크로폰 제어 시스템 및 그 제어 방법 | |
JP7407665B2 (ja) | 音声出力制御装置および音声出力制御プログラム | |
JP2018180424A (ja) | 音声認識装置および音声認識方法 | |
WO2024070080A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2000250592A (ja) | 音声認識操作システム | |
JP2008233009A (ja) | カーナビゲーション装置及びカーナビゲーション装置用プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190516 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190516 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190628 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6584731 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |