JP2021039260A - 提示装置 - Google Patents
提示装置 Download PDFInfo
- Publication number
- JP2021039260A JP2021039260A JP2019161089A JP2019161089A JP2021039260A JP 2021039260 A JP2021039260 A JP 2021039260A JP 2019161089 A JP2019161089 A JP 2019161089A JP 2019161089 A JP2019161089 A JP 2019161089A JP 2021039260 A JP2021039260 A JP 2021039260A
- Authority
- JP
- Japan
- Prior art keywords
- voice recognition
- user
- actuator
- current state
- recognition system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006870 function Effects 0.000 abstract description 44
- 230000035807 sensation Effects 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000015541 sensory perception of touch Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000035935 pregnancy Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
Abstract
【課題】音声認識機能のスムーズな操作の実現を可能にした提示装置を提供する。【解決手段】音声認識システム3は、音声認識システム3の現状態を、五感の少なくとも1つの感覚に訴える出力が可能なアクチュエータ7を通じてユーザに提示する提示装置8を備える。提示装置8には、音声認識システム3の現状態に基づく作動情報Sbを取得する取得部13と、取得部13で取得した作動情報Sbを基に、五感の少なくとも1つの感覚(本例は、振動を感じる触覚)に訴える出力が可能なアクチュエータ7を作動させることにより、音声妊娠期機能の現状態をユーザに把握させる制御部14とが設けられる。【選択図】図1
Description
本発明は、音声認識の現状態をユーザに提示する提示装置に関する。
従来、ユーザから発話された音声を認識して操作対象を作動させる音声認識システムが周知である(特許文献1等参照)。車両の分野では、この種の音声認識システムを車両に搭載して、音声によりエアーコンディショナー装置やオーディオ装置等を作動させて、ユーザの利便性向上を図ることが検討されている。
音声認識システムには、複数の操作ステップがあり、その操作ステップに応じて状態が刻々と変化する実情がある。このため、ユーザにとっては、音声認識システムの現状態が分かり難く、操作性がよくない問題があった。これは、車両に音声認識システムを搭載した場合、運転の安全性を確保する点からしても、音声認識システムの操作を分かり易いものにすることには高いニーズがある。
本発明の目的は、音声認識機能のスムーズな操作の実現を可能にした提示装置を提供することにある。
前記問題点を解決する提示装置は、音声入力を通じて操作対象を動作させる音声認識機能の現状態に基づく作動情報を取得する取得部と、前記取得部で取得した前記作動情報を基に、五感の少なくとも1つの感覚に訴える出力が可能なアクチュエータを作動させることにより、前記音声認識機能の現状態をユーザに把握させる制御部とを備えた。
本発明によれば、音声認識機能のスムーズな操作を実現できる。
(第1実施形態)
以下、提示装置の第1実施形態を図1〜図4に従って説明する。
図1に示すように、車両1は、ユーザから発話された音声を音声認識して操作対象2を作動させる音声認識機能として音声認識システム3を備える。音声認識システム3は、ユーザが発話する音声を入力する音声入力装置4と、音声入力装置4で収集した音声を基に音声認識システム3を作動させる制御装置5とを備える。音声入力装置4は、例えば車載されたマイク等の集音部である。音声入力装置4及び制御装置5は、有線及び無線のどちらで接続されてもよい。
以下、提示装置の第1実施形態を図1〜図4に従って説明する。
図1に示すように、車両1は、ユーザから発話された音声を音声認識して操作対象2を作動させる音声認識機能として音声認識システム3を備える。音声認識システム3は、ユーザが発話する音声を入力する音声入力装置4と、音声入力装置4で収集した音声を基に音声認識システム3を作動させる制御装置5とを備える。音声入力装置4は、例えば車載されたマイク等の集音部である。音声入力装置4及び制御装置5は、有線及び無線のどちらで接続されてもよい。
操作対象2は、車内を空調するエアーコンディショナー装置、音楽を再生出力するオーディオ装置などがある。また、これら以外の操作対象2は、例えば自車の現在位置表示や目的地案内等を実行するカーナビゲーション装置がある。これら以外の操作対象2は、例えばユーザが着座するシート装置でもよい。
制御装置5は、音声認識システム3の作動を制御する音声認識部6を備える。音声認識部6は、音声入力装置4から入力する音声信号Saを音声認識する。音声認識の手法は、既知の種々の手法を用いることができる。音声認識部6は、音声認識の認識結果(音声認識結果)を基に、音声認識結果に応じた態様で操作対象2が作動するように操作対象2を制御する。このように、ユーザから発話される音声を通じて、エアーコンディショナー装置やオーディオ装置等が操作される。
音声認識システム3は、音声認識システム3の現状態を、五感の少なくとも1つの感覚に訴える出力が可能なアクチュエータ7を通じて、ユーザ(本例は運転者)に提示する機能(提示装置8)を備える。音声認識システム3の現状態には、例えばシステムの「起動」、音声の入力を待つ状態である「セリフ受付中」、受け付けた音声を認識している状態である「セリフ認識中」、音声認識の処理が完了した状態である「セリフ認識完了」、音声認識の処理が完遂できずに失敗した状態である「セリフ認識失敗」等がある。音声認識システム3は、これら現状態を、アクチュエータ7の作動を通じて、ユーザに通知する。
図2に示すように、アクチュエータ7は、五感の触覚に訴える出力が可能な振動装置9である。振動装置9は、ユーザである運転者が運転姿勢で前方視のまま作動を感じることができる位置(部位)に取り付けられることが好ましい。本例の場合、振動装置9は、操作対象2が搭載された車両1を運転する際に操作する操作部10に設けられている。このように、振動装置9は、車両1の運転時にユーザの身体が触れる箇所に設けられている。操作部10は、例えば車両操舵の際に操作するステアリングホイール11であることが好ましい。また、本例の振動装置9は、ステアリングホイール11の片側に1つ設けられている。振動装置9は、音声認識システム3の現状態に応じた態様で振動する。
図1に示す通り、提示装置8は、音声認識システム3の現状態に基づく作動情報Sbを取得する取得部13を備える。取得部13は、制御装置5に設けられている。作動情報Sbは、音声認識部6の現在の作動状態を表す情報であることが好ましい。このように、取得部13は、作動情報Sbとして、音声認識部6から音声認識システム3の現状態に係る情報を取得する。
提示装置8は、取得部13で取得した作動情報Sbを基にアクチュエータ7を作動させて音声認識機能の現状態をユーザに把握させる制御部14を備える。制御部14は、制御装置5に設けられている。本例の場合、音声認識システム3の現状態には、音声認識結果に基づく情報の提供を行っていない状態(例えば、「セリフ認識中」等)を含む。制御部14は、音声入力が可能な状態か否かを、アクチュエータ7の動作パターン(振動装置9の振動パターン)を通じてユーザに把握させる。
次に、図3及び図4を用いて、本実施形態の音声認識システム3及び提示装置8の作用について説明する。
図3に示すように、音声認識システム3は、電源がオフされた待機状態をとって、起動操作が行われるのを待つ(ステップ101)。音声認識システム3は、起動操作を受け付けると、待機状態から起動状態に切り替わる(ステップ102)。起動操作は、例えば音声認識システム3の電源を投入するスイッチやセンサを操作することや、起動を要求するジェスチャをカメラ等(図示略)に画像認識させることなどがある。音声認識システム3は、システムの起動後、ユーザからの発話を待つ「セリフ受付中」の状態に入る(ステップ103)。
図3に示すように、音声認識システム3は、電源がオフされた待機状態をとって、起動操作が行われるのを待つ(ステップ101)。音声認識システム3は、起動操作を受け付けると、待機状態から起動状態に切り替わる(ステップ102)。起動操作は、例えば音声認識システム3の電源を投入するスイッチやセンサを操作することや、起動を要求するジェスチャをカメラ等(図示略)に画像認識させることなどがある。音声認識システム3は、システムの起動後、ユーザからの発話を待つ「セリフ受付中」の状態に入る(ステップ103)。
音声認識システム3は、「セリフ受付中」の動作状態においてユーザの発話を音声入力装置4で入力すると、この発話を音声認識する「セリフ認識中」の動作状態に入る(ステップ104)。すなわち、音声認識部6が音声入力装置4から音声信号Saを入力して音声認識の状態に入ると、音声認識システム3が「セリフ認識中」の状態に移行する。
図4に示すように、制御部14は、音声認識システム3が「セリフ認識中」である旨の作動情報Sbが音声認識部6から出力されて、これを取得部13で取得した場合、「セリフ認識中」を通知可能な態様でアクチュエータ7を作動させる。すなわち、制御部14は、音声認識システム3の現状態が「セリフ認識中」に切り替わった場合、「セリフ認識中」を通知可能な態様で振動装置9を振動させる。本例の場合、振動装置9は、周期的な弱い振動で複数回(n回)振動する。これにより、ステアリングホイール11を把持する運転者は、音声認識システム3の現状態が「セリフ認識中」であることを、振動装置9の振動パターンから認識することができる。なお、本例では述べなかったが、音声認識システム3が起動したときや、セリフ受付中のときも、振動装置9の振動パターンによって各々の状態をユーザに通知するようにしてもよい。
図3に示す通り、音声認識システム3は、音声認識の処理を完遂できた場合、セリフ認識を完了する(ステップ105)。一方、音声認識システム3は、音声認識の処理を時間内に完了できなかった場合、セリフ認識を失敗する(ステップ106)。
図4に示す通り、制御部14は、音声認識システム3が「セリフ認識完了」である旨の作動情報Sbが音声認識部6から出力されて、これを取得部13で取得した場合、「セリフ認識完了」を通知可能な態様でアクチュエータ7を作動させる。すなわち、制御部14は、音声認識システム3の現状態が「セリフ認識完了」となった場合、その状態をユーザに通知する動作パターンとして、振動装置9によって強い振動を1回発生させる。これにより、ステアリングホイール11を把持する運転者に対し、音声認識システム3の現状態が「セリフ認識完了」となっていることを、振動装置9の振動パターンを通じて認識させることが可能となる。
また、制御部14は、音声認識システム3が「セリフ認識失敗」である旨の作動情報Sbが音声認識部6から出力されて、これを取得部13で取得した場合、「セリフ認識失敗」を通知可能な態様でアクチュエータ7を作動させる。すなわち、音声認識システム3の現状態が「セリフ認識失敗」となった場合、その状態をユーザに通知する動作パターンとして、振動装置9によって強い振動を2回発生させる。これにより、ステアリングホイール11を把持する運転者に対し、音声認識システム3の現状態が「セリフ認識失敗」となっていることを、振動装置9の振動パターンを通じて認識させることが可能となる。
図3に示す通り、音声認識システム3は、セリフ認識を完了した場合、音声認識結果通知として、認識結果に基づく動作を実行する。認識結果に基づく動作は、例えば操作対象2がユーザの音声による要求に応じた動作を開始することである。認識結果に基づく他の動作としては、例えば音声認識結果を車内のスピーカから音声で出力する形式でもよいし、車内のモニタに文字や絵柄等で出力する形式でもよい。いずれにせよ、音声認識が滞りなく完遂されれば、音声入力により指示した態様で操作対象2が動作する。
上記実施形態の音声認識システム3及び提示装置8によれば、以下のような効果を得ることができる。
(1)提示装置8には、音声入力を通じて操作対象2を動作させる音声認識機能の現状態に基づく作動情報Sbを取得する取得部13を設ける。提示装置8には、取得部13で取得した作動情報Sbを基に、五感の少なくとも1つの感覚(本例は、振動を感じる触覚)に訴える出力が可能なアクチュエータ7を作動させることにより、音声妊娠期機能の現状態をユーザに把握させる制御部14を設けた。本例によれば、音声認識機能の現状態を、アクチュエータ7の動作パターンを通じ、分かり易くユーザに通知することが可能となる。よって、音声認識機能のスムーズな操作を実現することができる。
(1)提示装置8には、音声入力を通じて操作対象2を動作させる音声認識機能の現状態に基づく作動情報Sbを取得する取得部13を設ける。提示装置8には、取得部13で取得した作動情報Sbを基に、五感の少なくとも1つの感覚(本例は、振動を感じる触覚)に訴える出力が可能なアクチュエータ7を作動させることにより、音声妊娠期機能の現状態をユーザに把握させる制御部14を設けた。本例によれば、音声認識機能の現状態を、アクチュエータ7の動作パターンを通じ、分かり易くユーザに通知することが可能となる。よって、音声認識機能のスムーズな操作を実現することができる。
(2)音声認識機能の現状態には、音声認識結果に基づく情報の提供を行っていない状態も含む。このため、音声認識機能の出力(例えば、音声ガイドや画面表示ガイド等)がない状態であっても、この状態を明確に把握することが可能となる。よって、音声認識機能の現状態が今どの状態にあるのか分からない状況になり難い。
(3)制御部14は、音声入力が可能な状態か否かを、アクチュエータ7の動作パターンを通じてユーザに把握させる。よって、どのタイミングで音声認識の発話をしてよいのかが分かるので、音声認識機能のスムーズな操作の実現に一層寄与する。
(4)制御部14は、アクチュエータ7の振動により、音声認識機能の現状態をユーザに把握させる。よって、アクチュエータ7による振動を通じて、音声認識機能の現状態を分かり易くユーザに通知することができる。
(5)アクチュエータ7は、車両1の運転時にユーザの身体が触れる箇所に設けられている。よって、ユーザに対して音声認識機能の現状態を、触覚を通じて分かり易く通知することができる。
(6)アクチュエータ7は、操作対象2が搭載された車両1を運転する際に操作する操作部10(本例は、ステアリングホイール11)に設けられている。よって、操作部10の操作時には、同時にアクチュエータ7に触れる状態をとるので、操作部10を操作しながらアクチュエータ7の動作パターンを認識することができる。また、運転姿勢で前方視のままアクチュエータ7の動作パターンを把握することも可能であるので、安全運転の確保という点からも効果が高い。
(第2実施形態)
次に、第2実施形態を図5〜図7に従って説明する。なお、第2実施形態は、第1実施形態のアクチュエータ7の個数と動作パターンを変更した実施例である。よって、第1実施形態と同様の部分には同じ符号を付して詳しい説明を省略し、異なる部分についてのみ詳述する。
次に、第2実施形態を図5〜図7に従って説明する。なお、第2実施形態は、第1実施形態のアクチュエータ7の個数と動作パターンを変更した実施例である。よって、第1実施形態と同様の部分には同じ符号を付して詳しい説明を省略し、異なる部分についてのみ詳述する。
図5に示すように、アクチュエータ7(振動装置9)は、複数設けられ、本例の場合、操作部10の複数箇所に非隣接で配置されている。本例の場合、アクチュエータ7は、車両1のステアリングホイール11の左右両側に計2つ設けられている。アクチュエータ7は、紙面右側を「7a」とし、紙面左側を「7b」とする。制御部14は、音声認識システム3の現状態に応じた動作パターンで、これら2つのアクチュエータ7a,7bを動作させる。このように、本例の場合、左右一対のアクチュエータ7a,7bを動作させて、音声認識システム3の現状態をユーザに把握させる。
音声認識システム3は、音声認識機能の動作において音声認識システム3側の出力動作を実行する出力部17を備える。出力部17は、例えば音声認識においてセリフ認識が完了した場合に、そのときの認識結果をユーザに通知する。出力部17による音声認識結果の通知は、例えば聴覚的な通知や、視覚的な通知のいずれでもよい。
図6に示すように、出力部17は、例えば擬人化されたロボットエージェント18であることが好ましい。ロボットエージェント18は、座部19と、ロボットの頭部を模した可動部20とを備える。可動部20は、座部19に対して可動可能に取り付けられ、例えば上下左右に動くことが可能に構成されることが好ましい。可動部20は、前面がディスプレイ21となっており、ディスプレイ21で表情を表現しつつ、内部のスピーカ22から音声による発話を実行する。
次に、図7を用いて、本実施形態の音声認識システム3及び提示装置8の作用について説明する。
図7(a)に示すように、制御部14は、例えば音声認識システム3がセリフ認識中のときや、音声認識結果通知を出力する音声ガイド中のときなど、音声入力を受け付けることができない状態の場合、音声認識システム3の操作の主導がシステム側(機械側)にあると判断する。制御部14は、音声認識システム3の操作の主導がシステム側(機械側)にある場合、複数のアクチュエータ7a,7bのうち、出力部17側のアクチュエータ7aを振動させる。本例の場合、出力部17側に位置する紙面右側のアクチュエータ7aを振動させる。よって、音声認識システム3の主導がシステム側にあり、ユーザは今操作できないことを認識することができる。
図7(a)に示すように、制御部14は、例えば音声認識システム3がセリフ認識中のときや、音声認識結果通知を出力する音声ガイド中のときなど、音声入力を受け付けることができない状態の場合、音声認識システム3の操作の主導がシステム側(機械側)にあると判断する。制御部14は、音声認識システム3の操作の主導がシステム側(機械側)にある場合、複数のアクチュエータ7a,7bのうち、出力部17側のアクチュエータ7aを振動させる。本例の場合、出力部17側に位置する紙面右側のアクチュエータ7aを振動させる。よって、音声認識システム3の主導がシステム側にあり、ユーザは今操作できないことを認識することができる。
図7(b)に示すように、制御部14は、例えば音声認識システム3が起動に待機するときや、セリフ受付中のときなど、音声入力を受け付けることができる状態の場合、音声認識システム3の操作の主導がユーザ側(運転者側)にあると判断する。制御部14は、音声認識システム3の操作の主導がユーザ側(運転者側)にある場合、左右に一対設けられたアクチュエータ7a,7bのうち、ユーザ側のアクチュエータ7bを振動させる。本例の場合、ユーザ側に位置する紙面左側のアクチュエータ7bを振動させる。よって、音声認識システム3の主導がユーザ側にあり、ユーザは音声入力が可能なことを認識することができる。
図7(c)に示すように、制御部14は、例えば音声認識システム3が音声ガイド中ではあるが発話が可能な状態の場合、音声認識システム3の操作の主導がシステム及びユーザの両方にあると判断する。このとき、制御部14は、左右両方のアクチュエータ7a,7bを振動させる。よって、ユーザは、音声認識システム3の主導がシステム及びユーザの両方にあることを、アクチュエータ7a,7bの振動から認識することができる。
上記実施形態の音声認識システム3及び提示装置8によれば、第1実施形態の(1)〜(6)に加え、以下のような効果を得ることができる。
(7)アクチュエータ7は、アクチュエータ7a,7bの複数が設けられる。制御部14は、音声認識機能の現状態に応じた動作パターンでアクチュエータ7a,7bを作動させることにより、音声認識機能の現状態をユーザに把握させる。このため、複数のアクチュエータ7a,7bを作動させることにより種々の表現が可能となるので、音声認識機能の種々の現状態を、様々なバリエーションで通知することが可能となる。よって、音声認識機能のスムーズな操作の実現に一層寄与する。
(7)アクチュエータ7は、アクチュエータ7a,7bの複数が設けられる。制御部14は、音声認識機能の現状態に応じた動作パターンでアクチュエータ7a,7bを作動させることにより、音声認識機能の現状態をユーザに把握させる。このため、複数のアクチュエータ7a,7bを作動させることにより種々の表現が可能となるので、音声認識機能の種々の現状態を、様々なバリエーションで通知することが可能となる。よって、音声認識機能のスムーズな操作の実現に一層寄与する。
(8)アクチュエータ7a,7bは、操作部10の複数箇所に非隣接で配置されている。制御部14は、アクチュエータ7a,7bを作動させることにより、音声認識機能の現状態をユーザに把握させる。よって、操作部10の複数箇所に非隣接で配置されたアクチュエータ7a,7bを用い、音声認識機能の種々の現状態を、様々なバリエーションで通知することができる。
(第3実施形態)
次に、第3実施形態を図8及び図9に従って説明する。なお、第3実施形態も、第1及び第2実施形態と異なる部分についてのみ詳述する。
次に、第3実施形態を図8及び図9に従って説明する。なお、第3実施形態も、第1及び第2実施形態と異なる部分についてのみ詳述する。
図8(a)、(b)に示すように、アクチュエータ7は、操作部10において隣接する並びで複数設けられた組が複数組(本例は2組)配置されている。このように、アクチュエータ7は、1つの操作箇所において複数設けられたものが複数組設けられている。本例の場合、アクチュエータ7は、ステアリングホイール11の紙面右側の操作箇所に2つ(7c,7d)、ステアリングホイール11の紙面左側の操作箇所に2つ(7e,7f)の計4つ設けられている。アクチュエータ7c,7dは、ステアリングホイール11の紙面右側の操作箇所においてステアリングホイール11の径方向に並び配置されている。アクチュエータ7e,7fは、ステアリングホイール11の紙面左側の操作箇所においてステアリングホイール11の径方向に並び配置されている。
制御部14は、音声認識システム3の現状態に応じた動作パターンで、複数のアクチュエータ7c〜7fを動作させる。本例の場合、制御部14は、これら4つのアクチュエータ7c〜7fのうち、ステアリングホイール11の径方向内側に位置するもの(アクチュエータ7c,7e)と、ステアリングホイール11の径方向外側に位置するもの(アクチュエータ7d,7f)とを各々協同させて、音声認識システム3の現状態に応じた動作パターンで振動させる。
次に、図8を用いて、本実施形態の音声認識システム3及び提示装置8の作用について説明する。
図8(a)に示すように、制御部14は、音声認識システム3の操作の主導がシステム側(機械側)の場合、アクチュエータ7の各組において、ステアリングホイール11の径方向内側に位置するアクチュエータ7c,7eを振動させる。このように、径方向内側のアクチュエータ7c,7eの群を振動させれば、振動の向きが車両1側(車体前方側)に向かうイメージによって、音声認識の主導がシステム側にあると判断が付く。よって、ユーザは、音声認識システム3の主導がシステム側にあることを認識することができる。
図8(a)に示すように、制御部14は、音声認識システム3の操作の主導がシステム側(機械側)の場合、アクチュエータ7の各組において、ステアリングホイール11の径方向内側に位置するアクチュエータ7c,7eを振動させる。このように、径方向内側のアクチュエータ7c,7eの群を振動させれば、振動の向きが車両1側(車体前方側)に向かうイメージによって、音声認識の主導がシステム側にあると判断が付く。よって、ユーザは、音声認識システム3の主導がシステム側にあることを認識することができる。
図8(b)に示すように、制御部14は、音声認識システム3の操作の主導がユーザ側(運転者側)の場合、アクチュエータ7の各組において、ステアリングホイール11の径方向外側に位置するアクチュエータ7d,7fを振動させる。このように、径方向外側のアクチュエータ7d,7fの群を振動させれば、振動の向きがユーザ側に向かうようなイメージによって、音声認識の主導がユーザ側にあると判断が付く。よって、ユーザは、音声認識システム3の主導がユーザ側にあることを認識することができる。
また、図9(a)、(b)に示すように、左右の各組のアクチュエータ7は、ステアリングホイール11の奥行き方向に並び配置されてもよい。この場合、図9(a)に示すように、制御部14は、音声認識システム3の操作の主導がシステム側(機械側)の場合、アクチュエータ7の各組において、ユーザから見て奥側のアクチュエータ7gを振動させる。このように、アクチュエータ7gの振動が車両1側に向くことをもって、音声認識システム3の主導がシステム側にあることを、ユーザに通知することができる。
また、図9(b)に示すように、制御部14は、音声認識システム3の操作の主導がユーザ側(運転者側)の場合、アクチュエータ7の各組において、ユーザから見て手前側のアクチュエータ7hを振動させる。このように、アクチュエータ7hの振動がユーザ側を向くことをもって、音声認識システム3の主導がユーザ側にあることを、ユーザに通知することができる。
上記実施形態の音声認識システム3及び提示装置8によれば、第1及び第2実施形態の(1)〜(8)に加え、以下のような効果を得ることができる。
(9)アクチュエータ7c〜7fは、操作部10において隣接する並びで複数設けられた組が複数組配置されている。制御部14は、複数組のアクチュエータ7c〜7fを協同させて、音声認識機能の現状態をユーザに把握させる。このため、操作部10に複数組設けられたアクチュエータ7c〜7fを協同させて、音声認識機能の種々の現状態を、様々なバリエーションで通知することができる。
(9)アクチュエータ7c〜7fは、操作部10において隣接する並びで複数設けられた組が複数組配置されている。制御部14は、複数組のアクチュエータ7c〜7fを協同させて、音声認識機能の現状態をユーザに把握させる。このため、操作部10に複数組設けられたアクチュエータ7c〜7fを協同させて、音声認識機能の種々の現状態を、様々なバリエーションで通知することができる。
(第4実施形態)
次に、第4実施形態を図10〜図12に従って説明する。なお、第4実施形態も、第1〜第3実施形態と異なる部分についてのみ詳述する。
次に、第4実施形態を図10〜図12に従って説明する。なお、第4実施形態も、第1〜第3実施形態と異なる部分についてのみ詳述する。
図10に示すように、音声認識システム3は、車内のユーザに対して視認可能な各種画面や絵柄を表示可能な表示部25を備える。表示部25は、例えば車内に設けられたカーナビゲーションシステムのディスプレイであることが好ましい。制御部14は、音声認識システム3の現状態が表示部25に表示される場合、表示部25に表示される画像態様に沿った動作パターンでアクチュエータ7を作動させることにより、音声認識機能の現状態をユーザに把握させる。
次に、図11及び図12を用いて、本実施形態の音声認識システム3及び提示装置8の作用について説明する。
図11に示すように、制御部14は、音声認識システム3の操作の主導がシステム側(機械側)にあると判断した場合、その旨を視認によって認識可能な画像態様を表示部25に表示する。この画像態様の一例としては、例えば表示部25に表示された環状のリング表示26の内周に、高さが順に上がっていく階段状のグラフィック部27を表示し、このグラフィック部27をリング表示26の内周に沿って繰り返し周回させる表示がある。また、リング表示26の内部には、発話が不可であることを示す画像28も表示されることが好ましい。
図11に示すように、制御部14は、音声認識システム3の操作の主導がシステム側(機械側)にあると判断した場合、その旨を視認によって認識可能な画像態様を表示部25に表示する。この画像態様の一例としては、例えば表示部25に表示された環状のリング表示26の内周に、高さが順に上がっていく階段状のグラフィック部27を表示し、このグラフィック部27をリング表示26の内周に沿って繰り返し周回させる表示がある。また、リング表示26の内部には、発話が不可であることを示す画像28も表示されることが好ましい。
制御部14は、音声認識システム3の主導がシステム側にある旨を示す画像態様を表示部25に表示する際、アクチュエータ7の各組において、ステアリングホイール11の径方向内側に位置するアクチュエータ7c,7eを振動させる。このように、表示部25に表示されたリング表示26の内周のグラフィック部27と、ステアリングホイール11の径方向内側に位置するアクチュエータ7c,7eを振動させることとを対応付けるので、表示部25の画像態様を、アクチュエータ7c,7eの振動から容易にイメージできる。よって、音声認識システム3の主導がシステム側にあることの認識の助けとなる。
一方、図12に示すように、制御部14は、音声認識システム3の操作の主導がユーザ側(運転者側)にあると判断した場合、その旨を視認によって認識可能な画像態様を表示部25に表示する。この画像態様の一例としては、例えば表示部25に表示された環状のリング表示31の外周に、高さが順に上がっていく階段状のグラフィック部32を表示し、このグラフィック部32をリング表示31の外周に沿って繰り返し周回させる表示がある。また、リング表示31の内部には、発話が可能であることを示す画像33も表示されることが好ましい。
制御部14は、音声認識システム3の主導がユーザ側にある旨を示す画像態様を表示部25に表示する際、アクチュエータ7の各組において、ステアリングホイール11の径方向外側に位置するアクチュエータ7d,7fを振動させる。このように、表示部25に表示されたリング表示31の外周のグラフィック部32と、ステアリングホイール11の径方向外側に位置するアクチュエータ7d,7fを振動させることとを対応付けるので、表示部25の画像態様を、アクチュエータ7d,7fの振動から容易にイメージできる。よって、音声認識システム3の主導がユーザ側にあることの認識の助けとなる。
上記実施形態の音声認識システム3及び提示装置8によれば、第1〜第3実施形態の(1)〜(9)に加え、以下のような効果を得ることができる。
(10)制御部14は、音声認識機能の現状態が表示部25に表示される場合、表示部25に表示される画像態様に沿った動作パターンでアクチュエータ7c〜7fを作動させることにより、音声認識機能の現状態をユーザに把握させる。本例の場合、表示部25に表示された音声認識機能の現状態に準じた画像態様を、アクチュエータ7c〜7fの作動で表現するので、ユーザによる画像態様の認識の助けとなる。よって、音声認識機能のスムーズな操作の実現に一層寄与する。
(10)制御部14は、音声認識機能の現状態が表示部25に表示される場合、表示部25に表示される画像態様に沿った動作パターンでアクチュエータ7c〜7fを作動させることにより、音声認識機能の現状態をユーザに把握させる。本例の場合、表示部25に表示された音声認識機能の現状態に準じた画像態様を、アクチュエータ7c〜7fの作動で表現するので、ユーザによる画像態様の認識の助けとなる。よって、音声認識機能のスムーズな操作の実現に一層寄与する。
なお、本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
[アクチュエータ7について]
・各実施形態において、アクチュエータ7は、例えばステアリングホイール11に搭載されたタッチパッドに設けられてもよい。この場合、音声認識機能の現状態に応じてタッチパッドが振動することにより、音声認識機能の現状態をユーザに伝える。なお、タッチパッドは、カーナビゲーション装置の操作や、走行系の種々の車載機器の操作に使用される。
[アクチュエータ7について]
・各実施形態において、アクチュエータ7は、例えばステアリングホイール11に搭載されたタッチパッドに設けられてもよい。この場合、音声認識機能の現状態に応じてタッチパッドが振動することにより、音声認識機能の現状態をユーザに伝える。なお、タッチパッドは、カーナビゲーション装置の操作や、走行系の種々の車載機器の操作に使用される。
・各実施形態において、アクチュエータ7は、ステアリングホイール11に設けられることに限定されず、例えばユーザが着座するシートに設けられてもよい。
・各実施形態において、アクチュエータ7は、非隣接の場合、3つ以上設けられてもよい。また、アクチュエータ7は、隣接されるものを3つ以上としてもよい。
・各実施形態において、アクチュエータ7は、非隣接の場合、3つ以上設けられてもよい。また、アクチュエータ7は、隣接されるものを3つ以上としてもよい。
・各実施形態において、アクチュエータ7は、振動装置9に限らず、例えば音声認識機能の現状態を視覚的に通知する場合には、モニタやディスプレイとしてもよい。
・各実施形態において、アクチュエータ7は、振動装置9に限定されず、ユーザの五感に訴える出力が可能な部材であればよい。
・各実施形態において、アクチュエータ7は、振動装置9に限定されず、ユーザの五感に訴える出力が可能な部材であればよい。
・各実施形態において、アクチュエータ7が複数設けられる場合、異なる部材にそれぞれ配置されてもよい。
[操作部10について]
・各実施形態において、操作部10は、ステアリングホイール11に限定されず、例えばシートの肘掛けなど、他の部材に変更してもよい。
[操作部10について]
・各実施形態において、操作部10は、ステアリングホイール11に限定されず、例えばシートの肘掛けなど、他の部材に変更してもよい。
・各実施形態において、操作部10は、運転時にユーザ(運転者)の身体が常時触れる、或いは身体の触れる頻度が多い部材であればよい。
・各実施形態において、操作部10は、ステアリングホイール11に限定されず、ユーザによって操作される部材であればよい。
・各実施形態において、操作部10は、ステアリングホイール11に限定されず、ユーザによって操作される部材であればよい。
[音声認識機能について]
・各実施形態において、音声認識機能の現状態は、実施例に述べた各状態に限定されず、音声認識の処理の過程で取り得るものであれば、種々の状態が適用できる。
・各実施形態において、音声認識機能の現状態は、実施例に述べた各状態に限定されず、音声認識の処理の過程で取り得るものであれば、種々の状態が適用できる。
・各実施形態において、音声認識機能の操作対象2は、種々の装置や機器が適用できる。
[出力部17及び表示部25について]
・第2実施形態において、出力部17は、ロボットエージェント18に限定されず、音声認識の処理の過程で、音声や視覚による各種出力を行うことができるものであればよい。
[出力部17及び表示部25について]
・第2実施形態において、出力部17は、ロボットエージェント18に限定されず、音声認識の処理の過程で、音声や視覚による各種出力を行うことができるものであればよい。
・第4実施形態において、表示部25は、カーナビゲーション装置のモニタであることに限定されず、例えばヘッドアップディスプレイでもよい。
[音声認識機能の現状態の通知について]
・各実施形態において、音声認識機能の現状態の通知は、振動に限定されない。例えば視覚に訴える通知や、聴覚に訴える通知や、これらの組み合わせとしてもよい。
[音声認識機能の現状態の通知について]
・各実施形態において、音声認識機能の現状態の通知は、振動に限定されない。例えば視覚に訴える通知や、聴覚に訴える通知や、これらの組み合わせとしてもよい。
・各実施形態において、五感は、触覚、視覚、聴覚、嗅覚、味覚のいずれを用いてもよいし、これらの組み合わせとしてもよい。
[取得部13、制御部14及び作動情報Sbについて]
・各実施形態において、取得部13及び制御部14は、制御装置5に設けられることに限定されず、音声認識システム3の要素であれば、どこに設けられてもよい。また、取得部13及び制御部14は、音声認識システム3の要素から独立した構成としてもよい。
[取得部13、制御部14及び作動情報Sbについて]
・各実施形態において、取得部13及び制御部14は、制御装置5に設けられることに限定されず、音声認識システム3の要素であれば、どこに設けられてもよい。また、取得部13及び制御部14は、音声認識システム3の要素から独立した構成としてもよい。
・各実施形態において、作動情報Sbは、音声認識部6から出力されるものに限定されず、音声認識機能の現状態が判別できる情報であればよい。
[その他]
・各実施形態において、音声認識結果に基づく情報の提供を行っていない状態とは、音声認識システム3単体では作動しているか否かを認識できない状態をいう。
[その他]
・各実施形態において、音声認識結果に基づく情報の提供を行っていない状態とは、音声認識システム3単体では作動しているか否かを認識できない状態をいう。
・各実施形態において、提示装置8は、車両1に適用されることに限定されず、他の機器や装置に使用されてもよい。
1…車両、2…操作対象、3…音声認識システム、7(7a〜7h)…アクチュエータ、8…提示装置、10…操作部、11…ステアリングホイール、13…取得部、14…制御部、17…出力部、25…表示部、Sb…作動情報。
Claims (10)
- 音声入力を通じて操作対象を動作させる音声認識機能の現状態に基づく作動情報を取得する取得部と、
前記取得部で取得した前記作動情報を基に、五感の少なくとも1つの感覚に訴える出力が可能なアクチュエータを作動させることにより、前記音声認識機能の現状態をユーザに把握させる制御部と
を備えた提示装置。 - 前記現状態には、音声認識結果に基づく情報の提供を行っていない状態を含む
請求項1に記載の提示装置。 - 前記制御部は、音声入力が可能な状態か否かを、前記アクチュエータの動作パターンを通じてユーザに把握させる
請求項1又は2に記載の提示装置。 - 前記制御部は、前記アクチュエータの振動により、前記音声認識機能の現状態をユーザに把握させる
請求項1〜3のうちいずれか一項に記載の提示装置。 - 前記アクチュエータは、車両の運転時にユーザの身体が触れる箇所に設けられている
請求項1〜4のうちいずれか一項に記載の提示装置。 - 前記アクチュエータは、複数設けられ、
前記制御部は、前記音声認識機能の現状態に応じた動作パターンで前記アクチュエータを作動させることにより、前記音声認識機能の現状態をユーザに把握させる
請求項1〜5のうちいずれか一項に記載の提示装置。 - 前記アクチュエータは、前記操作対象が搭載された車両を運転する際に操作する操作部に設けられている
請求項1〜6のうちいずれか一項に記載の提示装置。 - 前記アクチュエータは、前記操作部の複数箇所に非隣接で配置され、
前記制御部は、前記アクチュエータを作動させることにより、前記音声認識機能の現状態をユーザに把握させる
請求項7に記載の提示装置。 - 前記アクチュエータは、前記操作部において隣接する並びで複数設けられた組が複数組配置され、
前記制御部は、複数組の前記アクチュエータを協同させて、前記音声認識機能の現状態をユーザに把握させる
請求項7に記載の提示装置。 - 前記制御部は、前記音声認識機能の現状態が表示部に表示される場合、前記表示部に表示される画像態様に沿った動作パターンで前記アクチュエータを作動させることにより、前記音声認識機能の現状態をユーザに把握させる
請求項1〜9のうちいずれか一項に記載の提示装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019161089A JP2021039260A (ja) | 2019-09-04 | 2019-09-04 | 提示装置 |
PCT/JP2020/020726 WO2021044676A1 (ja) | 2019-09-04 | 2020-05-26 | 提示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019161089A JP2021039260A (ja) | 2019-09-04 | 2019-09-04 | 提示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021039260A true JP2021039260A (ja) | 2021-03-11 |
Family
ID=74847060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019161089A Pending JP2021039260A (ja) | 2019-09-04 | 2019-09-04 | 提示装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021039260A (ja) |
WO (1) | WO2021044676A1 (ja) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03112000A (ja) * | 1989-09-26 | 1991-05-13 | Nissan Motor Co Ltd | 情報伝達装置 |
JPH11249692A (ja) * | 1998-02-27 | 1999-09-17 | Nec Saitama Ltd | 音声認識装置 |
JP2002287795A (ja) * | 2001-03-27 | 2002-10-04 | Clarion Co Ltd | 車載用音声認識装置 |
JP2004505324A (ja) * | 2000-07-29 | 2004-02-19 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | 自動車における音響による機能制御方法およびシステム |
JP2006219000A (ja) * | 2005-02-10 | 2006-08-24 | Honda Motor Co Ltd | 車両用操作装置 |
JP2009072050A (ja) * | 2007-09-18 | 2009-04-02 | Ricoh Elemex Corp | 充電システム、充電装置、および携帯機器 |
JP2018180217A (ja) * | 2017-04-11 | 2018-11-15 | 株式会社東海理化電機製作所 | 制御装置、および音声入力システム |
JP2019079555A (ja) * | 2009-03-12 | 2019-05-23 | イマージョン コーポレーションImmersion Corporation | グラフィカルユーザインターフェース装置においてテクスチャを用いるためのシステム及び方法 |
-
2019
- 2019-09-04 JP JP2019161089A patent/JP2021039260A/ja active Pending
-
2020
- 2020-05-26 WO PCT/JP2020/020726 patent/WO2021044676A1/ja active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03112000A (ja) * | 1989-09-26 | 1991-05-13 | Nissan Motor Co Ltd | 情報伝達装置 |
JPH11249692A (ja) * | 1998-02-27 | 1999-09-17 | Nec Saitama Ltd | 音声認識装置 |
JP2004505324A (ja) * | 2000-07-29 | 2004-02-19 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | 自動車における音響による機能制御方法およびシステム |
JP2002287795A (ja) * | 2001-03-27 | 2002-10-04 | Clarion Co Ltd | 車載用音声認識装置 |
JP2006219000A (ja) * | 2005-02-10 | 2006-08-24 | Honda Motor Co Ltd | 車両用操作装置 |
JP2009072050A (ja) * | 2007-09-18 | 2009-04-02 | Ricoh Elemex Corp | 充電システム、充電装置、および携帯機器 |
JP2019079555A (ja) * | 2009-03-12 | 2019-05-23 | イマージョン コーポレーションImmersion Corporation | グラフィカルユーザインターフェース装置においてテクスチャを用いるためのシステム及び方法 |
JP2018180217A (ja) * | 2017-04-11 | 2018-11-15 | 株式会社東海理化電機製作所 | 制御装置、および音声入力システム |
Also Published As
Publication number | Publication date |
---|---|
WO2021044676A1 (ja) | 2021-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5260298B2 (ja) | 有利には自動車内に設けられる情報装置と、車両データを通知するための方法、とりわけ車両機能および該車両機能の操作に関する情報を通知するための方法 | |
JP6686930B2 (ja) | 運転支援装置 | |
CN109917970A (zh) | 使用单个控制器和支持触觉的用户接口控制多个显示器的系统和方法 | |
JP2006284454A (ja) | 車載用エージェントシステム | |
JP2019525861A (ja) | 自動車を操作するための方法及び自動車 | |
JP2018060192A (ja) | 発話装置およびコミュニケーション装置 | |
JP2005350018A (ja) | 車載用電子制御装置 | |
JP2001255890A (ja) | 音声制御するための装置および方法 | |
JP4232617B2 (ja) | 車室内音場制御システム | |
WO2018025517A1 (ja) | 表示操作装置 | |
JP2019086805A (ja) | 車内システム | |
WO2021044676A1 (ja) | 提示装置 | |
JP2019074498A (ja) | 運転支援装置 | |
JPH11278173A (ja) | 自動車操作装置 | |
JP7377615B2 (ja) | 車両の非接触操作装置、および車両 | |
JP2018180217A (ja) | 制御装置、および音声入力システム | |
JP3524199B2 (ja) | 情報提示装置 | |
JP6760323B2 (ja) | 運転支援装置 | |
JP7336228B2 (ja) | 車両の非接触操作装置、および車両 | |
JP2011186622A (ja) | 覚醒支援装置 | |
JP4694017B2 (ja) | 車載用音声認識装置 | |
JP2010221893A (ja) | 車載情報機器 | |
JP2021043762A (ja) | 提示装置 | |
JP7304184B2 (ja) | 車両の非接触操作装置、および車両 | |
WO2017145742A1 (ja) | 車両及び車両における制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220304 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230711 |