JP6910451B2 - 表示制御装置及び表示制御方法 - Google Patents
表示制御装置及び表示制御方法 Download PDFInfo
- Publication number
- JP6910451B2 JP6910451B2 JP2019540239A JP2019540239A JP6910451B2 JP 6910451 B2 JP6910451 B2 JP 6910451B2 JP 2019540239 A JP2019540239 A JP 2019540239A JP 2019540239 A JP2019540239 A JP 2019540239A JP 6910451 B2 JP6910451 B2 JP 6910451B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- voice
- display screen
- control device
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
Description
図1は、本発明の実施の形態1に係る表示制御装置1の構成を示すブロック図である。この表示制御装置1は、第1表示部2及び第2表示部3と有線または無線によって接続されており、第1表示部2及び第2表示部3を制御することが可能となっている。
以上のような本実施の形態1に係る表示制御装置1は、第1表示画面及び第2表示画面のそれぞれに、音声から変換された文字を表示する制御を行う。このため、運転者及び同乗者などのユーザは、自身が発した音声に基づき表示画面に表示される文字の内容が正しいか否かを別々の表示画面で確認することができるので、その確認を容易に行うことができる。また本実施の形態1に係る表示制御装置1は、第1表示画面及び第2表示画面のそれぞれのうちジェスチャー操作によって指示された部分に対応する部分に、文字を表示する制御を行う。このため、ユーザは、表示画面のどの部分について音声を発したかを示すことができる。以上の結果、ユーザと、意思疎通先たる相手との間における意思疎通の誤りを抑制することができる。
図4は、本発明の実施の形態2に係る表示制御装置1の構成を示すブロック図である。以下、本実施の形態2で説明する構成要素のうち、上述の構成要素と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。なお、以下のブロック図においては、特に説明がない限り、表示制御装置1が備える構成要素を実線のブロックで示し、表示制御装置1が備えない構成要素を点線のブロックで示す。
図5は、本実施の形態2に係る表示制御装置1の動作を示すフローチャートである。
以上のような本実施の形態2に係る表示制御装置1によれば、ジェスチャー操作が軌跡操作である場合に、地図などのコンテンツを表示している第1表示画面及び第2表示画面のそれぞれのうち軌跡操作の軌跡に対応する部分に、音声から変換された文字を表示する制御を行う。このような構成によれば、ユーザと相手との間における意思疎通の誤りを抑制することができる。
以上に説明した図1などの構成において、制御部12は、取得部11で取得されたジェスチャー操作の速度に基づいて、音声文字の表示態様を変更してもよいし、図6及び図7の軌跡21の表示態様を変更してもよい。例えば、ジェスチャー操作の速度が速い場合には、音声文字及び軌跡21を太くしたり、音声文字及び軌跡21の色を赤色などの注意を惹きやすい色にしたりしてもよい。このような構成によれば、ユーザは、伝えたい情報の重要性を相手に知らせることができる。
以上に説明した図1などの構成において、制御部12は、図6及び図7の軌跡21を表示するタイミングである軌跡表示タイミング、及び、音声文字を表示するタイミングである文字表示タイミングの一方に基づいて他方を調整するように構成されてもよい。これにより、表示制御装置1は、軌跡表示タイミングを、文字表示タイミングと同時にしたり、文字表示タイミングの前後にしたりすることができる。
以上に説明した図1などの構成において、制御部12は、いずれか一方が音声文字を含む二画面を、第1表示画面及び第2表示画面の少なくともいずれか1つに表示する制御を行ってもよい。図9及び図10には、第1表示画面2aが運転者の視認に用いられる運転者用の表示画面である例が示され、図11及び図12には、第2表示画面3aが同乗者の視認に用いられる同乗者の表示画面である例が示されている。
以上に説明した図1などの構成において、制御部12は、第1表示画面及び第2表示画面におけるコンテンツ上に、音声文字を半透過で表示する制御を行ってもよい。このような構成によれば、音声文字の表示が他の画像の表示を妨げてしまうことを抑制することができる。
以上に説明した構成において、音声文字は、第1言語の音声の内容を示す第1言語の文字と、第1言語の音声の内容を第2言語に翻訳した内容を示す第2言語の文字とを含んでもよい。
以上に説明した図4の構成などでは、表示制御装置1は、第1音声検出装置4及び第1ジェスチャー検出装置5と接続されていたが、これに限ったものではない。例えば図16に示すように、表示制御装置1は、実線のブロックで示される第1音声検出装置4及び第1ジェスチャー検出装置5を備えてもよい。
以上に説明した図1などの構成において、取得部11は、ユーザを識別する識別情報をさらに取得し、制御部12は、取得部11で取得された識別情報に基づいて、変形例1と同様に音声文字の表示態様を変更してもよい。例えば、図6の同乗者の音声文字の太さは、図7の運転者の音声文字の太さと異なっている。なお、取得部11は、車両室内の画像を取得し、当該画像を解析することによって識別情報を取得してもよいし、音声の特徴を解析することによって識別情報を取得してもよい。このような構成によれば、ユーザごとに音声文字の表示態様が変更されるので、各ユーザはどのユーザの音声文字であるかを容易に知ることができる。
上述した図1の取得部11及び制御部12を、以下「取得部11等」と記す。取得部11等は、図21に示す処理回路81により実現される。すなわち、処理回路81は、音声と、ジェスチャー操作とを取得する取得部11と、第1表示画面のうち取得部11で取得されたジェスチャー操作によって指示された部分に対応する部分、及び、第2表示画面のうち取得部11で取得されたジェスチャー操作によって指示された部分に対応する部分のそれぞれに、取得部11で取得された音声から変換された文字を表示する制御を行う制御部12と、を備える。処理回路81には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサが適用されてもよい。プロセッサには、例えば、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などが該当する。
Claims (16)
- 車両とともに移動可能な、前記車両に固定された運転者用の第1表示部と、当該車両とともに移動可能な、前記運転者の意思疎通先である相手用の第2表示部とを制御可能な表示制御装置であって、
音声と、ジェスチャー操作とを取得する取得部と、
前記第1表示部の第1表示画面のうち前記取得部で取得されたジェスチャー操作によって指示された部分に対応する部分、及び、前記第2表示部の第2表示画面のうち前記取得部で取得されたジェスチャー操作によって指示された部分に対応する部分のそれぞれに、前記取得部で取得された音声から変換された文字を表示する制御を行う制御部とを備え、
前記ジェスチャー操作は、前記第1表示画面または前記第2表示画面上に軌跡を描く軌跡操作を含み、
前記制御部は、
前記第1表示画面、及び、前記第2表示画面に、予め定められたコンテンツを表示する制御と、前記第1表示画面のうち前記取得部で取得された軌跡操作の軌跡に対応する部分、及び、前記第2表示画面のうち前記取得部で取得された軌跡操作の軌跡に対応する部分のそれぞれに、前記文字を表示する制御と、前記取得部で取得された軌跡操作の軌跡を前記第1表示画面及び前記第2表示画面に表示する制御とを行う、表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記取得部は、前記ジェスチャー操作の種類をさらに取得し、
前記制御部は、前記取得部で取得された前記種類に対応する図形を前記第1表示画面及び前記第2表示画面に表示する制御を行う、表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記制御部は、
前記第1表示画面及び前記第2表示画面に表示される前記軌跡操作の軌跡の屈曲部分に隣接するPOIの表示態様を変更する、表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記車両の第1座席における音声を、前記取得部で取得される音声として検出する第1音声検出装置、及び、前記車両の第2座席における音声を、前記取得部で取得される音声として検出する第2音声検出装置の少なくともいずれか1つと、
前記第1座席におけるジェスチャー操作を、前記取得部で取得されるジェスチャー操作として検出する第1ジェスチャー検出装置、及び、前記第2座席におけるジェスチャー操作を、前記取得部で取得されるジェスチャー操作として検出する第2ジェスチャー検出装置の少なくともいずれか1つと、
をさらに備える、表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記第1表示部、及び、前記第2表示部の少なくともいずれか1つをさらに備える、表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記制御部は、
前記取得部で取得された前記ジェスチャー操作の速度に基づいて、前記文字の表示態様を変更する、表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記取得部は、前記車両の座席ごとにユーザを識別する識別情報をさらに取得し、
前記制御部は、
前記取得部で取得された識別情報に基づいて前記文字の表示態様を変更する、表示制御装置。 - 請求項4に記載の表示制御装置であって、
前記第1音声検出装置、前記第1ジェスチャー検出装置、前記第2音声検出装置、及び、前記第2ジェスチャー検出装置を備え、
前記制御部は、
前記第1音声検出装置で検出された音声、及び、前記第1ジェスチャー検出装置で検出されたジェスチャー操作に基づいて表示される前記文字の表示態様と、前記第2音声検出装置で検出された音声、及び、前記第2ジェスチャー検出装置で検出されたジェスチャー操作に基づいて表示される前記文字の表示態様とを異ならせる、表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記制御部は、
前記第1表示画面及び前記第2表示画面に表示された前記文字を、予め定められた条件が満たされた場合に消去する、表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記制御部は、
前記軌跡を表示するタイミング、及び、前記文字を表示するタイミングの一方に基づいて他方を調整し、
前記制御部は、
前記取得部が前記ジェスチャー操作を取得した後も前記音声を継続して取得している場合に、前記軌跡を表示するタイミングを前記文字を表示するタイミングの前にする制御と、前記取得部が前記ジェスチャー操作を取得した場合に前記軌跡を表示し、その後に前記取得部が特定のジェスチャー操作と前記音声とを取得した場合に前記文字を表示する制御との少なくともいずれか1つを行う、表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記制御部は、
前記第1表示画面に前記文字を表示するタイミング、及び、前記第2表示画面に前記文字を表示するタイミングの一方に基づいて他方を調整する、表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記制御部は、
前記第1表示画面及び前記第2表示画面に、前記第1表示画面及び前記第2表示画面における前記コンテンツ上に前記文字を半透過で表示する制御を行う、表示制御装置。 - 請求項12に記載の表示制御装置であって、
前記コンテンツは地物情報を含む地図であり、
前記制御部は、
前記地図上の前記地物情報を避けて前記文字を表示する制御を行う、表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記音声は、第1言語の音声を含み、
前記文字は、
前記第1言語の音声の内容を示す前記第1言語の文字と、前記第1言語の音声の内容を第2言語に翻訳した内容を示す前記第2言語の文字とを含む、表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記表示制御装置は、前記第1表示部を制御する第1表示制御装置、及び、前記第2表示部を制御する第2表示制御装置の少なくともいずれか1つに備えられる、表示制御装置。 - 車両とともに移動可能な、前記車両に固定された運転者用の第1表示部と、当該車両とともに移動可能な、前記運転者の意思疎通先である相手用の第2表示部とを制御可能な表示制御方法であって、
音声と、ジェスチャー操作とを取得し、
前記第1表示部の第1表示画面のうち取得されたジェスチャー操作によって指示された部分に対応する部分、及び、前記第2表示部の第2表示画面のうち取得されたジェスチャー操作によって指示された部分に対応する部分のそれぞれに、取得された音声から変換された文字を表示する制御を行い、
前記ジェスチャー操作は、前記第1表示画面または前記第2表示画面上に軌跡を描く軌跡操作を含み、
前記制御は、
前記第1表示画面、及び、前記第2表示画面に、予め定められたコンテンツを表示する制御と、前記第1表示画面のうち取得された軌跡操作の軌跡に対応する部分、及び、前記第2表示画面のうち取得された軌跡操作の軌跡に対応する部分のそれぞれに、前記文字を表示する制御と、取得された軌跡操作の軌跡を前記第1表示画面及び前記第2表示画面に表示する制御とを含む、表示制御方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/032467 WO2019049312A1 (ja) | 2017-09-08 | 2017-09-08 | 表示制御装置及び表示制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019049312A1 JPWO2019049312A1 (ja) | 2020-01-16 |
JP6910451B2 true JP6910451B2 (ja) | 2021-07-28 |
Family
ID=65634746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019540239A Active JP6910451B2 (ja) | 2017-09-08 | 2017-09-08 | 表示制御装置及び表示制御方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6910451B2 (ja) |
WO (1) | WO2019049312A1 (ja) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004302882A (ja) * | 2003-03-31 | 2004-10-28 | Zenrin Co Ltd | 印刷用データ作成方法 |
JP5682533B2 (ja) * | 2011-10-19 | 2015-03-11 | トヨタ自動車株式会社 | 通信端末装置及び通信方法 |
JP2014110564A (ja) * | 2012-12-03 | 2014-06-12 | Konami Digital Entertainment Co Ltd | 出力タイミング制御装置、出力タイミング制御システム、出力タイミング制御方法、およびプログラム |
JP6120751B2 (ja) * | 2013-10-30 | 2017-04-26 | 三菱電機株式会社 | 情報処理装置、情報端末、情報通信システムおよび情報提供方法 |
EP3306452B1 (en) * | 2015-05-28 | 2022-04-20 | Mitsubishi Electric Corporation | Input display device and input display method |
JP6374854B2 (ja) * | 2015-11-10 | 2018-08-15 | 株式会社オプティム | 画面共有システム及び画面共有方法 |
KR102174565B1 (ko) * | 2016-02-08 | 2020-11-05 | 미쓰비시덴키 가부시키가이샤 | 표시 제어 장치, 입력 표시 시스템, 표시 제어 방법 및 프로그램 |
-
2017
- 2017-09-08 JP JP2019540239A patent/JP6910451B2/ja active Active
- 2017-09-08 WO PCT/JP2017/032467 patent/WO2019049312A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JPWO2019049312A1 (ja) | 2020-01-16 |
WO2019049312A1 (ja) | 2019-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9613459B2 (en) | System and method for in-vehicle interaction | |
US10310808B2 (en) | Systems and methods for simultaneously receiving voice instructions on onboard and offboard devices | |
US20110185390A1 (en) | Mobile phone integration into driver information systems | |
JP6604151B2 (ja) | 音声認識制御システム | |
KR102099328B1 (ko) | 적어도 하나의 비디오 신호 또는 제어 신호를 계산하기 위한 장치, 차량, 방법 및 컴퓨터 프로그램 | |
US20230129821A1 (en) | Navigation Application with Novel Declutter Mode | |
KR102138740B1 (ko) | 자동차의 인포테인먼트 시스템의 기능을 선택하기 위한 방법 및 장치 | |
JPWO2019016936A1 (ja) | 操作支援装置および操作支援方法 | |
US10369943B2 (en) | In-vehicle infotainment control systems and methods | |
US9851802B2 (en) | Method and apparatus for controlling content playback | |
US9277380B2 (en) | Method for controlling call termination based on gaze, and mobile communication terminal therefor | |
CN108668011B (zh) | 输出方法、输出设备以及电子设备 | |
US9104378B2 (en) | Method for processing data and electronic device thereof | |
JP6910451B2 (ja) | 表示制御装置及び表示制御方法 | |
JP2014123353A (ja) | ヘルプを提供する方法、コンピュータプログラム及びコンピュータ | |
US20140297285A1 (en) | Automatic page content reading-aloud method and device thereof | |
JP2019200125A (ja) | 経路案内制御装置および経路案内制御方法 | |
KR101647111B1 (ko) | Avn 제어 시스템 및 그 방법 | |
WO2017163309A1 (ja) | 状態推定装置、ナビゲーション装置、および、作業手順の案内装置 | |
JP2013250132A (ja) | 車載装置、車載情報システム | |
JP2006148541A (ja) | ナビゲーション装置およびプログラム | |
CN111615838A (zh) | 地理特定信息系统和方法 | |
JP2015125640A (ja) | 車載用電子機器、制御方法、およびプログラム | |
JP7063098B2 (ja) | 車両用情報提供装置 | |
KR20180094684A (ko) | 차량 단말 시스템 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190816 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190816 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201012 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6910451 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |