JP6910451B2 - 表示制御装置及び表示制御方法 - Google Patents

表示制御装置及び表示制御方法 Download PDF

Info

Publication number
JP6910451B2
JP6910451B2 JP2019540239A JP2019540239A JP6910451B2 JP 6910451 B2 JP6910451 B2 JP 6910451B2 JP 2019540239 A JP2019540239 A JP 2019540239A JP 2019540239 A JP2019540239 A JP 2019540239A JP 6910451 B2 JP6910451 B2 JP 6910451B2
Authority
JP
Japan
Prior art keywords
display
voice
display screen
control device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019540239A
Other languages
English (en)
Other versions
JPWO2019049312A1 (ja
Inventor
直志 宮原
直志 宮原
下谷 光生
光生 下谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019049312A1 publication Critical patent/JPWO2019049312A1/ja
Application granted granted Critical
Publication of JP6910451B2 publication Critical patent/JP6910451B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Description

本発明は、車両とともに移動可能な第1表示部と、当該車両とともに移動可能な第2表示部とを制御可能な表示制御装置に関する。
近年、ユーザが発した音声を文字に変換し、当該文字を表示する表示装置が提案されている(例えば特許文献1)。このような表示装置によれば、ユーザの意思疎通先である相手は、ユーザの音声が聴き取れない場合でも、表示された文字を見ることによって当該音声の内容を確認することができる。
特開2016−090367号公報
しかしながら、ユーザと相手とが車両の前席及び後席にそれぞれ座っている場合などにおいては、相手が見ている表示画面をユーザが見ることが困難である場合がある。この場合、ユーザは、自身が発した音声に基づき表示画面に表示される文字の内容が正しいか否かを確認し難いという問題がある。また、ユーザは、表示画面のどの部分について音声を発したかを示すことができないという問題がある。以上の結果として、ユーザと相手との間の意思疎通に誤りが生じることがあった。
そこで、本発明は、上記のような問題点を鑑みてなされたものであり、ユーザと相手との間における意思疎通の誤りを抑制可能な技術を提供することを目的とする。
本発明に係る表示制御装置は、車両とともに移動可能な、車両に固定された運転者用の第1表示部と、当該車両とともに移動可能な、運転者の意思疎通先である相手用の第2表示部とを制御可能な表示制御装置であって、音声と、ジェスチャー操作とを取得する取得部と、第1表示部の第1表示画面のうち取得部で取得されたジェスチャー操作によって指示された部分に対応する部分、及び、第2表示部の第2表示画面のうち取得部で取得されたジェスチャー操作によって指示された部分に対応する部分のそれぞれに、取得部で取得された音声から変換された文字を表示する制御を行う制御部とを備える。ジェスチャー操作は、第1表示画面または第2表示画面上に軌跡を描く軌跡操作を含み、制御部は、第1表示画面、及び、第2表示画面に、予め定められたコンテンツを表示する制御と、第1表示画面のうち取得部で取得された軌跡操作の軌跡に対応する部分、及び、第2表示画面のうち取得部で取得された軌跡操作の軌跡に対応する部分のそれぞれに、文字を表示する制御と、取得部で取得された軌跡操作の軌跡を第1表示画面及び第2表示画面に表示する制御とを行う。
本発明によれば、第1表示画面のうち取得されたジェスチャー操作によって指示された部分に対応する部分、及び、第2表示画面のうち取得されたジェスチャー操作によって指示された部分に対応する部分のそれぞれに、取得された音声から変換された文字を表示する制御を行う。このような構成によれば、ユーザと相手との間における意思疎通の誤りを抑制することができる。
本発明の目的、特徴、態様及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る表示制御装置の構成を示すブロック図である。 実施の形態1に係る表示制御装置の表示制御を説明するための図である。 実施の形態1に係る表示制御装置の表示制御を説明するための図である。 実施の形態2に係る表示制御装置の構成を示すブロック図である。 実施の形態2に係る表示制御装置の動作を示すフローチャートである。 実施の形態2に係る表示制御装置の表示制御を説明するための図である。 実施の形態2に係る表示制御装置の表示制御を説明するための図である。 実施の形態2に係る表示制御装置の表示制御を説明するための図である。 変形例3に係る表示制御装置の表示制御を説明するための図である。 変形例3に係る表示制御装置の表示制御を説明するための図である。 変形例3に係る表示制御装置の表示制御を説明するための図である。 変形例3に係る表示制御装置の表示制御を説明するための図である。 変形例4に係る表示制御装置の表示制御を説明するための図である。 変形例5に係る表示制御装置の構成を示すブロック図である。 変形例5に係る表示制御装置の表示制御を説明するための図である。 変形例6に係る表示制御装置の構成を示すブロック図である。 変形例6に係る表示制御装置の構成を示すブロック図である。 変形例6に係る表示制御装置の構成を示すブロック図である。 変形例6に係る表示制御装置の構成を示すブロック図である。 変形例6に係る表示制御装置の構成を示すブロック図である。 その他の変形例に係るナビゲーション装置のハードウェア構成を示すブロック図である。 その他の変形例に係るナビゲーション装置のハードウェア構成を示すブロック図である。 その他の変形例に係るサーバの構成を示すブロック図である。 その他の変形例に係る通信端末の構成を示すブロック図である。
<実施の形態1>
図1は、本発明の実施の形態1に係る表示制御装置1の構成を示すブロック図である。この表示制御装置1は、第1表示部2及び第2表示部3と有線または無線によって接続されており、第1表示部2及び第2表示部3を制御することが可能となっている。
第1表示部2は、車両とともに移動可能であり、第2表示部3は、当該車両とともに移動可能である。第1表示部2及び第2表示部3のそれぞれは、例えば、車両に固定された表示部、及び、車両外部から車両に持ち込まれた携帯端末の表示部などである。車両に固定された表示部は、例えば、液晶表示装置、及び、HUD(ヘッドアップディスプレイ)などである。携帯端末は、例えば、携帯電話、スマートフォン及びタブレットなどである。
なお、第1表示部2は、1つの表示装置または複数の表示装置のそれぞれであってもよいし、第2表示部3は、1つの表示装置または複数の表示装置のそれぞれであってもよい。以下では、第1表示部2は、車両の運転者及び同乗者の一方の視認に用いられ、第2表示部3は、他方の視認に用いられる場合を例にして説明する。
図1の表示制御装置1は、取得部11と制御部12とを備える。
取得部11は、音声を取得する。取得部11は、例えば、マイクなどの音声入力装置であってもよいし、当該音声入力装置と通信可能なインターフェースであってもよい。
また取得部11は、ジェスチャー操作も取得する。取得部11は、例えば、第1表示画面及び第2表示画面のそれぞれに設けられたタッチパネルであってもよいし、当該タッチパネルと通信可能なインターフェースであってもよいし、車両室内の画像を取得するカメラと、当該画像を解析する画像解析装置との組み合わせた装置であってもよいし、当該装置と通信可能なインターフェースであってもよい。
なお、ジェスチャー操作は、第1表示部2の表示画面である第1表示画面の部分、または、第2表示部3の表示画面である第2表示画面の部分を指示する操作である。ジェスチャー操作は、第1表示画面及び第2表示画面をなぞる操作などのように第1表示画面及び第2表示画面に触れる操作であってもよいし、第1表示画面及び第2表示画面に触れない操作であってもよい。
制御部12は、第1表示画面のうち取得部11で取得されたジェスチャー操作によって指示された部分に対応する部分、及び、第2表示画面のうち取得部11で取得されたジェスチャー操作によって指示された部分に対応する部分のそれぞれに、取得部11で取得された音声から変換された文字を表示する制御を行う。第1表示画面及び第2表示画面のうちジェスチャー操作によって指示された部分に対応する部分は、ジェスチャー操作によって指示された部分そのものであってもよいし、当該部分の周辺部分であってもよい。
図2及び図3は、本実施の形態1に係る表示制御装置1の表示制御を説明するための図である。なお、特に説明がない限り、図2以降の表示制御を説明するための図に示される表示画面は、第1表示部2の第1表示画面2a及び第2表示部3の第2表示画面3aのそれぞれであるものとする。
図2の例では、取得部11が、一点を指示するようなジェスチャー操作と、「×××」という音声とを取得した場合の表示画面が示されている。この場合、ジェスチャー操作によって指示された一点に付随して「×××」という文字が表示される。図3の例では、取得部11が、線状の軌跡を描くようなジェスチャー操作と、「△△△」という音声とを取得した場合の表示画面が示されている。この場合、ジェスチャー操作によって描かれた軌跡に付随して「△△△」という文字が表示される。
<実施の形態1のまとめ>
以上のような本実施の形態1に係る表示制御装置1は、第1表示画面及び第2表示画面のそれぞれに、音声から変換された文字を表示する制御を行う。このため、運転者及び同乗者などのユーザは、自身が発した音声に基づき表示画面に表示される文字の内容が正しいか否かを別々の表示画面で確認することができるので、その確認を容易に行うことができる。また本実施の形態1に係る表示制御装置1は、第1表示画面及び第2表示画面のそれぞれのうちジェスチャー操作によって指示された部分に対応する部分に、文字を表示する制御を行う。このため、ユーザは、表示画面のどの部分について音声を発したかを示すことができる。以上の結果、ユーザと、意思疎通先たる相手との間における意思疎通の誤りを抑制することができる。
<実施の形態2>
図4は、本発明の実施の形態2に係る表示制御装置1の構成を示すブロック図である。以下、本実施の形態2で説明する構成要素のうち、上述の構成要素と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。なお、以下のブロック図においては、特に説明がない限り、表示制御装置1が備える構成要素を実線のブロックで示し、表示制御装置1が備えない構成要素を点線のブロックで示す。
まず、表示制御装置1の外部構成について説明する。図4の表示制御装置1は、第1表示部2及び第2表示部3に加えて、第1音声検出装置4、第1ジェスチャー検出装置5、及び、ナビゲーション装置6と、有線または無線によって接続されている。
第1音声検出装置4は、ユーザが発した音声を検出する。この第1音声検出装置4は、例えば、マイクなどの音声入力装置である。
第1ジェスチャー検出装置5は、ユーザのジェスチャー操作を検出する。この第1ジェスチャー検出装置5は、例えば、タッチパネルであってもよいし、車両室内の画像を取得するカメラと、当該画像を解析する画像解析装置との組み合わせた装置であってもよい。なお、ジェスチャー操作は、第1表示画面または第2表示画面上に軌跡を描く軌跡操作などを含む。
ナビゲーション装置6は、例えば地図を示す画像、音楽プレーヤを示す画像、DVD(Digital Versatile Disk)の再生画像、車両情報を示す画像などの、予め定められたコンテンツの画像を表示制御装置1に出力する。
次に、表示制御装置1の内部構成について説明する。図4の表示制御装置1は、インターフェース11a,11bと、音声テキスト変換部12aと、コンテンツ表示制御部12bとを備える。なお、インターフェース11a,11bは、図1の取得部11の概念に含まれ、音声テキスト変換部12a及びコンテンツ表示制御部12bは、図1の制御部12の概念に含まれる。
インターフェース11aは、第1音声検出装置4で検出された音声を取得し、インターフェース11bは、第1ジェスチャー検出装置5で検出されたジェスチャー操作を取得する。
音声テキスト変換部12aは、インターフェース11aで取得された音声の情報を、テキストなどの文字に変換する。以下、音声から変換された文字を「音声文字」と記すこともある。
コンテンツ表示制御部12bは、第1表示画面及び第2表示画面に、ナビゲーション装置6からのコンテンツの画像を表示する制御を行う。また、コンテンツ表示制御部12bは、第1表示画面のうちインターフェース11bで取得されたジェスチャー操作によって指示された部分に対応する部分、及び、第2表示画面のうちインターフェース11bで取得されたジェスチャー操作によって指示された部分に対応する部分のそれぞれに、音声テキスト変換部12aによって変換された音声文字を表示する制御を行う。
例えば、コンテンツ表示制御部12bは、インターフェース11bで取得されたジェスチャー操作が軌跡操作である場合に、当該軌跡操作の軌跡を第1表示画面及び第2表示画面に表示する制御を行う。またこの場合に、コンテンツ表示制御部12bは、第1表示画面のうち軌跡操作の軌跡に対応する部分、及び、第2表示画面のうち軌跡操作の軌跡に対応する部分のそれぞれに、音声文字を表示する制御を行う。
<動作>
図5は、本実施の形態2に係る表示制御装置1の動作を示すフローチャートである。
まずステップS1にて、音声テキスト変換部12aは、インターフェース11aで音声が取得され、かつ、インターフェース11bでジェスチャー操作が取得されたか否かを判定する。音声及びジェスチャー操作が取得されたと判定された場合には処理がステップS2に進み、音声及びジェスチャー操作が取得されたと判定されなかった場合にはステップS1の処理が再度行われる。
ステップS2にて、音声テキスト変換部12aは、インターフェース11aで取得された音声を音声文字に変換する。
ステップS3にて、コンテンツ表示制御部12bは、インターフェース11bで取得されたジェスチャー操作に基づいて、第1表示画面及び第2表示画面のそれぞれのうち音声文字を表示すべき部分を決定する。
ステップS4にて、コンテンツ表示制御部12bは、第1表示画面及び第2表示画面のそれぞれのうちのステップS3で決定した部分に、ステップS2の音声文字を表示する制御を行う。これにより、第1表示画面及び第2表示画面のそれぞれのうちステップS3で決定された部分に、ステップS2の音声文字が表示される。
ステップS5にて、音声テキスト変換部12aは、インターフェース11aで音声が取得されているか否かに基づいて、会話が継続しているか否かを判定する。会話が継続していると判定された場合には処理がステップS1に戻り、会話が継続していると判定されなかった場合には処理がステップS6に進む。
ステップS6にて、コンテンツ表示制御部12bは、予め定められた条件が満たされたか否かを判定する。ここで、予め定められた条件は、例えば、音声文字を表示する制御を行ってから一定時間が経過したこと、及び、音声文字を消去する操作が行われたことなどである。予め定められた条件が満たされたと判定された場合には処理がステップS7に進み、予め定められた条件が満たされたと判定されなかった場合には処理がステップS5に戻る。
ステップS7にて、コンテンツ表示制御部12bは、第1表示画面及び第2表示画面に表示されている音声文字を消去する。この際、消去された音声文字は履歴として、表示制御装置1の図示しない記憶装置などに記憶されてもよい。その後、図5の動作が終了する。なお、この図5の動作は適宜繰り返し行われてもよい。
図6、図7及び図8は、本実施の形態2に係る表示制御装置1の表示制御を説明するための図である。
図6の例では、線状の軌跡を描く軌跡操作と、「こちらの道から進んで下さい」という音声とが同乗者などから取得された場合の表示画面が示されている。この場合、第1表示画面2a及び第2表示画面3aのそれぞれに、軌跡操作の軌跡21が、当該軌跡操作の向きを示す矢印として表示され、かつ、「こちらの道から進んで下さい」という音声文字が軌跡21に付随して表示される。
図7の例では、楕円状の軌跡を描く軌跡操作と、「この辺りを詳しく説明して下さい」という音声とが運転者などから取得された場合の表示画面が示されている。この場合、第1表示画面2a及び第2表示画面3aのそれぞれに、軌跡操作の軌跡21が表示され、かつ、「この辺りを詳しく説明して下さい」という音声文字が軌跡21に付随して表示される。
図8の例では、一点を指示するようなジェスチャー操作と、「この辺りのケーキ屋に行きたいです」という音声とが同乗者などから取得された場合の表示画面が示されている。この場合、第1表示画面2a及び第2表示画面3aのそれぞれに、当該ジェスチャー操作により指示された一点22が表示され、かつ、「この辺りのケーキ屋に行きたいです」という音声文字が一点22に付随して表示される。
<実施の形態2のまとめ>
以上のような本実施の形態2に係る表示制御装置1によれば、ジェスチャー操作が軌跡操作である場合に、地図などのコンテンツを表示している第1表示画面及び第2表示画面のそれぞれのうち軌跡操作の軌跡に対応する部分に、音声から変換された文字を表示する制御を行う。このような構成によれば、ユーザと相手との間における意思疎通の誤りを抑制することができる。
また本実施の形態2によれば、第1表示画面及び第2表示画面に表示された音声文字を、予め定められた条件が満たされた場合に消去する。このような構成によれば、音声文字の表示が他の画像の表示を妨げてしまうことを抑制することができる。
<変形例1>
以上に説明した図1などの構成において、制御部12は、取得部11で取得されたジェスチャー操作の速度に基づいて、音声文字の表示態様を変更してもよいし、図6及び図7の軌跡21の表示態様を変更してもよい。例えば、ジェスチャー操作の速度が速い場合には、音声文字及び軌跡21を太くしたり、音声文字及び軌跡21の色を赤色などの注意を惹きやすい色にしたりしてもよい。このような構成によれば、ユーザは、伝えたい情報の重要性を相手に知らせることができる。
<変形例2>
以上に説明した図1などの構成において、制御部12は、図6及び図7の軌跡21を表示するタイミングである軌跡表示タイミング、及び、音声文字を表示するタイミングである文字表示タイミングの一方に基づいて他方を調整するように構成されてもよい。これにより、表示制御装置1は、軌跡表示タイミングを、文字表示タイミングと同時にしたり、文字表示タイミングの前後にしたりすることができる。
軌跡表示タイミングが文字表示タイミングの前にされる場合としては、例えば、(1)ジェスチャー操作の取得後も音声の取得が継続して行われている場合、(2)ユーザが音声にすべき言葉を思い出せずに、ジェスチャー操作の取得後も依然として音声が取得されていない場合、(3)一定長を超えるテキストを要約するように構成されている場合において、要約処理によって文字表示タイミングが遅れる場合、(4)音声の言語と音声文字の言語とが異なるように翻訳する構成されている場合において、翻訳処理によって文字表示タイミングが遅れる場合、などがある。
なお、(2)の場合において、制御部12は、取得部11で軌跡操作が取得された場合に、図6及び図7の軌跡21を表示する制御を行い、その後に取得部11で軌跡21へのタップ操作などの特定操作及び音声が取得された場合に、当該音声から変換された文字を軌跡21に付随させて表示する制御を行なってもよい。
以上のような構成によれば、軌跡表示タイミングと、文字表示タイミングとを適切化することができる。
また、以上に説明した構成において、制御部12は、第1表示部2の第1表示画面に音声文字を表示するタイミングである第1表示タイミング、及び、第2表示部3の第2表示画面に音声文字を表示するタイミングである第2表示タイミングの一方に基づいて他方を調整するように構成されてもよい。これにより、表示制御装置1は、第1表示タイミングを、第2表示タイミングと同時にしたり、第2表示タイミングの前後にしたりすることができる。
例えば、表示制御装置1または表示制御装置1を含むシステムにおいて、何らかの通信上の遅延が生じ、第1表示部2及び第2表示部3の一方が音声文字を表示できないけれども他方が音声文字を表示できる状態である場合には、制御部12は、当該他方の表示を待機させるように制御してもよい。これにより、第1表示タイミングと第2表示タイミングとの差を低減することができる。なお、何らかの通信上の遅延には、例えば、クラウドソースの活用の際の通信及びサーバ側の処理の遅延、または、第1表示部2及び第2表示部3の一方が、携帯端末の表示部である場合の遅延などがある。
以上のような構成によれば、第1表示タイミングと、第2表示タイミングとを適切化することができる。
<変形例3>
以上に説明した図1などの構成において、制御部12は、いずれか一方が音声文字を含む二画面を、第1表示画面及び第2表示画面の少なくともいずれか1つに表示する制御を行ってもよい。図9及び図10には、第1表示画面2aが運転者の視認に用いられる運転者用の表示画面である例が示され、図11及び図12には、第2表示画面3aが同乗者の視認に用いられる同乗者の表示画面である例が示されている。
図9の運転者用の表示画面は、1つの全画面を区分してなる2つの半画面を含む二画面であり、当該二画面は、音声文字を含む地図画面、及び、運転者に渋滞を通知するための通知画面を含む。図10の運転者用の表示画面は、1つの全画面であり、音声文字を含む地図画面である。制御部12は、運転者用の表示画面に表示すべき内容に基づいて、運転者用の表示画面を全画面及び二画面のいずれにするかを決定する。
図11の同乗者用の表示画面は、上述の二画面と同様の二画面であり、当該二画面は、音声文字を含む地図画面、及び、DVDの再生画面を含む。図12の同乗者用の表示画面は、1つの全画面であり、音声文字を含む地図画面である。制御部12は、同乗者用の表示画面に表示すべき内容に基づいて、同乗者用の表示画面を全画面及び二画面のいずれにするかを決定する。
以上のような構成によれば、第1表示画面及び第2表示画面に、音声文字を含む画面だけでなく、それ以外の画面も表示することができる。
<変形例4>
以上に説明した図1などの構成において、制御部12は、第1表示画面及び第2表示画面におけるコンテンツ上に、音声文字を半透過で表示する制御を行ってもよい。このような構成によれば、音声文字の表示が他の画像の表示を妨げてしまうことを抑制することができる。
また以上に説明した図1などの構成において、表示されるコンテンツが地物情報を含む地図である場合には、制御部12は、地図上の地物情報を避けて音声文字を表示する制御を行ってもよい。なお、地物情報は、地物に関する情報であり、例えば地図のPOI及び当該POIの名称を含む情報である。図13は、そのように構成された表示制御装置1の表示制御を説明するための図である。図13の例では、音声文字が、公園を示すPOI25を避けて表示されている。このような構成によれば、音声文字の表示が、POI25などの地物情報の表示を妨げてしまうことを抑制することができる。なお、以上に説明した構成において、制御部12は、POI25のような、運転者が右左折を行うべき地点付近のPOIを、ポップアップ表示する制御を行ってもよい。
<変形例5>
以上に説明した構成において、音声文字は、第1言語の音声の内容を示す第1言語の文字と、第1言語の音声の内容を第2言語に翻訳した内容を示す第2言語の文字とを含んでもよい。
図14は、本変形例5に係る表示制御装置1の構成を示すブロック図である。図14の表示制御装置1は、図4の構成に言語翻訳装置12cを追加した構成と同様である。なお、言語翻訳装置12cは、図1の制御部12の概念に含まれる。
言語翻訳装置12cは、第1言語の音声の内容を第2言語の内容に翻訳する。ここで、言語翻訳装置12cは、インターフェース11aにて二種類の言語の音声が取得された場合に、当該二種類の言語を第1言語及び第2言語として決定してもよい。または、言語翻訳装置12cは、ユーザが表示制御装置1に予め設定した言語を第2言語として決定し、インターフェース11aにて第2言語と別の言語の音声が取得された場合に、当該別の言語を第1言語として決定してもよい。
音声テキスト変換部12aは、インターフェース11aで取得された第1言語の音声の内容を、当該内容を示す第1言語の文字に変換する。また、音声テキスト変換部12aは、言語翻訳装置12cで翻訳された第2言語の内容を、当該内容を示す第2言語の文字に変換する。
コンテンツ表示制御部12bは、第1表示画面及び第2表示画面のそれぞれの、ジェスチャー操作によって指示された部分に対応する部分に、音声テキスト変換部12aで変換された第1言語の文字及び第2言語の文字を表示する制御を行う。図15は、本変形例5に係る表示制御装置1の表示制御を説明するための図である。図15の例では、第1言語及び第2言語は日本語及びドイツ語であり、第1言語及び第2言語の文字が並べて表示されている。
以上のような構成によれば、ユーザ及び相手が使用する言語が異なる場合に、ユーザと相手との間における意思疎通を容易に行うことができる。なお、図14の構成では、表示制御装置1が言語翻訳装置12cを備えたが、これに限ったものではない。例えば、表示制御装置1は、言語翻訳装置12cを備えずに、言語翻訳装置12cと同等の装置と接続可能なインターフェースを備えてもよい。
<変形例6>
以上に説明した図4の構成などでは、表示制御装置1は、第1音声検出装置4及び第1ジェスチャー検出装置5と接続されていたが、これに限ったものではない。例えば図16に示すように、表示制御装置1は、実線のブロックで示される第1音声検出装置4及び第1ジェスチャー検出装置5を備えてもよい。
また以上に説明した構成において、図17に示すように、表示制御装置1は、第2音声検出装置7及び第2ジェスチャー検出装置8とさらに接続されてもよい。この場合、第1音声検出装置4は、車両の第1座席における音声を、インターフェース11aで取得される音声として検出し、第1ジェスチャー検出装置5は、第1座席におけるジェスチャー操作を、インターフェース11bで取得されるジェスチャー操作として検出する。一方、第2音声検出装置7は、車両の第2座席における音声を、インターフェース11aで取得される音声として検出し、第2ジェスチャー検出装置8は、第2座席におけるジェスチャー操作を、インターフェース11bで取得されるジェスチャー操作として検出する。なお、第1座席及び第2座席の一方は、例えば運転座席であり、第1座席及び第2座席の他方は、例えば後部座席である。
また、表示制御装置1は、第1音声検出装置4及び第1ジェスチャー検出装置5と、第2音声検出装置7及び第2ジェスチャー検出装置8との少なくともいずれか1つを備えてもよい。また、表示制御装置1は、第1表示部2と第2表示部3との少なくともいずれか1つを備えてもよい。
図18及び図19のそれぞれは、これらの一例を示す図である。図18には、表示制御装置1が、実線のブロックで示される第1表示部2、第1音声検出装置4及び第1ジェスチャー検出装置5を備えるが、第2表示部3、第2音声検出装置7及び第2ジェスチャー検出装置8を備えない構成例が示されている。図19には、表示制御装置1が、実線のブロックで示される第1表示部2、第1音声検出装置4及び第1ジェスチャー検出装置5を備え、かつ、実線のブロックで示される第2表示部3、第2音声検出装置7及び第2ジェスチャー検出装置8を備える構成例が示されている。
以上のように、音声検出装置及びジェスチャー検出装置のそれぞれが複数設けられた構成によれば、例えば、第1座席と第2座席とが比較的離れている場合に、各席のユーザの音声及びジェスチャー操作の検出精度が低くなることを抑制することができる。
また図20に示すように、表示制御装置1は、第1表示部2を制御する第1表示制御装置1a、及び、第2表示部3を制御する第2表示制御装置1bのうち、第1表示制御装置1aに備えられてもよい。図20では、表示制御装置1が備える構成要素、及び、表示制御装置1を備える構成要素が実線のブロックで示され、それ以外の構成要素が点線のブロックで示されている。なお、表示制御装置1は、図20に示す構成に限ったものではなく、第2表示制御装置1bに備えられてもよいし、第1表示制御装置1a及び第2表示制御装置1bの両方に備えられてもよい。
<変形例7>
以上に説明した図1などの構成において、取得部11は、ユーザを識別する識別情報をさらに取得し、制御部12は、取得部11で取得された識別情報に基づいて、変形例1と同様に音声文字の表示態様を変更してもよい。例えば、図6の同乗者の音声文字の太さは、図7の運転者の音声文字の太さと異なっている。なお、取得部11は、車両室内の画像を取得し、当該画像を解析することによって識別情報を取得してもよいし、音声の特徴を解析することによって識別情報を取得してもよい。このような構成によれば、ユーザごとに音声文字の表示態様が変更されるので、各ユーザはどのユーザの音声文字であるかを容易に知ることができる。
また以上に説明した図20などの構成において、制御部12は、第1音声検出装置4で検出された音声、及び、第1ジェスチャー検出装置5で検出されたジェスチャー操作に基づいて表示される文字の表示態様と、第2音声検出装置7で検出された音声、及び、第2ジェスチャー検出装置8で検出されたジェスチャー操作に基づいて表示される文字の表示態様とを異ならせてもよい。このような構成によれば、座席ごとに音声文字の表示態様が変更されるので、各ユーザはどの座席のユーザの音声文字であるかを容易に知ることができる。
<その他の変形例>
上述した図1の取得部11及び制御部12を、以下「取得部11等」と記す。取得部11等は、図21に示す処理回路81により実現される。すなわち、処理回路81は、音声と、ジェスチャー操作とを取得する取得部11と、第1表示画面のうち取得部11で取得されたジェスチャー操作によって指示された部分に対応する部分、及び、第2表示画面のうち取得部11で取得されたジェスチャー操作によって指示された部分に対応する部分のそれぞれに、取得部11で取得された音声から変換された文字を表示する制御を行う制御部12と、を備える。処理回路81には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサが適用されてもよい。プロセッサには、例えば、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などが該当する。
処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。取得部11等の各部の機能それぞれは、処理回路を分散させた回路で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
処理回路81がプロセッサである場合、取得部11等の機能は、ソフトウェア等との組み合わせにより実現される。なお、ソフトウェア等には、例えば、ソフトウェア、ファームウェア、または、ソフトウェア及びファームウェアが該当する。ソフトウェア等はプログラムとして記述され、メモリ83に格納される。図22に示すように、処理回路81に適用されるプロセッサ82は、メモリ83に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、表示制御装置1は、処理回路81により実行されるときに、音声と、ジェスチャー操作とを取得するステップと、第1表示画面のうち取得されたジェスチャー操作によって指示された部分に対応する部分、及び、第2表示画面のうち取得されたジェスチャー操作によって指示された部分に対応する部分のそれぞれに、取得された音声から変換された文字を表示する制御を行うステップと、が結果的に実行されることになるプログラムを格納するためのメモリ83を備える。換言すれば、このプログラムは、取得部11等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ83は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)、そのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
以上、取得部11等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、取得部11等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、取得部11については専用のハードウェアとしての処理回路81及びレシーバなどでその機能を実現し、それ以外についてはプロセッサ82としての処理回路81がメモリ83に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
以上のように、処理回路81は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
また、以上で説明した表示制御装置1は、PND(Portable Navigation Device)などのナビゲーション装置と、携帯電話、スマートフォン及びタブレットなどの携帯端末を含む通信端末と、ナビゲーション装置及び通信端末の少なくともいずれか1つにインストールされるアプリケーションの機能と、サーバとを適宜に組み合わせてシステムとして構築される表示制御システムにも適用することができる。この場合、以上で説明した表示制御装置1の各機能あるいは各構成要素は、前記システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。
図23は、本変形例に係るサーバ91の構成を示すブロック図である。図23のサーバ91は、通信部91aと制御部91bとを備えており、車両92のナビゲーション装置93と無線通信を行うことが可能となっている。
取得部である通信部91aは、ナビゲーション装置93と無線通信を行うことにより、ナビゲーション装置93で取得された音声及びジェスチャー操作を受信する。
制御部91bは、サーバ91の図示しないプロセッサなどが、サーバ91の図示しないメモリに記憶されたプログラムを実行することにより、図1の制御部12と同様の機能を有している。つまり、制御部91bは、第1表示部2の第1表示画面のうち通信部91aで取得されたジェスチャー操作によって指示された部分に対応する部分、及び、第2表示部3の第2表示画面のうち通信部91aで取得されたジェスチャー操作によって指示された部分に対応する部分のそれぞれに、通信部91aで取得された音声から変換された文字を表示する制御を行うための制御信号を生成する。そして、通信部91aは、制御部91bで生成された制御信号をナビゲーション装置93に送信する。
このように構成されたサーバ91によれば、実施の形態1で説明した表示制御装置1と同様の効果を得ることができる。
図24は、本変形例に係る通信端末96の構成を示すブロック図である。図24の通信端末96は、通信部91aと同様の通信部96aと、制御部91bと同様の制御部96bとを備えており、車両97のナビゲーション装置98と無線通信を行うことが可能となっている。このように構成された通信端末96によれば、実施の形態1で説明した表示制御装置1と同様の効果を得ることができる。
なお、本発明は、その発明の範囲内において、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。
本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得るものと解される。
1 表示制御装置、1a 第1表示制御装置、1b 第2表示制御装置、2 第1表示部、2a 第1表示画面、3 第2表示部、3a 第2表示画面、4 第1音声検出装置、5 第1ジェスチャー検出装置、7 第2音声検出装置、8 第2ジェスチャー検出装置、11 取得部、12 制御部。

Claims (16)

  1. 車両とともに移動可能な、前記車両に固定された運転者用の第1表示部と、当該車両とともに移動可能な、前記運転者の意思疎通先である相手用の第2表示部とを制御可能な表示制御装置であって、
    音声と、ジェスチャー操作とを取得する取得部と、
    前記第1表示部の第1表示画面のうち前記取得部で取得されたジェスチャー操作によって指示された部分に対応する部分、及び、前記第2表示部の第2表示画面のうち前記取得部で取得されたジェスチャー操作によって指示された部分に対応する部分のそれぞれに、前記取得部で取得された音声から変換された文字を表示する制御を行う制御部とを備え、
    前記ジェスチャー操作は、前記第1表示画面または前記第2表示画面上に軌跡を描く軌跡操作を含み、
    前記制御部は、
    前記第1表示画面、及び、前記第2表示画面に、予め定められたコンテンツを表示する制御と、前記第1表示画面のうち前記取得部で取得された軌跡操作の軌跡に対応する部分、及び、前記第2表示画面のうち前記取得部で取得された軌跡操作の軌跡に対応する部分のそれぞれに、前記文字を表示する制御と、前記取得部で取得された軌跡操作の軌跡を前記第1表示画面及び前記第2表示画面に表示する制御とを行う、表示制御装置。
  2. 請求項1に記載の表示制御装置であって、
    前記取得部は、前記ジェスチャー操作の種類をさらに取得し、
    前記制御部は、前記取得部で取得された前記種類に対応する図形を前記第1表示画面及び前記第2表示画面に表示する制御を行う、表示制御装置。
  3. 請求項1に記載の表示制御装置であって、
    前記制御部は、
    前記第1表示画面及び前記第2表示画面に表示される前記軌跡操作の軌跡の屈曲部分に隣接するPOIの表示態様を変更する、表示制御装置。
  4. 請求項1に記載の表示制御装置であって、
    前記車両の第1座席における音声を、前記取得部で取得される音声として検出する第1音声検出装置、及び、前記車両の第2座席における音声を、前記取得部で取得される音声として検出する第2音声検出装置の少なくともいずれか1つと、
    前記第1座席におけるジェスチャー操作を、前記取得部で取得されるジェスチャー操作として検出する第1ジェスチャー検出装置、及び、前記第2座席におけるジェスチャー操作を、前記取得部で取得されるジェスチャー操作として検出する第2ジェスチャー検出装置の少なくともいずれか1つと、
    をさらに備える、表示制御装置。
  5. 請求項1に記載の表示制御装置であって、
    前記第1表示部、及び、前記第2表示部の少なくともいずれか1つをさらに備える、表示制御装置。
  6. 請求項1に記載の表示制御装置であって、
    前記制御部は、
    前記取得部で取得された前記ジェスチャー操作の速度に基づいて、前記文字の表示態様を変更する、表示制御装置。
  7. 請求項1に記載の表示制御装置であって、
    前記取得部は、前記車両の座席ごとにユーザを識別する識別情報をさらに取得し、
    前記制御部は、
    前記取得部で取得された識別情報に基づいて前記文字の表示態様を変更する、表示制御装置。
  8. 請求項4に記載の表示制御装置であって、
    前記第1音声検出装置、前記第1ジェスチャー検出装置、前記第2音声検出装置、及び、前記第2ジェスチャー検出装置を備え、
    前記制御部は、
    前記第1音声検出装置で検出された音声、及び、前記第1ジェスチャー検出装置で検出されたジェスチャー操作に基づいて表示される前記文字の表示態様と、前記第2音声検出装置で検出された音声、及び、前記第2ジェスチャー検出装置で検出されたジェスチャー操作に基づいて表示される前記文字の表示態様とを異ならせる、表示制御装置。
  9. 請求項1に記載の表示制御装置であって、
    前記制御部は、
    前記第1表示画面及び前記第2表示画面に表示された前記文字を、予め定められた条件が満たされた場合に消去する、表示制御装置。
  10. 請求項1に記載の表示制御装置であって、
    前記制御部は、
    前記軌跡を表示するタイミング、及び、前記文字を表示するタイミングの一方に基づいて他方を調整し、
    前記制御部は、
    前記取得部が前記ジェスチャー操作を取得した後も前記音声を継続して取得している場合に、前記軌跡を表示するタイミングを前記文字を表示するタイミングの前にする制御と、前記取得部が前記ジェスチャー操作を取得した場合に前記軌跡を表示し、その後に前記取得部が特定のジェスチャー操作と前記音声とを取得した場合に前記文字を表示する制御との少なくともいずれか1つを行う、表示制御装置。
  11. 請求項1に記載の表示制御装置であって、
    前記制御部は、
    前記第1表示画面に前記文字を表示するタイミング、及び、前記第2表示画面に前記文字を表示するタイミングの一方に基づいて他方を調整する、表示制御装置。
  12. 請求項1に記載の表示制御装置であって、
    前記制御部は、
    前記第1表示画面及び前記第2表示画面に、前記第1表示画面及び前記第2表示画面における前記コンテンツ上に前記文字を半透過で表示する制御を行う、表示制御装置。
  13. 請求項12に記載の表示制御装置であって、
    前記コンテンツは地物情報を含む地図であり、
    前記制御部は、
    前記地図上の前記地物情報を避けて前記文字を表示する制御を行う、表示制御装置。
  14. 請求項1に記載の表示制御装置であって、
    前記音声は、第1言語の音声を含み、
    前記文字は、
    前記第1言語の音声の内容を示す前記第1言語の文字と、前記第1言語の音声の内容を第2言語に翻訳した内容を示す前記第2言語の文字とを含む、表示制御装置。
  15. 請求項1に記載の表示制御装置であって、
    前記表示制御装置は、前記第1表示部を制御する第1表示制御装置、及び、前記第2表示部を制御する第2表示制御装置の少なくともいずれか1つに備えられる、表示制御装置。
  16. 車両とともに移動可能な、前記車両に固定された運転者用の第1表示部と、当該車両とともに移動可能な、前記運転者の意思疎通先である相手用の第2表示部とを制御可能な表示制御方法であって、
    音声と、ジェスチャー操作とを取得し、
    前記第1表示部の第1表示画面のうち取得されたジェスチャー操作によって指示された部分に対応する部分、及び、前記第2表示部の第2表示画面のうち取得されたジェスチャー操作によって指示された部分に対応する部分のそれぞれに、取得された音声から変換された文字を表示する制御を行い、
    前記ジェスチャー操作は、前記第1表示画面または前記第2表示画面上に軌跡を描く軌跡操作を含み、
    前記制御は、
    前記第1表示画面、及び、前記第2表示画面に、予め定められたコンテンツを表示する制御と、前記第1表示画面のうち取得された軌跡操作の軌跡に対応する部分、及び、前記第2表示画面のうち取得された軌跡操作の軌跡に対応する部分のそれぞれに、前記文字を表示する制御と、取得された軌跡操作の軌跡を前記第1表示画面及び前記第2表示画面に表示する制御とを含む、表示制御方法。
JP2019540239A 2017-09-08 2017-09-08 表示制御装置及び表示制御方法 Active JP6910451B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/032467 WO2019049312A1 (ja) 2017-09-08 2017-09-08 表示制御装置及び表示制御方法

Publications (2)

Publication Number Publication Date
JPWO2019049312A1 JPWO2019049312A1 (ja) 2020-01-16
JP6910451B2 true JP6910451B2 (ja) 2021-07-28

Family

ID=65634746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019540239A Active JP6910451B2 (ja) 2017-09-08 2017-09-08 表示制御装置及び表示制御方法

Country Status (2)

Country Link
JP (1) JP6910451B2 (ja)
WO (1) WO2019049312A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302882A (ja) * 2003-03-31 2004-10-28 Zenrin Co Ltd 印刷用データ作成方法
JP5682533B2 (ja) * 2011-10-19 2015-03-11 トヨタ自動車株式会社 通信端末装置及び通信方法
JP2014110564A (ja) * 2012-12-03 2014-06-12 Konami Digital Entertainment Co Ltd 出力タイミング制御装置、出力タイミング制御システム、出力タイミング制御方法、およびプログラム
JP6120751B2 (ja) * 2013-10-30 2017-04-26 三菱電機株式会社 情報処理装置、情報端末、情報通信システムおよび情報提供方法
EP3306452B1 (en) * 2015-05-28 2022-04-20 Mitsubishi Electric Corporation Input display device and input display method
JP6374854B2 (ja) * 2015-11-10 2018-08-15 株式会社オプティム 画面共有システム及び画面共有方法
KR102174565B1 (ko) * 2016-02-08 2020-11-05 미쓰비시덴키 가부시키가이샤 표시 제어 장치, 입력 표시 시스템, 표시 제어 방법 및 프로그램

Also Published As

Publication number Publication date
JPWO2019049312A1 (ja) 2020-01-16
WO2019049312A1 (ja) 2019-03-14

Similar Documents

Publication Publication Date Title
US9613459B2 (en) System and method for in-vehicle interaction
US10310808B2 (en) Systems and methods for simultaneously receiving voice instructions on onboard and offboard devices
US20110185390A1 (en) Mobile phone integration into driver information systems
JP6604151B2 (ja) 音声認識制御システム
KR102099328B1 (ko) 적어도 하나의 비디오 신호 또는 제어 신호를 계산하기 위한 장치, 차량, 방법 및 컴퓨터 프로그램
US20230129821A1 (en) Navigation Application with Novel Declutter Mode
KR102138740B1 (ko) 자동차의 인포테인먼트 시스템의 기능을 선택하기 위한 방법 및 장치
JPWO2019016936A1 (ja) 操作支援装置および操作支援方法
US10369943B2 (en) In-vehicle infotainment control systems and methods
US9851802B2 (en) Method and apparatus for controlling content playback
US9277380B2 (en) Method for controlling call termination based on gaze, and mobile communication terminal therefor
CN108668011B (zh) 输出方法、输出设备以及电子设备
US9104378B2 (en) Method for processing data and electronic device thereof
JP6910451B2 (ja) 表示制御装置及び表示制御方法
JP2014123353A (ja) ヘルプを提供する方法、コンピュータプログラム及びコンピュータ
US20140297285A1 (en) Automatic page content reading-aloud method and device thereof
JP2019200125A (ja) 経路案内制御装置および経路案内制御方法
KR101647111B1 (ko) Avn 제어 시스템 및 그 방법
WO2017163309A1 (ja) 状態推定装置、ナビゲーション装置、および、作業手順の案内装置
JP2013250132A (ja) 車載装置、車載情報システム
JP2006148541A (ja) ナビゲーション装置およびプログラム
CN111615838A (zh) 地理特定信息系统和方法
JP2015125640A (ja) 車載用電子機器、制御方法、およびプログラム
JP7063098B2 (ja) 車両用情報提供装置
KR20180094684A (ko) 차량 단말 시스템 및 그 제어 방법

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190816

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210706

R150 Certificate of patent or registration of utility model

Ref document number: 6910451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150