JP6673567B2 - 情報表示装置、情報表示システム及び情報表示方法 - Google Patents

情報表示装置、情報表示システム及び情報表示方法 Download PDF

Info

Publication number
JP6673567B2
JP6673567B2 JP2015246508A JP2015246508A JP6673567B2 JP 6673567 B2 JP6673567 B2 JP 6673567B2 JP 2015246508 A JP2015246508 A JP 2015246508A JP 2015246508 A JP2015246508 A JP 2015246508A JP 6673567 B2 JP6673567 B2 JP 6673567B2
Authority
JP
Japan
Prior art keywords
information
unit
target object
related information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015246508A
Other languages
English (en)
Other versions
JP2017111670A (ja
Inventor
亮太 藤井
亮太 藤井
英明 宮崎
英明 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015246508A priority Critical patent/JP6673567B2/ja
Publication of JP2017111670A publication Critical patent/JP2017111670A/ja
Application granted granted Critical
Publication of JP6673567B2 publication Critical patent/JP6673567B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、情報表示装置、情報表示システム及び情報表示方法に関する。
近年、カーナビゲーション装置等の電子機器は、多機能化、高機能化が進展し、その操作手法は増々複雑化している。例えば、操作画面が階層化され、所望の操作画面に到るには、複数回に渡る操作を必要とする。さらに、タッチパネル等の採用により、物理的なボタンに制約されず、様々な態様で操作が行われるようになっている。このような電子機器において、操作に習熟していない利用者は、所望の操作を容易に行うことができない。
このため、利用者の所持する携帯端末に電子機器の操作マニュアルを表示させ、所望の機能が選択された場合に、当該機能を実現するための操作手順に従って複数のコマンドを間欠的に電子機器へ送信することにより、電子機器の状態を操作手順に従って遷移させる技術が提案されている(特許文献1)。これにより、所望の操作が達成されると共に、どのような操作手順を経て実行されるのかを利用者が認識できるようにしている。
特開2015−69428号公報 特開2014−6147号公報
前述のように操作対象の電子機器とは別の携帯端末に操作マニュアルを表示させる方式では、利用者が携帯端末に対して入力を行い、携帯端末から電子機器へコマンドを送信して操作を実行することになるので、利用者が操作を直感的に把握しにくいという問題があった。
そこで、処理対象の物体と当該物体に関する情報とを重ねて表示する技術、いわゆる拡張現実(AR: Augmented Reality)の技術を用いて、電子機器に関する操作手順等の情報を表示することも考えられる。
例えば、特許文献2には、利用者の視界内に含まれる実空間上の施設に関する情報を、当該実空間の風景と重ねて表示する拡張現実システムが開示されている。
しかしながら、対象の電子機器と情報とを重ねて表示したのでは、電子機器の視認性が悪くなり、電子機器に対する操作がしにくいという問題が生じてしまう。
そこで本発明は、対象物体の視認性を損なうことなく、対象物体に関する情報を利用者の視界内に表示する技術の提供を課題とする。
本発明の情報表示装置は、上述した課題を解決するため、
利用者の視界に対応した撮像画像を取得する撮像部と、
前記撮像画像から、処理対象とする対象物体を認識する認識部と、
前記撮像画像から、前記対象物体の輪郭を抽出する輪郭抽出部と、
前記対象物体に関する関連情報を記憶部から取得する関連情報取得部と、
前記利用者の視界と重畳させて情報を表示させる表示部と、
前記利用者の視界内であって、前記対象物体の輪郭より外側となるように前記表示部に前記関連情報を表示させる表示制御部とを備える。
また、本発明の情報表示システムは、上述した課題を解決するため、
情報表示装置と、前記情報表示装置と通信可能なサーバ装置とを含み、
前記情報表示装置が、
利用者の視界に対応した撮像画像を取得する撮像部と、
前記撮像画像から、処理対象とする対象物体を認識する認識部と、
前記撮像画像から、前記対象物体の輪郭を抽出する輪郭抽出部と、
前記対象物体に関する関連情報を記憶部から取得する関連情報取得部と、
前記利用者の視界と重畳させて情報を表示させる表示部と、
前記利用者の視界内であって、前記対象物体の輪郭より外側となるように前記表示部に前記関連情報を表示させる表示制御部と、を備え、
前記サーバ装置が、
前記関連情報取得部から前記関連情報の要求を受信する要求受信部と、
前記要求に応じた前記関連情報を前記記憶部から読み出して前記情報表示装置へ送信する情報送信部と、を備える。
また、本発明の情報表示方法は、上述した課題を解決するため、
利用者の視界に対応した撮像画像を撮像部によって取得するステップと、
前記撮像画像から、処理対象とする対象物体を認識するステップと、
前記撮像画像から、前記対象物体の輪郭を抽出する輪郭抽出部と、
前記対象物体に関する関連情報を記憶部から取得するステップと、
前記利用者の視界と重畳させて情報を表示させる表示部に対し、前記利用者の視界内であって、前記対象物体の輪郭より外側となるように前記関連情報を表示させるステップと、
をコンピュータが実行する。
なお、本発明は、上述したコンピュータで実行される処理を実現させるプログラムであってもよい。更に、本発明は、そのようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この場合、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行することにより、その機能を提供させることができる。なお、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、又は化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。
本発明によれば、対象物体の視認性を損なうことなく、対象物体に関する情報を利用者の視界内に表示する技術を提供することができる。
図1は、情報表示装置及び管理サーバを有した情報表示システムの概略構成を示す図である。 図2は、情報表示装置の構成を示す図である。 図3は、処理部の機能ブロック図である。 図4は、処理部のハードウェア構成を示す図である。 図5は、管理サーバの機能ブロック図である。 図6は、管理サーバのハードウェア構成を示す図である。 図7は、車載機器の構成を示す。 図8は、情報表示方法の処理手順を示す図である。 図9は、撮像画像の例を示す図である。 図10は、表示領域の例を示す図である。 図11は、車載機器の状態を情報表示装置から管理サーバへ送信する例を示す図である。 図12は、管理サーバが、車載機器の状態を判別する処理手順を示す図である。 図13は、選択された言語で表示する処理の例を示す図である。 図14は、車載機器について吹き出しにより関連情報を表示した例を示す図である。 図15は、AV機能の実行時に再生している歌の歌詞を関連情報として表示する例を示す図である。 図16は、関連情報として車載機器の説明を行う動画像を表示する例を示す図である。 図17は、車載機器の表示部に表示されている以外の画面を関連情報として表示した例を示す図である。 図18は、関連情報の操作例を示す図である。 図19は、車載機器の表示を補う画面を関連情報として表示する例を示す図である。 図20は、車載機器を三次元的に拡張して表示した例を示す図である。
以下、図面を参照して本発明の実施形態について説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
<1.システム構成>
図1は、本実施形態における情報表示装置1及び管理サーバ3を有した情報表示システム10の概略構成を示す図である。情報表示装置1は、利用者の頭部に装着する表示装置、いわゆるヘッドマウントディスプレイ(HMD)である。管理サーバ3は、ネットワークを介して情報表示装置1と通信可能なコンピュータであり、様々な対象物体に関する関連情報を記憶部に記憶し、通信回線4を介して情報表示装置1へ提供する。管理サーバ3は、本実施形態におけるサーバ装置の一形態である。
対象物体は、特に限定されるものではないが、本実施形態では、車載機器2の例を示している。車載機器2は、車両に搭載される電子装置であり、例えば、カーナビゲーション装置、カーオーディオ装置、エアコンの操作部、自動運転の設定部等、又はこれらを組み合わせた装置である。
情報表示システム10では、情報表示装置1が対象物体に関する関連情報を管理サーバ3から取得し、実空間の風景に前記関連情報を重畳して表示する拡張現実(AR:Augmented Reality)システムである。本実施形態の情報表示システム10では、対象物体に関
する関連情報を当該対象物体の外側に表示することにより、対象物体の視認性を損なうことなく、対象物体に関する情報を利用者に提示でき、拡張現実感が得られるようにしている。
<2.装置構成>
次に、情報表示装置1、車載機器2、管理サーバ3の構成について、詳細に説明する。まず、情報表示装置1の構成を説明する。図2は、情報表示装置1の構成を示す図であり、図2(a)は情報表示装置1の正面図、図2(b)は情報表示装置1を向かって左側から見た側面図、図2(c)は情報表示装置1の一部を切り欠いて表示部の断面を示した図である。
情報表示装置1は、当該情報表示装置1を利用者の頭部に装着する装着部101と、利用者の視界に対応した撮像画像を取得する撮像部102と、利用者の視界と重畳させて情報を表示させる表示部103と、スピーカ104と、当該表示部103に表示させる情報やスピーカから出力させる情報を処理する処理部105と、を備えている。
装着部101は、本実施形態の情報表示装置1を利用者の頭部に装着させる環状の部材であり、長さ調整部111を備えている。情報表示装置1を頭部に装着するには、まず、長さ調整部111を緩めた状態で利用者が情報表示装置1を頭にかぶり、長さ調整部111を締めて、利用者の眼の直前に表示部103が位置するように固定する。
情報表示装置1を正面側から見て右側、即ち利用者の左目側には左撮像部102Lが備えられ、情報表示装置1を正面側から見て左側、即ち利用者の右目側には右撮像部102Rが備えられ、この左撮像部102Lと右撮像部102Rが撮像部102を構成している。
右撮像部102Rは、図2(b)に示したように撮像光学系121Rと、撮像センサー122Rとを備えている。なお、左撮像部102Lについても右撮像部102Rと同様に撮像光学系121Lと、撮像センサー122Lとを備え、右撮像部102Rと左右対称となっているため図示を省略し、左右対称の部材に括弧書きで撮像光学系121L,撮像センサー122Lの符号を付している。
撮像部102は、撮像光学系121L,121Rが、撮像センサー122L,122Rの受光面上に被写体像を形成し、この被写体像を撮像センサー122L,122Rが光電変換して撮像画像とする、即ち撮像を行う。本実施形態の撮像部102は、情報表示装置1を頭部に装着した利用者の頭部が向く方向と略同方向を撮像する、換言すると、利用者の視界に相当する範囲を撮像範囲とする。
また、情報表示装置1を正面側から見て右側、即ち利用者の左目側には左表示部103Lが備えられ、情報表示装置1を正面側から見て左側、即ち利用者の右目側には右表示部103Rが備えられ、この左表示部103Lと右表示部103Rが表示部103を構成している。
右表示部103Rは、図2(c)に示したように反射部材130Rと、結像光学系131Rと、ディスプレイ132Rとを備えている。なお、左表示部103Lについても右表示部103Rと同様に反射部材130Lと、結像光学系131Lと、ディスプレイ132Lとを備え、右表示部103Rと左右対称となっているため図示を省略し、左右対称の部材に括弧書きで反射部材130L、結像光学系131L、ディスプレイ132Lの符号を付している。
反射部材130L,130Rは、ディスプレイ132L,132Rからの光束を利用者の眼へ導光する光学部材であり、本実施形態では、利用者側(観察側)に向かって凹面状に湾曲したミラーである。反射部材130L,130Rは、ディスプレイ132L,132Rからの光束を利用者の眼へ導光できれば、ミラーに限らず、プリズムや、これらの組み合わせであっても良い。なお、反射部材130L,130Rは凹面に限らず、平面であっても良い。
結像光学系131L,131Rは、ディスプレイ132L,132Rに表示した情報の像を形成し、利用者の眼で観察できるように、焦点距離を調整するレンズ等の光学部材である。本実施形態では、反射部材130L,130Rが凹面鏡であり、ディスプレイ13
2L,132Rからの光束を集光させるため、結像光学系131L,131Rは、この反射部材130L,130Rによる集光作用や利用者の眼による集光作用も含めて、ディスプレイ132L,132Rに表示した情報の像が利用者の眼の網膜上に形成されるように焦点距離を調整する。
ディスプレイ132L,132Rは、処理部105から入力される映像信号(電気信号)に基づいて画像を表示する素子であり、例えば、液晶ディスプレイ、プラズマディスプレイ、ELディスプレイ等である。
表示部103は、ディスプレイ132L,132Rに情報を表示し、この表示に伴うディスプレイ132L,132Rからの光が結像光学系131L,131Rを介して、反射部材130L,130Rで反射され、利用者の眼に導光されて利用者の網膜上にディスプレイ132L,132Rに表示した情報の像を形成させる。このように利用者の眼に前方から入射した光によって前記情報の像が形成されるため、利用者は、前記情報を前方に存在する被写体のように視認できる。
本実施形態の表示部103は、実空間の光景と対象物体に関する関連情報とを重畳して表示する。ここで、実空間の光景と関連情報とを重畳する方式としては、ビデオシースルー方式とグラスシースルー方式がある。ビデオシースルー方式は、電気的に重畳する方式であり、画像処理によって、撮像部102で撮像した実空間の撮像画像に関連情報を合成し、合成した画像をディスプレイ132L,132Rに表示し、利用者が、この合成した画像を視認できるようにする。グラスシースルー方式は、反射部材130L,130Rをハーフミラーとして、利用者前方の実空間からの光が反射部材130L,130Rを透過して利用者の眼に達するとともに、ディスプレイ132L,132Rに関連情報を表示し、このディスプレイ132L,132Rからの光が、反射部材130L,130Rで反射されて利用者の眼視導光される。これにより実空間からの光とディスプレイ132L,132Rからの光が反射部材130L,130Rの位置で合成され、実空間の光景と関連情報とが光学的に重畳される。
スピーカ104は、関連情報に含まれる音情報に基づいて、音声メッセージや、警告音、BGMなどの音を出力する音出力部の一形態である。音出力部はイヤホンであっても良い。
図3は、処理部105の機能ブロック図である。処理部105は、認識部51や、輪郭抽出部52、関連情報取得部53、表示制御部54、状態取得部55、言語受付部56、操作検出部57、操作実行部58を有している。
認識部51は、撮像画像から、処理対象とする対象物体を認識する。例えば、撮像部102による撮像画像を管理サーバ3へ送信し、この撮像画像から管理サーバ3が対象物体を画像認識し、認識部51は、管理サーバ3の認識結果に基づいて対象物体を認識する。なお、具体的な認識の処理については後述する。
輪郭抽出部52は、撮像画像から、対象物体の輪郭を抽出する。例えば、撮像画像のうち、認識部51で認識した対象物体の部分において、色が閾値以上に変化する箇所を輪郭(エッジ)として抽出し、この対象装置の最も外側の部分、即ち背景との境界を対象装置の輪郭として抽出する。なお、対象装置の最も外側の輪郭だけでなく、操作ボタンの輪郭やディスプレイの輪郭など、特定の部位の輪郭を抽出しても良い。また、輪郭の抽出は、ソーベルフィルタやラプラスフィルタ等の公知の処理を用いても良い。
関連情報取得部53は、対象物体に関する関連情報を管理サーバ3の記憶部から取得す
る。なお、この関連情報の取得は、管理サーバ3の記憶部に限らず、処理部105の記憶部や対象物体の記憶部、その他の記憶部から取得しても良い。
表示制御部54は、利用者の視界内であって、対象物体の輪郭より外側に関連情報が表示されるように映像データを生成し、表示部103に表示させる。
状態取得部55は、対象物体の状態を示す情報を取得する。対象物体の状態は、例えば、利用者の操作によって選択された状態や、利用者による操作の契機となる状態である。具体的には、対象物体が電子機器の場合、実行中の機能や、設定情報、エラー情報等である。
言語受付部56は、表示部103に表示する関連情報やスピーカ104から出力する関連情報の言語の指定を受け付ける。
操作検出部57は、関連情報に対する選択や移動、拡大、縮小などの操作を検出する。
操作実行部58は、操作検出部57により関連情報に対する操作を検出した場合に、当該操作に応じて、関連情報が示す機能の実行や、表示位置の移動、拡大、縮小を行う。
図4は、処理部105のハードウェア構成を示す図である。処理部105は、CPU151、メモリ152、通信制御部153、記憶装置154、入出力インタフェース155を有する所謂コンピュータである。
CPU151は、メモリ152に実行可能に展開されたプログラムを実行する。これにより、処理部105のCPU151は、前述の認識部51や、輪郭抽出部52、関連情報取得部53、表示制御部54、状態取得部55、言語受付部56、操作検出部57、操作実行部58の機能を提供する。
メモリ152は、主記憶装置ということもできる。メモリ152は、例えば、CPU151が実行するプログラムや、通信制御部153を介して受信したデータ、記憶装置154から読み出したデータ、その他のデータ等を記憶する。
通信制御部153は、通信回線を介して他の装置と接続し、当該装置との通信を制御する。例えば、通信制御部153は、無線通信回線を介して管理サーバ3と接続し、当該管理サーバ3との通信を制御する。また、通信制御部153は、小電力無線通信を利用した通信機能を備え、車載機器2等の対象物体との通信を行う。例えば、Wi−Fi(Wireless Fidelity)等の無線LAN技術やブルートゥース(Bluetooth(登録商標))等の近距離無線通信規格を利用した情報通信を行う。
入出力インタフェース155は、表示部103やスピーカ104等の出力手段や、キーボード等の入力手段、ドライブ装置等の入出力手段が適宜接続される。ドライブ装置は、着脱可能な記憶媒体(リムーバブルメディア)の読み書き装置であり、例えば、フラッシュメモリカードの入出力装置、USBメモリを接続するUSBのアダプタ等である。
記憶装置154は、外部記憶装置ということもできる。記憶装置154としては、SSD(Solid State Drive)やHDD等であってもよい。記憶装置154は、ドライブ装置
との間で、データを授受する。例えば、記憶装置154は、ドライブ装置からインストールされる情報処理プログラム等を記憶する。また、記憶装置154は、プログラムを読み出し、メモリ152に引き渡す。本実施形態では、管理サーバ3から受信した関連情報を記憶装置154が記憶しても良い。
図5は、管理サーバ3の機能ブロック図である。管理サーバ3は、要求受信部31や、情報送信部32、対象物体管理部33、表示装置管理部34、画像認識部35を有している。
要求受信部31は、情報表示装置1の関連情報取得部53から関連情報の要求を受信する。情報送信部32は、前記要求に応じた関連情報を記憶装置から読み出して情報表示装置1へ送信する。
対象物体管理部33は、接続した対象物体から識別情報を取得し、この識別情報に基づいて当該対象物体をユニークに識別すると共に、当該対象物体の機種や製品名、形状等を特定する。
表示装置管理部34は、接続した情報表示装置1から識別情報を取得し、この識別情報に基づいて対応する対象物体を特定する。例えば、予め情報表示装置1の識別情報毎に、対応する対象物体の識別情報を記憶しておき、この識別情報が一致する場合に対応する対象物体と特定し、当該対象物体の状態を示す情報等の提供を可能にする。
画像認識部35は、情報表示装置1から受信した撮像画像に含まれる対象物体を認識する。例えば、画像認識部35は、対象物体の画像パターンを予め記憶し、パターンマッチングにより、この画像パターンと合致した物体を対象物体と認識する。
図6は管理サーバ3のハードウェア構成を示す図である。管理サーバ3は、CPU131、メモリ132、通信制御部133、記憶装置134、入出力インタフェース135を有する所謂コンピュータである。
CPU131は、メモリ132に実行可能に展開されたプログラムを実行する。これにより、管理サーバ3のCPU131は、前述の要求受信部31や、情報送信部32、対象物体管理部33、表示装置管理部34、画像認識部35の機能を提供する。
メモリ132は、主記憶装置ということもできる。メモリ132は、例えば、CPU131が実行するプログラムや、通信制御部133を介して受信したデータ、記憶装置134から読み出したデータ、その他のデータ等を記憶する。
通信制御部133は、ネットワークを介して他の装置と接続し、当該装置との通信を制御する。入出力インタフェース135は、表示装置やプリンタ等の出力手段や、キーボードやポインティングデバイス等の入力手段、ドライブ装置等の入出力手段が適宜接続される。ドライブ装置は、着脱可能な記憶媒体の読み書き装置であり、例えば、フラッシュメモリカードの入出力装置、USBメモリを接続するUSBのアダプタ等である。また、着脱可能な記憶媒体は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disk)等のディスク媒体であってもよい。ドライブ装置は、着脱可能な記憶媒体からプログラムを読み出し、記憶装置134に格納する。
記憶装置134は、外部記憶装置ということもできる。記憶装置134としては、SSD(Solid State Drive)やHDD等であってもよい。記憶装置134は、ドライブ装置
との間で、データを授受する。例えば、記憶装置134は、ドライブ装置からインストールされる情報処理プログラム等を記憶する。また、記憶装置134は、プログラムを読み出し、メモリ132に引き渡す。記憶装置134は、各対象物体の関連情報を記憶している。
次に、車載機器2の構成を説明する。車載機器2は、車両に搭載される電子装置である。例えば、カーナビゲーション装置やカーオーディオ装置等である。また、車載機器2は、利用者の操作に応じてディスプレイに操作画面を表示し、所定の操作手順に従った複数の操作を受け付けると、所定の機能のための操作画面を表示する。なお、車載機器2は、車両に固定的に設置される機器のほか、利用の度に車両に持ち込まれて使用される可搬性の機器でもよい。図7は、車載機器2の構成を示す。車載機器2は、機器全体を制御する制御部221、通信制御部222、スイッチ223、ディスプレイ224、及び記憶部225を備える。
制御部221は、CPU、RAM、及びROMを備えたマイクロコンピュータである。制御部221は、情報表示装置1が備える他の構成と接続され、機器全体を制御する。
通信制御部222は、通信回線を介して他の装置と接続し、当該装置との通信を制御する。例えば、通信制御部222は、無線通信回線を介して管理サーバ3と接続し、当該管理サーバ3との通信を制御する。また、通信制御部222は、小電力無線通信を利用した通信機能を備え、情報表示装置1との通信を行う。例えば、Wi−Fi(Wireless Fidelity)等の無線LAN技術やブルートゥース(Bluetooth)等の近距離無線通信規格を利用した情報通信を行う。
スイッチ223は、利用者により押下され、機械的に作動する押しボタンである。すなわち、ハードウェア型のスイッチ機構である。スイッチ223は、利用者により押下されると、入力信号を制御部221に送信する。
ディスプレイ224は、文字や図形等の各種情報を表示し、利用者に情報を視覚的に提示する。例えば、液晶ディスプレイや、プラズマディスプレイ、有機ELディスプレイ等の表示装置である。ディスプレイ224は、タッチパネル224aを備える。
タッチパネル224aは、ディスプレイ224に表示されたコマンドボタンへの利用者の接触を感知し、感知した位置情報を制御部221へ送信する。
記憶部225は、データを記憶するメモリである。例えば、EEPROM(Electrical
Erasable Programmable Read-Only memory)や、フラッシュメモリ、磁気ディスクを備
えたハードディスクドライブ等の不揮発性の記憶媒体である。
<3.処理>
次に、情報表示装置1、車載機器2、及び管理サーバ3における情報表示方法の処理手順を説明する。図8は、この情報表示方法の処理手順を示す図である。なお、情報表示装置1と車載機器2は、図8の情報表示処理に先立ち、通信回線を介して管理サーバ3と接続し、識別情報を送信することで、管理サーバ3に対してログインする。管理サーバ3は、この識別情報に基づき、情報表示装置1と車載機器2との対応付けを行う。
先ず、利用者が情報表示装置1を操作し、関連情報の表示を開始させると、情報表示装置1は、撮像部102による撮像を開始し(ステップS10)、この撮像画像を管理サーバ3へ送信する(ステップS20)。
管理サーバ3は、受信した撮像画像から対象物体である車載機器2を画像認識し、認識結果を情報表示装置1に通知する(ステップS30)。例えば、パターンマッチングにより対象とする画像パターンと合致した場合に車載機器2を対象物体として認識し、情報表示装置1に通知する。
情報表示装置1は、前記認識結果に基づき、車載機器2の輪郭を抽出し、その外側を表示領域として定義する(ステップS40)。例えば、図9に示すように撮像画像に対象の車載機器2が含まれている場合、図10の点線201のように車載機器2の輪郭を抽出し、その外側(図10の網掛け部分)を表示領域として定義する。
一方、車載機器2は、実行中の機能やエラー等、車載機器2の状態を示す情報を管理サーバ3へ通知すると(ステップS50)、管理サーバ3は、車載機器2の状態に応じた関連情報の内容を決定し、この関連情報を情報表示装置1へ通知する(ステップS60)。例えば、AV機能を実行している状態であれば、AV機能に関する関連情報を通知し、エラーが生じていれば、エラーに関する関連情報を通知する。
情報表示装置1は、この関連情報を管理サーバ3から取得し(ステップS70)、表示領域に表示すると共に関連情報に基づく音を出力する(ステップS80)。即ち、図10のように車載機器2の外側に定めた表示領域に関連情報が表示されるように映像データを生成して表示部103に表示させる。また、関連情報に音声メッセージや警告音、BGMなどの音の情報が含まれていた場合には、この音を出力する。
そして、情報表示装置1は、利用者による操作を検出する(ステップS90)。例えば、撮像部102で撮像した撮像画像から、利用者の指の動きを検出し、選択動作や、ピンチイン、ピンチアウトの動作を検出する。この検出した動作が、関連情報に対する動作の場合、この動作に応じた表示を行う(ステップS100)。例えば、ピンチインの動作であれば関連情報を縮小表示し、ピンチアウトの動作であれば関連情報を拡大表示する。なお、検出した動作に関連情報に対する動作がなければ、関連情報に対する処理を実行せずに次のステップに移行する。
また、検出した動作が車載機器2に対する動作の場合、この動作に応じた操作を管理サーバ3へ通知する(ステップS110)。そして、管理サーバ3は、この操作を車載機器2へ通知し(ステップS120)、車載機器2に実行させる(ステップS130)。なお、情報表示装置1から管理サーバ3を介して車載機器2へ操作を通知することに限らず、情報表示装置1から車載機器2へ操作を通知して実行させても良い。
このように、関連情報を対象物体である車載機器2の外側に表示することにより、車載機器2の視認性を損なうことなく、関連情報を利用者の視界内に表示することができる。なお、図8の例では、機器の状態を車載機器2から管理サーバ3へ通知したが、これに限らず、情報表示装置1が、車載機器2と通信して車載機器2から車載機器2の状態や車載機器2の情報を取得し、管理サーバ3へ送信しても良い。この場合、管理サーバ3側での対応付けが不要なので、情報表示装置1及び車載機器2が事前に管理サーバ3に識別情報を送信してログインすることを省略しても良い。図11は、この機器間通信により車載機器2の状態を取得して情報表示装置1から管理サーバへ送信する例を示す図である。
図11において、ステップS10〜40は、図8と同じであり、情報表示装置1は、車載機器2に、車載機器2の状態や車載機器2の情報を要求し(ステップS52)、この情報を車載機器2から情報表示装置1へ送信する(ステップS54)。情報表示装置1は、受信した車載機器2の状態や車載機器2の情報を管理サーバ3へ送信する(ステップS57)。
そして、管理サーバ3が、この車載機器2の状態や車載機器2の情報に応じて関連情報の内容を決定して情報表示装置1へ送信するステップS60以降の処理は、図8と同じである。
また、対象物体である車載機器2の状態は、管理サーバ3が判別しても良い。図12は
、管理サーバ3が、車載機器2の状態を判別する処理手順を示す。
図12において、ステップS10〜40は、図11と同じであり、管理サーバ3は、受信した撮像画像から車載機器2の状態や車載機器2の情報を判別する。例えば、撮像画像中の車載機器2の形状や型番の識別して、車載機器2の機種や型番等の情報を判別し、車載機器2に表示されている画面を識別して車載機器2の状態を判別する。即ち、AV機能の画面が表示されていればAV機能の実行中と判別し、エラー画面が表示されていればエラーが発生している状態と判別する。
そして、管理サーバ3が、この車載機器2の状態や車載機器2の情報に応じて関連情報の内容を決定して情報表示装置1へ送信するステップS60以降の処理は、図8と同じである。
また、複数の言語の関連情報を記憶しておき、選択された言語の関連情報を表示させても良い。図13は、選択された言語で表示する処理の例を示す図である。なお、図13の処理に先だって、利用者が情報表示装置1を操作し、複数の言語のうち、表示させる言語を選択しておく。
先ず、利用者が情報表示装置1を操作し、関連情報の表示を開始させると、情報表示装置1は、選択された言語を管理サーバ3へ通知する(ステップS5)。なお、図13において、ステップS10〜50は、図8と同じであり、管理サーバ3は、受信した撮像画像から車載機器2の状態や車載機器2の情報に応じた関連情報であって、選択された言語が用いられた関連情報を読み出して情報表示装置1へ送信する(ステップS65)。なお、以降のステップS70〜S130については図8と同じである。
これにより車載機器2が外国語で表示されるような場合でも、関連情報を利用者が選択した言語で表示させることができる。
<4.表示内容>
次に具体的な表示内容について表示する。図14は、車載機器2について吹き出し61による静的表現で関連情報を表示する例を示す。図14では、利用者の両眼に対して表示する例を示したが、片眼にのみ表示してもよい。また、関連情報の形状は、吹き出しに限らず、付箋の形や、楕円、矩形など他の形状であってもよい。
図15は、AV機能の実行時に再生している歌の歌詞62を関連情報として表示する例を示している。なお、左右の眼にほぼ同一の画像を表示するので図15では、一方の画像を省略して示した。以下の表示例についても同様である。この場合、歌の進行に応じて歌詞62をスクロールさせて表示させる。また、歌詞をなぞるように歌の再生箇所の色を変えて表示しても良い。この関連情報は、歌詞に限らず、映画の字幕や、テレビの文字放送であっても良い。
また、関連情報は、車載機器2の操作に関する説明情報であってもよい。情報表示装置1は、車載機器2の操作に関する説明情報を車載機器2の外側となる表示領域に表示する。このため、情報表示装置1が利用者の視界と重畳して表示する操作に関する説明情報が、車載機器2に表示された画面の視認性を損なうことがない。したがって、利用者は、操作に関する説明情報を参照しつつ、車載機器2に表示された画面に含まれるコマンドボタンなどを適切に操作することが可能となる。
また、利用者が車載機器2へ操作することにより車載機器2の状態(表示される画面に含まれる情報やコマンドボタン等)が遷移した場合には、情報表示装置1は、遷移後の車
載機器2の状態に応じた操作に関する説明情報を表示する。したがって、利用者は、遷移後の車載機器2の状態に応じた適切な操作方法を把握できる。したがって、複数回の操作を含む複雑な操作手順が必要な場合であっても、利用者は、その操作手順を直感的に把握することができる。
このような操作に関する説明情報は、静止画像のみならず、動画像で表示してもよい。図16は、関連情報として車載機器2の操作に関する説明情報を示す動画像63を表示する例を示している。これにより、車載機器2の操作に関する説明情報を分かりやすく動的に示すことができる。
図17は、車載機器2の表示部に表示されている以外の画面を関連情報64として表示した例を示している。これにより表示部に表示さていない画面(例えば、マルチタスクにより、表示部に表示された機能と同時実行中の他の機能に関する画面)を二次元的に拡張して表示させることができる。
この関連情報64は、利用者の操作に応じてスクロールなどの移動が可能である。例えば図18に示すように利用者の指65を関連情報64に重ねて移動させた場合、情報表示装置1は、この関連情報64の位置を指65の移動に伴って変更した映像データを作成し、表示部103に表示させる。これにより、関連情報64の位置を車載機器2の位置に対して相対的に移動させることができる。これにより、表示領域を有効に利用して表示を行うことができる。
また、この関連情報64が車載機器2と重なるように移動させた場合、当該関連情報に表示されている機能を選択する操作として検出して当該機能への切替を管理サーバ3又は車載機器2へ通知する。例えば、テレビ画面を車載機器2と重なるように移動させた場合、テレビ機能に切り替え、AV機能の画面を車載機器2と重なるように移動させた場合、AV機能に切り替える。
図19は、車載機器2の表示を補う画面を関連情報66として表示する例を示している。例えば車載機器2の表示部に地図が表示されている場合に、表示されていない部分の地図を表示させる。これにより表示部を二次元的に拡張し、表示部に表示しきれない部分を表示させることができる。
図20は、車載機器2を三次元的に拡張して表示した例を示している。例えば、車載機器2に問題が生じた場合に、車載機器2の内部の問題の箇所67を特定するための三次元画像を車載機器2の位置に重ねて表示するとともに、当該箇所67の問題に対処するための関連情報68を車載機器2の輪郭より外側へ表示する。これにより、問題の箇所が三次元的に拡張して示されるため、利用者が直感的に問題の箇所を把握できる。
このように上記の実施形態によれば、関連情報を対象物体である車載機器2と同じ視界内に表示できるので、情報が把握し易く、且つ操作対象である車載機器2と重ならないため、視認性が低下することがなく、操作を妨げることがない。
また、車載機器2の状態に応じた関連情報を表示させるので、状況に応じた適切な情報を利用者に提示できる。特に、車載機器2の状態に応じた操作に関する関連情報を表示させることで、利用者は、操作手順を直感的に把握することができる。また、利用者による言語の指定を受け付けた場合は、操作に関する関連情報を当該言語で表示させることができる。
更に、関連情報に基づく音情報も出力することで、視覚だけでなく、聴覚も用いて、分
かり易く情報を伝達することができる。
また、関連情報に対する操作を検出し、この操作に応じた処理を行うことで、インタラクティブに操作を行うことができ、操作性を向上できる。
1 情報表示装置
2 車載機器
3 管理サーバ
4 通信回線
10 情報表示システム
31 要求受信部
32 情報送信部
33 対象物体管理部
34 表示装置管理部
35 画像認識部
51 認識部
52 輪郭抽出部
53 関連情報取得部
54 表示制御部
55 状態取得部
56 言語受付部
57 操作検出部
58 操作実行部
101 装着部
102 撮像部
103 表示部
104 スピーカ
105 処理部

Claims (9)

  1. 利用者の視界に対応した撮像画像を取得する撮像部と、
    前記撮像画像から、処理対象とする対象物体を認識する認識部と、
    前記撮像画像から、前記対象物体の輪郭を抽出する輪郭抽出部と、
    前記対象物体に関する関連情報を記憶部から取得する関連情報取得部と、
    前記利用者の視界と重畳させて情報を表示させる表示部と、
    前記利用者の視界内であって、前記対象物体の輪郭より外側となるように前記表示部に前記関連情報を表示させる表示制御部と
    前記対象物体の状態を取得する状態取得部と、を備え、
    前記状態取得部が、前記対象物体の状態として前記対象物体にエラーが生じたことを取得した場合に、前記関連情報取得部が、前記エラーに応じて決定された関連情報を取得し、前記表示制御部が、前記エラーに応じて決定された関連情報を前記表示部に表示させると共に、前記対象物体の少なくとも一部を特定するための画像を前記対象物体の前記エラーが発生した箇所に重ねて前記表示部に表示させることを特徴とする情報表示装置。
  2. 前記対象物体の輪郭より外側に表示された関連情報が、前記エラーが発生した個所から吹き出されたように表示された吹き出し形状であることを特徴とする請求項1に記載の情報表示装置。
  3. 前記関連情報取得部が、前記対象物体の状態に応じた操作に関する関連情報を取得することを特徴とする請求項1又は2に記載の情報表示装置
  4. 前記表示制御部が、前記関連情報を、利用者の操作に応じて前記対象物体の位置に対して移動可能に表示することを特徴とする請求項1〜3の何れか1項に記載の情報表示装置。
  5. 前記関連情報に含まれる音情報を出力する音出力部を更に備えることを特徴とする請求項1〜4の何れか1項に記載の情報表示装置。
  6. 前記利用者による言語の指定を受け付ける言語受付部を備え、
    前記関連情報取得部が、前記記憶部に記憶された複数の言語による前記関連情報のうち、前記利用者による指定を受けた言語による前記関連情報を取得することを特徴とする請求項1〜5の何れか1項に記載の情報表示装置。
  7. 前記関連情報に対する操作を検出する操作検出部と、
    前記関連情報に対する前記操作に基づいて処理を実行する操作実行部とを更に備えた請求項1〜6の何れか1項に記載の情報表示装置。
  8. 情報表示装置と、前記情報表示装置と通信可能なサーバ装置とを含む情報表示システムであって、
    前記情報表示装置が、
    利用者の視界に対応した撮像画像を取得する撮像部と、
    前記撮像画像から、処理対象とする対象物体を認識する認識部と、
    前記撮像画像から、前記対象物体の輪郭を抽出する輪郭抽出部と、
    前記対象物体に関する関連情報を記憶部から取得する関連情報取得部と、
    前記利用者の視界と重畳させて情報を表示させる表示部と、
    前記利用者の視界内であって、前記対象物体の輪郭より外側となるように前記表示部に前記関連情報を表示させる表示制御部と、
    前記対象物体の状態を取得する状態取得部と、を備え、
    前記状態取得部が、前記対象物体の状態として前記対象物体にエラーが生じたことを取得した場合に、前記関連情報取得部が、前記エラーに応じて決定された関連情報を取得し、前記表示制御部が、前記エラーに応じて決定された関連情報を前記表示部に表示させると共に、前記対象物体の少なくとも一部を特定するための画像を前記対象物体の前記エラーが発生した箇所に重ねて前記表示部に表示させ、
    前記サーバ装置が、
    前記関連情報取得部から前記関連情報の要求を受信する要求受信部と、
    前記要求に応じた前記関連情報を前記記憶部から読み出して前記情報表示装置へ送信する情報送信部と、
    を備えることを特徴とする情報表示システム。
  9. コンピュータが、
    利用者の視界に対応した撮像画像を撮像部によって取得する撮像ステップと、
    前記撮像画像から、処理対象とする対象物体を認識する認識ステップと、
    前記撮像画像から、前記対象物体の輪郭を抽出する抽出ステップと、
    前記対象物体の状態を取得する状態取得ステップと、
    前記対象物体に関する関連情報を記憶部から取得する情報取得ステップと、
    前記利用者の視界と重畳させて情報を表示させる表示部に対し、前記利用者の視界内であって、前記対象物体の輪郭より外側となるように前記関連情報を表示させる表示ステップと、
    を実する情報表示方法であり、
    前記状態取得ステップで、前記対象物体の状態として前記対象物体にエラーが生じたことを取得した場合に、前記情報取得ステップで、前記エラーに応じて決定された関連情報を取得し、前記表示ステップで、前記エラーに応じて決定された関連情報を前記表示部に表示させると共に、前記対象物体の少なくとも一部を特定するための画像を前記対象物体の前記エラーが発生した箇所に重ねて前記表示部に表示させることを特徴とする情報表示方法。
JP2015246508A 2015-12-17 2015-12-17 情報表示装置、情報表示システム及び情報表示方法 Active JP6673567B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015246508A JP6673567B2 (ja) 2015-12-17 2015-12-17 情報表示装置、情報表示システム及び情報表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015246508A JP6673567B2 (ja) 2015-12-17 2015-12-17 情報表示装置、情報表示システム及び情報表示方法

Publications (2)

Publication Number Publication Date
JP2017111670A JP2017111670A (ja) 2017-06-22
JP6673567B2 true JP6673567B2 (ja) 2020-03-25

Family

ID=59079643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015246508A Active JP6673567B2 (ja) 2015-12-17 2015-12-17 情報表示装置、情報表示システム及び情報表示方法

Country Status (1)

Country Link
JP (1) JP6673567B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6815290B2 (ja) * 2017-07-13 2021-01-20 ヤンマーパワーテクノロジー株式会社 物体識別システム
JP7055186B2 (ja) * 2020-12-16 2022-04-15 ヤンマーパワーテクノロジー株式会社 物体識別システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146803A (ja) * 2004-11-24 2006-06-08 Olympus Corp 操作装置及び遠隔操作システム
JP5316386B2 (ja) * 2009-12-01 2013-10-16 ブラザー工業株式会社 ヘッドマウントディスプレイ及びそのプログラム
JP5715842B2 (ja) * 2011-02-08 2015-05-13 新日鉄住金ソリューションズ株式会社 情報提供システム、情報提供方法、及びプログラム
JP6066037B2 (ja) * 2012-03-27 2017-01-25 セイコーエプソン株式会社 頭部装着型表示装置
JP5983053B2 (ja) * 2012-06-01 2016-08-31 コニカミノルタ株式会社 ガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラム
JP2014174507A (ja) * 2013-03-13 2014-09-22 Nec Corp 拡張現実表示装置及び情報端末並びにマルチディスプレイシステム、プログラム
JP2015043180A (ja) * 2013-08-26 2015-03-05 ブラザー工業株式会社 画像処理プログラム
JP6334927B2 (ja) * 2014-01-23 2018-05-30 三菱電機株式会社 付加情報表示装置および付加情報表示プログラム

Also Published As

Publication number Publication date
JP2017111670A (ja) 2017-06-22

Similar Documents

Publication Publication Date Title
CN107408026B (zh) 信息处理设备、信息处理方法和计算机程序
US8441435B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6316559B2 (ja) 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム
EP2950181B1 (en) Eyewear type terminal and control method thereof
US20160133051A1 (en) Display device, method of controlling the same, and program
WO2014192103A1 (ja) 情報表示装置
WO2016067574A1 (ja) 表示制御装置及び表示制御プログラム
CN111052063B (zh) 电子装置及其控制方法
CN108965656B (zh) 显示控制设备、显示控制方法和存储介质
US10061995B2 (en) Imaging system to detect a trigger and select an imaging area
US20110316763A1 (en) Head-mounted display apparatus, image control method and image control program
US20210042015A1 (en) Method and system for dwell-less, hands-free interaction with a selectable object
JP2017215816A (ja) 情報表示装置、情報表示システム、情報表示方法及びプログラム
WO2018061413A1 (ja) ジェスチャ検出装置
JPWO2018003859A1 (ja) 表示装置、プログラム、表示方法および制御装置
WO2020012955A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN111970456A (zh) 拍摄控制方法、装置、设备及存储介质
JP6673567B2 (ja) 情報表示装置、情報表示システム及び情報表示方法
JP2015210580A (ja) 表示システム及びウェアラブル機器
JP7242448B2 (ja) 仮想現実制御装置、仮想現実制御方法およびプログラム
JP6765846B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN111782053B (zh) 模型编辑方法、装置、设备及存储介质
JP2007142542A (ja) 映像表示装置
JP7094759B2 (ja) システム、情報処理方法及びプログラム
US20190364256A1 (en) Method and System for Dynamically Generating Scene-Based Display Content on a Wearable Heads-Up Display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200225

R150 Certificate of patent or registration of utility model

Ref document number: 6673567

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250