JP2017211916A - 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム - Google Patents

携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム Download PDF

Info

Publication number
JP2017211916A
JP2017211916A JP2016106204A JP2016106204A JP2017211916A JP 2017211916 A JP2017211916 A JP 2017211916A JP 2016106204 A JP2016106204 A JP 2016106204A JP 2016106204 A JP2016106204 A JP 2016106204A JP 2017211916 A JP2017211916 A JP 2017211916A
Authority
JP
Japan
Prior art keywords
information
portable electronic
display
predetermined area
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016106204A
Other languages
English (en)
Other versions
JP6348537B2 (ja
Inventor
茂輝 田辺
Shigeki Tanabe
茂輝 田辺
英樹 森田
Hideki Morita
英樹 森田
功 益池
Isao Masuike
功 益池
信弥 齋藤
Shinya Saito
信弥 齋藤
哲史 若狭
Tetsushi Wakasa
哲史 若狭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2016106204A priority Critical patent/JP6348537B2/ja
Publication of JP2017211916A publication Critical patent/JP2017211916A/ja
Application granted granted Critical
Publication of JP6348537B2 publication Critical patent/JP6348537B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】拡張現実の技術を使用したアプリケーションを実行している場合でも、周囲の視認性を確保することができること。
【解決手段】ある実施形態の携帯電子機器(例えば、ウェアラブル装置)は、周囲の環境に第一情報を重ね合わせて表示する表示部と、周囲の車両情報を含む第二情報を取得する情報取得部と、自機が所定領域内にいると判定すると、少なくとも一部の第一情報を非表示にさせ、第二情報に基づいて、所定領域の周囲の車両情報を表示部に表示させるコントローラとを備える。
【選択図】図5

Description

本出願は、携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラムに関する。
現実の環境に情報を重ね合わせて表示する拡張現実(AR:Augmented Reality)の技術が知られている(例えば、特許文献1参照。)。この技術は、表示手段の画面内に表示している実写の映像の上に、所定の情報を重ね合わせて同時に表示する。
特開2004−048674号公報
拡張現実の技術では、重ね合わせて表示された情報によって、現実の環境の一部が視認しにくくなることがある。このため、拡張現実の技術を使用したアプリケーションを実行している場合、周囲の視認性が低下するおそれがある。
上記のことから、拡張現実の技術を使用したアプリケーションを実行している場合でも、周囲の視認性を確保することができる携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラムを提供することにある。
態様の一つに係る携帯電子機器は、周囲の環境に第一情報を重ね合わせて表示する表示部と、周囲の車両情報を含む第二情報を取得する情報取得部と、自機が所定領域内にいると判定すると、少なくとも一部の前記第一情報を非表示にさせ、前記第二情報に基づいて、前記所定領域の周囲の前記車両情報を前記表示部に表示させる。
態様の一つに係る携帯電子機器制御方法は、周囲の環境に第一情報を重ね合わせて表示する表示部を備える携帯電子機器を制御する携帯電子機器制御方法であって、周囲の車両情報を含む第二情報を取得するステップと、自機が所定領域内にいると判定すると、少なくとも一部の前記第一情報を非表示にさせ、前記第二情報に基づいて、前記所定領域の周囲の前記車両情報を前記表示部に表示させるステップとを含む。
態様の一つに係る携帯電子機器制御プログラムは、周囲の環境に第一情報を重ね合わせて表示する表示部を備える携帯電子機器に、周囲の車両情報を含む第二情報を取得するステップと、自機が所定領域内にいると判定すると、少なくとも一部の前記第一情報を非表示にさせ、前記第二情報に基づいて、前記所定領域の周囲の前記車両情報を前記表示部に表示させるステップとを実行させる。
図1は、実施形態に係るウェアラブル装置を含む制御システムの概略構成を示す模式図である。 図2は、路側機のブロック図である。 図3は、実施形態に係るウェアラブル装置の斜視図である。 図4は、実施形態に係るウェアラブル装置の正面図である。 図5は、実施形態に係るウェアラブル装置のブロック図である。 図6は、実施形態に係るウェアラブル装置が行う制御の一例を示すフローチャートである。 図7は、実施形態に係るウェアラブル装置が行う制御の一例を示すフローチャートである。 図8は、実施形態に係るウェアラブル装置が行う制御の一例を示すフローチャートである。 図9は、実施形態に係るウェアラブル装置を透してユーザが視認する前景の一例を示す図である。 図10は、実施形態に係るウェアラブル装置を透してユーザが視認する前景の一例を示す図である。 図11は、実施形態に係るウェアラブル装置を透してユーザが視認する前景の一例を示す図である。 図12は、実施形態に係るウェアラブル装置を透してユーザが視認する前景の一例を示す図である。
本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、携帯電子機器の例として、ウェアラブル装置について説明する。
図1を用いて、本実施形態に係る携帯電子機器としてのウェアラブル装置1を含む制御システム100の全体的な構成について説明する。制御システム100は、路側機110と、ウェアラブル装置1とを含む。図1においては、4つの路側機110と、1台のウェアラブル装置1とを示しているが、制御システム100は、1つ以上の路側機110と、1つ以上のウェアラブル装置1とを含めばよく、その数は限定されない。
図1において、2つの道路が信号機を有する交差点で交わっている。交差点には、横断歩道が設けられている。
図2を用いて、路側機110の全体的な構成について説明する。路側機110は、第二情報を無線で出力する。路側機110は、通信部111と、記憶部112と、制御部113とを有する。第二情報は、路側機110が配置されている、当該交差点に接近する車両の車両情報を含む。車両情報は、例えば、車両が接近してくる方向、接近してくる方向(道路)ごとの台数などである。車両情報によれば、当該交差点において、どの方向から、何台の車両が接近しているかがわかる。第二情報は、高度道路交通システムの情報を含んでもよい。
通信部111は、無線により通信する。通信部111は、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11(a,b,n,pを含む)、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等を含む無線通信規格をサポートしている。または、通信部111は、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等の2G、3G、4G等のセルラーフォンの通信規格をサポートしていてもよい。通信部111は、上述した通信規格の1つ又は複数をサポートしていている。通信部111は、例えば、イーサネット(登録商標)、ファイバーチャネル等の有線による通信をサポートしてもよい。
通信部111は、他の路側機110、信号機と通信を行う。通信部111は、近距離無線通信で所定距離内にある通信機器、例えば、車両に搭載されている通信機器、ウェアラブル装置1、スマートフォンと通信を行い、データの送受信を行う。
記憶部112は、プログラム及びデータを記憶する。記憶部112は、制御部113の処理結果を一時的に記憶する作業領域としても利用される。記憶部112は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。記憶部112は、複数の種類の記憶媒体を含んでよい。記憶部112は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。記憶部112は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
記憶部112に記憶されるプログラムには、所定距離内にある通信機器との通信確立及びデータの送受信の制御を実行するプログラムを含む。記憶部112に記憶されるデータには、例えば、他の通信機器に送信するデータ等を含む。
制御部113は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。制御部113は、路側機110の動作を統括的に制御して各種の機能を実現する。
具体的には、制御部113は、記憶部112に記憶されているデータを必要に応じて参照しつつ、記憶部112に記憶されているプログラムに含まれる命令を実行する。そして、制御部113は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。
次に、図3及び図4を用いて、本実施形態に係るウェアラブル装置1の全体的な構成について説明する。ウェアラブル装置1は、ユーザの頭部に装着されるヘッドマウントタイプの装置である。ウェアラブル装置1は、周囲の環境に情報を重ね合わせて表示する。
ウェアラブル装置1は、前面部1aと、側面部1bと、側面部1cとを有する。前面部1aは、装着時に、ユーザの両目を覆うようにユーザの正面に配置される。側面部1bは、前面部1aの一方の端部に接続され、側面部1cは、前面部1aの他方の端部に接続される。側面部1b及び側面部1cは、装着時に、眼鏡の蔓のようにユーザの耳によって支持され、ウェアラブル装置1を安定させる。側面部1b及び側面部1cは、装着時に、ユーザの頭部の背面で接続されるように構成されてもよい。
前面部1aは、装着時にユーザの目と対面する面にディスプレイ(表示部)2A及びディスプレイ(表示部)2Bを備える。ディスプレイ2Aは、装着時にユーザの右目と向かい合う位置に配設され、ディスプレイ2Bは、装着時にユーザの左目と向かい合う位置に配設される。ディスプレイ2Aは、右目用の画像を表示し、ディスプレイ2Bは、左目用の画像を表示する。このように、装着時にユーザのそれぞれの目に対応した画像を表示するディスプレイ2A及びディスプレイ2Bを備えることにより、ウェアラブル装置1は、両眼の視差を利用した3次元表示を実現する。
ディスプレイ2A及びディスプレイ2Bは、一対の半透過ディスプレイであるが、これに限定されない。例えば、ディスプレイ2A及びディスプレイ2Bは、メガネレンズ、サングラスレンズ、及び紫外線カットレンズ等のレンズ類を設け、レンズとは別にディスプレイ2A及びディスプレイ2Bを設けてもよい。ディスプレイ2A及びディスプレイ2Bは、ユーザの右目と左目に異なる画像を独立して提供することができれば、1つの表示デバイスによって構成されてもよい。
前面部1aは、ディスプレイ2A及びディスプレイ2Bが設けられている面とは反対側の面にカメラ12A及びカメラ12Bを備える。カメラ12Aは、前面部1aの一方の端部(装着時の右目側)の近傍に配設される。カメラ12Bは、前面部1aの他方の端部(装着時の左目側)の近傍に配設される。カメラ12Aは、ユーザの右目の視界に相当する範囲の画像を取得する。カメラ12Bは、ユーザの左目の視界に相当する範囲の画像を取得する。ここでいう視界とは、例えば、ユーザが正面を見ているときの視界である。
ウェアラブル装置1は、拡張現実の技術を使用し、AR技術を用いたアプリケーションで、ユーザが視認している前景に各種の情報(第一情報)を重ね合わせて視認させる機能を有する。前景とは、ユーザの前方の風景である。ウェアラブル装置1は、ディスプレイ2A及びディスプレイ2Bが表示を行っていない場合、ディスプレイ2A及びディスプレイ2Bを透して前景をユーザに視認させる。ウェアラブル装置1は、ディスプレイ2A及びディスプレイ2Bが表示を行っている場合、ディスプレイ2A及びディスプレイ2Bを透した前景と、ディスプレイ2A及びディスプレイ2Bの表示内容とを重ね合わせてユーザに視認させる。ウェアラブル装置1は、3次元的な情報をディスプレイ2A及びディスプレイ2Bに表示させてもよい。
図3及び図4では、ウェアラブル装置1が眼鏡のような形状を有する例を示したが、ウェアラブル装置1の形状はこれに限定されない。例えば、ウェアラブル装置1は、ゴーグルの形状を有してもよい。ウェアラブル装置1は、例えば、情報処理装置、バッテリ装置等の外部装置と有線または無線で接続される構成であってもよい。
次に、図5を用いて、ウェアラブル装置1の機能的な構成について説明する。図5に示すウェアラブル装置1の構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。
ウェアラブル装置1は、ディスプレイ2A及びディスプレイ2Bと、ボタン3と、通信ユニット(情報取得部)6と、ストレージ9と、コントローラ10と、カメラ12A及びカメラ12Bと、加速度センサ15と、方位センサ16と、ジャイロスコープ17と、GPS受信機18とを有する。なお、ウェアラブル装置1は、GPS受信機18の代替、或いは、補完として、GPS衛星以外の測位用人工衛星からの電波信号の受信機を有してもよい。GPS衛星以外の測位用人工衛星は、例えば、GLONASS(Global Navigation Satellite System)の人工衛星、IRNSS(Indian Regional Navigational Satellite System)の人工衛星、COMPASSの人工衛星、GALILEOの人工衛星、等を含む。
ディスプレイ2A及びディスプレイ2Bは、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Organic Electro−Luminescence)パネル等の半透過または透過の表示デバイスを備える。ディスプレイ2A及びディスプレイ2Bは、周囲の環境に、コントローラ10から入力される制御信号に従って第一情報を表示する。第一情報は、例えば、目的地までのルートを案内する進行方向情報を含むナビゲーション情報や、観光施設や周辺施設を案内する施設案内情報などである。ディスプレイ2A及びディスプレイ2Bは、レーザー光線等の光源を用いてユーザの網膜に画像を投影する投影装置であってもよい。
ボタン3は、ユーザによって操作される。ボタン3は、ウェアラブル装置1の起動、停止、動作モードの変更等の基本的な操作を受け付ける。
通信ユニット6は、無線により通信する。本実施形態において、通信ユニット6は、少なくとも近距離無線の機能を備えている。通信ユニット6によってサポートされる通信方式は、無線通信規格である。通信ユニット6は、例えば、2G、3G、4G、5G等のセルラーフォンの通信規格をサポートしている。セルラーフォンの通信規格は、例えば、LTE、W−CDMA、CDMA2000、PDC、GSM(登録商標)、PHS等を含む。通信ユニット6は、例えば、WiMAX、IEEE802.11(a,b,n,pを含む)、Bluetooth(登録商標)、IrDA、NFC等を含む無線通信規格をサポートしていてもよい。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
通信ユニット6は、有線による通信をサポートしてもよい。有線による通信は、例えば、イーサネット(登録商標)、ファイバーチャネル等を含む。
本実施形態において、通信ユニット6は、道路傍に配置される路側機110との通信を可能とするための通信規格をサポートしている。例えば、ウェアラブル装置1は、通信ユニット6を介して路側機110と通信することにより、第二情報を取得する。本実施形態において、通信ユニット6は、車両に搭載される通信機器との通信を可能とするための通信規格をサポートしていてもよい。
ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
ストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による通信で他の装置からダウンロードされてもよい。ストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。ストレージ9が記憶するプログラム及びデータの一部又は全部は、図示しないコネクタに接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2A及びディスプレイ2Bに画面を表示させ、ボタン3で検出される操作に応じた処理をコントローラ10に実行させる。
ストレージ9は、例えば、制御プログラム9A、撮像データ9B、移動状態データ9C及び設定データ9Zを記憶する。
撮像データ9Bは、カメラ12A及びカメラ12Bによって撮像範囲を撮像した画像を示すデータである。撮像データ9Bは、カメラ12A及びカメラ12Bによって撮像された画像を合成したデータでもよいし、カメラ12A及びカメラ12Bのそれぞれの画像を示すデータでもよい。撮像データ9Bは、静止画データと動画データとが含まれる。
移動状態データ9Cは、ユーザの移動方法の推定に用いられる情報を含む。移動状態データ9Cは、予め試験やシミュレーション等によって検出した、センサの検出結果と移動方法との対応関係を記憶している。本実施形態において、移動状態データ9Cは、ユーザが歩行中か否かを判定する基準のデータを記憶している。
設定データ9Zは、ウェアラブル装置1の動作に関する各種の設定に関する情報を含む。
制御プログラム9Aは、ウェアラブル装置1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、カメラ12A及びカメラ12Bの撮像を制御する機能を提供する。制御プログラム9Aは、ディスプレイ2A及びディスプレイ2Bに表示する情報を制御する機能を提供する。制御プログラム9Aは、ボタン3で検出された操作に応じて、ディスプレイ2A及びディスプレイ2Bに表示されている情報を変更する等の各種制御を行う機能を提供する。制御プログラム9Aが提供する機能は、他のプログラムが提供する機能と組み合わせて利用されることがある。
制御プログラム9Aは、自機を装着したユーザの移動状態を判別する。移動状態は、自機を装着したユーザが立ち止まっている停止状態、自機を装着したユーザが歩いている状態、自機を装着したユーザが走っている状態、自機を装着したユーザが自動車又は電車などに乗車している状態を含む。制御プログラム9Aは、加速度センサ15から取得した加速度の方向及び大きさに基づいて、ウェアラブル装置1に作用する振動及び動きを測定する。制御プログラム9Aは、移動状態データ9Cを参照し、振動及び動きの測定結果から移動状態を判別する。制御プログラム9Aは、加速度センサ15の代替として、或いは、補助として、方位センサ16、ジャイロスコープ17、GPS受信機18、カメラ12A及びカメラ12Bのうち少なくとも一つを用いて、移動状態を判別してもよい。
制御プログラム9Aは、自機が交差点エリア(所定領域)内にいると判定すると、AR技術を用いたアプリケーションで表示される第一情報のうち、少なくとも一部の第一情報を非表示にさせ、路側機110から取得した第二情報に基づいて、交差点の周囲の車両情報をディスプレイ2A及びディスプレイ2Bに表示させる。
制御プログラム9Aは、移動検知部で移動を検知し、かつ、自機が交差点エリアにいると判定すると、AR技術を用いたアプリケーションで表示される第一情報のうち、少なくとも一部の第一情報を非表示にさせ、第二情報に基づいて、交差点の周囲の車両情報をディスプレイ2A及びディスプレイ2Bに表示させる。
制御プログラム9Aは、自機が交差点エリアにいると判定すると、ディスプレイ2A及びディスプレイ2Bにおいて、AR技術を用いたアプリケーションで表示される第一情報のうち、少なくとも一部の第一情報を非表示にさせる。制御プログラム9Aは、第二情報に基づいて、方向検知部で検知した方向、言い換えると、自機を装着したユーザの向いている方向について、交差点の周囲の車両情報をディスプレイ2A及びディスプレイ2Bに表示させる。
コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU、SoC、MCU、及びFPGAを含むが、これらに限定されない。コントローラ10は、ウェアラブル装置1の動作を統括的に制御して各種の機能を実現する。
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A及びディスプレイ2B、通信ユニット6の少なくとも1つを含んでもよくこれらに限定されない。コントローラ10は、自機の移動を検知する移動検知部や、自機を装着したユーザが向いている方向を検知する方向検知部の検出結果に応じて、制御を変更することがある。移動検知部及び方向検知部は、例えば、カメラ12A及びカメラ12B、加速度センサ15、方位センサ16、ジャイロスコープ17及びGPS受信機18の少なくとも1つを含んでもよいが、これらに限定されない。
コントローラ10は、例えば、制御プログラム9Aを実行することにより、ボタン3で操作に応じて、ディスプレイ2A及びディスプレイ2Bに表示されている情報を変更する等の各種制御を実行する。
カメラ12A及びカメラ12Bは、CCD(Charge Coupled Device Image Sensor)、CMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮像する。カメラ12A及びカメラ12Bは、撮像した画像を信号に変換してコントローラ10へ出力する。
加速度センサ15は、ウェアラブル装置1に働く加速度の方向及び大きさを示す情報を検出する。方位センサ16は、地磁気の向きを示す情報を検出する。ジャイロスコープ17は、ウェアラブル装置1の角度及び角速度の情報を検出する。GPS受信機18は、GPS衛星からの所定の周波数帯の電波信号を受信する。GPS受信機18は、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。GPS受信機18は、ウェアラブル装置1の現在位置の演算処理をサポートする。GPS衛星以外の測位用人工衛星からの電波信号の受信機が、ウェアラブル装置1の現在位置の演算処理をサポートしてもよい。加速度センサ15、方位センサ16、ジャイロスコープ17及びGPS受信機18の検出結果は、例えば、ウェアラブル装置1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
図5に示した例では、ウェアラブル装置1が位置及び姿勢を検出するために4種類のセンサを備えるが、ウェアラブル装置1は、このうちいくつかのセンサを備えなくてもよい。あるいは、ウェアラブル装置1は、位置及び姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。
次に、図6から図8を用いて、ウェアラブル装置1が実行している制御について説明する。図6から図8は、それぞれ実施形態に係るウェアラブル装置1が行う制御の一例を示すフローチャートである。ウェアラブル装置1は、コントローラ10でストレージ9に記憶されている制御プログラム9Aを実行することで、図6から図8に示す機能を実現する。また、コントローラ10は、図6から図8に示す情報処理と並行して、他の機能の情報処理を実行することがある。
まず、コントローラ10は、AR技術を用いたアプリケーションを利用しているか否かを判定する(ステップS11)。より詳しくは、コントローラ10は、例えば、ナビゲーションや施設案内などのAR技術を用いたアプリケーションが実行中であるか否かを判定する。コントローラ10は、AR技術を用いたアプリケーションが実行中である場合、AR技術を用いたアプリケーションを利用している(Yes)と判定する。コントローラ10は、AR技術を用いたアプリケーションが実行中ではない場合、AR技術を用いたアプリケーションを利用していない(No)と判定する。
コントローラ10は、AR技術を用いたアプリケーションを利用していない(ステップS11でNo)と判定した場合、ステップS11に戻る。
コントローラ10は、AR技術を用いたアプリケーションを利用している(ステップS11でYes)と判定した場合、ステップS12に進む。
コントローラ10は、センサの検出結果を取得する(ステップS12)。より詳しくは、コントローラ10は、加速度センサ15及びジャイロスコープ17の少なくとも1つの検出結果と、通信ユニット6及びGPS受信機18の少なくとも1つの検出結果を取得する。加速度センサ15及びジャイロスコープ17の少なくとも1つの検出結果は、ステップS13において、移動状態の判定に用い、歩行中か否かの判定に用いる。通信ユニット6及びGPS受信機18の少なくとも1つの検出結果は、ステップS14において、ウェアラブル装置1を装着しているユーザが交差点エリアにいるか否かの判定に用いる。
コントローラ10は、自機を装着したユーザが歩行中か否かを判定する(ステップS13)。具体的には、コントローラ10は、加速度センサ15及びジャイロスコープ17の少なくとも1つの検出結果と移動状態データ9Cとを比較する。そして、コントローラ10は、比較結果に基づいて、自機を装着したユーザが歩行中か否かを判定する。ユーザが足で移動している状態であるとき、歩行中と判定する。具体的には、コントローラ10は、自機を装着したユーザが、移動を補助する乗り物に乗らず、自力で移動している状態であるとき、歩行中と判定する。ユーザが足で移動している状態には、歩いている状態及び走っている状態を含む。ユーザが足で移動している状態には、ユーザが杖や手押し車等を使用し歩いている状態も含む。また、コントローラ10は、自機を装着したユーザが、ユーザが立ち止まっている状態であるとき、歩行中ではないと判定する。コントローラ10は、自機を装着したユーザが、例えば、自転車、車両、電車などで移動している状態であるとき、歩行中ではないと判定する。
コントローラ10は、自機を装着したユーザが歩行中ではない(ステップS13でNo)と判定した場合、ステップS15に進む。
コントローラ10は、自機を装着したユーザが歩行中である(ステップS13でYes)と判定した場合、ステップS14に進む。
コントローラ10は、自機が交差点エリアにいるかを判定する(ステップS14)。より詳しくは、コントローラ10は、通信ユニット6との通信結果(通信の可否)に基づいて、自機が交差点に配置された路側機110と通信が確立しているか否かを判定する。コントローラ10は、自機が交差点に配置された路側機110と通信を確立している(通信可)と判定した場合、自機が交差点エリアにいると判定する。具体的には、コントローラ10は、センサの検出結果に基づいて、近距離無線通信可能な機器を検出する。通信可能な機器とは、データを送受信できる信号が到達している範囲にある通信機器である。コントローラ10は、通信可能な機器を検出した場合、通信可能な機器が、交差点に配置された路側機110であるかを判定する。コントローラ10は、通信可能な機器が、交差点に配置された路側機110であると判定した場合、交差点エリアにいると判定する。コントローラ10は、通信可能な機器が、交差点に配置された路側機110ではないと判定した場合、交差点エリアにいないと判定する。
コントローラ10は、自機が交差点エリアにいない(ステップS14でNo)と判定した場合、ステップS15に進む。
コントローラ10は、自機が交差点エリアにいる(ステップS14でYes)と判定した場合、ステップS16に進む。
コントローラ10は、第一情報を通常表示する(ステップS15)。より詳しくは、コントローラ10は、実行中のAR技術を用いたアプリケーションで表示される第一情報をそのまま削減せずにディスプレイ2A及びディスプレイ2Bに表示する。
例えば、実行中のAR技術を用いたアプリケーションがナビゲーションである場合、ディスプレイ2A及びディスプレイ2Bは、図9に示す画面を表示する。図9は、ユーザがウェアラブル装置1を頭部に装着した状態で、ディスプレイ2A及びディスプレイ2Bを透して視認している撮像範囲内の前景V11を示している。図9に示す画面は、第一情報として、目的地までの距離AR11と、目的地の方向AR12と、目的地までの経路AR13と、分岐点となる交差点AR14と、周辺の銀行や店などの周辺施設AR21、周辺施設AR22とが、前景V11に重ね合わせて表示されている。本実施形態では、目的地の方向AR12と、目的地までの経路AR13と、分岐点となる交差点AR14とが、進行方向情報である。図9に示す画面は、ナビゲーションで表示される第一情報が削減されることなく表示されている。
例えば、実行中のAR技術を用いたアプリケーションが施設案内である場合、ディスプレイ2A及びディスプレイ2Bは、図10に示す画面を表示する。図10は、ユーザがウェアラブル装置1を頭部に装着した状態で、ディスプレイ2A及びディスプレイ2Bを透して視認している撮像範囲内の前景V21を示している。図10に示す画面は、第一情報として、観光施設までの距離を含む施設案内情報AR31と、周辺の宿や店などの施設案内情報AR41、施設案内情報AR42、施設案内情報AR43とが、前景V21に重ね合わせて表示されている。図10に示す画面は、施設案内で表示される第一情報が削減されることなく表示されている。
次に、図7を用いて、ステップS16の処理を説明する。
コントローラ10は、第一情報の一部を非表示にする(ステップS21)。本実施形態では、非表示にする第一情報は、アプリケーションごとにあらかじめ設定され設定データ9Zに記憶されているものとする。具体的には、AR技術を用いたアプリケーションがナビゲーションである場合、第一情報のうち、進行方向情報である、目的地の方向と、目的地までの経路と、分岐点となる交差点とを除く、目的地までの距離と、周辺施設とが非表示にされる。また、AR技術を用いたアプリケーションが施設案内である場合、すべてのAR表示が非表示にされる。
コントローラ10は、路側機110から情報を取得する(ステップS22)。路側機110から取得する第二情報には、路側機110が設置された交差点に接近中の車両の車両情報を含む。言い換えると、路側機110から取得する情報には、交差点エリアに位置する車両の車両情報を含む。
コントローラ10は、交差点に接近中の車両情報を表示する(ステップS23)。コントローラ10は、路側機110から取得した車両情報に基づいて、ディスプレイ2A及びディスプレイ2Bを透してユーザが視認している前景V11に、交差点に接近中の車両情報を重ね合わせて表示する。車両情報AR51は、例えば、車両の形状のアイコン、車両の接近してくる方向を示す矢印、接近してくる方向(道路)ごとの台数を数字で示した吹き出しや、車両の接近を文字で示した吹き出しなどで表示する。
例えば、実行中のAR技術を用いたアプリケーションがナビゲーションである場合、ディスプレイ2A及びディスプレイ2Bは、図11に示す画面を表示する。図11は、ユーザがウェアラブル装置1を頭部に装着した状態で、ディスプレイ2A及びディスプレイ2Bを透して視認している撮像範囲内の前景V12を示している。図11に示す画面は、目的地の方向AR12と、目的地までの経路AR13と、分岐点となる交差点AR14と、車両情報AR51とが表示されている。図11に示す画面は、ステップS21において、第一情報のうち、目的地までの距離AR11と周辺施設AR21、周辺施設AR22とが非表示にされている。
例えば、実行中のAR技術を用いたアプリケーションが施設案内である場合、ディスプレイ2A及びディスプレイ2Bは、図12に示す画面を表示する。図12は、ユーザがウェアラブル装置1を頭部に装着した状態で、ディスプレイ2A及びディスプレイ2Bを透して視認している撮像範囲内の前景V22を示している。図12に示す画面は、車両情報AR61が表示されている。図12に示す画面は、ステップS21において、第一情報の施設案内情報AR31と、施設案内情報AR41、施設案内情報AR42、施設案内情報AR43とが非表示にされている。
または、ステップS16の処理は、図8に示すフローチャートに沿った情報処理にしてもよい。図8を用いて、ステップS16の処理を説明する。ステップS31〜S33は、ステップS21〜ステップS23と同様の処理である。
コントローラ10は、センサの検出結果を取得する(ステップS34)。より詳しくは、コントローラ10は、加速度センサ15、方位センサ16及びジャイロスコープ17の少なくとも一つの検出結果を取得する。
コントローラ10は、自機を装着したユーザが右を向いたか否かを判定する(ステップS35)。より詳しくは、コントローラ10は、ステップS34で取得した検出結果に基づいて、ウェアラブル装置1の位置及び姿勢の変化を検出し、自機を装着したユーザの向いている方向を判定する。
コントローラ10は、自機を装着したユーザが右を向いた(ステップS35でYes)と判定した場合、ステップS36に進む。
コントローラ10は、自機を装着したユーザが右を向いていない(ステップS35でNo)と判定した場合、ステップS37に進む。
コントローラ10は、右方から接近中の車両情報を表示する(ステップS36)。より詳しくは、コントローラ10は、路側機110から取得した車両情報に基づいて、ディスプレイ2A及びディスプレイ2Bを透してユーザが視認している右方の前景に、交差点に右方から接近中の車両情報を重ね合わせて表示する。
コントローラ10は、自機を装着したユーザが左を向いたか否かを判定する(ステップS37)。
コントローラ10は、自機を装着したユーザが左を向いた(ステップS37でYes)と判定した場合、ステップS38に進む。
コントローラ10は、自機を装着したユーザが左を向いていない(ステップS37でNo)と判定した場合、処理を終了する。
コントローラ10は、左方から接近中の車両情報を表示する(ステップS38)。より詳しくは、コントローラ10は、路側機110から取得した車両情報に基づいて、ディスプレイ2A及びディスプレイ2Bを透してユーザが視認している左方の前景に、交差点に左方から接近中の車両情報を重ね合わせて表示する。
このようにして、コントローラ10は、図8に示すフローチャートに沿った情報処理によって、自機を装着したユーザの向いている方向に合わせて、言い換えると、ディスプレイ2A及びディスプレイ2Bを透してユーザが視認している前景に合わせて、その方向から接近中の車両情報を重ね合わせて表示する。
上記のように本実施形態によれば、ウェアラブル装置1は、自機を装着したユーザが交差点エリアにいるか否かで、AR技術を用いたアプリケーションで、前景に重ね合わせてディスプレイ2A及びディスプレイ2Bに表示する第一情報の表示と非表示とを切り替える。これにより、ウェアラブル装置1は、自機を装着したユーザが交差点エリアにいる場合、AR技術を用いたアプリケーションで表示される第一情報のうち少なくとも一部を非表示にさせることで、ディスプレイ2A及びディスプレイ2Bを透した前景の視認性を高めることができる。このように、ウェアラブル装置1は、ディスプレイ2A及びディスプレイ2Bを透した周囲の視認性を確保することができる。
本実施形態によれば、ウェアラブル装置1は、自機を装着したユーザが交差点エリアにいる場合、交差点に接近する車両情報を前景に重ね合わせてディスプレイ2A及びディスプレイ2Bに表示する。このため、例えば、雨や濃霧などの悪天候や、見通しの悪い交差点で、ユーザが交差点に接近する車両を直接目視しにくい場合であっても、ウェアラブル装置1によれば、周囲の安全確認を行いやすくすることができる。
本実施形態によれば、自機を装着したユーザが交差点エリアにいることを判定し、AR技術を用いたアプリケーションで、前景に重ね合わせてディスプレイ2A及びディスプレイ2Bに表示する第一情報の表示と非表示とを切り替え、交差点に接近する車両情報を前景に重ね合わせてディスプレイ2A及びディスプレイ2Bに表示する。このため、ユーザが交差点エリアに近づいたことを認識していなかったとしても、交差点に接近する車両情報をユーザに通知して、周囲の安全確認を促すことができる。
このように、本実施形態によれば、ウェアラブル装置1で、AR技術を用いたアプリケーションをより安全に使用することができる。
上記実施形態では、ウェアラブル装置1が路側機110から第二情報を取得するものとして説明したが、これに限定されない。ウェアラブル装置1は、通信ユニット6を介して、自機の近くの車両と通信することにより、車両から第二情報を取得してもよい。または、ウェアラブル装置1は、車両から第二情報を取得し蓄積するサーバと、通信ユニット6を介して通信することにより、サーバから第二情報を取得してもよい。
コントローラ10における、自機が所定領域内にいるかの判定は、例えば、撮像データBを画像解析することや、GPS受信機18の検出結果に基づいて判定してもよい。
本出願の開示する実施形態は、発明の要旨及び範囲を逸脱しない範囲で変更することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
上記の実施形態では、携帯電子機器の例として、ウェアラブル装置について説明したが、添付の請求項に係る装置は、ウェアラブル装置に限定されない。添付の請求項に係る装置は、ウェアラブル装置以外の携帯電子機器であってもよい。携帯電子機器は、表示部と他の機器と通信を行う通信部を備えていればよく、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。
添付の請求項に係る技術を明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
1 ウェアラブル装置(携帯電子機器)
2A ディスプレイ(表示部)
2B ディスプレイ(表示部)
6 通信ユニット(情報取得部)
9 ストレージ
9A 制御プログラム
9B 撮像データ
9C 移動状態データ
9Z 設定データ
10 コントローラ
12A カメラ
12B カメラ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
18 GPS受信機
100 制御システム
110 路側機
111 通信部
112 記憶部
113 制御部
態様の一つに係る携帯電子機器は、周囲の風景に第一情報を重ね合わせて表示する表示部と、周囲の車両情報を含む第二情報を取得する情報取得部と、自機が所定領域内にいると判定すると、それまで前記表示部に表示されていた前記第一情報の少なくとも一部を非表示にさせ、前記第二情報に基づいて、前記所定領域の周囲の前記車両情報を前記表示部に表示させる。
態様の一つに係る携帯電子機器制御方法は、周囲の風景に第一情報を重ね合わせて表示する表示部を備える携帯電子機器を制御する携帯電子機器制御方法であって、周囲の車両情報を含む第二情報を取得するステップと、自機が所定領域内にいると判定すると、それまで前記表示部に表示されていた前記第一情報の少なくとも一部を非表示にさせ、前記第二情報に基づいて、前記所定領域の周囲の前記車両情報を前記表示部に表示させるステップとを含む。
態様の一つに係る携帯電子機器制御プログラムは、周囲の風景に第一情報を重ね合わせて表示する表示部を備える携帯電子機器に、周囲の車両情報を含む第二情報を取得するステップと、自機が所定領域内にいると判定すると、それまで前記表示部に表示されていた前記第一情報の少なくとも一部を非表示にさせ、前記第二情報に基づいて、前記所定領域の周囲の前記車両情報を前記表示部に表示させるステップとを実行させる。

Claims (12)

  1. 周囲の環境に第一情報を重ね合わせて表示する表示部と、
    周囲の車両情報を含む第二情報を取得する情報取得部と、
    自機が所定領域内にいると判定すると、少なくとも一部の前記第一情報を非表示にさせ、前記第二情報に基づいて、前記所定領域の周囲の前記車両情報を前記表示部に表示させるコントローラとを備える携帯電子機器。
  2. 前記コントローラは、前記所定領域に配置された機器との通信の可否に基づいて、自機が所定領域内にいるか否かを判定する請求項1に記載の携帯電子機器。
  3. 周囲の環境を撮影する撮影部を備え、
    前記コントローラは、前記撮影部で撮影された映像に基づいて、自機が所定領域内にいるか否かを判定する請求項1に記載の携帯電子機器。
  4. 自機の現在地の位置情報を取得する位置情報取得部を備え、
    前記コントローラは、前記位置情報に基づいて、自機が所定領域内にいるか否かを判定する請求項1に記載の携帯電子機器。
  5. 前記情報取得部は、交差点に配置された路側機から前記第二情報を取得し、
    前記コントローラは、前記情報取得部と前記路側機との通信の可否に基づいて、前記自機が前記交差点の前記所定領域内にいると判定すると、少なくとも一部の前記第一情報を非表示にさせ、前記第二情報に基づいて、前記交差点の周囲の前記車両情報を前記表示部に表示させる請求項2に記載の携帯電子機器。
  6. 前記第一情報は、目的地までのルートを案内する進行方向情報を含み、
    前記コントローラは、前記自機が前記所定領域内にいると判定すると、前記第一情報のうち、前記進行方向情報と異なる情報を非表示にさせる請求項1から請求項5のいずれか一項に記載の携帯電子機器。
  7. 前記第一情報は、観光施設や周辺施設を案内する施設案内情報を含み、
    前記コントローラは、前記自機が前記所定領域内にいると判定すると、前記第一情報のうち、前記施設案内情報を非表示にさせる請求項1から請求項6のいずれか一項に記載の携帯電子機器。
  8. 移動を検知する移動検知部を備え、
    前記コントローラは、前記移動検知部で移動を検知し、かつ、前記自機が前記所定領域内にいると判定すると、少なくとも一部の前記第一情報を非表示にさせ、前記第二情報に基づいて、前記所定領域の周囲の前記車両情報を前記表示部に表示させる請求項1から請求項7のいずれか一項に記載の携帯電子機器。
  9. 向いている方向を検知する方向検知部を備え、
    前記コントローラは、前記自機が前記所定領域内にいると判定すると、少なくとも一部の前記第一情報を非表示にさせ、前記第二情報に基づいて、前記方向検知部で検知した方向について、前記所定領域の周囲の前記車両情報を前記表示部に表示させる請求項1から請求項8のいずれか一項に記載の携帯電子機器。
  10. 前記車両情報は、図形または文字で前記表示部に表示させる請求項1から請求項9のいずれか一項に記載の携帯電子機器。
  11. 周囲の環境に第一情報を重ね合わせて表示する表示部を備える携帯電子機器を制御する携帯電子機器制御方法であって、
    周囲の車両情報を含む第二情報を取得するステップと、
    自機が所定領域内にいると判定すると、少なくとも一部の前記第一情報を非表示にさせ、前記第二情報に基づいて、前記所定領域の周囲の前記車両情報を前記表示部に表示させるステップとを含む携帯電子機器制御方法。
  12. 周囲の環境に第一情報を重ね合わせて表示する表示部を備える携帯電子機器に、
    周囲の車両情報を含む第二情報を取得するステップと、
    自機が所定領域内にいると判定すると、少なくとも一部の前記第一情報を非表示にさせ、前記第二情報に基づいて、前記所定領域の周囲の前記車両情報を前記表示部に表示させるステップとを実行させる携帯電子機器制御プログラム。
JP2016106204A 2016-05-27 2016-05-27 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム Active JP6348537B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016106204A JP6348537B2 (ja) 2016-05-27 2016-05-27 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016106204A JP6348537B2 (ja) 2016-05-27 2016-05-27 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018083898A Division JP6523522B2 (ja) 2018-04-25 2018-04-25 電子機器、電子機器制御方法及び電子機器制御プログラム

Publications (2)

Publication Number Publication Date
JP2017211916A true JP2017211916A (ja) 2017-11-30
JP6348537B2 JP6348537B2 (ja) 2018-06-27

Family

ID=60476061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016106204A Active JP6348537B2 (ja) 2016-05-27 2016-05-27 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム

Country Status (1)

Country Link
JP (1) JP6348537B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019107040A1 (ja) * 2017-12-01 2019-06-06 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2019142364A1 (ja) * 2018-01-22 2019-07-25 三菱電機株式会社 表示制御装置、表示制御システム及び表示制御方法
JP2022122879A (ja) * 2018-05-25 2022-08-23 理想科学工業株式会社 システム、ウェアラブル端末及びプログラム
JP7458031B2 (ja) 2020-09-10 2024-03-29 公益財団法人鉄道総合技術研究所 コンピュータシステムおよび制御方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010076524A (ja) * 2008-09-25 2010-04-08 Mazda Motor Corp 車両用運転支援装置
JP2011018166A (ja) * 2009-07-08 2011-01-27 Honda Motor Co Ltd 車両の走行安全装置
JP2012252645A (ja) * 2011-06-06 2012-12-20 Sumitomo Electric Ind Ltd 歩行者端末装置、コンピュータプログラム、及び、情報報知方法
JP2015115034A (ja) * 2013-12-16 2015-06-22 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
JP2015155959A (ja) * 2014-02-20 2015-08-27 ヤフー株式会社 情報通知装置、情報通知方法および情報通知プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010076524A (ja) * 2008-09-25 2010-04-08 Mazda Motor Corp 車両用運転支援装置
JP2011018166A (ja) * 2009-07-08 2011-01-27 Honda Motor Co Ltd 車両の走行安全装置
JP2012252645A (ja) * 2011-06-06 2012-12-20 Sumitomo Electric Ind Ltd 歩行者端末装置、コンピュータプログラム、及び、情報報知方法
JP2015115034A (ja) * 2013-12-16 2015-06-22 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
JP2015155959A (ja) * 2014-02-20 2015-08-27 ヤフー株式会社 情報通知装置、情報通知方法および情報通知プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019107040A1 (ja) * 2017-12-01 2019-06-06 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11170539B2 (en) 2017-12-01 2021-11-09 Sony Corporation Information processing device and information processing method
WO2019142364A1 (ja) * 2018-01-22 2019-07-25 三菱電機株式会社 表示制御装置、表示制御システム及び表示制御方法
JP2022122879A (ja) * 2018-05-25 2022-08-23 理想科学工業株式会社 システム、ウェアラブル端末及びプログラム
JP7458031B2 (ja) 2020-09-10 2024-03-29 公益財団法人鉄道総合技術研究所 コンピュータシステムおよび制御方法

Also Published As

Publication number Publication date
JP6348537B2 (ja) 2018-06-27

Similar Documents

Publication Publication Date Title
US10145703B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
JP6348537B2 (ja) 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム
EP2933707B1 (en) Head mounted display presentation adjustment
US8941649B2 (en) Augmented reality direction orientation mask
CN110260877B (zh) 驾驶相关引导提供方法及装置、计算机可读记录介质
KR102123844B1 (ko) 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체
CN110091798B (zh) 电子装置、电子装置的控制方法以及计算机可读存储介质
CN106205177A (zh) 使用智能眼镜提供车辆位置的引导的方法及其设备
KR102233391B1 (ko) 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체
KR20120079341A (ko) 맵데이터갱신방법, 이를 수행하는 전자기기 및 기록매체
JP2016009431A (ja) 車載映像システム、映像転送システム、映像転送方法及び映像転送プログラム
JP5735658B2 (ja) 表示装置及び表示方法
JP2014211431A (ja) ナビゲーション装置、及び、表示制御方法
JP6523522B2 (ja) 電子機器、電子機器制御方法及び電子機器制御プログラム
JP5517176B2 (ja) 画像調整装置、制御方法、プログラム、及び記憶媒体
WO2011121788A1 (ja) ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体
JP6828934B1 (ja) ナビゲーション装置、ナビゲーションシステム、ナビゲーション方法、ナビゲーションプログラム
KR101744718B1 (ko) 차량용 표시 시스템 및 그 제어방법
KR102158167B1 (ko) 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체
KR102299081B1 (ko) 전자 장치 및 그의 제어 방법
JP5438172B2 (ja) 情報表示装置、情報表示方法、情報表示プログラムおよび記録媒体
KR102506263B1 (ko) 항공 영상 처리 장치, 항공 영상 처리 방법, 항공 영상 처리를 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체, 항공 지도를 이용하여 경로 안내를 수행하는 내비게이션 장치 및 서버
KR101673196B1 (ko) 위치정보를 사용하는 영상기록 장치, 이와 연계된 스마트폰 및 그의 제어방법
KR102371620B1 (ko) 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체
WO2014097406A1 (ja) 表示システム、サーバ装置、表示装置、表示方法及びプログラム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180425

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180531

R150 Certificate of patent or registration of utility model

Ref document number: 6348537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150