JP2015228201A - ウェアラブルメガネを用いたディスプレイ装置及びその作動方法 - Google Patents

ウェアラブルメガネを用いたディスプレイ装置及びその作動方法 Download PDF

Info

Publication number
JP2015228201A
JP2015228201A JP2014233065A JP2014233065A JP2015228201A JP 2015228201 A JP2015228201 A JP 2015228201A JP 2014233065 A JP2014233065 A JP 2014233065A JP 2014233065 A JP2014233065 A JP 2014233065A JP 2015228201 A JP2015228201 A JP 2015228201A
Authority
JP
Japan
Prior art keywords
wearable glasses
video
wearer
unit
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014233065A
Other languages
English (en)
Other versions
JP5967839B2 (ja
Inventor
イ・スンホ
Sung-Ho Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MORIAHTOWN CO Ltd
Original Assignee
MORIAHTOWN CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MORIAHTOWN CO Ltd filed Critical MORIAHTOWN CO Ltd
Publication of JP2015228201A publication Critical patent/JP2015228201A/ja
Application granted granted Critical
Publication of JP5967839B2 publication Critical patent/JP5967839B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Abstract

【課題】広告、ビデオ通話等の特定目的の映像をより効果的に着用者に伝達する、ウェアラブルメガネを用いたディスプレイ装置及びその作動方法を提供する。
【解決手段】ウェアラブルメガネを用いたディスプレイ装置102において、ウェアラブルメガネに搭載されて着用者視点の第1映像を取得するカメラ104、第1映像を分析してウェアラブルメガネの仮想表示領域を決定する演算部、ウェアラブルメガネと連動可能なスマートデバイス108から第2映像を受信するデータ連動部106及び第2映像を仮想表示領域にディスプレイするディスプレイ部110を含む。
【選択図】図1

Description

本発明は、ディスプレイ装置及び作動方法に関するものであり、より詳しくは、ウェアラブルメガネを用いたディスプレイ装置及びその作動方法に関する。
近年、「着るコンピューター」という概念のウェアラブルデバイスが開発されている。ウェアラブルデバイスとは、日常的に身に着けることができる形態に設計された機器であり、身体に付けてコンピューティングの行為を行うことができる全てのものを指し、これには一部のコンピューティングの機能を実行することができるアプリケーションも含まれる。例えば、時計、ブレスレット、ヘッドセット等の製品の形態にコンピューター機能が内蔵されていてもよい。特に、メガネに適用されたウェアラブルデバイスとして「グーグルグラス(Google Glass)」が公知となっている。
本発明は、着用者視点の第1映像を分析して取得した仮想表示領域にスマートデバイスと連動可能な第2映像をディスプレイすることにより、広告、ビデオ通話等の特定目的の映像をより効果的に着用者に伝達できるウェアラブルメガネを用いたディスプレイ装置、及びその作動方法を提供することを目的とする。
本発明の目的は、前記の目的に制限されるのではなく、記載していない本発明の別の目的及び長所は、下記の説明によって理解でき、本発明の実施例によってよりはっきり理解できると考える。また、本発明の目的及び長所は、特許請求の範囲に示した手段及びその組合せによって実現できることが容易に分かると考える。
このような目的を達成するための本発明は、ウェアラブルメガネを用いたディスプレイ装置において、前記ウェアラブルメガネに搭載されて着用者視点の第1映像を取得するカメラ、前記第1映像を分析して前記ウェアラブルメガネの仮想表示領域を決定する演算部、前記ウェアラブルメガネと連動可能なスマートデバイスから第2映像を受信するデータ連動部及び前記第2映像を前記仮想表示領域にディスプレイするディスプレイ部を含むことを特徴とする。
また、本発明のウェアラブルメガネを用いたディスプレイ装置の作動方法は、前記ウェアラブルメガネに搭載されたカメラが着用者視点の第1映像を取得するステップ、演算部が前記第1映像を分析して前記ウェアラブルメガネの仮想表示領域を決定するステップ、データ連動部が前記ウェアラブルメガネと連動可能なスマートデバイスから第2映像を受信するステップ、ディスプレイ部が第2映像を仮想表示領域にディスプレイするステップを含むことを特徴とする。
前述のような本発明によると、着用者視点の第1映像を分析して取得した仮想表示領域にスマートデバイスと連動可能な第2映像をディスプレイすることにより、広告、ビデオ通話等の特定目的の映像をより効果的に着用者に伝達できるという長所がある。
本発明の実施例にかかるウェアラブルメガネを用いたディスプレイ装置の構成図である。 本発明の一実施例にかかるウェアラブルメガネのディスプレイ画面を図示した図面である。 本発明の実施例にかかるウェアラブルメガネを用いたディスプレイ装置の作動方法を説明するためのフローチャートである。
前述の目的、特徴及び長所は、添付の図面を参照して詳しく後述し、これによって本発明が属する技術分野で通常の知識を有する者が本発明の技術的思想を容易に実施できると考える。本発明を説明するにおいて、本発明と関連する公知の技術に対する具体的な説明が本発明の要旨を不要に濁し得ると判断した場合は、詳細な説明を省略する。以下、添付の図面を参照して本発明にかかる好ましい実施例を詳しく説明する。図面において同一参照符号は同一又は類似する構成要素を指すものとして使用する。
図1は、本発明の実施例にかかるウェアラブルメガネを用いたディスプレイ装置の構成図である。図1を参照すると、ウェアラブルメガネを用いたディスプレイ装置102は、着用者視点の映像を取得するカメラ104、着用者視点の映像を分析して仮想表示領域を決定する演算部(未図示)、ウェアラブルメガネと連動可能なスマートデバイス108から映像又はデータを受信するデータ連動部106、データ連動部106から受信した映像又はデータをウェアラブルメガネの仮想表示領域にディスプレイするディスプレイ部110を含む。
カメラ104は、着用者視点の第1映像を取得する機能を行う。カメラ104は、ウェアラブルメガネに搭載され、ウェアラブルメガネの着用者が見る方向の映像を撮影して取得できる。つまり、カメラ104が撮影して取得した第1映像には、ウェアラブルメガネを着用した着用者が見る方向に存在する物体が含まれてもよい。
演算部(未図示)は、第1映像を分析してウェアラブルメガネの仮想表示領域を決定する機能を行う。上述のように、第1映像には着用者が見る方向に存在する多数の物体が含まれてもよい。演算部は、多数の物体のうち特定物体の境界線を認識して特定物体の境界線を仮想表示領域として決定できる。例えば、第1映像には着用者が見る方向に存在する建物、又は建物に設置された電光板、広告板のようなディスプレイ装置が含まれてもよい。演算部は、電光板の境界線を認識して認識された境界線を仮想表示領域に決定できる。
本発明の別の実施例において、仮想表示領域は着用者(使用者)の設定に従って予め決めることもできる。例えば、着用者が仮想表示領域として指定される位置、仮想表示領域の大きさを予め指定するようにすることにより、着用者が所望する位置に仮想表示領域が配置されるように構成することができる。
仮想表示領域116とは、データ、映像等がディスプレイされる領域であり、図1の第1映像112に含まれる特定の領域114に対応できる。つまり、ウェアラブルメガネに表示される仮想表示領域116が着用者の前方方向に向かって拡張すると実際の背景における特定の領域114に対応し得る。
本発明の一実施例において、演算部は第1映像を分析して特定物体を認識し、着用者が移動することにより認識された特定物体の位置が変わると、特定物体の変わった位置をトラッキングしてウェアラブルメガネの仮想表示領域を更新するように構成することができる。つまり、第1映像で特定物体の境界線を仮想表示領域に決定すると、着用者が移動することによって特定物体の境界線が変わることを感知し、境界線の変化をトラッキングしてウェアラブルメガネ上の仮想表示領域の位置を更新することができる。それにより、着用者が移動することによって着用者に対する特定物体の相対的な位置が異なっても、仮想表示領域は認識された特定物体に対して固定され得る。
データ連動部106は、ウェアラブルメガネと連動可能なスマートデバイス108から第2映像又はデータを受信する機能を行う。ここで、スマートデバイス108とは、スマートフォン、タブレット等、データの送受信が可能な電子機器を意味する。データ連動部106は、ブルートゥース、Wi‐Fi信号を利用してスマートデバイス108と連動でき、スマートデバイス108を通じてインターネットに接続して、音声通話、映像、メッセージ等の各種データを送受信できる。特に、データには特定目的の映像又は映像と関連する座標情報が含まれてもよい。
ディスプレイ部110は、第2映像を仮想表示領域にディスプレイする機能を行う。第2映像は、データ連動部106を通じてウェアラブルメガネと連動可能なスマートデバイス108から受信でき、第2映像は映像情報だけでなく、映像に関連する音声情報、広告のような特定目的の映像に関連する座標情報をさらに含んでもよい。ウェアラブルメガネの仮想表示領域は、演算部(未図示)によって決定してもよい。
ディスプレイ部110が、ウェアラブルメガネの仮想表示領域116に第2映像をディスプレイする方法には、第2映像をウェアラブルメガネに投射する方法、ディスプレイ部110がウェアラブルメガネのモニターで構成されて直接ディスプレイする方法を用いてもよい。
本発明の一実施例において、ディスプレイ部110が第2映像をウェアラブルメガネに投射する方法の場合、第2映像の投射方向を調節してウェアラブルメガネの仮想表示領域116に投射するように構成してもよい。
本発明の別の実施例において、ディスプレイ部110がウェアラブルメガネのモニターとして構成されて第2映像をディスプレイする方法の場合、ディスプレイ部110は、第1映像の仮想表示領域116に第2映像を合成して合成された映像をディスプレイしてもよい。
図1には表されていないが、本発明のウェアラブルメガネを用いたディスプレイ装置は、着用者の操作のための操作部(未図示)をさらに含んでもよい。操作部は、ウェアラブルメガネと連動可能なウェアラブル機器、音声認識又は動作認識機能を利用して着用者の命令が入力され得る。
例えば、ウェアラブルメガネと連動可能なブレスレット形態のウェアラブル機器を用いてブレスレットの動きによってメッセージの送受信等のような動作を制御したり、音声認識を通じて動作を制御することができる。また、着用者のジェスチャーを認識して腕又は指の動きによって動作を制御することができる。
上述のような本発明によると、着用者視点の第1映像を分析して取得した仮想表示領域にスマートデバイスと連動可能な第2映像をディスプレイすることにより、広告、ビデオ通話等の特定目的の映像をより効果的に着用者に伝達できるという長所がある。
本発明の実施例において、広告、ビデオ通話のような映像を着用者の視野内に存在する特定物体と結合した位置で再生されることにより、広告の伝達、ビデオ通話のような特定目的の映像又はコンテンツをより効果的に着用者に伝達することができる。
例えば、着用者のスマートデバイスを通じて着用者の位置周辺に存在するファーストフード店が検索できる。着用者のスマートデバイスを通じてファーストフード店の広告メッセージがウェアラブルメガネに受信されると、ディスプレイ部110が受信した広告メッセージをディスプレイする。着用者は、ウェアラブルメガネ202にディスプレイされる広告メッセージを確認し、操作部を通じて広告メッセージを再生するかを命令する。着用者が広告メッセージを再生することを命令すると、データ連動部106は着用者の操作によってスマートデバイスから広告映像を受信する。
一方、着用者はウェアラブルメガネのカメラを通じて撮影された図2の画面を見ることができる。図2は、本発明の一実施例にかかるウェアラブルメガネのディスプレイ画面を示した図面である。演算部は、カメラが取得した第1映像を分析して仮想表示領域に決定する。より詳しくは、演算部は広告メッセージが出力される広告板の境界線204を認識して、認識された広告板の境界線204を仮想表示領域に決定することができる。
また、図2を参照すると、着用者が広告映像を提供するファーストフード店に到達するための案内データがスマートデバイスを通じて受信され得る。このために、スマートデバイスから広告メッセージの座標情報が受信されたら、データ連動部は着用者の現在位置の情報及び広告メッセージの座標情報を利用して着用者が現在位置から座標情報に対応する位置まで到達するように案内するための案内データを受信することができる。ディスプレイ部は、図2の案内画面206のように案内データをウェアラブルメガネ202にディスプレイすることができる。
好ましくは、上の例示において、時間、位置によって選別された特定目的の広告メッセージが受信できる。例えば、昼食時間には飲食店関連の広告メッセージが受信されるように設定することができる。
また別の例として、着用者のスマートデバイスを通じて着用者にビデオ通話がかかってきた状況を仮定する。データ連動部を通じてスマートデバイスからビデオ通話の要請が受信されると、着用者は操作部を通じてビデオ通話を受信するかを命令する。着用者がビデオ通話を受信すると、データ連動部は着用者の操作によってスマートデバイスからビデオ通話のデータを受信し、ディスプレイ部は着用者が予め指定した仮想表示領域にビデオ通話のデータをディスプレイする。
図3は、本発明の実施例にかかるウェアラブルメガネを用いたディスプレイ装置の作動方法を説明するためのフローチャートである。図3を参照すると、先ず、カメラがウェアラブルメガネ着用者視点の第1映像を取得する(302)。上述の通り、カメラはウェアラブルメガネを着用した着用者が見る方向に設置し、カメラによって撮影された着用者視点の第1映像を取得できる。
次に、演算部が第1映像を分析して仮想表示領域を決定する(304)。具体的には、ステップ(304)は、演算部第1映像を分析して特定物体を認識するステップ、着用者が移動することによって認識された特定物体の位置が変わると、演算部が特定物体の変わった位置をトラッキングしてウェアラブルメガネの仮想表示領域を更新するステップを含むことができる。
その次に、データ連動部が連動スマートデバイスから第2映像を受信する(306)。上述のように、スマートデバイスは無線連結を通じてデータ連動部と連動し、映像、音声等のデータを送受信できる。
最後に、ディスプレイ部が第2映像を仮想表示領域にディスプレイする(308)。ステップ(308)のディスプレイ方法は、ディスプレイ部がウェアラブルメガネの上段に搭載されて第2映像をウェアラブルメガネに投射する方法、ディスプレイ部がウェアラブルメガネのモニターとして構成されて直接ディスプレイする方法のいずれかの方法になり得る。
本発明の一実施例において、第2映像は特定の目的を有する映像又はデータになり得る。例えば、スマートデバイスから広告メッセージが受信されたら、着用者は広告メッセージを受信するかを命令することができる。この例示において、着用者が広告メッセージを受諾すると、ステップ(304)は演算部が第1映像を分析して広告メッセージが出力される広告板を仮想表示領域に決定するステップを含むことができる。また、ステップ(306)はデータ連動部が広告映像を受信するステップを、ステップ(308)はディスプレイ部が仮想表示領域に広告映像をディスプレイするステップをそれぞれ含むことができる。また、ステップ(306)において、データ連動部は広告メッセージの座標情報を受信するステップをさらに含んでもよく、広告メッセージの座標情報が受信されたら、着用者の現在位置情報及び広告メッセージの座標情報を利用して、着用者が現在位置から座標情報に対応する位置まで到達できるように案内するための案内データを受信するステップが含まれてもよい。この場合、ステップ(308)は、ディスプレイ部が案内データをウェアラブルメガネにディスプレイするステップを含んでもよい。
また別の例において、着用者のスマートデバイスを通じてビデオ通話が受信される場合もある。この場合、ステップ(304)ないしステップ(308)は、演算部が第1映像を分析して映像メッセージが出力される仮想表示領域を決定するステップ、データ連動部が着用者の操作によってスマートデバイスからビデオ通話データを受信するステップ、ディスプレイ部が仮想表示領域にビデオ通話データをディスプレイするステップをそれぞれ含んでもよい。
本発明によると、ウェアラブルメガネにPIP(Picture In Picture)、VIV(Video In Video)を適用することにより、より効果的な広告伝達、ターゲッティング広告効果を達成することができ、従来のようにスマートフォンを持っていなくても、ウェアラブルメガネを着用して歩いている途中でビデオ通話の受信を受諾し着用者が望む位置にビデオ通話画面を移動及び固定させてビデオ通話をすることができる。
前述の本発明は、本発明が属する技術分野で通常の知識を有する者において、本発明の技術的思想から外れない範囲内で様々な置換、変形及び変更が可能なため、前述の実施例及び添付の図面によって限定されるものではない。

Claims (11)

  1. ウェアラブルメガネを用いたディスプレイ装置において、
    前記ウェアラブルメガネに搭載されて着用者視点の第1映像を取得するカメラ;
    前記第1映像を分析して前記ウェアラブルメガネの仮想表示領域を決定する演算部;
    前記ウェアラブルメガネと連動可能なスマートデバイスから第2映像を受信するデータ連動部;及び
    前記第2映像を前記仮想表示領域にディスプレイするディスプレイ部
    を含むウェアラブルメガネを用いたディスプレイ装置。
  2. 前記演算部は、
    前記第1映像を分析して特定物体を認識し、着用者が移動することにより前記の認識された特定物体の位置が変わると、前記特定物体の変わった位置をトラッキングしてウェアラブルメガネの仮想表示領域を更新する請求項1に記載の、
    ウェアラブルメガネを用いたディスプレイ装置。
  3. 前記スマートデバイスから広告メッセージが受信されたら、
    前記演算部は、第1映像を分析して前記広告メッセージが出力される広告板を仮想表示領域に決定し、
    前記データ連動部は、着用者の操作によって前記スマートデバイスから広告映像を受信し、
    前記ディスプレイ部は前記仮想表示領域に前記広告映像をディスプレイする請求項1に記載の、
    ウェアラブルメガネを用いたディスプレイ装置。
  4. 前記広告メッセージの座標情報が受信されたら、
    前記データ連動部は、着用者の現在位置情報及び前記広告メッセージの座標情報を利用して、前記着用者が現在位置から前記座標情報に対応する位置まで到達するように案内するための案内データを受信し、
    前記ディスプレイ部は前記案内データを前記ウェアラブルメガネにディスプレイする請求項3に記載の、
    ウェアラブルメガネを用いたディスプレイ装置。
  5. 前記スマートデバイスからビデオ通話要請が受信されたら、
    前記演算部は、第1映像を分析して映像メッセージが出力される仮想表示領域を決定し、
    前記データ連動部は、着用者の操作によって前記スマートデバイスからビデオ通話データを受信し、
    前記ディスプレイ部は、前記仮想表示領域に前記ビデオ通話データをディスプレイする請求項1に記載の、
    ウェアラブルメガネを用いたディスプレイ装置。
  6. 前記ウェアラブルメガネと連動可能なウェアラブル機器、音声認識、動作認識のうちの少なくとも一つを利用して着用者の命令が入力される操作部
    をさらに含む請求項1に記載のウェアラブルメガネを用いたディスプレイ装置。
  7. ウェアラブルメガネを用いたディスプレイ装置の作動方法として、
    前記ウェアラブルメガネに搭載されたカメラが着用者視点の第1映像を取得するステップ;
    演算部が前記第1映像を分析して前記ウェアラブルメガネの仮想表示領域を決定するステップ;
    データ連動部が前記ウェアラブルメガネと連動可能なスマートデバイスから第2映像を受信するステップ;
    ディスプレイ部が第2映像を仮想表示領域にディスプレイするステップ
    を含むウェアラブルメガネを用いたディスプレイ装置の作動方法。
  8. 前記演算部が前記第1映像を分析して前記ウェアラブルメガネの仮想表示領域を決定するステップは、
    前記第1映像を分析して特定物体を認識し、着用者が移動することにより前記の認識された特定物体の位置が変わると、前記特定物体の変わった位置をトラッキングしてウェアラブルメガネの仮想表示領域を更新するステップ
    を含む請求項7に記載のウェアラブルメガネを用いたディスプレイ装置の作動方法。
  9. 前記スマートデバイスから広告メッセージが受信されたら、
    前記演算部が第1映像を分析して前記広告メッセージが出力される広告板を仮想表示領域に決定するステップ;
    前記データ連動部が着用者の操作によって前記スマートデバイスから広告映像を受信するステップ;及び
    前記ディスプレイ部が前記仮想表示領域に前記広告映像をディスプレイするステップ
    を含む請求項7に記載のウェアラブルメガネを用いたディスプレイ装置の作動方法。
  10. 広告メッセージと関連する座標情報が受信されたら、
    前記データ連動部が着用者の現在位置情報及び前記広告メッセージの座標情報を利用して、前記着用者が現在位置から前記座標情報に対応する位置まで到達するように案内するための案内データを受信するステップ;及び
    前記ディスプレイ部が前記案内データを前記ウェアラブルメガネにディスプレイするステップ
    を含む請求項7に記載のウェアラブルメガネを用いたディスプレイ装置の作動方法。
  11. 前記スマートデバイスからビデオ通話要請が受信されたら、
    前記演算部が第1映像を分析して映像メッセージが出力される仮想表示領域を決定するステップ;
    前記データ連動部が着用者の操作によって前記スマートデバイスからビデオ通話データを受信するステップ;及び
    前記ディスプレイ部が前記仮想表示領域に前記ビデオ通話データをディスプレイするステップ
    を含む請求項7に記載のウェアラブルメガネを用いたディスプレイ装置の作動方法。
JP2014233065A 2014-05-30 2014-11-17 ウェアラブルメガネを用いたディスプレイ装置及びその作動方法 Active JP5967839B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0065865 2014-05-30
KR1020140065865A KR101430614B1 (ko) 2014-05-30 2014-05-30 웨어러블 안경을 이용한 디스플레이 장치 및 그 동작 방법

Publications (2)

Publication Number Publication Date
JP2015228201A true JP2015228201A (ja) 2015-12-17
JP5967839B2 JP5967839B2 (ja) 2016-08-10

Family

ID=51750512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014233065A Active JP5967839B2 (ja) 2014-05-30 2014-11-17 ウェアラブルメガネを用いたディスプレイ装置及びその作動方法

Country Status (3)

Country Link
US (1) US20150346816A1 (ja)
JP (1) JP5967839B2 (ja)
KR (1) KR101430614B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021061332A1 (en) * 2019-09-29 2021-04-01 Snap Inc. Stylized image painting

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101609064B1 (ko) * 2014-09-15 2016-04-04 원혁 증감 현실을 이용한 인터랙티브 설명서
KR101709611B1 (ko) 2014-10-22 2017-03-08 윤영기 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법
KR102265086B1 (ko) * 2014-11-07 2021-06-15 삼성전자 주식회사 정보를 공유하기 위한 가상 환경
KR20160056133A (ko) * 2014-11-11 2016-05-19 삼성전자주식회사 이미지 표시 제어 방법 및 이를 지원하는 장치
KR101621853B1 (ko) 2014-12-26 2016-05-17 연세대학교 산학협력단 데이터 송신 장치, 데이터 수신 장치 및 그를 이용하는 스마트 디바이스
CN105867611A (zh) * 2015-12-29 2016-08-17 乐视致新电子科技(天津)有限公司 虚拟现实系统中的空间定位方法、装置及系统
KR20180082729A (ko) 2017-01-11 2018-07-19 동서대학교산학협력단 웨어러블 스마트 안경 디바이스 및 이를 이용한 영상이미지 표시방법
US10684480B2 (en) 2017-03-16 2020-06-16 Denso Wave Incorporated Information display system
CN111556973A (zh) * 2018-01-05 2020-08-18 华为技术有限公司 Vr显示装置镜屏距的测量装置及测量方法
US10448004B1 (en) * 2018-05-20 2019-10-15 Alexander Shau Ergonomic protective eyewear
CN109254659A (zh) * 2018-08-30 2019-01-22 Oppo广东移动通信有限公司 穿戴式设备的控制方法、装置、存储介质及穿戴式设备
US10855978B2 (en) * 2018-09-14 2020-12-01 The Toronto-Dominion Bank System and method for receiving user input in virtual/augmented reality
KR102150074B1 (ko) 2019-04-01 2020-08-31 주식회사 리모샷 Gps 기반 내비게이션 시스템
CN111552076B (zh) 2020-05-13 2022-05-06 歌尔科技有限公司 一种图像显示方法、ar眼镜及存储介质
EP4180919A4 (en) 2020-11-30 2024-02-28 Samsung Electronics Co Ltd AUGMENTED REALITY DEVICE, ELECTRONIC DEVICE INTERACTING WITH THE AUGMENTED REALITY DEVICE AND METHOD FOR CONTROLLING THEREOF

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222116A (ja) * 1999-01-29 2000-08-11 Sony Corp 表示画像の位置認識方法とその位置認識装置および仮想画像立体合成装置
JP2011203823A (ja) * 2010-03-24 2011-10-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2012163853A (ja) * 2011-02-08 2012-08-30 Ns Solutions Corp 表示装置、情報提供システム、情報提供方法、及びプログラム
JP2014071811A (ja) * 2012-10-01 2014-04-21 Sony Corp 情報処理装置、表示制御方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6778224B2 (en) * 2001-06-25 2004-08-17 Koninklijke Philips Electronics N.V. Adaptive overlay element placement in video
JP5732988B2 (ja) * 2011-04-08 2015-06-10 ソニー株式会社 画像処理装置、表示制御方法及びプログラム
US20140101608A1 (en) * 2012-10-05 2014-04-10 Google Inc. User Interfaces for Head-Mountable Devices
JP5664677B2 (ja) * 2013-02-19 2015-02-04 ソニー株式会社 撮像表示装置、撮像表示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222116A (ja) * 1999-01-29 2000-08-11 Sony Corp 表示画像の位置認識方法とその位置認識装置および仮想画像立体合成装置
JP2011203823A (ja) * 2010-03-24 2011-10-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2012163853A (ja) * 2011-02-08 2012-08-30 Ns Solutions Corp 表示装置、情報提供システム、情報提供方法、及びプログラム
JP2014071811A (ja) * 2012-10-01 2014-04-21 Sony Corp 情報処理装置、表示制御方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021061332A1 (en) * 2019-09-29 2021-04-01 Snap Inc. Stylized image painting
US11030793B2 (en) 2019-09-29 2021-06-08 Snap Inc. Stylized image painting
US11699259B2 (en) 2019-09-29 2023-07-11 Snap Inc. Stylized image painting

Also Published As

Publication number Publication date
KR101430614B1 (ko) 2014-08-18
US20150346816A1 (en) 2015-12-03
JP5967839B2 (ja) 2016-08-10

Similar Documents

Publication Publication Date Title
JP5967839B2 (ja) ウェアラブルメガネを用いたディスプレイ装置及びその作動方法
US10832448B2 (en) Display control device, display control method, and program
US11925863B2 (en) Tracking hand gestures for interactive game control in augmented reality
US11150738B2 (en) Wearable glasses and method of providing content using the same
US20200201440A1 (en) Systems and methods for providing haptic feedback for remote interactions
CN110168618B (zh) 增强现实控制系统和方法
KR102212030B1 (ko) 글래스 타입 단말기 및 이의 제어방법
US20200258314A1 (en) Information processing device, information processing method, and recording medium
US20140361988A1 (en) Touch Free Interface for Augmented Reality Systems
JP2018004950A (ja) 映像表示システム、映像表示方法、映像表示プログラム
EP3422149B1 (en) Methods, apparatus, systems, computer programs for enabling consumption of virtual content for mediated reality
CN110622110B (zh) 提供沉浸式现实内容的方法和装置
US11733956B2 (en) Display device sharing and interactivity
US20220248162A1 (en) Method and apparatus for providing audio content in immersive reality
WO2019142560A1 (ja) 視線を誘導する情報処理装置
US20230367118A1 (en) Augmented reality gaming using virtual eyewear beams
CN110832525A (zh) 在对象上的增强现实广告
JP2018018315A (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
US11907434B2 (en) Information processing apparatus, information processing system, and information processing method
US20240095877A1 (en) System and method for providing spatiotemporal visual guidance within 360-degree video
US20240119928A1 (en) Media control tools for managing communications between devices
KR20200085611A (ko) 전자 장치 및 그의 제어 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160704

R150 Certificate of patent or registration of utility model

Ref document number: 5967839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250