JP2012043435A - 拡張現実サービスの共有方法並びに拡張現実サービスを共有するために用いるユーザ端末、遠隔端末及びシステム - Google Patents

拡張現実サービスの共有方法並びに拡張現実サービスを共有するために用いるユーザ端末、遠隔端末及びシステム Download PDF

Info

Publication number
JP2012043435A
JP2012043435A JP2011178323A JP2011178323A JP2012043435A JP 2012043435 A JP2012043435 A JP 2012043435A JP 2011178323 A JP2011178323 A JP 2011178323A JP 2011178323 A JP2011178323 A JP 2011178323A JP 2012043435 A JP2012043435 A JP 2012043435A
Authority
JP
Japan
Prior art keywords
information
result information
augmented reality
user terminal
sharing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011178323A
Other languages
English (en)
Other versions
JP5284428B2 (ja
Inventor
Bong-Won Choe
鳳 元 崔
Moon Ki Kang
文 基 姜
Tae-Hun Eom
泰 勳 嚴
San-Wook Yi
サン ウク 李
Yong Youn Lee
龍 年 李
Hyoung Jun Jeon
炯 俊 全
Jae-Young Choi
宰 榮 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pantech Co Ltd
Original Assignee
Pantech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pantech Co Ltd filed Critical Pantech Co Ltd
Publication of JP2012043435A publication Critical patent/JP2012043435A/ja
Application granted granted Critical
Publication of JP5284428B2 publication Critical patent/JP5284428B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】拡張現実サービスの共有方法並びに拡張現実サービスを共有するために用いるユーザ端末、遠隔端末、及びシステムを提供する。
【解決手段】ユーザ端末の拡張現実サービスを共有する方法は、遠隔端末から受信される映像を表示することと、表示された映像に含まれるオブジェクトを認識することと、第1データベースに格納されたオブジェクトに対応する第1ARデータを用いて第1AR結果情報を生成することと、生成された第1AR結果情報と認識されたオブジェクトとを表示することとを含む。
【選択図】図2

Description

本発明は、ユーザ端末が他の遠隔端末(remote terminal)に表示されている映像(image)を受信し、ユーザ端末にその映像を表示することにより、拡張現実(AR:Augmented Reality)サービスを提供することのできる拡張現実サービスの共有方法並びに拡張現実サービスの共有方法を用いるユーザ端末、遠隔端末及びシステムに関する。
拡張現実技術は、実際の環境(real environment)に人工的な物や情報(artificial object or information)を合成するコンピュータグラフィック技術に関するものである。ARサービスは、仮想の空間や物だけを対象とする仮想現実技術とは異なり、実際の環境上に人工的な物や情報を合成することによって、現実世界だけでは得難い補足情報を付加するものである。ARサービスを提供可能なユーザ端末は、備えられたカメラによって撮影された映像に含まれるオブジェクトを分析し、分析結果を基にAR情報を提供する。したがって、ユーザ端末が提供することのできるAR情報が制限的なものとなり、誤った情報を提供する状況が生じる可能性がある。
上記のような問題を解決するための本発明の目的は、他の端末とのデータ共有によって、より豊富で多様なAR情報を提供することのできる、拡張現実サービスの共有方法、並びに拡張現実サービスを共有するために用いるユーザ端末、遠隔端末及びシステムを提供することにある。
本発明の一実施形態に係るユーザ端末の拡張現実サービスを共有する方法は、遠隔端末から受信される映像を表示することと、表示された映像に含まれるオブジェクトを認識することと、第1データベースに格納されたオブジェクトに対応する第1拡張現実データを用いて第1AR結果情報を生成することと、生成された第1AR結果情報と認識されたオブジェクトとを表示することとを含んでもよい。
オブジェクトを認識することは、受信した映像データを分析してオブジェクトを認識することを含んでもよい。
遠隔端末からオブジェクトを認識するのに必要なオブジェクト認識情報を受信することをさらに含み、オブジェクトを認識することは、受信したオブジェクト認識情報を分析してオブジェクトを認識することを含んでもよい。
遠隔端末は、表示された映像と同一の映像およびオブジェクトに対応する第2ARデータを用いて第2AR結果情報を表示してもよい。
遠隔端末から第2AR結果情報を受信することと、受信した第2AR結果情報と第1AR結果情報とが異なれば、第1AR結果情報に第2AR結果情報を追加して第1AR結果情報を補足することと、補足された第1AR結果情報を表示することとをさらに含んでもよい。
補足された第1AR結果情報および補足された第1AR結果情報のARデータのうち少なくとも1つを第1データベースに格納することをさらに含んでもよい。
遠隔端末から第2ARデータを格納する第2データベースのアドレス情報を受信することと、アドレス情報を参照して第2データベースにアクセスすることと、第2データベースに格納された第2ARデータを用いて生成される第3AR結果情報を受信することとをさらに含んでもよい。
第3AR結果情報および第3AR結果情報の前記第2ARデータのうち少なくとも1つを第1データベースに格納することと、受信した第2データベースのアドレス情報をデータベースリストに追加することとをさらに含んでもよい。
遠隔端末に認識されたオブジェクトに関する追加情報の提供をリクエストすることと、遠隔端末から認識されたオブジェクトに関する追加情報を受信することと、受信した追加情報を用いて、認識されたオブジェクトに対応する第1AR結果情報を補足することとを含んでもよい。
追加情報は、認識されたオブジェクトのAR情報、認識されたオブジェクトを認識するのに必要なオブジェクト認識情報および認識されたオブジェクトのAR情報を格納するデータベースのアドレスのうち少なくとも1つを含んでもよい。
本発明の他の実施形態に係る拡張現実サービスの共有のためのユーザ端末は、遠隔端末から受信される映像を表示する表示部と、表示された映像に含まれるオブジェクトを認識するオブジェクト認識部と、第1データベースに格納されたオブジェクトに対応する第1拡張現実データを用いて第1AR結果情報を生成するAR情報管理部とを備え、生成された第1AR結果情報と認識されたオブジェクトとを、表示部に表示してもよい。
オブジェクト認識部は、受信した映像データを分析してオブジェクトを認識してもよい。
遠隔端末からオブジェクトを認識するのに必要なオブジェクト認識情報を受信する通信部をさらに備え、オブジェクト認識部は、受信したオブジェクト認識情報を分析してオブジェクトを認識してもよい。
遠隔端末は、表示された映像と同一の映像およびオブジェクトに対応する第2ARデータを用いて第2AR結果情報を表示してもよい。
遠隔端末から第2AR結果情報を受信する通信部をさらに備え、AR情報管理部は、受信した第2AR結果情報と第1AR結果情報とが異なれば、第1AR結果情報に第2AR結果情報を追加して第1AR結果情報を補足し、補足された第1AR結果情報を表示部に表示してもよい。
補足された第1AR結果情報および補足された第1AR結果情報のARデータのうち少なくとも1つを第1データベースに格納するデータベース管理部をさらに備えてもよい。
通信部は、遠隔端末から第2ARデータを格納する第2データベースのアドレス情報をさらに受信して、受信したアドレス情報を参照して第2データベースにアクセスし、第2データベースに格納された第2ARデータを用いて生成される第3AR結果情報を受信して、データベース管理部は、第3AR結果情報を第1データベースに格納してもよい。
データベース管理部は、受信した第2データベースのアドレス情報をデータベースリストに追加してもよい。
遠隔端末に認識されたオブジェクトに関する追加情報の提供をリクエストするメッセージを送信して、遠隔端末から認識されたオブジェクトに関する追加情報を受信する通信部をさらに備え、AR情報管理部は、受信した追加情報を用いて認識されたオブジェクトに対応する第1AR結果情報を補足してもよい。
本発明の他の実施形態に係るユーザ端末と遠隔端末とで拡張現実サービスを共有する方法は、映像および映像のオブジェクトに対応するAR結果情報を表示することと、ユーザ端末に表示されている映像およびオブジェクトを認識するのに必要なオブジェクト認識情報を送信することとを含んでもよい。
オブジェクトに対応するARデータを用いてAR結果情報(ユーザに実際に見られる情報を含む)を生成することと、生成されたAR結果情報をユーザ端末に送信することと、ユーザ端末にARデータが格納されたデータベースのアドレスを送信することとを含んでもよい。
本発明の他の実施形態に係るユーザ端末と拡張現実サービスを共有するための遠隔端末は、映像および映像のオブジェクトに対応するAR結果情報を表示する表示部と、ユーザ端末に表示されている映像およびオブジェクトを認識するのに必要なオブジェクト認識情報を送信する通信部とを備えてもよい。
オブジェクトに対応するARデータを用いてAR結果情報(ユーザに実際に見られる情報を含む)を生成するAR情報管理部をさらに備え、通信部は、生成されたAR結果情報およびARデータが格納されたデータベースのアドレスをユーザ端末に送信してもよい。
また、前記ユーザ端末から提供される、前記ユーザ端末に格納された前記オブジェクトに対応するARデータを格納するデータベースをさらに備えてもよい。
本発明の他の実施形態に係る拡張現実サービスを共有するためのシステムは、ユーザ端末と、遠隔端末と、を含み、前記遠隔端末は映像を取得し、前記映像を前記ユーザ端末に送信し、前記ユーザ端末は、前記遠隔端末から前記映像を受信し、前記映像を分析してオブジェクトを決定し、前記オブジェクトに対応する第1AR結果情報を生成し、前記第1AR結果情報と前記映像とを表示部に表示してもよい。
本発明の実施形態によれば、遠隔端末との通信によってARサービスを共有することができる。したがって、ユーザ端末は、遠隔端末と双方向ARサービスを提供することができる。
また、本発明の実施形態によれば、遠隔端末によって撮影された映像を共有し、遠隔端末からARサービスのための情報提供を受けることによって、ARサービスのコンテンツを補足して、ユーザ端末内のDBを更新させることができる。
また、本発明の実施形態によれば、ユーザ端末は、所望するオブジェクトを選択し、選択されたオブジェクトと関連する情報を遠隔端末にリクエストすることができる。このように、ARサービスの双方向化によってサービス品質を向上させることができる。
本発明の一実施形態に係る拡張現実サービスを共有するシステムを示す図である。 図1に示したユーザ端末を示すブロック図である。 図1に示した遠隔端末を示すブロック図である。 本発明の一実施形態に係る拡張現実サービスの共有方法を説明するためのフローチャートである。 本発明の他の実施形態に係る拡張現実サービスの共有方法を説明するためのフローチャートである。 本発明の他の実施形態に係る拡張現実サービスの共有方法を説明するためのフローチャートである。
以下、添付の図面を参照しながら本発明の実施形態を説明する。本発明の説明において、関連する公知の機能または構成に対する具体的な説明が本発明の要旨を不要に曖昧にすると判断される場合には、その詳細な説明を省略する。そして、本明細書で用いる用語(terminology)は、本発明の好ましい実施形態を適切に表現するために用いた用語であり、これらは、ユーザ及び運用者の意図、または本発明が属する分野の当業者の慣例などによって変わることがある。したがって、本用語に対する定義は、本明細書全般に亘る内容を基に判断すべきである。
図1は、本発明の一実施形態に係る拡張現実(AR)サービスを共有するシステムを示す図である。
図1を参照すれば、ARシステムは、ユーザ端末100と遠隔端末200とを備える。ユーザ端末100と遠隔端末200は、ARサービスをサポート(support)し、ネットワーク通信網(図示せず)を介して有線または無線で通信する。ユーザ端末100と遠隔端末200は、ARサービスを共有するのに必要なデータを送受信する。ユーザ端末100と遠隔端末200は、スマートフォン、ラップトップコンピュータ、デスクトップコンピュータ、及び音声・画像通信オーディオビジュアル端末などの電子機器であってもよい。図2および図3を参照して説明するユーザ端末100と遠隔端末200の各構成要素は、物理的またはソフトウェア的に区分することができ、メモリに格納されたプログラムに従ってプロセッサ(図示せず)または制御部(図示せず)によって実現することができる。
ユーザ端末100は、遠隔端末200から映像データ(image data)を受信して表示し、ARサービスの提供を受けるユーザの端末であってもよい。ユーザ端末100が他の遠隔端末とARサービスを共有する場合、ユーザ端末100は遠隔端末200の機能を提供することができる。
遠隔端末200は、遠隔端末200によって取得された映像をユーザ端末100に送信し、映像に含まれるオブジェクトに関するAR結果情報(AR result information)またはARデータを、ユーザ端末100に提供してもよい。また、遠隔端末200は、ユーザ端末100の機能を提供できる。
以下では、ARサービスを共有する具体的な実施形態について説明し、まず説明の便宜のために表1のように、本明細書で用いる用語の意図を簡略的に説明する。
Figure 2012043435
図2は、図1に示したユーザ端末100を示すブロック図である。
図2を参照すれば、ユーザ端末100は、第1UI(User Interface)部110、第1データベース(DB:DataBase)部120、第1通信部130、第1映像処理部140、第1オブジェクト認識部150、第1DBリスト管理部160、第1DB管理部165、第1AR情報管理部170、および第1オブジェクト情報抽出部180を備えてもよい。
第1UI部110は、ユーザとユーザ端末100との間のインターフェースを提供し、第1表示部111および第1操作パネル113を備えてもよい。
遠隔端末200から受信した映像データが信号処理されると、第1表示部111は信号処理された映像データを用いて映像を表示する。ユーザ端末100がタッチ方式のUIを提供する場合、第1表示部111にはタッチパネルのUIが表示されてもよい。ユーザ端末100がカメラを備える場合、第1表示部111にはカメラによって撮影された映像が表示されてもよい。
第1操作パネル113は、ユーザの命令が入力され、ボタン、方向キー、タッチパネルなどのさまざまなインターフェースを備えても良い。
第1DB部120は、第1DB管理部165によって管理され、ARサービスを提供するための第1ARデータがオブジェクトごとに格納されてもよい。第1DB部120は、複数の物理的なAR DB121,123を備えてもよく、各AR DB121,123はユーザ端末100内に備えられるか、またはユーザ端末100が用いる外部サーバ(図示せず)に備えられてもよい。
また、第1DB部120には、第1ARデータを用いて実際にユーザに表示される第1AR結果情報を格納してもよい。第1AR結果情報は、第1ARデータを表示する際に用いるフォント、文字サイズ、色情報など、ユーザに最終的に見せるために用いるすべての情報を含んでもよい。
第1通信部130は、遠隔端末200と有線または無線方式で通信し、第1受信部131、第2受信部133、第3受信部135、および第1送信部137を備えてもよい。第1受信部131、第2受信部133、第3受信部135、および第1送信部137は、物理的に1つの通信モジュールで実現してもよく、別々の通信モジュールで実現してもよい。
第1受信部131は、遠隔端末200から映像データを受信して第1映像処理部140に送信する。映像データは、動画データまたは静止画データであってもよい。映像データは、遠隔端末200で撮影して取得されたデータであってもよい。
第2受信部133は、遠隔端末200からオブジェクト認識情報(object recognition information)を受信して分析し、分析結果を第1オブジェクト認識部150に送信する。オブジェクト認識情報の分析結果は、遠隔端末200の座標情報、遠隔端末200のカメラのビュー情報(view information of a camera)を含んでもよい。
第3受信部135は、遠隔端末200から第2AR結果情報及びDB情報を受信し、第2AR結果情報を第1AR情報管理部(AR data managing unit)170に送信し、DB情報を第1DB管理部165に送信する。送信された第2AR結果情報は、ユーザ端末100の第1DB部120に格納された第1AR結果情報とともにユーザに提供され、第1AR結果情報の補足情報として用いられてもよい。DB情報は、第1DBリスト管理部160に記録された(recorded)DBリストの補足情報として用いられてもよい。
第1送信部137は、表示された映像に含まれる特定オブジェクト(specific object)に関する追加情報をリクエスト(request)するメッセージを遠隔端末200に送信してもよい。特定オブジェクトは、表示された映像内に含まれる。表示された映像は、第1受信部131を介して受信して表示される映像であってもよい。メッセージは、特定オブジェクトを識別できる情報と、特定オブジェクトが選択された理由に関する意図情報(intent information)とを含んでもよい。
第1〜第3受信部131,133,135は、上述した送信されたメッセージに応答する追加情報を遠隔端末200から受信してもよい。遠隔端末200は、意図情報を参照して追加情報を選別して送信してもよい。
第1映像処理部140は、第1受信部131から送信された映像データを表示可能な信号に処理し、信号処理された映像データを第1オブジェクト認識部150および第1表示部111に送信する。第1表示部111は、信号処理された映像データを用いて映像を表示する。そして、第1表示部111には、遠隔端末200から提供された映像が表示され、ユーザ端末100は結果的に遠隔端末200と映像を共有することになる。
第1オブジェクト認識部150は、第1映像処理部140から受信した映像データに含まれるオブジェクトを決定してもよい。第1オブジェクト認識部150は、映像データに輪郭検出アルゴリズム(contour detection algorithm)を適用してオブジェクトを決定してもよい。また、第1オブジェクト認識部150は、第2受信部133で分析されたオブジェクト認識情報を用いてオブジェクトを認識してもよい。このように認識されるオブジェクトは複数であってもよい。第1オブジェクト認識部150は、認識されたオブジェクトを第1オブジェクト情報抽出部180および第1DB管理部165に送信してもよい。
第1DBリスト管理部160は、第1DB部120に格納されたARデータ及びAR結果情報のソース情報(source information)を管理してもよい。すなわち、第1DBリスト管理部160は、第1DB部120のうち、ARデータ及びAR結果情報が格納されているDBの位置情報を含むDBリストを管理してもよい。
第1DB管理部165は、第1オブジェクト認識部150から受信されたオブジェクトの関連情報を格納するDBを検索(retrieve)してもよい。この関連情報は、ARデータまたはARデータを用いて実際に表示されるAR結果情報であってもよい。以下では、関連情報として第1ARデータを例に挙げて説明するが、これは一例であって、これに限定されるものではない。
第1DB管理部165は、DBリストを参照して前記オブジェクトの関連情報が格納されたDBの位置情報を、オブジェクトごとに特定(identify)してもよい。第1DB管理部165は、特定された位置情報に対応するDBを制御してオブジェクトに関連する第1ARデータを第1AR情報管理部170に送信する。
第1AR情報管理部170は、第1DB部120の当該DBに第1ARデータをリクエストしたり、または第1DB管理部165にリクエストしてもよい。
第1AR情報管理部170は、第1DB部120の当該DBから第1ARデータを受信し、受信した第1ARデータを用いて第1AR結果情報を生成してもよい。例えば、第1ARデータが、「A」商品の価格が「1$」という情報を含む場合、第1AR情報管理部170は「1$」のフォント、文字サイズ、文字色などを調整して第1AR結果情報を生成する。
第1AR情報管理部170は、生成された第1AR結果情報を第1表示部111に送信する。これにより、第1表示部111には、第1映像処理部140から受信された映像と、第1AR情報管理部170から受信された第1AR結果情報とを整合して共に(together)表示してもよい。
第1オブジェクト情報抽出部180は、第1オブジェクト認識部150から送信されたオブジェクトのうち特定オブジェクトが選択されると、選択された特定オブジェクトの情報と特定オブジェクトが選択された意図情報とを第1送信部137に送信する。第1オブジェクト情報抽出部180については後述する。
以下では、ユーザ端末100に格納された第1AR結果情報、遠隔端末200から提供される映像、及び第2AR結果情報を用いたARサービスを実現するプロセスについて説明する。
第1AR情報管理部170は、第3受信部135から受信される第2AR結果情報と第1DB部120に格納された第1AR結果情報とを比較して、第1AR結果情報が第2AR結果情報と同一であるかを判断する。第1AR結果情報と第2AR結果情報は、ユーザ端末100と遠隔端末200とで現在適用されているARサービスカテゴリーが異なる場合、第1AR結果情報と第2AR結果情報とが互いに異なることがある。例えば、ユーザ端末100に適用されたカテゴリーは、建築歴史に関するものであり、遠隔端末200に適用されたカテゴリーは建築美術に関するものであれば、第1AR結果情報と第2AR結果情報とは互いに異なることがある。
また、互いに適用されたカテゴリーが同一でも、例えば、ユーザ端末100と遠隔端末200とで格納されたARデータが異なる場合や、ARデータのアップデート時間の違いや、DB管理業者の違いなどによって、第1AR結果情報と第2AR結果情報とは互いに異なり得る。
第1AR結果情報と第2AR結果情報が異なる場合、第1AR情報管理部170は、第2AR結果情報を第1AR結果情報に追加して第1AR結果情報を補足し(supplement)、補足された第1AR結果情報を、第1表示部111に送信する。また、第1AR情報管理部170は、第1AR結果情報と第2AR結果情報が異なれば、第2AR結果情報を第1DB管理部165に送信する。
第1DB管理部165は、第1AR情報管理部170から送信された第2AR結果情報を第1DB部120に格納した後、第1ARデータの検索が可能となる。このとき、第1DB管理部165は、第2AR結果情報をオブジェクトの第1AR結果情報を格納するDBにアップデートしてもよい。第1DB管理部165は、第1ARデータを、オブジェクトを認識するために用いられるオブジェクトデータを格納する第1DB部120のDBから検索し、第1AR情報管理部170に第1ARデータを送信してもよい。また、第1DB管理部165は、第1AR情報管理部170から補足された第1AR結果情報を受信して、第1DB部120にアップデートしてもよい。
また、第1DB管理部165は、第3受信部135から受信したDB情報を第1DBリスト管理部160に格納されたDBリストに追加し、DBリストを補足してもよい。
以下では、ユーザ端末100が遠隔端末200に、特定オブジェクトに関する追加情報のフィードバックをリクエストするプロセス例について説明する。
上述したように、第1オブジェクト認識部150によって認識されたオブジェクトは、第1オブジェクト情報抽出部180に送信されてもよい。
第1オブジェクト情報抽出部180は、第1オブジェクト認識部150から送信されたオブジェクトのうち特定オブジェクトが選択されると、選択された特定オブジェクトの情報および特定オブジェクトが選択された意図情報を第1送信部137に送信する。
特定オブジェクトの情報は、例えば、表示された映像に含まれる特定オブジェクトの座標情報と、映像が遠隔端末200により取得された時間情報とを含んでもよい。特定オブジェクトは、ユーザが第1表示部111に表示されたオブジェクトのうち追加情報が必要であるために選択したオブジェクトであってもよく、また現在使用中のアプリケーションが自動的に選択したオブジェクトであってもよい。また、特定オブジェクトが選択された理由を含む意図情報は、例えば、第2AR結果情報のリクエスト、オブジェクト認識情報のリクエスト、およびARデータのリクエストする意図を含むものであってもよい。
第1送信部137は、特定オブジェクトに関する追加情報をリクエストするメッセージを遠隔端末200に送信してもよい。メッセージは特定オブジェクトを識別できる情報と、リクエストされた追加情報、特定オブジェクトが選択された理由を含む意図情報を含んでもよい。
第2および第3受信部133,135のうち少なくとも1つは、前記メッセージに応答する追加情報を遠隔端末200から受信してもよい。遠隔端末200は意図情報を参照して追加情報を選別した後にユーザ端末100に送信してもよい。
第1オブジェクト認識部150および第1AR情報管理部170のうちの少なくとも1つは、第2および第3受信部133,135のうちの少なくとも1つから送信される追加情報を受信し、追加情報をユーザに提供したり、第1DB部120に格納された情報をアップデートしてもよい。
図3は、図1に示した遠隔端末200を示すブロック図である。
図3を参照すると、遠隔端末200は、第2UI部210、第2DB部220、映像データ入力部230、第2映像処理部235、検出部240、第2オブジェクト認識部245、第2DBリスト管理部250、第2DB管理部255、第2AR情報管理部260、第2通信部270、および第2オブジェクト情報抽出部280を備えてもよい。
第2UI部210は、ユーザと遠隔端末200との間のインターフェースを提供し、第2表示部211および第2操作パネル213を備えてもよい。第2UI部210は、図2の第1UI部110と類似のものであるため、詳細な説明は省略する。
第2DB部220は、第2DB管理部255によって管理され、ARサービスを提供するための第2ARデータをオブジェクトごとに格納してもよい。第2DB部220は、複数の物理的DB221,223を備えてもよく、DB221,223の各々は遠隔端末200内に備えられるか、または遠隔端末200が用いる外部サーバ(図示せず)に備えられてもよい。
また、第2DB部220には、第2ARデータを用いて実際にユーザ端末100に表示される第2AR結果情報を格納されてもよい。
また、第2DB部220には、ユーザ端末100から第1DB部120に格納された第1ARデータ(オブジェクトに対応するARデータ)がさらに格納されてもよい。
映像データ入力部230は、外付けのカメラ(図示せず)によって取得される映像データを受信して第2映像処理部235に送信する。映像データ入力部230がカメラを備えていてもよい。
第2映像処理部235は、映像データを表示可能な信号に処理し、信号処理された映像データを第2表示部211および第2オブジェクト認識部245に送信する。第2表示部211は、映像データを用いて映像を表示する。
検出部240は、センサ(図示せず)を用いて検出される検出データを分析してオブジェクト認識情報を取得してもよい。検出部240は、オブジェクト認識情報を第2オブジェクト認識部245に送信する。
第2オブジェクト認識部245は、検出部240から受信したオブジェクト認識情報を用いて映像データに含まれるオブジェクトを認識してもよい。または、第2オブジェクト認識部245は、映像データに輪郭検出アルゴリズムを適用してオブジェクトを認識してもよい。認識されるオブジェクトは複数であってもよい。第2オブジェクト認識部245は、認識されたオブジェクトを検出部240および第2DB管理部255に送信してもよい。
また、第2オブジェクト認識部245は、ユーザ端末100から特定オブジェクトに関する追加情報をリクエストするメッセージが受信されると、メッセージを分析してリクエストされた追加情報が何であるかを把握する。なお、この詳細については、後述することとする。
第2DBリスト管理部250は、第2DB部22のうち第2ARデータが格納されているDBの位置情報を含むDBリストを管理する。
第2DB管理部255は、第2オブジェクト認識部245から受信したオブジェクトの関連情報を有するDBを検索してもよい。関連情報は、第2ARデータまたは第2ARデータを用いて実際に表示される第2AR結果情報であってもよい。第2DB管理部255は、DBリストを参照して前記オブジェクトの関連情報が格納されたDBの位置情報をオブジェクトごとに特定してもよい。第2DB管理部255は、特定された位置情報に対応する当該DBを制御してオブジェクトの第2ARデータが第2AR情報管理部260に提供されるようにしてもよい。
また、第2DB管理部255は、DBリストを参照して前記オブジェクトの関連情報が格納されたDBを検索し、検索されたDBの情報、すなわちDBのアドレス情報を第2通信部270に送信する。第2通信部270は、関連情報が格納されたDBのアドレス情報をユーザ端末100に送信する。
第2AR情報管理部260は、第2DB部220の対応するDBに直接第2ARデータをリクエストしたり、または第2DB管理部255に第2ARデータをリクエストしてもよい。
また、第2AR情報管理部260は、第2DB部220から第2ARデータを受信し、第2ARデータを用いて第2AR結果情報を生成してもよい。第2AR情報管理部260は、生成された第2AR結果情報を、第2表示部211および第2通信部270に送信する。これにより、第2表示部211には、第2映像処理部235から受信された映像と、第2AR情報管理部260から受信された第2AR結果情報とを整合させて共に表示することができる。また、第2AR結果情報は、第2通信部270を介してユーザ端末100に送信されてユーザ端末100に表示されてもよい。
第2通信部270は、ユーザ端末100と有線または無線方式で通信し、第2送信部271、第3送信部273、第4送信部275、および第4受信部277を備えてもよい。
第2送信部271は、映像データ入力部230から受信された映像データをユーザ端末100に送信する。
第3送信部273は、検出部240から入力されるオブジェクト認識情報をユーザ端末100に送信する。
第4送信部275は、第2DB管理部255から受信されたDB情報と、第2AR情報管理部260から受信された第2AR結果情報を、ユーザ端末100に送信する。
第4受信部275は、ユーザ端末100から特定オブジェクトに関する追加情報をリクエストするメッセージを受信して第2オブジェクト情報抽出部280に送信する。
第2送信部271、第3送信部273、および第4送信部275のうち少なくとも1つは、前記メッセージに対応する追加情報をユーザ端末100に送信してもよい。
第2オブジェクト情報抽出部280は、第4受信部277から受信したメッセージを分析して、特定オブジェクトの識別情報を把握する。特定オブジェクトは、第2送信部271によりユーザ端末100に送信され、ユーザ端末100に表示されている映像に存在する(exist)オブジェクトのうちの1つである。特定オブジェクトの識別情報は、特定オブジェクトのIDおよび特定オブジェクトの位置情報のうちの少なくとも1つを含んでもよい。特定オブジェクトの位置情報は、映像を基準として算出されてもよい。第2オブジェクト情報抽出部280は、抽出された特定オブジェクトの識別情報と前記メッセージを、第2オブジェクト認識部245に送信する。
リクエストされた追加情報がオブジェクト認識情報の送信である場合、第2オブジェクト認識部245は、検出部240に追加情報がリクエストされたことを通知する。検出部240は、オブジェクト認識情報を新しく取得したり、または最終取得したオブジェクト認識情報を第2通信部270に送信する。
また、リクエストされた追加情報は、第2ARデータおよびDB情報のうちの少なくともひとつであれば、第2オブジェクト認識部245は、把握した特定オブジェクトの識別情報を、第2DB管理部255に送信する。第2DB管理部255は、特定オブジェクトの識別情報に対応するDBを第2DBリスト管理部250から特定して、第2DB部220のDBから追加情報に対応するデータを読み出してもよい。
読み出された追加情報に対応する前記オブジェクト認識情報、第2ARデータおよびDB情報のうち少なくとも1つは、第2通信部270を介してユーザ端末100にフィードバックしてもよい。
図4は、本発明の一実施形態に係る、拡張現実サービスの共有方法を説明するためのフローチャートである。
図4のARサービスの共有方法のためのユーザ端末と遠隔端末は、図1および図2のユーザ端末100と遠隔端末200によって、またはプロセッサ(図示せず)によって動作してもよい。
ステップS400において、遠隔端末は、映像データを取得して表示する。映像データは遠隔端末のカメラの撮影によって取得されたり、または、遠隔端末内に格納されたデータであってもよい。
ステップS410において、ユーザ端末は、遠隔端末から遠隔端末に表示されている映像データを受信してもよい。
ステップS420において、ユーザ端末は、受信した映像データを映像として表示する。従って、ユーザ端末と遠隔端末は同一の映像を共有して表示することとなる。
ステップS430において、ユーザ端末は、遠隔端末からオブジェクト認識情報を受信する。オブジェクト認識情報は、表示された映像に存在するオブジェクトを認識するために必要な情報である。
ステップS440において、ユーザ端末は、オブジェクト認識情報を分析し、オブジェクトの認識に必要な情報を取得する。取得される情報は、遠隔端末のGPS情報、遠隔端末のカメラのビュー情報、ジャイロスコープの検出情報などを含んでもよい。
ステップS450において、ユーザ端末は、ステップS410で受信した映像データに含まれるオブジェクトを認識してもよい。第1オブジェクト認識部150は、映像データに輪郭検出アルゴリズムを適用してオブジェクトを認識してもよい。
ステップS460において、ユーザ端末は、第1DBリストを検索して認識されたオブジェクトのARデータである第1ARデータを格納しているDBを検索してもよい。
ステップS470において、ユーザ端末は、検索されたDBからオブジェクトの第1ARデータを検索してもよい。
ステップS480において、ユーザ端末は、検索された第1ARデータを用いて表示可能な形態の第1AR結果情報を生成し、第1AR結果情報と映像のオブジェクト(object of the image)とを整合させて表示してもよい。
図5は、本発明の他の実施形態に係る拡張現実サービスの共有方法を説明するためのフローチャートである。
図5に図示された共有方法は、ユーザ端末に格納されたAR結果情報と遠隔端末に格納されたAR結果情報とを用いてARサービスを実現するプロセスであり、ユーザ端末100と遠隔端末200とによって動作するものであってもよい。また、図5に図示された第1DBは、ユーザ端末100の第1DB部120であってもよく、第2DBは、遠隔端末200の第2DB部220であってもよい。
まず、遠隔端末及びユーザ端末は、図4を参照して説明したステップS400〜ステップS480を実行する。
ステップS500において、ユーザ端末は、遠隔端末から映像に存在するオブジェクトの第2AR結果情報を受信してもよい。
ステップS510において、ユーザ端末は、ステップS500で受信した第2AR結果情報とユーザ端末に格納された第1AR結果情報とを比較して第1AR結果情報と第2AR結果情報とが同一であるかを判断する。
互いに同一でなければ、ステップS520において、ユーザ端末は、第2AR結果情報を用いて第1AR結果情報を補足して表示する。
ステップS530において、ユーザ端末は、補足された第1AR結果情報を第1DB部に格納してもよい。
ステップS540において、ユーザ端末は、DBアドレス情報及び遠隔端末からオブジェクトと関連するDBアドレスを含むDB情報を受信してもよい。受信したDB情報またはDBアドレスは第1DB部のDBリストに追加されてもよい。
ステップS550において、ユーザ端末は、第2DB部にあるDBのうち、ステップS540において受信したDBアドレスに対応するDBに、第2ARデータをリクエストしてもよい。すなわち、ユーザ端末は認識されたオブジェクトに対応するARデータである第2ARデータをリクエストする。
ステップS560において、ユーザ端末は、遠隔端末から第3AR結果情報を受信する。ステップS560で受信される第2AR結果情報とステップS500で受信される第3AR結果情報とは、互いに異なるARデータによって生成される。
ステップS570において、ユーザ端末は、ステップS560で受信した第3AR結果情報を用いて第1AR結果情報を補足する。
ステップS580において、ユーザ端末は、ステップS570で補足された第1AR結果情報を第1DB部に格納する。
ステップS590において、ユーザ端末は、AR結果情報を表示する。AR結果情報は、ステップS570で補足された第1AR結果情報であってもよい。また、ステップS590において、ステップS500で受信した第2AR結果情報が第1結果情報と同一である場合、ユーザ端末は、第1AR結果情報を表示してもよい。
図6は、本発明の他の実施形態に係る拡張現実サービスの共有方法を説明するためのフローチャートである。
図6に図示された共有方法は、ユーザ端末が遠隔端末にARサービスのための追加情報のフィードバックをリクエストするプロセスに関し、ユーザ端末100と遠隔端末200によって動作されてもよい。
ステップS600の前に、遠隔端末とユーザ端末は、図4を参照して説明したステップS400〜ステップS450を実行することができる。
ステップS600において、ユーザ端末100は、表示された映像に存在するオブジェクトのうち特定オブジェクトを選択してもよい。特定オブジェクトは、ユーザによって選択されたり、または使用中のアプリケーションによって自動的に選択されてもよい。
ステップS610において、ユーザ端末は、遠隔端末に特定オブジェクトに関する追加情報をリクエストするメッセージを送信してもよい。メッセージは、特定オブジェクトを識別できる情報と、特定オブジェクトが選択された理由を含む意図情報とを含んでもよい。特定オブジェクトが選択された理由を含む意図情報は、例えば、第2AR結果情報のリクエスト、ARデータのリクエスト、及びオブジェクト認識情報のリクエストのうち少なくとも1つを含んでもよい。
意図情報が第2AR結果情報のリクエストを含む場合、ステップS620で、ユーザ端末は遠隔端末から第2AR結果情報のフィードバックを受信することができる。
意図情報がARデータのリクエストを含む場合、ステップS630で、ユーザ端末は、遠隔端末から第2ARデータのフィードバックを受信することができる。
意図情報がオブジェクト認識情報のリクエストを含む場合、ステップS640で、ユーザ端末は、遠隔端末からオブジェクトの認識のために用いられるオブジェクト認識情報のフィードバックを受信することができる。
また、上述した本発明の一実施形態は、以下に説明する状況でも適用することができる。
第1例として、音声・画像通信端末(audio−video communication terminal)を用いて第2ユーザと通信する第1ユーザは、第1ユーザが位置する空間ではない、第2ユーザが位置する遠隔地の空間(a distant space)上にエアタグ(air tagging)を提供することができる。
第2例として、音声・画像通信端末を用いて第2ユーザと音声・画像通信を行う第1ユーザが、現在位置する空間の映像を送ると、第2ユーザから第1ユーザが現在位置する空間の位置及び方向に関する情報の提供を受けることができる。例えば、第1ユーザと第2ユーザは、第1ユーザが位置する公園の映像を共有して、第2ユーザは第1ユーザに公園の道案内サービスを提供することができる。
第3例として、音声・画像通信端末を用いて第1ユーザが撮影中の映像を、第2ユーザが共有して見ているとき、第1ユーザは道案内ARサービス(navigation AR service)を実行し、第2ユーザは飲食店の案内ARサービスを実行してもよい。このとき、第2ユーザは、第1ユーザから道案内ARサービスを提供され、道案内情報によって第2ユーザの飲食店の案内ARサービスを補足してもよい。
第4例として、音声・画像通信端末を用いて第1ユーザが撮影中の映像を、第2ユーザが共有して見ているとき、第1ユーザは道案内ARサービスを実行し、第2ユーザは飲食店案内ARサービスを実行してもよく、このとき、第1ユーザは、映像内の飲食店をオブジェクトとして認識していないこともあるため、第2ユーザは自身が認識した飲食店のオブジェクトを第1ユーザの端末を指定して提供してもよい。
第5例として、音声・画像通信端末を用いて第1ユーザが撮影中の映像を、第2ユーザが共有して見ていて、同一のARサービスを実行しているとき、第1ユーザと第2ユーザの用いるARサーバが異なる、またはデータベースが異なるために、ARサービスが互いに異なることがある。このような場合、第1ユーザと第2ユーザとは、お互いのAR結果情報を共有してそれぞれのARサービスを補足してもよい。
このように、本発明の一実施形態によれば、ユーザ端末と遠隔端末とが通信によりARサービスを共有することにより、ユーザ端末と遠隔端末との双方向のARサービス(bi−directional AR service)を提供可能な、ARサービスを共有するためのユーザ端末、遠隔端末、及び方法を提供することができる。
また、本発明の一実施形態によれば、ユーザ端末が遠隔端末により撮影された映像を遠隔端末と共有し、遠隔端末からARサービスを受信し、受信された情報によりARサービスの内容を補足することにより、ユーザ端末のデータベースを更新することが可能な、ARサービスを共有するためのユーザ端末、遠隔端末、及び方法を提供することができる。
さらに、本発明の一実施形態によれば、ユーザ端末が表示された映像から所望のオブジェクトを選択し、選択したオブジェクトの情報を提供するように遠隔端末にリクエストし、遠隔端末から情報を受信することにより、ユーザ端末と遠隔端末との双方向のARサービスを提供可能な、ARサービスを共有するためのユーザ端末、遠隔端末、及び方法を提供することができる。
本発明の実施形態に係る方法は、多様なコンピュータ手段によって実行することのできるプログラム命令形態で実現され、コンピュータ読み出し可能媒体に記録されてもよい。前記記録媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせたものを含んでもよい。前記記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものであってもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。
上述したように本発明を限定された実施形態と図面によって説明したが、本発明は、上記実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
100:ユーザ端末
110:第1UI部
120:第1DB部
130:第1通信部
140:第1映像処理部
150:第1オブジェクト認識部
160:第1DBリスト管理部
165:第1DB管理部
170:第1AR情報管理部
180:第1オブジェクト情報抽出部

Claims (24)

  1. ユーザ端末の拡張現実サービスを共有する方法であって、
    遠隔端末から受信される映像を表示することと、
    前記表示された映像に含まれるオブジェクトを認識することと、
    第1データベースに格納された前記オブジェクトに対応する第1ARデータを用いて第1AR結果情報を生成することと、
    前記生成された第1AR結果情報と前記認識されたオブジェクトとを表示することと、を含むことを特徴とする拡張現実サービスの共有方法。
  2. 前記オブジェクトを認識することは、前記受信した映像データを分析して前記オブジェクトを認識することを特徴とする、請求項1に記載の拡張現実サービスの共有方法。
  3. 前記遠隔端末から前記オブジェクトを認識するのに必要なオブジェクト認識情報を受信することをさらに含み、
    前記認識することは、前記受信したオブジェクト認識情報を分析して前記オブジェクトを認識することを特徴とする、請求項1に記載の拡張現実サービスの共有方法。
  4. 第2AR結果情報を受信することと、
    前記受信した第2AR結果情報が前記第1AR結果情報と異なれば、前記第1AR結果情報に前記第2AR結果情報を追加して補足された第1AR結果情報を生成することと、
    前記補足された第1AR結果情報を表示することと、
    をさらに含むことを特徴とする、請求項1に記載の拡張現実サービスの共有方法。
  5. 前記補足された第1AR結果情報および前記補足された第1AR結果情報のARデータのうち少なくとも1つを前記第1データベースに格納することをさらに含むことを特徴とする、請求項4に記載の拡張現実サービスの共有方法。
  6. 前記遠隔端末から第2ARデータを格納している第2データベースのアドレス情報を受信することと、
    前記アドレス情報を参照して前記第2データベースにアクセスすることと、
    前記第2データベースに格納された前記第2ARデータを用いて生成される第3AR結果情報を受信することと、
    をさらに含むことを特徴とする、請求項4に記載の拡張現実サービスの共有方法。
  7. 前記第3AR結果情報または前記第3AR結果情報の前記第2ARデータのうち少なくとも1つを前記第1データベースに格納することと、
    前記受信した第2データベースのアドレス情報をデータベースリストに追加することと、
    をさらに含むことを特徴とする、請求項6に記載の拡張現実サービスの共有方法。
  8. 前記遠隔端末に前記認識されたオブジェクトに関する追加情報の提供をリクエストすることと、
    前記遠隔端末から前記認識されたオブジェクトに関する前記追加情報を受信することと、
    前記受信した追加情報を用いて、前記認識されたオブジェクトに関する前記第1AR結果情報を補足することと、
    を含むことを特徴とする、請求項1に記載の拡張現実サービスの共有方法。
  9. 前記追加情報は、前記認識されたオブジェクトのAR情報、前記認識されたオブジェクトを認識するのに必要なオブジェクト認識情報および前記認識されたオブジェクトのAR情報を格納するデータベースのアドレスのうち少なくとも1つを含むことを特徴とする、請求項8に記載の拡張現実サービスの共有方法。
  10. 遠隔端末から受信される映像を表示する表示部と、
    前記表示された映像に含まれるオブジェクトを認識するオブジェクト認識部と、
    第1データベースに格納された前記オブジェクトに対応する第1拡張現実データを用いて第1AR結果情報を生成するAR情報管理部と、
    を含み、
    前記生成された第1AR結果情報と前記認識されたオブジェクトは、前記表示部に表示されることを特徴とする、拡張現実サービスの共有のためのユーザ端末。
  11. 前記オブジェクト認識部は、前記受信した映像データを分析して前記オブジェクトを特定することを特徴とする、請求項10に記載の拡張現実サービスの共有のためのユーザ端末。
  12. 前記遠隔端末から前記オブジェクトを特定するのに必要なオブジェクト認識情報を受信する通信部をさらに備え、
    前記オブジェクト認識部は、前記受信したオブジェクト認識情報を分析して前記オブジェクトを特定することを特徴とする、請求項10に記載の拡張現実サービスの共有のためのユーザ端末。
  13. 前記遠隔端末から第2AR結果情報を受信する通信部をさらに備え、
    前記AR情報管理部は、前記受信した第2AR結果情報と前記第1AR結果情報が異なれば、前記第1AR結果情報に前記第2AR結果情報を追加して前記第1AR結果情報を補足し、前記補足された第1AR結果情報を前記表示部に表示することを特徴とする、請求項11に記載の拡張現実サービスの共有のためのユーザ端末。
  14. 前記補足された第1AR結果情報および前記補足された第1AR結果情報のARデータのうち少なくとも1つを前記第1データベースに格納するデータベース管理部をさらに備えることを特徴とする、請求項13に記載の拡張現実サービスの共有のためのユーザ端末。
  15. 前記通信部は、前記遠隔端末から第2ARデータを格納する第2データベースのアドレス情報をさらに受信し、前記受信したアドレス情報を参照して前記第2データベースにアクセスし、前記第2データベースに格納された前記第2ARデータを用いて生成される第3AR結果情報を受信し、
    前記データベース管理部は、前記第3AR結果情報を前記第1データベースに格納することを特徴とする、請求項14に記載の拡張現実サービスの共有のためのユーザ端末。
  16. 前記データベース管理部は、前記受信した第2データベースのアドレス情報をデータベースリストに追加することを特徴とする、請求項15に記載の拡張現実サービスの共有のためのユーザ端末。
  17. 前記遠隔端末に前記認識されたオブジェクトに関する追加情報の提供をリクエストするメッセージを送信して、前記遠隔端末から前記認識されたオブジェクトに関する前記追加情報を受信する通信部をさらに備え、
    前記AR情報管理部は、前記受信した追加情報を用いて、前記認識されたオブジェクトに対応する前記第1AR結果情報を補足することを特徴とする、請求項11に記載の拡張現実サービスの共有のためのユーザ端末。
  18. 前記追加情報は、前記認識されたオブジェクトのAR情報、前記認識されたオブジェクトを認識するのに必要なオブジェクト認識情報および前記認識されたオブジェクトのAR情報を格納するデータベースのアドレスのうち少なくとも1つを含むことを特徴とする、請求項17に記載の拡張現実サービスの共有のためのユーザ端末。
  19. ユーザ端末と遠隔端末とで拡張現実サービスを共有する方法において、
    前記遠隔端末に、映像および前記映像のオブジェクトに対応するAR結果情報を表示することと、
    前記ユーザ端末に、前記表示された映像および前記オブジェクトを認識するのに必要なオブジェクト認識情報を送信することと、
    を含むことを特徴とする、拡張現実サービスの共有方法。
  20. 前記オブジェクトに対応するARデータを用いてAR結果情報を生成することと、
    前記生成されたAR結果情報を前記ユーザ端末に送信することと、
    前記ユーザ端末に前記ARデータが格納されたデータベースのアドレスを送信することと、
    を含むことを特徴とする、請求項19に記載の拡張現実サービスの共有方法。
  21. ユーザ端末と拡張現実サービスを共有するための遠隔端末において、
    映像および前記映像のオブジェクトに対応するAR結果情報を表示する表示部と、
    前記ユーザ端末に、前記表示された映像および前記オブジェクトを認識するのに必要なオブジェクト認識情報を送信する通信部と、
    を備えることを特徴とする、拡張現実サービスの共有のための遠隔端末。
  22. 前記オブジェクトに対応するARデータを用いてAR結果情報を生成するAR情報管理部をさらに備え、
    前記通信部は、前記生成されたAR結果情報および前記ARデータが格納されたデータベースのアドレスを前記ユーザ端末に送信することを特徴とする、請求項21に記載の拡張現実サービスの共有のための遠隔端末。
  23. 拡張現実サービスを共有するためのシステムであって、
    前記システムは、
    ユーザ端末と、
    遠隔端末と、を含み、
    前記遠隔端末は映像を取得し、前記映像を前記ユーザ端末に送信し、
    前記ユーザ端末は、前記遠隔端末から前記映像を受信し、前記映像を分析してオブジェクトを決定し、前記オブジェクトに対応する第1AR結果情報を生成し、前記第1AR結果情報と前記映像とを表示部に表示することを特徴とする拡張現実サービスを共有するためのシステム。
  24. 前記遠隔端末は、さらに第2AR結果情報を生成し、
    前記ユーザ端末は、前記第2AR結果情報を受信し、前記第1結果情報と前記第2AR結果情報とが同一であるか否かを決定し、前記第1AR結果情報を前記第2AR結果情報で補足し、補足された第1AR結果情報を生成し、前記補足された第1AR結果情報を表示することを特徴とする請求項23に記載の拡張現実サービスを共有するためのシステム。
JP2011178323A 2010-08-18 2011-08-17 拡張現実サービスの共有方法並びに拡張現実サービスを共有するために用いるユーザ端末、遠隔端末及びシステム Active JP5284428B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100079906A KR101299910B1 (ko) 2010-08-18 2010-08-18 증강 현실 서비스의 공유 방법 및 그를 위한 사용자 단말기와 원격자 단말기
KR10-2010-0079906 2010-08-18

Publications (2)

Publication Number Publication Date
JP2012043435A true JP2012043435A (ja) 2012-03-01
JP5284428B2 JP5284428B2 (ja) 2013-09-11

Family

ID=44862418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011178323A Active JP5284428B2 (ja) 2010-08-18 2011-08-17 拡張現実サービスの共有方法並びに拡張現実サービスを共有するために用いるユーザ端末、遠隔端末及びシステム

Country Status (5)

Country Link
US (1) US20120046072A1 (ja)
EP (1) EP2420946A3 (ja)
JP (1) JP5284428B2 (ja)
KR (1) KR101299910B1 (ja)
CN (1) CN102436461A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114653A (ja) * 2011-12-01 2013-06-10 Canon Inc 情報処理装置、情報処理装置の制御方法、プログラム
JP2016014977A (ja) * 2014-07-01 2016-01-28 コニカミノルタ株式会社 拡張現実情報提供システム、拡張現実情報提供方法、及び、拡張現実情報提供プログラム
CN111815495A (zh) * 2020-06-09 2020-10-23 广东国地规划科技股份有限公司 基于混合现实的cim平台决策方法、系统、设备及存储介质

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US8493353B2 (en) * 2011-04-13 2013-07-23 Longsand Limited Methods and systems for generating and joining shared experience
JP5869145B2 (ja) * 2011-12-20 2016-02-24 インテル コーポレイション 記憶済みコンテンツのローカルセンサ増補及びar通信
US20130173428A1 (en) * 2011-12-29 2013-07-04 Martin Moser Augmenting product information on a client device
CN102801788B (zh) * 2012-07-17 2015-12-16 中兴通讯股份有限公司 一种实现增强现实信息共享的方法、装置和系统
KR20140061620A (ko) * 2012-11-13 2014-05-22 삼성전자주식회사 증강 현실을 활용한 소셜 네트워크 서비스 제공 시스템 및 방법과, 디바이스
US9367761B2 (en) * 2013-02-15 2016-06-14 Samsung Electronics Co., Ltd. Electronic device and object recognition method in electronic device
KR102209447B1 (ko) * 2013-02-15 2021-02-01 삼성전자주식회사 전자장치 및 전자장치의 객체인식방법
US20140278053A1 (en) * 2013-03-14 2014-09-18 Samsung Electronics Co., Ltd. Navigation system with dynamic update mechanism and method of operation thereof
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9524588B2 (en) 2014-01-24 2016-12-20 Avaya Inc. Enhanced communication between remote participants using augmented and virtual reality
WO2016053486A1 (en) 2014-09-30 2016-04-07 Pcms Holdings, Inc. Reputation sharing system using augmented reality systems
CN105930835B (zh) * 2016-04-13 2019-04-02 无锡东游华旅网络科技有限公司 增强型图像识别系统及方法
CN106250187A (zh) * 2016-07-29 2016-12-21 宇龙计算机通信科技(深圳)有限公司 一种增强现实ar的信息处理方法、装置及系统
WO2018112832A1 (zh) * 2016-12-22 2018-06-28 深圳大学 基于增强现实的物体偏离识别图后的处理方法及装置
KR102616220B1 (ko) * 2017-02-28 2023-12-20 매직 립, 인코포레이티드 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩
JP2019101783A (ja) * 2017-12-04 2019-06-24 キヤノン株式会社 情報処理装置及び方法
CN110166787B (zh) * 2018-07-05 2022-11-29 腾讯数码(天津)有限公司 增强现实数据传播方法、系统和存储介质
KR102221898B1 (ko) 2019-12-30 2021-03-03 주식회사 버넥트 가이드 도구 기반의 가상 객체 시각화 방법
KR102429216B1 (ko) * 2020-12-22 2022-08-05 엑스퍼트아이엔씨 주식회사 스마트 글라스를 이용하여 시각 장애인의 원격 지원 서비스를 제공하기 위한 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213673A (ja) * 2002-12-30 2004-07-29 Abb Res Ltd 強化現実システム及び方法
WO2004095374A1 (ja) * 2003-04-21 2004-11-04 Nec Corporation 映像オブジェクト認識装置および認識方法、映像アノテーション付与装置および付与方法ならびにプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100651508B1 (ko) * 2004-01-30 2006-11-29 삼성전자주식회사 증강현실을 이용한 지역 정보 제공 방법 및 이를 위한지역 정보 서비스 시스템
KR100718351B1 (ko) * 2005-09-28 2007-05-14 주식회사 팬택 동영상 파일의 요약 재생 시스템 및 이를 탑재한 이동통신단말기
KR100918392B1 (ko) * 2006-12-05 2009-09-24 한국전자통신연구원 3d 컨텐츠 저작을 위한 개인형 멀티미디어 스튜디오플랫폼 장치 및 방법
KR101285360B1 (ko) * 2007-01-25 2013-07-11 삼성전자주식회사 증강현실을 이용한 관심 지점 표시 장치 및 방법
FR2912318B1 (fr) * 2007-02-13 2016-12-30 Parrot Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes
EP2045774B1 (en) * 2007-10-05 2016-05-04 Sony Computer Entertainment Europe Ltd. Homography estimation from multithreshold edges of a feature
KR100911376B1 (ko) * 2007-11-08 2009-08-10 한국전자통신연구원 투명 디스플레이를 이용한 증강 현실 구현 방법 및 장치
US20090237546A1 (en) * 2008-03-24 2009-09-24 Sony Ericsson Mobile Communications Ab Mobile Device with Image Recognition Processing Capability
US20100009713A1 (en) * 2008-07-14 2010-01-14 Carl Johan Freer Logo recognition for mobile augmented reality environment
KR101037011B1 (ko) 2008-12-31 2011-05-26 엘에스산전 주식회사 배전반의 고장 표시 리셋 회로
US9424583B2 (en) * 2009-10-15 2016-08-23 Empire Technology Development Llc Differential trials in augmented reality

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213673A (ja) * 2002-12-30 2004-07-29 Abb Res Ltd 強化現実システム及び方法
WO2004095374A1 (ja) * 2003-04-21 2004-11-04 Nec Corporation 映像オブジェクト認識装置および認識方法、映像アノテーション付与装置および付与方法ならびにプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200100043011; 有川正俊,村尾真洋,岡村耕二: '遠隔定点観測カメラを用いた拡張/減少ライブビデオ応用の開発・実験' 映像情報メディア学会技術報告 第23巻,第14号, 19990222, p.77-84, 社団法人映像情報メディア学会 *
JPN6012044329; 有川正俊,村尾真洋,岡村耕二: '遠隔定点観測カメラを用いた拡張/減少ライブビデオ応用の開発・実験' 映像情報メディア学会技術報告 第23巻,第14号, 19990222, p.77-84, 社団法人映像情報メディア学会 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114653A (ja) * 2011-12-01 2013-06-10 Canon Inc 情報処理装置、情報処理装置の制御方法、プログラム
JP2016014977A (ja) * 2014-07-01 2016-01-28 コニカミノルタ株式会社 拡張現実情報提供システム、拡張現実情報提供方法、及び、拡張現実情報提供プログラム
CN111815495A (zh) * 2020-06-09 2020-10-23 广东国地规划科技股份有限公司 基于混合现实的cim平台决策方法、系统、设备及存储介质
CN111815495B (zh) * 2020-06-09 2022-02-22 广东国地规划科技股份有限公司 基于混合现实的cim平台决策方法、系统、设备及存储介质

Also Published As

Publication number Publication date
KR101299910B1 (ko) 2013-08-23
CN102436461A (zh) 2012-05-02
EP2420946A3 (en) 2013-07-31
EP2420946A2 (en) 2012-02-22
US20120046072A1 (en) 2012-02-23
KR20120017297A (ko) 2012-02-28
JP5284428B2 (ja) 2013-09-11

Similar Documents

Publication Publication Date Title
JP5284428B2 (ja) 拡張現実サービスの共有方法並びに拡張現実サービスを共有するために用いるユーザ端末、遠隔端末及びシステム
US9355496B2 (en) Image processing apparatus, image processing method, and medium to display augmented reality objects
JP5468585B2 (ja) オブジェクト間の関連性を利用した拡張現実提供装置及び方法
US20190333478A1 (en) Adaptive fiducials for image match recognition and tracking
US10264207B2 (en) Method and system for creating virtual message onto a moving object and searching the same
US20190012717A1 (en) Appratus and method of providing online sales information of offline product in augmented reality
US20150020014A1 (en) Information processing apparatus, information processing method, and program
US11762931B2 (en) Feedback method and apparatus based on online document comment, and non-transitory computer-readable storage medium
US9294426B2 (en) Inner-circle social sourcing
KR20180050636A (ko) 검색 서비스와 연결된 메시지 서비스를 위한 메시지 서비스 제공 방법 및 상기 메시지 서비스 제공 방법을 수행하는 메시지 서버 및 사용자 단말
JP2019101957A (ja) 指定受付システム、検索システム、検索端末、指定受付プログラム、検索プログラムおよび検索端末制御プログラム
TWI617931B (zh) 適地性空間物件遠距管理方法與系統
US11394757B2 (en) Communication terminal, communication system, and method of sharing data
TWI795762B (zh) 用於在現實場景中疊加直播人物影像的方法和電子設備
US10887195B2 (en) Computer system, remote control notification method and program
US10606886B2 (en) Method and system for remote management of virtual message for a moving object
US20170026617A1 (en) Method and apparatus for real-time video interaction by transmitting and displaying user interface correpsonding to user input
TW201837794A (zh) 適地性空間物件可視範圍管理方法與系統
KR101973653B1 (ko) 증강 현실 기반 콘텐츠 제공 시스템과 그 방법
KR20130123629A (ko) 파노라마 동영상을 이용하여 원하는 시선방향의 동영상 및 관심지점 정보를 제공하는 방법
KR102420376B1 (ko) 고도별 드론데이터 활용 및 특정 고도에서 체험할수 있는 증강현실 서비스 제공 방법
US20150169568A1 (en) Method and apparatus for enabling digital memory walls
US20170213162A1 (en) System and method for providing a real time virtual travel service
KR20120011279A (ko) 사용자 인식 정보를 이용한 증강 현실 제공 장치 및 방법
JP2023134920A (ja) システム、方法、端末、方法及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20121024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130529

R150 Certificate of patent or registration of utility model

Ref document number: 5284428

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250