JP2018106696A - 移動オブジェクトの仮想情報構築方法、移動オブジェクトの仮想情報検索方法及びアプリケーションシステム - Google Patents

移動オブジェクトの仮想情報構築方法、移動オブジェクトの仮想情報検索方法及びアプリケーションシステム Download PDF

Info

Publication number
JP2018106696A
JP2018106696A JP2017218043A JP2017218043A JP2018106696A JP 2018106696 A JP2018106696 A JP 2018106696A JP 2017218043 A JP2017218043 A JP 2017218043A JP 2017218043 A JP2017218043 A JP 2017218043A JP 2018106696 A JP2018106696 A JP 2018106696A
Authority
JP
Japan
Prior art keywords
information
virtual information
moving object
virtual
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017218043A
Other languages
English (en)
Inventor
雨暹 李
Wu-Seum Yi
雨暹 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Li Yu Hsien
Original Assignee
Li Yu Hsien
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Li Yu Hsien filed Critical Li Yu Hsien
Publication of JP2018106696A publication Critical patent/JP2018106696A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】移動オブジェクトの仮想情報構築方法、移動オブジェクトの仮想情報検索方法及びアプリケーションシステムを提供する。【解決手段】データ構築モードにおいて、ユーザは、モバイル機器を操作して仮想情報を選定する。次いで、モバイル機器を使用して移動オブジェクトを撮影することで、当該移動オブジェクトの画像信号を取得する。その後、移動オブジェクトにおける仮想情報の位置を設定する。この時、システムは仮想情報を取得して、移動オブジェクトが生成した画像情報を解析すると共に、当該仮想情報を表示する可視範囲を設定する。この方法において、移動オブジェクトの画像情報を仮想情報を測位する測位情報とする。検索モードにおいては、システムは、移動オブジェクトの画像情報に基づいて、モバイル機器の位置が可視範囲内にあるか否かを比較することで、移動オブジェクトにおける仮想情報を検索する。【選択図】図8

Description

本発明は、空間における仮想情報の構築方法、検索方法及びシステムに関し、特に移動オブジェクト上にユーザがモバイル機器によって検索して表示させることができる仮想情報を構築する、移動オブジェクトの仮想情報構築方法及び移動オブジェクトの仮想情報検索方法、並びにこれらの方法を実現するアプリケーションシステムに関する。
従来技術において、ユーザは、モバイル機器を操作して、特定のソフトウェアプログラムを実行して、モバイル機器内部のカメラモジュールを起動することができる。ユーザは、モバイル機器に実景が表示されている状況において、拡張現実(augmented reality)技術を組み合わせて使用することにより、当該実景の前に特定の画像オブジェクトを表示させることができる。
従来技術において、モバイル機器を用いて拡張現実画像を表示する技術では、往々にして、ある情景内のマーカー(marker)を識別することによってある画像オブジェクトを制御することができるようソフトウェアプログラムを設定する。その場合、マーカー及び当該画像オブジェクトの関連付けが既にソフトウェアプログラムにプリセットされている。
他の方式においては、モバイル機器の位置に基づいて、モバイル機器内のソフトウェアプログラムがある位置に対応する画像オブジェクトを生成し、モバイル機器にある位置範囲に対応する画像を表示するよう、当該ソフトウェアプラグラムを制御する。その場合、全地球測位システムが生成した全地球測位信号、又は方位角(azimuth angle)が組み合わされた信号が、あるサーバに接続して特定の画像オブジェクトを生成するようソフトウェアプログラムを制御する根拠となる。
従来、拡張現実を用いて又は場所に基づいて画像を表示する技術は、体験又は娯楽の用途に用いられることが多い。
本発明は、移動オブジェクトの仮想情報構築方法、移動オブジェクトの仮想情報検索方法及びアプリケーションシステムを提供することを課題とする。アプリケーションシステムによって、ユーザは、モバイル機器を操作してソフトウェアプログラムをダウンロードし、当該ソフトウェアプログラムを実行することで、データ構築モード又は検索モードにすることを選択することができる。データ構築モードにおいて、システムによって、ユーザは前記ソフトウェアプログラムを実行する各モバイル機器を介して特定の移動オブジェクト上に仮想情報を構築することができる。従って、システム側において1つの移動オブジェクト、可視範囲及び仮想情報に対応する検索エンジンを構築することができる。検索モードにおいて、ユーザは依然としてモバイル機器を操作し、システム側のサーバがモバイル機器の位置情報を取得した後、移動オブジェクトの画像情報と組み合わせて、対応する仮想情報を検索することができ、仮想情報を検索及び表示する目的を達成する。
1つの実施例において、本発明に係る移動オブジェクトの仮想情報構築方法は、データ構築モードにおいて、モバイル機器内において作動するソフトウェアプログラムによりモバイル機器が選定した仮想情報を取得すると共に、選定した移動オブジェクトの画像信号を受信して、仮想情報に対応する測位情報を生成する。測位情報は、移動オブジェクトの画像信号である。次いで、前記仮想情報のデータ及び仮想情報に対応する測位情報をサーバにアップロードすると共に、可視範囲を設定して、仮想情報を検索するためのデータベースを構築する。仮想情報は、文字、画像、映像及び音声のいずれか又はそれらの組み合わせである。
1つの実施例において、仮想情報に対応する測位情報は、主として仮想情報を配置する移動オブジェクトの画像情報である。移動オブジェクトの画像情報は、画像処理によって生成された色彩領域情報及び線情報を含む。その後、仮想情報の可視範囲を設定してモバイル機器の位置情報を確認し、画像情報と共に仮想情報を測位する根拠とする。
他の実施例において、移動オブジェクトの仮想情報検索方法は、検索モードにおいて、モバイル機器内において作動するソフトウェアプログラムが、モバイル機器が取得した移動オブジェクトの画像信号を受信すると共に、演算して画像情報を取得する工程を含む。同時に、モバイル機器は、当該移動オブジェクトと関連する位置情報を生成する。位置情報は、主として地上位置情報であり、両者の距離を含めてもよい。仮想情報に関する測位情報は、位置情報及び画像情報を含む。次いで、前記測位情報を遠隔管理システムが提供するサーバにアップロードして、サーバにおける演算プロセスによって内部のデータベースと比較した後、検索条件に合致し且つ前記測位情報に対応する検索結果を受信し、検索結果が示された仮想情報を表示することができる。
比較によって測位情報に対応する仮想情報が生成され、モバイル機器において上述した移動オブジェクトを直接表示することができる場合、同時に移動オブジェクトに関連する位置に重ね合わせられた仮想情報を表示して、当該移動オブジェクトに関する仮想情報を検索する目的を達成する。
1つの実施例において、アプリケーションシステムは、クラウドに設けられたサーバ及びデータベースを含むと共に、モバイル機器のコンピュータ読み取り可能媒体に格納されたプログラム集合体を含む。プログラム集合体は、プロセッサによって実行されることで上述した移動オブジェクトの仮想情報の構築及び検索のプロセスを実行することができる。
プログラム集合体は、移動オブジェクトの画像を取得すると共にモバイル機器に表示するための画像取込命令と、モバイル機器において構築された移動オブジェクトに関連する位置の仮想情報を処理し、サーバに送信する仮想情報のデータを形成する仮想情報処理命令と、モバイル機器の地上測位ユニットが生成した位置情報を取得するための位置情報生成命令と、移動オブジェクトの画像を処理して仮想情報の配置位置に対応する画像情報を生成するための画像情報生成命令と、モバイル機器が検索モードにおいて生成した位置情報及び画像情報を取得すると共に、位置情報及び画像情報をサーバに送信し、サーバが生成した、検索条件に合致する検索結果を受信するための検索処理命令と、モバイル機器とサーバとの間の接続を構築し、信号を送受信するためのデータ送受信命令と、検索結果に基づいて仮想情報を表示するための仮想情報表示命令と、を含む。
本発明に係る移動オブジェクトの仮想情報の構築方法、空間オブジェクト検索方法及びアプリケーションシステムにおいて、システムの枠組みにおいて、複数のユーザが異なる又は同じ移動オブジェクトにアップロードした仮想情報に基づいて、検索サービスを提供するデータベースを構築することができる。検索サービスを提供するにあたって根拠となる測位情報は、主として移動オブジェクトの画像情報である。ユーザが移動オブジェクトにおける仮想情報を検索しようとする場合、サーバは同様にモバイル機器からアップロードされた画像情報及びモバイル機器の位置情報に基づいて仮想情報を検索し、移動オブジェクトにおいて仮想情報を検索及び表示する目的を達成する。
ユーザがモバイル機器を操作して移動オブジェクトに仮想情報を構築する状況を示す図である。 ユーザがモバイル機器を操作して移動オブジェクトに仮想情報を構築する状況を示す図である。 位置情報の取得を示す図である。 仮想情報の背景画像情報の取得を示す図である。 本発明に係る移動オブジェクトの仮想情報の構築及び検索システムを実現するネットワークフレームの実施例を示す図である。 本発明に係るアプリケーションシステムにおける端末モバイル機器のソフトウェアモジュールの実施例を示す図である。 本発明に係るシステムにおけるサーバの機能モジュールの実施例を示す図である。 本発明に係る移動オブジェクトの仮想情報構築方法の実施例のフロー(1)である。 本発明に係る移動オブジェクトの仮想情報構築方法の実施例のフロー(2)である。 本発明に係る移動オブジェクトの仮想情報検索方法の実施例のフローである。 本発明に係る移動オブジェクトの仮想情報を表示した場合の状況を示す図である。 本発明に係る移動オブジェクトの仮想情報を表示した場合の状況を示す図である。 アプリケーションシステムによって端末モバイル機器に検索結果を表示する実施例を示す図(1)である。 アプリケーションシステムによって端末モバイル機器に検索結果を表示する実施例を示す図(2)である。
本発明が所定の目的を達成するために採用した技術、方法及び効果を更に理解することができるように、以下、図面を用いながら詳しく説明する。当業者は、本明細書及び図面の内容に基づいて、本発明の目的、特徴を具体的に理解することができる。但し、図面は、説明の便宜上、参考のために用いるものに過ぎず、本発明を制限するものではない。
本発明は、移動オブジェクトの仮想情報の構築方法及び検索方法、並びにアプリケーションシステムを提供する。アプリケーションシステムは、クラウドシステムと、モバイル機器のコンピュータ読み取り可能媒体に格納されたソフトウェアプログラムとを含む。クラウドシステムには、サーバ及びデータベースが設けられている。クラウドシステムは、ユーザ管理インターフェースを提供することで、ユーザがモバイル機器を用いて位置情報及び撮影された移動オブジェクトに関する画像情報をアップロードすることができるようにする。これによって、アプリケーションシステムは、各ユーザがアップロードした移動オブジェクトに関連する仮想情報のデータを格納しており、検索サービスを提供するデータベースを形成して、検索エンジンを構築している。そのため、ユーザに対し、撮影した移動オブジェクトに関する仮想情報を提供することができる。
以下、具体的な状況を示す図を用いながら、ユーザがモバイル機器を操作して移動オブジェクトにおいて仮想情報を構築する方法を説明する。
図1Aは、ユーザがモバイル機器10を操作する状況を示す。モバイル機器10は、実景画像を取得すること、位置情報を生成することができると共に演算能力を有する任意の携帯型装置であり、例えばスマートフォン、タブレットPC及びスマートグラス等である。
スタート時に、ユーザは、モバイル機器10を操作して、アプリケーションシステムによって提供されるソフトウェアプログラム、例えばスマートデバイス内のAPPをダウンロードしてインストールする。ユーザは、当該ソフトウェアプログラムを実行した後、データ構築モードにすることができる。そして、データ構築モードにおいて、モバイル機器10のカメラモジュールを起動し、モバイル機器10を操作して、仮想情報103を注記しようとする移動オブジェクト101の方に向けて撮影することができる。本実施例において、移動オブジェクト101は人物であるが、移動オブジェクト101は車両又は航空機等であってもよい。移動オブジェクト101に仮想情報103を注記する際、ユーザは、先ずモバイル機器10の表示画面を介してこれら移動オブジェクト101を見た後、拡張現実(Augmented Reality、AR)といった技術によって、モバイル機器10のタッチディスプレイ、又はスマートグラスのエアジェスチャー(air gesture)等その他の入力方式を利用して、移動オブジェクト101のある部位に1つの情報を追加する。当該情報は、文字、画像、映像、音声等の情報である。
本実施例において、移動オブジェクト101は人物であり、人物の衣装が識別マーカーとなる場合、ユーザは、仮想情報103を例えば広告を配置するように当該人物の身体又はその付近に配置しようとする。本実施例において、ユーザは、モバイル機器10を移動オブジェクト101の方に向けて、表示された移動オブジェクト101に仮想情報103を注記する。仮想情報103は、広告内容、ディスカウントプラン、又は特定の個人又は特定のグループを対象とした情報であってよい。
その後、ユーザが移動オブジェクト101のある位置に注記した仮想情報103を確認した後、モバイル機器10内のソフトウェアプログラムによって、仮想情報103の生成に対応する背景の移動オブジェクト101の画像情報をアプリケーションシステムのサーバ(例えばアプリケーションシステムあるサーバホスト)に送信する。上述した移動オブジェクト101の画像情報は色彩領域及び線を含み、仮想情報103を測位する際の根拠となる。仮想情報103の内容は、文字、画像、映像又は音声、又はそれらの組み合わせであってよい。サーバにアップロードされる情報は、仮想情報103を構築した時点のモバイル機器10の地上位置情報、又は空間角度情報を更に含む。地上位置情報は、モバイル機器10内の全地球測位システムが検知した位置であり、空間角度情報は、ジャイロスコープが検知したモバイル機器10の方位角(azimuth angle)及び仰角(elevation angle)との組み合わせである。モバイル機器10の現在の位置情報からは、仮想情報103を見ることができる1つの可視範囲が派生する。
本実施例において、検索モードにおいて、移動オブジェクト101の画像情報は、仮想情報103が配置された身体上の衣装、模様を構成する色彩領域、及び色彩領域の間の線である。従って、モバイル機器10の位置情報並びに移動オブジェクト101の色彩領域情報及び線情報は、仮想情報103のパラメータを構成し、アプリケーションシステムにおけるクラウドサーバに併せて記憶される。ユーザが操作モバイル機器10を操作して以上のパラメータを生成すると、クラウドサーバは、それらを比較することで仮想情報103を取得すると共に表示させることができる。仮想情報103が配置される位置は、移動オブジェクト101の画像情報によって決定される。一般的な作動において、クラウドサーバは、仮想情報103を得るために少なくとも地上位置情報及び画像情報(色彩領域、線)を比較する必要がある。クラウドサーバは、最終的にモバイル機器10に送信する検索結果を生成する。
以上の仮想情報103の可視範囲の設定に係るパラメータの1つはモバイル機器10を操作するユーザと移動オブジェクト101との間の距離である。モバイル機器10と移動オブジェクト101との距離を取得する1つの方法としては、モバイル機器10における接近センサによって、又は画像情報によって、距離を判断する。他の方法としては、移動オブジェクト101の測位情報及びユーザの位置情報に基づいて演算して両者の間の距離を得る。例えば、移動オブジェクト101はアプリケーションシステムにおいてID登録している別の人物である。モバイル機器を持っているユーザが移動オブジェクト101において仮想情報を構築するときは、アプリケーションシステムは、仮想情報をアップロードしたユーザのID情報と、移動オブジェクト101のID情報とを同時に取得することができる。従って、システムは、移動オブジェクト101の位置に基づいてユーザが可視範囲内にいるかどうかを判断することができる。即ち、移動オブジェクト101とユーザとの間の距離は、演算して得ることのできるパラメータであり、システムが仮想情報103を見ることができるかどうかを判断する根拠となる。
1つの実施例において、移動オブジェクト101は図に示すような人物である場合、上述した移動オブジェクト101の色彩領域情報及び線情報によって測位する方式以外に、人の顔も当該人物を認識するための重要な情報の1つであり、システムに登録される顔認識情報となる。データ構築モードにおいて、ユーザがある情報(例えば仮想情報103)をある人物(例えば移動オブジェクト101)の身体のある位置に設定した場合、モバイル機器10を用いて顔を撮影すると、顔はソフトウェアプログラムにおいて演算して解析され、画像情報として生成されると共に、同様にアプリケーションシステムのサーバに送信されて情報が登録される。顔識別情報は、他のユーザが検索モードで仮想情報103を取得する際の参考の一つの例となる。
上述した移動オブジェクトの色彩領域情報、線情報、又は直接顔の識別に用いる画像情報等は、サーバに提供され、認識を実行することで特定の仮想情報に対応する移動オブジェクトが得られる。1つの実施例において、サーバにおいて、人工知能(Artificial Intelligence)の深層学習(Deep Learning)の画像認識プロセスによって、モバイル機器10から送信された移動オブジェクトの画像情報を処理して、サーバにおける演算プロセスによって移動オブジェクトを識別することができる。
更に、ユーザがモバイル機器10によって仮想情報103を表示した場合、ユーザは、ソフトウェアプログラムが提供するインターフェース(例えばリンク画像であり、また、仮想情報103は表示されるとリンクボタンにもなる)を介して引き続き仮想情報103に関するより多くの情報を得ることができる。これらの情報は、システムが提供するものであってもよく、仮想情報を構築した際に加えられた情報であってもよい。例えば、仮想情報が広告内容である場合、クリックすると、ある製品の紹介、店の交通情報、又は販促及びディスカウントイベント等を得ることができる。また、仮想情報がプライベート情報である場合、特定のユーザ又はあるグループ内のユーザでなければ検索して得ることができないようにする。
図1Bは、移動オブジェクトの仮想情報を構築する他の状況を示す図である。本実施例において、ユーザは、モバイル機器10を操作してソフトウェアプログラムを起動し、データ構築モードにおいて、カメラモジュールを起動し、移動オブジェクト102(本実施例では車)の方向に向け、移動オブジェクト102のある位置に精確に合わせることで、拡張現実の技術によって仮想情報105を重ね合わせることができる。本実施例において、仮想情報105は画像情報であり、ある広告マーケティングの内容を伝達することができる。仮想情報105は、ある製品を紹介する文字、ビデオ内容、画像等であってもよい。その後、仮想情報105のデータをアップロードする以外に、注記した仮想情報105に関連する位置の画像情報がシステムのサーバに送信される。本実施例において、移動オブジェクト102の画像情報としては、例えば仮想情報105の背景としての車両の塗装を構成する色彩領域情報及び色彩領域の間に形成された線情報が挙げられる。仮想情報105を構築すると、モバイル機器10の位置情報は、この仮想情報105を検索することができる根拠にもなる。但しこれは補助的な情報であり、実際に実施する場合は省略することができる。
例えば、移動オブジェクト102が室内に位置しており、衛星が測位した情報を取得することができない場合、室内の各種無線信号を利用して測位を補助することができる外、アプリケーションシステムは、モバイル機器10がアップロードした画像情報のみに基づいて対応する仮想情報105を判断することが可能であり、モバイル機器10の位置情報を取得することができない状況によって制限されない。
更に、仮想情報105を構築する際に、ユーザは、仮想情報105により多くの機能を与えることができる。例えば、URL等のリンクを構築して、他のユーザが仮想情報105を検索して得た際に、例えば他のウェブページへのリンク等の更なる情報を得ることができるようにする。ユーザに対し、よりインタラクティブなサービス(例えばビデオ通信、チャット、売買取引のインターフェースなどのサービス)を提供することができる。
本発明において、主としてモバイル機器が生成した地上位置情報を取得する以外に、空間角度情報を採用することもできる。例えば、移動オブジェクトが一定の高さを有する場合、仮想情報が移動オブジェクト上のある高さの部分に配置されたとき、仮想情報の可視範囲は、空間角度を含むことができる。図2Aを用いて空間角度情報の取得について説明する。空間座標系は、方位角(Azimuthal angle)φ及び仰角(vertical angle)θによって位置が定められる。本発明におけるモバイル機器20に空間座標系を適用して、中央の原点にユーザが所持するモバイル機器20を配し、水平方向は東西南北の方位座標を示す。基準軸(本実施例では北向きの軸)に基づいて、モバイル機器20の向き(例えばモバイル機器20の背面のレンズが指す方向A)を取得することができる。方向Aは、方位角φ及び垂直方向の仰角θを形成する。方位角φ及び仰角θは、モバイル機器20内の空間測位ユニットによって決定することができる。両者の組み合わせが方向Aの空間角度情報を形成する。測位衛星201によってモバイル機器20内において形成された水平位置情報を組み合わせることで、モバイル機器20が指す位置及び方向を適切に測位することができる。モバイル機器20が指す位置及び方向の空間情報は、アプリケーションシステムのサーバに提供され、サーバにおける演算プロセスによってモバイル機器20に表示される仮想情報が比較判断される。
図2Bは、仮想情報の背景の画像情報の取得を示す図である。図2Bに示すように、破線で表示した仮想情報203は、背景画像205に位置している。背景画像205は本発明にいう移動オブジェクトである。仮想情報203を構築する際、サーバは、ユーザ側のモバイル機器から、仮想情報203のデータ、ユーザ側のモバイル機器が所在する地上位置情報、又は空間角度情報、並びに背景画像205を含む画像情報を取得することができる。これら空間情報によって、仮想情報203を測位するパラメータが形成される。更に、ユーザが仮想情報203を構築する場合、より多くの情報を注記してリンクを構築することができる。これにより、その後ユーザが検索によって仮想情報203を得た場合、他のウェブページ又は商品売買のインターフェースへのリンクを介してより多くのインタラクティブサービスを提供することができる。
本実施例において、背景画像205の画像情報には、画像に前処理を施すことで形成される色彩領域情報及び線情報が含まれる。1つの実施例において、画像の前処理は、モバイル機器においてソフトウェアプログラムが演算を実行することができ、クラウドサーバが演算を実行することもできる。画像の色彩領域の間には縁の線が形成され、線の間が色彩領域である。前記線及び色彩領域は、いずれも仮想情報の所在位置を識別するパラメータとなる。
前処理においては、先ず背景画像205における線(図に示す線221、222、223、224、225、226)を識別し、線の間を領域と認識して、領域(211、212、213、214、215、216、217)における画像画素の平均値を計算することで、対応する色彩領域情報を形成する。他の実施例において、各領域(211、212、213、214、215、216、217)における画像画素に対して正規化演算(normalization)を実行して、各領域の特徴値を計算することで、得られた特徴値を当該領域の色彩領域情報とすることができる。画像の前処理方法は、以上に列記した方法に限定されない。また、画像が所在する色空間も特定の色空間に限定されず、RGB(赤、緑、青)、HSV(色相(Hue)、彩度(Saturation)、輝度(Value))、CMYK(シアン(Cyan)、マゼンタ(Magenta)、イエロー(Yellow)、ブラック)等であってよい。
画像を処理した後、上述した背景画像205における線221、222、223、224、225、226の情報を得る。線情報は、表示される仮想情報203の根拠となり、画像処理を経た後、仮想情報203を確実に例えば移動オブジェクトのある部位等の平面上に表示させることができる。
図3は、本発明に係る移動オブジェクトの仮想情報の構築及び検索のネットワークフレームの実施例を示す図である。
移動オブジェクトの仮想情報の構築及び検索サービスは、ネットワーク上に構築される。本実施例において、システム側にはサーバ301及びデータベース302が設けられており、クラウドシステムが形成される。データベース302には、仮想情報及び対応する測位情報が格納される。対応する測位情報は、主として仮想情報を配置する移動オブジェクトの画像情報であり、アプリケーションシステムが自ら作成したデータを更に含んでもよい。データベース302は、仮想情報を検索するデータの出所である。1つの実施例において、データベース302は、仮想情報のデータを格納する仮想情報データベースと、仮想情報の測位情報及び各仮想情報に対応する検索条件を格納する検索データベースとを含む。
サーバ301は、主としてユーザ側モバイル機器によって送信された信号(例えば仮想情報を検索するパラメータ)を処理すると共に、データベース302内のデータ比較を行って、検索結果を提供する。アプリケーションシステムは、ネットワーク30を介して検索サービスを提供する。クラウドシステムのデータベース302のデータの出所は、主としてエンドユーザが構築した仮想情報データであり、ユーザ側はソフトウェアインターフェースを介してクラウドシステムのデータベース302の仮想情報を検索する。
図3に示すように、エンドユーザは例えば構築者機器303、304である。ユーザはモバイル機器を操作して、モバイル機器のタッチディスプレイを使用することで、ジェスチャー操作の方式、又はその他の入力方式(例えばスマートグラスを使用した上で手を振るジェスチャーによって入力を行う方式)によって、移動オブジェクトに仮想情報を配置することを決定することができる。仮想情報は、文字、画像、映像又は音声等又はそれらの組み合わせである。仮想情報と仮想情報が配置される移動オブジェクトの両者の組み合わせによって、仮想情報を測位する測位情報が形成される。特に、移動オブジェクトによって、仮想情報を測位する画像情報が形成される。画像情報は、例えば上述した画像処理を経て生成された色彩領域情報及び線情報である。
構築者機器303、304を利用して仮想情報及び関連する測位情報を構築した後、当該仮想情報及び測位情報をネットワーク30を介してアプリケーションシステムのサーバ301にアップロードする。サーバ301は、データをデータベース302に記憶する。アプリケーションシステムは、ネットワーク30経由で、検索者機器306、307、308が、モバイル機器及び当該モバイル機器に格納されたソフトウェアプログラムを操作してデータベース302における仮想情報を検索できるようにする。例えば、ユーザは、モバイル機器を操作して、ソフトウェアプログラムを起動し、カメラモジュールを起動して移動オブジェクトを撮影すると共に、当該移動オブジェクトの画像情報を取り込む。ソフトウェアプログラムは、モバイル機器における関連する測位回路が生成した地上位置情報、又は空間角度情報をも取得する。これらの情報は、先ずサーバ301に送信され、比較された後、検索結果が返送される。検索結果は、移動オブジェクトに対応する画像情報(色彩領域情報、線情報及び/又は顔認識情報)、及びモバイル機器の位置情報の仮想情報であり、最終的にモバイル機器のディスプレイに表示される。
アプリケーションシステムが取得した構築者機器303、304等のユーザ側がソフトウェアプログラムによって生成した仮想情報及び対応する測位情報は、主として移動オブジェクトの画像情報であり、検索条件を設定することができる。仮想情報及び対応する測位情報は、ユーザが提供することもできる。仮想情報及び対応する測位情報は、システムが構築者機器303、304と移動オブジェクトと間の空間関係に基づいて検索条件を設定することもできる。検索条件は、例えば仮想情報を見ることができる時間範囲、可視範囲及びユーザ範囲のいずれか又はそれらの組み合わせである。
例えば、仮想情報を構築した際の構築者機器303、304と、仮想情報に関連する移動オブジェクトと(両者の間に距離関係、又は仰角関係がある)の位置の差異によって、可視範囲が形成され、仮想情報を見ることができる距離範囲を設定することができる。アプリケーションシステムは、検索者機器306、307、308と仮想情報が表示される移動オブジェクトとの間の仮想情報を見ることができる距離閾値を設けることができ、この距離閾値から外れた場合、近すぎても又は遠すぎても仮想情報を見ることができない。
図4Aは、本発明に係るアプリケーションシステム及び端末モバイル機器におけるソフトウェアモジュールの実施例を示す図である。
アプリケーションシステムは、クラウドに設けられたサーバ41を含む。サーバ41は、コンピュータシステムである。また、サーバ41は、異なる作業を実行する複数のコンピュータシステムの組み合わせであってもよい。サーバ41は、主としてユーザ側のモバイル機器400によってアップロードされた仮想情報データ、及び仮想情報に対応する測位情報を受信して、データベース(検索データベース43、仮想情報データベース45)を構築することができる。データベース(検索データベース43、仮想情報データベース45)は、サーバ41経由で取得したユーザ側のモバイル機器が生成したデータを格納するのに用いられる。当該データは、特にモバイル機器400が生成した、特定の仮想情報に対応する位置情報を含む。
データベースはデータ記憶媒体である。データベースは、機能に基づいて検索データベース43と仮想情報データベース45とに分けられる。両者は同一のサーバ内に設けられるようにしてもよく、異なる位置に設けられるようにしてもよい。仮想情報データベース45は、主としてモバイル機器400がアップロードした仮想情報のデータを格納する。仮想情報は、ユーザがモバイル機器400を介して構築した文字、画像、映像及び音声のいずれか又はそれらの組み合わせであってよい。映像は、平面動画、立体動画を更に含む。仮想情報データベース45は、同時に、ユーザがモバイル機器400を操作して仮想情報を選択する際のデータの出所にもなる。検索データベース43は、主としてモバイル機器400がアップロードしたデータにおける仮想情報に対応する他の情報を格納する。例えば、検索データベース43は、仮想情報の測位情報(主として画像情報であり、特に仮想情報に対応する色彩領域情報及び線情報である)を格納する。色彩領域情報及び線情報は、主として仮想情報の背景画像から取得され、仮想情報を測位する際の主な根拠となる。サーバ41において演算プロセスが実行されている場合、検索データベース43に格納される仮想情報を比較することで、1つの又は複数の仮想情報を得ることができる。各仮想情報は、それぞれ識別情報(ID)を有しており、仮想情報データベース45を介してユーザ側の装置に提供される。
1つの実施例において、サーバ41において実行する演算プロセスは、人工知能の深層学習の画像認識プロセスであり、当該プロセスの処理及び学習を複数回行わせることで、移動オブジェクトに対する認識度が高くなる。
他の実施例において、ユーザがモバイル機器400を操作して仮想情報の測位情報を形成すると同時に、検索条件を設定して、検索データベース43にアップロードすることができる。検索条件は、時間範囲、可視範囲及びユーザ範囲のいずれか又はそれらの組み合わせであり、検索比較の根拠となる。
例えば、ユーザがある移動オブジェクトにおいて仮想情報を構築した場合、時間範囲を設定することができる。即ち、ユーザが本発明に係るアプリケーションシステムにおいて情報の検索を実行した場合、仮想情報を測位するための画像情報を満たす必要があるだけではなく、この時間範囲内に限って仮想情報を検索できるように設定する。可視範囲は、ある仮想情報を視認できる距離範囲である。ユーザがモバイル機器400を操作する場合、前記可視範囲内でのみオブジェクトの画像情報を満たす仮想情報を視認できるようにする。ユーザ範囲は、仮想情報を見ることができる対象ユーザを設定したものであり、一人又は複数人である。各対象ユーザがモバイル機器400を操作して仮想情報を検索すると、各対象ユーザのユーザ識別データ(user ID)をも送信し、サーバが同様に検索条件の1つとする。
従って、アプリケーションシステムは、ユーザがアップロードした大量のデータに基づいてデータベース(検索データベース43、仮想情報データベース45)を構築し、検索エンジンを構築して、ユーザに対して、モバイル機器を操作して仮想情報を検索するサービスを提供することができる。
本発明における移動オブジェクトの仮想情報の構築方法及び検索方法を作動するモバイル機器400は、ネットワーク40を介してサーバ41に接続される。モバイル機器400の主な回路素子としては、各回路素子が生成した信号を処理するデータ処理ユニット401と、データ処理ユニット401と電気的に接続する各回路素子と、外部装置と接続する通信ユニット402と、モバイル機器400の位置を検知する地上測位ユニット403と、モバイル機器400の空間における位置を検知する空間測位ユニット404と、実景(移動オブジェクト)画像を取得する撮影ユニット405と、ユーザがジェスチャーによって命令を入力できるようにするタッチ表示ユニット406と、を含む。
地上測位ユニット403は全地球測位システムの関連回路である。地上測位ユニット403は、測位衛星からの信号を受信して地上位置情報を生成する。測位にあたっては他の無線基地局からの信号を補助的に用いることができる。空間測位ユニット404は、モバイル機器400内に搭載されるジャイロスコープである。空間測位ユニット404は、ジャイロスコープを用いてモバイル機器の空間における位置を検知して、主として方位角φ及び仰角θから成る空間角度情報を形成する。
アプリケーションシステムは、モバイル機器400に搭載されるメモリユニット407(コンピュータ読み取り可能媒体)に格納されるプログラム集合体を更に含む。プログラム集合体がモバイル機器400のプロセッサ(1つの又は複数のプロセッサ)によって実行されることで、移動オブジェクトの仮想情報の構築及び検索のプロセスを実行することができる。以下、プログラム集合体が主な機能を実行する命令について説明する。
画像取込命令471は、モバイル機器400の撮影ユニット405を作動させて、移動オブジェクトの画像(例えば人の顔)を取得させると共に、当該移動オブジェクトの画像をモバイル機器400に表示させる。仮想情報処理命令472は、ユーザがモバイル機器400におけるタッチ表示ユニット406を操作してある移動オブジェクトに構築した仮想情報を処理するのに用いられる。仮想情報は、ユーザが自ら構築してもよく、又はシステムが提供した仮想情報データベース45から選択することによって、サーバ41に送信する仮想情報のデータが形成される。仮想情報は、文字、画像、映像及び音声のいずれか又はそれらの組み合わせである。位置情報生成命令473は、モバイル機器400における測位回路が生成した信号を取得するのに用いられる。例えば、モバイル機器400における地上測位ユニット403及び空間測位ユニット404が生成した測位情報を取得させる。本発明では、主としてモバイル機器400のGPS位置情報を取得させればよい。画像情報生成命令474は、移動オブジェクト画像を処理して、仮想情報に対応する画像情報を生成するのに用いられる。上述した実施例における画像処理の方法によって、仮想情報を測位するための色彩領域情報及び線情報又は顔認識情報を生成させることができる。検索処理命令475は、モバイル機器400が検索モードにおいて生成した位置情報及び画像情報を取得すると共に、位置情報及び画像情報がサーバ41に送信された後、サーバ41が生成した、検索条件を満たす検索結果を受信するのに用いられる。データ送受信命令476は、モバイル機器400とサーバ41との間の接続を構築し、信号の送受信に用いられる。特に、ユーザ側が生成した位置情報又は画像情報を送信し、サーバ41が生成した検索結果を受信するのに用いられる。仮想情報表示命令477は、モバイル機器400によってサーバ41が生成した検索結果が受信された際、仮想情報が検索された場合、検索結果に基づいて仮想情報を表示するのに用いられる。1つの実施例において、モバイル機器400において表示される移動オブジェクトに仮想情報を重ね合わせる。
上述した仮想情報は、システムが提供することができる外、ユーザが自ら他のソフトウェアツールを用いて生成することもできる。システムは、ユーザが写真を含む仮想情報を選択利用できるように、画像ライブラリ、映像ライブラリ、音声ライブラリ等をユーザに提供する。
次いで、図4Bは、本発明に係るシステムにおけるサーバの機能モジュールの実施例を示す図である。回路又はソフトウェアを組み合わせた機能モジュールによってクラウドシステムを説明する。クラウドシステムは、主として、複数の仮想情報における個別の仮想情報に対応する測位情報(主として色彩領域情報及び線情報等の画像情報)を格納する検索データベース43を含む。各仮想情報には識別データ(ID)が設けられており、識別データ(ID)は検索インデックスとして用いられる。各仮想情報は、個別の検索条件にも対応しており、例えば、仮想情報を見ることができる時間範囲、可視範囲(主として距離範囲)及びユーザ範囲(見ることができるユーザを指定した範囲)のいずれか又はそれらの組み合わせが、検索比較の根拠として設定されている。
クラウドシステムは、仮想情報のデータを、仮想情報の形式に基づいて記憶するための仮想情報データベース45が更に設けられている。仮想情報は、文字、画像、映像若しくは音声、又は各種形式の組み合わせを含む。各仮想情報は、各仮想情報の識別データに基づいて検索データベース43における各仮想情報に対応する測位情報及び検索条件とリンクする。
サーバ41は、1つの又は複数のプロセッサを有するコンピュータシステムである。サーバ41は、仮想情報検索並べ替え方法を実行するのに用いられる。サーバ41は、各ユーザがモバイル機器を操作してネットワーク40を介して仮想情報を検索することができるようにする。サーバ41は、モバイル機器によってアップロードされた画像情報に基づいて検索及び並べ替えの結果を提供する。サーバ41は、ハードウェア又はソフトウェアを組み合わせた方式によって構成されることができる。
サーバ41には、回路によってデータ取込の目的を達成することができるデータ取込ユニット411が設けられている。データ取込ユニット411は、サーバ41のホスト上のネットワークインターフェースを介してネットワーク40に接続され、各ユーザがモバイル機器を操作することで生成された位置情報及び画像情報等の仮想情報の検索に必要なデータを受信することができる。
ユーザ管理ユニット412は、関連するプログラムをメモリに組み合わせることでユーザ管理の目的を達成することができる。ユーザ管理ユニット412は、各ユーザのユーザ識別データ、パスワード管理等セキュリティデータを格納するのに用いられる。ユーザ管理ユニット412は、ユーザ側モバイル機器から連続して送信される検索データを記録することができ、後日ユーザに情報を提供する際の参考として、例えば検索結果並べ替えの根拠の1つとして、ユーザの履歴記録を形成することができる。特に、ユーザ識別データは、システムが検索結果について並べ替えを行うための重要な根拠の1つである。ユーザ個人と関連する検索結果は、並べ替えにおける優先順位を最も高くして表示することができる。
データ比較ユニット413は、モバイル機器がアップロードした移動オブジェクトの画像情報及び位置情報に基づいて検索データベース43におけるデータを比較すると共に、仮想情報データベース45から仮想情報のファイルを取得して、モバイル機器にフィードバックすることができる。データ比較ユニット413によって比較して得た結果は、予備的検索結果と見做され、システムが当該予備的検索結果について更に並べ替えを行うことで、ユーザが相対的に興味のある結果を提供する。
予備的検索結果を検索条件フィルタユニット414によって処理した後、並べ替えを行った検索結果を提供する。並べ替え時にフィルタリング条件を適用することで、検索結果を一定数内の仮想情報に収斂するようにすると共に、結果がユーザにとって有意義な内容となるようにすることができる。
例えば、並べ替えは、ユーザ関連情報に基づくことができる。ユーザ関連情報は、サーバ41が取得した、仮想情報に付随するユーザのユーザ識別データである。即ちユーザ識別データを、ユーザ関連情報としてデータベースに記憶することができる。システムがユーザ識別データを取得すると、先ずユーザ個人に関する仮想情報を提供することができる。仮想情報がある(又はあるユーザ範囲の)ユーザに見せるよう指定して構築されている場合、当該仮想情報は個人仮想情報であり、ユーザ識別データによってフィルタリングした後、指定されたユーザ(1つの又は複数の)に対して、当該個人仮想情報の並べ替えにおける優先順位を最も高く設定することができる。反対に、ユーザ範囲に属しない無関係の他人が当該仮想情報を見ることはないため、あるユーザに見せない仮想情報を排除することができる。
更に、ユーザ関連情報は、ユーザが設定した嗜好設定及び履歴データを含む。データベースにおける各仮想情報は、関連する1つの又は複数の内容分類を設定することができる。ユーザは、システムを使用する際にその嗜好設定を設定することができる。即ちユーザは、興味のある1つの又は複数の内容分類を能動的に設定することができる。履歴データは、システムが收集した、各ユーザの各仮想情報の関連する内容に対するアクセス時間及び訪問回数を含む。システムは、アクセス時間が相対的に長い内容(及びその分類)をユーザが嗜好する内容分類と見做し、同様に、訪問回数もユーザの嗜好を判断する根拠と見做される。従って、クラウドシステムは、履歴データに基づいてユーザが興味を有する1つの又は複数の内容分類を判断することができる。
システムは、関連性の高い仮想情報の優先順位を高く設定し、関連性の低い仮想情報の優先順位を低く設定して、ユーザに提供する検索結果を当該優先順位に基づいて並べ替えることができる。
1つの実施例において、仮想情報は、時間特性を有する。仮想情報を構築した仮想情報提供者は、構築した仮想情報に対して、表示可能な時間(朝、昼又は夜等の時間範囲を設定することができる)を含む時間パラメータを設けることができる。又は、仮想情報が検索される有効表示時間を設定することができる。従って、システムは、サーバのシステム時間に基づいて、時間をパラメータとして予備的検索結果をフィルタリングして、時間パラメータが合致しない仮想情報を排除することができる。即ち、システムは、表示時間が合致しない仮想情報を排除することができ、また、有効表示期限がシステム時間を超えている仮想情報を並べ替え時に排除することができる。
検索条件フィルタユニット414は、更に客観的データに基づいて仮想情報を並べ替えることができる。客観的データは、例えば各仮想情報が構築された時間、更新時間、有効時間、クリックレート及び/又は評価等のパラメータである。システムは、これらパラメータに基づいて並べ替え時の優先順位を決定することができる。例えば、仮想情報は、仮想情報の構築時間が新しいほど高い優先順位を有するようにしてもよい。また、仮想情報は、更新率が高いほど高い優先順位を有するようにしてもよい。また、仮想情報は、ある仮想情報に関連する内容に対する訪問率が高いほど高い優先順位を有するようにしてもよい。また、仮想情報は、仮想情報に関連する内容に対する他人の評価を参考にして、評価が高いほど高い優先順位を有するようにしてもよい。
また、上述した時間、ユーザ関連情報及び客観的データを並べ替えの根拠とする以外に、システムは、データベースにおける仮想情報に対してシステム重み付けを行うことができる。システム重み付けは、主として仮想情報提供者がクラウドシステムにおいて、提供した個別仮想情報に対して設定する重み付けである。クラウドシステムは、受信した複数の仮想情報が個別に受信した重み付けに対して上述したシステム重み付けを演算し、システム重み付けが大きいほど、高い優先順位を有するようにする。
例えば、システム重み付けは広告であってもよく、仮想情報提供者は広告主であり、価格に基づいて高い並べ替えを提供するようにシステムに要求すると、当該要求がシステム重み付け設定の根拠となる。また、政府による指示宣伝や大衆に関する情報等も、システム重み付けの設定によって並べ替えの優先順位を変えることができる。
その後、クラウドシステムは、並べ替えユニット415によって上述した各並べ替えの根拠に対して並べ替えの決定を行う。並べ替えの決定はシステムが設定する並べ替えシナリオ(scenario)であり、必要に応じて調整することができる。
最後に、データ送信ユニット416は、検索請求を生成した各モバイル機器に対して検索及び並べ替えの結果を送信する。モバイル機器は、サーバ41が送信した並べ替え後に出力された1つの又は複数の仮想情報を受信すると、表示画面を介して優先順位の最も高い仮想情報を表示する、又は、選択された仮想情報を選択命令に基づいて表示する。各仮想情報を表示する際、取得された移動オブジェクトの画像と結合する。
次いで、図5は、本発明に係る移動オブジェクトの仮想情報構築方法の実施例のフローである。
このフローにおいて、ステップS501において、ユーザは、モバイル機器を操作して仮想情報を構築するソフトウェアプログラムを起動する。これにより、ステップS503において、撮影ユニットを同時起動することができる。ステップS505において、データ構築モードにおいて、ユーザは、画像、文字、映像、音声等のマルチメディアの仮想情報を自ら製作することができ、また、ソフトウェアプログラムを介してサーバに接続し、データベースにおける仮想情報を選択してもよい。従って、アプリケーションシステムにおけるサーバは、モバイル機器が選定した仮想情報を受信する。
本実施例において、ステップS507において、ユーザはモバイル機器を操作することで、撮影ユニットによって移動オブジェクトを撮影して、移動オブジェクトを選定する。同時に、移動オブジェクトの画像信号を取得すると共に、ソフトウェアプログラムにおける解析プロセスによって画像信号から画像情報を解析することができる。移動オブジェクトの画像情報は、画像処理を行うことで生成された仮想情報を測位する色彩領域情報及び線情報である。以上の実施例で述べたように、画像情報からは移動オブジェクトの画像特徴を識別することができる。
次いで、ステップS509において、ユーザがモバイル機器を操作して仮想情報の移動オブジェクト上の位置を決定する。この時、当該仮想情報に関連する移動オブジェクトの画像情報は仮想情報の測位情報である。ステップS511において、サーバは、該モバイル機器によって生成される仮想情報を移動オブジェクト上に配置した画像情報を受信する。
次いで、ステップS513において、ユーザは、ソフトウェアプログラムが提供するインターフェースを介して、他人に前記仮想情報を検索してヒットさせる可視範囲を設定することができる。当該可視範囲は、主として移動オブジェクトとの距離範囲を含み、視角範囲又は仰角の範囲を含むことを排除しない。更にステップS515において、モバイル機器を使用して仮想情報並びに対応する可視範囲及び画像情報をサーバにアップロードする。また、システムによって、ユーザは、他のユーザが仮想情報の検索及び表示を行う時間範囲及び/又はユーザ範囲を設定することができる。
図6は、移動オブジェクトの仮想情報構築方法の他の実施例を示すフローである。このフローにおいて、ステップS601において、アプリケーションシステムがユーザ側がアップロードした仮想情報並びに対応する可視範囲及び画像情報を受信する際、同時にユーザ識別データを取得することができる。ユーザ識別データは、ユーザを識別できる各種情報として、例えばソフトウェアプログラムの起動及びシステムサービスの使用に関わるユーザID、モバイル機器の識別番号等を含む。ユーザ識別データによって、ユーザを管理することができる外、ユーザに関する検索条件を設定することもできる。ステップS605において、仮想情報の検索条件を構築する。検索条件は、当該仮想情報のユーザ範囲を検索すること及び見ることを設定することができる。
その後、ステップS607において、アプリケーションシステムは、端末がアップロードした仮想情報、可視範囲、画像情報、ユーザ識別データ及び検索条件等を受信して、仮想情報検索サービスを提供するデータベースを構築する。
他の実施例において、図6の実施例のフローに示すように、ユーザが移動オブジェクトにおいて仮想情報を構築すると、アプリケーションシステムは、仮想情報をアップロードしたユーザのIDを受信する外、若し移動オブジェクトが他のシステムのユーザであって、アプリケーションシステムに登録されたサービスIDを有している場合、アプリケーションシステムは、ユーザID及び位置を得ると同時に、移動オブジェクトとしてのユーザのサービスID及び位置を知ることができる(ソフトウェアプログラムがモバイル機器の位置情報を取得するよう要求する)。その後、システムは、上述した実施例で述べた通り画像情報によって移動オブジェクト及び関連する仮想情報を認識する以外に、依然としてユーザIDに基づいて移動オブジェクトの身分及び関連する仮想情報を確認することができ、ひいては移動オブジェクトの位置を取得することができる。これにより、移動オブジェクトにおける仮想情報を構築する可視範囲として、システムは、仮想情報を検索するユーザと当該移動オブジェクトとの二人の間の距離を得ることができる。当該距離情報は、システムが仮想情報を見ることができるか否かを判断する根拠の1つとなり、又は、仮想情報の可視範囲を設定する根拠となる。
図7は、仮想情報を検索して得る方法のフローを示す。
上述したアプリケーションシステムは、ユーザに対し仮想現実を検索するサービスを提供する。ユーザが端末を操作して当該サービスを使用するソフトウェアプログラムを実行した場合(ステップS701)、検索モードにおいて、ソフトウェアプログラムが撮影ユニットを起動すると共に、モバイル機器の撮影ユニットが撮影して取得したオブジェクト画像を取得する(ステップS703)。オブジェクト画像は、特に仮想情報を配置する物体の画像であり、本発明において適用される移動オブジェクトの画像である。作動中、ソフトウェアプログラムは、モバイル機器の位置情報を連続して取得する(ステップS705)。当該位置情報は、主としてGPSモジュールが生成した地上位置データであるが、ジャイロスコープが得た空間角度データを取得することもできる。
ソフトウェアプログラムは、移動オブジェクトの画像信号を取得する以外に(ステップS707)、画像演算手段によって移動オブジェクトの画像情報を解析して取得することもできる(ステップS709)。上述した実施例で述べたように、移動オブジェクトの色彩領域情報及び線情報を取得する。これら画像情報、又はモバイル機器の位置情報によって、仮想情報を配置する位置を、仮想情報検索の根拠として、判断して得ることができる。データベースにおける仮想情報が、移動オブジェクトの画像情報及び上述した各種検索条件に合致する場合、移動オブジェクトに表示することができる仮想情報となる。他の実施例において、若し移動オブジェクトが、サービスIDを登録した別の人物である場合、所有するモバイル機器が生成した測位情報が、移動オブジェクトを測位する重要な根拠の1つとなり、当該測位情報によって、移動オブジェクトと仮想情報を検索するモバイル機器との間の距離を取得することができる。
前記移動オブジェクトの画像情報は色彩領域情報及び線情報を含む外、若し移動オブジェクトが人物である場合、画像処理によって取得した顔認識情報もまた、移動オブジェクトの認識及び仮想情報の測位における重要な根拠の1つとなり、当該顔認識情報によって検索結果を得ることができる。
端末モバイル機器において位置情報及び移動オブジェクトの画像情報を形成する場合、サーバにリアルタイムでアップロードする(ステップS711)。サーバにあるデータベースには、複数のユーザが各自のモバイル機器を操作することでアップロードした仮想情報と対応する可視範囲及び画像情報とが格納されている。サーバは、演算プロセスを実行してデータベースと比較することで、仮想情報に対応する可視範囲及び画像情報に合致する検索結果を得ると共に、モバイル機器に返送する(ステップS713)。検索結果が少なくとも1つの仮想情報があることを示した場合、モバイル機器において、可視範囲内において画像情報に合致する仮想情報を表示する(ステップS715)。
図8は、本発明に係る移動オブジェクトの仮想情報を表示した状況を示す図である。
図8において、移動オブジェクト80は、1台の車であり、車には複数の仮想情報が表示されている。ユーザがモバイル機器を操作してこの移動する車両を撮影した場合、同時に当該移動オブジェクト80の画像信号を取り込むと共に、画像特徴を解析して取得し、各種仮想情報を測位する情報として、サーバにアップロードする。サーバにおけるソフトウェアプログラムがデータベースと比較して、図8に示す移動オブジェクト80における第1の仮想情報801(「XXレストランへようこそ」という情報が表示される)と、第2の仮想情報802(「XX商品」及び内容を放送できるという情報が表示される)とを取得する。
図9は、仮想情報を表示した他の状況を示す図である。図9において、移動オブジェクト90は、1人の人物であり、人物自体に特徴を有する。画像情報を取得した後、サーバにアップロードすることでこの画像情報及び可視範囲に合致する仮想情報を得ることができる。図に示す第3の仮想情報901に表示される「セール価格XXX」は、文字及び図形から成る。また人物の胸には第4の仮想情報902が表示され、この情報は、ある検索ユーザに対する個人情報であってもよい。
図10は、アプリケーションシステムが端末モバイル機器に複数の仮想情報を提供した場合の検索結果表示の実施例を示す図である。
図10において、モバイル機器100には、リアルタイムで取得された移動オブジェクト106の画像を表示している。サーバがデータベースと比較した結果、データベースにおける当該移動オブジェクト106の画像情報に合致する仮想情報が複数存在した場合、又は、既に検索条件によってフィルタリングした後、依然として複数の仮想情報が存在した場合、図10の方式によって表示することができる。即ち、先ず、並べ替えの結果優先順位の最も高い仮想情報107を表示して、ユーザインターフェースが提供するスクロール切り替えアイコン111、112によってユーザはタッチディスプレイにおいて左右にスクロールさせるジェスチャーによって仮想情報を切り替えることができ、下方の仮想情報プレビューエリア108において他の情報を選択肢として提供する。
次いで、図11は、スマートグラス等の装置を利用して検索結果を表示する実施例を示す図である。
図11におけるモバイル機器110は、例えばスマートグラスであり、スマートグラスにおいて、同様にカメラによって移動オブジェクト106’の画像を取得し、同様に画像処理手段によって移動オブジェクト106’の画像情報を取得し、サーバにアップロードした後、直ちに並べ替えの結果優先順位の最も高い仮想情報117を表示することができる。表示内容には、同様に、ユーザが情報を切り替えることのできるジェスチャー切り替えアイコン118、119を含む。本実施例において、ユーザは、本発明が適用された装置の上方でジェスチャーをすることで仮想情報を切り替えることができる。下方には同様に、仮想情報プレビューエリア120を表示している。
このように、本発明に係る移動オブジェクトの仮想情報構築方法、空間オブジェクト検索方法及びアプリケーションシステムにおいて、システムの枠組みにおいて、複数のユーザが異なる又は同じ移動オブジェクトにアップロードした仮想情報に基づいて、検索サービスを提供するデータベースを構築することができる。検索サービスを提供するにあたって根拠となる測位情報は、主として移動オブジェクトの画像情報である。ユーザが移動オブジェクトにおける仮想情報を検索しようとする場合、サーバは同様にモバイル機器からアップロードされた画像情報及びモバイル機器の位置情報に基づいて仮想情報を検索し、移動オブジェクトにおいて仮想情報を検索及び表示する目的を達成する。
以上は本発明の好ましい実施例に過ぎず、本発明の特許請求の範囲を制限するものではない、従って、本発明の明細書及び図面の内容に基づいて為された等価の構造変更、いずれも本発明の範囲に含まれる。
10 モバイル機器
101、102 移動オブジェクト
103、105 仮想情報
φ 方位角
θ 仰角
201 測位衛星
20 モバイル機器
203 仮想情報
205 背景画像
221、222、223、224、225、226 線
211、212、213、214、215、216、217 領域
A 方向
301 サーバ
302 データベース
303、304 構築者機器
306、307、308 検索者機器
30 ネットワーク
40 ネットワーク
41 サーバ
43 検索データベース
400 モバイル機器
401 データ処理ユニット
402 通信ユニット
403 地上測位ユニット
404 空間測位ユニット
405 撮影ユニット
406 タッチ表示ユニット
407 メモリユニット
471 画像取込命令
474 画像情報生成命令
475 検索処理命令
476 データ送受信命令
45 仮想情報データベース
472 仮想情報処理命令
473 位置情報生成命令
477 仮想情報表示命令
411 データ取込ユニット
412 ユーザ管理ユニット
413 データ比較ユニット
414 検索条件フィルタユニット
415 並べ替えユニット
416 データ送信ユニット
80 移動オブジェクト
801 第1の仮想情報
802 第2の仮想情報
90 移動オブジェクト
901 第3の仮想情報
902 第4の仮想情報
100 モバイル機器
106 移動オブジェクト
107 仮想情報
111、112 スクロール切り替えアイコン
108 仮想情報プレビューエリア
110 モバイル機器
106’ 移動オブジェクト
117 仮想情報
118、119 ジェスチャー切り替えアイコン
120 仮想情報プレビューエリア
ステップS501〜S515 移動オブジェクトに仮想情報を構築するフロー
ステップS601〜S607 仮想情報のデータベースを構築するフロー
ステップS701〜S715 移動オブジェクトにおける仮想情報を表示するフロー

Claims (15)

  1. データ構築モードにおいて、モバイル機器によって選定された仮想情報を受信する工程と、
    前記モバイル機器によって前記仮想情報の移動オブジェクトにおける位置を設定した際に生成された、前記移動オブジェクトの画像信号を解析することで得られる画像情報を受信する工程と、
    サーバが前記仮想情報のデータと前記仮想情報の測位情報を受信して、前記仮想情報を検索するためのデータベースを構築する工程と、
    を含むことを特徴とする移動オブジェクトの仮想情報構築方法。
  2. 前記移動オブジェクトの前記画像情報は、画像処理によって生成した前記仮想情報を測位する色彩領域情報及び線情報、又は、顔認識情報であることを特徴とする請求項1に記載の移動オブジェクトの仮想情報構築方法。
  3. 前記サーバにおいて、人工知能の深層学習における画像認識プロセスによって前記移動オブジェクトの画像情報を処理することを特徴とする請求項1に記載の移動オブジェクトの仮想情報構築方法。
  4. 前記移動オブジェクトの位置の設定が完了した後、前記移動オブジェクトとの距離範囲を含み、前記仮想情報のデータをアップロードする際に前記サーバにアップロードされる、前記仮想情報を表示する可視範囲を設定する工程を更に含み、
    前記仮想情報のデータをアップロードするステップにおいて、前記仮想情報を表示する時間範囲及び/又はユーザ範囲を設定する工程を更に含む、
    ことを特徴とする請求項1乃至3のいずれかに記載の移動オブジェクトの仮想情報構築方法。
  5. 前記移動オブジェクトが、他のモバイル機器を有する他人であり、前記仮想情報を構築する前記モバイル機器との間の距離を取得するように、前記サーバが前記移動オブジェクトのモバイル機器によって生成された測位情報を取得することを特徴とする請求項1に記載の移動オブジェクトの仮想情報構築方法。
  6. 検索モードにおいて、モバイル機器の位置情報を取得し、前記モバイル機器が移動オブジェクトの画像信号を取得する工程と、
    前記画像信号を演算して前記移動オブジェクトの画像情報を取得する工程と、
    前記移動オブジェクトの前記画像情報及び前記位置情報をサーバにアップロードする工程と、
    前記サーバが、前記移動オブジェクトとの距離範囲である前記移動オブジェクトに対する可視範囲内であって前記画像情報に合致する検索結果を受信する工程と、
    を含み、
    前記サーバには、複数のユーザがそれぞれのモバイル機器を操作してアップロードした仮想情報並びに対応する可視範囲及び画像情報を格納したデータベースが設けられており、前記仮想情報に対応する前記可視範囲及び前記画像情報に合致した検索結果を得るように、前記サーバが演算プロセスを実行して前記データベースと比較する、
    ことを特徴とする移動オブジェクトの仮想情報検索方法。
  7. 前記モバイル機器が生成した前記位置情報は、前記モバイル機器内の地上測位ユニットにより生成された地上位置情報であることを特徴とする請求項6に記載の移動オブジェクトの仮想情報検索方法。
  8. 前記移動オブジェクトの前記画像情報は、画像処理によって生成した色彩領域情報及び線情報か、又は顔認識情報であることを特徴とする請求項6に記載の移動オブジェクトの仮想情報検索方法。
  9. 前記サーバが実行する前記演算プロセスは、人工知能の深層学習による画像認識プロセスであることを特徴とする請求項8に記載の移動オブジェクトの仮想情報検索方法。
  10. 前記サーバが前記位置情報及び前記画像情報を受信した後、前記位置情報が前記移動オブジェクトに対する前記可視範囲内にあるか否かを判断し、
    前記サーバが前記データベースと比較する際に、前記仮想情報を表示する時間範囲及び/又はユーザ範囲を更に比較する、
    ことを特徴とする請求項6乃至9のいずれかに記載の移動オブジェクトの仮想情報検索方法。
  11. 前記移動オブジェクトが、他のモバイル機器を有する他人であり、前記仮想情報を検索する前記モバイル機器との間の距離を取得して前記位置情報が前記移動オブジェクトに対する前記可視範囲内にあるか否かを判断するように、前記サーバが前記移動オブジェクトのモバイル機器によって生成された測位情報を取得することを特徴とする請求項10に記載の移動オブジェクトの仮想情報検索方法。
  12. データベースを含むサーバと、
    モバイル機器のコンピュータ読み取り可能媒体に格納され、前記モバイル機器のプロセッサによって実行された後、移動オブジェクトの仮想情報の構築及び検索のプロセスを実行するプログラム集合体であって、
    移動オブジェクトの画像を取得すると共に、前記モバイル機器に表示するための画像取込命令と
    前記モバイル機器に構築された前記移動オブジェクトに関連する仮想情報を処理し、前記サーバに送信される仮想情報のデータを形成するための仮想情報処理命令と、
    前記モバイル機器の地上測位ユニットが生成した位置情報を取得するための位置情報生成命令と、
    前記移動オブジェクトの画像を処理して、前記仮想情報を測位する画像情報を生成するための画像情報生成命令と、
    前記モバイル機器が検索モードにおいて生成した前記位置情報及び前記画像情報を取得すると共に、前記位置情報及び前記画像情報が前記サーバに送信された後、前記サーバが生成した、検索条件に合致する検索結果を受信するための検索処理命令と、
    前記モバイル機器と前記サーバとの間の接続を構築し、信号を送受信するためのデータ送受信命令と、
    前記検索結果に基づいて前記仮想情報を表示するための仮想情報表示命令と、
    を含むプログラム集合体と、
    を含むことを特徴とするアプリケーションシステム。
  13. 前記データベースは、前記仮想情報のデータが格納された仮想情報データベースと、前記仮想情報を表示する画像情報及び各仮想情報に対応する検索条件が格納された検索データベースとを含むことを特徴とする請求項12に記載のアプリケーションシステム。
  14. 前記移動オブジェクトの画像に画像処理が行われた後、前記仮想情報に対応する又は検索を実行する色彩領域情報及び線情報が形成され、
    前記移動オブジェクトの画像は顔であり、前記画像情報は顔認識情報を更に含む、
    ことを特徴とする請求項12に記載のアプリケーションシステム。
  15. 前記検索条件は、前記仮想情報を検索する可視範囲であり、時間範囲及び/又は一ユーザ範囲を含むことを特徴とする請求項12乃至14のいずれかに記載のアプリケーションシステム。
JP2017218043A 2016-12-23 2017-11-13 移動オブジェクトの仮想情報構築方法、移動オブジェクトの仮想情報検索方法及びアプリケーションシステム Pending JP2018106696A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW105143001 2016-12-23
TW105143001A TWI615776B (zh) 2016-12-23 2016-12-23 移動物件的虛擬訊息建立方法、搜尋方法與應用系統

Publications (1)

Publication Number Publication Date
JP2018106696A true JP2018106696A (ja) 2018-07-05

Family

ID=59982226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017218043A Pending JP2018106696A (ja) 2016-12-23 2017-11-13 移動オブジェクトの仮想情報構築方法、移動オブジェクトの仮想情報検索方法及びアプリケーションシステム

Country Status (5)

Country Link
US (1) US10264207B2 (ja)
EP (1) EP3340177B1 (ja)
JP (1) JP2018106696A (ja)
CN (1) CN108616563B (ja)
TW (1) TWI615776B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077187A (ja) * 2018-11-07 2020-05-21 スカパーJsat株式会社 拡張現実システムおよび方法
JP2020166555A (ja) * 2019-03-29 2020-10-08 株式会社三井住友銀行 Arプラットフォームシステム、方法およびプログラム
JP2021162980A (ja) * 2020-03-31 2021-10-11 株式会社博報堂Dyホールディングス 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105338117B (zh) * 2015-11-27 2018-05-29 亮风台(上海)信息科技有限公司 用于生成ar应用和呈现ar实例的方法、设备与系统
TWI690826B (zh) * 2018-05-23 2020-04-11 國立臺灣師範大學 擴增內容的產生方法
WO2019222946A1 (zh) 2018-05-23 2019-11-28 华为技术有限公司 一种拍照方法和终端设备
JP7056500B2 (ja) * 2018-10-04 2022-04-19 トヨタ自動車株式会社 画像生成装置、画像生成方法、およびプログラム
WO2020181517A1 (zh) * 2019-03-13 2020-09-17 桂林理工大学 基于多媒体数字化技术的传统古村落传播系统及方法
US11763559B2 (en) * 2020-02-14 2023-09-19 Magic Leap, Inc. 3D object annotation
CN114077310B (zh) * 2020-08-14 2023-08-25 宏达国际电子股份有限公司 提供虚拟环境的方法与系统及非暂态电脑可读取储存介质
US11620829B2 (en) 2020-09-30 2023-04-04 Snap Inc. Visual matching with a messaging application
US11341728B2 (en) 2020-09-30 2022-05-24 Snap Inc. Online transaction based on currency scan
US11386625B2 (en) * 2020-09-30 2022-07-12 Snap Inc. 3D graphic interaction based on scan
US20220358176A1 (en) * 2021-05-08 2022-11-10 Greenburger Noah System and method of merging online search and consolidation

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067240A (ja) * 1998-08-24 2000-03-03 Minolta Co Ltd カラー画像の領域分割方法およびプログラム記憶媒体
JP2006197505A (ja) * 2005-01-17 2006-07-27 Sony Corp カメラ制御装置、カメラシステム、電子会議システムおよびカメラ制御方法
JP2011128977A (ja) * 2009-12-18 2011-06-30 Aplix Corp 拡張現実感提供方法及び拡張現実感提供システム
JP2011244398A (ja) * 2010-05-21 2011-12-01 Ntt Docomo Inc オブジェクト配信範囲設定装置及びオブジェクト配信範囲設定方法
JP2012168798A (ja) * 2011-02-15 2012-09-06 Sony Corp 情報処理装置、オーサリング方法及びプログラム
JP2013114653A (ja) * 2011-12-01 2013-06-10 Canon Inc 情報処理装置、情報処理装置の制御方法、プログラム
JP2014127148A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置、コンテンツ提供方法及びコンピュータプログラム
JP2016130985A (ja) * 2015-01-15 2016-07-21 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720436B2 (en) * 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
US20060190812A1 (en) * 2005-02-22 2006-08-24 Geovector Corporation Imaging systems including hyperlink associations
JP2008124309A (ja) * 2006-11-14 2008-05-29 Toyota Motor Corp 半導体装置とその製造方法
US8098881B2 (en) * 2008-03-11 2012-01-17 Sony Ericsson Mobile Communications Ab Advertisement insertion systems and methods for digital cameras based on object recognition
US20100257252A1 (en) * 2009-04-01 2010-10-07 Microsoft Corporation Augmented Reality Cloud Computing
WO2011013910A2 (ko) * 2009-07-30 2011-02-03 에스케이텔레콤 주식회사 증강 현실을 제공하는 방법과 그를 위한 서버 및 휴대용 단말기
US9286624B2 (en) 2009-09-10 2016-03-15 Google Inc. System and method of displaying annotations on geographic object surfaces
JP4816789B2 (ja) * 2009-11-16 2011-11-16 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび情報処理システム
JP2011118834A (ja) * 2009-12-07 2011-06-16 Sony Corp 情報処理装置、情報処理方法およびプログラム
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
CN102194007B (zh) * 2011-05-31 2014-12-10 中国电信股份有限公司 获取移动增强现实信息的系统和方法
US9066200B1 (en) 2012-05-10 2015-06-23 Longsand Limited User-generated content in a virtual reality environment
CN103107938A (zh) * 2013-01-25 2013-05-15 腾讯科技(深圳)有限公司 信息交互方法、服务器及终端
EP3101392B1 (en) * 2013-03-15 2021-12-15 Apple Inc. Mapping application with turn-by-turn navigation mode for output to vehicle display
CN104580299A (zh) * 2013-10-17 2015-04-29 拓景科技股份有限公司 信息产生与分享方法及其相关装置
US9953446B2 (en) * 2014-12-24 2018-04-24 Sony Corporation Method and system for presenting information via a user interface
CN104616190A (zh) * 2015-03-05 2015-05-13 广州新节奏智能科技有限公司 基于互联网和移动互联网的多终端3d体感购物方法及系统
CN106203292A (zh) * 2016-06-28 2016-12-07 广东欧珀移动通信有限公司 一种图像的增强现实处理的方法、装置及移动终端

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067240A (ja) * 1998-08-24 2000-03-03 Minolta Co Ltd カラー画像の領域分割方法およびプログラム記憶媒体
JP2006197505A (ja) * 2005-01-17 2006-07-27 Sony Corp カメラ制御装置、カメラシステム、電子会議システムおよびカメラ制御方法
JP2011128977A (ja) * 2009-12-18 2011-06-30 Aplix Corp 拡張現実感提供方法及び拡張現実感提供システム
JP2011244398A (ja) * 2010-05-21 2011-12-01 Ntt Docomo Inc オブジェクト配信範囲設定装置及びオブジェクト配信範囲設定方法
JP2012168798A (ja) * 2011-02-15 2012-09-06 Sony Corp 情報処理装置、オーサリング方法及びプログラム
JP2013114653A (ja) * 2011-12-01 2013-06-10 Canon Inc 情報処理装置、情報処理装置の制御方法、プログラム
JP2014127148A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置、コンテンツ提供方法及びコンピュータプログラム
JP2016130985A (ja) * 2015-01-15 2016-07-21 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077187A (ja) * 2018-11-07 2020-05-21 スカパーJsat株式会社 拡張現実システムおよび方法
JP2020166555A (ja) * 2019-03-29 2020-10-08 株式会社三井住友銀行 Arプラットフォームシステム、方法およびプログラム
JP2021162980A (ja) * 2020-03-31 2021-10-11 株式会社博報堂Dyホールディングス 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム

Also Published As

Publication number Publication date
EP3340177B1 (en) 2020-04-29
US20180184038A1 (en) 2018-06-28
TW201823983A (zh) 2018-07-01
EP3340177A1 (en) 2018-06-27
CN108616563B (zh) 2021-05-14
TWI615776B (zh) 2018-02-21
US10264207B2 (en) 2019-04-16
CN108616563A (zh) 2018-10-02

Similar Documents

Publication Publication Date Title
JP2018106696A (ja) 移動オブジェクトの仮想情報構築方法、移動オブジェクトの仮想情報検索方法及びアプリケーションシステム
JP6530794B2 (ja) 空間オブジェクト検索並べ替え方法及びクラウドシステム
JP6517293B2 (ja) ロケーションベース空間オブジェクト遠隔管理方法及びロケーションベース空間オブジェクト遠隔管理システム
EP3550479A1 (en) Augmented-reality-based offline interaction method and apparatus
JP6600674B2 (ja) 移動オブジェクト仮想情報遠隔管理方法及び移動オブジェクト仮想情報遠隔管理システム
CN108733272B (zh) 适地性空间物件可视范围管理方法与系统
JP2017126142A (ja) 情報処理装置、情報処理方法及びプログラム
JP6120467B1 (ja) サーバ装置、端末装置、情報処理方法、およびプログラム
CN106255966A (zh) 使用店面辨识来识别待考察实体
KR20110125866A (ko) 증강현실을 통한 정보제공 방법 및 장치
JP2017228278A (ja) サーバ装置、端末装置、情報処理方法、およびプログラム
TWI611307B (zh) 適地性空間物件資料建立方法、顯示方法與應用系統

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190610

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190702