JP2020528184A - 情報処理方法、装置、端末機器及びコンピューター読み取り可能な記憶媒体 - Google Patents

情報処理方法、装置、端末機器及びコンピューター読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP2020528184A
JP2020528184A JP2020503322A JP2020503322A JP2020528184A JP 2020528184 A JP2020528184 A JP 2020528184A JP 2020503322 A JP2020503322 A JP 2020503322A JP 2020503322 A JP2020503322 A JP 2020503322A JP 2020528184 A JP2020528184 A JP 2020528184A
Authority
JP
Japan
Prior art keywords
virtual
article
terminal device
information
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020503322A
Other languages
English (en)
Other versions
JP7034533B2 (ja
Inventor
嘉 魏
嘉 魏
▲鷹▼ 沙
▲鷹▼ 沙
哲川 ▲張▼
哲川 ▲張▼
宏 ▲張▼
宏 ▲張▼
▲傳▼康 范
▲傳▼康 范
▲曉▼ 潘
▲曉▼ 潘
▲曉▼▲ウェイ▼ 范
▲曉▼▲ウェイ▼ 范
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2020528184A publication Critical patent/JP2020528184A/ja
Application granted granted Critical
Publication of JP7034533B2 publication Critical patent/JP7034533B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本出願は情報処理方法、装置、端末機器及びコンピューター読み取り可能な記憶媒体を開示している。情報処理方法、装置、端末機器及びコンピューター読み取り可能な記憶媒体を提供し、該出願により提供される仮想シーン内のN個の仮想物品が互いに独立し、それぞれ対応する物品情報を有し、ユーザが独立して仮想シーンにおける仮想物品とインタラクションできるようにし、ARシステムのインタラクション可能性を向上させる。

Description

本出願は、2017年7月28日にて中国国家知的財産局に提出され、出願番号が2017106291574であり、発明の名称が「情報処理方法、装置、端末機器及びコンピューター読み取り可能な記憶媒体」である中国特許出願の優先権を主張し、その全内容を本出願に参照により援用する。
本出願は、拡張現実(augmented reality、AR)分野に関わり、より具体的には、情報処理方法、装置、端末機器及びコンピューター読み取り可能な記憶媒体に関わる。
AR技術は、リアルタイムにカメラの映像の位置及び角度を算出し、映像を基に画像、動画または3Dモデルなどの仮想情報を追加する技術である。AR技術を利用するシステムはARシステムと呼ばれて、端末機器はよくみられるARシステムである。ARシステムは、スクリーンで、仮想世界を実世界にカバーして表示することで、ユーザの実世界に対する官能体験を強化させることを目的とする。
ARシステムは、医療、軍事、工業メンテナンス及びゲームなどのいろんな分野に適用される。ARシステムのゲーム分野における応用を例として、伝統のARシステムはカメラによって実世界のAR目標を収集または走査し、AR目標を認識した後、AR目標をめぐって、ゲーム用の仮想シーンを構築する。仮想シーンの全体はカメラにおけるAR目標の空間位置の変化に連れて変化し、ユーザは仮想キー(または仮想操作レバー)によって仮想シーンにおける仮想物品を操作し制御することで、ユーザに実世界でゲームするような官能体験を提供する。
本出願は、ARシステムのインタラクション可能性を向上させる情報処理方法、装置、端末機器及びコンピューター読み取り可能な記憶媒体を提供する。
情報処理方法を提供し、前記方法は、現在の端末機器により収集され、拡張現実AR目標が含まれる画像を取得することと、前記AR目標を認識し、N個の仮想物品が含まれる(Nが2以上の整数である)仮想シーンを生成することと、前記仮想シーンから前記N個の仮想物品を分解し、前記N個の仮想物品のそれぞれ対応するように有する物品情報を生成することと、ユーザが入力した、前記N個の仮想物品における目標仮想物品に対する操作命令を受信すると、前記N個の仮想物品における前記目標仮想物品以外の他の仮想物品の物品情報をそのまま保持して、前記目標仮想物品の物品情報を更新することとを含む。
また、情報処理装置を提供し、前記情報処理装置は、現在の端末機器により収集され、拡張現実AR目標が含まれる画像を取得するための取得モジュールと、前記AR目標を認識し、N個の仮想物品が含まれる(Nが2以上の整数である)仮想シーンを生成するための生成モジュールと、前記仮想シーンから前記N個の仮想物品を分解するための分解モジュールと、前記仮想シーンから前記N個の仮想物品を分解し、前記N個の仮想物品のそれぞれ対応するように有する物品情報を生成するための物品情報発生モジュールと、ユーザが入力した、前記N個の仮想物品における目標仮想物品に対する操作命令を受信すると、前記N個の仮想物品における、前記目標仮想物品以外の他の仮想物品の物品情報をそのまま保持して、前記目標仮想物品の物品情報を更新するための更新モジュールとを含む。
また、端末機器を提供し、前記端末機器は、拡張現実AR目標が含まれる画像を収集するためのカメラと、前記カメラに接続されるプロセッサとを有し、
前記プロセッサはさらに、
現在の端末機器により収集され、拡張現実AR目標が含まれる画像を取得することと、前記AR目標を認識し、N個の仮想物品が含まれる(Nが2以上の整数である)仮想シーンを生成することと、前記仮想シーンから前記N個の仮想物品を分解し、前記N個の仮想物品のそれぞれ対応するように有する物品情報を生成することと、ユーザが入力した、前記N個の仮想物品における目標仮想物品に対する操作命令を受信すると、前記N個の仮想物品における前記目標仮想物品以外の他の仮想物品の物品情報をそのまま保持して、前記目標仮想物品の物品情報を更新することとを実行するために用いられる。
また、コンピューター読み取り可能な記憶媒体を提供し、前記コンピューター読み取り可能な記憶媒体には命令が記憶され、前記命令が端末機器で実行されると、端末機器に前記各項に記載の方法を実行させる。
また、命令が含まれるコンピュータープログラム製品を提供し、端末機器に実行されると、端末機器に前記各項に記載の方法を実行させる。
本出願により提供される技術案において、仮想シーン内のN個の仮想物品が互いに独立して、それぞれ対応する物品情報を有することで、ユーザが独立して仮想シーンにおける仮想物品とインタラクションできるようにし、ARシステムのインタラクション可能性を向上させる。
伝統のARゲームシステムの例示図である。 図1に示されるゲームシステムのディスプレイに表示される内容の例示図である。 本発明の実施例により提供される端末機器の構成例示図である。 本発明の実施例により提供される情報処理方法の模式的なフローチャートである。 本発明の一つの実施例により提供される仮想シーンの例示図である。 本発明の他の実施例により提供される仮想シーンの例示図である。 本発明の実施例により提供され、ARのゲーム過程によるフローチャートである。 本発明の実施例により提供される情報処理装置の模式的な構成図である。 本発明の実施例により提供される端末機器の模式的な構成図である。
本発明の実施例は、端末機器のタイプを具体的に限定しない。好ましくは、いくつかの実施例において、該端末機器はネットサーフィン及び/または通話機能を有する端末機器であってもよい。例えば、該端末機器は携帯電話、タブレット、ヘッドマウントディスプレイ(head−mounted displays、HMD)、ノートパソコン、ウルトラモバイルパソコン(Ultra−mobile Personal Computer、UMPC)、ネットブック、パーソナルデジタルアシスタント(Personal Digital Assistant、PDA)などであってもよい。
本出願で言及されるAR目標は、端末機器により認識できる実世界における一つまたは複数の目標物であってもよい。例えば、AR目標は実世界の1枚または複数枚の印刷用紙上の画像であり、また例えば、AR目標は実世界におけるある建物であり、また例えば、AR目標は実世界におけるある材質またはあるテクスチャであってもよい。AR目標は端末機器に認識された後、仮想シーンの構築をトリガーするために用いられる。例えば、AR目標を認識した後、端末機器はAR目標の空間位置を参照物として、予め確立されたAR目標、仮想シーン及び空間位置関係に基づき、AR目標をめぐって、仮想シーンを配置し、仮想シーンはいろんな仮想情報(例えば仮想物品、画像、動画など)を含んでもよい。ゲーム分野に適用されるARシステムを例として、端末機器がAR目標を認識した後、端末機器におけるゲームプログラムはAR目標に基づき仮想のゲームシーンを確立でき、ゲームシーンには少なくとも一つの仮想物品が含まれ、ユーザはゲームシーンにおける仮想物品とインタラクションでき、これによって、ユーザに実世界でゲームする官能体験を与える。
なお、ゲームプログラムはゲームエンジンにより生成できる。ゲームエンジンは作成された編輯可能なパソコンゲームシステムまたはいくつかのインタラクション式のリアルタイム画像アプリケーションプログラムのコアコンポーネントを指す。ゲームエンジンはゲームのデザイナに、ゲームの作成にとって必要ないろんなツールを提供でき、ゲームのデザイナがゼロからゲームを構築する必要がなく、容易且つ速やかにゲームプログラムを作り出すようにすることを目的とする。
AR技術によるヘビゲームを例として、図1に示すように、実世界におけるAR目標は、印刷用紙に印刷された芝生パターン11であってもよい。ユーザは端末機器のカメラ(図示せず)によって、該印刷用紙を収集または走査することで、該芝生パターン11を認識できる。ヘビゲームにとって、該芝生パターン11はヘビの移動領域の境界として設定されるから、該芝生パターン11を認識し、且つ芝生パターン11の空間位置を確定した後、該芝生パターン11に基づき仮想シーンの空間位置を確定し、仮想シーン(図1に示されるヘビ12、土壤13、りんご14などを含む)を生成し、ユーザが仮想シーンでゲームすることができる。
伝統のARシステムにとって、AR目標を認識し、仮想シーンを生成した後、ユーザは直接に仮想シーンにおける仮想物品とインタラクションすることができず、一定の媒介(例えば物理的または仮想のキー、操作レバー)を介して仮想シーンにおける仮想物品と間接的にインタラクションする。図2に示されるのは、ヘビゲームの仮想ゲームシーンである。図2から分かるように、ゲームシーンに入った後、ユーザは主にディスプレイ21の両側に位置する仮想キー22によってヘビの行動方向を制御する。実際には、伝統のARシステムにおいて、ユーザがディスプレイによってシーンにおける仮想物品をタッチしても、該仮想物品は効果的なフィードバックがなく、これは仮想シーンの全体が一つの全体としてモデリングされ、仮想シーンにおけるほとんどの物品がただ表示のために存在するからであり、ユーザはARシステムにより提供される固定のインターフェース、例えばディスプレイにおける仮想キーまたは仮想操作レバーなどを介して仮想シーンにおける仮想物品とインタラクションしなければならない。従って、伝統のARシステムのインタラクション可能性には向上の余地がある。
以下は具体的な図面を結合し、本発明の実施例を詳しく紹介する。
図3に示すように、本発明の実施例により提供される端末機器30は、カメラ31と、ディスプレイ32と、メモリー33と、電源34と、プロセッサ35と、オーディオ回路36と、無線周波(radio frequency、RF)回路37と、ワイファイ(wireless fidelity、WiFi)モジュール38などを含む。当業者であれば、図3に示される端末機器30の構成は、端末機器30に対する限定ではなく、図示より多くまたはより少ない部材を含んでもよく、あるいはいくつかの部材を組み合わせ、または異なる部材配置であってもよいことを理解できる。
以下、端末機器30の各々構成部材を具体的に紹介し、
カメラ31は、実世界を走査することで、AR目標が含まれる画像を収集することによって、AR目標をめぐって仮想シーンを確立するように端末機器をトリガーする。ARゲームシステムを例として、カメラ31がAR目標を収集した後、仮想のゲームシーンを確立するように、端末機器30におけるゲームプログラムをトリガーできる。
ディスプレイ32は、普通のディスプレイであってもよく、タッチディスプレイ(タッチパネルとも呼ばれる)であってもよい。ディスプレイ32がタッチディスプレイであることを例として、ディスプレイ32は、ユーザのその上のタッチ操作またはその近傍のタッチ操作(例えばユーザの指、スタイラスなどのいずれかの適当な物体または付属品によるディスプレイ32上またはディスプレイ32の近傍の操作)を収集し、予め設定されたプログラムに応じて相応的な接続装置を駆動する。好ましくは、 ディスプレイ32はタッチ検出装置とタッチコントローラという二つの部分を含むことができる。タッチ検出装置は、ユーザのタッチ位置(またはタッチ領域)を検出し、タッチ操作による信号を検出し、信号をタッチコントローラに送信できる。タッチコントローラは、タッチ検出装置からタッチ情報を受信し、それを接触点座標に変換してから、プロセッサ35に送信し、プロセッサ35から送信された命令を受信するとともに実行できる。また、抵抗式、コンデンサー式、赤外線及び弾性表面波などのいろんなタイプでディスプレイ32を実現できる。無論、ディスプレイ32以外、端末機器30はさらに他の入力機器を含んでもよく、物理キーボード、機能キー(例えば音量制御キー、電源スイッチキーなど)、トラックボール、マウス、操作レバーなどのうちの1種または多種を含んでもよいが、これらに限定されない。
メモリー33は、ソフトウェアプログラム及びモジュールを記憶するために用いられ、プロセッサ35はメモリー33に記憶されるソフトウェアプログラム及びモジュールを実行することで、端末機器30のいろんな機能アプリケーション及びデータ処理を実行する。プログラム記憶領域はゲームプログラムの実行過程で生成されたデータを一時に記憶し、またはユーザから入力されたデータなどを記憶するために用いられる。また、メモリー33は高速ランダムアクセスメモリーを含んでもよく、さらに不揮発性メモリー、例えば少なくとも一つの磁気ディスクメモリー部品、フラッシュメモリ部品、または他の揮発性固体メモリー部品を含んでもよい。ARゲームシステムを例として、メモリー33はゲームプログラムを記憶するために用いられる。ユーザと仮想シーンにおけるいくつかの仮想物品との直接的なインタラクション(例えば直接的なクリックまたはスライド)を実現するために、メモリー33において、それぞれこれらの仮想物品に対して記憶領域を配置し、これらの仮想物品の物品情報を単独に維持することができる。仮想物品の物品情報は、例えば該仮想物品の状態情報を含んでもよく、色、位置、形状、大きさなどの仮想物品の情報のうちの少なくとも一つを含んでもよい。ある仮想物品がユーザに操作されることで、その状態情報が変更される場合に、プロセッサ35はメモリー33に記憶される該仮想物品の状態情報をリアルタイムに更新できる。仮想物品の状態情報以外、仮想物品の物品情報には仮想物品のラベル情報(該仮想物品の識別のために用いられる)、空間位置情報などが含まれてもよく、本発明の実施例はこれを具体的に限定しない。
電源34は、電源管理システムを介してプロセッサ35に論理的に接続されることで、電源管理システムによって、充電、放電、及び消費電力の管理などの機能を実現できる。
プロセッサ35は、端末機器30の制御中心であり、いろんなインターフェースと回路によって、全体の端末機器30の各々部分を接続し、メモリー33内に記憶されるソフトウェアプログラム及び/またはモジュールを実行し、及びメモリー33内に記憶されるデータを呼び出すことで、端末機器30のいろんな機能を実行し、データを処理し、端末機器30に対して全体的に監視する。好ましくは、プロセッサ35は一つまたは複数の処理ユニットを含んでもよく、プロセッサ35にはアプリケーションプロセッサとモデムプロセッサが集積され、アプリケーションプロセッサは主にオペレーティングシステム、ユーザインタフェースとアプリケーションプログラムなどを処理し、モデムプロセッサは主に無線通信を処理してもよい。前記モデムプロセッサはプロセッサ35に集積されていなくてもよいことは理解できる。
オーディオ回路36、スピーカー41、マイクロフォン42は、ユーザと端末機器30との間のオーディオインターフェースを提供できる。オーディオ回路36は、受信されたオーディオデータを変換後の電気信号を、スピーカー41に送信し、スピーカー41によって音声信号に変換して出力する。一方、マイクロフォン42は、収集された音声信号を電気信号に変換し、オーディオ回路36によって受信した後、オーディオデータに変換し、そしてオーディオデータをRF回路37に出力し、例えば他の端末機器に送信し、またはオーディオデータをメモリー33に出力することで、さらに処理する。ARゲームシステムを例として、ゲームシーンに入った後、端末機器30はスピーカー41によりゲーム音声を再生し、ユーザはマイクロフォン42を介して他のプレイヤーと音声の交流を行うことができる。
RF回路37は、情報の送受信、または通話過程での信号の送受信のために用いられ、特に、基地局のダウンリンク情報を受信すると、プロセッサ35に処理させ、また、アップリンクのデータを基地局に送信する。一般的には、RF回路37には、アンテナと、少なくとも一つの増幅器と、送受信機器と、結合器と、LNA(low noise amplifier、ローノイズアンプ)と、デュプレクサなどが含まれるがこれらに限定されない。また、RF回路37はさらに無線通信を介してネットワーク及び他の機器と通信することができる。前記無線通信は、いずれかの通信規格または規約を利用することができ、モバイル通信用グローバルシステム(global system of mobile communication、GSM(登録商標))、汎用パケット無線サービス(general packet radio service、GPRS)、符号分割多元接続(code division multiple access、CDMA)、広帯域符号分割多元接続 (wideband code division multiple access WCDMA(登録商標))、長期進化(long term evolution、LTE)、NR(new radio)、メール、ショートメッセージサービス(short messaging service、SMS)などが含まれるがこれらに限定されない。
ユーザは、WiFiモジュール38を介してローカルエリアネットワークに接続されるとともに、リアルタイムにデータのインタラクションを行う。ARゲームシステムを例として、WiFiモジュール38を介して、ユーザはローカルエリアネットワークにおける他のユーザと、同一の仮想シーンでゲームすることができる。ゲームの過程で、ユーザの間はWiFiモジュール38を介してリアルタイムにゲームのデータインタラクションを行う。例えば、あるユーザが仮想シーンにおけるある仮想物品に対してタッチ制御操作を行うことで、該仮想物品の物品情報が変更される場合に、該ユーザはWiFiモジュール38を介して他のユーザの端末機器に指示情報を送信することで、該仮想物品の物品情報を更新するように、他のユーザの端末機器に指示することができ、これによって、各々ユーザの端末機器に記憶される該仮想物品の物品情報を一致に保持する。
図4は、本発明の実施例により提供される情報処理方法の模式的なフローチャートである。図4の方法は現在の端末機器、または現在の端末機器におけるプロセッサによって実行され、該現在の端末機器は、例えば、図3に示される端末機器30であってもよい。
図4の方法は、以下のステップを含み、即ち、
410、端末機器が現在の端末機器により収集され、AR目標が含まれる画像を取得する。
例えば、現在の端末機器のカメラによって、実世界を走査することで、 AR目標が含まれる画像を取得できる。
420、端末機器は画像におけるAR目標を認識し、それぞれ対応する物品情報を有するN個の仮想物品が含まれる(Nが2以上の整数である)仮想シーンを生成する。
好ましくは、いくつかの実施例において、ステップ420は、端末機器がAR目標の空間位置情報を取得することと、AR目標の空間位置情報、及び予め確立されたAR目標の空間位置情報と仮想シーンの空間位置情報との逐一対応の関係に基づき、仮想シーンを生成することを含む。
具体的には、AR技術にとって、一般的には、仮想シーンがAR目標をめぐって確立され、仮想シーンの空間位置とAR目標の空間位置とが対応関係(またはバインディング関係)を有する。従って、仮想シーンを生成するために、一般的には、まず画像にAR目標が含まれるかどうかを確定してから、AR目標の空間位置情報を取得する必要がある。画像にAR目標が含まれるかどうかを確定する方式は複数あり、一つの例として、いくつかの画像認識アルゴリズムによって、画像にAR目標が含まれるかどうかを確定できる。例えば、AR目標の物体特徴を予め記録してもよい。ユーザが現在の端末機器のカメラによって、実世界に対して画像の収集を行う過程で、現在の端末機器は画像認識アルゴリズムによって、画像に出現される物体を認識できる。ある物体の物体特徴が予め記録されたAR目標の物体特徴と同様であると認識すれば、画像からAR目標を認識したと判定することができる。
さらに、画像にAR目標が含まれると認識すると、AR目標の画像における位置及びカメラの現在の視野角に応じて、AR目標の空間位置を確定できる。そして、AR目標の空間位置を確定した後、AR目標の空間位置、及び予め記録されたAR目標の空間位置と仮想シーンの空間位置との対応関係に応じて、仮想シーンの空間位置を確定し、さらに仮想シーンの空間位置に仮想シーンを生成することができる。前記ステップによって、仮想と現実を融合させるARシーンを形成でき、該ARシーンには実世界の情報(例えばAR目標)と仮想情報(仮想シーンにおける仮想物品)とが含まれる。
理解すべきなのは、AR目標の空間位置情報は、AR目標の実世界(または物理空間)における空間位置(例えば実世界における三次元座標)を指示するために用いられる。それで、仮想シーンの空間位置情報は、仮想シーンの実世界(または物理空間)における空間位置(例えば実世界における三次元座標)を指示するために用いられる。一つの例として、仮想シーンの空間位置情報は仮想シーンとAR目標との相対的な位置関係によって示される。
ステップ430、端末機器は仮想シーンから複数の仮想物品を分解する。
ステップ420によって生成された仮想シーンには複数の仮想物品が含まれ、この場合、該仮想シーンは一つの完全なモデルであってもよく、後述のインタラクションタスクを実現するために、まず複数の仮想物品を仮想シーンから分解しなければならない。
一つの例として、全体的に仮想シーンを生成してから、仮想シーンからN個の仮想物品を分解することができる。例えば、ARシステムの設計段階で、まず仮想シーンからユーザが単独にインタラクションするためのN個の仮想物品を選択する。そして、一定のモデル分割アルゴリズムによって、仮想シーンのモデルから該N個の仮想物品のサブモデルを抽出する。そして、該N個の仮想物品のサブモデルデータを仮想シーンのモデルデータに保存して、ARシステムの実際の実行の際に呼び出すことができる。ARシステムの実際の実行の段階で、AR目標を認識すると、まず仮想シーンの全体のモデルを呼び出し、仮想シーンを生成することができる。そして、仮想シーンのモデルデータからN個の仮想物品のそれぞれ対応するサブモデルデータを抽出することができる。仮想シーンのモデルデータから、N個の仮想物品のそれぞれ対応するサブモデルデータを取得することは、仮想シーンからN個の仮想物品を分解することに相当し、次は、N個の仮想物品に対して、独立の表示と制御を行うことができる。
ステップ440、端末機器は、前記N個の仮想物品がそれぞれ対応するように有する物品情報を生成する。
理解すべきなのは、N個の仮想物品とインタラクションする前に、まずN個の仮想物品の物品情報を生成及び記憶しなければならない。実際のインタラクション過程で、独立してN個の仮想物品の物品情報を維持または更新し、ユーザが単独で各々仮想物品とインタラクションすることができるようにする。
仮想物品の物品情報に仮想物品のラベル情報と、空間位置情報と、状態情報とが含まれることを例として、仮想シーンからN個の仮想物品を分解した後、該N個の仮想物品における各々仮想物品にラベル(仮想物品の識別のために用いられる)を配布し、各々仮想物品の現在の空間位置と現在の状態を確定することができる。そして、各々仮想物品のラベル、現在の空間位置及び現在の状態に応じて該仮想物品の物品情報におけるラベル情報、空間位置情報及び状態情報に値を割り当て、該仮想物品の空間位置情報、ラベル情報及び状態情報の初期値を取得することができる。ユーザがある仮想物品を操作することで、該仮想物品の空間位置及び/または状態が変更される場合に、該仮想物品の空間位置情報及び/または状態情報の値の記録を変更する変化によって、ユーザと仮想物品との単独なインタラクションを実現する。
ステップ450、端末機器がユーザから入力され、前記N個の仮想物品における目標仮想物品に対する操作命令を受信すると、前記N個の仮想物品における、前記目標仮想物品以外の他の仮想物品の物品情報をそのまま保持し、前記目標仮想物品の物品情報を更新する。
伝統のARシステムにとって、仮想シーンは一つの全体としてモデリングされる。従って、仮想シーンにおける仮想物品が互いに関連し、一つの全体を形成し、ユーザが仮想シーンにおけるある仮想物品と単独にインタラクションすることができない。本発明の実施例は仮想シーンにおけるN個の仮想物品に対して、互いにデカップリングし、N個の仮想物品のモデルが互いに独立して、それぞれ対応する物品情報を有する。このように、ユーザが単独にある仮想物品とインタラクションする際に、他の仮想物品の物品情報をそのまま保持して、該仮想物品のみの物品情報を変更することができる。
本発明の実施例において、仮想シーン内のN個の仮想物品が互いに独立して、それぞれ対応する物品情報、例えば状態情報、ラベル情報などを有し、ユーザが独立して仮想シーンにおける仮想物品とインタラクションすることで、他の仮想物品の状態、ラベルなどに影響を与えず、ある仮想物品と単独にインタラクションできるようにし、ARシステムのインタラクション可能性を向上させる。
仮想物品の物品情報には仮想物品の以下の情報のうちの少なくとも一つが含まれ、即ち、空間位置情報、状態情報及びラベル情報である。仮想物品のラベル情報は該仮想物品を識別し、または該仮想物品と他の仮想物品を区別するために用いられる。仮想物品の空間位置情報は該仮想物品の空間位置、例えば仮想物品の実世界における三次元座標を指示するために用いられる。仮想物品の空間位置情報は、例えば該仮想物品とAR目標の空間位置との相対的な関係により示される。仮想物品の状態情報は、仮想物品の現在の状態を指示するために用いられる。仮想物品の状態情報には仮想物品の形状、色などが含まれてもよい。仮想物品の状態情報は実際の必要に応じて設定すればよく、本発明の実施例はこれを具体に限定しない。例えば、仮想物品が窓のガラスであり、ユーザがガラスをクリックすることで砕くと、該仮想物品の状態情報は該ガラスが砕かれているかどうかを指示するために用いられる。
なお、本発明の実施例において、N個の仮想物品は互いに独立するモデルを有してもよい。以下はN個の仮想物品の生成方式を詳しく紹介する。
本発明の実施例は、ステップ450における操作命令のタイプを具体的に限定せず、物理キーまたは仮想キーにより入力される操作命令であってもよく、ユーザが現在の端末機器のディスプレイにより入力したタッチ操作命令であってもよい。以下はステップ450における操作命令がタッチ操作命令であることを例として例示して説明する。
好ましくは、いくつかの実施例において、ステップ450の前に、図4の方法はさらに前記タッチ操作命令に対応するタッチ位置情報を取得することと、前記N個の仮想物品の物品情報から、前記N個の仮想物品の空間位置情報を抽出することと、前記N個の仮想物品の空間位置情報に応じて、前記N個の仮想物品の、前記ディスプレイにおける表示位置情報を確定することと、前記タッチ位置情報と前記表示位置情報に応じて、前記N個の仮想物品から、前記タッチ操作命令のターゲットである前記目標仮想物品を選択することとを含む。
本発明の実施例により提供される技術案は、ユーザと各々仮想物品とが独立のタッチインタラクションを行うように支持し、ARシステムのインタラクション可能性をさらに向上させる。
ARシステムにとって、仮想シーンの空間位置がカメラの移動に連れて変更されるから、ユーザが異なる時刻でディスプレイの同一のタッチ位置に入力したタッチ操作命令は、異なる目標仮想物品に対する可能性がある。従って、ARシステムの実行過程で、まずN個の仮想物品の空間位置情報に応じて、N個の仮想物品のディスプレイにおける表示位置情報を確定することができる。そして、表示位置が該タッチ位置にある仮想物品を、タッチ操作命令のターゲットである目標仮想物品として確定することができる。仮想物品の、ディスプレイにおける表示位置情報の確定方式は複数があり、本発明の実施例はこれを具体的に限定せず、例えば、仮想物品の空間位置情報に基づき、仮想物品の空間位置をユーザの現在の視野角に沿ってディスプレイに投影し、該仮想物品のディスプレイにおける表示位置情報を取得することができる。
理解すべきなのは、本発明の実施例はタッチ操作命令に対応するタッチ操作のタイプを具体的に限定しない。例えば、タッチ操作には、クリック操作、スライド操作、ピンチアウト操作、ピンチイン操作、回転操作のうちの少なくとも一つが含まれてもよい。
さらに、本発明の実施例は、タッチ操作命令の機能を具体的に限定せず、実際の必要に応じて設定すればよい。一つの例として、タッチ操作はクリック操作であり、タッチ操作命令が、目標仮想物品をクリック方向にスライドさせるように制御するために用いられる。さらに、目標仮想物品のスライド距離がクリック操作の操作強度に正比例してもよい。他の例として、タッチ操作はクリック操作であり、タッチ操作命令が目標仮想物品を変形させるように制御するために用いられる。さらに、目標仮想物品の変形程度がクリック操作の操作強度に正比例してもよい。他の示例として、タッチ操作はスライド操作であり、タッチ操作命令が目標仮想物体をスライド軌跡に沿ってスライドさせるように制御するために用いられる。さらなる示例として、タッチ操作はスライド操作であり、タッチ操作命令がスライド軌跡を経た前記目標仮想物品を仮想シーンから削除するために用いられる。
理解すべきなのは、目標仮想物品は一つの仮想物品であってもよく、複数の仮想物品であってもよい。目標仮想物品は、タッチ操作命令のターゲットである仮想物品、またはタッチ操作命令の操作対象として理解されてもよい。
図5を例として、AR目標が大理石テクスチャの床面であると想定し、現在の端末機器がカメラにより大理石テクスチャの床面が含まれる画像を収集し、画像における大理石テクスチャの床面を認識することで、図5に示される仮想シーンを確立することができる。該仮想シーンには仮想物品1と、仮想物品2と、仮想物品3と、仮想物品4と、仮想物品5などの仮想物品が含まれる。タッチ操作が図5に示される仮想物品5に対するクリック操作であり、該クリック操作の操作命令の作用が、仮想物品5の高さを押圧することであると想定し、現在の端末機器が、該クリック操作の操作命令を実行した後、仮想物品5の高さが図5に示される高さから、図6に記載の高さに低くなる。
図4の方法をARゲームシステムに適用することを例として、本発明の実施例は、ディスプレイを介して仮想シーンにおける物品と直接的なタッチインタラクションを行うARゲームシステムを提供することに相当する。このようなゲームシステムは、プレイヤーに、実世界でゲームにおけるタスク物品をタッチ制御するような体験を発生させる。さらに、該ゲームシステムはタッチ制御されたタスク物品の物品情報をリアルタイムに更新し、プレイヤーのタッチ制御操作に対してリアルタイムのフィードバックを行うことができる。
好ましくは、いくつかの実施例において、図4の方法はさらに、他の端末機器に、目標仮想物品の物品情報を更新するように他の端末機器に指示するための第1指示情報を送信することで、他の端末機器に記憶される目標仮想物品の物品情報と現在の端末機器に記憶される目標仮想物品の物品情報とを一致に保持することを含む。
本発明の実施例は、第1指示情報の内容を具体的に限定しない。一つの例として、第1指示情報には、目標仮想物品の、現在の端末機器における物品情報が含まれてもよい。他の端末機器が第1指示情報を受信すると、直接的に該第1指示情報における物品情報を利用して、目標仮想物品の、他の端末機器における物品情報を差し替えればよい。他の例として、第1指示情報には、目標仮想物品は、どのタイプのタッチ操作が実行されるかを指示する情報が含まれてもよい。他の端末機器が第1指示情報を受信すると、目標仮想物品に対して同じタッチ操作を実行することで、目標仮想物品の他の端末機器における物品情報と、目標仮想物品の現在の端末機器における物品情報とを一致に保持する。
同様に、他の端末機器のユーザが、同一の仮想シーンにおける少なくとも一つの仮想物品に対してタッチ操作を実行することで、該少なくとも一つの仮想物品の物品情報が変更される場合にも、指示情報を送信する方式で、仮想シーンにおける各々仮想物品の物品情報を同期にするように、現在の端末機器と他の端末機器とに指示することができる。
具体的には、図4の方法はさらに、他の端末機器から送信され、N個の仮想物品における少なくとも一つの仮想物品の物品情報を更新するように現在の端末機器に指示するための第2指示情報を受信することと、第2指示情報に応じて、少なくとも一つの仮想物品の物品情報を更新することで、現在の端末機器に記憶される少なくとも一つの仮想物品の物品情報と他の端末機器に記憶される少なくとも一つの仮想物品の物品情報とを一致に保持することとを含む。
本発明の実施例は、第2指示情報の内容を具体的に限定しない。一つの例として、第2指示情報には、少なくとも一つの仮想物品の他の端末機器における物品情報が含まれてもよい。現在の端末機器が第2指示情報を受信すると、直接的に該第2指示情報における物品情報を利用して、少なくとも一つの仮想物品の現在の端末機器における物品情報を差し替えればよい。他の例として、第2指示情報には、少なくとも一つの仮想物品は、どのタイプのタッチ操作が実行されるかを指示する情報が含まれてもよい。現在の端末機器が第2指示情報を受信すると、少なくとも一つの仮想物品に対して同じタッチ操作を実行することで、少なくとも一つ仮想物品の現在の端末機器における物品情報と、少なくとも一つの仮想物品の他の端末機器における物品情報とを一致に保持することができる。
本発明の実施例によれば、複数のユーザに同一の仮想シーンにおける仮想物品とインタラクションさせることができる。仮想シーンにおけるある仮想物品があるユーザに操作され、新たな物品情報が生じた後、該仮想物品の物品情報は、他のユーザの端末機器にフィードバックまたは同期され、ARシステムのインタラクション方式を豊かにして、ユーザの官能体験を向上させる。
ARゲームシステムを例として、本発明の実施例は、複数のプレイヤーが同一のゲームタスクを実行するように許可するARゲームシステムを提供することに相当する。ゲームの過程で、あるプレイヤーにより実行されたタスクは、即時に他のプレイヤーのゲームインタフェースにフィードバックされ、プレイヤーのゲーム体験を向上させる。
理解すべきなのは、本発明の実施例は、現在の端末機器と他の端末機器との間の通信方式を具体的に限定せず、有線接続の方式または無線接続の方式を採用してもよい。一つの例として、現在の端末機器と他の端末機器とがWiFiに基づき接続されてもよい。
以下は、図5〜図7を結合し、ARシステムがゲームシーンに適用されることを例として、本発明の実施例をより詳しく記載する。なお、図5〜図7の例は、本発明の実施例を例示される具体的な値またはシーンに限定するためのものではなく、ただ当業者の、本発明の実施例への理解に寄与する。
図7は、本発明の実施例により提供されるARによるゲーム過程の模式的なフローチャートである。
702、端末機器はAR目標が含まれる画像を収集する。
図5に示すように、AR目標は図5における大理石の床面であってもよい。端末機器はカメラにより該大理石床面を走査することで、仮想のゲームシーンを生成するように、端末機器におけるゲームプログラムをトリガーすることができる。
704、端末機器は仮想のゲームシーンを生成する。
図5に示すように、ゲームシーン(仮想物品1〜5などからなる)と大理石の床面との間の空間位置は、バインディングの関係を有するから、大理石の床面を認識し、大理石の床面の空間位置を確定すると、ゲームシーンの空間位置を確定することができる。そして、相応的な空間位置でゲームシーンを生成することができ、仮想のゲームシーンをAR目標がある実世界に添加することに相当し、仮想と現実を融合させるという効果を果たす。
706、端末機器はゲームシーンから複数の仮想物品を分解する。
ステップ704により生成されたゲームシーンには複数の仮想物品(図5に示される仮想物品1〜5)が含まれ、該ゲームシーンは一つの完全なモデルであってもよく、後述のゲームのインタラクションタスクを実現するために、まず複数の仮想物品をゲームシーンから分解しなければならない。
具体的には、ゲームの設計段階で、まずゲームタスクの必要に応じて、ゲームシーンにおけるいくつかの仮想物品を、インタラクション可能な仮想物品として選択する。そして、手動方式または3Dモデリングソフトウェアによってゲームシーンの全体モデルを分解することで、仮想物品のサブモデルデータを取得する。次は、仮想物品のサブモデルデータをゲームシーンのモデルデータに添加し、ゲームの実行段階で利用される。ゲームの実行段階で、ゲームプログラムはまずゲームシーンの全体モデルを生成してから、ゲームシーンのモデルデータから仮想物品のサブモデルデータを読み取り、このように、速やかにゲームシーンから複数の仮想物品を分解することができる。
708、端末機器は複数の仮想物品の物品情報を算出し記憶する。
図5に示すように、まず分解された各々仮想物品にラベルを配布することで、各々仮想物品の身分を示し、例えば図5の仮想物品1、仮想物品2などである。
そして、ゲームシーンの空間位置情報、及び各々仮想物品のゲームシーンにおける相対的な位置に応じて、各々仮想物品の独立の空間位置を算出する。伝統AR技術において、仮想シーンは常に全体でモデリングされるように保持されるから、仮想シーンの空間位置とAR目標の空間位置のみを記録し、本発明の実施例はAR目標の空間位置だけではなく、各々仮想物品の空間位置も記録し、「1対1」という対応関係から、「1対多」という対応関係に変更することに相当する。
さらに、分解された仮想物品の状態を記録する。理解すべきなのは、仮想物品の状態はゲームタスクと関係があり、実際の必要に応じて自由に設定すればよい。例えば、本発明の実施例は、速やかに各々仮想物品をクリックし、各々仮想物品を押し潰すようにゲームタスクを設定すれば、仮想物品の状態が仮想物品の高さである。
次は、以上の算出された各々仮想物品のラベル、空間位置及び仮想物品の状態に基づき、仮想物品の物品情報におけるラベル情報、空間位置情報、状態情報に値を割り当て、仮想物品の初期の物品情報を形成することができる。そして、仮想物品の初期の物品情報をメモリーに記憶する。さらに、マルチプレイのシーンにおいて、各々プレイヤーは仮想物品の物品情報を他のプレイヤーに送信することで、各々プレイヤーの間の情報の同期を実現することができる。
710、端末機器はプレイヤーの、仮想シーンにおける目標仮想物品に対するタッチ操作を取得する。
図5に示すように、タッチ操作命令はクリック操作命令であってもよく、プレイヤーは異なる仮想物品をクリックすることで、異なる仮想物品を押し潰す。
712、端末機器は目標仮想物品にタッチ操作命令を実行し、目標仮想物品の物品情報を更新する。
図5〜6に示すように、プレイヤーが仮想物品5をクリックすれば、ゲームのプログラムは仮想物品5の高さを、図5に示される高さから、図6に示される高さに低くすることで、仮想物品5を押し潰し、他の仮想物品の高さが不変なままである。
さらに、マルチプレイのシーンにおいて、他の端末機器のプレイヤーが、他の仮想物品(例えば仮想物品2)をクリックすると、WiFiなどの方式で、現在の端末機器に指示情報を送信する。現在の端末機器が該指示情報を受信した後、仮想物品2の物品情報を更新することで、該仮想物品2の状態情報を、押し潰された状態に更新し、複数のプレイヤーの間のゲーム過程の同期を実現する。最後は、複数のプレイヤーの、それぞれ仮想物品をクリックした数量を算出し、仮想物品をクリックした数量が最も多いプレイヤーを、ゲームの勝者として設定し、マルチプレイを実現することができる。
以下は本発明の装置の実施例を記載し、装置の実施例は前記方法を実行し得るから、詳しく記載されていない部分について、前の各方法の実施例を参照すればよい。
図8は、本発明の実施例により提供される情報処理装置の模式的な構成図である。図8の情報処理装置800は、
現在の端末機器による収集され、拡張現実AR目標が含まれる画像を取得するための取得モジュール810と、
前記AR目標を認識し、N個の仮想物品が含まれる(Nが2以上の整数である)仮想シーンを生成するための生成モジュール820と、
前記更新モジュール830が前記目標仮想物品の物品情報を更新する前に、前記仮想シーンから前記N個の仮想物品を分解するための分解モジュール830と、
前記N個の仮想物品のそれぞれ対応する物品情報を生成するための物品情報発生モジュール840と、
ユーザから入力された前記N個の仮想物品における目標仮想物品に対する操作命令を受信すると、前記N個の仮想物品における、前記目標仮想物品以外の他の仮想物品の物品情報をそのまま保持して、前記目標仮想物品の物品情報を更新するための更新モジュール850とを含む。
本発明の実施例において、仮想シーン内のN個の仮想物品が互いに独立して、それぞれ対応する物品情報を有し、ユーザが独立して仮想シーンにおける仮想物品とインタラクションでき、ARシステムのインタラクション可能性を向上させる。
好ましくは、いくつかの実施例において、前記装置800はさらに、他の端末機器に、前記目標仮想物品の物品情報を更新するように前記他の端末機器に指示するための第1指示情報を送信することで、前記他の端末機器に記憶される前記目標仮想物品の物品情報と前記現在の端末機器に記憶される前記目標仮想物品の物品情報とを一致に保持するための送信モジュールを含む。
好ましくは、いくつかの実施例において、前記装置800はさらに、他の端末機器から送信された前記N個の仮想物品における少なくとも一つの仮想物品の物品情報を更新するように前記現在の端末機器に指示するための第2指示情報を受信するための受信モジュールを含み、前記更新モジュール830はさらに、前記第2指示情報に応じて、前記少なくとも一つの仮想物品の物品情報を更新することで、前記現在の端末機器に記憶される前記少なくとも一つの仮想物品の物品情報と前記他の端末機器に記憶される前記少なくとも一つの仮想物品の物品情報とを一致に保持するために用いられる。
好ましくは、いくつかの実施例において、前記装置800はさらに、前記N個の仮想物品のそれぞれ対応する物品情報を記憶するための記憶モジュールを含む。
好ましくは、いくつかの実施例において、前記仮想シーンのモデルデータには、インタラクション可能な前記N個の仮想物品のそれぞれ対応するサブモデルデータが予め記録され、前記分解モジュールは具体的には前記仮想シーンのモデルデータから前記N個の仮想物品のそれぞれ対応するサブモデルデータを抽出するために用いられる。
好ましくは、いくつかの実施例において、具体的には、前記生成モジュール820は、前記AR目標の空間位置情報を取得し、前記AR目標の空間位置情報、及び予め確立された前記AR目標の空間位置情報と前記仮想シーンの空間位置情報との逐一対応の関係に応じて、前記仮想シーンを生成するために用いられ、
好ましくは、いくつかの実施例において、前記操作命令は、前記ユーザが前記現在の端末機器のディスプレイにより入力したタッチ操作命令であり、前記取得モジュール810はさらに、前記更新モジュール850が前記目標仮想物品の物品情報を更新する前に、前記タッチ操作命令に対応するタッチ位置情報を取得するために用いられ、前記装置800はさらに、前記N個の仮想物品の物品情報から、前記N個の仮想物品の空間位置情報を抽出するための抽出モジュールと、前記N個の仮想物品の空間位置情報に応じて、前記N個の仮想物品の、前記ディスプレイにおける表示位置情報を確定するための確定モジュールと、前記タッチ位置情報と前記表示位置情報に応じて、前記N個の仮想物品から、前記タッチ操作命令のターゲットである前記目標仮想物品を選択するための選択モジュールとを含む。
好ましくは、いくつかの実施例において、前記N個の仮想物品における各々仮想物品の物品情報には、各々仮想物品の空間位置情報、状態情報及びラベル情報のうちの少なくとも一つが含まれる。
図9は、本発明の実施例により提供される端末機器の模式的な構成図である。図9の端末機器900はカメラ910とプロセッサ920とを含む。いくつかの実施例において、該端末機器900は、例えば図3に示される端末機器30の実現形態を採用してもよく、カメラ910が端末機器30のカメラ31に対応し、プロセッサ920が端末機器30のプロセッサ35に対応してもよい。以下は端末機器900の構成を詳しく記載する。
カメラ910は、AR目標が含まれる画像を収集するために用いられる。
プロセッサ920は、前記カメラ910に接続され、前記AR目標を認識し、仮想シーンを生成するために用いられ、前記仮想シーンにはそれぞれ対応する物品情報を有するN個の仮想物品が含まれ、Nが2以上の整数であり、前記仮想シーンから前記N個の仮想物品を分解し、前記N個の仮想物品がそれぞれ対応するように有する物品情報を生成し、ユーザから入力された前記N個の仮想物品における目標仮想物品に対する操作命令を受信すると、前記N個の仮想物品における、前記目標仮想物品以外の他の仮想物品の物品情報をそのまま保持して、前記目標仮想物品の物品情報を更新する。
本発明の実施例において、仮想シーン内のN個の仮想物品が互いに独立し、それぞれ対応する物品情報を有し、ユーザが独立して仮想シーンにおける仮想物品とインタラクションでき、ARシステムのインタラクション可能性を向上させる。
好ましくは、いくつかの実施例において、前記端末機器900はさらに、他の端末機器に、前記目標仮想物品の物品情報を更新するように前記他の端末機器に指示するための第1指示情報を送信することで、前記他の端末機器に記憶される前記目標仮想物品の物品情報と前記端末機器900に記憶される前記目標仮想物品の物品情報とを一致に保持するための送信機を含む。
好ましくは、いくつかの実施例において、前記端末機器900はさらに、他の端末機器から送信され、前記N個の仮想物品における少なくとも一つの仮想物品の物品情報を更新するように前記端末機器900に指示するための第2指示情報を受信するための受信機を含み、前記プロセッサ920はさらに、前記第2指示情報に応じて、前記少なくとも一つの仮想物品の物品情報を更新することで、前記端末機器900に記憶される前記少なくとも一つの仮想物品の物品情報と前記他の端末機器に記憶される前記少なくとも一つの仮想物品の物品情報とを一致に保持する。
好ましくは、いくつかの実施例において、前記プロセッサ920はさらに、前記N個の仮想物品のそれぞれ対応する物品情報を記憶するために用いられる。
好ましくは、いくつかの実施例において、前記仮想シーンのモデルデータには、インタラクション可能な前記N個の仮想物品のそれぞれ対応するサブモデルデータが予め記録され、前記プロセッサ920は具体的には、前記仮想シーンのモデルデータから、前記N個の仮想物品のそれぞれ対応するサブモデルデータを抽出するために用いられる。
好ましくは、いくつかの実施例において、前記プロセッサ920は具体的には、前記AR目標の空間位置情報を取得し、前記AR目標の空間位置情報、及び予め確立された前記AR目標の空間位置情報と前記仮想シーンの空間位置情報との逐一対応の関係に応じて、前記仮想シーンを生成するために用いられる。
好ましくは、いくつかの実施例において、前記操作命令は前記ユーザが前記端末機器900のディスプレイを介して入力したタッチ操作命令であり、前記プロセッサ920はさらに、前記目標仮想物品の物品情報を更新する前に、前記タッチ操作命令に対応するタッチ位置情報を取得し、前記N個の仮想物品の物品情報から、前記N個の仮想物品の空間位置情報を抽出し、前記N個の仮想物品の空間位置情報に応じて、前記N個の仮想物品の、前記ディスプレイにおける表示位置情報を確定し、前記タッチ位置情報と前記表示位置情報に応じて、前記N個の仮想物品から、前記タッチ操作命令のターゲットである前記目標仮想物品を選択するために用いられる。
好ましくは、いくつかの実施例において、前記N個の仮想物品における各々仮想物品の物品情報には、各々仮想物品の空間位置情報、状態情報及びラベル情報のうちの少なくとも一つが含まれる。
前記実施例において、全部または一部的にソフトウェア、ハードウェア、ファームウェアまたは他の任意の組み合わせで実現されてもよい。ソフトウェアによって実現される場合に、全部または一部的にコンピュータープログラム製品という形態で実現されてもよい。前記コンピュータープログラム製品には一つまたは複数のコンピューター命令が含まれる。コンピューターで前記コンピュータープログラム命令をロードし及び実行する場合に、全部または一部的に本発明の実施例に記載のフローまたは機能が発生する。前記コンピューターは汎用コンピューター、専用コンピューター、コンピューターネットワーク、または他のプログラム可能な装置であってもよい。前記コンピューター命令はコンピューター読み取り可能な記憶媒体に記憶されてもよく、または一つのコンピューター読み取り可能な記憶媒体から、他のコンピューター読み取り可能な記憶媒体に伝送されてもよく、例えば、前記コンピューター命令は一つのウェブサイト、コンピューター、サーバーまたはデータ中心から、有線(例えば同軸ケーブル、ファイバ、デジタル加入者線(digital subscriber line、DSL))または無線(例えば赤外、無線、マイクロ波など)の方式で、他のウェブサイト、コンピューター、サーバーまたはデータ中心に伝送されてもよい。前記コンピューター読み取り可能な記憶媒体は、コンピューターがアクセスでき、利用可能ないずれかの媒体あるいは一つまたは複数の利用可能な媒体集積が含まれるサーバー、データ中心などのデータ記憶機器であってもよい。前記利用可能な媒体は磁気媒体(例えば、フロッピーディスク、ハードディスク、テープ)、光学媒体(例えば、デジタルビデオディスク(digital video disc、DVD))、または半導体媒体(例えば、ソリッドステートディスク(solid state disk、SSD))などであってもよい。
当業者は、本明細書に開示された実施例に記載の各々例示のユニット及びアルゴリズムステップを結合して、電子ハードウェア、またはコンピューターソフトウェアと電子ハードウェアとの結合によって実現できることを理解できる。これらの機能は、ハードウェアで実行するか、それともソフトウェアという方式で実行するかということは、技術案の特定の応用及び設計制限条件に依存する。当業者は、各々特定の応用に対して、異なる方法で記載された機能を実現し得るが、このような実現は本出願の範囲を超えない。
本出願により提供されたいくつかの実施例において、理解すべきなのは、開示されたシステム、装置及び方法は、他の方式で実現されてもよい。例えば、以上に記載の装置の実施例は、ただ例示的で、例えば、前記ユニットに対する区画は、論理機能の区画だけであり、実際に実現する場合に、他の区画方式があってもよく、例えば、複数のユニットまたは部品が結合または他のシステムに集積されてもよく、あるいはいくつかの特徴を無視し、または実行しなくてもよい。また、表示または検討される互いの間の結合あるいは直接な結合あるいは通信接続は、いくつかのインターフェースを介した、装置またはユニットの間接な結合または通信接続であってもよく、電気的、機械的または他の形式であってもよい。
前記分離部材として説明されたユニットは、物理的に分割されてもよく、そうでなくてもよく、ユニットとして表示された部材は、物理ユニットであってもよく、そうでなくてもよく、即ち、一つの箇所に位置されてもよく、または複数のネットワークユニットに分布されてもよい。実際の必要に応じて、そのうちの一部または全部のユニットを選択して、本実施例の方案の目的を実現することができる。
また、本出願の各々実施例における各々機能ユニットは、一つの処理ユニットに集積されてもよく、各々ユニットは単独で物理的に存在してもよく、さらに二つまたは二つ以上のユニットが一つのユニットに集積されてもよい。
以上は、本出願の具体的な実施形態であるが、本出願の保護範囲はこれに限定されず、当業者が、本出願により開示された技術範囲内で、容易に想到し得る変更または差し替えはいずれも本出願の保護範囲に該当すべきである。従って、本出願の保護範囲は、前記請求項の範囲を基準とすべきである。
31 カメラ
32 タッチディスプレイ
33 メモリー
34 電源
35 プロセッサ
36 オーディオ回路
37 RF回路
38 WiFiモジュール
800 情報処理装置
810 取得モジュール
820 生成モジュール
830 更新モジュール
840 物品情報生成モジュール
850 更新モジュール
900 端末機器
910 カメラ
920 プロセッサ

Claims (25)

  1. 情報処理方法であって、
    端末機器が、前記端末機器により収集され、拡張現実AR目標が含まれる画像を取得することと、
    前記端末機器が、前記AR目標を認識し、N個の仮想物品が含まれる(Nが2以上の整数である)仮想シーンを生成することと、
    前記端末機器が、前記仮想シーンから前記N個の仮想物品を分解し、前記N個の仮想物品のそれぞれ対応するように有する物品情報を生成することと、
    前記端末機器が、ユーザが入力した前記N個の仮想物品における目標仮想物品に対する操作命令を受信すると、前記N個の仮想物品における前記目標仮想物品以外の他の仮想物品の物品情報をそのまま保持して、前記目標仮想物品の物品情報を更新することとを含むことを特徴とする方法。
  2. 前記方法はさらに、
    前記端末機器が他の端末機器に、前記目標仮想物品の物品情報を更新するように前記他の端末機器に指示するための第1指示情報を送信することで、前記他の端末機器に記憶される前記目標仮想物品の物品情報と現在の端末機器に記憶される前記目標仮想物品の物品情報とを一致に保持することを含むことを特徴とする請求項1に記載の方法。
  3. 前記方法はさらに、
    前記端末機器が、他の端末機器が送信した、前記N個の仮想物品における少なくとも一つの仮想物品の物品情報を更新するように現在の端末機器に指示するための第2指示情報を受信することと、
    前記端末機器が、前記第2指示情報に応じて、前記少なくとも一つの仮想物品の物品情報を更新することで、前記現在の端末機器に記憶される前記少なくとも一つの仮想物品の物品情報と前記他の端末機器に記憶される前記少なくとも一つの仮想物品の物品情報とを一致に保持することとを含むことを特徴とする請求項1または2に記載の方法。
  4. 前記目標仮想物品の物品情報を更新する前に、前記方法はさらに、
    前記端末機器が、前記N個の仮想物品のそれぞれ対応する物品情報を記憶することを含むことを特徴とする請求項1〜3のいずれか1項に記載の方法。
  5. 前記仮想シーンのモデルデータには、インタラクション可能な前記N個の仮想物品のそれぞれ対応するサブモデルデータが予め記録され、
    前記端末機器が、前記仮想シーンから前記N個の仮想物品を分解することは、
    前記端末機器が、前記仮想シーンのモデルデータから、前記N個の仮想物品のそれぞれ対応するサブモデルデータを抽出することを含むことを特徴とする請求項1に記載の方法。
  6. 前記端末機器が、前記AR目標を認識し、仮想シーンを生成することは、
    前記端末機器が、前記AR目標の空間位置情報を取得することと、
    前記端末機器が、前記AR目標の空間位置情報、及び予め確立された前記AR目標の空間位置情報と前記仮想シーンの空間位置情報との逐一対応の関係に応じて、前記仮想シーンを生成することとを含むことを特徴とする請求項1〜5のいずれか1項に記載の方法。
  7. 前記操作命令は、前記ユーザが現在の端末機器のディスプレイにより入力したタッチ操作命令であり、
    前記端末機器が、前記目標仮想物品の物品情報を更新する前に、前記方法はさらに、
    前記端末機器が、前記タッチ操作命令に対応するタッチ位置情報を取得することと、
    前記端末機器が、前記N個の仮想物品の物品情報から、前記N個の仮想物品の空間位置情報を抽出することと、
    前記端末機器が、前記N個の仮想物品の空間位置情報に応じて、前記N個の仮想物品の、前記ディスプレイにおける表示位置情報を確定することと、
    前記端末機器が、前記タッチ位置情報と前記表示位置情報に応じて、前記N個の仮想物品から前記タッチ操作命令のターゲットである前記目標仮想物品を選択することとを含むことを特徴とする請求項1〜6のいずれか1項に記載の方法。
  8. 前記N個の仮想物品における各々仮想物品の物品情報には、前記各々仮想物品の空間位置情報、状態情報及びラベル情報のうちの少なくとも一つが含まれることを特徴とする請求項1〜7のいずれか1項に記載の方法。
  9. 情報処理装置であって、
    現在の端末機器により収集され、拡張現実AR目標が含まれる画像を取得するための取得モジュールと、
    前記AR目標を認識し、N個の仮想物品が含まれる(Nが2以上の整数である)仮想シーンを生成するための生成モジュールと、
    前記仮想シーンから前記N個の仮想物品を分解するための分解モジュールと、
    前記仮想シーンから前記N個の仮想物品を分解し、前記N個の仮想物品のそれぞれ対応するように有する物品情報を生成するための物品情報生成モジュールと、
    ユーザが入力した前記N個の仮想物品における目標仮想物品に対する操作命令を受信すると、前記N個の仮想物品における前記目標仮想物品以外の他の仮想物品の物品情報をそのまま保持して、前記目標仮想物品の物品情報を更新するための更新モジュールとを含むことを特徴とする装置。
  10. 前記装置はさらに、他の端末機器に、前記目標仮想物品の物品情報を更新するように前記他の端末機器に指示するための第1指示情報を送信することで、前記他の端末機器に記憶される前記目標仮想物品の物品情報と前記現在の端末機器に記憶される前記目標仮想物品の物品情報とを一致に保持するための送信モジュールを含むことを特徴とする請求項9に記載の装置。
  11. 前記装置はさらに、
    他の端末機器が送信した、前記N個の仮想物品における少なくとも一つの仮想物品の物品情報を更新するように前記現在の端末機器に指示するための第2指示情報を受信するための受信モジュールを含み、
    前記更新モジュールはさらに、前記第2指示情報に応じて、前記少なくとも一つの仮想物品の物品情報を更新することで、前記現在の端末機器に記憶される前記少なくとも一つの仮想物品の物品情報と前記他の端末機器に記憶される前記少なくとも一つの仮想物品の物品情報とを一致に保持するために用いられることを特徴とする請求項9または10に記載の装置。
  12. 前記装置はさらに、前記N個の仮想物品のそれぞれ対応する物品情報を記憶するための記憶モジュールを含むことを特徴とする請求項9〜11のいずれか1項に記載の装置。
  13. 前記仮想シーンのモデルデータには、インタラクション可能な前記N個の仮想物品のそれぞれ対応するサブモデルデータが予め記録され、
    前記分解モジュールは、具体的には、前記仮想シーンのモデルデータから前記N個の仮想物品のそれぞれ対応するサブモデルデータを抽出するために用いられることを特徴とする請求項9〜12のいずれか1項に記載の装置。
  14. 前記生成モジュールは、具体的には、前記AR目標の空間位置情報を取得し、前記AR目標の空間位置情報、及び予め確立された前記AR目標の空間位置情報と前記仮想シーンの空間位置情報との逐一対応の関係に応じて、前記仮想シーンを生成するために用いられることを特徴とする請求項9〜13のいずれか1項に記載の装置。
  15. 前記操作命令は、前記ユーザが前記現在の端末機器のディスプレイにより入力したタッチ操作命令であり、
    前記取得モジュールはさらに、前記更新モジュールが前記目標仮想物品の物品情報を更新する前に、前記タッチ操作命令に対応するタッチ位置情報を取得するために用いられ、
    前記装置はさらに、
    前記N個の仮想物品の物品情報から、前記N個の仮想物品の空間位置情報を抽出するための抽出モジュールと、
    前記N個の仮想物品の空間位置情報に応じて、前記N個の仮想物品の前記ディスプレイにおける表示位置情報を確定するための確定モジュールと、
    前記タッチ位置情報と前記表示位置情報に応じて、前記N個の仮想物品から、前記タッチ操作命令のターゲットである前記目標仮想物品を選択するための選択モジュールとを含むことを特徴とする請求項9〜14のいずれか1項に記載の装置。
  16. 前記N個の仮想物品における各々仮想物品の物品情報には、前記各々仮想物品の空間位置情報、状態情報及びラベル情報のうちの少なくとも一つが含まれることを特徴とする請求項9〜15のいずれか1項に記載の装置。
  17. 端末機器であって、
    拡張現実AR目標が含まれる画像を収集するためのカメラと、
    前記カメラに接続されるプロセッサとを有し、
    前記プロセッサは、
    現在の端末機器により収集された拡張現実AR目標が含まれる画像を取得することと、
    前記AR目標を認識し、N個の仮想物品が含まれる(Nが2以上の整数である)仮想シーンを生成することと、
    前記仮想シーンから前記N個の仮想物品を分解し、前記N個の仮想物品のそれぞれ対応するように有する物品情報を生成することと、
    ユーザが入力した、前記N個の仮想物品における目標仮想物品に対する操作命令を受信すると、前記N個の仮想物品における前記目標仮想物品以外の他の仮想物品の物品情報をそのまま保持して、前記目標仮想物品の物品情報を更新することとを実行するために用いられることを特徴とする端末機器。
  18. 前記端末機器はさらに、
    他の端末機器に、前記目標仮想物品の物品情報を更新するように前記他の端末機器に指示するための第1指示情報を送信することで、前記他の端末機器に記憶される前記目標仮想物品の物品情報と前記現在の端末機器に記憶される前記目標仮想物品の物品情報とを一致に保持するための送信機を含むことを特徴とする請求項17に記載の端末機器。
  19. 前記端末機器はさらに、
    他の端末機器が送信した、前記N個の仮想物品における少なくとも一つの仮想物品の物品情報を更新するように前記現在の端末機器に指示するための第2指示情報を受信するための受信機を含み、
    前記第2指示情報に応じて、前記少なくとも一つの仮想物品の物品情報を更新することで、前記現在の端末機器に記憶される前記少なくとも一つの仮想物品の物品情報と前記他の端末機器に記憶される前記少なくとも一つの仮想物品の物品情報とを一致に保持することを特徴とする請求項17または18に記載の端末機器。
  20. 前記プロセッサはさらに、
    前記N個の仮想物品のそれぞれ対応する物品情報を記憶するように実行するために用いられることを特徴とする請求項17〜19のいずれか1項に記載の端末機器。
  21. 前記仮想シーンのモデルデータには、インタラクション可能な前記N個の仮想物品のそれぞれ対応するサブモデルデータが予め記録され、
    前記プロセッサはさらに、
    前記仮想シーンのモデルデータから、前記N個の仮想物品のそれぞれ対応するサブモデルデータを抽出するように実行するために用いられることを特徴とする請求項17〜20のいずれか1項に記載の端末機器。
  22. 前記プロセッサはさらに、
    前記AR目標の空間位置情報を取得することと、
    前記AR目標の空間位置情報、及び予め確立された前記AR目標の空間位置情報と前記仮想シーンの空間位置情報との逐一対応の関係に応じて、前記仮想シーンを生成することとを実行するために用いられることを特徴とする請求項17〜21のいずれか1項に記載の端末機器。
  23. 前記操作命令は、前記ユーザが前記現在の端末機器のディスプレイにより入力したタッチ操作命令であり、
    前記プロセッサはさらに、
    前記タッチ操作命令に対応するタッチ位置情報を取得することと、
    前記N個の仮想物品の物品情報から、前記N個の仮想物品の空間位置情報を抽出することと、
    前記N個の仮想物品の空間位置情報に応じて、前記N個の仮想物品の前記ディスプレイにおける表示位置情報を確定することと、
    前記タッチ位置情報と前記表示位置情報に応じて、前記N個の仮想物品から、前記タッチ操作命令のターゲットである前記目標仮想物品を選択することとを実行するために用いられることを特徴とする請求項17〜22のいずれか1項に記載の端末機器。
  24. 前記N個の仮想物品における各々仮想物品の物品情報には、前記各々仮想物品の空間位置情報、状態情報及びラベル情報のうちの少なくとも一つが含まれることを特徴とする請求項17〜23のいずれか1項に記載の端末機器。
  25. コンピューター読み取り可能な記憶媒体であって、
    前記コンピューター読み取り可能な記憶媒体には命令が記憶され、当該命令が端末機器で実行される場合に、端末機器に請求項1〜8のいずれか1項に記載の方法を実行させることを特徴とするコンピューター読み取り可能な記憶媒体。
JP2020503322A 2017-07-28 2018-07-24 情報処理方法、装置、端末機器及びコンピューター読み取り可能な記憶媒体 Active JP7034533B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710629157.4A CN107390875B (zh) 2017-07-28 2017-07-28 信息处理方法、装置、终端设备和计算机可读存储介质
CN201710629157.4 2017-07-28
PCT/CN2018/096852 WO2019020022A1 (zh) 2017-07-28 2018-07-24 信息处理方法、装置、终端设备和计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP2020528184A true JP2020528184A (ja) 2020-09-17
JP7034533B2 JP7034533B2 (ja) 2022-03-14

Family

ID=60342882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503322A Active JP7034533B2 (ja) 2017-07-28 2018-07-24 情報処理方法、装置、端末機器及びコンピューター読み取り可能な記憶媒体

Country Status (4)

Country Link
US (1) US11645817B2 (ja)
JP (1) JP7034533B2 (ja)
CN (1) CN107390875B (ja)
WO (1) WO2019020022A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023067836A1 (ja) * 2021-10-18 2023-04-27 東芝デジタルソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム
JP2023060799A (ja) * 2021-10-18 2023-04-28 東芝デジタルソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107390875B (zh) 2017-07-28 2020-01-31 腾讯科技(上海)有限公司 信息处理方法、装置、终端设备和计算机可读存储介质
CN108093307B (zh) * 2017-12-29 2021-01-01 广州酷狗计算机科技有限公司 获取播放文件的方法和系统
CN108079577A (zh) * 2018-01-05 2018-05-29 玛雅国际文化发展有限公司 一种游乐场的管理系统及管理方法
CN109685889A (zh) * 2018-04-27 2019-04-26 福建优合创智教育发展有限公司 一种场景扫描定位方法、存储介质及系统
CN110569006B (zh) * 2018-06-05 2023-12-19 广东虚拟现实科技有限公司 显示方法、装置、终端设备及存储介质
CN110826375B (zh) * 2018-08-10 2022-08-12 广东虚拟现实科技有限公司 显示方法、装置、终端设备及存储介质
CN110889152B (zh) * 2018-08-20 2023-09-01 西安海平方网络科技有限公司 模型关系的建立方法、装置、计算机设备和存储介质
CN108874156A (zh) * 2018-08-30 2018-11-23 合肥虹慧达科技有限公司 增强现实交互系统及其使用方法
CN109657078A (zh) * 2018-11-07 2019-04-19 上海玄彩美科网络科技有限公司 一种ar的交互方法和设备
CN111260792A (zh) * 2018-12-03 2020-06-09 广东虚拟现实科技有限公司 虚拟内容显示方法、装置、终端设备及存储介质
CN109614171B (zh) * 2018-12-07 2021-09-14 腾讯科技(深圳)有限公司 虚拟道具转移方法、装置、电子设备及计算机存储介质
CN110473293B (zh) * 2019-07-30 2023-03-24 Oppo广东移动通信有限公司 虚拟对象处理方法及装置、存储介质和电子设备
CN110941416A (zh) * 2019-11-15 2020-03-31 北京奇境天成网络技术有限公司 一种增强现实中人与虚拟物的交互方法及装置
CN112947741B (zh) * 2019-11-26 2023-01-31 Oppo广东移动通信有限公司 虚拟模型显示方法及相关产品
CN110942521B (zh) * 2019-11-27 2024-03-08 北京新势界科技有限公司 一种ar信息点显示方法及装置
CN111246014B (zh) * 2020-01-13 2021-04-06 维沃移动通信有限公司 通话方法、头戴式设备及介质
CN111522439B (zh) * 2020-04-02 2024-04-12 上海电气集团股份有限公司 一种虚拟样机的修订方法、装置、设备及计算机存储介质
CN111467799B (zh) * 2020-04-22 2023-04-07 网易(杭州)网络有限公司 一种坐标转换方法、装置、电子设备和存储介质
CN111580658B (zh) * 2020-05-09 2024-04-26 维沃移动通信有限公司 基于ar的会议方法、装置及电子设备
CN111627117B (zh) * 2020-06-01 2024-04-16 上海商汤智能科技有限公司 画像展示特效的调整方法、装置、电子设备及存储介质
CN111651047B (zh) * 2020-06-05 2023-09-19 浙江商汤科技开发有限公司 一种虚拟物体展示方法、装置、电子设备及存储介质
CN111857341B (zh) * 2020-06-10 2023-06-13 浙江商汤科技开发有限公司 一种展示控制方法及装置
CN111667590B (zh) * 2020-06-12 2024-03-22 上海商汤智能科技有限公司 一种互动合影方法、装置、电子设备及存储介质
CN111652987B (zh) * 2020-06-12 2023-11-07 浙江商汤科技开发有限公司 一种ar合影图像生成的方法及装置
CN111986327A (zh) * 2020-07-13 2020-11-24 深圳市燃气集团股份有限公司 一种地下管网的可视化方法、存储介质及终端设备
CN112070901A (zh) * 2020-07-21 2020-12-11 马小淞 一种园林的ar场景构建方法、装置、存储介质及终端
CN111880664B (zh) * 2020-08-03 2024-06-14 深圳传音控股股份有限公司 Ar互动方法、电子设备及可读存储介质
CN111939569B (zh) * 2020-08-31 2024-02-09 网易(杭州)网络有限公司 游戏中虚拟物品的搜索方法、装置和终端
CN112346594A (zh) * 2020-10-27 2021-02-09 支付宝(杭州)信息技术有限公司 基于增强现实的互动方法及装置
CN112991553B (zh) * 2021-03-11 2022-08-26 深圳市慧鲤科技有限公司 信息展示方法及装置、电子设备和存储介质
CN113112578A (zh) * 2021-05-17 2021-07-13 中国人民解放军军事科学院军事医学研究院 模拟救援训练方法、计算机设备及计算机可读介质
CN114038147B (zh) * 2021-06-16 2023-11-14 武汉光阴南北网络技术咨询中心 消防救援通信方法、电子设备及存储介质
CN114327221A (zh) * 2021-12-24 2022-04-12 杭州网易云音乐科技有限公司 合照方法、介质、装置和计算设备
CN114745535B (zh) * 2022-04-15 2024-03-12 广州博冠信息科技有限公司 一种直播显示方法、装置、存储介质及计算机设备
CN116708899B (zh) * 2022-06-30 2024-01-23 北京生数科技有限公司 应用于合成虚拟形象的视频处理方法、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068984A (ja) * 2010-09-24 2012-04-05 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
JP2016224810A (ja) * 2015-06-02 2016-12-28 キヤノン株式会社 システム、システムの制御方法
JP2017016202A (ja) * 2015-06-26 2017-01-19 キヤノン株式会社 画像処理装置、画像処理方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1686554A3 (en) * 2005-01-31 2008-06-18 Canon Kabushiki Kaisha Virtual space generating system, image processing apparatus and information processing method
JP2006262965A (ja) * 2005-03-22 2006-10-05 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
US8888598B2 (en) * 2006-10-17 2014-11-18 Playspan, Inc. Transaction systems and methods for virtual items of massively multiplayer online games and virtual worlds
JP2010033367A (ja) * 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
WO2011109126A1 (en) 2010-03-05 2011-09-09 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US8994718B2 (en) * 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
JP2012174116A (ja) * 2011-02-23 2012-09-10 Ntt Docomo Inc オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
KR20130136566A (ko) * 2011-03-29 2013-12-12 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
US20130190094A1 (en) * 2012-01-19 2013-07-25 Eyal Ronen Asynchronous Team-Based Game
CN103258338A (zh) * 2012-02-16 2013-08-21 克利特股份有限公司 利用真实数据来驱动仿真的虚拟环境的方法和系统
JP2016004340A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
CN104536763B (zh) * 2015-01-08 2017-03-08 炫彩互动网络科技有限公司 一种模拟现实的网络游戏实现方法
US10115234B2 (en) * 2016-03-21 2018-10-30 Accenture Global Solutions Limited Multiplatform based experience generation
CN106445156A (zh) * 2016-09-29 2017-02-22 宇龙计算机通信科技(深圳)有限公司 一种基于虚拟现实的智能家居控制的方法、装置以及终端
CN106887036A (zh) * 2017-01-17 2017-06-23 北京小鸟看看科技有限公司 一种用于头戴式显示器的同步方法、装置及头戴式显示器
CN106851426A (zh) * 2017-03-29 2017-06-13 福建中金在线信息科技有限公司 一种虚拟物品的生成方法及装置
CN107390875B (zh) * 2017-07-28 2020-01-31 腾讯科技(上海)有限公司 信息处理方法、装置、终端设备和计算机可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068984A (ja) * 2010-09-24 2012-04-05 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
JP2016224810A (ja) * 2015-06-02 2016-12-28 キヤノン株式会社 システム、システムの制御方法
JP2017016202A (ja) * 2015-06-26 2017-01-19 キヤノン株式会社 画像処理装置、画像処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023067836A1 (ja) * 2021-10-18 2023-04-27 東芝デジタルソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム
JP2023060799A (ja) * 2021-10-18 2023-04-28 東芝デジタルソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム
JP7330323B2 (ja) 2021-10-18 2023-08-21 東芝デジタルソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム

Also Published As

Publication number Publication date
CN107390875B (zh) 2020-01-31
US20200160610A1 (en) 2020-05-21
US11645817B2 (en) 2023-05-09
JP7034533B2 (ja) 2022-03-14
WO2019020022A1 (zh) 2019-01-31
CN107390875A (zh) 2017-11-24

Similar Documents

Publication Publication Date Title
JP7034533B2 (ja) 情報処理方法、装置、端末機器及びコンピューター読み取り可能な記憶媒体
US11623143B2 (en) System, method, and graphical user interface for controlling an application executing on a server
CN105260100B (zh) 一种信息处理方法和终端
CN105094346B (zh) 一种信息处理方法、终端及计算机存储介质
CN111417028B (zh) 信息处理方法、装置、存储介质及电子设备
WO2018113653A1 (zh) 基于移动终端的场景切换方法及移动终端
US20180359448A1 (en) Multiparty collaborative interaction in a virtual reality environment
CN102939574A (zh) 字符选择
CN111491197A (zh) 一种直播内容展示的方法、装置及存储介质
CN107817701B (zh) 设备控制方法、装置、计算机可读存储介质及终端
CN111432265A (zh) 一种处理视频画面的方法、相关装置及存储介质
CN109391848B (zh) 一种互动广告系统
CN111467790A (zh) 目标对象的控制方法及装置、系统
US20130324242A1 (en) System, method, and graphical user interface for entering text with a physical or virtual game controller
US20160158649A1 (en) Electronic apparatus and method for controlling electronic apparatus thereof
JP6924564B2 (ja) ゲームプログラム
JP6554506B2 (ja) 情報処理方法、情報処理装置及び情報処理プログラム
JP6306771B1 (ja) 情報処理方法、情報処理装置及び情報処理プログラム
CN104219587A (zh) 一种用于对应用进行操控的方法和装置
JP7086899B2 (ja) 情報処理方法、情報処理装置及び情報処理プログラム
JP2018183423A (ja) 情報処理方法、装置、及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018183569A (ja) 情報処理方法、情報処理装置及び情報処理プログラム
EP2679290A1 (en) Method for supporting a joint activity of a plurality of remote communication devices
WO2013138530A1 (en) System, method, and graphical user interface for entering text with a physical or virtual game controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220225

R150 Certificate of patent or registration of utility model

Ref document number: 7034533

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150