JP6006820B2 - モバイルデバイス、操作方法及び非一時的なコンピュータ読取可能な記憶媒体 - Google Patents

モバイルデバイス、操作方法及び非一時的なコンピュータ読取可能な記憶媒体 Download PDF

Info

Publication number
JP6006820B2
JP6006820B2 JP2015051625A JP2015051625A JP6006820B2 JP 6006820 B2 JP6006820 B2 JP 6006820B2 JP 2015051625 A JP2015051625 A JP 2015051625A JP 2015051625 A JP2015051625 A JP 2015051625A JP 6006820 B2 JP6006820 B2 JP 6006820B2
Authority
JP
Japan
Prior art keywords
augmented reality
reality object
mobile device
parameter data
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015051625A
Other languages
English (en)
Other versions
JP2016099996A (ja
Inventor
容暄 林
容暄 林
士堯 魏
士堯 魏
榮陞 王
榮陞 王
世俊 周
世俊 周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute for Information Industry
Original Assignee
Institute for Information Industry
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute for Information Industry filed Critical Institute for Information Industry
Publication of JP2016099996A publication Critical patent/JP2016099996A/ja
Application granted granted Critical
Publication of JP6006820B2 publication Critical patent/JP6006820B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Geometry (AREA)

Description

本発明は、モバイルデバイス、操作方法及び非一時的なコンピュータ読取可能な記憶媒体に関し、具体的には、3D拡張現実物体を修正可能なモバイルデバイス、モバイルデバイスでの3D拡張現実物体の修正の操作方法及び非一時的なコンピュータ読取可能な記憶媒体に関する。
科学技術の進歩に伴って、拡張現実技術(augmented reality technology)は、既に、人たちの生活に広く適用される。
拡張現実は、仮想物体を実環境映像に即時に重ね合わせ、重ね合わせ映像をユーザーに表示する技術である。拡張現実技術を適用することによって、人間の生活を豊かにすることができる。
先行出願のWO2013023705 A1では、拡張現実物体の作成方法が開示されている。また、先行出願のUS20140043359 A1では、拡張現実物体の特徴点を改善する方法が開示されている。
しかしながら、これらの先行出願を適用しても、設計者は、容易に仮想物体を精細に実環境映像に重ね合わせず、特に、拡張現実ソフトウェアを実行する電子装置(例えば、モバイルデバイス)によって、拡張現実物体を直接修正することはできない。このように、拡張現実は、製作と修正に不便となる。
本発明の一実施態様の目的は、モバイルデバイスでの3D拡張現実物体の修正の操作方法を提供することに関する。
本発明の別の実施態様の目的は、3D拡張現実物体を修正可能なモバイルデバイスを提供することに関する。
本発明の別の実施態様の目的は、モバイルデバイスでの3D拡張現実物体の修正の操作方法を実行するためのコンピュータプログラムが格納される非一時的なコンピュータ読取可能な記憶媒体を提供することに関する。
本発明の一実施例によると、モバイルデバイスでの3D拡張現実物体の修正の操作方法は、3D環境映像及び3D拡張現実物体を現すためのユーザーインターフェースと、前記3D環境映像において前記3D拡張現実物体のサイズ、角度及び位置の何れかを調整するための操作機能と、調整済の3D拡張現実物体のサイズ、角度及び位置に対応するパラメータデータを記憶するための確認機能と、を提供するモバイルデバイスのアプリケーションプログラムをモバイルデバイスによって実行する工程と、前記モバイルデバイスによって前記パラメータデータを更新用のパラメータデータとしてサーバーに伝送し、前記サーバーが前記更新用のパラメータデータに基づいて前記モバイルデバイスにおけるパラメータデータを更新する工程と、を備える。
本発明の一実施例によると、前記操作方法は、前記3D拡張現実物体のサイズ、角度及び位置の何れかを調整する場合、調整過程を録画で記録して、録画データを生成するための録画機能を前記ユーザーインターフェースによって提供する工程と、前記モバイルデバイスによって前記録画データを前記サーバーに伝送する工程と、を更に備える。
本発明の一実施例によると、前記パラメータは、前記3D拡張現実物体の前記3D環境映像における相対サイズ、回転角、相対位置及び動画の情報の少なくとも1つを決めることに用いる。
本発明の一実施例によると、前記操作方法は、撮影素子によって実環境に対して映像捕捉を行い、前記3D環境映像を取得する工程と、前記3D環境映像に基づいて、前記撮影素子と前記実環境との位置関係を取得する工程と、前記ユーザーインターフェースによって前記3D拡張現実物体に対応するイベント編集コマンドを受信すると、前記位置関係に基づいて前記3D拡張現実物体に対応するイベントを決める工程と、を更に備える。
本発明の一実施例によると、前記操作方法は、前記ユーザーインターフェースによって、前記3D拡張現実物体に対応するドラック動作を受信すると、前記ドラック動作の経路に基づいて前記3D拡張現実物体を移動することと、前記3D拡張現実物体の移動過程を記録して、前記3D拡張現実物体のユーザーの自己定義の動画とすることと、を含む動画作成機能を更に提供する工程を更に備える。
本発明の一実施例によると、ネットワーク素子と、処理素子と、を含み、前記処理素子は、3D環境映像及び3D拡張現実物体を現すためのユーザーインターフェースと、前記3D環境映像において前記3D拡張現実物体のサイズ、角度及び位置の何れかを調整するための操作機能と、調整済の3D拡張現実物体のサイズ、角度及び位置に対応するパラメータデータを記憶するための確認機能と、を提供するモバイルデバイスのアプリケーションプログラムを実行することと、前記ネットワーク素子によって前記パラメータデータを更新用のパラメータデータとして前記サーバーに伝送し、前記サーバーが前記更新用のパラメータデータに基づいて前記モバイルデバイスにおけるパラメータデータを更新することと、に用いる3D拡張現実物体を修正可能なモバイルデバイス。
本発明の一実施例によると、前記ユーザーインターフェースによって、前記3D拡張現実物体のサイズ、角度及び位置の何れかを調整する場合、調整過程を録画で記録して、録画データを生成するための録画機能を更に提供し、前記処理素子は、更に、前記ネットワーク素子によって前記録画データを前記サーバーに伝送することに用いる。
本発明の一実施例によると、前記パラメータは、前記3D拡張現実物体の前記3D環境映像における相対サイズ、回転角、相対位置及び動画の情報の少なくとも1つを決めることに用いる。
本発明の一実施例によると、前記モバイルデバイスは、撮影素子を更に含み、前記処理素子は、更に、前記撮影素子によって実環境に対して映像捕捉を行い、前記3D環境映像を取得することと、前記3D環境映像に基づいて、前記撮影素子と前記実環境との位置関係を取得することと、前記ユーザーインターフェースによって前記3D拡張現実物体に対応するイベント編集コマンドを受信すると、前記位置関係に基づいて前記3D拡張現実物体に対応するイベントを決めることと、に用いる。
本発明の一実施例によると、前記ユーザーインターフェースは、前記3D拡張現実物体に対応するドラック動作を受信すると、前記ドラック動作の経路に基づいて前記3D拡張現実物体を移動することと、前記3D拡張現実物体の移動過程を記録して、前記3D拡張現実物体のユーザーの自己定義の動画とすることと、を更に含む動画作成機能を更に提供する。
本発明の一実施例によると、前記非一時的なコンピュータ読取可能な記憶媒体に格納される前記コンピュータプログラムの実行する操作方法は、3D環境映像及び3D拡張現実物体を現すためのユーザーインターフェースと、前記3D環境映像において前記3D拡張現実物体のサイズ、角度及び位置の何れかを調整するための操作機能と、調整済の3D拡張現実物体のサイズ、角度及び位置に対応するパラメータデータを記憶するための確認機能と、を提供するモバイルデバイスのアプリケーションプログラムをモバイルデバイスによって実行することと、前記モバイルデバイスによって前記パラメータデータを更新用のパラメータデータとしてサーバーに伝送し、前記サーバーが前記更新用のパラメータデータに基づいて前記モバイルデバイスにおけるパラメータデータを更新することと、を備える。
上記実施例を適用すれば、設計者は、3D環境映像にしたがって、3D拡張現実物体を即時に編集することができる。
本発明の一実施例に係るモバイルデバイスを示す模式図である。 本発明の一適用例に係るモバイルデバイスと実環境を示す模式図である。 本発明の一操作例に係るモバイルデバイスのユーザーインターフェースを示す模式図である。 本発明の一操作例に係るモバイルデバイスのユーザーインターフェースを示す模式図である。 本発明の一操作例に係るモバイルデバイスのユーザーインターフェースを示す模式図である。 本発明の一操作例に係るモバイルデバイスのユーザーインターフェースを示す模式図である。 本発明の一操作例に係るモバイルデバイスと実環境物体を示す模式図である。 本発明の一実施例に係るモバイルデバイスの操作方法を示すフロー図である。
以下、図面及び詳しい説明で本発明の精神を明らかに説明する。当業者であれば、本発明の実施例を理解した上で、本発明の教示した技術によって、本発明の精神と範囲から逸脱せずに、変更や修正を加えることができる。
本明細書に使用される「第1の」、「第2の」等については、順序又は順位を特定するものではなく、本発明を限定するためのものでもなく、同一の技術用語で記述される素子又は操作を区別するためのものだけである。
本明細書に用いる「電気的に接続」とは、2つ又は複数の素子が互いに直接的に物理又は電気的に接触し、又は互いに間接的に物理又は電気的に接触してもよく、2つ又は複数の素子が互いに操作又は作動してもよい。
次に、本明細書に用いる「含む」、「備える」、「有する」、「含有」等は、何れも開放性の用語であり、つまり、含むがそれのみに限定されないことを指す。
本明細書に用いる「及び/又は」については、上述の事物の如何なる又は全部の組み合わせを含む。
本明細書に用いる用語(terms)については、特に明記される以外、通常、用語ごとにこの分野、この開示の内容と特殊内容に使用される一般的な意味を持つ。当業者に本開示に関する記述における規定外の案内を提供するように、本開示を記述するためのある用語について、以下又はこの明細書の別所で検討する。
本発明の一実施態様は、モバイルデバイスである。このモバイルデバイスに、3D環境映像と3D拡張現実物体が表示される。明らかに説明するために、下記では、タブレットコンピュータ又はスマートフォンを例として説明するが、本発明はこれに制限されない。
図1を参照されたい。図1は、本発明の一実施例に係るモバイルデバイス100を示す模式図である。本実施例において、モバイルデバイス100は、主に、ネットワーク素子140と、処理素子160と、を備える。本実施例において、処理素子160は、ネットワーク素子140に電気的に接続されてよい。ネットワーク素子140は、主に、モバイルデバイス100が無線通信ネットワーク及びリモートサーバーを介して繋げられるようにするものであり、例えば、無線信号チップによって実現することができる。処理素子160は、3D環境映像及び3D拡張現実物体を現すユーザーインターフェース、更に、ユーザーが3D環境映像において3D拡張現実物体のサイズ、角度又は位置を調整することを可能にする操作機能を提供するモバイルデバイスのアプリケーションプログラム(例えば、APPプログラム)を実行することができる。その後、モバイルデバイスのアプリケーションプログラムは、ユーザーに実行を選択させる後で、調整済の3D拡張現実物体のサイズ、角度及び位置に対応するパラメータデータを記憶する確認機能を更に提供し、その後、ネットワーク素子160を介してパラメータデータを更新用のパラメータデータとしてリモートのサーバーに伝送する。サーバーは、更新用のパラメータデータに基づいて、前記モバイルデバイス100(又は、拡張現実ソフトウェアが取り付けられ、3D環境映像及び3D拡張現実物体を現すことのできる他のモバイルデバイス)におけるパラメータデータを更新してもよい。
図1と図2を同時に参照されたい。図1は、本発明の別の実施例に係るモバイルデバイス100を示す模式図である。図2は、本発明の一適用例によるモバイルデバイス100と実環境RWD(real word data)を示す模式図である。本実施例において、モバイルデバイス100は、表示素子110と、入力素子120と、撮影素子130と、ネットワーク素子140と、格納素子150と、処理素子160と、を備える。本実施例において、処理素子160は、別々に表示素子110、入力素子120、撮影素子130、ネットワーク素子140及び格納素子150に電気的に接続されてもよい。
本実施例において、表示素子110は、例えば、液晶ディスプレイ(liquid crystal display;LCD)、能動式有機ELディスプレー、タッチ表示パネル又は表示機能を有する他の表示素子によって実現される。入力素子120は、例えば、タッチパネル又は入力機能を有する他の入力素子によって実現される。撮影素子130は、例えば、撮影レンズ、カメラ、撮影カメラ又は関連する素子によって実現される。ネットワーク素子140は、例えば、無線信号チップによって実現される。格納素子150は、例えば、記憶体、携帯型格納媒体、又は他の好適な格納デバイスによって実現される。処理素子160は、例えば、中央処理器、マイクロプロセッサ又は他の好適な計算デバイスによって実現される。一実施例において、入力素子120と表示素子110とは、同一の素子として一体化されたもの(例えば、タッチ表示パネル)であってもよい。
本実施例において、表示素子110は、映像を表示することに用いる。入力素子120は、ユーザーからのユーザーコマンドを受信することに用いる。撮影素子130は、実環境RWDに対して映像捕捉を行うことに用いる。ネットワーク素子140は、ネットワーク(図示せず)を介してサーバー10とのデータ伝送を行うことに用いる。格納素子150は、データを格納することに用いる。処理素子160は、モバイルデバイスのアプリケーションプログラムを実行して、ユーザーが表示素子110に表示された拡張現実物体を入力素子120によって即時に修正できるようにすることに用いる。
下記では、一実施例に係るモバイルデバイス100の具体的な細部が提供されるが、本発明はこの実施例に制限されない。
特に、図2を参照されたい。本発明の一実施例において、処理素子160は、撮影素子130によって実環境RWDに対して映像捕捉を行って、3D環境映像(例えば、図3Aに示す3D環境映像IMG1)を取得することができる。
本実施例において、実環境RWDに実物体RWTがある。3D環境映像IMG1に実物体映像(例えば、図3Aに示す実物体映像IMG2)がある。処理素子160は、実物体映像IMG2の複数の特徴点FTRを取得し、これらの特徴点FTRに基づいてデータベースDBSにおいて対応する3D拡張現実物体(例えば、図3Bに示す3D拡張現実物体ART)を検索することができる。一実施例において、データベースDBSは、格納素子150の中に位置してもよいが、本発明はこれに制限されない。他の実施例において、データベースDBSは、サーバー10の中に位置してもよい。
また、本実施例において、処理素子160は、更に、前記特徴点FTR及びデータベースDBSにおける対応するデータに基づいて、モバイルデバイス100の撮影素子130と実環境RWDとの間の位置関係を取得することができる。具体的には、本実施例において、処理素子160は、これらの特徴点FTR及びデータベースDBSにおける対応するデータに基づいて、撮影素子130と実物体RWTとの間の距離DST、及び撮影素子130と実物体RWTとの方位(orientation)ORTの相対角度ANGを取得することができる。一実施例において、距離DSTを撮影素子130と実物体RWTとの中心点CNTによって計算できるが、本発明はこれに制限されない。一実施例において、距離DSTと相対角度ANGを位置変換マトリクスTRMによって記憶できるが、本発明はこれに制限されない。
特に、図3A、図3Bを参照されたい。本実施例において、処理素子160は、モバイルデバイスのアプリケーションプログラムを実行できる。このモバイルデバイスのアプリケーションプログラムは、ユーザーインターフェースUIを提供して、(例えば、図3Aに示すように)実環境RWDに対応する3D環境映像IMG1を表示素子110に現す。3D環境映像IMG1に、実環境RWDにおける実物体RWTに対応する実物体映像IMG2がある。処理素子160は、ユーザーインターフェースUIにおいて、(例えば、図3Bに示すように)3D環境映像IMG1及び実物体映像IMG2に対応する3D拡張現実物体ARTを表示素子110に同時に現すことができる。
一実施例において、格納素子150は、3D拡張現実物体ARTの実物体映像IMG2に対するサイズ、角度、位置及び動画の情報の少なくとも1つに対応するパラメータデータを格納することができる。処理素子160は、このパラメータデータに基づいて、3D拡張現実物体ARTを表示素子110に現す。つまり、上述のパラメータデータは、3D拡張現実物体ARTの3D環境映像IMG1における実物体映像IMG2の相対サイズ、回転角、相対位置、及び動画の情報の少なくとも1つを決めることに用いる。
本実施例において、ユーザーインターフェースUIは、3D環境映像IMG1において3D拡張現実物体ARTのサイズ、角度、位置、及び動画の何れかを調整する操作機能を提供することができる。
例えば、ユーザーは、ボタンB1をクリックすると、3D環境映像IMG1において、3D拡張現実物体ARTの実物体映像IMG2に対するサイズを調整することができる。ユーザーは、ボタンB2をクリックすると、3D環境映像IMG1において、3D拡張現実物体ARTの実物体映像IMG2に対する角度を調整することができる。ユーザーは、ボタンB3をクリックすると、3D環境映像IMG1において、3D拡張現実物体ARTの実物体映像IMG2に対する位置を調整することができる。ユーザーは、ボタンB4をクリックすると、処理素子160が3D環境映像IMG1において、3D拡張現実物体ARTに対応するプリセット動画のどの時間帯の動画セグメントを実行するか(例えば、全長100秒のプリセット動画において第5秒〜第15秒の時間帯の動画セグメントを行う)を決める。
また、本実施例において、ユーザーインターフェースUIは、調整済の3D拡張現実物体ARTのサイズ、角度、位置及び動画に対応するパラメータデータを記憶する確認機能を更に提供する。一実施例において、このパラメータデータは、格納素子150の中に格納されてもよい。
調整済の3D拡張現実物体ARTのサイズ、角度、位置及び動画に対応するパラメータデータを記憶した後、処理素子160は、ネットワーク素子140を介してこのパラメータデータを更新用のパラメータデータとしてサーバー10に伝送し、実環境RWD外の設計者がこの更新用のパラメータデータを読み取って、この更新用のパラメータデータに基づいて、3D拡張現実物体ARTの更なる修正を行い、サーバー10におけるパラメータデータを更に更新することを可能にする。
また、処理素子160は、モバイルデバイスのアプリケーションプログラムを実行するたびに、サーバー10から更新用のパラメータデータ(通常、最新のパラメータデータ)をダウンロードして、モバイルデバイス100におけるパラメータデータを更新する。つまり、サーバー10は、更新用のパラメータデータに基づいて、モバイルデバイス100におけるパラメータデータを更新することができる。
上記の設置によれば、設計者は、3D環境映像IMG1にしたがって、3D拡張現実物体ARTを即時に編集することができる。
特に、図4を参照されたい。一実施例において、ユーザーインターフェースUIは、3D拡張現実物体ARTのサイズ、角度、位置、及び動画の何れかを調整する場合に、調整過程を録画で記録して、録画データを生成する録画機能を更に提供する。録画データが生成した後、処理素子160は、ネットワーク素子140を介して録画データをサーバー10に伝送してもよい。
一実施例において、ユーザーインターフェースUIは、前記録画データに修正マークMTGを挿入するマーク機能を更に提供する。修正マークMTGは、前記録画データが再生される同時に、視覚化に示される。このように、実環境RWD外の設計者は、録画データにおける修正マークMTGに基づいて、3D拡張現実物体ARTの修正を行うことができる。
一実施例において、処理素子160は、ネットワーク素子140を介して録画データをサーバー10に伝送する同時に、更に、録画途中の3D拡張現実物体ARTのサイズ、角度、位置及び動画に対応するパラメータデータ、前記撮影素子130と実環境RWDとの間の位置関係、及び3D拡張現実物体ARTの素材等の情報をサーバー10に伝送して、実環境RWD外の設計者に録画途中の関連のパラメータデータを知らせる。
特に、図5を参照されたい。一実施例において、ユーザーインターフェースUIは、動画作成機能を更に提供する。動画作成機能は、処理素子160が入力素子120を介して3D拡張現実物体ARTに対するドラック動作を受信すると、ドラック動作の経路TRCに基づいて、表示素子110において3D拡張現実物体ARTを移動させることと、処理素子160が3D拡張現実物体ARTの移動過程を記録して、3D拡張現実物体ARTのユーザーの自己定義の動画とすることと、を含む。
例えば、一実施例において、ユーザーが経路TRCに沿って3D拡張現実物体ARTを第1の位置PLC1から第2の位置PLC2までドラックする場合、処理素子160は、3D拡張現実物体ARTが経路TRCに沿って移動する過程を記憶して、3D拡張現実物体ARTのユーザーの自己定義の動画とする。
特に、図6を参照されたい。一実施例において、ユーザーインターフェースUIは、イベント編集機能を更に提供する。処理素子160は、ユーザーインターフェースUIを介して3D拡張現実物体ARTに対応するイベント編集コマンドを受信すると、モバイルデバイス100の撮影素子130と実環境RWDとの間の位置関係に基づいて、3D拡張現実物体ARTに対応するイベントを決めることができる。
例としては、撮影素子130と実環境物体RWTとの方位ORTの相対角度が第1の角度区間INV1(例えば、1〜120度)にある場合、処理素子160は、3D拡張現実物体ARTに対応する第1のイベントを実行する(例えば、3D拡張現実物体ARTのプリセット動画での第10秒〜第20秒を実行する)。撮影素子130と実環境物体RWTとの方位ORTの相対角度が第2の角度区間INV12(例えば、121〜240度)にある場合、処理素子160は、3D拡張現実物体ARTに対応する第2のイベントを実行する(例えば、3D拡張現実物体ARTのプリセット動画での第20秒〜第30秒を実行する)。撮影素子130と実環境物体RWTとの方位ORTの相対角度が第3の角度区間INV3(例えば、121〜240度)にある場合、処理素子160は、3D拡張現実物体ARTに対応する第3のイベントを実行する(例えば、3D拡張現実物体ARTのサイズを1.2倍に拡大する)。第1の角度区間、第2の角度区間と第3の角度区間が互いに異なり、第1のイベント、第2のイベント、第3のイベントも互いに異なる。
このように設置すれば、3D拡張現実物体ARTの表現をより多様化にすることができる。
図7は、本発明の一実施例に係るモバイルデバイスの操作方法700を示すフロー図である。操作方法700は、図1に示す構造と同じ又は同様なモバイルデバイスに適用される。説明をより簡単にするために、以下、本発明の一実施例によって、図1に示すモバイルデバイス100を例として、操作方法を説明するが、本発明はこの適用に制限されない。
注意すべきなのは、操作方法700は、モバイルデバイス100によって実現されてもよく、又は、コンピュータプログラムとして、非一時的なコンピュータ読取可能な記憶媒体に格納されて、コンピュータ又は電子装置によってこの記憶媒体を読み取った後操作方法700を実行してもよい。非一時的なコンピュータ読取可能な記憶媒体としては、RОM、フラッシュメモリー、フロッピー(登録商標)ディスク、ハードディスク、USBフラッシュディスク、テープ、ネットワークでアクセス可能なデータベース、又は当業者が容易に想到できる同一機能を具する非一時的なコンピュータ読取可能な記憶媒体であってもよい。
また、理解すべきなのは、本実施形態に言及される操作方法の工程は、特にその順序が述べられた以外、いずれも実際の要求に応じて、その前後順序を調整してもよく、更に同時で又は部分的に同時で実行されてもよい。
なお、実施例によっては、これらの工程を適当に増加、置換及び/又は省略してもよい。
本実施例において、操作方法700は、以下の工程を備える。
工程S1において、3D環境映像IMG1及び3D拡張現実物体ARTを現すためのユーザーインターフェースUIと、3D環境映像IMG1において3D拡張現実物体ARTのサイズ、角度及び位置の何れかを調整するための操作機能と、調整済の3D拡張現実物体ARTのサイズ、角度及び位置に対応するパラメータデータを記憶するための確認機能と、を提供するモバイルデバイスのアプリケーションプログラムを実行する。
工程S2において、モバイルデバイス100のネットワーク素子140によってパラメータデータを更新用のパラメータデータとしてサーバー10に伝送し、サーバー10が更新用のパラメータデータに基づいてモバイルデバイス100におけるパラメータデータを更新する。
注意すべきなのは、操作方法700における関連細部については、図1〜図6に示す実施態様を参照してよいが、ここで重複な部分について詳しく説明しない。
本発明を実施例で前述の通り開示したが、これは本発明を限定するためのものではなく、当業者であれば、本発明の精神と範囲から逸脱しない限り、各種の変更や修正を加えることができる。従って、本発明の保護範囲は、特許請求の範囲で指定した内容を基準とするものである。
100 モバイルデバイス
110 表示素子
120 入力素子
130 撮影素子
140 ネットワーク素子
150 格納素子
160 処理素子
10 サーバー
DST 距離
ORT 方位
ANG 角度
DBS データベース
RWD 実環境
RWT 実物体
CNT 中心点
TRM 位置変換マトリクス
UI ユーザーインターフェース
IMG1 3D環境映像
IMG2 実物体映像
B1、B2、B3、B4 ボタン
ART 3D拡張現実物体
MTG マーク
TRC 経路
PLC1、PLC2 位置
INV1、IMG2、IMG3 区間
700 操作方法
S1、S2 工程

Claims (9)

  1. 3D環境映像及び3D拡張現実物体を現すためのユーザーインターフェースと、前記3D環境映像において前記3D拡張現実物体のサイズ、角度及び位置の何れかを調整するための操作機能と、調整済の3D拡張現実物体のサイズ、角度及び位置に対応するパラメータデータを記憶するための確認機能と、を提供するモバイルデバイスのアプリケーションプログラムをモバイルデバイスによって実行する工程と、
    前記モバイルデバイスによって前記パラメータデータを更新用のパラメータデータとしてサーバーに伝送し、前記サーバーが前記更新用のパラメータデータに基づいて前記モバイルデバイスにおけるパラメータデータを更新する工程と、
    前記ユーザーインターフェースによって、前記3D拡張現実物体に対応するドラック動作を受信すると、前記ドラック動作の経路に基づいて前記3D拡張現実物体を移動することと、前記3D拡張現実物体の移動過程を記録して、前記3D拡張現実物体のユーザーの自己定義の動画とすることと、を含む動画作成機能を更に提供する工程と、
    を備えるモバイルデバイスでの3D拡張現実物体の修正の操作方法。
  2. 前記3D拡張現実物体のサイズ、角度及び位置の何れかを調整する場合、調整過程を録画で記録して、録画データを生成するための録画機能を前記ユーザーインターフェースによって提供する工程と、
    前記モバイルデバイスによって前記録画データを前記サーバーに伝送する工程と、
    を更に備える請求項1に記載の操作方法。
  3. 前記パラメータデータは、前記3D拡張現実物体の前記3D環境映像における相対サイズ、回転角、相対位置及び動画の情報の少なくとも1つを決めることに用いる請求項1又は2に記載の操作方法。
  4. 撮影素子によって実環境に対して映像捕捉を行い、前記3D環境映像を取得する工程と、
    前記3D環境映像に基づいて、前記撮影素子と前記実環境との位置関係を取得する工程と、
    前記ユーザーインターフェースによって、前記3D拡張現実物体に対応するイベント編集コマンドを受信すると、前記位置関係に基づいて前記3D拡張現実物体に対応するイベントを決める工程と、
    を更に備える請求項1〜3の何れかに記載の操作方法。
  5. ネットワーク素子と、
    処理素子と、
    を含み、
    前記処理素子は、3D環境映像及び3D拡張現実物体を現すためのユーザーインターフェースと、前記3D環境映像において前記3D拡張現実物体のサイズ、角度及び位置の何れかを調整するための操作機能と、調整済の3D拡張現実物体のサイズ、角度及び位置に対応するパラメータデータを記憶するための確認機能と、を提供するモバイルデバイスのアプリケーションプログラムを実行することと、
    前記ネットワーク素子によって前記パラメータデータを更新用のパラメータデータとしてサーバーに伝送し、前記サーバーが前記更新用のパラメータデータに基づいて前記モバイルデバイスにおけるパラメータデータを更新することと、に用い
    前記ユーザーインターフェースは、
    前記3D拡張現実物体に対応するドラック動作を受信すると、前記ドラック動作の経路に基づいて前記3D拡張現実物体を移動することと、前記処理素子が前記3D拡張現実物体の移動過程を記録して、前記3D拡張現実物体のユーザーの自己定義の動画とすることと、を含む動画作成機能を更に提供する、
    3D拡張現実物体を修正可能なモバイルデバイス。
  6. 前記ユーザーインターフェースは、前記3D拡張現実物体のサイズ、角度及び位置の何れかを調整する場合、調整過程を録画で記録して、録画データを生成するための録画機能を更に提供し、
    前記処理素子は、更に、前記ネットワーク素子によって前記録画データを前記サーバーに伝送することに用いる請求項に記載のモバイルデバイス。
  7. 前記パラメータデータは、前記3D拡張現実物体の前記3D環境映像における相対サイズ、回転角、相対位置及び動画の情報の少なくとも1つを決めることに用いる請求項又はに記載のモバイルデバイス。
  8. 前記モバイルデバイスは、撮影素子を更に含み、
    前記処理素子は、更に、前記撮影素子によって実環境に対して映像捕捉を行い、前記3D環境映像を取得することと、前記3D環境映像に基づいて、前記撮影素子と前記実環境との位置関係を取得することと、前記ユーザーインターフェースによって前記3D拡張現実物体に対応するイベント編集コマンドを受信すると、前記位置関係に基づいて前記3D拡張現実物体に対応するイベントを決めることと、に用いる請求項の何れかに記載のモバイルデバイス。
  9. モバイルデバイスでの3D拡張現実物体の修正の操作方法を実行するためのコンピュータプログラムが格納される非一時的なコンピュータ読取可能な記憶媒体において、
    前記操作方法は、
    3D環境映像及び3D拡張現実物体を現すためのユーザーインターフェースと、前記3D環境映像において前記3D拡張現実物体のサイズ、角度及び位置の何れかを調整するための操作機能と、調整済の3D拡張現実物体のサイズ、角度及び位置に対応するパラメータデータを記憶するための確認機能と、を提供するモバイルデバイスのアプリケーションプログラムをモバイルデバイスによって実行する工程と、
    前記モバイルデバイスによって前記パラメータデータを更新用のパラメータデータとしてサーバーに伝送し、前記サーバーが前記更新用のパラメータデータに基づいて前記モバイルデバイスにおけるパラメータデータを更新する工程と、
    前記ユーザーインターフェースによって、前記3D拡張現実物体に対応するドラック動作を受信すると、前記ドラック動作の経路に基づいて前記3D拡張現実物体を移動することと、前記3D拡張現実物体の移動過程を記録して、前記3D拡張現実物体のユーザーの自己定義の動画とすることと、を含む動画作成機能を更に提供する工程と、
    を備える非一時的なコンピュータ読取可能な記憶媒体。
JP2015051625A 2014-11-20 2015-03-16 モバイルデバイス、操作方法及び非一時的なコンピュータ読取可能な記憶媒体 Active JP6006820B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW103140286A TWI621097B (zh) 2014-11-20 2014-11-20 行動裝置、操作方法及非揮發性電腦可讀取記錄媒體
TW103140286 2014-11-20

Publications (2)

Publication Number Publication Date
JP2016099996A JP2016099996A (ja) 2016-05-30
JP6006820B2 true JP6006820B2 (ja) 2016-10-12

Family

ID=56010740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015051625A Active JP6006820B2 (ja) 2014-11-20 2015-03-16 モバイルデバイス、操作方法及び非一時的なコンピュータ読取可能な記憶媒体

Country Status (4)

Country Link
US (1) US20160148430A1 (ja)
JP (1) JP6006820B2 (ja)
CN (1) CN105719350A (ja)
TW (1) TWI621097B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170169613A1 (en) * 2015-12-15 2017-06-15 Lenovo (Singapore) Pte. Ltd. Displaying an object with modified render parameters
EP3420413A1 (en) * 2016-02-22 2019-01-02 Real View Imaging Ltd. A method and system for displaying holographic images within a real object
TWI567691B (zh) * 2016-03-07 2017-01-21 粉迷科技股份有限公司 立體空間的場景編輯方法與系統
CN108242082A (zh) * 2016-12-26 2018-07-03 粉迷科技股份有限公司 立体空间的场景编辑方法与系统
CN108268434A (zh) * 2016-12-30 2018-07-10 粉迷科技股份有限公司 立体场景中超链接编辑方法与系统
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
US10679393B2 (en) * 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
US20200106727A1 (en) * 2018-09-27 2020-04-02 Sonny Industrial Co., Ltd. Information service system and method thereof
US11972529B2 (en) * 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
US11438551B2 (en) * 2020-09-15 2022-09-06 At&T Intellectual Property I, L.P. Virtual audience using low bitrate avatars and laughter detection
KR102548299B1 (ko) * 2022-01-06 2023-06-28 주식회사 에스씨컴퍼니 메타버스 기반 3d 인테리어 꾸미기 영상 기록 서비스 제공 시스템

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
US8243076B2 (en) * 2008-11-05 2012-08-14 Clive Goodinson System and method for comic creation and editing
US8743244B2 (en) * 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
WO2013023706A1 (en) * 2011-08-18 2013-02-21 Layar B.V. Computer-vision based augmented reality system
BR112014010230A8 (pt) * 2011-10-28 2017-06-20 Magic Leap Inc sistema e método para realidade virtual e aumentada
EP2780892B1 (en) * 2011-11-15 2016-10-05 Trimble Navigation Limited Controlling rights to a drawing in a three-dimensional modeling environment
JP5942456B2 (ja) * 2012-02-10 2016-06-29 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
DE112012006269T5 (de) * 2012-04-26 2015-03-05 Intel Corporation Realitätsergänzender Rechner, Vorrichtung und System
KR102009928B1 (ko) * 2012-08-20 2019-08-12 삼성전자 주식회사 협업 구현 방법 및 장치
CN103164518A (zh) * 2013-03-06 2013-06-19 杭州九树网络科技有限公司 移动终端增强现实应用系统及方法
JP2014191718A (ja) * 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体

Also Published As

Publication number Publication date
TW201619915A (zh) 2016-06-01
TWI621097B (zh) 2018-04-11
US20160148430A1 (en) 2016-05-26
JP2016099996A (ja) 2016-05-30
CN105719350A (zh) 2016-06-29

Similar Documents

Publication Publication Date Title
JP6006820B2 (ja) モバイルデバイス、操作方法及び非一時的なコンピュータ読取可能な記憶媒体
US10021297B2 (en) Mobile terminal and control method thereof
US20170018289A1 (en) Emoji as facetracking video masks
US20150215450A1 (en) Terminal device and content displaying method thereof, server and controlling method thereof
CN110708596A (zh) 生成视频的方法、装置、电子设备及可读存储介质
WO2015102854A1 (en) Assigning virtual user interface to physical object
JP6013642B2 (ja) 体験コンテンツデータセットに関するキャンペーン最適化
US20140232743A1 (en) Method of synthesizing images photographed by portable terminal, machine-readable storage medium, and portable terminal
US10628121B2 (en) Electronic device and method for controlling the same
CN107613283B (zh) 视频中的基于对象或区域的聚焦控制
US20200264695A1 (en) A cloud-based system and method for creating a virtual tour
EP2811731B1 (en) Electronic device for editing dual image and method thereof
JP5920057B2 (ja) 送信装置、画像共有システム、送信方法、及びプログラム
JP2014131215A (ja) 画像管理システム、画像管理方法、及びプログラム
US10572134B2 (en) Method and system for providing prototyping tool, and non-transitory computer-readable recording medium
US10033943B1 (en) Activity surface detection, display and enhancement
WO2020007182A1 (zh) 个性化场景图像的处理方法、装置及存储介质
JP2021078104A (ja) コンテキスト及びコンテンツを意識した3D手ジェスチャ視覚化を伴うWebベースリモートアシスタンスシステムに関するプログラム
US11146742B2 (en) Method and apparatus for multi-exposure photography, and storage medium
KR102061867B1 (ko) 이미지 생성 장치 및 그 방법
EP2751654A1 (en) Information processing apparatus, information processing method, and program
KR102213090B1 (ko) 객체의 특정 위치가 디바이스에 제공되게 하는 방법
CN107851069B (zh) 图像管理系统、图像管理方法及程序
CN115702443A (zh) 将存储的数字化妆增强应用于数字图像中的已辨识面部
US10127715B2 (en) 3D user interface—non-native stereoscopic image conversion

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160909

R150 Certificate of patent or registration of utility model

Ref document number: 6006820

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250