JP2022084658A - Method for generating 3d object arranged in extended real space - Google Patents

Method for generating 3d object arranged in extended real space Download PDF

Info

Publication number
JP2022084658A
JP2022084658A JP2022030861A JP2022030861A JP2022084658A JP 2022084658 A JP2022084658 A JP 2022084658A JP 2022030861 A JP2022030861 A JP 2022030861A JP 2022030861 A JP2022030861 A JP 2022030861A JP 2022084658 A JP2022084658 A JP 2022084658A
Authority
JP
Japan
Prior art keywords
user
character
image
real space
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022030861A
Other languages
Japanese (ja)
Inventor
昌史 三上
Masashi Mikami
洋 鬼山
Hiroshi Oniyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gugenka
Gugenka Co Ltd
XR IPLab Co Ltd
Original Assignee
Gugenka
Gugenka Co Ltd
XR IPLab Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gugenka, Gugenka Co Ltd, XR IPLab Co Ltd filed Critical Gugenka
Priority to JP2022030861A priority Critical patent/JP2022084658A/en
Publication of JP2022084658A publication Critical patent/JP2022084658A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Abstract

PROBLEM TO BE SOLVED: To provide a method for generating a 3D object which is arranged in an extended real space.
SOLUTION: A method for generating a 3D object which is arranged in an extended real space to be displayed in a display unit of a user device generates the 3D object which is arranged in the extended real space to be displayed in the display unit of the user device, displays an image of the 3D object in an imaged real space to detect a hand gesture of a user in the extended real space, and controls a posture of the 3D object on the basis of the hand gesture.
SELECTED DRAWING: Figure 7
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、拡張現実空間に配置される3Dオブジェクトを生成する方法に関する。詳し
くは、スマートフォン等の携帯端末の表示部に表示される拡張現実空間に配置される3D
オブジェクトを生成する方法に関する。また、スマートグラス、ヘッドマウントディスプ
レイ等のウェアラブルデバイス等の表示部に表示される拡張現実空間に配置される3Dオ
ブジェクトを生成する方法に関する。
The present invention relates to a method of generating a 3D object arranged in augmented reality space. For details, 3D placed in the augmented reality space displayed on the display of mobile terminals such as smartphones.
Regarding how to create an object. The present invention also relates to a method of generating a 3D object arranged in an augmented reality space displayed on a display unit of a wearable device such as a smart glass or a head-mounted display.

従来、二次元(2D)や三次元(3D)の静止画や動画(アニメーション)で表現され
るキャラクタを生成するため、様々な技術が提案されている。
Conventionally, various techniques have been proposed for generating characters represented by two-dimensional (2D) or three-dimensional (3D) still images or moving images (animation).

多くの場合、画像として表現する対象物を構成する部品に対してパラメータを設け、パ
ラメータを調整することで、各々の部品の状態を変化させる、といった手法が用いられる
In many cases, a method is used in which parameters are set for the parts constituting the object to be expressed as an image, and the state of each part is changed by adjusting the parameters.

一例として、3次元オブジェクト(例えば、キャラクタ)の生成に当たり、その構成要
素(例えば、顔、口、眉等)に対して、各部品の状態の変化(例えば、口の開閉、目の開
閉、眉の縦移動、眉の横移動、目玉の縦移動、目玉 の横移動、怒りの度合、笑いの度合
、照れの度合)に関連するパラメータや、物体(例えば、顔)の回転角(-180~18
0)に関連するパラメータを設定する手法が開示されている(例えば、特許文献1)。
As an example, in the generation of a three-dimensional object (for example, a character), changes in the state of each part (for example, opening and closing of the mouth, opening and closing of eyes, eyebrows, etc.) with respect to its components (for example, face, mouth, eyebrows, etc.) Parameters related to vertical movement of the eyebrows, horizontal movement of the eyebrows, vertical movement of the eyeballs, horizontal movement of the eyeballs, degree of anger, degree of laughter, degree of shyness) and rotation angle of the object (for example, face) (-180 ~ 18
A method for setting parameters related to 0) is disclosed (for example, Patent Document 1).

昨今、現実世界に画像やアノテーション等の情報をウェアリングデバイスのディスプレ
イ等を通して付加することで、ユーザの現実空間を拡張する、という拡張現実空間を提供
するサービスが普及している。一例として、スマートフォンのカメラにより撮像された現
実空間上に、アニメキャラクタのようなデジタル画像を重畳させて表示する、といったサ
ービスが挙げられ、ユーザは、あたかもそのキャラクタが現実空間に実在しているかのよ
うな感覚を持つことができる。
Recently, a service that provides an augmented reality space that expands the user's real space by adding information such as images and annotations to the real world through a display of a wearing device has become widespread. One example is a service that superimposes and displays a digital image such as an animated character on the real space captured by the camera of a smartphone, and the user can see if the character actually exists in the real space. You can have a feeling like that.

特開2009-104570号公報Japanese Unexamined Patent Publication No. 2009-104570

しかしながら、このような拡張現実空間を演出するキャラクタのようなデジタル画像は
、元々現実空間に配置されることを想定したものでない場合が多く、各々のユーザによっ
て異なる現実空間にマッチするキャラクタを提供することは難しい。上記特許文献の3D
オブジェクト生成技術は、二次元上のイラスト編集ツールの延長上にある技術であり、拡
張現実空間に配置されるキャラクタを生成することを想定したものではない。
However, digital images such as characters that produce such an augmented reality space are often not originally intended to be placed in the real space, and provide characters that match different real spaces depending on each user. That is difficult. 3D of the above patent document
The object generation technique is an extension of the two-dimensional illustration editing tool, and is not intended to generate characters to be placed in augmented reality space.

そこで、本発明は、拡張現実空間に配置される3Dオブジェクトを生成する技術を提供
することを目的とする。
Therefore, an object of the present invention is to provide a technique for generating a 3D object arranged in an augmented reality space.

本発明の一の実施形態において、ユーザ装置の表示部に表示される拡張現実空間に配置
される3Dオブジェクトを生成する方法であって、撮像された現実空間に3Dオブジェク
トの画像を表示し、前記拡張現実空間内におけるユーザのハンドジェスチャを検出し、当
該ハンドジェスチャに基づいて、前記3Dオブジェクトの姿勢を制御する、方法。
In one embodiment of the present invention, a method of generating a 3D object arranged in an augmented reality space displayed on a display unit of a user device, wherein an image of the 3D object is displayed in the captured real space, and the above-mentioned A method of detecting a user's hand gesture in augmented reality space and controlling the posture of the 3D object based on the hand gesture.

本発明によれば、拡張現実空間に配置される3Dオブジェクトを生成する技術を提供す
ることを実現することができる。
According to the present invention, it is possible to provide a technique for generating a 3D object arranged in an augmented reality space.

第1の実施形態に係るシステム構成図を示す。The system block diagram which concerns on 1st Embodiment is shown. 第1の実施形態に係るサーバの機能構成図を示す。The functional block diagram of the server which concerns on 1st Embodiment is shown. 第1の実施形態に係るユーザ端末の機能構成図を示す。The functional block diagram of the user terminal which concerns on 1st Embodiment is shown. 第1の実施形態に係る制御部の機能構成図を示す。The functional block diagram of the control part which concerns on 1st Embodiment is shown. 第1の実施形態に係るストレージの詳細を示す。The details of the storage which concerns on 1st Embodiment are shown. 第1の実施形態に係る、3Dオブジェクトの生成方法のフローチャートを示す。The flowchart of the 3D object generation method which concerns on 1st Embodiment is shown. 第1の実施形態に係る、ユーザ端末の姿勢制御に伴う処理のフローチャートを示す。The flowchart of the process associated with the attitude control of the user terminal which concerns on 1st Embodiment is shown. 第1の実施形態に係る、3Dオブジェクトの生成画面の例を示す。An example of a 3D object generation screen according to the first embodiment is shown.

<第1実施形態>
本発明の第1実施形態に係る3Dオブジェクトの生成方法の具体例を、以下に図面を参
照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の
範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれ
ることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を
付し、重複する説明を省略する。
<First Embodiment>
A specific example of the method for generating a 3D object according to the first embodiment of the present invention will be described below with reference to the drawings. It should be noted that the present invention is not limited to these examples, and is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims. In the following description, the same elements will be designated by the same reference numerals in the description of the drawings, and duplicate description will be omitted.

図1に、本発明の第1の実施形態に係るシステム構成図を示す。図1に示すように、本
実施形態に係るシステムは、サーバ1と、サーバ1に、インターネット等のネットワーク
を介して接続される、ユーザ端末2Aとユーザ端末2Bとを含む。図1には、説明の便宜
上ユーザ端末2A、2B(以下、ユーザ端末2と総称する)が図示されているが、任意の
数のユーザ端末がネットワークに接続可能である。
FIG. 1 shows a system configuration diagram according to the first embodiment of the present invention. As shown in FIG. 1, the system according to the present embodiment includes a server 1 and a user terminal 2A and a user terminal 2B connected to the server 1 via a network such as the Internet. Although the user terminals 2A and 2B (hereinafter collectively referred to as user terminals 2) are shown in FIG. 1 for convenience of explanation, any number of user terminals can be connected to the network.

サーバ1は、ユーザ端末2A、2Bに関連付けられるユーザに対し、現実空間に、例え
ば、アニメキャラクタのような、3Dオブジェクトを配置することによる拡張現実空間を
提供するサービスを提供することができる。例えば、サーバ1は、ユーザ端末2(例えば
、携帯電話端末やスマートフォン)内蔵のカメラにより撮像される現実空間に、キャラク
タ画像を重畳させることによる拡張現実空間を提供するサービスを提供する。
The server 1 can provide a service associated with the user terminals 2A and 2B to provide an augmented reality space by arranging a 3D object such as an animation character in the real space. For example, the server 1 provides a service that provides an augmented reality space by superimposing a character image on a real space imaged by a camera built in a user terminal 2 (for example, a mobile phone terminal or a smartphone).

より具体的には、ユーザは、ユーザの部屋を、例えばスマートフォン内蔵のカメラによ
り撮像し、ユーザはお気に入りのキャラクタ画像をその部屋の背景画像に重畳させて表示
させることができる。これにより、ユーザは、あたかも自分の部屋にお気に入りのキャラ
クタが同居しているかの感覚を覚えることができる。
More specifically, the user can take an image of the user's room with a camera built in the smartphone, for example, and the user can display the favorite character image superimposed on the background image of the room. As a result, the user can feel as if his / her favorite character lives in his / her room.

例えば、ユーザは、ユーザ端末2に、サーバ1または他のプラットフォームから本サービ
スアプリケーションをダウンロードし、アプリケーションを介して、サーバ1と本サービ
スに関するデータを送受信することができる。または、ユーザは、ユーザ端末2に内蔵さ
れたWebブラウザにより、サーバ1に格納されるWebアプリケーションにアクセスす
ることにより、本サービスに関するデータを送受信することもできる。以下の実施形態に
おいては、例示として、ダウンロードされたアプリケーションを介した本サービスの提供
方法について説明する。
For example, the user can download the service application from the server 1 or another platform to the user terminal 2, and send / receive data related to the server 1 and the service via the application. Alternatively, the user can also send and receive data related to this service by accessing the Web application stored in the server 1 by the Web browser built in the user terminal 2. In the following embodiment, a method of providing this service via a downloaded application will be described as an example.

ユーザ端末2として、例えばスマートフォン、タブレット、携帯端末その他情報端末と
してもよいし、ワークステーションやパーソナルコンピュータのような汎用コンピュータ
であってもよい。さらに、スマートグラス、ヘッドマウントディスプレイ等の、ユーザの
身体に装着し得るウェアラブルデバイスであってもよい。
The user terminal 2 may be, for example, a smartphone, a tablet, a mobile terminal or other information terminal, or may be a general-purpose computer such as a workstation or a personal computer. Further, it may be a wearable device such as a smart glass or a head-mounted display that can be worn on the user's body.

図2は、第1実施形態に係るサーバの機能構成図を示す。なお、図示された構成は一例で
あり、これ以外の構成を有していてもよい。
FIG. 2 shows a functional configuration diagram of the server according to the first embodiment. The configuration shown in the figure is an example, and may have other configurations.

図示されるように、サーバ1は、データベース(図示せず)と接続されシステムの一部を
構成する。サーバ1は、例えばワークステーションやパーソナルコンピュータのような汎
用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に
実現されてもよい。
As shown, the server 1 is connected to a database (not shown) to form part of the system. The server 1 may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing.

サーバ1は、少なくとも、制御部10、メモリ11、ストレージ12、送受信部13、
入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。
The server 1 has at least a control unit 10, a memory 11, a storage 12, a transmission / reception unit 13, and so on.
Input / output units 14 and the like are provided, and these are electrically connected to each other through a bus 15.

制御部10は、サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御
、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。
例えば制御部10はCPU(Central Processing Unit)であり
、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理
を実施する。
The control unit 10 is an arithmetic unit that controls the operation of the entire server 1, controls the transmission and reception of data between each element, and performs information processing necessary for application execution and authentication processing.
For example, the control unit 10 is a CPU (Central Processing Unit), and executes each information processing by executing a program or the like stored in the storage 12 and expanded in the memory 11.

メモリ11は、DRAM(Dynamic Random Access Memor
y)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard
Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ
11は、プロセッサ10のワークエリア等として使用され、また、サーバ1の起動時に実
行されるBIOS(Basic Input/Output System)、及び各種
設定情報等を格納する。
The memory 11 is a DRAM (Dynamic Random Access Memory).
Main storage composed of volatile storage devices such as y), flash memory and HDD (Hard)
Includes auxiliary storage configured with a non-volatile storage device such as Disc Drive). The memory 11 is used as a work area or the like of the processor 10, and also stores a BIOS (Basic Input / Output System) executed when the server 1 is started, various setting information, and the like.

ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各
処理に用いられるデータを格納したデータベース(図示せず)がストレージ12に構築さ
れていてもよい。
The storage 12 stores various programs such as application programs. A database (not shown) storing data used for each process may be built in the storage 12.

送受信部13は、サーバ1をネットワークに接続する。なお、送受信部13は、Blu
etooth(登録商標)及びBLE(Bluetooth Low Energy)の
近距離通信インターフェースを備えていてもよい。
The transmission / reception unit 13 connects the server 1 to the network. The transmission / reception unit 13 is set to Blue.
It may be provided with a short-range communication interface of echoth (registered trademark) and BLE (Bluetooth Low Energy).

入出力部14は、キーボード・マウス類等の情報入力機器、及びディスプレイ等の出力
機器である。
The input / output unit 14 is an information input device such as a keyboard and a mouse, and an output device such as a display.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各
種制御信号を伝達する。
The bus 15 is commonly connected to each of the above elements and transmits, for example, an address signal, a data signal, and various control signals.

図3は、第1実施形態に係るユーザ端末の機能構成図を示す。なお、図示された構成は一
例であり、これ以外の構成を有していてもよい。
FIG. 3 shows a functional configuration diagram of a user terminal according to the first embodiment. The configuration shown in the figure is an example, and may have other configurations.

ユーザ端末2は、前述の通り、様々な情報端末や汎用コンピュータとすることができる
か、以下、スマートフォンを例に説明する。ユーザ端末2は、少なくとも、制御部20、
メモリ21、ストレージ22、送受信部23、入力部24等を備え、これらはバス25を
通じて相互に電気的に接続される。
As described above, whether the user terminal 2 can be various information terminals or general-purpose computers will be described below by taking a smartphone as an example. The user terminal 2 is at least the control unit 20,
A memory 21, a storage 22, a transmission / reception unit 23, an input unit 24, and the like are provided, and these are electrically connected to each other through a bus 25.

制御部20は、ユーザ端末2全体の動作を制御し、各要素間におけるデータの送受信の
制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置であ
る。例えば制御部20はCPU(Central Processing Unit)で
あり、ストレージ22に格納されメモリ21に展開されたプログラム等を実行して各情報
処理を実施する。
The control unit 20 is an arithmetic unit that controls the operation of the entire user terminal 2, controls the transmission and reception of data between each element, and performs information processing necessary for application execution and authentication processing. For example, the control unit 20 is a CPU (Central Processing Unit), and executes each information processing by executing a program or the like stored in the storage 22 and expanded in the memory 21.

メモリ21は、DRAM(Dynamic Random Access Memor
y)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard
Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ
21は、制御部20のワークエリア等として使用され、また、ユーザ端末2の起動時に実
行されるBIOS(Basic Input/Output System)、及び各種
設定情報等を格納する。
The memory 21 is a DRAM (Dynamic Random Access Memory).
Main memory composed of volatile storage devices such as y), flash memory and HDD (Hard)
Includes auxiliary storage configured with a non-volatile storage device such as Disc Drive). The memory 21 is used as a work area or the like of the control unit 20, and also stores a BIOS (Basic Input / Output System) executed when the user terminal 2 is started, various setting information, and the like.

ストレージ22は、アプリケーション・プログラム等の各種プログラムを格納する。各
処理に用いられるデータを格納したデータベース(図示せず)がストレージ22に構築さ
れていてもよい。
The storage 22 stores various programs such as application programs. A database (not shown) storing data used for each process may be built in the storage 22.

送受信部23は、ユーザ端末2をネットワークに接続する。なお、送受信部23は、B
luetooth(登録商標)及びBLE(Bluetooth Low Energy
)の近距離通信インターフェースを備えていてもよい。
The transmission / reception unit 23 connects the user terminal 2 to the network. The transmission / reception unit 23 is B.
Bluetooth® and BLE (Bluetooth Low Energy)
) May be provided with a short-range communication interface.

入力部24は、タッチパネル等の情報入力機器である。 The input unit 24 is an information input device such as a touch panel.

バス25は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各
種制御信号を伝達する。
The bus 25 is commonly connected to each of the above elements and transmits, for example, an address signal, a data signal, and various control signals.

さらに、ユーザ端末2は、カメラ26を備える。カメラ26は、ユーザ端末2に内蔵され
、現実空間を撮像し、通常、ユーザ端末2を把持するユーザの視線方向と一致するように
備えられる。カメラ26はまた、ユーザのジェスチャをキャプチャするセンサ(例えば、
二次元/三次元カメラ、超音波、深度、IRセンサ等)としての機能を備える。
Further, the user terminal 2 includes a camera 26. The camera 26 is built in the user terminal 2 and is provided so as to capture an image of the real space and usually match the line-of-sight direction of the user holding the user terminal 2. The camera 26 also has a sensor (eg, for example) that captures the user's gesture.
It has a function as a 2D / 3D camera, ultrasonic wave, depth, IR sensor, etc.).

カメラ26により撮像された現実空間の画像は、画像制御部27により、キャラクタ等の
3Dオブジェクトの画像と合成され、表示部28により、現実空間の画像に3Dオブジェ
クトの画像が重畳して表示される。画像制御部27は、例えば、GPU(Graphic
s Processing Unit)であり、主に画像処理に係る演算処理を実行する
。また、表示部28は、スマートフォンの場合、例えば、LCDまたは有機EL等のディ
スプレイである。表示部28は、カメラ26のファインダとして機能することもできる。
The image of the real space captured by the camera 26 is combined with the image of a 3D object such as a character by the image control unit 27, and the image of the 3D object is superimposed and displayed on the image of the real space by the display unit 28. .. The image control unit 27 is, for example, a GPU (Graphic).
s Processing Unit), which mainly executes arithmetic processing related to image processing. Further, in the case of a smartphone, the display unit 28 is, for example, a display such as an LCD or an organic EL. The display unit 28 can also function as a finder of the camera 26.

GPS(Global Positioning System)29は、現在位置情報
を測位する。GPS29は、GPS衛星から測位用の電波を受信し、絶対位置となる緯度
経度情報を測位することができる。また、複数の携帯電話用の基地局から通信電波を受信
し、複数基地局測位機能によって現在位置情報を測位することもできる。
GPS (Global Positioning System) 29 positions the current position information. The GPS 29 can receive radio waves for positioning from GPS satellites and can position latitude / longitude information that is an absolute position. It is also possible to receive communication radio waves from a plurality of base stations for mobile phones and perform positioning of the current position information by a plurality of base station positioning functions.

加速度センサ30は、加速度(単位時間当たりの速度の変化)を検出する。加速度センサ
30は、3軸方向(x、y、z方向)の加速度を検出することができる。例えば、スマー
トフォンの前後方向をx軸、左右方向をy軸、上下方向をz軸とし、前方方向をx軸正方
向、左方向をy軸正方向、下方向をz軸方向とすると、加速度センサ30は、各方向の加
速度を検出するとともに、x軸回りの回転角(ロール角)、y軸回りの回転角(ピッチ角
)、z軸回りの回転角(ヨー角)を検出する。
The acceleration sensor 30 detects acceleration (change in speed per unit time). The acceleration sensor 30 can detect acceleration in the triaxial directions (x, y, z directions). For example, if the front-back direction of the smartphone is the x-axis, the left-right direction is the y-axis, the up-down direction is the z-axis, the front direction is the x-axis positive direction, the left direction is the y-axis positive direction, and the downward direction is the z-axis direction. 30 detects acceleration in each direction, and also detects a rotation angle around the x-axis (roll angle), a rotation angle around the y-axis (pitch angle), and a rotation angle around the z-axis (yaw angle).

地磁気センサ31は、3軸方向(上記x、y、z軸方向)の地磁気の方向を検出し、水平
方向の方位を表示する。方位角は、地磁気センサにより検出され、算出された真北の方位
Nを基点とした時計回りの角度で示される。
The geomagnetic sensor 31 detects the direction of the geomagnetism in the three-axis directions (the above-mentioned x, y, z-axis directions) and displays the horizontal direction. The azimuth is indicated by a clockwise angle with respect to the calculated true north azimuth N detected by the geomagnetic sensor.

本例においては、スマートフォンを挙げて説明しているが、上述の通り、ユーザ端末とし
て、ウェアラブルデバイスを用いることもできる。この場合、ウェアラブルデバイスに、
本例におけるスマートフォンに内蔵される機能と同等の機能を備えることができる。
In this example, a smartphone is mentioned, but as described above, a wearable device can also be used as a user terminal. In this case, on the wearable device,
It can be equipped with the same functions as those built into the smartphone in this example.

図4は、第1の実施形態に係る制御部の機能構成図を示す。なお、本実施形態においては
、ユーザ端末2の制御部20の機能構成図の詳細について説明するが、同様の機能をサー
バ1の制御部10に備え、制御部10において処理することができる。以下、各機能構成
は、メモリ21、ストレージ12等に記憶されたプログラムを制御部20において実行す
ることで実現される。
FIG. 4 shows a functional configuration diagram of the control unit according to the first embodiment. In this embodiment, the details of the functional configuration diagram of the control unit 20 of the user terminal 2 will be described, but the same function can be provided in the control unit 10 of the server 1 and processed by the control unit 10. Hereinafter, each functional configuration is realized by executing the program stored in the memory 21, the storage 12, and the like in the control unit 20.

ジェスチャ検出部41は、例えば、ユーザの手のジェスチャを検出する。具体的には、ジ
ェスチャ検出部41は、ユーザ端末2(スマートフォン)のカメラ26がキャプチャした
、ユーザの手のジェスチャを含む画像をフィルタ除去等の手法により正規化し、正規化さ
れた画像のエッジ画像の各画素に対して、カメラの三次元座標系(x、y、z)における
位置及び方向を含むインデックスを付与し、付与されたインデックスを基に、ユーザ端末
外部のデータベースに格納された、予めインデックスが付与されたジェスチャ画像を検索
し、インデックスがマッチした手のジェスチャ画像を決定する。
The gesture detection unit 41 detects, for example, the gesture of the user's hand. Specifically, the gesture detection unit 41 normalizes the image including the gesture of the user's hand captured by the camera 26 of the user terminal 2 (smartphone) by a method such as filter removal, and the edge image of the normalized image. An index including the position and direction in the three-dimensional coordinate system (x, y, z) of the camera is assigned to each pixel of the above, and the index is stored in the database outside the user terminal in advance based on the assigned index. The indexed gesture image is searched to determine the gesture image of the hand with the matched index.

キャラクタ画像管理部42は、ストレージ22に格納されるキャラクタの3Dオブジェク
トを管理し、例えば、ジェスチャ検出に応じて、キャラクタの位置や姿勢を制御する。
The character image management unit 42 manages the 3D object of the character stored in the storage 22, and controls, for example, the position and posture of the character in response to the gesture detection.

図5は、第1の実施形態に係るストレージの詳細を示す。なお、本実施形態においては
、ユーザ端末2のストレージ22の詳細について説明するが、同様の情報をメモリ21や
、サーバ1のメモリ11、ストレージ12等に格納することもできる。
FIG. 5 shows the details of the storage according to the first embodiment. Although the details of the storage 22 of the user terminal 2 will be described in the present embodiment, the same information can be stored in the memory 21, the memory 11 of the server 1, the storage 12, and the like.

ストレージ12は、キャラクタ情報51を格納する。キャラクタ情報として、拡張現実空
間に表示されるキャラクタの3Dオブジェクトの生成に関連するデータ(例えば、キャラ
クタ画像データ、3D形状データ、テクスチャデータ、アニメーションデータ及び座標情
報、色情報等のそれらを構成するデータ)を所定の形式で格納する。また、キャラクタ情
報は、アニメーションデータとして、キャラクタの各々の部品(例えば、髪の毛、顔、首
、胴体、腕、手、脚等)が相互に動くために必要なボーンオブジェクト情報を有し、各々
の部品について、位置(x、y、z座標)、接続元/接続先の部品、質量/幅/高さ、回
転制限(x、y、z座標の最大値/最小値)、及び移動制限(x、y、z座標の最大値/
最小値)等の情報を有することができる。また、ユーザが複数の種類のキャラクタを選択
できるよう、複数のキャラクタ情報を格納することもできる。その他、ストレージ12は
、画像処理プログラムを始め各種プログラム、アプリケーション、オペレーションシステ
ム等を格納する。
The storage 12 stores the character information 51. As character information, data related to the generation of a 3D object of a character displayed in the extended real space (for example, character image data, 3D shape data, texture data, animation data, coordinate information, color information, and the like. ) Is stored in a predetermined format. Further, the character information has bone object information necessary for each part of the character (for example, hair, face, neck, torso, arms, hands, legs, etc.) to move with each other as animation data, and each of them has bone object information. For parts, position (x, y, z coordinates), connection source / destination parts, mass / width / height, rotation limit (maximum / minimum values of x, y, z coordinates), and movement limit (x). , Y, z coordinates maximum value /
It can have information such as (minimum value). It is also possible to store a plurality of character information so that the user can select a plurality of types of characters. In addition, the storage 12 stores various programs, applications, operation systems, and the like, including an image processing program.

図6は、第1の実施形態に係る、3Dオブジェクトの生成方法のフローチャートを示す。
本3Dオブジェクトの生成方法に係る処理は、例えば、ユーザ端末2のメモリ22に展開
されるプログラムを制御部21において実行することで実現され得るが、他に、サーバ1
のメモリ12に展開されるプログラムを制御部11において実行することで実現すること
もでき、または、これらが協働して実行することで実現することも可能である。
FIG. 6 shows a flowchart of a method for generating a 3D object according to the first embodiment.
The process relating to the method of generating the 3D object can be realized, for example, by executing the program expanded in the memory 22 of the user terminal 2 in the control unit 21, but in addition, the server 1
It can be realized by executing the program expanded in the memory 12 of the above in the control unit 11, or it can be realized by executing these programs in cooperation with each other.

まず、制御部20のユーザ要求受付部41は、アプリケーション等を介して、ユーザ端末
2に関連づけられるユーザから拡張現実空間に表示するキャラクタの選択要求を受信する
(S101)。表示するキャラクタの種類が、1種類の場合は、本ステップを省略するこ
ともできる。
First, the user request receiving unit 41 of the control unit 20 receives a character selection request to be displayed in the augmented reality space from the user associated with the user terminal 2 via an application or the like (S101). If there is only one type of character to display, this step can be omitted.

続いて、表示制御部27は、ユーザが選択したキャラクタを拡張現実空間に表示する処理
を行う(S102)。例えば、表示制御部27は、ストレージ22に格納されたキャラク
タ情報を基に、3D形状データを所定の空間にマッピングし、キャラクタ画像データから
変換されたテクスチャデータに、テクスチャデータを3D形状にマッピングさせることで
、キャラクタの3Dオブジェクトを生成する。そして、カメラ26で撮像された現実空間
を、所定の空間の背景画像として設定することで、現実空間にキャラクタの3Dオブジェ
クトが重畳された画像が生成され、拡張現実空間が提供され、拡張現実空間がディスプレ
イに表示される。例えば、図8に示すように、キャラクタの3Dオブジェクトは、拡張現
実空間において中央に表示され、正面を向いている。ここで、表示制御部72は、キャラ
クタの3Dオブジェクトの各構成要素(例えば、顏、眼、鼻、口、眉、耳、髪型等)の状
態を変化させるパラメータを調整するための複数のインジケータを表示し、ユーザからパ
ラメータを調整するためのインジケータを介した指示を受け付け、これに応じて、指定さ
れた構成要素の状態を変更する処理を行うことができる。また、表示制御部27は、拡張
現実空間におけるキャラクタの3Dオブジェクトのテクスチャの色の補正を行うためのイ
ンジケータを表示することもできる。ここで、色の補正とは、明るさ、彩度、色調、鮮明
さ、コントラスト等の補正を含む。
Subsequently, the display control unit 27 performs a process of displaying the character selected by the user in the augmented reality space (S102). For example, the display control unit 27 maps the 3D shape data to a predetermined space based on the character information stored in the storage 22, and maps the texture data to the 3D shape to the texture data converted from the character image data. This creates a 3D object for the character. Then, by setting the real space captured by the camera 26 as the background image of the predetermined space, an image in which the 3D object of the character is superimposed on the real space is generated, the extended real space is provided, and the expanded real space is provided. Is displayed on the display. For example, as shown in FIG. 8, the character's 3D object is displayed in the center in augmented reality space and faces the front. Here, the display control unit 72 provides a plurality of indicators for adjusting parameters that change the state of each component (for example, face, eye, nose, mouth, eyebrows, ears, hairstyle, etc.) of the character's 3D object. It can be displayed, receive instructions from the user via an indicator for adjusting parameters, and in response, perform a process of changing the state of a specified component. The display control unit 27 can also display an indicator for correcting the color of the texture of the character's 3D object in the augmented reality space. Here, the color correction includes corrections such as brightness, saturation, color tone, sharpness, and contrast.

続いて、制御部20のジェスチャ検出部41は、ジェスチャを検出したか、を確認する(
S103)。例えば、ユーザは、図8(a)に示すように、自分の手を使って、ディスプ
レイに表示されるキャラクタのポージングを変えるよう試みる。ジェスチャ検出の一例と
して、ジェスチャ検出部41は、ユーザ端末2(スマートフォン)のカメラ26がキャプ
チャしたユーザの手のジェスチャを含む画像をフィルタ除去等の手法により正規化し、正
規化された画像のエッジ画像の各画素に対して、カメラの三次元座標系(x、y、z)に
おける位置及び方向を含むインデックスを付与し、付与されたインデックスを基に、ユー
ザ端末外部のデータベースに格納された、予めインデックスが付与されたジェスチャ画像
を検索し、インデックスがマッチしたジェスチャ画像を決定する。図8の例においては、
ジェスチャ検出部41は、ユーザが指で何かを摘まんで(いわゆる、ピンチ操作)、所定
の方向に移動するジェスチャを検出する。
Subsequently, the gesture detection unit 41 of the control unit 20 confirms whether or not the gesture has been detected (
S103). For example, the user attempts to change the pose of the character displayed on the display using his or her hand, as shown in FIG. 8 (a). As an example of gesture detection, the gesture detection unit 41 normalizes the image including the gesture of the user's hand captured by the camera 26 of the user terminal 2 (smartphone) by a method such as filter removal, and the edge image of the normalized image. An index including the position and direction in the three-dimensional coordinate system (x, y, z) of the camera is assigned to each pixel of the above, and the index is stored in the database outside the user terminal in advance based on the assigned index. The indexed gesture image is searched and the gesture image with the matching index is determined. In the example of FIG. 8,
The gesture detection unit 41 detects a gesture that the user picks something with a finger (so-called pinch operation) and moves in a predetermined direction.

ジェスチャ検出部41は、ユーザの手のジェスチャを検出すると、そのジェスチャに応
じて、制御部20及び画像制御部27は、キャラクタの姿勢(ポージング)を制御する(
S104)。本処理において、例えば、図8(b)に示すように、画像制御部27は、キ
ャラクタの3Dオブジェクトの左手を持ち上げるよう制御する。本処理の詳細は、図7に
おいて説明する。
When the gesture detection unit 41 detects the gesture of the user's hand, the control unit 20 and the image control unit 27 control the posture (posing) of the character according to the gesture (the gesture detection unit 41).
S104). In this process, for example, as shown in FIG. 8B, the image control unit 27 controls to lift the left hand of the 3D object of the character. The details of this process will be described with reference to FIG.

次に、画像制御部27は、姿勢制御後のキャラクタの3Dオブジェクトを拡張現実空間に
表示する(S105)。例えば、図8(b)に示すように、表示されるオブジェクトの画
像は、左手を持ち上げるようアニメーション表示される。
Next, the image control unit 27 displays the 3D object of the character after the attitude control in the augmented reality space (S105). For example, as shown in FIG. 8B, the image of the displayed object is animated to lift the left hand.

図7は、第1の実施形態に係る、キャラクタの姿勢制御に係る処理のフローチャートを示
す。まず、制御部20のジェスチャ検出部41は、ユーザに手のジェスチャを検出する(
S201)。ここで、ジェスチャ検出部41は、ユーザの手の動きに対応した動きを含め
たジェスチャ画像、すなわち、何かを指で摘まむ操作(ピンチ操作)をして、所定の方向
に移動するジェスチャに対応する画像を決定する。
FIG. 7 shows a flowchart of the process related to the posture control of the character according to the first embodiment. First, the gesture detection unit 41 of the control unit 20 detects the gesture of the hand to the user (
S201). Here, the gesture detection unit 41 makes a gesture image including a movement corresponding to the movement of the user's hand, that is, a gesture of moving in a predetermined direction by performing an operation of picking something with a finger (pinch operation). Determine the corresponding image.

次に、ジェスチャ検出部41は、検出したジェスチャを基に、ユーザの手の座標を確認
する(S202)。前述のとおり、ここで、ジェスチャ検出部41は、キャプチャされ、
正規化された画像のエッジ画像の各画素に対して付与された、カメラの三次元座標(x、
y、z)における位置及び方向を参照する。図8(a)及び図8(b)に示すように、ジ
ェスチャ検出部41によって、ユーザの手の始点位置の三次元座標の位置及び方向とユー
ザの手の終点位置の三次元座標の位置及び方向が確認される。ここで、検出したジェスチ
ャによっては、本処理を進まずに、特定のジェスチャをトリガとして、本処理に進むこと
もできる。例えば、単にユーザが手をキャラクタの周辺にかざしている状態では何もアク
ションを取らずに、キャラクタの部位を指で摘まむ操作(ピンチ操作)を検出したことを
トリガとして、本処理以降に進むこととしてもよい。
Next, the gesture detection unit 41 confirms the coordinates of the user's hand based on the detected gesture (S202). As mentioned above, here the gesture detector 41 is captured and
The three-dimensional coordinates (x,) of the camera given to each pixel of the edge image of the normalized image.
Refer to the position and direction in y, z). As shown in FIGS. 8 (a) and 8 (b), the gesture detection unit 41 determines the position and direction of the three-dimensional coordinates of the start point position of the user's hand and the position and the three-dimensional coordinates of the end point position of the user's hand. The direction is confirmed. Here, depending on the detected gesture, it is possible to proceed to the main process by using a specific gesture as a trigger without proceeding with the main process. For example, when the user simply holds his / her hand around the character, the operation of pinching the character's part with a finger (pinch operation) is detected without taking any action, and the process proceeds to the subsequent steps. It may be that.

続いて、ジェスチャ検出部41は、検出したユーザの手の座標に対応する3Dオブジェク
トの座標を確認する(S203)。具体的には、図8(a)及び図8(b)に示すように
、検出されたユーザの手の始点位置に対応するキャラクタの3Dオブジェクトの三次元座
標を確認する。
Subsequently, the gesture detection unit 41 confirms the coordinates of the 3D object corresponding to the coordinates of the detected user's hand (S203). Specifically, as shown in FIGS. 8 (a) and 8 (b), the three-dimensional coordinates of the character's 3D object corresponding to the detected start point position of the user's hand are confirmed.

そして、ジェスチャ検出部41は、確認した3Dオブジェクトの座標に対応する、3Dオ
ブジェクトの部品を特定する(S204)。図8(a)に示す例において、ユーザの手の
始点位置に対応するキャラクタの3Dオブジェクトの三次元座標は、キャラクタの左手で
あることが分かる。
Then, the gesture detection unit 41 identifies a part of the 3D object corresponding to the coordinates of the confirmed 3D object (S204). In the example shown in FIG. 8A, it can be seen that the three-dimensional coordinates of the character's 3D object corresponding to the starting point position of the user's hand are the left hand of the character.

そして、表示制御部27は、キャラクタの3Dオブジェクトの部品の位置を変更するよう
制御する。例えば、表示制御部27は、図8(a)及び図8(b)に示す例においては、
検出した手のジェスチャに応じ、キャラクタの左手を振り上げる制御する。
Then, the display control unit 27 controls to change the position of the component of the 3D object of the character. For example, the display control unit 27 in the examples shown in FIGS. 8 (a) and 8 (b).
Controls to raise the character's left hand according to the gesture of the detected hand.

なお、上記の例によれば、ユーザの手の位置及び相対的なキャラクタの部品位置の特定に
カメラの三次元座標を使用しているが、ワールド座標やローカル座標を適用し、適宜座標
変換することもできる。また、三次元座標ではなく、二次元座標を提供することもできる
。また、検出されたユーザの手のジェスチャをジェスチャ画像として手の画像を表示する
ことで、ユーザは、感覚的にキャラクタのポージングの調整を図ることができるが、手の
画像を表示させないこともできる。
According to the above example, the three-dimensional coordinates of the camera are used to specify the position of the user's hand and the relative position of the character component, but the world coordinates and local coordinates are applied and the coordinates are appropriately converted. You can also do it. It is also possible to provide two-dimensional coordinates instead of three-dimensional coordinates. Further, by displaying the hand image as the gesture image of the detected user's hand, the user can intuitively adjust the pose of the character, but it is also possible not to display the hand image. ..

以上のように、本実施形態によれば、拡張現実空間にキャラクタの3Dオブジェクトを配
置させたまま、ハンドトラッキングを使ってキャラクタのポージングを調整することがで
きるため、あたかも現実空間でキャラクタフィギュアのポージングを決めるかのように、
キャラクタの3Dオブジェクトを生成することができる。
As described above, according to the present embodiment, it is possible to adjust the pose of the character by using hand tracking while the 3D object of the character is placed in the augmented reality space, so that the pose of the character figure is as if it were in the real space. As if to decide
You can create a 3D object of your character.

本実施形態によれば、単体のキャラクタの3Dオブジェクトを拡張現実空間に配置し、そ
の構成要素を変更させる処理を行うこととしているが、例えば、複数のキャラクタを同じ
拡張現実空間に配置させて、ユーザは、複数のキャラクタのうち、任意のキャラクタの3
Dオブジェクトのポージングを変更するよう、ハンドトラッキングを使って調整すること
ができる。これにより、ユーザは、あたかも現実空間において、複数の異なる容姿、背丈
のキャラクタが共存しているかのような感覚を覚えながら、お気に入りのキャラクタのポ
ージングを楽しむことができる。
According to the present embodiment, a 3D object of a single character is arranged in an augmented reality space, and a process of changing its constituent elements is performed. For example, a plurality of characters are arranged in the same augmented reality space. The user can use 3 of any of the multiple characters.
Hand tracking can be used to adjust the pose of the D object. As a result, the user can enjoy the pose of his / her favorite character while feeling as if a plurality of characters having different appearances and heights coexist in the real space.

さらに、本実施形態において、サーバ1は、あるユーザ端末2Aに提供された拡張現実空
間を、ネットワークを介して、別のユーザ端末2Bに提供することができる。ここで、ユ
ーザ端末2Aは、自端末の表示部28に表示される拡張現実空間において配置される、キ
ャラクタの3Dオブジェクトに関する情報を、他の端末2Bに送信するようサーバ1に要
求を送信する。ユーザ端末2Bは、ユーザ端末2Aにおいて表示されたキャラクタの3D
オブジェクトに関する情報を受信すると、自端末2Bの表示部に表示される拡張現実空間
に、キャラクタを表示させる。このとき、拡張現実空間に表示される背景画像には、ユー
ザ端末2B内蔵のカメラにより撮像された現実空間を使用することができる。そして、ユ
ーザ端末2Bを操作するユーザは、ユーザ端末2Aが操作するユーザによって指示される
キャラクタの容姿の変更の様子を自端末の拡張現実空間の中でリアルタイムに楽しむこと
ができる。
Further, in the present embodiment, the server 1 can provide the augmented reality space provided to one user terminal 2A to another user terminal 2B via a network. Here, the user terminal 2A transmits a request to the server 1 to transmit information about a character 3D object arranged in the augmented reality space displayed on the display unit 28 of the own terminal to another terminal 2B. The user terminal 2B is a 3D character displayed on the user terminal 2A.
When the information about the object is received, the character is displayed in the augmented reality space displayed on the display unit of the own terminal 2B. At this time, as the background image displayed in the augmented reality space, the real space captured by the camera built in the user terminal 2B can be used. Then, the user who operates the user terminal 2B can enjoy the state of the change in the appearance of the character instructed by the user operated by the user terminal 2A in real time in the augmented reality space of the own terminal.

上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定
して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良
することができると共に、本発明にはその均等物が含まれることは言うまでもない。
The embodiments described above are merely examples for facilitating the understanding of the present invention, and are not intended to limit the interpretation of the present invention. It goes without saying that the present invention can be modified and improved without departing from the spirit thereof, and the present invention includes its equivalents.

1 サーバ
2 ユーザ端末

























1 server 2 user terminal

























Claims (5)

ユーザ装置の表示部に表示される拡張現実空間に配置される3Dオブジェクトを生成す
る方法であって、
撮像された現実空間に3Dオブジェクトの画像を表示し、
前記拡張現実空間内におけるユーザのハンドジェスチャを検出し、
当該ハンドジェスチャに基づいて、前記3Dオブジェクトの姿勢を制御する、
方法。
It is a method of generating a 3D object to be placed in the augmented reality space displayed on the display unit of the user device.
An image of a 3D object is displayed in the captured real space,
Detecting the user's hand gesture in the augmented reality space,
Controlling the posture of the 3D object based on the hand gesture,
Method.
前記3Dオブジェクトの姿勢を制御することは、
前記拡張現実空間内に表示される3Dオブジェクト画像のうち、当該検出された位置座標
を確認し、
当該検出された位置座標に対応する前記3Dオブジェクトの位置座標を確認し、
当該確認した3Dオブジェクトの位置座標に対応する当該3Dオブジェクトの部品を特
定し、
前記検出されたハンドジェスチャに基づいて、当該3Dオブジェクトの部品位置を変更
する、ことを含む方法。
Controlling the posture of the 3D object is
Check the detected position coordinates of the 3D object image displayed in the augmented reality space.
Check the position coordinates of the 3D object corresponding to the detected position coordinates, and check
Identify the parts of the 3D object that correspond to the position coordinates of the confirmed 3D object.
A method comprising changing the component position of the 3D object based on the detected hand gesture.
前記3Dオブジェクトはキャラクタに係る3Dオブジェクトである、請求項1に記載の
方法。
The method according to claim 1, wherein the 3D object is a 3D object related to a character.
前記部品は、前記3Dオブジェクトの可動部である、請求項2に記載の方法。 The method according to claim 2, wherein the part is a movable part of the 3D object. 前記部品は、前記3Dオブジェクトの髪、腕、指、脚のいずれかである、請求項4に記載
の方法。










The method of claim 4, wherein the component is any of the hair, arms, fingers, or legs of the 3D object.










JP2022030861A 2019-01-15 2022-03-01 Method for generating 3d object arranged in extended real space Pending JP2022084658A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022030861A JP2022084658A (en) 2019-01-15 2022-03-01 Method for generating 3d object arranged in extended real space

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019004082A JP2020113094A (en) 2019-01-15 2019-01-15 Method of generating 3d object disposed in expanded real space
JP2021130530A JP7078234B2 (en) 2019-01-15 2021-08-10 How to create a 3D object to be placed in augmented reality space
JP2022030861A JP2022084658A (en) 2019-01-15 2022-03-01 Method for generating 3d object arranged in extended real space

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021130530A Division JP7078234B2 (en) 2019-01-15 2021-08-10 How to create a 3D object to be placed in augmented reality space

Publications (1)

Publication Number Publication Date
JP2022084658A true JP2022084658A (en) 2022-06-07

Family

ID=71613540

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019004082A Pending JP2020113094A (en) 2019-01-15 2019-01-15 Method of generating 3d object disposed in expanded real space
JP2021130530A Active JP7078234B2 (en) 2019-01-15 2021-08-10 How to create a 3D object to be placed in augmented reality space
JP2022030861A Pending JP2022084658A (en) 2019-01-15 2022-03-01 Method for generating 3d object arranged in extended real space

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2019004082A Pending JP2020113094A (en) 2019-01-15 2019-01-15 Method of generating 3d object disposed in expanded real space
JP2021130530A Active JP7078234B2 (en) 2019-01-15 2021-08-10 How to create a 3D object to be placed in augmented reality space

Country Status (2)

Country Link
JP (3) JP2020113094A (en)
WO (1) WO2020149270A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022137826A (en) * 2021-03-09 2022-09-22 株式会社Mawari 3d object streaming method, device and program
JP7052128B1 (en) 2021-07-20 2022-04-11 株式会社あかつき Information processing system, program and information processing method
JP7286856B2 (en) * 2022-03-30 2023-06-05 株式会社あかつき Information processing system, program and information processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000172875A (en) 1998-12-04 2000-06-23 Namco Ltd Game device and information storage medium
JP3926307B2 (en) 2003-08-06 2007-06-06 株式会社スクウェア・エニックス Three-dimensional image drawing apparatus and method, program, and recording medium
CN107885316A (en) * 2016-09-29 2018-04-06 阿里巴巴集团控股有限公司 A kind of exchange method and device based on gesture
WO2019087564A1 (en) 2017-11-01 2019-05-09 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2020113094A (en) 2020-07-27
JP2021185498A (en) 2021-12-09
JP7078234B2 (en) 2022-05-31
WO2020149270A1 (en) 2020-07-23

Similar Documents

Publication Publication Date Title
JP7078234B2 (en) How to create a 3D object to be placed in augmented reality space
US10318011B2 (en) Gesture-controlled augmented reality experience using a mobile communications device
US8811667B2 (en) Terminal device, object control method, and program
KR102222974B1 (en) Holographic snap grid
US11049325B2 (en) Information processing apparatus, information processing method, and program
US11430192B2 (en) Placement and manipulation of objects in augmented reality environment
US11188144B2 (en) Method and apparatus to navigate a virtual content displayed by a virtual reality (VR) device
US8643679B2 (en) Storage medium storing image conversion program and image conversion apparatus
CN110688002B (en) Virtual content adjusting method, device, terminal equipment and storage medium
JP2023024540A (en) display terminal
CN110908508B (en) Control method of virtual picture, terminal device and storage medium
EP3705982B1 (en) Apparatus and method for adaptively configuring user interface
WO2022176450A1 (en) Information processing device, information processing method, and program
US20190212834A1 (en) Software gyroscope apparatus
US11960660B2 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program
CN114201028B (en) Augmented reality system and method for anchoring display virtual object thereof
JP2020046863A (en) Method for generating 3d object arranged in augmented real space
KR20210014892A (en) Electronic device and method for generating argument reality object
JP2020160615A (en) Object posture control program and object posture control system
JP7373090B1 (en) Information processing system, information processing device, program and information processing method
US11380071B2 (en) Augmented reality system and display method for anchoring virtual object thereof
JP7070245B2 (en) Information processing device, motion control program, and motion control method
US20220253198A1 (en) Image processing device, image processing method, and recording medium
CN115469783A (en) Terminal interaction method and device
JP2020095671A (en) Recognition device and recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230601

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231124