JP7023005B2 - Information processing systems, information processing methods and programs - Google Patents
Information processing systems, information processing methods and programs Download PDFInfo
- Publication number
- JP7023005B2 JP7023005B2 JP2019193127A JP2019193127A JP7023005B2 JP 7023005 B2 JP7023005 B2 JP 7023005B2 JP 2019193127 A JP2019193127 A JP 2019193127A JP 2019193127 A JP2019193127 A JP 2019193127A JP 7023005 B2 JP7023005 B2 JP 7023005B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- information processing
- unit
- image
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Description
本発明は、情報処理システム、情報処理方法およびプログラムに関する。 The present invention relates to information processing systems, information processing methods and programs.
近年、仮想空間にオブジェクトを表示し、そのオブジェクトを変化させる技術が考えられている。例えば、特許文献1には、3次元の仮想空間にオブジェクトを表示し、外部からの入力に応じて、その表示態様を変化させる技術が開示されている。 In recent years, a technique of displaying an object in a virtual space and changing the object has been considered. For example, Patent Document 1 discloses a technique of displaying an object in a three-dimensional virtual space and changing the display mode in response to an external input.
上述したような技術においては、仮想空間に表示させるオブジェクトは、現実の空間に存在するものとは無関係である。そのため、現実と仮想空間とを関連付けることはできないという問題点がある。 In the above-mentioned techniques, the objects displayed in the virtual space are irrelevant to those existing in the real space. Therefore, there is a problem that the reality and the virtual space cannot be associated with each other.
本発明の目的は、現実の空間と関連した仮想空間を得ることができる情報処理システム、情報処理方法およびプログラムを提供することにある。 An object of the present invention is to provide an information processing system, an information processing method and a program capable of obtaining a virtual space related to a real space.
本発明の情報処理システムは、
撮像部と、
被写体を前記撮像部が撮像した画像と、あらかじめ登録された基準画像とに基づいて、前記被写体を推定する推定部と、
前記推定部が推定した被写体の属性をデータベースから読み出す属性読み出し部と、
前記属性読み出し部が読み出した属性を用いて、前記被写体を仮想空間に設定する仮想空間設定部とを有する。
The information processing system of the present invention
Image pickup unit and
An estimation unit that estimates the subject based on an image of the subject captured by the image pickup unit and a reference image registered in advance, and an estimation unit.
An attribute reading unit that reads the attributes of the subject estimated by the estimation unit from the database,
It has a virtual space setting unit that sets the subject in the virtual space by using the attribute read by the attribute reading unit.
また、本発明の情報処理方法は、
被写体をカメラが撮像した画像と、あらかじめ登録された基準画像とに基づいて、前記被写体を推定する処理と、
前記推定した被写体の属性をデータベースから読み出す処理と、
前記読み出した属性を用いて、前記被写体を仮想空間に設定する処理とを行う。
Further, the information processing method of the present invention is:
Processing to estimate the subject based on the image captured by the camera and the reference image registered in advance,
The process of reading the estimated subject attributes from the database and
Using the read attribute, the process of setting the subject in the virtual space is performed.
また、本発明のプログラムは、
コンピュータに実行させるためのプログラムであって、
コンピュータに、
被写体をカメラが撮像した画像と、あらかじめ登録された基準画像とに基づいて、前記被写体を推定する手順と、
前記推定した被写体の属性をデータベースから読み出す手順と、
前記読み出した属性を用いて、前記被写体を仮想空間に設定する手順とを実行させる。
Further, the program of the present invention is
A program to run on a computer
On the computer
A procedure for estimating the subject based on an image captured by the camera and a reference image registered in advance, and a procedure for estimating the subject.
The procedure for reading the estimated subject attributes from the database and
Using the read attribute, the procedure of setting the subject in the virtual space is executed.
本発明においては、現実の空間と関連した仮想空間を得ることができる。 In the present invention, a virtual space related to the real space can be obtained.
以下に、本発明の実施の形態について図面を参照して説明する。
(第1の実施の形態)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First Embodiment)
図1は、本発明の情報処理システムの第1の実施の形態を示す図である。本形態における情報処理システムは図1に示すように、撮像部110と、推定部120と、データベース130と、属性読み出し部140と、仮想空間設定部150とを有する。
FIG. 1 is a diagram showing a first embodiment of the information processing system of the present invention. As shown in FIG. 1, the information processing system in the present embodiment includes an
撮像部110は、撮像の対象となる被写体の撮像を行うカメラである。
The
図2は、図1に示した撮像部110が被写体を撮像する様子の一例を示す図である。図2に示すように、撮像部110が被写体300を撮像する。撮像部110は、被写体300を複数の方向(角度)から撮像するものであっても良い。これは、撮像部110が撮像した画像を用いて、被写体300が何であるかを推定部120が推定しやすくするためである。例えば、撮像部110は、あらかじめ設定された複数の方向から被写体300を撮像するものであっても良いし、あらかじめ設定された数の方向(例えば、6方向等)から被写体300を撮像するものであっても良い。このとき、撮像部110を操作して被写体300を撮像する撮像者が、撮像部110や被写体300を動かして、撮像部110が被写体300の画像を複数の方向から撮像できるようにしても良い。図2には、被写体300がボトルガムである場合を例に挙げて示している。
FIG. 2 is a diagram showing an example of how the
推定部120は、被写体を撮像部110が撮像した画像と、あらかじめ登録された基準画像とに基づいて、被写体を推定する。このとき、推定部120は、撮像部110が撮像した画像およびその画像の深度情報(撮像部110から被写体までの距離)と、あらかじめ登録された基準画像とに基づいて、被写体を推定するものであっても良い。また、推定部120は、被写体を撮像部110が複数の方向からそれぞれ撮像した複数の画像と、あらかじめ登録された複数の基準画像とに基づいて、被写体を推定するものであっても良い。推定部120は、被写体を推定するための機械学習を行った学習済みの学習モデルに撮像部110が撮像した画像を入力することで、被写体をその学習モデルから取得して推定する。撮像部110が、深度情報を得ることができる場合、推定部120が被写体の推定にその深度情報も用いることで、推定精度を上げることができる。
The
図3は、図1に示した推定部120の内部構成の一例を示す図である。図1に示した推定部120は図3に示すように、被写体学習モデル200を有する。なお、図3には、図1に示した推定部120が具備する構成要素のうち、本形態に関わる主要な構成要素のみを示す。被写体学習モデル200は、機械学習の学習フェーズで様々な被写体の画像データ(基準画像)とその画像データが何の画像を示すものであるかという情報とが対応付けられて教師データとして記憶されており、適用フェーズで入力された画像データと記憶されている教師データとに基づいて、入力された画像データが何の画像を示すもの(被写体)であるかを推定する。被写体学習モデル200は、推定した結果を出力する。なお、推定した結果である被写体を示す情報は、被写体固有にあらかじめ付与された被写体識別情報である。また、出力された結果は、被写体学習モデル200にフィードバックされてさらに学習されるものであっても良い。
FIG. 3 is a diagram showing an example of the internal configuration of the
図4は、図3に示した被写体学習モデル200が所有する教師データの一例を示す図である。図3に示した被写体学習モデル200が所有する教師データは図4に示すように、被写体名と被写体識別情報と複数の画像データ(基準画像)とが対応付けられたものである。被写体名は、被写体の名称である。被写体名は、例えば、商品名、メーカー名、商品番号等であっても良い。被写体識別情報は、被写体を他の被写体から識別可能にするために、それぞれの被写体固有にあらかじめ付与された情報である。被写体識別情報は、数字やアルファベットを用いて表現されるものであっても良い。画像データは、その被写体の画像を示すデータであって、被写体を複数の方向から撮影した画像や、被写体を様々な環境(例えば、明るい屋外や、暗い屋内等)の下で撮影した画像、被写体を様々な状態(例えば、蓋が開いている、閉じている等)で撮影した画像、高精度で作成した3D-CG(3Dimensional Computer Graphics)を様々な照明条件や背景画像と組み合わせて学習させた画像等、大量の画像のデータである。
FIG. 4 is a diagram showing an example of teacher data owned by the
被写体学習モデル200は、入力された画像データと図4に示したような教師データとを比較して、入力された画像データが、何が被写体となっているものなのかを推定(判定)する。被写体学習モデル200は、推定(判定)した結果となる被写体の被写体識別情報を出力する。このような教師データを用いた推定(判定)処理は、一般的なAI(Artificial Intelligence:人工知能)を用いたものと同様のものであって良い。
The
データベース130は、被写体固有に付与された被写体識別情報と、その被写体の属性とをあらかじめ対応付けて記憶する。
The
図5は、図1に示したデータベース130に記憶された対応付けの一例を示す図である。図1に示したデータベース130には図5に示すように、被写体識別情報と属性とが対応付けられて記憶されている。被写体識別情報は、被写体を他の被写体から識別可能にするために、それぞれの被写体固有にあらかじめ付与された情報であって、図4に示したものと同じものである。属性は、被写体の性質を示す情報である。例えば、図5に示すように、被写体識別情報「A001」と属性「ボトルガム、爽快感」とが対応付けられて記憶されている。これは、被写体識別情報が「A001」である被写体は、ボトルガムであって、爽快感(例えば、ミント系)のある味であることを示している。また、被写体識別情報「B001」と属性「炭酸飲料、甘い」とが対応付けられて記憶されている。これは、被写体識別情報が「B001」である被写体は、炭酸飲料であって、その味は甘いものであることを示している。また、被写体識別情報「C001」と属性「保冷剤、冷たい」とが対応付けられて記憶されている。これは、被写体識別情報が「C001」である被写体は、保冷剤であって、冷たいものであることを示している。
FIG. 5 is a diagram showing an example of the correspondence stored in the
属性読み出し部140は、推定部120が推定した被写体の属性をデータベース130から読み出す。このとき、属性読み出し部140は、推定部120が推定した被写体に付与された被写体識別情報を検索キーとして、この、被写体識別情報と対応付けられている属性をデータベース130から読み出す。
The
仮想空間設定部150は、属性読み出し部140が読み出した属性を用いて、被写体を仮想空間に設定する。仮想空間設定部150は、仮想空間で行うゲームにおいて、被写体を属性に応じた性質を持つアイテムに設定する。例えば、属性読み出し部140が読み出した被写体の属性が図5に示した対応付けの「冷たい」である場合、仮想空間で行うゲームにおいて、その被写体を所有すれば熱を冷ますための「冷たい」アイテムとして使用できる。なお、仮想空間設定部150は、被写体を仮想空間に設定する際に、被写体の画像そのものまたは類似した画像(例えば、被写体の画像をイラスト化したもの等)を仮想空間に表示させる(表現する)ものであっても良いし、被写体の画像を所定の形状等に変化させて仮想空間に表示させる(表現する)ものであっても良い。また、仮想空間設定部150は、仮想空間に設定する被写体の属性に応じた表示を行うものであっても良い。例えば、仮想空間設定部150は、仮想空間に設定する被写体の属性がゲーム中に相手と対戦する際に強いアイテムとして使用できるような属性である場合、そのレベルを強度の高いレベルとして表示するものであっても良い。
The virtual
以下に、図1に示した情報処理システムにおける情報処理方法について説明する。図6は、図1に示した情報処理システムにおける情報処理方法の一例を説明するためにシーケンス図である。 The information processing method in the information processing system shown in FIG. 1 will be described below. FIG. 6 is a sequence diagram for explaining an example of an information processing method in the information processing system shown in FIG.
まず、現実空間で、撮像部110が被写体を撮像する(ステップS1)。続いて、推定部120が、撮像部110が撮像した被写体の画像を示す画像データを被写体学習モデル200に入力する(ステップS2)。被写体学習モデル200は、入力された画像データと学習フェーズで得られた教師データとに基づいて、被写体を推定する(ステップS3)。続いて、属性読み出し部140が、推定された被写体の被写体識別情報を検索キーとして、その被写体識別情報と対応付けられている属性をデータベース130から読み出す(ステップS4)。すると、仮想空間設定部150が、属性読み出し部140が読み出した属性を用いて、被写体を仮想空間に設定する(ステップS5)。
First, in the real space, the
このように、本形態においては、所有している被写体を撮像部110が撮像し、撮像した画像データに基づいて、推定部120が被写体を推定し、推定した被写体の属性を属性読み出し部140がデータベース130から読み出して、仮想空間設定部150が仮想空間にその属性を持った被写体を設定する。そのため、現実空間で所有したものを被写体として撮像すれば、仮想空間で行うゲームでその被写体をアイテムとして所有して使用することができる。
(第2の実施の形態)
As described above, in the present embodiment, the
(Second embodiment)
図7は、本発明の情報処理システムの第2の実施の形態を示す図である。本形態における情報処理システムは図7に示すように、撮像部110と、推定部121と、データベース130と、属性読み出し部140と、仮想空間設定部150と、移動部161とを有する。撮像部110、データベース130、属性読み出し部140および仮想空間設定部150は、第1の実施の形態におけるものと同じものである。
FIG. 7 is a diagram showing a second embodiment of the information processing system of the present invention. As shown in FIG. 7, the information processing system in the present embodiment includes an
移動部161は、撮像部110が被写体を複数の方向から撮像できるように被写体を移動させる。例えば、移動部161は、被写体を所定の方向へ回転させていく。
The moving
図8および図9は、図7に示した移動部161の動作の様子の一例を示す図である。図8に示すように、移動部161には被写体300が搭載されており、その被写体300を撮像部110が撮像する。そして、図9に示すように、被写体300を搭載した状態の移動部161が所定の角度だけ回転し、その被写体300を撮像部110が撮像する。移動部161および撮像部110が、この動作を繰り返し行う。撮像部110が1つの被写体について、移動部161が移動することで複数の方向から被写体を撮像するのは、撮像した画像を用いて、被写体300が何であるかを推定部121が推定しやすくするためである。例えば、撮像部110と移動部161とが連動して、移動部161が所定の角度間隔で被写体300を回転させて、撮像部110が被写体300を撮像していくものであっても良い。図8および図9には、被写体300がボトルガムである場合を例に挙げて示している。なお、図8および図9に示した例では、移動部161が被写体300を載せた回転テーブルのように回転するものであるが、移動部161は、撮像部110が被写体300を複数の方向から撮像できるものであれば、例えば、被写体300の天面や底面、側面を撮像できるように被写体300を移動(回転)させるものであっても良く、これに限らない。
8 and 9 are diagrams showing an example of the operation of the moving
推定部121は、移動部161が被写体を移動させることで、撮像部110が複数の方向からそれぞれ撮像した被写体の複数の画像と、あらかじめ登録された複数の基準画像とに基づいて、被写体を推定する。推定部121は、被写体を推定するための機械学習を行った学習済みの学習モデルに、移動部161が被写体を移動させて、撮像部110が複数の方向からそれぞれ被写体を撮像した複数の画像を入力することで、被写体をその学習モデルから取得して推定する。
The
図10は、図7に示した推定部121の内部構成の一例を示す図である。図7に示した推定部121は図10に示すように、被写体学習モデル201を有する。なお、図10には、図7に示した推定部121が具備する構成要素のうち、本形態に関わる主要な構成要素のみを示す。被写体学習モデル201は、機械学習の学習フェーズで様々な被写体の画像データ(基準画像)とその画像データが何の画像を示すものであるかという情報とが対応付けられて教師データとして記憶されており、適用フェーズで入力された画像データと記憶されている教師データとに基づいて、入力された画像データが何の画像を示すもの(被写体)であるかを推定する。被写体学習モデル201は、推定した結果を出力する。なお、推定した結果である被写体を示す情報は、被写体固有にあらかじめ付与された被写体識別情報である。また、出力された結果は、被写体学習モデル201にフィードバックされてさらに学習されるものであっても良い。また、被写体学習モデル201は、被写体が移動部161によってどのように移動(回転)したかについても教師データとして保有していても良い。この場合、推定部121が被写体学習モデル201に入力する情報に、移動部161による被写体の移動(回転)の量や方向を示す情報が含まれる。なお、被写体学習モデル201が所有する教師データは、第1の実施の形態と同様のものである。
FIG. 10 is a diagram showing an example of the internal configuration of the
以下に、図7に示した情報処理システムにおける情報処理方法について説明する。図11は、図7に示した情報処理システムにおける情報処理方法の一例を説明するためにシーケンス図である。 The information processing method in the information processing system shown in FIG. 7 will be described below. FIG. 11 is a sequence diagram for explaining an example of an information processing method in the information processing system shown in FIG. 7.
まず、現実空間で、撮像部110が被写体を所定の方向から撮像する(ステップS11)。すると、撮像部110と移動部161とが連携して、あらかじめ設定されたすべての方向からの撮像が完了したかどうかを判定する(ステップS12)。すべての方向からの撮像が完了していない場合、移動部161は被写体を所定の角度だけ回転(移動)させる(ステップS13)。そして、再度ステップS11にて撮像部110が被写体の撮像を行う。
First, in the real space, the
一方、ステップS12にて、すべての方向からの撮像が完了している場合は、推定部121が、移動部161が被写体を移動させることで撮像部110が複数の方向からそれぞれ撮像した被写体の複数の画像を示す画像データを被写体学習モデル201に入力する(ステップS14)。被写体学習モデル201は、入力された複数の画像データと学習フェーズで得られた教師データとに基づいて、被写体を推定する(ステップS15)。続いて、属性読み出し部140が、推定された被写体の被写体識別情報を検索キーとして、その被写体識別情報と対応付けられている属性をデータベース130から読み出す(ステップS16)。すると、仮想空間設定部150が、属性読み出し部140が読み出した属性を用いて、被写体を仮想空間に設定する(ステップS17)。
On the other hand, when the imaging from all directions is completed in step S12, the
このように、本形態においては、所有している被写体を移動部161が回転(移動)させていき、撮像部110が複数の方向から撮像し、撮像した複数の画像データに基づいて、推定部121が被写体を推定し、推定した被写体の属性を属性読み出し部140がデータベース130から読み出して、仮想空間設定部150が仮想空間にその属性を持った被写体を設定する。そのため、現実空間で所有したものを被写体として撮像すれば、仮想空間で行うゲームでその被写体をアイテムとして所有して使用することができる。さらに、移動部161を用いて被写体を移動させることで、撮像者が被写体を移動させる手間を省くことができる。
As described above, in the present embodiment, the moving
なお、上述した第1の実施の形態および第2の実施の形態において、現実空間で被写体を保有し、保有している被写体を撮像した撮像者と、仮想空間でその被写体を使用する使用者とが同一であることが好ましい。そのために、撮像者が現実空間で被写体を撮像して本発明の情報処理システムに入力する際、利用者コードやパスワード等の認証コードを入力しておき、使用者が仮想空間に設定されたその被写体を使用するゲーム等を起動する際に、その認証コードを入力して、その使用者が撮像者であるかどうかの認証を情報処理システムが行うものであっても良い。 In the first embodiment and the second embodiment described above, the imager who holds the subject in the real space and images the held subject, and the user who uses the subject in the virtual space. Are preferably the same. Therefore, when the imager captures a subject in a real space and inputs it into the information processing system of the present invention, an authentication code such as a user code or a password is input, and the user is set in the virtual space. When starting a game or the like that uses a subject, the information processing system may input the authentication code to authenticate whether or not the user is an imager.
以上、各構成要素に各機能(処理)それぞれを分担させて説明したが、この割り当ては上述したものに限定しない。また、構成要素の構成についても、上述した形態はあくまでも例であって、これに限定しない。 In the above, each component has been assigned to each function (process), but this allocation is not limited to the above. Further, the above-mentioned form is merely an example of the configuration of the constituent elements, and the present invention is not limited to this.
上述した情報処理システムが行う処理は、目的に応じてそれぞれ作製された論理回路で行うようにしても良い。また、処理内容を手順として記述したコンピュータプログラム(以下、プログラムと称する)を情報処理システムを構成する装置にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを情報処理システムに読み込ませ、実行するものであっても良い。情報処理システムを構成する装置にて読取可能な記録媒体とは、フロッピー(登録商標)ディスク、光磁気ディスク、DVD(Digital Versatile Disc)、CD(Compact Disc)、Blu-ray(登録商標) Disc、USB(Universal Serial Bus)メモリなどの移設可能な記録媒体の他、情報処理システムを構成する装置に内蔵されたROM(Read Only Memory)、RAM(Random Access Memory)等のメモリやHDD(Hard Disc Drive)等を指す。この記録媒体に記録されたプログラムは、情報処理システムを構成する装置に設けられたCPUにて読み込まれ、CPUの制御によって、上述したものと同様の処理が行われる。ここで、CPUは、プログラムが記録された記録媒体から読み込まれたプログラムを実行するコンピュータとして動作するものである。 The processing performed by the above-mentioned information processing system may be performed by logic circuits manufactured according to the purpose. Further, a computer program (hereinafter referred to as a program) in which the processing contents are described as a procedure is recorded on a recording medium readable by a device constituting the information processing system, and the program recorded on the recording medium is recorded in the information processing system. It may be read and executed. The recording media that can be read by the device constituting the information processing system are floppy (registered trademark) disk, magneto-optical disk, DVD (Digital Versaille Disc), CD (Compact Disc), Blu-ray (registered trademark) Disc, and the like. In addition to transferable recording media such as USB (Universal Serial Bus) memory, memory such as ROM (Read Only Memory) and RAM (Random Access Memory) and HDD (Hard Disc Drive) built into the device constituting the information processing system. ) Etc. The program recorded on this recording medium is read by a CPU provided in an apparatus constituting an information processing system, and the same processing as described above is performed under the control of the CPU. Here, the CPU operates as a computer that executes a program read from a recording medium in which the program is recorded.
110 撮像部
120,121 推定部
130 データベース
140 属性読み出し部
150 仮想空間設定部
161 移動部
200,201 被写体学習モデル
300 被写体
110
Claims (11)
前記撮像部が被写体を複数の方向それぞれから撮像した画像と、あらかじめ登録された複数の基準画像とに基づいて、前記被写体を推定する推定部と、
前記推定部が推定した被写体の属性をデータベースから読み出す属性読み出し部と、
前記属性読み出し部が読み出した属性を用いて、前記被写体を仮想空間に設定する仮想空間設定部と、
前記撮像部が前記被写体を前記複数の方向から撮像できるように前記被写体を移動させる移動部とを有する情報処理システム。 Image pickup unit and
An estimation unit that estimates the subject based on an image obtained by the imaging unit from each of a plurality of directions and a plurality of reference images registered in advance.
An attribute reading unit that reads the attributes of the subject estimated by the estimation unit from the database,
A virtual space setting unit that sets the subject in the virtual space using the attributes read by the attribute reading unit, and a virtual space setting unit .
An information processing system including a moving unit that moves the subject so that the imaging unit can image the subject from the plurality of directions .
前記推定部は、前記撮像部が前記被写体を撮像した画像および該画像の深度情報と、あらかじめ登録された基準画像とに基づいて、前記被写体を推定する情報処理システム。 In the information processing system according to claim 1,
The estimation unit is an information processing system that estimates the subject based on an image captured by the image pickup unit, depth information of the image, and a reference image registered in advance.
前記推定部は、前記被写体を推定するための機械学習を行った学習済みの学習モデルに前記撮像部が撮像した画像を入力することで、前記被写体を前記学習モデルから取得して推定する情報処理システム。 In the information processing system according to claim 1 or 2 .
Information processing in which the estimation unit acquires and estimates the subject from the learning model by inputting an image captured by the imaging unit into a learned learning model that has undergone machine learning for estimating the subject. system.
前記データベースは、前記被写体に固有に付与された被写体識別情報と、該被写体の属性とをあらかじめ対応付けて記憶し、
前記属性読み出し部は、前記推定部が推定した被写体の前記被写体識別情報に基づいて、前記属性を前記データベースから読み出す情報処理システム。 In the information processing system according to any one of claims 1 to 3 ,
The database stores the subject identification information uniquely assigned to the subject and the attributes of the subject in advance in association with each other.
The attribute reading unit is an information processing system that reads the attributes from the database based on the subject identification information of the subject estimated by the estimation unit.
前記仮想空間設定部は、前記仮想空間で行うゲームにおいて、前記被写体を前記属性に応じた性質を持つアイテムに設定する情報処理システム。 In the information processing system according to any one of claims 1 to 4 ,
The virtual space setting unit is an information processing system that sets the subject to an item having a property corresponding to the attribute in a game played in the virtual space.
前記推定した被写体の属性をデータベースから読み出す処理と、
前記読み出した属性を用いて、前記被写体を仮想空間に設定する処理とを行う情報処理方法。 An image captured from each of the plurality of directions using a moving unit for moving the subject so that the camera can capture the subject from a plurality of directions, and a plurality of pre-registered reference images. The process of estimating the subject based on
The process of reading the estimated subject attributes from the database and
An information processing method that uses the read attributes to perform processing for setting the subject in a virtual space.
前記被写体を推定するための機械学習を行った学習済みの学習モデルに前記撮像した画像を入力する処理と、
前記被写体を前記学習モデルから取得して推定する処理とを行う情報処理方法。 In the information processing method according to claim 6 ,
The process of inputting the captured image into the trained learning model that has been machine-learned to estimate the subject, and
An information processing method that performs a process of acquiring the subject from the learning model and estimating it.
前記仮想空間で行うゲームにおいて、前記被写体を前記属性に応じた性質を持つアイテムに設定する処理を行う情報処理方法。 In the information processing method according to claim 6 or 7 .
An information processing method for setting a subject to an item having properties corresponding to the attributes in a game played in the virtual space.
被写体をカメラが、該カメラが前記被写体を複数の方向から撮像できるように前記被写体を移動させる移動部を用いて、前記複数の方向それぞれから撮像した画像と、あらかじめ登録された複数の基準画像とに基づいて、前記被写体を推定する手順と、
前記推定した被写体の属性をデータベースから読み出す手順と、
前記読み出した属性を用いて、前記被写体を仮想空間に設定する手順とを実行させるためのプログラム。 On the computer
An image captured from each of the plurality of directions using a moving unit for moving the subject so that the camera can capture the subject from a plurality of directions, and a plurality of pre-registered reference images. The procedure for estimating the subject based on
The procedure for reading the estimated subject attributes from the database and
A program for executing a procedure for setting the subject in a virtual space using the read attributes.
前記被写体を推定するための機械学習を行った学習済みの学習モデルに前記撮像した画像を入力する手順と、
前記被写体を前記学習モデルから取得して推定する手順とを、前記コンピュータに実行させるためのプログラム。 In the program of claim 9 .
The procedure for inputting the captured image into the trained learning model that has been machine-learned to estimate the subject, and
A program for causing the computer to execute a procedure for acquiring and estimating the subject from the learning model.
前記仮想空間で行うゲームにおいて、前記被写体を前記属性に応じた性質を持つアイテムに設定する手順を、前記コンピュータに実行させるためのプログラム。 In the program according to claim 9 or 10 .
A program for causing the computer to execute a procedure for setting the subject to an item having a property corresponding to the attribute in the game played in the virtual space.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019193127A JP7023005B2 (en) | 2019-10-24 | 2019-10-24 | Information processing systems, information processing methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019193127A JP7023005B2 (en) | 2019-10-24 | 2019-10-24 | Information processing systems, information processing methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021068195A JP2021068195A (en) | 2021-04-30 |
JP7023005B2 true JP7023005B2 (en) | 2022-02-21 |
Family
ID=75637294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019193127A Active JP7023005B2 (en) | 2019-10-24 | 2019-10-24 | Information processing systems, information processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7023005B2 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001122334A (en) | 1999-10-21 | 2001-05-08 | Hitachi Ltd | Packaging member and conveying method |
JP2003178286A (en) | 2001-12-11 | 2003-06-27 | Taito Corp | Image forming system by sentence |
JP2004005534A (en) | 2002-03-29 | 2004-01-08 | Fuji Photo Film Co Ltd | Image preserving method, retrieving method and system of registered image, image processing method of registered image and program for executing these methods |
JP2014232370A (en) | 2013-05-28 | 2014-12-11 | 東芝テック株式会社 | Recognition dictionary creation device and recognition dictionary creation program |
WO2015111283A1 (en) | 2014-01-23 | 2015-07-30 | ソニー株式会社 | Image display device and image display method |
JP2016149054A (en) | 2015-02-13 | 2016-08-18 | 株式会社Nttドコモ | Display divice and display method |
JP2018077644A (en) | 2016-11-08 | 2018-05-17 | 富士ゼロックス株式会社 | Information processing system and program |
JP2018097883A (en) | 2018-01-09 | 2018-06-21 | カシオ計算機株式会社 | Information display apparatus and guidance display method |
WO2019130991A1 (en) | 2017-12-26 | 2019-07-04 | 株式会社Nttドコモ | Information processing device |
-
2019
- 2019-10-24 JP JP2019193127A patent/JP7023005B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001122334A (en) | 1999-10-21 | 2001-05-08 | Hitachi Ltd | Packaging member and conveying method |
JP2003178286A (en) | 2001-12-11 | 2003-06-27 | Taito Corp | Image forming system by sentence |
JP2004005534A (en) | 2002-03-29 | 2004-01-08 | Fuji Photo Film Co Ltd | Image preserving method, retrieving method and system of registered image, image processing method of registered image and program for executing these methods |
JP2014232370A (en) | 2013-05-28 | 2014-12-11 | 東芝テック株式会社 | Recognition dictionary creation device and recognition dictionary creation program |
WO2015111283A1 (en) | 2014-01-23 | 2015-07-30 | ソニー株式会社 | Image display device and image display method |
JP2016149054A (en) | 2015-02-13 | 2016-08-18 | 株式会社Nttドコモ | Display divice and display method |
JP2018077644A (en) | 2016-11-08 | 2018-05-17 | 富士ゼロックス株式会社 | Information processing system and program |
WO2019130991A1 (en) | 2017-12-26 | 2019-07-04 | 株式会社Nttドコモ | Information processing device |
JP2018097883A (en) | 2018-01-09 | 2018-06-21 | カシオ計算機株式会社 | Information display apparatus and guidance display method |
Also Published As
Publication number | Publication date |
---|---|
JP2021068195A (en) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2132710B1 (en) | Augmented reality method and devices using a real time automatic tracking of marker-free textured planar geometrical objects in a video stream | |
CN102016877B (en) | Methods for capturing depth data of a scene and applying computer actions | |
US20130077820A1 (en) | Machine learning gesture detection | |
CN101324433B (en) | Method and apparatus for information processing | |
US8913809B2 (en) | Monitoring physical body changes via image sensor | |
Hohmann et al. | Does training with 3D videos improve decision-making in team invasion sports? | |
CN103327234B (en) | Image processing apparatus and image processing method | |
CN103455978A (en) | Apparatus and method for augmenting a video image | |
CN104065875A (en) | Display Control Apparatus And Display Control Method | |
WO2013059751A1 (en) | Calculating metabolic equivalence with a computing device | |
CN105450911A (en) | Image processing apparatus and image processing method | |
US8885878B2 (en) | Interactive secret sharing | |
JP7023005B2 (en) | Information processing systems, information processing methods and programs | |
CN103324654A (en) | Image processing device that displays retrieved image similar to target image and image processing method | |
Roy et al. | Visual transfer for reinforcement learning via wasserstein domain confusion | |
JPH07244726A (en) | Method and device for standardizing face picture for individualized video entertainment | |
CN103390157B (en) | The system and method for page tracking | |
JP6476678B2 (en) | Information processing apparatus and information processing program | |
CN101116108B (en) | Information parts extraction for retrieving image sequence data | |
US11157743B1 (en) | Method for comparing videos of surgical techniques | |
JP2018120402A (en) | Event detecting device, event detecting method, and program | |
JP6256738B2 (en) | Movie selection device, movie selection method and program | |
CN103489158A (en) | Apparatus and method of augmenting video | |
TWI524919B (en) | Video capturing device and video capturing method | |
WO2022003981A1 (en) | Action specification device, action specification method, and action specification program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20191024 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7023005 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |