JP7023005B2 - Information processing systems, information processing methods and programs - Google Patents

Information processing systems, information processing methods and programs Download PDF

Info

Publication number
JP7023005B2
JP7023005B2 JP2019193127A JP2019193127A JP7023005B2 JP 7023005 B2 JP7023005 B2 JP 7023005B2 JP 2019193127 A JP2019193127 A JP 2019193127A JP 2019193127 A JP2019193127 A JP 2019193127A JP 7023005 B2 JP7023005 B2 JP 7023005B2
Authority
JP
Japan
Prior art keywords
subject
information processing
unit
image
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019193127A
Other languages
Japanese (ja)
Other versions
JP2021068195A (en
Inventor
克己 横道
Original Assignee
克己 横道
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 克己 横道 filed Critical 克己 横道
Priority to JP2019193127A priority Critical patent/JP7023005B2/en
Publication of JP2021068195A publication Critical patent/JP2021068195A/en
Application granted granted Critical
Publication of JP7023005B2 publication Critical patent/JP7023005B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理システム、情報処理方法およびプログラムに関する。 The present invention relates to information processing systems, information processing methods and programs.

近年、仮想空間にオブジェクトを表示し、そのオブジェクトを変化させる技術が考えられている。例えば、特許文献1には、3次元の仮想空間にオブジェクトを表示し、外部からの入力に応じて、その表示態様を変化させる技術が開示されている。 In recent years, a technique of displaying an object in a virtual space and changing the object has been considered. For example, Patent Document 1 discloses a technique of displaying an object in a three-dimensional virtual space and changing the display mode in response to an external input.

特開2000-207583号公報Japanese Unexamined Patent Publication No. 2000-207583

上述したような技術においては、仮想空間に表示させるオブジェクトは、現実の空間に存在するものとは無関係である。そのため、現実と仮想空間とを関連付けることはできないという問題点がある。 In the above-mentioned techniques, the objects displayed in the virtual space are irrelevant to those existing in the real space. Therefore, there is a problem that the reality and the virtual space cannot be associated with each other.

本発明の目的は、現実の空間と関連した仮想空間を得ることができる情報処理システム、情報処理方法およびプログラムを提供することにある。 An object of the present invention is to provide an information processing system, an information processing method and a program capable of obtaining a virtual space related to a real space.

本発明の情報処理システムは、
撮像部と、
被写体を前記撮像部が撮像した画像と、あらかじめ登録された基準画像とに基づいて、前記被写体を推定する推定部と、
前記推定部が推定した被写体の属性をデータベースから読み出す属性読み出し部と、
前記属性読み出し部が読み出した属性を用いて、前記被写体を仮想空間に設定する仮想空間設定部とを有する。
The information processing system of the present invention
Image pickup unit and
An estimation unit that estimates the subject based on an image of the subject captured by the image pickup unit and a reference image registered in advance, and an estimation unit.
An attribute reading unit that reads the attributes of the subject estimated by the estimation unit from the database,
It has a virtual space setting unit that sets the subject in the virtual space by using the attribute read by the attribute reading unit.

また、本発明の情報処理方法は、
被写体をカメラが撮像した画像と、あらかじめ登録された基準画像とに基づいて、前記被写体を推定する処理と、
前記推定した被写体の属性をデータベースから読み出す処理と、
前記読み出した属性を用いて、前記被写体を仮想空間に設定する処理とを行う。
Further, the information processing method of the present invention is:
Processing to estimate the subject based on the image captured by the camera and the reference image registered in advance,
The process of reading the estimated subject attributes from the database and
Using the read attribute, the process of setting the subject in the virtual space is performed.

また、本発明のプログラムは、
コンピュータに実行させるためのプログラムであって、
コンピュータに、
被写体をカメラが撮像した画像と、あらかじめ登録された基準画像とに基づいて、前記被写体を推定する手順と、
前記推定した被写体の属性をデータベースから読み出す手順と、
前記読み出した属性を用いて、前記被写体を仮想空間に設定する手順とを実行させる。
Further, the program of the present invention is
A program to run on a computer
On the computer
A procedure for estimating the subject based on an image captured by the camera and a reference image registered in advance, and a procedure for estimating the subject.
The procedure for reading the estimated subject attributes from the database and
Using the read attribute, the procedure of setting the subject in the virtual space is executed.

本発明においては、現実の空間と関連した仮想空間を得ることができる。 In the present invention, a virtual space related to the real space can be obtained.

本発明の情報処理システムの第1の実施の形態を示す図である。It is a figure which shows the 1st Embodiment of the information processing system of this invention. 図1に示した撮像部が被写体を撮像する様子の一例を示す図である。It is a figure which shows an example of how the image pickup unit shown in FIG. 1 takes an image of a subject. 図1に示した推定部の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the estimation part shown in FIG. 図3に示した被写体学習モデルが所有する教師データの一例を示す図である。It is a figure which shows an example of the teacher data owned by the subject learning model shown in FIG. 図1に示したデータベースに記憶された対応付けの一例を示す図である。It is a figure which shows an example of the correspondence stored in the database shown in FIG. 図1に示した情報処理システムにおける情報処理方法の一例を説明するためにシーケンス図である。It is a sequence diagram for demonstrating an example of the information processing method in the information processing system shown in FIG. 本発明の情報処理システムの第2の実施の形態を示す図である。It is a figure which shows the 2nd Embodiment of the information processing system of this invention. 図7に示した移動部の動作の様子の一例を示す図である。It is a figure which shows an example of the state of operation of the moving part shown in FIG. 7. 図7に示した移動部の動作の様子の一例を示す図である。It is a figure which shows an example of the state of operation of the moving part shown in FIG. 7. 図7に示した推定部の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the estimation part shown in FIG. 7. 図7に示した情報処理システムにおける情報処理方法の一例を説明するためにシーケンス図である。It is a sequence diagram for demonstrating an example of the information processing method in the information processing system shown in FIG. 7.

以下に、本発明の実施の形態について図面を参照して説明する。
(第1の実施の形態)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First Embodiment)

図1は、本発明の情報処理システムの第1の実施の形態を示す図である。本形態における情報処理システムは図1に示すように、撮像部110と、推定部120と、データベース130と、属性読み出し部140と、仮想空間設定部150とを有する。 FIG. 1 is a diagram showing a first embodiment of the information processing system of the present invention. As shown in FIG. 1, the information processing system in the present embodiment includes an imaging unit 110, an estimation unit 120, a database 130, an attribute reading unit 140, and a virtual space setting unit 150.

撮像部110は、撮像の対象となる被写体の撮像を行うカメラである。 The image pickup unit 110 is a camera that captures an image of a subject to be imaged.

図2は、図1に示した撮像部110が被写体を撮像する様子の一例を示す図である。図2に示すように、撮像部110が被写体300を撮像する。撮像部110は、被写体300を複数の方向(角度)から撮像するものであっても良い。これは、撮像部110が撮像した画像を用いて、被写体300が何であるかを推定部120が推定しやすくするためである。例えば、撮像部110は、あらかじめ設定された複数の方向から被写体300を撮像するものであっても良いし、あらかじめ設定された数の方向(例えば、6方向等)から被写体300を撮像するものであっても良い。このとき、撮像部110を操作して被写体300を撮像する撮像者が、撮像部110や被写体300を動かして、撮像部110が被写体300の画像を複数の方向から撮像できるようにしても良い。図2には、被写体300がボトルガムである場合を例に挙げて示している。 FIG. 2 is a diagram showing an example of how the image pickup unit 110 shown in FIG. 1 images a subject. As shown in FIG. 2, the image pickup unit 110 takes an image of the subject 300. The image pickup unit 110 may take an image of the subject 300 from a plurality of directions (angles). This is because the estimation unit 120 can easily estimate what the subject 300 is by using the image captured by the image pickup unit 110. For example, the image pickup unit 110 may image the subject 300 from a plurality of preset directions, or may image the subject 300 from a preset number of directions (for example, six directions). There may be. At this time, the imager who operates the image pickup unit 110 to take an image of the subject 300 may move the image pickup unit 110 or the subject 300 so that the image pickup unit 110 can take an image of the subject 300 from a plurality of directions. FIG. 2 shows an example in which the subject 300 is a bottle gum.

推定部120は、被写体を撮像部110が撮像した画像と、あらかじめ登録された基準画像とに基づいて、被写体を推定する。このとき、推定部120は、撮像部110が撮像した画像およびその画像の深度情報(撮像部110から被写体までの距離)と、あらかじめ登録された基準画像とに基づいて、被写体を推定するものであっても良い。また、推定部120は、被写体を撮像部110が複数の方向からそれぞれ撮像した複数の画像と、あらかじめ登録された複数の基準画像とに基づいて、被写体を推定するものであっても良い。推定部120は、被写体を推定するための機械学習を行った学習済みの学習モデルに撮像部110が撮像した画像を入力することで、被写体をその学習モデルから取得して推定する。撮像部110が、深度情報を得ることができる場合、推定部120が被写体の推定にその深度情報も用いることで、推定精度を上げることができる。 The estimation unit 120 estimates the subject based on the image captured by the image pickup unit 110 and the reference image registered in advance. At this time, the estimation unit 120 estimates the subject based on the image captured by the image pickup unit 110, the depth information of the image (distance from the image pickup unit 110 to the subject), and the reference image registered in advance. There may be. Further, the estimation unit 120 may estimate the subject based on a plurality of images captured by the imaging unit 110 from a plurality of directions and a plurality of reference images registered in advance. The estimation unit 120 inputs an image captured by the imaging unit 110 into a learned learning model that has been machine-learned to estimate the subject, and acquires and estimates the subject from the learning model. When the image pickup unit 110 can obtain the depth information, the estimation unit 120 can also use the depth information for estimating the subject, so that the estimation accuracy can be improved.

図3は、図1に示した推定部120の内部構成の一例を示す図である。図1に示した推定部120は図3に示すように、被写体学習モデル200を有する。なお、図3には、図1に示した推定部120が具備する構成要素のうち、本形態に関わる主要な構成要素のみを示す。被写体学習モデル200は、機械学習の学習フェーズで様々な被写体の画像データ(基準画像)とその画像データが何の画像を示すものであるかという情報とが対応付けられて教師データとして記憶されており、適用フェーズで入力された画像データと記憶されている教師データとに基づいて、入力された画像データが何の画像を示すもの(被写体)であるかを推定する。被写体学習モデル200は、推定した結果を出力する。なお、推定した結果である被写体を示す情報は、被写体固有にあらかじめ付与された被写体識別情報である。また、出力された結果は、被写体学習モデル200にフィードバックされてさらに学習されるものであっても良い。 FIG. 3 is a diagram showing an example of the internal configuration of the estimation unit 120 shown in FIG. As shown in FIG. 3, the estimation unit 120 shown in FIG. 1 has a subject learning model 200. Note that FIG. 3 shows only the main components related to the present embodiment among the components included in the estimation unit 120 shown in FIG. In the subject learning model 200, in the learning phase of machine learning, image data (reference image) of various subjects and information on what image the image data represents are associated with each other and stored as teacher data. Based on the image data input in the application phase and the stored teacher data, it is estimated what image the input image data represents (subject). The subject learning model 200 outputs the estimated result. The information indicating the subject, which is the estimation result, is the subject identification information given in advance unique to the subject. Further, the output result may be fed back to the subject learning model 200 for further learning.

図4は、図3に示した被写体学習モデル200が所有する教師データの一例を示す図である。図3に示した被写体学習モデル200が所有する教師データは図4に示すように、被写体名と被写体識別情報と複数の画像データ(基準画像)とが対応付けられたものである。被写体名は、被写体の名称である。被写体名は、例えば、商品名、メーカー名、商品番号等であっても良い。被写体識別情報は、被写体を他の被写体から識別可能にするために、それぞれの被写体固有にあらかじめ付与された情報である。被写体識別情報は、数字やアルファベットを用いて表現されるものであっても良い。画像データは、その被写体の画像を示すデータであって、被写体を複数の方向から撮影した画像や、被写体を様々な環境(例えば、明るい屋外や、暗い屋内等)の下で撮影した画像、被写体を様々な状態(例えば、蓋が開いている、閉じている等)で撮影した画像、高精度で作成した3D-CG(3Dimensional Computer Graphics)を様々な照明条件や背景画像と組み合わせて学習させた画像等、大量の画像のデータである。 FIG. 4 is a diagram showing an example of teacher data owned by the subject learning model 200 shown in FIG. As shown in FIG. 4, the teacher data owned by the subject learning model 200 shown in FIG. 3 is associated with a subject name, subject identification information, and a plurality of image data (reference images). The subject name is the name of the subject. The subject name may be, for example, a product name, a manufacturer name, a product number, or the like. The subject identification information is information given in advance to each subject in order to make the subject distinguishable from other subjects. The subject identification information may be expressed using numbers or alphabets. The image data is data showing the image of the subject, and is an image of the subject taken from a plurality of directions, an image of the subject taken under various environments (for example, bright outdoors, dark indoors, etc.), and a subject. Was trained by combining images taken in various states (for example, the lid is open, closed, etc.) and 3D-CG (3Dimental Computer Graphics) created with high accuracy in combination with various lighting conditions and background images. It is a large amount of image data such as an image.

被写体学習モデル200は、入力された画像データと図4に示したような教師データとを比較して、入力された画像データが、何が被写体となっているものなのかを推定(判定)する。被写体学習モデル200は、推定(判定)した結果となる被写体の被写体識別情報を出力する。このような教師データを用いた推定(判定)処理は、一般的なAI(Artificial Intelligence:人工知能)を用いたものと同様のものであって良い。 The subject learning model 200 compares the input image data with the teacher data as shown in FIG. 4, and estimates (determines) what the input image data is the subject. .. The subject learning model 200 outputs subject identification information of the subject as a result of estimation (determination). The estimation (determination) process using such teacher data may be the same as that using general AI (Artificial Intelligence).

データベース130は、被写体固有に付与された被写体識別情報と、その被写体の属性とをあらかじめ対応付けて記憶する。 The database 130 stores the subject identification information unique to the subject and the attributes of the subject in advance in association with each other.

図5は、図1に示したデータベース130に記憶された対応付けの一例を示す図である。図1に示したデータベース130には図5に示すように、被写体識別情報と属性とが対応付けられて記憶されている。被写体識別情報は、被写体を他の被写体から識別可能にするために、それぞれの被写体固有にあらかじめ付与された情報であって、図4に示したものと同じものである。属性は、被写体の性質を示す情報である。例えば、図5に示すように、被写体識別情報「A001」と属性「ボトルガム、爽快感」とが対応付けられて記憶されている。これは、被写体識別情報が「A001」である被写体は、ボトルガムであって、爽快感(例えば、ミント系)のある味であることを示している。また、被写体識別情報「B001」と属性「炭酸飲料、甘い」とが対応付けられて記憶されている。これは、被写体識別情報が「B001」である被写体は、炭酸飲料であって、その味は甘いものであることを示している。また、被写体識別情報「C001」と属性「保冷剤、冷たい」とが対応付けられて記憶されている。これは、被写体識別情報が「C001」である被写体は、保冷剤であって、冷たいものであることを示している。 FIG. 5 is a diagram showing an example of the correspondence stored in the database 130 shown in FIG. As shown in FIG. 5, the database 130 shown in FIG. 1 stores the subject identification information and the attributes in association with each other. The subject identification information is information given in advance to each subject in order to make the subject distinguishable from other subjects, and is the same as that shown in FIG. The attribute is information indicating the nature of the subject. For example, as shown in FIG. 5, the subject identification information "A001" and the attribute "bottle gum, exhilaration" are stored in association with each other. This indicates that the subject whose subject identification information is "A001" is bottle gum and has a refreshing taste (for example, mint type). Further, the subject identification information "B001" and the attribute "carbonated drink, sweet" are stored in association with each other. This indicates that the subject whose subject identification information is "B001" is a carbonated drink and its taste is sweet. Further, the subject identification information "C001" and the attribute "cooling agent, cold" are stored in association with each other. This indicates that the subject whose subject identification information is "C001" is an ice pack and is cold.

属性読み出し部140は、推定部120が推定した被写体の属性をデータベース130から読み出す。このとき、属性読み出し部140は、推定部120が推定した被写体に付与された被写体識別情報を検索キーとして、この、被写体識別情報と対応付けられている属性をデータベース130から読み出す。 The attribute reading unit 140 reads the attributes of the subject estimated by the estimation unit 120 from the database 130. At this time, the attribute reading unit 140 reads the attribute associated with the subject identification information from the database 130 using the subject identification information given to the subject estimated by the estimation unit 120 as a search key.

仮想空間設定部150は、属性読み出し部140が読み出した属性を用いて、被写体を仮想空間に設定する。仮想空間設定部150は、仮想空間で行うゲームにおいて、被写体を属性に応じた性質を持つアイテムに設定する。例えば、属性読み出し部140が読み出した被写体の属性が図5に示した対応付けの「冷たい」である場合、仮想空間で行うゲームにおいて、その被写体を所有すれば熱を冷ますための「冷たい」アイテムとして使用できる。なお、仮想空間設定部150は、被写体を仮想空間に設定する際に、被写体の画像そのものまたは類似した画像(例えば、被写体の画像をイラスト化したもの等)を仮想空間に表示させる(表現する)ものであっても良いし、被写体の画像を所定の形状等に変化させて仮想空間に表示させる(表現する)ものであっても良い。また、仮想空間設定部150は、仮想空間に設定する被写体の属性に応じた表示を行うものであっても良い。例えば、仮想空間設定部150は、仮想空間に設定する被写体の属性がゲーム中に相手と対戦する際に強いアイテムとして使用できるような属性である場合、そのレベルを強度の高いレベルとして表示するものであっても良い。 The virtual space setting unit 150 sets the subject in the virtual space by using the attributes read by the attribute reading unit 140. The virtual space setting unit 150 sets the subject as an item having properties according to the attribute in the game played in the virtual space. For example, when the attribute of the subject read by the attribute reading unit 140 is the "cold" of the correspondence shown in FIG. 5, in the game played in the virtual space, if the subject is owned, it is "cold" to cool the heat. Can be used as an item. When setting the subject in the virtual space, the virtual space setting unit 150 displays (expresses) the image of the subject itself or a similar image (for example, an illustration of the image of the subject) in the virtual space. It may be an image, or an image of a subject may be changed into a predetermined shape or the like and displayed (expressed) in a virtual space. Further, the virtual space setting unit 150 may display according to the attribute of the subject set in the virtual space. For example, if the attribute of the subject set in the virtual space is an attribute that can be used as a strong item when playing against an opponent during the game, the virtual space setting unit 150 displays the level as a high-strength level. It may be.

以下に、図1に示した情報処理システムにおける情報処理方法について説明する。図6は、図1に示した情報処理システムにおける情報処理方法の一例を説明するためにシーケンス図である。 The information processing method in the information processing system shown in FIG. 1 will be described below. FIG. 6 is a sequence diagram for explaining an example of an information processing method in the information processing system shown in FIG.

まず、現実空間で、撮像部110が被写体を撮像する(ステップS1)。続いて、推定部120が、撮像部110が撮像した被写体の画像を示す画像データを被写体学習モデル200に入力する(ステップS2)。被写体学習モデル200は、入力された画像データと学習フェーズで得られた教師データとに基づいて、被写体を推定する(ステップS3)。続いて、属性読み出し部140が、推定された被写体の被写体識別情報を検索キーとして、その被写体識別情報と対応付けられている属性をデータベース130から読み出す(ステップS4)。すると、仮想空間設定部150が、属性読み出し部140が読み出した属性を用いて、被写体を仮想空間に設定する(ステップS5)。 First, in the real space, the image pickup unit 110 takes an image of the subject (step S1). Subsequently, the estimation unit 120 inputs image data indicating an image of the subject captured by the image pickup unit 110 into the subject learning model 200 (step S2). The subject learning model 200 estimates the subject based on the input image data and the teacher data obtained in the learning phase (step S3). Subsequently, the attribute reading unit 140 reads the attribute associated with the subject identification information from the database 130 using the estimated subject identification information of the subject as a search key (step S4). Then, the virtual space setting unit 150 sets the subject in the virtual space using the attributes read by the attribute reading unit 140 (step S5).

このように、本形態においては、所有している被写体を撮像部110が撮像し、撮像した画像データに基づいて、推定部120が被写体を推定し、推定した被写体の属性を属性読み出し部140がデータベース130から読み出して、仮想空間設定部150が仮想空間にその属性を持った被写体を設定する。そのため、現実空間で所有したものを被写体として撮像すれば、仮想空間で行うゲームでその被写体をアイテムとして所有して使用することができる。
(第2の実施の形態)
As described above, in the present embodiment, the image pickup unit 110 takes an image of the owned subject, the estimation unit 120 estimates the subject based on the image data captured, and the attribute reading unit 140 determines the attributes of the estimated subject. Reading from the database 130, the virtual space setting unit 150 sets a subject having that attribute in the virtual space. Therefore, if a subject owned in the real space is imaged as a subject, the subject can be owned and used as an item in a game played in the virtual space.
(Second embodiment)

図7は、本発明の情報処理システムの第2の実施の形態を示す図である。本形態における情報処理システムは図7に示すように、撮像部110と、推定部121と、データベース130と、属性読み出し部140と、仮想空間設定部150と、移動部161とを有する。撮像部110、データベース130、属性読み出し部140および仮想空間設定部150は、第1の実施の形態におけるものと同じものである。 FIG. 7 is a diagram showing a second embodiment of the information processing system of the present invention. As shown in FIG. 7, the information processing system in the present embodiment includes an imaging unit 110, an estimation unit 121, a database 130, an attribute reading unit 140, a virtual space setting unit 150, and a moving unit 161. The image pickup unit 110, the database 130, the attribute reading unit 140, and the virtual space setting unit 150 are the same as those in the first embodiment.

移動部161は、撮像部110が被写体を複数の方向から撮像できるように被写体を移動させる。例えば、移動部161は、被写体を所定の方向へ回転させていく。 The moving unit 161 moves the subject so that the imaging unit 110 can image the subject from a plurality of directions. For example, the moving unit 161 rotates the subject in a predetermined direction.

図8および図9は、図7に示した移動部161の動作の様子の一例を示す図である。図8に示すように、移動部161には被写体300が搭載されており、その被写体300を撮像部110が撮像する。そして、図9に示すように、被写体300を搭載した状態の移動部161が所定の角度だけ回転し、その被写体300を撮像部110が撮像する。移動部161および撮像部110が、この動作を繰り返し行う。撮像部110が1つの被写体について、移動部161が移動することで複数の方向から被写体を撮像するのは、撮像した画像を用いて、被写体300が何であるかを推定部121が推定しやすくするためである。例えば、撮像部110と移動部161とが連動して、移動部161が所定の角度間隔で被写体300を回転させて、撮像部110が被写体300を撮像していくものであっても良い。図8および図9には、被写体300がボトルガムである場合を例に挙げて示している。なお、図8および図9に示した例では、移動部161が被写体300を載せた回転テーブルのように回転するものであるが、移動部161は、撮像部110が被写体300を複数の方向から撮像できるものであれば、例えば、被写体300の天面や底面、側面を撮像できるように被写体300を移動(回転)させるものであっても良く、これに限らない。 8 and 9 are diagrams showing an example of the operation of the moving unit 161 shown in FIG. 7. As shown in FIG. 8, a subject 300 is mounted on the moving unit 161 and the image pickup unit 110 takes an image of the subject 300. Then, as shown in FIG. 9, the moving unit 161 in the state where the subject 300 is mounted is rotated by a predetermined angle, and the image pickup unit 110 takes an image of the subject 300. The moving unit 161 and the imaging unit 110 repeat this operation. The reason why the image pickup unit 110 images a subject from a plurality of directions by moving the moving unit 161 for one subject makes it easier for the estimation unit 121 to estimate what the subject 300 is by using the captured image. Because. For example, the image pickup unit 110 and the moving unit 161 may be interlocked with each other, the moving unit 161 may rotate the subject 300 at predetermined angular intervals, and the image pickup unit 110 may take an image of the subject 300. 8 and 9 show an example in which the subject 300 is a bottle gum. In the examples shown in FIGS. 8 and 9, the moving unit 161 rotates like a rotary table on which the subject 300 is placed, but in the moving unit 161 the image pickup unit 110 displays the subject 300 from a plurality of directions. As long as it can be imaged, for example, the subject 300 may be moved (rotated) so that the top surface, the bottom surface, and the side surface of the subject 300 can be imaged, and the present invention is not limited to this.

推定部121は、移動部161が被写体を移動させることで、撮像部110が複数の方向からそれぞれ撮像した被写体の複数の画像と、あらかじめ登録された複数の基準画像とに基づいて、被写体を推定する。推定部121は、被写体を推定するための機械学習を行った学習済みの学習モデルに、移動部161が被写体を移動させて、撮像部110が複数の方向からそれぞれ被写体を撮像した複数の画像を入力することで、被写体をその学習モデルから取得して推定する。 The estimation unit 121 estimates the subject based on a plurality of images of the subject captured by the image pickup unit 110 from a plurality of directions and a plurality of reference images registered in advance by moving the subject by the moving unit 161. do. The estimation unit 121 moves the subject to the learned learning model that has been machine-learned to estimate the subject, and the image pickup unit 110 captures a plurality of images of the subject from a plurality of directions. By inputting, the subject is acquired from the learning model and estimated.

図10は、図7に示した推定部121の内部構成の一例を示す図である。図7に示した推定部121は図10に示すように、被写体学習モデル201を有する。なお、図10には、図7に示した推定部121が具備する構成要素のうち、本形態に関わる主要な構成要素のみを示す。被写体学習モデル201は、機械学習の学習フェーズで様々な被写体の画像データ(基準画像)とその画像データが何の画像を示すものであるかという情報とが対応付けられて教師データとして記憶されており、適用フェーズで入力された画像データと記憶されている教師データとに基づいて、入力された画像データが何の画像を示すもの(被写体)であるかを推定する。被写体学習モデル201は、推定した結果を出力する。なお、推定した結果である被写体を示す情報は、被写体固有にあらかじめ付与された被写体識別情報である。また、出力された結果は、被写体学習モデル201にフィードバックされてさらに学習されるものであっても良い。また、被写体学習モデル201は、被写体が移動部161によってどのように移動(回転)したかについても教師データとして保有していても良い。この場合、推定部121が被写体学習モデル201に入力する情報に、移動部161による被写体の移動(回転)の量や方向を示す情報が含まれる。なお、被写体学習モデル201が所有する教師データは、第1の実施の形態と同様のものである。 FIG. 10 is a diagram showing an example of the internal configuration of the estimation unit 121 shown in FIG. 7. As shown in FIG. 10, the estimation unit 121 shown in FIG. 7 has a subject learning model 201. Note that FIG. 10 shows only the main components related to the present embodiment among the components included in the estimation unit 121 shown in FIG. 7. The subject learning model 201 is stored as teacher data in association with image data (reference images) of various subjects and information on what image the image data represents in the learning phase of machine learning. Based on the image data input in the application phase and the stored teacher data, it is estimated what image the input image data represents (subject). The subject learning model 201 outputs the estimated result. The information indicating the subject, which is the estimation result, is the subject identification information given in advance unique to the subject. Further, the output result may be fed back to the subject learning model 201 for further learning. Further, the subject learning model 201 may also have as teacher data how the subject is moved (rotated) by the moving unit 161. In this case, the information input to the subject learning model 201 by the estimation unit 121 includes information indicating the amount and direction of movement (rotation) of the subject by the moving unit 161. The teacher data owned by the subject learning model 201 is the same as that of the first embodiment.

以下に、図7に示した情報処理システムにおける情報処理方法について説明する。図11は、図7に示した情報処理システムにおける情報処理方法の一例を説明するためにシーケンス図である。 The information processing method in the information processing system shown in FIG. 7 will be described below. FIG. 11 is a sequence diagram for explaining an example of an information processing method in the information processing system shown in FIG. 7.

まず、現実空間で、撮像部110が被写体を所定の方向から撮像する(ステップS11)。すると、撮像部110と移動部161とが連携して、あらかじめ設定されたすべての方向からの撮像が完了したかどうかを判定する(ステップS12)。すべての方向からの撮像が完了していない場合、移動部161は被写体を所定の角度だけ回転(移動)させる(ステップS13)。そして、再度ステップS11にて撮像部110が被写体の撮像を行う。 First, in the real space, the image pickup unit 110 takes an image of the subject from a predetermined direction (step S11). Then, the image pickup unit 110 and the moving unit 161 cooperate with each other to determine whether or not the imaging from all the preset directions is completed (step S12). When the imaging from all directions is not completed, the moving unit 161 rotates (moves) the subject by a predetermined angle (step S13). Then, in step S11 again, the image pickup unit 110 takes an image of the subject.

一方、ステップS12にて、すべての方向からの撮像が完了している場合は、推定部121が、移動部161が被写体を移動させることで撮像部110が複数の方向からそれぞれ撮像した被写体の複数の画像を示す画像データを被写体学習モデル201に入力する(ステップS14)。被写体学習モデル201は、入力された複数の画像データと学習フェーズで得られた教師データとに基づいて、被写体を推定する(ステップS15)。続いて、属性読み出し部140が、推定された被写体の被写体識別情報を検索キーとして、その被写体識別情報と対応付けられている属性をデータベース130から読み出す(ステップS16)。すると、仮想空間設定部150が、属性読み出し部140が読み出した属性を用いて、被写体を仮想空間に設定する(ステップS17)。 On the other hand, when the imaging from all directions is completed in step S12, the estimation unit 121 moves the subject by the moving unit 161 so that the imaging unit 110 images the subjects from a plurality of directions. The image data showing the image of is input to the subject learning model 201 (step S14). The subject learning model 201 estimates the subject based on the input plurality of image data and the teacher data obtained in the learning phase (step S15). Subsequently, the attribute reading unit 140 reads the attribute associated with the subject identification information from the database 130 using the estimated subject identification information of the subject as a search key (step S16). Then, the virtual space setting unit 150 sets the subject in the virtual space using the attributes read by the attribute reading unit 140 (step S17).

このように、本形態においては、所有している被写体を移動部161が回転(移動)させていき、撮像部110が複数の方向から撮像し、撮像した複数の画像データに基づいて、推定部121が被写体を推定し、推定した被写体の属性を属性読み出し部140がデータベース130から読み出して、仮想空間設定部150が仮想空間にその属性を持った被写体を設定する。そのため、現実空間で所有したものを被写体として撮像すれば、仮想空間で行うゲームでその被写体をアイテムとして所有して使用することができる。さらに、移動部161を用いて被写体を移動させることで、撮像者が被写体を移動させる手間を省くことができる。 As described above, in the present embodiment, the moving unit 161 rotates (moves) the owned subject, the imaging unit 110 images images from a plurality of directions, and the estimation unit is based on the plurality of image data captured. 121 estimates the subject, the attribute reading unit 140 reads the estimated attribute of the subject from the database 130, and the virtual space setting unit 150 sets the subject having the attribute in the virtual space. Therefore, if a subject owned in the real space is imaged as a subject, the subject can be owned and used as an item in a game played in the virtual space. Further, by moving the subject using the moving unit 161 it is possible to save the trouble of moving the subject by the imager.

なお、上述した第1の実施の形態および第2の実施の形態において、現実空間で被写体を保有し、保有している被写体を撮像した撮像者と、仮想空間でその被写体を使用する使用者とが同一であることが好ましい。そのために、撮像者が現実空間で被写体を撮像して本発明の情報処理システムに入力する際、利用者コードやパスワード等の認証コードを入力しておき、使用者が仮想空間に設定されたその被写体を使用するゲーム等を起動する際に、その認証コードを入力して、その使用者が撮像者であるかどうかの認証を情報処理システムが行うものであっても良い。 In the first embodiment and the second embodiment described above, the imager who holds the subject in the real space and images the held subject, and the user who uses the subject in the virtual space. Are preferably the same. Therefore, when the imager captures a subject in a real space and inputs it into the information processing system of the present invention, an authentication code such as a user code or a password is input, and the user is set in the virtual space. When starting a game or the like that uses a subject, the information processing system may input the authentication code to authenticate whether or not the user is an imager.

以上、各構成要素に各機能(処理)それぞれを分担させて説明したが、この割り当ては上述したものに限定しない。また、構成要素の構成についても、上述した形態はあくまでも例であって、これに限定しない。 In the above, each component has been assigned to each function (process), but this allocation is not limited to the above. Further, the above-mentioned form is merely an example of the configuration of the constituent elements, and the present invention is not limited to this.

上述した情報処理システムが行う処理は、目的に応じてそれぞれ作製された論理回路で行うようにしても良い。また、処理内容を手順として記述したコンピュータプログラム(以下、プログラムと称する)を情報処理システムを構成する装置にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを情報処理システムに読み込ませ、実行するものであっても良い。情報処理システムを構成する装置にて読取可能な記録媒体とは、フロッピー(登録商標)ディスク、光磁気ディスク、DVD(Digital Versatile Disc)、CD(Compact Disc)、Blu-ray(登録商標) Disc、USB(Universal Serial Bus)メモリなどの移設可能な記録媒体の他、情報処理システムを構成する装置に内蔵されたROM(Read Only Memory)、RAM(Random Access Memory)等のメモリやHDD(Hard Disc Drive)等を指す。この記録媒体に記録されたプログラムは、情報処理システムを構成する装置に設けられたCPUにて読み込まれ、CPUの制御によって、上述したものと同様の処理が行われる。ここで、CPUは、プログラムが記録された記録媒体から読み込まれたプログラムを実行するコンピュータとして動作するものである。 The processing performed by the above-mentioned information processing system may be performed by logic circuits manufactured according to the purpose. Further, a computer program (hereinafter referred to as a program) in which the processing contents are described as a procedure is recorded on a recording medium readable by a device constituting the information processing system, and the program recorded on the recording medium is recorded in the information processing system. It may be read and executed. The recording media that can be read by the device constituting the information processing system are floppy (registered trademark) disk, magneto-optical disk, DVD (Digital Versaille Disc), CD (Compact Disc), Blu-ray (registered trademark) Disc, and the like. In addition to transferable recording media such as USB (Universal Serial Bus) memory, memory such as ROM (Read Only Memory) and RAM (Random Access Memory) and HDD (Hard Disc Drive) built into the device constituting the information processing system. ) Etc. The program recorded on this recording medium is read by a CPU provided in an apparatus constituting an information processing system, and the same processing as described above is performed under the control of the CPU. Here, the CPU operates as a computer that executes a program read from a recording medium in which the program is recorded.

110 撮像部
120,121 推定部
130 データベース
140 属性読み出し部
150 仮想空間設定部
161 移動部
200,201 被写体学習モデル
300 被写体
110 Imaging unit 120, 121 Estimating unit 130 Database 140 Attribute reading unit 150 Virtual space setting unit 161 Moving unit 200, 201 Subject learning model 300 Subject

Claims (11)

撮像部と、
前記撮像部が被写体を複数の方向それぞれから撮像した画像と、あらかじめ登録された複数の基準画像とに基づいて、前記被写体を推定する推定部と、
前記推定部が推定した被写体の属性をデータベースから読み出す属性読み出し部と、
前記属性読み出し部が読み出した属性を用いて、前記被写体を仮想空間に設定する仮想空間設定部と
前記撮像部が前記被写体を前記複数の方向から撮像できるように前記被写体を移動させる移動部とを有する情報処理システム。
Image pickup unit and
An estimation unit that estimates the subject based on an image obtained by the imaging unit from each of a plurality of directions and a plurality of reference images registered in advance.
An attribute reading unit that reads the attributes of the subject estimated by the estimation unit from the database,
A virtual space setting unit that sets the subject in the virtual space using the attributes read by the attribute reading unit, and a virtual space setting unit .
An information processing system including a moving unit that moves the subject so that the imaging unit can image the subject from the plurality of directions .
請求項1に記載の情報処理システムにおいて、
前記推定部は、前記撮像部が前記被写体を撮像した画像および該画像の深度情報と、あらかじめ登録された基準画像とに基づいて、前記被写体を推定する情報処理システム。
In the information processing system according to claim 1,
The estimation unit is an information processing system that estimates the subject based on an image captured by the image pickup unit, depth information of the image, and a reference image registered in advance.
請求項1または請求項2に記載の情報処理システムにおいて、
前記推定部は、前記被写体を推定するための機械学習を行った学習済みの学習モデルに前記撮像部が撮像した画像を入力することで、前記被写体を前記学習モデルから取得して推定する情報処理システム。
In the information processing system according to claim 1 or 2 .
Information processing in which the estimation unit acquires and estimates the subject from the learning model by inputting an image captured by the imaging unit into a learned learning model that has undergone machine learning for estimating the subject. system.
請求項1からのいずれか1項に記載の情報処理システムにおいて、
前記データベースは、前記被写体固有に付与された被写体識別情報と、該被写体の属性とをあらかじめ対応付けて記憶し、
前記属性読み出し部は、前記推定部が推定した被写体の前記被写体識別情報に基づいて、前記属性を前記データベースから読み出す情報処理システム。
In the information processing system according to any one of claims 1 to 3 ,
The database stores the subject identification information uniquely assigned to the subject and the attributes of the subject in advance in association with each other.
The attribute reading unit is an information processing system that reads the attributes from the database based on the subject identification information of the subject estimated by the estimation unit.
請求項1からのいずれか1項に記載の情報処理システムにおいて、
前記仮想空間設定部は、前記仮想空間で行うゲームにおいて、前記被写体を前記属性に応じた性質を持つアイテムに設定する情報処理システム。
In the information processing system according to any one of claims 1 to 4 ,
The virtual space setting unit is an information processing system that sets the subject to an item having a property corresponding to the attribute in a game played in the virtual space.
被写体をカメラが、該カメラが前記被写体を複数の方向から撮像できるように前記被写体を移動させる移動部を用いて、前記複数の方向それぞれから撮像した画像と、あらかじめ登録された複数の基準画像とに基づいて、前記被写体を推定する処理と、
前記推定した被写体の属性をデータベースから読み出す処理と、
前記読み出した属性を用いて、前記被写体を仮想空間に設定する処理とを行う情報処理方法。
An image captured from each of the plurality of directions using a moving unit for moving the subject so that the camera can capture the subject from a plurality of directions, and a plurality of pre-registered reference images. The process of estimating the subject based on
The process of reading the estimated subject attributes from the database and
An information processing method that uses the read attributes to perform processing for setting the subject in a virtual space.
請求項に記載の情報処理方法において、
前記被写体を推定するための機械学習を行った学習済みの学習モデルに前記撮像した画像を入力する処理と、
前記被写体を前記学習モデルから取得して推定する処理とを行う情報処理方法。
In the information processing method according to claim 6 ,
The process of inputting the captured image into the trained learning model that has been machine-learned to estimate the subject, and
An information processing method that performs a process of acquiring the subject from the learning model and estimating it.
請求項または請求項に記載の情報処理方法において、
前記仮想空間で行うゲームにおいて、前記被写体を前記属性に応じた性質を持つアイテムに設定する処理を行う情報処理方法。
In the information processing method according to claim 6 or 7 .
An information processing method for setting a subject to an item having properties corresponding to the attributes in a game played in the virtual space.
コンピュータに、
被写体をカメラが、該カメラが前記被写体を複数の方向から撮像できるように前記被写体を移動させる移動部を用いて、前記複数の方向それぞれから撮像した画像と、あらかじめ登録された複数の基準画像とに基づいて、前記被写体を推定する手順と、
前記推定した被写体の属性をデータベースから読み出す手順と、
前記読み出した属性を用いて、前記被写体を仮想空間に設定する手順とを実行させるためのプログラム。
On the computer
An image captured from each of the plurality of directions using a moving unit for moving the subject so that the camera can capture the subject from a plurality of directions, and a plurality of pre-registered reference images. The procedure for estimating the subject based on
The procedure for reading the estimated subject attributes from the database and
A program for executing a procedure for setting the subject in a virtual space using the read attributes.
請求項に記載のプログラムにおいて、
前記被写体を推定するための機械学習を行った学習済みの学習モデルに前記撮像した画像を入力する手順と、
前記被写体を前記学習モデルから取得して推定する手順とを、前記コンピュータに実行させるためのプログラム。
In the program of claim 9 .
The procedure for inputting the captured image into the trained learning model that has been machine-learned to estimate the subject, and
A program for causing the computer to execute a procedure for acquiring and estimating the subject from the learning model.
請求項または請求項10に記載のプログラムにおいて、
前記仮想空間で行うゲームにおいて、前記被写体を前記属性に応じた性質を持つアイテムに設定する手順を、前記コンピュータに実行させるためのプログラム。
In the program according to claim 9 or 10 .
A program for causing the computer to execute a procedure for setting the subject to an item having a property corresponding to the attribute in the game played in the virtual space.
JP2019193127A 2019-10-24 2019-10-24 Information processing systems, information processing methods and programs Active JP7023005B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019193127A JP7023005B2 (en) 2019-10-24 2019-10-24 Information processing systems, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019193127A JP7023005B2 (en) 2019-10-24 2019-10-24 Information processing systems, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP2021068195A JP2021068195A (en) 2021-04-30
JP7023005B2 true JP7023005B2 (en) 2022-02-21

Family

ID=75637294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019193127A Active JP7023005B2 (en) 2019-10-24 2019-10-24 Information processing systems, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP7023005B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001122334A (en) 1999-10-21 2001-05-08 Hitachi Ltd Packaging member and conveying method
JP2003178286A (en) 2001-12-11 2003-06-27 Taito Corp Image forming system by sentence
JP2004005534A (en) 2002-03-29 2004-01-08 Fuji Photo Film Co Ltd Image preserving method, retrieving method and system of registered image, image processing method of registered image and program for executing these methods
JP2014232370A (en) 2013-05-28 2014-12-11 東芝テック株式会社 Recognition dictionary creation device and recognition dictionary creation program
WO2015111283A1 (en) 2014-01-23 2015-07-30 ソニー株式会社 Image display device and image display method
JP2016149054A (en) 2015-02-13 2016-08-18 株式会社Nttドコモ Display divice and display method
JP2018077644A (en) 2016-11-08 2018-05-17 富士ゼロックス株式会社 Information processing system and program
JP2018097883A (en) 2018-01-09 2018-06-21 カシオ計算機株式会社 Information display apparatus and guidance display method
WO2019130991A1 (en) 2017-12-26 2019-07-04 株式会社Nttドコモ Information processing device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001122334A (en) 1999-10-21 2001-05-08 Hitachi Ltd Packaging member and conveying method
JP2003178286A (en) 2001-12-11 2003-06-27 Taito Corp Image forming system by sentence
JP2004005534A (en) 2002-03-29 2004-01-08 Fuji Photo Film Co Ltd Image preserving method, retrieving method and system of registered image, image processing method of registered image and program for executing these methods
JP2014232370A (en) 2013-05-28 2014-12-11 東芝テック株式会社 Recognition dictionary creation device and recognition dictionary creation program
WO2015111283A1 (en) 2014-01-23 2015-07-30 ソニー株式会社 Image display device and image display method
JP2016149054A (en) 2015-02-13 2016-08-18 株式会社Nttドコモ Display divice and display method
JP2018077644A (en) 2016-11-08 2018-05-17 富士ゼロックス株式会社 Information processing system and program
WO2019130991A1 (en) 2017-12-26 2019-07-04 株式会社Nttドコモ Information processing device
JP2018097883A (en) 2018-01-09 2018-06-21 カシオ計算機株式会社 Information display apparatus and guidance display method

Also Published As

Publication number Publication date
JP2021068195A (en) 2021-04-30

Similar Documents

Publication Publication Date Title
EP2132710B1 (en) Augmented reality method and devices using a real time automatic tracking of marker-free textured planar geometrical objects in a video stream
CN102016877B (en) Methods for capturing depth data of a scene and applying computer actions
US20130077820A1 (en) Machine learning gesture detection
CN101324433B (en) Method and apparatus for information processing
US8913809B2 (en) Monitoring physical body changes via image sensor
Hohmann et al. Does training with 3D videos improve decision-making in team invasion sports?
CN103327234B (en) Image processing apparatus and image processing method
CN103455978A (en) Apparatus and method for augmenting a video image
CN104065875A (en) Display Control Apparatus And Display Control Method
WO2013059751A1 (en) Calculating metabolic equivalence with a computing device
CN105450911A (en) Image processing apparatus and image processing method
US8885878B2 (en) Interactive secret sharing
JP7023005B2 (en) Information processing systems, information processing methods and programs
CN103324654A (en) Image processing device that displays retrieved image similar to target image and image processing method
Roy et al. Visual transfer for reinforcement learning via wasserstein domain confusion
JPH07244726A (en) Method and device for standardizing face picture for individualized video entertainment
CN103390157B (en) The system and method for page tracking
JP6476678B2 (en) Information processing apparatus and information processing program
CN101116108B (en) Information parts extraction for retrieving image sequence data
US11157743B1 (en) Method for comparing videos of surgical techniques
JP2018120402A (en) Event detecting device, event detecting method, and program
JP6256738B2 (en) Movie selection device, movie selection method and program
CN103489158A (en) Apparatus and method of augmenting video
TWI524919B (en) Video capturing device and video capturing method
WO2022003981A1 (en) Action specification device, action specification method, and action specification program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220201

R150 Certificate of patent or registration of utility model

Ref document number: 7023005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150