JP2018173739A - Program and image generation system - Google Patents

Program and image generation system Download PDF

Info

Publication number
JP2018173739A
JP2018173739A JP2017070449A JP2017070449A JP2018173739A JP 2018173739 A JP2018173739 A JP 2018173739A JP 2017070449 A JP2017070449 A JP 2017070449A JP 2017070449 A JP2017070449 A JP 2017070449A JP 2018173739 A JP2018173739 A JP 2018173739A
Authority
JP
Japan
Prior art keywords
image
virtual space
unit
recognition
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017070449A
Other languages
Japanese (ja)
Other versions
JP7116410B2 (en
Inventor
佳之 高子
Yoshiyuki Takako
佳之 高子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Original Assignee
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc, Bandai Namco Studios Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2017070449A priority Critical patent/JP7116410B2/en
Publication of JP2018173739A publication Critical patent/JP2018173739A/en
Application granted granted Critical
Publication of JP7116410B2 publication Critical patent/JP7116410B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program, an image generation system, etc., capable of actualizing extended reality as if a virtual space were present in a region of an opening part by simple processing.SOLUTION: An image generation system includes: an image acquisition unit which acquires a picked-up image; a recognition processing unit which performs recognition processing on an object of recognition taken in the picked-up image; a virtual space setting unit which performs processing for arranging and setting, in a virtual space, at least one three-dimensional object and a mask object arranged having predetermined relationship with the three-dimensional object; and an image generation unit which generates an image such that a virtual space image composed of an image of the three-dimensional object is displayed in an image region of an opening part set correspondingly to the place of the object of recognition and the picked-up image is displayed in an image region of a periphery of the opening part with the three-dimensional object masked with the mask object.SELECTED DRAWING: Figure 6

Description

本発明は、プログラム及び画像生成システム等に関する。   The present invention relates to a program, an image generation system, and the like.

近年、コンピュータを用いて現実世界に情報を付加提示する技術として、拡張現実(AR: Augmented Reality)と呼ばれる技術が脚光を浴びている。この拡張現実(AR)は、強化現実とも呼ばれ、現実の環境の一部に、付加情報としてのバーチャルな物体を合成して表示する。このような拡張現実の従来技術としては例えば特許文献1、2に開示される技術がある。   In recent years, a technique called Augmented Reality (AR) has been spotlighted as a technique for additionally presenting information to the real world using a computer. This augmented reality (AR) is also called augmented reality, and a virtual object as additional information is synthesized and displayed on a part of the actual environment. As conventional technology of such augmented reality, for example, there are technologies disclosed in Patent Documents 1 and 2.

特許文献1の従来技術では、所定の模様が描かれたARマーカが配置された現実世界の様子を撮像部により撮影する。そして、撮像部により撮影された画像内におけるマーカの位置を推定すると共にARマーカの画像認識を行い、推定された位置に、ARマーカの模様に対応するバーチャルオブジェクトを重畳して合成表示する。   In the prior art of Patent Document 1, a real-world state in which an AR marker on which a predetermined pattern is drawn is arranged is photographed by an imaging unit. Then, the position of the marker in the image captured by the imaging unit is estimated and the AR marker image is recognized, and a virtual object corresponding to the AR marker pattern is superimposed and displayed at the estimated position.

特許文献2には、ライブ会場や展覧会などの建物内をカメラで撮影し、撮影した映像をのぞき穴オブジェクトにマッピングすることで、建物の会場内の様子をのぞき穴画像として見ることができる画像生成システムが開示されている。この特許文献2の従来技術では、仮想のぞき穴から見える画像を、ARマーカの大きさ、向き、角度を分析して生成する。   Patent Document 2 discloses an image in which the inside of a building venue can be seen as a peephole image by shooting the inside of a building such as a live venue or an exhibition with a camera and mapping the shot video to a peephole object. A generation system is disclosed. In the prior art of Patent Document 2, an image that can be seen from a virtual peephole is generated by analyzing the size, orientation, and angle of the AR marker.

特開2010−170316号公報JP 2010-170316 A 特開2014−106556号公報JP 2014-106556 A

しかしながら、特許文献2の従来技術において、のぞき穴オブジェクトにマッピングされるのぞき穴画像は、3次元オブジェクトの画像から構成される仮想空間画像ではなく、カメラにより撮影された現実空間の映像である。そして仮想空間画像を、ARマーカ等の認識対象物の領域に簡素な処理で表示できるような手法については、従来技術では提案されていなかった。   However, in the prior art of Patent Document 2, the peephole image mapped to the peephole object is not a virtual space image composed of three-dimensional object images, but a real space image taken by a camera. And the technique which can display a virtual space image in the area | region of recognition objects, such as AR marker, by a simple process was not proposed by the prior art.

本発明の幾つかの態様によれば、開口部の領域に仮想空間が存在するかのような拡張現実を簡素な処理で実現できるプログラム及び画像生成システム等を提供できる。   According to some aspects of the present invention, it is possible to provide a program, an image generation system, and the like that can realize augmented reality with simple processing as if a virtual space exists in the region of the opening.

本発明の一態様は、撮像画像を取得する画像取得部と、前記撮像画像に映る認識対象物の認識処理を行う認識処理部と、少なくとも1つの3次元オブジェクトと、前記3次元オブジェクトに対して所定の関係性をもって配置されるマスクオブジェクトとを、仮想空間に配置設定する処理を行う仮想空間設定部と、前記認識対象物の場所に対応して設定された開口部の画像領域には、前記3次元オブジェクトの画像により構成される仮想空間画像が表示され、前記開口部の周囲の画像領域には、前記3次元オブジェクトが前記マスクオブジェクトによりマスクされることにより前記撮像画像が表示される画像を生成する画像生成部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   One aspect of the present invention is directed to an image acquisition unit that acquires a captured image, a recognition processing unit that performs a recognition process on a recognition target object reflected in the captured image, at least one three-dimensional object, and the three-dimensional object. A virtual space setting unit that performs a process of setting a mask object arranged with a predetermined relationship in a virtual space, and an image area of an opening set corresponding to the location of the recognition target object, A virtual space image composed of an image of a three-dimensional object is displayed, and an image in which the captured image is displayed by masking the three-dimensional object with the mask object is displayed in an image area around the opening. The present invention relates to an image generation system including an image generation unit for generation. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、撮像画像が取得され、撮像画像に映る認識対象物の認識処理が行われ、少なくとも1つの3次元オブジェクトとマスクオブジェクトとが、仮想空間に配置設定される。この場合にマスクオブジェクトは、3次元オブジェクトに対して所定の関係性(位置関係性、方向関係性等)をもって配置される。そして認識対象物の場所に対応して設定された開口部の画像領域に、仮想空間画像が表示され、開口部の周囲の画像領域に、撮像画像が表示される画像が生成される。この場合に開口部の周囲の画像領域には、3次元オブジェクトがマスクオブジェクトによりマスクされることにより、撮像画像が表示されるようになる。このようにすれば、3次元オブジェクトと共にマスクオブジェクトを仮想空間に配置設定するという簡素な処理で、あたかも開口部の領域に仮想空間が存在するかのような画像を生成できる。従って、開口部の領域に仮想空間が存在するかのような拡張現実を簡素な処理で実現できる画像システム、プログラム等の提供が可能になる。   According to one aspect of the present invention, a captured image is acquired, recognition processing of a recognition target object reflected in the captured image is performed, and at least one three-dimensional object and a mask object are arranged and set in the virtual space. In this case, the mask object is arranged with a predetermined relationship (positional relationship, directional relationship, etc.) with respect to the three-dimensional object. Then, a virtual space image is displayed in the image area of the opening set corresponding to the location of the recognition target object, and an image in which the captured image is displayed in the image area around the opening is generated. In this case, the captured image is displayed in the image area around the opening by masking the three-dimensional object with the mask object. In this way, an image as if the virtual space exists in the area of the opening can be generated by a simple process of arranging and setting the mask object together with the three-dimensional object in the virtual space. Accordingly, it is possible to provide an image system, a program, and the like that can realize augmented reality with simple processing as if a virtual space exists in the area of the opening.

また本発明の一態様では、前記仮想空間画像は、前記仮想空間において仮想カメラから見える画像であり、前記所定の関係性は、前記仮想カメラから見て、前記マスクオブジェクトの所定面よりも奥側に前記3次元オブジェクトが位置するという関係性であってもよい。   In one embodiment of the present invention, the virtual space image is an image that can be seen from a virtual camera in the virtual space, and the predetermined relationship is behind the predetermined surface of the mask object as viewed from the virtual camera. The relationship that the three-dimensional object is located may be used.

このようにすれば、仮想カメラから見て、あたかもマスクオブジェクトの所定面の奥側に3次元オブジェクトが存在するかのような拡張現実の画像を生成できるようになる。なお、複数の3次元オブジェクトのうちの一部の3次元オブジェクトの一部又は全部が、仮想カメラから見て所定面の手前側に位置するような演出が行われてもよい。また所定面は、例えばマスクオブジェクトを構成する面のうち仮想カメラから見て手前側(例えば最も手前側)にある面とすることができる。   In this way, it is possible to generate an augmented reality image as if a three-dimensional object exists behind the predetermined surface of the mask object as viewed from the virtual camera. An effect may be performed in which a part or all of some of the three-dimensional objects are located on the near side of the predetermined surface when viewed from the virtual camera. Further, the predetermined surface can be a surface on the near side (for example, the foremost side) as viewed from the virtual camera among the surfaces constituting the mask object, for example.

また本発明の一態様では、前記仮想空間設定部は、前記開口部を内包する第1の面を有する前記マスクオブジェクトを、前記仮想空間に配置設定してもよい。   In the aspect of the invention, the virtual space setting unit may set the mask object having the first surface including the opening in the virtual space.

このようにすれば、開口部を内包する第1の面により3次元オブジェクトをマスクすることで、開口部の画像領域に仮想空間画像が表示され、開口部の周囲の画像領域に撮像画像が表示される拡張現実の画像を生成できるようになる。   In this way, the virtual space image is displayed in the image area of the opening and the captured image is displayed in the image area around the opening by masking the three-dimensional object with the first surface including the opening. Augmented reality images can be generated.

また本発明の一態様では、前記仮想空間設定部は、前記第1の面と、前記第1の面に交差する少なくとも1つの面とを有する前記マスクオブジェクトを、前記仮想空間に配置設定してもよい。   In the aspect of the invention, the virtual space setting unit may place and set the mask object having the first surface and at least one surface intersecting the first surface in the virtual space. Also good.

このように第1の面に加えて、第1の面に交差する少なくとも1つの面によりマスクオブジェクトを構成すれば、マスクオブジェクトを用いてより確実に3次元オブジェクトをマスクして、開口部の周囲の画像領域に撮像画像を表示できるようになる。   In this way, if the mask object is constituted by at least one surface intersecting the first surface in addition to the first surface, the mask object is used to mask the three-dimensional object more reliably, and the periphery of the opening. The captured image can be displayed in the image area.

また本発明の一態様では、前記所定の関係性は、前記第1の面と前記少なくとも1つの面とにより囲まれる領域に前記3次元オブジェクトが位置するという関係性であってもよい。   In the aspect of the invention, the predetermined relationship may be a relationship in which the three-dimensional object is located in a region surrounded by the first surface and the at least one surface.

このようにすれば、マスクオブジェクトの第1の面と第1の面に交差する少なくとも1つの面とにより、3次元オブジェクトを囲うことが可能になり、マスクオブジェクトを用いて、より確実に3次元オブジェクトをマスクできるようになる。なお、複数の3次元オブジェクトのうちの一部の3次元オブジェクトの一部又は全部が、第1の面と少なくとも1つの面とにより囲まれる領域の外に出るような演出が行われてもよい。   In this way, it becomes possible to surround the three-dimensional object by the first surface of the mask object and at least one surface intersecting the first surface, and the three-dimensional object can be more reliably used by using the mask object. The object can be masked. An effect may be performed in which a part or all of a part of the three-dimensional objects out of a plurality of three-dimensional objects goes out of an area surrounded by the first surface and at least one surface. .

また本発明の一態様では、前記仮想空間設定部は、前記開口部よりも奥側に前記3次元オブジェクトが位置するように、前記3次元オブジェクトを前記仮想空間に配置設定してもよい。   In the aspect of the invention, the virtual space setting unit may set the three-dimensional object in the virtual space so that the three-dimensional object is positioned on the back side of the opening.

このようにすれば、あたかも開口部の奥側に、3次元オブジェクトにより構成される仮想空間が存在するかのように見える拡張現実を実現できるようになる。   In this way, it becomes possible to realize augmented reality that looks as if a virtual space composed of three-dimensional objects exists behind the opening.

また本発明の一態様では、前記仮想空間設定部は、前記開口部を前記3次元オブジェクトが跨ぐように、前記3次元オブジェクトを前記仮想空間に配置設定してもよい。   In the aspect of the invention, the virtual space setting unit may set the three-dimensional object in the virtual space such that the three-dimensional object straddles the opening.

このようにすれば、開口部の奥側の仮想空間から、あたかも3次元オブジェクトが飛び出して来たかのように見える拡張現実を実現できるようになる。   In this way, it becomes possible to realize an augmented reality that looks as if a three-dimensional object has popped out of the virtual space behind the opening.

また本発明の一態様では、前記画像生成部は、前記撮像画像を撮影する撮像部と前記認識対象物との位置関係情報に応じた描画処理を行って、前記仮想空間画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate the virtual space image by performing drawing processing according to positional relationship information between the imaging unit that captures the captured image and the recognition object. Good.

このようにすれば、撮像部と認識対象物との位置関係に応じて、仮想空間画像が変化するような画像を生成して、開口部の画像領域に表示できるようになる。   In this way, it is possible to generate an image in which the virtual space image changes according to the positional relationship between the imaging unit and the recognition object and display it in the image area of the opening.

また本発明の一態様では、前記仮想空間において前記撮像部に対応する位置に仮想カメラを設定する仮想カメラ設定部を含み(仮想カメラ設定部としてコンピュータを機能させ)、前記画像生成部は、前記仮想カメラから見える画像を前記仮想空間画像として生成してもよい。   In one aspect of the present invention, a virtual camera setting unit that sets a virtual camera at a position corresponding to the imaging unit in the virtual space (a computer functions as a virtual camera setting unit), and the image generation unit An image visible from a virtual camera may be generated as the virtual space image.

このようにすれば、撮像部に対応する位置に設定された仮想カメラにより見える画像を、仮想空間画像として生成して、開口部の画像領域に表示できるようになる。   In this way, an image that can be seen by the virtual camera set at a position corresponding to the imaging unit can be generated as a virtual space image and displayed in the image area of the opening.

また本発明の一態様では、前記画像生成部は、前記撮像画像を撮影する撮像部と前記認識対象物との位置関係情報に応じて、前記仮想空間画像の視認性を変化させる処理を行ってもよい。   In one aspect of the present invention, the image generation unit performs a process of changing the visibility of the virtual space image according to positional relationship information between the imaging unit that captures the captured image and the recognition target object. Also good.

このようにすれば、例えば撮像部と認識対象物との位置関係が適切な場合には、仮想空間画像の視認性が高くなり、そうでない場合には視認性が低くなるような演出処理を実現できるようになる。   In this way, for example, when the positional relationship between the imaging unit and the recognition target object is appropriate, the visibility of the virtual space image is increased, and otherwise the rendering process is reduced. become able to.

また本発明の一態様では、前記撮像画像を撮影する撮像部と前記認識対象物との位置関係情報に応じて変化する音の生成処理を行う音生成部を含んでもよい(音生成部としてコンピュータを機能させてもよい)。   Moreover, in one aspect of the present invention, a sound generation unit that performs a sound generation process that changes according to positional relationship information between an imaging unit that captures the captured image and the recognition object may be included (a computer as the sound generation unit) May work).

このようにすれば、撮像部と認識対象物との位置関係に応じて変化する音が生成されてユーザに出力されるようになり、例えば仮想空間の中から音が聞こえてくるような演出処理等を実現できるようになる。   In this way, a sound that changes according to the positional relationship between the imaging unit and the recognition object is generated and output to the user. For example, an effect process in which sound can be heard from within the virtual space Etc. can be realized.

また本発明の一態様では、前記認識対象物の情報に関連づけて前記3次元オブジェクトの情報が記憶部に記憶されており、前記仮想空間設定部は、前記認識対象物の情報に関連づけられた前記3次元オブジェクトを、前記仮想空間に配置設定してもよい。   In one aspect of the present invention, information on the three-dimensional object is stored in a storage unit in association with information on the recognition target object, and the virtual space setting unit is associated with the information on the recognition target object. A three-dimensional object may be arranged and set in the virtual space.

このようにすれば、認識対象物の情報に関連づけられた3次元オブジェクトが仮想空間に配置される仮想空間画像を生成して、当該仮想空間画像が開口部の画像領域に表示される画像を生成できるようになる。   In this way, a virtual space image in which the three-dimensional object associated with the information on the recognition target object is arranged in the virtual space is generated, and an image in which the virtual space image is displayed in the image area of the opening is generated. become able to.

また本発明の一態様では、前記認識処理部は、電子機器の表示部に表示された画像を、前記認識対象物として認識する処理を行ってもよい。   In the aspect of the invention, the recognition processing unit may perform a process of recognizing an image displayed on the display unit of the electronic device as the recognition target object.

このようにすれば、電子機器の表示部に表示された画像を認識対象物として認識して、認識対象物の場所に対応する開口部の画像領域に、3次元オブジェクトの画像により構成される仮想空間画像が表示される画像を生成できるようになる。   According to this configuration, an image displayed on the display unit of the electronic device is recognized as a recognition target object, and a virtual image configured by a three-dimensional object image is formed in the image area of the opening corresponding to the location of the recognition target object. An image on which a spatial image is displayed can be generated.

また本発明の一態様では、前記認識処理部は、玩具又は物品を、前記認識対象物として認識する処理を行ってもよい。   In the aspect of the invention, the recognition processing unit may perform a process of recognizing a toy or an article as the recognition target object.

このようにすれば、玩具又は物品を認識対象物として認識して、認識対象物の場所に対応する開口部の画像領域に、3次元オブジェクトの画像により構成される仮想空間画像が表示される画像を生成できるようになる。   In this way, an image in which a toy or an article is recognized as a recognition object and a virtual space image composed of an image of a three-dimensional object is displayed in the image area of the opening corresponding to the location of the recognition object. Can be generated.

本実施形態の画像生成システムの構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an image generation system according to an embodiment. 認識対象物についての説明図。Explanatory drawing about a recognition target object. 本実施形態の手法の説明図。Explanatory drawing of the method of this embodiment. 本実施形態の手法の説明図。Explanatory drawing of the method of this embodiment. 本実施形態の手法の説明図。Explanatory drawing of the method of this embodiment. 本実施形態の手法により生成される画像の例。The example of the image produced | generated by the method of this embodiment. 本実施形態の手法により生成される画像の例。The example of the image produced | generated by the method of this embodiment. 本実施形態の手法により生成される画像の例。The example of the image produced | generated by the method of this embodiment. ユーザの端末装置の撮像部と認識対象物との位置関係情報に応じて描画処理等を行う手法の説明図。Explanatory drawing of the method of performing a drawing process etc. according to the positional relationship information of the imaging part of a user's terminal device, and a recognition target object. ユーザが装着するHMDの撮像部と認識対象物との位置関係情報に応じて描画処理等を行う手法の説明図。Explanatory drawing of the method of performing a drawing process etc. according to the positional relationship information of the imaging part of HMD which a user wears, and a recognition target object. 図11(A)〜図11(C)は撮像部と認識対象物との位置関係情報に応じて仮想空間画像の視認性を変化させたり、音を変化させる手法の説明図。FIGS. 11A to 11C are explanatory diagrams of a technique for changing the visibility of the virtual space image or changing the sound in accordance with the positional relationship information between the imaging unit and the recognition target object. 認識対象物情報の一例を示す図。The figure which shows an example of recognition target object information. 図13(A)、図13(B)は電子機器の表示部に表示される画像を認識対象物として認識する手法の説明図。13A and 13B are explanatory diagrams of a method for recognizing an image displayed on a display unit of an electronic device as a recognition target object. 図14(A)、図14(B)は玩具又は物品を認識対象物として認識する手法の説明図。14A and 14B are explanatory diagrams of a method for recognizing a toy or an article as a recognition object. 本実施形態の変形例の手法の説明図。Explanatory drawing of the method of the modification of this embodiment. 本実施形態の変形例の手法の説明図。Explanatory drawing of the method of the modification of this embodiment. 本実施形態の処理例を示すフローチャート。The flowchart which shows the process example of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.画像生成システム
図1は、本実施形態の画像生成システム(画像生成装置、端末装置、HMD)の構成例を示すブロック図である。なお、本実施形態の画像生成システムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Image Generation System FIG. 1 is a block diagram illustrating a configuration example of an image generation system (an image generation device, a terminal device, and an HMD) according to the present embodiment. Note that the image generation system of the present embodiment is not limited to the configuration of FIG. 1, and various modifications such as omitting some of the components (each unit) or adding other components are possible. .

操作部160は、ユーザ(プレーヤ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、レバー又はタッチパネル型ディスプレイ等により実現できる。   The operation unit 160 is for a user (player) to input various operation information (input information). The operation unit 160 can be realized by an operation button, a direction instruction key, a joystick, a lever, a touch panel display, or the like.

撮像部162(カメラ)は、被写体(撮像対象物)の撮影を行うものであり、CCDやCMOSセンサなどの画像センサと、フォーカスレンズ等により構成される光学系などにより実現される。   The imaging unit 162 (camera) captures a subject (imaging target), and is realized by an optical system including an image sensor such as a CCD or CMOS sensor, a focus lens, and the like.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。プログラムや、プログラムの実行に必要なデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、オブジェクト情報記憶部172、描画バッファ174、認識対象物情報記憶部176を含む。   The storage unit 170 stores various types of information. The storage unit 170 functions as a work area such as the processing unit 100 or the communication unit 196. A program and data necessary for executing the program are held in the storage unit 170. The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), HDD (Hard Disk Drive), SSD, optical disk device, or the like. The storage unit 170 includes an object information storage unit 172, a drawing buffer 174, and a recognition target object information storage unit 176.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), HDD, semiconductor memory (ROM), or the like. . The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an input device, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ又はヘッドホン等により実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, a touch panel display, an HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。   The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC for I / F processing or the like. The portable information storage medium 195 is for a user to save various types of information, and is a storage device that retains storage of such information even when power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (another apparatus) via a wired or wireless network, and functions thereof are hardware such as a communication ASIC or communication processor, or communication firmware. Can be realized.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. May be. Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作情報やプログラムなどに基づいて、画像取得処理、認識処理、仮想空間設定処理、仮想カメラ設定処理、画像生成処理、或いは音生成処理などを行う。   The processing unit 100 (processor) performs image acquisition processing, recognition processing, virtual space setting processing, virtual camera setting processing, image generation processing, sound generation processing, and the like based on operation information and programs from the operation unit 160. .

処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。   Each processing (each function) of this embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware. For example, the processor may include hardware, and the hardware may include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal. For example, the processor can be configured by one or a plurality of circuit devices (for example, ICs) mounted on a circuit board or one or a plurality of circuit elements (for example, resistors, capacitors, etc.). The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. The processor may be an ASIC hardware circuit. The processor may include an amplifier circuit, a filter circuit, and the like that process an analog signal. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD) or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and the processing (function) of each unit of the processing unit 100 is realized by executing the instructions by the processor. The instruction here may be an instruction set constituting a program, or an instruction for instructing an operation to the hardware circuit of the processor.

処理部100は、画像取得部112、認識処理部114、仮想空間設定部116、仮想カメラ設定部118、画像生成部120、音生成部130を含む。画像生成部120は画像合成部122を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes an image acquisition unit 112, a recognition processing unit 114, a virtual space setting unit 116, a virtual camera setting unit 118, an image generation unit 120, and a sound generation unit 130. The image generation unit 120 includes an image composition unit 122. As described above, each process of the present embodiment executed by these units can be realized by a processor (or a processor and a memory). Various modifications such as omitting some of these components (each unit) or adding other components are possible.

画像取得部112(画像取得処理のプログラムモジュール)は撮像画像を取得する。認識処理部114(認識処理のプログラムモジュール)は撮像画像に対する認識処理を行う。   The image acquisition unit 112 (program module for image acquisition processing) acquires a captured image. The recognition processing unit 114 (recognition processing program module) performs recognition processing on a captured image.

仮想空間設定部116(仮想空間設定処理のプログラムモジュール)は、複数のオブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。仮想空間設定部116は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。   The virtual space setting unit 116 (virtual space setting processing program module) performs setting processing of a virtual space (object space) in which a plurality of objects are arranged. For example, various objects representing display objects such as moving objects (people, robots, cars, trains, airplanes, ships, monsters, animals, etc.), maps (terrain), buildings, auditoriums, courses (roads), trees, walls, water surfaces, etc. A process of placing and setting an object (an object composed of a primitive surface such as a polygon, a free-form surface, or a subdivision surface) in a virtual space is performed. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, in the object information storage unit 172 of the storage unit 170, object information that is information such as the position, rotation angle, moving speed, and moving direction of an object (part object) in the virtual space is associated with the object number. Is remembered. The virtual space setting unit 116 performs a process of updating the object information for each frame, for example.

仮想カメラ設定部118(仮想カメラ設定処理のプログラムモジュール)は、仮想空間内に仮想カメラを設定する処理を行う。この仮想カメラから見える画像が仮想空間画像として生成される。   The virtual camera setting unit 118 (virtual camera setting processing program module) performs processing for setting a virtual camera in the virtual space. An image seen from the virtual camera is generated as a virtual space image.

画像生成部120(画像生成処理のプログラムモジュール)は、画像の生成処理を行う。例えば処理部100で行われる種々の処理(仮想空間設定処理、仮想カメラ設定処理等)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ174(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、仮想空間において仮想カメラから見える画像が生成される。なお画像生成部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The image generation unit 120 (program module for image generation processing) performs image generation processing. For example, drawing processing is performed based on the results of various processing (virtual space setting processing, virtual camera setting processing, etc.) performed by the processing unit 100, thereby generating an image and displaying it on the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Then, based on this drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 174 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. Thereby, an image that can be seen from the virtual camera in the virtual space is generated. Note that the drawing processing performed by the image generation unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.

音生成部130(音生成処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音の生成処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などを生成し、音出力部192に出力させる。   The sound generation unit 130 (sound generation processing program module) performs sound generation processing based on the results of various processing performed by the processing unit 100. Specifically, music (music, BGM), sound effects, sound, or the like is generated and output to the sound output unit 192.

そして本実施形態の画像生成システムは、図1に示すように、画像取得部112と認識処理部114と仮想空間設定部116と画像生成部120を含む。   The image generation system according to the present embodiment includes an image acquisition unit 112, a recognition processing unit 114, a virtual space setting unit 116, and an image generation unit 120, as shown in FIG.

画像取得部112は撮像画像を取得する。例えば撮像部162で撮影された撮像画像を取得する。なお、通信部196から受信した画像や記憶部170に記憶された画像を撮像画像として取得してもよい。   The image acquisition unit 112 acquires a captured image. For example, a captured image captured by the imaging unit 162 is acquired. Note that an image received from the communication unit 196 or an image stored in the storage unit 170 may be acquired as a captured image.

認識処理部114は、取得された撮像画像に対する認識処理を行う。例えば撮像画像に映る認識対象物の認識処理を行う。例えば認識処理部114は、取得された撮像画像と、認識対象物情報記憶部176に記憶されている認識対象物の登録画像を用いたマッチング処理を行う。そしてこのマッチング処理により、撮像画像内に、認識対象物の登録画像に対応する認識対象物の画像が存在するか否かを検出する。例えば認識対象物情報記憶部176には、認識対象物の登録画像の情報として、認識対象物の特徴点情報が記憶されている。認識処理部114は、認識対象物の登録画像の特徴点情報と、撮像画像での認識対象物の特徴点情報のマッチング処理を行うことで、撮像画像に映る認識対象物の認識処理を行う。そしてこの認識処理の結果に基づいて、例えば撮像部162と認識対象物との位置関係情報を推定する。例えば認識された認識対象物の大きさ、形状等から撮像部162と認識対象物との位置関係情報を推定する。即ち認識対象物が映る撮像画像を撮影する撮像部162の位置姿勢を推定する。このような位置姿勢の推定により、撮像画像を撮影する撮像部162(ユーザの端末装置又は視点)と認識対象物との位置関係情報を求めることができる。   The recognition processing unit 114 performs a recognition process on the acquired captured image. For example, the recognition process of the recognition target object shown in the captured image is performed. For example, the recognition processing unit 114 performs a matching process using the acquired captured image and a registered image of the recognition object stored in the recognition object information storage unit 176. And by this matching process, it is detected whether the image of the recognition target object corresponding to the registration image of a recognition target object exists in a captured image. For example, the recognition object information storage unit 176 stores the feature point information of the recognition object as information of the registered image of the recognition object. The recognition processing unit 114 performs recognition processing of the recognition target object displayed in the captured image by performing matching processing between the feature point information of the registered image of the recognition target object and the feature point information of the recognition target object in the captured image. Based on the result of the recognition processing, for example, positional relationship information between the imaging unit 162 and the recognition target is estimated. For example, the positional relationship information between the imaging unit 162 and the recognition object is estimated from the size, shape, and the like of the recognized recognition object. That is, the position and orientation of the imaging unit 162 that captures a captured image in which the recognition target object is captured is estimated. By estimating the position and orientation as described above, it is possible to obtain positional relationship information between the imaging unit 162 (the user's terminal device or viewpoint) that captures the captured image and the recognition target object.

ここで認識対象物は例えばARマーカである。但し認識対象物は、ARマーカには限定されず、マーカレス型ARのように、特徴点や輪郭形状のマッチング処理により認識される対象物であってもよい。即ち、認識対象物は、正方形マーカや特殊形状マーカのようなARマーカには限定されず、自然特徴点マッチングや輪郭形状マッチングの処理により認識されるARの対象物であってもよい。   Here, the recognition target is, for example, an AR marker. However, the recognition target is not limited to the AR marker, and may be a target recognized by a feature point or contour shape matching process like a markerless AR. That is, the recognition target is not limited to an AR marker such as a square marker or a special shape marker, and may be an AR target recognized by natural feature point matching or contour shape matching processing.

仮想空間設定部116は、少なくとも1つの3次元オブジェクトとマスクオブジェクトを仮想空間に配置設定する処理を行う。具体的には、少なくとも1つの3次元オブジェクトと、3次元オブジェクトに対して所定の関係性をもって配置されるマスクオブジェクトとを、仮想空間に配置設定する処理を行う。所定の関係性(所与の関係性)は、例えば3次元オブジェクトとマスクオブジェクトの相対的な位置関係性や方向関係性などである。例えばマスクオブジェクトにより3次元オブジェクトの表示をマスクできるような関係性で、3次元オブジェクトとマスクオブジェクトが仮想空間に配置設定される。また仮想空間設定部116は、例えばキャラクタのオブジェクトや背景のオブジェクトなどの3次元オブジェクトを仮想空間に配置設定する。3次元オブジェクトは、1又は複数のプリミティブ面(ポリゴン等)により構成される表示物である。また仮想空間設定部116は、3次元オブジェクトをマスクするためのマスクオブジェクトを仮想空間に配置設定する。例えば開口部以外の場所では3次元オブジェクトが表示されないようにするためのマスクオブジェクト(不透明オブジェクト)を仮想空間に配置設定する。   The virtual space setting unit 116 performs processing for setting the arrangement of at least one three-dimensional object and a mask object in the virtual space. Specifically, a process of arranging and setting in the virtual space at least one three-dimensional object and a mask object arranged with a predetermined relationship with the three-dimensional object is performed. The predetermined relationship (given relationship) is, for example, a relative positional relationship or a directional relationship between the three-dimensional object and the mask object. For example, the 3D object and the mask object are arranged and set in the virtual space with such a relationship that the display of the 3D object can be masked by the mask object. The virtual space setting unit 116 sets and arranges a three-dimensional object such as a character object or a background object in the virtual space. A three-dimensional object is a display object composed of one or a plurality of primitive surfaces (polygons or the like). The virtual space setting unit 116 sets and arranges a mask object for masking the three-dimensional object in the virtual space. For example, a mask object (opaque object) for preventing a three-dimensional object from being displayed in a place other than the opening is arranged and set in the virtual space.

そして画像生成部120は、開口部の画像領域(描画領域)には、仮想空間画像が表示され、開口部の周囲の画像領域(描画領域)には、撮像画像が表示される画像を生成する。具体的には画像生成部120は、認識対象物の場所に対応して設定された開口部の画像領域には、3次元オブジェクトの画像により構成される仮想空間画像が表示される画像を生成する。一方、開口部の周囲の画像領域(開口部以外の画像領域)には、3次元オブジェクトがマスクオブジェクトによりマスクされることにより撮像画像が表示される画像を生成する。   Then, the image generation unit 120 generates an image in which the virtual space image is displayed in the image area (drawing area) of the opening and the captured image is displayed in the image area (drawing area) around the opening. . Specifically, the image generation unit 120 generates an image in which a virtual space image composed of an image of a three-dimensional object is displayed in the image area of the opening set corresponding to the location of the recognition target object. . On the other hand, in the image area around the opening (image area other than the opening), an image in which the captured image is displayed is generated by masking the three-dimensional object with the mask object.

開口部の画像領域は、例えば認識処理部114での認識対象物の認識結果に基づいて設定される。例えば撮像画像に映る認識対象物の大きさ、形状に対応する大きさ、形状の画像領域が、開口部(のぞき穴)の画像領域として設定される。そして、この開口部の画像領域には、3次元オブジェクトの画像により構成される仮想空間画像が表示される。そして、開口部の画像領域には仮想空間画像が表示され、開口部の周囲の画像領域には撮像画像が表示されるように、仮想空間画像と撮像画像の合成処理が行われる。この画像合成処理は画像合成部122が行う。ここで開口部の周囲の画像領域は、開口部を中心とした360度の全周囲の画像領域である必要はなく、全周囲の画像領域の一部の画像領域であってもよい。また3次元オブジェクトが開口部を跨ぐような画像においては、開口部の周囲の画像領域であっても、撮像画像ではなく、3次元オブジェクトの外側部分(開口部の外側部分)の画像が表示されていてもよい。   The image area of the opening is set based on the recognition result of the recognition object in the recognition processing unit 114, for example. For example, the size and shape image area corresponding to the size and shape of the recognition object shown in the captured image are set as the image area of the opening (a peephole). A virtual space image composed of an image of a three-dimensional object is displayed in the image area of the opening. Then, the virtual space image and the captured image are combined so that the virtual space image is displayed in the image area of the opening and the captured image is displayed in the image area around the opening. This image composition processing is performed by the image composition unit 122. Here, the image area around the opening need not be a 360-degree all-around image area centered on the opening, but may be a partial image area of the all-around image area. In addition, in an image in which a 3D object straddles an opening, an image of an outer part of the 3D object (outer part of the opening) is displayed instead of a captured image even in an image region around the opening. It may be.

また仮想空間画像は、仮想空間において仮想カメラから見える画像であり、所定の関係性は、例えば仮想カメラから見て、マスクオブジェクトの所定面よりも奥側に3次元オブジェクトが位置するという関係性である。このようにすれば、マスクオブジェクトの所定面の奥側に仮想空間が存在するかのような拡張現実の画像を生成できるようになる。この場合に、当該所定の関係性においては、複数の3次元オブジェクトのうちの一部の3次元オブジェクト(例えばキャラクタのオブジェクト)の一部又は全部が、仮想カメラから見て所定面の手前側に移動したり配置されるなどのイベントが発生することは許容される。また所定面はマスクオブジェクトの面のうち例えば仮想カメラから見て手前側にある面である。例えばマスクオブジェクトが複数の面で構成される場合に、所定面は、これらの複数の面のうち仮想カメラから見て奥側にある面(例えば最も奥側にある面)である。例えば所定面は、複数の面のうち仮想カメラからの奥行き距離が近い面(例えば奥行き距離が最も近い面)である。また所定面は、例えば開口部に対応する場所に位置する面である。例えば仮想カメラを基準とした所定面の奥行き距離と、仮想カメラを基準とした開口部の奥行き距離は、同等の距離とすることができる。   The virtual space image is an image that can be seen from the virtual camera in the virtual space, and the predetermined relationship is, for example, a relationship in which the three-dimensional object is located behind the predetermined surface of the mask object when viewed from the virtual camera. is there. In this way, it is possible to generate an augmented reality image as if a virtual space exists behind the predetermined surface of the mask object. In this case, in the predetermined relationship, a part or all of some of the three-dimensional objects (for example, character objects) of the plurality of three-dimensional objects are located on the near side of the predetermined plane when viewed from the virtual camera. Events such as movement and placement are allowed to occur. The predetermined plane is a plane on the near side as viewed from the virtual camera, for example, among the mask object planes. For example, when the mask object is composed of a plurality of surfaces, the predetermined surface is a surface on the back side when viewed from the virtual camera (for example, a surface on the deepest side) among the plurality of surfaces. For example, the predetermined surface is a surface having a short depth distance from the virtual camera (for example, a surface having the closest depth distance) among the plurality of surfaces. The predetermined surface is a surface located at a location corresponding to the opening, for example. For example, the depth distance of a predetermined surface based on the virtual camera and the depth distance of the opening portion based on the virtual camera can be set to the same distance.

また仮想空間設定部116は、開口部を内包する第1の面を有するマスクオブジェクトを、仮想空間に配置設定する。例えばマスクオブジェクトは、開口部を内包する第1の面を少なくとも有していればよい。第1の面は、例えば開口部の面から開口部の周囲方向に広がる面である。   The virtual space setting unit 116 sets and arranges a mask object having a first surface including the opening in the virtual space. For example, the mask object only needs to have at least a first surface including the opening. The first surface is, for example, a surface that spreads from the surface of the opening to the periphery of the opening.

この場合に、所定の関係性は、仮想カメラから見て、マスクオブジェクトの第1の面よりも奥側に3次元オブジェクトが位置するという関係性とすることができる。即ちこの場合には、第1の面が、上述の所定面となる。このようにすれば、仮想カメラから見て、マスクオブジェクトの第1の面(広義には所定面)の奥側に3次元オブジェクトが存在するというような関係性を持たせることが可能になり、マスクオブジェクトの第1の面の奥側に仮想空間が存在するかのような拡張現実の画像を生成できるようになる。この場合に、当該所定の関係性においては、複数の3次元オブジェクトのうちの一部の3次元オブジェクトの一部又は全部が、仮想カメラから見て第1の面の手前側に移動したり配置されるなどのイベントが発生することは許容される。   In this case, the predetermined relationship can be a relationship in which the three-dimensional object is located behind the first surface of the mask object as viewed from the virtual camera. That is, in this case, the first surface is the above-described predetermined surface. This makes it possible to have a relationship such that a three-dimensional object exists behind the first surface (a predetermined surface in a broad sense) of the mask object as viewed from the virtual camera. It becomes possible to generate an augmented reality image as if a virtual space exists behind the first surface of the mask object. In this case, in the predetermined relationship, a part or all of a part of the three-dimensional objects among the plurality of three-dimensional objects is moved or arranged on the front side of the first surface when viewed from the virtual camera. It is permissible for an event such as

また仮想空間設定部116は、第1の面と、第1の面に交差する少なくとも1つの面とを有するマスクオブジェクトを、仮想空間に配置設定してもよい。即ち、この場合にはマスクオブジェクトは、第1の面と、第1の面に交差する少なくとも1つの面により構成される。例えば第1の面に交差(直交)する面が、第2、第3、第4、第5の面ある場合には、マスクオブジェクトは第1〜第5の面により構成される例えば立方体又は直方体のオブジェクトになる。この立方体又は直方体のオブジェクトは、第2〜第5の面に交差(直交)する第6の面を有していてもよい。この第6の面は第1の面に対向する面である。   In addition, the virtual space setting unit 116 may place and set a mask object having a first surface and at least one surface intersecting the first surface in the virtual space. That is, in this case, the mask object includes a first surface and at least one surface intersecting the first surface. For example, when there are second, third, fourth, and fifth surfaces intersecting (orthogonal) with the first surface, the mask object is constituted by the first to fifth surfaces, for example, a cube or a rectangular parallelepiped. Become an object. The cubic or rectangular parallelepiped object may have a sixth surface that intersects (orthogonally) the second to fifth surfaces. The sixth surface is a surface facing the first surface.

この場合に、所定の関係性は、第1の面(所定面)と少なくとも1つの面(所定面に交差する少なくとも1つの面)とにより囲まれる領域に3次元オブジェクトが位置するという関係性とすることができる。このようにすれば、マスクオブジェクトの第1の面(所定面)と少なくとも1つの面(所定面に交差する少なくとも1つの面)とにより囲まれる領域内に、3次元オブジェクトを位置させることで、マスクオブジェクトを用いて、より確実に3次元オブジェクトをマスクできるようになる。例えば少なくとも1つの面が、上述の第2〜第5の面である場合には、所定の関係性は、第1〜第5の面で囲まれる領域内に3次元オブジェクトが位置するという関係性になる。また少なくとも1つの面が、上述の第2〜第6の面である場合には、所定の関係性は、第1〜第6の面で囲まれる領域内に3次元オブジェクトが位置するという関係性になる。なお、複数の3次元オブジェクトのうちの一部の3次元オブジェクト(例えばキャラクタのオブジェクト)の一部又は全部が、第1の面と少なくとも1つの面とにより囲まれる領域(第1〜第5の面により囲まれる領域又は第1〜第6の面により囲まれる領域)の外に移動したり配置されるなどのゲーム演出が行われてもよい。   In this case, the predetermined relationship is a relationship in which the three-dimensional object is located in a region surrounded by the first surface (predetermined surface) and at least one surface (at least one surface intersecting the predetermined surface). can do. In this way, by positioning the three-dimensional object in a region surrounded by the first surface (predetermined surface) and at least one surface (at least one surface intersecting the predetermined surface) of the mask object, Using a mask object, a three-dimensional object can be masked more reliably. For example, when at least one surface is the above-described second to fifth surfaces, the predetermined relationship is a relationship that a three-dimensional object is located in a region surrounded by the first to fifth surfaces. become. Further, when at least one surface is the above-described second to sixth surfaces, the predetermined relationship is a relationship that the three-dimensional object is located in a region surrounded by the first to sixth surfaces. become. It should be noted that some or all of some of the three-dimensional objects (for example, character objects) are surrounded by a first plane and at least one plane (first to fifth areas). A game effect such as movement or placement outside the area surrounded by the face or the area surrounded by the first to sixth faces may be performed.

また仮想空間設定部116は、開口部よりも奥側に3次元オブジェクトが位置するように、3次元オブジェクトを仮想空間に配置設定する。開口部よりも奥側とは、例えば撮像部162(ユーザの端末装置又は視点)から見た奥行き方向での奥側である。例えば仮想空間設定部116は、のぞき穴である開口部の奥側に3次元オブジェクトが表示されるように、3次元オブジェクトを仮想空間に配置設定する。この場合に3次元オブジェクトの一部が開口部よりも手前側にあってもよい。   In addition, the virtual space setting unit 116 sets the three-dimensional object in the virtual space so that the three-dimensional object is positioned on the back side of the opening. The back side with respect to the opening is, for example, the back side in the depth direction as viewed from the imaging unit 162 (the user's terminal device or viewpoint). For example, the virtual space setting unit 116 arranges and sets the three-dimensional object in the virtual space so that the three-dimensional object is displayed on the back side of the opening that is the viewing hole. In this case, a part of the three-dimensional object may be in front of the opening.

また仮想空間設定部116は、開口部を3次元オブジェクトが跨ぐように、3次元オブジェクトを仮想空間に配置設定する。ここで開口部を3次元オブジェクトが跨ぐとは、例えば3次元オブジェクトの一部が開口部よりも手前側にあり、3次元オブジェクトの他の部分が開口部よりも奥側にあることである。即ち仮想空間設定部116は、例えば3次元オブジェクトの一部が開口部よりも手前側に表示され、3次元オブジェクトの他の部分が開口部よりも奥側に表示されるように、3次元オブジェクトを仮想空間に配置設定する。   The virtual space setting unit 116 sets the three-dimensional object in the virtual space so that the three-dimensional object straddles the opening. Here, the three-dimensional object straddling the opening means that, for example, a part of the three-dimensional object is on the near side of the opening and the other part of the three-dimensional object is on the back side of the opening. That is, the virtual space setting unit 116 may display the 3D object such that, for example, a part of the 3D object is displayed on the front side of the opening and the other part of the 3D object is displayed on the back side of the opening. Is set in the virtual space.

また画像生成部120は、撮像画像を撮影する撮像部162と認識対象物との位置関係情報に応じた描画処理を行って、仮想空間画像を生成する。例えば撮像部162と認識対象物の位置関係情報は、ユーザの端末装置又はユーザの視点と認識対象物との位置関係情報に相当する。即ち画像生成部120は、ユーザの端末装置又は視点と認識対象物との位置関係情報に応じた描画処理を行って、仮想空間画像を生成する。ユーザの端末装置は、図1の画像生成システムにより実現される装置であり、例えば後述の図2に示すようなタブレット型PCやスマートフォンなどの端末装置10である。ユーザの視点は、例えば後述の図10に示すようにHMD(頭部装着型表示装置)を用いる場合におけるユーザの視点VPである。位置関係情報は、撮像部162(端末装置又は視点)を基準とした認識対象物の位置や方向、或いは認識対象物を基準とした撮像部162(端末装置又は視点)の位置や方向である。   In addition, the image generation unit 120 performs a drawing process according to the positional relationship information between the imaging unit 162 that captures the captured image and the recognition target, and generates a virtual space image. For example, the positional relationship information between the imaging unit 162 and the recognition target corresponds to the positional relationship information between the user's terminal device or the user's viewpoint and the recognition target. That is, the image generation unit 120 performs a drawing process according to the positional relationship information between the user terminal device or the viewpoint and the recognition target object, and generates a virtual space image. The user terminal device is a device realized by the image generation system of FIG. 1, and is, for example, a terminal device 10 such as a tablet PC or a smartphone as shown in FIG. 2 described later. The user's viewpoint is, for example, the user's viewpoint VP when using an HMD (head-mounted display device) as shown in FIG. The positional relationship information is the position and direction of the recognition object with reference to the imaging unit 162 (terminal device or viewpoint), or the position and direction of the imaging unit 162 (terminal device or viewpoint) with reference to the recognition object.

撮像部162と認識対象物との位置関係情報に応じた描画処理は、例えば位置関係情報に応じて開口部の画像領域を設定することである。本実施形態では、位置関係情報に応じた開口部に仮想空間画像が表示されるような画像合成を行う。また撮像部162と認識対象物との位置関係情報に応じた描画処理は、位置関係情報に応じた位置、方向に仮想カメラを設定して、3次元オブジェクトの描画処理を行うことである。   The drawing process according to the positional relationship information between the imaging unit 162 and the recognition target object is, for example, setting the image area of the opening according to the positional relationship information. In the present embodiment, image synthesis is performed such that a virtual space image is displayed in the opening according to the positional relationship information. In addition, the drawing process according to the positional relationship information between the imaging unit 162 and the recognition target object is to perform a three-dimensional object drawing process by setting a virtual camera at a position and a direction according to the positional relationship information.

具体的には仮想カメラ設定部118は、仮想空間において撮像部162に対応する位置に仮想カメラを設定する。例えば仮想空間において、撮像部162と認識対象物との位置関係情報に応じた位置、方向に仮想カメラを設定する。例えば現実世界での、撮像部162と認識対象物との位置関係情報が、仮想空間での、仮想カメラと、認識対象物に対応する開口部との位置関係情報が一致するように、仮想カメラを設定する。そして画像生成部120は、仮想カメラから見える画像を仮想空間画像として生成する。例えば現実世界において、撮像部162(ユーザの端末装置又は視点)に対して認識対象物が正対していた場合には、仮想空間の3次元オブジェクトの正面方向に設定された仮想カメラから見える画像が生成される。また撮像部162(ユーザの端末装置又は視点)に対して認識対象物が斜め方向に位置する場合には、仮想空間の3次元オブジェクトの斜め方向に設定された仮想カメラから見える画像が生成される。   Specifically, the virtual camera setting unit 118 sets a virtual camera at a position corresponding to the imaging unit 162 in the virtual space. For example, in the virtual space, the virtual camera is set at a position and a direction according to the positional relationship information between the imaging unit 162 and the recognition target object. For example, in the real world, the positional relationship information between the imaging unit 162 and the recognition target object matches the positional relationship information between the virtual camera in the virtual space and the opening corresponding to the recognition target object. Set. Then, the image generation unit 120 generates an image that can be seen from the virtual camera as a virtual space image. For example, in the real world, when the recognition target is directly facing the imaging unit 162 (the user's terminal device or viewpoint), an image that can be seen from the virtual camera set in the front direction of the three-dimensional object in the virtual space is displayed. Generated. Further, when the recognition target is located in an oblique direction with respect to the imaging unit 162 (user terminal device or viewpoint), an image that can be seen from a virtual camera set in an oblique direction of a three-dimensional object in the virtual space is generated. .

また画像生成部120は、撮像部162(ユーザの端末装置又は視点)と認識対象物との位置関係情報に応じて、仮想空間画像の視認性を変化させる処理を行う。仮想空間画像の視認性を変化させる処理は、仮想空間画像の視認性を高めたり、低めたりする処理である。視認性を変化させる処理は、例えば仮想空間画像の明度、コントラスト、半透明度又はぼかし度等を変化させる処理により実現できる。例えば撮像部162に対して認識対象物が正対している場合には、仮想空間画像の視認性を例えば高める処理を行う。例えば仮想空間画像の明度を明るくしたり、コントラストを高めたり、より不透明になるようにしたり、ぼかし度を少なくする処理を行う。また撮像部162に対して認識対象物が斜め方向に位置している場合には、正対している場合に比べて、仮想空間画像の視認性を例えば低める処理を行う。例えば仮想空間画像の明度を暗くしたり、コントラストを低くしたり、より透明になるようにしたり、ぼかし度を大きくする処理を行う。   In addition, the image generation unit 120 performs a process of changing the visibility of the virtual space image in accordance with the positional relationship information between the imaging unit 162 (the user's terminal device or viewpoint) and the recognition target object. The process for changing the visibility of the virtual space image is a process for increasing or decreasing the visibility of the virtual space image. The process for changing the visibility can be realized by, for example, a process for changing the brightness, contrast, translucency or blurring degree of the virtual space image. For example, when the recognition object is directly facing the imaging unit 162, a process for increasing the visibility of the virtual space image is performed, for example. For example, processing for increasing the brightness of the virtual space image, increasing the contrast, making it more opaque, or reducing the blur level is performed. Further, when the recognition target object is located in an oblique direction with respect to the imaging unit 162, for example, a process of reducing the visibility of the virtual space image is performed as compared with the case where the recognition object is facing directly. For example, a process of darkening the brightness of the virtual space image, lowering the contrast, making it more transparent, or increasing the blurring degree is performed.

また本実施形態の画像生成システムは音生成部130を有しており、音生成部130は、撮像部162(ユーザの端末装置又は視点)と認識対象物との位置関係情報に応じて変化する音の生成処理を行う。例えば音生成部130は、撮像部162と認識対象物の距離が近い場合には、生成される音の音量を大きくし、撮像部162と認識対象物の距離が遠い場合には、距離が近い場合に比べて、生成される音の音量を小さくする。即ち、撮像部162と認識対象物との相対的な位置関係に応じて、音の音量等の音パラメータを変化させる。なお、撮像部162と認識対象物との位置関係情報に応じて、音の高さ、音色等を変化させてもよい。このように撮像部162と認識対象物との位置関係情報に応じて音を変化させるとは、例えば位置関係情報に応じて音の大きさ、高さ及び音色等の少なくとも1つを変化させることである。このような音の生成処理は、例えば開口部の奥側に設定される仮想空間の位置に、生成される音の音源を設定することなどにより実現できる。   In addition, the image generation system of the present embodiment includes a sound generation unit 130, and the sound generation unit 130 changes in accordance with positional relationship information between the imaging unit 162 (user terminal device or viewpoint) and the recognition target object. Performs sound generation processing. For example, the sound generation unit 130 increases the volume of the generated sound when the distance between the imaging unit 162 and the recognition target is short, and the distance is short when the distance between the imaging unit 162 and the recognition target is long. Compared to the case, the volume of the generated sound is reduced. That is, sound parameters such as sound volume are changed according to the relative positional relationship between the imaging unit 162 and the recognition object. Note that the pitch, timbre, and the like of the sound may be changed according to the positional relationship information between the imaging unit 162 and the recognition object. In this way, changing the sound according to the positional relationship information between the imaging unit 162 and the recognition target means changing at least one of the volume, the height, the tone color, and the like according to the positional relationship information, for example. It is. Such sound generation processing can be realized, for example, by setting the sound source of the generated sound at the position of the virtual space set on the back side of the opening.

また本実施形態では、認識対象物の情報に関連づけて3次元オブジェクトの情報が記憶部170に記憶されている。例えば記憶部170の認識対象物情報記憶部176が、認識対象物に関連づけて3次元オブジェクトの情報(キャラクタの情報、仮想空間の設定情報)を記憶している。そして仮想空間設定部116は、認識対象物の情報に関連づけられた3次元オブジェクトを、仮想空間に配置設定する。例えば認識処理部114が、撮像画像に認識対象物が映っていることを認識すると、認識された認識対象物に関連づけられた3次元オブジェクトの情報が、記憶部170(認識対象物情報記憶部176)から読み出される。仮想空間設定部116は、読み出された3次元オブジェクトの情報に基づいて、当該3次元オブジェクトを仮想空間に配置設置する処理を行う。例えばキャラクタのオブジェクトや背景のオブジェクトなどの3次元オブジェクトを仮想空間に配置設定する。そして、このように設定された仮想空間において、例えば撮像部162と認識対象物との位置関係情報に応じた位置に仮想カメラが設定され、この仮想カメラから見える画像が仮想空間画像として生成される。そして開口部の場所に仮想空間画像が表示され、開口部の以外の場所に撮像画像が表示された画像が生成される。   In the present embodiment, information about the three-dimensional object is stored in the storage unit 170 in association with the information about the recognition target. For example, the recognition target object information storage unit 176 of the storage unit 170 stores information of a three-dimensional object (character information, virtual space setting information) in association with the recognition target object. Then, the virtual space setting unit 116 sets and arranges the three-dimensional object associated with the information on the recognition target object in the virtual space. For example, when the recognition processing unit 114 recognizes that the recognition target object is reflected in the captured image, information on the three-dimensional object associated with the recognized recognition target object is stored in the storage unit 170 (recognition target information storage unit 176). ). The virtual space setting unit 116 performs processing for arranging and installing the three-dimensional object in the virtual space based on the read information of the three-dimensional object. For example, a three-dimensional object such as a character object or a background object is set in the virtual space. In the virtual space thus set, for example, a virtual camera is set at a position corresponding to the positional relationship information between the imaging unit 162 and the recognition object, and an image that can be seen from the virtual camera is generated as a virtual space image. . Then, a virtual space image is displayed at the location of the opening, and an image in which the captured image is displayed at a location other than the opening is generated.

また認識処理部114は、電子機器の表示部に表示された画像を、認識対象物として認識する処理を行ってもよい。例えば電子機器の表示部に表示されたキャラクタ等の表示物を、認識対象物として認識する処理を行う。例えば前述したマーカレス型ARのように、特徴点や輪郭形状のマッチング処理等により、キャラクタ等の表示物を、認識対象物として認識する処理を行う。例えば認識対象物情報記憶部176には、当該表示物の登録情報として、当該表示物の登録特徴点情報又は登録輪郭形状情報が記憶されている。認識処理部114は、この登録特徴点情報又は登録輪郭形状情報と、撮像画像に映るキャラクタ等の表示物の特徴点情報又は輪郭形状情報との特徴点マッチング処理又は輪郭形状マッチング処理を行って、撮像画像に映る表示物が、登録されている表示物にマッチングするかを認識する。そして、マッチングしたと判断された場合には、認識対象物である表示物に関連づけられた3次元オブジェクトの情報が、記憶部170から読み出されて、仮想空間画像が生成される。ここで電子機器としては、例えばゲーム機や、PC又ノートPC等の情報処理装置や、スマートフォン又は携帯電話等の携帯型端末装置や、映像機器や、オーディオ機器や、或いはナビゲーション装置等の車載機器などの種々の機器を想定できる。   The recognition processing unit 114 may perform processing for recognizing an image displayed on the display unit of the electronic device as a recognition target object. For example, a process of recognizing a display object such as a character displayed on the display unit of the electronic device as a recognition target object is performed. For example, like the markerless AR described above, processing for recognizing a display object such as a character as a recognition target object is performed by matching processing of feature points and contour shapes. For example, the recognition target object information storage unit 176 stores registered feature point information or registered contour shape information of the display object as registration information of the display object. The recognition processing unit 114 performs a feature point matching process or a contour shape matching process between the registered feature point information or the registered contour shape information and the feature point information or the contour shape information of a display object such as a character shown in the captured image, It recognizes whether the display object shown in the captured image matches the registered display object. If it is determined that they match, the information of the three-dimensional object associated with the display object that is the recognition target is read from the storage unit 170, and a virtual space image is generated. Here, as the electronic device, for example, an information processing device such as a game machine, a PC or a notebook PC, a portable terminal device such as a smartphone or a mobile phone, an in-vehicle device such as a video device, an audio device, or a navigation device. Various devices such as can be assumed.

また認識処理部114は、玩具又は物品を、認識対象物として認識する処理を行ってもよい。例えば前述したマーカレス型ARのように、特徴点や輪郭形状のマッチング処理等により、玩具又は物品を、認識対象物として認識する処理を行う。例えば認識対象物情報記憶部176には、当該玩具又は物品の登録情報として、当該玩具又は物品の登録特徴点情報又は登録輪郭形状情報が記憶されている。認識処理部114は、この登録特徴点情報又は登録輪郭形状情報と、撮像画像に映る玩具又は物品の特徴点情報又は輪郭形状情報との特徴点マッチング処理又は輪郭形状マッチング処理を行って、撮像画像に映る玩具又は物品が、登録されている玩具又は物品にマッチングするかを認識する。そして、マッチングしたと判断された場合には、認識対象物である玩具又は物品に関連づけられた3次元オブジェクトの情報が、記憶部170から読み出されて、仮想空間画像が生成される。ここで、玩具は、いわゆるオモチャなどと言われるものであり、電気で動作する電子的な玩具であってもよいし、電子的な玩具以外の玩具であってもよい。玩具としては、例えば知育玩具、乳児用玩具、模型(プラモデル)、人形やぬいぐるみ、フィギュア、カプセルトレイ、音響玩具、練習玩具、パズル、トランプ、カードゲーム類、野球盤などのボードゲーム類、スポーツ玩具、乗り物玩具又は戦争玩具などの種々の玩具を想定できる。また物品は、物、品物などの有体物である。例えば物品は、販売の対象となったり、取引の対象となる物であり、例えば商品、用品である。物品(商品、用品)としては、例えば容器(ペットボトル等)、生活用品、事務用品、文房具、食品、趣向品、音楽メディア(CD等)、映像メディア(DVD等)、ポスター類、電子機器、衣類、履き物(靴等)、かばん類、ベルト類又は家具など種々の物品を想定できる。   The recognition processing unit 114 may perform processing for recognizing a toy or an article as a recognition target object. For example, like the markerless AR described above, a process of recognizing a toy or an article as a recognition object is performed by a matching process of feature points or contour shapes. For example, the recognition target object information storage unit 176 stores registered feature point information or registered contour shape information of the toy or article as the toy or article registration information. The recognition processing unit 114 performs a feature point matching process or a contour shape matching process between the registered feature point information or the registered contour shape information and the feature point information or the contour shape information of the toy or the article reflected in the captured image, and the captured image It recognizes whether the toy or article reflected in the item matches the registered toy or article. Then, if it is determined that they match, the information of the three-dimensional object associated with the toy or article that is the recognition target is read from the storage unit 170, and a virtual space image is generated. Here, the toy is a so-called toy or the like, and may be an electronic toy that operates with electricity or a toy other than an electronic toy. Examples of toys include educational toys, infant toys, models (plastic models), dolls and stuffed animals, figures, capsule trays, acoustic toys, practice toys, puzzles, playing cards, card games, board games such as baseball boards, and sports toys. Various toys such as vehicle toys or war toys can be envisaged. The article is a tangible object such as an article or an article. For example, the article is an object to be sold or traded, for example, a product or an article. Articles (goods, supplies) include, for example, containers (plastic bottles, etc.), daily necessities, office supplies, stationery, foods, gifts, music media (CDs, etc.), video media (DVDs, etc.), posters, electronic devices, Various articles such as clothes, footwear (shoes, etc.), bags, belts, furniture, etc. can be assumed.

2.本実施形態の手法
次に本実施形態の手法について詳細に説明する。
2. Next, the method of this embodiment will be described in detail.

2.1 開口部への仮想空間画像の表示
図2ではユーザは、例えば右手にタブレット型PCである端末装置10を持ち、左手にCDケース20を持っている。そして例えばCDケース20内の表紙等には、認識対象物MKが印刷されている。図2の認識対象物MK(AR用の画像)は例えば2次元のキャラクタ画像である。なおCDケース20内の表紙等に、ARマーカAMKを印刷してもよい。ARマーカAMKは、所定の画像パターンを有するマーカである。ARマーカAMKを用いれば撮像部162との位置関係情報の特定が容易であるという利点がある。
2.1 Display of Virtual Space Image in Opening In FIG. 2, the user has, for example, the terminal device 10 that is a tablet PC on the right hand and the CD case 20 on the left hand. For example, a recognition object MK is printed on a cover or the like in the CD case 20. The recognition target object MK (AR image) in FIG. 2 is, for example, a two-dimensional character image. The AR marker AMK may be printed on the cover or the like in the CD case 20. The AR marker AMK is a marker having a predetermined image pattern. If AR marker AMK is used, there exists an advantage that specification of positional relationship information with the imaging part 162 is easy.

また端末装置10は、ユーザ側に表示部190が位置しており、端末装置10の裏側に撮像部162(カメラ)が設けられている。この撮像部162により、端末装置10の奥側を撮影できる。例えばユーザがCDケース20を端末装置10の奥側に移動させると、端末装置10の裏側の撮像部162によりCDケース20が撮影される。そして図1の認識処理部114が、CDケース20の認識対象物MK(或いはARマーカAMK)の認識処理を行い、後述の図6、図7に示すように、認識対象物MKに対応するキャラクタCH等の3次元オブジェクトの仮想空間画像が、開口部の画像領域ROPに表示されるARの画像が、端末装置10の表示部190に表示される。   In the terminal device 10, the display unit 190 is located on the user side, and an imaging unit 162 (camera) is provided on the back side of the terminal device 10. The imaging unit 162 can shoot the back side of the terminal device 10. For example, when the user moves the CD case 20 to the back side of the terminal device 10, the CD case 20 is photographed by the imaging unit 162 on the back side of the terminal device 10. Then, the recognition processing unit 114 in FIG. 1 performs recognition processing of the recognition target object MK (or AR marker AMK) of the CD case 20, and as shown in FIGS. 6 and 7 described later, the character corresponding to the recognition target object MK. An AR image in which a virtual space image of a three-dimensional object such as CH is displayed in the image region ROP of the opening is displayed on the display unit 190 of the terminal device 10.

図3〜図5は本実施形態の手法を説明するための図である。図3〜図5において、キャラクタCHや背景オブジェクトOB1〜OB11が、仮想空間に配置設定される3次元オブジェクトである。3次元オブジェクトは、例えばプリミティブ面(ポリゴン)で構成される3次元形状のオブジェクトである。本実施形態では、これらの3次元オブジェクト(CH、OB1〜OB11)とマスクオブジェクト(MS1〜MS6)を仮想空間に配置設定する。例えば3次元オブジェクト(CH、OB1〜OB11)と、3次元オブジェクトに対して所定の関係性をもって配置されるマスクオブジェクト(MS1〜MS6)とを、仮想空間に配置設定する処理を行う。そして仮想カメラVCから見える画像を仮想空間画像として生成する。仮想カメラVCの位置、方向は、例えば撮像部162(ユーザの端末装置又は視点)と図2の認識対象物MKとの位置関係情報に応じて設定される。   3-5 is a figure for demonstrating the method of this embodiment. 3 to 5, the character CH and the background objects OB <b> 1 to OB <b> 11 are three-dimensional objects arranged and set in the virtual space. The three-dimensional object is a three-dimensional object composed of, for example, a primitive surface (polygon). In this embodiment, these three-dimensional objects (CH, OB1 to OB11) and mask objects (MS1 to MS6) are arranged and set in the virtual space. For example, a process of setting the arrangement of the three-dimensional object (CH, OB1 to OB11) and the mask object (MS1 to MS6) arranged with a predetermined relationship with the three-dimensional object in the virtual space is performed. Then, an image seen from the virtual camera VC is generated as a virtual space image. The position and direction of the virtual camera VC are set in accordance with, for example, positional relationship information between the imaging unit 162 (user terminal device or viewpoint) and the recognition target object MK in FIG.

図3に示すように本実施形態では、穴部である開口部OPを設定している。例えばこの開口部OPは仮想空間画像の仮想的なのぞき穴となるものである。後述の図6、図7に示すように、本実施形態では、この開口部OPの画像領域ROPに仮想空間画像が表示される画像が生成されて、端末装置10の表示部190に表示される。   As shown in FIG. 3, in this embodiment, an opening OP that is a hole is set. For example, the opening OP is a virtual peephole in the virtual space image. As shown in FIGS. 6 and 7 to be described later, in this embodiment, an image in which a virtual space image is displayed in the image region ROP of the opening OP is generated and displayed on the display unit 190 of the terminal device 10. .

マスクオブジェクト(MS1〜MS6)は、開口部OP以外の領域において3次元オブジェクト(CH、OB1〜OB11)の表示をマスクするためのオブジェクトであり、例えば不透明オブジェクトである。後述の図6、図7に示すように、マスクオブジェクトによりマスクされた画像領域RMSには、撮像画像が表示されるようになる。即ち本実施形態では、開口部OPに対応する画像領域ROPに、仮想空間画像が表示され、マスクオブジェクトによりマスクされた画像領域RMSに、撮像画像が表示される画像が合成されて、表示部190に表示される。   The mask objects (MS1 to MS6) are objects for masking the display of the three-dimensional objects (CH, OB1 to OB11) in a region other than the opening OP, and are, for example, opaque objects. As shown in FIGS. 6 and 7 to be described later, the captured image is displayed in the image region RMS masked by the mask object. That is, in the present embodiment, the virtual space image is displayed in the image region ROP corresponding to the opening OP, and the image in which the captured image is displayed is combined with the image region RMS masked by the mask object, and the display unit 190 is displayed. Is displayed.

例えば図3では、開口部OPに位置するキャラクタCHや背景オブジェクトOB1(床)しか見えていないが、実際には、図4、図5に示すように、仮想空間(オブジェクト空間)には、他の背景オブジェクトOB2〜OB11等の3次元オブジェクトが配置されている。図3では、これらの背景オブジェクトOB2〜OB11等の3次元オブジェクトが、マスクオブジェクトによりマスクされて見えなくなっている。   For example, in FIG. 3, only the character CH and the background object OB1 (floor) located in the opening OP can be seen, but actually, as shown in FIGS. 4 and 5, there is other space in the virtual space (object space). Three-dimensional objects such as background objects OB2 to OB11 are arranged. In FIG. 3, the three-dimensional objects such as the background objects OB2 to OB11 are masked by the mask object and cannot be seen.

ここでマスクオブジェクトは、開口部OPを内包する面MS1(第1の面)を有しており、本実施形態では、このようなマスクオブジェクトを仮想空間に配置設定している。例えば面MS1は、開口部OPの場所から開口部OPの周囲に広がる面である。別の言い方をすれば、面MS1に設けられた穴部が開口部OPになっている。   Here, the mask object has a surface MS1 (first surface) that encloses the opening OP, and in the present embodiment, such a mask object is arranged and set in the virtual space. For example, the surface MS1 is a surface that extends from the location of the opening OP around the opening OP. In other words, the hole provided in the surface MS1 is the opening OP.

この場合に、上述の所定の関係性は、仮想カメラVCから見て、マスクオブジェクトの面MS1(広義には所定面)よりも奥側に3次元オブジェクト(少なくとも背景オブジェクトOB1〜OB11)が位置するという関係性になる。このような関係性を持たせることで、面MS1の奥側に、3次元オブジェクトにより構成される仮想空間が存在するかのような拡張現実を実現できる。但し後述の図5、図7のように、一部の3次元オブジェクト(キャラクタCH等)が、面MS1(所定面)よりも手前側に移動するなどの演出処理が行われてもよい。なお、本実施形態の所定の関係性における所定面は、このような面MS1に限定されるものでない。例えば所定面は開口部OPを内包しないような面であってもよい。   In this case, the predetermined relationship described above is such that the three-dimensional objects (at least the background objects OB1 to OB11) are located behind the mask object surface MS1 (predetermined surface in a broad sense) when viewed from the virtual camera VC. It becomes the relationship. By giving such a relationship, an augmented reality can be realized as if a virtual space constituted by a three-dimensional object exists on the back side of the surface MS1. However, as shown in FIG. 5 and FIG. 7 described later, an effect process such that a part of the three-dimensional object (character CH or the like) moves to the near side of the surface MS1 (predetermined surface) may be performed. Note that the predetermined surface in the predetermined relationship of the present embodiment is not limited to such a surface MS1. For example, the predetermined surface may be a surface that does not include the opening OP.

またマスクオブジェクトは、面MS1と、面MS1に交差する少なくとも1つの面を有する。図3では、面MS1に交差(例えば直交)する少なくとも1つの面として、面MS2、MS3、MS4、MS5が仮想空間に配置設定されている。更に図3ではマスクオブジェクトは、面MS2、MS3、MS4、MS5に交差(例えば直交)する面MS6を更に有している。例えば面MS1〜MS6により立方体形状のマスクオブジェクトが形成される。   The mask object has a surface MS1 and at least one surface intersecting the surface MS1. In FIG. 3, the surfaces MS2, MS3, MS4, and MS5 are arranged and set in the virtual space as at least one surface intersecting (for example, orthogonal to) the surface MS1. Further, in FIG. 3, the mask object further has a surface MS6 that intersects (for example, is orthogonal to) the surfaces MS2, MS3, MS4, and MS5. For example, a cubic mask object is formed by the surfaces MS1 to MS6.

この場合に、上述の所定の関係性は、面MS1(所定面)と、面MS1に交差する少なくとも1つの面(所定面に交差する少なくとも1つの面)とにより囲まれる領域に、3次元オブジェクト(少なくとも背景オブジェクトOB1〜OB11)が位置するという関係性である。例えば所定の関係性は、面MS1〜MS5により囲まれる領域、或いは面MS1〜MS6により囲まれる領域に、3次元オブジェクト(背景オブジェクトOB1〜OB11)が位置するという関係性になる。但し後述の図5、図7のように、一部の3次元オブジェクト(キャラクタCH等)が、面MS1〜MS5又は面MS1〜MS6により囲まれる領域の外に移動したりするなどの演出処理が行われてもよい。   In this case, the above-described predetermined relationship is that the three-dimensional object is in a region surrounded by the surface MS1 (predetermined surface) and at least one surface intersecting the surface MS1 (at least one surface intersecting the predetermined surface). The relationship is that (at least the background objects OB1 to OB11) are located. For example, the predetermined relationship is a relationship in which a three-dimensional object (background objects OB1 to OB11) is located in a region surrounded by the surfaces MS1 to MS5 or a region surrounded by the surfaces MS1 to MS6. However, as shown in FIG. 5 and FIG. 7 described later, there is an effect process in which some three-dimensional objects (such as characters CH) move out of the area surrounded by the planes MS1 to MS5 or the planes MS1 to MS6. It may be done.

なおマスクオブジェクトとしては種々の形状のオブジェクトを用いることができる。例えば図3のような立方体形状には限定されず、直方体形状や、柱体形状(三角柱形状等)や、曲面形状(球形状等)であってもよい。例えばマスクオブジェクトは、少なくとも面MS1を有していればよい。例えばマスクオブジェクトが、開口部OPを内包する面MS1だけにより構成される場合には、面MS1の面積はできる限り大きい面積(例えば実質的に無限大の面積)であることが望ましい。   Note that objects of various shapes can be used as the mask object. For example, the shape is not limited to the cubic shape as shown in FIG. 3, and may be a rectangular parallelepiped shape, a columnar shape (triangular prism shape or the like), or a curved surface shape (spherical shape or the like). For example, the mask object only needs to have at least the surface MS1. For example, when the mask object is configured only by the surface MS1 including the opening OP, it is desirable that the area of the surface MS1 is as large as possible (for example, a substantially infinite area).

図6〜図8は本実施形態の手法により生成される画像の例である。開口部(図3のOP)の画像領域ROPには仮想空間画像が表示される。開口部の画像領域ROPは、図2の認識対象物MKの場所に対応して設定される。具体的には撮像部162(端末装置)と認識対象物MKとの位置関係情報(相対的位置関係)に基づいて開口部の画像領域ROPが設定される。例えば図6の端末装置10の奥側には、開口部の画像領域ROPの形状、大きさに対応する位置、方向で、CDケース20(認識対象物MK)が位置している。   6 to 8 are examples of images generated by the method of this embodiment. A virtual space image is displayed in the image area ROP of the opening (OP in FIG. 3). The image area ROP of the opening is set corresponding to the location of the recognition object MK in FIG. Specifically, the image area ROP of the opening is set based on positional relationship information (relative positional relationship) between the imaging unit 162 (terminal device) and the recognition target object MK. For example, the CD case 20 (recognition object MK) is located on the back side of the terminal device 10 in FIG. 6 in a position and direction corresponding to the shape and size of the image area ROP of the opening.

例えば図6では、端末装置10の主面である平面(表示部190の平面)に直交する方向(法線方向)に対してθ=θ1の角度で、図2のCDケース20が端末装置10の奥側に位置している。図7では、端末装置10の平面(主面)に直交する方向に対してθ=θ2の角度で、CDケース20が端末装置10の奥側に位置しており、θ1>θ2になっている。即ち、端末装置10の平面に直交する方向に対するCDケース20の平面方向のなす角度θが、図7では図6よりも小さくなっており、CDケース20の平面方向が、端末装置10の平面に直交する方向に近づいている。   For example, in FIG. 6, the CD case 20 of FIG. 2 is at an angle of θ = θ1 with respect to a direction (normal direction) orthogonal to a plane (plane of the display unit 190) that is the main surface of the terminal device 10. It is located on the back side. In FIG. 7, the CD case 20 is positioned on the back side of the terminal device 10 at an angle θ = θ2 with respect to the direction orthogonal to the plane (main surface) of the terminal device 10, and θ1> θ2. . That is, the angle θ formed by the planar direction of the CD case 20 with respect to the direction orthogonal to the plane of the terminal device 10 is smaller than that in FIG. 6 in FIG. Approaching an orthogonal direction.

図8では、端末装置10の平面に直交する方向に対してθ=θ3の角度で、CDケース20が端末装置10の奥側に位置しており、θ1>θ2>θ3になっている。即ち、端末装置10の平面に直交する方向に対するCDケース20の平面方向のなす角度θが、図8では図7、図6よりも小さくなっており、CDケース20の平面方向が、端末装置10の平面に直交する方向に更に近づいている。そして図6、図7では開口部の画像領域ROPに仮想3次元画像が表示されているが、図8では、認識対象物MKを安定的に画像認識することが難しくなるため、仮想3次元画像を表示しないようにしている。例えば図8の状況で仮想3次元画像を表示すると、表示が不安定になるおそれがあるからである。但し、図8のような状況においても、仮想3次元画像が消えずに表示されるように設定することも可能である。   In FIG. 8, the CD case 20 is positioned on the back side of the terminal device 10 at an angle θ = θ3 with respect to the direction orthogonal to the plane of the terminal device 10, and θ1> θ2> θ3. That is, the angle θ formed by the planar direction of the CD case 20 with respect to the direction orthogonal to the plane of the terminal device 10 is smaller than that in FIGS. 7 and 6 in FIG. 8, and the planar direction of the CD case 20 is It is closer to the direction perpendicular to the plane. 6 and 7, a virtual three-dimensional image is displayed in the image area ROP of the opening. However, in FIG. 8, since it is difficult to stably recognize the recognition target object MK, the virtual three-dimensional image is displayed. Is not displayed. For example, if a virtual three-dimensional image is displayed in the situation of FIG. 8, the display may become unstable. However, even in the situation shown in FIG. 8, it is possible to set so that the virtual three-dimensional image is displayed without disappearing.

図6では、開口部の画像領域ROPには、キャラクタCH、背景オブジェクトOB1、OB2、OB4、OB5などの3次元オブジェクトが表示されている。キャラクタCHは、図2の2次元画像のキャラクタである認識対象物MKに対応する3次元画像のキャラクタである。   In FIG. 6, three-dimensional objects such as a character CH and background objects OB1, OB2, OB4, and OB5 are displayed in the image area ROP of the opening. The character CH is a three-dimensional image character corresponding to the recognition object MK that is the character of the two-dimensional image of FIG.

図6の開口部の画像領域ROPの仮想空間画像は、図3の仮想カメラVCが開口部OPに対して斜め右方向の位置に配置されて、のぞき穴のように開口部OPをのぞき込んでいる場合に仮想カメラVCから見える画像に相当する。このため図6では、開口部OPを介して見えるキャラクタCH、背景オブジェクトOB1、OB2、OB4、OB5の画像が、開口部の画像領域ROPに表示される。一方、マスクオブジェクト(MS1〜MS6)によりマスクされる位置にある図4の背景オブジェクトOB3、OB6〜OB11については、マスクオブジェクトにマスクされることで表示されないようになる。   In the virtual space image of the image region ROP of the opening in FIG. 6, the virtual camera VC in FIG. 3 is disposed at a position diagonally to the right with respect to the opening OP, and looks into the opening OP like a peephole. This corresponds to an image seen from the virtual camera VC. Therefore, in FIG. 6, the images of the character CH and the background objects OB1, OB2, OB4, and OB5 that can be seen through the opening OP are displayed in the image area ROP of the opening. On the other hand, the background objects OB3 and OB6 to OB11 in FIG. 4 at the positions masked by the mask objects (MS1 to MS6) are not displayed by being masked by the mask objects.

そして図6に示すように、開口部の周囲の画像領域RMSには、撮像部162により撮影された撮像画像が表示される。例えば、画像領域RMSには、撮像部162により撮影されたユーザの左手の画像などが表示される。具体的には、開口部の周囲の画像領域RMSには、図4の背景オブジェクトOB3、OB6〜OB11がマスクオブジェクトによりマスクされることにより、撮像画像が表示される。このように図6では、開口部の画像領域ROPに仮想空間画像が表示され、開口部の周囲の画像領域RMSに撮像画像が表示されるような画像合成が行われて、合成画像が端末装置10の表示部190に表示される。   As shown in FIG. 6, the captured image captured by the imaging unit 162 is displayed in the image region RMS around the opening. For example, in the image region RMS, an image of the user's left hand taken by the imaging unit 162 is displayed. Specifically, a captured image is displayed in the image region RMS around the opening by masking the background objects OB3 and OB6 to OB11 in FIG. 4 with a mask object. As described above, in FIG. 6, the virtual space image is displayed in the image area ROP of the opening, and the image composition is performed such that the captured image is displayed in the image area RMS around the opening, and the combined image is the terminal device. 10 display units 190.

図7では、端末装置10の平面に直交する方向に対するCDケース20の平面方向のなす角度が、図6に比べて小さくなっている。これにより、図3の仮想カメラVCが開口部OPに対して更に斜め右方向の位置に配置される。このため図6では開口部の画像領域ROPに表示されていた背景オブジェクトOB2、OB4、OB5の画像が、図7では表示されず、その代わりに背景オブジェクトOB6の画像が図7では表示されている。即ち、図3の仮想カメラVCが、図6では図7に比べて開口部OPの更に斜め右方向の位置に配置され、その配置位置の仮想カメラVCから開口部OPをのぞき込んだ場合に見える画像が、画像領域ROPに表示される。このため図6では画像領域ROPに表示されていた背景オブジェクトOB2、OB4、OB5の画像が、図7では表示されず、背景オブジェクトOB6の画像が表示される。   In FIG. 7, the angle formed by the planar direction of the CD case 20 with respect to the direction orthogonal to the plane of the terminal device 10 is smaller than that in FIG. 6. Thereby, the virtual camera VC of FIG. 3 is arranged at a position further obliquely to the right with respect to the opening OP. For this reason, the images of the background objects OB2, OB4, and OB5 displayed in the image area ROP of the opening in FIG. 6 are not displayed in FIG. 7, but the image of the background object OB6 is displayed in FIG. 7 instead. . That is, the virtual camera VC shown in FIG. 3 is arranged at a position further obliquely to the right of the opening OP in FIG. 6 than in FIG. 7, and the image seen when looking into the opening OP from the virtual camera VC at the arrangement position. Is displayed in the image area ROP. Therefore, the images of the background objects OB2, OB4, and OB5 displayed in the image region ROP in FIG. 6 are not displayed in FIG. 7, but the image of the background object OB6 is displayed.

図6の開口部の周囲の画像領域RMSにおいて、マスクオブジェクトにより3次元オブジェクトをマスクして非表示にする手法は、例えばARにおけるオクルージョンの手法(オクルージョンのシェーダ)により実現できる。例えばARにおいて、現実世界の物体(撮像画像に映る物体)により、当該物体の奥側のバーチャルオブジェクトを隠面消去して非表示にするオクルージョンの手法が用いられる。具体的には、現実世界の物体の画像領域は、オクルージョンの領域に設定され、このオクルージョンの領域では、バーチャルオブジェクトが隠面消去されて非表示になる。例えばオクルージョンの領域では、バーチャルオブジェクトは透明のオブジェクトとして扱われ、バーチャルオブジェクトの画像は表示されず、撮像画像が表示されるようになる。これにより現実世界の物体の画像領域に対応するオクルージョンの領域において、あたかも現実世界の物体によりバーチャルオブジェクトが隠面消去されているかのような画像を表示できる。   In the image region RMS around the opening in FIG. 6, a method of masking a three-dimensional object with a mask object and hiding it can be realized by, for example, an AR occlusion method (occlusion shader). For example, in AR, an occlusion technique is used in which a virtual object on the back side of a real world object (an object reflected in a captured image) is hidden and erased. Specifically, an image area of an object in the real world is set as an occlusion area, and in this occlusion area, the virtual object is erased and hidden. For example, in the occlusion area, the virtual object is treated as a transparent object, and the image of the virtual object is not displayed but the captured image is displayed. As a result, in the occlusion area corresponding to the image area of the real world object, it is possible to display an image as if the virtual object has been hidden by the real world object.

そしてマスクオブジェクト(MS1〜MS6)により、図4の背景オブジェクトOB3、OB6〜OB11をマスクして、図6において非表示にするために、このオクルージョンの手法を用いることができる。即ち、マスクオブジェクトの領域は、オクルージョンの領域に設定されて、図4において仮想カメラVCから見てマスクオブジェクトの奥側にある背景オブジェクトOB3、OB6〜OB11は隠面消去されて表示されないようになる。これにより図6の開口部の周囲の画像領域RMSにおいて、背景オブジェクトOB3、OB6〜OB11の画像が表示されないようになる。この結果、図6に示すように、あたかも開口部をのぞき穴として、その奥側にある仮想空間を覗いたような画像が生成されるようになる。   Then, this occlusion technique can be used to mask the background objects OB3 and OB6 to OB11 in FIG. 4 with the mask objects (MS1 to MS6) and hide them in FIG. That is, the mask object area is set as an occlusion area, and the background objects OB3 and OB6 to OB11 located behind the mask object as viewed from the virtual camera VC in FIG. . As a result, the images of the background objects OB3 and OB6 to OB11 are not displayed in the image region RMS around the opening in FIG. As a result, as shown in FIG. 6, an image is generated as if the opening portion was used as a peephole and the virtual space on the back side was looked into.

このように本実施形態では、認識対象物MK(ARマーカ)の位置よりも奥側に仮想空間の3次元オブジェクトを配置して表示し、開口部以外からは仮想空間の3次元オブジェクトが見えないようにする画像合成手法を実現している。これにより、認識対象物の領域に対応する開口部の領域に仮想空間画像を表示する処理を、簡素な処理で実現できるようになる。   As described above, in this embodiment, the three-dimensional object in the virtual space is arranged and displayed behind the position of the recognition object MK (AR marker), and the three-dimensional object in the virtual space cannot be seen from other than the opening. An image composition method is realized. Thereby, the process of displaying the virtual space image in the area of the opening corresponding to the area of the recognition object can be realized by a simple process.

また本実施形態では、開口部よりも奥側に3次元オブジェクトが位置するように、3次元オブジェクトが仮想空間に配置設定される。例えば図6において、3次元オブジェクトであるキャラクタCHや背景オブジェクトOB1、OB2、OB4、OB5は、開口部(画像領域ROP)よりも奥側に位置するように、仮想空間に配置設定されている。このような仮想空間の配置設定手法によれば、開口部の奥側に3次元オブジェクト(CH、OB1、OB2、OB4、OB5)が存在し、当該3次元オブジェクトを、のぞき穴である開口部を通して覗き込んでいるような画像を生成できる。従って、これまでにない拡張現実(AR)を実現できるようになる。   In the present embodiment, the three-dimensional object is arranged and set in the virtual space so that the three-dimensional object is located behind the opening. For example, in FIG. 6, the character CH, which is a three-dimensional object, and the background objects OB1, OB2, OB4, and OB5 are arranged and set in the virtual space so as to be located behind the opening (image region ROP). According to such a virtual space arrangement setting method, a three-dimensional object (CH, OB1, OB2, OB4, OB5) exists on the back side of the opening, and the three-dimensional object passes through the opening that is a peephole. You can generate an image that looks like you are looking into it. Therefore, an augmented reality (AR) that has never been achieved can be realized.

また本実施形態では、開口部を3次元オブジェクトが跨ぐように、3次元オブジェクトを仮想空間に配置設定している。例えば図5では、3次元オブジェクトであるキャラクタCHは、開口部OPを跨ぐように仮想空間に配置設定されている。具体的には、キャラクタCHの一部(上半身側)が、開口部OPの手前側に位置し、キャラクタCHの他の部分(下半身側)が、開口部OPの奥側に位置するように、キャラクタCHが配置されている。このようにすれば図7に示すように、あたかもキャラクタCHが開口部(画像領域ROP)から飛び出しているかのように見える画像を生成できる。従って、これまでにない拡張現実の表現が可能になる。   In this embodiment, the 3D object is arranged and set in the virtual space so that the 3D object straddles the opening. For example, in FIG. 5, the character CH, which is a three-dimensional object, is arranged and set in the virtual space so as to straddle the opening OP. Specifically, a part (upper body side) of the character CH is positioned on the near side of the opening OP, and the other part (lower body side) of the character CH is positioned on the back side of the opening OP. A character CH is arranged. In this way, as shown in FIG. 7, it is possible to generate an image that looks as if the character CH is protruding from the opening (image region ROP). Therefore, it is possible to express augmented reality like never before.

また本実施形態では、図9において、撮像部162(ユーザUSの端末装置10)と認識対象物MK(CDケース20)との位置関係情報に応じた描画処理を行って、図6、図7に示すような仮想空間画像を生成する。具体的には、仮想空間において、撮像部162に対応する位置に仮想カメラを設定し、設定された仮想カメラから見える画像を仮想空間画像として生成する。   Further, in the present embodiment, in FIG. 9, drawing processing is performed according to the positional relationship information between the imaging unit 162 (the terminal device 10 of the user US) and the recognition target object MK (CD case 20), and FIGS. A virtual space image as shown in FIG. Specifically, a virtual camera is set at a position corresponding to the imaging unit 162 in the virtual space, and an image seen from the set virtual camera is generated as a virtual space image.

例えば図9において、端末装置10の奥側に位置する認識対象物MK(CDケース20)と、端末装置10の撮像部162との相対的な位置関係を求める。この相対的位置関係は、撮像部162の撮像画像に映る認識対象物MKの大きさや形状を分析することで求めることができる。そして、求められた相対的位置関係に対応する位置、方向に、図3の仮想カメラVCを設定する。例えば図3での開口部OPと仮想カメラVCとの相対的位置関係が、図9での認識対象物MKと撮像部162との相対的位置関係に一致するように、仮想カメラVCを配置設定する。そして、このように配置設定された仮想カメラVCから見える仮想空間画像を生成する描画処理を行い、図6、図7に示すように、生成された仮想空間画像が開口部の画像領域ROPに表示される画像を生成する。   For example, in FIG. 9, the relative positional relationship between the recognition object MK (CD case 20) located on the back side of the terminal device 10 and the imaging unit 162 of the terminal device 10 is obtained. This relative positional relationship can be obtained by analyzing the size and shape of the recognition object MK shown in the captured image of the imaging unit 162. Then, the virtual camera VC of FIG. 3 is set at a position and direction corresponding to the obtained relative positional relationship. For example, the virtual camera VC is arranged and set so that the relative positional relationship between the opening OP and the virtual camera VC in FIG. 3 matches the relative positional relationship between the recognition target object MK and the imaging unit 162 in FIG. To do. Then, a rendering process for generating a virtual space image that can be seen from the virtual camera VC set in this way is performed, and the generated virtual space image is displayed in the image area ROP of the opening as shown in FIGS. Generate an image to be processed.

例えば図9において、端末装置10の撮像部162に正対する場所に、認識対象物MK(CDケース20)が位置する場合には、図3においても、仮想カメラVCに正対する場所に、開口部OPが位置するように、仮想カメラVCが配置設定される。これにより仮想空間を仮想カメラVCにより正対して見た画像が、仮想空間画像として生成されるようになる。   For example, in FIG. 9, when the recognition object MK (CD case 20) is located at a location directly facing the imaging unit 162 of the terminal device 10, an opening portion is located at a location directly facing the virtual camera VC in FIG. The virtual camera VC is arranged and set so that the OP is located. As a result, an image of the virtual space viewed from the virtual camera VC is generated as a virtual space image.

また図9において、端末装置10の撮像部162に対して斜め方向の場所に、認識対象物MK(CDケース20)が位置する場合には、図3においても、仮想カメラVCから斜め方向の場所に、開口部OPが位置するように、仮想カメラVCが配置設定される。これにより仮想空間を、仮想カメラVCにより斜め方向から見た画像が、仮想空間画像として生成されるようになる。   In FIG. 9, when the recognition object MK (CD case 20) is located at a position oblique to the imaging unit 162 of the terminal device 10, the position oblique to the virtual camera VC is also shown in FIG. In addition, the virtual camera VC is arranged and set so that the opening OP is positioned. As a result, an image obtained by viewing the virtual space from the oblique direction with the virtual camera VC is generated as a virtual space image.

また図9において、端末装置10の撮像部162から距離が離れた位置に、認識対象物MK(CDケース20)が位置する場合には、図3においても、開口部OPから距離が離れた位置に仮想カメラVCが配置設定される。これにより、遠方に位置する仮想カメラから見た画像が、仮想空間画像として生成されるようになる。   9, when the recognition object MK (CD case 20) is located at a position away from the imaging unit 162 of the terminal device 10, the position away from the opening OP in FIG. 3 as well. The virtual camera VC is arranged and set. As a result, an image viewed from a virtual camera located far away is generated as a virtual space image.

このように、撮像部162と認識対象物MKとの位置関係情報に応じた描画処理を行って、仮想空間画像を生成すれば、あたかも撮像部162により仮想空間を見たかのような画像が、仮想空間画像として生成されるようになる。そして図6、図7に示すように、このようにして生成された仮想空間画像が、開口部の画像領域ROPに表示されることで、あたかも撮像部162により、開口部をのぞき穴として、その奥にある仮想空間を覗き込んだかのように見える画像を生成できるようになり、これまでにない拡張現実を実現できるようになる。   As described above, when a drawing process corresponding to the positional relationship information between the imaging unit 162 and the recognition target object MK is performed to generate a virtual space image, an image as if the imaging unit 162 saw the virtual space is displayed as a virtual space image. A spatial image is generated. Then, as shown in FIGS. 6 and 7, the virtual space image generated in this way is displayed in the image area ROP of the opening, so that the imaging section 162 can use the opening as a peephole. It becomes possible to generate an image that looks as if you looked into the virtual space in the back, and you can realize unprecedented augmented reality.

図10では、ユーザUSはHMD(頭部装着型表示装置)を装着している。例えばユーザUSの視界を覆うようにHMDを装着している。例えばHMDは本実施形態の画像生成システムにより実現される。HMDには、ユーザUSの視点VPに対応する位置に撮像部162が設けられている。そして撮像部162により撮影された撮像画像(映像)がHMDに表示される。即ち、撮像部162の撮像画像に対して仮想空間画像が画像合成された図6、図7に示すような画像がHMDに表示される。   In FIG. 10, the user US is wearing an HMD (head-mounted display device). For example, the HMD is worn so as to cover the field of view of the user US. For example, the HMD is realized by the image generation system of this embodiment. The HMD is provided with an imaging unit 162 at a position corresponding to the viewpoint VP of the user US. Then, the captured image (video) captured by the imaging unit 162 is displayed on the HMD. That is, an image as shown in FIGS. 6 and 7 in which the virtual space image is synthesized with the captured image of the imaging unit 162 is displayed on the HMD.

具体的には図10において、HMDの撮像部162(ユーザUSの視点VP)と認識対象物MK(CDケース20)との位置関係情報に応じた描画処理が行われて、図6、図7に示すような仮想空間画像が生成される。即ち、仮想空間において撮像部162(視点VP)に対応する位置に仮想カメラが設定され、設定された仮想カメラから見える画像が仮想空間画像として生成される。そして、この仮想空間画像と撮像部162の撮像画像とを合成することで生成された図6、図7の画像が、HMDに表示される。   Specifically, in FIG. 10, drawing processing is performed according to the positional relationship information between the HMD imaging unit 162 (the viewpoint VP of the user US) and the recognition target object MK (CD case 20), and FIGS. A virtual space image as shown in FIG. That is, a virtual camera is set at a position corresponding to the imaging unit 162 (viewpoint VP) in the virtual space, and an image seen from the set virtual camera is generated as a virtual space image. And the image of FIG. 6, FIG. 7 produced | generated by synthesize | combining this virtual space image and the picked-up image of the imaging part 162 is displayed on HMD.

例えば図9では、ユーザUSは、一方の手で、認識対象物MKが印刷されたCDケース20を持ち、他方の手で、撮像部162が設けられた端末装置10を持つ必要があり、ユーザUSの手間が煩雑になるという不利点がある。これに対して図10では、ユーザUSは、端末装置等を持つ必要がなく、撮像部162が正面側に設けられたHMDを、認識対象物MKが印刷されたCDケース20の方に向ければ良い。即ち、ユーザUSの視点VPをCDケース20の方を向けるだけで済む。従って、図10では図9に比べて、拡張現実を体験するためのユーザUSの手間を軽減できるという利点がある。   For example, in FIG. 9, the user US needs to hold the CD case 20 on which the recognition object MK is printed with one hand and the terminal device 10 with the imaging unit 162 provided with the other hand. There is a disadvantage that the trouble of US becomes complicated. On the other hand, in FIG. 10, the user US does not need to have a terminal device or the like, and directs the HMD provided with the imaging unit 162 on the front side toward the CD case 20 on which the recognition object MK is printed. good. That is, the user US only needs to point the CD case 20 toward the viewpoint VP. Therefore, in FIG. 10, compared with FIG. 9, there exists an advantage that the effort of the user US for experiencing augmented reality can be reduced.

なお、図10のHMDは、例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現される表示部を有する。そしてHMDの表示部には、ユーザUSの左目の前に設定される第1のディスプレイ又は第1の表示領域と、右目の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左目用画像と右目用画像を生成し、第1のディスプレイに左目用画像を表示し、第2のディスプレイに右目用画像を表示する。或いは1つのディスプレイの第1の表示領域に左目用画像を表示し、第2の表示領域に右目用画像を表示する。またHMDには左目用、右目用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりユーザUSの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左目用画像、右目用画像に対して行われる。なお図10のHMDは非透過型であるが、HMDは透過型であってもよい。またHMDは、いわゆるメガネタイプのHMDであってもよい。   Note that the HMD in FIG. 10 includes a display unit realized by, for example, an organic EL display (OEL) or a liquid crystal display (LCD). The HMD display unit is provided with a first display or first display area set in front of the left eye of the user US, and a second display or second display area set in front of the right eye. 3D display is possible. When performing stereoscopic display, for example, a left-eye image and a right-eye image with different parallax are generated, the left-eye image is displayed on the first display, and the right-eye image is displayed on the second display. Alternatively, the left-eye image is displayed in the first display area of one display, and the right-eye image is displayed in the second display area. The HMD is provided with two eyepiece lenses (fisheye lenses) for the left eye and the right eye, thereby expressing a VR space that extends over the entire periphery of the field of view of the user US. Then, correction processing for correcting distortion generated in an optical system such as an eyepiece is performed on the left-eye image and the right-eye image. 10 is a non-transmissive type, the HMD may be a transmissive type. The HMD may be a so-called glasses-type HMD.

また本実施形態では、撮像画像を撮影する撮像部162と認識対象物との位置関係情報に応じて、仮想空間画像の視認性を変化させる処理を行う。また撮像部162と認識対象物との位置関係情報に応じて変化する音の生成処理を行う。   Moreover, in this embodiment, the process which changes the visibility of a virtual space image is performed according to the positional relationship information of the imaging part 162 which image | photographs a captured image, and a recognition target object. Also, a sound generation process that changes in accordance with the positional relationship information between the imaging unit 162 and the recognition object is performed.

例えば図11(A)では、端末装置10の撮像部162(カメラ)は、CDケース20の認識対象物MKと近い距離で正対している。この場合には、例えば仮想空間画像を明るい画像にしたり、よりハッキリした画像にするなど、視認性を高める処理を行う。即ち、図6、図7の画像領域ROPに表示される仮想空間画像の視認性を高める処理を行う。また端末装置10の音出力部(スピーカ、ヘッドホン端子)から出力される音の音量を大きくする。例えば本実施形態では、図6、図7の開口部の奥側の仮想空間から、BGM等の音楽が流れるような演出処理を行っている。図11(A)のように撮像部162が、認識対象物MKと近い距離で正対している場合には、この仮想空間から流れるBGM等の音楽の音量を大きくする。   For example, in FIG. 11A, the imaging unit 162 (camera) of the terminal device 10 faces the recognition object MK of the CD case 20 at a close distance. In this case, for example, a process for improving the visibility is performed, such as making the virtual space image a bright image or a clearer image. That is, processing for improving the visibility of the virtual space image displayed in the image region ROP of FIGS. 6 and 7 is performed. Further, the volume of the sound output from the sound output unit (speaker, headphone terminal) of the terminal device 10 is increased. For example, in the present embodiment, an effect process is performed in which music such as BGM flows from the virtual space on the back side of the opening in FIGS. As shown in FIG. 11A, when the imaging unit 162 is facing the recognition object MK at a close distance, the volume of music such as BGM flowing from the virtual space is increased.

一方、図11(B)では、撮像部162の撮像方向(光軸方向)に対して斜め方向の場所に、認識対象物MKが位置している。この場合には、例えば仮想空間画像を暗い画像にしたり、ぼかした画像にするなど、視認性を低める処理を行う。即ち、図6、図7の画像領域ROPに表示される仮想空間画像の視認性を低める処理を行う。また端末装置10の音出力部から出力される音の音量を小さくする。例えば、開口部の奥側の仮想空間から流れるBGM等の音楽の音量を小さくする。   On the other hand, in FIG. 11B, the recognition target object MK is located at a position oblique to the imaging direction (optical axis direction) of the imaging unit 162. In this case, for example, a process for reducing the visibility is performed such as making the virtual space image a dark image or a blurred image. That is, processing for reducing the visibility of the virtual space image displayed in the image region ROP of FIGS. 6 and 7 is performed. Further, the volume of the sound output from the sound output unit of the terminal device 10 is reduced. For example, the volume of music such as BGM flowing from the virtual space behind the opening is reduced.

また図11(C)では、撮像部162から遠い距離の場所に、認識対象物MKが位置している。この場合にも、例えば仮想空間画像を暗い画像にしたり、ぼかした画像にするなど、視認性を低める処理を行う。また端末装置10の音出力部から出力される音の音量を小さくする。例えば、開口部の奥側の仮想空間から流れる音楽の音量を小さくする。   In FIG. 11C, the recognition object MK is located at a location far from the imaging unit 162. Also in this case, for example, a process for reducing the visibility is performed such as making the virtual space image a dark image or a blurred image. Further, the volume of the sound output from the sound output unit of the terminal device 10 is reduced. For example, the volume of music flowing from the virtual space behind the opening is reduced.

図11(A)〜図11(C)のように仮想空間画像の視認性を変化させたり、音を変化させるなどの演出処理を行うことで、拡張現実のリアル度を高めることが可能になる。例えば本実施形態では開口部の奥側の仮想空間から音楽が流れるような演出処理を行っている。この場合に、図11(A)のように、撮像部162と、開口部に対応する認識対象物MKとの位置関係が、正対の関係である場合や距離が近い場合には、音楽の音量が大きくなり、斜め方向の関係や距離が遠い場合には、音楽の音量が小さくなるような演出処理を実現できる。従って、あたかも本当に開口部の奥側の仮想空間から音楽が流れているような仮想現実感をユーザに与えることができ、拡張現実のリアル度を向上できる。   As shown in FIGS. 11A to 11C, it is possible to increase the real degree of augmented reality by performing rendering processing such as changing the visibility of the virtual space image or changing the sound. . For example, in the present embodiment, an effect process is performed in which music flows from a virtual space behind the opening. In this case, as shown in FIG. 11A, when the positional relationship between the imaging unit 162 and the recognition target object MK corresponding to the opening is a direct relationship or when the distance is short, When the volume increases and the relationship or distance in the oblique direction is long, it is possible to realize an effect process that reduces the volume of the music. Therefore, it is possible to give the user a virtual reality feeling as if the music is actually flowing from the virtual space behind the opening, and the realism of augmented reality can be improved.

なお本実施形態では、開口部の奥側の仮想空間に、BGM等の音楽の音源を設定し、この音源からの音楽が音出力部から出力されるような音処理を行ってもよい。例えば開口部の奥側の仮想空間から音楽が聞こえてくるような立体音響(例えば5.1chの立体音響)の音処理を行うようにしてもよい。こうすることで、拡張現実のリアル度を更に向上できる。   In the present embodiment, a sound source of music such as BGM may be set in the virtual space at the back of the opening, and sound processing may be performed so that music from this sound source is output from the sound output unit. For example, sound processing of stereophonic sound (for example, 5.1ch stereophonic sound) in which music can be heard from the virtual space behind the opening may be performed. By doing so, the real degree of augmented reality can be further improved.

また本実施形態では、認識対象物情報に関連づけて3次元オブジェクトの情報が図1の記憶部170(認識対象物情報記憶部176)に記憶されている。そして、この認識対象物情報が記憶部170から読み出され、認識対象物情報に関連づけられた3次元オブジェクトが仮想空間に配置設定されて、仮想空間画像が生成される。   In the present embodiment, information about a three-dimensional object is stored in the storage unit 170 (recognition target information storage unit 176) in FIG. 1 in association with the recognition target information. Then, the recognition target object information is read from the storage unit 170, the three-dimensional object associated with the recognition target object information is arranged and set in the virtual space, and a virtual space image is generated.

例えば図12に認識対象物情報のデータ構造の一例を示す。図12では認識対象物情報に対して、商品、キャラクタ情報、仮想空間情報が関連づけられている。図12の商品は、認識対象物情報が対象としている商品であり、例えば図2のCDケース20のCDなどである。キャラクタ情報は、図6、図7のキャラクタCHのオブジェクトの情報である。仮想空間情報は、図3〜図5の背景オブジェクトOB1〜OB11の設定情報である。   For example, FIG. 12 shows an example of the data structure of the recognition target object information. In FIG. 12, merchandise, character information, and virtual space information are associated with recognition object information. The product in FIG. 12 is a product targeted by the recognition target object information, such as a CD in the CD case 20 in FIG. The character information is information on the object of the character CH in FIGS. The virtual space information is setting information of the background objects OB1 to OB11 shown in FIGS.

このように図12では、認識対象物情報に対して、キャラクタ情報や仮想空間情報などの3次元オブジェクトの情報が関連づけられている。従って、例えば図1の認識処理部114が認識対象物の認識処理を行って、認識対象物が特定されると、特定された認識対象物に関連づけられたキャラクタ情報、仮想空間情報などの3次元オブジェクトの情報を記憶部170(オブジェクト情報記憶部172)から読み出すことが可能になる。これにより仮想空間設定部116が、読み出された3次元オブジェクトの情報に基づいて仮想空間の設定処理を行い、画像生成部120が、設定された仮想空間の画像である仮想空間画像を生成し、撮像画像と合成することで、図6、図7に示すような画像を生成できるようになる。   In this way, in FIG. 12, information of a three-dimensional object such as character information or virtual space information is associated with the recognition target object information. Therefore, for example, when the recognition processing unit 114 in FIG. 1 performs recognition processing of a recognition target and the recognition target is specified, three-dimensional information such as character information and virtual space information associated with the specified recognition target is obtained. The object information can be read from the storage unit 170 (object information storage unit 172). Thereby, the virtual space setting unit 116 performs a virtual space setting process based on the read information of the three-dimensional object, and the image generation unit 120 generates a virtual space image that is an image of the set virtual space. By synthesizing with the captured image, an image as shown in FIGS. 6 and 7 can be generated.

そして本実施形態では図12に示すように、認識対象物は商品に対応づけられており、当該商品の販売促進に本実施形態の手法を利用する。例えばCDの販売促進のために、図2に示すようにCDケース20の表紙等に認識対象物MK(或いはARマーカAMK)を印刷する。そしてCDを購入しに来たユーザが、図9に示すように端末装置10の奥側にCDケース20を位置させて、撮像部162で撮影する。こうすることで、図2の認識対象物MKである2次元キャラクタに対応する3次元のキャラクタCHの画像や、背景オブジェクトの画像が、図6、図7に示すように仮想空間画像として端末装置10の表示部190に表示されるようになる。従って、このような仮想空間画像の表示が動機づけとなって、ユーザがCDを購入するようになり、商品であるCDの販売促進を促すことが可能になる。なお認識対象物が対応づけられる商品は、このようなCDには限定されず、種々の商品(DVD、書籍、携帯型ゲーム機、家電、情報端末機器等)を想定できる。   And in this embodiment, as shown in FIG. 12, the recognition target object is matched with goods, and the method of this embodiment is used for sales promotion of the goods. For example, in order to promote sales of a CD, a recognition object MK (or AR marker AMK) is printed on the cover of the CD case 20 as shown in FIG. Then, the user who has purchased the CD places the CD case 20 on the back side of the terminal device 10 as shown in FIG. By doing so, the image of the three-dimensional character CH corresponding to the two-dimensional character that is the recognition target object MK in FIG. 2 and the image of the background object are converted into a virtual space image as shown in FIGS. 10 display units 190. Therefore, the display of such a virtual space image is a motivation, so that the user can purchase the CD, and the sales promotion of the CD as the product can be promoted. Note that the product to which the recognition target object is associated is not limited to such a CD, and various products (DVD, book, portable game machine, home appliance, information terminal device, etc.) can be assumed.

2.2 変形例
次に本実施形態の種々の変形例について説明する。本実施形態では、電子機器の表示部に表示された画像を、認識対象物として認識する処理を行ってもよい。
2.2 Modifications Next, various modifications of the present embodiment will be described. In the present embodiment, a process of recognizing an image displayed on the display unit of the electronic device as a recognition target object may be performed.

例えば図13(A)では、電子機器である携帯型ゲーム機30の表示部32に、キャラクタCHGの画像が表示されている。本実施形態では、表示部32に表示されるキャラクタCHGの画像を、認識対象物として認識する処理を行う。そしてキャラクタCHに対応する例えば3次元のキャラクタの画像により構成される仮想空間画像が生成されて、図6、図7に示すようなARの画像が表示される。このようにすれば、ユーザは、タブレット型PC、スマートフォン等の端末装置10の撮像部162を、携帯型ゲーム機30に向けるだけで、端末装置10の表示部190に、図6、図7に示すような画像が表示されるようになる。この場合に携帯型ゲーム機30に表示されるキャラクタCHGの種類等に応じて、仮想空間画像に表示されるキャラクタの画像も異なるようになる。このようなARの画像を表示することで、携帯型ゲーム機30の販売促進等を図れるようになる。   For example, in FIG. 13A, an image of the character CHG is displayed on the display unit 32 of the portable game machine 30 that is an electronic device. In this embodiment, the process of recognizing the image of the character CHG displayed on the display unit 32 as a recognition target object is performed. Then, a virtual space image composed of, for example, a three-dimensional character image corresponding to the character CH is generated, and an AR image as shown in FIGS. 6 and 7 is displayed. In this way, the user simply points the imaging unit 162 of the terminal device 10 such as a tablet PC or a smartphone toward the portable game machine 30, the display unit 190 of the terminal device 10 is displayed in FIGS. 6 and 7. An image as shown is displayed. In this case, the image of the character displayed in the virtual space image varies depending on the type of character CHG displayed on the portable game machine 30 and the like. By displaying such an AR image, it is possible to promote sales of the portable game machine 30 and the like.

図13(B)では、商品の展示会や催し物等の会場において、壁に複数のポスターPS1〜PS6が貼られている。そして端末装置であるスマートフォン12を手に持ったユーザUSが、スマートフォン12の撮像部をPS1〜PS6の各ポスターの方に向けると、スマートフォン12の表示部に、図6、図7に示すようなARの画像が表示されるようになる。この場合に、ARの画像として表示される仮想空間画像は、PS1〜PS6の各ポスター毎に異なっている。このようにすることで、例えばポスターPS1〜PS6により宣伝される商品やコンサート等の催し物の販売促進を図れるようになる。   In FIG. 13B, a plurality of posters PS1 to PS6 are pasted on the wall at a venue such as a product exhibition or an event. Then, when the user US holding the smartphone 12 that is the terminal device points the imaging unit of the smartphone 12 toward the posters PS1 to PS6, the display unit of the smartphone 12 has a display as illustrated in FIGS. The AR image is displayed. In this case, the virtual space image displayed as the AR image is different for each of the posters PS1 to PS6. By doing in this way, sales promotion of goods, such as goods advertised by posters PS1-PS6, and concerts, etc. can be aimed at now.

また本実施形態では、図14(A)に示すような玩具40や、図14(B)に示すような物品46を、認識対象物として認識する処理を行う。図14(B)の物品46は、ペットボトル等の容器の例であるが、本実施形態はこれに限定されない。そして本実施形態では玩具40又は物品46に対応する例えば3次元のオブジェクト(キャラクタ等)の画像により構成される仮想空間画像が生成されて、図6、図7に示すようなARの画像が表示される。このようにすれば、ユーザは、タブレット型PC、スマートフォン等の端末装置10の撮像部162を、玩具40又は物品46に向けるだけで、端末装置10の表示部190に、図6、図7に示すような画像が表示されるようになる。この場合に、玩具40又は物品46の種類、形状又は属性等に応じて、仮想空間画像に表示される3次元オブジェクトの画像も異なるようになる。例えば玩具40であれば、玩具40の種類又は形状等に対応する3次元オブジェクトの画像が、仮想空間画像として表示される。例えば玩具40の形を模したようなキャラクタの画像を、仮想空間画像として表示してもよい。或いは物品46である容器に印刷された画像(容器のラベルに印刷された画像等)に対応するキャラクタ等の3次元オブジェクトの画像を、仮想空間画像として表示してもよい。このようなARの画像を表示することで、玩具40又は物品46の販売促進等を図れるようになる。   Moreover, in this embodiment, the process which recognizes the toy 40 as shown to FIG. 14 (A) and the article | item 46 as shown to FIG. 14 (B) as a recognition target object is performed. The article 46 in FIG. 14B is an example of a container such as a plastic bottle, but the present embodiment is not limited to this. In this embodiment, a virtual space image composed of, for example, an image of a three-dimensional object (such as a character) corresponding to the toy 40 or the article 46 is generated, and an AR image as shown in FIGS. 6 and 7 is displayed. Is done. In this way, the user simply points the imaging unit 162 of the terminal device 10 such as a tablet PC or a smartphone toward the toy 40 or the article 46, and displays the display unit 190 of the terminal device 10 in FIGS. An image as shown is displayed. In this case, the image of the three-dimensional object displayed in the virtual space image varies depending on the type, shape, attribute, or the like of the toy 40 or the article 46. For example, in the case of the toy 40, an image of a three-dimensional object corresponding to the type or shape of the toy 40 is displayed as a virtual space image. For example, a character image imitating the shape of the toy 40 may be displayed as a virtual space image. Alternatively, an image of a three-dimensional object such as a character corresponding to an image (such as an image printed on a container label) printed on a container that is the article 46 may be displayed as a virtual space image. By displaying such an AR image, sales promotion of the toy 40 or the article 46 can be promoted.

図15では、キャラクタCHが、開口部OPから外に出るのではなく、マスクオブジェクトの領域から外に出ている。このようにすることで、例えば図6、図7において、開口部の周囲の画像領域RMSから、3次元のキャラクタCHが突然に出現するような演出を実現できる。即ち、何も存在しない空間から突然に3次元のキャラクタCHが飛び出して来るような演出効果を実現できるようになる。   In FIG. 15, the character CH does not go out of the opening OP but goes out of the area of the mask object. In this way, for example, in FIGS. 6 and 7, it is possible to realize an effect such that the three-dimensional character CH suddenly appears from the image region RMS around the opening. That is, it is possible to realize an effect such that a three-dimensional character CH suddenly jumps out of a space where nothing exists.

図16では、HMDを装着するユーザUSを囲むように、マスクオブジェクト(MS1〜MS6)が配置されている。そしてマスクオブジェクトに対して開口部OP1〜OP10が設けられており、ユーザUSは、開口部OP1〜OP10を介して、マスクオブジェクトの外側に設定された仮想空間の画像を見ることができる。このようにすれば図3〜図7とは異なった表示態様のARの画像をユーザUSに提供できるようになる。   In FIG. 16, mask objects (MS1 to MS6) are arranged so as to surround the user US wearing the HMD. Openings OP1 to OP10 are provided for the mask object, and the user US can see an image of the virtual space set outside the mask object via the openings OP1 to OP10. In this way, it becomes possible to provide the user US with an AR image having a display mode different from those shown in FIGS.

3.詳細な処理
次に本実施形態の詳細な処理例について図17のフローチャートを用いて説明する。
3. Detailed Processing Next, a detailed processing example of the present embodiment will be described with reference to the flowchart of FIG.

まず撮像画像を取得する(ステップS1)。例えば撮像部162により撮影された撮像画像を取得する。そして撮像画像に映る認識対象物の認識処理を行う(ステップS2)。例えば特徴点や輪郭形状のマッチング処理等を行うことで、認識対象物の認識処理を行う。そして3次元オブジェクトとマスクオブジェクトを仮想空間に配置設定する処理を行う(ステップS3)。例えば図12で説明したように、認識された認識対象物に対応する3次元オブジェクトの情報を記憶部170から読み出して、仮想空間の配置設定処理を行う。そして撮像画像を撮影する撮像部と認識対象物との位置関係情報に応じた描画処理を行い、開口部の画像領域には、仮想空間画像が表示され、開口部の周囲の画像領域には、3次元オブジェクトがマスクオブジェクトにマスクされることにより撮像画像が表示される画像を生成する(ステップS4)。例えば仮想空間において撮像部に対応する位置に仮想カメラを設定し、設定された仮想カメラから見える画像を仮想空間画像として生成することで、図6、図7に示すようなARの画像を生成する。   First, a captured image is acquired (step S1). For example, a captured image captured by the imaging unit 162 is acquired. And the recognition process of the recognition target object reflected in a captured image is performed (step S2). For example, recognition processing of a recognition target object is performed by performing matching processing of feature points and contour shapes. Then, processing for setting the arrangement of the three-dimensional object and the mask object in the virtual space is performed (step S3). For example, as described with reference to FIG. 12, the information of the three-dimensional object corresponding to the recognized recognition target is read from the storage unit 170, and the virtual space arrangement setting process is performed. Then, a drawing process is performed according to the positional relationship information between the imaging unit that captures the captured image and the recognition target, a virtual space image is displayed in the image area of the opening, and an image area around the opening is An image on which the captured image is displayed is generated by masking the three-dimensional object with the mask object (step S4). For example, a virtual camera is set at a position corresponding to the imaging unit in the virtual space, and an image seen from the set virtual camera is generated as a virtual space image, thereby generating an AR image as shown in FIGS. .

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(所定面等)と共に記載された用語(第1の面等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また撮像画像の取得処理、認識対象物の認識処理、仮想空間の配置設定処理、画像の生成及び合成処理、マスクオブジェクトの配置設定処理、画像の描画処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term (such as the first surface) described at least once together with a different term having a broader meaning or the same meaning (predetermined surface, etc.) in the specification or drawing is different from that term in any part of the specification or drawing. Can be replaced. The captured image acquisition process, recognition target object recognition process, virtual space arrangement setting process, image generation and synthesis process, mask object arrangement setting process, image drawing process, and the like are also described in this embodiment. The present invention is not limited, and techniques, processes, and configurations equivalent to these are also included in the scope of the present invention.

MK 認識対象物、AMK ARマーカ、US ユーザ、
OP、OP1〜OP110 開口部、 MS1〜MS6 面、VC 仮想カメラ、
CH、CHG キャラクタ、OB1〜OB11 背景オブジェクト、
ROP 開口部の画像領域、RMS 開口部の周囲の画像領域、
PS1〜PS6 ポスター、OP1〜OP10 開口部、VP 視点、
10 端末装置、12 スマートフォン、20 CDケース、
30 携帯型ゲーム機、32 表示部、40 玩具、46 物品、
100 処理部、112 画像取得部、114 認識処理部、
116 仮想空間設定部、118 仮想カメラ設定部、
120 画像生成部、122 画像合成部、130 音生成部、160 操作部、
162 撮像部、170 記憶部、172 オブジェクト情報記憶部、
174 描画バッファ、176 認識対象物情報記憶部、
180 情報記憶媒体、190 表示部、192 音出力部、
194 I/F部、195 携帯型情報記憶媒体、196 通信部
MK recognition object, AMK AR marker, US user,
OP, OP1-OP110 opening, MS1-MS6 plane, VC virtual camera,
CH, CHG character, OB1-OB11 background object,
Image area of ROP opening, image area around RMS opening,
PS1-PS6 poster, OP1-OP10 opening, VP viewpoint,
10 terminal devices, 12 smartphones, 20 CD cases,
30 portable game machines, 32 display units, 40 toys, 46 articles,
100 processing unit, 112 image acquisition unit, 114 recognition processing unit,
116 virtual space setting unit, 118 virtual camera setting unit,
120 image generation units, 122 image synthesis units, 130 sound generation units, 160 operation units,
162 imaging unit, 170 storage unit, 172 object information storage unit,
174 drawing buffer, 176 recognition object information storage unit,
180 information storage medium, 190 display unit, 192 sound output unit,
194 I / F unit, 195 portable information storage medium, 196 communication unit

Claims (15)

撮像画像を取得する画像取得部と、
前記撮像画像に映る認識対象物の認識処理を行う認識処理部と、
少なくとも1つの3次元オブジェクトと、前記3次元オブジェクトに対して所定の関係性をもって配置されるマスクオブジェクトとを、仮想空間に配置設定する処理を行う仮想空間設定部と、
前記認識対象物の場所に対応して設定された開口部の画像領域には、前記3次元オブジェクトの画像により構成される仮想空間画像が表示され、前記開口部の周囲の画像領域には、前記3次元オブジェクトが前記マスクオブジェクトによりマスクされることにより前記撮像画像が表示される画像を生成する画像生成部として、
コンピュータを機能させることを特徴とするプログラム。
An image acquisition unit for acquiring a captured image;
A recognition processing unit that performs recognition processing of a recognition object reflected in the captured image;
A virtual space setting unit that performs processing for setting the arrangement of at least one three-dimensional object and a mask object arranged with a predetermined relationship to the three-dimensional object in the virtual space;
A virtual space image composed of the image of the three-dimensional object is displayed in the image area of the opening set corresponding to the location of the recognition object, and the image area around the opening includes the As an image generation unit that generates an image in which the captured image is displayed by masking a three-dimensional object with the mask object,
A program characterized by causing a computer to function.
請求項1において、
前記仮想空間画像は、前記仮想空間において仮想カメラから見える画像であり、
前記所定の関係性は、前記仮想カメラから見て、前記マスクオブジェクトの所定面よりも奥側に前記3次元オブジェクトが位置するという関係性であることを特徴とするプログラム。
In claim 1,
The virtual space image is an image seen from a virtual camera in the virtual space,
The program according to claim 1, wherein the predetermined relationship is a relationship in which the three-dimensional object is located on the back side of the predetermined surface of the mask object as viewed from the virtual camera.
請求項1又は2において、
前記仮想空間設定部は、
前記開口部を内包する第1の面を有する前記マスクオブジェクトを、前記仮想空間に配置設定することを特徴とするプログラム。
In claim 1 or 2,
The virtual space setting unit
A program for arranging and setting the mask object having the first surface including the opening in the virtual space.
請求項3において、
前記仮想空間設定部は、
前記第1の面と、前記第1の面に交差する少なくとも1つの面とを有する前記マスクオブジェクトを、前記仮想空間に配置設定することを特徴とするプログラム。
In claim 3,
The virtual space setting unit
A program characterized in that the mask object having the first surface and at least one surface intersecting the first surface is arranged and set in the virtual space.
請求項4において、
前記所定の関係性は、前記第1の面と前記少なくとも1つの面とにより囲まれる領域に前記3次元オブジェクトが位置するという関係性であることを特徴とするプログラム。
In claim 4,
The program according to claim 1, wherein the predetermined relationship is a relationship in which the three-dimensional object is located in a region surrounded by the first surface and the at least one surface.
請求項1乃至5のいずれかにおいて、
前記仮想空間設定部は、
前記開口部よりも奥側に前記3次元オブジェクトが位置するように、前記3次元オブジェクトを前記仮想空間に配置設定することを特徴とするプログラム。
In any one of Claims 1 thru | or 5,
The virtual space setting unit
A program characterized in that the three-dimensional object is arranged and set in the virtual space so that the three-dimensional object is located behind the opening.
請求項1乃至6のいずれかにおいて、
前記仮想空間設定部は、
前記開口部を前記3次元オブジェクトが跨ぐように、前記3次元オブジェクトを前記仮想空間に配置設定することを特徴とするプログラム。
In any one of Claims 1 thru | or 6.
The virtual space setting unit
A program characterized in that the three-dimensional object is arranged and set in the virtual space so that the three-dimensional object straddles the opening.
請求項1乃至7のいずれかにおいて、
前記画像生成部は、
前記撮像画像を撮影する撮像部と前記認識対象物との位置関係情報に応じた描画処理を行って、前記仮想空間画像を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 7,
The image generation unit
A program characterized in that the virtual space image is generated by performing drawing processing according to positional relationship information between an imaging unit that captures the captured image and the recognition target object.
請求項8において、
前記仮想空間において前記撮像部に対応する位置に仮想カメラを設定する仮想カメラ設定部として、
コンピュータを機能させ、
前記画像生成部は、
前記仮想カメラから見える画像を前記仮想空間画像として生成することを特徴とするプログラム。
In claim 8,
As a virtual camera setting unit that sets a virtual camera at a position corresponding to the imaging unit in the virtual space,
Make the computer work,
The image generation unit
A program for generating an image visible from the virtual camera as the virtual space image.
請求項1乃至9のいずれかにおいて、
前記画像生成部は、
前記撮像画像を撮影する撮像部と前記認識対象物との位置関係情報に応じて、前記仮想空間画像の視認性を変化させる処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 9,
The image generation unit
The program which performs the process which changes the visibility of the said virtual space image according to the positional relationship information of the imaging part which image | photographs the said captured image, and the said recognition target object.
請求項1乃至10のいずれかにおいて、
前記撮像画像を撮影する撮像部と前記認識対象物との位置関係情報に応じて変化する音の生成処理を行う音生成部として、
コンピュータを機能させることを特徴とするプログラム。
In any one of Claims 1 thru | or 10.
As a sound generation unit that performs a sound generation process that changes according to positional relationship information between the imaging unit that captures the captured image and the recognition target object,
A program characterized by causing a computer to function.
請求項1乃至11のいずれかにおいて、
前記認識対象物の情報に関連づけて前記3次元オブジェクトの情報が記憶部に記憶されており、
前記仮想空間設定部は、
前記認識対象物の情報に関連づけられた前記3次元オブジェクトを、前記仮想空間に配置設定することを特徴とするプログラム。
In any one of Claims 1 thru | or 11,
Information on the three-dimensional object is stored in a storage unit in association with information on the recognition target object,
The virtual space setting unit
A program for arranging and setting the three-dimensional object associated with information of the recognition target in the virtual space.
請求項1乃至12のいずれかにおいて、
前記認識処理部は、
電子機器の表示部に表示された画像を、前記認識対象物として認識する処理を行うことを特徴とするプログラム。
In any one of Claims 1 to 12,
The recognition processing unit
The program which performs the process which recognizes the image displayed on the display part of the electronic device as the said recognition target object.
請求項1乃至13のいずれかにおいて、
前記認識処理部は、
玩具又は物品を、前記認識対象物として認識する処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 13.
The recognition processing unit
A program for recognizing a toy or an article as the recognition target.
撮像画像を取得する画像取得部と、
前記撮像画像に映る認識対象物の認識処理を行う認識処理部と、
少なくとも1つの3次元オブジェクトと、前記3次元オブジェクトに対して所定の関係性をもって配置されるマスクオブジェクトとを、仮想空間に配置設定する処理を行う仮想空間設定部と、
前記認識対象物の場所に対応して設定された開口部の画像領域には、前記3次元オブジェクトの画像により構成される仮想空間画像が表示され、前記開口部の周囲の画像領域には、前記3次元オブジェクトが前記マスクオブジェクトによりマスクされることにより前記撮像画像が表示される画像を生成する画像生成部と、
を含むことを特徴とする画像生成システム。
An image acquisition unit for acquiring a captured image;
A recognition processing unit that performs recognition processing of a recognition object reflected in the captured image;
A virtual space setting unit that performs processing for setting the arrangement of at least one three-dimensional object and a mask object arranged with a predetermined relationship to the three-dimensional object in the virtual space;
A virtual space image composed of the image of the three-dimensional object is displayed in the image area of the opening set corresponding to the location of the recognition object, and the image area around the opening includes the An image generation unit that generates an image in which the captured image is displayed by masking a three-dimensional object with the mask object;
An image generation system comprising:
JP2017070449A 2017-03-31 2017-03-31 Program and image generation system Active JP7116410B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017070449A JP7116410B2 (en) 2017-03-31 2017-03-31 Program and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017070449A JP7116410B2 (en) 2017-03-31 2017-03-31 Program and image generation system

Publications (2)

Publication Number Publication Date
JP2018173739A true JP2018173739A (en) 2018-11-08
JP7116410B2 JP7116410B2 (en) 2022-08-10

Family

ID=64108626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017070449A Active JP7116410B2 (en) 2017-03-31 2017-03-31 Program and image generation system

Country Status (1)

Country Link
JP (1) JP7116410B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020156083A (en) * 2019-03-18 2020-09-24 Scsk株式会社 Generation system and generation program
JP2022153230A (en) * 2021-03-29 2022-10-12 ナイアンティック, インコーポレイテッド Interactable augmented and virtual reality experience

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008532149A (en) * 2005-03-02 2008-08-14 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Method and apparatus for determining optical overlap with an AR object
JP2013196154A (en) * 2012-03-16 2013-09-30 Ntt Docomo Inc Image communication system, ar (augmented reality) moving image generation device and program
JP2013242865A (en) * 2012-04-27 2013-12-05 Canon Marketing Japan Inc Virtual space display system, method of controlling the same, and program
WO2016089655A1 (en) * 2014-12-04 2016-06-09 Microsoft Technology Licensing, Llc Mixed-reality visualization and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008532149A (en) * 2005-03-02 2008-08-14 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Method and apparatus for determining optical overlap with an AR object
JP2013196154A (en) * 2012-03-16 2013-09-30 Ntt Docomo Inc Image communication system, ar (augmented reality) moving image generation device and program
JP2013242865A (en) * 2012-04-27 2013-12-05 Canon Marketing Japan Inc Virtual space display system, method of controlling the same, and program
WO2016089655A1 (en) * 2014-12-04 2016-06-09 Microsoft Technology Licensing, Llc Mixed-reality visualization and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020156083A (en) * 2019-03-18 2020-09-24 Scsk株式会社 Generation system and generation program
JP2022153230A (en) * 2021-03-29 2022-10-12 ナイアンティック, インコーポレイテッド Interactable augmented and virtual reality experience
US11748961B2 (en) 2021-03-29 2023-09-05 Niantic, Inc. Interactable augmented and virtual reality experience

Also Published As

Publication number Publication date
JP7116410B2 (en) 2022-08-10

Similar Documents

Publication Publication Date Title
JP6754678B2 (en) Simulation system and program
JP5602618B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP5706241B2 (en) Image generation program, image generation apparatus, image generation system, and image generation method
JP7008730B2 (en) Shadow generation for image content inserted into an image
US8882593B2 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
US20090244064A1 (en) Program, information storage medium, and image generation system
US11738270B2 (en) Simulation system, processing method, and information storage medium
JP5675260B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP5939733B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
US8662976B2 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
JP7144796B2 (en) Simulation system and program
JP2010033298A (en) Program, information storage medium, and image generation system
JP2014170483A (en) Information processing system, information processor, information processing method and program for information processing
JP7116410B2 (en) Program and image generation system
JP3989396B2 (en) Image generation system, program, and information storage medium
US10025099B2 (en) Adjusted location hologram display
JP2005032140A (en) Image generation system, program, and information storage medium
TW478943B (en) Game machine, and image processing method for use with the game machine
JP2006323512A (en) Image generation system, program, and information storage medium
JP6918189B2 (en) Simulation system and program
JP4229317B2 (en) Image generation system, program, and information storage medium
JP4229316B2 (en) Image generation system, program, and information storage medium
JP3701647B2 (en) Image processing apparatus and program
JP2001314648A (en) Game apparatus and information storage medium
JP2001314646A (en) Game apparatus and information storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20200221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220719

R150 Certificate of patent or registration of utility model

Ref document number: 7116410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350