JP2020204856A - Image generation system and program - Google Patents
Image generation system and program Download PDFInfo
- Publication number
- JP2020204856A JP2020204856A JP2019111714A JP2019111714A JP2020204856A JP 2020204856 A JP2020204856 A JP 2020204856A JP 2019111714 A JP2019111714 A JP 2019111714A JP 2019111714 A JP2019111714 A JP 2019111714A JP 2020204856 A JP2020204856 A JP 2020204856A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- depth
- player
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000002131 composite material Substances 0.000 claims abstract description 71
- 238000000034 method Methods 0.000 claims description 154
- 238000012545 processing Methods 0.000 claims description 122
- 230000008569 process Effects 0.000 claims description 117
- 238000000605 extraction Methods 0.000 claims description 69
- 230000002194 synthesizing effect Effects 0.000 claims description 50
- 238000012937 correction Methods 0.000 claims description 43
- 239000000284 extract Substances 0.000 claims description 17
- 239000000203 mixture Substances 0.000 abstract description 26
- 238000003860 storage Methods 0.000 description 30
- 230000033001 locomotion Effects 0.000 description 27
- 238000004088 simulation Methods 0.000 description 24
- 238000001914 filtration Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000036544 posture Effects 0.000 description 11
- 238000011410 subtraction method Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 239000003550 marker Substances 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/803—Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、画像生成システム及びプログラム等に関する。 The present invention relates to an image generation system, a program, and the like.
従来より、仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成システムが知られている。仮想カメラから見える画像をHMD(頭部装着型表示装置)に表示して、バーチャルリアリティ(VR)を実現するシステムの従来技術としては、例えば特許文献1に開示される技術がある。また実写映像と仮想空間画像をブルーバックにより合成するシステムの従来技術としては、例えば特許文献2に開示される技術がある。 Conventionally, an image generation system that generates a virtual space image that can be seen from a virtual camera in a virtual space has been known. As a conventional technique of a system that realizes virtual reality (VR) by displaying an image seen from a virtual camera on an HMD (head-mounted display device), for example, there is a technique disclosed in Patent Document 1. Further, as a conventional technique of a system for synthesizing a live-action image and a virtual space image by blue background, for example, there is a technique disclosed in Patent Document 2.
ブルーバックやグリーンバックを用いるクロマキー合成では、画像生成システムの設置場所にブルーバックやグリーバックのための大掛かりな撮影用機材を設けなければならないという問題がある。また仮想空間画像と実空間画像の画像合成の品質が低いと、仮想空間画像と実空間画像の整合性が取れなくなり、望ましい結果が得られなくなってしまう。 Chroma key composition using a blue background or a green background has a problem that a large-scale shooting equipment for a blue background or a green background must be installed at the installation location of the image generation system. Further, if the quality of the image composition of the virtual space image and the real space image is low, the virtual space image and the real space image cannot be consistent with each other, and the desired result cannot be obtained.
本発明の幾つかの態様によれば、カメラにより撮影された被写体の画像と仮想空間画像とを簡素なシステムで高品位に合成できる画像生成システム及びプログラム等を提供できる。 According to some aspects of the present invention, it is possible to provide an image generation system and a program capable of combining an image of a subject taken by a camera and a virtual space image with a simple system with high quality.
本開示の一態様は、実空間に配置されたカメラにより背景及び被写体を撮影した第1画像と、前記カメラにより前記背景を撮影した第2画像と、を取得する取得部と、前記カメラの位置に対応する仮想空間の位置に配置された撮影用の仮想カメラから見える仮想空間画像を生成する画像生成部と、前記第1画像と前記第2画像の差分画像を求めることで前記被写体の画像を抽出して、前記仮想空間画像に前記被写体の画像が合成された合成画像を生成する画像合成部と、を含むことを特徴とする画像生成システムに関係する。また本開示の一態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 One aspect of the present disclosure is an acquisition unit for acquiring a first image in which a background and a subject are photographed by a camera arranged in a real space and a second image in which the background is photographed by the camera, and a position of the camera. An image of the subject is obtained by obtaining an image generation unit that generates a virtual space image that can be seen from a virtual camera for shooting arranged at a position in the virtual space corresponding to the above, and a difference image between the first image and the second image. The present invention relates to an image generation system, which comprises an image synthesizing unit that extracts and generates a composite image in which an image of the subject is synthesized with the virtual space image. Further, one aspect of the present disclosure relates to a program that causes a computer to function as each of the above parts, or a computer-readable information storage medium that stores the program.
本開示の一態様によれば、背景及び被写体を撮影した第1画像と、背景を撮影した第2画像が取得されると共に、これらの第1画像及び第2画像を撮影したカメラの位置に対応する仮想空間の位置に、撮影用の仮想カメラが配置され、撮影用の仮想カメラから見える仮想空間画像が生成される。そして第1画像と第2画像の差分画像を求めることで被写体の画像が抽出され、仮想空間画像に被写体の画像が合成された合成画像を生成される。このようにすれば、仮想空間画像に被写体の画像が合成された合成画像を、大掛かりな撮影用機材を必要とすることなく生成できるようになり、カメラにより撮影された被写体の画像と仮想空間画像とを簡素なシステムで高品位に合成できる画像生成システム等の提供が可能になる。 According to one aspect of the present disclosure, the first image in which the background and the subject are photographed and the second image in which the background is photographed are acquired, and the positions of the cameras in which the first image and the second image are photographed correspond to each other. A virtual camera for shooting is arranged at the position of the virtual space to be shot, and a virtual space image that can be seen from the virtual camera for shooting is generated. Then, the image of the subject is extracted by obtaining the difference image between the first image and the second image, and a composite image in which the image of the subject is combined with the virtual space image is generated. In this way, it becomes possible to generate a composite image in which the image of the subject is combined with the virtual space image without the need for large-scale shooting equipment, and the image of the subject and the virtual space image taken by the camera. It will be possible to provide an image generation system or the like that can synthesize high-quality images with a simple system.
また本開示の一態様では、前記画像合成部は、前記実空間において前記被写体が搭乗する筐体の画像を抽出し、前記仮想空間画像に前記被写体の画像及び前記筐体の画像が合成された前記合成画像を生成してもよい。 Further, in one aspect of the present disclosure, the image synthesizing unit extracts an image of a housing on which the subject is mounted in the real space, and the image of the subject and the image of the housing are combined with the virtual space image. The composite image may be generated.
このようにすれば、実空間において被写体が筐体に搭乗している場合に、筐体に被写体が搭乗している状態の実空間画像が、仮想空間画像に合成された画像を生成できるようになる。 By doing so, when the subject is on the housing in the real space, the real space image in the state where the subject is on the housing can generate an image synthesized with the virtual space image. Become.
また本開示の一態様では、前記画像合成部は、前記筐体の画像の抽出範囲を指定する筐体マスク画像を用いて、前記筐体の画像を抽出してもよい。 Further, in one aspect of the present disclosure, the image synthesizing unit may extract the image of the housing by using the housing mask image that specifies the extraction range of the image of the housing.
このような筐体マスク画像を用いることで、本来は背景として非抽出となる筐体の画像を、被写体の画像と同様に抽出できるようになる。 By using such a housing mask image, it becomes possible to extract an image of the housing that is not originally extracted as a background in the same manner as the image of the subject.
また本開示の一態様では、前記画像合成部は、前記被写体が装着する少なくとも1つのトラッキング装置からのトラッキング情報に基づいて、前記被写体の画像の抽出範囲を設定して、前記被写体の画像を抽出してもよい。 Further, in one aspect of the present disclosure, the image synthesizing unit sets an extraction range of the image of the subject based on tracking information from at least one tracking device worn by the subject, and extracts the image of the subject. You may.
このようにすれば、被写体の姿勢が変化したり、被写体が種々の動作を行った場合にも、適正な抽出範囲での被写体の画像の抽出処理を実現でき、例えば被写体として予定していない物体が被写体として抽出されてしまう事態を防止できるようになる。 By doing so, even if the posture of the subject changes or the subject performs various actions, the image extraction process of the subject within an appropriate extraction range can be realized. For example, an object that is not planned as a subject. Can be prevented from being extracted as a subject.
また本開示の一態様では、前記画像合成部は、前記トラッキング装置の位置と、前記トラッキング装置の位置から所与の距離だけシフトした位置に設定された補助点の位置とに基づいて、前記被写体の画像の前記抽出範囲を設定してもよい。 Further, in one aspect of the present disclosure, the image compositing unit is based on the position of the tracking device and the position of an auxiliary point set to a position shifted by a predetermined distance from the position of the tracking device. The extraction range of the image of the above may be set.
このようにすれば、トラッキング装置の位置だけでは適切な抽出範囲を設定できないような状況においても、補助点を用いて、被写体を内包するような抽出範囲を設定できるようになり、被写体の画像の適正な抽出処理を実現できる。 In this way, even in a situation where an appropriate extraction range cannot be set only by the position of the tracking device, it is possible to set an extraction range that includes the subject by using the auxiliary points, and the image of the subject can be set. Appropriate extraction processing can be realized.
また本開示の一態様では、前記画像生成部は、前記被写体であるプレーヤに表示されるプレーヤ用の仮想空間画像として、前記仮想空間において前記撮影用の仮想カメラの位置に対応する位置に、前記撮影用の仮想カメラの画像及び撮影者キャラクタの画像の少なくとも一方が表示される仮想空間画像を生成してもよい。 Further, in one aspect of the present disclosure, the image generation unit is set at a position corresponding to the position of the virtual camera for shooting in the virtual space as a virtual space image for the player displayed on the player who is the subject. You may generate a virtual space image in which at least one of the image of the virtual camera for shooting and the image of the photographer character is displayed.
このようにすれば、撮影用の仮想カメラにより自身が撮影されていることをプレーヤに意識させることが可能になり、プレーヤの動作やポーズを誘引するなどの演出効果の実現が可能になる。 In this way, it becomes possible to make the player aware that he / she is being photographed by the virtual camera for photography, and it is possible to realize an effect such as inducing the movement or pose of the player.
また本開示の一態様では、前記被写体であるプレーヤが装着し、前記仮想空間においてプレーヤ用の仮想カメラから見えるプレーヤ用の仮想空間画像が表示される頭部装着型表示装置と、前記合成画像がギャラリー用画像として表示されるギャラリー用表示装置と、を含んでもよい。 Further, in one aspect of the present disclosure, a head-mounted display device worn by the player who is the subject and displaying a virtual space image for the player seen from the virtual camera for the player in the virtual space, and the composite image are A gallery display device, which is displayed as a gallery image, may be included.
このようにすれば、仮想空間において頭部装着型表示装置を装着してプレイするプレーヤの行動の様子をギャラリーに見物させることが可能になる。 In this way, it is possible to let the gallery observe the behavior of the player who wears the head-mounted display device and plays in the virtual space.
また本開示の一態様では、前記取得部は、前記背景及び前記被写体を前記カメラにより撮影したデプス画像を取得し、前記画像合成部は、前記差分画像と前記デプス画像に基づいて、前記被写体の画像を抽出してもよい。 Further, in one aspect of the present disclosure, the acquisition unit acquires a depth image of the background and the subject taken by the camera, and the image synthesis unit acquires the depth image of the subject based on the difference image and the depth image. The image may be extracted.
このように差分画像のみならず、デプス画像を用いて、被写体の画像を抽出することで、仮想空間画像と被写体の画像の更に高品位な画像合成を実現できるようになる。 By extracting the image of the subject using not only the difference image but also the depth image in this way, it becomes possible to realize a higher quality image composition of the virtual space image and the image of the subject.
また本開示の一態様では、前記画像合成部は、前記差分画像に基づいて差分マスク画像を生成し、前記デプス画像に基づいて、デプス値が所与のデプス範囲となる画素を識別するデプスマスク画像を生成し、前記差分マスク画像と前記デプスマスク画像に基づいて、前記被写体を識別する被写体マスク画像を生成し、前記被写体マスク画像と前記第1画像に基づいて、前記被写体の画像を抽出してもよい。 Further, in one aspect of the present disclosure, the image synthesizing unit generates a difference mask image based on the difference image, and identifies a pixel whose depth value is in a given depth range based on the depth image. An image is generated, a subject mask image that identifies the subject is generated based on the difference mask image and the depth mask image, and an image of the subject is extracted based on the subject mask image and the first image. You may.
このような差分マスク画像とデプスマスク画像を用いることで、背景及び被写体が映る第1画像から、被写体の画像を高品位に抽出することが可能になる。 By using such a difference mask image and a depth mask image, it is possible to extract a high-quality image of the subject from the first image in which the background and the subject are reflected.
また本開示の一態様では、前記画像合成部は、前記デプスマスク画像の補正処理を行い、前記補正処理後の前記デプスマスク画像と前記差分マスク画像に基づいて前記被写体マスク画像を生成してもよい。 Further, in one aspect of the present disclosure, the image synthesizing unit may perform correction processing of the depth mask image and generate the subject mask image based on the depth mask image and the difference mask image after the correction processing. Good.
このようにデプスマスク画像に対して補正処理を行えば、エッジ部分のちらつきの防止や、細かいノイズの除去等を実現でき、高品位な合成画像の生成が可能になる。 By performing the correction processing on the depth mask image in this way, it is possible to prevent flicker of the edge portion, remove fine noise, and the like, and it is possible to generate a high-quality composite image.
また本開示の一態様では、前記画像合成部は、前記背景及び前記被写体を前記カメラにより撮影した第1デプス画像と前記背景を前記カメラにより撮影した第2デプス画像との差分デプスマスク画像を生成し、前記差分デプスマスク画像に基づいて、前記補正処理後の前記デプスマスク画像を生成してもよい。 Further, in one aspect of the present disclosure, the image synthesizing unit generates a difference depth mask image between the first depth image of the background and the subject taken by the camera and the second depth image of the background taken by the camera. Then, the depth mask image after the correction process may be generated based on the difference depth mask image.
このような差分デプスマスク画像を用いれば、背景の領域を被写体の領域と誤認識してしまうような事態を防止できる。 By using such a difference depth mask image, it is possible to prevent a situation in which the background area is erroneously recognized as the subject area.
また本開示の一態様では、前記画像合成部は、モルフォロジーフィルター処理及び時系列フィルター処理の少なくとも一方を行うことで、前記補正処理後の前記デプスマスク画像を生成してもよい。 Further, in one aspect of the present disclosure, the image synthesizing unit may generate the depth mask image after the correction process by performing at least one of the morphology filter process and the time series filter process.
このようなモルフォロジーフィルター処理や時系列フィルター処理を行うことで、細かいサイズのノイズを除去したり、細かなノイズのちらつきの発生を抑制できるようになる。 By performing such morphology filtering and time-series filtering, it becomes possible to remove fine-sized noise and suppress the occurrence of fine noise flicker.
また本開示の一態様では、前記画像合成部は、前記デプス画像において前記デプス値が取得できなかった画素の画素値を、前記差分画像に基づき設定する処理を行うことで、前記補正処理後の前記デプスマスク画像を生成してもよい。 Further, in one aspect of the present disclosure, the image synthesizing unit performs a process of setting the pixel value of the pixel for which the depth value could not be acquired in the depth image based on the difference image, thereby performing the correction process. The depth mask image may be generated.
このようにすれば、デプス値を取得できなかったことが原因で画像が欠けてしまう問題を防止でき、適切な被写体の抽出画像を生成できるようになる。 By doing so, it is possible to prevent the problem that the image is chipped due to the failure to acquire the depth value, and it becomes possible to generate an appropriate extracted image of the subject.
また本開示の一態様では、前記画像合成部は、前記デプス値が前記デプス範囲となる画素群の領域サイズを求め、前記領域サイズによるフィルター処理を行うことで、前記補正処理後の前記デプスマスク画像を生成してもよい。 Further, in one aspect of the present disclosure, the image synthesizing unit obtains a region size of a pixel group in which the depth value is in the depth range, and performs a filter process according to the region size to perform the correction process to obtain the depth mask. An image may be generated.
このようにすれば、ノイズ等を原因とする小さな領域サイズの画素群を排除して、被写体に対応する画素群を抽出することが可能になり、高品位な合成画像を生成できる。 By doing so, it is possible to eliminate a pixel group having a small area size caused by noise or the like and extract a pixel group corresponding to the subject, and it is possible to generate a high-quality composite image.
また本開示の一態様では、前記画像合成部は、前記被写体の領域と判断される被写体領域でのデプス値に基づいて第2デプス範囲を設定し、前記デプス値が前記第2デプス範囲となる画素を識別する画像を、前記デプスマスク画像として生成してもよい。 Further, in one aspect of the present disclosure, the image synthesizing unit sets a second depth range based on a depth value in a subject area determined to be the area of the subject, and the depth value becomes the second depth range. An image that identifies the pixels may be generated as the depth mask image.
このようにすれば、被写体の移動を反映させたデプスマスク画像の生成が可能になり、高品位な合成画像を生成できるようになる。 By doing so, it becomes possible to generate a depth mask image that reflects the movement of the subject, and it becomes possible to generate a high-quality composite image.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲の記載内容を不当に限定するものではない。また本実施形態で説明される構成の全てが必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. It should be noted that the present embodiment described below does not unreasonably limit the description of the scope of claims. Moreover, not all of the configurations described in the present embodiment are essential configuration requirements.
1.画像生成システム
図1は、本実施形態の画像生成システムの構成例を示すブロック図である。本実施形態の画像生成システムにより、例えばバーチャルリアリティ(VR)をシミュレートするシミュレーションシステムが実現される。本実施形態の画像生成システムは、ゲームコンテンツを提供するゲームシステム、運転シミュレータやスポーツ競技シミュレータなどのリアルタイムシミュレーションシステム、或いは映像等のコンテンツを提供するコンテンツ提供システムなどの種々のシステムに適用可能である。なお、本実施形態の画像生成システムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. 1. Image generation system FIG. 1 is a block diagram showing a configuration example of the image generation system of the present embodiment. The image generation system of the present embodiment realizes, for example, a simulation system that simulates virtual reality (VR). The image generation system of the present embodiment can be applied to various systems such as a game system that provides game content, a real-time simulation system such as a driving simulator or a sports competition simulator, or a content providing system that provides content such as video. .. The image generation system of the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting a part of its constituent elements (each part) or adding other constituent elements are possible. ..
筐体30は、例えばプレーヤが搭乗可能なライド筐体である。具体的には筐体30は、例えばプレーヤのプレイ位置を変化させる可動筐体である。この筐体30は、例えばアーケード筐体などと呼ばれるものであり、画像生成システムにより実現されるシミュレーションシステムの装置の外殻となるものであり、箱状である必要はない。筐体30は、車ゲームやロボットゲームや飛行機ゲームなどにおけるコックピット筐体(体感筐体)であってもよいし、その他の形態の筐体であってもよい。筐体30は、シミュレーションシステムの本体部分であり、シミュレーションシステムを実現するための種々の機器、構造物が設けられる。筐体30には、少なくともプレイ位置が設定されている。筐体30の構成例については後述の図3により詳細に説明する。
The
カメラ150は、カラー画像やデプス画像などの画像を撮影する装置である。例えばカメラ150はカラーカメラ152とデプスカメラ154を含む。カラーカメラ152はRGBなどのカラー画像を撮影するカメラであり、CMOSセンサーやCCDなどのイメージセンサーと、レンズ等の光学系により実現できる。デプスカメラ154は、視野にある物体の奥行き方向の位置関係を検知できるカメラであり、デプスカメラ154を用いることでデプス画像を取得できる。デプス画像は、例えば各画素の画素値としてZ値であるデプス値が設定される画像である。例えばデプスカメラ154は、ステレオカメラを構成する第1、第2のデプスセンサーと、赤外線を投射するIR投射器により実現できる。第1、第2のデプスセンサーは例えば赤外線カメラにより実現できる。例えば第1、第2のデプスセンサーによりデプス値を計測すると共に、IR投射器がIRパターンを投射することで、計測されるデプス値の精度を向上できる。具体的には第1のデプスセンサーにより取得された左目画像における点と、第2のデプスセンサーにより取得された右目画像における点との対応づけを行い、これらの点の間のシフト量により、奥行き値であるデプス値を算出する。なおデプス値の計測手法は上記したものに限定されず、種々の変形実施が可能である。またカラーカメラ152とデプスカメラ154を1つのカメラ筐体により実現してもよいし、カラーカメラ152とデプスカメラ154の各々を別体のカメラ筐体により実現してもよい。
The
操作部160は、プレーヤ(ユーザ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えばハンドル、アクセルペダル、ブレーキペダル、レバー、操作ボタン、方向指示キー、ゲームコントローラ、ガン型コントローラ、タッチパネル、又は音声入力装置等の種々の操作デバイスにより実現できる。
The
記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。画像生成処理用やゲーム処理用のプログラムや、プログラムの実行に必要なデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、仮想空間情報記憶部172、描画バッファ178を含む。
The
コンピュータにより読み取り可能な媒体である情報記憶媒体180は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
The
HMD200(頭部装着型表示装置)は、プレーヤの頭部に装着されて、プレーヤの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。HMD200は、例えばヘッドトラッキングなどのトラッキング処理を実現するためのトラッキング装置206を含むことができる。トラッキング装置206を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、プレーヤの視点位置、視線方向を特定できる。トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、トラッキング装置206として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(プレーヤの頭部)の位置、方向を特定する。第2のトラッキング方式では、トラッキング装置206として複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、トラッキング装置206としてモーションセンサーを設け、このモーションセンサーを用いてHMD200の位置、方向を特定する。モーションセンサーは例えば加速度センサーやジャイロセンサーなどにより実現できる。例えば3軸の加速度センサーと3軸のジャイロセンサーを用いた6軸のモーションセンサーを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。またHMD200の位置、方向を特定することでプレーヤの視点位置、視線方向を特定するのではなく、プレーヤの視点位置、視線方向を直接に特定するトラッキング処理を採用してもよい。例えばアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法を用いてもよい。また環境認識カメラを用いてプレーヤの周囲の実空間の認識処理を行い、認識処理の結果に基づいてプレーヤの位置や方向等を特定してもよい。例えば認識された実空間の物体との相対的位置関係からプレーヤの位置や方向等を特定してもよい。
The HMD200 (head-mounted display device) is a device that is attached to the player's head and displays an image in front of the player's eyes. The
HMD200の表示部208は例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現できる。例えばHMD200の表示部208には、プレーヤの左眼の前に設定される第1のディスプレイ又は第1の表示領域と、右眼の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左眼用画像と右眼用画像を生成し、第1のディスプレイに左眼用画像を表示し、第2のディスプレイに右眼用画像を表示する。或いは1つのディスプレイの第1の表示領域に左眼用画像を表示し、第2の表示領域に右眼用画像を表示する。またHMD200には左眼用、右眼用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりプレーヤの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左眼用画像、右眼用画像に対して行われる。
The
ギャラリー用表示装置210は、ギャラリー用画像を表示するための装置であり、例えばLCD、有機ELディスプレイ、或いはCRTなどにより実現できる。例えば本実施形態により生成された合成画像がギャラリー用表示装置210に表示され、観客であるギャラリーは、プレーヤがプレイする様子を見物することができる。ギャラリー用表示装置210は、例えば画像生成システムにより実現されるシミュレーションシステムの施設に設置される。
The
音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。
The
I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、プレーヤが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。
The I / F (interface)
通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。
The
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本開示の範囲内に含めることができる。
The program (data) for operating the computer as each part of the present embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or storage unit 170) via the network and the
処理部100(プロセッサ)は、操作部160からの操作情報や、HMD200でのトラッキング情報(HMDの位置及び方向の少なくとも一方の情報。視点位置及び視線方向の少なくとも一方の情報)や、プログラムなどに基づいて、画像の取得処理、仮想空間設定処理、ゲーム処理(シミュレーション処理)、仮想カメラ制御処理、画像生成処理、画像合成処理、或いは音生成処理などを行う。
The processing unit 100 (processor) provides operation information from the
処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
Each process (each function) of the present embodiment performed by each unit of the
処理部100は、取得部102、仮想空間設定部104、ゲーム処理部106、仮想カメラ制御部110、画像生成部120、画像合成部122、音生成部130を含む。ゲーム処理部106は、移動体処理部107、筐体制御部108を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
The
取得部102は、種々の情報の取得処理を行うものであり、情報取得のためのインターフェースである。例えば取得部102は、カメラ150により撮影された画像を取得する。例えばカメラ150により撮影されたカラー画像やデプス画像を取得する。また取得部102は、プレーヤの位置情報(視点位置情報)、方向情報(視線方向情報)及び姿勢情報(動き情報)の少なくとも1つを含むプレーヤ情報を取得する。
The
仮想空間設定部104は、オブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(車、人、ロボット、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、アイテム、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170の仮想空間情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度又は移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。即ち、オブジェクト情報が仮想空間情報として仮想空間情報記憶部172に記憶される。仮想空間設定部104は、例えば各フレーム毎に、仮想空間情報であるオブジェクト情報の更新処理を行う。
The virtual
ゲーム処理部106は、プレーヤがゲームをプレイするための種々のゲーム処理を行う。別の言い方をすれば、ゲーム処理部106(シミュレーション処理部)は、プレーヤが仮想現実(バーチャルリアリティ)を体験するための種々のシミュレーション処理を実行する。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。このゲーム処理部106は、移動体処理部107、筐体制御部108を含む。
The
移動体処理部107は、仮想空間内で移動する移動体についての種々の処理を行う。例えば仮想空間(オブジェクト空間、ゲーム空間)において移動体を移動させる処理や、移動体を動作させる処理を行う。例えば移動体処理部107は、操作部160によりプレーヤが入力した操作情報や、取得されたトラッキング情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(モデルオブジェクト)を仮想空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。移動体は、例えば実空間のプレーヤに対応するプレーヤキャラクタ(仮想プレーヤ)や、プレーヤキャラクタが搭乗する搭乗移動体である。搭乗移動体は、例えば仮想空間に登場する車、船、ボート、飛行機、戦車、又はロボット等の乗り物を模した移動体である。そして実空間の筐体30に対応する仮想空間の搭乗移動体にプレーヤキャラクタが搭乗する。移動体処理部107は、このような搭乗移動体を仮想空間内で移動させたり、プレーヤキャラクタを仮想空間内に移動させる処理を行う。
The moving
筐体制御部108は、筐体30の制御処理を行う。例えば筐体30の可動機構を制御して、実空間の筐体30の姿勢や位置を変化させる制御処理を行う。例えば筐体30の姿勢や位置が変化することで、筐体30に搭乗するプレーヤのプレイ位置が変化する。
The
仮想カメラ制御部110は、仮想カメラの制御を行う。例えば、操作部160により入力されたプレーヤの操作情報やトラッキング情報などに基づいて、仮想カメラを制御する。具体的にはプレーヤ用の仮想カメラを制御する。例えば仮想空間において移動するプレーヤキャラクタの視点(一人称視点)に対応する位置に、プレーヤ用の仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。或いは、プレーヤキャラクタや搭乗移動体などの移動体に追従する視点(三人称視点)の位置に、プレーヤ用の仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置や姿勢を制御する。
The virtual
例えば仮想カメラ制御部110は、視点トラッキングにより取得されたプレーヤの視点情報のトラッキング情報に基づいて、プレーヤの視点変化に追従するようにプレーヤ用の仮想カメラを制御する。例えば本実施形態では、プレーヤの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)が取得される。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。そして仮想カメラ制御部110は、取得されたトラッキング情報(プレーヤの視点位置及び視線方向の少なくとも一方の情報)に基づいてプレーヤ用の仮想カメラの視点位置、視線方向を変化させる。例えば、仮想カメラ制御部110は、実空間でのプレーヤの視点位置、視線方向の変化に応じて、仮想空間での仮想カメラの視点位置、視線方向(位置、姿勢)が変化するように、仮想カメラを設定する。このようにすることで、プレーヤの視点情報のトラッキング情報に基づいて、プレーヤの視点変化に追従するように仮想カメラを制御できる。
For example, the virtual
また仮想カメラ制御部110は、実空間画像との合成対象となる仮想空間画像の撮影用の仮想カメラの制御も行う。例えば実空間のカメラ150の位置に対応する仮想空間の位置に撮影用の仮想カメラを配置する。そして撮影用の仮想カメラから見える仮想空間画像が、カメラ150により撮影された実空間画像に合成される。
The virtual
画像生成部120は、仮想空間画像の生成処理を行う。仮想空間画像はゲーム画像やシミュレーション画像である。例えば画像生成部120は、処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより仮想空間画像を生成する。例えばプレーヤ用の仮想カメラから見えるプレーヤ用の仮想空間画像はHMD200に表示される。撮影用の仮想カメラから見える仮想空間画像は、実空間画像と合成される。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、仮想空間において仮想カメラ(所与の視点。左眼用、右眼用の第1、第2の視点)から見える画像が生成される。なお、画像生成部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。
The
画像合成部122は、仮想空間画像と実空間画像の合成処理を行って、合成画像を生成する。例えば画像合成部122は、仮想空間画像に実空間の被写体の画像が合成された合成画像を生成する。画像合成部122により生成された合成画像は、ギャラリー用画像としてギャラリー用表示装置210に表示される。
The
音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。
The
そして本実施形態の画像生成システムは図1に示すように、取得部102と画像生成部120と画像合成部122を含む。
Then, as shown in FIG. 1, the image generation system of the present embodiment includes an
取得部102は、カメラ150により背景及び被写体を撮影した第1画像を取得する。またカメラ150により背景を撮影した第2画像を取得する。例えば取得部102は、カラーカメラ152により撮影されたカラー画像である第1画像と第2画像を取得する。第1画像では、背景及び被写体の両方が撮影されているが、第2画像では、背景が撮影されている一方で被写体は撮影されていない。被写体は、カメラの撮影対象となる実空間の物体であり、例えばプレーヤである。但し本実施形態の被写体はこれに限定されるものではなく、プレーヤ以外の被写体であってもよい。
The
画像生成部120は、仮想空間において仮想カメラから見える仮想空間画像を生成する。例えば複数のオブジェクトが配置されるオブジェクト空間である仮想空間において、仮想カメラから見える画像である仮想空間画像を生成する。例えば画像生成部120は、仮想空間においてプレーヤ用の仮想カメラから見えるプレーヤ用の仮想空間画像を生成する。このようにして生成されたプレーヤ用の仮想空間画像が、HMD200に表示されることで、VRの世界をプレーヤに体験させることができる。なお画像生成部120により生成されたプレーヤ用の仮想空間画像を、HMD200とは異なるタイプの表示装置に表示してもよい。例えばプレーヤの視界を覆うドーム形状の表示スクリーンを有するような表示装置に表示してもよい。
The
また画像生成部120は、カメラ150の位置に対応する仮想空間の位置に配置された撮影用の仮想カメラから見える仮想空間画像を生成する。撮影用の仮想カメラは、カメラ150により撮影された実空間画像の合成対象となる仮想空間画像を撮影するための仮想カメラである。撮影用の仮想カメラは、仮想空間において、実空間のカメラ150の位置に対応する位置に配置される。一例としてはカメラ150は、実空間の被写体の前方において被写体に正対するように配置される。即ち被写体が撮影範囲に入るようにカメラ150が配置される。この場合には撮影用の仮想カメラは、被写体に対応する仮想空間のオブジェクトの前方において、当該オブジェクトに正対するように配置される。この場合に撮影用の仮想カメラと当該オブジェクトとのカメラ距離は、カメラ150と被写体とのカメラ距離に対応する距離に設定される。被写体がプレーヤである場合を例にとれば、カメラ150は、実空間のプレーヤの前方においてプレーヤに正対するように配置される。そして撮影用の仮想カメラは、プレーヤに対応するプレーヤキャラクタ(プレーヤ移動体)の前方において、プレーヤキャラクタに正対するように配置される。この場合に撮影用の仮想カメラとプレーヤキャラクタとの距離は、カメラ150とプレーヤとの距離に対応する距離に設定される。
Further, the
画像合成部122は、第1画像と第2画像の差分画像を求めることで被写体の画像を抽出する。即ち背景及び被写体が映る第1画像と、背景が映る第2画像の差分画像から、被写体の画像を抽出する処理を行う。そして画像合成部122は、仮想空間画像に被写体の画像が合成された合成画像を生成する。この合成画像は例えばギャラリー用表示装置210に表示される。
The
なお合成画像が表示される表示装置は、ギャラリー用表示装置210には限定されない。例えば合成画像をネットワークを介して配信して、PCやゲーム装置等の端末装置に表示してもよい。配信としては、例えばインターネットやサーバ等を用いた配信が考えられる。或いはHMD200の表示領域の一部の領域に、仮想空間画像に被写体の画像が合成された合成画像を表示してもよい。
The display device on which the composite image is displayed is not limited to the
また画像合成部122は、実空間において被写体が搭乗する筐体30の画像を抽出する。そして仮想空間画像に被写体の画像及び筐体30の画像が合成された合成画像を生成する。この合成画像はギャラリー用表示装置210等の表示装置に表示される。例えば被写体であるプレーヤは、ライド筐体である筐体30に搭乗することで、VRゲーム(シミュレーションゲーム)のプレイを楽しむ。例えば仮想空間画像には、筐体30に対応する車、船又はロボット等の移動体が表示される。筐体30が可動筐体である場合には、筐体30の姿勢が変化するように筐体30が制御される。これにより、筐体30に搭乗するプレーヤのプレイ位置が様々に変化する。画像合成部122は、プレーヤなどの被写体の画像のみならず、このような筐体30の画像が仮想空間画像に合成された合成画像を生成する。これにより、実空間においてプレーヤが筐体30に搭乗している場合に、筐体30にプレーヤが搭乗している様子を表す実空間画像が、仮想空間画像に合成された合成画像を生成できる。そしてこの合成画像が、ギャラリー用表示装置210などの表示装置に表示される。
Further, the
また画像合成部122は、筐体30の画像の抽出範囲を指定する筐体マスク画像を用いて、筐体30の画像を抽出する。例えば第1画像等のカラー画像から筐体30の画像が抽出される。例えばオペレータが、手動で筐体30の概形をなぞるような操作を行って抽出範囲を指定することで、範囲指定用の筐体マスク画像が生成される。なお筐体30の画像の抽出範囲(エッジ)を画像処理により自動的に認識して筐体マスク画像を生成する変形実施も可能である。筐体マスク画像は、筐体30の抽出範囲を他の背景から識別するためのマスク画像である。この筐体マスク画像により抽出範囲が指定されることで、筐体30の画像は、実際には背景に対応する画像であるのにも関わらず、被写体と同様に抽出されて、仮想空間画像に合成されるようになる。筐体マスク画像を用いた抽出処理の詳細は後述する。
Further, the
また画像合成部122は、被写体が装着する少なくとも1つのトラッキング装置からのトラッキング情報に基づいて、被写体の画像の抽出範囲を設定して、被写体の画像を抽出する。例えばウェアラブル機器として被写体が装着するトラッキング装置からのトラッキング情報に基づいて、トラッキング装置の位置情報等を取得し、取得された位置情報等に基づいて、被写体の画像の抽出範囲を設定する。例えば被写体が複数のトラッキング装置を装着する場合には、これらの複数のトラッキング装置の位置を内包する範囲を、被写体の画像の抽出範囲に設定し、その抽出範囲を抽出処理の対象範囲として、被写体の画像を抽出する。なおトラッキング装置は、被写体が装着するHMD200に内蔵されるトラッキング装置206であってもよい。
Further, the
また画像合成部122は、トラッキング装置の位置と、トラッキング装置の位置から所与の距離だけシフトした位置に設定された補助点の位置とに基づいて、被写体の画像の抽出範囲を設定する。例えばトラッキング情報からトラッキング装置の配置方向の情報を取得する。そして、トラッキング装置の位置から、トラッキング装置の配置方向に沿って所与の距離だけシフト(オフセット)した位置を、補助点の位置に設定する。そしてトラッキング装置の位置と補助点の位置を内包するような範囲を抽出範囲に設定して、被写体の画像を抽出する。
Further, the
また画像生成部120は、被写体であるプレーヤに表示されるプレーヤ用の仮想空間画像として、仮想空間において撮影用の仮想カメラの位置に対応する位置に、仮想カメラの画像及び撮影者キャラクタの画像の少なくとも一方が表示される仮想空間画像を生成する。例えば撮影用の仮想カメラの位置及び方向に対応する位置及び方向で、撮影用の仮想カメラを表す3次元モデルである仮想カメラオブジェクトを配置する。或いは、撮影用の仮想カメラを用いて撮影を行う撮影者キャラクタの画像を、仮想カメラの位置に対応する位置に配置する。そして撮影者キャラクタが、撮影動作のモーションを行ったり、撮影に関連するセリフを発声するなどの演出処理を行う。
Further, the
また本実施形態の画像生成システム(シミュレーションシステム)は、被写体であるプレーヤが装着し、仮想空間においてプレーヤ用の仮想カメラから見えるプレーヤ用の仮想空間画像が表示されるHMD200と、合成画像がギャラリー用画像をして表示されるギャラリー用表示装置210を含む。このようにすることで、画像生成部120により生成されたプレーヤ用の仮想空間画像については、HMD200に表示され、プレーヤは、仮想空間においてプレーヤ用の仮想カメラから見える画像を、VR画像としてHMD200を介して見ることが可能になる。一方、仮想空間画像に被写体の画像が合成された合成画像についてはギャラリー用表示装置210に表示され、ギャラリーは、仮想空間においてプレーヤがどのような状況になっており、どのような行動をとっているかを、ギャラリー用画像を見ることで把握できるようになる。
Further, the image generation system (simulation system) of the present embodiment is mounted on the player who is the subject and displays the virtual space image for the player which can be seen from the virtual camera for the player in the virtual space, and the composite image for the gallery. Includes a
また取得部102は、背景及び被写体をカメラ150により撮影したデプス画像を取得する。例えばカメラ150(デプスカメラ154)から見たときの背景及び被写体の奥行き情報を、デプス画像として取得する。そして画像合成部122は、差分画像とデプス画像に基づいて、被写体の画像を抽出する。即ち被写体及び背景が映る第1画像と背景が映る第2画像の差分画像と、デプス画像を用いて、被写体の画像を抽出する。例えば差分画像とデプス画像の両方により被写体に対応する画素であると判断される画素を、被写体の画素として、被写体の画像を抽出する。
Further, the
また画像合成部122は、差分画像に基づいて差分マスク画像を生成する。例えば差分画像の二値化処理などを行って差分マスク画像を生成する。この場合に画像合成部122は、差分画像とデプス画像(デプスマスク画像)とに基づいて差分マスク画像を生成してもよい。例えば差分画像の二値化処理を行って得られたマスク画像と、デプス画像から得られたデプスマスク画像とのAND(論理積)をとるなどして、差分マスク画像を生成してもよい。この場合にANDをとる対象となるデプスマスク画像は、後述する補正処理前のデプスマスク画像でもよいし、補正処理後のデプスマスク画像でもよい。また画像合成部122は、デプス画像に基づいて、デプス値が所与のデプス範囲(デプス有効範囲)となる画素を識別するデプスマスク画像を生成する。例えばデプス範囲は、デプス値が、ニア側の第1デプス値以上となり、ファー側の第2デプス値以下となる範囲である。画像合成部122は、デプス範囲の画素が第1画素値(例えば白の画素値)となり、当該デプス範囲外の画素が第2画素値(例えば黒の画素値)となるデプスマスク画像を生成する。そして画像合成部122は、差分マスク画像とデプスマスク画像に基づいて、被写体を識別する被写体マスク画像を生成する。例えば被写体の範囲の画素が第1画素値(例えば白の画素値)となり、被写体の範囲外の画素が第2画素値(例えば黒の画素値)となるような被写体マスク画像を生成する。そして画像合成部122は、被写体マスク画像と第1画像に基づいて、被写体の画像を抽出する。例えば第1画像において、被写体マスク画像により指定される範囲を被写体の画像と判断して、被写体の画像を抽出する。
Further, the
また画像合成部122は、デプスマスク画像の補正処理を行い、補正処理後のデプスマスク画像と差分マスク画像に基づいて被写体マスク画像を生成する。例えば画像合成部122は、デプス値が所与のデプス範囲となる画素を識別するデプスマスク画像に対して、ノイズ等を除去するための補正処理を行う。そして補正処理後のデプスマスク画像と、第1画像と第2画像の差分画像から得られた差分マスク画像とに基づいて、被写体マスク画像を生成する。
Further, the
例えば画像合成部122は、背景及び被写体をカメラ150(デプスカメラ154)により撮影した第1デプス画像と、背景をカメラ150(デプスカメラ154)により撮影した第2デプス画像との差分デプスマスク画像を生成する。即ち第1デプス画像と第2デプス画像の差分画像である差分デプスマスク画像を生成する。そして画像合成部122は、差分デプスマスク画像に基づいて、補正処理後のデプスマスク画像を生成する。即ちデプスマスク画像の補正処理として、差分デプスマスク画像を生成する処理を行う。
For example, the
また画像合成部122は、モルフォロジーフィルター処理及び時系列フィルター処理の少なくとも一方を行うことで、補正処理後のデプスマスク画像を生成する。即ちデプスマスク画像の補正処理として、モルフォロジーフィルター処理及び時系列フィルター処理の少なくとも一方を行って、ノイズ等を除去する。モルフォロジーフィルター処理は、膨張伸縮化のフィルター処理である。時系列フィルター処理は、平滑化処理であり、例えば所定数のフレーム以上、連続して所定値以上の差分値があるときにマスクとして有効にする処理である。
Further, the
また画像合成部122は、デプス画像においてデプス値が取得できなかった画素の画素値を、差分画像に基づき設定する処理を行うことで、補正処理後のデプスマスク画像を生成する。例えばデプスカメラ154のステレオカメラにより、デプス値が取得できなかった画素をブランク画素として設定する。そして、ブランク画素については、カラー画像である第1画像と第2画像の差分画像に基づいて設定する。例えば差分画像に基づく差分マスク画像を用いて、デプスマスク画像におけるブランク画素の画素値を埋める処理を行う。
Further, the
また画像合成部122は、デプス値がデプス範囲となる画素群(隣り合う画素群)の領域サイズを求める。例えばデプス値が、所与のデプス範囲となる画素群の画素のカウント処理を行うことで、領域サイズを求める。そして領域サイズが最も大きい領域や、或いは領域サイズが所定サイズ以上の領域の画素群を、被写体に対応する画素群と判断して、デプスマスク画像を生成する。
Further, the
また画像合成部122は、被写体の領域と判断される被写体領域でのデプス値に基づいて第2デプス範囲を設定する。例えば上記のデプス範囲よりも狭い第2デプス範囲を設定する。そしてデプス値が第2デプス範囲となる画素を識別する画像を、デプスマスク画像として生成する。即ちデプス値が第2デプス範囲となる画素群を、被写体に対応する画素群と判断して、デプスマスク画像を生成する。
Further, the
なお本実施形態では、プレーヤがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。仮想現実のシミュレーション処理は、実空間での事象を仮想空間で模擬するためのシミュレーション処理であり、当該事象をプレーヤに仮想体験させるための処理である。例えば実空間のプレーヤに対応するプレーヤキャラクタやその搭乗移動体などの移動体を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をプレーヤに体感させるための処理を行う。 In the present embodiment, virtual reality simulation processing is performed as game processing of the game played by the player. The virtual reality simulation process is a simulation process for simulating an event in the real space in the virtual space, and is a process for allowing the player to experience the event virtually. For example, a moving body such as a player character corresponding to a player in a real space or a moving body on board the player is moved in a virtual space, or a process is performed to allow the player to experience changes in the environment and surroundings due to the movement.
また図1の本実施形態の画像生成システムの処理は、業務用ゲーム装置や家庭用ゲーム装置などの処理装置、施設に設置されるPC等の処理装置、プレーヤが背中等に装着する処理装置(バックパックPC)、或いはこれらの処理装置の分散処理などにより実現できる。この場合に例えば画像合成部122の処理を実現する処理装置と、画像生成部120やゲーム処理部106などの他の処理を実現する処理装置を、別のハードウェア装置により実現してもよい。或いは、本実施形態の画像生成システムの処理を、サーバシステムと端末装置により実現してもよい。例えばサーバシステムと端末装置の分散処理などにより実現してもよい。
Further, the processing of the image generation system of the present embodiment of FIG. 1 includes a processing device such as a business game device and a home game device, a processing device such as a PC installed in a facility, and a processing device worn by a player on the back or the like ( It can be realized by backpack PC) or distributed processing of these processing devices. In this case, for example, a processing device that realizes the processing of the
2.トラッキング処理
次にトラッキング処理の例について説明する。図2(A)にHMD200の一例を示す。HMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面側に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。またプレーヤPLは、所定部位である手にトラッキング装置250、260を装着している。右手に装着されるトラッキング装置250には、HMD200と同様に複数の受光素子251〜254が設けられている。左手に装着されるトラッキング装置260にも複数の受光素子261〜264(不図示)が設けられている。このような受光素子が設けられたトラッキング装置250、260を用いることで、HMD200の場合と同様に、手等の所定部位の位置、方向等の部位情報を特定できるようになる。なおトラッキング装置が装着されるプレーヤPLの所定部位は、手には限定されず、例えば足、頭部、胸部、腹部又は腰等の種々の部位を想定できる。
2. 2. Tracking process Next, an example of tracking process will be described. FIG. 2A shows an example of HMD200. The
図2(B)に示すように、筐体30の周辺には、ベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えば赤外線レーザー等のレーザーを出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201〜203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキング処理が実現され、プレーヤPLの頭の位置や向く方向(視点位置、視線方向)を検出できるようになる。例えばプレーヤPLの位置情報や姿勢情報(方向情報)を検出できるようになる。
As shown in FIG. 2B,
またトラッキング装置250、260に設けられる受光素子251〜254、261〜264が、ベースステーション280、284からのレーザーを受光することで、プレーヤPLの手(所定部位)の位置及び方向の少なくとも一方を検出できるようになる。なおトラッキング装置250、260をリープモーションのトラッカーにより実現してもよい。
Further, the
また筐体30の前方には、カラーカメラ152とデプスカメラ154を有するカメラ150が設置されている。例えばカメラ150は、プレーヤPLや筐体30の前方において、プレーヤPLや筐体30に正対するように配置される。そして後述の図4(A)、図4(B)で説明する撮影用の仮想カメラVCMは、カメラ150の位置に対応する仮想空間の位置に配置される。例えば仮想カメラVCMは、プレーヤPLに対応するプレーヤキャラクタや、筐体30に対応する車等の移動体の前方において、プレーヤキャラクタや移動体に正対するように配置される。またプレーヤキャラクタや移動体と仮想カメラVCMとのカメラ距離も、プレーヤPLや筐体30とカメラ150とのカメラ距離に対応する距離に設定される。
A
3.筐体
図3に筐体30の構成例を示す。図3の筐体30では、底部32の上にカバー部33が設けられ、その上に、ベース部34(台座部)が設けられる。ベース部34は底部32に対して対向するように設けられる。ベース部34には、シート62を有するライド部60が設けられる。プレーヤPLは、このライド部60のシート62に着座する。またベース部34には、移動部40が設けられており、移動部40には、ハンドル50やアクセルペダル52、ブレーキペダル54(不図示)などの操作部160や、プレーヤに対して送風を行う送風機80が設けられている。この移動部40は、前後方向に移動自在となっている。
3. 3. Case Figure 3 shows a configuration example of the
また筐体30の前方には、カメラ150が配置されている。このようなカメラ150を設けることで、筐体30や、筐体30に搭乗するプレーヤを撮影することが可能になる。
A
筐体30は、ゲーム処理の結果(ゲーム状況)に応じて、プレーヤのプレイ位置を変化させる。例えば本実施形態では、プレーヤがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。例えば実空間のプレーヤに対応するプレーヤキャラクタが搭乗する移動体(車、ロボット等)を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をプレーヤに体感させるための処理を行う。そして筐体30は、ゲーム処理であるシミュレーション処理の結果に基づいてプレイ位置を変化させる。例えばプレーヤキャラクタが搭乗する移動体(或いはプレーヤキャラクタ)の仮想空間での移動処理の結果等に基づいて、プレイ位置を変化させる。例えばレースゲームでは、車(レーシングカー)の移動の際の加速や減速や方向の変化に伴う加速度を、プレーヤに体感させるためのシミュレーション処理として、プレイ位置を変化させる処理を行う。或いは敵からの攻撃が車にヒットした場合に、その衝撃をプレーヤに体感させるためのシミュレーション処理として、プレイ位置を変化させる処理を行う。ここでプレイ位置は、仮想現実(VR)のシミュレーションゲームをプレイする際にプレーヤが位置するプレイポジションである。例えばプレイ位置は、プレーヤのライド部60のライド位置である。
The
具体的には図3において、底部32とベース部34の間には、その四隅に、不図示の第1〜第4のエアバネ部(広義には伸縮部)が設けられている。これらの第1〜第4のエアバネ部は、エアコンプレッサやバブルを用いて空気の供給や排出が行われることで、図3のY軸方向において伸縮する。例えば全ての第1〜第4のエアバネ部が伸びたり、縮むことで、ベース部34を、Y軸方向で上側や下側に移動させることができる。これらの上下方向でのベース部34の移動により、例えばコースの路面状態の再現などが可能になる。例えば少ないストロークで、且つ、速い速度で上下方向にベース部34を移動させることで、路面の凹凸(ガタガタ道)などを表現できる。
Specifically, in FIG. 3, between the
また、四隅の第1〜第4のエアバネ部のうちの前側及び後ろ側の一方のエアバネ部が伸び、他方のエアバネ部が縮むことで、ベース部34を、X軸の回りにピッチングさせることができる。また四隅の第1〜第4のエアバネ部のうちの左側及び右側の一方のエアバネ部が伸び、他方のエアバネ部が縮むことで、ベース部34を、Z軸の回りにローリングさせことができる。このようなピッチングやローリングを行うことで、車等の移動体の移動に伴う加速感、減速感や、コーナリング時の慣性力をプレーヤに体感させることができる。これによりプレーヤの仮想現実感を向上できると共に、いわゆる3D酔いを抑制することも可能になる。
Further, one of the front and rear air spring portions of the first to fourth air spring portions at the four corners extends and the other air spring portion contracts, so that the
4.本実施形態の手法
次に本実施形態の手法について説明する。なお、以下では、プレーヤキャラクタが車に搭乗して他の車と競争するレースゲームに、本実施形態の手法を適用した場合について主に説明する。但し本実施形態の手法が適用されるゲームはこのようなレースゲームには限定されない。例えば本実施形態の手法は、レースゲーム以外の種々のゲーム(車以外の競争ゲーム、ロボットゲーム、FPS(First Person shooter)や格闘ゲーム等の対戦ゲーム、電車や飛行機等の乗り物のシミュレーションゲーム、RPG、アクションゲーム、仮想体験ゲーム、スポーツゲーム、ホラー体験ゲーム、或いは音楽ゲーム等)に適用でき、ゲーム以外にも適用可能である。また以下では、カメラ150の被写体がプレーヤである場合を主に例にとり説明を行う。
4. Method of this embodiment Next, the method of this embodiment will be described. In the following, a case where the method of the present embodiment is applied to a racing game in which a player character gets into a car and competes with another car will be mainly described. However, the game to which the method of the present embodiment is applied is not limited to such a racing game. For example, the method of the present embodiment includes various games other than racing games (competition games other than cars, robot games, fighting games such as FPS (First Person shooter) and fighting games, simulation games for vehicles such as trains and airplanes, and RPGs. , Action games, virtual experience games, sports games, horror experience games, music games, etc.), and can be applied to other than games. Further, in the following description, the case where the subject of the
4.1 ゲームの説明
図4(A)、図4(B)は本実施形態により実現されるレースゲームにおいてプレーヤに表示されるプレーヤ用の仮想空間画像の例である。本実施形態では図4(A)、図4(B)のプレーヤ用の仮想空間画像が、プレーヤが装着するHMD200に表示される。このレースゲームでは、実空間のプレーヤに対応する仮想空間のプレーヤキャラクタがドライバーとなって、移動体である車(レーシングカー)に搭乗して運転し、敵車と競争する。コースにはアイテムエリアが設定され、このアイテムエリアのアイテムを獲得して使用することで、レースゲームを優位に進めることができる。
4.1 Description of the game FIGS. 4 (A) and 4 (B) are examples of virtual space images for the player displayed to the player in the racing game realized by the present embodiment. In this embodiment, the virtual space images for the players of FIGS. 4 (A) and 4 (B) are displayed on the
図4(A)、図4(B)のプレーヤ用の仮想空間画像(ゲーム画像)では、仮想空間のコースで走行するプレーヤの車MV(移動体)や敵車MVE(敵移動体)が表示されている。また車MVのハンドルSTや、ハンドルSTを操作するプレーヤキャラクタの手HR、HLなどの部位も表示されている。そして実空間のプレーヤが図3のハンドル50を左に操舵すると、図4(A)に示すように仮想空間においても、車MVのハンドルSTがプレーヤキャラクタの手HR、HLにより左に操舵される仮想空間画像が表示される。また実空間のプレーヤPLがハンドル50を右に操舵すると、図4(B)に示すように仮想空間においても、ハンドルSTがプレーヤキャラクタの手HR、HLにより右に操舵される仮想空間画像が表示される。即ち実空間のプレーヤの手の動きに連動して、仮想空間のプレーヤキャラクタの手HR、HLも動くような仮想空間画像が表示される。このようにすることで、あたかも本物の車を運転しているかのような仮想現実感をプレーヤに与えることができる。また図4(A)、図4(B)では、実空間画像の合成対象となる仮想空間画像の撮影用の仮想カメラVCMの画像も表示されている。 In the virtual space images (game images) for the players of FIGS. 4 (A) and 4 (B), the player's car MV (moving body) and enemy car MV (enemy moving body) traveling on the course of the virtual space are displayed. Has been done. In addition, parts such as the steering wheel ST of the car MV and the hands HR and HL of the player character who operates the steering wheel ST are also displayed. Then, when the player in the real space steers the steering wheel 50 in FIG. 3 to the left, the steering wheel ST of the car MV is steered to the left by the hands HR and HL of the player character even in the virtual space as shown in FIG. 4 (A). A virtual space image is displayed. Further, when the player PL in the real space steers the steering wheel 50 to the right, a virtual space image in which the steering wheel ST is steered to the right by the player character's hands HR and HL is displayed even in the virtual space as shown in FIG. 4 (B). Will be done. That is, a virtual space image is displayed in which the hands HR and HL of the player character in the virtual space move in conjunction with the movement of the player's hand in the real space. By doing so, it is possible to give the player a virtual reality as if he / she is driving a real car. Further, in FIGS. 4 (A) and 4 (B), an image of a virtual camera VCM for taking a virtual space image to be combined with the real space image is also displayed.
図5(A)、図5(B)は、本実施形態により生成された仮想空間画像と実空間画像の合成画像の例である。図5(A)、図5(B)においてプレーヤPLと筐体30の画像は、図2(B)、図3のカメラ150によりプレーヤPLと筐体30を撮影した実空間画像である。具体的には、カメラ150の撮影画像から背景差分法でプレーヤPL等を抽出した実空間画像である。一方、敵キャラクタCHE、敵車MVE、エフェクトEF1、EF2、コースCS等の画像は、図4(A)、図4(B)の撮影用の仮想カメラVCMにより撮影された仮想空間画像である。撮影用の仮想カメラVCMから見える仮想空間画像に対して、プレーヤPLと筐体30の実空間画像を合成することで、図5(A)、図5(B)の合成画像が生成されている。この合成画像は、後述の図12(B)に示すように例えばギャラリー用表示装置210に表示される。これにより、ギャラリーは、プレーヤPLが仮想空間においてどのようにゲームを楽しんでプレイしているのかを把握できるようになる。
5 (A) and 5 (B) are examples of a composite image of the virtual space image and the real space image generated by the present embodiment. The images of the player PL and the
そして図5(A)では、撮影用の仮想カメラVCMから見て、プレーヤPL、筐体30の奥側に、敵キャラクタCHE、敵車MVEが位置しているため、敵キャラクタCHE、敵車MVEの方の画像が隠面消去される。一方、図5(B)では、撮影用の仮想カメラVCMから見て、敵キャラクタCHE、敵車MVEの奥側にプレーヤPL、筐体30が位置しているため、プレーヤPL、筐体30の方の画像が隠面消去される。このように本実施形態では、実空間画像であるプレーヤPL、筐体30についても、仮想空間での位置関係を反映させた隠面消去が行われる。また本実施形態では例えば仮想空間での照明情報に基づいて、プレーヤPL、筐体30へのライティング処理(シェーディング処理)が行われる。例えば仮想空間の明るさが暗い状況の場合には、プレーヤPL、筐体30の画像も暗くなり、明るい状況の場合には、プレーヤPL、筐体30の画像も明るくなるようにライティング処理が行われる。
In FIG. 5A, since the enemy character CHE and the enemy vehicle MVE are located behind the player PL and the
本実施形態では、実空間に配置されたカメラ150により、背景及び被写体を撮影した第1画像と、カメラ150により背景を撮影した第2画像を取得する。被写体はプレーヤPLなどである。またカメラ150の位置に対応する仮想空間の位置に配置された撮影用の仮想カメラVCMから見える仮想空間画像を生成する。そして第1画像と第2画像の差分画像を求めることで、プレーヤPLなどの被写体の画像を抽出して、図5(A)、図5(B)に示すように、仮想空間画像に被写体の画像が合成された合成画像を生成する。このようにすることで、あたかも実空間の被写体が仮想空間に出現したかのように見える合成画像を生成できるようになる。
In the present embodiment, the first image in which the background and the subject are photographed by the
更に本実施形態では、実空間において被写体であるプレーヤPLが搭乗する筐体30の画像を抽出する。そして図5(A)、図5(B)に示すように、仮想空間画像に被写体であるプレーヤPLの画像及び筐体30の画像が合成された合成画像を生成する。このようにすれば、被写体であるプレーヤPLのみならず、プレーヤPLが実空間において搭乗する筐体30が、仮想空間に出現したかのように見える合成画像を生成できるようになる。
Further, in the present embodiment, an image of the
この場合に本実施形態では、図6(A)に示すような筐体マスク画像MSCを用いて、図6(B)に示すような筐体30の画像を抽出する。筐体マスク画像MSCは、筐体30の画像の抽出範囲を指定するマスク画像であり、一例としてはオペレータの手作業により作成される。例えば筐体30を撮影した画像を見ながら、オペレータが、筐体30の概形をなぞるような操作を行って抽出範囲を指定することで、筐体マスク画像MSCが作成される。筐体マスク画像MSCは、例えば筐体30の画像の抽出範囲での画素値が第1画素値(白の画素値)となり、抽出範囲外の画素値が第2画素値(黒の画素値)となるようなマスク画像である。このような筐体マスク画像MSCを用いることで、本来は背景として非抽出となってしまう筐体30の画像を、被写体の画像と同様に抽出できるようになる。なお筐体マスク画像MSCを用いた抽出処理の具体例については後述の図19(A)〜図21(D)において詳細に説明する。
In this case, in the present embodiment, the housing mask image MSC as shown in FIG. 6 (A) is used to extract the image of the
また本実施形態では、被写体であるプレーヤに表示されるプレーヤ用の仮想空間画像として、仮想空間において撮影用の仮想カメラの位置に対応する位置に、撮影用の仮想カメラの画像及び撮影者キャラクタの画像の少なくとも一方が表示される仮想空間画像を生成する。例えば図4(A)では、プレーヤキャラクタが搭乗する車MVの前方に、撮影用の仮想カメラVCMの画像が表示されている。また図4(B)では、車MVの前方に撮影者キャラクタCHMの画像が表示されている。撮影者キャラクタCHMは、仮想カメラVCMを車MVの方に向けて、「こっちを見て」というセリフをつぶやいている。 Further, in the present embodiment, as a virtual space image for the player displayed on the player as the subject, the image of the virtual camera for shooting and the photographer character are placed at a position corresponding to the position of the virtual camera for shooting in the virtual space. Generate a virtual space image that displays at least one of the images. For example, in FIG. 4A, an image of a virtual camera VCM for shooting is displayed in front of the vehicle MV on which the player character is boarding. Further, in FIG. 4B, an image of the photographer character CHM is displayed in front of the vehicle MV. The photographer character CHM points the virtual camera VCM toward the car MV and mutters the line "Look at this".
図2(B)、図3で説明したように、実空間のカメラ150は、プレーヤPLが搭乗する筐体30の前方に配置される。具体的には、実空間のカメラ150は、筐体30の前方において、所与のカメラ距離だけ離れた位置に、カメラ方向を筐体30の方に向けて配置される。そして本実施形態では、撮影用の仮想カメラVCMは、実空間のカメラ150の位置に対応する仮想空間の位置に配置される。即ち撮影用の仮想カメラVCMは、仮想空間の車MVの前方において、上記のカメラ距離に対応する距離だけ離れた位置に、カメラ方向を車MVの方に向けて配置される。
As described with reference to FIGS. 2B and 3, the
そして図4(A)、図4(B)では、このように実空間のカメラ150に対応する撮影用の仮想カメラVCMの画像を仮想空間画像に表示する。通常は、このような仮想空間画像においては、仮想カメラVCMの画像は表示しないが、図4(A)では、仮想カメラVCMの画像を敢えて表示している。また図4(B)では、仮想カメラVCMを所持する撮影者キャラクタCHMの画像を仮想空間画像に表示している。例えば空中を飛びながら仮想カメラVCMをプレーヤキャラクタの方に向けて撮影を行う撮影者キャラクタCHMの画像を表示する。
Then, in FIGS. 4A and 4B, the image of the virtual camera VCM for shooting corresponding to the
このようにすればプレーヤは、仮想カメラVCMにより自身が撮影されていることを意識するようになる。そしてプレーヤが、自身を撮影している仮想カメラVCMに対して手を振るなどの動作を行うと、図5(A)、図5(B)の合成画像においても、プレーヤPLが手を振るなどの動作を行った実空間画像が、仮想空間画像に合成されるようになる。そしてこのような合成画像を、図12(B)に示すようなギャラリー用表示装置210に表示することで、プレーヤとギャラリーが一体となって盛り上がるような演出効果を実現できる。
In this way, the player becomes aware that he / she is being photographed by the virtual camera VCM. Then, when the player performs an action such as waving to the virtual camera VCM that is shooting itself, the player PL also waves the hand in the composite images of FIGS. 5 (A) and 5 (B). The real space image obtained by the above operation is combined with the virtual space image. Then, by displaying such a composite image on the
また本実施形態はマルチプレーヤゲームにも適用可能である。この場合には、第1〜第nのプレーヤが搭乗する第1〜第nの筐体(nは2以上の整数)を設ける。また第1〜第nの筐体の前方等の位置において、第1〜第nの筐体や第1〜第nのプレーヤを撮影する第1〜第nのカメラを設置する。そして第1〜第nのプレーヤのうちの第iのプレーヤ(iは1≦i≦nとなる整数)についてのギャラリー用画像を生成する場合には、第iのプレーヤに対応する第iのプレーヤキャラクタの前方等の位置に撮影用の仮想カメラVCMを移動して、第iのプレーヤキャラクタや第iのプレーヤキャラクタが搭乗する第iの移動体を撮影する。そして第iの筐体及び第iのプレーヤを撮影する第iのカメラで撮影された実空間画像と、撮影用の仮想カメラVCMから見える仮想空間画像を合成することで、合成画像を生成する。そして生成された合成画像をギャラリー用表示装置210に表示する。このようにすれば、第iのプレーヤは、自身の前方に撮影用の仮想カメラVCMが表示されることで、自身が撮影対象となっていることを認識することができ、撮影用の仮想カメラVCMや撮影者キャラクタCHMに対して手を振るなどの動作を行うようになる。これにより、プレーヤとギャラリーが一体となって盛り上がるような演出効果を実現できる。
The present embodiment is also applicable to a multiplayer game. In this case, the first to nth housings (n is an integer of 2 or more) on which the first to nth players are boarded are provided. Further, at a position such as in front of the first to nth housings, the first to nth cameras for photographing the first to nth housings and the first to nth players are installed. Then, when generating a gallery image for the i-th player (i is an integer such that 1 ≦ i ≦ n) among the first to n-th players, the i-th player corresponding to the i-th player is generated. The virtual camera VCM for shooting is moved to a position such as in front of the character, and the i-th moving body on which the i-th player character or the i-th player character is boarded is photographed. Then, a composite image is generated by synthesizing the real space image taken by the third camera that shoots the i-th housing and the i-player and the virtual space image that can be seen from the virtual camera VCM for shooting. Then, the generated composite image is displayed on the
図7は、ビルの間に掛けられた細い橋を渡るという高所体験のVRゲームへの本実施形態の適用例である。本実施形態では、被写体が装着する少なくとも1つのトラッキング装置からのトラッキング情報に基づいて、被写体の画像の抽出範囲を設定して、被写体の画像を抽出する。例えば図7では、プレーヤPLは、左手、右手、左足、右足に、図2(A)で説明したようなトラッキング装置TR1、TR2、TR3、TR4を装着している。このようなトラッキング装置TR1〜TR4を用いることで、プレーヤPLの手足の動きをトラッキングできるようになり、プレーヤPLの姿勢や動作の検出が可能になる。そして本実施形態では、これらのトラッキング装置TR1〜TR4からのトラッキング情報に基づいて、被写体であるプレーヤPLの画像の抽出範囲ARを設定し、プレーヤPLの画像を抽出する。更に具体的には図7ではHMD200もトラッキング装置TR5を内蔵しているため、手足に装着されたトラッキング装置TR1〜TR4とHMD200に設けられるトラッキング装置TR5からのトラッキング情報に基づいて、抽出範囲ARを設定する。例えばトラッキング装置TR1〜TR5からのトラッキング情報として、トラッキング装置TR1〜TR5の位置などの情報を取得し、このトラッキング装置TR1〜TR5の位置を内包する範囲を抽出範囲ARに設定する。そしてこの抽出範囲ARにおいて、プレーヤPLの画像の抽出処理を行う。このようにすれば、VRゲームにおいてプレーヤの姿勢が変化したり、種々の動作を行った場合にも、適正な抽出範囲ARでのプレーヤPLの画像の抽出処理を実現できるようになる。また被写体と予定していない者を被写体として誤って抽出してしまう事態も防止できる。 FIG. 7 is an example of application of this embodiment to a VR game of high altitude experience of crossing a narrow bridge hung between buildings. In the present embodiment, the extraction range of the image of the subject is set based on the tracking information from at least one tracking device worn by the subject, and the image of the subject is extracted. For example, in FIG. 7, the player PL is equipped with tracking devices TR1, TR2, TR3, and TR4 as described in FIG. 2A on the left hand, right hand, left foot, and right foot. By using such tracking devices TR1 to TR4, the movements of the limbs of the player PL can be tracked, and the posture and movement of the player PL can be detected. Then, in the present embodiment, the extraction range AR of the image of the player PL as the subject is set based on the tracking information from these tracking devices TR1 to TR4, and the image of the player PL is extracted. More specifically, in FIG. 7, since the HMD200 also has the tracking device TR5 built-in, the extraction range AR is determined based on the tracking information from the tracking devices TR1 to TR4 mounted on the limbs and the tracking device TR5 provided on the HMD200. Set. For example, as tracking information from the tracking devices TR1 to TR5, information such as the positions of the tracking devices TR1 to TR5 is acquired, and the range including the positions of the tracking devices TR1 to TR5 is set in the extraction range AR. Then, in this extraction range AR, the image extraction process of the player PL is performed. By doing so, even when the posture of the player changes or various operations are performed in the VR game, the image extraction process of the player PL in the appropriate extraction range AR can be realized. In addition, it is possible to prevent a situation in which a person who is not scheduled as a subject is mistakenly extracted as a subject.
また本実施形態では、トラッキング装置の位置と、トラッキング装置の位置から所与の距離だけシフト(オフセット)した位置に設定された補助点の位置とに基づいて、被写体の画像の抽出範囲を設定する。例えば図8(A)、図8(B)ではプレーヤPLがビルのエレベーターに乗っている。この場合に図8(A)に示すようにトラッキング装置TR1〜TR5の位置だけに基づいて、抽出範囲ARを設定すると、例えばプレーヤPLの背中の部分等が抽出範囲ARに入らなくなり、適正な抽出処理を実現できない。 Further, in the present embodiment, the extraction range of the image of the subject is set based on the position of the tracking device and the position of the auxiliary point set at the position shifted (offset) by a predetermined distance from the position of the tracking device. .. For example, in FIGS. 8 (A) and 8 (B), the player PL is on the elevator of the building. In this case, if the extraction range AR is set based only on the positions of the tracking devices TR1 to TR5 as shown in FIG. 8A, for example, the back portion of the player PL will not be included in the extraction range AR, and proper extraction will be performed. Processing cannot be realized.
そこで本実施形態では図8(B)に示すように、例えばプレーヤPLが装着するHMD200のトラッキング装置TR5の位置からシフトした位置に、抽出範囲ARの設定のための補助点PAXを設定する。例えばHMD200のトラッキング装置TR5からのトラッキング情報に基づいて、HMD200の方向情報についても取得されている。この方向情報を用いて、HMD200の位置から後ろ方向に所与の距離だけシフトした位置に補助点PAXを設定する。そしてトラッキング装置TR1〜TR5の位置と補助点PAXの位置とに基づいて、被写体であるプレーヤPLの抽出範囲ARを設定する。このようにすれば図8(B)に示すように、プレーヤPLの全てを内包するような抽出範囲ARを設定できるようになり、被写体であるプレーヤPLの画像の適正な抽出処理を実現できるようになる。
Therefore, in the present embodiment, as shown in FIG. 8B, an auxiliary point PAX for setting the extraction range AR is set at a position shifted from the position of the tracking device TR5 of the HMD200 mounted on the player PL, for example. For example, the direction information of the HMD200 is also acquired based on the tracking information from the tracking device TR5 of the HMD200. Using this direction information, the auxiliary point PAX is set at a position shifted backward by a given distance from the position of the
4.2 画像合成処理
次に仮想空間画像と実空間画像を合成する本実施形態の画像合成処理の詳細例について説明する。図9は本実施形態の詳細な処理例を説明するフローチャートである。
4.2 Image composition processing Next, a detailed example of the image composition processing of the present embodiment for synthesizing a virtual space image and a real space image will be described. FIG. 9 is a flowchart illustrating a detailed processing example of the present embodiment.
まずカメラ150により背景を撮影した第2画像を取得する(ステップS1)。例えば図2(B)、図3においてプレーヤが筐体30に搭乗していない状態で、カメラ150により筐体30などを含む背景を撮影した第2画像を取得する。そしてゲームが開始したか否かを判断し(ステップS2)、ゲームが開始した場合にはフレーム更新か否かを判断する(ステップS3)。例えば本実施形態では、フレーム更新毎に仮想空間画像や合成画像の生成処理が行われる。
First, a second image in which the background is photographed by the
フレーム更新である場合には、仮想カメラにおいて仮想カメラから見える仮想空間画像を生成する(ステップS4)。例えば撮影用の仮想カメラから見える仮想空間画像や、プレーヤのHMD200に表示されるプレーヤ用の仮想空間画像を生成する。またカメラ150により背景及び被写体を撮影した第1画像を取得する(ステップS5)。即ち、背景と、被写体であるプレーヤが映る第1画像をカメラ150により撮影して取得する。
In the case of frame update, the virtual camera generates a virtual space image that can be seen from the virtual camera (step S4). For example, a virtual space image seen from a virtual camera for shooting and a virtual space image for a player displayed on the player's HMD200 are generated. Further, the
次に第1画像と第2画像の差分画像を求めることで被写体の画像を抽出する(ステップS6)。即ち後述するように背景差分法を用いて被写体であるプレーヤの画像を抽出する。そして仮想空間画像に被写体の画像が合成された合成画像を生成する(ステップS7)。即ち図5(A)、図5(B)に示すように、敵キャラクタCHE、敵車MVE、コースCSなどが映る仮想空間画像に対して、被写体であるプレーヤPL等の実空間画像(実写画像)が合成された合成画像を生成する。そして合成画像をギャラリー用表示装置210に表示する(ステップS8)。なおプレーヤ用の仮想カメラから見えるプレーヤ用の仮想空間画像についてはHMD200に表示する。そしてゲームが終了したか否かを判断し(ステップS9)、ゲームが終了していない場合にはステップS3に戻り、ゲームが終了した場合には処理を終了する。
Next, the image of the subject is extracted by obtaining the difference image between the first image and the second image (step S6). That is, as will be described later, an image of the player who is the subject is extracted using the background subtraction method. Then, a composite image in which the image of the subject is combined with the virtual space image is generated (step S7). That is, as shown in FIGS. 5 (A) and 5 (B), a real space image (live-action image) of the player PL or the like as the subject is used with respect to the virtual space image in which the enemy character CHE, the enemy vehicle MVE, the course CS, etc. are displayed. ) Generates a composite image. Then, the composite image is displayed on the gallery display device 210 (step S8). The virtual space image for the player that can be seen from the virtual camera for the player is displayed on the
以上のように本実施形態では、実空間に配置されたカメラ150により背景及び被写体を撮影した第1画像と、カメラ150により背景を撮影した第2画像を取得する。図9ではステップS1で第2画像が取得され、ステップS5で第1画像が取得される。またカメラ150の位置に対応する仮想空間の位置に配置された撮影用の仮想カメラから見える仮想空間画像を生成する。即ち図4(A)、図4(B)に示すような撮影用の仮想カメラVCMから見える仮想空間画像を生成する。そしてステップS6、S7に示すように、第1画像と第2画像の差分画像を求めることで被写体の画像を抽出して、仮想空間画像に被写体の画像が合成された合成画像を生成する。例えば図10(A)は第1画像IM1の例である。第1画像IM1では、被写体であるプレーヤPLの画像や、天井、壁、柱等の背景BGの画像が映っている。図10(B)は第2画像IM2の例である。第2画像IM2では背景BGの画像は映っているが、被写体であるプレーヤPLの画像は映っていない。このような第1画像IM1と第2画像IM2の差分画像を求めることで、背景差分法により被写体の画像を抽出できる。これにより図5(A)、図5(B)に示すように、ゲーム画像である仮想空間画像に対して、実空間画像である被写体の画像が合成された合成画像を生成できるようになる。
As described above, in the present embodiment, the first image in which the background and the subject are photographed by the
例えばHMD200などを用いたVRゲームでは、実際にプレーヤが体験してみないと、プレーヤに対して面白さが伝わらないという問題がある。またギャラリーは、VRゲームにおいてプレーヤが何をしているのかが分からない。このためプレーヤとギャラリーがVRゲームの体験を共有できないという問題がある。 For example, in a VR game using HMD200 or the like, there is a problem that the fun is not transmitted to the player unless the player actually experiences it. Also, the gallery does not know what the player is doing in the VR game. Therefore, there is a problem that the player and the gallery cannot share the experience of the VR game.
この場合にVRゲームの仮想空間画像と被写体であるプレーヤの実空間画像を合成して、プレーヤがあたかも仮想空間に入り込んでプレイしているように見える映像をギャラリーに表示すれば、ギャラリーは、VRゲームにおいてプレーヤがどのようなプレイをしているかを把握できるため、VRゲームの体験を共有することが可能になる。ところが、このような仮想空間画像と実空間画像の画像合成を、ブルーバックやグリーンバックを用いたクロマキー合成により行うと、ブルーバックやグリーンバックを実現するための大掛かりな撮影用機材を設けなければならないという問題がある。例えばゲームの筐体30が設置されるゲーム施設において、このような大掛かりな撮影用機材を設けることは現実的ではないほか、店内装飾も制限されてしまう。またクロマキー合成では、被写体においてブルーやグリーンの部分は背景と見なされてしまい、色が欠けてしまう問題も生じる。また、プレーヤがあたかも仮想空間に入り込んでプレイしているように見えるためには、仮想空間画像と実空間画像の整合性が必要である。このとき、実空間画像にプレーヤ以外の人や物など、余計な物体が入ってしまっているなど、仮想空間画像と実空間画像の画像合成の品質が低いと、仮想空間画像と実空間画像の整合性が取れなくなってしまい、望んだ結果が得られなくなってしまう。
In this case, if the virtual space image of the VR game and the real space image of the player who is the subject are combined and the image that the player seems to enter the virtual space and play is displayed in the gallery, the gallery will be VR. Since it is possible to grasp what kind of play the player is playing in the game, it is possible to share the experience of the VR game. However, if such image composition of virtual space image and real space image is performed by chroma key composition using blue background or green background, it is necessary to provide large-scale shooting equipment to realize blue background or green background. There is a problem that it does not become. For example, in a game facility where a
そこで本実施形態では、実空間のカメラ150により背景及び被写体を撮影した第1画像と、背景を撮影した第2画像を取得する。また実空間のカメラ150の位置に対応する仮想空間の位置に、撮影用の仮想カメラを配置し、この撮影用の仮想カメラから見える仮想空間画像を生成する。そして第1画像と第2画像の差分画像を求めることで背景差分法により被写体の画像を抽出して、仮想空間画像に被写体の画像が合成された合成画像を生成する。このようにすれば、大掛かりな撮影用機材を設けることなく、仮想空間画像と被写体の実空間画像を画像合成できるようになる。従ってカメラ150により撮影された被写体の画像と仮想空間画像とを簡素なシステムで高品位に合成できる画像生成システムの提供が可能になる。
Therefore, in the present embodiment, the first image in which the background and the subject are photographed by the
また本実施形態では、背景及び被写体をカメラ150により撮影したデプス画像を取得し、第1画像と第2画像の差分画像と、デプス画像とに基づいて、被写体の画像を抽出する。このように背景差分法による差分画像のみならず、デプス画像を用いて、被写体の画像を抽出することで、仮想空間画像と被写体の画像の更に高品位な画像合成を実現できるようになる。例えば背景差分法のみによって被写体の画像を抽出すると、被写体の画像において背景と同じ色の画素については色被りにより欠けてしまうという問題がある。またブースの内側にカメラ150が設置されており、カメラ150から見てプレーヤの奥側にある通路を、一般通過者が往来するというような状況では、カラーの差分画像を用いた背景差分法だけでは、適正な抽出処理を実現できないという問題もある。この点、背景差分法による差分画像に加えて、デプス画像を用いて画像合成を行えば、上記のような問題を解消できる。
Further, in the present embodiment, the depth image of the background and the subject taken by the
更に具体的には本実施形態では、差分画像に基づいて差分マスク画像を生成し、デプス画像に基づいて、デプス値が所与のデプス範囲となる画素を識別するデプスマスク画像を生成する。そして差分マスク画像とデプスマスク画像に基づいて、被写体を識別する被写体マスク画像を生成し、被写体マスク画像と第1画像に基づいて、被写体の画像を抽出する。このような差分マスク画像を用いることで、背景の領域と被写体の領域を、差分マスク画像を用いて容易に識別できるようになる。またデプス値が所与のデプス範囲となる画素を識別するデプスマスク画像を用いることで、デプス範囲に位置する被写体を容易に識別できるようになる。従って、このような差分マスク画像とデプスマスク画像を用いることで、背景及び被写体が映る第1画像から、被写体の画像を高品位に抽出することが可能になる。 More specifically, in the present embodiment, a difference mask image is generated based on the difference image, and a depth mask image for identifying a pixel whose depth value is in a given depth range is generated based on the depth image. Then, a subject mask image that identifies the subject is generated based on the difference mask image and the depth mask image, and the subject image is extracted based on the subject mask image and the first image. By using such a difference mask image, the background area and the subject area can be easily identified by using the difference mask image. Further, by using a depth mask image that identifies a pixel whose depth value is in a given depth range, a subject located in the depth range can be easily identified. Therefore, by using such a difference mask image and a depth mask image, it is possible to extract the image of the subject with high quality from the first image in which the background and the subject are reflected.
図10(C)は差分マスク画像MSDFの例である。この差分マスク画像MSDFは、図10(A)の第1画像IM1と図10(B)の第2画像IM2の差分画像の二値化処理を行うことで生成できる。例えば差分マスク画像MSDFは、差分画像とデプス画像に基づいて生成してもよい。例えば差分画像の二値化処理を行うことで生成されたマスク画像と、デプス画像から生成されたデプスマスク画像MSDP(補正処理後又は補正処理前のデプスマスク画像)とに基づいて、差分マスク画像MSDFを生成する。この差分マスク画像MSDFでは、プレーヤPL(被写体)の領域では白の画素値の画素になり、背景BGの領域では黒の画素値の画素になっている。但し図10(C)に示すように背景と色が被る部分については色が欠けてしまっている。なお画素値の範囲が0〜255である場合に、白の画素値は最大画素値である「255」であり、黒の画素値は最小画素値である「0」である。 FIG. 10C is an example of the difference mask image MSDF. The difference mask image MSDF can be generated by performing a binarization process of the difference image between the first image IM1 of FIG. 10A and the second image IM2 of FIG. 10B. For example, the difference mask image MSDF may be generated based on the difference image and the depth image. For example, a difference mask image based on a mask image generated by performing a binarization process of a difference image and a depth mask image MSDP (depth mask image after correction processing or before correction processing) generated from the depth image. Generate MSDF. In this difference mask image MSDF, the area of the player PL (subject) is a pixel with a white pixel value, and the area of the background BG is a pixel with a black pixel value. However, as shown in FIG. 10C, the background and the portion covered with the color are lacking in color. When the pixel value range is 0 to 255, the white pixel value is the maximum pixel value "255" and the black pixel value is the minimum pixel value "0".
図11(A)はデプスマスク画像MSDPの例である。このデプスマスク画像MSDPは、例えば図13(A)に示すようにデプス値が所与のデプス範囲RAとなる画素を識別するマスク画像である。デプス範囲RAは、デプス値が、ニア側のデプス値ZN以上であり、ファー側のデプス値ZF以下となる範囲であり、このデプス範囲RAに位置する被写体SBについては、図11(A)のデプスマスク画像MSDPにおいて白の画素になる。このようにデプス値がデプス範囲RAとなる画素を識別するデプスマスク画像MSDPを用いれば、デプス範囲RA内にある物体を抽出対象として設定できるようになる。そしてデプス範囲RAの手前側や奥側に、被写体となるべきではない物体が存在したり、通過した場合に、当該物体を、デプスマスク画像MSDPによる抽出対象から排除することも可能になる。 FIG. 11A is an example of a depth mask image MSDP. This depth mask image MSDP is, for example, as shown in FIG. 13A, a mask image that identifies pixels whose depth value is in a given depth range RA. The depth range RA is a range in which the depth value is equal to or greater than the depth value ZN on the near side and equal to or less than the depth value ZF on the far side. The subject SB located in this depth range RA is shown in FIG. 11 (A). Depth mask image White pixels in MSDP. By using the depth mask image MSDP that identifies the pixels whose depth value is in the depth range RA in this way, it becomes possible to set an object in the depth range RA as an extraction target. Then, when an object that should not be a subject exists or passes on the front side or the back side of the depth range RA, the object can be excluded from the extraction target by the depth mask image MSDP.
そして本実施形態では図10(C)の差分マスク画像MSDFと図11(A)のデプスマスク画像MSDPに基づいて、図11(B)に示す被写体マスク画像MSSBを生成する。被写体マスク画像MSSBは被写体を識別するためのマスク画像である。例えば被写体マスク画像MSSBは、被写体の領域では白の画素になり、被写体以外の領域では黒の画素になるマスク画像である。一例としては、図10(C)の差分マスク画像MSDFと図11(A)のデプスマスク画像MSDPのOR(論理和)をとることなどで、図11(B)の被写体マスク画像MSSBを生成できる。具体的には、差分マスク画像MSDFと、後述するモルフォロジーフィルター処理等の補正処理後のデプスマスク画像MSDPとのORをとることで、被写体マスク画像MSSBを生成する。更に具体的には、差分画像の二値化処理を行うことで生成されたマスク画像と、補正処理後又は補正処理前のデプスマスク画像MSDPとのAND(論理積)をとることで、差分マスク画像MSDFを生成する。そして生成された差分マスク画像MSDFと、補正処理後のデプスマスク画像MSDPとのORをとることで、被写体マスク画像MSSBを生成する。例えば被写体マスク画像MSSBでは、差分マスク画像MSDFにおいて白となる画素、又は、デプスマスク画像MSDPにおいて白となる画素が、白の画素に設定される。また被写体マスク画像MSSBでは、差分マスク画像MSDFとデプスマスク画像MSDPの両方において黒となる画素は、黒の画素に設定される。そして図11(B)の被写体マスク画像MSSBと図10(A)の第1画像IM1に基づいて、図11(C)に示すように被写体の画像を抽出する。例えば第1画像IM1から、被写体マスク画像MSSBが白の画素となる画素群の領域を切り取ることで、被写体の画像を抽出できる。例えば図10(C)に示すように、差分マスク画像MSDFでは、被写体の画像において背景と同じ色の画素については色被りにより欠けてしまうという問題がある。この点、図11(A)のデプスマスク画像MSDPでは、差分マスク画像MSDFにおいて色被りにより欠けて黒となった画素が、白の画素になる。従って、差分マスク画像MSDFとデプスマスク画像MSDPとに基づいて被写体マスク画像MSSBを生成することで、背景と同じ色の画素が色被りにより欠けてしまう問題を解消でき、被写体の適切な抽出処理を実現できるようになる。 Then, in this embodiment, the subject mask image MSSB shown in FIG. 11 (B) is generated based on the difference mask image MSDF of FIG. 10 (C) and the depth mask image MSDP of FIG. 11 (A). Subject mask image MSSB is a mask image for identifying a subject. For example, the subject mask image MSSB is a mask image in which white pixels are formed in a subject area and black pixels are formed in a region other than the subject. As an example, the subject mask image MSSB of FIG. 11 (B) can be generated by taking the OR (logical sum) of the difference mask image MSDF of FIG. 10 (C) and the depth mask image MSDP of FIG. 11 (A). .. Specifically, the subject mask image MSSB is generated by taking an OR of the difference mask image MSDF and the depth mask image MSDP after correction processing such as morphology filter processing described later. More specifically, the difference mask is obtained by taking an AND (logical product) between the mask image generated by performing the binarization process of the difference image and the depth mask image MSDP after the correction process or before the correction process. Generate image MSDF. Then, the subject mask image MSSB is generated by taking an OR of the generated difference mask image MSDF and the depth mask image MSDP after the correction process. For example, in the subject mask image MSSB, the pixels that are white in the difference mask image MSDF or the pixels that are white in the depth mask image MSDP are set as white pixels. Further, in the subject mask image MSSB, the pixels that become black in both the difference mask image MSDF and the depth mask image MSDP are set to black pixels. Then, an image of the subject is extracted as shown in FIG. 11 (C) based on the subject mask image MSSB of FIG. 11 (B) and the first image IM1 of FIG. 10 (A). For example, an image of a subject can be extracted from the first image IM1 by cutting out a region of a pixel group in which the subject mask image MSSB is a white pixel. For example, as shown in FIG. 10C, the difference mask image MSDF has a problem that pixels of the same color as the background in the subject image are chipped due to color cast. In this regard, in the depth mask image MSDP of FIG. 11A, the black pixels lacking due to color cast in the difference mask image MSDF become white pixels. Therefore, by generating the subject mask image MSSB based on the difference mask image MSDF and the depth mask image MSDP, it is possible to solve the problem that pixels of the same color as the background are missing due to color cast, and an appropriate extraction process of the subject can be performed. It will be possible.
なお、被写体の手前側に、抽出対象として予定していないオペレータや通過者等の非抽出対象物体が存在して、被写体と重なる場合には、デプスマスク画像MSDPにおいては、当該非抽出対象物体の領域の画素は黒になってしまい、非抽出対象物体の奥側の被写体を適正に抽出できなくなるおそれがある。差分マスク画像MSDFにおいてもデプスの閾値を設定していると、非抽出対象物体の領域の画素は黒になってしまう。このように非抽出対象物体の存在により被写体を正しく抽出できないことをシステムが検出して、被写体であるプレーヤを抽出せずに、当該プレーヤの代わりにキャラクタの画像を表示したり、当該プレーヤの抽出から、一緒にプレイしている他のプレーヤの抽出に切り替えるようにしてもよい。例えばゲームプレイの開始前に、HMDの位置を検出しておく。そしてゲームプレイ中に、HMDの手前側の非抽出対象物体の存在によりHMDが隠れてしまい、HMDの領域の画素が黒になった場合には、エラーが発生したと判定し、ゲーム空間のキャラクタの画像の表示に切り替えたり、他のプレーヤの画像に切り替えたり、或いは、複数台のカメラを用いている場合には、プレーヤを撮影するカメラを、高所や後方などの異なる位置に設置された他のカメラに切り替える。更に、例えば、プレイ中に常時、HMDなどの位置情報からプレーヤがいるべき抽出対象領域を推測する。その領域内のピクセル数が一定割合以下となった場合、HMDの手前側に非抽出対象物体が存在していると判定し、上述のような切り替えを行う。逆に、抽出対象領域があまりにも大きすぎる場合も、床や壁面などの誤検出が発生していると判定し、抽出・合成を中断し、ゲーム空間のキャラクタ表示に切り替えるか、他のカメラに切り替えるようにする。また図8(B)で説明した補助点を設定する手法と同様に、HMDの位置以外に、筐体の下部等にいくつかの補助点を設定し、HMDの位置の画素と補助点の位置の画素を用いて判断して、上記のような切替処理を行ってもよい。例えば図6(A)、図6(B)で説明した筐体マスク画像以外にも、HMD等のトラッキング装置からのトラッキング情報や補助点の情報を合わせて使用することで、より高精度な抽出処理を実現できるようになる。 If there is a non-extraction target object such as an operator or a passerby who is not planned to be extracted on the front side of the subject and it overlaps with the subject, in the depth mask image MSDP, the non-extraction target object is used. The pixels in the area become black, and there is a risk that the subject behind the non-extracted object cannot be properly extracted. If the depth threshold value is set in the difference mask image MSDF as well, the pixels in the region of the non-extracted object will be black. In this way, the system detects that the subject cannot be extracted correctly due to the presence of the non-extracted object, and instead of extracting the player who is the subject, displays a character image on behalf of the player or extracts the player. , You may switch to the extraction of other players playing with you. For example, the position of the HMD is detected before the start of game play. Then, during game play, if the HMD is hidden by the presence of a non-extractable object on the front side of the HMD and the pixels in the HMD area become black, it is determined that an error has occurred and the character in the game space. If you switch to the display of the image of the player, switch to the image of another player, or if you are using multiple cameras, the cameras that shoot the player are installed at different positions such as high places and rear. Switch to another camera. Further, for example, the extraction target area where the player should be is estimated from the position information such as the HMD at all times during play. When the number of pixels in the area becomes a certain percentage or less, it is determined that the non-extracted object exists on the front side of the HMD, and the switching as described above is performed. On the contrary, if the extraction target area is too large, it is determined that false detection of the floor or wall surface has occurred, extraction / synthesis is interrupted, and the character display in the game space is switched or switched to another camera. To do so. Further, similarly to the method of setting the auxiliary points described with reference to FIG. 8 (B), in addition to the position of the HMD, some auxiliary points are set at the lower part of the housing, etc. The switching process as described above may be performed by making a judgment using the pixels of. For example, in addition to the housing mask images described with reference to FIGS. 6 (A) and 6 (B), tracking information from a tracking device such as an HMD and information on auxiliary points can be used together for more accurate extraction. The processing can be realized.
そして本実施形態では、以上のように抽出した被写体の画像を仮想空間画像に合成する。例えば図12(A)は、ゲーム画像である仮想空間画像に対して、被写体であるプレーヤPLの画像が合成された合成画像の例である。これにより、あたかも仮想空間に、実空間のプレーヤPLが出現したかのように見える合成画像を生成できる。そして図12(B)に示すように、図12(A)の合成画像をギャラリー用表示装置210に表示することで、ギャラリーは、仮想空間でプレイするプレーヤPLの行動の様子を見物できるようになる。例えばVRゲームの施設において、VRゲームのプレイを待っているギャラリーに対して、VRゲームの待ち時間において図12(A)に示すような合成画像を表示する。これにより、プレーヤPLとギャラリーがVRゲームの体験を共有できるようになり、VRゲームの面白味を向上できる。
Then, in the present embodiment, the image of the subject extracted as described above is combined with the virtual space image. For example, FIG. 12A is an example of a composite image in which the image of the player PL, which is the subject, is combined with the virtual space image which is the game image. As a result, it is possible to generate a composite image that looks as if a real-space player PL has appeared in the virtual space. Then, as shown in FIG. 12B, by displaying the composite image of FIG. 12A on the
また本実施形態では、デプスマスク画像の補正処理を行い、補正処理後のデプスマスク画像と差分マスク画像に基づいて被写体マスク画像を生成する。即ち図11(A)のデプスマスク画像MSDPについての補正処理を行い、補正処理後のデプスマスク画像MSDPと、図10(C)の差分マスク画像MSDFに基づいて、図11(B)の被写体マスク画像MSSBを生成する。例えば差分マスク画像MSDFには色抜けの問題があり、この色抜けの問題を解消するためにデプスマスク画像MSDPを用いる。一方、差分マスク画像MSDFには、エッジ部分についてまで綺麗に差分をとれるという利点があるが、デプスマスク画像MSDPでは、エッジ部分がノイズによってちらついてしまったり、細かいノイズが重畳されるなどの問題がある。この点、デプスマスク画像MSDPに対して補正処理を行えば、エッジ部分のちらつきの防止や、細かいノイズの除去等を実現でき、高品位な合成画像の生成が可能になる。 Further, in the present embodiment, the depth mask image is corrected, and the subject mask image is generated based on the corrected depth mask image and the difference mask image. That is, the depth mask image MSDP of FIG. 11 (A) is corrected, and the subject mask of FIG. 11 (B) is based on the corrected depth mask image MSDP and the difference mask image MSDF of FIG. 10 (C). Generate an image MSSB. For example, the difference mask image MSDF has a problem of color loss, and the depth mask image MSDP is used to solve this problem of color loss. On the other hand, the difference mask image MSDF has an advantage that the difference can be clearly taken even for the edge part, but the depth mask image MSDP has problems such as the edge part flickering due to noise and fine noise being superimposed. is there. In this regard, if the depth mask image MSDP is corrected, it is possible to prevent flicker at the edge portion, remove fine noise, and the like, and it is possible to generate a high-quality composite image.
例えば本実施形態では、背景及び被写体をカメラ150により撮影した第1デプス画像と、背景をカメラ150により撮影した第2デプス画像との差分デプスマスク画像を生成し、差分デプスマスク画像に基づいて、補正処理後のデプスマスク画像を生成する。例えば図13(B)の第1デプス画像IMDP1は、カメラ150(デプスカメラ154)により背景BG及び被写体SBを撮影したデプス画像であり、第2デプス画像IMDP2は、カメラ150により背景BGを撮影したデプス画像である。この第1デプス画像IMDP1と第2デプス画像IMDP2の差分画像から差分デプスマスク画像MSDPDF(背景差分デプスマスク画像)を生成する。例えば差分画像の二値化処理等を行うことで差分デプスマスク画像MSDPDFを生成できる。例えばデプス値の差分値が所定値以上となる画素を白の画素に設定するなどの処理を行う。図14(A)は差分デプスマスク画像MSDPDFの例である。差分をとらない通常のデプスマスク画像では図14(C)のように天井や床の部分についても白の画素になってしまう問題があるが、差分デプスマスク画像MSDPDFを用いることで、このような問題を解消できるようになり、高品位な合成画像の生成が可能になる。
For example, in the present embodiment, a difference depth mask image of a first depth image in which the background and the subject are photographed by the
また本実施形態では、モルフォロジーフィルター処理及び時系列フィルター処理の少なくとも一方を行うことで、補正処理後のデプスマスク画像を生成する。例えば図14(B)は、図14(A)の差分デプスマスク画像MSDPDFに対して、モルフォロジーフィルター処理や時系列フィルター処理の補正処理を行った後の差分デプスマスク画像MSDPDFである。モルフォロジーフィルター処理は膨張伸縮化を行うフィルター処理であり、このようなモルフォロジーフィルター処理を行うことで、細かいサイズのノイズを除去できる。時系列フィルター処理では、例えば所定フレーム数以上、連続して、白の画素である判断された画素(デプス値の差分値が所定値以上の画素)を、マスクとして有効な白の画素として判断する。このような時系列フィルター処理を行うことで、細かなノイズのちらつきの発生を抑制できる。そして本実施形態では、このようなモルフォロジーフィルター処理や時系列フィルター処理が行われた差分デプスマスク画像MSDPDFを用いて、図14(D)に示すような補正処理後のデプスマスク画像MSDPを生成する。例えば図14(B)の差分デプスマスク画像MSDPDFと、図14(C)の通常のデプスマスク画像のAND(論理積)をとることで、図14(D)に示すデプスマスク画像MSDPを生成する。そしてこのデプスマスク画像MSDPを用いて、図11(B)で説明した被写体マスク画像MSSBを生成して、図11(C)に示すように被写体の画像を抽出する。 Further, in the present embodiment, a depth mask image after the correction process is generated by performing at least one of the morphology filter process and the time series filter process. For example, FIG. 14B is a difference depth mask image MSDPDF after the difference depth mask image MSDPDF of FIG. 14A is corrected by a morphology filter process or a time series filter process. The morphology filtering process is a filtering process that expands and contracts, and by performing such a morphology filtering process, noise of a fine size can be removed. In the time-series filtering process, for example, pixels determined to be white pixels continuously for a predetermined number of frames or more (pixels having a depth value difference value of a predetermined value or more) are determined as white pixels effective as a mask. .. By performing such a time-series filter processing, it is possible to suppress the occurrence of fine noise flicker. Then, in the present embodiment, the difference depth mask image MSDPDF subjected to such morphology filtering and time series filtering is used to generate the corrected depth mask image MSDP as shown in FIG. 14 (D). .. For example, the depth mask image MSDP shown in FIG. 14 (D) is generated by ANDing the difference depth mask image MSDPDF of FIG. 14 (B) and the normal depth mask image of FIG. 14 (C) (logical product). .. Then, using this depth mask image MSDP, the subject mask image MSSB described in FIG. 11B is generated, and the image of the subject is extracted as shown in FIG. 11C.
また本実施形態では、デプス画像においてデプス値が取得できなかった画素の画素値を、差分画像に基づき設定する処理を行うことで、補正処理後のデプスマスク画像を生成する。即ちデプス値が取得できなかった画素であるブランク画素の画素値を、差分画像の画素値で埋める補正処理を行う。図15(A)は、このようなブランク画素を埋める補正処理を行った場合における被写体の抽出画像の例であり、図15(B)は、ブランク画素を埋める補正処理を行わなかった場合における被写体の抽出画像の例である。図15(B)に示すように、ブランク画素を埋める補正処理を行わなかった場合には、例えば手のエッジ付近などにおいて被写体の画像が欠けてしまう問題が発生する。 Further, in the present embodiment, the depth mask image after the correction process is generated by performing the process of setting the pixel value of the pixel for which the depth value could not be acquired in the depth image based on the difference image. That is, a correction process is performed in which the pixel value of the blank pixel, which is the pixel for which the depth value could not be acquired, is filled with the pixel value of the difference image. FIG. 15 (A) is an example of the extracted image of the subject when the correction process for filling the blank pixels is performed, and FIG. 15 (B) shows the subject when the correction process for filling the blank pixels is not performed. This is an example of the extracted image of. As shown in FIG. 15B, if the correction process for filling the blank pixels is not performed, there is a problem that the image of the subject is chipped, for example, near the edge of the hand.
このような問題の発生を防止するために本実施形態では、図16(A)に示すように、デプス値が取得できなかったブランク画素を識別するブランクマスク画像を生成する。即ち、ステレオカメラによるデプス値の取得では、ステレオカメラの一方のカメラでは見えるが、他方のカメラでは見えない画素が存在し、このような画素においては適正なデプス値を取得できないため、デプス値が取得できなかったという結果が返って来る。このようにデプス値が取得できないという結果が返って来た画素を、例えば白の画素に設定することで、図16(A)に示すようなブランクマスク画像を生成できる。そして図16(B)は第1画像と第2画像の差分を求めることで生成された差分マスク画像である。図16(C)は、図16(A)のブランクマスク画像と図16(B)の差分マスク画像のAND(論理積)をとったマスク画像である。図16(C)のマスク画像では、図16(A)のブランクマスク画像においてデプス値を取得できないブランク画素であると判断された画素であり、且つ、図16(B)の差分マスク画像において被写体と判断される画素が、白の画素に設定される。このようにデプス値が取得できなかった画素の画素値を、差分画像である差分マスク画像に基づき設定する処理(埋める処理)が行われている。そして図16(C)における白の画素が、被写体の画素に設定されるように、被写体マスク画像を生成して、被写体の画像を抽出する。このようにすれば、図15(B)のようにデプス値を取得できなかったことが原因で画像が欠けてしまう問題を防止でき、図15(A)に示すような適切な被写体の抽出画像を生成できるようになる。 In order to prevent the occurrence of such a problem, in the present embodiment, as shown in FIG. 16A, a blank mask image for identifying the blank pixel for which the depth value could not be acquired is generated. That is, in the acquisition of the depth value by the stereo camera, there are pixels that can be seen by one camera of the stereo camera but cannot be seen by the other camera, and an appropriate depth value cannot be acquired in such pixels. The result is that it could not be obtained. A blank mask image as shown in FIG. 16A can be generated by setting, for example, white pixels as the pixels for which the result that the depth value cannot be obtained is returned. FIG. 16B is a difference mask image generated by obtaining the difference between the first image and the second image. FIG. 16C is a mask image obtained by ANDing the blank mask image of FIG. 16A and the difference mask image of FIG. 16B. The mask image of FIG. 16 (C) is a pixel determined to be a blank pixel whose depth value cannot be obtained in the blank mask image of FIG. 16 (A), and is a subject in the difference mask image of FIG. 16 (B). The pixel determined to be is set to the white pixel. A process (filling process) of setting the pixel value of the pixel for which the depth value could not be obtained based on the difference mask image which is the difference image is performed. Then, a subject mask image is generated and the image of the subject is extracted so that the white pixels in FIG. 16C are set as the pixels of the subject. By doing so, it is possible to prevent the problem that the image is chipped due to the failure to acquire the depth value as shown in FIG. 15 (B), and the extracted image of an appropriate subject as shown in FIG. 15 (A). Will be able to generate.
また本実施形態では、デプス値がデプス範囲となる画素群の領域サイズを求め、領域サイズによるフィルター処理を行うことで、補正処理後のデプスマスク画像を生成する。例えばデプス値が図13(A)のデプス範囲RAとなる画素群の領域サイズを求める。例えばデプス値がデプス範囲RAとなる画素群(隣合う画素群)の画素数をカウントすることで、当該画素群の領域サイズを求めることができる。そして領域サイズが最も大きい画素群や、或いは領域サイズが所定サイズ以上の画素群を、被写体を構成する画素群とするフィルター処理を行う。例えば図17(A)は、領域サイズによるフィルター処理が行われる前のデプスマスク画像の例であり、図17(B)は、領域サイズによるフィルター処理が行われた後のデプスマスク画像の例である。図17(A)では、小さな領域サイズの画素群が白の画素として残存しているが、図17(B)では、小さな領域サイズの画素群を除去するフィルター処理が行われている。そして図17(B)では、デプス値がデプス範囲RAとなる画素群のうち、領域サイズが最も大きい画素群を、被写体の画素群として判断して、白の画素に設定している。このようにすれば、ノイズ等を原因として発生する領域サイズの小さな画素群を除去して、被写体に対応する画素群だけを抽出することが可能になり、高品位な合成画像を生成できるようになる。 Further, in the present embodiment, the area size of the pixel group whose depth value is in the depth range is obtained, and the depth mask image after the correction processing is generated by performing the filter processing according to the area size. For example, the area size of the pixel group whose depth value is the depth range RA in FIG. 13 (A) is obtained. For example, the area size of the pixel group can be obtained by counting the number of pixels of the pixel group (adjacent pixel group) whose depth value is the depth range RA. Then, a filter process is performed in which the pixel group having the largest area size or the pixel group having the area size of a predetermined size or more is set as the pixel group constituting the subject. For example, FIG. 17 (A) is an example of a depth mask image before filtering by area size, and FIG. 17 (B) is an example of a depth mask image after filtering by area size. is there. In FIG. 17A, a pixel group having a small area size remains as white pixels, but in FIG. 17B, a filter process for removing a pixel group having a small area size is performed. Then, in FIG. 17B, among the pixel groups whose depth value is the depth range RA, the pixel group having the largest area size is determined as the pixel group of the subject and set as white pixels. By doing so, it is possible to remove the pixel group having a small area size generated due to noise or the like and extract only the pixel group corresponding to the subject, so that a high-quality composite image can be generated. Become.
また本実施形態では、被写体の領域と判断される被写体領域でのデプス値に基づいて第2デプス範囲を設定し、デプス値が第2デプス範囲となる画素を識別する画像を、デプスマスク画像として生成する。例えば図18(A)のデプスマスク画像では、白の画素の領域が被写体領域であると判断されるため、この被写体領域のデプス値の平均値ZAVを求める。そしてこの平均値ZAVに基づいて、図18(B)に示すような第2デプス範囲RA2を設定する。第2デプス範囲RA2は、デプス値が、ニア側のデプス値ZN2以上であり、ファー側のデプス値ZF2以下となる範囲である。この第2デプス範囲RA2は、図13のデプス範囲RAに比べて狭い範囲となっており、被写体SBのデプス値の範囲を、より厳密に特定している。 Further, in the present embodiment, a second depth range is set based on the depth value in the subject area determined to be the subject area, and an image that identifies pixels whose depth value is the second depth range is used as a depth mask image. Generate. For example, in the depth mask image of FIG. 18A, since the region of white pixels is determined to be the subject region, the average value ZAV of the depth values of this subject region is obtained. Then, based on this average value ZAV, the second depth range RA2 as shown in FIG. 18B is set. The second depth range RA2 is a range in which the depth value is equal to or greater than the near-side depth value ZN2 and equal to or less than the far-side depth value ZF2. The second depth range RA2 is narrower than the depth range RA of FIG. 13, and the range of the depth value of the subject SB is specified more strictly.
例えばプレーヤが、仮想空間の世界を自由に歩き回って移動するようなフリーローム(オープンワールド)のコンテンツでは、図13(A)のデプス範囲RAを設定することが難しい。例えばプレーヤが移動する可能性がある範囲を全てカバーする距離範囲(RA)を指定しておくと、余計な物体まで誤抽出してしまうおそれがある。 For example, in a free loam (open world) content in which a player freely roams and moves around the world of virtual space, it is difficult to set the depth range RA of FIG. 13 (A). For example, if a distance range (RA) that covers the entire range in which the player may move is specified, there is a risk that unnecessary objects may be erroneously extracted.
この点、図18(A)では、被写体の領域と判断される被写体領域でのデプス値(ZAV)に基づいて、第2デプス範囲RA2が設定される。従って、プレーヤが移動した場合にも、このプレーヤの移動に追従するように第2デプス範囲RA2を設定できるようになる。例えば、上述したような余計な物体の誤抽出が行われないように、デプス範囲から第2デプス範囲RA2というように段階的にデプス範囲を狭めている。従って、被写体であるプレーヤの移動を反映させた厳密なデプスマスク画像の生成が可能になり、高品位な合成画像を生成できるようになる。 In this regard, in FIG. 18A, the second depth range RA2 is set based on the depth value (ZAV) in the subject region determined to be the subject region. Therefore, even when the player moves, the second depth range RA2 can be set so as to follow the movement of the player. For example, the depth range is gradually narrowed from the depth range to the second depth range RA2 so as not to erroneously extract an unnecessary object as described above. Therefore, it is possible to generate a strict depth mask image that reflects the movement of the player who is the subject, and it is possible to generate a high-quality composite image.
またトラッキング情報を使ってプレーヤ領域を限定するように、HMDなどのトラッキング情報に基づいてカメラからの距離範囲を求め、その距離に基づいてデプスの範囲を設定してもよい。 Further, the distance range from the camera may be obtained based on the tracking information such as the HMD so as to limit the player area by using the tracking information, and the depth range may be set based on the distance.
4.3 種々の処理例
次に本実施形態の種々の処理例について説明する。例えば本実施形態では図5(A)、図5(B)に示すように、実空間においてプレーヤPLが搭乗する筐体30の画像を抽出し、仮想空間画像にプレーヤPLの画像及び筐体30の画像が合成された画像を生成している。これにより、筐体30にプレーヤPLが搭乗した状態の実空間画像を、仮想空間画像に合成できるようになる。この場合に本実施形態では、図10(A)、図10(B)で説明したように第1画像IM1と第2画像IM2の差分画像を求める背景差分法により被写体の画像を抽出している。そして筐体30は、第1画像IM1と第2画像IM2の両方に映るため、通常の背景差分法では、筐体30は背景と判断されて、抽出されずに消えてしまう。また筐体30が可動筐体である場合には、ゲームプレイ中に筐体30が動くため、筐体30が消えたり、消えなかったりする事態が発生する。
4.3 Various processing examples Next, various processing examples of the present embodiment will be described. For example, in the present embodiment, as shown in FIGS. 5A and 5B, an image of the
そこで本実施形態では、図6(A)、図6(B)で説明したように、筐体30の画像の抽出範囲を指定する筐体マスク画像を用いて、筐体30の画像を抽出している。この筐体マスク画像を用いる手法について詳細に説明する。
Therefore, in the present embodiment, as described with reference to FIGS. 6 (A) and 6 (B), the image of the
図19(A)は、オペレータが手動で筐体30の範囲を指定することで設定された筐体マスク画像の例である。この筐体30の範囲の指定は、筐体30の概形をなぞる程度の粗さでよい。図19(B)は、筐体30についてのデプスマスク画像の例である。図19(A)の範囲指定用の筐体マスク画像と、図19(B)のデプスマスク画像のAND(論理積)をとることで、図19(C)に示すような筐体領域を示す筐体マスク画像が生成される。実際には、図19(B)のデプスマスク画像に対して、前述したような穴埋めやエッジ平滑化などの補正処理を行い、補正処理後のデプスマスク画像と、図19(A)の範囲指定用の筐体マスク画像のANDをとることになる。図19(A)では筐体30の概形だけが指定されていたが、図19(B)のデプスマスク画像とのANDをとることで、図19(C)に示すように筐体30の形が正確に反映された筐体マスク画像を生成できる。そして図19(C)の筐体マスク画像と、差分マスク画像(カラー背景差分)とのORをとることで、図20(A)のような画像を生成し、図19(C)の筐体マスク画像と、差分デプスマスク画像(デプス背景差分)とのORをとることで、図20(B)のような画像を生成する。そして図20(A)の画像と図20(B)の画像のORをとることで、図20(C)に示す被写体マスク画像を生成する。これにより図20(D)に示すように、筐体30及びプレーヤPLを適正に抽出できるようになる。例えば図21(A)〜図21(D)は筐体マスク画像を用いない手法の説明図である。図21(A)は差分マスク画像(カラー背景差分)であり図21(B)は差分デプスマスク画像(デプス背景差分)である。図21(B)において筐体30にプレーヤPLが乗った程度の差分は差分の閾値以下となる。図21(C)は図21(A)の画像と図21(B)の画像のORをとることで生成された被写体マスク画像であり、この被写体マスク画像によっては、図21(D)に示すようにプレーヤPLだけしか抽出できず、筐体30を抽出することができない。
FIG. 19A is an example of a housing mask image set by the operator manually specifying the range of the
以上に説明した筐体マスク画像を用いる手法によれば、オペレータは図19(A)に示すように筐体30の概形をラフに指定すれば済むため、オペレータの範囲指定の作業が楽になる。また筐体30が動くことで、静止時には筐体30が映っていた一部の画素の領域が背景になった場合に、背景になった画素の領域も適切に背景として判定できるようになり、可動筐体である筐体30の適切な抽出処理を実現できる。
According to the method using the housing mask image described above, the operator only needs to roughly specify the outline shape of the
図22は、図7〜図8(B)で説明した抽出範囲を設定する手法の説明図である。図22では、HMD200を装着したプレーヤPLが、ゲーム施設に設置された細い板状の橋の上を移動している。そしてこのゲームでは、カメラ150の画角内であるプレイエリアの中において、オペレータOPがプレーヤPLの直ぐ近くで、HMD200を装着することで外の様子が見えないプレーヤPLを補助している。画像処理だけでは、カメラ150に写っているのが、プレーヤPLなのかオペレータOPなのかを判定できないため、プレーヤPLではない誤った対象が抽出されてしまう問題が生じる。
FIG. 22 is an explanatory diagram of the method for setting the extraction range described with reference to FIGS. 7 to 8 (B). In FIG. 22, a player PL equipped with the HMD200 is moving on a thin plate-shaped bridge installed in a game facility. Then, in this game, in the play area within the angle of view of the
このような問題の発生を抑制するために、図7〜図8(B)で説明したように、プレーヤPLが存在すると考えられる領域にだけ、抽出範囲を設定して抽出処理を行う。即ち、HMD200などのトラッキング装置からのトラッキング情報を用いることで、プレーヤPLが存在する範囲を求めることができる。HMD200のトラッキング情報だけでは、プレーヤPLの頭の位置しか検出できないが、手、足などに装着した複数のトラッキング装置からのトラッキング情報を用いることで、被写体であるプレーヤPLの種々の姿勢、動作にも応じた適切な範囲に抽出範囲を設定できるようになる。 In order to suppress the occurrence of such a problem, as described with reference to FIGS. 7 to 8 (B), the extraction process is performed by setting the extraction range only in the region where the player PL is considered to exist. That is, by using the tracking information from a tracking device such as the HMD200, the range in which the player PL exists can be obtained. Only the position of the head of the player PL can be detected only by the tracking information of the HMD200, but by using the tracking information from a plurality of tracking devices attached to the hands, feet, etc., various postures and movements of the player PL as the subject can be obtained. It will be possible to set the extraction range to an appropriate range according to the above.
また本実施形態では、1台のカメラ150を用いる場合について説明したが、複数台のカメラを設け、これらの複数台のカメラを用いて被写体の抽出処理を行ってよい。例えば複数台のカメラからの複数のカラー画像と複数のデプス画像を用いて被写体の抽出処理を行う。
Further, in the present embodiment, the case where one
またマルチプレーヤゲームの場合には、ゲームをプレイする複数のプレーヤについて生成された複数の合成画像(実空間画像と仮想空間画像の合成画像)を順次に切り替えて表示したり、複数の合成画像を表示装置に対して同時表示するようにしてもよい。 In the case of a multiplayer game, a plurality of composite images (composite images of a real space image and a virtual space image) generated for a plurality of players playing the game can be sequentially switched and displayed, or a plurality of composite images can be displayed. Simultaneous display may be performed on the display device.
またデプス値の測定方式は、本実施形態で説明したステレオカメラを用いる方式には限定されず、光の往復の時間を測定するToF(Time of Flight)の方式や、予め決まった赤外線等のパターンを投影し、そのパターンの変形から計算する構造化光法などの種々の方式を採用できる。例えばトラッキング用の赤外線の受光素子が設けられないようなタイプのHMDであれば、赤外線を投射してから帰ってくるまでの時間から距離を計算してデプス値を測定するToFの方式を用いることができる。また反射の光の強度で距離を測る場合には、赤外線の受光部を有していないHMDを用いてもよい。 The depth value measurement method is not limited to the method using the stereo camera described in the present embodiment, and is limited to the ToF (Time of Flight) method for measuring the round-trip time of light and a predetermined pattern such as infrared rays. Can be adopted by various methods such as a structured optical method in which the image is projected and calculated from the deformation of the pattern. For example, in the case of an HMD of the type that does not have an infrared light receiving element for tracking, use the ToF method that measures the depth value by calculating the distance from the time from the projection of infrared rays to the return. Can be done. When measuring the distance by the intensity of the reflected light, an HMD that does not have an infrared light receiving portion may be used.
また本実施形態では、実空間のカメラ150の位置に対応する仮想空間の位置に撮影用の仮想カメラを配置する。このため、カメラ150と被写体(プレーヤ、筐体)との間のカメラ距離を正確に測定することが望まれる。そこでARマーカのような例えば箱状のマーカ物体を用意して、被写体の近くに配置する。そして、このマーカ物体をカメラ150により撮影することで、ARマーカの場合と同様の手法でカメラ距離を測定する。こうすることで、実空間でのカメラ150と被写体との距離関係を正確に反映させた撮影用の仮想カメラの配置を実現できる。
Further, in the present embodiment, the virtual camera for shooting is arranged at the position of the virtual space corresponding to the position of the
また本実施形態は種々のゲームやイベントに適用できる。例えばリズムゲームやダンスゲームなどにおいて、仮想空間の広場において演奏したり踊っているプレーヤの様子を、仮想空間画像と実空間画像の合成画像として生成し、例えばリプレイ画像として配信するようにしてもよい。例えば仮想空間において、ギャラリーとなる多数のキャラクタを配置し、プレーヤの演奏やダンスを盛り上げるようにする。このようにすればプレーヤは、異空間である仮想空間において演奏したり踊っている自分の姿を、後で楽しめるようになる。 Further, this embodiment can be applied to various games and events. For example, in a rhythm game or a dance game, the state of a player playing or dancing in a virtual space square may be generated as a composite image of a virtual space image and a real space image, and distributed as a replay image, for example. .. For example, in a virtual space, a large number of characters that serve as a gallery are arranged to excite the player's performance and dance. In this way, the player can later enjoy playing and dancing in a virtual space, which is a different space.
またキッズ向けのライドアトラクションにおいて、ライド筐体に乗車している子供の様子を合成画像(合成映像)として生成し、写真にプリントして持ち帰るようにしたり、配信するようにしてもよい。本実施形態によれば、ブルーバックやグリーンバックなどの撮影用機材をアトラクションに配置することなく、望む世界やシチュエーションの画像、映像を作れるようになる。 Further, in a ride attraction for kids, the state of the child riding in the ride housing may be generated as a composite image (composite video), printed on a photograph and taken home, or distributed. According to this embodiment, it is possible to create an image or video of a desired world or situation without arranging shooting equipment such as a blue back or a green background at an attraction.
また握手会、記念撮影会において、仮想空間のキャラクタと共に撮影した合成画像を提供するようにしてもよい。例えば漫画のキャラクタやゲームのキャラクタとプレーヤが出会えるようにする。このようにすれば、実空間には存在しないキャラクタと実際に触れ合った様子が映った合成画像を提供できる。また仮想的なカフェにおいてキャラクタと一緒に食事をしているような合成画像を生成してもよい。 Further, at the handshake event and the commemorative photo session, a composite image taken together with the character in the virtual space may be provided. For example, allow players to meet cartoon characters and game characters. In this way, it is possible to provide a composite image showing the actual contact with a character that does not exist in the real space. You may also generate a composite image that looks like you are eating with a character in a virtual cafe.
また図5(A)、図5(B)では、HMD200を装着した状態のプレーヤPLの画像が表示されているが、HMD200の代わりとなるかぶり物の画像を合成してもよい。例えばプレーヤPLの自身の画像を、かぶり物の画像として合成したり、コスプレのようなかぶり物の画像を合成する。或いは、プレーヤPLが武器、アイテムを装着したり、衣装を着たりするように見える合成画像を生成してもよい。或いは、筐体30の画像を、よりリアルな画像に見えるような画像合成処理を行ってもよい。
Further, in FIGS. 5A and 5B, an image of the player PL with the HMD200 attached is displayed, but an image of a headgear instead of the HMD200 may be combined. For example, the player PL's own image is combined as an image of a headgear, or an image of a headgear such as a cosplay is combined. Alternatively, the player PL may generate a composite image that appears to be wearing a weapon, item, or wearing a costume. Alternatively, the image of the
また協力プレイのゲームにおいて、仮想空間画像と実空間画像の合成画像(合成映像)を見ている第1のプレーヤと、ゲーム操作を行ったり体を動かす第2のプレーヤとに分け、第2のプレーヤの操作や動作についてのヒントを、第1のプレーヤが、合成画像を見ながら第2のプレーヤに伝えるようにしてもよい。 Further, in the cooperative play game, the first player who is viewing the composite image (composite video) of the virtual space image and the real space image and the second player who performs the game operation or moves the body are divided into the second player. The first player may give hints about the operation and operation of the player to the second player while viewing the composite image.
なお、上記のように本実施形態について詳細に説明したが、本開示の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(被写体等)と共に記載された用語(プレーヤ等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また画像生成システムの構成、筐体の構成、カメラの構成、画像の取得処理、仮想空間画像の生成処理、被写体や筐体の画像の抽出処理、仮想空間画像と実空間画像の画像合成処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本開示の範囲に含まれる。また本実施形態は種々のゲームに適用できる。また本実施形態は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のプレーヤが参加する大型アトラクションシステム等の種々の画像生成システムに適用できる。 Although the present embodiment has been described in detail as described above, those skilled in the art will easily understand that many modifications that do not substantially deviate from the novel matters and effects of the present disclosure are possible. Therefore, all such variations are included in the scope of the present disclosure. For example, a term (player, etc.) described with a different term (subject, etc.) in a broader sense or synonymously at least once in the specification or drawing may be replaced with the different term in any part of the specification or drawing. it can. In addition, image generation system configuration, housing configuration, camera configuration, image acquisition processing, virtual space image generation processing, subject and housing image extraction processing, virtual space image and real space image image composition processing, etc. However, the method, processing, and configuration equivalent to these are also included in the scope of the present disclosure without being limited to those described in the present embodiment. Moreover, this embodiment can be applied to various games. Further, the present embodiment can be applied to various image generation systems such as a commercial game device, a home game device, or a large attraction system in which a large number of players participate.
PL…プレーヤ、VCM…撮影用の仮想カメラ、CHM…撮影者キャラクタ、
MV…車、MVE…敵車、CHE…敵キャラクタ、ST ハンドル、HL、HR 手、
EF1、EF2…エフェクト、CS…コース、MSC…筐体マスク画像、
TR1〜TR5…トラッキング装置、AR…抽出範囲、PAX…補助点、
IM1…第1画像、IM2…第2画像、MSDF…差分マスク画像、
MSDP…デプスマスク画像、MSSB…被写体マスク画像、
IMDP1…第1デプス画像、IMDP2…第2デプス画像、
MSDPDF…差分デプスマスク画像、MSC…筐体マスク画像、
BG…背景、SB…被写体、RA…デプス範囲、RA2…第2デプス範囲、
ZN、ZN2、ZF、ZF2…デプス値、ZAV…デプス値の平均値、
30…筐体、32…底部、33…カバー部、40…移動部、
50…ハンドル、52…アクセルペダル、54…ブレーキペダル、
60…ライド部、62…シート、80…送風機、
100…処理部、102…取得部、104…仮想空間設定部、106…ゲーム処理部、
107…移動体処理部、108…筐体制御部、110…仮想カメラ制御部、
120…画像生成部、122…画像合成部、130…音生成部、
150…カメラ、152…カラーカメラ、154…デプスカメラ、160…操作部、
170…記憶部、172…仮想空間情報記憶部、178…描画バッファ、
180…情報記憶媒体、192…音出力部、194…I/F部、
195…携帯型情報記憶媒体、196…通信部、200…HMD(頭部装着型表示装置)、201〜203…受光素子、206…トラッキング装置、208…表示部、
210…ギャラリー用表示装置、250、260…トラッキング装置、
251〜254…受光素子、261〜264…受光素子、
280、284…ベースステーション、281、282、285、286…発光素子
PL ... player, VCM ... virtual camera for shooting, CHM ... photographer character,
MV ... car, MVE ... enemy car, CHE ... enemy character, ST handle, HL, HR hand,
EF1, EF2 ... effect, CS ... course, MSC ... housing mask image,
TR1 to TR5 ... Tracking device, AR ... Extraction range, PAX ... Auxiliary point,
IM1 ... 1st image, IM2 ... 2nd image, MSDF ... Difference mask image,
MSDP ... Depth mask image, MSSB ... Subject mask image,
IMDP1 ... 1st depth image, IMDP2 ... 2nd depth image,
MSDPDF ... differential depth mask image, MSC ... housing mask image,
BG ... background, SB ... subject, RA ... depth range, RA2 ... second depth range,
ZN, ZN2, ZF, ZF2 ... Depth value, ZAV ... Mean value of depth value,
30 ... housing, 32 ... bottom, 33 ... cover, 40 ... moving part,
50 ... steering wheel, 52 ... accelerator pedal, 54 ... brake pedal,
60 ... Ride part, 62 ... Seat, 80 ... Blower,
100 ... Processing unit, 102 ... Acquisition unit, 104 ... Virtual space setting unit, 106 ... Game processing unit,
107 ... Mobile processing unit, 108 ... Housing control unit, 110 ... Virtual camera control unit,
120 ... image generation unit, 122 ... image composition unit, 130 ... sound generation unit,
150 ... camera, 152 ... color camera, 154 ... depth camera, 160 ... operation unit,
170 ... storage unit, 172 ... virtual space information storage unit, 178 ... drawing buffer,
180 ... Information storage medium, 192 ... Sound output section, 194 ... I / F section,
195 ... Portable information storage medium, 196 ... Communication unit, 200 ... HMD (head-mounted display device), 201-203 ... Light receiving element, 206 ... Tracking device, 208 ... Display unit,
210 ... Gallery display device, 250, 260 ... Tracking device,
251 to 254 ... light receiving element, 261 to 264 ... light receiving element,
280, 284 ... Base station, 281, 282, 285, 286 ... Light emitting element
Claims (16)
前記カメラの位置に対応する仮想空間の位置に配置された撮影用の仮想カメラから見える仮想空間画像を生成する画像生成部と、
前記第1画像と前記第2画像の差分画像を求めることで前記被写体の画像を抽出して、前記仮想空間画像に前記被写体の画像が合成された合成画像を生成する画像合成部と、
を含むことを特徴とする画像生成システム。 An acquisition unit that acquires a first image in which a background and a subject are photographed by a camera arranged in a real space and a second image in which the background is photographed by the camera.
An image generation unit that generates a virtual space image that can be seen from a virtual camera for shooting arranged at a position in the virtual space corresponding to the position of the camera.
An image compositing unit that extracts the image of the subject by obtaining the difference image between the first image and the second image and generates a composite image in which the image of the subject is combined with the virtual space image.
An image generation system characterized by including.
前記画像合成部は、
前記実空間において前記被写体が搭乗する筐体の画像を抽出し、前記仮想空間画像に前記被写体の画像及び前記筐体の画像が合成された前記合成画像を生成することを特徴とする画像生成システム。 In claim 1,
The image synthesizing unit
An image generation system characterized in that an image of a housing on which the subject is mounted is extracted in the real space, and the composite image in which the image of the subject and the image of the housing are combined with the virtual space image is generated. ..
前記画像合成部は、
前記筐体の画像の抽出範囲を指定する筐体マスク画像を用いて、前記筐体の画像を抽出することを特徴とする画像生成システム。 In claim 2,
The image synthesizing unit
An image generation system characterized in that an image of the housing is extracted by using a housing mask image that specifies an extraction range of the image of the housing.
前記画像合成部は、
前記被写体が装着する少なくとも1つのトラッキング装置からのトラッキング情報に基づいて、前記被写体の画像の抽出範囲を設定して、前記被写体の画像を抽出することを特徴とする画像生成システム。 In claim 1,
The image synthesizing unit
An image generation system characterized in that an image extraction range of the subject is set based on tracking information from at least one tracking device worn by the subject, and the image of the subject is extracted.
前記画像合成部は、
前記トラッキング装置の位置と、前記トラッキング装置の位置から所与の距離だけシフトした位置に設定された補助点の位置とに基づいて、前記被写体の画像の前記抽出範囲を設定することを特徴とする画像生成システム。 In claim 4,
The image synthesizing unit
It is characterized in that the extraction range of the image of the subject is set based on the position of the tracking device and the position of an auxiliary point set at a position shifted by a predetermined distance from the position of the tracking device. Image generation system.
前記画像生成部は、
前記被写体であるプレーヤに表示されるプレーヤ用の仮想空間画像として、前記仮想空間において前記撮影用の仮想カメラの位置に対応する位置に、前記撮影用の仮想カメラの画像及び撮影者キャラクタの画像の少なくとも一方が表示される仮想空間画像を生成することを特徴とする画像生成システム。 In any of claims 1 to 5,
The image generation unit
As a virtual space image for the player displayed on the player which is the subject, the image of the virtual camera for shooting and the image of the photographer character are displayed at positions corresponding to the positions of the virtual camera for shooting in the virtual space. An image generation system characterized in generating a virtual space image in which at least one is displayed.
前記被写体であるプレーヤが装着し、前記仮想空間においてプレーヤ用の仮想カメラから見えるプレーヤ用の仮想空間画像が表示される頭部装着型表示装置と、
前記合成画像がギャラリー用画像として表示されるギャラリー用表示装置と、
を含むことを特徴とする画像生成システム。 In any of claims 1 to 6,
A head-mounted display device that is worn by the player who is the subject and displays a virtual space image for the player that can be seen from the virtual camera for the player in the virtual space.
A gallery display device in which the composite image is displayed as a gallery image, and
An image generation system characterized by including.
前記取得部は、
前記背景及び前記被写体を前記カメラにより撮影したデプス画像を取得し、
前記画像合成部は、
前記差分画像と前記デプス画像に基づいて、前記被写体の画像を抽出することを特徴とする画像生成システム。 In any of claims 1 to 7,
The acquisition unit
A depth image of the background and the subject taken by the camera is acquired.
The image synthesizing unit
An image generation system characterized in that an image of the subject is extracted based on the difference image and the depth image.
前記画像合成部は、
前記差分画像に基づいて差分マスク画像を生成し、前記デプス画像に基づいて、デプス値が所与のデプス範囲となる画素を識別するデプスマスク画像を生成し、前記差分マスク画像と前記デプスマスク画像に基づいて、前記被写体を識別する被写体マスク画像を生成し、前記被写体マスク画像と前記第1画像に基づいて、前記被写体の画像を抽出することを特徴とする画像生成システム。 In claim 8.
The image synthesizing unit
A difference mask image is generated based on the difference image, a depth mask image for identifying a pixel whose depth value is in a given depth range is generated based on the depth image, and the difference mask image and the depth mask image are generated. An image generation system characterized in that a subject mask image for identifying the subject is generated based on the above, and an image of the subject is extracted based on the subject mask image and the first image.
前記画像合成部は、
前記デプスマスク画像の補正処理を行い、前記補正処理後の前記デプスマスク画像と前記差分マスク画像に基づいて前記被写体マスク画像を生成することを特徴とする画像生成システム。 In claim 9.
The image synthesizing unit
An image generation system characterized by performing correction processing of the depth mask image and generating the subject mask image based on the depth mask image and the difference mask image after the correction processing.
前記画像合成部は、
前記背景及び前記被写体を前記カメラにより撮影した第1デプス画像と前記背景を前記カメラにより撮影した第2デプス画像との差分デプスマスク画像を生成し、前記差分デプスマスク画像に基づいて、前記補正処理後の前記デプスマスク画像を生成することを特徴とする画像生成システム。 In claim 10,
The image synthesizing unit
A difference depth mask image is generated between the first depth image of the background and the subject taken by the camera and the second depth image of the background taken by the camera, and the correction process is performed based on the difference depth mask image. An image generation system characterized by generating the depth mask image later.
前記画像合成部は、
モルフォロジーフィルター処理及び時系列フィルター処理の少なくとも一方を行うことで、前記補正処理後の前記デプスマスク画像を生成することを特徴とする画像生成システム。 In claim 10 or 11, the image synthesizing unit
An image generation system characterized in that the depth mask image after the correction process is generated by performing at least one of a morphology filter process and a time series filter process.
前記画像合成部は、
前記デプス画像において前記デプス値が取得できなかった画素の画素値を、前記差分画像に基づき設定する処理を行うことで、前記補正処理後の前記デプスマスク画像を生成することを特徴とする画像生成システム。 In any of claims 10 to 12,
The image synthesizing unit
Image generation characterized in that the depth mask image after the correction process is generated by performing a process of setting the pixel values of the pixels for which the depth value could not be acquired in the depth image based on the difference image. system.
前記画像合成部は、
前記デプス値が前記デプス範囲となる画素群の領域サイズを求め、前記領域サイズによるフィルター処理を行うことで、前記補正処理後の前記デプスマスク画像を生成することを特徴とする画像生成システム。 In any of claims 10 to 13,
The image synthesizing unit
An image generation system characterized in that a depth mask image after the correction processing is generated by obtaining an area size of a pixel group in which the depth value is in the depth range and performing a filter process according to the area size.
前記画像合成部は、
前記被写体の領域と判断される被写体領域でのデプス値に基づいて第2デプス範囲を設定し、前記デプス値が前記第2デプス範囲となる画素を識別する画像を、前記デプスマスク画像として生成することを特徴とする画像生成システム。 In any of claims 9 to 14,
The image synthesizing unit
A second depth range is set based on the depth value in the subject area determined to be the subject area, and an image that identifies pixels whose depth value is in the second depth range is generated as the depth mask image. An image generation system characterized by that.
前記カメラの位置に対応する仮想空間の位置に配置された撮影用の仮想カメラから見える仮想空間画像を生成する画像生成部と、
前記第1画像と前記第2画像の差分画像を求めることで前記被写体の画像を抽出して、前記仮想空間画像に前記被写体の画像が合成された合成画像を生成する画像合成部として、
コンピュータを機能させることを特徴とするプログラム。 An acquisition unit that acquires a first image in which a background and a subject are photographed by a camera arranged in a real space and a second image in which the background is photographed by the camera.
An image generation unit that generates a virtual space image that can be seen from a virtual camera for shooting arranged at a position in the virtual space corresponding to the position of the camera.
As an image synthesizing unit, an image of the subject is extracted by obtaining a difference image between the first image and the second image, and a composite image in which the image of the subject is combined with the virtual space image is generated.
A program characterized by making a computer work.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019111714A JP2020204856A (en) | 2019-06-17 | 2019-06-17 | Image generation system and program |
CN202010552094.9A CN112104857A (en) | 2019-06-17 | 2020-06-17 | Image generation system, image generation method, and information storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019111714A JP2020204856A (en) | 2019-06-17 | 2019-06-17 | Image generation system and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020204856A true JP2020204856A (en) | 2020-12-24 |
Family
ID=73750562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019111714A Pending JP2020204856A (en) | 2019-06-17 | 2019-06-17 | Image generation system and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020204856A (en) |
CN (1) | CN112104857A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112619138A (en) * | 2021-01-06 | 2021-04-09 | 网易(杭州)网络有限公司 | Method and device for displaying skill special effect in game |
CN112837375A (en) * | 2021-03-17 | 2021-05-25 | 北京七维视觉传媒科技有限公司 | Method and system for camera positioning inside real space |
US11962893B2 (en) | 2021-01-27 | 2024-04-16 | Canon Kabushiki Kaisha | Image system and method for controlling imaging system |
EP4425915A1 (en) | 2023-02-28 | 2024-09-04 | FUJI-FILM Corporation | Processor, display control method, and display control program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06176131A (en) * | 1992-12-03 | 1994-06-24 | Namco Ltd | Picture synthesis device and virtual reality device using the same |
JP2002157606A (en) * | 2000-11-17 | 2002-05-31 | Canon Inc | Image display controller, composite reality presentation system, image display control method, and medium providing processing program |
JP2018124890A (en) * | 2017-02-03 | 2018-08-09 | 日本電信電話株式会社 | Image processing apparatus, image processing method, and image processing program |
JP2019016141A (en) * | 2017-07-06 | 2019-01-31 | 旭化成株式会社 | Input device and input method |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3363861B2 (en) * | 2000-01-13 | 2003-01-08 | キヤノン株式会社 | Mixed reality presentation device, mixed reality presentation method, and storage medium |
US7024054B2 (en) * | 2002-09-27 | 2006-04-04 | Eastman Kodak Company | Method and system for generating a foreground mask for a composite image |
CN101795348A (en) * | 2010-03-11 | 2010-08-04 | 合肥金诺数码科技股份有限公司 | Object motion detection method based on image motion |
JP5563613B2 (en) * | 2012-03-30 | 2014-07-30 | 株式会社コナミデジタルエンタテインメント | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM |
KR101901184B1 (en) * | 2012-09-20 | 2018-09-21 | 삼성전자주식회사 | Apparatus and method for processing color image using depth image |
US9191643B2 (en) * | 2013-04-15 | 2015-11-17 | Microsoft Technology Licensing, Llc | Mixing infrared and color component data point clouds |
JP6780639B2 (en) * | 2015-05-11 | 2020-11-04 | ノーリツプレシジョン株式会社 | Image analysis device, image analysis method, and image analysis program |
CN107158695A (en) * | 2017-06-16 | 2017-09-15 | 苏州蜗牛数字科技股份有限公司 | A kind of reality mixes the method and system showed with virtual scene |
CN108983968A (en) * | 2018-06-22 | 2018-12-11 | 湖南商学院 | A kind of image big data intersection control routine and method based on virtual reality |
-
2019
- 2019-06-17 JP JP2019111714A patent/JP2020204856A/en active Pending
-
2020
- 2020-06-17 CN CN202010552094.9A patent/CN112104857A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06176131A (en) * | 1992-12-03 | 1994-06-24 | Namco Ltd | Picture synthesis device and virtual reality device using the same |
JP2002157606A (en) * | 2000-11-17 | 2002-05-31 | Canon Inc | Image display controller, composite reality presentation system, image display control method, and medium providing processing program |
JP2018124890A (en) * | 2017-02-03 | 2018-08-09 | 日本電信電話株式会社 | Image processing apparatus, image processing method, and image processing program |
JP2019016141A (en) * | 2017-07-06 | 2019-01-31 | 旭化成株式会社 | Input device and input method |
Non-Patent Citations (1)
Title |
---|
堀田 亮介 RYOSUKE HORITA: "MR-Cyborg Soldiers 2", 情報処理学会 シンポジウム エンタテインメントコンピューティングシンポジウム 2014 [ONLIN, JPN6023025337, JP, ISSN: 0005221023 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112619138A (en) * | 2021-01-06 | 2021-04-09 | 网易(杭州)网络有限公司 | Method and device for displaying skill special effect in game |
US11962893B2 (en) | 2021-01-27 | 2024-04-16 | Canon Kabushiki Kaisha | Image system and method for controlling imaging system |
CN112837375A (en) * | 2021-03-17 | 2021-05-25 | 北京七维视觉传媒科技有限公司 | Method and system for camera positioning inside real space |
CN112837375B (en) * | 2021-03-17 | 2024-04-30 | 北京七维视觉传媒科技有限公司 | Method and system for camera positioning inside real space |
EP4425915A1 (en) | 2023-02-28 | 2024-09-04 | FUJI-FILM Corporation | Processor, display control method, and display control program |
Also Published As
Publication number | Publication date |
---|---|
CN112104857A (en) | 2020-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6754678B2 (en) | Simulation system and program | |
CN109478340B (en) | Simulation system, processing method, and information storage medium | |
JP6714791B2 (en) | Simulation system and program | |
JP6761340B2 (en) | Simulation system and program | |
CN109478341B (en) | Simulation system, processing method, and information storage medium | |
EP2039402B1 (en) | Input instruction device, input instruction method, and dancing simultation system using the input instruction device and method | |
JP2020204856A (en) | Image generation system and program | |
JP5410710B2 (en) | Program, information storage medium, game system | |
JPH06176131A (en) | Picture synthesis device and virtual reality device using the same | |
CN107045711B (en) | Image generation system and image processing method | |
CN110769906B (en) | Simulation system, image processing method, and information storage medium | |
EP3767594A1 (en) | Simulation system, processing method, and information storage medium | |
JP2019152899A (en) | Simulation system and program | |
JP3273038B2 (en) | Virtual experience type game device | |
JP7418956B2 (en) | Image generation system and program | |
JP7484210B2 (en) | Game System | |
JP6732463B2 (en) | Image generation system and program | |
JP7104539B2 (en) | Simulation system and program | |
JP6918189B2 (en) | Simulation system and program | |
JP2002224434A (en) | Image composing device, virtual experience device, and image composing method | |
JP3273017B2 (en) | Image synthesis device and virtual experience device using the same | |
JP2018171309A (en) | Simulation system and program | |
JP2021194293A (en) | Amusement system | |
CN112237738A (en) | Game device, image generation method, and information storage medium | |
JPH113437A (en) | Image synthesizer and image synthesizing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230627 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231219 |