JP7458735B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP7458735B2
JP7458735B2 JP2019181435A JP2019181435A JP7458735B2 JP 7458735 B2 JP7458735 B2 JP 7458735B2 JP 2019181435 A JP2019181435 A JP 2019181435A JP 2019181435 A JP2019181435 A JP 2019181435A JP 7458735 B2 JP7458735 B2 JP 7458735B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
virtual viewpoint
displayed
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019181435A
Other languages
Japanese (ja)
Other versions
JP2021056929A (en
Inventor
裕尚 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019181435A priority Critical patent/JP7458735B2/en
Publication of JP2021056929A publication Critical patent/JP2021056929A/en
Application granted granted Critical
Publication of JP7458735B2 publication Critical patent/JP7458735B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関し、詳しくは、複数の画像に基づいて生成される仮想視点画像の表示制御に関する。 The present invention relates to an image processing device, an image processing method, and a program, and more particularly to display control of a virtual viewpoint image generated based on multiple images.

特許文献1には、多視点の画像コンテンツ視聴システムにおいて、画像コンテンツに、視聴者に対して表示すべきでない「非表示エリア」の画像が含まれるか否かを判断することが記載されている。そして、画像コンテンツに「非表示エリア」が含まれると判断した場合、その非表示エリアの画像を含む画像を、非表示エリアを含まない別の視点からの画像に変更する処理を行う。これにより、画像コンテンツの視聴において非表示エリアが視聴者に対して表示されることを防いでいる。 Patent Document 1 describes that in a multi-view image content viewing system, it is determined whether the image content includes an image in a "non-display area" that should not be displayed to the viewer. . If it is determined that the image content includes a "non-display area", processing is performed to change the image including the image of the non-display area to an image from a different viewpoint that does not include the non-display area. This prevents the non-display area from being displayed to the viewer when viewing the image content.

特開2012―120031号公報Japanese Patent Application Publication No. 2012-120031

しかしながら、特許文献1に開示の技術を、ユーザが視点を任意に指定できる仮想視点画像生成システムに適用した場合、視点の変更がユーザに違和感を与えることがある。すなわち、特許文献1では、非表示エリアが表示されないように視点を変更する際に、視点を変更する前に表示されていた画像とは大きく異なる、所定の画像に切り替わる。このため、ユーザによる視点操作とは無関係に画像が切り替わることが、その内容によってはユーザに違和感を与え、結果として視点操作のユーザビリティーを低下させることとなる。 However, when the technology disclosed in Patent Document 1 is applied to a virtual viewpoint image generation system in which a user can arbitrarily specify a viewpoint, changing the viewpoint may give the user a sense of discomfort. That is, in Patent Document 1, when changing the viewpoint so that the non-display area is not displayed, the image is switched to a predetermined image that is significantly different from the image displayed before changing the viewpoint. Therefore, switching of images regardless of the user's viewpoint operation may give the user a sense of discomfort depending on the content, and as a result, the usability of the viewpoint operation may be reduced.

本発明の目的は、複数の画像に基づいて生成される仮想視点画像の表示制御に関して、特定の領域を表示させないようにしつつユーザに与える違和感を低減することである。 An object of the present invention is to reduce the sense of discomfort given to a user while preventing display of a specific area regarding display control of a virtual viewpoint image generated based on a plurality of images.

上記目的を達成するために本発明の一形態は、複数視点の画像に基づいて仮想視点画像を生成する画像処理装置であって、前記仮想視点画像における仮想視点の情報を入力する視点入力部と、前記仮想視点の情報によって指定された視点が、表示すべきでない対象に関する禁止条件を満たすか否かを判断する表示判断部と、前記表示判断部が、前記指定された視点が前記禁止条件を満たすと判断した場合、当該視点の指定より前に指定された視点に応じた画像を出力するよう制御する出力制御部と、を具え、前記禁止条件は、仮想視点画像を生成するための対象となる空間を複数の領域に分割した、分割領域それぞれについて規定され、前記表示すべきでない対象を見る、視点の位置および視点の方向として規定されることを特徴とする。 In order to achieve the above object, one form of the present invention is an image processing device that generates a virtual viewpoint image based on images of multiple viewpoints, the device comprising: a viewpoint input unit that inputs virtual viewpoint information in the virtual viewpoint image; , a display determination unit that determines whether or not the viewpoint specified by the virtual viewpoint information satisfies a prohibition condition regarding an object that should not be displayed; an output control unit that controls to output an image according to a viewpoint specified before the specification of the viewpoint when it is determined that the prohibition condition is satisfied , and the prohibition condition is set as a target for generating a virtual viewpoint image. A space is divided into a plurality of regions, and each of the divided regions is defined, and the position and direction of the viewpoint for viewing the object that should not be displayed are defined .

以上の形態によれば、複数の画像に基づいて生成される仮想視点画像の表示制御に関して、特定の領域を表示させないようにしつつユーザに与える違和感を低減することが可能となる。 According to the above embodiment, regarding the display control of the virtual viewpoint image generated based on a plurality of images, it is possible to reduce the sense of discomfort given to the user while not displaying a specific area.

本発明の第1実施形態に係る仮想視点画像生成装置を示すブロック図である。1 is a block diagram showing a virtual viewpoint image generating device according to a first embodiment of the present invention. 図1に示した仮想視点画像生成装置のハードウェア構成を示すブロック図である。2 is a block diagram showing a hardware configuration of the virtual viewpoint image generating device shown in FIG. 1 . 本実施形態の仮想視点画像生成装置に入力される画像を撮像するシステム構成を示す図である。1 is a diagram illustrating a system configuration for capturing images input to a virtual viewpoint image generation device according to the present embodiment. 本発明の実施形態に係り、対象三次元空間を分割して得られ、また禁止視点情報が規定されている分割領域を説明する図である。FIG. 4 is a diagram illustrating divided regions obtained by dividing a target three-dimensional space and in which prohibited viewpoint information is defined, according to an embodiment of the present invention. 本発明の実施形態に係る禁止視点情報設定の一例を説明する図である。FIG. 3 is a diagram illustrating an example of setting prohibited viewpoint information according to an embodiment of the present invention. 本発明の実施形態に係る、分割領域における禁止視点情報設定の他の例を説明する図である。FIG. 7 is a diagram illustrating another example of setting prohibited viewpoint information in divided areas according to the embodiment of the present invention. 本発明の実施形態に係る、仮想視点に基づく画像出力判定処理を示すフローチャートである。7 is a flowchart illustrating image output determination processing based on a virtual viewpoint according to an embodiment of the present invention. 本発明の第2実施形態に係る仮想視点画像生成装置を示すブロック図である。FIG. 2 is a block diagram showing a virtual viewpoint image generation device according to a second embodiment of the present invention. 本発明の実施形態に係る仮想視点に基づく画像出力判定処理を示すフローチャートである。7 is a flowchart showing image output determination processing based on a virtual viewpoint according to an embodiment of the present invention.

以下、添付の図面を参照して本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(第1実施形態)
本発明に係る画像処理装置の第1実施形態は、仮想視点画像生成装置に関する。詳しくは、仮想視点画像生成装置において、予め設定された、仮想カメラの視点(以下、仮想視点とも言う)に関連付けられた条件(以下、「禁止条件」とも言う)に基づいて、画像の一部の非表示を制御するものである。
(First embodiment)
A first embodiment of an image processing device according to the present invention relates to a virtual viewpoint image generation device. Specifically, in a virtual viewpoint image generation device, a part of an image is generated based on a preset condition (hereinafter also referred to as a "prohibition condition") associated with the viewpoint of a virtual camera (hereinafter also referred to as a virtual viewpoint). This controls the hiding of .

図1は、本発明の第1実施形態に係る仮想視点画像生成装置を示すブロック図である。仮想視点画像生成装置10は、画像入力部100、仮想カメラ視点入力部101、仮想視点画像生成部102、画像出力部103、画像表示禁止条件設定部104、画像表示判断部105、および画像出力制御部106を有して構成される。 FIG. 1 is a block diagram showing a virtual viewpoint image generation device according to a first embodiment of the present invention. The virtual viewpoint image generation device 10 includes an image input section 100, a virtual camera viewpoint input section 101, a virtual viewpoint image generation section 102, an image output section 103, an image display prohibition condition setting section 104, an image display judgment section 105, and an image output control section. 106.

画像入力部100は、複数のカメラで撮像した画像(複数視点の画像)をそれぞれのカメラから受信し、受信した画像を仮想視点画像生成部102に出力する。仮想カメラ視点入力部(視点入力部)101は、不図示の操作部を介して、ユーザの操作等による仮想カメラの視点の情報を入力し、入力した情報を仮想視点画像生成部102および画像表示判断部105に出力する。ここで、仮想カメラの視点の情報とは仮想カメラの姿勢、位置、画角等を表すが、これに限定されない。 The image input unit 100 receives images captured by multiple cameras (multiple viewpoint images) from each camera, and outputs the received images to the virtual viewpoint image generation unit 102. The virtual camera viewpoint input unit (viewpoint input unit) 101 inputs information on the viewpoint of the virtual camera through a user's operation or the like via an operation unit (not shown), and outputs the input information to the virtual viewpoint image generation unit 102 and the image display determination unit 105. Here, the information on the viewpoint of the virtual camera represents, but is not limited to, the attitude, position, angle of view, etc. of the virtual camera.

仮想視点画像生成部102は、上述した複数のカメラによって得られる画像と、仮想カメラの視点の情報に基づき、仮想カメラの視点から見た画像を生成し、画像出力部103に出力する。画像生成の手法については、特に限定されないが、例えば下記のような方法で画像を生成することができる。先ず、複数カメラからの画像それぞれを前景と背景に分離する。この分離は、予め撮像して得られる背景のみの画像との比較によって行うことができる。また、複数カメラで得られる前景画像と、各カメラの位置および向きの情報に基づき、視体積交差法を用いて、対象空間に存在するオブジェクトの三次元モデルを算出する。そして、仮想カメラの視点の情報に基づいて、オブジェクトの三次元モデルの見え方を三次元計算によって求め、前景画像の色を三次元モデルに適用することにより、前景画像を生成する。背景については、予め算出された背景画像を適用する背景モデルを用いて、背景画像を各カメラの位置および向きに基づいて三次元モデルに適用する。さらに、仮想カメラの視点から見える画像を三次元計算によって求めることで背景画像が生成される。そして、背景画像と前景画像を合成することによって、最終的な仮想視点画像を生成する。ここで、仮想カメラの視点(仮想視点)は、この生成された仮想視点画像において任意の位置、すなわち用いる複数のカメラの位置にかかわらない位置として設定されるものである。 The virtual viewpoint image generating unit 102 generates an image seen from the viewpoint of the virtual camera based on the images obtained by the above-mentioned multiple cameras and the viewpoint information of the virtual camera, and outputs it to the image output unit 103. The image generating method is not particularly limited, but the image can be generated by the following method, for example. First, each image from the multiple cameras is separated into a foreground and a background. This separation can be performed by comparing with an image of only the background captured in advance. In addition, a three-dimensional model of an object existing in the target space is calculated using a volume intersection method based on the foreground image obtained by the multiple cameras and the position and orientation information of each camera. Then, based on the viewpoint information of the virtual camera, the appearance of the three-dimensional model of the object is calculated by three-dimensional calculation, and the color of the foreground image is applied to the three-dimensional model to generate a foreground image. For the background, a background model to which a background image calculated in advance is applied is used, and the background image is applied to the three-dimensional model based on the position and orientation of each camera. Furthermore, a background image is generated by calculating an image seen from the viewpoint of the virtual camera by three-dimensional calculation. Then, the background image and the foreground image are synthesized to generate the final virtual viewpoint image. Here, the viewpoint of the virtual camera (virtual viewpoint) is set to any position in the generated virtual viewpoint image, i.e., a position that is unrelated to the positions of the multiple cameras used.

画像出力部103は、仮想視点画像生成部102から入力した仮想視点画像を、例えば画像の視聴装置へ出力する。出力方式は限定されないが、例えばHDMI(登録商標)方式(High-Definition Multimedia Interface)などを使用することができる。また、画像出力部103は、画像出力制御部106の制御に基づき、画像出力の停止または開始をする。 The image output unit 103 outputs the virtual viewpoint image input from the virtual viewpoint image generation unit 102 to, for example, an image viewing device. Although the output method is not limited, for example, the HDMI (registered trademark) method (High-Definition Multimedia Interface) can be used. Further, the image output unit 103 stops or starts image output based on the control of the image output control unit 106.

画像表示禁止条件設定部104は、仮想視点画像生成の対象空間において、画像出力が禁止される条件を設定する。この設定方法の詳細は図3以降を参照して後述する。画像表示判断部105は、画像表示禁止条件設定部104によって設定された画像表示禁止条件に基づいて、画像出力を停止するか否かを判断し、その判断結果を画像出力制御部106に出力する。この判断の詳細は図7などを参照して後述する。 The image display prohibition condition setting unit 104 sets conditions under which image output is prohibited in the target space of virtual viewpoint image generation. Details of this setting method will be described later with reference to FIG. 3 and subsequent figures. The image display determining unit 105 determines whether or not to stop image output based on the image display prohibition condition set by the image display prohibition condition setting unit 104, and outputs the determination result to the image output control unit 106. . Details of this determination will be described later with reference to FIG. 7 and the like.

画像出力制御部106は、画像表示判断部105の判断結果に基づいて、画像出力部103の画像出力を制御する。なお、画像出力を停止する場合、画像出力部103は、画像信号自体を停止するとともに、黒画面、あるいはその仮想視点の直前のフレームを出力するようにしてもよい。本実施形態では、直前のフレームを出力する。これより、そのときの仮想視点で見るべき画像に最も内容が近い画像とすることができ、表示する画像の変更が見る者に与える違和感を最小眼とすることができる。また、画像信号が途切れることや、黒画面に切り替わることなどによる、見る者に対する違和感をも低減することができる。 The image output control unit 106 controls the image output of the image output unit 103 based on the judgment result of the image display judgment unit 105. When stopping the image output, the image output unit 103 may stop the image signal itself and output a black screen or the frame immediately before the virtual viewpoint. In this embodiment, the immediately previous frame is output. This makes it possible to produce an image whose content is closest to the image to be viewed from the virtual viewpoint at that time, and minimizes the sense of discomfort felt by the viewer when the displayed image is changed. It also reduces the sense of discomfort felt by the viewer when the image signal is interrupted or when the screen is switched to black.

図2は、図1に示した仮想視点画像生成装置10のハードウェア構成を示すブロック図である。仮想視点画像生成装置10は、ハードウェア構成として、CPU211、ROM212、RAM213、補助記憶装置214、表示部215、操作部216、通信I/F217、およびバス218を有して構成される。 FIG. 2 is a block diagram showing the hardware configuration of the virtual viewpoint image generation device 10 shown in FIG. 1. The virtual viewpoint image generation device 10 includes a CPU 211, a ROM 212, a RAM 213, an auxiliary storage device 214, a display section 215, an operation section 216, a communication I/F 217, and a bus 218 as a hardware configuration.

CPU211は、ROM212やRAM213に格納されているコンピュータプログラムやデータを用いて仮想視点画像生成装置10の全体を制御する。これにより、図1に示す仮想視点画像生成装置10の要素100~106それぞれの機能を実現する。なお、仮想視点画像生成装置10がCPU211とは異なる1又は複数の専用のハードウェアを有し、CPU211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM212は、変更を必要としないプログラムなどを格納する。RAM213は、補助記憶装置214から供給されるプログラムやデータ、および通信I/F217を介して外部から供給されるデータなどを一時的に記憶する。補助記憶装置214は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。 The CPU 211 controls the entire virtual viewpoint image generation device 10 using computer programs and data stored in the ROM 212 and RAM 213. Thereby, the functions of each of the elements 100 to 106 of the virtual viewpoint image generation device 10 shown in FIG. 1 are realized. Note that the virtual viewpoint image generation device 10 may include one or more dedicated hardware different from the CPU 211, and the dedicated hardware may execute at least part of the processing by the CPU 211. Examples of specialized hardware include ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), and DSPs (Digital Signal Processors). The ROM 212 stores programs that do not require modification. The RAM 213 temporarily stores programs and data supplied from the auxiliary storage device 214, data supplied from the outside via the communication I/F 217, and the like. The auxiliary storage device 214 is composed of, for example, a hard disk drive, and stores various data such as image data and audio data.

表示部215は、例えば液晶ディスプレイやLED等で構成され、ユーザが仮想視点画像生成装置10に関する操作を実行するためのGUI(Graphical User Interface)などを表示する。操作部216は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU211に入力する。CPU211は、表示部215を制御する表示制御部、及び操作部216を制御する操作制御部として動作する。これら操作部216および表示部215は、図1に示した仮想カメラ視点入力部101による仮想カメラの視点情報の入力に関する機能の一部を実現する。 The display unit 215 is configured with, for example, a liquid crystal display, an LED, or the like, and displays a GUI (Graphical User Interface) for the user to perform operations related to the virtual viewpoint image generation device 10. The operation unit 216 includes, for example, a keyboard, a mouse, a joystick, a touch panel, etc., and inputs various instructions to the CPU 211 in response to user operations. The CPU 211 operates as a display control unit that controls the display unit 215 and an operation control unit that controls the operation unit 216. The operation unit 216 and the display unit 215 realize part of the functions related to input of virtual camera viewpoint information by the virtual camera viewpoint input unit 101 shown in FIG.

通信I/F217は、仮想視点画像生成装置10の外部の装置との通信に用いられる。例えば、仮想視点画像生成装置10が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F217に接続される。仮想視点画像生成装置10が外部の装置と無線通信する機能を有する場合には、通信I/F217はアンテナを備える。バス218は、仮想視点画像生成装置10の各部をつないで情報を伝達する。この通信I/F217は、図1に示した画像入力部100や画像出力部103による画像の入出力の機能の一部を実現している。 The communication I/F 217 is used for communication with devices external to the virtual viewpoint image generation device 10. For example, when the virtual viewpoint image generation device 10 is connected to an external device by wire, a communication cable is connected to the communication I/F 217. When the virtual viewpoint image generation device 10 has a function of wirelessly communicating with an external device, the communication I/F 217 includes an antenna. The bus 218 connects each part of the virtual viewpoint image generation device 10 and transmits information. This communication I/F 217 realizes part of the image input/output functions of the image input section 100 and the image output section 103 shown in FIG.

なお、本実施形態では、表示部215と操作部216が仮想視点画像生成装置10の内部に存在するものとするが、表示部215と操作部216との少なくとも一方が仮想視点画像生成装置10の外部に別の装置として存在していてもよい。 In this embodiment, the display unit 215 and the operation unit 216 are assumed to exist inside the virtual viewpoint image generating device 10, but at least one of the display unit 215 and the operation unit 216 may exist as a separate device outside the virtual viewpoint image generating device 10.

また、仮想視点画像生成装置10がCPU211とは異なる専用の1又は複数のハードウェアあるいはGPU(Graphics Processing Unit)を有し、少なくとも一部の処理をGPUあるいは専用のハードウェアが行うようにしても良い。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、及びDSP(デジタルシグナルプロセッサ)等がある。 Furthermore, the virtual viewpoint image generation device 10 may include one or more dedicated hardware or GPU (Graphics Processing Unit) different from the CPU 211, and at least part of the processing may be performed by the GPU or dedicated hardware. good. Examples of dedicated hardware include ASICs (Application Specific Integrated Circuits) and DSPs (Digital Signal Processors).

図3は、本実施形態の仮想視点画像生成装置10に入力される画像を撮像するためのシステムを示す図である。図3に示す例は、8つのカメラ11~18によって対象三次元空間300をそれぞれ撮影することを示している。撮影対象は、サッカーなどの競技が想定され、その場合、対象三次元空間300には選手が競技を行うサッカースタジアムが含まれる。なお、撮影対象や対象三次元空間はこれに限定されないことはもちろんであり、例えば、スタジオでの数人でのコンサートであったり、屋外のゴルフ場のような場所を含むものであったりしてもよい。 FIG. 3 is a diagram showing a system for capturing images input to the virtual viewpoint image generation device 10 of this embodiment. The example shown in FIG. 3 shows that the target three-dimensional space 300 is photographed by eight cameras 11 to 18, respectively. The object to be photographed is assumed to be a competition such as soccer, and in this case, the object three-dimensional space 300 includes a soccer stadium where the players compete. Of course, the subject and three-dimensional space to be photographed are not limited to these, and may include, for example, a concert with several people in a studio, or an outdoor location such as a golf course. Good too.

図3に示すように、対象三次元空間300は、zyz座標系のx軸に沿って-100m~100m、y軸に沿ってー50m~50m、z軸に沿って0m~10mの空間として規定されている。この規定した空間において、図4以降の図を参照して後述される、仮想視点画像の一部を非表示とするための制御が行われる。 As shown in FIG. 3, the target three-dimensional space 300 is defined as a space of -100m to 100m along the x-axis of the zyz coordinate system, -50m to 50m along the y-axis, and 0m to 10m along the z-axis. has been done. In this defined space, control is performed to hide a portion of the virtual viewpoint image, which will be described later with reference to FIG. 4 and subsequent figures.

本実施形態は、ユーザなどによって指定される仮想視点に関連付けられた、画像表示の禁止条件を予め設定し、この禁止条件に基づいて画像の一部(禁止領域)の非表示制御を行う。画像表示禁止条件設定部104(図1)は、この禁止条件の設定を行う。本実施形態では、二通りの設定方法を用いて設定を行うことができる。1つ目の方法(以下、「第1方法」とも言う)は、指定される仮想視点に対して、禁止される視点を設定する方法である。2つ目の方法(以下、「第2方法」とも言う)は、対象三次元空間の一部の領域を禁止領域として設定し、この禁止領域を仮想視点との関係で非表示とする方法である。 In this embodiment, an image display prohibition condition associated with a virtual viewpoint specified by a user or the like is set in advance, and based on this prohibition condition, non-display control of a part of the image (prohibited area) is performed. The image display prohibition condition setting unit 104 (FIG. 1) sets this prohibition condition. In this embodiment, settings can be made using two setting methods. The first method (hereinafter also referred to as "first method") is a method of setting a prohibited viewpoint for a specified virtual viewpoint. The second method (hereinafter also referred to as "second method") is a method in which a part of the target three-dimensional space is set as a prohibited area, and this prohibited area is hidden in relation to the virtual viewpoint. be.

第1方法は、図3に示した対象三次元空間300を複数の領域に分割し、その分割した領域(以下、「分割領域」とも言う)それぞれについて、画像の一部を非表示とする視点の位置および方向(以下、「禁止視点情報」とも言う)を予め規定する。そして、ユーザなどによって指定された仮想視点が、その仮想視点の位置を含む分割領域に規定される禁止視点情報を満たす場合、つまり禁止条件を満たす場合、その仮想視点から見る画像を非表示とする制御を行う。 The first method is to divide the target three-dimensional space 300 shown in FIG. (hereinafter also referred to as "prohibited viewpoint information") are defined in advance. Then, if the virtual viewpoint specified by the user or the like satisfies the prohibited viewpoint information specified in the divided area including the position of the virtual viewpoint, that is, if the prohibition condition is satisfied, the image viewed from that virtual viewpoint is hidden. Take control.

図4は、対象三次元空間300を分割して得られ、また、禁止視点情報が規定される分割領域を説明する図である。本実施形態では、対象三次元空間300を、分割領域が10m×10m×10mの直方体となるように分割する。この結果、対象三次元空間300は200個の領域(分割領域)に分割される。そして、このように分割して得られる分割領域それぞれに禁止視点情報を予め設定する。 FIG. 4 is a diagram illustrating divided regions obtained by dividing the target three-dimensional space 300 and in which prohibited viewpoint information is defined. In this embodiment, the target three-dimensional space 300 is divided so that the divided regions become rectangular parallelepipeds of 10 m x 10 m x 10 m. As a result, the target three-dimensional space 300 is divided into 200 regions (divided regions). Then, prohibited viewpoint information is set in advance for each of the divided regions obtained by dividing in this way.

図5は、本実施形態の第1方法に係る、分割領域における禁止視点情報設定を説明する図であり、対象三次元空間300における任意の1つの分割領域300kを示している。分割領域300kではその直方体の中心I0を通る、x、y、z軸にそれぞれ平行な仮想軸Ix、Iy、Izを規定する。そして、この3つの仮想軸によって、分割領域300kは8分儀である第1象限~第8象限の8つの領域に分割できる。これら8つの領域は、例えば、分割領域300kの頂点の座標(xk、yk、zk)、・・・、(xk+1、yk+1、zk+1)に対応させてそれぞれ特定することができる。あるいは、1つの領域が、Ix軸とIy軸の成す角90°で規定される面と、Ix軸とIz軸の成す角90°で規定される面と、Iy軸とIz軸の成す角90°で規定される面と、で囲まれる領域として特定することができる。 FIG. 5 is a diagram illustrating setting of prohibited viewpoint information in a divided area according to the first method of the present embodiment, and shows an arbitrary divided area 300k in the target three-dimensional space 300. In the divided region 300k, virtual axes Ix, Iy, and Iz are defined that pass through the center I0 of the rectangular parallelepiped and are parallel to the x, y, and z axes, respectively. Using these three virtual axes, the divided region 300k can be divided into eight regions of the first to eighth quadrants, which are octants. These eight areas can be specified, for example, in correspondence with the coordinates (xk, yk, zk), ..., (xk+1, yk+1, zk+1) of the vertices of the divided area 300k, respectively. . Alternatively, one area may include a plane defined by the 90° angle between the Ix axis and the Iy axis, a plane defined by the 90° angle between the Ix axis and the Iz axis, and a 90° angle between the Iy axis and the Iz axis. It can be specified as a plane defined by ° and an area surrounded by.

分割領域300kにおいて、禁止視点情報は以下のように規定する。禁止視点情報のうち、視点の位置は上記8つの座標で規定できる。すなわち、視点の位置は、上記8つの座標それぞれのx、y、zの値との大小関係によって定まる領域で、その領域の内部の位置として規定される。また、視点の方向(向き)は、上記直方体の中心I0から第1象限~第8象限の領域のいずれを向いているかによって規定できる。 For divided region 300k, prohibited viewpoint information is defined as follows. In the prohibited viewpoint information, the position of the viewpoint can be defined by the above eight coordinates. That is, the position of the viewpoint is defined as a position inside a region determined by the magnitude relationship with the x, y, and z values of each of the above eight coordinates. In addition, the direction (orientation) of the viewpoint can be defined by whether it is facing toward any of the regions in the first to eighth quadrants from the center I0 of the above rectangular parallelepiped.

具体的には、先ず、対象三次元空間300において表示すべきでない対象の領域(以下、「禁止領域」;図5において不図示)を特定する。例えば、ユーザが、スタジアムの三次元空間を示すUIなどを使用して、表示をすべきでない対象を囲み禁止領域を設定する。そして、この設定された禁止領域に対し、それぞれの分割領域300kから禁止領域がその分割領域の中心IOから見えるか否かを判断する。見える場合は、その分割領域の内部の位置を禁止視点情報の位置と規定する。また、上記第1象限~第8象限のうち見える方向を含む象限を視点の方向と規定する。なお、分割領域によっては、禁止領域が見えないこともあり得、その場合にはその分割領域に禁止視点情報が規定ないし設定されないことはもちろんである。 Specifically, first, an area of an object that should not be displayed in the target three-dimensional space 300 (hereinafter, "prohibited area"; not shown in FIG. 5) is identified. For example, a user uses a UI showing the three-dimensional space of a stadium to enclose an object that should not be displayed and set a prohibited area. Then, for each of the set prohibited areas, it is determined whether the prohibited area is visible from the center IO of the divided area from each divided area 300k. If it is visible, a position inside the divided area is defined as the position of the prohibited viewpoint information. In addition, the quadrant that includes the visible direction among the first to eighth quadrants is defined as the viewpoint direction. Note that, depending on the divided area, the prohibited area may not be visible, and in that case, it goes without saying that prohibited viewpoint information is not defined or set for that divided area.

以上のように禁止視点情報が規定された分割領域のいずれかに仮想視点Ieが指定されると、図7にて後述するように、その分割領域における仮想視点Ieの方向が、禁止条件を基準に判断される。すなわち、仮想視点Ieの方向がその分割領域に規定されている視点の方向(中心IOから第1象限~第8象限のいずれかの領域内に向かう方向)と同じ(平行な)ベクトルを持つか否かが判断される。そして、同じベクトルを持つとき、その仮想視点Ieは、その分割領域の禁止視点情報が示す範囲内、すなわち、禁止条件を満たすと判断する(図7のS1001)。 When a virtual viewpoint Ie is specified in one of the divided regions in which prohibited viewpoint information is defined as described above, the direction of the virtual viewpoint Ie in that divided region is based on the prohibition condition, as will be described later in FIG. will be judged. In other words, does the direction of the virtual viewpoint Ie have the same (parallel) vector as the direction of the viewpoint defined in the divided region (direction from the center IO toward any of the first to eighth quadrants)? It is determined whether or not. When they have the same vector, it is determined that the virtual viewpoint Ie falls within the range indicated by the prohibited viewpoint information of the divided area, that is, satisfies the prohibition condition (S1001 in FIG. 7).

本実施形態では、上述したように、禁止視点情報の設定は、ユーザが不図示のGUIなどを介して予め行うことができる。例えば、GUIに表示される対象三次元空間300で禁止領域とすべき領域を選択、指定するとともに、対象三次元空間300の分割領域300kごとに上述したように禁止視点情報を設定する。 In this embodiment, as described above, the user can set the prohibited viewpoint information in advance via a GUI (not shown) or the like. For example, the user selects and specifies an area to be set as a prohibited area in the target three-dimensional space 300 displayed in the GUI, and sets the prohibited viewpoint information for each divided area 300k of the target three-dimensional space 300 as described above.

なお、対象三次元空間300における、複数の分割領域を選択し、一括で禁止される向き(禁止視点情報)を設定するようにしてもよい。また、例えば、禁止視点情報が設定されない分割領域については、図7にて後述される禁止条件を満たすか否かの判断をせずに次の処理を行うようにしてもよい。 Note that a plurality of divided regions in the target three-dimensional space 300 may be selected and orientations that are prohibited at once (prohibited viewpoint information) may be set. Further, for example, for a divided area in which prohibited viewpoint information is not set, the next process may be performed without determining whether or not the prohibition condition described later with reference to FIG. 7 is satisfied.

また、上述の例では、分割領域である直方体のサイズを1辺10m、および向きの分割数を8としたが、これに限定されないことはもちろんである。分割領域の直方体サイズおよび向きの分割数の増減により、設定する視点の分解能を増減させることが可能である。 Further, in the above example, the size of the rectangular parallelepiped that is the divided area is 10 m on each side, and the number of divisions in the direction is 8, but it is needless to say that the present invention is not limited to this. By increasing or decreasing the number of divisions in the rectangular parallelepiped size and orientation of the divided regions, it is possible to increase or decrease the resolution of the viewpoint to be set.

また、上例では、直方体を単位の分割領域として禁止視点情報を設定したが、形状はこれに限定されない。例えば、球体や円筒形であってもよい。また、対象三次元空間300を一定の大きさで均等に分割し分割領域を規定したが、この形態に限定されず、例えば、サッカーであればフィールド内に該当する直方体のサイズをそれ以外の領域より小さく設定することもできる。これはフィールド外の看板などはフィールド内の選手に比べて大きいことが多いことに基づくものである。 Further, in the above example, prohibited viewpoint information is set using a rectangular parallelepiped as a unit of divided region, but the shape is not limited to this. For example, it may be spherical or cylindrical. Furthermore, although the target three-dimensional space 300 is equally divided into a certain size to define divided regions, the present invention is not limited to this form. For example, in the case of soccer, the size of a rectangular parallelepiped that corresponds to the field is divided into other regions. It can also be set smaller. This is based on the fact that signs outside the field are often larger than the players on the field.

以上説明した禁止条件設定の第1方法によれば、仮想視点を指定する際に、その該当する分割領域に規定されている禁止視点情報を参照するだけで、指定される仮想視点に関して禁止領域が存在するか否かを判断できる。これにより、特許文献1に記載のように、仮想視点画像を生成するときにその画像において禁止領域が存在するか否かを判断する必要がなく、処理負荷を低減することができる。 According to the first method of setting prohibition conditions explained above, when specifying a virtual viewpoint, by simply referring to the prohibition viewpoint information specified for the corresponding divided area, the prohibition area can be set with respect to the specified virtual viewpoint. You can determine whether it exists or not. Thereby, as described in Patent Document 1, when generating a virtual viewpoint image, it is not necessary to determine whether a prohibited area exists in the image, and the processing load can be reduced.

次に、禁止条件を設定するための第2方法について説明する。本方法は、対象三次元空間300に仮想視点画像の生成を禁止する領域(禁止領域)を設定することにより、禁止条件を設定するものである。本方法は、上述した第1方法と同様、仮想視点画像を生成する前に予め設定する処理である。 Next, a second method for setting prohibition conditions will be explained. In this method, a prohibition condition is set by setting an area (prohibition area) in which generation of a virtual viewpoint image is prohibited in the target three-dimensional space 300. Similar to the first method described above, this method is a process that is set in advance before generating a virtual viewpoint image.

例えば、第1方法と同様、ユーザは、スタジアムの三次元空間を示すUIなどを使用して、仮想視点画像生成を禁止したい領域を囲むように設定する。この囲むことによって形成される領域が禁止領域として規定される。そして、規定された禁止領域の情報は、対象三次元空間300(図3)における座標で表すことができる。 For example, similar to the first method, the user uses a UI that shows the three-dimensional space of the stadium to surround an area in which the virtual viewpoint image generation is desired to be prohibited. The area formed by this enclosing is defined as a prohibited area. Information on the defined prohibited area can be expressed as coordinates in the target three-dimensional space 300 (FIG. 3).

図6は、本実施形態に係る禁止領域の設定を説明する図であり、図3に示した対象三次元空間300において規定される禁止領域を示している。図6では、3つの禁止領域601、602、603が規定される例が示されている。 Figure 6 is a diagram for explaining the setting of prohibited areas according to this embodiment, showing prohibited areas defined in the target three-dimensional space 300 shown in Figure 3. Figure 6 shows an example in which three prohibited areas 601, 602, and 603 are defined.

以上のように禁止領域が設定された対象三次元空間300において、仮想視点Ieが指定された場合、画像表示判断部105は、図7にて後述される仮想視点が禁止条件を満たすか否かについて次のように判断する。 When a virtual viewpoint Ie is specified in the target three-dimensional space 300 in which a prohibited area is set as described above, the image display determination unit 105 determines whether the virtual viewpoint, which will be described later in FIG. 7, satisfies the prohibition condition. The judgment is as follows.

画像表示判断部105は、仮想視点の位置および向きに基づいて、設定された禁止領域601~603それぞれの頂点を、座標変換を用いて仮想カメラで撮像される(仮想視点から見る)画像内に投影する。なお、以下では、説明を簡潔にするため、1つの禁止領域の禁止条件の判断について説明する。先ず、禁止領域の頂点の座標値を、仮想カメラのカメラ座標系の座標値に変換する。回転行列Rは対象三次元空間300の座標系における仮想カメラの姿勢(向き)によって定まり、並進ベクトルtはカメラの位置によって定まる。なお、回転行列Rは、3×3の行列である。世界座標系の座標値Xw、Yw、Zwを用いて、カメラ座標系の座標値Xc、Yc、Zcは下記(1)式で算出される。 The image display determination unit 105 uses coordinate transformation to place the vertices of each of the set prohibited areas 601 to 603 in the image captured by the virtual camera (viewed from the virtual viewpoint) based on the position and orientation of the virtual viewpoint. project. Note that in the following, in order to simplify the explanation, determination of prohibition conditions for one prohibition area will be described. First, the coordinate values of the vertices of the prohibited area are converted to the coordinate values of the camera coordinate system of the virtual camera. The rotation matrix R is determined by the attitude (orientation) of the virtual camera in the coordinate system of the target three-dimensional space 300, and the translation vector t is determined by the position of the camera. Note that the rotation matrix R is a 3×3 matrix. Using the coordinate values Xw, Yw, and Zw of the world coordinate system, the coordinate values Xc, Yc, and Zc of the camera coordinate system are calculated by the following equation (1).

次に、カメラ座標系の三次元座標を、透視投影変換によりカメラ画像の二次元座標に変換する。 Next, the three-dimensional coordinates of the camera coordinate system are transformed into two-dimensional coordinates of the camera image by perspective projection transformation.

カメラ画像上の座標を(u、v)とすると、カメラ座標系の三次元座標Xc、Yc、Zcから下記(2)式で算出される。 If the coordinates on the camera image are (u, v), then they can be calculated from the three-dimensional coordinates Xc, Yc, and Zc in the camera coordinate system using the following formula (2).

これにより、禁止領域の各頂点が仮想カメラで撮像される画像上に投影されたときの座標を得ることができる。そして、これらの座標に基づき、仮想カメラの画像に禁止領域が存在するか否かを判定する。画像表示判断部105は、禁止領域が存在する場合、すなわち、禁止条件を満たすと判断する(図7のS1001)。 Thereby, the coordinates of each vertex of the prohibited area projected onto the image captured by the virtual camera can be obtained. Then, based on these coordinates, it is determined whether a prohibited area exists in the image of the virtual camera. The image display determination unit 105 determines that the prohibited area exists, that is, that the prohibition condition is satisfied (S1001 in FIG. 7).

以上説明した第2方法によれば、この方法が、対象三次元空間300において禁止領域を設定するものであることから、特許文献1に開示されるような平面的な領域の設定と比較して、より詳細に領域を設定することが可能となる。 According to the second method described above, since this method sets a prohibited area in the target three-dimensional space 300, it is compared to setting a planar area as disclosed in Patent Document 1. , it becomes possible to set the area in more detail.

なお、上記判断において、画像に禁止領域が存在するか否かだけで判断するのではなく、禁止領域が映るサイズや位置に応じて、判断を変えても良い。例えば、禁止領域が存在する範囲が所定の閾値より大きい場合に限りその画像の生成を停止するようにしてもよい。 Note that in the above judgment, the judgment may be made not only based on whether or not a prohibited area exists in the image, but also depending on the size and position of the prohibited area. For example, generation of the image may be stopped only when the range in which the prohibited area exists is larger than a predetermined threshold value.

本実施形態では、以上説明した2つの設定方法によって設定される禁止条件のいずれか1つを用いる。例えば、対象三次元空間300における禁止領域の数が所定値より多い場合は、第1方法による禁止条件を用いるようにしてもよい。他の例として、表示する画像のコンテンツに応じていずれかの禁止条件を設定してもよい。また、例えば、コンテンツ画像の所定時間ごとに禁止条件を変更してもよい。その場合はコンテンツに紐づいた撮影時間などに応じて、禁止条件が変わるようにしてもよい。 In this embodiment, one of the prohibition conditions set by the two setting methods described above is used. For example, if the number of prohibited areas in the target three-dimensional space 300 is greater than a predetermined value, the prohibition conditions by the first method may be used. As another example, one of the prohibition conditions may be set depending on the content of the image to be displayed. Also, for example, the prohibition conditions may be changed every predetermined time of the content image. In that case, the prohibition conditions may be changed depending on the shooting time linked to the content, etc.

図7は、本実施形態に係る、仮想視点に基づく画像出力判定処理を示すフローチャートである。なお、フローチャートで示される一連の処理は、仮想視点画像生成装置10のCPU211がROM212または補助記憶装置214に格納されている制御プログラムをRAM213に展開して実行することにより行われる。あるいはまた、フローチャートにおけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。また、フローチャートの説明における記号「S」は、当該フローチャートにおける「ステップ」を意味する。その他のフローチャートについても同様である。 FIG. 7 is a flowchart showing image output determination processing based on a virtual viewpoint according to the present embodiment. Note that the series of processes shown in the flowchart is performed by the CPU 211 of the virtual viewpoint image generation device 10 loading a control program stored in the ROM 212 or the auxiliary storage device 214 into the RAM 213 and executing it. Alternatively, some or all of the functions of the steps in the flowchart may be realized by hardware such as an ASIC or an electronic circuit. Further, the symbol "S" in the description of the flowchart means a "step" in the flowchart. The same applies to other flowcharts.

仮想カメラ視点入力部101は、仮想カメラの視点情報(仮想視点の情報)を受信し、画像表示判断部105に仮想カメラの視点の情報を出力する(S1000)。画像表示判断部105は、仮想カメラの視点の情報と上述した禁止条件の情報に基づいて、仮想視点が禁止条件を満たすか否かを判断する(S1001)。 The virtual camera viewpoint input unit 101 receives virtual camera viewpoint information (virtual viewpoint information), and outputs the virtual camera viewpoint information to the image display determination unit 105 (S1000). The image display determining unit 105 determines whether the virtual viewpoint satisfies the prohibition condition based on the information on the viewpoint of the virtual camera and the information on the prohibition condition described above (S1001).

仮想視点が禁止条件を満たす場合、画像表示判断部105は、画像出力制御部106に対し画像表示禁止の判断を通知する。画像出力制御部106は、これに応じて、画像出力部103を制御し、その視点の画像の出力を停止するとともに、前フレームを出力するように画像出力部103を制御する(S1002)。すなわち、画像出力制御部106は、その仮想視点に移る前の視点で生成、出力した、フレームを出力するようにする。これにより、画像を見る者は、視点を切り替えようとする前に見た画像を再び見ることになり、視点を切り替える場合と比較して、見る者に与える違和感を小さくすることができる。 If the virtual viewpoint satisfies the prohibition condition, the image display determination unit 105 notifies the image output control unit 106 of the determination to prohibit image display. In response, the image output control unit 106 controls the image output unit 103 to stop outputting the image from that viewpoint and controls the image output unit 103 to output the previous frame (S1002). That is, the image output control unit 106 outputs the frame generated and output at the viewpoint before moving to the virtual viewpoint. As a result, the person viewing the image re-views the image that was viewed before attempting to switch the viewpoint, and the sense of discomfort given to the viewer can be reduced compared to the case of switching the viewpoint.

一方、指定された仮想視点が禁止条件を満たさない場合、画像表示判断部105は、画像出力制御部106に対し画像出力許可の判断を通知する。画像出力制御部106は、これに応じて、画像出力部103に対し、特に制御を行わず、画像出力部103は仮想視点画像生成部102で生成されたフレームをそのまま出力する。(S1003)。 On the other hand, if the specified virtual viewpoint does not satisfy the prohibition condition, the image display determination unit 105 notifies the image output control unit 106 of the determination that image output is permitted. In response to this, the image output control unit 106 does not perform any particular control over the image output unit 103, and the image output unit 103 outputs the frame generated by the virtual viewpoint image generation unit 102 as is. (S1003).

なお、上述した実施形態では、画像出力部103が1つである構成について説明したが、複数の画像出力部を持つ場合、上述の判断に基づく処理に関し、それぞれ独立して制御しても良い。例えば、外部に公開する画像のみを対象に、禁止条件に該当するオブジェクトの表示をしないように制御することも可能である。 Note that in the above-described embodiment, a configuration in which there is one image output unit 103 has been described, but in the case where there is a plurality of image output units, the processing based on the above-described judgment may be controlled independently of each other. For example, it is also possible to control only images to be disclosed to the outside so that objects that meet the prohibition conditions are not displayed.

以上説明した第1実施形態によれば、ユーザがあらかじめ設定した、仮想カメラの視点に基づく禁止条件によって、仮想視点の画像出力を制御することができる。その結果、例えば、画像コンテンツを提供する側が表示したくないオブジェクトを表示しないように制御することが可能となる。 According to the first embodiment described above, it is possible to control the image output from the virtual viewpoint based on the prohibition condition based on the viewpoint of the virtual camera, which is set in advance by the user. As a result, for example, it becomes possible to perform control so that objects that the image content provider does not want to display are not displayed.

(第2実施形態)
本発明の第2実施形態に係る仮想視点画像生成システムは、仮想視点の画像生成において、仮想視点からの画像における禁止領域の対象(オブジェクト)の画像を、除くなどの加工をして当該画像を出力する。
(Second embodiment)
The virtual viewpoint image generation system according to the second embodiment of the present invention performs processing such as removing an image of a target (object) in a prohibited area in an image from a virtual viewpoint in generating an image from a virtual viewpoint. Output.

図8は、本発明の第2実施形態に係る仮想視点画像生成装置20を示すブロック図である。第一の実施形態と同様の機能を果たす要素については、同じ番号を付してその説明を省略する。 FIG. 8 is a block diagram showing a virtual viewpoint image generation device 20 according to the second embodiment of the present invention. Elements that perform the same functions as those in the first embodiment are given the same numbers and their explanations are omitted.

本実施形態の仮想視点画像生成部110は、第1実施形態で説明した機能に加え、画像表示禁止条件設定部104で設定された禁止条件と仮想カメラ視点入力部101から入力された仮想カメラ視点に基づいて、画像生成を制御する。具体的には、前景を生成する際に、禁止条件で設定されている領域に存在するオブジェクトを除去した上で生成し、オブジェクトが最終的に生成される仮想視点画像に表示されないようにする。このオブジェクトは、上述したとおり、表示すべきでないオブジェクトであり、ユーザの設定によってこのオブジェクトを囲むように禁止領域が設定されたものである。 In addition to the functions described in the first embodiment, the virtual viewpoint image generating unit 110 of this embodiment controls image generation based on the prohibited conditions set by the image display prohibition condition setting unit 104 and the virtual camera viewpoint input from the virtual camera viewpoint input unit 101. Specifically, when generating the foreground, objects present in the area set by the prohibited conditions are removed before generation so that the object is not displayed in the virtual viewpoint image that is finally generated. As described above, this object is an object that should not be displayed, and a prohibited area has been set by the user to surround this object.

以下、前景からオブジェクトを除去する処理を具体的に説明する。第1実施形態で上述した通り、画像表示禁止条件の設定方法として、対象三次元空間300において禁止領域を設定する。また、前景画像の生成方法は、仮想カメラの視点の情報に基づいて、対象空間の三次元モデルの見え方を三次元計算によって求め、前景画像の色を三次元モデルに適用することで前景画像を生成する。そして、前景画像として生成する対象となる三次元モデルが禁止領域に存在することは、それぞれの三次元座標を比較することによって判断することができる。そして、三次元座標の比較の結果、禁止領域内にある三次元モデルを、前景生成の対象としないこと、すなわち仮想カメラ視点からの前景画像に投影しないことにより、前景画像からその三次元モデルを除去することができる。なお、三次元モデルとしての1つのオブジェクトの総てを除外する方法だけでなく、例えば点群で構成された三次元モデルの場合、禁止領域に含まれる点のみを除外するということもできる。これにより、禁止領域内のオブジェクトのみが表示されない仮想視点画像をユーザに表示することができ、禁止領域が設定されていても、通常と変わりなくユーザ操作および仮想視点画像の閲覧が可能となる。 The process of removing objects from the foreground will be specifically described below. As described above in the first embodiment, a prohibited area is set in the target three-dimensional space 300 as a method for setting the image display prohibition condition. In addition, the foreground image generation method calculates the appearance of the 3D model of the target space through 3D calculations based on information on the viewpoint of the virtual camera, and then applies the color of the foreground image to the 3D model to generate the foreground image. generate. Whether the three-dimensional model to be generated as a foreground image exists in the prohibited area can be determined by comparing the respective three-dimensional coordinates. As a result of comparing the 3D coordinates, the 3D model within the prohibited area is not targeted for foreground generation, that is, by not projecting it onto the foreground image from the virtual camera viewpoint, the 3D model is extracted from the foreground image. Can be removed. Note that in addition to excluding all of one object as a three-dimensional model, for example, in the case of a three-dimensional model composed of a point group, it is also possible to exclude only points included in a prohibited area. As a result, a virtual viewpoint image in which only objects within the prohibited area are not displayed can be displayed to the user, and even if the prohibited area is set, the user can operate and view the virtual viewpoint image as usual.

上例では、前景から禁止領域に含まれるオブジェクトを除去する方法について説明したが、例えば背景から除去する、または、前景、背景の両方から除去するなどの方法であってもよい。また、禁止領域にあるオブジェクトが表示されないように、背景のみを表示する、または前景のみを表示するといったことも可能である。 In the above example, the method of removing the object included in the prohibited area from the foreground has been described, but the object may be removed from the background, or from both the foreground and the background. It is also possible to display only the background or only the foreground so that objects in the prohibited area are not displayed.

さらに、完全に除去するのではなく、三次元オブジェクトの点を間引いて仮想視点画像に表示されるオブジェクトの解像度を低下させるなどの加工を施した上で表示することもできる。 In addition, instead of completely removing the three-dimensional object, it is possible to display it after processing it by thinning out the points of the three-dimensional object and reducing the resolution of the object displayed in the virtual viewpoint image.

図9は、本実施形態に係る仮想視点に基づく画像出力判定処理を示すフローチャートである。 Figure 9 is a flowchart showing the image output determination process based on the virtual viewpoint according to this embodiment.

仮想視点画像生成部110は、画像入力部100から複数カメラの画像を受信し、前景と背景の分離、三次元モデルの生成を行う。また、仮想カメラ視点入力部101から仮想カメラ視点を受信する(S2000)。次に、仮想視点画像生成部110は、画像表示禁止条件設定部104で予め設定された禁止領域と三次元モデルとを、三次元座標によって比較する(S2001)。そして、比較の結果、禁止領域に存在する三次元モデルを前景生成対象から除外する(S2002)。 The virtual viewpoint image generation unit 110 receives images from multiple cameras from the image input unit 100, separates the foreground and background, and generates a three-dimensional model. Further, a virtual camera viewpoint is received from the virtual camera viewpoint input unit 101 (S2000). Next, the virtual viewpoint image generation unit 110 compares the prohibited area set in advance by the image display prohibition condition setting unit 104 and the three-dimensional model using three-dimensional coordinates (S2001). Then, as a result of the comparison, the three-dimensional model existing in the prohibited area is excluded from the foreground generation target (S2002).

さらに、除外したもの以外の三次元モデルに基づいて前景画像を生成し、さらに背景画像を生成する。前景画像と背景画像を合成し、仮想視点画像を生成し、画像出力部103に出力する(S2003)。画像出力部103は、生成された仮想視点画像を出力する(S2004)。 Furthermore, a foreground image is generated based on the three-dimensional model other than the excluded one, and a background image is further generated. The foreground image and the background image are combined to generate a virtual viewpoint image and output to the image output unit 103 (S2003). The image output unit 103 outputs the generated virtual viewpoint image (S2004).

以上説明した本発明の第2実施形態によれば、指定した仮想視点が禁止条件を満たす場合、表示すべきでないオブジェクトを除外した画像が表示される。これにより、視点を切り替えてオブジェクトが表示されないようにする形態と比較して、ユーザに与える違和感を小さくすることができる。また、通常の仮想視点画像の閲覧と、操作性や表示画像の観点でユーザに同等の印象を与えつつ、禁止された領域のオブジェクトは非表示にすることができる。 According to the second embodiment of the present invention described above, when the specified virtual viewpoint satisfies the prohibition condition, an image excluding objects that should not be displayed is displayed. As a result, compared to a mode in which the object is not displayed by switching the viewpoint, it is possible to reduce the sense of discomfort given to the user. Further, objects in the prohibited area can be hidden while giving the user the same impression in terms of operability and display images as normal viewing of virtual viewpoint images.

(第3実施形態)
本発明の第3実施形態では、ユーザが予め設定した仮想カメラの視点に基づく禁止条件によって、仮想視点の操作を制御し、画像出力が禁止される視点を入力できないようにする処理について説明する。
(Third embodiment)
In the third embodiment of the present invention, a process will be described in which the operation of the virtual viewpoint is controlled based on a prohibition condition based on the viewpoint of the virtual camera set in advance by the user, so that it is impossible to input a viewpoint from which image output is prohibited.

本実施形態に係る仮想視点画像生成装置の構成は、図8に示す構成とほぼ同じであり、仮想視点画像生成部110の機能のみが異なる。以下では、仮想視点画像生成部110の機能についてのみ説明する。 The configuration of the virtual viewpoint image generation device according to this embodiment is almost the same as the configuration shown in FIG. 8, and only the function of the virtual viewpoint image generation unit 110 is different. Below, only the functions of the virtual viewpoint image generation unit 110 will be described.

仮想視点画像生成部110は、仮想カメラ視点入力部101から受信した仮想カメラの視点が、画像表示禁止条件設定部104で設定された禁止条件を満たすか否かを判断する。禁止条件を満たさず、出力許可の場合は、そのまま指定された仮想カメラ視点における仮想視点画像を生成する。禁止条件を満たすと判断したときは、それ以前に出力許可とされた仮想カメラ視点を保持したまま、その仮想カメラ視点における仮想視点画像を生成する。これにより、操作するユーザが禁止条件を満たす視点を指示した場合でも、その視点に移動することができない。つまり、禁止条件を満たす視点への移動を制限することができる。 The virtual viewpoint image generation unit 110 determines whether the virtual camera viewpoint received from the virtual camera viewpoint input unit 101 satisfies the prohibition condition set by the image display prohibition condition setting unit 104. If the prohibition condition is not satisfied and output is permitted, a virtual viewpoint image at the designated virtual camera viewpoint is directly generated. When it is determined that the prohibition condition is satisfied, a virtual viewpoint image is generated at the virtual camera viewpoint while maintaining the virtual camera viewpoint that was previously permitted to be output. As a result, even if the operating user specifies a viewpoint that satisfies the prohibition conditions, the user cannot move to that viewpoint. In other words, it is possible to restrict movement to viewpoints that satisfy the prohibition conditions.

なお、上例では、上述の第1の方法で設定された禁止条件に対し、仮想視点がそれを満たすか否かを判断基準としたが、上述した第2方法で設定された禁止条件に関し、仮想視点が禁止条件を満たすか否かを判断してもよいことはもちろんである。 Note that in the above example, the judgment criterion was whether the virtual viewpoint satisfies the prohibition condition set by the above-mentioned first method, but regarding the prohibition condition set by the above-mentioned second method, Of course, it is also possible to determine whether the virtual viewpoint satisfies the prohibition conditions.

以上、本発明の第3実施形態によれば、ユーザが予め設定した仮想視点に基づく禁止条件によって、仮想視点の操作を制御し、画像出力が禁止される視点を入力不可とすることができる。 As described above, according to the third embodiment of the present invention, the operation of the virtual viewpoint can be controlled according to the prohibition condition based on the virtual viewpoint set in advance by the user, and the viewpoint from which image output is prohibited can be made impossible to input.

(他の実施形態)
上述した実施形態では、ユーザが禁止条件を設定する方法について述べたが、これに限定されず、自動で設定しても構わない。例えば、文字等の認識によって、スポンサーと異なる看板等や応援に不適切な掲示物を認識したり、裸でいるなどの異常行動を検知したりして、それらに基づいて禁止条件を設定してもよい。
(Other embodiments)
In the embodiment described above, a method was described in which the user sets the prohibition condition, but the method is not limited to this, and the prohibition condition may be set automatically. For example, by recognizing characters, etc., we can recognize billboards that are different from those of the sponsors or posts that are inappropriate for support, or detect abnormal behavior such as being naked, and set prohibition conditions based on these. Good too.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

10、20 仮想視点画像生成装置
11~18 カメラ
100 画像入力部
101 仮想カメラ視点入力部
102、110 仮想視点画像生成部
103 画像出力部
104 画像表示禁止条件設定部
105 画像表示判断部
106 画像出力制御部
300 対象三次元空間
601、602、603 禁止領域
10, 20 Virtual viewpoint image generation device 11 to 18 Camera 100 Image input section 101 Virtual camera viewpoint input section 102, 110 Virtual viewpoint image generation section 103 Image output section 104 Image display prohibition condition setting section 105 Image display judgment section 106 Image output control Part 300 Target three-dimensional space 601, 602, 603 Prohibited area

Claims (10)

複数視点の画像に基づいて仮想視点画像を生成する画像処理装置であって、
前記仮想視点画像における仮想視点の情報を入力する視点入力部と、
前記仮想視点の情報によって指定された視点が、表示すべきでない対象に関する禁止条件を満たすか否かを判断する表示判断部と、
前記表示判断部が、前記指定された視点が前記禁止条件を満たすと判断した場合、当該視点の指定より前に指定された視点に応じた画像を出力するよう制御する出力制御部と、
を具え
前記禁止条件は、仮想視点画像を生成するための対象となる空間を複数の領域に分割した、分割領域それぞれについて規定され、前記表示すべきでない対象を見る、視点の位置および視点の方向として規定されることを特徴とする画像処理装置。
An image processing device that generates a virtual viewpoint image based on images from multiple viewpoints,
a viewpoint input unit that inputs virtual viewpoint information in the virtual viewpoint image;
a display determination unit that determines whether a viewpoint specified by the virtual viewpoint information satisfies a prohibition condition regarding an object that should not be displayed;
When the display determining unit determines that the specified viewpoint satisfies the prohibition condition, an output control unit controls to output an image according to a viewpoint specified before the specified viewpoint;
Equipped with
The prohibition condition is defined for each divided region in which a target space for generating a virtual viewpoint image is divided into a plurality of regions, and is defined as viewing the object that should not be displayed, the position of the viewpoint, and the direction of the viewpoint. An image processing device characterized in that :
複数視点の画像に基づいて仮想視点画像を生成する画像処理装置であって、
前記仮想視点画像における仮想視点の情報を入力する視点入力部と、
前記視点入力部が入力した仮想視点の情報が、表示すべきでない対象に関する禁止条件を満たすか否かを判断する表示判断部と、
前記表示判断部が、前記仮想視点の情報が前記禁止条件を満たすと判断した場合、当該仮想視点に応じた画像における前記表示すべきでない対象の画像を加工して当該画像を出力するよう制御する出力制御部と、
を具え
前記禁止条件は、仮想視点画像を生成するための対象となる空間を複数の領域に分割した、分割領域それぞれについて規定され、前記表示すべきでない対象を見る、視点の位置および視点の方向として規定されることを特徴とする画像処理装置。
An image processing device that generates a virtual viewpoint image based on images from multiple viewpoints,
a viewpoint input unit that inputs virtual viewpoint information in the virtual viewpoint image;
a display determination unit that determines whether virtual viewpoint information input by the viewpoint input unit satisfies a prohibition condition regarding an object that should not be displayed;
If the display determining unit determines that the information on the virtual viewpoint satisfies the prohibition condition, it controls to process the image of the object that should not be displayed in the image corresponding to the virtual viewpoint and output the image. an output control section;
Equipped with
The prohibition condition is defined for each divided region in which a target space for generating a virtual viewpoint image is divided into a plurality of regions, and is defined as viewing the object that should not be displayed, the position of the viewpoint, and the direction of the viewpoint. An image processing device characterized in that :
前記加工は、前記仮想視点に応じた画像から前記表示すべきでない対象を除くことであることを特徴とする請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the processing is to remove the object that should not be displayed from the image according to the virtual viewpoint. 前記表示判断部が、前記仮想視点の情報が前記禁止条件を満たすと判断した場合、前記出力制御部は、前景または背景から前記表示すべきでない対象の画像を除くことを特徴とする請求項3に記載の画像処理装置。 3. When the display determining section determines that the information on the virtual viewpoint satisfies the prohibition condition, the output controlling section removes the image of the object that should not be displayed from the foreground or the background. The image processing device described in . 前記加工は、前記仮想視点に応じた画像から前記表示すべきでない対象の画像の解像度を低下させることであることを特徴とする請求項2に記載の画像処理装置。 3. The image processing apparatus according to claim 2, wherein the processing is to reduce the resolution of the image of the target that should not be displayed from the image corresponding to the virtual viewpoint. 複数視点の画像に基づいて仮想視点画像を生成する画像処理装置であって、
前記仮想視点画像における仮想視点の情報を入力する視点入力部と、
前記仮想視点の情報によって指定された視点が、表示すべきでない対象に関する禁止条件を満たすか否かを判断する表示判断部であって、前記禁止条件が、仮想視点画像を生成するための対象となる空間を複数の領域に分割した、分割領域それぞれについて規定され、前記表示すべきでない対象を見る、視点の位置および視点の方向として規定される、表示判断部と、
前記表示判断部が、前記指定された視点が、前記表示すべきでない対象を見る、前記視点の位置および視点の方向の範囲内にあると判断した場合、当該視点に応じた画像の出力を停止する出力制御部と、
を具えることを特徴とする画像処理装置。
An image processing device that generates a virtual viewpoint image based on images from multiple viewpoints,
a viewpoint input unit that inputs virtual viewpoint information in the virtual viewpoint image;
a display determination unit that determines whether a viewpoint specified by the virtual viewpoint information satisfies a prohibition condition regarding an object that should not be displayed; a display judgment unit that is defined for each divided region, in which a space is divided into a plurality of regions, and defined as a viewpoint position and a viewpoint direction for viewing the object that should not be displayed;
If the display determining unit determines that the specified viewpoint is within the range of the position and direction of the viewpoint that views the object that should not be displayed, it stops outputting the image according to the viewpoint. an output control section to
An image processing device comprising:
複数視点の画像に基づいて仮想視点画像を生成するための画像処理方法であって、
仮想視点画像における仮想視点の情報によって指定された視点が、表示すべきでない対象に関する禁止条件を満たすか否かを判断する画像表示判断工程と、
前記画像表示判断工程が、前記指定された視点が前記禁止条件を満たすと判断した場合、当該視点の指定より前に指定された視点に応じた画像を出力するよう制御する出力制御工程と、
を有し、
前記禁止条件は、仮想視点画像を生成するための対象となる空間を複数の領域に分割した、分割領域それぞれについて規定され、前記表示すべきでない対象を見る、視点の位置および視点の方向として規定されることを特徴とする画像処理方法。
An image processing method for generating a virtual viewpoint image based on images of multiple viewpoints, the method comprising:
an image display determination step of determining whether a viewpoint specified by virtual viewpoint information in the virtual viewpoint image satisfies a prohibition condition regarding an object that should not be displayed;
If the image display determining step determines that the designated viewpoint satisfies the prohibition condition, an output control step of controlling to output an image according to the viewpoint specified before the designation of the viewpoint;
has
The prohibition condition is defined for each divided region in which a target space for generating a virtual viewpoint image is divided into a plurality of regions, and is defined as viewing the object that should not be displayed, the position of the viewpoint, and the direction of the viewpoint. An image processing method characterized by:
複数視点の画像に基づいて仮想視点画像を生成するための画像処理方法であって、
仮想視点画像における仮想視点の情報が、表示すべきでない対象に関する禁止条件を満たすか否かを判断する画像表示判断工程と、
前記画像表示判断工程において、前記仮想視点の情報が前記禁止条件を満たすと判断した場合、当該仮想視点に応じた画像における前記表示すべきでない対象の画像を加工して当該画像を出力するよう制御する出力制御工程と、
を有し、
前記禁止条件は、仮想視点画像を生成するための対象となる空間を複数の領域に分割した、分割領域それぞれについて規定され、前記表示すべきでない対象を見る、視点の位置および視点の方向として規定されることを特徴とする画像処理方法。
An image processing method for generating a virtual viewpoint image based on images of multiple viewpoints, the method comprising:
an image display determination step of determining whether virtual viewpoint information in the virtual viewpoint image satisfies a prohibition condition regarding an object that should not be displayed;
In the image display determination step, if it is determined that the information of the virtual viewpoint satisfies the prohibition condition, control is performed to process the image of the object that should not be displayed in the image corresponding to the virtual viewpoint and output the image. an output control process to
has
The prohibition condition is defined for each divided region in which a target space for generating a virtual viewpoint image is divided into a plurality of regions, and is defined as viewing the object that should not be displayed, the position of the viewpoint, and the direction of the viewpoint. An image processing method characterized by:
複数視点の画像に基づいて仮想視点画像を生成するための画像処理方法であって、
前記仮想視点画像における仮想視点の情報によって指定された視点が、表示すべきでない対象に関する禁止条件を満たすか否かを判断する画像表示判断工程であって、前記禁止条件が、仮想視点画像を生成するための対象となる空間を複数の領域に分割した、分割領域それぞれについて規定され、前記表示すべきでない対象を見る、視点の位置および視点の方向として規定される、画像表示判断工程と、
前記画像表示判断工程が、前記指定された視点が、前記表示すべきでない対象を見る、前記視点の位置および視点の方向の範囲内にあると判断した場合、当該視点に応じた画像の出力を停止する出力制御工程と、
を有することを特徴とする画像処理方法。
An image processing method for generating a virtual viewpoint image based on images of multiple viewpoints, the method comprising:
an image display judgment step of determining whether or not a viewpoint specified by virtual viewpoint information in the virtual viewpoint image satisfies a prohibition condition regarding an object that should not be displayed, the prohibition condition forming a virtual viewpoint image; an image display determination step, which is defined for each divided region, in which a target space for displaying the image is divided into a plurality of regions, and is defined as a viewpoint position and a viewpoint direction for viewing the object that should not be displayed;
If the image display determining step determines that the specified viewpoint is within the range of the position and direction of the viewpoint that views the object that should not be displayed, outputting an image according to the viewpoint. an output control process to stop;
An image processing method comprising:
コンピュータを請求項1ないしのいずれか1項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 6 .
JP2019181435A 2019-10-01 2019-10-01 Image processing device, image processing method, and program Active JP7458735B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019181435A JP7458735B2 (en) 2019-10-01 2019-10-01 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019181435A JP7458735B2 (en) 2019-10-01 2019-10-01 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2021056929A JP2021056929A (en) 2021-04-08
JP7458735B2 true JP7458735B2 (en) 2024-04-01

Family

ID=75270845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019181435A Active JP7458735B2 (en) 2019-10-01 2019-10-01 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7458735B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007195091A (en) 2006-01-23 2007-08-02 Sharp Corp Synthetic image generating system
JP2012120031A (en) 2010-12-02 2012-06-21 Canon Inc Video processing device and control method therefor
JP2018085571A (en) 2016-11-21 2018-05-31 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2018182428A (en) 2017-04-06 2018-11-15 株式会社フューチャリズムワークス Video distribution device, video distribution system, and video distribution method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007195091A (en) 2006-01-23 2007-08-02 Sharp Corp Synthetic image generating system
JP2012120031A (en) 2010-12-02 2012-06-21 Canon Inc Video processing device and control method therefor
JP2018085571A (en) 2016-11-21 2018-05-31 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2018182428A (en) 2017-04-06 2018-11-15 株式会社フューチャリズムワークス Video distribution device, video distribution system, and video distribution method

Also Published As

Publication number Publication date
JP2021056929A (en) 2021-04-08

Similar Documents

Publication Publication Date Title
US10917622B2 (en) Information processing apparatus, display control method, and storage medium
JP7051457B2 (en) Image processing equipment, image processing methods, and programs
WO2019159617A1 (en) Image processing device, image processing method, and program
CN112384843B (en) Dynamic panel mask
US11238558B2 (en) Method for generating and modifying images of a 3D scene
JP6698972B2 (en) Virtual object display control device, virtual object display system, virtual object display control method, and virtual object display control program
US11521346B2 (en) Image processing apparatus, image processing method, and storage medium
JP7378243B2 (en) Image generation device, image display device, and image processing method
KR20190134715A (en) Systems, methods, and software for generating virtual three-dimensional images that appear to be projected in front of or on an electronic display
CN113286138A (en) Panoramic video display method and display equipment
JP2020173529A (en) Information processing device, information processing method, and program
JP7446754B2 (en) Image processing device, image processing method, and program
JP2003209769A (en) Image generating apparatus and method
JP7458735B2 (en) Image processing device, image processing method, and program
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP2006294066A (en) Image processor, image processing method, recording medium, computer program, and semiconductor device
WO2021200494A1 (en) Method for changing viewpoint in virtual space
KR102132406B1 (en) Display apparatus and control method thereof
KR20120035322A (en) System and method for playing contents of augmented reality
JP7118383B1 (en) Display system, display method, and display program
US20220408069A1 (en) Information processing apparatus, information processing method, and storage medium
JP2023003765A (en) Image generation device and control method thereof, image generation system, and program
JP2022073648A (en) Information processing apparatus, information processing method, and program
JP2023175503A (en) Image processing apparatus and its image processing method
JP2024022484A (en) Generation device, generation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240319

R151 Written notification of patent or utility model registration

Ref document number: 7458735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151