JP2018136793A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2018136793A
JP2018136793A JP2017031448A JP2017031448A JP2018136793A JP 2018136793 A JP2018136793 A JP 2018136793A JP 2017031448 A JP2017031448 A JP 2017031448A JP 2017031448 A JP2017031448 A JP 2017031448A JP 2018136793 A JP2018136793 A JP 2018136793A
Authority
JP
Japan
Prior art keywords
image
image processing
importance
partial
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017031448A
Other languages
Japanese (ja)
Other versions
JP6896452B2 (en
Inventor
圭輔 森澤
Keisuke Morisawa
圭輔 森澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017031448A priority Critical patent/JP6896452B2/en
Publication of JP2018136793A publication Critical patent/JP2018136793A/en
Application granted granted Critical
Publication of JP6896452B2 publication Critical patent/JP6896452B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable update of a background for generating a virtual viewpoint image with high accuracy and a reduced processing load.SOLUTION: An input image divided for each partial region is compared with an input image in a corresponding partial region of an immediately previous frame to derive a ratio of an active region in the partial region. A distance between a position of a center of gravity and a viewpoint position of each partial region is determined from shape data and viewpoint position information. Then, the degree of importance of each partial region is determined from change information and the viewpoint distance information of each partial region. Then, it is determined whether or not to update the input image from the degree of importance for each partial region. When it is determined to make update, the corresponding partial area is updated with the input image, and when it is determined not to make update, the partial area is not updated.SELECTED DRAWING: Figure 1

Description

本発明は、仮想視点画像の生成に関する。   The present invention relates to generation of a virtual viewpoint image.

近年、複数のカメラでそれぞれの異なる位置から同じ注視点を撮影した画像から、3次元空間上の任意に選択された視点(以降、仮想視点と呼ぶ)からの見え方を再現する仮想視点画像が注目されている。仮想視点画像を生成する場合、選択される仮想視点は無数に存在するため、それらに対応した画像を全て用意することは非現実的である。そこで従来は、撮影された被写体や背景を3次元空間上に再現することで任意の仮想視点からの見え方の再現を実現している。   In recent years, a virtual viewpoint image that reproduces a view from an arbitrarily selected viewpoint (hereinafter referred to as a virtual viewpoint) in a three-dimensional space from images obtained by shooting the same gazing point from different positions with a plurality of cameras. Attention has been paid. When generating a virtual viewpoint image, there are innumerable virtual viewpoints to be selected, and it is impractical to prepare all images corresponding to them. Therefore, conventionally, the reproduction of the appearance from an arbitrary virtual viewpoint is realized by reproducing the photographed subject and the background in a three-dimensional space.

ここで、背景を3次元空間上で再現する方法としては、あらかじめ用意された背景を表す形状データ(背景モデル)に撮影した複数の背景画像を対応する箇所に貼り付けることで実現される。動画が入力された場合は、背景画像が入力される度に背景モデルへ貼りつける画像を更新する処理が行われる。   Here, a method of reproducing the background in the three-dimensional space is realized by pasting a plurality of background images taken on shape data (background model) representing a background prepared in advance to corresponding locations. When a moving image is input, a process of updating an image to be pasted on the background model is performed every time a background image is input.

また、近年の撮影画像の解像度の増大により、データ伝送の帯域の圧迫や処理負荷が増大し、複数の撮影画像からリアルタイムに仮想視点画像を生成するには、撮影画像を占める割合の高い背景画像を効率良く画像処理する必要がある。   In addition, due to the recent increase in resolution of captured images, the data transmission bandwidth is compressed and the processing load increases. To generate a virtual viewpoint image from a plurality of captured images in real time, a background image that occupies a high proportion of the captured images. Must be processed efficiently.

画像を効率的に処理する技術として、特許文献1には、コンピュータの画面を部分領域に分割して時間的な変化が頻繁に生じる部分領域は動画圧縮してデータ量を削減することで処理負荷を低減させる技術が開示されている。   As a technique for efficiently processing an image, Patent Document 1 describes a processing load by dividing a computer screen into partial areas and compressing a partial area in which temporal changes occur frequently to reduce the amount of data. A technique for reducing the above is disclosed.

特開2011−238014号公報JP 2011-238014 A

しかしながら、特許文献1に記載の技術のように頻繁に変化する領域のデータ量を削減しても、自然画を用いた仮想視点画像では多くの領域で頻繁に変化は生じる。このため、データ量の削減効果は小さく処理負荷の低減は十分ではない。また、仮想視点から離れた領域など重要ではない領域の画像処理が十分に抑制されず、処理負荷の低減は十分ではない。   However, even if the amount of data in a frequently changing area is reduced as in the technique described in Patent Document 1, a virtual viewpoint image using a natural image frequently changes in many areas. For this reason, the data amount reduction effect is small, and the reduction of the processing load is not sufficient. In addition, image processing in an insignificant area such as an area away from the virtual viewpoint is not sufficiently suppressed, and the processing load is not sufficiently reduced.

本発明は前述の問題点に鑑み、仮想視点画像を生成するための背景を、精度よくかつ処理負荷を低くして更新できるようにすることを目的としている。   In view of the above-described problems, an object of the present invention is to update a background for generating a virtual viewpoint image with high accuracy and low processing load.

本発明に係る画像処理装置は、例えば、以下の構成を有する。すなわち、入力画像における複数の部分領域毎に時間的な変化に関する変化情報を取得する取得手段と、前記複数の部分領域毎に注目度に関する注目情報を判定する判定手段と、前記取得手段によって取得された変化情報と、前記判定手段によって判定された注目情報とから前記複数の部分領域毎の重要度を決定する決定手段と、前記決定手段によって決定された重要度に応じて前記部分領域を更新する更新手段とを有する。
The image processing apparatus according to the present invention has the following configuration, for example. That is, the acquisition unit that acquires change information regarding temporal changes for each of the plurality of partial areas in the input image, the determination unit that determines the attention information about the degree of attention for each of the plurality of partial areas, and the acquisition unit. Determining means for determining the importance for each of the plurality of partial areas from the change information and the attention information determined by the determining means, and updating the partial area according to the importance determined by the determining means Updating means.

本発明によれば、仮想視点画像を生成するための背景を、精度よくかつ処理負荷を低くして更新することができる。   According to the present invention, the background for generating the virtual viewpoint image can be updated with high accuracy and with a low processing load.

第1の実施形態における画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus in 1st Embodiment. 実施形態に係る画像処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the image processing apparatus which concerns on embodiment. 複数の三角メッシュの直方体形状を表した形状データの例を示す図である。It is a figure which shows the example of the shape data showing the rectangular parallelepiped shape of the some triangular mesh. 3台のカメラから撮影された、注視点を含む入力画像の例を示す図である。It is a figure which shows the example of the input image containing the gazing point image | photographed from three cameras. 第1の実施形態に係る背景画像を更新する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which updates the background image which concerns on 1st Embodiment. 入力画像を形状データで部分領域に分割した例を示す図である。It is a figure which shows the example which divided | segmented the input image into the partial area | region by shape data. 形状データにおける各部分領域の変化情報を取得した例を示す図である。It is a figure which shows the example which acquired the change information of each partial area | region in shape data. 各部分領域の重心位置と注視点との距離を判定した例を示す図である。It is a figure which shows the example which determined the distance of the gravity center position of each partial area | region and the gaze point. 第1の実施形態における重要度の決定条件の例を示す図である。It is a figure which shows the example of the determination conditions of the importance in 1st Embodiment. 第1の実施形態で各部分領域の重要度を求めた例を示す図である。It is a figure which shows the example which calculated | required the importance of each partial area | region in 1st Embodiment. 第2の実施形態における画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus in 2nd Embodiment. 第2の実施形態に係る背景画像を更新する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which updates the background image which concerns on 2nd Embodiment. 仮想視点の画角および部分領域ごとの指標を説明するための図である。It is a figure for demonstrating the field angle of a virtual viewpoint, and the parameter | index for every partial area. 第2の実施形態における重要度の決定条件の例を示す図である。It is a figure which shows the example of the determination conditions of the importance in 2nd Embodiment. 第2の実施形態で各部分領域の重要度を求めた例を示す図である。It is a figure which shows the example which calculated | required the importance of each partial area | region in 2nd Embodiment. 第3の実施形態における画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus in 3rd Embodiment. 第3の実施形態に係る背景画像を更新する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which updates the background image which concerns on 3rd Embodiment. 注目被写体を含む背景を示す図である。It is a figure which shows the background containing an attention object. 注目被写体との距離の判定結果の例を示す図である。It is a figure which shows the example of the determination result of the distance with an attention object. 第3の実施形態で各部分領域の重要度を求めた例を示す図である。It is a figure which shows the example which calculated | required the importance of each partial area | region in 3rd Embodiment.

(第1の実施形態)
以下、本発明を実施するための第1の実施形態について、図面を用いて詳細に説明する。本実施形態では、仮想視点画像を生成する前段階として背景を3次元空間上に再現するために、背景形状の部分領域毎に画像の更新を行い、3次元空間上で背景の変化に対応させる。具体的には、仮想視点画像の生成に係る注視点位置からの距離に着目し、注視点位置からの距離と時間的な変化とに基づいて重要度を決定し、重要度に応じて画像を更新処理する。これにより、ユーザが注目しない領域の画像処理を抑制し、処理負荷を低減するようにする。
なお、本実施形態における仮想視点画像とは、仮想的な視点から被写体を撮像した場合に得られる画像を模擬して生成される画像である。言い換えると、仮想視点画像は、仮想的な視点における見えを表す画像であるとも言える。仮想的な視点(仮想視点)は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。仮想視点画像に似た概念の言葉として、自由視点画像や任意視点画像などが存在する。本実施形態のシステムは、仮想視点画像に限らず、自由視点画像や任意視点画像についても同様に処理できる。
(First embodiment)
Hereinafter, a first embodiment for carrying out the present invention will be described in detail with reference to the drawings. In the present embodiment, in order to reproduce the background in the three-dimensional space as a pre-stage for generating the virtual viewpoint image, the image is updated for each partial region of the background shape to correspond to the background change in the three-dimensional space. . Specifically, paying attention to the distance from the position of the gaze point related to the generation of the virtual viewpoint image, the importance is determined based on the distance from the position of the gaze point and the temporal change, and the image is selected according to the degree of importance. Update process. As a result, image processing in an area not noticed by the user is suppressed, and the processing load is reduced.
Note that the virtual viewpoint image in the present embodiment is an image generated by simulating an image obtained when a subject is imaged from a virtual viewpoint. In other words, it can be said that the virtual viewpoint image is an image representing the appearance at the virtual viewpoint. The virtual viewpoint (virtual viewpoint) may be designated by the user, or may be automatically designated based on the result of image analysis or the like. Free viewpoint images, arbitrary viewpoint images, and the like exist as concept words similar to virtual viewpoint images. The system of the present embodiment is not limited to the virtual viewpoint image, and can similarly process a free viewpoint image and an arbitrary viewpoint image.

図2は、本実施形態に係る画像処理装置10のハードウェア構成例を示すブロック図である。
図2において、CPU201は、画像処理装置10全体を制御し、ROM202に格納されたプログラムに従って各種処理を行う。ROM202には、前述のプログラムやその他の情報が格納されている。RAM203は、前述のプログラムが実行される場合に、該プログラムがROM202から展開され、CPU201のワークエリアとして利用される。
FIG. 2 is a block diagram illustrating a hardware configuration example of the image processing apparatus 10 according to the present embodiment.
In FIG. 2, the CPU 201 controls the entire image processing apparatus 10 and performs various processes according to programs stored in the ROM 202. The ROM 202 stores the above-described program and other information. When the above-described program is executed, the RAM 203 is expanded from the ROM 202 and used as a work area for the CPU 201.

入力装置204は、ユーザの指示を入力するための操作部材等から構成される。通信I/F205は、外部装置との間でネットワーク等を介してデータの送受信を行うためのインターフェースである。外部I/F206は、記憶装置207に記憶されたデータをプリンタや表示装置などの外部装置に出力するためのインターフェースである。記憶装置207は例えば画像データを記憶するためのメモリ等であり、通信I/F205等から入力されたデータや、CPU201により処理されたデータを記憶する。   The input device 204 includes an operation member for inputting a user instruction. A communication I / F 205 is an interface for transmitting / receiving data to / from an external device via a network or the like. The external I / F 206 is an interface for outputting data stored in the storage device 207 to an external device such as a printer or a display device. The storage device 207 is, for example, a memory for storing image data, and stores data input from the communication I / F 205 or the like, or data processed by the CPU 201.

次に、本実施形態に係る画像処理装置10の機能構成について説明する。なお、本実施形態では、画像処理装置10は、同じ注視点を画角の中心とする3つのカメラで撮影された画像データを入力するものとする。   Next, a functional configuration of the image processing apparatus 10 according to the present embodiment will be described. In the present embodiment, the image processing apparatus 10 inputs image data captured by three cameras having the same gazing point as the center of the angle of view.

図1は、本実施形態における画像処理装置10の機能構成例を示すブロック図である。本実施形態において、図1で示す各機能は、図2のCPU201が所定のプログラムを実行して各部を制御することによって実現される。ただし、図1で示す各機能の一部又はすべてがASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、DSP(デジタルシグナルプロセッサ)などの1つ以上のプロセッサーによる処理に基づいて実行されるようにしても良い。
図1において、入力部101は、背景の形状データ、注視点位置情報、複数の画像データ、およびカメラ情報を入力し、これらの情報を記憶装置207に格納する。ここで、背景の形状データとは、三角形や四角形のメッシュの集合であり、例えばスタジアムやコンサートホールなど撮影対象となる背景の形状を示したものでる。入力部101の機能は、図2の通信I/F205及び入力装置204のうち、少なくとも何れか一方と、CPU201とを用いて実現される。
FIG. 1 is a block diagram illustrating a functional configuration example of an image processing apparatus 10 according to the present embodiment. In the present embodiment, each function shown in FIG. 1 is realized by the CPU 201 in FIG. 2 executing a predetermined program to control each unit. However, some or all of the functions shown in FIG. 1 are executed based on processing by one or more processors such as ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), DSP (Digital Signal Processor), etc. You may be made to do.
In FIG. 1, the input unit 101 inputs background shape data, gazing point position information, a plurality of image data, and camera information, and stores these pieces of information in the storage device 207. Here, the background shape data is a set of triangular or quadrilateral meshes, and indicates the shape of the background to be imaged, such as a stadium or a concert hall. The function of the input unit 101 is realized by using at least one of the communication I / F 205 and the input device 204 in FIG.

図3に、形状データの例として、複数の三角メッシュ301の集合で天井面のない直方体形状を表した形状データ300を示す。三角メッシュは三角形の点の3次元座標で表され、座標系は底面の中心位置302を原点として表現される。以下、図3に示す直方体形状のメッシュモデルを例に説明する。なお、本実施形態では、形状データとしてメッシュの集合で表したがこれに限るものではない。また、形状データをメッシュの集合で表すとしても、三角メッシュに限るものでもない。つまり、形状データ300は任意の形状の集合で表すことができる。   FIG. 3 shows shape data 300 representing a rectangular parallelepiped shape without a ceiling surface as a set of a plurality of triangular meshes 301 as an example of shape data. The triangular mesh is represented by three-dimensional coordinates of a triangular point, and the coordinate system is expressed with the center position 302 of the bottom surface as the origin. Hereinafter, a rectangular parallelepiped mesh model shown in FIG. 3 will be described as an example. In the present embodiment, the shape data is represented by a set of meshes, but is not limited to this. Further, even if the shape data is represented by a set of meshes, it is not limited to a triangular mesh. That is, the shape data 300 can be represented by a set of arbitrary shapes.

注視点位置情報とは、仮想視点画像の生成のために入力される複数の画像データにおける撮像範囲の中心位置の3次元座標である。注視点位置情報は、図3に示した形状データ300と同じ座標系で表現され、座標系の中心からx軸方向に注視点が50メートル離れている場合は、注視点の座標(x,y,z)=(50,0,0)となる。
複数の画像データは、前述の3台のカメラでそれぞれ撮影された画像データ(以下、入力画像)である。
The gazing point position information is the three-dimensional coordinates of the center position of the imaging range in a plurality of image data input for generating a virtual viewpoint image. The point-of-gaze position information is expressed in the same coordinate system as the shape data 300 shown in FIG. , Z) = (50, 0, 0).
The plurality of image data are image data (hereinafter referred to as input images) respectively captured by the three cameras described above.

図4は、3台のカメラから撮影された、注視点を含む入力画像の例を示す図である。図4(a)は、異なる位置に配置された3台のカメラからそれぞれ異なる方向402〜403で同じ注視点401を画角の中心として撮影する状態を説明するための図である。また、図4(b)〜図4(d)は、それぞれのカメラで撮影された入力画像の例を示しており、各画像の中心は注視点401が位置する。図4(b)〜図4(d)における注視点の三次元空間上における位置は共通である。
また、カメラ情報とは、前述の入力画像を撮影した複数のカメラの位置、姿勢、及び設定値を示す情報である。
FIG. 4 is a diagram illustrating an example of an input image including a gazing point photographed from three cameras. FIG. 4A is a diagram for explaining a state in which the same gazing point 401 is imaged at the center of the angle of view in three different directions 402 to 403 from three cameras arranged at different positions. FIGS. 4B to 4D show examples of input images taken by the respective cameras, and the point of gaze 401 is located at the center of each image. The positions of the gazing points in the three-dimensional space in FIGS. 4B to 4D are common.
The camera information is information indicating the positions, postures, and setting values of a plurality of cameras that have captured the above-described input images.

画像選択部102は、カメラ情報に基づき、入力画像と形状データとで対応する領域を特定し、入力画像を形状データに示される複数の部分領域に分割する。そして、分割された部分領域毎に画像処理の対象として用いる入力画像を選択し、形状データと分割した入力画像とを変化情報取得部103と注目度判定部104とに出力する。部分領域への分割と入力画像の選択方法とについては後述する。   Based on the camera information, the image selection unit 102 specifies a corresponding region between the input image and the shape data, and divides the input image into a plurality of partial regions indicated by the shape data. Then, an input image to be used as an image processing target is selected for each divided partial area, and the shape data and the divided input image are output to the change information acquisition unit 103 and the attention level determination unit 104. The division into partial areas and the selection method of the input image will be described later.

変化情報取得部103は、部分領域毎に分割された入力画像と直前のフレームの該当する部分領域の入力画像とを比較して、部分領域内で変化のある領域の割合を取得し、各部分領域の変化情報として重要度決定部105に出力する。
注目度判定部104は、形状データと注視点位置情報とから、各部分領域の重心位置と注視点位置との距離を判定し、注視点距離情報(注目情報)として重要度決定部105に出力する。
The change information acquisition unit 103 compares the input image divided for each partial area with the input image of the corresponding partial area of the immediately preceding frame, acquires the ratio of the area that has changed in the partial area, The information is output to the importance determining unit 105 as area change information.
The attention level determination unit 104 determines the distance between the centroid position and the gazing point position of each partial region from the shape data and the gazing point position information, and outputs it to the importance level determination unit 105 as gazing point distance information (attention information). To do.

重要度決定部105は、変化情報取得部103で取得した各部分領域の変化情報と注目度判定部104で算出した注視点距離情報とから各部分領域の重要度を決定する。決定方法については後述する。
画像更新部106は、部分領域毎に重要度から入力画像を更新するか否かを判定する。更新すると判定した場合は、該当する部分領域を入力画像で更新し、更新しないと判定した場合、その部分領域の更新は行わないようにする。更新方法については後述する。
画像出力部107は、部分領域の更新が行われた画像データを、仮想視点画像を生成する外部装置に出力する。画像出力部107の機能は、図2の通信I/F205と、CPU201とにより実現される。
The importance level determination unit 105 determines the importance level of each partial area from the change information of each partial area acquired by the change information acquisition unit 103 and the gaze point distance information calculated by the attention level determination unit 104. The determination method will be described later.
The image update unit 106 determines whether or not to update the input image from the importance for each partial region. If it is determined to be updated, the corresponding partial area is updated with the input image. If it is determined not to be updated, the partial area is not updated. The update method will be described later.
The image output unit 107 outputs the image data in which the partial area has been updated to an external device that generates a virtual viewpoint image. The function of the image output unit 107 is realized by the communication I / F 205 and the CPU 201 in FIG.

図5は、本実施形態に係る画像処理装置10により背景画像を更新する処理手順の一例を示すフローチャートである。
S501において、画像選択部102は、カメラ情報に基づき、図3に示した複数の三角形の部分領域で表された形状データ300の部分領域に入力画像を分割する。なお、本実施形態では入力画像の全体を部分領域に分割する例を中心に説明するが、必ずしも入力画像の全体を部分領域に分割しなくても良い。入力画像を撮影したカメラの位置や姿勢を示すカメラ情報を用いて、それぞれ撮影された入力画像が形状データのどの位置を撮影したか対応を判定することで入力画像を形状データで示した三角形の部分領域に分割することができる。図6(a)〜図6(c)は、それぞれ図4(b)〜図4(d)に示した入力画像を、図3で示した形状データで部分領域に分割した例を示している。図6において、破線は部分領域の境界を示し、各部分領域は形状データに従って三角形で表現される。ただし上述の通り、形状データは必ずしも三角形の部分領域の集合で示されなければならないわけではなく、任意の形状の集合で表すことができる。
FIG. 5 is a flowchart illustrating an example of a processing procedure for updating a background image by the image processing apparatus 10 according to the present embodiment.
In step S501, the image selection unit 102 divides the input image into partial areas of the shape data 300 represented by a plurality of triangular partial areas illustrated in FIG. 3 based on the camera information. In this embodiment, an example in which the entire input image is divided into partial areas will be mainly described. However, the entire input image may not necessarily be divided into partial areas. Using the camera information indicating the position and orientation of the camera that captured the input image, it is possible to determine the correspondence of which position in the shape data each captured image was captured, and the triangle of the input image represented by the shape data It can be divided into partial areas. FIGS. 6A to 6C show examples in which the input images shown in FIGS. 4B to 4D are divided into partial areas using the shape data shown in FIG. . In FIG. 6, broken lines indicate the boundaries of the partial areas, and each partial area is represented by a triangle according to the shape data. However, as described above, the shape data does not necessarily have to be represented by a set of triangular partial areas, and can be represented by a set of arbitrary shapes.

次に、S502において、画像選択部102は、形状データに貼りつける対象の入力画像を部分領域ごとに選択する。部分領域によっては、複数の入力画像で重複して存在する場合があり、部分領域の画像として用いる画像を選択する必要がある。選択方法として、該当する部分領域を含む割合が最も大きい入力画像を選択する。ただし最も大きい入力画像を選択する方法に限らず、予め定められた選択方針に沿って入力画像が選択されるようにすればよい。例えば、部分領域の予め定められた位置を含む入力画像が選択されるようにしても良いし、部分領域の頂点を最も多く含む入力画像を選択するようにしても良い。すべての部分領域について入力画像の選択が終了したら、次のS503に進む。   In step S <b> 502, the image selection unit 102 selects an input image to be pasted on the shape data for each partial area. Depending on the partial area, a plurality of input images may exist overlappingly, and it is necessary to select an image to be used as an image of the partial area. As a selection method, an input image having the largest ratio including the corresponding partial region is selected. However, the method is not limited to the method of selecting the largest input image, and the input image may be selected according to a predetermined selection policy. For example, an input image including a predetermined position of the partial area may be selected, or an input image including the largest number of vertices of the partial area may be selected. When the selection of the input image is completed for all the partial areas, the process proceeds to the next S503.

以下、図6を例に入力画像の選択方法について説明する。例えば、注視点401付近に存在する部分領域Aが、図6(a)〜図6(c)に示す3つの入力画像に含まれている。図6(a)及び図6(b)に示す入力画像では、部分領域Aの一部が入力画像からはみ出ているが、図6(c)に示す入力画像では、部分領域Aの略全部が存在している。したがって、部分領域Aの場合は、部分領域Aが含まれる割合が最も大きい図6(c)の入力画像を該部分領域の画像として選択する。なお、本実施形態では、部分領域を含む割合が最大の入力画像を選択したが、これに限らず部分領域の解像度が最大の入力画像を選択するなど、他の基準によって入力画像を選択してもよい。   Hereinafter, an input image selection method will be described with reference to FIG. For example, the partial area A existing in the vicinity of the gazing point 401 is included in the three input images shown in FIGS. 6 (a) to 6 (c). In the input images shown in FIG. 6A and FIG. 6B, a part of the partial area A protrudes from the input image. However, in the input image shown in FIG. Existing. Therefore, in the case of the partial area A, the input image of FIG. 6C having the largest ratio of the partial area A is selected as the image of the partial area. In this embodiment, the input image having the maximum ratio including the partial area is selected. However, the input image is not limited to this, and the input image is selected based on other criteria such as selecting the input image having the maximum resolution of the partial area. Also good.

次に、以下に説明するS503〜S506の処理を部分領域ごとに繰り返す。まず、S503において、変化情報取得部103は、対象となる部分領域において、直前のフレームと差分のある画素数の割合(変化値)に基づいて変化情報を生成する。図7は、図3の形状データにおける各部分領域の変化値の例を示す図である。図7では、図3の形状データを展開して示しており、各部分領域に記された数字は直前のフレームからの差分のあった領域の割合(%)を示している。図7の例では、直方体の側面部での変化が大きく、底面部での変化が小さいことを示している。なお、本実施形態では変化値(変化情報)として直前のフレームと差分のある画素数の割合としたが、直前のフレームとの差分値の平均値や直前のフレームとの差分が一定期間継続した画素数を変化値とするなどとしてもよい。また、本実施形態では画像処理装置10の変化情報取得部103が変化情報を算出する例を中心に説明しているが、例えば、他の装置から変化情報が取得される構成を採用しても良い。   Next, the processing of S503 to S506 described below is repeated for each partial region. First, in step S503, the change information acquisition unit 103 generates change information based on a ratio (change value) of the number of pixels having a difference from the immediately preceding frame in the target partial region. FIG. 7 is a diagram illustrating an example of a change value of each partial region in the shape data of FIG. In FIG. 7, the shape data of FIG. 3 is shown expanded, and the number written in each partial area indicates the ratio (%) of the area having a difference from the immediately preceding frame. In the example of FIG. 7, it is shown that the change at the side surface portion of the rectangular parallelepiped is large and the change at the bottom surface portion is small. In the present embodiment, the change value (change information) is the ratio of the number of pixels having a difference from the immediately preceding frame, but the average value of the difference value from the immediately preceding frame and the difference from the immediately preceding frame have continued for a certain period. The number of pixels may be used as a change value. In the present embodiment, the example in which the change information acquisition unit 103 of the image processing apparatus 10 calculates change information has been mainly described. However, for example, a configuration in which change information is acquired from another apparatus may be employed. good.

次に、S504において、注目度判定部104は、対象となる部分領域の重心位置と注視点との距離を算出して距離情報を生成する。当該距離は、注視点位置情報と各部分領域の座標情報を含む形状データとから判定される。図8は、図3の形状データにおける各部分領域の重心位置と注視点401との距離を判定した例を示し、各部分領域に記された値が注視点からの距離を示す。なお、本実施形態では注視点と部分領域との距離として重心位置を用いたが、これに限らず、注視点に最も近い部分領域内の位置との距離などを用いてもよい。また、本実施形態では画像処理装置10の注目度判定部104が距離を算出する例を中心に説明しているが、例えば、他の装置から距離に関する情報が取得される構成を採用しても良い。   In step S <b> 504, the attention level determination unit 104 calculates the distance between the gravity center position of the target partial region and the gazing point, and generates distance information. The distance is determined from gazing point position information and shape data including coordinate information of each partial region. FIG. 8 shows an example in which the distance between the center of gravity of each partial area and the gazing point 401 in the shape data of FIG. 3 is determined, and the value written in each partial area indicates the distance from the gazing point. In this embodiment, the barycentric position is used as the distance between the gazing point and the partial area. However, the present invention is not limited to this, and the distance from the position in the partial area closest to the gazing point may be used. Further, in the present embodiment, an example in which the attention level determination unit 104 of the image processing apparatus 10 calculates the distance has been mainly described. However, for example, a configuration in which information about the distance is acquired from another apparatus may be employed. good.

次に、S505において、重要度決定部105は、S503で生成した変化情報とS504で生成した距離情報とから、対象となる部分領域の重要度を決定する。以下、重要度を決定する基準について説明する。   Next, in S505, the importance level determination unit 105 determines the importance level of the target partial region from the change information generated in S503 and the distance information generated in S504. Hereinafter, the criteria for determining the importance will be described.

図9は、重要度の決定条件の例を示す図である。図9に示す条件の場合、変化値が10%未満であれば、直前に更新した画像と変化が小さいため、画像の更新は不要とみなし、重要度「低」とする。また、変化値が10%以上であるが、注視点からの距離が120以上の場合も、注視点からの距離が離れており、ユーザは仮想視点としてその領域を注目することは少ないとみなし、重要度「低」とする。   FIG. 9 is a diagram illustrating an example of the importance determination conditions. In the case of the conditions shown in FIG. 9, if the change value is less than 10%, the change is small compared to the image updated immediately before. In addition, although the change value is 10% or more, even when the distance from the gazing point is 120 or more, it is considered that the distance from the gazing point is far away and the user rarely pays attention to the area as a virtual viewpoint, The importance is “low”.

これに対して、変化値が10%以上で注視点からの距離が80以上120未満の場合、前回更新した画像から変化があり、かつ注視点からそれほど離れておらずユーザが注目する可能性があるとみなし、重要度「中」とする。さらに、変化値が10%以上で注視点からの距離が80未満の場合、前回更新した画像から変化があり、かつ注視点の近くでユーザが注目する可能性が高いとみなし、重要度「高」とする。なお、本実施形態では画像処理装置10の重要度決定部105が重要度を決定する例を中心に説明しているが、例えば、他の装置から重要度に関する情報が取得される構成を採用しても良い。   On the other hand, when the change value is 10% or more and the distance from the gazing point is 80 or more and less than 120, there is a change from the image updated last time, and the user may pay attention not to be far from the gazing point. It is considered that there is a certain importance level. Furthermore, when the change value is 10% or more and the distance from the gazing point is less than 80, it is considered that there is a change from the previously updated image and the user is likely to pay attention near the gazing point. " In this embodiment, the example in which the importance level determination unit 105 of the image processing apparatus 10 determines the importance level is mainly described. However, for example, a configuration in which information on the importance level is acquired from another apparatus is adopted. May be.

図10は、図9に示した条件より各部分領域の重要度を求めた例を示す図である。直前のフレームから変化が大きく、注視点から近い部分領域ほど重要度は高く設定されている。以上のように、変化値と注視点からの距離とによって各部分領域の重要度が決定される。なお、本実施形態では変化情報と注視点からの距離を各々閾値で判定して重要度を3段階に求めたがこれに限らず、数値などで表現してもよい。   FIG. 10 is a diagram showing an example in which the importance of each partial region is obtained from the conditions shown in FIG. The degree of importance is set higher for a partial region that changes greatly from the immediately preceding frame and is closer to the point of interest. As described above, the importance of each partial region is determined based on the change value and the distance from the gazing point. In the present embodiment, the change information and the distance from the gazing point are determined by threshold values, and the importance is obtained in three stages. However, the present invention is not limited to this, and may be expressed by a numerical value or the like.

次に、S506において、画像更新部106は、S505で決定された重要度に従い、画像を更新するか否かを判定して部分領域毎に処理する。ここでは、重要度が「高」の部分領域の場合、画像更新部106は、入力画像でその部分領域を更新し、その部分領域に係る画像を記憶装置207に格納する。重要度が「中」の部分領域では、更新頻度を半分に間引くようにし、更新する場合は、画像更新部106は、入力画像の解像度を30%縮小した画像を用いて更新し、その部分領域に係る画像を記憶装置207に格納する。重要度が「低」の部分領域では、更新頻度を1秒に一度に下げ、更新する場合は、画像更新部106は、入力画像の解像度を50%縮小した画像を用いて更新し、その部分領域に係る画像を記憶装置207に格納する。このように重要度に応じた処理を行うことにより、重要度の低い領域の更新頻度とデータ量とが低減され、画像処理装置10の平均的な処理負荷は軽減される。   Next, in step S506, the image update unit 106 determines whether to update the image according to the importance determined in step S505, and performs processing for each partial region. Here, in the case of a partial area with a high importance level, the image update unit 106 updates the partial area with the input image, and stores the image related to the partial area in the storage device 207. In the partial area with the importance level of “medium”, the update frequency is thinned out by half, and in the case of updating, the image update unit 106 updates using the image obtained by reducing the resolution of the input image by 30%. Is stored in the storage device 207. In the partial area with the importance level “low”, when updating the update frequency at a time per second, the image update unit 106 updates the image using an image obtained by reducing the resolution of the input image by 50%. The image relating to the area is stored in the storage device 207. By performing the processing according to the importance in this way, the update frequency and the data amount of the low importance area are reduced, and the average processing load of the image processing apparatus 10 is reduced.

なお、画像出力部107は、部分領域を更新した場合に、その部分領域に係る画像を外部装置に出力する。外部装置では、更新した部分領域に係る画像を背景モデルに貼り付けて3次元空間上の背景を更新し、更新した3次元空間上の背景から仮想視点画像を生成することができる。このように、画像処理装置10による送信の処理負荷も低減することができる。   When the partial area is updated, the image output unit 107 outputs an image related to the partial area to the external device. The external device can update the background in the three-dimensional space by pasting the image related to the updated partial region to the background model, and generate a virtual viewpoint image from the background in the updated three-dimensional space. In this way, the processing load of transmission by the image processing apparatus 10 can also be reduced.

なお、本実施形態では、重要度に応じて入力画像の更新頻度と解像度とを変更したが、これに限らず、更新する画像の色深度を低下させたり更新する画像を圧縮したりするなどを行ってもよい。以上のように本実施形態によれば、各部分領域の注視点位置からの距離と画像の変化値とから重要度を決定し、重要度に応じて画像の更新頻度と解像度とを制御する。これにより、外部装置では、ユーザが注目する領域で高品位に画像を生成し、かつ処理負荷を低減させることが可能となる。   In the present embodiment, the update frequency and resolution of the input image are changed according to the importance. However, the present invention is not limited to this, and the color depth of the image to be updated is reduced or the image to be updated is compressed. You may go. As described above, according to the present embodiment, the importance is determined from the distance from the position of the point of interest of each partial region and the change value of the image, and the image update frequency and resolution are controlled according to the importance. Thereby, in the external device, it is possible to generate a high-quality image in an area that the user pays attention to and reduce the processing load.

(第2の実施形態)
以下、本発明の第2の実施形態について説明する。本実施形態では、ユーザが注目する領域であるか否かの指標として、ユーザにより選択された3次元空間上の任意の視点である仮想視点の画角に含まれるか否かを指標としている。そして、変化情報と、仮想視点に基づく指標値と、画像処理装置が過負荷な状態での画像処理を抑制するため負荷情報とを重要度の決定に用いる。なお、本実施形態に係る画像処理装置のハードウェア構成については図2と同様であるため、説明は省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described. In the present embodiment, as an index as to whether or not the region is a region of interest to the user, whether or not it is included in the angle of view of the virtual viewpoint that is an arbitrary viewpoint in the three-dimensional space selected by the user is used as an index. Then, the change information, the index value based on the virtual viewpoint, and the load information are used to determine the importance in order to suppress the image processing when the image processing apparatus is overloaded. The hardware configuration of the image processing apparatus according to this embodiment is the same as that shown in FIG.

図11は、本実施形態における画像処理装置1100の機能構成例を示すブロック図である。以下、図1と異なる点についてのみ説明する。
入力部101は、背景の形状データ、仮想視点情報、複数の画像データ及びカメラ情報を入力し、これらの情報を記憶装置207に格納する。ここで、仮想視点情報とは、カメラ情報と同様に仮想視点の位置や姿勢を示す情報であり、例えばユーザの操作により入力装置204から入力される。注目度判定部104は、入力される仮想視点情報を基に仮想視点の画角に含まれる部分領域を特定し、重要度決定部105に出力する。
FIG. 11 is a block diagram illustrating a functional configuration example of the image processing apparatus 1100 according to the present embodiment. Only differences from FIG. 1 will be described below.
The input unit 101 inputs background shape data, virtual viewpoint information, a plurality of image data, and camera information, and stores these pieces of information in the storage device 207. Here, the virtual viewpoint information is information indicating the position and orientation of the virtual viewpoint, similar to the camera information, and is input from the input device 204 by a user operation, for example. The attention level determination unit 104 specifies a partial region included in the angle of view of the virtual viewpoint based on the input virtual viewpoint information, and outputs the partial area to the importance level determination unit 105.

処理負荷管理部1101は、画像処理装置1100の処理負荷の状態を監視し、負荷状態を示す値を重要度決定部105に出力する。処理負荷の状態を示す値は、例えば画像処理装置1100におけるCPU201の使用率に相当する。なお、本実施形態では処理負荷の状態を示す情報としてCPU201の使用率を用いるがこれに限定するものではなく、例えば、RAM203の使用率を用いても良いし、CPU201の使用率とRAM203の使用率の組合せを用いても良い。   The processing load management unit 1101 monitors the processing load state of the image processing apparatus 1100, and outputs a value indicating the load state to the importance level determination unit 105. The value indicating the state of the processing load corresponds to the usage rate of the CPU 201 in the image processing apparatus 1100, for example. In this embodiment, the usage rate of the CPU 201 is used as information indicating the state of the processing load. However, the present invention is not limited to this. For example, the usage rate of the RAM 203 may be used, or the usage rate of the CPU 201 and the usage of the RAM 203 may be used. A combination of rates may be used.

図12は、本実施形態において、画像処理装置1100により背景画像を更新する処理手順の一例を示すフローチャートである。なお、第1の実施形態と同様の処理については説明を省略する。
S1201においては、注目度判定部104は、該当する部分領域が仮想視点の画角内に含まれるか否かを判定し、その部分領域の指標を決定する。仮想視点情報に基づき、仮想視点の画角を形状データに投影することで仮想視点の画角に含まれる部分領域が特定される。
FIG. 12 is a flowchart illustrating an example of a processing procedure for updating a background image by the image processing apparatus 1100 in the present embodiment. Note that description of the same processing as in the first embodiment is omitted.
In S1201, the attention level determination unit 104 determines whether or not the corresponding partial area is included in the angle of view of the virtual viewpoint, and determines an index of the partial area. Based on the virtual viewpoint information, a partial area included in the virtual viewpoint angle of view is specified by projecting the angle of view of the virtual viewpoint onto shape data.

図13は、仮想視点の画角に含まれるか否かを判定して指標を決定する処理を説明するための図である。図13(a)に示すように、ユーザの操作により入力装置204から矢印1301に示す方向の仮想視点を指定する仮想視点情報が入力部101により入力された場合、図13(b)に示す画角が想定される。そして、図3の形状データ300に当てはめると、図13(b)に示す仮想視点の画角に3つの部分領域が存在することになる。また、仮想視点に含まれる部分領域の指標を2、仮想視点に含まれる部分領域に接する部分領域を1、それ以外の部分領域の指標を0とする。この場合、各部分領域の指標は図13(c)に示すような分布となる。なお、仮想視点に含まれる部分領域の隣接領域は仮想視点の画角判定の誤差を考慮して指標を1としている。   FIG. 13 is a diagram for describing processing for determining an index by determining whether or not an angle of view is included in a virtual viewpoint. As illustrated in FIG. 13A, when virtual viewpoint information for designating a virtual viewpoint in the direction indicated by the arrow 1301 is input from the input device 204 by the user operation, the image illustrated in FIG. A corner is assumed. Then, when applied to the shape data 300 of FIG. 3, there are three partial areas in the angle of view of the virtual viewpoint shown in FIG. Also, the index of the partial area included in the virtual viewpoint is 2, the partial area in contact with the partial area included in the virtual viewpoint is 1, and the index of the other partial areas is 0. In this case, the index of each partial area has a distribution as shown in FIG. It should be noted that the adjacent area of the partial area included in the virtual viewpoint has an index of 1 in consideration of errors in the angle of view determination of the virtual viewpoint.

次に、S1202において、処理負荷管理部1101は、画像処理装置1100の処理負荷を示す値であるCPU使用率を検出する。そして、S1203において、重要度決定部105は、該当する部分領域の変化情報、仮想視点による指標、およびCPU使用率より重要度を決定する。   In step S <b> 1202, the processing load management unit 1101 detects a CPU usage rate that is a value indicating the processing load of the image processing apparatus 1100. In step S <b> 1203, the importance level determination unit 105 determines the importance level based on the change information of the corresponding partial area, the index based on the virtual viewpoint, and the CPU usage rate.

図14は、CPU使用率が低い(所定値未満の)場合の変化情報と仮想視点に基づく指標とにより重要度を決定する条件の例を示す図である。例えば、各部分領域の変化情報が図7に示したものであり、各部分領域の仮想視点による指標が図13(c)に示したものである場合、各部分領域の重要度は、図15(a)に示すような分布となる。また、画像処理装置1100のCPU使用率が高い(所定値以上の)場合は、全体の処理負荷を低減させるため重要度は全て一段階下げる。つまり、図15(b)に示す重要度として画像処理の全体の処理負荷を低減し、画像処理装置1100の過負荷状態を回避するようにする。   FIG. 14 is a diagram illustrating an example of conditions for determining importance based on change information and an index based on a virtual viewpoint when the CPU usage rate is low (less than a predetermined value). For example, when the change information of each partial area is as shown in FIG. 7 and the index from the virtual viewpoint of each partial area is as shown in FIG. 13C, the importance of each partial area is as shown in FIG. The distribution is as shown in (a). Further, when the CPU usage rate of the image processing apparatus 1100 is high (above a predetermined value), the importance is lowered by one step in order to reduce the overall processing load. That is, the overall processing load of the image processing is reduced as the importance shown in FIG. 15B, and an overload state of the image processing apparatus 1100 is avoided.

以上のように本実施形態によれば、ユーザによって入力された仮想視点の画角より重要度を決定し、重要度に応じて画像の更新頻度と解像度とを制御するようにした。これにより、ユーザが視聴している領域で高品位に画像を生成し、かつ処理負荷を低くすることが可能となる。なお、本実施形態では仮想視点が単一である場合について示したが、複数の仮想視点が入力される場合は、各部分領域が仮想視点の画角に含まれるか否かを仮想視点毎に判定する。そして、画角に部分領域が含まれる仮想視点の数を各部分領域の注目度の指標値としてもよい。例えば、仮想視点が3つ存在し、対象とする部分領域が3つのうち2つの仮想視点の画角に含まれている場合は、その部分領域の指標を2とする。   As described above, according to the present embodiment, the importance is determined from the angle of view of the virtual viewpoint input by the user, and the image update frequency and resolution are controlled according to the importance. As a result, it is possible to generate a high-quality image in the region where the user is viewing and to reduce the processing load. In this embodiment, the case where there is a single virtual viewpoint is shown. However, when a plurality of virtual viewpoints are input, whether or not each partial area is included in the angle of view of the virtual viewpoint is determined for each virtual viewpoint. judge. Then, the number of virtual viewpoints whose partial angles are included in the angle of view may be used as an index value of the attention level of each partial area. For example, when there are three virtual viewpoints and the target partial area is included in the angle of view of two of the three virtual viewpoints, the index of the partial area is set to 2.

(第3の実施形態)
以下、本発明の第3の実施形態について説明する。本実施形態では、ユーザが注目する領域であるか否かの指標として、ユーザが注目する被写体との距離に着目し、変化情報と、ユーザが注目する被写体との距離と、画像出力までに求められる処理時間である要求性能とを用いて部分領域毎に重要度を決定する。なお、本実施形態に係る画像処理装置のハードウェア構成については図2と同様であるため、説明は省略する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described. In the present embodiment, as an indicator of whether or not the region is a region of interest to the user, attention is paid to the distance from the subject to which the user is interested, and the change information, the distance to the subject to which the user is interested, and the image output are obtained. The degree of importance is determined for each partial area using the required performance, which is the processing time to be obtained. The hardware configuration of the image processing apparatus according to this embodiment is the same as that shown in FIG.

図16は、本実施形態における画像処理装置1600の機能構成例を示すブロック図である。以下、図1と異なる点についてのみ説明する。
入力部101は、背景の形状データ、注目被写体情報、複数の画像データ及びカメラ情報を入力し、これらの情報を記憶装置207に格納する。ここで、注目被写体情報とは、ユーザが注目する被写体の3次元空間上の位置座標を示す情報であり、例えばユーザの操作により入力装置204から入力される。注目度判定部104は、注目被写体情報に係る被写体と各部分領域との距離を判定し、重要度決定部105に出力する。
FIG. 16 is a block diagram illustrating a functional configuration example of the image processing apparatus 1600 according to the present embodiment. Only differences from FIG. 1 will be described below.
The input unit 101 inputs background shape data, target subject information, a plurality of image data, and camera information, and stores these pieces of information in the storage device 207. Here, the subject of interest information is information indicating the position coordinates of the subject of interest of the user in the three-dimensional space, and is input from the input device 204 by the user's operation, for example. The attention level determination unit 104 determines the distance between the subject related to the target subject information and each partial area, and outputs the distance to the importance level determination unit 105.

要求性能管理部1601は、ユーザの要求に応じて画像出力部107から出力されるまでの時間を要求性能値として管理し、要求性能値の情報を重要度決定部105に送る。例えば、ユーザがリアルタイム処理を要求した場合は、入力画像のフレームレートで出力する必要があり、60fps(Frame Per Second)の場合1000m秒÷60=16m秒を要求性能値として管理する。   The required performance management unit 1601 manages the time until output from the image output unit 107 in response to a user request as a required performance value, and sends information on the required performance value to the importance level determination unit 105. For example, when the user requests real-time processing, it is necessary to output at the frame rate of the input image, and in the case of 60 fps (Frame Per Second), 1000 ms / 60 = 16 ms is managed as the required performance value.

図17は、本実施形態において、画像処理装置1600により背景画像を更新する処理手順の一例を示すフローチャートである。なお、第1の実施形態と同様の処理については説明を省略する。
S1701においては、注目度判定部104は、注目被写体情報と形状データとから、注目する被写体の位置と各部分領域との距離を特定する。各部分領域との距離を計測する際の基準点は、第1の実施形態と同様に各部分領域の重心位置とする。
FIG. 17 is a flowchart illustrating an example of a processing procedure for updating a background image by the image processing apparatus 1600 in the present embodiment. Note that description of the same processing as in the first embodiment is omitted.
In step S <b> 1701, the attention level determination unit 104 specifies the distance between the position of the subject of interest and each partial area from the subject of interest information and the shape data. The reference point when measuring the distance to each partial area is the center of gravity of each partial area, as in the first embodiment.

次に、S1702において、要求性能管理部1601は、現在の要求性能値を検出する。そして、S1703において、重要度決定部105は、該当する部分領域と注目する被写体との距離、変化情報および要求性能値より重要度を決定する。   In step S1702, the required performance management unit 1601 detects the current required performance value. In step S <b> 1703, the importance level determination unit 105 determines the importance level based on the distance between the corresponding partial region and the subject of interest, the change information, and the required performance value.

例えば図18に示す被写体1801を注目する被写体として指定した場合、各部分領域との距離は図19に示すような距離が判定される。また、第1の実施形態と同様の基準で決定した重要度の結果を図20に示す。図20(a)は要求性能が閾値以下の場合、図20(b)は要求性能が閾値以上の場合であり、要求性能が大きい場合は重要度を下げることで処理負荷を低減させている。   For example, when the subject 1801 shown in FIG. 18 is designated as the subject of interest, the distance to each partial region is determined as shown in FIG. In addition, FIG. 20 shows the result of importance determined by the same criteria as in the first embodiment. 20A shows a case where the required performance is below the threshold, and FIG. 20B shows a case where the required performance is above the threshold. When the required performance is large, the processing load is reduced by reducing the importance.

以上のように本実施形態によれば、注目する物体の距離より重要度を決定し、重要度に応じて画像の更新頻度と解像度とを制御するようにした。これにより、ユーザが注目する領域で高品位に画像を生成し、かつ処理負荷を低くすることが可能となる。   As described above, according to the present embodiment, the importance is determined from the distance of the object of interest, and the image update frequency and the resolution are controlled according to the importance. As a result, it is possible to generate a high-quality image in a region that the user pays attention to and reduce the processing load.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

103 変化情報取得部
104 注目度判定部
105 重要度決定部
106 画像更新部
DESCRIPTION OF SYMBOLS 103 Change information acquisition part 104 Attention degree determination part 105 Importance determination part 106 Image update part

Claims (13)

入力画像における複数の部分領域毎に時間的な変化に関する変化情報を取得する取得手段と、
前記複数の部分領域毎に注目度に関する注目情報を判定する判定手段と、
前記取得手段によって取得された変化情報と、前記判定手段によって判定された注目情報とから前記複数の部分領域毎の重要度を決定する決定手段と、
前記決定手段によって決定された重要度に応じて前記部分領域を更新する更新手段と、
を有することを特徴とする画像処理装置。
Acquisition means for acquiring change information regarding temporal changes for each of a plurality of partial areas in the input image;
Determining means for determining attention information regarding the degree of attention for each of the plurality of partial areas;
Determining means for determining importance for each of the plurality of partial areas from the change information acquired by the acquiring means and the attention information determined by the determining means;
Updating means for updating the partial area according to the importance determined by the determining means;
An image processing apparatus comprising:
前記更新手段は、前記重要度に応じた更新頻度で前記部分領域毎に更新することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the updating unit updates each partial region at an update frequency according to the importance. 前記更新手段は、前記重要度に応じた解像度で前記部分領域毎に更新することを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the updating unit updates each partial area with a resolution corresponding to the importance level. 前記判定手段は、前記注目情報として前記入力画像の注視点位置からの距離を前記部分領域毎に判定することを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the determination unit determines, as the attention information, a distance from a gazing point position of the input image for each partial region. 前記判定手段は、前記注目情報として仮想視点の画角に含まれるか否かの指標を前記部分領域毎に判定することを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。   The image processing according to claim 1, wherein the determination unit determines, for each partial area, an index as to whether or not the attention information is included in an angle of view of a virtual viewpoint. apparatus. 前記判定手段は、前記注目情報として画角に部分領域が含まれる仮想視点の数を前記部分領域毎に判定することを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the determination unit determines, for each partial area, the number of virtual viewpoints including a partial area in an angle of view as the attention information. 前記決定手段は、前記画像処理装置の処理負荷に応じて重要度を決定することを特徴とする請求項5又は6に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the determination unit determines the importance according to a processing load of the image processing apparatus. 前記判定手段は、注目する物体からの距離を前記注目情報として前記部分領域毎に判定することを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the determination unit determines a distance from an object of interest as the attention information for each partial region. 前記判定手段は、前記注目する物体の位置情報を入力して前記注目する物体からの距離を判定することを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the determination unit inputs position information of the object of interest and determines a distance from the object of interest. 前記決定手段は、前記画像処理装置の要求性能に応じて重要度を決定することを特徴とする請求項8又は9に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the determination unit determines the importance level according to the required performance of the image processing apparatus. 前記更新手段によって更新された部分領域に係る画像を外部装置に出力する出力手段をさらに有することを特徴とする請求項1〜10の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an output unit that outputs an image related to the partial area updated by the update unit to an external device. 入力画像における複数の部分領域毎に時間的な変化に関する変化情報を取得する取得工程と、
前記複数の部分領域毎に注目度に関する注目情報を判定する判定工程と、
前記取得工程において取得された変化情報と、前記判定工程において判定された注目情報とから前記複数の部分領域毎の重要度を決定する決定工程と、
前記決定工程において決定された重要度に応じて前記部分領域を更新する更新工程と、
を有することを特徴とする画像処理方法。
An acquisition step of acquiring change information regarding a temporal change for each of a plurality of partial areas in the input image;
A determination step of determining attention information regarding the degree of attention for each of the plurality of partial regions;
A determination step of determining the importance for each of the plurality of partial regions from the change information acquired in the acquisition step and the attention information determined in the determination step;
An update step of updating the partial area according to the importance determined in the determination step;
An image processing method comprising:
入力画像における複数の部分領域毎に時間的な変化に関する変化情報を取得する取得工程と、
前記複数の部分領域毎に注目度に関する注目情報を判定する判定工程と、
前記取得工程において取得された変化情報と、前記判定工程において判定された注目情報とから前記部分領域毎の重要度を決定する決定工程と、
前記決定工程において決定された重要度に応じて前記部分領域を更新する更新工程と、
をコンピュータに実行させることを特徴とするプログラム。
An acquisition step of acquiring change information regarding a temporal change for each of a plurality of partial areas in the input image;
A determination step of determining attention information regarding the degree of attention for each of the plurality of partial regions;
A determination step for determining the importance for each partial region from the change information acquired in the acquisition step and the attention information determined in the determination step;
An update step of updating the partial area according to the importance determined in the determination step;
A program that causes a computer to execute.
JP2017031448A 2017-02-22 2017-02-22 Image processing equipment, image processing methods and programs Active JP6896452B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017031448A JP6896452B2 (en) 2017-02-22 2017-02-22 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017031448A JP6896452B2 (en) 2017-02-22 2017-02-22 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018136793A true JP2018136793A (en) 2018-08-30
JP6896452B2 JP6896452B2 (en) 2021-06-30

Family

ID=63365562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017031448A Active JP6896452B2 (en) 2017-02-22 2017-02-22 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6896452B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020046960A (en) * 2018-09-19 2020-03-26 キヤノン株式会社 Image processing apparatus, control method for image processing apparatus, and program
JP2020095717A (en) * 2018-12-11 2020-06-18 キヤノン株式会社 Method, system and apparatus for capture of image data for free viewpoint video
WO2021084698A1 (en) * 2019-10-31 2021-05-06 三菱電機株式会社 Analysis device and analysis method
WO2023074522A1 (en) * 2021-11-01 2023-05-04 ソニーセミコンダクタソリューションズ株式会社 Physical quantity detecting device and imaging device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130767A (en) * 1995-11-06 1997-05-16 Hitachi Ltd Image transmitter
JP2002083286A (en) * 2000-09-06 2002-03-22 Telecommunication Advancement Organization Of Japan Method and device for generating avatar, and recording medium recorded with program therefor
JP2004086550A (en) * 2002-08-27 2004-03-18 Matsushita Electric Ind Co Ltd Display image updating system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130767A (en) * 1995-11-06 1997-05-16 Hitachi Ltd Image transmitter
JP2002083286A (en) * 2000-09-06 2002-03-22 Telecommunication Advancement Organization Of Japan Method and device for generating avatar, and recording medium recorded with program therefor
JP2004086550A (en) * 2002-08-27 2004-03-18 Matsushita Electric Ind Co Ltd Display image updating system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020046960A (en) * 2018-09-19 2020-03-26 キヤノン株式会社 Image processing apparatus, control method for image processing apparatus, and program
JP7233873B2 (en) 2018-09-19 2023-03-07 キヤノン株式会社 Image processing device, image processing method, and program
JP2020095717A (en) * 2018-12-11 2020-06-18 キヤノン株式会社 Method, system and apparatus for capture of image data for free viewpoint video
WO2021084698A1 (en) * 2019-10-31 2021-05-06 三菱電機株式会社 Analysis device and analysis method
JP6945755B1 (en) * 2019-10-31 2021-10-06 三菱電機株式会社 Analytical device and analysis method
WO2023074522A1 (en) * 2021-11-01 2023-05-04 ソニーセミコンダクタソリューションズ株式会社 Physical quantity detecting device and imaging device

Also Published As

Publication number Publication date
JP6896452B2 (en) 2021-06-30

Similar Documents

Publication Publication Date Title
US10916048B2 (en) Image processing apparatus, image processing method, and storage medium
US11012679B2 (en) Generating apparatus, generating method, and storage medium
JP6948171B2 (en) Image processing equipment and image processing methods, programs
US20240005591A1 (en) Method and system for rendering panoramic video
JP6896452B2 (en) Image processing equipment, image processing methods and programs
CN110062176B (en) Method and device for generating video, electronic equipment and computer readable storage medium
US9697581B2 (en) Image processing apparatus and image processing method
JP2019083402A (en) Image processing apparatus, image processing system, image processing method, and program
CN111445566B (en) Information processing method and device and computer readable storage medium
US11076140B2 (en) Information processing apparatus and method of controlling the same
US11100699B2 (en) Measurement method, measurement device, and recording medium
WO2018100928A1 (en) Image processing device and method
CN110928509A (en) Display control method, display control device, storage medium, and communication terminal
JP6637855B2 (en) Data processing device, data processing method, and computer program
CN111435589B (en) Target display method and device and target display system
JP7458713B2 (en) Image processing device, image processing system, control method, and program
JPWO2016185522A1 (en) Image processing apparatus, image processing method, and image processing program
JP2017123589A (en) Information processing apparatus, information processing method, and video projection system
KR20230017745A (en) Image processing apparatus, image processing method, and storage medium
WO2021079592A1 (en) Information processing device, 3d data generation method, and program
CN110913265A (en) Video data buffer scheduling method and device
JP2002260003A (en) Video display device
WO2022176719A1 (en) Image processing device, image processing method, and program
JP2020004053A (en) Generation apparatus, generation method, and program
WO2023058545A1 (en) Information processing device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210609

R151 Written notification of patent or utility model registration

Ref document number: 6896452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151