JP2016090906A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2016090906A
JP2016090906A JP2014227618A JP2014227618A JP2016090906A JP 2016090906 A JP2016090906 A JP 2016090906A JP 2014227618 A JP2014227618 A JP 2014227618A JP 2014227618 A JP2014227618 A JP 2014227618A JP 2016090906 A JP2016090906 A JP 2016090906A
Authority
JP
Japan
Prior art keywords
video
video data
image processing
input
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014227618A
Other languages
Japanese (ja)
Inventor
旭 佐野
Akira Sano
旭 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014227618A priority Critical patent/JP2016090906A/en
Publication of JP2016090906A publication Critical patent/JP2016090906A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable display of a video with a layout intended by a user, in an image processor for inputting a video divided into a plurality of parts to perform display.SOLUTION: An image processor for combining a plurality of partial videos obtained by dividing a video includes: first input means for inputting a first partial video; second input means for inputting a second partial video; acquisition means for acquiring a feature quantity which is the feature quantity in a boundary area in the case of combining the first partial video with the second partial video and is based on a plurality of images which are temporally different from one another; and control means for performing control so as to display the video with a layout in the case of combining the first partial video with the second partial video on the basis of the feature quantity acquired by the acquisition means.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関し、特に、複数に分割された映像を入力して表示する映像表示技術に関する。   The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to a video display technique for inputting and displaying a video divided into a plurality of parts.

高解像度の映像を表示する映像表示装置では、映像を入力するために、複数本の入力インターフェイスを用いることがある。例えば、4本のHDMI(登録商標)(High−Definition Multimedia Interface)ケーブルを用いて1920x1080ピクセル、60Hzの信号を同時入力し、4K2Kの動画(コンテンツ)の表示を行う場合について説明する。尚、4K2Kの動画とは、フルハイビジョン(解像度1920×1080ピクセル)の4倍の解像度、即ち横4000×縦2000画素前後の解像度に対応した映像を示す。このような高解像度のコンテンツを、送信側(映像配信装置)は複数に分割して送信し、受信側(映像表示装置)は複数に分割されたコンテンツを合成して表示する。そして、受信側では、コンテンツを合成して表示する場合に、分割されたコンテンツのうちのどの入力をどの位置に表示するか、正しく設定する必要がある。   In a video display device that displays a high-resolution video, a plurality of input interfaces may be used to input the video. For example, a case where a 1920 × 1080 pixel, 60 Hz signal is simultaneously input using four HDMI (High-Definition Multimedia Interface) cables to display a 4K2K moving image (content) will be described. Note that the 4K2K moving image indicates an image corresponding to a resolution four times that of full high-definition (resolution 1920 × 1080 pixels), that is, a resolution of about 4000 × 2000 pixels. Such a high-resolution content is transmitted by being divided into a plurality of parts on the transmission side (video distribution apparatus), and the content divided into a plurality of parts is displayed on the reception side (video display apparatus). On the receiving side, when the contents are combined and displayed, it is necessary to correctly set which input of the divided contents is displayed at which position.

従来、複数に分割された画像を合成する技術として、大判サイズの原稿を複数の部分画像に分割して読み取り合成する装置において、各部分画像の縁部の画像濃度に基づき各部分画像を合成する際の合成画像内での配置位置を決定する技術がある(特許文献1)。   Conventionally, as a technique for synthesizing a plurality of divided images, an apparatus for reading and synthesizing a large-size original by dividing it into a plurality of partial images, synthesizes the partial images based on the image density at the edge of each partial image. There is a technique for determining an arrangement position in a composite image at the time (Patent Document 1).

特開平9−121277号公報JP-A-9-121277

上述した特許文献1は、各部分画像の縁部の画像濃度に基づいて各部分画像の合成画像内での配置位置を決定するが、例えば、合成画像の周囲(上下左右)に黒帯がある映画を分割した分割画像を合成する場合、意図しないレイアウトになる可能性がある。即ち、黒帯が、合成画像の周囲ではなく、合成画像の中心部分に十字上に合成されてしまう場合がある。   In Patent Document 1 described above, the arrangement position of each partial image in the composite image is determined based on the image density of the edge of each partial image. For example, there is a black belt around the composite image (up, down, left, and right). When combining divided images obtained by dividing a movie, there is a possibility of an unintended layout. That is, the black belt may be combined on the cross not at the periphery of the combined image but at the center of the combined image.

上記の課題を解決するため、本発明の画像処理装置は、以下の構成を有する。即ち、映像を分割した複数の部分映像を合成する画像処理装置であって、第1の部分映像を入力する第1の入力手段と、第2の部分映像を入力する第2の入力手段と、前記第1の部分映像と前記第2の部分映像とを合成する場合の境界領域における特徴量であって、時間的に異なる複数の画像に基づく特徴量を取得する取得手段と、前記取得手段によって取得された特徴量に基づいて、前記第1の部分映像と前記第2の部分映像とを合成する場合のレイアウトで、前記映像を表示するよう制御する制御手段とを有する。   In order to solve the above problems, an image processing apparatus of the present invention has the following configuration. That is, an image processing apparatus that synthesizes a plurality of partial videos obtained by dividing a video, a first input unit that inputs a first partial video, a second input unit that inputs a second partial video, An acquisition unit that acquires a feature amount in a boundary region when combining the first partial video and the second partial video, and based on a plurality of temporally different images, and the acquisition unit And control means for controlling to display the video in a layout when the first partial video and the second partial video are synthesized based on the acquired feature amount.

複数に分割された映像を入力して表示を行う画像処理装置において、ユーザが意図したレイアウトで映像を表示することが可能となる。   In an image processing apparatus that inputs and displays a plurality of divided images, the images can be displayed in a layout intended by the user.

実施形態1の画像処理装置の構成を示すブロック図1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment. 実施形態1の画像処理装置における処理を示すフローチャート5 is a flowchart illustrating processing in the image processing apparatus according to the first embodiment. 映像データの一例を示す図Diagram showing an example of video data 表示部109の表示領域の一例を示す図The figure which shows an example of the display area of the display part 109 映像データの特徴量を算出する処理を示すフローチャートFlow chart showing processing for calculating feature amount of video data 画像処理装置に適応可能なコンピュータのハードウェアの構成例を示すブロック図Block diagram showing a configuration example of computer hardware applicable to an image processing apparatus 映像データの配置の決定方法を示すフローチャートA flowchart showing a method for determining the arrangement of video data 各映像データの配置の境界領域における各画素の動きベクトルを示す図The figure which shows the motion vector of each pixel in the boundary area | region of arrangement | positioning of each video data

以下、添付の図面を参照して、本発明を実施形態の一例に基づいて詳細に説明する。尚、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。   Hereinafter, the present invention will be described in detail based on an example of an embodiment with reference to the accompanying drawings. In addition, the structure shown in the following embodiment is only an example, and is not limited to the illustrated structure.

(実施形態1)
以下、本実施形態に係る画像処理装置について、図面を用いて説明する。まず、図1は、本実施形態の画像処理装置の構成を示すブロック図である。
(Embodiment 1)
Hereinafter, an image processing apparatus according to the present embodiment will be described with reference to the drawings. First, FIG. 1 is a block diagram showing the configuration of the image processing apparatus of the present embodiment.

図1において本実施形態の画像処理装置101は、第一の入力部102、第二の入力部103、第三の入力部104、第四の入力部105、取得部106、決定部107、表示制御部108、及び表示部109を有する。   In FIG. 1, an image processing apparatus 101 according to the present embodiment includes a first input unit 102, a second input unit 103, a third input unit 104, a fourth input unit 105, an acquisition unit 106, a determination unit 107, a display. A control unit 108 and a display unit 109 are included.

第一の入力部102、第二の入力部103、第三の入力部104、及び第四の入力部105は、画像処理装置101の外部からの映像データを受け付け、取得部106へと映像データを出力する。映像データは、例えばHDMI(登録商標)(High−Definition Multimedia Interface)やDisplay Port等の映像(画像)を出力するインターフェイスを介して画像処理装置101に入力される映像データである。そして、本実施形態において画像処理装置101は、解像度の大きい1つの映像のコンテンツ(映像データ)を分割した映像データ(部分映像)を、複数本のインターフェイスを介して同時に入力するものとする。取得部106は、第一の入力部102、第二の入力部103、第三の入力部104、及び第四の入力部105から各映像データ(部分映像)を受け取り、各映像データから映像データの特徴量に関する情報を取得(算出)する。尚、映像データの特徴量の算出方法についての詳細は後述する。   The first input unit 102, the second input unit 103, the third input unit 104, and the fourth input unit 105 receive video data from the outside of the image processing apparatus 101 and send the video data to the acquisition unit 106. Is output. The video data is video data input to the image processing apparatus 101 via an interface for outputting video (image) such as HDMI (registered trademark) (High-Definition Multimedia Interface) and Display Port. In this embodiment, it is assumed that the image processing apparatus 101 inputs video data (partial video) obtained by dividing one video content (video data) having a high resolution simultaneously via a plurality of interfaces. The acquisition unit 106 receives each video data (partial video) from the first input unit 102, the second input unit 103, the third input unit 104, and the fourth input unit 105, and receives video data from each video data. Acquire (calculate) information on the feature amount of Details of the method for calculating the feature amount of the video data will be described later.

決定部107は、取得部106が取得した映像データの特徴量に基づいて、第一の入力部102、第二の入力部103、第三の入力部104、及び第四の入力部105から入力された各映像データの配置を決定する。尚、映像データの配置の決定方法についての詳細は後述する。   The determination unit 107 inputs from the first input unit 102, the second input unit 103, the third input unit 104, and the fourth input unit 105 based on the feature amount of the video data acquired by the acquisition unit 106. The arrangement of each piece of video data is determined. Details of the method for determining the arrangement of the video data will be described later.

表示制御部108は、決定部107によって決定された映像データの配置に基づいて、第一の入力部102、第二の入力部103、第三の入力部104、及び第四の入力部105からの映像データを合成し、表示部109に表示するよう制御する。   The display control unit 108 uses the first input unit 102, the second input unit 103, the third input unit 104, and the fourth input unit 105 based on the arrangement of the video data determined by the determination unit 107. The video data is synthesized and controlled to be displayed on the display unit 109.

表示部109は、表示制御部108の制御に基づいて、各入力部102〜105に入力された映像データを表示する。   The display unit 109 displays the video data input to the input units 102 to 105 based on the control of the display control unit 108.

次に、本実施形態における画像処理装置101の処理の流れを、図2を用いて説明する。図2は、本実施形態において、映像データを分割した4つの映像データが画像処理装置101に入力された場合に画像処理装置で実行される処理の手順を示すフローチャートである。図2では、表示部109が映像データを表示するまでの画像処理装置101の各処理部における処理の手順を示す。   Next, a processing flow of the image processing apparatus 101 in the present embodiment will be described with reference to FIG. FIG. 2 is a flowchart illustrating a procedure of processing executed by the image processing apparatus when four pieces of video data obtained by dividing the video data are input to the image processing apparatus 101 in the present embodiment. FIG. 2 shows a processing procedure in each processing unit of the image processing apparatus 101 until the display unit 109 displays video data.

ステップS201において、第一の入力部102、第二の入力部103、第三の入力部104、及び第四の入力部105は、画像処理装置101の外部から映像データをそれぞれ入力し、入力された各映像データを取得部106へ出力する。   In step S <b> 201, the first input unit 102, the second input unit 103, the third input unit 104, and the fourth input unit 105 input and input video data from the outside of the image processing apparatus 101, respectively. Each video data is output to the acquisition unit 106.

ステップS202において取得部106は、各入力部102〜105から出力された映像データに基づいて映像データの特徴量を算出し、算出した特徴量に関する情報と各映像データとを決定部107へ出力する。尚、取得部106が映像データの特徴量を算出する処理についての詳細は後述する。また、本実施形態のステップS202において、取得部106が映像データの特徴量を算出するが、これに限定されず、画像処理装置101の内部又は外部の他の処理部が算出した映像データの特徴量を、取得部106が取得する構成でも構わない。   In step S <b> 202, the acquisition unit 106 calculates the feature amount of the video data based on the video data output from the input units 102 to 105, and outputs information regarding the calculated feature amount and each video data to the determination unit 107. . The details of the process in which the acquisition unit 106 calculates the feature amount of the video data will be described later. In step S202 of the present embodiment, the acquisition unit 106 calculates the feature amount of the video data. However, the present invention is not limited to this, and the feature of the video data calculated by another processing unit inside or outside the image processing apparatus 101 is not limited thereto. The configuration may be such that the acquisition unit 106 acquires the amount.

ステップS203において決定部107は、ステップS202において取得部106によって算出された特徴量に関する情報に基づき、各入力部102〜105に入力された映像データの配置をそれぞれ決定する。そして決定部107は、決定した配置に関する情報と、各入力部102〜105に入力された映像データとを、表示制御部108へ出力する。ここで例えば、配置に関する情報は、各入力部102〜105に入力された映像データごとに、表示部109の表示領域中の「左上」、「右上」、「左下」、「右下」というようにそれぞれ表現することができる。また、表示領域(表示画面)の左上端を原点とし、原点からの右方向をx、下方向をyとして、各映像データの表示位置及びサイズ(幅と高さ)を、座標(x、y)を用いて表現しても構わない。尚、決定部107が映像データの配置を決定する処理についての詳細は後述する。   In step S203, the determination unit 107 determines the arrangement of the video data input to each of the input units 102 to 105 based on the information regarding the feature amount calculated by the acquisition unit 106 in step S202. Then, the determination unit 107 outputs the information regarding the determined arrangement and the video data input to the input units 102 to 105 to the display control unit 108. Here, for example, the arrangement information is “upper left”, “upper right”, “lower left”, “lower right” in the display area of the display unit 109 for each video data input to the input units 102 to 105. Can be expressed respectively. Also, the upper left corner of the display area (display screen) is the origin, the right direction from the origin is x, the lower direction is y, and the display position and size (width and height) of each video data are expressed as coordinates (x, y ) May be used. Details of the process of determining the arrangement of the video data by the determination unit 107 will be described later.

ステップS204において表示制御部108は、ステップS202において決定部107によって決定された配置に関する情報に基づいて映像データを合成し、表示する映像データを生成する。さらに、表示制御部108は、生成された映像データを表示部109に表示するよう制御する。   In step S204, the display control unit 108 synthesizes video data based on the information regarding the arrangement determined by the determination unit 107 in step S202, and generates video data to be displayed. Further, the display control unit 108 controls to display the generated video data on the display unit 109.

次に、本実施形態のステップS202における、取得部106による映像データの特徴量の算出方法ついて、図3及び図4を用いて詳細に説明する。   Next, a method for calculating the feature amount of the video data by the acquisition unit 106 in step S202 of the present embodiment will be described in detail with reference to FIGS.

図3は、第一の入力部102、第二の入力部103、第三の入力部104、第四の入力部105から取得部106に入力された映像データの一例を示す図である。   FIG. 3 is a diagram illustrating an example of video data input from the first input unit 102, the second input unit 103, the third input unit 104, and the fourth input unit 105 to the acquisition unit 106.

301、302、303、及び304は、各入力部102〜105から取得部106に入力された映像データの第N番目のフレームをそれぞれ示す。305、306、307、及び308は、各入力部102〜105から取得部106に入力された映像データの第N+1番目のフレームをそれぞれ示す。ここで、映像301と映像305は、第一の入力部102から取得部106に入力された映像データに対応し、映像302と映像306は第二の入力部103から取得部106に入力された映像データに対応する。また、映像303と映像307は、第三の入力部104から取得部106に入力された映像データに対応し、映像304と映像307は第四の入力部105から取得部106に入力された映像データに対応する。   Reference numerals 301, 302, 303, and 304 denote the Nth frame of the video data input from the input units 102 to 105 to the acquisition unit 106, respectively. Reference numerals 305, 306, 307, and 308 respectively denote the (N + 1) th frame of video data input from the input units 102 to 105 to the acquisition unit 106. Here, the video 301 and the video 305 correspond to the video data input from the first input unit 102 to the acquisition unit 106, and the video 302 and the video 306 are input from the second input unit 103 to the acquisition unit 106. Corresponds to video data. The video 303 and the video 307 correspond to the video data input from the third input unit 104 to the acquisition unit 106, and the video 304 and the video 307 are the video input to the acquisition unit 106 from the fourth input unit 105. Corresponds to data.

また、図4は、表示部109が映像データを表示する表示領域の一例を示す図である。401は表示領域の左上の位置を示す領域(LT)であり、402は表示領域の左下の位置を示す領域(LB)である。また、403は表示領域の右上の位置を示す領域(RT)であり、404は表示領域の右下の位置を示す領域(RB)である。   FIG. 4 is a diagram illustrating an example of a display area in which the display unit 109 displays video data. Reference numeral 401 denotes an area (LT) indicating the upper left position of the display area, and reference numeral 402 denotes an area (LB) indicating the lower left position of the display area. Reference numeral 403 denotes an area (RT) indicating the upper right position of the display area, and reference numeral 404 denotes an area (RB) indicating the lower right position of the display area.

図5は、図2のステップ202において取得部106で実行される、映像データの特徴量の算出処理の手順を示すフローチャートである。本実施形態において取得部106は、映像データの特徴量として動きベクトルを算出するものとする。   FIG. 5 is a flowchart showing the procedure of the video data feature quantity calculation process executed by the acquisition unit 106 in step 202 of FIG. In this embodiment, the acquisition unit 106 calculates a motion vector as a feature amount of video data.

ステップS501において取得部106は、各入力部102〜105から入力された、再生順序がNフレーム目の映像データをメモリに記録(保存)する。ここで、Nフレーム目の映像データは、図3に示す各映像301〜304である。   In step S <b> 501, the acquisition unit 106 records (saves) the video data of the Nth playback order input from the input units 102 to 105 in the memory. Here, the video data of the Nth frame are the videos 301 to 304 shown in FIG.

次に、ステップS502において取得部106は、各入力部102〜105から入力されたN+1フレーム目の映像データを記録する。ここで、N+1フレーム目の映像データは、図3に示す各映像305〜308に対応している。尚、本実施形態はステップS501とステップS502とに限定されず、取得部106は、Nフレーム目の映像データとN+1フレーム目の映像データとを用いて映像データの特徴量を算出するものに限らない。即ち、取得部106は、ステップS501とステップS502とを1つのステップで行っても構わないし、複数のフレームの映像データを用いて映像データの特徴量を算出するものであればよい。   Next, in step S502, the acquisition unit 106 records the video data of the (N + 1) th frame input from the input units 102 to 105. Here, the video data of the (N + 1) th frame corresponds to each of the videos 305 to 308 shown in FIG. Note that the present embodiment is not limited to step S501 and step S502, and the acquisition unit 106 is not limited to calculating the feature amount of video data using video data of the Nth frame and video data of the (N + 1) th frame. Absent. That is, the acquisition unit 106 may perform step S501 and step S502 in one step, and may be any unit that calculates the feature amount of video data using video data of a plurality of frames.

次に、ステップS503において取得部106は、入力された映像データの数(入力数)に基づいて、各映像データと配置との組み合わせを示すリストを取得する。尚、取得部106は当該リストを算出(作成)し、算出したリストを取得しても構わないし、取得したリストを保持する構成でも構わない。本実施形態において、映像データは4つの入力部から接続されるため、取得部106によって算出されるリストの要素の最大数は24となり、LIST[i]=(LT,LB,RT,RB)を用いて以下のような組み合わせとなる。尚、上述したように、第一の入力部102、第二の入力部103、第三の入力部104、第四の入力部105のそれぞれから入力された映像データを1,2,3,4としてリストを示す。
LIST[0]=(1,2,3,4)、LIST[1]=(1,2,4,3)、
LIST[2]=(1,3,4,2)、LIST[3]=(1,3,2,4)、
LIST[4]=(1,4,2,3)、LIST[5]=(1,4,3,2)
・・・
LIST[18]=(4,1,2,3)、LIST[19]=(4,1,3,2)、
LIST[20]=(4,2,1,3)、LIST[21]=(4,2,3,1)、
LIST[22]=(4,3,1,2)、LIST[23]=(4,3,2,1)
上述のように、取得部106によって算出されるリストをLIST[i]=(LT,LB,RT,RB)を用いて示すことができる。例えば、LIST[3]=(1,3,2,4)は、表示領域の左上(LT)に第一の入力部102の入力(1)を、左下(LB)に第三の入力部104の入力(3)を配置することを示す。さらに、右上(RT)に第二の入力部103の入力(2)を、右下(RB)に第四の入力部105の入力(4)を配置することを示す。
Next, in step S503, the acquisition unit 106 acquires a list indicating combinations of video data and arrangements based on the number of input video data (number of inputs). Note that the acquisition unit 106 may calculate (create) the list, acquire the calculated list, or hold the acquired list. In the present embodiment, since video data is connected from four input units, the maximum number of list elements calculated by the acquisition unit 106 is 24, and LIST [i] = (LT, LB, RT, RB) is set. Use the following combinations. As described above, the video data input from each of the first input unit 102, the second input unit 103, the third input unit 104, and the fourth input unit 105 are 1, 2, 3, 4 As a list.
LIST [0] = (1,2,3,4), LIST [1] = (1,2,4,3),
LIST [2] = (1, 3, 4, 2), LIST [3] = (1, 3, 2, 4),
LIST [4] = (1, 4, 2, 3), LIST [5] = (1, 4, 3, 2)
...
LIST [18] = (4, 1, 2, 3), LIST [19] = (4, 1, 3, 2),
LIST [20] = (4,2,1,3), LIST [21] = (4,2,3,1),
LIST [22] = (4,3,1,2), LIST [23] = (4,3,2,1)
As described above, the list calculated by the acquisition unit 106 can be indicated using LIST [i] = (LT, LB, RT, RB). For example, when LIST [3] = (1, 3, 2, 4), the input (1) of the first input unit 102 is displayed on the upper left (LT) of the display area, and the third input unit 104 is displayed on the lower left (LB). Indicates that the input (3) is placed. Furthermore, the input (2) of the second input unit 103 is arranged in the upper right (RT), and the input (4) of the fourth input unit 105 is arranged in the lower right (RB).

尚、本実施形態において取得部106は、入力された映像データとその配置の全ての組み合わせについて特徴量を算出する。また、映像データと配置との組み合わせの数は、第一の入力部102、第二の入力部103、第三の入力部104、第四の入力部105のそれぞれから入力された映像データを1,2,3,4とすると4元集合から4つを選ぶ順列の算出結果と等しい。尚、入力された映像データの数がn個の場合の組み合わせの総数は、式2で算出される。即ち、入力された映像データが4つの場合の組み合わせの総数は、=4!=4×3×2×1=24通りである。
(式2)
また、上述では4元集合から4個の元を取り出す順列について説明したがこれに限定されず、n元集合からk個の元を取り出す順列にも本実施形態は適応可能である。また、n元集合からk個の元を取り出す順列の算出アルゴリズムは、一般的な公知技術であるので説明を省略する。
In the present embodiment, the acquisition unit 106 calculates feature amounts for all combinations of input video data and their arrangement. The number of combinations of video data and arrangement is 1 for video data input from each of the first input unit 102, the second input unit 103, the third input unit 104, and the fourth input unit 105. , 2, 3 and 4 are equal to the permutation calculation results for selecting four from the quaternion set. Note that the total number of combinations when the number of input video data is n is calculated by Equation 2. That is, the total number of combinations when the input video data is four is 4 P 4 = 4! = 4 × 3 × 2 × 1 = 24.
n P n (Formula 2)
In the above description, the permutation for extracting four elements from the quaternary set has been described. However, the present invention is not limited to this, and the present embodiment is applicable to a permutation for extracting k elements from the n-element set. A permutation calculation algorithm for extracting k elements from an n-element set is a general known technique, and thus description thereof is omitted.

次に、ステップS504において取得部106は、初期値(i=0)を設定する。   Next, in step S504, the acquisition unit 106 sets an initial value (i = 0).

ステップS505において取得部106は、ステップS501及びステップS502において記録した映像データと、表示領域における配置との組み合わせのうち、処理対象の組み合わせ(特徴量を算出する対象となる組み合わせ)を取得(決定)する。取得部106は、入力された映像データと配置との組み合わせを選択するよう指示する情報(以下、選択命令)を受け付ける。そして取得部106は、取得した選択命令に基づいて、ステップS503で取得したリストからとして、処理対象の組み合わせLIST[i]=(LB,LT,RB,RT)を決定する。尚、ステップS504において初期値が設定された直後のステップS505の処理では、取得部106は処理対象の組み合わせとしてLIST[0]を決定する。   In step S505, the acquisition unit 106 acquires (determines) a processing target combination (a combination for which a feature value is calculated) from among the combinations of the video data recorded in steps S501 and S502 and the arrangement in the display area. To do. The acquisition unit 106 receives information (hereinafter referred to as a selection command) instructing to select a combination of input video data and arrangement. Based on the acquired selection command, the acquisition unit 106 determines the combination LIST [i] = (LB, LT, RB, RT) to be processed from the list acquired in step S503. In step S505 immediately after the initial value is set in step S504, the acquisition unit 106 determines LIST [0] as a combination of processing targets.

ステップS506において取得部106は、ステップS505で取得した処理対象の組み合わせに基づいて、映像データの特徴量を算出する。即ち、本実施形態において取得部106は、映像データの特徴量としてNフレーム目の映像データとN+1フレーム目の映像データにおける動きベクトルを算出する。尚、動きベクトルの算出方法には限定されない。一般的に用いられている動きベクトルの算出方法としては、ブロックマッチング法がある。ブロックマッチング法は1フレームの映像データを格子状のブロックに分割し、ブロックごとにそのフレームとは時間的に異なるフレームにおける探索範囲内の映像データとの相関を取ることにより動きベクトルを求めるものである。本実施形態において取得部106は、Nフレーム目の映像データとN+1フレーム目の映像データとから、動きベクトルを算出する。取得部106は、N+1フレーム目の映像データの全ての画素について動きベクトル(ベクトル値)を算出し、Nフレーム目からN+1フレーム目の間において各画素がどこに移動したかを示すベクトルを算出する。尚、動きベクトルの表し方は種々の方法が適用可能であり、例えば、映像データの座標(x,y)における動きベクトルPは、移動量がx方向にa、y方向にbである場合、x方向の基底ベクトルをZ、y方向の基底ベクトルをZとすると式1で表すことができる。 In step S506, the acquisition unit 106 calculates the feature amount of the video data based on the combination of processing targets acquired in step S505. That is, in this embodiment, the acquisition unit 106 calculates a motion vector in the Nth frame video data and the N + 1th frame video data as the feature amount of the video data. Note that the method for calculating the motion vector is not limited. As a motion vector calculation method generally used, there is a block matching method. In the block matching method, one frame of video data is divided into grid-like blocks, and a motion vector is obtained by correlating each block with video data within a search range in a frame temporally different from that frame. is there. In the present embodiment, the acquisition unit 106 calculates a motion vector from the Nth frame video data and the N + 1th frame video data. The acquisition unit 106 calculates a motion vector (vector value) for all the pixels of the video data of the (N + 1) th frame, and calculates a vector indicating where each pixel has moved between the Nth frame and the (N + 1) th frame. Various methods can be applied to represent the motion vector. For example, the motion vector P at the coordinates (x, y) of the video data has a movement amount a in the x direction and b in the y direction. If the base vector in the x direction is Z x and the base vector in the y direction is Z y , it can be expressed by Equation 1.

Figure 2016090906
Figure 2016090906

ステップS507において取得部106は、ステップS506で算出した映像データの特徴量である動きベクトルを、映像データと配置とを関連付けて保存する。   In step S507, the acquisition unit 106 stores the motion vector, which is the feature amount of the video data calculated in step S506, in association with the video data and the arrangement.

ステップS508において取得部106は、入力した全ての映像データと配置との組み合わせについて、映像データの特徴量である動きベクトルの算出処理が完了したか否かを判定する。即ち、ステップS505で取得した処理対象の組み合わせLIST[i]が、ステップ503で取得したリストの最後のデータであるか否かを判定し、リストの最後のデータではないと判断した場合には、ステップS509へ進む。ステップS509において取得部106は、iをインクリメントし、処理対象の組み合わせを次の組み合わせに進める。一方、ステップS508において、全ての映像データと配置との組み合わせについての動きベクトルの算出処理が完了したと判定した場合には特徴量の算出処理を終了する。ここでは、i=23である場合に、リストの最後のデータである(ステップS606のYES)と判定し、組み合わせの選択処理を終了する。   In step S508, the acquisition unit 106 determines whether the calculation processing of the motion vector that is the feature amount of the video data has been completed for all combinations of the input video data and the arrangement. That is, it is determined whether or not the combination LIST [i] to be processed acquired in step S505 is the last data in the list acquired in step 503, and if it is determined that it is not the last data in the list, The process proceeds to step S509. In step S509, the acquisition unit 106 increments i and advances the combination to be processed to the next combination. On the other hand, if it is determined in step S508 that the motion vector calculation processing has been completed for all combinations of video data and arrangement, the feature amount calculation processing ends. Here, when i = 23, it is determined that the data is the last data in the list (YES in step S606), and the combination selection process is terminated.

以上のように、取得部106は、時間的に異なるNフレーム目の映像とN+1フレーム目の映像に基づいて、動きベクトルを映像データの特徴量として算出することができる。   As described above, the acquisition unit 106 can calculate the motion vector as the feature amount of the video data based on the Nth frame video and the N + 1th frame video that are temporally different.

尚、本実施形態において取得部106は、映像データの特徴量として動きベクトルを算出するが、これに限定されない。即ち、取得部106は、映像データの特徴量として、映像内のオブジェクトの複数のフレーム間での変化に関する情報を算出しても構わない。   In the present embodiment, the acquisition unit 106 calculates a motion vector as a feature amount of video data, but the present invention is not limited to this. In other words, the acquisition unit 106 may calculate information regarding changes between a plurality of frames of an object in the video as a feature amount of the video data.

次に、ステップS203において決定部107が映像データの配置を決定する処理についての詳細を、図7を用いて説明する。図7は、図2のステップS203における決定部107が、各入力部102〜105に入力された映像データの配置の決定方法を示すフローチャートである。   Next, details of the process in which the determination unit 107 determines the arrangement of the video data in step S203 will be described with reference to FIG. FIG. 7 is a flowchart illustrating a method for determining the arrangement of the video data input to the input units 102 to 105 by the determination unit 107 in step S203 of FIG.

ステップS701において決定部107は、ステップS505において取得部106によって算出及び保存された映像データの特徴量である動きベクトルを取得する。ここで、決定部107は、取得部106によって算出保存された、全ての映像データと配置との組み合わせにおける動きベクトルを取得する。   In step S701, the determination unit 107 acquires a motion vector that is a feature amount of the video data calculated and stored by the acquisition unit 106 in step S505. Here, the determination unit 107 acquires motion vectors in all combinations of video data and arrangement calculated and stored by the acquisition unit 106.

ステップS702において決定部107は、全ての映像データと配置との組み合わせのうち、各領域401〜404の境界領域に対応する画素の動きベクトルの類似度に関する情報を取得し保持する。   In step S <b> 702, the determination unit 107 acquires and holds information regarding the similarity between the motion vectors of pixels corresponding to the boundary regions of the regions 401 to 404 among all combinations of video data and arrangement.

ここで、ステップS702において決定部107によって取得される、各領域401〜404の境界領域に対応する動きベクトルの類似度の算出方法についての詳細を、図8を用いて説明する。図8は、各映像データの配置の境界領域における各画素の動きベクトルを示す図である。尚、図8は、図3に示した各映像データを、図4に示した表示領域に配置した場合の一例を示している。図8において、図4で示した領域及び図3で示した映像データと同一の領域及び映像データについては、同一の符号を付加し、説明を省略する。   Details of the method for calculating the similarity of the motion vectors corresponding to the boundary regions of the regions 401 to 404 acquired by the determination unit 107 in step S702 will be described with reference to FIG. FIG. 8 is a diagram showing a motion vector of each pixel in a boundary region of each video data arrangement. FIG. 8 shows an example in which each video data shown in FIG. 3 is arranged in the display area shown in FIG. 8, the same reference numerals are assigned to the same areas and video data as the areas shown in FIG. 4 and the video data shown in FIG. 3, and the description thereof is omitted.

801、802、803、804は、動きベクトルのベクトルを示す。各動きベクトル801〜804の矢印の終点はN+1フレーム目の画素位置を示し、矢印の始点はNフレーム目の画素位置を示す。   Reference numerals 801, 802, 803, and 804 denote motion vector vectors. The end point of the arrow of each motion vector 801 to 804 indicates the pixel position of the (N + 1) th frame, and the start point of the arrow indicates the pixel position of the Nth frame.

805は、各映像データの配置の境界の領域を示す。境界領域は、各領域401〜404において、他の領域と接する辺から所定の距離Tの間(T画素分)の領域に含まれる画素群を示す。ここで、本実施形態においてTは画素数で示すが、これに限定されず、境界領域を示す値であれば構わない。領域401(LT)は、領域403(RT)、及び領域402(LB)と接するため、領域403(RT)と接する領域401(LT)の右辺、及び領域402(LB)と接する領域401(LT)の下辺から、T画素分の領域が境界領域となる。同様に、領域403(RT)は、領域401(LT)、及び領域404(RB)と接するため、領域401(LT)と接する領域403(RT)の左辺、及び領域404(RB)と接する領域403(RT)の下辺からT画素分の領域が境界領域となる。   Reference numeral 805 denotes a boundary area of the arrangement of each video data. The boundary region indicates a pixel group included in a region between the sides in contact with the other regions and a predetermined distance T (for T pixels) in each of the regions 401 to 404. Here, in the present embodiment, T is represented by the number of pixels, but is not limited thereto, and may be a value indicating a boundary region. Since the region 401 (LT) is in contact with the region 403 (RT) and the region 402 (LB), the right side of the region 401 (LT) in contact with the region 403 (RT) and the region 401 (LT) in contact with the region 402 (LB) The region for T pixels from the lower side is a boundary region. Similarly, since the region 403 (RT) is in contact with the region 401 (LT) and the region 404 (RB), the left side of the region 403 (RT) in contact with the region 401 (LT) and the region 404 (RB) are in contact with each other. A region corresponding to T pixels from the lower side of 403 (RT) is a boundary region.

以下、一例として領域401(LT)と領域403(RT)との境界領域に対応する動きベクトルの類似度の算出方法について説明する。領域401(LT)と領域403(RT)とにおいて、それぞれ領域401(LT)の右辺と領域403(RT)の左辺とが境界として接している。そして、決定部107は、図8において太枠の矩形領域で示した領域401と領域403との境界領域の動きベクトルの差分値を算出する。   Hereinafter, as an example, a method for calculating the similarity of motion vectors corresponding to the boundary region between the region 401 (LT) and the region 403 (RT) will be described. In the region 401 (LT) and the region 403 (RT), the right side of the region 401 (LT) and the left side of the region 403 (RT) are in contact with each other as a boundary. Then, the determination unit 107 calculates the difference value of the motion vector in the boundary region between the region 401 and the region 403 indicated by the thick rectangular region in FIG.

まず、領域401(LT)の右辺側の境界領域の動きベクトルの総和SLTは、式3に示す数式を用いて算出できる。尚、式3において、入力された映像データの幅をw、高さをhとして、領域401の右辺側の境界領域の動きベクトルの総和SLTは、x座標でw−Tからwまで、y座標で0からhまでの範囲の各画素の動きベクトルを加算することで算出できる。また、領域403(RT)の左辺側の境界領域の動きベクトルの総和SRTも同様に算出することが可能である。 First, the sum SLT of motion vectors in the boundary region on the right side of the region 401 (LT) can be calculated using the equation shown in Equation 3. In Equation 3, the width S of the input video data is set to w and the height is set to h, and the total motion vector S LT of the boundary region on the right side of the region 401 is expressed by y-coordinate from w-T to w. It can be calculated by adding the motion vector of each pixel in the range from 0 to h in coordinates. A sum S RT the motion vectors of the left side of the boundary region of the region 403 (RT) also can be calculated similarly.

Figure 2016090906
Figure 2016090906

そして、領域401と領域403との間の境界領域(太枠で囲った部分)の動きベクトルの類似度は、式4で示すように、領域401の右辺側の境界領域の動きベクトルの総和SLTと、領域403の左辺側の境界領域の動きベクトルの総和SRTと差分で表せる。式4において、総和SLTと総和SRTとの差分が小さいほど、領域401と領域403との間の境界領域の動きベクトルの類似度が高く、総和SLTと総和SRTとの差分が大きいほど領域401と領域403との間の境界領域の動きベクトルの類似度が低いことを示す。
LT−SRT (式4)
ここで、本実施形態の図8において、806(楕円形)は映像データに含まれるオブジェクトを示す。そして、オブジェクト806がNフレーム目からN+1フレーム目において移動している場合、オブジェクト806の縁の部分における動きベクトルは0ではない値となり、オブジェクト806以外の領域では動きベクトル=0となる。即ち、抽出部(不図示)が抽出したオブジェクト(人、物)に関する情報に基づいて、境界領域内の当該オブジェクトの縁の部分における動きベクトルのみを領域401と領域403との間の境界領域の動きベクトルの類似度として用いても構わない。
Then, the similarity of the motion vectors in the boundary region (the portion surrounded by a thick frame) between the region 401 and the region 403 is expressed by the sum S of the motion vectors in the boundary region on the right side of the region 401 as shown in Expression 4. and LT, expressed by the sum S RT and differential motion vectors left side of the boundary region of the region 403. In Equation 4, the smaller the difference between the sum S RT the sum S LT is a high similarity of motion vectors of the boundary area between the region 401 and the region 403, a large difference between the sum S RT the sum S LT is It shows that the similarity of the motion vector in the boundary region between the region 401 and the region 403 is low.
S LT -S RT (Equation 4)
Here, in FIG. 8 of the present embodiment, reference numeral 806 (oval) indicates an object included in the video data. When the object 806 moves from the Nth frame to the (N + 1) th frame, the motion vector at the edge portion of the object 806 is a non-zero value, and the motion vector = 0 in the area other than the object 806. That is, based on the information about the object (person, thing) extracted by the extraction unit (not shown), only the motion vector at the edge portion of the object in the boundary region is obtained from the boundary region between the region 401 and the region 403. You may use as a similarity degree of a motion vector.

さらに、領域402(LB)の境界領域、及び領域401(RB)の境界領域についても同様に、動きベクトルの総和の算出が可能である。そして、全ての境界領域(図8の斜線部分)における動きベクトルの類似度は式5で表現できる。式5において、算出された値が小さいほど全ての境界領域における動きベクトルの類似度が高く、算出された値が大きいほど全ての境界領域における動きベクトルの類似度が低いことを示す。
(SLT−SRT)+(SLT−SLB)+(SRB−SRT)+(SRB−SLB) (式5)
図7のステップS702において決定部107は、上述した式を用いて算出された境界領域の動きベクトルの類似度を取得し保持する。尚、本実施形態において決定部107は、各式3〜5を用いて境界領域の動きベクトルの類似度を算出したが、これに限定されず他の計算方法を用いても構わない。
Further, the sum of motion vectors can be similarly calculated for the boundary region of the region 402 (LB) and the boundary region of the region 401 (RB). The similarity of motion vectors in all boundary regions (shaded portions in FIG. 8) can be expressed by Equation 5. In Equation 5, the smaller the calculated value is, the higher the similarity of the motion vectors in all the boundary regions is, and the larger the calculated value is, the lower the similarity of the motion vectors in all the boundary regions is.
(S LT -S RT) + ( S LT -S LB) + (S RB -S RT) + (S RB -S LB) ( Equation 5)
In step S702 in FIG. 7, the determination unit 107 acquires and holds the similarity between the motion vectors in the boundary area calculated using the above-described formula. In the present embodiment, the determination unit 107 calculates the similarity of the motion vectors in the boundary region using the equations 3 to 5. However, the present invention is not limited to this, and other calculation methods may be used.

ステップS703において決定部107は、ステップS702において取得及び保持された特徴量に関する情報に基づいて、各映像データの配置を決定する。即ち、本実施形態において決定部107は、入力された全ての映像データと配置との組み合わせのうち、最も動きベクトルの類似度が高い組み合わせを、各映像データの配置として決定する。即ち、本実施形態において決定部107は、ステップS702の式5に示す算出方法を用いて算出された値が一番小さくなる組み合わせを、各映像データの配置として決定する。   In step S703, the determination unit 107 determines the arrangement of each video data based on the information regarding the feature amount acquired and held in step S702. In other words, in the present embodiment, the determination unit 107 determines the combination having the highest similarity of motion vectors among the combinations of all input video data and arrangement as the arrangement of each video data. In other words, in the present embodiment, the determination unit 107 determines a combination having the smallest value calculated using the calculation method shown in Expression 5 of step S702 as the arrangement of each video data.

上述の図7の各ステップにより決定された映像データの配置を用いて映像データを合成し、表示することにより、入力された各映像データの特徴量に基づいて適切にレイアウトを設定することができる。   By synthesizing and displaying the video data using the arrangement of the video data determined in each step of FIG. 7 described above, the layout can be appropriately set based on the feature amount of each input video data. .

本実施形態により、複数に分割された映像を入力して表示を行う画像処理装置において、ユーザが意図したレイアウトで映像を用事することが可能である。即ち、合成画像の周囲(上下左右)に黒帯がある映画を分割した分割画像を合成する場合であっても、適切なレイアウトで合成することができ、黒帯が合成画像の中心部分に十字上に合成されてしまうことを防ぐことができる。以上のことから、本実施形態によりユーザが意図したレイアウトでコンテンツを出力することができるため、出力機器の設定変更、表示装置への入力端子の再接続、表示装置における表示位置の設定変更を行う必要がなくなる。   According to the present embodiment, in an image processing apparatus that inputs and displays a plurality of divided images, the images can be used in a layout intended by the user. In other words, even when a divided image obtained by dividing a movie having a black band around the combined image (up, down, left, and right) can be combined with an appropriate layout, the black band is crossed at the center of the combined image. It can be prevented from being synthesized on top. As described above, the content can be output in the layout intended by the user according to the present embodiment, so that the setting of the output device is changed, the input terminal is reconnected to the display device, and the setting of the display position on the display device is changed. There is no need.

(実施形態2)
上述した実施形態1の図1において、画像処理装置101は表示部109を有する構成であったが、表示部109が画像処理装置101の外部に構成されていても構わない。また、画像処理装置101の内部に全体制御部(不図示)を設け、全体制御部が画像処理装置101の各処理部に対して制御を行うようにしても構わない。例えば、全体制御部が取得部106に対して映像データの特徴量を取得するよう指示をし、取得部106が全体制御部からの指示に基づいて映像データの特徴量を取得する構成でも構わない。
(Embodiment 2)
In FIG. 1 of the first embodiment described above, the image processing apparatus 101 has the configuration including the display unit 109. However, the display unit 109 may be configured outside the image processing apparatus 101. Further, an overall control unit (not shown) may be provided inside the image processing apparatus 101 so that the overall control unit controls each processing unit of the image processing apparatus 101. For example, the configuration may be such that the overall control unit instructs the acquisition unit 106 to acquire the feature amount of the video data, and the acquisition unit 106 acquires the feature amount of the video data based on the instruction from the overall control unit. .

図1に示した各処理部はハードウェアでもって構成しているものとして上記実施形態では説明した。しかし、これらの図に示した各処理部で行う処理をコンピュータプログラムでもって構成しても良い。以下、図6を用いて本実施形態について説明する。図6は、上記各実施形態に係る画像処理装置に適用可能なコンピュータのハードウェアの構成例を示すブロック図である。   Each processing unit shown in FIG. 1 has been described in the above embodiment as being configured by hardware. However, the processing performed by each processing unit shown in these drawings may be configured by a computer program. Hereinafter, the present embodiment will be described with reference to FIG. FIG. 6 is a block diagram illustrating a configuration example of computer hardware applicable to the image processing apparatus according to each of the embodiments.

CPU601は、RAM602やROM603に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、上記各実施形態に係る画像処理装置が行うものとして上述した各処理を実行する。即ち、CPU601は、図6に示した各処理部として機能することになる。   The CPU 601 controls the entire computer using computer programs and data stored in the RAM 602 and the ROM 603, and executes each process described above as performed by the image processing apparatus according to each of the above embodiments. That is, the CPU 601 functions as each processing unit shown in FIG.

RAM602は、外部記憶装置606からロードされたコンピュータプログラムやデータ、I/F(インターフェイス)607を介して外部から取得したデータなどを一時的に記憶するためのエリアを有する。更に、RAM602は、CPU601が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM602は、例えば、ピクチャメモリとして割り当てたり、その他の各種のエリアを適宜提供したりすることができる。   The RAM 602 has an area for temporarily storing computer programs and data loaded from the external storage device 606, data acquired from the outside via an I / F (interface) 607, and the like. Further, the RAM 602 has a work area used when the CPU 601 executes various processes. That is, the RAM 602 can be allocated as, for example, a picture memory or can provide various other areas as appropriate.

ROM603には、本コンピュータの設定データや、ブートプログラムなどが格納されている。操作部604は、キーボードやマウスなどにより構成されており、本コンピュータのユーザが操作することで、各種の指示をCPU601に対して入力することができる。出力部605は、CPU601による処理結果を表示する。また出力部605は例えば液晶ディスプレイで構成される。   The ROM 603 stores setting data and a boot program for the computer. The operation unit 604 is configured by a keyboard, a mouse, and the like, and can input various instructions to the CPU 601 by operation of a user of the computer. The output unit 605 displays the processing result by the CPU 601. Further, the output unit 605 is constituted by a liquid crystal display, for example.

外部記憶装置606は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置606には、OS(オペレーティングシステム)や、図6に示した各部の機能をCPU601に実現させるためのコンピュータプログラムが保存されている。更には、外部記憶装置606には、処理対象としての各画像データが保存されていても良い。   The external storage device 606 is a mass information storage device represented by a hard disk drive device. The external storage device 606 stores an OS (Operating System) and computer programs for causing the CPU 601 to realize the functions of the units illustrated in FIG. Furthermore, each image data as a processing target may be stored in the external storage device 606.

外部記憶装置606に保存されているコンピュータプログラムやデータは、CPU601による制御に従って適宜、RAM602にロードされ、CPU601による処理対象となる。I/F607には、LANやインターネット等のネットワーク、投影装置や表示装置などの他の機器を接続することができ、本コンピュータはこのI/F607を介して様々な情報を取得したり、送出したりすることができる。608は上述の各部を繋ぐバスである。   Computer programs and data stored in the external storage device 606 are appropriately loaded into the RAM 602 under the control of the CPU 601 and are processed by the CPU 601. The I / F 607 can be connected to a network such as a LAN or the Internet, other devices such as a projection device or a display device, and the computer can acquire and send various information via the I / F 607. Can be. Reference numeral 608 denotes a bus connecting the above-described units.

上述の構成からなる作動は前述のフローチャートで説明した処理をCPU601が中心となってその制御を行う。   The operation having the above-described configuration is controlled by the CPU 601 centering on the processing described in the above flowchart.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 画像処理装置
102 第一の入力部
103 第二の入力部
104 第三の入力部
105 第四の入力部
106 取得部
107 決定部
108 表示制御部
109 表示部
DESCRIPTION OF SYMBOLS 101 Image processing apparatus 102 1st input part 103 2nd input part 104 3rd input part 105 4th input part 106 Acquisition part 107 Determination part 108 Display control part 109 Display part

Claims (8)

映像を分割した複数の部分映像を合成する画像処理装置であって、
第1の部分映像を入力する第1の入力手段と、
第2の部分映像を入力する第2の入力手段と、
前記第1の部分映像と前記第2の部分映像とを合成する場合の境界領域における特徴量であって、時間的に異なる複数の画像に基づく特徴量を取得する取得手段と、
前記取得手段によって取得された特徴量に基づいて、前記第1の部分映像と前記第2の部分映像とを合成する場合のレイアウトで、前記映像を表示するよう制御する制御手段と
を有することを特徴とする画像処理装置。
An image processing device for combining a plurality of partial videos obtained by dividing a video,
First input means for inputting a first partial video;
Second input means for inputting a second partial video;
Acquisition means for acquiring feature quantities in a boundary region when combining the first partial video and the second partial video, and based on a plurality of temporally different images;
Control means for controlling to display the video in a layout when the first partial video and the second partial video are combined based on the feature amount acquired by the acquisition unit. A featured image processing apparatus.
前記取得手段は、前記特徴量として前記境界領域における動きベクトルに関する情報を取得し、
前記制御手段は、前記取得手段によって取得された前記動きベクトルに関する情報に基づいて、前記レイアウトで前記映像を表示することを特徴とする請求項1に記載の画像処理装置。
The acquisition unit acquires information on a motion vector in the boundary region as the feature amount,
The image processing apparatus according to claim 1, wherein the control unit displays the video in the layout based on information on the motion vector acquired by the acquisition unit.
前記取得手段は、前記特徴量とし前記境界領域における動きベクトルの類似度に関する情報を取得し、
前記制御手段は、前記取得手段によって取得された前記動きベクトルの類似度に関する情報に基づいて、前記レイアウトで前記映像を表示することを特徴とする請求項1又は請求項2に記載の画像処理装置。
The acquisition means acquires information on the similarity between motion vectors in the boundary region as the feature amount,
The image processing apparatus according to claim 1, wherein the control unit displays the video in the layout based on information on the similarity of the motion vectors acquired by the acquisition unit. .
さらに、前記レイアウトに基づいて、前記第1の部分映像と前記第2の部分映像とを合成する合成手段を有することを特徴とする請求項1乃至請求項3の何れか一項に記載の画像処理装置。   The image according to any one of claims 1 to 3, further comprising a combining unit that combines the first partial video and the second partial video based on the layout. Processing equipment. さらに、前記映像に含まれるオブジェクトを抽出する抽出手段を有し、
前記取得手段は、前記抽出手段によって抽出された前記オブジェクトに基づいて、前記特徴量を取得することを特徴とする請求項1乃至請求項4のいずれか一項に記載の画像処理装置。
Furthermore, it has an extracting means for extracting an object included in the video,
The image processing apparatus according to claim 1, wherein the acquisition unit acquires the feature amount based on the object extracted by the extraction unit.
前記取得手段は、前記抽出手段によって抽出された前記オブジェクトの縁における動きベクトルを前記特徴量として取得することを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the acquisition unit acquires a motion vector at an edge of the object extracted by the extraction unit as the feature amount. 映像を分割した複数の部分映像を合成する画像処理方法であって、
第1の部分映像を入力する第1の入力工程と、
第2の部分映像を入力する第2の入力工程と、
前記第1の部分映像と前記第2の部分映像とを合成する場合の境界領域における特徴量を取得する取得工程と、
前記取得工程によって取得された特徴量に基づいて、前記第1の部分映像と前記第2の部分映像とを合成する場合のレイアウトで、前記映像を表示するよう制御する制御工程と
を有することを特徴とする画像処理方法。
An image processing method for combining a plurality of partial videos obtained by dividing a video,
A first input step of inputting a first partial video;
A second input step of inputting a second partial video;
An acquisition step of acquiring a feature amount in a boundary region when combining the first partial video and the second partial video;
And a control step of controlling to display the video in a layout when the first partial video and the second partial video are synthesized based on the feature amount acquired in the acquisition step. A featured image processing method.
コンピュータを、請求項1乃至請求項6のいずれか一項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus as described in any one of Claims 1 thru | or 6.
JP2014227618A 2014-11-08 2014-11-08 Image processor, image processing method, and program Pending JP2016090906A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014227618A JP2016090906A (en) 2014-11-08 2014-11-08 Image processor, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014227618A JP2016090906A (en) 2014-11-08 2014-11-08 Image processor, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2016090906A true JP2016090906A (en) 2016-05-23

Family

ID=56019587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014227618A Pending JP2016090906A (en) 2014-11-08 2014-11-08 Image processor, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2016090906A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212613A (en) * 2016-05-26 2017-11-30 キヤノン株式会社 Electronic apparatus, display unit, and display control method
JP2018037765A (en) * 2016-08-30 2018-03-08 パナソニックIpマネジメント株式会社 Image signal processor
JP2019211519A (en) * 2018-05-31 2019-12-12 シャープ株式会社 Display device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212613A (en) * 2016-05-26 2017-11-30 キヤノン株式会社 Electronic apparatus, display unit, and display control method
JP2018037765A (en) * 2016-08-30 2018-03-08 パナソニックIpマネジメント株式会社 Image signal processor
JP2019211519A (en) * 2018-05-31 2019-12-12 シャープ株式会社 Display device
JP7126382B2 (en) 2018-05-31 2022-08-26 シャープ株式会社 Display device

Similar Documents

Publication Publication Date Title
CN110058685B (en) Virtual object display method and device, electronic equipment and computer-readable storage medium
JP6167703B2 (en) Display control device, program, and recording medium
KR20200049833A (en) Depth estimation methods and apparatus, electronic devices, programs and media
US20140321771A1 (en) Techniques for real-time clearing and replacement of objects
US9697581B2 (en) Image processing apparatus and image processing method
US10867365B2 (en) Image processing apparatus, image processing method, and image processing system for synthesizing an image
JP2015195571A5 (en) Image processing apparatus and control method thereof
US20180101731A1 (en) Automatic positioning of a video frame in a collage cell
US8948502B2 (en) Image processing method, and image processor
JP2018067106A (en) Image processing system, image processing program, and image processing method
JP2016090906A (en) Image processor, image processing method, and program
JP2011039801A (en) Apparatus and method for processing image
JP4686624B2 (en) Information processing apparatus, image processing method, and program
KR101339785B1 (en) Apparatus and method for parallel image processing and apparatus for control feature computing
JP2009042897A (en) Image processing unit and image processing method
JP4596929B2 (en) Background image generation apparatus and background image generation program
EP3096291B1 (en) Method and device for bounding an object in a video
US10861135B2 (en) Image processing apparatus, non-transitory computer-readable recording medium storing computer program, and image processing method
JPWO2018087856A1 (en) Video composition apparatus and video composition method
CN110692235B (en) Image processing apparatus, image processing program, and image processing method
JP2012200287A (en) X-ray imaging system, method for controlling x-ray imaging system, information processing device, x-ray imaging apparatus and program
JP6443505B2 (en) Program, display control apparatus, and display control method
US20150229848A1 (en) Method and system for generating an image including optically zoomed and digitally zoomed regions
US20180068477A1 (en) Display method, display device, and non-transitory computer-readable recording medium
CN112822418B (en) Video processing method and device, storage medium and electronic equipment