JP2016090906A - Image processor, image processing method, and program - Google Patents
Image processor, image processing method, and program Download PDFInfo
- Publication number
- JP2016090906A JP2016090906A JP2014227618A JP2014227618A JP2016090906A JP 2016090906 A JP2016090906 A JP 2016090906A JP 2014227618 A JP2014227618 A JP 2014227618A JP 2014227618 A JP2014227618 A JP 2014227618A JP 2016090906 A JP2016090906 A JP 2016090906A
- Authority
- JP
- Japan
- Prior art keywords
- video
- video data
- image processing
- input
- partial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関し、特に、複数に分割された映像を入力して表示する映像表示技術に関する。 The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to a video display technique for inputting and displaying a video divided into a plurality of parts.
高解像度の映像を表示する映像表示装置では、映像を入力するために、複数本の入力インターフェイスを用いることがある。例えば、4本のHDMI(登録商標)(High−Definition Multimedia Interface)ケーブルを用いて1920x1080ピクセル、60Hzの信号を同時入力し、4K2Kの動画(コンテンツ)の表示を行う場合について説明する。尚、4K2Kの動画とは、フルハイビジョン(解像度1920×1080ピクセル)の4倍の解像度、即ち横4000×縦2000画素前後の解像度に対応した映像を示す。このような高解像度のコンテンツを、送信側(映像配信装置)は複数に分割して送信し、受信側(映像表示装置)は複数に分割されたコンテンツを合成して表示する。そして、受信側では、コンテンツを合成して表示する場合に、分割されたコンテンツのうちのどの入力をどの位置に表示するか、正しく設定する必要がある。 In a video display device that displays a high-resolution video, a plurality of input interfaces may be used to input the video. For example, a case where a 1920 × 1080 pixel, 60 Hz signal is simultaneously input using four HDMI (High-Definition Multimedia Interface) cables to display a 4K2K moving image (content) will be described. Note that the 4K2K moving image indicates an image corresponding to a resolution four times that of full high-definition (resolution 1920 × 1080 pixels), that is, a resolution of about 4000 × 2000 pixels. Such a high-resolution content is transmitted by being divided into a plurality of parts on the transmission side (video distribution apparatus), and the content divided into a plurality of parts is displayed on the reception side (video display apparatus). On the receiving side, when the contents are combined and displayed, it is necessary to correctly set which input of the divided contents is displayed at which position.
従来、複数に分割された画像を合成する技術として、大判サイズの原稿を複数の部分画像に分割して読み取り合成する装置において、各部分画像の縁部の画像濃度に基づき各部分画像を合成する際の合成画像内での配置位置を決定する技術がある(特許文献1)。 Conventionally, as a technique for synthesizing a plurality of divided images, an apparatus for reading and synthesizing a large-size original by dividing it into a plurality of partial images, synthesizes the partial images based on the image density at the edge of each partial image. There is a technique for determining an arrangement position in a composite image at the time (Patent Document 1).
上述した特許文献1は、各部分画像の縁部の画像濃度に基づいて各部分画像の合成画像内での配置位置を決定するが、例えば、合成画像の周囲(上下左右)に黒帯がある映画を分割した分割画像を合成する場合、意図しないレイアウトになる可能性がある。即ち、黒帯が、合成画像の周囲ではなく、合成画像の中心部分に十字上に合成されてしまう場合がある。
In
上記の課題を解決するため、本発明の画像処理装置は、以下の構成を有する。即ち、映像を分割した複数の部分映像を合成する画像処理装置であって、第1の部分映像を入力する第1の入力手段と、第2の部分映像を入力する第2の入力手段と、前記第1の部分映像と前記第2の部分映像とを合成する場合の境界領域における特徴量であって、時間的に異なる複数の画像に基づく特徴量を取得する取得手段と、前記取得手段によって取得された特徴量に基づいて、前記第1の部分映像と前記第2の部分映像とを合成する場合のレイアウトで、前記映像を表示するよう制御する制御手段とを有する。 In order to solve the above problems, an image processing apparatus of the present invention has the following configuration. That is, an image processing apparatus that synthesizes a plurality of partial videos obtained by dividing a video, a first input unit that inputs a first partial video, a second input unit that inputs a second partial video, An acquisition unit that acquires a feature amount in a boundary region when combining the first partial video and the second partial video, and based on a plurality of temporally different images, and the acquisition unit And control means for controlling to display the video in a layout when the first partial video and the second partial video are synthesized based on the acquired feature amount.
複数に分割された映像を入力して表示を行う画像処理装置において、ユーザが意図したレイアウトで映像を表示することが可能となる。 In an image processing apparatus that inputs and displays a plurality of divided images, the images can be displayed in a layout intended by the user.
以下、添付の図面を参照して、本発明を実施形態の一例に基づいて詳細に説明する。尚、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。 Hereinafter, the present invention will be described in detail based on an example of an embodiment with reference to the accompanying drawings. In addition, the structure shown in the following embodiment is only an example, and is not limited to the illustrated structure.
(実施形態1)
以下、本実施形態に係る画像処理装置について、図面を用いて説明する。まず、図1は、本実施形態の画像処理装置の構成を示すブロック図である。
(Embodiment 1)
Hereinafter, an image processing apparatus according to the present embodiment will be described with reference to the drawings. First, FIG. 1 is a block diagram showing the configuration of the image processing apparatus of the present embodiment.
図1において本実施形態の画像処理装置101は、第一の入力部102、第二の入力部103、第三の入力部104、第四の入力部105、取得部106、決定部107、表示制御部108、及び表示部109を有する。
In FIG. 1, an
第一の入力部102、第二の入力部103、第三の入力部104、及び第四の入力部105は、画像処理装置101の外部からの映像データを受け付け、取得部106へと映像データを出力する。映像データは、例えばHDMI(登録商標)(High−Definition Multimedia Interface)やDisplay Port等の映像(画像)を出力するインターフェイスを介して画像処理装置101に入力される映像データである。そして、本実施形態において画像処理装置101は、解像度の大きい1つの映像のコンテンツ(映像データ)を分割した映像データ(部分映像)を、複数本のインターフェイスを介して同時に入力するものとする。取得部106は、第一の入力部102、第二の入力部103、第三の入力部104、及び第四の入力部105から各映像データ(部分映像)を受け取り、各映像データから映像データの特徴量に関する情報を取得(算出)する。尚、映像データの特徴量の算出方法についての詳細は後述する。
The
決定部107は、取得部106が取得した映像データの特徴量に基づいて、第一の入力部102、第二の入力部103、第三の入力部104、及び第四の入力部105から入力された各映像データの配置を決定する。尚、映像データの配置の決定方法についての詳細は後述する。
The
表示制御部108は、決定部107によって決定された映像データの配置に基づいて、第一の入力部102、第二の入力部103、第三の入力部104、及び第四の入力部105からの映像データを合成し、表示部109に表示するよう制御する。
The
表示部109は、表示制御部108の制御に基づいて、各入力部102〜105に入力された映像データを表示する。
The
次に、本実施形態における画像処理装置101の処理の流れを、図2を用いて説明する。図2は、本実施形態において、映像データを分割した4つの映像データが画像処理装置101に入力された場合に画像処理装置で実行される処理の手順を示すフローチャートである。図2では、表示部109が映像データを表示するまでの画像処理装置101の各処理部における処理の手順を示す。
Next, a processing flow of the
ステップS201において、第一の入力部102、第二の入力部103、第三の入力部104、及び第四の入力部105は、画像処理装置101の外部から映像データをそれぞれ入力し、入力された各映像データを取得部106へ出力する。
In step S <b> 201, the
ステップS202において取得部106は、各入力部102〜105から出力された映像データに基づいて映像データの特徴量を算出し、算出した特徴量に関する情報と各映像データとを決定部107へ出力する。尚、取得部106が映像データの特徴量を算出する処理についての詳細は後述する。また、本実施形態のステップS202において、取得部106が映像データの特徴量を算出するが、これに限定されず、画像処理装置101の内部又は外部の他の処理部が算出した映像データの特徴量を、取得部106が取得する構成でも構わない。
In step S <b> 202, the
ステップS203において決定部107は、ステップS202において取得部106によって算出された特徴量に関する情報に基づき、各入力部102〜105に入力された映像データの配置をそれぞれ決定する。そして決定部107は、決定した配置に関する情報と、各入力部102〜105に入力された映像データとを、表示制御部108へ出力する。ここで例えば、配置に関する情報は、各入力部102〜105に入力された映像データごとに、表示部109の表示領域中の「左上」、「右上」、「左下」、「右下」というようにそれぞれ表現することができる。また、表示領域(表示画面)の左上端を原点とし、原点からの右方向をx、下方向をyとして、各映像データの表示位置及びサイズ(幅と高さ)を、座標(x、y)を用いて表現しても構わない。尚、決定部107が映像データの配置を決定する処理についての詳細は後述する。
In step S203, the
ステップS204において表示制御部108は、ステップS202において決定部107によって決定された配置に関する情報に基づいて映像データを合成し、表示する映像データを生成する。さらに、表示制御部108は、生成された映像データを表示部109に表示するよう制御する。
In step S204, the
次に、本実施形態のステップS202における、取得部106による映像データの特徴量の算出方法ついて、図3及び図4を用いて詳細に説明する。
Next, a method for calculating the feature amount of the video data by the
図3は、第一の入力部102、第二の入力部103、第三の入力部104、第四の入力部105から取得部106に入力された映像データの一例を示す図である。
FIG. 3 is a diagram illustrating an example of video data input from the
301、302、303、及び304は、各入力部102〜105から取得部106に入力された映像データの第N番目のフレームをそれぞれ示す。305、306、307、及び308は、各入力部102〜105から取得部106に入力された映像データの第N+1番目のフレームをそれぞれ示す。ここで、映像301と映像305は、第一の入力部102から取得部106に入力された映像データに対応し、映像302と映像306は第二の入力部103から取得部106に入力された映像データに対応する。また、映像303と映像307は、第三の入力部104から取得部106に入力された映像データに対応し、映像304と映像307は第四の入力部105から取得部106に入力された映像データに対応する。
また、図4は、表示部109が映像データを表示する表示領域の一例を示す図である。401は表示領域の左上の位置を示す領域(LT)であり、402は表示領域の左下の位置を示す領域(LB)である。また、403は表示領域の右上の位置を示す領域(RT)であり、404は表示領域の右下の位置を示す領域(RB)である。
FIG. 4 is a diagram illustrating an example of a display area in which the
図5は、図2のステップ202において取得部106で実行される、映像データの特徴量の算出処理の手順を示すフローチャートである。本実施形態において取得部106は、映像データの特徴量として動きベクトルを算出するものとする。
FIG. 5 is a flowchart showing the procedure of the video data feature quantity calculation process executed by the
ステップS501において取得部106は、各入力部102〜105から入力された、再生順序がNフレーム目の映像データをメモリに記録(保存)する。ここで、Nフレーム目の映像データは、図3に示す各映像301〜304である。
In step S <b> 501, the
次に、ステップS502において取得部106は、各入力部102〜105から入力されたN+1フレーム目の映像データを記録する。ここで、N+1フレーム目の映像データは、図3に示す各映像305〜308に対応している。尚、本実施形態はステップS501とステップS502とに限定されず、取得部106は、Nフレーム目の映像データとN+1フレーム目の映像データとを用いて映像データの特徴量を算出するものに限らない。即ち、取得部106は、ステップS501とステップS502とを1つのステップで行っても構わないし、複数のフレームの映像データを用いて映像データの特徴量を算出するものであればよい。
Next, in step S502, the
次に、ステップS503において取得部106は、入力された映像データの数(入力数)に基づいて、各映像データと配置との組み合わせを示すリストを取得する。尚、取得部106は当該リストを算出(作成)し、算出したリストを取得しても構わないし、取得したリストを保持する構成でも構わない。本実施形態において、映像データは4つの入力部から接続されるため、取得部106によって算出されるリストの要素の最大数は24となり、LIST[i]=(LT,LB,RT,RB)を用いて以下のような組み合わせとなる。尚、上述したように、第一の入力部102、第二の入力部103、第三の入力部104、第四の入力部105のそれぞれから入力された映像データを1,2,3,4としてリストを示す。
LIST[0]=(1,2,3,4)、LIST[1]=(1,2,4,3)、
LIST[2]=(1,3,4,2)、LIST[3]=(1,3,2,4)、
LIST[4]=(1,4,2,3)、LIST[5]=(1,4,3,2)
・・・
LIST[18]=(4,1,2,3)、LIST[19]=(4,1,3,2)、
LIST[20]=(4,2,1,3)、LIST[21]=(4,2,3,1)、
LIST[22]=(4,3,1,2)、LIST[23]=(4,3,2,1)
上述のように、取得部106によって算出されるリストをLIST[i]=(LT,LB,RT,RB)を用いて示すことができる。例えば、LIST[3]=(1,3,2,4)は、表示領域の左上(LT)に第一の入力部102の入力(1)を、左下(LB)に第三の入力部104の入力(3)を配置することを示す。さらに、右上(RT)に第二の入力部103の入力(2)を、右下(RB)に第四の入力部105の入力(4)を配置することを示す。
Next, in step S503, the
LIST [0] = (1,2,3,4), LIST [1] = (1,2,4,3),
LIST [2] = (1, 3, 4, 2), LIST [3] = (1, 3, 2, 4),
LIST [4] = (1, 4, 2, 3), LIST [5] = (1, 4, 3, 2)
...
LIST [18] = (4, 1, 2, 3), LIST [19] = (4, 1, 3, 2),
LIST [20] = (4,2,1,3), LIST [21] = (4,2,3,1),
LIST [22] = (4,3,1,2), LIST [23] = (4,3,2,1)
As described above, the list calculated by the
尚、本実施形態において取得部106は、入力された映像データとその配置の全ての組み合わせについて特徴量を算出する。また、映像データと配置との組み合わせの数は、第一の入力部102、第二の入力部103、第三の入力部104、第四の入力部105のそれぞれから入力された映像データを1,2,3,4とすると4元集合から4つを選ぶ順列の算出結果と等しい。尚、入力された映像データの数がn個の場合の組み合わせの総数は、式2で算出される。即ち、入力された映像データが4つの場合の組み合わせの総数は、4P4=4!=4×3×2×1=24通りである。
nPn (式2)
また、上述では4元集合から4個の元を取り出す順列について説明したがこれに限定されず、n元集合からk個の元を取り出す順列にも本実施形態は適応可能である。また、n元集合からk個の元を取り出す順列の算出アルゴリズムは、一般的な公知技術であるので説明を省略する。
In the present embodiment, the
n P n (Formula 2)
In the above description, the permutation for extracting four elements from the quaternary set has been described. However, the present invention is not limited to this, and the present embodiment is applicable to a permutation for extracting k elements from the n-element set. A permutation calculation algorithm for extracting k elements from an n-element set is a general known technique, and thus description thereof is omitted.
次に、ステップS504において取得部106は、初期値(i=0)を設定する。
Next, in step S504, the
ステップS505において取得部106は、ステップS501及びステップS502において記録した映像データと、表示領域における配置との組み合わせのうち、処理対象の組み合わせ(特徴量を算出する対象となる組み合わせ)を取得(決定)する。取得部106は、入力された映像データと配置との組み合わせを選択するよう指示する情報(以下、選択命令)を受け付ける。そして取得部106は、取得した選択命令に基づいて、ステップS503で取得したリストからとして、処理対象の組み合わせLIST[i]=(LB,LT,RB,RT)を決定する。尚、ステップS504において初期値が設定された直後のステップS505の処理では、取得部106は処理対象の組み合わせとしてLIST[0]を決定する。
In step S505, the
ステップS506において取得部106は、ステップS505で取得した処理対象の組み合わせに基づいて、映像データの特徴量を算出する。即ち、本実施形態において取得部106は、映像データの特徴量としてNフレーム目の映像データとN+1フレーム目の映像データにおける動きベクトルを算出する。尚、動きベクトルの算出方法には限定されない。一般的に用いられている動きベクトルの算出方法としては、ブロックマッチング法がある。ブロックマッチング法は1フレームの映像データを格子状のブロックに分割し、ブロックごとにそのフレームとは時間的に異なるフレームにおける探索範囲内の映像データとの相関を取ることにより動きベクトルを求めるものである。本実施形態において取得部106は、Nフレーム目の映像データとN+1フレーム目の映像データとから、動きベクトルを算出する。取得部106は、N+1フレーム目の映像データの全ての画素について動きベクトル(ベクトル値)を算出し、Nフレーム目からN+1フレーム目の間において各画素がどこに移動したかを示すベクトルを算出する。尚、動きベクトルの表し方は種々の方法が適用可能であり、例えば、映像データの座標(x,y)における動きベクトルPは、移動量がx方向にa、y方向にbである場合、x方向の基底ベクトルをZx、y方向の基底ベクトルをZyとすると式1で表すことができる。
In step S506, the
ステップS507において取得部106は、ステップS506で算出した映像データの特徴量である動きベクトルを、映像データと配置とを関連付けて保存する。
In step S507, the
ステップS508において取得部106は、入力した全ての映像データと配置との組み合わせについて、映像データの特徴量である動きベクトルの算出処理が完了したか否かを判定する。即ち、ステップS505で取得した処理対象の組み合わせLIST[i]が、ステップ503で取得したリストの最後のデータであるか否かを判定し、リストの最後のデータではないと判断した場合には、ステップS509へ進む。ステップS509において取得部106は、iをインクリメントし、処理対象の組み合わせを次の組み合わせに進める。一方、ステップS508において、全ての映像データと配置との組み合わせについての動きベクトルの算出処理が完了したと判定した場合には特徴量の算出処理を終了する。ここでは、i=23である場合に、リストの最後のデータである(ステップS606のYES)と判定し、組み合わせの選択処理を終了する。
In step S508, the
以上のように、取得部106は、時間的に異なるNフレーム目の映像とN+1フレーム目の映像に基づいて、動きベクトルを映像データの特徴量として算出することができる。
As described above, the
尚、本実施形態において取得部106は、映像データの特徴量として動きベクトルを算出するが、これに限定されない。即ち、取得部106は、映像データの特徴量として、映像内のオブジェクトの複数のフレーム間での変化に関する情報を算出しても構わない。
In the present embodiment, the
次に、ステップS203において決定部107が映像データの配置を決定する処理についての詳細を、図7を用いて説明する。図7は、図2のステップS203における決定部107が、各入力部102〜105に入力された映像データの配置の決定方法を示すフローチャートである。
Next, details of the process in which the
ステップS701において決定部107は、ステップS505において取得部106によって算出及び保存された映像データの特徴量である動きベクトルを取得する。ここで、決定部107は、取得部106によって算出保存された、全ての映像データと配置との組み合わせにおける動きベクトルを取得する。
In step S701, the
ステップS702において決定部107は、全ての映像データと配置との組み合わせのうち、各領域401〜404の境界領域に対応する画素の動きベクトルの類似度に関する情報を取得し保持する。
In step S <b> 702, the
ここで、ステップS702において決定部107によって取得される、各領域401〜404の境界領域に対応する動きベクトルの類似度の算出方法についての詳細を、図8を用いて説明する。図8は、各映像データの配置の境界領域における各画素の動きベクトルを示す図である。尚、図8は、図3に示した各映像データを、図4に示した表示領域に配置した場合の一例を示している。図8において、図4で示した領域及び図3で示した映像データと同一の領域及び映像データについては、同一の符号を付加し、説明を省略する。
Details of the method for calculating the similarity of the motion vectors corresponding to the boundary regions of the
801、802、803、804は、動きベクトルのベクトルを示す。各動きベクトル801〜804の矢印の終点はN+1フレーム目の画素位置を示し、矢印の始点はNフレーム目の画素位置を示す。
805は、各映像データの配置の境界の領域を示す。境界領域は、各領域401〜404において、他の領域と接する辺から所定の距離Tの間(T画素分)の領域に含まれる画素群を示す。ここで、本実施形態においてTは画素数で示すが、これに限定されず、境界領域を示す値であれば構わない。領域401(LT)は、領域403(RT)、及び領域402(LB)と接するため、領域403(RT)と接する領域401(LT)の右辺、及び領域402(LB)と接する領域401(LT)の下辺から、T画素分の領域が境界領域となる。同様に、領域403(RT)は、領域401(LT)、及び領域404(RB)と接するため、領域401(LT)と接する領域403(RT)の左辺、及び領域404(RB)と接する領域403(RT)の下辺からT画素分の領域が境界領域となる。
以下、一例として領域401(LT)と領域403(RT)との境界領域に対応する動きベクトルの類似度の算出方法について説明する。領域401(LT)と領域403(RT)とにおいて、それぞれ領域401(LT)の右辺と領域403(RT)の左辺とが境界として接している。そして、決定部107は、図8において太枠の矩形領域で示した領域401と領域403との境界領域の動きベクトルの差分値を算出する。
Hereinafter, as an example, a method for calculating the similarity of motion vectors corresponding to the boundary region between the region 401 (LT) and the region 403 (RT) will be described. In the region 401 (LT) and the region 403 (RT), the right side of the region 401 (LT) and the left side of the region 403 (RT) are in contact with each other as a boundary. Then, the
まず、領域401(LT)の右辺側の境界領域の動きベクトルの総和SLTは、式3に示す数式を用いて算出できる。尚、式3において、入力された映像データの幅をw、高さをhとして、領域401の右辺側の境界領域の動きベクトルの総和SLTは、x座標でw−Tからwまで、y座標で0からhまでの範囲の各画素の動きベクトルを加算することで算出できる。また、領域403(RT)の左辺側の境界領域の動きベクトルの総和SRTも同様に算出することが可能である。
First, the sum SLT of motion vectors in the boundary region on the right side of the region 401 (LT) can be calculated using the equation shown in Equation 3. In Equation 3, the width S of the input video data is set to w and the height is set to h, and the total motion vector S LT of the boundary region on the right side of the
そして、領域401と領域403との間の境界領域(太枠で囲った部分)の動きベクトルの類似度は、式4で示すように、領域401の右辺側の境界領域の動きベクトルの総和SLTと、領域403の左辺側の境界領域の動きベクトルの総和SRTと差分で表せる。式4において、総和SLTと総和SRTとの差分が小さいほど、領域401と領域403との間の境界領域の動きベクトルの類似度が高く、総和SLTと総和SRTとの差分が大きいほど領域401と領域403との間の境界領域の動きベクトルの類似度が低いことを示す。
SLT−SRT (式4)
ここで、本実施形態の図8において、806(楕円形)は映像データに含まれるオブジェクトを示す。そして、オブジェクト806がNフレーム目からN+1フレーム目において移動している場合、オブジェクト806の縁の部分における動きベクトルは0ではない値となり、オブジェクト806以外の領域では動きベクトル=0となる。即ち、抽出部(不図示)が抽出したオブジェクト(人、物)に関する情報に基づいて、境界領域内の当該オブジェクトの縁の部分における動きベクトルのみを領域401と領域403との間の境界領域の動きベクトルの類似度として用いても構わない。
Then, the similarity of the motion vectors in the boundary region (the portion surrounded by a thick frame) between the
S LT -S RT (Equation 4)
Here, in FIG. 8 of the present embodiment, reference numeral 806 (oval) indicates an object included in the video data. When the
さらに、領域402(LB)の境界領域、及び領域401(RB)の境界領域についても同様に、動きベクトルの総和の算出が可能である。そして、全ての境界領域(図8の斜線部分)における動きベクトルの類似度は式5で表現できる。式5において、算出された値が小さいほど全ての境界領域における動きベクトルの類似度が高く、算出された値が大きいほど全ての境界領域における動きベクトルの類似度が低いことを示す。
(SLT−SRT)+(SLT−SLB)+(SRB−SRT)+(SRB−SLB) (式5)
図7のステップS702において決定部107は、上述した式を用いて算出された境界領域の動きベクトルの類似度を取得し保持する。尚、本実施形態において決定部107は、各式3〜5を用いて境界領域の動きベクトルの類似度を算出したが、これに限定されず他の計算方法を用いても構わない。
Further, the sum of motion vectors can be similarly calculated for the boundary region of the region 402 (LB) and the boundary region of the region 401 (RB). The similarity of motion vectors in all boundary regions (shaded portions in FIG. 8) can be expressed by Equation 5. In Equation 5, the smaller the calculated value is, the higher the similarity of the motion vectors in all the boundary regions is, and the larger the calculated value is, the lower the similarity of the motion vectors in all the boundary regions is.
(S LT -S RT) + ( S LT -S LB) + (S RB -S RT) + (S RB -S LB) ( Equation 5)
In step S702 in FIG. 7, the
ステップS703において決定部107は、ステップS702において取得及び保持された特徴量に関する情報に基づいて、各映像データの配置を決定する。即ち、本実施形態において決定部107は、入力された全ての映像データと配置との組み合わせのうち、最も動きベクトルの類似度が高い組み合わせを、各映像データの配置として決定する。即ち、本実施形態において決定部107は、ステップS702の式5に示す算出方法を用いて算出された値が一番小さくなる組み合わせを、各映像データの配置として決定する。
In step S703, the
上述の図7の各ステップにより決定された映像データの配置を用いて映像データを合成し、表示することにより、入力された各映像データの特徴量に基づいて適切にレイアウトを設定することができる。 By synthesizing and displaying the video data using the arrangement of the video data determined in each step of FIG. 7 described above, the layout can be appropriately set based on the feature amount of each input video data. .
本実施形態により、複数に分割された映像を入力して表示を行う画像処理装置において、ユーザが意図したレイアウトで映像を用事することが可能である。即ち、合成画像の周囲(上下左右)に黒帯がある映画を分割した分割画像を合成する場合であっても、適切なレイアウトで合成することができ、黒帯が合成画像の中心部分に十字上に合成されてしまうことを防ぐことができる。以上のことから、本実施形態によりユーザが意図したレイアウトでコンテンツを出力することができるため、出力機器の設定変更、表示装置への入力端子の再接続、表示装置における表示位置の設定変更を行う必要がなくなる。 According to the present embodiment, in an image processing apparatus that inputs and displays a plurality of divided images, the images can be used in a layout intended by the user. In other words, even when a divided image obtained by dividing a movie having a black band around the combined image (up, down, left, and right) can be combined with an appropriate layout, the black band is crossed at the center of the combined image. It can be prevented from being synthesized on top. As described above, the content can be output in the layout intended by the user according to the present embodiment, so that the setting of the output device is changed, the input terminal is reconnected to the display device, and the setting of the display position on the display device is changed. There is no need.
(実施形態2)
上述した実施形態1の図1において、画像処理装置101は表示部109を有する構成であったが、表示部109が画像処理装置101の外部に構成されていても構わない。また、画像処理装置101の内部に全体制御部(不図示)を設け、全体制御部が画像処理装置101の各処理部に対して制御を行うようにしても構わない。例えば、全体制御部が取得部106に対して映像データの特徴量を取得するよう指示をし、取得部106が全体制御部からの指示に基づいて映像データの特徴量を取得する構成でも構わない。
(Embodiment 2)
In FIG. 1 of the first embodiment described above, the
図1に示した各処理部はハードウェアでもって構成しているものとして上記実施形態では説明した。しかし、これらの図に示した各処理部で行う処理をコンピュータプログラムでもって構成しても良い。以下、図6を用いて本実施形態について説明する。図6は、上記各実施形態に係る画像処理装置に適用可能なコンピュータのハードウェアの構成例を示すブロック図である。 Each processing unit shown in FIG. 1 has been described in the above embodiment as being configured by hardware. However, the processing performed by each processing unit shown in these drawings may be configured by a computer program. Hereinafter, the present embodiment will be described with reference to FIG. FIG. 6 is a block diagram illustrating a configuration example of computer hardware applicable to the image processing apparatus according to each of the embodiments.
CPU601は、RAM602やROM603に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、上記各実施形態に係る画像処理装置が行うものとして上述した各処理を実行する。即ち、CPU601は、図6に示した各処理部として機能することになる。
The
RAM602は、外部記憶装置606からロードされたコンピュータプログラムやデータ、I/F(インターフェイス)607を介して外部から取得したデータなどを一時的に記憶するためのエリアを有する。更に、RAM602は、CPU601が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM602は、例えば、ピクチャメモリとして割り当てたり、その他の各種のエリアを適宜提供したりすることができる。
The
ROM603には、本コンピュータの設定データや、ブートプログラムなどが格納されている。操作部604は、キーボードやマウスなどにより構成されており、本コンピュータのユーザが操作することで、各種の指示をCPU601に対して入力することができる。出力部605は、CPU601による処理結果を表示する。また出力部605は例えば液晶ディスプレイで構成される。
The
外部記憶装置606は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置606には、OS(オペレーティングシステム)や、図6に示した各部の機能をCPU601に実現させるためのコンピュータプログラムが保存されている。更には、外部記憶装置606には、処理対象としての各画像データが保存されていても良い。
The
外部記憶装置606に保存されているコンピュータプログラムやデータは、CPU601による制御に従って適宜、RAM602にロードされ、CPU601による処理対象となる。I/F607には、LANやインターネット等のネットワーク、投影装置や表示装置などの他の機器を接続することができ、本コンピュータはこのI/F607を介して様々な情報を取得したり、送出したりすることができる。608は上述の各部を繋ぐバスである。
Computer programs and data stored in the
上述の構成からなる作動は前述のフローチャートで説明した処理をCPU601が中心となってその制御を行う。
The operation having the above-described configuration is controlled by the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101 画像処理装置
102 第一の入力部
103 第二の入力部
104 第三の入力部
105 第四の入力部
106 取得部
107 決定部
108 表示制御部
109 表示部
DESCRIPTION OF
Claims (8)
第1の部分映像を入力する第1の入力手段と、
第2の部分映像を入力する第2の入力手段と、
前記第1の部分映像と前記第2の部分映像とを合成する場合の境界領域における特徴量であって、時間的に異なる複数の画像に基づく特徴量を取得する取得手段と、
前記取得手段によって取得された特徴量に基づいて、前記第1の部分映像と前記第2の部分映像とを合成する場合のレイアウトで、前記映像を表示するよう制御する制御手段と
を有することを特徴とする画像処理装置。 An image processing device for combining a plurality of partial videos obtained by dividing a video,
First input means for inputting a first partial video;
Second input means for inputting a second partial video;
Acquisition means for acquiring feature quantities in a boundary region when combining the first partial video and the second partial video, and based on a plurality of temporally different images;
Control means for controlling to display the video in a layout when the first partial video and the second partial video are combined based on the feature amount acquired by the acquisition unit. A featured image processing apparatus.
前記制御手段は、前記取得手段によって取得された前記動きベクトルに関する情報に基づいて、前記レイアウトで前記映像を表示することを特徴とする請求項1に記載の画像処理装置。 The acquisition unit acquires information on a motion vector in the boundary region as the feature amount,
The image processing apparatus according to claim 1, wherein the control unit displays the video in the layout based on information on the motion vector acquired by the acquisition unit.
前記制御手段は、前記取得手段によって取得された前記動きベクトルの類似度に関する情報に基づいて、前記レイアウトで前記映像を表示することを特徴とする請求項1又は請求項2に記載の画像処理装置。 The acquisition means acquires information on the similarity between motion vectors in the boundary region as the feature amount,
The image processing apparatus according to claim 1, wherein the control unit displays the video in the layout based on information on the similarity of the motion vectors acquired by the acquisition unit. .
前記取得手段は、前記抽出手段によって抽出された前記オブジェクトに基づいて、前記特徴量を取得することを特徴とする請求項1乃至請求項4のいずれか一項に記載の画像処理装置。 Furthermore, it has an extracting means for extracting an object included in the video,
The image processing apparatus according to claim 1, wherein the acquisition unit acquires the feature amount based on the object extracted by the extraction unit.
第1の部分映像を入力する第1の入力工程と、
第2の部分映像を入力する第2の入力工程と、
前記第1の部分映像と前記第2の部分映像とを合成する場合の境界領域における特徴量を取得する取得工程と、
前記取得工程によって取得された特徴量に基づいて、前記第1の部分映像と前記第2の部分映像とを合成する場合のレイアウトで、前記映像を表示するよう制御する制御工程と
を有することを特徴とする画像処理方法。 An image processing method for combining a plurality of partial videos obtained by dividing a video,
A first input step of inputting a first partial video;
A second input step of inputting a second partial video;
An acquisition step of acquiring a feature amount in a boundary region when combining the first partial video and the second partial video;
And a control step of controlling to display the video in a layout when the first partial video and the second partial video are synthesized based on the feature amount acquired in the acquisition step. A featured image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014227618A JP2016090906A (en) | 2014-11-08 | 2014-11-08 | Image processor, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014227618A JP2016090906A (en) | 2014-11-08 | 2014-11-08 | Image processor, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016090906A true JP2016090906A (en) | 2016-05-23 |
Family
ID=56019587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014227618A Pending JP2016090906A (en) | 2014-11-08 | 2014-11-08 | Image processor, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016090906A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017212613A (en) * | 2016-05-26 | 2017-11-30 | キヤノン株式会社 | Electronic apparatus, display unit, and display control method |
JP2018037765A (en) * | 2016-08-30 | 2018-03-08 | パナソニックIpマネジメント株式会社 | Image signal processor |
JP2019211519A (en) * | 2018-05-31 | 2019-12-12 | シャープ株式会社 | Display device |
-
2014
- 2014-11-08 JP JP2014227618A patent/JP2016090906A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017212613A (en) * | 2016-05-26 | 2017-11-30 | キヤノン株式会社 | Electronic apparatus, display unit, and display control method |
JP2018037765A (en) * | 2016-08-30 | 2018-03-08 | パナソニックIpマネジメント株式会社 | Image signal processor |
JP2019211519A (en) * | 2018-05-31 | 2019-12-12 | シャープ株式会社 | Display device |
JP7126382B2 (en) | 2018-05-31 | 2022-08-26 | シャープ株式会社 | Display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110058685B (en) | Virtual object display method and device, electronic equipment and computer-readable storage medium | |
JP6167703B2 (en) | Display control device, program, and recording medium | |
KR20200049833A (en) | Depth estimation methods and apparatus, electronic devices, programs and media | |
US20140321771A1 (en) | Techniques for real-time clearing and replacement of objects | |
US9697581B2 (en) | Image processing apparatus and image processing method | |
US10867365B2 (en) | Image processing apparatus, image processing method, and image processing system for synthesizing an image | |
JP2015195571A5 (en) | Image processing apparatus and control method thereof | |
US20180101731A1 (en) | Automatic positioning of a video frame in a collage cell | |
US8948502B2 (en) | Image processing method, and image processor | |
JP2018067106A (en) | Image processing system, image processing program, and image processing method | |
JP2016090906A (en) | Image processor, image processing method, and program | |
JP2011039801A (en) | Apparatus and method for processing image | |
JP4686624B2 (en) | Information processing apparatus, image processing method, and program | |
KR101339785B1 (en) | Apparatus and method for parallel image processing and apparatus for control feature computing | |
JP2009042897A (en) | Image processing unit and image processing method | |
JP4596929B2 (en) | Background image generation apparatus and background image generation program | |
EP3096291B1 (en) | Method and device for bounding an object in a video | |
US10861135B2 (en) | Image processing apparatus, non-transitory computer-readable recording medium storing computer program, and image processing method | |
JPWO2018087856A1 (en) | Video composition apparatus and video composition method | |
CN110692235B (en) | Image processing apparatus, image processing program, and image processing method | |
JP2012200287A (en) | X-ray imaging system, method for controlling x-ray imaging system, information processing device, x-ray imaging apparatus and program | |
JP6443505B2 (en) | Program, display control apparatus, and display control method | |
US20150229848A1 (en) | Method and system for generating an image including optically zoomed and digitally zoomed regions | |
US20180068477A1 (en) | Display method, display device, and non-transitory computer-readable recording medium | |
CN112822418B (en) | Video processing method and device, storage medium and electronic equipment |