JP5421939B2 - Color correction apparatus, color correction method, and color correction program - Google Patents

Color correction apparatus, color correction method, and color correction program Download PDF

Info

Publication number
JP5421939B2
JP5421939B2 JP2011024749A JP2011024749A JP5421939B2 JP 5421939 B2 JP5421939 B2 JP 5421939B2 JP 2011024749 A JP2011024749 A JP 2011024749A JP 2011024749 A JP2011024749 A JP 2011024749A JP 5421939 B2 JP5421939 B2 JP 5421939B2
Authority
JP
Japan
Prior art keywords
color
region
scanning
area
color correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011024749A
Other languages
Japanese (ja)
Other versions
JP2012165232A (en
Inventor
弘員 柿沼
真二 深津
統之 堀井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011024749A priority Critical patent/JP5421939B2/en
Publication of JP2012165232A publication Critical patent/JP2012165232A/en
Application granted granted Critical
Publication of JP5421939B2 publication Critical patent/JP5421939B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、動画像の色を補正する技術に関する。   The present invention relates to a technique for correcting the color of a moving image.

視差を利用して立体視可能な立体映像を生成する際、異なる位置に配置された一対の撮影手段、例えばステレオカメラ等の複眼撮影装置を用いる。一般的に同機種のカメラであれば、カメラの設定のみで獲得する映像の色味の調整が容易に行えるので、映像間の色差を減らすことが容易である。   When generating stereoscopic images that can be stereoscopically viewed using parallax, a pair of photographing means arranged at different positions, for example, a compound eye photographing device such as a stereo camera is used. In general, cameras of the same model can easily adjust the color tone of an image acquired only by setting the camera, so that it is easy to reduce the color difference between images.

機種の異なる2台のカメラ間で色差を減らすために色補正を行う従来の技術としては、変換多項式を利用して色補正を行う手法(非特許文献1参照)や、画像のヒストグラムが一致するように色補正を行う手法(非特許文献2参照)が開示されている。   Conventional techniques for performing color correction in order to reduce the color difference between two cameras of different models include a method of performing color correction using a conversion polynomial (see Non-Patent Document 1) and image histograms. Thus, a method of performing color correction (see Non-Patent Document 2) is disclosed.

稲村、田口、「異なったカメラ間の色調整について」、電子情報通信学会技術研究報告SIS、2007年3月、第106巻、第575号、p.19−22Inamura, Taguchi, “Color adjustment between different cameras”, IEICE Technical Report SIS, March 2007, Vol. 106, No. 575, p. 19-22 稲村、田口、「異なったカメラ間の色調整法について」、電子情報通信学会技術研究報告SIS、2007年12月、第107巻、第374号、p.13−18Inamura, Taguchi, “Color adjustment method between different cameras”, IEICE Technical Report, December 2007, Vol. 107, No. 374, p. 13-18

しかしながら、非特許文献1では被写体にカラーチャートを含める必要がある。非特許文献2では2台のカメラが離れている場合や角度が大きい場合、例えば、対象の色が一方の画像には見えているが他方の画像には角度の問題から見えていないといったシーンにおける色補正に対応していないという問題があった。   However, in Non-Patent Document 1, it is necessary to include a color chart in the subject. In Non-Patent Document 2, when the two cameras are separated or the angle is large, for example, in a scene where the target color is visible in one image but not the other image due to the angle problem. There was a problem that color correction was not supported.

本発明は、上記に鑑みてなされたものであり、同じ被写体を2台の仕様の異なるカメラを並べて撮影した際に得られる2つの動画像の間に生じる色差を減らすことを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to reduce a color difference generated between two moving images obtained when two cameras with different specifications are photographed side by side with the same subject.

第1の本発明に係る色補正装置は、同一の被写体を撮影した2つの動画像を入力して蓄積手段に蓄積させる入力手段と、前記蓄積手段に蓄積された前記2つの動画像それぞれから同時刻におけるフレーム画像を抽出する抽出手段と、前記フレーム画像それぞれの各画素を複数の領域のいずれかに分類する領域分割手段と、前記フレーム画像間で対応する領域を判定し、前記領域毎に色の対応関係を求める領域判定手段と、前記色の対応関係に基づいて一方の色を変換したときに他方の色となる変換規則を学習する学習手段と、前記変換規則を用いて前記動画像の一方の色を補正する色補正手段と、を有することを特徴とする。 According to a first aspect of the present invention, there is provided a color correction apparatus comprising: an input unit that inputs two moving images obtained by photographing the same subject and stores them in a storage unit; and the two moving images stored in the storage unit. Extraction means for extracting a frame image at a time, area division means for classifying each pixel of each frame image into one of a plurality of areas, a corresponding area between the frame images is determined, and a color for each area Region determining means for obtaining a correspondence relationship between the color image, learning means for learning a conversion rule to be the other color when one color is converted based on the color correspondence relationship, and using the conversion rule, And color correction means for correcting one of the colors.

上記色補正装置において、前記領域判定手段は、前記フレーム画像それぞれに走査領域を設定して前記フレーム画像それぞれを走査し、前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を求めて、前記フレーム画像それぞれの対応する前記走査領域間で当該走査領域内に存在する前記領域の色を比較して対応する領域を判定することを特徴とする。   In the color correction apparatus, the area determination unit sets a scanning area for each frame image and scans each frame image, and the area existing in the scanning area for each scanning area and the color of the area And the corresponding region is determined by comparing the color of the region existing in the scanning region between the corresponding scanning regions of each of the frame images.

上記色補正装置において、前記領域判定手段は、前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を記載した走査結果表を作成し、前記走査結果表の前記走査領域を検索し、前記フレーム画像それぞれの対応する走査領域内に存在する前記領域の数が少ない前記走査領域から順に、前記対応する走査領域間で前記領域の色のユークリッド距離を求めて、所定の閾値以下で前記ユークリッド距離が最も近い領域を対応する領域として判定することを特徴とする。   In the color correction apparatus, the area determination unit creates a scan result table in which the area existing in the scan area and the color of the area are described for each scan area, and the scan area of the scan result table is displayed. A search is performed to obtain the Euclidean distance of the color of the region between the corresponding scanning regions in order from the scanning region in which the number of the regions existing in the corresponding scanning region of each of the frame images is small. The region having the closest Euclidean distance is determined as the corresponding region.

上記色補正装置において、色補正手段が補正した動画像と他方の動画像のそれぞれから同時刻におけるフレーム画像を抽出して色の対応関係を求め、対応する色間の色差が所定の閾値を上回る場合は、追加学習を行わせる判定手段を有することを特徴とする。   In the color correction apparatus, a frame image at the same time is extracted from each of the moving image corrected by the color correcting unit and the other moving image to obtain a color correspondence relationship, and a color difference between corresponding colors exceeds a predetermined threshold value. In such a case, it is characterized by having determination means for performing additional learning.

第2の本発明に係る色補正方法は、同一の被写体を撮影した2つの動画像を入力して蓄積手段に蓄積させるステップと、前記蓄積手段に蓄積された前記2つの動画像それぞれから同時刻におけるフレーム画像を抽出するステップと、前記フレーム画像それぞれの各画素を複数の領域のいずれかに分類するステップと、前記フレーム画像間で対応する領域を判定するステップと、前記対応する領域毎に色の対応関係を求めるステップと、前記色の対応関係に基づいて一方の色を変換したときに他方の色となる変換規則を学習するステップと、前記変換規則を用いて前記動画像の一方の色を補正するステップと、を有することを特徴とする。 In the color correction method according to the second aspect of the present invention, the step of inputting two moving images obtained by photographing the same subject and storing them in the storage means and the two moving images stored in the storage means at the same time Extracting a frame image in each of the above, a step of classifying each pixel of each of the frame images into one of a plurality of regions , a step of determining a corresponding region between the frame images, and a color for each corresponding region A step of obtaining a correspondence relationship, a step of learning a conversion rule that becomes the other color when one color is converted based on the correspondence relationship of the color, and one color of the moving image using the conversion rule And a step of correcting.

上記色補正方法において、前記対応する領域を判定するステップは、前記フレーム画像それぞれに走査領域を設定して前記フレーム画像それぞれを走査し、前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を求めて、前記フレーム画像それぞれの対応する前記走査領域間で当該走査領域内に存在する前記領域の色を比較して対応する領域を判定することを特徴とする。   In the color correction method, the step of determining the corresponding area sets a scanning area for each of the frame images, scans each of the frame images, and each of the scanning areas includes the area existing in the scanning area. The color of the region is obtained, and the corresponding region is determined by comparing the color of the region existing in the scanning region between the corresponding scanning regions of each of the frame images.

上記色補正方法において、前記対応する領域を判定するステップは、前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を記載した走査結果表を作成し、前記走査結果表の前記走査領域を検索し、前記フレーム画像それぞれの対応する走査領域内に存在する前記領域の数が少ない前記走査領域から順に、前記対応する走査領域間で前記領域の色のユークリッド距離を求めて、所定の閾値以下で前記ユークリッド距離が最も近い領域を対応する領域として判定することを特徴とする。   In the color correction method, the step of determining the corresponding region creates a scanning result table in which the region existing in the scanning region and the color of the region are described for each scanning region, The scanning area is searched, and the Euclidean distance of the color of the area is determined between the corresponding scanning areas in order from the scanning area where the number of the areas existing in the corresponding scanning area of each of the frame images is small, The region having the Euclidean distance that is equal to or smaller than a predetermined threshold is determined as a corresponding region.

上記色補正方法において、補正した動画像と他方の動画像のそれぞれから同時刻におけるフレーム画像を抽出して色の対応関係を求め、対応する色間の色差が所定の閾値を上回る場合は、追加学習を行わせるステップを有することを特徴とする。   In the above color correction method, a frame image at the same time is extracted from each of the corrected moving image and the other moving image to obtain a color correspondence relationship, and if the color difference between the corresponding colors exceeds a predetermined threshold value, add It has the step which performs learning, It is characterized by the above-mentioned.

第3の本発明に係る色補正プログラムは、上記色補正方法をコンピュータに実行させることを特徴とする。   A color correction program according to a third aspect of the present invention causes a computer to execute the color correction method.

本発明によれば、同じ被写体を2台の仕様の異なるカメラを並べて撮影した際に得られる2つの動画像の間に生じる色差を減らすことができる。   According to the present invention, it is possible to reduce the color difference between two moving images obtained when two cameras with different specifications are photographed side by side with the same subject.

本実施の形態における色補正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the color correction apparatus in this Embodiment. 本実施の形態における色補正装置が動画像間の色差を減らす処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of processing in which the color correction apparatus according to the present embodiment reduces a color difference between moving images. 2つの動画像それぞれからフレーム画像を抽出した様子を示す図である。It is a figure which shows a mode that the frame image was extracted from each of two moving images. フレーム画像から領域画像を生成した例を示す図である。It is a figure which shows the example which produced | generated the area | region image from the frame image. 対応関係表の例を示す図である。It is a figure which shows the example of a correspondence table. ニューラルネットワークを使った学習例を示す図である。It is a figure which shows the example of learning using a neural network. 領域画像を走査する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which scans an area | region image. 画像走査用の窓の例を示す図である。It is a figure which shows the example of the window for image scanning. 窓を用いて領域画像全体を走査する様子を示す図である。It is a figure which shows a mode that the whole area | region image is scanned using a window. 走査結果表の例を示す図である。It is a figure which shows the example of a scanning result table | surface. 走査結果表から対応関係を生成する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which produces | generates a correspondence from a scanning result table | surface. ユークリッド距離を用いて対応する領域を判定する処理の説明図である。It is explanatory drawing of the process which determines a corresponding area | region using a Euclidean distance. 判定済みの領域を削除した走査結果表の例を示す図である。It is a figure which shows the example of the scanning result table | surface which deleted the determined area | region. 本実施の形態における別の色補正装置の構成を示すブロック図である。It is a block diagram which shows the structure of another color correction apparatus in this Embodiment.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施の形態における色補正装置の構成を示すブロック図である。同図に示す色補正装置1は、フレーム抽出部2、領域分割部3、領域比較部4、対応色学習部5、色補正動画像生成部6、色差評価部7、メディア制御部8、および表示部9を備える。色補正装置1が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは色補正装置1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。   FIG. 1 is a block diagram showing the configuration of the color correction apparatus according to this embodiment. The color correction apparatus 1 shown in the figure includes a frame extraction unit 2, a region division unit 3, a region comparison unit 4, a corresponding color learning unit 5, a color correction moving image generation unit 6, a color difference evaluation unit 7, a media control unit 8, and A display unit 9 is provided. Each unit included in the color correction apparatus 1 may be configured by a computer including an arithmetic processing device, a storage device, and the like, and the processing of each unit may be executed by a program. This program is stored in a storage device included in the color correction apparatus 1, and can be recorded on a recording medium such as a magnetic disk, an optical disk, or a semiconductor memory, or provided through a network.

フレーム抽出部2は、2つの動画像それぞれから同時刻のフレーム画像を所定の枚数抽出する。   The frame extraction unit 2 extracts a predetermined number of frame images at the same time from the two moving images.

領域分割部3は、フレーム抽出部2が抽出したフレーム画像に対して領域分割処理を行い、フレーム画像に領域情報が付与された領域画像を生成する。   The area dividing unit 3 performs area dividing processing on the frame image extracted by the frame extracting unit 2, and generates an area image in which area information is added to the frame image.

領域比較部4は、同時刻のフレーム画像から生成された領域画像を比較し、2つの画像間における領域の対応関係、領域毎の色の対応関係を記録した対応関係表を生成する。   The region comparison unit 4 compares the region images generated from the frame images at the same time, and generates a correspondence table in which the correspondence relationship between the two images and the color correspondence relationship for each region are recorded.

対応色学習部5は、領域比較部4が生成した対応関係表の色の対応関係を学習して、対応する領域間の色の変換規則を得る。   The corresponding color learning unit 5 learns the color correspondence of the correspondence table generated by the region comparison unit 4 and obtains a color conversion rule between corresponding regions.

色補正動画像生成部6は、対応色学習部5で作成した学習結果を用いて一方の動画像に対して色変換を行う。   The color correction moving image generation unit 6 performs color conversion on one moving image using the learning result created by the corresponding color learning unit 5.

色差評価部7は、色変換後の動画像間の色差を評価する。   The color difference evaluation unit 7 evaluates the color difference between moving images after color conversion.

メディア制御部8は、メディア8Aから動画像を読み出す。   The media control unit 8 reads a moving image from the media 8A.

表示部9は、動画像の再生を行う。   The display unit 9 reproduces a moving image.

次に、色補正装置1の処理の流れについて説明する。   Next, the processing flow of the color correction apparatus 1 will be described.

図2は、本実施の形態における色補正装置1が動画像間の色差を減らす処理の流れを示すフローチャートである。色補正装置1の処理は、学習フェーズ、補正フェーズ、判定フェーズの3段階に分けることができる。   FIG. 2 is a flowchart showing a flow of processing in which the color correction apparatus 1 according to the present embodiment reduces the color difference between moving images. The processing of the color correction apparatus 1 can be divided into three stages: a learning phase, a correction phase, and a determination phase.

まず、学習フェーズ(ステップST1〜ST5)について説明する。   First, the learning phase (steps ST1 to ST5) will be described.

メディア制御部8は、動画像MA,MBをメディア8Aから読み出し、色補正装置1の備えた記憶手段に記憶させる(ステップST1)。動画像MA,MBは、機種の異なる2台のカメラで得られたものであり、フレームレート、動画像サイズ、時刻などのカメラ側で調整できるパラメータを一致させ、同一の被写体を同タイミングで異なる視点から撮影したものである。   The media control unit 8 reads out the moving images MA and MB from the media 8A and stores them in the storage means provided in the color correction apparatus 1 (step ST1). The moving images MA and MB are obtained by two cameras of different models. The parameters that can be adjusted on the camera side such as the frame rate, the moving image size, and the time are matched, and the same subject is different at the same timing. It was taken from a viewpoint.

続いて、フレーム抽出部2は、読み込んだ2つの動画像MA,MBから、同時刻のフレーム画像MA(t),MB(t)をランダムに適当な枚数だけ抽出する(ステップST2)。図3に示す例では、ランダムに選択した時刻t=0,5,9のときの動画像MAのフレーム画像MA(0),MA(5),MA(9)と、動画像MBのフレーム画像MB(0),MB(5),MB(9)を抽出している。   Subsequently, the frame extraction unit 2 randomly extracts an appropriate number of frame images MA (t) and MB (t) at the same time from the two moving images MA and MB read (step ST2). In the example shown in FIG. 3, the frame images MA (0), MA (5), MA (9) of the moving image MA at the time t = 0, 5, 9 selected at random, and the frame images of the moving image MB. MB (0), MB (5), and MB (9) are extracted.

続いて、領域分割部3は、フレーム抽出部2が抽出したフレーム画像MA(t),MB(t)に対して領域分割処理を行い、領域画像RA(t),RB(t)を生成する(ステップST3)。領域分割法として、k−means法、Mean Shift法、領域拡張法など既存の各種領域分割の手法を用いることができる。図4は、フレーム画像から領域画像を生成した例を示す図である。同図に示す例では、図4(a)に示すフレーム画像MA(0),MB(0)に対してMean Shift法を用いて領域分割処理を施し、それぞれa〜e,f〜kの部分領域に分割された図4(b)に示す領域画像RA(0),RB(0)が生成された。領域画像RA(0),RB(0)は、部分領域を識別する領域番号情報に元のフレーム画像MA(0),MB(0)の情報を加えたものである。つまり、領域画像RA(0),RB(0)は、画素毎にRGB値と領域番号を持つデータとなる。   Subsequently, the region dividing unit 3 performs region dividing processing on the frame images MA (t) and MB (t) extracted by the frame extracting unit 2 to generate region images RA (t) and RB (t). (Step ST3). As the region division method, various existing region division methods such as the k-means method, the Mean Shift method, and the region expansion method can be used. FIG. 4 is a diagram illustrating an example in which a region image is generated from a frame image. In the example shown in the figure, area division processing is performed on the frame images MA (0) and MB (0) shown in FIG. 4A using the Mean Shift method, and portions a to e and f to k are respectively obtained. Region images RA (0) and RB (0) shown in FIG. 4B divided into regions were generated. The area images RA (0) and RB (0) are obtained by adding information of the original frame images MA (0) and MB (0) to area number information for identifying a partial area. That is, the region images RA (0) and RB (0) are data having RGB values and region numbers for each pixel.

続いて、領域比較部4は、領域分割部3が生成した領域画像RA(t),RB(t)を比較し、座標と色の類似性から2つの画像間における領域の対応関係と領域毎の色の対応関係を記載した対応関係表を生成する(ステップST4)。領域比較部4が生成した対応関係表の例を図5に示す。なお、対応関係を決定する処理の詳細については後述する。   Subsequently, the region comparison unit 4 compares the region images RA (t) and RB (t) generated by the region dividing unit 3, and determines the correspondence between the regions and the region correspondence between the two images based on the similarity of coordinates and colors. A correspondence table describing the correspondence between the colors is generated (step ST4). An example of the correspondence table generated by the region comparison unit 4 is shown in FIG. Details of the process for determining the correspondence will be described later.

続いて、対応色学習部5は、領域比較部4が生成した対応関係表の色の対応関係を学習して、対応する2つの領域のうち一方の領域の色からもう一方の領域の色への変換規則を得る(ステップST5)。例えば、フィードフォワード型のニューラルネットワークで誤差逆伝播法を用いて学習を行う場合、図6に示す構成が考えられる。領域画像RA(t)のある領域の平均RGB値を入力値R,G,Bとして入力層50に入力すると、中間層51を経て出力層52から出力値R’,G’,B’として出力される。領域画像RB(t)の対応する領域の平均RGB値は正解値(教師値)53に相当する。この正解値R”,G”,B”と出力値R’,G’,B’を比較したときの誤差が最小となるように中間層51のパラメータ調整を行う。これを領域比較部4が生成した色の対応関係の組み合わせで行うことで学習する。なお、図5の領域kのように対応する領域がない場合は、その領域の色は学習に使用しない。   Subsequently, the correspondence color learning unit 5 learns the correspondence relationship of the colors in the correspondence table generated by the region comparison unit 4 and changes the color of one region from the corresponding two regions to the color of the other region. The conversion rule is obtained (step ST5). For example, when learning is performed using the error back propagation method in a feedforward type neural network, the configuration shown in FIG. 6 can be considered. When an average RGB value in a certain area of the area image RA (t) is input to the input layer 50 as input values R, G, B, it is output as output values R ′, G ′, B ′ from the output layer 52 via the intermediate layer 51. Is done. The average RGB value of the corresponding region of the region image RB (t) corresponds to the correct value (teacher value) 53. The parameter of the intermediate layer 51 is adjusted so that the error when the correct values R ″, G ″, B ″ are compared with the output values R ′, G ′, B ′ is minimized. Learning is performed by performing a combination of the correspondence relationships of the generated colors, and when there is no corresponding region like the region k in Fig. 5, the color of that region is not used for learning.

次に、補正フェーズ(ステップST6)の処理内容について説明する。   Next, the processing content of the correction phase (step ST6) will be described.

色補正動画像生成部6は、対応色学習部5で作成した学習結果を用い、動画像MAの全フレーム画像MA(t)に対して色変換を行い、色補正した動画像MA’を生成する(ステップST6)。   The color correction moving image generation unit 6 performs color conversion on the entire frame image MA (t) of the moving image MA using the learning result created by the corresponding color learning unit 5, and generates a color corrected moving image MA ′. (Step ST6).

次に、判定フェーズ(ステップST6〜ST11)の処理内容について説明する。   Next, processing contents of the determination phase (steps ST6 to ST11) will be described.

まず、色補正した動画像MA’と動画像MBに対して、ステップST2〜ST4の処理と同様の処理を行って色の対応関係を決定する(ステップST7〜ST9)。具体的には、まず、フレーム抽出部2が、動画像MB,MA’から同時刻のフレーム画像MB(t),MA’(t)のランダム抽出を行う(ステップST7)。続いて、領域分割部3が、抽出したフレーム画像MB(t),MA’(t)に対して領域分割処理を行って領域画像RB(t),RA’(t)を生成する。さらに、領域比較部4が、領域画像RB(t),RA’(t)の領域同士の対応関係と色の対応関係を決定する(ステップST9)。   First, the color-corresponding relationship is determined by performing the same processing as the processing in steps ST2 to ST4 on the color-corrected moving image MA 'and moving image MB (steps ST7 to ST9). Specifically, first, the frame extraction unit 2 performs random extraction of the frame images MB (t) and MA ′ (t) at the same time from the moving images MB and MA ′ (step ST7). Subsequently, the region dividing unit 3 performs region dividing processing on the extracted frame images MB (t) and MA ′ (t) to generate region images RB (t) and RA ′ (t). Further, the region comparison unit 4 determines the correspondence between the regions of the region images RB (t) and RA ′ (t) and the correspondence between the colors (step ST9).

そして、色差評価部7が、対応する各領域の平均RGB値のユークリッド距離を基準に色差を評価し(ステップST10)、色差が別途設定する閾値を下回る場合は(ステップST11のNo)、色補正した動画像MA’が生成されたとみなし処理を終了する。色差が別途設定する閾値を上回る場合は(ステップST11のYes)、ステップST2に戻り、新たなフレーム画像MA(t),MB(t)を用いて追加学習を行う。なお、色差の評価方法は、上記の方法に限らず、他の方法を用いるものでもよい。   Then, the color difference evaluation unit 7 evaluates the color difference on the basis of the Euclidean distance of the average RGB value of each corresponding region (step ST10), and when the color difference is below a separately set threshold (No in step ST11), color correction is performed. It is assumed that the moving image MA ′ has been generated, and the process ends. When the color difference exceeds a threshold value set separately (Yes in step ST11), the process returns to step ST2, and additional learning is performed using new frame images MA (t) and MB (t). The color difference evaluation method is not limited to the above method, and other methods may be used.

次に、領域比較部4が対応関係を決定する処理について説明する。対応関係の決定は、領域画像の走査と走査結果から対応関係を生成する処理からなる。   Next, the process in which the area comparison unit 4 determines the correspondence will be described. The determination of the correspondence relationship includes scanning of the area image and processing for generating the correspondence relationship from the scanning result.

まず、領域画像を走査する処理について説明する。図7は、領域比較部4が領域画像を走査する処理の流れを示すフローチャートである。   First, processing for scanning a region image will be described. FIG. 7 is a flowchart showing a flow of processing in which the region comparison unit 4 scans a region image.

領域画像RA(t),RB(t)上に、画像左上の座標(0,0)を基準とした、横幅が画像の最大横幅サイズ、縦幅が所定のサイズとなる画像走査用の窓を配置する(ステップST31)。図8に画像走査用の窓の例を示す。同図に示す例では、領域画像RA(t),RB(t)それぞれの画像サイズは320×240画素であり、窓サイズを320×10画素と設定した。なお、窓の画素数は任意に設定可能である。   On the region images RA (t) and RB (t), an image scanning window having a horizontal width that is the maximum horizontal width size of the image and a vertical width that is a predetermined size on the basis of the coordinates (0, 0) at the upper left of the image. Arrange (step ST31). FIG. 8 shows an example of an image scanning window. In the example shown in the figure, the image size of each of the area images RA (t) and RB (t) is 320 × 240 pixels, and the window size is set to 320 × 10 pixels. The number of pixels in the window can be arbitrarily set.

続いて、窓内の左上の画素から順にRGB値と領域情報を読み出して一時的に記憶し(ステップST32)、窓内を左上から右下へ向って走査するように次の画素を選択する(ステップST33)。選択した画素が窓内であれば(ステップST34のYes)、ステップST32に戻りRGB値と領域情報を読み出す。   Subsequently, RGB values and area information are read out in order from the upper left pixel in the window and temporarily stored (step ST32), and the next pixel is selected so as to scan the window from the upper left to the lower right ( Step ST33). If the selected pixel is within the window (Yes in step ST34), the process returns to step ST32 to read out the RGB value and area information.

窓内の画素を全て走査し終えたら(ステップST34のNo)、一時的に記憶しておいたRGB値を領域毎に平均し(ステップST35)、走査結果として、窓内に存在する領域情報、窓内の領域毎の平均RGB値、窓内の領域数を記録する(ステップST36)。   When all the pixels in the window have been scanned (No in step ST34), the temporarily stored RGB values are averaged for each region (step ST35), and as a scanning result, region information existing in the window, The average RGB value for each area in the window and the number of areas in the window are recorded (step ST36).

そして、窓の縦の画素数分だけ窓の配置位置をy軸方向に移動させる(ステップST37)。窓が領域画像RA(t),RB(t)内に配置されている場合は(ステップST38のYes)、ステップST32〜ST37の処理を繰り返す。これにより、図9に示すように、領域画像RA(t),RB(t)が上から順に走査される。   Then, the window arrangement position is moved in the y-axis direction by the number of vertical pixels of the window (step ST37). When the window is arranged in the area images RA (t) and RB (t) (Yes in step ST38), the processes in steps ST32 to ST37 are repeated. Thereby, as shown in FIG. 9, the area images RA (t) and RB (t) are scanned in order from the top.

図10に、図7に示す処理により生成された走査結果表を示す。図10に示すように、走査結果表には、走査領域S1〜S24毎に、検出された領域数、領域情報、平均RGB値が記録される。領域情報と平均RGB値の組みは各走査領域S1〜S24の領域数記録される。例えば、図10の領域画像RA(t)の走査領域S3では、平均RGB値が(88,2,9)の領域aと平均RGB値が(90,13,6)の領域cの2つの領域が存在する。   FIG. 10 shows a scanning result table generated by the processing shown in FIG. As shown in FIG. 10, the number of detected areas, area information, and average RGB values are recorded in the scanning result table for each of the scanning areas S1 to S24. The combination of the area information and the average RGB value is recorded as the number of areas in each of the scanning areas S1 to S24. For example, in the scanning region S3 of the region image RA (t) in FIG. 10, two regions, a region a having an average RGB value of (88, 2, 9) and a region c having an average RGB value of (90, 13, 6). Exists.

続いて、走査結果表から対応関係を生成する処理について説明する。図11は、走査結果表から対応関係を生成する処理の流れを示すフローチャートである。   Next, processing for generating a correspondence relationship from the scanning result table will be described. FIG. 11 is a flowchart showing a flow of processing for generating a correspondence from the scanning result table.

走査結果表から領域数が最も少ない走査領域を検索する(ステップST39)。   The scanning area with the smallest number of areas is searched from the scanning result table (step ST39).

領域画像RA(t),RB(t)ともに領域数が1の場合(ステップST40のYes)、その領域は対応する関係にあると判定する(ステップST41)。   When the number of regions is 1 for both the region images RA (t) and RB (t) (Yes in step ST40), it is determined that the regions have a corresponding relationship (step ST41).

領域画像RA(t),RB(t)ともに領域数が1ではない場合(ステップST40のNo)、図12に示すように、領域画像RA(t),RB(t)の領域間の平均RGB値のユークリッド距離を求め、閾値Lを下回る最も距離の近いものから順番に対応関係にあると判定する(ステップST42)。なお、RGB値が8bit(0〜255)の場合、閾値Lは(0<L≦255√3)の範囲内で設定される。求めたユークリッド距離が閾値Lを上回る領域同士は対応付けを行わない。   When the number of regions is not 1 in both the region images RA (t) and RB (t) (No in step ST40), as shown in FIG. 12, the average RGB between the regions of the region images RA (t) and RB (t) The Euclidean distance of the value is obtained, and it is determined that there is a correspondence in order from the closest distance below the threshold L (step ST42). When the RGB value is 8 bits (0 to 255), the threshold value L is set within the range of (0 <L ≦ 255√3). The areas where the obtained Euclidean distance exceeds the threshold L are not associated.

また、領域の総数の最も少ない走査領域が複数検索されたときに、領域画像RA(t),RB(t)それぞれの領域数が同じ場合は(1:1,2:2など)、早く検索された側を優先して処理し、領域画像RA(t),RB(t)それぞれの領域数が異なる場合は(1:3,2:3など)、最小の総数が入っている側(この場合は1:3)を優先して処理する。   In addition, when a plurality of scanning areas having the smallest total number of areas are searched and the area images RA (t) and RB (t) have the same number of areas (1: 1, 2: 2, etc.), the search is quickly performed. If the number of regions of the region images RA (t) and RB (t) is different (1: 3, 2: 3, etc.), the side with the smallest total number (this In this case, 1: 3) is preferentially processed.

対応する領域が判明したら、対応する領域それぞれの走査結果表全体における平均RGB値を求め(ステップST43)、対応する領域情報と求めた平均RGB値を対応関係表に記録する(ステップST44)。具体的には、図10において、領域aと領域fが対応する関係であると判定した場合、領域aの平均RGB値は、走査領域S1のRGB値(90,2,10)、走査領域S2のRGB値(90,0,3)、走査領域S3のRGB値(88,2,9)などを平均して求める。そして、対応関係表の領域の対応欄に領域aと領域fを、色の対応欄に領域aの平均RGB値(90,2,12)と領域fの平均RGB値(80,2,17)を記録する。   When the corresponding area is found, the average RGB value in the entire scanning result table of each corresponding area is obtained (step ST43), and the corresponding area information and the obtained average RGB value are recorded in the correspondence table (step ST44). Specifically, in FIG. 10, when it is determined that the region a and the region f have a corresponding relationship, the average RGB value of the region a is the RGB value (90, 2, 10) of the scanning region S1, and the scanning region S2. Are obtained by averaging the RGB values (90, 0, 3) and the RGB values (88, 2, 9) of the scanning region S3. Then, the region a and the region f are displayed in the corresponding column of the region of the correspondence table, and the average RGB value (90, 2, 12) of the region a and the average RGB value (80, 2, 17) of the region f are stored in the color corresponding column. Record.

その後、判定済みの領域情報を走査結果表から削除し、領域数を減らす(ステップST45)。具体的には、図10に示す走査結果表から判定済みの領域a,fの情報を削除する。図13に、領域a,fの情報を削除した走査結果表を示す。   Thereafter, the determined area information is deleted from the scan result table to reduce the number of areas (step ST45). Specifically, information on the determined areas a and f is deleted from the scanning result table shown in FIG. FIG. 13 shows a scanning result table in which information on the areas a and f is deleted.

そして、走査結果表に未判定領域が残っているか否かを確認し(ステップST46)、未判定領域が残っている場合はステップST39に戻り、全て判定済みの場合は対応関係表の生成を終了する。   Then, it is confirmed whether or not an undetermined area remains in the scanning result table (step ST46). If there is an undetermined area remaining, the process returns to step ST39. To do.

なお、本実施の形態では、領域の色情報として平均RGB値を用いたが、これに限るものではなく、中央値、最頻値などの別の統計値を用いるものでもよく、RGB値の代わりにHSVなどの別の色空間を用いてもよい。   In this embodiment, the average RGB value is used as the color information of the area. However, the present invention is not limited to this, and another statistical value such as a median value or a mode value may be used instead of the RGB value. Alternatively, another color space such as HSV may be used.

次に、本実施の形態における別の色補正装置について説明する。   Next, another color correction apparatus according to the present embodiment will be described.

図14、本実施の形態における別の色補正装置の構成を示すブロック図である。同図に示す色補正装置1は、図1に示す色補正装置に立体動画像生成部11を追加し、立体動画像を生成するものである。   FIG. 14 is a block diagram illustrating a configuration of another color correction apparatus according to the present embodiment. The color correction device 1 shown in the figure adds a stereoscopic moving image generation unit 11 to the color correction device shown in FIG. 1 to generate a stereoscopic moving image.

図2のステップST11の処理の後に、立体動画像生成部11は、色補正した動画像MA’と動画像MBに対して動画像合成処理を行う。立体動画像は、フレームシーケンシャル方式やサイドバイサイド方式など、視聴形態、視聴環境に合ったフォーマットで生成する。   After the process of step ST11 in FIG. 2, the stereoscopic moving image generating unit 11 performs a moving image combining process on the color-corrected moving image MA ′ and the moving image MB. A stereoscopic moving image is generated in a format suitable for the viewing mode and viewing environment, such as a frame sequential method or a side-by-side method.

以上説明したように、本実施の形態によれば、同一の被写体を撮影した2つの動画像MA,MBそれぞれから同時刻におけるフレーム画像MA(t),MB(t)を抽出し、フレーム画像MA(t),MB(t)を複数の領域に分割した領域画像RA(t),RB(t)を生成し、領域画像RA(t),RB(t)間で領域の対応関係および領域毎の色の対応関係を求め、色の対応関係に基づいてフレーム画像MA(t)からMB(t)への色の変換規則を学習し、学習した変換規則に基づいて動画像MAを色補正した動画像MA’を生成することにより、2つの動画像MA,MBの間に生じる色差を減らすことが可能となる。   As described above, according to the present embodiment, the frame images MA (t) and MB (t) at the same time are extracted from the two moving images MA and MB obtained by photographing the same subject, and the frame image MA is extracted. Region images RA (t) and RB (t) obtained by dividing (t) and MB (t) into a plurality of regions are generated, and the region correspondences between the region images RA (t) and RB (t) and for each region The color correspondence from the frame image MA (t) to MB (t) is learned based on the color correspondence, and the moving image MA is color-corrected based on the learned conversion rule. By generating the moving image MA ′, it is possible to reduce the color difference generated between the two moving images MA and MB.

本実施の形態によれば、色補正した動画像MA’と動画像MBそれぞれから同時刻におけるフレーム画像MA’(t),MB(t)を抽出し、領域の分割、領域の対応関係、領域毎の色の対応関係を求め、対応する色間の色差が所定の閾値を上回る場合は、新たなフレーム画像MA(t),MB(t)を用いて追加学習を行うことにより、より正確に2つの動画像MA,MBの間に生じる色差を減らすことが可能となる。   According to the present embodiment, the frame images MA ′ (t) and MB (t) at the same time are extracted from the color-corrected moving image MA ′ and the moving image MB, respectively, and the region is divided, the region correspondence relationship, the region If the color correspondence for each color is obtained, and the color difference between the corresponding colors exceeds a predetermined threshold value, additional learning is performed using new frame images MA (t) and MB (t), thereby more accurately. It is possible to reduce the color difference generated between the two moving images MA and MB.

1…色補正装置
2…フレーム抽出部
3…領域分割部
4…領域比較部
5…対応色学習部
6…色補正動画像生成部
7…色差評価部
8…メディア制御部
8A…メディア
9…表示部
11…立体動画像生成部
50…入力層
51…中間層
52…出力層
53…正解値
DESCRIPTION OF SYMBOLS 1 ... Color correction apparatus 2 ... Frame extraction part 3 ... Area division part 4 ... Area comparison part 5 ... Corresponding color learning part 6 ... Color correction moving image generation part 7 ... Color difference evaluation part 8 ... Media control part 8A ... Media 9 ... Display Unit 11... 3D image generation unit 50... Input layer 51... Intermediate layer 52.

Claims (9)

同一の被写体を撮影した2つの動画像を入力して蓄積手段に蓄積させる入力手段と、
前記蓄積手段に蓄積された前記2つの動画像それぞれから同時刻におけるフレーム画像を抽出する抽出手段と、
前記フレーム画像それぞれの各画素を複数の領域のいずれかに分類する領域分割手段と、
前記フレーム画像間で対応する領域を判定し、前記領域毎に色の対応関係を求める領域判定手段と、
前記色の対応関係に基づいて一方の色を変換したときに他方の色となる変換規則を学習する学習手段と、
前記変換規則を用いて前記動画像の一方の色を補正する色補正手段と、
を有することを特徴とする色補正装置。
Input means for inputting two moving images of the same subject and storing them in the storage means;
Extraction means for extracting a frame image at the same time from each of the two moving images stored in the storage means;
Area dividing means for classifying each pixel of each of the frame images into one of a plurality of areas;
A region determination unit that determines a corresponding region between the frame images and obtains a color correspondence for each region;
Learning means for learning a conversion rule to be the other color when one color is converted based on the color correspondence;
Color correction means for correcting one color of the moving image using the conversion rule;
A color correction apparatus comprising:
前記領域判定手段は、
前記フレーム画像それぞれに走査領域を設定して前記フレーム画像それぞれを走査し、
前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を求めて、
前記フレーム画像それぞれの対応する前記走査領域間で当該走査領域内に存在する前記領域の色を比較して対応する領域を判定すること
を特徴とする請求項1記載の色補正装置。
The area determination means includes
Scanning each frame image by setting a scanning area for each frame image;
For each scanning region, obtain the region existing in the scanning region and the color of the region,
The color correction apparatus according to claim 1, wherein the corresponding region is determined by comparing the color of the region existing in the scanning region between the corresponding scanning regions of each of the frame images.
前記領域判定手段は、
前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を記載した走査結果表を作成し、
前記走査結果表の前記走査領域を検索し、前記フレーム画像それぞれの対応する走査領域内に存在する前記領域の数が少ない前記走査領域から順に、前記対応する走査領域間で前記領域の色のユークリッド距離を求めて、所定の閾値以下で前記ユークリッド距離が最も近い領域を対応する領域として判定すること
を特徴とする請求項2記載の色補正装置。
The area determination means includes
For each scanning area, create a scanning result table that describes the area present in the scanning area and the color of the area,
The scanning area of the scanning result table is searched, and the Euclidean color of the area between the corresponding scanning areas in order from the scanning area having the smallest number of the areas existing in the corresponding scanning area of each of the frame images. The color correction apparatus according to claim 2, wherein a distance is obtained, and an area where the Euclidean distance is the shortest with a predetermined threshold or less is determined as a corresponding area.
色補正手段が補正した動画像と他方の動画像のそれぞれから同時刻におけるフレーム画像を抽出して色の対応関係を求め、対応する色間の色差が所定の閾値を上回る場合は、追加学習を行わせる判定手段を有することを特徴とする請求項1乃至3のいずれかに記載の色補正装置。   A frame image at the same time is extracted from each of the moving image corrected by the color correcting means and the other moving image to obtain a color correspondence relationship. If the color difference between corresponding colors exceeds a predetermined threshold, additional learning is performed. The color correction apparatus according to claim 1, further comprising a determination unit that performs the determination. 同一の被写体を撮影した2つの動画像を入力して蓄積手段に蓄積させるステップと、
前記蓄積手段に蓄積された前記2つの動画像それぞれから同時刻におけるフレーム画像を抽出するステップと、
前記フレーム画像それぞれの各画素を複数の領域のいずれかに分類するステップと、
前記フレーム画像間で対応する領域を判定するステップと、
前記対応する領域毎に色の対応関係を求めるステップと、
前記色の対応関係に基づいて一方の色を変換したときに他方の色となる変換規則を学習するステップと、
前記変換規則を用いて前記動画像の一方の色を補正するステップと、
を有することを特徴とする色補正方法。
Inputting two moving images of the same subject and storing them in the storage means;
Extracting a frame image at the same time from each of the two moving images stored in the storage means;
Classifying each pixel of each of the frame images into one of a plurality of regions;
Determining a corresponding region between the frame images;
Obtaining a color correspondence for each corresponding region;
Learning a conversion rule to be the other color when one color is converted based on the color correspondence;
Correcting one color of the moving image using the conversion rule;
A color correction method comprising:
前記対応する領域を判定するステップは、
前記フレーム画像それぞれに走査領域を設定して前記フレーム画像それぞれを走査し、
前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を求めて、
前記フレーム画像それぞれの対応する前記走査領域間で当該走査領域内に存在する前記領域の色を比較して対応する領域を判定すること
を特徴とする請求項5記載の色補正方法。
Determining the corresponding region comprises:
Scanning each frame image by setting a scanning area for each frame image;
For each scanning region, obtain the region existing in the scanning region and the color of the region,
The color correction method according to claim 5, wherein the corresponding region is determined by comparing the color of the region existing in the scanning region between the corresponding scanning regions of each of the frame images.
前記対応する領域を判定するステップは、
前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を記載した走査結果表を作成し、
前記走査結果表の前記走査領域を検索し、前記フレーム画像それぞれの対応する走査領域内に存在する前記領域の数が少ない前記走査領域から順に、前記対応する走査領域間で前記領域の色のユークリッド距離を求めて、所定の閾値以下で前記ユークリッド距離が最も近い領域を対応する領域として判定すること
を特徴とする請求項6記載の色補正方法。
Determining the corresponding region comprises:
For each scanning area, create a scanning result table that describes the area present in the scanning area and the color of the area,
The scanning area of the scanning result table is searched, and the Euclidean color of the area between the corresponding scanning areas in order from the scanning area having the smallest number of the areas existing in the corresponding scanning area of each of the frame images. The color correction method according to claim 6, wherein a distance is obtained, and an area where the Euclidean distance is the shortest with a predetermined threshold or less is determined as a corresponding area.
補正した動画像と他方の動画像のそれぞれから同時刻におけるフレーム画像を抽出して色の対応関係を求め、対応する色間の色差が所定の閾値を上回る場合は、追加学習を行わせるステップを有することを特徴とする請求項5乃至6のいずれかに記載の色補正方法。   A frame image at the same time is extracted from each of the corrected moving image and the other moving image to obtain a color correspondence, and when the color difference between corresponding colors exceeds a predetermined threshold, a step of performing additional learning is performed. The color correction method according to claim 5, further comprising: 請求項5乃至8のいずれかに記載の色補正方法をコンピュータに実行させることを特徴とする色補正プログラム。   A color correction program that causes a computer to execute the color correction method according to claim 5.
JP2011024749A 2011-02-08 2011-02-08 Color correction apparatus, color correction method, and color correction program Expired - Fee Related JP5421939B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011024749A JP5421939B2 (en) 2011-02-08 2011-02-08 Color correction apparatus, color correction method, and color correction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011024749A JP5421939B2 (en) 2011-02-08 2011-02-08 Color correction apparatus, color correction method, and color correction program

Publications (2)

Publication Number Publication Date
JP2012165232A JP2012165232A (en) 2012-08-30
JP5421939B2 true JP5421939B2 (en) 2014-02-19

Family

ID=46844188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011024749A Expired - Fee Related JP5421939B2 (en) 2011-02-08 2011-02-08 Color correction apparatus, color correction method, and color correction program

Country Status (1)

Country Link
JP (1) JP5421939B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11328441B2 (en) * 2017-10-27 2022-05-10 Kabushiki Kaisha Toshiba Information processing device and information processing system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10194035B2 (en) 2014-04-29 2019-01-29 Hewlett-Packard Development Company, L.P. Imager calibration via modeled responses to importance-weighted color sample data
WO2022176399A1 (en) * 2021-02-19 2022-08-25 キヤノン株式会社 Image processing device, method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4864835B2 (en) * 2007-08-21 2012-02-01 Kddi株式会社 Color correction apparatus, method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11328441B2 (en) * 2017-10-27 2022-05-10 Kabushiki Kaisha Toshiba Information processing device and information processing system

Also Published As

Publication number Publication date
JP2012165232A (en) 2012-08-30

Similar Documents

Publication Publication Date Title
JP4072674B2 (en) Image processing apparatus and method, recording medium, and program
JP5620651B2 (en) REPRODUCTION DEVICE, IMAGING DEVICE, AND CONTROL METHOD THEREOF
US9210398B2 (en) Method and apparatus for temporally interpolating three-dimensional depth image
JP4283785B2 (en) Stereoscopic image generation apparatus and program
KR101377325B1 (en) Stereoscopic image, multi-view image and depth image acquisition appratus and its control method
CN102918861A (en) Stereoscopic intensity adjustment device, stereoscopic intensity adjustment method, program, integrated circuit, and recording medium
JP5238767B2 (en) Parallax image generation method and apparatus
JP6173218B2 (en) Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
JP2011203811A (en) Image processing apparatus, image processing method, image processing program, and compound eye digital camera
JP5421939B2 (en) Color correction apparatus, color correction method, and color correction program
US20130335524A1 (en) Method and device for obtaining a stereoscopic signal
KR101868017B1 (en) Method for stereo matching and apparatus thereof
KR101316196B1 (en) Apparatus and method for enhancing stereoscopic image, recording medium thereof
US20140125778A1 (en) System for producing stereoscopic images with a hole filling algorithm and method thereof
JP2014072809A (en) Image generation apparatus, image generation method, and program for the image generation apparatus
JP4129786B2 (en) Image processing apparatus and method, recording medium, and program
JP6901424B2 (en) Image processing device and image processing method
KR101233399B1 (en) Method and apparatus for generating multi-view depth map
Gurbuz et al. Color calibration for multi-camera imaging systems
Nam et al. Hole‐Filling Methods Using Depth and Color Information for Generating Multiview Images
CN114331813A (en) PossingGAN network-based image cloning method and system
JP5644862B2 (en) Stereoscopic moving image generating apparatus, stereoscopic moving image generating method, stereoscopic moving image generating program
JP4165158B2 (en) Image processing apparatus and method, recording medium, and program
JP6332982B2 (en) Image processing apparatus and method
JP2017184007A (en) Image processing apparatus, imaging apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131122

R150 Certificate of patent or registration of utility model

Ref document number: 5421939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees