JP2017216598A - Image processing system, image processing apparatus, and image display device - Google Patents

Image processing system, image processing apparatus, and image display device Download PDF

Info

Publication number
JP2017216598A
JP2017216598A JP2016109447A JP2016109447A JP2017216598A JP 2017216598 A JP2017216598 A JP 2017216598A JP 2016109447 A JP2016109447 A JP 2016109447A JP 2016109447 A JP2016109447 A JP 2016109447A JP 2017216598 A JP2017216598 A JP 2017216598A
Authority
JP
Japan
Prior art keywords
image
image data
data
image processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016109447A
Other languages
Japanese (ja)
Inventor
喜彦 湊
Yoshihiko Minato
喜彦 湊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016109447A priority Critical patent/JP2017216598A/en
Publication of JP2017216598A publication Critical patent/JP2017216598A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus that can suitably perform image processing when a data stream in which overlap width image data is superimposed on an ancillary area is input thereto.SOLUTION: An image processing apparatus of the present invention comprises: data extension means that creates extended image data by combining image data of an effective image area and overlap width image data included in a data stream; selection means that selects and outputs one image data of the image data of the effective image area and the extended image data; and image processing means that performs image processing on the selected image data.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置と画像処理装置で構成される画像処理システム、画像処理装置および画像表示装置に関する。   The present invention relates to an image processing system including an imaging device and an image processing device, an image processing device, and an image display device.

フィルタ処理やエッジ強調処理等の画像処理では、処理対象画素の画素値と、その周辺画素の画素値とが用いられる。画像の上下左右の端部の画素の周辺画素が存在しない場合、端部の画素の画素値をコピーして周辺画素を生成する端部処理や、端部付近の複数の画素の画素値を線対称にコピー(ミラーリング)して周辺画素を生成する端部処理が知られている。   In image processing such as filter processing and edge enhancement processing, the pixel value of the pixel to be processed and the pixel values of the surrounding pixels are used. If there are no peripheral pixels around the pixels at the top, bottom, left, and right edges of the image, end processing that creates a peripheral pixel by copying the pixel values of the end pixels, and the pixel values of multiple pixels near the end Edge processing is known in which peripheral pixels are generated by copying (mirroring) symmetrically.

特許文献1には、周辺データ(のりしろ)が付加された画像データをフレームメモリから読み出して、画像処理を施すことが開示されている。   Patent Document 1 discloses that image data to which peripheral data (margin) is added is read from a frame memory and image processing is performed.

特開2008−263646号公報JP 2008-263646 A

しかしながら、上述した従来の技術では、のりしろ画像データを補助データとしてアンシラリ領域(補助信号領域)に重畳したデータストリームが入力される場合に、画像処理を行うことは想定されていなかった。   However, in the above-described conventional technology, it has not been assumed that image processing is performed when a data stream in which margin image data is superimposed as ancillary data on an ancillary area (auxiliary signal area) is input.

そこで、本発明は、のりしろ画像データをアンシラリ領域に重畳したデータストリームが入力される場合に、好適に画像処理を行うことができる画像処理システム、画像処理装置、画像表示装置を提供することを目的とする。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an image processing system, an image processing apparatus, and an image display apparatus that can suitably perform image processing when a data stream in which marginal image data is superimposed on an ancillary area is input. And

上述した課題を解決するために、本発明の一実施形態に係る画像処理装置は、のりしろ画像データをアンシラリ領域に重畳したデータストリームが入力される画像処理装置であって、有効画像領域の画像データと、アンシラリ領域に重畳されたのりしろ画像データと、を含むデータストリームを入力する入力手段と、前記データストリームに含まれる前記有効画像領域の画像データと前記のりしろ画像データとを結合し、拡張画像データを生成するデータ拡張手段と、前記有効画像領域の画像データと前記拡張画像データのうち一方の画像データを選択して出力する選択手段と、前記選択手段で選択された画像データに、画像処理を施す画像処理手段と、を備える。   In order to solve the above-described problem, an image processing apparatus according to an embodiment of the present invention is an image processing apparatus in which a data stream in which marginal image data is superimposed on an ancillary area is input, and image data in an effective image area And an input means for inputting a data stream including a marginal image data superimposed on the ancillary area, and the image data of the effective image area and the marginal image data included in the data stream are combined, and extended image data A data expansion unit for generating image data, a selection unit for selecting and outputting one of the image data of the effective image area and the extended image data, and image processing on the image data selected by the selection unit Image processing means to be applied.

本発明によれば、のりしろ画像データをアンシラリ領域に重畳したデータストリームが入力される場合に、好適に画像処理を行うことが可能となる。   According to the present invention, it is possible to suitably perform image processing when a data stream in which marginal image data is superimposed on an ancillary area is input.

撮像装置と画像表示装置(画像処理装置)で構成される画像処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image processing system comprised with an imaging device and an image display apparatus (image processing apparatus). 撮像装置の処理について説明するためのフロー図である。It is a flowchart for demonstrating the process of an imaging device. 有効画像領域の画像データと有効画像領域外ののりしろ画像データについて説明するための図である。It is a figure for demonstrating the image data of an effective image area | region, and the marginal image data outside an effective image area | region. 有効画像領域の画像データと補助データとを含む1フレーム分のデータストリームの構成の一例を示す図である。It is a figure which shows an example of a structure of the data stream for 1 frame containing the image data of an effective image area | region, and auxiliary data. 画像表示装置の処理について説明するためのフロー図である。It is a flowchart for demonstrating the process of an image display apparatus. 画像処理部による端部処理の一例を説明するための図である。It is a figure for demonstrating an example of the edge part process by an image process part. 画像処理部による端部処理の他の例を説明するための図である。It is a figure for demonstrating the other example of the edge part process by an image process part. DE(データ・イネーブル)信号を拡張する処理について説明するための図である。It is a figure for demonstrating the process which expands a DE (data enable) signal.

以下、図面を用いて本発明の実施の形態について説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定され、以下に例示する実施形態によって限定されるものではない。また、実施形態の中で説明されている特徴の組み合わせすべてが本発明に必須とは限らない。本明細書および図面に記載の内容は例示であって、本発明を制限するものと見なすべきではない。本発明の趣旨に基づき種々の変形(各実施形態の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、各実施形態及びその変形例を組み合わせた構成も全て本発明に含まれるものである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The technical scope of the present invention is determined by the claims, and is not limited by the embodiments exemplified below. In addition, not all combinations of features described in the embodiments are essential to the present invention. The contents described in this specification and drawings are illustrative and should not be construed as limiting the present invention. Various modifications (including organic combinations of the embodiments) are possible based on the spirit of the present invention, and they are not excluded from the scope of the present invention. That is, all configurations in which the embodiments and their modifications are combined are also included in the present invention.

(実施の形態1)
図1は、撮像装置101と画像表示装置(画像処理装置)102で構成される画像処理システムの構成を示すブロック図である。撮像装置101と画像表示装置102は、SDI(Serial Digital Interface)ケーブル等の伝送ケーブルで接続される。撮像装置101で被写体を撮影して得られた画像データ(映像データ)が、SDIケーブルを介して画像表示装置102に伝送され、画像表示装置102の画面に表示される。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a configuration of an image processing system including an imaging device 101 and an image display device (image processing device) 102. The imaging device 101 and the image display device 102 are connected by a transmission cable such as an SDI (Serial Digital Interface) cable. Image data (video data) obtained by photographing the subject with the imaging device 101 is transmitted to the image display device 102 via the SDI cable and displayed on the screen of the image display device 102.

撮像装置101は、撮像部103および重畳部104を備える。撮像部103は、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal−Oxide Semiconductor)センサ等の撮像センサで被写体を撮像して得られた光信号を電気信号に変換する。   The imaging device 101 includes an imaging unit 103 and a superimposing unit 104. The imaging unit 103 converts an optical signal obtained by imaging an object with an imaging sensor such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal-Oxide Semiconductor) sensor into an electrical signal.

重畳部104は、撮像部103から出力された画像データを、有効画像領域の画像データと、有効画像領域外ののりしろ画像データとに分離する。そして、のりしろ画像データを補助データとしてアンシラリ領域(補助信号領域)に重畳し、有効画像領域の画像データと補助データとを出力する。重畳部104は、SMPTE(Society of Motion Picture and Television Engineers)で規定されているSDI規格に従ったフォーマットで画像データと補助データとを多重化したデータストリームを出力する。   The superimposing unit 104 separates the image data output from the imaging unit 103 into image data in the effective image region and marginal image data outside the effective image region. Then, the marginal image data is superimposed on the ancillary area (auxiliary signal area) as auxiliary data, and the image data and auxiliary data of the effective image area are output. The superimposing unit 104 outputs a data stream in which image data and auxiliary data are multiplexed in a format according to the SDI standard defined by SMPTE (Society of Motion Picture and Television Engineers).

図2は、撮像装置101の処理について説明するためのフロー図である。ステップS201において、撮像センサで取り込んだ光信号を電気信号に変換して出力する。次に、ステップS202において、重畳部104は、のりしろ画像データを補助データとしてアンシラリ領域(補助信号領域)に重畳する。そして、ステップS203において、重畳部104は、有効画像領域の画像データと補助データとを多重化したデータストリームを出力する。   FIG. 2 is a flowchart for explaining the processing of the imaging apparatus 101. In step S201, the optical signal captured by the imaging sensor is converted into an electrical signal and output. Next, in step S202, the superimposing unit 104 superimposes the margin image data on the ancillary area (auxiliary signal area) as auxiliary data. In step S203, the superimposing unit 104 outputs a data stream obtained by multiplexing the image data of the effective image area and the auxiliary data.

図3は、有効画像領域の画像データと有効画像領域外ののりしろ画像データについて説明するための図である。有効画像領域(有効画素の領域)の周辺に、左側ののりしろ画像データの周辺領域(周辺画素の領域)L1,L2,L3と、右側ののりしろ画像データの周辺領域R1,R2,R3がある。また、上側ののりしろ画像データの周辺領域U1と、下側ののりしろ画像データの周辺領域U1とがある。   FIG. 3 is a diagram for explaining the image data in the effective image area and the marginal image data outside the effective image area. Around the effective image region (effective pixel region), there are peripheral regions (peripheral pixel regions) L1, L2, and L3 on the left marginal image data, and peripheral regions R1, R2, and R3 on the right marginal image data. Further, there is a peripheral area U1 of the upper marginal image data and a peripheral area U1 of the lower marginal image data.

図4は、有効画像領域の画像データと補助データとを含む1フレーム分のデータストリームの構成の一例を示す図である。EAV(End of Active Video)は、有効画像領域の終わり(ブランキング期間の始まり)を示している。SAV(Start of Active Video)は、有効画像領域の始まりを示している。水平ブランキング期間のアンシラリ領域に、左側の周辺領域L1,L2,L3ののりしろ画像データと、右側の周辺領域R1,R2,R3ののりしろ画像データとが重畳される。また、垂直ブランキング期間のアンシラリ領域に、上側の周辺領域U1ののりしろ画像データと、下側の周辺領域U1ののりしろ画像データとが重畳される。画像表示装置102に入力されるデータストリームは、連続したフレームで構成される映像データを含む。   FIG. 4 is a diagram illustrating an example of the configuration of a data stream for one frame including image data of an effective image area and auxiliary data. EAV (End of Active Video) indicates the end of the effective image area (the start of the blanking period). SAV (Start of Active Video) indicates the beginning of an effective image area. The marginal image data of the left peripheral regions L1, L2, and L3 and the marginal image data of the right peripheral regions R1, R2, and R3 are superimposed on the ancillary region in the horizontal blanking period. In addition, the marginal image data of the upper peripheral region U1 and the marginal image data of the lower peripheral region U1 are superimposed on the ancillary region in the vertical blanking period. The data stream input to the image display device 102 includes video data composed of continuous frames.

再び図2を参照して、画像表示装置102は、アンシラリ解釈部105、データ拡張部106、モード設定部107、選択部108、画像処理部109、トリミング処理部110、選択部111および表示部112を備える。なお、画像表示装置102は、表示部112を別体として接続する画像処理装置であってもよい。   Referring to FIG. 2 again, the image display apparatus 102 includes an ancillary interpretation unit 105, a data expansion unit 106, a mode setting unit 107, a selection unit 108, an image processing unit 109, a trimming processing unit 110, a selection unit 111, and a display unit 112. Is provided. The image display device 102 may be an image processing device that connects the display unit 112 as a separate body.

アンシラリ解釈部105は、撮像装置101から入力されたデータストリームのアンシラリ領域に重畳された補助データを解釈する。そして、有効画像領域の画像データ、補助データおよび解釈結果をデータ拡張部106と選択部108へ出力し、解釈結果を選択部108,111へ出力する。   The ancillary interpretation unit 105 interprets auxiliary data superimposed on the ancillary area of the data stream input from the imaging apparatus 101. Then, the image data of the effective image area, the auxiliary data, and the interpretation result are output to the data expansion unit 106 and the selection unit 108, and the interpretation result is output to the selection units 108 and 111.

データ拡張部106は、アンシラリ解釈部105の解釈結果に基づき、有効画像領域の画像データと、補助データとして重畳されたのりしろ画像データとを結合し、拡張画像データを生成して選択部108へ出力する。   Based on the interpretation result of the ancillary interpretation unit 105, the data expansion unit 106 combines the image data of the effective image area and the marginal image data superimposed as auxiliary data, generates expanded image data, and outputs the expanded image data to the selection unit 108 To do.

モード設定部107は、ユーザから設定されたモード信号を、選択部108,111へ出力する。選択部108は、モード設定部107の設定とアンシラリ解釈部105の解釈結果とに基づいて、アンシラリ解釈部105からの有効画像領域の画像データと、データ拡張部106からの拡張画像データのうち一方の画像データを選択して出力する。   The mode setting unit 107 outputs the mode signal set by the user to the selection units 108 and 111. The selection unit 108 selects one of the image data of the effective image area from the ancillary interpretation unit 105 and the extended image data from the data expansion unit 106 based on the setting of the mode setting unit 107 and the interpretation result of the ancillary interpretation unit 105. Select and output the image data.

画像処理部109は、選択部108から出力された画像データに、フィルタ処理やエッジ強調処理等の画像処理を施して出力する。この画像処理部109は、DE(データ・イネーブル)信号がイネーブル状態のときに画像処理を行う。そして、画像処理が施された画像データを、トリミング処理部110および選択部111へ出力する。   The image processing unit 109 performs image processing such as filter processing and edge enhancement processing on the image data output from the selection unit 108 and outputs the result. The image processing unit 109 performs image processing when a DE (data enable) signal is enabled. Then, the image data subjected to the image processing is output to the trimming processing unit 110 and the selection unit 111.

トリミング処理部110は、画像処理部109から出力された画像データからのりしろ画像データをトリミング処理により切り取り、選択部111へ出力する。   The trimming processing unit 110 cuts margin image data from the image data output from the image processing unit 109 by trimming processing and outputs the trimmed image data to the selection unit 111.

選択部111は、モード設定部107の設定と、アンシラリ解釈部105の解釈結果とに基づいて、トリミング処理部110から出力された画像データと、画像処理部109から出力された画像データのうち一方の画像データを選択して表示部112に出力する。   The selection unit 111 selects one of the image data output from the trimming processing unit 110 and the image data output from the image processing unit 109 based on the setting of the mode setting unit 107 and the interpretation result of the ancillary interpretation unit 105. Are selected and output to the display unit 112.

表示部112は、例えば、液晶パネルや有機ELパネルなどで構成される。この表示部112は、選択部111から出力された画像データに基づき、画面に画像を表示する。   The display unit 112 is configured by, for example, a liquid crystal panel or an organic EL panel. The display unit 112 displays an image on the screen based on the image data output from the selection unit 111.

なお、画像表示装置102は、液晶パネルを用いた液晶ディスプレイであってもよいし、有機ELパネルを用いた有機ELディスプレイであってもよい。また、スクリーンに画像を投影する液晶プロジェクター等であってもよい。   The image display device 102 may be a liquid crystal display using a liquid crystal panel or an organic EL display using an organic EL panel. Further, it may be a liquid crystal projector that projects an image on a screen.

図5は、画像表示装置102の処理について説明するためのフロー図である。ステップS501において、アンシラリ解釈部105は、撮像装置101から出力されたデータストリームのアンシラリ領域に重畳された補助データを解釈し、のりしろ画像データの重畳有無、およびのりしろ画像サイズ等を判別する。   FIG. 5 is a flowchart for explaining the processing of the image display apparatus 102. In step S501, the ancillary interpretation unit 105 interprets auxiliary data superimposed on the ancillary area of the data stream output from the imaging apparatus 101, and determines whether or not the marginal image data is superimposed, the marginal image size, and the like.

アンシラリ解釈部105の解釈結果に基づき、ステップS502において、のりしろ画像データが重畳されているか否かを判定する。のりしろ画像データが重畳されている場合、ステップS502からS503へ進み、のりしろ画像データが重畳されていない場合、ステップS502からS504へ進む。   Based on the interpretation result of the ancillary interpretation unit 105, in step S502, it is determined whether the marginal image data is superimposed. If the marginal image data is superimposed, the process proceeds from step S502 to S503. If the marginal image data is not superimposed, the process proceeds from step S502 to S504.

ステップS503で、選択部108は、モード設定部107からのモード信号に基づき、フレームメモリ帯域を優先するメモリ帯域優先モードと、フレームメモリ帯域を優先せずに画像処理を優先する画像処理優先モードのどちらに設定されているか判別する。そして、メモリ帯域優先モードに設定されている場合は、ステップS503からS504へ進み、画像処理優先モードに設定されている場合は、ステップS503からS505へ進む。メモリ帯域優先モードの場合は、画像処理対象の画像データの画像サイズが小さい方が良いため、選択部108は、アンシラリ解釈部105から出力された有効画像領域の画像データを選択して出力する。画像処理対象の画像データの画像サイズが小さいと、データ転送量が少ないため、フレームメモリの帯域(バンド幅)の圧迫を抑制し、処理負荷が大きくなるのを抑制することができる。一方、画像処理優先モードの場合は、高画質な画像処理を行うため、選択部108は、データ拡張部106から出力された拡張画像データを選択して出力する。   In step S503, based on the mode signal from the mode setting unit 107, the selection unit 108 selects a memory bandwidth priority mode that prioritizes the frame memory bandwidth and an image processing priority mode that prioritizes image processing without prioritizing the frame memory bandwidth. Determine which is set. If the memory bandwidth priority mode is set, the process proceeds from step S503 to S504. If the image processing priority mode is set, the process proceeds from step S503 to S505. In the memory bandwidth priority mode, it is better that the image size of the image data to be processed is smaller. Therefore, the selection unit 108 selects and outputs the image data of the effective image area output from the ancillary interpretation unit 105. If the image size of the image data to be processed is small, the data transfer amount is small, so that it is possible to suppress the compression of the bandwidth (bandwidth) of the frame memory and to prevent the processing load from increasing. On the other hand, in the image processing priority mode, the selection unit 108 selects and outputs the extended image data output from the data expansion unit 106 in order to perform high-quality image processing.

ステップS504において、画像処理部109は、アンシラリ解釈部105から出力された有効画像領域の画像データに対して、端部処理を用いた画像処理を行う。端部処理の例について、図6および図7を用いて説明する。   In step S504, the image processing unit 109 performs image processing using edge processing on the image data of the effective image area output from the ancillary interpretation unit 105. An example of edge processing will be described with reference to FIGS.

図6,7において、太枠線内の画素は、有効画像領域内の有効画素(0以上の値の座標値(0,0)〜(x,y)の画素)であり、太枠線外の画素は、有効画像領域外の周辺画素である。図6は、端部の画素の画素値をコピー(複製)して複数の周辺画素を生成する端部処理の一例を示している。左側端部の画素の画素値をコピーし、左側端部の周辺領域L2の複数の周辺画素を生成する。また、左上隅の画素の画素値をコピーし、左上側の周辺領域L1の複数の周辺画素を生成し、左下隅の画素の画素値をコピーし、左下側の周辺領域L3の複数の周辺画素を生成する。また、右側端部の画素の画素値をコピーし、右側端部の周辺領域R2の複数の周辺画素を生成する。また、右上隅の画素の画素値をコピーし、右上側の周辺領域R1の複数の周辺画素を生成し、右下隅の画素の画素値をコピーし、右下側の周辺領域R3の複数の周辺画素を生成する。また、上側端部の画素の画素値をコピーし、上側端部の周辺領域U1の複数の周辺画素を生成し、下側端部の画素の画素値をコピーし、下側端部の周辺領域D1の複数の周辺画素を生成する。   6 and 7, pixels within the thick frame line are effective pixels in the effective image area (pixels having coordinate values (0, 0) to (x, y) of 0 or more), and are outside the thick frame line. These pixels are peripheral pixels outside the effective image area. FIG. 6 shows an example of end processing for copying (duplicating) pixel values of end pixels to generate a plurality of peripheral pixels. The pixel value of the pixel at the left end is copied to generate a plurality of peripheral pixels in the peripheral region L2 at the left end. Also, the pixel value of the upper left corner pixel is copied to generate a plurality of peripheral pixels in the upper left peripheral region L1, the pixel value of the lower left corner pixel is copied, and the plurality of peripheral pixels in the lower left peripheral region L3 Is generated. Also, the pixel value of the pixel at the right end is copied to generate a plurality of peripheral pixels in the peripheral region R2 at the right end. Also, the pixel value of the pixel in the upper right corner is copied to generate a plurality of peripheral pixels in the peripheral region R1 on the upper right side, the pixel value of the pixel in the lower right corner is copied, and a plurality of peripherals in the peripheral region R3 on the lower right side Generate a pixel. Also, the pixel value of the upper end pixel is copied to generate a plurality of peripheral pixels in the upper end peripheral area U1, the lower end pixel pixel value is copied, and the lower end peripheral area A plurality of peripheral pixels of D1 are generated.

図7は、端部付近の複数の画素の画素値を線対称にコピー(ミラーリング)して対応する周辺画素を生成する端部処理の一例を示している。具体的には、左側端部付近の画素の画素値をコピーし、左側端部の周辺領域L2の対応する周辺画素を生成する。また、左上隅付近の画素の画素値をコピーし、左上側の周辺領域L1の対応する周辺画素を生成し、左下隅付近の画素の画素値をコピーし、左下側の周辺領域L3の対応する周辺画素を生成する。また、右側端部付近の画素の画素値をコピーし、右側端部の周辺領域R2の対応する周辺画素を生成する。また、右上隅付近の画素の画素値をコピーし、右上側の周辺領域R1の対応する周辺画素を生成し、右下隅付近の画素の画素値をコピーし、右下側の周辺領域R3の対応する周辺画素を生成する。また、上側端部付近の画素の画素値をコピーし、上側端部の周辺領域U1の対応する周辺画素を生成し、下側端部付近の画素の画素値をコピーし、下側端部の周辺領域D1の対応する周辺画素を生成する。   FIG. 7 shows an example of end processing for copying (mirroring) the pixel values of a plurality of pixels in the vicinity of the end portion symmetrically to generate corresponding peripheral pixels. Specifically, the pixel values of the pixels near the left end are copied to generate corresponding peripheral pixels in the peripheral region L2 at the left end. Further, the pixel value of the pixel near the upper left corner is copied to generate the corresponding peripheral pixel in the upper left peripheral region L1, the pixel value of the pixel near the lower left corner is copied, and the corresponding pixel in the lower left peripheral region L3 Peripheral pixels are generated. Further, the pixel value of the pixel near the right end is copied, and the corresponding peripheral pixel in the peripheral region R2 at the right end is generated. Also, the pixel value of the pixel near the upper right corner is copied to generate the corresponding peripheral pixel in the upper right side peripheral region R1, the pixel value of the pixel near the lower right corner is copied, and the corresponding value in the lower right side peripheral region R3 The peripheral pixels to be generated are generated. Also, the pixel value of the pixel near the upper end is copied, the corresponding peripheral pixel in the peripheral region U1 at the upper end is generated, the pixel value of the pixel near the lower end is copied, and the lower end A peripheral pixel corresponding to the peripheral region D1 is generated.

以上のような端部処理では、有効画像領域外の周辺領域の周辺画素をコピーにより生成するので、実際ののりしろ画像データとは異なる画素値となり、画像処理結果の画質は少し低下する。   In the edge processing as described above, peripheral pixels outside the effective image region are generated by copying, so that the pixel value is different from the actual marginal image data, and the image quality of the image processing result is slightly reduced.

再び図5を参照して、ステップS505において、データ拡張部106は、アンシラリ解釈部105の解釈結果に基づき、有効画像領域の画像データと、補助データとして重畳されたのりしろ画像データとを結合し、拡張画像データを選択部108へ出力する。また、データ拡張部106は、水平方向および垂直方向のDE信号を拡張する。   Referring to FIG. 5 again, in step S505, based on the interpretation result of the ancillary interpretation unit 105, the data expansion unit 106 combines the image data of the effective image area and the marginal image data superimposed as auxiliary data, The extended image data is output to the selection unit 108. The data expansion unit 106 expands the horizontal and vertical DE signals.

図8は、DE信号を拡張する処理について説明するための図である。入力垂直DE信号および入力水平DE信号は、有効画像領域の画像データに対応したタイミングでイネーブル状態となる。拡張垂直DE信号および拡張水平DE信号は、有効画像領域の画像データにのりしろ画像データを結合して得られた拡張画像データに対応したタイミングでイネーブル状態となり、イネーブル期間が拡張される。データ拡張部106は、アンシラリ解釈部105の解釈結果で得られた、のりしろ画像のサイズに関する情報を用いて、DE信号を拡張する処理を行う。   FIG. 8 is a diagram for explaining the process of extending the DE signal. The input vertical DE signal and the input horizontal DE signal are enabled at a timing corresponding to the image data in the effective image area. The extended vertical DE signal and the extended horizontal DE signal are enabled at the timing corresponding to the extended image data obtained by combining the image data in the effective image area and the marginal image data, and the enable period is extended. The data extension unit 106 performs processing for extending the DE signal using information regarding the size of the marginal image obtained from the interpretation result of the ancillary interpretation unit 105.

次に、ステップS506において、画像処理部109は、有効画像領域の画像データにのりしろ画像データを結合して得られた拡張画像データに、フィルタ処理やエッジ強調処理等の画像処理を施して出力する。この画像処理部109は、拡張垂直DE信号および拡張水平DE信号がイネーブル状態のときに画像処理を行う。   Next, in step S506, the image processing unit 109 performs image processing such as filter processing and edge enhancement processing on the extended image data obtained by combining the image data in the effective image region with the marginal image data, and outputs the result. . The image processing unit 109 performs image processing when the extended vertical DE signal and the extended horizontal DE signal are enabled.

この場合は、ステップS504で端部処理を用いた画像処理を行う場合に比べると、画像処理結果の画質は良い。   In this case, the image quality of the image processing result is better than when image processing using edge processing is performed in step S504.

S507において、トリミング処理部110は、画像処理部109から出力された画像データからのりしろ画像データをトリミング処理により切り取り、選択部111へ出力する。また、拡張垂直DE信号および拡張水平DE信号のイネーブル期間を縮小し、図8に示したようなトリミング垂直DE信号およびトリミング水平DE信号を生成する。拡張垂直DE信号および拡張水平DE信号のイネーブル期間は、トリミング垂直DE信号およびトリミング水平DE信号のイネーブル期間と同じにする。   In step S <b> 507, the trimming processing unit 110 cuts margin image data from the image data output from the image processing unit 109 by trimming processing, and outputs the trimmed image data to the selection unit 111. Further, the enable periods of the extended vertical DE signal and the extended horizontal DE signal are reduced, and the trimming vertical DE signal and the trimming horizontal DE signal as shown in FIG. 8 are generated. The enable periods of the extended vertical DE signal and the extended horizontal DE signal are the same as the enable periods of the trimmed vertical DE signal and the trimmed horizontal DE signal.

次に、ステップS508において、選択部111は、トリミング処理部110から出力された画像データと、画像処理部109から出力された画像データのうち、一方の画像データを選択して、表示部112に出力する。具体的には、モード設定部107により有効画像領域を表示する表示モードに設定されている場合は、トリミング処理部110から出力された画像データを選択して表示部112に出力する。また、モード設定部107により有効画像領域外の周辺領域も表示する表示モードに設定されている場合は、画像処理部109から出力された画像データを選択して表示部112に出力する。   In step S <b> 508, the selection unit 111 selects one of the image data output from the trimming processing unit 110 and the image data output from the image processing unit 109 and displays the image data on the display unit 112. Output. Specifically, when the display mode for displaying the effective image area is set by the mode setting unit 107, the image data output from the trimming processing unit 110 is selected and output to the display unit 112. If the mode setting unit 107 sets the display mode to display a peripheral region outside the effective image region, the image data output from the image processing unit 109 is selected and output to the display unit 112.

以上のように、本実施の形態1によれば、のりしろ画像データをアンシラリ領域に重畳したデータストリームが入力される場合に、好適に画像処理を行うことができる。   As described above, according to the first embodiment, image processing can be suitably performed when a data stream in which marginal image data is superimposed on an ancillary area is input.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)における1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。上述の実施形態の1以上の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or apparatus via a network or a storage medium, and one or more programs in the computer (or CPU, MPU, etc.) of the system or apparatus. This can also be realized by a process in which the processor reads and executes the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. A computer program itself for realizing one or more functions of the above-described embodiments is also one aspect of the present invention.

101 撮像装置
102 表示装置
103 撮像部
104 重畳部
105 アンシラリ解釈部
106 データ拡張部
107 モード設定部
108,111 選択部
109 画像処理部
110 トリミング処理部
112 表示部
DESCRIPTION OF SYMBOLS 101 Image pick-up device 102 Display apparatus 103 Image pick-up part 104 Superimposition part 105 Ancillary interpretation part 106 Data expansion part 107 Mode setting part 108,111 Selection part 109 Image processing part 110 Trimming process part 112 Display part

Claims (5)

撮像装置と画像処理装置で構成される画像処理システムであって、
前記撮像装置は、
被写体を撮像する撮像手段と、
前記撮像により得られた画像データに基づいて、有効画像領域の画像データと、アンシラリ領域に重畳されたのりしろ画像データと、を含むデータストリームを出力する重畳手段と、を備え、
前記画像処理装置は、
前記データストリームを入力する入力手段と、
前記データストリームに含まれる前記有効画像領域の画像データと前記のりしろ画像データとを結合し、拡張画像データを生成するデータ拡張手段と、
前記有効画像領域の画像データと前記拡張画像データのうち一方の画像データを選択して出力する選択手段と、
前記選択手段で選択された画像データに、画像処理を施す画像処理手段と、を備える画像処理装置。
An image processing system including an imaging device and an image processing device,
The imaging device
Imaging means for imaging a subject;
Superimposing means for outputting a data stream including the image data of the effective image region and the marginal image data superimposed on the ancillary region based on the image data obtained by the imaging,
The image processing apparatus includes:
Input means for inputting the data stream;
Data expansion means for combining the image data of the effective image area included in the data stream and the marginal image data to generate expanded image data;
Selecting means for selecting and outputting one of the image data of the effective image area and the extended image data;
An image processing apparatus comprising: image processing means for performing image processing on the image data selected by the selection means.
前記選択手段は、ユーザにより設定されたモードに応じて、前記有効画像領域の画像データと、前記拡張画像データのうち、一方の画像データを選択して出力することを特徴とする請求項1に記載の画像処理装置。   The selection unit selects and outputs one of the image data of the effective image area and the extended image data according to a mode set by a user. The image processing apparatus described. のりしろ画像データをアンシラリ領域に重畳したデータストリームが入力される画像処理装置であって、
有効画像領域の画像データと、アンシラリ領域に重畳されたのりしろ画像データと、を含むデータストリームを入力する入力手段と、
前記データストリームに含まれる前記有効画像領域の画像データと前記のりしろ画像データとを結合し、拡張画像データを生成するデータ拡張手段と、
前記有効画像領域の画像データと前記拡張画像データのうち一方の画像データを選択して出力する選択手段と、
前記選択手段で選択された画像データに、画像処理を施す画像処理手段と、を備える画像処理装置。
An image processing apparatus to which a data stream in which marginal image data is superimposed on an ancillary area is input,
Input means for inputting a data stream including image data of an effective image area and marginal image data superimposed on the ancillary area;
Data expansion means for combining the image data of the effective image area included in the data stream and the marginal image data to generate expanded image data;
Selecting means for selecting and outputting one of the image data of the effective image area and the extended image data;
An image processing apparatus comprising: image processing means for performing image processing on the image data selected by the selection means.
前記選択手段は、ユーザにより設定されたモードに応じて、前記有効画像領域の画像データと、前記拡張画像データのうち、一方の画像データを選択して出力することを特徴とする請求項3に記載の画像処理装置。   The selection unit selects and outputs one of the image data of the effective image area and the extended image data according to a mode set by a user. The image processing apparatus described. 請求項3または4に記載の画像処理装置と、
前記画像処理が施された画像データに基づき、画像を表示する表示手段と、を備える画像表示装置。
An image processing apparatus according to claim 3 or 4,
An image display device comprising: display means for displaying an image based on the image data subjected to the image processing.
JP2016109447A 2016-05-31 2016-05-31 Image processing system, image processing apparatus, and image display device Pending JP2017216598A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016109447A JP2017216598A (en) 2016-05-31 2016-05-31 Image processing system, image processing apparatus, and image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016109447A JP2017216598A (en) 2016-05-31 2016-05-31 Image processing system, image processing apparatus, and image display device

Publications (1)

Publication Number Publication Date
JP2017216598A true JP2017216598A (en) 2017-12-07

Family

ID=60577208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016109447A Pending JP2017216598A (en) 2016-05-31 2016-05-31 Image processing system, image processing apparatus, and image display device

Country Status (1)

Country Link
JP (1) JP2017216598A (en)

Similar Documents

Publication Publication Date Title
US10110821B2 (en) Image processing apparatus, method for controlling the same, and storage medium
US9538085B2 (en) Method of providing panoramic image and imaging device thereof
US20120050309A1 (en) Display control apparatus and display control method
JP5952782B2 (en) Image processing apparatus, control method therefor, program, and storage medium
JP6087612B2 (en) Image processing apparatus and image processing method
JP2013165487A (en) Image processing apparatus, image capturing apparatus, and program
US20180270448A1 (en) Image processing system
US9706109B2 (en) Imaging apparatus having multiple imaging units and method of controlling the same
JP2018061130A (en) Image processing device, image processing method, and program
JP2010028452A (en) Image processor and electronic camera
JP2010152518A (en) Image processor and image processing method
JP5950755B2 (en) Image processing apparatus, control method, program, and storage medium
JP2009105645A (en) Device and method for displaying image
US11202019B2 (en) Display control apparatus with image resizing and method for controlling the same
US9661217B2 (en) Image capturing apparatus and control method therefor
JP2017216598A (en) Image processing system, image processing apparatus, and image display device
JP6557451B2 (en) Imaging apparatus, control method therefor, and program
JP6012232B2 (en) Imaging apparatus and program
JP2011259107A (en) Projection device and control method thereof
US9648232B2 (en) Image processing apparatus, image capturing apparatus, control method and recording medium
JP6917800B2 (en) Image processing device and its control method and program
JP6889622B2 (en) Image processing device and its control method and program
JP2017011676A (en) Image-processing apparatus and image-processing method
JP2023067423A (en) Imaging apparatus
JP2018124377A (en) Display device, display system, and display method