JP6978720B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6978720B2
JP6978720B2 JP2016231086A JP2016231086A JP6978720B2 JP 6978720 B2 JP6978720 B2 JP 6978720B2 JP 2016231086 A JP2016231086 A JP 2016231086A JP 2016231086 A JP2016231086 A JP 2016231086A JP 6978720 B2 JP6978720 B2 JP 6978720B2
Authority
JP
Japan
Prior art keywords
information
image
display
information signal
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016231086A
Other languages
Japanese (ja)
Other versions
JP2018088625A (en
Inventor
恭佑 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu General Ltd
Original Assignee
Fujitsu General Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu General Ltd filed Critical Fujitsu General Ltd
Priority to JP2016231086A priority Critical patent/JP6978720B2/en
Publication of JP2018088625A publication Critical patent/JP2018088625A/en
Application granted granted Critical
Publication of JP6978720B2 publication Critical patent/JP6978720B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Television Systems (AREA)

Description

本発明は画像処理装置に関する。 The present invention relates to an image processing apparatus.

特許文献1は画像処理装置を開示する。ディスプレイの画素には撮像素子の画素が割り当てられる。画素同士が1対1で対応しない場合には、補間処理に応じてディスプレイの画素にRGB値は関連づけられる。 Patent Document 1 discloses an image processing apparatus. The pixels of the image sensor are assigned to the pixels of the display. When the pixels do not have a one-to-one correspondence, the RGB values are associated with the pixels of the display according to the interpolation process.

国際公開第2008/139577号International Publication No. 2008/139757

例えば撮像素子の画素数に比べてディスプレイの画素数が少ない場合など、ディスプレイの1つの画素に撮像素子の複数の画素が割り当てられると、複数のRGB情報は1画素にまとめられてしまう。RGB情報の多くは捨象される。その結果、画像はぼやけてしまう。 For example, when the number of pixels of the display is smaller than the number of pixels of the image pickup element, when a plurality of pixels of the image pickup element are assigned to one pixel of the display, the plurality of RGB information is combined into one pixel. Most of the RGB information is discarded. As a result, the image becomes blurry.

本発明は、撮像素子の画素数に比べてディスプレイの画素数が少ない場合でも、実質的にディスプレイの解像度を上げることができる画像処理装置を提供することを目的とする。 An object of the present invention is to provide an image processing device capable of substantially increasing the resolution of a display even when the number of pixels of the display is smaller than the number of pixels of the image pickup element.

本発明の一形態は、1つの座標値で指定されるR情報信号、G情報信号およびB情報信号を1画素の情報として出力する複数の画素を有する撮像素子と、前記出力された1画素の情報を受信する受信部と、前記撮像素子上にある前記画素ごとに存在し、個別に座標値が付与されたディスプレイ上のR素子、G素子およびB素子にそれぞれ前記R情報信号、前記G情報信号および前記B情報信号を割り当てる座標変換部とを備える画像処理装置に関する。 One embodiment of the present invention comprises an image pickup device having a plurality of pixels that output an R information signal, a G information signal, and a B information signal designated by one coordinate value as information of one pixel, and the output one pixel. The R information signal and the G information are attached to the R element, the G element, and the B element on the display, which are present for each of the receiving unit for receiving the information and the pixel on the image sensor and individually assigned the coordinate values. The present invention relates to an image processing apparatus including a signal and a coordinate conversion unit for assigning the B information signal.

一般に、ディスプレイではR素子、G素子およびB素子の組み合わせで1画素が形成される。RGBの組み合わせで色は再現される。したがって、1画素中のR素子、G素子およびB素子を1つの座標値で管理するのではなく、1画素中のR素子、G素子およびB素子に個別に座標値を割り当てることで、画像内で色味が弱い部分、あるいは夜間等で画像に色情報があまりない場合において実質的にディスプレイの解像度を上げることができる。解像度が上がる原理については後述する。 Generally, in a display, one pixel is formed by a combination of an R element, a G element, and a B element. Colors are reproduced by combining RGB. Therefore, instead of managing the R element, G element, and B element in one pixel with one coordinate value, the coordinate values are individually assigned to the R element, G element, and B element in one pixel in the image. It is possible to substantially increase the resolution of the display in a part where the color is weak or when there is not much color information in the image at night or the like. The principle of increasing the resolution will be described later.

前記座標変換部は、座標変換に応じて前記R情報信号、前記G情報信号および前記B情報信号ごとに座標を設定し、設定された座標値を持つ複数の前記R情報信号同士、複数の前記B情報信号同士および複数の前記G情報信号同士を用いてそれぞれ補間を行うとともに新たな座標を持たせ、前記ディスプレイの前記座標に対応するR素子を発光させるためのR情報、前記ディスプレイの前記座標に対応するG素子を発光させるためのG情報および前記ディスプレイの前記座標に対応するB素子を発光させるためのB情報を生成する補間部を備えてもよい。 The coordinate conversion unit sets coordinates for each of the R information signal, the G information signal, and the B information signal according to the coordinate conversion, and the plurality of R information signals having the set coordinate values, and the plurality of the above. R information for interpolating between B information signals and a plurality of G information signals and having new coordinates to cause the R element corresponding to the coordinates of the display to emit light, and the coordinates of the display. It may be provided with an interpolation unit that generates G information for causing the G element corresponding to the above to emit light and B information for causing the B element corresponding to the coordinates of the display to emit light.

前記受信部で受信される画像の横方向の画素数は、前記補間部から出力される画像の横方向の画素数より大きいことが望ましい。これは本発明を適用しても、受信部で受信される画像の解像度を超えて、最終的にディスプレイに表示される解像度を上げることができないためである。なお、画素数が多いほど、解像度が向上することは周知の事実である。 It is desirable that the number of pixels in the horizontal direction of the image received by the receiving unit is larger than the number of pixels in the horizontal direction of the image output from the interpolation unit. This is because even if the present invention is applied, the resolution finally displayed on the display cannot be increased beyond the resolution of the image received by the receiving unit. It is a well-known fact that the resolution improves as the number of pixels increases.

座標変換部は、ディスプレイの回転角を特定する回転角信号を受信し、特定された前記回転角に応じて前記座標値を指定してもよい。ディスプレイの回転に応じてR素子、G素子およびB素子の配列が変化しても、そうした変化に合わせて画像は表示されることができる。画像の違和感は回避されることができる。 The coordinate conversion unit may receive the rotation angle signal for specifying the rotation angle of the display and specify the coordinate value according to the specified rotation angle. Even if the arrangement of the R element, the G element, and the B element changes according to the rotation of the display, the image can be displayed according to the change. The discomfort of the image can be avoided.

表示装置は以上のような画像処理装置を含むことができる。表示装置では、ディスプレイで画素数を増やすことなく、実質的にディスプレイの解像度を上げることができる。 The display device can include the image processing device as described above. In the display device, the resolution of the display can be substantially increased without increasing the number of pixels in the display.

以上のように開示の画像処理装置によれば、ディスプレイの画素数で決まる解像度より高い解像度の画像を表示させることができる。 As described above, according to the disclosed image processing apparatus, it is possible to display an image having a resolution higher than the resolution determined by the number of pixels of the display.

一実施形態に係る表示装置すなわちディスプレイユニットの全体像を概略的に示す概念図である。It is a conceptual diagram which shows the whole image of the display device, that is, the display unit which concerns on one Embodiment. 画像処理装置の処理動作を概略的に示すフローチャートである。It is a flowchart which shows the processing operation of an image processing apparatus roughly. 変形例に係る表示装置すなわちディスプレイユニットの全体像を概略的に示す概念図である。It is a conceptual diagram which shows the whole image of the display device, that is, the display unit which concerns on a modification. 画像処理により解像度が向上することを説明する模式図である。It is a schematic diagram explaining that the resolution is improved by image processing. 本実施形態により生成される画像と従来手法により生成される画像とを示す写真である。It is a photograph which shows the image generated by this embodiment and the image generated by a conventional method. 従来手法により生成される画像と本発明により生成される画像の比較図である。It is a comparison diagram of the image generated by the conventional method and the image generated by this invention.

以下、添付図面を参照しつつ本発明の一実施形態を説明する。まず、本発明の前提条件として、撮像素子24の横方向の画素数がディスプレイパネル12の横方向の画素数より大きいこととして説明を行う。 Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings. First, as a precondition of the present invention, it will be described that the number of pixels in the horizontal direction of the image pickup element 24 is larger than the number of pixels in the horizontal direction of the display panel 12.

図1は本発明の一実施形態に係る表示装置の全体像を概略的に示す。ディスプレイユニット11は、ディスプレイパネル12と、ディスプレイパネル12に接続されてディスプレイパネル12に表示画像信号を供給する画像処理装置13とを備える。ディスプレイパネル12は画面を構成する複数の画素14、14…を有する。画素14、14…は画面の垂直方向Vcおよび水平方向Hrに配列される。 FIG. 1 schematically shows an overall image of a display device according to an embodiment of the present invention. The display unit 11 includes a display panel 12 and an image processing device 13 that is connected to the display panel 12 and supplies a display image signal to the display panel 12. The display panel 12 has a plurality of pixels 14, 14 ... That constitute the screen. Pixels 14, 14 ... Are arranged in the vertical direction Vc and the horizontal direction Hr of the screen.

ディスプレイパネル12の個々の画素14は1つのR(赤色)素子15、1つのG(緑色)素子16および1つのB(青色)素子17で形成される。R素子15は赤色で発光する。G素子16は緑色で発光する。B素子17は青色で発光する。ここでは、画面の左から右に向かってR素子15、G素子16およびB素子17が順番に配列されるものの、配列の順番はこの順番に限られるものではない。個々の素子15、16、17には輝度に応じて電気信号が供給される。個々の素子15、16、17ごとにディスプレイ12上の座標値は割り当てられる。 Each pixel 14 of the display panel 12 is formed by one R (red) element 15, one G (green) element 16 and one B (blue) element 17. The R element 15 emits light in red. The G element 16 emits green light. The B element 17 emits light in blue. Here, the R element 15, the G element 16, and the B element 17 are arranged in order from the left to the right of the screen, but the order of the arrangement is not limited to this order. An electric signal is supplied to the individual elements 15, 16 and 17 according to the brightness. Coordinate values on the display 12 are assigned to each of the elements 15, 16 and 17.

画像処理装置13は、撮像素子24から座標値とともに出力されるR情報信号、G情報信号およびB情報信号を含む1画素の情報を順次受信する受信部21と、受信した1画素の情報に含まれるR情報信号、G情報信号、R情報信号をディスプレイユニット12の特定の座標の画素14を構成するR素子15、G素子16およびB素子17に対しそれぞれ割り当てる座標変換部22と、割り当てられたR情報信号、G情報信号およびB情報信号を基にディスプレイ12に送信する信号を生成するエンコーダ23とを備える。 The image processing device 13 is included in the reception unit 21 that sequentially receives the information of one pixel including the R information signal, the G information signal, and the B information signal output from the image pickup element 24 together with the coordinate values, and the information of the received one pixel. The R information signal, the G information signal, and the R information signal are assigned to the coordinate conversion unit 22 that allocates the R information signal, the G information signal, and the R information signal to the R element 15, the G element 16, and the B element 17, which constitute the pixel 14 of the specific coordinates of the display unit 12, respectively. It includes an encoder 23 that generates a signal to be transmitted to the display 12 based on the R information signal, the G information signal, and the B information signal.

受信部21には撮像素子24が接続される。撮像素子24には例えばCCD(チャージカップルドデバイス)イメージセンサやCMOS(相補性金属酸化膜半導体)イメージセンサが用いられればよい。撮像素子24は例えばカメラといった入力装置25に組み込まれる。撮像素子24にはレンズ26が組み合わせられる。ここでは、レンズ26には例えば広角レンズや魚眼レンズが用いられる。撮像素子24は撮像素子上の個々の画素から1つのR情報信号、1つのG情報信号および1つのB情報信号を出力する。受信部21は、これらR情報信号、G情報信号およびB情報信号を受信する。 The image sensor 24 is connected to the receiving unit 21. For example, a CCD (charged coupled device) image sensor or a CMOS (complementary metal oxide semiconductor) image sensor may be used for the image pickup element 24. The image pickup device 24 is incorporated in an input device 25 such as a camera. A lens 26 is combined with the image sensor 24. Here, for example, a wide-angle lens or a fisheye lens is used for the lens 26. The image sensor 24 outputs one R information signal, one G information signal, and one B information signal from each pixel on the image sensor. The receiving unit 21 receives these R information signals, G information signals, and B information signals.

入力装置25は、他の機器から映像信号を受け取るデコーダであってもよく、SDカードなどの記録媒体から画像や動画を読み込むリーダであってもよい。その他、入力装置25には、YUV信号をRGB信号に変換するコンバータが含まれてもよい。 The input device 25 may be a decoder that receives a video signal from another device, or may be a reader that reads an image or a moving image from a recording medium such as an SD card. In addition, the input device 25 may include a converter that converts a YUV signal into an RGB signal.

受信部21は画像メモリ28を備える。画像メモリ28はSRAM(スタティックランダムアクセスメモリ)やSDRAM(シンクロナスダイナミックランダムアクセスメモリ)で構成されればよい。画像メモリ28には座標値で特定される撮像素子24上の個々の画素ごとにR素子15の情報(輝度値)、G素子16の情報(輝度値)およびB素子17の情報(輝度値)が記憶される。 The receiving unit 21 includes an image memory 28. The image memory 28 may be composed of an SRAM (static random access memory) or an SDRAM (synchronous dynamic random access memory). In the image memory 28, information on the R element 15 (luminance value), information on the G element 16 (luminance value), and information on the B element 17 (luminance value) for each individual pixel on the image sensor 24 specified by the coordinate values. Is remembered.

座標変換部22は、座標計算部29および補間部31を備える。座標計算部29は、ディスプレイ12上の座標(x, y)に対応する素子の輝度を、撮像素子24上の個々の画素から出力される座標(X,Y)および輝度を伴ったR情報信号、G情報信号またはB情報信号を基に算出する。ディスプレイ12上のR素子、G素子およびB素子の座標値はそれぞれ個別に存在する。なお、本発明ではx方向の座標は整数として離散した値ではなく1/3刻みとし説明を行うこととする。あるG素子の座標を(x, y)とすると、x方向の向かって左側に隣接するR素子の座標は(x−1/3, y)、x方向の向かって右側に隣接するB素子の座標は(x+1/3, y)となる。また、ここでは前述の座標の付与に加え、例えば俯瞰画像等への画像変換を行わせてもよい。俯瞰画像への変換の手法については公知の技術のためここでは記載を省略する。座標計算部29は汎用のCPU(中央演算処理装置)またはFPGA(フィールドプログラマブルゲートアレイ)で構成されればよい。CPUまたはFPGAには例えばROM(リードオンリーメモリ)が接続される。ROMにはCPUまたはFPGAで実行されるソフトウェアプログラムが格納される。あるいは、座標計算部29は専用の演算を実行するASIC(特定用途向け集積回路)で構成されてもよい。その他、座標計算部29は、計算結果を格納したROMとROMリーダとで構成されてもよい。あるいは、座標計算部29は、一部の計算結果を格納したROMおよびROMリーダと、そこから残りの座標を補間で算出する補間回路とから構成されてもよい。 The coordinate conversion unit 22 includes a coordinate calculation unit 29 and an interpolation unit 31. The coordinate calculation unit 29 sets the brightness of the element corresponding to the coordinates (x, y) on the display 12 to the coordinates (X, Y) output from the individual pixels on the image sensor 24 and the R information signal with the brightness. , G information signal or B information signal . The coordinate values of the R element, the G element, and the B element on the display 12 exist individually. In the present invention, the coordinates in the x direction will be described as integers in 1/3 increments rather than discrete values. Assuming that the coordinates of a certain G element are (x, y), the coordinates of the R element adjacent to the left side in the x direction are (x-1 / 3, y), and the coordinates of the B element adjacent to the right side in the x direction are The coordinates are (x + 1/3, y). Further, here, in addition to the above-mentioned addition of the coordinates, image conversion to, for example, a bird's-eye view image may be performed. Since the method of converting to a bird's-eye view image is a known technique, the description thereof is omitted here. The coordinate calculation unit 29 may be configured by a general-purpose CPU (central processing unit) or FPGA (field programmable gate array). For example, a ROM (read-only memory) is connected to the CPU or FPGA. A software program executed by the CPU or FPGA is stored in the ROM. Alternatively, the coordinate calculation unit 29 may be configured by an ASIC (Integrated Circuit for Specific Applications) that executes a dedicated calculation. In addition, the coordinate calculation unit 29 may be composed of a ROM for storing the calculation result and a ROM reader. Alternatively, the coordinate calculation unit 29 may be composed of a ROM and a ROM reader that stores a part of the calculation results, and an interpolation circuit that calculates the remaining coordinates from the ROM and the ROM reader by interpolation.

撮像素子24上のR情報信号を出力する画素の座標と、G情報信号およびR情報信号を出力する画素の座標と、それが入力されるディスプレイ12上のR素子、G素子およびB素子との座標の間の関係は以下の式で表される。ここで、(Xr,Yr)はディスプレイ12上のR素子の輝度を決定するために参照される撮像素子24上の画素の座標を、(Xg,Yg)はディスプレイ12上のG素子の輝度を決定するために参照される撮像素子24上の画素の座標を、また、(Xb,Yb)はディスプレイ12上のB素子の輝度を決定するために参照される撮像素子24上の画素の座標をそれぞれ示している。Xr、Yr、Xg、Yg、Xb、Ybは整数値を取る。なお、関数fや関数gの具体的処理については、撮像素子24上の画素の座標に対応するディスプレイ12上の素子の座標を予め決めたテーブルを用意しておき、それを参照することで座標変換を行う処理が一般的である。

Figure 0006978720
The coordinates of the pixel that outputs the R information signal on the image pickup element 24, the coordinates of the pixel that outputs the G information signal and the R information signal , and the R element, the G element, and the B element on the display 12 to which the G information signal is input. The relationship between the coordinates is expressed by the following equation. Here, (Xr, Yr) is the coordinate of the pixel on the image sensor 24 referred to for determining the brightness of the R element on the display 12, and (Xg, Yg) is the brightness of the G element on the display 12. The coordinates of the pixels on the image sensor 24 referred to for determining, and (Xb, Yb) are the coordinates of the pixels on the image sensor 24 referred to for determining the brightness of the element B on the display 12. Each is shown. Xr, Yr, Xg, Yg, Xb, Yb take integer values. For the specific processing of the function f and the function g, prepare a table in which the coordinates of the element on the display 12 corresponding to the coordinates of the pixels on the image sensor 24 are predetermined, and refer to the table to obtain the coordinates. The process of performing conversion is common.
Figure 0006978720

補間部31は、上述の俯瞰変換等に伴い画像の一部拡大を行うにあたって、拡大される画像部分の解像度を向上させるために補間処理を行う。R素子同士における補間処理について一例を記述すると、画像メモリ28に格納された水平方向Hrに隣接する2つのR素子の輝度および座標情報に基づき、2つのR素子の中間の座標のR情報を新たに生成する場合、その輝度は2つのR素子の平均値とする。補間処理は前述の水平方法のみならず、周辺の複数のR情報の座標と新たに生成するR情報の座標との距離とそれぞれの輝度から加重平均により生成してもよいし、線形補間やバイキュービック、ランチョスその他の補間手法が用いられてもよい。 The interpolation unit 31 performs interpolation processing in order to improve the resolution of the enlarged image portion when partially enlarging the image due to the above-mentioned bird's-eye view conversion or the like. To describe an example of the interpolation processing between R elements, the R information of the coordinates between the two R elements is newly added based on the luminance and coordinate information of the two R elements adjacent to the horizontal Hr stored in the image memory 28. The brightness is the average value of the two R elements. The interpolation process is not limited to the above-mentioned horizontal method, but may be generated by a weighted average from the distance between the coordinates of a plurality of surrounding R information and the coordinates of the newly generated R information and the respective brightness, or linear interpolation or buy. Cubic, Ranchos and other interpolation techniques may be used.

次に本実施形態の動作を説明する。ディスプレイパネル12では4角の1つに二次元座標の原点が設定される。原点から画面の水平方向にx座標軸が設定され、垂直方向にy座標軸が設定される。個々のR素子15、G素子16およびB素子17にはそれぞれ個別に座標値が設定される。撮像素子24の個々の画素から出力された座標値(X,Y)を伴う情報信号をディスプレイ24上の特定の素子に割り当てるために座標変換部29で新たな座標値(x,y)が与えられ、その結果を基にディスプレイ24上の素子が発光する。 Next, the operation of this embodiment will be described. In the display panel 12, the origin of the two-dimensional coordinates is set in one of the four corners. The x-axis is set in the horizontal direction of the screen from the origin, and the y-axis is set in the vertical direction. Coordinate values are individually set for each of the R element 15, the G element 16, and the B element 17. A new coordinate value (x, y) is given by the coordinate conversion unit 29 in order to assign an information signal with a coordinate value (X, Y) output from each pixel of the image pickup element 24 to a specific element on the display 24. Based on the result, the element on the display 24 emits light.

図2に示されるように、ステップS1およびS2で座標計算部29に記憶されたディスプレイ12上の素子の座標xおよびyに0が入力される。ステップS3で、座標計算部29は座標変換や前述の俯瞰変換等を行う関数fおよび関数gに基づきx=0−1/3、y=0に対応する撮像素子24上の特定画素の座標値(Xr,Yr)を算出する。ステップS4で、補間部31は座標値(Xr,Yr)のR情報およびその周辺の座標値のR情報を取得し、前述の補間処理を行う。これらR情報は画像メモリ28から取り込まれればよい。補間で算出されたR情報はステップS5で出力される。 As shown in FIG. 2, 0 is input to the coordinates x and y of the element on the display 12 stored in the coordinate calculation unit 29 in steps S1 and S2. In step S3, the coordinate calculation unit 29 has the coordinate values of the specific pixels on the image pickup element 24 corresponding to x = 0-1 / 3 and y = 0 based on the function f and the function g that perform the coordinate conversion and the above-mentioned bird's-eye view conversion. (Xr, Yr) is calculated. In step S4, the interpolation unit 31 acquires the R information of the coordinate values (Xr, Yr) and the R information of the coordinate values around the coordinate values (Xr, Yr), and performs the above-mentioned interpolation processing. These R information may be taken in from the image memory 28. The R information calculated by interpolation is output in step S5.

ステップS6で、座標変換部29は前述の俯瞰変換等の画像変換を行う関数fおよび関数gに基づきx=0、y=0に対応する撮像素子24上の特定画素の座標値(Xg,Yg)を算出する。ステップS7で、補間部31は座標値(Xg,Yg)のG情報およびその周辺の座標値のG情報を取得し、前述の補間処理を行う。これらG情報は画像メモリ28から取り込まれればよい。補間で算出されたG情報はステップS8で出力される。 In step S6, the coordinate conversion unit 29 uses the coordinate values (Xg, Yg) of the specific pixel on the image pickup device 24 corresponding to x = 0 and y = 0 based on the function f and the function g that perform image conversion such as the above-mentioned bird's-eye view conversion. ) Is calculated. In step S7, the interpolation unit 31 acquires the G information of the coordinate values (Xg, Yg) and the G information of the coordinate values around it, and performs the above-mentioned interpolation processing. These G information may be taken in from the image memory 28. The G information calculated by interpolation is output in step S8.

ステップS9で、座標計算部29は前述の俯瞰変換等の画像変換を行う関数fおよび関数gに基づきx=0+1/3、y=0に対応する撮像素子24上の特定画素の座標値(Xb,Yb)を算出する。ステップS10で、補間部31は、座標値(Xb,Yb)のB情報およびその周辺の座標値のB情報を取得し、前述の補間処理を行う。これらB情報は画像メモリ28から取り込まれればよい。補間で算出されたB情報はステップS11で出力される。 In step S9, the coordinate calculation unit 29 uses the coordinate values (Xb) of the specific pixels on the image sensor 24 corresponding to x = 0 + 1/3 and y = 0 based on the function f and the function g that perform image conversion such as the above-mentioned bird's-eye view conversion. , Yb) is calculated. In step S10, the interpolation unit 31 acquires the B information of the coordinate values (Xb, Yb) and the B information of the coordinate values around the coordinate values (Xb, Yb), and performs the above-mentioned interpolation processing. The B information may be taken in from the image memory 28. The B information calculated by interpolation is output in step S11.

ここで、ディスプレイ12上のx=0−1/3、y=0の座標に存在する画素はR素子であり、x=0、y=0の座標に存在する画素はG素子であり、x=0+1/3、y=0に存在する画素はB素子である。それぞれに与えられる輝度は、上のステップで記載の通り撮像素子24上の特定の1画素の輝度であり、この1画素の輝度は1画素が有しているR情報信号の値、B情報信号の値およびG情報信号の値の合計値や平均値が用いられればよい。 Here, the pixel existing at the coordinates of x = 0-1 / 3 and y = 0 on the display 12 is the R element, and the pixel existing at the coordinates of x = 0 and y = 0 is the G element and x. The pixel existing at = 0 + 1/3 and y = 0 is a B element. The luminance given to each is the luminance of a specific pixel on the image sensor 24 as described in the above step, and the luminance of this one pixel is the value of the R information signal and the B information signal possessed by one pixel. The total value or the average value of the value of and the value of the G information signal may be used.

ステップS12では、ディスプレイパネル12の画面上でHr方向に隣接する画素14が特定される。ステップS13で水平方向の最大の座標値の(width)に至るまで、ステップS3〜S12の処理は繰り返される。ステップS13で水平方向に座標計算部29および補間部31の処理の完了が認識されると、処理動作はステップS14に移行する。画素14の位置は垂直方向に1つずらされる。ステップS15で処理動作の未終了が判定されると、処理動作はステップS2に戻る。続いて水平方向に同様に座標計算部29および補間部31の処理が実施される。ステップS15で垂直方向の最大の座標値(height)が認識されると、新たにフレームが取得される。こうして映像は再現されていく。 In step S12, pixels 14 adjacent to each other in the Hr direction are specified on the screen of the display panel 12. The processing of steps S3 to S12 is repeated until the maximum horizontal coordinate value (wise) is reached in step S13. When the completion of the processing of the coordinate calculation unit 29 and the interpolation unit 31 is recognized in the horizontal direction in step S13, the processing operation shifts to step S14. The position of the pixel 14 is shifted by one in the vertical direction. If it is determined in step S15 that the processing operation has not been completed, the processing operation returns to step S2. Subsequently, the processing of the coordinate calculation unit 29 and the interpolation unit 31 is similarly performed in the horizontal direction. When the maximum coordinate value (height) in the vertical direction is recognized in step S15, a new frame is acquired. In this way, the image is reproduced.

次に上述の手法を適用することにより、画像内の彩度が低い部分、あるいは夜間等で画像全体の彩度が低い場合において解像度が上がる原理について一例を用いて説明する。図4は1920x1080画素の撮像素子で撮像された画像を640x360のディスプレイに画像として表示することを示した模式図である。本発明による解像度の向上は水平方向においてのみ発揮されるため、y方向の画素は省略してある。図4の(A)は1920x1080画素の撮像素子で撮像された画像の一部、図4の(B)は従来の手法で640x360のディスプレイに表示された画像の一部、図4の(C)は本発明を適用し640x360のディスプレイに表示された画像の一部である。 Next, by applying the above-mentioned method, the principle of increasing the resolution when the saturation of the entire image is low at a part of the image where the saturation is low, or at night, etc. will be described with an example. FIG. 4 is a schematic diagram showing that an image captured by an image sensor having 1920 x 1080 pixels is displayed as an image on a 640 x 360 display. Since the improvement in resolution according to the present invention is exhibited only in the horizontal direction, the pixels in the y direction are omitted. FIG. 4A is a part of an image captured by an image sensor of 1920x1080 pixels, FIG. 4B is a part of an image displayed on a 640x360 display by a conventional method, and FIG. 4C is shown in FIG. Is a part of an image displayed on a 640x360 display to which the present invention is applied.

従来は、図4(A)および図4(B)に示す通り、横方向の画素数が1920個ある撮像素子で撮像された画像を、横方向の画素数が640個のディスプレイに表示するためには、例えば撮像素子の隣り合う3画素の輝度および彩度を平均したものを、ディスプレイ1画素の輝度値および彩度値として適用することとなる。横方向の解像度は撮像素子で撮像されたものの1/3となる。本発明では、図4(A)および図4(C)に示す通り、撮像素子の1画素の輝度値(R情報信号の値、G情報信号の値、B情報信号の合計値や平均値)を、ディスプレイ1画素の中にあるR素子の輝度値として適用し、順次撮像素子の次の1画素をG素子へ、次の1画素をB素子へ、という様に1:1で適用するため、横方向の解像度が保たれる。 Conventionally, as shown in FIGS. 4A and 4B, an image captured by an image sensor having 1920 pixels in the horizontal direction is displayed on a display having 640 pixels in the horizontal direction. For example, an average of the brightness and saturation of three adjacent pixels of the image pickup device is applied as the brightness value and saturation value of one pixel of the display. The horizontal resolution is 1/3 of that captured by the image sensor. In the present invention, as shown in FIGS. 4A and 4C, the brightness value of one pixel of the image sensor (R information signal value, G information signal value, B information signal total value or average value). Is applied as the brightness value of the R element in one pixel of the display, and the next pixel of the image sensor is sequentially applied to the G element, the next pixel is applied to the B element, and so on, 1: 1. , Horizontal resolution is maintained.

撮像素子の1画素がR素子、G素子およびB素子から成り立っており、各々の輝度の合計値が1画素の輝度となる。撮像素子のR素子が捉える赤色、G素子が捉える緑色およびB素子が捉える青色のそれぞれの輝度値を合計したものを、ディスプレイのR素子に適用することで、ディスプレイの当該素子は赤色に発光する。この様な手法を実施すると、撮像素子1画素が捉える色がどの様なものになったとしても、ディスプレイでは赤として表示されるため、ディスプレイに表示される画像の色は、撮像素子が捉えた色とは局所的には大きく異なる、または撮像素子で撮像された画像が白黒に近い画像でも、ディスプレイには不規則な色のついたものとして表示されると考えられる。とはいえ、図5(A)に示されるように、本発明を適用した画像を画像全体で見ると、図5(B)の従来手法に係る比較例に比べて、その様な色の不整合はほとんど発生しないことを発明者は実験的に発見した。色の不整合が発生しないことの参考資料として、出願人はそのカラー画像を物件提出書で提出する。 One pixel of the image pickup element is composed of an R element, a G element, and a B element, and the total value of the respective luminances is the luminance of one pixel. By applying the sum of the brightness values of the red color captured by the R element of the image pickup element, the green color captured by the G element, and the blue color captured by the B element to the R element of the display, the element of the display emits red light. .. When such a method is carried out, no matter what color is captured by one pixel of the image pickup element, it is displayed as red on the display, so that the color of the image displayed on the display is captured by the image pickup element. Even if the image is locally significantly different from the color or the image captured by the image pickup element is close to black and white, it is considered that the image is displayed as an irregular color on the display. However, as shown in FIG. 5 (A), when the image to which the present invention is applied is viewed as a whole image, such a color defect is not seen as compared with the comparative example according to the conventional method of FIG. 5 (B). The inventor has experimentally found that no match occurs. The applicant submits the color image in the property submission form as a reference material that color inconsistency does not occur.

図6(A)は上述の従来手法によりディスプレイにチャートを表示した画像と、水平方向の1ラインLの輝度変化をグラフで表示させたものである。図6(B)は本発明を適用した画像およびグラフである。ディスプレイ上の1ラインL上には向かって左側から右側へと白黒の縞が徐々に狭くなっている(横方向の空間周波数が左から右にいくにつれて徐々に上昇している)解像度チャートが存在する。図6(A)に示す従来手法のグラフでは右にいくに従って、色黒の変化に追従する輝度の振幅が徐々に減少しており、輝度の変化が再現されていないことが分かる。一方、図6(B)に示す本発明の手法でのグラフでは輝度の振幅の減少は、従来手法に比べて小さいことが分かる。すなわち輝度の変化が再現されている。これにより従来手法との比較で解像度が上がっていることが分かる。 FIG. 6A is a graph showing an image of a chart displayed on a display by the above-mentioned conventional method and a change in brightness of one line L in the horizontal direction. FIG. 6B is an image and a graph to which the present invention is applied. On one line L on the display, there is a resolution chart in which black-and-white stripes gradually narrow from left to right (the lateral spatial frequency gradually increases from left to right). do. In the graph of the conventional method shown in FIG. 6A, it can be seen that the amplitude of the luminance following the change in color black gradually decreases toward the right, and the change in luminance is not reproduced. On the other hand, in the graph of the method of the present invention shown in FIG. 6B, it can be seen that the decrease in the amplitude of the luminance is smaller than that of the conventional method. That is, the change in brightness is reproduced. As a result, it can be seen that the resolution is higher than that of the conventional method.

図3に示されるように、座標変換部22には回転角特定部37が接続されてもよい。回転角特定部37には例えばディスプレイユニット11に組み込まれるジャイロセンサ38が接続されればよい。ジャイロセンサ38は重力に基づきディスプレイパネル12の向きを検出する。ジャイロセンサ38はディスプレイパネル12の回転角を検出し回転角信号を出力する。回転角信号はディスプレイパネル12の回転角を特定する。回転角特定部37は回転角信号を受信し、ディスプレイパネル12の回転角に応じて関数fおよび関数gに引用される座標値を置き換える。具体的にR画素の画像変換について述べると、回転角θとすると、Xr’=f(x−(1/3)×COSθ,y−(1/3)×SINθ)、Yr’=g(x+(1/3)×COSθ,y+(1/3)×SINθ)とし、各関数について引用される座標値の中に三角関数を導入する。ディスプレイパネル12の回転に応じてR素子15、G素子16およびB素子17の配列が変化しても、そうした変化に合わせて画像は表示されることができる。画像の違和感は回避されることができる。 As shown in FIG. 3, the rotation angle specifying unit 37 may be connected to the coordinate conversion unit 22. For example, the gyro sensor 38 incorporated in the display unit 11 may be connected to the rotation angle specifying unit 37. The gyro sensor 38 detects the orientation of the display panel 12 based on gravity. The gyro sensor 38 detects the rotation angle of the display panel 12 and outputs a rotation angle signal. The rotation angle signal specifies the rotation angle of the display panel 12. The rotation angle specifying unit 37 receives the rotation angle signal and replaces the coordinate values quoted in the function f and the function g according to the rotation angle of the display panel 12. Specifically, when the image conversion of the R pixel is described, assuming that the rotation angle θ, Xr'= f (x− (1/3) × COSθ, y− (1/3) × SINθ), Yr'= g (x +). (1/3) × COSθ, y + (1/3) × SINθ), and introduce a trigonometric function in the coordinate values quoted for each function. Even if the arrangement of the R element 15, the G element 16, and the B element 17 changes according to the rotation of the display panel 12, the image can be displayed according to the change. The discomfort of the image can be avoided.

座標変換部22は、R情報信号、G情報信号またはB情報信号ごとに補間を実施する補間部31を備える。R素子15、G素子16およびB素子17の座標値と、位置情報で特定される座標値とにずれが生じても、RGB個々の補間に応じてできる限り精度よく画像は画面上に再現されることができる。 The coordinate conversion unit 22 includes an interpolation unit 31 that performs interpolation for each R information signal, G information signal, or B information signal. Even if there is a discrepancy between the coordinate values of the R element 15, G element 16 and B element 17 and the coordinate values specified by the position information, the image is reproduced on the screen as accurately as possible according to the interpolation of each RGB. Can be

11…表示装置(ディスプレイユニット)、12…ディスプレイ(ディスプレイパネル)、13…画像処理装置、14…画素、15…R素子、16…G素子、17…B素子、21…受信部、22…座標変換部、28…画像メモリ、31…補間部。 11 ... Display device (display unit), 12 ... Display (display panel), 13 ... Image processing device, 14 ... Pixel, 15 ... R element, 16 ... G element, 17 ... B element, 21 ... Receiver, 22 ... Coordinates Conversion unit, 28 ... image memory, 31 ... interpolation unit.

Claims (4)

1つの座標値で指定されるR情報信号、G情報信号およびB情報信号を1画素の情報として出力する複数の画素を有する撮像素子と、
前記出力された1画素の情報を受信する受信部と、
前記撮像素子上にある前記画素ごとに存在し、個別に座標値が付与されたディスプレイ上のR素子、G素子およびB素子にそれぞれ前記R情報信号、前記G情報信号および前記B情報信号を割り当てる座標変換部とを備え、
前記座標変換部は、
座標変換に応じて前記R情報信号、前記G情報信号および前記B情報信号ごとに座標を設定し、設定された座標値を持つ複数の前記R情報信号同士、複数の前記B情報信号同士および複数の前記G情報信号同士を用いてそれぞれ補間を行うとともに新たな座標を持たせ、前記ディスプレイの前記座標に対応するR素子を発光させるためのR情報、前記ディスプレイの前記座標に対応するG素子を発光させるためのG情報および前記ディスプレイの前記座標に対応するB素子を発光させるためのB情報を生成する補間部を備えることを特徴とする画像処理装置。
An image sensor having a plurality of pixels that outputs an R information signal, a G information signal, and a B information signal specified by one coordinate value as information of one pixel, and an image sensor.
A receiving unit that receives the output information of one pixel, and
The R information signal, the G information signal, and the B information signal are assigned to the R element, the G element, and the B element on the display, which exist for each of the pixels on the image pickup element and are individually assigned coordinate values. Equipped with a coordinate conversion unit
The coordinate conversion unit is
Coordinates are set for each of the R information signal, the G information signal, and the B information signal according to the coordinate conversion, and a plurality of the R information signals having the set coordinate values, a plurality of the B information signals, and a plurality of the B information signals are set. The R information for causing the R element corresponding to the coordinates of the display to emit light by interpolating each of the G information signals of the above and having new coordinates, and the G element corresponding to the coordinates of the display. An image processing apparatus including an interpolating unit that generates G information for causing light emission and B information for causing B element corresponding to the coordinates of the display to emit light.
請求項1に記載の画像処理装置において、前記受信部で受信される画像の横方向の画素数は、前記補間部から出力される画像の横方向の画素数より大きいことを特徴とする画像処理装置。 In the image processing apparatus according to claim 1, the number of pixels in the horizontal direction of the image received by the receiving unit is larger than the number of pixels in the horizontal direction of the image output from the interpolation unit. Device. 請求項1または2に記載の画像処理装置において、前記座標変換部は、ディスプレイの回転角を特定する回転角信号を受信し、特定された前記回転角に応じて前記座標値を指定することを特徴とする画像処理装置。 In the image processing apparatus according to claim 1 or 2, the coordinate conversion unit receives a rotation angle signal for specifying the rotation angle of the display, and designates the coordinate value according to the specified rotation angle. Characteristic image processing device. 請求項1〜3のいずれか1項に記載の画像処理装置を含むことを特徴とする表示装置。 A display device comprising the image processing device according to any one of claims 1 to 3.
JP2016231086A 2016-11-29 2016-11-29 Image processing device Active JP6978720B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016231086A JP6978720B2 (en) 2016-11-29 2016-11-29 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016231086A JP6978720B2 (en) 2016-11-29 2016-11-29 Image processing device

Publications (2)

Publication Number Publication Date
JP2018088625A JP2018088625A (en) 2018-06-07
JP6978720B2 true JP6978720B2 (en) 2021-12-08

Family

ID=62493654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016231086A Active JP6978720B2 (en) 2016-11-29 2016-11-29 Image processing device

Country Status (1)

Country Link
JP (1) JP6978720B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004128587A (en) * 2002-09-30 2004-04-22 Minolta Co Ltd Digital camera
JP4635629B2 (en) * 2004-03-30 2011-02-23 日本ビクター株式会社 Sampling rate converter and image signal processing method
JP2007017615A (en) * 2005-07-06 2007-01-25 Sony Corp Image processor, picture processing method, and program
US20120313843A1 (en) * 2010-02-18 2012-12-13 Sharp Kabushiki Kaisha Display device
JP5540765B2 (en) * 2010-02-25 2014-07-02 株式会社ニコン Display device, imaging device, and program
JP5843566B2 (en) * 2011-10-26 2016-01-13 シャープ株式会社 Multi-primary color display device
JP5986442B2 (en) * 2012-07-06 2016-09-06 シャープ株式会社 Display device and display method

Also Published As

Publication number Publication date
JP2018088625A (en) 2018-06-07

Similar Documents

Publication Publication Date Title
US8379976B2 (en) Image processing apparatus and method and a computer-readable recording medium on which an image processing program is stored
KR20180101165A (en) Frame stitching with panoramic frame
TWI612495B (en) Process and device for capturing and rendering a panoramic or stereoscopic stream of images
JP5914813B2 (en) Camera, distortion correction apparatus, and distortion correction method
KR101521008B1 (en) Correction method of distortion image obtained by using fisheye lens and image display system implementing thereof
TW201535318A (en) Image transformation and multi-view output systems and methods
US20180003949A1 (en) Projector and projection system that correct optical characteristics, image processing apparatus, and storage medium
JP5593683B2 (en) Imaging device
US8810693B2 (en) Image processing apparatus and method thereof
JP6537231B2 (en) Image processing apparatus, image processing method and program
US20090256928A1 (en) Method and device for detecting color temperature
US20170347023A1 (en) System and method for image stitching
JP4694306B2 (en) Outline enhancement processing unit
JP2009157733A (en) Image distortion correction method, image distortion correction device, and image forming apparatus
US20200120274A1 (en) Image processing apparatus and image processing method
JP6978720B2 (en) Image processing device
JP2007271771A (en) Image display system and control method therefor
KR101230909B1 (en) Apparatus and method for processing wide angle image
JP2018191049A (en) Imaging apparatus and adjustment method thereof
JP6825458B2 (en) Image processing device, photographing device, and image processing method
CN111754398A (en) Method and device for generating virtual reality image by using image stitching technology
JP2008042664A (en) Image display device
JP6577272B2 (en) Calibration apparatus, program, recording medium, calibration method
JP2016099836A (en) Imaging device, image processor, image processing method, and program
KR20170023487A (en) Image sensing apparatus and image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211026

R151 Written notification of patent or utility model registration

Ref document number: 6978720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151