JP2019211519A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2019211519A
JP2019211519A JP2018105081A JP2018105081A JP2019211519A JP 2019211519 A JP2019211519 A JP 2019211519A JP 2018105081 A JP2018105081 A JP 2018105081A JP 2018105081 A JP2018105081 A JP 2018105081A JP 2019211519 A JP2019211519 A JP 2019211519A
Authority
JP
Japan
Prior art keywords
image data
image
value
display
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018105081A
Other languages
Japanese (ja)
Other versions
JP7126382B2 (en
Inventor
直 大西
Sunao Onishi
直 大西
宮崎 將
Susumu Miyazaki
將 宮崎
山本 美智雄
Michio Yamamoto
美智雄 山本
高田智弘
Toshihiro Takada
智弘 高田
力 露久志
Tsutomu Tsuyukushi
力 露久志
大西 啓之
Hiroyuki Onishi
啓之 大西
金子 晃久
Akihisa Kaneko
晃久 金子
宏介 中村
Kosuke Nakamura
宏介 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018105081A priority Critical patent/JP7126382B2/en
Publication of JP2019211519A publication Critical patent/JP2019211519A/en
Application granted granted Critical
Publication of JP7126382B2 publication Critical patent/JP7126382B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a device that can automatically replace an image based on a plurality of image signals input to display the image at an appropriate position.SOLUTION: An image signal input unit 110 comprises: a first image signal input unit 1102 through an n-th image signal input unit 1109. And, a display device 10 having a display unit 160 that includes a plurality of display areas which can respectively display an input image, comprises: an image composition unit that composes a plurality of input images into one image; a comparison unit that compares between pixel values which are in boundary areas being adjacent to each other in a composite image composed by the image composition unit; and a display control unit 150 that performs control to display the image on the display area such that the pixel values of the boundary area approach, as a result compared by the comparison unit.SELECTED DRAWING: Figure 2

Description

本発明は、表示装置に関する。   The present invention relates to a display device.

昨今、高解像度のパネルを用いた液晶テレビやモニタに注目が集まっている。4K等の高解像度のデジタル信号を出力可能な規格として、HDMI(High-Definition Multimedia Interface)(登録商標)やディスプレイポートが主流となっている。年々新たな規格が制定され、新製品への対応が進められているが、新しい解像度へ対応するための規格の制定には時間を要している。例えば、次世代の8K(4K×4)の出力は、現状1入力で処理できるまでには至っていない。   Recently, attention has been focused on LCD TVs and monitors using high-resolution panels. HDMI (High-Definition Multimedia Interface) (registered trademark) and display ports are mainly used as standards capable of outputting high-resolution digital signals such as 4K. New standards have been established year by year, and support for new products is being promoted. However, it takes time to establish standards to support new resolutions. For example, the next generation 8K (4K × 4) output has not yet reached the point where it can be processed with one input.

この8Kを現在の技術で入力する方法として、4K画像(映像)信号に基づく画像を組み合わせて、1枚の8K画像として出力する方法が利用されている。この場合、表示装置に1枚の高解像度の画像を出力するためには、まず、画像信号を出力する装置であるソース機器は、高解像度の画像を複数に分割し、それぞれの画像を画像信号として出力する。また、画像信号を入力する表示装置側は、画像信号に基づく画像を適切な位置に当てはめて、1枚の画像として出力する。   As a method for inputting this 8K with the current technology, a method of combining images based on 4K image (video) signals and outputting them as one 8K image is used. In this case, in order to output one high-resolution image to the display device, first, a source device that is an apparatus that outputs an image signal divides the high-resolution image into a plurality of images, and each image is converted into an image signal. Output as. In addition, the display device side that inputs the image signal applies an image based on the image signal to an appropriate position and outputs the image as a single image.

このとき、ソース機器と表示装置とは、複数のケーブルによって接続されるため、ケーブルの接続方法によっては、画像信号に基づく画像を適切な位置に表示されない場合がある。そこで、複数のケーブルで伝送されるそれぞれの映像信号が示す映像が、表示パネル上で所定の配列になるように、並び替えを行う並替部を備える表示装置が提案されている(例えば、特許文献1参照)。   At this time, since the source device and the display device are connected by a plurality of cables, an image based on the image signal may not be displayed at an appropriate position depending on the cable connection method. In view of this, there has been proposed a display device including a rearrangement unit that rearranges so that the video indicated by each video signal transmitted through a plurality of cables is arranged in a predetermined manner on the display panel (for example, a patent). Reference 1).

特開2013−153410号公報JP2013-153410A

しかしながら、特許文献1に記載された表示装置が、画像を適切な位置に表示されるように並び替えを行うときは、表示装置の表示領域を分割したそれぞれの領域に、異なる色の有するテスト画像を表示させる必要があった。したがって、ソース機器から表示装置に対して、テスト画像の画像信号を送信するといった、ソース機器側の操作を必要とし、手間がかかるという問題があった。   However, when the display device described in Patent Document 1 rearranges the images so that the images are displayed at appropriate positions, test images having different colors in the respective regions obtained by dividing the display region of the display device. It was necessary to display. Therefore, there is a problem in that it requires an operation on the source device side such as transmitting an image signal of a test image from the source device to the display device, which is troublesome.

本願は上述した課題に鑑み、入力された複数の画像信号に基づく画像を自動的に入れ替えて、適切な位置に画像を表示することができる装置を提供することを目的とする。   In view of the problems described above, an object of the present application is to provide an apparatus that can automatically replace images based on a plurality of input image signals and display an image at an appropriate position.

上述した課題を解決するために、本発明の表示装置は、
画像を入力する端子を複数有し、前記入力された画像をそれぞれ表示可能な複数の表示領域を含む表示部を有する表示装置において、
前記端子から入力された複数の画像を1枚の画像に合成する画像合成部と、
前記画像合成部により合成される合成画像において互いに隣接する画像の境界領域にある画素値をそれぞれ比較する比較部と、
前記比較部により比較した結果、前記境界領域の画素値が近似するように、前記画像を前記表示領域に表示する制御を行う表示制御部と、
を備えることを特徴とする。
In order to solve the above-described problems, the display device of the present invention includes:
In a display device having a plurality of terminals for inputting an image and having a display unit including a plurality of display areas each capable of displaying the input image,
An image composition unit for compositing a plurality of images input from the terminal into one image;
A comparison unit that compares pixel values in a boundary region of images adjacent to each other in the synthesized image synthesized by the image synthesis unit;
As a result of comparison by the comparison unit, a display control unit that performs control to display the image in the display region so that the pixel value of the boundary region approximates,
It is characterized by providing.

本発明によれば、入力された画像を1枚の画像として合成されるときに、境界領域にある画素値を比較し、境界領域の画素値が近似するように、画像を表示することができる。したがって、ユーザは、ソース機器側と表示装置側との端子の組み合わせを気にすること無く、また、ソース機器の操作をするといった手間を掛けること無く、適切な位置に画像を配置された合成画像を表示装置に表示させることが可能となる。   According to the present invention, when an input image is combined as a single image, the pixel values in the boundary region are compared, and the image can be displayed so that the pixel values in the boundary region are approximated. . Therefore, the user does not have to worry about the combination of the terminals on the source device side and the display device side, and does not take the trouble of operating the source device, and the composite image in which the image is arranged at an appropriate position. Can be displayed on the display device.

第1実施形態における全体構成を説明するための図である。It is a figure for demonstrating the whole structure in 1st Embodiment. 第1実施形態における表示装置の機能構成を説明するための図である。It is a figure for demonstrating the function structure of the display apparatus in 1st Embodiment. 第1実施形態におけるメイン処理を説明するための動作フロー図である。It is an operation | movement flowchart for demonstrating the main process in 1st Embodiment. 第1実施形態における実施例を説明するための図である。It is a figure for demonstrating the Example in 1st Embodiment. 第2実施形態におけるメイン処理を説明するための動作フロー図である。It is an operation | movement flowchart for demonstrating the main process in 2nd Embodiment. 第3実施形態におけるメイン処理を説明するための動作フロー図である。It is an operation | movement flowchart for demonstrating the main process in 3rd Embodiment. 第3実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 3rd Embodiment. 第4実施形態におけるメイン処理を説明するための動作フロー図である。It is an operation | movement flowchart for demonstrating the main process in 4th Embodiment. 第4実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 4th Embodiment. 第4実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 4th Embodiment. 第4実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 4th Embodiment. 第5実施形態におけるメイン処理を説明するための動作フロー図である。It is an operation | movement flowchart for demonstrating the main process in 5th Embodiment. 第5実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 5th Embodiment. 第6実施形態におけるメイン処理を説明するための動作フロー図である。It is an operation | movement flowchart for demonstrating the main process in 6th Embodiment. 第6実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 6th Embodiment. 第7実施形態におけるメイン処理を説明するための動作フロー図である。It is an operation | movement flowchart for demonstrating the main process in 7th Embodiment. 第7実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 7th Embodiment. 第8実施形態におけるメイン処理を説明するための動作フロー図である。It is an operation | movement flowchart for demonstrating the main process in 8th Embodiment.

以下、本発明の実施の形態について、図面を参照して説明する。なお、本実施形態では、一例として、本願発明を適用した表示装置について説明する。   Embodiments of the present invention will be described below with reference to the drawings. In the present embodiment, a display device to which the present invention is applied will be described as an example.

[1.第1実施形態]
[1.1 全体構成]
第1実施形態の全体構成について説明する。図1は、本発明を適用した表示装置10と、ソース機器20とが、複数のケーブルによって接続された状態を示した図である。表示装置10とソース機器20とは、例えば、HDMIケーブルで接続されており、ソース機器20から表示装置10へは、映像のフレーム画像や、音声の信号が送信される。
[1. First Embodiment]
[1.1 Overall configuration]
The overall configuration of the first embodiment will be described. FIG. 1 is a diagram showing a state in which a display device 10 to which the present invention is applied and a source device 20 are connected by a plurality of cables. The display device 10 and the source device 20 are connected by, for example, an HDMI cable, and a video frame image and an audio signal are transmitted from the source device 20 to the display device 10.

表示装置10は、例えば、8Kテレビである。また、8Kモニタであってもよい。なお、表示装置10の解像度は、8Kに限定されず、4K、16K、32Kであってもよい。また、ソース機器20は、例えば、高解像度の画像信号を分割して出力可能なコンテンツ再生装置である。なお、ソース機器20は、8K放送用対応チューナであってもよいし、PC(Personal Computer)のような情報処理装置であってもよい。   The display device 10 is, for example, an 8K television. Further, an 8K monitor may be used. Note that the resolution of the display device 10 is not limited to 8K, and may be 4K, 16K, or 32K. The source device 20 is a content reproduction device that can divide and output a high-resolution image signal, for example. The source device 20 may be an 8K broadcast compatible tuner or an information processing apparatus such as a PC (Personal Computer).

[1.2 機能構成]
つづいて、図2を参照して、表示装置10の機能構成について説明する。図2に示すように、表示装置10は、制御部100と、画像信号入力部110と、画像処理部120と、メモリ130と、FPGA(Field Programmable Gate Array)140と、表示制御部150と、表示部160とを備えて構成される。
[1.2 Functional configuration]
Next, the functional configuration of the display device 10 will be described with reference to FIG. As shown in FIG. 2, the display device 10 includes a control unit 100, an image signal input unit 110, an image processing unit 120, a memory 130, an FPGA (Field Programmable Gate Array) 140, a display control unit 150, And a display unit 160.

制御部100は、表示装置10の全体を制御するための機能部である。本実施形態は、制御部100は、SoC(System on a Chip)を用いて構成することとして説明するが、SiP(System In Package)や、1又は複数のCPU(Central Processing Unit)を用いて構成されてもよい。   The control unit 100 is a functional unit for controlling the entire display device 10. In the present embodiment, the control unit 100 is described as being configured using SoC (System on a Chip), but is configured using SiP (System In Package) or one or a plurality of CPUs (Central Processing Units). May be.

画像信号入力部110は、ソース機器20から出力される画像信号を入力する機能部である。また、画像信号入力部110は、入力された画像信号を、フレームレート(例えば、1秒間に60フレーム)に合わせて、1又は複数の画像データにデコードして、所定のタイミングで出力する。例えば、画像信号入力部110は、HDMI端子と、HDMI端子から入力される画像信号をデコードして画像データに変換するTMDS(Transition Minimized Differential Signaling)デコーダとを備えて構成される。なお、HDMIを用いる場合は、TMDSによって、音声データ、コマンドデータ等もデコードされ出力されるが、本実施形態においては、画像データを中心に説明する。   The image signal input unit 110 is a functional unit that inputs an image signal output from the source device 20. Further, the image signal input unit 110 decodes the input image signal into one or a plurality of image data in accordance with a frame rate (for example, 60 frames per second), and outputs the decoded image signal at a predetermined timing. For example, the image signal input unit 110 includes an HDMI terminal and a TMDS (Transition Minimized Differential Signaling) decoder that decodes an image signal input from the HDMI terminal and converts it into image data. Note that when HDMI is used, audio data, command data, and the like are decoded and output by TMDS, but in the present embodiment, description will be focused on image data.

また、本実施形態では、説明のため、表示装置10には、画像信号入力部110は4つ備えられ、各画像信号入力部110を、第1画像信号入力部1102、第2画像信号入力部1104、第3画像信号入力部1106、第4画像信号入力部1108と記載することとする。また、各画像信号入力部110に入力される画像信号を、入力1、入力2、入力3、入力4と記載する。また、入力1に基づく画像データを第1画像データ、入力2に基づく画像データを第2画像データ、入力3に基づく画像データを第3画像データ、入力4に基づく画像データを第4画像データと記載する。   Further, in the present embodiment, for the sake of explanation, the display device 10 includes four image signal input units 110, and each image signal input unit 110 includes a first image signal input unit 1102 and a second image signal input unit. 1104, a third image signal input unit 1106, and a fourth image signal input unit 1108. The image signals input to each image signal input unit 110 are referred to as input 1, input 2, input 3, and input 4. Further, the image data based on the input 1 is the first image data, the image data based on the input 2 is the second image data, the image data based on the input 3 is the third image data, and the image data based on the input 4 is the fourth image data. Describe.

なお、表示装置10は、表示部160に表示する画像の解像度に合わせて、画像信号入力部110を複数備える。高解像度の画像を表示するために、n本の画像信号の入力が必要な場合は、表示装置10は、入力1から入力nまでの画像信号をそれぞれ入力可能な、第1画像信号入力部1102から第n画像信号入力部1109を備える。また、画像信号入力部110から出力される画像データの数は、数フレームおきに、連続の画像データを出力してもよい。この場合は、1回の出力タイミングにおいて、連続した複数の画像データ(図2においては、A〜Nの矢印で示している。)が画像処理部120に出力されることとなる。   The display device 10 includes a plurality of image signal input units 110 in accordance with the resolution of an image displayed on the display unit 160. When n image signals need to be input in order to display a high-resolution image, the display device 10 can input image signals from input 1 to input n, respectively. To n-th image signal input unit 1109. Further, the number of image data output from the image signal input unit 110 may output continuous image data every several frames. In this case, a plurality of continuous image data (indicated by arrows A to N in FIG. 2) are output to the image processing unit 120 at one output timing.

また、画像信号入力部110は、制御部100の制御により、入力された画像信号をダウンコンバートし、解像度を低くした画像データを出力してもよい。なお、ダウンコンバートは画像信号全体に対して行ってもよいし、画像信号の一部の領域に対応する信号に対してのみ行ってもよい。   Further, the image signal input unit 110 may down-convert the input image signal under the control of the control unit 100 and output image data with a reduced resolution. Note that down-conversion may be performed on the entire image signal or only on a signal corresponding to a partial region of the image signal.

画像処理部120は、画像信号入力部110から出力される画像データ対する処理を実行する機能部である。所定の処理とは、例えば、画像データの特定の画素における画素値を抽出するといった画像データの調査や、複数の画像データを所定の配置パターンに基づいて配置して、1枚の高解像度の画像データとして合成した画像データ(以下、「合成画像データ」という)を生成し出力する処理である。   The image processing unit 120 is a functional unit that executes processing for image data output from the image signal input unit 110. Predetermined processing refers to, for example, investigation of image data such as extraction of pixel values at specific pixels of image data, or arrangement of a plurality of image data based on a predetermined arrangement pattern, so that one high-resolution image This is processing for generating and outputting image data synthesized as data (hereinafter referred to as “composite image data”).

なお、配置パターンとは、複数の画像データを合成して表示部160の表示領域に表示する場合における、画像データと配置位置との組み合わせを示したデータである。本実施形態では、4つの画像信号入力部110から画像データが出力されるため、表示部160の表示領域を田の字型に4分割し、左上、右上、左下、右下の複数の表示領域のそれぞれに画像データを表示する。この、表示領域と表示領域に表示する画像データとの対応を配列で表現したものを配置パターンとする。例えば、配置パターンが(第1画像データ、第2画像データ、第3画像データ、第4画像データ)という配列のデータであれば、画像処理部120は、左上に第1画像データ、右上に第2画像データ、左下に第3画像データ、右下に第4画像データを配置して、1つの画像データとした合成画像データを生成する。なお、配置パターンは、画像処理部120に記憶してもよいし、表示装置10に、配置パターンを記憶する記憶部を設けて、その記憶部に記憶してもよく、初期値として適当な配置パターンが記憶されていることとする。   The arrangement pattern is data indicating a combination of the image data and the arrangement position when a plurality of pieces of image data are combined and displayed on the display area of the display unit 160. In the present embodiment, since image data is output from the four image signal input units 110, the display area of the display unit 160 is divided into four square shapes, and a plurality of display areas of upper left, upper right, lower left, and lower right are displayed. The image data is displayed on each of the screens. An arrangement pattern representing the correspondence between the display area and the image data displayed in the display area is referred to as an arrangement pattern. For example, if the arrangement pattern is data having an arrangement of (first image data, second image data, third image data, fourth image data), the image processing unit 120 displays the first image data on the upper left and the first image data on the upper right. Two image data, third image data in the lower left, and fourth image data in the lower right are arranged to generate combined image data as one image data. The arrangement pattern may be stored in the image processing unit 120, or a storage unit that stores the arrangement pattern may be provided in the display device 10, and may be stored in the storage unit. It is assumed that a pattern is stored.

メモリ130は、画像信号入力部110から出力される画像を一時的に記憶する、フレームバッファである。メモリ130は、例えば、半導体メモリであるSRAM(Static RAM)や、SSD(Solid State Drive)によって構成される。   The memory 130 is a frame buffer that temporarily stores an image output from the image signal input unit 110. The memory 130 is configured by, for example, an SRAM (Static RAM) that is a semiconductor memory or an SSD (Solid State Drive).

FPGA140は、任意の論理回路を構成可能なLSI(Large Scale Integration)である。本実施形態では、画像処理部120から出力される合成画像データに基づき、表示制御部150に入力する制御信号を生成する機能部として用いる。   The FPGA 140 is an LSI (Large Scale Integration) capable of configuring an arbitrary logic circuit. In the present embodiment, it is used as a functional unit that generates a control signal to be input to the display control unit 150 based on the composite image data output from the image processing unit 120.

表示制御部150は、表示部160の駆動や出力の制御を行う機能部であり、表示部160は合成画像データを出力する機能部である。例えば、表示制御部150は、LCD(Liquid Crystal Display)コントローラであり、表示部160はLCDである。この場合、表示制御部150は、合成画像データを読み取り、表示部160の各ドットのサブピクセル毎に透過量を制御したり、バックライトの明るさの制御を行ったりする。なお、表示部160は、有機ELディスプレイ(OLED)や有機EL(Electro-Luminescence)ディスプレイ等の表示装置によって構成されてもよい。   The display control unit 150 is a functional unit that controls driving and output of the display unit 160, and the display unit 160 is a functional unit that outputs composite image data. For example, the display control unit 150 is an LCD (Liquid Crystal Display) controller, and the display unit 160 is an LCD. In this case, the display control unit 150 reads the composite image data, controls the transmission amount for each sub-pixel of each dot of the display unit 160, and controls the brightness of the backlight. The display unit 160 may be configured by a display device such as an organic EL display (OLED) or an organic EL (Electro-Luminescence) display.

[1.3 処理の流れ]
つづいて、図3を参照して、本実施形態のメイン処理について説明する。はじめに、画像処理部120は、画像信号入力部110から4つの画像信号が入力されたか否かを判定する(ステップS102)。本実施形態では、画像信号入力部110は、入力された画像信号をデコードして画像データを出力する。したがって、画像処理部120は、4つの画像信号入力部110から画像データが出力されたか否かによって、4つの画像信号が入力されたか否かを判定すればよい。なお、画像信号入力部110から出力された画像データは、メモリ130に記憶される。
[1.3 Process flow]
Next, the main processing of this embodiment will be described with reference to FIG. First, the image processing unit 120 determines whether or not four image signals are input from the image signal input unit 110 (step S102). In the present embodiment, the image signal input unit 110 decodes the input image signal and outputs image data. Therefore, the image processing unit 120 may determine whether or not four image signals are input depending on whether or not image data is output from the four image signal input units 110. The image data output from the image signal input unit 110 is stored in the memory 130.

つづいて、画像処理部120は、メモリ130に記憶された画像データを読み取り、配置パターンに基づいて画像データを配置して合成した合成画像データを生成する(ステップS104)。そして、画像処理部120は、合成画像データの中心部分の画素値であるRGB値を読み取る(ステップS106)。   Subsequently, the image processing unit 120 reads the image data stored in the memory 130, and generates composite image data obtained by arranging and synthesizing the image data based on the arrangement pattern (step S104). Then, the image processing unit 120 reads the RGB value that is the pixel value of the central portion of the composite image data (step S106).

合成画像データの中心部分は、4枚の画像データによって構成される境界領域である。ここで、境界領域とは、複数の画像データの境界が隣接する領域をいう。本実施形態では、左上に配置される画像データの右下の1画素と、右上に配置される画像データの左下の1画素と、左下に配置される画像データの右上の1画素と、右下に配置される画像データの左上の1画素とによって構成される領域を境界領域とする。したがって、ステップS106において、画像処理部120は、境界領域である合成画像データの中心部分を構成する4つの画素のRGB値をそれぞれ読み取る。   The central part of the composite image data is a boundary region composed of four pieces of image data. Here, the boundary area refers to an area where boundaries of a plurality of image data are adjacent. In the present embodiment, one lower right pixel of image data arranged at the upper left, one lower left pixel of image data arranged at the upper right, one upper right pixel of image data arranged at the lower left, and lower right An area constituted by one pixel at the upper left of the image data arranged in is defined as a boundary area. Therefore, in step S106, the image processing unit 120 reads the RGB values of the four pixels constituting the central portion of the composite image data that is the boundary region.

RGB値とは、画像データの特定の画素において出力する色(画素値)を、光の三原色である赤、緑、青のそれぞれの出力量の組み合わせで表した値。また、RGB値において、赤色の光の出力量をR値、緑色の光の出力量をG値、青色の光の出力量をB値とする。例えば、R値、G値、B値は、それぞれ0から255までの何れかの値を取ることとしたとき、RGB値がR値=0、G値=0、B値=0であれば、その画素は黒であり、RGB値がR値=255、G値=255、B値=255であれば、その画素は白である。なお、説明のため、本実施形態では、RGB値のR値、G値、B値は、それぞれ0〜255の256段階のいずれか値をとることとして説明するが、256段階以外(例えば、1024段階、4096段階)であってもよい。   The RGB value is a value representing a color (pixel value) output in a specific pixel of image data by a combination of output amounts of red, green, and blue which are the three primary colors of light. In the RGB values, the output amount of red light is R value, the output amount of green light is G value, and the output amount of blue light is B value. For example, when the R value, G value, and B value each take any value from 0 to 255, if the RGB value is R value = 0, G value = 0, and B value = 0, The pixel is black, and if the RGB value is R value = 255, G value = 255, and B value = 255, the pixel is white. For the purpose of explanation, in the present embodiment, the R value, the G value, and the B value of the RGB value are described as taking any one of 256 levels from 0 to 255, but other than 256 levels (for example, 1024) Stage, 4096 stage).

つづいて、画像処理部120は、合成画像データの中心部分、すなわち、境界領域に含まれる画素のRGB値が近似するか否かを判定する(ステップS108)。本実施形態では、境界領域は4つの画素によって構成されるため、4つの画素から異なる2つの画素の画素値が近似するかを判定し、その判定結果に基づいて、合成画像データの中心部分のRGB値が近似するか否かを判定すればよい。例えば、4つの画素から異なる2つの画素を選択する組み合わせである6通りの組み合わせの全てについて、選択した2つの画素のRGB値が近似したときに、中心部分のRGB値が近似すると判定する。また、右上に配置される画像データの左下の画素と、左下に配置される画像データの右上の画素と、右下に配置される画像データの左上の画素との3つの画素のRGB値について、それぞれ、左上に配置される画像データの右下の画素のRGB値と比較して、RGB値が類似した場合に中心部分のRGB値が近似すると判定してもよい。   Subsequently, the image processing unit 120 determines whether or not the RGB values of the pixels included in the central portion of the composite image data, that is, the boundary region are approximate (step S108). In this embodiment, since the boundary region is composed of four pixels, it is determined whether the pixel values of two different pixels are approximated from the four pixels, and based on the determination result, the central portion of the composite image data is determined. What is necessary is just to determine whether an RGB value approximates. For example, when the RGB values of two selected pixels are approximated for all six combinations that are combinations of selecting two different pixels from four pixels, it is determined that the RGB values of the central portion are approximated. Also, the RGB values of the three pixels, the lower left pixel of the image data arranged at the upper right, the upper right pixel of the image data arranged at the lower left, and the upper left pixel of the image data arranged at the lower right, In comparison with the RGB value of the lower right pixel of the image data arranged in the upper left, it may be determined that the RGB value of the central portion approximates when the RGB value is similar.

ここで、RGB値が近似するとは、2つの画素におけるRGB値を比較したときに、R値、G値、B値の差分が所定の範囲(以下、「近似判定範囲」という)に収まるときをいう。例えば、近似判定範囲を「−5〜+5」とした場合、2つの画素を比較したときに、R値、G値、B値の差分が、何れも−5〜+5の範囲内であれば、比較した2つの画素のRGB値が近似することとする。なお、近似判定範囲は、表示装置10に予め設定されていてもよいし、ユーザによって変更可能であってもよい。   Here, the approximation of the RGB value is when the difference between the R value, the G value, and the B value falls within a predetermined range (hereinafter referred to as “approximate determination range”) when the RGB values in two pixels are compared. Say. For example, when the approximate determination range is “−5 to +5”, when two pixels are compared, if the difference between the R value, the G value, and the B value is within the range of −5 to +5, The RGB values of the two compared pixels are approximated. Note that the approximate determination range may be preset in the display device 10 or may be changeable by the user.

なお、近似判定範囲は、R値、G値、B値のそれぞれについて、別の範囲にしてもよい。例えば、人間の目は、緑に対して感度がよいため、G値に対する近似判定範囲を、R値及びB値に対する近似判定範囲よりも狭くしてもよい。また、表示部160の表示特性に基づいて、近似判定範囲を決定してもよい。   The approximate determination range may be a different range for each of the R value, the G value, and the B value. For example, since human eyes are sensitive to green, the approximate determination range for the G value may be narrower than the approximate determination range for the R value and the B value. Further, the approximate determination range may be determined based on the display characteristics of the display unit 160.

また、画素値の近似を、画素値の変化量に基づいて判定してもよい。例えば、一方の画素値と、他方の画素値との変化量が、ウェーバーの法則により、ユーザが同じ色と感じる範囲(例えば、2%)に収まっていれば、2つの画素値は近似すると判定する。   Further, the approximation of the pixel value may be determined based on the change amount of the pixel value. For example, if the amount of change between one pixel value and the other pixel value is within a range (for example, 2%) that the user feels the same color according to Weber's law, it is determined that the two pixel values are approximate. To do.

なお、上述したように、画素値をRGB値で表現して近似するか否かを判定する代わりに、画素値を別の表色系で表現した上で、画素値が近似するか否かを判定してもよい。例えば、画素値を、明度と、赤と緑の色度と、黄色と青の色度とによって表現したLab値で表現してもよいし、XYZ色空間の値によって表現したXYZ値で表現してもよい。また、画素値のうちの一部の値を用いて、画素値が近似するか否かを判定してもよい。   In addition, as described above, instead of determining whether or not the pixel value is approximated by expressing the RGB value, whether or not the pixel value is approximated after expressing the pixel value in another color system. You may judge. For example, the pixel value may be expressed as a Lab value expressed by lightness, red and green chromaticity, and yellow and blue chromaticity, or expressed as an XYZ value expressed by a value in the XYZ color space. May be. Moreover, you may determine whether a pixel value approximates using the value of some pixel values.

合成画像データの中心部分のRGB値が近似しない場合は(ステップS108;No)、誤った配置パターンに基づいて合成画像データを生成したとして、画像処理部120は、ランダムに画像データを並び替えて、画像データの配置を入れ替えた別の並びの配置パターンを生成する(ステップS110)。そして、ステップS104〜ステップS108の処理を行う。画像処理部120は、RGB値が近似する配置パターンが特定できるまで、ステップS104〜ステップS110の処理を実行する。   If the RGB value of the central portion of the composite image data is not approximated (step S108; No), the image processing unit 120 rearranges the image data at random, assuming that the composite image data is generated based on an incorrect arrangement pattern. Then, another arrangement pattern in which the arrangement of the image data is replaced is generated (step S110). And the process of step S104-step S108 is performed. The image processing unit 120 executes the processing from step S104 to step S110 until an arrangement pattern that approximates RGB values can be identified.

合成画像データの中心部分のRGB値が近似する場合は(ステップS108;Yes)、合成画像データが正しい画像であるとして、その合成画像データを生成した配置パターンを適切な配置パターンとして記憶する。そして、画像信号入力部110から出力される画像データに対して、適切な配置パターンに沿って画像データを配置して生成した合成画像データをFPGA140に出力するようにする。FPGA140は、画像処理部120から出力される合成画像データに基づき、表示制御部150に対して制御信号を送信する。そして、制御信号に基づく表示制御部150の制御により、合成画像データは、表示部160により、映像として出力される(ステップS112)。   When the RGB value of the central portion of the composite image data is approximate (step S108; Yes), the composite image data is stored as an appropriate layout pattern, assuming that the composite image data is a correct image. Then, with respect to the image data output from the image signal input unit 110, composite image data generated by arranging image data along an appropriate arrangement pattern is output to the FPGA 140. The FPGA 140 transmits a control signal to the display control unit 150 based on the composite image data output from the image processing unit 120. Then, under the control of the display control unit 150 based on the control signal, the composite image data is output as a video by the display unit 160 (step S112).

なお、全ての配置パターンのいずれにおいても、中心部分のRGB値が近似しない場合には、所定の時間をおき(例えば、10フレーム分の時間)、改めてメイン処理を実行する。表示装置10に入力される画像信号が映像に基づくフレーム画像の画像信号であれば、時間の経過によって画像データが変化するため、変化した画像データに基づいてメイン処理を実行することで、合成画像データの中心部分のRGB値が近似する配置パターンを特定することが可能となる。   In any of the arrangement patterns, when the RGB value of the central portion is not approximated, a predetermined time is set (for example, time for 10 frames), and the main process is executed again. If the image signal input to the display device 10 is an image signal of a frame image based on a video, the image data changes with the passage of time. Therefore, by executing the main processing based on the changed image data, a composite image It is possible to specify an arrangement pattern that approximates the RGB value of the central portion of the data.

[1.4 動作例]
つづいて、図4を参照して、本実施形態の動作例を説明する。図4(a)は、合成画像データと合成画像データの中心部分の位置を示した図であり、図4(b)は、合成画像データの中心部分を構成する境界領域を示した図であり、図4(c)及び図4(d)は、画素値を比較する組み合わせを示した図である。
[1.4 Operation example]
Subsequently, an operation example of the present embodiment will be described with reference to FIG. FIG. 4A is a diagram showing the composite image data and the position of the central portion of the composite image data, and FIG. 4B is a diagram showing the boundary region constituting the central portion of the composite image data. FIG. 4C and FIG. 4D are diagrams showing combinations for comparing pixel values.

図4(a)は、配置パターンが(第1画像データ、第2画像データ、第3画像データ、第4画像データ)であるときに、配置パターンに沿って画像データを配置して合成した合成画像データの例である。図4(a)に示すように、入力1に基づく第1画像データが左上に、入力2に基づく第2画像データが右上に、入力3に基づく第3画像データが左下に、入力4に基づく第4画像データが右下に配置される。   FIG. 4A shows a composition in which image data is arranged and synthesized along the arrangement pattern when the arrangement pattern is (first image data, second image data, third image data, fourth image data). It is an example of image data. As shown in FIG. 4A, the first image data based on the input 1 is based on the upper left, the second image data based on the input 2 is on the upper right, the third image data based on the input 3 is on the lower left, and based on the input 4. The fourth image data is arranged at the lower right.

また、合成画像データの中心部分である境界領域E100は、4枚の画像データが接する領域である。ここで、境界領域E100は、各画像データの四隅の画素のうち、他の3つの画像の四隅における画素の何れかと対向する画素によって構成され、図4(b)に示すような、縦2画素、横2画素の領域である。ここで、第1画像データの右下の画素をP1、第2画像データの左下の画素をP2、第3画像データの右上の画素をP3、第4画像データの左上の画素をP4とする。   The boundary area E100, which is the central part of the composite image data, is an area where four pieces of image data are in contact. Here, the boundary area E100 is configured by pixels facing any one of the pixels at the four corners of the other three images among the pixels at the four corners of each image data, and has two vertical pixels as shown in FIG. 4B. This is an area of two horizontal pixels. Here, the lower right pixel of the first image data is P1, the lower left pixel of the second image data is P2, the upper right pixel of the third image data is P3, and the upper left pixel of the fourth image data is P4.

そして、画像処理部120は、P1、P2、P3、P4の4つの画素の画素値が近似するか否かを判定する。ここで、画像処理部120は、4つの画素のうち2つの画素を選択し、選択した2つの画素のRGB値が近似するか否かを判定する。   Then, the image processing unit 120 determines whether or not the pixel values of the four pixels P1, P2, P3, and P4 are approximate. Here, the image processing unit 120 selects two of the four pixels and determines whether or not the RGB values of the two selected pixels are approximate.

4つの画素のうち2つの画素を選択する全ての組み合わせは、図4(c)の矢印で示したように6通りある。したがって、画像処理部120は、6通りの画素の組み合わせにおいて、RGB値が近似する場合に、中心部分のRGB値が近似すると判定する。   There are six combinations for selecting two of the four pixels as indicated by arrows in FIG. Therefore, the image processing unit 120 determines that the RGB value of the central portion is approximated when the RGB value is approximated in the six combinations of pixels.

なお、画像処理部120は、6通りのうちの一部の組み合わせにおいて、RGB値が近似しているか否かを判定してもよい。例えば、図4(d)に示すように、P2、P3、P4の画素の画素値について、P1の画素値と比較する場合は、組み合わせの数は3通りとなる。この3通りの画素の組み合わせにおいて、RGB値が近似する場合に、画像処理部120は、中心部分のRGB値が近似すると判定してもよい。   Note that the image processing unit 120 may determine whether or not the RGB values are approximate in some of the six combinations. For example, as shown in FIG. 4D, when the pixel values of the pixels P2, P3, and P4 are compared with the pixel value of P1, the number of combinations is three. When the RGB values approximate in these three combinations of pixels, the image processing unit 120 may determine that the RGB values of the central portion are approximate.

また、本実施形態は、ステップS104において合成画像データを生成したうえで合成画像データの中心部分のRGB値が近似するか否かを判定したが、合成画像データを生成せず、各画像データから境界領域を構成する画素のRGB値を読み出して比較をしてもよい。このようにすることで、合成画像データを生成する処理を行うこと無く配置パターンを決定できるため、処理時間の削減が可能となる。   In the present embodiment, the composite image data is generated in step S104 and it is determined whether or not the RGB value of the central portion of the composite image data is approximate. However, the composite image data is not generated, and each image data is generated. The RGB values of the pixels constituting the boundary area may be read and compared. By doing so, the arrangement pattern can be determined without performing the process of generating the composite image data, so that the processing time can be reduced.

なお、本実施形態では、境界領域は、各画像データにおいて、他の画像データと対向する側の隅部領域の1画素によって構成されることとして説明したが、2以上の画素によって構成されてもよい。この場合は、比較する画素値の組み合わせの数を多くしてもよいし、境界領域を構成する画素の画素値の平均値を比較してもよい。また、境界領域が、円形状やひし形状に構成されてもよい。   In the present embodiment, the boundary area is described as being configured by one pixel in the corner area on the side facing the other image data in each image data. However, the boundary area may be configured by two or more pixels. Good. In this case, the number of combinations of pixel values to be compared may be increased, or the average value of the pixel values of the pixels constituting the boundary region may be compared. Further, the boundary region may be configured in a circular shape or a diamond shape.

また、ステップS110においては、完全にランダムに配置パターンを生成してもよいし、生成する配置パターンの順番を事前に定めておいてもよい。なお、配置パターンを順に生成する場合は、ユーザが接続しやすいケーブルの順に対応する配置パターンが優先的に生成されるようにしてもよい。このようにすることで、完全にランダムに配置パターンを生成する場合と比べて、適切な配置パターンを早く特定できる可能性を高くすることができる。   In step S110, the arrangement pattern may be generated completely at random, or the order of the arrangement pattern to be generated may be determined in advance. Note that when the arrangement patterns are generated in order, the arrangement patterns corresponding to the order of the cables that are easy for the user to connect may be preferentially generated. By doing in this way, compared with the case where an arrangement pattern is generated completely at random, the possibility that an appropriate arrangement pattern can be specified earlier can be increased.

また、4K、16K、32Kといった場合でも、上述した処理によって適切な配置パターンを特定することが可能である。また、画像データが4枚である場合について説明したが、それ以上の画像データを用いる場合に応用することも可能である。例えば、画像データが横4枚、縦2枚の計8枚によって構成されるような横長の映像を表示する場合は、4枚の画像データが左上、右上、左下、右下とで隣接することによって構成される境界領域が3箇所ある。したがって、画像処理部120は、8枚の画像データをランダムに並べたときに、3箇所の境界領域のそれぞれについて、境界領域を構成する画素のRGB値が近似するか否かを判定すればよい。画像処理部120は、3箇所の境界領域のそれぞれについて、境界領域を構成する画素のRGB値が近似すると判定した場合は、その配置パターンを、適切な配置パターンとすればよい。   Even in the case of 4K, 16K, 32K, it is possible to specify an appropriate arrangement pattern by the above-described processing. Further, the case where there are four image data has been described, but the present invention can be applied to the case where more image data is used. For example, in the case of displaying a horizontally long image composed of a total of 8 image data, 4 horizontally and 2 vertically, the four image data should be adjacent in the upper left, upper right, lower left, and lower right. There are three boundary regions constituted by Therefore, the image processing unit 120 may determine whether or not the RGB values of the pixels constituting the boundary area are approximated for each of the three boundary areas when the eight pieces of image data are randomly arranged. . If the image processing unit 120 determines that the RGB values of the pixels constituting the boundary area are approximate for each of the three boundary areas, the arrangement pattern may be an appropriate arrangement pattern.

上述した配置パターンの特定は、ユーザの指示があったときに行ってもよいし、起動時(表示装置10の電源投入時)に行ってもよい。また、定期的に行ってもよい。   The above-described arrangement pattern specification may be performed when the user gives an instruction, or may be performed at startup (when the display device 10 is powered on). Moreover, you may perform regularly.

本実施形態によれば、表示装置10は、入力された画像信号に基づき、画像データを適切な位置に配置することが可能となる。したがって、ユーザは、ソース機器20と、表示装置10とで、正しい端子に接続されているかを確認する必要がなく、また、ソース機器20に対する操作をしなくても、高解像度の画像(映像)を容易に体感することができる。   According to the present embodiment, the display device 10 can arrange the image data at an appropriate position based on the input image signal. Therefore, it is not necessary for the user to check whether the source device 20 and the display device 10 are connected to the correct terminals, and a high-resolution image (video) can be obtained without operating the source device 20. Can be easily experienced.

また、画素値の比較に基づいて適切な配置パターンを特定するため、高い精度で適切な配置パターンを特定することが可能となる。   Moreover, since an appropriate arrangement pattern is specified based on the comparison of pixel values, it is possible to specify an appropriate arrangement pattern with high accuracy.

[2.第2実施形態]
つづいて第2実施形態について説明する。第2実施形態は第1実施形態と異なり、予め全ての配置パターンに基づく合成画像データを生成し、その中で中心部分のRGB値が最も近似する配置パターンを特定する実施形態である。なお、本実施形態は、第1実施形態の図3を図5に置き換えたものであり、同一の機能部及び処理には同一の符号を付し、説明については省略する。
[2. Second Embodiment]
Next, the second embodiment will be described. Unlike the first embodiment, the second embodiment is an embodiment in which composite image data based on all arrangement patterns is generated in advance, and an arrangement pattern in which the RGB value of the central portion is closest is specified. This embodiment is obtained by replacing FIG. 3 of the first embodiment with FIG. 5, and the same functional units and processes are denoted by the same reference numerals and description thereof is omitted.

本実施形態のメイン処理について、図5を参照して説明する。画像処理部120は、画像信号の入力がされたと判定した場合は、つづいて、全ての配置パターンに基づく合成画像データを生成し、中心部分のRGB値を読み取る(ステップS202)。たとえば、画像信号が4つ入力される場合は、それぞれの入力に基づき、4枚の画像データが画像信号入力部110から出力される。この、4枚の画像データをそれぞれ異なる位置に配置する組み合わせは24通りある。したがって、画像処理部120は、24枚の合成画像データを生成する。そして、合成画像データ毎に、中心部分から、境界領域を構成する4画素分のRGB値を読み出す。   The main processing of this embodiment will be described with reference to FIG. If the image processing unit 120 determines that an image signal has been input, the image processing unit 120 subsequently generates composite image data based on all the arrangement patterns and reads the RGB values of the central portion (step S202). For example, when four image signals are input, four image data are output from the image signal input unit 110 based on each input. There are 24 combinations in which the four pieces of image data are arranged at different positions. Therefore, the image processing unit 120 generates 24 composite image data. Then, for each composite image data, the RGB values for the four pixels constituting the boundary region are read from the central portion.

つづいて、画像処理部120は、ステップS202で読み取ったRGB値に基づき、RGB値が最も近似する配置パターンを特定する(ステップS204)。例えば、画像処理部120は、境界領域を構成する4つの画素のRGB値の差分が最小となる配置パターンをRGB値が最も近似する配置パターンとする。この場合は、4つの画素から2つの画素を選択した6つの組み合わせのうち、RGB値が近似する画素の組み合わせが最も多い配置パターンをRGB値が最も近似する配置パターンとする。または、差分のばらつきが最小となる配置パターンや、画素値の変化量がもっとも小さい配置パターンを、RGB値が最も近似する配置パターンとしてもよい。このように、境界領域を構成する4つの画素のRGB値に基づく比較可能な値(量)を算出し、算出した値に基づいて、RGB値が最も近似する配置パターンを特定する。   Subsequently, the image processing unit 120 specifies an arrangement pattern with the closest RGB value based on the RGB value read in step S202 (step S204). For example, the image processing unit 120 sets the arrangement pattern that minimizes the difference between the RGB values of four pixels constituting the boundary region as the arrangement pattern that approximates the RGB value most. In this case, among the six combinations in which two pixels are selected from four pixels, the arrangement pattern having the largest number of combinations of pixels having similar RGB values is set as the arrangement pattern having the most approximate RGB values. Alternatively, an arrangement pattern that minimizes the variation in the difference or an arrangement pattern that has the smallest amount of change in pixel value may be used as the arrangement pattern that approximates the RGB value most closely. In this way, a comparable value (amount) based on the RGB values of the four pixels constituting the boundary region is calculated, and an arrangement pattern that most closely approximates the RGB value is specified based on the calculated value.

そして、画像処理部120は、合成画像データをFPGA140に出力することで、ステップS204で特定した配置パターンに基づく合成画像データを映像として出力する(ステップS112)。   Then, the image processing unit 120 outputs the composite image data to the FPGA 140, thereby outputting the composite image data based on the arrangement pattern specified in step S204 as a video (step S112).

なお、ステップS204において、RGB値が最も近似する配置パターンであっても、RGB値が近似する画素の組み合わせ数が少なかったり、ばらつきや変化量といった値が大きかったりする場合は、特定した配置パターンが適切である可能性が低いと考えられる。具体的には、ステップS204で算出する値に対して、閾値や近似と判定する範囲を定め、ステップS204で算出する値が、閾値に基づき適切な値ではない場合や、近似と判定する範囲に収まらない場合は、適切な配置パターンである可能性が低いと判定する。例えば、境界領域を構成する4画素のうち2画素を選択する6通りの組み合わせについて、画素値が近似する組み合わせの数をステップS204において算出する値とする。そして、この値に対して閾値を6とする。この場合、全ての配置パターンの内、最もRGB値が近似する画素の組み合わせが最も多い配置パターンであっても、RGB値が近似する画素の組み合わせが5以下であったときは、画像処理部120は、適切な配置パターンである可能性が低いと判定する。このような場合は、所定の時間が経過した後(例えば、10フレーム分の時間)、改めてステップS202から処理をやり直してもよい。   In step S204, even if the arrangement pattern has the closest RGB value, if the number of combinations of pixels to which the RGB value approximates is small or the value such as variation or variation is large, the specified arrangement pattern is It is unlikely to be appropriate. Specifically, for the value calculated in step S204, a threshold value or a range that is determined to be approximate is determined. When the value calculated in step S204 is not an appropriate value based on the threshold value, When it does not fit, it is determined that there is a low possibility of an appropriate arrangement pattern. For example, the number of combinations whose pixel values are approximated is set as the value calculated in step S204 for six combinations that select two of the four pixels that form the boundary region. The threshold is set to 6 for this value. In this case, among all the arrangement patterns, even if the arrangement pattern has the largest number of combinations of pixels that approximate RGB values, when the combination of pixels that approximate RGB values is 5 or less, the image processing unit 120. Is determined to be less likely to be an appropriate arrangement pattern. In such a case, after a predetermined time has elapsed (for example, time for 10 frames), the processing may be performed again from step S202.

なお、第1実施形態と同様に、ステップS202においては、合成画像データを生成せず、各画像データから境界領域を構成する画素のRGB値を読み出して比較をしてもよい。   As in the first embodiment, in step S202, the composite image data may not be generated, and the RGB values of the pixels constituting the boundary area may be read from each image data and compared.

本実施形態によれば、全配置パターンから最もRGB値が近似する配置パターンを特定するため、適切な配置パターンを精度良く特定することが可能となる。   According to this embodiment, since the arrangement pattern with the closest RGB value is specified from all the arrangement patterns, it is possible to specify an appropriate arrangement pattern with high accuracy.

[3.第3実施形態]
つづいて第3実施形態について説明する。第3実施形態は第2実施形態における配置パターンの特定を複数回行う実施形態である。なお、本実施形態は、第2実施形態の図5を図6に置き換えたものであり、同一の機能部及び処理には同一の符号を付し、説明については省略する。
[3. Third Embodiment]
Next, a third embodiment will be described. The third embodiment is an embodiment in which the arrangement pattern in the second embodiment is specified a plurality of times. In this embodiment, FIG. 5 is replaced with FIG. 6 in the second embodiment, and the same functional units and processes are denoted by the same reference numerals, and description thereof is omitted.

本実施形態のメイン処理について、図6を参照して説明する。画像処理部120は、画像信号が入力されたら、全配置パターンの中心部分におけるRGB値を読み取り、RGB値が最も近似する配置パターンを特定可能であるか否かを判定する(ステップS302)。RGB値が最も近似する配置パターンを特定可能であるとは、例えば、RGB値が最も近似する配置パターンが、適切な配置パターンである可能性が高い場合である。より具体的には、境界領域を構成する4つの画素のRGB値に基づく比較可能な値(量)を算出して、最もRGB値が最も近似する配置パターンを求めたときに、その値が閾値に基づき適切な値である場合や、近似と判定する範囲に収まる場合である。ステップS302において、RGB値が最も近似する配置パターンが特定可能である場合は、画像処理部120は、RGB値が最も近似する配置パターンを第1配置パターンとして記憶する(ステップS304)。ここで、第1配置パターンは、適切な配置パターンの候補である。   The main processing of this embodiment will be described with reference to FIG. When the image signal is input, the image processing unit 120 reads the RGB values in the central portion of all the arrangement patterns, and determines whether or not the arrangement pattern that approximates the RGB values can be identified (step S302). The fact that the arrangement pattern with the closest RGB value can be specified is, for example, when the arrangement pattern with the closest RGB value is highly likely to be an appropriate arrangement pattern. More specifically, when a comparable value (amount) based on the RGB values of the four pixels constituting the boundary area is calculated, and an arrangement pattern that most closely approximates the RGB values is obtained, the value is a threshold value. This is a case where the value is an appropriate value based on the above or a case where the value falls within a range determined to be approximate. In step S302, when the arrangement pattern with the closest RGB value can be identified, the image processing unit 120 stores the arrangement pattern with the closest RGB value as the first arrangement pattern (step S304). Here, the first arrangement pattern is an appropriate arrangement pattern candidate.

ステップS302において、RGB値が最も近似する配置パターンを特定できない場合は(ステップS302;No)、別の画像データに基づいて、ステップS202及びステップS302を実行する。このとき、RGB値が最も近似する配置パターンが特定できるように、画像データが変化した場合にステップS202へ戻るようにする。このとき、画像処理部120は、APL(Average Picture Level;平均画像レベル)値に変化があるまで待機する(ステップS306)。なお、APLとして、例えば、画像データの平均画素値や、平均輝度値を用いる。このように、画像データが変化するまで待機することにより、例えば、入力された画像が単一色であっても、何度も配置パターンを特定する処理を実行してしまうことを避けることができる。   In step S302, when the arrangement pattern with the closest RGB value cannot be specified (step S302; No), step S202 and step S302 are executed based on another image data. At this time, when the image data changes, the process returns to step S202 so that the arrangement pattern with the closest RGB value can be specified. At this time, the image processing unit 120 stands by until there is a change in the APL (Average Picture Level) value (step S306). As the APL, for example, an average pixel value or average luminance value of image data is used. Thus, by waiting for the image data to change, for example, even if the input image is a single color, it is possible to avoid repeatedly executing the process of specifying the arrangement pattern.

第1配置パターンを記憶したら、画像処理部120は所定時間(例えば、10フレーム分の時間)が経過したか否かを判定する(ステップS308)。そして、所定時間経過後(ステップS308;Yes)、画像処理部120は、再度、全配置パターンの中心部分におけるRGB値を読み取り(ステップS310)、RGB値が最も近似する配置パターンを特定可能であるか否かを判定する(ステップS312)。RGB値が最も近似する配置パターンを特定可能でない場合は、APL値に変化があるまで待機した上で、ステップS310へ戻る(ステップS312;No→ステップS314→ステップS310)。なお、ステップS310はステップS202と、ステップS312はステップS302と、ステップS314はステップS306と同様の処理を行う。   After storing the first arrangement pattern, the image processing unit 120 determines whether or not a predetermined time (for example, time for 10 frames) has elapsed (step S308). Then, after a predetermined time has elapsed (step S308; Yes), the image processing unit 120 can read the RGB values at the central portion of all the arrangement patterns again (step S310), and can specify the arrangement pattern with the most approximate RGB values. Is determined (step S312). If it is not possible to specify the arrangement pattern that approximates the RGB value most closely, the process waits until the APL value changes, and then returns to Step S310 (Step S312; No → Step S314 → Step S310). Note that step S310 performs the same processing as step S202, step S312 performs step S302, and step S314 performs the same processing as step S306.

RGB値が最も近似する配置パターンを特定可能であれば、画像処理部120は、最も小さい合計差分値となる配置パターンを第2配置パターンとして、第1配置パターンと配置パターンが一致するか否かを判定する(ステップS314)。第1配置パターンと第2配置パターンとが一致すれば、第1配置パターン(または、第2配置パターン)を適切な配置パターンとして特定する(ステップS316)。そして、画像処理部120は、ステップS316で特定した配置パターンに基づき画像データを合成して、映像として表示部160から出力する(ステップS112)。   If it is possible to specify the arrangement pattern that approximates the RGB value most closely, the image processing unit 120 sets the arrangement pattern that has the smallest total difference value as the second arrangement pattern, and whether or not the first arrangement pattern matches the arrangement pattern. Is determined (step S314). If the first arrangement pattern matches the second arrangement pattern, the first arrangement pattern (or the second arrangement pattern) is specified as an appropriate arrangement pattern (step S316). Then, the image processing unit 120 synthesizes the image data based on the arrangement pattern specified in step S316, and outputs it as a video from the display unit 160 (step S112).

なお、第1配置パターンと、第2配置パターンとが異なる場合は、ステップS202へ戻る(ステップS314;No→ステップS202)。   If the first arrangement pattern is different from the second arrangement pattern, the process returns to step S202 (step S314; No → step S202).

図7は、本実施形態における動作例を図示したものである。本実施形態は、異なるタイミングで、第1配置パターンと、第2配置パターンを特定する。特に、動画に基づく画像信号が入力された場合には、第1配置パターンを特定するタイミングと、第2配置パターンを特定するタイミングとでは、画像データ(フレーム画像)が異なる。したがって、異なる画像データに基づいて、適切な配置パターンを特定することとなる。   FIG. 7 illustrates an operation example in the present embodiment. In the present embodiment, the first arrangement pattern and the second arrangement pattern are specified at different timings. In particular, when an image signal based on a moving image is input, the image data (frame image) differs between the timing for specifying the first arrangement pattern and the timing for specifying the second arrangement pattern. Therefore, an appropriate arrangement pattern is specified based on different image data.

なお、本実施形態は、配置パターンを特定する処理を2回行うこととして説明したが、3回以上行ってもよい。また、配置パターンを特定する処理を、表示部160に映像を出力する前の、ブラックアウトしている状態において実行してもよい。   In addition, although this embodiment demonstrated as performing the process which pinpoints an arrangement | positioning pattern twice, you may carry out 3 times or more. Further, the process of specifying the arrangement pattern may be executed in a blacked-out state before outputting the video to the display unit 160.

本実施形態によれば、配置パターンを特定する処理を、異なる画像データに基づいて繰り返し行うことができ、適切な配置パターンを特定する精度を向上することができる。   According to this embodiment, the process of specifying the arrangement pattern can be repeatedly performed based on different image data, and the accuracy of specifying an appropriate arrangement pattern can be improved.

[4.第4実施形態]
つづいて、第4実施形態について説明する。第4実施形態は第1実施形態と異なり、画像信号をダウンコンバートしてから、合成画像データを生成する実施形態である。なお、本実施形態は、第1実施形態の図3を図8に置き換えたものであり、同一の機能部及び処理には同一の符号を付し、説明については省略する。
[4. Fourth Embodiment]
Next, a fourth embodiment will be described. Unlike the first embodiment, the fourth embodiment is an embodiment that generates composite image data after down-converting an image signal. In the present embodiment, FIG. 3 in the first embodiment is replaced with FIG. 8, and the same functional units and processes are denoted by the same reference numerals and description thereof is omitted.

例えば、表示装置10が8Kの解像度の映像を表示する場合は、画像信号入力部110には、通常であれば、4Kの画像信号が入力される。しかし、4Kの解像度において、ストライプや画素毎に異なる画素値になっている画像の画像信号が入力されたり、森の画像のようなノイズに近い画像の画像信号が入力されたりする場合は、隣接する画素の画素値を比較しても、RGB値が近似しない場合がある。このような場合は、表示装置10は、入力された画像信号をダウンコンバートして、2Kの解像度の画像信号として、画像データを出力する。ダウンコンバートすることにより、画像データの解像度が低くなり、画素値が平均化される。そして、2Kの解像度の画像データに基づいて、合成画像データを生成して、RGB値の比較を行う。したがって、ストライプが含まれる画像や、ノイズに近い画像であっても、画素ごとの画素値が平均化され、画素値の変化が小さくなる。このため、境界領域を構成する画素の画素値の差を小さくでき、配置パターンの特定の精度を向上することができる。   For example, when the display device 10 displays an 8K resolution video, the image signal input unit 110 normally receives a 4K image signal. However, if an image signal of an image having a different pixel value for each stripe or pixel is input at 4K resolution, or an image signal of an image close to noise such as a forest image is input, Even if the pixel values of the pixels to be compared are compared, the RGB values may not approximate. In such a case, the display device 10 down-converts the input image signal and outputs the image data as an image signal having a 2K resolution. By down-converting, the resolution of the image data is lowered and the pixel values are averaged. Then, based on the 2K resolution image data, composite image data is generated and the RGB values are compared. Therefore, even in an image including a stripe or an image close to noise, the pixel value for each pixel is averaged, and the change in the pixel value is reduced. For this reason, the difference of the pixel value of the pixel which comprises a boundary area | region can be made small, and the specific precision of an arrangement pattern can be improved.

本実施形態におけるメイン処理について、図8を参照して説明する。表示装置10に画像信号が入力された場合は、画像処理部120は、ダウンコンバート条件を満たすか否かを判定する(ステップS402)。ここで、ダウンコンバート条件とは、画像信号入力部110が、画像信号をダウンコンバートする場合における条件であり、例えば、以下の場合はダウンコンバート条件を満たすと判定する。   The main process in this embodiment will be described with reference to FIG. When an image signal is input to the display device 10, the image processing unit 120 determines whether or not a down-conversion condition is satisfied (step S402). Here, the down-conversion condition is a condition when the image signal input unit 110 down-converts the image signal. For example, it is determined that the down-conversion condition is satisfied in the following cases.

(1)ダウンコンバートを行うことが設定されている場合
例えば、ユーザの設定により、精度を優先して配置パターンを特定するように指示されている場合は、ダウンコンバートを満たすと判定して、必ずダウンコンバートを行うこととする。
(1) When it is set to perform down-conversion For example, when it is instructed by the user setting to specify the arrangement pattern with priority on accuracy, it is determined that the down-conversion is satisfied, and Down-conversion will be performed.

(2)画像データにノイズ成分が多い場合
画像信号に基づく画像データが、ノイズが多いと考えられる場合は、ダウンコンバートを行うこととする。例えば、画素値のヒストグラムを取ったときに、特定の画素値の範囲に含まれる画素が一定の数ある場合は、ノイズが多いと判定する。
(2) When image data has a lot of noise components When image data based on an image signal is considered to have a lot of noise, down-conversion is performed. For example, when a pixel value histogram is taken and there is a certain number of pixels included in a specific pixel value range, it is determined that there is a lot of noise.

ダウンコンバート条件を満たす場合は、画像信号入力部110は、画像信号のダウンコンバートを行う(ステップS402;Yes→ステップS404)。例えば、画像信号のダウンコンバートは、画像処理部120が、画像信号入力部110に対して、ダウンコンバートを行うように、制御信号を送信することにより実現する。   When the down-conversion condition is satisfied, the image signal input unit 110 performs down-conversion of the image signal (Step S402; Yes → Step S404). For example, the down conversion of the image signal is realized by the image processing unit 120 transmitting a control signal to the image signal input unit 110 so as to perform the down conversion.

つづいて、画像信号に基づき、配置パターンを特定する。例えば、第1実施形態におけるステップS104〜ステップS110を実行する。   Subsequently, an arrangement pattern is specified based on the image signal. For example, steps S104 to S110 in the first embodiment are executed.

つづいて、配置パターンが特定できた場合は、画像処理部120は、画像信号入力部110がダウンコンバートをしたか否かを判定する(ステップS406)。画像信号入力部110がダウンコンバートをした場合は、画像信号入力部110は、画像信号を元の状態に戻す(ステップS408)。例えば、画像処理部120が、画像信号入力部110に対して、ダウンコンバートを行わないように、制御信号を送信することにより実現する。そして、画像処理部120は、配置パターンに基づき合成した合成画像データをFPGA140に出力し、表示部160に映像として出力する(ステップS112)。   Subsequently, when the arrangement pattern can be identified, the image processing unit 120 determines whether or not the image signal input unit 110 has down-converted (step S406). If the image signal input unit 110 has down-converted, the image signal input unit 110 returns the image signal to the original state (step S408). For example, the image processing unit 120 transmits the control signal to the image signal input unit 110 so as not to perform down-conversion. Then, the image processing unit 120 outputs the synthesized image data synthesized based on the arrangement pattern to the FPGA 140 and outputs it as a video to the display unit 160 (step S112).

本実施形態における動作例を、図を参照して説明する。図9(a)は、合成画像データの中心部分である境界領域E400を示した図であり、図9(b)は、ダウンコンバート前における境界領域E402の画素値を示したものであり、図9(c)は、ダウンコンバート前における境界領域E404の画素値を示したものである。なお、画素値は、説明を簡単にするため、RGB値は、R値、G値、B値の何れも、矩形内に示した値であるとする。   An operation example in the present embodiment will be described with reference to the drawings. FIG. 9A is a diagram showing a boundary region E400 that is a central portion of the composite image data, and FIG. 9B shows a pixel value of the boundary region E402 before down-conversion. 9 (c) shows the pixel value of the boundary area E404 before down-conversion. For the sake of simplicity, the pixel values are assumed to be R, G, and B values shown in a rectangle.

図9(b)に示すように、境界領域E402を構成する4つの画素及びその周りの画素が、RGB値がR値=0、G値=0、B値=0である画素と、RGB値がR値=10、G値=10、B値=10である画素とによって市松模様のように構成されている場合は、縦又は横に隣接するRGB値は近似しない。   As shown in FIG. 9B, the four pixels constituting the boundary region E402 and the surrounding pixels include a pixel having an RGB value of R value = 0, a G value = 0, and a B value = 0, and an RGB value. Are configured like a checkerboard pattern with pixels having an R value = 10, a G value = 10, and a B value = 10, RGB values adjacent vertically or horizontally are not approximated.

そこで、ダウンコンバートを行うことで、RGB値を平均化する。例えば、4K画像の画像信号を、2K画像の画像信号にダウンコンバートすることにより、4Kにおいて縦2画素、横2画素によって構成されていた画素が、2Kにおける1画素となる。この1画素のRGB値は、4Kにおいて縦2画素、横2画素によって構成されていた画素のRGB値の平均となる。したがって、4KにおいてR値=0、G値=0、B値=0である画素と、R値=10、G値=10、B値=10である画素とによって市松模様のように構成されている場合は、2Kにすることで、RGB値が平均化され、市松模様を構成していた画素のRGB値がR値=5、G値=5、B値=5となる。   Therefore, the RGB values are averaged by down-conversion. For example, by down-converting a 4K image signal into a 2K image signal, a pixel composed of 2 vertical pixels and 2 horizontal pixels in 4K becomes one pixel in 2K. The RGB value of one pixel is an average of the RGB values of pixels formed by 2 vertical pixels and 2 horizontal pixels at 4K. Therefore, in 4K, a pixel having R value = 0, G value = 0, and B value = 0 and a pixel having R value = 10, G value = 10, and B value = 10 are configured in a checkered pattern. If the value is 2K, the RGB values are averaged, and the RGB values of the pixels constituting the checkered pattern are R value = 5, G value = 5, and B value = 5.

例えば、図9(b)の領域E403に示した、第1画像データの右下隅の縦2画素、横2画素のRGB値は、ダウンコンバートにより、図9(c)の領域E405に示すように、RGB値がR値=5、G値=5、B値=5の画素となる。第2画像データ、第3画像データ、第4画像データにおいても同様である。したがって、境界領域E404を構成する画素のRGB値は、何れもR値=5、G値=5、B値=5となり、画像処理部120は、RGB値が近似すると判定することが可能となる。   For example, the RGB values of the vertical 2 pixels and horizontal 2 pixels in the lower right corner of the first image data shown in the area E403 in FIG. 9B are converted into the RGB values shown in the area E405 in FIG. 9C by down-conversion. , RGB values are pixels of R value = 5, G value = 5, and B value = 5. The same applies to the second image data, the third image data, and the fourth image data. Therefore, the RGB values of the pixels constituting the boundary region E404 are all R value = 5, G value = 5, and B value = 5, and the image processing unit 120 can determine that the RGB values are approximate. .

なお、境界領域を構成する画素を含む領域のみ、解像度を低くしてもよい。境界領域を構成する画素を含む領域とは、図10(a)に示すように、各画像データの四隅の領域である。また、図10(b)は、図10(a)に示した境界領域E410を拡大した図である。図10(b)に示すように、合成画像データの中心部分にある境界領域E410には、境界領域を構成する画素を含む領域E421、領域E422、領域E423、領域E424が含まれる。本実施形態では、説明のため、領域E421、領域E422、領域E423、領域E424は、境界領域の画素と、境界領域の画素の周囲3画素によって構成される、縦2画素、横2画素の領域とする。なお、境界領域を構成する画素を含む領域としては、境界領域の画素を扇状に囲んだ形状としてもよいし、境界領域の画素を三角形状に囲んだ形状としてもよい。また、縦2画素、横2画素よりも大きい領域としてもよい。   Note that the resolution may be lowered only in the region including the pixels constituting the boundary region. As shown in FIG. 10A, the areas including the pixels constituting the boundary area are the four corner areas of each image data. FIG. 10B is an enlarged view of the boundary region E410 shown in FIG. As shown in FIG. 10B, the boundary region E410 in the central portion of the composite image data includes a region E421, a region E422, a region E423, and a region E424 that include pixels constituting the boundary region. In the present embodiment, for the sake of explanation, the region E421, the region E422, the region E423, and the region E424 are regions of 2 pixels in the vertical direction and 2 pixels in the horizontal direction that are configured by the pixels in the boundary region and the three pixels around the pixels in the boundary region. And Note that the region including the pixels constituting the boundary region may have a shape in which the pixels in the boundary region are enclosed in a fan shape, or may have a shape in which the pixels in the boundary region are surrounded in a triangular shape. Moreover, it is good also as an area | region larger than 2 vertical pixels and 2 horizontal pixels.

図10(b)に示すように、第1画像データの右下の領域E421、第2画像データの左下の領域E422、第3画像データの左上の領域E423、第4画像データの右上の領域E424は、解像度を低くすることにより、RGB値が平均化される。したがって、境界領域E420には、RGB値が平均化された画素によって構成され、画像処理部120は、平均化された画素に基づいて、RGB値が近似するか否かを判定する。   As shown in FIG. 10B, the lower right area E421 of the first image data, the lower left area E422 of the second image data, the upper left area E423 of the third image data, and the upper right area E424 of the fourth image data. The RGB values are averaged by reducing the resolution. Therefore, the boundary area E420 is configured by pixels in which RGB values are averaged, and the image processing unit 120 determines whether or not the RGB values are approximated based on the averaged pixels.

画像データの一部の解像度を低くする処理は、画像信号入力部110が行ってもよいし、画像処理部120が、画像信号入力部110から出力される画像データに対して行ってもよい。このように、解像度を低くする領域を画像データの一部にすることにより、表示装置10の処理の付加が軽減される。   The image signal input unit 110 may perform the process of reducing the resolution of a part of the image data, or the image processing unit 120 may perform the process on the image data output from the image signal input unit 110. In this way, by adding the area for lowering the resolution to a part of the image data, the processing addition of the display device 10 is reduced.

なお、ダウンコンバートを表示装置10が行うこととして説明したが、ソース機器20側で行ってもよい。また、ダウンコンバートを行う制御信号(例えば、CEC(Consumer Electronics Control))をソース機器20から表示装置10側に送信して、ダウンコンバートを行う制御信号を受信したことを契機に、表示装置10がダウンコンバートを行ってもよい。また、表示装置10側のEDID(Extended Display Identification Data)を変更して、低解像度の画像信号がソース機器20から送信されるようにしてもよい。なお、ソース機器20側でダウンコンバートすることにより、表示装置10でダウンコンバートする処理を省けるため、適切な配置パターンを特定する処理を短縮することが可能となる。   Note that although the display device 10 has been described as performing the down-conversion, it may be performed on the source device 20 side. In addition, when the display device 10 transmits a control signal for down-conversion (for example, CEC (Consumer Electronics Control)) from the source device 20 to the display device 10 and receives the control signal for down-conversion, the display device 10 Down-conversion may be performed. Further, EDID (Extended Display Identification Data) on the display device 10 side may be changed so that a low-resolution image signal is transmitted from the source device 20. Note that down-conversion on the source device 20 side saves processing for down-conversion on the display device 10, so that processing for specifying an appropriate arrangement pattern can be shortened.

なお、図11に示すように、表示装置10は、ダウンコンバートを行うか否かを設定する設定画面W400を表示してもよい。また、ユーザに対して、表示装置10による画像データの並べ替えを、精度優先で行わせるか、速度優先で行わせるか、自動で判定させるかを、領域B400から選択させる。なお、OKボタンB402が選択されることにより、ユーザによって選択された設定が有効になり、キャンセルボタンB404が選択されることにより、元の状態に戻る。精度優先が選択された場合は、ダウンコンバート条件が必ず満たされるとし、速度優先が選択された場合は、ダウンコンバート条件は必ず満たされないようにする。また、自動が選択された場合は、画像処理部120が、画像データに基づいて、ダウンコンバートをするか否かを決定する。ダウンコンバートを実行する場合、実行しない場合と比べて時間がかかるため、ユーザによってダウンコンバートを行うか否かが選択されることにより、ユーザの利便性を向上させることができる。   As shown in FIG. 11, the display device 10 may display a setting screen W400 for setting whether to perform down-conversion. In addition, the user is allowed to select from the region B400 whether the image data is rearranged by the display device 10 with accuracy priority, speed priority, or automatic determination. Note that when the OK button B402 is selected, the setting selected by the user is enabled, and when the cancel button B404 is selected, the original state is restored. When accuracy priority is selected, it is assumed that the down-conversion condition is always satisfied, and when speed priority is selected, the down-conversion condition is not always satisfied. If automatic is selected, the image processing unit 120 determines whether to down-convert based on the image data. When down-conversion is performed, it takes more time than when down-conversion is not performed, and thus the convenience of the user can be improved by selecting whether or not to perform down-conversion by the user.

本実施形態によれば、8K又はそれ以上の高解像度画像に基づいて配置パターンを判定する際、境界領域の画像がストライプ画像や、ノイズを含む画像である場合であっても、判別精度が低下してしまうことを防ぐことができる。   According to this embodiment, when determining an arrangement pattern based on an 8K or higher-resolution image, even if the boundary area image is a stripe image or an image including noise, the determination accuracy is reduced. Can be prevented.

[5.第5実施形態]
つづいて、第5実施形態について説明する。第5実施形態は第1実施形態と異なり、画像データを1枚ずつ合成(結合)する実施形態である。なお、本実施形態は、第1実施形態の図3を図12に置き換えたものであり、同一の機能部及び処理には同一の符号を付し、説明については省略する。
[5. Fifth Embodiment]
Next, a fifth embodiment will be described. Unlike the first embodiment, the fifth embodiment is an embodiment that combines (combines) image data one by one. In the present embodiment, FIG. 3 in the first embodiment is replaced with FIG. 12, and the same functional units and processes are denoted by the same reference numerals and description thereof is omitted.

本実施形態におけるメイン処理について、図12を参照して説明する。はじめに、画像処理部120は、画像信号が入力されたら、各画像データの四隅のRGB値を読み取る(ステップS502)。そして、画像処理部120は、第1画像データの右下の画素のRGB値が、第2画像データの左下の画素のRGB値、第3画像データの左下の画素のRGB値、第4画像データの左下の画素のRGB値の何れかと近似するか否かを判定する(ステップS504)。第1画像データの右下の画素のRGB値が、第2画像データの左下の画素のRGB値、第3画像データの左下の画素のRGB値、第4画像データの左下の画素のRGB値の何れかと近似した場合は、第1画像データの右側に、RGB値の近似した画像データを結合する(ステップS504;Yes→ステップS506)。   The main process in this embodiment will be described with reference to FIG. First, when an image signal is input, the image processing unit 120 reads the RGB values at the four corners of each image data (step S502). Then, the image processing unit 120 determines that the RGB value of the lower right pixel of the first image data is the RGB value of the lower left pixel of the second image data, the RGB value of the lower left pixel of the third image data, and the fourth image data. It is determined whether or not it approximates to any of the RGB values of the lower left pixel (step S504). The RGB value of the lower right pixel of the first image data is the RGB value of the lower left pixel of the second image data, the RGB value of the lower left pixel of the third image data, and the RGB value of the lower left pixel of the fourth image data. If approximated to either, the image data with the approximate RGB values is combined on the right side of the first image data (step S504; Yes → step S506).

第1画像データの右下の画素のRGB値と、第2画像データの左下の画素のRGB値、第3画像データの左下の画素のRGB値、第4画像データの左下の画素のRGB値の何れかと近似しない場合は、つづいて、画像処理部120は、第1画像データの左下の画素のRGB値と、第2画像データの右下の画素のRGB値、第3画像データの右下の画素のRGB値、第4画像データの右下の画素のRGB値の何れかと近似するか否かを判定する(ステップS504;No→ステップS508)。第1画像データの左下の画素のRGB値が、第2画像データの右下の画素のRGB値、第3画像データの右下の画素のRGB値、第4画像データの右下のRGB値の画素の何れかと近似した場合は、第1画像データの左側に、RGB値の近似した画像データを結合する(ステップS508;Yes→ステップS5010)。   The RGB value of the lower right pixel of the first image data, the RGB value of the lower left pixel of the second image data, the RGB value of the lower left pixel of the third image data, and the RGB value of the lower left pixel of the fourth image data If it is not approximated, the image processing unit 120 continues the RGB value of the lower left pixel of the first image data, the RGB value of the lower right pixel of the second image data, and the lower right of the third image data. It is determined whether or not the RGB value of the pixel and the RGB value of the lower right pixel of the fourth image data are approximated (step S504; No → step S508). The RGB value of the lower left pixel of the first image data is the RGB value of the lower right pixel of the second image data, the RGB value of the lower right pixel of the third image data, and the lower right RGB value of the fourth image data. When approximated to any of the pixels, the image data with the approximate RGB values is combined on the left side of the first image data (step S508; Yes → step S5010).

なお、第1画像データの左下の画素のRGB値と、第2画像データの右下の画素のRGB値、第3画像データの右下の画素のRGB値、第4画像データの右下の画素のRGB値の何れとも近似しない場合は、現在の画像データに基づいて配置パターンを決定できないため、所定時間経過後、改めてステップS504の処理を行う(ステップS508;No→ステップS504)。   The RGB value of the lower left pixel of the first image data, the RGB value of the lower right pixel of the second image data, the RGB value of the lower right pixel of the third image data, and the lower right pixel of the fourth image data If it is not approximated with any of the RGB values, the arrangement pattern cannot be determined based on the current image data, and therefore the processing of step S504 is performed again after a predetermined time has elapsed (step S508; No → step S504).

つづいて、画像処理部120は、第1画像データの右下の画素のRGB値と、ステップS506及びステップS510において結合されなかった画像データ(以下、「未結合画像データ」という)の何れかの右上の画素のRGB値が近似するか否かを判定する(ステップS512)。そして、第1画像データの右下の画素のRGB値と、未結合画像データの何れかの右上の画素のRGB値が近似した場合は、RGB値が近似した画像データを、第1画像データの下側に結合する(ステップS512;Yes→ステップS514)。   Subsequently, the image processing unit 120 selects one of the RGB value of the lower right pixel of the first image data and the image data that has not been combined in step S506 and step S510 (hereinafter referred to as “uncombined image data”). It is determined whether or not the RGB value of the upper right pixel is approximate (step S512). Then, when the RGB value of the lower right pixel of the first image data approximates the RGB value of any upper right pixel of the uncombined image data, the image data with the approximate RGB value is represented by the first image data. The lower side is coupled (step S512; Yes → step S514).

第1画像データの右下の画素のRGB値と、未結合画像データの右上の画素のRGB値が近似しなかった場合は、つづいて、画像処理部120は、第1画像データの右上の画素のRGB値と、未結合画像データの何れかの右下の画素のRGB値が近似するか否かを判定する(ステップS512;No→ステップS516)。そして、第1画像データの右上の画素のRGB値と、未結合画像データの何れかの右下の画素のRGB値が近似した場合は、RGB値が近似した画像データを、第1画像データの上側に結合する(ステップS516;Yes→ステップS518)。   When the RGB value of the lower right pixel of the first image data and the RGB value of the upper right pixel of the unbound image data are not approximated, the image processing unit 120 then continues to the upper right pixel of the first image data. It is determined whether or not the RGB value of each of the uncombined image data is approximate to the RGB value of any lower right pixel (step S512; No → step S516). If the RGB value of the upper right pixel of the first image data approximates the RGB value of any lower right pixel of the unbound image data, the image data with the approximate RGB value is represented by the first image data. It couple | bonds with an upper side (step S516; Yes-> step S518).

なお、第1画像データの右上のRGB値と、未結合画像データの何れの右下の画素のRGB値とが近似しない場合は、現在の画像データに基づいて配置パターンを決定できないため、所定時間経過後、改めてステップS512の処理を行う。   Note that if the RGB value of the upper right of the first image data and the RGB value of any of the lower right pixels of the unbound image data are not approximate, the arrangement pattern cannot be determined based on the current image data, so a predetermined time After the elapse of time, the process of step S512 is performed again.

つづいて、画像処理部120は、結合した画像データから配置パターンを特定する。例えば、第1画像データの右側に第3画像データが結合され、第1画像データの上側に第4画像データが結合された場合は、配置パターンは(第4画像データ、第2画像データ、第1画像データ、第3画像データ)であると特定できる。そして、画像処理部120は、配置パターンに基づき合成した合成画像データをFPGA140に出力し、表示部160に映像として出力する(ステップS112)。   Subsequently, the image processing unit 120 specifies an arrangement pattern from the combined image data. For example, when the third image data is combined on the right side of the first image data and the fourth image data is combined on the upper side of the first image data, the arrangement pattern is (fourth image data, second image data, second image data, 1 image data, 3rd image data). Then, the image processing unit 120 outputs the synthesized image data synthesized based on the arrangement pattern to the FPGA 140 and outputs it as a video to the display unit 160 (step S112).

図13を参照して、RGB値を比較する画素について説明する。図13は、第1画像データの左上の画素をC11、右上の画素をC12、右下の画素をC13、左下の画素をC14とした図である。同様に、第2画像データ、第3画像データ、第4画像データについても、画像データの番号を十の位、隅の位置を一の位とした符号で、それぞれの画像データの四隅の画素を表す。   With reference to FIG. 13, a pixel for comparing RGB values will be described. FIG. 13 is a diagram in which the upper left pixel of the first image data is C11, the upper right pixel is C12, the lower right pixel is C13, and the lower left pixel is C14. Similarly, for the second image data, the third image data, and the fourth image data, the numbers of the image data are the tens place and the corner positions are the first place. Represent.

メイン処理のステップS504においては、C14と、C23、C33、C43とのそれぞれのRGB値を比較する。ここで、例えば、C14とC33とのRGB値が近似する場合は、C14とC33との画素が横に連続して配置されるように、第1画像データの右側に第3画像データを配置する。   In step S504 of the main process, the RGB values of C14 and C23, C33, and C43 are compared. Here, for example, when the RGB values of C14 and C33 are approximated, the third image data is arranged on the right side of the first image data so that the pixels of C14 and C33 are continuously arranged horizontally. .

また、この状態で、メイン処理のステップS512においては、C14と、C22、C42とのそれぞれのRGB値を比較する。ここで、例えば、C14とC22とのRGB値が近似する場合は、C14とC22との画素が縦に連続して配置されるように、第1画像データの下側に第2画像データを配置する。   In this state, the RGB values of C14, C22, and C42 are compared in step S512 of the main process. Here, for example, when the RGB values of C14 and C22 are approximate, the second image data is arranged below the first image data so that the pixels of C14 and C22 are continuously arranged vertically. To do.

この場合、第1画像データの右に第3画像データが、第1画像データの下に第2画像データが結合される。そして、第4画像データは、第1画像データの右下に配置されることが特定できる。したがって、この場合の配置パターンは、(第1画像データ、第3画像データ、第2画像データ、第4画像データ)となる。   In this case, the third image data is combined to the right of the first image data, and the second image data is combined below the first image data. And it can specify that 4th image data is arrange | positioned at the lower right of 1st image data. Therefore, the arrangement pattern in this case is (first image data, third image data, second image data, fourth image data).

本実施形態によれば、境界領域の画素値を比較しながら合成画像データを生成するため、特に合成する画像データが多い場合に有効である。例えば、16枚の画像データを合成する場合、画像データの組み合わせ方は、16の階乗の数だけ考えられる。この膨大な配置パターンをランダムに配置してRGB値を比較したり、予め合成画像データを生成したりすることは現実的ではない。このような場合であっても、1枚の画像データを基準に、画像データの下辺一端側の境界領域の画素値と、未結合画像データの下辺他端側の境界領域の画素値とを比較し、画素値が近似する画像データを結合することができる。同様に、画像データの上辺一端側の境界領域の画素値と、未結合画像データの前記上辺一端側と対応する下辺一端側の境界領域の画素値とを比較し、画素値が近似する画像データを結合することができる。このようにして画像データを結合し、結合した画像データに基づき、適切な配置パターンを特定することが可能となる。このように、本実施形態は、画像データが多い場合であっても、適切な配置パターンを求めることが可能となる。   According to the present embodiment, since the composite image data is generated while comparing the pixel values of the boundary region, it is effective particularly when there is a lot of image data to be combined. For example, when combining 16 pieces of image data, the number of combinations of image data is considered to be the number of factorials of 16. It is not realistic to compare the RGB values by randomly arranging such an enormous arrangement pattern or to generate composite image data in advance. Even in such a case, the pixel value of the boundary region on the one end side of the lower side of the image data is compared with the pixel value of the boundary region on the other end side of the lower side of the uncombined image data on the basis of one piece of image data. In addition, image data with approximate pixel values can be combined. Similarly, the pixel value of the boundary region on one end side of the upper side of the image data is compared with the pixel value of the boundary region on one end side of the lower side corresponding to the one end side of the unbound image data, and the pixel value approximates the pixel value Can be combined. In this way, it is possible to combine image data and specify an appropriate arrangement pattern based on the combined image data. As described above, according to the present embodiment, an appropriate arrangement pattern can be obtained even when there is a large amount of image data.

[6.第6実施形態]
つづいて、第6実施形態について説明する。第6実施形態は第5実施形態と異なり、各画像データの隅の画素ではなく、辺を構成する画素の画素値を比較する実施形態である。すなわち、境界領域が、画像が対向する側の周縁部領域によって構成され、その周縁部領域の画素の画素値を比較する実施形態である。なお、本実施形態は、第5実施形態の図12を図14に置き換えたものであり、同一の機能部及び処理には同一の符号を付し、説明については省略する。
[6. Sixth Embodiment]
Subsequently, the sixth embodiment will be described. Unlike the fifth embodiment, the sixth embodiment is an embodiment that compares the pixel values of the pixels constituting the sides, not the pixels at the corners of the image data. That is, this is an embodiment in which the boundary region is constituted by the peripheral region on the side facing the image, and the pixel values of the pixels in the peripheral region are compared. This embodiment is obtained by replacing FIG. 12 of the fifth embodiment with FIG. 14, and the same functional units and processes are denoted by the same reference numerals and description thereof is omitted.

本実施形態におけるメイン処理について、図14を参照して説明する。なお、第5実施形態と同様の処理については、説明を省略する。   The main process in this embodiment will be described with reference to FIG. Note that the description of the same processing as in the fifth embodiment is omitted.

はじめに、画像処理部120は、画像信号が入力されたら、各画像データの四辺を構成する画素のRGB値を読み取る(ステップS602)。このとき、画像処理部120は、辺を構成する全ての画素(入力される画像信号が4Kであれば、横の辺は3840画素、縦の辺は2160画素)のRGB値を読み取ってもよいし、所定の間隔(例えば、100画素おきといった間隔)や、所定の割合(例えば、各ラインで100画素分)で、画素のRGB値を読み取ってもよい。   First, when an image signal is input, the image processing unit 120 reads the RGB values of the pixels constituting the four sides of each image data (step S602). At this time, the image processing unit 120 may read the RGB values of all pixels constituting the side (if the input image signal is 4K, the horizontal side is 3840 pixels and the vertical side is 2160 pixels). The RGB values of the pixels may be read at a predetermined interval (for example, every 100 pixels) or at a predetermined ratio (for example, 100 pixels for each line).

つづいて、画像処理部120は、第1画像データの右辺を構成する画素のRGB値が、第2画像データの左辺、第3画像データの左辺、第4画像データの左辺を構成する画素のRGB値と近似するか否かを判定する(ステップS604)。例えば、画像処理部120は、第1画像データの右辺を構成する画素のうち、ステップS604でRGB値を読み出した画素のうち1つの画素を選択し、第2画像データの左辺を構成する画素から、選択した画素と同じ縦位置にある画素を選択する。そして、画像処理部120は、選択した2つの画素のRGB値が近似するか否かを判定する。このように、比較する辺を構成する画素について、それぞれ対応する画素のRGB値を比較する。そして、このような比較を、第1画像データの右辺を構成する画素のうち、ステップS602でRGB値を読み取った画素について行う。このとき、比較した全ての画素のRGB値が近似した場合は、画像処理部120は、第1画像データの右辺と、第2画像データの左辺とが近似すると判定する。なお、比較した全ての画素のRGB値が近似しない場合であっても、比較した画素のRGB値のうち、近似する画素の数が所定の数又は割合であれば、第1画像データの右辺と、第2画像データの左辺とが近似すると判定してもよい。   Subsequently, the image processing unit 120 determines that the RGB values of the pixels constituting the right side of the first image data are the RGB values of the pixels constituting the left side of the second image data, the left side of the third image data, and the left side of the fourth image data. It is determined whether to approximate the value (step S604). For example, the image processing unit 120 selects one pixel from among the pixels constituting the right side of the first image data and having read out the RGB values in step S604, and from the pixels constituting the left side of the second image data. Select a pixel in the same vertical position as the selected pixel. Then, the image processing unit 120 determines whether or not the RGB values of the two selected pixels are approximate. As described above, the RGB values of the corresponding pixels are compared for the pixels constituting the sides to be compared. Then, such a comparison is performed on the pixels whose RGB values are read in step S602 among the pixels constituting the right side of the first image data. At this time, when the RGB values of all the compared pixels are approximated, the image processing unit 120 determines that the right side of the first image data and the left side of the second image data are approximated. Even if the RGB values of all the compared pixels are not approximated, the right side of the first image data is determined if the number of pixels to be approximated is a predetermined number or ratio among the RGB values of the compared pixels. It may be determined that the left side of the second image data is approximate.

なお、第1画像データの右辺と、第2画像データの左辺とが近似しない場合は、画像処理部120は、第1画像データの右辺を構成する画素のRGB値と、第3画像データの左辺を構成する画素のRGB値とを比較する。このとき、第1画像データの右辺と、第3画像データの左辺とが近似しない場合は、第1画像データの右辺と、第3画像データの左辺とが近似しない場合は、画像処理部120は、第1画像データの右辺を構成する画素のRGB値と、第4画像データの左辺を構成する画素のRGB値とを比較する。   When the right side of the first image data and the left side of the second image data are not approximated, the image processing unit 120 determines the RGB values of the pixels that constitute the right side of the first image data and the left side of the third image data. Are compared with the RGB values of the pixels constituting the. At this time, if the right side of the first image data and the left side of the third image data are not approximated, the right side of the first image data and the left side of the third image data are not approximated, the image processing unit 120 The RGB values of the pixels constituting the right side of the first image data are compared with the RGB values of the pixels constituting the left side of the fourth image data.

第1画像データの右辺を構成する画素のRGB値と、第2画像データの左辺、第3画像データの左辺、第4画像データの左辺を構成する画素のRGB値とが近似しない場合は、画像処理部120は、第1画像データの左辺を構成する画素のRGB値と、第2画像データの右辺、第3画像データの右辺、第4画像データの右辺を構成する画素のRGB値とが近似するか否かをする(ステップS604;No→ステップS608)。なお、第1画像データの左辺を構成する画素のRGB値と、第2画像データの右辺、第3画像データの右辺、第4画像データの右辺を構成する画素のRGB値とが近似しない場合は、所定の時間が経過した後(例えば、10フレーム分の時間)ステップS604へ戻る(ステップS608;No→ステップS604)。   If the RGB values of the pixels constituting the right side of the first image data and the RGB values of the pixels constituting the left side of the second image data, the left side of the third image data, and the left side of the fourth image data are not approximate, The processing unit 120 approximates the RGB values of the pixels constituting the left side of the first image data to the RGB values of the pixels constituting the right side of the second image data, the right side of the third image data, and the right side of the fourth image data. It is determined whether or not (Step S604; No → Step S608). When the RGB values of the pixels constituting the left side of the first image data are not approximate to the RGB values of the pixels constituting the right side of the second image data, the right side of the third image data, and the right side of the fourth image data After a predetermined time has elapsed (for example, time for 10 frames), the process returns to step S604 (step S608; No → step S604).

ステップS604で、第1画像データの右辺と、第2画像データ、第3画像データ、第4画像データの何れかの左側とが近似する場合は、第1画像データの右側に、第2画像データ、第3画像データ、第4画像データのうち近似する画像データを結合する(ステップS604;Yes→ステップS506)。また、ステップS608で、第1画像データの左辺と、第2画像データ、第3画像データ、第4画像データの何れかの右側とが近似する場合は、第1画像データの左側に、第2画像データ、第3画像データ、第4画像データのうち近似する画像データを結合する(ステップS608;Yes→ステップS510)。   In step S604, if the right side of the first image data approximates the left side of any one of the second image data, the third image data, and the fourth image data, the second image data is displayed on the right side of the first image data. , The approximate image data of the third image data and the fourth image data are combined (step S604; Yes → step S506). In step S608, if the left side of the first image data approximates the right side of any one of the second image data, the third image data, and the fourth image data, the second image data is displayed on the left side of the first image data. The approximate image data among the image data, the third image data, and the fourth image data are combined (step S608; Yes → step S510).

また、画像処理部120は、ステップS612では、第1画像データの下辺と、未結合画像データの上辺とにおいて、それぞれの辺を構成する画素のRGB値が近似するか判定する(ステップS612)。第1画像データの下辺を構成する画素のRGB値と、未結合画像データの何れかの上辺を構成する画素のRGB値が近似する場合は、画像処理部120は、第1画像データの下側に、上辺を構成する画素のRGB値が第1画像データの下辺を構成する画素のRGB値と近似する画像データを結合する(ステップS612;Yes→ステップS514)。   In step S612, the image processing unit 120 determines whether the RGB values of the pixels constituting the respective sides of the lower side of the first image data and the upper side of the unbound image data are approximate (step S612). When the RGB value of the pixel constituting the lower side of the first image data approximates the RGB value of the pixel constituting the upper side of any of the unbound image data, the image processing unit 120 displays the lower side of the first image data. The image data in which the RGB value of the pixel constituting the upper side approximates the RGB value of the pixel constituting the lower side of the first image data is combined (step S612; Yes → step S514).

ステップS612で、第1画像データの下側に画像データを結合しなかった場合は、つづいて画像処理部120は、第1画像データの上辺と、未結合画像データの上下とにおいて、それぞれの辺を構成する画素のRGB値が近似するか判定する(ステップS612;No→ステップS616)。第1画像データの上辺を構成する画素のRGB値と、未結合画像データの何れかの下辺を構成する画素のRGB値が近似する場合は、画像処理部120は、第1画像データの上側に、下辺を構成する画素のRGB値が第1画像データの上辺を構成する画素のRGB値と近似する画像データを結合する(ステップS616;Yes→ステップS518)。   If the image data is not combined with the lower side of the first image data in step S612, the image processing unit 120 continues with the upper side of the first image data and the upper and lower sides of the unconnected image data. It is determined whether or not the RGB values of the pixels constituting the pixel are approximate (step S612; No → step S616). When the RGB value of the pixel constituting the upper side of the first image data approximates the RGB value of the pixel constituting the lower side of any of the unbound image data, the image processing unit 120 is placed above the first image data. Then, the image data in which the RGB value of the pixel constituting the lower side approximates the RGB value of the pixel constituting the upper side of the first image data is combined (step S616; Yes → step S518).

なお、第1画像データの上辺を構成する画素のRGB値と、何れかの未結合画像データの下辺を構成する画素のRGB値とが近似しない場合は、所定の時間が経過した後(例えば、10フレーム分の時間)ステップS612へ戻る(ステップS616;No→ステップS612)。   When the RGB value of the pixel constituting the upper side of the first image data and the RGB value of the pixel constituting the lower side of any uncombined image data do not approximate, for example, after a predetermined time has passed (for example, The process returns to step S612 (time for 10 frames) (step S616; No-> step S612).

そして、画像処理部120は、結合した画像データから配置パターンを特定し(ステップS520)、配置パターンに沿って結合した画像データを、表示部160から映像として出力する(ステップS112)。   Then, the image processing unit 120 specifies an arrangement pattern from the combined image data (step S520), and outputs the image data combined along the arrangement pattern as a video from the display unit 160 (step S112).

図15を参照して、RGB値を比較する辺について説明する。図15は、第1画像データの上辺をL11、右辺をL12、下辺をL13、左辺をL14とした図である。同様に、第2画像データ、第3画像データ、第4画像データについても、画像データの番号を十の位、辺の位置を一の位とした符号でそれぞれ表す。   With reference to FIG. 15, sides for comparing RGB values will be described. FIG. 15 is a diagram in which the upper side of the first image data is L11, the right side is L12, the lower side is L13, and the left side is L14. Similarly, the second image data, the third image data, and the fourth image data are also represented by codes having the image data number as the tens place and the side position as the first place, respectively.

メイン処理のステップS604においては、L12と、L24、L34、L44とのそれぞれのRGB値を比較する。ここで、例えば、L12とL34とのRGB値が近似する場合は、L12とL34とが横に連続して配置されるように、第1画像データの右側に第3画像データを配置する。   In step S604 of the main process, the RGB values of L12 and L24, L34, and L44 are compared. Here, for example, when the RGB values of L12 and L34 are approximated, the third image data is arranged on the right side of the first image data so that L12 and L34 are arranged horizontally and continuously.

また、この状態で、メイン処理のステップS612においては、L13と、L21、L41とのそれぞれのRGB値を比較する。ここで、例えば、L13とL21とのRGB値が近似する場合は、L13とL21とが縦に連続して配置されるように、第1画像データの下側に第2画像データを配置する。   In this state, in step S612 of the main process, the RGB values of L13, L21, and L41 are compared. Here, for example, when the RGB values of L13 and L21 are approximated, the second image data is arranged below the first image data so that L13 and L21 are arranged vertically continuously.

この場合、第1画像データの右に第3画像データが、第1画像データの下に第2画像データが結合される。そして、第4画像データは、第1画像データの右下に配置されることが特定できる。したがって、この場合の配置パターンは、(第1画像データ、第3画像データ、第2画像データ、第4画像データ)となる。   In this case, the third image data is combined to the right of the first image data, and the second image data is combined below the first image data. And it can specify that 4th image data is arrange | positioned at the lower right of 1st image data. Therefore, the arrangement pattern in this case is (first image data, third image data, second image data, fourth image data).

本実施形態によれば、第5実施形態と比較して、複数の画素の画素値を比較するため、結合する画像を精度良く決定することができる。特に、画像データが多い場合は、誤った探索をした場合における手戻りに時間がかかってしまう。本実施形態のように、結合する画像を精度良く決定することにより、適切な配置パターンを特定する時間を抑えることが可能となる。   According to the present embodiment, compared with the fifth embodiment, since the pixel values of a plurality of pixels are compared, an image to be combined can be determined with high accuracy. In particular, when there is a lot of image data, it takes time to rework when an erroneous search is performed. As in this embodiment, it is possible to reduce the time for specifying an appropriate arrangement pattern by accurately determining the images to be combined.

[7.第7実施形態]
つづいて、第7実施形態について説明する。第7実施形態は第1実施形態と異なり、各画像データの隅の画素ではなく、合成画像データを構成する画像データを貫く線(ライン)を構成する画素のRGB値を比較する実施形態である。すなわち、境界領域が、画像が対向する側の周縁部領域によって構成されており、複数の画像データに跨って周縁部領域の画素の画素値を比較する実施形態である。なお、本実施形態は、第1実施形態の図3を図16に置き換えたものであり、同一の機能部及び処理には同一の符号を付し、説明については省略する。
[7. Seventh Embodiment]
Next, a seventh embodiment will be described. Unlike the first embodiment, the seventh embodiment is an embodiment that compares the RGB values of pixels constituting a line (line) penetrating the image data constituting the composite image data, not the corner pixels of each image data. . That is, this is an embodiment in which the boundary region is constituted by the peripheral region on the side facing the image, and the pixel values of the pixels in the peripheral region are compared across a plurality of image data. In the present embodiment, FIG. 3 is replaced with FIG. 16 in the first embodiment, and the same functional units and processes are denoted by the same reference numerals and description thereof is omitted.

本実施形態では、図17に示すように、合成画像データの境界領域を横方向に貫くラインをAラインといい、縦方向に貫くラインをBラインという。Aラインは、画像データの結合位置よりも上に位置する上Aラインと、画像データの結合位置よりも下に位置する下Aラインとの2本がある。また、Bラインは、画像データの結合位置よりも左に位置する左Bラインと、画像データの結合位置よりも右に位置する右Bラインとの2本がある。   In the present embodiment, as shown in FIG. 17, a line that penetrates the boundary region of the composite image data in the horizontal direction is referred to as an A line, and a line that penetrates in the vertical direction is referred to as a B line. There are two A lines, an upper A line positioned above the image data combining position and a lower A line positioned below the image data combining position. There are two B lines: a left B line located to the left of the image data combining position and a right B line positioned to the right of the image data combining position.

図16を参照して、本実施形態の処理の流れについて説明する。なお、第1実施形態と同様の処理については、説明を省略する。   With reference to FIG. 16, the flow of processing of the present embodiment will be described. Note that description of the same processing as in the first embodiment is omitted.

画像処理部120は、合成画像データを生成したら(ステップS104)、AラインとBラインを構成する画素のRGB値を読み取る(ステップS702)。なお、画像処理部120は、Aライン及びBラインを構成する全ての画素のRGB値を読み取ってもよいし、所定の間隔(例えば、100画素毎)や、所定の割合(例えば、各ラインで100画素分)で、画素のRGB値を読み取ってもよい。   After generating the composite image data (step S104), the image processing unit 120 reads the RGB values of the pixels constituting the A line and the B line (step S702). Note that the image processing unit 120 may read the RGB values of all the pixels constituting the A line and the B line, or may have a predetermined interval (for example, every 100 pixels) or a predetermined ratio (for example, each line). The RGB values of the pixels may be read at 100 pixels).

つづいて、画像処理部120は、上Aラインと下Aライン及び左Bラインと右Bラインとについて、ステップS702で読み取った画素のRGB値がそれぞれ近似するか否かを判定する(ステップS704)。比較した全てのRGB値が近似した場合は、画像処理部120は、RGB値が近似したと判定し(ステップS704;Yes)、このときの配置パターンに基づいて、合成画像データをFPGA140に出力し、表示部160に映像として表示する(ステップS112)。比較した全てのRGB値が近似しない場合は、画像処理部120は、ランダムに画像データを並び替えた配置パターンを生成し(ステップS110)、ステップS104〜ステップS704の処理を行う。   Subsequently, the image processing unit 120 determines whether the RGB values of the pixels read in step S702 are approximate for the upper A line, the lower A line, the left B line, and the right B line (step S704). . When all the compared RGB values are approximated, the image processing unit 120 determines that the RGB values are approximated (step S704; Yes), and outputs the composite image data to the FPGA 140 based on the arrangement pattern at this time. Then, it is displayed as a video on the display unit 160 (step S112). When all the compared RGB values are not approximated, the image processing unit 120 generates an arrangement pattern in which image data is rearranged at random (step S110), and performs the processes of steps S104 to S704.

本実施形態は、複数の画素の画素値を比較するため、適切な配置パターンを精度良く特定することが可能となる。   Since this embodiment compares pixel values of a plurality of pixels, it is possible to specify an appropriate arrangement pattern with high accuracy.

[8.第8実施形態]
つづいて、第8実施形態について説明する。第8実施形態は、第7実施形態と異なり、予め全ての配置パターンに基づく合成画像データを生成し、その中でAライン及びBラインのRGB値が最も近似する配置パターンを特定する実施形態である。なお、本実施形態は、第1実施形態の図3を図18に置き換えたものであり、同一の機能部及び処理には同一の符号を付し、説明については省略する。なお、Aライン及びBラインについては、第7実施形態と同様である。
[8. Eighth Embodiment]
Next, an eighth embodiment will be described. Unlike the seventh embodiment, the eighth embodiment is an embodiment in which composite image data based on all arrangement patterns is generated in advance, and an arrangement pattern in which the RGB values of the A line and the B line are closest is specified. is there. In this embodiment, FIG. 3 is replaced with FIG. 18 in the first embodiment, and the same functional units and processes are denoted by the same reference numerals and description thereof is omitted. The A line and the B line are the same as in the seventh embodiment.

図18を参照して、本実施形態の処理の流れについて説明する。なお、第1実施形態と同様の処理については、説明を省略する。画像処理部120は、画像信号が入力されたら、全ての配置パターンに基づく合成画像データを生成し、Aライン及びBラインを構成する画素のRGB値を読み取る(ステップS802)。   With reference to FIG. 18, the flow of processing of the present embodiment will be described. Note that description of the same processing as in the first embodiment is omitted. When the image signal is input, the image processing unit 120 generates composite image data based on all the arrangement patterns, and reads the RGB values of the pixels constituting the A line and the B line (step S802).

つづいて、画像処理部120は、ステップS802で読み取ったRGB値において、対応する画素のRGB値のR値の差分、G値の差分、B値の差分をそれぞれ算出し、全ての差分を合計した合計差分値を算出する。そして、合計差分値が最も小さい配置パターンを特定する(ステップS804)。   Subsequently, the image processing unit 120 calculates the R value difference, the G value difference, and the B value difference of the RGB values of the corresponding pixels in the RGB values read in step S802, and sums all the differences. Calculate the total difference value. Then, the arrangement pattern having the smallest total difference value is specified (step S804).

画像処理部120は、ステップS804において特定した配置パターンに基づいて、合成画像データをFPGA140に出力し、表示部160に映像として表示する(ステップS112)。なお、第2実施形態に記載したように、合計差分値に対する閾値を設けてもよい。   The image processing unit 120 outputs the composite image data to the FPGA 140 based on the arrangement pattern identified in step S804 and displays it as a video on the display unit 160 (step S112). As described in the second embodiment, a threshold value for the total difference value may be provided.

[9.変形例]
本発明は上述した各実施の形態に限定されるものではなく、種々の変更が可能である。すなわち、本発明の要旨を逸脱しない範囲内において適宜変更した技術的手段を組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。なお、上述した説明以外であっても、矛盾のない範囲において、ステップの順番を変更したり、一部のステップを省略したりしても構わない。
[9. Modified example]
The present invention is not limited to the above-described embodiments, and various modifications can be made. That is, embodiments obtained by combining technical means appropriately changed within the scope not departing from the gist of the present invention are also included in the technical scope of the present invention. Even if it is not described above, the order of steps may be changed or some steps may be omitted within a consistent range.

また、上述した実施形態は、説明の都合上、それぞれ別に説明している部分があるが、技術的に可能な範囲で組み合わせて実行してもよいことは勿論である。例えば、第3実施形態と第4実施形態とを組み合わせてもよい。第3実施形態も第4実施形態もいずれも適切な配置パターンを特定する精度を高める実施形態であるため、より高い精度で適切な配置パターンを特定することが可能となる。   Further, although the above-described embodiments have portions described separately for convenience of description, it is needless to say that the embodiments may be combined and executed within a technically possible range. For example, the third embodiment and the fourth embodiment may be combined. Since both the third embodiment and the fourth embodiment are embodiments that increase the accuracy of specifying an appropriate arrangement pattern, it is possible to specify an appropriate arrangement pattern with higher accuracy.

また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROM(Read Only Memory)やHDD等の記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。   In addition, the program that operates in each device in the embodiment is a program that controls a CPU or the like (a program that causes a computer to function) so as to realize the functions of the above-described embodiments. Information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, and then stored in various storage devices such as ROM (Read Only Memory) and HDD, as necessary. The CPU reads and corrects / writes.

ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD(Digital Versatile Disc)、MO(Magneto Optical Disc)、MD(Mini Disc)、CD(Compact Disc)、BD (Blu-ray Disk) 等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等の何れであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。   Here, as a recording medium for storing the program, a semiconductor medium (for example, ROM, a non-volatile memory card, etc.), an optical recording medium / a magneto-optical recording medium (for example, a DVD (Digital Versatile Disc), an MO (Magneto Optical), etc. Disc), MD (Mini Disc), CD (Compact Disc), BD (Blu-ray Disk, etc.), magnetic recording medium (for example, magnetic tape, flexible disk, etc.), etc. In addition, by executing the loaded program, not only the functions of the above-described embodiment are realized, but also based on the instructions of the program, the processing is performed in cooperation with the operating system or other application programs. The function of the invention may be realized.

また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。   In addition, when distributing to the market, the program can be stored and distributed in a portable recording medium, or transferred to a server computer connected via a network such as the Internet. In this case, it goes without saying that the storage device of the server computer is also included in the present invention.

10 表示装置
100 制御部
110 画像信号入力部
120 画像処理部
130 メモリ
140 FPGA
150 表示制御部
160 表示部
DESCRIPTION OF SYMBOLS 10 Display apparatus 100 Control part 110 Image signal input part 120 Image processing part 130 Memory 140 FPGA
150 Display control unit 160 Display unit

Claims (7)

画像を入力する端子を複数有し、前記入力された画像をそれぞれ表示可能な複数の表示領域を含む表示部を有する表示装置において、
前記端子から入力された複数の画像を1枚の画像に合成する画像合成部と、
前記画像合成部により合成される合成画像において互いに隣接する画像の境界領域にある画素値をそれぞれ比較する比較部と、
前記比較部により比較した結果、前記境界領域の画素値が近似するように、前記画像を前記表示領域に表示する制御を行う表示制御部と、
を備えることを特徴とする表示装置。
In a display device having a plurality of terminals for inputting an image and having a display unit including a plurality of display areas each capable of displaying the input image,
An image composition unit for compositing a plurality of images input from the terminal into one image;
A comparison unit that compares pixel values in a boundary region of images adjacent to each other in the synthesized image synthesized by the image synthesis unit;
As a result of comparison by the comparison unit, a display control unit that performs control to display the image in the display region so that the pixel value of the boundary region approximates,
A display device comprising:
前記比較部は、前記画像合成部により合成された合成画像の前記境界領域にある画素値を比較し、
前記画像合成部は、前記比較部により比較した結果、前記境界領域の画素値が近似していない場合には、前記入力された複数の画像の配置を入れ替えて他の合成画像を合成する、
ことを特徴とする請求項1に記載の表示装置。
The comparison unit compares pixel values in the boundary region of the synthesized image synthesized by the image synthesis unit;
As a result of the comparison by the comparison unit, when the pixel value of the boundary region is not approximated, the image composition unit replaces the arrangement of the plurality of input images and synthesizes another composite image.
The display device according to claim 1.
前記比較部は、一の画像の下辺一端側の前記境界領域の画素値と、他の画像の下辺他端側の前記境界領域の画素値とを比較し、
前記表示制御部は、前記比較部により比較した結果、前記下辺一端側の前記境界領域の画素値と、下辺他端側の前記境界領域の画素値とが最も近似する画像を、一の画像の一端側横の表示領域に表示する制御を行うことを特徴とする請求項1項に記載の表示装置。
The comparison unit compares the pixel value of the boundary region on one side of the lower side of one image with the pixel value of the boundary region on the other side of the lower side of another image,
As a result of the comparison by the comparison unit, the display control unit obtains an image in which the pixel value of the boundary region on the one end side of the lower side and the pixel value of the boundary region on the other end side of the lower side are most similar to each other. The display device according to claim 1, wherein the display is controlled in a display area next to the one end side.
前記比較部は、前記境界領域として前記画像の対向する側の隅部領域の画素値をそれぞれ比較することを特徴とする請求項1から3の何れか一項に記載の表示装置。   The display device according to claim 1, wherein the comparison unit compares pixel values of corner regions on the opposite side of the image as the boundary region. 前記比較部は、前記境界領域として前記画像の対向する側の周縁部領域の画素値をそれぞれ比較することを特徴とする請求項1から3の何れか一項に記載の表示装置。   4. The display device according to claim 1, wherein the comparison unit compares pixel values of a peripheral region on the opposite side of the image as the boundary region. 5. 前記比較部は、前記表示部の解像度よりも低い解像度の画像を用いて比較することを特徴とする請求項1から5の何れか一項に記載の表示装置。   The display device according to claim 1, wherein the comparison unit performs comparison using an image having a resolution lower than that of the display unit. 少なくとも前記境界領域の解像度が低い画像を用いて比較することを特徴とする請求項6に記載の表示装置。   The display device according to claim 6, wherein comparison is performed using an image having at least a resolution of the boundary region.
JP2018105081A 2018-05-31 2018-05-31 Display device Active JP7126382B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018105081A JP7126382B2 (en) 2018-05-31 2018-05-31 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018105081A JP7126382B2 (en) 2018-05-31 2018-05-31 Display device

Publications (2)

Publication Number Publication Date
JP2019211519A true JP2019211519A (en) 2019-12-12
JP7126382B2 JP7126382B2 (en) 2022-08-26

Family

ID=68844053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018105081A Active JP7126382B2 (en) 2018-05-31 2018-05-31 Display device

Country Status (1)

Country Link
JP (1) JP7126382B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196924A1 (en) * 2021-03-17 2022-09-22 삼성전자 주식회사 Electronic device for displaying content on basis of plurality of scanning rates and operating method therefor

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100289803A1 (en) * 2009-05-13 2010-11-18 International Business Machines Corporation Managing graphics load balancing strategies
JP2012173424A (en) * 2011-02-18 2012-09-10 Canon Inc Image display apparatus and control method thereof
JP2013153410A (en) * 2011-12-28 2013-08-08 Sharp Corp Av apparatus
JP2013185862A (en) * 2012-03-06 2013-09-19 Toyota Motor Corp Defect inspection device and defect inspection method
JP2016060185A (en) * 2014-09-22 2016-04-25 富士ゼロックス株式会社 Image forming apparatus and program
JP2016090906A (en) * 2014-11-08 2016-05-23 キヤノン株式会社 Image processor, image processing method, and program
JP2016163127A (en) * 2015-02-27 2016-09-05 パナソニックIpマネジメント株式会社 Image display device
JP2018037765A (en) * 2016-08-30 2018-03-08 パナソニックIpマネジメント株式会社 Image signal processor

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100289803A1 (en) * 2009-05-13 2010-11-18 International Business Machines Corporation Managing graphics load balancing strategies
JP2012173424A (en) * 2011-02-18 2012-09-10 Canon Inc Image display apparatus and control method thereof
JP2013153410A (en) * 2011-12-28 2013-08-08 Sharp Corp Av apparatus
JP2013185862A (en) * 2012-03-06 2013-09-19 Toyota Motor Corp Defect inspection device and defect inspection method
JP2016060185A (en) * 2014-09-22 2016-04-25 富士ゼロックス株式会社 Image forming apparatus and program
JP2016090906A (en) * 2014-11-08 2016-05-23 キヤノン株式会社 Image processor, image processing method, and program
JP2016163127A (en) * 2015-02-27 2016-09-05 パナソニックIpマネジメント株式会社 Image display device
JP2018037765A (en) * 2016-08-30 2018-03-08 パナソニックIpマネジメント株式会社 Image signal processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196924A1 (en) * 2021-03-17 2022-09-22 삼성전자 주식회사 Electronic device for displaying content on basis of plurality of scanning rates and operating method therefor

Also Published As

Publication number Publication date
JP7126382B2 (en) 2022-08-26

Similar Documents

Publication Publication Date Title
US10395351B2 (en) Image range expansion control methods and apparatus
JP4108723B2 (en) Display device driving method, display device driving device, program and recording medium thereof, and display device
US10297228B2 (en) Display apparatus and control method thereof
JP5144802B1 (en) Display device
US20050057434A1 (en) Multi screen display system and control method thereof
US8922622B2 (en) Image processing device, image processing method, and program
US11468823B2 (en) Video wall including multiple displays with reduced afterimage
WO2012090952A1 (en) Display device, television receiver, and control method for display device
US20160098239A1 (en) Display apparatus, display system, and display method
US20160307540A1 (en) Linear scaling in a display pipeline
CN104053013A (en) Display Apparatus And Control Method Thereof For Applying Motion Compensation To Remove Artifacts From Images
US20060055710A1 (en) Image processing method and device thereof
US10922800B2 (en) Image processing circuit, display device having the same, and method of driving the display device
US11587516B2 (en) Display device and local method of controlling local dimming thereof
JP7126382B2 (en) Display device
US20220036819A1 (en) Organic light-emitting diode display device and operating method thereof
US20230388522A1 (en) Display driving circuit and operating method for performing encoding and decoding
US11234042B2 (en) Display device, control method therefor and recording medium
US11094286B2 (en) Image processing apparatus and image processing method
US20230141114A1 (en) Display apparatus and control method thereof
WO2016190106A1 (en) Image processing device and method for controlling same, and integrated circuit
CN111667790A (en) Display device and control method thereof
US20130258199A1 (en) Video processor and video processing method
US7295219B2 (en) Display driver chips and methods having reduced storage of image data and/or on-screen display (OSD) data
US20090180024A1 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220816

R150 Certificate of patent or registration of utility model

Ref document number: 7126382

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150