JP2021117981A - Image processing apparatus, image processing method, video transmission and reception system, and program - Google Patents

Image processing apparatus, image processing method, video transmission and reception system, and program Download PDF

Info

Publication number
JP2021117981A
JP2021117981A JP2020199133A JP2020199133A JP2021117981A JP 2021117981 A JP2021117981 A JP 2021117981A JP 2020199133 A JP2020199133 A JP 2020199133A JP 2020199133 A JP2020199133 A JP 2020199133A JP 2021117981 A JP2021117981 A JP 2021117981A
Authority
JP
Japan
Prior art keywords
area
unit
dynamic range
contrast
important
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020199133A
Other languages
Japanese (ja)
Inventor
耕司 桑田
Koji Kuwata
耕司 桑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2021117981A publication Critical patent/JP2021117981A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

To make it possible to perform more suitable image quality adjustment for image signals in accordance with the details of a video represented by the image signals.SOLUTION: An image processing apparatus comprises: an area determination unit that determines a plurality of areas from frame images in a video; a luminance value distribution generation unit that generates a luminance value distribution for every area; and a contrast conversion unit that compresses the dynamic range of a specific area of the plurality of areas by using a compression method according to the luminance value distribution generated for every area to perform contrast conversion for the specific area.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法、映像送受信システム、およびプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, a video transmission / reception system, and a program.

下記特許文献1には、画像信号のダイナミックレンジを画素毎に圧縮した後に、当該画像信号を符号化する技術が開示されている。この技術によれば、画像信号の符号化に必要なビット数を一段と低下させることができる。 Patent Document 1 below discloses a technique for encoding an image signal after compressing the dynamic range of the image signal for each pixel. According to this technique, the number of bits required for coding an image signal can be further reduced.

しかしながら、上記した特許文献1に開示されている技術は、画像の全ての画素に対してダイナミックレンジを圧縮するため、画像において重要視される領域(すなわち、高画質とすることが好ましい領域)に対して、不適切に画質を劣化させてしまう虞がある。 However, since the technique disclosed in Patent Document 1 described above compresses the dynamic range for all pixels of an image, it is placed in a region that is important in the image (that is, a region in which high image quality is preferable). On the other hand, there is a risk that the image quality will be deteriorated inappropriately.

本発明は、上述した従来技術の課題を解決するため、画像信号が表す映像の内容に応じて、画像信号に対してより好適な画質調整を行うことができるようにすることを目的とする。 An object of the present invention is to solve the above-mentioned problems of the prior art so that more suitable image quality adjustment can be performed on the image signal according to the content of the image represented by the image signal.

上述した課題を解決するために、本発明の画像処理装置は、映像におけるフレーム画像から、複数の領域を判定する領域判定部と、領域単位で輝度値分布を生成する輝度値分布生成部と、領域単位で生成された輝度値分布に応じた圧縮方法を用いて、複数の領域のうちの特定の領域のダイナミックレンジを圧縮することにより、当該特定の領域のコントラスト変換を行うコントラスト変換部とを備える。 In order to solve the above-mentioned problems, the image processing apparatus of the present invention includes a region determination unit that determines a plurality of regions from a frame image in a video, a luminance value distribution generation unit that generates a luminance value distribution for each region, and a luminance value distribution generation unit. A contrast conversion unit that performs contrast conversion of a specific region by compressing the dynamic range of a specific region among a plurality of regions by using a compression method according to the luminance value distribution generated for each region. Be prepared.

本発明によれば、画像信号が表す映像の内容に応じて、画像信号に対してより好適な画質調整を行うことができる。 According to the present invention, more suitable image quality adjustment can be performed on the image signal according to the content of the image represented by the image signal.

一実施形態に係るビデオ会議システムのシステム構成を示す図The figure which shows the system configuration of the video conferencing system which concerns on one Embodiment 一実施形態に係る映像処理部の機能構成を示す図The figure which shows the functional structure of the image processing part which concerns on one Embodiment 一実施形態に係る端末装置による処理の手順を示すフローチャートFlow chart showing the procedure of processing by the terminal device according to one embodiment 一実施形態に係る領域判定部によって判定される領域の一例を示す図The figure which shows an example of the area determined by the area determination part which concerns on one Embodiment. 一実施形態に係る変換パラメータ生成部による第1の変換パラメータ生成方法を説明するための図The figure for demonstrating the first conversion parameter generation method by the conversion parameter generation part which concerns on one Embodiment. 一実施形態に係る変換パラメータ生成部による第2の変換パラメータ生成方法を説明するための図The figure for demonstrating the second conversion parameter generation method by the conversion parameter generation part which concerns on one Embodiment. 一実施形態に係る変換パラメータ生成部による第3の変換パラメータ生成方法を説明するための図The figure for demonstrating the 3rd conversion parameter generation method by the conversion parameter generation part which concerns on one Embodiment. 一実施形態に係る領域判定部によって判定される領域の他の一例を示す図The figure which shows another example of the area determined by the area determination part which concerns on one Embodiment. 一実施形態に係る重複エリア処理部による第4の変換パラメータ生成方法を説明するための図The figure for demonstrating the 4th conversion parameter generation method by the overlap area processing part which concerns on one Embodiment. 一実施形態に係る変換パラメータ生成部による重複エリアの変換パラメータの生成例を示す図The figure which shows the generation example of the conversion parameter of the overlap area by the conversion parameter generation part which concerns on one Embodiment. 一実施形態に係る変換パラメータ生成部による第5の変換パラメータ生成方法を説明するための図The figure for demonstrating the 5th conversion parameter generation method by the conversion parameter generation part which concerns on one Embodiment. 一実施形態に係る変換パラメータ生成部による第6の変換パラメータ生成方法を説明するための図The figure for demonstrating the sixth conversion parameter generation method by the conversion parameter generation part which concerns on one Embodiment.

〔一実施形態〕
以下、図面を参照して、本発明の一実施形態について説明する。
[One Embodiment]
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

(ビデオ会議システム1のシステム構成)
図1は、一実施形態に係るビデオ会議システム1のシステム構成を示す図である。図1に示すように、ビデオ会議システム1は、「映像送受信システム」の一例であり、複数の端末装置200(端末装置200Aおよび端末装置200B)と、サーバ300とを備える。端末装置200Aは、第1の拠点に設けられている。端末装置200Bは、第2の拠点に設けられている。端末装置200A、端末装置200B、およびサーバ300は、インターネット、イントラネット等のネットワーク400に接続されている。図1は、端末装置200Aの構成を詳細に示しているが、端末装置200Bも、端末装置200Aと同様の構成を有する。これにより、端末装置200Aおよび端末装置200Bは、ネットワーク400を介して、相互に映像を送受信することで、ビデオ会議を行うことが可能である。以下、端末装置200Aおよび端末装置200Bを区別しない場合(すなわち、端末装置200Aおよび端末装置200Bの双方に該当する説明を行う場合)には、"端末装置200"と示す。なお、端末装置200Aおよび端末装置200Bは、「画像処理装置」の一例である。
(System configuration of video conferencing system 1)
FIG. 1 is a diagram showing a system configuration of the video conferencing system 1 according to the embodiment. As shown in FIG. 1, the video conferencing system 1 is an example of a “video transmission / reception system” and includes a plurality of terminal devices 200 (terminal devices 200A and terminal devices 200B) and a server 300. The terminal device 200A is provided at the first base. The terminal device 200B is provided at the second base. The terminal device 200A, the terminal device 200B, and the server 300 are connected to a network 400 such as the Internet and an intranet. Although FIG. 1 shows the configuration of the terminal device 200A in detail, the terminal device 200B also has the same configuration as the terminal device 200A. As a result, the terminal device 200A and the terminal device 200B can perform a video conference by transmitting and receiving video to and from each other via the network 400. Hereinafter, when the terminal device 200A and the terminal device 200B are not distinguished (that is, when the description corresponding to both the terminal device 200A and the terminal device 200B is given), it is referred to as "terminal device 200". The terminal device 200A and the terminal device 200B are examples of an "image processing device".

図1に示すように、端末装置200は、カメラモジュール10、映像処理部20、映像CODEC部30、映像出力処理部40、マイクアレイ50、音声出力部60、音声処理部70、ネットワーク処理部80、全体処理部90、操作部100、RAM110、録画装置120、映像特性解析部130、およびRAM140を備える。 As shown in FIG. 1, the terminal device 200 includes a camera module 10, a video processing unit 20, a video codec unit 30, a video output processing unit 40, a microphone array 50, an audio output unit 60, an audio processing unit 70, and a network processing unit 80. , Overall processing unit 90, operation unit 100, RAM 110, recording device 120, video characteristic analysis unit 130, and RAM 140.

カメラモジュール10は、「撮像装置」の一例である。カメラモジュール10は、会議シーンの映像を撮像する。カメラモジュール10は、レンズ11、撮像部12(イメージセンサ)、およびDSP13を有する。撮像部12は、レンズ11を介して集光された映像を電気信号に変換することにより、映像データ(RAWデータ)を生成する。DSP13は、撮像部12から出力された映像データ(RAWデータ)に対して、ベイヤー変換、3A制御、等の公知のカメラ映像処理を行うことにより、映像データ(YUVデータ)を生成する。 The camera module 10 is an example of an “imaging apparatus”. The camera module 10 captures an image of a conference scene. The camera module 10 includes a lens 11, an imaging unit 12 (image sensor), and a DSP 13. The imaging unit 12 generates video data (RAW data) by converting the video focused via the lens 11 into an electric signal. The DSP 13 generates video data (YUV data) by performing known camera video processing such as Bayer conversion and 3A control on the video data (RAW data) output from the imaging unit 12.

映像処理部20は、カメラモジュール10から出力された映像データ(YUVデータ)に対し、ダイナミックレンジの圧縮処理を含む各種映像処理を行う。なお、映像処理部20の機能の詳細については、図2を用いて後述する。なお、映像処理部20は、各種映像処理を行う際に、RAM110をバッファとして使用する。 The video processing unit 20 performs various video processing including dynamic range compression processing on the video data (YUV data) output from the camera module 10. The details of the function of the video processing unit 20 will be described later with reference to FIG. The video processing unit 20 uses the RAM 110 as a buffer when performing various video processing.

映像CODEC部30は、「符号化部」の一例である。映像CODEC部30は、他の端末装置200との間で送受信される映像データ(映像ストリームデータ)の符号化および復号化を行う。例えば、映像CODEC部30は、動画Endocerによって、映像処理部20から出力された映像データを符号化し、符号化された映像データを、ネットワーク処理部80を介して、他の端末装置200へ送信する。また、例えば、映像CODEC部30は、他の端末装置200から送信された映像データ(他の端末装置200で符号化された映像データ)を、ネットワーク処理部80を介して取得し、動画Dedocerによって、当該映像データを復号化する。そして、映像CODEC部30は、復号された映像データを、映像出力処理部40へ出力する。映像CODEC部30は、例えば、H.264/265等の圧縮規格を用いた、CODEC回路またはソフトウェアによって構成される。 The video codec unit 30 is an example of a “coding unit”. The video codec unit 30 encodes and decodes video data (video stream data) transmitted to and received from another terminal device 200. For example, the video codec unit 30 encodes the video data output from the video processing unit 20 by the moving image endocer, and transmits the encoded video data to another terminal device 200 via the network processing unit 80. .. Further, for example, the video codec unit 30 acquires video data (video data encoded by the other terminal device 200) transmitted from the other terminal device 200 via the network processing unit 80, and uses the moving image Dedocer to acquire the video data. , Decode the video data. Then, the video codec unit 30 outputs the decoded video data to the video output processing unit 40. The video CODEC unit 30 is composed of a CODEC circuit or software using a compression standard such as H.264 / 265.

映像出力処理部40は、映像データに基づく映像を、タッチパネル部41Aが備えるディスプレイに表示させる。例えば、映像出力処理部40は、映像CODEC部30で復号化された映像データに基づく映像(すなわち、他拠点の映像)を、タッチパネル部41Aが備えるディスプレイに表示させる。また、例えば、映像出力処理部40は、カメラモジュール10から出力された映像データに基づく映像(すなわち、自拠点の映像)を、タッチパネル部41Aが備えるディスプレイに表示させる。また、映像出力処理部40は、映像CODEC部30で復号化された映像データに対する、コントラスト変換処理(他の端末装置200でコントラスト変換がなされた映像データのコントラストを元に戻す処理)を行う。 The video output processing unit 40 displays a video based on the video data on the display provided in the touch panel unit 41A. For example, the video output processing unit 40 displays a video based on the video data decoded by the video codec unit 30 (that is, a video of another base) on the display provided in the touch panel unit 41A. Further, for example, the video output processing unit 40 displays a video based on the video data output from the camera module 10 (that is, a video of its own base) on the display provided in the touch panel unit 41A. Further, the video output processing unit 40 performs a contrast conversion process (a process of restoring the contrast of the video data that has been contrast-converted by another terminal device 200) on the video data decoded by the video codec unit 30.

マイクアレイ50は、マイクロフォンアレイ51およびA/Dコンバータ52を有する。マイクロフォンアレイ51は、ビデオ会議の参加者の音声を集音し、音声信号(アナログ信号)を出力する。A/Dコンバータ52は、マイクロフォンアレイ51から出力された音声の音声信号(アナログ信号)をデジタル信号に変換して、変換後の音声信号(デジタル信号)を音声処理部70へ出力する。 The microphone array 50 includes a microphone array 51 and an A / D converter 52. The microphone array 51 collects the voices of the participants of the video conference and outputs a voice signal (analog signal). The A / D converter 52 converts the audio audio signal (analog signal) of the audio output from the microphone array 51 into a digital signal, and outputs the converted audio signal (digital signal) to the audio processing unit 70.

音声出力部60は、D/Aコンバータ62およびスピーカ61を有する。D/Aコンバータ62は、他の端末装置200から送信された音声信号(デジタル信号)をアナログ信号に変換する。スピーカ61は、D/Aコンバータ62による変換後の音声信号(アナログ信号)が供給されることにより、他拠点において集音されたビデオ会議の参加者の音声を出力する。 The audio output unit 60 includes a D / A converter 62 and a speaker 61. The D / A converter 62 converts an audio signal (digital signal) transmitted from another terminal device 200 into an analog signal. The speaker 61 outputs the audio of the participants of the video conference collected at other bases by supplying the audio signal (analog signal) converted by the D / A converter 62.

音声処理部70は、他の端末装置200から受信された映像データを構成する音声データに対して、所定の音声処理(例えば、コーデック処理、ノイズキャンセル(NC)等)を行う。そして、音声処理部70は、音声処理後の音声データを、音声出力部60へ出力する。同時に、音声処理部70は、音声出力部60に出力する音声データを把握しながら、マイクアレイ50に回り込んで入力される音声データに対するエコーキャンセル(EC)処理を行う。また、音声処理部70は、他の端末装置200へ送信される映像データを構成する音声データに対して、所定の音声処理(例えば、コーデック処理、ノイズキャンセル(NC)等)を行う。そして、音声処理部70は、音声処理後の音声データを、ネットワーク処理部80へ出力する。 The audio processing unit 70 performs predetermined audio processing (for example, codec processing, noise cancellation (NC), etc.) on the audio data constituting the video data received from the other terminal device 200. Then, the voice processing unit 70 outputs the voice data after the voice processing to the voice output unit 60. At the same time, the voice processing unit 70 performs echo cancellation (EC) processing on the voice data input by wrapping around the microphone array 50 while grasping the voice data to be output to the voice output unit 60. In addition, the audio processing unit 70 performs predetermined audio processing (for example, codec processing, noise cancellation (NC), etc.) on the audio data constituting the video data transmitted to the other terminal device 200. Then, the voice processing unit 70 outputs the voice data after the voice processing to the network processing unit 80.

ネットワーク処理部80は、映像CODEC部(エンコーダ)30から出力された符号化済みの映像データを、ネットワーク400を介して、送信先の他の端末装置200へ送信する。また、ネットワーク処理部80は、他の端末装置200から送信された符号化済みの映像データを、ネットワーク400を介して受信する。そして、ネットワーク処理部80は、当該映像データを、映像CODEC部(エンコーダ)30へ出力する。また、ネットワーク処理部80は、符号化パラメータ(QP値、等)を決めるための、ネットワークの帯域をモニタする機能(ネットワーク状態検知部)を有する。また、ネットワーク処理部80は、符号化パラメータ(QP値、等)や送信モードの設定を最適化するための、相手局の機能や性能に関する情報を取得する機能(相手局機能判別部)を有する。 The network processing unit 80 transmits the encoded video data output from the video codec unit (encoder) 30 to another terminal device 200 of the transmission destination via the network 400. Further, the network processing unit 80 receives the encoded video data transmitted from the other terminal device 200 via the network 400. Then, the network processing unit 80 outputs the video data to the video codec unit (encoder) 30. Further, the network processing unit 80 has a function (network state detection unit) for monitoring the bandwidth of the network for determining coding parameters (QP value, etc.). Further, the network processing unit 80 has a function (partner station function discriminating unit) for acquiring information on the function and performance of the partner station for optimizing the coding parameters (QP value, etc.) and the setting of the transmission mode. ..

全体処理部90は、端末装置200の全体の制御を行う。全体処理部90は、CPU、ROM、RAM、SSD等を備えて構成されている。例えば、全体処理部90は、オペレータの指示に従って、各モジュールおよび各ブロックのモード設定、ステータス管理等を行う。また、全体処理部90は、システムメモリ(RAM)の使用権およびシステムバスのアクセス権限の調停機能等を有する。 The overall processing unit 90 controls the entire terminal device 200. The overall processing unit 90 is configured to include a CPU, ROM, RAM, SSD, and the like. For example, the overall processing unit 90 performs mode setting, status management, and the like for each module and each block according to an operator's instruction. In addition, the overall processing unit 90 has a function of arbitrating the right to use the system memory (RAM) and the access right of the system bus.

また、全体処理部90は、カメラモジュール10の撮影モードの設定を行う。カメラモジュール10の撮影モードの設定は、環境に応じて自動的に設定される自動設定項目(例えば、測光条件等)と、オペレータの操作入力により手動的に設定される手動設定項目とを含み得る。手動設定項目には、フレーム画像における非重要エリアのコントラスト幅の削減率L(%)が含まれる。また、手動設定項目には、フレーム画像における中間エリアのコントラスト幅の削減率M(%)が含まれる。これらの設定は、オペレータによる操作部100の操作によって行われ、端末装置200が備えるメモリ(RAM)に記憶される。そして、これらの設定は、映像処理部20によって使用される。 In addition, the overall processing unit 90 sets the shooting mode of the camera module 10. The setting of the shooting mode of the camera module 10 may include an automatic setting item (for example, light measurement condition) automatically set according to the environment and a manual setting item manually set by an operator's operation input. .. The manual setting item includes the reduction rate L (%) of the contrast width of the non-important area in the frame image. Further, the manual setting item includes a reduction rate M (%) of the contrast width of the intermediate area in the frame image. These settings are performed by the operation of the operation unit 100 by the operator, and are stored in the memory (RAM) included in the terminal device 200. Then, these settings are used by the video processing unit 20.

操作部100は、各種入力デバイス(例えば、タッチパネル、操作ボタン、リモコン等)を備える。操作部100は、オペレータによる各種入力デバイスに操作により、各種入力(例えば、各種設定、会議参加者の呼び出し等)を受け付ける。 The operation unit 100 includes various input devices (for example, a touch panel, operation buttons, a remote controller, etc.). The operation unit 100 receives various inputs (for example, various settings, calls of conference participants, etc.) by operating various input devices by the operator.

録画装置120は、音声処理部70から出力される音声データと、カメラモジュール10から出力された映像データとが組み合わされた録画データを、記憶装置(メモリ、HDD等)に録画する。録画装置120は、記憶装置に記憶されている録画データを再生することができる。 The recording device 120 records the recorded data in which the audio data output from the audio processing unit 70 and the video data output from the camera module 10 are combined in the storage device (memory, HDD, etc.). The recording device 120 can reproduce the recorded data stored in the storage device.

映像特性解析部130は、検知部131および動き判定部132を有する。検知部131は、カメラモジュール10から出力された映像データを構成するフレーム画像から、人の顔が存在するエリアを検知する。動き判定部132は、カメラモジュール10から出力された映像データを構成するフレーム画像から、人が動いているエリアを検知する。映像特性解析部130は、各エリアの検知結果を、映像処理部20へ出力する。なお、映像特性解析部130は、各エリアの検知を行う際に、RAM140をバッファとして使用する。 The image characteristic analysis unit 130 has a detection unit 131 and a motion determination unit 132. The detection unit 131 detects an area where a human face exists from a frame image constituting the video data output from the camera module 10. The motion determination unit 132 detects an area in which a person is moving from a frame image constituting the video data output from the camera module 10. The video characteristic analysis unit 130 outputs the detection result of each area to the video processing unit 20. The video characteristic analysis unit 130 uses the RAM 140 as a buffer when detecting each area.

(映像処理部20の機能構成)
図2は、一実施形態に係る映像処理部20の機能構成を示す図である。図2に示すように、映像処理部20は、領域判定部21、輝度値分布生成部22、変換パラメータ生成部23、重複エリア処理部24、およびコントラスト変換部25を備える。図2に示す各機能は、カメラモジュール10から出力される映像データに対して、コントラスト変換を行うための機能である。カメラモジュール10から出力される映像データは、連続する複数のフレーム画像を含んで構成されている。例えば、カメラモジュール10から出力される映像データは、1秒間あたり所定枚数(例えば、24枚、30枚等)のフレーム画像を含んで構成されている。各フレーム画像は、当該フレーム画像を構成する画像信号によって、映像の1コマとして表示される。映像処理部20は、これら複数のフレーム画像の各々に対するコントラスト変換を行うことにより、映像データの全体に対してコントラスト変換を行うことができる。
(Functional configuration of video processing unit 20)
FIG. 2 is a diagram showing a functional configuration of the video processing unit 20 according to the embodiment. As shown in FIG. 2, the image processing unit 20 includes an area determination unit 21, a brightness value distribution generation unit 22, a conversion parameter generation unit 23, an overlapping area processing unit 24, and a contrast conversion unit 25. Each function shown in FIG. 2 is a function for performing contrast conversion on the video data output from the camera module 10. The video data output from the camera module 10 includes a plurality of continuous frame images. For example, the video data output from the camera module 10 includes a predetermined number of frame images (for example, 24 images, 30 images, etc.) per second. Each frame image is displayed as one frame of the image by the image signals constituting the frame image. The image processing unit 20 can perform contrast conversion on the entire image data by performing contrast conversion on each of the plurality of frame images.

領域判定部21は、カメラモジュール10から出力された映像データを構成するフレーム画像における、重要エリア、非重要エリア、および中間エリアを判定する。例えば、領域判定部21は、フレーム画像における、映像特性解析部130の検知部131によって人の顔が検知されたエリアを、重要エリアと判定する。また、例えば、領域判定部21は、フレーム画像における、映像特性解析部130の動き判定部132によって人の動きが検知されたエリアを、重要エリアと判定する。なお、領域判定部21は、フレーム画像における、オペレータによるタッチパネル部41Aの操作によって指定されたエリアを、重要エリアと判定してもよい。また、領域判定部21は、フレーム画像における重要エリア以外の領域を、非重要エリアと判定する。さらに、領域判定部21は、フレーム画像における重要エリアと非重要エリアとの境界部分の領域を、中間エリアと判定する。 The area determination unit 21 determines important areas, non-important areas, and intermediate areas in the frame image constituting the video data output from the camera module 10. For example, the area determination unit 21 determines an area in the frame image in which a human face is detected by the detection unit 131 of the image characteristic analysis unit 130 as an important area. Further, for example, the area determination unit 21 determines an area in the frame image in which the movement of a person is detected by the motion determination unit 132 of the video characteristic analysis unit 130 as an important area. The area determination unit 21 may determine an area designated by the operator's operation of the touch panel unit 41A in the frame image as an important area. Further, the area determination unit 21 determines an area other than the important area in the frame image as a non-important area. Further, the area determination unit 21 determines that the area of the boundary between the important area and the non-important area in the frame image is an intermediate area.

輝度値分布生成部22は、フレーム画像の全域の各画素の輝度値に基づいて、フレーム画像の全域における輝度値の分布を表すヒストグラム(「輝度値分布」の一例)を生成する。また、輝度値分布生成部22は、生成されたフレーム画像の全域における輝度値の分布を表すヒストグラムに基づいて、フレーム画像の全域における輝度値の加重平均値Pcを算出する。また、輝度値分布生成部22は、フレーム画像における領域判定部21によって判定された重要エリア毎に、当該重要エリアの各画素の輝度値に基づいて、当該重要エリアにおける輝度値の分布を表すヒストグラムを生成する。また、輝度値分布生成部22は、フレーム画像における領域判定部21によって判定された重要エリア毎に、生成された当該重要エリアにおける輝度値の分布を表すヒストグラムに基づいて、当該重要エリアにおける輝度値の加重平均値Paを算出する。 The brightness value distribution generation unit 22 generates a histogram (an example of the "brightness value distribution") showing the distribution of the brightness values over the entire frame image based on the brightness values of each pixel in the entire area of the frame image. Further, the brightness value distribution generation unit 22 calculates the weighted average value Pc of the brightness values in the entire area of the frame image based on the histogram representing the distribution of the brightness values in the entire area of the generated frame image. Further, the brightness value distribution generation unit 22 is a histogram representing the distribution of brightness values in the important area based on the brightness value of each pixel of the important area for each important area determined by the area determination unit 21 in the frame image. To generate. Further, the brightness value distribution generation unit 22 is based on a histogram representing the distribution of the brightness values in the important area generated for each important area determined by the area determination unit 21 in the frame image, and the brightness value in the important area. The weighted average value Pa of is calculated.

変換パラメータ生成部23は、領域判定部21によって判定された非重要エリアおよび中間エリアについて、コントラスト変換パラメータを生成する。例えば、変換パラメータ生成部23は、輝度値分布生成部22によって算出された加重平均値Pcと、全体処理部90によって予め設定された非重要エリアのコントラスト幅の削減率L(%)とに基づいて、領域判定部21によって判定された非重要エリアの変換パラメータを生成する。また、例えば、変換パラメータ生成部23は、全体処理部90によって予め設定された中間エリアのコントラスト幅の削減率M(%)に基づいて、領域判定部21によって判定された中間エリアのコントラスト変換パラメータを生成する。この際、変換パラメータ生成部23は、図5〜図7を用いて後述する、加重平均値Pcと加重平均値Paとの大小関係に応じて、第1〜第3の変換パラメータ生成方法のいずれかを用いて、中間エリアのコントラスト変換パラメータを生成する。なお、変換パラメータ生成部23は、LUT(Look Up Table)形式で、コントラスト変換パラメータを生成する。LUT形式は、映像データのリアルタイム処理に適しているためである。 The conversion parameter generation unit 23 generates contrast conversion parameters for the non-important area and the intermediate area determined by the area determination unit 21. For example, the conversion parameter generation unit 23 is based on the weighted average value Pc calculated by the brightness value distribution generation unit 22 and the reduction rate L (%) of the contrast width of the non-important area preset by the overall processing unit 90. Then, the conversion parameter of the non-important area determined by the area determination unit 21 is generated. Further, for example, the conversion parameter generation unit 23 determines the contrast conversion parameter of the intermediate area determined by the area determination unit 21 based on the reduction rate M (%) of the contrast width of the intermediate area preset by the overall processing unit 90. To generate. At this time, the conversion parameter generation unit 23 is any of the first to third conversion parameter generation methods, which will be described later with reference to FIGS. 5 to 7, depending on the magnitude relationship between the weighted average value Pc and the weighted average value Pa. Is used to generate the contrast conversion parameters for the intermediate area. The conversion parameter generation unit 23 generates contrast conversion parameters in a LUT (Look Up Table) format. This is because the LUT format is suitable for real-time processing of video data.

重複エリア処理部24は、領域判定部21によって判定された中間エリア同士が重複するエリア(以下、「重複エリア」と示す)が存在する場合、図8〜図10を用いて後述する第4の変換パラメータ生成方法を用いて、コントラスト幅がN(%)(但し、100(%)>N(%)>L(%))である、当該重複エリアの変換パラメータを生成する。 When there is an area in which the intermediate areas determined by the area determination unit 21 overlap each other (hereinafter, referred to as “overlapping area”), the overlapping area processing unit 24 has a fourth aspect described later with reference to FIGS. 8 to 10. The conversion parameter generation method is used to generate conversion parameters for the overlapping area in which the contrast width is N (%) (where 100 (%)> N (%)> L (%)).

コントラスト変換部25は、領域判定部21によって判定された領域毎に、変換パラメータ生成部23によって生成された変換パラメータに基づいて、ダイナミックレンジの圧縮処理を行うことにより、カメラモジュール10によって撮像された映像に対するコントラスト変換を行う。具体的には、コントラスト変換部25は、領域判定部21によって判定された領域毎に、当該領域に含まれる複数の画素の各々の輝度値を、変換パラメータ生成部23によって生成された変換パラメータに基づいて変換することにより圧縮する。例えば、コントラスト変換部25は、重要エリアに対しては、画質を維持するために、コントラスト変換を行わない。また、例えば、コントラスト変換部25は、非重要エリアに対しては、変換パラメータ生成部23によって生成された、コントラスト幅がL(%)であるコントラスト変換パラメータを用いて、コントラスト変換を行う。また、例えば、コントラスト変換部25は、中間エリアに対しては、変換パラメータ生成部23によって生成された、コントラスト幅がM(%)であるコントラスト変換パラメータを用いて、コントラスト変換を行う。また、例えば、コントラスト変換部25は、重複エリアに対しては、重複エリア処理部24によって生成された、コントラスト幅がN(%)であるコントラスト変換パラメータを用いて、コントラスト変換を行う。このように、コントラスト変換部25は、領域判定部21によって判定された領域毎に、適切なコントラスト変換パラメータを用いたコントラスト変換を行うことにより、主観的な映像品質を維持しつつ、エンコード処理で生成される符号量を効率的に削減することができる。 The contrast conversion unit 25 was imaged by the camera module 10 by performing dynamic range compression processing based on the conversion parameters generated by the conversion parameter generation unit 23 for each area determined by the area determination unit 21. Performs contrast conversion on the image. Specifically, the contrast conversion unit 25 converts the brightness values of the plurality of pixels included in the region into the conversion parameters generated by the conversion parameter generation unit 23 for each region determined by the region determination unit 21. Compress by converting based on. For example, the contrast conversion unit 25 does not perform contrast conversion on an important area in order to maintain image quality. Further, for example, the contrast conversion unit 25 performs contrast conversion on a non-important area by using a contrast conversion parameter having a contrast width of L (%) generated by the conversion parameter generation unit 23. Further, for example, the contrast conversion unit 25 performs contrast conversion on the intermediate area by using the contrast conversion parameter having a contrast width of M (%) generated by the conversion parameter generation unit 23. Further, for example, the contrast conversion unit 25 performs contrast conversion on the overlapping area by using the contrast conversion parameter having a contrast width of N (%) generated by the overlapping area processing unit 24. In this way, the contrast conversion unit 25 performs contrast conversion using appropriate contrast conversion parameters for each area determined by the area determination unit 21 to perform encoding processing while maintaining subjective image quality. The amount of code generated can be efficiently reduced.

(端末装置200による処理の手順)
図3は、一実施形態に係る端末装置200による処理の手順を示すフローチャートである。
(Procedure of processing by terminal device 200)
FIG. 3 is a flowchart showing a processing procedure by the terminal device 200 according to the embodiment.

まず、全体処理部90が、端末装置200のシステム(各モジュール)の初期設定を行い、カメラモジュール10による撮像が可能な状態とする(ステップS1)。 First, the overall processing unit 90 makes initial settings for the system (each module) of the terminal device 200 so that the camera module 10 can take an image (step S1).

次に、全体処理部90が、カメラモジュール10の撮影モードの設定を行う(ステップS2)。カメラモジュール10の撮影モードの設定は、環境に応じて自動的に設定される自動設定項目(例えば、測光条件等)と、オペレータの操作入力により手動的に設定される手動設定項目とを含み得る。手動設定項目には、非重要エリアのコントラスト幅の削減率L(%)が含まれる。また、手動設定項目には、中間エリアのコントラスト幅の削減率M(%)が含まれる。また、手動設定項目には、中間エリアの段階数が含まれる。これらの設定値は、撮影環境、伝送回線の帯域、各種条件等に基づいて、好適な値が設定される。 Next, the overall processing unit 90 sets the shooting mode of the camera module 10 (step S2). The setting of the shooting mode of the camera module 10 may include an automatic setting item (for example, light measurement condition) automatically set according to the environment and a manual setting item manually set by an operator's operation input. .. The manual setting item includes the reduction rate L (%) of the contrast width in the non-important area. Further, the manual setting item includes a reduction rate M (%) of the contrast width in the intermediate area. In addition, the manual setting items include the number of stages in the intermediate area. Suitable values are set for these set values based on the shooting environment, the band of the transmission line, various conditions, and the like.

次に、端末装置200は、ビデオ会議を開始する(ステップS3)。例えば、端末装置200は、接続先の他の端末装置200に通信要求を送信することにより、ビデオ会議を開始する。または、端末装置200は、接続先の他の端末装置200から送信された通信要求を受信することにより、ビデオ会議を開始する。なお、端末装置200は、このタイミングで、録画装置120による録画を開始してもよい。 Next, the terminal device 200 starts a video conference (step S3). For example, the terminal device 200 starts a video conference by transmitting a communication request to another terminal device 200 to be connected. Alternatively, the terminal device 200 starts the video conference by receiving the communication request transmitted from the other terminal device 200 of the connection destination. The terminal device 200 may start recording by the recording device 120 at this timing.

次に、映像特性解析部130および映像処理部20が、カメラモジュール10から出力された映像データを構成する一のフレーム画像を取得する(ステップS4)。 Next, the video characteristic analysis unit 130 and the video processing unit 20 acquire one frame image constituting the video data output from the camera module 10 (step S4).

次に、映像処理部20の領域判定部21が、ステップS4で取得されたフレーム画像における、重要エリアおよび非重要エリアを判定する(ステップS5)。 Next, the area determination unit 21 of the video processing unit 20 determines important areas and non-important areas in the frame image acquired in step S4 (step S5).

次に、映像処理部20の輝度値分布生成部22が、ステップS4で取得されたフレーム画像の全体の各画素の輝度値を集計することにより、フレーム画像全体における輝度値の分布を表すヒストグラムを生成する(ステップS6)。 Next, the brightness value distribution generation unit 22 of the image processing unit 20 aggregates the brightness values of each pixel of the entire frame image acquired in step S4 to create a histogram showing the distribution of the brightness values in the entire frame image. Generate (step S6).

次に、映像処理部20の輝度値分布生成部22が、ステップS4で取得されたフレーム画像の各画素の輝度値を、ステップS5で判定された重要エリア毎に集計することにより、輝度値の分布を表すヒストグラムを、ステップS5で判定された重要エリア毎に生成する(ステップS7)。 Next, the brightness value distribution generation unit 22 of the image processing unit 20 aggregates the brightness values of each pixel of the frame image acquired in step S4 for each important area determined in step S5 to obtain the brightness value. A histogram representing the distribution is generated for each important area determined in step S5 (step S7).

次に、映像処理部20の輝度値分布生成部22が、ステップS6で生成されたフレーム画像全体のヒストグラムに基づいて、フレーム画像全体の輝度値の加重平均値Pcを算出する(ステップS8)。 Next, the brightness value distribution generation unit 22 of the image processing unit 20 calculates the weighted average value Pc of the brightness values of the entire frame image based on the histogram of the entire frame image generated in step S6 (step S8).

次に、映像処理部20の変換パラメータ生成部23が、ステップS8で算出された加重平均値Pcと、ステップS2で設定された非重要エリアのコントラスト幅の削減率L(%)とに基づいて、ステップS5で判定された非重要エリアの変換パラメータを生成する(ステップS9)。 Next, the conversion parameter generation unit 23 of the image processing unit 20 is based on the weighted average value Pc calculated in step S8 and the reduction rate L (%) of the contrast width of the non-important area set in step S2. , The conversion parameter of the non-important area determined in step S5 is generated (step S9).

次に、映像処理部20の輝度値分布生成部22が、ステップS7で生成された重要エリア毎のヒストグラムに基づいて、重要エリア毎の輝度値の加重平均値Paを算出する(ステップS10)。例えば、ステップS5において、2つの重要エリアA1,A2が判定された場合、輝度値分布生成部22は、重要エリアA1のヒストグラムに基づく重要エリアA1の加重平均値Pa1と、重要エリアA2のヒストグラムに基づく重要エリアA2の加重平均値Pa2とを算出する。 Next, the brightness value distribution generation unit 22 of the video processing unit 20 calculates the weighted average value Pa of the brightness values for each important area based on the histogram for each important area generated in step S7 (step S10). For example, when two important areas A1 and A2 are determined in step S5, the brightness value distribution generation unit 22 uses the weighted average value Pa1 of the important area A1 based on the histogram of the important area A1 and the histogram of the important area A2. Based on this, the weighted average value Pa2 of the important area A2 is calculated.

次に、映像処理部20の変換パラメータ生成部23が、条件{Pa=Pc}を満たすか否かを判断する(ステップS11)。ここでは、加重平均値Paと加重平均値Pcとが完全に一致しなくともよく、視覚的にほぼ同一の輝度であると感じられる範囲内において、所定の許容誤差を有してもよい。 Next, the conversion parameter generation unit 23 of the video processing unit 20 determines whether or not the condition {Pa = Pc} is satisfied (step S11). Here, the weighted average value Pa and the weighted average value Pc do not have to completely match, and may have a predetermined tolerance within a range in which the brightness is visually felt to be substantially the same.

ステップS11において、条件{Pa=Pc}を満たすと判断された場合(ステップS11:Yes)、変換パラメータ生成部23が、図7を用いて後述する第3の変換パラメータ生成方法により、ステップS2で設定された中間エリアのコントラスト幅の削減率M(%)に基づいて、中間エリアのコントラスト変換パラメータを生成する(ステップS15)。そして、端末装置200は、ステップS16へ処理を進める。 When it is determined in step S11 that the condition {Pa = Pc} is satisfied (step S11: Yes), the conversion parameter generation unit 23 uses FIG. 7 to perform the third conversion parameter generation method described later in step S2. The contrast conversion parameter of the intermediate area is generated based on the set reduction rate M (%) of the contrast width of the intermediate area (step S15). Then, the terminal device 200 proceeds to step S16.

一方、ステップS11において、条件{Pa=Pc}を満たさないと判断された場合(ステップS11:Yes)、変換パラメータ生成部23が、条件{Pa<Pc}を満たすか否かを判断する(ステップS12)。 On the other hand, if it is determined in step S11 that the condition {Pa = Pc} is not satisfied (step S11: Yes), the conversion parameter generation unit 23 determines whether or not the condition {Pa <Pc} is satisfied (step S11). S12).

ステップS12において、条件{Pa<Pc}を満たすと判断された場合(ステップS12:Yes)、変換パラメータ生成部23が、図5を用いて後述する第1の変換パラメータ生成方法により、ステップS2で設定された中間エリアのコントラスト幅の削減率M(%)に基づいて、中間エリアのコントラスト変換パラメータを生成する(ステップS13)。そして、端末装置200は、ステップS16へ処理を進める。 When it is determined in step S12 that the condition {Pa <Pc} is satisfied (step S12: Yes), the conversion parameter generation unit 23 determines in step S2 by the first conversion parameter generation method described later with reference to FIG. The contrast conversion parameter of the intermediate area is generated based on the set reduction rate M (%) of the contrast width of the intermediate area (step S13). Then, the terminal device 200 proceeds to step S16.

一方、ステップS12において、条件{Pa<Pc}を満たさないと判断された場合(ステップS12:No)、変換パラメータ生成部23が、図6を用いて後述する第2の変換パラメータ生成方法により、ステップS2で設定された中間エリアのコントラスト幅の削減率M(%)に基づいて、中間エリアのコントラスト変換パラメータを生成する(ステップS14)。そして、端末装置200は、ステップS16へ処理を進める。 On the other hand, when it is determined in step S12 that the condition {Pa <Pc} is not satisfied (step S12: No), the conversion parameter generation unit 23 uses the second conversion parameter generation method described later with reference to FIG. The contrast conversion parameter of the intermediate area is generated based on the reduction rate M (%) of the contrast width of the intermediate area set in step S2 (step S14). Then, the terminal device 200 proceeds to step S16.

ステップS16では、変換パラメータ生成部23が、全ての中間エリアのコントラスト変換パラメータを生成したか否かを判断する。 In step S16, the conversion parameter generation unit 23 determines whether or not the contrast conversion parameters of all the intermediate areas have been generated.

ステップS16において、全ての中間エリアのコントラスト変換パラメータを生成していないと判断された場合(ステップS12:No)、端末装置200は、ステップS11へ処理を戻す。 If it is determined in step S16 that the contrast conversion parameters of all the intermediate areas have not been generated (step S12: No), the terminal device 200 returns the process to step S11.

一方、ステップS16において、全ての中間エリアのコントラスト変換パラメータを生成したと判断された場合(ステップS12:Yes)、変換パラメータ生成部23が、中間エリア同士が重複するエリア(以下、「重複エリア」と示す)があるか否かを判断する(ステップS17)。 On the other hand, when it is determined in step S16 that the contrast conversion parameters of all the intermediate areas have been generated (step S12: Yes), the conversion parameter generation unit 23 has an area in which the intermediate areas overlap (hereinafter, "overlapping area"). It is determined whether or not there is (indicated by) (step S17).

ステップS17において、重複エリアがあると判断された場合(ステップS17:Yes)、変換パラメータ生成部23が、図8〜図10を用いて後述する第4の変換パラメータ生成方法により、重複エリアの変換パラメータを生成する(ステップS18)。そして、端末装置200は、ステップS19へ処理を進める。 When it is determined in step S17 that there is an overlapping area (step S17: Yes), the conversion parameter generation unit 23 converts the overlapping area by the fourth conversion parameter generation method described later with reference to FIGS. 8 to 10. Generate parameters (step S18). Then, the terminal device 200 proceeds to step S19.

一方、ステップS17において、重複エリアがないと判断された場合(ステップS17:No)、端末装置200は、ステップS19へ処理を進める。 On the other hand, if it is determined in step S17 that there is no overlapping area (step S17: No), the terminal device 200 proceeds to step S19.

ステップS19では、映像処理部20のコントラスト変換部25が、フレーム画像における中間エリアよび非重要エリアの各々について、変換パラメータ生成部23によって生成された、対応する変換パラメータに従って、コントラスト変換処理を行う。 In step S19, the contrast conversion unit 25 of the image processing unit 20 performs contrast conversion processing for each of the intermediate area and the non-important area in the frame image according to the corresponding conversion parameters generated by the conversion parameter generation unit 23.

そして、映像処理部20は、ステップS19によるコントラスト変換処理後のフレーム画像を、映像CODEC部30へ出力する(ステップS20)。 Then, the video processing unit 20 outputs the frame image after the contrast conversion processing in step S19 to the video codec unit 30 (step S20).

その後、端末装置200は、ビデオ会議が終了したか否かを判断する(ステップS21)。ステップS21において、ビデオ会議が終了していないと判断された場合(ステップS21:No)、端末装置200は、ステップS4へ処理を戻す。一方、ステップS21において、ビデオ会議が終了したと判断された場合(ステップS21:Yes)、端末装置200は、図3に示す一連の処理を終了する。 After that, the terminal device 200 determines whether or not the video conference has ended (step S21). If it is determined in step S21 that the video conference has not ended (step S21: No), the terminal device 200 returns the process to step S4. On the other hand, when it is determined in step S21 that the video conference has ended (step S21: Yes), the terminal device 200 ends the series of processes shown in FIG.

(領域判定部21によって判定される領域の一例)
図4は、一実施形態に係る領域判定部21によって判定される領域の一例を示す図である。
(An example of an area determined by the area determination unit 21)
FIG. 4 is a diagram showing an example of a region determined by the region determination unit 21 according to the embodiment.

図4に示す例では、映像処理部20の領域判定部21によって、フレーム画像において、重要エリアA1と、重要エリアA2と、重要エリアA3とが判定されている。また、領域判定部21によって、フレーム画像において、重要エリアA1,A2,A3以外の領域を、非重要エリアCと判定されている。 In the example shown in FIG. 4, the area determination unit 21 of the image processing unit 20 determines the important area A1, the important area A2, and the important area A3 in the frame image. Further, the area determination unit 21 determines that the areas other than the important areas A1, A2, and A3 are the non-important areas C in the frame image.

さらに、図4に示す例では、フレーム画像において、重要エリアA1と非重要エリアCとの境界に中間エリアB1が設けられている。また、重要エリアA2と非重要エリアCとの境界に中間エリアB2が設けられている。また、重要エリアA3と非重要エリアCとの境界に中間エリアB3が設けられている。 Further, in the example shown in FIG. 4, in the frame image, the intermediate area B1 is provided at the boundary between the important area A1 and the non-important area C. Further, an intermediate area B2 is provided at the boundary between the important area A2 and the non-important area C. Further, an intermediate area B3 is provided at the boundary between the important area A3 and the non-important area C.

映像処理部20のコントラスト変換部25は、重要な情報が存在する重要エリアA1,A2,A3に対しては、コントラストの変換処理を行わない。これにより、コントラスト変換部25は、重要エリアA1,A2,A3の画質劣化を抑制することができる。 The contrast conversion unit 25 of the image processing unit 20 does not perform contrast conversion processing on the important areas A1, A2, and A3 in which important information exists. As a result, the contrast conversion unit 25 can suppress deterioration of image quality in the important areas A1, A2, and A3.

一方、コントラスト変換部25は、非重要エリアCに対しては、コントラスト幅をL(%)にするコントラスト変換を行う。 On the other hand, the contrast conversion unit 25 performs contrast conversion for the non-important area C so that the contrast width is set to L (%).

但し、重要エリアA1,A2,A3の画質レベルと、非重要エリアCの画質レベルとが大きく異なる場合、重要エリアA1,A2,A3と非重要エリアCとの境界における不自然な画質レベル差が目立ってしまう虞がある。 However, if the image quality levels of the important areas A1, A2 and A3 and the image quality levels of the non-important areas C are significantly different, an unnatural image quality level difference at the boundary between the important areas A1, A2 and A3 and the non-important area C may occur. There is a risk that it will stand out.

そこで、本実施形態の端末装置200は、重要エリアA1,A2,A3と非重要エリアCとの境界に、中間エリアB1,B2,B3を設け、中間エリアB1,B2,B3に対しては、コントラスト幅をM(%)(但し、100(%)>M(%)>L(%))にするコントラスト変換を行う。 Therefore, in the terminal device 200 of the present embodiment, intermediate areas B1, B2, and B3 are provided at the boundary between the important areas A1, A2, and A3 and the non-important area C, and the intermediate areas B1, B2, and B3 are provided with respect to the intermediate areas B1, B2, and B3. Contrast conversion is performed so that the contrast width is M (%) (however, 100 (%)> M (%)> L (%)).

これにより、コントラスト変換部25は、重要エリアA1,A2,A3と、非重要エリアCとの間の画質レベルの変化を緩やかにすることができ、したがって、重要エリアA1,A2,A3と、非重要エリアCとの境界が目立たないようにすることができる。 As a result, the contrast conversion unit 25 can moderate the change in the image quality level between the important areas A1, A2 and A3 and the non-important area C, and therefore the important areas A1, A2 and A3 and the non-important areas A1, A2 and A3. The boundary with the important area C can be made inconspicuous.

但し、中間エリアB1,B2,B3のコントラストの範囲は、図5〜図7を用いて後述するように、変換パラメータ生成部23によって生成される変換パラメータによって決定づけられる。 However, the contrast range of the intermediate areas B1, B2, and B3 is determined by the conversion parameters generated by the conversion parameter generation unit 23, as will be described later with reference to FIGS. 5 to 7.

(第1の変換パラメータ生成方法)
図5は、一実施形態に係る変換パラメータ生成部23による第1の変換パラメータ生成方法を説明するための図である。変換パラメータ生成部23は、条件{Pa(重要エリアの加重平均値)<Pc(フレーム画像全体の加重平均値)}を満たすと判断された場合、以下に説明する第1の変換パラメータ生成方法を用いて、中間エリアのコントラスト変換パラメータを生成する。
(First conversion parameter generation method)
FIG. 5 is a diagram for explaining a first conversion parameter generation method by the conversion parameter generation unit 23 according to the embodiment. When the conversion parameter generation unit 23 determines that the condition {Pa (weighted average value of the important area) <Pc (weighted average value of the entire frame image)} is satisfied, the conversion parameter generation unit 23 uses the first conversion parameter generation method described below. Is used to generate contrast conversion parameters for intermediate areas.

図5(a)は、フレーム画像の全体における輝度値の分布を表すヒストグラムである。このヒストグラムは、輝度値分布生成部22によって、フレーム画像の全体における各画素の輝度値に基づいて生成される。また、図5(a)は、フレーム画像の全体における輝度値の加重平均値Pcを示す。 FIG. 5A is a histogram showing the distribution of the luminance values in the entire frame image. This histogram is generated by the brightness value distribution generation unit 22 based on the brightness value of each pixel in the entire frame image. Further, FIG. 5A shows a weighted average value Pc of the brightness values in the entire frame image.

図5(b)は、フレーム画像の重要エリアA1(図4参照)における輝度値の分布を表すヒストグラムである。このヒストグラムは、輝度値分布生成部22によって、重要エリアA1における各画素の輝度値に基づいて生成される。また、図5(b)は、重要エリアA1における輝度値の加重平均値Pa1を示す。 FIG. 5B is a histogram showing the distribution of the luminance values in the important area A1 (see FIG. 4) of the frame image. This histogram is generated by the brightness value distribution generation unit 22 based on the brightness value of each pixel in the important area A1. Further, FIG. 5B shows a weighted average value Pa1 of the luminance values in the important area A1.

図5(c)は、コントラスト変換処理における輝度値の入力と出力の関係を表すグラフである。 FIG. 5C is a graph showing the relationship between the input and output of the luminance value in the contrast conversion process.

図5(c)のグラフにおいて、破線で示される直線501は、重要エリアA1に適用されるものであり、コントラスト幅を削減しない場合の、輝度値の入力と出力の関係を表す。 In the graph of FIG. 5C, the straight line 501 shown by the broken line is applied to the important area A1 and represents the relationship between the input and the output of the luminance value when the contrast width is not reduced.

また、図5(c)のグラフにおいて、実線で示される直線502は、非重要エリアC(図4参照)に適用されるものであり、コントラスト幅をL(%)に削減した場合の、輝度値の入力と出力の関係を表す。 Further, in the graph of FIG. 5C, the straight line 502 shown by the solid line is applied to the non-important area C (see FIG. 4), and the brightness when the contrast width is reduced to L (%). Represents the relationship between value input and output.

また、図5(c)のグラフにおいて、一点鎖線で示される直線503は、中間エリアB1(重要エリアA1と非重要エリアCとの境界)に適用されるものであり、コントラスト幅をM(%)に削減した場合の、輝度値の入力と出力の関係を表す。 Further, in the graph of FIG. 5C, the straight line 503 indicated by the alternate long and short dash line is applied to the intermediate area B1 (the boundary between the important area A1 and the non-important area C), and the contrast width is M (%). ) Indicates the relationship between the input and output of the brightness value.

第1の変換パラメータ生成方法では、まず、変換パラメータ生成部23は、図5(c)に示すように、直線501の入力値と直線502の入力値とが、フレーム画像の全体における輝度値の加重平均値Pcで交わるように、直線502を求める。 In the first conversion parameter generation method, first, in the conversion parameter generation unit 23, as shown in FIG. 5C, the input value of the straight line 501 and the input value of the straight line 502 are the luminance values in the entire frame image. A straight line 502 is obtained so as to intersect at the weighted average value Pc.

次に、変換パラメータ生成部23は、図5(c)に示すように、直線503のコントラスト幅(M(%))が直線502のコントラスト幅(L(%))よりも低値側に拡大されるように(すなわち、低値側のコンストラストをカットしないように)、直線503を求める。 Next, as shown in FIG. 5C, the conversion parameter generation unit 23 expands the contrast width (M (%)) of the straight line 503 to a lower value side than the contrast width (L (%)) of the straight line 502. The straight line 503 is obtained so as to be performed (that is, not to cut the contrast on the low value side).

そして、変換パラメータ生成部23は、求められた直線503を、中間エリアB1に適用する変換パラメータとして決定する。 Then, the conversion parameter generation unit 23 determines the obtained straight line 503 as a conversion parameter to be applied to the intermediate area B1.

上記した第1の変換パラメータ生成方法によれば、フレーム全体の輝度と比較して、重要エリアの輝度が比較的低い場合、中間エリアにおける輝度の低い領域において、重要エリアとの輝度差を小さくすることができ、これにより、重要エリアと非重要エリアとの境界を、より目立ちにくくすることができる。 According to the first conversion parameter generation method described above, when the brightness of the important area is relatively low as compared with the brightness of the entire frame, the brightness difference from the important area is reduced in the low brightness area in the intermediate area. This can make the boundary between the important area and the non-important area less noticeable.

(第2の変換パラメータ生成方法)
図6は、一実施形態に係る変換パラメータ生成部23による第2の変換パラメータ生成方法を説明するための図である。変換パラメータ生成部23は、条件{Pa=Pc}および条件{Pa<Pc}のいずれも満たさないと判断された場合、以下に説明する第2の変換パラメータ生成方法を用いて、中間エリアのコントラスト変換パラメータを生成する。
(Second conversion parameter generation method)
FIG. 6 is a diagram for explaining a second conversion parameter generation method by the conversion parameter generation unit 23 according to the embodiment. When the conversion parameter generation unit 23 determines that neither the condition {Pa = Pc} nor the condition {Pa <Pc} is satisfied, the conversion parameter generation unit 23 uses the second conversion parameter generation method described below to contrast the intermediate area. Generate conversion parameters.

図6(a)は、フレーム画像の全体における輝度値の分布を表すヒストグラムである。このヒストグラムは、輝度値分布生成部22によって、フレーム画像の全体における各画素の輝度値に基づいて生成される。また、図6(a)は、フレーム画像の全体における輝度値の加重平均値Pcを示す。 FIG. 6A is a histogram showing the distribution of the luminance values in the entire frame image. This histogram is generated by the brightness value distribution generation unit 22 based on the brightness value of each pixel in the entire frame image. Further, FIG. 6A shows a weighted average value Pc of the brightness values in the entire frame image.

図6(b)は、フレーム画像の重要エリアA2(図4参照)における輝度値の分布を表すヒストグラムである。このヒストグラムは、輝度値分布生成部22によって、重要エリアA2における各画素の輝度値に基づいて生成される。また、図6(b)は、重要エリアA2における輝度値の加重平均値Pa2を示す。 FIG. 6B is a histogram showing the distribution of the luminance values in the important area A2 (see FIG. 4) of the frame image. This histogram is generated by the brightness value distribution generation unit 22 based on the brightness value of each pixel in the important area A2. Further, FIG. 6B shows a weighted average value Pa2 of the luminance values in the important area A2.

図6(c)は、コントラスト変換処理における輝度値の入力と出力の関係を表すグラフである。 FIG. 6C is a graph showing the relationship between the input and output of the luminance value in the contrast conversion process.

図6(c)のグラフにおいて、破線で示される直線601は、重要エリアA2に適用されるものであり、コントラスト幅を削減しない場合の、輝度値の入力と出力の関係を表す。 In the graph of FIG. 6C, the straight line 601 shown by the broken line is applied to the important area A2 and represents the relationship between the input and the output of the luminance value when the contrast width is not reduced.

また、図6(c)のグラフにおいて、実線で示される直線602は、非重要エリアCに適用されるものであり、コントラスト幅をL(%)に削減した場合の、輝度値の入力と出力の関係を表す。 Further, in the graph of FIG. 6C, the straight line 602 shown by the solid line is applied to the non-important area C, and the input and output of the luminance value when the contrast width is reduced to L (%). Represents the relationship of.

また、図6(c)のグラフにおいて、一点鎖線で示される直線603は、中間エリアB2(重要エリアA2と非重要エリアCとの境界)に適用されるものであり、コントラスト幅をM(%)に削減した場合の、輝度値の入力と出力の関係を表す。 Further, in the graph of FIG. 6C, the straight line 603 indicated by the alternate long and short dash line is applied to the intermediate area B2 (the boundary between the important area A2 and the non-important area C), and the contrast width is M (%). ) Indicates the relationship between the input and output of the brightness value.

第2の変換パラメータ生成方法では、まず、変換パラメータ生成部23は、図6(c)に示すように、直線601の入力値と直線602の入力値とが、フレーム画像の全体における輝度値の加重平均値Pcで交わるように、直線602を求める。 In the second conversion parameter generation method, first, in the conversion parameter generation unit 23, as shown in FIG. 6C, the input value of the straight line 601 and the input value of the straight line 602 are the luminance values in the entire frame image. A straight line 602 is obtained so as to intersect at the weighted average value Pc.

次に、変換パラメータ生成部23は、図6(c)に示すように、直線603のコントラスト幅(M(%))が直線602のコントラスト幅(L(%))よりも高値側に拡大されるように(すなわち、高値側のコンストラストをカットしないように)、直線603を求める。 Next, in the conversion parameter generation unit 23, as shown in FIG. 6C, the contrast width (M (%)) of the straight line 603 is expanded to a higher value side than the contrast width (L (%)) of the straight line 602. (That is, not to cut the contrast on the high price side), the straight line 603 is obtained.

そして、変換パラメータ生成部23は、求められた直線603を、中間エリアB2に適用する変換パラメータとして決定する。 Then, the conversion parameter generation unit 23 determines the obtained straight line 603 as a conversion parameter to be applied to the intermediate area B2.

上記した第2の変換パラメータ生成方法によれば、フレーム全体の輝度と比較して、重要エリアの輝度が比較的高い場合、中間エリアにおける輝度の高い領域において、重要エリアとの輝度差を小さくすることができ、これにより、重要エリアと非重要エリアとの境界を、より目立ちにくくすることができる。 According to the second conversion parameter generation method described above, when the brightness of the important area is relatively high as compared with the brightness of the entire frame, the brightness difference from the important area is reduced in the high brightness area in the intermediate area. This can make the boundary between the important area and the non-important area less noticeable.

(第3の変換パラメータ生成方法)
図7は、一実施形態に係る変換パラメータ生成部23による第3の変換パラメータ生成方法を説明するための図である。変換パラメータ生成部23は、条件{Pa=Pc}を満たすと判断された場合、以下に説明する第3の変換パラメータ生成方法を用いて、中間エリアのコントラスト変換パラメータを生成する。
(Third conversion parameter generation method)
FIG. 7 is a diagram for explaining a third conversion parameter generation method by the conversion parameter generation unit 23 according to the embodiment. When it is determined that the condition {Pa = Pc} is satisfied, the conversion parameter generation unit 23 generates the contrast conversion parameter in the intermediate area by using the third conversion parameter generation method described below.

図7(a)は、フレーム画像の全体における輝度値の分布を表すヒストグラムである。このヒストグラムは、輝度値分布生成部22によって、フレーム画像の全体における各画素の輝度値に基づいて生成される。また、図7(a)は、フレーム画像の全体における輝度値の加重平均値Pcを示す。 FIG. 7A is a histogram showing the distribution of the luminance values in the entire frame image. This histogram is generated by the brightness value distribution generation unit 22 based on the brightness value of each pixel in the entire frame image. Further, FIG. 7A shows a weighted average value Pc of the brightness values in the entire frame image.

図7(b)は、フレーム画像の重要エリアA3(図4参照)における輝度値の分布を表すヒストグラムである。このヒストグラムは、輝度値分布生成部22によって、重要エリアA3における各画素の輝度値に基づいて生成される。また、図7(b)は、重要エリアA3における輝度値の加重平均値Pa3を示す。 FIG. 7B is a histogram showing the distribution of the luminance values in the important area A3 (see FIG. 4) of the frame image. This histogram is generated by the brightness value distribution generation unit 22 based on the brightness value of each pixel in the important area A3. Further, FIG. 7B shows a weighted average value Pa3 of the luminance values in the important area A3.

図7(c)は、コントラスト変換処理における輝度値の入力と出力の関係を表すグラフである。 FIG. 7C is a graph showing the relationship between the input and output of the luminance value in the contrast conversion process.

図7(c)のグラフにおいて、破線で示される直線701は、重要エリアA3に適用されるものであり、コントラスト幅を削減しない場合の、輝度値の入力と出力の関係を表す。 In the graph of FIG. 7C, the straight line 701 shown by the broken line is applied to the important area A3 and represents the relationship between the input and the output of the luminance value when the contrast width is not reduced.

また、図7(c)のグラフにおいて、実線で示される直線702は、非重要エリアCに適用されるものであり、コントラスト幅をL(%)に削減した場合の、輝度値の入力と出力の関係を表す。 Further, in the graph of FIG. 7C, the straight line 702 shown by the solid line is applied to the non-important area C, and the input and output of the luminance value when the contrast width is reduced to L (%). Represents the relationship of.

また、図7(c)のグラフにおいて、一点鎖線で示される直線703は、中間エリアB3(重要エリアA3と非重要エリアCとの境界)に適用されるものであり、コントラスト幅をM(%)に削減した場合の、輝度値の入力と出力の関係を表す。 Further, in the graph of FIG. 7C, the straight line 703 indicated by the alternate long and short dash line is applied to the intermediate area B3 (the boundary between the important area A3 and the non-important area C), and the contrast width is M (%). ) Indicates the relationship between the input and output of the brightness value.

第3の変換パラメータ生成方法では、まず、変換パラメータ生成部23は、図7(c)に示すように、直線701の入力値と直線702の入力値とが、フレーム画像の全体における輝度値の加重平均値Pcで交わるように、直線702を求める。 In the third conversion parameter generation method, first, in the conversion parameter generation unit 23, as shown in FIG. 7C, the input value of the straight line 701 and the input value of the straight line 702 are the luminance values in the entire frame image. The straight line 702 is obtained so as to intersect at the weighted average value Pc.

次に、変換パラメータ生成部23は、図7(c)に示すように、直線703のコントラスト幅(M(%))が直線702のコントラスト幅(L(%))よりも高値側と低値側との双方に拡大されるように(すなわち、高値側のコンストラストおよび低値側のコンストラストの各々が完全にカットされないように)、直線703を求める。 Next, in the conversion parameter generation unit 23, as shown in FIG. 7C, the contrast width (M (%)) of the straight line 703 is higher and lower than the contrast width (L (%)) of the straight line 702. A straight line 703 is obtained so as to be expanded to both sides (that is, each of the high-priced contrast and the low-priced contrast is not completely cut).

そして、変換パラメータ生成部23は、求められた直線703を、中間エリアB3に適用する変換パラメータとして決定する。 Then, the conversion parameter generation unit 23 determines the obtained straight line 703 as a conversion parameter to be applied to the intermediate area B3.

上記した第3の変換パラメータ生成方法によれば、フレーム全体の輝度と比較して、重要エリアの輝度が近似する場合、中間エリアにおける輝度の加重平均値Pc近傍の領域において、重要エリアとの輝度差を小さくすることができ、これにより、重要エリアと非重要エリアとの境界を、より目立ちにくくすることができる。 According to the third conversion parameter generation method described above, when the brightness of the important area is close to the brightness of the entire frame, the brightness with the important area is in the region near the weighted average value Pc of the brightness in the intermediate area. The difference can be reduced, which makes the boundary between the important area and the non-important area less noticeable.

(領域判定部21によって判定される領域の他の一例)
図8は、一実施形態に係る領域判定部21によって判定される領域の他の一例を示す図である。
(Another example of the area determined by the area determination unit 21)
FIG. 8 is a diagram showing another example of the region determined by the region determination unit 21 according to the embodiment.

図8に示す例では、映像処理部20の領域判定部21によって、フレーム画像において、重要エリアA1と、重要エリアA2とが判定されている。また、領域判定部21によって、フレーム画像において、重要エリアA1,A2以外の領域を、非重要エリアCと判定されている。 In the example shown in FIG. 8, the area determination unit 21 of the image processing unit 20 determines the important area A1 and the important area A2 in the frame image. Further, the area determination unit 21 determines that the areas other than the important areas A1 and A2 are the non-important areas C in the frame image.

さらに、図8に示す例では、フレーム画像において、重要エリアA1と非重要エリアCとの境界に中間エリアB1が設けられている。また、重要エリアA2と非重要エリアCとの境界に中間エリアB2が設けられている。 Further, in the example shown in FIG. 8, in the frame image, the intermediate area B1 is provided at the boundary between the important area A1 and the non-important area C. Further, an intermediate area B2 is provided at the boundary between the important area A2 and the non-important area C.

ここで、図8に示す例では、フレーム画像において、中間エリアB1の一部と中間エリアB2の一部とが重複する、重複エリアDが存在する。 Here, in the example shown in FIG. 8, in the frame image, there is an overlapping area D in which a part of the intermediate area B1 and a part of the intermediate area B2 overlap.

変換パラメータ生成部23は、中間エリアB1については、図5を用いて例示したように、非重要エリアCよりも輝度値の低い方向へコントラスト幅が広くなるように、コントラスト幅をM(%)に削減するための変換パラメータを生成する。 As illustrated with reference to FIG. 5, the conversion parameter generation unit 23 sets the contrast width of the intermediate area B1 to M (%) so that the contrast width becomes wider in the direction in which the brightness value is lower than that of the non-important area C. Generate conversion parameters to reduce to.

また、変換パラメータ生成部23は、中間エリアB2については、図6を用いて例示したように、非重要エリアCよりも輝度値の高い方向へコントラスト幅が広くなるように、コントラスト幅をM(%)に削減するための変換パラメータを生成する。 Further, the conversion parameter generation unit 23 sets the contrast width of the intermediate area B2 to M (as illustrated with reference to FIG. 6) so that the contrast width becomes wider in the direction in which the brightness value is higher than that of the non-important area C. %) Generate conversion parameters to reduce.

但し、重複エリアDについては、重複エリア処理部24が、図9および図10を用いて説明する第4の変換パラメータ生成方法によって、コントラスト幅をN(%)(但し、100(%)>N(%)>L(%))に削減するための変換パラメータを生成する。 However, with respect to the overlapping area D, the overlapping area processing unit 24 sets the contrast width to N (%) (however, 100 (%)> N by the fourth conversion parameter generation method described with reference to FIGS. 9 and 10. Generate conversion parameters to reduce (%)> L (%)).

(第4の変換パラメータ生成方法)
図9は、一実施形態に係る重複エリア処理部24による第4の変換パラメータ生成方法を説明するための図である。図10は、一実施形態に係る重複エリア処理部24による重複エリアDの変換パラメータの生成例を示す図である。
(Fourth conversion parameter generation method)
FIG. 9 is a diagram for explaining a fourth conversion parameter generation method by the overlapping area processing unit 24 according to the embodiment. FIG. 10 is a diagram showing an example of generating conversion parameters of the overlapping area D by the overlapping area processing unit 24 according to the embodiment.

重複エリア処理部24は、図8に示す重複エリアDについては、以下に説明する第4の変換パラメータ生成方法を用いて、当該重複エリアDのコントラスト変換パラメータを生成する。 For the overlapping area D shown in FIG. 8, the overlapping area processing unit 24 generates the contrast conversion parameter of the overlapping area D by using the fourth conversion parameter generation method described below.

図9は、コントラスト変換処理における輝度値の入力と出力の関係を表すグラフである。図9のグラフにおいて、破線で示される直線901は、重要エリアA1,A2に適用されるものであり、コントラスト幅を削減しない場合の、輝度値の入力と出力の関係を表す。また、図9のグラフにおいて、実線で示される直線902は、非重要エリアCに適用されるものであり、コントラスト幅をL(%)に削減した場合の、輝度値の入力と出力の関係を表す。 FIG. 9 is a graph showing the relationship between the input and output of the luminance value in the contrast conversion process. In the graph of FIG. 9, the straight line 901 shown by the broken line is applied to the important areas A1 and A2, and represents the relationship between the input and the output of the luminance value when the contrast width is not reduced. Further, in the graph of FIG. 9, the straight line 902 shown by the solid line is applied to the non-important area C, and shows the relationship between the input and the output of the luminance value when the contrast width is reduced to L (%). show.

また、図9のグラフにおいて、一点鎖線で示される直線903は、重複エリアDに適用されるものであり、コントラスト幅をN(%)に削減した場合の、輝度値の入力と出力の関係を表す。 Further, in the graph of FIG. 9, the straight line 903 indicated by the alternate long and short dash line is applied to the overlapping area D, and shows the relationship between the input and the output of the luminance value when the contrast width is reduced to N (%). show.

重複エリア処理部24は、図9に示すように、直線903のコントラスト幅(N(%))が直線902のコントラスト幅(L(%))よりも高値側と低値側との双方に拡大されるように(すなわち、高値側のコンストラストおよび低値側のコンストラストの各々が完全にカットされないように)、直線903を求める。この際、重複エリア処理部24は、図10(a)〜(c)に示すように、中間エリアB1のコントラスト幅(M(%))と、中間エリアB2のコントラスト幅(M(%))とのOR範囲を、直線903(すなわち、重複エリアD)のコントラスト幅(N(%))とする。そして、重複エリア処理部24は、求められた直線903を、重複エリアDに適用する変換パラメータとして決定する。 As shown in FIG. 9, the overlapping area processing unit 24 expands the contrast width (N (%)) of the straight line 903 to both the high value side and the low price side of the contrast width (L (%)) of the straight line 902. The straight line 903 is obtained so as to be performed (that is, each of the high-priced contrast and the low-priced contrast is not completely cut). At this time, as shown in FIGS. 10A to 10C, the overlapping area processing unit 24 has a contrast width (M (%)) of the intermediate area B1 and a contrast width (M (%)) of the intermediate area B2. The OR range with and is defined as the contrast width (N (%)) of the straight line 903 (that is, the overlapping area D). Then, the overlapping area processing unit 24 determines the obtained straight line 903 as a conversion parameter to be applied to the overlapping area D.

(第5の変換パラメータ生成方法)
図11は、一実施形態に係る変換パラメータ生成部23による第5の変換パラメータ生成方法を説明するための図である。変換パラメータ生成部23は、重要エリアAにおける輝度値の分布が比較的狭い範囲を有するものである場合、図5〜図7を用いて説明した第1〜第3の変換パラメータ生成方法の代わりに、以下に説明する第5の変換パラメータ生成方法を用いて、全てのエリアに共通するコントラスト変換パラメータを生成してもよい。
(Fifth conversion parameter generation method)
FIG. 11 is a diagram for explaining a fifth conversion parameter generation method by the conversion parameter generation unit 23 according to the embodiment. When the distribution of the brightness values in the important area A has a relatively narrow range, the conversion parameter generation unit 23 replaces the first to third conversion parameter generation methods described with reference to FIGS. 5 to 7. , The contrast conversion parameter common to all areas may be generated by using the fifth conversion parameter generation method described below.

図11(a)は、フレーム画像の全体における輝度値の分布を表すヒストグラムである。このヒストグラムは、輝度値分布生成部22によって、フレーム画像の全体における各画素の輝度値に基づいて生成される。また、図11(a)は、フレーム画像の全体における輝度値の加重平均値Pcを示す。 FIG. 11A is a histogram showing the distribution of the luminance values in the entire frame image. This histogram is generated by the brightness value distribution generation unit 22 based on the brightness value of each pixel in the entire frame image. Further, FIG. 11A shows a weighted average value Pc of the brightness values in the entire frame image.

図11(b)は、フレーム画像の重要エリアAにおける輝度値の分布を表すヒストグラムである。このヒストグラムは、輝度値分布生成部22によって、重要エリアAにおける各画素の輝度値に基づいて生成される。図11(b)に示すように、重要エリアAにおける輝度値の分布は、比較的狭い範囲を有するものとなっている。また、図11(b)は、重要エリアAにおける輝度値の加重平均値Paを示す。なお、第5の変換パラメータは、重要エリアの輝度分布が狭い場合に適用しやすく、全てのエリアに共通するコントラスト変換パラメータを生成することで、コントラストを縮小しても、中間エリアを持つことなく重要エリアと非重要エリアとの境界を目立たなくすることが可能である。 FIG. 11B is a histogram showing the distribution of the luminance values in the important area A of the frame image. This histogram is generated by the brightness value distribution generation unit 22 based on the brightness value of each pixel in the important area A. As shown in FIG. 11B, the distribution of the luminance values in the important area A has a relatively narrow range. Further, FIG. 11B shows a weighted average value Pa of the luminance values in the important area A. The fifth conversion parameter is easy to apply when the brightness distribution of the important area is narrow, and by generating a contrast conversion parameter common to all areas, even if the contrast is reduced, there is no intermediate area. It is possible to make the boundary between the important area and the non-important area inconspicuous.

図11(c)は、コントラスト変換処理における輝度値の入力と出力の関係を表すグラフである。 FIG. 11C is a graph showing the relationship between the input and output of the luminance value in the contrast conversion process.

図11(c)のグラフにおいて、破線で示される直線1101は、コントラスト幅を削減しない場合の、輝度値の入力と出力の関係を表す。 In the graph of FIG. 11C, the straight line 1101 shown by the broken line represents the relationship between the input and the output of the luminance value when the contrast width is not reduced.

また、図11(c)のグラフにおいて、実線で示される直線1102は、フレーム画像の全てのエリアに適用されるものであり、コントラスト幅をL(%)に削減した場合の、輝度値の入力と出力の関係を表す。 Further, in the graph of FIG. 11C, the straight line 1102 shown by the solid line is applied to all areas of the frame image, and the luminance value is input when the contrast width is reduced to L (%). Represents the relationship between and output.

第5の変換パラメータ生成方法では、変換パラメータ生成部23は、図11(c)に示すように、輝度値の入力値が加重平均値Pa近傍である場合には、コントラストを維持し、輝度値の入力値が加重平均値Pa近傍ではない場合には、コントラストを削減するように、コントラスト幅をL(%)に削減する直線1102を求める。そして、変換パラメータ生成部23は、求められた直線1102を、フレーム画像の全てのエリアに適用する変換パラメータとして決定する。 In the fifth conversion parameter generation method, as shown in FIG. 11C, the conversion parameter generation unit 23 maintains the contrast when the input value of the luminance value is in the vicinity of the weighted average value Pa, and the luminance value is maintained. When the input value of is not in the vicinity of the weighted average value Pa, a straight line 1102 that reduces the contrast width to L (%) is obtained so as to reduce the contrast. Then, the conversion parameter generation unit 23 determines the obtained straight line 1102 as a conversion parameter to be applied to all areas of the frame image.

第5の変換パラメータ生成方法によれば、一部の領域のコントラストの維持を行いつつ、その他の領域に対しては、エリアの種別を問わない共通の変換パラメータを用いて、コントラスト変換を行うため、複数のエリア間の相対的な輝度関係を維持しつつ、符号化されるデータ量を削減することができる。 According to the fifth conversion parameter generation method, while maintaining the contrast of a part of the area, the contrast conversion is performed for the other area by using the common conversion parameter regardless of the area type. , The amount of encoded data can be reduced while maintaining the relative luminance relationship between the plurality of areas.

(第6の変換パラメータ生成方法)
図12は、一実施形態に係る変換パラメータ生成部23による第6の変換パラメータ生成方法を説明するための図である。変換パラメータ生成部23は、重要エリアAにおける輝度値の分布が比較的広い範囲を有するものである場合、図5〜図7を用いて説明した第1〜第3の変換パラメータ生成方法の代わりに、以下に説明する第6の変換パラメータ生成方法を用いて、全てのエリアに共通するコントラスト変換パラメータを生成してもよい。
(Sixth conversion parameter generation method)
FIG. 12 is a diagram for explaining a sixth conversion parameter generation method by the conversion parameter generation unit 23 according to the embodiment. When the distribution of the luminance values in the important area A has a relatively wide range, the conversion parameter generation unit 23 replaces the first to third conversion parameter generation methods described with reference to FIGS. 5 to 7. , The contrast conversion parameter common to all areas may be generated by using the sixth conversion parameter generation method described below.

図12(a)は、フレーム画像の全体における輝度値の分布を表すヒストグラムである。このヒストグラムは、輝度値分布生成部22によって、フレーム画像の全体における各画素の輝度値に基づいて生成される。また、図12(a)は、フレーム画像の全体における輝度値の加重平均値Pcを示す。 FIG. 12A is a histogram showing the distribution of the luminance values in the entire frame image. This histogram is generated by the brightness value distribution generation unit 22 based on the brightness value of each pixel in the entire frame image. Further, FIG. 12A shows a weighted average value Pc of the brightness values in the entire frame image.

図12(b)は、フレーム画像の重要エリアAにおける輝度値の分布を表すヒストグラムである。このヒストグラムは、輝度値分布生成部22によって、重要エリアAにおける各画素の輝度値に基づいて生成される。図12(b)に示すように、重要エリアAにおける輝度値の分布は、比較的広い範囲を有するものとなっている。また、図12(b)は、重要エリアAにおける輝度値の加重平均値Paを示す。なお、第6の変換パラメータは、重要エリアの輝度分布が狭い場合に適用しやすく、全てのエリアに共通するコントラスト変換パラメータを生成することで、コントラストを縮小しても、中間エリアを持つことなく重要エリアと非重要エリアとの境界を目立たなくすることが可能である。 FIG. 12B is a histogram showing the distribution of the luminance values in the important area A of the frame image. This histogram is generated by the brightness value distribution generation unit 22 based on the brightness value of each pixel in the important area A. As shown in FIG. 12B, the distribution of the luminance values in the important area A has a relatively wide range. Further, FIG. 12B shows a weighted average value Pa of the luminance values in the important area A. The sixth conversion parameter is easy to apply when the brightness distribution of the important area is narrow, and by generating a contrast conversion parameter common to all areas, even if the contrast is reduced, there is no intermediate area. It is possible to make the boundary between the important area and the non-important area inconspicuous.

図12(c)は、コントラスト変換処理における輝度値の入力と出力の関係を表すグラフである。 FIG. 12C is a graph showing the relationship between the input and output of the luminance value in the contrast conversion process.

図12(c)のグラフにおいて、破線で示される直線1201は、コントラスト幅を削減しない場合の、輝度値の入力と出力の関係を表す。 In the graph of FIG. 12C, the straight line 1201 shown by the broken line represents the relationship between the input and the output of the luminance value when the contrast width is not reduced.

また、図12(c)のグラフにおいて、実線で示される直線1202は、フレーム画像の全てのエリアに適用されるものであり、コントラスト幅をL(%)に削減した場合の、輝度値の入力と出力の関係を表す。 Further, in the graph of FIG. 12C, the straight line 1202 shown by the solid line is applied to all areas of the frame image, and the luminance value is input when the contrast width is reduced to L (%). Represents the relationship between and output.

第6の変換パラメータ生成方法では、変換パラメータ生成部23は、図12(c)に示すように、直線1201と直線1202とが加重平均値Paで交差するように、コントラスト幅をL(%)に削減する直線1102を求める。そして、変換パラメータ生成部23は、求められた直線1202を、フレーム画像の全てのエリアに適用する変換パラメータとして決定する。 In the sixth conversion parameter generation method, as shown in FIG. 12C, the conversion parameter generation unit 23 sets the contrast width to L (%) so that the straight line 1201 and the straight line 1202 intersect at the weighted average value Pa. The straight line 1102 to be reduced to is obtained. Then, the conversion parameter generation unit 23 determines the obtained straight line 1202 as a conversion parameter to be applied to all areas of the frame image.

第6の変換パラメータ生成方法によれば、一部の領域のコントラストの維持を行わず、全ての領域に対して、エリアの種別を問わない共通の変換パラメータを用いて、コントラスト変換を行うため、複数のエリア間の相対的な輝度関係を維持しつつ、符号化されるデータ量を削減することができる。 According to the sixth conversion parameter generation method, the contrast of some areas is not maintained, and the contrast conversion is performed for all areas by using the common conversion parameters regardless of the area type. The amount of encoded data can be reduced while maintaining the relative luminance relationship between the plurality of areas.

以上、本発明の好ましい実施形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to these embodiments, and various modifications or modifications are made within the scope of the gist of the present invention described in the claims. It can be changed.

なお、本発明が適用される用途、装置、およびシステムは、上記実施形態で説明した用途、装置、およびシステムに限らない。すなわち、本発明は、映像データにおけるフレーム画像のコントラスト幅を狭めることによって、映像データにおけるデータ量の削減を目的とするものであれば、如何なる用途、装置、およびシステムにも適用可能である。 The applications, devices, and systems to which the present invention is applied are not limited to the applications, devices, and systems described in the above embodiments. That is, the present invention can be applied to any application, apparatus, and system as long as the purpose is to reduce the amount of data in the video data by narrowing the contrast width of the frame image in the video data.

また、上記実施形態では、人の顔が検知されたエリアおよび人の動きが検知されたエリアを「重要エリア」としているが、これに限らない。すなわち、「重要エリア」は、利用目的等に応じて比較的高画質とすることが好ましい被写体(例えば、文字や画像が示されている資料、ホワイトボード、監視カメラにおける人物等)が映し出されている領域であれば、如何なる領域であってもよい。 Further, in the above embodiment, the area where the human face is detected and the area where the movement of the person is detected are defined as "important areas", but the present invention is not limited to this. That is, in the "important area", a subject (for example, a material showing characters or images, a whiteboard, a person in a surveillance camera, etc.) whose image quality is preferably relatively high according to the purpose of use is projected. Any area may be used as long as it is in the area.

1 ビデオ会議システム(映像送受信システム)
10 カメラモジュール(撮像装置)
20 映像処理部
21 領域判定部
22 輝度値分布生成部
23 変換パラメータ生成部
24 重複エリア処理部
25 コントラスト変換部
30 映像CODEC部(符号化部)
130 映像特性解析部
131 検知部
132 動き判定部
200,200A,200B 端末装置(画像処理装置)
300 サーバ
400 ネットワーク
A1,A2,A3 重要エリア
B1,B2,B3 中間エリア
C 非重要エリア
D 重複エリア
1 Video conferencing system (video transmission / reception system)
10 Camera module (imaging device)
20 Image processing unit 21 Area determination unit 22 Luminance value distribution generation unit 23 Conversion parameter generation unit 24 Overlapping area processing unit 25 Contrast conversion unit 30 Video CODEC unit (encoding unit)
130 Video characteristic analysis unit 131 Detection unit 132 Motion judgment unit 200, 200A, 200B Terminal device (image processing device)
300 Server 400 Network A1, A2, A3 Important area B1, B2, B3 Intermediate area C Non-important area D Overlapping area

国際公開第95/022228号International Publication No. 95/022228

Claims (12)

映像におけるフレーム画像から、複数の領域を判定する領域判定部と、
前記領域単位で輝度値分布を生成する輝度値分布生成部と、
前記領域単位で生成された前記輝度値分布に応じた圧縮方法を用いて、前記複数の領域のうちの特定の領域のダイナミックレンジを圧縮することにより、当該特定の領域のコントラスト変換を行うコントラスト変換部と
を備えることを特徴とする画像処理装置。
An area determination unit that determines a plurality of areas from a frame image in a video,
A luminance value distribution generator that generates a luminance value distribution for each region,
Contrast conversion that performs contrast conversion in a specific region by compressing the dynamic range of a specific region among the plurality of regions using a compression method according to the brightness value distribution generated in each region. An image processing device characterized by having a unit.
前記領域判定部は、
前記フレーム画像から、重要エリアと、非重要エリアとを判定するとともに、前記重要エリアと前記非重要エリアとの境界である中間エリアを前記特定の領域として判定し、
前記コントラスト変換部は、
前記領域単位で生成された前記輝度値分布に応じた圧縮方法を用いて、前記中間エリアのダイナミックレンジを圧縮することにより、当該中間エリアのコントラスト変換を行う
ことを特徴とする請求項1に記載の画像処理装置。
The area determination unit
From the frame image, the important area and the non-important area are determined, and the intermediate area which is the boundary between the important area and the non-important area is determined as the specific area.
The contrast conversion unit
The first aspect of claim 1, wherein the contrast conversion of the intermediate area is performed by compressing the dynamic range of the intermediate area by using the compression method according to the brightness value distribution generated in the area unit. Image processing device.
前記コントラスト変換部は、
前記重要エリアのダイナミックレンジよりも前記中間エリアのダイナミックレンジが狭くなり、且つ、前記中間エリアのダイナミックレンジよりも前記非重要エリアのダイナミックレンジが狭くなるように、前記非重要エリアおよび前記中間エリアのダイナミックレンジの圧縮処理を行う
ことを特徴とする請求項2に記載の画像処理装置。
The contrast conversion unit
The non-important area and the intermediate area are narrowed so that the dynamic range of the intermediate area is narrower than the dynamic range of the important area and the dynamic range of the non-important area is narrower than the dynamic range of the intermediate area. The image processing apparatus according to claim 2, wherein the dynamic range compression processing is performed.
前記コントラスト変換部は、
前記重要エリアに対するコントラスト変換を行わない
ことを特徴とする請求項3に記載の画像処理装置。
The contrast conversion unit
The image processing apparatus according to claim 3, wherein the contrast conversion for the important area is not performed.
前記輝度値分布生成部は、
前記フレーム画像の全域における輝度値の加重平均値Pcと、
前記重要エリアにおける輝度値の加重平均値Paと
をさらに算出し、
前記コントラスト変換部は、
前記加重平均値Pcと前記加重平均値Paとの大小関係に応じた変換パラメータを用いて、前記中間エリアのダイナミックレンジの圧縮処理を行う
ことを特徴とする請求項3または4に記載の画像処理装置。
The brightness value distribution generator
The weighted average value Pc of the brightness value in the entire area of the frame image and
Further calculating the weighted average value Pa of the luminance value in the important area,
The contrast conversion unit
The image processing according to claim 3 or 4, wherein the dynamic range of the intermediate area is compressed by using the conversion parameters according to the magnitude relationship between the weighted average value Pc and the weighted average value Pa. Device.
前記コントラスト変換部は、
前記加重平均値Paが前記加重平均値Pcよりも小さい場合、前記中間エリアのダイナミックレンジを、前記非重要エリアのダイナミックレンジよりも低値側に拡大されるように圧縮する
ことを特徴とする請求項5に記載の画像処理装置。
The contrast conversion unit
When the weighted average value Pa is smaller than the weighted average value Pc, the claim is characterized in that the dynamic range of the intermediate area is compressed so as to be expanded to a lower value side than the dynamic range of the non-important area. Item 5. The image processing apparatus according to item 5.
前記コントラスト変換部は、
前記加重平均値Paが前記加重平均値Pcよりも大きい場合、前記中間エリアのダイナミックレンジを、前記非重要エリアのダイナミックレンジよりも高値側に拡大されるように圧縮する
ことを特徴とする請求項5または6に記載の画像処理装置。
The contrast conversion unit
The claim is characterized in that when the weighted average value Pa is larger than the weighted average value Pc, the dynamic range of the intermediate area is compressed so as to be expanded to a higher value side than the dynamic range of the non-important area. The image processing apparatus according to 5 or 6.
前記コントラスト変換部は、
前記加重平均値Paと前記加重平均値Pcとが略同じである場合、前記中間エリアのダイナミックレンジを、前記非重要エリアのダイナミックレンジよりも低値側および高値側の各々に拡大されるように圧縮する
ことを特徴とする請求項5から7のいずれか一項に記載の画像処理装置。
The contrast conversion unit
When the weighted average value Pa and the weighted average value Pc are substantially the same, the dynamic range of the intermediate area is expanded to each of the low value side and the high value side of the dynamic range of the non-important area. The image processing apparatus according to any one of claims 5 to 7, wherein the image processing apparatus is compressed.
前記コントラスト変換部は、
複数の前記中間エリア同士が重なる領域である重複エリアが存在する場合、前記複数の中間エリアの各々の前記ダイナミックレンジを包含するように、当該重複エリアのダイナミックレンジを圧縮する
ことを特徴とする請求項5から8のいずれか一項に記載の画像処理装置。
The contrast conversion unit
When there is an overlapping area in which a plurality of the intermediate areas overlap each other, the claim is characterized in that the dynamic range of the overlapping area is compressed so as to include the dynamic range of each of the plurality of intermediate areas. Item 6. The image processing apparatus according to any one of Items 5 to 8.
映像におけるフレーム画像から、複数の領域を判定する領域判定工程と、
前記領域単位で輝度値分布を生成する輝度値分布生成工程と、
前記領域単位で生成された前記輝度値分布に応じた圧縮方法を用いて、前記複数の領域のうちの特定の領域のダイナミックレンジを圧縮することにより、当該特定の領域のコントラスト変換を行うコントラスト変換工程と
を含むことを特徴とする画像処理方法。
An area determination process for determining a plurality of areas from a frame image in a video,
The brightness value distribution generation step of generating the brightness value distribution for each region, and the
Contrast conversion that performs contrast conversion of a specific region by compressing the dynamic range of a specific region among the plurality of regions using a compression method according to the brightness value distribution generated for each region. An image processing method characterized by including steps.
複数の端末装置を備えた映像送受信システムであって、
前記複数の端末装置のうちの少なくともいずれか一つは、
映像におけるフレーム画像から、複数の領域を判定する領域判定部と、
前記領域単位で輝度値分布を生成する輝度値分布生成部と、
前記領域単位で生成された前記輝度値分布に応じた圧縮方法を用いて、前記複数の領域のうちの特定の領域のダイナミックレンジを圧縮することにより、当該特定の領域のコントラスト変換を行うコントラスト変換部と
を備えることを特徴とする映像送受信システム。
It is a video transmission / reception system equipped with multiple terminal devices.
At least one of the plurality of terminal devices
An area determination unit that determines a plurality of areas from a frame image in a video,
A luminance value distribution generator that generates a luminance value distribution for each region,
Contrast conversion that performs contrast conversion in a specific region by compressing the dynamic range of a specific region among the plurality of regions using a compression method according to the brightness value distribution generated in each region. A video transmission / reception system characterized by having a unit.
コンピュータを、
映像におけるフレーム画像から、複数の領域を判定する領域判定部、
前記領域単位で輝度値分布を生成する輝度値分布生成部、および、
前記領域単位で生成された前記輝度値分布に応じた圧縮方法を用いて、前記複数の領域のうちの特定の領域のダイナミックレンジを圧縮することにより、当該特定の領域のコントラスト変換を行うコントラスト変換部
として機能させるためのプログラム。
Computer,
Area determination unit that determines multiple areas from the frame image in the video,
The brightness value distribution generator that generates the brightness value distribution for each area, and the area-by-region unit.
Contrast conversion that performs contrast conversion in a specific region by compressing the dynamic range of a specific region among the plurality of regions using a compression method according to the brightness value distribution generated in each region. A program to function as a department.
JP2020199133A 2020-01-23 2020-11-30 Image processing apparatus, image processing method, video transmission and reception system, and program Pending JP2021117981A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020009089 2020-01-23
JP2020009089 2020-01-23

Publications (1)

Publication Number Publication Date
JP2021117981A true JP2021117981A (en) 2021-08-10

Family

ID=77175735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020199133A Pending JP2021117981A (en) 2020-01-23 2020-11-30 Image processing apparatus, image processing method, video transmission and reception system, and program

Country Status (1)

Country Link
JP (1) JP2021117981A (en)

Similar Documents

Publication Publication Date Title
JPH08214305A (en) Video encoder control system
JP2006245746A (en) Monitoring system
JP7334470B2 (en) VIDEO PROCESSING DEVICE, VIDEO CONFERENCE SYSTEM, VIDEO PROCESSING METHOD, AND PROGRAM
JPH04219089A (en) Image encoding device
US20190306462A1 (en) Image processing apparatus, videoconference system, image processing method, and recording medium
JP2008311910A (en) Communication equipment and conference system
US20090322941A1 (en) Image processing device
JP2008005349A (en) Video encoder, video transmission apparatus, video encoding method, and video transmission method
US20040160645A1 (en) Apparatus and program for image processing
JP2021117981A (en) Image processing apparatus, image processing method, video transmission and reception system, and program
US10762913B2 (en) Image-based techniques for audio content
JP2006197096A (en) Television telephone
CN114866763A (en) Video quality evaluation method and device, terminal equipment and storage medium
JP3033622B2 (en) TV conference system
JP2005064785A (en) Image transmission device, image reproducing device, and image transmission system
US8107525B1 (en) Variable bit rate video CODEC using adaptive tracking for video conferencing
KR20070075134A (en) Method for process multimedia data adaptive to bandwidth and host apparatus
CN113160342B (en) Encoding method and device based on feedback, storage medium and electronic equipment
JP5004680B2 (en) Image processing apparatus, image processing method, video conference system, video conference method, program, and recording medium
JP2007060498A (en) Jpeg compression equipment
JP2008113088A (en) Door phone system
JP3173809B2 (en) Television conference system
JP6651984B2 (en) INFORMATION PROCESSING DEVICE, CONFERENCE SYSTEM, AND INFORMATION PROCESSING DEVICE CONTROL METHOD
JP2014179807A (en) Image processing apparatus, image processing system, image processing method and program
JPH0583704A (en) Picture transmitter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240926