JP2019220752A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2019220752A
JP2019220752A JP2018114641A JP2018114641A JP2019220752A JP 2019220752 A JP2019220752 A JP 2019220752A JP 2018114641 A JP2018114641 A JP 2018114641A JP 2018114641 A JP2018114641 A JP 2018114641A JP 2019220752 A JP2019220752 A JP 2019220752A
Authority
JP
Japan
Prior art keywords
image data
color gamut
information
resolution
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018114641A
Other languages
Japanese (ja)
Inventor
智章 小宮山
Tomoaki Komiyama
智章 小宮山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018114641A priority Critical patent/JP2019220752A/en
Publication of JP2019220752A publication Critical patent/JP2019220752A/en
Pending legal-status Critical Current

Links

Abstract

To provide a technique capable of determining a color gamut of image data with higher accuracy.SOLUTION: The information processing device includes: first acquisition means for acquiring format information on a format of image data; second acquisition means for acquiring range information on a luminance range of the image data; determining means for determining a color gamut of the image data on the basis of the format information and the range information.SELECTED DRAWING: Figure 4

Description

本発明は、画像データの色域を判断する情報処理装置に関する。   The present invention relates to an information processing device that determines a color gamut of image data.

近年、画像の高解像度化が進んでおり、例えば、4K2K(3840×2160、4096×2160)や8K4K(7680×4320)といった解像度の画像(画像コンテンツ)が普及しつつある。また、画像の解像度などのフォーマット情報や、画像データ(画像信号)の伝送方法について、様々な規格化団体によって定義されている。例えば、国際連合の専門機関であるITU(International Telecommunication Union)で、画像仕様に関する国際規格が定められている。具体的には、画像の解像度や色域(カラリメトリ)、フレームレート、1画素あたりのビット深度、等を規定する規格であるBT.2020などが定められている。規格で規定された情報は、メタデータ(付加情報)として画像データに付加(重畳)されて伝送される。画像データの送信機であるソース機器は、メタデータを、画像データに付加して、画像データの受信機であるシンク機器に対して送信する。シンク機器は、受信した画像データからメタデータを抽出し、メタデータに基づく画像処理を画像データに施すことで、画像データの仕様に従った表示・表現を実現する。   In recent years, the resolution of images has been increased, and for example, images (image contents) having resolutions such as 4K2K (3840 × 2160, 4096 × 2160) and 8K4K (7680 × 4320) are becoming widespread. Further, format information such as image resolution and a transmission method of image data (image signal) are defined by various standardization organizations. For example, ITU (International Telecommunication Union), which is a specialized organization of the United Nations, sets international standards regarding image specifications. More specifically, BT., Which is a standard that defines the resolution and color gamut (colorimetry) of an image, the frame rate, the bit depth per pixel, and the like. 2020 and the like are defined. Information specified by the standard is added (superimposed) to image data as metadata (additional information) and transmitted. The source device, which is the transmitter of the image data, adds the metadata to the image data and transmits the metadata to the sink device, which is the receiver of the image data. The sink device extracts metadata from the received image data and performs image processing based on the metadata on the image data, thereby realizing display and expression according to the specifications of the image data.

ここで、機器の不具合、規格への対応不備、等により、ソース機器が規格で規定された各種情報を付加せずに画像データを送信する場合がある。そのため、シンク機器は、各種情報の設定をユーザに要求したり、画像データに基づいて各種情報を判断(推定)したりすることがある。   Here, there is a case where the source device transmits image data without adding various types of information specified by the standard due to a defect of the device, an inadequate response to the standard, and the like. For this reason, the sink device may request the user to set various information, or may determine (estimate) various information based on image data.

特許文献1に開示の技術では、色域に関する情報(色域情報)が受信されない場合において、受信した画像データの同期信号から当該画像データの色域が推定される。BT.2020、BT.709、BT.601、等では、解像度と色域が1対1で規定されており、解像度から色域を推定することができる。特許文献1に開示の技術では、このような解像度と色域の関係性を利用して色域が推定される。これにより、色域情報が受信されない場合においても、受信した画像データに対し適切な画像処理を施すことが可能となり、当該画像データの仕様に従った表示を行うことが可能となる。   According to the technique disclosed in Patent Document 1, when information on a color gamut (color gamut information) is not received, the color gamut of the received image data is estimated from a synchronization signal of the received image data. BT. 2020, BT. 709, BT. In 601 and the like, the resolution and the color gamut are defined on a one-to-one basis, and the color gamut can be estimated from the resolution. According to the technique disclosed in Patent Document 1, the color gamut is estimated using such a relationship between the resolution and the color gamut. As a result, even when color gamut information is not received, it is possible to perform appropriate image processing on the received image data, and it is possible to perform display according to the specifications of the image data.

特開2009−303278号公報JP 2009-303278 A

しかしながら、BT.2100などの国際規格では、複数の解像度に対して1つの色域が対応づけられている。そして、或る規格の複数の解像度は、他の規格の解像度と重複し、それらの規格の間で色域が異なることがある。そのため、解像度から色域を推定する特許文献1の方法では、解像度から色域を一意に判断できず、色域の誤判断(誤推定)が生じることがある。   However, BT. In international standards such as 2100, one color gamut is associated with a plurality of resolutions. In addition, a plurality of resolutions of a certain standard may overlap with a resolution of another standard, and the color gamut may be different between the standards. Therefore, in the method of Patent Document 1 in which the color gamut is estimated from the resolution, the color gamut cannot be uniquely determined from the resolution, and erroneous determination (erroneous estimation) of the color gamut may occur.

具体的には、HDR(High Dynamic Range)に関して、BT.2100では、8K4Kと4K2KとFull HDが解像度として規定されており、BT.2020で定義されている色のサブセット(集合)が色域として規定されている。そして、BT.709では、Full HDが解像度として規定されており、BT.709で定
義されている色のサブセットが色域として規定されている。そのため、Full HDについては、BT.2020の色域とBT.709の色域とが候補として存在し、Full
HDから色域を一意に判断することができず、色域の誤判断が生じることがある。
Specifically, with respect to HDR (High Dynamic Range), BT. In 2100, 8K4K, 4K2K, and Full HD are defined as resolutions, and BT. A subset (set) of colors defined in 2020 is defined as a color gamut. And BT. 709 specifies Full HD as the resolution, and BT. A subset of the colors defined in 709 is defined as a color gamut. Therefore, for Full HD, BT. 2020 and BT. 709 color gamut exists as a candidate,
Since the color gamut cannot be uniquely determined from the HD, an erroneous determination of the color gamut may occur.

そして、色域が誤判断されると、適切な画像処理が行われず、画像データの意図する色から逸脱した色が表示されることがある。   If the color gamut is incorrectly determined, appropriate image processing is not performed, and a color deviating from the intended color of the image data may be displayed.

本発明は、画像データの色域をより高精度に判断できる技術を提供することを目的とする。   An object of the present invention is to provide a technique capable of determining the color gamut of image data with higher accuracy.

本発明の第1の態様は、
画像データのフォーマットに関するフォーマット情報を取得する第1取得手段と、
前記画像データの輝度レンジに関するレンジ情報を取得する第2取得手段と、
前記フォーマット情報と前記レンジ情報に基づいて前記画像データの色域を判断する判断手段と、
を有することを特徴とする情報処理装置である。
A first aspect of the present invention provides:
First acquisition means for acquiring format information on a format of image data;
Second acquisition means for acquiring range information on a luminance range of the image data;
Determining means for determining a color gamut of the image data based on the format information and the range information,
An information processing apparatus characterized by having:

本発明の第2の態様は、
画像データのフォーマットに関するフォーマット情報を取得するステップと、
前記画像データの輝度レンジに関するレンジ情報を取得するステップと、
前記フォーマット情報と前記レンジ情報に基づいて前記画像データの色域を判断するステップと、
を有することを特徴とする情報処理方法である。
A second aspect of the present invention provides:
Obtaining format information about the format of the image data;
Obtaining range information on a luminance range of the image data;
Determining a color gamut of the image data based on the format information and the range information;
An information processing method comprising:

本発明の第3の態様は、コンピュータを、上述した情報処理装置の各手段として機能させるためのプログラムである。   A third aspect of the present invention is a program for causing a computer to function as each unit of the information processing device described above.

本発明によれば、画像データの色域をより高精度に判断できる。   According to the present invention, the color gamut of image data can be determined with higher accuracy.

本実施形態に係るプロジェクタの構成例を示すブロック図FIG. 2 is a block diagram illustrating a configuration example of a projector according to the embodiment. 本実施形態に係るプロジェクタの動作例を示すフローチャート4 is a flowchart illustrating an operation example of the projector according to the embodiment. 本実施形態に係る画像受信部の内部構成例を示すブロック図FIG. 2 is a block diagram illustrating an example of an internal configuration of an image receiving unit according to the embodiment. 本実施形態に係るプロジェクタの動作例を示すフローチャート4 is a flowchart illustrating an operation example of the projector according to the embodiment. 本実施形態に係る解像度とHDRメタデータと色域の関係例を示す図4 is a diagram illustrating an example of a relationship between resolution, HDR metadata, and a color gamut according to the embodiment 本実施形態に係るHDRメタデータのデータ構造例を示す図FIG. 2 is a diagram illustrating an example of a data structure of HDR metadata according to the embodiment.

以下、本発明の実施形態について説明する。以下では、本実施形態に係る情報処理装置を有するプロジェクタの例を説明する。   Hereinafter, embodiments of the present invention will be described. Hereinafter, an example of a projector including the information processing apparatus according to the present embodiment will be described.

<プロジェクタの概要説明>
図1は、本実施形態に係るプロジェクタ100の構成例を示すブロック図である。制御部101は、プロジェクタ100の各機能部を制御する。制御部101は、各機能部に対してバス133を用いて接続されており、各機能部に対する制御指示の送信、各機能部との間でのデータの送受信、等のアクセスを行うことができる。
<Overview of projector>
FIG. 1 is a block diagram illustrating a configuration example of a projector 100 according to the present embodiment. The control unit 101 controls each functional unit of the projector 100. The control unit 101 is connected to each function unit using the bus 133, and can perform access such as transmission of a control instruction to each function unit, transmission and reception of data with each function unit, and the like. .

操作部102は、ユーザからの操作を受け付ける。電源部103は、プロジェクタ10
0の各機能部への電力供給を制御する。液晶部104は、1枚の液晶パネルや3枚の液晶パネルなどで構成されており、液晶パネル上に画像(画像に対応する透過率分布)を形成する。本実施形態では、液晶部104(液晶パネル)は、4096Pixel×2160Lineの解像度を有するものとする。液晶駆動部105は、液晶駆動部105に入力された画像データ(画像信号)に基づいて、液晶部104に画像が形成されるように液晶部104を駆動する。光源106は、液晶部104に光を供給する。投影光学系107は、光源106から発せられた光を液晶部104に供給することにより得られた光学像を、不図示のスクリーン(表示面)に投影する。光源制御部108は、光源106の光量などを制御する。光学系制御部109は、投影光学系107のズームレンズやフォーカスレンズなどの動作を制御し、投影画像(投影光学系107の投影によってスクリーン上に表示された画像)のズーム倍率や焦点調整などを行う。
The operation unit 102 receives an operation from a user. The power supply unit 103 is connected to the projector 10
0 controls the power supply to each functional unit. The liquid crystal unit 104 includes one liquid crystal panel, three liquid crystal panels, and the like, and forms an image (a transmittance distribution corresponding to the image) on the liquid crystal panel. In the present embodiment, it is assumed that the liquid crystal unit 104 (liquid crystal panel) has a resolution of 4096 Pixel × 2160 Line. The liquid crystal driving unit 105 drives the liquid crystal unit 104 based on the image data (image signal) input to the liquid crystal driving unit 105 so that an image is formed on the liquid crystal unit 104. The light source 106 supplies light to the liquid crystal unit 104. The projection optical system 107 projects an optical image obtained by supplying light emitted from the light source 106 to the liquid crystal unit 104 on a screen (display surface) (not shown). The light source control unit 108 controls the light amount of the light source 106 and the like. The optical system control unit 109 controls operations of a zoom lens and a focus lens of the projection optical system 107, and adjusts a zoom magnification and a focus of a projection image (an image displayed on a screen by the projection of the projection optical system 107). Do.

画像受信部110,111は、外部装置から画像データ(画像信号)を受信(取得)する。外部装置は、例えば、BD(Blu−ray(登録商標))レコーダやSTB(Set Top Box)などであり、ITUが規定するデジタル放送のデータ方式に基づくデジタル画像信号を受信して送信可能な装置である。画像受信部110,111は、例えば、HDMI(High−Definition Multimedia Interface)(登録商標)などの入力端子である。   The image receiving units 110 and 111 receive (acquire) image data (image signals) from an external device. The external device is, for example, a BD (Blu-ray (registered trademark)) recorder, an STB (Set Top Box), or the like, and is a device that can receive and transmit a digital image signal based on a digital broadcasting data system defined by the ITU. It is. The image receiving units 110 and 111 are input terminals such as, for example, HDMI (High-Definition Multimedia Interface) (registered trademark).

画像インターフェース規格の種類によっては、画像データの伝送方式や信号線数などが定められている。例えば、画素を構成するためのデータ信号とクロック信号とを分離して伝送するセパレートクロック方式、クロック信号をデータ信号に埋め込むエンベデッドクロック方式、等が存在する。HDMIではセパレートクロック方式が採用されており、HDMI入力端子では、伝送されるクロック信号に基づいてデータ信号が受信される。   Depending on the type of image interface standard, the transmission method of image data, the number of signal lines, and the like are determined. For example, there are a separate clock system for separating and transmitting a data signal and a clock signal for forming a pixel, an embedded clock system for embedding a clock signal in a data signal, and the like. HDMI employs a separate clock system, and a data signal is received at an HDMI input terminal based on a transmitted clock signal.

画像受信部110,111の内部には、プロジェクタ100が受信可能な画像データのフォーマットに関するフォーマット情報を示すEDID(Extended Display Identification Data)(不図示)が保持されている。そして、画像受信部110,111は、外部装置からの要求に基づいてEDIDを外部装置に通知することができる。また、外部装置との接続ライン内にHPD(Hot Plug Detect)ラインが含まれており、画像受信部110,111は、自身と外部装置が接続されたことをHPDラインを介して外部装置に通知することができる。さらに、画像受信部110,111は、受信した画像データについて、測定、画像フォーマットの解析、画像データに付加(重畳)されたメタデータの取得(抽出)、等を行うこともできる。画像受信部110,111に接続される外部装置は、EDIDに含まれるフォーマット情報(解像度、フレームレート、ビット深度、HDRコンテンツへの対応可否、等の情報)に基づいて画像データを出力する。   Inside the image receiving units 110 and 111, an Extended Display Identification Data (EDID) (not shown) indicating format information on a format of image data receivable by the projector 100 is held. Then, the image receiving units 110 and 111 can notify the external device of the EDID based on a request from the external device. In addition, an HPD (Hot Plug Detect) line is included in the connection line with the external device, and the image receiving units 110 and 111 notify the external device via the HPD line that the image receiving units 110 and 111 are connected to the external device. can do. Furthermore, the image receiving units 110 and 111 can also perform measurement, analysis of an image format, acquisition (extraction) of metadata added (superimposed) on the image data, and the like for the received image data. External devices connected to the image receiving units 110 and 111 output image data based on format information (information such as resolution, frame rate, bit depth, and support for HDR content, etc.) included in the EDID.

USBインターフェース112は、外部との間で画像データ(画像ファイル)などの各種データの送受信を行う。USBインターフェース112には、ポインティングデバイス、キーボード、USB型のフラッシュメモリ、等が接続されることもある。通信部114は、イントラネットやインターネットなどとの間で、画像データ(画像ファイル)などの各種データ、各種命令信号、等の送受信を行う。例えば、通信部114は、有線LANや無線LANなどの通信デバイスである。内部メモリ115は、画像データ、ユーザ設定データ、等の各種データ(各種ファイル)を記憶する。内部メモリ115は、例えば、半導
体メモリやハードディスクなどである。
The USB interface 112 transmits and receives various data such as image data (image files) to and from the outside. A pointing device, a keyboard, a USB flash memory, or the like may be connected to the USB interface 112. The communication unit 114 transmits and receives various data such as image data (image files) and various command signals to and from an intranet or the Internet. For example, the communication unit 114 is a communication device such as a wired LAN or a wireless LAN. The internal memory 115 stores various data (various files) such as image data and user setting data. The internal memory 115 is, for example, a semiconductor memory or a hard disk.

画像処理部116は、画像処理部116に入力された画像データに対して、各種画像処理を施す。例えば、画像処理部116は、画像データの画素数を液晶パネルの画素数に合うように変換したり、液晶パネルの交流駆動のために、画像データのフレーム数とフレー
ムレートを2倍にしたりする。また、画像処理部116は、好適な画像表示のための他の画像処理(輝度補正処理や色補正処理など)を行う。液晶パネルの交流駆動では、液晶の印加電圧が正電圧でも負電圧でも画像(画像に対応する透過率分布)を形成できるという液晶パネルの特性を利用して、印加電圧が正電圧と負電圧の間で交互に切り替えられる。このとき、液晶駆動部105は、液晶部104に対して正電圧用の駆動信号と負電圧用の駆動信号とを交互に出力する必要があるため、画像処理部116は、画像データのフレーム数とフレームレートを2倍にする。液晶駆動部105は、画像処理部116により得られた画像データ(処理画像データ)に基づいて駆動信号を生成して、生成した駆動信号で液晶部104を駆動する。
The image processing unit 116 performs various types of image processing on the image data input to the image processing unit 116. For example, the image processing unit 116 converts the number of pixels of the image data to match the number of pixels of the liquid crystal panel, or doubles the number of frames and the frame rate of the image data for AC driving of the liquid crystal panel. . Further, the image processing unit 116 performs other image processing (such as luminance correction processing and color correction processing) for displaying a suitable image. In the AC driving of the liquid crystal panel, the applied voltage of the liquid crystal panel can be formed by using the characteristic of the liquid crystal panel that an image (transmittance distribution corresponding to the image) can be formed even when the applied voltage of the liquid crystal is a positive voltage or a negative voltage. Can be alternately switched between. At this time, since the liquid crystal driving unit 105 needs to alternately output the driving signal for the positive voltage and the driving signal for the negative voltage to the liquid crystal unit 104, the image processing unit 116 determines the number of frames of the image data. And double the frame rate. The liquid crystal driving unit 105 generates a driving signal based on the image data (processed image data) obtained by the image processing unit 116, and drives the liquid crystal unit 104 with the generated driving signal.

スクリーンに対して斜め方向から画像(光学像)を投影すると、台形状などに歪んだ投影画像が得られることがある。画像処理部116は、そのような歪みを解消するように画像の形状を変形するキーストーン補正も行う。キーストーン補正では、液晶パネルに表示される画像の水平方向の倍率(拡大率や縮小率)と、当該画像の垂直方向の倍率との少なくとも一方が変更される。これにより、液晶パネル上での画像の歪みが、投影時に生じる画像の歪みによって相殺され、歪みが低減された(歪みの無い)投影画像が得られる。例えば、正常なアスペクト比の長方形画像に近い(等しい)投影画像が得られる。キーストーン補正は、後述する傾きセンサ117により得られた傾き角に基づいて自動的に行われてもよいし、ユーザが操作部102などを操作することにより行われてもよい。   When an image (optical image) is projected on a screen from an oblique direction, a projected image distorted in a trapezoidal shape or the like may be obtained. The image processing unit 116 also performs keystone correction for deforming the shape of the image so as to eliminate such distortion. In the keystone correction, at least one of a horizontal magnification (an enlargement ratio or a reduction ratio) of an image displayed on the liquid crystal panel and a vertical magnification of the image is changed. Thereby, the distortion of the image on the liquid crystal panel is canceled by the distortion of the image generated at the time of projection, and a projection image with reduced distortion (no distortion) is obtained. For example, a projected image close to (equal to) a rectangular image having a normal aspect ratio is obtained. The keystone correction may be automatically performed based on a tilt angle obtained by a tilt sensor 117 described later, or may be performed by a user operating the operation unit 102 or the like.

傾きセンサ117は、プロジェクタ100の傾きを検出する。タイマ118は、プロジェクタ100の動作時間、各機能部の動作時間、等を検出する。温度計119は、光源106の温度、液晶部104の温度、外気温、等を計測する。冷却部120は、プロジェクタ100内の熱を外部に放出するなどしてプロジェクタ100を冷却する。冷却部120は、例えば、ヒートシンクとファンにより構成される。ファイル再生部121は、制御部101からの指示に基づき、エンコードされたファイルデータなどをデコードする。赤外線受信部122は、プロジェクタ100付属のリモコンやその他の機器からの赤外線を受信し、当該赤外線に応じた信号を制御部101に送る。赤外線受信部122は、例えば、プロジェクタ100の前後方向等の複数箇所にそれぞれ設置されている。   The tilt sensor 117 detects the tilt of the projector 100. The timer 118 detects the operation time of the projector 100, the operation time of each functional unit, and the like. The thermometer 119 measures the temperature of the light source 106, the temperature of the liquid crystal unit 104, the outside air temperature, and the like. The cooling unit 120 cools the projector 100 by, for example, releasing the heat inside the projector 100 to the outside. The cooling unit 120 includes, for example, a heat sink and a fan. The file reproducing unit 121 decodes encoded file data or the like based on an instruction from the control unit 101. The infrared receiving unit 122 receives infrared light from a remote controller or other device attached to the projector 100 and sends a signal corresponding to the infrared light to the control unit 101. The infrared receivers 122 are respectively installed at a plurality of locations in the front-rear direction of the projector 100, for example.

焦点検出部123は、プロジェクタ100とスクリーンの間の距離を検出し、投影する光の焦点距離を検出する。撮像部124は、スクリーンの方向を撮像する。スクリーン測光部125は、スクリーンにより反射される光の光量や輝度を計測する。表示部128は、プロジェクタ100本体に配置され、プロジェクタ100の状態や警告などを表示する。表示制御部129は、表示部128による表示を制御する。バッテリ130は、外部からプロジェクタ100(後述する電源入力部131)に電力が供給されない場合などにおいて、電源部103に電力を供給する。電力を供給するバッテリである。電源入力部131は、外部からの交流電力の電圧を所定の電圧に整流し、整流後の電力を電源部103に供給する。RAM132は、内部メモリ115に格納されたプログラムが展開されるメモリ、画像データのフレームメモリ、等として使用される。   The focus detection unit 123 detects a distance between the projector 100 and the screen, and detects a focal length of light to be projected. The imaging unit 124 captures an image of the screen direction. The screen photometer 125 measures the amount of light and the brightness of the light reflected by the screen. The display unit 128 is arranged on the main body of the projector 100, and displays the status of the projector 100, a warning, and the like. The display control unit 129 controls display on the display unit 128. The battery 130 supplies power to the power supply unit 103 when power is not supplied from the outside to the projector 100 (power supply input unit 131 described later). It is a battery that supplies power. The power input unit 131 rectifies the voltage of the AC power from the outside into a predetermined voltage, and supplies the rectified power to the power supply unit 103. The RAM 132 is used as a memory in which programs stored in the internal memory 115 are expanded, a frame memory for image data, and the like.

<プロジェクタの一般的な動作>
プロジェクタ100の通常の動作例について説明する。制御部101は、操作部102により電源ONの指示がされたことに応じて、各機能部に電力を供給するための指示を電源部103に対して出力し、各機能部の状態を待機状態にする。各機能部に電力が供給された後、制御部101は、光源106の発光を開始するための指示を光源制御部108に対して出力する。次に、制御部101は、焦点検出部123により得られた焦点の情報などに基づいて、投影光学系107を調整するための指示を光学系制御部109に対して出力する。そして、光学系制御部109は、スクリーン上で投影光が結像するように、投影光学系107のズームレンズやフォーカスレンズを動作させる。これにより、投影の準備
が整う。
<General operation of projector>
A normal operation example of the projector 100 will be described. The control unit 101 outputs an instruction to supply power to each functional unit to the power supply unit 103 in response to a power-on instruction from the operation unit 102, and sets the state of each functional unit to a standby state. To After the power is supplied to each functional unit, the control unit 101 outputs an instruction to start the light emission of the light source 106 to the light source control unit 108. Next, the control unit 101 outputs an instruction for adjusting the projection optical system 107 to the optical system control unit 109 based on information on the focus obtained by the focus detection unit 123 and the like. Then, the optical system control unit 109 operates the zoom lens and the focus lens of the projection optical system 107 so that the projection light forms an image on the screen. This prepares for projection.

次に、画像処理部116は、例えば画像受信部110に入力された画像データに、所定のレイアウトで画像を配置する合成処理、液晶部104に適した解像度への解像度変換、ガンマ補正、輝度ムラ低減補正、キーストーン補正、等を施す。そして、液晶駆動部105は、画像処理部116による画像処理後の画像データ(処理画像データ)に基づいて、液晶部104を駆動する。これにより、処理画像データに基づく画像(画像に対応する透過率分布)が液晶部104に形成される。   Next, the image processing unit 116 performs, for example, a combining process of arranging an image in a predetermined layout on the image data input to the image receiving unit 110, a resolution conversion to a resolution suitable for the liquid crystal unit 104, a gamma correction, and a brightness unevenness. Apply reduction correction, keystone correction, etc. Then, the liquid crystal driving section 105 drives the liquid crystal section 104 based on the image data (processed image data) after the image processing by the image processing section 116. As a result, an image (transmittance distribution corresponding to the image) based on the processed image data is formed on the liquid crystal unit 104.

そして、光源106から発せられた光は、液晶部104を透過して投影光学系107に導かれ、投影光学系107を透過してスクリーンに投影される。投影中において、制御部101は、光源106などの温度を温度計119を用いて検出し、検出結果に基づいて冷却部120を動作させる。例えば、制御部101は、光源106の温度が40度以上になったときに、光源106が冷却されるように冷却部120を動作させる。   Then, the light emitted from the light source 106 passes through the liquid crystal unit 104, is guided to the projection optical system 107, passes through the projection optical system 107, and is projected on a screen. During projection, the control unit 101 detects the temperature of the light source 106 and the like using the thermometer 119, and operates the cooling unit 120 based on the detection result. For example, the control unit 101 operates the cooling unit 120 so that the light source 106 is cooled when the temperature of the light source 106 becomes 40 degrees or higher.

操作部102により電源OFFの指示がされると、制御部101は、各機能部に終了処理を行うための指示を出力する。そして、終了の準備が整うと、電源部103は、各機能部への電源供給を終了する。冷却部120は、電源OFFの後にしばらく動作を続け、プロジェクタ100を冷却する。   When a power-off instruction is given by the operation unit 102, the control unit 101 outputs an instruction for performing termination processing to each functional unit. Then, when the preparation for the termination is completed, the power supply unit 103 terminates the power supply to each functional unit. The cooling unit 120 continues to operate for a while after the power is turned off, and cools the projector 100.

<画像データ受信から画像投影までの動作>
画像受信部110で受信した画像データに基づく画像を投影する動作例について図2のフローチャートを用いて説明する。なお、上述したように、プロジェクタ100は2つの画像受信部110,111を有する。画像受信部111で受信した画像データに基づく画像を投影する場合の動作は、画像受信部110で受信した画像データに基づく画像を投影する場合の動作と同様である。
<Operation from image data reception to image projection>
An operation example of projecting an image based on the image data received by the image receiving unit 110 will be described with reference to the flowchart in FIG. As described above, the projector 100 has the two image receiving units 110 and 111. The operation when projecting an image based on the image data received by the image receiving unit 111 is the same as the operation when projecting an image based on the image data received by the image receiving unit 110.

ステップS101にて、制御部101は、画像受信部110を監視(ポーリング)して、画像受信部110にHDMIケーブルを介して外部装置が接続されたことを検出する。なお、画像受信部110は、外部装置の接続に応じて所定の信号(割り込み信号)を制御部101に出力してもよい。そして、制御部101は、画像受信部110からの割り込み信号があった場合に、外部装置が接続されたと判断してもよい。   In step S101, the control unit 101 monitors (polls) the image receiving unit 110 and detects that an external device is connected to the image receiving unit 110 via an HDMI cable. Note that the image receiving unit 110 may output a predetermined signal (interrupt signal) to the control unit 101 according to the connection of the external device. Then, when there is an interrupt signal from the image receiving unit 110, the control unit 101 may determine that an external device is connected.

外部装置の接続が検出されると、ステップS102にて、制御部101は、HPD信号の出力(画像受信部110と外部装置が接続されたことの通知)のための指示を、画像受信部110に対して出力する。これにより、画像受信部110は、HPD信号を有効化(アサート)し、HDMIケーブルの複数のラインのうち、HPD信号用の割り当て(アサイン)がされているHPDラインを介して外部装置にHPD信号を出力する。   When the connection of the external device is detected, in step S102, the control unit 101 issues an instruction for outputting the HPD signal (a notification that the image receiving unit 110 and the external device are connected) to the image receiving unit 110. Output to As a result, the image receiving unit 110 enables (asserts) the HPD signal, and sends the HPD signal to an external device via the HPD line assigned (assigned) for the HPD signal among a plurality of lines of the HDMI cable. Is output.

HPD信号を受信した外部装置は、プロジェクタ100に対してEDIDを要求する。ステップS103にて、画像受信部110は、外部装置からEDIDの要求があると、画像受信部110内部のRAM(不図示)に保持されているEDIDを読み出し、読み出したEDIDを外部装置に出力(通知)する。具体的には、画像受信部110は、HDMIケーブルの複数のラインのうち、EDID用の割り当て(アサイン)がされているDDC(Display Data Channel)ラインを介して外部装置にEDIDを出力する。外部装置は、プロジェクタ100からのEDIDの取得(読み出し)に成功すると、取得したEDIDに含まれているフォーマット情報などに基づいて画像データの送信を開始する。   The external device that has received the HPD signal requests the projector 100 for EDID. In step S103, when receiving an EDID request from the external device, the image receiving unit 110 reads the EDID held in the RAM (not shown) inside the image receiving unit 110, and outputs the read EDID to the external device ( Notice. Specifically, the image receiving unit 110 outputs EDID to an external device via a DDC (Display Data Channel) line assigned (assigned) for EDID among a plurality of lines of the HDMI cable. When the external device succeeds in acquiring (reading) the EDID from the projector 100, the external device starts transmitting image data based on the format information included in the acquired EDID.

外部装置からの画像データの送信が開始すると、ステップS104にて、画像受信部1
10は、外部装置から送信された画像データの受信処理を行う。
When the transmission of the image data from the external device is started, in step S104, the image receiving unit 1
Reference numeral 10 performs reception processing of image data transmitted from the external device.

ステップS104の受信処理について、図3を用いて詳細に説明する。図3は、画像受信部110の内部構成例を示すブロック図である。HDMIではTMDS(Transition Minimized Differential Signaling)方式が採用されており、同期信号受信部1101は、画像データrxDATAのTMDSクロック信号rxSYNCを受信する。CR(Clock Recovery)部1102は、同期信号受信部1101で受信されたTMDSクロック信号rxSYNCに基づいて、画像データrxDATAを受信(サンプリング)するためのクロック信号recCLKを生成する。CR部1102は、PLL回路などを用いて構成される。画像データ受信部1103は、CR部1102で生成されたクロック信号recCLKに基づいて画像データrxDATAを受信する。   The receiving process in step S104 will be described in detail with reference to FIG. FIG. 3 is a block diagram illustrating an example of the internal configuration of the image receiving unit 110. In HDMI, a TMDS (Transition Minimized Differential Signaling) method is adopted, and a synchronization signal receiving unit 1101 receives a TMDS clock signal rxSYNC of image data rxDATA. A CR (Clock Recovery) unit 1102 generates a clock signal recCLK for receiving (sampling) the image data rxDATA based on the TMDS clock signal rxSYNC received by the synchronization signal receiving unit 1101. The CR unit 1102 is configured using a PLL circuit or the like. The image data receiving unit 1103 receives the image data rxDATA based on the clock signal recCLK generated by the CR unit 1102.

画像データrxDATAには、水平同期タイミング、垂直同期タイミング、有効表示タイミング、等を示す情報が付加されている。画像受信部110(例えば同期信号受信部1101)は、周波数カウンタ回路を用いて、それらの情報やTMDSクロック信号から、同期周波数や解像度などのフォーマットに関するフォーマット情報fmtDATAを計測(取得)することができる。取得したフォーマット情報fmtDATAは、FMTデータ保持部1104へ出力され、制御部101などの他の機能部が読み出し可能な状態でFMTデータ保持部1104に記録される。   Information indicating horizontal synchronization timing, vertical synchronization timing, effective display timing, and the like is added to the image data rxDATA. The image receiving unit 110 (for example, the synchronization signal receiving unit 1101) can use a frequency counter circuit to measure (acquire) format information fmtDATA relating to a format such as a synchronization frequency and a resolution from the information and the TMDS clock signal. . The acquired format information fmtDATA is output to the FMT data holding unit 1104, and is recorded in the FMT data holding unit 1104 in a state where other functional units such as the control unit 101 can read out.

さらに、画像受信部110(例えば画像データ受信部1103)は、画像データrxDATAのブランキング期間に含まれるメタデータmetaDATAを取得することもできる。取得されたメタデータmetaDATAは、メタデータmetaDATAが取得されたことを示す取得情報と共に、メタデータ保持部1105へ出力され、制御部101などの他の機能部が読み出し可能な状態でメタデータ保持部1105に記録される。メタデータmetaDATAに含まれる情報の種別ごとに保持領域が定められており、種別ごとに、対応する保持領域に格納された情報が、取得した情報で更新(上書き)される。その際、メタデータmetaDATAが取得されたことを示す上記取得情報も更新される。画像データ受信部1103は、受信した水平同期タイミング、垂直同期タイミング、有効表示タイミング、等を示す情報に基づいて、画像データrxDATAを、同期信号と共に、画像データvideoDATAとして画像処理部116へ出力する。同期信号は水平同期信号や垂直同期信号である。   Further, the image receiving unit 110 (for example, the image data receiving unit 1103) can also acquire metadata metaDATA included in a blanking period of the image data rxDATA. The acquired metadata metaDATA is output to the metadata holding unit 1105 together with the acquisition information indicating that the metadata metaDATA has been acquired, and the metadata holding unit 1105 is readable by other functional units such as the control unit 101. 1105. A holding area is determined for each type of information included in the metadata metaDATA, and information stored in a corresponding holding area is updated (overwritten) with the acquired information for each type. At this time, the acquisition information indicating that the metadata metaDATA has been acquired is also updated. The image data receiving unit 1103 outputs the image data rxDATA together with the synchronization signal to the image processing unit 116 as image data videoDATA based on the received information indicating the horizontal synchronization timing, the vertical synchronization timing, the effective display timing, and the like. The synchronization signal is a horizontal synchronization signal or a vertical synchronization signal.

ステップS104の受信処理の次に、ステップS105にて、制御部101は、FMTデータ保持部1104とメタデータ保持部1105から各データをRAM132へ読み出す。RAM132へメタデータを読み出す処理では、制御部101は、メタデータ保持部1105で保持されている取得情報(メタデータが取得されたか否かを示す情報)をRAM132へ読み出す。そして、制御部101は、メタデータが取得されたことを示す取得情報が読み出された場合に、メタデータをRAM132へ読み出す。   Subsequent to the reception processing in step S104, in step S105, the control unit 101 reads each data from the FMT data holding unit 1104 and the metadata holding unit 1105 to the RAM 132. In the process of reading the metadata into the RAM 132, the control unit 101 reads out the acquisition information (information indicating whether or not the metadata has been acquired) held in the metadata holding unit 1105 into the RAM 132. Then, when the acquisition information indicating that the metadata has been acquired is read, the control unit 101 reads the metadata to the RAM 132.

次に、ステップS106にて、制御部101は、色域(カラリメトリ)適用処理を実行するための指示を画像処理部116に対して出力する。そして、画像処理部116は、制御部101からの指示に応じて、画像処理部116に入力された画像データに色域適用処理を施す。通常、制御部101は、画像受信部110からRAM132へ読み出したメタデータに含まれる色域情報(画像受信部110で受信された画像データの色域に関する情報)に基づく色域適用処理の実行を、画像処理部116に対して指示する。例えば、複数の色域にそれぞれ対応する複数のLUT(Lookup Table)が予め定められている。そして、制御部101は、メタデータ保持部1105から読み出した色域情報に応じて複数のLUT(または複数の色域)のいずれかを選択し、選択結果に応じた指示を画
像処理部116に対して出力する。その結果、画像処理部116では、色域情報に応じたLUTを用いた変換処理を含む色域適用処理が行われる。LUTは、プロジェクタ100の内部システムや性能に基づいて生成されている。LUTは、画像データの画素値(色など)を変換するテーブルであり、例えばBT.2020やBT.709などの規格で規定される色域に基づく画像データをプロジェクタ100の色再現能力に合わせた画像データに変換するテーブルである。
Next, in step S106, the control unit 101 outputs an instruction for executing the color gamut (colorimetry) application process to the image processing unit 116. Then, the image processing unit 116 performs a color gamut applying process on the image data input to the image processing unit 116 according to an instruction from the control unit 101. Normally, the control unit 101 executes a color gamut application process based on color gamut information (information on the color gamut of the image data received by the image receiving unit 110) included in the metadata read from the image receiving unit 110 to the RAM 132. , To the image processing unit 116. For example, a plurality of LUTs (Lookup Tables) respectively corresponding to a plurality of color gamuts are predetermined. The control unit 101 selects one of a plurality of LUTs (or a plurality of color gamut) according to the color gamut information read from the metadata holding unit 1105, and sends an instruction corresponding to the selection result to the image processing unit 116. Output to As a result, the image processing unit 116 performs a color gamut application process including a conversion process using an LUT according to the color gamut information. The LUT is generated based on the internal system and performance of the projector 100. The LUT is a table for converting pixel values (colors and the like) of image data. 2020 and BT. 709 is a table for converting image data based on a color gamut defined by a standard such as 709 into image data that matches the color reproduction capability of the projector 100.

ステップS106では、色域情報が取得されなかった場合に、通常時の上記処理とは異なる処理(例外処理)が行われる。例外処理を含むステップS106の処理の詳細については後述する。   In step S106, when the color gamut information has not been acquired, a process (exception process) different from the above-described process in a normal state is performed. Details of the process of step S106 including the exception process will be described later.

次に、ステップS107にて、画像処理部116は、色域適用処理後の画像データに対し、画像データの解像度を液晶部104の解像度に合わせるための解像度変換処理を施す。画像処理部116は、解像度変換処理後の画像データ(処理画像データ)を液晶駆動部105へ出力する。液晶駆動部105は、処理画像データに基づいて液晶部104を駆動することにより、処理画像データに基づく画像(透過率分布)を液晶部104に形成する。   Next, in step S107, the image processing unit 116 performs a resolution conversion process on the image data after the color gamut application process so that the resolution of the image data matches the resolution of the liquid crystal unit 104. The image processing unit 116 outputs the image data (processed image data) after the resolution conversion processing to the liquid crystal driving unit 105. The liquid crystal driving unit 105 drives the liquid crystal unit 104 based on the processed image data to form an image (transmittance distribution) on the liquid crystal unit 104 based on the processed image data.

そして、ステップS108にて、投影光学系107は、光源106から発せられて液晶部104を透過した光を、スクリーンに投影する。これにより、画像受信部110で受信された画像データに基づく投影画像がスクリーンに表示される。   Then, in step S108, the projection optical system 107 projects the light emitted from the light source 106 and transmitted through the liquid crystal unit 104 onto a screen. Thereby, a projection image based on the image data received by the image receiving unit 110 is displayed on the screen.

<ステップS106における動作の詳細>
ステップS106における動作の詳細について図4のフローチャートを用いて説明する。
<Details of Operation in Step S106>
Details of the operation in step S106 will be described with reference to the flowchart in FIG.

ステップS201にて、制御部101は、画像受信部110で受信された画像データの色域に関する色域情報が取得されたか否かを判断する。具体的には、制御部101は、図2のステップS105でRAM132へ読み出した取得情報(メタデータが取得されたか否かを示す情報)を参照し、色域情報の有無を判断する。色域情報が有る(取得された)と判断された場合には、ステップS213へ処理が進められる。ステップS213にて、制御部101は、RAM132から色域情報を読み出す。そして、ステップS214にて、制御部101は、読み出した色域情報に基づいて色域を判断し、当該色域に基づく色域適用処理の実行を画像処理部116に対して指示する。ステップS213,S214の処理は、上述した通常時の処理である。一方で、色域情報が無い(取得されなかった)と判断された場合には、ステップS202へ処理が進められる。   In step S201, control unit 101 determines whether or not color gamut information regarding the color gamut of the image data received by image receiving unit 110 has been acquired. Specifically, the control unit 101 refers to the acquisition information (information indicating whether or not metadata has been acquired) read out to the RAM 132 in step S105 in FIG. 2 and determines whether or not there is color gamut information. If it is determined that there is color gamut information (acquired), the process proceeds to step S213. In step S213, control unit 101 reads color gamut information from RAM 132. Then, in step S214, control unit 101 determines a color gamut based on the read color gamut information, and instructs image processing unit 116 to execute a color gamut application process based on the color gamut. The processing of steps S213 and S214 is the above-described normal processing. On the other hand, when it is determined that there is no color gamut information (not acquired), the process proceeds to step S202.

本実施形態では、画像データ受信部1103などにより、画像受信部110で受信された画像データの輝度レンジ(ダイナミックレンジ)に関するレンジ情報の取得がさらに行われる。例えば、HDR(High Dynamic Range)に関する規格(BT.2100など)では、画像データの輝度レンジに関するHDRメタデータの扱いが規定されている。そして、BT.2100などに対応する画像データからは、HDRメタデータを取得(抽出)することができる。ステップS202〜S205の処理では、画像受信部110で受信された画像データのフォーマットに関するフォーマット情報と、当該画像データの輝度レンジに関するHDRメタデータとに基づいて、当該画像データの色域が判断(推定)される。具体的には、フォーマット情報には、画像データの解像度に関する解像度情報が含まれており、解像度情報とHDRメタデータに基づいて色域が判断される。   In the present embodiment, the image data receiving unit 1103 and the like further obtain range information on the luminance range (dynamic range) of the image data received by the image receiving unit 110. For example, a standard (such as BT.2100) relating to HDR (High Dynamic Range) specifies the handling of HDR metadata relating to the luminance range of image data. And BT. HDR metadata can be obtained (extracted) from image data corresponding to 2100 or the like. In the processing in steps S202 to S205, the color gamut of the image data is determined (estimated) based on the format information on the format of the image data received by the image receiving unit 110 and the HDR metadata on the luminance range of the image data. ) Is done. Specifically, the format information includes resolution information on the resolution of the image data, and the color gamut is determined based on the resolution information and the HDR metadata.

図5の規格表200は、ITUが定める各規格における、画像データの解像度、HDRメタデータ、及び、色域の関係を示す。符号201は規格名称を示し、符号202は解像
度を示し、符号203はHDRメタデータの有無や内容を示し、符号204は色域を示す。BT.601では、解像度は720×480、HDRメタデータは無、色域はBT.601規定範囲(BT.601で規定された色域)と規定されている。BT.709では、解像度は1920×1080(Full HD)、HDRメタデータは無、色域はBT.709規定範囲と規定されている。BT.2020では、解像度は3840×2160(4K2K)、HDRメタデータは無、色域はBT.2020規定範囲と規定されている。BT.2100では、1920×1080、3840×2160、及び、7680×4320(8K4K)の3種の解像度と、HDRメタデータが有ることとが規定されている。HDRメタデータでHDRよりも狭いSDR(Standard Dynamic Range)が示されている場合の色域として、BT.709規定範囲が規定されている。そして、HDRメタデータでHDRが示されている場合の色域として、BT.2020規定範囲が規定されている。
The standard table 200 of FIG. 5 shows the relationship between the resolution of image data, HDR metadata, and color gamut in each standard defined by the ITU. Reference numeral 201 denotes a standard name, reference numeral 202 denotes a resolution, reference numeral 203 denotes presence or absence and contents of HDR metadata, and reference numeral 204 denotes a color gamut. BT. 601, the resolution is 720 × 480, there is no HDR metadata, and the color gamut is BT. 601 (a color gamut defined by BT.601). BT. In 709, the resolution is 1920 × 1080 (Full HD), there is no HDR metadata, and the color gamut is BT. 709 range. BT. In 2020, the resolution is 3840 × 2160 (4K2K), there is no HDR metadata, and the color gamut is BT. 2020 range. BT. 2100 specifies three types of resolutions, 1920 × 1080, 3840 × 2160, and 7680 × 4320 (8K4K), and the presence of HDR metadata. As a color gamut when the SDR (Standard Dynamic Range) narrower than the HDR is indicated in the HDR metadata, BT. 709 defined range is defined. As a color gamut when HDR is indicated by HDR metadata, BT. A 2020 defined range is defined.

本実施形態では、図5に示すような関係に着目し、解像度だけでなく、HDRメタデータの有無や内容をさらに考慮することにより、高精度に(一意に)色域を特定することができる。   In the present embodiment, the color gamut can be specified with high accuracy (uniquely) by paying attention to the relationship shown in FIG. 5 and further considering not only the resolution but also the presence or absence and contents of HDR metadata. .

ステップS202にて、制御部101は、画像受信部110で受信された画像データの輝度レンジに関するHDRメタデータが取得されたか否かを判断する。具体的には、HDRメタデータが外部装置から送信されている場合に、図2のステップS105にて、制御部101は、HDRメタデータもRAM132に読み出す。ステップS202では、制御部101は、RAM132にHDRメタデータが読み出されているか否かを判断する。   In step S202, control unit 101 determines whether or not HDR metadata relating to the luminance range of the image data received by image receiving unit 110 has been acquired. Specifically, when the HDR metadata is transmitted from the external device, the control unit 101 also reads the HDR metadata into the RAM 132 in step S105 in FIG. In step S202, the control unit 101 determines whether the HDR metadata has been read out to the RAM 132.

HDRメタデータのデータ構造例について図6を用いて説明する。ここでは、CEA(Consumer Technology Association)が規定するInfoFrameに基づいてHDRメタデータが外部装置から送信されるものとし、InfoFrameに基づくデータ構造について説明する。InfoFrameでは、先頭にInfoFrameの種別を示すInfoFrame Type情報の格納領域が規定されている。続いて、データ構造のVersionを示す情報の格納領域と、HDRメタデータのデータ長を示す情報の格納領域とが順に規定されている。   An example of the data structure of the HDR metadata will be described with reference to FIG. Here, it is assumed that HDR metadata is transmitted from an external device based on the InfoFrame defined by CEA (Consumer Technology Association), and a data structure based on the InfoFrame will be described. In the InfoFrame, a storage area of InfoFrame Type information indicating the type of the InfoFrame is specified at the beginning. Next, a storage area for information indicating Version of the data structure and a storage area for information indicating the data length of HDR metadata are defined in order.

HDRメタデータ300において、格納領域301は、画像データ(階調値)と輝度の関係を示すEOTF(Electro−Optical Transfer Function)方式を示すEOTF情報の格納領域である。格納領域301の情報は、画像データの輝度レンジに関するレンジ情報でもある。本実施形態では、格納領域301に対して3ビットが割り当てられているものとする。   In the HDR metadata 300, a storage area 301 is an EOTF (Electro-Optical Transfer Function) storage area indicating an EOTF (Electro-Optical Transfer Function) system indicating a relationship between image data (gradation values) and luminance. The information in the storage area 301 is also range information on the luminance range of the image data. In the present embodiment, it is assumed that three bits are allocated to the storage area 301.

情報3011は、格納領域301に格納されるEOTF情報を示す。EOTF情報「0」はSDRに対応し、EOTF情報「1」〜「3」はHDRに対応する。EOTF情報「2」は、SMPTE(Society of Motion Picture and Television Engineers) ST.2084で規定されたEOTF方式に対応する。SMPTE ST.2084で規定されたEOTF方式は「PQ(Perceptual Quantizer)方式」などとも呼ばれる。EOTF情報「4」〜「7」に対してはEOTF方式が割り当てられていないが、各種EOTF方式を割り当てることができる。EOTF情報「0」〜「7」に割り当てられたEOTF方式を変更することもできる。   Information 3011 indicates EOTF information stored in the storage area 301. EOTF information “0” corresponds to SDR, and EOTF information “1” to “3” corresponds to HDR. The EOTF information “2” is an SMPTE (Society of Motion Picture and Television Engineers) ST. It corresponds to the EOTF method specified in 2084. SMPTE ST. The EOTF method specified in 2084 is also called “PQ (Perceptual Quantizer) method” or the like. Although the EOTF method is not assigned to the EOTF information “4” to “7”, various EOTF methods can be assigned. The EOTF method assigned to the EOTF information “0” to “7” can be changed.

ステップS202でHDRメタデータが有ると判断された場合には、ステップS203にて、制御部101は、画像受信部110で受信された画像データの輝度レンジがHDRであるか否かを判断する。具体的には、制御部101は、EOTF情報が「1」〜「3」
のいずれかであるか否かを判断する。輝度レンジがHDRであると判断された場合には、ステップS204にて、制御部101は、画像受信部110で受信された画像データの色域がBT.2020規定範囲であると判断する。輝度レンジがHDRでない(SDRである)と判断された場合には、ステップS205にて、制御部101は、画像受信部110で受信された画像データの色域がBT.709規定範囲であると判断する。EOTF情報「0」の場合には、輝度レンジがSDRであると判断される。EOTF情報が「4」〜「7」のいずれかである場合には、輝度レンジがSDRであると判断されてもよいし、輝度レンジがHDRであると判断されてもよい。ステップS202にて、HDRメタデータが無いと判断されてもよい。なお、色域が判断されると、当該色域に基づく色域適用処理の実行が画像処理部116に対して指示される。
If it is determined in step S202 that there is HDR metadata, in step S203, the control unit 101 determines whether the luminance range of the image data received by the image receiving unit 110 is HDR. Specifically, the control unit 101 determines that the EOTF information is “1” to “3”.
Is determined. If the luminance range is determined to be HDR, the control unit 101 determines in step S204 that the color gamut of the image data received by the image receiving unit 110 is BT. 2020 is determined to be within the specified range. If it is determined that the luminance range is not HDR (is SDR), in step S205, the control unit 101 determines that the color gamut of the image data received by the image receiving unit 110 is BT. It is determined that the value falls within the 709 specified range. If the EOTF information is “0”, it is determined that the luminance range is SDR. When the EOTF information is any of “4” to “7”, the luminance range may be determined to be SDR, or the luminance range may be determined to be HDR. In step S202, it may be determined that there is no HDR metadata. When the color gamut is determined, the image processing unit 116 is instructed to execute a color gamut application process based on the color gamut.

ステップS202でHDRメタデータが無いと判断された場合には、ステップS206〜S212において、制御部101は、画像受信部110で受信された画像データの解像度に関する解像度情報に基づいて、当該画像データの色域を判断する。解像度情報は、図2のステップS105でFMTデータ保持部1104からRAM132へ読み出されており、制御部101は、RAM132へ読み出された解像度情報を参照する。   If it is determined in step S202 that there is no HDR metadata, in steps S206 to S212, the control unit 101 determines whether or not the image data of the image data based on the resolution of the image data received by the image receiving unit 110. Determine the color gamut. The resolution information has been read from the FMT data holding unit 1104 to the RAM 132 in step S105 of FIG. 2, and the control unit 101 refers to the resolution information read to the RAM 132.

ステップS206にて、制御部101は、解像度情報に基づいて、画像受信部110で受信された画像データの解像度がBT.601の規定(720×480)に合致するか否かを判断する。なお、ここではBT.601に対応する垂直有効ライン数480を判断に用いているが、BT.601では垂直総ライン数のみが規定されているため、垂直総ライン数(525ラインや625ラインなど)を判断に用いてもよい。解像度がBT.601の規定に合致すると判断された場合には、ステップS207にて、制御部101は、画像受信部110で受信された画像データの色域がBT.601規定範囲であると判断する。   In step S206, control unit 101 determines that the resolution of the image data received by image receiving unit 110 is BT. A determination is made as to whether or not the data conforms to the rule of 601 (720 × 480). Here, BT. Although the number 480 of vertical effective lines corresponding to the BT. Since only the total number of vertical lines is defined in 601, the total number of vertical lines (525 lines, 625 lines, etc.) may be used for the determination. The resolution is BT. If the control unit 101 determines that the color gamut of the image data received by the image receiving unit 110 is equal to the BT. 601 is determined to be within the specified range.

ステップS206にて解像度がBT.601の規定に合致しないと判断された場合には、ステップS208にて、制御部101は、画像受信部110で受信された画像データの解像度がBT.709の規定(1920×1080)に合致するか否かを判断する。解像度がBT.709の規定に合致すると判断された場合には、ステップS209にて、制御部101は、画像受信部110で受信された画像データの色域がBT.709規定範囲であると判断する。   In step S206, when the resolution is BT. If it is determined that the resolution of the image data received by the image receiving unit 110 is BT. Judgment is made as to whether or not it conforms to the rules of 709 (1920 × 1080). The resolution is BT. If the control unit 101 determines that the color gamut of the image data received by the image receiving unit 110 is BT. It is determined that the value falls within the 709 specified range.

ステップS208にて解像度がBT.709の規定に合致しないと判断された場合には、ステップS210にて、制御部101は、画像受信部110で受信された画像データの解像度がBT.2020の規定(3840×2160)に合致するか否かを判断する。解像度がBT.2020の規定に合致すると判断された場合には、ステップS211にて、制御部101は、画像受信部110で受信された画像データの色域がBT.2020規定範囲であると判断する。   In step S208, when the resolution is BT. If the control unit 101 determines that the resolution of the image data received by the image receiving unit 110 is BT. Then, it is determined whether or not the data conforms to the rules of 2020 (3840 × 2160). The resolution is BT. If the control unit 101 determines that the color gamut of the image data received by the image receiving unit 110 is BT. 2020 is determined to be within the specified range.

ステップS210にて解像度がBT.2020の規定に合致しないと判断された場合には、画像受信部110で受信された画像データの規格は、BT.601、BT.709、及び、BT.2020のいずれでもない。そのため、ステップS212にて、制御部101は、画像受信部110で受信された画像データの色域がBT.709規定範囲であると判断する。なお、ステップS212にて、他の色域が採用されてもよい。   If the resolution is BT. If it is determined that the image data does not conform to the rules of BT.2020, the standard of the image data received by the image receiving unit 110 is BT. 601, BT. 709 and BT. 2020. Therefore, in step S212, control unit 101 determines that the color gamut of the image data received by image receiving unit 110 is BT. It is determined that the value falls within the 709 specified range. In step S212, another color gamut may be adopted.

以上述べたように、本実施形態によれば、レンジ情報の有無や内容をさらに考慮することにより、画像データの色域をより高精度に判断できる。具体的には、色域情報が取得されず、且つ、想定される複数の規格がBT.2100などを含む状況においても、色域を高精度に判断(推定)できる。   As described above, according to the present embodiment, the color gamut of the image data can be determined with higher accuracy by further considering the presence or absence and the content of the range information. Specifically, color gamut information is not obtained, and a plurality of assumed standards are BT. The color gamut can be determined (estimated) with high accuracy even in situations including 2100 and the like.

本実施形態はあくまで一例であり、本発明の要旨の範囲内で本実施形態の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。例えば、各種情報(フォーマット情報、色域情報、レンジ情報、等)、各種情報の取得方法、画像データの各種規格、画像データの各種解像度、画像データの各種色域、等は一例であり、種々の変形が可能である。   The present embodiment is merely an example, and the present invention includes a configuration obtained by appropriately modifying or changing the configuration of the present embodiment within the scope of the present invention. For example, various information (format information, color gamut information, range information, and the like), a method of acquiring various information, various standards of image data, various resolutions of image data, various color gamuts of image data, and the like are examples. Is possible.

図2のフローチャートではメタデータやフォーマット情報の読み出し(ステップS105)が1回のみ行われるが、これに限られない。例えば、HDRメタデータは、画像データのフレーム毎に送信されることがある。そのため、各フレームの送信タイミングに同期してフレーム毎にHDRメタデータの取得とRAM132への読み出しとを行い、フレーム毎に画像データの色域を判断(推定)してもよい。   In the flowchart of FIG. 2, the reading of the metadata and the format information (step S105) is performed only once, but is not limited to this. For example, HDR metadata may be transmitted for each frame of image data. Therefore, the HDR metadata may be obtained and read into the RAM 132 for each frame in synchronization with the transmission timing of each frame, and the color gamut of the image data may be determined (estimated) for each frame.

フォーマット情報に含まれる、画像データのビット深度に関するビット深度情報をさらに考慮して、色域を判断(推定)してもよい。具体的には、HDRに関して、ビット深度が10ビット以上のビット深度であることが規定されている。このため、ステップS202にて、制御部101は、画像受信部110で受信された画像データのビット深度が10ビット以上のビット深度であるか否かをさらに判断してもよい。そして、ビット深度が10ビット未満のビット深度である場合に、HDRメタデータの有無に拘わらずに、ステップS206へ処理が進められてもよい。つまり、ビット深度が10未満のビット深度である場合に、ビット深度情報以外の情報に拘わらずに、画像データの色域がBT.2020の色域でないと判断されてもよい。   The color gamut may be determined (estimated) by further considering bit depth information regarding the bit depth of the image data included in the format information. Specifically, with respect to HDR, it is defined that the bit depth is 10 bits or more. Therefore, in step S202, control unit 101 may further determine whether or not the bit depth of the image data received by image receiving unit 110 is 10 bits or more. If the bit depth is less than 10 bits, the process may proceed to step S206 regardless of the presence or absence of HDR metadata. That is, when the bit depth is less than 10, the color gamut of the image data is BT. Regardless of the information other than the bit depth information. It may be determined that the color gamut is not 2020.

画像受信部111で画像データを受信する場合にも、画像受信部110で画像データを受信する場合と同様の処理で同様の効果が得られる。表示対象の画像データの色域を判断する処理と、表示対象でない画像データの色域を判断する処理とは、並列に行われてもよい。ここで、画像受信部110と画像受信部111の一方で受信された画像データに基づく画像が表示され、且つ、画像受信部110と画像受信部111の他方で受信された画像データに基づく画像が表示されない場合を考える。この場合には、一方で受信された画像データの色域を判断する処理と共に、バックグラウンド処理として、他方で受信された画像データの色域を判断する処理が行われてもよい。これにより、他方で受信された画像データに基づく画像の表示をスムーズに(短時間で、且つ、画像の乱れを抑制して)開始することができる。判断された色域に基づく画像処理についても同様の並列実行が可能である。   Also in the case where the image receiving unit 111 receives image data, the same effect can be obtained by the same processing as the case where the image receiving unit 110 receives image data. The process of determining the color gamut of image data to be displayed and the process of determining the color gamut of image data not to be displayed may be performed in parallel. Here, an image based on the image data received by one of the image receiving unit 110 and the image receiving unit 111 is displayed, and an image based on the image data received by the other of the image receiving unit 110 and the image receiving unit 111 is displayed. Consider the case when it is not displayed. In this case, the process of determining the color gamut of the received image data may be performed as background processing along with the process of determining the color gamut of the received image data on the one hand. Thereby, the display of the image based on the image data received on the other side can be started smoothly (in a short time and with the disturbance of the image suppressed). Similar parallel execution is possible for image processing based on the determined color gamut.

プロジェクタ100内部のシステム構成によっては、画像処理部116での画像処理の変化時に、表示された画像が乱れることがある。そのため、制御部101は、画像処理が変化する場合に、画像の表示を一時的に停止し、且つ、その状態(非表示状態)で画像処理が行われるように制御を行ってもよい。ここで、色域情報が取得されず、且つ、フレーム毎にHDRメタデータが取得される場合を考える。この場合には、制御部101は、フレーム間におけるレンジ情報の変化を検出してもよい。そして、制御部101は、レンジ情報の変化を検出した場合に、画像の表示を一時的に停止し、且つ、その状態(非表示状態)で画像処理が行われるように制御を行ってもよい。   Depending on the system configuration inside the projector 100, the displayed image may be disturbed when the image processing in the image processing unit 116 changes. Therefore, when the image processing changes, the control unit 101 may perform control so that the display of the image is temporarily stopped and the image processing is performed in that state (non-display state). Here, a case is considered in which color gamut information is not acquired and HDR metadata is acquired for each frame. In this case, the control unit 101 may detect a change in range information between frames. Then, when detecting a change in the range information, the control unit 101 may temporarily stop displaying the image and perform control so that image processing is performed in that state (non-display state). .

制御部101は、色域情報を使用せずに、常にステップS202〜S212の処理で色域を判断してもよい。つまり、色域情報が取得されないことを前提としてもよい。HDRとSDRの間で、判断される色域を異ならせる例を説明したが、HDRに対応する複数の輝度レンジの間で、判断される色域を異ならせてもよいし、SDRに対応する複数の輝度レンジの間で、判断される色域を異ならせてもよい。   The control unit 101 may always determine the color gamut in the processing of steps S202 to S212 without using the color gamut information. That is, it may be assumed that color gamut information is not acquired. The example in which the determined color gamut is different between HDR and SDR has been described. However, the determined color gamut may be different between a plurality of luminance ranges corresponding to HDR, or the determined color gamut may be different from SDR. The color gamut to be determined may be different between a plurality of luminance ranges.

プロジェクタの例を説明したが、本実施形態に係る情報処理装置は、プロジェクタに設
けられた装置でなくてもよい。例えば、本実施形態に係る情報処理装置は、画像データを受信し、当該画像データを処理画像データなどに変換して外部に送信する装置(アンプなどのリピータ、変換装置、等)であってもよい。本実施形態に係る情報処理装置は、画像データに色域情報が付加されていない場合に、当該画像データを、判断した色域に関する色域情報を付加して外部に出力する装置であってもよい。
Although the example of the projector has been described, the information processing apparatus according to the present embodiment may not be an apparatus provided in the projector. For example, the information processing device according to the present embodiment may be a device (a repeater such as an amplifier, a conversion device, or the like) that receives image data, converts the image data into processed image data, and transmits the processed data to the outside. Good. The information processing apparatus according to the present embodiment may be an apparatus that, when color gamut information is not added to image data, outputs the image data to the outside with color gamut information related to the determined color gamut added. Good.

本実施形態の各機能部は、個別のハードウェアであってもよいし、そうでなくてもよい。2つ以上の機能部の機能が、共通のハードウェアによって実現されてもよい。1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリとを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。   Each functional unit of the present embodiment may or may not be individual hardware. The functions of two or more functional units may be realized by common hardware. Each of a plurality of functions of one functional unit may be realized by individual hardware. Two or more functions of one functional unit may be realized by common hardware. Also, each functional unit may or may not be realized by hardware. For example, the device may have a processor and a memory in which a control program is stored. Then, the functions of at least some of the functional units of the device may be realized by the processor reading out the control program from the memory and executing the control program.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. It can also be realized by the following processing. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

100:プロジェクタ 101:制御部 110,111:画像受信部
1101:同期信号受信部 1103:画像データ受信部
100: Projector 101: Control unit 110, 111: Image receiving unit 1101: Synchronous signal receiving unit 1103: Image data receiving unit

Claims (15)

画像データのフォーマットに関するフォーマット情報を取得する第1取得手段と、
前記画像データの輝度レンジに関するレンジ情報を取得する第2取得手段と、
前記フォーマット情報と前記レンジ情報に基づいて前記画像データの色域を判断する判断手段と、
を有することを特徴とする情報処理装置。
First acquisition means for acquiring format information on a format of image data;
Second acquisition means for acquiring range information on a luminance range of the image data;
Determining means for determining a color gamut of the image data based on the format information and the range information,
An information processing apparatus comprising:
前記フォーマット情報は、前記画像データの解像度に関する解像度情報を含み、
前記判断手段は、前記解像度情報と前記レンジ情報に基づいて前記画像データの色域を判断する
ことを特徴とする請求項1に記載の情報処理装置。
The format information includes resolution information related to the resolution of the image data,
The information processing apparatus according to claim 1, wherein the determination unit determines a color gamut of the image data based on the resolution information and the range information.
前記画像データの色域に関する色域情報を取得する第3取得手段、をさらに有し、
前記判断手段は、
前記色域情報が取得された場合に、前記色域情報に基づいて前記画像データの色域を判断し、
前記色域情報が取得されなかった場合に、前記解像度情報と前記レンジ情報に基づいて前記画像データの色域を判断する
ことを特徴とする請求項2に記載の情報処理装置。
A third acquisition unit that acquires color gamut information related to a color gamut of the image data,
The determining means includes:
When the color gamut information is obtained, determine the color gamut of the image data based on the color gamut information,
The information processing apparatus according to claim 2, wherein when the color gamut information is not acquired, a color gamut of the image data is determined based on the resolution information and the range information.
前記判断手段は、前記解像度情報と前記レンジ情報に基づいて前記画像データの色域を判断する処理において、
前記画像データの解像度が第1の解像度であり、且つ、第1の輝度レンジに関するレンジ情報が取得されている場合に、第1の色域を前記画像データの色域として判断し、
前記画像データの解像度が前記第1の解像度であり、且つ、前記レンジ情報が取得されていない場合に、前記第1の色域とは異なる第2の色域を前記画像データの色域として判断する
ことを特徴とする請求項2または3に記載の情報処理装置。
In the processing for determining the color gamut of the image data based on the resolution information and the range information,
When the resolution of the image data is the first resolution and range information on a first luminance range has been acquired, the first color gamut is determined as the color gamut of the image data;
When the resolution of the image data is the first resolution and the range information has not been obtained, a second color gamut different from the first color gamut is determined as the color gamut of the image data. 4. The information processing apparatus according to claim 2, wherein
前記第1の解像度はFull HDまたは4K2Kの解像度であり、
前記第1の解像度がFull HDの解像度である場合に、
前記第1の輝度レンジはHDR(High Dynamic Range)であり、
前記第1の色域はBT.2020の色域であり、
前記第2の色域はBT.709の色域であり、
前記第1の解像度が4K2Kの解像度である場合に、
前記第1の輝度レンジはSDR(Standard Dynamic Range)であり、
前記第1の色域はBT.709の色域であり、
前記第2の色域はBT.2020の色域である
ことを特徴とする請求項4に記載の情報処理装置。
The first resolution is a Full HD or 4K2K resolution;
When the first resolution is a Full HD resolution,
The first luminance range is HDR (High Dynamic Range),
The first color gamut is BT. 2020 color gamut,
The second color gamut is BT. 709 color gamut,
When the first resolution is a 4K2K resolution,
The first luminance range is an SDR (Standard Dynamic Range),
The first color gamut is BT. 709 color gamut,
The second color gamut is BT. The information processing apparatus according to claim 4, wherein the information processing apparatus has a color gamut of 2020.
前記判断手段は、前記解像度情報と前記レンジ情報に基づいて前記画像データの色域を判断する処理において、
前記画像データの解像度が第2の解像度であり、且つ、第2の輝度レンジに関するレンジ情報が取得されている場合に、第3の色域を前記画像データの色域として判断し、
前記画像データの解像度が前記第2の解像度であり、且つ、前記第2の輝度レンジよりも狭い第3の輝度レンジに関するレンジ情報が取得されている場合に、前記第3の色域とは異なる第4の色域を前記画像データの色域として判断する
ことを特徴とする請求項2〜5のいずれか1項に記載の情報処理装置。
In the processing for determining the color gamut of the image data based on the resolution information and the range information,
When the resolution of the image data is the second resolution and range information on a second luminance range has been obtained, a third color gamut is determined as the color gamut of the image data;
Different from the third color gamut when the resolution of the image data is the second resolution and range information on a third luminance range narrower than the second luminance range is obtained. The information processing apparatus according to claim 2, wherein a fourth color gamut is determined as a color gamut of the image data.
前記第2の解像度はFull HD、4K2K、または、8K4Kの解像度であり、
前記第2の輝度レンジはHDR(High Dynamic Range)であり、
前記第3の輝度レンジはSDR(Standard Dynamic Range)であり、
前記第3の色域はBT.2020の色域であり、
前記第4の色域はBT.709の色域である
ことを特徴とする請求項6に記載の情報処理装置。
The second resolution is a Full HD, 4K2K, or 8K4K resolution;
The second luminance range is HDR (High Dynamic Range),
The third luminance range is an SDR (Standard Dynamic Range),
The third color gamut is BT. 2020 color gamut,
The fourth color gamut is BT. The information processing apparatus according to claim 6, wherein the color gamut is 709.
前記フォーマット情報は、前記画像データのビット深度に関するビット深度情報を含み、
前記判断手段は、前記解像度情報と前記レンジ情報に基づいて前記画像データの色域を判断する処理において、前記ビット深度情報をさらに考慮する
ことを特徴とする請求項2〜7のいずれか1項に記載の情報処理装置。
The format information includes bit depth information regarding a bit depth of the image data,
The apparatus according to claim 2, wherein the determination unit further considers the bit depth information in a process of determining a color gamut of the image data based on the resolution information and the range information. An information processing apparatus according to claim 1.
前記判断手段は、前記解像度情報と前記レンジ情報に基づいて前記画像データの色域を判断する処理において、前記画像データのビット深度が10ビット未満のビット深度である場合に、前記ビット深度情報以外の情報に拘わらずに、前記画像データの色域がBT.2020の色域でないと判断する
ことを特徴とする請求項8に記載の情報処理装置。
In the process of determining the color gamut of the image data based on the resolution information and the range information, the determination unit may be configured to determine a color gamut of the image data other than the bit depth information when the bit depth of the image data is less than 10 bits. Of the image data is BT. The information processing apparatus according to claim 8, wherein it is determined that the color gamut is not the gamut of 2020.
前記第2取得手段は、前記画像データのフレーム毎に前記レンジ情報を取得し、
前記判断手段は、前記フレーム毎に前記画像データの色域を判断する
ことを特徴とする請求項1〜9のいずれか1項に記載の情報処理装置。
The second obtaining means obtains the range information for each frame of the image data,
The information processing apparatus according to claim 1, wherein the determination unit determines a color gamut of the image data for each frame.
前記画像データを取得する取得手段と、
前記判断手段で判断された色域に基づく画像処理を前記画像データに施す処理手段と、をさらに有する
ことを特徴とする請求項1〜10のいずれか1項に記載の情報処理装置。
Acquisition means for acquiring the image data,
The information processing apparatus according to claim 1, further comprising: a processing unit configured to perform image processing on the image data based on the color gamut determined by the determination unit.
前記画像データを取得する取得手段と、
前記判断手段で判断された色域に基づく画像処理を前記画像データに施すことにより、処理画像データを生成する処理手段と、
前記画像データのフレーム間における前記レンジ情報の変化を検出する検出手段と、
前記検出手段で前記レンジ情報の変化が検出された場合に前記処理画像データに基づく画像の表示が一時的に停止されるように、当該画像を表示部に表示する制御手段と、
をさらに有する
ことを特徴とする請求項10に記載の情報処理装置。
Acquisition means for acquiring the image data,
A processing unit that generates processed image data by performing image processing on the image data based on the color gamut determined by the determination unit;
Detecting means for detecting a change in the range information between frames of the image data,
Control means for displaying the image on a display unit, such that the display of the image based on the processed image data is temporarily stopped when a change in the range information is detected by the detection means,
The information processing apparatus according to claim 10, further comprising:
表示対象である画像データと、前記表示対象でない画像データとを取得する取得手段、をさらに有し、
前記表示対象である画像データの色域を判断する処理と、前記表示対象でない画像データの色域を判断する処理とが、並列に行われる
ことを特徴とする請求項1〜10のいずれか1項に記載の情報処理装置。
Image data to be displayed, and acquisition means for acquiring the image data not to be displayed, further comprising:
The process of determining the color gamut of the image data to be displayed and the process of determining the color gamut of the image data not to be displayed are performed in parallel. The information processing device according to item.
画像データのフォーマットに関するフォーマット情報を取得するステップと、
前記画像データの輝度レンジに関するレンジ情報を取得するステップと、
前記フォーマット情報と前記レンジ情報に基づいて前記画像データの色域を判断するステップと、
を有することを特徴とする情報処理方法。
Obtaining format information about the format of the image data;
Obtaining range information on a luminance range of the image data;
Determining a color gamut of the image data based on the format information and the range information;
An information processing method comprising:
コンピュータを、請求項1〜13のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the information processing apparatus according to claim 1.
JP2018114641A 2018-06-15 2018-06-15 Information processing device Pending JP2019220752A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018114641A JP2019220752A (en) 2018-06-15 2018-06-15 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018114641A JP2019220752A (en) 2018-06-15 2018-06-15 Information processing device

Publications (1)

Publication Number Publication Date
JP2019220752A true JP2019220752A (en) 2019-12-26

Family

ID=69097080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018114641A Pending JP2019220752A (en) 2018-06-15 2018-06-15 Information processing device

Country Status (1)

Country Link
JP (1) JP2019220752A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022230274A1 (en) * 2021-04-30 2022-11-03 ソニーグループ株式会社 Information processing system and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022230274A1 (en) * 2021-04-30 2022-11-03 ソニーグループ株式会社 Information processing system and information processing method

Similar Documents

Publication Publication Date Title
US9936180B2 (en) Projector and method for controlling the same
US9071773B2 (en) Projection system
US8339422B2 (en) Image processing system, information processing apparatus, image processing method and program
US20180376194A1 (en) Electronic apparatus, display apparatus and control method thereof
JP2011041204A (en) Communication apparatus
JP2012083572A (en) Display system and control method
US8514330B2 (en) Communication apparatus and control method
JP2004282599A (en) Image display device, image display method, program, and recording medium
JP2004086277A (en) Information processor, projector system and program
JP2011015011A (en) Device and method for adjusting image quality
JP2019113647A (en) Display device and method for controlling the same
TW201946430A (en) Video signal conversion device and method thereof
JP2019220752A (en) Information processing device
WO2016190106A1 (en) Image processing device and method for controlling same, and integrated circuit
JP2019186690A (en) Control device, projector, projector control method, program
US11438562B2 (en) Display apparatus and control method thereof
JP2015169754A (en) Projector, and control method of projector
US8125540B2 (en) Video presenting system having outputs for dual images
KR20200035567A (en) Display apparatus, method for controlling thereof and recording media thereof
JP2014146920A (en) Communication device, control method, and program
US11106418B2 (en) Image display apparatus, image output apparatus, control methods thereof, and storage medium
US10390009B1 (en) System, method, and computer-readable medium for adaptive display calibration and profiling
JP6161385B2 (en) Imaging apparatus and control method thereof
JP6834042B2 (en) Display device
JP2020102785A (en) Image output device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116