JP2013114076A - Image adjustment method, image adjustment device and image adjustment program - Google Patents

Image adjustment method, image adjustment device and image adjustment program Download PDF

Info

Publication number
JP2013114076A
JP2013114076A JP2011260818A JP2011260818A JP2013114076A JP 2013114076 A JP2013114076 A JP 2013114076A JP 2011260818 A JP2011260818 A JP 2011260818A JP 2011260818 A JP2011260818 A JP 2011260818A JP 2013114076 A JP2013114076 A JP 2013114076A
Authority
JP
Japan
Prior art keywords
visibility
component
image data
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011260818A
Other languages
Japanese (ja)
Inventor
Izumi Matsui
泉 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011260818A priority Critical patent/JP2013114076A/en
Publication of JP2013114076A publication Critical patent/JP2013114076A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image adjustment method which is beneficial for improving visibility of a display image in a presentation.SOLUTION: The image adjustment method includes: an acquisition process (S702, S703) for acquiring image data and display setting for image to be displayed by a display device from an information processor; a conversion process (S704, S712) for preparing a profile by using the display setting and performing conversion into image data of an image output from the display device by the prepared profile; a calculation process (S715) for calculating an evaluation value of a visibility concerning differences in brightness and chromaticity between a first component and a second component included in the image data; a comparison process (S716) for comparing the acquired evaluation value of the visibility with a preset reference value; and a change process (S717) for determining that the visibility is low when the comparison result obtained in the comparison process is below the reference value and improving the visibility by changing the brightness or the chromaticity.

Description

本発明は、表示装置から表示するプレゼンテーション用画像の視認性を高めるための画像調整方法、画像調整装置及び画像調整プログラムに関する。   The present invention relates to an image adjustment method, an image adjustment device, and an image adjustment program for improving the visibility of a presentation image displayed from a display device.

PCで作成された画像を複数名で視聴するためのモニタ装置として、プロジェクタ装置が使用されている。プロジェクタ装置は、PCから電気信号であるRGB信号を入力し、入力されたRGB信号を画像としてスクリーン等に拡大投影することができる。ユーザは複数名で視聴するための資料をスライド画像データとして作成する場合、一般的にはプレゼンテーション用ソフトウェアを用いて作成する。ユーザは、プレゼンテーション用ソフトウェアを使用することで、ユーザ自身または発表者がプレゼンテーションで使用するスライド画像を意識しつつ全スライド画像に対し共通する背景を設定し、テキスト及びピクチャの大きさや配置の変更を行うことができる。さらにユーザは、全体構成を考慮し、効果的なプレゼンテーション資料を作成することもできる。   A projector device is used as a monitor device for viewing images created on a PC by a plurality of people. The projector device can receive RGB signals, which are electrical signals, from a PC, and can enlarge and project the input RGB signals as an image on a screen or the like. When a user creates materials for viewing by a plurality of people as slide image data, the user generally creates them using presentation software. Using the presentation software, the user can set a common background for all slide images while being aware of the slide images used by the user or the presenter in the presentation, and change the size and arrangement of text and pictures. It can be carried out. Further, the user can create effective presentation materials in consideration of the overall configuration.

ユーザがプレゼンテーション用ソフトウェアを用いてスライドを作成する場合、一般的にはPCモニタを利用するが、PCモニタでは複数名で視聴することが困難である。そこでユーザは、スライド作成時に使用したPCモニタではなく、プロジェクタ装置を介してプレゼンテーションを行う。この状況において、ユーザがスライド作成時に使用したPCモニタで表示される画像と、プレゼンテーション時に使用したプロジェクタ装置から表示される画像では、表示特性や、設置されている環境、または表示画面の大きさなどが異なる。そのためプレゼンテーションを行う環境下において、ユーザは表示されるスライドが適した色特性、階調特性を有するようにプロジェクタ装置を調整し、プロジェクタ装置から好適なスライド画像を表示することが望ましい。さらに、照明状態、スクリーン等の影響も無視することはできないため、プロジェクタ装置の管理者が画質改善のため、プロジェクタ装置の調整項目の適時調整を行う場合がある。   When a user uses a presentation software to create a slide, a PC monitor is generally used, but it is difficult for a PC monitor to view with multiple people. Therefore, the user makes a presentation through the projector device, not the PC monitor used when creating the slide. In this situation, the image displayed on the PC monitor used when the user created the slide and the image displayed from the projector device used during the presentation display characteristics, the installed environment, the size of the display screen, etc. Is different. Therefore, in an environment where a presentation is performed, it is desirable that the user adjusts the projector apparatus so that the displayed slide has suitable color characteristics and gradation characteristics, and displays a suitable slide image from the projector apparatus. In addition, since the influence of the lighting state, the screen, and the like cannot be ignored, the administrator of the projector apparatus may adjust the adjustment items of the projector apparatus in a timely manner in order to improve the image quality.

しかしながら、ユーザの多くは、スライド作成時にプレゼンテーションを行う環境や設備を把握しておらず、プロジェクタ装置の調整が禁止されている場合もある。そのため、PCモニタとプロジェクタ装置では、表示される画像の見え方の違いが原因となり、プレゼンテーション時に発表者が意図しないスライドを表示せざるを得ない状況に陥る場合がある。上述した状況に陥らないために、ユーザは、プレゼンテーションを行う環境下を想定してスライド画像を作成する。例えば、ユーザは、背景色と文字色の使い分け、背景の明暗の使い分け、黄色系の色・淡い色・グラデーション、スライド画像の見え方を意識した配色など、複数のテクニックを使用することができる。しかしながら、現実にはプレゼンテーション環境に応じてそれらの複雑なテクニックを使い分ける必要がある。   However, many users do not know the environment and facilities for giving a presentation when creating a slide, and adjustment of the projector device may be prohibited. For this reason, the PC monitor and the projector device may be in a situation where a slide unintended by the presenter has to be displayed at the time of presentation due to the difference in the appearance of the displayed image. In order not to fall into the situation described above, the user creates a slide image assuming an environment in which a presentation is performed. For example, the user can use a plurality of techniques such as using a background color and a character color separately, using a background light / dark, a yellow color / light color / gradation, and a color scheme conscious of how a slide image is seen. However, in reality, it is necessary to use these complicated techniques according to the presentation environment.

特許文献1は、スライド作成時とプレゼンテーション時の状況を考慮し、スライド作成時に文字の読みやすさを客観的に評価する技術を開示している。具体的には、表示画面設計装置は、表示装置の特性に応じて表示画像の色信号を変換し、表示画像の文字及び背景の色差、色差の分解能を決定し、スクリーンサイズ、スクリーンまでの距離に応じて文字の読み易さを評価する。また、表示画面設計装置のプロジェクタ特性テーブルが、プロジェクタの特性に対応するようにRGBデータのRGB値から輝度L、色度x及びyへと機種毎に変換する。   Patent Document 1 discloses a technique for objectively evaluating the readability of characters at the time of slide creation in consideration of the situation at the time of slide creation and presentation. Specifically, the display screen design device converts the color signal of the display image according to the characteristics of the display device, determines the color difference of the character and background of the display image, the resolution of the color difference, the screen size, the distance to the screen The readability of characters is evaluated according to Further, the projector characteristic table of the display screen design apparatus converts the RGB value of the RGB data from the RGB value to the luminance L and the chromaticity x and y for each model so as to correspond to the characteristic of the projector.

また、特許文献2は、プレゼンテーション表示機器とスライド作成表示機器の色再現性の差を検出する技術を開示している。具体的には、色見本データと作成表示装置特性データを用いて作成表示機器による表示をエミュレートし、色見本データとプレゼンテーション実行表示装置特性データを用いて実行表示機器による表示をエミュレートする。また、双方のエミュレート結果から色度差を算出し、領域分割毎の色度差を算出し、使用色判定情報を出力する。色見本データは複数色のカラーパレットである。また表示特性データは色再現性を示すデータであって、RGBの色度点および白色の色度点の情報を示す。   Patent Document 2 discloses a technique for detecting a difference in color reproducibility between a presentation display device and a slide creation display device. Specifically, the display by the created display device is emulated using the color sample data and the created display device characteristic data, and the display by the execution display device is emulated using the color sample data and the presentation execution display device characteristic data. Also, a chromaticity difference is calculated from both emulation results, a chromaticity difference for each region division is calculated, and used color determination information is output. The color sample data is a multi-color palette. The display characteristic data is data indicating color reproducibility, and indicates information on RGB chromaticity points and white chromaticity points.

特開2003−44849号公報JP 2003-44849 A 特開2004−139496号公報JP 2004-139496 A

特許文献1が開示する技術は、表示画面設計装置のプロジェクタ特性テーブルが、プロジェクタの特性に対応するように、RGBデータのRGB値から輝度L、色度x及びyへと機種毎に変換する。しかしながら、現実的には表示装置には複数の表示モードが存在する。さらに、表示装置はメニュー等によりその表示特性が変化する。そのため特許文献1が開示する表示特性テーブルでは、メニュー等により変化した表示特性に応えることが困難である。   The technology disclosed in Patent Document 1 converts the RGB value of RGB data from the RGB value of the RGB data into luminance L, chromaticity x, and y for each model so that the projector characteristic table of the display screen design apparatus corresponds to the characteristic of the projector. However, in reality, a display device has a plurality of display modes. Further, the display characteristics of the display device change depending on the menu or the like. For this reason, it is difficult for the display characteristic table disclosed in Patent Document 1 to respond to display characteristics changed by a menu or the like.

例えば、現状販売されている一般的なプロジェクタ装置の表示特性としては、超高圧水銀ランプの分光特性や、ランプの光量を有効利用することで、明るくコントラストは高いものの若干白色が色づいている色度特性が存在する。また、複数の色フィルタを用いたカラーホイールを有するプロジェクタ装置の表示モードとしては、白表示時の光量を増大させるため、透過率の高い透明なフィルタを有し、単色であるRGBの光量が暗く色再現性の低い表示モードが存在する。表示モードを有するプロジェクタ装置において、表示モードのような白色光量の高い表示モードだけでなく、白色光量は低下するが、色再現性を高める表示モードも存在する。さらに、特許文献1には、典型的なプロジェクタ装置の代表値を用いてもよいことが記載されているが、典型的なプロジェクタ装置の代表値などは実質的に存在するとは言い難い。   For example, as a display characteristic of a general projector apparatus sold at present, the spectral characteristics of an ultra-high pressure mercury lamp and the chromaticity in which white is slightly colored although it is bright and high in contrast by effectively using the light quantity of the lamp. A characteristic exists. Further, as a display mode of a projector apparatus having a color wheel using a plurality of color filters, in order to increase the amount of light at the time of white display, a transparent filter having a high transmittance is provided, and the amount of RGB light that is a single color is dark. There are display modes with low color reproducibility. In a projector apparatus having a display mode, not only a display mode having a high white light amount as in the display mode but also a display mode in which the white light amount is reduced but the color reproducibility is improved. Further, Patent Document 1 describes that a typical value of a typical projector device may be used, but it is difficult to say that a typical value of a typical projector device or the like substantially exists.

同様に、特許文献2についても、上述した複数の表示モードや設定メニューに関する記載は無い。また、表示特性テーブルを作成するためには、プレゼンテーション会場に設置された状態のプロジェクタ装置に対しカラーパレット等を入力しその特性を取得する必要がある。この特性を取得する作業は、プレゼンテーションファイルを作成した場所と異なる場所、例えばプレゼンテーション会場でプレゼンテーションを表示する場合、現実的ではない。たとえ特性を取得したとしても、ユーザまたは発表者自身がプロジェクタ装置から出力される画像の特性を判断しなければならない。   Similarly, Patent Document 2 also has no description regarding the plurality of display modes and setting menus described above. In order to create a display characteristic table, it is necessary to input a color pallet or the like to the projector apparatus installed in the presentation venue and acquire the characteristics. The task of obtaining this characteristic is not practical when the presentation is displayed at a location different from the location where the presentation file is created, for example, at the presentation venue. Even if the characteristics are acquired, the user or the presenter himself / herself must determine the characteristics of the image output from the projector apparatus.

そこで、本発明は、プレゼンテーション時の表示画像の視認性を向上させるのに有利な画像調整方法を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image adjustment method that is advantageous for improving the visibility of a display image during a presentation.

本発明の一実施形態の画像調整方法は、情報処理装置で作成された画像データを、表示装置から表示する画像データに調整するための画像調整方法であって、前記情報処理装置から第1コンポーネントの情報及び第2コンポーネントの情報を含む画像データと、前記表示装置が表示する画像用の表示設定とを取得する取得工程と、前記表示設定を用いて、RGBデータと明度及び色度とを関連付けたプロファイルを作成し、作成した前記プロファイルを用いて前記情報処理装置で作成された画像データを前記表示装置から出力する画像データに変換する変換工程と、前記変換工程で変換された前記画像データに含まれる第1コンポーネントと第2コンポーネントとの間の明度及び色度の差に関する視認性の評価値を演算する演算工程と、前記演算工程で取得した視認性の評価値と、予め設定された基準値とを比較する比較工程と、前記比較工程で得られた比較結果が前記基準値を下回る場合に視認性が低いと判断し、前記明度または前記色度を変更することにより視認性を高める変更工程とを含む。   An image adjustment method according to an embodiment of the present invention is an image adjustment method for adjusting image data created by an information processing device to image data to be displayed from a display device. The image data including the information of the second component and the information of the second component, the acquisition step of acquiring the display settings for the image displayed by the display device, and the RGB data and the brightness and chromaticity are associated using the display settings Creating a profile, converting the image data created by the information processing device using the created profile into image data output from the display device, and converting the image data into the image data converted in the conversion step A calculation step of calculating a visibility evaluation value relating to a difference in brightness and chromaticity between the first component and the second component included; It is determined that the visibility is low when the comparison value obtained by the comparison process compares the evaluation value of the visibility acquired in the calculation process with a preset reference value and the comparison result obtained by the comparison process is lower than the reference value. And a changing step for improving visibility by changing the lightness or the chromaticity.

本発明によれば、例えば、プレゼンテーション時の表示画像の視認性を向上させるのに有利な画像調整方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image adjustment method advantageous in improving the visibility of the display image at the time of a presentation can be provided, for example.

本発明の第1の実施形態に係るシステム構成例を示す図である。It is a figure which shows the system configuration example which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像調整装置の機能ブロック図である。1 is a functional block diagram of an image adjustment apparatus according to a first embodiment of the present invention. 画像調整装置が取得する各種情報及び該装置が行う信号処理を示す。Various information acquired by the image adjustment apparatus and signal processing performed by the apparatus are shown. 三刺激値XYZへの変換式の例を示す図である。It is a figure which shows the example of the conversion type | formula to tristimulus value XYZ. 第1の実施形態に係る方法で処理される画像データの説明図である。It is explanatory drawing of the image data processed with the method which concerns on 1st Embodiment. 背景明度と色度の変換処理を説明する図である。It is a figure explaining the conversion process of background lightness and chromaticity. 第1の実施形態における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in 1st Embodiment. 第2の実施形態における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in 2nd Embodiment. 第2の実施形態に係る方法で処理される画像データの説明図である。It is explanatory drawing of the image data processed with the method which concerns on 2nd Embodiment. 第3の実施形態における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in 3rd Embodiment. 第4の実施形態における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in 4th Embodiment.

以下、本発明の一実施形態に係る画像調整装置について図面を参照して説明する。尚、以下に示す各実施形態は本発明の画像調整装置の好適な具体例であり、技術的に好ましい種々の限定を付している場合もあるが、本発明の技術範囲は、特に本発明を限定する記載がない限り、これらの態様に限定されるものではない。また、以下に示す実施形態における構成要素は適宜、既存の構成要素等との置き換えが可能であり、かつ、他の既存の構成要素との組合せを含む様々なバリエーションが可能である。従って、以下に示す実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。   Hereinafter, an image adjustment apparatus according to an embodiment of the present invention will be described with reference to the drawings. The following embodiments are preferred specific examples of the image adjustment apparatus of the present invention, and may have various technically preferable limitations. However, the technical scope of the present invention is particularly limited to the present invention. Unless otherwise specified, the present invention is not limited to these embodiments. In addition, the constituent elements in the embodiments shown below can be appropriately replaced with existing constituent elements and the like, and various variations including combinations with other existing constituent elements are possible. Therefore, the description of the embodiment described below does not limit the contents of the invention described in the claims.

(第1の実施形態)
まず、図1について説明する。図1に示す画像調整システムは、PC101、PCモニタ102、モニタケーブルA103、キーボード104、PCマウス205、プロジェクタ装置106、スクリーン107、モニタケーブルB108、プロジェクタ装置通信ケーブル109で構成されている。
(First embodiment)
First, FIG. 1 will be described. The image adjustment system shown in FIG. 1 includes a PC 101, a PC monitor 102, a monitor cable A103, a keyboard 104, a PC mouse 205, a projector device 106, a screen 107, a monitor cable B108, and a projector device communication cable 109.

PC101及びPCモニタ102は、モニタケーブルA103を介して接続される。PC101及びプロジェクタ装置106は、モニタケーブルB108及びプロジェクタ装置通信ケーブル109を介して接続される。また、PC101は、キーボード104及びPCマウス205とネットワークを介して接続される。各構成要素は、ネットワークを介すことにより、互いにデータ通信を行うことができる。なお、プロジェクタ装置通信ケーブル109は、ネットワークを介してPC101からプロジェクタ装置106を制御するための信号を通信するネットワークケーブルであってもよい。   The PC 101 and the PC monitor 102 are connected via a monitor cable A103. The PC 101 and the projector device 106 are connected via a monitor cable B 108 and a projector device communication cable 109. The PC 101 is connected to the keyboard 104 and the PC mouse 205 via a network. Each component can perform data communication with each other via a network. The projector apparatus communication cable 109 may be a network cable that communicates a signal for controlling the projector apparatus 106 from the PC 101 via a network.

PC101は、情報処理装置として機能し、プレゼンテーション用ソフトウェアを実行する。ユーザは、モニタケーブルA103を介してPC101に接続されているPCモニタ102を操作し、スライド画像の作成、編集または確認作業を行なうことができる。ユーザは、プレゼンテーションを行う際に、モニタケーブルB108を介して接続されているプロジェクタ装置106を用い、作成したスライド画像を表示する。モニタケーブルA103及びモニタケーブルB108はRGB信号だけでなく、VESAの定めるモニタの制御に使用されるDDC/CI、同じくDDCラインを用いてモニタ情報を通信するEDID、または他の信号線を用いた制御信号等の通信も媒介してよい。   The PC 101 functions as an information processing apparatus and executes presentation software. A user can create, edit, or confirm a slide image by operating the PC monitor 102 connected to the PC 101 via the monitor cable A103. When giving a presentation, the user uses the projector device 106 connected via the monitor cable B108 to display the created slide image. The monitor cable A103 and the monitor cable B108 are not only RGB signals but also DDC / CI used for controlling the monitor defined by VESA, EDID for communicating monitor information using the DDC line, or control using other signal lines Communication such as signals may also be mediated.

なお、VESAとはVideo Electronics Standards Associationの略称である。また、DDC/CIとはDisplay Data Channel/Command Interfaceの略であり、EDIDとはExtended Display Identification Dataの略である。   Note that VESA is an abbreviation for Video Electronics Standards Association. Further, DDC / CI is an abbreviation for Display Data Channel / Command Interface, and EDID is an abbreviation for Extended Display Identification Data.

図1に示すスライド画像について説明する。PCモニタ102に表示されているスライド画像と、プロジェクタ装置106で表示しているスライド画像は同じ情報を表示しているが、厳密には一致しない。なぜなら、PCモニタで表示される画像と、プロジェクタ装置から表示される画像では、表示特性や、設置されている環境、表示画面の大きさなどが異なるためである。スライド画像は、4つのテキストコンポーネント、1つの矢印コンポーネント及び1つのピクチャコンポーネント(第1コンポーネント)、並びに背景画像コンポーネント(第2コンポーネント)で構成されている。4つのテキストコンポーネントとは、「text1text1」、「text2text2text2text2」、「text3」及び「text4」である。   The slide image shown in FIG. 1 will be described. Although the slide image displayed on the PC monitor 102 and the slide image displayed on the projector device 106 display the same information, they do not exactly match. This is because the display characteristics, the installed environment, the size of the display screen, and the like are different between the image displayed on the PC monitor and the image displayed from the projector device. The slide image is composed of four text components, one arrow component, one picture component (first component), and a background image component (second component). The four text components are “text1text1”, “text2text2text2text2”, “text3”, and “text4”.

次に、図2の機能ブロック図を参照して図1に示すPC101が備えるプレゼンテーション用ソフトウェアの各機能を説明する。図2に示す画像形成装置201は、PC101が備えるプレゼンテーション用ソフトウェアにより実現される。画像形成装置201は、通信部202、制御部203、記憶部204、比較部205、強調部206及び警告部207を備える。   Next, each function of the presentation software provided in the PC 101 shown in FIG. 1 will be described with reference to the functional block diagram of FIG. An image forming apparatus 201 illustrated in FIG. 2 is realized by presentation software included in the PC 101. The image forming apparatus 201 includes a communication unit 202, a control unit 203, a storage unit 204, a comparison unit 205, an enhancement unit 206, and a warning unit 207.

通信部202は、PCモニタ102及びプロジェクタ装置106と通信し、RGBデータなど各種データの送受信を行う。制御部203は、PCモニタ102及びプロジェクタ装置106の各種データを通信部202から受け取り、プロジェクタ装置106を介して投影される表示画像データを作成するため、演算処理を行う。記憶部204は、制御部203からの指示を受け、PCモニタ102を介してユーザが作成した画像データを記憶する。また、記憶部204はプロジェクタ装置106から取得した印刷設定及び演算方法、並びに制御部203が作成したプロファイル及びプロジェクタ装置106を介して投影される表示画像データなども記憶する。比較部205は、制御部203が演算したことにより得られた視認性の評価値を既定の基準値と比較する。強調部206は、比較部が視認性の評価値を既定の基準値よりも低いと判定した場合に、背景明度/色度の変換処理を行なう。警告部207は、通信部202を介してPCモニタに表示させるための警告を通知する。プレゼンテーション用ソフトウェアは、PC101に組み込まれた不図示のCPU(Central Processing Unit)により各種機能を実現する。   The communication unit 202 communicates with the PC monitor 102 and the projector device 106, and transmits and receives various data such as RGB data. The control unit 203 receives various data of the PC monitor 102 and the projector device 106 from the communication unit 202, and performs calculation processing to create display image data projected via the projector device 106. The storage unit 204 receives an instruction from the control unit 203 and stores image data created by the user via the PC monitor 102. The storage unit 204 also stores print settings and calculation methods acquired from the projector device 106, profiles created by the control unit 203, display image data projected via the projector device 106, and the like. The comparison unit 205 compares the visibility evaluation value obtained by the calculation performed by the control unit 203 with a predetermined reference value. The enhancement unit 206 performs a background lightness / chromaticity conversion process when the comparison unit determines that the visibility evaluation value is lower than a predetermined reference value. The warning unit 207 notifies a warning to be displayed on the PC monitor via the communication unit 202. The presentation software realizes various functions by a CPU (Central Processing Unit) (not shown) incorporated in the PC 101.

以下、図3〜図6を参照して図7に示す第1の実施形態のフローチャートを説明する。S701で、ユーザがPCモニタ102を介してプロジェクタ装置106でプレゼンテーション用画像を表示することを選択する。すなわち、図1に示す4つのテキスト、矢印、ピクチャ及び背景で構成されたプレゼンテーション用ファイルに対し、スライド表示コマンドが選択され、通信部202はスライドの画像データを受け取る。S702で、通信部202は、スライド表示装置であるプロジェクタ装置106と通信ケーブル109もしくはモニタケーブル108を介して機種名を取得する。この時に通信部202は、モニタケーブル108を介して上述のEDIDを使用する場合はRGB及び白色の色度を取得する事もできる。   Hereinafter, the flowchart of the first embodiment shown in FIG. 7 will be described with reference to FIGS. In step S <b> 701, the user selects to display the presentation image on the projector device 106 via the PC monitor 102. That is, a slide display command is selected for the presentation file composed of the four texts, arrows, pictures, and backgrounds shown in FIG. 1, and the communication unit 202 receives slide image data. In step S <b> 702, the communication unit 202 acquires a model name via the projector device 106 that is a slide display device and the communication cable 109 or the monitor cable 108. At this time, the communication unit 202 can also acquire RGB and white chromaticities when using the above-described EDID via the monitor cable 108.

次に通信部202は、表示モードや設定メニューに応じたプロジェクタ装置106の画像処理アルゴリズム等、RGB信号に対するデータ処理手法等を通信ケーブル109を介して取得する。DDC/CI、ネットワークまたはその他の通信ケーブル等を使用してPC101からプロジェクタ装置106を制御している場合に、通信部202は、PCとプレゼンテーション用ソフトウェア間の通信だけで、表示モードや設定メニューの情報を得る事もできる。S703で、RGB及び白色の色度、並びにRGBガンマ値などが通信され、通信部202は、入力RGBデータとプロジェクタから出力される明度及び色度、すなわち画像調整の設定値を取得する。すなわち、通信部202は、画像データと、前記表示装置が表示する画像用の表示設定とを取得する取得手段として機能する。   Next, the communication unit 202 acquires a data processing method for RGB signals, such as an image processing algorithm of the projector device 106 according to the display mode and setting menu, via the communication cable 109. When the projector device 106 is controlled from the PC 101 using a DDC / CI, a network, or other communication cable, the communication unit 202 can display the display mode and setting menu only by communication between the PC and the presentation software. You can also get information. In S703, RGB and white chromaticities, RGB gamma values, and the like are communicated, and the communication unit 202 acquires input RGB data and brightness and chromaticity output from the projector, that is, setting values for image adjustment. That is, the communication unit 202 functions as an acquisition unit that acquires image data and display settings for images displayed by the display device.

S704で、制御部203はS702及びS703で得た情報を基に、プロジェクタ装置106から入力されたRGBデータと出力明度及び色度との関係を表すプロファイルを作成する。プロファイルの詳細については後述する。S705で、制御部203は図2に示すプレゼンテーションファイル画像から、ピクチャコンポーネント領域を除去する。S706で、制御部203はピクチャコンポーネントを除去した後に残った領域の色数をカウントする。   In step S <b> 704, the control unit 203 creates a profile representing the relationship between the RGB data input from the projector device 106 and the output brightness and chromaticity based on the information obtained in steps S <b> 702 and S <b> 703. Details of the profile will be described later. In step S705, the control unit 203 removes the picture component area from the presentation file image shown in FIG. In step S706, the control unit 203 counts the number of colors remaining in the area after removing the picture component.

なお、図2に示すシミュレーションファイル画像に含まれる4つのテキストコンポーネントは、各々色が異なり、縁取りされていないものとする。さらに、矢印コンポーネントの色は、テキスト色とは異なるものとする。背景は単色のグラデーションで256色が使用されているものとする。すなわち、制御部203は、色数が4+1+256=261色であるとカウントする。ここで、S707、S798、S710、S714、S799及びS718に示すiは、繰返し演算を行なうための変数である。   It is assumed that the four text components included in the simulation file image shown in FIG. 2 have different colors and are not bordered. Furthermore, the color of the arrow component is different from the text color. It is assumed that the background is a monochrome gradation and 256 colors are used. That is, the control unit 203 counts that the number of colors is 4 + 1 + 256 = 261 colors. Here, i shown in S707, S798, S710, S714, S799, and S718 is a variable for performing repetitive calculation.

S708で、制御部203は、ピクチャコンポーネント以外のプレゼンテーション画像で使用されている261色を、S704で作成したプロファイルを使用して、プロジェクタ装置106が投射する色に変換する。すなわち制御部203は、PC101で作成された画像の色データをプロジェクタ装置106から出力する画像の色データに変換する変換手段として機能する。S709で制御部203は、変換した色データを記憶部204に記憶させる。制御部203により変換した色データは、PC101が内蔵する別の記憶部に記憶してもよい。ユーザがプレゼンテーションファイル画像の出力対象としてプレゼンテーション表示装置であるプロジェクタ装置106を選択している場合(S711)、制御部203は視認性評価処理および色変換処理を行う。PC101が複数の出力端子を持つ場合は、前述したEDID等を用いて、プロジェクタ装置106から出力される画像の色のみが色変換処理される。S712で、制御部203は、テキスト、矢印コンポーネントおよび背景色を、記憶部204に保存されている色変換情報を用いて変換する。   In step S708, the control unit 203 converts the 261 colors used in the presentation image other than the picture component into colors projected by the projector device 106 using the profile created in step S704. That is, the control unit 203 functions as a conversion unit that converts color data of an image created by the PC 101 into color data of an image output from the projector device 106. In step S <b> 709, the control unit 203 stores the converted color data in the storage unit 204. The color data converted by the control unit 203 may be stored in another storage unit built in the PC 101. When the user has selected the projector device 106 that is a presentation display device as an output target of the presentation file image (S711), the control unit 203 performs a visibility evaluation process and a color conversion process. When the PC 101 has a plurality of output terminals, only the color of the image output from the projector device 106 is subjected to color conversion processing using the above-described EDID or the like. In step S <b> 712, the control unit 203 converts the text, the arrow component, and the background color using the color conversion information stored in the storage unit 204.

次に、S713で制御部203は、プロジェクタ装置106が表示する色へと変換したテキストコンポーネントと背景の隣接色数及び矢印コンポーネントと背景の隣接色数をカウントする。図2に示すプレゼンテーション画像の場合、「Text1」コンポーネントと背景との隣接色数は32とし、「Text2」コンポーネントと背景との隣接色数は64とする。「Text3」コンポーネントと背景との隣接色数は32とし、「Text4」コンポーネントと背景との隣接色数が32とする。そして矢印コンポーネントと背景との隣接色数は64とする。この場合、全隣接色数は224となる(S713)。S714、S715、S716、S717、及びS718で行う処理により、コンポーネントと背景との視認性を評価する(S715)。すなわち制御部203は、コンポーネントと背景との間の明度及び色度に関する視認性の評価値を演算する演算手段としても機能する。S716で比較部205は、得られた評価値を既定の基準値と比較する。すなわち比較部205は、視認性の評価値と、予め設定された基準値とを比較する比較手段として機能する。   In step S <b> 713, the control unit 203 counts the number of adjacent colors of the text component and the background converted to the color displayed by the projector device 106 and the number of adjacent colors of the arrow component and the background. In the case of the presentation image shown in FIG. 2, the number of adjacent colors between the “Text1” component and the background is 32, and the number of adjacent colors between the “Text2” component and the background is 64. The number of adjacent colors between the “Text3” component and the background is 32, and the number of adjacent colors between the “Text4” component and the background is 32. The number of adjacent colors of the arrow component and the background is 64. In this case, the total number of adjacent colors is 224 (S713). The visibility between the component and the background is evaluated by the processing performed in S714, S715, S716, S717, and S718 (S715). That is, the control unit 203 also functions as a calculation unit that calculates a visibility evaluation value related to brightness and chromaticity between the component and the background. In step S716, the comparison unit 205 compares the obtained evaluation value with a predetermined reference value. That is, the comparison unit 205 functions as a comparison unit that compares the visibility evaluation value with a preset reference value.

S717で強調部206は、比較部205が比較結果に基づき、評価値が基準値を下回り、視認性が悪いと判定した場合、視認性を高めるために、背景の明度または色度を変更する。すなわち、強調部206は明度または色度を変更することにより視認性を高める変更手段として機能する。変更の結果、S719でプロジェクタ装置106は、コンポーネントの視認性が高まるように背景の色を変換した画像を出力する。   In S717, when the comparison unit 205 determines that the evaluation value is lower than the reference value and the visibility is poor based on the comparison result, the enhancement unit 206 changes the lightness or chromaticity of the background in order to increase the visibility. That is, the emphasizing unit 206 functions as a changing unit that increases visibility by changing lightness or chromaticity. As a result of the change, in S719, the projector device 106 outputs an image in which the background color is converted so that the visibility of the component is enhanced.

図3は、第1の実施形態のフローチャートである図7におけるS702、S703、S704の説明図である。すなわち、通信部202は、図3(A)に示すスライド表示装置の機種及び調整設定値を取得する。また通信部202は、図3(B)に示す具体的な演算順序、処理手法も取得する。図3(A)に示すように、通信部202は、スライド表示装置の機種として製品名を、調整設定値として、表示モード、Rゲイン、Rオフセット、Rガンマ、及び色補正Aの設定値を受け取る。本図では、G及びBの設定値や他の色補正などの設定メニュー値はRと類似であり簡略のため省略している。   FIG. 3 is an explanatory diagram of S702, S703, and S704 in FIG. 7 which is a flowchart of the first embodiment. That is, the communication unit 202 acquires the model and adjustment setting value of the slide display device illustrated in FIG. The communication unit 202 also acquires a specific calculation order and processing method illustrated in FIG. As shown in FIG. 3A, the communication unit 202 uses the product name as the model of the slide display device, the adjustment setting values, and the display mode, R gain, R offset, R gamma, and color correction A setting values. receive. In this figure, G and B setting values and other setting menu values such as color correction are similar to R and are omitted for simplicity.

図3(B)には、図3(A)に示す調整設定値に対応した演算順序、処理手法が示されている。図の上部から順に、表示モードに対応するRGB色度と白及び黒の色度とが記されている。また、図3(A)には、設定メニュー値内のガンマ調整値がデフォルト(一般的には±0)時のガンマ値が記されている。   FIG. 3B shows the calculation order and processing method corresponding to the adjustment set values shown in FIG. In order from the top of the figure, RGB chromaticity corresponding to the display mode and white and black chromaticities are described. FIG. 3A shows the gamma value when the gamma adjustment value in the setting menu value is default (generally ± 0).

制御部203は、これらの数値を用いて単純に演算できないと判断した場合に、図3(C)に示すように、記憶部204に予め設定し、記憶した表示モード時のデフォルト時における入出力状態を表す対応表を用いて演算することもできる。図3(C)に示すように、RGBはデフォルトの入力RGBデータ値であり、XYZは国際照明委員会(CIE)の定めるXYZ表色系の三刺激値である。   When the control unit 203 determines that it cannot be simply calculated using these numerical values, as shown in FIG. 3C, the input / output at the time of default in the display mode preset in the storage unit 204 and stored. It is also possible to calculate using a correspondence table representing the state. As shown in FIG. 3C, RGB is a default input RGB data value, and XYZ is an XYZ color system tristimulus value defined by the International Commission on Illumination (CIE).

また図3(B)には、「Rゲイン:+5」に対応する「1:×1.05」、「Rオフセット:−3」に対応する「2:−6」等、図3(A)に対応する具体的な処理順序、処理手法が記されている。例えば、「1:×1.05」は「一番目の処理で入力を×1.05倍」する事を意味する。図3(A)に示す「色補正A」に対応する、図3(B)に示す「YCC(601)色空間:補間A」は、「国際電気通信連合の定義するITU−R.BT601色空間において演算し、補間A処理を行なうこと」を意味する。続く「肌色1:+3,+3」は「3(番目の処理)、+150度の色相データを+3度回す色相処理を施し、+3%彩度を高める」という処理を意味する。「肌色1:+3,+3」以降に記載されている調整設定値に対応する処理は、前述と同様の処理であり説明は省略する。   FIG. 3B shows “1: × 1.05” corresponding to “R gain: +5”, “2: -6” corresponding to “R offset: −3”, etc. A specific processing order and processing method corresponding to the above are described. For example, “1: × 1.05” means “input is multiplied by × 1.05 in the first process”. “YCC (601) color space: interpolation A” shown in FIG. 3B corresponding to “color correction A” shown in FIG. 3A is “ITU-R.BT601 color defined by the International Telecommunication Union”. It means that the calculation is performed in space and the interpolation A process is performed. The subsequent “skin color 1: +3, +3” means “3 (the first process), a process of performing hue process of rotating +150 degree hue data by +3 degree to increase + 3% saturation”. The processing corresponding to the adjustment setting values described after “skin color 1: +3, +3” is the same processing as described above, and a description thereof will be omitted.

図3(D)は、制御部203がプロファイルを作成する際の信号処理手順を示す。図3(D)に示すように、301、302、303は入力部であり、RGBデータの各データが入力される。制御部203は、304、305、306でRGB各データに対する一番目の処理であるゲイン処理を行う。次いで、制御部203は、307、308、309でゲイン処理を、304、305、306で出力に対する二番目の処理であるRGBに対するオフセット処理を行う。310は三番目の処理である色補正Aである。具体的には、制御部203はRGBから前述のITU−R.BT601色空間へのマトリクス処理、ITU−R.BT601色空間における色の処理を行う。その後、制御部203は、図3(B)に示す補間Aとして記されている補間処理、ITU−R.BT601色空間からRGBへの逆マトリクス演算を行う。図3(A)及び図3(B)には詳細を示していないが、制御部203は四番目の処理を行ってもよく、図3(D)に示す311の処理が挙げられる。311では任意の設定による処理が行われてよく、それにより、より正確な三刺激値XYZが得られる。   FIG. 3D shows a signal processing procedure when the control unit 203 creates a profile. As shown in FIG. 3D, reference numerals 301, 302, and 303 denote input units, to which RGB data is input. The control unit 203 performs gain processing, which is the first processing for RGB data, in 304, 305, and 306. Next, the control unit 203 performs gain processing at 307, 308, and 309, and performs offset processing for RGB, which is the second processing for output at 304, 305, and 306. Reference numeral 310 denotes color correction A, which is the third process. Specifically, the control unit 203 converts the ITU-R. Matrix processing to BT601 color space, ITU-R. Color processing in the BT601 color space is performed. Thereafter, the control unit 203 performs interpolation processing, ITU-R. Inverse matrix calculation from BT601 color space to RGB is performed. Although details are not shown in FIGS. 3A and 3B, the control unit 203 may perform the fourth process, and includes the process 311 shown in FIG. 3D. In 311, processing by an arbitrary setting may be performed, whereby a more accurate tristimulus value XYZ is obtained.

図3(D)に示す312、313、314は、RGBデータに対する五番目の処理であるガンマ処理であり、図3(A)(B)に示すように、制御部203は、デフォルト状態のガンマ値に対し、「−0.4」のガンマ処理を行う。例えば、モニタガンマ基準値が2.2である場合に、ガンマ処理値「−0.4」が、前記基準値2.2に対する表示モードAにおけるガンマ変化量とすると、2.2から0.4をマイナスした1.8が本メニュー状態でのR信号に対するガンマ処理となる。このときのガンマ処理において、ガンマ処理312、313、314に対する入出力の関係は、出力 = 入力 ^ (1.8/2.2)という関係式で表される。   3D, 312, 313, and 314 shown in FIG. 3D are gamma processes that are the fifth processes for RGB data. As shown in FIGS. 3A and 3B, the control unit 203 performs gamma processing in the default state. A gamma process of “−0.4” is performed on the value. For example, if the monitor gamma reference value is 2.2, and the gamma processing value “−0.4” is the gamma change amount in the display mode A with respect to the reference value 2.2, 2.2 to 0.4 A value of 1.8 minus is gamma processing for the R signal in this menu state. In the gamma processing at this time, the input / output relationship with respect to the gamma processing 312, 313, 314 is expressed by a relational expression of output = input ^ (1.8 / 2.2).

制御部203は、ガンマ処理を行った後、315で示す三刺激値演算処理を行う。具体的には、制御部203は、312、313、314で行ったガンマ処理から出力されたRGBデータに対し、RGB色度、白及び黒色度、デフォルト状態でのRGBガンマ値を用いてCIEが定める三刺激値XYZへの変換処理を行う。ここで、RGB色度、白及び黒色度は各色に対する三刺激値XYZである。   The control unit 203 performs tristimulus value calculation processing indicated by 315 after performing gamma processing. Specifically, the control unit 203 uses the RGB chromaticity, white and blackness, and the RGB gamma value in the default state for the RGB data output from the gamma processing performed in 312, 313, and 314. Conversion processing to the defined tristimulus values XYZ is performed. Here, RGB chromaticity, white and blackness are tristimulus values XYZ for each color.

図4はデフォルト状態のRGBのガンマ値がそれぞれ2.2である時に、制御部203が正規化することにより0以上1以下となったRGBデータに対し三刺激値演算処理315を介して出力する三刺激値XYZへの変換式の例である。ここで、Xr、Yr、ZrはRGB色度のRデータの三刺激値である。同様にXg、Yg、ZgはGデータ、Xb、Yb、ZbはBデータの三刺激値を表し、Xk、Yk、Zkは黒に対する三刺激値を表している。この変換式の例では、制御部203は入力されたRGBデータが8ビットデータであれば255で除算した後、2.2乗演算し、マトリクス演算し、さらに黒に対する三刺激値を加算して演算する。制御部203は、演算の結果得られた三刺激値XYZをプロジェクタ装置106から入力されたRGBデータと関連付けてプロファイルとし、該プロファイルを記憶部に記憶させる。   In FIG. 4, when the RGB gamma values in the default state are 2.2, RGB data that has become 0 or more and 1 or less as a result of normalization by the control unit 203 is output via the tristimulus value calculation process 315. It is an example of the conversion type | formula to tristimulus value XYZ. Here, Xr, Yr, and Zr are tristimulus values of R data of RGB chromaticity. Similarly, Xg, Yg, and Zg represent tristimulus values of G data, Xb, Yb, and Zb represent B data, and Xk, Yk, and Zk represent tristimulus values for black. In this conversion formula example, if the input RGB data is 8-bit data, the control unit 203 divides by 255, then performs a power of 2.2, performs a matrix operation, and further adds the tristimulus values for black. Calculate. The control unit 203 associates the tristimulus values XYZ obtained as a result of the calculation with the RGB data input from the projector device 106 as a profile, and stores the profile in the storage unit.

次に、図5及び図6を用いて、図7に示すステップS715、S716及びS717で画像調整装置201が行う視認性評価および背景明度/色変換を説明する。図5(A)はS712で制御部203が行った、表示装置色に変換されたプレゼンテーション表示装置画像である。   Next, the visibility evaluation and background lightness / color conversion performed by the image adjustment apparatus 201 in steps S715, S716, and S717 shown in FIG. 7 will be described with reference to FIGS. FIG. 5A shows a presentation display device image converted by the control device 203 in step S712 into display device colors.

図5(B)は、図5(A)のText1コンポーネントの一部拡大図である。図5(B)に示すように、「1」という数字はテキストコンポーネントの一部である。本実施形態では、背景がグラデーションになっている。図5(B)に示すように、テキスト色はT0であり、背景画像は6レベルの区画からなっており、背景色は上からB0、B1、B2、B3、B4、B5となっている。従って、S713で制御部203は、図5(B)に示される領域のコンポーネントと背景の隣接色数をカウントし、6色であると判定する。   FIG. 5B is a partially enlarged view of the Text1 component of FIG. As shown in FIG. 5B, the number “1” is a part of the text component. In the present embodiment, the background is gradation. As shown in FIG. 5B, the text color is T0, the background image is composed of 6 levels, and the background colors are B0, B1, B2, B3, B4, and B5 from the top. Accordingly, in step S713, the control unit 203 counts the number of adjacent colors of the component and background in the region illustrated in FIG. 5B, and determines that there are six colors.

図5(C)はテキスト色と背景色の視認性評価値の例を示す。制御部203は、図3(D)に示す316、317、318から出力される三刺激値を用いて視認性の評価値を演算する。また、本実施形態では、テキストコンポーネントの三刺激値は(XTO、YTO、ZTO)であり、6レベルの背景の三刺激値は上から(XBO、YBO、ZBO(XB1、YB1、ZB1)、...、(XB5、YB5、ZB5)である。この時、視認性の評価値は、CIEの明度L*(エルスター)、色度u*(ユースター)、及びv*(ブイスター)、から計算されるL*u*v*色差を用いて、以下の式(1)として表すことができる。

Figure 2013114076
視認性評価値=f(L*u*v*色差)
ここで、テキスト色(T0)と一番上の背景色(B0)に対するL*u*v*色差は、白入力に対する表示装置色をX、Y、Zとする時、以下の式(2)を用いて演算することができる。
Figure 2013114076
L*TO=116×(YTO/Y)^(1/3)−16
L*BO=116×(YBO/Y)^(1/3)−16
u*TO=13×L*TO×(uTO−u
u*BO=13×L*BO×(uBO−u
v*TO=13×L*TO×(vTO−v
v*BO=13×L*BO×(vBO−v
TO=4×XTO/(XTO+15×YTO+3×ZTO
TO=9×YTO/(XTO+15×YTO+3×ZTO
BO=4×XBO/(XBO+15×YBO+3×ZBO
BO=9×YBO/(XBO+15×YBO+3×ZBO
=4×X/(X+15×Y+3×Z
=9×Y/(X+15×Y+3×Z
制御部203は、他の背景色(B1〜B5)に対しても同様の演算を行う。 FIG. 5C shows an example of the visibility evaluation values of the text color and the background color. The control unit 203 calculates a visibility evaluation value using the tristimulus values output from 316, 317, and 318 shown in FIG. In the present embodiment, the tristimulus values of the text component are ( XTO , YTO , ZTO ), and the tristimulus values of the 6-level background are from the top ( XBO , YBO , ZBO ) , ( XB1 , YB1 , ZB1 ),. . . , (X B5 , Y B5 , Z B5 ). At this time, the visibility evaluation value is calculated using the L * u * v * color difference calculated from the lightness L * (Elster), chromaticity u * (Yustar), and v * (Buister) of the CIE. Can be expressed as the following formula (1).
Figure 2013114076
Visibility evaluation value = f (L * u * v * color difference)
Here, L * u * v * color difference for the text color (T0) and the top of the background color (B0), when the display device color for white input X W, Y W, and Z W, the following formula (2) can be used for calculation.
Figure 2013114076
L * TO = 116 × (Y TO / Y W) ^ (1/3) -16
L * BO = 116 × (Y BO / Y W) ^ (1/3) -16
u * TO = 13 × L * TO × (u TO -u W)
u * BO = 13 × L * BO × (u BO -u W)
v * TO = 13 × L * TO × (v TO -v W)
v * BO = 13 × L * BO × (v BO -v W)
u TO = 4 × X TO / (X TO + 15 × Y TO + 3 × Z TO )
vTO = 9 * YTO / ( XTO + 15 * YTO + 3 * ZTO )
u BO = 4 × X BO / (X BO + 15 × Y BO + 3 × Z BO )
v BO = 9 × Y BO / (X BO + 15 × Y BO + 3 × Z BO )
u W = 4 × X W / (X W + 15 × Y W + 3 × Z W )
v W = 9 × Y W / (X W + 15 × Y W + 3 × Z W)
The control unit 203 performs the same calculation for the other background colors (B1 to B5).

ここで、関数f(L*u*v*色差)は、三刺激値X、Y、Zが等しく同じ色であるときを100、L*u*v*色差が大きい時ほど小さくなるような変換式である。例えば、以下の式(3)として表すことができる。
f(L*u*v*色差)=100−N×(L*u*v*色差) ・・・式(3)
N:任意の数
Here, the function f (L * u * v * color difference) is 100 when the tristimulus values X, Y, and Z are the same and the same color, and becomes smaller as the L * u * v * color difference is larger. It is a formula. For example, it can be expressed as the following formula (3).
f (L * u * v * color difference) = 100−N × (L * u * v * color difference) Expression (3)
N: Any number

上記評価値を用いて、テキスト色に対する6レベルの各背景色を評価した時の結果を図5(C)に示す。各レベル、すなわち区画毎の評価値は、背景(B0)に対し90、背景(B1)に対し85、背景(B2)に対し80、背景(B3)に対し75、背景(B4)に対し70、背景(B5)に対し65になっている。ここで、評価基準値を80と設定していた場合、制御部203は背景色B0、背景色B1及び背景色B2が評価基準値以上であり、背景明度/色度の変換対象とはならないと判断する。制御部203は背景色B3、背景色B4及び背景色B5は評価基準値未満であると判断し、強調部206に背景明度/色度の変換処理を行なうように指示する。図5(D)は強調部206が背景明度/色度の変換処理を行った後のプレゼンテーション用表示画像である。図5(D)に示すように、図5(B)に示す背景色B3、背景色B4及び背景色B5が、背景色B3c、背景色B4c及び背景色B5cに変換されている。   FIG. 5C shows the result of evaluating each of the 6 levels of background colors with respect to the text color using the evaluation values. The evaluation value for each level, that is, for each section, is 90 for the background (B0), 85 for the background (B1), 80 for the background (B2), 75 for the background (B3), and 70 for the background (B4). , 65 for the background (B5). Here, when the evaluation reference value is set to 80, the control unit 203 has that the background color B0, the background color B1, and the background color B2 are equal to or higher than the evaluation reference value, and does not become a conversion target of the background lightness / chromaticity. to decide. The control unit 203 determines that the background color B3, the background color B4, and the background color B5 are less than the evaluation reference value, and instructs the enhancement unit 206 to perform background lightness / chromaticity conversion processing. FIG. 5D shows a display image for presentation after the enhancement unit 206 performs the background lightness / chromaticity conversion processing. As illustrated in FIG. 5D, the background color B3, the background color B4, and the background color B5 illustrated in FIG. 5B are converted into the background color B3c, the background color B4c, and the background color B5c.

図6は、背景明度/色度の変換処理を説明する図である。図6(A)はテキスト色(T0)及び背景色(B0〜B5)の明度L*を表し、図6(B)は、テキスト色(T0)及び背景色(B0〜B5)のu*、v*の色度座標を表す。図6(B)には、強調部206が背景明度/色度を変換処理することによって、色度を変換したB3c、B4c及びB5cも記されている。図6(B)は、色度のみの処理を示している。評価基準値よりも評価値が低いほど色度の変換処理量を大きくする必要があるため、図に示すように、B3からB3cへの色相変換角度よりB5からB5cへの色相変換角度の方が大きい。   FIG. 6 is a diagram for explaining the background lightness / chromaticity conversion processing. 6A shows the lightness L * of the text color (T0) and the background color (B0 to B5), and FIG. 6B shows the u * of the text color (T0) and the background color (B0 to B5). Represents the chromaticity coordinates of v *. FIG. 6B also shows B3c, B4c, and B5c obtained by converting the chromaticity by the enhancement unit 206 converting the background lightness / chromaticity. FIG. 6B shows processing only for chromaticity. As the evaluation value is lower than the evaluation reference value, it is necessary to increase the amount of chromaticity conversion processing. Therefore, as shown in the figure, the hue conversion angle from B5 to B5c is greater than the hue conversion angle from B3 to B3c. large.

第1の実施形態では、視認性評価式にCIEのL*u*v*色差式を用いた実施形態として表記しているが、評価式及び評価値は限定されるものではない。さらに、背景明度/色度の変換処理量として評価値と基準値との差に応じた色相角変換量を記述しているが、背景の明度または色度の一方のみを視認性の評価値として決める方法を用いてもよい。また、本実施形態において、PC101がプレゼンテーション用ソフトウェアを備えている例を記載したが、プロジェクタ装置106が該ソフトウェア備えることも可能である。   In the first embodiment, the CIE L * u * v * color difference formula is used as the visibility evaluation formula. However, the evaluation formula and the evaluation value are not limited. Furthermore, the hue angle conversion amount corresponding to the difference between the evaluation value and the reference value is described as the background lightness / chromaticity conversion processing amount, but only one of the background lightness or chromaticity is used as the visibility evaluation value. A method of determining may be used. In the present embodiment, an example in which the PC 101 includes presentation software has been described. However, the projector device 106 may include the software.

(第2の実施形態)
図8は、本発明に係る第2の実施形態のフローチャートである。なお、S801からS816までの処理は第1の実施形態におけるS701からS716までと同様であるため説明は省略する。S816で、比較部205は評価結果を既定の基準値と比較する。S817で、比較部が該評価結果が既定の基準値より低いと判断した場合、そのコンポーネント隣接エリアは視認性が低く表示情報が識別困難なエリアであると判断する。S820で、強調部206は視認性の低いエリアに対しエッジ強調または縁取り処理を行ない、処理を施した画像データを制御部203を介して通信部202に渡す。S819で、通信部202から画像データを受け取ったプロジェクタ装置106は、全コンポーネントに対し視認性が高まるように色変換された画像を出力する。
(Second Embodiment)
FIG. 8 is a flowchart of the second embodiment according to the present invention. Note that the processing from S801 to S816 is the same as that from S701 to S716 in the first embodiment, and a description thereof will be omitted. In step S816, the comparison unit 205 compares the evaluation result with a predetermined reference value. In S817, when the comparison unit determines that the evaluation result is lower than the predetermined reference value, the component adjacent area is determined to be an area where visibility is low and display information is difficult to identify. In step S <b> 820, the enhancement unit 206 performs edge enhancement or edging processing on an area with low visibility, and passes the processed image data to the communication unit 202 via the control unit 203. In step S <b> 819, the projector device 106 that has received the image data from the communication unit 202 outputs an image that has been color-converted so that the visibility is improved for all components.

図9は、第2の実施形態のS820で強調部206が行ったエッジ強調または縁取り処理の詳細図である。図9(A)、図9(B)及び図9(C)は図6の図6(A)、図6(B)及び図6(C)に類似しているため、説明は省略する。図9(D)の実線で囲まれたエリアは、図8のS817で比較部205が視認性が低いと判断したエリアを表している。具体的には、テキスト色T0と背景色B3、テキスト色T0と背景色B4、テキスト色T0と背景色B5の境界部分である。   FIG. 9 is a detailed view of the edge enhancement or edging process performed by the enhancement unit 206 in S820 of the second embodiment. 9A, 9B, and 9C are similar to FIG. 6A, FIG. 6B, and FIG. 6C of FIG. An area surrounded by a solid line in FIG. 9D represents an area that the comparison unit 205 determines in S817 in FIG. 8 that the visibility is low. Specifically, it is a boundary portion between the text color T0 and the background color B3, the text color T0 and the background color B4, and the text color T0 and the background color B5.

図9(E)は、図8のS820で強調部206が行った基準値未満エリア処理の一例を示す図である。強調部206は、図8(D)で説明した視認性が低いエリア部の明度に対し、エッジ強調処理を施す。すなわち、強調部206は評価値の高いB3エリアより評価値の低いB4及びB5エリアに対し、強度を強めたエッジ強調処理を施す。強調部206は、テキストコンポーネント側にもエッジ強調処理が施すが、T0の明度レベルが高いためプロジェクタ装置106が表示する画像に変化はおきない。   FIG. 9E is a diagram illustrating an example of an area less than the reference value area processing performed by the emphasizing unit 206 in S820 of FIG. The emphasizing unit 206 performs edge emphasis processing on the brightness of the area part with low visibility described with reference to FIG. That is, the emphasizing unit 206 performs edge enhancement processing with increased strength on the B4 and B5 areas having lower evaluation values than the B3 area having higher evaluation values. The emphasizing unit 206 performs edge emphasis processing on the text component side as well, but since the brightness level of T0 is high, the image displayed by the projector device 106 does not change.

同様に、図9(F)は図8のS820で強調部206が行った基準値未満エリア処理の別の例を示す。この例では、強調部206は、図8(D)で表される視認性が低いエリア部B3〜B5が同じ明度になるように縁取り処理を施す。   Similarly, FIG. 9F shows another example of the area less than the reference value area process performed by the emphasizing unit 206 in S820 of FIG. In this example, the emphasizing unit 206 performs border processing so that the area portions B3 to B5 with low visibility shown in FIG. 8D have the same brightness.

第2の実施形態における、エッジ強調処理量は、評価値と基準値との差に応じた処理強度を記述しているが、必ずしも評価値と基準値との差に応じて変化させる必要はない。また、エッジ強調の強度や縁取り処理の縁の太さまたは濃さも一定である必要はない。例えば、表示解像度、設定メニューのうち解像感に関与するメニューである「シャープネス/ソフトネス」、明度を制御するメニューである「ゲイン/オフセット/ガンマ」などに連動して変化させてもよい。   The edge emphasis processing amount in the second embodiment describes the processing intensity according to the difference between the evaluation value and the reference value, but it is not necessarily changed according to the difference between the evaluation value and the reference value. . Further, the edge emphasis strength and the edge thickness or darkness of the edging process need not be constant. For example, “sharpness / softness”, which is a menu related to the resolution among the display resolution and setting menu, and “gain / offset / gamma”, which is a menu for controlling brightness, may be changed.

(第3の実施形態)
図10は、本発明に係る第3の実施形態のフローチャートである。なお、S1001からS1016までの処理は、図7のS701からS716までと同様であるため説明は省略する。S1016で比較部205は評価結果を既定の基準値と比較する。比較部205は、評価結果が基準値より低いと判断した場合、そのコンポーネント隣接エリアは視認性が低く、表示される画像が識別困難なエリアであると判断する。
(Third embodiment)
FIG. 10 is a flowchart of the third embodiment according to the present invention. Note that the processing from S1001 to S1016 is the same as that from S701 to S716 in FIG. In step S1016, the comparison unit 205 compares the evaluation result with a predetermined reference value. When the comparison unit 205 determines that the evaluation result is lower than the reference value, the component adjacent area has low visibility and determines that the displayed image is an area that is difficult to identify.

S1017で、比較部205は、基準値未満のエリアの数、例えば図5に示すB3〜B5の数をカウントする。比較部205は、カウント結果の数と既定の警告カウント情報の数とを比較する。比較部205は、カウント結果の数が既定の警告カウント情報の数と等しいまたは上回る場合は、通信部202を介してPCモニタに警告表示、例えばコンポーネントと隣接するコンポーネントとの差異を明確にするための強調処理を促す警告表示を行う。なお、警告カウント情報とは、基準値未満エリアが既定数以上であるとき警告を表示させる数値を表す情報である。警告カウント情報は、ユーザが設定しても良い。   In step S1017, the comparison unit 205 counts the number of areas less than the reference value, for example, the numbers B3 to B5 illustrated in FIG. The comparison unit 205 compares the number of count results with the number of predetermined warning count information. When the number of count results is equal to or exceeds the number of predetermined warning count information, the comparison unit 205 displays a warning on the PC monitor via the communication unit 202, for example, to clarify the difference between a component and an adjacent component A warning is displayed to prompt the highlighting process. The warning count information is information representing a numerical value for displaying a warning when the area less than the reference value is equal to or larger than a predetermined number. The warning count information may be set by the user.

PCモニタ102に表示された警告表示によりユーザは、視認性処理の判断を行う。警告表示に対し、視認性の処理を行なわないとユーザが決定した場合は、S1019でプロジェクタ装置106が視認性の処理を行っていない画像を出力する。一方、警告表示に対し、視認性の処理を行なうとユーザが決定した場合、通信部202は視認性の処理指示を受け取り、制御部203に渡す。制御部203は視認性の処理指示を受け取ると、S1021で強調部206に視認性の処理を行わせる。S1021で強調部206が行う視認性の処理は、第1の実施形態のS717で行う処理または第2の実施形態のS820で行う処理である。その後S1019で、プロジェクタ装置106は、視認性の処理が行われた画像を通信部202を介して受け取り、該画像を出力する。   The user determines the visibility process based on the warning display displayed on the PC monitor 102. If the user decides not to perform the visibility process for the warning display, in S1019, the projector device 106 outputs an image for which the visibility process has not been performed. On the other hand, when the user decides to perform visibility processing on the warning display, the communication unit 202 receives a visibility processing instruction and passes it to the control unit 203. Upon receiving the visibility processing instruction, the control unit 203 causes the enhancement unit 206 to perform visibility processing in S1021. The visibility process performed by the enhancement unit 206 in S1021 is the process performed in S717 of the first embodiment or the process performed in S820 of the second embodiment. Thereafter, in S1019, the projector device 106 receives the image on which the visibility processing has been performed via the communication unit 202, and outputs the image.

(第4の実施形態)
図11は、本発明に係る第4の実施形態のフローチャートである。S1101及びS1102の処理は、第1の実施形態のS701及びS702と同様である。S1122で制御部203は、記憶部204を参照し、S1102で取得した機器に対する表示機器情報ファイルを検索する。記憶部204が表示機器情報ファイルを所持していない場合、S1123で制御部203は、通信部202を介してプロジェクタ装置106から表示機器情報ファイルを取得する。なお、表示機器情報ファイルとは、図3(B)を参照して説明した情報のさらに詳細な情報である。図3(B)に示す図3(A)に対応した演算順序、処理方法の情報であるのに対し、表示機器情報ファイルは、表示機器のあらゆる表示モード、設定メニュー値に対応する処理順序、処理方法を含む。具体的には、RGB色度や白/黒色度やガンマ特性などの表示特性、RGBデータ処理順序、RGBデータ処理方法である。S1104で、制御部203は取得した表示機器情報ファイルを基にプロファイルを作成する。以降S1105〜S1121までの処理は図10のS1005〜S1021までの処理と同様であるため説明は省略する。
(Fourth embodiment)
FIG. 11 is a flowchart of the fourth embodiment according to the present invention. The processes of S1101 and S1102 are the same as S701 and S702 of the first embodiment. In step S1122, the control unit 203 refers to the storage unit 204 and searches for a display device information file for the device acquired in step S1102. When the storage unit 204 does not have the display device information file, the control unit 203 acquires the display device information file from the projector device 106 via the communication unit 202 in S1123. The display device information file is more detailed information of the information described with reference to FIG. 3B, the display device information file is a processing order corresponding to all display modes and setting menu values of the display device. Includes processing methods. Specifically, display characteristics such as RGB chromaticity, white / blackness, and gamma characteristics, RGB data processing order, and RGB data processing method. In step S1104, the control unit 203 creates a profile based on the acquired display device information file. Since the processing from S1105 to S1121 is the same as the processing from S1005 to S1021 in FIG.

(第5の実施形態)
次に第5の実施形態について説明する。第5の実施形態では、図11で示したS1119での映像出力に代わりファイルが保存される。S1119で、PCモニタ102に表示された警告表示に対し、ユーザが視認性の処理を行なわないと判断した場合、制御部203は強調部206に視認性の処理を行わせず、記憶部204に判断結果としてファイルを保存させる。一方、警告表示に対し、ユーザが視認性処理を行なうと判断した場合、S1121で制御部203は視認性の処理を行い、S1119で変更した画像データのファイルを判断結果として記憶部204に保存させる。
(Fifth embodiment)
Next, a fifth embodiment will be described. In the fifth embodiment, a file is stored instead of the video output in S1119 shown in FIG. If it is determined in S1119 that the user does not perform the visibility process on the warning display displayed on the PC monitor 102, the control unit 203 does not perform the visibility process on the enhancement unit 206, and stores it in the storage unit 204. Save the file as a judgment result. On the other hand, when it is determined that the user performs the visibility process for the warning display, the control unit 203 performs the visibility process in S1121, and saves the image data file changed in S1119 in the storage unit 204 as a determination result. .

なお、制御部203は、現状のアプリケーションファイル形式で保存してもよく、その他の形式、例えば静止画像として未圧縮もしくは圧縮処理後に保存してもよい。さらに、複数スライド画像を複数の静止画像として1ファイルに未圧縮もしくは圧縮処理後における保存、または複数スライド画像を複数のナンバリングされた静止画像ファイルとして未圧縮もしくは圧縮処理後における保存を行なう場合も含まれる。   The control unit 203 may store the current application file format, or may store it in another format, for example, as a still image, uncompressed or after compression processing. In addition, there are cases where multiple slide images are stored as a plurality of still images in one file after uncompressed or compressed processing, or multiple slide images are stored as a plurality of numbered still image files after uncompressed or compressed processing. It is.

(画像調整プログラム)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そしてそのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Image adjustment program)
The present invention can also be realized by executing the following processing. That is, software (computer program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program. In this case, the program and the storage medium storing the program constitute the present invention.

101 PC
102 PCモニタ
106 プロジェクタ装置
107 スクリーン
101 PC
102 PC monitor 106 Projector device 107 Screen

Claims (13)

情報処理装置で作成された画像データを、表示装置から表示する画像データに調整するための画像調整方法であって、
前記情報処理装置から第1コンポーネントの情報及び第2コンポーネントの情報を含む画像データと、前記表示装置が表示する画像用の表示設定とを取得する取得工程と、
前記表示設定を用いて、RGBデータと明度及び色度とを関連付けたプロファイルを作成し、作成した前記プロファイルを用いて前記情報処理装置で作成された画像データを前記表示装置から出力する画像データに変換する変換工程と、
前記変換工程で変換された前記画像データに含まれる第1コンポーネントと第2コンポーネントとの間の明度及び色度の差に関する視認性の評価値を演算する演算工程と、
前記演算工程で取得した視認性の評価値と、予め設定された基準値とを比較する比較工程と、
前記比較工程で得られた比較結果が前記基準値を下回る場合に視認性が低いと判断し、前記明度または前記色度を変更することにより視認性を高める変更工程と、
を含むことを特徴とする画像調整方法。
An image adjustment method for adjusting image data created by an information processing device to image data to be displayed from a display device,
An acquisition step of acquiring image data including information on the first component and information on the second component from the information processing device, and display settings for images displayed on the display device;
A profile that associates RGB data with brightness and chromaticity is created using the display settings, and image data created by the information processing device using the created profile is output to the image data output from the display device. A conversion process to convert;
A calculation step of calculating a visibility evaluation value relating to a difference in brightness and chromaticity between the first component and the second component included in the image data converted in the conversion step;
A comparison step of comparing the evaluation value of visibility acquired in the calculation step with a preset reference value;
When the comparison result obtained in the comparison step is less than the reference value, it is determined that the visibility is low, and the change step for increasing the visibility by changing the lightness or the chromaticity, and
The image adjustment method characterized by including.
前記演算工程は、前記第1コンポーネントと前記第2コンポーネントの隣接色数を区画毎にカウントし、カウントした前記各区画の隣接色数を予め設定された評価基準値と比較し、前記各区画の隣接色についてそれぞれの視認性の評価値を演算する、ことを特徴とする請求項1に記載の画像調整方法。   The calculation step counts the number of adjacent colors of the first component and the second component for each section, compares the counted number of adjacent colors of each section with a preset evaluation reference value, The image adjustment method according to claim 1, wherein an evaluation value of each visibility is calculated for adjacent colors. 前記視認性の評価値は、L*u*v*色差の関数である、ことを特徴とする請求項1に記載の画像調整方法。   The image adjustment method according to claim 1, wherein the visibility evaluation value is a function of L * u * v * color difference. 前記変更工程は、前記比較手段により得られた比較結果が前記基準値を下回る場合に視認性が低いと判断し、前記基準値を下回る領域の前記第1コンポーネントの色もしくは前記第2コンポーネントの色または前記第1コンポーネントの明度もしくは前記第2コンポーネントの明度を変更することにより強調処理を施す、ことを特徴とする請求項1に記載の画像調整方法。   The changing step determines that the visibility is low when the comparison result obtained by the comparison unit is below the reference value, and the color of the first component or the color of the second component in the region below the reference value. The image adjustment method according to claim 1, wherein the enhancement process is performed by changing a brightness of the first component or a brightness of the second component. 前記変更工程は、前記比較手段により得られた比較結果が前記基準値を下回る場合に視認性が低いと判断し、前記基準値を下回る領域の前記第1コンポーネントと前記第2コンポーネントとの境界を強調する強調処理を施す、ことを特徴とする請求項1に記載の画像調整方法。   The changing step determines that the visibility is low when the comparison result obtained by the comparing means is below the reference value, and defines the boundary between the first component and the second component in the region below the reference value. The image adjustment method according to claim 1, wherein enhancement processing for emphasis is performed. 前記比較工程で得られた比較結果が前記基準値を下回る場合に視認性が低いと判断され、前記情報処理装置に対して警告を通知し、それにより前記情報処理装置を操作するユーザに強調処理の判断を促す警告工程をさらに含む、ことを特徴とする請求項1に記載の画像調整方法。   When the comparison result obtained in the comparison step is less than the reference value, it is determined that the visibility is low, and a warning is sent to the information processing apparatus, thereby enhancing the user who operates the information processing apparatus The image adjustment method according to claim 1, further comprising a warning step that prompts the user to make a determination. 前記警告工程を介して前記情報処理装置を操作するユーザに強調処理の判断を促した際に、前記ユーザによる強調処理の判断結果を保存する保存工程をさらに含む、ことを特徴とする請求項6に記載の画像調整方法。   7. The method according to claim 6, further comprising: a storage step of storing a determination result of the emphasis process by the user when prompting a user operating the information processing apparatus through the warning step to determine the emphasis process. The image adjustment method described in 1. 情報処理装置で作成された画像データを表示させる表示装置とネットワークを介して通信することができる画像調整装置であって、
前記情報処理装置から第1コンポーネントの情報及び第2コンポーネントの情報を含む画像データと、前記表示装置が表示する画像用の表示設定とを取得する取得手段と、
前記表示設定を用いて、RGBデータと明度及び色度とを関連付けたプロファイルを作成し、作成した前記プロファイルを用いて前記情報処理装置で作成された画像データを前記表示装置から出力する画像データに変換する変換手段と、
前記変換手段により変換された前記画像データに含まれる第1コンポーネントと第2コンポーネントとの間の明度及び色度の差に関する視認性の評価値を演算する演算手段と、
前記演算手段により取得した視認性の評価値と、予め設定された基準値とを比較する比較手段と、
前記比較手段により得られた比較結果が前記基準値を下回る場合に視認性が低いと判断し、前記明度または前記色度を変更することにより視認性を高める変更手段と、
を備えることを特徴とする画像調整装置。
An image adjustment device capable of communicating via a network with a display device that displays image data created by an information processing device,
Acquisition means for acquiring image data including information on the first component and information on the second component from the information processing apparatus, and display settings for images displayed on the display device;
A profile that associates RGB data with brightness and chromaticity is created using the display settings, and image data created by the information processing device using the created profile is output to the image data output from the display device. Conversion means for converting;
A computing means for computing a visibility evaluation value relating to a difference in brightness and chromaticity between the first component and the second component contained in the image data converted by the converting means;
Comparison means for comparing the evaluation value of visibility acquired by the calculation means with a preset reference value;
A change unit that determines that the visibility is low when the comparison result obtained by the comparison unit is lower than the reference value, and that increases the visibility by changing the lightness or the chromaticity;
An image adjustment apparatus comprising:
請求項1乃至7のいずれか1項に記載の画像調整方法をコンピュータに実行させることを特徴とする画像調整プログラム。   An image adjustment program for causing a computer to execute the image adjustment method according to claim 1. 情報処理装置で作成された画像データを、表示装置から表示する画像データに調整するための画像調整方法であって、
前記情報処理装置から第1コンポーネントの情報及び第2コンポーネントの情報を含む画像データと、前記表示装置が表示する画像用の表示設定とを取得する取得工程と、
前記表示設定を用いて、RGBデータと明度及び色度とを関連付けたプロファイルを作成し、作成した前記プロファイルを用いて前記情報処理装置で作成された画像データを前記表示装置から出力する画像データに変換する変換工程と、
前記変換工程で変換された前記画像データに含まれる第1コンポーネントと第2コンポーネントとの間の明度及び色度の差に関する視認性の評価値を演算する演算工程と、
前記演算工程で取得した視認性の評価値と、予め設定された基準値とを比較する比較工程と、
前記比較工程で得られた比較結果が前記基準値を下回る場合に視認性が低いと判断され、前記情報処理装置に対して警告を通知し、それにより前記情報処理装置を操作するユーザに強調処理の判断を促す警告工程と、
を含むことを特徴とする画像調整方法。
An image adjustment method for adjusting image data created by an information processing device to image data to be displayed from a display device,
An acquisition step of acquiring image data including information on the first component and information on the second component from the information processing device, and display settings for images displayed on the display device;
A profile that associates RGB data with brightness and chromaticity is created using the display settings, and image data created by the information processing device using the created profile is output to the image data output from the display device. A conversion process to convert;
A calculation step of calculating a visibility evaluation value relating to a difference in brightness and chromaticity between the first component and the second component included in the image data converted in the conversion step;
A comparison step of comparing the evaluation value of visibility acquired in the calculation step with a preset reference value;
When the comparison result obtained in the comparison step is less than the reference value, it is determined that the visibility is low, and a warning is sent to the information processing apparatus, thereby enhancing the user who operates the information processing apparatus A warning process that encourages
The image adjustment method characterized by including.
前記警告工程を介して前記情報処理装置を操作するユーザに強調処理の判断を促した際に、前記ユーザによる強調処理の判断結果を保存する保存工程をさらに含む、ことを特徴とする請求項10に記載の画像調整方法。   11. The method according to claim 10, further comprising a storing step of storing a determination result of the emphasis process by the user when the user who operates the information processing apparatus is prompted to determine the emphasis process through the warning step. The image adjustment method described in 1. 情報処理装置で作成された画像データを表示させる表示装置とネットワークを介して通信することができる画像調整装置であって、
前記情報処理装置から第1コンポーネントの情報及び第2コンポーネントの情報を含む画像データと、前記表示装置が表示する画像用の表示設定とを取得する取得手段と、
前記表示設定を用いて、RGBデータと明度及び色度とを関連付けたプロファイルを作成し、作成した前記プロファイルを用いて前記情報処理装置で作成された画像データを前記表示装置から出力する画像データに変換する変換手段と、
前記変換手段により変換された前記画像データに含まれる第1コンポーネントと第2コンポーネントとの間の明度及び色度の差に関する視認性の評価値を演算する演算手段と、
前記演算手段により取得した視認性の評価値と、予め設定された基準値とを比較する比較手段と、
前記比較手段により得られた比較結果が前記基準値を下回る場合に視認性が低いと判断し、前記情報処理装置に対して警告を通知し、それにより前記情報処理装置を操作するユーザに強調処理の判断を促す警告手段と、
を備えることを特徴とする画像調整装置。
An image adjustment device capable of communicating via a network with a display device that displays image data created by an information processing device,
Acquisition means for acquiring image data including information on the first component and information on the second component from the information processing apparatus, and display settings for images displayed on the display device;
A profile that associates RGB data with brightness and chromaticity is created using the display settings, and image data created by the information processing device using the created profile is output to the image data output from the display device. Conversion means for converting;
A computing means for computing a visibility evaluation value relating to a difference in brightness and chromaticity between the first component and the second component contained in the image data converted by the converting means;
Comparison means for comparing the evaluation value of visibility acquired by the calculation means with a preset reference value;
When the comparison result obtained by the comparison means is lower than the reference value, it is determined that the visibility is low, and a warning is sent to the information processing apparatus, thereby enhancing the user who operates the information processing apparatus Warning means to encourage
An image adjustment apparatus comprising:
請求項10または11に記載の画像調整方法をコンピュータに実行させることを特徴とする画像調整プログラム。   An image adjustment program for causing a computer to execute the image adjustment method according to claim 10 or 11.
JP2011260818A 2011-11-29 2011-11-29 Image adjustment method, image adjustment device and image adjustment program Pending JP2013114076A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011260818A JP2013114076A (en) 2011-11-29 2011-11-29 Image adjustment method, image adjustment device and image adjustment program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011260818A JP2013114076A (en) 2011-11-29 2011-11-29 Image adjustment method, image adjustment device and image adjustment program

Publications (1)

Publication Number Publication Date
JP2013114076A true JP2013114076A (en) 2013-06-10

Family

ID=48709655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011260818A Pending JP2013114076A (en) 2011-11-29 2011-11-29 Image adjustment method, image adjustment device and image adjustment program

Country Status (1)

Country Link
JP (1) JP2013114076A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190029265A (en) * 2017-09-12 2019-03-20 주식회사 슈가브릭스 Automatic contrast adjustment system and Method thereof
JP2019071574A (en) * 2017-10-10 2019-05-09 京セラドキュメントソリューションズ株式会社 Image output control device, image output control method, image output system, and image output control program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190029265A (en) * 2017-09-12 2019-03-20 주식회사 슈가브릭스 Automatic contrast adjustment system and Method thereof
KR101979667B1 (en) 2017-09-12 2019-05-17 주식회사 슈가브릭스 Automatic contrast adjustment system and Method thereof
JP2019071574A (en) * 2017-10-10 2019-05-09 京セラドキュメントソリューションズ株式会社 Image output control device, image output control method, image output system, and image output control program

Similar Documents

Publication Publication Date Title
US20030016862A1 (en) Image processing apparatus and method, and profile generating method
JP5897159B2 (en) Display device and control method thereof
EP1819143A1 (en) Color adjusting device and method
JP4687673B2 (en) Monotone processing of color image
JP2009055465A (en) Image processing device and method
US20140240340A1 (en) Color profile generating apparatus, image processing apparatus, image processing system, method of generating color profile, and recording medium storing a program for generating color profile
JP2008206036A (en) Image processor and image processing method
JP5387713B2 (en) Image adjustment apparatus, image adjustment system, and program
US20150271363A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP5253047B2 (en) Color processing apparatus and method
US8115978B2 (en) Information processing method and information processing apparatus for simulating a result output from a first output device based on input data represented in a color space that is dependent on the input device by a second output device
JP4001079B2 (en) Monotone processing of color image
CN110537362B (en) Color processing program, color processing method, color sensation inspection system, output system, color sensation correction image processing system, and color sensation simulation image processing system
JP2013114076A (en) Image adjustment method, image adjustment device and image adjustment program
WO2022120799A1 (en) Image processing method and apparatus, electronic device, and storage medium
KR102160247B1 (en) Electronic apparatus and Method for controlling the electronic apparatus thereof
JP6577766B2 (en) Image processing device
EP3503017A1 (en) Method and display device
JP2006238335A (en) Information processing method
JP5476108B2 (en) Display device
JP2020005136A (en) Image processing apparatus, image processing method, and program
JP2015035755A (en) Luminosity adjusting device, luminosity adjusting method, and program
KR101216069B1 (en) Method and apparatus for converting image
JP7028062B2 (en) Image correction program, image correction method, and image correction device
JP4400727B2 (en) Image processing apparatus and image processing method