JP2001057650A - Delivery method for image processing parameter, image input device, image input system and storage medium storing image processing parameter delivery program for information processing unit - Google Patents

Delivery method for image processing parameter, image input device, image input system and storage medium storing image processing parameter delivery program for information processing unit

Info

Publication number
JP2001057650A
JP2001057650A JP11230712A JP23071299A JP2001057650A JP 2001057650 A JP2001057650 A JP 2001057650A JP 11230712 A JP11230712 A JP 11230712A JP 23071299 A JP23071299 A JP 23071299A JP 2001057650 A JP2001057650 A JP 2001057650A
Authority
JP
Japan
Prior art keywords
image
control point
point information
data
characteristic curve
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11230712A
Other languages
Japanese (ja)
Other versions
JP4688246B2 (en
Inventor
Bungo Fujii
文吾 藤井
Keita Kimura
啓太 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP23071299A priority Critical patent/JP4688246B2/en
Publication of JP2001057650A publication Critical patent/JP2001057650A/en
Priority to US11/505,919 priority patent/US20060274164A1/en
Priority to US12/662,883 priority patent/US8009195B2/en
Application granted granted Critical
Publication of JP4688246B2 publication Critical patent/JP4688246B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily revise an image processing parameter that is once set. SOLUTION: The electronic camera 2 and a computer 4 mutually deliver data of a lookup table referred to obtain image data after correction processing corresponding to image data before the correction processing together with control point information that is referred when a characteristic curve to define the conversion characteristic of the lookup table is generated by an interpolation arithmetic operation. In the case of revising the conversion characteristic of the lookup table of the electronic camera 2, the computer 4 reads the control point information and the data of the lookup table from the electronic camera 2. A CPU generates a characteristic curve on the basis of the read control point information and displays it on a display device 6. A user operates a mouse 10 to correct this characteristic curve. An EEPROM of the electronic camera 2 stores the control point information together with the data of the lookup table generated on the basis of the corrected characteristic curve.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理パラメー
タの受け渡し方法、画像入力装置、画像入力システム、
および情報処理装置の画像処理パラメータ受け渡しプロ
グラムを記憶した記憶媒体に関し、さらに詳しくは補正
処理前の画像データの値に対応する補正処理後の画像デ
ータの値を求めるために参照されるルックアップテーブ
ルのデータを受け渡す画像処理パラメータの受け渡し方
法、画像入力装置、画像入力システム、および情報処理
装置の画像処理パラメータ受け渡しプログラムを記憶し
た記憶媒体に関する。
The present invention relates to a method for transferring image processing parameters, an image input device, an image input system,
And a storage medium storing an image processing parameter transfer program of the information processing apparatus, and more specifically, a lookup table referred to in order to obtain a value of image data after correction corresponding to a value of image data before correction. The present invention relates to a method of transferring image processing parameters for transferring data, an image input device, an image input system, and a storage medium storing an image processing parameter transfer program of an information processing device.

【0002】[0002]

【従来の技術】電子カメラで、撮影して得られた画像デ
ータのコントラストを補正するために、階調補正用のル
ックアップテーブル(以下、本明細書ではルックアップ
テーブルを「LUT」と称する)を用いて画像データを
補正するものがある。この階調補正用のLUTは、補正
処理前の画像データの階調値に対する補正処理後の階調
値を求めるために参照されるデータテーブルである。
2. Description of the Related Art In order to correct the contrast of image data obtained by photographing with an electronic camera, a look-up table for gradation correction (hereinafter, the look-up table is referred to as "LUT" in this specification). There is a device that corrects image data by using. The gradation correction LUT is a data table that is referred to for obtaining a gradation value after the correction processing with respect to the gradation value of the image data before the correction processing.

【0003】さらに、上述した階調補正用のLUTの内
容を変更可能な電子カメラもある。このLUTを変更す
る際には、たとえば電子カメラにコンピュータが接続さ
れる。コンピュータの画面上には、階調補正特性を設定
するために、いわゆるトーンカーブが表示される。撮影
者は、このトーンカーブを、マウス等を用いて所望の形
状に変更する。コンピュータは、上述のようにして生成
されたトーンカーブ、すなわち階調補正のための特性曲
線に基づいて上記階調補正用のLUTを生成する。この
LUTがコンピュータから電子カメラに出力され、電子
カメラ内の不揮発性メモリに記憶される。このようにし
て、電子カメラで撮影して得られる画像の階調特性をユ
ーザの好みに応じて変更することができる。
Further, there is an electronic camera capable of changing the contents of the LUT for gradation correction described above. When changing the LUT, a computer is connected to an electronic camera, for example. A so-called tone curve is displayed on the screen of the computer to set the gradation correction characteristics. The photographer changes the tone curve into a desired shape using a mouse or the like. The computer generates the tone correction LUT based on the tone curve generated as described above, that is, the characteristic curve for tone correction. This LUT is output from the computer to the electronic camera and stored in a non-volatile memory in the electronic camera. In this way, it is possible to change the gradation characteristics of an image obtained by photographing with the electronic camera according to the user's preference.

【0004】[0004]

【発明が解決しようとする課題】ところが、電子カメラ
内に記憶されているLUTの階調変換特性に変更を加え
ようとしたとき、以下に説明する理由によって思い通り
の変更を加えることが困難な場合があった。
However, when an attempt is made to change the gradation conversion characteristics of the LUT stored in the electronic camera, it is difficult to make the desired change for the reasons described below. was there.

【0005】通常、トーンカーブはユーザが直交座標上
に複数の点(通常は、数点程度の点)を、マウス等を操
作してプロットすることにより、これら複数の点の間が
スプライン曲線で補間されて生成される。つまり、上記
複数の点、すなわち制御点を通る曲線を表すスプライン
関数が生成され、この関数でトーンカーブの形状が定義
付けられる。一方、LUTは、上記トーンカーブに基づ
いて生成されるものであり、補正処理前の画像データの
値(階調値)に対応する補正処理後の画像データの値を
求めるために参照されるデータテーブルである。たとえ
ば、画像データが8ビットの階調を有するものである場
合、第0階調から第255階調に対応する256のデー
タからなるデータテーブルが電子カメラ内に記憶され
る。
Generally, a user plots a plurality of points (usually several points) on rectangular coordinates by operating a mouse or the like, so that a spline curve is formed between the plurality of points. Generated by interpolation. That is, a spline function representing a curve passing through the plurality of points, that is, the control points, is generated, and the shape of the tone curve is defined by this function. On the other hand, the LUT is generated based on the tone curve, and is referred to for obtaining the value of the image data after the correction process corresponding to the value (gradation value) of the image data before the correction process. It is a table. For example, when the image data has 8-bit gradation, a data table including 256 data corresponding to the 0th to 255th gradations is stored in the electronic camera.

【0006】電子カメラ内に記憶されているLUTの階
調変換特性に変更を加える場合、電子カメラに記憶され
ているLUTのデータをコンピュータに入力し、このデ
ータに変更を加える。このLUTのデータを上述した直
交座標上にプロットして表示すれば、電子カメラ内に記
憶されていたLUTの階調変換特性を目視化することが
可能となる。しかし、ここで表示されるのはあくまでも
256個のデータに基づく点がプロットされ、これらの
点の間が補間されたものである。つまり、上述した制御
点の情報が失われているので、ユーザが上記座標上で何
点のポイント(制御点)をどこに設定して元のトーンカ
ーブが生成されたのかがわからない。この制御点の数お
よび位置を、LUTのデータから求めることは、非常に
困難である。
When a change is made to the gradation conversion characteristic of the LUT stored in the electronic camera, data of the LUT stored in the electronic camera is input to a computer, and the data is changed. If the data of this LUT is plotted and displayed on the above-described orthogonal coordinates, it becomes possible to visualize the gradation conversion characteristics of the LUT stored in the electronic camera. However, what is displayed here is one in which points based on 256 data are plotted and interpolation is performed between these points. That is, since the information of the control points described above is lost, it is not known how many points (control points) are set by the user on the coordinates and where the original tone curve is generated. It is very difficult to determine the number and position of the control points from the LUT data.

【0007】以上に説明した理由により、電子カメラか
ら読み出したLUTのデータに基づいて生成されたトー
ンカーブに対して、ユーザがトーンカーブ形状変更の操
作をしても、得られる新たなトーンカーブの形状はユー
ザが期待するものと大きく異なってしまう問題点を有し
ていた。
For the reasons described above, even if the user performs a tone curve shape changing operation on the tone curve generated based on the LUT data read from the electronic camera, a new tone curve obtained is obtained. The shape has a problem that it is significantly different from what the user expects.

【0008】本発明は、このような従来の問題点に鑑み
てなされたもので、トーンカーブ等、一度設定された画
像処理パラメータを容易に変更することの可能な画像処
理パラメータの受け渡し方法、画像入力装置、画像入力
システム、および情報処理装置の画像処理パラメータ受
け渡しプログラムを記憶した記憶媒体を提供することに
ある。
The present invention has been made in view of such conventional problems, and has been made in consideration of the above-described problems, and has been made in consideration of the above-described method of transferring image processing parameters, such as a tone curve, capable of easily changing image processing parameters once set. An input device, an image input system, and a storage medium storing an image processing parameter transfer program of an information processing device.

【0009】[0009]

【課題を解決するための手段】(1) 一実施の形態を
示す図3に対応付けて説明すると、請求項1に記載の発
明に係る画像処理パラメータの受け渡し方法は、補正処
理前の画像データの値に対応する補正処理後の画像デー
タの値を求めるために参照される、図3(b)のルック
アップテーブルのデータとともに、ルックアップテーブ
ルの変換特性を定義付けるための特性曲線を補間演算に
よって生成する際に参照される図3(a)の制御点情報
を受け渡しすることにより上述した目的を達成する。一
実施の形態を示す図2および図3に対応付けて以下の発
明を説明する。 (2) 請求項2に記載の発明は、補正処理前の画像デ
ータの値に対応する補正処理後の画像データの値を求め
るために参照されるルックアップテーブルを入出力可能
な画像入力装置2に適用される。そして、図3(b)の
ルックアップテーブルのデータとともに、ルックアップ
テーブルの変換特性を定義付けるための特性曲線を補間
演算によって生成する際に参照される図3(a)の制御
点情報を入力し;図3(b)のルックアップテーブルの
データおよび図3(a)の制御点情報のうち、少なくと
も図3(a)の制御点情報を出力するものである。 (3) 請求項3に記載の発明は、補正処理前の画像デ
ータの値に対応する補正処理後の画像データの値を求め
るために参照される図3(b)のルックアップテーブル
を生成するための情報処理装置4、6、8、10と;画
像入力して得られる画像データに対して図3(b)のル
ックアップテーブルを参照して補正処理する画像入力装
置2とを有する画像入力システムに適用される。そし
て、情報処理装置4、6、8、10からは、図3(b)
のルックアップテーブルのデータとともに、ルックアッ
プテーブルの変換特性を定義付けるための特性曲線を補
間演算によって生成する際に参照される図3(a)の制
御点情報が画像入力装置2に出力され;画像入力装置2
からは、図3(b)のルックアップテーブルのデータお
よび図3(a)の制御点情報のうち、少なくとも制御点
情報が情報処理装置4、6、8、10に出力されるもの
である。 (4) 請求項4に記載の発明は、画像入力装置2との
間で画像処理パラメータを受け渡し可能な情報処理装置
4、6、8、10の画像処理パラメータ受け渡しプログ
ラムを記憶した記憶媒体に適用される。そして、補正処
理前の画像データの値に対応する補正処理後の画像デー
タの値を求めるために参照される図3(b)のルックア
ップテーブルのデータ、およびルックアップテーブルの
変換特性を定義付けるための特性曲線を補間演算によっ
て生成する際に参照される図3(a)の制御点情報のう
ち、少なくとも図3(a)の制御点情報を画像入力装置
2から入力するパラメータ入力手順と;画像処理パラメ
ータ入力手順で入力された制御点情報に基づいて特性曲
線を補間演算によって生成する特性曲線生成手順と;特
性曲線の形状が変更されるのを入力する特性曲線変更入
力手順と;特性曲線変更入力手順で入力した新たな特性
曲線に基づき、新たなルックアップテーブルを生成する
修正ルックアップテーブル生成手順と、新たなルックア
ップテーブルのデータを、新たな特性曲線に対応する新
たな制御点情報とともに画像入力装置2へ出力するパラ
メータ出力手順とを記憶したものである。
(1) An image processing parameter transfer method according to an embodiment of the present invention will be described with reference to FIG. 3 showing an embodiment. The characteristic curve for defining the conversion characteristic of the lookup table together with the data of the lookup table in FIG. 3B, which is referred to for obtaining the value of the image data after the correction processing corresponding to the value of The above-described object is achieved by transferring the control point information of FIG. 3A which is referred to at the time of generation. The following invention will be described in association with FIGS. 2 and 3 showing one embodiment. (2) The image input device 2 capable of inputting / outputting a lookup table referred to for obtaining a value of image data after correction corresponding to a value of image data before correction. Applied to Then, together with the data of the lookup table of FIG. 3B, the control point information of FIG. 3A which is referred to when generating a characteristic curve for defining the conversion characteristic of the lookup table by interpolation calculation is input. It outputs at least the control point information of FIG. 3A among the data of the lookup table of FIG. 3B and the control point information of FIG. 3A. (3) The invention according to claim 3 generates the look-up table of FIG. 3B which is referred to for obtaining the value of the image data after the correction process corresponding to the value of the image data before the correction process. Image input device 2 for performing information processing on image data obtained by inputting an image with reference to a look-up table in FIG. 3B. Applies to the system. Then, from the information processing apparatuses 4, 6, 8, and 10, FIG.
The control point information of FIG. 3A, which is referred to when generating a characteristic curve for defining the conversion characteristic of the look-up table by an interpolation operation, together with the data of the lookup table, is output to the image input device 2; Input device 2
From among the data of the lookup table of FIG. 3B and the control point information of FIG. 3A, at least the control point information is output to the information processing apparatuses 4, 6, 8, and 10. (4) The invention according to claim 4 is applied to a storage medium storing an image processing parameter transfer program of information processing apparatuses 4, 6, 8, and 10 capable of transferring image processing parameters to and from image input apparatus 2. Is done. Then, in order to define the lookup table data of FIG. 3B and the conversion characteristics of the lookup table, which are referred to for obtaining the value of the image data after the correction process corresponding to the value of the image data before the correction process. A parameter input procedure of inputting at least the control point information of FIG. 3A from the image input device 2 among the control point information of FIG. 3A referred to when the characteristic curve of FIG. A characteristic curve generation procedure for generating a characteristic curve by interpolation based on control point information input in the processing parameter input procedure; a characteristic curve change input procedure for inputting a change in the shape of the characteristic curve; A modified lookup table generation procedure for generating a new lookup table based on the new characteristic curve input in the input procedure, and a new lookup table The table of data is obtained by storing the parameter output procedure for output to the image input device 2 with a new control point information corresponding to the new characteristic curve.

【0010】なお、本発明の構成を説明する上記課題を
解決するための手段の項では、本発明を分かり易くする
ために発明の実施の形態の図を用いたが、これにより本
発明が実施の形態に限定されるものではない。
In the section of the means for solving the above-mentioned problems, which explains the configuration of the present invention, the drawings of the embodiments of the present invention are used for easy understanding of the present invention. However, the present invention is not limited to this.

【0011】[0011]

【発明の実施の形態】図1は、本発明の実施の形態に係
る情報処理装置に電子カメラが接続されている様子を示
す。コンピュータ4にはディスプレイ6、キーボード
8、マウス10が接続されている。図1において、コン
ピュータ4、ディスプレイ6、キーボード8およびマウ
ス10によって本発明の実施の形態に係る情報処理装置
が構成され、この情報処理装置と電子カメラ2とによっ
て本発明の実施の形態に係る画像入力システムが構成さ
れる。カメラ2とコンピュータ4とは、必要に応じてケ
ーブル2Aを介して接続される。
FIG. 1 shows a state in which an electronic camera is connected to an information processing apparatus according to an embodiment of the present invention. A display 6, a keyboard 8, and a mouse 10 are connected to the computer 4. In FIG. 1, an information processing apparatus according to an embodiment of the present invention is configured by a computer 4, a display 6, a keyboard 8, and a mouse 10, and the information processing apparatus and the electronic camera 2 form an image according to the embodiment of the present invention. An input system is configured. The camera 2 and the computer 4 are connected via a cable 2A as required.

【0012】電子カメラ2で撮影をして生成された画像
データは、ケーブル2Aを経てコンピュータ4に出力さ
れる。ユーザは、ディスプレイ6で画像を確認すること
ができる。コンピュータ4に入力された画像データは、
必要に応じて色調整やアンシャープマスクフィルタ等の
処理が行われてフロッピー(登録商標)ディスクやハー
ドディスク、あるいはMO(光磁気記録媒体)ドライブ
などの記憶装置に出力され、保存される。
Image data generated by photographing with the electronic camera 2 is output to the computer 4 via the cable 2A. The user can check the image on the display 6. The image data input to the computer 4 is
Processing such as color adjustment and an unsharp mask filter is performed as necessary, and output to a storage device such as a floppy (registered trademark) disk or hard disk, or an MO (magneto-optical recording medium) drive, and stored.

【0013】また、ユーザがコンピュータ4を操作する
ことにより、電子カメラ2に記憶されている画像処理パ
ラメータ(画像処理パラメータについては後で詳しく説
明する)をコンピュータ4内に読み込んで修正し、再度
電子カメラ2に出力することができる。
When the user operates the computer 4, the image processing parameters stored in the electronic camera 2 (image processing parameters will be described in detail later) are read into the computer 4, corrected, and re-input. It can be output to the camera 2.

【0014】図2は、電子カメラ2およびコンピュータ
4の内部構成を概略的に説明する図である。電子カメラ
2にはコネクタ37が、コンピュータ4にはコネクタ3
8がそれぞれ設けられている。ケーブル2Aの一端はコ
ネクタ37に、他端はコネクタ38に、それぞれ着脱自
在に接続されている。
FIG. 2 is a diagram schematically illustrating an internal configuration of the electronic camera 2 and the computer 4. The connector 37 is connected to the electronic camera 2 and the connector 3 is connected to the computer 4.
8 are provided. One end of the cable 2A is detachably connected to the connector 37, and the other end is connected to the connector 38, respectively.

【0015】電子カメラ2の構成について説明する。電
子カメラ2には、撮影レンズ12が着脱自在に装着され
ている。電子カメラ2にはまた、コネクタ34を介して
不揮発性の記憶装置であるカード状のフラッシュメモリ
36が挿脱可能に接続されている。なお、フラッシュメ
モリ36に代えてカード状の超小型ハードディスクドラ
イブや、内蔵電池でバックアップされたRAMカード等
を装着することも可能である。
The configuration of the electronic camera 2 will be described. A photographing lens 12 is detachably attached to the electronic camera 2. In addition, a card-shaped flash memory 36 as a nonvolatile storage device is detachably connected to the electronic camera 2 via a connector 34. Instead of the flash memory 36, a card-like ultra-small hard disk drive or a RAM card backed up by a built-in battery can be mounted.

【0016】レンズ12は、レンズコントロールユニッ
ト14を介してCPU28によりフォーカシングの制御
が行われる。また、レンズ12に組み込まれている絞り
ユニット16もコントロールユニット14を介してCP
U28により制御される。シャッタ18の開閉動作もC
PU28によって制御され、撮影レンズ12を透過した
被写体光をCCD20が受光する際に開かれる。
Focusing of the lens 12 is controlled by the CPU 28 via the lens control unit 14. The aperture unit 16 incorporated in the lens 12 is also controlled by the control unit 14 through the CP.
It is controlled by U28. Open / close operation of shutter 18 is also C
It is controlled by the PU 28 and is opened when the CCD 20 receives the subject light transmitted through the photographing lens 12.

【0017】スイッチ24は、複数のスイッチをひとま
とめにして図示したものであり、電源スイッチや記録/
再生切換スイッチ、撮影モード切換スイッチ、露出補正
スイッチ、さらにはレリーズスイッチ等で構成される。
The switch 24 is a collective illustration of a plurality of switches.
It is composed of a playback changeover switch, a shooting mode changeover switch, an exposure compensation switch, and a release switch.

【0018】EEPROM25は、電子カメラ2の製造
時における調整定数、電子カメラ2使用時のステータス
情報、あるいは画像処理パラメータ等を記録するための
ものである。なお、EEPROM25に代えてSRAM
等の揮発性メモリを用い、この揮発性メモリにバックア
ップ電池を接続する構造のものであってもよい。この場
合、通常は電子カメラ2に装着されるバッテリ等から揮
発性メモリに記憶保持のための電源が供給される。そし
て、電子カメラ2にバッテリが装着されていないときに
は、バックアップ電池から揮発性メモリに記憶保持用の
電力が供給されて上記調整定数等が記憶保持される。
The EEPROM 25 records adjustment constants at the time of manufacturing the electronic camera 2, status information at the time of using the electronic camera 2, or image processing parameters. Note that instead of the EEPROM 25, an SRAM
Or the like, and a structure may be used in which a backup battery is connected to the volatile memory. In this case, power for storing data is supplied to the volatile memory from a battery or the like mounted on the electronic camera 2. When a battery is not mounted on the electronic camera 2, power for storage and storage is supplied from the backup battery to the volatile memory, and the adjustment constants and the like are stored and held.

【0019】モード表示LCD30は、スイッチ24で
設定された撮影モードや露出補正量、シャッタ速度や絞
り値などの露出値、そしてバッテリー残量等が表示され
る。モニターLCD32は、撮影した画像の再生や画像
データのヒストグラム表示等を行うことができる。
The mode display LCD 30 displays a photographing mode set by the switch 24, an exposure correction amount, an exposure value such as a shutter speed and an aperture value, and a remaining battery level. The monitor LCD 32 can reproduce a captured image, display a histogram of image data, and the like.

【0020】撮影者によりレリーズ操作が行われると、
シャッタ18が開閉する。このとき、撮影レンズ12を
透過した被写体光はCCD20の受光面上に被写体像を
形成する。CCD20は、この被写体像に基づく画像信
号をASIC22に出力する。ASIC22にはRAM
26が接続されている。このRAM26は、CPU28
とも接続されており、CPU28からもアクセス可能と
なっている。ASIC22は、この画像信号を処理して
画像データを生成し、RAM26に一時的に記憶する。
ASIC22は、この画像データに予め定められた処理
を施してフラッシュメモリ36に記録する。あるいは、
ASIC22で処理された画像データは、コンピュータ
4に出力することも可能である。また、上記画像データ
の処理は、ASIC22が行うのに代えてCPU28が
行うものであっても良いし、ASIC22、CPU28
両者で処理を分散して行うものであってもよい。
When the release operation is performed by the photographer,
The shutter 18 opens and closes. At this time, the subject light transmitted through the photographing lens 12 forms a subject image on the light receiving surface of the CCD 20. The CCD 20 outputs an image signal based on the subject image to the ASIC 22. ASIC 22 has RAM
26 are connected. This RAM 26 has a CPU 28
And is accessible from the CPU 28 as well. The ASIC 22 processes the image signal to generate image data, and temporarily stores the image data in the RAM 26.
The ASIC 22 performs a predetermined process on the image data and records the image data in the flash memory 36. Or,
The image data processed by the ASIC 22 can be output to the computer 4. In addition, the processing of the image data may be performed by the CPU 28 instead of the ASIC 22.
The processes may be performed in a distributed manner.

【0021】上述した画像データの処理に際し、EEP
ROM25に記録されている画像処理パラメータが参照
される。このとき、一般的にEEPROMのアクセス速
度は遅いので、画像処理パラメータを予めEEPROM
25より読み出しておいてRAM26に記録しておくこ
とが望ましい。
In processing the above-described image data, EEP
The image processing parameters recorded in the ROM 25 are referred to. At this time, since the access speed of the EEPROM is generally slow, the image processing parameters are set in advance in the EEPROM.
It is desirable that the data is read out from the memory 25 and recorded in the RAM 26.

【0022】コンピュータ4の構成について説明する。
コンピュータ4の中枢をなすCPU40には、RAM4
2およびROM44が接続されている。CPU40には
また、インターフェイス(I/F)46を介してCD−
ROMドライブ53、ハードディスクドライブ(HD
D)52、フロッピーディスクドライブ(FDD)5
0、MOドライブ48などが接続されている。
The configuration of the computer 4 will be described.
The CPU 40 which is the center of the computer 4 has a RAM 4
2 and the ROM 44 are connected. The CPU 40 is also provided with a CD-ROM through an interface (I / F) 46.
ROM drive 53, hard disk drive (HD
D) 52, floppy disk drive (FDD) 5
0, an MO drive 48 and the like are connected.

【0023】CPU40は、電子カメラ2から出力され
る画像信号を入力してRAM42やHDD52のテンポ
ラリ領域に一時的に記録し、後述するようにディスプレ
イ6にサムネイル画像や詳細画像、さらにはこの詳細画
像に関連する付属情報などを表示する。撮影者は、マウ
ス10やキーボード8を操作することにより、画像デー
タの色調やコントラストの調節、あるいはアンシャープ
マスクフィルタ等の処理を施す。処理を終えて最終的に
得られる画像データはHDD52や、FDD50、ある
いはMOドライブ48などの記憶装置に出力されて保存
される。
The CPU 40 receives an image signal output from the electronic camera 2 and temporarily records the image signal in a temporary area of the RAM 42 or the HDD 52, and displays a thumbnail image, a detailed image, and the detailed image on the display 6 as described later. Display related information related to. By operating the mouse 10 and the keyboard 8, the photographer adjusts the color tone and contrast of the image data, or performs processing such as an unsharp mask filter. Image data finally obtained after the processing is output to and stored in a storage device such as the HDD 52, the FDD 50, or the MO drive 48.

【0024】コンピュータ4は、上述したように電子カ
メラ2から出力される画像データの表示、処理、および
保存を行う。これに加えてコンピュータ4は、以下で詳
しく説明するように電子カメラ2のEEPROM25に
記録されている画像処理パラメータの読み出し、修正、
電子カメラ2への再書き込み等を行うことができる。
The computer 4 displays, processes, and saves image data output from the electronic camera 2 as described above. In addition, the computer 4 reads out, modifies, and reads image processing parameters recorded in the EEPROM 25 of the electronic camera 2 as described in detail below.
Rewriting to the electronic camera 2 can be performed.

【0025】以下では、電子カメラ2とコンピュータ4
との間で相互に授受される画像処理パラメータとして、
画像の階調特性を補正するためのLUT(以下、本明細
書中ではこれを「階調LUT」と称する)を扱う例につ
いて説明する。
In the following, the electronic camera 2 and the computer 4
As image processing parameters mutually exchanged between
An example in which an LUT for correcting the gradation characteristics of an image (hereinafter, referred to as a “gradation LUT” in this specification) will be described.

【0026】階調LUTは、補正処理前の画像データの
階調値に対応する補正処理後の画像データの階調値を求
める際に参照されるLUTである。この階調LUTは、
たとえば図3(b)に示すようなデータ構造を有してお
り、補正処理前(入力)の階調値0、1、2、3、…に
対応して、補正処理後(出力)の階調値が0、0、1、
1…などと記録されている。この階調LUTは通常、図
2に示す電子カメラ2のEEPROM25に記録されて
いる。電子カメラ2の電源をオンすると、CPU28が
この階調LUTをEEPROM25から読み出し、RA
M26に一時的に記録する。ASIC22は、CCD2
0から出力される画像信号に補間等の処理を施して画像
データを生成し、RAM26に一時的に記録する。AS
IC22はこの画像データに対し、RAM26に記録さ
れている階調LUTを参照して階調補正の処理を行う。
The gradation LUT is an LUT that is referred to when obtaining a gradation value of image data after correction corresponding to a gradation value of image data before correction. This gradation LUT is
For example, it has a data structure as shown in FIG. 3B, and corresponds to the gradation values 0, 1, 2, 3,... Before the correction processing (input) and the gradation after the correction processing (output). When the tones are 0, 0, 1,
1 etc. are recorded. This gradation LUT is usually recorded in the EEPROM 25 of the electronic camera 2 shown in FIG. When the power of the electronic camera 2 is turned on, the CPU 28 reads this gradation LUT from the EEPROM 25 and
Record temporarily in M26. The ASIC 22 is a CCD2
The image signal output from 0 is subjected to a process such as interpolation to generate image data, and is temporarily recorded in the RAM 26. AS
The IC 22 performs a gradation correction process on the image data with reference to the gradation LUT recorded in the RAM 26.

【0027】この階調LUTは、先にも説明したとお
り、電子カメラ2からコンピュータ4に読み込み、ユー
ザが修正した上で再度電子カメラ2に書き込むことがで
きる。ユーザが階調LUTを修正する際、図3(b)に
示されるようなデータの並びがディスプレイ6に表示さ
れていても、この階調LUTがどのような階調補正特性
を有しているのか直観的には分かりづらい。そのため、
ディスプレイ6上には、階調LUTの階調補正特性が図
4に示すようにグラフィカルに表示される。
As described above, the gradation LUT can be read from the electronic camera 2 into the computer 4, corrected by the user, and written into the electronic camera 2 again. When the user corrects the gradation LUT, even if the data arrangement as shown in FIG. 3B is displayed on the display 6, this gradation LUT has any gradation correction characteristics. It is hard to understand intuitively. for that reason,
The gradation correction characteristics of the gradation LUT are graphically displayed on the display 6 as shown in FIG.

【0028】図4に示す「Edit Camera C
urves」のウインドウ100(以下では、単に「ウ
インドウ100」と称する)は、ユーザがキーボード8
またはマウス10を操作することでディスプレイ6に表
示される。なお、以下の説明中では、マウス10を操作
してカーソルをウインドウ100中に表示されるオブジ
ェクトの位置に合わせ、マウス10の左ボタンを一押し
する操作を「クリックする」と称し、上記オブジェクト
にカーソルを合わせ、マウス10の左ボタンを押した状
態でマウス10をマウスパッド上で所定の方向に移動さ
せる操作を「ドラッグする」と称する。
The "Edit Camera C" shown in FIG.
windows "(hereinafter, simply referred to as" window 100 ").
Alternatively, it is displayed on the display 6 by operating the mouse 10. In the following description, the operation of operating the mouse 10 to move the cursor to the position of the object displayed in the window 100 and pressing the left button of the mouse 10 once is referred to as "clicking". The operation of moving the mouse 10 in a predetermined direction on the mouse pad while positioning the cursor and pressing the left button of the mouse 10 is referred to as “drag”.

【0029】図4の左部に示されるグラフ101中の曲
線126は、トーンカーブと称される。この曲線126
の形状を見ることで、ユーザは階調LUTの特性を直観
的に把握することができる。このトーンカーブに基づい
て階調補正された画像がどのようになるのかを事前に把
握するためのサンプル画像136がウインドウ100の
右部に表示される。図4に示す例においてはグラデーシ
ョンパターンが描かれているが、このサンプル画像の表
示内容はユーザが自由に変えることができる。
The curve 126 in the graph 101 shown on the left side of FIG. 4 is called a tone curve. This curve 126
The user can intuitively grasp the characteristics of the gradation LUT by looking at the shape of. A sample image 136 is displayed on the right side of the window 100 for grasping in advance what the image gradation-corrected based on the tone curve will be. In the example shown in FIG. 4, a gradation pattern is drawn, but the display content of this sample image can be freely changed by the user.

【0030】曲線126は、ポイント128、130
a、130b、130c、132の間をスプライン曲線
で補間して得られるものである。ポイント128、13
0a、130b、130c、132のプロット位置は、
以下に説明すように、ユーザが定めることができる。曲
線126の示されるグラフにおいて、横軸(X軸)に入
力値(補正前の階調値)が、そして縦軸(Y軸)に出力
値(補正後の階調値)がとられている。階調補正が行わ
れない場合、曲線126はY=Xの直線となる。以下で
は、補正前の階調値を「入力値」と称し、補正後の階調
値を「出力値」と称する。また、図4においては、画像
データが8ビットの階調、すなわち256階調を有する
ものを例にとって説明するが、本発明は256未満、ま
たは256を越す階調のものであっても適用可能であ
る。
The curve 126 has points 128, 130
a, 130b, 130c, and 132 are obtained by interpolating with spline curves. Points 128, 13
The plot positions of 0a, 130b, 130c and 132 are
As described below, it can be defined by the user. In the graph indicated by the curve 126, the input value (gradation value before correction) is plotted on the horizontal axis (X axis), and the output value (gradation value after correction) is plotted on the vertical axis (Y axis). . When the gradation correction is not performed, the curve 126 is a straight line of Y = X. Hereinafter, the gradation value before correction is referred to as “input value”, and the gradation value after correction is referred to as “output value”. Also, in FIG. 4, an example in which the image data has 8-bit gradation, that is, 256 gradations will be described. However, the present invention can be applied to a case where the image data has a gradation of less than 256 or exceeding 256. It is.

【0031】上記グラフの回りにはキーボード8または
マウス10で設定を変えることの可能なボックス10
6、110、120、122、124、スライダ10
8、112、114、116、118が配置されてい
る。マウス10を操作し、スライダ108をY軸に沿っ
てドラッグさせることにより、ユーザは出力値の上限を
定めることができる。出力値の上限は、ボックス106
をクリックした後、キーボード8を操作して数値を入力
することによっても定めることができる。出力値の下限
の設定も上述したのと同様である。すなわち、スライダ
112をY軸に沿ってドラッグさせるか、ボックス11
0をクリックしてからキーボード8を操作して数値を入
力してもよい。これらの上限および下限は、DTP等で
印刷された画像が過度に白飛びまたは黒つぶれすること
のないように定められる。
A box 10 whose setting can be changed with the keyboard 8 or the mouse 10 is provided around the graph.
6, 110, 120, 122, 124, slider 10
8, 112, 114, 116 and 118 are arranged. By operating the mouse 10 and dragging the slider 108 along the Y axis, the user can set the upper limit of the output value. The upper limit of the output value is set in box 106
After clicking, the value can also be determined by operating the keyboard 8 and inputting a numerical value. The setting of the lower limit of the output value is the same as described above. That is, the slider 112 is dragged along the Y axis, or
After clicking 0, the user may operate the keyboard 8 to input a numerical value. These upper and lower limits are set so that an image printed by DTP or the like is not excessively overexposed or underexposed.

【0032】X軸側のスライダ114および118は、
補正前の画像データの階調値のうちのどの値をシャド
ウ、ハイライトと定めるかを設定するためのものであ
る。スライダ114をX軸に沿ってドラッグさせること
により、あるいはボックス120をクリックしてからキ
ーボード8を操作して数値を入力することにより、ユー
ザはシャドウレベルを決定することができる。また、ス
ライダ118をX軸に沿ってドラッグさせることによ
り、あるいはボックス124をクリックしてからキーボ
ード8を操作して数値を入力することにより、ユーザは
ハイライトレベルを決定することができる。スライダ1
16は、画像のガンマを決定するためのものである。ス
ライダ116をX軸に沿ってドラッグさせることによ
り、あるいはボックス122をクリックしてからキーボ
ード8を操作して数値を入力することにより、ユーザは
画像の中間調部分のガンマ特性を比較的急な傾きの設定
とすることも、比較的緩い傾きの設定とすることもでき
る。
The sliders 114 and 118 on the X axis side are
This is for setting which of the gradation values of the image data before correction is determined as shadow or highlight. The user can determine the shadow level by dragging the slider 114 along the X axis, or by clicking on the box 120 and operating the keyboard 8 to enter a numerical value. The user can determine the highlight level by dragging the slider 118 along the X axis or by clicking the box 124 and operating the keyboard 8 to input a numerical value. Slider 1
Reference numeral 16 is for determining the gamma of the image. By dragging the slider 116 along the X axis, or by clicking on the box 122 and operating the keyboard 8 to enter a numerical value, the user can adjust the gamma characteristic of the halftone portion of the image to a relatively steep slope. Or a relatively gentle inclination.

【0033】以上に説明したハイライト、シャドウ、中
間調の調整は、図4で五つ図示されているオブジェクト
134のうちの所定のものをクリックすることによって
も行うことができる。
The adjustment of highlight, shadow, and halftone described above can also be performed by clicking a predetermined one of the five objects 134 shown in FIG.

【0034】グラフ101中のポイント128および1
32は、上述した出力値の上限および下限と、入力値の
ハイライトおよびシャドウの設定内容に基づいて自動的
にプロットされる。残りの三つのポイント130a、1
30bおよび130cについては、ユーザの好みに応じ
て三つ未満とすることも、三つを越すポイントを設定す
ることもできる。また、各ポイントの位置も、ドラッグ
操作で図4の上下左右方向へ随意に動かすことが可能で
ある。
Points 128 and 1 in graph 101
32 is automatically plotted on the basis of the above-described upper and lower limits of the output value and the settings of highlight and shadow of the input value. The remaining three points 130a, 1
Regarding 30b and 130c, less than three or more than three points can be set according to the user's preference. In addition, the position of each point can be arbitrarily moved in the vertical and horizontal directions in FIG. 4 by a drag operation.

【0035】ポイントを増す場合、新たにポイントを設
置したい位置にカーソルを移動してクリック操作をすれ
ばよい。逆に、ポイントを消去したい場合、消去したい
ポイントにカーソルを合わせ、あたかもポイントをグラ
フ101の外に引っ張り出すかのようにドラッグすれば
よい。
To increase the number of points, the cursor may be moved to a position where a new point is to be set and a click operation may be performed. Conversely, to delete a point, place the cursor on the point to be deleted and drag the point as if it were pulled out of the graph 101.

【0036】上述のようにして、グラフ中に表示される
ポイントの数を増減するのに応じ、これらのポイントの
間をスプライン曲線で補間した曲線126が表示され
る。この状態でユーザがドラッグ操作をしてポイントの
位置を移動させるのに応じ、曲線126の形状が変化し
て階調特性も変化する。このようにして変化した階調特
性に応じて、サンプル画像136の階調も変化する。ユ
ーザは、サンプル画像136を見ながら上記ポイントの
増減、ポイントの位置の調整を繰り返す。上述した処理
結果に基づき、ユーザの好みに応じた階調LUTがスプ
ライン補間によって生成される。なお、図4のグラフ1
01で薄く表示されている棒グラフは、サンプル画像1
36の階調のヒストグラムである。ユーザは、このヒス
トグラムを参考にしながら上述した操作を行うことがで
きる。
As described above, as the number of points displayed in the graph is increased or decreased, a curve 126 obtained by interpolating between these points with a spline curve is displayed. In this state, as the user performs a drag operation to move the position of the point, the shape of the curve 126 changes and the gradation characteristic also changes. The tone of the sample image 136 also changes according to the changed tone characteristic. The user repeatedly increases and decreases the points and adjusts the positions of the points while watching the sample image 136. Based on the processing result described above, a gradation LUT according to the user's preference is generated by spline interpolation. Note that graph 1 in FIG.
The bar graph lightly displayed as 01 is the sample image 1
36 is a histogram of 36 gradations. The user can perform the above operation with reference to the histogram.

【0037】以下、上述のようにして生成された画像処
理パラメータのデータ構造について、図3を参照して説
明する。図3(a)および(b)は、電子カメラ2とコ
ンピュータ4との間で相互に入出力される画像処理パラ
メータのデータ構造の一例を概念的に示すものである。
画像処理パラメータのデータ構造は、図3(a)に示す
ヘッダ情報と、図3(b)に示すLUTとが一体となっ
たものとなっている。図3(a)に示すヘッダ情報は、
図4のグラフ101にプロットされるポイントの数や座
標値などから構成されている。つまり、グラフ101で
示される特性曲線を補間演算によって生成する際に参照
される制御点情報に関連する情報で構成されている。図
3(b)に示されるLUTは、上述した制御点情報に基
づいて、コンピュータ4のCPU40で生成されたデー
タの集合体である。電子カメラ2のEEPROM25に
は、図3(a)および(b)に示されるデータが画像処
理パラメータとして両方とも記録される。
Hereinafter, the data structure of the image processing parameters generated as described above will be described with reference to FIG. FIGS. 3A and 3B conceptually show an example of the data structure of image processing parameters mutually input and output between the electronic camera 2 and the computer 4.
The data structure of the image processing parameters is such that the header information shown in FIG. 3A and the LUT shown in FIG. 3B are integrated. The header information shown in FIG.
It is composed of the number of points and coordinate values plotted on the graph 101 in FIG. That is, it is configured by information related to the control point information referred to when the characteristic curve shown by the graph 101 is generated by the interpolation calculation. The LUT shown in FIG. 3B is an aggregate of data generated by the CPU 40 of the computer 4 based on the control point information described above. The data shown in FIGS. 3A and 3B are both recorded as image processing parameters in the EEPROM 25 of the electronic camera 2.

【0038】電子カメラ2のEEPROM25に記録さ
れている画像処理パラメータをコンピュータ4内に読み
込み、このパラメータをコンピュータ4上で修正して再
度電子カメラ2のEEPROMに書き込むまでの処理の
流れについて図3〜図6を参照して説明する。なお、図
5および図6は、図4のウインドウ100内に表示され
る特性曲線のグラフ101の部分のみを示している。
Image processing parameters recorded in the EEPROM 25 of the electronic camera 2 are read into the computer 4, the parameters are corrected on the computer 4, and the processing flow from writing to the EEPROM of the electronic camera 2 again is shown in FIGS. This will be described with reference to FIG. FIGS. 5 and 6 show only the graph 101 of the characteristic curve displayed in the window 100 of FIG.

【0039】コンピュータ4に電子カメラ2が接続され
ている状態で、ユーザは図4に示すウインドウ100を
起動し、「Load」ボタン102をクリックする。す
ると、電子カメラ2のEEPROM25内に記録されて
いる画像処理パラメータがコンピュータ4に出力され、
RAM42に一時的に記憶される。この画像処理パラメ
ータに基づいて、たとえば図5(a)のグラフ101A
に示されるようにポイント139、140、142、1
43と曲線144とが表示される。ユーザは、電子カメ
ラ2で設定されていた画像処理パラメータがどのような
特性曲線を有していたのかをグラフ101Aから直観的
に把握することができる。ここで、グラフ101Aで描
かれている曲線144は、上述したヘッダ情報に基づい
てスプライン補間により得られたものである。つまり、
図3(b)に示すLUTのデータがプロットされたもの
ではない。
With the electronic camera 2 connected to the computer 4, the user activates the window 100 shown in FIG. 4 and clicks a “Load” button 102. Then, the image processing parameters recorded in the EEPROM 25 of the electronic camera 2 are output to the computer 4, and
It is temporarily stored in the RAM 42. Based on the image processing parameters, for example, a graph 101A shown in FIG.
Points 139, 140, 142, 1 as shown in
43 and a curve 144 are displayed. The user can intuitively grasp what characteristic curve the image processing parameter set in the electronic camera 2 has from the graph 101A. Here, the curve 144 drawn in the graph 101A is obtained by spline interpolation based on the above-described header information. That is,
The LUT data shown in FIG. 3B is not plotted.

【0040】図5(a)に示される特性曲線のプロファ
イルに修正を加える場合、ユーザはマウス10を操作す
る。たとえば、ポイント142の位置を、図5(b)に
示されるようにポイント142Aの位置へ移動させる
と、トーンカーブの形状は曲線144で示されるものか
ら曲線144Aで示されるものへと変化する。このよう
に、変更前の制御点情報が電子カメラ2に記録されてい
ることにより、変更前の特性曲線を再現して、この特性
曲線に微修正を加えることが非常に容易となる。この
点、従来の技術で説明したように、図3(a)に示され
るヘッダ情報(制御点情報)が電子カメラ2に記録され
ていない場合、LUTのデータに基づいて特性曲線を再
現するしかない。この例について図6(a)および図6
(b)を参照して説明する。
When modifying the profile of the characteristic curve shown in FIG. 5A, the user operates the mouse 10. For example, when the position of point 142 is moved to the position of point 142A as shown in FIG. 5B, the shape of the tone curve changes from that shown by curve 144 to that shown by curve 144A. As described above, since the control point information before the change is recorded in the electronic camera 2, it is very easy to reproduce the characteristic curve before the change and finely modify the characteristic curve. In this regard, as described in the related art, if the header information (control point information) shown in FIG. 3A is not recorded in the electronic camera 2, the characteristic curve must be reproduced based on the LUT data. Absent. FIG. 6A and FIG.
This will be described with reference to FIG.

【0041】図6(a)は、LUTのデータに基づいて
曲線140Bが再現された場合の例を示す。この場合、
図5(a)に示す制御点139、140、142、14
3の情報は失われている。この曲線140Bは、上述の
とおりLUTのデータに基づいて再現されている。言い
換えれば、256個の制御点情報に基づいて再現されて
いる。スプライン補間では、制御点をすべて通過するよ
うに補間曲線が求められている。このため、図6(a)
に示される曲線140Bに対して、図5(b)を参照し
て説明した操作と同様の操作をしても、他の255個の
制御点で曲線140Bの形状が固定されてしまっている
ため、図6(b)に示されるとおり、結果はまったく異
なるものとなってしまう。図6(b)において曲線14
0Cは、図6(a)に示される曲線140Bに対して図
5(b)を参照して説明したのと同様の操作をした場合
に、曲線140Bのごく一部の形状だけが変化する様子
を示している。
FIG. 6A shows an example where the curve 140B is reproduced based on the data of the LUT. in this case,
Control points 139, 140, 142, and 14 shown in FIG.
Information of 3 is lost. This curve 140B is reproduced based on the LUT data as described above. In other words, it is reproduced based on the 256 pieces of control point information. In spline interpolation, an interpolation curve is determined so as to pass through all control points. For this reason, FIG.
5B, the shape of the curve 140B is fixed at the other 255 control points even if the same operation as that described with reference to FIG. 5B is performed. As shown in FIG. 6B, the result is completely different. Curve 14 in FIG.
0C shows that only a part of the shape of the curve 140B changes when the same operation as described with reference to FIG. 5B is performed on the curve 140B shown in FIG. Is shown.

【0042】上述した操作を終えると、ユーザは図4に
示されるウインドウ100の「Save」ボタン104
をクリックする。すると、新たな制御点情報に基づいて
新たなLUTがコンピュータ4内で生成される。そし
て、新たなLUTのデータとともに新たな制御点情報が
コンピュータ4から電子カメラ2に出力され、EEPR
OM25に記録される。
When the above operation is completed, the user operates the “Save” button 104 in the window 100 shown in FIG.
Click. Then, a new LUT is generated in the computer 4 based on the new control point information. Then, new control point information is output from the computer 4 to the electronic camera 2 together with the new LUT data, and the EEPR
Recorded in OM25.

【0043】以上では、コンピュータ4から電子カメラ
2に画像処理パラメータが出力される場合も、電子カメ
ラ2からコンピュータ4に画像処理パラメータが出力さ
れる場合もLUTとともに制御点情報が受け渡しされる
例について説明した。これに対して、電子カメラ2から
コンピュータ4に画像処理パラメータを出力する際に
は、制御点情報のみが受け渡しされるものとすることも
可能である。このようにすることにより、電子カメラ2
とコンピュータ4との間の通信時間を短縮することがで
きる。
In the above description, the case where the image processing parameters are output from the computer 4 to the electronic camera 2 and the case where the image processing parameters are output from the electronic camera 2 to the computer 4 are such that the control point information is transferred together with the LUT. explained. On the other hand, when the image processing parameters are output from the electronic camera 2 to the computer 4, only the control point information may be transferred. By doing so, the electronic camera 2
The communication time between the computer and the computer 4 can be reduced.

【0044】さらに、電子カメラ2とコンピュータ4と
の間では制御点情報のみを相互に授受し、電子カメラ
2、コンピュータ4の双方で上記制御点情報に基づいて
補間演算をし、LUTを生成することも可能である。た
だし、電子カメラ2は、プログラムを格納するメモリ等
の資源に制約が多いので、上述した補間演算をしてLU
Tを生成するのは困難な場合が多い。そこで、上述のよ
うに、LUTのデータとともにヘッダ情報(制御点情
報)を相互に授受するのが現実的である。
Further, only the control point information is exchanged between the electronic camera 2 and the computer 4, and both the electronic camera 2 and the computer 4 perform an interpolation operation based on the control point information to generate an LUT. It is also possible. However, since the electronic camera 2 has many restrictions on resources such as a memory for storing a program, the above-described interpolation calculation is performed and LU
Generating T is often difficult. Therefore, as described above, it is practical to mutually exchange header information (control point information) together with LUT data.

【0045】以上に説明した電子カメラ2からコンピュ
ータ4への画像処理パラメータの出力、コンピュータ4
上での画像処理パラメータの修正、コンピュータ4から
電子カメラ2への画像処理パラメータの出力に際し、コ
ンピュータ4のCPU40で実行される画像処理パラメ
ータ受け渡し処理手順について図7を参照して説明す
る。
Output of the image processing parameters from the electronic camera 2 to the computer 4 described above,
With reference to FIG. 7, a description will be given of an image processing parameter transfer processing procedure executed by the CPU 40 of the computer 4 when the image processing parameters are corrected and the computer 4 outputs the image processing parameters to the electronic camera 2.

【0046】図7は、上述した処理を行う際にコンピュ
ータ4内のCPU40で実行される画像処理パラメータ
受け渡しプログラムを説明する概略フローチャートであ
る。このプログラムは、CD−ROMやフロッピーディ
スク等の記憶媒体に記憶され、通常はCPU40での実
行に先だってハードディスクドライブ52に予めインス
トールされる。あるいは、この情報処理プログラムはR
OM44や不図示のEEPROM等に書き込まれている
ものであってもよい。さらに、通信回線やネットワーク
を介して接続された他のコンピュータ等から上記情報処
理プログラムの一部または全部をロードしてもよいし、
インターネット等を通じて上記情報処理プログラムの一
部または全部をダウンロードしてもよい。
FIG. 7 is a schematic flowchart for explaining an image processing parameter transfer program executed by the CPU 40 in the computer 4 when performing the above-described processing. This program is stored in a storage medium such as a CD-ROM or a floppy disk, and is usually installed in the hard disk drive 52 before execution by the CPU 40. Alternatively, this information processing program is R
The information may be written in the OM 44 or an EEPROM (not shown). Further, a part or all of the information processing program may be loaded from another computer or the like connected via a communication line or a network,
Part or all of the information processing program may be downloaded via the Internet or the like.

【0047】図7のフローチャートに示される画像処理
パラメータ受け渡しプログラムについて、図2〜図6を
適宜参照しながら説明する。この画像処理パラメータ受
け渡しプログラムは、図2の電子カメラ2から出力され
る画像データを入力してディスプレイ6への表示やHD
D52等への保存等を行うプログラムの実行中に、ユー
ザが画像処理パラメータの更新に関するメニューを選択
することにより、実行が開始される。
The image processing parameter transfer program shown in the flowchart of FIG. 7 will be described with reference to FIGS. The image processing parameter transfer program inputs image data output from the electronic camera 2 in FIG.
The execution is started when the user selects a menu related to updating of the image processing parameters during the execution of the program for saving in D52 or the like.

【0048】CPU40は、ステップS100において
ディスプレイ6にサブウインドウ、すなわち図4に示さ
れるウインドウ100を表示する。ステップS101に
おいてCPU40は、画像処理パラメータ入力指示の有
無を判定する。すなわち、図4の「Load」ボタン1
02がクリックされたか否かを判定し、この判定が否定
されるとステップS104に分岐する一方、肯定される
とステップS102に進む。ステップS102において
CPU40は、電子カメラ2から画像処理パラメータを
入力する。つまり、図3(a)に示されるヘッダ情報と
図3(b)に示されるLUTのデータとを入力する。
CPU 40 displays a sub-window, that is, window 100 shown in FIG. 4, on display 6 in step S100. In step S101, the CPU 40 determines whether or not there is an image processing parameter input instruction. That is, the “Load” button 1 in FIG.
It is determined whether or not 02 has been clicked. If this determination is denied, the process branches to step S104, while if affirmed, the process proceeds to step S102. In step S102, the CPU 40 inputs image processing parameters from the electronic camera 2. That is, the header information shown in FIG. 3A and the data of the LUT shown in FIG. 3B are input.

【0049】CPU40は、上記制御点情報に基づき、
ステップS103で特性曲線126をスプライン補間に
よって生成して図4のグラフ101上に表示した後、ス
テップS101に戻る。
Based on the control point information, the CPU 40
In step S103, the characteristic curve 126 is generated by spline interpolation and displayed on the graph 101 in FIG. 4, and then the process returns to step S101.

【0050】ステップS101の判定が否定された場合
の分岐先であるステップS104において、CPU40
は画像処理パラメータ変更指示の有無を判定する。すな
わち、図4のグラフ101の周囲に表示されるスライダ
108、112、114、116、118のドラッグ操
作や、ポイント(制御点)130a、130b、130
cのドラッグ操作、あるいは新たな制御点の追加操作等
の有無をCPU40は判定する。CPU40は、ステッ
プS104での判定が否定されるとステップS107に
分岐する一方、肯定されるとステップS105に進む。
In step S104, which is the branch destination when the determination in step S101 is negative, the CPU 40
Determines whether there is an image processing parameter change instruction. That is, the drag operation of the sliders 108, 112, 114, 116, and 118 displayed around the graph 101 in FIG. 4 and the points (control points) 130a, 130b, and 130
The CPU 40 determines whether there is a drag operation of c or an operation of adding a new control point. If the determination in step S104 is negative, the CPU 40 branches to step S107, while if affirmative, the process proceeds to step S105.

【0051】ステップS105においてCPU40は、
ユーザによる上述した操作内容に応じて画像処理パラメ
ータの変更処理を行い、続くステップS106におい
て、新たな制御点情報に基づく補間演算を行なって新た
なLUTを生成する。CPU40は上記処理を終えると
ステップS101に戻る。
In step S105, the CPU 40
The image processing parameters are changed in accordance with the above-mentioned operation contents by the user, and in a succeeding step S106, an interpolation operation based on the new control point information is performed to generate a new LUT. Upon completion of the above processing, the CPU 40 returns to step S101.

【0052】ステップS104の判定が否定された場合
の分岐先であるステップS107においてCPU40
は、画像処理パラメータ出力指示の有無を判定する。す
なわち、CPU40は図4の「Save」ボタン104
が押されたか否かを判定し、この判定が否定されるとス
テップS109に分岐する一方、肯定されるとステップ
S108に進む。ステップS108においてCPU40
は、画像処理パラメータの出力処理を行う。つまり、C
PU40は、電子カメラ2に新たなLUTのデータを新
たなヘッダ情報とともに出力する。CPU40は、ステ
ップS108の処理を終えるとステップS101に戻
る。
In step S107, which is the branch destination when the determination in step S104 is negative, the CPU 40
Determines whether there is an image processing parameter output instruction. That is, the CPU 40 operates the “Save” button 104 in FIG.
Is determined, and if this determination is denied, the process branches to step S109, while if affirmed, the process proceeds to step S108. In step S108, the CPU 40
Performs output processing of image processing parameters. That is, C
The PU 40 outputs new LUT data to the electronic camera 2 together with new header information. Upon completion of the processing in step S108, the CPU 40 returns to step S101.

【0053】ステップS107での判定が否定された場
合の分岐先であるステップS109において、CPU4
0は画像処理パラメータ修正処理の終了の指示の有無を
判定する。すなわち、図4の「OK」ボタン138がク
リックされたか否かを判定し、この判定が否定されると
S101に戻る一方、肯定されるとステップS110に
進んで図4のウインドウ100の表示を終了して画像処
理パラメータ受け渡しプログラムの処理を終了する。
In step S109, which is the branch destination when the determination in step S107 is negative, the CPU 4
0 determines whether there is an instruction to end the image processing parameter correction processing. That is, it is determined whether or not the “OK” button 138 in FIG. 4 has been clicked. If this determination is denied, the process returns to S101, while if affirmed, the process proceeds to step S110 to end the display of the window 100 in FIG. Then, the processing of the image processing parameter transfer program ends.

【0054】以上の実施の形態では、画像処理パラメー
タとしてトーンカーブを扱う例につい説明したが、トー
ンカーブ以外のパラメータを扱う場合にも適用できる。
また、画像処理パラメータのみならず、電子カメラ2の
測光動作によって求められた被写体輝度に対応して決め
られるシャッタ速度と絞りとの組み合わせ、すなわち自
動露出のプログラム曲線等の制御パラメータを扱う場合
にも適用できる。
In the above embodiment, an example in which a tone curve is handled as an image processing parameter has been described. However, the present invention can be applied to a case where a parameter other than the tone curve is handled.
Further, not only image processing parameters but also control parameters such as a combination of a shutter speed and an aperture determined according to a subject luminance obtained by a photometric operation of the electronic camera 2, that is, a control parameter such as a program curve of an automatic exposure. Applicable.

【0055】コンピュータ4に接続される画像入力装置
としては、電子カメラのみならずスキャナ等であっても
よい。また、電子カメラは、スチルカメラのみならずム
ービカメラであってもよい。さらに、コンピュータ4に
接続されるものとして、音声信号や他の電気信号などを
入力あるいは出力するオーディオ機器や測定機器等であ
ってもよい。たとえば、コンピュータ4にオーディオ機
器等が接続される場合に、この音声入力機器のイコライ
ザ特性等に関する処理パラメータがコンピュータ4と音
声入力機器との間で相互に授受することができる。
The image input device connected to the computer 4 may be not only an electronic camera but also a scanner or the like. The electronic camera may be a movie camera as well as a still camera. Furthermore, as a device connected to the computer 4, an audio device or a measuring device that inputs or outputs a voice signal or another electric signal may be used. For example, when an audio device or the like is connected to the computer 4, processing parameters relating to the equalizer characteristics and the like of the voice input device can be exchanged between the computer 4 and the voice input device.

【0056】また、以上の実施の形態で説明した画像処
理パラメータをコンピュータ4のHDD52等に記録す
るようにしてもよい。たとえば、複数の画像処理パラメ
ータをHDD52等に記録しておき、撮影目的等に応じ
てこれら複数の画像処理パラメータのうちの一組または
複数組を電子カメラ2に出力する。複数の画像処理パラ
メータを電子カメラ2に記録するようにすることで、コ
ンピュータ4がなくても画像処理パラメータを変更する
ことが可能となる。
The image processing parameters described in the above embodiment may be recorded in the HDD 52 of the computer 4 or the like. For example, a plurality of image processing parameters are recorded in the HDD 52 or the like, and one or a plurality of sets of the plurality of image processing parameters are output to the electronic camera 2 according to the purpose of photographing. By recording a plurality of image processing parameters in the electronic camera 2, the image processing parameters can be changed without the computer 4.

【0057】以上では、電子カメラ2とコンピュータ4
とがケーブル2Aで接続される例について説明したが、
光や無線によってワイヤレス接続されるものであっても
よい。また、コンピュータ4上で生成された画像処理パ
ラメータを、このコンピュータ4に接続される不図示の
フラッシュメモリアダプタに装着されるフラッシュメモ
リカードに記録し、このフラッシュメモリカードを電子
カメラ2に装着するようにしてもよい。このような方法
によっても画像処理パラメータを電子カメラ2とコンピ
ュータ4との間で相互に授受させることができる。
In the above, the electronic camera 2 and the computer 4
Has been described with an example in which is connected by the cable 2A,
A wireless connection by light or radio may be used. Further, the image processing parameters generated on the computer 4 are recorded on a flash memory card mounted on a flash memory adapter (not shown) connected to the computer 4, and the flash memory card is mounted on the electronic camera 2. It may be. Even with such a method, the image processing parameters can be exchanged between the electronic camera 2 and the computer 4.

【0058】以上では所定数の制御点情報に基づき、ス
プライン関数によりルックアップテーブルの変換特性を
定義付けるための特性曲線を求める例について説明し
た。しかし、本発明ではベジェ、ナーブス等、他の関数
を用いることも可能である。
In the above, an example has been described in which a characteristic curve for defining a conversion characteristic of a look-up table is determined by a spline function based on a predetermined number of control point information. However, in the present invention, it is also possible to use other functions such as Bezier, Nerves and the like.

【0059】以上の発明の実施の形態と請求項との対応
において、電子カメラ2が画像入力装置を、コンピュー
タ4、ディスプレイ6、キーボード8およびマウス10
が情報処理装置を、図7に示すフローチャートにおいて
ステップS102の処理手順がパラメータ入力手順を、
ステップS103の処理手順が特性曲線生成手順を、ス
テップS105の処理手順が特性曲線変更入力手順を、
ステップS106の処理手順が修正ルックアップテーブ
ル生成手順を、ステップS108の処理手順がパラメー
タ出力手順を、それぞれ構成する。
In the correspondence between the above-described embodiment and the claims, the electronic camera 2 controls the image input device by the computer 4, the display 6, the keyboard 8, and the mouse 10.
Is an information processing apparatus, and the processing procedure of step S102 in the flowchart shown in FIG.
The processing procedure of step S103 is a characteristic curve generation procedure, the processing procedure of step S105 is a characteristic curve change input procedure,
The processing procedure of step S106 constitutes a modified lookup table generation procedure, and the processing procedure of step S108 constitutes a parameter output procedure.

【0060】[0060]

【発明の効果】以上に説明したように、本発明によれ
ば、ルックアップテーブルのデータとともに、ルックア
ップテーブルの変換特性を定義付けるための特性曲線を
補間演算によって生成する際に参照される制御点情報を
受け渡しすることにより、ルックアップテーブルの特性
曲線を容易に再現することができる。このため、ルック
アップテーブルの変換特性に微妙な修正を加えることが
非常に容易となる。
As described above, according to the present invention, together with the data of the look-up table, the control points referred to when generating the characteristic curve for defining the conversion characteristics of the look-up table by the interpolation operation. By passing the information, the characteristic curve of the look-up table can be easily reproduced. For this reason, it becomes very easy to make subtle modifications to the conversion characteristics of the lookup table.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 図1は、本発明の実施の形態に係る情報処理
装置に画像入力装置としての電子カメラが接続される様
子を示す図である。
FIG. 1 is a diagram illustrating a state in which an electronic camera as an image input device is connected to an information processing apparatus according to an embodiment of the present invention.

【図2】 図2は、電子カメラおよび情報処理装置の内
部構成を概略的に示すブロック図である。
FIG. 2 is a block diagram schematically illustrating an internal configuration of an electronic camera and an information processing apparatus.

【図3】 図3は、本発明の実施の形態に係る情報処理
装置と電子カメラとの間で相互に授受される画像処理パ
ラメータのデータ構造を説明する図である。
FIG. 3 is a diagram illustrating a data structure of image processing parameters mutually transmitted and received between the information processing apparatus and the electronic camera according to the embodiment of the present invention.

【図4】 図4は、画像処理パラメータを表示、変更す
る際に情報処理装置で表示されるサブウインドウの一例
を説明する図である。
FIG. 4 is a diagram illustrating an example of a sub-window displayed on the information processing apparatus when displaying and changing image processing parameters.

【図5】 図5は、本発明の実施の形態に係る情報処理
装置で、電子カメラから入力した画像処理パラメータを
表示、変更する様子を説明する図である。
FIG. 5 is a diagram illustrating how the information processing apparatus according to the embodiment of the present invention displays and changes image processing parameters input from an electronic camera.

【図6】 図6は、従来の技術に係る情報処理装置で画
像処理パラメータの変更が思い通りにゆかない例を説明
する図である。
FIG. 6 is a diagram illustrating an example in which an image processing parameter cannot be changed as desired in an information processing apparatus according to the related art.

【図7】 図7は、本発明の実施の形態に係る情報処理
装置に内蔵されるCPUで実行される画像処理パラメー
タ受け渡しプログラムを説明するフローチャートであ
る。
FIG. 7 is a flowchart illustrating an image processing parameter transfer program executed by a CPU incorporated in the information processing apparatus according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

2 … 電子カメラ 4 … コンピュータ 6 … ディスプレイ 8 … キーボード 10 … マウス 26 … RAM 36 … フラッシュメモリ 40 … CPU 100 … ウインドウ 101、101A、101B、101C … グラフ 108、112、114、116、118 … スライ
ダ 106、110、120、122、124 … ボック
ス 128、130a、130b、130c、132、13
9、140、142、142B、142A、143 …
ポイント(制御点) 126、140B、144、144A … 曲線(特性
曲線) 140C … ポイント位置の変更によって特性曲線の
変化した部分
2 ... electronic camera 4 ... computer 6 ... display 8 ... keyboard 10 ... mouse 26 ... RAM 36 ... flash memory 40 ... CPU 100 ... windows 101, 101A, 101B, 101C ... graphs 108, 112, 114, 116, 118 ... slider 106 , 110, 120, 122, 124 ... Boxes 128, 130a, 130b, 130c, 132, 13
9, 140, 142, 142B, 142A, 143 ...
Point (control point) 126, 140B, 144, 144A ... Curve (characteristic curve) 140C ... Part of the characteristic curve changed by changing the point position

フロントページの続き Fターム(参考) 5B057 BA11 CA08 CA12 CA16 CB08 CB12 CB16 CE11 CH01 CH07 CH11 5C022 AA13 AB31 AC69 5C023 AA01 AA31 BA08 CA02 5C077 LL16 LL19 MM03 NP07 PP15 PQ12 PQ22 PQ23 RR19 SS05 SS06 TT09 Continued on front page F-term (reference) 5B057 BA11 CA08 CA12 CA16 CB08 CB12 CB16 CE11 CH01 CH07 CH11 5C022 AA13 AB31 AC69 5C023 AA01 AA31 BA08 CA02 5C077 LL16 LL19 MM03 NP07 PP15 PQ12 PQ22 PQ23 RR19 SS05 SS06

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】補正処理前の画像データの値に対応する補
正処理後の画像データの値を求めるために参照されるル
ックアップテーブルのデータとともに、前記ルックアッ
プテーブルの変換特性を定義付けるための特性曲線を補
間演算によって生成する際に参照される制御点情報を受
け渡しすることを特徴とする画像処理パラメータの受け
渡し方法。
1. A characteristic for defining conversion characteristics of the look-up table together with data of a look-up table referred to for obtaining a value of image data after the correction corresponding to a value of image data before the correction. An image processing parameter transfer method, wherein control point information referred to when a curve is generated by interpolation calculation is transferred.
【請求項2】補正処理前の画像データの値に対応する補
正処理後の画像データの値を求めるために参照されるル
ックアップテーブルを入出力可能な画像入力装置におい
て、 前記ルックアップテーブルのデータとともに、前記ルッ
クアップテーブルの変換特性を定義付けるための特性曲
線を補間演算によって生成する際に参照される制御点情
報を入力し、 前記ルックアップテーブルのデータおよび前記制御点情
報のうち、少なくとも前記制御点情報を出力することを
特徴とする画像入力装置。
2. An image input device capable of inputting / outputting a lookup table referred to for obtaining a value of image data after correction corresponding to a value of image data before correction, comprising: And input control point information referred to when generating a characteristic curve for defining a conversion characteristic of the look-up table by an interpolation operation, and at least the control point data of the look-up table and the control point information. An image input device for outputting point information.
【請求項3】補正処理前の画像データの値に対応する補
正処理後の画像データの値を求めるために参照されるル
ックアップテーブルを生成するための情報処理装置と、 画像入力して得られる画像データに対して前記ルックア
ップテーブルを参照して補正処理する画像入力装置とを
有する画像入力システムにおいて、 前記情報処理装置からは、前記ルックアップテーブルの
データとともに、前記ルックアップテーブルの変換特性
を定義付けるための特性曲線を補間演算によって生成す
る際に参照される制御点情報が前記画像入力装置に出力
され、 前記画像入力装置からは、前記ルックアップテーブルの
データおよび前記制御点情報のうち、少なくとも前記制
御点情報が前記情報処理装置に出力されることを特徴と
する画像入力システム。
3. An information processing apparatus for generating a lookup table referred to for obtaining a value of image data after correction corresponding to a value of image data before correction, and an image obtained by inputting an image. An image input system comprising: an image input device that performs a correction process on image data by referring to the look-up table. The information processing device outputs the conversion characteristics of the look-up table together with the data of the look-up table. Control point information referred to when a characteristic curve for defining is generated by interpolation calculation is output to the image input device.From the image input device, at least the data of the lookup table and the control point information. An image input system, wherein the control point information is output to the information processing device.
【請求項4】画像入力装置との間で画像処理パラメータ
を受け渡し可能な情報処理装置の画像処理パラメータ受
け渡しプログラムを記憶した記憶媒体であって、 補正処理前の画像データの値に対応する補正処理後の画
像データの値を求めるために参照されるルックアップテ
ーブルのデータ、および前記ルックアップテーブルの変
換特性を定義付けるための特性曲線を補間演算によって
生成する際に参照される制御点情報のうち、少なくとも
前記制御点情報を前記画像入力装置から入力するパラメ
ータ入力手順と、 前記画像処理パラメータ入力手順で入力された前記制御
点情報に基づいて前記特性曲線を前記補間演算によって
生成する特性曲線生成手順と、 前記特性曲線の形状が変更されるのを入力する特性曲線
変更入力手順と、 前記特性曲線変更入力手順で入力した新たな特性曲線に
基づき、新たなルックアップテーブルを生成する修正ル
ックアップテーブル生成手順と、 前記新たなルックアップテーブルのデータを、前記新た
な特性曲線に対応する新たな制御点情報とともに前記画
像入力装置へ出力するパラメータ出力手順とを記憶した
ことを特徴とする記憶媒体。
4. A storage medium storing an image processing parameter transfer program of an information processing apparatus capable of transferring image processing parameters to and from an image input apparatus, the correction processing corresponding to the value of the image data before the correction processing. Of the control point information referred to when generating a characteristic curve for defining the conversion characteristic of the lookup table by interpolation calculation, the data of the lookup table referred to to determine the value of the subsequent image data, A parameter inputting step of inputting at least the control point information from the image input device; and a characteristic curve generating step of generating the characteristic curve by the interpolation operation based on the control point information input in the image processing parameter inputting step. A characteristic curve change inputting step of inputting a change in the shape of the characteristic curve; A modified look-up table generation procedure for generating a new look-up table based on the new characteristic curve input in the line change input procedure; and A parameter output procedure for outputting to the image input device together with control point information.
JP23071299A 1999-08-17 1999-08-17 Image processing parameter delivery method, image input device, image input system, and storage medium storing image processing parameter delivery program for information processing device Expired - Lifetime JP4688246B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP23071299A JP4688246B2 (en) 1999-08-17 1999-08-17 Image processing parameter delivery method, image input device, image input system, and storage medium storing image processing parameter delivery program for information processing device
US11/505,919 US20060274164A1 (en) 1999-08-17 2006-08-18 Information processing apparatus, information processing system, image input apparatus, image input system and information exchange method
US12/662,883 US8009195B2 (en) 1999-08-17 2010-05-10 Information processing apparatus, information processing system, image input apparatus, image input system and information exchange method for modifying a look-up table

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23071299A JP4688246B2 (en) 1999-08-17 1999-08-17 Image processing parameter delivery method, image input device, image input system, and storage medium storing image processing parameter delivery program for information processing device

Publications (2)

Publication Number Publication Date
JP2001057650A true JP2001057650A (en) 2001-02-27
JP4688246B2 JP4688246B2 (en) 2011-05-25

Family

ID=16912135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23071299A Expired - Lifetime JP4688246B2 (en) 1999-08-17 1999-08-17 Image processing parameter delivery method, image input device, image input system, and storage medium storing image processing parameter delivery program for information processing device

Country Status (1)

Country Link
JP (1) JP4688246B2 (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002291691A (en) * 2001-04-02 2002-10-08 Olympus Optical Co Ltd Electronic endoscope apparatus
EP1349115A3 (en) * 2002-03-28 2003-11-19 Nikon Corporation Image processing system, imaging device, and parameter-determining program
EP1560162A2 (en) * 2004-01-27 2005-08-03 Nikon Corporation Electronic camera having finish setting function and processing program for customizing the finish setting function
KR100610582B1 (en) 2003-10-14 2006-08-09 가시오게산키 가부시키가이샤 Image processing system, image processing method, electronic camera, and image processing apparatus
WO2009028341A1 (en) * 2007-08-27 2009-03-05 Sharp Kabushiki Kaisha Methods for adjusting image characteristics
JP2009288712A (en) * 2008-05-30 2009-12-10 Canon Inc Image display and display system
US7768496B2 (en) 2004-12-02 2010-08-03 Sharp Laboratories Of America, Inc. Methods and systems for image tonescale adjustment to compensate for a reduced source light power level
US7782405B2 (en) 2004-12-02 2010-08-24 Sharp Laboratories Of America, Inc. Systems and methods for selecting a display source light illumination level
US7800577B2 (en) 2004-12-02 2010-09-21 Sharp Laboratories Of America, Inc. Methods and systems for enhancing display characteristics
US7826681B2 (en) 2007-02-28 2010-11-02 Sharp Laboratories Of America, Inc. Methods and systems for surround-specific display modeling
US7839406B2 (en) 2006-03-08 2010-11-23 Sharp Laboratories Of America, Inc. Methods and systems for enhancing display characteristics with ambient illumination input
US7924261B2 (en) 2004-12-02 2011-04-12 Sharp Laboratories Of America, Inc. Methods and systems for determining a display light source adjustment
US7961199B2 (en) 2004-12-02 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for image-specific tone scale adjustment and light-source control
US7982707B2 (en) 2004-12-02 2011-07-19 Sharp Laboratories Of America, Inc. Methods and systems for generating and applying image tone scale adjustments
US8004511B2 (en) 2004-12-02 2011-08-23 Sharp Laboratories Of America, Inc. Systems and methods for distortion-related source light management
US8111265B2 (en) 2004-12-02 2012-02-07 Sharp Laboratories Of America, Inc. Systems and methods for brightness preservation using a smoothed gain image
US8155434B2 (en) 2007-10-30 2012-04-10 Sharp Laboratories Of America, Inc. Methods and systems for image enhancement
US8165724B2 (en) 2009-06-17 2012-04-24 Sharp Laboratories Of America, Inc. Methods and systems for power-controlling display devices
US8169431B2 (en) 2007-12-26 2012-05-01 Sharp Laboratories Of America, Inc. Methods and systems for image tonescale design
US8179363B2 (en) 2007-12-26 2012-05-15 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with histogram manipulation
US8203579B2 (en) 2007-12-26 2012-06-19 Sharp Laboratories Of America, Inc. Methods and systems for backlight modulation with image characteristic mapping
US8207932B2 (en) 2007-12-26 2012-06-26 Sharp Laboratories Of America, Inc. Methods and systems for display source light illumination level selection
US8223113B2 (en) 2007-12-26 2012-07-17 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with variable delay
US8345038B2 (en) 2007-10-30 2013-01-01 Sharp Laboratories Of America, Inc. Methods and systems for backlight modulation and brightness preservation
US8378956B2 (en) 2007-11-30 2013-02-19 Sharp Laboratories Of America, Inc. Methods and systems for weighted-error-vector-based source light selection
US8416179B2 (en) 2008-07-10 2013-04-09 Sharp Laboratories Of America, Inc. Methods and systems for color preservation with a color-modulated backlight
US8531379B2 (en) 2008-04-28 2013-09-10 Sharp Laboratories Of America, Inc. Methods and systems for image compensation for ambient conditions
US8913089B2 (en) 2005-06-15 2014-12-16 Sharp Laboratories Of America, Inc. Methods and systems for enhancing display characteristics with frequency-specific gain
US8922594B2 (en) 2005-06-15 2014-12-30 Sharp Laboratories Of America, Inc. Methods and systems for enhancing display characteristics with high frequency contrast enhancement
US8947465B2 (en) 2004-12-02 2015-02-03 Sharp Laboratories Of America, Inc. Methods and systems for display-mode-dependent brightness preservation
US9083969B2 (en) 2005-08-12 2015-07-14 Sharp Laboratories Of America, Inc. Methods and systems for independent view adjustment in multiple-view displays
US9177509B2 (en) 2007-11-30 2015-11-03 Sharp Laboratories Of America, Inc. Methods and systems for backlight modulation with scene-cut detection
US9330630B2 (en) 2008-08-30 2016-05-03 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with rate change control

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002291691A (en) * 2001-04-02 2002-10-08 Olympus Optical Co Ltd Electronic endoscope apparatus
EP1349115A3 (en) * 2002-03-28 2003-11-19 Nikon Corporation Image processing system, imaging device, and parameter-determining program
US7177468B2 (en) 2002-03-28 2007-02-13 Nikon Corporation Image processing system, imaging device, and parameter-determining program
KR100610582B1 (en) 2003-10-14 2006-08-09 가시오게산키 가부시키가이샤 Image processing system, image processing method, electronic camera, and image processing apparatus
EP1560162A2 (en) * 2004-01-27 2005-08-03 Nikon Corporation Electronic camera having finish setting function and processing program for customizing the finish setting function
EP1560162A3 (en) * 2004-01-27 2005-09-21 Nikon Corporation Electronic camera having finish setting function and processing program for customizing the finish setting function
EP3073445A1 (en) * 2004-01-27 2016-09-28 Nikon Corporation Electronic camera having finish setting having finish setting function and processing program for customizing the finish setting function
US7619651B2 (en) 2004-01-27 2009-11-17 Nikon Corporation Electronic camera having finish setting function and processing program for customizing the finish setting function
US8111265B2 (en) 2004-12-02 2012-02-07 Sharp Laboratories Of America, Inc. Systems and methods for brightness preservation using a smoothed gain image
US8947465B2 (en) 2004-12-02 2015-02-03 Sharp Laboratories Of America, Inc. Methods and systems for display-mode-dependent brightness preservation
US7782405B2 (en) 2004-12-02 2010-08-24 Sharp Laboratories Of America, Inc. Systems and methods for selecting a display source light illumination level
US7800577B2 (en) 2004-12-02 2010-09-21 Sharp Laboratories Of America, Inc. Methods and systems for enhancing display characteristics
US7924261B2 (en) 2004-12-02 2011-04-12 Sharp Laboratories Of America, Inc. Methods and systems for determining a display light source adjustment
US7961199B2 (en) 2004-12-02 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for image-specific tone scale adjustment and light-source control
US7982707B2 (en) 2004-12-02 2011-07-19 Sharp Laboratories Of America, Inc. Methods and systems for generating and applying image tone scale adjustments
US8004511B2 (en) 2004-12-02 2011-08-23 Sharp Laboratories Of America, Inc. Systems and methods for distortion-related source light management
US7768496B2 (en) 2004-12-02 2010-08-03 Sharp Laboratories Of America, Inc. Methods and systems for image tonescale adjustment to compensate for a reduced source light power level
US8120570B2 (en) 2004-12-02 2012-02-21 Sharp Laboratories Of America, Inc. Systems and methods for tone curve generation, selection and application
US8913089B2 (en) 2005-06-15 2014-12-16 Sharp Laboratories Of America, Inc. Methods and systems for enhancing display characteristics with frequency-specific gain
US8922594B2 (en) 2005-06-15 2014-12-30 Sharp Laboratories Of America, Inc. Methods and systems for enhancing display characteristics with high frequency contrast enhancement
US9083969B2 (en) 2005-08-12 2015-07-14 Sharp Laboratories Of America, Inc. Methods and systems for independent view adjustment in multiple-view displays
US7839406B2 (en) 2006-03-08 2010-11-23 Sharp Laboratories Of America, Inc. Methods and systems for enhancing display characteristics with ambient illumination input
US7826681B2 (en) 2007-02-28 2010-11-02 Sharp Laboratories Of America, Inc. Methods and systems for surround-specific display modeling
CN101918994B (en) * 2007-08-27 2013-04-24 夏普株式会社 Methods for adjusting image characteristics
WO2009028341A1 (en) * 2007-08-27 2009-03-05 Sharp Kabushiki Kaisha Methods for adjusting image characteristics
US8155434B2 (en) 2007-10-30 2012-04-10 Sharp Laboratories Of America, Inc. Methods and systems for image enhancement
US8345038B2 (en) 2007-10-30 2013-01-01 Sharp Laboratories Of America, Inc. Methods and systems for backlight modulation and brightness preservation
US9177509B2 (en) 2007-11-30 2015-11-03 Sharp Laboratories Of America, Inc. Methods and systems for backlight modulation with scene-cut detection
US8378956B2 (en) 2007-11-30 2013-02-19 Sharp Laboratories Of America, Inc. Methods and systems for weighted-error-vector-based source light selection
US8179363B2 (en) 2007-12-26 2012-05-15 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with histogram manipulation
US8203579B2 (en) 2007-12-26 2012-06-19 Sharp Laboratories Of America, Inc. Methods and systems for backlight modulation with image characteristic mapping
US8169431B2 (en) 2007-12-26 2012-05-01 Sharp Laboratories Of America, Inc. Methods and systems for image tonescale design
US8223113B2 (en) 2007-12-26 2012-07-17 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with variable delay
US8207932B2 (en) 2007-12-26 2012-06-26 Sharp Laboratories Of America, Inc. Methods and systems for display source light illumination level selection
US8531379B2 (en) 2008-04-28 2013-09-10 Sharp Laboratories Of America, Inc. Methods and systems for image compensation for ambient conditions
JP2009288712A (en) * 2008-05-30 2009-12-10 Canon Inc Image display and display system
US8416179B2 (en) 2008-07-10 2013-04-09 Sharp Laboratories Of America, Inc. Methods and systems for color preservation with a color-modulated backlight
US9330630B2 (en) 2008-08-30 2016-05-03 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with rate change control
US8165724B2 (en) 2009-06-17 2012-04-24 Sharp Laboratories Of America, Inc. Methods and systems for power-controlling display devices

Also Published As

Publication number Publication date
JP4688246B2 (en) 2011-05-25

Similar Documents

Publication Publication Date Title
JP2001057650A (en) Delivery method for image processing parameter, image input device, image input system and storage medium storing image processing parameter delivery program for information processing unit
US8009195B2 (en) Information processing apparatus, information processing system, image input apparatus, image input system and information exchange method for modifying a look-up table
JP3758452B2 (en) RECORDING MEDIUM, IMAGE PROCESSING DEVICE, AND IMAGE PROCESSING METHOD
US8692849B2 (en) Method and apparatus for layer-based panorama adjustment and editing
JP4114279B2 (en) Image processing device
US6724941B1 (en) Image processing method, image processing device, and recording medium
JP4533168B2 (en) Imaging apparatus and control method thereof
JP5300595B2 (en) Image processing apparatus and method, and computer program
US7194130B2 (en) Image processing apparatus and method, and recording medium
US20090073473A1 (en) Printing system, image operating system, printing method, and storage medium
US20040184671A1 (en) Image processing device, image processing method, storage medium, and program
US6853747B1 (en) Image processing method and apparatus and recording medium
US20010022860A1 (en) Image sensing device having image combining function and method for combining images in said image sensing device
US7433079B2 (en) Image processing apparatus and method
JP5136209B2 (en) Development processing apparatus for undeveloped image data, development processing method, and computer program for development processing
JP2004012633A (en) List display of multiple images
JP2000137805A (en) Processor and method for image processing
JP4697186B2 (en) Image processing device
JP2006186753A (en) Method and apparatus for processing photographic image
JP2004056641A (en) Method, apparatus, and program for editing image file
JP4766644B2 (en) Image processing method and image processing apparatus
JP2006203571A (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP4006961B2 (en) Image file generator
JP2001057663A (en) Image processing unit, information processing system, and storage medium storing information processing program
JP2004222076A (en) Image processing program and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090618

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110215

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4688246

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term