JP2003069838A - Data communication equipment, object reproducing method and program - Google Patents

Data communication equipment, object reproducing method and program

Info

Publication number
JP2003069838A
JP2003069838A JP2001258478A JP2001258478A JP2003069838A JP 2003069838 A JP2003069838 A JP 2003069838A JP 2001258478 A JP2001258478 A JP 2001258478A JP 2001258478 A JP2001258478 A JP 2001258478A JP 2003069838 A JP2003069838 A JP 2003069838A
Authority
JP
Japan
Prior art keywords
image
data
component data
color component
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001258478A
Other languages
Japanese (ja)
Inventor
Fumiko Uchino
文子 内野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001258478A priority Critical patent/JP2003069838A/en
Publication of JP2003069838A publication Critical patent/JP2003069838A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To promptly peruse a reproduction image that reproduces an object showing object color component data at a place different from the place where an image of the object is acquired. SOLUTION: A digital camera 1 photographs an image of the object and calculates, from the photographed image, the object color component data 63 that substantially correspond to the spectral reflection factor of the object (step ST21). The calculated object color component data 63 are transmitted from the digital camera 1 to a printer 2 (step ST22). A reproduction image that reproduces the colors of the object is obtained by combining the calculated object color component data 63 with illumination component data 64 corresponding to the spectral distribution of illuminating light in the printer 2, and the reproduction image is printed (step ST24 and ST25). Thus, it is possible to peruse the reproduction image at an early stage at a place different from the place where the image of the object is acquired.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、被写体を再現する
技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for reproducing a subject.

【0002】[0002]

【従来の技術】従来より、デジタルカメラやスキャナ等
の画像入力装置によりデジタルデータとして取得される
画像に対し、画像の色合いや雰囲気を修正する画像処理
が行われている。このような処理の代表的なものとし
て、ホワイトバランスに基づく色の修正がある。ホワイ
トバランスに基づく修正では、画像の全体的な色のバラ
ンスに基づいて白い物体が白く見えるように画像を修正
し、これにより、被写体への照明光の色の影響が画像か
らある程度取り除かれ、人間の視覚に合った画像へと修
正される。
2. Description of the Related Art Conventionally, image processing is performed on an image acquired as digital data by an image input device such as a digital camera or a scanner so as to correct the hue and mood of the image. A typical example of such processing is color correction based on white balance. White balance-based correction corrects an image so that white objects appear white based on the overall color balance of the image, which removes the effect of the color of the illumination light on the subject from the image to some extent. The image is modified to match the visual sense of.

【0003】一方で、被写体を様々な光源にて照明した
際の画像を演算処理にて取得する技術も提案されてい
る。この技術では、被写体の分光反射率におよそ相当す
るデータ(以下、「物体色成分データ」という。)を求
めておき、このデータに照明光のデータを合成すること
により様々な照明環境下における被写体の画像が再生さ
れる。
On the other hand, there has been proposed a technique for obtaining an image when a subject is illuminated with various light sources by a calculation process. In this technique, data corresponding to the spectral reflectance of the subject (hereinafter referred to as “object color component data”) is obtained, and the data of the illumination light is combined with this data to obtain the subject under various illumination environments. Image is played.

【0004】[0004]

【発明が解決しようとする課題】ところで、デザイン関
連のミーティングにおいて出席者が一カ所に集まらずに
議論する場合や、患者側と医者側が離れている遠隔医療
を行う場合などにおいては、照明光の影響を取り除いて
被写体が本来有する色を再現する画像や、様々な照明環
境下における被写体の色を再現する画像を、被写体の画
像が取得された場所とは別の場所において早期に閲覧で
きる技術が求められている。しかしながら、このような
技術については提案されていない。
By the way, when the attendees discuss at a design-related meeting without gathering in one place, or when performing remote medical treatment in which the patient side and the doctor side are separated, the illumination light Technology that enables early viewing of images that remove the effects and reproduce the original color of the subject and images that reproduce the color of the subject in various lighting environments at a location other than the location where the image of the subject was acquired is available. It has been demanded. However, such a technique has not been proposed.

【0005】そこで、本発明は、物体色成分データの示
す被写体を再現する画像を、被写体の画像が取得された
場所とは別の場所において早期に閲覧可能とすることを
目的とする。
Therefore, an object of the present invention is to make it possible to quickly browse an image representing a subject represented by the object color component data at a place different from the place where the image of the subject was acquired.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するた
め、請求項1の発明は、ネットワークを介して通信可能
なデータ通信装置であって、被写体の画像データを取得
する画像取得手段と、取得された前記画像データから、
被写体への照明環境の影響を取り除いた画像のデータに
相当する物体色成分データを求める物体色成分データ生
成手段と、前記物体色成分データの示す被写体を再現す
る再現画像を生成する再現画像生成手段と、生成された
前記再現画像を前記ネットワークに結合された外部装置
に送信する送信手段と、を備えている。
In order to solve the above-mentioned problems, the invention of claim 1 is a data communication device capable of communicating via a network, and an image acquisition means for acquiring image data of an object, From the image data
Object color component data generation means for obtaining object color component data corresponding to the image data from which the influence of the illumination environment on the object is removed, and reproduction image generation means for generating a reproduction image for reproducing the object indicated by the object color component data And transmitting means for transmitting the generated reproduction image to an external device connected to the network.

【0007】また、請求項2の発明は、ネットワークを
介して通信可能なデータ通信装置であって、前記ネット
ワークに結合された外部装置から、被写体への照明環境
の影響を取り除いた画像のデータに相当する物体色成分
データを受信する受信手段と、前記物体色成分データの
示す被写体を再現する再現画像を生成する再現画像生成
手段と、生成された前記再現画像を閲覧可能に出力する
出力手段と、を備えている。
According to a second aspect of the present invention, there is provided a data communication device capable of communicating via a network, wherein image data obtained by removing an influence of a lighting environment on a subject is extracted from an external device connected to the network. Receiving means for receiving the corresponding object color component data, reproduction image generating means for generating a reproduction image for reproducing the subject indicated by the object color component data, and output means for outputting the generated reproduction image in a viewable manner. , Are provided.

【0008】また、請求項3の発明は、請求項2に記載
のデータ通信装置において、前記出力手段は、生成され
た前記再現画像を印刷する印刷手段を含むことを特徴と
する。
According to a third aspect of the invention, in the data communication apparatus according to the second aspect, the output means includes a printing means for printing the reproduced image generated.

【0009】また、請求項4の発明は、請求項2に記載
のデータ通信装置において、生成された前記再現画像を
前記ネットワークに結合された他の外部装置に送信する
送信手段、をさらに備えている。
Further, the invention of claim 4 is the data communication apparatus according to claim 2, further comprising a transmitting means for transmitting the generated reproduced image to another external device coupled to the network. There is.

【0010】また、請求項5の発明は、請求項1ないし
4のいずれかに記載のデータ通信装置において、前記再
現画像を生成するための再現条件の指定を受け付ける受
付手段、をさらに備え、前記再現画像生成手段は、前記
再現条件に基づいて前記再現画像を生成することを特徴
とする。
Further, the invention of claim 5 is the data communication apparatus according to any one of claims 1 to 4, further comprising: acceptance means for accepting designation of a reproduction condition for generating the reproduction image. The reproduction image generating means is characterized in that the reproduction image is generated based on the reproduction condition.

【0011】また、請求項6の発明は、請求項5に記載
のデータ通信装置において、前記再現条件は、照明環境
が画像に与える影響を示す照明成分データ、色順応に基
づく色変換に用いる色順応式、および、前記色順応に基
づく色変換において前記照明成分データが示す照明の影
響の度合いを調整する順応係数、のうち少なくとも1つ
を含むことを特徴とする。
Further, in the data communication apparatus according to the present invention, the reproduction condition is the illumination component data indicating the influence of the illumination environment on the image, and the color used for color conversion based on the color adaptation. At least one of an adaptation formula and an adaptation coefficient for adjusting the degree of the influence of the illumination indicated by the illumination component data in the color conversion based on the chromatic adaptation is included.

【0012】また、請求項7の発明は、被写体を再現す
る方法であって、被写体の画像データを取得する画像取
得工程と、取得された前記画像データから、被写体への
照明環境の影響を取り除いた画像のデータに相当する物
体色成分データを求める物体色成分データ生成工程と、
前記物体色成分データの示す被写体を再現する再現画像
を生成する再現画像生成工程と、生成された前記再現画
像をネットワークに結合された外部装置に送信する送信
工程と、を備えている。
According to a seventh aspect of the present invention, there is provided a method of reproducing an object, wherein an image acquisition step of acquiring image data of the object and the effect of the illumination environment on the object are removed from the acquired image data. Object color component data generation step of obtaining object color component data corresponding to the image data,
The method includes a reproduction image generation step of generating a reproduction image that reproduces the subject indicated by the object color component data, and a transmission step of transmitting the generated reproduction image to an external device connected to the network.

【0013】また、請求項8の発明は、被写体を再現す
る方法であって、ネットワークに結合された外部装置か
ら、被写体への照明環境の影響を取り除いた画像のデー
タに相当する物体色成分データを受信する受信工程と、
前記物体色成分データの示す被写体を再現する再現画像
を生成する再現画像生成工程と、生成された前記再現画
像を閲覧可能に出力する出力工程と、を備えている。
The invention of claim 8 is a method for reproducing an object, wherein object color component data corresponding to image data obtained by removing the influence of the illumination environment on the object from an external device connected to the network. A receiving step of receiving
A reproduction image generation step of generating a reproduction image that reproduces the subject indicated by the object color component data, and an output step of outputting the generated reproduction image so that the reproduction image can be viewed.

【0014】また、請求項9の発明は、プログラムであ
って、前記プログラムのコンピュータによる実行は、前
記コンピュータに、被写体の画像データを取得する画像
取得工程と、取得された前記画像データから、被写体へ
の照明環境の影響を取り除いた画像のデータに相当する
物体色成分データを求める物体色成分データ生成工程
と、前記物体色成分データの示す被写体を再現する再現
画像を生成する再現画像生成工程と、生成された前記再
現画像をネットワークに結合された外部装置に送信する
送信工程と、を実行させることを特徴とする。
According to a ninth aspect of the present invention, there is provided a program, wherein the program is executed by a computer, in which an image acquisition step of acquiring image data of the object in the computer, and the object from the acquired image data is acquired. Object color component data generation step for obtaining object color component data corresponding to image data from which the influence of the illumination environment on the object is removed, and a reproduction image generation step for generating a reproduction image for reproducing the subject indicated by the object color component data. And a transmitting step of transmitting the generated reproduction image to an external device connected to a network.

【0015】また、請求項10の発明は、プログラムで
あって、前記プログラムのコンピュータによる実行は、
前記コンピュータに、ネットワークに結合された外部装
置から、被写体への照明環境の影響を取り除いた画像の
データに相当する物体色成分データを受信する受信工程
と、前記物体色成分データの示す被写体を再現する再現
画像を生成する再現画像生成工程と、生成された前記再
現画像を閲覧可能に出力する出力工程と、を実行させる
ことを特徴とする。
Further, the invention of claim 10 is a program, and the computer executes the program,
A receiving step of receiving from the external device connected to the network, the object color component data corresponding to the image data obtained by removing the influence of the illumination environment on the object to the computer, and reproducing the object indicated by the object color component data. And a reproduction image generation step of generating a reproduction image and an output step of outputting the generated reproduction image so that the reproduction image can be browsed.

【0016】[0016]

【発明の実施の形態】以下、図面を参照しつつ本発明の
実施の形態について説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0017】<1.第1の実施の形態> <1−1.システム構成>図1は、本発明の第1の実施
の形態に係る画像再現システムの概略構成を示す図であ
る。図1に示すように画像再現システム10は主に、被
写体を撮影して画像を取得する画像入力装置となるデジ
タルカメラ1と、デジタルカメラ1から受信した画像を
印刷する画像出力装置となるプリンタ2とを備えてい
る。
<1. First Embodiment><1-1. System Configuration> FIG. 1 is a diagram showing a schematic configuration of an image reproduction system according to a first embodiment of the present invention. As shown in FIG. 1, the image reproduction system 10 mainly includes a digital camera 1 serving as an image input device that captures an image of a subject and an image output device that prints an image received from the digital camera 1. It has and.

【0018】デジタルカメラ1およびプリンタ2はそれ
ぞれデータ通信装置として機能し、LANやインターネ
ット等のネットワーク5を介して装置相互間で各種デー
タ通信を行うことが可能となっている。デジタルカメラ
1およびプリンタ2の通信方式は有線でも無線でもよい
が、本実施の形態では有線による通信方式が採用されて
いる。
The digital camera 1 and the printer 2 each function as a data communication device, and various data communication can be performed between the devices via a network 5 such as a LAN or the Internet. The communication system of the digital camera 1 and the printer 2 may be wired or wireless, but in the present embodiment, a wired communication system is adopted.

【0019】なお、図1においては複数のプリンタ2が
図示されているが、画像再現システム10は1台のプリ
ンタ2を備えるものであってもよく、また、図1におい
ては1台のデジタルカメラ1のみが図示されているが、
画像再現システム10は複数のデジタルカメラ1を備え
るものであってもよい。また、他のデータ通信装置がネ
ットワーク5に接続されていてもよい。
Although a plurality of printers 2 are shown in FIG. 1, the image reproduction system 10 may include one printer 2, and in FIG. 1, one digital camera is provided. Only one is shown,
The image reproduction system 10 may include a plurality of digital cameras 1. Further, another data communication device may be connected to the network 5.

【0020】画像再現システム10においてデータ通信
に使用する通信プロトコルはどのようなものであっても
よいが、使用される通信プロトコルに応じた固有のアド
レスがネットワーク5に接続される各データ通信装置に
割り当てられている。本実施の形態においては通信プロ
トコルとしてTCP/IPを使用しており、デジタルカ
メラ1およびプリンタ2にはそれぞれネットワーク5に
おいて一意となるIPアドレスが割り当てられている。
これにより、送信先となる任意のデータ通信装置を指定
して各種データを送信することが可能となっている。
Any communication protocol may be used for data communication in the image reproduction system 10, but each data communication device connected to the network 5 has a unique address corresponding to the communication protocol used. It is assigned. In this embodiment, TCP / IP is used as a communication protocol, and the digital camera 1 and the printer 2 are assigned unique IP addresses in the network 5.
As a result, various data can be transmitted by designating an arbitrary data communication device as a transmission destination.

【0021】本実施の形態においてデジタルカメラ1
は、撮影時の照明環境の影響を取り除いた画像のデータ
に相当する物体色成分データを求め、任意の照明環境下
における被写体の色を再現する画像(以下、「再現画
像」という。)を生成する。一方、プリンタ2は、デジ
タルカメラ1から再現画像を受信し、受信した再現画像
を記録シートに印刷するようになっている。
In the present embodiment, the digital camera 1
Is the object color component data corresponding to the data of the image in which the influence of the lighting environment at the time of shooting is removed, and generates an image (hereinafter referred to as a “reproduced image”) that reproduces the color of the subject under an arbitrary lighting environment. To do. On the other hand, the printer 2 receives the reproduced image from the digital camera 1 and prints the received reproduced image on a recording sheet.

【0022】<1−2.デジタルカメラの構成>図2は
デジタルカメラ1の全体を示す斜視図である。デジタル
カメラ1は、撮影を行うレンズユニット11、および、
レンズユニット11にてデジタルデータとして取得され
た画像を処理する本体部12とを有する。
<1-2. Configuration of Digital Camera> FIG. 2 is a perspective view showing the entire digital camera 1. The digital camera 1 includes a lens unit 11 that performs shooting, and
The lens unit 11 has a main body 12 that processes an image acquired as digital data.

【0023】レンズユニット11は、複数のレンズを有
するレンズ系111、および、レンズ系111を介して
被写体の像を取得するCCD112を有する。そして、
CCD112から出力される画像信号は本体部12へと
送られる。また、レンズユニット11には、操作者が被
写体を捉えるためのファインダ113、測距センサ11
4等も配置される。
The lens unit 11 has a lens system 111 having a plurality of lenses, and a CCD 112 for acquiring an image of a subject through the lens system 111. And
The image signal output from the CCD 112 is sent to the main body 12. Further, the lens unit 11 includes a finder 113 and a distance measuring sensor 11 for an operator to capture a subject.
4th grade is also placed.

【0024】本体部12には、フラッシュ121および
シャッタボタン122が設けられ、操作者がファインダ
113を介して被写体を捉え、シャッタボタン122を
操作することにより、CCD112にて電気的に画像が
取得される。このとき、必要に応じてフラッシュ121
が発光する。なお、CCD112は各画素の値として
R,G,Bの各色に関する値を取得する3バンドの撮像
デバイスとなっている。
The main body 12 is provided with a flash 121 and a shutter button 122. An operator captures an object through the finder 113 and operates the shutter button 122 to electrically capture an image with the CCD 112. It At this time, if necessary, the flash 121
Emits light. It should be noted that the CCD 112 is a three-band image pickup device that acquires values for each color of R, G, and B as the value of each pixel.

【0025】CCD112からの画像信号は本体部12
内部にて後述する処理が行われ、必要に応じて本体部1
2に装着されている外部メモリであるメモリカード12
3に記憶される。メモリカード123は本体部12下面
の蓋を開けて取出ボタン124を操作することにより本
体部12から取り出し可能である。
The image signal from the CCD 112 is the main body 12
The processing described below is performed inside the main body 1 as necessary.
Memory card 12 which is an external memory attached to
3 is stored. The memory card 123 can be taken out from the main body 12 by opening the lid on the lower surface of the main body 12 and operating the take-out button 124.

【0026】図3はデジタルカメラ1を背後から見たと
きの様子を示す図である。本体部12の背面の中央には
撮影された画像を表示したり、操作者へのメニューを表
示するカラー液晶のディスプレイ125が設けられ、デ
ィスプレイ125の側方にはディスプレイ125に表示
されるメニューに従って入力操作を行うための操作ボタ
ン126が配置される。これにより、デジタルカメラ1
の操作、撮影条件の設定、画像の送信設定、再現画像を
生成するための条件の設定等ができるようにされてい
る。
FIG. 3 is a diagram showing a state when the digital camera 1 is viewed from behind. A color liquid crystal display 125 is provided in the center of the back surface of the main body 12 for displaying a photographed image and a menu for the operator, and a display 125 is provided on the side of the display 125 according to the menu displayed on the display 125. An operation button 126 for performing an input operation is arranged. This allows the digital camera 1
The operation of, the setting of shooting conditions, the setting of image transmission, the setting of conditions for generating a reproduced image, and the like can be performed.

【0027】また、本体部12の内部には、ネットワー
ク5に接続するための通信インタフェース127aを備
えた通信部127が設けられている。通信部127は通
信インタフェース127aを介してネットワーク5に接
続されたプリンタ2などの外部装置との間で各種データ
の送受信が可能となっている。
A communication unit 127 having a communication interface 127a for connecting to the network 5 is provided inside the main body 12. The communication unit 127 can send and receive various data to and from an external device such as the printer 2 connected to the network 5 via the communication interface 127a.

【0028】図4は、デジタルカメラ1の主要な構成を
ブロック等にて示す図である。図4に示す構成のうち、
レンズ系111、CCD112、A/D変換部115、
シャッタボタン122、CPU131、ROM132お
よびRAM133は画像を取得する機能を実現する。す
なわち、レンズ系111により被写体の像がCCD11
2上に結像され、シャッタボタン122が押されると、
CCD112からの画像信号がA/D変換部115によ
りデジタル変換される。A/D変換部115にて変換さ
れたデジタル画像信号は本体部12のRAM133に画
像データとして記憶される。なお、これらの処理の制御
はCPU131がROM132内に記憶されているプロ
グラム140に従って動作することにより行われる。
FIG. 4 is a block diagram showing the main structure of the digital camera 1. Of the configurations shown in FIG. 4,
A lens system 111, a CCD 112, an A / D converter 115,
The shutter button 122, the CPU 131, the ROM 132, and the RAM 133 realize the function of acquiring an image. That is, the image of the subject is transferred to the CCD 11 by the lens system 111.
When the image is formed on the image 2 and the shutter button 122 is pressed,
The image signal from the CCD 112 is digitally converted by the A / D converter 115. The digital image signal converted by the A / D converter 115 is stored in the RAM 133 of the main body 12 as image data. The control of these processes is performed by the CPU 131 operating according to the program 140 stored in the ROM 132.

【0029】また、本体部12に設けられるCPU13
1、ROM132およびRAM133が画像を処理する
機能を実現する。具体的には、ROM132に記憶され
ているプログラム140に従って、RAM133を作業
領域として利用しながらCPU131が取得された画像
に画像処理を施す。画像処理が行われた画像は、操作ボ
タン126からの入力操作に基づいてメモリカード12
3へ記憶されるとともに、適宜、通信部127を介して
ネットワーク5に接続された外部装置に送信される。
The CPU 13 provided in the main body 12
1, ROM132 and RAM133 implement | achieve the function which processes an image. Specifically, according to the program 140 stored in the ROM 132, the CPU 131 performs image processing on the acquired image while using the RAM 133 as a work area. The image subjected to the image processing is displayed on the memory card 12 based on the input operation from the operation button 126.
3 and is appropriately transmitted to an external device connected to the network 5 via the communication unit 127.

【0030】プログラム140は、記録媒体であるメモ
リカード123から読み出されて予めROM132に記
憶されているが、通信部127を介してネットワーク5
に接続された所定の外部記憶装置からダウンロードされ
てROM132に記憶されるようになっていてもよい。
The program 140 is read from the memory card 123, which is a recording medium, and stored in the ROM 132 in advance, but the network 5 can be accessed via the communication unit 127.
May be downloaded from a predetermined external storage device connected to and stored in the ROM 132.

【0031】ディスプレイ125は、CPU131から
の信号に基づいて画像の表示や操作者への情報の表示を
切り替えながら行う。フラッシュ121は、CPU13
1から発光指示信号に基づいて発光を行う。発光する際
には、CPU131によりフラッシュ121の発光特性
が撮影ごとにばらつかないように制御される。これによ
り、フラッシュ121からの光の分光分布(分光強度)
が一定となるように制御される。
The display 125 switches between displaying an image and displaying information to the operator based on a signal from the CPU 131. The flash 121 is the CPU 13
The light is emitted from 1 based on the light emission instruction signal. When emitting light, the CPU 131 controls so that the emission characteristics of the flash 121 do not vary from one image to another. Thereby, the spectral distribution (spectral intensity) of the light from the flash 121
Is controlled to be constant.

【0032】<1−3.プリンタの構成>図5はプリン
タ2の全体を示す斜視図である。図5に示すようにプリ
ンタ2は主に、操作者の操作による各種の指示やデータ
の入力を受け付ける操作パネル21、および、記録シー
ト上に画像等を印刷する印刷部24を備えている。
<1-3. Configuration of Printer> FIG. 5 is a perspective view showing the entire printer 2. As shown in FIG. 5, the printer 2 mainly includes an operation panel 21 that receives various instructions and data input by an operator's operation, and a printing unit 24 that prints an image or the like on a recording sheet.

【0033】さらにプリンタ2は、本体上面に印刷部2
4が印刷した記録シートを排出する排出部26、下部に
は印刷部24に記録シートを供給する給紙部27、内部
にはネットワーク5を介して外部装置と画像等の送受信
を行う通信部25、各種データを記憶する固定ディスク
28、および、光磁気ディスク等の記録媒体92から情
報の読み取りを行う読取装置29を備えている。
Further, the printer 2 has a printing unit 2 on the upper surface of the main body.
4, a discharge unit 26 that discharges the recording sheet printed by 4, a paper feeding unit 27 that supplies the recording sheet to the printing unit 24 in the lower part, and a communication unit 25 that internally transmits / receives images and the like to / from an external device via the network 5. A fixed disk 28 for storing various data and a reading device 29 for reading information from a recording medium 92 such as a magneto-optical disk.

【0034】操作パネル21は、文字や数字などを入力
可能な入力キー23およびタッチパネルとしての機能を
有するカラー液晶のディスプレイ22によって構成され
ている。ディスプレイ22には操作者へのメニューが表
示され、操作者はその内容を確認しつつ、各種の指示や
データを入力キー23やタッチパネルとしてのディスプ
レイ22を介してプリンタ2に入力することが可能であ
る。
The operation panel 21 is composed of an input key 23 capable of inputting characters and numerals and a color liquid crystal display 22 having a function as a touch panel. A menu for the operator is displayed on the display 22, and the operator can input various instructions and data to the printer 2 through the input keys 23 and the display 22 as a touch panel while confirming the contents. is there.

【0035】印刷部24は、通信部25を介して外部機
器から受信した画像に基づいて、記録シート上に印刷す
る。また、固定ディスク28は通信部25を介して受信
した画像を記憶することができ、印刷部24は操作パネ
ル21からの指示に基づいて固定ディスク28に記憶さ
れた画像を読み出して印刷することも可能である。
The printing unit 24 prints on the recording sheet based on the image received from the external device via the communication unit 25. Further, the fixed disk 28 can store an image received via the communication section 25, and the printing section 24 can read out and print the image stored in the fixed disk 28 based on an instruction from the operation panel 21. It is possible.

【0036】通信部25は、図示を省略する通信インタ
フェースを備えており、この通信インタフェースを介し
てネットワーク5に接続されたデジタルカメラ1などの
外部装置との間で各種データの送受信が可能となってい
る。
The communication section 25 has a communication interface (not shown), and various data can be transmitted / received to / from an external device such as the digital camera 1 connected to the network 5 via this communication interface. ing.

【0037】図6は、プリンタ2の主要な構成をブロッ
クにて示す図である。図6に示すようにプリンタ2はそ
の内部に、各種演算処理を行うCPU231と、各種デ
ータを記憶し演算処理の作業領域となるRAM233
と、処理用のプログラムを記憶するROM232とを備
えている。CPU231にはプリンタ2の各部が電気的
に接続され、プリンタ2の各部はCPU231の制御の
下に動作することとなる。具体的には、CPU231が
ROM232内に記憶されているプログラム240に従
って演算処理を行うことによりプリンタ2の各部の動作
制御が行われる。
FIG. 6 is a block diagram showing the main configuration of the printer 2. As shown in FIG. 6, the printer 2 internally has a CPU 231 that performs various arithmetic processes, and a RAM 233 that stores various data and serves as a work area for the arithmetic processes.
And a ROM 232 that stores a processing program. Each unit of the printer 2 is electrically connected to the CPU 231, and each unit of the printer 2 operates under the control of the CPU 231. Specifically, the CPU 231 performs arithmetic processing according to the program 240 stored in the ROM 232, thereby controlling the operation of each unit of the printer 2.

【0038】例えば、画像を印刷する際にはCPU23
1から各部に制御信号が送信され、通信部25または固
定ディスク28から印刷対象の画像がRAM233に読
み出された後に、CPU231の処理により印刷可能な
データ形式に変換されて印刷部24により記録シート上
に印刷される。
For example, when printing an image, the CPU 23
1 transmits a control signal to each unit, the image to be printed is read from the communication unit 25 or the fixed disk 28 to the RAM 233, is converted into a printable data format by the processing of the CPU 231, and is printed by the printing unit 24 as a recording sheet. Printed on.

【0039】プログラム240は、読取装置29を介し
て記録媒体92から読み出されて予めROM232に記
憶されているが、通信部25を介してネットワーク5に
接続された所定の外部記憶装置からダウンロードされて
ROM232に記憶されるようになっていてもよい。
The program 240 is read from the recording medium 92 via the reading device 29 and stored in the ROM 232 in advance, but is downloaded from a predetermined external storage device connected to the network 5 via the communication section 25. It may be stored in the ROM 232.

【0040】なお、RAM233および固定ディスク2
8は各種データを記憶する機能を実現するものであるた
め、以下、これらを総称する場合は「記憶部」210と
称することとする。
The RAM 233 and the fixed disk 2
Since 8 implements the function of storing various data, hereinafter, these will be collectively referred to as a “storage unit” 210.

【0041】<1−4.システムの動作>図7は、デジ
タルカメラ1およびプリンタ2それぞれのプログラムに
従ってCPU等の演算処理により実現される機能を他の
構成とともにブロックにて示す図であり、画像再現シス
テム10の主たる機能を示している。
<1-4. System Operation> FIG. 7 is a block diagram showing the functions realized by the arithmetic processing of the CPU and the like in accordance with the programs of the digital camera 1 and the printer 2 together with other configurations, showing the main functions of the image reproduction system 10. ing.

【0042】図7に示す構成のうち、成分データ生成部
141、露出演算部142、再現条件受付部143、再
現画像生成部144、送信先受付部145およびデータ
送信部146が、デジタルカメラ1のCPU131等に
より実現される機能を示しており、また、データ受信部
241および印刷処理部242は、プリンタ2のCPU
231等により実現される機能を示している。
In the configuration shown in FIG. 7, the component data generation unit 141, the exposure calculation unit 142, the reproduction condition reception unit 143, the reproduction image generation unit 144, the transmission destination reception unit 145, and the data transmission unit 146 are included in the digital camera 1. The functions realized by the CPU 131 and the like are shown, and the data receiving unit 241 and the print processing unit 242 are the CPU of the printer 2.
231 and the like are shown.

【0043】図8は、画像再現システム10の動作の流
れを示す図である。図8において符号S1で示すステッ
プはデジタルカメラ1における動作を示しており、符号
S2で示すステップはプリンタ2における動作を示して
いる。以下、図7および図8を参照しながら、画像再現
システム10の動作について説明する。
FIG. 8 is a diagram showing a flow of operations of the image reproduction system 10. In FIG. 8, the step indicated by reference numeral S1 indicates the operation in the digital camera 1, and the step indicated by the reference numeral S2 indicates the operation in the printer 2. Hereinafter, the operation of the image reproduction system 10 will be described with reference to FIGS. 7 and 8.

【0044】まず、デジタルカメラ1において撮影が行
われ被写体の画像が取得され、取得された画像に基づい
て物体色成分データ等が求められる(ステップST1
1)。図9はデジタルカメラ1の撮影時の動作(ステッ
プST11)の流れを示す図である。
First, the digital camera 1 captures an image of a subject and obtains object color component data and the like based on the obtained image (step ST1).
1). FIG. 9 is a diagram showing a flow of the operation (step ST11) at the time of shooting by the digital camera 1.

【0045】シャッタボタン122が操作されると、フ
ラッシュがONの状態にて撮影が行われ、フラッシュ光
を浴びた被写体の画像(以下、「第1画像」という。)
が取得される。すなわち、フラッシュ121を点灯する
とともにCCD112にて画像を取得し、得られた画像
(正確には、画像信号)がA/D変換部115からRA
M133へと送られ、第1画像データ231として記憶
される(ステップST101)。
When the shutter button 122 is operated, a picture is taken with the flash turned on, and an image of the subject exposed to the flash light (hereinafter referred to as "first image").
Is obtained. That is, the flash 121 is turned on, an image is acquired by the CCD 112, and the obtained image (to be exact, an image signal) is output from the A / D converter 115 to RA.
It is sent to M133 and stored as the first image data 231 (step ST101).

【0046】次に、フラッシュがOFFの状態にて撮影
を行い、フラッシュ光を有しない照明環境下での被写体
の画像(以下、「第2画像」という。)を得る。すなわ
ち、フラッシュを用いることなくCCD112にて画像
を取得し、得られた画像がA/D変換部115からRA
M133へと送られ、第2画像データ232として記憶
される(ステップST102)。
Next, shooting is performed with the flash off, and an image of the subject (hereinafter referred to as "second image") in an illumination environment without flash light is obtained. That is, an image is acquired by the CCD 112 without using a flash, and the obtained image is output from the A / D converter 115 to RA.
It is sent to M133 and stored as the second image data 232 (step ST102).

【0047】これらの2回の撮影は、連写のように迅速
に行われる。したがって、第1画像と第2画像との撮影
範囲は同一となる。また、2回の撮影はシャッター速度
(CCD112の積分時間)および絞り値(すなわち、
露出に関する撮影条件)が同一の条件にて行われる。
These two photographings are performed quickly like continuous photographing. Therefore, the shooting ranges of the first image and the second image are the same. In addition, the shutter speed (the integration time of the CCD 112) and the aperture value (that is,
Shooting conditions regarding exposure) are performed under the same conditions.

【0048】露出条件は、撮影直前にCCD112にて
取得された画像(または、測光センサの出力)に基づい
て露出演算部142により求められる。具体的には、ま
ず、CCD112や測光センサの出力に基づいて被写体
の明るさを求め、CCD112の感度特性を考慮して露
出値が決定される。その後、デジタルカメラ1内に予め
準備されているシャッター速度と絞り値との関係を示す
プログラム線図に従ってシャッター速度および絞り値が
自動的に決定される。
The exposure condition is obtained by the exposure calculation section 142 based on the image (or the output of the photometric sensor) acquired by the CCD 112 immediately before the photographing. Specifically, first, the brightness of the subject is obtained based on the outputs of the CCD 112 and the photometric sensor, and the exposure value is determined in consideration of the sensitivity characteristic of the CCD 112. After that, the shutter speed and the aperture value are automatically determined according to a program diagram showing the relationship between the shutter speed and the aperture value prepared in advance in the digital camera 1.

【0049】フラッシュ121の発光はCPU131に
より制御されるため、フラッシュ121の発光特性が撮
影ごとにばらつくことはない。つまり、フラッシュ12
1の分光分布が一定に保たれるようになっており、この
分光分布は予め計測されてRAM133にフラッシュ分
光データとして記憶されている。なお、正確にはフラッ
シュ光の相対的な分光分布(最大の分光強度を1として
正規化された分光分布をいい、以下「相対分光分布」と
いう。)がフラッシュ分光データとして用いられる。
Since the light emission of the flash 121 is controlled by the CPU 131, the light emission characteristics of the flash 121 do not vary from picture to picture. That is, flash 12
The spectral distribution of No. 1 is kept constant, and this spectral distribution is measured in advance and stored in the RAM 133 as flash spectral data. To be precise, the relative spectral distribution of flash light (referred to as the spectral distribution normalized with the maximum spectral intensity as 1, hereinafter referred to as “relative spectral distribution”) is used as the flash spectral data.

【0050】2回の撮影により、RAM133に第1画
像データ61および第2画像データ62が保存される
と、成分データ生成部141が第1画像データ61から
第2画像データ62を減算して差分画像データを求め
る。これにより、第1画像の各画素のR,G,Bの各値
から第2画像の対応する画素のR,G,Bの各値がそれ
ぞれ減算され、第1画像と第2画像との差分画像が得ら
れる(ステップST103)。
When the first image data 61 and the second image data 62 are stored in the RAM 133 by two times of photographing, the component data generation unit 141 subtracts the second image data 62 from the first image data 61 to obtain the difference. Obtain image data. Thereby, the R, G, B values of the corresponding pixels of the second image are subtracted from the R, G, B values of the pixels of the first image, respectively, and the difference between the first image and the second image is subtracted. An image is obtained (step ST103).

【0051】次に、成分データ生成部141により差分
画像データおよびフラッシュ分光データを用いて第2画
像から照明環境の影響を取り除いた成分が物体色成分デ
ータ63として求められ、RAM133に保存される
(ステップST104)。物体色成分データ63は、被
写体の分光反射率に実質的に相当するデータである。以
下、被写体の分光反射率を求める原理について説明す
る。
Next, the component data generation unit 141 obtains a component obtained by removing the influence of the illumination environment from the second image using the difference image data and the flash spectral data as object color component data 63, and stores it in the RAM 133 ( Step ST104). The object color component data 63 is data that substantially corresponds to the spectral reflectance of the subject. The principle of obtaining the spectral reflectance of the subject will be described below.

【0052】まず、被写体を照明する照明光(光源から
の直接的な光および間接的な光を含む照明環境における
照明光いう。)の分光分布をE(λ)とし、この分光分布
E(λ)を3つの基底関数E1(λ),E2(λ),E3(λ)お
よび加重係数ε1,ε2,ε3を用いて、
First, the spectral distribution of illumination light for illuminating a subject (which is referred to as illumination light in an illumination environment including direct light and indirect light from a light source) is E (λ), and this spectral distribution E (λ ) Using three basis functions E 1 (λ), E 2 (λ), E 3 (λ) and weighting factors ε 1 , ε 2 , ε 3 ,

【0053】[0053]

【数1】 [Equation 1]

【0054】と表し、同様に、ある画素(以下、「対象
画素」という。)に対応する被写体上の位置の分光反射
率をS(λ)を3つの基底関数S1(λ),S2(λ),S
3(λ)および加重係数σ1,σ2,σ3を用いて、
Similarly, the spectral reflectance S (λ) at a position on the subject corresponding to a certain pixel (hereinafter referred to as “target pixel”) is expressed by three basis functions S 1 (λ) and S 2 (λ), S
Using 3 (λ) and the weighting factors σ 1 , σ 2 , and σ 3 ,

【0055】[0055]

【数2】 [Equation 2]

【0056】と表すと、CCD112上の対象画素に入
射する光I(λ)(レンズユニット11内のフィルタ等を
無視した場合の入射光)は、
The light I (λ) incident on the target pixel on the CCD 112 (incident light when the filter in the lens unit 11 is ignored) is expressed as follows.

【0057】[0057]

【数3】 [Equation 3]

【0058】と表現される。また、対象画素のR,G,
Bのいずれかの色(以下、「対象色」という。)に関す
る値がρcであり、CCD112の対象色の分光感度を
c(λ)とすると、値ρcは、
It is expressed as In addition, R, G, and
Assuming that the value relating to one of the colors of B (hereinafter referred to as “target color”) is ρ c and the spectral sensitivity of the target color of the CCD 112 is R c (λ), the value ρ c is

【0059】[0059]

【数4】 [Equation 4]

【0060】により導かれる。Is derived by

【0061】ここで、フラッシュONの第1画像の対象
画素の対象色の値がρc1であり、フラッシュOFFの第
2画像の対応する値がρc2である場合、差分画像の対応
する値ρsは、
Here, when the value of the target color of the target pixel of the first image with flash ON is ρ c1 and the corresponding value of the second image with flash OFF is ρ c2 , the corresponding value ρ of the difference image s is

【0062】[0062]

【数5】 [Equation 5]

【0063】となる。I1(λ)はフラッシュONの際の
対象画素に入射する光であり、ε11,ε12,ε13はフラ
ッシュ光を含む照明光に関する基底関数の加重係数であ
る。同様に、I2(λ)はフラッシュOFFの際の対象画
素に入射する光であり、ε21,ε22,ε23はフラッシュ
光を含まない照明光に関する基底関数の加重係数であ
る。さらに、εsi(i=1,2,3)は(ε1i−ε2i
である。
It becomes I 1 (λ) is the light incident on the target pixel when the flash is ON, and ε 11 , ε 12 , and ε 13 are the weighting coefficients of the basis function for the illumination light including the flash light. Similarly, I 2 (λ) is the light that is incident on the target pixel when the flash is off, and ε 21 , ε 22 , and ε 23 are the basis function weighting coefficients for the illumination light that does not include the flash light. Furthermore, ε si (i = 1, 2, 3) is (ε 1i −ε 2i ).
Is.

【0064】数5において、基底関数Ei(λ),Sj(λ)
は予め定められた関数であり、分光感度Rc(λ)は予め
計測により求めることができる関数である。これらの情
報は予めROM132やRAM133に記憶される。一
方、2回の撮影においてシャッター速度(あるいは、C
CD112の積分時間)および絞り値が同一に制御さ
れ、第1画像から第2画像を減算した差分画像は、照明
環境の変更のみの影響を受けた画像、すなわち、フラッ
シュ光のみを照明光源とする画像に相当することから、
加重係数εsiは後述する手法によりフラッシュ光の相対
分光分布より導くことができる。
In equation 5, the basis functions E i (λ) and S j (λ)
Is a predetermined function, and the spectral sensitivity R c (λ) is a function that can be obtained in advance by measurement. These pieces of information are stored in the ROM 132 or the RAM 133 in advance. On the other hand, the shutter speed (or C
The difference image obtained by subtracting the second image from the first image, in which the integration time of CD 112) and the aperture value are controlled to be the same, that is, the image affected only by the change in the illumination environment, that is, only the flash light is used as the illumination light source. Since it corresponds to the image,
The weighting coefficient ε si can be derived from the relative spectral distribution of the flash light by the method described later.

【0065】したがって、数5に示す方程式において未
知数は3つの加重係数σ1,σ2,σ 3のみである。ま
た、数5に示す方程式は対象画素におけるR,G,Bの
3つの色のそれぞれに関して求めることができ、これら
3つの方程式を解くことにより3つの加重係数σ1
σ2,σ3を求めることができる。すなわち、対象画素に
対応する被写体上の位置の分光反射率が得られる。
Therefore, in the equation shown in Equation 5,
There are three weighting factors σ1, Σ2, Σ 3Only. Well
In addition, the equation shown in Equation 5 is for R, G, and B in the target pixel.
Can be determined for each of the three colors, these
By solving the three equations, the three weighting factors σ1
σ2, Σ3Can be asked. That is, for the target pixel
The spectral reflectance of the corresponding position on the subject is obtained.

【0066】次に、加重係数εsiを求める手法について
説明する。既述のように差分画像はフラッシュ光のみを
照明光とする画像に相当し、差分画像における照明光の
相対分光分布は既知である。一方で、フラッシュから遠
い被写体上の領域はフラッシュ121に近い領域よりも
フラッシュ光を受ける度合いが小さい。したがって、差
分画像ではおおよそフラッシュ121から遠い位置ほど
暗く現れる。
Next, a method for obtaining the weighting coefficient ε si will be described. As described above, the difference image corresponds to an image in which only the flash light is used as the illumination light, and the relative spectral distribution of the illumination light in the difference image is known. On the other hand, the area on the subject far from the flash receives the flash light less than the area near the flash 121. Therefore, in the difference image, the position farther from the flash 121 appears darker.

【0067】そこで、3つの加重係数εs1,εs2,εs3
の値の相対関係を一定に保ったまま差分画像中の対象画
素の輝度に比例してこれらの加重係数の値を増減する。
すなわち、差分画像中の対象画素の輝度が小さい場合に
は加重係数εs1,εs2,εs3の値は小さな値として決定
され、輝度が大きい場合には加重係数εs1,εs2,ε s3
の値は大きな値として決定される。なお、3つの加重係
数εs1,εs2,εs3の相対関係は3つの基底関数E
1(λ),E2(λ),E3(λ)の加重和がフラッシュ光の分
光分布と比例するように予め求められており、輝度と加
重係数εsiとの比例関係は予め測定により求められる。
Therefore, the three weighting factors εs1, Εs2, Εs3
The target image in the difference image while keeping the relative relationship of
The value of these weighting factors is increased or decreased in proportion to the brightness of the element.
That is, when the brightness of the target pixel in the difference image is small
Is the weighting coefficient εs1, Εs2, Εs3Value is determined as a small value
If the brightness is large, the weighting coefficient εs1, Εs2, Ε s3
The value of is determined as a large value. It should be noted that the three weights
Number εs1, Εs2, Εs3Is based on three basis functions E
1(λ), E2(λ), E3The weighted sum of (λ) is the flash light
Pre-determined to be proportional to the light distribution, it
Weighting coefficient εsiThe proportional relationship with and is previously obtained by measurement.

【0068】加重係数εsiは対象画素に対応する被写体
上の位置に照射されるフラッシュ光の分光分布を示す値
であり、第1画像および第2画像間におけるフラッシュ
121による照明光の変更量の分光分布を示す値であ
る。したがって、フラッシュ分光データより加重係数ε
siを求める処理は、フラッシュ光の相対分光分布からフ
ラッシュ121による照明環境(照明光)の分光変更量
を求める処理に相当する。
The weighting coefficient ε si is a value indicating the spectral distribution of the flash light emitted to the position on the subject corresponding to the target pixel, and is the amount of change of the illumination light by the flash 121 between the first image and the second image. It is a value indicating the spectral distribution. Therefore, the weighting factor ε
The process of obtaining si corresponds to the process of obtaining the spectral change amount of the illumination environment (illumination light) by the flash 121 from the relative spectral distribution of the flash light.

【0069】以上の原理に基づき、デジタルカメラ1の
成分データ生成部141は差分画像データの画素値およ
びフラッシュ分光データを参照しながら、各画素に対応
する被写体上の位置の分光反射率を求める。被写体の分
光反射率は、照明環境の影響が取り除かれた画像データ
に相当し、物体色成分データ63としてRAM133に
記憶される(ステップST104)。
Based on the above principle, the component data generator 141 of the digital camera 1 obtains the spectral reflectance of the position on the object corresponding to each pixel while referring to the pixel value of the difference image data and the flash spectral data. The spectral reflectance of the subject corresponds to the image data from which the influence of the illumination environment has been removed, and is stored in the RAM 133 as the object color component data 63 (step ST104).

【0070】物体色成分データ63が求められると、数
3および数4より第2画像の各画素のR,G,Bの値に
基づいて加重係数ε21,ε22,ε23に関する3つの方程
式を求めることができる。成分データ生成部141で
は、これらの方程式を解くことにより第2画像における
各画素に関する加重係数ε2iが求められる。求められた
各画素の加重係数ε2iは第2画像におけるフラッシュ光
を含まない照明環境の影響を示す成分となる。
When the object color component data 63 is obtained, three equations relating to the weighting factors ε 21 , ε 22 and ε 23 are obtained based on the values of R, G and B of each pixel of the second image from the equations 3 and 4. Can be asked. The component data generation unit 141 obtains the weighting coefficient ε 2i for each pixel in the second image by solving these equations. The obtained weighting coefficient ε 2i of each pixel is a component indicating the influence of the illumination environment that does not include the flash light in the second image.

【0071】ここで、各画素の加重係数ε2iはそのまま
照明成分データ64とされてもよいが、およそ均一な照
明光の照明環境である場合には画素ごとの加重係数ε2i
のばらつきは少ない。そこで、加重係数ε21,ε22,ε
23のそれぞれについて全画素の平均値を求め、求められ
た3つの加重係数が照明成分データ64とされる(ステ
ップST105)。これにより、照明成分データ64は
画素の位置に依存しない値となる。
Here, the weighting coefficient ε 2i of each pixel may be used as the illumination component data 64 as it is, but in the case of an approximately uniform illumination environment of the illumination light, the weighting coefficient ε 2i of each pixel is used.
Variation is small. Therefore, the weighting factors ε 21 , ε 22 , ε
The average value of all pixels is obtained for each of the 23 , and the obtained three weighting factors are the illumination component data 64 (step ST105). As a result, the illumination component data 64 has a value that does not depend on the pixel position.

【0072】物体色成分データ63および照明成分デー
タ64が求められると、これらのデータはメモリカード
123へと転送されて保存される(ステップST10
6)。このとき、CPU131の制御の下、露出演算部
142から露出に関する撮影条件を示す露出データもメ
モリカード123へと転送されて保存される。これによ
り、図10に示すように物体色成分データ63、照明成
分データ64および露出データ65は、1つのファイル
66として保存される(ステップST106)。これら
のデータは同一のファイル66として保存されている
が、それぞれ独立して取り出し可能な状態とされる。
When the object color component data 63 and the illumination component data 64 are obtained, these data are transferred to and stored in the memory card 123 (step ST10).
6). At this time, under the control of the CPU 131, the exposure data indicating the shooting conditions regarding the exposure is also transferred from the exposure calculation unit 142 to the memory card 123 and stored therein. As a result, as shown in FIG. 10, the object color component data 63, the illumination component data 64, and the exposure data 65 are stored as one file 66 (step ST106). Although these data are stored as the same file 66, they can be taken out independently.

【0073】なお、露出に関する撮影条件としては露出
値決定の際に用いられた被写体の明るさが保存されるこ
とが好ましいが、撮影時の被写体の明るさを求めること
ができるデータであれば他の撮影条件が利用されてもよ
い。例えば、CCD112の感度と被写体の明るさとか
ら露出値が求めることができるため、CCD112の感
度が既知である場合には、露出値が露出データ65とし
て利用されてもよい。露出値に代えてシャッター速度お
よび絞り値が露出データ65とされてもよい。また、C
CD112の感度および露出値が露出データ65とされ
てもよい。
It is preferable that the brightness of the subject used when the exposure value is determined is stored as the shooting condition for exposure, but other data can be used if the brightness of the subject at the time of shooting can be obtained. The shooting conditions of may be used. For example, since the exposure value can be obtained from the sensitivity of the CCD 112 and the brightness of the subject, the exposure value may be used as the exposure data 65 when the sensitivity of the CCD 112 is known. Instead of the exposure value, the shutter speed and the aperture value may be the exposure data 65. Also, C
The sensitivity and exposure value of the CD 112 may be the exposure data 65.

【0074】上記のようにして物体色成分データ63等
が保存されると、取得された物体色成分データ63に基
づいて、被写体の再現画像を生成する処理がデジタルカ
メラ1により行われる(図8:ステップST12)。こ
の再現画像を生成する処理は、操作者からの再現画像の
生成の指示を受け付けることにより行われる。このた
め、操作者は撮影(ステップST11)を繰り返して複
数の物体色成分データ63を保存してから、デジタルカ
メラ1に再現画像の生成を行わせることも可能である。
When the object color component data 63 and the like are stored as described above, the digital camera 1 performs a process of generating a reproduced image of the subject based on the acquired object color component data 63 (FIG. 8). : Step ST12). The process of generating the reproduced image is performed by receiving an instruction to generate the reproduced image from the operator. Therefore, the operator can repeat the photographing (step ST11) to store the plurality of object color component data 63, and then cause the digital camera 1 to generate the reproduced image.

【0075】図11は、再現画像を生成する処理の流れ
を示す図である。まず、操作者がディスプレイ125の
表示を見ながら操作ボタン126を介して指示を行うこ
とにより、所望の物体色成分データ63を格納するファ
イル66を選択する。これにより、色を再現する対象物
体である撮影時の被写体が決定され、選択された物体色
成分データ63は再現条件受付部143によりRAM1
33に読み出される(ステップST201)。
FIG. 11 is a diagram showing the flow of processing for generating a reproduced image. First, the operator selects a file 66 for storing the desired object color component data 63 by giving an instruction via the operation button 126 while watching the display on the display 125. As a result, the subject at the time of shooting, which is the target object for color reproduction, is determined, and the selected object color component data 63 is stored in the RAM 1 by the reproduction condition receiving unit 143.
It is read by 33 (step ST201).

【0076】続いて、選択された物体色成分データ63
の示す被写体の再現画像を生成するための条件(以下、
「再現条件」という。)を再現条件受付部143が受け
付ける。具体的には、まず、再現画像を生成するために
用いられる照明(すなわち照明成分データ64)の一覧
がディスプレイ125に表示される。図12は、照明を
選択する際のディスプレイ125の画面を例示する図で
ある。操作ボタン126の左右のボタンの操作により、
「選択番号」「OK」「Cancel」の項目が仮選択され、
「選択番号」の項目では上下のボタンにより番号が選択
される。他の項目では中央のボタンにより選択が確定さ
れる。
Subsequently, the selected object color component data 63
Conditions for generating a reproduced image of the subject shown by
It is called "reproduction condition". ) Is received by the reproduction condition receiving unit 143. Specifically, first, a list of lights (that is, the illumination component data 64) used to generate the reproduced image is displayed on the display 125. FIG. 12: is a figure which illustrates the screen of the display 125 at the time of selecting lighting. By operating the left and right buttons of the operation button 126,
"Selection number""OK""Cancel" items are temporarily selected,
In the item of "selection number", the number is selected by the up and down buttons. For other items, the selection is confirmed by the center button.

【0077】図12においては、「撮影時の照明」とと
もに予めデジタルカメラ1で準備されている「CIE
D65光源」(一般的な標準光源)、「CIE D50
光源」(印刷関連の標準光源)、「白熱灯」、「太陽
光」等の種々の照明が選択可能とされている。操作者
は、図12の画面の一覧を見ながら、いずれかの所望の
照明を操作ボタン126を介して選択指示する。この選
択指示は再現条件受付部143により受け付けられ、選
択された照明に対応する照明成分データ64が再現画像
の生成に利用する照明成分データとして決定され、RA
M133に読み出される(ステップST202)。
In FIG. 12, "CIE" prepared in advance in the digital camera 1 together with "illumination at the time of photographing" are shown.
D65 light source "(general standard light source)," CIE D50
Various types of illumination such as "light source" (standard light source related to printing), "incandescent lamp", "sunlight" can be selected. The operator selects and instructs any desired illumination through the operation button 126 while looking at the list on the screen of FIG. This selection instruction is accepted by the reproduction condition accepting unit 143, the illumination component data 64 corresponding to the selected illumination is determined as the illumination component data to be used for generating the reproduced image, and RA
The data is read by M133 (step ST202).

【0078】「撮影時の照明」が選択された場合は、物
体色成分データ63と同一のファイル66から照明成分
データ64がRAM133に読み出され、後述する処理
によって撮影時の照明下における被写体の色を再現する
画像が生成される。一方、他の照明が選択された場合
は、ROM132などに予め記憶されている照明成分デ
ータ64がRAM133に読み出され、後述する処理に
よって選択された照明環境下における被写体の色を再現
する画像が生成される。このように種々の照明を選択し
て指定できることから、任意の照明環境下における被写
体の色を再現することができ、特に「CIE D65光
源」等の標準光源を選択した場合は、測色的な意味合い
を保持することとなり、被写体の本来の色を再現するこ
とができることとなる。
When "illumination at the time of shooting" is selected, the illumination component data 64 is read from the same file 66 as the object color component data 63 into the RAM 133, and the subject under the illumination at the time of shooting is subjected to the processing described later. An image is produced that reproduces the colors. On the other hand, when another illumination is selected, the illumination component data 64 stored in advance in the ROM 132 or the like is read into the RAM 133, and an image that reproduces the color of the subject under the illumination environment selected by the processing described later is displayed. Is generated. Since it is possible to select and specify various types of illumination in this way, it is possible to reproduce the color of an object under an arbitrary illumination environment, and especially when a standard light source such as "CIE D65 light source" is selected, The meaning is retained, and the original color of the subject can be reproduced.

【0079】なお、図12の画面においては、他の画像
が撮影された際に得られた照明成分データ64を選択で
きるようになっていてもよく、これによれば、他の画像
が撮影された際の照明環境下での被写体の色を再現する
ことができる。また、仮想的な光源を準備しておき、こ
れらを選択できるようになっていてもよい。
In the screen of FIG. 12, the illumination component data 64 obtained when another image is taken may be selectable. According to this, another image is taken. It is possible to reproduce the color of the subject in the lighting environment when it is exposed. Alternatively, virtual light sources may be prepared so that they can be selected.

【0080】次に、色順応式を選択する画面がディスプ
レイ125に表示される。図13は、色順応式を選択す
る際のディスプレイ125の画面を例示する図である。
図13においては、「CIECAT94LAB」および
「CIECAM97s」のいずれかのカラーアピアラン
スモデルによる色順応式を選択可能とされている。
Next, a screen for selecting the color adaptation type is displayed on the display 125. FIG. 13 is a diagram exemplifying a screen of the display 125 when selecting the chromatic adaptation method.
In FIG. 13, it is possible to select a color adaptation formula based on a color appearance model of either "CIECAT94LAB" or "CIECAM97s".

【0081】本実施の形態においては、再現画像を生成
する際に、人間の色順応を考慮した色の変換を施すよう
になっている。このため、図13の画面を表示して、色
順応に基づく色の変換に適用する任意の色順応式を操作
者に選択させる。操作者からの操作ボタン126を介し
ての選択指示は、再現条件受付部143により受け付け
られ、選択されたカラーアピアランスモデルによる色順
応式が色順応に基づく色の変換に適用する色順応式とし
て決定される(ステップST203)。
In this embodiment, when a reproduced image is generated, color conversion is performed in consideration of human chromatic adaptation. Therefore, the screen of FIG. 13 is displayed to allow the operator to select an arbitrary chromatic adaptation formula to be applied to color conversion based on chromatic adaptation. A selection instruction from the operator via the operation button 126 is received by the reproduction condition receiving unit 143, and the color adaptation formula based on the selected color appearance model is determined as the color adaptation formula to be applied to the color conversion based on the color adaptation. (Step ST203).

【0082】さらに、色順応に基づく色変換において使
用する順応係数を選択する画面がディスプレイ125に
表示される。図14は、順応係数を選択する際のディス
プレイ125の画面を例示する図である。図14におい
ては、「1.0」「0.5」「0.0」のうちいずれか
の色順応係数を選択可能とされている。
Furthermore, a screen for selecting an adaptation coefficient used in color conversion based on chromatic adaptation is displayed on the display 125. FIG. 14: is a figure which illustrates the screen of the display 125 when selecting an adaptation coefficient. In FIG. 14, any one of “1.0”, “0.5”, and “0.0” can be selected as the chromatic adaptation coefficient.

【0083】この順応係数は、色順応に基づく色変換に
おいて色順応式に代入されて使用され、照明成分データ
64が示す照明の影響の度合いを調整する係数となる。
通常は、被写体が発光しない物体であれば「1.0」、
被写体自体が発光するディスプレイ等であれば「0.
0」、被写体がカラースライドのように光が投影される
スクリーンの場合には「0.5」をそれぞれ設定する。
また、順応係数は、操作者の意向を反映する係数として
利用することも可能であり、順応係数を操作者が指定す
ることにより、照明光の影響の度合いを変更して好みの
色を再現することができる。操作者からの操作ボタン1
26を介しての選択指示は、再現条件受付部143によ
り受け付けられ、選択された順応係数が色順応式に代入
する順応係数として決定される(ステップST20
4)。なお、図14において順応係数は、「1.0」
「0.5」「0.0」のいずれかから選択されるように
なっているが、具体的な数値が入力されるようになって
いてもよい。
This adaptation coefficient is used by substituting it into the chromatic adaptation formula in the color conversion based on chromatic adaptation, and is a coefficient for adjusting the degree of the influence of illumination indicated by the illumination component data 64.
Normally, "1.0" if the subject is an object that does not emit light,
If the subject itself is a display that emits light, etc., “0.
0 "is set, and when the subject is a screen on which light is projected like a color slide," 0.5 "is set.
The adaptation coefficient can also be used as a coefficient that reflects the intention of the operator. By specifying the adaptation coefficient by the operator, the degree of influence of illumination light is changed to reproduce a desired color. be able to. Operation button 1 from the operator
The selection instruction via 26 is accepted by the reproduction condition accepting unit 143, and the selected adaptation coefficient is determined as the adaptation coefficient to be substituted into the chromatic adaptation formula (step ST20).
4). The adaptation coefficient in FIG. 14 is “1.0”.
The value is selected from "0.5" and "0.0", but a specific numerical value may be input.

【0084】このようにして、再現条件として照明成分
データ64、色順応式および順応係数の指定を受け付け
ると、色順応式および順応係数が再現画像生成部144
に入力される。その後、再現画像生成部144が選択さ
れた物体色成分データ63および照明成分データ64を
合成する処理を行う。具体的には、物体色成分データ6
3および照明成分データ64を数3および数4の加重係
数εi,σjとして用いることによりこれらのデータが合
成されて、各画素のR,G,Bの値ρr,ρg,ρbが合
成済画像データとして求められる(ステップST20
5)。
In this way, when the designation of the illumination component data 64, the chromatic adaptation formula and the adaptation coefficient is received as the reproduction condition, the chromatic adaptation formula and the adaptation coefficient are reproduced.
Entered in. After that, the reproduction image generation unit 144 performs a process of combining the selected object color component data 63 and the illumination component data 64. Specifically, the object color component data 6
3 and the illumination component data 64 are used as the weighting coefficients ε i and σ j of Equations 3 and 4, and these data are combined to obtain the R, G, B values ρ r , ρ g , ρ b of each pixel. Is obtained as combined image data (step ST20).
5).

【0085】次に、再現画像生成部144は、照明成分
データ64が示す照明環境(照明光)の三刺激値X0
0,Z0を数6に示す演算により求め、数7により照明
光の色度x0,y0を得る(ステップST206)。
Next, the reproduced image generator 144 causes the tristimulus value X 0 of the illumination environment (illumination light) indicated by the illumination component data 64 to be obtained.
Y 0 and Z 0 are obtained by the calculation shown in Formula 6, and the chromaticity x 0 and y 0 of the illumination light are obtained from Formula 7 (step ST206).

【0086】[0086]

【数6】 [Equation 6]

【0087】[0087]

【数7】 [Equation 7]

【0088】なお、数6においてRX(λ),RY(λ),R
Z(λ)は等色関数、E(λ)は照明成分データ64から数
1により導かれる照明光の分光分布、λは可視領域の波
長である。
In the equation 6, R X (λ), R Y (λ), R
Z (λ) is a color matching function, E (λ) is a spectral distribution of illumination light derived from the illumination component data 64 by the equation 1, and λ is a wavelength in the visible region.

【0089】再現画像生成部144には、さらに物体色
成分データ63とともにメモリカード123に保存され
ている露出データ65が入力される(ステップST20
7)。
Exposure data 65 stored in the memory card 123 together with the object color component data 63 is also input to the reproduction image generating section 144 (step ST20).
7).

【0090】その後、選択された色順応式を適用し、色
度x0,y0および露出データ65を用いて合成済画像デ
ータに色順応に基づく色の変換が再現画像生成部144
により施される。これにより、色順応に基づく色の変換
が行われた変換済画像データが、被写体の色を再現する
再現画像として得られる(ステップST208)。
Thereafter, the selected chromatic adaptation formula is applied, and color conversion based on chromatic adaptation is performed on the combined image data using the chromaticity x 0 , y 0 and the exposure data 65 to reproduce the image.
Given by. As a result, the converted image data obtained by the color conversion based on the color adaptation is obtained as a reproduced image that reproduces the color of the subject (step ST208).

【0091】ここで、再現画像生成部144による合成
済画像データの色変換について説明する。なお、以下で
は、CIECAT94LABによる色順応式が選択され
たものとして説明する(詳細については、Yoshinobu Na
yatani et al., "Proposal of an Abridged Color-Appe
arance Model CIECAT94LAB and Its Field Trials",COL
OR reserch and application, vol. 24, No. 6, Dec. 1
999を参照。)。
Here, the color conversion of the combined image data by the reproduction image generating section 144 will be described. In the following description, it is assumed that the CIECAT94LAB chromatic adaptation formula is selected (for details, see Yoshinobu Na
yatani et al., "Proposal of an Abridged Color-Appe
arance Model CIECAT94LAB and Its Field Trials ", COL
OR reserch and application, vol. 24, No. 6, Dec. 1
See 999. ).

【0092】まず、合成済画像の各画素の画素値が行列
式を用いてCIE規格の表色系の三刺激値X,Y,Zに
変換され、さらに、数8により各画素の三刺激値X,
Y,Zが生理原色系の三刺激値R,G,Bに変換され
る。
First, the pixel value of each pixel of the combined image is converted into the tristimulus values X, Y, Z of the CIE standard color system using the determinant, and the tristimulus value of each pixel is calculated by the equation (8). X,
Y and Z are converted into tristimulus values R, G and B of the physiological primary color system.

【0093】[0093]

【数8】 [Equation 8]

【0094】次に、数9により変換後の三刺激値RR
R,BRが求められる。なお、数9の各種パラメータに
ついては後述する。
Next, the tristimulus value R R ,
G R and B R are required. The various parameters of Equation 9 will be described later.

【0095】[0095]

【数9】 [Equation 9]

【0096】最後に、数10により変換後の三刺激値R
R,GR,BRが三刺激値XR,YR,ZRに戻され、変換済
画像データすなわち再現画像が生成される(ステップS
T208)。
Finally, the tristimulus value R after conversion by the equation 10
R, G R, B R tristimulus values X R, Y R, returned to Z R, is converted image data or the reproduced image is generated (step S
T208).

【0097】[0097]

【数10】 [Equation 10]

【0098】次に、数9の各種パラメータについて説明
する。Y0は被写体中の背景の影響を数9に与えるパラ
メータであり、ここでは20(%)に設定される。nは
ノイズの影響を考慮したパラメータであり、0.1また
は1が与えられる。
Next, various parameters of the equation 9 will be described. Y 0 is a parameter that gives the influence of the background in the subject to the equation 9, and is set to 20 (%) here. n is a parameter considering the influence of noise, and is given 0.1 or 1.

【0099】ξR,ηR,ζRは色順応に基づく色変換の
基準となる基準照明(例えば、CIE規格のD65、照
度1000ルクス(lx))の相対色度であり、基準照
明の色度xR0,yR0から数11により導かれる。
Ξ R , η R , and ζ R are relative chromaticities of reference illumination (for example, CIE standard D65, illuminance 1000 lux (lx)) that is a reference for color conversion based on chromatic adaptation, and is the color of the reference illumination. Derived from the degrees x R0 and y R0 by the equation 11.

【0100】[0100]

【数11】 [Equation 11]

【0101】<ξ>,<η>,<ζ>は色度に関する順
応を考慮した相対色度であり、数12により照明成分デ
ータ64が示す照明(以下、「試験照明」という。)の
色度x0,y0から相対色度ξ,η,ζを求めておき、試
験照明の相対色度ξ,η,ζと基準照明の相対色度
ξR,ηR,ζRとから数13により求められる。
<Ξ>, <η>, and <ζ> are relative chromaticities in consideration of adaptation with respect to chromaticity, and the colors of the illumination (hereinafter, referred to as “test illumination”) indicated by the illumination component data 64 by Expression 12. The relative chromaticities ξ, η, ζ are obtained from the degrees x 0 , y 0, and the relative chromaticities ξ, η, ζ of the test illumination and the relative chromaticities ξ R , η R , ζ R of the reference illumination are given by Equation 13 Required by.

【0102】[0102]

【数12】 [Equation 12]

【0103】[0103]

【数13】 [Equation 13]

【0104】なお、数13中のαは、数14により求め
られる。
It should be noted that α in equation 13 is obtained by equation 14.

【0105】[0105]

【数14】 [Equation 14]

【0106】数14中のL0は、被写体の順応輝度であ
り、単位はカンデラ毎平方メートル(cd/m2)であ
る。順応輝度L0の算出には露出データ65が利用さ
れ、その詳細については後述する。また、数14では、
合成画像の画素値をL***表色系へと変換した際の
値L*も利用される。
L 0 in the equation 14 is the adaptation luminance of the subject, and the unit is candela per square meter (cd / m 2 ). The exposure data 65 is used to calculate the adaptation luminance L 0 , and details thereof will be described later. Also, in Equation 14,
The pixel values of the composite image L * a * b * values when converting into color system L * is also used.

【0107】また、数14中のDには、上記で選択した
順応係数が代入される。数14のαは、数13における
試験照明の相対色度ξ,η,ζに対する係数であること
から、順応係数Dは試験照明(照明成分データ64が示
す照明)の影響の度合いを調整することとなる。なお、
合成済画像が表す被写体は、発光物体であるか否かを画
素ごとに区別することが困難であることから、順応係数
Dは画素ごとに厳密に区別されない。
The adaptation coefficient selected above is substituted for D in the equation (14). Since α in Expression 14 is a coefficient with respect to the relative chromaticities ξ, η, and ζ of the test illumination in Expression 13, the adaptation coefficient D adjusts the degree of influence of the test illumination (illumination indicated by the illumination component data 64). Becomes In addition,
Since it is difficult to distinguish whether or not the subject represented by the combined image is a light emitting object, the adaptation coefficient D is not strictly distinguished for each pixel.

【0108】数9中のRR0,GR0,BR0は、基準照明下
の実効順応応答であり、数15により求められる。
R R0 , G R0 , and B R0 in the equation 9 are effective adaptation responses under the reference illumination and are obtained by the equation 15.

【0109】[0109]

【数15】 [Equation 15]

【0110】数15においてLR0は、基準照明の順応輝
度であり、数16により求められる。
In Expression 15, L R0 is the adaptation luminance of the reference illumination, and is obtained by Expression 16.

【0111】[0111]

【数16】 [Equation 16]

【0112】数16において、ER0は基準照明の照度
(ER0=1000(lx))である。
In Expression 16, E R0 is the illuminance of the reference illumination (E R0 = 1000 (lx)).

【0113】数9中のR0,G0,B0は、試験照明下の
実効順応応答であり、被写体の順応輝度L0(後述)を
用いて数17により求められる。
R 0 , G 0 , and B 0 in the equation 9 are effective adaptation responses under the test illumination, and are obtained by the equation 17 using the adaptation luminance L 0 of the subject (described later).

【0114】[0114]

【数17】 [Equation 17]

【0115】べき指数の関数β1(C1),β2(C2
(C1=RR0,GR0,R0,G0;C2=BR0,B0)は、
数18により示される。
Power index functions β 1 (C 1 ) and β 2 (C 2 )
(C 1 = R R0 , G R0 , R 0 , G 0 ; C 2 = B R0 , B 0 )
It is shown by the number 18.

【0116】[0116]

【数18】 [Equation 18]

【0117】さらに、数9中のKは以上の各種パラメー
タを用いて数19により求められる。
Further, K in the equation 9 is obtained by the equation 19 using the above various parameters.

【0118】[0118]

【数19】 [Formula 19]

【0119】ただし、デジタルカメラ1の場合、Y0
20であるため、Kは1となる。
However, in the case of the digital camera 1, Y 0 =
Since it is 20, K becomes 1.

【0120】次に、露出データ65を利用して被写体の
順応輝度L0を算出する手法について説明する。
Next, a method of calculating the adaptation luminance L 0 of the subject using the exposure data 65 will be described.

【0121】露出データ65は、被写体の明るさを示す
データ(または、少なくとも被写体の明るさを導き出す
ことができるデータ)となっている。具体的には、被写
体を観測した際の照度E0が被写体の明るさとされる。
The exposure data 65 is data indicating the brightness of the subject (or at least data capable of deriving the brightness of the subject). Specifically, the illuminance E 0 when the subject is observed is the brightness of the subject.

【0122】一般に、輝度とは放射源(被写体)を観測
方向から見たときの単位面積当たりの放射強度を表し、
光束をΦ、立体角をΩ、光束の断面積をS、光束の断面
と光束の方向とのなす角をθとして、数20にて表され
る。
In general, the brightness represents the radiation intensity per unit area when the radiation source (subject) is viewed from the observation direction,
The light flux is Φ, the solid angle is Ω, the cross-sectional area of the light flux is S, and the angle between the cross-section of the light flux and the direction of the light flux is θ.

【0123】[0123]

【数20】 [Equation 20]

【0124】一方、照度は単位面積当たりに入射する放
射束であり、光束をΦ、入射面積をAとして、数21に
て表される。
On the other hand, the illuminance is a radiant flux that is incident per unit area, and is represented by equation 21 with Φ being the luminous flux and A being the incident area.

【0125】[0125]

【数21】 [Equation 21]

【0126】ここで、デジタルカメラ1にて被写体を撮
影する場合、観測方向は被写体と正対する方向とみなす
ことができるため、θを0°(すなわち、cosθ=1)
とすることができる。また、被写体上の点から出射した
光のうち、1画素に入射する光の度合いも一定である
(すなわち、立体角Ωを考慮する必要がない。)とみな
すことができ、kを定数として、数22が満たされると
想定することができる。
Here, when the subject is photographed by the digital camera 1, since the observation direction can be regarded as the direction directly facing the subject, θ is 0 ° (that is, cos θ = 1).
Can be Further, it can be considered that the degree of light incident on one pixel among the light emitted from the point on the subject is constant (that is, it is not necessary to consider the solid angle Ω), and k is a constant, It can be assumed that the number 22 is satisfied.

【0127】[0127]

【数22】 [Equation 22]

【0128】デジタルカメラ1では、予め実測により定
数kを求めておき、本撮影の前のCCD112の出力や
測光センサの出力に基づいて被写体の照度(明るさ)を
露出演算部142により求めるようになっている。そし
て、被写体の明るさが露出データ65として物体色成分
データ63とともに1つのファイルとしてメモリカード
123に保存される。
In the digital camera 1, the constant k is obtained in advance by actual measurement, and the illuminance (brightness) of the subject is obtained by the exposure calculation unit 142 based on the output of the CCD 112 and the output of the photometric sensor before the main photographing. Has become. Then, the brightness of the subject is stored in the memory card 123 as one file together with the object color component data 63 as the exposure data 65.

【0129】数14および数17にて用いられる被写体
の順応輝度L0は、露出データ65から導かれる被写体
の照度E0を用いて数23により導かれる。
The adaptation luminance L 0 of the subject used in the equations 14 and 17 is derived by the equation 23 using the illuminance E 0 of the subject derived from the exposure data 65.

【0130】[0130]

【数23】 [Equation 23]

【0131】以上のようにして、再現条件に基づいて再
現画像を生成すると、再現画像の各画素の三刺激値
R,YR,ZR(数10)がディスプレイ125に表示
するための値へと変換され、変換後の画像がディスプレ
イ125に表示される(図11:ステップST20
9)。これにより、色順応を考慮した再現画像が表示さ
れ操作者は生成された再現画像を確認することができ
る。
As described above, when the reproduced image is generated based on the reproduction condition, the tristimulus values X R , Y R and Z R (Equation 10) of each pixel of the reproduced image are values to be displayed on the display 125. And the converted image is displayed on the display 125 (FIG. 11: step ST20).
9). As a result, a reproduced image considering chromatic adaptation is displayed, and the operator can confirm the generated reproduced image.

【0132】操作者はディスプレイ125の表示を確認
し、生成された再現画像が意向に添わない場合は(図
8:ステップST13にてNo)、再現条件を変更する
などして再現画像を生成する処理を再度実行することも
できる(ステップST12)。一方、生成された再現画
像が意向に添う場合は、再現画像をプリンタ2により印
刷させるために操作ボタン126を介してデジタルカメ
ラ1に対してその旨の指示を行う(ステップST13に
てYes)。
The operator confirms the display on the display 125, and when the generated reproduced image does not meet the intention (FIG. 8: No in step ST13), the reproduced condition is changed to generate the reproduced image. The process can be executed again (step ST12). On the other hand, when the reproduced image generated is in line with the intention, the digital camera 1 is instructed via the operation button 126 to print the reproduced image by the printer 2 (Yes in step ST13).

【0133】デジタルカメラ1は印刷させる指示を受け
付けると、送信先となるネットワーク5に接続されたプ
リンタ2を選択させる画面をディスプレイ125に表示
する。図15は、プリンタ2を選択する際のディスプレ
イ125の画面を例示する図である。図15において
は、3台のプリンタ2の名称から送信先を選択可能とさ
れている。このようなプリンタ2の名称は予め操作者に
より登録され、デジタルカメラ1のROM132等に記
憶されている。登録される際には、プリンタ2のIPア
ドレスもその名称とともに登録され記憶される。プリン
タ2の名称に対応するIPアドレスは、図15に示すよ
うにプリンタ2を選択する画面に同時に表示されるよう
になっていることが好ましい。
When the digital camera 1 receives the print instruction, the display 125 displays a screen for selecting the printer 2 connected to the destination network 5. FIG. 15 is a diagram illustrating a screen of the display 125 when the printer 2 is selected. In FIG. 15, the destinations can be selected from the names of the three printers 2. The name of the printer 2 is registered in advance by the operator and is stored in the ROM 132 or the like of the digital camera 1. When registered, the IP address of the printer 2 is also registered and stored together with its name. The IP address corresponding to the name of the printer 2 is preferably displayed simultaneously on the screen for selecting the printer 2 as shown in FIG.

【0134】操作者からの操作ボタン126を介しての
選択指示は、送信先受付部145により受け付けられ、
選択されたプリンタ2の名称に対応するIPアドレス
が、送信先IPアドレスとしてデータ送信部146に入
力される。
The selection instruction from the operator via the operation button 126 is accepted by the destination accepting section 145,
The IP address corresponding to the name of the selected printer 2 is input to the data transmission unit 146 as the destination IP address.

【0135】さらに、再現画像生成部144で生成され
た再現画像がデータ送信部146に入力され、データ送
信部146により通信部127を介して選択されたプリ
ンタ2(正確には、送信先IPアドレス)に対して再現
画像が送信される(ステップST14)。
Further, the reproduction image generated by the reproduction image generation unit 144 is input to the data transmission unit 146, and the printer 2 (more accurately, the transmission destination IP address selected by the data transmission unit 146 via the communication unit 127). ) Is transmitted (step ST14).

【0136】送信された再現画像は、送信先IPアドレ
スを有するプリンタ2のデータ受信部241により受信
される(ステップST15)。データ受信部241は、
受信した再現画像を記憶部210に記憶させるととも
に、印刷処理部242に対して印刷指示を行う。
The transmitted reproduced image is received by the data receiving unit 241 of the printer 2 having the destination IP address (step ST15). The data receiving unit 241
The received reproduction image is stored in the storage unit 210, and a print instruction is given to the print processing unit 242.

【0137】この印刷指示を受けて印刷処理部242
は、記憶部210から再現画像を読み出して印刷部24
で印刷可能なデータ形式に変換し、変換した再現画像を
印刷部24に入力する。そして、印刷部24が、データ
形式が変換された再現画像を記録シート上に印刷する。
これにより、再現画像が閲覧可能に出力されることとな
る(ステップST16)。
Upon receiving this print instruction, the print processing unit 242
Reads the reproduced image from the storage unit 210 and prints it on the printing unit 24.
The converted reproduced image is input to the printing unit 24. Then, the printing unit 24 prints the reproduced image whose data format has been converted on the recording sheet.
As a result, the reproduced image is output so that it can be browsed (step ST16).

【0138】以上、画像再現システム10のデジタルカ
メラ1およびプリンタ2の構成および動作について説明
してきたが、デジタルカメラ1では、被写体の分光反射
率を示す物体色成分データ63を照明環境が変更された
2枚の画像から簡単に求めることができるとともに、物
体色成分データ63に複数の照明成分データ64から選
択されたものを適宜合成することにより、所望の照明環
境下の所望の撮影対象の画像を生成することができる。
Although the configurations and operations of the digital camera 1 and the printer 2 of the image reproduction system 10 have been described above, in the digital camera 1, the illumination environment is changed to the object color component data 63 indicating the spectral reflectance of the subject. The image can be easily obtained from the two images, and by appropriately combining the object color component data 63 with one selected from the plurality of illumination component data 64, a desired image to be captured under a desired illumination environment can be obtained. Can be generated.

【0139】また、デジタルカメラ1は、合成済画像デ
ータに対して色順応式に基づいて色順応に基づく色変換
を行うことができ、より自然な(人間の視覚に合った)
再現画像を生成することができる。
Further, the digital camera 1 can perform color conversion based on chromatic adaptation on the combined image data based on the chromatic adaptation formula, which is more natural (suitable for human vision).
Reproduced images can be generated.

【0140】さらに、デジタルカメラ1は生成した再現
画像をネットワーク5に結合された外部装置となるプリ
ンタ2に対して送信することができるため、プリンタ2
による記録シートへの印刷により、被写体の画像が取得
された場所とは別の場所において、物体色成分データが
示す被写体の再現画像を早期に閲覧可能にすることがで
きる。
Furthermore, since the digital camera 1 can send the generated reproduced image to the printer 2 which is an external device connected to the network 5, the printer 2
By printing on the recording sheet by the method, the reproduced image of the subject represented by the object color component data can be browsed at a place other than the place where the image of the subject is acquired.

【0141】<2.第2の実施の形態>次に、本発明の
第2の実施の形態について説明する。上記第1の実施の
形態の画像再現システム10においては画像入力装置で
あるデジタルカメラ1にて再現画像の生成を行っていた
が、第2の実施の形態においては画像出力装置であるプ
リンタ2で再現画像の生成を行うという点で相違してい
る。
<2. Second Embodiment> Next, a second embodiment of the present invention will be described. In the image reproduction system 10 of the first embodiment, the reproduced image is generated by the digital camera 1 which is the image input device, but in the second embodiment, the printer 2 which is the image output device is used. The difference is that a reproduction image is generated.

【0142】第2の実施の形態の画像再現システム10
の構成は図1に示す構成と同様である。また、デジタル
カメラ1の構成は図2ないし図4に示す構成と同様であ
り、プリンタ2の構成は図5および図6に示す構成と同
様であるため、以下、第1の実施の形態と同一機能を有
するものは、適宜、同一の符号を使用して説明を行う。
The image reproduction system 10 according to the second embodiment.
The configuration is the same as that shown in FIG. Further, the configuration of the digital camera 1 is similar to that shown in FIGS. 2 to 4, and the configuration of the printer 2 is similar to those shown in FIGS. 5 and 6. Therefore, hereinafter, the same as the first embodiment. Those having a function will be described using the same reference numerals as appropriate.

【0143】図16は、本実施の形態におけるデジタル
カメラ1およびプリンタ2それぞれのプログラムに従っ
てCPU等の演算処理により実現される機能を他の構成
とともにブロックにて示す図であり、画像再現システム
10の主たる機能を示している。
FIG. 16 is a block diagram showing the functions realized by the arithmetic processing of the CPU and the like in accordance with the programs of the digital camera 1 and the printer 2 according to the present embodiment together with other components in a block diagram. It shows the main functions.

【0144】図16に示す構成のうち、成分データ生成
部141、露出演算部142、送信先受付部145およ
びデータ送信部146はデジタルカメラ1のCPU13
1等により実現される機能を示しており、また、データ
受信部241、印刷処理部242、再現条件受付部24
3および再現画像生成部244は、プリンタ2のCPU
231等により実現される機能を示している。
In the configuration shown in FIG. 16, the component data generator 141, the exposure calculator 142, the destination receiver 145 and the data transmitter 146 are the CPU 13 of the digital camera 1.
1 and the like, the data receiving unit 241, the print processing unit 242, and the reproduction condition receiving unit 24 are shown.
3 and the reproduction image generation unit 244 are CPUs of the printer 2.
231 and the like are shown.

【0145】図17は、本実施の形態における画像再現
システム10の動作の流れを示す図である。図17にお
いて、符号S1で示すステップはデジタルカメラ1にお
ける動作を示しており、符号S2で示すステップはプリ
ンタ2における動作を示している。以下、図16および
図17を参照しながら、本実施の形態の画像再現システ
ム10の動作について説明する。
FIG. 17 is a diagram showing a flow of operations of the image reproduction system 10 in the present embodiment. In FIG. 17, the step indicated by reference numeral S1 indicates the operation in the digital camera 1, and the step indicated by the reference numeral S2 indicates the operation in the printer 2. The operation of the image reproduction system 10 according to the present embodiment will be described below with reference to FIGS. 16 and 17.

【0146】まず、デジタルカメラ1において撮影が行
われ被写体の画像が取得され、取得された画像に基づい
て物体色成分データ63等が求められる(ステップST
21)。この動作の流れは既述の図9に示す流れと同様
であり、最終的に物体色成分データ63、照明成分デー
タ64および露出データ65が、1つのファイル66
(図10参照)としてメモリカード123へ保存され
る。
First, the digital camera 1 captures an image of a subject and obtains the object color component data 63 and the like based on the obtained image (step ST
21). The flow of this operation is similar to the flow shown in FIG. 9 described above, and finally, the object color component data 63, the illumination component data 64, and the exposure data 65 are combined into one file 66.
(See FIG. 10) is stored in the memory card 123.

【0147】次に、デジタルカメラ1の操作者から操作
ボタン126を介してファイル66のプリンタ2への送
信が指示されると、送信の指示は送信先受付部145で
受け付けられ、図15に示す画面がディスプレイ125
に表示される。送信先となるプリンタ2が選択される
と、物体色成分データ63を含むファイル66が、デー
タ送信部146により選択されたプリンタ2へ送信され
る(ステップST22)。
Next, when the operator of the digital camera 1 instructs the transmission of the file 66 to the printer 2 through the operation button 126, the transmission instruction is accepted by the destination accepting unit 145 and is shown in FIG. Screen is display 125
Is displayed in. When the printer 2 as the transmission destination is selected, the file 66 including the object color component data 63 is transmitted to the printer 2 selected by the data transmission unit 146 (step ST22).

【0148】被写体の撮影(ステップST21)が繰り
返され複数のファイル66がメモリカード123に記憶
されているような場合は、送信するファイル66が指定
されてからプリンタ2に送信される。このとき、複数の
ファイル66を指定して、同時にプリンタ2へ送信する
ことも可能である。ファイル66の指定の指示は送信先
受付部145により受け付けられる。
When the photographing of the subject (step ST21) is repeated and a plurality of files 66 are stored in the memory card 123, the file 66 to be transmitted is designated and then transmitted to the printer 2. At this time, it is possible to designate a plurality of files 66 and send them to the printer 2 at the same time. The instruction to specify the file 66 is accepted by the destination accepting unit 145.

【0149】送信されたファイル66は、選択されたプ
リンタ2のデータ受信部241により受信される(ステ
ップST23)。データ受信部241は、受信したファ
イル66を記憶部210に記憶させる。
The transmitted file 66 is received by the data receiving unit 241 of the selected printer 2 (step ST23). The data receiving unit 241 stores the received file 66 in the storage unit 210.

【0150】以上の処理(ステップST21〜ST2
3)は繰り返し行われてもよく、この処理を繰り返すこ
とで、プリンタ2の記憶部210に複数のファイル66
が記憶されることとなる。
The above processing (steps ST21 to ST2)
3) may be repeated, and by repeating this process, a plurality of files 66 are stored in the storage unit 210 of the printer 2.
Will be stored.

【0151】プリンタ2は物体色成分データ63を含む
ファイル66を記憶部210に記憶した後、再現画像の
生成が指示されると、物体色成分データ63の示す被写
体の再現画像を生成する処理を行う(ステップST2
4)。この処理の流れは、既述の図11に示す流れとほ
ぼ同様であるため、図11を参照しつつ第1の実施の形
態と相違する部分を中心に説明する。
The printer 2 stores the file 66 including the object color component data 63 in the storage unit 210, and then when the generation of the reproduced image is instructed, the printer 2 executes the process of generating the reproduced image of the object indicated by the object color component data 63. Perform (step ST2
4). Since the flow of this processing is almost the same as the flow shown in FIG. 11 described above, the description will focus on the points that differ from the first embodiment with reference to FIG.

【0152】まず、ステップST201において、物体
色成分データ63を選択する場合は、記憶部210に記
憶されたファイル66が操作パネル21のディスプレイ
22に表示される。これによりプリンタ2の操作者は操
作パネル21(タッチパネルとしてのディスプレイ22
や入力キー23)を介して所望の物体色成分データ63
を格納するファイル66を選択することが可能である。
選択された物体色成分データ63は、再現条件受付部2
43によりRAM233に読み出される。
First, in step ST201, when the object color component data 63 is selected, the file 66 stored in the storage unit 210 is displayed on the display 22 of the operation panel 21. This allows the operator of the printer 2 to operate the operation panel 21 (display 22 as a touch panel).
Or desired input object color component data 63
It is possible to select the file 66 that stores the.
The selected object color component data 63 corresponds to the reproduction condition receiving unit 2
It is read out to the RAM 233 by 43.

【0153】さらに、ステップST202〜ST204
において、再現条件すなわち照明成分データ64、色順
応式および順応係数が選択され、それぞれ再現条件受付
部243により受け付けられる。このとき、図12ない
し図14と同様の画面がディスプレイ22に表示され、
操作パネル21を介してそれぞれ所望の再現条件が選択
される。プリンタ2の固定ディスク28には、種々の照
明成分データ64が予め準備されており、再現画像を生
成するために用いられる照明として第1の実施の形態と
同様に種々の照明成分データ64を選択可能である。選
択された照明成分データ64は、RAM233に読み出
される。
Further, steps ST202 to ST204
At, the reproduction condition, that is, the illumination component data 64, the chromatic adaptation formula, and the adaptation coefficient are selected and accepted by the reproduction condition acceptance unit 243. At this time, a screen similar to that shown in FIGS. 12 to 14 is displayed on the display 22,
Desired reproduction conditions are selected via the operation panel 21. Various illumination component data 64 are prepared in advance on the fixed disk 28 of the printer 2, and various illumination component data 64 are selected as the illumination used to generate the reproduced image, as in the first embodiment. It is possible. The selected illumination component data 64 is read out to the RAM 233.

【0154】選択された色順応式および順応係数は再現
画像生成部244に入力され、以降、ステップST20
5〜ST208においては、第1の実施の形態と同様の
処理が再現画像生成部244にて行われて再現条件に基
づいて再現画像が生成される。生成された再現画像は操
作パネル21のディスプレイ22に表示されることとな
り、操作者は表示された再現画像を確認することができ
る(ステップST209)。
The selected chromatic adaptation formula and adaptation coefficient are input to the reproduction image generating section 244, and thereafter step ST20.
In 5 to ST208, the same processing as in the first embodiment is performed by the reproduced image generation unit 244, and a reproduced image is generated based on the reproduction condition. The generated reproduced image is displayed on the display 22 of the operation panel 21, and the operator can check the displayed reproduced image (step ST209).

【0155】プリンタ2の操作者はディスプレイ22の
表示を確認して、再度、再現画像を生成するか、生成さ
れた再現画像を印刷するかを選択する(図17:ステッ
プST25)。
The operator of the printer 2 confirms the display on the display 22 and selects again whether to generate a reproduced image or print the generated reproduced image (FIG. 17: step ST25).

【0156】印刷が指示された場合は、生成された再現
画像が印刷処理部242に入力されて印刷可能なデータ
形式に変換され、印刷部24で印刷されることとなる。
これにより、再現画像が閲覧可能に出力されることとな
る(ステップST26)。
When printing is instructed, the generated reproduction image is input to the print processing unit 242, converted into a printable data format, and printed by the printing unit 24.
As a result, the reproduced image is output so that it can be browsed (step ST26).

【0157】以上、第2の実施の形態の画像再現システ
ム10について説明したが、本実施の形態のプリンタ2
は、物体色成分データを受信して再現画像を生成して印
刷することができるため、被写体の画像が取得されたデ
ジタルカメラ1とは別のプリンタ2において、物体色成
分データが示す被写体の再現画像を早期に閲覧可能にす
ることができる。
The image reproduction system 10 according to the second embodiment has been described above. The printer 2 according to the present embodiment has been described above.
Can receive the object color component data, generate a reproduced image, and print the reproduced image. Therefore, in the printer 2 different from the digital camera 1 in which the image of the object is acquired, the object represented by the object color component data is reproduced. Images can be made viewable early.

【0158】<3.第3の実施の形態>次に、本発明の
第3の実施の形態について説明する。本実施の形態にお
ける画像再現システム10では、物体色成分データ63
を蓄積する画像サーバを設け、この画像サーバで再現画
像の生成を行う。
<3. Third Embodiment> Next, a third embodiment of the present invention will be described. In the image reproduction system 10 according to the present embodiment, the object color component data 63
An image server for storing the image is provided, and the reproduced image is generated by this image server.

【0159】図18は、第3の実施の形態に係る画像再
現システム10の概略構成を示す図である。図18に示
すように画像再現システム10は、画像入力装置である
デジタルカメラ1および画像出力装置であるプリンタ2
とともに、物体色成分データ63を蓄積する画像サーバ
3と、画像サーバ3に対して各種要求を送信するユーザ
コンピュータ4とを備えている。
FIG. 18 is a diagram showing a schematic configuration of the image reproduction system 10 according to the third embodiment. As shown in FIG. 18, the image reproduction system 10 includes a digital camera 1 as an image input device and a printer 2 as an image output device.
In addition, the image server 3 for accumulating the object color component data 63 and the user computer 4 for transmitting various requests to the image server 3 are provided.

【0160】画像サーバ3およびユーザコンピュータ4
もデータ通信装置として機能し、ネットワーク5を介し
て該ネットワーク5に接続された装置相互間で各種デー
タ通信を行うことが可能となっている。画像サーバ3お
よびユーザコンピュータ4においてもそれぞれネットワ
ーク5において一意となるIPアドレスが割り当てられ
ている。
Image server 3 and user computer 4
Also functions as a data communication device, and various types of data communication can be performed between the devices connected to the network 5 via the network 5. The image server 3 and the user computer 4 are also assigned unique IP addresses in the network 5.

【0161】本実施の形態のデジタルカメラ1の構成は
図2ないし図4に示す構成と同様であり、プリンタ2の
構成は図5および図6に示す構成と同様であり、以下、
第1および第2の実施の形態と同一機能を有するもの
は、適宜、同一の符号を使用して説明を行う。
The configuration of the digital camera 1 of the present embodiment is similar to that shown in FIGS. 2 to 4, the configuration of the printer 2 is similar to that shown in FIGS. 5 and 6, and
Components having the same functions as those in the first and second embodiments will be described using the same reference numerals as appropriate.

【0162】画像サーバ3およびユーザコンピュータ4
は、ハードウェアとしての構成は一般的なコンピュータ
と同様の構成である。したがって、画像サーバ3とユー
ザコンピュータ4の基本構成は同様であるため、同一の
概略図である図19を参照して説明する。画像サーバ3
とユーザコンピュータ4のそれぞれは図19に示すよう
に、各種演算処理を行うCPU(画像サーバ3ではCP
U31,ユーザコンピュータ4ではCPU41、以下同
様)、基本プログラムを記憶するROM(32,42)
および各種情報を記憶するRAM(33,43)をバス
ラインに接続した構成となっている。また、バスライン
には、各種情報を記憶する固定ディスク(34,4
4)、各種情報の表示を行うディスプレイ(35,4
5)、操作者からの入力を受け付けるキーボード(36
a,46a)およびマウス(36b,46b)、光ディ
スク、磁気ディスク、光磁気ディスク等の記録媒体93
から各種データの読み取りを行う読取装置(37,4
7)、並びに、ネットワーク5を介して外部装置と通信
を行う通信部(38,48)が、適宜、インターフェイ
ス(I/F)を介する等して接続される。
Image server 3 and user computer 4
The hardware configuration is similar to that of a general computer. Therefore, since the basic configurations of the image server 3 and the user computer 4 are the same, description will be given with reference to FIG. 19 which is the same schematic diagram. Image server 3
19 and the user computer 4, as shown in FIG.
U31, CPU 41 in user computer 4, the same applies hereinafter), ROM (32, 42) for storing basic programs
The RAM (33, 43) for storing various information is connected to the bus line. A fixed disk (34, 4) for storing various information is also provided on the bus line.
4), a display (35, 4) for displaying various information
5), a keyboard (36 that accepts input from the operator
a, 46a) and mouse (36b, 46b), optical disk, magnetic disk, magneto-optical disk, or other recording medium 93.
Reading device (37, 4) that reads various data from
7) and communication units (38, 48) for communicating with external devices via the network 5 are appropriately connected via an interface (I / F) or the like.

【0163】画像サーバ3とユーザコンピュータ4は、
読取装置(37,47)を介して記録媒体93からプロ
グラム(340,440)を読出し、固定ディスク(3
4,44)に記憶することができる。また、所定の外部
記憶装置からネットワーク5を経由してダウンロードし
て固定ディスク(34,44)に記憶することもでき
る。そして、CPU(31,41)が固定ディスク(3
4,44)に記憶されたプログラム(340,440)
に従って演算処理を実行することにより各種動作を行う
ようになっている。すなわち、このプログラム(34
0,440)に従っての演算処理を実行した結果とし
て、画像サーバ3は画像サーバ3としての動作を行い、
ユーザコンピュータ4はユーザコンピュータ4としての
動作を行うこととなる。
The image server 3 and the user computer 4 are
The program (340, 440) is read from the recording medium 93 via the reading device (37, 47), and the fixed disk (3
4, 44). Further, it can be downloaded from a predetermined external storage device via the network 5 and stored in the fixed disks (34, 44). Then, the CPU (31, 41) causes the fixed disk (3
Programs (340,440) stored in
According to the above, various operations are performed by executing arithmetic processing. That is, this program (34
0,440), the image server 3 operates as the image server 3, and
The user computer 4 operates as the user computer 4.

【0164】なお、RAM(33,43)および固定デ
ィスク(34,44)は各種データを記憶する機能を実
現するものであるため、以下、これらを総称する場合は
「記憶部」(310,410)と称することとする。ま
た、キーボード(36a,46a)およびマウス(36
b,46b)を総称して「操作部」(36,46)と称
することとする。
Since the RAMs (33, 43) and the fixed disks (34, 44) realize the function of storing various data, hereinafter, when these are collectively referred to, "storage section" (310, 410). ). In addition, a keyboard (36a, 46a) and a mouse (36
b, 46b) will be collectively referred to as an "operation unit" (36, 46).

【0165】図20は、本実施の形態におけるデジタル
カメラ1、プリンタ2、画像サーバ3およびユーザコン
ピュータ4それぞれのプログラムに従ってCPU等の演
算処理により実現される機能を他の構成とともにブロッ
クにて示す図であり、画像再現システム10の主たる機
能を示している。
FIG. 20 is a block diagram showing the functions realized by the arithmetic processing of the CPU and the like in accordance with the programs of the digital camera 1, printer 2, image server 3 and user computer 4 in the present embodiment together with other components. And shows the main function of the image reproduction system 10.

【0166】図20に示す構成のうち、成分データ生成
部141、露出演算部142、送信先受付部145およ
びデータ送信部146はデジタルカメラ1のCPU13
1等により実現される機能を、データ受信部241およ
び印刷処理部242はプリンタ2のCPU231等によ
り実現される機能を、データ受信部341、再現画像生
成部342、データ送信部343およびHTTPサーバ
344は画像サーバ3のCPU31等により実現される
機能を、ブラウザ441はユーザコンピュータのCPU
41等により実現される機能をそれぞれ示している。
In the configuration shown in FIG. 20, the component data generation unit 141, the exposure calculation unit 142, the transmission destination reception unit 145 and the data transmission unit 146 are the CPU 13 of the digital camera 1.
1 is implemented by the data receiving unit 241 and the print processing unit 242. Functions implemented by the CPU 231 of the printer 2 are implemented by the data receiving unit 341, the reproduced image generating unit 342, the data transmitting unit 343, and the HTTP server 344. Is a function realized by the CPU 31 of the image server 3 and the browser 441 is a CPU of the user computer.
The functions realized by 41 and the like are shown.

【0167】ユーザコンピュータ4のブラウザ441
は、一般的なWEBブラウザであり、画像サーバ3のH
TTPサーバ344に対して各種コンテンツの要求やコ
マンドを送信するとともに、HTTPサーバ344から
受信した各種コンテンツをディスプレイ45に表示をす
ることが可能である。また、画像サーバ3のHTTPサ
ーバ344は、ユーザコンピュータ4のブラウザ441
からの要求に対して各種コンテンツを出力しブラウザ4
41に表示させるとともに、再現条件受付部345、再
現画像出力部346および送信先受付部347を備えて
いる。
The browser 441 of the user computer 4
Is a general WEB browser, and H of the image server 3
It is possible to send requests and commands for various contents to the TTP server 344, and display various contents received from the HTTP server 344 on the display 45. Also, the HTTP server 344 of the image server 3 is the browser 441 of the user computer 4.
Outputs various contents in response to requests from the browser 4
41, a reproduction condition reception unit 345, a reproduction image output unit 346, and a transmission destination reception unit 347.

【0168】図21は、本実施の形態における画像再現
システム10の動作の流れを示す図である。図21にお
いて、符号S1で示すステップはデジタルカメラ1にお
ける動作を、符号S2で示すステップはプリンタ2にお
ける動作を、符号S3で示すステップは画像サーバ3に
おける動作をそれぞれ示している。以下、図20および
図21を参照しながら、本実施の形態の画像再現システ
ム10の動作について説明する。
FIG. 21 is a diagram showing an operation flow of the image reproduction system 10 in the present embodiment. In FIG. 21, the step indicated by the reference numeral S1 indicates the operation in the digital camera 1, the step indicated by the reference numeral S2 indicates the operation in the printer 2, and the step indicated by the reference numeral S3 indicates the operation in the image server 3. The operation of the image reproduction system 10 according to the present embodiment will be described below with reference to FIGS. 20 and 21.

【0169】まず、デジタルカメラ1において撮影が行
われ被写体の画像が取得され、取得された画像に基づい
て物体色成分データ63等が求められる(ステップST
31)。この動作の流れは既述の図9に示す流れと同様
であり、最終的に物体色成分データ63、照明成分デー
タ64および露出データ65が、1つのファイル66
(図10参照)としてメモリカード123へ保存され
る。
First, the digital camera 1 captures an image of a subject and obtains the object color component data 63 and the like based on the obtained image (step ST
31). The flow of this operation is similar to the flow shown in FIG. 9 described above, and finally, the object color component data 63, the illumination component data 64, and the exposure data 65 are combined into one file 66.
(See FIG. 10) is stored in the memory card 123.

【0170】次に、デジタルカメラ1の操作者から操作
ボタン126を介してファイル66の送信が指示される
と、送信の指示は送信先受付部145により受け付けら
れ、物体色成分データ63等を含むファイル66がデー
タ送信部146により画像サーバ3に送信される(ステ
ップST32)。第2の実施の形態と同様に、被写体の
撮影(ステップST31)が繰り返され複数のファイル
66がメモリカード123に記憶されているような場合
は、少なくとも1つのファイル66が指定されてからプ
リンタ2に送信される。送信されたファイル66は、画
像サーバ3のデータ受信部341により受信され、記憶
部310に記憶される(ステップST33)。
Next, when the operator of the digital camera 1 instructs the transmission of the file 66 via the operation button 126, the transmission instruction is accepted by the destination accepting unit 145 and includes the object color component data 63 and the like. The file 66 is transmitted to the image server 3 by the data transmission unit 146 (step ST32). Similar to the second embodiment, in the case where a plurality of files 66 are stored in the memory card 123 due to repeated photographing of the subject (step ST31), at least one file 66 is designated and then the printer 2 Sent to. The transmitted file 66 is received by the data receiving unit 341 of the image server 3 and stored in the storage unit 310 (step ST33).

【0171】以上の処理(ステップST31〜ST3
3)は繰り返し行われてもよく、この処理を繰り返すこ
とで、画像サーバ3の記憶部310に複数のファイル6
6が記憶されることとなる。また、画像再現システム1
0が複数のデジタルカメラ1を備えている場合は、それ
ぞれのデジタルカメラ1と画像サーバ3との間でステッ
プST31〜ST33の処理を行うことで、多くのファ
イル66が画像サーバ3の記憶部310に蓄積されるこ
ととなる。
The above processing (steps ST31 to ST3)
3) may be repeatedly performed, and by repeating this process, a plurality of files 6 are stored in the storage unit 310 of the image server 3.
6 will be stored. Also, the image reproduction system 1
If 0 includes a plurality of digital cameras 1, many files 66 are stored in the storage unit 310 of the image server 3 by performing the processing of steps ST31 to ST33 between each digital camera 1 and the image server 3. Will be accumulated in.

【0172】画像サーバ3は物体色成分データ63を含
むファイル66を記憶部310に記憶した後、HTTP
サーバ344を介して再現画像の生成の指示を受け付け
ると、物体色成分データ63の示す被写体の再現画像を
生成する処理を行う(ステップST34)。この処理の
流れは、既述の図11に示す流れとほぼ同様であるた
め、図11を参照しつつ上記実施の形態と相違する部分
を中心に説明する。
The image server 3 stores the file 66 including the object color component data 63 in the storage unit 310, and then the HTTP
When an instruction to generate a reproduced image is received via the server 344, a process of generating a reproduced image of the subject indicated by the object color component data 63 is performed (step ST34). The flow of this processing is almost the same as the flow shown in FIG. 11 described above, and therefore, the description will be centered on the parts that differ from the above-described embodiment with reference to FIG.

【0173】まず、ユーザコンピュータ4の操作者は、
操作部46およびブラウザ441を介して画像サーバ3
のHTTPサーバ344に対して再現画像の生成を指示
すると、生成の指示は再現条件受付部345により受け
付けられる。これにより、ブラウザ441上に選択可能
な物体色成分データ63を格納するファイル66の一覧
が表示される。ユーザコンピュータ4の操作者はこの一
覧表示を参照しつつ、所望の物体色成分データ63を格
納するファイル66を選択する。選択されたファイル6
6の情報はブラウザ441を介して画像サーバ3のHT
TPサーバ344に送信されて再現条件受付部345で
受け付けられ、当該ファイル66に含まれる物体色成分
データ63が画像サーバ3のRAM33に読み出される
(ステップST201)。
First, the operator of the user computer 4
The image server 3 via the operation unit 46 and the browser 441.
When the HTTP server 344 is instructed to generate a reproduced image, the reproduction condition receiving unit 345 receives the generation instruction. As a result, a list of files 66 that store the selectable object color component data 63 is displayed on the browser 441. The operator of the user computer 4 selects the file 66 in which the desired object color component data 63 is stored while referring to this list display. Selected file 6
The information of 6 is the HT of the image server 3 via the browser 441.
The object color component data 63 transmitted to the TP server 344, accepted by the reproduction condition acceptance unit 345, and included in the file 66 is read into the RAM 33 of the image server 3 (step ST201).

【0174】次に、図12ないし図14と同様の表示が
ブラウザ441上になされ、操作者の所望の再現条件す
なわち照明成分データ64、色順応式および順応係数が
選択される。選択された再現条件はそれぞれ再現条件受
付部345により受け付けられる。画像サーバ3の固定
ディスク34には、種々の照明成分データ64が予め準
備されており、再現画像を生成するために用いられる照
明として上記実施の形態と同様に種々の照明成分データ
64を選択可能である。選択された照明成分データ64
は、RAM33に読み出される(ステップST202〜
ST204)。
Next, the same display as in FIGS. 12 to 14 is displayed on the browser 441, and the reproduction condition desired by the operator, that is, the illumination component data 64, the chromatic adaptation formula and the adaptation coefficient are selected. The selected reproduction condition is received by the reproduction condition receiving unit 345. Various illumination component data 64 are prepared in advance on the fixed disk 34 of the image server 3, and various illumination component data 64 can be selected as the illumination used to generate the reproduced image, as in the above embodiment. Is. Selected illumination component data 64
Is read to the RAM 33 (step ST202-
ST204).

【0175】選択された色順応式および順応係数は再現
画像生成部342に入力され、以降、ステップST20
5〜ST208においては、第1の実施の形態と同様の
処理が再現画像生成部342にて行われて再現条件に基
づいて再現画像が生成される。
The selected chromatic adaptation formula and adaptation coefficient are input to the reproduction image generating section 342, and thereafter step ST20.
In 5 to ST208, the same processing as in the first embodiment is performed by the reproduced image generation unit 342, and a reproduced image is generated based on the reproduction condition.

【0176】生成された再現画像は、HTTPサーバ3
44の再現画像出力部346からユーザコンピュータ4
のブラウザ441に送信され、ユーザコンピュータ4の
ディスプレイ45に表示される。すなわち、再現画像を
閲覧可能に出力することとなる(ステップST20
9)。
The reproduced image generated is the HTTP server 3
44 from the reproduced image output unit 346 to the user computer 4
To the browser 441 of the user computer 4 and displayed on the display 45 of the user computer 4. That is, the reproduced image is output so that it can be browsed (step ST20).
9).

【0177】ユーザコンピュータ4の操作者は、ディス
プレイ45のブラウザ441上に表示された再現画像を
確認し、再度、再現画像を生成するか、生成された再現
画像を印刷するかを選択する(図21:ステップST3
5)。
The operator of the user computer 4 confirms the reproduced image displayed on the browser 441 of the display 45, and selects again whether to generate the reproduced image or print the generated reproduced image (see FIG. 21: Step ST3
5).

【0178】印刷する指示が送信された場合は、ブラウ
ザ441上に図15と同様の表示がなされる。ユーザコ
ンピュータ4の操作者は印刷を行わせる所望のプリンタ
2を選択する。この選択指示は、画像サーバ3の送信先
受付部347により受け付けられ、選択されたプリンタ
のIPアドレスがデータ送信部343に入力される。印
刷を行わせる候補となるプリンタ2の名称およびIPア
ドレスは、予め登録されて記憶されている。
When the print instruction is transmitted, the same display as in FIG. 15 is displayed on the browser 441. The operator of the user computer 4 selects the desired printer 2 for printing. This selection instruction is received by the transmission destination reception unit 347 of the image server 3, and the IP address of the selected printer is input to the data transmission unit 343. The name and IP address of the printer 2 that is a candidate for printing is registered and stored in advance.

【0179】さらに、再現画像生成部342で生成され
た再現画像がデータ送信部343に入力され、データ送
信部343により選択されたプリンタ2に対して再現画
像が送信される(ステップST36)。
Further, the reproduced image generated by the reproduced image generating section 342 is input to the data transmitting section 343, and the reproduced image is transmitted to the printer 2 selected by the data transmitting section 343 (step ST36).

【0180】送信された再現画像は、プリンタ2のデー
タ受信部241で受信され(ステップST37)、第1
の実施の形態と同様に記録シート上に印刷されることと
なる(ステップST38)。
The transmitted reproduced image is received by the data receiving unit 241 of the printer 2 (step ST37), and the first
Printing is performed on the recording sheet in the same manner as in the above embodiment (step ST38).

【0181】以上、第3の実施の形態の画像再現システ
ム10について説明したが、本実施の形態においては、
ユーザコンピュータ4からブラウザ441を介して遠隔
的に再現条件を指定し再現画像を生成させることが可能
である。また、被写体の画像が取得されたデジタルカメ
ラ1とは別のユーザコンピュータ4やプリンタ2におい
て、物体色成分データが示す被写体の再現画像を早期に
閲覧可能にすることができる。
The image reproduction system 10 according to the third embodiment has been described above, but in the present embodiment,
It is possible to remotely specify a reproduction condition from the user computer 4 via the browser 441 and generate a reproduced image. In addition, the reproduced image of the subject indicated by the object color component data can be viewed early in the user computer 4 or the printer 2 different from the digital camera 1 from which the image of the subject is acquired.

【0182】<4.変形例>以上、本発明の実施の形態
について説明してきたが、この発明は上記実施の形態に
限定されるものではなく様々な変形が可能である。
<4. Modifications> Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made.

【0183】上記実施の形態ではデジタルカメラ1にお
いてフラッシュを用いて取得された第1画像およびフラ
ッシュを用いることなく取得された第2画像を利用して
物体色成分データ63および照明成分データ64を求め
るようにしているが、画像データから物体色成分データ
63および照明成分データ64を求める手法として他の
手法が用いられてもよい。例えば、上記デジタルカメラ
1に照明光を受光するマルチバンドセンサを設けてお
き、照明光の分光分布を照明成分データ64として取得
してから物体色成分データ63が求められてもよい。
In the above embodiment, the object color component data 63 and the illumination component data 64 are obtained using the first image obtained by using the flash and the second image obtained without using the flash in the digital camera 1. However, other methods may be used as a method for obtaining the object color component data 63 and the illumination component data 64 from the image data. For example, the digital camera 1 may be provided with a multi-band sensor for receiving illumination light, and the object color component data 63 may be obtained after the spectral distribution of the illumination light is acquired as the illumination component data 64.

【0184】また、照明光の分光分布が既知である環境
で画像データを取得して、物体色成分データ63および
照明成分データ64を求めるようにしてもよい。例え
ば、スキャナ装置はスキャン時に外部の照明光が入り込
むことが無いためスキャン時の照明光の分光分布は既知
となる。このため、この既知の分光分布を照明成分デー
タ64とすることで物体色成分データ63を容易に求め
ることができる。したがって、物体色成分データ63を
求める画像入力装置としては、スキャナ装置や、カラー
複写機、MFP装置(マルチ・ファンクション・ペリフ
ェラル)などを適用することも可能であり、これらは、
上記の実施の形態のいずれにおいても適用することが可
能である。
Further, the image data may be acquired in an environment in which the spectral distribution of the illumination light is known, and the object color component data 63 and the illumination component data 64 may be obtained. For example, since the scanner device does not enter external illumination light during scanning, the spectral distribution of illumination light during scanning is known. Therefore, the object color component data 63 can be easily obtained by using the known spectral distribution as the illumination component data 64. Therefore, as the image input device for obtaining the object color component data 63, a scanner device, a color copying machine, an MFP device (multi-function peripheral), or the like can be applied.
It can be applied to any of the above-described embodiments.

【0185】一方、上記実施の形態においては、画像出
力装置としてプリンタ2が用いられていたが、一般的な
コンピュータ、カラー複写機、MFP装置など生成され
た再現画像を閲覧可能に出力する出力手段を有するもの
であればどのような装置でも適用することが可能であ
る。例えば、第1実施の形態においては、デジタルカメ
ラ1において生成された再現画像はプリンタ2に送信さ
れて印刷出力されていたが、一般的なコンピュータに送
信されディスプレイに表示出力されるようになっていて
もよい。また、同様に、第2の実施の形態においては、
プリンタ2が物体色成分データ63を受信して再現画像
の生成を行い印刷出力していたが、一般的なコンピュー
タが物体色成分データ63を受信して再現画像の生成を
行いディスプレイに表示出力するようにしてもよい。こ
のようにしても、被写体の画像が取得された場所とは別
の場所において物体色成分データ63の示す被写体の再
現画像を閲覧可能にすることができる。
On the other hand, in the above embodiment, the printer 2 is used as the image output device, but an output means for outputting a reproduced image generated by a general computer, a color copying machine, an MFP device or the like so that it can be viewed. Any device can be applied as long as it has For example, in the first embodiment, the reproduced image generated by the digital camera 1 is transmitted to the printer 2 and printed out, but it is transmitted to a general computer and displayed and output on a display. May be. Similarly, in the second embodiment,
The printer 2 receives the object color component data 63, generates a reproduced image and prints it out, but a general computer receives the object color component data 63, generates a reproduced image, and outputs it to the display. You may do it. Even in this case, the reproduced image of the subject represented by the object color component data 63 can be browsed at a place different from the place where the image of the subject is acquired.

【0186】また、上記実施の形態では、再現画像を生
成した後に当該再現画像が意向に添うものであるか否か
を操作者に確認させていたが、この確認の段階までは画
素を所定の割合で間引いたサムネイル画像の再現画像を
生成して使用し、意向に添うことを確認してから、画素
の間引きを行わない再現画像を生成するようにしてもよ
い。これによれば、再現画像の確認を早期に行うことが
可能となる。
Further, in the above-described embodiment, after the reproduced image is generated, the operator is allowed to confirm whether or not the reproduced image is intended, but until the confirmation step, the pixel is set to a predetermined size. It is also possible to generate and use a reproduced image of thumbnail images decimated by a ratio, and after confirming that the reproduced image matches the intention, generate a reproduced image in which pixels are not decimated. According to this, it becomes possible to confirm the reproduced image at an early stage.

【0187】また、上記実施の形態では、送信先となる
プリンタ2の選択を受け付けて選択されたプリンタ2に
対してデータを送信するものとして説明したが、予め決
まったプリンタ2に送信するようになっていてもよい。
このようにすれば、デジタルカメラ1にて物体色成分デ
ータを求めた後、即時にプリンタ2において再現画像の
印刷出力を行うことが可能となる。
Further, in the above-mentioned embodiment, the description is made assuming that the selection of the printer 2 as the transmission destination is accepted and the data is transmitted to the selected printer 2. However, the data may be transmitted to the predetermined printer 2. It may be.
With this arrangement, after the object color component data is obtained by the digital camera 1, the reproduced image can be immediately printed out by the printer 2.

【0188】また、上記実施の形態では、物体色成分デ
ータ63と照明成分データ64を合成した合成済画像デ
ータに対して色順応に基づく色変換を施した変換済画像
データを再現画像としていたが、色順応に基づく色変換
を施さない合成済画像データを再現画像としてもよい。
Further, in the above embodiment, the converted image data obtained by performing the color conversion based on the color adaptation on the combined image data obtained by combining the object color component data 63 and the illumination component data 64 is used as the reproduced image. Alternatively, combined image data that is not subjected to color conversion based on color adaptation may be used as the reproduced image.

【0189】また、上記実施の形態では、再現条件とし
て照明成分データ64、色順応式および順応係数の全て
を操作者に指定させるものとして説明を行ったが、少な
くとも1つを操作者に指定させるようになっていればよ
い。例えば、色順応式を所定の式、順応係数を所定の値
として、照明成分データ64のみを指定させる。照明成
分データ64を所定の光源、順応係数を所定の値とし
て、色順応式のみを指定させるなどであってもよい。
In the above embodiment, the description has been made assuming that the operator specifies all of the illumination component data 64, the chromatic adaptation formula, and the adaptation coefficient as the reproduction condition, but at least one is specified by the operator. It should be like this. For example, only the illumination component data 64 is designated with the chromatic adaptation formula as a predetermined formula and the adaptation coefficient as a predetermined value. The illumination component data 64 may be set to a predetermined light source and the adaptation coefficient may be set to a predetermined value to specify only the chromatic adaptation formula.

【0190】また、上記実施の形態では、CPUがプロ
グラムに従って演算を行うことにより、各種機能が実現
されると説明したが、演算処理の全部または一部は専用
の電気的回路により実現されてもよい。特に、繰り返し
演算を行う箇所をロジック回路にて構築することによ
り、高速な演算が実現される。
Further, in the above-described embodiment, various functions are realized by the CPU performing calculations according to programs, but all or part of the calculation processing may be realized by a dedicated electric circuit. Good. In particular, a high-speed operation can be realized by constructing a place where a repeated operation is performed with a logic circuit.

【0191】上述した具体的実施の形態には、以下の構
成を有する発明が含まれている。
The specific embodiments described above include inventions having the following configurations.

【0192】(1)ネットワークを介して通信可能なデ
ータ通信装置であって、被写体の画像データを取得する
画像取得手段と、取得された前記画像データから、被写
体への照明環境の影響を取り除いた画像のデータに相当
する物体色成分データを求める物体色成分データ生成手
段と、前記物体色成分データを前記ネットワークに結合
された外部装置に送信する送信手段と、を備えることを
特徴とするデータ通信装置。
(1) A data communication device capable of communicating via a network, wherein image acquisition means for acquiring image data of a subject, and the effect of the illumination environment on the subject are removed from the acquired image data. Data communication comprising object color component data generation means for obtaining object color component data corresponding to image data, and transmission means for transmitting the object color component data to an external device connected to the network. apparatus.

【0193】(2)被写体を再現する方法であって、被
写体の画像データを取得する画像取得工程と、取得され
た前記画像データから、被写体への照明環境の影響を取
り除いた画像のデータに相当する物体色成分データを求
める物体色成分データ生成工程と、前記物体色成分デー
タをネットワークに結合された外部装置に送信する送信
工程と、を備えることを特徴とする被写体再現方法。
(2) A method of reproducing an object, which corresponds to an image acquisition step of acquiring image data of the object, and image data obtained by removing the influence of the illumination environment on the object from the acquired image data. A method for reproducing an object, comprising: an object color component data generating step of obtaining object color component data; and a transmitting step of transmitting the object color component data to an external device connected to a network.

【0194】(3)プログラムであって、前記プログラ
ムのコンピュータによる実行は、前記コンピュータに、
被写体の画像データを取得する画像取得工程と、取得さ
れた前記画像データから、被写体への照明環境の影響を
取り除いた画像のデータに相当する物体色成分データを
求める物体色成分データ生成工程と、前記物体色成分デ
ータをネットワークに結合された外部装置に送信する送
信工程と、を実行させることを特徴とするプログラム。
(3) A program, which is executed by a computer,
An image acquisition step of acquiring image data of the subject; an object color component data generation step of obtaining object color component data corresponding to image data obtained by removing the influence of the illumination environment on the object from the acquired image data; And a transmitting step of transmitting the object color component data to an external device connected to a network.

【0195】上記(1)ないし(3)の構成によれば、
被写体への照明環境の影響を取り除いた画像のデータに
相当する物体色成分データをネットワークに結合された
外部装置に対して送信することができるため、外部装置
において再現画像を生成することができる。これととも
に、外部装置における表示や印刷により、被写体の画像
が取得された場所とは別の場所において被写体の再現画
像を早期に閲覧可能とすることができる。
According to the above configurations (1) to (3),
Since the object color component data corresponding to the image data from which the influence of the illumination environment on the subject is removed can be transmitted to the external device connected to the network, the reproduced image can be generated in the external device. At the same time, the reproduced image of the subject can be viewed early in a place different from the place where the image of the subject was acquired by displaying or printing on the external device.

【0196】[0196]

【発明の効果】以上、説明したように、請求項1、7お
よび9の発明によれば、被写体への照明環境の影響を取
り除いた画像のデータに相当する物体色成分データが示
す被写体の再現画像を生成し外部装置に対して送信する
ことができるため、外部装置における表示や印刷によ
り、被写体の画像が取得された場所とは別の場所におい
て被写体の再現画像を早期に閲覧可能とすることができ
る。
As described above, according to the first, seventh and ninth aspects of the present invention, the reproduction of the object indicated by the object color component data corresponding to the image data in which the influence of the illumination environment on the object is removed. Since an image can be generated and sent to an external device, it is possible to quickly view a reproduced image of the subject at a place different from the place where the image of the subject was acquired by displaying or printing on the external device. You can

【0197】また、請求項2、8および10の発明によ
れば、別の場所において取得された被写体への照明環境
の影響を取り除いた画像のデータに相当する物体色成分
データを受信し、該物体色成分データが示す被写体の再
現画像を生成するため、被写体の画像が取得された場所
とは別の場所において被写体の再現画像を早期に閲覧可
能とすることができる。
According to the second, eighth and tenth aspects of the present invention, the object color component data corresponding to the image data obtained by removing the influence of the illumination environment on the subject acquired at another location is received, Since the reproduced image of the subject represented by the object color component data is generated, the reproduced image of the subject can be viewed early in a place different from the place where the image of the subject was acquired.

【0198】また、請求項3の発明によれば、被写体の
再現画像を印刷することにより、容易に再現画像を閲覧
することができる。
According to the third aspect of the present invention, the reproduced image of the subject can be easily viewed by printing the reproduced image of the subject.

【0199】また、請求項4の発明によれば、受信した
物体色成分データが示す被写体の再現画像をさらに別の
場所において早期に閲覧可能とすることができる。
Further, according to the invention of claim 4, the reproduced image of the object indicated by the received object color component data can be browsed in another place at an early stage.

【0200】また、請求項5および6の発明によれば、
再現画像を生成するための再現条件を指定することがで
きるため、所望の再現画像を生成することができる。
Further, according to the inventions of claims 5 and 6,
Since the reproduction condition for generating the reproduced image can be designated, a desired reproduced image can be generated.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るデータ通信装置が適用される画像
再現システムの概略図である。
FIG. 1 is a schematic diagram of an image reproduction system to which a data communication device according to the present invention is applied.

【図2】デジタルカメラの全体を示す斜視図である。FIG. 2 is a perspective view showing the entire digital camera.

【図3】デジタルカメラの背面図である。FIG. 3 is a rear view of the digital camera.

【図4】デジタルカメラの構成を示すブロック図であ
る。
FIG. 4 is a block diagram showing a configuration of a digital camera.

【図5】プリンタの全体を示す斜視図である。FIG. 5 is a perspective view showing the entire printer.

【図6】プリンタの構成を示すブロック図である。FIG. 6 is a block diagram showing a configuration of a printer.

【図7】第1の実施の形態の画像再現システムの機能を
ブロックにて示す図である。
FIG. 7 is a block diagram showing functions of the image reproduction system according to the first embodiment.

【図8】第1の実施の形態の画像再現システムの動作の
流れを示す図である。
FIG. 8 is a diagram showing a flow of operations of the image reproduction system according to the first embodiment.

【図9】デジタルカメラの撮影時の動作の流れを示す図
である。
FIG. 9 is a diagram showing a flow of operations at the time of shooting by a digital camera.

【図10】物体色成分データを含むファイルのデータ構
造を示す図である。
FIG. 10 is a diagram showing a data structure of a file including object color component data.

【図11】再現画像を生成する処理の流れを示す図であ
る。
FIG. 11 is a diagram showing a flow of processing for generating a reproduced image.

【図12】照明成分データを選択する際の画面を例示す
る図である。
FIG. 12 is a diagram illustrating a screen when selecting illumination component data.

【図13】色順応式を選択する際の画面を例示する図で
ある。
FIG. 13 is a diagram showing an example of a screen when selecting a color adaptation formula.

【図14】順応係数を選択する際の画面を例示する図で
ある。
FIG. 14 is a diagram exemplifying a screen when selecting an adaptation coefficient.

【図15】送信先のプリンタを選択する際の画面を例示
する図である。
FIG. 15 is a diagram exemplifying a screen when selecting a destination printer.

【図16】第2の実施の形態の画像再現システムの機能
をブロックにて示す図である。
FIG. 16 is a block diagram showing functions of the image reproduction system according to the second embodiment.

【図17】第2の実施の形態の画像再現システムの動作
の流れを示す図である。
FIG. 17 is a diagram showing a flow of operations of the image reproduction system of the second embodiment.

【図18】第3の実施の形態の画像再現システムの概略
図である。
FIG. 18 is a schematic diagram of an image reproduction system according to a third embodiment.

【図19】画像サーバおよびユーザコンピュータの構成
を示すブロック図である。
FIG. 19 is a block diagram showing configurations of an image server and a user computer.

【図20】第3の実施の形態の画像再現システムの機能
をブロックにて示す図である。
FIG. 20 is a block diagram showing functions of the image reproduction system according to the third embodiment.

【図21】第3の実施の形態の画像再現システムの動作
の流れを示す図である。
FIG. 21 is a diagram showing a flow of operations of the image reproduction system according to the third embodiment.

【符号の説明】[Explanation of symbols]

1 デジタルカメラ 2 プリンタ 3 画像サーバ 4 ユーザコンピュータ 5 ネットワーク 10 画像再現システム 63 物体色成分データ 141 成分データ生成部 143,243,345 再現条件受付部 144,244,342 再現画像生成部 1 digital camera 2 printer 3 image server 4 User computer 5 network 10 Image reproduction system 63 Object color component data 141 component data generation unit 143, 243, 345 Reproduction condition acceptance section 144, 244, 342 reproduction image generation unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // H04N 101:00 H04N 1/40 D Fターム(参考) 5B050 BA11 CA05 CA07 DA04 EA09 FA03 FA05 5C065 AA03 AA04 BB02 BB03 CC02 CC03 CC08 CC09 DD01 GG30 GG32 5C066 AA01 CA08 EA15 EA17 EB01 GA02 GA03 HA02 KM01 5C077 MM03 MP08 PP32 PP36 PQ12 PQ22 TT09 5C079 HA02 HB01 HB05 HB08 LA02 LA23 MA01 MA11 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) // H04N 101: 00 H04N 1/40 DF term (reference) 5B050 BA11 CA05 CA07 DA04 EA09 FA03 FA05 5C065 AA03 AA04 BB02 BB03 CC02 CC03 CC08 CC09 DD01 GG30 GG32 5C066 AA01 CA08 EA15 EA17 EB01 GA02 GA03 HA02 KM01 5C077 MM03 MP08 PP32 PP36 PQ12 PQ22 TT09 5C079 HA02 HB01 HB05 HB08 LA02 LA23 MA01 MA11

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 ネットワークを介して通信可能なデータ
通信装置であって、 被写体の画像データを取得する画像取得手段と、 取得された前記画像データから、被写体への照明環境の
影響を取り除いた画像のデータに相当する物体色成分デ
ータを求める物体色成分データ生成手段と、 前記物体色成分データの示す被写体を再現する再現画像
を生成する再現画像生成手段と、 生成された前記再現画像を前記ネットワークに結合され
た外部装置に送信する送信手段と、を備えることを特徴
とするデータ通信装置。
1. A data communication device capable of communicating via a network, comprising: an image acquisition unit for acquiring image data of a subject; and an image obtained by removing the influence of a lighting environment on the subject from the acquired image data. Object color component data generating means for obtaining the object color component data corresponding to the data, reproduction image generating means for generating a reproduction image for reproducing the subject indicated by the object color component data, and the generated reproduction image for the network. And a transmitting means for transmitting to an external device coupled to the data communication device.
【請求項2】 ネットワークを介して通信可能なデータ
通信装置であって、 前記ネットワークに結合された外部装置から、被写体へ
の照明環境の影響を取り除いた画像のデータに相当する
物体色成分データを受信する受信手段と、 前記物体色成分データの示す被写体を再現する再現画像
を生成する再現画像生成手段と、 生成された前記再現画像を閲覧可能に出力する出力手段
と、を備えることを特徴とするデータ通信装置。
2. A data communication device capable of communicating via a network, wherein object color component data corresponding to image data from which an influence of an illumination environment on a subject is removed from an external device coupled to the network. Receiving means for receiving, reproduction image generating means for generating a reproduction image for reproducing a subject represented by the object color component data, and output means for outputting the generated reproduction image so that the reproduction image can be viewed. Data communication device.
【請求項3】 請求項2に記載のデータ通信装置におい
て、 前記出力手段は、生成された前記再現画像を印刷する印
刷手段を含むことを特徴とするデータ通信装置。
3. The data communication device according to claim 2, wherein the output unit includes a printing unit that prints the generated reproduction image.
【請求項4】 請求項2に記載のデータ通信装置におい
て、 生成された前記再現画像を前記ネットワークに結合され
た他の外部装置に送信する送信手段、をさらに備えるこ
とを特徴とするデータ通信装置。
4. The data communication device according to claim 2, further comprising: a transmitting unit that transmits the generated reproduced image to another external device coupled to the network. .
【請求項5】 請求項1ないし4のいずれかに記載のデ
ータ通信装置において、 前記再現画像を生成するための再現条件の指定を受け付
ける受付手段、 をさらに備え、 前記再現画像生成手段は、前記再現条件に基づいて前記
再現画像を生成することを特徴とするデータ通信装置。
5. The data communication device according to claim 1, further comprising: a reception unit that receives designation of a reproduction condition for generating the reproduction image, the reproduction image generation unit A data communication device, wherein the reproduced image is generated based on a reproduction condition.
【請求項6】 請求項5に記載のデータ通信装置におい
て、 前記再現条件は、 照明環境が画像に与える影響を示す照明成分データ、 色順応に基づく色変換に用いる色順応式、および、 前記色順応に基づく色変換において前記照明成分データ
が示す照明の影響の度合いを調整する順応係数、のうち
少なくとも1つを含むことを特徴とするデータ通信装
置。
6. The data communication device according to claim 5, wherein the reproduction condition is illumination component data indicating an influence of an illumination environment on an image, a chromatic adaptation formula used for color conversion based on chromatic adaptation, and the color. A data communication device comprising at least one of an adaptation coefficient for adjusting a degree of influence of illumination indicated by the illumination component data in color conversion based on adaptation.
【請求項7】 被写体を再現する方法であって、 被写体の画像データを取得する画像取得工程と、 取得された前記画像データから、被写体への照明環境の
影響を取り除いた画像のデータに相当する物体色成分デ
ータを求める物体色成分データ生成工程と、 前記物体色成分データの示す被写体を再現する再現画像
を生成する再現画像生成工程と、 生成された前記再現画像をネットワークに結合された外
部装置に送信する送信工程と、を備えることを特徴とす
る被写体再現方法。
7. A method of reproducing an object, which comprises an image acquisition step of acquiring image data of the object, and image data obtained by removing the influence of the illumination environment on the object from the acquired image data. An object color component data generation step of obtaining object color component data, a reproduction image generation step of generating a reproduction image that reproduces a subject indicated by the object color component data, and an external device that connects the generated reproduction image to a network. And a transmitting step of transmitting to the subject.
【請求項8】 被写体を再現する方法であって、 ネットワークに結合された外部装置から、被写体への照
明環境の影響を取り除いた画像のデータに相当する物体
色成分データを受信する受信工程と、 前記物体色成分データの示す被写体を再現する再現画像
を生成する再現画像生成工程と、 生成された前記再現画像を閲覧可能に出力する出力工程
と、を備えることを特徴とする被写体再現方法。
8. A method for reproducing a subject, the method comprising: receiving from an external device connected to a network, object color component data corresponding to image data from which the influence of the illumination environment on the subject has been removed, A subject reproduction method comprising: a reproduction image generating step of generating a reproduction image that reproduces a subject indicated by the object color component data; and an output step of outputting the generated reproduction image so that the reproduction image can be browsed.
【請求項9】 プログラムであって、前記プログラムの
コンピュータによる実行は、前記コンピュータに、 被写体の画像データを取得する画像取得工程と、 取得された前記画像データから、被写体への照明環境の
影響を取り除いた画像のデータに相当する物体色成分デ
ータを求める物体色成分データ生成工程と、 前記物体色成分データの示す被写体を再現する再現画像
を生成する再現画像生成工程と、 生成された前記再現画像をネットワークに結合された外
部装置に送信する送信工程と、を実行させることを特徴
とするプログラム。
9. A program, which is executed by a computer, wherein the computer executes an image acquisition step of acquiring image data of an object, and an influence of an illumination environment on the object from the acquired image data. An object color component data generation step of obtaining object color component data corresponding to the data of the removed image; a reproduction image generation step of generating a reproduction image that reproduces the subject indicated by the object color component data; and the generated reproduction image And a transmission step of transmitting the data to an external device coupled to the network.
【請求項10】 プログラムであって、前記プログラム
のコンピュータによる実行は、前記コンピュータに、 ネットワークに結合された外部装置から、被写体への照
明環境の影響を取り除いた画像のデータに相当する物体
色成分データを受信する受信工程と、 前記物体色成分データの示す被写体を再現する再現画像
を生成する再現画像生成工程と、 生成された前記再現画像を閲覧可能に出力する出力工程
と、を実行させることを特徴とするプログラム。
10. A program for executing the program by a computer, wherein an object color component corresponding to image data obtained by removing an influence of an illumination environment on a subject from an external device connected to the network by the computer. Performing a reception step of receiving data, a reproduction image generation step of generating a reproduction image that reproduces a subject indicated by the object color component data, and an output step of outputting the generated reproduction image so that the reproduction image can be viewed. A program characterized by.
JP2001258478A 2001-08-28 2001-08-28 Data communication equipment, object reproducing method and program Pending JP2003069838A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001258478A JP2003069838A (en) 2001-08-28 2001-08-28 Data communication equipment, object reproducing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001258478A JP2003069838A (en) 2001-08-28 2001-08-28 Data communication equipment, object reproducing method and program

Publications (1)

Publication Number Publication Date
JP2003069838A true JP2003069838A (en) 2003-03-07

Family

ID=19085996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001258478A Pending JP2003069838A (en) 2001-08-28 2001-08-28 Data communication equipment, object reproducing method and program

Country Status (1)

Country Link
JP (1) JP2003069838A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007007798A1 (en) * 2005-07-12 2007-01-18 Nikon Corporation Image processing device, image processing program, and image processing method
JP2009272709A (en) * 2008-04-30 2009-11-19 Canon Inc Image processing apparatus, method, and program
JP2018046510A (en) * 2016-09-16 2018-03-22 セコム株式会社 Color conversion table creation device, color conversion device, color conversion system, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007007798A1 (en) * 2005-07-12 2007-01-18 Nikon Corporation Image processing device, image processing program, and image processing method
JP4883007B2 (en) * 2005-07-12 2012-02-22 株式会社ニコン Image processing apparatus, image processing program, and image processing method
US8270712B2 (en) 2005-07-12 2012-09-18 Nikon Corporation Image processing device, image processing program, and image processing method
JP2009272709A (en) * 2008-04-30 2009-11-19 Canon Inc Image processing apparatus, method, and program
JP2018046510A (en) * 2016-09-16 2018-03-22 セコム株式会社 Color conversion table creation device, color conversion device, color conversion system, and program

Similar Documents

Publication Publication Date Title
JP4083760B2 (en) Method and apparatus for adjusting white balance
US20040160614A1 (en) Color reproducing device
US20020080245A1 (en) Camera having verification display with reverse white balanced viewer adaptation compensation and method
JP5214485B2 (en) Image capturing apparatus, image processing method, and image processing program
JP5407600B2 (en) Image processing apparatus, image processing method, and electronic camera
JP2002325260A (en) Camera having display apparatus for confirmation provided with adaptative compensation of observer to reference light source
US20020076219A1 (en) Image data management apparatus and method
JP4557478B2 (en) Image processing apparatus, image processing method, and recording medium
JP2003289549A (en) Image processing system, imaging device, and parameter deciding program for the device
US20040201726A1 (en) Digital camera and method for balancing color in a digital image
JP2003069838A (en) Data communication equipment, object reproducing method and program
JP4906658B2 (en) Color processing apparatus and method
US20040174433A1 (en) Image processing apparatus
JPH11355584A (en) Picture processor
JP2003198867A (en) Program for generating profile, and profile generation system
JP2012195760A (en) Shooting setting adjustment system, information processing unit, and control method and control program therefor
JPH11327012A (en) Photographic system
JP2017212640A (en) Color adjustment device and color adjustment system
JP2002238056A (en) Digital imaging device, program and recording medium
JP2006081654A (en) Image forming method, and device therefor
JP2010239498A (en) Image input/output method and system
JP2001008224A (en) Image storage device, image reproducing device, image storage method, image reproducing method and recording medium
JP2001016607A (en) Digital photographing device and digital photographing method
JPH09160103A (en) Color adjusting device for image by stroboscope
JP4448416B2 (en) Image processing method and apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20041116

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20041130