JP2007142551A - Program and information processing apparatus - Google Patents

Program and information processing apparatus Download PDF

Info

Publication number
JP2007142551A
JP2007142551A JP2005330236A JP2005330236A JP2007142551A JP 2007142551 A JP2007142551 A JP 2007142551A JP 2005330236 A JP2005330236 A JP 2005330236A JP 2005330236 A JP2005330236 A JP 2005330236A JP 2007142551 A JP2007142551 A JP 2007142551A
Authority
JP
Japan
Prior art keywords
terminal device
data
performance
control unit
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005330236A
Other languages
Japanese (ja)
Inventor
Noriyoshi Tachikawa
法義 立川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2005330236A priority Critical patent/JP2007142551A/en
Publication of JP2007142551A publication Critical patent/JP2007142551A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a means capable of applying development processing to many numbers of RAW image data in a shorter time. <P>SOLUTION: A program disclosed herein is associated with a computer provided with a control section, a first recording means for recording a plurality of the RAW image data, and a communication means for making communication with an image processing apparatus, the control section detects at least one image processing apparatus, and the program is characterized by allowing the control section to execute the steps of: recognizing by the control section each detected image processing apparatus as each terminal; respectively acquiring performance data associated with the performance of each terminal by the control section; generating a performance table; generating by the control section a schedule table for specifying distribution of the development processing executed by each terminal on the basis of the performance table; and transmitting by the control section the RAW image data and instruction data of the development processing to each terminal respectively on the basis of the schedule table. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理装置にRAW画像データの現像処理を実行させるコンピュータに関する。   The present invention relates to a computer that causes an image processing apparatus to execute development processing of RAW image data.

例えば、特許文献1に示すように、RAW画像データをコンピュータの記録装置に蓄積するとともに、RAW画像データの現像処理をコンピュータに実行させるデジタルカメラシステムは従来から公知である。ここで、RAW画像データでは、撮像素子の画素ごとのデジタルデータが一切の画像処理を行わずに記録される。また、RAW画像データの現像処理には、信号レベル補正、ホワイトバランス調整、ガンマ補正、色補間、色差変換、圧縮処理などが含まれる。
特開2003−87618号公報
For example, as shown in Patent Document 1, a digital camera system that stores RAW image data in a computer recording apparatus and causes the computer to execute development processing of the RAW image data is conventionally known. Here, in the RAW image data, digital data for each pixel of the image sensor is recorded without performing any image processing. The development processing of RAW image data includes signal level correction, white balance adjustment, gamma correction, color interpolation, color difference conversion, compression processing, and the like.
JP 2003-87618 A

ところで、コンピュータの汎用CPU上でソフトウエアによる現像処理を行う場合、画像処理エンジン(画像処理専用のプロセッサ)による現像処理と比べて所要時間が長くなる。特に近年の電子カメラでは画像処理の高度化と高画素化とが一層進展しているため、上記の傾向はより顕著となっている。そのため、コンピュータの記録装置に蓄積した多数のRAW画像データをより短い時間で現像処理できる手段が要請されている。   By the way, when performing development processing by software on a general-purpose CPU of a computer, the required time becomes longer compared to development processing by an image processing engine (a processor dedicated to image processing). In particular, in recent electronic cameras, since the advancement of image processing and the increase in the number of pixels have further progressed, the above-mentioned tendency becomes more remarkable. Therefore, there is a demand for means capable of developing a large number of raw image data stored in a computer recording apparatus in a shorter time.

本発明は上記従来技術の課題を解決するためのものであって、その目的は、多数のRAW画像データをより短い時間で現像処理できるプログラムおよび情報処理装置を提供することである。   SUMMARY An advantage of some aspects of the invention is that it provides a program and an information processing apparatus capable of developing a large number of RAW image data in a shorter time.

第1の発明は、制御部と、複数のRAW画像データを記録した第1記録手段と、RAW画像データに現像処理を施す画像処理装置に通信を行う通信手段と、を備えたコンピュータに関するプログラムである。このプログラムは、認識ステップと、性能テーブル生成ステップと、スケジュールテーブル生成ステップと、送信ステップと、を制御部に実行させる。   According to a first aspect of the present invention, there is provided a program related to a computer including a control unit, a first recording unit that records a plurality of raw image data, and a communication unit that communicates with an image processing apparatus that performs development processing on the raw image data. is there. This program causes the control unit to execute a recognition step, a performance table generation step, a schedule table generation step, and a transmission step.

認識ステップでは、制御部が通信手段を介して通信可能な少なくとも1つの画像処理装置を検出し、該検出した各画像処理装置をそれぞれ端末装置として認識する。性能テーブル生成ステップでは、制御部が端末装置の性能に関する性能データをそれぞれ取得するとともに、端末装置と性能データとの対応関係を示す性能テーブルを生成する。スケジュールテーブル生成ステップでは、性能テーブルに基づいて、制御部が、各々の端末装置により実行される現像処理の配分を規定したスケジュールテーブルを生成する。送信ステップでは、スケジュールテーブルに基づいて、制御部がRAW画像データおよび現像処理の命令データを各端末装置にそれぞれ送信する。   In the recognition step, the control unit detects at least one image processing device that can communicate via the communication means, and recognizes each detected image processing device as a terminal device. In the performance table generation step, the control unit acquires performance data related to the performance of the terminal device, and generates a performance table indicating a correspondence relationship between the terminal device and the performance data. In the schedule table generation step, based on the performance table, the control unit generates a schedule table that defines the distribution of development processing executed by each terminal device. In the transmission step, the control unit transmits the RAW image data and the development processing command data to each terminal device based on the schedule table.

第2の発明は、第1の発明において、認識ステップにおいて、制御部が、RAW画像データに対して現像処理を実行可能な電子カメラを端末装置として認識することを特徴とする。
第3の発明は、第1の発明において、性能データは、端末装置の現像処理速度および端末装置との通信速度によって規定される処理時間のデータを含む。そして、スケジュールテーブル生成ステップにおいて、制御部は各々の端末装置の処理時間の長さに応じて現像処理の配分量を規定することを特徴とする。
According to a second aspect, in the first aspect, in the recognition step, the control unit recognizes, as a terminal device, an electronic camera capable of executing development processing on RAW image data.
In a third aspect based on the first aspect, the performance data includes processing time data defined by the development processing speed of the terminal device and the communication speed with the terminal device. In the schedule table generating step, the control unit defines the distribution amount of the development processing according to the length of processing time of each terminal device.

第4の発明は、第1の発明において、性能データは、端末装置が有する機能を示す機能データを含む。そして、スケジュールテーブル生成ステップにおいて、制御部は、特定の機能に依存する処理が要求される現像処理を、機能データに基づいて対応機能を有する端末装置に配分することを特徴とする。
第5の発明は、第3の発明において、コンピュータは、端末装置の種類と現像処理速度との対応関係を示す第1テーブルと、通信手段の種類と通信速度との対応関係を示す第2テーブルとを記録する第2記録手段をさらに備える。そして、認識ステップは、制御部が端末装置の種類および通信手段の種類のデータをそれぞれ取得する種類データ取得ステップを含む。性能テーブル生成ステップは、第1テーブルおよび第2テーブルに基づいて、制御部が現像処理速度および通信速度の推定データを取得する速度推定データ取得ステップと、推定データに基づいて、制御部が処理時間を演算する推定処理時間演算ステップと、を含むことを特徴とする。
In a fourth aspect based on the first aspect, the performance data includes function data indicating a function of the terminal device. In the schedule table generation step, the control unit distributes development processing requiring processing dependent on a specific function to terminal devices having a corresponding function based on the function data.
In a fifth aspect based on the third aspect, the computer has a first table indicating a correspondence relationship between the terminal device type and the development processing speed, and a second table indicating a correspondence relationship between the communication means type and the communication speed. And a second recording means for recording. The recognition step includes a type data acquisition step in which the control unit acquires data of the type of terminal device and the type of communication means. The performance table generation step includes a speed estimation data acquisition step in which the control unit acquires estimated data of the development processing speed and communication speed based on the first table and the second table, and a control unit determines the processing time based on the estimated data. And an estimated processing time calculating step for calculating.

第6の発明は、第3の発明において、性能テーブル生成ステップは、制御部が端末装置にテストデータを送信し、テストデータに対する端末装置からの返信結果に基づいて処理時間のデータを取得する処理時間取得ステップを含むことを特徴とする。
第7の発明は、第3の発明において、性能テーブル生成ステップは、制御部が少なくとも1つの端末装置から現像処理後の画像データを受信し、該受信結果により処理時間の実測値を取得する実測値取得ステップと、制御部が実測値に基づいて性能テーブルを更新する性能テーブル更新ステップとを含む。スケジュールテーブル生成ステップは、更新後の性能テーブルに基づいて、制御部がスケジュールテーブルを生成することを特徴とする。
In a sixth aspect based on the third aspect, the performance table generation step is a process in which the control unit transmits test data to the terminal device, and obtains processing time data based on a return result from the terminal device with respect to the test data. A time acquisition step is included.
In a seventh aspect based on the third aspect, the performance table generating step is an actual measurement in which the control unit receives image data after development processing from at least one terminal device, and acquires an actual value of processing time based on the reception result. A value acquisition step, and a performance table update step in which the control unit updates the performance table based on the actual measurement value. The schedule table generation step is characterized in that the control unit generates the schedule table based on the updated performance table.

第8の発明は、第1の発明において、制御部が通信不能状態にある端末装置を検出する通信不能端末検出ステップと、通信不能状態にある端末装置が検出された場合には、制御部が通信不能状態の端末装置を除外してスケジュールテーブルを再設定するスケジュールテーブル再設定ステップと、をさらに有することを特徴とする。
第9の発明は、第1から第8のいずれかの発明において、制御部は、RAW画像データに対して現像処理を実行可能であって、認識ステップにおいて、制御部がコンピュータを端末装置の一つとして認識し、性能テーブル生成ステップにおいて、制御部がコンピュータの性能データを性能テーブルに組み込み、スケジュールテーブル生成ステップにおいて、制御部がコンピュータに配分する現像処理をスケジュールテーブルに組み込むことを特徴とする。
According to an eighth invention, in the first invention, when the communication unit detects a terminal device in a communication disabled state and the control unit detects a terminal device in a communication disabled state, the control unit And a schedule table resetting step of resetting the schedule table by excluding terminal devices in an incommunicable state.
In a ninth aspect based on any one of the first to eighth aspects, the control unit can execute development processing on the RAW image data. In the recognition step, the control unit connects the computer to the terminal device. In the performance table generation step, the control unit incorporates the computer performance data into the performance table, and in the schedule table generation step, the development processing distributed to the computer by the control unit is incorporated into the schedule table.

なお、上記発明に関する構成を、上記プログラムを実行する情報処理装置、上記プログラムを格納した記録媒体、あるいは情報処理装置および画像処理装置を備えた情報処理方法または情報処理システムなどに変換して表現したものも本発明の具体的態様として有効である。   The configuration related to the invention is expressed by converting it into an information processing device that executes the program, a recording medium that stores the program, an information processing method or an information processing system that includes the information processing device and the image processing device, and the like. Are also effective as specific embodiments of the present invention.

本発明のプログラムおよび情報処理装置によれば、多数のRAW画像データをより短い時間で現像処理できる。   According to the program and the information processing apparatus of the present invention, a large number of RAW image data can be developed in a shorter time.

以下、図面に基づいて本発明の実施形態である情報処理システムを説明する。
(本実施形態の情報処理システムの構成)
図1は、本実施形態の情報処理システムの構成を示す概要図である。情報処理システムは、情報処理装置11と、端末装置21とを有する。この情報処理システムでは、1台の情報処理装置11に対して複数台の端末装置21を接続できる。情報処理装置11と各端末装置22とは公知の通信手段でそれぞれ通信が可能である。また、各端末装置21は、RAW画像データの現像処理を実行する画像処理装置で構成される。なお、端末装置21となる画像処理装置としては、画像処理エンジンを有する電子カメラや、現像処理機能をもつソフトウエアを実行する端末コンピュータなどが該当する。
Hereinafter, an information processing system according to an embodiment of the present invention will be described with reference to the drawings.
(Configuration of information processing system of this embodiment)
FIG. 1 is a schematic diagram showing the configuration of the information processing system of the present embodiment. The information processing system includes an information processing device 11 and a terminal device 21. In this information processing system, a plurality of terminal devices 21 can be connected to one information processing device 11. The information processing apparatus 11 and each terminal apparatus 22 can communicate with each other by a known communication unit. Each terminal device 21 is composed of an image processing device that executes development processing of RAW image data. The image processing apparatus serving as the terminal device 21 corresponds to an electronic camera having an image processing engine, a terminal computer that executes software having a development processing function, and the like.

次に、図1を参照しつつ情報処理装置11の構成を説明する。情報処理装置11は、通信I/F12と、入力部13およびモニタ14と、記録部15と、CPU16とを有している。この情報処理装置11は、情報処理システムを構成する端末装置21を認識するとともに、各端末装置21にRAW画像データの現像処理を配分する。なお、情報処理装置11は、現像処理を実行する画像処理装置としても機能する。   Next, the configuration of the information processing apparatus 11 will be described with reference to FIG. The information processing apparatus 11 includes a communication I / F 12, an input unit 13 and a monitor 14, a recording unit 15, and a CPU 16. The information processing apparatus 11 recognizes the terminal device 21 that configures the information processing system, and distributes development processing of RAW image data to each terminal device 21. The information processing apparatus 11 also functions as an image processing apparatus that executes development processing.

通信I/F12は、有線または無線の公知の通信手段で端末装置21とのデータ送受信を行う。例えば、通信I/F12は、USB(Universal Serial Bus)やIEEE1394等のシリアル通信規格による通信、有線のLANによる通信、あるいは、IEEE802.11a/b/g等の無線LANによる通信などを制御する。
また、通信I/F12は、上記のシリアル通信規格等の接続端子(不図示)を有している。なお、情報処理装置11と端末装置21とが有線通信を行う場合、接続端子を介して情報処理装置11が端末装置21と接続されることとなる。
The communication I / F 12 performs data transmission / reception with the terminal device 21 by a known wired or wireless communication means. For example, the communication I / F 12 controls communication using a serial communication standard such as USB (Universal Serial Bus) or IEEE1394, communication using a wired LAN, or communication using a wireless LAN such as IEEE802.11a / b / g.
The communication I / F 12 has a connection terminal (not shown) such as the serial communication standard. When the information processing device 11 and the terminal device 21 perform wired communication, the information processing device 11 is connected to the terminal device 21 through a connection terminal.

入力部13は、キーボードやポインティングデバイス等で構成される。ユーザーは入力部13を介してRAW画像データの現像処理の詳細設定をCPU16に指示できる。また、モニタ14にはCPU16が出力指示した画像が表示される。なお、モニタ14の表示画像の例としては、CPU16による端末装置21の検出状態の表示や、情報処理システムによる現像処理の進捗状況などの表示が挙げられる(表示画像の図示は省略する)。   The input unit 13 includes a keyboard, a pointing device, and the like. The user can instruct the CPU 16 for detailed setting of development processing of RAW image data via the input unit 13. The monitor 14 displays an image instructed to be output by the CPU 16. Examples of the display image on the monitor 14 include display of the detection state of the terminal device 21 by the CPU 16 and display of the progress of development processing by the information processing system (illustration of the display image is omitted).

記録部15は例えばハードディスクなどで構成される。この記録部15には、RAW画像データを多数記録することができる。個々のRAW画像データは、ヘッダファイルと、RAW形式の画像データ本体とで構成されている。上記のヘッダファイルには、撮影条件などのデータが所定形式で記録されている。また、記録部15には、性能テーブルと、スケジュールテーブルと、第1テーブルと、第2テーブルとのデータが記録される。   The recording unit 15 is composed of, for example, a hard disk. A large number of RAW image data can be recorded in the recording unit 15. Each RAW image data is composed of a header file and a RAW format image data body. In the header file, data such as shooting conditions are recorded in a predetermined format. The recording unit 15 records data of a performance table, a schedule table, a first table, and a second table.

性能テーブルには、端末装置と性能データとの対応関係が記録される。この性能テーブルは現像処理時にCPU16が生成する。
図3は性能テーブルの構成を模式的に示す図である。性能テーブルには、各端末装置21ごとの性能データが記録されている。なお、性能テーブルには、端末装置21としての情報処理装置11の性能データも記録される。
In the performance table, the correspondence between the terminal device and the performance data is recorded. This performance table is generated by the CPU 16 during development processing.
FIG. 3 is a diagram schematically showing the configuration of the performance table. Performance data for each terminal device 21 is recorded in the performance table. Note that the performance data of the information processing apparatus 11 as the terminal device 21 is also recorded in the performance table.

性能テーブルの性能データには、「端末装置の現像処理能力」と、「通信速度」と、「メモリ容量」と、「総合処理時間」とのデータが含まれる。上記の「端末装置の現像処理能力」には、「標準処理時間」と、「ノイズリダクション情報」と、「色補間情報」と、「収差補正情報」との各データが含まれる。
「標準処理時間」の項目には、その端末装置21がRAW画像データに標準的な現像処理を施した場合の単位データ量当たりの処理時間が記録される。なお、図3の例では、説明の便宜上、RAW画像データの100万画素分を単位データ量とする。
The performance data of the performance table includes data of “development processing capability of the terminal device”, “communication speed”, “memory capacity”, and “total processing time”. The “development processing capability of the terminal device” includes data of “standard processing time”, “noise reduction information”, “color interpolation information”, and “aberration correction information”.
In the item “standard processing time”, the processing time per unit data amount when the terminal device 21 performs standard development processing on the RAW image data is recorded. In the example of FIG. 3, for convenience of explanation, the unit data amount is 1 million pixels of RAW image data.

「ノイズリダクション情報」の項目には、現像処理時に端末装置21がノイズリダクション処理を行った場合の単位データ量当たりの処理時間が記録される。なお、ノイズリダクション処理機能のない端末装置は、この「ノイズリダクション情報」の処理時間のデータを有しない。
「色補間情報」の項目には、各端末装置21の色補間アルゴリズムの種類(アルゴリズムのバージョンの情報)が記録される。なお、図3の例ではアルゴリズムのバージョンを数字で示す。この数字はアルゴリズムのバージョンが新しくなるほど大きくなるものとする。
In the item “noise reduction information”, a processing time per unit data amount when the terminal device 21 performs the noise reduction processing during the development processing is recorded. Note that a terminal device having no noise reduction processing function does not have processing time data of the “noise reduction information”.
In the item “color interpolation information”, the type of color interpolation algorithm (algorithm version information) of each terminal device 21 is recorded. In the example of FIG. 3, the algorithm version is indicated by a number. This number will increase as the algorithm version is updated.

「収差補正情報」の項目には、現像処理時に端末装置21がレンズの収差補正処理(例えば、軸上色収差または倍率色収差の補正)を行った場合の単位データ量当たりの処理時間が記録される。なお、レンズの収差補正処理機能のない端末装置は、この「収差補正情報」の処理時間のデータを有しない。
「通信速度」の項目には、情報処理装置11と端末装置21との通信速度(MB/sec)が記録される。なお、端末装置21としての情報処理装置11は、RAW画像データの転送時間が存在しないのでこの項目のデータを有しない。また、「メモリ容量」の項目には、端末装置21(電子カメラ)のバッファメモリの容量が記録される。
In the item of “aberration correction information”, the processing time per unit data amount when the terminal device 21 performs lens aberration correction processing (for example, correction of axial chromatic aberration or lateral chromatic aberration) during the development processing is recorded. . Note that a terminal device that does not have a lens aberration correction processing function does not have processing time data of the “aberration correction information”.
In the item “communication speed”, the communication speed (MB / sec) between the information processing apparatus 11 and the terminal apparatus 21 is recorded. Note that the information processing apparatus 11 as the terminal device 21 does not have data for this item because there is no RAW image data transfer time. In the item “memory capacity”, the capacity of the buffer memory of the terminal device 21 (electronic camera) is recorded.

「総合処理時間」の項目には、単位データ量のRAW画像データを端末装置21に送信し、現像処理後の画像データを情報処理装置11が受信終了するまでの時間(総合処理時間)が記録される。この総合処理時間は、通常は「標準処理時間」での処理時間および「通信速度」とに基づいてCPU16が演算する。
ここで、「ノイズリダクション情報」および「収差補正情報」にも処理時間のデータがある場合、CPU16は上記項目に対応する処理時間についても総合処理時間をそれぞれ演算する。そして、CPU16はノイズリダクション処理やレンズの収差補正処理を行った場合の総合処理時間も性能テーブルにそれぞれ記録する。
In the item of “total processing time”, the time (total processing time) until transmission of the RAW image data of the unit data amount to the terminal device 21 and the end of reception of the image data after the development processing is recorded. Is done. This total processing time is normally calculated by the CPU 16 based on the processing time in the “standard processing time” and the “communication speed”.
Here, if the “noise reduction information” and the “aberration correction information” also have processing time data, the CPU 16 calculates the total processing time for the processing times corresponding to the above items. The CPU 16 also records the total processing time when the noise reduction process and the lens aberration correction process are performed in the performance table.

スケジュールテーブルには、各端末装置21で実行される現像処理の配分のデータが記録される。このスケジュールテーブルは、現像処理時にCPU16が生成する。
図4はスケジュールテーブルの構成を模式的に示す図である。スケジュールテーブルには、現像処理されるRAW画像データの識別番号と各端末装置21とがそれぞれ対応付けされる。なお、スケジュールテーブルには、端末装置21としての情報処理装置11に対する現像処理の配分も記録される。
In the schedule table, data of distribution of development processing executed in each terminal device 21 is recorded. This schedule table is generated by the CPU 16 during development processing.
FIG. 4 is a diagram schematically showing the configuration of the schedule table. In the schedule table, the identification number of the RAW image data to be developed and each terminal device 21 are associated with each other. In the schedule table, the distribution of development processing to the information processing apparatus 11 as the terminal device 21 is also recorded.

第1テーブルには、端末装置21となりうる電子カメラの種類と、各々の電子カメラの性能データとの対応関係が記録されている。この第1テーブルは、ユーザーによる情報処理装置11への入力または外部からのデータ読み込みなどの手段により、記録部15に予め記録されている。
図5は第1テーブルの構成を模式的に示す図である。第1テーブルには、電子カメラの種類(型番などの識別コード)ごとに性能データが対応付けされている。この第1テーブルの性能データには、「現像処理能力」と、「バッファメモリ容量」と、「インターフェースの種類」とのデータが含まれる。ここで、第1テーブルの「現像処理能力」のデータは、性能テーブルの「端末装置の現像処理能力」に対応する。また、第1テーブルの「バッファメモリ容量」のデータは、性能テーブルの「メモリ容量」に対応する。また、「インターフェースの種類」には、その電子カメラが対応する通信手段の種類が記録されている。
In the first table, the correspondence between the types of electronic cameras that can be the terminal device 21 and the performance data of each electronic camera is recorded. This first table is recorded in advance in the recording unit 15 by means such as an input to the information processing apparatus 11 by a user or data reading from the outside.
FIG. 5 is a diagram schematically showing the configuration of the first table. In the first table, performance data is associated with each type of electronic camera (identification code such as a model number). The performance data of the first table includes data of “development processing capacity”, “buffer memory capacity”, and “interface type”. Here, the “development processing capability” data in the first table corresponds to “development processing capability of the terminal device” in the performance table. The data of “buffer memory capacity” in the first table corresponds to “memory capacity” in the performance table. In “Interface type”, the type of communication means supported by the electronic camera is recorded.

第2テーブルには、通信規格の種類と通信速度との対応関係が記録されている。この第2テーブルは、ユーザーによる情報処理装置11への入力または外部からのデータ読み込みなどの手段により、記録部15に予め記録されている。
図6は第2テーブルの構成を模式的に示す図である。この第2テーブルには、「USB1.1」、「USB2.0」、「IEEE1394」、「IEEE802.11a」、「IEEE802.11b」、「IEEE802.11g」の各規格について、それぞれ通信速度のデータが対応付けされている。
The correspondence relationship between the type of communication standard and the communication speed is recorded in the second table. This second table is recorded in advance in the recording unit 15 by means such as an input to the information processing apparatus 11 by the user or data reading from the outside.
FIG. 6 is a diagram schematically showing the configuration of the second table. In the second table, data of communication speeds for the respective standards of “USB1.1”, “USB2.0”, “IEEE1394”, “IEEE802.11a”, “IEEE802.11b”, and “IEEE802.11g” are shown. Are associated with each other.

CPU16は、シーケンスプログラムに従って情報処理装置11の各部動作を制御する。例えば、CPU16は、「端末装置の認識」、「性能テーブルの生成および更新」、「スケジュールテーブルの生成、更新および再設定」、「端末装置へのRAW画像データの送信」などを実行する。
また、CPU16は、通信I/F12からの信号出力により接続端子を介して端末装置21の通信不能状態を検出する。この通信不能状態の例としては、USB端子でのケーブル抜けによる接続解除などが挙げられる。さらに、CPU16は時計機能を内蔵している。そして、CPU16は時計機能によって通信時のタイムアウト判定や処理時間のカウントなどを実行する。
CPU16 controls operation | movement of each part of the information processing apparatus 11 according to a sequence program. For example, the CPU 16 executes “terminal device recognition”, “performance table generation and update”, “schedule table generation, update and reset”, “transmission of RAW image data to the terminal device”, and the like.
Further, the CPU 16 detects a communication disabled state of the terminal device 21 via the connection terminal based on a signal output from the communication I / F 12. As an example of this incommunicable state, connection release due to disconnection of the cable at the USB terminal can be cited. Furthermore, the CPU 16 has a built-in clock function. Then, the CPU 16 executes time-out determination during communication, count of processing time, and the like by a clock function.

また、CPU16は画像処理プログラムを実行する。この画像処理プログラムはRAW画像データの現像処理機能を有する。そのため、CPU16はRAW画像データに画像処理を施して現像済画像データを生成できる。
次に、端末装置21となる画像処理装置を説明する。図2(a)は端末装置21を構成しうる電子カメラのブロック図である。
The CPU 16 executes an image processing program. This image processing program has a RAW image data development processing function. Therefore, the CPU 16 can generate developed image data by performing image processing on the RAW image data.
Next, an image processing apparatus serving as the terminal device 21 will be described. FIG. 2A is a block diagram of an electronic camera that can constitute the terminal device 21.

電子カメラは、撮影レンズ22と、撮像素子23と、A/D変換部24と、バッファメモリ25と、画像処理部26と、カードI/F27と、通信I/F28と、CPU29とを有する。なお、バッファメモリ25、画像処理部26、カードI/F27、通信I/F28およびCPU29は、データバスを介して接続されている。
撮像素子23は、撮影レンズ22を通過した光束を光電変換して被写体像のアナログ画像信号を生成する。A/D変換部24は撮像素子23のアナログ画像信号をデジタル画像信号に変換する。
The electronic camera includes a photographic lens 22, an image sensor 23, an A / D converter 24, a buffer memory 25, an image processor 26, a card I / F 27, a communication I / F 28, and a CPU 29. The buffer memory 25, the image processing unit 26, the card I / F 27, the communication I / F 28, and the CPU 29 are connected via a data bus.
The image sensor 23 photoelectrically converts the light beam that has passed through the photographing lens 22 to generate an analog image signal of the subject image. The A / D converter 24 converts the analog image signal of the image sensor 23 into a digital image signal.

バッファメモリ25は画像処理部26での画像処理の前工程および後工程においてデータを一時的に保存する。また、情報処理システムでの現像処理時において、バッファメモリ25には情報処理装置11から受信したRAW画像データが一時的に格納される。
画像処理部26は画像処理専用に設計されたASICである。この画像処理部26はA/D変換部24からのデジタル画像信号に画像処理を施す。この画像処理部26は画像処理機能の1つとしてRAW画像データの現像処理機能を有する。すなわち、画像処理部26はRAW画像データに画像処理を施して現像済画像データを生成できる。
The buffer memory 25 temporarily stores data in the pre-process and post-process of image processing in the image processing unit 26. In the development process in the information processing system, the RAW image data received from the information processing apparatus 11 is temporarily stored in the buffer memory 25.
The image processing unit 26 is an ASIC designed exclusively for image processing. The image processing unit 26 performs image processing on the digital image signal from the A / D conversion unit 24. The image processing unit 26 has a RAW image data development processing function as one of the image processing functions. That is, the image processing unit 26 can generate developed image data by performing image processing on the RAW image data.

カードI/F27には記録媒体30を接続するためのコネクタが形成されている。記録媒体30は公知の半導体メモリなどで構成される。そして、カードI/F27は記録媒体30に対する現像済画像データの書き込み/読み込みを制御する。
通信I/F28は、有線または無線の公知の通信手段で情報処理装置11とのデータ送受信を行う。なお、通信I/F28は、上記のシリアル通信規格等の接続端子を有していてもよい。CPU29は、シーケンスプログラムに従って電子カメラの各部動作を制御する。
A connector for connecting the recording medium 30 is formed on the card I / F 27. The recording medium 30 is composed of a known semiconductor memory or the like. The card I / F 27 controls writing / reading of the developed image data with respect to the recording medium 30.
The communication I / F 28 transmits / receives data to / from the information processing apparatus 11 by a known wired or wireless communication unit. Note that the communication I / F 28 may have a connection terminal such as the serial communication standard described above. The CPU 29 controls the operation of each part of the electronic camera according to the sequence program.

また、図2(b)は端末装置21を構成しうる端末コンピュータのブロック図である。端末コンピュータは、CPU31と、バッファメモリ32と、通信I/F33とを有している。
CPU31は端末コンピュータの各部を制御する。また、CPU31はRAW画像データの現像処理機能を有する画像処理プログラムを実行する。バッファメモリ32はCPU31が実行するプログラムやRAW画像データ等の各種データを一時的に記録する。通信I/F33は、有線または無線の公知の通信手段で情報処理装置11とのデータ送受信を行う。なお、通信I/F33は上記のシリアル通信規格等の接続端子を有していてもよい。
FIG. 2B is a block diagram of a terminal computer that can constitute the terminal device 21. The terminal computer has a CPU 31, a buffer memory 32, and a communication I / F 33.
The CPU 31 controls each part of the terminal computer. Further, the CPU 31 executes an image processing program having a function for developing RAW image data. The buffer memory 32 temporarily records various data such as programs executed by the CPU 31 and RAW image data. The communication I / F 33 performs data transmission / reception with the information processing apparatus 11 by a known wired or wireless communication means. The communication I / F 33 may have a connection terminal such as the serial communication standard described above.

(本実施形態の情報処理システムの動作)
以下、本実施形態における情報処理装置11の動作を、図6および図7の流れ図を参照しつつ説明する。
ステップ101:情報処理装置11のCPU16は、ユーザーによる開始指示を入力部13から受け付ける。このとき、ユーザーによって、CPU16には「RAW画像データの指定入力」や「現像処理の詳細設定」が入力部13から入力される。
(Operation of the information processing system of this embodiment)
Hereinafter, the operation of the information processing apparatus 11 in the present embodiment will be described with reference to the flowcharts of FIGS. 6 and 7.
Step 101: The CPU 16 of the information processing apparatus 11 receives a start instruction from the user from the input unit 13. At this time, the user inputs “RAW image data designation input” and “detailed setting of development processing” to the CPU 16 from the input unit 13.

ここで、「RAW画像データの指定入力」では、記録部15のRAW画像データ群のうちから、今回の処理対象となるRAW画像データをユーザーが指定する。また、「現像処理の詳細設定」では、個々のRAW画像データごとの現像処理の設定をユーザーが調整する。この「現像処理の詳細設定」では、ノイズリダクション処理の要否、レンズの収差補正処理の要否、色補間処理のアルゴリズムの指定、などがCPU16に入力される。   Here, in the “RAW image data designation input”, the user designates the RAW image data to be processed this time from the RAW image data group of the recording unit 15. In “detailed setting of development processing”, the user adjusts the setting of development processing for each RAW image data. In this “detailed setting of development processing”, whether or not noise reduction processing is necessary, whether or not lens aberration correction processing is necessary, an algorithm specification for color interpolation processing, and the like are input to the CPU 16.

ステップ102:CPU16は、情報処理装置11と接続状態にある画像処理装置を検出する。そして、CPU16は検出された画像処理装置を端末装置21として認識する。この段階で、CPU16は各端末装置21を性能テーブルに登録する。なお、S102では、CPU16は情報処理装置11自身を端末装置21の一つとして認識する。
ステップ103:CPU16は、情報処理装置11以外の端末装置21が存在するか否かを判定する。情報処理装置11以外の端末装置21が存在する場合(YES側)にはCPU16はS104に移行する。この場合、CPU16はいずれかの端末装置21を判定対象に設定するとともに、以下のステップで性能データを取得する。一方、端末装置21が情報処理装置11のみの場合にはCPU16はS123に移行する。
Step 102: The CPU 16 detects an image processing apparatus connected to the information processing apparatus 11. Then, the CPU 16 recognizes the detected image processing apparatus as the terminal device 21. At this stage, the CPU 16 registers each terminal device 21 in the performance table. In S <b> 102, the CPU 16 recognizes the information processing apparatus 11 itself as one of the terminal devices 21.
Step 103: The CPU 16 determines whether or not a terminal device 21 other than the information processing apparatus 11 exists. If there is a terminal device 21 other than the information processing device 11 (YES side), the CPU 16 proceeds to S104. In this case, the CPU 16 sets one of the terminal devices 21 as a determination target and acquires performance data in the following steps. On the other hand, when the terminal device 21 is only the information processing device 11, the CPU 16 proceeds to S123.

ステップ104:CPU16は判定対象の端末装置21に関する性能データが取得済みか否かを判定する。判定対象の性能データが取得済みの場合(YES側)にはCPU16はS108に移行する。一方、判定対象の性能データが未取得の場合(NO側)にはCPU16はS105に移行する。
なお、S104で性能データが取得済みとなる場合には、(1)判定対象が情報処理装置11の場合、(2)その端末装置21が以前にも同じ条件で使用されていた場合、(3)S102での認識時に端末装置21がCPU16に予め性能データ等を送信している場合、などが該当する。
Step 104: The CPU 16 determines whether or not performance data related to the terminal device 21 to be determined has been acquired. If the performance data to be determined has been acquired (YES side), the CPU 16 proceeds to S108. On the other hand, when the performance data to be determined has not been acquired (NO side), the CPU 16 proceeds to S105.
When the performance data is already acquired in S104, (1) when the determination target is the information processing apparatus 11, (2) when the terminal device 21 has been used under the same conditions before, (3 ) This corresponds to the case where the terminal device 21 has previously transmitted performance data or the like to the CPU 16 at the time of recognition in S102.

ステップ105:CPU16は、判定対象の端末装置21に対して電子カメラの種類および通信手段の種類の送信を要求する。そして、CPU16は、端末装置21から上記データの返信があるか否かを判定する。返信のある場合(YES側)にはCPU16はS106に移行する。一方、返信のない場合にはCPU16はS107に移行する。
ステップ106:CPUは、電子カメラの種類のデータに基づいて、その端末装置21の「現像処理能力」および「バッファメモリ容量」のデータを第1テーブルから取得する。また、CPU16は通信手段の種類のデータに基づいて、その端末装置21との通信速度のデータを第2テーブルから取得する。そして、CPU16は、上記の現像処理能力および通信速度のデータから総合処理時間の推定値を演算する。CPU16は、この推定値を性能データとして扱う。その後、CPU16はS108に移行する。
Step 105: The CPU 16 requests the terminal device 21 to be determined to transmit the type of electronic camera and the type of communication means. Then, the CPU 16 determines whether or not there is a return of the data from the terminal device 21. If there is a reply (YES side), the CPU 16 proceeds to S106. On the other hand, if there is no reply, the CPU 16 proceeds to S107.
Step 106: The CPU obtains the “development processing capacity” and “buffer memory capacity” data of the terminal device 21 from the first table based on the electronic camera type data. Further, the CPU 16 acquires data on the communication speed with the terminal device 21 from the second table based on the data of the type of communication means. Then, the CPU 16 calculates an estimated value of the total processing time from the above development processing capability and communication speed data. The CPU 16 treats this estimated value as performance data. Thereafter, the CPU 16 proceeds to S108.

ステップ107:CPU16は、性能測定用のRAW画像データ(テストデータ)を判定対象の端末装置21に対して送信する。そして、CPU16はテストデータに関する端末装置21からの返信結果に基づいて、総合処理時間の実測値を取得する。CPU16は、この実測値を性能データとして扱う。
このS107では、CPU16は、端末装置21に対して同一のテストデータを2回送信し、端末装置21の詳細な性能データを取得することも可能である。具体的には、1回目の送信ではCPU16は端末装置21にテストデータの現像処理を指示する。この1回目の返信結果では、CPU16は現像処理時間とデータの送受信に要する時間を取得できる。一方、2回目の送信では、CPU16は端末装置21にテストデータをそのまま返信するように指示する。この2回目の返信結果では、CPU16はデータの送受信に要する時間のみを取得できる。したがって、CPU16は、2回分の送信結果とテストデータのデータ量とに基づいて現像処理時間および通信速度を演算できる。
Step 107: The CPU 16 transmits RAW image data (test data) for performance measurement to the terminal device 21 to be determined. And CPU16 acquires the measured value of total processing time based on the reply result from the terminal device 21 regarding test data. The CPU 16 handles this actually measured value as performance data.
In S <b> 107, the CPU 16 can acquire the detailed performance data of the terminal device 21 by transmitting the same test data twice to the terminal device 21. Specifically, in the first transmission, the CPU 16 instructs the terminal device 21 to develop test data. In the first reply result, the CPU 16 can acquire the development processing time and the time required for data transmission / reception. On the other hand, in the second transmission, the CPU 16 instructs the terminal device 21 to return the test data as it is. In the second reply result, the CPU 16 can acquire only the time required for data transmission / reception. Therefore, the CPU 16 can calculate the development processing time and the communication speed based on the transmission result for two times and the data amount of the test data.

ステップ108:CPU16は、判定対象の端末装置21の性能データ(S104、S106、S107)を性能テーブルに記録する。
ステップ109:CPU16は、全ての端末装置21の性能データが性能テーブルに記録されているか(性能テーブルの生成が終了したか)否かを判定する。性能テーブルの生成が終了した場合(YES側)にはCPU16はS110に移行する。一方、性能テーブルの生成が終了していない場合(NO側)には、CPU16は性能データが未取得の端末装置21を判定対象とするとともに、S104に戻って上記動作を繰り返す。
Step 108: The CPU 16 records the performance data (S104, S106, S107) of the terminal device 21 to be determined in the performance table.
Step 109: The CPU 16 determines whether or not the performance data of all the terminal devices 21 is recorded in the performance table (whether generation of the performance table has been completed). When the generation of the performance table is completed (YES side), the CPU 16 proceeds to S110. On the other hand, when the generation of the performance table is not completed (NO side), the CPU 16 sets the terminal device 21 for which performance data has not been acquired as a determination target, and returns to S104 to repeat the above operation.

ステップ110:CPU16は、性能テーブルに基づいて、各端末装置21に対するRAW画像データの現像処理の配分を決定する。CPU16は、上記の現像処理の配分をスケジュールテーブルに記録する。
このS110では、CPU16は全てのRAW画像データの現像処理の配分を一度に決定する必要はない。例えば、CPU16は現像処理の配分を複数回に分割し、各回ごとにCPU16が現像処理の配分を段階的に決定してもよい。
Step 110: The CPU 16 determines the distribution of the development processing of the RAW image data to each terminal device 21 based on the performance table. The CPU 16 records the development processing distribution in the schedule table.
In S110, the CPU 16 does not have to determine the distribution of development processing for all RAW image data at once. For example, the CPU 16 may divide the distribution of the development processing into a plurality of times, and the CPU 16 may determine the distribution of the development processing step by step each time.

ここで、CPU16は、各端末装置21に対する現像処理の配分を以下の要領で決定する。
(1)CPU16は、処理対象となるRAW画像データのうちで、特殊な処理が必要となるRAW画像データを抽出する。具体的には、S101の「現像処理の詳細設定」で設定を変更したRAW画像データがCPU16によって抽出される。そして、CPU16は、上記の抽出されたRAW画像データの現像処理を、対応機能を有する端末装置21のみに配分する。
Here, the CPU 16 determines the distribution of development processing for each terminal device 21 in the following manner.
(1) The CPU 16 extracts RAW image data requiring special processing from the RAW image data to be processed. Specifically, the RAW image data whose setting has been changed in “Detailed setting of development processing” in S101 is extracted by the CPU 16. Then, the CPU 16 distributes the development processing of the extracted RAW image data only to the terminal device 21 having the corresponding function.

上記(1)の内容を図9によって具体的に説明する。この図9の例では図3の性能テーブルを前提として説明を行う。ノイズリダクション処理が必要となる現像処理(番号3,6)は、端末装置2または端末装置5(情報処理装置)にCPU16が配分する。レンズの収差補正処理が必要となる現像処理(番号1,5)は、端末装置1または端末装置5(情報処理装置)にCPU16が配分する。また、バージョン3以上の色補間処理が要求される現像処理(画像2,7)は、端末装置3または端末装置5(情報処理装置)にCPU16が配分する。なお、ある現像処理を複数の端末装置21に配分しうる場合、CPU16は後述の(2)、(3)の基準によって現像処理を行う端末装置21を決定する。   The contents of (1) will be specifically described with reference to FIG. In the example of FIG. 9, the description will be made on the premise of the performance table of FIG. The development processing (numbers 3 and 6) that requires noise reduction processing is allocated to the terminal device 2 or the terminal device 5 (information processing device) by the CPU 16. Development processing (numbers 1 and 5) that requires lens aberration correction processing is distributed to the terminal device 1 or the terminal device 5 (information processing device) by the CPU 16. Further, the CPU 16 distributes the development processing (images 2 and 7) requiring color interpolation processing of version 3 or higher to the terminal device 3 or the terminal device 5 (information processing device). When a certain developing process can be distributed to a plurality of terminal devices 21, the CPU 16 determines the terminal device 21 that performs the developing process according to criteria (2) and (3) described later.

(2)CPU16は、RAW画像データのデータ量と性能テーブルの「メモリ容量」とをそれぞれ比較する。そして、CPU16は、RAW画像データのデータ量よりバッファメモリの容量が小さい端末装置を、そのRAW画像データの現像処理の配分先から除外する。バッファメモリにRAW画像データが収まらない場合には、端末装置21が現像処理を実行できないからである。   (2) The CPU 16 compares the amount of RAW image data with the “memory capacity” of the performance table. Then, the CPU 16 excludes a terminal device having a buffer memory capacity smaller than the data amount of the RAW image data from the distribution destination of the development processing of the RAW image data. This is because if the RAW image data does not fit in the buffer memory, the terminal device 21 cannot execute the development process.

(3)CPU16は、上記(1)、(2)の処理後に、各々の端末装置21に対する現像処理の配分を決定する。具体的には、上記(1)、(2)の制約条件を満たす一方で、情報処理システム全体での現像処理時間がより短くなるように、CPU16は各端末装置21への現像処理の配分を最適化する。すなわち、CPU16は、性能テーブルの「総合処理時間」がより短い端末装置21にはより多くの現像処理を割り当てる。なお、上記した配分の決定では、CPU16は組合せ最適化に関する公知のアルゴリズム(ニューラルネットワーク、遺伝的アルゴリズム、動的計画法など)によって現像処理の最適な配分を近似的に演算する。   (3) After the processes (1) and (2), the CPU 16 determines the distribution of the development process for each terminal device 21. Specifically, the CPU 16 distributes the development processing to each terminal device 21 so that the development processing time in the entire information processing system becomes shorter while satisfying the constraint conditions (1) and (2). Optimize. That is, the CPU 16 assigns more development processing to the terminal device 21 having a shorter “total processing time” in the performance table. In the above-described distribution determination, the CPU 16 approximately calculates the optimal distribution of development processing by a known algorithm (neural network, genetic algorithm, dynamic programming, etc.) relating to combination optimization.

ステップ111:CPU16は、スケジュールテーブルに基づいて、残りの現像処理が情報処理装置11と外部の端末装置21とで処理されるか、それとも情報処理装置11のみで処理されるかを判定する。情報処理装置11と外部の端末装置21とで処理される場合(YES側)にはCPU16はS112に移行する。一方、残りの現像処理が情報処理装置11のみで処理される場合(NO側)にはCPU16はS123に移行する。   Step 111: The CPU 16 determines whether the remaining development processing is processed by the information processing device 11 and the external terminal device 21 or only by the information processing device 11 based on the schedule table. When processing is performed by the information processing device 11 and the external terminal device 21 (YES side), the CPU 16 proceeds to S112. On the other hand, when the remaining development processing is processed only by the information processing apparatus 11 (NO side), the CPU 16 proceeds to S123.

ステップ112:CPU16は、スケジュールテーブルに基づいて、端末装置21に対する現像処理の命令データと、RAW画像データとを各端末装置21にそれぞれ送信する。上記の命令データには、S101での「現像処理の詳細設定」のデータが含まれる。また、CPU16は上記のデータの送信とともに、各端末装置21ごとにタイムカウントを開始する。なお、端末装置21側の現像処理の詳細については後述する。   Step 112: The CPU 16 transmits the development processing command data for the terminal device 21 and the RAW image data to each terminal device 21 based on the schedule table. The command data includes “detailed setting of development processing” data in S101. Moreover, CPU16 starts time count for every terminal device 21 with transmission of said data. Details of the development processing on the terminal device 21 side will be described later.

ステップ113:CPU16は、接続端子を介して端末装置21の通信不能状態を検出したか否かを判定する。接続端子を介していずれかの端末装置21の通信不能状態を検出した場合(YES側)にはCPU16はS116に移行する。一方、上記の通信不能状態を検出しない場合(NO側)にはCPU16はS114に移行する。
ステップ114:CPU16は、設定時間内に応答がない(タイムアウトした)端末装置21があるか否かを判定する。タイムアウトした端末装置21がある場合(YES側)には、CPU16はその端末装置21が通信不能状態にあるとしてS116に移行する。一方、タイムアウトした端末装置21がない場合(NO側)にはCPU16はS115に移行する。
Step 113: The CPU 16 determines whether or not the communication disabled state of the terminal device 21 is detected via the connection terminal. When the communication disabled state of any of the terminal devices 21 is detected via the connection terminal (YES side), the CPU 16 proceeds to S116. On the other hand, when the above-described communication disabled state is not detected (NO side), the CPU 16 proceeds to S114.
Step 114: The CPU 16 determines whether or not there is a terminal device 21 that has not responded (timed out) within the set time. If there is a terminal device 21 that has timed out (YES side), the CPU 16 proceeds to S116 because the terminal device 21 is in a communication disabled state. On the other hand, if there is no terminal device 21 that has timed out (NO side), the CPU 16 proceeds to S115.

ステップ115:CPU16は、いずれかの端末装置21から現像済画像データを受信したか否かを判定する。現像済画像データを受信した場合にはCPU16はS118に移行する。このとき、CPU16は、送信先の端末装置21に対するタイムカウントを終了する。一方、現像済画像データを受信しない場合には、CPU16はS113に戻って上記動作を繰り返す。   Step 115: The CPU 16 determines whether or not developed image data has been received from any of the terminal devices 21. When the developed image data is received, the CPU 16 proceeds to S118. At this time, the CPU 16 ends the time count for the terminal device 21 as the transmission destination. On the other hand, when the developed image data is not received, the CPU 16 returns to S113 and repeats the above operation.

ステップ116:この場合には、CPU16は通信不能状態の端末装置21を性能テーブルから除外する。
ステップ117:CPU16は、S116で更新された性能テーブルに基づいてスケジュールテーブルを再設定する。このとき、CPU16は、通信不能状態の端末装置に送信したRAW画像データは現像処理されていないものとして扱う。なお、S117でのスケジュールテーブルの再設定の説明はS110と共通するため重複説明を省略する。
Step 116: In this case, the CPU 16 excludes the terminal device 21 in the communication disabled state from the performance table.
Step 117: The CPU 16 resets the schedule table based on the performance table updated in S116. At this time, the CPU 16 treats the RAW image data transmitted to the terminal device in the communication disabled state as not being developed. Note that the description of the resetting of the schedule table in S117 is the same as that of S110, and a duplicate description is omitted.

その後、CPU16はS115に移行する。上記の場合においてS115で現像済画像データが受信されると、CPU16はS116での性能テーブルとS117でのスケジュールテーブルとに基づいて以後の処理を実行することとなる。
ステップ118:CPU16は、受信した現像済画像データを記録部15に記録する。
ステップ119:CPU16は、S110またはS117によって設定されたスケジュールテーブルの処理が全て終了したか否かを判断する。全て終了した場合(YES側)は、CPU16はS120に移行する。一方、未処理分が残っている場合(NO側)には、CPU16はS113に戻って上述の処理を繰り返す。
Thereafter, the CPU 16 proceeds to S115. In the above case, when the developed image data is received in S115, the CPU 16 executes the subsequent processing based on the performance table in S116 and the schedule table in S117.
Step 118: The CPU 16 records the received developed image data in the recording unit 15.
Step 119: The CPU 16 determines whether or not the processing of the schedule table set in S110 or S117 has been completed. When all the processes are completed (YES side), the CPU 16 proceeds to S120. On the other hand, when the unprocessed portion remains (NO side), the CPU 16 returns to S113 and repeats the above-described processing.

ステップ120:CPU16は、処理対象となるRAW画像データの現像処理が全て終了したか否かを判定する。全て終了した場合(YES側)にはCPU16は処理を終了する。一方、現像処理がまだ残っている場合(NO側)にはCPU16はS121に移行する。
ステップ121:CPU16は、S112からS115までのタイムカウントに基づいて、端末装置21の総合処理時間の実測値を取得する。
Step 120: The CPU 16 determines whether or not all the development processing of the RAW image data to be processed has been completed. When all the processes are completed (YES side), the CPU 16 ends the process. On the other hand, if development processing still remains (NO side), the CPU 16 proceeds to S121.
Step 121: The CPU 16 acquires an actual measurement value of the total processing time of the terminal device 21 based on the time count from S112 to S115.

ステップ122:CPU16は総合処理時間の実測値(S121)に基づいて、性能テーブルの総合処理時間を更新する。その後にCPU16はS110に戻る。上記の場合には、S110において、CPU16はS122で更新された性能テーブルに基づいてスケジュールテーブルを生成する。そして、CPU16はS112以降の処理を繰り返す。
ステップ123:この場合には、情報処理装置11のCPU21が残りすべての現像処理を実行する。以上で情報処理装置の動作説明を終了する。
Step 122: The CPU 16 updates the total processing time of the performance table based on the actual value (S121) of the total processing time. Thereafter, the CPU 16 returns to S110. In the above case, in S110, the CPU 16 generates a schedule table based on the performance table updated in S122. And CPU16 repeats the process after S112.
Step 123: In this case, the CPU 21 of the information processing apparatus 11 executes all remaining development processing. This is the end of the description of the operation of the information processing apparatus.

次に、本実施形態における端末装置の動作を、図10の流れ図を参照しつつ説明する。なお、以下の説明では、端末装置が電子カメラの場合を説明する。
ステップ201:電子カメラのCPU29は、情報処理装置11から受信したRAW画像データをバッファメモリ25に記録する。そして、CPU29は、現像処理の命令データに基づいて、画像処理部26にRAW画像データの現像処理を指示する。
Next, the operation of the terminal device in this embodiment will be described with reference to the flowchart of FIG. In the following description, a case where the terminal device is an electronic camera will be described.
Step 201: The CPU 29 of the electronic camera records the RAW image data received from the information processing apparatus 11 in the buffer memory 25. Then, the CPU 29 instructs the image processing unit 26 to perform the RAW image data development process based on the development process command data.

ステップ202:画像処理部26は、RAW画像データに現像処理を施して現像済画像データを生成する。なお、現像処理時には、画像処理部26はヘッダファイルから撮影条件のデータを取得する。
ステップ203:CPU29は、情報処理装置11に対して現像済画像データを返信する。その後に、CPU29は現像処理済みのRAW画像データをバッファメモリ25から消去する。以上で端末装置の動作説明を終了する。
Step 202: The image processing unit 26 performs development processing on the RAW image data to generate developed image data. At the time of development processing, the image processing unit 26 acquires shooting condition data from the header file.
Step 203: The CPU 29 returns developed image data to the information processing apparatus 11. Thereafter, the CPU 29 erases the developed RAW image data from the buffer memory 25. This is the end of the description of the operation of the terminal device.

ここで、情報処理装置11または端末コンピュータでの現像処理では、CPU(16、31)が画像処理プログラムで現像処理を実行する点が上記と相違する。また、情報処理装置11が端末装置21として機能する場合には、情報処理装置内11のCPU16と記録部15とでRAW画像データがやり取りされることとなる。
(本実施形態の効果)
本実施形態では、複数の端末装置21がRAW画像データの現像処理を分散処理する(S110、S112)。そのため、情報処理装置11が単独で現像処理を実行する場合と比べて、多数のRAW画像データをより短い時間で現像処理できる。特に、端末装置21が電子カメラである場合、専用の画像処理エンジン(画像処理部26)によって現像処理がより短い時間で完了する。そのため、この場合にはシステム全体の現像処理時間も著しく短縮される。また、本実施形態では情報処理装置11も現像処理を実行するため、システム全体の現像処理時間をさらに短縮できる。
Here, the development processing in the information processing apparatus 11 or the terminal computer is different from the above in that the CPU (16, 31) executes the development processing with the image processing program. Further, when the information processing apparatus 11 functions as the terminal device 21, RAW image data is exchanged between the CPU 16 and the recording unit 15 in the information processing apparatus 11.
(Effect of this embodiment)
In the present embodiment, a plurality of terminal devices 21 distributes development processing of RAW image data (S110, S112). Therefore, it is possible to develop a large number of RAW image data in a shorter time than when the information processing apparatus 11 executes the developing process alone. In particular, when the terminal device 21 is an electronic camera, the development processing is completed in a shorter time by the dedicated image processing engine (image processing unit 26). Therefore, in this case, the development processing time of the entire system is remarkably shortened. In the present embodiment, the information processing apparatus 11 also executes the development process, so that the development process time of the entire system can be further shortened.

本実施形態では、各端末装置21の処理時間や機能に基づいて、情報処理装置11がスケジュールテーブルで現像処理の配分を決定する(S110)。そのため、システム全体の現像処理時間は著しく短縮される。上記の処理時間の初期値は、電子カメラおよび通信手段の種類から情報処理装置11がその推定値を演算する(S106)。あるいは、情報処理装置11はテストデータに対する返信結果に基づいて処理時間の実測値を取得する(S107)。そのため、情報処理装置11は初期状態でも比較的効率のよいスケジュールテーブルを生成できる。   In the present embodiment, based on the processing time and function of each terminal device 21, the information processing apparatus 11 determines the distribution of development processing in the schedule table (S110). Therefore, the development processing time of the entire system is remarkably shortened. The initial value of the processing time is calculated by the information processing apparatus 11 based on the type of electronic camera and communication means (S106). Alternatively, the information processing apparatus 11 acquires an actual measurement value of the processing time based on the return result for the test data (S107). Therefore, the information processing apparatus 11 can generate a relatively efficient schedule table even in the initial state.

本実施形態の情報処理装置11は、現像済画像データの受信結果により処理時間の実測値を取得する(S121)。そして、情報処理装置11は、上記の実測値に基づいてスケジュールテーブルを生成する(S122、S110)。そのため、情報処理装置11は、受信結果をフィードバックしてスケジュールテーブルを最適化できる。
本実施形態の情報処理装置11は端末装置21の通信不能状態を検出する(S113、S114)。この場合には、情報処理装置11は、通信不能状態の端末装置21を除外してスケジュールテーブルを再設定する(S116、S117)。そのため、端末装置21が持ち運ばれた場合や端末装置21が電池切れした場合などにも、情報処理装置11はその影響を最小限に留めることができる。
The information processing apparatus 11 according to the present embodiment acquires an actual value of processing time based on the reception result of the developed image data (S121). And the information processing apparatus 11 produces | generates a schedule table based on said measured value (S122, S110). Therefore, the information processing apparatus 11 can optimize the schedule table by feeding back the reception result.
The information processing apparatus 11 according to the present embodiment detects the communication disabled state of the terminal device 21 (S113, S114). In this case, the information processing apparatus 11 resets the schedule table by excluding the terminal device 21 in the communication disabled state (S116, S117). Therefore, even when the terminal device 21 is carried or the terminal device 21 runs out of battery, the information processing apparatus 11 can minimize the influence.

(実施形態の補足事項)
以上、本発明を上記の実施形態によって説明してきたが、本発明の技術的範囲は上記実施形態に限定されるものではない。例えば、S104またはS106の性能データで性能テーブルを生成する場合、CPU16は端末装置21に少量の画像処理を実行させて性能データの確認を行うようにしてもよい。
(Supplementary items of the embodiment)
As mentioned above, although this invention has been demonstrated by said embodiment, the technical scope of this invention is not limited to the said embodiment. For example, when generating the performance table with the performance data of S104 or S106, the CPU 16 may cause the terminal device 21 to execute a small amount of image processing to check the performance data.

本実施形態の情報処理システムの構成を示す概要図Schematic diagram showing the configuration of the information processing system of the present embodiment (a)端末装置を構成しうる電子カメラのブロック図、(b)端末装置を構成しうる端末コンピュータのブロック図(A) Block diagram of an electronic camera that can constitute a terminal device, (b) Block diagram of a terminal computer that can constitute a terminal device 性能テーブルの構成を模式的に示す図Diagram showing the configuration of the performance table スケジュールテーブルの構成を模式的に示す図Diagram showing the structure of the schedule table 第1テーブルの構成を模式的に示す図The figure which shows the structure of a 1st table typically. 第2テーブルの構成を模式的に示す図The figure which shows the structure of a 2nd table typically. 本実施形態の情報処理装置の動作を示す流れ図A flowchart showing the operation of the information processing apparatus of this embodiment 本実施形態の情報処理装置の動作を示す流れ図A flowchart showing the operation of the information processing apparatus of this embodiment 端末装置の機能に応じた現像処理の配分を説明するための図The figure for demonstrating distribution of the development processing according to the function of a terminal unit 本実施形態の端末装置の動作を示す流れ図Flow chart showing the operation of the terminal device of this embodiment

符号の説明Explanation of symbols

11…情報処理装置、12…通信I/F、15…記録部、16…CPU、21…端末装置
DESCRIPTION OF SYMBOLS 11 ... Information processing apparatus, 12 ... Communication I / F, 15 ... Recording part, 16 ... CPU, 21 ... Terminal device

Claims (10)

制御部と、複数のRAW画像データを記録した第1記録手段と、前記RAW画像データに現像処理を施す画像処理装置に通信を行う通信手段と、を備えたコンピュータに関するプログラムであって、
前記制御部が前記通信手段を介して通信可能な少なくとも1つの前記画像処理装置を検出し、該検出した各画像処理装置をそれぞれ端末装置として認識する認識ステップと、
前記制御部が前記端末装置の性能に関する性能データをそれぞれ取得するとともに、前記端末装置と前記性能データとの対応関係を示す性能テーブルを生成する性能テーブル生成ステップと、
前記性能テーブルに基づいて、前記制御部が、各々の前記端末装置により実行される前記現像処理の配分を規定したスケジュールテーブルを生成するスケジュールテーブル生成ステップと、
前記スケジュールテーブルに基づいて、前記制御部が前記RAW画像データおよび前記現像処理の命令データを各端末装置にそれぞれ送信する送信ステップと、
を前記制御部に実行させることを特徴とするプログラム。
A computer program comprising: a control unit; a first recording unit that records a plurality of RAW image data; and a communication unit that communicates with an image processing apparatus that performs development processing on the RAW image data.
A recognition step in which the control unit detects at least one of the image processing devices that can communicate via the communication unit, and recognizes each detected image processing device as a terminal device;
A performance table generating step for generating performance data indicating a correspondence relationship between the terminal device and the performance data while the control unit acquires performance data related to the performance of the terminal device;
Based on the performance table, the control unit generates a schedule table that stipulates the distribution of the development processing executed by each of the terminal devices;
A transmission step in which the control unit transmits the RAW image data and the instruction data of the development processing to each terminal device based on the schedule table;
Is executed by the control unit.
請求項1に記載のプログラムにおいて、
前記認識ステップにおいて、前記制御部が、前記RAW画像データに対して現像処理を実行可能な電子カメラを前記端末装置として認識することを特徴とするプログラム。
The program according to claim 1,
In the recognition step, the control unit recognizes, as the terminal device, an electronic camera capable of executing development processing on the RAW image data.
請求項1に記載のプログラムにおいて、
前記性能データは、前記端末装置の現像処理速度および前記端末装置との通信速度によって規定される処理時間のデータを含み、
前記スケジュールテーブル生成ステップにおいて、前記制御部は各々の前記端末装置の前記処理時間の長さに応じて前記現像処理の配分量を規定することを特徴とするプログラム。
The program according to claim 1,
The performance data includes processing time data defined by the development processing speed of the terminal device and the communication speed with the terminal device,
In the schedule table generation step, the control unit defines the distribution amount of the development processing according to the length of the processing time of each terminal device.
請求項1に記載のプログラムにおいて、
前記性能データは、前記端末装置が有する機能を示す機能データを含み、
前記スケジュールテーブル生成ステップにおいて、前記制御部は、特定の機能に依存する処理が要求される前記現像処理を、前記機能データに基づいて対応機能を有する端末装置に配分することを特徴とするプログラム。
The program according to claim 1,
The performance data includes function data indicating functions of the terminal device,
In the schedule table generation step, the control unit distributes the development processing requiring processing dependent on a specific function to terminal devices having a corresponding function based on the function data.
請求項3に記載のプログラムにおいて、
前記コンピュータは、前記端末装置の種類と現像処理速度との対応関係を示す第1テーブルと、前記通信手段の種類と通信速度との対応関係を示す第2テーブルとを記録する第2記録手段をさらに備え、
前記認識ステップは、前記制御部が前記端末装置の種類および前記通信手段の種類のデータをそれぞれ取得する種類データ取得ステップを含み、
前記性能テーブル生成ステップは、前記第1テーブルおよび前記第2テーブルに基づいて、前記制御部が前記現像処理速度および前記通信速度の推定データを取得する速度推定データ取得ステップと、
前記推定データに基づいて、前記制御部が前記処理時間を演算する推定処理時間演算ステップと、
を含むことを特徴とするプログラム。
In the program according to claim 3,
And a second recording unit configured to record a first table indicating a correspondence relationship between the type of the terminal device and the development processing speed, and a second table indicating a correspondence relationship between the type of the communication unit and the communication speed. In addition,
The recognition step includes a type data acquisition step in which the control unit acquires data of the type of the terminal device and the type of the communication means,
The performance table generation step includes a speed estimation data acquisition step in which the control unit acquires estimation data of the development processing speed and the communication speed based on the first table and the second table;
Based on the estimated data, an estimated processing time calculating step in which the control unit calculates the processing time;
The program characterized by including.
請求項3に記載のプログラムにおいて、
前記性能テーブル生成ステップは、前記制御部が前記端末装置にテストデータを送信し、前記テストデータに対する前記端末装置からの返信結果に基づいて前記処理時間のデータを取得する処理時間取得ステップを含むことを特徴とするプログラム。
In the program according to claim 3,
The performance table generation step includes a processing time acquisition step in which the control unit transmits test data to the terminal device, and acquires data of the processing time based on a return result from the terminal device with respect to the test data. A program characterized by
請求項3に記載のプログラムにおいて、
前記性能テーブル生成ステップは、
前記制御部が少なくとも1つの前記端末装置から現像処理後の画像データを受信し、該受信結果により前記処理時間の実測値を取得する実測値取得ステップと、
前記制御部が前記実測値に基づいて前記性能テーブルを更新する性能テーブル更新ステップとを含み、
前記スケジュールテーブル生成ステップは、更新後の前記性能テーブルに基づいて、前記制御部が前記スケジュールテーブルを生成することを特徴とするプログラム。
In the program according to claim 3,
The performance table generation step includes:
An actual value acquisition step in which the control unit receives image data after development processing from at least one of the terminal devices, and acquires an actual value of the processing time based on the reception result;
A performance table update step in which the control unit updates the performance table based on the actual measurement value;
In the schedule table generation step, the control unit generates the schedule table based on the updated performance table.
請求項1に記載のプログラムにおいて、
前記制御部が通信不能状態にある端末装置を検出する通信不能端末検出ステップと、
通信不能状態にある端末装置が検出された場合には、前記制御部が通信不能状態の端末装置を除外して前記スケジュールテーブルを再設定するスケジュールテーブル再設定ステップと、
をさらに有することを特徴とするプログラム。
The program according to claim 1,
A communication disabled terminal detecting step for detecting a terminal device in which the control unit is in a communication disabled state;
When a terminal device in a communication disabled state is detected, a schedule table resetting step in which the control unit resets the schedule table excluding the terminal device in a communication disabled state;
A program characterized by further comprising:
請求項1から請求項8のいずれか1項に記載のプログラムにおいて、
前記制御部は、前記RAW画像データに対して現像処理を実行可能であって、
前記認識ステップにおいて、前記制御部が前記コンピュータを前記端末装置の一つとして認識し、
前記性能テーブル生成ステップにおいて、前記制御部が前記コンピュータの性能データを性能テーブルに組み込み、
前記スケジュールテーブル生成ステップにおいて、前記制御部が前記コンピュータに配分する前記現像処理を前記スケジュールテーブルに組み込むことを特徴とするプログラム。
In the program according to any one of claims 1 to 8,
The control unit can execute development processing on the RAW image data,
In the recognition step, the control unit recognizes the computer as one of the terminal devices,
In the performance table generation step, the control unit incorporates the performance data of the computer into the performance table,
In the schedule table generation step, the development process distributed to the computer by the control unit is incorporated in the schedule table.
複数のRAW画像データを記録した記録手段と、
前記RAW画像データに現像処理を施す画像処理装置に通信を行う通信手段と、
前記通信手段を介して通信可能な少なくとも1つの前記画像処理装置を検出し、該検出した各画像処理装置をそれぞれ端末装置として認識する認識手段と、
前記端末装置の性能に関する性能データをそれぞれ取得するとともに、前記端末装置と前記性能データとの対応関係を示す性能テーブルを生成する性能テーブル生成手段と、
前記性能テーブルに基づいて、各々の前記端末装置により実行される前記現像処理の配分を規定したスケジュールテーブルを生成するスケジュールテーブル生成手段と、
前記スケジュールテーブルに基づいて、前記RAW画像データおよび前記現像処理の命令データを各端末装置にそれぞれ送信する送信手段と、
を備えることを特徴とする情報処理装置。

Recording means for recording a plurality of RAW image data;
Communication means for communicating with an image processing apparatus for performing development processing on the RAW image data;
Recognizing means for detecting at least one image processing apparatus capable of communicating via the communication means and recognizing each detected image processing apparatus as a terminal device;
Performance table generation means for acquiring performance data related to the performance of the terminal device, and generating a performance table indicating a correspondence relationship between the terminal device and the performance data;
Schedule table generating means for generating a schedule table that defines distribution of the development processing executed by each of the terminal devices based on the performance table;
Transmitting means for transmitting the raw image data and the instruction data of the development processing to each terminal device based on the schedule table;
An information processing apparatus comprising:

JP2005330236A 2005-11-15 2005-11-15 Program and information processing apparatus Withdrawn JP2007142551A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005330236A JP2007142551A (en) 2005-11-15 2005-11-15 Program and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005330236A JP2007142551A (en) 2005-11-15 2005-11-15 Program and information processing apparatus

Publications (1)

Publication Number Publication Date
JP2007142551A true JP2007142551A (en) 2007-06-07

Family

ID=38204935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005330236A Withdrawn JP2007142551A (en) 2005-11-15 2005-11-15 Program and information processing apparatus

Country Status (1)

Country Link
JP (1) JP2007142551A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009081709A (en) * 2007-09-26 2009-04-16 Seiko Epson Corp Image processing system, and image processing apparatus
JP2009130534A (en) * 2007-11-21 2009-06-11 Canon Inc Image processing apparatus and control method thereof
JP2010206718A (en) * 2009-03-05 2010-09-16 Canon Inc Device, method, and program for managing image, and recording medium
JP2014225858A (en) * 2013-04-19 2014-12-04 キヤノン株式会社 Conversion controller and control method thereof
JP2015201730A (en) * 2014-04-07 2015-11-12 キヤノン株式会社 Image processing device, image processing method and program, and imaging apparatus
JP2016127564A (en) * 2015-01-08 2016-07-11 三星電子株式会社Samsung Electronics Co.,Ltd. Image processor, image processing system, image processing method and image processing program
JPWO2015125405A1 (en) * 2014-02-19 2017-03-30 ソニー株式会社 Imaging apparatus, imaging method, and imaging system
WO2020004016A1 (en) * 2018-06-29 2020-01-02 富士フイルム株式会社 Image processing system, image processing method, and information processing device
US11019256B2 (en) 2018-03-28 2021-05-25 Fujifilm Corporation Image processing system, image processing method, and information processing device
JP7418110B2 (en) 2019-10-31 2024-01-19 キヤノン株式会社 Communication device, its control method, and its program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009081709A (en) * 2007-09-26 2009-04-16 Seiko Epson Corp Image processing system, and image processing apparatus
JP2009130534A (en) * 2007-11-21 2009-06-11 Canon Inc Image processing apparatus and control method thereof
JP2010206718A (en) * 2009-03-05 2010-09-16 Canon Inc Device, method, and program for managing image, and recording medium
US8620112B2 (en) 2009-03-05 2013-12-31 Canon Kabushiki Kaisha Image management apparatus and image management method searching for a development unit to perform a development process parameter set on a raw image data
JP2014225858A (en) * 2013-04-19 2014-12-04 キヤノン株式会社 Conversion controller and control method thereof
US10469727B2 (en) 2014-02-19 2019-11-05 Sony Corporation Imaging apparatus, imaging method, and imaging system
JPWO2015125405A1 (en) * 2014-02-19 2017-03-30 ソニー株式会社 Imaging apparatus, imaging method, and imaging system
JP2015201730A (en) * 2014-04-07 2015-11-12 キヤノン株式会社 Image processing device, image processing method and program, and imaging apparatus
JP2016127564A (en) * 2015-01-08 2016-07-11 三星電子株式会社Samsung Electronics Co.,Ltd. Image processor, image processing system, image processing method and image processing program
US11019256B2 (en) 2018-03-28 2021-05-25 Fujifilm Corporation Image processing system, image processing method, and information processing device
WO2020004016A1 (en) * 2018-06-29 2020-01-02 富士フイルム株式会社 Image processing system, image processing method, and information processing device
JPWO2020004016A1 (en) * 2018-06-29 2021-03-11 富士フイルム株式会社 Image processing system, image processing method, and information processing equipment
JP7418110B2 (en) 2019-10-31 2024-01-19 キヤノン株式会社 Communication device, its control method, and its program

Similar Documents

Publication Publication Date Title
JP2007142551A (en) Program and information processing apparatus
EP3723359A1 (en) Image processing apparatus, method for image processing, and electronic device
JP5885111B2 (en) Scanning system
EP1231775A3 (en) Image processing system via network
EP3481052B1 (en) Electronic device for processing image based on priority and method for operating thereof
US11729515B2 (en) Imaging apparatus, information processing method, and recording medium for determining whether an image analysis of a predetermined image is complete
US20190370992A1 (en) Image processing apparatus, information processing apparatus, information processing method, and recording medium
US20090189999A1 (en) Image processing device for providing image quality information and method thereof
EP1439684A3 (en) Apparatus, method and system for providing information in accordance with one of a plurality of protocols
US20200204747A1 (en) Electronic device and method for obtaining data from second image sensor by means of signal provided from first image sensor
US11425300B2 (en) Electronic device and method for processing image by electronic device
US11115605B2 (en) Electronic device for selectively compressing image data according to read out speed of image sensor, and method for operating same
KR102499187B1 (en) Electronic device for compression processing image acquired by using camera and method for operating thefeof
US20200236317A1 (en) Method for transmitting image data and data associated with control of image capture, on basis of size of image data and size of data associated with control of image capture, and electronic device supporting same
US20170264757A1 (en) Image forming system including image forming apparatus with sleep mode, control method for image forming apparatus in system concerned, and storage medium storing control program for image forming apparatus
JP4592074B2 (en) Image processing apparatus and method thereof, and information processing apparatus and method thereof
JP2008225999A (en) Printing control system, printing control device and printing control program
CN117974479A (en) Image enhancement method, chip and image acquisition equipment
JP2005149347A (en) Method and system for apportioning print data processing, print request terminal, printer, print data processing program, and print control program
JP4732199B2 (en) Image data printing apparatus and image data printing method
JP2004112303A (en) Image processing method, image processor, and image processing system
KR100667794B1 (en) Printing method using plural printers and printing apparatus thereof
JP5521654B2 (en) Image forming apparatus and program
EP3751506A1 (en) Electronic device for processing image together with external electronic device and operation method thereof
JP5244473B2 (en) Endoscope device, terminal device, endoscope system, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090203