JP2007109102A - Image processing method and image processing device - Google Patents

Image processing method and image processing device Download PDF

Info

Publication number
JP2007109102A
JP2007109102A JP2005300785A JP2005300785A JP2007109102A JP 2007109102 A JP2007109102 A JP 2007109102A JP 2005300785 A JP2005300785 A JP 2005300785A JP 2005300785 A JP2005300785 A JP 2005300785A JP 2007109102 A JP2007109102 A JP 2007109102A
Authority
JP
Japan
Prior art keywords
image
output
display range
input
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005300785A
Other languages
Japanese (ja)
Inventor
Ichiro Umeda
一郎 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005300785A priority Critical patent/JP2007109102A/en
Publication of JP2007109102A publication Critical patent/JP2007109102A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically scale an input image to an output image size even for such an image as involves an error in relative positioning between a subject and an imaging device, such as a digital camera. <P>SOLUTION: An image processing device comprises a means for extracting connected components in an input image, a means for calculating a set of connected components in an area corresponding to an output image, and a means for calculating a set of connected components in an area corresponding to a specified scrolling amount. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は画像処理方法、コンピュータプログラム及び画像処理装置に関し、例えば画像を拡大または縮小する際に用いて好適な技術に関する。   The present invention relates to an image processing method, a computer program, and an image processing apparatus, and more particularly to a technique suitable for use in enlarging or reducing an image.

将来、スキャナ等で入力した画像のように、被写体と撮像装置の相対的な位置ずれが存在しない画像を入力画像として、入力画像を拡大または縮小して出力画像上に表示する画像処理方法として、特許文献1に示される様に、ヒストグラムに基づき行・文字を分割するものが存在する。   In the future, as an image processing method for displaying an image on which an input image is enlarged or reduced and displayed on an output image as an input image, such as an image input by a scanner or the like, in which there is no relative displacement between the subject and the imaging device, As shown in Patent Document 1, there is one that divides lines and characters based on a histogram.

特開2000−163044号公報JP 2000-163044 A 特開2003−288588号公報JP 2003-288588 A 特開2003−51005号公報Japanese Patent Laid-Open No. 2003-50005

しかしながら、デジタルカメラで撮影した画像のように、被写体と撮像装置の相対的な位置ずれが存在する場合にも、入力画像を出力画像サイズに合わせて自動的に拡大・縮小する画像処理方法が望まれている。   However, an image processing method that automatically enlarges / reduces an input image in accordance with the output image size is desired even when there is a relative displacement between the subject and the imaging device, such as an image taken with a digital camera. It is rare.

本発明は前述の問題点に鑑み、入力画像を出力画像サイズに合わせて自動的に拡大・縮小できるようにすることを目的としている。   The present invention has been made in view of the above-described problems, and an object thereof is to enable an input image to be automatically enlarged / reduced in accordance with an output image size.

本発明はこの要求に応えるために、入力画像の歪みや傾きを補正し拡大または縮小して出力する画像処理方法であって、画像を入力する入力工程と、画像を出力する出力工程と、前記出力工程において出力される画像のスクロールを指示する指示工程と、前記入力工程において入力される画像について連結成分抽出を行う抽出工程と、前記出力工程において出力される画像に相当する領域の連結成分の集合を求める第1の計算工程と、前記指示工程において指示されたスクロール量に相当する領域の連結成分の集合を求める第2の計算工程とを備えることを特徴とする画像処理方法等、を提供する。   In order to meet this demand, the present invention is an image processing method that corrects distortion and inclination of an input image and outputs the image by enlarging or reducing the image. The image processing method includes an input process for inputting an image, an output process for outputting an image, An instruction step for instructing scrolling of an image output in the output step, an extraction step for extracting a connected component for the image input in the input step, and a connected component of a region corresponding to the image output in the output step Provided is an image processing method comprising: a first calculation step for obtaining a set; and a second calculation step for obtaining a set of connected components in a region corresponding to the scroll amount instructed in the instruction step. To do.

本発明によれば、被写体と撮像装置の相対的な位置ずれがある場合にも、入力画像の拡大や縮小の倍率を自動的に設定でき、また、スクロールする範囲を自動的に設定できる。   According to the present invention, even when there is a relative positional shift between the subject and the imaging device, the magnification of the input image can be automatically set, and the scroll range can be automatically set.

(第1の実施形態)
本発明の実施形態について図面を用いて説明する。
図17は、本実施の形態としてデジタルカメラの内部構成例を示す図である。
図17において、1701はレンズ、シャッター、絞り、CCD等を含む撮像部である。1702は撮像部1701で撮像したアナログ映像信号をデジタル画像データに変換するA/D変換器である。1703は信号処理回路で、A/D変換器1702から出力された画像データに対してガンマ補正やホワイトバランス(WB)補正等の処理を行って、バス1704に出力し画像データはメモリ1706に記憶される。
(First embodiment)
Embodiments of the present invention will be described with reference to the drawings.
FIG. 17 is a diagram illustrating an internal configuration example of a digital camera as the present embodiment.
In FIG. 17, reference numeral 1701 denotes an imaging unit including a lens, a shutter, a diaphragm, a CCD, and the like. Reference numeral 1702 denotes an A / D converter that converts an analog video signal imaged by the imaging unit 1701 into digital image data. A signal processing circuit 1703 performs processing such as gamma correction and white balance (WB) correction on the image data output from the A / D converter 1702, and outputs the data to the bus 1704. The image data is stored in the memory 1706. Is done.

1705は圧縮回路で、周知のJPEGフォーマットに従い、画像信号を圧縮・符号化する。1706はメモリで、信号処理回路1703から入力された画像信号を記憶し、バス1704、1709を介して各装置の回路に対して出力する。また、各回路からの画像信号を記憶する。   Reference numeral 1705 denotes a compression circuit, which compresses and encodes an image signal in accordance with a well-known JPEG format. Reference numeral 1706 denotes a memory which stores the image signal input from the signal processing circuit 1703 and outputs it to the circuits of the respective devices via the buses 1704 and 1709. Also, the image signal from each circuit is stored.

1707は表示部であり、メモリ1706から入力される画像、あるいは記憶デバイス411に記憶された画像、あるいはメニュー画面を表示する。   A display unit 1707 displays an image input from the memory 1706, an image stored in the storage device 411, or a menu screen.

1710はデジタルカメラ1700の動作の操作・制御を行う操作部であり、メニューボタンや再生ボタンといった各種のスイッチを持つ。1711はMPU(Micro Processing Unit)で、不図示のメモリに記憶されたソフトウェアに従って、装置の各回路を制御する。本実施形態では、図6〜8に示す処理を制御している。   Reference numeral 1710 denotes an operation unit that operates and controls the operation of the digital camera 1700, and includes various switches such as a menu button and a playback button. Reference numeral 1711 denotes an MPU (Micro Processing Unit) which controls each circuit of the apparatus according to software stored in a memory (not shown). In the present embodiment, the processes shown in FIGS.

1712は記憶デバイスで、カメラから着脱可能なフラッシュメモリカード等であり、バス1709を介して入力される画像信号を記憶し、また記憶された画像信号を読み出し、バス1709介して各回路に出力する。   A storage device 1712 is a flash memory card or the like that can be detached from the camera, stores an image signal input via the bus 1709, reads out the stored image signal, and outputs it to each circuit via the bus 1709. .

1713は外部通信用のインターフェースであり、USB(Universal Serial Bus)、IEEE1394、無線LAN、Bluetooth等の伝送路1714介して外部情報機器1715との間で画像信号の転送を行う。   Reference numeral 1713 denotes an external communication interface that transfers image signals to / from an external information device 1715 via a transmission path 1714 such as USB (Universal Serial Bus), IEEE 1394, wireless LAN, or Bluetooth.

図1は、簡単な画像処理の一部について処理手順を示すフローチャートである。
ステップS107において、何を行うかを判断し、画像入力ならばステップS101で画像を入力し、ステップS102で入力画像の連結成分を検出する。
FIG. 1 is a flowchart showing a processing procedure for a part of simple image processing.
In step S107, it is determined what to do. If an image is input, the image is input in step S101, and a connected component of the input image is detected in step S102.

また、表示範囲の設定ならば、ステップS103で表示範囲の設定をし、ステップS104で出力すべき範囲を自動的に演算する。また、表示範囲の移動ならば、ステップS105で表示範囲の移動を選択し、ステップS106で表示範囲を移動する。   If the display range is set, the display range is set in step S103, and the range to be output is automatically calculated in step S104. If the display range is to be moved, the display range is selected in step S105, and the display range is moved in step S106.

被写体202とデジタルカメラ201の間に相対的な位置ずれが存在し撮像結果203に歪みや傾きが発生する例を図2に示す。このときの撮像結果203の例を図3に示す。   An example in which there is a relative displacement between the subject 202 and the digital camera 201 and distortion or tilt occurs in the imaging result 203 is shown in FIG. An example of the imaging result 203 at this time is shown in FIG.

デジタルカメラ201を図4に示す。
デジタルカメラ201はディスプレイ401、表示範囲移動手段402、表示領域移動手段403、画像表示要求手段404、表示範囲拡縮要求手段405、撮像装置406を備える。
A digital camera 201 is shown in FIG.
The digital camera 201 includes a display 401, a display range moving unit 402, a display area moving unit 403, an image display request unit 404, a display range enlargement / reduction request unit 405, and an imaging device 406.

デジタルカメラ201内部の処理手順を示すフローチャートを図6〜図8に示す。
撮像装置406が撮像結果203を得たとする。この時、図6のステップS601においてデジタルカメラ201が駆動し、撮像結果203が入力される。
6 to 8 are flowcharts showing processing procedures inside the digital camera 201.
Assume that the imaging device 406 has obtained the imaging result 203. At this time, the digital camera 201 is driven in step S601 in FIG.

次に、ステップS602において、入力画像について連結成分を検出する。その後、「い」や「こ」や「が」のように複数の連結成分で一文字を形成する場合について、隣接する連結成分同士を結合させ、一文字を示す連結成分を求める。   Next, in step S602, a connected component is detected for the input image. Thereafter, in the case where one character is formed by a plurality of connected components such as “I”, “ko”, and “ga”, adjacent connected components are joined together to obtain a connected component indicating one character.

次に、ステップS603において、入力画像について入力画像を領域分割する。この領域分割によって得られる領域の例を図9の901に示す。遠近歪みや傾きの存在する画像の領域分割法については、例えば特許文献2に記載されている。   Next, in step S603, the input image is divided into regions. An example of an area obtained by this area division is shown at 901 in FIG. For example, Patent Document 2 describes an area division method for an image having perspective distortion and inclination.

次に、ステップS604において、入力画像の傾きや歪みの補正の為の幾何変換行列を求める。傾きや歪みの補正の為の幾何変換行列の導出方法及び幾何変換行列の例については、例えば特許文献2や特許文献3に記載されている。   In step S604, a geometric transformation matrix for correcting the tilt and distortion of the input image is obtained. For example, Patent Document 2 and Patent Document 3 describe a method for deriving a geometric transformation matrix for correcting inclination and distortion and examples of the geometric transformation matrix.

次に、ステップS605において、前記幾何変換行列の逆変換行列を求める。この行列は出力画像から入力画像への変換行列を示す。次に、ステップS606において、画像の出力に遷移する。   Next, in step S605, an inverse transformation matrix of the geometric transformation matrix is obtained. This matrix indicates a conversion matrix from the output image to the input image. Next, in step S606, a transition is made to image output.

図7において、ステップS706で何を行うかを判断し、この判断の結果、前記ステップS605において画像の出力に遷移したとする。あるいは画像表示要求手段404によって画像の出力が要求された場合など、画像の出力を行うと判断した場合、ステップS701が駆動される。   In FIG. 7, what is to be performed is determined in step S706, and it is assumed that the result of this determination is transition to image output in step S605. Alternatively, when it is determined to output an image, such as when an image output is requested by the image display requesting unit 404, step S701 is driven.

次に、ステップS702において、前記ステップS603によって得られた領域の中から表示するべき領域を決定する。決定手法は任意である。次に、ステップS703において、表示範囲の設定に遷移する。   Next, in step S702, an area to be displayed is determined from the areas obtained in step S603. The determination method is arbitrary. Next, in step S703, the process proceeds to display range setting.

一方、ステップS706の判断の結果、表示領域移動手段403によって、表示領域の移動が要求された場合など、表示領域の移動を行うと判断した場合、ステップS704が駆動される。次に、ステップS705において、要求された表示領域の移動に従い、表示する領域を移動する。次に、ステップS703において、表示範囲の設定に遷移する。   On the other hand, as a result of the determination in step S706, if the display area moving unit 403 determines to move the display area, such as when the display area is requested to move, step S704 is driven. In step S705, the display area is moved in accordance with the requested movement of the display area. Next, in step S703, the process proceeds to display range setting.

次に、図8のステップS815で何を行うかを判断し、この判断の結果、前記ステップS703によって表示範囲の設定に遷移した場合など、表示範囲の設定を行うと判断した場合、ステップS801が駆動される。次に、ステップS802において、表示範囲初期値を決定する。この表示範囲初期値は、ステップS602において求められた連結成分の大きさと、ディスプレイ401内に一度に表示するべき文字数及び行数から求められる。   Next, what is to be performed is determined in step S815 in FIG. 8, and if it is determined that the display range is to be set as a result of this determination, such as when the display range is set in step S703, step S801 is performed. Driven. Next, in step S802, a display range initial value is determined. The display range initial value is obtained from the size of the connected component obtained in step S602 and the number of characters and lines to be displayed on the display 401 at a time.

即ち、ステップS603で得られた表示領域のうち901を表示対象とするとした場合、入力画像内の表示領域901内に原点902を設定する。そしてこの原点902から、ディスプレイ401内に一度に表示するべき文字数及び行数に相当する連結成分が占める領域1001を求め、表示範囲初期値とする。   That is, when the display area 901 in the display area obtained in step S603 is to be displayed, the origin 902 is set in the display area 901 in the input image. Then, from this origin 902, an area 1001 occupied by connected components corresponding to the number of characters and the number of lines to be displayed at once in the display 401 is obtained and set as a display range initial value.

ディスプレイ401内に一度に表示するべき文字数及び行数は、前もって設定してあるか、表示範囲拡縮要求手段405によって増減する数値である。また、原点902の設定において、自動的に画像の向きを判別してもよいし、あるいはユーザが明示的に向きを指定する手段を提供してもよい。   The number of characters and the number of lines to be displayed at a time in the display 401 are values set in advance or increased or decreased by the display range expansion / reduction request unit 405. In setting the origin 902, the orientation of the image may be automatically determined, or a means for the user to explicitly specify the orientation may be provided.

一方、ステップS815の判断の結果、表示範囲移動手段402によって表示範囲の移動が要求された場合など、表示範囲の移動を行うと判断した場合、ステップS803が駆動される。次に、ステップS804において、要求された表示範囲の移動に従い、表示する範囲を移動する。この表示範囲は、現在表示している範囲1001と、表示範囲移動手段402によって指示された移動量と、ステップS602において求められた連結成分から求められる。即ち、図10に示すように、現在表示している範囲1001を、表示範囲移動手段402によって指示された移動量に相当する連結成分の占める領域分だけ移動した領域1002を表示範囲とする。   On the other hand, as a result of the determination in step S815, when it is determined that the display range is to be moved, such as when the display range moving means 402 requests movement of the display range, step S803 is driven. In step S804, the display range is moved in accordance with the requested movement of the display range. This display range is obtained from the currently displayed range 1001, the movement amount instructed by the display range moving means 402, and the connected component obtained in step S602. That is, as shown in FIG. 10, a display area is an area 1002 that is moved from the currently displayed range 1001 by an area occupied by a connected component corresponding to the movement amount instructed by the display range moving unit 402.

一方、ステップS815の判断の結果、表示範囲拡縮要求手段405によって表示範囲の拡大や縮小が要求された場合など、表示範囲の拡縮を行うと判断した場合、ステップS805が駆動される。次に、ステップS806において、表示範囲の拡大や縮小を行う。この表示範囲の拡大や縮小は、ステップS602において求められた連結成分の大きさと、ディスプレイ401内に一度に表示するべき文字数及び行数に基づいて行われる。即ち、ディスプレイ401内に一度に表示するべき文字数及び行数を、要求された画像の拡大や縮小に従って増減させる。   On the other hand, as a result of the determination in step S815, when it is determined to enlarge or reduce the display range, such as when the display range enlargement / reduction request unit 405 requests expansion or reduction of the display range, step S805 is driven. In step S806, the display range is enlarged or reduced. The enlargement or reduction of the display range is performed based on the size of the connected component obtained in step S602 and the number of characters and lines to be displayed on the display 401 at a time. That is, the number of characters and the number of lines to be displayed at once in the display 401 are increased or decreased according to the requested image enlargement or reduction.

次に、図9に示す入力画像内の表示領域901内に原点902を設定する。この原点902から、1画面に表示するべき文字数及び行数に相当する連結成分が占める領域1001を、表示範囲とする。設定される原点902は、現在表示されている領域の中央もしくは四隅の一つである事が望ましい。   Next, the origin 902 is set in the display area 901 in the input image shown in FIG. A region 1001 occupied by connected components corresponding to the number of characters and the number of lines to be displayed on one screen from the origin 902 is set as a display range. The origin 902 to be set is preferably the center or one of the four corners of the currently displayed area.

一方、ステップS815の判断の結果、CPUがアイドル状態などであって表示範囲の移動の先読みが要求された場合など、表示範囲の移動の先読みを行うと判断した場合、ステップS807が駆動される。次に、ステップS808において、表示範囲や表示領域の移動の履歴から次の移動を推測し、その移動後の領域を選択する。あるいは、現在表示している範囲の近辺の領域を先読みする表示範囲とする。   On the other hand, as a result of the determination in step S815, when it is determined that the display range is to be pre-read, such as when the CPU is in an idle state or the like and a pre-read of the display range is requested, step S807 is driven. Next, in step S808, the next movement is estimated from the movement history of the display range and the display area, and the area after the movement is selected. Alternatively, an area in the vicinity of the currently displayed range is set as a display range for prefetching.

次に、ステップS809において、図11に示すような補正済み画像1102の集合である補正済画像履歴1101に、表示範囲1001の一部分もしくは全てが含まれていないかどうかを検索する。そして、補正済画像履歴1101と表示範囲1001との表示範囲差分1003のみを補正すべき範囲とする。また、表示範囲1001において補正済画像履歴1101に含まれる部分1103を求めておく。   Next, in step S809, it is searched whether or not a part or all of the display range 1001 is included in the corrected image history 1101 that is a set of corrected images 1102 as shown in FIG. Only the display range difference 1003 between the corrected image history 1101 and the display range 1001 is set as a range to be corrected. Also, a portion 1103 included in the corrected image history 1101 in the display range 1001 is obtained.

次に、ステップS810において、表示範囲差分1003の傾きや歪みを補正する。これは、ステップS604において求められた変換行列を、前記ステップS809で求めた表示範囲差分1003に適用する。これにより変換後の画像1104を得る。   Next, in step S810, the inclination and distortion of the display range difference 1003 are corrected. This applies the transformation matrix obtained in step S604 to the display range difference 1003 obtained in step S809. As a result, a converted image 1104 is obtained.

次に、ステップS811において、変換画像1104を補正済画像履歴1101に追加する。このとき、表示範囲差分1003と変換画像1104を対応付けて記録しておくことにより、ステップS809における検索を容易にする。また、記憶領域が限られていて変換画像1104の記録が不可能な場合などには、費用時範囲差分1003から最も遠い場所に存在する補正済み画像1102を削除する。   In step S811, the converted image 1104 is added to the corrected image history 1101. At this time, the display range difference 1003 and the converted image 1104 are recorded in association with each other to facilitate the search in step S809. Further, when the storage area is limited and the converted image 1104 cannot be recorded, the corrected image 1102 existing at the farthest place from the cost range difference 1003 is deleted.

次に、ステップS812において、表示範囲1001において補正済画像履歴1101に含まれる部分1103と、変換画像1104を結合する。次に、ステップS813において、得られた画像を、ディスプレイ401の解像度に合わせて拡大もしくは縮小し、出力画像1105を得る。   In step S812, the converted image 1104 is combined with the portion 1103 included in the corrected image history 1101 in the display range 1001. Next, in step S813, the obtained image is enlarged or reduced according to the resolution of the display 401 to obtain an output image 1105.

次に、ステップS814において、出力画像1105をディスプレイ401に出力する。但し、ステップS807、すなわち表示範囲の移動の先読みが駆動されていた場合には、ディスプレイ401への出力は行うべきではない。   Next, in step S814, the output image 1105 is output to the display 401. However, in step S807, that is, when the pre-reading of the movement of the display range is driven, output to the display 401 should not be performed.

以上説明した通り、本実施形態におけるデジタルカメラ201では、位置ずれを伴う撮影画像図3について、まず、ディスプレイ401内に表示する範囲1001の画像補正を行い出力画像1105のみを得る。これにより、画像全体を補正するよりも速くかつ少ない記憶領域で出力画像1105を得る。また、変換した画像や操作履歴を記録し、また、操作履歴に基づく先読みを行う事で、ユーザが表示範囲移動手段402や表示領域移動手段403を操作した場合にも速やかに応答する。
本実施形態における画像処理装置はデジタルカメラに限るものではなく、携帯電話、携帯情報端末、その他のデバイスであっても構わない。
As described above, in the digital camera 201 according to the present embodiment, first, image correction of the range 1001 displayed in the display 401 is performed on the captured image FIG. As a result, the output image 1105 is obtained faster and with a smaller storage area than when the entire image is corrected. In addition, the converted image and operation history are recorded, and prefetching is performed based on the operation history, so that even when the user operates the display range moving unit 402 or the display area moving unit 403, a quick response is made.
The image processing apparatus in this embodiment is not limited to a digital camera, and may be a mobile phone, a portable information terminal, or other devices.

(第2の実施形態)
第2の実施形態について説明する。なお、第1の実施形態と同一の箇所(図2〜4、17)いついては、説明を割愛する。
本実施例の形態を図5に示す。図5において、デジタルカメラ201と画像補正サーバー501はUSB、LAN、無線LAN、Bluetooth、インターネット、等の何らかの手段で通信可能である。
(Second Embodiment)
A second embodiment will be described. Note that the description of the same parts (FIGS. 2 to 4 and 17) as in the first embodiment will be omitted.
The form of the present embodiment is shown in FIG. In FIG. 5, the digital camera 201 and the image correction server 501 can communicate with each other by some means such as USB, LAN, wireless LAN, Bluetooth, and the Internet.

画像補正サーバー501内部の処理手順のフローチャートを図12〜図13に示す。
また、デジタルカメラ201内部の処理手順のフローチャートを図14〜図16に示す。
12 to 13 are flowcharts of processing procedures inside the image correction server 501.
Also, flowcharts of processing procedures inside the digital camera 201 are shown in FIGS.

デジタルカメラ201において、撮像装置406が撮像結果203を得たとする。この時、図14のステップS1401が駆動される。次に、ステップS1402において、撮像結果203が画像補正サーバー501に送信される。   In the digital camera 201, it is assumed that the imaging device 406 has obtained the imaging result 203. At this time, step S1401 in FIG. 14 is driven. In step S <b> 1402, the imaging result 203 is transmitted to the image correction server 501.

画像補正サーバー501において、画像を受信すると、図12のステップS1201が駆動され、撮像結果203を得る。次に、ステップS1202において、入力画像について連結成分を検出する。この連結成分の導出法はステップS602と等しい。   When the image correction server 501 receives an image, step S1201 in FIG. 12 is driven, and an imaging result 203 is obtained. Next, in step S1202, a connected component is detected for the input image. The method for deriving this connected component is the same as in step S602.

次に、ステップS1203において、入力画像について入力画像を領域分割する。この領域分割によって得られる領域の例を図9の901に示す。遠近歪みや傾きの存在する画像の領域分割法については例えば特許文献2に記載されている。   In step S1203, the input image is divided into regions. An example of an area obtained by this area division is shown at 901 in FIG. For example, Patent Document 2 discloses an area dividing method for an image having perspective distortion and inclination.

次に、ステップS1204において、入力画像の傾きや歪みの補正の為の幾何変換行列を求める。傾きや歪みの補正の為の幾何変換行列の導出方法及び幾何変換行列の例については、例えば特許文献2や特許文献3に記載されている。   In step S1204, a geometric transformation matrix for correcting the inclination and distortion of the input image is obtained. For example, Patent Document 2 and Patent Document 3 describe a method for deriving a geometric transformation matrix for correcting inclination and distortion and examples of the geometric transformation matrix.

次に、ステップS1205において、前記幾何変換行列の逆変換行列を求める。この行列は出力画像から入力画像への変換行列を示す。次に、ステップS1206において、画像入力終了と分割された領域に関する情報がデジタルカメラ201に送信される。   Next, in step S1205, an inverse transformation matrix of the geometric transformation matrix is obtained. This matrix indicates a conversion matrix from the output image to the input image. In step S <b> 1206, information related to the end of image input and the divided area is transmitted to the digital camera 201.

次に図15において、ステップS1507で何を行うかを判断する。この判断の結果、デジタルカメラ201において、画像入力終了と、分割された領域に関する情報を受信する場合など、分割領域の受信を行うと判断した場合は、ステップS1501が駆動される。一方、ステップS1507の判断の結果、画像表示要求手段404によって画像の出力が要求される場合など、画像出力要求があると判断した場合は、ステップS1502が駆動される。   Next, in FIG. 15, it is determined what to do in step S1507. As a result of this determination, if the digital camera 201 determines to receive a divided area, such as when image input is completed and information regarding the divided area is received, step S1501 is driven. On the other hand, if it is determined in step S1507 that there is an image output request, such as when image output is requested by the image display requesting unit 404, step S1502 is driven.

次に、ステップS1503において、前記ステップS1203によって得られた領域の中から表示するべき領域を決定する。決定手法は任意である。次に、ステップS1504において、表示範囲の設定に遷移する。   Next, in step S1503, an area to be displayed is determined from the areas obtained in step S1203. The determination method is arbitrary. Next, in step S1504, the process proceeds to display range setting.

一方、ステップS1507の判断の結果、表示領域移動手段403によって、表示領域の移動が要求された場合など、表示領域の移動を行うと判断した場合、ステップS1505が駆動される。次に、ステップS1506において、要求された表示領域の移動に従い、表示する領域を移動する。次に、ステップS1504において、表示範囲の設定に遷移する。   On the other hand, as a result of the determination in step S1507, when the display area moving unit 403 determines to move the display area, for example, when the display area is requested to move, step S1505 is driven. In step S1506, the display area is moved in accordance with the requested movement of the display area. Next, in step S1504, the process proceeds to display range setting.

次に図16において、ステップS1617で何を行うかを判断し、この判断の結果、デジタルカメラ201において、前記ステップS1504によって表示範囲の設定に遷移した場合など、表示範囲の設定を行うと判断した場合、ステップS1601が駆動される。次に、ステップS1602において、表示範囲初期値決定要求が送信される。   Next, in FIG. 16, it is determined what to do in step S <b> 1617, and as a result of this determination, it is determined in the digital camera 201 that the display range is set, such as when the display range is set in step S <b> 1504. If so, step S1601 is driven. Next, in step S1602, a display range initial value determination request is transmitted.

一方、ステップS1617の判断の結果、デジタルカメラ201において、表示範囲拡縮要求手段405によって表示範囲の拡大や縮小が要求された場合など、表示範囲の拡大や縮小を行うと判断した場合、ステップS1603が駆動される。次に、ステップS1604において、表示範囲拡縮要求が送信される。   On the other hand, if it is determined in step S1617 that the display range enlargement / reduction is requested by the display range enlargement / reduction request unit 405 in the digital camera 201, step S1603 is executed. Driven. Next, in step S1604, a display range expansion / contraction request is transmitted.

一方、ステップS1617の判断の結果、デジタルカメラ201において、表示範囲移動手段402によって表示範囲の移動が要求された場合など、表示範囲の移動を行うと判断した場合、ステップS1605が駆動される。次に、ステップS1608において、表示範囲移動要求と移動方向と移動量を送信する。   On the other hand, if it is determined in step S1617 that the display range is to be moved in the digital camera 201, such as when the display range is moved by the display range moving unit 402, step S1605 is driven. In step S1608, a display range movement request, a movement direction, and a movement amount are transmitted.

一方、ステップS1617の判断の結果、デジタルカメラ201において、CPUがアイドル状態などであって表示範囲の移動の先読みが要求された場合など、表示範囲の移動の先読みを行うと判断した場合、ステップS1606が駆動される。次に、ステップS1607において、表示範囲や表示領域の移動の履歴から次の移動を推測する。   On the other hand, as a result of the determination in step S1617, if it is determined in the digital camera 201 that the CPU is in an idle state and the display range movement is prefetched such as when the display range movement is prefetched, step S1606 is performed. Is driven. Next, in step S1607, the next movement is estimated from the movement history of the display range and the display area.

次に、ステップS1608において、表示範囲移動要求と移動方向と移動量を送信する。   In step S1608, a display range movement request, a movement direction, and a movement amount are transmitted.

次に、ステップS1609において、表示範囲を受信する。次に、ステップS1610において、補正済画像履歴から補正済み画像を探す。この検索方法と画像補正範囲導出方法は第1の実施形態のステップS809と等しい。次に、ステップS1611において、画像補正範囲と画像補正要求を画像補正サーバー501に送信する。   In step S1609, the display range is received. Next, in step S1610, a corrected image is searched from the corrected image history. This search method and image correction range derivation method are the same as step S809 of the first embodiment. In step S 1611, the image correction range and the image correction request are transmitted to the image correction server 501.

次に、ステップS1612において、補正画像を受信する。次に、ステップS1613において、変換画像を補正済画像履歴に追加する。この追加方法は第1の実施形態のステップS811と等しい。   Next, in step S1612, a corrected image is received. In step S1613, the converted image is added to the corrected image history. This addition method is the same as step S811 of the first embodiment.

次に、ステップS1614において、補正した画像と補正済み画像を結合する。この追加方法は第1の実施形態のステップS812と等しい。次に、ステップS1615において、得られた画像を出力画像に合わせて拡大もしくは縮小する。この拡大縮小方法は第1の実施形態のステップS813と等しい。   Next, in step S1614, the corrected image and the corrected image are combined. This addition method is equivalent to step S812 in the first embodiment. Next, in step S1615, the obtained image is enlarged or reduced in accordance with the output image. This enlargement / reduction method is equivalent to step S813 of the first embodiment.

次に、ステップS1616において、出力画像1105をディスプレイ401に出力する。但し、ステップS1606、すなわち表示範囲の移動の先読みが駆動されていた場合には、ディスプレイ401への出力は行うべきではない。   Next, in step S1616, the output image 1105 is output to the display 401. However, in step S1606, that is, when the pre-reading of the movement of the display range is driven, output to the display 401 should not be performed.

次に図13において、ステップS1311で何を行うかを判断する。この判断の結果、画像補正サーバー501において、表示範囲初期値決定要求を受信した場合など、表示範囲初期値決定を行うと判断した場合、ステップS1301が駆動される。次に、ステップS1302において、表示範囲初期値を決定する。この表示範囲初期値の導出方法は第1の実施形態のステップS802と等しい。次に、ステップS1305において、表示範囲がデジタルカメラ201に送信される。   Next, in FIG. 13, it is determined what to do in step S1311. As a result of this determination, if the image correction server 501 determines to determine the display range initial value, such as when a display range initial value determination request is received, step S1301 is driven. Next, in step S1302, a display range initial value is determined. The method for deriving the display range initial value is the same as that in step S802 of the first embodiment. In step S 1305, the display range is transmitted to the digital camera 201.

一方、ステップS1311の判断の結果、画像補正サーバー501において、表示範囲移動要求と移動方向と移動量を受信した場合など、表示範囲の移動を行うと判断した場合、ステップS1303が駆動される。次に、ステップS1304において、受信した移動方向と移動量に従い、表示する範囲を移動する。この移動後の表示範囲の導出方法は第1の実施形態のステップS804と等しい。次に、ステップS1305において、表示範囲をデジタルカメラ201に送信する。   On the other hand, as a result of the determination in step S1311, when the image correction server 501 determines to move the display range, such as when a display range movement request, a movement direction, and a movement amount are received, step S1303 is driven. In step S1304, the display range is moved according to the received movement direction and movement amount. The method for deriving the display range after movement is the same as step S804 in the first embodiment. In step S1305, the display range is transmitted to the digital camera 201.

一方、ステップS1311の判断の結果、画像補正サーバー501において、表示範囲拡縮要求を受信した場合など、表示範囲の拡縮を行うと判断した場合、ステップS1306が駆動される。次に、ステップS1307において、表示範囲の拡大や縮小を行う。この表示範囲の拡大や縮小は第1の実施形態のステップS806に等しい。次に、ステップS1305において、表示範囲をデジタルカメラ201に送信する。   On the other hand, as a result of the determination in step S1311, when the image correction server 501 determines that the display range is to be expanded, such as when a display range expansion request is received, step S1306 is driven. In step S1307, the display range is enlarged or reduced. This enlargement or reduction of the display range is equivalent to step S806 in the first embodiment. In step S1305, the display range is transmitted to the digital camera 201.

一方、ステップS1311の判断の結果、画像補正サーバー501において、画像補正範囲と画像補正要求を受信した場合など、画像の補正を行うと判断した場合、ステップS1308が駆動される。次に、ステップS1309において、範囲内の傾きや歪みを補正する。この補正方法は第1の実施形態のステップS810と等しい。次に、ステップS1310において、変換画像をデジタルカメラ201に送信する。
以上説明した通り、本実施形態におけるデジタルカメラ201では、位置ずれを伴う撮影画像図3について、ディスプレイ401内に表示する範囲1001の画像補正のみをまず行い出力画像1105のみ得る。これにより、画像全体を補正するよりも速くかつ少ない記憶領域で出力画像1105を得る。また、変換した画像や操作履歴を記録し、また、操作履歴に基づく先読みを行う事で、ユーザが表示範囲移動手段402や表示領域移動手段403を操作した場合にも速やかに応答する。
On the other hand, as a result of the determination in step S1311, if the image correction server 501 determines that image correction is to be performed, such as when an image correction range and an image correction request are received, step S1308 is driven. Next, in step S1309, the inclination and distortion within the range are corrected. This correction method is the same as step S810 in the first embodiment. Next, in step S1310, the converted image is transmitted to the digital camera 201.
As described above, in the digital camera 201 according to the present embodiment, only the image correction of the range 1001 displayed in the display 401 is first performed on the captured image FIG. As a result, the output image 1105 is obtained faster and with a smaller storage area than when the entire image is corrected. In addition, the converted image and operation history are recorded, and prefetching is performed based on the operation history, so that even when the user operates the display range moving unit 402 or the display area moving unit 403, a quick response is made.

また、Connected Component解析や画像補正などの処理はサーバー側で行っているので、デジタルカメラ201側には大きなメモリや早いCPU速度は要求されない。   In addition, since processing such as Connected Component analysis and image correction is performed on the server side, a large memory and a fast CPU speed are not required on the digital camera 201 side.

(本発明に係る他の実施形態)
前記実施形態における画像処理装置はデジタルカメラとサーバーの組み合わせに限るものではない。前述した本発明の実施形態における画像処理装置を構成する各手段、並びに画像処理方法の各工程は、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。
(Other embodiments according to the present invention)
The image processing apparatus in the embodiment is not limited to a combination of a digital camera and a server. Each means constituting the image processing apparatus and each step of the image processing method in the embodiment of the present invention described above can be realized by operating a program stored in a RAM or ROM of a computer. This program and a computer-readable recording medium recording the program are included in the present invention.

また、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。   Further, the present invention can be implemented as, for example, a system, apparatus, method, program, or recording medium. Specifically, the present invention may be applied to a system including a plurality of devices. The present invention may be applied to an apparatus composed of a single device.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムまたは装置に直接、または遠隔から供給する。そして、そのシステムまたは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   Note that the present invention supplies a software program that implements the functions of the above-described embodiments directly or remotely to a system or apparatus. This includes the case where the system or the computer of the apparatus is also achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスクなどがある。さらに、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM、DVD−R)などもある。   Examples of the recording medium for supplying the program include a floppy (registered trademark) disk, a hard disk, an optical disk, and a magneto-optical disk. Further, there are MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する方法がある。そして、前記ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, there is a method of connecting to a homepage on the Internet using a browser of a client computer. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、その他の方法として、本発明のプログラムを暗号化してCD−ROM等の記録媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   As another method, the program of the present invention is encrypted, stored in a recording medium such as a CD-ROM, distributed to users, and encrypted from a homepage via the Internet to users who have cleared predetermined conditions. Download the key information to be solved. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。さらに、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. Furthermore, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.

さらに、その他の方法として、まず記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。そして、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。   As another method, the program read from the recording medium is first written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Then, based on the instructions of the program, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are also realized by the processing.

簡単な画像処理の一部について処理手順を示すフローチャートである。It is a flowchart which shows a process sequence about a part of simple image processing. 撮像結果に歪みや傾きが発生する例を示す図である。It is a figure which shows the example which distortion and inclination generate | occur | produce in an imaging result. 図2の状態で撮像した場合の撮像結果を示す図である。It is a figure which shows the imaging result at the time of imaging in the state of FIG. 本発明の第1の実施形態におけるデジタルカメラの外観を示す図である。It is a figure which shows the external appearance of the digital camera in the 1st Embodiment of this invention. 本発明の第2の実施形態におけるデジタルカメラと画像サーバーとを示す図である。It is a figure which shows the digital camera and image server in the 2nd Embodiment of this invention. 本発明の第1の実施形態におけるデジタルカメラ内部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence inside the digital camera in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるデジタルカメラ内部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence inside the digital camera in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるデジタルカメラ内部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence inside the digital camera in the 1st Embodiment of this invention. 本発明の第1の実施形態における領域分割によって得られる領域の例を示す図である。It is a figure which shows the example of the area | region obtained by the area | region division | segmentation in the 1st Embodiment of this invention. 本発明の第1の実施形態において、現在表示している範囲を移動した例を示す図である。It is a figure which shows the example which moved the range currently displayed in the 1st Embodiment of this invention. 本発明の第1の実施形態において、補正済み画像の集合を示す図である。FIG. 5 is a diagram illustrating a set of corrected images in the first embodiment of the present invention. 本発明の第2の実施形態における画像補正サーバー内部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence inside the image correction server in the 2nd Embodiment of this invention. 本発明の第2の実施形態における画像補正サーバー内部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence inside the image correction server in the 2nd Embodiment of this invention. 本発明の第2の実施形態におけるデジタルカメラ内部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence inside the digital camera in the 2nd Embodiment of this invention. 本発明の第2の実施形態におけるデジタルカメラ内部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence inside the digital camera in the 2nd Embodiment of this invention. 本発明の第2の実施形態におけるデジタルカメラ内部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence inside the digital camera in the 2nd Embodiment of this invention. 本発明の第1の実施形態におけるデジタルカメラの内部構成例を示す図である。It is a figure which shows the example of an internal structure of the digital camera in the 1st Embodiment of this invention.

符号の説明Explanation of symbols

201 デジタルカメラ
202 被写体
203 撮像結果
1700 デジタルカメラ
1701 撮像部
1702 A/D変換器
1703 信号処理回路
1704 バス
1705 圧縮回路
1706 メモリ
1707 表示部
1709 バス
1710 操作部
1711 MPU
1712 記憶デバイス
1713 外部通信用のインターフェース
1714 伝送路
1715 外部情報機器
201 Digital Camera 202 Subject 203 Imaging Result 1700 Digital Camera 1701 Imaging Unit 1702 A / D Converter 1703 Signal Processing Circuit 1704 Bus 1705 Compression Circuit 1706 Memory 1707 Display Unit 1709 Bus 1710 Operation Unit 1711 MPU
1712 Storage device 1713 External communication interface 1714 Transmission path 1715 External information device

Claims (3)

入力画像の歪みや傾きを補正し拡大または縮小して出力する画像処理方法であって、
画像を入力する入力工程と、
画像を出力する出力工程と、
前記出力工程において出力される画像のスクロールを指示する指示工程と、
前記入力工程において入力される画像について連結成分抽出を行う抽出工程と、
前記出力工程において出力される画像に相当する領域の連結成分の集合を求める第1の計算工程と
前記指示工程において指示されたスクロール量に相当する領域の連結成分の集合を求める第2の計算工程とを備えることを特徴とする画像処理方法。
An image processing method that corrects distortion and tilt of an input image and outputs the image after enlarging or reducing,
An input process for inputting an image;
An output process for outputting an image;
An instruction step for instructing scrolling of the image output in the output step;
An extraction step of extracting connected components for the image input in the input step;
A first calculation step for obtaining a set of connected components in the region corresponding to the image output in the output step; and a second calculation step for obtaining a set of connected components in the region corresponding to the scroll amount instructed in the indicating step. An image processing method comprising:
前記請求項1に記載の画像処理方法の各工程をコンピュータに実行させることを特徴とするコンピュータプログラム。   A computer program causing a computer to execute each step of the image processing method according to claim 1. 入力画像の歪みや傾きを補正し拡大または縮小して出力する画像処理装置であって、
画像を入力する入力手段と、
画像を出力する出力手段と、
前記出力手段が出力する画像のスクロールを指示する指示手段と、
前記入力手段が入力する画像について連結成分抽出を行う抽出手段と、
前記出力手段が出力する画像に相当する領域の連結成分の集合を求める第1の計算手段と、
前記指示手段で指示されたスクロール量に相当する領域の連結成分の集合を求める第2の計算手段とを備えることを特徴とする画像処理装置。
An image processing apparatus that corrects distortion and inclination of an input image and outputs an enlarged or reduced image.
An input means for inputting an image;
An output means for outputting an image;
Instruction means for instructing scrolling of an image output by the output means;
Extraction means for extracting connected components for an image input by the input means;
First calculation means for obtaining a set of connected components in a region corresponding to an image output by the output means;
An image processing apparatus comprising: a second calculation unit that obtains a set of connected components in a region corresponding to the scroll amount instructed by the instruction unit.
JP2005300785A 2005-10-14 2005-10-14 Image processing method and image processing device Pending JP2007109102A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005300785A JP2007109102A (en) 2005-10-14 2005-10-14 Image processing method and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005300785A JP2007109102A (en) 2005-10-14 2005-10-14 Image processing method and image processing device

Publications (1)

Publication Number Publication Date
JP2007109102A true JP2007109102A (en) 2007-04-26

Family

ID=38034915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005300785A Pending JP2007109102A (en) 2005-10-14 2005-10-14 Image processing method and image processing device

Country Status (1)

Country Link
JP (1) JP2007109102A (en)

Similar Documents

Publication Publication Date Title
JP2013533669A (en) Video summary instruction metadata storage
KR20120055860A (en) Digital photographing apparatus and method for providing a picture thereof
JP2009199586A (en) Information processing apparatus and control method thereof
JP2014131217A (en) Photographing device, photographing system, control method, and program for deterring leakage of personal information
JP6527582B2 (en) Image pickup apparatus and image recording method
US9307113B2 (en) Display control apparatus and control method thereof
US7576790B2 (en) Terminal control apparatus, terminal control method, terminal control program and storage medium
JP2013135459A (en) Imaging apparatus and control method and program thereof
JP2007109102A (en) Image processing method and image processing device
JP2014115388A (en) Information processor, information processing system, control method, and program
JP2007201935A (en) Control method of image processing apparatus, and image processing apparatus
JP2015106843A (en) Imaging device, imaging control method and program
JP2006340150A (en) Image list updating method in digital camera system
JP6380493B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP2013135425A (en) Image browsing device, control method therefor and program
JP6337451B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2004032636A (en) Image transmitter and image receiver
JP5942422B2 (en) Information processing apparatus, control method thereof, and program
JP5392244B2 (en) Imaging apparatus, control method, and program
JP2007124150A (en) Apparatus and method for image processing, and for processing image data file, computer program, and recording medium
JP5800535B2 (en) Information processing apparatus, imaging apparatus, control method thereof, and program thereof
JP2006074165A (en) Method and device for image processing
JP6347943B2 (en) Image output apparatus, image output method, and program
JP2006157517A (en) Image storage system, method, and program
JP5020737B2 (en) Image processing apparatus, image processing apparatus control method, program, and storage medium