JP2013141053A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2013141053A
JP2013141053A JP2011289494A JP2011289494A JP2013141053A JP 2013141053 A JP2013141053 A JP 2013141053A JP 2011289494 A JP2011289494 A JP 2011289494A JP 2011289494 A JP2011289494 A JP 2011289494A JP 2013141053 A JP2013141053 A JP 2013141053A
Authority
JP
Japan
Prior art keywords
image
corrected
sharpness
image processing
corrected image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011289494A
Other languages
Japanese (ja)
Inventor
Shunzui Yamane
俊瑞 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011289494A priority Critical patent/JP2013141053A/en
Publication of JP2013141053A publication Critical patent/JP2013141053A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to easily find a desired image from among photographed images obtained by photographing the same object.SOLUTION: When a photographed image is input, processing for clipping an area including a subject and perspective correction processing are performed to generate a corrected image. Next, the corrected image generated this time is compared with a corrected image generated in the past to determine a group (image group) of similar images, and further, definition representing how much a character or a figure in the image is discriminable is calculated. Then, an image file which has the photographed image before correction, and has the corrected image and the obtained information as meta information is generated, and a corrected image with the highest definition is determined as a representative image.

Description

本発明は、特に、所望の画像を探し出すために用いて好適な画像処理装置、画像処理方法及びそのプログラムに関する。   The present invention particularly relates to an image processing apparatus, an image processing method, and a program thereof suitable for use in searching for a desired image.

従来、会社や学校、研究機関等で会議や集会を行う際には、ホワイトボードを用いて会議や集会の内容をまとめることが広く行われている。また、この際に、デジタルカメラ等を用いてホワイトボードを撮影し、会議の記録として残しておくことがよく行われている。ところが、ホワイトボードの前に人が立っている場合や物が置かれている場合には正面から撮影できず、斜めから撮影しなければならないことがたびたび発生する。このようにして撮影した画像には、ホワイトボードに書かれた内容が歪んで写っているため、保存や表示に適さないことが多い。   Conventionally, when a meeting or a meeting is held in a company, a school, a research institution or the like, it is widely performed to summarize the contents of the meeting or the meeting using a whiteboard. At this time, it is often performed to take a whiteboard using a digital camera or the like and leave it as a conference record. However, when a person stands in front of a whiteboard or when an object is placed, it is often impossible to shoot from the front and to shoot from an angle. The images taken in this way are often not suitable for storage or display because the content written on the whiteboard is distorted.

そこで、このような問題点を解決するために、撮影した板書内容の歪みをパース補正によって正面から撮影したような画像に撮影画像を補正することが行われている。例えば、特許文献1には、パース補正前の画像とパース補正後の画像とを保存する技術が開示されている。   Therefore, in order to solve such a problem, it has been performed to correct a captured image to an image as if it was captured from the front by perspective correction of distortion of the photographed board document content. For example, Patent Document 1 discloses a technique for storing an image before parse correction and an image after parse correction.

特開2008−99147号公報JP 2008-99147 A

カメラ映像機器工業会規格 CIPA DC-007 マルチピクチャフォーマットCamera & Imaging Products Association CIPA DC-007 Multi-Picture Format

しかしながら、フラッシュや照明の写り込み等によってホワイトボードに書かれた内容が鮮明でないことも多い。例えば図12に示すように、照明が写り込んで反射している画像1201やピンボケ・手ぶれ等によるぼやけた画像1202がパース補正によって得られてしまう場合がある。このような板書内容が鮮明でない画像が得られた場合は、撮影条件を変えてホワイトボードを複数回撮影することが一般に行われる。   However, the contents written on the whiteboard due to flash or lighting are often not clear. For example, as shown in FIG. 12, an image 1201 in which illumination is reflected and a blurred image 1202 due to out-of-focus or camera shake may be obtained by the perspective correction. When such an image with unclear blackboard content is obtained, it is generally performed to shoot the whiteboard a plurality of times while changing the shooting conditions.

一方、特許文献1に記載された技術においては、パース補正前の画像とパース補正後の画像とが別々のファイルに保存されてしまう。このため、ファイル名に関連性を持たせたとしても、撮影条件を変えてホワイトボードを複数回撮影するような場合には、板書内容に関するファイルが多くなってしまう。また、会議資料においては、板書内容を見やすくするために画像の補正を手動で調整する場合もあるため、補正後の画像だけではなく、補正前の画像を必要とすることが多い。したがって、複数のファイルから所望のファイルを探し出すことが面倒であるという問題点がある。   On the other hand, in the technique described in Patent Document 1, an image before parse correction and an image after parse correction are stored in separate files. For this reason, even if the file names are related, when the whiteboard is shot a plurality of times while changing the shooting conditions, the files relating to the contents of the blackboard increase. Also, in meeting materials, image correction may be manually adjusted in order to make it easier to see the contents of the board, so in many cases not only the corrected image but also the image before correction is required. Therefore, it is troublesome to find a desired file from a plurality of files.

本発明は前述の問題点に鑑み、同一の対象物を撮影した撮影画像の中から、所望の画像を簡単に探し出すことができるようにすることを目的としている。   An object of the present invention is to make it possible to easily find a desired image from photographed images obtained by photographing the same object.

本発明の画像処理装置は、同一の被写体を撮影した複数の撮影画像からそれぞれ前記被写体を切り出してパース補正した補正画像を生成する補正画像生成手段と、前記補正画像生成手段によって生成された補正画像の鮮明度を算出する算出手段と、前記算出手段によって前記鮮明度が算出された補正画像のうち、前記鮮明度が最も高い補正画像を代表画像として決定する決定手段とを有することを特徴とする。   The image processing apparatus according to the present invention includes a correction image generation unit that generates a correction image obtained by extracting and parsing the subject from a plurality of captured images of the same subject, and a correction image generated by the correction image generation unit. Calculating means for calculating the sharpness of the image, and determining means for determining, as a representative image, the corrected image having the highest sharpness among the corrected images whose sharpness is calculated by the calculating means. .

本発明によれば、ホワイトボードなどの同一の対象物を撮影した撮影画像の中から、最も鮮明な画像を簡単に探し出すことができる。   According to the present invention, it is possible to easily find the clearest image from among captured images obtained by photographing the same object such as a whiteboard.

実施形態における画像処理システムの構成例を示す図である。It is a figure which shows the structural example of the image processing system in embodiment. 2つの撮影装置からホワイトボードを斜めに撮影している様子を説明する図である。It is a figure explaining a mode that the whiteboard is image | photographed diagonally from two imaging devices. 撮影画像及び補正後の画像の一例を示す図である。It is a figure which shows an example of a picked-up image and the image after correction | amendment. 実施形態に係る画像処理装置の内部構成例を示すブロック図である。It is a block diagram which shows the internal structural example of the image processing apparatus which concerns on embodiment. 実施形態における画像処理装置の動作手順の一例を示すフローチャートである。6 is a flowchart illustrating an example of an operation procedure of the image processing apparatus according to the embodiment. 複数の撮影画像の一例を示す図である。It is a figure which shows an example of a some picked-up image. 図6に示す画像のパース補正後の画像の一例を示す図である。It is a figure which shows an example of the image after the parse correction of the image shown in FIG. 補正画像に対する画像群及び鮮明度の値をまとめたテーブルの一例を示す図である。It is a figure which shows an example of the table which put together the image group with respect to a correction image, and the value of a sharpness. 図6に示した撮影画像にメタ情報が付加された画像ファイルの例を示す図である。FIG. 7 is a diagram illustrating an example of an image file in which meta information is added to the captured image illustrated in FIG. 6. 実施形態において、表示装置に表示されるUIの例を示す図である。In an embodiment, it is a figure showing an example of UI displayed on a display. 実施形態において、表示装置に表示されるUIの他の例を示す図である。In an embodiment, it is a figure showing other examples of UI displayed on a display. 照明が写り込んで反射している画像及びぼやけた画像の一例を示す図である。It is a figure which shows an example of the image which illumination reflected and reflected, and the blurred image.

以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。また、以下の実施形態においては撮影対象の被写体としてホワイトボードを前提として説明しているが、本発明の適用先はホワイトボードに限定されるものではなく、紙資料や名刺など平面な撮影対象物全般に適用可能である。   Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations. In the following embodiments, a whiteboard is assumed as a subject to be photographed. However, the application destination of the present invention is not limited to a whiteboard, and a planar photographing object such as a paper document or a business card. Applicable in general.

(第1の実施形態)
図1は、本実施形態における画像処理システム7の構成例を示す図である。
図1に示すように、本実施形態に係る画像処理システム7は、撮影装置2と、画像処理装置3と、表示装置4とから構成されている。撮影装置2及び画像処理装置3は無線LAN等の無線通信路5で互いに接続されているが、特に無線である必要はなく、有線であっても構わない。また、画像処理装置3及び表示装置4はHDMI等の有線通信路6で互いに接続されているが、特に有線である必要はなく、無線であっても構わない。
(First embodiment)
FIG. 1 is a diagram illustrating a configuration example of an image processing system 7 in the present embodiment.
As shown in FIG. 1, the image processing system 7 according to the present embodiment includes an imaging device 2, an image processing device 3, and a display device 4. The imaging device 2 and the image processing device 3 are connected to each other through a wireless communication path 5 such as a wireless LAN, but need not be wireless and may be wired. In addition, the image processing apparatus 3 and the display apparatus 4 are connected to each other via a wired communication path 6 such as HDMI, but are not necessarily wired and may be wireless.

撮影装置2には、撮影ボタン21と液晶パネル等のビューファインダ22とが設けられている。図1に示す例では、撮影装置2の撮影対象物としてホワイトボード1が配置されているが、特にホワイトボードに限定する必要はなく、机の上に置かれた名刺や紙資料のように平面物であってもよい。ビューファインダ22には撮影対象物が表示され、撮影ボタン21が押されることにより撮影画像が生成され、そのデータが無線通信路5を通じて画像処理装置3に入力される。そして、画像処理装置3から出力される画像信号やGUIは有線通信路6を通じて表示装置4に送られ、その撮影画像が表示される。   The photographing apparatus 2 is provided with a photographing button 21 and a viewfinder 22 such as a liquid crystal panel. In the example shown in FIG. 1, the whiteboard 1 is arranged as an object to be photographed by the photographing apparatus 2, but it is not particularly limited to the whiteboard, and is flat like a business card or paper material placed on a desk. It may be a thing. The object to be photographed is displayed on the viewfinder 22, and a photographed image is generated by pressing the photographing button 21, and the data is input to the image processing device 3 through the wireless communication path 5. Then, the image signal and GUI output from the image processing device 3 are sent to the display device 4 through the wired communication path 6, and the captured image is displayed.

ここで、図2に示すように、2つの撮影装置2a、2bからホワイトボード1を斜めに撮影すると、それぞれ、図3に示す画像31a、31bのように歪んだ画像が得られる。本実施形態に係る画像処理装置3では、これらの歪んだ画像を入力し、射影変換等の画像処理によって歪み補正を行い、正面から撮影したような画像34を生成する。その際、射影変換のパラメータは、入力された画像の特徴点を検出することにより算出する。   Here, as shown in FIG. 2, when the whiteboard 1 is photographed obliquely from the two photographing devices 2a and 2b, distorted images such as images 31a and 31b shown in FIG. 3 are obtained, respectively. In the image processing apparatus 3 according to the present embodiment, these distorted images are input, distortion correction is performed by image processing such as projective transformation, and an image 34 as if taken from the front is generated. At this time, the projective transformation parameters are calculated by detecting feature points of the input image.

図4は、本実施形態に係る画像処理装置3の内部構成例を示すブロック図である。
図4において、UIデバイス401はマウスやデジタイザやキーボード等であり、画像処理装置3にユーザーの指示を入力するために用いられる。CPU402は、プログラム用記憶領域406からRAM403にプログラムを展開し、CPU402によって解釈・実行することによって画像処理装置3内の各種制御や計算、UIの表示等を制御する。
FIG. 4 is a block diagram illustrating an internal configuration example of the image processing apparatus 3 according to the present embodiment.
In FIG. 4, a UI device 401 is a mouse, a digitizer, a keyboard, or the like, and is used for inputting a user instruction to the image processing apparatus 3. The CPU 402 develops a program from the program storage area 406 to the RAM 403, and interprets and executes the program by the CPU 402, thereby controlling various controls and calculations in the image processing apparatus 3, UI display, and the like.

通信IF404は、撮影装置2や表示装置4との間の通信インターフェイスである。UI表示部405は、画像処理装置3の状態や処理内容を表示するLEDや液晶パネル等であるが、表示装置4を制御して表示する実装でも構わない。さらに、本実施形態に係る画像処理装置3は、プログラム用記憶領域406とデータ用記憶領域407とを備えている。具体的には、ハードディスクやフラッシュメモリを用いてこれら記憶領域は実現可能であるが、本発明は特定の記憶媒体に依存しないことは言うまでもない。   The communication IF 404 is a communication interface with the imaging device 2 and the display device 4. The UI display unit 405 is an LED, a liquid crystal panel, or the like that displays the state of the image processing device 3 and the processing content, but may be mounted so as to control and display the display device 4. Further, the image processing apparatus 3 according to the present embodiment includes a program storage area 406 and a data storage area 407. Specifically, these storage areas can be realized using a hard disk or a flash memory, but it goes without saying that the present invention does not depend on a specific storage medium.

なお、本実施形態の画像処理システム7は、会議の際に用いられることが多いため、実際の運用では、画像処理装置3上で議事録作成や会議情報管理等を行う会議システムと統合された構成であってもよい。   Since the image processing system 7 of the present embodiment is often used at the time of a conference, in actual operation, the image processing system 7 is integrated with a conference system that performs minutes creation, conference information management, and the like on the image processing device 3. It may be a configuration.

次に、本実施形態における画像処理装置3の動作手順について、図5のフローチャートを参照しながら説明する。なお、図5に示す各処理は、CPU402の制御により行われる。
まず、S501において、通信IF404を介して撮影装置2から撮影画像が入力されるまで待機する。そして、撮影画像が入力されると、S502において、領域切り出し処理とパース補正処理とを行う。S502の処理は、例えば特許文献1に記載されている歪み補正処理を用いることによって実現可能である。
Next, the operation procedure of the image processing apparatus 3 in the present embodiment will be described with reference to the flowchart of FIG. Each process shown in FIG. 5 is performed under the control of the CPU 402.
First, in step S <b> 501, the process waits until a photographed image is input from the photographing apparatus 2 via the communication IF 404. When a captured image is input, region extraction processing and perspective correction processing are performed in S502. The process of S502 can be realized by using, for example, a distortion correction process described in Patent Document 1.

ここで、撮影画像の一例として、図6に示す撮影画像601〜606がS501で入力された場合には、S502の処理によって図7に示す補正画像701〜703、705、706が生成される。ここで、図6に示す撮影画像604には明確な矩形領域が存在しないため、補正画像は生成されないものとする。   Here, as an example of the captured image, when the captured images 601 to 606 illustrated in FIG. 6 are input in S501, corrected images 701 to 703, 705, and 706 illustrated in FIG. 7 are generated by the processing of S502. Here, since a clear rectangular area does not exist in the captured image 604 shown in FIG. 6, it is assumed that a corrected image is not generated.

次に、S503において、今回生成された補正画像を過去に生成された補正画像と比較し、近い画像のグループ(画像群)を判定する。これにより、撮影条件を変えて同じ対象領域を撮影した複数の画像を1つの画像群にまとめることが可能となる。なお、画像の比較方法としては、例えば差分値を算出することによって比較する。今回の補正画像の画素の輝度成分をI(x,y)とし、過去の補正画像の画素の輝度成分をIP(x,y)とすると、ある領域Kの画像の差分Δは以下の式(1)により算出される。 Next, in S503, the corrected image generated this time is compared with the corrected image generated in the past, and a group (image group) of close images is determined. Thereby, it is possible to combine a plurality of images obtained by photographing the same target region under different photographing conditions into one image group. As an image comparison method, for example, the comparison is performed by calculating a difference value. When the luminance component of the pixel of the current corrected image is I (x, y) and the luminance component of the pixel of the past corrected image is I P (x, y), the difference Δ between the images in a certain region K is expressed by the following equation: Calculated by (1).

Figure 2013141053
Figure 2013141053

図7に示す例では、補正画像701〜703は互いに近い画像と判定され、例えば画像群Aと分類される。また、補正画像705、706も同様に近い画像と判定され、例えば画像群Xと判定される。本実施形態では、式(1)を用いて差分値を算出することによって画像の比較を行ったが、画像を比較することができるのであれば、他の方法を用いてもよい。   In the example illustrated in FIG. 7, the corrected images 701 to 703 are determined as images close to each other, and are classified as, for example, the image group A. Similarly, the corrected images 705 and 706 are also determined to be close images, for example, the image group X. In the present embodiment, the images are compared by calculating the difference value using Equation (1), but other methods may be used as long as the images can be compared.

次に、S504において、画像中の文字や図形がどれだけ判別可能かを表す鮮明度を算出する。鮮明度の算出方法としては、文字認識の結果として得られる認識確度を用いたり、画像の高周波成分の度合いを用いたりすることが可能であるが、鮮明度を算出できるのであればこれらの方法に限定するものではない。   Next, in S504, a sharpness level representing how many characters and figures in the image can be distinguished is calculated. As a method for calculating the sharpness, it is possible to use the recognition accuracy obtained as a result of character recognition or to use the degree of the high-frequency component of the image. However, if the sharpness can be calculated, these methods are used. It is not limited.

図7に示す例においては、補正画像701〜703、705、706の鮮明度は、例えば2、1、3、1、3とそれぞれ算出される。この場合、鮮明度の数値が高いほど鮮明であることを示している。なお、図8には、補正画像701〜703、705、706に対する画像群及び鮮明度の値をまとめたテーブルを示している。   In the example illustrated in FIG. 7, the sharpnesses of the corrected images 701 to 703, 705, and 706 are calculated as 2, 1, 3, 1, 3, for example. In this case, the higher the numerical value of the sharpness, the clearer the image. FIG. 8 shows a table in which image groups and sharpness values for the corrected images 701 to 703, 705, and 706 are summarized.

次に、S505において、それぞれの撮影画像に対してS502〜S504で得られた情報をメタ情報として関連付ける。これらのメタ情報は、例えばJPEGのアプリケーション・マーカセグメント等に格納可能である。   Next, in S505, the information obtained in S502 to S504 is associated with each captured image as meta information. Such meta information can be stored in, for example, a JPEG application marker segment.

図9は、図6に示した撮影画像にメタ情報が付加された画像ファイルの例を示す図である。
図9に示すように、画像ファイル901は、撮影画像601とそのメタ情報911とから構成されている。さらにメタ情報911は、図5のS502で得られた補正画像701と、S503で得られた画像群情報と、S504で得られた鮮明度とから構成されている。補正画像のサイズが大きくてメタ情報のサムネイル領域に収まらない場合には、リサイズして縮小するか非特許文献1に記載されているようなマルチピクチャフォーマットで格納してもよい。
FIG. 9 is a diagram illustrating an example of an image file in which meta information is added to the photographed image illustrated in FIG. 6.
As shown in FIG. 9, the image file 901 includes a captured image 601 and its meta information 911. Further, the meta information 911 includes the corrected image 701 obtained in S502 of FIG. 5, the image group information obtained in S503, and the sharpness obtained in S504. If the corrected image is too large to fit in the thumbnail area of the meta information, it may be resized and reduced or stored in a multi-picture format as described in Non-Patent Document 1.

画像ファイル901と同様に他の画像ファイル902、903、905、906も撮影画像とメタ情報とから構成されている。また、画像ファイル904のメタ情報914には、他のメタ情報912、913、915、916とは異なり、画像群や鮮明度の情報は含まれておらず、サムネイル領域には撮影画像604をリサイズして縮小した画像924が格納されている。   Similar to the image file 901, the other image files 902, 903, 905, and 906 are composed of captured images and meta information. Unlike the other meta information 912, 913, 915, and 916, the meta information 914 of the image file 904 does not include image group or sharpness information, and the captured image 604 is resized in the thumbnail area. Thus, a reduced image 924 is stored.

そして、図5の処理によりメタ情報が付加された画像ファイルは、CPU402の制御によりデータ用記憶領域407に記録される。そして、図5の処理が終了すると、これらの画像ファイルの中から、最も鮮明度の高い補正画像を代表画像として決定し、通信IF404を介して表示装置4に代表画像を出力して表示制御を行う。   Then, the image file to which the meta information is added by the processing of FIG. 5 is recorded in the data storage area 407 under the control of the CPU 402. When the processing in FIG. 5 is completed, the corrected image with the highest definition is determined as a representative image from these image files, and the representative image is output to the display device 4 via the communication IF 404 to perform display control. Do.

図10は、このようにして作成された画像ファイルを画像処理装置3が表示装置4へ出力して一覧表示する際に表示装置4に表示されるUIの例を示す図である。
図10に示すように、各画像ファイルのメタ情報中に画像群情報が含まれている場合には、同一画像群の中で最も鮮明度の高い画像を代表画像として表示する。図10に示す例では、画像枠1001にサムネイル画像として補正画像を表示しているが、撮影画像そのものを表示させても構わない。また、画像群情報を持っていない画像924を隠して表示しても構わない。
FIG. 10 is a diagram illustrating an example of a UI displayed on the display device 4 when the image processing device 3 outputs the image file thus created to the display device 4 and displays the list.
As shown in FIG. 10, when image group information is included in the meta information of each image file, an image having the highest definition in the same image group is displayed as a representative image. In the example shown in FIG. 10, the corrected image is displayed as a thumbnail image in the image frame 1001, but the captured image itself may be displayed. Further, the image 924 that does not have image group information may be hidden and displayed.

また、図10に示すボタン1002、1003のように代表画像以外も表示させるボタンをUIとして表示させても構わない。例えば、ボタン1003が押された場合は、例えば図11に示すように画像706と同一画像群に属する補正画像705も表示し、これによりボタン1003は、代表画像のみ表示に戻すためのボタン1101に切り替わるようにする。   Also, buttons that display other than the representative image, such as buttons 1002 and 1003 shown in FIG. 10, may be displayed as a UI. For example, when the button 1003 is pressed, a corrected image 705 belonging to the same image group as the image 706 is also displayed as shown in FIG. 11, for example, and the button 1003 is changed to a button 1101 for returning only the representative image to the display. Try to switch.

以上のように本実施形態によれば、同一画像群の中で最も鮮明度の高い画像を代表画像として決定するようにしたので、光などが反射して撮影された画像やぼやけた画像が含まれている場合も、会議資料として用いる画像を簡単に探し出すことができる。   As described above, according to the present embodiment, since the image with the highest definition in the same image group is determined as the representative image, an image captured by reflecting light or the like or a blurred image is included. In this case, an image used as a meeting material can be easily found.

なお、本実施形態においては、図5に示した処理を画像処理装置3により行う例について説明したが、撮影装置2の内部で行うようにしてもよい。この場合、サムネイル画像の一覧表示を表示装置4上で行うのではなく、撮影装置2のビューファインダ22上で行うようにしてもよい。このとき、ビューファインダ22をタッチパネルとして構成し、指によるポインティングができるようにすることが望ましい。   In the present embodiment, the example in which the processing illustrated in FIG. 5 is performed by the image processing device 3 has been described. However, the processing may be performed inside the imaging device 2. In this case, the thumbnail image list may be displayed on the viewfinder 22 of the photographing apparatus 2 instead of being displayed on the display apparatus 4. At this time, it is desirable to configure the viewfinder 22 as a touch panel so that pointing with a finger is possible.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

401 UIデバイス
402 CPU
403 RAM
404 通信IF
405 UI表示部
406 プログラム用記憶領域
407 データ用記憶領域
401 UI device 402 CPU
403 RAM
404 Communication IF
405 UI display section 406 Program storage area 407 Data storage area

Claims (6)

同一の被写体を撮影した複数の撮影画像からそれぞれ前記被写体を切り出してパース補正した補正画像を生成する生成手段と、
前記生成手段によって生成された補正画像の鮮明度を算出する算出手段と、
前記算出手段によって前記鮮明度が算出された補正画像のうち、前記鮮明度が最も高い補正画像を代表画像として決定する決定手段とを有することを特徴とする画像処理装置。
Generating means for generating a corrected image obtained by cutting out the subject from each of a plurality of captured images of the same subject and correcting the perspective;
Calculating means for calculating the sharpness of the corrected image generated by the generating means;
An image processing apparatus comprising: a determining unit that determines, as a representative image, a corrected image having the highest sharpness among the corrected images having the sharpness calculated by the calculating unit.
前記撮影画像と、前記撮影画像に係る補正画像とを関連付けて1つのファイルに記録する記録手段をさらに有することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a recording unit that records the captured image and the corrected image related to the captured image in a single file in association with each other. 前記記録手段は、前記撮影画像のメタ情報として、前記被写体を切り出してパース補正した補正画像を記録することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the recording unit records, as meta information of the captured image, a corrected image obtained by cutting out the subject and performing perspective correction. 前記決定手段によって決定された代表画像を表示装置に表示する表示制御手段をさらに有することを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising display control means for displaying the representative image determined by the determination means on a display device. 同一の被写体を撮影した複数の撮影画像からそれぞれ前記被写体を切り出してパース補正した補正画像を生成する生成工程と、
前記生成工程において生成された補正画像の鮮明度を算出する算出工程と、
前記算出工程において前記鮮明度が算出された補正画像のうち、前記鮮明度が最も高い補正画像を代表画像として決定する決定工程とを有することを特徴とする画像処理方法。
A generation step of generating a corrected image obtained by cutting out the subject from a plurality of captured images of the same subject and performing perspective correction;
A calculation step of calculating the sharpness of the corrected image generated in the generation step;
An image processing method comprising: a determining step of determining, as a representative image, a corrected image having the highest sharpness among the corrected images whose sharpness has been calculated in the calculating step.
同一の被写体を撮影した複数の撮影画像からそれぞれ前記被写体を切り出してパース補正した補正画像を生成する生成工程と、
前記生成工程において生成された補正画像の鮮明度を算出する算出工程と、
前記算出工程において前記鮮明度が算出された補正画像のうち、前記鮮明度が最も高い補正画像を代表画像として決定する決定工程とをコンピュータに実行させることを特徴とするプログラム。
A generation step of generating a corrected image obtained by cutting out the subject from a plurality of captured images of the same subject and performing perspective correction;
A calculation step of calculating the sharpness of the corrected image generated in the generation step;
A program that causes a computer to execute a determination step of determining, as a representative image, a corrected image having the highest sharpness among the corrected images for which the sharpness has been calculated in the calculation step.
JP2011289494A 2011-12-28 2011-12-28 Image processing device, image processing method, and program Pending JP2013141053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011289494A JP2013141053A (en) 2011-12-28 2011-12-28 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011289494A JP2013141053A (en) 2011-12-28 2011-12-28 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2013141053A true JP2013141053A (en) 2013-07-18

Family

ID=49038150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011289494A Pending JP2013141053A (en) 2011-12-28 2011-12-28 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2013141053A (en)

Similar Documents

Publication Publication Date Title
US7317458B2 (en) Image display apparatus, image display program, image display method, and recording medium for recording the image display program
JP6525611B2 (en) Image processing apparatus and control method thereof
KR101688753B1 (en) Grouping related photographs
WO2017020488A1 (en) Picture processing method and apparatus
US20160253298A1 (en) Photo and Document Integration
US20190050426A1 (en) Automatic grouping based handling of similar photos
CN104220975A (en) Gesture responsive image capture control and/or operation on image
JP5870639B2 (en) Image processing system, image processing apparatus, and image processing program
US9767588B2 (en) Method and apparatus for image processing
JP2018046337A (en) Information processing device, program and control method
CN111201773A (en) Photographing method and device, mobile terminal and computer readable storage medium
WO2019119826A1 (en) Image processing method and apparatus
JP5886662B2 (en) Image display device
JP6290038B2 (en) Electronic device, method and program
EP2811732B1 (en) Image processing apparatus, image processing method, computer-readable storage medium and program
JP2012109850A (en) Imaging apparatus, control method therefor, control program, and recording medium
JP2013141053A (en) Image processing device, image processing method, and program
US20150264268A1 (en) Display control apparatus, control method, and storage medium
JP4437996B2 (en) Index print creation method, apparatus, and program
EP2535807A1 (en) Computer system
JP2019179461A (en) Pocketbook management device, pocketbook management program, and pocketbook management method
JP6579925B2 (en) Image reproducing apparatus, control method therefor, program, and recording medium
JP2012133459A (en) Apparatus, method and program for estimating image, and computer-readable recording medium storing the program
WO2017016073A1 (en) Picture processing method, device, terminal and storage medium
US20230088309A1 (en) Device and method for capturing images or video