JP2011024052A - Image processing apparatus, image processing control method, and image processing system - Google Patents

Image processing apparatus, image processing control method, and image processing system Download PDF

Info

Publication number
JP2011024052A
JP2011024052A JP2009168280A JP2009168280A JP2011024052A JP 2011024052 A JP2011024052 A JP 2011024052A JP 2009168280 A JP2009168280 A JP 2009168280A JP 2009168280 A JP2009168280 A JP 2009168280A JP 2011024052 A JP2011024052 A JP 2011024052A
Authority
JP
Japan
Prior art keywords
image
instruction information
template
image processing
photographic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009168280A
Other languages
Japanese (ja)
Inventor
Kiyoshi Kusama
澄 草間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009168280A priority Critical patent/JP2011024052A/en
Publication of JP2011024052A publication Critical patent/JP2011024052A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To readily generate photography instruction information to instruct a photographer to photograph an image inserted in a photo album. <P>SOLUTION: The processing apparatus acquires image data where photographic images are arranged, determines the area of them, generates a template for defining the layout area of the defined photograph images, calculates a feature value of each image of the photograph images, and generates the photography instruction information for giving an instruction on the contents to be photographed based on the feature value. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、フォトアルバム作成を支援するための画像処理装置及びその方法に関する。   The present invention relates to an image processing apparatus and method for supporting photo album creation.

近年、デジタルカメラの普及により、撮影した画像から各種アプリケーションを操作することによって、フォトアルバムを作成することが容易にできるようになった。しかしながら、見栄えの良いフォトアルバムを作成するために、どのようなテンプレートにどの画像を配置してレイアウトすればよいのかを決定するには、熟練した技術者やデザイナーによる作業が必要である。   In recent years, with the widespread use of digital cameras, it has become easy to create photo albums by operating various applications from captured images. However, in order to create a good-looking photo album, it is necessary to work by a skilled engineer or designer to determine which image should be arranged and laid out in which template.

特許文献1では、レイアウト作業を補助する方法が開示されている。すなわち、まず画像挿入領域に挿入されるべき画像の構図情報が与えられ、編集者がその画像を選択する。そして選択された画像が与えられた構図情報に適合するように、拡大率の変更やトリミング位置を示す加工情報が生成され、その加工情報に従って選択画像を加工する方法が提示されている。   Patent Document 1 discloses a method for assisting layout work. That is, first, composition information of an image to be inserted into the image insertion area is given, and the editor selects the image. Then, processing information indicating the change of the enlargement ratio and the trimming position is generated so that the selected image matches the given composition information, and a method of processing the selected image according to the processing information is presented.

特開2005−182767号公報JP 2005-182767 A

しかしながら、特許文献1では、構図情報は予め与えられえるものであって、構図情報自体を作成する方法については、言及されていなかった。また、特許文献1は、構図情報を用いて撮影済みの画像を加工するものに過ぎず、撮影時にこれらの構図情報を利用することは考慮されていなかった。本発明はこのような課題を解決するため、フォトアルバムに挿入される画像として撮影すべき構図などの内容を撮影者に指示するための、撮影指示情報を生成することを目的とする。   However, in Patent Document 1, composition information can be given in advance, and a method for creating composition information itself has not been mentioned. In addition, Patent Document 1 merely processes an image that has been shot using the composition information, and it has not been considered to use the composition information at the time of shooting. In order to solve such a problem, an object of the present invention is to generate photographing instruction information for instructing a photographer of contents such as a composition to be photographed as an image to be inserted into a photo album.

本発明における画像処理装置は、写真画像が配置された画像データを取得する取得手段と、前記画像データにおける前記写真画像の領域を判定する判定手段と、前記判定された写真画像の領域の配置を定義するテンプレートを生成するテンプレート生成手段と、前記写真画像の各々の画像の特徴量を計測し、該特徴量に基づいて撮影すべき内容を指示する撮影指示情報を生成する撮影指示情報生成手段とを備えることを特徴とする画像処理装置。   An image processing apparatus according to the present invention includes an acquisition unit that acquires image data in which a photographic image is arranged, a determination unit that determines a region of the photographic image in the image data, and an arrangement of the determined region of the photographic image. A template generation unit that generates a template to be defined; a shooting instruction information generation unit that measures a feature amount of each of the photographic images and generates shooting instruction information that indicates contents to be shot based on the feature amount; An image processing apparatus comprising:

フォトアルバムに挿入される画像の撮影を撮影者に指示するための、撮影指示情報を簡単に生成することができる。   It is possible to easily generate shooting instruction information for instructing a photographer to take a picture to be inserted into a photo album.

画像処理装置の構成を表す図である。It is a figure showing the structure of an image processing apparatus. 主要な処理の流れを表すフローチャートである。It is a flowchart showing the flow of main processes. 画像が挿入されたアルバム台紙の例を示す図である。It is a figure which shows the example of the album mount in which the image was inserted. アルバムからテンプレートと撮影指示情報を作成するフローチャートである。10 is a flowchart for creating a template and shooting instruction information from an album. 写真部分を解析して画像の特徴量を算出するフローチャートである。It is a flowchart which calculates the feature-value of an image by analyzing a photograph part. テンプレートと撮影指示情報の例を示す図である。It is a figure which shows the example of a template and imaging | photography instruction information. テンプレートと撮影指示情報を記録した構造化文書の例を示す図である。It is a figure which shows the example of the structured document which recorded the template and imaging | photography instruction information. 撮影指示情報を利用し、撮影する動作のフローチャートである。It is a flowchart of the operation | movement which image | photographs using imaging | photography instruction information. 顔情報を用いた撮影情報の表示例を示す図である。It is a figure which shows the example of a display of the imaging | photography information using face information. シーン情報を用いた撮影情報の表示例を示す図である。It is a figure which shows the example of a display of the imaging | photography information using scene information. 色情報を用いた撮影情報の表示例を示す図である。It is a figure which shows the example of a display of the imaging | photography information using color information. 全ての特徴量の情報を用いた撮影情報の表示例を示す図である。It is a figure which shows the example of a display of the imaging | photography information using the information of all the feature-values. 画像情報を用いた撮影情報の表示例を示す図である。It is a figure which shows the example of a display of the imaging | photography information using image information.

<実施形態1>
図1は、本実施形態を実現する画像処理システムにおける画像処理装置の概略を示した図である。画像処理システムは、画像処理装置と画像の撮影装置(撮影デバイス)を含む。CPU101は、コンピュータのシステム全体の動作をコントロールし、一次記憶102に格納されたプログラムの実行などを行う。
<Embodiment 1>
FIG. 1 is a diagram schematically illustrating an image processing apparatus in an image processing system that implements the present embodiment. The image processing system includes an image processing device and an image photographing device (photographing device). The CPU 101 controls the operation of the entire computer system and executes programs stored in the primary storage 102.

一次記憶102は、主メモリであり、二次記憶103に記憶されたプログラムなどを読み込んで格納する。二次記憶103は、例えばハードディスクなどがこれに該当する。一般に一次記憶の容量は二次記憶の容量より小さく、一次記憶に格納しきれないプログラムやデータなどは二次記憶に格納される。また、長時間記憶しなくてはならないデータなども二次記憶に格納される。本実施形態における処理手順を実現するようなコンピュータプログラムは二次記憶103に格納し、プログラム実行時に一次記憶102に読み込んで、CPU101が実行処理を行う。   The primary storage 102 is a main memory, and reads and stores programs stored in the secondary storage 103. The secondary storage 103 corresponds to, for example, a hard disk. Generally, the capacity of the primary storage is smaller than the capacity of the secondary storage, and programs and data that cannot be stored in the primary storage are stored in the secondary storage. Data that must be stored for a long time is also stored in the secondary storage. A computer program that implements the processing procedure in the present embodiment is stored in the secondary storage 103, read into the primary storage 102 when the program is executed, and the CPU 101 executes the execution process.

入力デバイス104とは、例えばマウスやキーボード、タッチパネルデバイス、ボタンなどがこれに該当する。これらの入力デバイス104は、プログラムなどに割り込み信号を送る場合に用いる。   Examples of the input device 104 include a mouse, a keyboard, a touch panel device, and buttons. These input devices 104 are used when sending an interrupt signal to a program or the like.

出力デバイス105とは、例えば液晶パネルや外部モニタ、プリンタなどが該当する。   Examples of the output device 105 include a liquid crystal panel, an external monitor, and a printer.

撮影デバイス106は、カメラなどが該当する。撮影デバイス106は、撮影レンズを介して入射した被写体光を受光して撮像信号に変換して出力する撮像素子と、撮像素子から出力された撮像信号を画像データに変換して出力するA/D変換部と、A/D変換部の出力した画像データを記憶する記憶部などを備える。また撮影デバイス106で撮影された画像は、直接又は間接的に一次記憶102や二次記憶103へ読み込まれる。   The photographing device 106 corresponds to a camera or the like. The imaging device 106 receives an object light incident through the imaging lens, converts the imaging light into an imaging signal, and outputs the imaging signal. The imaging device 106 converts the imaging signal output from the imaging element into image data and outputs the image data. A conversion unit and a storage unit that stores image data output from the A / D conversion unit are provided. Further, an image photographed by the photographing device 106 is read directly or indirectly into the primary storage 102 or the secondary storage 103.

I/Oデバイス107は、メモリーカードなどの外部メモリ入出力デバイスや、USBケーブルなどの入出力部などが該当し、例えばスキャナーなどを接続することで外部から情報を取得することができる。   The I / O device 107 corresponds to an external memory input / output device such as a memory card and an input / output unit such as a USB cable. For example, information can be acquired from the outside by connecting a scanner or the like.

図2は、本実施形態における全体の主要なフローを示すものである。   FIG. 2 shows an overall main flow in the present embodiment.

S201において、まずCPU101は、スキャナーなどに接続されたI/Oデバイス107を介して、1以上の写真画像を含む既存のアルバムをスキャンし、アルバムの情報を入力する。ここでの既存のアルバムは、撮影時に参照する、既に写真画像が挿入されたアルバムを意味する。このアルバムは、図3に示すような実際に製本された冊子の写真画像の挿入されたアルバム台紙でも良いし、PDFファイルや画像ファイルなどの電子データでもかまわない。   In step S201, the CPU 101 first scans an existing album including one or more photographic images via the I / O device 107 connected to a scanner or the like, and inputs album information. The existing album here refers to an album in which a photographic image is already inserted, which is referred to at the time of shooting. This album may be an album mount in which a photograph image of a booklet actually bound as shown in FIG. 3 is inserted, or may be electronic data such as a PDF file or an image file.

S202において、CPU101は、取得したアルバムの情報のデータから、挿入画像の構図を示すテンプレートデータ生成と撮影指示情報生成を行う。次にステップS203において、CPU101は、生成した撮影指示情報を撮像デバイス(カメラ)106に転送し、カメラの表示部に撮影指示情報を表示する。   In step S <b> 202, the CPU 101 generates template data indicating the composition of the inserted image and generation of shooting instruction information from the acquired album information data. In step S203, the CPU 101 transfers the generated shooting instruction information to the imaging device (camera) 106 and displays the shooting instruction information on the display unit of the camera.

ステップS204において、ユーザは、カメラに表示された撮影指示情報に従って撮影する。次に、以上述べたアルバムの情報の読み込みから撮影指示情報の生成までについて、図4のフローチャートを用いて詳細に説明する。   In step S <b> 204, the user performs shooting according to the shooting instruction information displayed on the camera. Next, a detailed description will be given of the above-described reading of album information to generation of shooting instruction information with reference to the flowchart of FIG.

ステップS401において、ステップS201で述べたようにアルバムを読み込む。ステップS402において、CPU101は、読み込んだアルバム情報におけるアルバム台紙領域とその台紙領域に挿入された画像領域をそれぞれ判定し、2つに分割する。この領域の判定には、例えば特開平09−223240公報などによる公知の領域認識・領域分割技術を用いて良い。   In step S401, the album is read as described in step S201. In step S402, the CPU 101 determines each of the album mount area and the image area inserted into the mount area in the read album information, and divides it into two. For the determination of this area, for example, a known area recognition / area division technique disclosed in Japanese Patent Laid-Open No. 09-223240 may be used.

ステップS403において、CPU101は、アルバム台紙の空白部分、そして文字やグラフィックス部と判定した部分をテンプレートデータと決定し、テンプレート生成を行う。また挿入画像と判定した部分を写真画像のデータとする。ここでのテンプレートは、決定された1以上の写真画像の領域の配置を定義するためのものである。   In step S403, the CPU 101 determines a blank portion of the album mount and a portion determined to be a character or graphics portion as template data, and generates a template. A portion determined to be an insertion image is used as photographic image data. The template here is for defining the arrangement of the determined region of one or more photographic images.

ここで、テンプレートデータ内の写真画像のデータの部分は、プレースホルダー(以下「PH」と言う)と呼ばれる。このPHは、アルバム作成時に画像が挿入される部分であり、例えば図6(a)のように示される。   Here, the data portion of the photographic image in the template data is called a placeholder (hereinafter referred to as “PH”). This PH is a portion into which an image is inserted when creating an album, and is shown, for example, as shown in FIG.

テンプレートデータにはその他に様々な情報が含まれるが、本発明の主題ではないため、ここでは説明を省略する。   Various other information is included in the template data, but since it is not the subject of the present invention, description thereof is omitted here.

ステップS404において、CPU101は、読み込んだアルバム情報内の写真画像のデータの解析を行う。この写真画像のデータの解析については、図5のフローチャートを用いて詳細に説明する。   In step S404, the CPU 101 analyzes photographic image data in the read album information. The analysis of the photographic image data will be described in detail with reference to the flowchart of FIG.

S501において、まずCPU101は、写真画像のデータの中に人物の顔が検出されたか否かを判断する。もし顔が検出された場合はステップS502に進み、顔が検出されなかった場合はステップS504に進む。   In step S501, the CPU 101 first determines whether a human face has been detected in the photographic image data. If a face is detected, the process proceeds to step S502, and if no face is detected, the process proceeds to step S504.

次にS502において、CPU101は、人物の顔の数を計数し、またその位置、サイズ、向き、表情などにつき周知技術を用いて計測する。更にS503において、CPU101は、全ての顔について計測したかどうかを判断する。もしまだ未計測の顔が残っている場合にはステップS502に進み、未測の写真画像について計測する。全ての顔を計測した場合にはステップS504にすすむ。   In step S502, the CPU 101 counts the number of human faces, and measures the position, size, orientation, facial expression, and the like using known techniques. In step S503, the CPU 101 determines whether all faces have been measured. If an unmeasured face still remains, the process proceeds to step S502, and an unmeasured photographic image is measured. If all faces have been measured, the process proceeds to step S504.

S504においては、CPU101は、画像シーン決定のため各画像のシーンを検出し決定する。例えば、画像シーンとはポートレート・シーン、風景・シーン、夜景・シーン、集合写真・シーンなどに対応する画像シーン決定および画像シーンが縦位置か横位置かについて検出する。   In step S504, the CPU 101 detects and determines a scene of each image for determining an image scene. For example, the image scene is determined as an image scene corresponding to a portrait scene, a landscape / scene, a night view / scene, a group photo / scene, and the like, and whether the image scene is a vertical position or a horizontal position is detected.

画像シーン決定の方法としては、画像の顔の数が一定値以上であった場合には集合写真、顔のサイズが一定サイズ以上であった場合にはポートレート、画像の平均輝度が閾値より低かった場合には夜景、それ以外の場合には風景といったように決定する。   The method of determining the image scene is that when the number of faces in the image is greater than a certain value, the group photo is taken. When the face size is greater than a certain size, the portrait and the average brightness of the image are lower than the threshold. If it is a night view, it is determined as a night view, otherwise it is a landscape.

次にS505においては、CPU101は、画像の色を計測し色の画素配置を検出する。ここで計測するのは画像中の代表色であり、所定の閾値以上の出現頻度の高い色とする。また、写真画像の中で、計測された出現頻度の高い色について、その色が画像のどの画素に配置されているかについての色画素配置取得を行い、決定する。   In step S <b> 505, the CPU 101 measures the color of the image and detects the pixel arrangement of the color. Here, a representative color in the image is measured, and a color having a high appearance frequency equal to or higher than a predetermined threshold is used. In addition, for a color having a high appearance frequency that is measured in a photographic image, color pixel arrangement acquisition is performed to determine which pixel in the image the color is arranged.

以上のように図5のフローチャートに従って、CPU101は、全ての写真画像のデータの部分を解析する。全ての写真の解析結果は、例えば図6(b)のようにまとめられ、一次記憶102または二次記憶103に格納される。   As described above, according to the flowchart of FIG. 5, the CPU 101 analyzes the data portions of all the photographic images. The analysis results of all the photographs are collected as shown in FIG. 6B, for example, and stored in the primary storage 102 or the secondary storage 103.

次にステップS405において、CPU101はテンプレートデータと全ての写真の解析結果から撮影装置で撮影者が撮影するときの撮影補助を行う撮影指示情報を生成し、その撮影指示情報を一次記憶102または二次記憶103のメモリに格納する。ここで、撮影指示情報とはテンプレートデータ内のPHにどのような写真を撮影すればよいかを指示する情報である。   In step S <b> 405, the CPU 101 generates shooting instruction information for assisting shooting when the user takes a picture with the shooting apparatus from the template data and the analysis results of all the photos, and stores the shooting instruction information in the primary storage 102 or the secondary storage. Store in the memory 103. Here, the shooting instruction information is information for instructing what kind of photograph should be taken at the PH in the template data.

テンプレートデータと撮影指示情報は、例えば図7のように示すような内容が一次記憶102または二次記憶103のメモリに格納される。ここで、図7の領域701はテンプレートデータをあらわしており、領域702はPHの撮影指示情報をあらわしている。   The template data and the shooting instruction information are stored in the memory of the primary storage 102 or the secondary storage 103 as shown in FIG. Here, an area 701 in FIG. 7 represents template data, and an area 702 represents PH shooting instruction information.

XMLやHTMLなどの構造化文書として記録しても良いし、各ページの画像データにメタデータとして付加しても良い。本実施形態の撮影指示情報とは、テンプレートの何れのPHにどのような被写体の写真を撮影していくかを指示するものである。   It may be recorded as a structured document such as XML or HTML, or may be added as metadata to the image data of each page. The shooting instruction information according to the present embodiment is an instruction for which PH of the template what kind of subject is to be shot.

最後にS406において、CPU101は、全てのアルバムのページを読み込んだかどうかを判断する。もし全てのページを読み込んでいなかったら、ステップS401に戻り、読み込み終わったら処理を終了する。   Finally, in S406, the CPU 101 determines whether all album pages have been read. If not all pages have been read, the process returns to step S401, and the process ends when reading is completed.

以上、テンプレートデータと撮影指示情報との作成方法について説明した。   The method for creating the template data and the shooting instruction information has been described above.

次に、撮影装置において、作成した撮影指示情報を利用して撮影する動作について、図8のフローチャートを用いて説明する。ここで言う撮影装置は、この画像処理装置と直接接続された撮影デバイス106を言う。しかし、この撮影装置は、図1で示す画像処理装置に直接接続される必要はなく、間接的にI/Oデバイス107を介してネットワークで接続されたカメラ(不図示)や、撮影指示情報が転送されたメモリーカードを装着したカメラ(不図示)でもよい。ここでは、撮影デバイス106に撮影指示情報が送信された場合について説明する。   Next, an operation of photographing using the created photographing instruction information in the photographing apparatus will be described with reference to the flowchart of FIG. The imaging device here refers to the imaging device 106 directly connected to the image processing apparatus. However, this imaging apparatus does not need to be directly connected to the image processing apparatus shown in FIG. 1, and a camera (not shown) connected indirectly via a network via the I / O device 107, and imaging instruction information A camera (not shown) equipped with a transferred memory card may be used. Here, a case where shooting instruction information is transmitted to the shooting device 106 will be described.

S801において、撮影デバイス106は、内部の受信手段により、テンプレートおよび撮影指示情報を受信し、撮影デバイス106内のメモリ(不図示)に読み込む。次にステップS802において、撮影デバイス106の制御部(不図示)は、最初のPHの撮影指示情報を解読し、撮影デバイスの表示部(不図示)へ表示する。ここでの撮影指示情報は、図6(b)で示した、PH毎に顔に関する情報、シーンに関する情報および色に関する情報などである。   In step S <b> 801, the photographing device 106 receives a template and photographing instruction information by an internal receiving unit, and loads the template and photographing instruction information into a memory (not shown) in the photographing device 106. In step S802, the control unit (not shown) of the imaging device 106 decodes the first PH shooting instruction information and displays it on the display unit (not shown) of the imaging device. Here, the shooting instruction information includes information regarding a face, information regarding a scene, information regarding a color, and the like shown in FIG. 6B.

図9を用いて、これらの表示方法について説明する。図9は撮影デバイス106であるデジタルカメラの背面部をあらわしている。カメラ操作部901は、シャッタースピードやモードの切替、また表示の切替などを行い、撮影スルー画像902は、撮影中の画像を表示する。撮影指示情報表示部903はユーザに対して、撮影する画像に関する撮影指示情報を表示する。はアルバムレイアウト表示部904は、アルバムの台紙全体と挿入画像を表示する。   These display methods will be described with reference to FIG. FIG. 9 shows the back side of a digital camera which is the photographing device 106. The camera operation unit 901 performs switching of shutter speed and mode, display switching, and the like, and the shooting through image 902 displays an image being shot. The shooting instruction information display unit 903 displays shooting instruction information regarding an image to be shot to the user. The album layout display unit 904 displays the entire album mount and the inserted image.

図9は顔の情報を使った撮影指示情報を表示している。ここで、PH1に入れるべき画像に関して、顔に関する撮影指示情報が表示される。また、撮影スルー画像902も表示され、ユーザである撮影者は両者の画像を比較しながら撮影する。   FIG. 9 shows shooting instruction information using face information. Here, regarding the image to be put in PH1, shooting instruction information regarding the face is displayed. A photographed through image 902 is also displayed, and a photographer who is a user photographs while comparing both images.

図10はシーンの情報を使った撮影指示情報を表示している。ここで、PH1に入れるべき画像に関して、シーン情報が表示される。ここでは、撮影スルー画像902も表示され、撮影者は両者を比較しながら撮影する。   FIG. 10 displays shooting instruction information using scene information. Here, scene information is displayed regarding the image to be placed in PH1. Here, a photographed through image 902 is also displayed, and the photographer photographs while comparing the two.

図11は色の情報を使った撮影指示情報を示している。ここで、PH1に入れるべき画像の色の配置が表示される。さらに撮影スルー画像902も表示され、撮影者は両者を比較しながら撮影する。以上、撮影指示情報を3つに分けて表示したが、全ての撮影指示情報を一緒に表示しても良い。   FIG. 11 shows photographing instruction information using color information. Here, the arrangement of the colors of the image to be put in PH1 is displayed. A photographed through image 902 is also displayed, and the photographer shoots while comparing the two. As described above, the shooting instruction information is displayed in three parts, but all the shooting instruction information may be displayed together.

図12は、顔、シーン、色の全ての情報を用いた撮影指示情報を示している。撮影者はこの全情報と撮影スルー画像とを比較しながら、撮影する。また、特徴量だけでなく、画像を表示しても良い。図13はPH1にもともとスキャンしたアルバムに入っていた画像の各々に対して撮影指示情報を表示する。撮影者はこのPHの撮影指示情報とこれから撮ろうとする撮影スルー画像902とを比較する。   FIG. 12 shows shooting instruction information using all information of face, scene, and color. The photographer shoots while comparing all the information with the shot through image. In addition to the feature amount, an image may be displayed. FIG. 13 displays shooting instruction information for each of the images contained in the album originally scanned with PH1. The photographer compares this PH shooting instruction information with the shooting through image 902 to be shot.

S803において、撮影者は撮影指示情報を参照しながら、撮影を行う。S804において、撮影後に、CPU101は、撮影デバイス106で撮影された画像を解析し、画像の特徴量を算出する。ここでの特徴量としては、図6(b)に示されるような顔情報、シーン情報および色情報である。   In step S803, the photographer performs photographing while referring to the photographing instruction information. In step S <b> 804, after shooting, the CPU 101 analyzes the image shot by the shooting device 106 and calculates the feature amount of the image. The feature amount here is face information, scene information, and color information as shown in FIG.

S805において、CPU101は撮影画像とPHの撮影指示情報の特徴量とを比較する。ここで、PH内の撮影指示情報ともっとも合致度が高く、未だ撮影されていないPHに撮影画像を関連付ける。   In step S <b> 805, the CPU 101 compares the captured image with the feature amount of the PH shooting instruction information. Here, the photographed image is associated with the PH that has the highest degree of matching with the photographing instruction information in the PH and has not yet been photographed.

S806において、CPU101は、全てのPHに撮影画像が挿入されたかどうかを判断する。ここで、全ての撮影が完了しておらず、PHに未だ挿入されていないものがある場合にはステップS802に戻り、全てのPHが挿入された場合にはステップS807に進む。   In step S806, the CPU 101 determines whether a captured image has been inserted into all PHs. Here, if all of the photographing has not been completed and there are those that have not yet been inserted into the PH, the process returns to step S802, and if all the PHs have been inserted, the process proceeds to step S807.

S807において、CPU101は、アルバム内の画像が全て埋まったというメッセージを、撮影デバイスの表示部、例えば撮影指示情報表示部903に表示して、撮影を終了する。このように、本実施形態では既存のアルバムの情報を取得することによって、撮影指示情報とテンプレートを作成し、作成した撮影指示情報を用いてアルバムに適した撮影を行うことができる。   In step S <b> 807, the CPU 101 displays a message that all the images in the album are filled up on the display unit of the shooting device, for example, the shooting instruction information display unit 903, and ends shooting. As described above, in this embodiment, by acquiring information on an existing album, shooting instruction information and a template can be created, and shooting suitable for the album can be performed using the created shooting instruction information.

尚、本実施形態では、画像の撮影を静止画撮影として説明したが、静止画のみならず動画撮影であっても、実施可能であることは言うまでもない。このようにして、本実施形態では既存のアルバムの情報を取得することによって、撮影指示情報とテンプレートを作成し、作成した撮影指示情報を用いることで、撮影者は誤ることなく、アルバムに基づいた撮影を行うことができる。   In the present embodiment, the image shooting is described as still image shooting. However, it goes without saying that the present invention can be implemented not only for still images but also for moving image shooting. In this way, in the present embodiment, by acquiring the information of the existing album, the shooting instruction information and the template are created, and by using the created shooting instruction information, the photographer is based on the album without error. Shooting can be performed.

<その他の実施例>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other examples>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (7)

写真画像が配置された画像データを取得する取得手段と、
前記画像データにおける前記写真画像の領域を判定する判定手段と、
前記判定された写真画像の領域の配置を定義するテンプレートを生成するテンプレート生成手段と、
前記写真画像の各々の画像の特徴量を計測し、該特徴量に基づいて撮影すべき内容を指示する撮影指示情報を生成する撮影指示情報生成手段とを備えることを特徴とする画像処理装置。
Acquisition means for acquiring image data in which photographic images are arranged;
Determining means for determining a region of the photographic image in the image data;
Template generating means for generating a template that defines the layout of the determined region of the photographic image;
An image processing apparatus comprising: photographing instruction information generating means for measuring a feature amount of each of the photographic images and generating photographing instruction information for instructing contents to be photographed based on the feature amount.
前記テンプレートと前記撮影指示情報とを撮影装置に送信することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the template and the imaging instruction information are transmitted to an imaging apparatus. 前記撮影指示情報生成手段は、
前記写真画像の各々の写真画像について人物の顔の数を計数する計数手段と、
前記写真画像の画像シーンを決定する画像シーン決定手段と、
前記写真画像で出現頻度が所定の閾値以上の色について該色の画素の配置に関する情報を取得する色画素配置取得手段との少なくとも1つを備えることを特徴とする請求項1に記載の画像処理装置。
The photographing instruction information generating means includes
Counting means for counting the number of human faces for each of the photographic images;
Image scene determining means for determining an image scene of the photographic image;
2. The image processing according to claim 1, further comprising at least one color pixel arrangement acquisition unit configured to acquire information relating to an arrangement of pixels of the color with respect to a color having an appearance frequency equal to or higher than a predetermined threshold in the photographic image. apparatus.
前記画像シーン決定手段は、ポートレート・シーン、風景・シーン、夜景・シーン、集合写真・シーンの少なくとも1つを含む画像シーンに基づき、前記写真画像の領域に対応する画像シーンを決定することを特徴とする請求項3に記載の画像処理装置。   The image scene determining means determines an image scene corresponding to a region of the photographic image based on an image scene including at least one of a portrait scene, a landscape / scene, a night view / scene, and a group photo / scene. The image processing apparatus according to claim 3. 画像処理装置と撮影装置とを備える画像処理システムであって、
前記画像処理装置は、
写真画像が配置された画像データを取得する取得手段と、
前記画像データにおける前記写真画像の領域を判定する判定手段と、
前記判定された写真画像の領域の配置を定義するテンプレートを生成するテンプレート生成手段と、
前記写真画像の各々の画像の特徴量を計測し、該特徴量に基づいて撮影すべき内容を指示する撮影指示情報を生成する撮影指示情報生成手段と
前記テンプレートと前記撮影指示情報を前記撮影装置に送信する送信手段とを含み、
前記撮影装置は、
前記送信された前記テンプレートと前記撮影指示情報とを受信する受信手段と、
前記テンプレートと前記撮影指示情報を表示する表示手段とを含むことを特徴とする画像処理システム。
An image processing system comprising an image processing device and a photographing device,
The image processing apparatus includes:
Acquisition means for acquiring image data in which photographic images are arranged;
Determining means for determining a region of the photographic image in the image data;
Template generating means for generating a template that defines the layout of the determined region of the photographic image;
A shooting instruction information generating unit that measures the feature amount of each image of the photographic image and generates shooting instruction information for instructing the content to be shot based on the feature amount, the template, and the shooting instruction information as the shooting device Transmission means for transmitting to
The imaging device
Receiving means for receiving the transmitted template and the shooting instruction information;
An image processing system comprising: the template and display means for displaying the photographing instruction information.
写真画像が配置された画像データを取得する取得工程と、
前記画像データにおける前記写真画像の領域を判定する判定工程と、
前記判定された写真画像の領域の配置を定義するテンプレートを生成するテンプレート生成工程と、
前記写真画像の各々の画像の特徴量を計測し、該特徴量に基づいて撮影すべき内容を指示する撮影指示情報を生成する撮影指示情報生成工程とを備えることを特徴とする画像処理装置の制御方法。
An acquisition step of acquiring image data in which photographic images are arranged;
A determination step of determining a region of the photographic image in the image data;
A template generation step of generating a template that defines the layout of the determined region of the photographic image;
An image processing apparatus comprising: a shooting instruction information generation step of measuring a feature amount of each image of the photographic image and generating shooting instruction information for instructing contents to be shot based on the feature amount. Control method.
請求項6に記載の画像処理装置の制御方法における各工程をコンピュータに実行させるためのコンピュータプログラム。   The computer program for making a computer perform each process in the control method of the image processing apparatus of Claim 6.
JP2009168280A 2009-07-16 2009-07-16 Image processing apparatus, image processing control method, and image processing system Withdrawn JP2011024052A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009168280A JP2011024052A (en) 2009-07-16 2009-07-16 Image processing apparatus, image processing control method, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009168280A JP2011024052A (en) 2009-07-16 2009-07-16 Image processing apparatus, image processing control method, and image processing system

Publications (1)

Publication Number Publication Date
JP2011024052A true JP2011024052A (en) 2011-02-03

Family

ID=43633709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009168280A Withdrawn JP2011024052A (en) 2009-07-16 2009-07-16 Image processing apparatus, image processing control method, and image processing system

Country Status (1)

Country Link
JP (1) JP2011024052A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019140600A (en) * 2018-02-14 2019-08-22 京セラドキュメントソリューションズ株式会社 Image forming apparatus
CN114661010A (en) * 2022-03-17 2022-06-24 北京金波融安科技有限公司 Drive detection processing method based on artificial intelligence and cloud platform

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019140600A (en) * 2018-02-14 2019-08-22 京セラドキュメントソリューションズ株式会社 Image forming apparatus
CN114661010A (en) * 2022-03-17 2022-06-24 北京金波融安科技有限公司 Drive detection processing method based on artificial intelligence and cloud platform

Similar Documents

Publication Publication Date Title
JP5025457B2 (en) Image processing apparatus and method
JP5589548B2 (en) Imaging apparatus, image processing method, and program storage medium
BRPI0900750A2 (en) composition determination device, composition determination method, and, program that causes a composition determination device to perform
JP2007074578A (en) Image processor, photography instrument, and program
JP2011176386A (en) Imaging apparatus, image display device and image display program
JP2010021921A (en) Electronic camera and image processing program
JP5213506B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2012034069A (en) Image processor and image processing program
JP2011024052A (en) Image processing apparatus, image processing control method, and image processing system
JP2005269104A (en) Image processing method and image processor
KR100781680B1 (en) Photo file store and transmission method for camera phone
JP4525841B2 (en) Image composition apparatus, computer program, and recording medium
JP4793377B2 (en) Projection recording apparatus, on-screen information recording method, and program
JP2007201935A (en) Control method of image processing apparatus, and image processing apparatus
JP2013074451A (en) Image pickup apparatus
JP5098917B2 (en) Composition determination apparatus, composition determination method, and program
JP2005079727A (en) Photographed image projecting apparatus
JP2011172079A (en) Image reproducing device, and image reproducing program
JP2006272729A (en) Image printing device, memory card, image printing method, image printing program and recording medium
JP5696525B2 (en) Imaging apparatus, imaging method, and program
JP2007019694A (en) Photographic image processor for digital camera, and computer program for photographic image processing
JP2011035593A (en) Electronic apparatus
JP2007306264A (en) Method, device, and program for producing index print
JP2008172501A (en) Imaging apparatus
JP2007148612A (en) Photographing device, image processing method and image processing program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121002