JP2010252266A - Image arrangement apparatus - Google Patents

Image arrangement apparatus Download PDF

Info

Publication number
JP2010252266A
JP2010252266A JP2009102208A JP2009102208A JP2010252266A JP 2010252266 A JP2010252266 A JP 2010252266A JP 2009102208 A JP2009102208 A JP 2009102208A JP 2009102208 A JP2009102208 A JP 2009102208A JP 2010252266 A JP2010252266 A JP 2010252266A
Authority
JP
Japan
Prior art keywords
image
unit
piece
classification
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009102208A
Other languages
Japanese (ja)
Inventor
Satoshi Hara
聡司 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009102208A priority Critical patent/JP2010252266A/en
Priority to CN201210296613.5A priority patent/CN102982062B/en
Priority to CN2010101658551A priority patent/CN101866349B/en
Publication of JP2010252266A publication Critical patent/JP2010252266A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image arrangement apparatus with which a user can sort images pleasantly. <P>SOLUTION: When a part 300a of an image 300 displayed on a display section 105 is touched with the user's finger or the like, a small region including the touched position is extracted as an image piece 300b. The image piece 300b is pasted on another image, thereby creating a my-map image. The user is capable of searching for an image using the my-map image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、記録媒体に記録された画像を整理する機能を有する画像整理装置に関する。   The present invention relates to an image organizing apparatus having a function of organizing images recorded on a recording medium.

近年、画像を記録する記録媒体の記録容量が増大してきており、この記録容量の増大に伴って大量の画像を記録できるようになってきている。この反面、記録媒体に大量に記録された画像の中から、ユーザが所望の画像を検索するのが困難になっている。このような事情を鑑みて、記録媒体に記録された画像を分類して整理する技術が各種提案されている(例えば、特許文献1参照)。   In recent years, the recording capacity of recording media for recording images has increased, and as the recording capacity increases, a large amount of images can be recorded. On the other hand, it is difficult for a user to search for a desired image from among a large number of images recorded on a recording medium. In view of such circumstances, various techniques for classifying and organizing images recorded on a recording medium have been proposed (see, for example, Patent Document 1).

特許第3200819号公報Japanese Patent No. 32000819

ここで、特許文献1等の従来の画像の分類の技術は、手動で分類を行うことができるものや、自動で分類が行われるもの等、種々のものがあるが、画像の分類自体に楽しみがあるものではない。   Here, there are various conventional image classification techniques such as Patent Document 1 such as those that can be manually classified and those that are automatically classified. There is no such thing.

本発明は、上記の事情に鑑みてなされたもので、ユーザが楽しく画像の分類を行うことができる画像整理装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an image organizing apparatus that allows a user to categorize images happily.

上記の目的を達成するために、本発明の第1の態様の画像整理装置は、記録部に記録された第1の画像を表示する表示部と、上記表示部に表示された第1の画像へのタッチ操作の有無と、該タッチ操作がなされた場合のタッチ位置とを検出するタッチパネルと、上記タッチ操作がなされたときに、上記第1の画像内で且つ上記タッチ位置を含む小領域の画像である画像片を抽出する画像片抽出部と、上記抽出した画像片を別の画像に貼り付けて第2の画像を作成する別画像作成部とを具備することを特徴とする。   In order to achieve the above object, an image organizing apparatus according to a first aspect of the present invention includes a display unit that displays a first image recorded in a recording unit, and a first image displayed on the display unit. A touch panel that detects the presence or absence of a touch operation and a touch position when the touch operation is performed, and a small area that includes the touch position in the first image when the touch operation is performed. An image piece extraction unit that extracts an image piece that is an image, and another image creation unit that creates a second image by pasting the extracted image piece on another image.

本発明によれば、ユーザが楽しく画像の分類を行うことができる画像整理装置を提供することができる。   According to the present invention, it is possible to provide an image organizing apparatus that allows a user to classify images happily.

本発明の一実施形態に係る画像整理装置の構成を示す図である。It is a figure which shows the structure of the image organization apparatus which concerns on one Embodiment of this invention. タッチパネルの一例としての光感応式のタッチパネルの構成を示した図である。It is the figure which showed the structure of the photosensitive touch panel as an example of a touch panel. 本発明の一実施形態に係るカメラのメインの動作を示すフローチャートである。It is a flowchart which shows the main operation | movement of the camera which concerns on one Embodiment of this invention. 画像分類処理について示すフローチャートである。It is a flowchart shown about an image classification process. 画像片の抽出の概要を示す図である。It is a figure which shows the outline | summary of extraction of an image piece. マイマップ画像の例を示す図である。It is a figure which shows the example of a my map image. 図7(a)は分類結果ファイルの一例を示しており、図7(b)は分類結果ファイルに記録される顔の位置及び顔の大きさについて説明するための図である。FIG. 7A shows an example of the classification result file, and FIG. 7B is a diagram for explaining the face position and the face size recorded in the classification result file. マイマップ画像再生処理について示すフローチャートである。It is a flowchart shown about my map image reproduction processing. マイマップ画像再生処理の概要を示す図である。It is a figure which shows the outline | summary of my map image reproduction | regeneration processing. 画像片抽出の変形例について示すフローチャートである。It is a flowchart shown about the modification of image piece extraction. 変形例の画像片の抽出の概要を示す図である。It is a figure which shows the outline | summary of the extraction of the image piece of a modification.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る画像整理装置の構成を示す図である。ここで、図1に示す画像整理装置は、デジタルカメラ(以下、単にカメラという)を例としている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of an image organizing apparatus according to an embodiment of the present invention. Here, the image organizing apparatus shown in FIG. 1 uses a digital camera (hereinafter simply referred to as a camera) as an example.

図1に示すカメラ100は、制御部101と、操作部102と、撮像部103と、顔検出部104と、表示部105と、タッチパネル106と、記録部107と、時計部108と、通信部109とを有している。   1 includes a control unit 101, an operation unit 102, an imaging unit 103, a face detection unit 104, a display unit 105, a touch panel 106, a recording unit 107, a clock unit 108, and a communication unit. 109.

制御部101は、カメラ用に構成されたLSI等から構成されており、ユーザによる操作部102の操作を受けて図1のカメラ100内部の各ブロックの制御を行う。また、制御部101は、撮像部103によって取得された画像に対してホワイトバランス補正等の画像処理や圧縮伸張処理等を施すことも行う。また、本実施形態の制御部101は、タッチパネル106の操作に応じて表示部105に表示されている画像(第1の画像)から画像片を抽出する画像片抽出部としての機能も有する。さらに、本実施形態の制御部101は、抽出した画像片の分類を行う画像片分類部としての機能、分類結果に従って画像片を整理して別画像(第2の画像)を作成する別画像作成部としての機能、別画像から画像の検索を行う画像検索部としての機能も有する。これらの各機能の詳細については後述する。   The control unit 101 is configured by an LSI or the like configured for a camera, and controls each block inside the camera 100 of FIG. 1 in response to an operation of the operation unit 102 by the user. The control unit 101 also performs image processing such as white balance correction and compression / decompression processing on the image acquired by the imaging unit 103. In addition, the control unit 101 of the present embodiment also has a function as an image piece extraction unit that extracts an image piece from an image (first image) displayed on the display unit 105 in response to an operation on the touch panel 106. Further, the control unit 101 according to the present embodiment functions as an image piece classification unit that classifies the extracted image pieces, and creates another image (second image) by arranging the image pieces according to the classification result. And a function as an image search unit for searching for an image from another image. Details of these functions will be described later.

操作部102は、ユーザがカメラ100の操作を行うための操作部材である。操作部102には、例えば、カメラ100の電源のオン/オフを切り替えるための電源ボタン、ユーザが撮影の実行を指示するためのレリーズボタン、ユーザが画像の再生を指示するための再生ボタン、ユーザがカメラ100に関する各種の選択操作を行うための選択ボタン等が含まれる。   The operation unit 102 is an operation member for the user to operate the camera 100. The operation unit 102 includes, for example, a power button for switching on / off the power of the camera 100, a release button for instructing execution of shooting by the user, a playback button for instructing playback of an image by the user, and a user Includes a selection button for performing various selection operations related to the camera 100.

撮像部103は、撮影レンズ、撮像素子、A/D変換部等から構成されている。撮影レンズは、図示しない被写体からの光束を撮像素子に入射させるためのレンズである。撮像素子は、撮影レンズからの光束に基づく被写体の像を電気信号に変換する。A/D変換部は、撮像素子で得られたアナログの電気信号をデジタルデータ(以降、画像データという)に変換する。   The imaging unit 103 includes a photographic lens, an imaging element, an A / D conversion unit, and the like. The photographing lens is a lens for causing a light beam from a subject (not shown) to enter the image sensor. The image sensor converts an image of a subject based on the light flux from the photographing lens into an electrical signal. The A / D conversion unit converts an analog electric signal obtained by the image sensor into digital data (hereinafter referred to as image data).

顔検出部104は、撮像部103において得られた画像データ中の顔領域を検出する。顔領域は、例えば目や鼻、口等の顔の特徴部分を画像中から検出することで行う。   The face detection unit 104 detects a face area in the image data obtained by the imaging unit 103. The face area is determined by detecting facial features such as eyes, nose, and mouth from the image.

表示部105は、例えばカメラ100の背面に設けられ、撮像部103を介して取得された画像や記録部107に記録された画像等の各種の画像を表示する。この表示部105は、例えば液晶ディスプレイ等から構成されている。この表示部105により、ユーザは被写体の構図やシャッターチャンスを確認することができる。   The display unit 105 is provided on the back surface of the camera 100, for example, and displays various images such as an image acquired via the imaging unit 103 and an image recorded in the recording unit 107. The display unit 105 is composed of, for example, a liquid crystal display. The display unit 105 allows the user to check the composition of the subject and the photo opportunity.

タッチパネル106は、表示部105と一体的に設けられ、ユーザによる表示部105の表示画面上へのタッチ操作の有無と、タッチ操作がなされた際のタッチ位置とを検出する。さらに、タッチパネル106は、タッチ操作がなされた際のユーザの指等によるタッチパネル106の押圧量と、タッチ操作後のスライド操作がなされた場合のスライド操作方向及びスライド操作量も検出する。   The touch panel 106 is provided integrally with the display unit 105, and detects whether or not the user performs a touch operation on the display screen of the display unit 105 and a touch position when the touch operation is performed. Further, the touch panel 106 detects the amount of pressing of the touch panel 106 by the user's finger or the like when the touch operation is performed, and the slide operation direction and the slide operation amount when the slide operation after the touch operation is performed.

図2は、タッチパネル106の一例としての光感応式のタッチパネルの構成を示した図である。図2(a)に示す表示部105は、液晶ディスプレイの例を示しており、表示パネル105aとバックライト105bとを有している。表示パネル105aは、液晶を含む画素が2次元に配列されて構成され、制御部101の制御に従って各画素の光の透過率を変化させるようになされている。バックライト105bは、例えば白色発光ダイオード(LED)を光源とし、制御部101の制御に従って表示パネル105aの背面から光照射を行う。本実施形態の例において、タッチパネル106としての光センサは、表示パネル105aの各画素に配置されている。   FIG. 2 is a diagram illustrating a configuration of a photosensitive touch panel as an example of the touch panel 106. A display unit 105 illustrated in FIG. 2A is an example of a liquid crystal display, and includes a display panel 105a and a backlight 105b. The display panel 105 a is configured by two-dimensionally arranging pixels including liquid crystal, and changes the light transmittance of each pixel under the control of the control unit 101. The backlight 105b uses, for example, a white light emitting diode (LED) as a light source, and emits light from the back surface of the display panel 105a according to the control of the control unit 101. In the example of this embodiment, the optical sensor as the touch panel 106 is disposed in each pixel of the display panel 105a.

このような構成において、例えば、図2(a)に示すようにして、ユーザの指200が表示パネル105aに接触すると、指200が接触している位置において、バックライト105bから出射された光が反射され、その反射光が光センサにおいて受光される。制御部101は、各画素に配置された光センサからの出力信号の有無を監視しており、信号の出力がなされた光センサの位置からユーザの指200のタッチ位置を検出する。   In such a configuration, for example, as shown in FIG. 2A, when the user's finger 200 contacts the display panel 105a, the light emitted from the backlight 105b is emitted at the position where the finger 200 is in contact. The reflected light is received by the optical sensor. The control unit 101 monitors the presence or absence of an output signal from an optical sensor arranged in each pixel, and detects the touch position of the user's finger 200 from the position of the optical sensor from which the signal is output.

また、図2(b)の矢印Aで示したようにして、ユーザの指200によるタッチパネル106への押圧量が増加した場合には、押圧量が小さい場合に比べて、信号の出力がなされる光センサの位置が広い範囲に分布する。このような信号の出力がなされる光センサの分布から、ユーザの指200によるタッチパネル106の押圧力を検出することが可能である。   In addition, as shown by an arrow A in FIG. 2B, when the amount of pressing on the touch panel 106 by the user's finger 200 is increased, a signal is output compared to when the amount of pressing is small. The position of the optical sensor is distributed over a wide range. It is possible to detect the pressing force of the touch panel 106 by the user's finger 200 from the distribution of the optical sensors that output such signals.

さらに、図2(c)の矢印Bで示すようにして、ユーザの指200がスライドされた場合には、信号の出力がなされる光センサの位置も矢印B方向にずれる。この信号の出力がなされる光センサの位置変化方向及び位置変化量から、ユーザの指200のスライド操作方向及びスライド操作量を検出することが可能である。   Further, as shown by the arrow B in FIG. 2C, when the user's finger 200 is slid, the position of the photosensor that outputs a signal is also shifted in the arrow B direction. The slide operation direction and the slide operation amount of the user's finger 200 can be detected from the position change direction and the position change amount of the optical sensor that outputs this signal.

なお、タッチパネル106としては光感応式に限らず、ユーザの指等の接触圧力によりタッチ操作を検出する感圧式のタッチパネル等の各種の構成のタッチパネルを用いることも可能である。   The touch panel 106 is not limited to a light sensitive type, and it is also possible to use various types of touch panels such as a pressure sensitive type touch panel that detects a touch operation based on a contact pressure of a user's finger or the like.

記録部107は、撮像部103を介して取得され、制御部101において圧縮された画像データが記録される。なお、この記録部107には、時計部108によって計時された撮影日時等の撮影条件が付加された画像ファイルとして画像データが記録される。また、本実施形態における記録部107は、分類情報記録部107aとしての記録領域、整理画像記録部107bとしての記録領域も有している。分類情報記録部107aには、制御部101による画像データの分類結果を示す分類結果ファイルが記録される。また、整理画像記録部107bには、分類結果ファイルに従って画像片を整理した結果として作成される別画像(以下、マイマップ画像という)が記録される。   The recording unit 107 records image data acquired through the imaging unit 103 and compressed by the control unit 101. The recording unit 107 records image data as an image file to which shooting conditions such as the shooting date and time counted by the clock unit 108 are added. The recording unit 107 in the present embodiment also has a recording area as the classification information recording unit 107a and a recording area as the organized image recording unit 107b. In the classification information recording unit 107a, a classification result file indicating the classification result of the image data by the control unit 101 is recorded. The organized image recording unit 107b records another image (hereinafter referred to as “my map image”) created as a result of organizing the image pieces according to the classification result file.

時計部108は、画像の撮影がなされた日時等を計時する。通信部109は、USBインターフェース等のカメラ100が外部機器と通信するための通信回路である。   The clock unit 108 measures the date and time when the image was taken. The communication unit 109 is a communication circuit for the camera 100 such as a USB interface to communicate with an external device.

次に、本実施形態に係るカメラ100の動作について説明する。図3は、本実施形態に係るカメラ100のメインの動作を示すフローチャートである。   Next, the operation of the camera 100 according to the present embodiment will be described. FIG. 3 is a flowchart showing the main operation of the camera 100 according to the present embodiment.

図3において、カメラ100の制御部101は、まず、カメラ100の電源がオンされたか否かを判定する(ステップS101)。ステップS101の判定において、電源がオフされている場合に、制御部101は図3の処理を終了させる。   In FIG. 3, the control unit 101 of the camera 100 first determines whether or not the power of the camera 100 is turned on (step S101). If it is determined in step S101 that the power is off, the control unit 101 ends the process in FIG.

一方、ステップS101の判定において、電源がオンされた場合に、制御部101はカメラ100の動作モードが撮影モードであるか否かを判定する(ステップS102)。ステップS102の判定において、カメラ100の動作モードが撮影モードである場合に、制御部101は、スルー画表示を行うべく、撮像部103を動作させる。この際、制御部101は、顔検出部104を動作させ、撮像部103を介して得られる画像データ中の顔領域を検出する(ステップS103)。その後、制御部101は、露出演算を行う(ステップS104)。この露出演算において、制御部101は、撮像部103を介して得られる画像データに基づいて、被写体の明るさを測定する。そして、測定した被写体の明るさに基づき、制御部101は、後述する撮影時において撮像部103を介して得られる画像の明るさを適正な明るさとするような露出量を演算する。撮影時においては、ステップS104で得られた露出量に従って撮像部103の制御が行われる。   On the other hand, when the power is turned on in the determination in step S101, the control unit 101 determines whether or not the operation mode of the camera 100 is the shooting mode (step S102). If it is determined in step S102 that the operation mode of the camera 100 is the shooting mode, the control unit 101 operates the imaging unit 103 to display a through image. At this time, the control unit 101 operates the face detection unit 104 to detect a face area in the image data obtained via the imaging unit 103 (step S103). Thereafter, the control unit 101 performs an exposure calculation (step S104). In this exposure calculation, the control unit 101 measures the brightness of the subject based on the image data obtained via the imaging unit 103. Then, based on the measured brightness of the subject, the control unit 101 calculates an exposure amount so that the brightness of an image obtained via the imaging unit 103 at the time of shooting, which will be described later, is appropriate. At the time of shooting, the imaging unit 103 is controlled according to the exposure amount obtained in step S104.

次に、制御部101は、表示部105にスルー画表示を行う(ステップS105)。このスルー画表示において、制御部101は、撮像部103を介して得られる画像を逐次処理して表示部105に表示させる。撮像部103を連続動作させ、該連続動作によって得られる画像を連続的にカメラ100の表示部105に表示させることにより、表示部105を電子ファインダとして利用することが可能である。このようなスルー画表示により、ユーザは構図やシャッターチャンスを決定することが可能である。   Next, the control unit 101 displays a through image on the display unit 105 (step S105). In this through image display, the control unit 101 sequentially processes images obtained via the imaging unit 103 and causes the display unit 105 to display the images. By continuously operating the imaging unit 103 and continuously displaying images obtained by the continuous operation on the display unit 105 of the camera 100, the display unit 105 can be used as an electronic viewfinder. With such a through image display, the user can determine the composition and the photo opportunity.

スルー画表示の後、制御部101は、撮影者によってレリーズ操作がなされたか、即ち操作部102のレリーズボタンが押されたか否かを判定する(ステップS106)。ステップS106の判定において、レリーズボタンが押されていない場合には、処理がステップS101に戻る。この場合に、制御部101は、カメラ100の電源がオンであるか否かを再び判定する。一方、ステップS106の判定において、レリーズボタンが押された場合に、制御部101は、ステップS104で演算された露出量に応じて撮影動作を実行し、撮影動作の結果、撮像部103を介して得られる画像データに対して各種の画像処理を施した上で画像ファイルを生成し、該生成した画像ファイルを記録部107に記録させる(ステップS107)。その後、制御部101は、記録部107に記録させた画像ファイルを再生して表示部105に撮影画像を表示させる(ステップS108)。   After the through image display, the control unit 101 determines whether or not the release operation has been performed by the photographer, that is, whether or not the release button of the operation unit 102 has been pressed (step S106). If it is determined in step S106 that the release button has not been pressed, the process returns to step S101. In this case, the control unit 101 determines again whether the camera 100 is powered on. On the other hand, when the release button is pressed in the determination in step S106, the control unit 101 performs a shooting operation according to the exposure amount calculated in step S104. As a result of the shooting operation, the control unit 101 performs the shooting operation via the imaging unit 103. Various image processing is performed on the obtained image data to generate an image file, and the generated image file is recorded in the recording unit 107 (step S107). Thereafter, the control unit 101 reproduces the image file recorded in the recording unit 107 and displays the captured image on the display unit 105 (step S108).

次に、制御部101は、記録部107に記録した画像ファイル中の画像データの分類を行う(ステップS109)。画像分類の後、制御部101は、分類結果に基づいて分類結果ファイルを作成して記録部107に記録させるか、或いは既に分類結果ファイルが作成されている場合には分類結果ファイルを更新する(ステップS110)。その後、処理がステップS101に戻る。なお、ステップS109の画像分類の詳細については後述する。   Next, the control unit 101 classifies image data in the image file recorded in the recording unit 107 (step S109). After the image classification, the control unit 101 creates a classification result file based on the classification result and records it in the recording unit 107, or updates the classification result file if a classification result file has already been created ( Step S110). Thereafter, the process returns to step S101. Details of the image classification in step S109 will be described later.

また、ステップS102の判定において、カメラ100の動作モードが撮影モードでない場合に、制御部101は、カメラ100の動作モードが再生モードであるか否かを判定する(ステップS111)。ステップS111の判定において、カメラ100の動作モードが再生モードでない場合には、処理がステップS101に戻る。一方、ステップS111の判定において、カメラ100の動作モードが再生モードである場合に、制御部101は再生モードの処理を行う。この場合に、制御部101は、記録部107に記録された画像ファイルの中で、最後に記録された(撮影日時が最新の)画像ファイルを再生して表示部105に表示させる(ステップS112)。   In step S102, when the operation mode of the camera 100 is not the shooting mode, the control unit 101 determines whether or not the operation mode of the camera 100 is the playback mode (step S111). If it is determined in step S111 that the operation mode of the camera 100 is not the playback mode, the process returns to step S101. On the other hand, if it is determined in step S111 that the operation mode of the camera 100 is the playback mode, the control unit 101 performs a playback mode process. In this case, the control unit 101 reproduces the image file recorded last (the latest shooting date / time) among the image files recorded in the recording unit 107 and displays the image file on the display unit 105 (step S112). .

その後、制御部101は、ユーザの指示により、画像分類の指示がなされたか否かを判定する(ステップS113)。この判定は、例えばユーザによる操作部102の操作若しくはユーザの指等が表示部105の表示画面に表示された図示しない画像分類指示ボタンにタッチしたか否かから行う。ステップS113の判定において、画像分類の指示がなされた場合に、制御部101は、画像分類の処理を行う(ステップS114)。画像分類の後、制御部101は、分類結果に基づいて分類結果ファイルを作成して記録部107に記録させるか、或いは既に分類結果ファイルが作成されている場合には分類結果ファイルを更新する(ステップS115)。なお、ステップS114の画像分類処理はステップS109の画像分類処理と同一である。その詳細については後述する。   Thereafter, the control unit 101 determines whether or not an image classification instruction has been made in accordance with a user instruction (step S113). This determination is made based on, for example, whether or not an operation of the operation unit 102 by the user or a user's finger touches an image classification instruction button (not shown) displayed on the display screen of the display unit 105. In the determination in step S113, when an instruction for image classification is given, the control unit 101 performs image classification processing (step S114). After the image classification, the control unit 101 creates a classification result file based on the classification result and records it in the recording unit 107, or updates the classification result file if a classification result file has already been created ( Step S115). Note that the image classification process in step S114 is the same as the image classification process in step S109. Details thereof will be described later.

ステップS113又はステップS115の後、制御部101は、通常以外のその他の表示を行うか否かを判定する(ステップS116)。この判定は、例えばユーザによる操作部102の操作若しくはユーザの指等が表示部105の表示画面に表示された図示しないマイマップ再生ボタン又はサムネイル表示ボタンにタッチしたか否かから行う。ステップS116の判定において、その他の表示を行わない場合に、処理がステップS101に戻る。   After step S113 or step S115, the control unit 101 determines whether or not to perform display other than normal (step S116). This determination is made based on, for example, whether the user has operated the operation unit 102 or has touched a not-shown My Map playback button or thumbnail display button displayed on the display screen of the display unit 105 by the user's finger or the like. If no other display is performed in the determination in step S116, the process returns to step S101.

一方、ステップS116の判定において、その他の表示を行う場合に、制御部101は、ユーザによってマイマップ再生指示がなされたか否かを判定する(ステップS117)。ステップS117の判定において、マイマップ再生指示がなされた場合に、制御部101は、記録部107の整理画像記録部107bに記録されたマイマップ画像の再生を行う(ステップS118)。マイマップ画像の再生処理の終了後は、処理がステップS116に戻る。なお、マイマップ画像の再生処理の詳細については後述する。   On the other hand, in the determination of step S116, when other display is performed, the control unit 101 determines whether or not the user has issued an instruction to reproduce my map (step S117). If it is determined in step S117 that a my map reproduction instruction has been issued, the control unit 101 reproduces the my map image recorded in the organized image recording unit 107b of the recording unit 107 (step S118). After the completion of the my map image reproduction process, the process returns to step S116. Details of the processing for reproducing the my map image will be described later.

また、ステップS117の判定において、マイマップ再生指示がなされていない場合に、制御部101は、サムネイル表示指示がなされたか否かを判定する(ステップS119)。ステップS119の判定において、サムネイル表示指示がなされていない場合、所定時間の経過後に、制御部101は、記録部107に記録された画像ファイルの中で次に撮影日時の新しい画像を表示部105に表示させる(ステップS120)。その後、処理がステップS113に戻る。   If it is determined in step S117 that a my map reproduction instruction has not been issued, the control unit 101 determines whether a thumbnail display instruction has been issued (step S119). If it is determined in step S119 that no thumbnail display instruction has been given, after a predetermined time has elapsed, the control unit 101 displays, on the display unit 105, a new image with the next shooting date and time among the image files recorded in the recording unit 107. It is displayed (step S120). Thereafter, the process returns to step S113.

また、ステップS119の判定において、サムネイル表示指示がなされた場合に、制御部101は、記録部107に記録された画像のサムネイル画像を表示部105に表示させる(ステップS121)。その後、制御部101は、タッチパネル106の出力から、サムネイル画像の選択がなされたか、即ちユーザの指等が表示部105に表示されたサムネイル画像の何れかにタッチしたか否かを判定する(ステップS122)。ステップS122の判定において、ユーザの指等が表示部105に表示されたサムネイル画像の何れかにタッチしていた場合に、制御部101は、そのタッチ位置のサムネイル画像に対応した画像を表示部105に拡大表示する(ステップS123)。その後、処理がステップS113に戻る。また、ステップS121の判定において、ユーザの指等が表示部105に表示されたサムネイル画像の何れにもタッチしていない場合にも、処理がステップS113に戻る。   In the determination in step S119, when a thumbnail display instruction is given, the control unit 101 causes the display unit 105 to display the thumbnail image of the image recorded in the recording unit 107 (step S121). Thereafter, the control unit 101 determines from the output of the touch panel 106 whether a thumbnail image has been selected, that is, whether any of the thumbnail images displayed on the display unit 105 has been touched by a user's finger or the like (Step S101). S122). If it is determined in step S122 that the user's finger or the like has touched any thumbnail image displayed on the display unit 105, the control unit 101 displays an image corresponding to the thumbnail image at the touch position on the display unit 105. Is enlarged and displayed (step S123). Thereafter, the process returns to step S113. In the determination in step S121, when the user's finger or the like has not touched any of the thumbnail images displayed on the display unit 105, the process returns to step S113.

次に、ステップS109、S114の画像分類の処理について図4を参照して説明する。画像分類の処理に先だって表示部105には図5(a)で示すようにして撮影画像又は再生画像(以下、単に画像という)300が表示されている。画像分類処理が開始されると、制御部101は、図5(a)で示すように、ユーザが画像片の分類を行うための分類項目を示す表示301a〜301c及びユーザが画像分類の終了指示を行うための終了ボタン302を表示部105に表示させる(ステップS201)。そして、タッチパネル106の出力から、ユーザの指等による表示部105の表示画面上へのタッチ操作がなされたか否かを判定する(ステップS202)。ステップS202の判定においてタッチ操作がなされるまで、制御部101は、ステップS202の判定を行いつつ、待機する。   Next, the image classification process in steps S109 and S114 will be described with reference to FIG. Prior to the image classification process, a photographed image or a reproduced image (hereinafter simply referred to as an image) 300 is displayed on the display unit 105 as shown in FIG. When the image classification process is started, the control unit 101, as shown in FIG. 5A, displays 301a to 301c indicating classification items for the user to classify the image pieces, and the user instructs the end of the image classification. An end button 302 for performing the above is displayed on the display unit 105 (step S201). Then, it is determined from the output of the touch panel 106 whether or not a touch operation has been performed on the display screen of the display unit 105 with a user's finger or the like (step S202). Until a touch operation is performed in the determination in step S202, the control unit 101 stands by while performing the determination in step S202.

ステップS202の判定において、ユーザの指等によるタッチ操作がなされた場合に、制御部101は、タッチパネル106の出力から、ユーザの指等のタッチ位置を検出する(ステップS203)。その後、制御部101は、検出したタッチ位置が終了ボタン302の位置であるか否かを判定する(ステップS204)。ステップS204の判定において、タッチ位置が終了ボタン302の位置である場合に、制御部101は、図4の処理を終了させる。この場合、ステップS110又はステップS115から処理を実行する。   In the determination in step S202, when a touch operation is performed with the user's finger or the like, the control unit 101 detects the touch position of the user's finger or the like from the output of the touch panel 106 (step S203). Thereafter, the control unit 101 determines whether or not the detected touch position is the position of the end button 302 (step S204). In the determination in step S204, when the touch position is the position of the end button 302, the control unit 101 ends the process of FIG. In this case, the process is executed from step S110 or step S115.

また、ステップS204の判定において、タッチ位置が終了ボタン302の位置でない場合に、制御部101は、タッチ位置が画像300内であるか否かを判定する(ステップS205)。ステップS205の判定において、タッチ位置が画像300内でない場合には、処理がステップS202に戻る。   If it is determined in step S204 that the touch position is not the position of the end button 302, the control unit 101 determines whether the touch position is in the image 300 (step S205). If it is determined in step S205 that the touch position is not in the image 300, the process returns to step S202.

また、ステップS205の判定において、タッチ位置が画像300内である場合に、制御部101は、そのタッチ位置を含む小領域を画像片として抽出する(ステップS206)。例えば、図5(a)に示す花300aの位置にユーザの指200がタッチした場合には花300aを含む小領域として画像片300bが抽出される。この画像片300bの大きさはユーザの指200の押圧力に応じて設定される。即ち、ユーザが表示部105の表示画面を押し込むことで、その押し込みの強さに応じた大きさの画像片300bが抽出される。画像片300bが抽出された際には、図5(a)に示すようにして、抽出された画像片300bが視覚的に分かるような枠が表示される。なお、図5(a)の例では、矩形の画像片300bを抽出するようにしている。しかしながら、画像片の形状は矩形に限らず、例えば円形であっても良い。   If it is determined in step S205 that the touch position is in the image 300, the control unit 101 extracts a small area including the touch position as an image piece (step S206). For example, when the user's finger 200 touches the position of the flower 300a shown in FIG. 5A, the image piece 300b is extracted as a small region including the flower 300a. The size of the image piece 300b is set according to the pressing force of the user's finger 200. That is, when the user presses the display screen of the display unit 105, the image piece 300b having a size corresponding to the pressing strength is extracted. When the image piece 300b is extracted, as shown in FIG. 5A, a frame is displayed so that the extracted image piece 300b can be visually recognized. In the example of FIG. 5A, a rectangular image piece 300b is extracted. However, the shape of the image piece is not limited to a rectangle, and may be a circle, for example.

画像片300bの抽出後、制御部101は、タッチパネル106の出力から、ユーザの指等のスライド操作がなされたか否かを検出する(ステップS207)。ステップS207の判定において、スライド操作がなされていない場合には、処理がステップS202に戻る。一方、ステップS207の判定において、スライド操作がなされた場合に、制御部101は、図5(b)に示すようにして、ユーザの指200等のスライド操作量に応じて画像片300bの位置をシフトさせる(ステップS208)。その後、制御部101は、シフト後の画像片300bの位置が分類項目表示301a〜301cの何れかと一致したか否かを判定する(ステップS209)。ステップS209の判定において、シフト後の画像片300bの位置が分類項目表示301a〜301cの何れとも一致していない場合には、処理がステップS202に戻る。一方、ステップS209の判定において、シフト後の画像片300bの位置が分類項目表示301a〜301cの何れかと一致した場合に、制御部101は、画像片300bの位置に対応した分類項目に応じたマイマップ画像を作成(或いは更新)する(ステップS210)。   After extracting the image piece 300b, the control unit 101 detects from the output of the touch panel 106 whether or not a slide operation such as a user's finger has been performed (step S207). If it is determined in step S207 that no slide operation has been performed, the process returns to step S202. On the other hand, when the slide operation is performed in the determination in step S207, the control unit 101 changes the position of the image piece 300b according to the slide operation amount of the user's finger 200 or the like as shown in FIG. Shift (step S208). Thereafter, the control unit 101 determines whether or not the position of the image piece 300b after the shift coincides with any of the classification item displays 301a to 301c (step S209). If it is determined in step S209 that the position of the shifted image piece 300b does not match any of the classification item displays 301a to 301c, the process returns to step S202. On the other hand, in the determination in step S209, when the position of the image piece 300b after the shift coincides with any of the classification item displays 301a to 301c, the control unit 101 selects the My item corresponding to the classification item corresponding to the position of the image piece 300b. A map image is created (or updated) (step S210).

図6は、マイマップ画像の例を示す図である。ここで、図6(a)は分類項目が「花」の場合のマイマップ画像の例を示し、図6(b)は分類項目が「ペット」の場合のマイマップ画像の例を示している。図6(a)、図6(b)に示すように、本実施形態におけるマイマップ画像は、分類項目に応じた背景画像(例えば「花」の場合には花畑、「ペット」の場合にはペット小屋等)401に、画像片301bを貼り付けることによって作成される画像である。なお、図6(a)、図6(b)においては、画像片301bの境界を示す枠を図示しているが、実際の貼り付けの際には、画像片301bの枠を消去してから貼り付けを行うことが望ましい。また、分類項目が人物のマイマップ画像については例示していないが、例えば人物の顔のサムネイル画像を額縁の画像に嵌め込んで絵画のようにしたり、人物の胴体の画像に人物の顔のサムネイル画像を貼り付けたりすれば良い。   FIG. 6 is a diagram illustrating an example of a my map image. Here, FIG. 6A shows an example of a my map image when the classification item is “flower”, and FIG. 6B shows an example of a my map image when the classification item is “pet”. . As shown in FIG. 6A and FIG. 6B, the My Map image in this embodiment is a background image corresponding to the classification item (for example, a flower field in the case of “flower”, and a flower field in the case of “pet”. This is an image created by pasting an image piece 301b on a pet hut 401). In FIGS. 6A and 6B, a frame indicating the boundary of the image piece 301b is shown. However, after the frame of the image piece 301b is erased, the frame is erased. It is desirable to perform pasting. Also, the My Map image of a person whose classification item is not illustrated, for example, a thumbnail image of a person's face is inserted into a frame image to make it look like a picture, or a person's face thumbnail is included in an image of a person's body Just paste an image.

以上のようなマイマップ画像は、ユーザが撮影或いは再生した画像の一部を自由に貼り付けることでユーザの好みに応じた形で発展する画像である。このため、ユーザは画像の分類を楽しみながら行うことが可能である。   The My Map image as described above is an image that develops in a form according to the user's preference by freely pasting a part of the image taken or reproduced by the user. Therefore, the user can perform the image classification while enjoying it.

なお、マイマップ画像には戻るボタン402も重畳しておく。この戻るボタン402は後述するマイマップ画像再生の際に用いられるボタンである。また、ユーザを示す画像であるアバター403を合成するようにし、このアバター403の操作によって後述するマイマップ画像再生の際に再生するマイマップ画像の選択等を行えるようにしても良い。   Note that a return button 402 is also superimposed on the My Map image. The return button 402 is a button used when reproducing a my map image described later. Alternatively, an avatar 403 that is an image indicating a user may be synthesized, and a my map image to be reproduced when a my map image is reproduced later may be selected by operating the avatar 403.

ステップS210において、マイマップ画像を作成した後、制御部101は、画像300と画像片301とが対応している旨を示す分類情報を分類結果ファイルに記録する(ステップS211)。さらに、制御部101は、画像300と画像片301との対応情報以外の情報(画像中の顔の数)等を分類結果ファイルに記録する(ステップS212)。その後、処理がステップS202に戻る。   In step S210, after creating the my map image, the control unit 101 records classification information indicating that the image 300 and the image piece 301 correspond to each other in the classification result file (step S211). Further, the control unit 101 records information (number of faces in the image) other than the correspondence information between the image 300 and the image piece 301 and the like in the classification result file (step S212). Thereafter, the process returns to step S202.

図7(a)は分類結果ファイルの一例を示している。図7(a)に示す分類結果ファイルは、「顔の数」、「顔の位置、特徴、大きさ」、「画像片」、「撮影日時」の項目を有している。   FIG. 7A shows an example of the classification result file. The classification result file shown in FIG. 7A has items of “number of faces”, “position, feature, size of face”, “image fragment”, and “shooting date / time”.

「顔の数」はステップS103の顔検出時に検出された画像データ中の顔領域の数が記録される。「顔の位置、特徴、大きさ」は画像内のどの位置に、どの程度の大きさの、どのような顔が含まれているかが記録される。本実施形態においては、例えば、図7(b)のようにして1画面をA1〜A9の9つの領域に分割し、このA1〜A9によって顔の位置を示すようにしている。また、顔の大きさは、A1〜A9の領域に対する大きさによってD1〜D3で示す3段階の大きさで示すようにしている。D1は、顔領域の大きさA1〜A9の領域の大きさよりも小さい場合である。また、D2は、顔領域がA1〜A9の領域に内接している(大きさがほぼ等しい)場合である。また、D3は、顔領域の大きさがA1〜A9の領域の大きさよりも大きい場合である。さらに、顔の特徴については、顔の特徴を示す識別子を画像データ毎に記録する。例えば、画像1は、A4の領域に特徴P−A(例えば家族を示す)の顔がD2の大きさで存在し、且つA7の領域に特徴P−Aの顔がD3の大きさで存在していることを示す。   As the “number of faces”, the number of face areas in the image data detected at the time of face detection in step S103 is recorded. “Face position, feature, and size” records what size and what face is included in which position in the image. In the present embodiment, for example, as shown in FIG. 7B, one screen is divided into nine areas A1 to A9, and the face positions are indicated by these A1 to A9. Further, the size of the face is indicated by three levels indicated by D1 to D3 depending on the sizes of the areas A1 to A9. D1 is a case where the face area size is smaller than the size of the area A1 to A9. D2 is a case where the face area is inscribed in the areas A1 to A9 (the sizes are almost equal). D3 is a case where the size of the face region is larger than the size of the regions A1 to A9. Furthermore, for facial features, an identifier indicating the facial features is recorded for each image data. For example, in the image 1, the face of the feature PA (for example, showing a family) exists in the area A4 with the size D2, and the face of the feature PA exists in the area A7 with the size D3. Indicates that

「画像片」は、上述したようにして分類された画像片と画像との対応情報が記録される。この対応情報は、マイマップ画像が作成される毎に記録する。例えば、画像1は、マイマップ画像中の花A又は人物Aと対応していることを示す。   In the “image piece”, correspondence information between the image piece and the image classified as described above is recorded. This correspondence information is recorded every time a My Map image is created. For example, image 1 indicates that it corresponds to flower A or person A in the My Map image.

「撮影日時」は、時計部108によって記録された撮影日時が記録される。カメラ100にGPS機能を設けることにより、撮影位置を記録できるようにしても良い。   In “shooting date and time”, the shooting date and time recorded by the clock unit 108 is recorded. The camera 100 may be provided with a GPS function so that the shooting position can be recorded.

次に、ステップS118のマイマップ画像再生処理について図8を参照して説明する。マイマップ画像再生の指示がなされたときに、制御部101は、マイマップ画像の選択画面を表示させる(ステップS301)。図9(a)は選択画面の例を示している。図9(a)に示すように、選択画面においては、上述した分類項目に対応したマイマップ画像の分類を示す項目表示501a〜501cを表示させる。なお、図9(a)の例において、花畑501aは分類項目「花」と対応している。また、家501bは分類項目「人物」と対応している。さらに、ペットの家501cは分類項目「ペット」と対応している。さらに、選択画面においては終了ボタン502も表示させる。   Next, the my map image reproduction process in step S118 will be described with reference to FIG. When an instruction to reproduce the my map image is given, the control unit 101 displays a selection screen for the my map image (step S301). FIG. 9A shows an example of the selection screen. As shown in FIG. 9A, on the selection screen, item displays 501a to 501c indicating the classification of My Map images corresponding to the above-described classification items are displayed. In the example of FIG. 9A, the flower garden 501a corresponds to the classification item “flower”. The house 501b corresponds to the classification item “person”. Further, the pet house 501c corresponds to the classification item “pet”. Further, an end button 502 is also displayed on the selection screen.

図9(a)で示す選択画面を表示させた後、制御部101は、タッチパネル106の出力から、ユーザにより項目表示501a〜501cの何れかの項目が選択されたか否かを判定する(ステップS302)。ステップS302の判定において、項目表示501a〜501cの何れの項目も選択されていない場合、制御部101は、タッチパネル106の出力から、ユーザにより終了ボタン502が選択されたか否かを判定する(ステップS303)。ステップS303の判定において、終了ボタン502が選択されていない場合には処理がステップS301に戻る。一方、ステップS303の判定において、終了ボタン502が選択された場合に、制御部101は、図8の処理を終了させる。この後は、処理が図3のステップS116に戻る。   After the selection screen shown in FIG. 9A is displayed, the control unit 101 determines from the output of the touch panel 106 whether any of the item display items 501a to 501c has been selected by the user (step S302). ). If none of the item displays 501a to 501c is selected in the determination in step S302, the control unit 101 determines whether the user has selected the end button 502 from the output of the touch panel 106 (step S303). ). If it is determined in step S303 that the end button 502 has not been selected, the process returns to step S301. On the other hand, when the end button 502 is selected in the determination in step S303, the control unit 101 ends the process of FIG. Thereafter, the process returns to step S116 in FIG.

また、ステップS302の判定において、項目表示501a〜501cの何れかが選択された場合に、制御部101は、図9(b)で示すようにして、選択された項目に対応したマイマップ画像を表示部105に表示させる(ステップS304)。ここで、図9(b)は花畑の項目表示501aが選択された場合に表示されるマイマップ画像の例を示している。このマイマップ画像は図6(a)で示したものである。   In addition, when any of the item displays 501a to 501c is selected in the determination in step S302, the control unit 101 displays a my map image corresponding to the selected item as shown in FIG. 9B. It is displayed on the display unit 105 (step S304). FIG. 9B shows an example of a My Map image displayed when the flower field item display 501a is selected. This my map image is the one shown in FIG.

マイマップ画像の表示後、制御部101は、タッチパネル106の出力から、ユーザにより戻るボタン402が選択されたか否かを判定する(ステップS305)。ステップS305の判定において、戻るボタン402が選択された場合には処理がステップS301に戻る。この場合に、制御部101は、図9(a)で示した選択画面を再び表示させる。一方、ステップS305の判定において、戻るボタン402が選択されていない場合に、制御部101は、タッチパネル106の出力から、ユーザによりマイマップ画像中の何れかの画像片が選択されたか否かを判定する(ステップS306)。ステップS306の判定において、画像片が選択されていない場合には処理がステップS305に戻る。一方、ステップS306の判定において、画像片が選択された場合に、制御部101は、分類結果ファイルを参照してユーザによって選択された画像片に対応した画像を表示部105に表示させる(ステップS307)。図9(c)は画像片が選択された場合の対応画像の表示例を示す。例えば、図9(b)に示すようにして、画像片300bが選択された場合には、この画像片300bに対応した画像300が表示部105に表示される。なお、このような表示を行う際には、表示部105に表示されている画像が電子アルバムとして記録されていることを示す表示601を行うようにしても良い。   After displaying the my map image, the control unit 101 determines whether or not the return button 402 has been selected by the user from the output of the touch panel 106 (step S305). If it is determined in step S305 that the return button 402 is selected, the process returns to step S301. In this case, the control unit 101 displays the selection screen shown in FIG. 9A again. On the other hand, when the return button 402 is not selected in the determination in step S305, the control unit 101 determines whether any image piece in the my map image is selected by the user from the output of the touch panel 106. (Step S306). If it is determined in step S306 that no image piece has been selected, the process returns to step S305. On the other hand, when an image piece is selected in the determination in step S306, the control unit 101 displays an image corresponding to the image piece selected by the user with reference to the classification result file on the display unit 105 (step S307). ). FIG. 9C shows a display example of a corresponding image when an image piece is selected. For example, as shown in FIG. 9B, when the image piece 300b is selected, the image 300 corresponding to the image piece 300b is displayed on the display unit 105. Note that when such a display is performed, a display 601 indicating that an image displayed on the display unit 105 is recorded as an electronic album may be performed.

以上説明したように、本実施形態によれば、画像の一部を画像片として抽出し、この画像片を用いてマイマップ画像を作成し、さらに、このマイマップ画像から所望の画像を検索可能としている。これにより、ユーザは、楽しみながら画像の分類を行うことができる。   As described above, according to this embodiment, a part of an image is extracted as an image piece, a My Map image is created using the image piece, and a desired image can be searched from the My Map image. It is said. Thereby, the user can classify images while having fun.

また、本実施形態においては、抽出する画像片の大きさをタッチパネル106の押圧力によって変化させるようにしている。これにより、ユーザは任意の大きさの画像片を用いてマイマップ画像を作成することが可能である。   In the present embodiment, the size of the image piece to be extracted is changed by the pressing force of the touch panel 106. Thereby, the user can create a My Map image using an image piece of an arbitrary size.

ここで、上述した実施形態においては、「花」、「人物」、「ペット」の3種類の分類に対応したマイマップ画像の作成について例示しているが、これ以外の分類を行えるようにしても良い。また、分類項目をユーザが作成できるようにしても良い。   Here, in the above-described embodiment, the creation of the My Map image corresponding to the three types of classification “flower”, “person”, and “pet” is illustrated, but other classifications can be performed. Also good. Further, the classification item may be created by the user.

また、上述の実施形態においては、単にユーザのタッチ位置を含む小領域を画像片として抽出している。この場合、花等の主要な対象物に加えて背景の画像も含まれた画像片が抽出されることになる。背景の画像が含まれたままで画像片をマイマップ画像に貼り付けてしまうと、作成されるマイマップ画像が見づらくなるおそれがある。これに対して以下の図10で示すように画像片を抽出するようにしても良い。ここで、図10の処理は、図4のステップS206の処理に代えて行われるものである。   Moreover, in the above-mentioned embodiment, the small area | region containing a user's touch position is extracted as an image piece. In this case, an image piece including a background image in addition to a main object such as a flower is extracted. If the image piece is pasted on the My Map image while the background image is included, the created My Map image may be difficult to see. On the other hand, an image piece may be extracted as shown in FIG. Here, the process of FIG. 10 is performed in place of the process of step S206 of FIG.

図4のステップS205の判定において、ユーザの指等が表示部105に表示されている画像にタッチした場合に、制御部101は、図11(a)に示すようにして、タッチ位置を含む所定の大きさの小領域(矩形、円形等)701を設定する(ステップS401)。次に、制御部101は、小領域701の大きさをユーザの指200の押圧力に応じて変更する(ステップS402)。   When the user's finger or the like touches the image displayed on the display unit 105 in the determination in step S205 in FIG. 4, the control unit 101 performs predetermined processing including the touch position as illustrated in FIG. A small area (rectangular, circular, etc.) 701 is set (step S401). Next, the control unit 101 changes the size of the small region 701 according to the pressing force of the user's finger 200 (step S402).

次に、制御部101は、小領域701中の画像データを取得し、取得した画像データ中の主要色(最も多い色)を検出する(ステップS403)。その後、制御部101は、ステップS403で検出した主要色と近似する色の部分を小領域701中で検出する(ステップS404)。即ち、小領域701の主要色は小領域701中で最も重要な対象物であると考える。次に、制御部101は、小領域701中で、主要色及びその近似色の領域に囲まれていない領域を背景領域とし、この背景領域を透明画像化する(ステップS405)。例えば、図11(b)のようにして抽出された小領域701内の主要な対象物は花であり、この場合の主要色は花弁の色となる。したがって、ステップS405の処理においては、花弁の色を有する領域702で囲まれる部分以外の例えば枝703の部分が図11(c)に示すようにして透明画像化される。このようにして画像片が抽出される。画像片の抽出後は、図4のステップS207以後の処理が実行される。   Next, the control unit 101 acquires the image data in the small area 701 and detects the main color (the most common color) in the acquired image data (step S403). Thereafter, the control unit 101 detects a color portion that approximates the main color detected in step S403 in the small region 701 (step S404). That is, the main color of the small area 701 is considered to be the most important object in the small area 701. Next, the control unit 101 sets an area not surrounded by the main color and the approximate color area in the small area 701 as a background area, and converts the background area into a transparent image (step S405). For example, the main object in the small area 701 extracted as shown in FIG. 11B is a flower, and the main color in this case is the color of the petal. Therefore, in the process of step S405, for example, the portion of the branch 703 other than the portion surrounded by the region 702 having the petal color is formed into a transparent image as shown in FIG. In this way, an image piece is extracted. After the image piece is extracted, the processing after step S207 in FIG. 4 is executed.

このようにして画像片を抽出することにより、マイマップ画像に画像片の背景部分までもが貼り付けられてしまうことがない。   By extracting the image piece in this manner, even the background portion of the image piece is not pasted on the My Map image.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。上述の実施形態では、画像整理装置の例としてデジタルカメラを示している。しかしながら、本実施形態はタッチパネルを有する各種の装置に適用可能である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. In the above-described embodiment, a digital camera is shown as an example of the image organizing apparatus. However, this embodiment is applicable to various devices having a touch panel.

また、上述した実施形態では、画像300の再生時には常に項目表示301a〜301cを表示させるようにしている。これに対し、画像300の再生後、ユーザの指等による画像300へのタッチ時間が所定時間を超えた時点で項目表示を行うようにしても良い。   In the embodiment described above, the item displays 301a to 301c are always displayed when the image 300 is reproduced. On the other hand, the item display may be performed when the touch time on the image 300 by the user's finger or the like exceeds a predetermined time after the image 300 is reproduced.

また、上述した実施形態では、主に静止画像からの画像片の抽出及びマイマップ画像の作成について説明している。しかしながら、上述した実施形態の手法は、動画像に対しても適用可能である。例えば、動画像の再生中にユーザの指等によって再生中の画像へのタッチがなされた時点で再生中の画像を一時停止させるようにすれば、以後は静止画像の場合と同様の画像片抽出及びマイマップ画像作成を行うことが可能である。このようにして作成されたマイマップ画像中の対応する画像片が選択された場合には、その画像片が対応している動画像中のコマから動画像が再生される。   Further, in the above-described embodiment, the extraction of the image piece from the still image and the creation of the my map image are mainly described. However, the method of the above-described embodiment can be applied to a moving image. For example, if the image being reproduced is paused when the image being reproduced is touched with the user's finger or the like during the reproduction of the moving image, image fragment extraction similar to the case of a still image is performed thereafter. In addition, it is possible to create a my map image. When a corresponding image piece in the My Map image created in this way is selected, a moving image is reproduced from a frame in the moving image corresponding to the image piece.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

100…カメラ、101…制御部、102…操作部、103…撮像部、104…顔検出部、105…表示部、106…タッチパネル、107…記録部、107a…分類情報記録部、107b…整理画像記録部、108…時計部、109…通信部   DESCRIPTION OF SYMBOLS 100 ... Camera 101 ... Control part 102 ... Operation part 103 ... Imaging part 104 ... Face detection part 105 ... Display part 106 ... Touch panel 107 ... Recording part 107a ... Classification information recording part 107b ... Organized image Recording unit 108 ... Clock unit 109 109 Communication unit

Claims (7)

記録部に記録された第1の画像を表示する表示部と、
上記表示部に表示された第1の画像へのタッチ操作の有無と、該タッチ操作がなされた場合のタッチ位置とを検出するタッチパネルと、
上記タッチ操作がなされたときに、上記第1の画像内で且つ上記タッチ位置を含む小領域の画像である画像片を抽出する画像片抽出部と、
上記抽出した画像片を別の画像に貼り付けて第2の画像を作成する別画像作成部と、
を具備することを特徴とする画像整理装置。
A display unit for displaying the first image recorded in the recording unit;
A touch panel for detecting the presence or absence of a touch operation on the first image displayed on the display unit and a touch position when the touch operation is performed;
An image piece extracting unit that extracts an image piece that is an image of a small area in the first image and including the touch position when the touch operation is performed;
Another image creation unit for creating the second image by pasting the extracted image piece on another image;
An image organizing apparatus comprising:
上記第2の画像は、複数の画像片が貼り付けられて構成されていることを特徴とする請求項1に記載の画像整理装置。   The image organizing apparatus according to claim 1, wherein the second image is configured by pasting a plurality of image pieces. 上記画像片を分類する画像片分類部と、
上記分類の結果を分類情報として記録する分類情報記録部と、
をさらに具備し、
上記別画像作成部は、上記分類情報を参照し、同じ分類がなされている画像片のみから上記第2の画像を作成することを特徴とする請求項2に記載の画像整理装置。
An image piece classification unit for classifying the image pieces;
A classification information recording unit for recording the classification result as classification information;
Further comprising
3. The image organizing apparatus according to claim 2, wherein the separate image creating unit creates the second image from only image pieces that are classified in the same manner with reference to the classification information.
上記タッチパネルは、上記タッチ位置からのスライド操作をさらに検出し、
上記画像片分類部は、上記タッチパネルによって検出されたスライド操作に応じて上記画像片を分類することを特徴とする請求項3に記載の画像整理装置。
The touch panel further detects a slide operation from the touch position,
The image organizing apparatus according to claim 3, wherein the image piece classification unit classifies the image pieces according to a slide operation detected by the touch panel.
上記第2の画像に貼り付けられた画像片が選択された場合に、該選択された画像片に対応した第1の画像を上記表示部に表示させる画像検索部をさらに具備することを特徴とする請求項1に記載の画像整理装置。   When an image piece pasted on the second image is selected, an image search unit is further provided for causing the display unit to display a first image corresponding to the selected image piece. The image organizing apparatus according to claim 1. 上記タッチパネルは、上記タッチ位置における押圧力をさらに検出し、
上記画像片抽出部は、上記押圧力に応じて上記小領域を特定し、該特定された小領域に応じた画像片を抽出することを特徴とする請求項1に記載の画像整理装置。
The touch panel further detects a pressing force at the touch position,
The image organizing apparatus according to claim 1, wherein the image piece extraction unit specifies the small area according to the pressing force, and extracts an image piece according to the specified small area.
上記画像片抽出部は、上記小領域中の主要色を検出し、該検出した主要色を含まない領域の画像を透明画像化してから、上記画像片を抽出することを特徴とする請求項1に記載の画像整理装置。   2. The image piece extracting unit detects a main color in the small area, converts an image of an area not including the detected main color into a transparent image, and then extracts the image piece. An image organizing device described in 1.
JP2009102208A 2009-04-20 2009-04-20 Image arrangement apparatus Withdrawn JP2010252266A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009102208A JP2010252266A (en) 2009-04-20 2009-04-20 Image arrangement apparatus
CN201210296613.5A CN102982062B (en) 2009-04-20 2010-04-20 Image collating device
CN2010101658551A CN101866349B (en) 2009-04-20 2010-04-20 Image collating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009102208A JP2010252266A (en) 2009-04-20 2009-04-20 Image arrangement apparatus

Publications (1)

Publication Number Publication Date
JP2010252266A true JP2010252266A (en) 2010-11-04

Family

ID=42958077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009102208A Withdrawn JP2010252266A (en) 2009-04-20 2009-04-20 Image arrangement apparatus

Country Status (2)

Country Link
JP (1) JP2010252266A (en)
CN (2) CN102982062B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250664A (en) * 2012-05-30 2013-12-12 Canon Inc Information processing device, method of controlling the same and program
JP2014138384A (en) * 2013-01-18 2014-07-28 Olympus Imaging Corp Imaging device, image processing device, and image processing program
JP2018125887A (en) * 2018-04-12 2018-08-09 株式会社ニコン Electronic equipment

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104021215B (en) * 2014-06-20 2020-05-01 努比亚技术有限公司 Picture sorting method and device
CN104965654B (en) * 2015-06-15 2019-03-15 广东小天才科技有限公司 Head portrait adjusting method and system
TWI687094B (en) * 2017-02-08 2020-03-01 弗勞恩霍夫爾協會 Predictive coding concept using template matching

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3908171B2 (en) * 2003-01-16 2007-04-25 富士フイルム株式会社 Image storage method, apparatus, and program
EP1600939A4 (en) * 2003-03-04 2006-02-08 Fujitsu Ltd Image display method, image display program, and information device
CN100382096C (en) * 2003-08-20 2008-04-16 奥西-技术有限公司 Document scanner
JP2006042171A (en) * 2004-07-29 2006-02-09 Olympus Corp Camera, reproducing apparatus and album registration method
JP2006293985A (en) * 2005-03-15 2006-10-26 Fuji Photo Film Co Ltd Program, apparatus and method for producing album
CN101055592A (en) * 2007-05-20 2007-10-17 宁尚国 Image information generation method and device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250664A (en) * 2012-05-30 2013-12-12 Canon Inc Information processing device, method of controlling the same and program
JP2014138384A (en) * 2013-01-18 2014-07-28 Olympus Imaging Corp Imaging device, image processing device, and image processing program
JP2018125887A (en) * 2018-04-12 2018-08-09 株式会社ニコン Electronic equipment

Also Published As

Publication number Publication date
CN101866349B (en) 2012-10-03
CN101866349A (en) 2010-10-20
CN102982062B (en) 2017-03-01
CN102982062A (en) 2013-03-20

Similar Documents

Publication Publication Date Title
US10212362B2 (en) Method and apparatus for creating or storing resultant image which changes in selected area
US8582891B2 (en) Method and apparatus for guiding user with suitable composition, and digital photographing apparatus
TWI466008B (en) Display control apparatus, display control method, and computer program product
US8854523B2 (en) Photographing apparatus, photographing control method and photographing control program for providing enhanced photos and animations
KR101930460B1 (en) Photographing apparatusand method for controlling thereof
JP2006042171A (en) Camera, reproducing apparatus and album registration method
JP2013232861A (en) Display control device, display control method, program, and recording medium
KR101559992B1 (en) Imaging apparatus which performs development processing on captured image
JP2011055190A (en) Image display apparatus and image display method
JP2010252266A (en) Image arrangement apparatus
JP2011101251A (en) Electronic apparatus and image display method
JP2011065277A (en) Electronic apparatus, image display method, and content reproduction program
US8508602B2 (en) Photographing apparatus method, and computer usable medium for photographing an object within a detection area based on a change of the object
US8149317B2 (en) Display device, photographing apparatus, and display method
CN104144286A (en) Imaging apparatus and imaging method
JP4054167B2 (en) Imaging device
US20030156217A1 (en) Information input apparatus
JP2005130184A (en) Photographic processing apparatus and photographic mode selection method
JP5302740B2 (en) Image display device
CN103581512B (en) Shooting device and method
JP4872564B2 (en) Image processing apparatus, image processing method, and image processing program
JP2020150433A (en) Processing device and program
JP6108831B2 (en) Mobile device, server, image generation method and program
JP2010187119A (en) Image capturing apparatus, and program for the same
US10432848B2 (en) Electronic apparatus and method for controlling the same

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120703