JP2010252266A - Image arrangement apparatus - Google Patents
Image arrangement apparatus Download PDFInfo
- Publication number
- JP2010252266A JP2010252266A JP2009102208A JP2009102208A JP2010252266A JP 2010252266 A JP2010252266 A JP 2010252266A JP 2009102208 A JP2009102208 A JP 2009102208A JP 2009102208 A JP2009102208 A JP 2009102208A JP 2010252266 A JP2010252266 A JP 2010252266A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- piece
- classification
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、記録媒体に記録された画像を整理する機能を有する画像整理装置に関する。 The present invention relates to an image organizing apparatus having a function of organizing images recorded on a recording medium.
近年、画像を記録する記録媒体の記録容量が増大してきており、この記録容量の増大に伴って大量の画像を記録できるようになってきている。この反面、記録媒体に大量に記録された画像の中から、ユーザが所望の画像を検索するのが困難になっている。このような事情を鑑みて、記録媒体に記録された画像を分類して整理する技術が各種提案されている(例えば、特許文献1参照)。 In recent years, the recording capacity of recording media for recording images has increased, and as the recording capacity increases, a large amount of images can be recorded. On the other hand, it is difficult for a user to search for a desired image from among a large number of images recorded on a recording medium. In view of such circumstances, various techniques for classifying and organizing images recorded on a recording medium have been proposed (see, for example, Patent Document 1).
ここで、特許文献1等の従来の画像の分類の技術は、手動で分類を行うことができるものや、自動で分類が行われるもの等、種々のものがあるが、画像の分類自体に楽しみがあるものではない。 Here, there are various conventional image classification techniques such as Patent Document 1 such as those that can be manually classified and those that are automatically classified. There is no such thing.
本発明は、上記の事情に鑑みてなされたもので、ユーザが楽しく画像の分類を行うことができる画像整理装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide an image organizing apparatus that allows a user to categorize images happily.
上記の目的を達成するために、本発明の第1の態様の画像整理装置は、記録部に記録された第1の画像を表示する表示部と、上記表示部に表示された第1の画像へのタッチ操作の有無と、該タッチ操作がなされた場合のタッチ位置とを検出するタッチパネルと、上記タッチ操作がなされたときに、上記第1の画像内で且つ上記タッチ位置を含む小領域の画像である画像片を抽出する画像片抽出部と、上記抽出した画像片を別の画像に貼り付けて第2の画像を作成する別画像作成部とを具備することを特徴とする。 In order to achieve the above object, an image organizing apparatus according to a first aspect of the present invention includes a display unit that displays a first image recorded in a recording unit, and a first image displayed on the display unit. A touch panel that detects the presence or absence of a touch operation and a touch position when the touch operation is performed, and a small area that includes the touch position in the first image when the touch operation is performed. An image piece extraction unit that extracts an image piece that is an image, and another image creation unit that creates a second image by pasting the extracted image piece on another image.
本発明によれば、ユーザが楽しく画像の分類を行うことができる画像整理装置を提供することができる。 According to the present invention, it is possible to provide an image organizing apparatus that allows a user to classify images happily.
以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る画像整理装置の構成を示す図である。ここで、図1に示す画像整理装置は、デジタルカメラ(以下、単にカメラという)を例としている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of an image organizing apparatus according to an embodiment of the present invention. Here, the image organizing apparatus shown in FIG. 1 uses a digital camera (hereinafter simply referred to as a camera) as an example.
図1に示すカメラ100は、制御部101と、操作部102と、撮像部103と、顔検出部104と、表示部105と、タッチパネル106と、記録部107と、時計部108と、通信部109とを有している。
1 includes a
制御部101は、カメラ用に構成されたLSI等から構成されており、ユーザによる操作部102の操作を受けて図1のカメラ100内部の各ブロックの制御を行う。また、制御部101は、撮像部103によって取得された画像に対してホワイトバランス補正等の画像処理や圧縮伸張処理等を施すことも行う。また、本実施形態の制御部101は、タッチパネル106の操作に応じて表示部105に表示されている画像(第1の画像)から画像片を抽出する画像片抽出部としての機能も有する。さらに、本実施形態の制御部101は、抽出した画像片の分類を行う画像片分類部としての機能、分類結果に従って画像片を整理して別画像(第2の画像)を作成する別画像作成部としての機能、別画像から画像の検索を行う画像検索部としての機能も有する。これらの各機能の詳細については後述する。
The
操作部102は、ユーザがカメラ100の操作を行うための操作部材である。操作部102には、例えば、カメラ100の電源のオン/オフを切り替えるための電源ボタン、ユーザが撮影の実行を指示するためのレリーズボタン、ユーザが画像の再生を指示するための再生ボタン、ユーザがカメラ100に関する各種の選択操作を行うための選択ボタン等が含まれる。
The operation unit 102 is an operation member for the user to operate the
撮像部103は、撮影レンズ、撮像素子、A/D変換部等から構成されている。撮影レンズは、図示しない被写体からの光束を撮像素子に入射させるためのレンズである。撮像素子は、撮影レンズからの光束に基づく被写体の像を電気信号に変換する。A/D変換部は、撮像素子で得られたアナログの電気信号をデジタルデータ(以降、画像データという)に変換する。
The
顔検出部104は、撮像部103において得られた画像データ中の顔領域を検出する。顔領域は、例えば目や鼻、口等の顔の特徴部分を画像中から検出することで行う。
The
表示部105は、例えばカメラ100の背面に設けられ、撮像部103を介して取得された画像や記録部107に記録された画像等の各種の画像を表示する。この表示部105は、例えば液晶ディスプレイ等から構成されている。この表示部105により、ユーザは被写体の構図やシャッターチャンスを確認することができる。
The
タッチパネル106は、表示部105と一体的に設けられ、ユーザによる表示部105の表示画面上へのタッチ操作の有無と、タッチ操作がなされた際のタッチ位置とを検出する。さらに、タッチパネル106は、タッチ操作がなされた際のユーザの指等によるタッチパネル106の押圧量と、タッチ操作後のスライド操作がなされた場合のスライド操作方向及びスライド操作量も検出する。
The
図2は、タッチパネル106の一例としての光感応式のタッチパネルの構成を示した図である。図2(a)に示す表示部105は、液晶ディスプレイの例を示しており、表示パネル105aとバックライト105bとを有している。表示パネル105aは、液晶を含む画素が2次元に配列されて構成され、制御部101の制御に従って各画素の光の透過率を変化させるようになされている。バックライト105bは、例えば白色発光ダイオード(LED)を光源とし、制御部101の制御に従って表示パネル105aの背面から光照射を行う。本実施形態の例において、タッチパネル106としての光センサは、表示パネル105aの各画素に配置されている。
FIG. 2 is a diagram illustrating a configuration of a photosensitive touch panel as an example of the
このような構成において、例えば、図2(a)に示すようにして、ユーザの指200が表示パネル105aに接触すると、指200が接触している位置において、バックライト105bから出射された光が反射され、その反射光が光センサにおいて受光される。制御部101は、各画素に配置された光センサからの出力信号の有無を監視しており、信号の出力がなされた光センサの位置からユーザの指200のタッチ位置を検出する。
In such a configuration, for example, as shown in FIG. 2A, when the user's
また、図2(b)の矢印Aで示したようにして、ユーザの指200によるタッチパネル106への押圧量が増加した場合には、押圧量が小さい場合に比べて、信号の出力がなされる光センサの位置が広い範囲に分布する。このような信号の出力がなされる光センサの分布から、ユーザの指200によるタッチパネル106の押圧力を検出することが可能である。
In addition, as shown by an arrow A in FIG. 2B, when the amount of pressing on the
さらに、図2(c)の矢印Bで示すようにして、ユーザの指200がスライドされた場合には、信号の出力がなされる光センサの位置も矢印B方向にずれる。この信号の出力がなされる光センサの位置変化方向及び位置変化量から、ユーザの指200のスライド操作方向及びスライド操作量を検出することが可能である。
Further, as shown by the arrow B in FIG. 2C, when the user's
なお、タッチパネル106としては光感応式に限らず、ユーザの指等の接触圧力によりタッチ操作を検出する感圧式のタッチパネル等の各種の構成のタッチパネルを用いることも可能である。
The
記録部107は、撮像部103を介して取得され、制御部101において圧縮された画像データが記録される。なお、この記録部107には、時計部108によって計時された撮影日時等の撮影条件が付加された画像ファイルとして画像データが記録される。また、本実施形態における記録部107は、分類情報記録部107aとしての記録領域、整理画像記録部107bとしての記録領域も有している。分類情報記録部107aには、制御部101による画像データの分類結果を示す分類結果ファイルが記録される。また、整理画像記録部107bには、分類結果ファイルに従って画像片を整理した結果として作成される別画像(以下、マイマップ画像という)が記録される。
The
時計部108は、画像の撮影がなされた日時等を計時する。通信部109は、USBインターフェース等のカメラ100が外部機器と通信するための通信回路である。
The
次に、本実施形態に係るカメラ100の動作について説明する。図3は、本実施形態に係るカメラ100のメインの動作を示すフローチャートである。
Next, the operation of the
図3において、カメラ100の制御部101は、まず、カメラ100の電源がオンされたか否かを判定する(ステップS101)。ステップS101の判定において、電源がオフされている場合に、制御部101は図3の処理を終了させる。
In FIG. 3, the
一方、ステップS101の判定において、電源がオンされた場合に、制御部101はカメラ100の動作モードが撮影モードであるか否かを判定する(ステップS102)。ステップS102の判定において、カメラ100の動作モードが撮影モードである場合に、制御部101は、スルー画表示を行うべく、撮像部103を動作させる。この際、制御部101は、顔検出部104を動作させ、撮像部103を介して得られる画像データ中の顔領域を検出する(ステップS103)。その後、制御部101は、露出演算を行う(ステップS104)。この露出演算において、制御部101は、撮像部103を介して得られる画像データに基づいて、被写体の明るさを測定する。そして、測定した被写体の明るさに基づき、制御部101は、後述する撮影時において撮像部103を介して得られる画像の明るさを適正な明るさとするような露出量を演算する。撮影時においては、ステップS104で得られた露出量に従って撮像部103の制御が行われる。
On the other hand, when the power is turned on in the determination in step S101, the
次に、制御部101は、表示部105にスルー画表示を行う(ステップS105)。このスルー画表示において、制御部101は、撮像部103を介して得られる画像を逐次処理して表示部105に表示させる。撮像部103を連続動作させ、該連続動作によって得られる画像を連続的にカメラ100の表示部105に表示させることにより、表示部105を電子ファインダとして利用することが可能である。このようなスルー画表示により、ユーザは構図やシャッターチャンスを決定することが可能である。
Next, the
スルー画表示の後、制御部101は、撮影者によってレリーズ操作がなされたか、即ち操作部102のレリーズボタンが押されたか否かを判定する(ステップS106)。ステップS106の判定において、レリーズボタンが押されていない場合には、処理がステップS101に戻る。この場合に、制御部101は、カメラ100の電源がオンであるか否かを再び判定する。一方、ステップS106の判定において、レリーズボタンが押された場合に、制御部101は、ステップS104で演算された露出量に応じて撮影動作を実行し、撮影動作の結果、撮像部103を介して得られる画像データに対して各種の画像処理を施した上で画像ファイルを生成し、該生成した画像ファイルを記録部107に記録させる(ステップS107)。その後、制御部101は、記録部107に記録させた画像ファイルを再生して表示部105に撮影画像を表示させる(ステップS108)。
After the through image display, the
次に、制御部101は、記録部107に記録した画像ファイル中の画像データの分類を行う(ステップS109)。画像分類の後、制御部101は、分類結果に基づいて分類結果ファイルを作成して記録部107に記録させるか、或いは既に分類結果ファイルが作成されている場合には分類結果ファイルを更新する(ステップS110)。その後、処理がステップS101に戻る。なお、ステップS109の画像分類の詳細については後述する。
Next, the
また、ステップS102の判定において、カメラ100の動作モードが撮影モードでない場合に、制御部101は、カメラ100の動作モードが再生モードであるか否かを判定する(ステップS111)。ステップS111の判定において、カメラ100の動作モードが再生モードでない場合には、処理がステップS101に戻る。一方、ステップS111の判定において、カメラ100の動作モードが再生モードである場合に、制御部101は再生モードの処理を行う。この場合に、制御部101は、記録部107に記録された画像ファイルの中で、最後に記録された(撮影日時が最新の)画像ファイルを再生して表示部105に表示させる(ステップS112)。
In step S102, when the operation mode of the
その後、制御部101は、ユーザの指示により、画像分類の指示がなされたか否かを判定する(ステップS113)。この判定は、例えばユーザによる操作部102の操作若しくはユーザの指等が表示部105の表示画面に表示された図示しない画像分類指示ボタンにタッチしたか否かから行う。ステップS113の判定において、画像分類の指示がなされた場合に、制御部101は、画像分類の処理を行う(ステップS114)。画像分類の後、制御部101は、分類結果に基づいて分類結果ファイルを作成して記録部107に記録させるか、或いは既に分類結果ファイルが作成されている場合には分類結果ファイルを更新する(ステップS115)。なお、ステップS114の画像分類処理はステップS109の画像分類処理と同一である。その詳細については後述する。
Thereafter, the
ステップS113又はステップS115の後、制御部101は、通常以外のその他の表示を行うか否かを判定する(ステップS116)。この判定は、例えばユーザによる操作部102の操作若しくはユーザの指等が表示部105の表示画面に表示された図示しないマイマップ再生ボタン又はサムネイル表示ボタンにタッチしたか否かから行う。ステップS116の判定において、その他の表示を行わない場合に、処理がステップS101に戻る。
After step S113 or step S115, the
一方、ステップS116の判定において、その他の表示を行う場合に、制御部101は、ユーザによってマイマップ再生指示がなされたか否かを判定する(ステップS117)。ステップS117の判定において、マイマップ再生指示がなされた場合に、制御部101は、記録部107の整理画像記録部107bに記録されたマイマップ画像の再生を行う(ステップS118)。マイマップ画像の再生処理の終了後は、処理がステップS116に戻る。なお、マイマップ画像の再生処理の詳細については後述する。
On the other hand, in the determination of step S116, when other display is performed, the
また、ステップS117の判定において、マイマップ再生指示がなされていない場合に、制御部101は、サムネイル表示指示がなされたか否かを判定する(ステップS119)。ステップS119の判定において、サムネイル表示指示がなされていない場合、所定時間の経過後に、制御部101は、記録部107に記録された画像ファイルの中で次に撮影日時の新しい画像を表示部105に表示させる(ステップS120)。その後、処理がステップS113に戻る。
If it is determined in step S117 that a my map reproduction instruction has not been issued, the
また、ステップS119の判定において、サムネイル表示指示がなされた場合に、制御部101は、記録部107に記録された画像のサムネイル画像を表示部105に表示させる(ステップS121)。その後、制御部101は、タッチパネル106の出力から、サムネイル画像の選択がなされたか、即ちユーザの指等が表示部105に表示されたサムネイル画像の何れかにタッチしたか否かを判定する(ステップS122)。ステップS122の判定において、ユーザの指等が表示部105に表示されたサムネイル画像の何れかにタッチしていた場合に、制御部101は、そのタッチ位置のサムネイル画像に対応した画像を表示部105に拡大表示する(ステップS123)。その後、処理がステップS113に戻る。また、ステップS121の判定において、ユーザの指等が表示部105に表示されたサムネイル画像の何れにもタッチしていない場合にも、処理がステップS113に戻る。
In the determination in step S119, when a thumbnail display instruction is given, the
次に、ステップS109、S114の画像分類の処理について図4を参照して説明する。画像分類の処理に先だって表示部105には図5(a)で示すようにして撮影画像又は再生画像(以下、単に画像という)300が表示されている。画像分類処理が開始されると、制御部101は、図5(a)で示すように、ユーザが画像片の分類を行うための分類項目を示す表示301a〜301c及びユーザが画像分類の終了指示を行うための終了ボタン302を表示部105に表示させる(ステップS201)。そして、タッチパネル106の出力から、ユーザの指等による表示部105の表示画面上へのタッチ操作がなされたか否かを判定する(ステップS202)。ステップS202の判定においてタッチ操作がなされるまで、制御部101は、ステップS202の判定を行いつつ、待機する。
Next, the image classification process in steps S109 and S114 will be described with reference to FIG. Prior to the image classification process, a photographed image or a reproduced image (hereinafter simply referred to as an image) 300 is displayed on the
ステップS202の判定において、ユーザの指等によるタッチ操作がなされた場合に、制御部101は、タッチパネル106の出力から、ユーザの指等のタッチ位置を検出する(ステップS203)。その後、制御部101は、検出したタッチ位置が終了ボタン302の位置であるか否かを判定する(ステップS204)。ステップS204の判定において、タッチ位置が終了ボタン302の位置である場合に、制御部101は、図4の処理を終了させる。この場合、ステップS110又はステップS115から処理を実行する。
In the determination in step S202, when a touch operation is performed with the user's finger or the like, the
また、ステップS204の判定において、タッチ位置が終了ボタン302の位置でない場合に、制御部101は、タッチ位置が画像300内であるか否かを判定する(ステップS205)。ステップS205の判定において、タッチ位置が画像300内でない場合には、処理がステップS202に戻る。
If it is determined in step S204 that the touch position is not the position of the
また、ステップS205の判定において、タッチ位置が画像300内である場合に、制御部101は、そのタッチ位置を含む小領域を画像片として抽出する(ステップS206)。例えば、図5(a)に示す花300aの位置にユーザの指200がタッチした場合には花300aを含む小領域として画像片300bが抽出される。この画像片300bの大きさはユーザの指200の押圧力に応じて設定される。即ち、ユーザが表示部105の表示画面を押し込むことで、その押し込みの強さに応じた大きさの画像片300bが抽出される。画像片300bが抽出された際には、図5(a)に示すようにして、抽出された画像片300bが視覚的に分かるような枠が表示される。なお、図5(a)の例では、矩形の画像片300bを抽出するようにしている。しかしながら、画像片の形状は矩形に限らず、例えば円形であっても良い。
If it is determined in step S205 that the touch position is in the
画像片300bの抽出後、制御部101は、タッチパネル106の出力から、ユーザの指等のスライド操作がなされたか否かを検出する(ステップS207)。ステップS207の判定において、スライド操作がなされていない場合には、処理がステップS202に戻る。一方、ステップS207の判定において、スライド操作がなされた場合に、制御部101は、図5(b)に示すようにして、ユーザの指200等のスライド操作量に応じて画像片300bの位置をシフトさせる(ステップS208)。その後、制御部101は、シフト後の画像片300bの位置が分類項目表示301a〜301cの何れかと一致したか否かを判定する(ステップS209)。ステップS209の判定において、シフト後の画像片300bの位置が分類項目表示301a〜301cの何れとも一致していない場合には、処理がステップS202に戻る。一方、ステップS209の判定において、シフト後の画像片300bの位置が分類項目表示301a〜301cの何れかと一致した場合に、制御部101は、画像片300bの位置に対応した分類項目に応じたマイマップ画像を作成(或いは更新)する(ステップS210)。
After extracting the
図6は、マイマップ画像の例を示す図である。ここで、図6(a)は分類項目が「花」の場合のマイマップ画像の例を示し、図6(b)は分類項目が「ペット」の場合のマイマップ画像の例を示している。図6(a)、図6(b)に示すように、本実施形態におけるマイマップ画像は、分類項目に応じた背景画像(例えば「花」の場合には花畑、「ペット」の場合にはペット小屋等)401に、画像片301bを貼り付けることによって作成される画像である。なお、図6(a)、図6(b)においては、画像片301bの境界を示す枠を図示しているが、実際の貼り付けの際には、画像片301bの枠を消去してから貼り付けを行うことが望ましい。また、分類項目が人物のマイマップ画像については例示していないが、例えば人物の顔のサムネイル画像を額縁の画像に嵌め込んで絵画のようにしたり、人物の胴体の画像に人物の顔のサムネイル画像を貼り付けたりすれば良い。
FIG. 6 is a diagram illustrating an example of a my map image. Here, FIG. 6A shows an example of a my map image when the classification item is “flower”, and FIG. 6B shows an example of a my map image when the classification item is “pet”. . As shown in FIG. 6A and FIG. 6B, the My Map image in this embodiment is a background image corresponding to the classification item (for example, a flower field in the case of “flower”, and a flower field in the case of “pet”. This is an image created by pasting an
以上のようなマイマップ画像は、ユーザが撮影或いは再生した画像の一部を自由に貼り付けることでユーザの好みに応じた形で発展する画像である。このため、ユーザは画像の分類を楽しみながら行うことが可能である。 The My Map image as described above is an image that develops in a form according to the user's preference by freely pasting a part of the image taken or reproduced by the user. Therefore, the user can perform the image classification while enjoying it.
なお、マイマップ画像には戻るボタン402も重畳しておく。この戻るボタン402は後述するマイマップ画像再生の際に用いられるボタンである。また、ユーザを示す画像であるアバター403を合成するようにし、このアバター403の操作によって後述するマイマップ画像再生の際に再生するマイマップ画像の選択等を行えるようにしても良い。
Note that a
ステップS210において、マイマップ画像を作成した後、制御部101は、画像300と画像片301とが対応している旨を示す分類情報を分類結果ファイルに記録する(ステップS211)。さらに、制御部101は、画像300と画像片301との対応情報以外の情報(画像中の顔の数)等を分類結果ファイルに記録する(ステップS212)。その後、処理がステップS202に戻る。
In step S210, after creating the my map image, the
図7(a)は分類結果ファイルの一例を示している。図7(a)に示す分類結果ファイルは、「顔の数」、「顔の位置、特徴、大きさ」、「画像片」、「撮影日時」の項目を有している。 FIG. 7A shows an example of the classification result file. The classification result file shown in FIG. 7A has items of “number of faces”, “position, feature, size of face”, “image fragment”, and “shooting date / time”.
「顔の数」はステップS103の顔検出時に検出された画像データ中の顔領域の数が記録される。「顔の位置、特徴、大きさ」は画像内のどの位置に、どの程度の大きさの、どのような顔が含まれているかが記録される。本実施形態においては、例えば、図7(b)のようにして1画面をA1〜A9の9つの領域に分割し、このA1〜A9によって顔の位置を示すようにしている。また、顔の大きさは、A1〜A9の領域に対する大きさによってD1〜D3で示す3段階の大きさで示すようにしている。D1は、顔領域の大きさA1〜A9の領域の大きさよりも小さい場合である。また、D2は、顔領域がA1〜A9の領域に内接している(大きさがほぼ等しい)場合である。また、D3は、顔領域の大きさがA1〜A9の領域の大きさよりも大きい場合である。さらに、顔の特徴については、顔の特徴を示す識別子を画像データ毎に記録する。例えば、画像1は、A4の領域に特徴P−A(例えば家族を示す)の顔がD2の大きさで存在し、且つA7の領域に特徴P−Aの顔がD3の大きさで存在していることを示す。 As the “number of faces”, the number of face areas in the image data detected at the time of face detection in step S103 is recorded. “Face position, feature, and size” records what size and what face is included in which position in the image. In the present embodiment, for example, as shown in FIG. 7B, one screen is divided into nine areas A1 to A9, and the face positions are indicated by these A1 to A9. Further, the size of the face is indicated by three levels indicated by D1 to D3 depending on the sizes of the areas A1 to A9. D1 is a case where the face area size is smaller than the size of the area A1 to A9. D2 is a case where the face area is inscribed in the areas A1 to A9 (the sizes are almost equal). D3 is a case where the size of the face region is larger than the size of the regions A1 to A9. Furthermore, for facial features, an identifier indicating the facial features is recorded for each image data. For example, in the image 1, the face of the feature PA (for example, showing a family) exists in the area A4 with the size D2, and the face of the feature PA exists in the area A7 with the size D3. Indicates that
「画像片」は、上述したようにして分類された画像片と画像との対応情報が記録される。この対応情報は、マイマップ画像が作成される毎に記録する。例えば、画像1は、マイマップ画像中の花A又は人物Aと対応していることを示す。 In the “image piece”, correspondence information between the image piece and the image classified as described above is recorded. This correspondence information is recorded every time a My Map image is created. For example, image 1 indicates that it corresponds to flower A or person A in the My Map image.
「撮影日時」は、時計部108によって記録された撮影日時が記録される。カメラ100にGPS機能を設けることにより、撮影位置を記録できるようにしても良い。
In “shooting date and time”, the shooting date and time recorded by the
次に、ステップS118のマイマップ画像再生処理について図8を参照して説明する。マイマップ画像再生の指示がなされたときに、制御部101は、マイマップ画像の選択画面を表示させる(ステップS301)。図9(a)は選択画面の例を示している。図9(a)に示すように、選択画面においては、上述した分類項目に対応したマイマップ画像の分類を示す項目表示501a〜501cを表示させる。なお、図9(a)の例において、花畑501aは分類項目「花」と対応している。また、家501bは分類項目「人物」と対応している。さらに、ペットの家501cは分類項目「ペット」と対応している。さらに、選択画面においては終了ボタン502も表示させる。
Next, the my map image reproduction process in step S118 will be described with reference to FIG. When an instruction to reproduce the my map image is given, the
図9(a)で示す選択画面を表示させた後、制御部101は、タッチパネル106の出力から、ユーザにより項目表示501a〜501cの何れかの項目が選択されたか否かを判定する(ステップS302)。ステップS302の判定において、項目表示501a〜501cの何れの項目も選択されていない場合、制御部101は、タッチパネル106の出力から、ユーザにより終了ボタン502が選択されたか否かを判定する(ステップS303)。ステップS303の判定において、終了ボタン502が選択されていない場合には処理がステップS301に戻る。一方、ステップS303の判定において、終了ボタン502が選択された場合に、制御部101は、図8の処理を終了させる。この後は、処理が図3のステップS116に戻る。
After the selection screen shown in FIG. 9A is displayed, the
また、ステップS302の判定において、項目表示501a〜501cの何れかが選択された場合に、制御部101は、図9(b)で示すようにして、選択された項目に対応したマイマップ画像を表示部105に表示させる(ステップS304)。ここで、図9(b)は花畑の項目表示501aが選択された場合に表示されるマイマップ画像の例を示している。このマイマップ画像は図6(a)で示したものである。
In addition, when any of the
マイマップ画像の表示後、制御部101は、タッチパネル106の出力から、ユーザにより戻るボタン402が選択されたか否かを判定する(ステップS305)。ステップS305の判定において、戻るボタン402が選択された場合には処理がステップS301に戻る。この場合に、制御部101は、図9(a)で示した選択画面を再び表示させる。一方、ステップS305の判定において、戻るボタン402が選択されていない場合に、制御部101は、タッチパネル106の出力から、ユーザによりマイマップ画像中の何れかの画像片が選択されたか否かを判定する(ステップS306)。ステップS306の判定において、画像片が選択されていない場合には処理がステップS305に戻る。一方、ステップS306の判定において、画像片が選択された場合に、制御部101は、分類結果ファイルを参照してユーザによって選択された画像片に対応した画像を表示部105に表示させる(ステップS307)。図9(c)は画像片が選択された場合の対応画像の表示例を示す。例えば、図9(b)に示すようにして、画像片300bが選択された場合には、この画像片300bに対応した画像300が表示部105に表示される。なお、このような表示を行う際には、表示部105に表示されている画像が電子アルバムとして記録されていることを示す表示601を行うようにしても良い。
After displaying the my map image, the
以上説明したように、本実施形態によれば、画像の一部を画像片として抽出し、この画像片を用いてマイマップ画像を作成し、さらに、このマイマップ画像から所望の画像を検索可能としている。これにより、ユーザは、楽しみながら画像の分類を行うことができる。 As described above, according to this embodiment, a part of an image is extracted as an image piece, a My Map image is created using the image piece, and a desired image can be searched from the My Map image. It is said. Thereby, the user can classify images while having fun.
また、本実施形態においては、抽出する画像片の大きさをタッチパネル106の押圧力によって変化させるようにしている。これにより、ユーザは任意の大きさの画像片を用いてマイマップ画像を作成することが可能である。
In the present embodiment, the size of the image piece to be extracted is changed by the pressing force of the
ここで、上述した実施形態においては、「花」、「人物」、「ペット」の3種類の分類に対応したマイマップ画像の作成について例示しているが、これ以外の分類を行えるようにしても良い。また、分類項目をユーザが作成できるようにしても良い。 Here, in the above-described embodiment, the creation of the My Map image corresponding to the three types of classification “flower”, “person”, and “pet” is illustrated, but other classifications can be performed. Also good. Further, the classification item may be created by the user.
また、上述の実施形態においては、単にユーザのタッチ位置を含む小領域を画像片として抽出している。この場合、花等の主要な対象物に加えて背景の画像も含まれた画像片が抽出されることになる。背景の画像が含まれたままで画像片をマイマップ画像に貼り付けてしまうと、作成されるマイマップ画像が見づらくなるおそれがある。これに対して以下の図10で示すように画像片を抽出するようにしても良い。ここで、図10の処理は、図4のステップS206の処理に代えて行われるものである。 Moreover, in the above-mentioned embodiment, the small area | region containing a user's touch position is extracted as an image piece. In this case, an image piece including a background image in addition to a main object such as a flower is extracted. If the image piece is pasted on the My Map image while the background image is included, the created My Map image may be difficult to see. On the other hand, an image piece may be extracted as shown in FIG. Here, the process of FIG. 10 is performed in place of the process of step S206 of FIG.
図4のステップS205の判定において、ユーザの指等が表示部105に表示されている画像にタッチした場合に、制御部101は、図11(a)に示すようにして、タッチ位置を含む所定の大きさの小領域(矩形、円形等)701を設定する(ステップS401)。次に、制御部101は、小領域701の大きさをユーザの指200の押圧力に応じて変更する(ステップS402)。
When the user's finger or the like touches the image displayed on the
次に、制御部101は、小領域701中の画像データを取得し、取得した画像データ中の主要色(最も多い色)を検出する(ステップS403)。その後、制御部101は、ステップS403で検出した主要色と近似する色の部分を小領域701中で検出する(ステップS404)。即ち、小領域701の主要色は小領域701中で最も重要な対象物であると考える。次に、制御部101は、小領域701中で、主要色及びその近似色の領域に囲まれていない領域を背景領域とし、この背景領域を透明画像化する(ステップS405)。例えば、図11(b)のようにして抽出された小領域701内の主要な対象物は花であり、この場合の主要色は花弁の色となる。したがって、ステップS405の処理においては、花弁の色を有する領域702で囲まれる部分以外の例えば枝703の部分が図11(c)に示すようにして透明画像化される。このようにして画像片が抽出される。画像片の抽出後は、図4のステップS207以後の処理が実行される。
Next, the
このようにして画像片を抽出することにより、マイマップ画像に画像片の背景部分までもが貼り付けられてしまうことがない。 By extracting the image piece in this manner, even the background portion of the image piece is not pasted on the My Map image.
以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。上述の実施形態では、画像整理装置の例としてデジタルカメラを示している。しかしながら、本実施形態はタッチパネルを有する各種の装置に適用可能である。 Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. In the above-described embodiment, a digital camera is shown as an example of the image organizing apparatus. However, this embodiment is applicable to various devices having a touch panel.
また、上述した実施形態では、画像300の再生時には常に項目表示301a〜301cを表示させるようにしている。これに対し、画像300の再生後、ユーザの指等による画像300へのタッチ時間が所定時間を超えた時点で項目表示を行うようにしても良い。
In the embodiment described above, the
また、上述した実施形態では、主に静止画像からの画像片の抽出及びマイマップ画像の作成について説明している。しかしながら、上述した実施形態の手法は、動画像に対しても適用可能である。例えば、動画像の再生中にユーザの指等によって再生中の画像へのタッチがなされた時点で再生中の画像を一時停止させるようにすれば、以後は静止画像の場合と同様の画像片抽出及びマイマップ画像作成を行うことが可能である。このようにして作成されたマイマップ画像中の対応する画像片が選択された場合には、その画像片が対応している動画像中のコマから動画像が再生される。 Further, in the above-described embodiment, the extraction of the image piece from the still image and the creation of the my map image are mainly described. However, the method of the above-described embodiment can be applied to a moving image. For example, if the image being reproduced is paused when the image being reproduced is touched with the user's finger or the like during the reproduction of the moving image, image fragment extraction similar to the case of a still image is performed thereafter. In addition, it is possible to create a my map image. When a corresponding image piece in the My Map image created in this way is selected, a moving image is reproduced from a frame in the moving image corresponding to the image piece.
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。 Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.
100…カメラ、101…制御部、102…操作部、103…撮像部、104…顔検出部、105…表示部、106…タッチパネル、107…記録部、107a…分類情報記録部、107b…整理画像記録部、108…時計部、109…通信部
DESCRIPTION OF
Claims (7)
上記表示部に表示された第1の画像へのタッチ操作の有無と、該タッチ操作がなされた場合のタッチ位置とを検出するタッチパネルと、
上記タッチ操作がなされたときに、上記第1の画像内で且つ上記タッチ位置を含む小領域の画像である画像片を抽出する画像片抽出部と、
上記抽出した画像片を別の画像に貼り付けて第2の画像を作成する別画像作成部と、
を具備することを特徴とする画像整理装置。 A display unit for displaying the first image recorded in the recording unit;
A touch panel for detecting the presence or absence of a touch operation on the first image displayed on the display unit and a touch position when the touch operation is performed;
An image piece extracting unit that extracts an image piece that is an image of a small area in the first image and including the touch position when the touch operation is performed;
Another image creation unit for creating the second image by pasting the extracted image piece on another image;
An image organizing apparatus comprising:
上記分類の結果を分類情報として記録する分類情報記録部と、
をさらに具備し、
上記別画像作成部は、上記分類情報を参照し、同じ分類がなされている画像片のみから上記第2の画像を作成することを特徴とする請求項2に記載の画像整理装置。 An image piece classification unit for classifying the image pieces;
A classification information recording unit for recording the classification result as classification information;
Further comprising
3. The image organizing apparatus according to claim 2, wherein the separate image creating unit creates the second image from only image pieces that are classified in the same manner with reference to the classification information.
上記画像片分類部は、上記タッチパネルによって検出されたスライド操作に応じて上記画像片を分類することを特徴とする請求項3に記載の画像整理装置。 The touch panel further detects a slide operation from the touch position,
The image organizing apparatus according to claim 3, wherein the image piece classification unit classifies the image pieces according to a slide operation detected by the touch panel.
上記画像片抽出部は、上記押圧力に応じて上記小領域を特定し、該特定された小領域に応じた画像片を抽出することを特徴とする請求項1に記載の画像整理装置。 The touch panel further detects a pressing force at the touch position,
The image organizing apparatus according to claim 1, wherein the image piece extraction unit specifies the small area according to the pressing force, and extracts an image piece according to the specified small area.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009102208A JP2010252266A (en) | 2009-04-20 | 2009-04-20 | Image arrangement apparatus |
CN201210296613.5A CN102982062B (en) | 2009-04-20 | 2010-04-20 | Image collating device |
CN2010101658551A CN101866349B (en) | 2009-04-20 | 2010-04-20 | Image collating device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009102208A JP2010252266A (en) | 2009-04-20 | 2009-04-20 | Image arrangement apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010252266A true JP2010252266A (en) | 2010-11-04 |
Family
ID=42958077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009102208A Withdrawn JP2010252266A (en) | 2009-04-20 | 2009-04-20 | Image arrangement apparatus |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2010252266A (en) |
CN (2) | CN102982062B (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013250664A (en) * | 2012-05-30 | 2013-12-12 | Canon Inc | Information processing device, method of controlling the same and program |
JP2014138384A (en) * | 2013-01-18 | 2014-07-28 | Olympus Imaging Corp | Imaging device, image processing device, and image processing program |
JP2018125887A (en) * | 2018-04-12 | 2018-08-09 | 株式会社ニコン | Electronic equipment |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104021215B (en) * | 2014-06-20 | 2020-05-01 | 努比亚技术有限公司 | Picture sorting method and device |
CN104965654B (en) * | 2015-06-15 | 2019-03-15 | 广东小天才科技有限公司 | Head portrait adjusting method and system |
TWI687094B (en) * | 2017-02-08 | 2020-03-01 | 弗勞恩霍夫爾協會 | Predictive coding concept using template matching |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3908171B2 (en) * | 2003-01-16 | 2007-04-25 | 富士フイルム株式会社 | Image storage method, apparatus, and program |
EP1600939A4 (en) * | 2003-03-04 | 2006-02-08 | Fujitsu Ltd | Image display method, image display program, and information device |
CN100382096C (en) * | 2003-08-20 | 2008-04-16 | 奥西-技术有限公司 | Document scanner |
JP2006042171A (en) * | 2004-07-29 | 2006-02-09 | Olympus Corp | Camera, reproducing apparatus and album registration method |
JP2006293985A (en) * | 2005-03-15 | 2006-10-26 | Fuji Photo Film Co Ltd | Program, apparatus and method for producing album |
CN101055592A (en) * | 2007-05-20 | 2007-10-17 | 宁尚国 | Image information generation method and device |
-
2009
- 2009-04-20 JP JP2009102208A patent/JP2010252266A/en not_active Withdrawn
-
2010
- 2010-04-20 CN CN201210296613.5A patent/CN102982062B/en not_active Expired - Fee Related
- 2010-04-20 CN CN2010101658551A patent/CN101866349B/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013250664A (en) * | 2012-05-30 | 2013-12-12 | Canon Inc | Information processing device, method of controlling the same and program |
JP2014138384A (en) * | 2013-01-18 | 2014-07-28 | Olympus Imaging Corp | Imaging device, image processing device, and image processing program |
JP2018125887A (en) * | 2018-04-12 | 2018-08-09 | 株式会社ニコン | Electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
CN101866349B (en) | 2012-10-03 |
CN101866349A (en) | 2010-10-20 |
CN102982062B (en) | 2017-03-01 |
CN102982062A (en) | 2013-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10212362B2 (en) | Method and apparatus for creating or storing resultant image which changes in selected area | |
US8582891B2 (en) | Method and apparatus for guiding user with suitable composition, and digital photographing apparatus | |
TWI466008B (en) | Display control apparatus, display control method, and computer program product | |
US8854523B2 (en) | Photographing apparatus, photographing control method and photographing control program for providing enhanced photos and animations | |
KR101930460B1 (en) | Photographing apparatusand method for controlling thereof | |
JP2006042171A (en) | Camera, reproducing apparatus and album registration method | |
JP2013232861A (en) | Display control device, display control method, program, and recording medium | |
KR101559992B1 (en) | Imaging apparatus which performs development processing on captured image | |
JP2011055190A (en) | Image display apparatus and image display method | |
JP2010252266A (en) | Image arrangement apparatus | |
JP2011101251A (en) | Electronic apparatus and image display method | |
JP2011065277A (en) | Electronic apparatus, image display method, and content reproduction program | |
US8508602B2 (en) | Photographing apparatus method, and computer usable medium for photographing an object within a detection area based on a change of the object | |
US8149317B2 (en) | Display device, photographing apparatus, and display method | |
CN104144286A (en) | Imaging apparatus and imaging method | |
JP4054167B2 (en) | Imaging device | |
US20030156217A1 (en) | Information input apparatus | |
JP2005130184A (en) | Photographic processing apparatus and photographic mode selection method | |
JP5302740B2 (en) | Image display device | |
CN103581512B (en) | Shooting device and method | |
JP4872564B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2020150433A (en) | Processing device and program | |
JP6108831B2 (en) | Mobile device, server, image generation method and program | |
JP2010187119A (en) | Image capturing apparatus, and program for the same | |
US10432848B2 (en) | Electronic apparatus and method for controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120703 |