JP5401962B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP5401962B2
JP5401962B2 JP2008318001A JP2008318001A JP5401962B2 JP 5401962 B2 JP5401962 B2 JP 5401962B2 JP 2008318001 A JP2008318001 A JP 2008318001A JP 2008318001 A JP2008318001 A JP 2008318001A JP 5401962 B2 JP5401962 B2 JP 5401962B2
Authority
JP
Japan
Prior art keywords
image
search
display
search key
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008318001A
Other languages
Japanese (ja)
Other versions
JP2010140391A (en
Inventor
綾子 岩瀬
博之 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008318001A priority Critical patent/JP5401962B2/en
Priority to US12/582,046 priority patent/US8823637B2/en
Priority to CN200910261468A priority patent/CN101834991A/en
Publication of JP2010140391A publication Critical patent/JP2010140391A/en
Application granted granted Critical
Publication of JP5401962B2 publication Critical patent/JP5401962B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1636Sensing arrangement for detection of a tap gesture on the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Studio Devices (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は、例えば、デジタルスチルカメラ、デジタルビデオカメラなどの画像データを処理する装置、当該装置で用いられる方法、プログラムに関する。   The present invention relates to an apparatus for processing image data, such as a digital still camera and a digital video camera, and a method and program used in the apparatus.

デジタルスチルカメラやデジタルビデオカメラなどの画像データを処理する電子機器においては、種々のGUI(Graphical User Interface)を利用できるようにして、ユーザーの操作性を向上させるようにすることが行われている。   In electronic devices that process image data such as digital still cameras and digital video cameras, various GUIs (Graphical User Interfaces) can be used to improve user operability. .

GUIが採用された電子機器においては、ユーザーは、画面上に表示されたアイコンやウインドウなどのグラフィカルな要素を通じて、操作を行うことができるようにされる。したがって、GUIを用いることにより、電子機器に不慣れなユーザーでも意図する操作を適切に行うことができる。   In an electronic apparatus employing a GUI, a user can perform an operation through a graphical element such as an icon or a window displayed on the screen. Therefore, by using the GUI, even a user unfamiliar with electronic devices can appropriately perform an intended operation.

また、GUIを用いることにより、電子機器の使い勝手を向上させるようにする種々の技術が、以下に示す特許文献に開示されている。
特開2007−274381号公報 特開2004−343662号公報
Various techniques for improving the usability of electronic devices by using a GUI are disclosed in the following patent documents.
JP 2007-274381 A Japanese Patent Laid-Open No. 2004-34362

上述のように、電子機器にGUIを採用することにより、ユーザーの操作性を向上させることができる。しかし、1つのアイコンに対して操作を行うと、さらに別の操作が要求されるといったように、階層的に操作が要求される場合も多い。このような場合には、操作回数が多くなり、結局、操作の複雑化を招いてしまう場合もある。   As described above, the user operability can be improved by adopting the GUI in the electronic apparatus. However, when an operation is performed on one icon, there are many cases where the operation is requested hierarchically, such that another operation is required. In such a case, the number of operations increases, and eventually the operation may be complicated.

そこで、電子機器において、頻繁に行う必要のある処理、迅速に行う必要のある処理、確実に行う必要のある処理等については、できるだけ簡単な操作によって実行できるようにすることが望まれている。   In view of this, it is desired that processes that need to be performed frequently, processes that need to be performed quickly, processes that need to be performed reliably, and the like can be executed by the simplest possible operation.

特に、持ち運ばれて利用されることが多いデジタルスチルカメラやデジタルビデオカメラなどの画像処理装置においては、外出先などにおいても、簡単な操作で、目的とする処理を迅速かつ確実に行えるようにすることが望まれている。   In particular, in image processing devices such as digital still cameras and digital video cameras that are often carried and used, the target processing can be performed quickly and reliably by simple operations even when away from home. It is hoped to do.

以上のことに鑑み、この発明は、画像データを扱う場合に、簡単な操作で、目的とする処理を迅速かつ確実に行えるようにすることを目的とする。   In view of the above, an object of the present invention is to enable a target process to be performed quickly and reliably with a simple operation when handling image data.

上記課題を解決するため、請求項1に記載の発明の画像処理装置は、自機の動きを検出する動き検出部と、操作部に対する操作に応じて、画像データの検索範囲を設定する設定部と、設定部により検索範囲が設定された状態で、動き検出部を通じて、自機に対して特定の操作が行われたことを検出した場合に、検索範囲の画像データを表示部に表示する表示処理部と、操作部に対する操作に応じて、検索範囲の画像データから検索キーを用いて画像データの検索を行い、当該検索結果の画像データを表示部に表示する検索部と、検索結果の画像データが表示部に表示された状態で、動き検出部を通じて、自機に対して特定の操作が行われたことを検出した場合に、検索結果の画像データを所定の格納先に記録する記録処理部と、を備える。 In order to solve the above-described problem, an image processing apparatus according to a first aspect of the present invention includes a motion detection unit that detects a motion of the device itself, and a setting unit that sets a search range of image data according to an operation on the operation unit. When the search range is set by the setting unit and the motion detection unit detects that a specific operation has been performed on the device, the search range image data is displayed on the display unit. In response to an operation on the processing unit and the operation unit, the image data is searched from the image data in the search range using a search key, and the search result image data is displayed on the display unit, and the search result image Recording process for recording image data of a search result in a predetermined storage location when it is detected that a specific operation has been performed on the own device through the motion detection unit while the data is displayed on the display unit A section.

これにより、ユーザーは、例えば、画像処理装置を倒す、起こす、傾ける、振る、叩くといった、動き検出により検出可能な簡単な操作を、当該画像処理装置に対して行うだけで、目的とする処理を迅速かつ確実に実行することができるようにされる。 As a result, the user simply performs a simple operation that can be detected by the motion detection unit , such as tilting, raising, tilting, shaking, or hitting the image processing apparatus, on the image processing apparatus. Can be performed quickly and reliably.

この発明によれば、画像データを扱う画像処理装置において、目的とする画像データを処理対象として、簡単な操作で、目的とする処理を迅速かつ確実に行うようにすることができる。   According to the present invention, in an image processing apparatus that handles image data, it is possible to perform target processing quickly and reliably with a simple operation using the target image data as a processing target.

以下、図を参照しながら、この発明の装置、方法、プログラムの一実施の形態について説明する。   Hereinafter, embodiments of the apparatus, method, and program of the present invention will be described with reference to the drawings.

[撮像装置の構成例]
図1は、この発明の装置、方法、プログラムの一実施の形態が適用された撮像装置100の構成例を説明するためのブロック図である。撮像装置100は、撮影モードを切り替えることにより、静止画像と動画像のいずれをも撮影して記録媒体に記録することができるものである。
[Configuration example of imaging device]
FIG. 1 is a block diagram for explaining a configuration example of an imaging apparatus 100 to which an embodiment of the apparatus, method, and program of the present invention is applied. The imaging apparatus 100 can shoot both still images and moving images and switch them to a recording medium by switching the shooting mode.

しかし、以下に説明する実施の形態においては、説明を簡単にするため、撮像装置100はデジタルスチルカメラとしての機能が用いられ、主に静止画像を撮影したり、再生したりする場合を例にして、この撮像装置100の構成と動作について説明する。   However, in the embodiment described below, in order to simplify the description, the imaging apparatus 100 uses a function as a digital still camera, and mainly takes a case where a still image is taken or reproduced as an example. The configuration and operation of the imaging apparatus 100 will be described.

図1に示すように、撮像装置100は、レンズ部101、撮像素子102、前処理部103、画像処理部104、表示処理部105、表示部106、タッチパネル107、圧縮処理部109、伸張処理部110、表示画像形成部111を備えている。   As illustrated in FIG. 1, the imaging apparatus 100 includes a lens unit 101, an imaging element 102, a preprocessing unit 103, an image processing unit 104, a display processing unit 105, a display unit 106, a touch panel 107, a compression processing unit 109, and an expansion processing unit. 110 and a display image forming unit 111.

また、撮像装置100は、制御部120、操作部131、外部インターフェース(以下、外部I/Fと略称する。)132、入出力端子133、書き込み/読み出し部134、記録媒体135を備えている。また、撮像装置100は、セット上部のタッチパネル136、モーションセンサ137、GPS受信部138、GPS用受信アンテナ139、通信部141、送受信アンテナ142を備えている。   The imaging apparatus 100 also includes a control unit 120, an operation unit 131, an external interface (hereinafter abbreviated as an external I / F) 132, an input / output terminal 133, a writing / reading unit 134, and a recording medium 135. In addition, the imaging apparatus 100 includes a touch panel 136, a motion sensor 137, a GPS reception unit 138, a GPS reception antenna 139, a communication unit 141, and a transmission / reception antenna 142 at the top of the set.

なお、図1には示さなかったが、この実施の形態の撮像装置100は、時計回路をも備えたものである。当該時計回路は、カレンダ機能を備え、現在年月日、現在曜日、現在時刻を提供することができると共に、必要に応じて、所定の時間間隔を計測する時間カウンタの機能をも実現することができるものである。   Although not shown in FIG. 1, the imaging apparatus 100 according to this embodiment also includes a clock circuit. The clock circuit has a calendar function, can provide the current date, current day, and current time, and can also realize a function of a time counter that measures a predetermined time interval as necessary. It can be done.

この時計回路の機能により、撮影された画像データに対して撮影日時や撮影曜日などの撮影日に関する情報を付加することができるようにしている。また、時計回路の機能を利用して、所定の操作から一定時間経過後に自動的にシャッターをきって撮影できるようにするセルフタイマー撮影機能をも実現することができるようにしている。   With the function of this clock circuit, information relating to the shooting date such as the shooting date and the shooting day can be added to the shot image data. In addition, a self-timer shooting function that enables shooting by automatically releasing the shutter after a predetermined time elapses from a predetermined operation can be realized by using a function of a clock circuit.

この実施の形態の撮像装置100において、表示部106は、例えば、LCD(Liquid Crystal Display)、有機ELパネル(Organic Electroluminescence Panel)等のいわゆる薄型の表示素子からなるものである。そして、後述もするが、この表示部106の表示画面の全面に対して操作面を形成するようにタッチパネル107が貼付されている。   In the imaging apparatus 100 according to this embodiment, the display unit 106 includes a so-called thin display element such as an LCD (Liquid Crystal Display) or an organic EL panel (Organic Electroluminescence Panel). As will be described later, a touch panel 107 is attached so as to form an operation surface over the entire display screen of the display unit 106.

タッチパネル107は、ユーザー(使用者)からの操作面に対する指示操作(接触操作)を受け付けて、タッチパネル107の当該操作面上の指示位置(接触位置)を検出し、当該指示位置を示す座標データを制御部120に通知するものである。   The touch panel 107 receives an instruction operation (contact operation) on the operation surface from the user (user), detects an instruction position (contact position) on the operation surface of the touch panel 107, and obtains coordinate data indicating the instruction position. This is to notify the control unit 120.

制御部120は、後述もするように、撮像装置100の各部を制御するものであり、表示部106の表示画面に対して、どのような表示を行っているかをも把握している。制御部120は、タッチパネル107からの操作面上の指示位置を示す座標データと、当該指示位置に対応する表示部106の表示画面上の表示情報とに基づいて、ユーザーからの指示操作(入力操作)を受け付けることができる。   As will be described later, the control unit 120 controls each unit of the imaging apparatus 100 and also grasps what kind of display is being performed on the display screen of the display unit 106. Based on the coordinate data indicating the designated position on the operation surface from the touch panel 107 and the display information on the display screen of the display unit 106 corresponding to the designated position, the control unit 120 performs an instruction operation (input operation from the user). ) Can be accepted.

例えば、ユーザーがタッチパネル107の操作面上の位置に、指やスタイラスなどを接触させたとする。この場合に、その接触位置に対応する(一致する)表示画面上の位置に数字が表示されていた場合には、ユーザーはその表示されている数字を選択して入力するようにしたと制御部120において判別することができる。   For example, assume that the user touches a position on the operation surface of the touch panel 107 with a finger or a stylus. In this case, when a number is displayed at a position on the display screen corresponding to (matching with) the contact position, the control unit indicates that the user has selected and input the displayed number. A determination can be made at 120.

このように、撮像装置100においては、表示部106とタッチパネル107とによって、入力装置としてのタッチスクリーン108を形成している。なお、タッチパネル107は、例えば、感圧式や静電式のものとして実現される。   As described above, in the imaging apparatus 100, the display unit 106 and the touch panel 107 form a touch screen 108 as an input device. Note that the touch panel 107 is realized as, for example, a pressure-sensitive type or an electrostatic type.

また、タッチパネル107は、操作面上の複数の箇所に同時に行うようにされた操作のそれぞれを検出し、その接触位置のそれぞれを示す座標データを出力することができるものである。また、タッチパネル107は、操作面に対して繰り返し行うようにされる指示操作のそれぞれを検出し、そのそれぞれの接触位置を示す座標データを出力することもできる。   In addition, the touch panel 107 can detect each of operations performed at a plurality of locations on the operation surface at the same time, and can output coordinate data indicating each of the contact positions. In addition, the touch panel 107 can detect each instruction operation that is repeatedly performed on the operation surface, and can output coordinate data indicating each contact position.

さらに、タッチパネル107は、ユーザーによって、指やスタイラスが接触されている間は、所定のタイミング毎に連続して接触位置を検出し、これを示す座標データを出力することもできる。   Furthermore, the touch panel 107 can detect the contact position continuously at a predetermined timing and output coordinate data indicating this while the finger or stylus is in contact with the user.

これにより、タッチパネル107は、いわゆるタップ操作、ダブルタップ操作、ドラッグ操作、フリック操作、ピンチ操作などのユーザーからの様々な指示操作(操作入力)を受け付けて、これを検出することができるものである。   Thereby, the touch panel 107 can receive and detect various instruction operations (operation inputs) from the user such as a so-called tap operation, double tap operation, drag operation, flick operation, and pinch operation. .

ここで、タップ操作は、ユーザーの指やスタイラスによって、操作面上を「ちょん」と1回だけ指示する動作(操作)である。ダブルタップ操作は、操作面上を連続して2回、「ちょん、ちょん」と指示する動作である。   Here, the tap operation is an operation (operation) for instructing only once on the operation surface by the user's finger or stylus. The double-tap operation is an operation for instructing “on” on the operation surface twice in succession.

また、ドラッグ操作は、ユーザーの指やスタイラスを操作面上に接触させたまま移動させる動作である。フリック操作は、ユーザーの指やスタイラスを操作面上の1点を指示してから、そのまま任意の方向に素早く「はじく」ようにする動作である。   The drag operation is an operation of moving the user's finger or stylus while keeping it in contact with the operation surface. The flick operation is an operation for quickly “replacing” an arbitrary direction as it is after the user's finger or stylus is pointed to one point on the operation surface.

ピンチ操作は、ユーザーの2本の指等を同時に操作面上に接触させて、当該2本の指等を開いたり、閉じたりする動作である。この場合、特に、接触させた2本の指等を開く操作をピンチアウト操作、2本の指等を閉じる操作をピンチイン操作と呼んでいる。   The pinch operation is an operation in which two fingers or the like of the user are simultaneously brought into contact with the operation surface and the two fingers or the like are opened or closed. In this case, in particular, an operation of opening two fingers that are brought into contact is called a pinch-out operation, and an operation of closing two fingers or the like is called a pinch-in operation.

ドラッグ操作とフリック操作とは、動作の速さに違いがあるものの、操作面上にユーザーの指等を接触させた後に、当該操作面上を移動させる操作(操作面上をなぞる操作)であり、移動距離と移動方向との2種類の情報によって把握できる操作である。   The drag operation and the flick operation are operations that move on the operation surface after touching the user's finger etc. on the operation surface, although there is a difference in the speed of the operation (operation that traces on the operation surface). This is an operation that can be grasped by two types of information, that is, a moving distance and a moving direction.

このため、この明細書においては、ドラッグ操作とフリック操作とのいずれかの操作を行うことにより、同じ処理を行うようにすることができる場合には、ドラッグ操作とフリック操作との総称として「なぞり操作」という文言を用いる。   For this reason, in this specification, when the same processing can be performed by performing either a drag operation or a flick operation, the drag operation and the flick operation are collectively referred to as “swapping”. The word “operation” is used.

そして、制御部120は、撮像装置100を構成する各部と接続され、上述もしたように、撮像装置100の各部を制御するものであり、いわゆるマイクロコンピュータの構成されたものである。   And the control part 120 is connected with each part which comprises the imaging device 100, and controls each part of the imaging device 100 as above-mentioned, and is what is called a microcomputer.

制御部120は、CPU(central Processing Unit)121、ROM(Read Only Memory)122、RAM(Random Access Memory)123、EEPROM(Electrically Erasable and Programmable ROM)124が、CPUバス125を通じて接続されて構成されている。   The control unit 120 is configured by a CPU (central processing unit) 121, a ROM (Read Only Memory) 122, a RAM (Random Access Memory) 123, and an EEPROM (Electrically Erasable and Programmable ROM) 124 connected through a CPU bus 125. Yes.

CPU121は、後述するROM122に記憶されているプログラムを読み出して実行し、各部に供給する制御信号を形成して、これを各部に供給し、また各部から提供されるデータ等を受け付けて、これを処理するものである。   The CPU 121 reads out and executes a program stored in the ROM 122, which will be described later, forms a control signal to be supplied to each part, supplies this to each part, receives data provided from each part, and receives this. It is something to process.

ROM122は、上述のように、CPU121において実行される種々のプログラムや処理に必要になる種々のデータ等を予め記憶保持しているものである。RAM123は、各種の処理において途中結果を一時記憶するなど、主にワークエリアとして用いられるものである。   As described above, the ROM 122 stores in advance various programs executed by the CPU 121 and various data necessary for processing. The RAM 123 is mainly used as a work area, such as temporarily storing intermediate results in various processes.

EEPROM124は、いわゆる不揮発性メモリーであり、撮像装置100の電源が落とされても保持しておくべき情報を記憶保持する。例えば、ユーザーによって設定された種々のパラメータや、種々の処理の最終結果、あるいは、機能追加などのために新たに提供された処理プログラムやデータ等が、EEPROM124に保持される。   The EEPROM 124 is a so-called nonvolatile memory, and stores and holds information that should be held even when the power of the imaging apparatus 100 is turned off. For example, various parameters set by the user, final results of various processes, processing programs and data newly provided for adding functions, and the like are stored in the EEPROM 124.

このように構成された制御部120に対しては、図1に示したように、操作部131、外部I/F132、書き込み/読み出し部134、セット上部のタッチパネル136、モーションセンサ137、GPS受信部138、通信部141が接続されている。   As shown in FIG. 1, the control unit 120 configured as described above includes an operation unit 131, an external I / F 132, a writing / reading unit 134, a touch panel 136 on the set, a motion sensor 137, and a GPS receiving unit. 138 and a communication unit 141 are connected.

操作部131は、各種の調整キーや機能キー、シャッターキーなどの操作キーを有し、ユーザーからの操作入力を受け付けて、これを制御部120に通知する。これにより、制御部120は、操作部131を通じて受け付けたユーザーからの操作入力に応じて、各部を制御し、操作入力に応じた処理を実行することができるようにされる。   The operation unit 131 includes operation keys such as various adjustment keys, function keys, and shutter keys. The operation unit 131 receives an operation input from the user and notifies the control unit 120 of the operation input. As a result, the control unit 120 can control each unit in accordance with the operation input from the user received through the operation unit 131, and can execute processing according to the operation input.

外部I/F132は、例えば、USB(Universal Serial Bus)やIEEE(Institute of Electrical and Electronics Engineers Inc)1394などの、所定の規格に準拠したデジタルインターフェースである。   The external I / F 132 is a digital interface conforming to a predetermined standard such as USB (Universal Serial Bus) and IEEE (Institute of Electrical and Electronics Engineers Inc) 1394.

すなわち、外部I/F132は、入出力端子133に接続された外部機器からのデータを自機において処理可能な形式のデータに変換して受け付けたり、自機から送出するデータを所定の形式のデータに変換して出力したりするものである。   In other words, the external I / F 132 converts data received from an external device connected to the input / output terminal 133 into data in a format that can be processed by the own device, or receives data sent from the own device in a predetermined format. Or output after conversion.

書き込み/読み出し部134は、制御部120の制御に応じて、自機の記録媒体135に対して、データを書き込んだり、記録媒体135に記録されているデータを読み出したりするものである。   The writing / reading unit 134 writes data to or reads data recorded on the recording medium 135 according to the control of the control unit 120.

記録媒体135は、撮像装置100に対して着脱可能に構成され、例えば、半導体メモリーが用いられて、数ギガバイト以上の記憶容量を有するようにされたいわゆるメモリーカード型のリムーバブルメモリーである。   The recording medium 135 is configured to be detachable from the imaging apparatus 100, and is, for example, a so-called memory card type removable memory using a semiconductor memory and having a storage capacity of several gigabytes or more.

なお、メモリーカード型のリムーバブルメモリー以外にも、記録媒体135として、例えば、内蔵フラッシュメモリーや小型のハードディスクなど内蔵型の記録媒体を用いる構成することもできる。   In addition to the memory card type removable memory, the recording medium 135 may be configured to use a built-in recording medium such as a built-in flash memory or a small hard disk.

また、記録媒体135として、小型のDVD(digital Versatile Disc)やCD(Compact Disc)等の光ディスクなどの他のリムーバブル型の記録媒体を用いる構成とすることもできる。   Further, as the recording medium 135, another removable recording medium such as an optical disk such as a small DVD (digital Versatile Disc) or CD (Compact Disc) may be used.

セット上部のタッチパネル136は、所定の場合にユーザーからの指示入力を受け付けるためのものである。このタッチパネル136もまた、感圧式や静電式のものとして実現される。なお、セット上部のタッチパネル136は、必ずしもタッチパネルによって構成されなくてもよい。いわゆるハードウェアキーとして実現してもよい。   The touch panel 136 at the top of the set is for receiving an instruction input from the user in a predetermined case. The touch panel 136 is also realized as a pressure-sensitive type or an electrostatic type. Note that the touch panel 136 at the top of the set does not necessarily need to be configured by a touch panel. You may implement | achieve as what is called a hardware key.

モーションセンサ137は、撮像装置100の動きを検出するものであり、具体的には、2軸若しくは3軸の加速度センサなどにより構成される。そして、モーションセンサ137は、撮像装置100が傾けられるようにされた場合に、どの方向にどれだけ傾けられたのかを検出し、制御部120に通知することができるものである。   The motion sensor 137 detects the movement of the imaging apparatus 100, and specifically includes a biaxial or triaxial acceleration sensor. The motion sensor 137 can detect how much the camera is tilted in any direction and notify the control unit 120 when the imaging device 100 is tilted.

また、モーションセンサ137は、撮像装置100が左右に振られた場合と上下に振られた場合とを区別して検出し、これを制御部120に通知することができる。また、モーションセンサ137は、例えば、叩かれるなどして振動が加えられた場合に、これを検出して制御部120に通知することもできる。   Further, the motion sensor 137 can detect the case where the imaging apparatus 100 is swung left and right and the case where it is swung up and down, and can notify the control unit 120 of this. In addition, the motion sensor 137 can detect and notify the control unit 120 when vibration is applied, for example, by being struck.

GPS受信部138は、GPS用受信アンテナ139を通じて、複数の人口衛星からの所定の信号を受信し、これを解析することによって、撮像装置100の現在位置を検出し、これを制御部120に通知することができるものである。   The GPS receiving unit 138 receives a predetermined signal from a plurality of artificial satellites through the GPS receiving antenna 139, analyzes the current signal, detects the current position of the imaging device 100, and notifies the control unit 120 of the current position. Is something that can be done.

このGPS受信部138の機能により、撮像装置100においては、撮影時に現在位置情報を取得して、画像データに対してメタデータとして撮影位置を示す位置情報(GPS情報)を付加することができるようにしている。   With the function of the GPS receiving unit 138, the imaging apparatus 100 can acquire current position information at the time of shooting and add position information (GPS information) indicating the shooting position as metadata to the image data. I have to.

なお、GPS受信部138は、例えば、操作部131を通じて受け付けるユーザーからの指示に応じて、動作させたり、動作を停止させたりすることもできるようにされている。   Note that the GPS receiving unit 138 can be operated or stopped in accordance with an instruction from a user received through the operation unit 131, for example.

また、通信部141は、送受信アンテナ142を通じて、例えば、Bluetoothなどの近距離無線通信機能を実現するものである。通信部141は、送受信アンテナ142を通じて、同様の通信部を有する電子機器との間で通信を行い、データやプログラムなどの送受を行うことができるようにしている。   Further, the communication unit 141 realizes a short-range wireless communication function such as, for example, Bluetooth through the transmission / reception antenna 142. The communication unit 141 communicates with an electronic device having a similar communication unit through the transmission / reception antenna 142 so that data and programs can be transmitted and received.

そして、図1に示した撮像装置100において、レンズ部101は、図示しないが、撮像レンズ(対物レンズ)、露光調整機構、合焦調整機構、シャッター機構等を含み、被写体の画像を取り込み後段の撮像素子のセンサ面に結像させるようにする部分である。   In the imaging apparatus 100 shown in FIG. 1, the lens unit 101 includes an imaging lens (objective lens), an exposure adjustment mechanism, a focus adjustment mechanism, a shutter mechanism, and the like (not shown), and captures an image of a subject. This is the part that forms an image on the sensor surface of the image sensor.

撮像素子102は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像センサ(撮像素子)からなるものである。撮像素子102は、レンズ部101を通じて自己のセンサ面に結像するようにされた画像を電気信号(画像信号)として取り込む。   The imaging element 102 is composed of an imaging sensor (imaging element) such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) image sensor. The image sensor 102 captures an image formed on the sensor surface of the camera through the lens unit 101 as an electrical signal (image signal).

この実施の形態の撮像装置100において、撮像素子102は、画素毎にR(赤)、G(緑)、B(青)のいずれかの信号を形成するようにする予め決められた色パターンの単板の色フィルタを備えたものである。   In the image pickup apparatus 100 of this embodiment, the image pickup element 102 has a predetermined color pattern that forms any one of R (red), G (green), and B (blue) signals for each pixel. A single-plate color filter is provided.

そして、撮像素子102を通じて取り込まれた画像信号は、後段の前処理部103に供給される。前処理部103は、CDS(Correlated Double Sampling:2重相関サンプリング)回路やAGC(Automatic Gain Control)回路やA/D(Analog/Digital)変換器などを含み、撮像素子102からの画像信号をデジタルデータとして取り込む部分である。   Then, the image signal captured through the image sensor 102 is supplied to the pre-processing unit 103 at the subsequent stage. The preprocessing unit 103 includes a CDS (Correlated Double Sampling) circuit, an AGC (Automatic Gain Control) circuit, an A / D (Analog / Digital) converter, and the like, and digitally converts an image signal from the image sensor 102. This is the part that is captured as data.

前処理部103を通じて取り込まれた画像信号(画像データ)は、画像処理部104に供給される。画像処理部104は、図示しないが検波回路、ホワイトバランス回路、デモザイク回路、解像度変換回路、その他の画像補正回路等を有するものである。   The image signal (image data) captured through the preprocessing unit 103 is supplied to the image processing unit 104. Although not shown, the image processing unit 104 includes a detection circuit, a white balance circuit, a demosaic circuit, a resolution conversion circuit, other image correction circuits, and the like.

画像処理部104においては、まず、前処理回路103からの画像データに基づいて、露光(露出)調整のためのパラメータ、合焦(焦点)調整のためのパラメータ、ホワイトバランス調整のためのパラメータなど、種々の調整処理のためのパラメータを形成する。   In the image processing unit 104, first, based on the image data from the preprocessing circuit 103, parameters for exposure (exposure) adjustment, parameters for focus (focus) adjustment, parameters for white balance adjustment, etc. Form parameters for various adjustment processes.

画像処理部104において形成されたパラメータの内、露光(露出)調整のためのパラメータと合焦(焦点)調整のためのパラメータとは制御部120に供給される。制御部120は、画像処理部104からのパラメータに基づいて、レンズ部102の露光調整機構や合焦調整機構を制御し、露光や合焦のための調整を適切に行うことができるようにしている。   Of the parameters formed in the image processing unit 104, parameters for exposure (exposure) adjustment and parameters for focus (focus) adjustment are supplied to the control unit 120. The control unit 120 controls the exposure adjustment mechanism and the focus adjustment mechanism of the lens unit 102 based on the parameters from the image processing unit 104 so that the adjustment for exposure and focusing can be appropriately performed. Yes.

そして、画像処理部104においては、前処理部103からの画像データに対して、黒レベル合わせ処理や上述したように形成されるホワイトバランス調整のためのパラメータ基づくホワイトバランス調整処理を行う。これらの調整処理により、前処理部103からの画像データが形成する画像が適切な色合いになるように調整する。   The image processing unit 104 performs black level adjustment processing and white balance adjustment processing based on the parameters for white balance adjustment formed as described above on the image data from the preprocessing unit 103. Through these adjustment processes, the image formed by the image data from the pre-processing unit 103 is adjusted so as to have an appropriate hue.

この後、画像処理部104においては、適切な色合いになるように調整された画像データに対して、画素毎にRGBデータ(3原色データ)を生成するデモザイク処理(同時化処理)、アパーチャ補正処理、ガンマ(γ)補正処理等を行う。   Thereafter, the image processing unit 104 performs demosaic processing (synchronization processing) and aperture correction processing for generating RGB data (three primary color data) for each pixel with respect to the image data adjusted to have an appropriate hue. Gamma (γ) correction processing is performed.

さらに、画像処理部104においては、形成したRGBデータから輝度信号(Y)と色信号(Cb、Cr)を形成するY/C変換処理や、色収差補正処理、解像度変換処理などを行って、輝度信号Yおよび色信号Cb、Crを形成する。   Further, the image processing unit 104 performs Y / C conversion processing for forming a luminance signal (Y) and color signals (Cb, Cr) from the formed RGB data, chromatic aberration correction processing, resolution conversion processing, etc. A signal Y and color signals Cb and Cr are formed.

画像処理部104で形成された画像データ(輝度信号Y、色信号Cb、Cr)は、表示処理部105に供給され、ここで表示部106に供給する形式の画像信号に変換されて表示部106に供給される。   The image data (luminance signal Y, color signals Cb, Cr) formed by the image processing unit 104 is supplied to the display processing unit 105, where it is converted into an image signal in a format to be supplied to the display unit 106 and displayed. To be supplied.

これにより、表示部106の表示画面には、レンズ部101を通じて取り込んだ被写体の画像が表示され、ユーザーは、表示部106の表示画面に表示される被写体の画像を確認しながら、目的とする被写体の画像を撮影することができる。   As a result, the image of the subject captured through the lens unit 101 is displayed on the display screen of the display unit 106, and the user can confirm the subject image displayed on the display screen of the display unit 106 while viewing the target subject. Images can be taken.

同時に、画像処理部104で形成された輝度信号Y、色信号Cb、Crは、圧縮処理部109にも供給される。そして、操作部131のシャッターキーが押下されたタイミングにおいて、圧縮処理部109は、その時点において、表示部106の表示画面に表示するようにしていた画像の画像データをデータ圧縮し、これを制御部120に供給する。   At the same time, the luminance signal Y and the color signals Cb and Cr formed by the image processing unit 104 are also supplied to the compression processing unit 109. At the timing when the shutter key of the operation unit 131 is pressed, the compression processing unit 109 compresses the image data of the image that was to be displayed on the display screen of the display unit 106 at that time, and controls this. To the unit 120.

なお、圧縮処理部103においては、予め決められたデータ圧縮方式に従って、データ圧縮処理を行う。データ圧縮方式としては、静止画であれば、JPEG(Joint Photographic Experts Group)方式、動画であれば、MPEG(Moving picture Experts Group)方式などが用いられる。もちろん、これに限るものではなく、データ圧縮方式は種々のものを用いるようにすることが可能である。   The compression processing unit 103 performs data compression processing according to a predetermined data compression method. As a data compression method, a JPEG (Joint Photographic Experts Group) method is used for a still image, and a Moving Picture Experts Group (MPEG) method is used for a moving image. Of course, the present invention is not limited to this, and various data compression methods can be used.

制御部120は、書き込み/読み出し部134を制御し、圧縮処理部109からのデータ圧縮された画像データを記録媒体135に記録する。このようにして、撮像装置100においては、被写体の画像を撮影し、当該被写体の画像を形成する画像データを記録媒体135に記録することができるようにしている。   The control unit 120 controls the writing / reading unit 134 to record the compressed image data from the compression processing unit 109 on the recording medium 135. In this way, the imaging apparatus 100 can capture an image of a subject and record image data forming the subject image on the recording medium 135.

撮像装置100において、上述のように撮影して得た画像データは、詳しくは後述するが、ユーザーが形成するようにするフォルダ毎に、記録媒体135に格納して管理することができるようにしている。   As will be described later in detail, the image data obtained by the imaging apparatus 100 as described above can be stored and managed in the recording medium 135 for each folder to be formed by the user. Yes.

フォルダは、被写体毎やイベント毎などと言うように、目的に応じて形成することができる。この実施の形態の撮像装置100においては、例えば、入学式、運動会、お誕生日会などといった、撮影を行ったイベント毎にフォルダを形成するようにしている。もちろん、撮影した画像データを後から、目的とするフォルダに移動させたりするなどのこともできるようにされる。   Folders can be formed according to the purpose, such as for each subject or event. In the imaging apparatus 100 according to this embodiment, for example, a folder is formed for each shooting event such as an entrance ceremony, athletic meet, birthday party, and the like. Of course, the photographed image data can be moved to a target folder later.

そして、記録媒体135に記録された画像データは、制御部120に制御される書き込み/読み出し部134によって読み出すことができるようにされる。記録媒体135から読み出された画像データは、制御部120を通じて伸張処理部110に供給される。   The image data recorded on the recording medium 135 can be read by the writing / reading unit 134 controlled by the control unit 120. Image data read from the recording medium 135 is supplied to the decompression processing unit 110 through the control unit 120.

伸張処理部110は、これに供給された画像データを、データ圧縮時に用いたデータ圧縮方式にしたがって伸張処理し、データ圧縮前の画像データを復元して、これを表示画像形成部111に供給する。   The decompression processing unit 110 decompresses the image data supplied thereto according to the data compression method used at the time of data compression, restores the image data before data compression, and supplies this to the display image forming unit 111. .

表示画像形成部111は、伸張処理部110からの画像データを用いて、また、必要な場合には、制御部120から供給される種々の表示用データをも用いて、表示部106の表示画面に表示すべき画像の画像データを形成し、これを表示処理部105に供給する。   The display image forming unit 111 uses the image data from the decompression processing unit 110 and, if necessary, also uses various display data supplied from the control unit 120 to display the display screen of the display unit 106. The image data of the image to be displayed is formed and supplied to the display processing unit 105.

表示処理部105は、画像処理部104からの画像データを処理したときと同様に、表示画像形成部111からの画像データから、表示部106に供給する形式の画像信号に変換し、これを表示部106に供給する。   The display processing unit 105 converts the image data from the display image forming unit 111 into an image signal to be supplied to the display unit 106 in the same manner as when the image data from the image processing unit 104 is processed, and displays it. To the unit 106.

これにより、記録媒体135に記録されている画像データに応じた画像を、表示部106の表示画面に表示することができる。すなわち、記録媒体135に記録されている目的とする画像の画像データを再生することができる。   Thereby, an image corresponding to the image data recorded on the recording medium 135 can be displayed on the display screen of the display unit 106. That is, the image data of the target image recorded on the recording medium 135 can be reproduced.

このように、この実施の形態の撮像装置100は、被写体の画像を撮影して、記録媒体135に記録することができるものである。また、撮像装置100は、記録媒体135に記録されている画像データを読み出して再生処理し、当該画像データに応じた画像を表示部106の表示画面に表示することもできるものである。   As described above, the imaging apparatus 100 according to this embodiment can capture an image of a subject and record it on the recording medium 135. Further, the imaging apparatus 100 can also read and reproduce image data recorded in the recording medium 135 and display an image corresponding to the image data on the display screen of the display unit 106.

上述の構成を有する撮像装置100においては、以下に説明するように、撮影することにより記録媒体135に記録した画像ファイルにキーワードなどの検索キー(検索条件)の候補となる情報を付加しておき、これに応じて画像データを検索できるようにしている。   In the imaging apparatus 100 having the above-described configuration, information that is a candidate for a search key (search condition) such as a keyword is added to an image file recorded on the recording medium 135 by shooting as described below. In response to this, the image data can be searched.

そして、撮像装置100においては、画像データの検索処理を複数回繰り返し行う必要がある場合であっても、できるだけ少ない操作ステップで検索を行えるようにしている。さらに撮像装置100においては、検索結果を分りやすくユーザーに提示したり、検索結果を簡単な操作で確定したりするなどのことができるようにしている。   In the imaging apparatus 100, even when the image data search process needs to be repeated a plurality of times, the search can be performed with as few operation steps as possible. Further, in the imaging apparatus 100, the search result can be presented to the user in an easily understandable manner, or the search result can be determined by a simple operation.

[画像ファイル、画像フォルダの構成例]
図2は、撮像装置100の記録媒体135に記録される画像ファイルのレイアウト例を説明するための図である。図2に示すように、画像ファイルは、各画像ファイルを識別するための識別情報であるファイル名を有している。このファイル名は、例えば、撮影時において、制御部120により自動付与されるものである。
[Configuration example of image file and image folder]
FIG. 2 is a diagram for explaining a layout example of an image file recorded on the recording medium 135 of the imaging apparatus 100. As shown in FIG. 2, the image file has a file name that is identification information for identifying each image file. This file name is automatically given by the control unit 120 at the time of shooting, for example.

また、各画像ファイルには、キーワード、GPS情報、画像分析情報、カメラ情報、撮影日時などからなるメタデータが付加するようにされている。これらのメタデータは、画像データの検索キーに対応する情報として用いることができるものである。   In addition, metadata including keywords, GPS information, image analysis information, camera information, shooting date and time, and the like is added to each image file. These metadata can be used as information corresponding to a search key for image data.

ここで、キーワードは、ユーザーによって入力される主にテキストデータである。具体的にキーワードは、撮影を行った場所を示す地名、画像に写っている人の名前、撮影を行った場所で開かれていたイベント名など、当該画像の内容などを示す情報が複数個登録可能にされている。   Here, the keyword is mainly text data input by the user. Specifically, the keyword is registered with multiple pieces of information indicating the contents of the image, such as the name of the place where the image was taken, the name of the person in the image, and the name of the event held at the place where the image was taken Has been made possible.

なお、キーワードは、これを付加する画像ファイルの画像データに応じて画像が表示部106の表示画面に表示されている場合において、操作部131やタッチスクリーン108を通じて入力し、当該画像ファイルに付加することができるようにされている。   The keyword is input through the operation unit 131 or the touch screen 108 and added to the image file when an image is displayed on the display screen of the display unit 106 according to the image data of the image file to which the keyword is added. Have been able to.

また、例えば、パーソナルコンピュータ上において、画像データにキーワードなどの種々のメタデータを付加するようにし、これを入出力端子133及び外部I/F132を通じて撮像装置100に取り込み、記録媒体135に記録するようにしてもよい。すなわち、キーワード等のメタデータを外部の機器において付加した画像データを撮像装置100に取り込んで、これを利用するようにすることもできる。   Further, for example, various metadata such as keywords are added to the image data on a personal computer, and the metadata is captured in the imaging apparatus 100 through the input / output terminal 133 and the external I / F 132 and recorded on the recording medium 135. It may be. In other words, image data obtained by adding metadata such as keywords in an external device can be taken into the imaging apparatus 100 and used.

GPS情報は、撮影時において、上述したGPS受信部138を通じて取得した撮影時の位置を示す位置情報(経度、緯度の情報)であり、制御部120を通じて、画像ファイルに付加することができるようにされている。   The GPS information is position information (longitude and latitude information) indicating the position at the time of shooting acquired through the GPS receiving unit 138 described above at the time of shooting, and can be added to the image file through the control unit 120. Has been.

画像分析情報は、当該画像ファイルの画像データを所定の方式で画像分析(画像解析)を行うことにより、画像分析結果を得て、これを各画像ファイルに格納するようにしたものである。この画像分析は、撮影後の適宜にタイミングにおいて、主に制御部120の機能により行われ、画像ファイルに付加するようにされている。   The image analysis information is obtained by performing image analysis (image analysis) on the image data of the image file by a predetermined method to obtain an image analysis result and storing it in each image file. This image analysis is mainly performed by the function of the control unit 120 at an appropriate timing after shooting and is added to the image file.

そして、画像分析情報は、例えば、エッジ検出や色彩解析などの種々の手法を用いることにより、各画像データによる画像の特徴を数値化して示すことができるものであり、各画像間において、構図や被写体の類似度を比較することができるものである。   The image analysis information, for example, can represent the characteristics of an image based on each image data by using various methods such as edge detection and color analysis. It is possible to compare the similarity of subjects.

さらに言えば、当該画像分析情報は、当該画像分析の結果に基づいて、類似する人物(顔)が写っている画像を検索したり、類似する場所が写っている画像を検索したり、あるいは、色あいや複雑さの特徴が類似する画像を検索したりするなどのことができるものである。   Further, the image analysis information is searched based on the result of the image analysis, searching for an image showing a similar person (face), searching for an image showing a similar place, or For example, it is possible to search for images having similar characteristics of color and complexity.

また、当該画像分析情報は、後述もするが、画像分析の結果得られる情報であって、画像における人物の顔の面積、画像に写っている人物の数、画像に写っている人物の笑顔の度合い、画像全体の特徴を示す情報といった種々の分析情報をも含んでいる。   As will be described later, the image analysis information is information obtained as a result of image analysis. The image analysis information includes the area of the person's face in the image, the number of people in the image, and the smile of the person in the image. It also includes various analysis information such as information indicating the degree and characteristics of the entire image.

カメラ情報は、撮影時の絞りやシャッタースピードなどを示す情報である。このカメラ情報は、制御部120において管理されている情報であり、撮影が行われた場合に、制御部120によって画像ファイルに付加するようにされている。そして、当該カメラ情報により、どのようなカメラ条件の下で撮影された画像データであるかが把握できる。   The camera information is information indicating an aperture and a shutter speed at the time of shooting. The camera information is information managed by the control unit 120, and is added to the image file by the control unit 120 when shooting is performed. Then, it is possible to grasp under what camera conditions the image data is captured based on the camera information.

撮影日時は、図示しない時計回路を通じて撮影時において制御部120が取得し、画像ファイルに付加した日時情報であり、年月日及び時刻からなる情報である。これにより、各画像ファイルの画像データは、いつ撮影されたものかを正確に把握することができる。   The shooting date and time is date and time information acquired by the control unit 120 during shooting through a clock circuit (not shown) and added to the image file, and is information including date and time. Thereby, it is possible to accurately grasp when the image data of each image file was taken.

そして、画像ファイルには、メインデータとして、撮影することにより得られた被写体の画像を形成する画像データが格納されている。   The image file stores, as main data, image data for forming an image of a subject obtained by shooting.

このように形成される画像ファイルが、撮像装置100の記録媒体135に記録される。そして、画像ファイルは、以下に説明するように、ユーザーの指示に応じて記録媒体135に作成される画像フォルダに格納するようにされる。   The image file formed in this way is recorded on the recording medium 135 of the imaging apparatus 100. The image file is stored in an image folder created on the recording medium 135 in response to a user instruction, as will be described below.

なお、この実施の形態の撮像装置100においては、ユーザーが画像フォルダを形成しない場合、例えば、撮影日に対応するフォルダを自動的に形成し、これに撮影することにより得た画像データを格納することができるようにしている。   In the imaging apparatus 100 of this embodiment, when the user does not form an image folder, for example, a folder corresponding to the shooting date is automatically formed, and image data obtained by shooting is stored in the folder. To be able to.

そして、画像ファイルが格納される画像フォルダは、上述もしたように、例えば、入学式、運動会、お誕生日会などといった、撮影を行ったイベント毎や撮影年月や撮影年月日毎などに形成されるものである。   Then, as described above, the image folder in which the image file is stored is formed for each shooting event, shooting date, shooting date, etc., such as entrance ceremony, athletic meet, birthday party, etc. It is what is done.

これ以外にも、例えば、被写体毎に画像フォルダを形成して用いるようにしたり、撮像装置100を家族などで共用する場合には、撮影者毎に画像フォルダを形成して使い分けるようにしたりすることもできる。   In addition to this, for example, an image folder is formed for each subject and used, or when the imaging apparatus 100 is shared by a family member, an image folder is formed for each photographer and used separately. You can also.

図3は、撮像装置の100の記録媒体135に形成される画像フォルダのレイアウト例を説明するための図である。図3に示すように、画像フォルダは、各フォルダを識別するための識別情報であるフォルダ名を有している。このフォルダ名が、例えば、入学式、運動会、お誕生日会などといった、撮影を行ったイベントに対応する情報や、撮影年月や撮影年月日などの撮影日に関する情報などである。   FIG. 3 is a diagram for explaining a layout example of an image folder formed on the recording medium 135 of the image capturing apparatus 100. As shown in FIG. 3, the image folder has a folder name which is identification information for identifying each folder. This folder name is information corresponding to an event that has been taken, such as an entrance ceremony, athletic meet, birthday party, etc., or information relating to a shooting date such as a shooting date or a shooting date.

また、各画像フォルダは、当該画像フォルダのイベントタイトル、作成日時、その他の種々のメタデータを有している。   Each image folder has an event title, creation date and time, and other various metadata of the image folder.

イベントタイトルは、その画像フォルダがイベントに対応して作成されたものである場合に、より詳しいイベントの内容、例えば、「○○ちゃんの入学式 2008.4.10」などのようにより詳しい内容を示す情報を格納することができる。   When the image title is created corresponding to the event, the event title should be more detailed, such as “XX-chan ’s entrance ceremony 2008. 4.10”. The information to be shown can be stored.

作成日時は、当該画像ファイルを作成した日時を示す情報であり、画像フォルダの作成時において、制御部120が図示しない時計回路から取得する情報である。   The creation date and time is information indicating the date and time when the image file is created, and is information that the control unit 120 acquires from a clock circuit (not shown) when the image folder is created.

この他、メタデータとして、当該画像フォルダに格納されている画像ファイルの数などの撮像装置100において自動的に付与可能な情報や、ユーザーによって入力される注釈情報(文字情報)等を付加することも可能である。   In addition, information that can be automatically given by the imaging apparatus 100 such as the number of image files stored in the image folder, annotation information (character information) input by the user, and the like are added as metadata. Is also possible.

そして、画像フォルダには、当該フォルダに属する画像ファイルのそれぞれの、ファイル名、記録媒体上のアドレス、撮影日時が格納されている。この画像フォルダの情報により、当該画像フォルダには、いつ撮影された、どの画像ファイルが格納されており、それらの画像ファイルは、記録媒体上のどこに格納されているかを把握することができる。   The image folder stores the file name, address on the recording medium, and shooting date / time of each image file belonging to the folder. Based on the information of the image folder, it is possible to grasp when the image file that was shot is stored in the image folder, and where the image file is stored on the recording medium.

そして、各画像ファイルにおいては、撮影することにより得られた画像データの画像ファイルを撮影日時に応じて時系列順に管理している。これにより、画像フォルダの情報に基づいて、図3に示した画像ファイルの画像データを、時間が進む方向に読み出して順次に表示したり、時間が戻る方向に順次に読み出して表示したりすることができるようにしている。   In each image file, the image file of the image data obtained by shooting is managed in chronological order according to the shooting date. Thus, based on the information of the image folder, the image data of the image file shown in FIG. To be able to.

[検索キーの候補情報テーブル]
そして、この実施の形態の撮像装置100においては、検索キーを用いた画像データの検索処理を手軽に行うことができるようにするために、検索キーの候補となる情報(検索キー候補情報)が予め登録されている。この検索キー候補情報テーブルに登録されている検索キー候補情報が、後述もするが、検索時に登録することなく検索キーとして用いることができるものである。
[Search key candidate information table]
In the imaging apparatus 100 according to this embodiment, information (search key candidate information) that serves as a search key candidate is provided so that image data search processing using the search key can be easily performed. Registered in advance. The search key candidate information registered in the search key candidate information table can be used as a search key without being registered at the time of search, as will be described later.

図4は、撮像装置100の記録媒体135に、あるいは、EEPROM124などに予め作成される検索キー候補情報テーブルを説明するための図である。この実施の形態の撮像装置100において、検索キー候補情報テーブルは、図4に示すように、「人」、「場所」、「色」、「季節」、「被写体」、「カメラ情報」、「その他」の7つのカテゴリに分けて検索キー候補情報を管理するものである。   FIG. 4 is a diagram for explaining a search key candidate information table created in advance in the recording medium 135 of the imaging apparatus 100 or in the EEPROM 124 or the like. In the imaging apparatus 100 according to this embodiment, the search key candidate information table includes “person”, “location”, “color”, “season”, “subject”, “camera information”, “camera information”, as shown in FIG. The search key candidate information is managed by dividing it into seven categories “others”.

カテゴリ「人」は、人に関する検索キー候補情報が属するものであり、図4に示すように、「家族、父、母、兄、姉、弟、妹、…」などの情報が予め登録されている。また、カテゴリ「人」には、例えば、「○子(ユーザー本人)」、「Aさん」、「Bさん」、「Cさん」など、ユーザー自身の名前や、被写体になる(なった)友人や知人の名前などを、ユーザー自身が登録することもできる。   The category “person” includes search key candidate information relating to a person, and information such as “family, father, mother, brother, sister, brother, sister,...” Is registered in advance as shown in FIG. Yes. The category “person” includes, for example, “○ child (user himself)”, “Mr. A”, “Mr. B”, “Mr. C”, the user's own name, and a friend who becomes the subject Users can also register their names and acquaintances.

カテゴリ「場所」は、場所に関する検索キー候補情報が属するものであり、図4に示すように、都道府県名、市町村名、区名、その他の地名、駅名、種々のランドマーク名等の情報が予め登録されている。なお、新たにできた地名や新たにできたランドマーク(高層ビルや商業施設等)の名前など、登録されていない地名などについては、ユーザー自身が登録することもできる。   The category “place” includes search key candidate information related to the place. As shown in FIG. 4, information such as prefecture name, municipality name, ward name, other place name, station name, and various landmark names is included. Registered in advance. In addition, the user himself / herself can also register the name of a place that is not registered, such as a name of a newly created place or a name of a newly created landmark (such as a high-rise building or a commercial facility).

カテゴリ「色」は、図4に示したように、赤、白、黒、青、…などの色名が属するものであり、一般的によく用いられる複数の色名が予め登録されている。なお、予め登録されていない色名については、ユーザー自身が登録することもできる。   As shown in FIG. 4, the category “color” belongs to color names such as red, white, black, blue,..., And a plurality of commonly used color names are registered in advance. Note that the user himself / herself can register color names that are not registered in advance.

カテゴリ「季節」は、季節に関する検索キー候補情報が属するものであり、図4に示すように、「春、夏、秋、冬」のほか、新春、早春、初夏、初秋、初冬などの季節に関する幾つかの単語も予め登録されている。なお、予め登録されていない季節に関する単語については、ユーザー自身が登録することもできる。   The category “season” belongs to search key candidate information relating to the season, and as shown in FIG. 4, in addition to “spring, summer, autumn, winter”, it relates to seasons such as new spring, early spring, early summer, early autumn, early winter. Some words are also registered in advance. Note that the user himself / herself can register words related to seasons that are not registered in advance.

カテゴリ「被写体」は、被写体となりうるものに関する検索キー候補情報が登録されるものであり、図4に示すように、動物、花、木、山、海など、一般によく被写体となるものの名前が予め登録されている。なお、予め登録されていない被写体となりうるものに関する単語については、ユーザー自身が登録することもできる。   In the category “subject”, search key candidate information relating to what can be a subject is registered. As shown in FIG. 4, names of subjects that are often subjects, such as animals, flowers, trees, mountains, and seas, are preliminarily stored. It is registered. It should be noted that the user himself / herself can register words related to subjects that can be subjects that are not registered in advance.

カテゴリ「カメラ情報」は、絞りやシャッタースピードなどの撮影時のカメラの設定条件などの検索キー候補情報が予め登録されるものである。例えば、特殊な設定条件を用いて撮影した画像を検索する場合などに用いられる。なお、予め登録されていないカメラ情報については、ユーザー自身が登録することもできる。   In the category “camera information”, search key candidate information such as camera setting conditions at the time of shooting such as aperture and shutter speed is registered in advance. For example, it is used when searching for an image taken using special setting conditions. The camera information that is not registered in advance can be registered by the user.

カテゴリ「その他」は、上記の6つのカテゴリのいずれにも属さない検索キー候補情報が登録されるものである。例えば、画像分析やGPS情報といった項目名が登録されており、これらを選択することにより、特定の画像の画像分析情報を検索キーとして用いるようにしたり、特定の画像のGPS情報を検索キーとして用いるようにしたりすることができるようにされる。   In the category “others”, search key candidate information that does not belong to any of the above six categories is registered. For example, item names such as image analysis and GPS information are registered, and by selecting these, image analysis information of a specific image is used as a search key, or GPS information of a specific image is used as a search key. To be able to do so.

そして、この実施の形態の撮像装置100においては、上述もしたように、撮影することにより記録媒体135に記録した画像ファイルに対しては、ユーザーが種々のキーワードを付すことができるようにしている。   In the imaging apparatus 100 of this embodiment, as described above, the user can attach various keywords to the image file recorded on the recording medium 135 by shooting. .

ユーザーは、上述もしたように、撮影することにより記録媒体135に記録した画像ファイルに格納されている画像データによる画像を再生するようにし、キーワードを付加するための所定の操作を行うと、操作部131を通じてキーワードを入力することができる。   As described above, the user reproduces an image based on the image data stored in the image file recorded on the recording medium 135 by photographing, and performs a predetermined operation for adding a keyword. A keyword can be input through the unit 131.

この場合、図4に示した検索キー候補情報テーブルの検索キー候補情報の一覧を表示し、その表示された候補の中から目的とするキーワードを選択して付加するようにすることができる。   In this case, a list of search key candidate information in the search key candidate information table shown in FIG. 4 can be displayed, and a target keyword can be selected and added from the displayed candidates.

また、検索キー候補情報の一覧の中に目的するキーワードが存在しない場合には、例えば、タッチスクリーン8により実現される入力キーを通じて、単語などのテキストデータを入力し、これをキーワードとして付加することもできる。   In addition, when the target keyword does not exist in the search key candidate information list, for example, text data such as a word is input through an input key realized by the touch screen 8 and added as a keyword. You can also.

もちろん、上述もしたように、パーソナルコンピュータ上において、画像データにキーワードなどの種々のメタデータを付加するようにし、これを入出力端子133及び外部I/F132を通じて撮像装置100に取り込み、記録媒体135に記録するようにしてもよい。すなわち、キーワード等のメタデータを外部の機器において付加した画像データを撮像装置100に取り込んで、これを利用するようにすることもできる。   Of course, as described above, various kinds of metadata such as keywords are added to the image data on the personal computer, and the metadata is taken into the imaging apparatus 100 through the input / output terminal 133 and the external I / F 132 to be recorded. May be recorded. In other words, image data obtained by adding metadata such as keywords in an external device can be taken into the imaging apparatus 100 and used.

また、入出力端子133及び外部I/F132を通じて接続されるパーソナルコンピュータなどの外部機器を通じて、撮像装置100の検索キー候補テーブルに検索キーの候補を追加することも可能である。   It is also possible to add search key candidates to the search key candidate table of the imaging apparatus 100 through an external device such as a personal computer connected through the input / output terminal 133 and the external I / F 132.

もちろん、パーソナルコンピュータなどの外部機器で形成された検索キー候補テーブルを、入出力端子133及び外部I/F132を通じて取り込んで、EEPROM124などの所定のメモリーに格納し、これを利用するようにすることもできる。   Of course, a search key candidate table formed by an external device such as a personal computer may be fetched through the input / output terminal 133 and the external I / F 132, stored in a predetermined memory such as the EEPROM 124, and used. it can.

この場合、制御部120は、キーワードとして入力された情報が、検索キー候補情報テーブルに存在しない場合には、当該キーワードを検索キー候補情報テーブルに追加登録するか否かの確認を求める。   In this case, when the information input as a keyword does not exist in the search key candidate information table, the control unit 120 requests confirmation of whether or not to additionally register the keyword in the search key candidate information table.

そして、追加登録することが指示された場合には、制御部120は、例えば操作部131等を通じてユーザーによって指示されたカテゴリに当該キーワードを登録することができるようにされている。   When instructed to perform additional registration, the control unit 120 can register the keyword in a category instructed by the user through the operation unit 131, for example.

このようにして、この実施の形態の撮像装置100においては、記録媒体135に格納されている各画像ファイルに付加されているキーワードのいずれかと、検索キー候補情報テーブルに登録された検索キー候補情報のいずれかが一致するようにされている。   As described above, in the imaging apparatus 100 of this embodiment, any one of the keywords added to each image file stored in the recording medium 135 and the search key candidate information registered in the search key candidate information table. One of them has to be matched.

[画像検索に用いる検索キーの選択処理]
次に、この実施の形態の撮像装置100において、図4に示した検索キー候補情報テーブルに登録された検索キー候補情報から、画像検索に用いる検索キーを選択する処理について説明する。図5〜図7は、検索キー候補情報テーブルに登録された検索キー候補情報から、画像検索に用いる検索キーを選択する処理について説明するための図である。
[Selection of search key used for image search]
Next, processing for selecting a search key to be used for image search from search key candidate information registered in the search key candidate information table shown in FIG. 4 in the imaging apparatus 100 of this embodiment will be described. 5 to 7 are diagrams for explaining processing for selecting a search key used for image search from search key candidate information registered in the search key candidate information table.

撮像装置100においては、例えば、操作部131に設けられているメニューキーを押下操作するなど、所定の操作を行うことにより、制御部120は、自機において実行可能な処理を選択項目として有するメニューを形成し、これを表示部106に表示する。   In the imaging apparatus 100, for example, by performing a predetermined operation such as pressing a menu key provided in the operation unit 131, the control unit 120 has a menu having processing that can be executed by the own device as a selection item. Is displayed on the display unit 106.

すなわち、制御部120は、ROM122に格納されている表示用情報等を用いて、メニュー表示用の画像データ(メニュー画面)を形成する。そして、制御部120は、形成したメニュー表示用の画像データを、伸張処理部110、表示画像形成部111、表示処理部105を通じて処理するようにし、メニュー表示用の画像信号を形成して表示部106に供給する。   That is, the control unit 120 uses the display information stored in the ROM 122 to form menu display image data (menu screen). Then, the control unit 120 processes the formed menu display image data through the expansion processing unit 110, the display image forming unit 111, and the display processing unit 105, and forms a menu display image signal to display the display unit. 106.

これにより、表示部106の表示画面6Gには、自機において実行可能な処理を選択項目とするメニュー画面が表示される。なお、メニュー表示用の画像データについては、伸張処理の必要は無いので、伸張処理部110においては特に処理が施されることはない。   As a result, a menu screen is displayed on the display screen 6G of the display unit 106, with a process that can be executed by the own device as a selection item. Note that there is no need for decompression processing for menu display image data, so no particular processing is performed in the decompression processing unit 110.

そして、撮像装置100においては、図1を用いて説明したように、表示部106とタッチパネル107とによりタッチスクリーン108が形成されており、このタッチスクリーン108を通じてユーザーからの指示入力が受け付けられる。   In the imaging apparatus 100, as described with reference to FIG. 1, the touch screen 108 is formed by the display unit 106 and the touch panel 107, and an instruction input from the user is accepted through the touch screen 108.

ユーザーは、撮像装置100に対して、表示部106の表示画面6Gに表示されたメニューから、メニュー項目「画像検索」を選択する操作を行う。具体的には、メニュー項目「画像検索」の表示位置に対応するタッチパネル107の操作面上の位置に対して指等を接触させる。   The user performs an operation for selecting the menu item “image search” from the menu displayed on the display screen 6 </ b> G of the display unit 106 with respect to the imaging apparatus 100. Specifically, a finger or the like is brought into contact with the position on the operation surface of the touch panel 107 corresponding to the display position of the menu item “image search”.

これにより、タッチパネル107から制御部120に対して、操作面上のユーザーの接触位置を示す座標データが供給される。制御部120は、当該座標データと当該座標データが示す操作面上の位置に対応する表示画面上の位置に表示されている表示情報とに基づいて、ユーザーによってどの項目が選択されたかを判断する。   Thereby, coordinate data indicating the contact position of the user on the operation surface is supplied from the touch panel 107 to the control unit 120. The control unit 120 determines which item has been selected by the user based on the coordinate data and display information displayed at a position on the display screen corresponding to the position on the operation surface indicated by the coordinate data. .

この場合、制御部120は、ユーザーによって接触された操作面上の位置に対応する表示画面6Gの位置には、メニュー項目「画像検索」が表示されていることを把握している。したがって、制御部120は、ユーザーによって、メニュー項目「画像検索」が選択されたと判断することができる。   In this case, the control unit 120 knows that the menu item “image search” is displayed at the position on the display screen 6G corresponding to the position on the operation surface touched by the user. Therefore, the control unit 120 can determine that the menu item “image search” has been selected by the user.

そして、制御部120は、上述したメニューを表示した場合と同様にして、図5(a)に示す検索範囲設定画面を表示部106の表示画面6Gに表示する。図5(a)に示すように、検索範囲設定画面は、「*画像検索*」という表題(画面のタイトル)を有すると共に、検索範囲を指定するための全体アイコン6X、フォルダアイコン6Y、日付アイコン6Zを有するものである。また、検索範囲設定画面は、図5(a)に示すように、右上端部には、終了アイコン6A、OKアイコン6Bを有している。   Then, the control unit 120 displays the search range setting screen shown in FIG. 5A on the display screen 6G of the display unit 106 in the same manner as when the menu described above is displayed. As shown in FIG. 5A, the search range setting screen has a title (screen title) of “* image search *”, and includes an overall icon 6X, a folder icon 6Y, and a date icon for specifying the search range. It has 6Z. Further, as shown in FIG. 5A, the search range setting screen has an end icon 6A and an OK icon 6B at the upper right end.

そして、図5(a)において、全体アイコン6Xは、記録媒体135に記録されている全画像ファイルを検索対象として指定するためのものである。したがって、全体アイコン6Xが選択された場合には、制御部120は、画像検索時において、記録媒体に記録されている全ての画像ファイルを検索対象とする。   In FIG. 5A, the whole icon 6X is for designating all image files recorded in the recording medium 135 as search targets. Therefore, when the entire icon 6X is selected, the control unit 120 sets all image files recorded on the recording medium as search targets at the time of image search.

フォルダアイコン6Yは、記録媒体135に記録されている画像ファイルの内、ユーザーによって選択された画像フォルダに格納されている画像ファイルだけを検索対象として指定するためのものである。   The folder icon 6Y is for designating only the image file stored in the image folder selected by the user among the image files recorded on the recording medium 135 as a search target.

フォルダアイコン6Yが選択された場合には、制御部120は、記録媒体135に形成されている画像フォルダの一覧リストを形成して表示部106の表示画面に表示し、ユーザーが目的とする画像フォルダを選択することができるようにする。   When the folder icon 6Y is selected, the control unit 120 forms a list of image folders formed on the recording medium 135 and displays the list on the display screen of the display unit 106. To be able to select.

ユーザーによって画像フォルダが選択された場合には、制御部120は、図5(a)において、表示6Y1が示すように、選択された画像フォルダのフォルダ名を表示部106の表示画面6Gに表示する。   When the image folder is selected by the user, the control unit 120 displays the folder name of the selected image folder on the display screen 6G of the display unit 106 as shown by the display 6Y1 in FIG. .

そして、制御部120は、選択された画像フォルダに格納されている画像ファイルだけを検索対象とする。なお、選択できる画像フォルダは1つに限るものではなく、複数の画像フォルダを検索対象とすることもできる。   Then, the control unit 120 searches only the image file stored in the selected image folder. Note that the number of image folders that can be selected is not limited to one, and a plurality of image folders can be searched.

日付アイコン6Zは、記録媒体135に記録されている画像ファイルの内、画像ファイルに付加されている撮影年月日が、ユーザーによって指示された日付範囲に属する画像ファイルだけを検索対象として指定するためのものである。   The date icon 6Z designates only the image files whose shooting date added to the image file belongs to the date range instructed by the user among the image files recorded on the recording medium 135 as the search target. belongs to.

日付アイコン6Zが選択された場合には、制御部120は、日付範囲の設定画面を表示部106の表示画面に表示し、ユーザーが目的とする日付範囲を入力することができるようにする。   When the date icon 6Z is selected, the control unit 120 displays a date range setting screen on the display screen of the display unit 106 so that the user can input a target date range.

日付範囲が入力された場合には、制御部120は、図5(a)において、表示6Z1が示すように、入力された日付範囲を表示部106の表示画面6Gに表示する。そして、制御部120は、入力された日付範囲に撮影年月日が属する画像ファイルだけを検索対象とする。   When the date range is input, the control unit 120 displays the input date range on the display screen 6G of the display unit 106 as indicated by the display 6Z1 in FIG. Then, the control unit 120 searches only the image file to which the shooting date belongs in the input date range.

なお、日付範囲は、2008年10月1日〜2008年10月1日までのように、1日だけの場合も可能であるし、数日、数週間単位、数ヶ月、数年といった範囲の入力(設定)も可能である。   It should be noted that the date range can be one day only, such as from October 1, 2008 to October 1, 2008, and can be in the range of days, weeks, months, years. Input (setting) is also possible.

そして、図5(a)に示した検索範囲設定画面において、終了アイコン6Aが選択された場合には、制御部120は、画像の検索処理を終了させ、例えば、メニュー画面が表示された状態に戻るようにする。   When the end icon 6A is selected on the search range setting screen shown in FIG. 5A, the control unit 120 ends the image search process, for example, in a state where the menu screen is displayed. Try to go back.

また、図5(a)に示した検索範囲設定画面において、OKアイコン6Bが選択された場合には、制御部120は、選択された範囲で、画像の検索を行うようにする。この場合、制御部120は、図5(b)に示すように、カテゴリ一覧表示611を有する検索キーの選択画面(1)を形成し、これを表示部106の表示画面6Gに表示する。   When the OK icon 6B is selected on the search range setting screen shown in FIG. 5A, the control unit 120 searches for an image within the selected range. In this case, as shown in FIG. 5B, the control unit 120 forms a search key selection screen (1) having a category list display 611 and displays it on the display screen 6G of the display unit 106.

なお、検索範囲が選択されていないにもかかわらず、OKアイコン6Bが選択された場合、制御部120は、警告音を放音したり、警告メッセージを表示したりして、検索範囲を選択することをユーザーに促すようにしている。   When the OK icon 6B is selected even though the search range is not selected, the control unit 120 selects a search range by emitting a warning sound or displaying a warning message. To encourage users to do that.

図5(b)に示すように、検索キーの選択画面(1)は、終了アイコン6AとBKアイコン6Cを有すると共に、表示画面6Gの下端部にカテゴリ一覧表示611を有するものである。   As shown in FIG. 5B, the search key selection screen (1) has an end icon 6A and a BK icon 6C, and a category list display 611 at the lower end of the display screen 6G.

カテゴリ一覧表示611は、図4を用いて説明した検索キー候補テーブルのカテゴリ情報に基づいて形成されるものであり、図5(b)に示したように、人、場所、色、季節、被写体、カメラ情報、その他というように、7つのカテゴリ名を有している。   The category list display 611 is formed based on the category information of the search key candidate table described with reference to FIG. 4, and as shown in FIG. 5B, the person, place, color, season, subject , Camera information, etc., and so on.

ユーザーは、表示されたカテゴリ一覧表示611から、検索キーとして用いようとする検索キー候補情報が属すると考えられるカテゴリ名を選択する。具体的には、目的とするカテゴリ名の表示位置に対応するタッチパネル107の操作面上の位置に指等を接触させることによりカテゴリ名を選択する。   From the displayed category list display 611, the user selects a category name to which the search key candidate information to be used as a search key belongs. Specifically, the category name is selected by bringing a finger or the like into contact with the position on the operation surface of the touch panel 107 corresponding to the target category name display position.

制御部120は、タッチパネル107からの座標データと、当該座標データが示すタッチパネル107の操作面上の位置に対応する表示画面6G上の位置に表示されている表示情報とに基づいて、ユーザーによりどのような指示入力がされたかを把握する。   Based on the coordinate data from the touch panel 107 and the display information displayed at a position on the display screen 6G corresponding to the position on the operation surface of the touch panel 107 indicated by the coordinate data, the control unit 120 determines which one by the user. It is grasped whether such an instruction is input.

ここで、図5(b)に示すように、ユーザーによって、カテゴリ「人」の表示位置に対応するタッチパネル107の操作面上の位置に指等が接触されたとする。この場合、制御部120は、カテゴリ「人」が選択されたと判断し、図6(a)に示すカテゴリ「人」に属する検索キー候補情報の一覧表示(検索キー候補表示)621を有する検索キーの選択画面(2)を形成し、表示部106の表示画面6Gに表示する。   Here, as illustrated in FIG. 5B, it is assumed that the user touches the position on the operation surface of the touch panel 107 corresponding to the display position of the category “person” by the user. In this case, the control unit 120 determines that the category “person” has been selected, and has a search key candidate information list display (search key candidate display) 621 belonging to the category “person” shown in FIG. This selection screen (2) is formed and displayed on the display screen 6G of the display unit 106.

なお、図5(b)において、終了アイコン6Aが選択された場合には、制御部120は、画像の検索処理を終了させ、例えば、メニュー画面が表示された状態に戻るようにする。また、図5(b)において、BKアイコン6Cが選択された場合には、制御部120は、図5(a)を用いて説明した検索範囲設定画面に戻り、再度の検索範囲の設定を行うことができるようにする。   In FIG. 5B, when the end icon 6A is selected, the control unit 120 ends the image search process and returns to the state where the menu screen is displayed, for example. If the BK icon 6C is selected in FIG. 5B, the control unit 120 returns to the search range setting screen described with reference to FIG. 5A and sets the search range again. To be able to.

図6(a)に示すように、検索キーの選択画面(2)は、終了アイコン6Aと、OKアイコン6Bと、BKアイコン6Cを有すると共に、表示画面6Gの下端部に検索キー候補表示621を有するものである。   As shown in FIG. 6A, the search key selection screen (2) has an end icon 6A, an OK icon 6B, and a BK icon 6C, and a search key candidate display 621 at the lower end of the display screen 6G. It is what you have.

検索キー候補表示621は、前段の検索キーの選択画面(1)において選択されたカテゴリ「人」に属する検索キー候補情報の一覧リストである。また、図6(a)に示すように、検索キーの選択画面(2)の場合、検索キー候補表示をスクロールさせるための左矢印アイコン622と右矢印アイコン623とを有している。   The search key candidate display 621 is a list of search key candidate information belonging to the category “person” selected on the search key selection screen (1) in the preceding stage. Further, as shown in FIG. 6A, the search key selection screen (2) has a left arrow icon 622 and a right arrow icon 623 for scrolling the search key candidate display.

この場合、左矢印アイコン622に対してタップ操作を行うようにすると、制御部120は、検索キー候補表示621を右側から左側へ検索キー候補1つ分スクロールさせる。左矢印アイコン622に対してタップ操作を繰り返すことにより、検索キー候補表示621を右側から左側へ検索キー候補1つ分ずつ順次にスクロールさせることができる。   In this case, when a tap operation is performed on the left arrow icon 622, the control unit 120 scrolls the search key candidate display 621 by one search key candidate from the right side to the left side. By repeating the tap operation on the left arrow icon 622, the search key candidate display 621 can be sequentially scrolled from the right side to the left side by one search key candidate.

同様に、左矢印アイコン623に対してタップ操作を行うようにすると、制御部120は、検索キー候補表示621を左側から右側へ検索キー候補1つ分スクロールさせる。右矢印アイコン623に対してタップ操作を繰り返すことにより、検索キー候補表示621を左側から右側へ検索キー候補1つ分ずつ順次にスクロールさせることができる。   Similarly, when the left arrow icon 623 is tapped, the control unit 120 scrolls the search key candidate display 621 by one search key candidate from the left side to the right side. By repeating the tap operation on the right arrow icon 623, the search key candidate display 621 can be sequentially scrolled from left to right by one search key candidate.

これら左矢印アイコン622、右矢印アイコン623に対して操作を行うことにより、検索キー候補表示をスクロールさせ、目的とする検索キー候補情報が表示された場合には、その検索キー候補情報を選択する操作を行う。   By operating the left arrow icon 622 and the right arrow icon 623, the search key candidate display is scrolled, and when the target search key candidate information is displayed, the search key candidate information is selected. Perform the operation.

なお、左右の矢印アイコン622、623を用いるのではなく、例えば、タッチパネル107の操作面において、左方向のなぞり操作や右方向のなぞり操作を行うことによって、検索キー候補表示をスクロールさせるようにすることもできる。   Instead of using the left and right arrow icons 622 and 623, for example, the search key candidate display is scrolled by performing a left drag operation or a right drag operation on the operation surface of the touch panel 107. You can also.

例えば、図6(a)において、検索キー候補表示中の項目「Aさん」が、ユーザーが検索キーとしたい検索キー候補情報であったとする。この場合、ユーザーは、項目「Aさん」の表示位置に対応するタッチパネル107の操作面上の位置に指等を接触させて、なぞり操作(ドラッグ操作またはフリック操作)を行う。   For example, in FIG. 6A, it is assumed that the item “Mr. A” in the search key candidate display is search key candidate information that the user wants to use as a search key. In this case, the user performs a tracing operation (drag operation or flick operation) by bringing a finger or the like into contact with the position on the operation surface of the touch panel 107 corresponding to the display position of the item “Mr. A”.

制御部120は、上述したように、タッチパネル107からの座標データと、各表示情報の表示画面6G上の表示位置とに基づいて、項目「Aさん」の表示位置からなぞり操作が行われたことを把握する。   As described above, the control unit 120 performs the tracing operation from the display position of the item “Mr. A” based on the coordinate data from the touch panel 107 and the display position of each display information on the display screen 6G. To figure out.

この場合、制御部120は、項目「Aさん」が検索キーとして選択されたと認識し、検索キー候補表示621の表示外に、検索キーとして選択された「Aさん」の表示624を表示画面6Gに表示する。これにより、ユーザーは、撮像装置100において、項目「Aさん」を検索キーとして選択できたことを認識することができる。   In this case, the control unit 120 recognizes that the item “Mr. A” is selected as the search key, and displays the display 624 of “Mr. A” selected as the search key in addition to the display of the search key candidate display 621 on the display screen 6G. To display. Accordingly, the user can recognize that the item “Mr. A” has been selected as the search key in the imaging apparatus 100.

同様にして、カテゴリ「人」に属する他の項目を検索キーとして選択することもできるようにされる。つまり、同じカテゴリ内において、複数の項目(検索キー候補情報)を、検索キーとして選択することも可能である。   Similarly, another item belonging to the category “person” can be selected as a search key. That is, it is possible to select a plurality of items (search key candidate information) as search keys in the same category.

そして、項目「Aさん」が検索キーとして選択された後、画像検索自体を終了させたい場合には、ユーザーは、終了アイコン6Aを選択する。これにより、制御部120は、画像の検索処理を終了させ、例えば、メニューが表示された状態に戻るようにする。この場合、選択された検索キーは選択されなかったものとされる。   Then, after the item “Mr. A” is selected as the search key, when the user wants to end the image search itself, the user selects the end icon 6A. As a result, the control unit 120 ends the image search process and returns to the state where the menu is displayed, for example. In this case, the selected search key is not selected.

また、項目「Aさん」が検索キーとして選択された後、カテゴリの選択をし直したい場合には、ユーザーは、BKアイコン6Cを選択する。これにより、制御部120は、図5(b)を用いて説明した検索キーの選択画面(1)に戻り、カテゴリの選択をやり直すことができるようにする。この場合、項目「Aさん」が検索キーとして選択されたことはなかったものとされる。   In addition, after the item “Mr. A” is selected as the search key, the user selects the BK icon 6C in order to reselect the category. As a result, the control unit 120 returns to the search key selection screen (1) described with reference to FIG. 5B so that the category can be selected again. In this case, it is assumed that the item “Mr. A” has never been selected as a search key.

また、項目「Aさん」が検索キーとして選択された後、OKアイコン6Bが選択された場合には、制御部120は、図6(a)において選択された項目「Aさん」を検索キーとして特定する。   When the OK icon 6B is selected after the item “Mr. A” is selected as the search key, the control unit 120 uses the item “Mr. A” selected in FIG. 6A as the search key. Identify.

そして、制御部120は、図6(b)に示すように、検索キーとして特定した項目「Aさん」の表示631を有し、再度、カテゴリ一覧表示611を表示するようにした検索キーの選択画面(3)を形成し、これを表示部106の表示画面6Gに表示する。これにより、検索キー候補情報テーブルのカテゴリを新たに選択することができるようにされる。   Then, as shown in FIG. 6B, the control unit 120 has a display 631 of the item “Mr. A” specified as the search key, and selects the search key that displays the category list display 611 again. A screen (3) is formed and displayed on the display screen 6G of the display unit 106. As a result, a category of the search key candidate information table can be newly selected.

図6(b)の状態にあるときに、画像検索自体を終了させたい場合には、ユーザーは、終了アイコン6Aを選択する。これにより、制御部120は、画像の検索処理を終了させ、例えば、メニューが表示された状態に戻るようにする。   When the user wants to end the image search in the state shown in FIG. 6B, the user selects the end icon 6A. As a result, the control unit 120 ends the image search process and returns to the state where the menu is displayed, for example.

また、カテゴリ「人」においての検索キーの選択をやり直したい場合には、ユーザーは、BKアイコン6Cを選択する。これにより、制御部120は、図6(a)を用いて説明した検索キーの選択画面(2)に戻り、カテゴリ「人」においての検索キーの選択をやり直すことができるようにする。   When the user wants to redo the selection of the search key in the category “person”, the user selects the BK icon 6C. As a result, the control unit 120 returns to the search key selection screen (2) described with reference to FIG. 6A so that the search key selection in the category “person” can be performed again.

この場合、制御部120の制御により、既に選択した検索キーを取り消したり、既に選択した検索キーを取り消して、新たな検索キーを選択したり、既に選択した検索キーに加えてさらに検索キーを選択したりするなどのことができるようにされる。   In this case, the control unit 120 controls to cancel the already selected search key, cancel the already selected search key, select a new search key, or select a search key in addition to the already selected search key. And so on.

また、図6(b)の状態にあるときに、検索キーの選択を完了し、選択した検索キーにより画像の検索を行うようにする場合には、ユーザーは、OKアイコン6Bを選択する。これにより、制御部120は、図6(b)において、カテゴリ一覧表示611を消去し、画像の検索処理を実行できるようにする。   When the search key selection is completed and the image search is to be performed using the selected search key in the state of FIG. 6B, the user selects the OK icon 6B. As a result, the control unit 120 deletes the category list display 611 in FIG. 6B so that the image search process can be executed.

この場合、制御部120は、詳しくは後述もするが、選択された検索キーに応じた画像検索を実行するため、画像検索の初期画面の表示を行うことを指示する所定の操作を受け付けるようにする。   In this case, as will be described in detail later, the control unit 120 accepts a predetermined operation instructing to display an initial screen for image search in order to execute an image search according to the selected search key. To do.

当該所定の操作を受け付けた場合、制御部120は、画像検索の初期画面を表示する処理を行う。すなわち、制御部120は、図5(a)において設定された検索範囲の画像データを読み出し、伸張処理部110、表示画像形成部111、表示処理部105を制御し、表示画面6Gの全面に検索範囲の画像のサムネイル画像をランダムに(バラバラに)表示する。   When the predetermined operation is received, the control unit 120 performs processing for displaying an initial image search screen. That is, the control unit 120 reads the image data in the search range set in FIG. 5A, controls the expansion processing unit 110, the display image forming unit 111, and the display processing unit 105, and searches the entire display screen 6G. Thumbnail images of range images are displayed randomly (disjointly).

また、制御部120は、表示画像形成部111、表示処理部105を制御し、図5、図6を用いて説明したように選択される検索キーに対応する検索キー表示(図6(b)に示した表示631に対応する表示)を表示画面6Gに表示する。   Further, the control unit 120 controls the display image forming unit 111 and the display processing unit 105 to display a search key corresponding to the search key selected as described with reference to FIGS. 5 and 6 (FIG. 6B). (Display corresponding to the display 631 shown in FIG. 6) is displayed on the display screen 6G.

そして、制御部120は、画像検索の開始を指示する操作である、選択した検索キーに対応する検索キー表示への指示操作(接触操作)を待つ。この後、当該指示操作が行われた場合に、後述もするが、制御部120は、選択された検索キーに基づいて画像検索処理を行うことになる。   Then, the control unit 120 waits for an instruction operation (contact operation) to search key display corresponding to the selected search key, which is an operation to instruct the start of image search. Thereafter, when the instruction operation is performed, the control unit 120 performs image search processing based on the selected search key, as will be described later.

また、図6(b)の状態にあるときに、さらに検索キーの選択を行う場合には、ユーザーは、図5(b)を用いて説明した場合と同様に、検索キーとして用いようとする検索キー候補情報が属すると考えられるカテゴリ名を選択する。すなわち、目的とするカテゴリ名の表示位置に対応するタッチパネル107の操作面上の位置に指等を接触させることによりカテゴリ名を選択する。   Further, when the search key is further selected in the state of FIG. 6B, the user tries to use the search key as in the case described with reference to FIG. 5B. Select the category name to which the search key candidate information belongs. That is, the category name is selected by bringing a finger or the like into contact with the position on the operation surface of the touch panel 107 corresponding to the display position of the target category name.

ここで、図6(b)に示すように、ユーザーによって、カテゴリ「場所」の表示位置に対応するタッチパネル107の操作面上の位置に指等が接触されたとする。制御部120は、カテゴリ「場所」が選択されたと判断し、図7(a)に示す、カテゴリ「場所」に属する検索キー候補情報の一覧表示(検索キー候補表示)621を有する検索キーの選択画面(4)を形成し、これを表示部106の表示画面6Gに表示する。   Here, as illustrated in FIG. 6B, it is assumed that the user touches a position on the operation surface of the touch panel 107 corresponding to the display position of the category “place” by the user. The control unit 120 determines that the category “location” has been selected, and selects a search key having a list display (search key candidate display) 621 of search key candidate information belonging to the category “location” shown in FIG. A screen (4) is formed and displayed on the display screen 6G of the display unit 106.

検索キーの選択画面(4)は、図7(a)に示すように、終了アイコン6Aと、OKアイコン6Bと、BKアイコン6Cを有すると共に、表示画面6Gの下端部に検索キー候補表示641を有するものである。   The search key selection screen (4) has an end icon 6A, an OK icon 6B, and a BK icon 6C, as shown in FIG. 7A, and a search key candidate display 641 at the lower end of the display screen 6G. It is what you have.

検索キー候補表示641は、前段の検索キーの選択画面(3)において選択されたカテゴリ「場所」に属する検索キー候補情報の一覧リストである。また、図7(a)に示すように、検索キーの選択画面(4)の場合、検索キー候補表示をスクロールさせるための左矢印アイコン642と右矢印アイコン643とを有している。   The search key candidate display 641 is a list of search key candidate information belonging to the category “location” selected on the search key selection screen (3) in the preceding stage. Further, as shown in FIG. 7A, the search key selection screen (4) has a left arrow icon 642 and a right arrow icon 643 for scrolling the search key candidate display.

この場合、左矢印アイコン642に対してタップ操作を行うようにすると、制御部120は、検索キー候補表示641を右側から左側へ検索キー候補1つ分スクロールさせる。左矢印アイコン642に対してタップ操作を繰り返すことにより、検索キー候補表示641を右側から左側へ検索キー候補1つ分ずつ順次にスクロールさせることができる。   In this case, when a tap operation is performed on the left arrow icon 642, the control unit 120 scrolls the search key candidate display 641 by one search key candidate from the right side to the left side. By repeating the tap operation on the left arrow icon 642, the search key candidate display 641 can be sequentially scrolled from the right side to the left side by one search key candidate.

同様に、左矢印アイコン643に対してタップ操作を行うようにすると、制御部120は、検索キー候補表示641を左側から右側へ検索キー候補1つ分スクロールさせる。右矢印アイコン643に対してタップ操作を繰り返すことにより、検索キー候補表示641を左側から右側へ検索キー候補1つ分ずつ順次にスクロールさせることができる。   Similarly, when a tap operation is performed on the left arrow icon 643, the control unit 120 scrolls the search key candidate display 641 by one search key candidate from the left side to the right side. By repeating the tap operation on the right arrow icon 643, the search key candidate display 641 can be sequentially scrolled by one search key candidate from the left side to the right side.

これら左矢印アイコン642、右矢印アイコン643に対して操作を行うことにより、検索キー候補表示をスクロールさせ、目的とする検索キー候補情報が表示された場合には、その検索キー候補情報を選択する操作を行う。   By operating the left arrow icon 642 and the right arrow icon 643, the search key candidate display is scrolled, and when the target search key candidate information is displayed, the search key candidate information is selected. Perform the operation.

例えば、図7(a)において、検索キー候補表示中の項目「横浜」が、ユーザーが検索キーとしたい検索キー候補情報であったとする。この場合、ユーザーは、項目「横浜」の表示位置に対応するタッチパネル107の操作面上の位置に指等を接触させて、なぞり操作(ドラッグ操作またはフリック操作)を行う。   For example, in FIG. 7A, it is assumed that the item “Yokohama” being displayed as a search key candidate is search key candidate information that the user wants to use as a search key. In this case, the user performs a tracing operation (drag operation or flick operation) by bringing a finger or the like into contact with the position on the operation surface of the touch panel 107 corresponding to the display position of the item “Yokohama”.

制御部120は、タッチパネル107からの座標データと、各表示情報の表示画面6G上の表示位置とに基づいて、項目「横浜」の表示位置からなぞり操作が行われたことを把握する。   Based on the coordinate data from the touch panel 107 and the display position of each display information on the display screen 6G, the control unit 120 grasps that the tracing operation has been performed from the display position of the item “Yokohama”.

この場合、制御部120は、項目「横浜」を検索キーとして選択したと認識し、検索キー候補表示621の表示外に、検索キーとして選択された「横浜」の表示644を表示画面6Gに表示する。これにより、ユーザーは、撮像装置100において、項目「横浜」を検索キーとして選択できたことを認識することができる。   In this case, the control unit 120 recognizes that the item “Yokohama” has been selected as the search key, and displays the display 644 of “Yokohama” selected as the search key on the display screen 6G in addition to the display of the search key candidate display 621. To do. Accordingly, the user can recognize that the item “Yokohama” has been selected as the search key in the imaging apparatus 100.

同様にして、カテゴリ「場所」に属する他の項目を検索キーとして選択することもできるようにされる。つまり、同じカテゴリ内において、複数の項目(検索キー候補情報)を、検索キーとして選択することも可能である。   Similarly, another item belonging to the category “place” can be selected as a search key. That is, it is possible to select a plurality of items (search key candidate information) as search keys in the same category.

そして、項目「横浜」が検索キーとして選択された後、画像検索自体を終了させたい場合には、ユーザーは、終了アイコン6Aを選択する。これにより、制御部120は、画像の検索処理を終了させ、例えば、メニューが表示された状態に戻るようにする。この場合、選択された検索キーは選択されなかったものとされる。   Then, after the item “Yokohama” is selected as the search key, when the user wants to end the image search itself, the user selects the end icon 6A. As a result, the control unit 120 ends the image search process and returns to the state where the menu is displayed, for example. In this case, the selected search key is not selected.

また、項目「Aさん」、項目「横浜」が検索キーとして選択された後、カテゴリの選択をし直したい場合には、ユーザーは、BKアイコン6Cを選択する。これにより、制御部120は、図6(b)を用いて説明した検索キーの選択画面(3)に戻り、カテゴリの選択をやり直すことができるようにする。この場合、項目「横浜」が検索キーとして選択されたことはなかったものとされる。   Further, when the item “Mr. A” and the item “Yokohama” are selected as the search keys and the user wants to re-select the category, the user selects the BK icon 6C. As a result, the control unit 120 returns to the search key selection screen (3) described with reference to FIG. 6B so that the category can be selected again. In this case, it is assumed that the item “Yokohama” has never been selected as a search key.

また、項目「Aさん」、項目「横浜」が検索キーとして選択された後、OKアイコン6Bが選択された場合には、制御部120は、図7(a)において選択された項目「横浜」を検索キーとして特定する。   When the item “Mr. A” and the item “Yokohama” are selected as search keys and then the OK icon 6B is selected, the control unit 120 selects the item “Yokohama” selected in FIG. Is specified as a search key.

そして、制御部120は、図7(b)に示すように、検索キーとして特定した項目「Aさん」の表示631、及び、項目「横浜」の表示651を有し、再度、カテゴリ一覧表示611を表示するようにした検索キーの選択画面(5)を形成する。そして、この図7(b)に示した検索キーの選択画面(5)を表示部106の表示画面6Gに表示する。   Then, as shown in FIG. 7B, the control unit 120 has a display 631 of the item “Mr. A” specified as the search key and a display 651 of the item “Yokohama”, and again displays the category list display 611. The search key selection screen (5) is displayed. Then, the search key selection screen (5) shown in FIG. 7B is displayed on the display screen 6 G of the display unit 106.

このようにして、検索キー候補情報テーブルの7つのカテゴリから必要なカテゴリについて、1つ以上の検索キー候補情報を検索キーとして選択し、特定することができるようにされている。   In this way, one or more search key candidate information can be selected and specified as a search key for the necessary categories from the seven categories in the search key candidate information table.

したがって、同じカテゴリから複数の検索キー候補情報を検索キーとして選択したり、複数のカテゴリのそれぞれから1つ以上の検索キー候補情報を検索キーとして選択したりすることができるようにされる。   Therefore, a plurality of search key candidate information from the same category can be selected as a search key, or one or more search key candidate information can be selected as a search key from each of a plurality of categories.

そして、図7(b)の状態にあるときに、画像検索自体を終了させたい場合には、ユーザーは、終了アイコン6Aを選択する。これにより、制御部120は、画像の検索処理を終了させ、例えば、メニューが表示された状態に戻るようにする。この場合、検索キーの選択はされなかったものとされる。   When the user wants to end the image search in the state shown in FIG. 7B, the user selects the end icon 6A. As a result, the control unit 120 ends the image search process and returns to the state where the menu is displayed, for example. In this case, the search key is not selected.

また、カテゴリ「場所」においての検索キーの選択をやり直したい場合には、ユーザーは、BKアイコン6Cを選択する。これにより、制御部120は、図7(a)を用いて説明した検索キーの選択画面(4)に戻り、カテゴリ「場所」においての検索キーの選択をやり直すことができるようにする。   When the user wants to redo the selection of the search key in the category “place”, the user selects the BK icon 6C. As a result, the control unit 120 returns to the search key selection screen (4) described with reference to FIG. 7A so that the search key can be selected again in the category “place”.

この場合、制御部120の制御により、既に選択した検索キーを取り消したり、既に選択した検索キーを取り消して、新たな検索キーを選択したり、既に選択した検索キーに加えてさらに検索キーを選択したりするなどのことができるようにされる。   In this case, the control unit 120 controls to cancel the already selected search key, cancel the already selected search key, select a new search key, or select a search key in addition to the already selected search key. And so on.

また、図7(b)の状態にあるときに、検索キーの選択を完了し、選択した検索キーにより画像の検索を行うようにする場合には、ユーザーは、OKアイコン6Bを選択する。これにより、制御部120は、図7(b)において、カテゴリ一覧表示611を消去し、画像の検索処理を実行できるようにする。   In the state shown in FIG. 7B, when the selection of the search key is completed and the image is searched using the selected search key, the user selects the OK icon 6B. As a result, the control unit 120 deletes the category list display 611 in FIG. 7B so that the image search process can be executed.

この場合、制御部120は、上述もしたように、選択された検索キーに応じた画像検索を実行するため、画像検索の初期画面の表示を指示する所定の操作を受け付けるようにする。   In this case, as described above, the control unit 120 accepts a predetermined operation for instructing display of an initial screen for image search in order to execute image search according to the selected search key.

当該所定の操作を受け付けた場合、制御部120は、画像検索の初期画面を表示する処理を行う。すなわち、制御部120は、図5(a)において設定された検索範囲の画像データを読み出し、伸張処理部110、表示画像形成部111、表示処理部105を制御し、表示画面6Gの全面に検索範囲の画像のサムネイル画像をランダムに(バラバラに)表示する。   When the predetermined operation is received, the control unit 120 performs processing for displaying an initial image search screen. That is, the control unit 120 reads the image data in the search range set in FIG. 5A, controls the expansion processing unit 110, the display image forming unit 111, and the display processing unit 105, and searches the entire display screen 6G. Thumbnail images of range images are displayed randomly (disjointly).

また、制御部120は、表示画像形成部111、表示処理部105を制御し、図5〜図7を用いて説明したように選択される検索キーに対応する検索キー表示(図7(b)に示した表示631、表示651に対応する表示)を表示画面6Gに表示する。   Further, the control unit 120 controls the display image forming unit 111 and the display processing unit 105 to display a search key corresponding to the search key selected as described with reference to FIGS. 5 to 7 (FIG. 7B). Display 631 and the display corresponding to the display 651) are displayed on the display screen 6G.

そして、制御部120は、画像検索の開始を指示する操作である、選択した検索キーに対応する検索キー表示への指示操作(接触操作)を待つ。この後、当該指示操作が行われた場合に、後述もするが、制御部120は、選択された検索キーに基づいて画像検索処理を行うことになる。   Then, the control unit 120 waits for an instruction operation (contact operation) to search key display corresponding to the selected search key, which is an operation to instruct the start of image search. Thereafter, when the instruction operation is performed, the control unit 120 performs image search processing based on the selected search key, as will be described later.

なお、図5〜図7を用いて説明した検索キーの選択処理は一例であり、これとは別の態様で、検索キー候補情報の中から目的とする検索キーを選択するようにすることも可能である。   Note that the search key selection process described with reference to FIGS. 5 to 7 is an example, and the search key candidate information may be selected from the search key candidate information in a different manner. Is possible.

[画像検索の初期画面の表示を指示する所定の操作]
そして、撮像装置100においては、図5〜図7を用いて説明したように、画像検索の範囲が指定されると共に、検索キーか選択され、OKアイコン6Bが操作されると、上述もしたように、画像検索の初期画面を表示するための所定の操作の受け付け待ちとなる。
[Predetermined operation for instructing display of the initial image search screen]
In the imaging apparatus 100, as described with reference to FIGS. 5 to 7, when the image search range is designated, the search key is selected, and the OK icon 6B is operated, as described above. Then, it waits for acceptance of a predetermined operation for displaying the initial image search screen.

図8は、この実施の形態の撮像装置100において、画像検索のための検索キーが選択された後において、画像検索の初期画面を表示するための所定の操作として行うことが可能な操作について説明するための図である。   FIG. 8 illustrates operations that can be performed as a predetermined operation for displaying the initial screen for image search after the search key for image search is selected in the imaging apparatus 100 of this embodiment. It is a figure for doing.

図8(a)は、図5〜図7を用いて説明した画像検索に用いる検索キーの選択処理が実行され、検索範囲と検索キーとが選択された状態にあることを示すものとする。この状態にあるときに、図8(b)に示すように、撮像装置100を倒す操作、傾ける操作、振る操作、叩く操作を、画像検索の初期画面の表示を指示する所定の操作として検出する。   FIG. 8A shows that the search key selection process used for the image search described with reference to FIGS. 5 to 7 is executed and the search range and the search key are selected. In this state, as shown in FIG. 8B, the operation of tilting, tilting, shaking, and tapping the imaging apparatus 100 is detected as a predetermined operation that instructs display of the initial screen for image search. .

これらの操作が撮像装置100に対して行われた場合、撮像装置100のモーションセンサ137は、そのそれぞれの操作に応じた自機の動きを検出し、その検出結果を制御部120に通知する。   When these operations are performed on the imaging apparatus 100, the motion sensor 137 of the imaging apparatus 100 detects the movement of the own apparatus according to each operation, and notifies the control unit 120 of the detection result.

制御部120は、モーションセンサ137からの検出出力に基づき、自機に対してどのような操作が行われたかを判別することができる。そして、制御部120は、図8(b)に示したいずれかの操作、すなわち、倒される、傾けられる、振られる、叩かれるといった操作が行われたと判別した場合には、画像検索の初期画面を表示する。   Based on the detection output from the motion sensor 137, the control unit 120 can determine what operation has been performed on the own device. When the control unit 120 determines that any of the operations shown in FIG. 8B, that is, the operation of being tilted, tilted, swung, or hit, has been performed, the initial screen for image search Is displayed.

すなわち、制御部120は、図5(a)において設定された検索範囲の画像データを読み出し、これを伸張処理部110に供給し、伸張処理して、データ圧縮前の元の画像データを復元し、これを表示画像形成部111に供給する。   That is, the control unit 120 reads the image data in the search range set in FIG. 5A, supplies this to the decompression processing unit 110, decompresses, and restores the original image data before data compression. This is supplied to the display image forming unit 111.

表示画像形成部111は、伸張処理部110からの画像データを間引き処理するなどしてサムネイル画像(縮小画像)を形成するためのサムネイルデータを形成すると共に、サムネイル画像を表示画面にバラバラに配置した画像を表示する画像信号を形成する。   The display image forming unit 111 forms thumbnail data for forming a thumbnail image (reduced image) by thinning out the image data from the expansion processing unit 110, and arranges the thumbnail images in a discrete manner on the display screen. An image signal for displaying an image is formed.

表示画像形成部111で形成された画像信号は、表示処理部105に供給され、ここで表示部106に供給する形式の信号に変換された後、表示部106に供給される。これにより、表示画面6Gには、図8(c)に示すように、検索範囲の画像ファイルのサムネイル画像がバラバラと表示される。   The image signal formed by the display image forming unit 111 is supplied to the display processing unit 105, converted into a signal to be supplied to the display unit 106, and then supplied to the display unit 106. Thereby, as shown in FIG. 8C, the thumbnail images of the image files in the search range are displayed separately on the display screen 6G.

また、制御部120は、上述もしたように、選択された選択キーに対応する選択キー表示(選択キーアイコン)を形成し、これを表示画像形成部111、表示処理部105を通じて処理して、表示画面6Gに表示する。   Further, as described above, the control unit 120 forms a selection key display (selection key icon) corresponding to the selected selection key, and processes this through the display image forming unit 111 and the display processing unit 105, Displayed on the display screen 6G.

このようにして、検索範囲の画像ファイルのサムネイル画像がバラバラと表示されると共に、選択された検索キーに対応する検索キー表示が表示された画像検索の初期画面が表示される。   In this way, the thumbnail image of the image file in the search range is displayed separately, and an initial image search screen is displayed on which the search key display corresponding to the selected search key is displayed.

このように、この実施の形態の撮像装置100においては、画像検索に先立ち、検索範囲と検索キーの選択がされた後、図8(b)に示したように、倒す、傾ける、振る、叩くといった簡単な操作が行われた場合に、画像検索の初期画面を表示することができる。   As described above, in the imaging apparatus 100 according to this embodiment, the search range and the search key are selected prior to the image search, and then, as shown in FIG. 8B, tilt, tilt, shake, and tap. When a simple operation such as the above is performed, an initial image search screen can be displayed.

なお、ここでは、画像検索の初期画面を表示する場合に、検索対象の画像ファイルの画像データを間引き処理するなどしてサムネイル画像表示用のサムネイルデータを形成するものとして説明した。しかし、これの限るものではない。   Here, it has been described that thumbnail data for thumbnail image display is formed by thinning out image data of an image file to be searched when displaying an initial image search screen. However, this is not a limitation.

事前に、各画像ファイルに当該画像ファイルの画像データに基づき、サムネイルデータを形成して、当該画像ファイルに付加しておくことにより、画像ファイルに付加されているサムネイルデータを用いるようにすることができる。   It is possible to use the thumbnail data added to the image file by forming thumbnail data in each image file in advance based on the image data of the image file and adding it to the image file. it can.

この場合には、伸張処理部110においての伸張処理や、表示画像形成部111でのサムネイルデータの形成処理は必要ないので、撮像装置100の付加を軽減することができる。   In this case, since the expansion processing in the expansion processing unit 110 and the thumbnail data formation processing in the display image forming unit 111 are not necessary, the addition of the imaging device 100 can be reduced.

また、この実施の形態の撮像装置100のモーションセンサ137は、左右方向に振られた場合と、上下方向に振られた場合とを別々に検出することができる。このため、例えば、左右方向に振られた場合を、画像検索の初期画面の表示指示であると判断したり、上下方向に振られた場合を、画像検索の初期画面の表示指示であると判断したりするなど、振りの方向に応じて判別することもできる。   In addition, the motion sensor 137 of the imaging apparatus 100 according to this embodiment can separately detect the case of being shaken in the left-right direction and the case of being shaken in the up-down direction. For this reason, for example, when it is shaken in the horizontal direction, it is determined that it is an instruction to display the initial screen for image search, and when it is shaken in the vertical direction, it is determined to be an instruction to display the initial screen for image search. It can also be determined according to the direction of swinging.

もちろん、左右方向に振られた場合と上下方向に振られた場合とにおいて、画像検索の初期画面の表示指示であると判断するようにすることも可能である。   Of course, it is also possible to determine that it is an instruction to display the initial screen of the image search when the image is shaken in the left-right direction and when it is shaken in the up-down direction.

また、この実施の形態の撮像装置100は、セット上部のタッチパネル136を備えておいる。このため、撮像装置100を叩く操作は、セット上部のタッチパネル136に対して繰り返しタッチする操作を検出した場合に、撮像装置100が叩かれたと判別するようにすることも可能である。   In addition, the imaging apparatus 100 of this embodiment includes a touch panel 136 at the top of the set. For this reason, the operation of hitting the imaging device 100 can be determined that the imaging device 100 has been hit when an operation of repeatedly touching the touch panel 136 at the top of the set is detected.

[画像検索時の画面の遷移例]
次に、上述したように、ユーザーによって検索キーが選択された後に、その選択した検索キーを用いて画像検索を行う場合の画面の遷移例について説明する。図9〜図11は、図5〜図7を用いて説明したようにして2つの検索キーが選択され、図8を用いて説明したように、所定の操作が行われて、画像検索をする場合の画面の遷移例を説明するための図である。
[Screen transition example during image search]
Next, as described above, an example of screen transition when an image search is performed using a selected search key after the search key is selected by the user will be described. 9 to 11, two search keys are selected as described with reference to FIGS. 5 to 7, and a predetermined operation is performed as described with reference to FIG. 8 to perform an image search. It is a figure for demonstrating the example of a transition of the screen in a case.

[1つの検索キーを用いる場合]
上述もしたように、目的とする2つの検索キーを選択し、OKアイコン6Bを選択したのち、図8を用いて説明したように、所定の操作が行われることにより、制御部120は、図9(a)に示すように、画像検索画面の初期画面を表示画面6Gに表示する。
[When using one search key]
As described above, after selecting two target search keys and selecting the OK icon 6B, as described with reference to FIG. As shown in FIG. 9A, the initial screen of the image search screen is displayed on the display screen 6G.

この図9(a)に示す画像検索の初期画面は、ユーザーによって選択された検索キーに対応する検索キー表示(検索キーアイコン)K1、K2が表示されると共に、検索範囲の画像がばらばらと表示されたものである。   In the initial image search screen shown in FIG. 9A, search key displays (search key icons) K1 and K2 corresponding to the search key selected by the user are displayed, and images in the search range are displayed separately. It has been done.

なお、以下においては、ユーザーによって選択された検索キーであって、検索キー表示K1に対応するものを検索キーk1とし、検索キー表示K2に対応するものを検索キーk2とする。   In the following description, a search key selected by the user and corresponding to the search key display K1 is referred to as a search key k1, and a search key corresponding to the search key display K2 is referred to as a search key k2.

そして、選択した2つの検索キーの内、検索キー表示K1に対応する検索キーk1に応じた画像検索を実行する場合、ユーザーは、図9(b)に示すように、検索キー表示K1の表示位置に対応するタッチパネル107上の位置に指等を接触させる。   Then, when executing an image search corresponding to the search key k1 corresponding to the search key display K1 out of the two selected search keys, the user displays the search key display K1 as shown in FIG. 9B. A finger or the like is brought into contact with a position on the touch panel 107 corresponding to the position.

制御部120は、タッチパネル107からの座標データと、当該座標データが示す操作面上の位置に対応する表示画面上の位置に表示されている表示情報とに基づいて、検索キー表示K1が指示されたことを検知し、画像検索の実行指示があったと認識する。   Based on the coordinate data from the touch panel 107 and the display information displayed at the position on the display screen corresponding to the position on the operation surface indicated by the coordinate data, the control unit 120 is instructed to display the search key K1. It is recognized that there has been an instruction to execute image search.

この場合、制御部120は、指示された検索キー表示K1に対応する検索キーk1を用い、検索範囲に属する画像ファイルから当該検索キーに合致するキーワードを有する画像ファイルを抽出する。   In this case, the control unit 120 uses the search key k1 corresponding to the designated search key display K1 to extract an image file having a keyword that matches the search key from the image file belonging to the search range.

そして、制御部120は、検索範囲の画像ファイルについて、検索キーk1に合致するものとして抽出された画像ファイルのサムネイル画像を、表示画面6G上の予め決められた位置(例えば、検索キー表示K1の近傍)に集まるようにして表示する。   Then, the control unit 120 selects a thumbnail image of the image file extracted as matching the search key k1 for the image file in the search range on a predetermined position on the display screen 6G (for example, the search key display K1 Display in the vicinity).

当該検索範囲の画像ファイルであっても、検索キーに応じて抽出されなかった画像ファイルのサムネイル画像については、表示画面6G上の予め決められた位置から離れた位置に表示する。   Even for the image file in the search range, the thumbnail image of the image file that has not been extracted according to the search key is displayed at a position away from a predetermined position on the display screen 6G.

これにより、図9(b)に示すように、検索キーk1に合致するキーワードを有する画像ファイルの画像は、検索キー表示K1の周囲に集まって表示され、それ以外の画像ファイルの画像は、検索キー表示K1から離れた位置に表示される。   As a result, as shown in FIG. 9B, the images of the image file having the keyword that matches the search key k1 are gathered and displayed around the search key display K1, and the images of the other image files are searched. It is displayed at a position away from the key display K1.

なお、図9(b)に示したようにサムネイル画像を表示する処理は、制御部120の制御に応じて動作する伸張処理部110、表示画像形成部111、表示処理部105によって画像処理がなされ、表示部106の表示画面6Gに表示される。   As shown in FIG. 9B, the processing for displaying thumbnail images is performed by the expansion processing unit 110, the display image forming unit 111, and the display processing unit 105 that operate according to the control of the control unit 120. Are displayed on the display screen 6G of the display unit 106.

具体的には、検索範囲の画像ファイルの画像データは、伸張処理部110において伸張処理されて表示画像形成部111に供給される。表示画像形成部111は、これに供給された画像データを間引き処理するなどしてサムネイルデータを形成する。   Specifically, the image data of the image file in the search range is decompressed by the decompression processing unit 110 and supplied to the display image forming unit 111. The display image forming unit 111 forms thumbnail data by thinning the image data supplied thereto.

そして、表示画像形成部111は、制御部120の制御に応じて、検索キーk1に合致するキーワードのサムネイル画像は、検索キー表示K1の表示位置の近傍に表示し、それ以外のサムネイル画像は検索キー表示K1から離れた位置に表示する画像データを形成する。   Then, under the control of the control unit 120, the display image forming unit 111 displays the thumbnail image of the keyword that matches the search key k1 in the vicinity of the display position of the search key display K1, and searches for other thumbnail images. Image data to be displayed at a position distant from the key display K1 is formed.

この画像データは、1画面分の画像を形成する画像データであり、当該画像データから表示処理部105に供給する画像信号を形成し、これを表示処理部105に供給する。表示処理部105を制御部120からの制御に応じて、表示部106に供給する表示用の画像信号を形成し、これを表示部106に供給する。これにより、表示部106の表示画面6Gに図9(b)に示した態様で、画像検索の結果の表示が行われる。   This image data is image data that forms an image for one screen. An image signal to be supplied to the display processing unit 105 is formed from the image data, and the image signal is supplied to the display processing unit 105. The display processing unit 105 forms a display image signal to be supplied to the display unit 106 in accordance with control from the control unit 120, and supplies this to the display unit 106. As a result, the result of the image search is displayed on the display screen 6G of the display unit 106 in the manner shown in FIG. 9B.

なお、上述もしたように、各画像ファイルにサムネイル画像を表示するためのサムネイルデータが既に用意されている場合には、そのサムネイルデータを用いて、図9に示した表示が行われる。   As described above, when thumbnail data for displaying a thumbnail image is already prepared in each image file, the display shown in FIG. 9 is performed using the thumbnail data.

予め各画像ファイルに用意されているサムネイルデータを用いる場合には、上述もしたように、伸張処理部110においての伸張処理や、表示画像形成部111においてのサムネイルデータの形成処理等を行う必要は無く、撮像装置100の負荷を軽減することができる。   When using thumbnail data prepared in advance for each image file, as described above, it is necessary to perform expansion processing in the expansion processing unit 110, formation processing of thumbnail data in the display image forming unit 111, and the like. And the load on the imaging apparatus 100 can be reduced.

このように、ユーザーは、検索キー表示K1に対応する検索キーk1を用いて画像検索が実行されたこと、及び、その画像検索の結果を、表示画面6Gに表示された情報に応じて知ることができる。   In this way, the user knows that the image search has been executed using the search key k1 corresponding to the search key display K1, and the result of the image search according to the information displayed on the display screen 6G. Can do.

また、図9(b)に示したように、検索キーに合致する画像群の概要と共に、検索キーに合致しない画像群の概要をも把握することができるようにされ、ユーザーにとって分り易い態様で画像検索を行うことができる。   In addition, as shown in FIG. 9B, it is possible to grasp the outline of the image group that matches the search key and the outline of the image group that does not match the search key, so that the user can easily understand. Image search can be performed.

そして、制御部120は、図9(c)に示すように、検索キー表示K1へのユーザーの指等の接触が解除された後においては、一定時間Tまで(例えば数秒程度まで)は、画像検索の結果の表示を維持する。この表示が維持されている間において、ユーザーは、画像検索の結果を確定することができるようにされる。   Then, as shown in FIG. 9C, after the contact of the user's finger or the like to the search key display K1 is released, the control unit 120 displays the image until a certain time T (for example, up to several seconds). Maintain display of search results. While this display is maintained, the user can confirm the result of the image search.

[2つの検索キーを用いる場合]
また、図9を用いて説明した例の場合、選択された2つの検索キーの内、ユーザーにより指示される一方の検索キーを用いて画像検索を行うようにした。しかし、これに限るものではない。選択された2つの検索キーの両方を用いた画像検索を行うようにしてもよい。
[When using two search keys]
Further, in the case of the example described with reference to FIG. 9, the image search is performed using one of the two selected search keys that is designated by the user. However, it is not limited to this. An image search using both of the two selected search keys may be performed.

図10は、選択された2つの検索キーの両方を用いて画像検索を行う場合について説明するための図である。図10(a)に示すように、ユーザーよって選択された2つの検索キーに対応して、検索キー表示K1、検索キー表示K2が表示されている。   FIG. 10 is a diagram for explaining a case where an image search is performed using both of the two selected search keys. As shown in FIG. 10A, a search key display K1 and a search key display K2 are displayed corresponding to the two search keys selected by the user.

そして、図10(b)に示すように、検索キー表示K1と検索キー表示K2との両方に対してユーザーが指等を接触させるようにしたとする。つまり、検索キー表示K1と検索キー表示K2との両方の表示位置のそれぞれに対応するタッチパネル107の操作面に対してユーザーが指などを接触させたとする。   Then, as shown in FIG. 10B, it is assumed that the user touches both the search key display K1 and the search key display K2 with a finger or the like. That is, it is assumed that the user touches the operation surface of the touch panel 107 corresponding to each of the display positions of both the search key display K1 and the search key display K2.

この場合、タッチパネル107からは、2箇所の接触位置のそれぞれの座標データが制御部120に供給される。そして、制御部120は、タッチパネル107からの座標データと、当該座標データが示す操作面上の位置に対応する表示画面上の位置に表示されている表示情報とに基づいて、検索キーk1、k2が同時に指示されたことを検出する。   In this case, the coordinate data of the two contact positions is supplied from the touch panel 107 to the control unit 120. Then, based on the coordinate data from the touch panel 107 and the display information displayed at the position on the display screen corresponding to the position on the operation surface indicated by the coordinate data, the control unit 120 searches the search keys k1, k2. Is detected at the same time.

この場合、制御部120は、検索キーk1と検索キーk2との両方をキーワードとして有する画像ファイルを検索して抽出し、抽出した画像ファイルのサムネイル画像を、図10(b)に示すように集めるようにして表示画面6Gに表示する。   In this case, the control unit 120 searches and extracts image files having both the search key k1 and the search key k2 as keywords, and collects thumbnail images of the extracted image files as shown in FIG. In this way, it is displayed on the display screen 6G.

検索キーk1と検索キーk2との両方をキーワードとして有さない画像ファイルのサムネイル画像については、集めるようにして表示した画像群からは離れた位置にバラバラに表示するようにする。   Thumbnail images of image files that do not have both the search key k1 and the search key k2 as keywords are displayed separately at positions distant from the collected and displayed image group.

このような表示も、図9を用いて説明した場合と同様に、制御部120が、伸張処理部110、表示画像形成部111、表示処理部105を制御して行うことができるようにされる。   Similar to the case described with reference to FIG. 9, such display can be performed by the control unit 120 by controlling the expansion processing unit 110, the display image forming unit 111, and the display processing unit 105. .

これにより、複数の検索キーを用いた画像検索を柔軟に行うことができるようにされる。なお、ここでは、2つの検索キーを用いる場合を例にして説明したが、これに限るものではない。2つ以上の検索キーを選択し、そのそれぞれを同時に用いて画像検索を行うようにすることができる。   Thereby, an image search using a plurality of search keys can be flexibly performed. Here, the case where two search keys are used has been described as an example, but the present invention is not limited to this. It is possible to select two or more search keys and perform image search using each of them simultaneously.

また、図10に示した例は、検索キーk1と検索キーk2とを同時に満足する画像ファイルを検索するようにした。しかし、これに限るものではない。検索キーk1と検索キーk2とのいずれか一方を満足する画像ファイルを検索することもできるようにされる。   In the example shown in FIG. 10, an image file that satisfies both the search key k1 and the search key k2 is searched. However, it is not limited to this. It is also possible to search for an image file that satisfies one of the search key k1 and the search key k2.

すなわち、複数の検索キーの全てを満足する画像ファイルを検索するか、複数の検索キーのいずれか1つでも満足する画像ファイルを検索するかは、予め撮像装置100に対して設定しておくようにすることができる。   That is, whether to search for an image file that satisfies all of the plurality of search keys or to search for an image file that satisfies any one of the plurality of search keys is set in advance for the imaging apparatus 100. Can be.

もちろん、画像検索の開始時に、どちらの検索を行うかをユーザーが撮像装置100に対して入力して設定することもできるようにされる。   Of course, at the start of the image search, the user can input and set which search is to be performed on the imaging apparatus 100.

[画像を検索キーとして用いる場合]
上述した実施の形態の撮像装置100においては、検索キーに合致するキーワードを有する画像ファイルを検索するようにした。すなわち、上述した実施の形態においては、検索キーがキーワード情報の場合である。
[When using an image as a search key]
In the imaging apparatus 100 according to the above-described embodiment, an image file having a keyword that matches the search key is searched. That is, in the above-described embodiment, the search key is keyword information.

しかし、検索キーはキーワード情報に限るものではない。画像自体、具体的には、画像分析の結果の情報を検索キーとして、類似画像を検索することもできる。この例の撮像装置100においては、画像自体を検索キーとして用いて、画像検索を行うものである。   However, the search key is not limited to keyword information. Similar images can be searched using the image itself, specifically, information on the result of image analysis as a search key. In the imaging apparatus 100 of this example, an image search is performed using the image itself as a search key.

図11は、画像を検索キーとして用いて画像検索を行う場合について説明するための図である。図11(a)に示すように、検索キーとして使用可能な画像については、例えば、ハイライト表示など区別可能な態様で表示されている。   FIG. 11 is a diagram for explaining a case where an image search is performed using an image as a search key. As shown in FIG. 11A, the images that can be used as search keys are displayed in a distinguishable manner such as highlight display.

図2を用いて説明したように、各画像ファイルには、その画像ファイルの画像データを画像分析することにより得た画像分析情報がメタデータとして付加されている。この画像分析情報は、上述もしたように、エッジ検出や色彩解析などの種々の手法を用いることにより、各画像データによる画像の特徴を数値化して示すことができるものであり、各画像間において、構図や被写体の類似度を比較することができるものである。   As described with reference to FIG. 2, image analysis information obtained by image analysis of image data of the image file is added to each image file as metadata. As described above, this image analysis information can be used to digitize and show the characteristics of an image based on each image data by using various methods such as edge detection and color analysis. The composition and the similarity of the subject can be compared.

このため、画像分析の結果、例えば、人の顔が大きく写っている画像や、輪郭がはっきりとした建物や風景の画像など、特徴のはっきりした画像であることが判明した画像を、検索キーとして用いることができるようにしておく。   For this reason, as a search key, for example, an image that has been found to be a well-characterized image, such as an image showing a large human face or an image of a building or landscape with a clear outline, as a result of image analysis. Be ready to use.

具体的には、検索キーとして利用可能な画像の画像ファイルにはフラグを立てておくなどすることにより、区別できるようにしておく。これにより、図11(a)に示すように、検索キーとなりうる画像のサムネイル画像については、ハイライト表示するなどして区別することができるようにされる。   Specifically, an image file that can be used as a search key is identified by setting a flag or the like. As a result, as shown in FIG. 11A, thumbnail images of images that can serve as search keys can be distinguished by being highlighted.

そして、図11(b)に示すように、検索キーとなりうる画像のサムネイル画像内、ユーザーが目的とする画像のサムネイル画像の表示位置上のタッチパネル107の操作面に指等を接触させる。   Then, as shown in FIG. 11B, a finger or the like is brought into contact with the operation surface of the touch panel 107 on the display position of the thumbnail image of the target image in the thumbnail image of the image that can be a search key.

この場合、制御部120は、タッチパネル107からの座標データと、当該座標データが示す操作面上の位置に対応する表示画面上の位置に表示されているサムネイル画像とに基づいて、どのサムネイル画像が検索キーとして指定されたかを認識することができる。   In this case, the control unit 120 determines which thumbnail image is based on the coordinate data from the touch panel 107 and the thumbnail image displayed at the position on the display screen corresponding to the position on the operation surface indicated by the coordinate data. It can be recognized whether it is designated as a search key.

制御部120は、指定されたサムネイル画像に対応する画像ファイルから画像分析情報を読み出し、当該画像分析情報を検索キーにして、当該検索キーに類似する画像分析情報を有する画像ファイルを抽出する。そして、制御部120は、抽出した画像ファイルのサムネイル画像を、図11(b)に示すように、表示画面上の所定の位置に集めて表示するようにする。   The control unit 120 reads out image analysis information from the image file corresponding to the designated thumbnail image, and extracts an image file having image analysis information similar to the search key using the image analysis information as a search key. Then, the control unit 120 collects and displays the thumbnail images of the extracted image file at a predetermined position on the display screen as shown in FIG.

図11に示した例の場合には、2つのサムネイル画像が検索キーとなるように指定された場合を示している。そして、この例の場合には、指示された2の画像の画像分析結果の両方に類似する画像が抽出される。なお、ユーザーの指示に応じて、指示された2の画像の画像分析結果のいずれか一方に類似する画像を抽出するようにすることも可能である。   In the case of the example shown in FIG. 11, a case where two thumbnail images are designated to be search keys is shown. In the case of this example, an image similar to both image analysis results of the designated two images is extracted. Note that it is possible to extract an image similar to one of the image analysis results of the instructed two images in accordance with a user instruction.

このように、画像を検索キーとして指定することによって、当該画像に写っている人物や建物などを検索条件として画像を絞り込むことが可能となる。つまり、検索キーとして指示された画像に類似する画像を抽出することができる。   In this way, by specifying an image as a search key, it is possible to narrow down the image using a person or a building shown in the image as a search condition. That is, an image similar to the image designated as the search key can be extracted.

なお、ここでは、画像分析の結果、特徴のはっきりした画像を検索キーとして指定可能な画像として予め特定しておくものとして説明した。しかし、これに限るものではない。全ての画像を検索キーとして指定可能なようにしてももちろんよい。この場合には、サムネイル画像をハイライト表示する必要もない。   Here, the description has been made assuming that, as a result of image analysis, an image with clear characteristics is specified in advance as an image that can be designated as a search key. However, it is not limited to this. Of course, all images may be designated as search keys. In this case, it is not necessary to highlight the thumbnail image.

また、ユーザー自身が、予め検索キーとして用いる画像を設定するようにすることも可能である。   It is also possible for the user himself to set an image used as a search key in advance.

[検索キーに類似する情報を有する画像ファイルの検索]
上述した画像検索の場合、指示された検索キー(文字情報)に一致するキーワードを有する画像ファイルを検索したり、指示された画像(画像の画像分析情報)に類似する(関連する)画像データを有する画像ファイルを検索したりできることを説明した。
[Search for image files having information similar to search key]
In the case of the image search described above, an image file having a keyword that matches the specified search key (character information) is searched, or image data similar to (related to) the specified image (image analysis information of the image) is retrieved. It explained that you can search for the image file you have.

しかし、これに限るものではない。指示された検索キー(文字情報)に関連するキーワードを有する画像ファイルを検索するように構成することができる。また、指示された画像に関連する画像データを有する画像ファイルを検索する場合にも、さらに目的に応じた画像検索を行うようにすることもできる。   However, it is not limited to this. An image file having a keyword related to the designated search key (character information) can be searched. Further, when searching for an image file having image data related to the designated image, it is also possible to perform an image search according to the purpose.

以下においては、指示された検索キー(文字情報)に類似するキーワードを有する画像ファイルを検索する場合と、指示された画像に関連する画像データを有する画像ファイルを検索する場合であって、さらに目的に応じた画像検索を行う場合について説明する。   In the following, there are a case where an image file having a keyword similar to the designated search key (character information) is searched, and a case where an image file having image data related to the designated image is searched. A case of performing an image search according to the will be described.

[検索キー関連度辞書の構成例]
まず、検索キーが文字情報である場合に、検索キーに関連する情報を有する画像データを検索するための構成について説明する。この場合、この実施の形態の撮像装置100は、検索キー関連度辞書を用いるようにしている。
[Configuration example of search key relevance dictionary]
First, a configuration for searching for image data having information related to a search key when the search key is character information will be described. In this case, the imaging apparatus 100 of this embodiment uses a search key relevance degree dictionary.

図12は、検索キー関連度辞書の構成例を説明するための図である。検索キー関連度辞書は、検索キーとして用いられる可能性のある文字情報について、当該文字情報に関連する文字情報(キーワード)を、当該文字情報に対する関連度に応じてまとめるようにしたものである。   FIG. 12 is a diagram for explaining a configuration example of a search key relevance dictionary. The search key relevance dictionary is configured to collect character information (keywords) related to the character information according to the relevance of the character information with respect to character information that may be used as a search key.

図12に示す例においては、検索キーに対して、関連度「高」、「中」、「低」と言う3段階に分けて、関連するキーワードが登録されたものである。ここで、検索キーに対して関連度「高」の文字情報(キーワード)は、当該検索キーに対して、同一の文字情報、同義語となる文字情報、同一の文字を有し、ほぼ同一の意味、内容を示す文字情報等である。   In the example shown in FIG. 12, related keywords are registered in three stages of “high”, “medium”, and “low” for the search key. Here, the character information (keyword) having the degree of relevance “high” with respect to the search key has the same character information, character information as a synonym, and the same character with respect to the search key. Character information indicating meaning and contents.

また、検索キーに対して関連度「中」の文字情報(キーワード)は、一般的なイメージとして、当該検索キーに対して、直接に結びつく文字情報である。また、検索キーに対して関連度「低」の文字情報(キーワード)は、一般的なイメージとして、当該検索キーに対して、直接結びつくことは少ないが、間に何らかのキーワードが介在するなどすることによって当該検索キーに対して結びつくことが可能な文字情報である。   Further, the character information (keyword) having the degree of relevance “medium” with respect to the search key is character information directly linked to the search key as a general image. In addition, character information (keywords) with a relevance level of “low” for the search key is not directly linked to the search key as a general image, but some keyword is interposed between them. Is character information that can be linked to the search key.

図12に示す例においては、検索キー「夏」に対して、関連度「高」のキーワードとしては、「夏、サマー、初夏、夏休み、…」などが登録されている。キーワード「夏」は検索キーそのものであり、キーワード「サマー」は検索キー「夏」の同義語であり、キーワード「初夏、夏休み」は、検索キー「夏」と同一の文字を有し、ほぼ同一の意味内容を有するものであるので、これらについては関連度「高」としている。   In the example shown in FIG. 12, “summer, summer, early summer, summer vacation,...”, Etc., are registered as keywords having a high degree of association with the search key “summer”. The keyword “summer” is the search key itself, the keyword “summer” is a synonym for the search key “summer”, and the keyword “early summer, summer vacation” has the same characters as the search key “summer” and is almost identical. Therefore, the degree of relevance is “high”.

また、検索キー「夏」に対して、関連度「中」のキーワードとしては、「ひまわり、すいか、花火大会、海、…」などが登録されている。キーワード「ひまわり、すいか」は、主に、「夏」において見られるものであり、検索キー「夏」に直接結びつくので、関連度「中」としている。   For the search key “summer”, keywords such as “sunflower, watermelon, fireworks display, sea,. The keyword “sunflower, watermelon” is mainly found in “summer” and is directly linked to the search key “summer”, so the degree of relevance is “medium”.

また、キーワード「花火大会」は、主に「夏」の風物詩であり、検索キー「夏」に直接結びつくので、関連度「中」としている。また、キーワード「海」は、「夏」をイメージする場合が多いので、関連度「中」としている。   The keyword “fireworks display” is mainly a feature of “summer” and is directly related to the search key “summer”, so the degree of relevance is “medium”. In addition, since the keyword “sea” often has the image of “summer”, the relevance level is “medium”.

また、検索キー「夏」に対して、関連度「低」のキーワードとしては、「梅雨、宿題、学校、旅行」などが登録されている。キーワード「梅雨」は、夏の直前の気候状態であり、検索キー「夏」を直接的にイメージさせるものではないが、「梅雨」が明ければ「夏」になることから検索キー「夏」に対して関連度「低」としている。   Also, for the search key “summer”, “rainy season, homework, school, travel” and the like are registered as keywords of “low” relevance. The keyword “rainy season” is the climate state just before summer and does not directly image the search key “summer”, but if “rainy season” is clear it will be “summer”, so the search key “summer” On the other hand, the degree of relevance is “low”.

また、キーワード「宿題、学校、旅行」は、例えば、「夏休み」と言う文言を介して、検索キー「夏」に関連付けることが可能であるので、この例では関連度「低」としている。   Further, since the keyword “homework, school, travel” can be associated with the search key “summer” via, for example, the word “summer vacation”, the degree of relevance is “low” in this example.

このように、検索キー関連度辞書は、検索キーとして用いられる可能性のある文言の1つ1つに対して、関連度「高」、「中」、「低」の3段階に分けて、関連するキーワードが予め登録するようにされたものである。   In this way, the search key relevance dictionary is divided into three levels of relevance “high”, “medium”, and “low” for each of the words that may be used as search keys. Related keywords are registered in advance.

なお、検索キーとして用いられる可能性のある文字情報は、少なくとも、図4を用いて説明した検索キー候補情報テーブルのカテゴリ「人」、「場所」、「色」、「季節」、「被写体」に登録された文字情報である。   The character information that may be used as a search key includes at least the categories “person”, “location”, “color”, “season”, “subject” in the search key candidate information table described with reference to FIG. Is the character information registered in.

したがって、検索キーとして用いられる可能性のある文字情報毎に、図12に示したような検索キー関連度辞書が形成され、撮像装置100の例えばEEPROM124などに記憶保持されている。   Therefore, a search key relevance dictionary as shown in FIG. 12 is formed for each character information that may be used as a search key, and is stored and held in, for example, the EEPROM 124 of the imaging apparatus 100.

また、検索キー関連度辞書は、予め作成されたものが提供されるが、これをユーザーが手直しして使用することもできるようにされている。   A search key relevance dictionary created in advance is provided, but the user can modify it and use it.

そして、図12に示した検索キー関連度辞書の構成例に従えば、検索キーとして「夏」と言う文言を用いるようにした場合、図12に示した、関連度「高」、「中」、「低」の各キーワードを有する画像ファイル(画像データ)を検索して抽出することができるようにされる。   Then, according to the configuration example of the search key relevance dictionary shown in FIG. 12, when the word “summer” is used as the search key, the relevance “high” and “medium” shown in FIG. , An image file (image data) having each keyword “low” can be searched and extracted.

そして、抽出した画像ファイルを関連度に応じて分類し、関連度「高」、「中」、「低」のそれぞれ毎に扱うことができるようにされる。   Then, the extracted image files are classified according to the degree of association, and can be handled for each of the degrees of association “high”, “medium”, and “low”.

[画像分析情報に基づく画像の関連度判別基準の例]
次に、検索キーが画像(画像の画像分析情報)である場合に、検索キーに関連する情報を有する画像ファイルを検索するための構成について説明する。この場合、この実施の形態の撮像装置100は、画像分析情報に基づいて画像検索を行う。
[Example of criteria for determining relevance of images based on image analysis information]
Next, a configuration for searching for an image file having information related to the search key when the search key is an image (image analysis information of the image) will be described. In this case, the imaging apparatus 100 of this embodiment performs an image search based on the image analysis information.

この場合、画像分析情報のどの情報に基づいて、画像検索を行うようにするかが重要になる。図13は、画像分析情報の内、画像検索のための検索キーとなりうる情報について説明するための図である。   In this case, it is important which information of the image analysis information is used to perform the image search. FIG. 13 is a diagram for explaining information that can be a search key for image search in the image analysis information.

図2を用いて説明したように、各画像ファイルには、各画像ファイルの画像データを分析することにより得られる画像分析情報がメタデータとして付加されている。この画像分析情報の中には、上述もし、また、図13にも示すように、画像における人物の顔の面積、画像に写っている人物の数、画像に写っている人物の笑顔の度合い、画像全体の特徴を示す情報等が含まれている。   As described with reference to FIG. 2, image analysis information obtained by analyzing the image data of each image file is added to each image file as metadata. In this image analysis information, as described above and as shown in FIG. 13, the area of the face of the person in the image, the number of persons in the image, the degree of smile of the person in the image, Information indicating the characteristics of the entire image is included.

そして、図5(b)等に示したカテゴリ一覧表示611において、カテゴリ「その他」を選択すると、画像分析情報を構成する情報として、図13に示した各情報が表示され、その中から目的とする情報を選択する。これにより、当該選択した画像分析情報に応じた画像検索を行うことができるようにされる。   When the category “others” is selected in the category list display 611 shown in FIG. 5B or the like, each piece of information shown in FIG. 13 is displayed as information constituting the image analysis information. Select the information you want. Thereby, an image search according to the selected image analysis information can be performed.

例えば、画像分析情報として「画像における人物の顔の面積」を選択し、検索キーとして用いる画像を指示したとする。この場合、制御部120は、検索キーとして指示された画像の画像分析情報の「画像における人物の顔の面積」に基づいて、関連する画像を記録媒体135から検索して抽出する。   For example, it is assumed that “area of a person's face in an image” is selected as image analysis information and an image to be used as a search key is designated. In this case, the control unit 120 searches and extracts a related image from the recording medium 135 based on the “area of the person's face in the image” of the image analysis information of the image designated as the search key.

具体的に制御部120は、「画像における人物の顔の面積」が、第1の所定範囲の画像を関連度「高」の画像とし、第2の所定範囲の画像を関連度「中」の画像として、第3の所定範囲の画像を関連度「低」として、記録媒体135から検索して抽出する。   Specifically, the control unit 120 sets the image of the person's face in the image to a first predetermined range of images with a relevance “high” and a second predetermined range of images with a relevance “medium”. As an image, an image in the third predetermined range is searched and extracted from the recording medium 135 with the relevance level “low”.

この場合、第1の所定範囲が、検索キーとした画像における人物の顔の面積に最も近い範囲であり、第2、第3の所定範囲は、徐々に、検索キーとした画像における人物の顔の面積から離れる範囲となるようにされる。   In this case, the first predetermined range is the range closest to the area of the person's face in the image used as the search key, and the second and third predetermined ranges are gradually the face of the person in the image used as the search key. It is made to become the range away from the area of.

このように、画像分析情報の内の「画像における人物の顔の面積」を用いるようにした場合には、検索キーとして用いるようにした画像の当該画像における人物の顔の面積を基準にして、検索キーとした画像に関連する画像を検索して抽出することができる。   As described above, when the “area of the person's face in the image” in the image analysis information is used, the area of the person's face in the image of the image used as the search key is used as a reference. It is possible to search and extract an image related to the image as the search key.

また、画像分析情報として「画像における人物の数」を選択し、検索キーとして用いる画像を指示したとする。この場合、制御部120は、検索キーとして指示された画像の画像分析情報の「画像における人物の数」に基づいて、関連する画像を記録媒体135から検索して抽出する。   Further, it is assumed that “the number of persons in the image” is selected as the image analysis information and an image to be used as a search key is designated. In this case, the control unit 120 searches and extracts a related image from the recording medium 135 based on the “number of persons in the image” of the image analysis information of the image designated as the search key.

具体的に制御部120は、「画像における人物の数」が、第1の所定範囲の画像を関連度「高」の画像とし、第2の所定範囲の画像を関連度「中」の画像として、第3の所定範囲の画像を関連度「低」として、記録媒体135から検索して抽出する。   Specifically, for the “number of persons in the image”, the control unit 120 sets an image in the first predetermined range as an image having a relevance “high”, and sets an image in the second predetermined range as an image having a relevance “medium”. The images in the third predetermined range are retrieved from the recording medium 135 with the relevance level “low” and extracted.

この場合、第1の所定範囲が、検索キーとした画像における人物の数に最も近い範囲であり、第2、第3の所定範囲は、徐々に、検索キーとした画像における人物の数から離れる範囲となるようにされる。   In this case, the first predetermined range is the range closest to the number of persons in the image used as the search key, and the second and third predetermined ranges gradually deviate from the number of persons in the image used as the search key. To be in range.

このように、画像分析情報の内の「画像における人物の数」を用いるようにした場合には、検索キーとして用いるようにした画像の当該画像における人物の数を基準にして、検索キーとした画像に関連する画像を検索して抽出することができる。   Thus, when the “number of persons in the image” in the image analysis information is used, the search key is used based on the number of persons in the image of the image used as the search key. Images related to the image can be searched and extracted.

また、画像分析情報である「画像における人物の笑顔の度合い」を用いるようにした場合にも、制御部120は、検索キーとして指示された画像の「画像における人物の笑顔の度合い」に基づいて、関連する画像を記録媒体135から検索することができる。   Also, when the “analyzing degree of person in the image” that is the image analysis information is used, the control unit 120 is based on the “indicating degree of person smiling in the image” of the image designated as the search key. , Related images can be retrieved from the recording medium 135.

また、画像分析情報である「画像全体の特長」を用いるようにした場合にも、制御部120は、検索キーとして指示された画像の「画像全体の特長」に基づいて、関連する画像を記録媒体135から検索することができる。   In addition, when the “feature of the entire image” that is the image analysis information is used, the control unit 120 records a related image based on the “feature of the entire image” of the image designated as the search key. It is possible to search from the medium 135.

この場合には、画像の色合いや複雑さから類似度を求め、当該類似度に応じて、関連する画像を抽出して、関連度「高」、「中」、「低」に分類することができるようにされる。   In this case, the degree of similarity may be obtained from the color and complexity of the image, and related images may be extracted according to the degree of similarity and classified into the degree of association “high”, “medium”, and “low”. Be made possible.

このように、この実施の形態の撮像装置100においては、検索キー関連度辞書や画像分析情報を用いることにより、指示された検索キーに関連する画像を検索して抽出することができる。そして、撮像装置100においては、検索して抽出した画像を、検索キーに対する関連度に応じて表示するなどのことができるようにしている。   As described above, in the imaging apparatus 100 of this embodiment, by using the search key relevance dictionary and the image analysis information, it is possible to search and extract an image related to the instructed search key. In the imaging apparatus 100, the image extracted by searching can be displayed according to the degree of association with the search key.

[検索キーに関連する情報を有する画像ファイルの検索結果の表示態様]
次に、上述したように、ユーザーによって検索キーが選択された後に、その選択した検索キーを用いて画像検索を行った場合の検索結果の表示態様について説明する。ここでは、文字情報としての検索キーが選択された場合を例にして説明する。
[Display mode of search result of image file having information related to search key]
Next, as described above, a display mode of a search result when an image search is performed using the selected search key after the search key is selected by the user will be described. Here, a case where a search key as character information is selected will be described as an example.

図14は、図5、図6を用いて説明したようにして1つの検索キー(文字情報)が選択された状態から画像検索を行うようにした場合の検索結果の表示態様を説明するための図である。   FIG. 14 is a diagram for explaining a display result of a search result when an image search is performed from a state where one search key (character information) is selected as described with reference to FIGS. FIG.

図14において、図14(A)は、選択された検索キーにしたがって画像検索が行われた場合の検索結果の表示態様を示し、図14(B)は、図14(A)における検索結果表示領域Arの詳細を説明するための図である。   14A shows a display form of a search result when an image search is performed according to the selected search key, and FIG. 14B shows a search result display in FIG. 14A. It is a figure for demonstrating the detail of area | region Ar.

図5、図6を用いて説明したように、画像の検索範囲が設定され、目的とする1つの検索キーが選択された後に、図8を用いて説明したように、所定の操作が行われると、制御部120は、画像検索のための初期画面を表示する。   As described with reference to FIGS. 5 and 6, after the image search range is set and one target search key is selected, a predetermined operation is performed as described with reference to FIG. Then, the control unit 120 displays an initial screen for image search.

具体的に制御部120は、検索範囲の画像データに応じた画像(サムネイル画像)を表示部106の表示画面6Gにバラバラと表示する。また、制御部120は、選択された検索キーに応じた検索キー表示(検索キーアイコン)K1を表示部106の表示画面6Gに表示する。   Specifically, the control unit 120 displays the images (thumbnail images) corresponding to the image data in the search range in a discrete manner on the display screen 6G of the display unit 106. Further, the control unit 120 displays a search key display (search key icon) K1 corresponding to the selected search key on the display screen 6G of the display unit 106.

そして、図14(A)に示すように、ユーザーが表示画面6Gに表示された検索キー表示K1の表示位置に対応するタッチパネル107の操作面上の位置に指等を接触させると、タッチパネル107からは、その接触位置を示す座標データを制御部120に供給する。   Then, as shown in FIG. 14A, when the user touches a position on the operation surface of the touch panel 107 corresponding to the display position of the search key display K1 displayed on the display screen 6G, the touch panel 107 Supplies coordinate data indicating the contact position to the control unit 120.

制御部120は、上述もしたように、表示画面6G上のどこにどのような情報を表示しているかを管理している。そして、制御部120は、タッチパネル107からの操作面上の指示位置を示す座標データと、当該指示位置に対応する表示部106の表示画面6G上の表示情報とに基づいて、検索キー表示K1が指示されたことを検知することができる。   As described above, the control unit 120 manages where and what information is displayed on the display screen 6G. Based on the coordinate data indicating the designated position on the operation surface from the touch panel 107 and the display information on the display screen 6G of the display unit 106 corresponding to the designated position, the control unit 120 displays the search key display K1. The instruction can be detected.

制御部120は、検索キー表示の指示は、当該検索キー表示に対応する検索キーを用いた画像検索の開始を指示するものであると認識し、選択された検索キーを用いた画像検索を行う。この場合、制御部120は、図12を用いて説明したように構成される検索キー関連度辞書をも参照し、検索キーに関連するキーワードを有する画像ファイルを検索して抽出する。   The control unit 120 recognizes that the search key display instruction instructs the start of an image search using the search key corresponding to the search key display, and performs an image search using the selected search key. . In this case, the control unit 120 also refers to the search key relevance dictionary configured as described with reference to FIG. 12, and searches for and extracts an image file having a keyword related to the search key.

そして、制御部120は、抽出した画像ファイルの画像データに応じたサムネイル画像を、検索キーに対するキーワードの関連度に応じた位置に表示する。この例の場合には、制御部120は、検索の結果得られた画像データを、表示画面6Gの検索結果表示領域Arが示す領域内であって、検索キーに対するキーワードの関連度に応じた位置に表示する。   Then, the control unit 120 displays a thumbnail image corresponding to the image data of the extracted image file at a position corresponding to the degree of association of the keyword with the search key. In the case of this example, the control unit 120 displays the image data obtained as a result of the search within the area indicated by the search result display area Ar on the display screen 6G, and the position according to the degree of relevance of the keyword to the search key. To display.

すなわち、図14(B)に検索結果表示領域Arだけを示したように、検索結果表示領域Ar内は、その中央部分から外側に向う方向に、関連度「高」の表示領域、関連度「中」の表示領域、関連度「低」の表示領域となっている。   That is, as only the search result display area Ar is shown in FIG. 14B, the search result display area Ar is displayed in the direction from the central portion to the outside, the display area of the relevance “high”, the relevance “ The display area is “medium” and the display area is “low”.

したがって、この例の場合、制御部120は、図14(B)において、検索キーに対して関連度が「高」のキーワードを有する画像ファイルのサムネイル画像を表示領域Arの中央部分ArHに表示する。   Therefore, in this example, in FIG. 14B, the control unit 120 displays the thumbnail image of the image file having the keyword having the “high” relevance level with respect to the search key in the central portion ArH of the display area Ar. .

そして、制御部120は、検索キーに対して関連度が「中」のキーワードを有する画像ファイルのサムネイル画像を表示領域Arの関連度が「高」の表示領域の外側の領域ArMに表示する。   Then, the control unit 120 displays the thumbnail image of the image file having the keyword “relevance” with respect to the search key in the area ArM outside the display area where the relevance degree of the display area Ar is “high”.

さらに、制御部120は、検索キーに対して関連度が「低」のキーワードを有する画像ファイルのサムネイル画像を表示領域Arの関連度が「中」の表示領域ArMの外側の領域ArLに表示する。   Further, the control unit 120 displays a thumbnail image of an image file having a keyword with a degree of relevance of “low” with respect to the search key in an area ArL outside the display area ArM with a degree of relevance of the display area Ar. .

このようにして、検索キーに対して関連度が「高」、「中」、「低」のキーワードを有する画像ファイルのサムネイル画像を、それぞれの関連度に応じた位置に表示することができるようにしている。   In this way, thumbnail images of image files having keywords of “high”, “medium”, and “low” with respect to the search key can be displayed at positions corresponding to the respective degrees of relevance. I have to.

なお、この例の場合、画像検索は、制御部120が、検索キーと検索キー関連度辞書とに基づいて、記録媒体135に格納されている画像ファイルの中から、検索キーに関連するキーワードを有する画像ファイルを検索して抽出する。   In the case of this example, for the image search, the control unit 120 selects a keyword related to the search key from the image files stored in the recording medium 135 based on the search key and the search key relevance dictionary. Search and extract the image file you have.

抽出した画像ファイルは、例えば、RAM123に一時記憶され、制御部120により画像データが関連度に応じて読み出されて伸張処理部110に供給され、ここで、伸張処理されてデータ圧縮前の画像データが復元される。   The extracted image file is temporarily stored in, for example, the RAM 123, and the image data is read out according to the degree of relevance by the control unit 120 and supplied to the decompression processing unit 110. Data is restored.

そして、伸張処理部110で伸張処理された画像データは、表示画像形成部111に供給され、ここで間引き処理されるなどしてサムネイルデータが形成されて、これが検索キーに対する自己の有するキーワードの関連度に応じた位置に配置される。   Then, the image data decompressed by the decompression processing unit 110 is supplied to the display image forming unit 111, where it is subjected to thinning processing to form thumbnail data, which is related to the keywords that the search key has. It is arranged at a position according to the degree.

このようにして、表示画像形成部111においては、1画面分の画像を構成する画像データを形成し、これを表示処理部105に供給される形式の画像信号に変換して、表示処理部105に供給する。   In this way, the display image forming unit 111 forms image data constituting an image for one screen, converts it into an image signal in a format supplied to the display processing unit 105, and displays the image processing unit 105. To supply.

表示処理部105は、表示画像形成部111からの画像信号の供給を受けて、これから表示部106に供給する画像信号を形成し、これを表示部106に供給する。これにより、表示部106の表示画面には、図14(A)に示したように、選択された検索キーに関連するキーワードを有する画像が、その関連度に応じた位置に表示される。   The display processing unit 105 receives the supply of the image signal from the display image forming unit 111, forms an image signal to be supplied to the display unit 106 and supplies the image signal to the display unit 106. As a result, as shown in FIG. 14A, an image having a keyword related to the selected search key is displayed on the display screen of the display unit 106 at a position corresponding to the degree of association.

なお、関連度が低くなるにつれて、絞り込まれた画像の透明度を高くしたり、明度を下げたりすることにより、関連度の異なるサムネイル画像を区別できるよう表示することも可能である。   Note that, as the degree of relevance decreases, the thumbnail images having different degrees of relevance can be displayed so as to be distinguished by increasing the transparency of the narrowed down image or decreasing the brightness.

これにより、検索キーに対して関連度の異なるキーワードを有する画像を、その関連度に応じた位置に表示し、ユーザーがその違いを意識しながら画像検索の結果を確認することができるようにされる。   As a result, images having keywords with different relevance levels with respect to the search key are displayed at positions corresponding to the relevance levels, and the user can check the result of the image search while being aware of the difference. The

そして、従来のように、検索キーに一致するキーワードを有する画像だけを検索するのではなく、検索キーに関連するキーワードを有するがお図をも検索することができ、関連度の違いをも考慮して検索結果を表示することができる。したがって、画像検索を効率よく行って、その結果を適切に利用することができる。   Instead of searching only for images that have keywords that match the search key as in the past, you can also search for drawings that have keywords related to the search key, taking into account differences in relevance Search results can be displayed. Therefore, the image search can be performed efficiently and the result can be used appropriately.

なお、ここでは、表示画像形成部111において、画像データを間引き処理するなどしてサムネイル画像を表示するためのサムネイルデータを形成するものとして説明した。しかし、これに限るものではない。   Here, it has been described that the display image forming unit 111 forms thumbnail data for displaying thumbnail images by thinning the image data. However, it is not limited to this.

画像データからサムネイルデータを形成する処理には負荷がかかる。そこで、各画像ファイルにおいて、予め画像データからサムネイルデータを形成しておき、これを各画像ファイルにおいて保持するようにしておいてもよい。   The process of forming thumbnail data from image data is burdensome. Therefore, thumbnail data may be formed in advance from image data in each image file and stored in each image file.

このように、予め各画像ファイルにサムネイルデータを形成して付加しておくことにより、伸張処理部110での画像データの伸張処理や、表示画像形成部111でのサムネイルデータの形成処理を省略することができる。   In this way, by previously forming and adding thumbnail data to each image file, the image data expansion processing in the expansion processing unit 110 and the thumbnail data formation processing in the display image forming unit 111 are omitted. be able to.

すなわち、各画像ファイルにサムネイルデータが存在する場合には、検索キーに応じた画像ファイルを抽出し、その画像ファイルからサムネイルデータを読み出して表示画像形成部111に供給する。   That is, when thumbnail data exists in each image file, the image file corresponding to the search key is extracted, and the thumbnail data is read from the image file and supplied to the display image forming unit 111.

これにより、図14に示した態様で、検索結果を検索キーに対して関連するキーワードを有する画像ファイルのサムネイル画像を、その関連度に応じた位置に表示することができる。   Thereby, in the mode shown in FIG. 14, the thumbnail image of the image file having the keyword related to the search result with respect to the search key can be displayed at a position corresponding to the degree of association.

[画像検索の結果を確定する操作]
そして、この実施の形態の撮像装置100においては、図9〜図14を用いて説明したように、検索キーを用いた画像検索が行われ、その結果が表示部106の表示画面6Gに表示されると、検索結果を確定するための所定の操作の受け付け待ちとなる。
[Operation to confirm image search results]
In the imaging apparatus 100 of this embodiment, as described with reference to FIGS. 9 to 14, image search using a search key is performed, and the result is displayed on the display screen 6 </ b> G of the display unit 106. Then, it waits for acceptance of a predetermined operation for confirming the search result.

図15は、この実施の形態の撮像装置100において、画像検索の結果を確定するための所定の操作として行うことが可能な操作について説明するための図である。   FIG. 15 is a diagram for describing an operation that can be performed as a predetermined operation for determining the result of the image search in the imaging apparatus 100 according to the present embodiment.

図15(a)は、図9〜図14を用いて説明したように、選択された検索キーを用いて画像検索を行い、その結果を表示した状態を示すものとする。このように、画像検索の結果が表示された状態にあるときに、図15(b)に示すように、撮像装置100を起こす操作、撮像装置100を傾ける操作、撮像装置100を振る操作、撮像装置100を叩く操作を、検索結果を確定するための所定の操作として検出する。   FIG. 15A shows a state in which an image search is performed using the selected search key and the result is displayed as described with reference to FIGS. As described above, when the result of the image search is displayed, as shown in FIG. 15B, an operation for raising the imaging device 100, an operation for tilting the imaging device 100, an operation for shaking the imaging device 100, and imaging. The operation of hitting the device 100 is detected as a predetermined operation for determining the search result.

これらの操作が撮像装置100に対して行われた場合、撮像装置100のモーションセンサ137は、そのそれぞれの操作に応じた自機の動きを検出し、その検出結果を制御部120に通知する。   When these operations are performed on the imaging apparatus 100, the motion sensor 137 of the imaging apparatus 100 detects the movement of the own apparatus according to each operation, and notifies the control unit 120 of the detection result.

制御部120は、モーションセンサ137からの検出出力に基づき、自機に対してどのような操作が行われたかを判別することができる。そして、制御部120は、図15(b)に示したいずれかの操作、すなわち、起こされる、傾けられる、振られる、叩かれるといった操作が行われたと判別した場合には、表示されている検索結果を確定するようにする。   Based on the detection output from the motion sensor 137, the control unit 120 can determine what operation has been performed on the own device. If the control unit 120 determines that any of the operations shown in FIG. 15B, that is, an operation such as being awakened, tilted, swung, or struck, has been performed, the displayed search is performed. Try to confirm the result.

すなわち、制御部120は、画像検索の結果、表示画面6Gの所定の位置に集まるように表示されたサムネイル画像に対応する画像ファイルを、画像検索の結果として確定して保持するようにする。   That is, as a result of the image search, the control unit 120 determines and holds an image file corresponding to the thumbnail image displayed so as to be gathered at a predetermined position on the display screen 6G as a result of the image search.

具体的には、当該検索結果が消去されることがないように、制御部120は、当該検索結果を例えばRAM123やEEPROM124などに一時記憶して保持するようにし、明確な解除処理が行われるまで、その状態を維持する。   Specifically, the control unit 120 temporarily stores and holds the search result in, for example, the RAM 123 or the EEPROM 124 so that the search result is not erased until a clear canceling process is performed. Maintain that state.

この後、制御部120は、確定した画像検索の結果の画像ファイル群を処理の対象として所定の処理を行う。例えば、確定した画像検索の結果の画像ファイル群を所定の画像フォルダに格納する処理を行う。   Thereafter, the control unit 120 performs a predetermined process on the image file group as a result of the confirmed image search. For example, a process of storing an image file group as a result of the confirmed image search in a predetermined image folder is performed.

当該フォルダへの格納処理は、制御部120が書き込み/読み出し部134を制御して行う。具体的には、画像検索の結果得られた画像ファイル群のそれぞれの画像ファイルについて、そのそれぞれの画像ファイルにアクセスするための情報を、記録媒体135上に形成される所定の画像フォルダに記録する処理である。   The storage processing in the folder is performed by the control unit 120 controlling the writing / reading unit 134. Specifically, for each image file of the image file group obtained as a result of the image search, information for accessing each image file is recorded in a predetermined image folder formed on the recording medium 135. It is processing.

この場合、制御部120は、例えば、表示画像形成部111、表示処理部105を制御して、図15(c)に示すように、画像ファイルを格納するようにする画像フォルダのイメージ画像を表示する。そして、制御部120は、確定した画像検索の結果の画像ファイル群を所定の画像フォルダに格納する処理を行う。   In this case, for example, the control unit 120 controls the display image forming unit 111 and the display processing unit 105 to display the image image of the image folder that stores the image file as illustrated in FIG. To do. Then, the control unit 120 performs a process of storing the image file group as a result of the confirmed image search in a predetermined image folder.

このように、この実施の形態の撮像装置100においては、画像検索を行った後に、図15(b)に示したように、起こす、傾ける、振る、叩くといった簡単な操作が行われた場合に、所定の処理を実行することができる。   As described above, in the imaging apparatus 100 of this embodiment, after performing an image search, as shown in FIG. 15B, when a simple operation such as raising, tilting, shaking, or hitting is performed. A predetermined process can be executed.

この場合、制御部120は、画像検索の結果得られた画像ファイル群を処理の対象とし、所定の処理を実行することができる。   In this case, the control unit 120 can execute a predetermined process using the image file group obtained as a result of the image search as a processing target.

なお、ここでは、画像検索の結果得られた画像ファイル群を、確定して保持した後、所定の画像フォルダに格納する処理を行う場合を例にして説明したが、これに限るものではない。   Here, the case where the image file group obtained as a result of the image search is determined and stored and then stored in a predetermined image folder has been described as an example, but the present invention is not limited to this.

例えば、画像検索の結果得られた画像ファイル群を再生処理することもできる。この再生処理は、確定して保持した画像ファイル群のそれぞれの画像データを、制御部120の制御により、伸張処理部110、表示画像形成部111、表示処理部105を通じて処理し、再生画像を表示部106の表示画面6Gに表示する処理である。   For example, an image file group obtained as a result of image search can be reproduced. In this reproduction process, each image data of the image file group that has been determined and held is processed through the expansion processing unit 110, the display image forming unit 111, and the display processing unit 105 under the control of the control unit 120, and a reproduced image is displayed. This is a process of displaying on the display screen 6G of the unit 106.

また、詳しくは後述するが、画像検索の結果得られた画像ファイル群を他の撮像装置などに送信したりするなどのこともできる。この送信処理は、制御部120により制御される通信部141を通じて行われるものである。   As will be described in detail later, an image file group obtained as a result of the image search can be transmitted to another imaging device or the like. This transmission process is performed through the communication unit 141 controlled by the control unit 120.

この場合、画像検索の結果得られた画像ファイル群に対してどのような処理を実行するかを予め設定するようにしておき、上述したように、所定の操作が撮像装置100に対して行われた場合に、その設定された処理を実行するようにすることもできる。   In this case, what kind of processing is to be performed on the image file group obtained as a result of the image search is set in advance, and a predetermined operation is performed on the imaging apparatus 100 as described above. In such a case, the set processing can be executed.

また、撮像装置100に対して行う、起こす、傾ける、振る、叩くといった各操作に対して、別々の処理を割り当てるようにすることもできる。   Also, separate processing can be assigned to each operation such as raising, tilting, shaking, and hitting the imaging apparatus 100.

例えば、撮像装置100を傾ける操作を画像検索の結果得られた画像ファイル群のフォルダへの格納処理に割り当てる。また、撮像装置100を振る操作を画像検索の結果得られた画像ファイル群の再生処理に割り当てる。また、撮像装置100を叩く操作を画像検索の結果得られた画像ファイル群を他機への送信処理に割り当てる。   For example, the operation of tilting the imaging device 100 is assigned to the storage processing of the image file group obtained as a result of the image search in the folder. Further, the operation of shaking the imaging device 100 is assigned to the reproduction process of the image file group obtained as a result of the image search. In addition, an image file group obtained as a result of the image search is assigned to an operation of hitting the image capturing apparatus 100 for transmission processing to another device.

このようにすることによって、撮像装置100に対して行う操作に応じて、異なる処理を実行させるようにすることができる。   In this way, different processes can be executed in accordance with operations performed on the imaging apparatus 100.

[画像検索時の処理の詳細]
次に、この実施の形態の撮像装置100において行われる画像検索時の処理について説明する。この画像検索時の処理は、上述もしたように、検索範囲の設定、検索キーの選択、画像検索の初期画面の表示、画像検索処理、画像検索の結果の確定処理を含む一連の処理である。
[Details of processing during image search]
Next, processing at the time of image search performed in the imaging apparatus 100 of this embodiment will be described. As described above, this image search process is a series of processes including search range setting, search key selection, image search initial screen display, image search process, and image search result confirmation process. .

図16、図17は、撮像装置100において行われる画像検索時の処理について説明するためのフローチャートである。この図16、図17に示すフローチャートの処理は、上述もしたよう、表示されたメニューから、メニュー項目「画像検索」が選択された場合に、主に制御部120によって実行される処理である。   FIGS. 16 and 17 are flowcharts for explaining processing at the time of image search performed in the imaging apparatus 100. The processes of the flowcharts shown in FIGS. 16 and 17 are processes mainly executed by the control unit 120 when the menu item “image search” is selected from the displayed menu, as described above.

図16、図17に示す処理が実行されると、制御部120は、図5〜図7を用いて説明したように、画像の検索範囲の設定及び検索キーの選択処理を実行する(ステップS101)。   When the processing shown in FIGS. 16 and 17 is executed, the control unit 120 executes processing for setting an image search range and selecting search keys as described with reference to FIGS. 5 to 7 (step S101). ).

そして、制御部120は、ステップS101の処理において、終了操作がされたか否かを判断する(ステップS102)。ステップS102の判断処理において、終了操作がされたと判断したときには、制御部120は、画像検索処理を終了する処理を行い(ステップS103)、この図16、図17に示す処理を終了して、例えばメニュー表示に戻るようにする。   And the control part 120 judges whether completion | finish operation was performed in the process of step S101 (step S102). When it is determined in the determination process of step S102 that the end operation has been performed, the control unit 120 performs a process of ending the image search process (step S103), ends the processes shown in FIGS. Return to the menu display.

また、ステップS102の判断処理において、終了操作はされていないと判断したときには、制御部120は、検索キーの選択が適切に行われた判断し、画像検索の初期画面の表示処理を実行する(ステップS104)。   If it is determined in the determination process in step S102 that the end operation has not been performed, the control unit 120 determines that the search key has been properly selected, and executes an image search initial screen display process ( Step S104).

ステップS104においては、詳しくは後述もするが、図8を用いて説明したように、画像検索の初期画面を表示するための所定の操作を受け付けるようにし、当該操作を受け付けた場合に、画像検索の初期画面を表示する処理を行う。   In step S104, as will be described in detail later, as described with reference to FIG. 8, a predetermined operation for displaying the initial image search screen is received, and when the operation is received, the image search is performed. Processing to display the initial screen of.

そして、制御部120は、タッチスクリーン108等を通じて使用者からの操作入力を受け付けるようにし(ステップS105)、操作入力を受け付けたか否かを判断する(ステップS106)。   Then, the control unit 120 receives an operation input from the user through the touch screen 108 or the like (step S105), and determines whether the operation input has been received (step S106).

ステップS106の判断処理において、ユーザーからの操作入力を受け付けていないと判断したときには、ステップS105からの処理を繰り返し、ユーザーからの操作入力を待つようにする。   If it is determined in step S106 that the operation input from the user is not accepted, the process from step S105 is repeated to wait for the operation input from the user.

ステップS106の判断処理において、ユーザーからの操作入力を受け付けたと判断したときには、選択された検索キーに対応する検索キー表示がユーザーによって指示するようにされたか否かを判断する(ステップS107)。   If it is determined in step S106 that an operation input from the user has been accepted, it is determined whether or not a search key display corresponding to the selected search key is instructed by the user (step S107).

ステップS107の判断処理において、選択された検索キーに対応する検索キー表示がユーザーによって指示されていないと判断したときには、制御部120は、ステップS105において受け付けた操作入力に応じた処理を実行する(ステップS108)。   If it is determined in step S107 that the search key display corresponding to the selected search key is not instructed by the user, the control unit 120 executes a process corresponding to the operation input received in step S105 ( Step S108).

このステップS108においては、ユーザーの操作入力に応じて種々の処理を行うことができるようにされる。例えば、検索キーの変更、追加処理等をも行うことができるようにされている。   In step S108, various processes can be performed in accordance with user operation input. For example, the search key can be changed and added.

そして、ステップS107の判断処理において、検索キー表示がユーザーによって指示されたと判断したときには、制御部120は、指示された検索キー表示に対応する検索キーを用いて画像検索を実行し、検索結果を表示する(ステップS109)。   If it is determined in step S107 that the search key display is instructed by the user, the control unit 120 executes an image search using the search key corresponding to the instructed search key display, and displays the search result. It is displayed (step S109).

ステップS109において制御部120は、図9、図10、図11、図14を用いて説明したように、検索キーに応じた画像ファイルのサムネイル画像を表示画面6G上の所定の場所に集めるようにして表示し、図17の処理に進む。   In step S109, as described with reference to FIGS. 9, 10, 11, and 14, the control unit 120 collects the thumbnail images of the image files corresponding to the search key at a predetermined location on the display screen 6G. Display, and the process proceeds to the process of FIG.

そして、制御部120は、検索キー表示へのユーザーの指等の接触が終了したか否かを判断する(ステップS110)。ステップS110の判断処理において、まだ接触が継続していると判断したときには、ステップS110からの処理を繰り返し、接触が終了するまで待ち状態となる。   Then, the control unit 120 determines whether or not the contact of the user's finger or the like on the search key display has ended (step S110). If it is determined in step S110 that the contact is still continuing, the process from step S110 is repeated and the process waits until the contact ends.

ステップS110の判断処理において、検索キー表示へのユーザーの指等の接触が終了したと判断したときは、制御部120は、時計回路の機能を用い、検索キー表示へのユーザーの指等の接触が終了してからの時間Tsの計測を開始する(ステップS111)。当該時計回路は、図1には示さなかったが、上述もしたように、撮像装置100が有するものである。   When it is determined in step S110 that the contact of the user's finger or the like to the search key display is completed, the control unit 120 uses the function of the clock circuit to contact the user's finger or the like to the search key display. The measurement of the time Ts after ending is started (step S111). Although not shown in FIG. 1, the clock circuit is included in the imaging apparatus 100 as described above.

そして、制御部120は、ステップS111において計測を開始した時間Tsが、予め決められた一定時間T以上になったか否かを判断する(ステップS112)。ステップS112の判断処理において、計測時間Tsが一定時間T以上になっていないと判断したときには、制御部120は、ユーザーからの操作入力を受け付ける(ステップS113)。   And the control part 120 judges whether time Ts which started measurement in step S111 became more than predetermined time T (step S112). When it is determined in the determination process of step S112 that the measurement time Ts is not equal to or longer than the predetermined time T, the control unit 120 receives an operation input from the user (step S113).

そして、制御部120は、ユーザーからの操作入力を受け付けたか否かを判断する(ステップS114)。ステップS114の判断処理において、操作入力は受け付けていないと判断したときには、制御部120は、ステップS112からの処理を繰り返す。   And the control part 120 judges whether the operation input from a user was received (step S114). If it is determined in the determination process in step S114 that no operation input has been received, the control unit 120 repeats the process from step S112.

ステップS114の判断処理において、操作入力を受け付けたと判断したときには、制御部120は、受け付けた操作入力は、検索結果の確定操作か否かを判断する(ステップS115)。   When it is determined in the determination process of step S114 that the operation input has been received, the control unit 120 determines whether or not the received operation input is a search result confirmation operation (step S115).

ステップS115の判断処理において、受け付けた操作入力は、検索結果の確定操作であると判断したときには、制御部120は、指示された画像群をグループとして確定する(ステップS116)。このステップS116の処理は、画像検索の結果の画像ファイル群をそのまま維持するようにする処理である。   In the determination process of step S115, when determining that the received operation input is a search result determination operation, the control unit 120 determines the instructed image group as a group (step S116). The processing in step S116 is processing for maintaining the image file group as a result of the image search as it is.

ステップS116の処理の後、制御部120は、確定したグループの画像を所定の画像フォルダに格納したり、再生したり、他機に送信したりするなど、確定したグループの画像についての所定の処理を行うようにする(ステップS117)。この後、制御部120は、例えば、図16のステップS101からの処理を繰り返すようにする。   After the processing in step S116, the control unit 120 performs predetermined processing on the confirmed group images, such as storing the confirmed group images in a predetermined image folder, playing back the images, and transmitting the images to other devices. (Step S117). Thereafter, the control unit 120 repeats the processing from step S101 of FIG. 16, for example.

このステップS115〜ステップS117の処理が、図15を用いて説明した画像検索の結果の確定処理と、確定した画像ファイル群を処理対象とした所定の処理を実行する処理となる。   The processes in steps S115 to S117 are a process for determining the result of the image search described with reference to FIG. 15 and a predetermined process for processing the determined image file group.

また、ステップS115の判断処理において、受け付けた操作入力は、検索結果の確定操作ではないと判断したときには、制御部120は、受け付けた操作入力は、検索結果の解除操作か否かを判断する(ステップS118)。   In the determination process of step S115, when it is determined that the received operation input is not a search result confirmation operation, the control unit 120 determines whether or not the received operation input is a search result canceling operation ( Step S118).

ステップS118の判断処理において、受け付けた操作入力が、検索結果の解除処理ではないと判断したときには、制御部120は、受け付けた操作入力に応じた処理を実行する(ステップS119)。   When it is determined in the determination process of step S118 that the received operation input is not a search result canceling process, the control unit 120 executes a process according to the received operation input (step S119).

また、ステップS118の判断処理において、受け付けた操作入力が、検索結果の解除処理であると判断したときには、制御部120は、例えば、画像検索の結果の表示を解除し、画像検索の初期画面に戻る(ステップS120)。   In the determination process of step S118, when it is determined that the received operation input is a search result canceling process, for example, the control unit 120 cancels the display of the image search result and displays the initial image search screen. Return (step S120).

このステップS120の処理の後、制御部120は、図16のステップS105からの処理を繰り返し、表示されている検索キー表示に応じた画像検索を行うようにしたり、新たな検索キーを追加して画像検索を行うようにしたりすることができるようにされる。   After the processing in step S120, the control unit 120 repeats the processing from step S105 in FIG. 16 to perform image search according to the displayed search key display or add a new search key. Image search can be performed.

また、ステップS112の判断処理において、計測時間Tsが一定時間T以上になったと判断したときには、画像検索の結果の表示を解除し、画像検索の初期画面に戻る(ステップS120)。そして、上述もしたように、図16のステップS105からの処理を繰り返すようにする。   If it is determined in step S112 that the measurement time Ts is equal to or longer than the predetermined time T, the display of the image search result is canceled and the screen returns to the initial image search screen (step S120). Then, as described above, the processing from step S105 in FIG. 16 is repeated.

このように、この実施の形態の撮像装置100においては、画像検索の範囲の設定、検索キーの選択を行った後、簡単な操作で、画像検索の初期画面を表示するようにし、画像検索を行うようにすることができる。   As described above, in the imaging apparatus 100 of this embodiment, after setting the image search range and selecting the search key, the initial image search screen is displayed by a simple operation, and the image search is performed. Can be done.

さらに、画像検索を実行した後、画像検索の結果得られた画像ファイル群を、簡単な操作で確定するようにし、その確定した画像ファイル群を処理対象として、フォルダへの格納、再生、他機への伝送といった所定の処理を実行することができる。   Further, after executing the image search, the image file group obtained as a result of the image search is determined by a simple operation, and the determined image file group is set as a processing target, stored in a folder, played back, and other devices. Predetermined processing such as transmission to can be executed.

なお、画像検索の結果得られた画像ファイル群を確定するとは、上述もしたように、当該画像検索の結果を解除することなく、画像検索の結果を保持することを意味している。そして、このようにして確定した、画像検索の結果得られた画像ファイル群を処理対象として、上述もしたように、所定の処理が実行するようにされる。   Note that the determination of the image file group obtained as a result of the image search means that the result of the image search is retained without canceling the result of the image search, as described above. Then, as described above, the predetermined processing is executed with the image file group obtained as a result of the image search determined as described above as a processing target.

また、画像検索の結果の表示の解除は、ユーザーがいちいち行うことなく、検索キーを指示する操作を解除した後、一定時間が経過するまでに確定操作が行われない場合に、自動的に解除することができる。   Also, the display of the image search results is automatically canceled when the user does not perform the search key operation and the confirmation operation is not performed until a certain period of time has elapsed after canceling the operation to specify the search key. can do.

これにより、ユーザーは、画像検索の結果表示をいちいち解除する操作を行うことなく、次の検索キーを用いた画像検索を行うようにするなどのことができるようにされる。   Accordingly, the user can perform an image search using the next search key without performing an operation for canceling the display of the result of the image search one by one.

[初期画面の表示処理]
次に、図16、図17を用いて説明した画像検索処理のステップS104において実行される画像検索の初期画面の表示処理について具体的に説明する。図18は、図16に示したステップS104において実行される画像検索の初期画面の表示処理を説明するためのフローチャートである。
[Initial screen display processing]
Next, the display process of the initial image search screen executed in step S104 of the image search process described with reference to FIGS. 16 and 17 will be specifically described. FIG. 18 is a flowchart for explaining display processing of an initial screen for image search executed in step S104 shown in FIG.

まず、制御部120は、表示画像形成部111、表示処理部105を制御し、画像検索の初期画面を表示するための所定の操作を行うことを促すメッセージを形成して、表示部106の表示画面6Gに表示する(ステップS1041)。   First, the control unit 120 controls the display image forming unit 111 and the display processing unit 105 to form a message that prompts the user to perform a predetermined operation for displaying an initial image search screen. It is displayed on the screen 6G (step S1041).

ここで画像検索の初期画面を表示するための所定の操作は、図8(b)を用いて説明したように、撮像装置100を倒す操作、傾ける操作、振る操作、叩く操作のいずれかである。   Here, as described with reference to FIG. 8B, the predetermined operation for displaying the initial image search screen is one of the operation of tilting, tilting, shaking, and tapping the imaging apparatus 100. .

そして、制御部120は、ユーザーからの自機に対する操作(動作)を受け付けるようにし(ステップS1042)、画像検索の初期画面を表示するための所定の操作がなされたか否かを判断する(ステップS1043)。   Then, the control unit 120 receives an operation (action) from the user to the own device (step S1042), and determines whether or not a predetermined operation for displaying the initial image search screen has been performed (step S1043). ).

このステップS1043の判断処理は、制御部120がモーションセンサ137からの検出出力に基づいて判断することができる。なお、撮像装置100が叩かれたか否かについては、セット上部のタッチパネル1036からの検出出力に基づいて判別するように構成することも可能である。   The determination processing in step S1043 can be determined by the control unit 120 based on the detection output from the motion sensor 137. Note that whether or not the imaging device 100 has been hit can be determined based on the detection output from the touch panel 1036 at the top of the set.

ステップS1043の判断処理において、画像検索の初期画面を表示するための所定の操作が行われていないと判断したときには、ステップS1043からの処理を繰り返し、当該所定の操作が行われるまで待ち状態となる。   If it is determined in step S1043 that the predetermined operation for displaying the initial image search screen has not been performed, the processing from step S1043 is repeated and the process waits until the predetermined operation is performed. .

ステップS1043の判断処理において、画像検索の初期画面を表示するための所定の操作が行われたと判断したときには、制御部120は、検索範囲の画像ファイルのサムネイル画像を表示画面6Gにバラバラに表示する(ステップS1044)。   When it is determined in step S1043 that the predetermined operation for displaying the initial image search screen has been performed, the control unit 120 displays the thumbnail images of the image files in the search range on the display screen 6G. (Step S1044).

このステップS1044の処理は、図16に示したステップS101の処理により設定された検索範囲の画像ファイルのサムネイル画像を表示画面6G上にバラバラに表示する処理である。   The process of step S1044 is a process of displaying thumbnail images of image files in the search range set by the process of step S101 shown in FIG. 16 on the display screen 6G.

すなわち、ステップS1044の処理は、上述したサムネイル画像を表示する処理と同様に、制御部120が、伸張処理部110、表示画像形成部111、表示処理部111を制御して行う処理である。   That is, the processing in step S1044 is processing performed by the control unit 120 by controlling the expansion processing unit 110, the display image forming unit 111, and the display processing unit 111, similarly to the processing for displaying the thumbnail image described above.

具体的には、ステップS1044において制御部120は、上記各部を制御し、検索範囲に属する画像ファイルの画像データからサムネイルデータを形成し、これを表示画面6Gにランダムに表示する。   Specifically, in step S1044, the control unit 120 controls the above-described units, forms thumbnail data from image data of image files belonging to the search range, and randomly displays the thumbnail data on the display screen 6G.

この後、制御部120は、表示画像形成部111、表示処理部111を制御して、ステップS101において選択された検索キーに応じた検索キー表示(検索キーアイコン)を表示画面6Gに表示し、画像検索を可能する(ステップS1045)。そして、この図18に示す処理を終了する。   Thereafter, the control unit 120 controls the display image forming unit 111 and the display processing unit 111 to display a search key display (search key icon) corresponding to the search key selected in step S101 on the display screen 6G. Image retrieval is possible (step S1045). Then, the process shown in FIG. 18 ends.

このように、この実施の形態の撮像装置100においては、画像の検索範囲を設定し、検索キーを選択した後に、撮像装置100を倒す、傾ける、振る、叩くといった簡単な操作により、画像検索の初期画面を表示することができる。すなわち、非常に簡単な操作で、画像検索のための準備を整えることができる。   As described above, in the imaging apparatus 100 according to this embodiment, after setting an image search range and selecting a search key, image search can be performed by a simple operation such as tilting, tilting, shaking, or hitting the imaging apparatus 100. An initial screen can be displayed. That is, it is possible to prepare for image search with a very simple operation.

また、この画像検索の初期画面を表示するための操作と同様の簡単な操作により、画像検索の結果得られた画像ファイル群を確定して、その確定した画像ファイル群を処理対象とする所定の処理を行うようにすることができる。   Further, the image file group obtained as a result of the image search is determined by a simple operation similar to the operation for displaying the initial screen of the image search, and a predetermined image file group as a processing target is determined. Processing can be performed.

なお、当該、画像検索の結果得られた画像ファイル群を確定し、これに対して所定の処理を実行する処理は、図16、図17に示した処理の主にステップS115〜ステップS117において行われるものである。   The process of determining the image file group obtained as a result of the image search and executing a predetermined process on the group is performed mainly in steps S115 to S117 of the processes shown in FIGS. It is what is said.

[画像ファイル群の他機への送信]
上述したように、この実施の形態の撮像装置100においては、ユーザーが選択した検索キーを用いて画像検索を行い、その結果得られた画像ファイル群を確定し、その確定した画像ファイル群を処理対象として所定の処理を行えることを説明した。
[Send image files to other devices]
As described above, in the imaging apparatus 100 of this embodiment, an image search is performed using the search key selected by the user, the resulting image file group is determined, and the determined image file group is processed. It has been explained that predetermined processing can be performed as an object.

ここで所定の処理は、上述もしたように、画像ファイル群の画像フォルダへの格納処理、画像ファイル群の再生処理、画像ファイル群の他機への送信処理等である。   Here, as described above, the predetermined processing includes storage processing of the image file group in the image folder, reproduction processing of the image file group, transmission processing to the other device of the image file group, and the like.

画像フォルダへの格納処理は上述もしたように、撮像装置100において閉じた処理である。すなわち、制御部120の制御により、確定した画像ファイル群を所定の画像フォルダに属するものとなるように、当該画像フォルダが有する情報に、当該画像ファイル群のそれぞれの画像ファイルにアクセスするための情報を書き加えればよい。   The storage process in the image folder is a process closed in the imaging device 100 as described above. That is, information for accessing each image file of the image file group to the information of the image folder so that the determined image file group belongs to the predetermined image folder under the control of the control unit 120. Should be added.

また、画像ファイル群の再生処理もまた、撮像装置100において閉じた処理である。すなわち、この場合には、制御部120が、伸張処理部110、表示画像形成部111、表示処理部105を制御し、特定した画像ファイル群のそれぞれの画像データに応じた画像を再生し、表示部106の表示画面6Gに表示するようにすればよい。   The image file group reproduction process is also a process closed in the imaging apparatus 100. That is, in this case, the control unit 120 controls the expansion processing unit 110, the display image forming unit 111, and the display processing unit 105 to reproduce and display an image corresponding to each image data of the specified image file group. It may be displayed on the display screen 6G of the unit 106.

これに対して、画像ファイル群を他機に送信する処理は、他機との間においてコミュニケーションが必要になり、画像ファイル群を、画像フォルダに格納したり、再生したりする処理とは若干異なる部分がある。   On the other hand, the process of transmitting the image file group to the other device requires communication with the other device, and is slightly different from the process of storing the image file group in the image folder or playing it back. There is a part.

以下においては、この実施の形態の撮像装置100が、画像検索の結果得られた画像ファイル群を、同様に構成された他の撮像装置(他機)に送信する場合について説明する。図19〜図22は、画像検索の結果得られた画像ファイル群を、同様に構成された他の撮像装置(他機)に送信する場合について説明するための図である。   Hereinafter, a case will be described in which the imaging device 100 according to this embodiment transmits an image file group obtained as a result of image search to another imaging device (another device) configured similarly. 19 to 22 are diagrams for explaining a case where an image file group obtained as a result of an image search is transmitted to another imaging device (another device) configured similarly.

画像検索を行った結果が表示画面6Gに表示されている場合において、撮像装置100に対して、以下の操作が行われた場合には、画像検索の結果得られた画像ファイル群を、同様に構成された他の撮像装置(他機)に送信することが指示されたと判断する。   When the result of the image search is displayed on the display screen 6G, when the following operation is performed on the imaging apparatus 100, the image file group obtained as a result of the image search is similarly selected. It is determined that an instruction to transmit to another configured imaging device (another device) has been issued.

すなわち、撮像装置100が、図19(a)に示すように傾けられた場合、図19(b)に示すように左右に振られた場合、図19(c)に示すように撮像装置100の上面が叩かれた場合には、他機への送信指示であると判断する。   That is, when the imaging device 100 is tilted as shown in FIG. 19A, when the imaging device 100 is swung left and right as shown in FIG. 19B, the imaging device 100 as shown in FIG. 19C. If the upper surface is struck, it is determined that it is a transmission instruction to another machine.

そして、他機への送信指示を受け付けた撮像装置100は、送信先の機器との間で通信を行い、通信のコネクションを確立した後に、画像検索の結果得られた画像ファイル群を当該送信先の機器に対して送信する。   The imaging apparatus 100 that has received an instruction to transmit to another device communicates with a transmission destination device, establishes a communication connection, and then transmits the image file group obtained as a result of the image search to the transmission destination. Sent to other devices.

一方、送信先の機器においては、送信元の撮像装置100からの画像ファイル群を受信し、自機の記録媒体の所定の画像フォルダに格納する処理を行う。   On the other hand, the transmission destination device receives the image file group from the transmission source imaging apparatus 100 and stores the image file group in a predetermined image folder of the recording medium of the own device.

なお、送信元の撮像装置100においては、画像ファイル群の送信途中においては、データ送信中であることを示す表示を行う。また、送信先の機器においては、画像ファイル群の受信途中においては、データ受信中であることを示す表示を行う。   In the transmission source imaging apparatus 100, during the transmission of the image file group, a display indicating that data transmission is in progress is performed. In addition, in the transmission destination device, during the reception of the image file group, a display indicating that data is being received is displayed.

図20〜図21に示すように、図1を示して説明した構成を有する撮像装置100(s)と撮像装置100(R)との間で、データの送受を行う場合について具体的に考える。   As shown in FIGS. 20 to 21, a specific case will be considered in which data is transmitted and received between the imaging device 100 (s) and the imaging device 100 (R) having the configuration described with reference to FIG. 1.

図20(a)に示すように、画像検索の結果得られた画像ファイル群(画像ファイルのサムネール画像群)が表示画面6Gに表示された状態にある送信元の撮像装置100(S)が傾けられたとする。この場合、送信元の撮像100(S)は、送信先の撮像装置100(R)との間で相互に通信を行い、通信のコネクションを確立するようにする。   As shown in FIG. 20A, the image capturing apparatus 100 (S) that is the transmission source in a state where the image file group (thumbnail image group of image files) obtained as a result of the image search is displayed on the display screen 6G is tilted. Suppose that In this case, the transmission source imaging device 100 (S) communicates with the transmission destination imaging device 100 (R) to establish a communication connection.

この後、送信元の撮像装置100(S)から画像検索の結果の画像ファイル群を送信する。一方、送信先の撮像装置100(R)は、送信されてくる画像ファイル群を受信し、これを記録媒体に格納する処理を行う。   Thereafter, the image file group as a result of the image search is transmitted from the imaging apparatus 100 (S) as the transmission source. On the other hand, the transmission destination imaging apparatus 100 (R) performs a process of receiving the transmitted image file group and storing it in a recording medium.

この場合、送信元の撮像装置100(S)においては、図20(a)、(b)、(c)の上段に示すように、送信対象である画像検索の結果の画像ファイル群の送信状態に応じて、当該画像ファイル群の表示を変化させ、データの送信中であることを示す。   In this case, in the transmission source imaging apparatus 100 (S), as shown in the upper part of FIGS. 20A, 20B, and 20C, the transmission state of the image file group as a result of the image search that is the transmission target. Accordingly, the display of the image file group is changed to indicate that data is being transmitted.

一方、送信先の撮像装置100(R)においては、図20(a)、(b)、(c)の下段に示すように、画像ファイル群の受信状態に応じて、受信した画像ファイル群の表示を変化させ、データの送信中であることを示す。   On the other hand, in the imaging device 100 (R) as the transmission destination, as shown in the lower part of FIGS. 20A, 20 </ b> B, and 20 </ b> C, according to the reception state of the image file group, The display is changed to indicate that data is being transmitted.

また、図21(a)に示すように、画像検索の結果得られた画像ファイル群(画像ファイルのサムネール画像群)が表示画面6Gに表示された状態にある送信元の撮像装置100(S)が例えば左右に振られたとする。   Further, as shown in FIG. 21A, the image capturing apparatus 100 (S) as the transmission source in a state where the image file group (thumbnail image group of the image file) obtained as a result of the image search is displayed on the display screen 6G. For example, suppose that it is swung from side to side.

この場合も図20を用いて説明した場合と同様に、送信元の撮像100(S)は、送信先の撮像装置100(R)との間で相互に通信を行い、通信のコネクションを確立するようにする。   In this case as well, as in the case described with reference to FIG. 20, the transmission source imaging device 100 (S) communicates with the transmission destination imaging device 100 (R) to establish a communication connection. Like that.

この後、送信元の撮像装置100(S)から画像検索の結果の画像ファイル群を送信する。一方、送信先の撮像装置100(R)は、送信されてくる画像ファイル群を受信し、これを記録媒体に格納する処理を行う。   Thereafter, the image file group as a result of the image search is transmitted from the imaging apparatus 100 (S) as the transmission source. On the other hand, the transmission destination imaging apparatus 100 (R) performs a process of receiving the transmitted image file group and storing it in a recording medium.

そして、送信元の撮像装置100(S)においては、図21(a)、(b)、(c)の上段に示すように、送信対象である画像検索の結果の画像ファイル群の送信状態に応じて、当該画像ファイル群の表示を変化させ、データの送信中であることを示す。   Then, as shown in the upper part of FIGS. 21A, 21B, and 21C, the image capturing apparatus 100 (S) that is the transmission source sets the transmission state of the image file group as a result of the image search that is the transmission target. In response, the display of the image file group is changed to indicate that data is being transmitted.

一方、送信先の撮像装置100(R)においては、図21(a)、(b)、(c)の下段に示すように、画像ファイル群の受信状態に応じて、受信した画像ファイル群の表示を変化させ、データの送信中であることを示す。   On the other hand, in the imaging device 100 (R) as the transmission destination, as shown in the lower part of FIGS. 21A, 21 </ b> B, and 21 </ b> C, according to the reception state of the image file group, The display is changed to indicate that data is being transmitted.

また、図22(a)に示すように、画像検索の結果得られた画像ファイル群(画像ファイルのサムネール画像群)が表示画面6Gに表示された状態にある送信元の撮像装置100(S)が例えばセットの上面を叩かれたとする。   Also, as shown in FIG. 22A, the image capturing apparatus 100 (S) that is the transmission source in a state where the image file group (thumbnail image group of the image file) obtained as a result of the image search is displayed on the display screen 6G. For example, suppose that the upper surface of the set is hit.

この場合も図20、図21を用いて説明した場合と同様に、送信元の撮像100(S)は、送信先の撮像装置100(R)との間で相互に通信を行い、通信のコネクションを確立するようにする。   Also in this case, as in the case described with reference to FIGS. 20 and 21, the transmission source imaging 100 (S) communicates with the transmission destination imaging device 100 (R) to communicate with each other. To establish.

この後、送信元の撮像装置100(S)から画像検索の結果の画像ファイル群を送信する。一方、送信先の撮像装置100(R)は、送信されてくる画像ファイル群を受信し、これを記録媒体に格納する処理を行う。   Thereafter, the image file group as a result of the image search is transmitted from the imaging apparatus 100 (S) as the transmission source. On the other hand, the transmission destination imaging apparatus 100 (R) performs a process of receiving the transmitted image file group and storing it in a recording medium.

そして、送信元の撮像装置100(S)においては、図22(a)、(b)、(c)の上段に示すように、送信対象である画像検索の結果の画像ファイル群の送信状態に応じて、当該画像ファイル群の表示を変化させ、データの送信中であることを示す。   Then, in the imaging device 100 (S) that is the transmission source, as shown in the upper part of FIGS. 22A, 22 </ b> B, and 22 </ b> C, the transmission state of the image file group as a result of the image search that is the transmission target is set. In response, the display of the image file group is changed to indicate that data is being transmitted.

一方、送信先の撮像装置100(R)においては、図22(a)、(b)、(c)の下段に示すように、画像ファイル群の受信状態に応じて、受信した画像ファイル群の表示を変化させ、データの送信中であることを示す。   On the other hand, in the imaging device 100 (R) as the transmission destination, as shown in the lower part of FIGS. 22A, 22 </ b> B, and 22 </ b> C, the received image file group is changed according to the reception state of the image file group. The display is changed to indicate that data is being transmitted.

このようにして、この実施の形態の撮像装置100は、画像検索の結果得られた画像ファイル群のサムネイル画像が表示されている状態にあるときに、所定の操作が行われた場合には、相手機器と通信を行い、画像ファイル群を相手先に送信することができる。   As described above, when a predetermined operation is performed when the image capturing apparatus 100 according to the present embodiment is in a state where the thumbnail images of the image file group obtained as a result of the image search are displayed, It is possible to communicate with the partner device and transmit the image file group to the partner.

以下に、送信元の撮像装置100(S)の上述したデータ送信処理と、送信先の撮像装置100(R)の上述したデータ受信処理との詳細について説明する。   Details of the above-described data transmission process of the transmission source imaging apparatus 100 (S) and the above-described data reception process of the transmission destination imaging apparatus 100 (R) will be described below.

[送信元の撮像装置100(S)のデータ送信処理]
図23は、画像検索の結果得られた画像ファイル群を送信する撮像装置100(S)において実行されるデータ送信処理を説明するためのフローチャートである。この図23に示す処理は、図16、図17を用いて説明した処理のステップS117において行われる処理である。
[Data Transmission Processing of Imaging Device 100 (S) of Transmission Source]
FIG. 23 is a flowchart for explaining data transmission processing executed in the imaging apparatus 100 (S) that transmits the image file group obtained as a result of the image search. The process shown in FIG. 23 is a process performed in step S117 of the process described with reference to FIGS.

すなわち、図16、図17を用いて説明したように、画像検索の範囲を設定し、検索キーを選択した後、当該選択した選択キーを用いて画像検索を行って、その画像検索の結果が表示画面6Gに表示された状態にあるとする。   That is, as described with reference to FIGS. 16 and 17, after setting a range of image search and selecting a search key, an image search is performed using the selected selection key, and the result of the image search is Suppose that it is in the state displayed on the display screen 6G.

この場合に、図17を用いて説明したように、ユーザーからの操作入力を受け付け(ステップS113)、モーションセンサ137からの検出出力等に基づいて、操作がされたか否かを判断する(ステップS114)。   In this case, as described with reference to FIG. 17, an operation input from the user is received (step S113), and it is determined whether or not an operation has been performed based on the detection output from the motion sensor 137 (step S114). ).

ステップS114で操作されたと判断したときには、制御部120は、当該受け付けた操作入力は、撮像装置100を傾ける、左右に振る、セット上部を叩く等の所定の操作が行われたか否かを判断する(ステップS115)。   When it is determined that the operation is performed in step S114, the control unit 120 determines whether the received operation input is a predetermined operation such as tilting the imaging device 100, swinging left and right, or hitting the upper part of the set. (Step S115).

このステップS115の判断処理において、撮像装置100を傾ける、左右に振る、セット上部を叩く等の所定の操作が行われたと判断したときには、画像検索の結果得られた画像ファイル群を検索結果として確定する(ステップS116)。   If it is determined in the determination processing in step S115 that a predetermined operation such as tilting the image capturing apparatus 100, swinging left or right, or hitting the upper part of the set has been performed, the image file group obtained as a result of the image search is determined as the search result. (Step S116).

この後、図17に示したステップS117において、図23に示すデータ送信処理を実行する。この場合、送信元の撮像装置100(S)の制御部120は、データの受信要求を形成し、これを通信部141、送受信アンテナ142を通じて、この例において送信先の機器である撮像装置100(R)に対して送信する(ステップS201)。当該受信要求には、要求元の撮像装置100(S)の識別IDをも有するものである。   Thereafter, in step S117 shown in FIG. 17, the data transmission process shown in FIG. 23 is executed. In this case, the control unit 120 of the transmission source imaging device 100 (S) forms a data reception request, which is transmitted through the communication unit 141 and the transmission / reception antenna 142 in this example, the imaging device 100 (the transmission destination device). R) (step S201). The reception request also includes an identification ID of the requesting imaging apparatus 100 (S).

そして、制御部120は、ステップS201において送信した受信要求に対する応答を受信するようにする応答受信処理を実行する(ステップS202)。このステップS202の処理は、要求先から何らかの応答が返ってくるか、所定時間内に応答が無い場合には、終了するようにされる。このステップS202の応答受信処理の後、制御部120は、送信先の撮像装置100(R)から受信可能応答を受信したか否かを判断する(ステップS203)。   And the control part 120 performs the response reception process which receives the response with respect to the reception request transmitted in step S201 (step S202). The process of step S202 is terminated when any response is returned from the request destination or when there is no response within a predetermined time. After the response reception process in step S202, the control unit 120 determines whether a receivable response has been received from the transmission destination imaging apparatus 100 (R) (step S203).

ステップS203の判断処理において、受信可能応答を受信していないと判断したときには、制御部120は、図23に示した処理を終了し、図17のステップS117の処理に戻り、図16のステップS101からの処理を繰り返すようにする。   When determining in step S203 that no receivable response has been received, the control unit 120 ends the processing shown in FIG. 23, returns to the processing in step S117 in FIG. 17, and returns to step S101 in FIG. Repeat the process from.

ステップS203の判断処理において、受信可能応答を受信したと判断したときには、制御部120は、通信部141、送受信アンテナ142を通じて、画像検索の結果得られた画像ファイル群の、撮像装置100(R)への送信を開始する(ステップS204)。   When it is determined in step S203 that the receivable response has been received, the control unit 120 transmits the image file group obtained as a result of the image search through the communication unit 141 and the transmission / reception antenna 142 to the imaging device 100 (R). The transmission to is started (step S204).

つまり、受信可能応答には、送信先の撮像装置100(R)の識別IDも付加されている。このため、ステップS204において、制御部120は、送信先の撮像装置100(R)の識別IDをも付加した撮像装置100(R)への送信データを形成し、これを撮像装置100(R)に送信する処理を開始する。   That is, the identification ID of the imaging device 100 (R) that is the transmission destination is also added to the receivable response. For this reason, in step S204, the control unit 120 forms transmission data to the imaging apparatus 100 (R) to which the identification ID of the transmission destination imaging apparatus 100 (R) is also added, and this is formed as the imaging apparatus 100 (R). The process to send to is started.

そして、制御部120は、図20、図21、図22の上段に示したように、画像ファイル群の送信状況に応じて、画像検索の結果得られた画像ファイル群の表示状態を変えていくようにする。   Then, as shown in the upper part of FIGS. 20, 21, and 22, the control unit 120 changes the display state of the image file group obtained as a result of the image search according to the transmission state of the image file group. Like that.

具体的に制御部120は、表示画像形成部111、表示処理部105を制御し、送信量に応じて、表示するサムネイル画像の表示数を減らし、かつ、サムネイル画像の表示位置を徐々に表示画面の端部に移動するように表示する処理を行う。   Specifically, the control unit 120 controls the display image forming unit 111 and the display processing unit 105 to reduce the number of thumbnail images to be displayed according to the transmission amount, and gradually display the display position of the thumbnail images. The display is performed so as to move to the end of the screen.

そして、制御部120は、送信対象の画像ファイル群を全て送信したか否かを判断する(ステップS206)。ステップS206の判断処理において、全て送信したと判断したときには、制御部120は、画像ファイルの送信完了コマンドを形成し、これを通信部141、送受信アンテナ142を通じて送信先の撮像装置100(R)に送信する(ステップS208)。   Then, the control unit 120 determines whether or not all the transmission target image file groups have been transmitted (step S206). If it is determined in step S206 that all the images have been transmitted, the control unit 120 forms an image file transmission completion command, which is transmitted to the destination imaging apparatus 100 (R) via the communication unit 141 and the transmission / reception antenna 142. Transmit (step S208).

このステップS208の処理の後、制御部120は、図23に示す処理を終了し、図17のステップS117の処理に戻り、図16のステップS101からの処理を繰り返すようにする。   After the processing in step S208, the control unit 120 ends the processing shown in FIG. 23, returns to the processing in step S117 in FIG. 17, and repeats the processing from step S101 in FIG.

また、ステップS206の判断処理において、全て送信していないと判断したときには、制御部120は、例えば、終了キーが押下されるなどの終了操作が行われたか否かを判断する(ステップS207)。   If it is determined in step S206 that all data has not been transmitted, the control unit 120 determines whether or not an end operation such as pressing an end key has been performed (step S207).

ステップS207の判断処理において、終了操作は行われていないと判断したときには、制御部120はステップS205からの処理を繰り返し、画像ファイル群の送信を続行する。   When determining in step S207 that the end operation has not been performed, the control unit 120 repeats the processing from step S205 and continues to transmit the image file group.

ステップS207の判断処理において、終了操作が行われたと判断したときには、制御部120は、画像ファイルの送信完了コマンドを形成し、これを通信部141、送受信アンテナ142を通じて送信先の撮像装置100(R)に送信する(ステップS208)。   When it is determined in the determination processing in step S207 that the end operation has been performed, the control unit 120 forms an image file transmission completion command, which is transmitted via the communication unit 141 and the transmission / reception antenna 142 to the transmission destination imaging device 100 (R ) (Step S208).

このステップS208の処理の後、上述もしたように、制御部120は、図23に示す処理を終了し、図17のステップS117の処理に戻り、図16のステップS101からの処理を繰り返すようにする。   After the process in step S208, as described above, the control unit 120 ends the process shown in FIG. 23, returns to the process in step S117 in FIG. 17, and repeats the process from step S101 in FIG. To do.

このようにして、送信元の撮像装置100(S)は、画像検索の結果得られた画像ファイル群を、撮像装置100(S)を傾ける、振る、叩くといった簡単な操作を行うだけで、通信の相手先に送信することができるようにされる。   In this way, the image capturing apparatus 100 (S) that is the transmission source can perform communication by simply performing operations such as tilting, shaking, and hitting the image capturing apparatus 100 (S) on the image file group obtained as a result of the image search. Can be sent to the other party.

[送信先の撮像装置100(R)のデータ受信処理]
図24は、送信元の撮像装置100(S)から送信されてくる画像ファイル群を受信する撮像装置100(R)において実行されるデータ受信処理を説明するためのフローチャートである。この図24に示す処理は、例えば、撮像装置100(R)が、データ受信モードとされた場合に、撮像装置100(R)の主に制御部120において実行される処理である。
[Data Reception Processing of Destination Imaging Apparatus 100 (R)]
FIG. 24 is a flowchart for explaining data reception processing executed in the imaging apparatus 100 (R) that receives an image file group transmitted from the transmission-source imaging apparatus 100 (S). The process illustrated in FIG. 24 is a process that is mainly executed in the control unit 120 of the imaging apparatus 100 (R) when the imaging apparatus 100 (R) is set to the data reception mode, for example.

なお、撮像装置100は、撮影を行う撮影モード、記録媒体135に記録されている画像ファイルを再生する再生モード、近距離通信により自機宛のデータの受信を行うデータ受信モード等の動作モードを備えている。そして、例えば、メニューを通じて、目的とする動作モードを選択することにより、動作モードを変更することができる。   Note that the imaging apparatus 100 has operation modes such as a shooting mode for shooting, a playback mode for playing back an image file recorded on the recording medium 135, and a data reception mode for receiving data addressed to itself by short-range communication. I have. For example, the operation mode can be changed by selecting a target operation mode through a menu.

そして、上述したように、所定の操作が行われてデータ受信モードとなるようにされると、制御部120は、図24に示す処理を実行し、まず、自機宛の種々の要求を受信する要求受信処理を実行する(ステップS301)。このステップS301の処理は、自機宛の何らか要求を受信するまで行われる処理である。   Then, as described above, when a predetermined operation is performed to enter the data reception mode, the control unit 120 executes the process shown in FIG. 24 and first receives various requests addressed to itself. The request receiving process is executed (step S301). The process of step S301 is a process that is performed until a request for the device itself is received.

このステップS301の処理において、自機宛の要求を受信した場合には、制御部120は、受信した自機宛の要求は、データの受信要求か否かを判断する(ステップS302)。ステップS302の判断処理において、受信した要求はデータの受信要求ではないと判断したときには、制御部120は、その受信した要求に応じた処理を実行し(ステップS303)、この後、図24に示す処理を終了する。   In the process of step S301, when a request addressed to itself is received, control unit 120 determines whether or not the received request addressed to itself is a data reception request (step S302). If it is determined in step S302 that the received request is not a data reception request, the control unit 120 executes processing according to the received request (step S303), and thereafter, as shown in FIG. The process ends.

また、ステップS302の判断処理において、受信した要求が、データの受信要求であると判断したときには、制御部120は、自機の動作状況を確認する(ステップS304)。このステップS304においては、例えば、バッテリの残量、記録媒体135の空き容量、その他、データの受信処理に支障をきたす状況になっている部分がないか等の確認を行う。   If it is determined in the determination process in step S302 that the received request is a data reception request, the control unit 120 checks the operation status of the own device (step S304). In this step S304, for example, confirmation is made as to whether there is any remaining part of the battery, the free capacity of the recording medium 135, and other parts that interfere with the data reception process.

そして、制御部120は、ステップS304において確認した自機の動作状況に基づいて、自機がデータを受信することができる状態にあるか否かを判断する(ステップS305)。   Then, the control unit 120 determines whether or not the own device can receive data based on the operation status of the own device confirmed in step S304 (step S305).

ステップS305の判断処理において、データを受信できる状態にないと判断したときには、制御部120は、受信不能応答を形成し、これを通信部141、送受信アンテナ142を通じて、送信元の撮像装置100(S)に対して送信する(ステップS306)。この後、制御部120は、図24に示す処理を終了する。   If it is determined in step S305 that the data cannot be received, the control unit 120 forms an unreceivable response, which is transmitted through the communication unit 141 and the transmission / reception antenna 142, and the transmission source imaging device 100 (S ) (Step S306). Thereafter, the control unit 120 ends the process shown in FIG.

また、ステップS305の判断処理において、データを受信できる状態にあると判断したときには、制御部120は、受信可能応答を形成し、これを通信部141、送受信アンテナ142を通じて、送信元の撮像装置100(S)に対して送信する(ステップS307)。   If it is determined in step S305 that the data can be received, the control unit 120 forms a receivable response, which is transmitted through the communication unit 141 and the transmission / reception antenna 142. (S) is transmitted (step S307).

つまり、撮像装置100(S)からの受信要求には、当該撮像装置100(S)の識別IDも付加さている。このため、送信先の撮像装置100(R)は、送信元の撮像装置100(S)の識別IDや、自機の識別IDを含む受信可能応答を形成し、これを送信元の撮像装置100に送信する。   That is, the identification ID of the imaging device 100 (S) is also added to the reception request from the imaging device 100 (S). Therefore, the transmission destination imaging apparatus 100 (R) forms a receivable response including the identification ID of the transmission source imaging apparatus 100 (S) and the identification ID of the own apparatus, and uses this as a transmission source imaging apparatus 100. Send to.

この後、制御部120は、通信部141を制御し、送信先の撮像装置100(S)から送信されてくる自機宛の画像ファイル群の画像データを受信して、記録媒体135に格納する処理を開始する(ステップS308)。   Thereafter, the control unit 120 controls the communication unit 141 to receive the image data of the image file group addressed to the own device transmitted from the imaging apparatus 100 (S) as the transmission destination and store the image data in the recording medium 135. Processing is started (step S308).

そして、制御部120は、図20、図21、図22の下段に示したように、画像ファイル群の受信状況に応じて、表示部106の表示画面6Gに表示する受信状況を示す表示画像の表示状態を変えていくようにする(ステップS309)。   Then, as shown in the lower part of FIGS. 20, 21, and 22, the control unit 120 displays a display image indicating the reception status displayed on the display screen 6 </ b> G of the display unit 106 according to the reception status of the image file group. The display state is changed (step S309).

具体的に制御部120は、表示画像形成部111、表示処理部105を制御し、画像データの受信量に応じて、表示するサムネイル画像の表示数を増やし、かつ、サムネイル画像の表示位置を徐々に表示画面の中央に移動するように表示する処理を行う。   Specifically, the control unit 120 controls the display image forming unit 111 and the display processing unit 105 to increase the number of thumbnail images to be displayed and gradually change the display position of the thumbnail images according to the amount of received image data. The display processing is performed so as to move to the center of the display screen.

そして、制御部120は、送信元の撮像装置100(S)から完了コマンドが送信されてきたか否かを判断する(ステップS310)。ステップS310の判断処理において、完了コマンドは送信されてきていないと判断したときには、制御部120は、ステップS309からの処理を繰り返し、送信元の撮像装置100(S)からの画像データの受信処理を続行する。   Then, the control unit 120 determines whether or not a completion command has been transmitted from the transmission source imaging apparatus 100 (S) (step S310). When determining in step S310 that the completion command has not been transmitted, the control unit 120 repeats the processing from step S309, and performs the reception processing of the image data from the imaging device 100 (S) as the transmission source. continue.

ステップS310の判断処理において、完了コマンドが送信されてきたと判断したときには、送信元からの画像データの送信は完了したので、制御部120は、この図24に示す処理を終了するようにする。   If it is determined in step S310 that the completion command has been transmitted, the transmission of the image data from the transmission source has been completed, and the control unit 120 ends the process shown in FIG.

このようにして、送信先の撮像装置100(R)は、送信元の撮像装置100(S)から送信されてくる画像データを順次に受信し、自己の記録媒体135に格納することができるようにされる。   In this manner, the transmission destination imaging device 100 (R) can sequentially receive the image data transmitted from the transmission source imaging device 100 (S) and store it in its own recording medium 135. To be.

このように、この実施の形態の撮像装置100においては、画像検索の結果得られた画像データを自機において記録媒体に格納したり、再生したりするだけでなく、他の機器に送信することも、簡単な操作で実行することができる。   As described above, in the imaging apparatus 100 according to this embodiment, the image data obtained as a result of the image search is not only stored in the recording medium and reproduced but also transmitted to other devices. Even can be executed with a simple operation.

なお、ここでは、撮像装置100(S)を傾ける、左右に振る、セットの上部を叩く操作を、画像データの送信を行うようにするための操作としたが、これに限るものではない。上下に振る操作や、撮像装置100(S)の側面等を叩く操作についても、画像データの送信を行うようにするための操作することができる。   Here, the operation of tilting the imaging device 100 (S), swinging left and right, and hitting the upper part of the set is an operation for transmitting image data, but is not limited thereto. An operation for transmitting image data can also be performed for an operation of shaking up and down and an operation of hitting a side surface of the imaging apparatus 100 (S).

また、撮像装置100(S)を傾ける、振る、叩くという3つの操作の内、いずれかを画像データの送信処理を行うようにするための指示操作に割り当て、それ以外の操作については、別の処理を割り当てるようにすることも可能である。   In addition, one of the three operations of tilting, shaking, and hitting the imaging apparatus 100 (S) is assigned to an instruction operation for performing image data transmission processing, and other operations are performed separately. It is also possible to assign processing.

また、ここでは、同様に構成される送信元の撮像装置100(S)から、送信先の撮像装置100(R)に、画像データを送信する場合を例にして説明したが、これに限るものではない。   Also, here, the case where image data is transmitted from the transmission source imaging device 100 (S) configured similarly to the transmission destination imaging device 100 (R) has been described as an example, but the present invention is not limited thereto. is not.

送信元の撮像装置100(S)の通信部141及び送受信アンテナ142を通じて通信することが可能な種々の電子機器に、画像データを送信することができる。例えば、撮像装置100(S)と通信可能なハードディスク装置との間で通信を行い、画像データを当該ハードディスク装置にバックアップするなどのことを簡単に行うようにすることもできる。   The image data can be transmitted to various electronic devices that can communicate through the communication unit 141 and the transmission / reception antenna 142 of the transmission source imaging apparatus 100 (S). For example, it is possible to simply perform communication between the imaging device 100 (S) and a hard disk device capable of communication and backup image data to the hard disk device.

また、上述した実施の形態においては、送信元の撮像装置100(S)と相手先の機器とは、無線により通信を行うものとして説明したが、これに限るものではない。つまり、有線接続した相手先の機器との間で、データの送受を行うようにすることももちろん可能である。この場合には、例えば、外部I/F132、入出力端子133を通じて通信を行うようにすればよい。   In the above-described embodiment, the transmission source imaging apparatus 100 (S) and the counterpart device are described as performing wireless communication, but the present invention is not limited to this. In other words, it is of course possible to send and receive data to and from a counterpart device connected by wire. In this case, for example, communication may be performed through the external I / F 132 and the input / output terminal 133.

[実施の形態の効果]
撮像装置100を倒す、起こす、傾ける、振る、叩くといった、撮像装置100に対する極めて簡単な操作により、画像検索の初期画面を表示したり、画像検索の結果得られた画像ファイル群を処理対象とする処理を実行したりすることができる。
[Effect of the embodiment]
An image search initial screen is displayed or a group of image files obtained as a result of the image search is processed by an extremely simple operation on the image pickup apparatus 100 such as tilting, raising, tilting, shaking, or hitting the imaging apparatus 100. Processing.

つまり、複雑な操作を行うことなく、必ず行う処理、頻繁に行う処理、ありは、確実に行う必要のある処理を確実に実行することができる。   That is, it is possible to reliably execute a process that is always performed, a process that is frequently performed, or a process that needs to be surely performed without performing a complicated operation.

また、モーションセンサ137やセット上部のタッチパネル136などの検出出力に基づいて、ユーザーからの簡単な操作を受け付けるようにし、当該操作に応じて、目的とする処理、例えば、データの送信処理等をも行うことができるようにしている。   In addition, based on detection outputs from the motion sensor 137 and the touch panel 136 at the top of the set, a simple operation from the user is accepted, and a target process, such as a data transmission process, is performed according to the operation. To be able to do.

また、画像データを、他機に渡すようにする場合に、その経過を、物を渡して、これを受け取るというように、実世界の方法と関連付けて提供することにより、ユーザーに理解しやすいフィードバックを与えることができるようにしている。   In addition, when image data is passed to another machine, the progress is provided in association with a real-world method, such as passing the object and receiving it, providing easy-to-understand feedback to the user. To be able to give.

[この発明の方法、プログラム]
なお、上述した実施の形態から明らかなように、この発明の方法、プログラムは、主に、図16、図17、図18、図23に示したフローチャートを用いて説明した方法、プログラムとして実現可能である。
[Method and program of the present invention]
As is clear from the above-described embodiment, the method and program of the present invention can be realized mainly as the method and program described with reference to the flowcharts shown in FIGS. 16, 17, 18, and 23. It is.

すなわち、図16、図17、図18、図23を用いて説明した方法は、この発明の方法である。   That is, the method described with reference to FIGS. 16, 17, 18, and 23 is the method of the present invention.

そして、図16、図17、図18、図23を用いて説明した処理を実行するプログラムが、この発明のプログラムである。   A program for executing the processing described with reference to FIGS. 16, 17, 18, and 23 is the program of the present invention.

したがって、この発明のプログラムを実現し、デジタルスチルカメラや種々の画像処理装置に搭載することにより、この発明の画像処理装置を実現することができる。   Therefore, the image processing apparatus of the present invention can be realized by implementing the program of the present invention and mounting the program on a digital still camera or various image processing apparatuses.

[その他]
なお、上述した実施の形態において、特定手段、処理制御手段のそれぞれは、制御部120が実現している。また、動き検出手段はモーションセンサ137、セット上部のタッチパネル136が実現している。
[Others]
In the above-described embodiment, the control unit 120 realizes each of the specifying unit and the processing control unit. The motion detection means is realized by a motion sensor 137 and a touch panel 136 at the top of the set.

また、処理手段は、保持手段としての制御手段120や、再生手段としての書き込み/読み出し部134、伸張処理部110、表示画像形成部111、表示処理部105、表示部106からなる再生系が実現している。さらに、処理手段は、記録手段としての書き込み/読み出し部134や、送信手段である通信部141が実現している。   In addition, the processing unit realizes a reproduction system including a control unit 120 as a holding unit, a writing / reading unit 134 as a reproduction unit, an expansion processing unit 110, a display image forming unit 111, a display processing unit 105, and a display unit 106. doing. Further, the processing unit is realized by a writing / reading unit 134 as a recording unit and a communication unit 141 as a transmitting unit.

また、上述した実施の形態においては、検索キー指示手段を、表示部106とタッチパネル107とが協働して実現するようにしたが、これに限るものではない。検索キー指示手段は、例えば、操作部131に設けられるハードウェアキーによっても実現することができる。   In the above-described embodiment, the search key instruction means is realized by the cooperation of the display unit 106 and the touch panel 107, but the present invention is not limited to this. The search key instruction means can also be realized by a hardware key provided in the operation unit 131, for example.

具体的には、画像検索に用いる検索キーを指定した後に、当該検索キーを用いて画像検索を実行するための所定のハードウェアキーを押下操作した場合に、当該検索キーを用いた画像検索を行うようにすることができる。   Specifically, after a search key used for image search is specified, when a predetermined hardware key for executing an image search is pressed using the search key, an image search using the search key is performed. Can be done.

この場合、2つ以上の検索キーを用いる場合には、これに対応して、画像検索を実行するための所定のハードウェアキーを複数個設けるようにしておくことにより、タッチパネルを用いた場合と同様にして、画像検索を行うようにすることができる。   In this case, when two or more search keys are used, a plurality of predetermined hardware keys for executing an image search are provided correspondingly, and a touch panel is used. Similarly, image search can be performed.

また、当該ハードウェアキーを、例えば、スライド移動可能な2つのハードウェアキーとして設けておくことにより、2つの検索キーを用いた画像検索を、上述した実施の形態で説明したように実行することが可能である。   Further, by providing the hardware key as, for example, two hardware keys that are slidable, the image search using the two search keys is executed as described in the above-described embodiment. Is possible.

また、上述した実施の形態においては、検索キーに対して関連度「高」、関連度「中」、関連度「低」の3段階で関連度のある画像ファイルを検索するようにしたが、これに限るものではない。さらに細かく、関連度を分けるようにすることももちろん可能である。   In the above-described embodiment, an image file having a relevance degree is searched in three stages of a relevance degree “high”, a relevance degree “medium”, and a relevance degree “low” with respect to the search key. This is not a limitation. Of course, it is possible to divide the degree of relevance more finely.

また、上述した実施の形態においては、この発明を撮像装置に適用した場合を例にして説明したが、これに限るものではない。例えば、カメラ機能付きの携帯電話端末、画像データの処理が可能なPDA(Personal Digital Assistant)等と呼ばれる携帯情報端末、その他の画像データの処理が可能な種々の画像処理装置にこの発明を適用することができる。   In the above-described embodiment, the case where the present invention is applied to an imaging apparatus has been described as an example. However, the present invention is not limited to this. For example, the present invention is applied to a mobile phone terminal with a camera function, a portable information terminal called PDA (Personal Digital Assistant) capable of processing image data, and other various image processing apparatuses capable of processing image data. be able to.

また、表示対象の画像データは、静止画像の画像データに限るものではない。例えば、記録媒体に蓄積された複数の動画コンテンツの代表画像やサムネイル画像を表示対象とする画像処理装置にこの発明を適用することができる。   The image data to be displayed is not limited to still image data. For example, the present invention can be applied to an image processing apparatus that displays representative images and thumbnail images of a plurality of moving image contents stored in a recording medium.

また、上述した実施の形態において、撮像装置100が備えるタッチパネル107は、ユーザーの指等の接触を検出できるものとして説明したがこれに限るものではない。例えば、指等を操作面に接触させることなくある程度近づけた場合に、その近づけた位置を検出できるものであれば、この発明の実現に用いることができる。   In the above-described embodiment, the touch panel 107 included in the imaging apparatus 100 has been described as being capable of detecting contact with a user's finger or the like, but is not limited thereto. For example, when a finger or the like is brought close to a certain extent without touching the operation surface, any device that can detect the approached position can be used to realize the present invention.

つまり、タッチパネル107は、接触式のものに限るものではない。例えば、指等がある程度近づいた場合に、近づいた位置の操作面における電位が変化したり、明るさが変化したりしたことを検出し、当該変化した操作面上の位置を指示位置として特定可能な非接触式のタッチパネルを用いるようにしてもよい。   That is, the touch panel 107 is not limited to a contact type. For example, when a finger or the like approaches to some extent, it is possible to detect that the potential on the operating surface at the approaching position has changed or the brightness has changed, and the changed position on the operating surface can be specified as the indicated position A non-contact type touch panel may be used.

また、上述した実施の形態においては、図9、図10等に示したように、表示されるサムネイル画像の表示位置や表示の向きなどはバラバラに(ランダムに)表示するようにしたが、これに限るものではない。   In the above-described embodiment, as shown in FIGS. 9 and 10 and the like, the display position and the display direction of the thumbnail image to be displayed are displayed in a random (random) manner. It is not limited to.

表示の向きは一定になるようにしてもよい。要は、画像検索を実行した場合に、検索キーに合致する画像のサムネイル画像を表示画面上の所定の位置に集まるように表示する点を特徴とし、その他の部分は種々の態様で表示するようにすることができる。   The display orientation may be constant. In short, when an image search is executed, thumbnail images of images that match the search key are displayed so as to be gathered at predetermined positions on the display screen, and the other parts are displayed in various ways. Can be.

また、上述もしたが、予め画像データからサムネイルデータを形成しおき、これを各画像ファイルに付加しておくことにより、サムネイル画像の表示時においてサムネイルデータを形成する必要が無いので、装置の負荷を軽減することができる。   In addition, as described above, by forming thumbnail data from image data in advance and adding it to each image file, it is not necessary to form thumbnail data when displaying thumbnail images. Can be reduced.

この発明の装置、方法、プログラムの一実施の形態が適用された撮像装置100の構成例を説明するためのブロック図である。It is a block diagram for demonstrating the example of a structure of the imaging device 100 to which one Embodiment of the apparatus, method, and program of this invention was applied. 撮像装置100の記録媒体135に記録される画像ファイルのレイアウト例を説明するための図である。FIG. 25 is a diagram for describing a layout example of an image file recorded on a recording medium 135 of the imaging apparatus 100. 撮像装置の100の記録媒体135に形成される画像フォルダのレイアウト例を説明するための図である。FIG. 26 is a diagram for describing a layout example of an image folder formed on the recording medium 135 of 100 of the imaging apparatus. 撮像装置100の記録媒体135に、あるいは、EEPROM124などに予め作成される検索キー候補情報テーブルを説明するための図である。6 is a diagram for explaining a search key candidate information table created in advance in the recording medium 135 of the imaging apparatus 100 or in the EEPROM 124 or the like. FIG. 検索キー候補情報テーブルに登録された検索キー候補情報から、画像検索に用いる検索キーを選択する処理について説明するための図である。It is a figure for demonstrating the process which selects the search key used for an image search from the search key candidate information registered into the search key candidate information table. 検索キー候補情報テーブルに登録された検索キー候補情報から、画像検索に用いる検索キーを選択する処理について説明するための図である。It is a figure for demonstrating the process which selects the search key used for an image search from the search key candidate information registered into the search key candidate information table. 検索キー候補情報テーブルに登録された検索キー候補情報から、画像検索に用いる検索キーを選択する処理について説明するための図である。It is a figure for demonstrating the process which selects the search key used for an image search from the search key candidate information registered into the search key candidate information table. 画像検索のための検索キーが選択された後において、画像検索の初期画面を表示するための所定の操作として行うことが可能な操作について説明するための図である。It is a figure for demonstrating operation which can be performed as predetermined operation | movement for displaying the initial screen of image search, after the search key for image search is selected. 2つの検索キーが選択された状態から画像検索をする場合の画面の遷移例を説明するための図である。It is a figure for demonstrating the example of a transition of a screen when searching an image from the state where two search keys were selected. 選択された2つの検索キーの両方を用いて画像検索を行う場合について説明するための図である。It is a figure for demonstrating the case where an image search is performed using both of two selected search keys. 画像を検索キーとして用いて画像検索を行う場合について説明するための図である。It is a figure for demonstrating the case where an image search is performed using an image as a search key. 検索キー関連度辞書の構成例を説明するための図である。It is a figure for demonstrating the structural example of a search key relevance degree dictionary. 画像分析情報の内、画像検索のための検索キーとなりうる情報について説明するための図である。It is a figure for demonstrating the information which can become a search key for an image search among image analysis information. 1つの検索キー(文字情報)が選択された状態から画像検索を行うようにした場合の検索結果の表示態様を説明するための図である。It is a figure for demonstrating the display mode of the search result at the time of making it search an image from the state where one search key (character information) was selected. 画像検索の結果を確定するための所定の操作として行うことが可能な操作について説明するための図である。It is a figure for demonstrating operation which can be performed as predetermined operation for determining the result of an image search. 撮像装置100において行われる画像検索時の処理について説明するためのフローチャートである。12 is a flowchart for explaining processing at the time of image search performed in the imaging apparatus. 図11に続くフローチャートである。It is a flowchart following FIG. 図16に示したステップS104において実行される画像検索の初期画面表示処理を説明するためのフローチャートである。FIG. 17 is a flowchart for explaining an initial screen display process of image search executed in step S104 shown in FIG. 画像検索の結果得られた画像ファイル群を、同様に構成された他の撮像装置(他機)に送信する場合について説明するための図である。It is a figure for demonstrating the case where the image file group obtained as a result of the image search is transmitted to the other imaging device (other machine) comprised similarly. 画像検索の結果得られた画像ファイル群を、同様に構成された他の撮像装置(他機)に送信する場合について説明するための図である。It is a figure for demonstrating the case where the image file group obtained as a result of the image search is transmitted to the other imaging device (other machine) comprised similarly. 画像検索の結果得られた画像ファイル群を、同様に構成された他の撮像装置(他機)に送信する場合について説明するための図である。It is a figure for demonstrating the case where the image file group obtained as a result of the image search is transmitted to the other imaging device (other machine) comprised similarly. 画像検索の結果得られた画像ファイル群を、同様に構成された他の撮像装置(他機)に送信する場合について説明するための図である。It is a figure for demonstrating the case where the image file group obtained as a result of the image search is transmitted to the other imaging device (other machine) comprised similarly. 画像検索の結果得られた画像ファイル群を送信する撮像装置100(S)において実行されるデータ送信処理を説明するためのフローチャートである。It is a flowchart for demonstrating the data transmission process performed in the imaging device 100 (S) which transmits the image file group obtained as a result of the image search. 画像ファイル群を受信する撮像装置100(R)において実行されるデータ受信処理を説明するためのフローチャートである。It is a flowchart for demonstrating the data reception process performed in the imaging device 100 (R) which receives an image file group.

符号の説明Explanation of symbols

100…撮像装置、101…レンズ部、102…撮像素子、103…前処理部、104…画像処理部、105…表示処理部、106…表示部、107…タッチパネル、109…圧縮処理部、110…伸張処理部、111…表示画像形成部、120…制御部、131…操作部、132…外部I/F、133…入出力端子、134…書き込み/読み出し部、135…記録媒体、136…セット上部のタッチパネル、137…モーションセンサ、138…GPS受信部、139…GPS受信アンテナ、141…通信部、142…送受信アンテナ   DESCRIPTION OF SYMBOLS 100 ... Imaging device 101 ... Lens part 102 ... Image pick-up element 103 ... Pre-processing part 104 ... Image processing part 105 ... Display processing part 106 ... Display part 107 ... Touch panel 109 ... Compression processing part 110 ... Decompression processing unit 111 ... Display image forming unit 120 ... Control unit 131 ... Operation unit 132 ... External I / F, 133 ... Input / output terminal, 134 ... Write / read unit, 135 ... Recording medium, 136 ... Upper part of set 137 ... motion sensor, 138 ... GPS reception unit, 139 ... GPS reception antenna, 141 ... communication unit, 142 ... transmission / reception antenna

Claims (6)

自機の動きを検出する動き検出部と、
操作部に対する操作に応じて、画像データの検索範囲を設定する設定部と、
上記設定部により上記検索範囲が設定された状態で、上記動き検出部を通じて、自機に対して特定の操作が行われたことを検出した場合に、上記検索範囲の画像データを表示部に表示する表示処理部と、
上記操作部に対する操作に応じて、上記検索範囲の画像データから検索キーを用いて画像データの検索を行い、当該検索結果の画像データを表示部に表示する検索部と、
上記検索結果の画像データが表示部に表示された状態で、上記動き検出部を通じて、自機に対して特定の操作が行われたことを検出した場合に、上記検索結果の画像データを所定の格納先に記録する記録処理部と、
を具える画像処理装置。
A motion detector that detects the movement of the aircraft,
A setting unit for setting a search range of image data in response to an operation on the operation unit ;
When the search range is set by the setting unit, when it is detected through the motion detection unit that a specific operation is performed on the own device, the image data of the search range is displayed on the display unit. A display processing unit to
In response to an operation on the operation unit, a search unit that searches image data from the image data in the search range using a search key and displays the image data of the search result on a display unit;
When the image data of the search result is displayed on the display unit and the motion detection unit detects that a specific operation has been performed on the own device, the image data of the search result is A recording processing unit for recording in the storage destination;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
上記動き検出部を通じて検出される自機に対して行われる操作は、自機を倒したり、起こしたりする操作と、自機を傾ける操作と、自機を振る操作と、自機を叩く操作の1以上である
画像処理装置。
The image processing apparatus according to claim 1,
Operations performed on the subject aircraft detected through the motion detection unit include operations for defeating and raising the subject, tilting the subject, shaking the subject, and hitting the subject. One or more image processing devices.
請求項1に記載の画像処理装置であって、
上記検索結果の画像データが表示部に表示された状態で、上記動き検出部を通じて、自機に対して特定の操作が行われたことを検出した場合に、上記検索結果の画像データを再生する再生部
をさらに具える画像処理装置。
The image processing apparatus according to claim 1,
When the image data of the search result is displayed on the display unit, the image data of the search result is reproduced when it is detected that a specific operation is performed on the own device through the motion detection unit. An image processing apparatus further comprising a reproduction unit.
請求項1に記載の画像処理装置であって、
上記検索結果の画像データが表示部に表示された状態で、上記動き検出部を通じて、自機に対して特定の操作が行われたことを検出した場合に、上記検索結果の画像データを他機に送信する送信部
をさらに具える画像処理装置。
The image processing apparatus according to claim 1,
When the image data of the search result is displayed on the display unit, when it is detected that a specific operation has been performed on the own device through the motion detection unit, the image data of the search result is transferred to the other device. An image processing apparatus further comprising: a transmission unit that transmits to
操作部に対する操作に応じて、画像データの検索範囲を設定する設定ステップと、
上記設定ステップにより上記検索範囲が設定された状態で、自機の動きを検出する動き検出部を通じて、自機に対して特定の操作が行われたことを検出した場合に、上記検索範囲の画像データを表示部に表示する表示ステップと、
上記操作部に対する操作に応じて、上記検索範囲の画像データから検索キーを用いて画像データの検索を行い、当該検索結果の画像データを表示部に表示する検索ステップと、
上記検索結果の画像データが表示部に表示された状態で、上記動き検出部を通じて、自機に対して特定の操作が行われたことを検出した場合に、上記検索結果の画像データを所定の格納先に記録する記録ステップと、
を有する画像処理方法。
A setting step for setting a search range of image data in accordance with an operation on the operation unit ;
When it is detected that a specific operation has been performed on the own device through the motion detection unit that detects the motion of the own device in a state where the search range is set by the setting step, an image of the search range A display step for displaying data on the display unit;
In response to an operation on the operation unit, a search step of searching image data from the image data in the search range using a search key and displaying the image data of the search result on a display unit;
When the image data of the search result is displayed on the display unit and the motion detection unit detects that a specific operation has been performed on the own device, the image data of the search result is A recording step for recording in a storage location;
An image processing method.
操作部に対する操作に応じて、画像データの検索範囲を設定する設定ステップと、
上記設定ステップにより上記検索範囲が設定された状態で、自機の動きを検出する動き検出部を通じて、自機に対して特定の操作が行われたことを検出した場合に、上記検索範囲の画像データを表示部に表示する表示ステップと、
上記操作部に対する操作に応じて、上記検索範囲の画像データから検索キーを用いて画像データの検索を行い、当該検索結果の画像データを表示部に表示する検索ステップと、
上記検索結果の画像データが表示部に表示された状態で、上記動き検出部を通じて、自機に対して特定の操作が行われたことを検出した場合に、上記検索結果の画像データを所定の格納先に記録する記録ステップと、
を画像処理装置に搭載されたコンピュータが実行する画像処理プログラム。
A setting step for setting a search range of image data in accordance with an operation on the operation unit ;
When it is detected that a specific operation has been performed on the own device through the motion detection unit that detects the motion of the own device in a state where the search range is set by the setting step, an image of the search range A display step for displaying data on the display unit;
In response to an operation on the operation unit, a search step of searching image data from the image data in the search range using a search key and displaying the image data of the search result on a display unit;
When the image data of the search result is displayed on the display unit and the motion detection unit detects that a specific operation has been performed on the own device, the image data of the search result is A recording step for recording in a storage location;
An image processing program executed by a computer mounted on the image processing apparatus.
JP2008318001A 2008-12-15 2008-12-15 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP5401962B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008318001A JP5401962B2 (en) 2008-12-15 2008-12-15 Image processing apparatus, image processing method, and image processing program
US12/582,046 US8823637B2 (en) 2008-12-15 2009-10-20 Movement and touch recognition for controlling user-specified operations in a digital image processing apparatus
CN200910261468A CN101834991A (en) 2008-12-15 2009-12-15 Image processing apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008318001A JP5401962B2 (en) 2008-12-15 2008-12-15 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2010140391A JP2010140391A (en) 2010-06-24
JP5401962B2 true JP5401962B2 (en) 2014-01-29

Family

ID=42239916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008318001A Expired - Fee Related JP5401962B2 (en) 2008-12-15 2008-12-15 Image processing apparatus, image processing method, and image processing program

Country Status (3)

Country Link
US (1) US8823637B2 (en)
JP (1) JP5401962B2 (en)
CN (1) CN101834991A (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5429918B2 (en) * 2008-02-15 2014-02-26 任天堂株式会社 Information processing program and information processing apparatus
JP4416836B1 (en) * 2009-07-14 2010-02-17 株式会社ビジョナリスト Image data display system and image data display program
EP2407896A1 (en) * 2010-07-16 2012-01-18 Research In Motion Limited Systems and methods of user interface for image display
TWI472988B (en) 2012-08-03 2015-02-11 Pixart Imaging Inc Optical touch-sensing system and method
JP5768361B2 (en) 2010-11-22 2015-08-26 ソニー株式会社 Transmission device, reception device, and content transmission / reception system
JP5756682B2 (en) * 2011-06-15 2015-07-29 シャープ株式会社 Information processing device
JP2013047925A (en) * 2011-07-26 2013-03-07 Toppan Printing Co Ltd Terminal device, program, and image providing method
JPWO2013039025A1 (en) * 2011-09-16 2015-03-26 Necカシオモバイルコミュニケーションズ株式会社 Information processing apparatus with information management editing function
JP2013105310A (en) * 2011-11-14 2013-05-30 Sony Corp Information processing device, control method, and program
JP2013134579A (en) * 2011-12-26 2013-07-08 Xacti Corp User interface device
JP6232982B2 (en) * 2013-12-02 2017-11-22 オムロン株式会社 Image processing apparatus, image processing method, and program
US9519398B2 (en) * 2013-12-16 2016-12-13 Sap Se Search in a nature inspired user interface
US9501205B2 (en) * 2013-12-16 2016-11-22 Sap Se Nature inspired interaction paradigm
JP6114706B2 (en) 2014-02-28 2017-04-12 富士フイルム株式会社 Search system and search system control method
JP2016116598A (en) * 2014-12-19 2016-06-30 株式会社ソフトウェア・ファクトリー Golf support device
JP6455590B2 (en) * 2015-03-02 2019-01-23 日本電気株式会社 Image processing system, image processing method, and computer program
CN105608104B (en) * 2015-10-27 2019-04-12 东莞酷派软件技术有限公司 Image adding method, image adding set and terminal
JP7099925B2 (en) * 2018-09-27 2022-07-12 富士フイルム株式会社 Image processing equipment, image processing methods, programs and recording media
US11550404B2 (en) * 2021-05-14 2023-01-10 Microsoft Technology Licensing, Llc Tilt-responsive techniques for sharing content

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09160716A (en) * 1995-12-07 1997-06-20 Casio Comput Co Ltd Data input device
JPH10240434A (en) * 1997-02-27 1998-09-11 Matsushita Electric Ind Co Ltd Command menu selecting method
KR20050104382A (en) * 2003-02-19 2005-11-02 코닌클리케 필립스 일렉트로닉스 엔.브이. System for ad hoc sharing of content items between portable devices and interaction methods therefor
JP2004343662A (en) 2003-05-19 2004-12-02 Sony Corp Imaging apparatus
JP2005142929A (en) * 2003-11-07 2005-06-02 Sony Ericsson Mobilecommunications Japan Inc Mobile terminal
US20050219223A1 (en) * 2004-03-31 2005-10-06 Kotzin Michael D Method and apparatus for determining the context of a device
JP2006146455A (en) * 2004-11-18 2006-06-08 Konica Minolta Photo Imaging Inc Electronic equipment and display method for image with index
US20060164382A1 (en) * 2005-01-25 2006-07-27 Technology Licensing Company, Inc. Image manipulation in response to a movement of a display
US7716157B1 (en) * 2006-01-26 2010-05-11 Adobe Systems Incorporated Searching images with extracted objects
JP2007274381A (en) 2006-03-31 2007-10-18 Sony Corp Imaging device, electronic device, display method and program
JP4914778B2 (en) * 2006-09-14 2012-04-11 オリンパスイメージング株式会社 camera
JP5358083B2 (en) * 2007-11-01 2013-12-04 株式会社日立製作所 Person image search device and image search device
JP4853302B2 (en) * 2007-01-19 2012-01-11 日本電気株式会社 Command input device for portable terminal and command input method for portable terminal
US8683390B2 (en) * 2008-10-01 2014-03-25 Microsoft Corporation Manipulation of objects on multi-touch user interface
KR20100091434A (en) * 2009-02-10 2010-08-19 삼성전자주식회사 Digital image processing apparatus and controlling method of the same
US8839150B2 (en) * 2010-02-10 2014-09-16 Apple Inc. Graphical objects that respond to touch or motion input

Also Published As

Publication number Publication date
US20100149132A1 (en) 2010-06-17
CN101834991A (en) 2010-09-15
US8823637B2 (en) 2014-09-02
JP2010140391A (en) 2010-06-24

Similar Documents

Publication Publication Date Title
JP5401962B2 (en) Image processing apparatus, image processing method, and image processing program
JP5268595B2 (en) Image processing apparatus, image display method, and image display program
JP4735995B2 (en) Image processing apparatus, image display method, and image display program
JP5552767B2 (en) Display processing apparatus, display processing method, and display processing program
US9471600B2 (en) Electronic device and method for handling tags
JP5316387B2 (en) Information processing apparatus, display method, and program
JP5273998B2 (en) Imaging apparatus, control method thereof, and program
JP2010055343A (en) Information processing apparatus and method, and program
JP7187395B2 (en) COMMUNICATION TERMINAL, COMMUNICATION TERMINAL CONTROL METHOD, AND COMMUNICATION SYSTEM
KR101465859B1 (en) Imaging device, imaging method and storage medium
JP2007266902A (en) Camera
JP5820237B2 (en) Content management system, operation device, control method therefor, and program
JP2009049886A (en) Image retrieval device, photographing device, image retrieval method, and program
WO2023021759A1 (en) Information processing device and information processing method
JP4102933B2 (en) Captured image management apparatus, captured image management method, and captured image management program
JP5818634B2 (en) Content management apparatus, recording apparatus, operation apparatus, content management system, and control method therefor
JP5517895B2 (en) Terminal device
JP5655916B2 (en) Image search system
JP5565271B2 (en) Information processing apparatus, information processing method, and program
JP5532748B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131014

R151 Written notification of patent or utility model registration

Ref document number: 5401962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees