JP2012147167A - Imaging device, information processing terminal including the imaging device, method for controlling the imaging device, and program for realizing the method - Google Patents

Imaging device, information processing terminal including the imaging device, method for controlling the imaging device, and program for realizing the method Download PDF

Info

Publication number
JP2012147167A
JP2012147167A JP2011002966A JP2011002966A JP2012147167A JP 2012147167 A JP2012147167 A JP 2012147167A JP 2011002966 A JP2011002966 A JP 2011002966A JP 2011002966 A JP2011002966 A JP 2011002966A JP 2012147167 A JP2012147167 A JP 2012147167A
Authority
JP
Japan
Prior art keywords
image
display
attribute
digital camera
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011002966A
Other languages
Japanese (ja)
Inventor
Junpei Mishima
潤平 三嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011002966A priority Critical patent/JP2012147167A/en
Publication of JP2012147167A publication Critical patent/JP2012147167A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a digital camera capable of intuitively imparting an attribute.SOLUTION: A series of processing to be performed by a digital camera includes: a step (S210) for displaying an image on a display, based on data held in a RAM; a step (S220) for detecting a touch operation on the display; a step (S230) for specifying the place of the touch operation; a step (S240) for determining an imaging condition, based on the specified place; a step (S250) for displaying the determined imaging condition by superimposition on the image being displayed; a step (S260) for performing imaging under the determined imaging condition, based on the absence of the touch operation; and a step (S270) for associating a determined preservation period with an image obtained by the imaging, and preserving them in a storage device.

Description

本発明は、カメラによる撮影の制御に関する。   The present invention relates to control of photographing by a camera.

従来、デジタルカメラ、カメラ付き携帯電話機、その他のカメラ付き情報端末においては、撮影前に属性を選択しておき、その後撮影ボタンを押す、というように、基本的に撮影操作と、その属性を設定するための操作とは、別個の操作として行なわれていた。   Conventionally, in digital cameras, camera-equipped mobile phones, and other information terminals with cameras, you basically set the shooting operation and its attributes, such as selecting an attribute before shooting and then pressing the shooting button. The operation for doing this was performed as a separate operation.

たとえば、特開2007−235448号公報(特許文献1)は、「優れた操作性を発揮させ得るカメラ等」を開示している([要約]の[課題])。特開2007−235448号公報に開示されたカメラによると、「第1表示部11にモニタ画像61を表示するとともに、第2表示部12に撮影済みの記録画像62を最新のものから過去へ遡って幾つか表示する(A)。第1表示部11のタッチパネルにタッチされたら(B)、その瞬間の画像をRAM等に一時記憶し、第1表示部11に撮影画像63としてフリーズ表示させる。その後、タッチパネルにより第1表示部11から第2表示部12へ撮影画像63を移動する操作がなされたら(C)(D)、撮影画像63を記録画像として確定しフラッシュメモリ等へ保存するとともに、第2表示部12に最新の記録画像62aとして表示する(E)。」というものである([要約]の[解決手段])。   For example, Japanese Patent Laid-Open No. 2007-235448 (Patent Document 1) discloses “a camera that can exhibit excellent operability” ([Summary] [Problem]). According to the camera disclosed in Japanese Patent Application Laid-Open No. 2007-235448, “the monitor image 61 is displayed on the first display unit 11 and the recorded image 62 that has been captured on the second display unit 12 is traced back from the latest one to the past. When the touch panel of the first display unit 11 is touched (B), the image at that moment is temporarily stored in the RAM or the like, and the first display unit 11 is freeze-displayed as the photographed image 63. Thereafter, when an operation for moving the captured image 63 from the first display unit 11 to the second display unit 12 is performed by the touch panel (C) and (D), the captured image 63 is confirmed as a recorded image and stored in a flash memory or the like. It is displayed as the latest recorded image 62a on the second display unit 12 (E) "([Summary] [Solution means]).

特開2010−55598号公報(特許文献2)は、「撮影モード切替操作を簡便にできる」情報処理装置を開示している([要約]の[課題])。当該情報処理装置によれば、「2本の指f1,f2の接触時点の位置関係と、その後の移動方向によりN種類(図中には4種類のみが図示されている)のなぞり操作が定義され、N種類のなぞり操作のそれぞれに対して第1乃至第N撮影モードが対応付けられている。例えば、タッチスクリーン18に対して、水平方向であって2本の指f1,f2が近づく方向のなぞり操作P1が定義され、なぞり操作P1に対して第1撮影モードが対応付けられている。CPUは、なぞり操作P1を検出した場合、第1撮影モードに切り替える。」というものである([要約]の[解決手段])。   Japanese Patent Laying-Open No. 2010-55598 (Patent Document 2) discloses an information processing apparatus that “can easily perform a shooting mode switching operation” ([Summary] [Problem]). According to the information processing apparatus, “N types of tracing operations (only four types are shown in the figure) are defined by the positional relationship at the time of contact of the two fingers f1 and f2 and the subsequent movement direction”. The first to Nth shooting modes are associated with each of the N types of tracing operations, for example, the horizontal direction with respect to the touch screen 18 and the direction in which the two fingers f1 and f2 approach each other. The tracing operation P1 is defined, and the first shooting mode is associated with the tracing operation P1. When the CPU detects the tracing operation P1, the CPU switches to the first shooting mode. Summary] [Solutions]).

特開2001−100887号公報(特許文献3)は、「イメージオブジェクト等のオブジェクトの管理と加工の容易化を図る」ためのオブジェクト管理装置を開示している([要約]の[課題])。このオブジェクト管理装置は、「任意のオブジェクト(例えばイメージオブジェクト)を表示部に表示させるとともに前記表示部に操作アイコンを表示させる表示制御手段、前記操作アイコンの選択動作に応答して前記オブジェクトの表示状態及び/又は属性を変更し得る制御情報を発生する情報発生手段、前記情報発生手段で発生した制御情報と前記オブジェクトとを関連付けする関連付け手段を備える。操作アイコンを選択するだけでジェクトの表示状態及び/又は属性を変更し得る制御情報がそのオブジェクトに関連付けられ、オブジェクトの表示状態及び/又は属性を簡単に変更できる。」というものである([要約]の[解決手段])。   Japanese Patent Application Laid-Open No. 2001-100877 (Patent Document 3) discloses an object management apparatus for “managing objects such as image objects and facilitating processing” ([Summary] [Problem]). The object management apparatus is configured to display “an arbitrary object (for example, an image object) on a display unit and display an operation icon on the display unit; a display state of the object in response to a selection operation of the operation icon; And / or an information generating means for generating control information whose attributes can be changed, and an associating means for associating the control information generated by the information generating means with the object. Control information that can change the attribute is associated with the object, and the display state and / or attribute of the object can be easily changed ”([Solution] in [Summary]).

特開2007−235448号公報JP 2007-235448 A 特開2010−55598号公報JP 2010-55598 A 特開2001−100887号公報Japanese Patent Laid-Open No. 2001-100877

しかしながら、特許文献1の開示によれば、保存先の選択にのみタッチ領域が使用される。そのため、直感的に写真に属性を付与することができない。   However, according to the disclosure of Patent Document 1, a touch area is used only for selection of a storage destination. For this reason, it is not possible to intuitively assign attributes to photos.

また、特許文献2,3の開示によれば、撮影のための操作と属性付与のための操作とは別個であるため、直感的に写真に属性を付与するというシームレスな操作を実現することができない。   According to the disclosures of Patent Documents 2 and 3, since the operation for photographing and the operation for assigning attributes are separate, a seamless operation of intuitively assigning attributes to a photograph can be realized. Can not.

そのため、写真に対して属性を直感的に付与する技術が必要とされている。   Therefore, there is a need for a technique for intuitively assigning attributes to photographs.

一実施の形態に従うと、撮影装置が提供される。この撮影装置は、被写体を撮影するための撮影手段と、画像の表示と指示入力の受付とが可能なタッチパネル式ディスプレイと、撮影手段によって取得される画像に関連付けられる1つ以上の属性を格納するための記憶手段と、撮影装置を制御するための制御手段とを備える。制御手段は、1つ以上の属性をタッチパネル式ディスプレイに表示し、タッチパネル式ディスプレイに対するドラッグ操作に基づいて、1つ以上の属性情報から1つの属性を選択し、画像の撮影動作を撮影手段に実行させ、撮影手段によって撮影された画像と、選択された1つの属性とを関連付けて、記憶手段に保存するように構成されている。   According to one embodiment, an imaging device is provided. The photographing apparatus stores photographing means for photographing a subject, a touch panel display capable of displaying an image and receiving an instruction input, and one or more attributes associated with an image acquired by the photographing means. Storage means, and control means for controlling the photographing apparatus. The control means displays one or more attributes on the touch panel display, selects one attribute from the one or more attribute information based on a drag operation on the touch panel display, and executes an image photographing operation on the photographing means. The image picked up by the photographing means and one selected attribute are associated with each other and stored in the storage means.

好ましくは、撮影装置は、撮影手段によって取得された画像を認識するための認識手段と、複数の属性を有するデータベースとをさらに備える。認識手段は、撮影された画像を認識する。制御手段は、画像の認識結果に基づいて、データベースから属性を検索し、検索された属性をタッチパネル式ディスプレイに表示するように構成されている。   Preferably, the photographing apparatus further includes a recognition unit for recognizing an image acquired by the photographing unit, and a database having a plurality of attributes. The recognition means recognizes the photographed image. The control means is configured to search for an attribute from the database based on the recognition result of the image and to display the searched attribute on the touch panel display.

好ましくは、記憶手段は、タッチパネル式ディスプレイにおけるドラッグ操作に対応する軌跡と、軌跡に関連付けられる属性とを格納している。   Preferably, the storage unit stores a trajectory corresponding to a drag operation on the touch panel display and an attribute associated with the trajectory.

制御手段は、タッチパネル式ディスプレイに対するドラッグ操作に基づいて、当該ドラッグ操作に対応する軌跡を検知し、検知された軌跡に関連付けられている属性を、タッチパネル式ディスプレイに表示するように構成されている。   The control means is configured to detect a trajectory corresponding to the drag operation based on a drag operation on the touch panel display, and to display an attribute associated with the detected trajectory on the touch panel display.

好ましくは、撮影手段は、複数のカメラを含む。制御手段は、複数のカメラの各々に撮影を指示し、各カメラからの各画像に、選択された属性を関連付けるように構成されている。   Preferably, the photographing unit includes a plurality of cameras. The control means is configured to instruct each of the plurality of cameras to shoot and to associate the selected attribute with each image from each camera.

好ましくは、タッチパネル式ディスプレイは、視差バリアを形成するための形成手段を含む。制御手段は、各カメラからの各画像データを、3次元表示のための画像データとしてタッチパネル式ディスプレイに出力するように構成されている。   Preferably, the touch panel display includes a forming unit for forming a parallax barrier. The control means is configured to output each image data from each camera to the touch panel display as image data for three-dimensional display.

好ましくは、制御手段は、画像に関連付けられている属性に応じて各画像を管理するための管理手段を含む。   Preferably, the control means includes management means for managing each image according to an attribute associated with the image.

他の実施の形態に従うと、上記のいずれかに記載の撮影装置を含む情報処理端末が提供される。   According to another embodiment, an information processing terminal including any of the imaging devices described above is provided.

他の実施の形態に従うと、撮影装置を制御するための方法が提供される。撮影装置は、被写体を撮影するためのカメラと、画像の表示と指示入力の受付とが可能なタッチパネル式ディスプレイと、カメラによって取得される画像に関連付けられる1つ以上の属性を格納するためのメモリと、カメラを制御するためのコントローラとを備えている。この方法は、タッチパネル式ディスプレイが、1つ以上の属性を表示するステップと、コントローラが、タッチパネル式ディスプレイに対するドラッグ操作に基づいて、1つ以上の属性情報から1つの属性を選択するステップと、カメラが画像を撮影するステップと、コントローラが、カメラによって撮影された画像と、選択された1つの属性とを関連付けて、メモリに保存するステップとを含む。   According to another embodiment, a method for controlling an imaging device is provided. An imaging device includes a camera for capturing a subject, a touch panel display capable of displaying an image and receiving an instruction input, and a memory for storing one or more attributes associated with an image acquired by the camera And a controller for controlling the camera. The method includes: a touch panel display displaying one or more attributes; a controller selecting one attribute from one or more attribute information based on a drag operation on the touch panel display; and a camera Capturing an image, and a controller associating the image captured by the camera with the selected one attribute and storing it in memory.

他の実施の形態に従うと、撮影装置を制御するための方法を実現するためのプログラムが提供される。撮影装置は、被写体を撮影するためのカメラと、画像の表示と指示入力の受付とが可能なタッチパネル式ディスプレイと、カメラによって取得される画像に関連付けられる1つ以上の属性を格納するためのメモリと、カメラを制御するためのプロセッサとを備えている。このプログラムは、プロセッサに、1つ以上の属性をタッチパネル式ディスプレイに表示させるステップと、タッチパネル式ディスプレイに対するドラッグ操作に基づいて、1つ以上の属性情報から1つの属性を選択するステップと、カメラに画像を撮影させるステップと、カメラによって撮影された画像と、選択された1つの属性とを関連付けて、メモリに保存するステップとを実行させる。   According to another embodiment, a program for realizing a method for controlling an imaging apparatus is provided. An imaging device includes a camera for capturing a subject, a touch panel display capable of displaying an image and receiving an instruction input, and a memory for storing one or more attributes associated with an image acquired by the camera And a processor for controlling the camera. The program causes the processor to display one or more attributes on the touch panel display, to select one attribute from the one or more attribute information based on a drag operation on the touch panel display, and to the camera. A step of photographing an image and a step of associating the image photographed by the camera with the selected one attribute and storing them in the memory are executed.

なお、本実施の形態において、画像とは、静止画に限られず、動画であってもよい。   In the present embodiment, the image is not limited to a still image and may be a moving image.

ある局面によれば、写真に対して属性を直感的に付与することができる。
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。
According to a certain situation, an attribute can be intuitively given to a photograph.
The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.

デジタルカメラ10のハードウェア構成を表わすブロック図である。2 is a block diagram illustrating a hardware configuration of the digital camera 10. FIG. デジタルカメラ10が備えるCPU100が実行する一連の処理の一部を表わすフローチャートである。4 is a flowchart showing a part of a series of processes executed by CPU 100 provided in digital camera 10. デジタルカメラ10によって実現される機能の構成を表わすブロック図である。2 is a block diagram illustrating a configuration of functions realized by the digital camera 10. FIG. ディスプレイ170におけるタッチ操作および撮影条件の表示の態様を表わす図である。It is a figure showing the aspect of the touch operation in the display 170, and the display of an imaging condition. ROM160におけるデータの格納の一態様を概念的に表わす図である。FIG. 3 is a diagram conceptually showing one aspect of data storage in ROM 160. 保存期間を表わすアイコンの表示場所と、解像度を表わすアイコンの表示場所を表わす図である。It is a figure showing the display place of the icon showing a preservation | save period, and the display place of the icon showing resolution. ディスプレイ170において表示されている画像の色を変更するために表示される色の候補を表わす図である。It is a figure showing the color candidate displayed in order to change the color of the image currently displayed on the display 170. FIG. デジタルカメラ800によって実現される機能の構成を表わすブロック図である。FIG. 3 is a block diagram showing a configuration of functions realized by digital camera 800. デジタルカメラ800のCPU100が実行する一連の処理の一部を表わすフローチャートである。6 is a flowchart showing a part of a series of processes executed by CPU 100 of digital camera 800. ディスプレイ170が人物を表示している場合に当該人物にその人物の名前を関連付けることを表わす図である。When display 170 is displaying a person, it is a figure showing associating the person's name with the person concerned. 本実施の形態に係るデジタルカメラ1100によって実現される機能の構成を表わすブロック図である。It is a block diagram showing the structure of the function implement | achieved by the digital camera 1100 which concerns on this Embodiment. デジタルカメラ1100がデータベースを作成するために実行する一連の処理の一部を表わすフローチャートである。10 is a flowchart showing a part of a series of processes executed by digital camera 1100 to create a database. デジタルカメラ1100におけるデータの格納の一態様を概念的に表わす図である。FIG. 11 is a diagram conceptually illustrating one aspect of data storage in the digital camera 1100. 第3の実施の形態に係るデジタルカメラ1100を実現するCPU100が実行する一連の処理の一部を表わすフローチャートである。It is a flowchart showing a part of a series of processes which CPU100 which implement | achieves the digital camera 1100 which concerns on 3rd Embodiment performs. ディスプレイ170においてユーザによるタッチ操作の起動に応じて付与される属性が異なることを表わす図である。It is a figure showing that the attribute provided according to starting of touch operation by a user in display 170 changes. デジタルカメラ1600によって実現される機能の構成を表わすブロック図である。FIG. 11 is a block diagram showing a configuration of functions realized by digital camera 1600. デジタルカメラの撮影モードとディスプレイ170における軌跡とを関連付けて登録するためにCPU100が実行する一連の処理の一部を表わすフローチャートである。7 is a flowchart showing a part of a series of processes executed by CPU 100 in order to associate and register a shooting mode of a digital camera and a locus on display 170. 特定された軌跡に関連付けられている撮影モードによってデジタルカメラが撮影する場合にCPU100が実行する一連の処理の一部を表わすフローチャートである。It is a flowchart showing a part of a series of processes executed by the CPU 100 when the digital camera captures an image in the shooting mode associated with the specified locus. デジタルカメラ1900によって実現される機能の構成を表わすブロック図である。FIG. 11 is a block diagram illustrating a configuration of functions realized by digital camera 1900. 本実施の形態に係るデジタルカメラ20のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the digital camera 20 concerning this Embodiment. デジタルカメラ20が備えるCPU100が実行する一連の動作の一部を表わすフローチャートである。4 is a flowchart showing a part of a series of operations executed by CPU 100 provided in digital camera 20. 引きの画像とズームの画像を表示する図である。It is a figure which displays a pull image and a zoom image. 第6の実施の形態に係るデジタルカメラ2300によって実現される機能の構成を表わすブロック図である。It is a block diagram showing the structure of the function implement | achieved by the digital camera 2300 which concerns on 6th Embodiment. デジタルカメラ2300として機能するデジタルカメラ20のCPU100が実行する一連の動作の一部を表わすフローチャートである。10 is a flowchart showing a part of a series of operations executed by CPU 100 of digital camera 20 functioning as digital camera 2300. 第7の実施の形態に係るデジタルカメラ2500によって実現される機能の構成を表わすブロック図である。It is a block diagram showing the structure of the function implement | achieved by the digital camera 2500 concerning 7th Embodiment. 本実施の形態に係るデジタルカメラとして機能するデジタルカメラ20のCPU100が実行する一連の処理の一部を表わすフローチャートである。It is a flowchart showing a part of a series of processings which CPU100 of digital camera 20 which functions as a digital camera concerning this embodiment performs. 本実施の形態に係るデジタルカメラが特定された画像を削除する場合に実行する処理の一部を表わすフローチャートである。It is a flowchart showing a part of process performed when the digital camera which concerns on this Embodiment deletes the specified image.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<第1の実施の形態>
図1を参照して、本発明の第1の実施の形態に係るデジタルカメラ10について説明する。図1は、デジタルカメラ10のハードウェア構成を表わすブロック図である。なお、以下の例では、デジタルカメラ10に基づいて本願発明の一実施の形態が説明されるが、本願発明に係る技術思想の適用はデジタルカメラ10に限られない。たとえば、本願発明は、携帯電話機、スマートフォンその他の携帯可能な情報処理端末であって、カメラ機能とタッチパネルとを有する端末にも適用可能である。
<First Embodiment>
A digital camera 10 according to a first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram illustrating a hardware configuration of the digital camera 10. In the following example, an embodiment of the present invention is described based on the digital camera 10, but the application of the technical idea according to the present invention is not limited to the digital camera 10. For example, the present invention is applicable to a portable information processing terminal such as a mobile phone, a smartphone, or the like, which has a camera function and a touch panel.

デジタルカメラ10は、CPU(Central Processing Unit)100と、レンズ110と、絞り112と、CCD(Charge Coupled Device)114と、CDS(Correlated Double Sampling)116と、増幅器118と、A/D(Analog to Digital)変換器120と、レンズモータ130と、アイリスモータ132と、タイミングジェネレータ134と、レリーズボタン140と、モード選択ボタン142と、電源ボタン144と、RAM(Random Access Memory)150と、画像信号処理回路152と、YC変換処理回路154と、圧縮伸張処理回路158と、ROM(Read-Only Memory)160と、フラッシュメモリ162と、LCD(Liquid Crystal Display)ドライバ164と、メディアコントローラ166と、ディスプレイ170と、タッチセンサ172とを備える。メディアコントローラ166には、メモリカード168が装着され得る。   The digital camera 10 includes a CPU (Central Processing Unit) 100, a lens 110, a diaphragm 112, a CCD (Charge Coupled Device) 114, a CDS (Correlated Double Sampling) 116, an amplifier 118, an A / D (Analog to). Digital) converter 120, lens motor 130, iris motor 132, timing generator 134, release button 140, mode selection button 142, power button 144, RAM (Random Access Memory) 150, and image signal processing Circuit 152, YC conversion processing circuit 154, compression / decompression processing circuit 158, ROM (Read-Only Memory) 160, flash memory 162, LCD (Liquid Crystal Display) driver 164, media controller 166, and display 170 And a touch sensor 172. A memory card 168 can be attached to the media controller 166.

ある局面において、デジタルカメラ10は、その本体(図示しない)が薄型の略直方体形状に形成されている。レンズ110は、本体の前面に設けられる。レリーズボタン140は、本体の上面あるいは本体の背面に設けられる。   In one aspect, the digital camera 10 has a main body (not shown) formed in a thin, substantially rectangular parallelepiped shape. The lens 110 is provided on the front surface of the main body. The release button 140 is provided on the upper surface of the main body or the back surface of the main body.

CPU100は、データバス180を介してデジタルカメラ10の各部に電気的に接続されている。CPU100は、レリーズボタン140、モード選択ボタン142、電源ボタン144、並びに、タッチセンサ172から入力される信号に基づいて接続された各部を駆動制御する。   The CPU 100 is electrically connected to each part of the digital camera 10 via the data bus 180. The CPU 100 drives and controls the connected units based on signals input from the release button 140, the mode selection button 142, the power button 144, and the touch sensor 172.

デジタルカメラ10のユーザが、デジタルカメラ10の動作モードを撮影モードにセットしてレリーズボタン140を押下すると、レンズ110によって結像された被写体光が撮影画像として取得される。CPU100は、撮影画像を、メモリカード168に書き込む。   When the user of the digital camera 10 sets the operation mode of the digital camera 10 to the photographing mode and presses the release button 140, the subject light imaged by the lens 110 is acquired as a photographed image. The CPU 100 writes the captured image in the memory card 168.

ある局面において、デジタルカメラ10の本体の側面には、モード選択ボタン142、電源ボタン144が設けられる。デジタルカメラ10は、上記撮影モードに加えて、メモリカード168に格納された撮影画像をディスプレイ170に再生表示するための再生モード、デジタルカメラ10の各種設定を行うためのメニューモード等の動作モードを有する。ユーザは、モード選択ボタン142を押下することにより、各モード間を切り替えることができる。また、他の局面において、ユーザは、電源ボタン144を押下する毎に、デジタルカメラ10の電源のオン/オフを切り替えることができる。   In one aspect, a mode selection button 142 and a power button 144 are provided on the side surface of the main body of the digital camera 10. In addition to the above-described shooting mode, the digital camera 10 has operation modes such as a playback mode for playing back and displaying a shot image stored in the memory card 168 and a menu mode for performing various settings of the digital camera 10. Have. The user can switch between the modes by pressing the mode selection button 142. In another aspect, the user can switch on / off the power of the digital camera 10 every time the power button 144 is pressed.

ディスプレイ170は、デジタルカメラ10の本体の背面に設けられる。ディスプレイ170は、液晶表示装置、有機EL(Electro Luminescence)ディスプレイ等によって実現されるが、これらの装置に限られない。ある局面において、ディスプレイ170は、その表示画面が本体の背面とほぼ等しい大きさに形成される。ディスプレイ170は、撮影モードにおいて、被写体の撮影画像をリアルタイムで表示する電子ビューファインダとして機能する。また、再生モードにおいて、ディスプレイ170は、メモリカード168に格納されている撮影画像を再生表示するためのモニタとして機能する。さらに、メニューモードにおいて、ディスプレイ170は、デジタルカメラ10の動作を規定するための入力を受け付ける設定画面を表示する。   The display 170 is provided on the back surface of the main body of the digital camera 10. The display 170 is realized by a liquid crystal display device, an organic EL (Electro Luminescence) display, or the like, but is not limited to these devices. In one aspect, the display 170 has a display screen that is approximately the same size as the back of the main body. The display 170 functions as an electronic viewfinder that displays a captured image of a subject in real time in the shooting mode. In the playback mode, the display 170 functions as a monitor for playing back and displaying the captured image stored in the memory card 168. Further, in the menu mode, the display 170 displays a setting screen for receiving an input for defining the operation of the digital camera 10.

また、ディスプレイ170には、パネル状のタッチセンサ172が設けられている。ユーザの手や指がディスプレイ170の表示画面に接触すると、タッチセンサ172は、この接触位置を検知するように構成されている。ユーザがデジタルカメラ10の本体を把持すると、タッチセンサ172は、グリップ領域を検知することもできる。また、タッチセンサ172は、ディスプレイ170へのタッチ操作によって各種操作指示の入力を受け付けるための操作部としても機能する。   Further, the display 170 is provided with a panel-like touch sensor 172. When the user's hand or finger touches the display screen of the display 170, the touch sensor 172 is configured to detect the contact position. When the user grips the main body of the digital camera 10, the touch sensor 172 can also detect the grip area. The touch sensor 172 also functions as an operation unit for receiving input of various operation instructions by a touch operation on the display 170.

絞り112、CCD114は、レンズ110の背後に並べて配置される。レンズ110は、レンズモータ130に接続される。絞り112は、アイリスモータ132に接続される。レンズモータ130は、ユーザの操作に応じて、レンズ110のズームレンズをワイド側に、またはテレ側に移動することによって、ズーム倍率を変更する。また、レンズモータ130は、CPU100からの信号に基づいて被写体距離やズームレンズの変倍に応じてレンズ110のフォーカスレンズを移動することにより、撮影条件が最適となるように焦点を調整する。アイリスモータ132は、絞り112を作動させることにより露出を調整する。   The aperture 112 and the CCD 114 are arranged side by side behind the lens 110. The lens 110 is connected to the lens motor 130. The diaphragm 112 is connected to the iris motor 132. The lens motor 130 changes the zoom magnification by moving the zoom lens of the lens 110 to the wide side or the tele side in accordance with a user operation. Further, the lens motor 130 adjusts the focal point so that the photographing condition is optimized by moving the focus lens of the lens 110 according to the subject distance and zoom lens magnification based on the signal from the CPU 100. The iris motor 132 adjusts the exposure by operating the diaphragm 112.

レンズ110、絞り112を透過した被写体光は、CCD114の受光面で像を構成する。CCD114の受光面には、受光量に応じた電荷を蓄積するための受光素子が複数配列されている。CCD114は、撮像によって各受光素子に蓄積された電荷を撮像信号として出力する。CCD114には、CPU100によって制御されるタイミングジェネレータ(TG)42が接続されている。CCD114は、TG134から入力されるタイミング信号(クロックパルス)によって駆動される。   The subject light transmitted through the lens 110 and the diaphragm 112 forms an image on the light receiving surface of the CCD 114. On the light receiving surface of the CCD 114, a plurality of light receiving elements for accumulating charges according to the amount of received light are arranged. The CCD 114 outputs the charge accumulated in each light receiving element by imaging as an imaging signal. A timing generator (TG) 42 controlled by the CPU 100 is connected to the CCD 114. The CCD 114 is driven by a timing signal (clock pulse) input from the TG 134.

CCD114により取得された撮像信号は、相関二重サンプリング回路(CDS)116に入力され、CCD114の各受光素子の蓄積電荷量に対応したR,G,Bの画像データとして出力される。CDS116から出力された画像データは、増幅器(AMP)118で増幅され、増幅後のデータは、A/D120によってデジタルの画像データに変換される。A/D120から出力される画像データは、ワークメモリであるRAM150に一時的に格納される。   The imaging signal acquired by the CCD 114 is input to a correlated double sampling circuit (CDS) 116 and output as R, G, and B image data corresponding to the amount of charge accumulated in each light receiving element of the CCD 114. The image data output from the CDS 116 is amplified by an amplifier (AMP) 118, and the amplified data is converted into digital image data by the A / D 120. Image data output from the A / D 120 is temporarily stored in the RAM 150 which is a work memory.

画像信号処理回路152は、RAM150に格納された画像データに基づいて、階調変換、ホワイトバランス補正、γ補正処理その他の画像処理を実行する。   The image signal processing circuit 152 executes gradation conversion, white balance correction, γ correction processing, and other image processing based on the image data stored in the RAM 150.

YC変換処理回路154は、画像処理後のデータを、輝度信号Yと、色差信号Cr,Cbとに変換する。   The YC conversion processing circuit 154 converts the data after image processing into a luminance signal Y and color difference signals Cr and Cb.

撮影モードにおいて、CCD114は、所定のフレームレートで撮像処理を実行する。画像信号処理回路152は、撮像処理によって取得された画像データに対して上記画像処理を実行する。ディスプレイ170は、処理済みの撮影画像を現在の画像として表示する。   In the shooting mode, the CCD 114 executes an imaging process at a predetermined frame rate. The image signal processing circuit 152 performs the image processing on the image data acquired by the imaging processing. The display 170 displays the processed captured image as the current image.

LCDドライバ164は、ディスプレイ170を駆動する。LCDドライバ164は、画像メモリ、D/Aコンバータ等(図示しない)を有している。D/Aコンバータは、画像メモリに一時的に蓄積された撮影画像を、たとえば、NTSC(National Television System Committee)方式のアナログ信号に変換して、変換後の信号をディスプレイ170に出力する。   The LCD driver 164 drives the display 170. The LCD driver 164 has an image memory, a D / A converter, and the like (not shown). The D / A converter converts the captured image temporarily stored in the image memory into, for example, an NTSC (National Television System Committee) analog signal, and outputs the converted signal to the display 170.

撮影モードにおいて、レリーズボタン140が押下され、レリーズ操作が行われると、CCD114は、所謂スルー画像表示のためのライブ画像よりも画素数の大きな画像データ(以下「オリジナル画像データ」という)を取得する。画像信号処理回路152は、オリジナル画像データに対して、上記の画像処理を実行する。圧縮伸張処理回路158は、予め定められた圧縮形式(たとえば、JPEG(Joint Photographic Experts Group)形式)に従って、当該画像処理後の撮影画像を圧縮する。圧縮された撮影画像は、メディアコントローラ166によってメモリカード168に書き込まれる。   In the shooting mode, when the release button 140 is pressed and a release operation is performed, the CCD 114 acquires image data (hereinafter referred to as “original image data”) having a larger number of pixels than a live image for so-called live view display. . The image signal processing circuit 152 performs the above image processing on the original image data. The compression / decompression processing circuit 158 compresses the captured image after the image processing according to a predetermined compression format (for example, JPEG (Joint Photographic Experts Group) format). The compressed captured image is written to the memory card 168 by the media controller 166.

一方、再生モードにおいて、メモリカード168に記録された撮影画像は、メディアコントローラ166によってRAM150に読み出される。圧縮伸張処理回路158は、RAM150に読み出された画像の伸張処理を実行する。LCDドライバ164は、その伸張処理後のデータを読み出し、そのデータに基づいて画像をディスプレイ170に再生表示する。   On the other hand, in the playback mode, the captured image recorded on the memory card 168 is read out to the RAM 150 by the media controller 166. The compression / decompression processing circuit 158 executes decompression processing of the image read to the RAM 150. The LCD driver 164 reads the decompressed data and reproduces and displays an image on the display 170 based on the data.

タッチセンサ172は、ユーザの手や指の接触を検知すると、この接触位置を示す信号をCPU100に対して出力する。ある局面において、タッチセンサ172は、その配置位置に応じて、ディスプレイ170の表示画面の下に配置される。他の局面において、タッチセンサ172は、透明なスクリーンで形成され、表示画面を覆うように構成される。また、ディスプレイ170への接触を検知するための方法として、たとえば、ディスプレイ170のパネル(図示しない)における圧力の変化を感知する感圧式と、静電気による電気信号を感知する静電式などのがあるが、いずれの方法も、本実施の形態に適用され得る。   When the touch sensor 172 detects contact of a user's hand or finger, the touch sensor 172 outputs a signal indicating the contact position to the CPU 100. In one aspect, the touch sensor 172 is disposed under the display screen of the display 170 in accordance with the arrangement position. In another aspect, touch sensor 172 is formed of a transparent screen and is configured to cover the display screen. In addition, as a method for detecting contact with the display 170, for example, there are a pressure-sensitive type that detects a change in pressure on a panel (not shown) of the display 170, and an electrostatic type that detects an electric signal due to static electricity. However, any method can be applied to the present embodiment.

ある局面において、CPU100が、撮影画像をディスプレイ170に表示するとき、タッチセンサ172からの信号がCPU100にない場合、すなわち、ユーザがディスプレイ170に触れていない場合には、CPU100は、撮影画像をディスプレイ170の表示画面の全面に表示する。他の局面において、CPU100が、タッチセンサ172から出力された信号の入力を検知すると、CPU100は、タッチセンサ172によって検出された接触位置を避けるように撮影画像の表示領域を設定し、この表示領域に撮影画像を表示する。   In one aspect, when the CPU 100 displays a captured image on the display 170, when the signal from the touch sensor 172 is not in the CPU 100, that is, when the user is not touching the display 170, the CPU 100 displays the captured image. The image is displayed on the entire display screen 170. In another aspect, when the CPU 100 detects the input of the signal output from the touch sensor 172, the CPU 100 sets a display area of the captured image so as to avoid the contact position detected by the touch sensor 172, and this display area The captured image is displayed on the screen.

図2を参照して、第1の実施の形態に係るデジタルカメラ10の制御構造について説明する。図2は、デジタルカメラ10が備えるCPU100がプログラムを実行することにより実現される一連の処理の一部を表わすフローチャートである。   With reference to FIG. 2, the control structure of the digital camera 10 according to the first embodiment will be described. FIG. 2 is a flowchart showing a part of a series of processes realized by the CPU 100 included in the digital camera 10 executing a program.

ステップS210にて、CPU100は、RAM150に保持されているデータに基づいて、LCDドライバ164を介してディスプレイ170に画像を表示させる。ステップS220にて、CPU100は、タッチセンサ172からの出力に基づいて、ディスプレイ170へのタッチ操作を検出する。   In step S <b> 210, CPU 100 causes display 170 to display an image via LCD driver 164 based on the data held in RAM 150. In step S220, CPU 100 detects a touch operation on display 170 based on the output from touch sensor 172.

ステップS230にて、CPU100は、タッチセンサ172から出力された信号に基づいて、ディスプレイ170におけるタッチ操作の場所を特定する。ステップS240にて、CPU100は、特定された場所に基づいて、撮影条件を決定する。当該撮影条件は、たとえば保存期間、撮影サイズその他を含む。ステップS250にて、CPU100は、ディスプレイ170において、表示されている画像に重ねて、当該決定された撮影条件を表示する。   In step S230, CPU 100 identifies the location of the touch operation on display 170 based on the signal output from touch sensor 172. In step S240, CPU 100 determines shooting conditions based on the specified location. The shooting conditions include, for example, a storage period, a shooting size, and the like. In step S250, CPU 100 causes display 170 to display the determined shooting condition so as to overlap the displayed image.

ステップS260にて、CPU100は、タッチセンサ172からの出力に基づいてタッチ操作がなくなったことを検出すると、アイリスモータ132およびタイミングジェネレータ134にそれぞれ制御信号を送信することにより、決定された撮影条件で撮影する。ステップS270にて、CPU100は、決定された保存期間と、撮影により得られた画像とを関連付けてフラッシュメモリ162その他の記憶装置に保存する。保存場所は、デジタルカメラ10のユーザによって撮影前に予め定められているが、ユーザの操作によって変更可能である。   In step S260, when CPU 100 detects the absence of the touch operation based on the output from touch sensor 172, CPU 100 transmits control signals to iris motor 132 and timing generator 134, respectively, under the determined shooting conditions. Take a picture. In step S <b> 270, CPU 100 associates the determined storage period with the image obtained by shooting, and stores it in flash memory 162 or another storage device. The storage location is predetermined by the user of the digital camera 10 before shooting, but can be changed by the user's operation.

図3を参照して、本実施の形態に係るデジタルカメラ10の構成についてさらに説明する。図3は、デジタルカメラ10によって実現される機能の構成を表わすブロック図である。デジタルカメラ20は、タッチ検出部310と、タッチ場所特定部320と、撮影条件記憶部330と、撮影条件決定部340と、撮影制御部350と、撮像部360と、一時記憶部370と、画像記憶部380と、画像管理部390と、表示部395とを備える。   With reference to FIG. 3, the configuration of digital camera 10 according to the present embodiment will be further described. FIG. 3 is a block diagram illustrating a configuration of functions realized by the digital camera 10. The digital camera 20 includes a touch detection unit 310, a touch location specifying unit 320, a shooting condition storage unit 330, a shooting condition determination unit 340, a shooting control unit 350, an imaging unit 360, a temporary storage unit 370, and an image. A storage unit 380, an image management unit 390, and a display unit 395 are provided.

タッチ検出部310は、デジタルカメラ10に対する操作に基づいて表示部395の表示領域におけるタッチ操作を検出する。タッチ場所特定部320は、タッチ検出部310からの出力に基づいて、表示領域においてタッチ操作が行なわれた場所を特定する。   The touch detection unit 310 detects a touch operation in the display area of the display unit 395 based on an operation on the digital camera 10. The touch location specifying unit 320 specifies the location where the touch operation is performed in the display area based on the output from the touch detection unit 310.

撮影条件記憶部330は、デジタルカメラ10の撮影条件として予め定められた撮影条件を保持している。撮影条件決定部340は、タッチ場所特定部320によって特定されたタッチ場所と、撮影条件記憶部330に予め格納されている撮影条件とに基づいて、そのときの撮影条件を決定する。   The shooting condition storage unit 330 holds shooting conditions set in advance as shooting conditions of the digital camera 10. The shooting condition determination unit 340 determines the shooting condition at that time based on the touch location specified by the touch location specifying unit 320 and the shooting condition stored in advance in the shooting condition storage unit 330.

撮影制御部350は、タッチ検出部310からの出力と、撮影条件決定部340によって決定された撮影条件とに基づいて撮像部360による撮像を制御する。撮像部360は、撮影制御部350からの制御に基づいて撮像動作を実行し、撮像により得られた画像データを一時記憶部370に書き込む。一時記憶部370は、デジタルカメラ10による撮影によって用いられるデータあるいは撮影によって得られたデータを一時的に保持する。   The imaging control unit 350 controls imaging by the imaging unit 360 based on the output from the touch detection unit 310 and the imaging conditions determined by the imaging condition determination unit 340. The imaging unit 360 executes an imaging operation based on the control from the imaging control unit 350 and writes image data obtained by imaging in the temporary storage unit 370. The temporary storage unit 370 temporarily holds data used for shooting by the digital camera 10 or data obtained by shooting.

画像管理部390は、一時記憶部370に保持されているデータまたは撮影条件、または画像記憶部380において不揮発的に格納されている画像データに基づいて画像を表示部395に表示する。表示部395は、一時記憶部370によって保持されているデータに基づいて撮像によって得られた画像または撮影条件を表示する。   The image management unit 390 displays an image on the display unit 395 based on the data or shooting conditions held in the temporary storage unit 370 or the image data stored in the image storage unit 380 in a nonvolatile manner. The display unit 395 displays an image obtained by imaging based on the data stored in the temporary storage unit 370 or imaging conditions.

ある局面において、タッチ検出部310は、タッチセンサ172によって実現される。タッチ場所特定部320、撮影条件決定部340、撮影制御部350、画像管理部390は、CPU100によって実現される。撮影条件記憶部330は、ROM160、またはフラッシュメモリ162によって実現される。撮像部360は、レンズ110、絞り112およびCCD114によって実現される。一時記憶部370は、RAM150によって実現される。画像記憶部380は、フラッシュメモリ162、メモリカード168によって実現される。表示部395は、ディスプレイ170によって実現される。   In one aspect, the touch detection unit 310 is realized by the touch sensor 172. The touch location specifying unit 320, the shooting condition determination unit 340, the shooting control unit 350, and the image management unit 390 are realized by the CPU 100. The photographing condition storage unit 330 is realized by the ROM 160 or the flash memory 162. The imaging unit 360 is realized by the lens 110, the diaphragm 112, and the CCD 114. The temporary storage unit 370 is realized by the RAM 150. The image storage unit 380 is realized by the flash memory 162 and the memory card 168. Display unit 395 is realized by display 170.

図4を参照して、本実施の形態に係るデジタルカメラ10の動作について説明する。図4は、ディスプレイ170におけるタッチ操作および撮影条件の表示の態様を表わす図である。   The operation of the digital camera 10 according to the present embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating a display mode of a touch operation and shooting conditions on display 170.

図4(A)を参照して、ディスプレイ170は、レンズ110を通して描画される画像を表示している。ここで、デジタルカメラ10のユーザがディスプレイ170に対してタッチ操作を行なうと、撮影条件および画像の保存期間を選択するための表示が示される。たとえば図4(A)に示される例では、ユーザの指がディスプレイ170の中央部をタッチすると円形のアイコンが表示され、画面右上方向に指がなぞられると、画像410に示されるように、たとえば解像度(10M)と撮影期間(2年)とが示された撮影条件および保存期間が示される。   Referring to FIG. 4A, display 170 displays an image drawn through lens 110. Here, when the user of the digital camera 10 performs a touch operation on the display 170, a display for selecting shooting conditions and an image storage period is shown. For example, in the example shown in FIG. 4A, when the user's finger touches the center of the display 170, a circular icon is displayed. When the finger is traced in the upper right direction of the screen, as shown in the image 410, for example, An imaging condition and a storage period showing the resolution (10M) and the imaging period (2 years) are shown.

図4(B)に示されるように、ユーザがディスプレイ170上にタッチしている指を下方向にスライドさせると、画像420に示されるように、たとえば解像度はそのままで(10M)、保存期間が1週間に変更された撮影条件および保存期間が示される。この状態でユーザがタッチしている指をディスプレイ170から離すと、CPU100は、タッチセンサ172からの出力に基づいて当該解像度および保存期間が選択されたと判断し、その解像度および保存期間をフラッシュメモリ162に保存する。   As shown in FIG. 4B, when the user slides the finger touching the display 170 downward, as shown in the image 420, for example, the resolution remains unchanged (10M) and the storage period is The imaging conditions and storage period changed in one week are shown. When the finger touched by the user is released from the display 170 in this state, the CPU 100 determines that the resolution and the storage period are selected based on the output from the touch sensor 172, and the resolution and the storage period are determined based on the flash memory 162. Save to.

ここで図5を参照して、本実施の形態に係るデジタルカメラ10のデータ構造について説明する。図5は、ROM160におけるデータの格納の一態様を概念的に表わす図である。ROM160は、領域510から560を含む。領域510には、場所を特定するためのデータが格納されている。領域520には、画像の保存期間を規定する制御データが格納されている。領域530には、当該保存期間をアイコンとして表示するための画像データが格納されている。   Here, the data structure of the digital camera 10 according to the present embodiment will be described with reference to FIG. FIG. 5 is a diagram conceptually showing one mode of data storage in ROM 160. ROM 160 includes areas 510 to 560. The area 510 stores data for specifying the location. The area 520 stores control data that defines an image storage period. The area 530 stores image data for displaying the retention period as an icon.

領域540には、デジタルカメラ10の解像度を表示する場所を規定するデータが格納されている。領域550には、解像度を制御するためのデータが格納されている。領域560には、当該解像度をアイコンとして表示するための画像データが格納されている。   In the area 540, data defining a place where the resolution of the digital camera 10 is displayed is stored. Area 550 stores data for controlling the resolution. The area 560 stores image data for displaying the resolution as an icon.

たとえば、場所として「1行目」が検出されまた5列目が検出されると、制御データとして保存期間「2年」と解像度「10M」とが特定される。   For example, when “first row” is detected as the place and the fifth column is detected, the storage period “2 years” and the resolution “10 M” are specified as the control data.

図6を参照して、本実施の形態に係るデジタルカメラ10における画像の保存期間を表わすアイコンと解像度を表わすアイコンとが表示される場所について説明する。図6(A)に示されるように、画像を保存するための期間は、ディスプレイ170において行毎に異なる条件として規定されている。図6(B)に示されるように、解像度は、ディスプレイ170における列毎に規定されている。これらのアイコンを組み合わせることにより、図4に示されるアイコンが表示される。   With reference to FIG. 6, the place where the icon representing the storage period of the image and the icon representing the resolution are displayed in digital camera 10 according to the present embodiment will be described. As shown in FIG. 6A, the period for storing the image is defined as different conditions for each row in the display 170. As shown in FIG. 6B, the resolution is defined for each column in the display 170. The icons shown in FIG. 4 are displayed by combining these icons.

以上のようにして、第1の実施の形態に係るデジタルカメラ10によれば、ユーザは、ディスプレイ170の画面上に描画されるアイコン内でタッチ操作を行い、ドラッグ操作を行う。ここで、保存期間および撮影サイズが、画面の2軸(縦軸、横軸)のいずれかに対して関連付けられている。ユーザは、ドラッグしたまま、指がタッチしている場所を変更することにより、その場所に対応する解像度と保存期間とがデジタルカメラ10によって選択され、選択された解像度と保存期間とが、ユーザにフィードバックされる。   As described above, according to the digital camera 10 according to the first embodiment, the user performs a touch operation on an icon drawn on the screen of the display 170 and performs a drag operation. Here, the storage period and the shooting size are associated with one of the two axes (vertical axis and horizontal axis) of the screen. The user changes the place touched by the finger while dragging, and the resolution and the storage period corresponding to the place are selected by the digital camera 10, and the selected resolution and the storage period are determined by the user. Provide feedback.

ユーザが指を離すと、デジタルカメラ10は、その瞬間にシャッター(図示しない)を切ると同時に、選択された解像度で写真を撮影し、選択された保存期間を撮影した写真に付与し、当該写真をメモリに保存する。このようにすると、写真に直感的な操作で属性を付与することができる。   When the user releases his / her finger, the digital camera 10 releases a shutter (not shown) at the same time, and at the same time, takes a photo with the selected resolution, and gives the selected storage period to the taken photo. Is stored in memory. In this way, an attribute can be given to the photograph by an intuitive operation.

なお、属性の選択と、写真の撮影との順序は、前述の態様で特定されるものに限られない。たとえば、先にユーザが撮影を行った後に、ドラッグ操作によって属性を設定する構成であってもよい。また、写真は静止画に限られず、動画であってもよい。   Note that the order of attribute selection and photography is not limited to that specified in the above-described manner. For example, the configuration may be such that the attribute is set by a drag operation after the user has taken a picture first. The photograph is not limited to a still image, and may be a moving image.

<第2の実施の形態>
以下、本発明の第2の実施の形態について説明する。第2の実施の形態に係るデジタルカメラ10は、ディスプレイ170に表示される写真における色の候補を選択的に表示できる機能を有する点で、前述の第1の実施の形態に係るデジタルカメラ10と異なる。なお、本実施の形態に係るデジタルカメラ10のハードウェア構成は、第1の実施の形態に係るデジタルカメラ10のハードウェア構成(図1)と同じである。したがって、それらの説明は繰り返さない。
<Second Embodiment>
Hereinafter, a second embodiment of the present invention will be described. The digital camera 10 according to the second embodiment has the function of selectively displaying color candidates in a photograph displayed on the display 170, and the digital camera 10 according to the first embodiment described above. Different. The hardware configuration of the digital camera 10 according to the present embodiment is the same as the hardware configuration of the digital camera 10 according to the first embodiment (FIG. 1). Therefore, those descriptions are not repeated.

図7を参照して、第2の実施の形態に係るデジタルカメラ10における撮影条件の表示態様について説明する。図7は、ディスプレイ170において表示されている画像の色を変更するために表示される色の候補を表わす図である。   With reference to FIG. 7, the display mode of the imaging conditions in the digital camera 10 according to the second embodiment will be described. FIG. 7 is a diagram showing color candidates displayed in order to change the color of the image displayed on display 170.

たとえば、ディスプレイ170が木を表示している場合にデジタルカメラ10のユーザが木の葉の部分をタッチすると、CPU100は、そのタッチが行なわれた画素の近傍の色情報を読み取り、その結果に基づいて、予め規定された色の選択候補をディスプレイ170に表示する。たとえば、図7に示される例では、木の色を変更するための候補として、桃色、紫色、橙色、茶色、赤色、黄色の選択を受け付けるための各アイコンが表示される。ユーザが、ディスプレイ170に表示されているアイコンの1つを選択して、そのアイコンの上で指を離すと、CPU100は、その指によってタッチされていた色が選択されたと判断し、アイリスモータ132およびタイミングジェネレータ134に対してそれぞれ制御信号を送ることにより撮影動作を実行する。   For example, when the user of the digital camera 10 touches a leaf portion when the display 170 displays a tree, the CPU 100 reads color information in the vicinity of the pixel where the touch is performed, and based on the result, Predetermined color selection candidates are displayed on the display 170. For example, in the example shown in FIG. 7, icons for accepting selection of pink, purple, orange, brown, red, and yellow are displayed as candidates for changing the color of the tree. When the user selects one of the icons displayed on the display 170 and releases the finger on the icon, the CPU 100 determines that the color touched by the finger has been selected, and the iris motor 132. The photographing operation is executed by sending control signals to the timing generator 134.

図8を参照して、本発明の第2の実施の形態に係るデジタルカメラ800の構成について説明する。図8は、デジタルカメラ800によって実現される機能の構成を表わすブロック図である。デジタルカメラ800は、図3に示される構成に加えて、さらに色特定部810と、撮影条件決定部820と、画像処理部830とを備える。   With reference to FIG. 8, a configuration of digital camera 800 according to the second exemplary embodiment of the present invention will be described. FIG. 8 is a block diagram showing a configuration of functions realized by digital camera 800. The digital camera 800 further includes a color specifying unit 810, a shooting condition determining unit 820, and an image processing unit 830 in addition to the configuration shown in FIG.

色特定部810は、タッチ場所特定部320によって特定された表示部395における場所に基づいて、その場所に関連付けられている色を特定する。   The color specifying unit 810 specifies a color associated with the location based on the location on the display unit 395 specified by the touch location specifying unit 320.

撮影条件決定部820は、色特定部810による特定の結果(選択された色)と、撮影条件記憶部330に予め格納されている撮影条件とに基づいて、そのときの撮影条件を決定する。決定された撮影条件は、撮影制御部350に送られる。   The shooting condition determining unit 820 determines the shooting conditions at that time based on the specific result (selected color) by the color specifying unit 810 and the shooting conditions stored in the shooting condition storage unit 330 in advance. The determined shooting condition is sent to the shooting control unit 350.

画像処理部830は、画像記憶部380によって保存されている画像、または、一時記憶部370に一時的に保持されている画像の色を変更する処理を実行する。画像処理部830は、その処理後のデータに基づいて表示部395に画像を表示させる。   The image processing unit 830 executes processing for changing the color of the image stored in the image storage unit 380 or the image temporarily stored in the temporary storage unit 370. The image processing unit 830 displays an image on the display unit 395 based on the processed data.

ある局面において、色特定部810と撮影条件決定部820と画像処理部830とは、CPU100によって実現される。   In a certain aspect, the color specifying unit 810, the shooting condition determining unit 820, and the image processing unit 830 are realized by the CPU 100.

[制御構造]
図9を参照して、第2の実施の形態に係るデジタルカメラ800の制御構造について、図1のハードウェア構成を参照して説明する。図9は、デジタルカメラ800を構成するCPU100が実行するプログラムによって実現される一連の処理の一部を表わすフローチャートである。なお、第1の実施の形態に係る処理と同一の処理には同一の番号を付してある。したがって、それらの説明は繰り返さない。
[Control structure]
With reference to FIG. 9, a control structure of digital camera 800 according to the second embodiment will be described with reference to the hardware configuration of FIG. FIG. 9 is a flowchart showing a part of a series of processes realized by a program executed by CPU 100 constituting digital camera 800. In addition, the same number is attached | subjected to the process same as the process which concerns on 1st Embodiment. Therefore, those descriptions are not repeated.

ステップS910にて、CPU100は、ステップS230において検出されたタッチ操作の場所の近傍の画素で表示されている色を特定する。ステップS920にて、CPU100は、特定された色に関連付けられた色の候補をメモリ(たとえばROM160、フラッシュメモリ162など)から読み出す。   In step S910, CPU 100 specifies a color displayed in a pixel near the place of the touch operation detected in step S230. In step S920, CPU 100 reads color candidates associated with the specified color from a memory (for example, ROM 160, flash memory 162, etc.).

ステップS930にて、CPU100は、色の候補を示す複数のアイコンをディスプレイに表示する(図7参照)。ステップS940にて、CPU100は、タッチセンサ172からの出力に基づいて、ディスプレイ170におけるタッチ操作がなくなったことを検出する。   In step S930, CPU 100 displays a plurality of icons indicating color candidates on the display (see FIG. 7). In step S <b> 940, CPU 100 detects that the touch operation on display 170 has disappeared based on the output from touch sensor 172.

ステップS950にて、CPU100は、タッチ操作がなくなった場所に関連付けられている色と、予め設定されている撮影条件とに基づいてアイリスモータ132およびタイミングジェネレータ134にそれぞれ制御信号を送ることにより撮影を実行する。ステップS960にて、CPU100は、CCD114から出力される画像データをRAM150に保存する。   In step S950, CPU 100 captures images by sending control signals to iris motor 132 and timing generator 134, respectively, based on the color associated with the place where the touch operation has ceased and the image capturing conditions set in advance. Execute. In step S <b> 960, CPU 100 stores image data output from CCD 114 in RAM 150.

ステップS970にて、CPU100は、複数のアイコンのうちタッチ操作がなくなったことが検出されたアイコンを特定する。ステップS980にて、CPU100は、特定されたアイコンに関連付けられた色を用いて、RAM150に保存されている画像の色を変更する。ステップS990にて、CPU100は、変更後の画像をメモリカード168に保存する。   In step S970, CPU 100 identifies an icon from which a touch operation has been detected among a plurality of icons. In step S980, CPU 100 changes the color of the image stored in RAM 150 using the color associated with the specified icon. In step S990, CPU 100 stores the changed image in memory card 168.

以上のようにして、本実施の形態に係るデジタルカメラ800によると、ユーザは、画面に表示された写真のうちの属性を付与したい色が表示されている部分にタッチする。デジタルカメラ800は、タッチを契機に、タッチされた場所を含む近傍の領域の画素の色情報を読み取り、ユーザが付与したいと考えているであろう色の候補として、予め規定されている色をディスプレイ170に表示する。ユーザが、表示された候補の中から変更を意図した色を選択し、その選択した色のアイコンから指を離すと、デジタルカメラ800は、シャッターを切り、撮影する。このようにすると、デジタルカメラ800は、ユーザが望む色合いが強調された画像を、ユーザの直感に合わせて容易に取得することができる。   As described above, according to digital camera 800 according to the present embodiment, the user touches the portion of the photograph displayed on the screen where the color to which the attribute is desired is displayed. The digital camera 800 reads the color information of the pixels in the neighboring area including the touched location in response to the touch, and uses a predetermined color as a color candidate that the user would like to give. Displayed on the display 170. When the user selects a color intended to be changed from the displayed candidates and releases his / her finger from the icon of the selected color, the digital camera 800 releases the shutter and takes a picture. In this way, the digital camera 800 can easily acquire an image in which the color desired by the user is emphasized according to the user's intuition.

<第3の実施の形態>
以下、本発明の第3の実施の形態について説明する。本実施の形態に係るデジタルカメラは、予め作成されているデータベースに含まれる属性を撮影により得られた画像に関連付ける機能を有する点で、前述の各実施の形態に係るデジタルカメラと異なる。なお、本実施の形態に係るデジタルカメラは、図1に示されるデジタルカメラ10のハードウェア構成と同様の構成を用いて実現される。したがって、本実施の形態に係るデジタルカメラのハードウェア構成の説明は繰り返さない。
<Third Embodiment>
Hereinafter, a third embodiment of the present invention will be described. The digital camera according to the present embodiment is different from the digital camera according to each of the above-described embodiments in that it has a function of associating an attribute included in a database created in advance with an image obtained by photographing. Note that the digital camera according to the present embodiment is realized using the same configuration as the hardware configuration of the digital camera 10 shown in FIG. Therefore, the description of the hardware configuration of the digital camera according to the present embodiment will not be repeated.

図10を参照して、第3の実施の形態に係る技術思想について説明する。図10は、ディスプレイ170が人物を表示している場合に当該人物にその人物の名前を関連付けることを表わす図である。   With reference to FIG. 10, a technical idea according to the third embodiment will be described. FIG. 10 is a diagram showing that when the display 170 displays a person, the person's name is associated with the person.

図10(A)に示されるように、ディスプレイ170は、たとえば、2人の人物を表示している。その状態でユーザがディスプレイ170に対してタッチ操作を行なうと、デジタルカメラ10は、画像認識技術に基づいて人物が表示されていると判断し、フラッシュメモリ162に保存されている人物のデータベースを読み出す。たとえば、図10(A)に示される例では、テリー、マイケル、トーマスの名前が表示される。その状態で、ユーザがディスプレイ170にタッチして、たとえば「マイケル」を選択し、そのマイケルの表示のところで指を離す。CPU100は、タッチセンサ172からの出力に基づいてタッチ操作が行なわれなくなったことを検知する。CPU100は、その場所によって特定される人物名(マイケル)を特定し、さらにアイリスモータ132およびタイミングジェネレータ134にそれぞれ制御信号を送ることにより撮影動作を実行する。CPU100は、撮影によって得られた人物画像にその特定した名前(マイケル)を関連付けてフラッシュメモリ1623に画像を保存する。   As shown in FIG. 10A, the display 170 displays, for example, two persons. When the user performs a touch operation on the display 170 in this state, the digital camera 10 determines that a person is displayed based on the image recognition technology, and reads a database of persons stored in the flash memory 162. . For example, in the example shown in FIG. 10A, names of Terry, Michael, and Thomas are displayed. In this state, the user touches the display 170 to select, for example, “Michael” and lifts his finger at the display of Michael. CPU 100 detects that the touch operation is no longer performed based on the output from touch sensor 172. The CPU 100 specifies a person name (Michael) specified by the place, and further performs a shooting operation by sending control signals to the iris motor 132 and the timing generator 134, respectively. The CPU 100 stores the image in the flash memory 1623 by associating the specified name (Michael) with the person image obtained by shooting.

[機能構成]
図11を参照して、第3の実施の形態に係るデジタルカメラの構成について説明する。図11は、本実施の形態に係るデジタルカメラ1100によって実現される機能の構成を表わすブロック図である。デジタルカメラ1100は、図3に示される構成に加えて、さらに領域抽出部1110と、特徴量算出部1120と、情報入力部1130と、関連付け部1140と、データベース1150と候補選択部1160とを備える。
[Function configuration]
With reference to FIG. 11, a configuration of a digital camera according to the third embodiment will be described. FIG. 11 is a block diagram showing a configuration of functions realized by digital camera 1100 according to the present embodiment. In addition to the configuration shown in FIG. 3, the digital camera 1100 further includes a region extraction unit 1110, a feature amount calculation unit 1120, an information input unit 1130, an association unit 1140, a database 1150, and a candidate selection unit 1160. .

領域抽出部1110は、撮影制御部350からの出力に基づいて、表示部395における画像の領域を抽出する。たとえば、デジタルカメラ1100が人物を表示している場合には、周知の顔認識技術を用いて、人物の顔に相当する領域を抽出する。   The area extraction unit 1110 extracts an image area on the display unit 395 based on the output from the imaging control unit 350. For example, when the digital camera 1100 displays a person, a region corresponding to the person's face is extracted using a known face recognition technique.

特徴量算出部1120は、領域抽出部1110からの出力と、撮像部360からの信号とに基づいて特徴量を算出する。特徴量は、たとえば領域抽出部1110によって抽出された人物の顔における目と目の間隔、両耳の間隔、などであるが、これらに限られない。特徴量の算出は公知の技術によって実現される。   The feature amount calculation unit 1120 calculates a feature amount based on the output from the region extraction unit 1110 and the signal from the imaging unit 360. The feature amount is, for example, an eye-to-eye interval in a person's face extracted by the region extracting unit 1110, an interval between both ears, and the like, but is not limited thereto. The calculation of the feature amount is realized by a known technique.

情報入力部1130は、デジタルカメラ1100の外部からデータベースを構築するためのデータの入力を受け付ける。情報入力部1130は、ある局面において、タッチセンサ172、メモリカード168などによっても実現される。   The information input unit 1130 receives data input for constructing a database from the outside of the digital camera 1100. The information input unit 1130 is also realized by a touch sensor 172, a memory card 168, and the like in a certain aspect.

関連付け部1140は、特徴量算出部1120によって算出された特徴量と、情報入力部1130によって入力が受けられた情報とを関連付けて、データベース1150に格納する。データベース1150は、たとえばフラッシュメモリ162またはメモリカード168のようにデータの読み出しおよび書き込みが可能な不揮発性の記録媒体に対して行なわれる。   The associating unit 1140 associates the feature amount calculated by the feature amount calculating unit 1120 with the information received by the information input unit 1130 and stores the associated information in the database 1150. The database 1150 is performed on a nonvolatile recording medium capable of reading and writing data, such as the flash memory 162 or the memory card 168.

候補選択部1160は、データベース1150に保存されているデータを用いて、特徴量算出部1120によって算出された特徴量を考慮して画像に関連付けるデータの候補を選択する。   The candidate selection unit 1160 uses the data stored in the database 1150 to select data candidates to be associated with the image in consideration of the feature amount calculated by the feature amount calculation unit 1120.

ある局面において、領域抽出部1110と特徴量算出部1120と関連付け部1140と候補選択部1160とは、CPU100によって実現される。情報入力部1130は、タッチセンサ172、ボタンその他の入力スイッチ(図示しない)によって実現される。データベース1150は、フラッシュメモリ162において実現される。   In one aspect, the region extraction unit 1110, the feature amount calculation unit 1120, the association unit 1140, and the candidate selection unit 1160 are realized by the CPU 100. The information input unit 1130 is realized by a touch sensor 172, buttons, and other input switches (not shown). The database 1150 is realized in the flash memory 162.

[制御構造]
図12を参照して、本実施の形態に係るデジタルカメラ1100の制御構造について、図1に示されるハードウェア構成を用いて説明する。図12は、デジタルカメラ1100を構成するCPU100がデータベースを作成するために実行する一連の処理の一部を表わすフローチャートである。
[Control structure]
With reference to FIG. 12, the control structure of digital camera 1100 according to the present embodiment will be described using the hardware configuration shown in FIG. FIG. 12 is a flowchart showing a part of a series of processes executed by CPU 100 configuring digital camera 1100 to create a database.

ステップS1210にて、CPU100は、アイリスモータ132およびタイミングジェネレータ134にそれぞれ信号を送ることにより被写体を撮影する。ステップS1220にて、CPU100は、RAM150に保存されている画像データから特徴量を算出する。   In step S1210, CPU 100 captures a subject by sending signals to iris motor 132 and timing generator 134, respectively. In step S 1220, CPU 100 calculates a feature amount from the image data stored in RAM 150.

ステップS1230にて、CPU100は、タッチセンサ172からの出力に基づいて、被写体を識別するための情報の入力を受け付ける。当該情報は、たとえば名前、識別番号(ID)などを含む。ステップS1240にて、CPU100は、特徴量と情報とを関連付けてフラッシュメモリ162に保存する。これにより、特徴量を用いたデータベースが作成される。   In step S1230, CPU 100 accepts input of information for identifying the subject based on the output from touch sensor 172. The information includes, for example, a name and an identification number (ID). In step S1240, CPU 100 associates the feature amount with the information and stores them in flash memory 162. Thereby, a database using the feature amount is created.

[データ構造]
図13を参照して、本実施の形態に係るデジタルカメラのデータ構造について説明する。図13は、デジタルカメラ1100におけるデータの格納の一態様を概念的に表わす図である。
[data structure]
A data structure of the digital camera according to the present embodiment will be described with reference to FIG. FIG. 13 is a diagram conceptually showing one mode of data storage in digital camera 1100.

データベース1150は、たとえば、名前1310と、特徴量1320とを保存している。名前1310と特徴量1320とは、互いに関連付けられている。データベースの態様は特に限られず、いわゆる、関係型データベースまたはオブジェクト指向データベース型のいずれであってもよい。   The database 1150 stores, for example, a name 1310 and a feature quantity 1320. The name 1310 and the feature amount 1320 are associated with each other. The mode of the database is not particularly limited, and may be a so-called relational database or an object-oriented database.

[制御構造]
図14を参照して、本実施の形態に係るデジタルカメラの制御構造について、図1に示されるハードウェア構成を用いて説明する。図14は、デジタルカメラ1100を実現するCPU100が実行する一連の処理の一部を表わすフローチャートである。なお、前述の処理と同一の処理には同一の番号を付してある。したがって、それらの説明は繰り返さない。
[Control structure]
With reference to FIG. 14, the control structure of the digital camera according to the present embodiment will be described using the hardware configuration shown in FIG. FIG. 14 is a flowchart showing a part of a series of processes executed by CPU 100 realizing digital camera 1100. In addition, the same number is attached | subjected to the process same as the above-mentioned process. Therefore, those descriptions are not repeated.

ステップS1410にて、CPU100は、ステップS230において検出された場所の近傍として予め定められた領域の情報を抽出する。ステップS1420にて、CPU100は、RAM150に保存されているデータに基づいて、抽出された情報の特徴量を算出する。   In step S1410, CPU 100 extracts information on a region that is predetermined as the vicinity of the location detected in step S230. In step S1420, CPU 100 calculates the feature amount of the extracted information based on the data stored in RAM 150.

ステップS1430にて、CPU100は、フラッシュメモリ162に保存されている特徴量と、ステップS1420において算出した特徴量との差が予め定められた範囲であるか否かを判断する。その差が予め定められた範囲である場合には(ステップS1430にてYES)、CPU100は、制御をステップS1440に切り換える。そうでない場合には(ステップS1430にてNO)、CPU100は、制御をステップS1450に切り換える。   In step S1430, CPU 100 determines whether or not the difference between the feature amount stored in flash memory 162 and the feature amount calculated in step S1420 is within a predetermined range. If the difference is within a predetermined range (YES in step S1430), CPU 100 switches control to step S1440. If not (NO in step S1430), CPU 100 switches control to step S1450.

ステップS1440にて、CPU100は、予め定められた範囲内の特徴量に関連付けられている名前の候補をそれぞれディスプレイ170に表示する。ステップS1450にて、CPU100は、タッチセンサ172からの出力に基づいてタッチ操作がなくなったことを検知すると、アイリスモータ132およびタイミングジェネレータ134にそれぞれ制御信号を送ることにより撮影を実行する。   In step S1440, CPU 100 causes display 170 to display name candidates associated with feature amounts within a predetermined range. In step S1450, when CPU 100 detects that the touch operation has been lost based on the output from touch sensor 172, CPU 100 performs shooting by sending control signals to iris motor 132 and timing generator 134, respectively.

ステップS1460にて、CPU100は、CCD114から出力されるデータに基づく画像をRAM150に保存する。ステップS1470にて、CPU100は、タッチ操作がなくなったことが検知された場所に表示されていた名前の候補と、RAM150に保存された画像とを関連付けることによりフラッシュメモリ162に保存する。   In step S 1460, CPU 100 stores an image based on the data output from CCD 114 in RAM 150. In step S <b> 1470, CPU 100 stores the name candidate displayed at the location where the touch operation has been lost and the image stored in RAM 150 by associating them with flash memory 162.

以上のようにして、第3の実施の形態に係るデジタルカメラ1100によると、画像認識技術を用いて、二次元画像と対応する属性名のデータベースが予めユーザによって作成される。撮影可能な画像として、ディスプレイ170に人物、物が表示されている状態で、ユーザは、属性を付与したいと考えている物体が表示されている部分にタッチする。デジタルカメラ1100は、タッチ操作を契機に、タッチされた場所の近傍の領域に含まれる画素の情報を読み取り、当該データベースを参照して、その物体に合致する属性の候補を表示する。ユーザが、表示された候補の中から意図した物体名を選択し、その上で指を離すと、デジタルカメラ1100は、撮影する。このようにすると、ユーザは、容易に属性を被写体に関連付けて撮影することができる。   As described above, according to the digital camera 1100 according to the third embodiment, a database of attribute names corresponding to a two-dimensional image is created in advance by a user using an image recognition technique. In a state where a person and an object are displayed on the display 170 as images that can be captured, the user touches a portion where an object to which an attribute is desired to be added is displayed. In response to the touch operation, the digital camera 1100 reads pixel information included in an area near the touched location, refers to the database, and displays attribute candidates that match the object. When the user selects an intended object name from the displayed candidates and then releases the finger, the digital camera 1100 takes a picture. In this way, the user can easily shoot with the attribute associated with the subject.

<第4の実施の形態>
以下、本発明の第4の実施の形態について説明する。本実施の形態に係るデジタルカメラは、ディスプレイ170におけるタッチ操作の起動情報に基づいて属性を撮影によって得られた画像に関連付ける機能を有する点で、前述の各実施の形態に係るデジタルカメラと異なる。
<Fourth embodiment>
Hereinafter, a fourth embodiment of the present invention will be described. The digital camera according to the present embodiment is different from the digital cameras according to the above-described embodiments in that the digital camera according to the present embodiment has a function of associating attributes with images obtained by photographing based on touch operation activation information on the display 170.

図15を参照して、本実施の形態に係るデジタルカメラの技術思想について説明する。図15は、ディスプレイ170においてユーザによるタッチ操作の起動に応じて付与される属性が異なることを表わす図である。   With reference to FIG. 15, the technical concept of the digital camera according to the present embodiment will be described. FIG. 15 is a diagram showing that attributes given according to activation of a touch operation by the user on display 170 are different.

図15(A)に示されるように、ある局面において、ディスプレイ170は、レンズ110を通して木を表示している。このときユーザが指を左下から右上になぞると、ディスプレイ170は、表示されている画像に関連付けられ得る属性として「自然風景」を表示する。   As shown in FIG. 15A, in one aspect, the display 170 displays a tree through the lens 110. At this time, when the user traces his / her finger from the lower left to the upper right, the display 170 displays “natural scenery” as an attribute that can be associated with the displayed image.

図15(B)に示されるように、ユーザが指を右下から左上にタッチ操作を行ないながらなぞると、ディスプレイ170は、表示されている画像に関連付けられ得る属性として「人物」を表示する。   As shown in FIG. 15B, when the user traces the finger while performing a touch operation from the lower right to the upper left, the display 170 displays “person” as an attribute that can be associated with the displayed image.

図15(C)を参照して、ユーザが、左下から右上へのタッチ操作によって表示される属性「自然風景」を選択するために指をディスプレイ170から離すと、CPU100は、タッチセンサ172からの出力に基づいて当該属性(自然風景)が選択されたことを検知する。CPU100は、そのときに検知した属性(自然風景)と、RAM150に保持されている画像(木)とを関連付けてフラッシュメモリ162に格納する。   Referring to FIG. 15C, when the user releases his / her finger from display 170 to select the attribute “natural scenery” displayed by the touch operation from the lower left to the upper right, CPU 100 causes touch sensor 172 to Based on the output, it is detected that the attribute (natural scenery) has been selected. The CPU 100 stores the attribute (natural scenery) detected at that time in association with the image (tree) held in the RAM 150 in the flash memory 162.

[機能構成]
図16を参照して、本実施の形態に係るデジタルカメラ1600の構成について説明する。図16は、デジタルカメラ1600によって実現される機能の構成を表わすブロック図である。デジタルカメラ1600は、図3に示される構成に加えて、軌跡特定部1610と、動作モード登録部1620と、制御データ記憶部1630とを備える。
[Function configuration]
With reference to FIG. 16, a configuration of digital camera 1600 according to the present embodiment will be described. FIG. 16 is a block diagram showing a configuration of functions realized by digital camera 1600. The digital camera 1600 includes a trajectory specifying unit 1610, an operation mode registration unit 1620, and a control data storage unit 1630 in addition to the configuration shown in FIG.

軌跡特定部1610は、タッチ検出部310からの出力に基づいて、表示部395における軌跡を特定する。動作モード登録部1620は、軌跡特定部1610からの出力に基づいてデジタルカメラ1600の動作モードを登録する。ある局面において、動作モード登録部1620は、たとえば、表示部395におけるタッチ操作の軌跡が左下から右上である場合には属性として自然風景を設定するために、自然風景用に予め規定された動作モードを当該軌跡に関連付ける。他の局面において、動作モード登録部1620は、表示部395における軌跡として右下から左上の軌跡が検知された場合に、当該軌跡に対して属性「人物」を関連付け、さらに当該人物を撮影するために予め作成された動作条件を関連付ける。   The trajectory specifying unit 1610 specifies the trajectory on the display unit 395 based on the output from the touch detection unit 310. The operation mode registration unit 1620 registers the operation mode of the digital camera 1600 based on the output from the trajectory identification unit 1610. In one aspect, the operation mode registration unit 1620 operates in a predetermined operation mode for natural scenery in order to set the natural scenery as an attribute when, for example, the touch operation locus on the display unit 395 is from lower left to upper right. Is associated with the trajectory. In another aspect, operation mode registration unit 1620 associates the attribute “person” with the trajectory when a trajectory in lower right to upper left is detected as a trajectory in display unit 395, and further shoots the person. Is associated with a previously created operating condition.

制御データ記憶部1630は、動作モード登録部1620によって関連付けられた軌跡、属性および撮影条件を格納する。撮影制御部350は、タッチ検出部310からの出力に基づいて、制御データ記憶部1630に格納されている動作モードに従って撮影を実行する。   The control data storage unit 1630 stores the trajectory, attributes, and shooting conditions associated by the operation mode registration unit 1620. The imaging control unit 350 executes imaging according to the operation mode stored in the control data storage unit 1630 based on the output from the touch detection unit 310.

ある局面において、軌跡特定部1610と動作モード登録部1620とは、CPU100によって実現される。制御データ記憶部1630は、フラッシュメモリ162によって実現される。   In a certain aspect, the trajectory identification unit 1610 and the operation mode registration unit 1620 are realized by the CPU 100. The control data storage unit 1630 is realized by the flash memory 162.

[制御構造]
図17および図18を参照して、本実施の形態に係るデジタルカメラの制御構造について、図1に示されるハードウェア構成を用いて説明する。図17は、デジタルカメラ1600を実現するCPU100が実行する一連の処理の一部を表わすフローチャートである。なお、前述の処理と同一の処理には同一の番号を付してある。したがって、それらの説明は繰り返さない。
[Control structure]
With reference to FIG. 17 and FIG. 18, a control structure of the digital camera according to the present embodiment will be described using the hardware configuration shown in FIG. FIG. 17 is a flowchart showing a part of a series of processes executed by CPU 100 realizing digital camera 1600. In addition, the same number is attached | subjected to the process same as the above-mentioned process. Therefore, those descriptions are not repeated.

ステップS1710にて、CPU100は、デジタルカメラの動作モードを指定された撮影モードに切り換える。この切り換えは、たとえばディスプレイ170に表示される複数の撮影モードにおいていずれかの撮影モードが選択されることに応じて行なわれる。ステップS210にて、CPU100は、ディスプレイ170に画像を表示する。   In step S1710, CPU 100 switches the operation mode of the digital camera to the designated shooting mode. This switching is performed, for example, in response to selection of one of the plurality of shooting modes displayed on display 170. In step S210, CPU 100 displays an image on display 170.

ステップS1730にて、CPU100は、ディスプレイ170へのタッチ操作による軌跡を検出する。ステップS1740にて、CPU100は、ステップS1710において指定された撮影モードと、ステップS1730において検出された軌跡とを関連付けて保存することを確認するメッセージを、ディスプレイ170に表示する。   In step S <b> 1730, CPU 100 detects a locus due to a touch operation on display 170. In step S1740, CPU 100 causes display 170 to display a message confirming that the shooting mode specified in step S1710 and the locus detected in step S1730 are associated with each other and saved.

ステップS1750にて、CPU100は、タッチセンサ172からの出力に基づいて当該撮影モードと当該軌跡とを関連付けて保存する指示が入力されたか否かを判断する。当該指示が入力された場合には(ステップS1750にてYES)、CPU100は、制御をステップS1760に切り換える。そうでない場合には(ステップS1750にてNO)、CPU100は、処理を終了する。   In step S1750, CPU 100 determines whether or not an instruction to store the shooting mode and the locus in association with each other is input based on the output from touch sensor 172. If the instruction is input (YES in step S1750), CPU 100 switches control to step S1760. If not (NO in step S1750), CPU 100 ends the process.

ステップS1760にて、CPU100は、指定された撮影モードと検出された軌跡とを関連付けてフラッシュメモリ162に保存する。ステップS1770にて、CPU100は、その他の撮影モードに切り換えるか否かを判断する。この判断は、たとえばモード選択ボタン142からの信号またはタッチセンサ172からの出力に基づいて行なわれる。CPU100は、その他の撮影モードに切り換えると判断すると(ステップS1770にてYES)、制御をステップS1710に戻す。そうでない場合には(ステップS1770にてNO)、CPU100は、処理を終了する。   In step S1760, CPU 100 associates the designated shooting mode with the detected locus and saves them in flash memory 162. In step S1770, CPU 100 determines whether or not to switch to another shooting mode. This determination is made based on a signal from mode selection button 142 or an output from touch sensor 172, for example. If CPU 100 determines to switch to another shooting mode (YES in step S1770), it returns control to step S1710. If not (NO in step S1770), CPU 100 ends the process.

図18は、特定された軌跡に関連付けられている撮影モードによってデジタルカメラが撮影する場合にCPU100が実行する一連の処理の一部を表わすフローチャートである。   FIG. 18 is a flowchart showing a part of a series of processes executed by CPU 100 when the digital camera performs shooting in the shooting mode associated with the specified locus.

ステップS210にて、CPU100は、ディスプレイ170に画像を表示する。ステップS1810にて、CPU100は、ディスプレイ170へのタッチ操作が連続して行なわれたことを検出する。ステップS1820にて、CPU100は、タッチセンサ172からの出力に基づいて、ディスプレイ170におけるタッチ操作の軌跡を特定する。   In step S210, CPU 100 displays an image on display 170. In step S1810, CPU 100 detects that touch operations on display 170 have been continuously performed. In step S1820, CPU 100 identifies the locus of the touch operation on display 170 based on the output from touch sensor 172.

ステップS1830にて、CPU100は、フラッシュメモリ162に保存されている軌跡と、ステップS1820において特定された軌跡との相違が予め定められた範囲であるか否かを判断する。当該相違が予め定められた範囲である場合には(ステップS1830にてYES)、CPU100は、制御をステップS1840に切り換える。そうでない場合には(ステップS1830にてNO)、CPU100は、制御をステップS210に戻す。   In step S1830, CPU 100 determines whether or not the difference between the locus stored in flash memory 162 and the locus identified in step S1820 is within a predetermined range. If the difference is in a predetermined range (YES in step S1830), CPU 100 switches control to step S1840. If not (NO in step S1830), CPU 100 returns control to step S210.

ステップS1840にて、CPU100は、ステップS1830における判断基準を満たす軌跡に関連付けられている属性を特定する。当該属性は、たとえば撮影モードとしての自然風景、人物その他を含む。   In step S1840, CPU 100 identifies an attribute associated with the trajectory that satisfies the determination criterion in step S1830. The attribute includes, for example, a natural landscape, a person, etc. as a shooting mode.

ステップS1850にて、CPU100は、タッチセンサ172からの出力に基づいてディスプレイ170に対するタッチ操作がなくなったことを検知すると、ステップS1840において特定した撮影モードで撮影を実行する。   In step S1850, when CPU 100 detects that there is no touch operation on display 170 based on the output from touch sensor 172, it performs shooting in the shooting mode specified in step S1840.

ステップS1860にて、CPU100は、CCD114から出力されるデータに基づく画像をRAM150に一時的に保持し、さらに保存の入力に従ってフラッシュメモリ162に保存する。   In step S1860, CPU 100 temporarily holds an image based on the data output from CCD 114 in RAM 150, and further saves it in flash memory 162 according to the save input.

以上のようにして、本実施の形態に係るデジタルカメラ1600によると、ディスプレイ170における軌跡情報と、当該軌跡に関連付けて付与すべき属性とが、データベースとして予め作成されている。ユーザは、ディスプレイ170に表示されている画像に或る属性を付与したい場合、その属性に対応する軌跡を描くように、ディスプレイ170にタッチする。デジタルカメラ1600は、当該タッチ操作によって描かれる軌道に基づいてデータベースを検索し、当該軌跡に関連付けられる属性として、ユーザが付与したいと考える属性の候補名をディスプレイ170に表示する。ユーザは、表示された属性が間違いなければ、ディスプレイ170から指を離すことにより、撮影が実行される。このようにすると、属性を画像に容易に関連付けることができる。   As described above, according to digital camera 1600 according to the present embodiment, trajectory information on display 170 and attributes to be assigned in association with the trajectory are created in advance as a database. When the user wants to give a certain attribute to the image displayed on the display 170, the user touches the display 170 so as to draw a trajectory corresponding to the attribute. The digital camera 1600 searches the database based on the trajectory drawn by the touch operation and displays on the display 170 the candidate names of attributes that the user wants to assign as attributes associated with the trajectory. If the displayed attribute is correct, the user releases the display 170 to perform shooting. In this way, attributes can be easily associated with images.

なお、第1の実施の形態から第4の実施の形態は、それぞれ組み合わせてもよい。
<第5の実施の形態>
以下、本発明の第5の実施の形態について説明する。本実施の形態に係るデジタルカメラは、3次元表示のための画像を生成する機能を有する点で、前述の各実施の形態に係るデジタルカメラと異なる。
Note that the first to fourth embodiments may be combined.
<Fifth embodiment>
The fifth embodiment of the present invention will be described below. The digital camera according to the present embodiment is different from the digital cameras according to the above-described embodiments in that it has a function of generating an image for three-dimensional display.

[機能構成]
図19を参照して、本実施の形態に係るデジタルカメラ1900の構成について説明する。図19は、デジタルカメラ1900によって実現される機能の構成を表わすブロック図である。なお、前述の実施の形態に係るデジタルカメラと同様の構成には同様の番号を付してある。したがって、それらの説明は繰り返さない。
[Function configuration]
With reference to FIG. 19, a configuration of digital camera 1900 according to the present embodiment will be described. FIG. 19 is a block diagram showing a configuration of functions realized by digital camera 1900. Note that the same reference numerals are given to the same components as those of the digital camera according to the above-described embodiment. Therefore, those descriptions are not repeated.

デジタルカメラ1900は、図3に示される構成に加えて、さらに、カメラ間隔変更部1910と、第1撮像部1920と、第2撮像部1930と、視差画像生成部1940とを備える。   The digital camera 1900 further includes a camera interval changing unit 1910, a first imaging unit 1920, a second imaging unit 1930, and a parallax image generating unit 1940 in addition to the configuration shown in FIG.

カメラ間隔変更部1910は、撮影制御部350からの出力に基づいて、第1撮像部1920と第2撮像部1930との動作条件を変更する。たとえば、ある局面において、カメラ間隔変更部1910は、第1撮像部1920と第2撮像部1930とのレンズの間隔をアクチュエータ(たとえば、モータ)を用いて切り換える。この切り換えの間隔は、たとえば予め数段階の間隔として規定されている。   The camera interval changing unit 1910 changes the operating conditions of the first imaging unit 1920 and the second imaging unit 1930 based on the output from the imaging control unit 350. For example, in one aspect, the camera interval changing unit 1910 switches the lens interval between the first imaging unit 1920 and the second imaging unit 1930 using an actuator (for example, a motor). This switching interval is defined as, for example, several steps in advance.

第1撮像部1920は、撮影制御部350からの信号に基づいて撮影する。第2撮像部1930は、撮影制御部350からの信号に基づいて撮影する。   The first imaging unit 1920 captures an image based on a signal from the imaging control unit 350. The second imaging unit 1930 performs imaging based on a signal from the imaging control unit 350.

視差画像生成部1940は、第1撮像部1920から送られる画像と第2撮像部1930から送られる画像とを用いて視差画像を生成する。   The parallax image generation unit 1940 generates a parallax image using the image sent from the first imaging unit 1920 and the image sent from the second imaging unit 1930.

[ハードウェア構成]
図20を参照して、本実施の形態に係るデジタルカメラのハードウェア構成について説明する。図20は、本実施の形態に係るデジタルカメラ20のハードウェア構成を表わすブロック図である。デジタルカメラ20は、図1に示されるデジタルカメラ10の構成に加えて、さらに、レンズ111と、絞り113と、CCD115と、CDS117と、増幅器118と、A/D変換器121と、レンズモータ131と、アイリスモータ133と、タイミングジェネレータ135とを備える。
[Hardware configuration]
With reference to FIG. 20, a hardware configuration of the digital camera according to the present embodiment will be described. FIG. 20 is a block diagram showing a hardware configuration of digital camera 20 according to the present embodiment. In addition to the configuration of the digital camera 10 shown in FIG. 1, the digital camera 20 further includes a lens 111, a diaphragm 113, a CCD 115, a CDS 117, an amplifier 118, an A / D converter 121, and a lens motor 131. And an iris motor 133 and a timing generator 135.

レンズ111は、レンズ110が有する機能と同様の機能を有する。絞り113は、絞り112の機能と同様の機能を有する。CCD115は、CCD114が有する機能と同様の機能を有する。CDS117は、CDS11116が有する機能と同様の機能を有する。増幅器119は、増幅器118が有する機能と同様の機能を有する。A/D変換器121は、A/D変換器120が有する機能と同様の機能を有する。レンズモータ131はレンズモータ130が有する機能と同様の機能を有する。アイリスモータ133は、アイリスモータ132が有する機能と同様の機能を有する。タイミングジェネレータ135は、タイミングジェネレータ134が有する機能と同様の機能を有する。   The lens 111 has a function similar to that of the lens 110. The diaphragm 113 has a function similar to that of the diaphragm 112. The CCD 115 has the same function as that of the CCD 114. The CDS 117 has the same function as that of the CDS 11116. The amplifier 119 has a function similar to that of the amplifier 118. The A / D converter 121 has the same function as that of the A / D converter 120. The lens motor 131 has the same function as that of the lens motor 130. The iris motor 133 has the same function as that of the iris motor 132. The timing generator 135 has the same function as that of the timing generator 134.

ある局面において、カメラ間隔変更部1910は、CPU100とレンズモータ130,131とによって実現される。第1撮像部1920は、レンズ110、絞り112、CCD114によって実現される。第2撮像部1930は、レンズ111、絞り113、CCD115によって実現される。視差画像生成部1940は、CPU100によって実現される。   In one aspect, the camera interval changing unit 1910 is realized by the CPU 100 and the lens motors 130 and 131. The first imaging unit 1920 is realized by the lens 110, the diaphragm 112, and the CCD 114. The second imaging unit 1930 is realized by the lens 111, the diaphragm 113, and the CCD 115. The parallax image generation unit 1940 is realized by the CPU 100.

[制御構造]
図21を参照して、本発明の第5の実施の形態に係るデジタルカメラ20の制御構造について説明する。図21は、デジタルカメラ20が備えるCPU100が実行する一連の動作の一部を表わすフローチャートである。
[Control structure]
A control structure of the digital camera 20 according to the fifth embodiment of the present invention will be described with reference to FIG. FIG. 21 is a flowchart showing a part of a series of operations executed by CPU 100 included in digital camera 20.

ステップS2110にて、CPU100は、タッチセンサ172からの出力に基づいてディスプレイ170が2本の指でタッチ操作されたことを検知する。ステップS2120にて、CPU100は、タッチセンサ172からの出力に基づいてピンチインまたはピンチアウトの操作を検出し、その検出結果に応じて2台のカメラのレンズの間隔を変更する。この間隔の変更は、たとえば前述のアクチュエータ(図示しない)の駆動によって実現される。たとえば、タッチされている2点間の距離に応じて予め定められた間隔を実現するための制御信号がアクチュエータに与えられる。なお、ピンチインとは、ディスプレイ170にタッチされた2本の指によって、画面上の対象物を縮小することをいう。ピンチアウトとは、ディスプレイ170にタッチされた2本の指によって、画面上の対象物を拡大することをいう。   In step S2110, CPU 100 detects that display 170 has been touched with two fingers based on the output from touch sensor 172. In step S2120, CPU 100 detects a pinch-in or pinch-out operation based on the output from touch sensor 172, and changes the distance between the lenses of the two cameras according to the detection result. The change of the interval is realized by driving the above-described actuator (not shown), for example. For example, a control signal for realizing a predetermined interval according to the distance between two touched points is given to the actuator. Note that “pinch-in” refers to reducing an object on the screen with two fingers touching the display 170. Pinch out refers to enlarging an object on the screen with two fingers touching the display 170.

ステップS2130にて、CPU100は、タッチセンサ172からの出力に基づいて、2本の指がディスプレイ170から離れたことを検知する。ステップS2140にて、CPU100は、その検知の結果に基づいて、アイリスモータ132,133およびタイミングジェネレータ134,135にそれぞれ制御信号を送ることにより、ズームおよび絞りを調整し、撮影を実行する。   In step S 2130, CPU 100 detects that two fingers are separated from display 170 based on the output from touch sensor 172. In step S2140, CPU 100 adjusts the zoom and aperture by sending control signals to iris motors 132 and 133 and timing generators 134 and 135, respectively, based on the detection result, and executes shooting.

ステップS2150にて、CPU100は、フラッシュメモリ162から、属性を読み出す。ステップS2160にて、CPU100は、読み出した属性から選択された属性と、撮影によって得られた画像とを関連付けることによりメモリカード168に保存する。   In step S 2150, CPU 100 reads the attribute from flash memory 162. In step S2160, CPU 100 stores the attribute selected from the read attribute in the memory card 168 by associating the image obtained by photographing.

以上のようにして、本実施の形態に係るデジタルカメラ20によると、3D画像のための撮影において視差画像を作成する。このとき、撮影の対象物まで距離によって適切とされるカメラ間隔が異なるため、最適な3D効果を得るためには、カメラの設定(位置、向き、ズーム等)を調節することが求められる。   As described above, according to the digital camera 20 according to the present embodiment, a parallax image is created in shooting for a 3D image. At this time, since the appropriate camera interval varies depending on the distance to the object to be photographed, it is required to adjust the camera settings (position, orientation, zoom, etc.) in order to obtain an optimal 3D effect.

デジタルカメラ20によれば、2組の撮像装置(CCD114,115)の間隔を変更できる。そこで、上述のように、ユーザがディスプレイ170においてピンチアウト操作またはピンチイン操作を行うことにより、デジタルカメラ20の撮影装置の設定が変更される。デジタルカメラ20は、変更後の撮像結果としてのスルー画像を、リアルタイムでディスプレイ170に表示するので、設定変更は、ユーザに対して速やかにフィードバックされる。ユーザが、望ましい3D効果が得られる場所でピンチイン操作またはピンチアウト操作を停止して指を離すと、デジタルカメラ20は、撮影を実行する。これにより、撮影のための設定が容易に実現される。   According to the digital camera 20, the interval between the two sets of imaging devices (CCDs 114 and 115) can be changed. Therefore, as described above, when the user performs a pinch-out operation or a pinch-in operation on the display 170, the setting of the photographing device of the digital camera 20 is changed. Since the digital camera 20 displays the through image as the imaging result after the change on the display 170 in real time, the setting change is promptly fed back to the user. When the user stops the pinch-in operation or the pinch-out operation at a place where a desired 3D effect can be obtained and releases the finger, the digital camera 20 performs shooting. Thereby, setting for photographing is easily realized.

なお、本実施の形態は、上記の第1から第4の実施の形態に対しても適用することができる。この場合、たとえば、いずれの実施の形態に係る設定が先に行われるか登録しておき、他の実施の形態に係る設定が行なわれるまで撮影が行なわれないように、処理ステップを組み替えることで、二つ以上の実施の形態を組み合わせてもよい。   The present embodiment can also be applied to the first to fourth embodiments described above. In this case, for example, by registering which embodiment the setting is to be performed first, and rearranging the processing steps so that shooting is not performed until the setting according to the other embodiment is performed. Two or more embodiments may be combined.

<第6の実施の形態>
以下、本発明の第6の実施の形態について説明する。本実施の形態に係るデジタルカメラは、複数のカメラの各々の倍率を異なる値に設定できる機能を有する点で、前述の各実施の形態と異なる。
<Sixth Embodiment>
The sixth embodiment of the present invention will be described below. The digital camera according to the present embodiment is different from the above-described embodiments in that it has a function of setting each magnification of the plurality of cameras to a different value.

図22を参照して、本実施の形態に係る技術思想について説明する。図22は、引きの画像とズームの画像を表示する図である。   With reference to FIG. 22, the technical idea according to the present embodiment will be described. FIG. 22 shows a pull image and a zoom image.

図22(A)に示されるように、たとえばディスプレイ170は、2人の人物を表示している。ここで人物2110に対する操作について説明する。図22(B)に示されるように、デジタルカメラのユーザが人物2110の画像に対して2本の指でタッチする。ユーザが2本の指の間隔を広げると、図22(C)に示されるように、人物2110の画像は拡大されて画像2230のように表示される。このとき領域2220は、その他の領域の前面に表示され得る。   As shown in FIG. 22A, for example, the display 170 displays two persons. Here, an operation on the person 2110 will be described. As shown in FIG. 22B, the user of the digital camera touches the image of the person 2110 with two fingers. When the user widens the interval between two fingers, the image of the person 2110 is enlarged and displayed as an image 2230 as shown in FIG. At this time, the region 2220 can be displayed in front of other regions.

図23を参照して、本実施の形態に係るデジタルカメラの構成について説明する。図23は、第6の実施の形態に係るデジタルカメラ2300によって実現される機能の構成を表わすブロック図である。デジタルカメラ2300は、図3に示される構成に加えて、引き画像用撮像部2320と、ズーム用撮像部2330と、切替部2340と、倍率変更部2310とを備える。   With reference to FIG. 23, a configuration of the digital camera according to the present embodiment will be described. FIG. 23 is a block diagram illustrating a configuration of functions realized by a digital camera 2300 according to the sixth embodiment. In addition to the configuration shown in FIG. 3, the digital camera 2300 includes a captured image imaging unit 2320, a zoom imaging unit 2330, a switching unit 2340, and a magnification changing unit 2310.

倍率変更部2310は、タッチ検出部310からの出力に基づいて、表示部395に表示されている画像の倍率を変更する。たとえば、倍率変更部2310は、ある局面において、表示部395にタッチされている2本の指(すなわち2点)の間隔の変化に応じて倍率を変更する。   The magnification changing unit 2310 changes the magnification of the image displayed on the display unit 395 based on the output from the touch detection unit 310. For example, the magnification changing unit 2310 changes the magnification according to a change in the interval between two fingers (that is, two points) touched on the display unit 395 in a certain situation.

引き画像用撮像部2320は、倍率変更部2310によって設定された倍率に従って引き画像用の画像として撮影する。   The captured image imaging unit 2320 captures an image for a pulled image according to the magnification set by the magnification changing unit 2310.

ズーム用撮像部2330は、倍率変更部2310によって決定された倍率に従って、レンズの倍率を切り換えてズーム用の画像を撮像する。   The zoom imaging unit 2330 switches the lens magnification in accordance with the magnification determined by the magnification changing unit 2310 and captures a zoom image.

切替部2340は、タッチ検出部310からの出力と、引き画像用撮像部2320からの出力と、ズーム用撮像部2330からの出力とに基づいて、表示部395に表示される画像を選択する。切替部2340によって選択された画像は、一時記憶部370に保存される。   The switching unit 2340 selects an image to be displayed on the display unit 395 based on the output from the touch detection unit 310, the output from the dragged image capturing unit 2320, and the output from the zoom image capturing unit 2330. The image selected by the switching unit 2340 is stored in the temporary storage unit 370.

ある局面において、引き画像用撮像部2320は、レンズ110、絞り112、CCD114によって実現される。ズーム用撮像部2330は、レンズ111、絞り113、CCD115によって実現される。切替部2340は、CPU100によって実現される。   In one aspect, the pulled image capturing unit 2320 is realized by the lens 110, the diaphragm 112, and the CCD 114. The zoom imaging unit 2330 is realized by the lens 111, the diaphragm 113, and the CCD 115. The switching unit 2340 is realized by the CPU 100.

[制御構造]
図24を参照して、本実施の形態に係るデジタルカメラの制御構造について説明する。図24は、デジタルカメラ2300を実現するCPU100が実行する一連の動作の一部を表わすフローチャートである。
[Control structure]
With reference to FIG. 24, a control structure of the digital camera according to the present embodiment will be described. FIG. 24 is a flowchart showing a part of a series of operations executed by CPU 100 realizing digital camera 2300.

ステップS2410にて、CPU100は、引き画像用のカメラからのプレビュー画像をディスプレイ170に表示する。ステップS2420にて、CPU100は、ユーザの操作に基づき、引き画像の倍率を変更する。ステップS2110にて、CPU100は、ディスプレイ170に2本の指がタッチされたことをタッチセンサ172からの出力に基づいて検知する。   In step S2410, CPU 100 causes display 170 to display a preview image from the camera for the pull image. In step S2420, CPU 100 changes the magnification of the pull image based on the user's operation. In step S2110, CPU 100 detects that two fingers are touched on display 170 based on the output from touch sensor 172.

ステップS2430にて、CPU100は、当該検知に応答して、画像の入力ソースとしてズーム画像用カメラを選択し、ズーム画像用カメラからのプレビュー画像をディスプレイ170に表示する。ステップS2440にて、CPU100は、ディスプレイ170における2本の指の間隔に応じてズームイン/ズームアウトを切り換える。ステップS2450にて、CPU100は、ユーザが指をディスプレイ170から離したことをタッチセンサ172からの出力に基づいて検知する。   In step S2430, in response to the detection, CPU 100 selects a zoom image camera as an image input source, and displays a preview image from zoom image camera on display 170. In step S2440, CPU 100 switches zoom-in / zoom-out according to the interval between two fingers on display 170. In step S2450, CPU 100 detects that the user has removed his / her finger from display 170 based on the output from touch sensor 172.

以上のようにして、本実施の形態に係るデジタルカメラ2300は、倍率を異なる値に設定できる機構を有しており、引きの画像とズームの画像とをシームレスな操作で撮影することができる。たとえば、最初に、ディスプレイ170は、引き画像用撮像部2320からのプレビュー画像を表示する。ユーザは、引きの画像の倍率を、ディスプレイ170を見ながら調節する。次に、ユーザは、ズームの画像として撮影したい点の中心を2本の指でタッチする。その状態においてピンチアウト操作が行なわれたことを契機に、デジタルカメラ2300は、ディスプレイ170の画像をズーム用撮像部2330からのプレビューに切り替える。ズーム用撮像部2330の倍率は、2点間の距離に応じて変更できるように構成されているため、ユーザは、プレビュー画面を見ながらピンチイン操作またはピンチアウト操作を行なうことにより、倍率を望ましい倍率に調節できる。ユーザが、指を離すと、引き画像用撮像部2320およびズーム用撮像部2330のシャッターが下り、撮影動作が実現される。このように、ズーム調整が2本の指で実現されるため、ユーザは、直感で撮影を実現することができる。   As described above, the digital camera 2300 according to the present embodiment has a mechanism capable of setting magnifications to different values, and can capture a pull image and a zoom image by a seamless operation. For example, first, the display 170 displays a preview image from the pulling image capturing unit 2320. The user adjusts the magnification of the pull image while viewing the display 170. Next, the user touches the center of a point to be photographed as a zoom image with two fingers. When the pinch-out operation is performed in this state, the digital camera 2300 switches the image on the display 170 to a preview from the zoom imaging unit 2330. Since the magnification of the zoom imaging unit 2330 can be changed according to the distance between two points, the user can perform a pinch-in operation or a pinch-out operation while looking at the preview screen, thereby setting the desired magnification. Can be adjusted. When the user lifts his / her finger, the shutter of the pulling image capturing unit 2320 and the zoom image capturing unit 2330 is lowered, and the photographing operation is realized. As described above, since zoom adjustment is realized with two fingers, the user can realize shooting intuitively.

<第7の実施の形態>
以下、本発明の第7の実施の形態について説明する。本実施の形態に係るデジタルカメラは、予め設定された管理条件に従って画像を管理する機能を有する点で前述の各実施の形態に係るデジタルカメラと異なる。
<Seventh embodiment>
The seventh embodiment of the present invention will be described below. The digital camera according to the present embodiment is different from the digital camera according to each of the above-described embodiments in that it has a function of managing images according to management conditions set in advance.

図25を参照して、本実施の形態に係るデジタルカメラの構成について説明する。図25は、本実施の形態に係るデジタルカメラ2500によって実現される機能の構成を表わすブロック図である。なお、前述の各実施の形態に係るデジタルカメラが備える構成と同様の構成には同じ番号を付してある。したがってそれらの説明は繰り返さない。   With reference to FIG. 25, the configuration of the digital camera according to the present embodiment will be described. FIG. 25 is a block diagram showing a configuration of functions realized by digital camera 2500 according to the present embodiment. In addition, the same number is attached | subjected to the structure similar to the structure with which the digital camera concerning each above-mentioned embodiment is provided. Therefore, those descriptions will not be repeated.

デジタルカメラ2500は、図3に示される構成に加えて、属性取得部2510と、関連付け部2520と、画像管理部2530とを備える。画像管理部2530は、削除部2540を含む。   The digital camera 2500 includes an attribute acquisition unit 2510, an association unit 2520, and an image management unit 2530 in addition to the configuration shown in FIG. The image management unit 2530 includes a deletion unit 2540.

属性取得部2510は、デジタルカメラ2500の外部から与えられる入力に基づいてデジタルカメラ2500によって用いられる属性情報を取得する。   The attribute acquisition unit 2510 acquires attribute information used by the digital camera 2500 based on an input given from the outside of the digital camera 2500.

関連付け部2520は、一時記憶部370に格納されている画像と属性取得部2510によって取得された属性とを関連付けて、当該画像および当該属性を画像記憶部380に格納する。   The associating unit 2520 associates the image stored in the temporary storage unit 370 with the attribute acquired by the attribute acquisition unit 2510, and stores the image and the attribute in the image storage unit 380.

画像管理部2530は、画像記憶部380に格納されている画像を管理するための処理を実現する。当該処理は、たとえば画像データの削除、削除の要否の問合せのメッセージの表示などを含み得る。   The image management unit 2530 implements processing for managing images stored in the image storage unit 380. The processing may include, for example, deletion of image data, display of a message asking whether deletion is necessary, or the like.

削除部2540は、画像管理部2530において削除の対象と決定された画像を削除する。また、ある局面において、削除部2540は、画像の削除の前に当該削除が受け入れられるか否かを確認するメッセージを表示部395に表示する。また、他の局面において、削除部2540は、画像記憶部380に格納されている削除対象とされた画像を、たとえばメモリカード168のような着脱可能な記録媒体にバックアップとして保存してもよい。   The deletion unit 2540 deletes the image determined to be deleted by the image management unit 2530. In addition, in a certain situation, the deletion unit 2540 displays a message on the display unit 395 for confirming whether or not the deletion is accepted before deleting the image. In another aspect, deletion unit 2540 may store the image to be deleted stored in image storage unit 380 as a backup in a removable recording medium such as memory card 168.

ある局面において、属性取得部2510は、タッチセンサ172とCPU100とによって実現される。関連付け部2520と画像管理部2530とは、CPU100によって実現される。   In one aspect, the attribute acquisition unit 2510 is realized by the touch sensor 172 and the CPU 100. The association unit 2520 and the image management unit 2530 are realized by the CPU 100.

[制御構造]
図26を参照して、本実施の形態に係るデジタルカメラの制御構造について説明する。図26は、デジタルカメラ2500を実現するデジタルカメラ20のCPU100が実行する一連の処理の一部を表わすフローチャートである。
[Control structure]
With reference to FIG. 26, a control structure of the digital camera according to the present embodiment will be described. FIG. 26 is a flowchart showing a part of a series of processes executed by CPU 100 of digital camera 20 realizing digital camera 2500.

ステップS2610にて、CPU100は、タッチセンサ172からの出力に基づいてディスプレイ170におけるタッチ操作を検出する。ステップS2620にて、CPU100は、当該検出に応答してアイリスモータ132,133およびタイミングジェネレータ134,135にそれぞれ制御信号を送ることにより撮影を実行する。   In step S2610, CPU 100 detects a touch operation on display 170 based on the output from touch sensor 172. In step S2620, CPU 100 executes photographing by sending control signals to iris motors 132 and 133 and timing generators 134 and 135 in response to the detection.

ステップS2630にて、CPU100は、CCD114,115から送られた画像をRAM150に保存する。ステップS2640にて、CPU100は、タッチセンサ172からの出力に基づいて、属性情報付加モードへの切り換えを検知する。なお、他の局面においてこの選択は、モード選択ボタン142からの出力に基づいてもよい。   In step S 2630, CPU 100 stores the image sent from CCDs 114 and 115 in RAM 150. In step S2640, CPU 100 detects switching to the attribute information addition mode based on the output from touch sensor 172. In other aspects, this selection may be based on an output from mode selection button 142.

ステップS2650にて、CPU100は、タッチセンサ172からの出力に基づいて、属性の入力を受け付ける。当該属性は、ある局面において、ユーザ情報、保存期間、保存サイズ、解像度などを含み得る。ユーザ情報は、ユーザの名称その他の情報を含む。保存期間は、デフォルトで予め定められたものから選択された期間であってもよく、またユーザが入力した期間でもよい。ステップS2660にて、CPU100は、入力された属性と画像とを関連付けて、当該属性および画像をフラッシュメモリ162に保存する。   In step S2650, CPU 100 accepts an attribute input based on the output from touch sensor 172. In one aspect, the attribute may include user information, a storage period, a storage size, a resolution, and the like. The user information includes the user name and other information. The storage period may be a period selected from a predetermined one by default, or may be a period input by the user. In step S2660, CPU 100 associates the input attribute with the image, and stores the attribute and the image in flash memory 162.

[削除処理]
図27は、本実施の形態に係るデジタルカメラが特定された画像を削除する場合に実行する処理の一部を表わすフローチャートである。
[Delete processing]
FIG. 27 is a flowchart showing a part of processing executed when the digital camera according to the present embodiment deletes the specified image.

ステップS2710にて、CPU100は、タッチセンサ172からの出力に基づいて、画像管理モードの実行を検知する。ステップS2720にて、CPU100は、画像に関連付けられている属性を、RAM150のワーク領域に読み出す。   In step S2710, CPU 100 detects the execution of the image management mode based on the output from touch sensor 172. In step S2720, CPU 100 reads the attribute associated with the image into the work area of RAM 150.

ステップS2730にて、CPU100は、撮影日時から予め定められた期間が経過したか否かを判断する。当該予め定められた期間が経過している場合には(ステップS2730にてYES)、CPU100は、制御をステップS2740に切り換える。そうでない場合には(ステップS2730にてNO)、CPU100は制御を終了する。   In step S2730, CPU 100 determines whether or not a predetermined period has elapsed from the shooting date and time. If the predetermined period has elapsed (YES in step S2730), CPU 100 switches control to step S2740. If not (NO in step S2730), CPU 100 ends the control.

ステップS2740にて、CPU100は、当該画像を削除する旨のメッセージをディスプレイ170に表示する。ステップS2750にて、CPU100は、ディスプレイ170に対して与えられる操作に応じて出力される信号に基づいて、削除OKの入力があったか否かを判断する。削除OKの入力があった場合には(ステップS2750にてYES)、CPU100は、制御をステップS2760に切り換える。そうでない場合には(ステップS2750にてNO)、CPU100は、制御をステップS2770に切り換える。   In step S2740, CPU 100 displays a message to delete the image on display 170. In step S2750, CPU 100 determines whether or not deletion OK has been input based on a signal output in response to an operation given to display 170. If deletion OK is input (YES in step S2750), CPU 100 switches control to step S2760. If not (NO in step S2750), CPU 100 switches control to step S2770.

ステップS2760にて、CPU100は、当該画像をフラッシュメモリ162から削除する。ステップS2770にて、CPU100は、削除対象とした他の画像が保存されているか否かを判断する。この判断は、たとえばステップS2730における判断の結果に基づいて特定される画像ファイルの数によって実現される。他の画像が保存されている場合には(ステップS2770にてYES)、CPU100は、制御をステップS2720に戻す。そうでない場合には(ステップS2770にてNO)、CPU100は処理を終了する。   In step S2760, CPU 100 deletes the image from flash memory 162. In step S2770, CPU 100 determines whether another image to be deleted is stored. This determination is realized by the number of image files specified based on the determination result in step S2730, for example. If another image is stored (YES in step S2770), CPU 100 returns the control to step S2720. If not (NO in step S2770), CPU 100 ends the process.

以上のようにして、本実施の形態に係るデジタルカメラ2500によると、付加された属性がデジタルカメラ2500自体に対する情報の場合に、デジタルカメラ2500は、その属性に従って写真を管理する。たとえば、当該写真の保存期間が予め設定された期間経過すると、CPU100は、当該写真を削除し、または、メモリカードにバックアップする。このようにすると、写真の管理が直感的に実現されるため、当該管理が容易になる。   As described above, according to the digital camera 2500 according to the present embodiment, when the added attribute is information on the digital camera 2500 itself, the digital camera 2500 manages the photos according to the attribute. For example, when the storage period of the photo elapses, the CPU 100 deletes the photo or backs up to a memory card. In this way, the management of the photos is intuitively realized, so that the management becomes easy.

[まとめ]
本発明の実施の形態に係るデジタルカメラによると、撮影開始のために、ユーザがタッチ操作を行なうと、タッチ操作が行なわれた場所、そこからドラッグした距離、方向、速度をもとに、適切な属性をマッピングすると同時に、撮影を行うことができる。
[Summary]
According to the digital camera according to the embodiment of the present invention, when the user performs a touch operation to start shooting, an appropriate operation is performed based on the location where the touch operation is performed, the distance dragged from the direction, the direction, and the speed. It is possible to shoot at the same time as mapping various attributes.

そして、ユーザがタッチ操作を行った場所からドラッグ操作を行ない、指を離すと同時に、デジタルカメラは、シャッターを切る。デジタルカメラは、当該ドラッグ操作が行なわれた距離、およびその方向に応じて、取得される画像(静止画、動画)の保存期間と解像度情報を、当該画像に付与する。   Then, the user performs a drag operation from the place where the user performed the touch operation, and at the same time releases the finger, the digital camera releases the shutter. The digital camera gives the storage period and resolution information of the acquired image (still image, moving image) to the image according to the distance and direction in which the drag operation is performed.

デジタルカメラは、タッチ操作が行なわれた場所の近傍の画素の色情報に基づいて、ユーザがその写真に付与したい色の属性情報の候補をディスプレイ170に表示する。ユーザが特定の色の候補の領域にドラッグして指を離すと、デジタルカメラは、撮影動作を実行し、当該色の候補に基づく色を属性情報として画像に付与する。   Based on the color information of the pixels near the place where the touch operation is performed, the digital camera displays color attribute information candidates that the user wants to give to the photograph on the display 170. When the user drags to a specific color candidate area and releases his / her finger, the digital camera executes a shooting operation and assigns a color based on the color candidate to the image as attribute information.

また、デジタルカメラが物体を認識できる機能を備える場合には、デジタルカメラは、ユーザがタッチした場所に存在する被写体を認識し、認識結果に基づいて属性の候補をディスプレイ170に表示する。ユーザが候補領域においてドラッグ操作を行ない指を離すと、デジタルカメラは、撮影動作を実行するとともに、画像に当該属性を付与する。   When the digital camera has a function capable of recognizing an object, the digital camera recognizes a subject existing at a location touched by the user, and displays attribute candidates on the display 170 based on the recognition result. When the user performs a drag operation in the candidate area and releases the finger, the digital camera executes a shooting operation and assigns the attribute to the image.

他の局面において、デジタルカメラは、ユーザがドラッグした軌道の形状または時間情報を特徴量として、誰が操作をしているかを認識する。ユーザが手を離すと、デジタルカメラは、撮影動作を実行するとともに、軌道の形状または特徴量を画像に付与する。   In another aspect, the digital camera recognizes who is performing the operation using the shape of the trajectory dragged by the user or time information as a feature amount. When the user releases his / her hand, the digital camera executes a shooting operation and adds the shape or feature amount of the trajectory to the image.

さらに他の局面において、ユーザがドラッグした軌道の位置、時間情報を特徴量として、デジタルカメラは、何が撮影されているかを認識する。ユーザが指を離すと、デジタルカメラは、撮影動作を実行し、画像に属性を付与する。   In yet another aspect, the digital camera recognizes what is being photographed using the position and time information of the trajectory dragged by the user as feature amounts. When the user lifts his / her finger, the digital camera executes a shooting operation and assigns an attribute to the image.

デジタルカメラが、視差画像を撮影する機能を有する場合には、ユーザがピンチアウトまたはピンチインすることに応じて、デジタルカメラは、2つのカメラの位置を調節する。ユーザがディスプレイ170から指を離すと、デジタルカメラは、調節されたカメラ位置で視差画像を撮影する。   When the digital camera has a function of capturing a parallax image, the digital camera adjusts the positions of the two cameras in response to the user pinching out or pinching in. When the user lifts his / her finger from the display 170, the digital camera captures a parallax image at the adjusted camera position.

デジタルカメラが、倍率の異なる写真を撮影できる場合には、ユーザがディスプレイ170を2本の指でタッチすることに応答して、デジタルカメラは、2つのカメラによる撮影モードに移行する。ユーザがピンチインまたはピンチアウトを行なって指をディスプレイ170から離すと、デジタルカメラは、ピンチインまたはピンチアウト操作を始めた点を中心に、2点間の距離に対応する倍率で2台目のカメラの倍率を設定して撮影動作を実行する。   If the digital camera can take pictures with different magnifications, in response to the user touching the display 170 with two fingers, the digital camera shifts to a shooting mode with two cameras. When the user performs a pinch-in or pinch-out and releases his / her finger from the display 170, the digital camera is centered on the point where the pinch-in or pinch-out operation is started, with a magnification corresponding to the distance between the two points. Set the magnification and execute the shooting operation.

本願発明に係る技術思想は、携帯電話機、スマートフォン、タブレット型コンピュータその他の携帯可能な情報処理端末であって、カメラ機能とタッチパネルとを有する端末にも適用可能である。   The technical idea according to the present invention can be applied to a portable information processing terminal such as a mobile phone, a smartphone, a tablet computer, and the like, and a terminal having a camera function and a touch panel.

10,20,800,1100,1600,1900,2300,2500 デジタルカメラ、110,111 レンズ、112,113 絞り、114,115 CCD、116,117 CDS、118,119 増幅器、120,121 A/D変換器、130,131 レンズモータ、132,133 アイリスモータ、134,135 タイミングジェネレータ、180 データバス。   10, 20, 800, 1100, 1600, 1900, 2300, 2500 Digital camera, 110, 111 Lens, 112, 113 Aperture, 114, 115 CCD, 116, 117 CDS, 118, 119 Amplifier, 120, 121 A / D conversion , 130, 131 lens motor, 132, 133 iris motor, 134, 135 timing generator, 180 data bus.

Claims (9)

撮影装置であって、
被写体を撮影するための撮影手段と、
画像の表示と指示入力の受付とが可能なタッチパネル式ディスプレイと、
前記撮影手段によって取得される画像に関連付けられる1つ以上の属性を格納するための記憶手段と、
前記撮影装置を制御するための制御手段とを備え、
前記制御手段は、
前記1つ以上の属性を前記タッチパネル式ディスプレイに表示し、
前記タッチパネル式ディスプレイに対するドラッグ操作に基づいて、前記1つ以上の属性情報から1つの属性を選択し、
画像の撮影動作を前記撮影手段に実行させ、
前記撮影手段によって撮影された画像と、前記選択された1つの属性とを関連付けて、前記記憶手段に保存するように構成されている、撮影装置。
A photographing device,
Photographing means for photographing the subject;
A touch panel display capable of displaying images and accepting instruction inputs;
Storage means for storing one or more attributes associated with the image acquired by the imaging means;
Control means for controlling the imaging device,
The control means includes
Displaying the one or more attributes on the touch panel display;
Based on a drag operation on the touch panel display, one attribute is selected from the one or more attribute information,
Causing the photographing means to perform a photographing operation of an image;
An imaging apparatus configured to associate an image captured by the imaging unit with the selected one attribute and store the image in the storage unit.
前記撮影装置は、
前記撮影手段によって取得された画像を認識するための認識手段と、
複数の属性を有するデータベースとをさらに備え、
前記認識手段は、撮影された画像を認識し、
前記制御手段は、
前記画像の認識結果に基づいて、前記データベースから属性を検索し、
前記検索された属性を前記タッチパネル式ディスプレイに表示するように構成されている、請求項1に記載の撮影装置。
The imaging device
Recognizing means for recognizing an image acquired by the photographing means;
A database having a plurality of attributes,
The recognition means recognizes the captured image;
The control means includes
Based on the recognition result of the image, retrieve the attribute from the database,
The imaging device according to claim 1, configured to display the searched attribute on the touch panel display.
前記記憶手段は、前記タッチパネル式ディスプレイにおけるドラッグ操作に対応する軌跡と、前記軌跡に関連付けられる属性とを格納しており、
前記制御手段は、
前記タッチパネル式ディスプレイに対するドラッグ操作に基づいて、当該ドラッグ操作に対応する軌跡を検知し、
検知された軌跡に関連付けられている属性を、前記タッチパネル式ディスプレイに表示するように構成されている、請求項1に記載の撮影装置。
The storage means stores a trajectory corresponding to a drag operation on the touch panel display and an attribute associated with the trajectory.
The control means includes
Based on a drag operation on the touch panel display, a trajectory corresponding to the drag operation is detected,
The imaging device according to claim 1, configured to display an attribute associated with the detected locus on the touch panel display.
前記撮影手段は、複数のカメラを含み、
前記制御手段は、
前記複数のカメラの各々に撮影を指示し、
各前記カメラからの各画像に、選択された属性を関連付けるように構成されている、請求項1から3のいずれかに記載の撮影装置。
The photographing means includes a plurality of cameras,
The control means includes
Instructing each of the plurality of cameras to shoot,
The photographing apparatus according to claim 1, wherein the photographing apparatus is configured to associate a selected attribute with each image from each of the cameras.
前記タッチパネル式ディスプレイは、視差バリアを形成するための形成手段を含み、
前記制御手段は、各前記カメラからの各画像データを、3次元表示のための画像データとして前記タッチパネル式ディスプレイに出力するように構成されている、請求項4に記載の撮影装置。
The touch panel display includes a forming means for forming a parallax barrier,
5. The photographing apparatus according to claim 4, wherein the control unit is configured to output each image data from each camera to the touch panel display as image data for three-dimensional display.
前記制御手段は、画像に関連付けられている属性に応じて各画像を管理するための管理手段を含む、請求項1〜5のいずれかに記載の撮影装置。   The imaging device according to claim 1, wherein the control unit includes a management unit for managing each image according to an attribute associated with the image. 請求項1〜6のいずれかに記載の撮影装置を含む、情報処理端末。   An information processing terminal including the photographing apparatus according to claim 1. 撮影装置を制御するための方法であって、前記撮影装置は、被写体を撮影するためのカメラと、画像の表示と指示入力の受付とが可能なタッチパネル式ディスプレイと、前記カメラによって取得される画像に関連付けられる1つ以上の属性を格納するためのメモリと、前記カメラを制御するためのコントローラとを備えており、
前記方法は、
前記タッチパネル式ディスプレイが、前記1つ以上の属性を表示するステップと、
前記コントローラが、前記タッチパネル式ディスプレイに対するドラッグ操作に基づいて、前記1つ以上の属性情報から1つの属性を選択するステップと、
前記カメラが画像を撮影するステップと、
前記コントローラが、前記カメラによって撮影された画像と、前記選択された1つの属性とを関連付けて、前記メモリに保存するステップとを含む、撮影装置を制御するための方法。
A method for controlling a photographing apparatus, wherein the photographing apparatus includes a camera for photographing a subject, a touch panel display capable of displaying an image and receiving an instruction input, and an image acquired by the camera. A memory for storing one or more attributes associated with the controller and a controller for controlling the camera;
The method
The touch-panel display displaying the one or more attributes;
The controller selecting one attribute from the one or more attribute information based on a drag operation on the touch panel display;
The camera taking an image;
A method for controlling a photographing device, comprising: the controller associating an image photographed by the camera with the selected one attribute and storing it in the memory.
撮影装置を制御するための方法を実現するためのプログラムであって、前記撮影装置は、被写体を撮影するためのカメラと、画像の表示と指示入力の受付とが可能なタッチパネル式ディスプレイと、前記カメラによって取得される画像に関連付けられる1つ以上の属性を格納するためのメモリと、前記カメラを制御するためのプロセッサとを備えており、
前記プログラムは前記プロセッサに、
前記1つ以上の属性を前記タッチパネル式ディスプレイに表示させるステップと、
前記タッチパネル式ディスプレイに対するドラッグ操作に基づいて、前記1つ以上の属性情報から1つの属性を選択するステップと、
前記カメラに画像を撮影させるステップと、
前記カメラによって撮影された画像と、前記選択された1つの属性とを関連付けて、前記メモリに保存するステップとを実行させる、プログラム。
A program for realizing a method for controlling a photographing device, wherein the photographing device includes a camera for photographing a subject, a touch panel display capable of displaying an image and receiving an instruction input, A memory for storing one or more attributes associated with an image acquired by the camera; and a processor for controlling the camera;
The program is stored in the processor.
Displaying the one or more attributes on the touch panel display;
Selecting one attribute from the one or more attribute information based on a drag operation on the touch panel display;
Causing the camera to take an image;
A program for executing the step of associating an image photographed by the camera with the selected one attribute and storing it in the memory.
JP2011002966A 2011-01-11 2011-01-11 Imaging device, information processing terminal including the imaging device, method for controlling the imaging device, and program for realizing the method Withdrawn JP2012147167A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011002966A JP2012147167A (en) 2011-01-11 2011-01-11 Imaging device, information processing terminal including the imaging device, method for controlling the imaging device, and program for realizing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011002966A JP2012147167A (en) 2011-01-11 2011-01-11 Imaging device, information processing terminal including the imaging device, method for controlling the imaging device, and program for realizing the method

Publications (1)

Publication Number Publication Date
JP2012147167A true JP2012147167A (en) 2012-08-02

Family

ID=46790304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011002966A Withdrawn JP2012147167A (en) 2011-01-11 2011-01-11 Imaging device, information processing terminal including the imaging device, method for controlling the imaging device, and program for realizing the method

Country Status (1)

Country Link
JP (1) JP2012147167A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014129127A1 (en) 2013-02-21 2014-08-28 Necカシオモバイルコミュニケーションズ株式会社 Image processing device, image processing method and permanent computer-readable medium
JP2015001680A (en) * 2013-06-18 2015-01-05 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
WO2015045645A1 (en) * 2013-09-25 2015-04-02 Necカシオモバイルコミュニケーションズ株式会社 Image capturing device, image capturing method, and program
JP5861073B1 (en) * 2014-12-24 2016-02-16 パナソニックIpマネジメント株式会社 Wearable camera
JP5861074B1 (en) * 2014-12-24 2016-02-16 パナソニックIpマネジメント株式会社 Wearable camera
JP2016126160A (en) * 2014-12-26 2016-07-11 カシオ計算機株式会社 Imaging device, imaging control method, and program
US9661283B2 (en) 2014-12-24 2017-05-23 Panasonic Intellectual Property Management Co., Ltd. Wearable camera
US10171726B2 (en) 2014-12-24 2019-01-01 Casio Computer Co., Ltd. Image shooting apparatus for setting image shooting condition easily and method thereof
CN111246105A (en) * 2020-01-22 2020-06-05 维沃移动通信有限公司 Shooting method and electronic equipment

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014129127A1 (en) 2013-02-21 2014-08-28 Necカシオモバイルコミュニケーションズ株式会社 Image processing device, image processing method and permanent computer-readable medium
US9621794B2 (en) 2013-02-21 2017-04-11 Nec Corporation Image processing device, image processing method and permanent computer-readable medium
JP2015001680A (en) * 2013-06-18 2015-01-05 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
WO2015045645A1 (en) * 2013-09-25 2015-04-02 Necカシオモバイルコミュニケーションズ株式会社 Image capturing device, image capturing method, and program
US9848160B2 (en) 2013-09-25 2017-12-19 Nec Corporation Imaging apparatus, imaging method and program
JP2016122918A (en) * 2014-12-24 2016-07-07 パナソニックIpマネジメント株式会社 Wearable camera
JP2016122919A (en) * 2014-12-24 2016-07-07 パナソニックIpマネジメント株式会社 Wearable camera
JP5861074B1 (en) * 2014-12-24 2016-02-16 パナソニックIpマネジメント株式会社 Wearable camera
US9661283B2 (en) 2014-12-24 2017-05-23 Panasonic Intellectual Property Management Co., Ltd. Wearable camera
JP5861073B1 (en) * 2014-12-24 2016-02-16 パナソニックIpマネジメント株式会社 Wearable camera
US10171726B2 (en) 2014-12-24 2019-01-01 Casio Computer Co., Ltd. Image shooting apparatus for setting image shooting condition easily and method thereof
US10356369B2 (en) 2014-12-24 2019-07-16 Panasonic Intellectual Property Management Co., Ltd. Wearable camera
US10560625B2 (en) 2014-12-24 2020-02-11 Casio Computer Co., Ltd. Image shooting apparatus for setting image shooting condition easily and method thereof
JP2016126160A (en) * 2014-12-26 2016-07-11 カシオ計算機株式会社 Imaging device, imaging control method, and program
CN111246105A (en) * 2020-01-22 2020-06-05 维沃移动通信有限公司 Shooting method and electronic equipment

Similar Documents

Publication Publication Date Title
JP2012147167A (en) Imaging device, information processing terminal including the imaging device, method for controlling the imaging device, and program for realizing the method
US9307151B2 (en) Method for controlling camera of device and device thereof
JP5782813B2 (en) Imaging apparatus and image display method
JP6266799B2 (en) Imaging control apparatus, imaging apparatus, imaging control method, and program
TW200808044A (en) Imaging apparatus and computer readable recording medium
JP2007310813A (en) Image retrieving device and camera
US8947558B2 (en) Digital photographing apparatus for multi-photography data and control method thereof
JP2012175533A (en) Electronic apparatus
JP6230386B2 (en) Image processing apparatus, image processing method, and image processing program
JP5519376B2 (en) Electronics
JP2011040896A (en) Image capturing apparatus and method of controlling the same
JP5499754B2 (en) Imaging device
JP2009070374A (en) Electronic device
US8866934B2 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
JP5792983B2 (en) Display control apparatus and display control method
JP2014138246A (en) Image pickup device, control method and program thereof, and recording medium
JP4887461B2 (en) 3D image pickup apparatus and 3D image display method
JP5195317B2 (en) Camera device, photographing method, and photographing control program
JP2019041372A (en) Imaging apparatus, electronic device, and method of transferring image data
JP2015095082A (en) Image display device, control method therefor, and control program
JP2013012982A (en) Imaging apparatus and image reproduction apparatus
JP5393416B2 (en) Imaging apparatus and control method and program thereof
JP2010039795A (en) Data generation device and electronic camera for recognition, data generation program for recognition, and data generation method for recognition
JP2013229696A (en) Imaging apparatus
JP2014086805A (en) Imaging apparatus, imaging apparatus control method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140401