JP5109853B2 - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP5109853B2
JP5109853B2 JP2008191818A JP2008191818A JP5109853B2 JP 5109853 B2 JP5109853 B2 JP 5109853B2 JP 2008191818 A JP2008191818 A JP 2008191818A JP 2008191818 A JP2008191818 A JP 2008191818A JP 5109853 B2 JP5109853 B2 JP 5109853B2
Authority
JP
Japan
Prior art keywords
finger
unit
image
optical system
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008191818A
Other languages
Japanese (ja)
Other versions
JP2010034633A (en
Inventor
透 落合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008191818A priority Critical patent/JP5109853B2/en
Publication of JP2010034633A publication Critical patent/JP2010034633A/en
Application granted granted Critical
Publication of JP5109853B2 publication Critical patent/JP5109853B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、被写体を撮像して画像のデータを生成する電子カメラに関する。   The present invention relates to an electronic camera that images a subject and generates image data.

従来から利用者の所作(ジェスチャー)を認識し、所定のジェスチャーが行われた場合に、所定の動作を行う機器が知られている。このような機器は、単にジェスチャーによる制御だけでなく、機器の特性や制御内容がある方向に依存したものであるとき、ジェスチャーの方向と同じ方向にその制御を行うといったように、きわめて直感的な操作が可能になる。例えば、特許文献1には、ハンドジェスチャーに対応するハンドポーズサインにより、システムを介する通信またはシステムとの対話を行う装置が開示されている。
特開平4−260919号公報
2. Description of the Related Art Conventionally, devices that recognize a user's actions (gestures) and perform a predetermined operation when a predetermined gesture is performed are known. Such devices are not only controlled by gestures, but when they depend on the characteristics of the device and the contents of the control, the control is performed in the same direction as the gesture direction. Operation becomes possible. For example, Patent Document 1 discloses an apparatus that performs communication via a system or dialogue with the system using a hand pause sign corresponding to a hand gesture.
JP-A-4-260919

ところで、電子カメラには多くの場合、焦点の制御機構や可変焦点距離の制御機構など、2つの光軸方向の制御機構が組み込まれる。しかし、上述した装置は、ハンドジェスチャーの方向にのみ依存する。そのため、上記の電子カメラのように光軸方向の制御が2つ以上存在する場合には、いずれか1つの制御に限定する必要があり、いずれも制御したい場合には、いずれかを指定するための別個の切替手段などを備えなければならず、操作も煩雑になる。   By the way, in many cases, an electronic camera incorporates two optical axis direction control mechanisms such as a focus control mechanism and a variable focal length control mechanism. However, the device described above depends only on the direction of the hand gesture. Therefore, when there are two or more controls in the optical axis direction as in the above-described electronic camera, it is necessary to limit to any one control. To control any of them, either is specified. Separate switching means must be provided, and the operation becomes complicated.

そこで、本発明は、操作者の直感的な動作により電子カメラの光学系を選択的に制御することを目的とする。   Accordingly, an object of the present invention is to selectively control an optical system of an electronic camera by an intuitive operation of an operator.

第1の発明の電子カメラは、第1光学系と、前記第1光学系を通過した被写体の像を撮像して第1画像のデータを生成する第1撮像部と、前記第1光学系を駆動する第1駆動部と、第2光学系と、前記第2光学系を通過した操作者の指の像を撮像して第2画像のデータを生成する第2撮像部と、前記第2撮像部により生成した前記第2画像のデータから前記操作者の指情報を検出する検出部と、前記検出部により検出した前記指情報に基づいて、前記第1光学系に対する駆動制御を決定する決定部と、前記決定部により決定した前記駆動制御に基づいて、前記第1駆動部を制御する制御部とを備える。
前記第1光学系は、フォーカスレンズとズームレンズとを有し、前記第1駆動部は、前記フォーカスレンズを光軸方向に移動するフォーカス駆動部と前記ズームレンズを光軸方向に移動するズーム駆動部とを有し、前記検出部は、前記第2画像における前記指の向きと前記指の大きさとを検出し、前記決定部は、前記検出部により前後して検出した前記指の大きさを比較することにより、前記指の大きさの相対変化を算出するとともに、前記指の向きと前記相対変化とに基づいて、前記フォーカスレンズおよび前記ズームレンズの少なくとも一方の移動方向を決定し、前記制御部は、前記決定部により決定した前記移動方向に基づいて、前記フォーカス駆動部および前記ズーム駆動部の少なくとも一方を制御する。
An electronic camera according to a first aspect of the present invention includes a first optical system, a first imaging unit that captures an image of a subject that has passed through the first optical system and generates data of the first image, and the first optical system. A first driving unit that drives, a second optical system, a second imaging unit that captures an image of an operator's finger that has passed through the second optical system, and generates second image data; and the second imaging unit A detection unit that detects finger information of the operator from data of the second image generated by a unit, and a determination unit that determines drive control for the first optical system based on the finger information detected by the detection unit And a control unit that controls the first drive unit based on the drive control determined by the determination unit.
The first optical system includes a focus lens and a zoom lens, and the first drive unit includes a focus drive unit that moves the focus lens in the optical axis direction and a zoom drive that moves the zoom lens in the optical axis direction. The detection unit detects the orientation of the finger and the size of the finger in the second image, and the determination unit determines the size of the finger detected before and after by the detection unit. By comparing, the relative change in the size of the finger is calculated, and the movement direction of at least one of the focus lens and the zoom lens is determined based on the orientation of the finger and the relative change, and the control The unit controls at least one of the focus driving unit and the zoom driving unit based on the moving direction determined by the determining unit.

なお、好ましくは、前記第1画像と前記第2画像とを重ねて表示する表示部をさらに備え、前記検出部は、前記第2画像における前記指の位置を検出し、前記制御部は、前記検出部により検出した前記指の位置に応じて、前記指の位置に対応する前記第1画像の一部領域を特定しても良い。   Preferably, the display unit further includes a display unit that displays the first image and the second image in an overlapping manner, the detection unit detects the position of the finger in the second image, and the control unit A partial area of the first image corresponding to the position of the finger may be specified according to the position of the finger detected by the detection unit.

第2の発明の電子カメラは、光学系と、前記光学系を通過した被写体の像を撮像して画像のデータを生成する撮像部と、前記光学系を駆動する駆動部と、前記撮像部により生成した前記画像のデータから前記被写体の指情報を検出する検出部と、前記検出部により検出した前記指情報に基づいて、前記光学系に対する駆動制御を決定する決定部と、前記決定部により決定した前記駆動制御に基づいて、前記駆動部を制御する制御部とを備える。前記指情報は、指の向きが爪側の場合と腹側の場合とに応じて異なる制御の指示を表わす。 An electronic camera of a second invention includes an optical system, an imaging unit that captures an image of a subject that has passed through the optical system and generates image data, a drive unit that drives the optical system, and the imaging unit. The detection unit that detects finger information of the subject from the generated image data, the determination unit that determines drive control for the optical system based on the finger information detected by the detection unit, and the determination unit And a control unit that controls the drive unit based on the drive control. The finger information represents different control instructions depending on whether the finger is on the nail side or on the abdomen side.

本発明によれば、操作者の直感的な動作により電子カメラの光学系を選択的に制御することができる。   According to the present invention, the optical system of the electronic camera can be selectively controlled by an intuitive operation of the operator.

以下、図面を用いて本発明の実施形態について説明する。図1は、本発明の電子カメラ1の外観を背面側から示す図である。図1に示すように、電子カメラ1の筐体30の背面部31には、第2光学系9、モニタ16、操作部17、ランプ21が配置される。なお、図1には示されないが筐体30の前面部には、第1光学系2が配置される。また、筐体30の天面には、レリーズ釦18が配置される。なお、電子カメラ1は、第1光学系2を介して被写体の像を撮像し、第2光学系9を介して主に操作者の指の像を撮像する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a view showing an appearance of an electronic camera 1 of the present invention from the back side. As shown in FIG. 1, the second optical system 9, the monitor 16, the operation unit 17, and the lamp 21 are disposed on the back surface portion 31 of the housing 30 of the electronic camera 1. Although not shown in FIG. 1, the first optical system 2 is disposed on the front surface portion of the housing 30. A release button 18 is disposed on the top surface of the housing 30. The electronic camera 1 captures an image of a subject via the first optical system 2 and mainly captures an image of an operator's finger via the second optical system 9.

図2は、本発明の実施形態における電子カメラ1の構成を示すブロック図である。図2に示すように、電子カメラ1は、第1光学系2、ズーム駆動部5、フォーカス駆動部6、撮像素子7、A/D変換部8、第2光学系9、撮像素子11、A/D変換部12、CPU13、バッファメモリ14、フラッシュRAM15、モニタ16、操作部17、レリーズ釦18、記録I/F部19、記録媒体20、ランプ21、バス22を備える。   FIG. 2 is a block diagram showing the configuration of the electronic camera 1 in the embodiment of the present invention. As shown in FIG. 2, the electronic camera 1 includes a first optical system 2, a zoom drive unit 5, a focus drive unit 6, an image sensor 7, an A / D converter 8, a second optical system 9, an image sensor 11, and an A. / D conversion unit 12, CPU 13, buffer memory 14, flash RAM 15, monitor 16, operation unit 17, release button 18, recording I / F unit 19, recording medium 20, lamp 21, and bus 22.

第1光学系2は、ズームレンズ3、フォーカスレンズ4、不図示の絞りなどを有する。ズーム駆動部5は、CPU13の制御により、ズームレンズ3を光軸方向に移動して、焦点距離を調節する。焦点距離は、撮像する被写体の範囲いわゆる画角を決定するものである。なお、第1光学系2の画角は、多段階に調整可能であるとする。フォーカス駆動部6は、CPU13の制御により、フォーカスレンズ4を移動して、光軸方向の特定の位置に焦点を合わせる。   The first optical system 2 includes a zoom lens 3, a focus lens 4, a diaphragm (not shown), and the like. The zoom drive unit 5 adjusts the focal length by moving the zoom lens 3 in the optical axis direction under the control of the CPU 13. The focal length determines the range of the subject to be imaged, the so-called angle of view. Note that the angle of view of the first optical system 2 can be adjusted in multiple stages. The focus driving unit 6 moves the focus lens 4 under the control of the CPU 13 to focus on a specific position in the optical axis direction.

撮像素子7は、ズームレンズ3およびフォーカスレンズ4を通過した光束による被写体の像を光電変換し、アナログの画像信号を出力する。撮像モードにおいて、撮像素子7は、レリーズ釦18が全押しされると記録用画像(本画像)を撮像する。また、撮像素子7は、撮像待機時に所定間隔ごとに間引き読み出しで第1のスルー画像を撮像する。撮像素子7の出力は、A/D変換部8に接続される。A/D変換部8は、撮像素子7の出力信号のA/D変換を行う。   The image sensor 7 photoelectrically converts an object image by the light flux that has passed through the zoom lens 3 and the focus lens 4 and outputs an analog image signal. In the imaging mode, the imaging device 7 captures a recording image (main image) when the release button 18 is fully pressed. Further, the imaging device 7 captures the first through image by thinning readout at predetermined intervals during imaging standby. The output of the image sensor 7 is connected to the A / D converter 8. The A / D conversion unit 8 performs A / D conversion of the output signal of the image sensor 7.

第2光学系9は、撮像レンズ10、不図示の絞りなどを有する。ところで、操作者が電子カメラ1を構えたとき、第2光学系9と操作者との距離はほぼ決まった値となる。そのため、撮像レンズ10の焦点距離は固定される。また、撮像レンズ10の焦点位置は、パンフォーカス位置に固定されても良い。撮像素子11は、撮像レンズ10を通過した光束による操作者の指の像を光電変換し、アナログの画像信号を出力する。撮像モードにおいて、撮像素子11は、撮像待機時に所定間隔ごとに間引き読み出しで第2のスルー画像を撮像する。撮像素子11の出力は、A/D変換部12に接続される。A/D変換部12は、撮像素子11の出力信号のA/D変換を行う。   The second optical system 9 includes an imaging lens 10 and a diaphragm (not shown). By the way, when the operator holds the electronic camera 1, the distance between the second optical system 9 and the operator is almost a fixed value. Therefore, the focal length of the imaging lens 10 is fixed. Further, the focal position of the imaging lens 10 may be fixed at the pan focus position. The image sensor 11 photoelectrically converts an image of the operator's finger by the light beam that has passed through the imaging lens 10 and outputs an analog image signal. In the imaging mode, the imaging device 11 captures the second through image by thinning out reading at predetermined intervals during imaging standby. The output of the image sensor 11 is connected to the A / D converter 12. The A / D converter 12 performs A / D conversion of the output signal of the image sensor 11.

CPU13は、所定のシーケンスプログラムにしたがって、電子カメラ1の統括的な制御を行うプロセッサである。また、CPU13は、A/D変換部8、A/D変換部12から出力されたデータに各種の画像処理(ホワイトバランス調整、色補間、階調変換処理、輪郭強調処理など)を施す。また、CPU13は、記録媒体20に画像のデータを記録する前にJPEG形式などで圧縮する処理や、圧縮された上記のデータを伸長復元する処理をも実行する。さらに、CPU13は、不図示の時間測定用のタイマを制御する。また、CPU13は、第2のスルー画像から操作者の指を認識し、指の位置、指の向き、指の大きさを含む指情報を検出する。なお、指の向きとは、指の爪側が第2光学系9に向いているか、または、指の腹側が第2光学系9に向いているかである。指情報の検出の詳細については、後述する。   The CPU 13 is a processor that performs overall control of the electronic camera 1 in accordance with a predetermined sequence program. Further, the CPU 13 performs various image processing (white balance adjustment, color interpolation, gradation conversion processing, contour enhancement processing, etc.) on the data output from the A / D conversion unit 8 and the A / D conversion unit 12. The CPU 13 also executes processing for compressing the image data in the JPEG format before recording the image data on the recording medium 20 and processing for decompressing and restoring the compressed data. Further, the CPU 13 controls a timer for time measurement (not shown). Further, the CPU 13 recognizes the operator's finger from the second through image, and detects finger information including the finger position, the finger direction, and the finger size. Note that the direction of the finger means whether the fingernail side faces the second optical system 9 or the finger side of the finger faces the second optical system 9. Details of detection of finger information will be described later.

バッファメモリ14は、CPU13による画像処理の前工程や後工程で画像のデータを一時的に格納する。フラッシュRAM15は、バッファメモリ14に一時的に格納した画像のデータを記憶する。モニタ16は、CPU13の制御により各種の画像を表示する。モニタ16に表示される各種の画像は、本画像、第1のスルー画像、第2のスルー画像、記録媒体20に記録した画像、メニュー画面などを含む。   The buffer memory 14 temporarily stores image data in the pre-process and post-process of image processing by the CPU 13. The flash RAM 15 stores image data temporarily stored in the buffer memory 14. The monitor 16 displays various images under the control of the CPU 13. The various images displayed on the monitor 16 include a main image, a first through image, a second through image, an image recorded on the recording medium 20, a menu screen, and the like.

操作部17は、OK釦17a、操作釦などを有する。操作釦は、上記のメニュー画面等での操作入力を操作者から受け付ける。レリーズ釦18は、レリーズ指示の入力を操作者から受け付ける。なお、操作部17、レリーズ釦18の状態はCPU13により検知される。記録I/F部19は、記録媒体20を接続するためのコネクタが形成される。そして、記録I/F部19は、コネクタに接続された記録媒体20に対してデータの書き込み/読み出しを実行する。ランプ21は、LEDなどにより構成され、CPU13の出力に基づいて点滅または点灯する。   The operation unit 17 includes an OK button 17a and operation buttons. The operation button receives an operation input on the menu screen or the like from the operator. The release button 18 receives a release instruction input from the operator. The states of the operation unit 17 and the release button 18 are detected by the CPU 13. The recording I / F unit 19 is formed with a connector for connecting the recording medium 20. The recording I / F unit 19 executes data writing / reading with respect to the recording medium 20 connected to the connector. The lamp 21 is configured by an LED or the like, and blinks or lights up based on the output of the CPU 13.

なお、A/D変換部8、A/D変換部12の出力はバス22を介してCPU13に接続される。また、CPU13、記録I/F部19の出力はそれぞれバス22を介してモニタ16に接続される。   The outputs of the A / D conversion unit 8 and the A / D conversion unit 12 are connected to the CPU 13 via the bus 22. The outputs of the CPU 13 and the recording I / F unit 19 are connected to the monitor 16 via the bus 22, respectively.

ここで、第1光学系2の光軸方向について説明する。例えば、風景を背にして人物が立つ場面を撮像する場合、光軸方向に対して、人物は手前に、風景は奥となる。そのため、ジェスチャーで手前あるいは奥の動きを行うことで、その同じ方向に焦点が調節されるのであれば、直感的な動作になり、操作者の理解が容易になる。   Here, the optical axis direction of the first optical system 2 will be described. For example, when imaging a scene where a person stands against a landscape, the person is in front and the landscape is in the back with respect to the optical axis direction. For this reason, if the focus is adjusted in the same direction by performing a forward or backward movement with a gesture, the operation becomes intuitive and the operator can easily understand.

また、上記の例において、画角は、風景および人物を広い範囲まで撮像するか狭い範囲のみを撮像するかに相当し、操作者の直感的には光軸上を被写体に近づくかまたは遠ざかることに相当する。この場合、上記と同様に、ジェスチャーで手前あるいは奥の動きを行うことで、その同じ方向に画角が調整されるのであれば、直感的な動作になり、操作者の理解が容易になる。   In the above example, the angle of view corresponds to imaging a landscape and a person over a wide range or only within a narrow range, and the operator intuitively approaches or moves away from the subject on the optical axis. It corresponds to. In this case, as described above, if the angle of view is adjusted in the same direction by performing a forward or backward movement with a gesture, an intuitive operation is achieved and the operator can easily understand.

そこで、CPU13は、指情報に基づいて、指の向きが爪側の場合の場合には、フォーカス駆動部6を制御して、焦点を調節する。一方、CPU13は、指の向きが腹側の場合には、ズーム駆動部5を制御して、画角を調整する。また、CPU13は、指の大きさの相対変化により、指が第2光学系9に近づいたか、または、指が第2光学系9から遠ざかったかを判定する。例えば、CPU13は、指の大きさが大に変化した場合には、指が第2光学系9に近づいたと判定する。一方、CPU13は、指の大きさが小に変化した場合には、指が第2光学系9から遠ざかったと判定する。   Therefore, based on the finger information, the CPU 13 controls the focus driving unit 6 to adjust the focus when the finger is on the nail side. On the other hand, when the finger is on the ventral side, the CPU 13 controls the zoom driving unit 5 to adjust the angle of view. Further, the CPU 13 determines whether the finger has approached the second optical system 9 or the finger has moved away from the second optical system 9 based on the relative change in the size of the finger. For example, the CPU 13 determines that the finger has approached the second optical system 9 when the size of the finger has changed greatly. On the other hand, when the size of the finger changes to small, the CPU 13 determines that the finger has moved away from the second optical system 9.

そして、CPU13は、指の向きが爪側の場合に、指が第2光学系9から遠ざかると、フォーカス駆動部6を制御して、操作者に近づくよう、すなわち近距離方向にフォーカスレンズ4を移動する。一方、CPU13は、指の向きが爪側の場合に、指が第2光学系9に近づくと、フォーカス駆動部6を制御して、操作者から遠ざかるよう、すなわち遠距離方向にフォーカスレンズ4を移動する。   Then, when the finger is away from the second optical system 9 when the direction of the finger is the nail side, the CPU 13 controls the focus driving unit 6 to move the focus lens 4 closer to the operator, that is, in the short distance direction. Moving. On the other hand, when the finger is close to the second optical system 9 when the finger is on the nail side, the CPU 13 controls the focus driving unit 6 to move away from the operator, that is, to move the focus lens 4 in the long distance direction. Moving.

また、CPU13は、指の向きが腹側の場合に、指が第2光学系9から遠ざかると、ズーム駆動部5を制御して、被写体から遠ざかるよう、すなわち広角方向にズームレンズ3を移動する。一方、CPU13は、指の向きが腹側の場合に、指が第2光学系9に近づくと、ズーム駆動部5を制御して、被写体に近づくよう、すなわち望遠方向にズームレンズ3を移動する。   Further, when the finger is away from the second optical system 9 when the finger is on the ventral side, the CPU 13 controls the zoom driving unit 5 to move the zoom lens 3 away from the subject, that is, in the wide angle direction. . On the other hand, when the finger is on the ventral side and the finger approaches the second optical system 9, the CPU 13 controls the zoom driving unit 5 to move the zoom lens 3 so as to approach the subject, that is, in the telephoto direction. .

これにより、CPU13は、指の向きを区別するとともに、指の大きさの相対変化に基づいて、指の動きの方向と同じ方向に第1光学系2の光軸方向移動を制御することができる。   Accordingly, the CPU 13 can distinguish the direction of the finger and control the movement of the first optical system 2 in the optical axis direction in the same direction as the direction of the finger movement based on the relative change in the finger size. .

図3は、電子カメラ1における撮像時のCPU13の動作を示すフローチャートである。   FIG. 3 is a flowchart showing the operation of the CPU 13 during imaging in the electronic camera 1.

ステップS1で、CPU13は、撮像モードを開始する。例えば、CPU13は、撮像素子7を制御して、第1のスルー画像の撮像を開始するとともに、撮像素子11を制御して、第2のスルー画像の撮像を開始する。そして、CPU13は、モニタ16に第1のスルー画像と第2のスルー画像とを重ねて表示する。例えば、CPU13は、半透過の第1のスルー画像と半透過の第2のスルー画像とを重ねて表示する。また、CPU13は、モニタ16に「背面のレンズに左手の指を向け、被写体を指さして下さい。」等のメッセージを表示する。   In step S1, the CPU 13 starts an imaging mode. For example, the CPU 13 controls the image sensor 7 to start capturing the first through image, and controls the image sensor 11 to start capturing the second through image. Then, the CPU 13 displays the first through image and the second through image on the monitor 16 so as to overlap each other. For example, the CPU 13 displays a semi-transparent first through image and a semi-transparent second through image in an overlapping manner. Further, the CPU 13 displays a message such as “Please point your finger at the rear lens and point at the subject” on the monitor 16.

ステップS2で、CPU13は、不図示のメモリから指のテンプレートを読み出して、第2のスルー画像のデータと比較することにより、指の認識を開始する。なお、テンプレートには、指の爪側および腹側の代表的な形状が記憶されている。   In step S <b> 2, the CPU 13 starts finger recognition by reading a finger template from a memory (not shown) and comparing it with the data of the second through image. The template stores typical shapes of the fingernail side and the ventral side.

ステップS3で、CPU13は、ステップS2で比較した結果に基づいて、第2のスルー画像から指を認識したか否かを判定する。例えば、指を認識した場合(YES)には、ステップS4に移行する。一方、指を認識しない場合(NO)には、ステップS2に戻る。なお、CPU13は、ステップS2に戻った場合に、モニタ16に「指が写っていません。」等のメッセージを表示しても良いし、ランプ21を点滅させても良い。また、電子音発生部を備え、電子音により操作者に知らせても良い。これにより、操作者は、第2光学系9を介して指が撮像されているか否かを確認することができる。   In step S3, the CPU 13 determines whether or not a finger has been recognized from the second through image based on the result of the comparison in step S2. For example, when a finger is recognized (YES), the process proceeds to step S4. On the other hand, if the finger is not recognized (NO), the process returns to step S2. When the CPU 13 returns to step S2, the message such as “No finger is shown” may be displayed on the monitor 16, or the lamp 21 may be blinked. Further, an electronic sound generation unit may be provided to notify the operator by electronic sound. Thereby, the operator can confirm whether or not the finger is imaged via the second optical system 9.

ステップS4で、CPU13は、ステップS2で認識した指の位置を検出する。   In step S4, the CPU 13 detects the position of the finger recognized in step S2.

ステップS5で、CPU13は、ステップS4で検出した指の位置に対応する第1のスルー画像の一部領域を選択して、選択した領域を枠で囲む、ランプ21を点灯するなど、一部領域が選択されている旨を操作者に通知するとともに、モニタ16に「被写体を特定する場合には、OK釦を押して下さい。」等のメッセージを表示する。その後、CPU13は、各部を制御して、指の位置に対応する第1のスルー画像の一部領域に適した露出制御、フォーカスレンズ4の位置の調節などを行う。   In step S5, the CPU 13 selects a partial area of the first through image corresponding to the finger position detected in step S4, surrounds the selected area with a frame, turns on the lamp 21, etc. Is selected, and a message such as “Please press the OK button when specifying the subject” is displayed on the monitor 16. Thereafter, the CPU 13 controls each part to perform exposure control suitable for a partial region of the first through image corresponding to the position of the finger, adjustment of the position of the focus lens 4, and the like.

ステップS6で、CPU13は、ステップS5で選択した第1のスルー画像の一部領域に対して、第1光学系2の光軸方向移動を制御する。ステップS6の詳細については、後述する。   In step S6, the CPU 13 controls the movement of the first optical system 2 in the optical axis direction with respect to a partial region of the first through image selected in step S5. Details of step S6 will be described later.

ステップS7で、CPU13は、ステップS5で選択した第1のスルー画像の一部領域をリセットするか否かを操作部17を介して操作者から受け付ける。例えば、CPU13は、モニタ16に「被写体をリセットしますか?」等のメッセージを表示する。リセットする場合(YES)には、ステップS2に戻り、再び指の認識を開始する。一方、リセットしない場合(NO)には、ステップS8に移行する。   In step S <b> 7, the CPU 13 receives from the operator via the operation unit 17 whether or not to reset a partial region of the first through image selected in step S <b> 5. For example, the CPU 13 displays a message such as “Do you want to reset the subject?” On the monitor 16. When resetting (YES), it returns to step S2 and starts recognizing a finger again. On the other hand, when not resetting (NO), the process proceeds to step S8.

ステップS8で、CPU13は、レリーズ釦18が全押しされたか否かを判定する。レリーズ釦18が全押しされた場合(YES)には、ステップS9に移行する。一方、レリーズ釦18が全押しされない場合(NO)には、ステップS6に戻り、再び第1光学系2の光軸方向移動を制御する。   In step S8, the CPU 13 determines whether or not the release button 18 has been fully pressed. If the release button 18 is fully pressed (YES), the process proceeds to step S9. On the other hand, when the release button 18 is not fully pressed (NO), the process returns to step S6 and the movement of the first optical system 2 in the optical axis direction is controlled again.

ステップS9で、CPU13は、撮像素子7を制御して、本画像を撮像する。   In step S <b> 9, the CPU 13 controls the image sensor 7 to capture the main image.

ステップS10で、CPU13は、ステップS9で撮像した本画像のデータに対して画像処理を施するとともに、画像処理後の本画像のデータを記録媒体20に記録し、一連の処理を終了する。   In step S10, the CPU 13 performs image processing on the main image data captured in step S9, records the main image data after the image processing on the recording medium 20, and ends the series of processing.

次に、図3のフローチャートのステップS6における第1光学系2の光軸方向移動の制御について説明する。図4は、第1光学系2の光軸方向移動を制御する場合のCPU13の動作を示すフローチャートである。   Next, the control of the movement of the first optical system 2 in the optical axis direction in step S6 of the flowchart of FIG. 3 will be described. FIG. 4 is a flowchart showing the operation of the CPU 13 when controlling the movement of the first optical system 2 in the optical axis direction.

ステップS21で、CPU13は、モニタ16に「ピントを調節する場合には指の爪側、撮影範囲を変更する場合には指の腹側を背面のレンズに向け、指を前後に動かして下さい。」等のメッセージを表示する。そして、CPU13は、ステップS2で上述した不図示のメモリから指のテンプレートを読み出して、第2のスルー画像のデータと比較することにより、指の向きが爪側か否かを判定する。例えば、指の爪側のテンプレートは爪の情報を有し、指の腹側のテンプレートは指紋の情報を有しても良い。指の向きが爪側である場合(YES)には、ステップS22に移行する。一方、指の向きが爪側でない場合(NO)には、後述するステップS28に移行する。   In step S21, the CPU 13 indicates to the monitor 16 "If you want to adjust the focus, move your finger back and forth with the fingernail side of the finger facing the lens on the back to change the shooting range. "Is displayed. Then, the CPU 13 reads a finger template from the memory (not shown) described above in step S2 and compares it with the data of the second through image to determine whether the finger is on the nail side. For example, a fingernail template may have nail information, and a finger belly template may have fingerprint information. When the direction of the finger is the nail side (YES), the process proceeds to step S22. On the other hand, when the direction of the finger is not the nail side (NO), the process proceeds to step S28 described later.

ステップS22で、CPU13は、不図示の時間測定用のタイマを開始するとともに、指の大きさを測定する。なお、CPU13は、ステップS22以降の処理において、第1のスルー画像に第2のスルー画像をピクチャーインピクチャーして合成した画像をモニタ16に表示しても良い。合成した画像の例を図5に示す。   In step S22, the CPU 13 starts a timer for time measurement (not shown) and measures the size of the finger. Note that the CPU 13 may display, on the monitor 16, an image obtained by combining the first through image with the second through image in a picture-in-picture in the processing after step S <b> 22. An example of the synthesized image is shown in FIG.

ステップS23で、CPU13は、タイマを参照して、所定時間が非経過であるか否かを判定する。所定時間が非経過である場合(YES)には、ステップS24に移行する。一方、所定時間が経過した場合(NO)には、図4の処理を終了する。   In step S23, the CPU 13 refers to the timer and determines whether or not the predetermined time has not elapsed. If the predetermined time has not elapsed (YES), the process proceeds to step S24. On the other hand, when the predetermined time has elapsed (NO), the process of FIG. 4 is terminated.

ステップS24で、CPU13は、指の大きさが大に変化したか否かを判定する。例えば、CPU13は、指の大きさを測定し、ステップS22で測定した指の大きさと比較する。指の大きさが大に変化した場合(YES)には、ステップS25に移行する。一方、指の大きさが大に変化していない場合(NO)には、ステップS26に移行する。   In step S24, the CPU 13 determines whether or not the size of the finger has changed greatly. For example, the CPU 13 measures the size of the finger and compares it with the size of the finger measured in step S22. If the size of the finger has changed greatly (YES), the process proceeds to step S25. On the other hand, if the finger size has not changed significantly (NO), the process proceeds to step S26.

ステップS25で、CPU13は、フォーカス駆動部6を制御して、フォーカスレンズ4を遠距離方向に移動する。その後、ステップS22に戻り、タイマをリセットする。   In step S25, the CPU 13 controls the focus driving unit 6 to move the focus lens 4 in the long distance direction. Thereafter, the process returns to step S22 to reset the timer.

ステップS24で指の大きさが大に変化していない場合(NO)には、ステップS26で、CPU13は、指の大きさが小に変化したか否かを判定する。例えば、CPU13は、指の大きさを測定し、ステップS22で測定した指の大きさと比較する。指の大きさが小に変化した場合(YES)には、ステップS27に移行する。一方、指の大きさが小に変化していない場合(NO)には、ステップS23に戻り、所定時間が非経過であるか否かを判定する。   If the finger size has not changed significantly in step S24 (NO), in step S26, the CPU 13 determines whether the finger size has changed to small. For example, the CPU 13 measures the size of the finger and compares it with the size of the finger measured in step S22. If the size of the finger has changed to small (YES), the process proceeds to step S27. On the other hand, if the size of the finger has not changed to small (NO), the process returns to step S23 to determine whether or not the predetermined time has not elapsed.

ステップS27で、CPU13は、フォーカス駆動部6を制御して、フォーカスレンズ4を近距離方向に移動する。その後、ステップS22に戻り、タイマをリセットする。   In step S27, the CPU 13 controls the focus drive unit 6 to move the focus lens 4 in the short distance direction. Thereafter, the process returns to step S22 to reset the timer.

ステップS21で指の向きが爪側でない場合(NO)には、ステップS28で、CPU13は、ステップS21と同様に、不図示のメモリから指のテンプレートを読み出して、第2のスルー画像のデータと比較することにより、指の向きが腹側か否かを判定する。指の向きが腹側である場合(YES)には、ステップS29に移行する。一方、指の向きが腹側でない場合(NO)には、ステップS21に戻り、指の向きが爪側か否かを判定する。   If the direction of the finger is not the nail side in step S21 (NO), in step S28, the CPU 13 reads the finger template from the memory (not shown) and stores the data of the second through image in step S21. By comparing, it is determined whether the finger is on the ventral side. If the finger is on the ventral side (YES), the process proceeds to step S29. On the other hand, if the finger is not on the ventral side (NO), the process returns to step S21 to determine whether the finger is on the nail side.

ステップS29で、CPU13は、タイマを開始するとともに、指の大きさを測定する。   In step S29, the CPU 13 starts a timer and measures the size of the finger.

ステップS30で、CPU13は、タイマを参照して、所定時間が非経過であるか否かを判定する。所定時間が非経過である場合(YES)には、ステップS31に移行する。一方、所定時間が経過した場合(NO)には、図4の処理を終了する。   In step S30, the CPU 13 refers to the timer and determines whether or not the predetermined time has not elapsed. If the predetermined time has not elapsed (YES), the process proceeds to step S31. On the other hand, when the predetermined time has elapsed (NO), the process of FIG. 4 is terminated.

ステップS31で、CPU13は、指の大きさが大に変化したか否かを判定する。指の大きさが大に変化した場合(YES)には、ステップS32に移行する。一方、指の大きさが大に変化していない場合(NO)には、ステップS33に移行する。   In step S31, the CPU 13 determines whether or not the size of the finger has changed greatly. If the size of the finger has changed greatly (YES), the process proceeds to step S32. On the other hand, if the finger size has not changed significantly (NO), the process proceeds to step S33.

ステップS32で、CPU13は、ズーム駆動部5を制御して、ズームレンズ3を望遠方向に移動する。その後、ステップS29に戻り、タイマをリセットする。   In step S32, the CPU 13 controls the zoom drive unit 5 to move the zoom lens 3 in the telephoto direction. Thereafter, the process returns to step S29 to reset the timer.

ステップS31で指の大きさが大に変化していない場合(NO)には、ステップS33で、CPU13は、指の大きさが小に変化したか否かを判定する。指の大きさが小に変化した場合(YES)には、ステップS34に移行する。一方、指の大きさが小に変化していない場合(NO)には、ステップS30に戻り、所定時間が非経過であるか否かを判定する。   If the finger size has not changed significantly in step S31 (NO), in step S33, the CPU 13 determines whether the finger size has changed to small. If the size of the finger has changed to small (YES), the process proceeds to step S34. On the other hand, if the size of the finger has not changed to small (NO), the process returns to step S30 to determine whether or not the predetermined time has not elapsed.

ステップS34で、CPU13は、ズーム駆動部5を制御して、ズームレンズ3を広角方向に移動する。その後、ステップS29に戻り、タイマをリセットする。   In step S34, the CPU 13 controls the zoom driving unit 5 to move the zoom lens 3 in the wide angle direction. Thereafter, the process returns to step S29 to reset the timer.

なお、上記の実施形態では、第1光学系2の光軸方向移動を制御する例を示したが、その他の第1光学系2の制御に適用しても良い。例えば、指の向きに応じて、第1光学系2の絞り開口を制御する構成にしても良い。例えば、CPU13は、指が右側に倒れたか左側に倒れたかを判定する。そして、CPU13は、指が右側に倒れたと判定した場合には、絞り開口を開く。一方、CPU13は、指が左側に倒れたと判定した場合には、絞り開口を閉じても良い。また、指の向きに応じて、第1光学系2にあおりを付ける構成にしても良い。例えば、CPU13は、指が上向きに動いたか下向きに動いたかを判定する。そして、CPU13は、指が上向きに動いたと判定した場合には、第1光学系2を上に向ける。一方、CPU13は、指が下向きに動いたと判定した場合には、第1光学系2を下に向けても良い。   In the above embodiment, the example of controlling the movement of the first optical system 2 in the optical axis direction has been described. However, the first embodiment may be applied to the control of the other first optical system 2. For example, the diaphragm aperture of the first optical system 2 may be controlled according to the direction of the finger. For example, the CPU 13 determines whether the finger has fallen to the right side or the left side. When the CPU 13 determines that the finger has fallen to the right side, it opens the aperture opening. On the other hand, if the CPU 13 determines that the finger has fallen to the left side, the aperture opening may be closed. Moreover, you may make it the structure which attaches a tilt to the 1st optical system 2 according to direction of a finger | toe. For example, the CPU 13 determines whether the finger has moved upward or downward. When the CPU 13 determines that the finger has moved upward, the CPU 13 turns the first optical system 2 upward. On the other hand, when it is determined that the finger has moved downward, the CPU 13 may point the first optical system 2 downward.

また、対面撮影やセルフ撮影、フリーアングルモニタを備える場合を想定して、第1のスルー画像のデータから指情報を検出し、上記の実施形態と同様の処理を行っても良い。   Further, assuming the case where a face-to-face shooting, a self-shooting, and a free angle monitor are provided, finger information is detected from the data of the first through image, and the same processing as in the above embodiment may be performed.

以上説明したように、本実施形態の電子カメラ1は、第2光学系9を介して撮像した第2のスルー画像から操作者の指を認識し、指情報を検出する。そして、電子カメラ1は、指情報に基づいて、第1光学系2の光軸方向移動を制御する。したがって、本実施形態の電子カメラ1によれば、操作者の直感的な動作により電子カメラ1の第1光学系2を選択的に制御することができる。   As described above, the electronic camera 1 according to the present embodiment recognizes the operator's finger from the second through image captured through the second optical system 9 and detects finger information. Then, the electronic camera 1 controls the movement of the first optical system 2 in the optical axis direction based on the finger information. Therefore, according to the electronic camera 1 of the present embodiment, the first optical system 2 of the electronic camera 1 can be selectively controlled by an intuitive operation of the operator.

(実施形態の補足)
なお、上記の実施形態では、ステップS2、ステップS21、ステップS28において、予めメモリに記憶した指のテンプレートを用いて操作者の指を認識したが、これに限らない。例えば、操作者の指を予め撮像し、メモリに登録する構成にしても良い。また、この場合、例えば、手袋をはめた状態の手を登録しても良いし、げんこつにした手を登録しても良い。これにより、素手で電子カメラを持てない場合や、指が不自由な場合などにも対応できる。
(Supplement of embodiment)
In the above embodiment, the operator's finger is recognized using the finger template stored in the memory in advance in step S2, step S21, and step S28, but the present invention is not limited to this. For example, the operator's finger may be captured in advance and registered in the memory. In this case, for example, a hand in a gloved state may be registered, or a hand with a gloved hand may be registered. As a result, it is possible to deal with cases where the electronic camera cannot be held with bare hands or where the finger is inconvenient.

また、上記の実施形態では、ステップS21の処理以降において、指の向きが爪側の場合にフォーカス駆動部6を制御し、指の向きが腹側の場合にズーム駆動部5を制御する例を示したが、これに限らない。例えば、指の向きが爪側の場合にズーム駆動部5を制御し、指の向きが腹側の場合にフォーカス駆動部6を制御する構成にしても良い。   In the above embodiment, after the process of step S21, the focus driving unit 6 is controlled when the finger is on the nail side, and the zoom driving unit 5 is controlled when the finger is on the ventral side. Although shown, it is not limited to this. For example, the zoom drive unit 5 may be controlled when the finger is on the nail side, and the focus drive unit 6 may be controlled when the finger is on the ventral side.

また、上記の実施形態では、ステップS21の処理以降において、ズーム駆動部5を制御する処理とフォーカス駆動部6を制御する処理とを分ける例を示したが、これに限らない。例えば、CPU13は、ステップS21の判定結果を記憶し、ステップS22の処理以降で指の大きさに変化があった場合に、ズーム駆動部5またはフォーカス駆動部6を制御する構成にしても良い。   In the above-described embodiment, the example in which the process for controlling the zoom drive unit 5 and the process for controlling the focus drive unit 6 are separated after the process of step S21 is not limited thereto. For example, the CPU 13 may store the determination result in step S21 and control the zoom driving unit 5 or the focus driving unit 6 when the finger size changes after the processing in step S22.

また、指の動きの速度に応じて、ズーム駆動部5、フォーカス駆動部6の駆動速度を変更する構成にしても良い。例えば、CPU13は、指が一気に手前に動かされたことを検出した場合には、ズーム駆動部5を制御して、ズームレンズ3を最も広角側に移動する。このように、タイマの測定時間および指の大きさの変化に基づいて、変化が大きい場合には、粗調整を行い、変化が小さい場合には、微調整を行う構成にしても良い。   In addition, the driving speed of the zoom driving unit 5 and the focus driving unit 6 may be changed according to the speed of finger movement. For example, when the CPU 13 detects that the finger is moved all at once, the CPU 13 controls the zoom driving unit 5 to move the zoom lens 3 to the wide-angle side. As described above, based on the change in the measurement time of the timer and the size of the finger, when the change is large, coarse adjustment may be performed, and when the change is small, the fine adjustment may be performed.

また、第1のスルー画像を立体表示が可能なディスプレイに表示しても良い。この場合、第1のスルー画像における被写体の奥行き方向の情報と、第2のスルー画像における指の位置の情報とを対応付けて、第1光学系2の光軸方向移動を制御しても良い。これにより、例えば、図3のステップS1からS5において、平面の第1のスルー画像では重なって見えない部分を特定できるため、直感的によりわかりやすく、第1光学系2の光軸方向移動を制御することができる。   Further, the first through image may be displayed on a display capable of stereoscopic display. In this case, the movement in the optical axis direction of the first optical system 2 may be controlled by associating information on the depth direction of the subject in the first through image with information on the finger position in the second through image. . Thereby, for example, in steps S1 to S5 in FIG. 3, since it is possible to specify a portion that cannot be seen overlapping in the first through image on the plane, it is easier to understand intuitively and controls the movement of the first optical system 2 in the optical axis direction. can do.

本発明の電子カメラ1の外観を背面側から示す図である。It is a figure which shows the external appearance of the electronic camera 1 of this invention from the back side. 本発明の実施形態における電子カメラ1の構成を示すブロック図である。It is a block diagram which shows the structure of the electronic camera 1 in embodiment of this invention. 電子カメラ1における撮像時のCPU13の動作を示すフローチャートである。3 is a flowchart showing the operation of a CPU 13 during imaging in the electronic camera 1 第1光学系2の光軸方向移動を制御する場合のCPU13の動作を示すフローチャートである。6 is a flowchart showing the operation of the CPU 13 when controlling the movement of the first optical system 2 in the optical axis direction. 合成した画像の例を示す図である。It is a figure which shows the example of the synthesized image.

符号の説明Explanation of symbols

1…電子カメラ、2…第1光学系、3…ズームレンズ、4…フォーカスレンズ、5…ズーム駆動部、6…フォーカス駆動部、7…撮像素子、8…A/D変換部、9…第2光学系、11…撮像素子、12…A/D変換部、13…CPU、16…モニタ DESCRIPTION OF SYMBOLS 1 ... Electronic camera, 2 ... 1st optical system, 3 ... Zoom lens, 4 ... Focus lens, 5 ... Zoom drive part, 6 ... Focus drive part, 7 ... Imaging element, 8 ... A / D conversion part, 9 ... 1st 2 optical systems, 11 ... imaging device, 12 ... A / D converter, 13 ... CPU, 16 ... monitor

Claims (3)

第1光学系と、
前記第1光学系を通過した被写体の像を撮像して第1画像のデータを生成する第1撮像部と、
前記第1光学系を駆動する第1駆動部と、
第2光学系と、
前記第2光学系を通過した操作者の指の像を撮像して第2画像のデータを生成する第2撮像部と、
前記第2撮像部により生成した前記第2画像のデータから前記操作者の指情報を検出する検出部と、
前記検出部により検出した前記指情報に基づいて、前記第1光学系に対する駆動制御を決定する決定部と、
前記決定部により決定した前記駆動制御に基づいて、前記第1駆動部を制御する制御部とを備え、
前記第1光学系は、フォーカスレンズとズームレンズとを有し、
前記第1駆動部は、前記フォーカスレンズを光軸方向に移動するフォーカス駆動部と前記ズームレンズを光軸方向に移動するズーム駆動部とを有し、
前記検出部は、前記第2画像における前記指の向きと前記指の大きさとを検出し、
前記決定部は、前記検出部により前後して検出した前記指の大きさを比較することにより、前記指の大きさの相対変化を算出するとともに、前記指の向きと前記相対変化とに基づいて、前記フォーカスレンズおよび前記ズームレンズの少なくとも一方の移動方向を決定し、
前記制御部は、前記決定部により決定した前記移動方向に基づいて、前記フォーカス駆動部および前記ズーム駆動部の少なくとも一方を制御する
ことを特徴とする電子カメラ
A first optical system;
A first imaging unit that captures an image of a subject that has passed through the first optical system and generates data of the first image;
A first drive unit for driving the first optical system;
A second optical system;
A second imaging unit that captures an image of an operator's finger that has passed through the second optical system and generates second image data;
A detection unit for detecting finger information of the operator from data of the second image generated by the second imaging unit;
A determination unit that determines drive control for the first optical system based on the finger information detected by the detection unit;
A control unit that controls the first drive unit based on the drive control determined by the determination unit ;
The first optical system has a focus lens and a zoom lens,
The first drive unit includes a focus drive unit that moves the focus lens in the optical axis direction and a zoom drive unit that moves the zoom lens in the optical axis direction,
The detection unit detects the direction of the finger and the size of the finger in the second image,
The determination unit calculates a relative change in the size of the finger by comparing the size of the finger detected before and after by the detection unit, and based on the direction of the finger and the relative change. Determining a moving direction of at least one of the focus lens and the zoom lens;
The control unit controls at least one of the focus driving unit and the zoom driving unit based on the moving direction determined by the determining unit.
請求項1に記載の電子カメラにおいて、
前記第1画像と前記第2画像とを重ねて表示する表示部をさらに備え、
前記検出部は、前記第2画像における前記指の位置を検出し、
前記制御部は、前記検出部により検出した前記指の位置に応じて、前記指の位置に対応する前記第1画像の一部領域を特定する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
A display unit for displaying the first image and the second image in an overlapping manner;
The detection unit detects a position of the finger in the second image;
The electronic camera according to claim 1, wherein the control unit specifies a partial region of the first image corresponding to the position of the finger according to the position of the finger detected by the detection unit.
光学系と、
前記光学系を通過した被写体の像を撮像して画像のデータを生成する撮像部と、
前記光学系を駆動する駆動部と、
前記撮像部により生成した前記画像のデータから前記被写体の指情報を検出する検出部と、
前記検出部により検出した前記指情報に基づいて、前記光学系に対する駆動制御を決定する決定部と、
前記決定部により決定した前記駆動制御に基づいて、前記駆動部を制御する制御部とを備え、
前記指情報は、指の向きが爪側の場合と腹側の場合とに応じて異なる制御の指示を表わすことを特徴とする電子カメラ。
Optical system,
An imaging unit that captures an image of a subject that has passed through the optical system and generates image data;
A drive unit for driving the optical system;
A detection unit for detecting finger information of the subject from data of the image generated by the imaging unit;
A determination unit that determines drive control for the optical system based on the finger information detected by the detection unit;
A control unit that controls the drive unit based on the drive control determined by the determination unit;
2. The electronic camera according to claim 1, wherein the finger information represents different control instructions depending on whether the finger is on the nail side or on the abdomen side .
JP2008191818A 2008-07-25 2008-07-25 Electronic camera Expired - Fee Related JP5109853B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008191818A JP5109853B2 (en) 2008-07-25 2008-07-25 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008191818A JP5109853B2 (en) 2008-07-25 2008-07-25 Electronic camera

Publications (2)

Publication Number Publication Date
JP2010034633A JP2010034633A (en) 2010-02-12
JP5109853B2 true JP5109853B2 (en) 2012-12-26

Family

ID=41738657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008191818A Expired - Fee Related JP5109853B2 (en) 2008-07-25 2008-07-25 Electronic camera

Country Status (1)

Country Link
JP (1) JP5109853B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219841A (en) * 2013-05-08 2014-11-20 住友電工ネットワークス株式会社 Operation input device and operation input program
KR102082661B1 (en) * 2013-07-12 2020-02-28 삼성전자주식회사 Photograph image generating method of electronic device, and apparatus thereof
KR102154802B1 (en) * 2014-02-11 2020-09-11 삼성전자주식회사 Photogrpaphing method of electronic apparatus and electronic apparatus thereof
WO2016079854A1 (en) 2014-11-20 2016-05-26 オリンパス株式会社 Control terminal, image capture system, control method, and program
JP6744990B2 (en) * 2017-04-28 2020-08-19 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus, information processing apparatus control method, and program
JP6719418B2 (en) * 2017-05-08 2020-07-08 株式会社ニコン Electronics

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4013100B2 (en) * 1998-09-21 2007-11-28 富士フイルム株式会社 Electronic camera
JP2002290529A (en) * 2001-03-28 2002-10-04 Matsushita Electric Ind Co Ltd Portable communication terminal, information display device, control input device and control input method
JP2004312194A (en) * 2003-04-03 2004-11-04 Konica Minolta Photo Imaging Inc Mobile phone with pointing device function and mobile phone

Also Published As

Publication number Publication date
JP2010034633A (en) 2010-02-12

Similar Documents

Publication Publication Date Title
US8831282B2 (en) Imaging device including a face detector
US8040419B2 (en) Image reproducing device capable of zooming in a region of an image, image reproducing method and recording medium for the same
JP5251215B2 (en) Digital camera
JP4510713B2 (en) Digital camera
JP4518157B2 (en) Imaging apparatus and program thereof
US10200585B2 (en) Imaging device, imaging system, imaging method, and computer-readable recording medium for use in an imaging system including an external communication device
US20080181460A1 (en) Imaging apparatus and imaging method
US8767116B2 (en) Imaging apparatus, imaging method and imaging program for displaying an enlarged area of subject image
JP5109853B2 (en) Electronic camera
US8648960B2 (en) Digital photographing apparatus and control method thereof
WO2010073619A1 (en) Image capture device
JP2009199049A (en) Imaging apparatus and imaging apparatus control method, and computer program
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP5409483B2 (en) Imaging device
JP2018033013A (en) Control device, imaging apparatus, control method, program, and memory medium
JP2008288797A (en) Imaging apparatus
JP6024135B2 (en) Subject tracking display control device, subject tracking display control method and program
KR20170006748A (en) Image capturing apparatus and method for the same
JP5126285B2 (en) Imaging apparatus and program thereof
JP5182308B2 (en) Imaging apparatus and program thereof
KR101630295B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
JP2010081246A (en) Device and program for selecting composition
KR101853054B1 (en) Terminal having camera and method for processing image thereof
KR101798019B1 (en) Terminal having camera and method for processing image thereof
KR101755520B1 (en) Terminal having camera and method for processing image thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120924

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5109853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees