JP5109853B2 - Electronic camera - Google Patents
Electronic camera Download PDFInfo
- Publication number
- JP5109853B2 JP5109853B2 JP2008191818A JP2008191818A JP5109853B2 JP 5109853 B2 JP5109853 B2 JP 5109853B2 JP 2008191818 A JP2008191818 A JP 2008191818A JP 2008191818 A JP2008191818 A JP 2008191818A JP 5109853 B2 JP5109853 B2 JP 5109853B2
- Authority
- JP
- Japan
- Prior art keywords
- finger
- unit
- image
- optical system
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、被写体を撮像して画像のデータを生成する電子カメラに関する。 The present invention relates to an electronic camera that images a subject and generates image data.
従来から利用者の所作(ジェスチャー)を認識し、所定のジェスチャーが行われた場合に、所定の動作を行う機器が知られている。このような機器は、単にジェスチャーによる制御だけでなく、機器の特性や制御内容がある方向に依存したものであるとき、ジェスチャーの方向と同じ方向にその制御を行うといったように、きわめて直感的な操作が可能になる。例えば、特許文献1には、ハンドジェスチャーに対応するハンドポーズサインにより、システムを介する通信またはシステムとの対話を行う装置が開示されている。
ところで、電子カメラには多くの場合、焦点の制御機構や可変焦点距離の制御機構など、2つの光軸方向の制御機構が組み込まれる。しかし、上述した装置は、ハンドジェスチャーの方向にのみ依存する。そのため、上記の電子カメラのように光軸方向の制御が2つ以上存在する場合には、いずれか1つの制御に限定する必要があり、いずれも制御したい場合には、いずれかを指定するための別個の切替手段などを備えなければならず、操作も煩雑になる。 By the way, in many cases, an electronic camera incorporates two optical axis direction control mechanisms such as a focus control mechanism and a variable focal length control mechanism. However, the device described above depends only on the direction of the hand gesture. Therefore, when there are two or more controls in the optical axis direction as in the above-described electronic camera, it is necessary to limit to any one control. To control any of them, either is specified. Separate switching means must be provided, and the operation becomes complicated.
そこで、本発明は、操作者の直感的な動作により電子カメラの光学系を選択的に制御することを目的とする。 Accordingly, an object of the present invention is to selectively control an optical system of an electronic camera by an intuitive operation of an operator.
第1の発明の電子カメラは、第1光学系と、前記第1光学系を通過した被写体の像を撮像して第1画像のデータを生成する第1撮像部と、前記第1光学系を駆動する第1駆動部と、第2光学系と、前記第2光学系を通過した操作者の指の像を撮像して第2画像のデータを生成する第2撮像部と、前記第2撮像部により生成した前記第2画像のデータから前記操作者の指情報を検出する検出部と、前記検出部により検出した前記指情報に基づいて、前記第1光学系に対する駆動制御を決定する決定部と、前記決定部により決定した前記駆動制御に基づいて、前記第1駆動部を制御する制御部とを備える。
前記第1光学系は、フォーカスレンズとズームレンズとを有し、前記第1駆動部は、前記フォーカスレンズを光軸方向に移動するフォーカス駆動部と前記ズームレンズを光軸方向に移動するズーム駆動部とを有し、前記検出部は、前記第2画像における前記指の向きと前記指の大きさとを検出し、前記決定部は、前記検出部により前後して検出した前記指の大きさを比較することにより、前記指の大きさの相対変化を算出するとともに、前記指の向きと前記相対変化とに基づいて、前記フォーカスレンズおよび前記ズームレンズの少なくとも一方の移動方向を決定し、前記制御部は、前記決定部により決定した前記移動方向に基づいて、前記フォーカス駆動部および前記ズーム駆動部の少なくとも一方を制御する。
An electronic camera according to a first aspect of the present invention includes a first optical system, a first imaging unit that captures an image of a subject that has passed through the first optical system and generates data of the first image, and the first optical system. A first driving unit that drives, a second optical system, a second imaging unit that captures an image of an operator's finger that has passed through the second optical system, and generates second image data; and the second imaging unit A detection unit that detects finger information of the operator from data of the second image generated by a unit, and a determination unit that determines drive control for the first optical system based on the finger information detected by the detection unit And a control unit that controls the first drive unit based on the drive control determined by the determination unit.
The first optical system includes a focus lens and a zoom lens, and the first drive unit includes a focus drive unit that moves the focus lens in the optical axis direction and a zoom drive that moves the zoom lens in the optical axis direction. The detection unit detects the orientation of the finger and the size of the finger in the second image, and the determination unit determines the size of the finger detected before and after by the detection unit. By comparing, the relative change in the size of the finger is calculated, and the movement direction of at least one of the focus lens and the zoom lens is determined based on the orientation of the finger and the relative change, and the control The unit controls at least one of the focus driving unit and the zoom driving unit based on the moving direction determined by the determining unit.
なお、好ましくは、前記第1画像と前記第2画像とを重ねて表示する表示部をさらに備え、前記検出部は、前記第2画像における前記指の位置を検出し、前記制御部は、前記検出部により検出した前記指の位置に応じて、前記指の位置に対応する前記第1画像の一部領域を特定しても良い。 Preferably, the display unit further includes a display unit that displays the first image and the second image in an overlapping manner, the detection unit detects the position of the finger in the second image, and the control unit A partial area of the first image corresponding to the position of the finger may be specified according to the position of the finger detected by the detection unit.
第2の発明の電子カメラは、光学系と、前記光学系を通過した被写体の像を撮像して画像のデータを生成する撮像部と、前記光学系を駆動する駆動部と、前記撮像部により生成した前記画像のデータから前記被写体の指情報を検出する検出部と、前記検出部により検出した前記指情報に基づいて、前記光学系に対する駆動制御を決定する決定部と、前記決定部により決定した前記駆動制御に基づいて、前記駆動部を制御する制御部とを備える。前記指情報は、指の向きが爪側の場合と腹側の場合とに応じて異なる制御の指示を表わす。 An electronic camera of a second invention includes an optical system, an imaging unit that captures an image of a subject that has passed through the optical system and generates image data, a drive unit that drives the optical system, and the imaging unit. The detection unit that detects finger information of the subject from the generated image data, the determination unit that determines drive control for the optical system based on the finger information detected by the detection unit, and the determination unit And a control unit that controls the drive unit based on the drive control. The finger information represents different control instructions depending on whether the finger is on the nail side or on the abdomen side.
本発明によれば、操作者の直感的な動作により電子カメラの光学系を選択的に制御することができる。 According to the present invention, the optical system of the electronic camera can be selectively controlled by an intuitive operation of the operator.
以下、図面を用いて本発明の実施形態について説明する。図1は、本発明の電子カメラ1の外観を背面側から示す図である。図1に示すように、電子カメラ1の筐体30の背面部31には、第2光学系9、モニタ16、操作部17、ランプ21が配置される。なお、図1には示されないが筐体30の前面部には、第1光学系2が配置される。また、筐体30の天面には、レリーズ釦18が配置される。なお、電子カメラ1は、第1光学系2を介して被写体の像を撮像し、第2光学系9を介して主に操作者の指の像を撮像する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a view showing an appearance of an
図2は、本発明の実施形態における電子カメラ1の構成を示すブロック図である。図2に示すように、電子カメラ1は、第1光学系2、ズーム駆動部5、フォーカス駆動部6、撮像素子7、A/D変換部8、第2光学系9、撮像素子11、A/D変換部12、CPU13、バッファメモリ14、フラッシュRAM15、モニタ16、操作部17、レリーズ釦18、記録I/F部19、記録媒体20、ランプ21、バス22を備える。
FIG. 2 is a block diagram showing the configuration of the
第1光学系2は、ズームレンズ3、フォーカスレンズ4、不図示の絞りなどを有する。ズーム駆動部5は、CPU13の制御により、ズームレンズ3を光軸方向に移動して、焦点距離を調節する。焦点距離は、撮像する被写体の範囲いわゆる画角を決定するものである。なお、第1光学系2の画角は、多段階に調整可能であるとする。フォーカス駆動部6は、CPU13の制御により、フォーカスレンズ4を移動して、光軸方向の特定の位置に焦点を合わせる。
The first
撮像素子7は、ズームレンズ3およびフォーカスレンズ4を通過した光束による被写体の像を光電変換し、アナログの画像信号を出力する。撮像モードにおいて、撮像素子7は、レリーズ釦18が全押しされると記録用画像(本画像)を撮像する。また、撮像素子7は、撮像待機時に所定間隔ごとに間引き読み出しで第1のスルー画像を撮像する。撮像素子7の出力は、A/D変換部8に接続される。A/D変換部8は、撮像素子7の出力信号のA/D変換を行う。
The
第2光学系9は、撮像レンズ10、不図示の絞りなどを有する。ところで、操作者が電子カメラ1を構えたとき、第2光学系9と操作者との距離はほぼ決まった値となる。そのため、撮像レンズ10の焦点距離は固定される。また、撮像レンズ10の焦点位置は、パンフォーカス位置に固定されても良い。撮像素子11は、撮像レンズ10を通過した光束による操作者の指の像を光電変換し、アナログの画像信号を出力する。撮像モードにおいて、撮像素子11は、撮像待機時に所定間隔ごとに間引き読み出しで第2のスルー画像を撮像する。撮像素子11の出力は、A/D変換部12に接続される。A/D変換部12は、撮像素子11の出力信号のA/D変換を行う。
The second
CPU13は、所定のシーケンスプログラムにしたがって、電子カメラ1の統括的な制御を行うプロセッサである。また、CPU13は、A/D変換部8、A/D変換部12から出力されたデータに各種の画像処理(ホワイトバランス調整、色補間、階調変換処理、輪郭強調処理など)を施す。また、CPU13は、記録媒体20に画像のデータを記録する前にJPEG形式などで圧縮する処理や、圧縮された上記のデータを伸長復元する処理をも実行する。さらに、CPU13は、不図示の時間測定用のタイマを制御する。また、CPU13は、第2のスルー画像から操作者の指を認識し、指の位置、指の向き、指の大きさを含む指情報を検出する。なお、指の向きとは、指の爪側が第2光学系9に向いているか、または、指の腹側が第2光学系9に向いているかである。指情報の検出の詳細については、後述する。
The
バッファメモリ14は、CPU13による画像処理の前工程や後工程で画像のデータを一時的に格納する。フラッシュRAM15は、バッファメモリ14に一時的に格納した画像のデータを記憶する。モニタ16は、CPU13の制御により各種の画像を表示する。モニタ16に表示される各種の画像は、本画像、第1のスルー画像、第2のスルー画像、記録媒体20に記録した画像、メニュー画面などを含む。
The
操作部17は、OK釦17a、操作釦などを有する。操作釦は、上記のメニュー画面等での操作入力を操作者から受け付ける。レリーズ釦18は、レリーズ指示の入力を操作者から受け付ける。なお、操作部17、レリーズ釦18の状態はCPU13により検知される。記録I/F部19は、記録媒体20を接続するためのコネクタが形成される。そして、記録I/F部19は、コネクタに接続された記録媒体20に対してデータの書き込み/読み出しを実行する。ランプ21は、LEDなどにより構成され、CPU13の出力に基づいて点滅または点灯する。
The
なお、A/D変換部8、A/D変換部12の出力はバス22を介してCPU13に接続される。また、CPU13、記録I/F部19の出力はそれぞれバス22を介してモニタ16に接続される。
The outputs of the A /
ここで、第1光学系2の光軸方向について説明する。例えば、風景を背にして人物が立つ場面を撮像する場合、光軸方向に対して、人物は手前に、風景は奥となる。そのため、ジェスチャーで手前あるいは奥の動きを行うことで、その同じ方向に焦点が調節されるのであれば、直感的な動作になり、操作者の理解が容易になる。
Here, the optical axis direction of the first
また、上記の例において、画角は、風景および人物を広い範囲まで撮像するか狭い範囲のみを撮像するかに相当し、操作者の直感的には光軸上を被写体に近づくかまたは遠ざかることに相当する。この場合、上記と同様に、ジェスチャーで手前あるいは奥の動きを行うことで、その同じ方向に画角が調整されるのであれば、直感的な動作になり、操作者の理解が容易になる。 In the above example, the angle of view corresponds to imaging a landscape and a person over a wide range or only within a narrow range, and the operator intuitively approaches or moves away from the subject on the optical axis. It corresponds to. In this case, as described above, if the angle of view is adjusted in the same direction by performing a forward or backward movement with a gesture, an intuitive operation is achieved and the operator can easily understand.
そこで、CPU13は、指情報に基づいて、指の向きが爪側の場合の場合には、フォーカス駆動部6を制御して、焦点を調節する。一方、CPU13は、指の向きが腹側の場合には、ズーム駆動部5を制御して、画角を調整する。また、CPU13は、指の大きさの相対変化により、指が第2光学系9に近づいたか、または、指が第2光学系9から遠ざかったかを判定する。例えば、CPU13は、指の大きさが大に変化した場合には、指が第2光学系9に近づいたと判定する。一方、CPU13は、指の大きさが小に変化した場合には、指が第2光学系9から遠ざかったと判定する。
Therefore, based on the finger information, the
そして、CPU13は、指の向きが爪側の場合に、指が第2光学系9から遠ざかると、フォーカス駆動部6を制御して、操作者に近づくよう、すなわち近距離方向にフォーカスレンズ4を移動する。一方、CPU13は、指の向きが爪側の場合に、指が第2光学系9に近づくと、フォーカス駆動部6を制御して、操作者から遠ざかるよう、すなわち遠距離方向にフォーカスレンズ4を移動する。
Then, when the finger is away from the second
また、CPU13は、指の向きが腹側の場合に、指が第2光学系9から遠ざかると、ズーム駆動部5を制御して、被写体から遠ざかるよう、すなわち広角方向にズームレンズ3を移動する。一方、CPU13は、指の向きが腹側の場合に、指が第2光学系9に近づくと、ズーム駆動部5を制御して、被写体に近づくよう、すなわち望遠方向にズームレンズ3を移動する。
Further, when the finger is away from the second
これにより、CPU13は、指の向きを区別するとともに、指の大きさの相対変化に基づいて、指の動きの方向と同じ方向に第1光学系2の光軸方向移動を制御することができる。
Accordingly, the
図3は、電子カメラ1における撮像時のCPU13の動作を示すフローチャートである。
FIG. 3 is a flowchart showing the operation of the
ステップS1で、CPU13は、撮像モードを開始する。例えば、CPU13は、撮像素子7を制御して、第1のスルー画像の撮像を開始するとともに、撮像素子11を制御して、第2のスルー画像の撮像を開始する。そして、CPU13は、モニタ16に第1のスルー画像と第2のスルー画像とを重ねて表示する。例えば、CPU13は、半透過の第1のスルー画像と半透過の第2のスルー画像とを重ねて表示する。また、CPU13は、モニタ16に「背面のレンズに左手の指を向け、被写体を指さして下さい。」等のメッセージを表示する。
In step S1, the
ステップS2で、CPU13は、不図示のメモリから指のテンプレートを読み出して、第2のスルー画像のデータと比較することにより、指の認識を開始する。なお、テンプレートには、指の爪側および腹側の代表的な形状が記憶されている。
In step S <b> 2, the
ステップS3で、CPU13は、ステップS2で比較した結果に基づいて、第2のスルー画像から指を認識したか否かを判定する。例えば、指を認識した場合(YES)には、ステップS4に移行する。一方、指を認識しない場合(NO)には、ステップS2に戻る。なお、CPU13は、ステップS2に戻った場合に、モニタ16に「指が写っていません。」等のメッセージを表示しても良いし、ランプ21を点滅させても良い。また、電子音発生部を備え、電子音により操作者に知らせても良い。これにより、操作者は、第2光学系9を介して指が撮像されているか否かを確認することができる。
In step S3, the
ステップS4で、CPU13は、ステップS2で認識した指の位置を検出する。
In step S4, the
ステップS5で、CPU13は、ステップS4で検出した指の位置に対応する第1のスルー画像の一部領域を選択して、選択した領域を枠で囲む、ランプ21を点灯するなど、一部領域が選択されている旨を操作者に通知するとともに、モニタ16に「被写体を特定する場合には、OK釦を押して下さい。」等のメッセージを表示する。その後、CPU13は、各部を制御して、指の位置に対応する第1のスルー画像の一部領域に適した露出制御、フォーカスレンズ4の位置の調節などを行う。
In step S5, the
ステップS6で、CPU13は、ステップS5で選択した第1のスルー画像の一部領域に対して、第1光学系2の光軸方向移動を制御する。ステップS6の詳細については、後述する。
In step S6, the
ステップS7で、CPU13は、ステップS5で選択した第1のスルー画像の一部領域をリセットするか否かを操作部17を介して操作者から受け付ける。例えば、CPU13は、モニタ16に「被写体をリセットしますか?」等のメッセージを表示する。リセットする場合(YES)には、ステップS2に戻り、再び指の認識を開始する。一方、リセットしない場合(NO)には、ステップS8に移行する。
In step S <b> 7, the
ステップS8で、CPU13は、レリーズ釦18が全押しされたか否かを判定する。レリーズ釦18が全押しされた場合(YES)には、ステップS9に移行する。一方、レリーズ釦18が全押しされない場合(NO)には、ステップS6に戻り、再び第1光学系2の光軸方向移動を制御する。
In step S8, the
ステップS9で、CPU13は、撮像素子7を制御して、本画像を撮像する。
In step S <b> 9, the
ステップS10で、CPU13は、ステップS9で撮像した本画像のデータに対して画像処理を施するとともに、画像処理後の本画像のデータを記録媒体20に記録し、一連の処理を終了する。
In step S10, the
次に、図3のフローチャートのステップS6における第1光学系2の光軸方向移動の制御について説明する。図4は、第1光学系2の光軸方向移動を制御する場合のCPU13の動作を示すフローチャートである。
Next, the control of the movement of the first
ステップS21で、CPU13は、モニタ16に「ピントを調節する場合には指の爪側、撮影範囲を変更する場合には指の腹側を背面のレンズに向け、指を前後に動かして下さい。」等のメッセージを表示する。そして、CPU13は、ステップS2で上述した不図示のメモリから指のテンプレートを読み出して、第2のスルー画像のデータと比較することにより、指の向きが爪側か否かを判定する。例えば、指の爪側のテンプレートは爪の情報を有し、指の腹側のテンプレートは指紋の情報を有しても良い。指の向きが爪側である場合(YES)には、ステップS22に移行する。一方、指の向きが爪側でない場合(NO)には、後述するステップS28に移行する。
In step S21, the
ステップS22で、CPU13は、不図示の時間測定用のタイマを開始するとともに、指の大きさを測定する。なお、CPU13は、ステップS22以降の処理において、第1のスルー画像に第2のスルー画像をピクチャーインピクチャーして合成した画像をモニタ16に表示しても良い。合成した画像の例を図5に示す。
In step S22, the
ステップS23で、CPU13は、タイマを参照して、所定時間が非経過であるか否かを判定する。所定時間が非経過である場合(YES)には、ステップS24に移行する。一方、所定時間が経過した場合(NO)には、図4の処理を終了する。
In step S23, the
ステップS24で、CPU13は、指の大きさが大に変化したか否かを判定する。例えば、CPU13は、指の大きさを測定し、ステップS22で測定した指の大きさと比較する。指の大きさが大に変化した場合(YES)には、ステップS25に移行する。一方、指の大きさが大に変化していない場合(NO)には、ステップS26に移行する。
In step S24, the
ステップS25で、CPU13は、フォーカス駆動部6を制御して、フォーカスレンズ4を遠距離方向に移動する。その後、ステップS22に戻り、タイマをリセットする。
In step S25, the
ステップS24で指の大きさが大に変化していない場合(NO)には、ステップS26で、CPU13は、指の大きさが小に変化したか否かを判定する。例えば、CPU13は、指の大きさを測定し、ステップS22で測定した指の大きさと比較する。指の大きさが小に変化した場合(YES)には、ステップS27に移行する。一方、指の大きさが小に変化していない場合(NO)には、ステップS23に戻り、所定時間が非経過であるか否かを判定する。
If the finger size has not changed significantly in step S24 (NO), in step S26, the
ステップS27で、CPU13は、フォーカス駆動部6を制御して、フォーカスレンズ4を近距離方向に移動する。その後、ステップS22に戻り、タイマをリセットする。
In step S27, the
ステップS21で指の向きが爪側でない場合(NO)には、ステップS28で、CPU13は、ステップS21と同様に、不図示のメモリから指のテンプレートを読み出して、第2のスルー画像のデータと比較することにより、指の向きが腹側か否かを判定する。指の向きが腹側である場合(YES)には、ステップS29に移行する。一方、指の向きが腹側でない場合(NO)には、ステップS21に戻り、指の向きが爪側か否かを判定する。
If the direction of the finger is not the nail side in step S21 (NO), in step S28, the
ステップS29で、CPU13は、タイマを開始するとともに、指の大きさを測定する。
In step S29, the
ステップS30で、CPU13は、タイマを参照して、所定時間が非経過であるか否かを判定する。所定時間が非経過である場合(YES)には、ステップS31に移行する。一方、所定時間が経過した場合(NO)には、図4の処理を終了する。
In step S30, the
ステップS31で、CPU13は、指の大きさが大に変化したか否かを判定する。指の大きさが大に変化した場合(YES)には、ステップS32に移行する。一方、指の大きさが大に変化していない場合(NO)には、ステップS33に移行する。
In step S31, the
ステップS32で、CPU13は、ズーム駆動部5を制御して、ズームレンズ3を望遠方向に移動する。その後、ステップS29に戻り、タイマをリセットする。
In step S32, the
ステップS31で指の大きさが大に変化していない場合(NO)には、ステップS33で、CPU13は、指の大きさが小に変化したか否かを判定する。指の大きさが小に変化した場合(YES)には、ステップS34に移行する。一方、指の大きさが小に変化していない場合(NO)には、ステップS30に戻り、所定時間が非経過であるか否かを判定する。
If the finger size has not changed significantly in step S31 (NO), in step S33, the
ステップS34で、CPU13は、ズーム駆動部5を制御して、ズームレンズ3を広角方向に移動する。その後、ステップS29に戻り、タイマをリセットする。
In step S34, the
なお、上記の実施形態では、第1光学系2の光軸方向移動を制御する例を示したが、その他の第1光学系2の制御に適用しても良い。例えば、指の向きに応じて、第1光学系2の絞り開口を制御する構成にしても良い。例えば、CPU13は、指が右側に倒れたか左側に倒れたかを判定する。そして、CPU13は、指が右側に倒れたと判定した場合には、絞り開口を開く。一方、CPU13は、指が左側に倒れたと判定した場合には、絞り開口を閉じても良い。また、指の向きに応じて、第1光学系2にあおりを付ける構成にしても良い。例えば、CPU13は、指が上向きに動いたか下向きに動いたかを判定する。そして、CPU13は、指が上向きに動いたと判定した場合には、第1光学系2を上に向ける。一方、CPU13は、指が下向きに動いたと判定した場合には、第1光学系2を下に向けても良い。
In the above embodiment, the example of controlling the movement of the first
また、対面撮影やセルフ撮影、フリーアングルモニタを備える場合を想定して、第1のスルー画像のデータから指情報を検出し、上記の実施形態と同様の処理を行っても良い。 Further, assuming the case where a face-to-face shooting, a self-shooting, and a free angle monitor are provided, finger information is detected from the data of the first through image, and the same processing as in the above embodiment may be performed.
以上説明したように、本実施形態の電子カメラ1は、第2光学系9を介して撮像した第2のスルー画像から操作者の指を認識し、指情報を検出する。そして、電子カメラ1は、指情報に基づいて、第1光学系2の光軸方向移動を制御する。したがって、本実施形態の電子カメラ1によれば、操作者の直感的な動作により電子カメラ1の第1光学系2を選択的に制御することができる。
As described above, the
(実施形態の補足)
なお、上記の実施形態では、ステップS2、ステップS21、ステップS28において、予めメモリに記憶した指のテンプレートを用いて操作者の指を認識したが、これに限らない。例えば、操作者の指を予め撮像し、メモリに登録する構成にしても良い。また、この場合、例えば、手袋をはめた状態の手を登録しても良いし、げんこつにした手を登録しても良い。これにより、素手で電子カメラを持てない場合や、指が不自由な場合などにも対応できる。
(Supplement of embodiment)
In the above embodiment, the operator's finger is recognized using the finger template stored in the memory in advance in step S2, step S21, and step S28, but the present invention is not limited to this. For example, the operator's finger may be captured in advance and registered in the memory. In this case, for example, a hand in a gloved state may be registered, or a hand with a gloved hand may be registered. As a result, it is possible to deal with cases where the electronic camera cannot be held with bare hands or where the finger is inconvenient.
また、上記の実施形態では、ステップS21の処理以降において、指の向きが爪側の場合にフォーカス駆動部6を制御し、指の向きが腹側の場合にズーム駆動部5を制御する例を示したが、これに限らない。例えば、指の向きが爪側の場合にズーム駆動部5を制御し、指の向きが腹側の場合にフォーカス駆動部6を制御する構成にしても良い。
In the above embodiment, after the process of step S21, the
また、上記の実施形態では、ステップS21の処理以降において、ズーム駆動部5を制御する処理とフォーカス駆動部6を制御する処理とを分ける例を示したが、これに限らない。例えば、CPU13は、ステップS21の判定結果を記憶し、ステップS22の処理以降で指の大きさに変化があった場合に、ズーム駆動部5またはフォーカス駆動部6を制御する構成にしても良い。
In the above-described embodiment, the example in which the process for controlling the
また、指の動きの速度に応じて、ズーム駆動部5、フォーカス駆動部6の駆動速度を変更する構成にしても良い。例えば、CPU13は、指が一気に手前に動かされたことを検出した場合には、ズーム駆動部5を制御して、ズームレンズ3を最も広角側に移動する。このように、タイマの測定時間および指の大きさの変化に基づいて、変化が大きい場合には、粗調整を行い、変化が小さい場合には、微調整を行う構成にしても良い。
In addition, the driving speed of the
また、第1のスルー画像を立体表示が可能なディスプレイに表示しても良い。この場合、第1のスルー画像における被写体の奥行き方向の情報と、第2のスルー画像における指の位置の情報とを対応付けて、第1光学系2の光軸方向移動を制御しても良い。これにより、例えば、図3のステップS1からS5において、平面の第1のスルー画像では重なって見えない部分を特定できるため、直感的によりわかりやすく、第1光学系2の光軸方向移動を制御することができる。
Further, the first through image may be displayed on a display capable of stereoscopic display. In this case, the movement in the optical axis direction of the first
1…電子カメラ、2…第1光学系、3…ズームレンズ、4…フォーカスレンズ、5…ズーム駆動部、6…フォーカス駆動部、7…撮像素子、8…A/D変換部、9…第2光学系、11…撮像素子、12…A/D変換部、13…CPU、16…モニタ
DESCRIPTION OF
Claims (3)
前記第1光学系を通過した被写体の像を撮像して第1画像のデータを生成する第1撮像部と、
前記第1光学系を駆動する第1駆動部と、
第2光学系と、
前記第2光学系を通過した操作者の指の像を撮像して第2画像のデータを生成する第2撮像部と、
前記第2撮像部により生成した前記第2画像のデータから前記操作者の指情報を検出する検出部と、
前記検出部により検出した前記指情報に基づいて、前記第1光学系に対する駆動制御を決定する決定部と、
前記決定部により決定した前記駆動制御に基づいて、前記第1駆動部を制御する制御部とを備え、
前記第1光学系は、フォーカスレンズとズームレンズとを有し、
前記第1駆動部は、前記フォーカスレンズを光軸方向に移動するフォーカス駆動部と前記ズームレンズを光軸方向に移動するズーム駆動部とを有し、
前記検出部は、前記第2画像における前記指の向きと前記指の大きさとを検出し、
前記決定部は、前記検出部により前後して検出した前記指の大きさを比較することにより、前記指の大きさの相対変化を算出するとともに、前記指の向きと前記相対変化とに基づいて、前記フォーカスレンズおよび前記ズームレンズの少なくとも一方の移動方向を決定し、
前記制御部は、前記決定部により決定した前記移動方向に基づいて、前記フォーカス駆動部および前記ズーム駆動部の少なくとも一方を制御する
ことを特徴とする電子カメラ A first optical system;
A first imaging unit that captures an image of a subject that has passed through the first optical system and generates data of the first image;
A first drive unit for driving the first optical system;
A second optical system;
A second imaging unit that captures an image of an operator's finger that has passed through the second optical system and generates second image data;
A detection unit for detecting finger information of the operator from data of the second image generated by the second imaging unit;
A determination unit that determines drive control for the first optical system based on the finger information detected by the detection unit;
A control unit that controls the first drive unit based on the drive control determined by the determination unit ;
The first optical system has a focus lens and a zoom lens,
The first drive unit includes a focus drive unit that moves the focus lens in the optical axis direction and a zoom drive unit that moves the zoom lens in the optical axis direction,
The detection unit detects the direction of the finger and the size of the finger in the second image,
The determination unit calculates a relative change in the size of the finger by comparing the size of the finger detected before and after by the detection unit, and based on the direction of the finger and the relative change. Determining a moving direction of at least one of the focus lens and the zoom lens;
The control unit controls at least one of the focus driving unit and the zoom driving unit based on the moving direction determined by the determining unit.
前記第1画像と前記第2画像とを重ねて表示する表示部をさらに備え、
前記検出部は、前記第2画像における前記指の位置を検出し、
前記制御部は、前記検出部により検出した前記指の位置に応じて、前記指の位置に対応する前記第1画像の一部領域を特定する
ことを特徴とする電子カメラ。 The electronic camera according to claim 1,
A display unit for displaying the first image and the second image in an overlapping manner;
The detection unit detects a position of the finger in the second image;
The electronic camera according to claim 1, wherein the control unit specifies a partial region of the first image corresponding to the position of the finger according to the position of the finger detected by the detection unit.
前記光学系を通過した被写体の像を撮像して画像のデータを生成する撮像部と、
前記光学系を駆動する駆動部と、
前記撮像部により生成した前記画像のデータから前記被写体の指情報を検出する検出部と、
前記検出部により検出した前記指情報に基づいて、前記光学系に対する駆動制御を決定する決定部と、
前記決定部により決定した前記駆動制御に基づいて、前記駆動部を制御する制御部とを備え、
前記指情報は、指の向きが爪側の場合と腹側の場合とに応じて異なる制御の指示を表わすことを特徴とする電子カメラ。 Optical system,
An imaging unit that captures an image of a subject that has passed through the optical system and generates image data;
A drive unit for driving the optical system;
A detection unit for detecting finger information of the subject from data of the image generated by the imaging unit;
A determination unit that determines drive control for the optical system based on the finger information detected by the detection unit;
A control unit that controls the drive unit based on the drive control determined by the determination unit;
2. The electronic camera according to claim 1, wherein the finger information represents different control instructions depending on whether the finger is on the nail side or on the abdomen side .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008191818A JP5109853B2 (en) | 2008-07-25 | 2008-07-25 | Electronic camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008191818A JP5109853B2 (en) | 2008-07-25 | 2008-07-25 | Electronic camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010034633A JP2010034633A (en) | 2010-02-12 |
JP5109853B2 true JP5109853B2 (en) | 2012-12-26 |
Family
ID=41738657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008191818A Expired - Fee Related JP5109853B2 (en) | 2008-07-25 | 2008-07-25 | Electronic camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5109853B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014219841A (en) * | 2013-05-08 | 2014-11-20 | 住友電工ネットワークス株式会社 | Operation input device and operation input program |
KR102082661B1 (en) * | 2013-07-12 | 2020-02-28 | 삼성전자주식회사 | Photograph image generating method of electronic device, and apparatus thereof |
KR102154802B1 (en) * | 2014-02-11 | 2020-09-11 | 삼성전자주식회사 | Photogrpaphing method of electronic apparatus and electronic apparatus thereof |
WO2016079854A1 (en) | 2014-11-20 | 2016-05-26 | オリンパス株式会社 | Control terminal, image capture system, control method, and program |
JP6744990B2 (en) * | 2017-04-28 | 2020-08-19 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing apparatus, information processing apparatus control method, and program |
JP6719418B2 (en) * | 2017-05-08 | 2020-07-08 | 株式会社ニコン | Electronics |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4013100B2 (en) * | 1998-09-21 | 2007-11-28 | 富士フイルム株式会社 | Electronic camera |
JP2002290529A (en) * | 2001-03-28 | 2002-10-04 | Matsushita Electric Ind Co Ltd | Portable communication terminal, information display device, control input device and control input method |
JP2004312194A (en) * | 2003-04-03 | 2004-11-04 | Konica Minolta Photo Imaging Inc | Mobile phone with pointing device function and mobile phone |
-
2008
- 2008-07-25 JP JP2008191818A patent/JP5109853B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010034633A (en) | 2010-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8831282B2 (en) | Imaging device including a face detector | |
US8040419B2 (en) | Image reproducing device capable of zooming in a region of an image, image reproducing method and recording medium for the same | |
JP5251215B2 (en) | Digital camera | |
JP4510713B2 (en) | Digital camera | |
JP4518157B2 (en) | Imaging apparatus and program thereof | |
US10200585B2 (en) | Imaging device, imaging system, imaging method, and computer-readable recording medium for use in an imaging system including an external communication device | |
US20080181460A1 (en) | Imaging apparatus and imaging method | |
US8767116B2 (en) | Imaging apparatus, imaging method and imaging program for displaying an enlarged area of subject image | |
JP5109853B2 (en) | Electronic camera | |
US8648960B2 (en) | Digital photographing apparatus and control method thereof | |
WO2010073619A1 (en) | Image capture device | |
JP2009199049A (en) | Imaging apparatus and imaging apparatus control method, and computer program | |
US8571404B2 (en) | Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method | |
JP5409483B2 (en) | Imaging device | |
JP2018033013A (en) | Control device, imaging apparatus, control method, program, and memory medium | |
JP2008288797A (en) | Imaging apparatus | |
JP6024135B2 (en) | Subject tracking display control device, subject tracking display control method and program | |
KR20170006748A (en) | Image capturing apparatus and method for the same | |
JP5126285B2 (en) | Imaging apparatus and program thereof | |
JP5182308B2 (en) | Imaging apparatus and program thereof | |
KR101630295B1 (en) | A digital photographing apparatus, a method for controlling the same, and a computer-readable medium | |
JP2010081246A (en) | Device and program for selecting composition | |
KR101853054B1 (en) | Terminal having camera and method for processing image thereof | |
KR101798019B1 (en) | Terminal having camera and method for processing image thereof | |
KR101755520B1 (en) | Terminal having camera and method for processing image thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120816 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120911 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120924 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151019 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5109853 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151019 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |