JP2015046038A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2015046038A
JP2015046038A JP2013177112A JP2013177112A JP2015046038A JP 2015046038 A JP2015046038 A JP 2015046038A JP 2013177112 A JP2013177112 A JP 2013177112A JP 2013177112 A JP2013177112 A JP 2013177112A JP 2015046038 A JP2015046038 A JP 2015046038A
Authority
JP
Japan
Prior art keywords
image
hand
unit
subject
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013177112A
Other languages
Japanese (ja)
Inventor
享永 千田
Kyoei Senda
享永 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013177112A priority Critical patent/JP2015046038A/en
Publication of JP2015046038A publication Critical patent/JP2015046038A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device that hardly reduces operability even when a user is away from a screen, and enables a gesture operation.SOLUTION: An imaging device comprises: an image pickup element that photographs a subject; a hand detection part that detects a position of a hand of the subject from a subject image photographed by the image pickup element; an enlargement image generation part that generates an enlargement image enlarging an area including the hand detected by the hand detection part at an enlargement ratio in accordance with a size of the hand from the subject image photographed by the image pickup element; a display part that displays the enlargement image generated by the enlargement image generation part and a plurality of symbols superimposing the enlargement image, and is visually recognizable from the subject; and a function execution part that, in response to proximity of the hand in the enlargement image displayed by the display part to any of the plurality of symbols, executes a function corresponding to the symbol.

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

従来、身振りや手振りなどのいわゆるジェスチャーにより、カーソル等の機能操作が可能な装置が知られている。例えば特許文献1には、被写体の像を含む撮影画像のデータからユーザの手の領域を検出することで、ユーザが手を用いた所作により画面内のカーソルを移動できるようにした情報処理装置が記載されている。   2. Description of the Related Art Conventionally, an apparatus capable of performing a function operation such as a cursor by a so-called gesture such as gesture or hand gesture is known. For example, Patent Document 1 discloses an information processing apparatus that detects a region of a user's hand from captured image data including an image of a subject so that the user can move the cursor in the screen by an operation using the hand. Have been described.

特開2011−221787号公報JP 2011-221787 A

従来技術は、ハンドジェスチャー操作により画面内のカーソルをボタンの上に移動させると、ボタンに割り当てられたコマンドが実行されるというものであるが、ユーザが画面から遠ざかった場合、画面に表示されたカーソルやボタンを視認して両者の位置を合わせるという細かな操作を行うことは困難であった。   In the prior art, when the cursor in the screen is moved over the button by a hand gesture operation, the command assigned to the button is executed. However, when the user moves away from the screen, the command is displayed on the screen. It was difficult to perform detailed operations such as visually recognizing a cursor or button and aligning the positions of both.

請求項1に記載の撮像装置は、被写体像を撮像する撮像素子と、前記撮像素子により撮像された被写体像から、その被写体の手の位置を検出する手検出部と、前記撮像素子により撮像された被写体像から、前記手検出部により検出された手を含む領域をその手の大きさに応じた拡大率で拡大した拡大画像を作成する拡大画像作成部と、前記拡大画像作成部により作成された前記拡大画像とその拡大画像に重畳した複数のシンボルとを表示する、被写体から視認可能な表示部と、前記表示部により表示された前記拡大画像における手が、前記複数のシンボルのいずれかに近接したことに応じて、当該シンボルに対応する機能を実行する機能実行部と、を備えることを特徴とする。
請求項7に記載の撮像装置は、被写体像を撮像する撮像素子と、前記撮像素子により撮像された被写体像とその被写体像に重畳した複数のシンボルとその被写体像に重畳したカーソルとを表示する、被写体から視認可能な表示部と、前記撮像素子により撮像された被写体像から、その被写体の手の位置を検出する手検出部と、前記表示部による前記カーソルを、前記手検出部により検出された手の位置の変化量に応じた移動量だけ移動させるカーソル移動部と、前記表示部により表示された前記カーソルが、前記複数のシンボルのいずれかに近接したことに応じて、当該シンボルに対応する機能を実行する機能実行部とを備え、前記カーソル移動部は、前記手検出部により検出された手が小さいほど前記カーソルの移動量を大きくすることを特徴とする。
The image pickup apparatus according to claim 1 is picked up by an image pickup device that picks up a subject image, a hand detection unit that detects a position of a hand of the subject from the subject image picked up by the image pickup device, and the image pickup device. A magnified image creating unit that creates an enlarged image obtained by enlarging an area including the hand detected by the hand detecting unit with an enlargement ratio corresponding to the size of the hand, and the enlarged image creating unit. A display unit that displays the enlarged image and a plurality of symbols superimposed on the enlarged image, and a hand in the enlarged image displayed by the display unit is one of the plurality of symbols. A function execution unit that executes a function corresponding to the symbol in response to the proximity.
The image pickup apparatus according to claim 7 displays an image pickup device for picking up a subject image, a subject image picked up by the image pickup device, a plurality of symbols superimposed on the subject image, and a cursor superimposed on the subject image. The hand detection unit detects the display unit that is visible from the subject, the hand detection unit that detects the position of the subject's hand from the subject image captured by the imaging device, and the cursor by the display unit. A cursor moving unit that moves the moving amount according to the amount of change in the position of the hand, and the cursor displayed by the display unit corresponding to the symbol when the cursor is close to one of the plurality of symbols. A function execution unit that executes a function to perform the function, and the cursor moving unit increases the amount of movement of the cursor as the hand detected by the hand detecting unit is smaller. And butterflies.

本発明によれば、ユーザが画面から遠ざかった場合であっても操作性が低下しない、ハンドジェスチャー操作可能な撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging device capable of hand gesture operation that does not deteriorate operability even when the user moves away from the screen.

本発明の第1の実施の形態に係る撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment of the present invention. 撮像装置10の斜視図である。1 is a perspective view of an imaging device 10. FIG. 液晶モニタ24の表示画面の一例を示す図である。4 is a diagram illustrating an example of a display screen of a liquid crystal monitor 24. FIG. 拡大画像の作成方法を説明する図である。It is a figure explaining the creation method of an enlarged image. 拡大画像の作成方法を説明する図である。It is a figure explaining the creation method of an enlarged image. 制御部23が実行するハンドジェスチャー操作処理のフローチャートである。It is a flowchart of the hand gesture operation process which the control part 23 performs. 本発明の第2の実施の形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on the 2nd Embodiment of this invention. 液晶モニタ24の表示画面の一例を示す図である。4 is a diagram illustrating an example of a display screen of a liquid crystal monitor 24. FIG.

(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る撮像装置の構成を示すブロック図である。撮像装置10は、レンズ一体型のいわゆるコンパクトタイプのデジタルカメラである。撮像装置10は、撮影光学系21と、撮像素子22と、制御部23と、液晶モニタ24と、メモリカード25と、操作部26と、DRAM27と、フラッシュメモリ28とを備える。
(First embodiment)
FIG. 1 is a block diagram showing the configuration of the imaging apparatus according to the first embodiment of the present invention. The imaging device 10 is a so-called compact type digital camera integrated with a lens. The imaging apparatus 10 includes an imaging optical system 21, an imaging element 22, a control unit 23, a liquid crystal monitor 24, a memory card 25, an operation unit 26, a DRAM 27, and a flash memory 28.

撮影光学系21は、複数のレンズから構成され、撮像素子22の撮像面に被写体像を結像させる。撮影光学系21は焦点距離が可変に構成された、いわゆるズームレンズである。制御部23は不図示のアクチュエータを駆動させることにより、撮影光学系21のズームアップおよびズームダウンを行うことができる。なお図1では、撮影光学系21を1枚のレンズとして図示している。   The photographing optical system 21 is composed of a plurality of lenses, and forms a subject image on the imaging surface of the imaging element 22. The photographing optical system 21 is a so-called zoom lens having a variable focal length. The controller 23 can zoom up and down the photographing optical system 21 by driving an actuator (not shown). In FIG. 1, the photographing optical system 21 is illustrated as one lens.

撮像素子22は例えばCMOSやCCD等の撮像素子であり、撮影光学系21により結像された被写体像を撮像して撮像信号を出力する。制御部23は、撮像装置10の各部を制御する電子回路であり、CPUとその周辺回路とから構成される。不揮発性の記憶媒体であるフラッシュメモリ28には、予め所定の制御プログラムが書き込まれている。制御部23は、フラッシュメモリ28から制御プログラムを読み込んで実行することにより、各部の制御を行う。この制御プログラムは、揮発性の記憶媒体であるDRAM27を作業用領域として使用する。   The image pickup device 22 is an image pickup device such as a CMOS or a CCD, for example, and picks up a subject image formed by the photographing optical system 21 and outputs an image pickup signal. The control unit 23 is an electronic circuit that controls each unit of the imaging apparatus 10 and includes a CPU and its peripheral circuits. A predetermined control program is written in advance in the flash memory 28 which is a nonvolatile storage medium. The control unit 23 controls each unit by reading and executing a control program from the flash memory 28. This control program uses the DRAM 27, which is a volatile storage medium, as a work area.

液晶モニタ24は、液晶パネルを利用した表示装置である。制御部23は、所定周期(例えば60分の1秒)ごとに撮像素子22に繰り返し被写体像を撮像させる。そして、撮像素子22から出力された撮像信号に種々の画像処理を施していわゆるスルー画を作成し、液晶モニタ24に表示する。液晶モニタ24には、上記のスルー画以外に、例えば撮影パラメータを設定する設定画面等が表示される。   The liquid crystal monitor 24 is a display device using a liquid crystal panel. The control unit 23 causes the image sensor 22 to repeatedly capture a subject image every predetermined cycle (for example, 1/60 second). Then, various image processes are performed on the imaging signal output from the imaging element 22 to create a so-called through image, which is displayed on the liquid crystal monitor 24. In addition to the above-described through image, for example, a setting screen for setting shooting parameters is displayed on the liquid crystal monitor 24.

制御部23は、撮像素子22から出力された撮像信号に種々の画像処理を施して撮影画像データを作成し、可搬性の記憶媒体であるメモリカード25に画像データを記憶する。操作部26は、プッシュボタン等の種々の操作部材を有し、それら操作部材が操作されたことに応じて制御部23に操作信号を出力する。   The control unit 23 performs various image processing on the imaging signal output from the imaging element 22 to create captured image data, and stores the image data in a memory card 25 that is a portable storage medium. The operation unit 26 has various operation members such as push buttons, and outputs an operation signal to the control unit 23 in response to the operation members being operated.

制御部23はソフトウェア形態により手検出部23a、拡大画像作成部23b、および機能実行部23cを備える。これらの各部は、制御部23がフラッシュメモリ28に格納されている所定の制御プログラムを実行することにより、ソフトウェア的に実現される。なお、これらの各部を電子回路として構成することも可能である。   The control unit 23 includes a hand detection unit 23a, an enlarged image creation unit 23b, and a function execution unit 23c in software form. Each of these units is realized by software by the control unit 23 executing a predetermined control program stored in the flash memory 28. Each of these units can be configured as an electronic circuit.

手検出部23aは、撮像素子22により撮像された被写体像から、その被写体の手の位置を検出する。拡大画像作成部23bは、撮像素子22により撮像された被写体像から、手検出部23aにより検出された手を含む拡大領域をその手の大きさに応じた拡大率で拡大した拡大画像(後に詳述)を作成する。機能実行部23cは、液晶モニタ24に表示された拡大画像における手が、複数のアイコン(後に詳述)のいずれかに近接したことに応じて、当該アイコンに対応する機能を実行する。   The hand detection unit 23 a detects the position of the hand of the subject from the subject image captured by the image sensor 22. The enlarged image creating unit 23b enlarges an enlarged region including the hand detected by the hand detecting unit 23a from the subject image captured by the image sensor 22 at an enlargement rate corresponding to the size of the hand (details later). Create a description. The function execution unit 23c executes a function corresponding to the icon in response to the hand in the enlarged image displayed on the liquid crystal monitor 24 approaching one of a plurality of icons (detailed later).

図2は、撮像装置10の斜視図である。図2(a)に示すように、撮像装置10の筐体は板状の形状を有し、幅広面40に液晶モニタ24が設けられている。また、幅広面40に対向する別の幅広面(不図示)には、撮影光学系21を内蔵するレンズ鏡筒(不図示)が設けられている。被写体は、図2(a)に矢印xで示す方向、すなわち液晶モニタ24の表示画面51とは逆の方向に位置する。   FIG. 2 is a perspective view of the imaging apparatus 10. As shown in FIG. 2A, the housing of the imaging device 10 has a plate shape, and the liquid crystal monitor 24 is provided on the wide surface 40. Further, on another wide surface (not shown) facing the wide surface 40, a lens barrel (not shown) in which the photographing optical system 21 is built is provided. The subject is located in the direction indicated by the arrow x in FIG. 2A, that is, in the direction opposite to the display screen 51 of the liquid crystal monitor 24.

以下の説明において、撮像装置10の筐体が有する2つの幅広面のうち、液晶モニタ24が設置されている幅広面40を背面と称し、レンズ鏡筒が設置されている不図示の幅広面を前面と称する。   In the following description, of the two wide surfaces of the housing of the imaging device 10, the wide surface 40 on which the liquid crystal monitor 24 is installed is referred to as the back surface, and the wide surface (not shown) on which the lens barrel is installed is referred to as the back surface. Called the front.

液晶モニタ24は、撮像装置10の筐体上部に設けられた軸部42により回動可能に構成されている。図2(a)では、液晶モニタ24は撮像装置10の背面に収納されている。ユーザは、軸部42を支点として、液晶モニタ24を撮像装置10の上部に回動することができる。   The liquid crystal monitor 24 is configured to be rotatable by a shaft portion 42 provided at the upper part of the housing of the imaging device 10. In FIG. 2A, the liquid crystal monitor 24 is accommodated on the back surface of the imaging device 10. The user can turn the liquid crystal monitor 24 to the upper part of the imaging device 10 with the shaft portion 42 as a fulcrum.

液晶モニタ24を最大限に回動させた様子を図2(b)に示す。このとき、液晶モニタ24の表示画面51は、図中に矢印xで示す方向、すなわちレンズ鏡筒と同じ方向を向く。従って、撮像装置10が図2(b)に示す状態のとき、被写体となっている人物は表示画面51を視認可能である。例えば、撮像装置10が表示画面51にいわゆるライブビュー表示を行っているとき、被写体となっている人物は自身の画像を表示画面51により視認することができる。   A state in which the liquid crystal monitor 24 is rotated to the maximum is shown in FIG. At this time, the display screen 51 of the liquid crystal monitor 24 faces the direction indicated by the arrow x in the drawing, that is, the same direction as the lens barrel. Therefore, when the imaging apparatus 10 is in the state shown in FIG. 2B, the person who is the subject can visually recognize the display screen 51. For example, when the imaging apparatus 10 performs a so-called live view display on the display screen 51, the person who is the subject can visually recognize his / her own image on the display screen 51.

撮像装置10の筐体には、レリーズボタン43、電源ボタン44、その他種々の操作を行うためのボタン45、46、47、48、49が設けられている。これらのボタン類は前述の操作部26に接続されており、ボタンの押下に応じて操作部26は制御部23に操作信号を出力する。   The housing of the imaging apparatus 10 is provided with a release button 43, a power button 44, and other buttons 45, 46, 47, 48, and 49 for performing various operations. These buttons are connected to the operation unit 26 described above, and the operation unit 26 outputs an operation signal to the control unit 23 in response to pressing of the button.

(ハンドジェスチャー操作の説明)
液晶モニタ24が図2(b)に図示するように被写体側、すなわち矢印xの方向を向くと、制御部23は撮像装置10にハンドジェスチャー操作モードを設定する。ハンドジェスチャー操作モードが設定されているとき、被写体となっている人物(被撮影者であるユーザ)は手振り(ハンドジェスチャー)により、静止画の撮影やズーム操作等の操作を行うことができる。なお、ハンドジェスチャー操作モードが設定されているときも、例えばレリーズスイッチによる静止画の撮影など、操作部26を用いた操作は通常通り行える。
(Explanation of hand gesture operation)
When the liquid crystal monitor 24 faces the subject, that is, in the direction of the arrow x as illustrated in FIG. 2B, the control unit 23 sets the hand gesture operation mode for the imaging apparatus 10. When the hand gesture operation mode is set, a person who is a subject (a user who is a subject) can perform operations such as still image shooting and zoom operation by hand gestures (hand gesture). Note that even when the hand gesture operation mode is set, operations using the operation unit 26, such as taking a still image with a release switch, can be performed as usual.

例えば撮影者が自分自身の画像を撮影したいとき、撮像装置10を片手で持ち、自身の方に撮像装置10を向けて撮影を行う。このとき、撮像装置10の背面40などに設けられた操作部材を操作することは困難である。ハンドジェスチャー操作モードを利用すれば、筐体に設けられた操作部材を操作することなく、撮影やズームアップ等を行うことができる。   For example, when a photographer wants to take an image of himself / herself, the user takes the image pickup apparatus 10 with one hand and points the image pickup apparatus 10 toward himself / herself. At this time, it is difficult to operate an operation member provided on the back surface 40 of the imaging device 10 or the like. If the hand gesture operation mode is used, it is possible to perform shooting, zoom-in, or the like without operating an operation member provided on the housing.

また、三脚等により撮像装置10を固定し、撮像装置10から離れて撮影を行う場合、セルフタイマー機能等を用いて撮影を行うことはできるが、動画の撮影やズームアップ等の操作を行うことは困難である。このような場合であっても、ハンドジェスチャー操作モードを利用すれば、筐体に設けられた操作部材を操作することなく撮影やズームアップ等を行うことができる。   In addition, when the imaging device 10 is fixed with a tripod or the like, and shooting is performed away from the imaging device 10, shooting can be performed using a self-timer function or the like, but an operation such as shooting a movie or zooming in is performed. It is difficult. Even in such a case, if the hand gesture operation mode is used, it is possible to perform shooting, zoom-in, or the like without operating the operation member provided in the housing.

ハンドジェスチャー操作モードが設定されているとき、制御部23は所定周期(例えば60分の1秒)ごとに撮像素子22に繰り返し被写体像を撮像させる。そして、撮像素子22から出力された撮像信号からスルー画を作成し、液晶モニタ24に表示する。手検出部23aは、スルー画の基になった撮像信号に対し、手のひらの検出処理を実行する。撮像素子22は撮像信号を所定周期ごとに繰り返し出力するので、手検出部23aによる手のひらの検出処理もその所定周期ごとに繰り返し実行される。なお、手のひらの検出処理はスルー画の基となった撮像信号に対してではなく、スルー画に対して行ってもよい。また、手のひらの検出処理の実行周期は撮像周期より長くてもよい。例えば、手のひらの検出処理を、撮像2回につき1回だけ行うようにしてもよい。   When the hand gesture operation mode is set, the control unit 23 causes the image sensor 22 to repeatedly capture a subject image every predetermined cycle (for example, 1/60 second). Then, a through image is created from the imaging signal output from the imaging element 22 and displayed on the liquid crystal monitor 24. The hand detection unit 23a performs palm detection processing on the imaging signal that is the basis of the through image. Since the image pickup device 22 repeatedly outputs the image pickup signal at every predetermined cycle, the palm detection process by the hand detecting unit 23a is also repeatedly executed at every predetermined cycle. Note that the palm detection process may be performed on the through image, not on the imaging signal that is the basis of the through image. The execution period of the palm detection process may be longer than the imaging period. For example, the palm detection process may be performed only once for every two imaging operations.

手検出部23aにより手のひらが検出されると、拡大画像作成部23bが、拡大画像の作成を開始する。制御部23はスルー画の作成を中止し、代わりに、拡大画像作成部23bが作成した拡大画像を液晶モニタ24に表示する。なお、以下の説明では、手検出部23aにより1つの手のひらが検出されたものとする。例えば複数の人間が撮影範囲に含まれている場合など、手のひらが複数存在する場合には、いずれか1つの手のひらを対象に同様の処理を行えばよい。例えば、顔認識の結果と、予め設定されている人物毎の優先順位とに基づき、最も優先順位の高い手のひらを決定してもよいし、撮影画面内において最初に検出できた手のひらを対象に以下で説明する処理を行うこととしてもよい。   When the palm is detected by the hand detection unit 23a, the enlarged image creation unit 23b starts creating an enlarged image. The control unit 23 stops the creation of the through image, and instead displays the enlarged image created by the enlarged image creation unit 23 b on the liquid crystal monitor 24. In the following description, it is assumed that one palm is detected by the hand detection unit 23a. For example, when there are a plurality of palms, such as when a plurality of people are included in the shooting range, the same processing may be performed on any one palm. For example, the palm with the highest priority may be determined based on the result of the face recognition and the preset priority for each person, or the palm that can be detected first in the shooting screen is as follows. It is good also as performing the process demonstrated by.

なお、ハンドジェスチャー操作モードが設定されているとき、制御部23はスルー画と拡大画像とを、左右反転して液晶モニタ24に表示する。また、以下の説明では、スルー画および拡大画像が表示画面全体に表示されているものとして説明を行うが、スルー画および拡大画像のサイズは表示画面のサイズと異なっていてもよい。例えば表示画面のサイズよりも一回り小さいサイズでスルー画や拡大画像が表示されていてもよい。   Note that when the hand gesture operation mode is set, the control unit 23 displays the through image and the enlarged image on the liquid crystal monitor 24 while being horizontally reversed. In the following description, the through image and the enlarged image are described as being displayed on the entire display screen, but the size of the through image and the enlarged image may be different from the size of the display screen. For example, a through image or an enlarged image may be displayed with a size that is slightly smaller than the size of the display screen.

図3は、ハンドジェスチャー操作モードにおいて、手のひらが検出されたときの液晶モニタ24の表示画面を示す図である。表示画面51は、画面全体に表示された拡大画像に、ハンドジェスチャー操作を行うためのユーザインタフェース(UI)である4つのアイコン52a、52b、52c、52dを重畳した画面である。アイコン52a、52b、52c、52dは、それぞれズームアップ機能、静止画レリーズ機能、ズームダウン機能、動画レリーズ機能に対応するシンボルである。   FIG. 3 is a diagram showing a display screen of the liquid crystal monitor 24 when a palm is detected in the hand gesture operation mode. The display screen 51 is a screen in which four icons 52a, 52b, 52c, and 52d, which are user interfaces (UI) for performing hand gesture operations, are superimposed on an enlarged image displayed on the entire screen. The icons 52a, 52b, 52c, and 52d are symbols corresponding to a zoom-up function, a still image release function, a zoom-down function, and a moving image release function, respectively.

最初に手のひらが検出されたとき、拡大画像作成部23bは、スルー画の基になった撮像信号に、手検出部23aにより検出された手のひら53を含む拡大領域を設定する。拡大領域は、検出された手のひら53の重心位置を中心とする、撮影画面より小さい領域である。その後、拡大画像作成部23bは、撮像信号から拡大領域に対応する画像を抽出し、その画像を、最初に検出された手のひら53の大きさに応じた拡大率で拡大した拡大画像を作成する。撮像素子22は撮像信号を所定周期ごとに繰り返し出力するので、拡大画像作成部23bによる拡大画像の作成もその所定周期ごとに繰り返し実行される。   When a palm is detected for the first time, the enlarged image creating unit 23b sets an enlarged region including the palm 53 detected by the hand detecting unit 23a in the imaging signal that is the basis of the through image. The enlarged area is an area smaller than the photographing screen, with the center of gravity position of the detected palm 53 as the center. Thereafter, the enlarged image creating unit 23b extracts an image corresponding to the enlarged region from the imaging signal, and creates an enlarged image obtained by enlarging the image with an enlargement ratio corresponding to the size of the palm 53 detected first. Since the image pickup element 22 repeatedly outputs the image pickup signal at every predetermined cycle, the enlarged image creation unit 23b also repeatedly creates the enlarged image at every predetermined cycle.

なお、拡大画像はスルー画から作成してもよい。また、拡大画像の作成周期は撮像周期より長くてもよい。例えば、拡大画像を、撮像2回につき1回だけ作成するようにしてもよい。この場合、拡大画像のフレームレートは、スルー画のフレームレートより低くなる。また、拡大画像を作成するための撮像周期は、スルー画を作成するための撮像周期と異なっていてもよい。   Note that the enlarged image may be created from the through image. Further, the enlarged image creation cycle may be longer than the imaging cycle. For example, an enlarged image may be created only once for every two imaging operations. In this case, the frame rate of the enlarged image is lower than the frame rate of the through image. In addition, the imaging cycle for creating the enlarged image may be different from the imaging cycle for creating the through image.

ユーザ(被写体人物)は、図3に示した表示画面51を視認して、表示画面51に写り込んだ手のひら53と4つのアイコン52a、52b、52c、52dとの位置関係を認識する。そして、所望の機能に対応するアイコンの方向に手のひらを移動させる。拡大画像における手のひら53がいずれかのアイコンに重なると、機能実行部23cは当該アイコンに対応する機能を実行する。例えば、ユーザが「静止画レリーズ」と書かれたアイコン52bに手のひら53を重ねると、機能実行部23cは静止画の撮影を行う。   The user (subject person) visually recognizes the display screen 51 shown in FIG. 3 and recognizes the positional relationship between the palm 53 reflected on the display screen 51 and the four icons 52a, 52b, 52c, and 52d. Then, the palm is moved in the direction of the icon corresponding to the desired function. When the palm 53 in the enlarged image overlaps any icon, the function execution unit 23c executes a function corresponding to the icon. For example, when the user puts the palm 53 on the icon 52b written as “still image release”, the function execution unit 23c shoots a still image.

機能実行部23cにより何らかの機能が実行されるか、手検出部23aが手のひら53を検出できなくなるか、あるいは制御部23による拡大画像の表示が開始されてから所定時間(例えば5秒間)が経過すると、制御部23は拡大画像の表示を中止し、スルー画の表示を再開する。また、拡大画像作成部23bは拡大画像の作成を中止する。   When some function is executed by the function execution unit 23c, the hand detection unit 23a cannot detect the palm 53, or when a predetermined time (for example, 5 seconds) elapses after the display of the enlarged image by the control unit 23 is started. The control unit 23 stops displaying the enlarged image and resumes displaying the through image. In addition, the enlarged image creation unit 23b stops creating the enlarged image.

次に、拡大画像作成部23bにより作成される拡大画像について詳述する。いま、図4(a)に示すように、被写体人物54が、撮像装置10から距離D1だけ離れているとする。ここで被写体人物54が手のひらを撮像装置10に向けると、図4(b)に示すように、撮像素子22の撮影画面55には、手のひら53が幅W1の大きさで写り込む。拡大画像作成部23bは、手のひら53が幅Zの大きさになるように、図4(c)に示す拡大画像57を作成する。このときの拡大率Pは、Z/W1である。なお図4(c)では、説明のため、拡大画像57に4つのアイコン52a、52b、52c、52dを重畳して図示しているが、実際には拡大画像57には4つのアイコン52a、52b、52c、52dは含まれない。   Next, an enlarged image created by the enlarged image creation unit 23b will be described in detail. Now, as shown in FIG. 4A, it is assumed that the subject person 54 is separated from the imaging device 10 by a distance D1. Here, when the subject person 54 turns his palm toward the imaging device 10, as shown in FIG. 4B, the palm 53 appears in the shooting screen 55 of the imaging device 22 with the width W1. The enlarged image creating unit 23b creates an enlarged image 57 shown in FIG. 4C so that the palm 53 has a width Z. The enlargement ratio P at this time is Z / W1. In FIG. 4C, for the sake of explanation, four icons 52a, 52b, 52c, and 52d are shown superimposed on the enlarged image 57, but actually, the enlarged image 57 has four icons 52a and 52b. , 52c, 52d are not included.

また、拡大画像57の基になる拡大領域58は、手のひら53の重心を中心とする撮影画面55内の領域である。拡大領域58の幅X1は、拡大画像57の幅X2を拡大率Pで割ることにより決定される。同様に、拡大領域58の高さY1は、拡大画像57の高さY2を拡大率Pで割ることにより決定される。   An enlarged area 58 that is the basis of the enlarged image 57 is an area in the shooting screen 55 centered on the center of gravity of the palm 53. The width X1 of the enlarged region 58 is determined by dividing the width X2 of the enlarged image 57 by the magnification rate P. Similarly, the height Y1 of the enlarged region 58 is determined by dividing the height Y2 of the enlarged image 57 by the enlargement factor P.

被写体人物54が実空間において手のひらをある距離だけ動かすと、撮影画面55では、手のひら53が長さL1だけ移動する。このとき拡大画像57では、長さL1に拡大率P=Z/W1を乗じた長さM1だけ手のひら53が移動する。   When the subject person 54 moves the palm by a certain distance in the real space, the palm 53 moves by the length L1 on the shooting screen 55. At this time, in the enlarged image 57, the palm 53 moves by a length M1 obtained by multiplying the length L1 by the enlargement ratio P = Z / W1.

次に、図5(a)に示すように、図4(a)と同一の被写体人物54が、撮像装置10から距離D1より長い距離D2だけ離れているとする。ここで被写体人物54が手のひら53を撮像装置10に向けると、図5(b)に示すように、撮像素子22の撮影画面55には、手のひら53は図4(b)よりも小さく写り込む。つまり、図5(b)の撮影画面55における手のひら53の幅W2は、図4(b)に示す幅W1より小さい。   Next, as shown in FIG. 5A, it is assumed that the same subject person 54 as in FIG. 4A is separated from the imaging device 10 by a distance D2 longer than the distance D1. Here, when the subject person 54 directs the palm 53 toward the imaging device 10, as shown in FIG. 5 (b), the palm 53 appears on the photographing screen 55 of the image sensor 22 smaller than in FIG. 4 (b). That is, the width W2 of the palm 53 on the shooting screen 55 in FIG. 5B is smaller than the width W1 shown in FIG.

拡大画像作成部23bは、図4(b)の場合と同様に、手のひら53が幅Zの大きさになるように、図5(c)に示す拡大画像57を作成する。このときの拡大率Pは、Z/W2となる。また、拡大画像57の基になる拡大領域58の幅X3は、拡大画像57の幅X2を拡大率Pで割ることにより決定される。同様に、拡大領域58の高さY3は、拡大画像57の高さY2を拡大率Pで割ることにより決定される。   The enlarged image creating unit 23b creates the enlarged image 57 shown in FIG. 5C so that the palm 53 has the width Z as in the case of FIG. The enlargement ratio P at this time is Z / W2. Further, the width X3 of the enlarged region 58 on which the enlarged image 57 is based is determined by dividing the width X2 of the enlarged image 57 by the enlargement ratio P. Similarly, the height Y3 of the enlarged region 58 is determined by dividing the height Y2 of the enlarged image 57 by the enlargement factor P.

被写体人物54が実空間において手のひらを図4(b)と同一方向に同一距離だけ動かすと、撮影画面55では、手のひら53が長さL2だけ移動する。この長さL2は、図4(b)に示した長さL1より短い。このとき拡大画像57では、長さL2に拡大率P=Z/W2を乗じた長さM2だけ手のひら53が移動する。この長さM2は、図4(c)に示した長さM1と略同一である。つまり拡大画像作成部23bは、実空間における手のひらの移動距離が同一であれば、拡大画像57における手のひら53の移動距離も同一になるように、拡大率Pを決定する。   When the subject person 54 moves the palm in the real space by the same distance in the same direction as in FIG. 4B, the palm 53 moves by the length L2 on the photographing screen 55. This length L2 is shorter than the length L1 shown in FIG. At this time, in the enlarged image 57, the palm 53 moves by a length M2 obtained by multiplying the length L2 by the enlargement ratio P = Z / W2. This length M2 is substantially the same as the length M1 shown in FIG. That is, the enlarged image creating unit 23b determines the enlargement ratio P so that the moving distance of the palm 53 in the enlarged image 57 is the same if the moving distance of the palm in the real space is the same.

このようにするのは、各機能を実行するために必要な手のひらの移動量を一定にするためである。被写体人物54が撮像装置10から遠いほど、手のひら53の検出サイズは小さくなる。従って、手のひらの現実の(実空間の)移動距離が同一であっても、被写体人物54が撮像装置10に近い場合と撮像装置10から遠い場合とで、撮影画面55上における手のひら53の移動距離は変化する。従って、単にスルー画に重畳して4つのアイコン52a、52b、52c、52dを表示してしまうと、被写体人物54が撮像装置10から遠い場合に、手のひらを非常に大きく動かす必要が生じてしまう。   This is to make the amount of palm movement necessary to execute each function constant. The farther the subject person 54 is from the imaging apparatus 10, the smaller the detection size of the palm 53. Therefore, even if the actual movement distance (in real space) of the palm is the same, the movement distance of the palm 53 on the shooting screen 55 is different between when the subject person 54 is close to the imaging device 10 and when the subject person 54 is far from the imaging device 10. Will change. Therefore, if the four icons 52 a, 52 b, 52 c, 52 d are simply superimposed on the through image and the subject person 54 is far from the imaging device 10, it becomes necessary to move the palm very greatly.

撮影画面55における手のひら53が小さい(被写体人物54が遠い)ほど、拡大画像57の拡大率Pを高くすることで、被写体人物54は撮影距離によらず常に同一量の手振りでアイコン52a、52b、52c、52dの各機能を機能実行部23cに実行させることが可能になる。   As the palm 53 on the shooting screen 55 is smaller (the subject person 54 is farther), the enlargement ratio P of the enlarged image 57 is increased, so that the subject person 54 always has the same amount of hand gestures regardless of the shooting distance. It is possible to cause the function execution unit 23c to execute the functions 52c and 52d.

図6は、制御部23が実行するハンドジェスチャー操作処理のフローチャートである。図6に示す処理は、制御部23がフラッシュメモリ28から読み込んで実行する制御プログラムに含まれる。   FIG. 6 is a flowchart of the hand gesture operation process executed by the control unit 23. The process shown in FIG. 6 is included in a control program that the control unit 23 reads from the flash memory 28 and executes.

まずステップS100で、制御部23が、液晶モニタ24が回動し図2(b)に示す状態になっているか否かを判定する。制御部23は、液晶モニタ24が図2(b)に示す位置に回動するまでステップS100の処理を繰り返し実行する。液晶モニタ24が回動していた場合、制御部23は処理をステップS110に進める。   First, in step S100, the control unit 23 determines whether or not the liquid crystal monitor 24 is rotated and is in the state shown in FIG. The control unit 23 repeatedly executes the process of step S100 until the liquid crystal monitor 24 rotates to the position shown in FIG. If the liquid crystal monitor 24 is rotating, the control unit 23 advances the process to step S110.

ステップS110で制御部23は、撮像素子22に被写体像を撮像させる。ステップS120で制御部23は、ステップS110の撮像により撮像素子22から出力された撮像信号に基づいて、スルー画を作成する。ステップS130で制御部23は、液晶モニタ24の表示画面51に、ステップS120で作成したスルー画を表示すると共に、スルー画に重畳してアイコン52a、52b、52c、52dを表示する。ステップS140で手検出部23aは、ステップS110の撮像により撮像素子22から出力された撮像信号に対し、周知のパターンマッチング等を行うことで、手のひら53の検出を試みる。ステップS150で制御部23は、ステップS140において撮像信号から手のひら53が検出されたか否かを判定する。手のひら53が検出されなかった場合、制御部23は処理をステップS110に進める。他方、手のひら53が検出された場合、制御部23は処理をステップS160に進める。   In step S110, the control unit 23 causes the image sensor 22 to capture a subject image. In step S120, the control unit 23 creates a through image based on the imaging signal output from the imaging element 22 by the imaging in step S110. In step S130, the control unit 23 displays the through image created in step S120 on the display screen 51 of the liquid crystal monitor 24, and displays icons 52a, 52b, 52c, and 52d superimposed on the through image. In step S140, the hand detection unit 23a attempts to detect the palm 53 by performing known pattern matching or the like on the image signal output from the image sensor 22 by the image capturing in step S110. In step S150, the control unit 23 determines whether or not the palm 53 is detected from the imaging signal in step S140. If the palm 53 is not detected, the control unit 23 advances the process to step S110. On the other hand, when the palm 53 is detected, the control unit 23 advances the process to step S160.

ステップS160で拡大画像作成部23bは、ステップS140で検出された手のひら53の位置および大きさに応じて、拡大領域58の位置および範囲を設定すると共に、拡大画像57の拡大率Pを設定する。   In step S160, the enlarged image creating unit 23b sets the position and range of the enlarged region 58 and sets the enlargement ratio P of the enlarged image 57 according to the position and size of the palm 53 detected in step S140.

ステップS170で制御部23は、撮像素子22に被写体像を撮像させる。ステップS180で拡大画像作成部23bは、ステップS170の撮像により撮像素子22から出力された撮像信号に基づいて、拡大画像57を作成する。ステップS190で制御部23は、液晶モニタ24の表示画面51に、ステップS180で作成された拡大画像57を表示すると共に、拡大画像57に重畳してアイコン52a、52b、52c、52dを表示する。ステップS200で手検出部23aは、ステップS170の撮像により撮像素子22から出力された撮像信号に対し、周知のパターンマッチング等を行うことで、手のひら53の検出を試みる。そしてステップS210で制御部23は、ステップS200において撮像信号から手のひら53が検出されたか否かを判定する。手のひら53が検出されなかった場合、制御部23は処理をステップS110に進める。他方、手のひら53が検出されていた場合、制御部23は処理をステップS220に進める。   In step S <b> 170, the control unit 23 causes the image sensor 22 to capture a subject image. In step S180, the enlarged image creating unit 23b creates the enlarged image 57 based on the imaging signal output from the imaging element 22 by the imaging in step S170. In step S190, the control unit 23 displays the enlarged image 57 created in step S180 on the display screen 51 of the liquid crystal monitor 24, and displays icons 52a, 52b, 52c, and 52d superimposed on the enlarged image 57. In step S200, the hand detection unit 23a attempts to detect the palm 53 by performing known pattern matching or the like on the image signal output from the image sensor 22 by the image capturing in step S170. In step S210, the control unit 23 determines whether or not the palm 53 is detected from the imaging signal in step S200. If the palm 53 is not detected, the control unit 23 advances the process to step S110. On the other hand, if the palm 53 has been detected, the control unit 23 advances the process to step S220.

ステップS220で制御部23は、ステップS160を実行してから一定時間(例えば5秒間)が経過したか否かを判定する。一定時間が経過していた場合、制御部23は処理をステップ110に進める。他方、一定時間が経過していなかった場合、制御部23は処理をステップS230に進める。   In step S220, the control unit 23 determines whether or not a predetermined time (for example, 5 seconds) has elapsed since the execution of step S160. If the predetermined time has elapsed, the control unit 23 advances the process to step 110. On the other hand, when the predetermined time has not elapsed, the control unit 23 advances the process to step S230.

ステップS230で機能実行部23cは、ステップS200で検出された手のひら53が、4つのアイコン52a、52b、52c、52dのいずれかに重なったか否かを判定する。手のひら53が重なっていなかった場合、機能実行部23cは、処理をステップS170に進める。他方、手のひら53がいずれかのアイコンに重なっていた場合、機能実行部23cは処理をステップS240に進める。ステップS240において機能実行部23cは、手のひら53と重なったアイコンに対応する機能を実行する。   In step S230, the function execution unit 23c determines whether or not the palm 53 detected in step S200 overlaps any of the four icons 52a, 52b, 52c, and 52d. If the palm 53 is not overlapped, the function execution unit 23c advances the process to step S170. On the other hand, if the palm 53 overlaps any icon, the function execution unit 23c advances the process to step S240. In step S240, the function execution unit 23c executes a function corresponding to the icon that overlaps the palm 53.

上述した第1の実施の形態による撮像装置によれば、次の作用効果が得られる。
(1)拡大画像作成部23bは、撮像素子22により撮像された被写体像から、手検出部23aにより検出された手のひらを含む拡大領域58をその手のひら53の大きさに応じた拡大率Pで拡大した拡大画像57を作成する。機能実行部23cは、液晶モニタ24に表示された拡大画像57における手のひら53が4つのアイコン52a、52b、52c、52dのいずれかに近接したことに応じて、当該アイコンに対応する機能を実行する。以上の構成を有する撮像装置10によれば、ユーザが画面から遠ざかった場合であっても操作性が低下しない。
According to the imaging apparatus according to the first embodiment described above, the following operational effects can be obtained.
(1) The enlarged image creating unit 23b enlarges the enlarged region 58 including the palm detected by the hand detecting unit 23a from the subject image picked up by the image pickup device 22 at an enlargement rate P corresponding to the size of the palm 53. The enlarged image 57 is created. The function execution unit 23c executes a function corresponding to the icon when the palm 53 in the enlarged image 57 displayed on the liquid crystal monitor 24 comes close to any of the four icons 52a, 52b, 52c, and 52d. . According to the imaging device 10 having the above configuration, the operability is not deteriorated even when the user moves away from the screen.

(2)拡大画像作成部23bは、手検出部23aにより検出された手のひら53の初期位置を中心とした拡大画像57を作成する。このようにしたので、ユーザはハンドジェスチャー操作の基点を常に画面中央と考えることができ、操作性が向上する。 (2) The enlarged image creation unit 23b creates an enlarged image 57 centered on the initial position of the palm 53 detected by the hand detection unit 23a. Since it did in this way, the user can always consider the base point of hand gesture operation as the center of a screen, and operativity improves.

(3)拡大画像作成部23bは、手検出部23aにより検出された手のひら53が小さいほど、拡大率Pの大きい拡大画像57を作成する。このようにしたので、ユーザが画面から遠ざかった場合であっても操作性が低下しない。 (3) The magnified image creation unit 23b creates a magnified image 57 having a larger magnification rate P as the palm 53 detected by the hand detection unit 23a is smaller. Since it did in this way, even if it is a case where a user moves away from a screen, operativity does not fall.

(4)液晶モニタ24は、拡大画像57を表示画面51の全面に表示する。このようにしたので、拡大画像57を視認性よくユーザに提示することができる。 (4) The liquid crystal monitor 24 displays the enlarged image 57 on the entire display screen 51. Since it did in this way, the enlarged image 57 can be shown to a user with sufficient visibility.

(第2の実施の形態)
以下、本発明の第2の実施の形態に係る撮像装置110について説明する。なお、以下の説明では、第1の実施の形態に係る撮像装置10との相違点を中心に説明を行い、第1の実施の形態と同一の箇所については第1の実施の形態と同一の符号を付し説明を省略する。
(Second Embodiment)
Hereinafter, the imaging device 110 according to the second embodiment of the present invention will be described. In the following description, differences from the imaging device 10 according to the first embodiment will be mainly described, and the same parts as those in the first embodiment are the same as those in the first embodiment. Reference numerals are assigned and description is omitted.

図7は、本発明の第2の実施の形態に係る撮像装置110の構成を示すブロック図である。撮像装置110は、第1の実施の形態に係る撮像装置10の制御部23を、これとは異なる制御部123に置き換えた構成を有する。   FIG. 7 is a block diagram showing a configuration of the imaging apparatus 110 according to the second embodiment of the present invention. The imaging device 110 has a configuration in which the control unit 23 of the imaging device 10 according to the first embodiment is replaced with a control unit 123 different from this.

制御部123はソフトウェア形態により、カーソル移動部123b、機能実行部123c、および第1の実施の形態と同様である手検出部23aを備える。これらの各部は、制御部123がフラッシュメモリ28に格納されている所定の制御プログラムを実行することにより、ソフトウェア的に実現される。   The control unit 123 includes a cursor movement unit 123b, a function execution unit 123c, and a hand detection unit 23a that is the same as that of the first embodiment, depending on the software form. Each of these units is realized by software when the control unit 123 executes a predetermined control program stored in the flash memory 28.

カーソル移動部123bは、手検出部23aにより検出された手のひら53の移動に応じて、液晶モニタ24に表示されているカーソル(後述)を移動させる。機能実行部123cは、カーソル(後述)が液晶モニタ24に表示されたアイコンのいずれかに近接したことに応じて、当該アイコンに対応する機能を実行する。   The cursor moving unit 123b moves a cursor (described later) displayed on the liquid crystal monitor 24 according to the movement of the palm 53 detected by the hand detecting unit 23a. The function execution unit 123c executes a function corresponding to the icon when a cursor (described later) comes close to any of the icons displayed on the liquid crystal monitor 24.

(ハンドジェスチャー操作の説明)
液晶モニタ24が図2(b)に図示するように被写体側、すなわち矢印xの方向を向くと、制御部123は撮像装置110にハンドジェスチャー操作モードを設定する。以下、本実施形態のハンドジェスチャー操作モードについて詳述する。
(Explanation of hand gesture operation)
When the liquid crystal monitor 24 faces the subject, that is, in the direction of the arrow x as illustrated in FIG. 2B, the control unit 123 sets the hand gesture operation mode in the imaging device 110. Hereinafter, the hand gesture operation mode of this embodiment will be described in detail.

図8は、ハンドジェスチャー操作モードにおいて、手のひら53が検出されたときの液晶モニタ24の表示画面を示す図である。最初に手のひら53が検出されたとき、制御部123は、手のひら53が検出された位置にカーソル61を表示する。その後、手検出部23aは、繰り返し手のひら53の検出を行う。   FIG. 8 is a diagram showing a display screen of the liquid crystal monitor 24 when the palm 53 is detected in the hand gesture operation mode. When the palm 53 is detected for the first time, the control unit 123 displays the cursor 61 at the position where the palm 53 is detected. Thereafter, the hand detection unit 23a repeatedly detects the palm 53.

カーソル移動部123bは、手検出部23aにより検出された手のひら53の位置が前回検出時から変化している場合、すなわち手のひら53が移動している場合、手のひら53の移動に応じてカーソル61を移動させる。これにより、液晶モニタ24の表示画面51において、カーソル61は手のひら53の移動に追従する。   The cursor moving unit 123b moves the cursor 61 according to the movement of the palm 53 when the position of the palm 53 detected by the hand detecting unit 23a has changed from the previous detection, that is, when the palm 53 has moved. Let Thereby, the cursor 61 follows the movement of the palm 53 on the display screen 51 of the liquid crystal monitor 24.

ユーザ(被写体人物54)は、図8に示した表示画面51を視認して、カーソル61と4つのアイコン52a、52b、52c、52dとの位置関係を認識する。そして、所望の機能に対応するアイコンの方向に手のひら53を移動させる。カーソル61は手のひら53の移動に追従して移動する。表示画面51において、カーソル61がいずれかのアイコンに重なると、機能実行部23cは当該アイコンに対応する機能を実行する。例えば、カーソル61が「ズームアップ」と書かれたアイコン52aに重なると、機能実行部23cは撮影光学系21のズームアップを行い、撮影光学系21の焦点距離を大きくする。   The user (subject person 54) recognizes the positional relationship between the cursor 61 and the four icons 52a, 52b, 52c, and 52d by visually recognizing the display screen 51 shown in FIG. Then, the palm 53 is moved in the direction of the icon corresponding to the desired function. The cursor 61 moves following the movement of the palm 53. When the cursor 61 overlaps any icon on the display screen 51, the function execution unit 23c executes a function corresponding to the icon. For example, when the cursor 61 overlaps the icon 52 a written “Zoom-up”, the function execution unit 23 c zooms in the photographing optical system 21 and increases the focal length of the photographing optical system 21.

機能実行部23cにより何らかの機能が実行されるか、手検出部23aが手のひら53を検出できなくなると、制御部23はカーソル61およびアイコン52a、52b、52c、52dの表示を中止する。   If any function is executed by the function execution unit 23c or the hand detection unit 23a cannot detect the palm 53, the control unit 23 stops displaying the cursor 61 and the icons 52a, 52b, 52c, and 52d.

次に、カーソル移動部123bによるカーソル61の移動処理について詳述する。いま、図4(a)に示すように、被写体人物54が、撮像装置10から距離D1だけ離れているとする。ここで被写体人物54が手のひらを撮像装置10に向けると、図4(b)に示すように、撮像素子22の撮影画面55には、手のひら53が幅W1の大きさで写り込む。   Next, the movement process of the cursor 61 by the cursor moving unit 123b will be described in detail. Now, as shown in FIG. 4A, it is assumed that the subject person 54 is separated from the imaging device 10 by a distance D1. Here, when the subject person 54 turns his palm toward the imaging device 10, as shown in FIG. 4B, the palm 53 appears in the shooting screen 55 of the imaging device 22 with the width W1.

被写体人物54が実空間において手のひらをある距離だけ動かすと、撮影画面55では、手のひら53が長さL1だけ移動する。このときカーソル移動部123bは、表示画面51において、次式(1)により決定される移動距離S1だけカーソル61を移動させる。ここでCは、手のひら53の移動に対するカーソル61の感度を表す所定の定数である。なお、カーソル61の移動方向は、手のひら53の移動方向と同一である。
S1=C×L1/W1 …(1)
When the subject person 54 moves the palm by a certain distance in the real space, the palm 53 moves by the length L1 on the shooting screen 55. At this time, the cursor moving unit 123b moves the cursor 61 on the display screen 51 by the moving distance S1 determined by the following equation (1). Here, C is a predetermined constant representing the sensitivity of the cursor 61 to the movement of the palm 53. The moving direction of the cursor 61 is the same as the moving direction of the palm 53.
S1 = C × L1 / W1 (1)

次に、図5(a)に示すように、図4(a)と同一の被写体人物54が、撮像装置110から距離D1より長い距離D2だけ離れているとする。ここで被写体人物54が手のひらを撮像装置10に向けると、図5(b)に示すように、撮像素子22の撮影画面55には、手のひら53は図4(b)よりも小さく写り込む。つまり、図5(b)の撮影画面55における手のひら53の幅W2は、図4(b)に示す幅W1より小さい。   Next, as shown in FIG. 5A, it is assumed that the same subject person 54 as in FIG. 4A is separated from the imaging device 110 by a distance D2 longer than the distance D1. Here, when the subject person 54 turns his palm toward the imaging device 10, as shown in FIG. 5B, the palm 53 appears on the shooting screen 55 of the image sensor 22 smaller than in FIG. 4B. That is, the width W2 of the palm 53 on the shooting screen 55 in FIG. 5B is smaller than the width W1 shown in FIG.

被写体人物54が実空間において手のひらを図4(b)と同一方向に同一距離だけ動かすと、撮影画面55では、手のひら53が長さL2だけ移動する。この長さL2は、図4(b)に示した長さL1より短い。このときカーソル移動部123bは、表示画面51において、次式(2)により決定される移動距離S2だけカーソル61を移動させる。ここでCは、前述した式(1)と同一の定数である。
S2=C×L2/W2 …(2)
When the subject person 54 moves the palm in the real space by the same distance in the same direction as in FIG. 4B, the palm 53 moves by the length L2 on the photographing screen 55. This length L2 is shorter than the length L1 shown in FIG. At this time, the cursor moving unit 123b moves the cursor 61 on the display screen 51 by the moving distance S2 determined by the following equation (2). Here, C is the same constant as the above-described formula (1).
S2 = C × L2 / W2 (2)

つまりカーソル移動部123bは、実空間における手のひらの移動距離が同一であれば、表示画面51におけるカーソル61の移動距離も同一になるように、カーソル61の移動距離を決定する。   That is, the cursor moving unit 123b determines the moving distance of the cursor 61 so that the moving distance of the cursor 61 on the display screen 51 is the same if the moving distance of the palm in the real space is the same.

上述した第2の実施の形態による撮像装置によれば、次の作用効果が得られる。
(1)カーソル移動部123bは、液晶モニタ24に表示されるカーソル61を、手検出部23aにより検出された手のひら53の位置の変化量に応じた移動量だけ移動させる。機能実行部123cは、液晶モニタ24に表示されたカーソル61が4つのアイコン52a、52b、52c、52dのいずれかに近接したことに応じて、当該アイコンに対応する機能を実行する。そしてカーソル移動部123bは、手検出部23aにより検出された手のひら53が小さいほどカーソル61の移動量を大きくする。以上の構成を有する撮像装置110によれば、ユーザが画面から遠ざかった場合であっても操作性が低下しない。
According to the imaging apparatus according to the second embodiment described above, the following operational effects can be obtained.
(1) The cursor moving unit 123b moves the cursor 61 displayed on the liquid crystal monitor 24 by a moving amount corresponding to the amount of change in the position of the palm 53 detected by the hand detecting unit 23a. The function execution unit 123c executes the function corresponding to the icon 61 when the cursor 61 displayed on the liquid crystal monitor 24 comes close to any of the four icons 52a, 52b, 52c, and 52d. The cursor moving unit 123b increases the amount of movement of the cursor 61 as the palm 53 detected by the hand detecting unit 23a is smaller. According to the imaging apparatus 110 having the above configuration, the operability is not deteriorated even when the user moves away from the screen.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。   The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.

(変形例1)
第1の実施の形態において、拡大画像57を液晶モニタ24の表示画面51より小さく表示してもよい。例えば、液晶モニタ24の表示画面51の全面に撮像素子22により撮像された被写体像(スルー画)を表示し、その一部に表示画面51の4分の1サイズの拡大画像57を重畳して表示してもよい。このように、被写体像に重畳して表示画面51よりも小さい拡大画像57を表示することにより、ジェスチャー操作中に構図等の確認を継続して行うことが可能となる。逆に、表示画面51の全面に表示した拡大画像57に重畳して、表示画面51より小さい拡大画像57を表示することもできる。
(Modification 1)
In the first embodiment, the enlarged image 57 may be displayed smaller than the display screen 51 of the liquid crystal monitor 24. For example, a subject image (through image) captured by the image sensor 22 is displayed on the entire surface of the display screen 51 of the liquid crystal monitor 24, and an enlarged image 57 of a quarter size of the display screen 51 is superimposed on a part thereof. It may be displayed. In this way, by displaying the enlarged image 57 smaller than the display screen 51 superimposed on the subject image, it is possible to continuously check the composition or the like during the gesture operation. Conversely, an enlarged image 57 smaller than the display screen 51 can be displayed by being superimposed on the enlarged image 57 displayed on the entire surface of the display screen 51.

また、上述のように、表示画面51よりも小さい拡大画像57を表示する場合、拡大画像57の表示位置は制御部23が適宜設定してよい。例えば、拡大画像57が手のひら53に対応する人物(手のひら53を撮像装置10に向けている人物)に重ならないように表示されるよう、制御部23を構成すれば、ジェスチャー操作中であっても当該人物の姿勢や表情等を確認することができるようになる。   As described above, when the enlarged image 57 smaller than the display screen 51 is displayed, the display unit of the enlarged image 57 may be set as appropriate by the control unit 23. For example, if the control unit 23 is configured so that the enlarged image 57 is displayed so as not to overlap with a person corresponding to the palm 53 (a person with the palm 53 facing the imaging device 10), even during a gesture operation. It becomes possible to confirm the posture and facial expression of the person.

(変形例2)
第2の実施の形態において、カーソル移動部123bは、手検出部23aにより検出された手のひら53のサイズが小さいほどカーソル61の移動量を大きくすることにより、撮影距離によらず常に同一量の手振りでカーソル61を移動可能に構成されていた。これを、カーソル移動部123bが手のひら53のサイズ以外の情報も用いてカーソル61の移動量を決定するようにしてもよい。
(Modification 2)
In the second embodiment, the cursor moving unit 123b always increases the amount of movement of the cursor 61 as the size of the palm 53 detected by the hand detecting unit 23a is smaller. The cursor 61 is configured to be movable. Alternatively, the cursor moving unit 123b may determine the amount of movement of the cursor 61 using information other than the size of the palm 53.

例えば、撮影距離が同一であっても、撮像装置110に手のひらを向ける被写体人物54が子供である場合と、大人である場合とで、撮影画面55における手のひら53の大きさは異なることが予想される。そこで、制御部123に、手のひら53に対応する被写体人物54(手のひらを撮像装置110に向けている人物)の年齢を推定する年齢推定部を設け、カーソル移動部123bが、年齢推定部により推定された年齢に応じて、カーソル61の移動量を変化させるようにしてもよい。この年齢推定部は、例えば周知のパターンマッチングにより当該人物の顔が子供の顔か大人の顔かを検出するように構成される。これにより、当該人物が子供か大人かを推定することが可能である。カーソル移動部123bは、被写体人物が子供であれば、上式(1)、(2)における定数Cの値を通常よりも大きく設定し、カーソル61がより大きく動くようにする。このようにすることで、年齢差に伴う手のひら53の大小を考慮したカーソル移動を行うことができ、撮像装置110の操作性が向上する。   For example, even if the shooting distance is the same, it is expected that the size of the palm 53 on the shooting screen 55 is different between the case where the subject person 54 who turns the palm toward the imaging device 110 is a child and the case where the subject person 54 is an adult. The Therefore, the control unit 123 is provided with an age estimation unit that estimates the age of the subject person 54 corresponding to the palm 53 (the person with the palm facing the imaging device 110), and the cursor moving unit 123b is estimated by the age estimation unit. Depending on the age, the amount of movement of the cursor 61 may be changed. The age estimation unit is configured to detect whether the face of the person is a child's face or an adult's face by, for example, known pattern matching. Thereby, it is possible to estimate whether the person is a child or an adult. If the subject person is a child, the cursor moving unit 123b sets the value of the constant C in the above formulas (1) and (2) to be larger than usual so that the cursor 61 moves more greatly. In this way, the cursor can be moved in consideration of the size of the palm 53 associated with the age difference, and the operability of the imaging device 110 is improved.

(変形例3)
第1の実施の形態において、機能実行部23cが種々の機能を実行するきっかけは、手のひら53がアイコン52a、52b、52c、52dのいずれかに重なることであった。これはきっかけの一例であり、機能実行部23cは手のひら53がアイコンに近接したときに機能を実行するように構成されていればよく、必ずしも手のひら53がアイコン52a、52b、52c、52dに重なっていなくてもよい。例えば手のひら53がアイコンに向かって一定距離動いたことに応じて機能を実行したり、手のひら53に外接する矩形とアイコンに外接する矩形とが重なったら機能を実行するようにしてもよい。
(Modification 3)
In the first embodiment, the reason why the function execution unit 23c executes various functions is that the palm 53 overlaps one of the icons 52a, 52b, 52c, and 52d. This is an example of the trigger, and the function execution unit 23c only needs to be configured to execute a function when the palm 53 is close to the icon, and the palm 53 does not necessarily overlap the icons 52a, 52b, 52c, and 52d. It does not have to be. For example, the function may be executed when the palm 53 moves a certain distance toward the icon, or the function may be executed when a rectangle circumscribing the palm 53 and a rectangle circumscribing the icon overlap.

(変形例4)
第1の実施の形態において、制御部23は、撮像素子22により撮像された被写体像から手のひら53を検出することにより、被写体の手の位置を検出していた。制御部23が手のひら53以外のものを検出することにより、被写体の手の位置を検出するようにしてもよい。例えば、手指や手首等をパターンマッチングにより検出することで、被写体の手の位置を検出するようにしてもよい。また、手袋などを装着した手を検出可能にしてもよい。以上のように制御部23が構成されていた場合であっても、被写体の手が各アイコン52a、52b、52c、52dに近接したことを検出できるのであれば、本発明を適用することが可能である。
(Modification 4)
In the first embodiment, the control unit 23 detects the position of the hand of the subject by detecting the palm 53 from the subject image picked up by the image sensor 22. The controller 23 may detect the position of the subject's hand by detecting something other than the palm 53. For example, the position of the hand of the subject may be detected by detecting fingers and wrists by pattern matching. Further, it may be possible to detect a hand wearing a glove or the like. Even when the control unit 23 is configured as described above, the present invention can be applied as long as it is possible to detect that the hand of the subject is close to the icons 52a, 52b, 52c, and 52d. It is.

更に、本発明は手振り(ハンドジェスチャー)に限定されない。被撮影者が行う所定の身振り(ジェスチャー)を、上述した手振り(ハンドジェスチャー)と同様に検出すれば、手以外の部位による撮像装置の操作を実現することが可能である。   Furthermore, the present invention is not limited to hand gestures. If a predetermined gesture (gesture) performed by the subject is detected in the same manner as the above-described hand gesture (hand gesture), it is possible to realize the operation of the imaging apparatus using a part other than the hand.

(変形例5)
画面内に設けるアイコン52a、52b、52c、52dは4つより多くても4つより少なくてもよい。その配置も任意に定めることができ、上述した各実施形態のように、表示画面の四隅以外の場所に配置してよい。また、各アイコンに割り当てる機能は、上述した各実施形態で例示したものと異なっていてもよく、機能実行部23c、123cが実行可能な機能(例えば再生モード設定、補助発光装置のオンオフなど)であればどのようなものであってもよい。各アイコンにユーザが任意の機能を割り当てられるようにしてもよい。更に、各機能を表す文字が含まれたアイコン52a、52b、52c、52dを一例に説明を行ってきたが、これとは異なるシンボル(例えば機能を表す絵など)を用いてもよい。
(Modification 5)
There may be more or less than four icons 52a, 52b, 52c, and 52d provided in the screen. The arrangement can also be determined arbitrarily, and may be arranged at a place other than the four corners of the display screen as in the above-described embodiments. Further, the function assigned to each icon may be different from those exemplified in the above-described embodiments, and is a function that can be executed by the function execution units 23c and 123c (for example, reproduction mode setting, on / off of the auxiliary light emitting device, etc.). Anything is acceptable. A user may be allowed to assign an arbitrary function to each icon. Further, the icons 52a, 52b, 52c, and 52d including characters representing each function have been described as an example. However, a different symbol (for example, a picture representing a function) may be used.

(変形例6)
以上の説明では、レンズ一体型のデジタルカメラに本発明を適用した形態について説明したが、本発明はこのような実施の形態に限定されず、例えばレンズ交換可能ないわゆる一眼レフレックス方式のデジタルカメラや、レフレックスミラーを有さないレンズ交換可能なデジタルカメラに本発明を適用することも可能である。
(Modification 6)
In the above description, the embodiment in which the present invention is applied to a lens-integrated digital camera has been described. However, the present invention is not limited to such an embodiment. For example, a so-called single-lens reflex digital camera capable of exchanging lenses is used. It is also possible to apply the present invention to a digital camera with no interchangeable lens that does not have a reflex mirror.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   As long as the characteristics of the present invention are not impaired, the present invention is not limited to the above-described embodiments, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

10、110…撮像装置、21…撮影光学系、22…撮像素子、23…制御部、23a…手検出部、23b…拡大画像作成部、23c、123c…機能実行部、24…液晶モニタ、25…メモリカード、26…操作部、27…DRAM、28…フラッシュメモリ、52a、52b、52c、52d…アイコン、123b…カーソル移動部 DESCRIPTION OF SYMBOLS 10,110 ... Imaging device, 21 ... Imaging optical system, 22 ... Imaging device, 23 ... Control part, 23a ... Hand detection part, 23b ... Enlarged image creation part, 23c, 123c ... Function execution part, 24 ... Liquid crystal monitor, 25 ... Memory card, 26 ... Operation unit, 27 ... DRAM, 28 ... Flash memory, 52a, 52b, 52c, 52d ... Icon, 123b ... Cursor moving unit

Claims (9)

被写体像を撮像する撮像素子と、
前記撮像素子により撮像された被写体像から、その被写体の手の位置を検出する手検出部と、
前記撮像素子により撮像された被写体像から、前記手検出部により検出された手を含む領域をその手の大きさに応じた拡大率で拡大した拡大画像を作成する拡大画像作成部と、
前記拡大画像作成部により作成された前記拡大画像とその拡大画像に重畳した複数のシンボルとを表示する、被写体から視認可能な表示部と、
前記表示部により表示された前記拡大画像における手が、前記複数のシンボルのいずれかに近接したことに応じて、当該シンボルに対応する機能を実行する機能実行部と、
を備えることを特徴とする撮像装置。
An image sensor for capturing a subject image;
A hand detection unit that detects the position of the hand of the subject from the subject image captured by the imaging device;
An enlarged image creation unit that creates an enlarged image obtained by enlarging an area including the hand detected by the hand detection unit at an enlargement rate according to the size of the hand from the subject image captured by the imaging device;
A display unit that displays the magnified image created by the magnified image creation unit and a plurality of symbols superimposed on the magnified image;
A function execution unit that executes a function corresponding to the symbol in response to a hand in the enlarged image displayed by the display unit approaching any of the plurality of symbols;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記拡大画像作成部は、前記手検出部により検出された手の初期位置を中心とした前記拡大画像を作成することを特徴とする撮像装置。
The imaging device according to claim 1,
The enlarged image creation unit creates the enlarged image centered on the initial position of the hand detected by the hand detection unit.
請求項1または2に記載の撮像装置において、
前記拡大画像作成部は、前記手検出部により検出された手が小さいほど、前記拡大率の大きい前記拡大画像を作成することを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
The enlarged image creating unit creates the enlarged image having a larger magnification rate as the hand detected by the hand detecting unit is smaller.
請求項1〜3のいずれか一項に記載の撮像装置において、
前記表示部は、前記拡大画像を表示画面の全面に表示することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 3,
The display unit displays the enlarged image on the entire surface of a display screen.
請求項1〜3のいずれか一項に記載の撮像装置において、
前記表示部は、撮像素子により撮像された被写体像を表示画面の全面に表示すると共に、その被写体像に重畳して前記表示画面よりも小さい前記拡大画像を表示することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 3,
The display device displays the subject image picked up by the image sensor on the entire surface of the display screen, and displays the enlarged image smaller than the display screen so as to be superimposed on the subject image.
請求項5に記載の撮像装置において、
前記表示部は、前記拡大画像を、前記手検出部により検出された手に対応する人物に重ならないように表示することを特徴とする撮像装置。
The imaging apparatus according to claim 5,
The said display part displays the said enlarged image so that it may not overlap with the person corresponding to the hand detected by the said hand detection part.
被写体像を撮像する撮像素子と、
前記撮像素子により撮像された被写体像とその被写体像に重畳した複数のシンボルとその被写体像に重畳したカーソルとを表示する、被写体から視認可能な表示部と、
前記撮像素子により撮像された被写体像から、その被写体の手の位置を検出する手検出部と、
前記表示部による前記カーソルを、前記手検出部により検出された手の位置の変化量に応じた移動量だけ移動させるカーソル移動部と、
前記表示部により表示された前記カーソルが、前記複数のシンボルのいずれかに近接したことに応じて、当該シンボルに対応する機能を実行する機能実行部とを備え、
前記カーソル移動部は、前記手検出部により検出された手が小さいほど前記カーソルの移動量を大きくすることを特徴とする撮像装置。
An image sensor for capturing a subject image;
A display unit that is visible from the subject, and displays a subject image captured by the imaging device, a plurality of symbols superimposed on the subject image, and a cursor superimposed on the subject image;
A hand detection unit that detects the position of the hand of the subject from the subject image captured by the imaging device;
A cursor moving unit that moves the cursor by the display unit by a moving amount corresponding to the amount of change in the position of the hand detected by the hand detecting unit;
A function execution unit that executes a function corresponding to the symbol when the cursor displayed by the display unit approaches one of the plurality of symbols;
The imaging apparatus characterized in that the cursor movement unit increases the movement amount of the cursor as the hand detected by the hand detection unit is smaller.
請求項7に記載の撮像装置において、
前記手検出部により検出された手に対応する被写体の年齢を推定する年齢推定部を備え、
前記カーソル移動部は、前記年齢推定部により推定された年齢に応じて、前記カーソルの移動量を変化させることを特徴とする撮像装置。
The imaging apparatus according to claim 7,
An age estimation unit for estimating the age of a subject corresponding to the hand detected by the hand detection unit;
The imaging apparatus according to claim 1, wherein the cursor moving unit changes the amount of movement of the cursor according to the age estimated by the age estimating unit.
請求項8に記載の撮像装置において、
前記年齢推定部は、被写体の顔に基づいて被写体の年齢を推定することを特徴とする撮像装置。
The imaging device according to claim 8,
The age estimation unit estimates the age of a subject based on the face of the subject.
JP2013177112A 2013-08-28 2013-08-28 Imaging device Pending JP2015046038A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013177112A JP2015046038A (en) 2013-08-28 2013-08-28 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013177112A JP2015046038A (en) 2013-08-28 2013-08-28 Imaging device

Publications (1)

Publication Number Publication Date
JP2015046038A true JP2015046038A (en) 2015-03-12

Family

ID=52671482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013177112A Pending JP2015046038A (en) 2013-08-28 2013-08-28 Imaging device

Country Status (1)

Country Link
JP (1) JP2015046038A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005815A (en) * 2016-07-08 2018-01-11 大日本印刷株式会社 Input system and input device thereof
WO2022064914A1 (en) * 2020-09-24 2022-03-31 Necプラットフォームズ株式会社 Control device, control method, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005815A (en) * 2016-07-08 2018-01-11 大日本印刷株式会社 Input system and input device thereof
WO2022064914A1 (en) * 2020-09-24 2022-03-31 Necプラットフォームズ株式会社 Control device, control method, and recording medium
JP2022052820A (en) * 2020-09-24 2022-04-05 Necプラットフォームズ株式会社 Control device, control method, and program

Similar Documents

Publication Publication Date Title
JP5775659B2 (en) Imaging apparatus and mode switching method in imaging apparatus
KR101367748B1 (en) Image pickup apparatus and its control method
JP6667294B2 (en) Electronic device and control method thereof
JP6590666B2 (en) Electronic device and control method thereof
JP2018125612A (en) Imaging apparatus and control method thereof
JP5830564B2 (en) Imaging apparatus and mode switching method in imaging apparatus
JP6701033B2 (en) Electronic device and control method thereof
JP6512961B2 (en) Imaging control apparatus, control method therefor, program, and storage medium
JP2014241099A (en) Imaging device
US10904442B2 (en) Image sensing apparatus with improved user operability when performing an enlarged display of a live view image and control method of image sensing apparatus
JP2019016299A (en) Electronic apparatus having operation member arranged on different surfaces, control method thereof, program and storage medium
JP2015046038A (en) Imaging device
CN111866332A (en) Electronic apparatus, control method, and computer-readable medium
JP6123562B2 (en) Imaging device
JP5575290B2 (en) Imaging apparatus and control method thereof
JP2015228270A (en) Electronic device, electronic device control method, program, and storage medium
US11245835B2 (en) Electronic device
JP6017656B2 (en) Imaging apparatus and mode switching method in imaging apparatus
CN112040095B (en) Electronic device, control method of electronic device, and storage medium
JP2021012619A (en) Electronic apparatus and method for controlling the same
WO2018150983A1 (en) Display control device and method
JP2015035747A (en) Imaging device
JP7466304B2 (en) Imaging device, control method thereof, program, and storage medium
JP7309435B2 (en) Electronic device, electronic device control method, program, recording medium
JP2021085979A (en) Electronic apparatus and control method thereof, program, and storage medium