JP2013223244A - カメラ装置及びその制御方法 - Google Patents

カメラ装置及びその制御方法 Download PDF

Info

Publication number
JP2013223244A
JP2013223244A JP2013082754A JP2013082754A JP2013223244A JP 2013223244 A JP2013223244 A JP 2013223244A JP 2013082754 A JP2013082754 A JP 2013082754A JP 2013082754 A JP2013082754 A JP 2013082754A JP 2013223244 A JP2013223244 A JP 2013223244A
Authority
JP
Japan
Prior art keywords
gesture
camera
subject
zoom
camera device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013082754A
Other languages
English (en)
Other versions
JP6316540B2 (ja
Inventor
Koryakovskiy Ivan
イヴァン・コリャコフスキー
文植 ▲鄭▼
Moon Shick Chung
Sung-Do Choi
成▲ド▼ 崔
Dong-Wook Kwon
東旭 權
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130025306A external-priority patent/KR102070598B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013223244A publication Critical patent/JP2013223244A/ja
Application granted granted Critical
Publication of JP6316540B2 publication Critical patent/JP6316540B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

【課題】本発明は、カメラのレンズを通じて入力される被写体のジェスチャーによってカメラ装置の動作をユーザが便利に制御することができるカメラ装置及びその制御方法を提供する。
【解決手段】本発明によるカメラ装置制御方法は、カメラレンズを通じて入力される映像を受信して現在フレームを生成するステップと、現在フレームと現在フレーム以前に保存された少なくとも一つの以前フレームとを比較して、上記現在フレーム及び上記少なくとも一つの以前フレームに含まれた被写体のジェスチャーを検出するステップと、被写体のジェスチャーがジェスチャーUIであるか否かを判断するステップと、判断結果、ジェスチャーがジェスチャーUIである場合、ジェスチャーUIに対応する動作を実行するステップと、を含む。
【選択図】図2

Description

本発明は、カメラに関し、より詳細にはカメラのレンズを通じて入力される被写体のジェスチャーによってカメラ装置の動作をユーザが便利に制御することができるようにするカメラ装置及びその制御方法に関する。
一般的に、デジタル映像処理処置は、デジタルカメラ、PDA(Personal Digital Assistant)、フォンカメラ、PCカメラなどの映像を処理したり、映像認識センサーを使用するすべての装置を含む。デジタル映像処理装置は、撮像素子を通じて入力された映像をデジタル信号処理器でイメージプロセシングし、これを圧縮してイメージファイルを生成し、そのイメージファイルをメモリに保存することができる。
一方、デジタルカメラの主要消費階層が少数の専門家から多数の一般大衆まで拡大されながら消費階層の年齢と利用分野が拡大されている。特に近来には10〜30代の年齢層がデジタルカメラを頻繁に利用している。10〜30代の年齢層は、カメラを用いて自らを撮影するセルフカメラ方式を主に使用している。
しかしながら、セルフカメラ方式を用いて写真を撮る場合、ユーザは被写体の役割を兼ねなければならないので、カメラレンズの焦点を自身に合せる同時に、カメラのシャッターを押さえなければならないので撮影が容易でない。またレンズがデジタルカメラの前面に配置される反面に、カメラの設定を変えるためのメニューボタンは後面に設けられる場合が多い。セルフカメラ方式で写真を撮る場合には、ユーザが被写体の役割を果たすので、カメラレンズの前面に位置すべきである。それゆえに、ユーザは撮影に、思い通りにデジタルカメラの機能を使用するのが困難である。
米国特許登録6,944,315号公報
本発明の目的は、既存技術における少なくとも上述した問題点を解決し、また以下の装置及び制御方法を提供することである。
つまり、カメラのレンズを通じて入力される被写体のジェスチャーによってカメラ装置の動作をユーザが便利に制御することができるようにするカメラ装置及びその制御方法を提供することにある。
上記のような目的を達成するために、本発明の一態様によれば、カメラ装置を制御する方法であって、カメラを通じて入力される映像を受信して現在フレームを生成するステップと、上記現在フレームと上記現在フレーム以前に保存された少なくとも一つの以前フレームとを比較して、上記現在フレーム及び上記少なくとも一つの以前フレームに含まれた被写体のジェスチャーを検出するステップと、上記ジェスチャーがジェスチャーUIであるか否かを判断するステップと、上記ジェスチャーがジェスチャーUIである場合、上記ジェスチャーUIに対応する動作を実行するステップと、を含む方法が提供される。
本発明の別の態様によれば、カメラ装置であって、外部から入力される映像を受信して現在フレームを生成するカメラと、上記現在フレームと上記現在フレーム以前に保存された少なくとも一つの以前フレームとを比較して、上記現在フレーム及び上記少なくとも一つの以前フレームに含まれた被写体のジェスチャーを検出するジェスチャー認識部と、上記ジェスチャーがジェスチャーUIであるか否かを判断し、上記ジェスチャーが上記ジェスチャーUIである場合、上記ジェスチャーUIに対応する動作を実行する制御部と、を含む装置が提供される。
本発明は、カメラのレンズを通じて入力される被写体のジェスチャーによってカメラ装置の動作をユーザが便利に制御することができるという長所を有する。
本発明の実施形態の上述した及び他の様相、特徴、及び利点は、以下の添付図面が併用された後述の詳細な説明から、より一層明らかになるだろう。
本発明の一実施形態によるカメラ装置の構成を示したブロック図である。 図1に示したカメラ装置の制御方法の一例を示した順序図である。 図1に示したカメラ装置の制御方法の他の例を示した順序図である。 図1に示したカメラ装置の制御方法のもう一つの例を示した順序図である。 本発明の一実施形態によるジェスチャーを示した図である。 本発明の一実施形態によるジェスチャーを示した図である。 本発明の一実施形態によるジェスチャーを示した図である。 本発明の一実施形態によるジェスチャーを示した図である。 本発明の一実施形態によるカメラ装置を通じて入力される被写体のジェスチャーを示した図である。 本発明の一実施形態によるカメラ装置を通じて入力される被写体のジェスチャーを示した図である。 本発明の一実施形態による入力されるジェスチャーUIの順序によってカメラに入力される映像を示した図である。 本発明の一実施形態によるカメラ装置でのジェスチャーUIの入力方式を示した図である。 本発明の一実施形態によるカメラ装置でのジェスチャーUIの入力方式を示した図である。 本発明の別の実施形態によるカメラ装置を通じて入力される被写体のジェスチャーを示した図である。 本発明の別の実施形態によるカメラ装置を通じて入力される被写体のジェスチャーを示した図である。 本発明の別の実施形態によるカメラ装置を通じて入力される被写体のジェスチャーを示した図である。 本発明の別の実施形態によるカメラ装置を通じて入力される被写体のジェスチャーを示した図である。 図1に示したカメラ装置の制御方法のもう一つの例を示した順序図である。 図1に示したカメラ装置の制御方法のもう一つの例を示した順序図である。 図1に示したカメラ装置の制御方法のもう一つの例を示した順序図である。 本発明のもう一つの実施形態によるカメラ装置を通じて入力される被写体のジェスチャーUIを示した図である
明細書中で説明される図面は、説明の目的のために提供されるだけで、本発明の権利範囲を決して制限しないことに留意すべきである。
以下、本発明の望ましい実施形態を添付の図面を参照して詳細に説明する。下記の説明において、同一の構成要素に対してはできるだけ同一の参照符号及び参照番号を付して説明する。次の説明において、具体的な構成及び構成要素のような特定詳細は、ただ本発明の実施形態の全般的な理解を助けるために提供されるだけである。したがって、本発明の範囲及び趣旨を逸脱することなく、以下に説明される本発明の様々な変形及び変更が可能であることは、当該技術分野における通常の知識を持つ者には明らかである。なお、公知の機能又は構成に関する具体的な説明は、明瞭性と簡潔性のために省略する。
図1は、本発明の一実施形態によるカメラ装置の構成を示したブロック図である。
図1を参照すれば、カメラ装置100は、カメラ110、ジェスチャー認識部120、メモリ130及び制御部140を含み、ユーザ入力部152、ディスプレイ部154をさらに含み得る。
カメラ110は、設けられたレンズ(図示せず)を通じて映像を受信する。本実施形態によるカメラ110は、カメラ装置100を使用するユーザまたはカメラ装置100により撮影される被写体が動くことによって発生するジェスチャーUIを受信することができる。またカメラ110は、レンズを通じて入力された映像をリアルタイムで変換して映像フレームを生成する。カメラ110は、持続的にレンズを通じて入力される映像をフレーム単位でリアルタイムでメモリ130に保存するか、または臨時保存することができる。
以下では、カメラ110により生成された映像フレームのうち現在入力される映像を変換した映像フレームを‘現在フレーム’と称し、現在フレームが生成される以前に生成された映像フレームを‘以前フレーム’と称する。
ジェスチャー認識部120は、カメラ110を通じて入力される映像からユーザまたは被写体の動き、すなわちジェスチャーを検出する。ジェスチャー認識部120は、カメラ110により生成された現在フレームと少なくとも一つの以前フレームとを比較してユーザまたは被写体のジェスチャーを決定することができる。
ジェスチャー認識部120は、制御部140の制御下にカメラ110を通じてリアルタイムで生成されている映像フレーム、現在フレーム及び以前フレームからユーザまたは被写体を検出することができる。ジェスチャー認識部120は、映像フレームの各々に対して該当映像フレームの各々に含まれた各種物体の輪郭線、明度、彩度、色相、座標などのデータを含むフレームデータを生成することができる。ジェスチャー認識部120は、映像フレームの各々に対するフレームデータを用いて被写体を検出することができる。ジェスチャー認識部120は、制御部140の制御下に輪郭線、明度、彩度、色相、座標が予め設定された映像フレーム数以上の間変わらない客体を被写体として決定することができる。
本発明で、ユーザはカメラ装置100を用いて撮影をしようとする人であり、被写体はカメラ装置100により撮影される人を示す。本発明で被写体はカメラ装置100のユーザを含むことができる。
実施形態によって、ジェスチャー認識部120は、制御部140の制御下に映像フレームで動き領域を検出することができる。‘動き領域’は、映像フレームの中でも被写体からのジェスチャーが主に感知される領域を示す。動き領域で被写体の動きは最も大きかったりまたは最も頻繁であるものである。ジェスチャー認識部120は、少なくとも二つの映像フレームを相互に比較して動き領域を抽出する。ジェスチャー認識部120は、映像フレームを相互に比較した結果に基づいて、被写体の動きが最も大きかったりまたは最も頻繁な領域を動き領域として検出する。例えば、ジェスチャー認識部120は、被写体の身体部分中でも多くの動きが感知される手が動く部分を動き領域として検出することができる。
動き領域が検出されると、ジェスチャー認識部120は、制御部140の制御下に該当動き領域での被写体の動き軌跡を予測することができる。被写体の動きによって被写体のジェスチャーがカメラ110のレンズを通じて全部入力されないこともある。例えば、被写体が手で円を描いた場合、被写体により描かれる円の一部がレンズの画角(angle of view)から外れてカメラ110を通じて入力されないこともある。このように被写体のジェスチャーが完壁に入力されない場合を勘案して、本発明ではジェスチャー認識部120が被写体の動き軌跡を予測することができるようにする。例えば、現在フレーム以前に生成された以前フレームで被写体が右手で円を描いていると仮定する。ジェスチャー認識部120は、被写体によって右手が動いている領域を‘動き領域’として検出し、該当動き領域で被写体の右手が円を描いていることを感知することができる。それによってジェスチャー認識部120は、制御部140の制御下に現在フレームを拡張して被写体の右手がカメラ110の画角から外れた地点で円を描いている動きの軌跡、すなわち被写体のジェスチャーを予測することができる。
実施形態によってジェスチャー認識部120は、制御部140の制御下に動き領域で発生する被写体の動きを優先的にジェスチャーとして認識することもできる。動き領域が決定されると、ジェスチャー認識部120は、カメラ110により生成される少なくとも二つの映像フレームに基づいて動き領域での被写体の動き軌跡を決定することができる。このように決定される動き軌跡が被写体から入力されるジェスチャーとなる。
またジェスチャー認識部120は、少なくとも二つの映像フレームに基づいて被写体の動き軌跡を予測することができる。上記のように予測された動き軌跡もジェスチャーとして決定されてカメラ装置100に入力されることができる。
実施形態によってジェスチャー認識部120は、動き領域以外の領域から入力される被写体のジェスチャーを感知することができる。動き領域が既に決定された以後にも、被写体からカメラ110を通じて入力される動きが該当動き領域以外の領域でより大きくまたはより頻繁に発生されることがある。このような場合には、被写体のジェスチャーを明確に受信するために動き領域を再設定することが望ましい。ジェスチャー認識部120は、制御部140の制御下に該当動き領域以外の領域を新しく動き領域として再設定することができる。
例えば、動き領域として第1の領域が既に設定されている状態であると仮定する。被写体の動きがカメラ110を通じて生成される映像フレームのうちで第1の領域以外の領域、例えば第2の領域でより大きくまたはより頻繁に発生すると仮定する。第2の領域で被写体の動きがより大きい場合、カメラ装置100のジェスチャー認識部120は、該当被写体の動きをジェスチャーとして認識し難いことがある。ジェスチャー認識部120は、制御部140の制御下に第1の領域と第2の領域での動きを制御部140に伝達することができる。制御部140は、第1の領域と第2の領域での動きを比較する。比較結果、第2の領域での動きがより大きかったりまたはより頻繁な場合、制御部140は、第2の領域を新しく動き領域として再設定することができる。またジェスチャー認識部120は、制御部140の制御下に新しく動き領域として設定された第2の領域を中心として被写体のジェスチャーを検出することができる。
メモリ130には、カメラ装置100の動作を制御するための各種データが保存される。メモリ130にはカメラ110を通じてリアルタイムで入力される映像フレームが保存または臨時保存されることができる。またメモリ130には各種ジェスチャーUI及び該当ジェスチャーUIに対応するカメラ装置100の命令語(Command)または動作らが保存されることができる。
‘ジェスチャーUI’は、ジェスチャー認識部120により検出される被写体の動きのうち、カメラ装置100により特定命令または動作を実行するようにするジェスチャーを示す。ジェスチャーUIは、例えば、ズームイン(Zoom in)、ズームアウト(Zoom out)、撮影(Shoot)、シャッター速度増減、ISO増減、ホワイトバランス調節、焦点位置調節、連写有無、色温度調節、フラッシュの使用有無、撮影モードの選択などをするためのジェスチャーなどを含む。撮影モードは、例えば、プログラムAE(Auto Exposure)モード、シャッター優先AEモード、絞り優先AEモード、手動露出モード、バルブ露出モードのうち少なくとも一つを含み得る。
本実施形態によるメモリ130には、動き領域を設定するための基準値、カメラのズームイン倍率を限定するための臨界値、すなわち臨界倍率などが保存され得る。
制御部140は、カメラ装置100の全般的な動作を制御する。本実施形態による制御部140は、ジェスチャー認識部120から検出された被写体のジェスチャーがジェスチャーUIであるか否かを判断して決定する。ジェスチャー認識部120によって認識されたジェスチャーがジェスチャーUIである場合、制御部140は、該当ジェスチャーUIに対応する動作を遂行するようにカメラ装置100を制御する。
ジェスチャー認識部120によって被写体が検出されると、制御部140は、動き領域を検出するようにジェスチャー認識部120を制御する。実施形態によってジェスチャー認識部120は、制御部140の制御下に現在フレームと少なくとも一つの以前フレームとを比較して被写体の動き度合を、該当動きが発生した映像フレームの領域別に分けて数値で換算することができる。この時、動き度合を換算した数値が大きいほど動きが多いと仮定する。ジェスチャー認識部120は、上記のように動き度合が数値で換算された領域のうち、数値がメモリ130に予め保存された基準値以上である領域を動き領域として決定することができる。実施形態によってジェスチャー認識部120は、制御部140の制御下に該当基準値以上である領域の中でも最高値を有する領域を動き領域として決定することができる。制御部130は、動き領域で感知される被写体のジェスチャーを優先的に検出するようにジェスチャー認識部120を制御することができる。
別の実施形態によってジェスチャー認識部120は、該当動き領域以外の他の領域から被写体のジェスチャーを感知することもできる。制御部140は、動き領域での被写体のジェスチャーに対する信頼度及び他の領域での被写体のジェスチャーに対する信頼度を演算することができる。この時、信頼度は該当動き領域及び他の領域でのジェスチャーがジェスチャーUIである確率を示した指数であり得る。信頼度は、動き度合を換算した数値、ジェスチャーの正確度及びジェスチャーが動き領域で行われたか否かのうち、少なくとも一つに基づいて計算されることができる。本実施形態で被写体のジェスチャーが行われた位置が動き領域に近く、該当ジェスチャーの正確度が高いほど信頼度は高くなる。
制御部140は、動き領域及び他の領域各々に対する信頼度を計算して該当信頼度がより高い領域を動き領域として再設定することができる。例えば、既存の動き領域の信頼度が0.8であり、他の領域の信頼度が0.9であると仮定する。制御部140は、他の領域を新しく動き領域として再設定し、ジェスチャー認識部120を制御して該当再設定された動き領域を中心にして被写体のジェスチャーを検出するようにすることができる。
実施形態によって制御部140は、ジェスチャー認識部120によって検出されたジェスチャーUIがズームイン動作に対応するか否かを判断する。ジェスチャーUIがズームイン動作に対応する場合、制御部140は、カメラ110の現在倍率または該当ズームイン動作を遂行する場合のカメラ110の総倍率に基づいてズームイン動作を遂行するか否かを決定することができる。本実施形態で制御部140は、カメラ110がメモリ140に予め保存された臨界倍率に到達すれば、これ以上のズームイン動作を遂行しないようにカメラ装置100を制御すると仮定する。 カメラ110の現在倍率が臨界倍率である場合、制御部140は、カメラ110を通じて被写体からズームインジェスチャーが入力されるとしても、ズームイン動作を遂行しないようにカメラ110を制御することができる。またカメラ110を通じてズームインジェスチャーに対応するズームイン動作を遂行する場合のズームイン倍率が臨界倍率を超過する場合、ズームイン動作を遂行する時、制御部140は、該当臨界倍率までズームインされるようにカメラ110を制御することができる。
臨界倍率は、例えば、ジェスチャーUIがカメラ110の画角から外れない最大倍率であり得る。例えば、ズームイン倍率が4倍である場合には、ジェスチャーUIがカメラ110の画角から外れない反面に、ズームイン倍率が5倍である場合には、ジェスチャーUIがカメラ110の画角から外れると、該当カメラ110の臨界倍率は4倍となる。
また実施形態によって制御部140は、ジェスチャー認識部120により認識されたジェスチャーUIが既にカメラ110の画角から外れた場合にも、これ以上のズームイン動作を遂行しないようにカメラ装置100を制御することができる。
ユーザ入力部152は、カメラ装置100に入力されるユーザ入力を受信する。本実施形態によってユーザ入力部152は、ジェスチャーUIを受信するためのユーザ入力を受信することができる。
実施形態によってユーザ入力部152は、動き領域を決定するためのユーザ入力を受信することもできる。本実施形態によるカメラ装置100のディスプレイ部154は、カメラ110が駆動されると、ディスプレイ部154を通じて表示される映像フレームの少なくとも一部領域を動き予測領域として別途表示することができる。この時、ディスプレイ部154上で動き予測領域として表示される領域は、被写体の動きが予測される領域として、例えば、被写体の手が感知されている領域であり得る。ユーザ入力部152は、ディスプレイ部154を通じて表示される動き予測領域を選択または確認するためのユーザ入力を受信することができる。上記のように動き予測領域を予め設定することによって、ジェスチャー認識部120は、該当動き予測領域を中心にして被写体の動きを検出することができる。また動き予測領域を予め設定しておくことによって、ジェスチャー認識部120は、動き領域を検出するための演算過程を減らすことができる。
ディスプレイ部154は、カメラ装置100の各種データを表示する。実施形態によってディスプレイ部154は、設けられたスクリーンなどを用いてカメラ110のレンズを通じてリアルタイムで入力される映像を表示することができる。またディスプレイ部154は、メモリ130に保存された写真ファイルを表示することができる。
実施形態によってディスプレイ部154は、カメラ110を通じてリアルタイムで生成されている映像フレーム、すなわち現在フレームを表示するスクリーン(図示せず)上に動き領域を別途に表示することができる。またディスプレイ部154は、カメラ110が駆動されると、映像フレームの少なくとも一部領域を動き予測領域として別途表示することができる。
実施形態によってディスプレイ部154がタッチスクリーンの形態で具現される場合、ディスプレイ部154は、該当タッチスクリーンを通じてユーザから入力されるタッチ入力、すなわちユーザ入力を受信することができる。それによってディスプレイ部154は、ユーザから動き予測領域を選択するためのタッチ入力を受信することができる。
図2は、図1に示したカメラ装置の制御方法の一例を示した順序図である。
図2を参照すれば、まずカメラ装置110は、カメラ110を通じて入力される映像を受信する(S202)。カメラ110は、ステップS202で入力される映像を用いて映像フレームを生成し、生成された映像フレームをジェスチャー認識部120に伝達する。このように生成された映像フレームを‘現在フレーム’という。
ジェスチャー認識部120は、現在フレームと少なくとも一つの以前フレームとを比較して、該当現在フレーム及び該当少なくとも一つの以前フレームに含まれた被写体を検出する(S204)。またジェスチャー認識部120は、ステップS204で検出された被写体のジェスチャーを検出する(S206)。被写体のジェスチャーが検出されると、制御部140は、ステップS206で検出された被写体のジェスチャーがジェスチャーUIであるか否かを判断する(S208)。本実施形態によるメモリ130には、少なくとも一つのジェスチャーUIが保存されている。ステップS206で検出されたジェスチャーと同じジェスチャーがジェスチャーUIとしてメモリ130に保存されていると、制御部140は、ステップS206で検出されたジェスチャーをジェスチャーUIとして決定する。反面にステップS206で検出されたジェスチャーと同じジェスチャーがジェスチャーUIとしてメモリ130に保存されていないと、制御部140は、ステップS206で検出されたジェスチャーはジェスチャーUIでないことと決定する。
ステップS208の判断結果、被写体のジェスチャーがジェスチャーUIに該当する場合(S208:YES)、制御部140は、該当ジェスチャーUIに対応する動作を決定する(S210)。本実施形態によるメモリ130には、少なくとも一つのジェスチャーUI及び該当ジェスチャーUIに対応する命令または動作が保存されることができる。制御部140は、メモリ130を検索して被写体から入力されたジェスチャーUIに対応する命令または動作を決定することができる。ジェスチャーUIに対応する動作が決定されると、制御部140は、カメラ装置100を制御して該当ジェスチャーUIに対応する動作を実行する(S212)。
ステップS208の判断結果、被写体のジェスチャーがジェスチャーUIでない場合(S208:NO)、制御部140は、カメラ装置100が別の動作を遂行しないで待機状態を維持するように制御することができる。
図3は、図1に示したカメラ装置の制御方法の他の例を示した順序図である。
図3を参照すれば、カメラ装置100は、カメラ110を通じて入力される映像を受信する(S302)。カメラ110は、ステップS302で入力される映像を用いて映像フレームを生成し、生成された映像フレームをジェスチャー認識部120に伝達する。この時、生成された映像フレームを‘現在フレーム’と称し、該当現在フレーム以前に生成された映像フレームを‘以前フレーム’と称する。
ジェスチャー認識部120は、映像フレームに含まれた被写体を検出する(S304)。またジェスチャー認識部120は、少なくとも一つの以前フレームと現在フレームとを比較してステップS304で検出された被写体の動きを検出する(S306)。
被写体の動きが検出されると、制御部140は、ステップS306で検出された動きがズームインジェスチャーであるか否かを判断する(S308)。ステップS308の判断結果、ズームインジェスチャーである場合(S308:YES)、制御部140は、カメラ装置100を制御してズームイン動作を遂行する(S310)。
ステップS308の判断結果、ズームインジェスチャーでない場合(S308:NO)、制御部140は、ステップS306で検出された動きがズームアウトジェスチャーであるか否かを判断する(S312)。ステップS312の判断結果、ズームアウトジェスチャーである場合(S312:YES)、制御部140は、カメラ装置100を制御してズームアウト動作を遂行する(S314)。
ステップS312の判断結果、ズームアウトジェスチャーでない場合(S312:NO)、制御部140は、ステップS306で検出された動きが撮影ジェスチャーであるか否かを判断する(S316)。ステップS316の判断結果、撮影ジェスチャーである場合(S316:YES)、制御部140は、カメラ装置100を制御して撮影動作を遂行する(S318)。それによってカメラ110は、レンズを通じて入力される映像フレーム、すなわち現在フレームをイメージファイルに変換してメモリ130に保存することができる。また制御部140の制御下にカメラ装置100は、メモリ130に保存されたイメージファイルをディスプレイ部154を通じて表示することができる。
ステップS316の判断結果、撮影ジェスチャーでない場合(S316:NO)、制御部140は、カメラ装置100が別の動作を遂行しないで待機状態を維持するように制御することができる。
本実施形態では制御部140がステップS306で検出された被写体の動きが、ズームインジェスチャーであるか否かを判断し、ズームアウトジェスチャーであるか否かを判断した後、撮影ジェスチャーであるか否かを判断する順序を従ったが、別の実施形態によって他の順序でジェスチャーUIの種類を判断することもできる。また別の実施形態によって制御部140は、ステップS306で検出された被写体の動きと同じジェスチャーUIを、メモリ130で検索することもできる。
図4は、図1に示したカメラ装置の制御方法のもう一つの例を示した順序図であ る。図4ではカメラ110を通じて入力される被写体のジェスチャーUIの種類を判断するための初期値(gmask)がtrue(=1)であると仮定する。また円形ジェスチャーはズームイン動作のためのジェスチャーUIであると仮定し、線形ジェスチャーは撮影動作のためのジェスチャーUIであると仮定する。
図4を参照すれば、カメラ装置100は、カメラ110を通じて入力される映像を受信する(S402)。カメラ110は、ステップS402で入力される映像を用いて映像フレームを生成し、生成された映像フレーム、すなわち現在フレームをジェスチャー認識部120に伝達する。ジェスチャー認識部120は、該当現在フレーム及びメモリ130に予め保存されていた以前フレームに基づいて映像フレームに含まれた被写体を検出する(S404)。またジェスチャー認識部120は、映像フレームで動き領域を検出する(S406)。動き領域が検出されると、ジェスチャー認識部120は、動き領域での被写体の動き軌跡を予測する(S408)。‘動き軌跡’とは、被写体が動くことによって発生した被写体の少なくとも一部が映像フレーム内で移動した移動経路を示す。ジェスチャー認識部120は、以前フレーム及び現在フレームでの被写体の動き領域を用いて動き領域内での被写体の動きを予測することができる。
制御部140は、初期値(gmask)がtrue(=1)であるか否かを判断する(S410)。ステップS410の判断結果、trueである場合(S410:YES)、制御部140は、ステップS404で検出された被写体の動きが円形ジェスチャーであると決定する(S412)。円形ジェスチャーはカメラ110のレンズを通じて入力される被写体の動きが円形であるジェスチャーを示す。被写体は手を用いて円または楕円を描く動作を行うことによって、円形ジェスチャーをカメラ110に入力することができる。
制御部140は、円形ジェスチャー、より正確には被写体によって描かれる円の中央角が270゜以上であるか否かを判断する(S414)。円の中央角が270゜以上であるか否かを判断することは、被写体が円を完全に描かなかったりまたは被写体に描かれた円の一部がレンズ画角から外れた場合にも、被写体によって描かれる円を円形ジェスチャーとして決定するためである。すなわち、円の中央角270゜は、被写体によって入力される動きがジェスチャーUIに含まれる動きであるか否かを判断するための基準値となる。実施形態によって円の中央角は180゜、360゜など多様な値になることができる。また中央角は円の中心に対して被写体により描かれる円の弧がなす角、すなわち中心角である。
ステップS414の判断結果、中央角が270゜以上である場合(S414:YES)、制御部140は、カメラ装置100を制御してズームイン動作を遂行する(S416)。以後、制御部140は、初期値(gmask)を反対となる値に変更する(S424)。ステップS410での初期値(gmask)は、true(=1)であったので、ステップS424での初期値(gmask)はfalse(=0)に変更される。
ステップS410の判断結果、true(=1)でない場合(S410:NO)、すなわち初期値(gmask)がfalse(=0)である場合、制御部140は、ステップS404で検出された被写体の動きが線形ジェスチャーであると決定する(S418)。線形ジェスチャーはカメラ110のレンズを通じて入力される被写体の動きが線形であるジェスチャーを示す。被写体は手を用いて左側から右側へまたは右側から左側へ一直線を描くことによって線形ジェスチャーをカメラ110に入力することができる。また被写体は上から下にまたは下から上に一直線を描くことによって線形ジェスチャーをカメラ110に入力することができる。
制御部140は、線形ジェスチャーが基準値以上であるか否かを判断する(S420)。この時、基準値も被写体が一直線を描く過程で一直線を完全に描かなかったりまたは一直線の一部がレンズ画角から外れた場合にも、被写体に描かれた一直線を線形ジェスチャーとして決定するためである。例えば、被写体が手を用いて左側から右側へ1m以上描いた一直線が線形ジェスチャーであると仮定すると、カメラ装置100の制御部140は、被写体により描かれた一直線が80cm以上になれば、線形ジェスチャーであると決定することができる。ステップS420では上記80cmが基準値となることができる。
ステップS420の判断結果、基準値以上である場合(S420:YES)、制御部140は、カメラ装置100を制御して撮影動作を遂行する(S422)。以後、制御部140は、初期値(gmask)を現在値の反対となる値に変更する(S424)。ステップS410での初期値(gmask)がfalse(=0)であったので、ステップS424で初期値(gmask)はtrue(=1)に変更される。
図5A乃至図5Dは、本発明の一実施形態によるジェスチャーUIを示した図である。図5A乃至図5Dでは被写体がカメラ装置100を使用するユーザであると仮定する。
図5Aは、カメラ装置100でズームイン動作を実行するためのズームインジェスチャーであり、図5Bはズームアウト動作を実行するためのズームアウトジェスチャーである。ユーザが手を反時計方向で回転させるズームインジェスチャーを行なえば、カメラ装置100は、該当ズームインジェスチャーを感知してズームイン動作を遂行する。ユーザが手を時計方向で回転させるズームアウトジェスチャーを行なえば、カメラ装置100は、該当ズームアウトジェスチャーを感知してズームアウト動作を遂行する。
図5C及び図5Dは、撮影動作を遂行するための垂直ジェスチャー及び水平ジェスチャーである。ユーザが手を垂直方向で上げたり、下ろしたりするか、または手を垂直方向で下ろしたり、上げたりする垂直ジェスチャーを行なえば、カメラ装置100は、該当垂直ジェスチャーを感知して撮影動作を遂行する。またユーザが手を水平方向で右側から左側へ移動させた後、さらに左側から右側へ移動させたり、または手を水平方向で左側から右側へ移動させた後、さらに右側から左側へ移動させる水平ジェスチャーを行なえば、カメラ装置100は、該当水平ジェスチャーを感知してユーザを撮影する。
上記のように、ユーザは、図5A乃至図5Dに示したジェスチャーUIに応じる動きを行うことによって、カメラ装置110に予め設けられたボタンを圧押するか、またはタッチスクリーンをタッチするなどの直接的な操作なくても、カメラ110のレンズ倍率をズームイン、ズームアウトしたり、またはユーザ自身を撮影するようにカメラ装置100を制御することができる。
図6A及び図6Bは、本発明の一実施形態によるカメラ装置を通じて入力される被写体のジェスチャーを示した図である。
図6Aを参照すれば、被写体601は右手を用いて矢印(1)方向通り一直線を描いている。図6Bを参照すれば、被写体601は矢印(2)方向通り円を描いている。図6Aのジェスチャーは線形ジェスチャーであり、図6Bのジェスチャーは円形ジェスチャーである。被写体は、図6A及び図6BのようにジェスチャーUIに対応するジェスチャーを行なうことによって、カメラ装置100を制御するための命令を入力することができる。
図7は、本発明の一実施形態による入力されるジェスチャーUIの順序によってカメラに入力される映像を示した図である。
図7を参照すれば、被写体は時間順に二回のズームインジェスチャーをカメラ装置100に入力した後に一回の撮影ジェスチャーを入力している。最初のズームインジェスチャーが入力されると、カメラ装置100は、第1のフレーム701の中央をズームインして第2のフレーム702を生成する。二回目のズームインジェスチャーが入力されると、カメラ装置100は、第2のフレーム702の中央をズームインして第3のフレーム703を生成する。
本実施形態ではズームインジェスチャーが入力されると、カメラ110を通じて入力される映像の中央部分をズームインする場合に対してのみ記載したが、別の実施形態によってカメラ装置100は、ユーザーの所望する部分をズームインまたはズームアウトすることができる。ユーザはディスプレイ部154を通じて表示される映像フレーム(例えば、第1のフレーム701)の中でズームインまたはズームアウトしようとする部分を指で圧押することによって、ズームインまたはズームアウトをカメラ装置100に要請することができる。カメラ装置100は、該当ユーザの要請を受信してユーザの指により圧押された部分をズームインまたはズームアウトしてディスプレイ部154にさらに表示することができる。
図8A及び図8Bは、本発明の一実施形態によるカメラ装置でのジェスチャーUIの入力方式を示した図である。
図8Aは、第1の円形ジェスチャー810が入力された後、少しの間の待機時間が経過し、第2の円形ジェスチャー820が入力されることを示している。図8A及び図8Bでは、3個の映像フレームを通じて一つのジェスチャーUIを受信することを示している。
図8Aを参照すれば、カメラ装置100は、カメラ110を通じて第11のフレーム811、第12のフレーム812、第13のフレーム813の各々に対応する映像を受信すると同時に、第1の円形ジェスチャー810をユーザまたは被写体から受信する。第1の円形ジェスチャー810の入力が完了すれば、カメラ装置100は、第1の円形ジェスチャー810に対応する動作であるズームイン動作を実行する。図8Aでズームイン動作を実行する間には、カメラ110は、ジェスチャーUIを受信せずに待機する。ズームイン動作が完了すれば、カメラ110は、第2の円形ジェスチャー820を受信する。第2の円形ジェスチャー820も第1の円形ジェスチャー810と同様に、3個の映像フレーム、すなわち第21のフレーム821、第22のフレーム822及び第23のフレーム823を通じて入力される。第2の円形ジェスチャー820が入力されると、カメラ装置100は、ズームイン動作を実行する。またカメラ110は、該当ズームイン動作が実行される間には、別途のジェスチャーUIを受信せずに待機する。
図8Bを参照すれば、カメラ装置100は、カメラ110を通じて第31のフレーム831、第32のフレーム832、第33のフレーム833の各々に対応する映像を受信する間、第3の円形ジェスチャー830をユーザまたは被写体から受信する。第3の円形ジェスチャー830の入力が完了すれば、カメラ装置100は、第3の円形ジェスチャー830に対応する動作であるズームイン動作を実行する。図8Bでズームイン動作を実行する間にも、カメラ110は、ジェスチャーUIを受信することができる。それによってカメラ装置100は、ズームイン動作を実行すると同時に第41のフレーム841(図示せず)に該当する映像を受信することができる。またカメラ装置100は、ズームイン動作が実行された以後、続けて第42のフレーム842、第43のフレーム843に該当する映像をカメラ110を通じて受信する。第41のフレーム841、第42のフレーム842及び第43のフレーム843を通じて第4の円形ジェスチャー840が入力されると、カメラ装置100は、第4の円形ジェスチャー840に該当するズームイン動作を実行する。
上記のように本発明によるカメラ装置100は、ジェスチャーUIを受信すると同時に、以前に入力された以前ジェスチャーUIに対応する動作を実行することができる。また一つのジェスチャーUIの入力が完了してこそ該当ジェスチャーUIに対応する動作を実行し、次のジェスチャーUIを受信することもできる。このようにジェスチャーUIを受信すると同時にジェスチャーUIに対応する動作を実行するか否かは、ユーザ入力部152を通じて入力されるユーザ入力によって決定されることができる。
図9A乃至図9Dは、本発明の別の実施形態によるカメラ装置を通じて入力される被写体のジェスチャーUIを示した図である。
図9A乃至図9Dは、円形ジェスチャーのうち、ズームイン動作を遂行するためのズームインジェスチャーに対応する動きを行っている被写体に対する映像フレームを示している。
図9Aに示したように、被写体901がズームインジェスチャー(第1のジェスチャー)を行なえば、カメラ装置100は、ズームイン動作(第1のズームイン)を遂行して図9Bのような映像フレームを生成する。第1のジェスチャーによる第1のズームインが既に実行された状態で、図9Bのように再びズームインジェスチャー(第2のジェスチャー)が入力されると、第1のズームインによって第2のジェスチャーを行なう被写体901の一部、例えば被写体の手の軌跡がカメラ110の画角から外れることがある。図9Bでも被写体901により描かれる円の下端がカメラ110の画角から外れてカメラ110によって認識されない。従って、本発明によるカメラ装置100は、カメラ110の画角から外れた部分に対しても被写体901の動き軌跡を予測することによって、被写体901により取られる動きを正確に検出するようにする。
図9C及び図9Dもズームイン動きを行なっている被写体901に対した映像フレームを示す。図9C及び図9Dの映像フレームも、図9Bと同様に、被写体901によって取られているズームインジェスチャーがカメラ110の画角から外れている。それによってカメラ装置100のジェスチャー認識部120は、被写体901の動き軌跡を予測して被写体901がカメラ装置100に入力しようとするジェスチャーUIを検出する。
図10は、図1に示したカメラ装置の制御方法のもう一つの例を示した順序図である。
図10を参照すれば、カメラ装置100は、カメラ110を通じて入力される映像を受信する(S1002)。カメラ110は、ステップS1002で入力される映像を用いて映像フレームを生成し、生成された映像フレームをジェスチャー認識部120に伝達する。
ジェスチャー認識部120は、映像フレームに含まれた被写体を検出する(S1004)。またジェスチャー認識部120は、少なくとも一つの以前フレームと現在フレームとを比較して、ステップS1004で検出された被写体の動きを検出することができる。上記のように、制御部は被写体の動きを検出することによって第1の動き領域を決定する(S1006)。
本実施形態で、動き領域は被写体が少なくとも一つのジェスチャーUIに該当する動作を遂行する領域を示す。例えば、動き領域は被写体が両手を動かしている領域であり得る。本実施形態による制御部140は、ジェスチャー認識部120を制御して動き領域で感知されるジェスチャーだけをジェスチャーUIとして認識して受信するようにすることができる。このように動き領域で感知される動きだけをジェスチャーUIとして認識することによって、ジェスチャーUIを認識するために必要な時間を短縮することができる。また制御部140は、ジェスチャー認識部120を制御して動き領域以外の領域で感知される被写体の不必要な動きを、ノイズとして除去することでき、効率的にジェスチャーUIを認識するようにする。
上記のように第1の動き領域が決定された以後、制御部140は、第1の動き領域以外の領域でジェスチャーUIが感知されるか否かを判断する(S1008)。
ステップS1008の判断結果、第1の動き領域以外の領域でのジェスチャーUIが感知されない場合(S1008:NO)、制御部140は、特別な動作を遂行しないことがある。実施形態によってカメラ装置100のジェスチャー認識部120は、持続的に第1の動き領域での被写体の動きをジェスチャーUIとして認識することができる。
ステップS1008の判断結果、第1の動き領域以外の領域でのジェスチャーUIが感知された場合(S1008:YES)、制御部140は、該当ジェスチャーUIの信頼度が基準値以上であるか否かを判断する(S1010)。
ステップS1010の判断結果、ジェスチャーUIの信頼度が基準値以上である場合(S1010:YES)、制御部140は、該当ジェスチャーUIが感知された領域を第2の動き領域として決定する(S1012)。第2の動き領域が決定されると、ジェスチャー認識部120は、第2の動き領域でのジェスチャーを優先的に検出することができ、制御部140は、第2の領域で検出されたジェスチャーを優先的にジェスチャーUIとして決定することができる。上記のように、ジェスチャー認識部120は、第2の動き領域でなされるジェスチャーUIを感知する(S1014)。
ステップS1010の判断結果、ジェスチャーUIの信頼度が基準値未満である場合(S1010:NO)、制御部140は、格別な動作を遂行しないで現在状態を維持することができる。
実施形態によって制御部140は、第1の動き領域で感知されるジェスチャーUIと第1の動き領域以外の領域で感知されるジェスチャーUIの信頼度を比較して信頼度がより高い領域を第2の動き領域として決定することができる。
図11は、図1に示したカメラ装置の制御方法のもう一つの例を示した順序図である。
図11を参照すれば、カメラ装置100は、カメラ110を通じて入力される映像を受信する(S1102)。カメラ110は、ステップS1102で入力される映像を用いて映像フレームを生成し、生成された映像フレームをジェスチャー認識部120に伝達する。
ジェスチャー認識部120は、映像フレームに含まれた被写体を検出する(S1104)。またジェスチャー認識部120は、被写体の中でも手(hand)を検出する(S1106)。本実施形態でカメラ装置100は、被写体の手追跡(Hand Tracking)をリアルタイムで遂行することによって、被写体からジェスチャーUIを受信することができる。本実施形態でカメラ装置100のメモリ130には、被写体の手に対する各種データ、例えば手のイメージ、大きさ、形態、輪郭線などに対する情報が保存されていることができる。実施形態によって図11に示した方法が遂行される前に、被写体によって予め被写体の手を撮影したイメージがメモリ130に保存されていることもできる。
それによってカメラ装置100のカメラ110は、被写体の手の動きを追跡する(S1108)。制御部140は、追跡された手の動きがジェスチャーUIに該当するか否かを判断する(S1110)。この時、図5A乃至図5Dに示したようなジェスチャーUI及びジェスチャーUIの各々に対応する動作または命令は、メモリ130に予め保存されていることができる。制御部140は、メモリ130に保存されたジェスチャーUIのうち少なくとも一つがステップS1108で追跡された手の動きにマッチされるか否かを判断し、マッチされる場合、該当する手の動きをジェスチャーUIとして決定することができる。
ステップS1110の判断結果、手の動きがジェスチャーUIに該当する場合(S1110:YES)、制御部140は、ジェスチャーUIに対応する動作を実行するようにカメラ装置100を制御する(S1112)。
ステップS1110の判断結果、手の動きがジェスチャーUIに該当しない場合(S1110:NO)、制御部140は、カメラ装置100が格別な動作を遂行しないで待機するように制御することができる。
図12は、図1に示したカメラ装置の制御方法のもう一つの例を示した順序図である。
図12を参照すれば、カメラ装置100は、カメラ110を通じて入力される映像を受信する(S1202)。カメラ110は、ステップS1202で入力される映像を用いて映像フレームを生成し、生成された映像フレームをジェスチャー認識部120に伝達する。
ジェスチャー認識部120は、映像フレームに含まれた被写体を検出する(S1204)。またジェスチャー認識部120は、少なくとも一つの以前フレームと現在フレームとを比較して、ステップS1204で検出された被写体の動きを検出することができる。上記のように被写体及び該当被写体による動きが検出されると、ジェスチャー認識部120は、該当被写体から入力されるジェスチャーUIを感知する(S1206)。
制御部140は、ステップS1206で感知されたジェスチャーUIがズームインジェスチャーであるか否かを判断する(S1208)。
ステップS1208の判断結果、ズームインジェスチャーでない場合(S1208:NO)、制御部140は、ステップS1206で感知されたジェスチャーUIに対応する動作を実行するようにカメラ装置100を制御する(S1210)。この時、ジェスチャーUIは、例えばアウトジェスチャー、撮影ジェスチャー、撮影モード変更ジェスチャーなどであり得る。
ステップS1208の判断結果、ズームインジェスチャーである場合(S1208:YES)、制御部140は、ズームインされる総倍率が臨界値、すなわち臨界倍率以上であるか否かを判断する(S1212)。ステップS1212の判断結果、ズームインされる総倍率が臨界値未満である場合(S1212:NO)、制御部140は、ズームイン動作を遂行するようにカメラ装置100を制御する(S1214)。
ステップS1212の判断結果、ズームインされる総倍率が臨界値以上である場合(S1212:YES)、制御部140は、該当臨界値までズームインするようにカメラ装置100を制御する(S1216)。
実施形態によって制御部140は、カメラ110を通じて入力される被写体の動き軌跡がカメラ110を通じて入力される映像から外れた場合、すなわちカメラ110の画角から外れた場合には、カメラ装置100の現在倍率が臨界値に至ったと決定することができる。
図13は、本発明のもう一つの実施形態によるカメラ装置を通じて入力される被写体のジェスチャーUIを示した図である。図13のカメラ装置100は、カメラ110を通じて被写体1301からズームインジェスチャーだけを受信しているとと仮定する。
図13を参照すれば、カメラ110により生成された第1のフレーム1310は、被写体1301が第1のズームインジェスチャー1311をカメラ110に入力しているものである。カメラ装置100は、第1のズームインジェスチャー1311を受信してズームイン動作を遂行し、該当ズームイン動作が遂行されることによってカメラ110は、第2のフレーム1320を生成する。この時、カメラ装置100のズームイン倍率が臨界値に到達したと仮定する。
第2のフレーム1320での被写体1301は、第1のフレーム1310と同様にズームインジェスチャー、すなわち第2のズームインジェスチャー1321をカメラ装置100に入力している。しかしながら、カメラ装置100のズームイン倍率が既に臨界値に到達したので、カメラ装置100は、これ以上のズームイン動作を遂行しない。それによってカメラ110により生成された第3のフレーム1330は、第2のフレーム1320と同じ倍率を有するようになる。
例えば、第1のフレーム1310の被写体1301は、第1のズームインジェスチャー1311をカメラ装置100に入力することによって、カメラ装置100にレンズの3倍ズームインを要請したと仮定する。レンズが3倍ズームインされた以後、被写体1301は、第1のズームインジェスチャー1311と同じズームインジェスチャーである第2のズームインジェスチャー1321をカメラ装置100に入力することによって、カメラ装置100にさらにレンズの3倍ズームインを要請した。
本実施形態によるカメラ装置100での拡大または縮小される倍率が以前倍率に現在倍率を加算したものと仮定すれば、図13での総倍率は、第1のズームインジェスチャー及び第2のズームインジェスチャーの各々に該当する倍率によって総6倍となる。すなわち被写体1301は、第1のズームインジェスチャー1311及び第2のズームインジェスチャー1321をカメラ装置100に続けて入力することによって、倍率6倍であるズームインをカメラ装置100に要請しているものである。
この時、図13に示したカメラ装置100がズームイン可能な臨界値、すなわち臨界倍率が3倍と仮定する。すなわち、カメラ装置100がズームイン動作を3倍まで遂行すると仮定する。第2のフレーム1320が臨界値に到達した状態で生成したフレームに該当するので、カメラ装置100は、これ以上のズームイン動作を遂行しない。図13を参照すれば、第2のフレーム1320が生成された以後にはカメラ装置100がズームイン動作を遂行しない。それによって第2のフレーム1320が生成される間に、第2のズームインジェスチャー1321がカメラ装置100に入力されたが、第2のズームインジェスチャー1321が入力された以後、カメラ装置100により生成された第3のフレーム1330は第2のフレーム1320と同じ倍率を有する。
実施形態によってカメラ装置100の制御部140は、被写体1301から入力されているジェスチャーUIの軌跡がフレーム1310、1320、1330を離脱した場合にも、これ以上のズームイン動作を遂行しないようにカメラ装置100を制御することができる。第2のフレーム1320を参照すれば、被写体1301により入力されている第2のズームインジェスチャー1321が第2のフレーム1320の範囲を外れている。それによって制御部140は、カメラ装置100がこれ以上のズームイン動作を遂行されないように制御する。これ以上のズームイン動作を遂行することができないので、カメラ装置100は、第2のフレーム1320と同じ倍率を有する第3のフレーム1330を生成する。
本発明の実施形態によるカメラ装置の制御方法は、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合せの形態で実現することができる。このような任意のソフトウェアは、例えば、削除又は再記録可能の可否と関係なく、ROMなどの記憶装置のような揮発性又は不揮発性記憶装置、又は、例えば、RAM、メモリチップ、装置又は集積回路のようなメモリ、又は例えばCD、DVD、磁気ディスク又は磁気テープなどの光学的又は磁気的に読み取り可能な媒体に記憶され得る。本発明の実施形態による制御方法は、制御部及びメモリを含むコンピュータ及び携帯端末により実現されることができ、メモリは、本発明の実施形態を実現する指示を含むプログラム又はプログラムを記録するのに適合した機械で読み取り可能な記録媒体の一例であることがわかる。したがって、本発明は、本明細書の任意の請求項に記載された装置又は方法を実現するためのコードを含むプログラム及びこのようなプログラムを記録する機械(コンピュータなど)で読み取る格納媒体を含む。また、このようなプログラムは、有線又は無線接続を通じて送信される通信信号のような任意の媒体を通じて電子的に移送され、本発明は、これと均等なことを適切に含む。
また、カメラ装置は、有線又は無線で接続されるプログラム提供装置からプログラムを受信し格納することができる。プログラム提供装置は、カメラ装置が予め定められたコンテンツ保護方法を実行するようにする指示を含むプログラムと、コンテンツ保護方法に必要な情報を記憶するためのメモリと、カメラ装置との有線又は無線通信を実行するための通信部と、カメラ装置の要請又は自動で対応するプログラムを送受信装置に送信する制御部とを含むことができる。
以上、本発明を具体的な実施形態を参照して詳細に説明してきたが、本発明の範囲及び趣旨を逸脱することなく様々な変更が可能であるということは、当業者には明らかであり、本発明の範囲は、上述の実施形態に限定されるべきではなく、特許請求の範囲の記載及びこれと均等なものの範囲内で定められるべきものである。
110 カメラ
120 ジェスチャー認識部
130 メモリ
140 制御部
152 ユーザ入力部
154 ディスプレイ部

Claims (15)

  1. カメラ装置を制御する方法であって、
    カメラを通じて入力される映像を受信して現在フレームを生成するステップと、
    前記現在フレームと前記現在フレーム以前に保存された少なくとも一つの以前フレームとを比較して、前記現在フレーム及び前記少なくとも一つの以前フレームに含まれた被写体のジェスチャーを検出するステップと、
    前記ジェスチャーが予め定められたジェスチャーであるジェスチャーUIであるか否かを判断するステップと、
    前記ジェスチャーがジェスチャーUIである場合、前記ジェスチャーUIに対応する動作を実行するステップと、を含むことを特徴とするカメラ装置の制御方法。
  2. 前記現在フレームと前記少なくとも一つの以前フレームとを比較して前記被写体を検出するステップをさらに含むことを特徴とする請求項1に記載のカメラ装置の制御方法。
  3. 前記ジェスチャーがジェスチャーUIであるか否かを判断するステップは、
    前記ジェスチャーが予め保存された複数個のジェスチャーUIのうち一つと同一であると、前記ジェスチャーを前記ジェスチャーUIとして決定するステップを含むことを特徴とする請求項1に記載のカメラ装置の制御方法。
  4. 前記被写体のジェスチャーを検出するステップは、
    前記現在フレームと前記少なくとも一つの以前フレームとを比較して前記被写体の動きが予め保存された基準値以上である動き領域を検出するステップと、
    前記動き領域で前記被写体が動く動き軌跡を予測するステップと、
    前記動き軌跡を含み、前記ジェスチャーを決定するステップと、を含むことを特徴とする請求項1に記載のカメラ装置の制御方法。
  5. 前記ジェスチャーUIに対応する動作は、
    ズームイン、ズームアウト、撮影、シャッター速度の調節、ISO増減、撮影モードの選択のうち少なくとも一つを含むことを特徴とする請求項1に記載のカメラ装置の制御方法。
  6. 前記被写体の動きが予め保存された基準値以上である動き領域を決定するステップをさらに含むことを特徴とする請求項2に記載のカメラ装置の制御方法。
  7. 前記被写体のジェスチャーを検出するステップは、
    前記動き領域で感知される被写体の動きを前記ジェスチャーとして検出するステップを含むことを特徴とする請求項6に記載のカメラ装置の制御方法。
  8. 前記動き領域以外の他の領域から前記基準値以上である被写体の動きが感知される場合、前記他の領域を前記動き領域として再設定するステップと、
    前記動き領域として再設定された前記他の領域から感知される被写体の動きを前記ジェスチャーとして検出するステップと、をさらに含むことを特徴とする請求項7に記載のカメラ装置の制御方法。
  9. 前記他の領域を前記動き領域として再設定するステップは、
    前記動き領域以外の他の領域から感知される動きの信頼度が前記動き領域から感知されるジェスチャーの信頼度より大きい場合、前記他の領域を前記動き領域として再設定するステップを含むことを特徴とする請求項8に記載のカメラ装置の制御方法。
  10. 前記被写体のジェスチャーを検出するステップは、
    前記現在フレーム及び前記少なくとも一つの以前フレームに基づいて前記被写体の手を検出するステップと、
    前記手の動きを前記ジェスチャーとして決定するステップと、を含むことを特徴とする請求項1に記載のカメラ装置の制御方法。
  11. 前記ジェスチャーUIに対応する動作を実行するステップは、
    前記ジェスチャーUIに対応する動作がズームイン動作であるか否かを判断するステップと、
    前記ジェスチャーUIに対応する動作が前記ズームイン動作である場合、前記カメラに前記ズームイン動作に対応する倍率を適用した総倍率を演算するステップと、
    前記総倍率が予め保存された臨界倍率を超過するか否かを判断するステップと、
    前記総倍率が前記臨界倍率を超過する場合、前記臨界倍率までズームインするように前記カメラを制御するステップと、を含むことを特徴とする請求項1に記載のカメラ装置の制御方法。
  12. 前記ジェスチャーUIに対応する動作を実行するステップは、
    前記ジェスチャーUIに対応する動作がズームイン動作であるか否かを判断するステップと、
    前記ジェスチャーUIに対応する動作が前記ズームイン動作である場合、前記ジェスチャーUIが前記カメラの画角から外れるか否かを判断するステップと、
    前記ジェスチャーUIが前記カメラの画角から外れる場合、予め保存された臨界倍率までズームインするように前記カメラを制御するステップと、を含むことを特徴とする請求項1に記載のカメラ装置の制御方法。
  13. カメラ装置であって、
    外部から入力される映像を受信して現在フレームを生成するカメラと、
    前記現在フレームと前記現在フレーム以前に保存された少なくとも一つの以前フレームとを比較して、前記現在フレーム及び前記少なくとも一つの以前フレームに含まれた被写体のジェスチャーを検出するジェスチャー認識部と、
    前記ジェスチャーが予め定められたジェスチャーであるジェスチャーUIであるか否かを判断し、前記ジェスチャーが前記ジェスチャーUIである場合、前記ジェスチャーUIに対応する動作を実行する制御部と、を含むことを特徴とするカメラ装置。
  14. 前記ジェスチャー認識部は、
    前記現在フレームと前記少なくとも一つの以前フレームとを比較して前記被写体を検出することを特徴とする請求項13に記載のカメラ装置。
  15. 複数個のジェスチャーUIと前記複数個のジェスチャーUIの各々に対応する動作を保存するメモリをさらに含み、
    前記制御部は、
    前記ジェスチャー認識部により検出された前記ジェスチャーが前記メモリに保存された前記複数個のジェスチャーUIのうちいずれの一つと同一であるか否かを判断し、前記ジェスチャーが前記複数個のジェスチャーUIのうちいずれの一つと同一である場合、前記ジェスチャーを前記ジェスチャーUIとして決定することを特徴とする請求項13に記載のカメラ装置。
JP2013082754A 2012-04-13 2013-04-11 カメラ装置及びその制御方法 Expired - Fee Related JP6316540B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20120038310 2012-04-13
KR10-2012-0038310 2012-04-13
KR1020130025306A KR102070598B1 (ko) 2012-04-13 2013-03-08 카메라 장치 및 그의 제어 방법
KR10-2013-0025306 2013-03-08

Publications (2)

Publication Number Publication Date
JP2013223244A true JP2013223244A (ja) 2013-10-28
JP6316540B2 JP6316540B2 (ja) 2018-04-25

Family

ID=48184015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013082754A Expired - Fee Related JP6316540B2 (ja) 2012-04-13 2013-04-11 カメラ装置及びその制御方法

Country Status (4)

Country Link
US (1) US9654685B2 (ja)
EP (1) EP2651117B1 (ja)
JP (1) JP6316540B2 (ja)
CN (2) CN108900767B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016021258A1 (ja) * 2014-08-04 2016-02-11 求 藤川 装置、装置の制御方法
JP2016092684A (ja) * 2014-11-07 2016-05-23 カシオ計算機株式会社 撮像装置、撮像制御方法、及びプログラム
WO2017134933A1 (ja) * 2016-02-04 2017-08-10 富士フイルム株式会社 撮影支援装置及びその作動方法並びに作動プログラム
JPWO2017104207A1 (ja) * 2015-12-16 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021140409A (ja) * 2020-03-04 2021-09-16 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
US11451705B2 (en) 2020-05-19 2022-09-20 Canon Kabushiki Kaisha Imaging control apparatus, imaging control method, and storage medium

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013033954A1 (zh) 2011-09-09 2013-03-14 深圳市大疆创新科技有限公司 陀螺式动态自平衡云台
KR20140099111A (ko) * 2013-02-01 2014-08-11 삼성전자주식회사 카메라 장치의 동작을 제어하는 방법 및 상기 카메라 장치
US8903568B1 (en) * 2013-07-31 2014-12-02 SZ DJI Technology Co., Ltd Remote control method and terminal
WO2015051501A1 (en) 2013-10-08 2015-04-16 SZ DJI Technology Co., Ltd Apparatus and methods for stabilization and vibration reduction
KR20150068001A (ko) 2013-12-11 2015-06-19 삼성전자주식회사 센서를 이용한 동작 인식 방법 및 장치
KR20150078275A (ko) * 2013-12-30 2015-07-08 삼성전자주식회사 움직이는 피사체 촬영 장치 및 방법
US10057483B2 (en) * 2014-02-12 2018-08-21 Lg Electronics Inc. Mobile terminal and method thereof
KR102294599B1 (ko) * 2014-09-02 2021-08-27 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US10602054B2 (en) * 2014-09-12 2020-03-24 Microsoft Technology Licensing, Llc Video capture with privacy safeguard
CN104469159A (zh) * 2014-12-15 2015-03-25 乐视致新电子科技(天津)有限公司 一种拍照参数调整方法和装置
CN104735357A (zh) * 2015-03-27 2015-06-24 天脉聚源(北京)教育科技有限公司 一种自动拍照的方法和装置
US10156909B2 (en) * 2015-04-17 2018-12-18 Mitsubishi Electric Corporation Gesture recognition device, gesture recognition method, and information processing device
KR102404790B1 (ko) 2015-06-11 2022-06-02 삼성전자주식회사 카메라의 초점을 변경하는 방법 및 장치
US10503264B1 (en) * 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
US10165199B2 (en) 2015-09-01 2018-12-25 Samsung Electronics Co., Ltd. Image capturing apparatus for photographing object according to 3D virtual object
US10530731B1 (en) 2016-03-28 2020-01-07 Snap Inc. Systems and methods for chat with audio and video elements
JP6742173B2 (ja) * 2016-06-30 2020-08-19 キヤノン株式会社 焦点調節装置及び方法、及び撮像装置
US10691217B2 (en) * 2017-04-20 2020-06-23 Fuji Xerox Co., Ltd. Methods and systems for providing a camera-based graphical user interface
US10868955B2 (en) 2017-09-05 2020-12-15 Facebook, Inc. Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US10805521B2 (en) 2017-09-05 2020-10-13 Facebook, Inc. Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
CN109254649A (zh) * 2018-08-02 2019-01-22 东南大学 一种基于封闭式座舱的高效交互系统
CN112822388B (zh) 2019-11-15 2022-07-22 北京小米移动软件有限公司 拍摄模式的触发方法、装置、设备及存储介质
CN113766293B (zh) * 2020-06-05 2023-03-21 北京字节跳动网络技术有限公司 信息显示方法、装置、终端及存储介质
CN117939287A (zh) * 2021-06-16 2024-04-26 荣耀终端有限公司 一种异常提示方法及电子设备
US20220405907A1 (en) * 2021-06-20 2022-12-22 Microsoft Technology Licensing, Llc Integrated system for detecting and correcting content

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200267A (ja) * 1998-12-28 2000-07-18 Casio Comput Co Ltd 入力文字変換装置およびそのプログラム記録媒体
JP2001111881A (ja) * 1999-10-07 2001-04-20 Internatl Business Mach Corp <Ibm> 撮像装置及びその遠隔操作方法
JP2010028446A (ja) * 2008-07-18 2010-02-04 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
US20110289456A1 (en) * 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Modifiers For Manipulating A User-Interface
JP2012015661A (ja) * 2010-06-29 2012-01-19 Fujifilm Corp 撮像装置及び撮像方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
JP4006856B2 (ja) * 1998-11-02 2007-11-14 富士フイルム株式会社 電子カメラシステム及びその制御方法
US6944315B1 (en) * 2000-10-31 2005-09-13 Intel Corporation Method and apparatus for performing scale-invariant gesture recognition
JP4030547B2 (ja) 2003-03-28 2008-01-09 富士通株式会社 撮影装置および個人識別システム
US20040196400A1 (en) * 2003-04-07 2004-10-07 Stavely Donald J. Digital camera user interface using hand gestures
TW200816798A (en) * 2006-09-22 2008-04-01 Altek Corp Method of automatic shooting by using an image recognition technology
WO2010011929A1 (en) * 2008-07-25 2010-01-28 Gesturetek, Inc. Enhanced detection of waving engagement gesture
JP4497236B2 (ja) * 2008-08-11 2010-07-07 オムロン株式会社 検出用情報登録装置、電子機器、検出用情報登録装置の制御方法、電子機器の制御方法、検出用情報登録装置制御プログラム、電子機器の制御プログラム
JP4561914B2 (ja) 2008-09-22 2010-10-13 ソニー株式会社 操作入力装置、操作入力方法、プログラム
EP2384465A1 (en) * 2009-01-21 2011-11-09 Thomson Licensing Method to control media with face detection and hot spot motion
JP5259464B2 (ja) * 2009-03-13 2013-08-07 オリンパスイメージング株式会社 撮像装置およびそのモード切換え方法
JP5205337B2 (ja) * 2009-06-18 2013-06-05 富士フイルム株式会社 ターゲット追跡装置および画像追跡装置ならびにそれらの動作制御方法ならびにディジタル・カメラ
KR20110007806A (ko) * 2009-07-17 2011-01-25 삼성전자주식회사 카메라를 이용하여 손동작을 인식하는 장치 및 방법
KR20110060296A (ko) 2009-11-30 2011-06-08 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
CN101742114A (zh) * 2009-12-31 2010-06-16 上海量科电子科技有限公司 通过手势识别来决定拍摄操作的方法及装置
JP5757063B2 (ja) 2010-03-29 2015-07-29 ソニー株式会社 情報処理装置および方法、並びにプログラム
CN102270035A (zh) * 2010-06-04 2011-12-07 三星电子株式会社 以非触摸方式来选择和操作对象的设备和方法
CN102339125A (zh) * 2010-07-23 2012-02-01 夏普株式会社 信息设备及其控制方法和系统
KR101298024B1 (ko) * 2010-09-17 2013-08-26 엘지디스플레이 주식회사 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치
KR20120051212A (ko) 2010-11-12 2012-05-22 엘지전자 주식회사 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치
CN102420942A (zh) * 2011-11-28 2012-04-18 康佳集团股份有限公司 一种基于拍照设备的拍照控制方法及拍照设备
KR101900303B1 (ko) 2011-12-28 2018-09-20 삼성전자주식회사 사용자 입력에 따른 멀티미디어 검색 장치 및 방법
KR20140099111A (ko) * 2013-02-01 2014-08-11 삼성전자주식회사 카메라 장치의 동작을 제어하는 방법 및 상기 카메라 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200267A (ja) * 1998-12-28 2000-07-18 Casio Comput Co Ltd 入力文字変換装置およびそのプログラム記録媒体
JP2001111881A (ja) * 1999-10-07 2001-04-20 Internatl Business Mach Corp <Ibm> 撮像装置及びその遠隔操作方法
JP2010028446A (ja) * 2008-07-18 2010-02-04 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
US20110289456A1 (en) * 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Modifiers For Manipulating A User-Interface
JP2012015661A (ja) * 2010-06-29 2012-01-19 Fujifilm Corp 撮像装置及び撮像方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016021258A1 (ja) * 2014-08-04 2016-02-11 求 藤川 装置、装置の制御方法
JP2016092684A (ja) * 2014-11-07 2016-05-23 カシオ計算機株式会社 撮像装置、撮像制御方法、及びプログラム
JPWO2017104207A1 (ja) * 2015-12-16 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017134933A1 (ja) * 2016-02-04 2017-08-10 富士フイルム株式会社 撮影支援装置及びその作動方法並びに作動プログラム
JPWO2017134933A1 (ja) * 2016-02-04 2018-12-06 富士フイルム株式会社 撮影支援装置及びその作動方法並びに作動プログラム
US10732485B2 (en) 2016-02-04 2020-08-04 Fujifilm Corporation Imaging support device, and method for operating imaging support device
JP2021140409A (ja) * 2020-03-04 2021-09-16 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7184835B2 (ja) 2020-03-04 2022-12-06 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7418709B2 (ja) 2020-03-04 2024-01-22 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
US11451705B2 (en) 2020-05-19 2022-09-20 Canon Kabushiki Kaisha Imaging control apparatus, imaging control method, and storage medium

Also Published As

Publication number Publication date
US9654685B2 (en) 2017-05-16
EP2651117B1 (en) 2019-04-03
CN103379274B (zh) 2018-07-20
EP2651117A3 (en) 2017-03-15
US20130271618A1 (en) 2013-10-17
CN108900767B (zh) 2021-07-20
JP6316540B2 (ja) 2018-04-25
CN108900767A (zh) 2018-11-27
EP2651117A2 (en) 2013-10-16
CN103379274A (zh) 2013-10-30

Similar Documents

Publication Publication Date Title
JP6316540B2 (ja) カメラ装置及びその制御方法
US11119577B2 (en) Method of controlling an operation of a camera apparatus and a camera apparatus
EP2975838B1 (en) Image shooting parameter adjustment method and device
JP6587628B2 (ja) 命令生成方法及び装置
US9438789B2 (en) Display control apparatus and display control method
US10222903B2 (en) Display control apparatus and control method thereof
EP2887648B1 (en) Method of performing previewing and electronic device for implementing the same
JP7110443B2 (ja) 撮影方法及び撮影装置、電子機器、記憶媒体
US11496670B2 (en) Electronic device with display screen capable of reliable detection of a user selected displayed eye region in a scene to be captured, and region selection method
KR102070598B1 (ko) 카메라 장치 및 그의 제어 방법
JP6442266B2 (ja) 撮像制御装置、その制御方法、プログラム、及び記憶媒体
JP2011035765A (ja) 画像処理装置および画像処理方法
US10120496B2 (en) Display control apparatus and control method thereof
JP2021067807A (ja) 撮像制御装置、その制御方法およびプログラム
KR102145523B1 (ko) 카메라 장치의 동작을 제어하는 방법 및 상기 카메라 장치
JP6393296B2 (ja) 撮像装置及びその制御方法、撮像制御装置、プログラム、並びに記憶媒体
KR102238635B1 (ko) 카메라 장치의 동작을 제어하는 방법 및 상기 카메라 장치
JP2016045813A (ja) ズーム制御装置およびその制御方法
JP5562479B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6120541B2 (ja) 表示制御装置及びその制御方法
JP6210821B2 (ja) 映像記録装置及びその制御方法、プログラム、並びに記憶媒体
KR20100098116A (ko) 디지털 카메라 및 그 제어방법
JP2015076639A (ja) 画像記録装置及び画像記録方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180328

R150 Certificate of patent or registration of utility model

Ref document number: 6316540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees