JP5885395B2 - 撮影機器及び画像データの記録方法 - Google Patents

撮影機器及び画像データの記録方法 Download PDF

Info

Publication number
JP5885395B2
JP5885395B2 JP2011101295A JP2011101295A JP5885395B2 JP 5885395 B2 JP5885395 B2 JP 5885395B2 JP 2011101295 A JP2011101295 A JP 2011101295A JP 2011101295 A JP2011101295 A JP 2011101295A JP 5885395 B2 JP5885395 B2 JP 5885395B2
Authority
JP
Japan
Prior art keywords
range
imaging
unit
photographing
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011101295A
Other languages
English (en)
Other versions
JP2012235225A (ja
Inventor
健一 堀江
健一 堀江
松音 英明
英明 松音
佳之 福谷
佳之 福谷
健世 伊藤
健世 伊藤
野中 修
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011101295A priority Critical patent/JP5885395B2/ja
Priority to CN201210045508.4A priority patent/CN102761684B/zh
Publication of JP2012235225A publication Critical patent/JP2012235225A/ja
Application granted granted Critical
Publication of JP5885395B2 publication Critical patent/JP5885395B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、撮影機器及び画像データの記録方法、詳しくは撮影者が機器を手に持って構えることなく、また操作部材を用いることなく撮影を実行し、撮影者の意図を反映した撮影結果を得られる撮影機器と、この撮影機器を用いた画像データの記録方法に関するものである。
従来の撮影機器を用いて撮影を行なう際には、撮影者は、まず撮影機器を手に持って、ファインダー若しくは表示装置等を視認することで撮影を所望する構図を任意に決定し、しかる後に、撮影機器に備わる操作部材を用いて撮影を開始させる操作を行なうという一連の操作手順を必要とするのが普通である。
その一方、近年においては、撮影者が撮影機器を手に保持することなく所望の撮影を実行し得るようにする技術が、例えば特開2009−10987号公報(特許第4449082号公報)等によって種々提案されている。
上記特開2009−10987号公報等によって開示されている撮影機器は、頭部に装着した撮影機器と、撮影者の手指等に装着した座標検出マーカと、撮影者の手の位置や形状等の情報に基づいて撮像手段による撮影動作の制御や撮影結果(撮影画像)についての画像処理を制御する制御手段とを具備し、撮像手段によって取得される全撮影範囲の画像から切り出し範囲の画像を切り出して記録するというものである。
特開2009−10987号公報(特許第4449082号)
ところが、上記特開2009−10987号公報等によって開示されている撮影機器は、頭部に装着する構造を備えた専用構造の撮影機器と、撮影動作の指示や撮影範囲を指定する等のために撮影者が手指等に装着する座標検出マーカ等の専用の構成部材が必要になるという問題点がある。
一方、近年においては、撮像素子等によって取得した画像データに基いて人の手や指の動き,ジェスチャー(gesture;身振り,手振り)等を認識して、機器自体や操作部材等に触れることなく機器の操作を可能とするいわゆる非接触型インターフェースに関する技術が種々提案されている。
このような技術を有効に利用すれば、上記公報等による手段においては必要とされていた座標検出マーカ等の構成を不要とすることができ、さらに至便なものとなる。
本発明は、上述した点に鑑みてなされたものであって、その目的とするところは、通常の形態の撮影機器であっても、撮影の際に撮影者が撮影機器を手に持って構えたり、各種の操作部材を操作することなく、所望の撮影を行なうことのできる撮影機器を提供することである。
上記目的を達成するために、本発明の一態様の撮影機器は、撮像素子及び撮影レンズを備えた撮像部と、機器全体を制御する制御手段と、上記撮像部によって取得された画像データに基いてジェスチャー解析を行なうジェスチャー解析部と、上記ジェスチャー解析部によるデータ解析結果に基いて上記撮像部の全撮影範囲のうちの一部の撮影範囲を判定する範囲判定部と、上記範囲判定部によって判定された撮影範囲に対応する画像データを記録する記録部と、を具備し、上記制御手段は、上記範囲判定部を制御し、上記ジェスチャー解析部による上記データ解析結果により得られた、該機器前方で検出された該機器使用者の指形状及びその位置情報に基づいて上記一部の撮影範囲の画角を求めると共に、上記撮像部における上記撮影レンズの中心軸と該機器使用者の視線の延長軸との距離情報および上記機器使用者から被写体までの距離情報に基づいて上記撮影レンズの中心軸と上記撮影範囲の中心線との角度である仰角を求め、かつ、上記画角と上記仰角とに基づいて設定される上記撮影範囲における上記被写体を記録するよう上記記録部を制御する。
上記目的を達成するために、本発明の一態様の画像データの記録方法は、撮像素子及び撮影レンズを備えた撮像部によって取得された画像データに基いて撮影機器の使用者に係るジェスチャー解析を行なうジェスチャー解析ステップと、上記ジェスチャー解析ステップによるデータ解析結果に基いて上記撮像部の全撮影範囲のうちの一部の撮影範囲を判定する範囲判定ステップと、上記範囲判定ステップによって判定された撮影範囲に対応する画像データを記録部に記録する記録ステップと、を有し、上記範囲判定ステップは、上記ジェスチャー解析ステップによる上記データ解析結果により得られた、該機器前方で検出された該機器使用者の指形状及びその位置情報に基づいて上記一部の撮影範囲の画角を求めるステップと、上記撮像部における上記撮影レンズの中心軸と該機器使用者の視線の延長軸との距離情報および上記機器使用者から被写体までの距離情報に基づいて上記撮影レンズの中心軸と上記撮影範囲の中心線との角度である仰角を求めるステップと、を有し、上記記録ステップは、上記画角と上記仰角とに基づいて設定される上記撮影範囲における上記被写体を記録するよう上記記録部を制御するステップを有する。
本発明によれば、通常の形態の撮影機器であっても、撮影の際に撮影者が撮影機器を手に持って構えたり、各種の操作部材を操作することなく、所望の撮影を行なうことのできる撮影機器を提供することができる。
本発明の一実施形態の撮影機器(カメラ)の内部構成の概略を示すブロック構成図、 図1の撮影機器(カメラ)を用いて撮影する際に撮影者が行なう撮影指示用のジェスチャーの一例を示す概念図、 図1の撮影機器(カメラ)による全撮影範囲と実際の撮影範囲を示す概念図、 図1の撮影機器(カメラ)のカメラ制御メインシーケンスを示すフローチャート、 図4のステップS126の処理のサブルーチンを示すフローチャート、 図4の所定形状指画像判定処理(ステップS112の処理)のサブルーチンを示すフローチャート、 図1の撮影機器(カメラ)を用いたノーファインダー撮影モード時での撮影状況を説明する概念図であって、撮影者とカメラと被写体との位置関係の概略を示す図、 図1の撮影機器(カメラ)を用いた撮影時の状況を説明する概念図であって、(A)は通常撮影時、(B)はノーファインダー撮影モード時を示す図、 図1の撮影機器(カメラ)を用いたノーファインダー撮影モード時の撮影者の視線とカメラ光軸の関係の概念を拡大して示す概念図、 図9の状況を、光軸及び視線軸と同方向をZ軸とし、このZ軸に直交する垂直方向の軸をY軸とする座標軸として示す図、 図1の撮影機器(カメラ)を用いたノーファインダー撮影モード時において、一方の手指と、この手指が撮影レンズを介して撮像素子の受光面上に結像している状態を正面側から見た概念図、 図11の状況をX軸及びZ軸で示す座標軸として見た場合の概念図、 図1の撮影機器(カメラ)を用いたノーファインダー撮影モード時での撮影状況を説明する概念図であって、撮影者の指示する撮影範囲をノーファインダー撮影する際の様子を示す概念図、 図1の撮影機器(カメラ)を用いたノーファインダー撮影モード時における全撮影範囲の画像の概念図、 図1の撮影機器(カメラ)を用いたノーファインダー撮影モード時において所定形状指画像判定処理の実行時の全撮影範囲の画像の概念図、
以下、図示の実施の形態によって本発明を説明する。
本発明の一実施形態は、例えば光学レンズにより形成される光学像を固体撮像素子を用いて光電変換し、これによって得られる画像信号を静止画像又は動画像等を表わすデジタル画像データに変換し、これにより生成されたデジタルデータを記録媒体に記録し、また記録媒体に記録されたデジタル画像データに基いて静止画像,動画像等を表示装置に再生表示し得るように構成される撮影機器であるカメラに本発明の構成を適用した場合の例示である。
なお、本実施形態においては、撮影機器(以下、カメラという)を用いて行なう撮影時に被写体に対向しているカメラの面をカメラ前面という。同様に、カメラを用いて行なう撮影時に撮影者が対面するカメラの面をカメラ背面というものとする。また、通常の撮影時に撮影操作を行なうレリーズボタン等の操作部材が設けられている面を上面というものとする。そして、カメラの上面に対向する側の面を底面というものとする。さらに、カメラの通常の使用状態で両側に配置される面を左側面及び右側面というものとする。この場合における左右の判別は、被写体側からカメラの前面に向かって見たときの左側又は右側をそれぞれ左又は右として区別するものとする。
また、本実施形態においては、カメラの前面側に設けられる撮影レンズの光軸を符号Oで表す。そして、この光軸Oに沿う方向において、カメラの前面に対向する位置であって、被写体が存在する側を前方というものとする。また、カメラの使用時において、撮影者が存在する側を後方というものとする。
以下の説明に用いる各図面においては、各構成要素を図面上で認識可能な程度の大きさとするため、各構成要素毎に縮尺を異ならせて示している場合がある。したがって、本発明は、これらの図面に記載された構成要素の数量,構成要素の形状,構成要素の大きさの比率及び各構成要素の相対的な位置関係等は、図示の形態のみに限定されるものではない。
まず、本実施形態のカメラにおける内部構成のうち本発明に直接関わる主要構成部について、図1を用いて以下に説明する。図1は、本発明の一実施形態の撮影機器(カメラ)の内部構成の概略を示すブロック構成図である。
カメラ10は、信号処理&制御部11と、撮像部12と、高度&位置情報取得部13と、記録部14と、表示部18等を具備して構成される。
信号処理&制御部11は、カメラ10の全体を統括的に制御する制御回路であって、カメラ10内の各種の構成ユニットから入力される各種の信号を受けて、各信号に対応する各種の制御処理を行う回路部である。信号処理&制御部11は、内部にジェスチャー解析部11a,範囲判定部11b,超解像処理部11c等等を有している。
ジェスチャー解析部11aは、撮像部12によって取得された画像データに基く画像解析処理を行なって、撮影者の手指等によるジェスチャー等を認識する機能を有するソフトウエアを含む回路部である。
範囲判定部11bは、上記ジェスチャー解析部11aによる解析結果を受けて、撮影者が手指のジェスチャーによって指示された撮影範囲を判定する機能を有するソフトウエアを含む回路部である。
超解像処理部11cは、上記範囲判定部11bによる判定結果に基いて撮影取得された画像データについて、解像度を高める高解像度化処理(例えば画素補完処理等)を行なって高解像度画像データを生成する機能を有するソフトウエアを含む回路部である。
なお、本実施形態のカメラ10における信号処理&制御部11は、上述の構成部のほかに、例えば表示部18を駆動制御する表示制御回路や、撮像部12の駆動制御を行なう撮像制御回路、撮像部12によって取得した画像データについての圧縮伸張処理,加工処理等を行なう画像データ処理回路等を有する。これら不図示の処理回路,制御回路については、従来の一般的なカメラにおいて採用されている構成と同様のものであるとし、その詳細構成の説明は省略する。
撮像部12は、被写体からの光束を受けて光学像を形成する撮影レンズ(及びそのレンズ駆動機構等も含む)や、この撮影レンズによって形成された光学像を受けて光電変換する光電変換素子、この光電変換素子により生成された画像信号の前処理を行って所定のファイル形態の画像データを生成する信号処理回路等によって構成される。撮像部12によって生成された画像データは、上記信号処理&制御部11へと出力される。なお、上記光電変換素子としては、CCD(Charge Coupled Device;電荷結合素子),CMOS(Complementary Metal Oxide Semiconductor;相補型金属酸化膜半導体)等の固体撮像素子が適用される。
なお、本カメラ10における撮像部12に適用される撮影レンズは、比較的広い画角のもの、即ち一般的に広角レンズあるいは超広角レンズと呼ばれる広い画角(具体的には例えば画角100度以上)を備えた光学系が適用される。その理由は後述する。
高度&位置情報取得部13は、本カメラ10の高度情報や緯度,経度等の位置情報を取得する高度情報取得手段としての機能を有する構成部である。具体的には、例えばグローバルポジショニングシステム (Global Positioning System (GPS);全地球測位システム)を用いて、該カメラ10の現在位置の高度,緯度,経度等の位置情報を取得する構成部である。また、高度情報を取得するための手段としては、これに限らず、例えば気圧変化を測定したり、電波を利用してカメラ10自身の絶対高度を計測する高度計を備えるようにしてもよい。
記録部14は、上記撮像部12によって取得されて上記信号処理&制御部11において各種の信号処理が施された後の記録用画像データを記録蓄積するための記録媒体と、この記録媒体を駆動する駆動回路等からなる。
表示部18は、信号処理&制御部11において生成される表示用画像信号を受けて対応する画像表示や、予め用意されている設定用メニュー表示等を表示させる表示装置である。表示部18は、上記信号処理&制御部11の表示制御部(不図示)によって駆動制御される。なお、表示部18としては、例えば液晶表示装置(LCD)や有機ELディスプレイ等が適用される。また、一般的な撮影を行なう際には、表示部18は、撮像部12からの出力を連続的に表示させてライブビュー表示を行なって、電子ビューファインダーとして機能するようにもなっている。そして、後述するように、本カメラ10を用いてノーファインダー撮影を行なう際には、この電子ビューファインダー機能はオフ状態にされる。
本カメラ10は、その他の各種構成部材を具備するものであるが、上記以外の構成部材については、従来の一般的なカメラが有する構成と同様のものが採用されるものとして、それらの図示及び詳細構成の説明は省略する。
このように構成された本実施形態のカメラ10を使用して撮影を行なう際の作用の概略を以下に説明する。図2は、本実施形態のカメラ10を用いて撮影する際に、撮影者が行なう撮影指示のジェスチャーの一つの例を示す。
まず、撮影者100は、図2に示すように、カメラ10を手に持って保持することなく、例えばネックストラップやクリップ等を用いて自身の胸前付近等に保持した状態としている。したがって、この状態にあるとき撮影者の両手は自由な状態になっている。また、このとき、カメラ10の電源はオン状態にされて、撮影動作を実行し得る撮影待機状態にあるものとする。
この状態において、撮影者100は、所望の撮影範囲を両手を用いて指示するジェスチャーを行なう。例えば、図2に示す例では、撮影者100は、カメラ10の前方に両手を伸ばした状態で、両手の手指の人差指と親指を用いて二つの略L字形状100a,100bを作り、これら二つの略L字形状100a,100bを、所望の撮影範囲を想定した略矩形状の対角に位置させるというジェスチャーを行なっている。カメラ10の前で、このようなジェスチャーを行うことによって、撮影者100は所望の撮影範囲を指示するようにしている。
そして、本実施形態におけるカメラ10は、信号処理&制御部11による制御下において、次のような一連の処理を実行することによって、撮影者100が所望する撮影画像を取得する。詳細は後述するが、簡略に説明すると、
(1)撮像部12は、撮影者100の手指等を用いて行なう上述のようなジェスチャーを含む画像データを連続的に取得する、
(2)ジェスチャー解析部11aは、上記撮像部12によって連続的に取得される画像データに基いて画像解析処理を行なう、
(3)範囲判定部11bは、上記ジェスチャー解析部11aによる解析結果に基いて上記撮像部12によって取得された画像データのうち撮影者100が所望する撮影範囲や撮影タイミング等を判定する、
(4)超解像処理部11cは、上記撮像部12による全画像データから上記範囲判定部11bによって判定された撮影範囲を撮影し、取得した画像データについて、適宜必要なデータ処理(画像切り出し処理や超解像処理等)を行なう、
(5)信号処理&制御部11は、上記超解像処理部11cからの出力データを受けて所定の形態の記録用データを生成し、これを記録部14の記録媒体に記録する、
等の一連の処理を実行する。
ここで、上記(1)項,(2)項の処理を実現するために、本実施形態のカメラ10においては、広視野を得るための手段として、上述したように撮像部12における撮影レンズとして、比較的広い画角の光学系を採用している。
つまり、本実施形態のカメラ10においては、図3に示すように、本カメラ10により撮影し得る全撮影範囲の画像データに基いて、撮影者100が手指等によって任意に指示する撮影範囲(図3では二種類の範囲を同時に示している)の画像データを撮影画像として取り出すようにしている。この場合においては、例えば指示された撮影範囲の画角に応じて、撮影レンズのズーミング(光学ズーム)を行なうようにすればよい。また、全撮影範囲の画像データから指示された撮影範囲の画像データを切り出し適宜拡大等を施す画像処理(いわゆる電子ズーム処理等)を行なうようにしてもよい。
また、図2に示すような状況下において、撮影者100がカメラ10の前方に手を伸ばし、上述のようなジェスチャーを行なったときに、撮影者100の手指等が当該カメラ10の全撮影範囲に含まれるようにするためにも、広視野を得られる広画角の光学系を採用するのが望ましい。
例えば、図2に示す状態の撮影者(カメラ10を胸前付近に保持した撮影者)100に対して所定の距離だけ離れた位置に向かい合って存在する人物等の被写体を撮影する場合を考えてみる。
この場合において、撮影者100の胸前付近に保持されているカメラ10(図2参照)が撮影し得る全撮影範囲を、図3の符号A1で示す略矩形状の範囲とし、撮影対象とする人物等の被写体101は、この全撮影範囲A1内に充分に収まる位置にあるものとする。
このとき、上述したように撮影者100が手指等を用いたジェスチャー指示を行なって撮影範囲を指定すると、例えば図3の符号A2,A3等で示される略矩形状の範囲が、取得される撮影画像の撮影範囲となる。このように、比較的広い範囲に設定されている全撮影範囲に比べて、撮影者100により指示される撮影範囲が小さくなることから、取得される撮影画像には次のような問題が考えられる。
例えば、カメラ10の撮像部12に適用される撮像素子の画素数、即ち全撮影範囲の解像度が充分に高いものであっても、その中から指示される撮影範囲が狭くなるので、最終的に取得され記録される撮影画像は低解像度となってしまうので、場合によっては印刷プリントに適さない劣化画像しか得られないことがある。
具体的には、例えば、近年のカメラにおいては、撮像素子の有効画素数が約1000万〜1600万画素程度に設定されたものが一般に普及している。一方、通常品質の印刷プリントを行なったり大画面表示を行なったりするのに必要となる画素数としては、一般的に200万画素程度(ハイビジョン画像と同等の画像サイズ)であるとされている。したがって、例えば全撮影範囲の解像度が1000万画素のカメラの場合に、指示される撮影範囲が1/9程度の面積であると、そのままでは100万画素程度の画像データにしかならない。
そこで、指示された撮影範囲の画像データが、このように低解像度出ある場合、その画像データに対して、超解像処理部11cによる補完処理等の超解像処理(上記(4)項の処理)を施すことによって、印刷プリントや拡大表示を行なうのに最低限必要程度の画像データに変換する。これにより、撮影範囲が小さい場合に画質が劣化するのを抑止している。
また、超解像処理の一例としては、例えば複数回の連続撮影を行なって、複数枚の撮影データを取得し、これらの複数画像についての重ね合わせ処理等を行うことにより、画像データの補完を行なうようにしてもよい。なお、この場合において、記録部14に記録する画像データは、上記重ね合わせ処理の結果の画像データ(一つ)のみを記録するようにしてもよいし、複数の画像データのみを記録するようにしてもよいし、複数の画像データと重ね合わせ処理結果の画像データの両方を記録するようにしてもよい。
一方、撮影時においては、上述したように撮影者100がカメラ10の前方に手を伸ばし上述のジェスチャーを行なうものとしている。この場合において、撮影者100の手指によって形成される略L字形状100a,100bが、カメラ10の全撮影範囲A1内に含まれるようにしている。そして、そのジェスチャーを解析することによって、撮影範囲や撮影タイミング等を決定するようにしている。したがって、そのためにも、本カメラ10においては、撮像部12の広視野が確保されている必要がある。
他方、本実施形態のカメラ10においては、撮影者100が行なう範囲指示のためのジェスチャーとして、上述のように両手の手指等を用いて略L字形状を作り、この二つのL字形状を所望の撮影範囲を想定した略矩形状の対角に位置させるジェスチャーを例示する。
次に、本実施形態のカメラ10による撮影時の作用の詳細を、図4〜図6を用いて以下に説明する。図4は、本カメラ10のカメラ制御メインシーケンスを示すフローチャートである。図5は、図4のステップS126の処理のサブルーチンを示すフローチャートである。図6は、図4のステップS112の処理のサブルーチンを示すフローチャートである。
まず、カメラ10の電源がオン状態にあるとき、図4のステップS101において、信号処理&制御部11は、設定されている動作モードが撮影モードであるか否かの確認を行なう。ここで、撮影モードが設定されていることが確認されると、次のステップS102の処理に進む。また、撮影モード以外の動作モードが設定されている場合には、ステップS131の処理に進む。
ステップS102において、信号処理&制御部11は、撮影モード時における動作モードのうちノーファインダー撮影モードが設定されているか否かの確認を行なう。ここで、ノーファインダー撮影モードとは、表示部18に表示されるライブビュー表示等を確認せずに撮影動作を実行する場合の動作モードである。
このステップS102の処理において、ノーファインダー撮影モードが設定されている場合には、次のステップS111の処理に進む。また、ノーファインダー撮影モードが設定されていない場合、即ち通常撮影モードが設定されている場合には、ステップS103の処理に進む。このステップS103の処理以降、ステップS108までの処理シーケンスは、従来のカメラで一般的に行なわれている通常の撮影モードと略同様のシーケンスであり、本発明には直接関連しない部分であるので、その説明は簡単に説明するに留める。
即ち、ステップS103において、信号処理&制御部11は、撮像部12,表示部18を制御して、ライブビュー表示処理を実行する。
続いて、ステップS104において、信号処理&制御部11は、高度&位置情報取得部13をからの出力に基いて、本カメラ10の高度情報や緯度,経度等の位置情報を取得する。
次に、ステップS105において、信号処理&制御部11は、操作部(不図示)のうち撮影開始指示を発生させるシャッターレリーズスイッチからの指示信号の確認を行なう。ここで、撮影開始指示信号が確認された場合には、次のステップS106の処理に進む。また、撮影開始指示信号が確認されない場合には、ステップS108の処理に進む。
ステップS106において、信号処理&制御部11は、撮像部12,表示部18等を制御して、所定の撮影動作処理を実行する。
続いて、ステップS107において、信号処理&制御部11は、記録部14を制御して、上述のステップS106の処理の結果取得され一時記憶されている画像データの記録保存処理(画像ファイル化処理)を実行する。
ステップS108において、信号処理&制御部11は、電源スイッチからのオンオフ信号の出力を確認する。ここで、電源オフ信号が確認された場合には、次のステップS110の処理に進む。また、電源オフ信号が確認されない場合には、ステップS109の処理に進む。
ステップS109において、信号処理&制御部11は、動作モードの変更操作を受け付けるモード変更操作受付処理を行なう。これにより、カメラ10は、撮影待機状態となる。その後、ステップS101の処理に戻り、以降の処理を繰り返す。
ステップS110において、信号処理&制御部11は、上述のステップS108の処理における電源オフ信号を受けて、電源状態をオフ状態に切り換える電源オフ処理を実行する。その後、一連の処理シーケンスを終了する(エンド)。
一方、上述のステップS101の処理にて、設定動作モードが撮影モード以外であることが確認されてステップS131の処理に進んだ場合の処理シーケンスを、以下に説明する。なお、図4におけるステップS131の処理以降、ステップS135の処理までの処理シーケンスは、本発明には直接関連しない部分であるので、その説明は簡単に説明するに留める。
ステップS131において、信号処理&制御部11は、設定されている動作モードが再生モードであるか否かの確認を行なう。ここで、再生モードが設定されていることが確認されると、次のステップS132の処理に進む。また、再生モード以外の動作モードが設定されている場合には、対応するその他の動作モードに応じた処理シーケンスへ移行する。なお、本実施形態では、その他の動作モードについての説明は省略する。
ステップS132において、信号処理&制御部11は、記録部14,表示部18を制御して、記録部14に記録済みの画像データを読み出し、表示部18を用いて記録済み画像データの一覧表示を行なう表示処理を実行する。その後、ステップS133の処理に進む。
ステップS133において、信号処理&制御部11は、再生用画像データが選択されたか否かの確認を行なう。
例えば、カメラ10の使用者が再生を所望する画像データを選択するための所定の操作を、対応する操作部材(不図示)を操作すると、再生画像データ選択指示信号が生じる。信号処理&制御部11は、この指示信号を監視している。
そして、上述のステップS133の処理にて、再生用画像データが選択されたことが確認されると、次のステップS134の処理に進む。また、同データの選択操作が確認されない場合には、次のステップS135の処理に進む。
ステップS134において、信号処理&制御部11は、記録部14を制御して、上述のステップS133の処理にて確認された再生用画像データ選択指示信号に対応する選択画像データを読み込み、表示部18を制御して、対応画像の再生表示処理を実行する。その後、上述のステップS131の処理に戻り、以降の処理を繰り返す。
ステップS135において、信号処理&制御部11は、再生モード処理を終了する指示信号が生じたか否かを確認する。ここで、終了指示信号が確認された場合には、ステップS108の処理に進む。
他方、上述のステップS102の処理にて、ノーファインダー撮影モードの設定が確認されて、次のステップS111の処理に進むと、このステップS111において、信号処理&制御部11は、撮像部12を制御して定期的な撮像動作を実行する。ここで行われる撮像動作とは、撮像部12によって行われる光電変換処理等を含む一連の処理であるが、このステップS111の処理における撮像動作においては、記録部14による記録処理と、表示部18によるライブビュー表示処理とを伴わないものである。
また、一般的な撮像動作は、例えば30fps若しくは60fps等の間隔で行なわれるが、このステップS111の処理における撮像動作では、例えば上記一般的な間隔以下の少ない間隔で定期性を持たせて行なうようにしてもよいし、一般的な撮像間隔による定期性を持たせて行なうようにしてもよい。
ステップS112において、信号処理&制御部11は、所定形状指画像判定処理を実行する。この所定形状指画像判定処理とは、撮像部12によって取得され得る画像データに基く全撮影画像内に、所定の形状(例えば略L字形状;図2参照)に形成された撮影者100の手指等が侵入したことを、画像解析を行うことで識別し、さらに、その手指等の画像内における位置を判定する処理である。これによって、撮影者が指示する撮影範囲を判定している。なお、この所定形状指画像判定処理の詳細を図6のサブシーケンスに示す(詳細説明は後述する)。その後、ステップS113の処理に進む。
ここで、本実施形態のカメラ10においては、図4のステップS112の処理(所定形状指画像判定処理;図6参照)と、図4のステップS113の処理〜ステップS127の処理(図5のサブルーチン(図4のステップS126)を含む)とによって、撮像部12により取得された画像データに基くジェスチャー解析部11aによる画像解析処理を実行して、ノーファインダー撮影モード時の撮影が行なわれる。
なお、このノーファインダー撮影モード時における撮影状況としては、上述した図2に示す状況を想定している。また、図7〜図15においては、上述の図2に示す状況についてさらに詳しく示している。
図7は、図2の状況における撮影者100とカメラ10と被写体101(図2では不図示)との位置関係の概略を示している。この場合において、被写体101は、撮影者100に対面するように、該撮影者100から離間した位置に存在しているものとする。そして、カメラ10は、撮影者100と被写体101との間の空間で、撮影者100に近接した位置に配置される。詳しくは、カメラ10は、撮影者100の手の届く範囲内に配置される。図7に示す各符号は、以下の通りである。即ち、
D1:撮影者100から撮影者100の手指100a,100bまでの距離
D2:撮影者100から被写体101までの距離
T1:撮影者100の手指100a,100bによって指示される撮影範囲の縦方向(Y軸方向)の画面寸法
T2:被写体101上において上記寸法T1に対応する撮影領域の縦方向(Y軸方向)の寸法
ΔH:カメラ10の撮影レンズ中心軸(光軸)O1と撮影者100の視線の延長軸(撮影範囲中心)O2との間の位置ズレ寸法(垂直方向(Y軸方向)の離間距離)
φ:指示される撮影範囲によって規定される(画面縦方向(Y軸方向)の)撮影画角
とする。
このような状況にて撮影を行なうのに際して、撮影者100が手指を用いたジェスチャーによって指示される撮影範囲は、当該撮影者100の視線の延長線を略中心とし、撮影者100から所定の距離だけ離れた空間上の略矩形状の範囲(例えば、図7において符号G1参照)となるのが自然である。
このとき、撮影者100の手指によるジェスチャーで指示される撮影範囲を、撮像部12によって取得される画像データによって識別するためには、手指等が全撮影範囲内に含まれる必要がある。上述したように、図2,図7に示す状況においては、撮影者100が両手を伸ばした状態で二つの略L字形状100a,100bを作り、これら二つの略L字形状100a,100bを任意に配置するジェスチャーによって撮影範囲を指示するようにしている。
したがって、撮影者100が、上記撮影範囲を指示するジェスチャーを行ったとき、撮影者100の手指等が、該カメラ10の撮像部12による前撮影範囲内に含まれていることが前提となる。そのためにも、本実施形態の撮影レンズは、上述したように比較的広い画角の光学系が採用される。
一方、図2,図7に示す状況では、上述したように、カメラ10が撮影者100の胸前付近に保持された状態となっていることから、該カメラ10によって撮影し得る全撮影範囲の中心軸(光軸)O1と、撮影者100の視線の延長軸(撮影範囲中心)O2との間には、図2の矢印Y方向において、図7の符号ΔHで示される位置ズレが生じる。この符号ΔHで示される位置ズレ寸法としては、例えばネックストラップを用いてカメラ10を保持しているものとすると、ΔH=約40cm程度として想定することができる。
また、この符号ΔHで示される位置ズレは、次のように示すことができる。例えば、図8(A)で示す状況は、カメラ10を手で保持して、撮影者100の視線の延長線上にカメラ10の表示部を配置するように構えた通常撮影時の状況を示している。なお、図8(A)に示す符号H0は、カメラ10自体の地面からの高度寸法を示すものとする。一方、図8(B)で示す状況は、カメラ10をストラップ等によって撮影者100の胸前付近に保持したノーファインダー撮影時の状況を示している。
このことから、上記位置ズレ寸法ΔHは、図8(A)で示す一般的な通常撮影時の状況でのカメラ位置H0と、図2,図7,図8(B)で示す本実施形態のノーファインダー撮影状況でのカメラ位置(H0−ΔH)との高度差寸法である。
ここで、図8(A)の通常カメラ位置H0と、図8(B)のノーファインダー撮影カメラ位置とは、高度&位置情報取得部13からの出力に基いて取得されるそれぞれの位置でのカメラ10の高度情報とし、両者の差を高度差寸法ΔHとしてもよい。この場合、通常カメラ位置H0の高度情報は、特定の撮影者と特定のカメラの組み合わせにおいては、所定の情報とすれば足りると考えられるので、予め設定しておくようにすればよい。
ただし、カメラ10を用いて撮影を行なう場合には、撮影者が立った状態で撮影する状況のほか、座ったりしゃがんだりして撮影を行なう等、カメラの高度が変動するのが常である。したがって、高度&位置情報取得部13からの出力に基いて、カメラ光軸O1と視線軸O2との高度差を設定する場合には、最も高い位置のものを採用するのが望ましい。このようにして、カメラ10の光軸O1と、撮影者100の視線軸O2との差ΔHが設定できる。
一方、手指によって指示される撮影範囲と、実際の被写体上の撮影範囲とは、
D1:T1=D2:T2
の関係が成り立つ。このことから、
D1×T2=D2×T1
T2=D2×T1/D1
の関係が導き出される。ここから、さらに、
Φ≒arctanT1/D1
である。したがって、手指の位置を検出するのに、上記距離情報D1,T1を求める必要がある。さらに、被写体101までの距離D2は、例えば焦点調節動作による情報から求めることが可能である。
図9は、図2,図7,図8(B)の状況(ノーファインダー撮影)における撮影者の視線とカメラ光軸の関係の概念を拡大して示す図である。図9において、撮影者100の目を符号100cで示し、カメラ10の撮像部12のうち符号12aを撮像素子、符号12bを撮影レンズとして示している。
図9において、手を伸ばした際の手指と撮影レンズ12bとの離間距離D1として、例えば約40cm程度と想定する。また、カメラ光軸O1と、視線軸O2との距離(ΔH)は、上述したように約40cm程度として想定する。
この場合において、撮影範囲は、撮影者100が手指100a,100bによって指示することになるが、その場合の両手指100a,100b間の垂直方向(Y軸方向)の間隔は、大きな距離にはならない(数cm程度)。したがって、カメラ光軸O1と上側にある手指100aとの距離は、上記ΔH=約40cmと略等しいものとして想定し得る。
このことから、カメラ光軸O1と手指100aから入射する光束との角度は45度以上であるので、カメラ10の撮影レンズ12bの撮影画角としては、約90度として想定すればよい。なお、画角約90度は、例えば35mm幅のフイルムを用いるカメラ(撮影画面36mm×24mm)の場合、焦点距離20mm程度のレンズの画角に相当する。
そこで、本カメラ10において、例えば撮影レンズ12bの焦点距離F=4mmであるとすると、撮像素子12aの縦方向(Y軸方向)の寸法Y0(図9)としては、Y0≧8mmであることが必要となる。
ここで、図10は、図9の場合において、光軸O1及び視線軸O2と同方向をZ軸とし、このZ軸に直交する垂直方向の軸をY軸とする(図2も参照)座標軸として考える。
図9,図10の状態において、手指100a,100bからの光束は、撮影レンズ12bへと入射して、撮像素子12aの受光面上に結像する。これにより、撮像素子12bは、光電変換を行なって対応する画像データを出力することになる。
このことを、図10の座標軸上で考えると、撮像素子12aの受光面上の像の大きさから、手指とカメラ間の距離Z1の概略値を求めることができる(詳細後述。図11,図12参照)。さらに、こうして求めたZ1と、撮影レンズ12bの焦点距離F(即ち撮影レンズ12bと撮像素子12aの受光面間距離)と、手指の像の受光面上における位置(画面中心=光軸O1から像位置までの距離)Y1,Y2とに基いて、図10の座標軸上におけるY軸上の手指の位置(手指のY座標)Y3,Y4を求めることができる。
ここで、上記Z1の概略値を求めるには、次のように行なう。図11,図12は、図2等の状況下における一方の手指100aと、この手指100aが撮影レンズ12bを介して撮像素子12aの受光面上に結像している状態を概念的に示している。なお、図11は、撮影レンズ12b,撮像素子12aの正面側から見た場合の概念図であり、図12は、図11をX軸及びZ軸で示す座標軸として見た場合の概念図である。
ここで、撮影者100の手指100aの人差指部分の実際の長さ寸法=符号ΔX1とする。この場合において、手指100aは撮影レンズ12bを介して撮像素子12aの受光面上に結像する。このときの該受光面上に結像する手指像100aaの人差指部分の長さ寸法=ΔX2とする。
上述したように、撮影レンズ12bと撮像素子12aとの離間距離(焦点距離)Fとし、撮影レンズ12bから手指100aまでの離間距離Z1とすると、両者の関係は、
Z1=F×ΔX1/ΔX2
で表される。この場合において、Z1≒D1(図7)として近似しているものとしてもよい。
ここで、例えば人差指の長さΔX1=約8cmと想定する(成人の手指の人差指の長さの平均値)と、上記F,ΔX2は既知であることから、上記Z1は容易に求まる。
例えば、F=4mm、撮像素子12aの横幅寸法X0(図11,図12)=12mmとし、手指像の長さΔX2が画面横方向(X軸方向)において1/15であるとする場合、
ΔX2=0.8mm
の像長さであると考えられる。そこで、上式より、
Z1=F×ΔX1/ΔX2
=4×80/0.8(mm)
=400mm=40cm
となる。
なお、手指100aの結像位置は、撮像素子12aの受光面上において周辺部近傍位置となることから、画像歪み等の影響を考慮するようにしてもよい。
このようにして、Z1=40cmが求められると、これにより、図10のY座標Y3,Y4を求めることができる。即ち、
Y3=Y1×Z1/F
Y4=Y2×Z1/F
である。これにより、手指のY軸方向の間隔T1は、
T1=Y4−Y3
=(Y1−Y2)×Z1/F
と求めることができる。
このようにして、撮影者100が指示する二つの手指100a,100bの位置を求めることにより、指示された撮影範囲の画角φを算出することができる。
図13は、撮影者の指示する撮影範囲をノーファインダー撮影する際の様子を示す概念図である。
図13に示すように、カメラ10は、算出された画角φとなるように撮影レンズ12bのズーミング(光学ズーム又は電子ズーム)を行なって、撮影対象となる被写体101の所定の撮影領域T2を撮影する。ただし、この場合において、光軸O1と視線軸O2との高度差(位置ズレ)ΔHを考慮して、視線より低位置にあるカメラ10の光軸O1に仰角を設ける必要がある。
これは、被写体101までの距離=D2とした場合の仰角Δφは、
Δφ=arctanΔH/D2
として求められる。
また、上述の図11を用いた説明においては、手指とカメラ間の距離Z1を、成人手指の平均的長さ(人差指長さΔX1≒8cm)として求めた。これと同様に、被写体101が人物である場合には、被写体までの距離D2を求めるのに、成人の顔の大きさの平均値を利用して求めることも可能である。
例えば、図13に示すように被写体101の顔の縦方向(Y軸方向)の長さ寸法=K1とし、これに対応する撮像素子上の顔の像の長さ寸法=K2とすると、
D2=F×K1/K2
となる。なお、この場合には、近年実用化されている顔検出機能を利用すれば、被写体が人物であるか否かを容易に識別し得る。
他方、被写体となる撮影範囲内に人物が存在せず風景のみである場合には、被写体までの距離D2は、充分に大きな値、例えば10m等の数値を用いてもよい。
以上説明したことを、図4のフローチャートに従って説明する。
まず、図4のステップS113において、信号処理&制御部11のジェスチャー解析部11a,範囲判定部11bは、手指の長さΔX1の判定を行なって、その判定結果ΔX1に基いて手指と撮影レンズ12bとの離間距離D1を算出する。
続いて、ステップS114において、信号処理&制御部11は、手指の位置Y3,Y4を求めると共に、これに基いて手指のY軸方向の間隔T1を算出する。
次に、ステップS115において、信号処理&制御部11は、上述のステップS113,S114の処理にてそれぞれ算出したD1,T1に基いて撮影範囲のY軸方向の撮影画角φを算出する。
ステップS116において、信号処理&制御部11は、被写体が人物であるか否かの確認を行なう。この場合における確認は、例えば不図示の顔認識技術を用いる。ここで、撮影範囲の画像中に人物の顔が確認された場合には、ステップS121の処理に進む。また、人物の顔が確認されなかった場合には、ステップS117の処理に進む。
ステップS117において、信号処理&制御部11は、撮影時の仰角Δφ=0に設定し、ステップS124の処理に進む。
また、ステップS121において、信号処理&制御部11は、上述のステップS116の処理にて確認された人物の顔について、顔サイズ、即ち縦方向(Y軸方向)の長さ寸法を算出し、その算出結果に基いて、被写体までの距離D2を算出する。
続いて、ステップS122において、信号処理&制御部11は、通常撮影時との高度差を判定し、その高度差ΔHを算出する。
次に、ステップS123において、信号処理&制御部11は、上述のステップS122の処理にて算出された高度差ΔHに基いて仰角Δφを算出する。
次に、ステップS124において、信号処理&制御部11は、撮影タイミングを設定するために、撮影画像内に手指の画像が重なって写り込んでいるか否かの確認を行なう。ここで、手指画像がある場合には、ステップS125の処理に進む。また、手指画像がない場合には、ステップS127の処理に進む。
続いて、ステップS127において、信号処理&制御部11は、仰角Δφ,画角φに設定した画像を取得するための撮影動作を実行する。その後、ステップS107の処理に進む。以降の処理は同様である。
ステップS125において、信号処理&制御部11は、警告処理を行なう。この警告処理としては、表示部18を用いて行なう所定の警告表示、例えば撮影画像範囲内に手指が写り込んでしまう旨の警告表示等を行なう。その後、ステップS126の処理に進む。
ステップS126において、信号処理&制御部11は、再度撮影範囲内の手指画像の確認を行ない(指なし判定)、その後、所定時間後に、仰角Δφ,画角φに設定した画像を取得するための撮影動作を実行する。その後、ステップS107の処理に進む。以降の処理は同様である。
ここで、上記図4のステップS126の処理の詳細を、図5のサブルーチンによって以下に説明する。
上述したように、図4のステップS126の処理は、指なし判定の2秒後に、仰角Δφ中心にφの画像を取得する処理である。
即ち、ステップS201において、信号処理&制御部11は、指示された撮影範囲内に手指画像があるか否かの確認(指の存否判定)を行ない、撮影範囲内に手指画像がない(指なしの)場合には、ステップS210の処理に進み、このステップS210において、信号処理&制御部11は自身の内部時計(不図示)を参照して2秒が経過するまで待機して、2秒が経過したら(指なし判定の2秒後)、ステップS211以降の処理、即ち仰角Δφ中心にφの画像取得処理(ステップS127の処理と同様の処理)を実行する。
このときの全撮影範囲の画像の概念図を、図14に示す。図14においては、符号A1で示す全撮影範囲枠内に、撮影者が手指100a,100bによって撮影範囲を指示している状況を示す手指画像と、これによって指示される撮影範囲を示す枠Axとが示されている。そして、図14においては、撮影範囲枠Ax内に、手指画像がかかっている状態が示されている。このような状況において、撮影動作が実行されてしまうと、撮影者の手指等まで撮影されてしまうことにな不都合である。そこで、このような場合には、上述したように、撮影者の手指等が撮影範囲内にあるか否かを確認し、ある場合には手指等が当該範囲内から除去された後、所定時間の経過後のタイミングで実際の撮影動作(シャッターレリーズ)を実行するようにしている。これにより、指定した撮影範囲のみの画像データを確実に取得できる。
ステップS211において、信号処理&制御部11は、撮影者100により指示された撮影範囲に対応する画角φの確認をする。ここで、画角φが画面内の1/9相当より小である場合(画角φ<画面内の1/9)には、ステップS212の処理へ進む。また、画角φが画面内の1/9相当以上大である場合(画角φ≧画面内の1/9)には、ステップS214の処理へ進む。
ステップS214において、信号処理&制御部11は、1回撮影動作処理を実行し、その後、元の処理に戻る(リターン)。
一方、ステップS212において、信号処理&制御部11は、4回撮影動作処理を連続的に実行する。
続いて、ステップS213において、信号処理&制御部11は、上述のステップS212の処理にて得られた4回分の撮影により得られた画像データの重ね合わせ処理を行なった後、元の処理に戻る(リターン)。
上述のステップS211〜S212の処理は、撮影者100によって指示される撮影範囲が全撮影範囲に対して比較的小さい場合に行なう画像データ補完処理の一例である。このフローチャートにおいては、指示された撮影範囲が小さい場合には、複数回(本実施形態においては4回)の連続撮影を行ない、その結果得られた複数画像についての重ね合わせ処理を行なうことで画像を補完している。そして、この重ね合わせ処理の結果得られた画像データが記録部14に記録される。なお、この場合に記録部14に記録される画像データは、重ね合わせ処理の結果の画像データのみでもよいし、複数画像データのみでもよいし、両方の画像データを共に記録するようにしてもよい。
この補完処理としては、この例に限らず、例えば指示された撮影範囲が小さい場合にも一回の撮影のみとし、その低解像度の画像データに対して超解像処理部11cによる補完処理等を行なうようにしてもよい。
一方、上述のステップS201の処理において、撮影範囲内に手指画像の存在が確認された場合には、ステップS202の処理に進み、このステップS202において、信号処理&制御部11は、自身の内部時計(不図示)を参照して30秒が経過したか否かの確認を行なう。ここで、30秒が経過するまで、上述のステップS201以降の処理を繰り返し、30秒が経過したら、次のステップS203の処理に進む。
ステップS203において、信号処理&制御部11は、警告処理を行なう。この警告処理としては、表示部18を用いて行なう所定の警告表示、例えば撮影画像範囲内に手指が写り込んでしまう旨の警告表示等を行なう。その後、ステップS201の処理に戻り、以降の処理を繰り返す。
次に、上記図4のステップS112の処理、即ち所定形状指画像判定処理の詳細を、図6のサブルーチンによって以下に説明する。
ステップS301において、信号処理&制御部11は、撮像部12の撮像素子による全撮影範囲内に画面の左右方向からの侵入物があるか否かの確認を行なう。このときの状況に対応する概念図を図15に示す。図15において、符号A1で示す枠は、本カメラ10の全撮影範囲を表している。この全撮影範囲A1に対して、その画面の左右方向、即ち矢印X1,X2方向から侵入物がある場合を想定する。図15に示す例では、手指100a,100bをそれぞれ略L字形状に形成した場合のジェスチャーを示している。さらに、本カメラ10においては、上述しているように、撮影範囲を指示するための手指等は、画面上端近傍に侵入することを考慮するようにしてもよい。
このステップS301の処理にて、侵入物が確認されると、次のステップS302の処理に進む。また、侵入物が確認されない場合には、ステップS317の処理に進み、このステップS317において、信号処理&制御部11は、全撮影範囲内において手指等が検出されなかったものとして(指判定なし)、元の処理に戻る(リターン)。
ステップS302において、信号処理&制御部11は、上述のステップS301の処理にて確認された画面内への侵入物が停止したか否かの確認を行なう。ここで、侵入物の停止が確認された場合には、次のステップS303の処理に進む。また、侵入物の停止が確認されない場合には、ステップS317の処理に進み、このステップS317において、信号処理&制御部11は、侵入物が手指等ではなかったものとして(指判定なし)、元の処理に戻る(リターン)。
ステップS303において、信号処理&制御部11は、侵入物の形状比較処理を開始する。この侵入物形状比較処理は、例えばジェスチャー解析部11a等により行われる。
まず、ステップS304において、信号処理&制御部11のジェスチャー解析部11aは、画面右方向(矢印X1)から侵入する右側侵入物の左端部の判定処理を行なう。図15に示す例では、右側侵入物は手指100aである。そして、このステップにおける判定処理は、図15の符号100axで示す位置、即ち手指100aの人差指先端部位の判定を行なう。
続いて、ステップS305において、信号処理&制御部11のジェスチャー解析部11aは、画面上側に存在する侵入物の下端部の判定処理を行なう。図15に示す例では、画面上側に存在する侵入物は、手指100aである。そして、このステップにおける判定処理は、図15の符号100awで示す位置、即ち手指100aの親指先端部位の判定を行なう。
同様に、ステップS306において、信号処理&制御部11のジェスチャー解析部11aは、画面左方向(矢印X2)から侵入する左側侵入物の右端部の判定処理を行なう。図15に示す例では、左側侵入物は手指100bである。そして、このステップにおける判定処理は、図15の符号100bxで示す位置、即ち手指100bの人差指先端部位の判定を行なう。
続いて、ステップS307において、信号処理&制御部11のジェスチャー解析部11aは、画面下側に存在する侵入物の上端部の判定処理を行なう。図15に示す例では、画面下側に存在する侵入物は、手指100bである。そして、このステップにおける判定処理は、図15の符号100bwで示す位置、即ち手指100bの親指先端部位の判定を行なう。
続いて、ステップS311において、信号処理&制御部11は、図15に示す右側侵入物100aの左端部100axを延長した直線X11と、画面下側侵入物100bの上端部100bwを延長した直線Y11とが交差(クロス)しているか否かの確認を行なう。ここで、交差(クロス)していることが確認された場合には、ステップS312の処理に進む。また、交差(クロス)していない場合には、ステップS313の処理に進む。
ステップS312において、信号処理&制御部11は、図15に示す左側侵入物100bの右端部100bxを延長した直線X12と、画面上側侵入物100aの下端部100awを延長した直線Y12とが交差(クロス)しているか否かの確認を行なう。ここで、交差(クロス)していることが確認された場合には、ステップS315の処理に進む。また、交差(クロス)していない場合には、ステップS313の処理に進む。
ステップS313において、信号処理&制御部11は、図15に示す右側侵入物100aの左端部100axを延長した直線X11と、画面上側侵入物100aの下端部100awを延長した直線Y12とが交差(クロス)しているか否かの確認を行なう。ここで、交差(クロス)していることが確認された場合には、ステップS314の処理に進む。また、交差(クロス)していない場合には、ステップS317の処理に進み、このステップS317において、信号処理&制御部11は、手指等が判定されなかったものとして(指判定なし)、元の処理に戻る(リターン)。
ステップS314において、信号処理&制御部11は、図15に示す左側侵入物100bの右端部100bxを延長した直線X12と、画面下側侵入物100bの上端部100bwを延長した直線Y11とが交差(クロス)しているか否かの確認を行なう。ここで、交差(クロス)していることが確認された場合には、ステップS315の処理に進む。また、交差(クロス)していない場合には、ステップS317の処理に進み、このステップS317において、信号処理&制御部11は、手指等が判定されなかったものとして(指判定なし)、元の処理に戻る(リターン)。
ステップS315において、信号処理&制御部11は、左側クロス点X21(即ち直線X11と直線Y11との交点X21)と右側侵入物100aの左端部100axとの距離=XLとし、右側クロス点X22(即ち直線X12と直線Y12との交点X22)と左側侵入物100bの右端部100bxとの距離=XRとしたとき、
距離XL≒距離XR
であるか否かの確認を行なう。ここで、XL≒XRである場合には、指判定ありと判断される。その後、元の処理に戻る(リターン)。また、XL≒XRが成立しない場合には、ステップS317の処理に進み、このステップS317において、信号処理&制御部11は、手指等が判定されなかったものとして(指判定なし)、元の処理に戻る(リターン)。
以上説明したように上記第1の実施形態によれば、通常形態の撮影機器であるにも関らず、撮影機器を手に持たず、例えばネックストラップやクリップ等によって携帯保持している状態であっても、撮影者は撮影機器の操作部材を操作する代わりに、撮影機器の前方(該撮影機器の全撮影範囲内)で所定のジェスチャーを行なうことで、撮影者の意図を反映した構図を取ることができ、かつ所望のタイミングによって撮影を実行することができ、よって撮影者の意図した撮影結果を取得することができる。
また、撮影者がジェスチャーによって所望の撮影範囲を任意に指定することにより、撮影機器の全撮影範囲内から指定された範囲の画像を取り出すようにしている。この場合に、指示した撮影範囲の画像を取り出すのに際しては、撮影レンズのズーミング(光学ズーム)を行なう手段の他に、画像切り出し処理及び拡大補完処理等を行なって電子ズーム処理を行なう手段等、各種の構成が考えられる。
なお、本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用を実施し得ることが可能であることは勿論である。さらに、上記実施形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせによって、種々の発明が抽出され得る。例えば、上記一実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題が解決でき、発明の効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
本発明は、デジタルカメラ等の撮影機能に特化した電子機器である撮影機器に限られることはなく、撮影機能を備えた他の形態の電子機器、例えば携帯電話,録音機器,電子手帳,パーソナルコンピュータ,ゲーム機器,テレビ,時計,GPS(Global Positioning System)を利用したナビゲーション機器等、各種の撮影機能付き電子機器にも適用することができる。
10…カメラ,11…信号処理&制御部,11a…ジェスチャー解析部,11b…範囲判定部,11c…超解像処理部,12…撮像部,13…高度&位置情報取得部,14…記録部,18…表示部

Claims (5)

  1. 撮像素子及び撮影レンズを備えた撮像部と、
    機器全体を制御する制御手段と、
    上記撮像部によって取得された画像データに基いてジェスチャー解析を行なうジェスチャー解析部と、
    上記ジェスチャー解析部によるデータ解析結果に基いて上記撮像部の全撮影範囲のうちの一部の撮影範囲を判定する範囲判定部と、
    上記範囲判定部によって判定された撮影範囲に対応する画像データを記録する記録部と、
    を具備し、
    上記制御手段は、
    上記範囲判定部を制御し、上記ジェスチャー解析部による上記データ解析結果により得られた、該機器前方で検出された該機器使用者の指形状及びその位置情報に基づいて上記一部の撮影範囲の画角を求めると共に、上記撮像部における上記撮影レンズの中心軸と該機器使用者の視線の延長軸との距離情報および上記機器使用者から被写体までの距離情報に基づいて上記撮影レンズの中心軸と上記撮影範囲の中心線との角度である仰角を求め、かつ、上記画角と上記仰角とに基づいて設定される上記撮影範囲における上記被写体を記録するよう上記記録部を制御する
    ことを特徴とする撮影機器。
  2. 通常撮影時とノーファインダー撮影時の高度変化を検出する高度情報取得手段を、さらに具備し、
    上記制御手段は、上記高度情報取得手段によって取得された高度情報に基いて上記撮像部における上記撮影レンズの中心軸と該機器使用者の視線の延長軸との距離情報を求め、当該距離情報に応じてノーファインダー撮影時における上記撮影範囲を設定することを特徴とする請求項1に記載の撮影機器。
  3. 上記制御手段は、上記範囲判定部により判定された撮影範囲情報に基いて撮影回数を切り換えることを特徴とする請求項1に記載の撮影機器。
  4. 上記制御手段は、上記範囲判定部により判定された撮影範囲が、上記撮像部による前撮影範囲に対して充分に小さい場合に複数回の撮影を行なって、これによって得られた複数画像の重ね合わせ処理を行なうことを特徴とする請求項3に記載の撮影機器。
  5. 撮像素子及び撮影レンズを備えた撮像部によって取得された画像データに基いて撮影機器の使用者に係るジェスチャー解析を行なうジェスチャー解析ステップと、
    上記ジェスチャー解析ステップによるデータ解析結果に基いて上記撮像部の全撮影範囲のうちの一部の撮影範囲を判定する範囲判定ステップと、
    上記範囲判定ステップによって判定された撮影範囲に対応する画像データを記録部に記録する記録ステップと、
    を有し、
    上記範囲判定ステップは、
    上記ジェスチャー解析ステップによる上記データ解析結果により得られた、該機器前方で検出された該機器使用者の指形状及びその位置情報に基づいて上記一部の撮影範囲の画角を求めるステップと、
    上記撮像部における上記撮影レンズの中心軸と該機器使用者の視線の延長軸との距離情報および上記機器使用者から被写体までの距離情報に基づいて上記撮影レンズの中心軸と上記撮影範囲の中心線との角度である仰角を求めるステップと、
    を有し、
    上記記録ステップは、
    上記画角と上記仰角とに基づいて設定される上記撮影範囲における上記被写体を記録するよう上記記録部を制御するステップを有する
    ことを特徴とする画像データの記録方法。
JP2011101295A 2011-04-28 2011-04-28 撮影機器及び画像データの記録方法 Active JP5885395B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011101295A JP5885395B2 (ja) 2011-04-28 2011-04-28 撮影機器及び画像データの記録方法
CN201210045508.4A CN102761684B (zh) 2011-04-28 2012-02-24 摄影设备及图像数据的记录方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011101295A JP5885395B2 (ja) 2011-04-28 2011-04-28 撮影機器及び画像データの記録方法

Publications (2)

Publication Number Publication Date
JP2012235225A JP2012235225A (ja) 2012-11-29
JP5885395B2 true JP5885395B2 (ja) 2016-03-15

Family

ID=47055999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011101295A Active JP5885395B2 (ja) 2011-04-28 2011-04-28 撮影機器及び画像データの記録方法

Country Status (2)

Country Link
JP (1) JP5885395B2 (ja)
CN (1) CN102761684B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6119380B2 (ja) * 2013-03-29 2017-04-26 富士通株式会社 画像取込装置、画像取込方法、画像取込プログラムおよび移動通信端末
CN103259978B (zh) * 2013-05-20 2018-09-18 邱笑难 一种使用手势拍照的方法
CN104243791B (zh) * 2013-06-19 2018-03-23 联想(北京)有限公司 一种信息处理方法及电子设备
CN106791446A (zh) * 2014-05-30 2017-05-31 张琴 移动终端照相机及智能手机、平板电脑或上网本
JP6409118B2 (ja) * 2015-02-25 2018-10-17 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
CN106982326B (zh) * 2017-03-29 2020-02-07 华勤通讯技术有限公司 焦距调整方法及终端
JP6817350B2 (ja) * 2019-02-07 2021-01-20 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
CN111405181B (zh) * 2020-03-25 2022-01-28 维沃移动通信有限公司 调焦的方法及电子设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005051472A (ja) * 2003-07-28 2005-02-24 Nikon Corp 自動撮影制御装置、自動撮影用プログラム、カメラ
JP4315773B2 (ja) * 2003-10-02 2009-08-19 オリンパス株式会社 カメラ及びアクセサリ
JP2005242694A (ja) * 2004-02-26 2005-09-08 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置
JP5111088B2 (ja) * 2007-12-14 2012-12-26 三洋電機株式会社 撮像装置及び画像再生装置
CN101344816B (zh) * 2008-08-15 2010-08-11 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
JP4449082B2 (ja) * 2008-08-22 2010-04-14 富士フイルム株式会社 電子カメラ
JP5304329B2 (ja) * 2009-03-05 2013-10-02 ブラザー工業株式会社 ヘッドマウントディスプレイ装置、画像制御方法および画像制御プログラム
JP2012120003A (ja) * 2010-12-02 2012-06-21 Nec Casio Mobile Communications Ltd 撮影装置、撮影装置における制御方法及びその制御プログラム

Also Published As

Publication number Publication date
CN102761684B (zh) 2015-08-05
CN102761684A (zh) 2012-10-31
JP2012235225A (ja) 2012-11-29

Similar Documents

Publication Publication Date Title
JP5885395B2 (ja) 撮影機器及び画像データの記録方法
JP6678122B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN106575027B (zh) 摄像装置及其被摄体跟踪方法
JP4510713B2 (ja) デジタルカメラ
JP5251215B2 (ja) デジタルカメラ
US9025044B2 (en) Imaging device, display method, and computer-readable recording medium
JP7131647B2 (ja) 制御装置、制御方法および制御プログラム
US20060044399A1 (en) Control system for an image capture device
JP2012029245A (ja) 撮像装置
WO2010073619A1 (ja) 撮像装置
WO2014192640A1 (ja) 撮像装置及び撮像方法
JP5530322B2 (ja) 表示装置および表示方法
JP2011114487A (ja) 撮像装置
JP2012015642A (ja) 撮像装置
CN109417599B (zh) 便携终端
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
JP2010187145A (ja) 画像処理装置、画像処理方法およびプログラム
WO2011052120A1 (ja) 撮影制御装置および撮影制御方法
JP6836306B2 (ja) 撮像制御装置、その制御方法、プログラム及び記録媒体
WO2023189218A1 (ja) 情報処理装置、情報処理方法、記録媒体
US11838629B2 (en) Image processing apparatus and control method thereof, imaging apparatus, and storage medium
US20240054750A1 (en) Image processing device, image processing method, and storage medium
US20220252884A1 (en) Imaging system, display device, imaging device, and control method for imaging system
JP2016208204A (ja) 画像撮影方法および画像撮影装置、プログラム
JP2013255076A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150223

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160209

R151 Written notification of patent or utility model registration

Ref document number: 5885395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250