JP2012010162A - カメラ装置 - Google Patents

カメラ装置 Download PDF

Info

Publication number
JP2012010162A
JP2012010162A JP2010145206A JP2010145206A JP2012010162A JP 2012010162 A JP2012010162 A JP 2012010162A JP 2010145206 A JP2010145206 A JP 2010145206A JP 2010145206 A JP2010145206 A JP 2010145206A JP 2012010162 A JP2012010162 A JP 2012010162A
Authority
JP
Japan
Prior art keywords
face
unit
area
image
shutter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010145206A
Other languages
English (en)
Inventor
Hiroaki Honda
弘明 本多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010145206A priority Critical patent/JP2012010162A/ja
Priority to KR1020110059958A priority patent/KR101237809B1/ko
Priority to US13/168,909 priority patent/US20110317031A1/en
Publication of JP2012010162A publication Critical patent/JP2012010162A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 顔が所望の位置に所望の大きさで配置された静止画像を撮影する。
【解決手段】 携帯端末10は、CPU24によって制御される撮影装置38およびディスプレイ30を備える。撮影装置38は、シャッタ条件が満足されるまでスルー画像を繰り返し撮影し(S61)、シャッタ条件が満足される(S89,S93,S97:YES)と静止画像を撮影する(S99)。ディスプレイ30には、ドライバ28を介して、撮影装置38によって撮影されたスルー画像が少なくとも表示される。CPU24は、ディスプレイ30の表示面に対してタッチパネル32を通して所望の領域(E)を設定し(S15〜S33,S41〜S47)、撮影されたスルー画像から顔(F)を検出し(S67)、そして、設定された領域(E)内で顔(F)が検出された場合(S71:YES)に、シャッタ条件が満足されたか否かの判別を行う(S89,S93,S97)。
【選択図】 図1

Description

この発明は、カメラ装置に関し、特にたとえば、ハウジングの互いに対向する面に設けられた撮影部および表示部を有する、カメラ装置に関する。
従来のこの種のカメラ装置の一例が、特許文献1に開示されている。この背景技術では、撮影部を被写体に向けた状態で、撮影部によって捉えられた被写体の映像が表示部に表示される。ユーザは、撮影部の前方の被写体と、こうして表示部に表示された映像(スルー画像)とを見ながら、撮影部の向きや被写体までの距離を調節して、被写体を画面内の所望の位置に所望の大きさで導入した後、静止画撮影のためのシャッタ操作を行う。
また、この背景技術では、表示部にタブレットが設けられており、表示部のスルー画像に対して、所望の領域をタブレットで指定すると、その領域に対応する部分にのみ2値化,拡大といった画像処理が施される。表示部には、こうして部分的に画像処理が施された後のスルー画像が表示される。
特開平11‐313228号公報[H04N 5/225]
しかし、上記の背景技術では、撮影部をユーザ自身に向けて自分撮りを行う場合、ユーザは、表示部のスルー画像を見ることができないので、撮影部の向きや被写体までの距離を調節するのが容易でなく、したがって、顔の位置や大きさが意図したものとは異なる静止画像が撮影されてしまう場合が少なくなかった。また、タブレットによる領域指定も、向きや距離の調節に何ら役立つものではなかった。
それゆえに、この発明の主たる目的は、新規な、カメラ装置を提供することである。
この発明の他の目的は、顔が所望の位置に所望の大きさで配置された画像を撮影できる、カメラ装置を提供することである。
この発明のその他の目的は、このようなカメラ装置において、撮影部の向きや被写体までの距離を容易に調節できるようにすることである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために後述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、カメラ装置であって、シャッタ条件が満足されるまでスルー画像を繰り返し撮影し、そしてシャッタ条件が満足されると記録用の画像を撮影する撮影部、撮影部によって撮影されたスルー画像を少なくとも表示する表示部、表示部の表示面に対して所望の領域を設定する領域設定部、撮影部によって撮影されたスルー画像から顔を検出する顔検出部、および、領域設定部によって設定された領域内で顔検出部によって顔が検出された場合に、シャッタ条件が満足されたか否かの判別を行う判別部を備え、撮影部は、判別部の判別結果を参照して撮影を実行する。
第1の発明に従うカメラ装置(10)では、撮影部(38)は、シャッタ条件が満足されるまでスルー画像を繰り返し撮影し(S61)、シャッタ条件が満足される(S89,S93,S97:YES)と記録用の画像を撮影する(S99)。ここで、記録用の画像は、典型的には下記第2の発明のように静止画像であるが、動画像でもよい。撮像部は、たとえば、CCD,CMOSなどの撮像素子(38b)を含み、プロセッサ(24)の制御下で、スルー画像および記録用画像の撮影を行う。
表示部(28,30)には、撮影部によって撮影されたスルー画像が少なくとも表示される。領域設定部(S15〜S33,S41〜S47)は、この表示部の表示面(30)に対して所望の領域(E,E1,E2)を設定し、顔検出部(S67)は、撮影部によって撮影されたスルー画像から顔(F,F1,F2)を検出する。そして判別部(S89,S93,S97)は、領域設定部によって設定された領域内で顔検出部によって顔が検出された場合(S71:YES)に、シャッタ条件が満足されたか否かの判別を行う。撮影部による撮影は、判別部の判別結果を参照して行われる。したがって、シャッタ条件が満足されたか否かは、設定された領域内で顔が検出された状態で判別部によって判別され、満足されれば撮影部によって記録用の撮影が実行されるので、顔が所望の領域内に配置された静止画像が撮影される結果となる。
第2の発明は、第1の発明に従属するカメラ装置であって、撮影部は、シャッタ条件が満足されると記録用の静止画像を撮影する。
第2の発明では、撮影部(38)は、シャッタ条件が満足されるまでスルー画像を繰り返し撮影し(S61)、シャッタ条件が満足される(S89,S93,S97:YES)と記録用の静止画像を撮影する(S99)。表示部(28,30)には、撮影部によって撮影されたスルー画像が少なくとも表示される。領域設定部(S15〜S33,S41〜S47)は、この表示部の表示面(30)に対して所望の領域(E,E1,E2)を設定し、顔検出部(S67)は、撮影部によって撮影されたスルー画像から顔(F,F1,F2)を検出する。そして判別部(S89,S93,S97)は、領域設定部によって設定された領域内で顔検出部によって顔が検出された場合(S71:YES)に、シャッタ条件が満足されたか否かの判別を行う。撮影部による静止画撮影は、判別部の判別結果を参照して行われる。したがって、シャッタ条件が満足されたか否かは、設定された領域内で顔が検出された状態で判別部によって判別され、満足されれば撮影部によって静止画撮影が実行されるので、顔が所望の領域内に配置された静止画像が撮影される結果となる。
第2の発明によれば、たとえば自分撮りを行う場合にスルー画像が見えないような状況でも、顔が所望の領域内に配置された静止画像を撮影できる。
なお、撮影部は、シャッタ条件が満足されると記録用の動画像を撮影してもよい。これによって、たとえば自分撮りを行う場合にスルー画像が見えないような状況でも、顔が所望の領域内に配置された動画像を撮影できる。動画像を撮影中に顔が所望の領域からはみ出た場合には、その旨の告知を行うのが好ましい。このような告知に代えて、またはこれに加えてさらに、当該顔を当該領域内に再導入するための案内情報、たとえば下記第13の発明で出力される第2案内情報(G2a,G2b)と同様の情報を出力してもよい。顔が所望の領域からはみ出ている期間は、動画撮影を中断してスルー撮影を実行してもよい。
また、カメラ装置は、好ましくは、ハウジング(H)をさらに備え、撮影部はハウジングの第1面(H1)に設けられ、表示部はハウジングの第2面(H2)に設けられる。
ここで、第1面および第2面は、典型的には、互いに対向する2つの面(たとえば第1主面H1および第2主面H2)であるが、1つの主面および1つの側面のように、互いに交差する(互いに垂直な)面でもよい。言い換えれば、第1面および第2面は、互いに異なる面である方が好ましいが、同じ面であっても構わない。これによって、特に、撮影部および表示部がハウジングの互いに異なる面(とりわけ互いに対応する面)に設けられていて、自分撮りを行う際にスルー画像を見ることが困難な場合に、顔が所望の領域内に配置された静止画像を撮影できる。
なお、撮影部および/または表示部は、ハウジングとは別体であっても、ハウジングに対して着脱可能あるいは向きを変更可能であってもよい。いずれの場合も、自分撮りに限らず、スルー画像を見ることが困難な状況で、顔が所望の領域内に配置された静止画像を撮影できる。
第3の発明は、第1または第2の発明に従属するカメラ装置であって、表示部の表示面(30)に設けられるタッチパネル(32)をさらに備え、領域設定部は、タッチパネルを通して領域設定を行う。
ここで、タッチパネルは、表示部の表示面に設けられて、表示面上の任意の位置を指定する(あるいは指定された位置を検出する)デバイスであって、タッチスクリーン,タブレットなどと呼ばれる場合もある。
なお、領域設定部は、たとえばキー入力部(26)など、タッチパネル以外の入力部を通して領域設定を行ってもよい。たとえば、予め決められた複数の領域の中から1つまたは2つ以上の領域を、キー入力部によるカーソル操作で選択する方法などがある。
第4の発明は、第1ないし第3のいずれかの発明に従属するカメラ装置であって、領域設定部によって設定された領域内で顔検出部によって顔が検出された場合に、当該顔が当該領域内に位置する旨の告知を少なくとも含む第1案内情報を出力する第1案内出力部をさらに備える。
第4の発明では、第1案内出力部(S87,S91,S95)は、領域設定部によって設定された領域内で顔検出部によって顔が検出された場合(S71:YES)に、第1案内情報(G1,G3〜G5)を出力する。第1案内情報には、当該顔が当該領域内に位置する旨の告知が少なくとも含まれる。
なお、第1案内情報は、好ましくはスピーカ(22)から言語による音声案内の態様で出力されるが、信号音(ベル音,ブザー音,高い音,低い音など)の態様で出力されてもよいし、発光器(40)から信号光(赤い光,青い光,各種のパターンで点滅する光など)の態様で出力されてもよい。
第5の発明は、第4の発明に従属するカメラ装置であって、シャッタ条件は、シャッタ操作が行われたという条件である。
なお、シャッタ操作は、キー入力部,タッチパネルなどの入力部を介して行われる。
第6の発明は、第5の発明に従属するカメラ装置であって、第1案内情報(G3,G4)は、シャッタ操作を促す案内をさらに含む。
第7の発明は、第4の発明に従属するカメラ装置であって、シャッタ条件は、設定領域内で顔が検出されている状態が所定時間以上継続したという条件である。
なお、設定された領域内で顔が検出されたとき、所定時間の経過を待つことなく、直ちに自動撮影を実行してもよい。
第8の発明は、第7の発明に従属するカメラ装置であって、第1案内情報(G1)は、所定時間の経過に関する案内をさらに含む。案内は、たとえば“3…2…1…”のようなカウントダウン、あるいは“ハイ…チーズ!”のような掛け声でもよい。
第9の発明は、第4の発明に従属するカメラ装置であって、シャッタ条件は、設定領域内で検出されている顔が笑顔の特徴を示したという条件である。
第10の発明は、第9の発明に従属するカメラ装置であって、第1案内情報(G5)は、笑顔を促す案内をさらに含む。
第11の発明は、第4の発明に従属するカメラ装置であって、顔検出部によって検出された顔が領域設定部によって設定された領域の外にある場合(S75a,75b:YES)に、当該顔を当該領域内に導入するための第2案内情報(G2a,G2b)を出力する第2案内出力部(S77a,S77b)をさらに備える。
なお、第2案内情報は、スピーカ(22)から言語による音声案内の態様で出力される。ただし、内容によっては、信号音の態様で出力されても、発光器(40)から信号光の態様で出力されてもよい。
第12の発明は、第1の発明に従属するカメラ装置であって、人数を指定する人数指定部(S35〜S39)をさらに備え、判別部は、人数指定部によって指定された人数分の顔(F,F1,F2,…)が設定領域内で検出された場合に判別を行う。
第13の発明は、制御プログラム(52)であって、シャッタ条件が満足されるまでスルー画像を繰り返し撮影し(S61)、そしてシャッタ条件が満足される(S89,S93,S97:YES)と記録用の画像を撮影する(S99)撮影部(38)と、撮影部によって撮影されたスルー画像を少なくとも表示する表示部(28,30)とを備えるカメラ装置(10)のプロセッサ(24)を、表示部の表示面(30)に対して所望の領域(E,E1,E2)を設定する領域設定部(S15〜S33,S41〜S47)、撮影部によって撮影されたスルー画像から顔(F,F1,F2)を検出する顔検出部(S67)、および、領域設定部によって設定された領域内で顔検出部によって顔が検出された場合(S71:YES)に、シャッタ条件が満足されたか否かの判別を行う判別部(S89,S93,S97)として機能させ、撮影部は、判別部の判別結果を参照して撮影を実行する。
この発明によれば、顔が所望の位置に所望の大きさで配置された画像を撮影できる、カメラ装置が実現される。
この発明の一実施例であるカメラ装置の構成を示すブロック図である。 カメラ装置の概観を示す斜視図であり、(A)は第1主面側を示し、(B)は第2主面側を示す。 カメラ装置による自分撮りの様子、および自動シャッタ(1人)用の音声ガイダンスの出力例を示す図解図であり、(A)は顔が領域内に納まった状態を示し、(B)は顔が領域からはみ出した状態を示す。 タッチパネルを利用した領域設定の例を示す図解図であり、(A)は画面に円を描いてその内部を領域として設定する場合を示し、(B)は画面を線で区切ってその左側を領域として設定する場合を示す。 タッチパネルを利用した領域設定の他の例を示す図解図であり、複数の領域が優先度付きで設定される。 図4(A)の例の変形例を示す図解図であり、円の中心を指定してその半径が調整される。 手動シャッタ(1人/1領域:領域数=1)用の音声ガイダンスの出力例を示す図解図であり、(A)は顔が領域からはみ出した状態を示し、(B)は顔が領域内に納まった状態を示す。 笑顔シャッタ(1人/1領域:領域数=1)用の音声ガイダンスの出力例を示す図解図であり、(A)は領域内の顔が笑顔でない状態を示し、(B)は領域内の顔が笑顔になった状態を示す。 手動シャッタ(1人/1領域:領域数=2)用の音声ガイダンスの出力例を示す図解図であり、(A)は1人分の顔が領域内に納まった状態を示し、(B)は2人分の顔が領域内に納まった状態を示す。 メインメモリの内容を示すメモリマップ図である。 CPU動作の一部を示すフロー図である。 CPU動作の他の一部を示すフロー図である。 CPU動作のその他の一部を示すフロー図である。 CPU動作のさらにその他の一部を示すフロー図である。 ディスプレイの表示例を示す図解図であり、(A)はシャッタ方式選択画面を示し、(B)は人数設定画面を示す。 ディスプレイの他の表示例を示す図解図であり、(A)は領域形成画面を示し、(B)は領域設定画面を示し、そして(C)は設定確認画面を示す。 顔が領域内か否かの判別処理で参照される各種の変数を示す図解図である。 手動シャッタ(2人/領域:領域数=1)用の音声ガイダンスの出力例を示す図解図であり、(A)は1人分の顔が領域内に納まった状態を示し、(B)は2人分の顔が領域内に納まった状態を示す。
図1には、携帯端末10のハードウエア構成が示される。図1を参照して、この発明の一実施例である携帯端末10はCPU24を含む。CPU24には、キー入力装置26、タッチパネル32、メインメモリ34、フラッシュメモリ36、撮影装置38および発光器40が接続され、さらに、無線通信回路14を介してアンテナ12が、A/Dコンバータ16を介してマイク18が、D/Aコンバータ20を介してスピーカ22が、そしてドライバ28を介してディスプレイ30が、それぞれ接続される。
アンテナ12は、図示しない基地局からの無線信号を捕捉(受信)し、また、無線通信回路14からの無線信号を放出(送信)する。無線通信回路14は、アンテナ12で受信された無線信号を復調および復号化し、また、CPU24からの信号を符号化および変調する。マイク18は、音波をアナログの音声信号に変換し、A/Dコンバータ16は、マイク18からの音声信号をディジタルの音声データに変換する。D/Aコンバータ20は、CPU24からの音声データをアナログの音声信号に変換し、スピーカ22は、D/Aコンバータ20からの音声信号を音波に変換する。
キー入力装置26は、ユーザによって操作される各種のキー,ボタン,トラックボール(図2(A)参照)などで構成され、操作に応じた信号(コマンド)をCPU24に入力する。ドライバ28は、CPU24からの信号に応じた画像をディスプレイ30に表示する。タッチパネル32は、ディスプレイ30の表示面に設けられ、タッチ点の位置を示す信号(座標)をCPU24に入力する。
メインメモリ34は、たとえばSDRAMなどで構成され、CPU24に各種の処理を実行させるためのプログラムおよびデータ(図10参照)を記憶する共に、CPU24に必要な作業領域を提供する。フラッシュメモリ36は、たとえばNAND型のフラッシュメモリで構成され、プログラムおよびデータの保存領域さらには撮影装置38による画像データの記録領域として利用される。
撮影装置38は、たとえばレンズ38a,イメージセンサ(たとえばCCD,CMOSなどの撮像素子)38b,カメラ処理回路38c,およびレンズ駆動用のドライバ38dなどで構成され、レンズ38aを経てイメージセンサ38b上に結像する光学像を光電変換して、これに対応する画像データを出力する。その際、CPU24の制御下でイメージセンサ38bおよびドライバ38dが動作することにより、露光量およびフォーカスが適切に調整された画像データが出力される。発光器40は、たとえば単一のまたは複数のLEDおよびそのドライバ(図示せず)などで構成され、CPU24からの信号に応じた光を発する。
CPU24は、メインメモリ34に記憶されたプログラムに従って、他のハードウエア(12〜22,26〜40)を利用しつつ、各種の処理を実行する。処理の実行に必要なタイミング信号は、RTC(Real Time Clock)24aから供給される。
図2には、携帯端末10の外観が示される。図2を参照して、携帯端末10は、上述した各ハードウエアを収納するハウジングHを含む。マイク18,スピーカ22,キー入力装置26,ディスプレイ30およびタッチパネル32は、ハウジングHの一方主面(第1主面H1)側に取り付けられ、撮影装置38および発光器40は、ハウジングHの他方主面(第2主面H2)側に取り付けられており、それぞれ一部分がハウジングHから露見している。
以上のように構成された携帯端末10では、図示しないメニュー画面を通して、通話を行う通話モード、通常撮影を行う通常撮影モード、および自分撮りを行う自分撮りモードなどを選択することができる。
通話モードが選択されると、携帯端末10は、通話装置として機能する。詳しくは、キー入力装置26(またはタッチパネル32)によって発呼操作が行われると、CPU24は、無線通信回路14を制御して発呼信号を出力する。出力された発呼信号は、アンテナ12から放出され、図示しない移動通信網を経て相手の電話機に伝達される。電話機は、着信音などによる呼び出しを開始する。相手が着呼操作を行うと、CPU24は通話処理を開始する。一方、相手からの発呼信号がアンテナ12によって捕捉されると、無線通信回路14は着信をCPU24に通知し、CPU24は、着信音による呼び出しを開始する。キー入力装置26(またはタッチパネル32)によって着呼操作が行われると、CPU24は通話処理を開始する。
通話処理は、たとえば、次のように行われる。相手から送られてきた受話音声信号は、アンテナ12によって捕捉され、無線通信回路14によって復調および復号化を施された後、D/Aコンバータ20を経てスピーカ22に与えられる。これにより、スピーカ22から受話音声が出力される。一方、マイク18によって取り込まれた送話音声信号は、無線通信回路14によって符号化および変調を施された後、アンテナ12を通して相手に送信される。相手の電話機でも、送話音声信号の復調および復号化が行われ、送話音声が出力される。
通常撮影モードが選択されると、携帯端末10は、通常撮影用のカメラ装置として機能する。詳しくは、CPU24がスルー撮影開始命令を発し、撮影装置38はスルー撮影を開始する。撮影装置38では、レンズ38aを経てイメージセンサ38bに結像した光学像は、光電変換を施され、これによって、光学像を表す電荷が生成される。スルー撮影では、イメージセンサ38bで生成された電荷の一部が、たとえば1/60秒毎に、低解像度の生画像信号として読み出される。読み出された生画像信号は、カメラ処理回路38cによってA/D変換,色分離,YUV変換などの一連の画像処理を施されることで、YUV形式の画像データに変換される。
こうして、撮影装置38からは、スルー表示用の低解像度の画像データが、たとえば60fpsのフレームレートで出力される。出力された画像データは、現時点のスルー画像データ(69:図10参照)としてメインメモリ34に書き込まれ、ドライバ28は、メインメモリ34に記憶されたスルー画像データを繰り返し読み出し、これに基づくスルー画像をディスプレイ30に表示する。
ユーザは、携帯端末10を手で把持もしくは机等に載置して、撮影装置38を対象に向ける。ディスプレイ30には、撮影装置38で撮影されたスルー画像が表示されるので、ユーザは、これを見ながら、対象を所望の構図で捉えるべく、撮影装置38の向きや対象までの距離を調節する。調整が完了すると、キー入力装置26によりシャッタ操作を行う。
CPU24は、シャッタ操作に応答して静止画撮影命令を発する。応じて撮影装置38は、静止画撮影を実行する。撮影装置38では、レンズ38aを経てイメージセンサ38bの受光面に結像した光学像は、光電変換を施され、これによって、光学像を表す電荷が生成される。静止画撮影では、こうしてイメージセンサ38bで生成された電荷が、高解像度の生画像信号として読み出される。読み出された生画像信号は、カメラ処理回路38cによってA/D変換,色分離,YUV変換などの一連の画像処理を施されることで、YUV形式の画像データに変換される。
こうして、撮影装置38から、記録用の高解像度の画像データが出力される。出力された画像データは、メインメモリ34に一時保持される。CPU24は、メインメモリ34に一時保持された画像データを、静止画像データとしてフラッシュメモリ36に書き込む。
自分撮りモードが選択されると、携帯端末10は、自分撮り用のカメラ装置として機能する。詳しくは、たとえば図3(A)に示すように、ユーザは、携帯端末10を手で把持もしくは机等に載置して、撮影装置38を自分の顔に向ける。ディスプレイ30には、撮影装置38で撮影されたスルー画像が表示されるが、ディスプレイ30は撮影装置38とは反対の面にあるため、ユーザは、スルー画像を見ながら撮影装置38の向きや顔までの距離を調節することができない。しかし、自分撮りモードを選択して、ディスプレイ30の表示面に所望の領域Eを予め設定しておけば、たとえば図3(A)に示すように、顔Fがこの設定領域E内に入ったとき、その旨の告知がスピーカ22(および/または発光器40)から出力される。なお、告知は、図示しないバイブレータを通じて振動の態様で出力されてもよい。
また、顔Fと設定領域Eとの関係に基づいて、たとえば図3(B)あるいは図7(A)に示すように、顔Fが設定領域Eからはみ出している場合には、顔Fを設定領域E内に導入するための案内、たとえば「設定領域からはみ出しています…少し右に移動してください…」あるいは「設定領域からはみ出しています…少し離れてください」がスピーカ22から出力される。このため、ユーザは、ディスプレイ30の画像が見えなくても、スピーカ22からの音声や発光器40からの光を頼りに、撮影装置38の向きや顔までの距離を調節することが可能となる。
そして、静止画撮影は、顔Fが設定領域E内に納まっている状態で、自動的に(図3(A)参照:自動シャッタ方式)、またはユーザのシャッタ操作に応じて(図7(B),図9(B)参照:手動シャッタ方式)、あるいはユーザの笑顔が検出されるのに応じて(図8(B)参照:笑顔シャッタ方式)、実行される。こうして、ユーザは、自分の顔を所望の構図で撮影することができる。
また、このような自分撮りを行う前に、ディスプレイ30およびタッチパネル32を介して、任意の(所望の)領域Eがユーザによって設定される。たとえば、図4(A)に示されるように、ユーザがディスプレイ30の画面上に適宜な大きさの円を描くと、その軌跡がタッチパネル32によって検出され、検出された軌跡を示す円Crが画面上に描画される。これによって画面は、円Crの内部および外部に二分される。ユーザが円Crの内部にタッチすると、円Crの内部が領域Eに設定される。なお、ユーザは、円以外に、たとえば四角形,五角形などの多角形を描いてもよいし、ひょうたん型,鍵穴形といった複雑な図形を描いてもよい。要するに、画面内に閉じた領域が形成されるような図形であれば、どのような図形を描いてもよい。
または、図4(B)に示されるように、ユーザがディスプレイ30の画面上に適宜な線たとえば上辺の略中点から下辺の略中点に至る縦線を描くと、その軌跡がタッチパネル32によって検出され、検出された軌跡を示す線Lnが画面上に描画される。これによって画面は、線Lnの左部分および右部分に二分される。ユーザが線Lnの左部分にタッチすると、線Lnの左部分が領域Eに設定される。なお、ユーザは、たとえば、左辺から右辺に至る横線を描いてもよいし、上辺から右辺に至る斜線やL字型の線を描いてもよい。要するに、画面を2つ(またはそれ以上)の領域に区分するような線であれば、どのような線を描いてもよい。
さらには、領域Eを複数設定することも可能であり、たとえば2つ設定する場合、図5に示すように、ユーザは、2つの円Cr1およびCr2を描き、各々の内部にタッチする。これによって、描かれた2つの円Cr1およびCr2の内部が領域E1およびE2として設定される。なお、このときタッチした順番を領域E1およびE2の優先度情報として記憶し、AF/AE処理や顔検出処理を実行する際にこれを参照してもよい。たとえば、AF/AE処理で、最適フォーカス位置/最適露光量を算出する際に、各領域E1,E2,…に優先度に応じた重み付けを行う方法がある。あるいは、全画面に渡って均等に顔検出を行う代わりに、各領域E1,E2,…で優先的に顔検出を行うようにしてもよい。さらには、笑顔シャッタ方式が選択された場合に、各領域E1,E2,…で優先的に笑顔判定を行うようにしてもよい。
なお、設定された領域Eや各領域E1,E2,…に対してのみ、明るさなどを部分的に変化させるような画像処理を施すことも可能である。
または、ユーザは、図4(A)のように任意の大きさの円を描く代わりに、図6のように、まず画面内の所望の点にタッチすることで、円の中心Cを指定し、次にタッチ状態のまま指先(タッチ点)を横滑り(スライド)させることで、円の半径を調節してもよい。この場合、CPU24は、タッチパネル32へのタッチダウンを検出したとき、そのタッチダウン点を円の中心Cとして設定し、タッチ状態のままタッチ点がスライドしている間は、現時点のタッチ点を通る円、つまりタッチ点の移動に連れて拡大/縮小するような円Crを描画する。そして、タッチアップを検出したとき、現時点で描画されている円Crの内部を領域Eとして設定する。
このように、ユーザは、自分撮りを行う前に領域設定を行うが、その際に、併せてシャッタ方式を選択したり対象人数(1つの領域に導入する顔の個数)を設定したりすることも可能である。シャッタ方式としては、“自動シャッタ”,“手動シャッタ”および“笑顔シャッタ”の3種類が準備されており、そのデフォルトは“自動シャッタ”である。対象人数としては、たとえば1領域あたり1人以上の任意の人数が設定可能であり、そのデフォルトは“1人/領域”である。
たとえば、シャッタ方式として“自動シャッタ”が選択され、対象人数として“1人/領域”が選択されている場合、つまりデフォルト状態では、図3(A)に示したように、顔Fが設定領域E内に入るのに応じて、その旨の告知たとえば「設定領域に入りました」が出力され、その後、静止画撮影のタイミングをユーザに認識させる(笑顔を作るなどの準備をさせる)ための案内、たとえば「では撮影します…3…2…1…バシャ」が引き続き出力される。静止画撮影は、「バシャ」のタイミングで自動的に実行される。
また、対象人数は“1人/領域”のまま、シャッタ方式が“手動シャッタ”に変更された場合、図7(B)に示すように、顔Fが設定領域E内に入るのに応じて告知たとえば「設定領域内に入りました」が出力された後、ユーザにシャッタ操作の実行を促す案内たとえば「シャッタを押してください」が出力される。
また、対象人数は“1人/領域”のまま、シャッタ方式が“笑顔シャッタ”に変更された場合、図8(A)に示すように、顔Fが設定領域E内に入るのに応じて告知たとえば「設定領域内に入りました」が出力された後、ユーザに笑顔を促す案内たとえば「にっこり笑ってください」が出力される。そして、図8(B)に示すように、顔Fが笑顔に変化した後で、静止画撮影が実行される。
また、対象人数は“1人/領域”かつシャッタ方式は“手動シャッタ”つまりデフォルトのまま、2つの領域E1およびE2が設定された場合、図9(B)に示すように、設定領域E1およびE2にそれぞれ顔F1およびF2が入るのに応じて、その旨の告知たとえば「全ての設定領域内に入りました」が出力され、引き続いて案内たとえば「シャッタを押してください」が出力される。設定領域E1およびE2の一方にしか顔が入っていない状態、たとえば図9(A)に示すように、設定領域E1内に顔F1が入っているが、設定領域E2内には未だ顔が入っていない状態では、何も出力されないか、またはさらなる導入を促す案内たとえば「もう1人入ってください」が出力される。このような案内の代わりに、たとえば「1つの設定領域内に未だ入っていません」のような告知を出力してもよい。
なお、シャッタ方式は“手動シャッタ”のまま、対象人数が“2人/領域”に変更された場合には、図18(B)に示すように2人分の顔F1およびF2が設定領域E内に入るのに応じて、その旨の告知たとえば「設定領域内に2人入りました」が出力され、引き続いて案内たとえば「シャッタを押してください」が出力される。設定領域E内に未だ1人しか入っていない状態では、図18(A)に示すように、何も出力されないか、またはさらなる導入を促す案内たとえば「もう1人入ってください」が出力される。このような案内の代わりに、たとえば「設定領域内に未だ1人しか入っていません」のような告知を出力してもよい。
さらに、図示や省略するが、“自動シャッタ”または“笑顔シャッタ”の場合も、対象人数が“2人/領域”であれば、2人分の顔F1およびF2が設定領域E内に入るのに応じて、上記と同様の告知「設定領域内に2人入りました」が出力される。一般には、どのシャッタ方式でも、対象人数分の顔F(F1,F2,…)が設定領域E内に入るのに応じて、その旨の告知たとえば「設定領域内に設定人数入りました」が出力される。対象人数に満たない人数分の顔F(F1,F2,…)しか設定領域E内に入っていない状態では、何も出力されないか、またはさらなる導入を促す案内、あるいは現時点の導入済み人数に関する告知などが出力される。
以上のような「自分撮り」モードの撮影処理、ならびに領域E,シャッタ方式および対象人数といった「自分撮り」用パラメータの設定処理は、たとえば、メインメモリ34に記憶された図10に示すようなプログラムおよびデータに基づいて、CPU24が図11〜図14に示すようなフローに従う処理を実行することにより実現される。
詳しくは、図10を参照して、メインメモリ34はプログラム領域50およびデータ領域60を含み、プログラム領域50には自分撮り制御プログラム52などが記憶される。自分撮り制御プログラム52は、顔認識プログラム52aを含む。データ領域60には、シャッタ方式情報62、人数情報64、設定領域情報66、タッチ軌跡情報68、スルー画像データ69、顔情報70、タイマ情報72、音声ガイダンス情報74、誘導条件情報76、笑顔条件情報78、および顔DB80などが記憶される。
なお、図示は省略するが、プログラム領域50には、上述した通話モード(あるいはデータ通信を行うデータ通信モード:詳しい説明は省略)を実現するための通信制御プログラム、および上述した通常撮影モードを実現する通常撮影制御プログラムなども記憶される。
自分撮り制御プログラム52は、CPU24を介して各種ハードウェア(12〜20,26〜40)を制御して、図11〜図14のフローに従う処理を実行する、メインのソフトウェアプログラムである。顔認識プログラム52aは、このような処理を実行する過程で自分撮り制御プログラム52によって利用される、サブのソフトウェアプログラムである。顔認識プログラム52aは、撮影装置38を通して入力された画像データに対して、データ領域60に記憶された顔DB80に基づく顔認識処理を施すことによって、ユーザなど人の顔を認識し、さらには笑顔の特徴を検出する。この認識ないし検出の結果は、顔情報70(後述)としてデータ領域60に書き込まれる。
シャッタ方式情報62は、現時点で選択されているシャッタ方式を示す情報であり、“自動シャッタ”,“手動シャッタ”および“笑顔シャッタ”の間で変化する(デフォルトは“自動シャッタ”)。人数情報64は、現時点で設定されている対象人数を示す情報である(デフォルトは“1人/領域”)。設定領域情報66は、現時点で設定されている領域Eに関する情報であり、具体的には、1つの設定領域Eまたは複数の設定領域E1,E2,…の各々について、領域ID、位置(たとえば中心Cの座標:図17参照)、およびサイズ(たとえば縦A×横B:図17参照)などが記述される。
タッチ軌跡情報68は、タッチダウンからタッチアップまでの期間に検出された一連のタッチ点列の位置(座標)を示す情報である。スルー画像データ69は、現時点でディスプレイ30に表示される低解像度の画像データであり、1フレーム期間(たとえば1/60秒)毎に更新される。顔情報70は、現時点で検出されている顔Fに関する情報であり、具体的には、1つの顔Fまたは複数の顔F1,F2,…の各々について、顔ID、位置(たとえば中心Pの座標:図17参照)、サイズ(たとえば縦a×横b:図17参照)、瞳間距離(たとえばd:図17参照)、口角位置(口角部分が唇全体に対して相対的に上がっているか否か)および目尻位置(目尻部分が目全体に対して相対的に下がっているか否か)などが記述される。
タイマ情報72は、設定領域E内で設定人数分の顔F(F1,F2,…)が検出されている状態(既検出状態)の継続時間(T)を示す情報であり、設定領域E内で未だ設定人数分の顔F(F1,F2,…)が検出されていない状態(未検出状態)では0を示し、未検出状態から既検出状態に移行するとカウントアップが開始され、既検出状態では1フレーム毎にカウントアップされ、既検出状態から未検出状態に移行すると0にリセットされる。
音声ガイダンス情報74は、先述した各種シャッタ用の音声ガイダンスG1およびG3〜G5、ならびに誘導用音声ガイダンスG2aおよびG2bをスピーカ22から出力させるための情報を含む。誘導条件情報76は、顔Fを設定領域E内に納めるための誘導を実行する条件を示す情報であり、誘導条件(1)および(2)の2種類の情報を含む。誘導条件(1)および(2)は、図17に示した変数を用いて、たとえば次のように定義される。
すなわち、誘導条件(1)は、“顔Fの一部が設定領域E内であって、かつ顔Fの中心Pが設定領域E外である”という条件であり、この条件が満足されると、顔Fの中心Pから設定領域Eの中心Cへと向かうベクトルPCが算出され、この算出結果に基づく方向情報(たとえば“右に”)を含む誘導用音声ガイダンスG2a(図3(B)参照)が出力される。一方、誘導条件(2)は、“顔Fのサイズが設定領域Eのサイズよりも大きい”(たとえば、a>Aかつ/またはb>B)という条件であり、この条件が満足されると、誘導用音声ガイダンスG2b(図7(A)参照)が出力される。
ここで、図17を参照して、変数AおよびBは設定領域Eの縦サイズ(x方向の長さ)および横サイズ(y方向の長さ)を示し、変数aおよびbは顔F(肌色領域)の縦サイズ(x方向の長さ)および横サイズ(y方向の長さ)を示す。また、変数dは2つの瞳の間の距離を示し、点Cは設定領域Eの中心(たとえば重心)を示し、点Pは顔Fの中心(たとえば2つの瞳の中点、あるいは肌色領域の重心)を示す。
なお、顔Fのサイズは、瞳間の距離dで表現してもよい。この場合、誘導条件(2)は、たとえば、“瞳間の距離dが設定領域Eの横サイズの1/3倍よりも大きい”(すなわち3d>B)などのように記述される。
図10に戻って、笑顔条件情報78は、顔Fが笑顔の特徴を示したと判断される条件を示す情報であって、たとえば“口角が上がった”,“目尻が下がった”といった、笑顔に特有の変化が記述される。顔DB80は、人の顔の特徴(たとえば肌色領域の輪郭形状や、瞳の中心,目頭,目尻,口の中心,口角といった複数の特徴点の位置など)や、笑顔の特徴(たとえば口角,目尻といった特定の特徴点の位置変化など)を記述したデータベースであり、事前に多数の人の顔を計測することによって生成される。
図示しないメニュー画面等を通して「自分撮り」モードが選択されると、CPU24は、まず、図11および図12に示すような自分撮り用のパラメータ設定処理を実行する。詳しくは、最初、ステップS1で初期設定を行う。初期設定では、シャッタ方式情報62に“自動シャッタ”が、人数情報64には“1人”が、それぞれ初期値として書き込まれる。次に、ステップS3で、ドライバ28に命じて、図15(A)に示すようなシャッタ方式選択画面をディスプレイ30に表示させる。このシャッタ方式選択画面には、選択肢として“自動シャッタ”,“手動シャッタ”および“笑顔シャッタ”が描画されており、このうち現時点で選択されているシャッタ方式である“自動シャッタ”がカーソルで強調されている。ユーザは、キー入力装置26によるカーソル操作を通じて、任意のシャッタ方式を選択することができる。
その後、CPU24の処理は、ステップS5〜S9のループに入り、キー入力装置26による操作を待つ。ステップS5ではOK操作が行われたか否かを、ステップS7では「手動シャッタ」を選択するカーソル操作が行われたか否かを、そしてステップS9では「笑顔シャッタ」を選択するカーソル操作が行われたか否かを、それぞれ判別する。ステップS7でYESであれば、ステップS11でシャッタ方式情報62を“手動シャッタ”に変更した後、ステップS5に戻る。ステップS9でYESであれば、ステップS13でシャッタ方式情報62を“笑顔シャッタ”に変更した後、ステップS5に戻る。ステップS5でYESであれば、ステップS15に進む。
ステップS15では、ドライバ28に命じて、図15(B)に示すような領域形成画面をディスプレイ30に表示させる。この領域形成画面には、領域形成を促すメッセージたとえば“この画面に線を描いて顔を入れたい領域を形成してください”が描画されている。ユーザは、この領域形成画面内に、タッチパネル32へのタッチ操作を通じて任意の領域Eを設定することができる。その後、CPU24の処理は、ステップS17のループに入る。
ステップS17では、タッチダウンが行われたか否かをタッチパネル32からの信号に基づいて判別する。この判別結果がNOからYESに変化すると、CPU24の処理は、ステップS19〜S23のループに入る。ステップS19では、タッチパネル32からの信号に基づいて、現時点のタッチ位置を検出し、ステップS21では、ステップS19の検出結果に基づいて、領域形成画面上にタッチ軌跡を描画するようドライバ28に命令する。ステップS23では、タッチアップが行われたか否かをタッチパネル32からの信号に基づいて判別し、ここでNOであれば、ステップS19に戻って1フレーム毎に同様の処理を繰り返す。
タッチアップが検出されると、ステップS23からステップS25に進む。図12を参照して、ステップS25では、画面内に図4(A)や図4(B)に示すような領域Eが形成されたか否かをタッチ軌跡情報68に基づいて判別する。ここでNOであれば、ステップS27でエラー通知を行った後、ステップS15に戻って同様の処理を繰り返す。ステップS25でYESであれば、ステップS29に進み、ドライバ28に命じて、図16(A)に示すような領域設定画面をディスプレイ30に表示させる。この領域設定画面には、領域Eを形成するタッチ軌跡Lと共に、領域設定を促すメッセージたとえは“顔を入れたい領域にタッチしてください”と、“領域を追加”するためのボタンBt1と、“人数を変更”するためのボタンBt2とが描画されている。その後、CPU24の処理は、ステップS31〜S35のループに入る。

ステップS31では、領域設定操作が行われたか否かを、ステップS33では、「領域を追加」するボタンBt1が押下されたか否かを、ステップS35では「人数を変更」するボタンBt2が押下されたか否かを、タッチパネル32からの信号に基づいて判別する。ステップS33でYESであれば、ステップS17に戻って同様の処理を繰り返す。この結果、画面内に領域E1,E2,…が形成されていく。ステップS35でYESであれば、ステップS37で、キー入力装置26等を介して人数変更操作を受け付け、さらにステップS39で、ステップS37の変更結果に基づいて人数情報64を更新した後、ステップS31に戻って同様の処理を繰り返す。
なお、領域設定画面の表示後に、タッチパネル32を介したドラッグ操作や、キー入力装置26を介した操作(トラックボールなどの操作)を受け付け、領域設定画面上でタッチ軌跡L(領域E)を任意の位置へと移動させたり、拡大/縮小したり変形させたりしてもよい。
領域Eへのタッチ操作、または領域E1,E2,…に順番にタッチする操作が行われると、ステップS31でYESと判別し、ステップS41に進む。ステップS41では、ステップS31の設定結果に基づいて設定領域情報66を生成(更新)する。なお、ここで、領域E1,E2,…へのタッチ順序に従う(または他の操作に基づく)優先度情報をさらに生成してもよい。その後、ステップS43に進み、ドライバ28に命じて、図16(B)に示すような設定確認画面をディスプレイ30に表示させる。この設定確認画面では、上記のようにして設定された領域Eが着色して描画される。また、先述のように設定されたシャッタ方式および人数を示す情報、たとえば“シャッタ方式:自動”および“人数:1人/領域”も描画されている。その後、CPU24の処理は、ステップS45〜S47のループに入る。
ステップS45ではOK操作が行われたか否かを、ステップS47ではキャンセル操作が行われたか否かを、それぞれタッチパネル32からの信号に基づいて判別する。ステップS47でYESであれば、ステップS1に戻って同様の処理を繰り返す。一方、ステップS45でYESであれば、CPU24の処理は、自分撮りモードへと移行する。
なお、図11〜図12のフローでは、初期設定を毎回実行しているが、前回の設定内容をフラッシュメモリ36などに保存しておき、次回の初期設定では、その保存された内容をメインメモリ34に読み込むようにしてもよい。
図13を参照して、自分撮りモードに移行すると、CPU24は、最初、ステップS61で、スルー撮影開始命令を発する。応じて撮影装置38は、スルー撮影を開始する。撮影装置38では、レンズ38aを経てイメージセンサ38bの受光面に結像した光学像は、光電変換を施され、これによって、光学像を表す電荷が生成される。スルー撮影では、イメージセンサ38bで生成された電荷の一部が、たとえば1/60秒毎に、低解像度の生画像信号として読み出される。読み出された生画像信号は、カメラ処理回路38cによってA/D変換,色分離,YUV変換などの一連の画像処理を施されることで、YUV形式の画像データに変換される。
こうして、撮影装置38からは、スルー表示用の低解像度の画像データが、たとえば60fpsのフレームレートで出力される。出力された画像データは、現時点のスルー画像データ69としてメインメモリ34に書き込まれる。ドライバ28は、メインメモリ34に記憶されたスルー画像データ69を繰り返し読み出し、これに基づくスルー画像をディスプレイ30に表示する。
次に、ステップS63およびS65で、メインメモリ34に記憶されたスルー画像データ69を参照して、レンズ38aの位置をドライバ38dを介して最適位置に調節するAF処理、およびイメージセンサ38bの露光量を最適量に調整するAE処理を実行する。なお、AF処理およびAE処理を実行する際に、設定領域情報66を参照して、設定領域Eを優先してもよい。複数の領域E1,E2,…が設定されている場合には、各領域E1,E2,…に設定された優先度(優先順位)を考慮してもよい。
次に、ステップS67で、メインメモリ34に記憶されたスルー画像データ69および顔DB80に基づいて、顔検出処理を実行する。顔検出処理では、1フレーム分のスルー画像データ69に対して、検出枠を動かしながら、これに属する部分を切り出して、その切り出した部分の画像データを顔DB80と比較する処理が、繰り返し行われる。なお、顔検出処理を実行する際にも、設定領域Eを優先してよいし、各領域E1,E2,…に設定された優先順位を考慮してもよい。具体的には、設定領域E(各領域E1,E2,…)から先に顔検出を行って、検出範囲をその周辺に広げていく(検出枠を渦巻状に動かす)方法や、設定領域E(各領域E1,E2,…)およびその近傍で、検出枠のサイズを小さくする(検出精度を高める)方法などがある。顔Fが検出されると、顔IDを付与して、位置(中心点Pの座標)、サイズ(a×b)、瞳間距離(d)、口角位置および目尻位置などを算出する(図17参照)。これらの算出結果は、顔情報70としてメインメモリ34に書き込まれる。
次に、ステップS69で、設定領域情報66および顔情報70に基づいて、顔F(F1,F2,…)を設定領域E(E1,E2,…)と比較する。そして、設定領域E(E1,E2,…)内で設定人数分の顔F(F1,F2,…)が検出されたか否かを、次のステップS71で判別する。
具体的には、設定領域数が1で、設定人数が1人/領域の場合、顔Fの全体が設定領域E(E1,E2,…)の内部にあれば、ステップS71でYESと判別される。一方、顔Fの全体が設定領域E(E1,E2,…)の外部にあるか、または顔Fの一部しか設定領域E(E1,E2,…)の内部になければ、ステップS71でNOと判別される。なお、顔Fの一定割合(たとえば50%)以上が設定領域E(E1,E2,…)の内部にあれば、ステップS71でYESと判別し、顔Fの一定割合(たとえば50%)未満しか設定領域E(E1,E2,…)の内部になければNOと判別する方法を採用してもよい。
なお、ここでいう割合は、たとえば、顔Fを構成する肌色領域の面積に関する割合であるが、顔Fに含まれる特徴点の数に関する割合でもよい。特徴点に注目する場合には、目,口といった主要な特徴点のたとえば90%以上が設定領域E(E1,E2,…)の内部にあれば、ステップS71でYESと判別し、90%未満しか設定領域E(E1,E2,…)の内部になければNOと判別する方法もある。
また、設定領域数が2またはそれ以上で、設定人数が1人/領域の場合、各設定領域E1,E2,…の内部にそれぞれ顔F1,F2,…の全体が入っていれば、ステップS71でYESと判別される。一方、設定領域E1,E2,…のうち1つでも、全く顔が入っていないか、または顔の一部しか内部に入っていないものがあれば、ステップS71でNOと判別される。この場合も、各設定領域E1,E2,…の内部にそれぞれ顔F1,F2,…の50%以上が入っていれば、ステップS71でYESと判別し、設定領域E1,E2,…のうち1つでも、顔が全く入っていないか、または50%未満しか入っていないものがあれば、ステップS71でNOと判別する方法を採用してもよい。
また、設定領域数が1で、設定人数が2人/領域またはそれ以上の場合、設定人数分の顔F1,F2,…が設定領域Eの内部にあれば、ステップS71でYESと判別される。一方、設定領域E内にある顔の数が設定人数分に満たない場合、ステップS71でNOと判別される。なお、設定領域数が2以上の場合は、各領域E1,E2,…について、設定人数分の顔が内部にあるか否かを検証して、全ての領域E1,E2,…で設定人数分の顔が内部にあれば、ステップS71でYESと判別し、一方、設定領域E1,E2,…のうち1つでも、顔が全く内部に入っていないか、または一部しか内部に入っていないものがあれば、ステップS71でNOと判別される。この場合も、判別の際に50%などの閾値を用いてよい。
ステップS71でNOであれば、ステップS73で、タイマ情報72をリセット(“T=0”に初期化)する。次に、誘導条件情報76を参照して、ステップS69の比較結果が先述した誘導条件(1)または(2)に該当するか否かを判別する。具体的には、誘導条件(1)に該当するか否かをステップS75aで判別し、ここでNOであれば、誘導条件(2)に該当するか否かをステップS75bでさらに判別する。なお、誘導条件(1)および(2)については、先に説明した。
ステップS75aでYESであれば、ステップS76で、顔Fの中心Pから設定領域Eの中心Cへ向かう方向(ベクトルPC:図17参照)を算出し、そしてステップS77aで、音声ガイダンス情報74のうち、算出された方向(たとえば“右”)への誘導を含む誘導用音声ガイダンスG2a(図3(B)参照)を(部分的かつ順次的に)出力する。一方、ステップS75bでYESであれば、ステップS77bで、音声ガイダンス情報74のうち、顔を携帯端末10から遠ざける誘導を含む誘導用音声ガイダンスG2b(図7(A)参照)を(部分的かつ順次的に)出力する。出力後、ステップS63に戻って、1フレーム毎に同様の処理を繰り返す。
したがって、ステップS69の比較結果が誘導条件(1)または(2)に該当している状態が継続すると、ステップS77aまたはS77bの繰り返しによって、誘導用音声ガイダンスG2aまたはG2bの全体が出力される結果となる。ユーザは、誘導用音声ガイダンスG2aまたはG2bに従い、撮影装置38に対する顔の位置や向きを調整することができる。
このような調整によって、設定人数分の顔F(F1,F2,…)が設定領域E(E1,E2,…)内に納まると、ステップS71の判別結果がNOからYESに変化し、CPU24の処理は、ステップS79に移る。ステップS79では、タイマ情報72をカウントアップ(RTC24aからの信号に基づいてたとえば1/60秒を加算:T=T+1/60秒)し、その後、ステップS81に進む。
図14を参照して、ステップS81では、現時点で選択されているシャッタ方式を判別するべく、メインメモリ34からシャッタ方式情報62を読み取る。次に、読み取ったシャッタ方式情報が手動シャッタを示すか否かをステップS83で判定し、ここでNOであれば、笑顔シャッタであるか否かをステップS85でさらに判別する。ここでもNOであれば、現時点で選択されているシャッタ方式は自動シャッタであるとみなして、ステップS87に進む。ステップS87では、音声ガイダンス情報74のうち自動シャッタ用の音声ガイダンスG1を(部分的かつ順次的に)出力する。次に、ステップS89で、タイマ情報78の示す時間(T)が所定時間(たとえば4秒)に達したか否かを判別し、ここでNO(T<4秒)であれば、ステップS63に戻って1フレーム毎に同様の処理を繰り返す。ステップS89でYES(T≧4秒)であれば、ステップS99に進む。
ステップS83でYESであれば、ステップS91で、音声ガイダンス情報74のうち手動シャッタ用の音声ガイダンスG3またはG4を(部分的かつ順次的に)出力する。次に、ステップS93で、シャッタ操作が行われたか否かをキー入力装置26(あるいはタッチパネル32)からの信号に基づいて判別し、ここでNOであれば、ステップS63に戻って1フレーム毎に同様の処理を繰り返す。ステップS93でYESであれば、ステップS99に進む。
ステップS85でYESであれば、ステップS95で、音声ガイダンス情報74のうち笑顔シャッタ用の音声ガイダンスG5を(部分的かつ順次的に)出力する。次に、ステップS97で、笑顔条件が満足されたか否かを顔情報70(特に口角位置,目尻位置)に基づいて判別し、ここでNO(たとえば“口角が上がっていない、かつ目尻が下がっていない”)であれば、ステップS63に戻って1フレーム毎に同様の処理を繰り返す。ステップS97でYES(たとえば“口角が上がった、かつ/または目尻が下がった”)であれば、ステップS99に進む。
ステップS99では、静止画撮影命令を発する。応じて撮影装置38は、静止画撮影を実行する。撮影装置38では、レンズ38aを経てイメージセンサ38bの受光面に結像した光学像は、光電変換を施され、これによって、光学像を表す電荷が生成される。静止画撮影では、こうしてイメージセンサ38bで生成された電荷が、高解像度の生画像信号として読み出される。読み出された生画像信号は、カメラ処理回路38cによってA/D変換,色分離,YUV変換などの一連の画像処理を施されることで、YUV形式の画像データに変換される。
こうして、撮影装置38から、記録用の高解像度の画像データが出力される。出力された画像データは、メインメモリ34に一時保持される。次のステップS101では、メインメモリ34に一時保持された画像データが、静止画像データとしてフラッシュメモリ36に書き込まれる。次に、ステップS103で、終了操作が行われたか否かをキー入力装置26(あるいはタッチパネル32)からの信号に基づいて判別し、ここでNOであれば、ステップS61に戻って同様の処理を繰り返す。ステップS103でYESであれば、自分撮りモードの撮影処理を終了する。
以上から明らかなように、この実施例の携帯端末10では、ハウジングHの第1主面H1に撮影装置38が、第1主面H1に対向する第2主面H2にはディスプレイ30が設けられる。なお、撮影装置38およびディスプレイ30は、ハウジングHの形状によっては、1つの主面および1つの側面のように、互いに垂直な面に設けられてもよい。言い換えれば、互いに異なる面に設けられた方が好ましい(後述する効果が顕著となる)が、同じ面に設けられていても構わない。
撮影装置38は、シャッタ条件(たとえば“顔Fが領域E内に入ってから所定時間が経過した”,“シャッタ操作が行われた”,“顔Fが笑顔の特徴を示した”などの条件)が満足されるまでスルー画像を繰り返し撮影し(S61)、シャッタ条件が満足される(S89,S93,S97:YES)と静止画像を撮影する(S99)。ディスプレイ30には、ドライバ28を介して、撮影装置38によって撮影されたスルー画像が少なくとも表示される。CPU24は、ディスプレイ30の表示面に対して所望の領域Eを設定し(S15〜S33,S41〜S47)、撮影装置38によって撮影されたスルー画像から顔Fを検出し(S67)、そして設定された領域E内で顔Fが検出された場合(S71:YES)に、シャッタ条件が満足されたか否かの判別を行う(S89,S93,S97)。撮影装置38による静止画撮影は、この判別結果を参照して実行される。
したがって、シャッタ条件が満足されたか否かは、領域E内で顔Fが検出された状態で判別され、満足されれば静止画撮影が実行されるので、顔Fが領域E内に配置された静止画像が撮影される結果となる。これにより、たとえば自分撮りを行う場合にスルー画像が見えないような状況でも、顔Fが所望の領域E内に配置された静止画像を撮影することができる。
なお、撮影装置38および/またはディスプレイ30は、ハウジングHとは別体であっても、ハウジングHに対して着脱可能あるいは向きを変更可能であってもよい。いずれの場合も、自分撮りに限らず、スルー画像を見ることが困難な状況で、顔が所望の領域内に配置された静止画像を撮影できる。
なお、タッチパネル32は、ディスプレイ30の表示面に設けられて、表示面上の任意の位置を指定する(あるいは指定された位置を検出する)デバイスであって、タッチスクリーン,タブレットなどと呼ばれる場合もある。また、CPU24は、タッチパネル32に代えて、またはこれと組み合わせて、キー入力装置26を通して領域設定を行ってもよい。たとえば、予め決められた複数の領域の中から、1つまたは2つ以上の領域をキー入力装置26によるカーソル操作で選択する方法などがある。また、領域設定は、携帯端末10に備え付けのタッチパネル32およびキー入力装置26以外の入力部、たとえばマウス,タッチパッドといった外付けのポインティングデバイス、あるいは外付けのキーボードなどを通して行われてもよい。
CPU24はまた、設定された領域E内で顔Fが検出された場合(S71:YES)に、当該顔Fが当該領域E内に位置する旨の告知を少なくとも含む音声ガイダンスG1,G3〜G5を出力する(S87,S91,S95)。
なお、音声ガイダンスG1,G3〜G5は、スピーカ(22)から言語による音声案内の態様で出力される代わりに、信号音(ベル音,ブザー音,高い音,低い音など)の態様で出力されてもよいし、発光器40から信号光(赤い光,青い光,各種のパターンで点滅する光など)の態様で出力されてもよい。
このような音声ガイダンスG1,G3〜G5によって、ユーザは、顔Fが設定領域E内に入ったことがわかるので、静止画撮影に備えて静止したり笑顔を作ったりといった準備が行える。
CPU24はまた、検出された顔Fが設定された領域Eからはみ出している場合(S75a,75b:YES)に、当該顔Fを当該領域E内に導入するための音声ガイダンスG2a,G2bを出力する(S77a,S77b)。
なお、音声ガイダンスG2a,G2bは、スピーカ(22)から言語による音声案内の態様で出力される代わりに、内容によっては、信号音の態様で出力されてもよく、発光器40から信号光の態様で出力されてもよい。発光器40が、2次元的に配列された複数の発光素子(たとえばLED)で構成される場合、方向を示すことも可能である。
このような音声ガイダンスG2a,G2bによって、ユーザは、領域E内に顔Fを容易に導入することができる。
なお、検出された顔Fが設定された領域Eに対して小さすぎる場合に、撮影装置38に近づくように促す音声ガイダンスを出力してもよい。
なお、この実施例では、シャッタ条件が満足されるのに応じて静止画像を撮影したが、シャッタ条件が満足されるのに応じて記録用の動画像を撮影してもよい。これによって、たとえば自分撮りを行う場合にスルー画像が見えないような状況でも、顔Fが所望の領域E内に配置された動画像を撮影できる。動画像を撮影中に顔Fが領域Eの外に出た場合には、その旨の告知を行うのが好ましい。このような告知に代えて、またはこれに加えてさらに、当該顔Fを当該領域E内に再導入するための案内情報、たとえば誘導用音声ガイダンス内情報G2a,G2bと同様の情報を出力してもよい。顔Fが領域Eから出ている期間は、動画撮影を中断してスルー撮影を実行してもよい。
なお、以上の説明で挙げた各種の数値(設定領域に含まれる顔の割合,フレームレートなど)、音声ガイダンスの内容、条件(誘導条件,笑顔条件など)、シャッタ方式などは、いずれも単なる例示に過ぎず、適宜変更したり追加または削除したりすることが可能である。
以上では、携帯端末10について説明したが、この発明は、撮影部および表示部ならびにCPU(プロセッサ,コンピュータ)を備える各種の機器(カメラ装置)、たとえば携帯電話機,携帯情報端末(PDA),スマートフォン,電子ビューファインダ付きのカメラなどに適用できる。
10 …携帯端末
14 …無線通信回路
22 …スピーカ
24 …CPU
34 …メインメモリ
26 …キー入力装置
30 …ディスプレイ
32 …タッチパネル
38 …撮影装置
H(H1,H2) …ハウジング(第1主面,第2主面)
E,E1,E2 …設定領域
F,F1,F2 …顔

Claims (13)

  1. シャッタ条件が満足されるまでスルー画像を繰り返し撮影し、そしてシャッタ条件が満足されると記録用の画像を撮影する撮影部、
    前記撮影部によって撮影されたスルー画像を少なくとも表示する表示部、
    前記表示部の表示面に対して領域を設定する領域設定部、
    前記撮影部によって撮影されたスルー画像から顔を検出する顔検出部、および
    前記領域設定部によって設定された領域内で前記顔検出部によって顔が検出された場合に、前記シャッタ条件が満足されたか否かの判別を行う判別部を備え、
    前記撮影部は、前記判別部の判別結果を参照して撮影を行う、カメラ装置。
  2. 前記撮影部は、前記シャッタ条件が満足されると記録用の静止画像を撮影する、請求項1記載のカメラ装置。
  3. 前記表示部の表示面に設けられるタッチパネルをさらに備え、
    前記領域設定部は、前記タッチパネルを通して領域設定を行う、請求項1または2記載のカメラ装置。
  4. 前記領域設定部によって設定された領域内で前記顔検出部によって顔が検出された場合に、当該顔が当該領域内に位置する旨の告知を少なくとも含む第1案内情報を出力する第1案内出力部をさらに備える、請求項1ないし3のいずれかに記載のカメラ装置。
  5. 前記シャッタ条件は、シャッタ操作が行われたという条件である、請求項4記載のカメラ装置。
  6. 前記第1案内情報は、シャッタ操作を促す案内をさらに含む、請求項5記載のカメラ装置。
  7. 前記シャッタ条件は、設定領域内で顔が検出されている状態が所定時間以上継続したという条件である、請求項4記載のカメラ装置。
  8. 前記第1案内情報は、前記所定時間の経過に関する案内をさらに含む、請求項7記載のカメラ装置。
  9. 前記シャッタ条件は、設定領域内で検出されている顔が笑顔の特徴を示したという条件である、請求項4記載のカメラ装置。
  10. 前記第1案内情報は、笑顔を促す案内をさらに含む、請求項9記載のカメラ装置。
  11. 前記顔検出部によって検出された顔が前記領域設定部によって設定された領域の外にある場合に、当該顔を当該領域内に導入するための第2案内情報を出力する第2案内出力部をさらに備える、請求項4記載のカメラ装置。
  12. 人数を指定する人数指定部をさらに備え、
    前記判別部は、前記人数指定部によって指定された人数分の顔が設定領域内で検出された場合に判別を行う、請求項1記載のカメラ装置。
  13. シャッタ条件が満足されるまでスルー画像を繰り返し撮影し、そしてシャッタ条件が満足されると記録用の画像を撮影する撮影部と、前記撮影部によって撮影されたスルー画像を少なくとも表示する表示部とを備えるカメラ装置のプロセッサを、
    前記表示部の表示面に対して領域を設定する領域設定部、
    前記撮影部によって撮影されたスルー画像から顔を検出する顔検出部、および
    前記領域設定部によって設定された領域内で前記顔検出部によって顔が検出された場合に、前記シャッタ条件が満足されたか否かの判別を行う判別部として機能させ、
    前記撮影部は、前記判別部の判別結果を参照して撮影を行う、制御プログラム。
JP2010145206A 2010-06-25 2010-06-25 カメラ装置 Pending JP2012010162A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010145206A JP2012010162A (ja) 2010-06-25 2010-06-25 カメラ装置
KR1020110059958A KR101237809B1 (ko) 2010-06-25 2011-06-21 카메라 장치
US13/168,909 US20110317031A1 (en) 2010-06-25 2011-06-24 Image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010145206A JP2012010162A (ja) 2010-06-25 2010-06-25 カメラ装置

Publications (1)

Publication Number Publication Date
JP2012010162A true JP2012010162A (ja) 2012-01-12

Family

ID=45352195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010145206A Pending JP2012010162A (ja) 2010-06-25 2010-06-25 カメラ装置

Country Status (3)

Country Link
US (1) US20110317031A1 (ja)
JP (1) JP2012010162A (ja)
KR (1) KR101237809B1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214882A (ja) * 2012-04-02 2013-10-17 Nikon Corp 撮像装置
JP2013251710A (ja) * 2012-05-31 2013-12-12 Sharp Corp 電子機器、撮像処理方法、およびプログラム
WO2014061222A1 (ja) * 2012-10-18 2014-04-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理用プログラム
JP2015026894A (ja) * 2013-07-24 2015-02-05 富士通株式会社 撮像プログラム、撮像方法および情報処理装置
WO2015136952A1 (ja) * 2014-03-12 2015-09-17 コニカミノルタ株式会社 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
JP2016163145A (ja) * 2015-02-27 2016-09-05 カシオ計算機株式会社 電子機器、情報取得方法及びプログラム
WO2016178267A1 (ja) * 2015-05-01 2016-11-10 オリンパス株式会社 撮像指示装置、撮像システム、撮影方法およびプログラム
JP2017041805A (ja) * 2015-08-20 2017-02-23 キヤノン株式会社 撮影装置、情報処理方法及びプログラム
JP2017130920A (ja) * 2016-01-19 2017-07-27 Line株式会社 撮影位置推薦方法、コンピュータプログラムおよび撮影位置推薦システム
JP2018064280A (ja) * 2017-11-02 2018-04-19 ソニー株式会社 画像処理装置および画像処理方法
US10070045B2 (en) 2013-05-16 2018-09-04 Sony Corporation Information processing apparatus, electronic apparatus, server, information processing program, and information processing method
JP2020177484A (ja) * 2019-04-19 2020-10-29 株式会社ショーケース 本人確認システム、オペレータ端末及び本人確認システムプログラム

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012095236A (ja) * 2010-10-28 2012-05-17 Sanyo Electric Co Ltd 撮像装置
KR101794350B1 (ko) * 2011-02-08 2017-12-04 삼성전자주식회사 휴대단말기의 영상 촬영 방법
US9596398B2 (en) * 2011-09-02 2017-03-14 Microsoft Technology Licensing, Llc Automatic image capture
JP2013081159A (ja) * 2011-09-22 2013-05-02 Panasonic Corp 撮像装置
US8878794B2 (en) 2011-09-27 2014-11-04 Z124 State of screen info: easel
US9197904B2 (en) 2011-12-15 2015-11-24 Flextronics Ap, Llc Networked image/video processing system for enhancing photos and videos
US9137548B2 (en) 2011-12-15 2015-09-15 Flextronics Ap, Llc Networked image/video processing system and network site therefor
US8948253B2 (en) 2011-12-15 2015-02-03 Flextronics Ap, Llc Networked image/video processing system
TW201337641A (zh) * 2012-03-15 2013-09-16 Fih Hong Kong Ltd 自拍提示系統及方法
US9007508B2 (en) * 2012-03-29 2015-04-14 Sony Corporation Portable device, photographing method, and program for setting a target region and performing an image capturing operation when a target is detected in the target region
JP5970937B2 (ja) 2012-04-25 2016-08-17 ソニー株式会社 表示制御装置および表示制御方法
PT106430B (pt) 2012-07-03 2018-08-07 Cesar Augusto Dos Santos Silva Sistema para medição da distância interpupilar usando um dispositivo equipado com um ecrã e uma câmara
KR101671137B1 (ko) * 2012-12-04 2016-10-31 엘지전자 주식회사 영상 촬영 장치 및 그 방법
KR102092571B1 (ko) * 2013-01-04 2020-04-14 삼성전자 주식회사 카메라를 구비하는 장치의 인물 촬영장치 및 방법
US20140204263A1 (en) * 2013-01-22 2014-07-24 Htc Corporation Image capture methods and systems
US9106821B1 (en) * 2013-03-13 2015-08-11 Amazon Technologies, Inc. Cues for capturing images
CN104125387A (zh) * 2013-04-25 2014-10-29 宏碁股份有限公司 摄影导引方法与电子装置
KR102082661B1 (ko) * 2013-07-12 2020-02-28 삼성전자주식회사 전자 장치의 촬영 이미지 생성 방법 및 장치
JP6373265B2 (ja) * 2013-07-22 2018-08-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置および情報処理装置の制御方法
US20150063678A1 (en) * 2013-08-30 2015-03-05 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a user using a rear-facing camera
CN104469121B (zh) * 2013-09-16 2018-08-10 联想(北京)有限公司 信息处理方法及电子设备
EP2887640A1 (en) * 2013-12-23 2015-06-24 Thomson Licensing Guidance method for taking a picture, apparatus and related computer program product
KR102155521B1 (ko) * 2014-05-23 2020-09-14 삼성전자 주식회사 카메라를 구비하는 전자 장치의 부가 정보 획득 방법 및 장치
KR102031874B1 (ko) * 2014-06-10 2019-11-27 삼성전자주식회사 구도 정보를 이용하는 전자 장치 및 이를 이용하는 촬영 방법
EP2958308A1 (en) * 2014-06-17 2015-12-23 Thomson Licensing Method for taking a self-portrait
JP2016012846A (ja) * 2014-06-30 2016-01-21 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
EP3010225B1 (en) * 2014-10-14 2019-07-24 Nokia Technologies OY A method, apparatus and computer program for automatically capturing an image
KR102225947B1 (ko) * 2014-10-24 2021-03-10 엘지전자 주식회사 이동단말기 및 그 제어방법
KR101662560B1 (ko) * 2015-04-23 2016-10-05 김상진 카메라 기능 설정과 영상 촬영을 동시에 수행하는 카메라 셔터 제어 장치 및 그 방법
KR102469694B1 (ko) * 2015-08-24 2022-11-23 삼성전자주식회사 카메라를 구비하는 장치에서 사진 촬영 지원 기법
CN105718887A (zh) * 2016-01-21 2016-06-29 惠州Tcl移动通信有限公司 基于移动终端摄像头实现动态捕捉人脸摄像的方法及系统
KR102462644B1 (ko) 2016-04-01 2022-11-03 삼성전자주식회사 전자 장치 및 그의 동작 방법
JP6836306B2 (ja) * 2017-02-01 2021-02-24 キヤノン株式会社 撮像制御装置、その制御方法、プログラム及び記録媒体
US20180241937A1 (en) * 2017-02-17 2018-08-23 Microsoft Technology Licensing, Llc Directed content capture and content analysis
KR102333101B1 (ko) * 2017-06-21 2021-12-01 삼성전자주식회사 관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치
CN107257439B (zh) 2017-07-26 2019-05-17 维沃移动通信有限公司 一种拍摄方法及移动终端
US10425578B1 (en) * 2017-09-07 2019-09-24 Amazon Technologies, Inc. Image capturing assistant
US10970576B2 (en) * 2018-08-27 2021-04-06 Daon Holdings Limited Methods and systems for capturing image data
US10785406B2 (en) * 2019-02-01 2020-09-22 Qualcomm Incorporated Photography assistance for mobile devices

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007324877A (ja) * 2006-05-31 2007-12-13 Fujifilm Corp 撮像装置
JP2007329602A (ja) * 2006-06-07 2007-12-20 Casio Comput Co Ltd 撮像装置、撮影方法、および撮影プログラム
JP2009117975A (ja) * 2007-11-02 2009-05-28 Oki Electric Ind Co Ltd 撮影装置および撮影方法
JP2010098629A (ja) * 2008-10-20 2010-04-30 Canon Inc 撮像装置
JP2010114842A (ja) * 2008-11-10 2010-05-20 Samsung Yokohama Research Institute Co Ltd 撮像装置及び撮像方法
JP2010136408A (ja) * 2010-01-06 2010-06-17 Furyu Kk 写真撮影プリント装置、写真撮影プリント装置の制御方法、写真撮影プリント装置の制御プログラム、およびコンピュータ読み取り可能な記録媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006040761A2 (en) * 2004-10-15 2006-04-20 Oren Halpern A system and a method for improving the captured images of digital still cameras
JP4777157B2 (ja) * 2006-06-16 2011-09-21 キヤノン株式会社 情報処理装置
JP4197019B2 (ja) * 2006-08-02 2008-12-17 ソニー株式会社 撮像装置および表情評価装置
KR100820275B1 (ko) * 2007-04-30 2008-04-08 삼성전자주식회사 분할 촬영 방법 및 이를 이용하는 이동통신 단말기
JP5144422B2 (ja) * 2007-09-28 2013-02-13 富士フイルム株式会社 撮影装置及び撮影方法
KR101510101B1 (ko) * 2008-01-30 2015-04-10 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
KR20100001272A (ko) * 2008-06-26 2010-01-06 삼성디지털이미징 주식회사 셀프 촬영 안내 기능을 구비한 디지털 영상 처리 장치 및그 동작 방법
KR20100027700A (ko) * 2008-09-03 2010-03-11 삼성디지털이미징 주식회사 촬영 방법 및 장치
JP5517435B2 (ja) * 2008-10-22 2014-06-11 キヤノン株式会社 自動合焦装置および自動合焦方法、ならびに、撮像装置
KR20100058280A (ko) * 2008-11-24 2010-06-03 삼성전자주식회사 휴대 단말기를 이용한 영상 촬영 방법 및 장치
CN101848333B (zh) * 2009-03-25 2011-09-28 佛山普立华科技有限公司 成像装置及其对焦方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007324877A (ja) * 2006-05-31 2007-12-13 Fujifilm Corp 撮像装置
JP2007329602A (ja) * 2006-06-07 2007-12-20 Casio Comput Co Ltd 撮像装置、撮影方法、および撮影プログラム
JP2009117975A (ja) * 2007-11-02 2009-05-28 Oki Electric Ind Co Ltd 撮影装置および撮影方法
JP2010098629A (ja) * 2008-10-20 2010-04-30 Canon Inc 撮像装置
JP2010114842A (ja) * 2008-11-10 2010-05-20 Samsung Yokohama Research Institute Co Ltd 撮像装置及び撮像方法
JP2010136408A (ja) * 2010-01-06 2010-06-17 Furyu Kk 写真撮影プリント装置、写真撮影プリント装置の制御方法、写真撮影プリント装置の制御プログラム、およびコンピュータ読み取り可能な記録媒体

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214882A (ja) * 2012-04-02 2013-10-17 Nikon Corp 撮像装置
JP2013251710A (ja) * 2012-05-31 2013-12-12 Sharp Corp 電子機器、撮像処理方法、およびプログラム
US9830336B2 (en) 2012-10-18 2017-11-28 Nec Corporation Information processing device, information processing method and information processing program
WO2014061222A1 (ja) * 2012-10-18 2014-04-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理用プログラム
US10924658B2 (en) 2013-05-16 2021-02-16 Sony Corporation Information processing apparatus, electronic apparatus, server, information processing program, and information processing method
US10686981B2 (en) 2013-05-16 2020-06-16 Sony Corporation Information processing apparatus, electronic apparatus, server, information processing program, and information processing method
US10070045B2 (en) 2013-05-16 2018-09-04 Sony Corporation Information processing apparatus, electronic apparatus, server, information processing program, and information processing method
JP2015026894A (ja) * 2013-07-24 2015-02-05 富士通株式会社 撮像プログラム、撮像方法および情報処理装置
WO2015136952A1 (ja) * 2014-03-12 2015-09-17 コニカミノルタ株式会社 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
JP2016163145A (ja) * 2015-02-27 2016-09-05 カシオ計算機株式会社 電子機器、情報取得方法及びプログラム
WO2016178267A1 (ja) * 2015-05-01 2016-11-10 オリンパス株式会社 撮像指示装置、撮像システム、撮影方法およびプログラム
JP2017041805A (ja) * 2015-08-20 2017-02-23 キヤノン株式会社 撮影装置、情報処理方法及びプログラム
JP2017130920A (ja) * 2016-01-19 2017-07-27 Line株式会社 撮影位置推薦方法、コンピュータプログラムおよび撮影位置推薦システム
JP2018064280A (ja) * 2017-11-02 2018-04-19 ソニー株式会社 画像処理装置および画像処理方法
JP2020177484A (ja) * 2019-04-19 2020-10-29 株式会社ショーケース 本人確認システム、オペレータ端末及び本人確認システムプログラム
JP7329204B2 (ja) 2019-04-19 2023-08-18 株式会社ショーケース 本人確認システム、オペレータ端末及び本人確認システムプログラム

Also Published As

Publication number Publication date
KR101237809B1 (ko) 2013-02-28
KR20120000508A (ko) 2012-01-02
US20110317031A1 (en) 2011-12-29

Similar Documents

Publication Publication Date Title
JP2012010162A (ja) カメラ装置
US10341553B2 (en) Image capturing device with touch screen for adjusting camera settings
US9462181B2 (en) Imaging device for capturing self-portrait images
JP5791448B2 (ja) カメラ装置および携帯端末
JP6216109B2 (ja) 表示制御装置,表示制御プログラムおよび表示制御方法
EP3258414B1 (en) Prompting method and apparatus for photographing
EP3945494A1 (en) Video processing method, apparatus and storage medium
CN112312016B (zh) 拍摄处理方法、装置、电子设备和可读存储介质
US8692907B2 (en) Image capturing apparatus and image capturing method
EP3822742B1 (en) Method, apparatus and device for triggering shooting mode, and storage medium
JP5313043B2 (ja) 撮影条件制御装置、カメラ、プログラム
RU2635873C2 (ru) Способ и устройство для отображения информации кадрирования
KR100833270B1 (ko) 이동 가능한 자동 사진 촬영 방법 및 장치
US8866934B2 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
KR101227875B1 (ko) 사용자 동작 기반 디스플레이 장치
CN106201238B (zh) 展示对焦状态的方法及装置
JP2013093844A (ja) 電子カメラ
CN108366237A (zh) 投影图像调节方法、装置及计算机可读存储介质
EP4068077A1 (en) Shooting method and apparatus
WO2021152961A1 (ja) 表示方法
JP5415830B2 (ja) 携帯端末、電子カメラおよび連続撮影プログラム
CN116980766A (zh) 图像拍摄方法、装置、终端及存储介质
CN114079724A (zh) 起跳抓拍方法、装置及存储介质
CN114827441A (zh) 拍摄方法、装置、终端设备及存储介质
CN108965849A (zh) 图像处理方法、装置及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140324

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141104