JP5871473B2 - 目標物選択装置、その制御方法、および制御プログラム - Google Patents

目標物選択装置、その制御方法、および制御プログラム Download PDF

Info

Publication number
JP5871473B2
JP5871473B2 JP2011025884A JP2011025884A JP5871473B2 JP 5871473 B2 JP5871473 B2 JP 5871473B2 JP 2011025884 A JP2011025884 A JP 2011025884A JP 2011025884 A JP2011025884 A JP 2011025884A JP 5871473 B2 JP5871473 B2 JP 5871473B2
Authority
JP
Japan
Prior art keywords
target
selection
display
face
drawing line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011025884A
Other languages
English (en)
Other versions
JP2012164262A (ja
Inventor
修也 替地
修也 替地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011025884A priority Critical patent/JP5871473B2/ja
Priority to US13/369,360 priority patent/US8963924B2/en
Publication of JP2012164262A publication Critical patent/JP2012164262A/ja
Application granted granted Critical
Publication of JP5871473B2 publication Critical patent/JP5871473B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Description

本発明は、画像データにおいて、顔などの目標物を検出するための目標物選択装置、その制御方法、および制御プログラムに関する。
近年、デジタルフォトプリンタおよびデジタルスチルカメラなどのようにデジタル画像データを扱う機器が普及し、これらの機器には、画像データにおいて目標物である人物の顔を検出する機能(顔検出機能)を有するものがある。そして、顔検出機能によって検出された人物の顔部分について特定の画像処理を施すようにしたアプリケーションが提案されている。
さらに、顔検出結果を用いて顔部分のデータ(顔データ)をオブジェクト化すれば、当該顔データを用いて画像処理以外の用途、例えば、データベース化又は個人認証などに応用することができる。
従来の顔検出機能として、例えば、画像データを一括して読み込み、画像データの全領域に対して一括で顔検出処理を行ってその検出結果を表示するようにしたものがある。
ところで、画像データに関して、処理を行いたい顔部分と処理を行いたくない顔部分が存在することがある。このため、顔検出結果から顔部分を選別する必要がある。その選別手法として、顔検出結果から画像処理対象とする顔部分を選択する手法および特定の顔部分と一致照合する顔部分を選択する手法がある(特許文献1参照)。
また、顔部分に係るデータを全体の画像データの一部分と捉えて、顔部分に係る画像を選択する手法がある。ここでは、図形・文章等の画像情報を画像記憶装置に記憶して、ディスプレイに表示された画像情報の一部を、ライトペンなどを用いて閉曲線等で指定する。そして、閉曲線内/外を示す情報(内/外情報)を、閉曲線内部認識装置7を用いて作成して画像記憶装置に記憶し、画像情報と内/外情報とを論理演算した結果指定された部分の画像を選択する(特許文献2参照)。
特開2004−62560号公報 特開昭58−161031号公報
ところが、特許文献1においては、特定の顔部分(人物の顔画像)を予め事前登録しておく必要がある。そして、検出された顔画像と事前登録された顔画像と照合して一致するか否かを判定する必要がある。このため、不特定多数の人物が写っている画像データについて選別を行おうとすると、即時性が損なわれてしまう。
また、特許文献2においては、ライトペンを用いた閉曲線等の形成が終了するまでは画像の部分指定を行うことができない。従って、画像の部分選択から次の処理、例えば、画像の部分選択部分に対する画像処理に移行するまでに時間が掛かってしまう。
よって、本発明の目的は、目標物検出結果に応じて所望の目標物を選別して、当該目標物に画像処理を施す際、速やかに選別処理を行うことのできる目標物選択装置、その制御方法、および制御プログラムを提供することにある。
上記の目的を達成するため、本発明による目標物選択装置は、複数の目標物が含まれる画像データから当該目標物を選択する目標物選択装置において、前記画像データに応じた画像を表示手段に表示させる表示制御手段と、前記表示手段に表示されている画像に描画線を描画するための描画手段と、前記描画手段により描画された描画線に基づいて、前記画像データに含まれる目標物を選択する選択手段と、前記描画手段により描画された描画線が閉曲線となったことに応じて、目標物の選択を確定する確定手段と、を有し、前記描画手段により描画された前記描画線が閉曲線を形成していない場合は、前記選択手段は、前記描画線に点を設定して、前記描画線の始点および前記点を結ぶ線と前記描画線とによって規定される領域にある目標物を選択し、前記描画手段により描画された前記描画線が閉曲線となった場合には、前記選択手段は、前記閉曲線に囲まれる領域にある目標物を選択し、前記確定手段は、前記閉曲線に囲まれる領域にある目標物の選択を確定し、前記表示制御手段は、前記描画手段により描画された前記描画線が閉曲線を形成していない場合は、前記選択手段により選択された目標物を第1の表示形態で識別可能に表示し、前記描画手段により描画された前記描画線が閉曲線となった場合には、前記選択手段により選択されて前記確定手段により選択が確定した目標物を前記第1の表示形態と異なる第2の表示形態で識別可能に表示するように制御することを特徴とする。
本発明によれば、目標物選択結果に応じて所望の目標物を選別して、当該目標物に画像処理を施す際、速やかに選別処理を行うことができる。
本発明の第1の実施形態による顔検出装置が用いられた印刷装置の一例を示すブロック図である。 図1に示すポインティングデバイスを用いて座標を入力した際の座標値および既入力曲線の表示処理を説明するためのフローチャートである。 本発明の第1の実施形態において、図1に示すポインティングデバイスを用いて画像データに対応した座標の曲線を描いた際の顔検出結果の表示処理を説明するためのフローチャートである(その1)。 本発明の第1の実施形態において、図1に示すポインティングデバイスを用いて画像データに対応した座標の曲線を描いた際の顔検出結果の表示処理を説明するためのフローチャートである(その2)。 図3Aおよび図3Bで説明する顔予測検出処理の概念を説明するための図であり、(A)は画像処理推移を示す図、(B)は表示推移を示す図、(C)は顔検出結果推移を示す図である。 図3Aおよび図3Bで説明する顔予測検出処理の概念を説明するための図であり、(A)は画像処理推移を示す図、(B)は表示推移を示す図、(C)は顔検出結果推移を示す図である。 図3Aおよび図3Bで説明する顔予測検出処理の概念を説明するための図であり、(A)は画像処理推移を示す図、(B)は表示推移を示す図、(C)は顔検出結果推移を示す図である。 図3Aおよび図3Bで説明する顔予測検出処理の概念を説明するための図であり、(A)は画像処理推移を示す図、(B)は表示推移を示す図、(C)は顔検出結果推移を示す図である。 図3Aおよび図3Bで説明する顔予測検出処理の概念を説明するための図であり、(A)は画像処理推移を示す図、(B)は表示推移を示す図、(C)は顔検出結果推移を示す図である。 図3Aおよび図3Bで説明する顔予測検出処理の概念を説明するための図であり、(A)は画像処理推移を示す図、(B)は表示推移を示す図、(C)は顔検出結果推移を示す図である。 図3Aおよび図3Bで説明する顔予測検出処理の概念を説明するための図であり、(A)は画像処理推移を示す図、(B)は表示推移を示す図、(C)は顔検出結果推移を示す図である。 本発明の第2の実施形態において、図1に示すポインティングデバイスを用いて画像データに対応した座標の曲線を描いた際の顔検出結果の表示処理を説明するためのフローチャートである。 図11で説明する顔予測検出処理の概念を説明するための図であり、(A)は画像処理推移を示す図、(B)は表示推移を示す図、(C)は顔検出結果推移を示す図である。 図11で説明する顔予測検出処理の概念を説明するための図であり、(A)は画像処理推移を示す図、(B)は表示推移を示す図、(C)は顔検出結果推移を示す図である。 図11で説明する顔予測検出処理の概念を説明するための図であり、(A)は画像処理推移を示す図、(B)は表示推移を示す図、(C)は顔検出結果推移を示す図である。 図11で説明する顔予測検出処理の概念を説明するための図であり、(A)は画像処理推移を示す図、(B)は表示推移を示す図、(C)は顔検出結果推移を示す図である。 図11で説明する顔予測検出処理の概念を説明するための図であり、(A)は画像処理推移を示す図、(B)は表示推移を示す図、(C)は顔検出結果推移を示す図である。
以下、本発明の実施の形態による目標物選択装置について図面を参照して説明する。ただし、本形態において例示する構成部品の寸法、形状、それらの相対配置などは、本発明が適用される装置の構成や各種条件により適宜変更されるべきものであり、本発明がそれらの例示に限定されるものではない。また、ここでは、ポインティングデバイスの入力を曲線という言葉で説明するが、軌跡という言葉に置き換えても同義である。なお、以下の説明では、目標物として、顔を例に挙げて説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態による顔検出装置が用いられた印刷装置の一例を示すブロック図である。
図示の印刷装置はCPU(Central Processing Unit)201を有しており、CPU201は印刷装置全体の制御を司る。RAM(Random Access Memory)202はCPU201のワークエリアとして用いられる。ROM(Read Only Memory)203にはCPU201で実行される処理手順が記憶され、ROM203として、例えば、フラッシュメモリなどの書き換えが可能な不揮発性メモリが用いられる。
画像処理部204はデジタル画像データ(以下単に画像データと呼ぶ)を画面表示可能なデータに変換する処理を行うとともに、画像データにおける顔パーツ(顔部分)の検出処理を行う。表示制御部205にはLCD(Liquid Crystal Display:液晶表示器)206が接続されており、表示制御部205はLCD206に画像データおよび操作情報などを画面表示する。
図示の例では、外部記憶装置制御部207にはメモリソケット208が接続され、このメモリソケット208には、例えば、カード記録媒体(図示せず)が挿入される。そして、外部記憶装置制御部207はカード記憶媒体に記憶されている画像データの読込み制御を行うとともに、カード記憶媒体に対して画像データの書込み制御を行う。
操作入力部209には操作ボタン210およびポインティングデバイス211が接続され、操作入力部209は操作ボタン210およびポインティングデバイス211からの入力を操作情報としてCPU201に送る。なお、ポインティングデバイス211は座標情報を取得可能なデバイスであればよく、タッチパネルおよびマウスが相当する。
印刷機能制御部212は画像データに応じて印刷エンジン213を制御して、プリントを実行する。外部インタフェース(I/F)制御部214には外部I/Fコネクタが接続される。外部I/Fは、例えば、USB I/Fであり、外部I/F制御部214は外部I/F215を介して外部機器と接続される。この外部機器として、例えば、別のポインティングデバイスを接続することができる。
図2は、図1に示すポインティングデバイス210を用いて座標を入力した際の座標値および既入力曲線の表示処理を説明するためのフローチャートである。なお、図2で説明するポインティングデバイス入力と既入力曲線の表示処理については一般的に知られた処理であるので、ここでは簡略して説明する。
図1および図2を参照して、いま、ポインティングデバイス211を用いて曲線の入力が開始されると、CPU201は内蔵タイマーをクリアする(ステップS401)。そして、CPU201はポインティングデバイス211による入力が継続中であるか否かについて判定する(ステップS402)。ポインティングデバイス211による入力が継続中であると(ステップS402において、YES)、CPU201は内蔵タイマーをクリアしてから一定の時間(所定の時間)が経過したか否かについて判定する(ステップS403)。
一定の時間が経過していない場合には(ステップS403において、NO)、CPU201はS402の処理に戻る。一方、一定の時間が経過した場合には(ステップS403において、YES)、CPU201はポインティングデバイス211で入力された座標値を、一旦RAM202に記憶する(ステップS404)。その後、CPU201は、RAM202に記憶された座標値に応じて曲線を求めて、既入力曲線とする(ステップS405)。CPU201は既入力曲線をRAM202に既入力曲線記憶値として一旦記憶して(ステップS406)、当該既入力曲線を表示制御部205によってLCD206に表示する(ステップS407)。そして、CPU201はS401の処理に戻る。
ステップS402において、ポインティングデバイス211による入力が継続中でなければ(ステップS402において、NO)、CPU201は、ユーザによるポインティングデバイス211を用いた入力が終了したと判定して、処理を終了する。
図3Aおよび図3Bは、本発明の第1の実施形態において、図1に示すポインティングデバイス211を用いて画像データに対応した座標の曲線を描いた際の顔検出結果(目標物検出結果)の表示処理を説明するためのフローチャートである。
図3Aおよび図3Bにおいては、ユーザがポインティングデバイス211を用いて画像データに対応する座標の曲線を描いて、当該曲線が閉じるまでの間に段階的に顔予測検出処理を行って顔検出結果(目標物検出結果)を表示する。なお、図2で説明した表示処理と図3Aおよび図3Bで説明する表示処理とは、独立に並行して実行され、図2で説明した既入力曲線記憶値は図3Aおよび図3Bで説明する顔予測検出処理に用いられる。
図1、図3A、および図3Bを参照して、ここでは、画像データはカード記録媒体に記憶されているものとし、カード記録媒体に記憶された全ての画像データの一覧が表示制御部205によってLCD206に表示される。
ユーザは操作ボタン210又はポインティングデバイス211を操作して表示処理対象とする画像データを一覧から選択する。これによって、CPU201は選択された画像データに係る画像をLCD206に画面表示する。LCD206に表示された画像には、画像データに対応する座標がマッピングされており、座標はポインティングデバイス211を用いて入力される。
ポインティングデバイス211を用いて、LCD206に表示された画像に対して曲線の入力を開始すると、CPU201は入力始点を設定する(ステップS101)。入力始点を設定した後、CPU201は内蔵するカウンタNを0に設定する(ステップS102)。そして、CPU201はカウンタNを+1インクリメントする(ステップS103)。
図4〜図10は、図3Aおよび図3Bで説明する顔予測検出処理を行う際の画像処理推移、表示推移、および顔検出結果推移の概念を説明するための図である。なお、図4〜図10において、画像処理推移とは画像処理を行う際の内部的な処理概念の推移をいい、表示推移とはLCD206に表示される画像の推移をいう。
ここで、画像処理推移においては、図4(A)に示すように、例えば、入力始点は”300”で示され、既入力曲線は”340”で示される。表示推移においては、図4(B)に示すように、LCD206に既入力曲線350が表示される。なお、図4(C)に示すように、顔検出結果推移には結果が示されていない。
続いて、CPU201はポインティングデバイス211で入力された入力曲線が閉じているか否かについて判定する(ステップS104)。入力曲線が閉じていない場合には(ステップS104において、NO)、CPU201は始点又は分割点を設定してから一定の時間が経過したか又は絶対座標に関して一定の距離が描画されたか(経過したか)否かについて判定する(ステップS105)。なお、ここで、分割点とは、後述するように、ポインティングデバイス211における曲線の入力中に当該曲線上にポイントされる画像処理概念上の点をいう。
始点又は分割点を設定してから一定の時間が経過せず、しかも絶対座標に関して一定の距離が描画されていないと(ステップS105において、NO)、CPU201はステップS104の処理に戻る。始点又は分割点を設定してから一定の時間が経過したか又は絶対座標に関して一定の距離が描画された場合には(ステップS105において、YES)、CPU201は分割点Nを設定する(ステップS106)。そして、CPU201は始点と分割点Nとを結んで、分割線Nを設定する(ステップS107)。
図4(A)に示す画像処理推移に示すように、ここでは、分割点301および分割線311が設定される。
続いて、CPU201は既入力曲線および分割線Nが囲む領域(既入力曲線と分割線とによって規定される領域)と、設定済みの分割検出領域との差を分割検出領域Nとして設定する(ステップS108)。ここで、ポインティングデバイスの既入力曲線として、図2で説明した既入力曲線記憶値が用いられる。
なお、カウンタN=1の場合には、設定済みの分割検出領域は存在しないから、図4(A)に示す画像処理推移においては、既入力曲線340と分割線311とが囲む領域が分割検出領域として設定されることになる。
次に、CPU201は分割検出領域Nに対応する画像データ領域Nを設定して(ステップS109)、この画像データ領域Nに対して顔パーツ検出処理を実行する(ステップS110)。ここで、顔パーツとは人物の顔を形成する一部分、例えば、髪、眉毛、目、眼鏡、鼻、口、耳、および髭である。そして、CPU201は画像データ領域Nについて顔検出処理を実行する(ステップS111)。なお、顔パーツ検出処理および顔検出処理については、様々な方法が提案されており、周知の技術であるので説明は省略する。
続いて、CPU201は画像データ領域Nに「未検出顔の不完全顔パーツ」が含まれていないか否かについて判定する(ステップS112)。未検出顔の不完全顔パーツが含まれている場合には(ステップS112において、NO)、CPU201は当該検出した「未検出顔の不完全顔パーツ」に関する検出情報を、例えば、RAM202に記憶する(ステップS113)。そして、CPU201は画像データ領域Nにおける顔検出結果をクリアする(ステップS114)。さらに、CPU201は分割検出領域Nの設定をクリアして(ステップS115)、ステップS103の処理に戻る。
ここで、「未検出顔の不完全顔パーツ」とは、ステップS111における顔検出処理の際にいずれの顔にも属さず、かつ既に記憶された顔検出結果のいずれにも属さない顔パーツのことをいう。
一方、画像データNに「未検出顔の不完全顔パーツ」が含まれていない場合には(ステップS112において、YES)、CPU201は顔検出結果に、既に記憶済みの不完全顔パーツが属しているかについて判定する(ステップS116)。顔検出結果に既に記憶済みの不完全顔パーツが含まれている場合には(ステップS116において、YES)、CPU201は既に記憶済みの不完全顔パーツに係る検出情報をクリアする(ステップS117)。そして、CPU201は分割検出領域Nを設定済み分割検出領域として、RAM202に記憶する(ステップS118)。
なお、顔検出結果に既に記憶済みの不完全顔パーツが含まれていない場合に(ステップS116において、NO)、CPU201はステップS118の処理に進む。ここでは、既に記憶済みの不完全顔パーツに係る検出情報のうち、顔検出結果に属さない検出情報は、クリアされずに残る。
続いて、CPU201はステップS111における顔検出処理で得られた顔の顔番号と顔の中心座標とを、RAM202に記憶する(S119)。そして、CPU201は検出顔番号に対応した検出顔枠座標を、RAM202に記憶する(ステップS120)。その後、CPU201はステップS111における顔検出処理で得られた顔の顔枠を、表示制御部205を制御してLCD206に仮表示する(ステップS121)。そして、CPU201はステップS103の処理に戻ってカウンタNを+1インクリメントする。なお、ステップS121における顔枠の仮表示について破線で示されているが、後述する本表示と仮表示との区別が可能であれば、仮表示はどのような表示状態でもよい。
ここまでの処理について、図5で説明すると、画像処理推移においては分割検出領域321が設定され、分割検出領域321内にある顔が検出される(図5(A))。そして、表示推移においてはLCD206に検出した顔について仮表示枠351が表示される(図5(B))。顔検出結果の推移においては、顔番号”1”として次の顔検出結果がRAM202に記憶される。
顔番号=1、状態=仮、領域=321、中心座標=(x1,y1)、左上枠座標=(x1lu,y1lu)、右上枠座標=(x1ru,y1ru)、右下枠座標=(x1rb,y1rb)、および左下枠座標=(x1lb,y1lb)が顔検出結果として記憶される。
このようにして、CPU201はポインティングデバイス211で入力された入力曲線が閉じるまで(ステップS104において、NO)、ステップS103からステップS103に戻るまでの処理を繰り返す。
ここで、入力曲線が閉じるまでの処理について、図6〜図8を参照して説明する。
図6(A)に示す画像処理推移においては、2つ目の分割点302と分割線312とが設定されて、既入力曲線および分割線312が囲む領域と設定済みの分割検出領域との差が分割検出領域322として設定される。そして、分割検出領域322内にある顔が顔検出処理によって検出される。図6(B)に示す表示推移においては、LCD206に検出した顔について仮表示枠352が表示される。図6(C)に示す顔検出結果の推移においては、顔番号”2”として次の顔検出結果がRAM202に記憶される。
顔番号=2、状態=仮、領域=322、中心座標=(x2,y2)、左上枠座標=(x2lu,y2lu)、右上枠座標=(x2ru,y2ru)、右下枠座標=(x2rb,y2rb)、および左下枠座標=(x2lb,y2lb)が顔検出結果として記憶される。
図7(A)に示す画像処理推移においては、3つ目の分割点303と分割線313とが設定されて、既入力曲線および分割線313が囲む領域と設定済みの分割検出領域との差が分割検出領域323として設定される。そして、分割検出領域323内にある顔が顔検出処理によって検出される。図7(B)に示す表示推移においては、LCD206に検出した顔について仮表示枠353および354が表示される。図7(C)に示す顔検出結果の推移においては、顔番号”3”および”4”として次の顔検出結果がRAM202に記憶される。
顔番号=3、状態=仮、領域=323、中心座標=(x3,y3)、左上枠座標=(x3lu,y3lu)、右上枠座標=(x3ru,y3ru)、右下枠座標=(x3rb,y3rb)、および左下枠座標=(x3lb,y3lb)が顔検出結果として記憶される。さらに、顔番号=4、状態=仮、領域=323、中心座標=(x4,y4)、左上枠座標=(x4lu,y4lu)、右上枠座標=(x4ru,y4ru)、右下枠座標=(x4rb,y4rb)、および左下枠座標=(x4lb,y4lb)が顔検出結果として記憶される。
図8(A)に示す画像処理推移においては、4つ目の分割点304と分割線314とが設定されて、既入力曲線および分割線313が囲む領域と設定済みの分割検出領域との差が分割検出領域324として設定される。分割検出領域324においては「顔と不完全顔パーツ」344が検出されているので、顔検出結果および分割検出領域324の設定がクリアされる。このため、図8(B)に示す表示推移は図7(B)に示す表示推移と同様であり、図8(C)に示す顔検出結果の推移において顔検出結果はRAM202に記憶されない。つまり、図8(C)に示す顔検出結果の推移は図7(C)に示す顔検出結果の推移と同様である。
再び図3Aおよび図3Bを参照して、ポインティングデバイス211における入力曲線が閉じた場合には(ステップS104において、NO)、CPU201は終点設定を行う(ステップS122)。つまり、CPU201は既入力曲線が囲む領域と設定済みの分割検出領域との差を分割検出領域Nとして設定する(ステップS123)。
続いて、CPU201は分割検出領域Nに対応する画像データ領域Nを設定して(ステップS124)、この画像データ領域Nに対して顔パーツ検出処理を実行する(ステップS125)。そして、CPU201は画像データ領域Nについて顔検出処理を実行する(ステップS126)。
次に、CPU201は画像データ領域Nに「未検出顔の不完全顔パーツ」が含まれていないかについて判定する(ステップS127)。画像データ領域Nに「未検出顔の不完全顔パーツ」が含まれている場合には(ステップS127において、NO)、CPU201は検出した「未検出顔の不完全顔パーツ」に係る検出情報を、RAM202な記憶する(ステップS128)。そして、CPU201は後述するS134の処理に進む。
画像データ領域Nに「未検出顔の不完全顔パーツ」が含まれていない場合には(ステップS127において、YES)、CPU201は顔検出結果に、記憶済みの不完全顔パーツが属しているか否かについて判定する(ステップS129)。顔検出結果に記憶済みの不完全顔パーツが含まれている場合には(ステップS129において、YES)、CPU201は記憶済みの不完全顔パーツに係る検出情報をクリアする(ステップS130)。そして、CPU201はステップS126の顔検出処理で検出した顔の顔番号および顔の中心座標を記憶する(ステップS131)。
なお、顔検出結果に記憶済みの不完全顔パーツが含まれていない場合には(ステップS129において、NO)、CPU201はステップS131の処理に進む。また、記憶済みの不完全顔パーツに係る検出情報のうち、顔検出結果に属さない検出情報はクリアされずに残る。
続いて、CPU201は検出顔番号に対応した検出顔枠座標を、RAM202に記憶する(ステップS132)。そして、CPU201はステップS126の顔検出処理で検出した顔の顔枠を仮表示する(ステップS133)。
ここまでの処理では、図9(A)に示す画像処理推移においては、終点305が設定され、既入力曲線と設定済みの分割検出領域との差が分割検出領域325として設定される。そして、顔検出処理によって分割検出領域325内にある顔が検出される。図9(B)に示す表示推移においては、LCD206に検出した顔ついて仮表示枠355および356を表示される。図9(C)に示す顔検出結果においては、顔番号5および6として次の顔検出結果がRAM202に記憶される。
顔番号=5、状態=仮、領域=325、中心座標=(x5,y5)、左上枠座標=(x5lu,y5lu)、右上枠座標=(x5ru,y5ru)、右下枠座標=(x5rb,y5rb)、および左下枠座標=(x5lb,y5lb)が顔検出結果として記憶される。さらに、顔番号=6、状態=仮、領域=325、中心座標=(x6,y6)、左上枠座標=(x6lu,y6lu)、右上枠座標=(x6ru,y6ru)、右下枠座標=(x6rb,y6rb)、および左下枠座標=(x6lb,y6lb)が顔検出結果として記憶される。
続いて、CPU201は既入力曲線の閉領域外に中心座標を有する顔番号の顔枠仮表示を消去する(ステップS134)。そして、CPU201は既入力曲線の閉領域内に中心座標を有する顔番号の顔をオブジェクト登録して(ステップS135)、他のアプリケーションによって当該顔をオブジェクトとして処理できるようにする。その後、CPU201は既入力曲線の閉領域内(つまり、閉曲線内)に中心座標を有する顔番号の顔枠仮表示を本表示枠に変更する(ステップS136)。つまり、CPU201は閉曲線内に位置する顔に対して本表示枠を表示する。
ここまでの処理では、図10(A)に示す画像処理推移は、図9(A)に示す画像処理推移と同様である。また、図10(B)に示す表示推移においては、既入力曲線閉領域外に中心座標がある顔番号”1”に係る仮表示枠351がLCD206から消去され、仮表示枠352〜356(第1の表示形態)が本表示枠360(第2の表示形態)に変更されている(つまり、識別可能に表示されている)。そして、図10(C)に示す顔検出結果の推移においては、顔番号”1”に係る検出結果が消去されて、顔番号”2”〜”6”の状態が「仮」から「本」に変更されている。
なお、ステップS136における本表示枠は、図示の例では、太い実線で示されているが、仮表示枠との区別ができれば、本表示枠はどのような表示状態でもあってもよい。
最後に、CPU201は「未検出顔の不完全顔パーツ」に係る検出情報がRAM202に残っているかについて判定する(ステップS137)。「未検出顔の不完全顔パーツ」に係る検出情報がRAM202に残っていない場合には(ステップS137において、NO)、CPU201は処理を終了する。このようにして、目標物の選択が確定するまでは所定のタイミングで選択される目標物を識別可能するための表示が更新される。
一方、「未検出顔の不完全顔パーツ」に係る検出情報がRAM202に残っている場合には(ステップS137において、YES)、CPU201はポインティングデバイス211による入力曲線の閉じた領域内外に顔が跨っていると判定する。そして、CPU201は表示制御部205を制御してLCD206に顔検出漏れ警告を表示して(ステップS138)、処理を終了する。
このように、第1の実施形態では、ポインティングデバイスによって画像データに対応した座標を入力している状態で、段階的に顔検出処理(予測処理)を行って、その結果を即時に表示することができる。さらに、ポインティングデバイスによる座標入力が終了した際、顔検出結果の確定と顔のオブジェクト登録とが同時に行える。つまり、ポインティングデバイスにより曲線を描画中は、その曲線により選択される可能性がある顔に枠を表示するので、どの顔が選択されるかを確認しながら曲線を描画できる。そのため、ユーザは曲線を描画中に、選択したくない顔に枠が表示された場合、その後の曲線の描画を調整することで、一度選択されて枠が表示された顔を選択対象から外すことも可能となる。また、曲線を描画し、閉曲線となったことに応じて、顔の選択を確定するため、複数の顔の選択と、その選択の確定という2つの操作を、曲線の描画という1つの操作で行うことができるため、操作性が向上する。また、閉曲線なったことに応じて、顔のオブジェクト登録を行うので、他のアプリケーションに対するオブジェクトの受け渡しを高速に行うことができる。そして、他のアプリケーションにおいては、オブジェクト登録された顔に対して、画像処理、例えば、モザイク処理および色補正処理などを実施することができる。
(第2の実施形態)
続いて、本発明の第2の実施形態による顔検出装置について説明する。
第2の実施形態による顔検出装置の構成は図1に示す顔検出装置と同様であるので説明を省略する。
上述の第1の実施形態においては、既入力曲線および分割線が囲む領域と設定済みの分割検出領域との差を分割検出領域として設定して、分割検出領域内にある顔検出するようにしたが、第2の実施形態においては、分割検出領域を拡大して顔検出するようにする。
図11は、本発明の第2の実施形態において、図1に示すポインティングデバイスを用いて画像データに対応した座標の曲線を描いた際の顔検出結果の表示処理を説明するためのフローチャートである。なお、図11において、図3Aおよび図3Bに示す処理と同様の処理について同一の参照符号を付し、説明を省略する。
第2の実施形態においては、ステップS110において画像データ領域Nについて顔パーツ検出処理を実行した後、CPU201は分割点N設定時におけるポインティングデバイスの進行方向ベクトル(つまり、描画方向)に分割線を拡大した領域を分割検出領域Nに加算して領域を拡大する(ステップS551)。そして、CPU201は拡大した分割検出領域N(拡大分割領域)に対応する画像データ領域Nを設定する(ステップS552)。その後、図3AのステップS111で説明したように、CPU201は画像データ領域Nについて顔検出処理を実行する。
顔検出処理の後、CPU201は分割点N設定時におけるポインティングデバイスの進行方向ベクトルに分割線を拡大した領域を分割検出領域Nから減算して、領域を元に戻す(ステップS513)。その後、CPU201は図3Aで説明したステップS112〜S121の処理を行う。なお、ステップS104において、ポインティングデバイス211における入力曲線が閉じた場合には、CPU201は図3Bで説明したステップS122〜138の処理を行う。
図12〜図16は、図11で説明した顔予測検出処理を行う際の画像処理推移、表示推移、および顔検出結果推移の概念を説明するための図である。なお、ここでは画像データについて第1の実施形態と同様であるので、顔番号に対応する顔検出結果は第1の実施形態と同様である。
図4で説明したように、分割点301および分割線311が設定されて、既入力曲線340と分割線311とが囲む領域が分割検出領域として設定される。そして、LCD206に既入力曲線350が表示される。
続いて、図12(A)に示す画像処理推移においては、分割検出領域371が設定され、分割点301の設定時におけるポインティングデバイスの進行方向ベクトルに分割線311を拡大した領域331を分割検出領域371に加算して、拡大分割検出領域とする。この結果、分割検出領域371+拡大領域331内にある顔が検出されることになる。そして、図12(B)に示す表示推移においては、検出した顔についてLCD206に仮表示枠351が表示される。図12(C)に示す顔検出結果の推移においては、顔番号”1”に係る顔検出結果がRAM202に記憶される。
ここで、拡大領域331内には他の顔パーツの一部が掛かった状態になっているが、顔パーツ検出処理は分割検出領域を拡大する前分割検出領域371において行われるため、「未検出顔の不完全顔パーツ」としては記憶されない。
図13(A)に示す画像処理推移においては、分割検出領域372が設定され、分割点302の設定時におけるポインティングデバイスの進行方向ベクトルに分割線312を拡大した領域332を分割検出領域372に加算して拡大分割検出領域とする。この結果、分割検出領域372+拡大領域332内にある顔が検出されることになる。図13(B)に示す表示推移においては、検出した顔についてLCD206に仮表示枠352が表示される。そして、図13(C)に示す顔検出結果の推移においては、顔番号”2”に係る顔検出結果がRAM202に記憶される。
図14(A)に示す画像処理推移においては、分割検出領域373が設定され、分割点303の設定時におけるポインティングデバイスの進行方向ベクトルに分割線313を拡大した領域333を分割検出領域373に加算して拡大分割検出領域とする。そして、分割検出領域373+拡大領域333内にある顔が検出されることになる。図14(B)に示す表示推移においては、検出した顔についてLCD206に仮表示枠353、354が表示される。図14(C)に示す顔検出結果の推移において、顔番号”3”および”4”に係る顔検出結果がRAM202に記憶される。
図15(A)に示す画像処理推移においては、分割検出領域374が設定され、分割点304の設定時におけるポインティングデバイスの進行方向ベクトルに分割線314を拡大した領域334を分割検出領域374に加算して拡大分割検出領域とする。そして、分割検出領域374+拡大領域334内にある顔が検出されることになる。図15(B)に示す表示推移において、検出した顔についてLCD206に仮表示枠355、356が表示される。図15(C)に示す顔検出結果の推移においては、顔番号”5”および”6”に係る顔検出結果がRAM202に記憶される。
なお、図15において、分割検出領域374では一度不完全顔パーツ344が検出されているが、その後の顔検出処理により当該不完全顔パーツ344を含む顔が検出される。このため、不完全顔パーツ344は「未検出顔の不完全顔パーツ」ではないと判定され、未検出顔の不完全顔パーツに係る検出情報としては記憶されない。
図16(A)に示す画像処理推移においては、終点305および分割検出領域375が設定される。分割検出領域375では複数の顔パーツ345が検出されるが、既に検出済みの顔の顔パーツであるため、これらは「未検出顔の不完全顔パーツ」に係る検出情報として記憶されない。
このように、第2の実施形態では、ポインティングデバイスによる入力曲線が図15(A)に示す状態である際に、顔番号”6”までを検出することができる。つまり、第2の実施形態では、分割線の設定時に分割線に跨る顔があった場合に、分割検出領域を拡大して顔を検出して入力曲線に対する顔予測検出を効率的に行うことができる。
以上のように、本発明の実施の形態では、ポインティングデバイスによって画像データ、つまり、画像に対応して描画された描画線(曲線)を描き、当該描画線が閉じるまでの間において段階的に顔予測検出処理を行う。そして、描画線が描かれる途中において顔予測検出結果を即時に画面表示する。さらに、描画線が閉じると(つまり、描画線が閉曲線となると)、描画線で囲まれた領域(閉曲線内の領域)における顔検出結果のみを画面表示する。これによって、顔検出結果に応じて所望の顔を選別して、当該顔に画像処理を施す際、速やかに選別処理を行うことができる。
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
上述の説明では、顔検出装置を印刷装置に適用した例について説明したが、印刷装置に限らず、任意の画像データに対して座標を入力して、顔パーツおよび顔検出を行う装置であれば本発明を適用することができる。
上述の実施形態では、描画線が描かれている間に、顔の検出処理を行ったが、画像データ中の顔検出処理は予め行い、顔の位置の座標データを記録しておいてもよい。この場合、描画線が描かれている間は、記録されている顔の座標データに基づいて、顔の検出枠を表示したり、顔オブジェクトの登録の処理を行う。また、上記の実施の形態の機能を制御方法として、この制御方法を、顔検出装置に実行させるようにすればよい。また、上述の実施の形態の機能を有する制御プログラムを、顔検出装置が備えるコンピュータに実行させるようにしてもよい。
この際、制御方法及び制御プログラムの各々は、少なくとも描画ステップ、領域形成ステップ、目標物検出ステップ、および表示制御ステップを備える。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
201 CPU
202 RAM
203 ROM
204 画像処理部
205 表示制御部
206 LCD
209 操作入力部
211 ポインティングデバイス
212 印刷機能制御部
213 印刷エンジン

Claims (11)

  1. 複数の目標物が含まれる画像データから当該目標物を選択する目標物選択装置において、
    前記画像データに応じた画像を表示手段に表示させる表示制御手段と、
    前記表示手段に表示されている画像に描画線を描画するための描画手段と、
    前記描画手段により描画された描画線に基づいて、前記画像データに含まれる目標物を選択する選択手段と、
    前記描画手段により描画された描画線が閉曲線となったことに応じて、目標物の選択を確定する確定手段と、を有し、
    前記描画手段により描画された前記描画線が閉曲線を形成していない場合は、前記選択手段は、前記描画線に点を設定して、前記描画線の始点および前記点を結ぶ線と前記描画線とによって規定される領域にある目標物を選択し、
    前記描画手段により描画された前記描画線が閉曲線となった場合には、前記選択手段は、前記閉曲線に囲まれる領域にある目標物を選択し、
    前記確定手段は、前記閉曲線に囲まれる領域にある目標物の選択を確定し、
    前記表示制御手段は、前記描画手段により描画された前記描画線が閉曲線を形成していない場合は、前記選択手段により選択された目標物を第1の表示形態で識別可能に表示し、前記描画手段により描画された前記描画線が閉曲線となった場合には、前記選択手段により選択されて前記確定手段により選択が確定した目標物を前記第1の表示形態と異なる第2の表示形態で識別可能に表示するように制御することを特徴とする目標物選択装置。
  2. 前記表示制御手段は、前記確定手段による目標物の選択が確定するまでは、所定のタイミングで、選択される目標物を識別可能するための表示を更新し続けることを特徴とする請求項に記載の目標物選択装置。
  3. 前記表示制御手段は、前記第1の表示形態として前記目標物を示す仮表示枠を表示し、前記第2の表示形態として前記仮表示枠を当該仮表示枠と表示形態が異なる本表示枠に変更することを特徴とする請求項1又は2に記載の目標物選択装置。
  4. 前記選択手段は、前記始点又は前記点が設定されてから所定の時間が経過するか又は前記描画線が所定の距離だけ描画されると、新たに前記描画線に点を設定することを特徴とする請求項1乃至のいずれか1項に記載の目標物選択装置。
  5. 前記選択手段は、前記描画手段により描画された前記描画線が閉曲線を形成していない場合には、前記描画線の始点および前記点を結ぶ線と前記描画線とによって規定される領域を検出領域とし、前記描画手段により描画された前記描画線が閉曲線となった場合には、前記閉曲線に囲まれる領域を検出領域とし、前記検出領域から検出される目標物を選択することを特徴とする請求項1乃至のいずれか1項に記載の目標物選択装置。
  6. 前記選択手段は、前記始点又は前記点が設定されてから所定の時間が経過するか前記描画線が所定の距離だけ描画されると、新たに前記描画線に点を設定し、新たな点を設定した場合には、新たな点および前記始点を結ぶ線と前記描画線とによって規定される領域と前回に設定されていた領域との差を検出領域として目標物を検出し、新たに検出した目標物を追加して選択することを特徴とする請求項に記載の目標物選択装置。
  7. 前記描画手段により描画された前記描画線が閉曲線を形成していない場合に前記選択手段により選択された目標物について、前記画像データにおける座標を記憶する記憶手段を有することを特徴とする請求項1乃至のいずれか1項に記載の目標物選択装置。
  8. 前記選択手段は、所定の条件を満たす場合に、前記検出領域として設定される領域をクリアするとともに、前記検出領域から検出される目標物の選択をクリアするクリア手段を有することを特徴する請求項5又は6に記載の目標物選択装置。
  9. 前記目標物は人物の顔であることを特徴とする請求項5又は6に記載の目標物選択装置。
  10. 複数の目標物が含まれる画像データから当該目標物を選択する目標物選択装置の制御方法において、
    前記画像データに応じた画像を表示手段に表示させる表示制御ステップと、
    前記表示手段に表示されている画像に描画線を描画するための描画ステップと、
    前記描画ステップで描画された描画線に基づいて、前記画像データに含まれる目標物を選択する選択ステップと、
    前記描画ステップで描画された描画線が閉曲線となったことに応じて、目標物の選択を確定する確定ステップと、を有し、
    前記描画ステップで描画された前記描画線が閉曲線を形成していない場合は、前記選択ステップでは、前記描画線に点を設定して、前記描画線の始点および前記点を結ぶ線と前記描画線とによって規定される領域にある目標物を選択し、
    前記描画ステップで描画された前記描画線が閉曲線となった場合には、前記選択ステップでは、前記閉曲線に囲まれる領域にある目標物を選択し、
    前記確定ステップでは、前記閉曲線に囲まれる領域にある目標物の選択を確定し、
    前記表示制御ステップでは、前記描画ステップで描画された前記描画線が閉曲線を形成していない場合は、前記選択ステップで選択された目標物を第1の表示形態で識別可能に表示し、前記描画ステップで描画された前記描画線が閉曲線となった場合には、前記選択ステップで選択されて前記確定ステップにより選択が確定した目標物を前記第1の表示形態と異なる第2の表示形態で識別可能に表示するように制御することを特徴とする制御方法。
  11. 複数の目標物が含まれる画像データから当該目標物を選択する目標物選択装置で用いられる制御プログラムにおいて、
    前記目標物選択装置が備えるコンピュータに、
    前記画像データに応じた画像を表示手段に表示させる表示制御ステップと、
    前記表示手段に表示されている画像に描画線を描画するための描画ステップと、
    前記描画ステップで描画された描画線に基づいて、前記画像データに含まれる目標物を選択する選択ステップと、
    前記描画ステップで描画された描画線が閉曲線となったことに応じて、目標物の選択を確定する確定ステップと、を実行させ、
    前記描画ステップで描画された前記描画線が閉曲線を形成していない場合は、前記選択ステップでは、前記描画線に点を設定して、前記描画線の始点および前記点を結ぶ線と前記描画線とによって規定される領域にある目標物を選択し、
    前記描画ステップで描画された前記描画線が閉曲線となった場合には、前記選択ステップでは、前記閉曲線に囲まれる領域にある目標物を選択し、
    前記確定ステップでは、前記閉曲線に囲まれる領域にある目標物の選択を確定し、
    前記表示制御ステップでは、前記描画ステップで描画された前記描画線が閉曲線を形成していない場合は、前記選択ステップで選択された目標物を第1の表示形態で識別可能に表示し、前記描画ステップで描画された前記描画線が閉曲線となった場合には、前記選択ステップで選択されて前記確定ステップにより選択が確定した目標物を前記第1の表示形態と異なる第2の表示形態で識別可能に表示するように制御することを特徴とする制御プログラム。
JP2011025884A 2011-02-09 2011-02-09 目標物選択装置、その制御方法、および制御プログラム Expired - Fee Related JP5871473B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011025884A JP5871473B2 (ja) 2011-02-09 2011-02-09 目標物選択装置、その制御方法、および制御プログラム
US13/369,360 US8963924B2 (en) 2011-02-09 2012-02-09 Target selection apparatus that detects target, control method therefor, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011025884A JP5871473B2 (ja) 2011-02-09 2011-02-09 目標物選択装置、その制御方法、および制御プログラム

Publications (2)

Publication Number Publication Date
JP2012164262A JP2012164262A (ja) 2012-08-30
JP5871473B2 true JP5871473B2 (ja) 2016-03-01

Family

ID=46600354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011025884A Expired - Fee Related JP5871473B2 (ja) 2011-02-09 2011-02-09 目標物選択装置、その制御方法、および制御プログラム

Country Status (2)

Country Link
US (1) US8963924B2 (ja)
JP (1) JP5871473B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9508119B2 (en) * 2012-07-13 2016-11-29 Blackberry Limited Application of filters requiring face detection in picture editor
CN106371699A (zh) * 2016-08-31 2017-02-01 天脉聚源(北京)传媒科技有限公司 一种按钮颜色调整方法及装置
AU2017276290A1 (en) * 2017-12-14 2019-07-04 Canon Kabushiki Kaisha Method, system and apparatus for selecting items in a graphical user interface

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58161031A (ja) 1982-03-19 1983-09-24 Toshiba Corp 表示画面選択方式
US5611037A (en) * 1994-03-22 1997-03-11 Casio Computer Co., Ltd. Method and apparatus for generating image
JPH11136568A (ja) 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd タッチパネル操作式カメラ
US6975425B1 (en) * 1998-02-26 2005-12-13 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2000149046A (ja) * 1998-09-04 2000-05-30 Sony Corp 曲線生成装置及び方法、プログラムを格納した記録媒体、並びに対応点設定方法
EP1298524A1 (en) * 2001-09-28 2003-04-02 Ricoh Company, Ltd. Conference support apparatus, information processor, teleconference system and computer product
JP4036051B2 (ja) 2002-07-30 2008-01-23 オムロン株式会社 顔照合装置および顔照合方法
JP4453721B2 (ja) * 2007-06-13 2010-04-21 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP4740972B2 (ja) * 2008-03-26 2011-08-03 ヤフー株式会社 印刷情報と印刷データの連携を行う情報連携サーバ、方法及びプログラム
JP5083150B2 (ja) * 2008-09-30 2012-11-28 カシオ計算機株式会社 画像処理装置、及びその処理順設定方法、処理順設定プログラム
JP5185150B2 (ja) * 2009-02-04 2013-04-17 富士フイルム株式会社 携帯機器および操作制御方法
JP5464903B2 (ja) * 2009-05-14 2014-04-09 キヤノン株式会社 情報処理装置、制御方法及びプログラム

Also Published As

Publication number Publication date
US20120200572A1 (en) 2012-08-09
JP2012164262A (ja) 2012-08-30
US8963924B2 (en) 2015-02-24

Similar Documents

Publication Publication Date Title
US10495878B2 (en) Mobile terminal and controlling method thereof
JP5900468B2 (ja) Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム
WO2012147960A1 (ja) 情報処理装置、情報処理方法及び記録媒体
US20140118396A1 (en) Image processing device, image processing method, and computer program product
JP5017466B1 (ja) 情報処理装置およびプログラム
CN108986766A (zh) 信息显示终端以及信息显示方法
JP2014157482A (ja) 操作表示システム
US20160269578A1 (en) Head mounted display apparatus and method for connecting head mounted display apparatus to external device
WO2019214442A1 (zh) 一种设备控制方法、装置、控制设备及存储介质
JP5728080B2 (ja) 瞼検出装置、瞼検出方法及びプログラム
US9405995B2 (en) Method and apparatus for facial identification
JP5871473B2 (ja) 目標物選択装置、その制御方法、および制御プログラム
US20170344137A1 (en) Non-transitory computer readable medium and information processing apparatus
JP6632322B2 (ja) 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム
JP2018018437A (ja) 画像表示装置、画像形成装置、および、プログラム
JP5694471B2 (ja) 眼探索方法及び該方法を使用した眼状態検出装置と眼探索装置
JP5377713B2 (ja) 情報処理装置およびプログラム
JP5558899B2 (ja) 情報処理装置、その処理方法及びプログラム
JP7247579B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7314509B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6801329B2 (ja) 画像形成装置、情報処理装置及び情報処理システム
JP4878273B2 (ja) 眼鏡検出装置、画像処理装置、眼鏡検出方法、及び、コンピュータプログラム
JP4972013B2 (ja) 情報提示装置、情報提示方法、情報提示プログラムおよびそのプログラムを記録した記録媒体
JP6369604B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5456817B2 (ja) 表示制御装置、表示制御方法、情報表示システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160112

R151 Written notification of patent or utility model registration

Ref document number: 5871473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees