JP2008033718A - 撮像装置及び部位拡大表示方法 - Google Patents

撮像装置及び部位拡大表示方法 Download PDF

Info

Publication number
JP2008033718A
JP2008033718A JP2006207655A JP2006207655A JP2008033718A JP 2008033718 A JP2008033718 A JP 2008033718A JP 2006207655 A JP2006207655 A JP 2006207655A JP 2006207655 A JP2006207655 A JP 2006207655A JP 2008033718 A JP2008033718 A JP 2008033718A
Authority
JP
Japan
Prior art keywords
image
face
moving object
motion
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006207655A
Other languages
English (en)
Inventor
Hiroaki Yoshida
博明 吉田
Yukio Mori
幸夫 森
Yasuhachi Hamamoto
安八 浜本
Seiji Okada
誠司 岡田
Satoru Takeuchi
悟 竹内
Masahiro Yokohata
正大 横畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006207655A priority Critical patent/JP2008033718A/ja
Publication of JP2008033718A publication Critical patent/JP2008033718A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】注目したい顔の部位を自動的に拡大表示する機能を実現する。
【解決手段】撮影によって得られる撮影画像から顔領域及び顔パーツ(目など)を抽出する。そして、動きベクトルなどを参照して顔領域内での動きを検出し、その動きが顔パーツの動き(瞬きなど)であるか、或いは、化粧道具などの動きであるかを判別する。検出した動きが顔パーツの動きである判別した場合は顔領域全体を表示するが、化粧道具等の動きであると判別した場合は該動きの周辺画像を表示部に拡大表示する。
【選択図】図8

Description

本発明は、デジタルビデオカメラ等の撮像装置及び該撮像装置に用いられる部位拡大表示方法に関する。本発明は、特に、顔領域の特定部位を拡大表示する技術に関する。
電車などの車内にて、手に鏡を持ちつつ顔に化粧を施すことも多い。このような化粧を行うためには、鏡を持ち歩く必要がある。デジタルビデオカメラ等の撮像装置を所有している場合は、この撮像装置にて撮影者自身を撮影し、その撮影画像を表示画面上で確認することで、デジタルビデオカメラを鏡として利用することも可能である。
特開2006−26226号公報
目の周囲などに化粧を施す場合、その目の周囲が拡大されて表示されれば、スムーズに化粧を行うことができるが、化粧の度に画角を手動調整するのは面倒であり、また、ズームインによって画角を小さくすると、手のブレなどによって注目したい部位が撮影領域から簡単に外れてしまう、という問題がある。
尚、上記特許文献1には、撮像部を備えた化粧台が開示されている。この化粧台においても部位拡大表示が行われるが、拡大表示を行う領域を、ユーザが操作によって逐次指示してやる必要がある。
特に、化粧に着目して従来の問題点を説明したが、化粧に限らず、コンタクトレンズの装着作業、眼に入ったごみの除去作業等、顔に対する任意の作業に対して、同様の問題が発生する。
そこで本発明は、注目したい顔の部位を自動的に拡大表示する機能を備えた撮像装置及びそれに用いられる部位拡大表示方法を提供することを目的とする。
上記目的を達成するために本発明に係る撮像装置は、撮影によって得られた撮影画像を表す撮像信号を出力する撮像手段と、前記撮影画像に基づく画像を表示する表示手段と、前記撮像信号に基づいて、前記撮影画像から顔領域を認識する顔認識手段と、前記撮像信号に基づいて、前記撮影画像の前記顔領域内における動きを検出する動き検出手段と、前記顔認識手段の認識結果と前記動き検出手段の検出結果に基づいて、前記動きのある画像部位を含む、前記撮影画像の一部画像が拡大表示されるように前記表示手段を制御する拡大表示制御手段と、を備えたことを特徴とする。
化粧など、顔に対して何らかの作業を施す際、化粧道具や指先などが顔の前で動く。このような動きを検出して、その動きに対応する部位を拡大表示する。これにより、注目したい部位が自動的に拡大表示され、ユーザの利便性が向上する。
また例えば、前記動き検出手段は、前記撮影画像の前記顔領域内にて動く動物体が、顔の構成要素であるのか或いは前記構成要素と異なる非構成要素であるのかを判別し、前記拡大表示制御手段は、前記動物体が前記非構成要素であると判別された場合、前記非構成要素の周辺画像を前記一部画像として前記表示手段に拡大表示させる。
具体的には例えば、前記動き検出手段は、前記動物体の動きの方向に基づいて、前記動物体が前記構成要素であるのか或いは前記非構成要素であるのかを判別する。
尚、この判別手法に対応する実施例として、後に、第1判別手法を例示している。
また、具体的には例えば、前記動き検出手段は、前記動物体の動きが、前記構成要素の動きに対応する予め定められた特定の動きに属するかを評価することによって、前記動物体が前記構成要素であるのか或いは前記非構成要素であるのかを判別する。
また、具体的には例えば、前記動き検出手段は、前記撮影画像における、前記顔領域と前記動物体が動く領域との位置関係に基づいて、前記動物体が前記構成要素であるのか或いは前記非構成要素であるのかを判別する。
尚、これらの判別手法に対応する実施例として、後に、第2判別手法を例示している。
また、具体的には例えば、前記動き検出手段は、前記動物体の動きの頻度に基づいて、前記動物体が前記構成要素であるのか或いは前記非構成要素であるのかを判別する。
尚、この判別手法に対応する実施例として、後に、第3判別手法を例示している。
また、具体的には例えば、前記動き検出手段は、前記非構成要素が含まれない状態で撮影された前記顔領域を含む基準画像と、前記撮影画像と、の対比に基づいて、前記動物体が前記構成要素であるのか或いは前記非構成要素であるのかを判別する。
尚、この判別手法に対応する実施例として、後に、第4判別手法を例示している。
また、具体的には例えば、前記動き検出手段は、前記動物体が前記非構成要素であると判別された場合、前記非構成要素の先端の周辺画像を前記一部画像として前記表示手段に拡大表示させる。
また上記目的を達成するために本発明に係る部位拡大表示方法は、撮像手段からの撮像信号に基づいて、前記撮像信号にて表される撮影画像から顔領域を認識する顔認識ステップと、前記撮像信号に基づいて、前記撮影画像の前記顔領域内における動きを検出する動き検出ステップと、を有し、前記顔領域の認識結果と前記動きの検出結果に基づいて、前記動きのある画像部位を含む、前記撮影画像の一部画像を表示手段に拡大表示することを特徴とする。
本発明によれば、注目したい顔の部位が自動的に拡大表示される。
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。
後に、第1及び第2実施形態を説明するが、まず、それらに共通する内容について説明する。
図1は、本発明の実施の形態に係る撮像装置1の全体ブロック図である。撮像装置1は、例えば、デジタルビデオカメラである。撮像装置1は、動画及び静止画を撮影可能となっていると共に、動画撮影中に静止画を同時に撮影することも可能となっている。
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、映像信号処理部13と、マイク(音入力手段)14と、音声信号処理部15と、圧縮処理部16と、内部メモリの一例としてのSDRAM(Synchronous Dynamic Random Access Memory)17と、メモリカード18と、伸張処理部19と、映像出力回路20と、音声出力回路21と、TG(タイミングジェネレータ)22と、CPU(Central Processing Unit)23と、バス24と、バス25と、操作部26と、表示部27と、スピーカ28と、を備えている。操作部26は、録画ボタン26a、シャッタボタン26b及び操作キー26c等を有している。
撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。
TG22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。具体的には、タイミング制御信号は、撮像部11、映像信号処理部13、音声信号処理部15、圧縮処理部16、伸張処理部19及びCPU23に与えられる。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。
CPU23は、撮像装置1内の各部の動作を統括的に制御する。操作部26は、ユーザによる操作を受け付ける。操作部26に与えられた操作内容は、CPU23に伝達される。SDRAM17は、フレームメモリとして機能する。撮像装置1内の各部は、必要に応じ、信号処理時に一時的に各種のデータ(デジタル信号)をSDRAM17に記録する。
メモリカード18は、外部記録媒体であり、例えば、SD(Secure Digital)メモリカードである。尚、本実施形態では外部記録媒体としてメモリカード18を例示しているが、外部記録媒体を、1または複数のランダムアクセス可能な記録媒体(半導体メモリ、メモリカード、光ディスク、磁気ディスク等)で構成することができる。
図2は、図1の撮像部11の内部構成図である。撮像部11にカラーフィルタなどを用いることにより、撮像装置1は、撮影によってカラー画像を生成可能なように構成されている。撮像部11は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズを備えて構成される光学系35と、絞り32と、撮像素子33と、ドライバ34を有している。ドライバ34は、ズームレンズ30及びフォーカスレンズ31の移動並びに絞り12の開口量の調節を実現するためのモータ等から構成される。
被写体(撮像対象)からの入射光は、光学系35を構成するズームレンズ30及びフォーカスレンズ31、並びに、絞り32を介して撮像素子33に入射する。TG22は、上記タイミング制御信号に同期した、撮像素子33を駆動するための駆動パルスを生成し、該駆動パルスを撮像素子33に与える。
撮像素子33は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等からなる。撮像素子33は、光学系35及び絞り32を介して入射した光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。
AFE12は、撮像部11からのアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。このデジタル信号は、順次、映像信号処理部13に送られる。尚、CPU23は、撮像部11の出力信号の信号レベルに基づいて、AFE12における信号増幅の増幅度を調整する。
以下、撮像部11またはAFE12から出力される、撮影によって得られた信号(被写体に応じた信号)を、撮像信号と呼ぶ。TG22は所定のフレーム周期にて垂直同期信号Vsyncを生成し、1つのフレーム周期分の撮像信号にて1つの画像が得られる。1つのフレーム周期分の撮像信号によって表される該画像を、撮影画像と呼ぶ。フレーム周期は、例えば1/60秒である。フレーム周期ごとに訪れる各フレームにおいて、1つの撮影画像が得られる。
映像信号処理部13は、AFE12からの撮像信号に基づいて、撮像部11の撮影によって得られる映像(即ち、撮影画像)を表す映像信号を生成し、生成した映像信号を圧縮処理部16に送る。この際、デモザイキング処理、輪郭強調処理などの必要な映像処理も施される。映像信号は、撮影画像の輝度を表す輝度信号Yと、撮影画像の色を表す色差信号U及びVと、から構成される。
マイク14は、外部から与えられた音声(音)を、アナログの電気信号に変換して出力する。音声信号処理部15は、マイク14から出力される電気信号(音声アナログ信号)をデジタル信号に変換する。この変換によって得られたデジタル信号は、マイク14に対して入力された音声を表す音声信号として圧縮処理部16に送られる。
圧縮処理部16は、映像信号処理部13からの映像信号を、所定の圧縮方式を用いて圧縮する。動画または静止画撮影時において、圧縮された映像信号はメモリカード18に送られる。また、圧縮処理部16は、音声信号処理部15からの音声信号を、所定の圧縮方式を用いて圧縮する。動画撮影時において、映像信号処理部13からの映像信号と音声信号処理部15からの音声信号は、圧縮処理部16にて時間的に互いに関連付けられつつ圧縮され、圧縮後のそれらはメモリカード18に送られる。
録画ボタン26aは、ユーザが動画(動画像)の撮影の開始及び終了を指示するための押しボタンスイッチであり、シャッタボタン26bは、ユーザが静止画(静止画像)の撮影を指示するための押しボタンスイッチである。録画ボタン26aに対する操作に従って動画撮影の開始及び終了が実施され、シャッタボタン26bに対する操作に従って静止画撮影が実施される。フレーム周期にて順次取得される撮影画像の集まり(ストリーム画像)が、動画を構成する。
撮像装置1の動作モードには、動画及び静止画の撮影が可能な撮影モードと、メモリカード18に格納された動画または静止画を表示部27に再生表示する再生モードと、が含まれる。操作キー26cに対する操作に応じて、各モード間の遷移は実施される。
撮影モードにおいて、ユーザが録画ボタン26aを押下すると、CPU23の制御の下、その押下後の各フレームの映像信号及びそれに対応する音声信号が、順次、圧縮処理部16を介してメモリカード18に記録される。つまり、音声信号と共に、各フレームの撮影画像が順次メモリカード18に格納される。動画撮影の開始後、再度ユーザが録画ボタン26aを押下すると、動画撮影は終了する。つまり、映像信号及び音声信号のメモリカード18への記録は終了し、1つの動画の撮影は完了する。
また、撮影モードにおいて、ユーザがシャッタボタン26bを押下すると、静止画の撮影が行われる。具体的には、CPU23の制御の下、その押下直後の1つのフレームの映像信号が、静止画を表す映像信号として、圧縮処理部16を介してメモリカード18に記録される。動画の撮影中に静止画を同時撮影することも可能であり、この場合、同一のフレームの撮像信号から、動画用の画像と静止画用の画像が生成される。
再生モードにおいて、ユーザが操作キー26cに所定の操作を施すと、メモリカード18に記録された動画または静止画を表す圧縮された映像信号は、伸張処理部19に送られる。伸張処理部19は、受け取った映像信号を伸張して映像出力回路20に送る。また、撮影モードにおいては、通常、動画または静止画を撮影しているか否かに拘らず、映像信号処理13による映像信号の生成が逐次行われており、その映像信号は映像出力回路20に送られる。
映像出力回路20は、与えられたデジタルの映像信号を表示部27で表示可能な形式の映像信号(例えば、アナログの映像信号)に変換して出力する。表示部27は、液晶ディスプレイなどの表示装置であり、映像出力回路20から出力された映像信号に応じた画像を表示する。即ち、表示部27は、撮像部11から現在出力されている撮像信号に基づく画像(現在の被写体を表す画像)、または、メモリカード18に記録されている動画(動画像)若しくは静止画(静止画像)を、表示する。
また、再生モードにおいて動画を再生する際、メモリカード18に記録された動画に対応する圧縮された音声信号も、伸張処理部19に送られる。伸張処理部19は、受け取った音声信号を伸張して音声出力回路21に送る。音声出力回路21は、与えられたデジタルの音声信号をスピーカ28にて出力可能な形式の音声信号(例えば、アナログの音声信号)に変換してスピーカ28に出力する。スピーカ28は、音声出力回路21からの音声信号を音声(音)として外部に出力する。
<<第1実施形態>>
次に、撮像装置1の特徴的な機能である自動拡大表示機能を、第1実施形態として説明する。自動拡大表示機能は、撮影モードにおいて、操作部26への操作等に従って、実行される。但し、この機能を実行時においては、映像信号のメモリカード18への記録は省略されうる。
自動拡大表示機能では、撮影領域内に含まれる人物の顔が動画として捉えられ、顔の一部などが表示部27に拡大表示される。自動拡大表示機能は、表示部27を鏡として利用する場合などに用いられ、表示部27を鏡と見立てた上で化粧をする場合などに特に有効に機能する。
図3に、撮像装置1の概略的な外観図を示す。撮影者自身を撮影している状態で撮影者が表示部27の表示内容を確認できるように、表示部27と撮像部11の配置関係は調整可能となっている。図3において、図1と同一の部分には同一の符号を付してある。図3は、撮像装置1が携帯電話機としても利用できることを表している。或いは、撮像装置1が携帯電話機に搭載されている、と考えてもよい。
自動拡大表示機能を実現するための機能ブロック図を図4に示す。自動拡大表示機能は、図4の画像拡大処理部40によって実現される。画像拡大処理部40は、撮像信号を参照して撮影画像内に含まれる顔領域及び顔パーツ(目など)を認識する認識処理部41と、認識処理部41による認識処理に用いられるデータを記憶する認識用データ記憶部42と、撮像信号を参照して撮影画像内の動きを検出する動き検出部43と、認識処理部41の認識結果と動き検出部43の検出結果を参照しつつ、撮影信号によって表される撮影画像から表示部27に表示されるべき表示用出力画像(以下、単に出力画像という)を生成して出力する出力画像生成部44と、を備える。動き検出部43は、更に、動物体判別部45を備える。
出力画像生成部44にて生成される上記出力画像を表す映像信号は、図1の映像出力回路20に与えられ、該出力画像は表示部27に表示される。つまり、自動拡大表示機能の実行時においては、出力画像生成部44の出力画像が、表示部27の表示画面上に表示される表示画像となる。出力画像生成部44の出力画像を表す映像信号は、通常、メモリカード18に記録されない(記録することも可能)。
画像拡大処理部40を構成する各部位は、例えば、映像信号処理部13によって或いは映像信号処理部13とCPU23の組み合わせによって実現される。但し、認識用データ記憶部42は、映像信号処理部13の内部又は外部に設けられたメモリによって実現される。
[図5:動作フローチャート]
図5は、図4の画像拡大処理部40の動作を表すフローチャートである。自動拡大表示機能を実行する前に、撮影者としての被写体(人物)の顔全体が撮影部11によって撮影されるようにしておく。そして、図3に示す如く、被写体を撮影している状態で該被写体が表示部27の表示内容を確認できるように、表示部27と撮像部11の配置関係を調整しておく。この状態は、通常、自動拡大表示機能の実行終了時点まで維持される。
図1の操作キー26cの操作などに従って自動拡大表示機能が有効になると、まず、ステップS11〜S14から成る登録処理が行われる。この登録処理は、図4の認識処理部41によって実行される。
ステップS11の処理は、例えば、自動拡大表示機能の実行開始後においてシャッタボタン26bが押下された時点で実行される。ステップS11では、現フレームの撮像信号に基づく撮影画像が図4の画像拡大処理部40に入力される。この撮影画像内には、撮影者としての被写体(顔全体)が含まれることになる。
続いてステップS12において、ステップS11にて入力された撮影画像内に含まれる被写体の顔領域を抽出及び認識する。
具体的には例えば、図4の認識用データ記憶部42に記憶された顔辞書に含まれる顔パターンと、顔領域を含む撮影画像との間のパターンマッチングにより、認識処理部41が撮影画像に含まれる顔領域を認識して抽出する。顔辞書には、正面から見た顔を画像として表現した複数の顔パターンが、予めデータとして格納されている。顔辞書は、正面から見た複数の顔の画像を学習することにより、予め作成される。パターンマッチングは、周知の技術的内容であるため、ここでの詳細な説明は割愛する。
尚、顔領域の抽出及び認識する手法として、他の任意の手法を用いることも可能である。例えば、肌色に分類される領域を抽出することによって顔領域を抽出するようにしてもよいし、撮影画像から人の顔の輪郭を抽出して、顔領域を認識するようにしてもよい。
ステップS12に続くステップS13では、ステップS12で抽出された顔領域内における顔パーツを抽出及び認識する。顔パーツとは、目、鼻、眉、唇、頬などの顔の構成要素である。唇を、口と捉えてもよい。
具体的には例えば、図4の認識用データ記憶部42に記憶された顔パーツ辞書に含まれる顔パーツパターンと、顔領域及び顔パーツを含む撮影画像との間のパターンマッチングにより、認識処理部41が撮影画像に含まれる各顔パーツ(例えば、左目、右目、鼻、眉、唇、頬のそれぞれ)を認識して抽出する。顔パーツを唇とした場合、顔パーツ辞書には、唇を画像として表現した複数の顔パーツパターン(唇パターン)が、予めデータとして格納されている。顔パーツ辞書は、複数の唇の画像を学習することにより、予め作成される。唇以外の顔パーツについても同様である。
尚、顔パーツの抽出及び認識する手法として、他の任意の手法を用いることも可能である。例えば、目、眉、唇などは、それらと顔領域との位置関係を考慮して、撮像信号の色情報を用いれば、比較的容易に抽出可能である。
ステップS13に続くステップS14では、ステップS12に抽出された顔領域を複数の領域に分割する。
図6(a)及び(b)を参照して、ステップS14における分割手法例を説明する。図6(a)において、符号101が付された四角枠は、着目した撮影画像の全体を表しており、符合102が付された四角枠は、この撮影画像において抽出された顔領域を表している。図6(a)に示す例では、顔領域102が行列状に配列された複数の分割領域にて分割される。図6(b)は、顔領域102の各分割領域に参照符号を付した図であり、図面の煩雑化防止のため顔の図示を省略している。図6(a)及び(b)は、顔領域を5×4の分割領域で分割した場合を例示している。
着目した撮影画像の顔領域102において、分割領域の配列を5行4列の行列として捉え、各分割領域をAR[i,j]で表す。ここで、iは、顔領域102内における分割領域の垂直位置(上下位置)を表し、1〜5の間の各整数をとる。jは、顔領域102内における分割領域の水平位置(左右位置)を表し、1〜4の間の各整数をとる。
認識された顔領域及び各顔パーツの画像上の位置を特定する情報を参照し、各顔パーツが何れかの分割領域に含まれるように、顔領域102を分割する。図6(a)及び(b)に示す例の場合、左目及び左眉は分割領域AR[2,2]に含まれ、右目及び右眉は分割領域AR[2,3]に含まれる。但し、図6(a)及び(b)に示す例の場合、唇や鼻などは複数の分割領域にまたがって存在することになる。
尚、唇や鼻なども1つの分割領域内に収まるように、顔領域102を分割しても構わない。また、上述の例では、左目と左眉を含む分割領域AR[2,2]のように、1つの分割領域に複数の顔パーツが含まれうるが、各分割領域に1つの顔パーツのみが含まれるようにしても構わない。
ステップS14において、顔領域102の画像上の位置との関係における各分割領域の画像上の位置が特定され、さらに、各顔パーツが何れの分割領域に含まれているかが特定される。これらの特定された内容を表す情報(以下、「位置関係情報」という)は、ステップS14以降の処理にて参照される。
ステップS14を終えると登録処理が完了してステップ21に移行する。その後は、自動拡大表示機能の実行が終了するまで、ステップS21〜S27から成るループ処理が繰り返し実行される。このループ処理は、ステップS11〜S14から成る登録処理の後のフレームにおいて、例えば1フレームにつき1回実行される。
ステップS22の処理は図4の認識処理部41によって実行され、ステップS23〜S25の処理は動き検出部43によって実行され、ステップS26の処理は、主として出力画像生成部44及び図1の表示部27によって実行される。ステップS24における判別処理は、特に、図4の動物体判別部45によって実行される。ステップS22〜S25の処理によって認識された結果及び検出された結果などは、出力画像生成部44に伝達され、出力画像生成部44による出力画像の生成にそれらは利用される。
ステップS21では、現フレームの撮像信号に基づく撮影画像が図4の画像拡大処理部に入力される。この撮影画像内には、撮影者としての被写体(顔全体)が含まれることになる。
続いてステップS22では、ステップS12における処理と同様の処理を用いて、ステップS21にて入力された撮影画像内に含まれる被写体の顔領域を抽出及び認識する。同時に、ステップ14で特定された上記の位置関係情報に基づき、ステップS22で抽出された顔領域の分割領域AR[i,j]の画像上の位置も特定され、各顔パーツが何れの分割領域AR[i,j]に含まれるかも特定される。
ステップS11とステップS21にて入力された撮影画像が全く同じ場合、それらの撮影画像内の顔領域も全く同じとなり、顔領域との関係における分割領域AR[i,j]の大きさ及び位置も両撮影画像間で同じとなる。撮影画像において、顔領域が全体的に移動すれば分割領域AR[i,j]もそれに追従して移動し、顔領域の大きさが変化すれば、その変化に追従して分割領域AR[i,j]の大きさも変化する。例えば、被写体の顔が撮像装置1から遠ざかれば、通常、撮影画像における顔領域の大きさは小さくなるが、その場合、撮影画像における各分割領域AR[i,j]の大きさも顔領域の縮小比率と同じ比率にて縮小される。
続いてステップS23では、ステップS22にて抽出された顔領域内における動きが検出される。例えば、隣接するフレームの撮影画像間の対比に基づき、周知の代表点マッチング法を用いて、顔領域内の動きに対応する動きベクトルを検出する。この動きベクトルの向き及び大きさは、隣接するフレームの撮影画像間における、動物体の動きの向き及び大きさを表す。従って、ステップS23では、顔領域内の動物体の動きの向き及び大きさが検出される。
後述の説明から明らかとなるが、自動拡大表示機能を利用し、例えば表示部27を鏡と見立てて化粧を施す場合、顔領域内で動く化粧道具の周辺画像が拡大表示される。化粧を施す際、口紅などの化粧道具が画像上で動き、この化粧道具が画像上の動物体として捉えられることになる。しかしながら、瞬き等により顔パーツも動物体として捉えられうる。
そこで、ステップS23に続くステップS24では、ステップS23で検出された動物体が顔パーツであるかを判別する。つまり、撮影画像の顔領域内にて検出された動きが、瞬き等の顔パーツの動きであるのか、或いは、化粧道具等の顔パーツ以外の動きであるのかを判別する。この判別手法については後に詳説する。
ステップS23にて検出された動物体の動きが顔パーツによるものと判断された場合は、ステップS22で抽出された顔領域の全体が表示部27に表示されるように、図4の出力画像生成部44は撮影画像から出力画像を生成する。そして、ステップS21に戻る(ステップS24のY)。一方、ステップS23にて検出された動物体の動きが顔パーツ以外の動物体によるものと判断された場合はステップS25に移行する(ステップS24のN)。
ステップS25では、ステップS23にて検出された動物体の先端の、画像上の位置が検出される。例えば、眉毛を書く化粧を施す場合、図7(a)に示す如く、アイブロウペンシルを実際の眉毛に沿って滑るように移動させる。図7(a)又は(b)において、符号120が付された四角枠は、ステップS21にて入力された或る撮影画像を表し、符号121は、その撮影画像上のアイブロウペンシルを表す。この場合、アイブロウペンシル121が眉毛に沿って移動することによって、アイブロウペンシル121の位置に対応する画像領域122に、その移動に応じた動き成分が生じる。図7(b)は、その動き成分に応じた動きベクトルを例示している。
ステップS23にて検出された動きベクトルなどを参照することによって、画像領域122及び該画像領域122の先端123を容易に検出することができる。但し、ここにおける先端123は、顔領域内における動物体(画像領域122に対応)の先端を表す。図7(b)は、図示の簡略化上、符号123が付された先端の反対側にも動物体の先端が存在しているかのような図になっているが、実際には、そこにアイブロウペンシル121と同期して動く手が存在するため、画像上では先端は1つとなる。尚、隣接するフレームの撮影画像間の差分画像を参照することによっても、先端123は検出可能である。
ステップS25に続くステップS26では、ステップS25にて検出された、動物体の先端の周辺画像を表示部27に拡大表示する。
具体的には、ステップS25にて検出された先端の画像上の位置と、ステップ22で抽出された顔領域の画像上の位置とを参照して、その先端が属する分割領域を特定する。例えば、図7(a)及び(b)に示す例の場合、先端123は左眉上にあるため、先端123は分割領域AR[2,2]に属すると判断される(図6(a)及び(b)参照)。この場合、図8に示す如く撮影画像120の顔領域における分割領域AR[2,2]を拡大した画像が表示部27に表示されるように、図4の出力画像生成部44が撮影画像から出力画像(表示用出力画像)を生成する。その出力画像を表す映像信号は映像出力回路20に送られる。この出力画像は、分割領域AR[2,2]に対応する、撮影画像の一部画像を拡大した画像であり、アイブロウペンシル121の先端の周辺画像を拡大した画像である。図8の符号130は、出力画像生成部44の出力画像を表すと共に表示部27の表示画像を表す。尚、図8において、矢印131はアイブロウペンシル121の動きを示す。
尚、検出された動物体の先端が分割領域AR[4,2]に属する場合は、上述と同様に、分割領域AR[4,2]の拡大画像を表示部27に表示されるようにしてもよいが、分割領域AR[4,2]とAR[4,3]とを含む画像の拡大画像を表示部27に表示するようにしてもよい。唇(口)は、分割領域AR[4,2]とAR[4,3]にまたがって存在しているからである。
また、動物体の先端を中心とする所定画像サイズの一部画像を撮影画像から切り出し、その一部画像を所定倍率にて拡大して得られる画像を、出力画像としてもよい。前記の「所定画像サイズ」を適切に設定すれば、これによっても、注目したい部位が表示部27に拡大表示される。
ステップS26の処理を終えるとステップS27に移行し、操作キー26cに対する操作等によって自動拡大表示機能の実行終了が指示されたかが確認される。自動拡大表示機能の実行終了の指示があった場合は(ステップS27のY)、自動拡大表示機能の動作は終了するが、その指示がない場合は(ステップS27のN)、ステップS21に戻ってステップS21〜S27から成るループ処理が繰り返される。
次に、図5のステップS24にて行われる判別処理の手法について説明する。この手法として、以下に第1〜第4判別手法を例示する。第1〜第4判別手法は、矛盾なき限り、任意に組み合わせ可能である。各判別手法を実施する場合において、必要であれば、ステップS22において、顔領域を抽出すると共にステップS13の処理と同様の手法を用いて顔パーツを抽出するようにしてもよい。この顔パーツの抽出に関する情報は、適宜、ステップS24の判別処理に利用される。
尚、以下の第1〜第4判別手法の説明において、上下左右の言葉を用いる。この上下左右は、顔領域との関係における方向を表し、上下は、唇と眉間を結ぶ方向を意味し、左右は左目と右目を結ぶ方向を意味する。上述のステップS22(図5参照)において、顔領域が認識されると同時に顔領域との関係における方向(上下左右)も認識される。また、以下の説明において、動きベクトルに関する説明を行うことがあるが、動きベクトルとして、上述のステップS23にて検出される動きベクトルを利用可能である。また、以下の説明において、動物体とは、上述のステップS23にて検出された、撮影画像の顔領域内における動物体を指すものとする。
[第1判別手法]
まず、第1判別手法について説明する。顔パーツの動きは、瞬きや口の開閉のように、概ね上下方向の動きである。一方において、アイブロウペンシルを用いて眉毛を書く動き、口紅を唇に塗る動き、アイシャドウを塗る動き、パフを用いて化粧溶液を頬に塗る動きなど、化粧道具を用いた化粧の動作は、概ね左右方向の動き或るいは左右方向の動き成分を多く含んだ動きである。
これに着目し、第1判別手法では、動物体の動きの方向に基づいて、動物体が顔パーツであるか否かを判別する。
具体的には、動物体の動きベクトルを参照し、その動きベクトルを、上下方向の動き成分を表す上下ベクトルと、左右方向の動き成分を表す左右ベクトルと、に分解する。そして、左右ベクトルの大きさが所定の大きさ閾値以下である場合、その動物体は顔パーツであると判断し、そうでない場合は顔パーツ以外の動物体であると判断する。
[第2判別手法]
次に、第2判別手法について説明する。
図9は、各顔パーツの特有の動きを示した表である。目は、特有の動きとして瞬きを行う。瞬きをする際、目の両端はあまり動かないが、目の中央部は上下方向に比較的大きく動く。唇(口)は、口の開閉に伴う特有の動きをとる。口を開閉する際、上唇及び下唇の両端はあまり動かないが、上唇及び下唇の中央部は上下方向に比較的大きく動く。眉、鼻及び頬は、通常、殆ど動かないという特徴を有する。
第2判別手法では、上記の如く顔パーツの動きが或る程度定まっていることを考慮して、動物体が顔パーツであるか否かを判別する。
具体的な処理例を説明する。瞬きについて考える。図10に、目が瞬きする際の目の様子及びそれに対応する動きベクトルの様子を示す。瞬きに伴ってまぶたが閉じる際、瞳とまぶたの境界の動きベクトルは目の内側を向き、その動きベクトルの大きさは目の両端付近で比較的小さく目の中央付近で比較的大きくなる。瞬きに伴ってまぶたが開く際、瞳とまぶたの境界の動きベクトルは目の外側を向き、その動きベクトルの大きさは目の両端付近で比較的小さく目の中央付近で比較的大きくなる。
このような瞬きの動きの特徴を、顔パーツ動き辞書にデータとして格納しておく。この顔パーツ動き辞書は、図4の動き検出部43が参照可能なように、例えば画像拡大処理部40に設けられる。上述の説明からも明らかな様に、顔領域のどの分割領域AR[i,j]に何れの顔パーツが存在しているかを、動物体判別部45は認識できる。例えば左目は分割領域AR[2,2]に存在していると認識できる。
動物体判別部45は、分割領域AR[2,2]に動きが検出された際、動きベクトルの向き及び大きさを参照しつつ、その動きの特徴を表す特徴量と、顔パーツ動き辞書にデータとして格納されている瞬きの特徴量との類似性を評価する。そして、両者の類似性が高い場合は、その動きが瞬きという動きに属すると判断して、分割領域AR[2,2]における動物体が顔パーツであると判断する。両者の類似性が低い場合は、分割領域AR[2,2]における動物体が顔パーツ以外の動物体であると判断する。尚、この判断の精度を上げるために必要であれば、ステップS22において、顔領域を抽出すると共にステップS13と同様の顔パーツの抽出を行い、その抽出結果を利用するようにしてもよい。口の周辺の動きについても、同様にして、動物体の分類が可能である。
また、目に関しては、瞬きに伴って瞳が隠れるため、撮影画像の色情報を参照することで容易に動きが瞬きによるものか、それ以外に由来するものかを判別可能である。具体的には、目が存在する分割領域AR[2,2]又はAR[2,3]の色信号(色差信号など)を参照すればよい。
他方、眉、鼻及び頬に関しては、瞬きのような動きは想定されないので、眉、鼻又は頬付近で動きが検出されれば、その動きは、顔パーツ以外の動物体によるものと推測可能である。但し、この推測を行うためには、先にステップS25による動物体の先端の検出を行う必要がある。
例えば、検出された動物体の先端が、左頬のみが含まれる分割領域AR[3,1]に属する場合は、その動物体は顔パーツ以外の動物体であると判断する。そして、ステップS26に移行して、分割領域AR[3,1]を拡大表示するようにする。また、分割領域AR[2,2]の上方は左眉が存在していることがステップS13の顔パーツ抽出で分かっているので、分割領域AR[2,2]の上方に動物体の先端が検出されれば、その動物体は顔パーツ以外の動物体であると判断する。そして、ステップS26に移行し、分割領域AR[2,2]を拡大表示するようにする。右頬、右眉、鼻についても同様である。
このように、眉、鼻及び頬に関しては、顔パーツ動き辞書のようなものを参照するまでもなく、撮影画像における、抽出された顔領域と動物体の動く領域(動物体の先端)との位置関係を評価することによって、動物体が顔パーツであるか否かを判別可能である。尚、この評価も、直接的ではないが、動物体の動きが顔パーツの特有の動きに属するかを評価していることになる(眉等に関しては、特有の動きがないと仮定して評価が行われることになる)。
[第3判別手法]
次に、第3判別手法について説明する。瞬きなどの顔パーツの動きは繰り返し運動ではあるが、その発生間隔は比較的長い(例えば、5秒に1回など)。一方、化粧道具等の動きの発生間隔は比較的短い(例えば、1秒に3回など)。
これを考慮し、第3判別手法では、動物体の動きの頻度に基づいて、動物体が顔パーツであるか否かを判別する。
この判別を行うためには、過去のステップS23の動き検出結果を参照する必要がある。例えば、現フレームにて検出された動きベクトルと、現フレームを基準とした過去の(n−1)フレーム分の動きベクトルとを参照する(nは整数)。つまり、上記の判別を行うために、nフレーム分の動きベクトルを参照する。そして、目又は唇の周辺の動きについてのnフレーム分の動きベクトルの内、所定の閾値以上の大きさを有する動きベクトルの個数を計数する。この個数が所定の個数閾値以下である場合は、目又は唇の周辺の動きに由来する動物体は顔パーツであると判断し、そうでない場合は顔パーツ以外の動物体であると判断する。尚、この手法は、眉、鼻及び頬についても適用可能である。
[第4判別手法]
次に、第4判別手法について説明する。顔の前に化粧道具などを当てると、画像上では、当然、その化粧道具に遮蔽されて顔領域の一部が見えなくなる。このため、そのような遮蔽のない画像を用意しておけば、化粧道具などが顔領域に入ってきたかを容易に判別可能である。
第4判別手法では、上記のような遮蔽のない状態で顔全体を撮影した画像(以下、基準画像という)が必要である。この基準画像として、例えば図5のステップS11で取得された撮影画像を利用可能である。そして、基準画像から抽出された顔領域の画像と、ステップS21にて取得された撮影画像から抽出された顔領域の画像と、を比較する。例えば、両顔領域の画像間の差分画像を生成し、該差分画像で遮蔽状態を評価すればよい。
撮影画像の顔領域の一部が何らかの物体にて遮蔽されている場合は、その遮蔽に関与する動きは顔パーツ以外の動物体によるものと判断できる。例えば、撮影画像の顔領域の顎の一部及び唇の一部が何らかの物体で遮蔽されている場合、その遮蔽に関与する動きは顔パーツ以外の動物体(例えば口紅と口紅を持つ手)によるものと判断できる。但し、比較される2つの顔領域の画像の対比において、目の画像部位にのみ差異がある場合や口の画像部位にのみ差異がある場合、その差異は、顔パーツの動きに由来するものと判断する(前者は瞬きに対応し、後者は口の開閉に対応する)。
本実施形態のような自動拡大表示機能を利用すれば、顔領域内の動きのある部位、即ち化粧などを施している注目部位が自動的に拡大表示されるため、化粧などをスムーズに行うことが可能となる。特に化粧に関する説明を行ったが、コンタクトレンズの装着作業、眼に入ったごみの除去作業等、顔に対する任意の作業に対して、自動拡大表示機能は効果的に作用する。
<<第2実施形態>>
次に、撮像装置1に装備可能な拡大表示機能を、第2実施形態として説明する。第2実施形態に係る拡大表示機能は、図4の画像拡大処理部40の機能を利用して実現される。第1実施形態に記述した事項は、矛盾なき限り、第2実施形態にも適用される。拡大表示機能は、撮影モードにおいて、操作部26への操作等に従って、実行される。但し、この機能を実行時においては、映像信号のメモリカード18への記録は省略されうる。
拡大表示機能の実行時においても、第1実施形態に係る自動拡大表示機能と同様、撮影領域内に含まれる人物の顔が動画として捉えられ、顔の一部が表示部27に拡大表示される。但し、この拡大表示は、図1の操作部26等に対する操作に従って行われる。
図11に、拡大表示機能の実行時における撮像装置1の概略的な外観図を示す。拡大表示機能を実行する際、撮影者としての被写体(人物)の顔全体が撮影部11によって撮影されるようにしておく。
図1の操作部26は複数のキーを備えており、それらを第1、第2、・・・第k指定キー(kは整数)と呼ぶ。そして、各指定キーには、顔パーツの何れかが予め対応付けられている。例えば、第1指定キーには左目が対応付けられ、第2指定キーには右目が対応付けられ、第3指定キーには唇が対応付けられている。他の指定キーについても同様である。
拡大表示機能を実行すると、被写体の顔領域が動画として撮影され、図11(a)に示す如く、その顔領域を表す画像が表示部27の表示画面上に表示される。この際、撮影画像から顔領域を抽出して、顔領域の拡大画像を表示画面上に表示するとよい。
そして、撮像装置1は、何れかの指定キーに対するユーザからの操作(押下)を待ち受ける。例えば、第1指定キーが押下された場合、第1指定キーに対応付けられた左目を拡大指定パーツとして特定する。その後は、次々と得られる撮影画像から、顔領域と拡大指定パーツ(今の場合、左目)を抽出する。この抽出の手法は、図5のステップS12及びS13における手法と同様である。そして、拡大指定パーツが動画として表示部27に拡大表示されるように、図4の出力画像生成部44が、順次取得される撮影画像から拡大指定パーツを含む一部画像を切り出し、その一部画像を表す映像信号を、順次、映像出力回路20に供給する。これにより、図11(b)に示すような画像が動画として表示される。
また、表示部27にタッチパネルとしての機能を持たせ、タッチパネルの機能を用いて拡大指定パーツの指定を行っても良い。この場合、表示部27は、指が触れられた表示画面上の位置を検出する機能を備える。以下に、この場合の処理を説明する。図12は、タッチパネルを利用して拡大表示機能を実行した際の表示画面の遷移を示す図である。
拡大表示機能を実行すると、被写体の顔領域が動画として撮影され、図11(a)に示す如く、その顔領域を表す画像が表示部27の表示画面上に表示される。拡大表示機能の実行時において、図5のステップS12及びS13における手法と同様の手法を用いて、各撮影画像から顔領域及び顔パーツを抽出する。図4の出力画像生成部44は、抽出した顔領域の拡大画像が表示部27の表示画面上に表示されるように出力画像を生成して出力する。
表示部27は、指が触れられた表示画面上の位置を検出し、その位置を特定する位置情報を図4の出力画像生成部44に送る。出力画像生成部44は、受け取った位置情報に基づいて、表示された顔のどの部分に指が触れられたかを検出し、その指が触れられた部分に対応する顔パーツを拡大指定パーツとして特定する。例えば、指が触れられた部分が左目の表示領域内であれば或いは左目に近い所定の表示領域内であれば、左目が拡大指定パーツとして特定される。出力画像生成部44は、表示部27に表示される画像を生成しており、その画像において、どの部分に各顔パーツが存在しているかを認識しているため、表示部27からの位置情報に基づいて拡大指定パーツを特定することが可能である。
この後は、この拡大指定パーツが動画として表示部27に拡大表示されるように、図4の出力画像生成部44が、順次取得される撮影画像から拡大指定パーツを含む一部画像を切り出し、その一部画像を表す映像信号を、順次、映像出力回路20に供給する。
本実施形態のような拡大表示機能を利用することによっても、注目したい部位が拡大して表示されるため、化粧などをスムーズに行うことが可能となる。また、化粧に限らず、顔の一部を拡大して見たい要求に対して、拡大表示機能は効果的に作用する。
尚、上記の特許文献1に記載の、撮像部を備えた化粧台においても、ユーザからの操作に従った部位拡大表示が行われる。しかしながら、この化粧台では、部位拡大表示をするためにマウスなどを操作して拡大したいエリアを囲む等の操作が必要となる。本実施形態に係る拡大表示機能では、顔パーツ抽出を利用していることに由来して、簡単な操作で顔パーツを拡大表示することが可能である。
<<変形等>>
図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図4の画像拡大処理部40の機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。画像拡大処理部40にて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをコンピュータ上で実行することによって、その機能の全部または一部を実現するようにしてもよい。
図4の出力画像生成部44は、拡大表示制御手段として機能する。この拡大表示制御手段に、図1の映像出力回路20が含まれていると考えても構わない。
本発明の実施の形態に係る撮像装置の全体ブロック図である。 図1の撮像部の内部ブロック図である。 図1の撮像装置の概略的な外観図である。 図1の撮像装置に係る、画像拡大処理部の機能ブロック図である。 本発明の第1実施形態に係る自動拡大表示機能の動作フローチャートである。 図4の画像拡大処理部にて実行される、顔領域の分割の様子を示す図である。 図4の動き検出部による、動物体の先端の検出動作を説明するための図である。 図4の画像拡大処理部を用いた自動拡大表示機能によって得られる拡大表示の状態を表す図である。 図4の動物体判別部の機能を説明するための図であり、目などの顔パーツの特有の動きを表として表した図である。 図4の動物体判別部の機能を説明するための図であり、目の瞬きに関連する動きベクトルの状態を表す図である。 本発明の第2実施形態に係る拡大表示機能に関する、表示画面の遷移状態を表す図である。 本発明の第2実施形態に係る拡大表示機能に関する、表示画面の遷移状態を表す図である。
符号の説明
1 撮像装置
11 撮像部
13 映像信号処理部
26 操作部
27 表示部
40 画像拡大処理部
41 認識処理部
42 認識用データ記憶部
43 動き検出部
44 出力画像生成部
45 動物体判別部

Claims (9)

  1. 撮影によって得られた撮影画像を表す撮像信号を出力する撮像手段と、
    前記撮影画像に基づく画像を表示する表示手段と、
    前記撮像信号に基づいて、前記撮影画像から顔領域を認識する顔認識手段と、
    前記撮像信号に基づいて、前記撮影画像の前記顔領域内における動きを検出する動き検出手段と、
    前記顔認識手段の認識結果と前記動き検出手段の検出結果に基づいて、前記動きのある画像部位を含む、前記撮影画像の一部画像が拡大表示されるように前記表示手段を制御する拡大表示制御手段と、を備えた
    ことを特徴とする撮像装置。
  2. 前記動き検出手段は、前記撮影画像の前記顔領域内にて動く動物体が、顔の構成要素であるのか或いは前記構成要素と異なる非構成要素であるのかを判別し、
    前記拡大表示制御手段は、前記動物体が前記非構成要素であると判別された場合、前記非構成要素の周辺画像を前記一部画像として前記表示手段に拡大表示させる
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記動き検出手段は、前記動物体の動きの方向に基づいて、
    前記動物体が前記構成要素であるのか或いは前記非構成要素であるのかを判別する
    ことを特徴とする請求項2に記載の撮像装置。
  4. 前記動き検出手段は、前記動物体の動きが、前記構成要素の動きに対応する予め定められた特定の動きに属するかを評価することによって、
    前記動物体が前記構成要素であるのか或いは前記非構成要素であるのかを判別する
    ことを特徴とする請求項2に記載の撮像装置。
  5. 前記動き検出手段は、前記撮影画像における、前記顔領域と前記動物体が動く領域との位置関係に基づいて、
    前記動物体が前記構成要素であるのか或いは前記非構成要素であるのかを判別する
    ことを特徴とする請求項2に記載の撮像装置。
  6. 前記動き検出手段は、前記動物体の動きの頻度に基づいて、
    前記動物体が前記構成要素であるのか或いは前記非構成要素であるのかを判別する
    ことを特徴とする請求項2に記載の撮像装置。
  7. 前記動き検出手段は、前記非構成要素が含まれない状態で撮影された前記顔領域を含む基準画像と、前記撮影画像と、の対比に基づいて、
    前記動物体が前記構成要素であるのか或いは前記非構成要素であるのかを判別する
    ことを特徴とする請求項2に記載の撮像装置。
  8. 前記動き検出手段は、前記動物体が前記非構成要素であると判別された場合、前記非構成要素の先端の周辺画像を前記一部画像として前記表示手段に拡大表示させる
    ことを特徴とする請求項2〜請求項7に記載の撮像装置。
  9. 撮像手段からの撮像信号に基づいて、前記撮像信号にて表される撮影画像から顔領域を認識する顔認識ステップと、
    前記撮像信号に基づいて、前記撮影画像の前記顔領域内における動きを検出する動き検出ステップと、を有し、
    前記顔領域の認識結果と前記動きの検出結果に基づいて、前記動きのある画像部位を含む、前記撮影画像の一部画像を表示手段に拡大表示する
    ことを特徴とする部位拡大表示方法。
JP2006207655A 2006-07-31 2006-07-31 撮像装置及び部位拡大表示方法 Pending JP2008033718A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006207655A JP2008033718A (ja) 2006-07-31 2006-07-31 撮像装置及び部位拡大表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006207655A JP2008033718A (ja) 2006-07-31 2006-07-31 撮像装置及び部位拡大表示方法

Publications (1)

Publication Number Publication Date
JP2008033718A true JP2008033718A (ja) 2008-02-14

Family

ID=39123043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006207655A Pending JP2008033718A (ja) 2006-07-31 2006-07-31 撮像装置及び部位拡大表示方法

Country Status (1)

Country Link
JP (1) JP2008033718A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7704520B1 (en) 2002-09-10 2010-04-27 Mast Biosurgery Ag Methods of promoting enhanced healing of tissues after cardiac surgery
US7744915B2 (en) 2002-07-31 2010-06-29 Mast Biosurgery Ag Apparatus and method for preventing adhesions between an implant and surrounding tissues
CN101901353A (zh) * 2010-07-23 2010-12-01 北京工业大学 基于子区域匹配的眉毛图像识别方法
JP2011008397A (ja) * 2009-06-24 2011-01-13 Sony Ericsson Mobilecommunications Japan Inc 美粧支援装置、美粧支援方法、美粧支援プログラム、及び携帯端末装置
US7947300B2 (en) 2000-03-10 2011-05-24 Mast Biosurgery Ag Resorbable thin membranes
US8048444B2 (en) 2002-07-31 2011-11-01 Mast Biosurgery Ag Apparatus and method for preventing adhesions between an implant and surrounding tissues
WO2015001606A1 (ja) 2013-07-01 2015-01-08 パイオニア株式会社 撮像システム
JP2017108462A (ja) * 2017-03-15 2017-06-15 カシオ計算機株式会社 画像処理装置及び画像処理方法並びにプログラム
CN111012023A (zh) * 2019-12-17 2020-04-17 苏州浩哥文化传播有限公司 一种基于影像分析的智能美妆化妆镜
US10737644B2 (en) 2014-05-15 2020-08-11 Dometic Sweden Ab Power track assembly and accessory base therefore

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8349795B2 (en) 2000-03-10 2013-01-08 Mast Biosurgery Ag Resorbable thin membranes
US7947300B2 (en) 2000-03-10 2011-05-24 Mast Biosurgery Ag Resorbable thin membranes
US8012502B2 (en) 2000-03-10 2011-09-06 Mast Biosurgery Ag Resorbable thin membranes
US7744915B2 (en) 2002-07-31 2010-06-29 Mast Biosurgery Ag Apparatus and method for preventing adhesions between an implant and surrounding tissues
US7767222B2 (en) 2002-07-31 2010-08-03 Mast Biosurgery Ag Apparatus and method for preventing adhesions between an implant and surrounding tissues
US8048444B2 (en) 2002-07-31 2011-11-01 Mast Biosurgery Ag Apparatus and method for preventing adhesions between an implant and surrounding tissues
US7704520B1 (en) 2002-09-10 2010-04-27 Mast Biosurgery Ag Methods of promoting enhanced healing of tissues after cardiac surgery
JP2011008397A (ja) * 2009-06-24 2011-01-13 Sony Ericsson Mobilecommunications Japan Inc 美粧支援装置、美粧支援方法、美粧支援プログラム、及び携帯端末装置
CN101901353B (zh) * 2010-07-23 2012-10-31 北京工业大学 基于子区域匹配的眉毛图像识别方法
CN101901353A (zh) * 2010-07-23 2010-12-01 北京工业大学 基于子区域匹配的眉毛图像识别方法
WO2015001606A1 (ja) 2013-07-01 2015-01-08 パイオニア株式会社 撮像システム
US10061995B2 (en) 2013-07-01 2018-08-28 Pioneer Corporation Imaging system to detect a trigger and select an imaging area
US10737644B2 (en) 2014-05-15 2020-08-11 Dometic Sweden Ab Power track assembly and accessory base therefore
JP2017108462A (ja) * 2017-03-15 2017-06-15 カシオ計算機株式会社 画像処理装置及び画像処理方法並びにプログラム
CN111012023A (zh) * 2019-12-17 2020-04-17 苏州浩哥文化传播有限公司 一种基于影像分析的智能美妆化妆镜
CN111012023B (zh) * 2019-12-17 2022-12-13 中山市大牌镜业有限公司 一种基于影像分析的智能美妆化妆镜

Similar Documents

Publication Publication Date Title
JP2008033718A (ja) 撮像装置及び部位拡大表示方法
JP4849988B2 (ja) 撮像装置及び出力画像生成方法
JP4274233B2 (ja) 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
KR101401855B1 (ko) 화상 처리 장치, 화상 처리 방법
KR101679290B1 (ko) 영상 처리 방법 및 장치
US7639282B2 (en) Image sensing device that acquires a movie of a person or an object and senses a still image of the person or the object, and control method thereof
JP4513699B2 (ja) 動画像編集装置、動画像編集方法及びプログラム
JP5949331B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP2012205037A (ja) 画像処理装置および画像処理方法
JP2006101186A (ja) カメラ
JP6111723B2 (ja) 画像生成装置、画像生成方法及びプログラム
KR20090098505A (ko) 상태 정보를 이용하여 미디어 신호를 생성하는 방법 및장치
KR20120068078A (ko) 영상 처리 장치 및 그의 영상 데이터와 오디오 데이터의 연결 방법
US8085997B2 (en) Imaging apparatus and imaging method
JP4802884B2 (ja) 撮像装置、撮像画像記録方法、及び、プログラム
CN105744144A (zh) 图像生成方法以及图像生成装置
JP2013125181A (ja) 投影装置
KR101325002B1 (ko) 화상 처리 장치, 화상 처리 방법 및 기록 매체
US9767587B2 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
US10447935B2 (en) Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image from images related to reference image
JP6087615B2 (ja) 画像処理装置およびその制御方法、撮像装置、および表示装置
JP2010199968A (ja) デジタルカメラ
JP2010039795A (ja) 認識用データ生成装置及び電子カメラ、認識用データ生成プログラム、並びに認識用データ生成方法
JP2009212867A (ja) 撮影画像処理装置、撮影制御プログラム及び撮影制御方法
JP7077684B2 (ja) 表示装置、表示処理方法、及び表示処理プログラム