JP2011103561A - 画像処理システム、画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理システム、画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2011103561A
JP2011103561A JP2009257666A JP2009257666A JP2011103561A JP 2011103561 A JP2011103561 A JP 2011103561A JP 2009257666 A JP2009257666 A JP 2009257666A JP 2009257666 A JP2009257666 A JP 2009257666A JP 2011103561 A JP2011103561 A JP 2011103561A
Authority
JP
Japan
Prior art keywords
person
image
posture
processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009257666A
Other languages
English (en)
Other versions
JP5553141B2 (ja
JP2011103561A5 (ja
Inventor
Yuichi Hasegawa
雄一 長谷川
Jun Yokono
順 横野
Keisuke Yamaoka
啓介 山岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009257666A priority Critical patent/JP5553141B2/ja
Priority to EP10188009A priority patent/EP2339536B1/en
Priority to US12/938,559 priority patent/US9020210B2/en
Priority to CN201010535669.2A priority patent/CN102073974B/zh
Publication of JP2011103561A publication Critical patent/JP2011103561A/ja
Publication of JP2011103561A5 publication Critical patent/JP2011103561A5/ja
Application granted granted Critical
Publication of JP5553141B2 publication Critical patent/JP5553141B2/ja
Priority to US14/669,510 priority patent/US9547791B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】画像中の人物の位置および姿勢に適した画像処理を自動的に行う。
【解決手段】メモリ14には、人物の特定の姿勢を表現する特定姿勢データと、画像に施す加工を指定する演出加工データとが対応付けられて登録されているデータベースが記憶されている。人物領域検出エンジン24は、画像処理の対象とされる画像において人物が写されている領域である人物領域を検出し、人物姿勢認識エンジン25は、その人物領域内の人物の姿勢を認識する。そして、マッチングエンジン26は、メモリ14に記憶されているデータベースを参照し、人物領域検出エンジン24により認識された姿勢に適合する特定姿勢データを求め、画像加工エンジン27は、マッチングエンジン26により求められた特定姿勢データに対応付けられている演出加工データに基づいて、画像に対する加工を施す。本発明は、例えば、デジタルカメラに適用できる。
【選択図】図3

Description

本発明は、画像処理システム、画像処理装置、画像処理方法、およびプログラムに関し、特に、画像中の人物の位置および姿勢に適した画像処理を自動的に行うことができるようにした画像処理システム、画像処理装置、画像処理方法、およびプログラムに関する。
一般的に、人物が写っている画像に画像処理を施し、その人物に対する演出(特殊効果の加工)を行う作業においては、画像処理を行う作業者が、画像のどこに人物が写っているのか、どの人物にどのような演出を施すべきなのかということを判断する必要がある。例えば、疾走している人物が写っている画像に、より強い疾走感を持たせる演出を行う場合には、画像中の人物の位置を特定する工程や、人物の姿勢に応じた演出を選択する工程などが必要であり、従来、それらの工程が作業者の手作業により行われている。
一方、コンピュータグラフィックスによるアニメーションの画像は、カメラワークやキャラクタの動作などが記述されたシナリオ情報に基づいて画像が構築されている。従って、そのシナリオ情報を利用することで、コンピュータグラフィックスによるアニメーションの画像に対して半自動的に演出を施すことができる(例えば、特許文献1参照)。しかしながら、実際に撮像装置で撮像されたいわゆる実写画像は、そのようなシナリオ情報に基づいた画像ではないので、実写画像に対して、半自動的に演出を施すことは困難である。
また、顔認識技術を応用して、画像から認識された顔領域に加工を施す技術がある。顔認識技術を応用した加工では、加工対象は顔領域のみであることが多いが、例えば、顔領域の下方に身体が存在するというルールを適用することで、身体部分に対して加工を施すことができる。しかしながら、このような顔認識技術を応用した加工では、人物の姿勢に応じて加工結果が不自然になることがある。
例えば、図1を参照して、顔認識技術を応用して、画像中の人物に衣装を着せる演出例について説明する。
図1Aに示すように、縦向き姿勢の人物が写されている入力画像P1に対して、顔領域の下方に身体が存在するというルールを適用して、衣装画像P2を重畳させる演出を行った出力画像P3では、比較的に自然な加工結果が得られる。これに対し、図1Bに示すように、横向き姿勢の人物が写されている入力画像P1’に対して、顔領域の下方に身体が存在するというルールを適用して、衣装画像P2を重ね合わせる演出を行った出力画像P3’は、不自然な加工結果となる。
このように、顔認識技術を応用して、画像中の人物に適した演出を施す画像処理を行っても、画像中の人物の位置および姿勢に適した結果を得ることは困難である。
特許第4245433号
上述したように、画像中の人物に対する演出を行う画像処理では、画像処理を行う作業者の手作業により、画像中の人物の位置を特定したり、人物の姿勢に応じた演出を選択したりする工程が必要であり、画像中の人物の位置および姿勢に適した画像処理を自動的に行うことは困難であった。
本発明は、このような状況に鑑みてなされたものであり、画像中の人物の位置および姿勢に適した画像処理を自動的に行うことができるようにするものである。
本発明の一側面の画像処理システムまたは画像処理装置は、人物の特定の姿勢を表現する特定姿勢データと、画像に施す加工を指定する演出加工データとが対応付けられて登録されているデータベースを記憶する記憶手段と、画像処理の対象とされる画像において人物が写されている領域である人物領域を検出する人物領域検出手段と、前記人物領域検出手段により検出された人物領域内の人物の姿勢を認識する人物姿勢認識手段と、前記記憶手段に記憶されているデータベースを参照して、前記人物姿勢認識手段により認識された姿勢に適合する前記特定姿勢データを求めるマッチング手段と、前記マッチング手段により求められた前記特定姿勢データに対応付けられている前記演出加工データに基づいて、前記画像に対する加工を施す加工手段とを備える。
本発明の一側面の画像処理方法またはプログラムは、画像処理の対象とされる画像において人物が写されている領域である人物領域を検出し、検出された前記人物領域内の人物の姿勢を認識し、人物の特定の姿勢を表現する特定姿勢データと、画像に施す加工を指定する演出加工データとが対応付けられて登録されているデータベースを記憶する記憶手段に記憶されているデータベースを参照して、認識された前記姿勢に適合する前記特定姿勢データを求め、求められた前記特定姿勢データに対応付けられている前記演出加工データに基づいて、前記画像に対する加工を施すステップを含む。
本発明の一側面においては、画像処理の対象とされる画像において人物が写されている領域である人物領域が検出され、その人物領域内の人物の姿勢が認識される。そして、人物の特定の姿勢を表現する特定姿勢データと、画像に施す加工を指定する演出加工データとが対応付けられて登録されているデータベースを参照して、認識された姿勢に適合する特定姿勢データが求められ、求められた特定姿勢データに対応付けられている演出加工データに基づいて、画像に対する加工が施される。
本発明の一側面によれば、画像中の人物の位置および姿勢に適した画像処理を自動的に行うことができる。
顔認識技術を応用して、画像中の人物に衣装を着せる演出例について説明する図である。 画像中の人物に適した演出を行う画像処理について説明する図である。 本発明を適用したデジタルカメラの一実施の形態の構成例を示すブロック図である。 画像中の人物に演出を行う画像処理を説明するフローチャートである。 画像処理が施された演出例を示す図である。 画像処理が施された演出例を示す図である。 人物姿勢データに用いられる10個のパーツを示す図である。 演出加工データの一例を示す図である。 画像処理の工程を説明する図である。 画像処理の工程を説明する図である。 画像処理の工程を説明する図である。 複数の人物が写されている画像に対する画像処理について説明する図である。 デジタルカメラの表示部の表示例を示す図である。 本発明を適用した画像処理システムの一実施の形態の構成例を示すブロック図である。 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
まず、図2を参照して、画像中の人物に適した演出を行う画像処理について説明する。
図2には、画像処理の対象となる入力画像P11、入力画像P11から人物領域および人物姿勢を検出した処理中画像P12、および、入力画像P11に対して画像処理が施された結果得られる出力画像P13が示されている。
入力画像P11には疾走している人物が映されており、入力画像P11に対して人物が写されている領域を検出する処理が行われ、処理中画像P12に示すように、点線で囲われた領域が人物領域として検出される。そして、入力画像P11中の人物領域に対して、人物の姿勢を認識する処理が行われ、処理中画像P12に示すような太線で表現される形状が人物姿勢として検出される。
そして、このような人物姿勢にマッチングする演出として、より強い疾走感を表現する効果のある加工画像(例えば、人物により切り裂かれる風を表現する画像)が選択され、その加工画像を入力画像P11に重畳する画像処理が施される。これにより、画像中の人物に適した演出(人物の動作や心情などを強調する特殊効果のある加工)が行われた出力画像P13を得ることができる。
次に、図3は、本発明を適用したデジタルカメラの一実施の形態の構成例を示すブロック図である。
図3において、デジタルカメラ11は、撮像部12、信号処理部13、メモリ14、表示部15、および入力部16から構成され、デジタルカメラ11に対し、記録メディア17が着脱可能とされている。
撮像部12は、レンズおよび絞りなどからなる光学系と、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)センサなどからなるイメージャとを備えて構成される。撮像部12は、光学系によりイメージャの受光部に結像された光学的な被写体の画像を電気信号に変換して、変換により得られた画像の電気信号を信号処理部13に供給する。
信号処理部13は、複数の電子部品が設けられた基板として構成されるか、またはシステムIC(Integrated Circuit)などとして構成される。信号処理部13は、撮像部12から供給された画像の電気信号に各種の信号処理を適用して、画像データを生成する。また、撮像部12は、画像データに各種の画像処理を適用する。
メモリ14は、ROM(Read Only Memory),RAM(Random Access Memory)、およびEEPROM(Electronically Erasable and Programmable Read Only Memory)などのフラッシュメモリから構成される。メモリ14は、信号処理部13における信号処理において必要となる各種のデータ(データベース)を格納したり、信号処理の対象となる画像データを一時的に記憶する。
表示部15は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイなどからなり、信号処理部13の制御に応じて、各種の画像を表示する。
入力部16は、ボタン、スイッチ、または表示部15に重ねて設けられるタッチパネルなどからなり、ユーザの操作に応じた信号を信号処理部13に供給する。
記録メディア17は、不揮発性の半導体メモリなどを内蔵するメモリカードなどの媒体であり、デジタルカメラ11または他のデジタルカメラで撮像された画像の画像データが記憶(記録)されている。なお、記録メディア17は、半導体メモリなどを内蔵するメモリカードに限らず、ハードディスクなどの磁気ディスク、またはDVD(Digital Versatile Disc)などの光ディスク若しくは光磁気ディスクなどであってもよい。また、記録メディア17は、着脱可能なものの他、デジタルカメラ11に内蔵されているものであってもよい。
信号処理部13は、カメラ信号処理エンジン21、JPEG(Joint Photographic Experts Group)エンジン22、解像度変換エンジン23、人物領域検出エンジン24、人物姿勢認識エンジン25、マッチングエンジン26、画像加工エンジン27、画像表示用エンジン28、制御用CPU(Central Processing Unit)29、画像信号用バス30、制御信号用バス31、外部メディアコントローラ32、入力インタフェース33、およびデータバス34から構成される。
カメラ信号処理エンジン21、JPEGエンジン22、解像度変換エンジン23、人物領域検出エンジン24、人物姿勢認識エンジン25、マッチングエンジン26、画像加工エンジン27、画像表示用エンジン28、制御用CPU29、データバス34、およびメモリ14は、画像データの信号である画像信号が伝送される画像信号用バス30によって相互に接続されている。
カメラ信号処理エンジン21、JPEGエンジン22、解像度変換エンジン23、人物領域検出エンジン24、人物姿勢認識エンジン25、マッチングエンジン26、画像加工エンジン27、および画像表示用エンジン28は、それぞれ、画像データを画像信号用バス30を介してメモリ14に供給し、画像データをメモリ14に一時的に記憶させるか、またはメモリ14に一時的に記憶されている画像データを、画像信号用バス30を介してメモリ14から読み出す。
また、カメラ信号処理エンジン21、JPEGエンジン22、解像度変換エンジン23、人物領域検出エンジン24、人物姿勢認識エンジン25、マッチングエンジン26、画像加工エンジン27、画像表示用エンジン28、および制御用CPU29は、制御信号が伝送される制御信号用バス31によって相互に接続されている。
制御用CPU29は、制御信号用バス31を介して制御信号を取得し供給することで、カメラ信号処理エンジン21、JPEGエンジン22、解像度変換エンジン23、人物領域検出エンジン24、人物姿勢認識エンジン25、マッチングエンジン26、画像加工エンジン27、および画像表示用エンジン28のそれぞれを制御する。
さらに、制御用CPU29、外部メディアコントローラ32、および入力インタフェース33は、データバス34によって相互に接続されている。
制御用CPU29は、データバス34を介して外部メディアコントローラ32を制御し、外部メディアコントローラ32に、画像信号用バス30およびデータバス34を介して供給された画像データを記録メディア17に記憶させる。また、制御用CPU29は、外部メディアコントローラ32に、記録メディア17に記憶されている画像データを記録メディア17から読み出させる。
カメラ信号処理エンジン21は、制御信号用バス31を介した制御用CPU29の制御の基に、撮像部12から供給された画像の電気信号に、デジタル信号への変換、ノイズ除去、またはホワイトバランスの調整などの各種の信号処理を適用する。カメラ信号処理エンジン21は、信号処理を適用して得られた画像データをメモリ14に一時的に記憶させる。
JPEGエンジン22は、制御信号用バス31を介した制御用CPU29の制御の基に、カメラ信号処理エンジン21から供給され、メモリ14に一時的に記憶されている画像データを、メモリ14から読み出して、JPEG方式で符号化する。JPEGエンジン22は、符号化された画像データを画像信号用バス30およびデータバス34を介して、外部メディアコントローラ32に供給する。この場合、外部メディアコントローラ32は、JPEG方式で符号化された画像データを記録メディア17に記憶(記録)させる。
また、JPEGエンジン22は、制御信号用バス31を介した制御用CPU29の制御の基に、外部メディアコントローラ32によって、記録メディア17から読み出された、JPEG方式で符号化されている画像データを画像信号用バス30およびデータバス34を介して取得して、JPEG方式で符号化されている画像データを復号する。JPEGエンジン22は、復号された画像データをメモリ14に一時的に記憶させる。
解像度変換エンジン23は、制御信号用バス31を介した制御用CPU29の制御の基に、メモリ14に一時的に記憶されている画像データを、画像信号用バス30を介してメモリ14から読み出して、画像の解像度を変換する処理を画像データに適用する。解像度変換エンジン23は、解像度が変換された画像の画像データを、画像信号用バス30を介してメモリ14に供給し、メモリ14に一時的に記憶させる。
人物領域検出エンジン24は、制御信号用バス31を介した制御用CPU29の制御の基に、メモリ14に一時的に記憶されている画像データを、画像信号用バス30を介してメモリ14から読み出して、読み出された画像データによる画像中で人物が写されている領域である人物領域を検出する処理を行う。
例えば、人物領域検出エンジン24は、読み出した画像から異なるスケール係数の画像を生成し、それらのスケール係数の異なる画像ごとに特徴点を抽出して、特徴点に対しフィルタ処理を施して特徴量を算出し、特徴量を用いた統計学習により、人物領域を検出するする方法により、人物領域を検出する処理を行う。なお、例えば、人物領域を検出する方法としては、このような方法に限られるものではなく、例えば、論文「Navneet Dalal and Bill Triggs,“Histograms of Oriented Gradients for Human Detection”,CVPR,2005」で紹介された方法など、他の方法を採用してもよい。
人物姿勢認識エンジン25は、人物領域を検出する処理を行った結果、画像中の人物領域を指定する人物領域データを取得し、画像信号用バス30または制御信号用バス31を介して、人物姿勢認識エンジン25に人物領域データを供給する。
人物姿勢認識エンジン25は、制御用CPU29の制御の基に、メモリ14に一時的に記憶されている画像データを、画像信号用バス30を介してメモリ14から読み出して、人物姿勢認識エンジン25からの人物領域データにより指定される領域内おいて人物姿勢を認識する処理を行う。
人物姿勢を認識する処理では、図7を参照して後述するように、画像に写されている人物の姿勢が、例えば、10個のパーツで表現される。人物姿勢認識エンジン25は、人物姿勢を認識する処理を行った結果、人物姿勢を表現する各パーツの位置からなる人物姿勢データを取得し、画像信号用バス30または制御信号用バス31を介してマッチングエンジン26に供給する。
マッチングエンジン26は、制御用CPU29の制御の基に、メモリ14に格納されている演出データベースを参照して、人物姿勢認識エンジン25からの人物姿勢データにより表現される姿勢に適した演出加工データを決定する。メモリ14には、例えば、様々な特定の姿勢を表現する特定姿勢データと、各特定姿勢データに適した演出加工データとが対応付けられた演出データベースが格納されている。
マッチングエンジン26は、メモリ14の演出データベースに登録されている全ての特定姿勢データにより表現される姿勢と、人物姿勢認識エンジン25により認識された姿勢とのマッチングを行い、マッチングスコア(後述する式(10)の距離D)を算出する。そして、マッチングエンジン26は、最も高い値のマッチングスコアが得られた特定姿勢データに対応付けられている演出加工データを、画像中の人物の姿勢に適した演出加工データとして決定する。
画像加工エンジン27は、制御用CPU29の制御の基に、メモリ14に一時的に記憶されている画像データを、画像信号用バス30を介してメモリ14から読み出して、マッチングエンジン26により決定された演出加工データを用いて画像を加工する処理を行う。例えば、画像加工エンジン27は、図9乃至11を参照して後述するように、加工画像を重畳したり、フィルタを施す加工を行う。
画像表示用エンジン28は、制御信号用バス31を介した制御用CPU29の制御の基に、メモリ14に一時的に記憶されている画像データを、画像信号用バス30を介してメモリ14から読み出して、読み出された画像データに応じた画像を表示部15に表示させる。また、画像表示用エンジン28は、制御用CPU29の制御に応じて、GUI(Graphical User Interface)の画像を表示部15に表示させる。
制御用CPU29は、組み込み型のCPUから構成されるか、またはシステムICに内蔵されているCPUとして構成される。制御用CPU29は、内蔵されているROMまたはRAMに記憶されているプログラムを実行して、入力インタフェース33およびデータバス34を介して供給される使用者の操作に応じた入力部16からの信号に応じて、制御信号用バス31を介して制御信号を取得し供給することで、カメラ信号処理エンジン21、JPEGエンジン22、解像度変換エンジン23、人物領域検出エンジン24、人物姿勢認識エンジン25、マッチングエンジン26、画像加工エンジン27、画像表示用エンジン28、外部メディアコントローラ32、および入力インタフェース33を制御する。
外部メディアコントローラ32は、画像データを含む各種のデータの、装着された記録メディア17への記憶(記録)を制御すると共に、装着された記録メディア17に記憶(記録)されている各種のデータの読み出しを制御する。なお、記録メディア17が磁気ディスクまたは光ディスクなどである場合、図示せぬドライブが設けられ、外部メディアコントローラ32は、そのドライブによる記録メディア17へのデータの記録または読み出しを制御する。
入力インタフェース33は、入力部16からの信号を入力して、入力した信号を整形し、所定の方式にするなどして、入力部16からの信号を、データバス34を介して制御用CPU29に供給する。
このように構成される信号処理部13では、例えば、撮像部12により撮像されて記録メディア17に記憶された画像を処理の対象として、画像中の人物に演出を行う画像処理が行われる。
図4は、図1の信号処理部13が、画像中の人物に演出を行う画像処理を説明するフローチャートである。
例えば、ユーザが、人物が映されている画像を指定して画像処理を行うように、デジタルカメラ11の入力部16に対して操作を行うと処理が開始される。ステップS11において、制御用CPU29は、外部メディアコントローラ32を制御して、ユーザにより指定された画像の画像データを記録メディア17から読み出させ、その画像データを、画像信号用バス30を介してメモリ14に記憶させる。
ステップS11の処理後、処理はステップS12に進み、人物領域検出エンジン24は、ステップS11でメモリ14に記憶された画像データに対応する画像(以下、適宜、入力画像と称する)に対して人物領域を検出する処理を行い、入力画像中で人物が写されている領域である人物領域を検出する。そして、人物領域検出エンジン24は、入力画像中の人物領域を指定する人物領域データを人物姿勢認識エンジン25に供給し、処理はステップS13に進む。
ステップS13において、人物姿勢認識エンジン25は、人物領域検出エンジン24からの人物領域データによって指定される人物領域に対して人物姿勢を認識する処理を行う。人物姿勢認識エンジン25は、人物姿勢を表現する各パーツの位置からなる人物姿勢データを取得し、マッチングエンジン26に供給して、処理はステップS14に進む。
ステップS14において、マッチングエンジン26は、メモリ14に格納されている演出データベースに登録されている特定姿勢データにより表現される姿勢と、人物姿勢認識エンジン25からの人物姿勢データにより表現される姿勢とのマッチングを行って、マッチングスコアを算出する。
ステップS15において、マッチングエンジン26は、ステップS14で算出したマッチングスコアに基づいて、ステップS13で検出された人物姿勢と合致する特定姿勢があるか否かを判定する。例えば、マッチングエンジン26は、所定の閾値以上のマッチングスコアが算出された場合、ステップS13において検出された人物姿勢と合致する特定姿勢があると判定し、処理はステップS16に進む。
ステップS16において、マッチングエンジン26は、所定の閾値以上のマッチングスコアが算出された特定姿勢のうちの、最も高い値のマッチングスコアが算出された特定姿勢に対応付けられている演出加工データを、入力画像中の人物の姿勢に適した演出加工データとして決定する。
ステップS17において、画像加工エンジン27は、ステップS16で決定された演出加工データに従って入力画像を加工し、加工した結果得られる画像(以下、適宜、出力画像と称する)に応じた画像データをメモリ14に記憶させる。
ステップS18において、画像表示用エンジン28は、メモリ14に記憶されている出力画像の画像データを読み出して、その画像データに応じた画像を表示部15に表示させ、処理は終了する。
一方、ステップS15において、マッチングエンジン26が、ステップS13で検出された人物姿勢と合致する特定姿勢がないと判定した場合、例えば、ステップS14で算出された全てのマッチングスコアが所定の閾値未満であった場合、処理はステップS19に進む。
ステップS19において、制御用CPU29は、画像表示用エンジン28を制御して、指定された画像中の人物の姿勢に適した演出を施すことができない旨のメッセージを表示部15に表示させ、処理は終了する。
以上のように、信号処理部13では、人物領域検出エンジン24により検出された人物領域における人物姿勢が人物姿勢認識エンジン25により認識され、マッチングエンジン26によりその人物姿勢に適合(一致、またはある程度で略一致)する演出加工データが決定され、その演出加工データに従って画像が加工される。従って、信号処理部13では、入力画像中の人物の位置および姿勢に適した、より自然な演出を行う画像処理を自動的に施すことができる。
例えば、図5および図6に、信号処理部13により画像処理が施された演出例を示す。
例えば、図5に示すように、両手を挙げてガッツポーズをしている人物が写されている入力画像P21が画像処理の対象とされると、人物領域検出エンジン24は、入力画像P21に対して人物領域を検出する処理(図4のステップS12)を行う。その結果、人物領域検出エンジン24は、処理中画像P22に示されている点線で囲われた領域を人物領域として検出する。
そして、人物姿勢認識エンジン25は、この人物領域に対して人物姿勢を認識する処理(図4のステップS13)を行って、処理中画像P22に示すような太線で表現される形状を人物姿勢として認識する。
その後、マッチングエンジン26は、人物姿勢認識エンジン25により認識された人物姿勢に合致する特定姿勢を求め、その特定姿勢に対応付けられている演出加工データを決定する(図4のステップS16)。例えば、両手を挙げてガッツポーズをしている人物に適した演出加工データとして、人物を中心として広がる効果線と、立体的に飛び出す「ヤッター!!」という文字とを含む加工画像からなる演出加工データが決定される。そして、画像加工エンジン27が、入力画像P21に対して演出加工データに基づいた加工を施す(図4のステップS17)ことにより、出力画像P23が得られる。
また、図6に示すように、両手および両膝を地面に付いた姿勢の人物が写されている入力画像P31が画像処理の対象とされると、人物領域検出エンジン24は、入力画像P31に対して人物領域を検出する処理(図4のステップS12)を行う。その結果、人物領域検出エンジン24は、処理中画像P32に示されている点線で囲われた領域を人物領域として検出する。
そして、人物姿勢認識エンジン25は、この人物領域に対して人物姿勢を認識する処理(図4のステップS13)を行って、処理中画像P32に示すような太線で表現される形状を人物姿勢として認識する。
その後、マッチングエンジン26は、人物姿勢認識エンジン25により認識された人物姿勢に合致する特定姿勢を求め、その特定姿勢に対応付けられている演出加工データを決定する(図4のステップS16)。例えば、両手および両膝を地面に付いた姿勢の人物に適した演出加工データとして、人物の上方からスポットライトを浴びせたような領域以外を暗くするフィルタと、斜めになった「がっかり」という文字の加工画像からなる演出加工データが決定される。そして、画像加工エンジン27が、入力画像P31に対して演出加工データに基づいた加工を施す(図4のステップS17)ことにより、出力画像P33が得られる。
次に、人物姿勢認識エンジン25による人物姿勢を検出する処理、および、マッチングエンジン26がマッチングを行う処理について説明する。
図7には、人物姿勢認識エンジン25が人物姿勢を検出する処理を行った結果得られる人物姿勢データに用いられる10個のパーツが示されている。
人物姿勢認識エンジン25は、図7に示すような10個のパーツParts1乃至Parts10により、画像中の人物の姿勢を検出する。パーツParts1は頭部に対応し、パーツParts2は体部に対応し、パーツParts3は右上腕部に対応し、パーツParts4は左上腕部に対応し、パーツParts5は右下腕部に対応し、パーツParts6は左下腕部に対応し、パーツParts7は右上脚部に対応し、パーツParts8は左上脚部に対応し、パーツParts9は右下脚部に対応し、パーツParts10は左下脚部に対応する。
人物姿勢認識エンジン25は、画像から検出したパーツPartsi(i=1,2,・・・,10)の両端の座標を、パーツPartsiの位置情報pi=(xi1,yi1,xi2,yi2)として求め、画像中の人物の姿勢を示す姿勢データL={p1,p2,・・・,p10}を取得する。また、例えば、人物姿勢認識エンジン25は、人物の上半身だけが画像に写されている場合には、上半身のパーツParts1乃至Parts6から求められる人物の上半身の姿勢を示す姿勢データL={p1,p2,・・・,p6}を取得する。
上述したように、メモリ14には、様々な特定の姿勢を表現する特定姿勢データと、各姿勢データに適した演出加工データとが対応付けられた演出データベースが格納されており、マッチングエンジン26は、それらの特定姿勢データごとに、画像から検出した姿勢データLとのマッチングを行う。即ち、メモリ14に登録されている特定姿勢データをLoとすると、マッチングエンジン26は、特定姿勢データLoと姿勢データLとについてパーツごとに位置の差を求める。
まず、マッチングエンジン26は、特定姿勢データLoと姿勢データLとの大きさを揃えるために、特定姿勢データLoのパーツPartsiの長さ|Loi|と、姿勢データLのパーツPartsiの長さ|Li|とを、次の式(1)および式(2)を演算して求める。
Figure 2011103561
・・・(1)
Figure 2011103561
・・・(2)
但し、xoi2は、特定姿勢データLoのパーツPartsiの下端のx座標であり、xoi1は、特定姿勢データLoのパーツPartsiの上端のx座標であり、yoi2は、特定姿勢データLoのパーツPartsiの下端のy座標であり、yoi1は、特定姿勢データLoのパーツPartsiの上端のy座標である。また、xi2は、姿勢データLのパーツPartsiの下端のx座標であり、xi1は、姿勢データLのパーツPartsiの上端のx座標であり、yi2は、姿勢データLのパーツPartsiの下端のy座標であり、yi1は、姿勢データLのパーツPartsiの上端のy座標である。
なお、例えば、特定姿勢データLoと姿勢データLとの大きさを揃える処理では、頭部(パーツParts1)の大きさや、体部(パーツParts2)の大きさに基づいて処理を行うことで、より確実なマッチング結果を得ることができる。
そして、マッチングエンジン26は、特定姿勢データLoと姿勢データLとの大きさを揃えるためのスケール係数sを、次の式(3)を演算して求める。
Figure 2011103561
・・・(3)
次に、マッチングエンジン26は、姿勢データLの全体的な傾きを特定姿勢データLoの全体的な傾きに揃えるために、特定姿勢データLoの任意のパーツPartsiに対する、姿勢データLの任意のパーツPartsiの傾きθiを、次の式(4)から求める。例えば、マッチングエンジン26は、特定姿勢データLoの体部(パーツParts2)に対して姿勢データLの体部の傾きを揃えることで、姿勢データLの全体的な傾きを特定姿勢データLoの全体的な傾きに揃えることができる。
Figure 2011103561
・・・(4)
但し、arg(poi)は、特定姿勢データLoのパーツPartsiの角度を表し、arg(pi)は、姿勢データLのパーツPartsiの角度を表しており、例えば、角度arg(pi)は、次の式(5)に基づいて、パーツPartsiの位置情報pi=(xi1,yi1,xi2,yi2)から求められる。
Figure 2011103561
・・・(5)
そして、次の式(6)に示す回転行列R(θi)を用いて、パーツPartsiの位置情報pi=(xi1,yi1,xi2,yi2)、傾きθi、およびスケール係数s(上述の式(3))から、次の式(7)により、特定姿勢データLoに傾きおよび大きさが揃えられた姿勢データL’を構成するパーツPartsiの位置情報p’i=(xi1’,yi1’,xi2’,yi2’)が求められる。
Figure 2011103561
・・・(6)
Figure 2011103561
・・・(7)
マッチングエンジン26は、このようにして求めたパーツPartsiの位置情報p’iから、特定姿勢データLoの傾きおよび大きさに合わされた姿勢データL’(L’={p1’,p2’,・・・,p10’})を算出する。
さらに、マッチングエンジン26は、特定姿勢データLoと姿勢データL’とのパーツごとに、次の式(8)または式(9)のいずれかを演算することで、パーツごとに位置の差Di(i=1,2,・・・,10)を求める。
Figure 2011103561
・・・(8)
Figure 2011103561
・・・(9)
そして、マッチングエンジン26は、式(8)または式(9)により求められた差Diの総数の和を求めることで、即ち、次の式(10)を演算することで、特定姿勢データLoと姿勢データLとの距離Dを算出する。
Figure 2011103561
・・・(10)
マッチングエンジン26は、このような距離Dを算出する処理を、メモリ14に登録されている全ての特定姿勢データを対象として行う。距離Dは、マッチングスコアであり、距離Dが小さい値となる特定姿勢データLoほど、画像中の人物の人物姿勢に似た姿勢となる。
なお、メモリ14に格納されている演出データベースでは、人物の姿勢に応じて特定姿勢データが分類され、例えば、縦向き姿勢の特定姿勢データと、横向き姿勢の特定姿勢データとが分類されている。従って、マッチングエンジン26は、人物姿勢認識エンジン25により認識された人物姿勢が縦向きであるか横向きであるかに応じて(例えば、パーツParts2の向きに応じて)、それぞれ対応する特定姿勢データとのマッチングを行う。
即ち、マッチングエンジン26は、人物姿勢認識エンジン25により認識された人物姿勢が縦向きであれば、メモリ14に格納されている演出データベースで縦向きの姿勢で分類されている特定姿勢データとのマッチングを行い、人物姿勢認識エンジン25により認識された人物姿勢が横向きであれば、メモリ14に格納されている演出データベースで横向きの姿勢で分類されている特定姿勢データとのマッチングを行う。このように人物の向きに応じて分類された特定姿勢データとのマッチングを行うことで、マッチングに要する時間を短縮することができる。
さらに、メモリ14に格納される演出データベースでは、縦向き姿勢と横向き姿勢とで特定姿勢データが分類されているだけでなく、姿勢の傾き度合いに応じてさらに細かく特定姿勢データが分類されていてもよい。この場合、マッチングエンジン26は、人物姿勢認識エンジン25により認識された人物姿勢の傾き度合いに応じて、メモリ14に格納されている演出データベースで、その傾き度合いに分類されている特定姿勢データとのマッチングを行うことができる。これにより、人物姿勢の複数の傾き度合いにそれぞれ適した特定姿勢データを、短時間で求めることができる。
このように、人物姿勢認識エンジン25が姿勢データL={p1,p2,・・・,p10}を求め、マッチングエンジン26が距離Dを求めることにより、画像中の人物の姿勢(腕や脚の位置など)に適合する特定姿勢データを決定することができる。
なお、例えば、人物姿勢を認識する方法としては、上述したような方法に限られるものではなく、例えば、論文「Deva Ramanan,“Learning to parse images of articulated bodies”,NIPS,2006」で紹介された方法など、他の方法を採用してもよい。この論文で紹介された方法では、人物の姿勢とともに背景と人物領域との差を、より詳細に得ることができる。
そして、画像加工エンジン27が、マッチングエンジン26により決定された特定姿勢データに対応付けられている演出加工データに基づいて画像を加工することにより、画像中の人物の姿勢に適した演出を施す画像処理を行うことができる。また、画像加工エンジン27は、画像中の人物の大きさおよび位置(例えば、人物領域検出エンジン24により検出された人物領域の大きさおよび位置)に従って、演出を施す大きさおよび位置を調整し、画像中の人物の大きさおよび位置に適した演出を施す画像処理が行われる。
次に、図8には、メモリ14に記憶される演出加工データの一例が示されている。
演出加工データは、パーツID(Identification)、アルファマスク、加工方法ID、および回転情報から構成される。
パーツIDは、演出加工データによる加工の対象となる人物のパーツを指定するデータであり、例えば、頭部、体部、左上腕部、右上腕部、左下腕部、右下腕部の6つの部分を指定する。画像加工エンジン27では、パーツIDにより指定されるパーツごとに、演出加工データに基づく加工が行われる。例えば、頭部の演出加工データではパーツIDが1に設定され、体部の演出加工データではパーツIDが2に設定され、左上腕部の演出加工データではパーツIDが3に設定され、右上腕部の演出加工データではパーツIDが4に設定され、左下腕部の演出加工データではパーツIDが5に設定され、右下腕部の演出加工データではパーツIDが6に設定される。
アルファマスクは、パーツIDにより指定されるパーツの位置に対する相対位置として、加工を施す領域を表現する加工度データである。例えば、アルファマスクの値が100である場合、出力画像におけるアルファマスクに対応する領域は、100%の割合で加工画像に置き換えられる。また、アルファマスクの値がαである場合、出力画像におけるアルファマスクに対応する領域は、出力画像の画素値=入力画像の画素値×(1.0−α/100)+加工画像の画素値×α/100の割合で、加工画像に置き換えられる。
加工方法IDは、加工画像を重畳する加工方法と、フィルタを施す加工方法とのいずれかを指定するデータである。加工画像を重畳する加工方法は、予め用意された加工画像を入力画像に重畳して出力画像を得る方法であり、フィルタを施す加工方法は、入力画像に対してフィルタをかけることにより出力画像を得る方法である。
回転情報は、入力画像に対する、アルファマスクで表現された加工領域の回転に関するデータである。例えば、入力画像に写されている人物の傾きに依存せず、常に入力画像の向きに合わせて加工をする演出加工データにおいては、回転しない旨を示すデータが回転情報に保持される。
また、加工画像を重畳する加工方法は、画像パターンおよび画像パラメタを有し、フィルタを施す加工方法は、フィルタ係数およびフィルタパラメタを有している。
画像パターンは、RGBαの4チャンネルで表される加工画像を保持する。例えば、加工方法IDが、加工画像を重畳する加工方法を指定している場合、画像パターンに保持されている加工画像が、アルファマスクに基づいて入力画像に重畳される。
画像パラメタは、加工画像を入力画像に重畳させる際の各種のパラメタを保持する。例えば、画像パラメタに保持されるパラメタには、入力画像に対して加工画像をどのように回転させるかを指定する情報が保持される。例えば、加工の対象となるパーツの向きに応じて加工するような加工画像に対しては、「回転しない」という情報が画像パラメタに保持される。また、例えば、火炎を表す加工画像に対しては、火炎は常に画像上方に立ち上がるように表示されることが望ましく、「画像上方を向く」という情報が画像パラメタに保持される。
また、画像パラメタには、加工画像をより効果的に入力画像に加工する場合に、その効果を指定する情報が保持される。例えば、火炎を表す加工画像に対しては、加工画像に対して揺らめくような処理を施して入力画像に加工することを指定する情報が画像パラメタに保持される。
フィルタ係数は、入力画像に施す空間フィルタの係数を保持する。例えば、加工方法IDが、フィルタを施す加工方法を指定している場合、フィルタ係数に保持されている係数のフィルタが、アルファマスクに基づいて入力画像に施される。
フィルタパラメタは、入力画像にフィルタを施す際の各種のパラメタを保持する。フィルタパラメタに保持されるパラメタとしては、平滑化フィルタによるモザイク処理において、モザイク処理の間隔(N画素おき)を指定する数値や、画像を暗くするフィルタにおいて、入力画像の明るさに対する割合(例えば、20%など)を指定する数値などがある。
図9乃至図11を参照して、演出加工データに基づく画像処理の工程について説明する。
図9には、両手を挙げてガッツポーズをしている人物が写された入力画像P41に対し、演出加工データに基づいて、右下腕パーツ(パーツID:6)に対する画像処理が行われる例が示されている。
図9の例における演出加工データには、アルファマスクαM11に示すように、太線で示されている右下腕パーツの近傍における斜線のハッチングで示されている領域に加工度100が指定され、他の領域に加工度0が指定されるデータが保持されている。また、演出加工データの加工方法IDでは、フィルタを施す加工方法が指定されている。フィルタ係数には、フィルタ係数f11に示すようなN×Nの平滑フィルタが保持されており、フィルタパラメタには、N画素おきに適用するという情報が保持されている。
このような演出加工データに基づく画像処理において、処理中画像P42に示すように、入力画像P41で認識された右下腕パーツに、アルファマスクαM11の右下腕パーツが重なるように、アルファマスクαM11の大きさ、向き、および位置が調整される。このように入力画像P41に重ねられたアルファマスクαM11の加工度100で指定された領域に対し、モザイク加工(N×Nの平滑化フィルタをN画素おきに施す加工)が施されて、その領域における入力画像P41のデータが、モザイク加工が施されたデータに置き換えられる。この結果、右下腕部にモザイク加工が施された出力画像P43が取得される。
次に、図10には、図9の例とは異なる演出加工データに基づいて、両手を挙げてガッツポーズをしている人物が写された入力画像P51に対し、右下腕パーツ(パーツID:6)に対する画像処理が行われる例が示されている。
図10の例における演出加工データには、アルファマスクαM12に示すように、太線で示されている右下腕パーツの先端部分において円形の斜線のハッチングで示されている領域に加工度100が指定され、他の領域に加工度0が指定されるデータが保持されている。また、演出加工データの加工方法IDでは、加工画像を重畳する加工方法が指定されている。画像パターンには、画像パターンPTN11に示すような火炎の加工画像が保持されており、画像パラメタには、画像上方を向くという情報が保持されている。
このような演出加工データに基づく画像処理において、処理中画像P52に示すように、入力画像P51で認識された右下腕パーツに、アルファマスクαM12の右下腕パーツが重なるように、アルファマスクαM12の大きさ、向き、および位置が調整される。このように入力画像P51に重ねられたアルファマスクαM12の加工度100で指定された領域において画像パターンPTN11が重畳される。このとき、画像パラメタに従って、画像パターンPTN11の上方が、入力画像P51の上方に一致するように、アルファマスクαM12の傾きに対して画像パターンPTN11が回転される。即ち、画像パターンPTN11の向きが、入力画像P51の向きと同じ向きになる。この結果、右下腕部の先端、即ち、右手の拳に火炎の加工画像を重畳した出力画像P53が取得される。
次に、図11には、両手および両膝を地面に付いた姿勢の人物が写された入力画像P61に対し、演出加工データに基づいて、体部パーツ(パーツID:2)に対する画像処理が行われる例が示されている。
図11の例における演出加工データには、アルファマスクαM13に示すように、太線で示されている体部パーツを中心とした台形の領域に加工度0が指定され、その台形の領域以外の斜線のハッチングで示されている領域に加工度70が指定されている。また、演出加工データの加工方法IDでは、フィルタを施す加工方法が指定されている。フィルタ係数には、フィルタ係数f12に示すような1×1の明るさを落とすフィルタが保持されており、フィルタパラメタには、画像上方を向くという情報が保持されている。
このような演出加工データに基づく画像処理において、処理中画像P62−1に示すように、入力画像P61で認識された体部パーツに、アルファマスクαM13の体部パーツが重なるように、アルファマスクαM13の大きさ、向き、および位置が調整される。さらに、フィルタパラメタ従って、アルファマスクαM13が回転されて、処理中画像P62−2に示すように、アルファマスクαM13の上方が入力画像P61の上方に一致する。即ち、アルファマスクαM13の向きが、入力画像P61の向きと同じ向きになる。
このように設置されたアルファマスクαM13の加工度70で指定された領域に対し、明るさを落とすフィルタ、即ち、上述したアルファマスクの値がαである場合の数式に従ってフィルタが施される。この結果、人物の身体全体を残して背景を暗くするフィルタが施された出力画像P63が取得される。
以上のように、画像加工エンジン27は、マッチングエンジン26により決定された演出加工データを用いて画像を加工する処理を行い、演出加工データに従った演出が施された出力画像を出力することができる。
なお、デジタルカメラ11では、複数の人物が写されている画像に対して、画像中の人物に適した演出を行う画像処理を行うことができる。この場合、複数の人物それぞれに対して演出が施されるようにしてもよいし、所定の条件に従って演出を施す人物を特定し、その人物に対して演出が施されるようにしてもよい。演出を施す人物を特定する条件としては、例えば、中央の人物(主役と思われる人物)や、大きく映っている人物(手前に居て被写体と思われる人物)などがある。
例えば、図12Aに示すように、3人の人物が並んで写っている画像において、それぞれの人物領域が検出されたとしても、人物領域検出エンジン24は、中央の人物に演出を施すという条件に従って、それらの人物領域のうちの中央の人物領域(図12Aにおいて太線で示されている人物領域)の人物領域データだけを人物姿勢認識エンジン25に供給する。これにより、中央の人物に対してのみ演出が施されるようにすることができる。
また、図12Bに示すように、手前の人物の後に複数の人物が写っている画像において、それぞれの人物領域が検出されたとしても、人物領域検出エンジン24は、大きく映っている人物に演出を施すという条件に従って、それらの人物領域のうちの最も大きな人物領域(図12Bにおいて太線で示されている人物領域)の人物領域データだけを人物姿勢認識エンジン25に供給する。これにより、大きく映っている人物に対してのみ演出が施されるようにすることができる。
また、デジタルカメラ11では、画像中の人物に適した複数の演出をユーザに提示して、それらの演出のうちの1つをユーザにより選択させることができる。
図13は、デジタルカメラ11の表示部15の表示例を示す図である。
例えば、ユーザは、処理の対象とする画像を表示部15に表示させた後、メニュー画面から、画像中の人物に適した演出を行う画像処理を行うように入力部16を操作する。このとき、例えば、マッチングスコアが閾値以上であった特定姿勢データが複数あれば、マッチングエンジン26は、それらの複数の特定姿勢データに対応付けられている演出加工データに基づいた加工を表すアイコン(GUI)を、画像表示用エンジン28を介して表示部15に表示させる。
例えば、マッチングスコアが閾値以上であった特定姿勢データが3つであった場合、図13に示すように、表示部15の右端に、3つの演出加工データに基づいた加工を表すアイコンが表示される。そして、ユーザが、入力部16の上下キーを操作して1つのアイコンを選択すると、そのアイコンに対応する演出加工データに基づいて演出が施された画像のプレビューが表示部15に表示される。その後、ユーザが入力部16の決定キーを操作すると、表示部15に表示されたプレビューの画像が記録メディア17(図3)に記録される。
なお、本発明は、デジタルカメラの他、例えば、ネットワークを介して接続された複数の装置により構成される画像処理システムに適用することができる。
図14は、本発明を適用した画像処理システムの一実施の形態の構成例を示すブロック図である。
図14に示すように、画像処理システムは、インタネットやローカルエリアネットワークなどのネットワーク51を介して、パーソナルコンピュータ52、アプリケーションサーバ53、およびデータサーバ54が接続されて構成される。
ユーザは、パーソナルコンピュータ52を操作し、画像処理の対象とする画像データを指定して、ネットワーク51を介してアプリケーションサーバ53に対して画像処理の実行を指示するコマンドを送信する。
アプリケーションサーバ53は、図3の人物領域検出エンジン24、人物姿勢認識エンジン25、マッチングエンジン26、および画像加工エンジン27の機能を備えており、パーソナルコンピュータ52からのコマンドに従って、指定された画像データに対する画像処理を行う。
データサーバ54は、メモリ14と同様に、演出データベースを格納しており、アプリケーションサーバ53は、データサーバ54に格納されている演出データベースを参照して画像処理を行うことができる。また、データサーバ54には、メモリ14よりも大量のデータが登録された演出データベースを格納することができ、より多くの特定姿勢データとのマッチングを行うことができる。
アプリケーションサーバ53により画像処理が施された画像データは、パーソナルコンピュータ52に送信されてユーザに提示される他、データサーバ54に送信されて、他のユーザに公開されるようにしてもよい。また、ユーザは、パーソナルコンピュータ52に記憶されている画像データの他、データサーバ54に蓄積されている画像データを指定してアプリケーションサーバ53に画像処理を実行させることができる。
なお、上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インタネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。また、プログラムは、1つのCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 デジタルカメラ, 12 撮像部, 13 信号処理部, 14 メモリ, 15 表示部, 16 入力部, 17 記録メディア, 21 カメラ信号処理エンジン, 22 JPEGエンジン, 23 解像度変換エンジン, 24 人物領域検出エンジン, 25 人物姿勢認識エンジン, 26 マッチングエンジン, 27 画像加工エンジン, 28 画像表示用エンジン, 29 制御用CPU, 30 画像信号用バス, 31 制御信号用バス, 32 外部メディアコントローラ, 33 入力インタフェース, 34 データバス, 51 ネットワーク, 52 パーソナルコンピュータ, 53 アプリケーションサーバ, 54 データサーバ

Claims (7)

  1. 人物の特定の姿勢を表現する特定姿勢データと、画像に施す加工を指定する演出加工データとが対応付けられて登録されているデータベースを記憶する記憶手段と、
    画像処理の対象とされる画像において人物が写されている領域である人物領域を検出する人物領域検出手段と、
    前記人物領域検出手段により検出された人物領域内の人物の姿勢を認識する人物姿勢認識手段と、
    前記記憶手段に記憶されているデータベースを参照して、前記人物姿勢認識手段により認識された姿勢に適合する前記特定姿勢データを求めるマッチング手段と、
    前記マッチング手段により求められた前記特定姿勢データに対応付けられている前記演出加工データに基づいて、前記画像に対する加工を施す加工手段と
    を備える画像処理システム。
  2. 前記人物領域検出手段は、画像処理の対象とされる画像に複数の人物が写されているとき、所定の条件に従って処理の対象となる人物を特定し、
    前記加工手段は、前記人物領域検出手段により特定された人物に対する加工を施す
    請求項1に記載の画像処理システム。
  3. 前記人物姿勢認識手段は、人物の姿勢を複数のパーツの前記画像における位置により表現し、
    前記マッチング手段は、前記人物姿勢認識手段により認識された人物のパーツごとの、前記特定姿勢データにおいて対応するパーツとの位置の差から求められるマッチングスコアにより、前記特定姿勢データを求める
    請求項1に記載の画像処理システム。
  4. 前記データベースでは、姿勢の傾き度合いに応じて人物の特定姿勢が分類されており、
    前記マッチング手段は、前記人物姿勢認識手段により認識された人物の姿勢の傾き度合いに応じて、それぞれ対応する分類の特定姿勢とのマッチングを行う
    請求項1に記載の画像処理システム。
  5. 人物の特定の姿勢を表現する特定姿勢データと、画像に施す加工を指定する演出加工データとが対応付けられて登録されているデータベースを記憶する記憶手段と、
    画像処理の対象とされる画像において人物が写されている領域である人物領域を検出する人物領域検出手段と、
    前記人物領域検出手段により検出された人物領域内の人物の姿勢を認識する人物姿勢認識手段と、
    前記記憶手段に記憶されているデータベースを参照して、前記人物姿勢認識手段により認識された姿勢に適合する前記特定姿勢データを求めるマッチング手段と、
    前記マッチング手段により求められた前記特定姿勢データに対応付けられている前記演出加工データに基づいて、前記画像に対する加工を施す加工手段と
    を備える画像処理装置。
  6. 画像処理の対象とされる画像において人物が写されている領域である人物領域を検出し、
    検出された前記人物領域内の人物の姿勢を認識し、
    人物の特定の姿勢を表現する特定姿勢データと、画像に施す加工を指定する演出加工データとが対応付けられて登録されているデータベースを記憶する記憶手段に記憶されているデータベースを参照して、認識された前記姿勢に適合する前記特定姿勢データを求め、
    求められた前記特定姿勢データに対応付けられている前記演出加工データに基づいて、前記画像に対する加工を施す
    ステップを含む画像処理方法。
  7. 画像処理の対象とされる画像において人物が写されている領域である人物領域を検出し、
    検出された前記人物領域内の人物の姿勢を認識し、
    人物の特定の姿勢を表現する特定姿勢データと、画像に施す加工を指定する演出加工データとが対応付けられて登録されているデータベースを記憶する記憶手段に記憶されているデータベースを参照して、認識された前記姿勢に適合する前記特定姿勢データを求め、
    求められた前記特定姿勢データに対応付けられている前記演出加工データに基づいて、前記画像に対する加工を施す
    ステップを含む画像処理処理をコンピュータに実行させるプログラム。
JP2009257666A 2009-11-11 2009-11-11 画像処理システム、画像処理装置、画像処理方法、およびプログラム Expired - Fee Related JP5553141B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009257666A JP5553141B2 (ja) 2009-11-11 2009-11-11 画像処理システム、画像処理装置、画像処理方法、およびプログラム
EP10188009A EP2339536B1 (en) 2009-11-11 2010-10-19 Image processing system, image processing apparatus, image processing method, and program
US12/938,559 US9020210B2 (en) 2009-11-11 2010-11-03 Image processing system, image processing apparatus, image processing method, and program
CN201010535669.2A CN102073974B (zh) 2009-11-11 2010-11-04 图像处理系统、图像处理设备以及图像处理方法
US14/669,510 US9547791B2 (en) 2009-11-11 2015-03-26 Image processing system, image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009257666A JP5553141B2 (ja) 2009-11-11 2009-11-11 画像処理システム、画像処理装置、画像処理方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2011103561A true JP2011103561A (ja) 2011-05-26
JP2011103561A5 JP2011103561A5 (ja) 2012-11-15
JP5553141B2 JP5553141B2 (ja) 2014-07-16

Family

ID=43501119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009257666A Expired - Fee Related JP5553141B2 (ja) 2009-11-11 2009-11-11 画像処理システム、画像処理装置、画像処理方法、およびプログラム

Country Status (4)

Country Link
US (2) US9020210B2 (ja)
EP (1) EP2339536B1 (ja)
JP (1) JP5553141B2 (ja)
CN (1) CN102073974B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013080135A (ja) * 2011-10-04 2013-05-02 Nagasakiken Koritsu Daigaku Hojin 画像表示装置
WO2013128822A1 (ja) * 2012-03-02 2013-09-06 日本電気株式会社 解析処理システム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5799586B2 (ja) * 2011-05-27 2015-10-28 富士通株式会社 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP5994233B2 (ja) 2011-11-08 2016-09-21 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
KR101874895B1 (ko) * 2012-01-12 2018-07-06 삼성전자 주식회사 증강 현실 제공 방법 및 이를 지원하는 단말기
US9218526B2 (en) 2012-05-24 2015-12-22 HJ Laboratories, LLC Apparatus and method to detect a paper document using one or more sensors
CN103049894A (zh) * 2012-09-14 2013-04-17 深圳市万兴软件有限公司 一种图像处理的方法及其装置
US10075630B2 (en) 2013-07-03 2018-09-11 HJ Laboratories, LLC Providing real-time, personal services by accessing components on a mobile device
US9269150B1 (en) 2013-11-22 2016-02-23 Google Inc. Using pose data and positioning information to locate online photos of a user
JP6571108B2 (ja) * 2014-01-05 2019-09-04 マノモーション アーベー モバイル機器用三次元ジェスチャのリアルタイム認識及び追跡システム
KR102443214B1 (ko) * 2016-01-08 2022-09-15 삼성전자 주식회사 영상처리장치 및 그 제어방법
CN106210545A (zh) * 2016-08-22 2016-12-07 北京金山安全软件有限公司 一种视频拍摄方法、装置及电子设备
CN108230283A (zh) * 2018-01-19 2018-06-29 维沃移动通信有限公司 一种贴图素材推荐方法和电子设备
CN110113523A (zh) * 2019-03-15 2019-08-09 深圳壹账通智能科技有限公司 智能拍照方法、装置、计算机设备及存储介质
US11803585B2 (en) * 2019-09-27 2023-10-31 Boe Technology Group Co., Ltd. Method and apparatus for searching for an image and related storage medium
US11867829B2 (en) * 2020-01-07 2024-01-09 Metawave Corporation Continuous visualization of beam steering vehicle radar scans
JP7491260B2 (ja) * 2021-04-26 2024-05-28 トヨタ自動車株式会社 人検出装置、人検出方法及び人検出用コンピュータプログラム
US11908083B2 (en) 2021-08-31 2024-02-20 Snap Inc. Deforming custom mesh based on body mesh
US11663792B2 (en) 2021-09-08 2023-05-30 Snap Inc. Body fitted accessory with physics simulation
US11798238B2 (en) 2021-09-14 2023-10-24 Snap Inc. Blending body mesh into external mesh
US11836866B2 (en) 2021-09-20 2023-12-05 Snap Inc. Deforming real-world object using an external mesh
US11790614B2 (en) 2021-10-11 2023-10-17 Snap Inc. Inferring intent from pose and speech input
US11836862B2 (en) 2021-10-11 2023-12-05 Snap Inc. External mesh with vertex attributes
US11763481B2 (en) * 2021-10-20 2023-09-19 Snap Inc. Mirror-based augmented reality experience

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302992A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2005136841A (ja) * 2003-10-31 2005-05-26 Casio Comput Co Ltd 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04245433A (ja) 1991-01-31 1992-09-02 Nec Corp エッチングプロセスのシミュレーション方法
US6031934A (en) * 1997-10-15 2000-02-29 Electric Planet, Inc. Computer vision system for subject characterization
US7092569B1 (en) * 1999-07-29 2006-08-15 Fuji Photo Film Co., Ltd. Method and device for extracting specified image subjects
JP3918632B2 (ja) * 2002-05-28 2007-05-23 カシオ計算機株式会社 画像配信サーバ、画像配信プログラム、及び画像配信方法
KR100710512B1 (ko) * 2002-05-28 2007-04-24 가시오게산키 가부시키가이샤 합성화상배신장치, 합성화상배신방법 및 기록매체
JP4245433B2 (ja) 2003-07-23 2009-03-25 パナソニック株式会社 動画作成装置および動画作成方法
JP4794938B2 (ja) * 2005-07-27 2011-10-19 富士フイルム株式会社 監視システム、監視装置、監視方法、及びプログラム
JP4304639B2 (ja) * 2007-01-16 2009-07-29 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
CN100485713C (zh) * 2007-03-29 2009-05-06 浙江大学 基于集成隐马尔可夫模型学习方法的人体运动数据的识别方法
US8311954B2 (en) * 2007-11-29 2012-11-13 Nec Laboratories America, Inc. Recovery of 3D human pose by jointly learning metrics and mixtures of experts
WO2009094661A1 (en) * 2008-01-24 2009-07-30 The Trustees Of Columbia University In The City Of New York Methods, systems, and media for swapping faces in images
JP2009257666A (ja) 2008-04-16 2009-11-05 Ngk Spark Plug Co Ltd グロープラグ及びグロープラグの製造方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302992A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2005136841A (ja) * 2003-10-31 2005-05-26 Casio Comput Co Ltd 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013080135A (ja) * 2011-10-04 2013-05-02 Nagasakiken Koritsu Daigaku Hojin 画像表示装置
WO2013128822A1 (ja) * 2012-03-02 2013-09-06 日本電気株式会社 解析処理システム
JPWO2013128822A1 (ja) * 2012-03-02 2015-07-30 日本電気株式会社 解析処理システム

Also Published As

Publication number Publication date
US20150199563A1 (en) 2015-07-16
US9547791B2 (en) 2017-01-17
JP5553141B2 (ja) 2014-07-16
CN102073974B (zh) 2016-04-20
CN102073974A (zh) 2011-05-25
EP2339536A2 (en) 2011-06-29
US20110110594A1 (en) 2011-05-12
EP2339536A3 (en) 2011-08-17
EP2339536B1 (en) 2012-12-26
US9020210B2 (en) 2015-04-28

Similar Documents

Publication Publication Date Title
JP5553141B2 (ja) 画像処理システム、画像処理装置、画像処理方法、およびプログラム
JP4799105B2 (ja) 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
CN109076159B (zh) 电子设备及其操作方法
JP4799104B2 (ja) 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
WO2021078001A1 (zh) 一种图像增强方法及装置
US20050220346A1 (en) Red eye detection device, red eye detection method, and recording medium with red eye detection program
US20130242127A1 (en) Image creating device and image creating method
JP2004062565A (ja) 画像処理装置及び方法並びにプログラム記憶媒体
JP4910975B2 (ja) 情報処理装置、指示システム及び制御プログラム
WO2004015987A1 (ja) 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体
CN105427369A (zh) 移动终端及其三维形象的生成方法
CN109981989B (zh) 渲染图像的方法、装置、电子设备和计算机可读存储介质
WO2022057384A1 (zh) 拍摄方法和装置
CN113627328A (zh) 电子设备及其图像识别方法、片上系统和介质
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
CN115908120B (zh) 图像处理方法和电子设备
JP2018125658A (ja) カメラ機能を有する携帯可能な情報処理装置、その表示制御方法、及びプログラム
US9600735B2 (en) Image processing device, image processing method, program recording medium
JP4809869B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2014174855A (ja) 画像処理装置、画像処理方法及びプログラム
JP6668646B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11871104B2 (en) Recommendations for image capture
CN116740777B (zh) 人脸质量检测模型的训练方法及其相关设备
JP2008199550A (ja) 画像処理装置および画像処理方法
JP2006190106A (ja) パターン検出プログラムおよびパターン検出装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121001

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140501

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140514

R151 Written notification of patent or utility model registration

Ref document number: 5553141

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees