JP2016173791A - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2016173791A JP2016173791A JP2015054400A JP2015054400A JP2016173791A JP 2016173791 A JP2016173791 A JP 2016173791A JP 2015054400 A JP2015054400 A JP 2015054400A JP 2015054400 A JP2015054400 A JP 2015054400A JP 2016173791 A JP2016173791 A JP 2016173791A
- Authority
- JP
- Japan
- Prior art keywords
- mouth
- image
- area
- unit
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000012545 processing Methods 0.000 claims abstract description 54
- 238000000034 method Methods 0.000 claims abstract description 36
- 230000002093 peripheral effect Effects 0.000 claims description 29
- 238000001514 detection method Methods 0.000 claims description 28
- 238000003708 edge detection Methods 0.000 claims description 14
- 238000012937 correction Methods 0.000 claims description 12
- 238000002834 transmittance Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 210000000214 mouth Anatomy 0.000 description 140
- 230000004044 response Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00249—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G06T3/10—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00204—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
- H04N1/00209—Transmitting or receiving image data, e.g. facsimile data, via a computer, e.g. using e-mail, a computer network, the internet, I-fax
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
Abstract
【課題】口元が不自然に描画されることのない画像を提供する。
【解決手段】画像処理装置において実行される動画データ生成処理は、記憶部に記憶された人物の撮影画像から口を認識しS3、認識した口が開いているか否かを判定するS5。口が開いていると判定した場合S10、制御部は、口内部を検出しS11、検出した口内部の画像情報を修正するS12。
【選択図】図5
【解決手段】画像処理装置において実行される動画データ生成処理は、記憶部に記憶された人物の撮影画像から口を認識しS3、認識した口が開いているか否かを判定するS5。口が開いていると判定した場合S10、制御部は、口内部を検出しS11、検出した口内部の画像情報を修正するS12。
【選択図】図5
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
従来、人物の口が半開きとなっていない画像を動画コンテンツの代表画像に決定する技術が知られている(例えば、特許文献1参照)。
ところで、図10(a)に示すように、人物の口が半開きになっている1枚の撮影画像(静止画像)から口パーツを検出すると、図10(b)に点線で示すように歯を含んだ状態で口パーツが検出される。口を音声に合わせて開閉させる顔変形処理では、この歯を含んだ状態の口パーツを口が閉じた状態とみなし、口開け時に開口した部分に歯を挿入する処理を行うため、図10(c)に示すように、歯の中に歯が挿入された、口元が不自然な画像となってしまう。
本発明の課題は、口元が不自然に描画されることのない画像を提供できるようにすることである。
上記課題を解決するため、請求項1に記載の発明の画像処理装置は、
人物の画像から口を認識する認識手段と、
前記認識手段により認識された口の領域から口内部を検出する検出手段と、
前記検出手段により検出された口内部の画像情報を修正する修正手段と、
を備える。
人物の画像から口を認識する認識手段と、
前記認識手段により認識された口の領域から口内部を検出する検出手段と、
前記検出手段により検出された口内部の画像情報を修正する修正手段と、
を備える。
本発明によれば、口元が不自然に描画されることのない画像を提供することが可能となる。
以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。
[画像出力システム100の構成]
図1は、本発明の実施形態における画像出力システム100の全体構成を示す図である。画像出力システム100は、画像処理装置1とデジタルサイネージ装置2とがLAN(local Area Network)、WAN(Wide Area Network)、インターネット等の通信ネットワークNを介してデータ送受信可能に接続されて構成されている。
図1は、本発明の実施形態における画像出力システム100の全体構成を示す図である。画像出力システム100は、画像処理装置1とデジタルサイネージ装置2とがLAN(local Area Network)、WAN(Wide Area Network)、インターネット等の通信ネットワークNを介してデータ送受信可能に接続されて構成されている。
[画像処理装置1の構成]
図2は、画像処理装置1の主制御構成を示すブロック図である。画像処理装置1は、1枚の顔画像に基づいて動画データを生成し、その生成された動画データをデジタルサイネージ装置2に送信する装置であり、例えば、PC(Personal Computer)等が適用可能である。画像処理装置1は、図2に示すように、制御部11、記憶部12、操作部13、表示部14、通信部15等を備えて構成されている。
図2は、画像処理装置1の主制御構成を示すブロック図である。画像処理装置1は、1枚の顔画像に基づいて動画データを生成し、その生成された動画データをデジタルサイネージ装置2に送信する装置であり、例えば、PC(Personal Computer)等が適用可能である。画像処理装置1は、図2に示すように、制御部11、記憶部12、操作部13、表示部14、通信部15等を備えて構成されている。
制御部11は、記憶部12のプログラム記憶部121に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うCPU(Central Processing Unit)とプログラム実行時の作業領域となるメモリとを備えている(いずれも図示略)。制御部11は、記憶部12のプログラム記憶部121に記憶されているプログラムとの協働により、図5に示す動画データ生成処理を実行したり、生成した動画データをデジタルサイネージ装置2に送信したりする。制御部11は、認識手段、検出手段、修正手段、判定手段、生成手段、エッジ検出手段、算出手段、動画データ生成手段として機能する。
記憶部12は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部12には、図2に示すように、プログラム記憶部121が設けられている。プログラム記憶部121には、制御部11で実行されるシステムプログラム、後述する動画データ生成処理を始めとする各種処理を実行するための処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
また、記憶部12には、動画データの元画像となる撮影画像(静止画像。本実施形態においては、2次元の画像とする)及び動画データ用の音声データが記憶されている。なお、音声データは、音声を表わすテキストデータであってもよい。
操作部13は、カーソルキー、文字入力キー、テンキー及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された指示信号を制御部11に出力する。また、操作部13は、表示部14の表示画面にタッチパネルを備えても良く、この場合、タッチパネルを介して入力された指示信号を制御部11に出力する。
表示部14は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等のモニタにより構成され、制御部11から入力される表示信号の指示に従って、各種画面を表示する。
通信部15は、モデム、ルータ、ネットワークカード等により構成され、通信ネットワークNに接続された外部機器との通信を行う。
[デジタルサイネージ装置2の構成]
図3は、デジタルサイネージ装置2の主制御構成を示すブロック図である。デジタルサイネージ装置2は、画像処理装置1において生成された動画データに基づいて動画コンテンツを出力する装置である。
図3は、デジタルサイネージ装置2の主制御構成を示すブロック図である。デジタルサイネージ装置2は、画像処理装置1において生成された動画データに基づいて動画コンテンツを出力する装置である。
デジタルサイネージ装置2は、図3に示すように、映像光を照射する投影部21と、投影部21から照射された映像光を背面で受けて前面に投影するスクリーン部22とを備えている。
まず、投影部21について説明する。
投影部21は、制御部23と、プロジェクタ24と、記憶部25と、通信部26と、を備えている。プロジェクタ24、記憶部25、通信部26は、図3に示すように制御部23に接続されている。
投影部21は、制御部23と、プロジェクタ24と、記憶部25と、通信部26と、を備えている。プロジェクタ24、記憶部25、通信部26は、図3に示すように制御部23に接続されている。
制御部23は、記憶部25のプログラム記憶部251に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うCPUとプログラム実行時の作業領域となるメモリ(いずれも図示略)とを備えている。
プロジェクタ24は、制御部23から出力された画像データを映像光に変換してスクリーン部22に向けて照射する投影装置である。プロジェクタ24は、例えば、アレイ状に配列された複数個(XGAの場合、横1024画素×縦768画素)の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することでその反射光により光像を形成する表示素子であるDMD(デジタルマイクロミラーデバイス)を利用したDLP(Digital Light Processing)(登録商標)プロジェクタが適用可能である。
記憶部25は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部25には、図3に示すように、プログラム記憶部251が設けられている。プログラム記憶部251には、制御部23で実行されるシステムプログラムや、各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
また、記憶部25には、画像処理装置1から送信された動画データを記憶する動画データ記憶部252が設けられている。動画データは、複数のフレーム画像及び各フレーム画像に対応する音声データにより構成されている。
次に、スクリーン部22について説明する。
図4は、スクリーン部22の概略構成を示す正面図である。図4に示すようにスクリーン部22には、画像形成部27と、画像形成部27を支持する台座28とが備えられている。
図4は、スクリーン部22の概略構成を示す正面図である。図4に示すようにスクリーン部22には、画像形成部27と、画像形成部27を支持する台座28とが備えられている。
画像形成部27は、映像光の照射方向に対して略直交するように配置された、例えばアクリル板などの人型に成形された一枚の透光板29に、フィルム状のフレネルレンズが積層された背面投影用のフィルムスクリーンが貼付されて構成されたスクリーンである。この画像形成部27と前述したプロジェクタ24とにより出力手段を構成している。
台座28には、ボタン式の操作部32と、音声を出力するスピーカなどの音声出力部33が設けられている。
操作部32は、各種操作ボタンを備え、操作ボタンの押下信号を検出して制御部23に出力する。
操作部32、音声出力部33は、図3に示すように制御部23に接続されている。
操作部32、音声出力部33は、図3に示すように制御部23に接続されている。
[画像出力システム100の動作]
次に、画像出力システム100の動作について説明する。
上述のように、画像出力システム100は、画像処理装置1において1枚の撮影画像及び音声データに基づいて動画データを生成し、生成した動画データに基づいて、デジタルサイネージ装置2において動画コンテンツの出力を行う。
次に、画像出力システム100の動作について説明する。
上述のように、画像出力システム100は、画像処理装置1において1枚の撮影画像及び音声データに基づいて動画データを生成し、生成した動画データに基づいて、デジタルサイネージ装置2において動画コンテンツの出力を行う。
図5に、画像処理装置1において実行される動画データ生成処理のフローチャートを示す。動画データ生成処理は、操作部13により記憶部12に記憶された人物の撮影画像及び音声データの中から動画データ生成の元となる撮影画像及び音声データが選択され、動画データの生成が指示された際に、制御部11とプログラム記憶部121に記憶されているプログラムとの協働により実行される。なお、人物の撮影画像は、特に限定されないが、ここではRGB表色系の画像であることとして説明する。また、撮影画像の各画素の画像情報は、色情報とαチャンネル値(透過率情報)を含む。
まず、制御部11は、選択された撮影画像に顔認識処理を行う(ステップS1)。顔認識処理の手法は特に限定されないが、例えば、特開2012−53813号公報に記載のHaar−like特徴を用いた手法等、公知の画像処理技術を用いて行うことができる。
次いで、制御部11は、ステップS1で認識された顔の領域に顔パーツ認識処理を行い(ステップS2)、顔パーツ認識処理により認識された口パーツの領域を取得する(ステップS3)。顔パーツ認識処理は、例えば、Active Appearance Models(AAM)等の、公知の画像処理技術を用いて行うことができる。
次いで、制御部11は、口パーツ領域内の領域周辺部及び領域中央部のカラーマップを生成する(ステップS4)。
ステップS4においては、例えば、撮影画像の口パーツ領域内の領域周辺部及び領域中央部の色情報をそれぞれHSV表色系に変換し、HSV座標系にプロットする。領域周辺部は、例えば、口パーツ領域内を上中下の3つの領域に分割した場合(図6の点線参照)の上領域と下領域の所定範囲とすることができる。また、領域中央部は、口パーツ領域内を上中下の3つの領域に分割した場合の中央領域内の所定範囲とすることができる。
ステップS4においては、例えば、撮影画像の口パーツ領域内の領域周辺部及び領域中央部の色情報をそれぞれHSV表色系に変換し、HSV座標系にプロットする。領域周辺部は、例えば、口パーツ領域内を上中下の3つの領域に分割した場合(図6の点線参照)の上領域と下領域の所定範囲とすることができる。また、領域中央部は、口パーツ領域内を上中下の3つの領域に分割した場合の中央領域内の所定範囲とすることができる。
ここで、図7に、HSV座標系に口パーツ領域内の唇領域の各画素の色情報及び歯領域の各画素の色情報をプロットしたカラーマップを模式的に示す。図7に示すように、唇領域のカラーマップは、比較的明度(V)の高い領域(図7のドットパターンを付した領域)に分布する。一方、歯領域のカラーマップは、歯は白く、また唇の影が映る場合があるため、彩度(S)は低い領域に、明度(V)は幅広い領域に分布する。即ち、歯領域は、図7に一点鎖線で示す無彩色軸(円錐の軸)付近の円柱領域に分布する。
口が閉じていた場合、口パーツ領域の全体が唇領域となるため、領域周辺部及び領域中央部のカラーマップは、双方とも図7のドットパターンを付した領域のようになり、両者の差がほとんどないことになる。一方、口が開いている場合、領域周辺部のカラーマップは、図7のトッドパターンを付した領域のようになり、領域中央部は図7に一点鎖線で示す円柱領域となるため、両者の差は大きくなる。
なお、上記の例では、歯に映る唇の影の影響を表現しやすいHSV表色系を用いてカラーマップを生成する例について説明したが、他の表色系を用いることとしてもよい。
なお、上記の例では、歯に映る唇の影の影響を表現しやすいHSV表色系を用いてカラーマップを生成する例について説明したが、他の表色系を用いることとしてもよい。
次いで、制御部11は、生成したカラーマップに基づいて、口パーツ領域内の領域周辺部と領域中央部の色の差を算出し、算出した差が所定の閾値よりも大きいか否かを判断する(ステップS5)。例えば、領域周辺部の領域内の各画素の色情報の平均と領域中央部内の各画素の色情報の平均をそれぞれ求め、両者のHSV座標系における距離が予め定めた所定の閾値よりも大きいか否かを判断する。
口パーツ領域内の領域周辺部と領域中央部の色の差が所定の閾値以下である場合(ステップS5;NO)、即ち、口パーツ領域内の領域周辺部と領域中央部の色の差が口を開いているとみなすのに十分ではない場合、制御部23は、領域周辺部の縦エッジの検出と領域中央部の縦エッジの検出を行い、それぞれの縦エッジ応答量を算出する(ステップS6)。
例えば、撮影画像の領域周辺部(上領域、下領域)に縦線検出用のソーベルフィルタを用いて縦エッジ(縦方向に並んでいるエッジ)の検出を行い、例えば、得られた各画素の応答値の絶対値の平均値を領域周辺部の縦エッジの応答量として算出する。同様に、撮影画像の領域中央部に縦線検出用のソーベルフィルタを用いて縦エッジの検出を行い、得られた各画素の応答値の絶対値の平均値を領域中央部の縦エッジの応答量として算出する。
なお、図6においては、口パーツ領域を均等に3分割して領域周辺部の上下領域と領域中央部に割り当てた例を示しているが、これに限定されず、口パーツ領域の大きさ等に応じてそれぞれの領域の大きさを適宜調整して応答量を算出してもよい。また、例えば、表示部14に顔画像を表示して、ユーザによる操作部13の操作により領域周辺部と領域中心部の領域を決定してもよい。また、領域周辺部と領域中央部は、カラーマップを作成したときと異なってもよい。また、縦エッジの応答量の算出方法はソーベルフィルタを用いたものに限定されず、例えば、ハフ変換等他の手法を用いてもよい。
次いで、制御部11は、領域周辺部の縦エッジの応答量と領域中央部の縦エッジの応答量を比較し、領域中央部の縦エッジの応答量>領域周辺部の縦エッジの応答量であるか否を判断する(ステップS7)。
ここで、図6に示すように、口が開いている場合、領域中央部内には歯の間のはっきりした強い縦エッジが検出されるため、縦エッジの応答量は大きくなる。一方、領域周辺部は唇領域であり、シワ程度の弱い縦エッジしか見られないため、縦エッジの応答量は小さい。即ち、口が開いている場合、領域中央部の縦エッジの応答量>領域周辺部の縦エッジの応答量となる。一方、口が閉じている場合、領域中央部には歯が見られず唇となるため、領域中央部と領域周辺部の縦エッジの応答量にはほとんど差が見られない。
ステップS7において、領域中央部の縦エッジの応答量>領域周辺部の縦エッジの応答量ではないと判断した場合(ステップS7;NO)、制御部11は、口が閉じていると判定し(ステップS8)、口の開口量を0に決定し(ステップS9)、ステップS14に移行する。
一方、ステップS5において、口パーツ領域内の領域周辺部と領域中央部の色の差が所定の閾値より大きいと判定した場合(ステップS5;YES)、又は、ステップS7において、領域中央部の縦エッジの応答量>領域周辺部の縦エッジの応答量であると判断した場合(ステップS7;YES)、制御部11は、口が開いていると判定する(ステップS10)。そして、制御部11は、口パーツ領域における唇の内側境界(図8のL)を取得して、その内側の領域を口内部として検出する(ステップS11)。
例えば、ステップS5の判断において、領域周辺部と領域中央部の色の差が大きいと判断された場合、領域周辺部と領域中央部のカラーマップをプロットしたHSV色空間を最小二乗法等の公知の分離手法により分離することによりHSV色空間における領域周辺部と領域中央部の色の境界を取得し、取得した色の境界に基づいて、口パーツ領域における唇の内側境界(図8のL)を取得する。また、例えば、ステップS5において、領域周辺部と領域中央部の色の差が小さいと判断された場合は、口パーツ領域に横線検出用のソーベルフィルタを用いた横エッジ(横方向に並んでいるエッジ)の検出を行い、得られたエッジ画像のx座標ごとに、y方向の応答値プロファイルを作成し、応答値のピークに基づいて、口パーツ領域における唇の内側境界を取得する。
次いで、制御部11は、検出した口内部の領域の画像情報を修正する(ステップS12)。例えば、撮影画像の口内部領域の画像情報のαチャンネル値(透過率情報)を0に修正して、色が描画されないようにする。或いは、撮影画像の口内部領域の色情報を所定の値、例えば、0や最大値、又は唇の色に近い値に修正することとしてもよい。
そして、制御部11は、開口量を算出し(ステップS13)、ステップS14に移行する。ステップS13においては、例えば、図9に示すように、口内部領域の縦方向(上下方向)の最も長い距離Hを開口量として算出する。
ステップS14において、制御部11は、口が閉じていると判定された場合は元画像を、口が開いていると判定された場合は口内部が修正された撮影画像を初期画像として、初期画像と開口量とを初期口状態として登録する(ステップS14)。そして、登録された初期画像と登録された開口量とに基づいて、音声データに合わせて口を始めとする各パーツを開閉する顔変形処理を行って動画データを生成し(ステップS15)、動画データ生成処理を終了する。顔変形処理は、公知の画像処理技術を用いて行うことができる。
ここで、一般的には、顔変形処理において口を閉じる場合は初期画像に戻すが、本実施形態では、初期画像の口から更に開口量分だけ閉じる処理を行う。口を開ける場合は、口内部領域に歯や口腔内壁を描画する。この場合、元画像で口が開いていたとしても、初期画像では口内部領域内の歯や口腔内壁の情報は消えているので、歯の中に歯が挿入されたような不自然な動画データが作成されてしまうことを防止することができる。
動画データ生成処理が終了すると、制御部11は、生成した動画データを通信部15によりデジタルサイネージ装置2に送信する。
デジタルサイネージ装置2においては、通信部26により画像処理装置1から動画データを受信すると、制御部23は、受信した動画データを記憶部25の動画データ記憶部252に記憶させる。そして、動画コンテンツの再生時刻が到来すると、制御部23は、動画データ記憶部252から動画データを読み出し、その画像データをプロジェクタ24に送信して画像形成部27に動画コンテンツを表示させる。また、動画データの音声データを音声出力部33に出力し、音声を出力させる。
以上説明したように、画像処理装置1によれば、制御部11は、人物の撮影画像から口を認識し、認識した口の領域から口内部を検出し、検出した口内部の画像情報を修正する。
従って、例えば、口を音声に合わせて開閉させる顔変形処理を行った場合に、口元が不自然に描画されることのない画像を提供することが可能となる。
従って、例えば、口を音声に合わせて開閉させる顔変形処理を行った場合に、口元が不自然に描画されることのない画像を提供することが可能となる。
例えば、口内部領域内の各画素の透過率情報を口内部の色が描画されない値に修正することで、口を音声に合わせて開閉させる顔変形処理を行った場合に口元が不自然に描画されることのない画像を提供することが可能となる。或いは、口内部の画像情報に含まれる色情報を0や最大値、唇の色に近い値等の所定の値に修正することで、口を音声に合わせて開閉させる顔変形処理を行った場合に口元が不自然に描画されることのない画像を提供することが可能となる。
また、制御部11は、人物の撮影画像から認識された口が開いているか否かを判定し、口が開いていると判定された場合に口内部を検出して口内部の修正を行うので、元画像の口が半開きか否かをユーザがチェックすることなく、元画像に一律に処理を行うことができる。
撮影画像において人物の口が開いているか否かは、例えば、撮影画像から認識された口の領域の領域周辺部と領域中央部のカラーマップを生成し、生成した口の領域の領域周辺部と領域中央部のカラーマップに基づいて判定することができる。または、例えば、撮影画像から認識された口の領域から縦エッジの検出を行い、口の領域の領域周辺部と領域中央部の縦エッジ検出結果に基づいて判定することができる。
また、口内部の検出は、撮影画像から認識された口の領域の領域周辺部と領域中央部のカラーマップに基づいて検出することができる。又は、撮影画像から認識された口の領域のエッジ検出結果に基づいて、口内部を検出することができる。
また、制御部11は、口内部の画像情報が修正された撮影画像に顔変形処理を行い、人物の口を開閉させた動画データを生成することで、歯の中に歯が挿入されたような不自然さのない、自然な口元の動画データを提供することが可能となる。更に、口内部の開口量し、口内部の画像情報が修正された撮影画像に顔変形処理を行い、算出された開口量に基づいて、人物の口を開閉させた動画データを生成することで、口元がより自然な動画データを提供することが可能となる。
なお、上記実施形態における記述内容は、本発明に係る画像処理装置及びデジタルサイネージ装置の好適な一例であり、これに限定されるものではない。
例えば、上記実施形態においては、口パーツ領域から唇境界を取得し、唇境界の内部を口内部として検出することとしたが、画像処理により上唇と下唇を認識し、認識した上唇と下唇の間を口内部として検出することとしてもよい。
また、上記実施形態においては、口内部の画像情報を修正した画像を動画データ生成のための顔変形処理に用いる初期画像としたが、算出した開口量に基づいて口を閉じる変形を行って、口を閉じた画像を初期画像としてもよい。
また、上記実施形態においては、口パーツ領域のカラーマップに基づいて口が開いているか否かを判断できない場合に口パーツ領域の縦エッジに基づいて口が開いているか否かを判定することとしたが、縦エッジのみに基づいて口が開いているか否かを判定することとしてもよい。
その他、画像処理装置及びデジタルサイネージ装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
人物の画像から口を認識する認識手段と、
前記認識手段により認識された口の領域から口内部を検出する検出手段と、
前記検出手段により検出された口内部の画像情報を修正する修正手段と、
を備える画像処理装置。
<請求項2>
前記認識手段により認識された口が開いているか否かを判定する判定手段を備え、
前記検出手段は、前記判定手段により前記口が開いていると判定された場合に口内部を検出する請求項1に記載の画像処理装置。
<請求項3>
前記認識手段により認識された口の領域の領域周辺部と領域中央部のカラーマップを生成する生成手段を備え、
前記判定手段は、前記生成手段により生成された前記口の領域の領域周辺部と領域中央部のカラーマップに基づいて、前記認識手段により認識された口が開いているか否かを判定する請求項2に記載の画像処理装置。
<請求項4>
前記認識手段により認識された口の領域からエッジの検出を行うエッジ検出手段を備え、
前記判定手段は、前記エッジ検出手段による前記口の領域の領域周辺部と領域中央部のエッジ検出結果に基づいて、前記認識手段により認識された口が開いているか否かを判定する請求項2又は3に記載の画像処理装置。
<請求項5>
前記判定手段は、前記エッジ検出手段による前記口の領域の領域周辺部と領域中央部の縦エッジの検出結果に基づいて、前記認識手段により認識された口が開いているか否かを判定する請求項4に記載の画像処理装置。
<請求項6>
前記検出手段は、前記生成手段により生成されたカラーマップに基づいて、前記口内部を検出する請求項3に記載の画像処理装置。
<請求項7>
前記検出手段は、前記エッジ検出手段による前記口の領域のエッジ検出結果に基づいて、前記口内部を検出する請求項4又は5に記載の画像処理装置。
<請求項8>
前記画像情報は、透過率情報を含み、
前記修正手段は、前記口内部の画像情報に含まれる透過率情報を前記口内部の色が描画されない値に修正する請求項1〜7の何れか一項に記載の画像処理装置。
<請求項9>
前記画像情報は、色情報を含み、
前記修正手段は、前記口内部の画像情報に含まれる色情報を所定の値に修正する請求項1〜7の何れか一項に記載の画像処理装置。
<請求項10>
前記修正手段により前記口内部の画像情報が修正された画像に顔変形処理を行い、前記人物の口を開閉させた動画データを生成する動画データ生成手段を備える請求項1〜9の何れか一項に記載の画像処理装置。
<請求項11>
前記検出手段により検出された前記口内部の領域に基づいて、開口量を算出する算出手段を備え、
前記動画データ生成手段は、前記修正手段により前記口内部の画像情報が修正された画像に顔変形処理を行い、前記算出手段により算出された開口量に基づいて、前記人物の口を開閉させた動画データを生成する請求項10に記載の画像処理装置。
<請求項12>
人物の画像から口を認識する認識工程と、
前記認識工程において認識された口の領域から口内部を検出する検出工程と、
前記検出工程により検出された口内部の画像情報を修正する修正工程と、
を含む画像処理方法。
<請求項13>
コンピュータを、
人物の画像から口を認識する認識手段、
前記認識手段により認識された口の領域から口内部を検出する検出手段、
前記検出手段により検出された口内部の画像情報を修正する修正手段、
として機能させるためのプログラム。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
人物の画像から口を認識する認識手段と、
前記認識手段により認識された口の領域から口内部を検出する検出手段と、
前記検出手段により検出された口内部の画像情報を修正する修正手段と、
を備える画像処理装置。
<請求項2>
前記認識手段により認識された口が開いているか否かを判定する判定手段を備え、
前記検出手段は、前記判定手段により前記口が開いていると判定された場合に口内部を検出する請求項1に記載の画像処理装置。
<請求項3>
前記認識手段により認識された口の領域の領域周辺部と領域中央部のカラーマップを生成する生成手段を備え、
前記判定手段は、前記生成手段により生成された前記口の領域の領域周辺部と領域中央部のカラーマップに基づいて、前記認識手段により認識された口が開いているか否かを判定する請求項2に記載の画像処理装置。
<請求項4>
前記認識手段により認識された口の領域からエッジの検出を行うエッジ検出手段を備え、
前記判定手段は、前記エッジ検出手段による前記口の領域の領域周辺部と領域中央部のエッジ検出結果に基づいて、前記認識手段により認識された口が開いているか否かを判定する請求項2又は3に記載の画像処理装置。
<請求項5>
前記判定手段は、前記エッジ検出手段による前記口の領域の領域周辺部と領域中央部の縦エッジの検出結果に基づいて、前記認識手段により認識された口が開いているか否かを判定する請求項4に記載の画像処理装置。
<請求項6>
前記検出手段は、前記生成手段により生成されたカラーマップに基づいて、前記口内部を検出する請求項3に記載の画像処理装置。
<請求項7>
前記検出手段は、前記エッジ検出手段による前記口の領域のエッジ検出結果に基づいて、前記口内部を検出する請求項4又は5に記載の画像処理装置。
<請求項8>
前記画像情報は、透過率情報を含み、
前記修正手段は、前記口内部の画像情報に含まれる透過率情報を前記口内部の色が描画されない値に修正する請求項1〜7の何れか一項に記載の画像処理装置。
<請求項9>
前記画像情報は、色情報を含み、
前記修正手段は、前記口内部の画像情報に含まれる色情報を所定の値に修正する請求項1〜7の何れか一項に記載の画像処理装置。
<請求項10>
前記修正手段により前記口内部の画像情報が修正された画像に顔変形処理を行い、前記人物の口を開閉させた動画データを生成する動画データ生成手段を備える請求項1〜9の何れか一項に記載の画像処理装置。
<請求項11>
前記検出手段により検出された前記口内部の領域に基づいて、開口量を算出する算出手段を備え、
前記動画データ生成手段は、前記修正手段により前記口内部の画像情報が修正された画像に顔変形処理を行い、前記算出手段により算出された開口量に基づいて、前記人物の口を開閉させた動画データを生成する請求項10に記載の画像処理装置。
<請求項12>
人物の画像から口を認識する認識工程と、
前記認識工程において認識された口の領域から口内部を検出する検出工程と、
前記検出工程により検出された口内部の画像情報を修正する修正工程と、
を含む画像処理方法。
<請求項13>
コンピュータを、
人物の画像から口を認識する認識手段、
前記認識手段により認識された口の領域から口内部を検出する検出手段、
前記検出手段により検出された口内部の画像情報を修正する修正手段、
として機能させるためのプログラム。
100 画像出力システム
1 画像処理装置
11 制御部
12 記憶部
121 プログラム記憶部
13 操作部
14 表示部
15 通信部
2 デジタルサイネージ装置
21 投影部
22 スクリーン部
23 制御部
24 プロジェクタ
25 記憶部
251 プログラム記憶部
252 動画データ記憶部
26 通信部
27 画像形成部
28 台座
29 透光板
32 操作部
33 音声出力部
1 画像処理装置
11 制御部
12 記憶部
121 プログラム記憶部
13 操作部
14 表示部
15 通信部
2 デジタルサイネージ装置
21 投影部
22 スクリーン部
23 制御部
24 プロジェクタ
25 記憶部
251 プログラム記憶部
252 動画データ記憶部
26 通信部
27 画像形成部
28 台座
29 透光板
32 操作部
33 音声出力部
Claims (13)
- 人物の画像から口を認識する認識手段と、
前記認識手段により認識された口の領域から口内部を検出する検出手段と、
前記検出手段により検出された口内部の画像情報を修正する修正手段と、
を備える画像処理装置。 - 前記認識手段により認識された口が開いているか否かを判定する判定手段を備え、
前記検出手段は、前記判定手段により前記口が開いていると判定された場合に口内部を検出する請求項1に記載の画像処理装置。 - 前記認識手段により認識された口の領域の領域周辺部と領域中央部のカラーマップを生成する生成手段を備え、
前記判定手段は、前記生成手段により生成された前記口の領域の領域周辺部と領域中央部のカラーマップに基づいて、前記認識手段により認識された口が開いているか否かを判定する請求項2に記載の画像処理装置。 - 前記認識手段により認識された口の領域からエッジの検出を行うエッジ検出手段を備え、
前記判定手段は、前記エッジ検出手段による前記口の領域の領域周辺部と領域中央部のエッジ検出結果に基づいて、前記認識手段により認識された口が開いているか否かを判定する請求項2又は3に記載の画像処理装置。 - 前記判定手段は、前記エッジ検出手段による前記口の領域の領域周辺部と領域中央部の縦エッジの検出結果に基づいて、前記認識手段により認識された口が開いているか否かを判定する請求項4に記載の画像処理装置。
- 前記検出手段は、前記生成手段により生成されたカラーマップに基づいて、前記口内部を検出する請求項3に記載の画像処理装置。
- 前記検出手段は、前記エッジ検出手段による前記口の領域のエッジ検出結果に基づいて、前記口内部を検出する請求項4又は5に記載の画像処理装置。
- 前記画像情報は、透過率情報を含み、
前記修正手段は、前記口内部の画像情報に含まれる透過率情報を前記口内部の色が描画されない値に修正する請求項1〜7の何れか一項に記載の画像処理装置。 - 前記画像情報は、色情報を含み、
前記修正手段は、前記口内部の画像情報に含まれる色情報を所定の値に修正する請求項1〜7の何れか一項に記載の画像処理装置。 - 前記修正手段により前記口内部の画像情報が修正された画像に顔変形処理を行い、前記人物の口を開閉させた動画データを生成する動画データ生成手段を備える請求項1〜9の何れか一項に記載の画像処理装置。
- 前記検出手段により検出された前記口内部の領域に基づいて、開口量を算出する算出手段を備え、
前記動画データ生成手段は、前記修正手段により前記口内部の画像情報が修正された画像に顔変形処理を行い、前記算出手段により算出された開口量に基づいて、前記人物の口を開閉させた動画データを生成する請求項10に記載の画像処理装置。 - 人物の画像から口を認識する認識工程と、
前記認識工程において認識された口の領域から口内部を検出する検出工程と、
前記検出工程により検出された口内部の画像情報を修正する修正工程と、
を含む画像処理方法。 - コンピュータを、
人物の画像から口を認識する認識手段、
前記認識手段により認識された口の領域から口内部を検出する検出手段、
前記検出手段により検出された口内部の画像情報を修正する修正手段、
として機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015054400A JP2016173791A (ja) | 2015-03-18 | 2015-03-18 | 画像処理装置、画像処理方法、及びプログラム |
US15/014,910 US20160275338A1 (en) | 2015-03-18 | 2016-02-03 | Image processing apparatus, image processing method, and computer-readable storing medium |
CN201610153448.6A CN105991885A (zh) | 2015-03-18 | 2016-03-17 | 图像处理装置和图像处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015054400A JP2016173791A (ja) | 2015-03-18 | 2015-03-18 | 画像処理装置、画像処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016173791A true JP2016173791A (ja) | 2016-09-29 |
Family
ID=56925158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015054400A Pending JP2016173791A (ja) | 2015-03-18 | 2015-03-18 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20160275338A1 (ja) |
JP (1) | JP2016173791A (ja) |
CN (1) | CN105991885A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7421869B2 (ja) | 2019-04-26 | 2024-01-25 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理装置、情報処理方法及び学習済モデル生成方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6432130B2 (ja) * | 2013-11-29 | 2018-12-05 | カシオ計算機株式会社 | 表示システム、表示装置、撮影装置、表示方法及びプログラム |
JP6720882B2 (ja) * | 2017-01-19 | 2020-07-08 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN107451548B (zh) * | 2017-07-19 | 2020-02-21 | 维沃移动通信有限公司 | 一种图像处理方法、移动终端及计算机可读存储介质 |
CN108564641B (zh) * | 2018-03-16 | 2020-09-25 | 中国科学院自动化研究所 | 基于ue引擎的表情捕捉方法及装置 |
CN109784304B (zh) * | 2019-01-29 | 2021-07-06 | 北京字节跳动网络技术有限公司 | 用于标注牙齿图像的方法和装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8860731B1 (en) * | 2009-12-21 | 2014-10-14 | Lucasfilm Entertainment Company Ltd. | Refining animation |
JP2012004722A (ja) * | 2010-06-15 | 2012-01-05 | Panasonic Corp | コンテンツ再生装置、コンテンツ再生方法、およびコンテンツ再生プログラム |
CN102682273A (zh) * | 2011-03-18 | 2012-09-19 | 夏普株式会社 | 嘴唇运动检测设备和方法 |
JP5273208B2 (ja) * | 2011-06-07 | 2013-08-28 | オムロン株式会社 | 画像処理装置、画像処理方法、および制御プログラム |
US9256950B1 (en) * | 2014-03-06 | 2016-02-09 | Google Inc. | Detecting and modifying facial features of persons in images |
-
2015
- 2015-03-18 JP JP2015054400A patent/JP2016173791A/ja active Pending
-
2016
- 2016-02-03 US US15/014,910 patent/US20160275338A1/en not_active Abandoned
- 2016-03-17 CN CN201610153448.6A patent/CN105991885A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7421869B2 (ja) | 2019-04-26 | 2024-01-25 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理装置、情報処理方法及び学習済モデル生成方法 |
Also Published As
Publication number | Publication date |
---|---|
US20160275338A1 (en) | 2016-09-22 |
CN105991885A (zh) | 2016-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200288095A1 (en) | Gestural Control | |
JP2016173791A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US8644554B2 (en) | Method, device, and computer-readable medium for detecting object in display area | |
WO2022179108A1 (zh) | 投影校正方法、装置、存储介质和电子设备 | |
TWI498769B (zh) | 頭戴式顯示裝置及其登入方法 | |
JP2019008286A (ja) | 投影システム及び表示画像の補正方法 | |
US10379610B2 (en) | Information processing device and information processing method | |
RU2016107189A (ru) | Устройства, системы и способы виртуализации зеркала | |
KR20140010541A (ko) | 이미지 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말 | |
CN112272292B (zh) | 投影校正方法、装置和存储介质 | |
KR20090063679A (ko) | 포인팅 기능을 구비한 영상표시장치 및 그 방법 | |
JP6844159B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2009100084A (ja) | 情報処理装置、指示システム及び制御プログラム | |
JP5311499B2 (ja) | 画像処理装置およびそのプログラム | |
US10349022B2 (en) | Image processing apparatus, projector, image processing method, and storage medium storing image processing program | |
JP2014067090A (ja) | 検出装置、検出プログラムおよび検出方法 | |
JP2017212638A (ja) | 表示装置、表示装置の制御方法、及びプログラム | |
CN104714769B (zh) | 一种数据处理的方法及电子设备 | |
WO2013088657A1 (ja) | 投射型投影装置、光防眩方法、および光防眩用プログラム | |
TWI616100B (zh) | 曲面之投影校正控制方法及其擴增實境應用系統 | |
JP2014102713A (ja) | 顔構成部抽出装置、顔構成部抽出方法及びプログラム | |
JP2006268535A (ja) | ユーザインタフェイス制御装置および方法並びにプログラム | |
JP4340760B2 (ja) | ハンズフリーポインティングシステム | |
JP6347604B2 (ja) | 映像投影装置、映像投影方法及びプログラム | |
JP2013171490A (ja) | タッチ位置入力装置及びタッチ位置入力方法 |