JPWO2012070430A1 - 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム - Google Patents

感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム Download PDF

Info

Publication number
JPWO2012070430A1
JPWO2012070430A1 JP2012545689A JP2012545689A JPWO2012070430A1 JP WO2012070430 A1 JPWO2012070430 A1 JP WO2012070430A1 JP 2012545689 A JP2012545689 A JP 2012545689A JP 2012545689 A JP2012545689 A JP 2012545689A JP WO2012070430 A1 JPWO2012070430 A1 JP WO2012070430A1
Authority
JP
Japan
Prior art keywords
expression word
sensitivity
image
sentiment
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012545689A
Other languages
English (en)
Inventor
恭太 比嘉
恭太 比嘉
野村 俊之
俊之 野村
裕三 仙田
裕三 仙田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2012070430A1 publication Critical patent/JPWO2012070430A1/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression

Abstract

撮影時の場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせる。撮影された画像を分析し、撮影画像に表されている場の状況や物体の状態、当該場の時間的変化や物体の動作を示す感性情報を算出する感性情報算出部11と、感性表現語データベース21において感性情報に対応付けて記憶されている感性を表現する感性表現語から、感性情報算出部11によって算出された感性情報に対応する感性表現語を抽出する感性表現語抽出部12と、感性表現語抽出部12により抽出された感性表現語を、撮影画像に重畳する重畳部31と、を備える。

Description

本発明は、感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラムに関する。
離れた場所の雰囲気を相手に伝えたいことがある。このような場合、カメラ等で周囲の様子を撮影し、相手に見せることで撮影場所の雰囲気を伝えることができる。しかしながら、カメラ等で風景を撮影しただけでは、撮影場所の雰囲気を完全に伝えることができない。このような問題を解決する技術の一例として、特許文献1に記載の文字挿入装置がある。この文字挿入装置では、撮影時の発話内容や環境音などの聴覚的情報を文字に変換し、変換した文字を撮影画像に挿入することで、文字付き画像を生成している。
特開2003−18462号公報
人間は、撮影画像に表されている場の状況や物体の状態、当該場の時間的変化や物体の動作などの視覚的情報から、その場の雰囲気や物体に対する印象をイメージする。例えば、多数の人間が存在する雑踏の映像を見た場合には、その場が「ゴチャゴチャ」していると感じる。また、多数の人間が存在していても誰も動き回っていないオフィスの映像を見た場合には、その場が「シーン」としていると感じる。しかしながら、撮影画像の中には、その場の状況や物体の状態、その場の時間的変化や物体の動作などの視覚的情報を認識することが難しい場合もある。このような場合、視覚的情報を表現する文字を見ることができれば、その場の雰囲気や物体に対する印象を、より明確にイメージすることが可能となる。
特許文献1に記載の文字挿入装置は、聴覚的情報を変換した文字を画像に挿入しているため、視覚的情報から得られる場の雰囲気や物体の印象を表現することまではできない。
本発明は、上述した課題を解決するためになされたものであり、撮影時の場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせることができる感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラムを提供することを目的とする。
本発明の感性表現語処理装置は、撮影された画像を分析し、前記画像に表されている場の状況や物体の状態、当該場の時間的変化や物体の動作を示す感性情報を算出する感性情報算出部と、予め前記感性情報に対応付けて記憶されている感性を表現する感性表現語から、前記感性情報算出部によって算出された前記感性情報に対応する前記感性表現語を抽出する感性表現語抽出部と、前記感性表現語抽出部により抽出された前記感性表現語を、前記画像に重畳する重畳部と、を備える。
本発明の感性表現語処理方法は、撮影された画像を分析し、前記画像に表されている場の状況や物体の状態、当該場の時間的変化や物体の動作を示す感性情報を算出する感性情報算出ステップと、予め前記感性情報に対応付けて記憶されている感性を表現する感性表現語から、前記感性情報算出部によって算出された前記感性情報に対応する前記感性表現語を抽出する感性表現語抽出ステップと、前記感性表現語抽出ステップにおいて抽出された前記感性表現語を、前記画像に重畳する重畳ステップと、を含む。
本発明の感性表現語処理プログラムは、上記感性表現語処理方法に含まれる各ステップをコンピュータに実行させる。
本発明によれば、撮影時の場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせることができる。
第1実施形態における感性表現語処理装置の構成を例示するブロック図である。 顔の数テーブルのデータ構成を例示する図である。 顔の傾きテーブルのデータ構成を例示する図である。 笑顔の度合テーブルのデータ構成を例示する図である。 第1実施形態における感性表現語処理装置の動作を説明するためのフローチャートである。 第2実施形態における感性表現語処理装置の構成を例示するブロック図である。 指の数テーブルのデータ構成を例示する図である。 第2実施形態における感性表現語処理装置の動作を説明するためのフローチャートである。 第3実施形態における感性表現語処理装置の構成を例示するブロック図である。 方向符号化テーブルのデータ構成を例示する図である。 動体の数テーブルのデータ構成を例示する図である。 動体の移動量テーブルのデータ構成を例示する図である。 動体の遷移情報テーブルのデータ構成を例示する図である。 輝度変化テーブルのデータ構成を例示する図である。 第3実施形態における感性表現語処理装置の動作を説明するためのフローチャートである。 第4実施形態における感性表現語処理装置の構成を例示するブロック図である。 表示装置に表示される感性表現語重畳画像を例示する図である。 第5実施形態における感性表現語処理装置の構成を例示するブロック図である。 第6実施形態における感性表現語処理装置の構成を例示するブロック図である。 第7実施形態における感性表現語処理装置の構成を例示するブロック図である。 表示装置に表示される感性表現語重畳画像を例示する図である。 第8実施形態における感性表現語処理装置の構成を例示するブロック図である。
以下、添付図面を参照して、本発明に係る感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラムの好適な実施形態について説明する。
本発明に係る感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラムは、入力された撮影画像を分析して感性情報を算出し、この感性情報に基づいて、撮影画像に表されている場の状況や物体の状態、場の変化や物体の動作に対応する感性表現語を抽出して出力する。
上記撮影画像には、映像信号を構成する一枚のフレーム画像(以下、「静止画像」と記載する。)や、フレーム画像群(以下、「動画像」と記載する。)が含まれる。
上記感性情報は、撮影画像に表されている場の状況や物体の状態、その場の時間的変化や物体の動作を示す情報である。場の状況や物体の状態を示す情報としては、例えば、人間の顔の数や顔の傾き、笑顔の度合、伸ばした指の数が該当する。場の時間的変化や物体の動作を示す情報としては、例えば、動きの大きな領域(以下、「動体」と記載する。)の数や、動体の移動量、動体の遷移情報、照明の点灯/消灯による画像の輝度の変化(以下、「輝度変化」と記載する。)が該当する。
上記感性表現語は、撮影画像に表されている場の状況や物体の状態、場の時間的変化や物体の動作などの視覚的情報から、撮影画像を見た人がイメージする場の雰囲気や物体に対する印象(感性)を表現する語である。感性表現語の代表的なものとして、擬音語や擬態語がある。擬音語としては、例えば、その場の賑やかな雰囲気を表現する「ワイワイ」が該当する。擬態語としては、例えば、動体のゆるやかな動作を表現する「ノロノロ」が該当する。
[第1実施形態]
第1実施形態の感性表現語処理装置は、静止画像の信号が入力信号として入力され、静止画像内の人間の顔の数や顔の傾き、笑顔の度合を感性情報として算出し、この感性情報に対応する感性表現語を抽出して出力する際の実施例である。
最初に、図1を参照して、第1実施形態における感性表現語処理装置の構成について説明する。
感性表現語処理装置1は、物理的には、例えば、CPU(Central Processing Unit)と、記憶装置と、入出力インターフェースとを含んで構成される。記憶装置には、例えば、CPUで処理されるプログラムやデータを記憶するROM(Read Only Memory)やHDD(Hard Disk Drive)、主として制御処理のための各種作業領域として使用されるRAM(Random Access Memory)等の要素が含まれる。これらの要素は、互いにバスを介して接続されている。CPUが、ROMに記憶されたプログラムを実行し、入出力インターフェースを介して受信された信号や、RAMに展開されたデータを処理することで、後述する感性表現語処理装置1の各部の機能を実現することができる。
図1に示すように、第1実施形態における感性表現語処理装置は、機能的には、感性情報算出部11と感性表現語抽出部12とを有する。感性情報算出部11は、顔検出部111を含む。
顔検出部111は、入力された静止画像を分析して顔を検出し、顔の数や顔の傾き、笑顔の度合を算出することで、感性情報を算出する。顔の数や顔の傾きを算出する手法として、例えば、特開2007−233517号公報に記載されている技術を用いることができる。また、笑顔の度合を算出する手法として、例えば、特開2009−141516号公報に記載されている技術を用いることができる。
感性表現語抽出部12は、感性情報算出部11により算出された感性情報に対応する感性表現語を感性表現語データベース21から抽出し、抽出した感性表現語を出力する。感性表現語を出力するデータ形式として、例えば、テキストデータ、Exif(Exchangeable Image File Format)などの静止画像のメタデータ、動画検索用のタグ情報、感性表現語と予め関連付けられた音声・音響データを用いることができる。
感性表現語データベース21は、感性情報と感性表現語との対応関係を示す一つまたは複数のテーブルを有する。感性情報と感性表現語との対応関係は1対1であってもよいし、1対多や多対1、多対多であってもよい。一つの感性情報に対して複数の感性表現語を対応付けた場合には、感性表現語を選択する際に、ランダムに選択してもよいし、予め定められた順番に従って選択してもよいし、その他の基準に従って選択してもよい。
第1実施形態における感性表現語データベース21は、顔の数テーブル、顔の傾きテーブル、笑顔の度合テーブルを有する。
図2を参照して、顔の数テーブルのデータ構成について説明する。顔の数テーブルは、データ項目として、例えば、顔の数項目および感性表現語項目を有する。顔の数項目には、顔検出部111により検出される顔の数が格納される。感性表現語項目には、顔の数に対応する感性表現語が格納される。顔の数テーブルの感性表現語として、顔の数が多いほど場の盛り上がりを大きく表現する語を用いる。
図2に示す顔の数テーブルを用いると、顔の数が“0”である場合には感性表現語として“シーン”が抽出され、顔の数が“1”である場合には感性表現語として“ニコッ”が抽出され、顔の数が“2”以上である場合には感性表現語として“ワイワイ”が抽出される。
図3を参照して、顔の傾きテーブルのデータ構成について説明する。顔の傾きテーブルは、データ項目として、例えば、顔1の傾き項目、顔2の傾き項目および感性表現語項目を有する。顔1の傾き項目および顔2の傾き項目には、顔検出部111により検出される顔の傾きがそれぞれ格納される。顔の傾きは、正対している顔を“0”とし、正対した状態から時計回りの回転を正として“−90”度〜“90”度までの値を用いて表される。したがって、二つの並んだ顔が相互に近付く方向に傾いている場合には、顔1の傾きと顔2の傾きとが、正の値と負の値とになる。感性表現語項目には、顔1の傾きおよび顔2の傾きに対応する感性表現語が格納される。顔の傾きテーブルの感性表現語として、二つの並んだ顔の傾きが相互に近付く方向に大きくなるほど仲の良さを深く表現する語を用いる。
図3に示す顔の傾きテーブルを用いると、顔1の傾きが“0”〜“90”であり、かつ顔2の傾きが“−90”〜“0”である場合には感性表現語として“ラブラブ”または“イチャイチャ”が抽出され、顔1の傾きが“−90”〜“0”であり、かつ顔2の傾きが“0”〜“90”である場合には感性表現語として“ラブラブ”または“イチャイチャ”が抽出される。
図4を参照して、笑顔の度合テーブルのデータ構成について説明する。笑顔の度合テーブルは、データ項目として、例えば、笑顔の度合項目および感性表現語項目を有する。笑顔の度合項目には、顔検出部111により検出される笑顔の度合の範囲が格納される。笑顔の度合は、“0.0”〜“1.0”に正規化された値を用いて表される。感性表現語項目には、笑顔の度合に対応する感性表現語が格納される。笑顔の度合テーブルの感性表現語として、笑顔の度合が高くなるほど喜びや楽しみを大きく表現し、笑顔の度合が低くなるほど怒りや悲しみを大きく表現する語を用いる。
図4に示す笑顔の度合テーブルを用いると、笑顔の度合が“0.0”以上“0.1”未満である場合には感性表現語として“ハァ”または“フゥ”が抽出され、笑顔の度合が“0.1”以上“0.2”未満である場合には感性表現語として“フフッ”または“ムフッ”が抽出され、笑顔の度合が“0.9”以上“1.0”以下である場合には感性表現語として“ニコニコ”または“キラキラ”が抽出される。
なお、顔の数や、顔の傾き、笑顔の度合は、上述した値以外の値を用いて表現してもよい。また、感性情報として、顔の数、顔の傾き、笑顔の度合のいずれか一つを用いてもよいし、複数を組み合わせて用いてもよい。
次に、図5を参照して、第1実施形態における感性表現語処理装置の動作について説明する。この動作例では、感性情報として顔の数を用いた場合について説明する。
最初に、静止画像の信号が感性表現語処理装置1に入力されると、感性情報算出部11の顔検出部111は、静止画像に表されている顔を検出する(ステップS101)。
続いて、感性表現語抽出部12は、上記ステップS101で検出された顔の数が2つ以上であるか否かを判定する(ステップS102)。この判定がYESである場合(ステップS102;YES)に、感性表現語抽出部12は、図2に示す感性表現語データベース21の顔の数テーブルから、顔の数“2以上”に対応して記憶されている感性表現語“ワイワイ”を抽出して出力する(ステップS103)。そして、本動作を終了する。
一方、上記ステップS102の判定で顔の数が2つ以上ではないと判定された場合(ステップS102;NO)に、感性表現語抽出部12は、顔の数が1つであるか否かを判定する(ステップS104)。この判定がYESである場合(ステップS104;YES)に、感性表現語抽出部12は、顔の数テーブルから、顔の数“1”に対応して記憶されている感性表現語“ニコッ”を抽出して出力する(ステップS105)。そして、本動作を終了する。
一方、上記ステップS104の判定で顔の数が1ではないと判定された場合(ステップS104;NO)に、感性表現語抽出部12は、顔の数テーブルから、顔の数“0”に対応して記憶されている感性表現語“シーン”を抽出して出力する(ステップS106)。そして、本動作を終了する。
上述したように、第1実施形態における感性表現語処理装置1によれば、静止画像内の顔の数や、顔の傾き、笑顔の度合に応じた感性表現語を抽出して出力することができる。これにより、静止画像を撮影したときの場の状況や物体の状態を明確化して強調することができるため、その場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせることが可能となる。
[第2実施形態]
次に、第2実施形態における感性表現語処理装置について説明する。第2実施形態の感性表現語処理装置は、静止画像の信号が入力信号として入力され、静止画像内の伸ばした指の数を感性情報として算出し、この感性情報に対応する感性表現語を抽出して出力する際の実施例である。
最初に、図6を参照して、第2実施形態における感性表現語処理装置の構成について説明する。
図6に示すように、第2実施形態の感性表現語処理装置1は、感性情報算出部11と感性表現語抽出部12とを有し、この点では第1実施形態の感性表現語処理装置1(図1参照)と同様である。しかしながら、第2実施形態の感性表現語処理装置1は、感性情報算出部11が顔検出部112と指検出部113とを含む点で、第1実施形態の感性表現語処理装置1と相違する。以下においては、主に第1実施形態と相違する点について説明する。
顔検出部112は、第1実施形態の顔検出部111と同様に、静止画像に表されている顔を検出する。顔検出部112は、検出した顔領域の中心座標と顔領域の幅と顔領域の高さとを、顔情報として算出する。
指検出部113は、静止画像に表されている指(手)を検出し、伸ばした指の数を算出することで、感性情報を算出する。指検出部113は、伸ばした指の数を算出する際に、顔検出部112により算出された顔情報を用いて、手領域の候補を特定し、特定した手領域の中から伸ばした指の数を検出する。手領域の候補を特定する手法として、例えば、顔領域付近にある肌色領域の中で最も面積が大きい領域を手領域の候補として特定する手法を用いることができる。なお、手領域の候補を特定する手法として、特開2003−346162号公報に記載されている手法を用いてもよいし、他の手法を用いてもよい。
第2実施形態における感性表現語データベース21は、指の数テーブルを有する。図7を参照して、指の数テーブルのデータ構成について説明する。指の数テーブルは、データ項目として、例えば、指の数項目および感性表現語項目を有する。指の数項目には、指検出部113により検出される指の数が格納される。感性表現語項目には、指の数に対応する感性表現語が格納される。
図7に示す指の数テーブルを用いると、伸ばした指の数が“0”本である場合には感性表現語として握り拳を表す“グー”が抽出され、伸ばした指の数が“2”本である場合には感性表現語としてピースサインを表す“ピース”が抽出され、伸ばした指の数が“5”本である場合には感性表現語として拳が開いた状態を表す“パー”が抽出される。
次に、図8を参照して、第2実施形態における感性表現語処理装置の動作について説明する。
最初に、静止画像の信号が感性表現語処理装置1に入力されると、感性情報算出部11の顔検出部112は、静止画像に表されている顔を検出して顔情報を算出する(ステップS201)。
続いて、感性情報算出部11の指検出部113は、上記ステップS201で算出された顔情報を用いて、静止画像に表されている伸ばした指を検出する(ステップS202)。
続いて、感性表現語抽出部12は、上記ステップS202で検出された指の数が0本であるか否かを判定する(ステップS203)。この判定がYESである場合(ステップS203;YES)に、感性表現語抽出部12は、図7に示す感性表現語データベース21の指の数テーブルから、指の数“0”に対応して記憶されている感性表現語“グー”を抽出して出力する(ステップS204)。そして、本動作を終了する。
一方、上記ステップS203の判定で指の数が0ではないと判定された場合(ステップS203;NO)に、感性表現語抽出部12は、指の数が2本であるか否かを判定する(ステップS205)。この判定がYESである場合(ステップS205;YES)に、感性表現語抽出部12は、指の数テーブルから、指の数“2”に対応して記憶されている感性表現語“ピース”を抽出して出力する(ステップS206)。そして、本動作を終了する。
一方、上記ステップS205の判定で指の数が2本ではないと判定された場合(ステップS205;NO)に、感性表現語抽出部12は、指の数が5本であるか否かを判定する(ステップS207)。この判定がYESである場合(ステップS207;YES)に、感性表現語抽出部12は、指の数テーブルから、指の数“5”に対応して記憶されている感性表現語“パー”を抽出して出力する(ステップS208)。そして、本動作を終了する。
一方、上記ステップS207の判定で指の数が5本ではないと判定された場合(ステップS207;NO)には、感性表現語を抽出せずに、本動作を終了する。
上述したように、第2実施形態における感性表現語処理装置1によれば、静止画像内の伸ばした指の数に応じた感性表現語を抽出して出力することができる。これにより、撮影された人物の指によるジェスチャを明確化して強調することができる。つまり、静止画像を撮影したときの場の状況や物体の状態を明確化して強調することができるため、その場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせることが可能となる。
なお、上述した第2実施形態の感性表現語処理装置1では、感性情報として指の数を用いているが、これに限定されない。指の数に加え、第1実施形態の感性情報に含まれる人間の顔の数や、顔の傾き、笑顔の度合などを組み合わせて用いてもよい。
[第3実施形態]
次に、第3実施形態における感性表現語処理装置について説明する。第3実施形態の感性表現語処理装置は、動画像の信号が入力信号として入力され、動画像内の動体の数や、動体の移動量、動体の遷移情報、輝度変化を感性情報として算出し、この感性情報に対応する感性表現語を抽出して出力する際の実施例である。
最初に、図9を参照して、第3実施形態における感性表現語処理装置の構成について説明する。
図9に示すように、第3実施形態の感性表現語処理装置1は、感性情報算出部11と感性表現語抽出部12とを有し、この点では第1実施形態の感性表現語処理装置1(図1参照)と同様である。しかしながら、第3実施形態の感性表現語処理装置1は、感性情報算出部11が動体検出部114を含む点で、第1実施形態の感性表現語処理装置1と相違する。以下においては、主に第1実施形態と相違する点について説明する。
動体検出部114は、入力された動画像を分析して動体を検出し、動体の数や、動体の移動量、動体の遷移情報、輝度変化を算出することで、感性情報を算出する。
動体を検出する手法として、例えば、現在のフレーム画像と過去のフレーム画像(例えば、現在のフレーム画像の1フレーム前のフレーム画像)との間で同一座標の画素値の差を算出し、差が閾値よりも大きい画素の集合を動体として検出する手法を用いることができる。
動体の移動量は、例えば、現在のフレーム画像上の動体の重心位置と、現在のフレーム画像上の動体位置付近に相当する過去のフレーム画像上に表されている動体の重心位置との差分を算出することで求められる。
動体の遷移情報は、例えば、動体の動きベクトルの方向を判定して符号化し、符号化した値の時間変化を算出することで求められる。動体の動きベクトルの方向を符号化する場合には、例えば、図10に示す方向符号化テーブルを用いることができる。この場合、例えば、動体が水平軸に対して負の方向と正の方向への移動を交互に繰り返しているときには、遷移情報が“0101”と算出される。
輝度変化は、例えば、現在のフレーム画像の輝度値の平均と、過去のフレーム画像の輝度値の平均との差を算出することや、平均の差を符号化した値を算出することで求められる。例えば、平均の差を符号化した値“a”は、平均の差を“d”とし、閾値を“T”(>0)とした場合に、以下の式(1)〜式(3)により算出することができる。
|d|<Tの場合
a=0 … 式(1)
d≧Tの場合
a=1 … 式(2)
d≦−Tの場合
a=−1 … 式(3)
第3実施形態における感性表現語データベース21は、動体の数テーブルと、動体の移動量テーブルと、動体の遷移情報テーブルと、輝度変化テーブルとを有する。
図11を参照して、動体の数テーブルのデータ構成について説明する。動体の数テーブルは、データ項目として、例えば、動体の数項目および感性表現語項目を有する。動体の数項目には、動体検出部114により検出される動体の数が格納される。感性表現語項目には、動体の数に対応する感性表現語が格納される。動体の数テーブルの感性表現語として、動体の数が多くなるほど喧騒の程度を大きく表現する語を用いる。
図11に示す動体の数テーブルを用いると、動体の数が“0”である場合には感性表現語として静寂を表す“シーン”が抽出され、動体の数が“1”である場合には感性表現語として“ウロウロ”が抽出され、動体の数が“5”以上である場合には感性表現語として喧騒を表す“ゴチャゴチャ”が抽出される。
図12を参照して、動体の移動量テーブルのデータ構成について説明する。動体の移動量テーブルは、データ項目として、例えば、動体の移動量項目および感性表現語項目を有する。動体の移動量項目には、動体検出部114により算出される動体の移動量の範囲が格納される。動体の移動量は、“0.0”〜“1.0”に正規化した値を用いて表される。感性表現語項目には、動体の移動量に対応する感性表現語が格納される。動体の移動量テーブルの感性表現語として、動体の移動量が大きくなるほど移動の速さを速く表現する語を用いる。
図12に示す動体の移動量テーブルを用いると、動体の移動量が“0.0”以上“0.1”未満である場合には感性表現語として“ヨロヨロ”が抽出され、動体の移動量が“0.1”以上“0.2”未満である場合には感性表現語として“フラフラ”が抽出され、動体の移動量が“0.9”以上“1.0”以下である場合には感性表現語として“ダッシュ”が抽出される。
図13を参照して、動体の遷移情報テーブルのデータ構成について説明する。動体の遷移情報テーブルは、データ項目として、例えば、動体の遷移情報項目および感性表現語項目を有する。動体の遷移情報項目には、動体検出部114により算出される動体の遷移情報が格納される。感性表現語項目には、動体の遷移情報に対応する感性表現語が格納される。動体の遷移情報テーブルの感性表現語として、動体の遷移情報に基づいて認められる周期性に対応する繰り返しの動作を表現する語を用いる。
図13に示す動体の遷移情報テーブルを用いると、動体の遷移情報が“0101”または“1010”である場合には感性表現語として“ウロウロ”が抽出され、動体の遷移情報が“0000”または“1111”である場合には感性表現語として“スタスタ”が抽出され、動体の遷移情報が“2323”または“3232”である場合には感性表現語として“ピョンピョン”が抽出される。
図14を参照して、輝度変化テーブルのデータ構成について説明する。輝度変化テーブルは、データ項目として、例えば、輝度変化項目および感性表現語項目を有する。輝度変化項目には、動体検出部114により算出される輝度変化が格納される。図14に示す輝度変化は、上記式(1)〜式(3)を用いて算出される符号化値で表されている。感性表現語項目には、輝度変化に対応する感性表現語が格納される。輝度変化テーブルの感性表現語として、輝度がより高い値に変化するときには、照明が点灯するときの様子を表現する語を用い、輝度がより低い値に変化するときには、照明が消灯するときの様子を表現する語を用いる。
図14に示す輝度変化テーブルを用いると、輝度変化が“−1”である場合には感性表現語として消灯されたことを表す“ヒュン”が抽出され、輝度変化が“1”である場合には感性表現語として点灯されたことを表す“ピカッ”が抽出される。
なお、動体の数や、動体の移動量、動体の遷移情報、輝度変化は、上述した値以外の値を用いて表現してもよい。また、感性情報として、動体の数、動体の移動量、動体の遷移情報、輝度変化のいずれか一つを用いてもよいし、複数を組み合わせて用いてもよい。さらに、第3実施形態で用いる感性情報に加え、第1実施形態および第2実施形態で用いる感性情報のうちのいずれか一つまたは複数と組み合わせて用いてもよい。
次に、図15を参照して、第3実施形態における感性表現語処理装置の動作について説明する。この動作例では、感性情報として動体の遷移情報を用いた場合について説明する。
最初に、動画像の信号が感性表現語処理装置1に入力されると、感性情報算出部11の動体検出部114は、動画像に表されている動体を検出し、動体の遷移情報を算出する(ステップS301)。
続いて、感性表現語抽出部12は、上記ステップS301で算出された動体の遷移情報が“0101”または“1010”であるか否かを判定する(ステップS302)。この判定がYESである場合(ステップS302;YES)に、感性表現語抽出部12は、図13に示す感性表現語データベース21の動体の遷移情報テーブルから、動体の遷移情報“0101”および“1010”に対応して記憶されている感性表現語“ウロウロ”を抽出して出力する(ステップS303)。そして、本動作を終了する。
一方、上記ステップS302の判定で動体の遷移情報が“0101”または“1010”ではないと判定された場合(ステップS302;NO)に、感性表現語抽出部12は、動体の遷移情報が“0000”または“1111”であるか否かを判定する(ステップS304)。この判定がYESである場合(ステップS304;YES)に、感性表現語抽出部12は、動体の遷移情報テーブルから、動体の遷移情報“0000”および“1111”に対応して記憶されている感性表現語“スタスタ”を抽出して出力する(ステップS305)。そして、本動作を終了する。
一方、上記ステップS304の判定で動体の遷移情報が“0000”または“1111”ではないと判定された場合(ステップS304;NO)に、感性表現語抽出部12は、動体の遷移情報が“2323”または“3232”であるか否かを判定する(ステップS306)。この判定がYESである場合(ステップS306;YES)に、感性表現語抽出部12は、動体の遷移情報テーブルから、動体の遷移情報““2323”および“3232”に対応して記憶されている感性表現語“ピョンピョン”を抽出して出力する(ステップS307)。そして、本動作を終了する。
一方、上記ステップS306の判定で動体の遷移情報が“2323”または“3232”ではないと判定された場合(ステップS306;NO)には、感性表現語を抽出せずに、本動作を終了する。
上述したように、第3実施形態における感性表現語処理装置1によれば、動画像内の動体の数や、動体の移動量、動体の遷移情報、輝度変化に応じた感性表現語を抽出して出力することができる。これにより、動画像を撮影したときの場の時間的変化や物体の動作を明確化して強調することができるため、その場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせることが可能となる。さらに、感性表現語を見ることで、動画像を全て閲覧しなくても、撮影現場の時間的変化や動体の動作を把握することが可能となる。
[第4実施形態]
次に、第4実施形態における感性表現語処理装置について説明する。第4実施形態の感性表現語処理装置は、上述した第1実施形態における感性表現語処理装置1の感性表現語抽出部12から出力される感性表現語を、外部から入力された静止画像に重畳して表示装置5に表示させる際の実施例である。
図16を参照して、第4実施形態における感性表現語処理装置の構成について説明する。図16に示すように、第4実施形態の感性表現語処理装置1は、感性情報算出部11と感性表現語抽出部12とに加え、重畳部31をさらに有する点で第1実施形態の感性表現語処理装置1(図1参照)と相違する。以下においては、主に第1実施形態と相違する点について説明する。
重畳部31は、感性表現語重畳画像生成部311を含む。感性表現語重畳画像生成部311は、入力された静止画像と、感性表現語抽出部12により出力される感性表現語とを用いて、静止画像に感性表現語を重畳させた感性表現語重畳画像を生成する。感性表現語重畳画像生成部311は、静止画像の予め定められた位置に、予め定められたフォント情報に基づいて感性表現語を重畳して感性表現語重畳画像を生成する。フォント情報には、例えば、フォント(文字形状)、フォントサイズ(文字の大きさ)および文字色が含まれる。
重畳部31は、感性表現語重畳画像生成部311により生成された感性表現語重畳画像を表示装置5に表示させる。
図17に、表示装置5に表示される感性表現語重畳画像の一例を示す。図17に示す静止画像には、笑顔の度合に応じて抽出された感性表現語“ニコニコ”が重畳されている。
上述したように、第4実施形態における感性表現語処理装置1によれば、静止画像内の顔の数や、顔の傾き、笑顔の度合に応じた感性表現語を抽出し、この感性表現語を静止画像に重畳して表示させることができる。これにより、静止画像を撮影したときの場の状況や物体の状態を明確化して強調することができるため、その場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせることが可能となる。
なお、上述した第4実施形態では、第1実施形態の感性表現語抽出部12から出力される感性表現語を静止画像に重畳する場合について説明したが、第2実施形態の感性表現語抽出部12から出力される感性表現語を静止画像に重畳する場合や、第3実施形態の感性表現語抽出部12から出力される感性表現語を動画像に重畳する場合についても同様に適用することができる。
[第5実施形態]
次に、第5実施形態における感性表現語処理装置について説明する。第5実施形態の感性表現語処理装置は、上述した第4実施形態の内容に加え、感性表現語を重畳する際の重畳位置やフォント情報等を、顔検出部112によって算出される顔情報に基づいて決定する際の実施例である。
図18を参照して、第5実施形態における感性表現語処理装置の構成について説明する。図18に示すように、第5実施形態の感性表現語処理装置1は、重畳部31に重畳条件決定部312をさらに有し、顔検出部111の代わり第2実施形態の顔検出部112を有する点で第4実施形態の感性表現語処理装置1(図16参照)と相違する。以下においては、主に第4実施形態と相違する点について説明する。
重畳条件決定部312は、顔検出部112により算出された顔情報(顔領域の中心座標、顔領域の幅、顔領域の高さ)に応じて感性表現語の重畳位置を決定する。感性表現語を重畳する位置は、例えば、顔領域に重ならない位置や、顔領域付近の位置に決定することが好ましい。これにより、人間が注目しやすい顔領域に感性表現語が重なることを防止することができるため、画像の視認性を保持することが可能となる。また、人間が注目しやすい顔領域付近に感性表現語を重畳することで、その場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせることが可能となる。
重畳条件決定部312は、入力された静止画像を分析し、重畳する感性表現語のフォント、フォントサイズおよび文字色を含むフォント情報を決定する。具体的には、例えば、静止画像を分析し、撮影場所に応じてフォントを決定することができる。また、静止画像中の物体の領域の大きさを分析し、物体の領域が大きい場合にはフォントサイズを大きくし、物体の領域が小さい場合にはフォントサイズを小さくすることができる。さらに、感性表現語を重畳する領域内で出現頻度が最も高い色の補色を文字色にすることができる。これにより、画像の視認性を保持することが可能となる。
感性表現語重畳画像生成部311は、重畳条件決定部312によって決定された位置に、重畳条件決定部312によって決定されたフォント情報に基づいて感性表現語を重畳し、感性表現語重畳画像を生成する。
上述したように、第5実施形態における感性表現語処理装置1によれば、静止画像内の顔の数や、顔の傾き、笑顔の度合に応じた感性表現語を抽出し、この感性表現語を、顔領域に重ならない顔領域付近に重畳することが可能となる。これにより、静止画像を撮影したときの場の状況や物体の状態を、より明確化して強調することができるため、その場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせることが可能となる。
[第6実施形態]
次に、第6実施形態における感性表現語処理装置について説明する。第6実施形態の感性表現語処理装置は、上述した第5実施形態の内容に加え、感性表現語を重畳する際の重畳位置やフォント情報等を、顔検出部112によって算出される顔情報と指検出部113によって特定される手領域とに基づいて決定する際の実施例である。
図19を参照して、第6実施形態における感性表現語処理装置の構成について説明する。図19に示すように、第6実施形態の感性表現語処理装置1は、第2実施形態の指検出部113をさらに有する点で第5実施形態の感性表現語処理装置1(図18参照)と相違する。以下においては、主に第5実施形態と相違する点について説明する。
重畳条件決定部312は、顔検出部112により算出された顔情報および指検出部113によって特定された手領域に応じて、感性表現語の重畳位置を決定する。感性表現語を重畳する位置は、例えば、上述した第5実施形態で説明した顔領域に重ならない位置や、顔領域付近の位置の他に、手領域に重ならない位置や、手領域付近の位置に決定することが好ましい。
上述したように、第6実施形態における感性表現語処理装置1によれば、静止画像内の顔の数や、顔の傾き、笑顔の度合、伸ばした指の数に応じた感性表現語を抽出し、この感性表現語を、顔領域や手領域に重ならない顔領域付近または手領域付近に重畳することができる。これにより、静止画像を撮影したときの場の状況や物体の状態を、より明確化して強調することができるため、その場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせることが可能となる。
[第7実施形態]
次に、第7実施形態における感性表現語処理装置について説明する。第7実施形態の感性表現語処理装置は、上述した第6実施形態の内容に加え、外部から入力された静止画像をスケッチ風画像に変換し、変換後のスケッチ風画像に感性表現語を重畳して表示装置5に表示させる際の実施例である。
図20を参照して、第7実施形態における感性表現語処理装置の構成について説明する。図20に示すように、第7実施形態の感性表現語処理装置1は、画像変換部313をさらに有する点で第6実施形態の感性表現語処理装置1(図19参照)と相違する。以下においては、主に第6実施形態と相違する点について説明する。
画像変換部313は、入力された静止画像をスケッチ風画像に変換する。スケッチ風画像に変換する手法として、例えば、WO2006/106750号公報に記載されている技術を用いることができる。静止画像をスケッチ風画像に変換することで、静止画像から細かい陰影を省略し、色数を減少することができるため、エッジを強調することが可能となる。
感性表現語重畳画像生成部311は、画像変換部313によって変換されたスケッチ風画像に、感性表現語を重畳して感性表現語重畳画像を生成する。この際、感性表現語は、重畳条件決定部312によって決定された位置に、重畳条件決定部312によって決定されたフォント、フォントサイズおよび文字色を用いて重畳される。
図21に、表示装置5に表示される感性表現語重畳画像の一例を示す。図21に示す静止画像は、オフィス内で撮影された静止画像がスケッチ風画像に変換されたものであり、感性表現語“ポツーン。。。”が重畳されている。
上述したように、第7実施形態における感性表現語処理装置1によれば、入力された静止画像をスケッチ風画像に変換し、変換後のスケッチ風画像に感性表現語を重畳することができる。これにより、静止画像内の主要な陰影、色、エッジを際立たせることができるため、被写体を明確化して強調することができる。つまり、スケッチ風画像に感性表現語を重畳することで、静止画像を撮影したときの場の状況や物体の状態を、より明確化して強調することができるため、その場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせることが可能となる。
[第8実施形態]
次に、第8実施形態における感性表現語処理装置について説明する。第8実施形態の感性表現語処理装置は、上述した第3実施形態における感性表現語処理装置1の感性表現語抽出部12から出力される感性表現語を、外部から入力された動画像に重畳して表示装置5に表示させ、さらに、感性表現語を重畳する際の重畳位置やフォント情報等を、動体の動きなどを示す変動情報に基づいて決定する際の実施例である。
図22を参照して、第8実施形態における感性表現語処理装置の構成について説明する。図22に示すように、第8実施形態の感性表現語処理装置1は、感性情報算出部11と感性表現語抽出部12とに加え、重畳部31をさらに有する点で第3実施形態の感性表現語処理装置1(図9参照)と相違する。以下においては、主に第3実施形態と相違する点について説明する。
重畳部31は、重畳条件決定部312と感性表現語重畳画像生成部311とを含む。
重畳条件決定部312は、動体検出部114により検出される動体に基づいて変動情報を算出し、変動情報に応じて感性表現語を重畳する位置を決定する。変動情報としては、例えば、動体の動きを示す情報が該当する。具体的に、例えば、動画像に歩行者が映っている場合、その歩行者の動きを示す変動情報に合わせて重畳する位置を決定する。これにより、例えば歩行動作を表す感性表現語“スタスタ”を歩行者の動きに合わせて動画像に重畳することが可能となる。
なお、変動情報は、動体の動きを示す情報には限定されない。例えば、動画像を分析することで得られる色の変化、輝度の変化またはエッジの変化が少ない領域を示す情報を、変動情報として算出してもよい。この場合、例えば動画像に街頭が映っているときには、建物の壁や空の領域を検出し、この検出した領域に感性表現語を重畳することができる。
重畳条件決定部312は、入力された動画像を分析し、重畳する感性表現語のフォント、フォントサイズおよび文字色を含むフォント情報を決定する。具体的には、例えば、動画像を分析し、撮影場所に応じてフォントを決定することができる。また、動画像中の物体の領域の大きさを分析し、物体の領域が大きい場合にはフォントサイズを大きくし、物体の領域が小さい場合にはフォントサイズを小さくすることができる。さらに、感性表現語を重畳する領域内で出現頻度が最も高い色の補色を文字色にすることができる。これにより、画像の視認性を保持することが可能となる。
感性表現語重畳画像生成部311は、入力された動画像と、感性表現語抽出部12により出力される感性表現語とを用いて、動画像に感性表現語を重畳させた感性表現語重畳画像を生成する。感性表現語重畳画像生成部311は、重畳条件決定部312によって決定された位置に、重畳条件決定部312によって決定されたフォント情報に基づいて感性表現語を重畳し、感性表現語重畳画像を生成する。
重畳部31は、感性表現語重畳画像生成部311により生成された感性表現語重畳画像を表示装置5に表示させる。
上述したように、第8実施形態における感性表現語処理装置1によれば、動画像内の動体の数や、動体の移動量、動体の遷移情報、輝度変化に応じた感性表現語を抽出し、この感性表現語を、動画像内の動きや変化に合わせて重畳することができる。これにより、動画像を撮影したときの場の時間的変化や物体の動作を、より明確化して強調することができるため、その場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせることが可能となる。
なお、上述した各実施形態は、単なる例示に過ぎず、各実施形態に明示していない種々の変形や技術の適用を排除するものではない。すなわち、本発明は、その趣旨を逸脱しない範囲で様々な形態に変形して実施することができる。例えば、上述した各実施形態は、適宜組み合わせることができる。
上記の各実施形態の一部または全部は、以下の付記のようにも記載され得るが、本発明を以下に限定するものではない。
(付記1) 撮影された画像を分析し、前記画像に表されている場の状況や物体の状態、当該場の時間的変化や物体の動作を示す感性情報を算出する感性情報算出部と、予め前記感性情報に対応付けて記憶されている感性を表現する感性表現語から、前記感性情報算出部によって算出された前記感性情報に対応する前記感性表現語を抽出する感性表現語抽出部と、前記感性表現語抽出部により抽出された前記感性表現語を、前記画像に重畳する重畳部と、を備えることを特徴とする感性表現語処理装置。
(付記2) 前記感性情報算出部は、少なくとも顔の数、顔の傾き、笑顔の度合、指の数、動きの大きな領域である動体の数、前記動体の移動量、前記動体の遷移情報、または前記画像の輝度の変化のいずれかを含む前記感性情報を算出する、ことを特徴とする付記1記載の感性表現語処理装置。
(付記3) 前記重畳部は、前記画像に重畳する前記感性表現語を重畳する位置、文字の形状、文字の大きさまたは文字の色のうちの少なくともいずれかを決定する重畳条件決定部と、前記重畳条件決定部により決定された前記位置、前記形状、前記大きさまたは前記色を用いて前記感性表現語を前記画像に重畳して感性表現語重畳画像を生成する重畳画像生成部と、を有することを特徴とする付記1または2記載の感性表現語処理装置。
(付記4) 前記重畳条件決定部は、前記動体の動きを示す情報、前記画像における色の変化、輝度の変化またはエッジの変化が少ない領域を示す情報のうちの少なくともいずれかに基づいて、前記感性表現語を重畳する位置を決定する、ことを特徴とする付記3記載の感性表現語処理装置。
(付記5) 前記重畳条件決定部は、前記画像に含まれる顔の位置または手の位置のうちの少なくともいずれかに基づいて、前記感性表現語を重畳する位置を決定する、ことを特徴とする付記3または4記載の感性表現語処理装置。
(付記6) 前記重畳部は、前記画像をスケッチ風画像に変換する画像変換部を、さらに有し、前記重畳画像生成部は、前記画像変換部により変換された前記スケッチ風画像に、前記感性表現語を重畳する、ことを特徴とする付記3〜5のいずれかに記載の感性表現語処理装置。
(付記7) 前記感性表現語は、少なくとも擬音語または擬態語のいずれかである、ことを特徴とする付記1〜6のいずれか1項に記載の感性表現語処理装置。
(付記8) 撮影された画像を分析し、前記画像に表されている場の状況や物体の状態、当該場の時間的変化や物体の動作を示す感性情報を算出する感性情報算出ステップと、予め前記感性情報に対応付けて記憶されている感性を表現する感性表現語から、前記感性情報算出部によって算出された前記感性情報に対応する前記感性表現語を抽出する感性表現語抽出ステップと、前記感性表現語抽出ステップにおいて抽出された前記感性表現語を、前記画像に重畳する重畳ステップと、を含むことを特徴とする感性表現語処理方法。
(付記9) 付記8に記載の各ステップをコンピュータに実行させるための感性表現語処理プログラム。
この出願は、2010年11月24日に出願された日本出願特願2010−261229を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明に係る感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラムは、撮影時の場の雰囲気や物体に対する印象を、撮影場所にいるときと同様にイメージさせることに適している。
1…感性表現語処理装置、5…表示装置、11…感性情報算出部、12…感性表現語抽出部、21…感性表現語データベース、31…重畳部、111、112…顔検出部、113…指検出部、114…動体検出部、311…感性表現語重畳画像生成部、312…重畳条件決定部、313…画像変換部。

Claims (9)

  1. 撮影された画像を分析し、前記画像に表されている場の状況や物体の状態、当該場の時間的変化や物体の動作を示す感性情報を算出する感性情報算出部と、
    予め前記感性情報に対応付けて記憶されている感性を表現する感性表現語から、前記感性情報算出部によって算出された前記感性情報に対応する前記感性表現語を抽出する感性表現語抽出部と、
    前記感性表現語抽出部により抽出された前記感性表現語を、前記画像に重畳する重畳部と、
    を備えることを特徴とする感性表現語処理装置。
  2. 前記感性情報算出部は、少なくとも顔の数、顔の傾き、笑顔の度合、指の数、動きの大きな領域である動体の数、前記動体の移動量、前記動体の遷移情報、または前記画像の輝度の変化のいずれかを含む前記感性情報を算出する、
    ことを特徴とする請求項1記載の感性表現語処理装置。
  3. 前記重畳部は、
    前記画像に重畳する前記感性表現語を重畳する位置、文字の形状、文字の大きさまたは文字の色のうちの少なくともいずれかを決定する重畳条件決定部と、
    前記重畳条件決定部により決定された前記位置、前記形状、前記大きさまたは前記色を用いて前記感性表現語を前記画像に重畳して感性表現語重畳画像を生成する重畳画像生成部と、
    を有することを特徴とする請求項1または2記載の感性表現語処理装置。
  4. 前記重畳条件決定部は、前記動体の動きを示す情報、前記画像における色の変化、輝度の変化またはエッジの変化が少ない領域を示す情報のうちの少なくともいずれかに基づいて、前記感性表現語を重畳する位置を決定する、
    ことを特徴とする請求項3記載の感性表現語処理装置。
  5. 前記重畳条件決定部は、前記画像に含まれる顔の位置または手の位置のうちの少なくともいずれかに基づいて、前記感性表現語を重畳する位置を決定する、
    ことを特徴とする請求項3または4記載の感性表現語処理装置。
  6. 前記重畳部は、前記画像をスケッチ風画像に変換する画像変換部を、さらに有し、
    前記重畳画像生成部は、前記画像変換部により変換された前記スケッチ風画像に、前記感性表現語を重畳する、
    ことを特徴とする請求項3〜5のいずれか1項に記載の感性表現語処理装置。
  7. 前記感性表現語は、少なくとも擬音語または擬態語のいずれかである、
    ことを特徴とする請求項1〜6のいずれか1項に記載の感性表現語処理装置。
  8. 撮影された画像を分析し、前記画像に表されている場の状況や物体の状態、当該場の時間的変化や物体の動作を示す感性情報を算出する感性情報算出ステップと、
    予め前記感性情報に対応付けて記憶されている感性を表現する感性表現語から、前記感性情報算出部によって算出された前記感性情報に対応する前記感性表現語を抽出する感性表現語抽出ステップと、
    前記感性表現語抽出ステップにおいて抽出された前記感性表現語を、前記画像に重畳する重畳ステップと、
    を含むことを特徴とする感性表現語処理方法。
  9. 請求項8に記載の各ステップをコンピュータに実行させるための感性表現語処理プログラム。
JP2012545689A 2010-11-24 2011-11-15 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム Pending JPWO2012070430A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010261229 2010-11-24
JP2010261229 2010-11-24
PCT/JP2011/076294 WO2012070430A1 (ja) 2010-11-24 2011-11-15 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム

Publications (1)

Publication Number Publication Date
JPWO2012070430A1 true JPWO2012070430A1 (ja) 2014-05-19

Family

ID=46145776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012545689A Pending JPWO2012070430A1 (ja) 2010-11-24 2011-11-15 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム

Country Status (3)

Country Link
US (1) US9196042B2 (ja)
JP (1) JPWO2012070430A1 (ja)
WO (1) WO2012070430A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9286913B2 (en) * 2010-03-30 2016-03-15 Nec Corporation Atmosphere expression word selection system, atmosphere expression word selection method, and program
JP6669064B2 (ja) 2014-06-19 2020-03-18 日本電気株式会社 情報提示装置、情報提示システム、情報提示方法、および、プログラム
CN104644189B (zh) * 2015-03-04 2017-01-11 刘镇江 一种心理活动的分析方法
JP6533481B2 (ja) * 2016-03-16 2019-06-19 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2022093164A (ja) * 2020-12-11 2022-06-23 エヌ・ティ・ティ・コミュニケーションズ株式会社 情報重畳装置、情報重畳方法、及びプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6619860B1 (en) * 1997-11-14 2003-09-16 Eastman Kodak Company Photobooth for producing digitally processed images
JP2003018462A (ja) 2001-06-28 2003-01-17 Canon Inc 文字挿入装置および文字挿入方法
US6931147B2 (en) * 2001-12-11 2005-08-16 Koninklijke Philips Electronics N.V. Mood based virtual photo album
US7003139B2 (en) * 2002-02-19 2006-02-21 Eastman Kodak Company Method for using facial expression to determine affective information in an imaging system
JP3942471B2 (ja) 2002-03-28 2007-07-11 シャープ株式会社 データ編集方法、データ編集装置、データ記録装置および記録媒体
JP3863809B2 (ja) 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
US7233684B2 (en) * 2002-11-25 2007-06-19 Eastman Kodak Company Imaging method and system using affective information
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
US7607097B2 (en) 2003-09-25 2009-10-20 International Business Machines Corporation Translating emotion to braille, emoticons and other special symbols
US20060047515A1 (en) 2004-08-25 2006-03-02 Brenda Connors Analyzing human movement patterns
JP4375580B2 (ja) 2005-03-30 2009-12-02 日本電気株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US7532752B2 (en) * 2005-12-30 2009-05-12 Microsoft Corporation Non-photorealistic sketching
JP2007233517A (ja) 2006-02-28 2007-09-13 Fujifilm Corp 顔検出装置および方法並びにプログラム
US20070294273A1 (en) * 2006-06-16 2007-12-20 Motorola, Inc. Method and system for cataloging media files
US8126220B2 (en) * 2007-05-03 2012-02-28 Hewlett-Packard Development Company L.P. Annotating stimulus based on determined emotional response
KR20080110489A (ko) * 2007-06-14 2008-12-18 소니 가부시끼 가이샤 정보 처리 장치 및 방법, 및 컴퓨터 프로그램
US8117546B2 (en) * 2007-08-26 2012-02-14 Cyberlink Corp. Method and related display device for displaying pictures in digital picture slide show
US8195598B2 (en) 2007-11-16 2012-06-05 Agilence, Inc. Method of and system for hierarchical human/crowd behavior detection
JP2009141516A (ja) 2007-12-04 2009-06-25 Olympus Imaging Corp 画像表示装置,カメラ,画像表示方法,プログラム,画像表示システム
US8462996B2 (en) * 2008-05-19 2013-06-11 Videomining Corporation Method and system for measuring human response to visual stimulus based on changes in facial expression
JP2010066844A (ja) * 2008-09-09 2010-03-25 Fujifilm Corp 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム
TW201021550A (en) 2008-11-19 2010-06-01 Altek Corp Emotion-based image processing apparatus and image processing method
US20110263946A1 (en) * 2010-04-22 2011-10-27 Mit Media Lab Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences
DE102010018460B4 (de) 2010-04-27 2017-02-16 Siemens Healthcare Gmbh Verfahren zur Ermittlung wenigstens einer Änderung einer tubulären Gewebestruktur eines Lebewesens, Recheneinheit und Datenträger

Also Published As

Publication number Publication date
US9196042B2 (en) 2015-11-24
WO2012070430A1 (ja) 2012-05-31
US20130279747A1 (en) 2013-10-24

Similar Documents

Publication Publication Date Title
CN109729426B (zh) 一种视频封面图像的生成方法及装置
CN108665492B (zh) 一种基于虚拟人的舞蹈教学数据处理方法及系统
JP5326910B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR100845390B1 (ko) 영상 처리기, 영상 처리 방법, 기록 매체, 및 반도체 장치
Jörg et al. Data-driven finger motion synthesis for gesturing characters
WO2012070430A1 (ja) 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム
KR101184876B1 (ko) 영상과 상호작용이 가능한 캐릭터의 동적 효과를 생성하는 방법 및 장치
WO2006059570A1 (ja) 場面修飾表現生成装置および場面修飾表現生成方法
CA2919333C (en) User terminal device and the control method thereof
KR101483054B1 (ko) 상호작용을 지원하는 모바일 기반 증강현실 제작 시스템 및 방법
WO2018139203A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2012070428A1 (ja) 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム
KR20120038616A (ko) 마커리스 실감형 증강현실 제공 방법 및 시스템
JP2014006912A (ja) 情報処理装置、情報処理方法およびプログラム
Stannus et al. Gestural navigation in google earth
KR20190049784A (ko) 무주의 조건 동안 그래픽 사용자 인터페이스에 영향을 미치는 정보의 상태 변화 연기
WO2012070429A1 (ja) 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム
CN111651054A (zh) 音效控制方法、装置、电子设备及存储介质
TW202316373A (zh) 針對多層顯像中之物件辨識性的系統及方法
Patel et al. Hand-gesture recognition for automated speech generation
KR20140078083A (ko) 증강 현실이 구현된 만화책
US11842729B1 (en) Method and device for presenting a CGR environment based on audio data and lyric data
Prihodko et al. Approach to the Analysis and Synthesis of the Sign Language
Zhang et al. TMusic: A Music Player Based on Tangible User Interface
Muttena et al. Mapping gestures to speech using the kinect