JP5854806B2 - 映像処理装置および映像処理方法 - Google Patents

映像処理装置および映像処理方法 Download PDF

Info

Publication number
JP5854806B2
JP5854806B2 JP2011270399A JP2011270399A JP5854806B2 JP 5854806 B2 JP5854806 B2 JP 5854806B2 JP 2011270399 A JP2011270399 A JP 2011270399A JP 2011270399 A JP2011270399 A JP 2011270399A JP 5854806 B2 JP5854806 B2 JP 5854806B2
Authority
JP
Japan
Prior art keywords
video
person
unit
recognition
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011270399A
Other languages
English (en)
Other versions
JP2012142925A (ja
Inventor
穴吹 まほろ
まほろ 穴吹
健二 塚本
健二 塚本
優和 真継
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011270399A priority Critical patent/JP5854806B2/ja
Publication of JP2012142925A publication Critical patent/JP2012142925A/ja
Application granted granted Critical
Publication of JP5854806B2 publication Critical patent/JP5854806B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00283Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus
    • H04N1/00286Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus with studio circuitry, devices or equipment, e.g. television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00095Systems or arrangements for the transmission of the picture signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00283Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus
    • H04N1/00299Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus with a television transmission apparatus, e.g. a videophone, a teletext system or a digital television system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00326Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus
    • H04N1/00328Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information
    • H04N1/00336Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information with an apparatus performing pattern recognition, e.g. of a face or a geographic feature
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0086Image transceiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0087Image storage device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)

Description

本発明は映像処理装置および映像処理方法に関し、特に、映像認識結果を基準に選択的に撮り貯めた日常行動映像を基に、遠隔通信時の状況に合った映像を加工するために用いて好適な技術に関する。
離れた複数箇所間でそれぞれの状況をカメラで撮像した映像を伝達しあいながら会話する、いわゆる「テレビ電話」と呼ばれるコミュニケーションメディアが実用化されている。テレビ電話は、一般の電話と違い、あたかも対面しているかのように会話できるので、離れて暮らす家族や遠くに住む友人などとの遠隔会話などに利用されている。
ただし、「あたかも対面しているかのように会話できる」というテレビ電話の一つの特徴は、逆に言えば「会話時には必ずカメラに映る自分が相手に伝達される」ということであり、人によっては利用に抵抗を感じることがある。例えば、起床直後であったり、風呂上りであったりなど、いわゆる身づくろいをしていない時間帯にカメラに姿を映されるのを嫌う人は、少なからずいるだろうと考えられる。
この点に対して、相手に見せてもよい映像を事前に撮り貯めておき、それらの映像から、会話時の状況(自身の表情や周囲の人の有無など)に応じたものを選んで相手に伝達するという方法が種々提案されている。例えば、特許文献1、特許文献2、特許文献3、特許文献4などにより提案されている。それらの方法により、相手に見せてもよい映像を事前に用意しておけば、抵抗感なく(もしくは少なく)、あたかも対面しているかのように、遠隔の人と会話することができる。
特開2005−151231号公報 特開2008−270912号公報 特開2008−271609号公報 特開2009−246566号公報
しかしながら、「相手に見せてもよい映像」を単に事前に用意しておくだけでは、必ずしも撮り貯めた映像の中に遠隔会話時の状況に合った映像が含まれることが保証されない。言い換えると、事前に撮り貯めておかなかった表情や姿勢が遠隔会話時の状況として起こることを、否定することはできない。加えて、「人」は時間とともに外見は変わっていくので(例えば、髪が伸びるなど)、映像を用意した時点から一定期間が経過した後には、「今」の自分に近い状況が撮り貯めた映像に含まれない。
そのため、会話時の状況にあった映像を伝えることはできないということも起こり得る。こうした事態を回避するには、撮り貯めておく「相手に見せてもよい映像」を豊富に用意するとともに、それらを継続的に更新していけばよいが、どんなに大量の映像を用意しようとも、そこに含まれない状況は起こりえる。また、大量の映像を継続的に更新し続けるというのは非常に手間がかかるので実用的ではない。
本発明は前述の問題点に鑑み、ユーザの状況に応じた映像を相手に伝達するテレビ電話において、事前に撮り貯めておいた映像に含まれない状況であっても、その状況に応じた映像を相手に伝達できるようにすることを目的とする。
本発明の映像処理装置は、現実空間を撮像装置によって撮像した映像を入力する映像入力手段と、前記入力された映像に映る前記現実空間における人物と当該人物の状況とを認識する映像認識手段と、前記入力された映像を記録する映像記録手段と、前記映像記録手段が過去に記録した映像から、前記映像認識手段により認識された人物と当該人物の状況とに応じた映像を映像通信に利用する映像として選択する映像選択手段と、前記選択された映像を、前記映像認識手段により認識された人物と当該人物の状況とに一致するように加工して出力する映像出力手段とを有することを特徴とする。
本発明によれば、映像記録手段が過去に記録した映像から、前記映像認識手段により認識された人物と当該人物の状況とに応じた映像を映像通信に利用する映像として選択するようにした。これにより、ユーザ自身が手間をかけることなく、常時更新されていく「相手に見せてもよい自分」が映る映像から選択され加工される映像を、テレビ電話の相手に伝達することができる。テレビ電話での遠隔会話において、ユーザが自分の状況を相手に見せることに関して抵抗感を軽減することができる。
本発明の実施形態に係る映像処理装置の構成例を示すブロック図である。 本発明の実施形態の映像処理装置の処理手順を示すフローチャートである。 変形例に係る映像処理装置の構成例を示すブロック図である。 変形例に係る映像処理装置の処理手順を示すフローチャートである。
以下、添付図面を参照して本発明をその好適な実施形態に従って詳細に説明する。
本実施形態に係る映像処理装置は、一般的な家庭環境に設置されるカメラによって撮り貯められる映像を用いて、遠隔映像通信(テレビ電話)用の映像を加工するものである。以下に図面を用いて本実施形態に係る映像処理装置の構成及び処理について説明する。
図1は、本実施形態に係る映像処理装置100の概略構成を示すブロック図である。図1に示すように、本実施形態の映像処理装置100は、撮像部101、映像入力部102、映像認識部103、映像判定部104、映像記録部105、映像選択部106、映像出力部107、制御部108から構成されている。この映像処理装置100は、ユーザによって遠隔映像通信に利用される。ただし、ユーザが遠隔映像通信を行っていないときにも動作する機能を併せ持つ。
撮像部101は、一つ以上のカメラを含み、一般的な家庭環境である現実空間を撮像する。撮像部101は、天井に設置してもよいし、床や台やテレビの上に据え置いてもよいし、テレビや鏡やテーブルや椅子などの家具に内蔵されていてもよい。例えば、鏡にカメラが内蔵される場合には、ユーザが鏡を見ようとしてその前に立つと、その鏡に映った姿が撮像されることとなる。
撮像部101が複数のカメラを含む場合、そのカメラは家庭環境の各所に分散して設置され、家庭環境のいろいろな場所に登場し得る人物の映像を、いろいろな場所から撮像する。また、ユーザは遠隔映像通信を、撮像部101に含まれる一つ以上のカメラの前で行う。撮像部101に含まれるカメラのパンチルトやズームといったカメラパラメータは、固定でもよいし可変であってもよい。
映像入力部102は、撮像部101で撮像された映像を入力し、映像認識部103へと出力する。
映像認識部103は、映像入力部102から送られる映像を受け取り、その映像に映る人物の状況を認識する。認識する状況は、人物の在否・識別(誰であるか)・(映像中の)位置・表情・姿勢・動作・行動など様々である。
人物の在否の認識は、例えば、映像入力部102から受け取る映像中から、人の顔や頭部などに起因する映像特徴を検出することによって実現される。映像特徴としては、局所領域における勾配方向をヒストグラム化した特徴量であるHistograms of Oriented Gradients(HOG)特徴量などを利用する。
人に起因する映像特徴は、人の映る映像を多量に集めて、それらに含まれる特徴量に共通するものを、例えばBoostingと呼ばれるアルゴリズムを用いて、統計的に学習することによって決定する。そのようにして決定される人に起因する映像特徴が、映像入力部102から受け取る映像に含まれていれば、「特徴の検出された領域に人物が存在する」と認識し、そうでなければ、「人物は存在しない」と認識する。
人物の識別は、例えば、映像入力部102から受け取る映像の、人物の在否認識の際に特定した人物存在領域と、内部に識別候補となる人物の画像特徴(例えば顔画像)を照らし合わせる。そして、人物の在否認識の際に特定した人物存在領域から、識別候補となる人物の画像特徴が検出できれば、その画像領域に写る人はその人物であると認識する。
人物の姿勢の認識は、例えばまず、映像入力部102から受け取る映像中から、あらかじめ用意した人体パーツに起因する画像特徴が探索されることから始まる。人体パーツとは、例えば、顔、頭、手、腕、足、膝、肩、腰、胸、臍、背中などである。それぞれは、撮像される向きによって映像特徴が異なるので、例えば顔に関しては、正面顔パーツ、横顔パーツ、下向き顔パーツ、などと、方向別に複数の画像特徴が用意され、それらが探索される。
画像特徴としては、局所領域における勾配方向をヒストグラム化した特徴量であるHOG特徴量などを利用する。各人体パーツに起因する画像特徴は、それらが映る画像を多量に集めて、それらに含まれる特徴量に共通するものを、例えばBoostingと呼ばれるアルゴリズムを用いて、統計的に学習することによって決定する。そのようにして決定される各人体パーツに起因する画像特徴が、映像入力部102から受け取る映像中から探索されれば、「特徴が探索された位置にその人体パーツがある」と認識する。
そして、その人体パーツ同士の位置関係を、姿勢として認識する。例えば、頭、胸、腰が重力方向にほぼ直線上に並んでいれば、「直立姿勢」と認識される。例えば手と肩を結ぶ線と、肩と腰を結ぶ線のなす角が、腕をどの程度広げた姿勢であるかを示すパラメータとなる。その姿勢認識結果の時系列変化パターンを認識すれば、それが動作の認識となる。
人の表情の認識は、まず映像入力部102から受け取る映像中から、人の顔に起因する画像特徴が検出される領域が特定される。その特徴量としては、HOG特徴量などを用いればよい。続いて、特定された領域を正規化した画像が、いくつかの表情をとらえた複数の画像群のうちの、どの群にどの程度類似しているかを認識する。本実施形態において、複数の画像群とは以下の画像群である。「ポジティブで激しい感情の表情(喜)」「ポジティブで落ち着いた感情の表情(楽)」「ネガティブで激しい感情の表情(怒)」「ネガティブで落ち着いた感情の表情(哀)」「特に感情のないニュートラルな表情」等の表情画像を集めたものである。
例えば、「ポジティブで激しい感情の表情(喜)」の顔画像群クラスと、「ネガティブで激しい感情の表情(怒)」の顔画像群クラスとを分別する判別軸を線形判別分析(LDA:Linear Discriminant Analysis)により作成しておく。そして、その判別軸を用いて、正規化した画像領域がどちらのクラスにより類似しているかを判別する。これを複数の表情クラス間での比較に関して繰り返せば、映像入力部102から受け取る映像中に映る人物の表情が、事前に用意した表情のうちの、どれにどの程度類似しているかを認識することができる。
人物の行動は、例えば、映像から認識される人物の位置や姿勢などと、その認識時刻に対応する行動認識結果を事前にリスト化しておき、認識時にそのリストを参照する、といった方法で認識することがありうる。また、映像認識部103は、人物だけでなく映像中の物体やシーンの状況も認識してよい。
撮像するシーンの認識は、例えば、撮像環境に映る背景のセグメンテーション、一般物体認識技術による撮像環境に存在する物体を特定する。その他には、光源推定による光源位置の把握、複数のカメラを設置している環境での3次元再構成によるシーンの三次元形状計測結果などに基づいて行う。
制御部108は、映像認識部103が行う人物、物体、シーンに関する認識の結果を、ユーザが映像処理装置100を利用して遠隔映像通信を行っていない場合には、撮像映像と共に映像判定部104へと送るよう制御する。また、ユーザが映像処理装置100を利用して遠隔映像通信を行っている場合には、映像選択部106に出力するよう制御する。このとき、対応する撮像映像を直接に通信される映像の対象とならないように制御する。
映像判定部104は、映像認識部103から撮像映像を受け取る。そして、その中から映像記録部105に記録する映像を、映像認識部103より受け取る認識結果に基づいて、「遠隔映像通信の相手に見せてもよい」という事前に設定された条件を満たす状況が映っているか否かを判定する。
例えば、映像に映っている人の笑顔が認識されている映像など、一般的に映像としてポジティブな映像が条件を満たすものとし、映像に映っている人が目をつぶっている映像等は条件を満たさないものとする。もしくは、ユーザによって事前に設定された認識結果が得られている映像、例えば「まっすぐ立っている姿勢」という認識結果が得られた映像が条件を満たすものとして判定する。
また、事前にユーザが選択した映像の認識結果と類似しているか否かを判定するようにしてもよい。例えば、ユーザが任意に選択した映像に人物の姿勢に身体パーツ同士の位置関係パラメータが近い映像であるか否かを判定する。さらには、特定の時間に撮像した映像など、ユーザが任意の基準で選択したものを保存するようにしてもよい。映像判定部104によって条件を満たす条項を撮像したと判定された映像は、対応する認識結果と共に映像記録部105へと送られる。
映像記録部105は、映像判定部104より送られる映像を内部に記録する。その際にはラベル等のメタデータを付与する。例えば、認識結果をそのままラベルにしてもよいし、不図示のインタフェースを介してユーザが任意のラベル名をつけてもよい。また、一度付けたラベル名はユーザが後で変更することも可能であるし、映像の追加・削除は随時行うことも可能であるとする。映像記録部105に記録された映像は、映像選択部106によって取得される。
映像選択部106は、映像認識部103より撮像映像の認識結果を受け取ると、その認識結果に基づいて、映像記録部105に記録されている映像を取得し、それを用いて遠隔映像通信に利用する(通信相手に伝達する)映像を選択する。例えば、映像認識部103より「笑顔のAさんが手を振っている」という認識結果を受け取った場合、映像選択部106は同じ「笑顔のAさんが手を振っている」という認識結果が得られている映像を映像記録部105に記録された映像の中から検索する。そして、見つかればそれを選択する。そして、まったく同じ認識結果が得られている映像がなければ、「笑顔のAさん」という認識結果が得られている映像と、「Aさんが手を振っている」という認識結果が得られている映像を検索し、選択する。
映像出力部107は、認識結果に基づいて選択された映像を加工することにより映像を生成し、出力する。例えば、選択された映像に「Aさんが手を振っている」という認識結果が得られている場合、他の選択された映像のAさんの顔の部分だけを、「笑顔のAさん」という認識結果が得られている映像中の、Aさんの顔の部分に差し替えるようにする。このようにすることで、「笑顔のAさんが手を振っている」という映像を加工により生成することができる。
すなわち、「Aさんが手を振っている」という認識結果が得られている映像と、「笑顔のAさん」という認識結果が得られている映像の其々に対して、映像認識部103では表情の認識をするために人の顔に起因する画像特徴が検出される領域が特定されている。同時に人物を識別するために、特定された顔領域のなかから、どの領域がAさんの顔に起因する画像特徴が検出されるかも特定されている。その双方の結果から、「笑顔のAさん」という認識結果が得られている映像からAさんの顔に起因する画像特徴が検出される領域を取り出す。
そして、「Aさんが手を振っている」という認識結果が得られている映像中のAさんの顔に起因する画像特徴が検出される領域に重畳することができる。これより、「Aさんが手を振っている」という認識結果が得られている映像の、Aさんの顔の部分だけを、「笑顔のAさん」という認識結果が得られている映像中の、Aさんの顔の部分に差し替えることができる。
「Aさんが手を振っている」という認識結果が得られている映像と、「笑顔のAさん」という認識結果が得られている映像それぞれから得られるAさんの顔に起因する画像特徴が検出される領域は、必ずしも大きさや形状は一致しない。その場合には、両方の画像領域には同じ人物の顔が写っている(同じ大きさの顔が写っている)という前提に基づいて、大きさや形状を補正すればよい。
また、上記では選択された映像だけで加工を行っているが、入力された撮像映像と選択された映像との両者を合成することで、映像記録部105には記録されていなかった「笑顔のAさんが手を振っている」という映像を生成してもよい。
また別の例として、映像認識部103より「Bさんが首を右に映像上で30度傾けている」という認識結果を受け取った場合、映像出力部107は「Bさんが首を映像上で右に傾けている」という認識結果が得られている映像を検索し、それを参照する。続いて、その映像に映るBさんの首の傾き角度を計測し、それが30度でなければ、30度になるように映像を加工する。そうした映像加工方法自体については、本実施形態においては、例えば以下のように実現する。
まず、「首を右に映像上で30度傾けている」とは、映像上での、右肩と首を結ぶ直線と、頭と首を結ぶ直線のなす角が、90度−30度=60度である状態である。そして、「Bさんが首を映像上で右に傾けている」という認識結果が得られている映像に対し、映像認識部103では、頭・首・右肩に起因する画像特徴が検出される領域が、姿勢を推定する過程において特定されている。
ここで、「Bさんが首を映像上で右に傾けている」という認識結果が得られている映像に対し、頭に起因する画像特徴が検出される映像領域を切り抜く。そして、首に起因する画像特徴が検出される映像領域との接点を中心に映像上で回転させながら移動する。これにより、右肩と首を結ぶ直線と、頭と首を結ぶ直線のなす角が、90度−30度=60度であるような映像を加工することができる。なお、頭に起因する画像特徴を回転させながら動かす際に、その映像領域の形状を変形させてもよい。
例えば、元の位置から離れる部分ほど細くなるように変形させると、首をカメラから離れる方向に傾けているような映像を加工することができる。逆に、元の位置から離れる部分ほど太くなるように変形させると、首をカメラに近付く方向に傾けているような映像を加工することができる。頭に起因する画像特徴が検出される領域を動かすことでできる穴は、一般に知られた方法を用いるなどして決定する背景画素値で埋めればよい。
映像出力部107によって加工された映像は、不図示の通信モジュールを介して遠隔映像通信相手の下へ伝達され、その相手のそばにあるディスプレイ等を介して出力される。
以上が、本実施形態にかかる映像処理装置100に関する構成部分の説明である。
続いて、図2に示したフローチャートを用いて、本実施形態の映像処理装置100が行う処理手順について説明する。なお、図2のフローチャートに従ったプログラムコードは、制御部108内の、不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUなどにより読み出され、実行される。なお、データ等の送受信に関する処理に関しては、直接的に行われてもよく、ネットワーク越しに行われてもよいとして、以下では特に言及しない。
S201では、処理全体がS200において開始されると、撮像部101により現実空間の撮像が行われる。先に述べたように、この現実空間は本実施形態においては家庭環境である。また、撮像部101に複数のカメラが含まれる場合には、それぞれが撮像を行う。撮像映像は、映像入力部102により、映像認識部103へと送られる。
S202では、映像認識部103において映像入力部102から送られた映像に映る人物、物体、シーンに関する認識処理が行われる。
S203では、この時点でユーザが遠隔映像通信を実施しているか否かが確認される。例えば、ユーザの操作によって、遠隔映像通信機能のON/OFFが制御されるのであれば、その機能の状態を確認すればユーザが遠隔映像通信を実施しているか否かが確認できる。また、S202において実施された認識処理により、S201で撮像された映像に人物が含まれていないことが認識されているのであれば、明らかにユーザは遠隔映像通信を実施していないと確認できる。
S202において実施された認識処理により、S201で撮像された遠隔映像通信用のカメラの映像に人物が含まれており、その人物の行動が会話であると認識されている場合、それによりユーザは遠隔映像通信を実施していると確認することもできる。いずれの方法による確認にせよ、ユーザが遠隔映像通信を実施していないと確認された場合には、S202で得られた認識結果とそれに対応する映像が映像判定部104へと送られた後に処理はS204へと進む。また、ユーザが遠隔映像通信を実施していると確認された場合には、S202で得られた認識結果が映像出力部107へと送られた後に処理はS206へと進む。
S204では、映像判定部104が映像認識部103から受け取る撮像映像が映像記録部105に保存する対象となる映像であるか否かを、映像に対応する認識結果に基づいて判定する。撮像部101に複数のカメラが含まれる場合には、映像判定部104はカメラごとの映像を受け取るので、それぞれに対して保存するか否か映像を判定することとなる。
S205では、S204で保存すると判定された映像が映像記録部105へと送られ、そこに記録される。その際、映像認識部103による認識結果がラベル等のメタデータとして映像に付与される。このラベルは、後でユーザ等によって変更されてもよい。映像が記録されると、処理はS201へと戻る。
S206では、映像選択部106が、映像認識部103より受け取った認識結果に基づいて、映像記録部105に記録されている映像から加工に用いる映像を選択する。例えば、映像認識部103より受け取った認識結果と全部もしくは一部が同じ認識結果の得られている映像を選択する。また、例えば、あらかじめユーザによって認識結果ごとに選択されている映像を取得してもよい。選択候補となる映像が複数ある場合には、例えば保存されている映像の中で最も新しい映像を選択してもよいし、候補となる全ての映像を選択してもよい。映像を選択すると、その映像は映像出力部107へと送られ、処理はS207へと進む。
S207では、映像出力部107において、S202で得た認識結果に基づいて、S206において選択された映像を使った遠隔映像通信用の映像の加工が行われる。映像が加工されると、処理はS208へと進む。
S208では、映像出力部107が加工した映像が、不図示の通信モジュールを介して遠隔映像通信相手へ伝達され、その相手のそばにあるディスプレイ等を介して出力される。
以上の処理によって、映像処理装置100は遠隔映像通信をする際に相手に伝達する映像を、その通信時のユーザの映像ではなく、その通信時のユーザの映像と同じ認識結果が得られる映像を過去のユーザの映像から選択し、加工することができる。選択候補映像および加工映像の素材は、「相手に見せてもよい」ものとして映像認識部103が認識処理に基づいて判定した映像を記録するので、ユーザは遠隔映像通信相手に、「相手に見せてもよい」自身の映像を見せるようにすることができる。
すなわち、ユーザの日常行動を定常的に撮像した映像の中から、ユーザが事前に決定した「相手に見せてもよい自分」が映っている映像を、認識技術を使って判定して蓄積していく。そして、遠隔通信時には、そのときの状況(照明、顔の向きや体の姿勢、表情や動作など)を認識および計測し、その認識・計測結果に合った映像を、撮り貯めておいた映像から選択するか、もしくはそれらの映像を使って加工する。
映像の選択候補および加工の素材は全て、「相手に見せてもよい自分」が映っている映像なので、加工された映像は、そのときの状況を反映し、かつ、「相手に見せてもよい自分」が映る映像となる。これにより、ユーザの状況に応じた映像を相手に伝達するテレビ電話において、事前に撮り貯めておいた映像に含まれない状況であっても、その状況に応じた映像を相手に伝達できるようになる。
〔変形例〕
本変形例に係る映像処理装置は、デジタルカメラやデジタルカムコーダーなどを使って屋内外で撮り貯められる映像を用いて、遠隔映像通信用の映像を加工するものである。以下、図面を用いて本変形例に係る映像処理装置の構成及び処理手順について説明する。
図3は、本変形例に係る映像処理装置300の概略構成を示すブロック図である。本変形例では、撮像部101、映像入力部102、映像認識部103、映像判定部104、映像記録部105、映像選択部106、映像出力部107、制御部108、映像蓄積部306、環境計測部307、映像通信部308、映像表示部309から構成されている。この構成の大半は図1に示した映像処理装置100と同様であるので、同様の部分は同じ符号を付して、重複する部分についての詳細な説明は以下では割愛する。
撮像部101は一つ以上のカメラを含み、一般的な家庭環境である現実空間を撮像する。ユーザは遠隔映像通信を、撮像部101に含まれる一つ以上のカメラの前で行う。映像入力部102は、撮像部101によって撮像された映像を入力し、映像認識部103へと出力する。
映像蓄積部306は、デジタルカメラやデジタルカムコーダーなど、いわゆる手持ちのカメラデバイスによって撮り貯められた映像を蓄積する部分である。例えば、旅行先や家族イベントなどにおいて撮られる記念写真やファミリービデオなどが、そこに蓄積される。蓄積された映像は、映像認識部103へと出力される。
映像認識部103は、映像入力部102および映像蓄積部306から映像を受け取り、その映像に映る人物、物体、シーンを認識する。映像認識部103が行う認識処理は、人物の在否・(映像中の)位置・識別(誰であるか)・表情・姿勢・動作・行動の他、映像に映っている物の名称やその配置を認識する。さらには、シーン(屋外か屋内か、など)やコンテキスト(学校のイベント、公共空間、個人的なイベント、など)といった撮像環境自体を認識する。
各認識結果は、ユーザが映像処理装置300を利用して遠隔映像通信を行っていない場合には、それに対応する映像と共に映像判定部104へと送られる。ユーザが映像処理装置300を利用して遠隔映像通信を行っている場合には、映像出力部107に出力される。このとき、対応する映像は映像出力部107へは送られない。
映像判定部104は、映像認識部103から撮像映像を受け取ると、その中から映像記録部105に記録する映像を、映像認識部103より受け取る映像認識結果に基づいて選択する。この選択は、「遠隔映像通信の相手に見せてもよい」という事前に設定された条件を満たす状況が映っているか否かの基準で選択される。例えば「笑顔の画像」といった相手に見せてもよい画像を選択する。映像判定部104によって選択された映像は対応する認識結果と共に、映像記録部105へと送られる。
映像記録部105は、映像判定部104より送られる映像を内部に記録する。その際にはラベル等のメタデータを付与する。例えば、認識結果をそのままラベルにしてもよいし、不図示のインタフェースを介してユーザが任意のラベル名をつけてもよい。また、一度付けたラベル名はユーザが後で変更することも可能であるし、映像の追加・削除は随時行うことも可能であるとする。映像記録部105に記録された映像は、映像選択部106によって取得される。
環境計測部307は、撮像部101の傍に配置され、撮像部101の撮像環境を計測する。例えば、環境計測部307は光センサを含み、それによって撮像部101の撮像範囲内にある光源の実際の位置や明るさを計測する。もしくは、環境計測部307が温度センサを含んで、それにより気温を計測するなどしてもよい。撮像部101が複数のカメラにより複数の環境を撮像するのであれば、環境計測部307も複数のセンサを備え、複数の撮像環境を計測する。環境計測部307の計測結果は、映像出力部107へと出力される。
映像選択部106は、映像認識部103より撮像映像の認識結果を受け取るとともに、環境計測部307より撮像環境の計測結果を受け取る。そして、その認識結果と計測結果に基づいて、映像記録部105に記録されている映像を選択する。
映像出力部107は、それを用いて遠隔映像通信に利用する(通信相手に伝達する)映像を加工し、出力する。また、映像出力部107は、映像認識部103による認識結果に基づいて選択された映像の加工を行う。続いて、その加工した映像が、環境計測部307による計測結果と同じ(もしくは近い)計測結果が得られる映像となるように、映像を加工する。例えば、撮像環境の計測項目に照明環境に関する情報があれば、環境計測部307が計測している空間の照明環境と一致するように、映像の照明状態を加工する。
より具体的な例としては、環境計測部307が計測している空間が屋内の夜であるのに対して、映像記録部105から参照した映像に映っている空間が屋外の昼であったとする。このような場合、映像記録部105から参照した映像中の屋外照明成分を取り除き、代わりの仮想的な室内照明成分を足し合わせる。
以上のようにして、映像出力部107では、撮像部101が撮像した映像と同じ認識結果が得られる映像であって、かつ、環境計測部307が撮像環境を計測する空間と同じ環境下で撮像されたように見える映像が加工される。加工された映像は、映像通信部308へと送られる。
映像通信部308は、映像出力部107から出力された映像を映像表示部309へと通信する。この通信は有線ネットワークを介して行われてもよいし、携帯電話のような無線ネットワークを介してもよい。映像表示部309は、映像処理装置300のユーザが遠隔映像通信をする相手の傍に置かれる遠隔地の映像表示端末であって、映像通信部308より送られてくる映像を表示する。
以上が、本変形例にかかる映像処理装置300に関する構成部分である。
続いて、図4に示すフローチャートを用いて、本変形例の映像処理装置300が行う処理手順について説明する。なお、同フローチャートに従ったプログラムコードは、映像処理装置300に設けられている制御部108内の、不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUなどにより読み出され、実行される。
S401では、処理全体がS400において開始されると、撮像部101により現実空間の撮像が行われる。撮像映像は、映像入力部102により、映像認識部103へと送られる。
S402では、映像認識部103において、映像入力部102から送られた映像に関する認識処理が行われる。さらに、映像蓄積部306に蓄積されている映像のうち、過去に映像認識部103による処理を行っていない映像があれば、その映像に関する認識処理も行われる。この処理により、その映像中の人物の在否・識別・表情・姿勢・動作・行動や、映像中に映る物体やシーンなどが認識される。
S403では、この時点でユーザが遠隔映像通信を実施しているか否かが確認される。その方法は、第1の実施形態におけるS203で述べた方法と同様である。ユーザが遠隔映像通信を実施していないと確認された場合には、S402で得られた認識結果とそれに対応する映像が映像判定部104へと送られた後に処理はS404へと進む。ユーザが遠隔映像通信を実施していると確認された場合には、S402で得られた認識結果が映像出力部107へと送られた後に処理はS406へと進む。
S404では、映像判定部104が映像認識部103から受け取る撮像映像を映像記録部105に記録するか否かを、映像に対応する認識結果に基づいて判定する。映像判定部104が選択する映像の中に、映像蓄積部306に蓄積された映像が含まれている点が、本変形例におけるS204との違いである。
S405では、S404で記録すると判定された映像が映像記録部105へと送られ、そこに記録される。その際、映像認識部103による認識結果がラベルとして映像に付与される。このラベルは、後でユーザ等によって変更されてもよい。映像が記録されると、処理はS401へと戻る。
S406では、映像選択部106が、映像認識部103より受け取った認識結果に基づいて、映像記録部105に記録されている映像から加工に用いる映像を選択する。その方法は、本変形例におけるS206で述べた方法と同様である。映像を選択すると、その映像は映像出力部107へと送られる。
S407では、環境計測部307により撮像環境の計測が行われる。環境計測結果は映像出力部107へと送られる。
S408では、映像出力部107において、S402で得た認識結果とS407で得た撮像環境の計測値に基づいて、S406において取得された映像を使った遠隔映像通信用の映像の加工が行われる。
S409では、加工した映像が、映像通信部308を介して遠隔映像通信相手へ伝達され、その相手の傍にある映像表示部309を介して出力される。
以上の処理によって、映像処理装置300は、遠隔映像通信をする際に相手に伝達する映像を、その通信時のユーザの映像ではなく、その通信時のユーザの映像と同じ認識結果を得た過去のユーザの映像に基づいて加工することができる。
本変形例の場合は特に、いわゆる手持ちのカメラデバイスによって撮り貯められた過去の記念写真やファミリービデオの映像に基づいて、遠隔映像通信用の映像を加工することができる。言い換えれば、ユーザは、遠隔映像通信時にユーザがいる空間ではない場所で撮られた映像を使って、遠隔映像通信用の映像を加工することができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100 映像処理装置、101 撮像部、102 映像入力部、103 映像認識部、104 映像判定部、105 映像記録部、106 映像選択部、107 映像出力部、108 制御部

Claims (18)

  1. 現実空間を撮像装置によって撮像した映像を入力する映像入力手段と、
    前記入力された映像に映る前記現実空間における人物と当該人物の状況とを認識する映像認識手段と、
    前記入力された映像を記録する映像記録手段と、
    前記映像記録手段が過去に記録した映像から、前記映像認識手段により認識された人物と当該人物の状況とに応じた映像を映像通信に利用する映像として選択する映像選択手段と、
    前記選択された映像を、前記映像認識手段により認識された人物と当該人物の状況とに一致するように加工して出力する映像出力手段と
    を有することを特徴とする映像処理装置。
  2. 前記映像認識手段により認識された人物と当該人物の状況とが予め設定された条件を満たすか否かを判定する映像判定手段を更に有し、
    前記映像記録手段は、前記認識された人物と当該人物の状況とが前記条件を満たすと判定された場合に、前記認識された人物と当該人物の状況との現実空間を撮像した映像を記録することを特徴とする請求項1に記載の映像処理装置。
  3. 前記映像判定手段は、前記映像通信が行われていないときに、前記判定を実行し、
    前記映像選択手段は、前記映像通信が行われているときに、前記選択を実行することを特徴とする請求項2に記載の映像処理装置。
  4. 前記映像記録手段は、前記映像と当該映像から認識された認識結果とを記録することを特徴とする請求項1乃至3の何れか1項に記載の映像処理装置。
  5. 前記映像選択手段は、前記入力された映像に対する認識結果と前記記録された認識結果とを比較することにより、前記映像記録手段が過去に記録した映像から前記比較の結果が類似する映像を映像通信に利用する映像として選択することを特徴とする請求項4に記載の映像処理装置。
  6. 前記映像認識手段は、前記人物の状況として、映像に映る人物の位置、姿勢、表情、動作、行動のうち少なくとも1つを認識することを特徴とする請求項1乃至5の何れか1項に記載の映像処理装置。
  7. 前記撮像装置の撮像環境を計測する環境計測手段と
    を更に有し、
    前記映像出力手段は、前記入力された映像と前記過去に記録した映像との環境が一致するように、映像を加工することを特徴とする請求項1乃至の何れか1項に記載の映像処理装置。
  8. 前記環境計測手段は、前記撮像装置の撮像範囲内にある光源の実際の位置や明るさを計測、または前記撮像装置の撮像範囲内の気温を計測することを特徴とする請求項に記載の映像処理装置。
  9. 前記映像出力手段は、前記入力された映像と前記選択された映像とを合成することにより加工して出力することを特徴とする請求項1乃至の何れか1項に記載の映像処理装置。
  10. 前記映像出力手段は、前記映像記録手段に記録された映像において前記映像認識手段によって認識される人物の身体パーツが写る映像領域を、前記映像入力手段により入力された映像において前記映像認識手段によって認識される人物の身体パーツが映る映像領域に重畳することによって映像を合成することを特徴とする請求項1乃至の何れか1項に記載の映像処理装置。
  11. 前記映像出力手段は、前記映像認識手段により認識された人物と当該人物の状況とに一致するように、前記映像記録手段に記録された映像における前記映像認識手段によって認識される人物の身体パーツが写る映像領域を移動または回転または変形することによって映像を加工することを特徴とする請求項1乃至の何れか1項に記載の映像処理装置。
  12. 前記映像記録手段は、前記状況が前記条件を満たすと判定された場合に、当該状況の現実空間を撮像した映像と当該状況の認識結果とを記録することを特徴とする請求項2又は3に記載の映像処理装置。
  13. 現実空間を撮像装置によって撮像した映像を入力する映像入力手段と、
    前記撮像装置とは異なる撮像装置によって撮像した映像を蓄積する映像蓄積手段と、
    前記入力された映像に映る前記現実空間における人物と当該人物の状況とを認識するとともに、前記映像蓄積手段に蓄積された映像に映る人物と当該人物の状況とを認識する映像認識手段と、
    前記映像蓄積手段に蓄積された映像のうち前記映像認識手段により認識された映像を記録する映像記録手段と、
    前記映像記録手段に記録した映像から、前記映像認識手段により認識された前記現実空間における人物と当該人物の状況とに応じた映像を映像通信に利用する映像として選択する映像選択手段と、
    前記選択された映像を、前記映像認識手段により認識された前記現実空間における人物と当該人物の状況とに一致するように加工して出力する映像出力手段と
    を有することを特徴とする映像処理装置。
  14. 前記映像蓄積手段に蓄積された映像において前記人物と当該人物の状況とが予め設定された条件を満たすか否かを判定する映像判定手段を更に有し、
    前記映像記録手段は、前記人物と当該人物の状況とが前記条件を満たすと判定された場合に、当該認識された人物と当該人物の状況とを撮像した映像を記録することを特徴とする請求項13に記載の映像処理装置。
  15. 前記撮像装置の撮像環境を計測する環境計測手段を更に有し、
    前記映像出力手段は、前記入力された映像と過去に記録した映像との環境が一致するように、映像を加工することを特徴とする請求項13又は14に記載の映像処理装置。
  16. 映像処理装置の映像入力手段が、現実空間を撮像装置によって撮像した映像を入力する映像入力工程と、
    前記映像処理装置の映像認識手段が、前記入力された映像に映る前記現実空間における人物と当該人物の状況とを認識する映像認識工程と、
    前記映像処理装置の映像記録手段が、前記入力された映像を記録する映像記録工程と、
    前記映像処理装置の映像選択手段が、前記映像記録手段が過去に記録した映像から、前記映像認識手段により認識された人物と当該人物の状況とに応じた映像を映像通信に利用する映像を選択する映像選択工程と、
    前記映像処理装置の映像出力手段が、前記選択された映像を、前記映像認識手段により認識された人物と当該人物の状況とに一致するように加工して出力する映像出力工程と
    を有することを特徴とする映像処理方法。
  17. 映像入力手段が、現実空間を撮像装置によって撮像した映像を入力する映像入力工程と、
    映像認識手段が、前記入力された映像に映る前記現実空間における人物と当該人物の状況とを認識するとともに、前記撮像装置とは異なる撮像装置により撮像した映像を蓄積した映像蓄積手段に蓄積された映像に映る人物と当該人物の状況とを認識する映像認識工程と、
    映像記録手段が、前記映像蓄積手段に蓄積された映像のうち前記映像認識手段により認識された映像を記録する映像記録工程と、
    映像選択手段が、前記映像記録手段に記録した映像から、前記映像認識手段により認識された前記現実空間における人物と当該人物の状況とに応じた映像を映像通信に利用する映像として選択する映像選択工程と、
    映像出力手段が、前記選択された映像を、前記映像認識手段により認識された前記現実空間における人物と当該人物の状況とに一致するように加工して出力する映像出力工程と
    を有することを特徴とする映像処理方法。
  18. 請求項16又は17に記載の映像処理方法の各工程をコンピュータに実行させるためのプログラム。
JP2011270399A 2010-12-16 2011-12-09 映像処理装置および映像処理方法 Active JP5854806B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011270399A JP5854806B2 (ja) 2010-12-16 2011-12-09 映像処理装置および映像処理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010280848 2010-12-16
JP2010280848 2010-12-16
JP2011270399A JP5854806B2 (ja) 2010-12-16 2011-12-09 映像処理装置および映像処理方法

Publications (2)

Publication Number Publication Date
JP2012142925A JP2012142925A (ja) 2012-07-26
JP5854806B2 true JP5854806B2 (ja) 2016-02-09

Family

ID=46234515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011270399A Active JP5854806B2 (ja) 2010-12-16 2011-12-09 映像処理装置および映像処理方法

Country Status (2)

Country Link
US (2) US8644614B2 (ja)
JP (1) JP5854806B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9575641B2 (en) * 2012-03-20 2017-02-21 Adobe Systems Incorporated Content aware image editing
EP2713593B1 (en) * 2012-09-28 2015-08-19 Alcatel Lucent, S.A. Immersive videoconference method and system
US20140153832A1 (en) * 2012-12-04 2014-06-05 Vivek Kwatra Facial expression editing in images based on collections of images
KR101988279B1 (ko) * 2013-01-07 2019-06-12 삼성전자 주식회사 얼굴 인식 기반 사용자 기능 운용 방법 및 이를 지원하는 단말기
US9478056B2 (en) 2013-10-28 2016-10-25 Google Inc. Image cache for replacing portions of images
CN105208355A (zh) * 2015-10-21 2015-12-30 合肥华凌股份有限公司 一种冰箱数据采集方法、系统及冰箱
US10097823B1 (en) * 2015-11-13 2018-10-09 Harmonic, Inc. Failure recovery for real-time audio and video encoding, decoding, and transcoding
CN106864368B (zh) * 2015-12-11 2021-12-21 罗伯特·博世有限公司 应用于车辆的警示方法及系统
CN108401129A (zh) * 2018-03-22 2018-08-14 广东小天才科技有限公司 基于穿戴式设备的视频通话方法、装置、终端及存储介质
KR20200080047A (ko) * 2018-12-26 2020-07-06 삼성전자주식회사 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기
US11157549B2 (en) * 2019-03-06 2021-10-26 International Business Machines Corporation Emotional experience metadata on recorded images

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001127990A (ja) * 1999-11-01 2001-05-11 Mega Chips Corp 情報通信システム
JP2001169257A (ja) * 1999-12-14 2001-06-22 Matsushita Electric Ind Co Ltd テレビ電話機
JP2003309829A (ja) * 2002-04-15 2003-10-31 Matsushita Electric Ind Co Ltd 携帯動画電話装置
JP2005151231A (ja) * 2003-11-17 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> 映像通信方法、映像通信装置とこの装置で使用される映像作成プログラム及びこのプログラムを記録した記録媒体
JP4940695B2 (ja) * 2006-02-24 2012-05-30 日本電気株式会社 テレビ電話装置、テレビ電話つき携帯端末、そのテレビ電話方法およびテレビ電話つき携帯端末の通信方法
JP2008131412A (ja) * 2006-11-22 2008-06-05 Casio Hitachi Mobile Communications Co Ltd テレビ電話装置及びプログラム
JP2008270912A (ja) 2007-04-16 2008-11-06 Ntt Docomo Inc 制御装置、移動通信システム及び通信端末
JP4720810B2 (ja) * 2007-09-28 2011-07-13 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2009246566A (ja) * 2008-03-28 2009-10-22 Sony Ericsson Mobilecommunications Japan Inc 撮像装置、撮像方法、撮像制御プログラム、及び携帯端末装置
JP4477079B2 (ja) 2008-07-29 2010-06-09 株式会社ケンウッド 携帯電話装置

Also Published As

Publication number Publication date
US8644614B2 (en) 2014-02-04
US20120155773A1 (en) 2012-06-21
US20140118547A1 (en) 2014-05-01
JP2012142925A (ja) 2012-07-26

Similar Documents

Publication Publication Date Title
JP5854806B2 (ja) 映像処理装置および映像処理方法
US10880495B2 (en) Video recording method and apparatus, electronic device and readable storage medium
JP5863423B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP4478510B2 (ja) カメラシステム、カメラ、及びカメラの制御方法
US20050011959A1 (en) Tags and automated vision
JP3512992B2 (ja) 画像処理装置および画像処理方法
CN104284064B (zh) 用于预览双镜头图像的方法和设备
JP4984728B2 (ja) 被写体照合装置および被写体照合方法
CN110008822B (zh) 一种基于红外传感器的姿态识别方法及系统
CN108200334B (zh) 图像拍摄方法、装置、存储介质及电子设备
US8942510B2 (en) Apparatus and method for switching a display mode
WO2015116388A2 (en) Self-initiated change of appearance for subjects in video and images
JPWO2018198373A1 (ja) 映像監視システム
CN110390705A (zh) 一种生成虚拟形象的方法及装置
JP2018032950A (ja) 情報処理装置及びその方法、コンピュータプログラム
JPWO2013118218A1 (ja) 画像認識装置、画像認識方法、プログラムおよび集積回路
JP2005242566A (ja) 画像合成装置及び方法
CN107395957A (zh) 拍照方法、装置、存储介质及电子设备
JP6109288B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN105141942A (zh) 3d图像合成方法及装置
JP2001127990A (ja) 情報通信システム
JP2020064426A (ja) コミュニケーションシステム及びプログラム
CN108933891A (zh) 拍照方法、终端及系统
JPWO2019026919A1 (ja) 画像処理システム、画像処理方法、及びプログラム
JP6708865B2 (ja) 顧客応対システム及び顧客応対方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151208

R151 Written notification of patent or utility model registration

Ref document number: 5854806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151