JP2010226656A - 情報処理装置、制御方法及びプログラム - Google Patents

情報処理装置、制御方法及びプログラム Download PDF

Info

Publication number
JP2010226656A
JP2010226656A JP2009074361A JP2009074361A JP2010226656A JP 2010226656 A JP2010226656 A JP 2010226656A JP 2009074361 A JP2009074361 A JP 2009074361A JP 2009074361 A JP2009074361 A JP 2009074361A JP 2010226656 A JP2010226656 A JP 2010226656A
Authority
JP
Japan
Prior art keywords
image
target object
information
recognized
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009074361A
Other languages
English (en)
Other versions
JP5279571B2 (ja
Inventor
Yoshihisa Tadokoro
善久 田處
Hidenori Kawai
秀紀 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009074361A priority Critical patent/JP5279571B2/ja
Publication of JP2010226656A publication Critical patent/JP2010226656A/ja
Application granted granted Critical
Publication of JP5279571B2 publication Critical patent/JP5279571B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】 一旦、撮像された注目対象物が、その後、撮像された画像からフレームアウトすると、依然として当該注目対象物が撮像視野の周辺に存在していても、表示画面上から、当該注目対象物が撮像視野の周辺に存在することを確認することができなかった。
【解決手段】 撮像手段により撮像された画像を表示手段に表示させる情報処理装置において、撮像された画像を順次、取得し、取得された画像から、注目対象物の画像を認識し、認識された注目対象物の画像を特定するための情報を保持し、一旦、認識された注目対象物の画像が、その後に取得された画像から認識されなくなった場合、撮像された画像と前記注目対象物を特定するための情報とを合成して表示手段に表示させる。
【選択図】 図2

Description

本発明は、注目対象物を識別する技術に関する。
従来、デジタルカメラ、ネットワークカメラ等において、予め登録された画像に基づいて、注目対象物を認識する技術が存在する。
また近年では、予め登録された個人の顔画像に基づいて、個人を認識する技術が存在する。尚、この技術を利用すると、個人を識別することが可能となる。
そして、特許文献1には、ネットワークカメラにおいて、予め登録された個人の顔画像に基づいて、個人が認識されている間は、ネットワークへの接続を継続し、個人が認識されなくなると、ネットワークへの接続を切断する技術が開示されている。
特開2000−152206号公報
しかしながら、例えば、ネットワークカメラを用いたテレビ会議システムにおいて、当該会議への出席者を確認したい場合、予め登録された出席者の顔画像に基づいて、出席者を認識することが困難な場合がある。
即ち、出席者の顔が、撮像された画像からフレームアウトしている場合である。
そして、このフレームアウトは、例えば、カメラに対してパン、チルト、ズームをした場合、出席者がカメラ視野外へ移動した場合によって発生する。
従って、出席者の顔が、撮像された画像からフレームアウトしている場合であっても、当該会議への出席を継続している場合がある。
そこで本発明は、カメラ視野外に存在しているために撮像された画像からフレームアウトしているが、当該カメラ周辺に存在する注目対象物を認識することを目的とする。
上記の課題を解決するために、本発明の情報処理装置は、撮像手段により撮像された画像を表示手段に表示させる情報処理装置であって、撮像された画像を順次、取得する取得手段と、取得された画像から、注目対象物の画像を認識する認識手段と、認識された注目対象物の画像を特定するための情報を保持する保持手段と、一旦、認識された注目対象物の画像が、その後に取得された画像から認識されなくなった場合、撮像された画像と前記注目対象物を特定するための情報とを合成して表示手段に表示させる制御手段とを有する。
本発明によれば、カメラ視野外に存在しているために撮像された画像からフレームアウトしているが、当該カメラ周辺に存在する注目対象物を認識することが可能となる。
第1の実施形態に係る装置の構成を示す図 ディスプレイ202が表示する画像の例、注目対象物に関する情報の例を示す図 消失した注目領域に対応する注目対象物の情報を、撮像された画像に付与する処理を示すフローチャート 画像に付与された注目対象物の情報を削除する処理を示すフローチャート 顔画像認識とフレームアウト判定の処理を示すフローチャート ディスプレイに表示される画面の例を示す図 図6の画像を表示するための処理を示すフローチャート
以下に図面を参照して本発明を実施するための形態について説明する。
(第1の実施形態)
図1(A)は第1の実施形態に係る情報処理装置を利用したテレビ会議システムの構成の一例を示す図である。
会議システムは、端末装置101、102、ネットワーク103によって構成される。尚、端末101、102は、インターネット等に代表されるネットワーク103に接続される。
また、本実施形態に係る情報処理装置は、端末装置101、102が備えるソフトウエアモジュールとして存在しても良く、専用の処理ユニットとして存在しても良い。
また、図1(A)においては、ネットワークに接続する端末装置を2つとしたが、3以上の端末装置を接続しても良い。
図1(B)は端末装置の構成の一例を示すハードウェアの構成図である。端末装置は、パーソナルコンピュータ(PC)201、ディスプレイ202、キーボード203、マウス204、カメラ205、スピーカ206、マイク207を備える。
また、端末装置は、不図示のタッチスクリーンを備えていてもよい。
以下、各要素について説明する。ディスプレイ202は、液晶ディスプレイ、プラズマディスプレイ、フロントプロジェクタ、リアプロジェクションテレビ等とその制御回路とによって構成され、TV会議の状況等を表示する。
図1(C)はPC201の構成の一例を示す機能ブロック図である。尚、図1(B)と同一の要素については、同符号を付し、その説明を省略する。
PC201は、中央処理装置(CPU)301、リードオンリメモリ(ROM)302、ランダムアクセスメモリ(RAM)303、内部記憶装置304またネットワークインターフェース(I/F)306を、入出力機器I/F307備える。
また、PC201は、ディスプレイI/F308、システムバス309を備え、ディスプレイ202、キーボード203、マウス204、カメラ205、スピーカ206、マイク207、ネットワーク103、外部記憶装置305と接続されている。
以下、各要素について説明する。CPU301は、端末装置全体を制御するためのプログラム、テレビ会議のためのプログラム等を読み込み、所定の処理を実行する。ROM302は、CPU301によって実行されるプログラムや固定的なデータを記憶する。
尚、ROM302は、ユーザが電気的に1度だけプログラムを書き込むことができるProgrammable ROM(PROM)であっても、記録された内容を書き換えることができないマスクROMであってもよい。
RAM303は、CPU301によって読み込まれたプログラムを展開し、CPU301に対して一時的なデータを蓄える記憶領域を提供する。
内部記憶装置304は、端末装置全体を制御するためのプログラム、テレビ会議のためのプログラム、固定的なデータ等を格納する。尚、内部記憶装置304は、例えば、ハードディスクドライブ(HDD)等である。
また、端末装置全体を制御するためのプログラム、テレビ会議のためのプログラム等はROM302に格納されていてもよい。尚、本発明に係る情報処理装置は、CPU301、RAM303、内部記憶装置304等が連動することによって実現される。
外部記憶装置305は、CPU301によって実行されるプログラムや固定的なデータを記憶し、例えば、FDドライブ、MOドライブ、CD−RWドライブ、DVD−RWドライブ、Blu−rayドライブ等によって構成される。
ネットワークI/F306は、イントラネット等のネットワークに接続するための通信制御を行う。尚、ネットワークI/F306は、例えば、無線LANやイーサーネットインタフェース等によって構成される。
入出力機器I/F307はマウス204、カメラ205等の機器からの信号の入力、当該機器に対する信号の出力を制御する。尚、入出力機器I/Fは、端末装置の操作及びデータ入力に用いられるものであれば、例えばリモコン等と接続する構成としても良い。
ディスプレイI/F308は、ディスプレイ307に表示する画像に対応する信号を出力する。システムバス309は、アドレス線、データ線、制御線、電源・グラウンド線等から構成され、PC201の各要素間のデータの入出力、電力の供給等を行う。
図2(A)は、カメラ205が撮像した画像を、ディスプレイ202が表示する場合の表示例を示す図である。尚、本実施例においては、端末装置101が備えるカメラが順次、撮像した画像を、端末装置102が備えるディスプレイが順次、表示するものとする。
図2(A)において、251、252、253は、予め登録された画像に基づいて認識された注目対象物を示す領域である。
尚、本実施形態において、領域251、252、253はそれぞれ、内部記憶装置304に予め記憶された人物A、B、Cの顔画像に基づいて認識された人物A、B、Cの顔領域とする。即ち、同時に複数の顔領域を認識することが可能である。
図2(B)は、カメラ205のカメラ視野外へ人物Cが移動した場合等において、カメラ205が撮像した画像を、ディスプレイ202が表示する場合の表示例を示す図である。尚、図2(B)と同一の要素については、同符号を付し、その説明を省略する。
図2(B)においては、内部記憶装置304に記憶された人物Cの顔画像263と、人物Cの氏名情報273と、カメラ205が撮像した画像とがディスプレイ202表示される。尚、顔画像263は、静止画像であり、氏名情報273は、テキストとする。
即ち、顔画像263、氏名情報273は、トリミング、注目対象物の移動等による注目対象物のフレームアウトに伴い、カメラ視野内に表示されてなくなった注目対象物に関する情報である。
図2(C)は、内部記憶装置304に記憶された注目対象物に関する情報を保持するテーブル280の一例を示す図である。
テーブル280には、注目対象物毎に、登録番号281、注目対象名282、画像特徴抽出データ284、音特徴抽出データ285、状態を示す情報286、位置情報287等が保持される。
登録番号281は、登録されている注目対象物毎に付与されているユニークでシーケンシャルな情報である。注目対象名282は、注目対象物の名称を示す情報であり、図2(B)のように氏名情報273を表示する場合に読み込まれる情報である。
画像データ283は、注目対象物の静止画像を示す情報であり、図2(B)のように顔情報263を表示する場合に読み込まれる情報である。
画像特徴抽出データ284は、カメラ205が撮像した画像において、注目対象物が表示されている領域を認識するときに用いる静止画像を示す情報であり、図2(B)のように顔画像263を表示する場合に読み込まれる情報である。
音特徴抽出データ285は、注目対象物が特徴的な音を発する場合に、その音を音声認識するための情報である。尚、注目対象物が人物である場合には、周知の話者認識のための情報に相当する。
状態を示す情報286は、カメラ視野内に注目対象物があるか、一旦、カメラ視野内にあった注目対象物が一時的にカメラ視野外にあるか、一旦、カメラ視野内にあった注目対象物が一定期間継続してカメラ視野外にあるかを示す情報である。
即ち、例えば、テレビ会議の場面において、注目対象物が人物の顔であると、状態を示す情報286は、顔領域がフレームインしているか、顔領域が一時的にフレームアウトしているか、注目対象物となる人物がテレビ会議に参加していないかを示す情報となる。
位置情報287は、カメラ205が撮像した画像において、注目対象物が表示されていると認識された領域の重心位置を示す座標情報である。尚、座標情報は、注目対象物が表示されていると認識された領域を特定する情報でれば、重心位置でなくともよい。
尚、テーブル280は、更に不図示の筆跡徴抽出データを保持してもよい。筆跡徴抽出データは、注目対象物が人物である場合、タッチスクリーンに対して入力された文字等が特定の人物によって入力された文字等であるか認識するための情報である。
また、テーブル280は、一旦、撮像された画像に含まれる注目対象物の情報を新たに保持することも可能である。すなわち、テーブル280は、随時更新可能であるものとする。
図3は、CPU301等によって実現される情報処理装置において、カメラ205が撮像した画像に、注目対象物として認識された領域(以下、注目領域とする。)が存在する場合において実行される処理を示すフローチャートである。
尚、この処理によって、少なくとも1つの注目領域がなくなると、当該注目領域として認識されていた注目対象物の情報を、カメラ205が撮像した画像に付与することが可能となる。また、本フローチャートにおいて、注目対象物は人物の顔とする。
まず、ステップS701において、CPU301は、カメラ205が撮像した画像から、少なくとも1つの注目領域がなくなったか否か判断する。尚、注目領域がなくなる場合とは、例えば、参加者の顔が、カメラ205のカメラ視野外へ移動した場合である。
また、注目領域がなくなる場合とは、例えば、カメラ205に対してパン、チルト、ズーム等の処理を実行した場合である。
ステップS701において、少なくとも1つの注目領域がなくなった場合、ステップS702の処理を実行し、少なくとも1つの注目領域がなくなっていない場合、ステップS701の処理を繰り返す。
ステップS702において、CPU301は、なくなった注目領域に対応する注目対象物のデータを読み込むために、テーブル280を参照する。
次に、ステップS703において、CPU301は、テーブル280に、なくなった注目領域に対応する注目対象物のデータが登録されているか否か判断し、注目対象物のデータが登録されている場合、ステップS704の処理を実行する。
一方、注目対象物のデータが登録されていない場合、ステップS701の処理を実行する。
ステップS704において、CPU301は、テーブル280から、なくなった注目領域に対応する注目対象物のデータを読み込む。尚、ここで読み込むデータとは、例えば、注目対象名282、画像データ283等の注目対象物を特定するための情報である。
次に、ステップS705において、CPU301は、なくなった注目領域が表示されていた位置に、別の注目対象物の注目領域が表示されているか否か判断し、別の注目対象物の注目領域が表示されている場合、ステップS706の処理を実行する。
一方、なくなった注目領域が表示されていた位置に、別の注目対象物の注目領域が表示されていない場合、ステップS707の処理を実行する。
ステップS706において、CPU301は、なくなった注目領域に対応する注目対象物のデータを表示する位置が、前述の別の注目対象物の注目領域の位置と重なることがないように、注目対象物のデータを表示する位置を変更する。
尚、位置の変更とは、例えば、予め設定された方向及び距離(縦方向に100ドット等)ずつ変更するものとする。
ステップS707において、CPU301は、ディスプレイ202に、なくなった注目領域に対応する注目対象物のデータを表示させる処理を実行する。
図4(A)は、CPU301等によって実現される情報処理装置において、少なくとも1つの注目領域がなくなり、当該注目領域として認識されていた注目対象物のデータが、撮像された画像に付与された場合において実行される処理を示すフローチャートである。
尚、この処理によって、撮像された画像に付与された注目対象物のデータが、ある条件を満たすとディスプレイ202に表示されなくなる。また、この処理においては、注目対象物が発する特徴的な音の情報を利用する。
まず、ステップS801において、CPU301は、マイク207を利用して音を取得する処理を実行する。
次に、ステップS802において、CPU301は、マイク207から取得された音に、なくなった注目領域に対応する注目対象物が特徴的に発する音が含まれているか検知し、特徴的な音が含まれていると判断された場合、ステップS803の処理を実行する。
尚、特徴的な音が含まれているか否か判断する処理は、注目対象物が人であり、特徴的に発する音が声である場合には、周知の話者認識の技術を利用して実現される。尚、話者認識においては、テーブル280に保持された音特徴抽出データ285を利用する。
一方、特徴的な音が含まれていないと判断された場合、ステップS801の処理を実行する。
ステップS803において、CPU301は、なくなった注目領域に対応する注目対象物が特徴的に発する音が認識されない期間が経過し、予め設定された期間を超えたか否か判断する。
尚、ステップS803において、特徴的な音が認識されない期間が、予め設定された期間を超えた場合、ステップS804の処理を実行し、予め設定された期間を超えていない場合、ステップS801の処理を実行する。
次に、ステップS804において、CPU301は、ディスプレイ202から、なくなった注目領域に対応する注目対象物のデータを消す処理を実行する。
この処理によって、カメラ視野内に存在していないが、当該カメラ周辺に存在する注目対象物を認識することが可能となる。また、カメラ視野内に存在しておらず、かつ当該カメラ周辺に存在していない可能性が高い注目対象物を認識することが可能となる。
また、図4(A)のフローチャートの処理においては、注目対象物が特徴的な発する音の情報を利用したが、注目対象物が人物である場合、タッチスクリーンに対して入力された文字等の情報を利用してもよい。
図4(B)は、CPU301等によって実現される情報処理装置において、入力された文字等が特定の人物によって入力された文字等であるか認識し、画像に付与された注目対象物のデータの表示を制御する処理を示すフローチャートである。
まず、ステップS811において、CPU301は、タッチスクリーンを利用して入力された文字等の情報を取得する処理を実行する。
次に、ステップS812において、CPU301は、タッチスクリーンから取得された文字等の情報に、なくなった注目領域に対応する人物が入力する文字の特徴が含まれているか否か判断する。
ステップS812において、特定の文字の特徴が含まれていると判断された場合、ステップS813の処理を実行する。
尚、特定の文字の特徴が含まれているか否か判断する処理は、周知の筆跡を認識する技術を利用して実現される。尚、筆跡の認識においては、テーブル280に保持された筆跡特徴抽出データを利用する。
一方、特定の文字の特徴が含まれていないと判断された場合、ステップS801の処理を実行する。
ステップS803において、CPU301は、なくなった注目領域に対応する注目対象物が入力する文字の特徴が認識されない期間が、予め設定された期間を超えたか否か判断する。
尚、ステップS803において、特徴的な文字が認識されない期間が、予め設定された期間を超えた場合、ステップS804の処理を実行し、予め設定された期間を超えていない場合、ステップS801の処理を実行する。
次に、ステップS804において、CPU301は、ディスプレイ202から、なくなった注目領域に対応する注目対象物のデータを消す処理を実行する。
この処理によって、カメラ視野内に存在していないが、当該カメラ周辺に存在する注目対象物を認識することが可能となる。また、カメラ視野内に存在しておらず、かつ当該カメラ周辺に存在していない可能性が高い注目対象物を認識することが可能となる。
また、図4(A)と図4(B)とに示された処理を併用して、カメラ視野内に存在していないが、当該カメラ周辺に存在する注目対象物を認識し、また、カメラ視野内に存在しておらず、かつ当該カメラ周辺に存在していない可能性が高い注目対象物を認識してもよい。
図5は、テレビ会議システムにおいて、端末装置が実行する顔画像認識とフレームアウト判定の処理を示すフローチャートの一例である。
まず、ステップS902において、端末装置101は、当該装置のカメラ205から画像データを取得する処理を実行する。次に、ステップS903の処理を実行する。
ステップS903において、端末装置101は、ステップS902で取得した画像をRAM303や外部記憶装置305に記憶する処理を実行する。次に、ステップS904の処理を実行する。
ステップS904において、端末装置101は、ステップS903で記憶したデータと予め保存してある画像データとを比較する処理を実行する。次に、ステップS905の処理を実行する。
ステップS905において、端末装置101は、ステップS904での比較結果に変化があるか否か判断し、変化があると判断した場合、ステップS906の処理を実行する。一方、変化がないと判断した場合、ステップS902の処理を実行する。
ステップS906において、端末装置101は、ステップS905で変化ありと判定された領域に、既にユーザがいると認識された領域があるか否かを判定し、既に認識済みである場合、ステップS907の処理を実行する。
一方、既に認識済みではない場合、ステップS909の処理を実行する。
ステップS907において、端末装置101は、認識済み領域からユーザがフレームアウトしたか否かを、予め保存してある画像データと取得された画像データとの差分に基づいて判断する。
ステップS907において、フレームアウトと判断された場合、ステップS908の処理を実行する。この処理は周知の動きを検出と同様の処理である。
ステップS908において、端末装置101は、図2(C)のテーブルに保持された状態を示す情報286をフレームインからフレームアウトに書き換える処理を実行する。次に、ステップS902の処理を実行する。
ステップS909において、端末装置101は、ステップS905で変化ありと判断された画像データに肌色のデータが一定領域含まれているか否か判断し、肌色のデータが一定領域含まれていれば、ステップS910の処理を実行する。
一方、ステップS909において、肌色のデータが一定領域含まれていない場合、ステップS902の処理を実行する。
ステップS910において、端末装置101は、ステップS909で肌色が含まれていると判断された領域に対して、顔画像認識を行う。次に、ステップS911の処理を実行する。
ステップS911において、端末装置101は、ステップS910で顔画像認識した結果が、図2(C)のテーブルに登録された人物であるか否か判断する。登録された人物であると判断された場合、ステップS912の処理を実行する。
一方、ステップS911において、登録された人物でないと判断された場合、ステップS902の処理を実行する。
ステップS912において、端末装置101は、新たな人物であるとして図2(C)のテーブルの状態を示す情報286を不参加からフレームインに書き換える。次に、ステップS902の処理を実行する。
(第2の実施形態)
図6はディスプレイに表示される画面の例を示した図である。領域1002は撮像された画像データから切り出して表示したい画像を示す領域とする。領域1003は切り出して表示したい画像に含まれない人物の顔の画像を示す領域である。
画像1004は、領域1002を切り出して表示した画像である。領域1005は切り出して表示した画像に含まれていない領域1003に相当する画像である。
第2の実施形態を実現する装置の構成は、第1の実施形態を実現する装置の構成と同一であるため、同符号を付し、その説明を省略する。
図7はテレビ会議システムにおいて、端末装置101が図6の画像を表示するための処理を示すフローチャートの一例である。
まず、ステップS1102において、端末装置101は、当該装置が備えるカメラ205から画像データを取得する。次に、ステップS1103の処理を実行する。
ステップS1103において、端末装置101は、ステップS1102で取得した画像の切り出し処理を行うか否かを判断する。切り出しを行う場合、ステップS1104の処理を実行し、切り出しを行わない場合、ステップS1108の処理を実行する。
ステップS1104において、端末装置101は、撮像された画像データから指定された領域の切り出し処理を実行する。次に、ステップS1105の処理を実行する。
ステップS1105において、端末装置101は、ステップS1104で切り出された画像データからフレームアウトする顔画像があるか否か判断し、フレームアウトする顔画像がある場合、ステップS1106の処理を実行する。
一方、ステップS1105において、フレームアウトする顔画像がない場合、ステップS1108の処理を実行する。
ステップS1106において、端末装置101は、撮像された画像データからフレームアウトする顔画像の領域を切り出す。次に、ステップS1107の処理を実行する。
ステップS1107において、端末装置101は、ステップS1104で切り出した画像データ及びステップS1106で切り出した顔画像データを合成する。次に、ステップS1108の処理を実行する。
ステップS1108において、端末装置101は、合成された画像データを他の端末装置(例えば、端末装置102)に画像圧縮をして送信する。次に、ステップS1109の処理を実行する。
ステップS1109において、端末装置101は、テレビ会議の終了を指示する信号が入力されたか否か判断し、終了を指示する信号が入力されたと判断された場合、一連の処理を終了し、テレビ会議を終了する。
一方、終了を指示する信号が入力されなかった場合、ステップS1102の処理を実行する。
(その他の実施形態)
また、本発明の目的は、以下の処理を実行することによって達成される。
即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。
この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。
また、プログラムコードを供給するための記憶媒体としては、次のものを用いることができる。例えば、CD−ROM、DVD+RW等である。または、プログラムコードは、ネットワークを介してプログラムコードをダウンロードしてもよい。
また、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。
101、102 端末装置
103 ネットワーク

Claims (7)

  1. 撮像手段により撮像された画像を表示手段に表示させる情報処理装置において、
    撮像された画像を順次、取得する取得手段と、
    取得された画像から、注目対象物の画像を認識する認識手段と、
    認識された注目対象物の画像を特定するための情報を保持する保持手段と、
    一旦、認識された注目対象物の画像が、その後に取得された画像から認識されなくなった場合、撮像された画像と前記注目対象物を特定するための情報とを合成して表示手段に表示させる制御手段とを有する情報処理装置。
  2. 更に、注目対象物が発した音を検知する検知手段とを有し、
    前記制御手段は、一旦、認識された注目対象物の画像が、その後に取得された画像から認識されなくなった状態から、予め設定された期間が経過するまでの間に前記注目対象物が発する音が検知されなかったとき、表示手段に表示させる画像を撮像された画像に置き換えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記注目対象物は、人物の顔であることを特徴とする請求項1または請求項2に記載の情報処理装置。
  4. 前記注目対象物が発した音は、人が発した声であることを特徴とする請求項2に記載の情報処理装置。
  5. 前記注目対象物を特定するための情報とは、少なくとも注目対象物を示す静止画像、注目対象物の名称を示すテキストのうちの1つであることを特徴とする請求項1乃至請求項4のいずれか1項に記載の情報処理装置。
  6. 撮像された画像を取得する取得手段と、取得された画像から、注目対象物の画像を認識する認識手段と、認識された注目対象物を特定するための情報を保持する保持手段とを有し、撮像手段により撮像された画像を表示手段に表示させる情報処理装置の制御方法であって、
    撮像された画像を順次、取得する取得工程と、
    取得された画像から、注目対象物の画像を認識する認識工程と、
    認識された注目対象物を特定するための情報を保持する保持工程と、
    一旦、認識された注目対象物の画像が、その後に取得された画像から認識されなくなった場合、撮像された画像と前記注目対象物を特定するための情報とを合成して表示手段に表示させる制御工程とを有する制御方法。
  7. 請求項6に記載の制御方法をコンピュータに実行させるためのプログラム。
JP2009074361A 2009-03-25 2009-03-25 情報処理装置、制御方法及びプログラム Active JP5279571B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009074361A JP5279571B2 (ja) 2009-03-25 2009-03-25 情報処理装置、制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009074361A JP5279571B2 (ja) 2009-03-25 2009-03-25 情報処理装置、制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2010226656A true JP2010226656A (ja) 2010-10-07
JP5279571B2 JP5279571B2 (ja) 2013-09-04

Family

ID=43043319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009074361A Active JP5279571B2 (ja) 2009-03-25 2009-03-25 情報処理装置、制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5279571B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002150317A (ja) * 2000-11-08 2002-05-24 Minolta Co Ltd 映像表示装置
JP2003023612A (ja) * 2001-07-10 2003-01-24 Mitsubishi Electric Corp 画像通信端末装置
JP2006293912A (ja) * 2005-04-14 2006-10-26 Toshiba Corp 情報表示システム、情報表示方法および携帯端末装置
JP2009042910A (ja) * 2007-08-07 2009-02-26 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002150317A (ja) * 2000-11-08 2002-05-24 Minolta Co Ltd 映像表示装置
JP2003023612A (ja) * 2001-07-10 2003-01-24 Mitsubishi Electric Corp 画像通信端末装置
JP2006293912A (ja) * 2005-04-14 2006-10-26 Toshiba Corp 情報表示システム、情報表示方法および携帯端末装置
JP2009042910A (ja) * 2007-08-07 2009-02-26 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Also Published As

Publication number Publication date
JP5279571B2 (ja) 2013-09-04

Similar Documents

Publication Publication Date Title
EP3540571B1 (en) Method and device for editing virtual scene, and non-transitory computer-readable storage medium
KR102023179B1 (ko) 듀얼 카메라를 포함하는 전자장치에서 듀얼 리코딩 촬영을 위한 방법 및 장치
JP4970302B2 (ja) 画像処理装置,画像処理方法及び撮像装置
WO2020107297A1 (zh) 视频剪辑控制方法、终端设备和系统
EP2811731B1 (en) Electronic device for editing dual image and method thereof
JP2011091571A (ja) 動画像作成装置及び動画像作成方法
US11120797B2 (en) Information processing terminal, information processing apparatus, and information processing method
KR20170061635A (ko) 인터페이스 표시방법, 장치, 프로그램 및 기록매체
WO2015142971A1 (en) Receiver-controlled panoramic view video share
JP5886479B2 (ja) 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体
EP2753094B1 (en) Method and apparatus for controlling contents in electronic device
US9848168B2 (en) Method, synthesizing device, and system for implementing video conference
US9154693B2 (en) Photographing control apparatus and photographing control method
JP6907721B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP5279571B2 (ja) 情報処理装置、制御方法及びプログラム
GB2513865A (en) A method for interacting with an augmented reality scene
JP6261191B2 (ja) 表示制御装置、表示制御方法、プログラム
JP2018005091A (ja) 表示制御プログラム、表示制御方法および表示制御装置
JP2005078572A (ja) 表示装置、画像処理装置、及び画像処理システム
JP2015136069A (ja) 映像配信システム、映像配信方法及び映像配信プログラム
JP2012065027A (ja) 撮像装置及び撮像装置の制御方法
JP2015170973A (ja) 画像処理装置及び画像処理方法
JP5055462B2 (ja) 画像処理装置,画像処理方法及び撮像装置
JP2010045539A (ja) 情報処理装置及びその制御方法
JP5517596B2 (ja) 撮影装置、撮影制御方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130521

R151 Written notification of patent or utility model registration

Ref document number: 5279571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151