JP5646716B2 - 映像表示装置及び映像表示方法 - Google Patents

映像表示装置及び映像表示方法 Download PDF

Info

Publication number
JP5646716B2
JP5646716B2 JP2013210685A JP2013210685A JP5646716B2 JP 5646716 B2 JP5646716 B2 JP 5646716B2 JP 2013210685 A JP2013210685 A JP 2013210685A JP 2013210685 A JP2013210685 A JP 2013210685A JP 5646716 B2 JP5646716 B2 JP 5646716B2
Authority
JP
Japan
Prior art keywords
face
image
dictionary
captured
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013210685A
Other languages
English (en)
Other versions
JP2014013617A (ja
Inventor
恵美 川島
恵美 川島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013210685A priority Critical patent/JP5646716B2/ja
Publication of JP2014013617A publication Critical patent/JP2014013617A/ja
Application granted granted Critical
Publication of JP5646716B2 publication Critical patent/JP5646716B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明の実施形態は、映像表示装置及び映像表示方法に関する。
従来より、裸眼立体映像表示装置における視聴者に対する立体視可能な領域の調整や、音響機器における受聴者に対するスピーカの向きの調整においては、視聴者や受聴者の位置情報を用いて調整するようにしている。
従来では、このような視聴者や受聴者の位置情報を取得するには、カメラで撮影した視聴者や受聴者の撮影画像上の顔の特徴点(顔幅、両目の間隔など)を検出し、特徴点間の距離を計算する。そして、撮影画像上の特徴点間の距離及び予め準備された平均的な特徴点間の距離に基づきピンホールカメラモデルの透視投影法を用いることにより、実際の視聴者や受聴者の位置座標を計算するようにしている。
さて利用者の顔を検出できる装置が増えている。
特許文献1によると、予め人がいない背景画像を撮影し、背景画像との差分から人を検出し、顔部分をエッジ検出から推定してから肌色検出により求める。しかし、顔部分をエッジ検出から推定することは、カメラ画像の解像度、ノイズの影響を受けて、困難である。この顔部分の検出精度が低いと、肌色検出による顔検出も精度が劣る。
顔を検出する方法として、本願と同一の出願人による特許文献2である特開2004−246618号の技術がある。さまざまな顔画像を見本画像として、見本画像から見本確率画像を予め作成し、この見本確率画像とカメラ画像を照合して、顔を検出する方法である(以後、見本確率画像を顔辞書と呼び、この検出方法を顔辞書顔検出方法と呼ぶ)。これは、安定的に顔を検出できるが、顔以外も検出する場合がある。例えば、壁にかけられた顔写真や、顔に似た模様などである。しかし、これらを除去する方法はない。
顔を追従する際に、顔特徴量だけを利用すると、追従に一時的に失敗することがある。これは、マッチングに正面向きの顔を必要とするためであり、取得する画像の全ての顔向きに対応することは計算量が増大して困難である。顔追従に失敗すると、新規に顔検出をする必要がある。しかし、顔検出する度に視聴者を識別する識別子を割り当て、視聴者を区別する仕組みを持つ装置において、一時的な顔の動きで顔追従ができなくなり、新しい識別子を割り当てられることは非常に不便である。
即ち、このような周囲環境の変動や顔の動きがある場合にも、よりロバストな顔検出や顔追従の技術への要望があるが、かかる要望を実現するための手段は知られていない。
特開2005−92262号公報 特開2004−246618号公報
本発明の実施の形態は、周囲環境の変動や顔の動きがある場合にも、よりロバストな顔検出の技術を提供することを目的とする。
上記課題を解決するために、実施形態によれば映像表示装置は、撮像装置で撮影した画像を取得する画像取得部と、前記画像取得部が取得した撮影画像から、人物の顔辞書の顔パターンと一致する場所を探す顔辞書顔検出部と、前記顔パターンの特徴量を元に顔を追従する顔追従部と、前記顔追従部による顔追従が失敗した時、現在の撮影画像と予め取得した背景画像との差分が一定以上であれば、直前の追従に成功した時刻の撮影画像での顔位置座標を顔追従に利用する顔判定部とを備える。
実施形態のデジタルテレビジョンの一例を示す外観斜視図。 デジタルテレビジョンの信号処理系を示すブロック図。 同実施形態の顔位置座標取得部の機能ブロック図。 同実施形態のカメラ画像と顔座標の例を示す説明図。 同実施形態に用いられる顔検出・顔追従部処理のフローチャート。 同実施形態の参照画像取得処理のフローチャート。 同実施形態に用いられる顔検出部処理のフローチャート。
以下、実施形態を図1乃至図7を参照して説明する。
図1は、実施形態にかかる電子機器であるデジタルテレビジョン1の一例を示す外観斜視図である。図1に示すように、デジタルテレビジョン1は、前方から見た正面視(前面に対する平面視)で、長方形状の外観を呈している。デジタルテレビジョン1は、筐体2と、LCD(Liquid Crystal Display)パネル等の表示部3を備えている。表示部3は、後述する映像処理部20(図2参照)から映像信号を受け取り、静止画や動画等の映像を表示する。また、筐体2は、支持部4に支持されている。
図2は、デジタルテレビジョン1の信号処理系を示すブロック図である。なお、このデジタルテレビジョン1は、立体画像出力装置として機能するものであって、通常の平面視(2次元)表示用の映像信号に基づく映像表示を行なうだけでなく、立体視(3次元)表示用の映像信号に基づく映像表示も行なうことができる。また、デジタルテレビジョン1は、裸眼で立体映像を視聴可能なものである。
図2に示すように、デジタルテレビジョン1は、アンテナ12で受信したデジタルテレビジョン放送信号を、入力端子13を介して受信手段であるチューナ部14に供給することにより、所望のチャンネルの放送信号を選局することが可能になっている。デジタルテレビジョン1は、チューナ部14で選局された放送信号を、復調復号部15に供給してデジタルの映像信号及び音声信号等に復元した後、入力信号処理部16に出力する。なお、本実施の形態のデジタルテレビジョン1においては、デジタルテレビジョン放送信号を受信する受信手段であるチューナを3台有している場合(2台は地上デジタル放送受信用のチューナA141、チューナB142、他の1台はBS/CSデジタル放送受信用のチューナC143)を例にとって説明する。
入力信号処理部16は、復調復号部15から供給されたデジタルの映像信号及び音声信号に対してそれぞれ所定のデジタル信号処理を施す。
入力信号処理部16は、通常の平面視(2次元)表示用の映像信号(入力映像)を立体視(3次元)表示用の映像信号に変換する立体画像変換処理を行う立体画像変換部160を備えている。
また、入力信号処理部16は、チューナ部14で選局された放送信号から番組名、出演者、開始時刻などのイベント情報を記述したテーブルであるEIT(Event Information Table)を分離する。入力信号処理部16で分離されたEITは、番組表データとして制御部23に入力される。EITには、番組にかかるイベント情報である番組のタイトル情報やジャンル情報、出演者情報などの放送内容、放送日時などの番組に関連する情報が含まれている。
また、入力信号処理部16は、デジタルの映像信号を合成処理部17に出力し、デジタルの音声信号を音声処理部18に出力している。このうち、合成処理部17は、入力信号処理部16から供給されるデジタルの映像信号に、OSD(On Screen Display)信号生成部19で生成される字幕、GUI(Graphical User Interface)、OSDなどの重畳用映像信号であるOSD信号を重畳して出力している。この場合、合成処理部17は、入力信号処理部16から供給される映像信号にOSD信号生成部19から供給されたOSD信号をそのまま重畳して出力している。
デジタルテレビジョン1は、合成処理部17から出力したデジタルの映像信号を、映像処理部20に供給する。映像処理部20は、入力されたデジタルの映像信号を、出力部として機能する表示部3で表示可能なフォーマットのアナログ映像信号に変換している。デジタルテレビジョン1は、映像処理部20から出力されたアナログ映像信号を、表示部3に供給して映像出力に供する。
音声処理部18は、入力されたデジタルの音声信号を、後段のスピーカ22で再生可能なフォーマットのアナログ音声信号に変換している。そして、この音声処理部18から出力されたアナログ音声信号が、スピーカ22に供給されることにより音声再生に供される。
図2に示すように、上述した合成処理部17と音声処理部18とOSD信号生成部19と映像処理部20とは、出力信号処理部21を構成している。
加えて、デジタルテレビジョン1は、図1に示すように、映像出力部として機能する表示部3の近傍に撮像装置であるカメラ装置37を搭載している。このカメラ装置37は、デジタルテレビジョン1に対向する視聴者の顔を撮像可能な位置に設けられている。
ここで、デジタルテレビジョン1は、上記した各種の受信動作を含むその全ての動作を制御部23によって統括的に制御している。この制御部23は、CPU(Central Processing Unit)23aを内蔵しており、デジタルテレビジョン1の本体に設置された操作装置である操作部24からの操作情報を受けて、または、操作装置であるリモートコントローラ25から送出され受信部26で受信した操作情報を受けて、その操作内容が反映されるように各部をそれぞれ制御している。
また、制御部23は、メモリ部23bを内蔵している。メモリ部23bは、主として、CPU23aが実行する制御プログラムを格納したROM(Read Only Memory)と、該CPU23aに作業エリアを提供するためのRAM(Random Access Memory)と、各種の設定情報、制御情報及び操作部24やリモートコントローラ25からの操作情報等が格納される不揮発性メモリとを有している。
また、制御部23には、ディスクドライブ部27が接続されている。ディスクドライブ部27は、例えばDVD(Digital Versatile Disk)等の光ディスク28を着脱自在とするもので、装着された光ディスク28に対してデジタルデータの記録再生を行なう機能を有している。
制御部23は、視聴者による操作部24やリモートコントローラ25の操作に基づいて、復調復号部15から得られるデジタルの映像信号及び音声信号を、記録再生処理部29によって暗号化し所定の記録フォーマットに変換した後、ディスクドライブ部27に供給して光ディスク28に記録させるように制御することができる。
また、制御部23は、視聴者による操作部24やリモートコントローラ25の操作に基づいて、ディスクドライブ部27により光ディスク28からデジタルの映像信号及び音声信号を読み出させ、上記記録再生処理部29によって復号化した後、入力信号処理部16に供給することによって、以後、上記した映像表示及び音声再生に供させるように制御することができる。
制御部23には、HDD(Hard Disk Drive)30が接続されている。制御部23は、視聴者による操作部24やリモートコントローラ25の操作に基づいて、復調復号部15から得られるデジタルの映像信号及び音声信号を、記録再生処理部29によって暗号化し所定の記録フォーマットに変換した後、HDD30に供給してハードディスク30aに記録させるように制御することができる。
また、制御部23は、視聴者による操作部24やリモートコントローラ25の操作に基づいて、HDD30によりハードディスク30aからデジタルの映像信号及び音声信号を読み出させ、記録再生処理部29によって復号化した後、入力信号処理部16に供給することによって、以後、上記した映像表示及び音声再生に供させるように制御することができる。
また、HDD30は、ハードディスク30aに各種データを記憶することにより、背景画像バッファ301および顔検出履歴データ304として機能する。このうち人物データベース(人物DB)として機能する顔検出履歴データ304は、後述する特徴点間距離(例えば、顔幅)および顔特徴点座標(例えば、顔の輪郭の座標情報)を視聴者IDごとに対応付けて記憶する。
さらに、デジタルテレビジョン1には、入力端子31が接続されている。入力端子31は、デジタルテレビジョン1の外部からデジタルの映像信号及び音声信号を直接入力するためのものであり、LAN端子、USB端子、HDMI(登録商標)端子などである。この入力端子31を介して入力されたデジタルの映像信号及び音声信号は、制御部23の制御に基づいて、記録再生処理部29を介した後、入力信号処理部16に供給されて、以後、上記した映像表示及び音声再生に供される。
また、入力端子31を介して入力されたデジタルの映像信号及び音声信号は、制御部23の制御に基づいて、記録再生処理部29を介した後、ディスクドライブ部27による光ディスク28に対しての記録再生や、HDD30によるハードディスク30aに対しての記録再生に供される。
なお、制御部23は、視聴者による操作部24やリモートコントローラ25の操作に基づいて、ディスクドライブ部27とHDD30との間で、光ディスク28に記録されているデジタルの映像信号及び音声信号をハードディスク30aに記録したり、ハードディスク30aに記録されているデジタルの映像信号及び音声信号を光ディスク28に記録したりすることも制御している。
また、制御部23には、ネットワークインタフェース32が接続されている。このネットワークインタフェース32は、入出力端子33を介して外部のネットワーク34に接続されている。そして、このネットワーク34には、当該ネットワーク34を介した通信機能を利用して各種のサービスを提供するためのネットワークサーバ35,36が接続されている。このため、制御部23は、ネットワークインタフェース32、入出力端子33及びネットワーク34を介して、所望のネットワークサーバ35,36にアクセスして情報通信を行なうことにより、そこで提供しているサービスを利用することができるようになっている。なお、ネットワークインタフェース32は、入出力端子33を介してSDメモリーカードやUSB機器が接続されるものであっても良い。
さて図3に、カメラ画像から顔位置を出力する顔位置座標取得部の機能ブロック図を示す。この顔位置座標取得部23は、CPU23aやメモリ部23bを用いた制御部23の機能として在り、カメラ付きのテレビなど音響装置や監視カメラなど、カメラ画像中の顔の座標位置を取得することを目的としている。
本実施形態は、特許文献2の弱点である多様な顔(向き、照明など)に対応できない点を、背景/参照差分の利用を併用することで改善するものである。
制御部23は、CPU23aが制御プログラムに従って動作することによって、位置座標検出装置として機能するものであって、図3に示すように画像制御部230の他、画像取得部231と、顔辞書顔検出部233と、顔追従部237と、位置座標検出を行う顔判定部238とを実現する。次に、各部の機能について概略的に説明する。
画像取得部231は、カメラ装置37が撮影した映像から撮影画像を取得する。デジタルテレビジョン1は、画像制御部230の制御によってカメラ装置37で撮影された撮影画像を、顔追従部237および顔辞書顔検出部233に送る。
カメラ(装置)37によって、室内を撮影し、撮影されたカメラ画像は画像取得部231に入力される。画像取得部231によって、カメラ画像は顔を判別しやすいように画像処理を施される。背景画像バッファ301には背景/参照画像を格納する。顔辞書顔検出部233ではカメラ画像をスキャンしながら顔辞書の顔パターンと一致する場所を探す。この顔辞書顔検出部233の動作は、特許文献2 が代表例である。顔追従部237では顔が検出された位置から一定範囲内で顔部分を顔の特徴量(目・鼻・口の座標値)を元に顔を追従する。顔判定部238では、背景/参照画像とカメラ画像の差分を評価し、顔検出精度向上と追従性能の強化に利用し、顔位置座標を出力する。
再び図3を利用して、具体的に説明する。なお図3において実線の矢印はデータの流れをまた破線の矢印は制御関係を表現している。
装置を起動した時には、最初に顔検出を開始する。画像制御部230によって、カメラからの画像データを画像取得部231で取得の後、SW_A の1 をON にする。顔検出履歴データ304には、現在の時刻から一定時間だけ過去の時刻までの顔位置座標が保存されている。顔検出履歴データ304を参照し、顔履歴がない場合はSW_Bの2 をON にして顔辞書顔検出部233で顔検出を行う。ここで、顔辞書顔検出部233の顔検出は、正常に顔検出できる場合と、誤って検出される場合がある。顔辞書顔検出部233で得られた顔位置座標には、視聴者の顔による正しい顔座標と、壁の模様や写真などの影響によって誤検出された顔座標とがある。背景画像バッファ301に格納されている参照画像を利用して、顔判定部238で誤検出された顔座標を除去する。
背景/参照画像は二つの方法で取得される。
第一の方法は、人がいないことを検出し、その時にカメラが撮影した画像を利用する。この画像を、本特許での背景画像と定義する。人がいないことは、数フレーム連続に撮影して、画像の差分が極僅かなことで検出することができる。この背景画像の撮影は一定時間おきに実施し、撮影時間と背景画像を対応付けることで、顔検出を行っている時間と近い時間帯の背景画像を利用できるようにされている。
第二の方法は、毎フレームまたは数フレームおきに、画像を取得する方法である。これの画像を、本特許での参照画像と定義する。取得した背景/参照画像を背景画像バッファ301に格納する際には、図3のSW_A の2 をON にする。
誤検出された顔座標が正しい座標であるか顔判定部238で判定を行う。背景画像バッファ301から第一の方法で取得した背景画像を使い、顔辞書顔検出部233から得られた顔座標及び顔幅から得られる顔エリアを背景画像中の同一エリアと比較する。
ここで、差分が一定以下であれば、背景上の模様を顔として検出した誤検出である。逆に、差分が一定以上あれば顔であると判定する。差分比較は、エリア内の同じ位置の画素の差分の比較でもよいし、エリア内での統計データ値(ヒストグラム、最大値、最小値、平均値など)の比較でも構わない。
ここで、一定以下の差分とは、カメラノイズや光の影響だけによる差分量であり、差分が一定以下の場合、画像上の静止物だと判定できる。逆に、一定以上の差分とは、瞬き、呼吸による振動など人が静止していても発生する動きによる差分量を示すことになるため、人物であると判定できる。この闘値は、画像取得の方法、撮影画像のS/ N 、カメラの光学的特性などと合わせて決定される。
顔が検出されると、顔追従部237が作動する。画像制御部230によって、カメラ37からの画像データを画像取得部231で取得の後、SW_A の1 をON し、顔検出履歴データ304を参照する。ここで、顔履歴がある場合はSW_B の1 をON にして、顔追従部237で顔追従を行う。顔追従を成功した場合には顔座標及び、顔幅を顔判定部238へ入力する。一方、顔追従を失敗した場合には、失敗したことを顔判定部238に入力する。顔追従に失敗した場合、顔判定部238で背景画像バッファ301で格納された背景/参照画像を利用し、顔追従を補完する。
ここで、顔追従の補完について、説明する。
まず、第一の方法によって背景画像を取得した場合で説明する。顔追従を失敗した時、現在の撮影画像と、背景画像とを比較し、この差分が一定以上であれば、顔追従に一時的に失敗したとみなす。そして、直前の追従に成功した時刻の撮影画像での顔位置座標を利用する。ここで、一定以上の差分とは、人がいない背景画像と人とを区別することができる差分量である。
次に、第二の方法によって参照画像を取得した場合で説明する。顔追従を失敗した時、現在の撮影画像と、直前の追従に成功した時刻の撮影画像と、差分を比較し、差分が一定以上である部分を計算する。
差分が一定以上の部分に先の追従に成功した時の顔座標が含有される場合には、顔追従を一時的に失敗したと判定し、直前の追従に成功した時刻の撮影画像での顔位置座標を利用する。つまり、この差分が一定以上である箇所は、人が動いている部分を示し、この差分が一定以下である箇所は、背景であると判定できる。この差分比較は、エリア内の同じ位置の画素の差分の比較でもよいし、エリア内での統計データ値(ヒストグラム、最大値、最小値、平均値など)の比較でも構わない。
以上を画像制御部230を処理の主体とするフローチャートで説明する。まず図5は、実施形態に用いられる顔検出・顔追従部処理のフローチャートである。
ステップS51:カメラ37から画像を取得する。
ステップS52:顔検出履歴データ304に顔履歴データはあるか判定する。
ステップS53:この判定でNoの場合は顔辞書顔検出部233で顔検出を行ないステップS55へ進む。
ステップS54:ステップS53でYesの場合は顔追従部237で顔追従を行う。
ステップS55:顔辞書顔検出部233、もしくは顔追従部237より入力された顔位置座標、顔幅から顔判定部238で背景/差分画像をもとに、誤検出された顔を除去し、顔追従に一時的に失敗したかを判定し、顔位置座標、顔幅を出力する。
ステップS56:何らかのエラーがある場合は処理を終了し、そうでない場合はステップS51に戻る。
図6は、同実施形態の背景/参照画像取得処理のフローチャートである。
ステップS61:画像取得時間か判定する。この判定でNoの場合は判定を繰り返す。
ステップS62:カメラ37から画像を取得する。
ステップS63:第一の方法によって背景画像を取得する場合には、動きのない映像か判定する。この判定でNoの場合はステップS61に戻る。第二の方法によって参照画像を取得する場合には、S63の判定は行わず、S64へ進む。
ステップS64:画像を背景画像バッファ301に保存する。
ステップS65:何らかのエラーがある場合は処理を終了し、そうでない場合はステップS61に戻る。
図7は、実施形態に用いられる顔検出部処理のフローチャートである。
ステップS71:顔辞書顔検出部233で顔検出できたか判定する。この判定でNoの場合は判定を繰り返す。
ステップS72:顔検出履歴データ304を参照する。
ステップS73:一定時間内の情報か判定する。この判定でNoの場合は処理を終了する。
ステップS74:撮影画像と背景画像バッファ301に格納された背景画像の顔座標付近の差分を算出する。
ステップS75:しきい値判定により、差分がしきい値以上である場合に顔座標を出力する。
先行技術と比べた実施形態の効果として、特許文献2と合わせて、本実施形態を利用することにより、よりロバストな顔追従・顔検出が可能となる。
実施形態の概要として、カメラ付きTVにおいて、カメラ画像から視聴者の顔を検出する顔検出機能に加えて、参照画像との差分(背景差分)による顔検出を利用することで、ロバストに顔を検出・追従できる。背景/参照画像は、人がいない時にカメラが撮影した背景画像、または前時刻にカメラが撮影した参照画像を利用する。
(1.顔追従の強化)顔追従で視聴者の顔を見失ったとき、背景差分があるか判定し、背景差分がある場合には、顔追従部で見失う前の顔位置を利用する。
(2.顔検出の精度向上)顔検出部で顔を検出した場合に、背景差分がほぼゼロの場合には、顔検出の誤りとみなし、検出された顔位置を利用しない。
背景画像は、カメラ画像のフレーム差分が極小となった時にバッファに保存され、参照画像は毎フレームもしくは数フレームおきにバッファに保存される。背景画像の更新は、数時間おきに行い、背景画像を利用する際に利用時間帯と同じ時間帯の画像を利用する。
以上説明した実施例によれば、照明、顔向きなどによる顔画像の変動にロバストな顔追従ができる。また、顔ではないものを検出する誤検出を減らすことができる。
なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しない範囲で種々変形して実施することができる。
また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係わる構成要素を適宜組み合わせても良いものである。
23 位置座標検出装置(顔位置座標取得部)
230 画像制御部
231 画像取得部
233 顔辞書顔検出部
237 顔追従部
238 顔判定部

Claims (15)

  1. 撮像装置で撮影した撮影画像を取得する画像取得部と、
    前記画像取得部が取得した撮影画像を、顔辞書の顔パターンと比較し、一致する場所を顔位置として検出する顔辞書顔検出部と、
    前記顔辞書顔検出部で検出した顔位置を、前記顔パターンの特徴量を元に追従する顔追従部と、
    前記撮影画像と予め取得した背景画像と比較結果を用いて、前記顔追従部で追従している顔位置が正しい位置かを判定するものであって、前記顔追従部による顔追従が失敗し、かつ現在の撮影画像と前記背景画像との差分が一定以上である場合に、直前の追従に成功した時刻の撮影画像での顔位置を追従対象の顔位置とする顔判定部と
    を備えた映像表示装置。
  2. 更に前記撮影画像を前記背景画像として取得しバッファリングする背景画像バッファを備えた請求項1に記載の映像表示装置。
  3. 更に前記場所を探すための顔辞書に関する顔検出履歴データを備えた請求項1に記載の映像表示装置。
  4. 更に前記背景画像は前記撮影画像のフレーム単位で取得されバッファリングされる請求項2に記載の映像表示装置。
  5. 撮像装置で撮影した撮影画像を取得する画像取得部と、
    前記画像取得部が取得した撮影画像を、顔辞書の顔パターンと比較し、一致する場所を顔位置として検出する顔辞書顔検出部と、
    前記顔辞書顔検出部で検出した前記顔位置を、前記顔パターンの特徴量を元に追従する顔追従部と、
    前記撮影画像とこの撮影画像よりも前に取得した参照画像と比較結果を用いて、前記顔追従部で追従している顔位置が正しい位置かを判定するものであって、前記顔追従部による顔追従が失敗し、かつ現在の撮影画像と前記参照画像との差分が一定以上の部分に直前の追従に成功した時刻の撮影画像での顔位置を含む場合、当該位置を顔位置とする顔判定部と
    を備えた映像表示装置。
  6. 撮像装置で予め撮影した背景画像を取得する工程と、
    前記撮像装置で撮影した現在の撮影画像を取得する画像取得工程と、
    取得した現在の撮影画像を、顔辞書の顔パターンと比較し、一致する場所を顔位置として検出する顔辞書顔検出工程と、
    前記顔辞書顔検出工程で検出した前記顔位置を、前記顔パターンの特徴量を元に追従する顔追従工程と、
    前記撮影画像とこの撮影画像よりも前に取得した背景画像と比較結果を用いて、前記顔追従工程で追従している顔位置が正しい位置かを判定するものであって、顔追従が失敗し、かつ現在の撮影画像と予め取得した背景画像との差分が一定以上である場合に、直前の追従に成功した時刻の撮影画像での顔位置を追従対象の顔位置とする工程と
    を含んだ映像表示方法。
  7. 更に前記撮影画像を前記背景画像として取得しバッファリングする背景画像バッファ工程を有する請求項6に記載の映像表示方法。
  8. 更に前記場所を探すための顔辞書に関する顔検出履歴データを有する請求項6に記載の映像表示方法。
  9. 更に前記背景画像を前記撮影画像のフレーム単位で取得しバッファリングする請求項7に記載の映像表示方法。
  10. 撮像装置で予め撮影した背景画像を取得する工程と、
    前記撮像装置で撮影した現在の撮影画像を取得する画像取得工程と、
    取得した現在の撮影画像を、顔辞書の顔パターンと比較し、一致する場所を顔位置として検出する顔辞書顔検出工程と、
    前記顔辞書顔検出工程で検出した前記顔位置を、前記顔パターンの特徴量を元に追従する顔追従工程と、
    前記撮影画像とこの撮影画像よりも前に取得した参照画像との比較結果を用いて、前記顔追従工程で追従している顔位置が正しい位置かを判定するものであって、顔追従が失敗し、かつ現在の撮影画像と前記参照画像との差分が一定以上の部分に直前の追従に成功した時刻の撮影画像での顔位置を含む場合に、当該位置を顔位置とする顔判定工程と
    を含んだ映像表方法。
  11. コンピュータを、
    撮像装置で撮影した撮影画像を取得する画像取得部と、
    前記画像取得部が取得した撮影画像を、顔辞書の顔パターンと比較し、一致する場所を顔位置として検出する顔辞書顔検出部と、
    前記顔辞書顔検出部で検出した前記顔位置を、前記顔パターンの特徴量を元に追従する顔追従部と、
    前記撮影画像と予め取得した背景画像との比較結果を用いて、前記顔追従部で追従している顔位置が正しい位置かを判定するものであって、前記顔追従部による顔追従が失敗し、かつ現在の撮影画像と前記背景画像との差分が一定以上である場合に、直前の追従に成功した時刻の撮影画像での顔位置を追従対象の顔位置とする顔判定部
    として機能させるプログラム。
  12. 更に前記撮影画像を前記背景画像として取得しバッファリングする背景画像バッファとして前記コンピュータを機能させる請求項11に記載のプログラム。
  13. 更に前記場所を探すための顔辞書に関する顔検出履歴データを備えた請求項11に記載のプログラム。
  14. 更に前記背景画像は前記撮影画像のフレーム単位で取得されバッファリングされる請求項12に記載のプログラム。
  15. コンピュータを、
    撮像装置で撮影した撮影画像を取得する画像取得部と、
    前記画像取得部が取得した撮影画像を、顔辞書の顔パターンと比較し、一致する場所を顔位置として検出する顔辞書顔検出部と、
    前記顔辞書顔検出部で検出した前記顔位置を、前記顔パターンの特徴量を元に追従する顔追従部と、
    前記撮影画像とこの撮影画像よりも前に取得した参照画像との比較結果を用いて、前記顔追従部で追従している顔位置が正しい位置かを判定するものであって、前記顔追従部による顔追従が失敗し、かつ現在の撮影画像と前記参照画像との差分が一定以上の部分に直前の追従に成功した時刻の撮影画像での顔位置を含む場合に、当該位置を顔位置とする顔判定部
    として機能させるプログラム。
JP2013210685A 2013-10-08 2013-10-08 映像表示装置及び映像表示方法 Expired - Fee Related JP5646716B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013210685A JP5646716B2 (ja) 2013-10-08 2013-10-08 映像表示装置及び映像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013210685A JP5646716B2 (ja) 2013-10-08 2013-10-08 映像表示装置及び映像表示方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012150024 Division 2012-07-03 2012-07-03

Publications (2)

Publication Number Publication Date
JP2014013617A JP2014013617A (ja) 2014-01-23
JP5646716B2 true JP5646716B2 (ja) 2014-12-24

Family

ID=50109216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013210685A Expired - Fee Related JP5646716B2 (ja) 2013-10-08 2013-10-08 映像表示装置及び映像表示方法

Country Status (1)

Country Link
JP (1) JP5646716B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114356088B (zh) * 2021-12-30 2024-03-01 纵深视觉科技(南京)有限责任公司 一种观看者跟踪方法、装置、电子设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5106356B2 (ja) * 2008-11-17 2012-12-26 セコム株式会社 画像監視装置
JP5247569B2 (ja) * 2009-04-09 2013-07-24 富士フイルム株式会社 人物追跡装置、人物追跡方法及びプログラム
JP2012080251A (ja) * 2010-09-30 2012-04-19 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2014013617A (ja) 2014-01-23

Similar Documents

Publication Publication Date Title
KR102465227B1 (ko) 영상 음향 처리 장치 및 방법, 및 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체
US8836760B2 (en) Image reproducing apparatus, image capturing apparatus, and control method therefor
US8654131B2 (en) Video image processing apparatus and video image processing method
US9380206B2 (en) Image processing apparatus that combines images
JP2007220004A (ja) テレビおよび認証装置
CN106470313B (zh) 影像产生系统及影像产生方法
US20190098250A1 (en) Information processing apparatus, imaging apparatus, information processing method, and recording medium
JP2007212664A (ja) 液晶表示装置
JP2013172446A (ja) 情報処理装置、端末装置、撮像装置、情報処理方法、及び撮像装置における情報提供方法
US20120212606A1 (en) Image processing method and image processing apparatus for dealing with pictures found by location information and angle information
JP5646716B2 (ja) 映像表示装置及び映像表示方法
EP2682895A2 (en) Video display apparatus and video display method
JP6295442B2 (ja) 画像生成装置、撮影装置、画像生成方法及びプログラム
JP5121999B1 (ja) 位置座標検出装置、位置座標検出方法および電子機器
US20170324921A1 (en) Method and device for displaying multi-channel video
JP6314321B2 (ja) 画像生成装置、撮影装置、画像生成方法及びプログラム
US20160172004A1 (en) Video capturing apparatus
JP6295443B2 (ja) 画像生成装置、撮影装置、画像生成方法及びプログラム
JP2016036081A (ja) 画像処理装置、方法及びプログラム並びに記録媒体
JP2013115597A (ja) 画像処理装置
KR20240075182A (ko) 시선정보 기반 다시점 디스플레이 시스템 및 방법
KR20210029523A (ko) 3d 가상현실 영상에서 객체를 표시하는 방법 및 장치
JP2016201709A (ja) 撮像記録装置
JP2014127999A (ja) 顔検出装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141105

LAPS Cancellation because of no payment of annual fees