JP2014209707A - 映像再生装置および映像再生方法 - Google Patents

映像再生装置および映像再生方法 Download PDF

Info

Publication number
JP2014209707A
JP2014209707A JP2013218554A JP2013218554A JP2014209707A JP 2014209707 A JP2014209707 A JP 2014209707A JP 2013218554 A JP2013218554 A JP 2013218554A JP 2013218554 A JP2013218554 A JP 2013218554A JP 2014209707 A JP2014209707 A JP 2014209707A
Authority
JP
Japan
Prior art keywords
video
size
image
person
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013218554A
Other languages
English (en)
Inventor
彰 松原
Akira Matsubara
彰 松原
前田 和彦
Kazuhiko Maeda
和彦 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2013218554A priority Critical patent/JP2014209707A/ja
Publication of JP2014209707A publication Critical patent/JP2014209707A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Abstract

【課題】入力された映像を加工することでカメラワークを考慮した迫力感等ある映像をユーザーに提示することのできる映像再生装置を提供する。
【解決手段】取得した映像を加工して再生する映像再生装置100であって、映像に登場する人物画像の時系列で変化する大きさおよび位置を検出する顔認識部220と、再生される映像に示される人物画像が所定の大きさとなるように、(i)検出された人物画像の位置の変化に応答して映像の一部の切り抜き範囲を決定し、かつ、(ii)切り抜き範囲に示される映像の一部である部分映像に対し、検出された人物画像の大きさの変化に応答して、拡大または縮小を行うことで、再生される映像を生成する生成部204と、生成部204により生成された映像を再生する映像再生部260とを備え、生成部204による切り抜き範囲の決定における応答時間は、部分映像の拡大または縮小における応答時間よりも長い。
【選択図】図2

Description

本発明は、取得した映像を加工して再生する映像再生装置に関する。
特許文献1は、画像処理装置を開示する。この画像処理装置は、入力画像の被写体の顔部分を検出し、抽出した顔部分の画像と、入力画像の一部を切り出して拡大または縮小した画像とを、合成させて表示させている。
また、特許文献2においては、入力画像から対象物の位置を取得し、対象物を、切り出し枠内に収める動画像編集装置が開示されている。
特開2010−81181号公報 特開2007−74503号公報
本開示は、入力された映像(動画像)に対して、被写体に対して適切な切り抜きを行い、拡大または縮小して表示させ、カメラワークを考慮した迫力感等ある映像をユーザーに提示することのできる映像再生装置を提供する。
上記課題を解決するために、本開示にかかる映像再生装置は、取得した映像を加工して再生する映像再生装置であって、前記映像に登場する人物画像の時系列で変化する大きさおよび位置を検出する検出部と、再生される映像に示される前記人物画像が所定の大きさとなるように、(i)検出された前記人物画像の位置の変化に応答して前記映像の一部の切り抜き範囲を決定し、かつ、(ii)前記切り抜き範囲に示される前記映像の一部である部分映像に対し、検出された前記人物画像の大きさの変化に応答して、拡大または縮小を行うことで、再生される映像を生成する生成部と、前記生成部により生成された映像を再生する再生部とを備え、前記生成部による前記切り抜き範囲の決定における応答時間は、前記部分映像の拡大または縮小における応答時間よりも長い。
本開示は、例えば家庭用ビデオカメラで撮影された映像に対して処理を行うことで、カメラワークを考慮した迫力感等ある映像をユーザーに提示することができる映像再生装置を提供できる。
実施の形態1における映像再生システムの全体構成図 実施の形態1におけるマイコンの機能構成を示すブロック図 映像再生装置が出力するサムネイルの例を示す図 実施の形態1における顔認識部の機能構成を示すブロック図 顔認識部の処理を説明するための顔データ等の模式図 マイコンが生成するGUIの一例を示す図 映像再生装置が映像を再生する際の動作の流れを示すフローチャート 再生先頭シーンの選択に用いられるサムネイルの例を示す図 映像再生装置が出力する効果選択画面の一例を示す図 映像再生装置が表示する人物選択画面の一例を示す図 映像再生装置が着目再生を行う場合の基本的な処理の流れの一例を示すフローチャート 実施の形態1における人物データ処理部の機能構成を示すブロック図 顔画像のサイズの時系列における変化の一例を示す図 フィルタを適用した後の顔画像のサイズの変化の一例を示す図 映像再生装置が出力する、着目再生における映像の一例を示す模式図 顔画像の位置の時系列における変化の一例を示す図 フィルタを適用した後の顔画像の位置の変化の一例を示す図 実施の形態2における人物データ処理部の機能構成を示すブロック図 実施の形態2の人物データ処理部におけるレベル判定後の顔画像の大きさの変化の一例を示す図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施の形態1)
本開示の実施の形態1における映像再生装置ついて図面を参照して説明する。
[映像再生システムの概要]
実施の形態1における、映像撮影および映像再生のシステムについて説明する。
図1は、実施の形態1における、映像カメラ500を備えた映像再生システムの全体構成図である。
図1において、映像カメラ500によって撮影された映像は、ネットワーク510を介して、サーバ520に映像データとして保存される。
映像再生装置100は、映像カメラ500で撮影された映像を取得し、映像を再生し、HDMI(登録商標)(High Definition Multimedia Interface)150を介して、テレビまたはタブレット端末などである映像表示装置800に表示する。
映像表示装置800は、HDMI(登録商標)150対応の信号入力部を有し、HDMI(登録商標)150を通じて入力された映像を画面に表示する。
サーバ520に保存された映像データは、ネットワーク510を介して映像再生装置100が有するLAN(Local Area Network)インターフェース530を介して、映像再生装置100のHDD(Hard Disck Drive)160(記録装置)に移動し、コピーされる。
当該記録装置としては、上述のHDD以外にも例えばメモリ装置を採用することができる。また、本実施の形態では、映像再生装置100に入力された映像はその格納する容量を少なくするために圧縮してHDD160に格納される。しかし、圧縮をせずに撮影したままの映像である、ベースバンドの信号である映像データとしてHDD160に記録されても構わない。
また、映像カメラ500を直接映像再生装置100にUSB接続し、撮影した映像データをUSBスロット110を通じて映像再生装置100に移動またはコピーすることもできる。また、SDカード170などの可搬型記録メディアに映像カメラ500を用いて映像データを記録し、映像再生装置100のSDカードスロット120を介して、SDカード170に記録された映像データが映像再生装置100に移動またはコピーされてもよい。
さらに、映像カメラ500で撮影された映像は、放送コンテンツとして提供され、チューナ190を介して映像再生装置100に受信され、映像再生装置100に保存されてもよい。また、映像カメラ500で撮影された映像は、光ディスクなどに記録され、BDドライブ130から入力されてもよい。
映像カメラ500で撮影された映像は、上述した様々な方法で、映像再生装置100のHDD160に映像データとして保存される。
映像再生装置100は、例えば、映像カメラ500、サーバ520、または、映像表示装置800と一体となったものでもよい。しかし、実施の形態1における映像再生システムでは、映像再生装置100は単独で存在するものとして説明する。
[映像再生装置100の構成]
映像再生装置100では、ユーザーに操作されるリモコン810から送信される指示を、赤外線受光部140が受け付ける。当該指示は赤外線受光部140を介して、内部のマイコン180に伝えられる。
マイコン180は、かかるユーザーの指示をもとに、HDD160に映像データを保存する、HDD160から映像データを取り出す、および、HDMI(登録商標)150に映像を出力する、などの処理が実行されるように、映像再生装置100の各ブロックの制御を行なう。
[マイコン180機能の構成]
図2は、実施の形態1におけるマイコン180の機能構成を示すブロック図である。つまり、図2では、マイコン180を機能ごとに、各ブロックに分離して記載している。
マイコン180は、映像再生装置100における主要な機能構成として、顔認識部220と、生成部204と、映像再生部260とを備える。以下に、マイコン180の具体的な構成および処理等を説明する。
HDD160に保存された映像データは圧縮されているため、デコーダ250によってベースバンドの動画像にデコードされ、HDMI(登録商標)150を介して、映像表示装置800に表示される。これにより、当該映像データは、再生された映像として鑑賞することが可能となる。映像は例えば毎秒30フレームの動画像として表示される。
なお、映像再生部260は、デコーダ250から得られる映像に対し、切り抜きおよび拡大等の加工を行ってHDMI(登録商標)150を介して出力することができる。映像再生部260による映像に対する加工の内容については後述する。
また、HDD160に保存された映像データは、再生される前にあらかじめ、デコーダ200によりデコードされ、さらに、映像間引き部210によって、数フレームごとに1枚のフレームが顔認識部220に入力される。
顔認識部220は、検出部の一例であり、映像データに示される映像に登場する人物の顔の、時系列で変化する位置および大きさを検出する。なお、顔認識部220による位置およびサイズの検出の対象となる、「顔」の画像は、人物画像の一例である。
顔認識部220はさらに、その顔を登場人物ごとに分類して、登場人物ごとの顔の位置および大きさを認識して、その顔の位置および大きさのデータ(顔認識データ)をメモリで構成されるデータベース230に格納する。なお、データベース230には、映像の再生時間(再生開始からの時刻)と登場人物との対応付けも格納される。
データベース230に格納された、登場人物ごとの顔認識データは、例えばユーザーの指示に応じて、人物データ処理部240によって処理され、デコーダ250によるデコードにより得られた映像を再生する映像再生部260にメモリ600を介して入力される。映像再生部260に入力されるデータは、対象情報の一例であり、生成部204における、入力映像からの部分映像の切り抜き、および、部分映像の拡大または縮小のための指標として用いられる。生成部204によるこのような処理により生成された映像は、映像再生部260で再生され、HDMI(登録商標)150を介して、映像表示装置800に表示される。
なお、本実施の形態では、再生される映像を生成する生成部204が、生成された映像を再生する映像再生部260に含まれているが、生成部204は、映像再生部260の外部の機能ブロックとして存在してもよい。
映像再生装置100のマイコン180はさらに、サムネイル生成部280およびサムネイル表示部290を有する。サムネイル生成部280は、デコーダ200でデコードされた映像から、データベース230に保存された顔認識データに従って、映像の区切り部分のフレームから得られる画像をサムネイルとして保存する。サムネイル表示部290は、そのサムネイルをHDMI(登録商標)150に送出することで、当該サムネイルを映像表示装置800に表示させる。
サムネイル生成部280は、映像の区切り位置でのフレームの全体画像を示すサムネイルと、顔認識部220で検出された顔を中心として、全体画像から切り抜いた人物サムネイルとを生成する。図3は、これらサムネイルを示す模式図である。
コントローラ270は、これらマイコン180に含まれる各部に対し、リモコン810を通じて受けたユーザーの指示に基づいた制御を行なう。コントローラ270は、ソフトウェアを解釈して実行するCPU(Central Processing Unit)などのプロセッサによって構成することができる。
図4Aは、顔認識部220の機能構成を示すブロック図である。図4Bは、顔認識部220の処理を説明するための顔画像のデータ(顔データ)等の模式図である。
図4Aにおいて、顔検出部300は、顔認識部220に入力された映像(ここでは画像(例えば1枚のフレーム)と呼ぶ)の中から、顔の特徴を持つ部分を探索する。顔検出部300用に、複数の大きさを持った顔データがメモリ310に格納されており、顔検出部300は、探索対象の画像全体をスキャンして、複数の顔データと比較することによって、顔の位置と大きさとを検出する。
探索対象の画像全体に渡って、スキャンして比較をするので、比較する顔データとして、例えば、縦、横のそれぞれの画素が、32画素x32画素の大きさ、および、48画素x48画素の大きさといった所定の大きさのデータが用いられる。顔検出部300は、これら顔データと、探索対象の画像との重ね合わせ位置をずらしながら、マッチング確認を行なっている。
図4Bにおいて、入力画像の模式図をA1として、顔の位置と大きさが検出された様子の模式図をA2として示している。A3は、比較に用いられる、互いに大きさの異なる複数の顔データの模式図である。
顔検出部300によって検出された顔から、個人の特徴を認識するための特徴量が、特徴量抽出部320によって抽出され、メモリ330に保存される。図4BにおけるA4は、A2から得られた顔の位置に対して、特徴量を抽出する位置を黒点で表した模式図である。
メモリ330に保存された特徴量データから、特徴量比較部340にて、過去の画像に登場して、その画像から検出された顔を持った人物(人物a)と照合を行なう。照合の結果、当該特徴量データに対応する顔が、過去に認識された人物aの顔と同じと判断した場合には、人物aの顔と認識し、人物aと異なる顔と判断した場合には、別の人物の顔として認識する。特徴量比較部340は、それぞれの人物ごとの顔のID(顔ID)を、検出された顔データ(A2)に付与する。
クラスタリング部350は、特徴量比較部340が付与した顔IDを統合し、動画特徴を使って、例えば一つ前の画像で同じ位置に認識された顔は、同一人物の顔であると判定するなど処理により、各顔データを、各人物の顔データに紐付けしてゆく。つまり、複数の顔データが類似度等に応じてクラスタリングされる。図4BにおけるA5は、クラスタリングされた複数の顔データ(顔画像)を表す模式図である。
クラスタリング部350はさらに、時間ごとの各人物の顔画像の位置およびサイズを示すデータ(顔認識データ)をデータベース230に保存する。
つまり、映像に登場する人物画像の時系列で変化する大きさおよび位置が検出され、検出された前記人物画像の大きさおよび位置を示すデータがデータベース230に保存される。
映像再生装置100では、このようにして、登場人物ごとの顔の位置および大きさを求め、入力画像ごと(入力映像に含まれるフレームごと)に、その登場人物ごとの顔の位置および大きさを顔認識データとしてデータベース230に蓄積してゆく。
この時系列に並べられた、一連の各人物の顔の位置およびサイズのデータをデータベース230に保存する作業をトラッキングと呼ぶ。
[再生コンテンツの選択動作の説明]
次に、データベース230に蓄積された顔認識データをもとに、映像を再生する動作について説明する。
図5は、マイコン180が生成するGUI(Graphical User Interface)の一例を示す図である。マイコン180が生成したGUIはHDMI(登録商標)150を通じて映像表示装置800で表示される。このGUIが映像表示装置800に表示されている間、映像再生装置100は、例えばユーザーによる再生指示をリモコン810から受ける。
図5において、各カラムB1〜B5は、HDD160に保存された映像コンテンツのタイトル(映像タイトル)の一覧を表示する。
各カラムには、タイトルC1、および、再生シーンを示すサムネイルD1が表示される。
当該GUIにおいて、ユーザーは、リモコン810の操作によって、再生タイトルを選択することが可能であり、カラムB3のように、選択されたカラムは、例えば拡大して表示されるなど、強調表示される。
各カラムにおける1以上のサムネイルD1は、当該カラムの映像コンテンツの全体図を表示している。
具体的には、顔認識部220によって、検出および認識された結果に基づき、1つの映像コンテンツの中において、複数の人物のそれぞれが最初に登場するごとに、当該人物を含むサムネイルD1が、サムネイル生成部280によって生成される。また、生成されたサムネイルD1のそれぞれは、時系列で並べられて、当該映像コンテンツに対応するカラムに表示される。
このようにして、ユーザーは各映像コンテンツの中で、人物が始めて登場するシーンをサムネイルD1で知ることができ、それを選択して再生することができる。このように、ユーザーは、図5に示したGUI画面をたよりに、映像コンテンツの再生の指示、つまり、再生コンテンツの選択をすることができる。
サムネイルD1は、新たな登場人物が登場するたびに生成され、例えば、カラムの大きさを限度とする数のサムネイルD1が、図5に示すGUIに表示される。
[再生動作の説明]
次に、ユーザーが再生したい映像コンテンツ(以下、単に「映像」または「コンテンツ」ともいう。)を選択して、リモコン810を通じて再生指示をすることで、当該コンテンツの再生を行う際の映像再生装置100の動作を、図6を参照しながら説明する。
図6は、映像再生装置100が、データベース230に蓄積された顔認識データに基づいて映像を再生する際の動作の流れを示すフローチャートである。
図6において、再生開始(S100)は、ユーザーが、再生したいコンテンツを選択したことを示している。次に、ユーザーは、GUIによる誘導により、再生方法を選択する。
再生方法としては、例えば、通常再生、指定位置再生、および、着目再生がある。
[通常再生]
ユーザーが通常再生を選択した場合(S110で「通常再生」)、映像再生装置100は、該当コンテンツの最初から再生(S120)を行なう。
[指定位置再生]
ユーザーが、指定位置再生を選択した場合(S110で「指定位置再生」)、次に、ユーザーは、図5のサムネイルD1などをたよりに、そのコンテンツ内で、再生を開始すべき位置を指定する。これにより、映像再生装置100では、いずれかの人物が最初に登場したところから再生をスタートする。
つまり、指定位置再生では、複数のサムネイルD1のいずれかが選択されれば、そのサムネイルD1に対応する場面の時間からコンテンツの再生が行われる。
例えば、図7に示すように、複数の人物が当該コンテンツに登場する場合、複数の人物のいずれかが登場するごとに、登場シーンを示すサムネイルD1が生成され、GUI(図5参照)に表示される。
ユーザーは、リモコン810を操作することで、これらサムネイルD1のいずれかを選択することができる。また、ユーザーがリモコン810で再生をスタートさせたいシーンの先頭を示すサムネイルD1にフォーカスを当てると、当該サムネイルD1が拡大表示される(例えば図7の中央のサムネイルD1)等、ユーザーが選択しやすい工夫がなされている。
このように、ユーザーが再生先頭シーンを選択(S130)すると、映像再生装置100は、その先頭シーンからの再生、つまり、指定位置再生(S140)を開始する。このように、ユーザーにサムネイルを選択させることによって再生開始位置を指定するこができる。これにより、映像再生装置100は、ユーザーに選択された映像コンテンツにおいて、所定の人物が最初に現れたところから再生を開始することができる。
[着目再生]
次に、ユーザーが着目再生を選択した場合の映像再生装置100の動作について説明する。
着目再生とは、簡単に説明すると、ユーザーに選択されたコンテンツの中で、特定の人物が現れた時に、特定の人物の顔を中心に映像を切り抜いて拡大表示するなどの演出を加えて再生することである。
具体的には、着目再生では、特定の人物が現れた時に画面全体を明るくすること、特定人物の顔を中心に明るさを与えるスポットライトを当てる効果を加えること、および、あらかじめ登録していた特定人物の氏名をその人物映像の周辺に表示する、などの演出(効果の追加)が可能である。つまり、着目再生とは、再生対象となる映像に種々の加工を加えることで、ユーザーに、その人物に着目させるように再生することを言う。
なお、着目再生ではさらに、特定の人物が登場するたびに、特定の音声を再生するなどの映像効果以外の演出も加えることもできる。
この着目再生をユーザーが選択した場合(S110で「着目再生」)、次に、ユーザーは効果を選択する(S150)。映像再生装置100は、例えば図8に示すように、着目再生の効果を選択するための選択画面を生成し、映像表示装置800に表示させる。
図8は、着目再生における効果の選択をユーザーに促すGUI(効果選択画面)の一例を示す図である。
図8に示す効果選択画面において、ユーザーはリモコン810を操作することにより、着目再生のうち、特定の人物が現れた時に特定の人物の顔を中心に映像を拡大表示する拡大再生が選択可能である。
また、「拡大再生」については、拡大の程度(拡大率)に応じて3つの選択肢が存在する。具体的には、拡大率の大きな「大」と、拡大率が中ほどの「中」、あまり拡大しない「小」が選択肢として存在する。
また、ユーザーは、図8に示す効果選択画面において、あらかじめ登録していた特定人物の氏名をその人物映像の周辺に表示する「名前表示」、および、特定人物の顔を中心に明るさを与えるスポットライトを当てる効果を加える「スポットライト再生」を選択することができる。
このように着目再生において適用される効果を選択した後、ユーザーが、着目人物の選択を行なう(S160)。
この選択に用いられる画面としては、例えば図9に示すような、各人物のサムネイルをならべた画面(人物選択画面)が用いられる。
これらサムネイルのそれぞれは、当該映像コンテンツに登場する複数の人物それぞれの顔を表示するものである。なお、顔検出部300が顔と認識したサイズよりも、ズームアウトして、顔を少し小さく表示して人物の胴体が少し入るくらいのサイズが、当該選択に用いられるサムネイルとして好ましい。つまり、ユーザーが、着目する人物の選択を行いやすい。
人物選択画面において、かかるサムネイルには、それぞれ、左上端にチェックボックスを配置して、ユーザーがリモコン810で選択できるようにしてある。
ユーザーが、リモコン810で、チェックボックスを選択し、当該映像コンテンツの再生を開始を指示すると、映像再生装置100は、チェックされた特定人物に着目効果を施しながら、着目再生を行なう(S170)。
なお、人物選択画面では、顔認識部220の認識結果にしたがって、各サムネイルの表示が行われるが、同じ人物でも、例えば顔認識部220の能力によって、別の人物として認識されることもある。
例えば、図9において、人物Bを示すサムネイルが複数表示されているのは、顔認識部220によって、これらサムネイルに示される人物が別人であると判断されたためである。
しかしながら、上述のようにユーザーが各サムネイルをチェックすることで、別の人物として認識された複数の人物を、着目再生の対象の人物として選択することができる。つまり、映像再生装置100では、ユーザーの要望に応じた人物に着目効果を施すことができる。
また、同時に複数の人物が選択された場合には、映像再生装置100では、それぞれの人物ごとに着目効果を適用することができる。
そして、S110で選択された方法による再生が終われば、映像再生装置100の再生動作は終了となる(S180)。
[着目再生の動作の説明]
次に、図10Aを用いて、映像再生装置100の着目再生に関する基本動作の流れの一例を説明し、図10Bを用いて、人物データ処理部240の構成を説明する。
図10Aは、映像再生装置100が着目再生を行う場合の基本的な処理の流れの一例を示すフローチャートである。なお、図10Aでは、映像再生装置100が、上述の「拡大再生」を実行する際の基本的な処理の流れを示している。
図10Aに示すように、顔認識部220は、映像に登場する人物画像の時系列で変化する大きさおよび位置を検出する(S171)。
生成部204は、再生される映像(再生映像)に示される人物画像が所定の大きさとなるように、入力映像に対して加工を行うことで、再生映像を生成する(S172)。
具体的には、生成部204は、検出された人物画像の位置の変化に応答して映像の一部の切り抜き範囲を決定する。生成部204はさらに、決定した切り抜き範囲に示される、当該映像の一部である部分映像に対し、検出された人物画像の大きさの変化に応答して、拡大または縮小を行う。このような処理により、再生映像が生成される。
また、本実施の形態では、生成部204による切り抜き範囲の決定についての応答時間は、部分映像の拡大または縮小についての応答時間よりも長い。
なお、「応答時間が長い(短い)」は、「応答速度が遅い(速い)」、「応答感度が低い(高い)」、または「応答における時定数が大きい(小さい)」等と言い換えることができる。
映像再生部260は、生成部204により生成された映像を再生する(S173)。
なお、本実施の形態では、生成部204の切り抜き等の処理における応答時間(応答感度)を制御するように、顔認識部220からの出力に対し、人物データ処理部240による処理が行われる。
具体的には、生成部204による切り抜き範囲の決定における、顔認識部220に検出された顔画像の位置の変化に対する応答時間が、部分映像の拡大または縮小における、顔認識部220に検出された顔画像の大きさの変化に対する応答時間よりも長くなるように、顔認識部220からの出力に対して所定の処理が行われる。
以下、人物データ処理部240の機能構成を、図10Bを参照しながら説明する。
図10Bは、人物データ処理部240の機能構成を示すブロック図である。
図10Bにおいて、データベース230に保存された顔認識データは、認識された顔のサイズ(大きさ)を示すサイズデータと、認識された顔の位置を示す位置データとに分けて、人物データの処理に用いられる。
サイズデータは、トラッキング保持部400を介して、応答フィルタ410に入力され、さらに、フレーム補間部430および遅延処理部440に処理され、処理後のデータがメモリ600に一時保存される。
一方、位置データは、トラッキング保持部450を介して、応答フィルタ410に設定された時定数とは異なる時定数が設定された応答フィルタ460に入力され、フレーム補間部470および遅延処理部480に処理される。処理後のデータは、メモリ600に一時保存される。
その後、メモリ600に一時保存された、人物データ処理部240による処理後の顔画像のサイズおよび位置の変化を示す顔認識データ(対象情報)は、映像再生部260に入力される。
映像再生部260の生成部204は、入力される対象情報に示される時系列に並ぶ位置情報を用いて部分映像を切り抜く。生成部204はさらに、対象情報に示される時系列に並ぶサイズ情報に応じて部分映像の拡大または縮小を行う。
具体的には、サイズ情報に示される値が小さい時には所定の大きさになるように部分映像を拡大する。また、サイズ情報に示される値が大きい時には所定の大きさになるように部分映像を縮小する。
例えば、着目再生の対象の人物(着目人物)が含まれる1枚のフレームについて、対象情報に示される、着目人物についての顔画像のサイズが“50”であり、所定の大きさが“100”である場合、当該フレームから切り抜かれた部分映像は、2倍に拡大される。また、拡大された部分映像は、例えば映像表示装置800の表示領域内に収まるように、映像表示装置800の解像度に合わせてトリミングされる。
なお、着目人物の顔画像のサイズが比較的に小さい値(例えば“10”)である場合、所定の大きさ(例えば“100”)となるように、当該顔画像を含む部分映像を10倍に拡大すると、当該顔画像がぼやけてしまうことも考えられる。そのため、映像再生部260の生成部204は、部分映像の拡大を行う場合、所定の倍率以下で拡大する。
つまり、上記所定の大きさは、絶対的な基準ではなく顔画像(人物画像)の表示上の目標値であり、例えば「最大5倍」などの拡大率の上限を設けることで、顔画像(人物画像)の表示上の画質の劣化が抑制される。
次に、図10Bに示す人物データ処理部240の各構成要素の動作を説明する。
(トラッキングが途切れた場合の処理)
トラッキング保持部400、450は、顔認識部220において、顔検出が出来なかった区間、または、顔が検出できても着目人物と判断できなかった区間がある場合、すなわち、顔の認識のトラッキングが続かなかったときに、一定期間、そのトラッキングが途切れる前のデータを保持する。このように保持されたデータは、途切れている区間のデータとして扱われ、これにより、顔の認識のトラッキングが途切れた場合における時間的な補間が行われる。
なお、データベース230に格納されたデータから、あらかじめ、その途切れ区間が特定できるため、途切れる直前のデータと、途切れから復活する時のデータとを用いて、上記補間が行われてもよい。
このように、トラッキングが途切れた時のデータ(位置データおよびサイズデータ)を補間することで、例えば、顔が急に隠れた場合にも、映像再生部260における拡大表示がすぐに止まらず、これまでの拡大表示が維持される。その結果、映像再生装置100の再生映像におけるスムーズな動きを実現することができる。
このトラッキング保持部400、450の出力は、互いに応答時間(時定数)の異なる応答フィルタ410、460にそれぞれ入力される。
(顔のサイズデータの処理)
顔のサイズの検出に関しては、図4Bを用いて説明したように、顔データの数だけ、探索対象の画像との重ね合わせ位置をずらしながらのマッチング確認作業が発生する。従って、顔のサイズ検出に、あまり多くの数の、互いに大きさの異なる顔データを用いることができない。
そのため、顔認識データに示される、一人の人物の顔画像のサイズは、時系列において不連続に変化する。
図11は、顔画像のサイズの時系列における変化の一例を示す図である。なお、図11では、例えば、顔画像の横幅の長さの変化が示されている。しかし、顔画像のサイズとしては、顔画像の縦の長さが使用されてもよく、矩形である顔画像の対角線の長さが採用されてもよい。
図11に示すように、顔認識データに含まれる、顔画像の大きさ(サイズ)を表すデータは、時間軸に対して不連続となり、また、顔画像のサイズの変化の幅も大きく、さらに、判定誤差も多くなる。
この判定誤差は、実際の顔の動作(振動)を5Hz〜30Hz程度の動作とみなした場合、その顔の動作に比較して、高い周波数(例えば50Hz〜100Hz)で遷移する。そのため、当該顔に対応するサイズデータにそのまま追従して拡大または縮小した映像を映像表示装置800に入力すると、再生映像において、例えば顔の大きさが高い周波数で変化し、これにより、顔の輪郭が微振動する。
このため、応答フィルタ410により、この高い周波数成分を除去している。
具体的には、応答フィルタ410の時定数T1としては、例えば、およそ20Hz以下の成分を残し、かつ、およそ50Hz以上の応答を除去する値が設定される。
このようにして得られた顔画像のサイズの変化を表すデータを図12に示す。
図12によれば、マッチングデータ(比較対象の複数の顔データ(図4Bの模式図A3))間の大きさの差に起因するノイズを除去でき、その結果、再生映像における顔画像の微小な振動の発生等が抑制される。
この加工後のサイズデータを用いて、映像再生部260で映像を再生することにより、当該映像における顔画像の高い周波数での振動の発生を抑制することができ、スムーズな再生を実現することができる。
より詳細には、応答フィルタ410から出力されるサイズデータは、さらに、フレーム補間部430および遅延処理部440に処理された後に、メモリ600に蓄積される。
フレーム補間部430は、飛び飛びのフレームに対応するサイズデータから、その間のフレームに対応するサイズデータを内挿により生成する。これは、顔認識部220が顔認識処理の対象とするフレームが、処理対象の映像の全フレームではなく、飛び飛びのフレームであることに起因する。
すなわち、顔認識部220から出力される顔認識データに対応するフレームのみを、映像再生部260で再生すると、再生されるフレーム数が少なく、その結果、再生映像がたついた映像になってしまう。そのため、フレーム補間部430によって、間引かれたフレームに対応するサイズデータが補間される。
このように、顔認識データは、毎フレーム検出できない場合もあるため、このままの顔認識データを表示系で利用すると、表示されるべきフレームが飛んでしまう。そこで、フレーム補間部430は、顔認識部220から出力される顔認識データに基づくフレームごとの位置データおよびサイズデータに対し、内挿によってデータを補う処理を実行する。
すなわち、フレーム補間部430による処理は、一部のフレームに対応する情報を含まない顔認識データに対して、毎フレームのサンプリングレートでオーバーサンプリングしたフィルタを施す処理に相当する。
このように、フレーム補間部430は、映像再生装置100への入力映像に含まれる隣り合わない2つのフレームそれぞれに対応する顔画像の大きさを用いて、当該2つのフレームの間に位置するフレームに対応する顔画像の大きさを算出することで、顔画像の大きさについての補間を行う。
なお、本実施の形態の生成部204は、例えば図13に示すように、特定の人の顔を中心に拡大した映像X2と、原画X1とを重ねた映像を生成する。生成部204はさらに、着目再生として「名前表示」が選択された場合には(図8参照)、X3のような特定の人の名前(図13では「Bさん」)を重ねた映像(表示画面)を生成する。
このように、映像再生装置100によれば、図13に示すように、X2が拡大表示される。つまり、映像再生装置100は、映像の中に複数人が登場した場合にも、選択された人物を顔検出と顔認識により特定し、その顔を中心として切り抜きおよび拡大表示をすることができる。つまり、ユーザーは、ユーザーが選択した特定の人物に着目して、当該映像コンテンツを視聴することができる。
このとき、顔認識部220の出力する位置データは、例えば顔の中心の位置を示すデータである。しかし、生成部204による実際の拡大表示では、顔の中心を拡大の中心とせずに、当該顔の少し下の首のあたり(図13におけるX4のあたり)を拡大の中心とする。これにより、当該顔の人物のバストショット(バストアップ画像)が、再生映像に収まり、その結果、より迫力のある再生映像を得ることができる。
遅延処理部440は、時定数をもったフィルタ(応答フィルタ410)でデータ処理を行なった分、処理の遅れが発生するために、ここでサンプリング時間をずらして、遅れを補正する。
[顔の位置データの処理]
一方で、顔の位置データについては、以下の処理が行われる。すなわち、図10Bに示すように、トラッキング保持部450からの出力は、顔のサイズに対する応答フィルタ410の時定数T1よりも大きい時定数T2(T2>T1)が設定された応答フィルタ460に入力される。
つまり、トラッキング保持部450からの出力は、低周波にのみ追従する応答フィルタ460に入力される。
図14は、顔画像の位置の時系列における変化の一例を表す図である。なお、図14では、例えば、顔画像の横方向の位置の変化が示されている。しかし、顔画像の位置としては、顔画像の縦方向の位置が採用されてもよい。
図14に示すように、顔認識データに含まれる顔画像の位置を示す位置データには、例えば手ブレ成分を含むため、細かな振動が現れる。また、例えば、ダンスシーンなどでは、着目する人物が大きくかつ素早く移動することがあるため、当該人物の顔画像の位置変化は、急峻でかつ大きい場合もある。
そのため、当該顔画像の位置データにそのまま追従して切り抜いた映像を、映像表示装置800に入力した場合、再生映像において、例えば着目人物の背景が高い周波数で変化し、これにより、背景が微振動する。また、例えば横方向への素早い動き自体が、着目人物が表現したい動作である場合に、その動作が再生映像では十分に表されない結果となる。
このため、応答フィルタ460により、位置変化における高い周波数成分を除去している。
具体的には、応答フィルタ460の時定数T2としては、例えば、ほぼ20Hz前後の周波数を通過させる値が採用される。その結果、部分映像の切り抜きが、高い周波数成分、例えば、手ぶれ成分およびノイズ成分にも追従することが抑制され、これにより、再生映像における、着目人物の背景画面全体のがたつきの発生が抑制される。
このようにして得られた顔画像の位置の変化を表すデータを図15に示す。
図15によれば、例えば撮影時の手ぶれ等に起因するノイズを除去でき、その結果、再生映像における背景画像の微小な振動の発生等が抑制される。
この加工後の位置データを用いて、映像再生部260で映像を再生することにより、当該映像における背景画像の高い周波数での振動の発生を抑制することができ、スムーズな再生を実現することができる。
より詳細には、応答フィルタ460から出力される位置データは、さらに、フレーム補間部470および遅延処理部480に処理された後に、メモリ600に蓄積される。
フレーム補間部470は、フレーム補間部430と同じく、飛び飛びのフレームに対応する位置データから毎フレームの位置データを内挿により生成する。
つまり、フレーム補間部470は、映像再生装置100への入力映像に含まれる隣り合わない2つのフレームそれぞれに対応する顔画像の位置を用いて、当該2つのフレームの間に位置するフレームに対応する顔画像の位置を算出することで、顔画像の位置についての補間を行う。
遅延処理部480は、時定数をもったフィルタ(応答フィルタ460)でデータ処理を行なった分、処理の遅れが発生するために、ここでサンプリング時間をずらして、遅れを補正する。
以上説明した処理によって得られたサイズデータおよび位置データは、ともに人物データ処理部240から出力され、メモリ600にタイムスタンプとともに記録される。タイムスタンプは、映像の時間を示すデータであり、PTS(Presentation Time stamp)等が使われる。
メモリ600に記録されたデータは、上述のように、対象情報の一例であり、映像再生部260によって読み出される。
つまり、映像再生部260は、人物データ処理部240の出力に基づいて、デコーダ250の出力する映像を加工する。具体的には、映像再生部260の生成部204は、デコーダ250からの出力映像から、対象情報に従って、部分映像の切り抜き、および、切り抜いた部分映像の拡大または縮小などを行う。このようにして、デコーダ250からの出力映像が加工されることで、対象情報が反映された再生映像が得られる。
また、本実施の形態の映像再生装置100では、処理対象の映像コンテンツから取得される顔の位置データに対し、顔のサイズデータを処理する応答フィルタ410よりも、低い周波数に追従する応答フィルタ460がフィルタリングを施す。
これにより、着目人物を中心とした再生映像が得られるとともに、例えば手ぶれ成分による、人物の背景画面のがたつきを抑制することができる。その結果、着目人物を中心とした映像のスムーズな再生を実現することができる。
なお、応答フィルタ460の時定数T2として、上述のように、およそ20Hzに対応する値を採用すると、人物の平面的な動作をある程度再現できる。
但し、あまり応答を遅くすると、応答フィルタ460の群遅延が無視できなくなり、遅れが目立つために、遅延処理部480により、適応するデータを少し早める等の対策が必要となる。
(実施の形態2)
本開示における実施の形態2について図面を参照して説明する。実施の形態2における映像再生装置100は、人物データ処理部241が、実施の形態1における人物データ処理部240とは異なる点に特徴を有する。
具体的には、人物データ処理部241は、レベル検出部420を備える点を除いて、他は実施の形態1における人物データ処理部240の構成と同じ構成を有している。
図16は、実施の形態2における人物データ処理部241の機能構成を示すブロック図である。
実施の形態2における人物データ処理部241では、応答フィルタ410から出力されるサイズデータをレベル検出部420に供給し、レベル検出部420の出力をフレーム補間部430に供給している。
ここで、被写体である人物が前後に動くと、映像の中の顔の大きさが変わり、その大きさに応じて、当該顔を細かく拡大縮小してしまうと、被写体の顔の前後への動作を表現できなくなってしまう。その結果、当該人物の動作による表現が削がれてしまう。
そのため、実施の形態2における人物データ処理部241では、顔の大きさの変化についての閾値を時間に応じて変化させる。具体的には、期間中の最初の閾値の値が、期間中の最後の閾値の値よりも大きくなるように、時間変化する閾値を設ける。
つまり、実施の形態2における生成部204は、顔画像の大きさの、所定の時点を基準とした変化量(例えば、現在の大きさと、着目人物が最初に登場した時点の大きさとの差分)が第一の閾値以下である場合、顔画像の大きさに応じた、部分映像の大きさの細かな調整(拡大または縮小)をせずに、そのままの変化を維持する。また、実施の形態2における生成部204は、当該変化量が第一の閾値を超えた場合、顔画像の大きさが所定の大きさになるように、部分映像の拡大または縮小する動作を行う。
このように動作させることで、顔のサイズ(顔画像のサイズ)の急な変動を再生映像に反映できるように演出できる。
つまり、図16における、レベル検出部420は、応答フィルタ410から出力された顔画像のサイズデータ(例えば図12参照)をもとに、サイズの変化点で、再生映像における顔の大きさを急に変化させるべく、レベル判定を行う。
具体的には、サイズの変化量が第一の閾値を超えた時に顔画像の大きさが急に変動するように、入力されるサイズデータを書き換える。レベル検出部420はさらに、顔画像の大きさを一旦変化させる場合、その後に当該変化量が第二の閾値(第二の閾値<第一の閾値)以下にならないと顔画像の大きさが元の値(入力時のサイズデータに示される値)に戻らないように、入力されるサイズデータを書き換える。
つまり、実施の形態2における生成部204は、部分映像の拡大または縮小が行った場合、その後に、当該変化量が第二の閾値以下になるまでは、上記拡大または縮小が行われた状態を維持する。また、生成部204は、当該変化量が第二の閾値以下になった場合、顔画像の大きさが入力時のサイズデータの値になるように再生映像を生成する。
このように、実施の形態2における人物データ処理部241によれば、顔画像の大きさについて、いわゆるヒステリシス制御が行われる。
このヒステリシス制御のためのレベル判定後の顔画像の大きさの変化を図17に示す。
このように、実施の形態2の映像再生装置100では、レベル検出部420により、応答フィルタ410から出力された連続的なデータを急に変動するデータに書き換える。これにより、例えば、入力映像が実際には固定の倍率で撮影された映像であっても、撮影時に急にカメラをズームアップしたような効果が付加された再生映像を出力することができる。
すなわち、顔の大きさに関して、小さな変化には追従せず、大きく変化した時に、素早く顔を中心とした画像を拡大または縮小させてもよい。これにより、例えばプロカメラマンのカメラワークに近く、かつ、再生時に迫力を産む映像を作り出すことができる。
(効果等)
実施の形態1および2における映像再生装置100は、顔検出および顔認識により取得した、人物画像のサイズのデータおよび位置のデータを、それぞれ別の時定数でフィルタリングして再生部に入力する。これにより、例えば、特定の人物に着目して拡大再生する場合に、当該人物の顔の輪郭および背景の高い周波数の振動が抑制され、スムーズな拡大再生が実現される。
また、映像再生装置100によれば、入力される映像から、当該映像の撮影時には着目されていなかった人物を中心とした再生映像を得ることができる。
例えば、人物Aおよび人物Bが登場する映像であって、人物Aを追いかけるように撮影された映像が映像再生装置100に入力された場合を想定する。この場合、当該映像を通常再生すると、人物Aを中心とした映像が再生される。しかし、当該映像を再生する際に、人物Bを着目人物として選択して着目再生することで、人物Bを中心とした再生映像を得ることができる。
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1および2を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1および2で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
そこで、以下、他の実施の形態を例示する。
例えば、実施の形態1では、生成部204による切り抜き範囲の決定についての応答時間は、部分映像の拡大または縮小についての応答時間よりも長いとした。
しかし、生成部204による切り抜き範囲の決定についての応答時間を、部分映像の拡大または縮小についての応答時間よりも短くしてもよい。つまり、部分映像の拡大または縮小についての応答時間を、切り抜き範囲の決定についての応答時間よりも長くしてもよい。
また、生成部204による切り抜き範囲の決定についての応答時間と、部分映像の拡大または縮小についての応答時間との大小関係を、例えばユーザーからの指示に応じて切り換えてもよい。
例えば、着目人物の前後の動きが重要な動作である場合に、映像再生装置100は、ユーザーの指示に基づいて、部分映像の拡大または縮小についての応答時間を、切り抜き範囲の決定についての応答時間よりも長くする。これにより、着目人物が左右に移動しながらかつ短い周期で前後への移動を繰り返した場合であっても、その前後への細かな移動を明確に表す再生映像を得ることができる。
また、切り抜き範囲の決定についての応答時間を手振れに追従できるくらい短くすると、手振れによる人物の上下左右の振動を抑えることができ、より人物に注目して映像を再生することも可能となる。
また、実施の形態1では、映像再生装置100が備える着目再生に関連する各構成要素(顔認識部220、人物データ処理部240、生成部204、および映像再生部260など)は、マイコン180によって実現されるとした。つまり、これら各構成要素は、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)、および通信インターフェース等を備えるコンピュータによって実行されるプログラム等のソフトウェアで実現されるとした。しかし、これら各構成要素は、電子回路等のハードウェアで実現されてもよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、例えば家庭用ビデオカメラで撮影された映像に対して処理を加えて再生する装置に適用可能である。具体的には、レコーダおよびタブレット端末などの、映像表示装置および映像再生装置に、本開示は適用可能である。
100 映像再生装置
110 USBスロット
120 SDカードスロット
130 BDドライブ
140 赤外線受光部
150 HDMI(登録商標)
160 HDD
170 SDカード
180 マイコン
190 チューナ
200、250 デコーダ
204 生成部
210 映像間引き部
220 顔認識部
230 データベース(DB)
240、241 人物データ処理部
260 映像再生部
270 コントローラ
280 サムネイル生成部
290 サムネイル表示部
300 顔検出部
310、330、600 メモリ
320 特徴量抽出部
340 特徴量比較部
350 クラスタリング部
400、450 トラッキング保持部
410、460 応答フィルタ
420 レベル検出部
430、470 フレーム補間部
440、480 遅延処理部
500 映像カメラ
510 ネットワーク
520 サーバ
530 LANインターフェース
800 映像表示装置
810 リモコン

Claims (6)

  1. 取得した映像を加工して再生する映像再生装置であって、
    前記映像に登場する人物画像の時系列で変化する大きさおよび位置を検出する検出部と、
    再生される映像に示される前記人物画像が所定の大きさとなるように、(i)検出された前記人物画像の位置の変化に応答して前記映像の一部の切り抜き範囲を決定し、かつ、(ii)前記切り抜き範囲に示される前記映像の一部である部分映像に対し、検出された前記人物画像の大きさの変化に応答して、拡大または縮小を行うことで、再生される映像を生成する生成部と、
    前記生成部により生成された映像を再生する再生部とを備え、
    前記生成部による前記切り抜き範囲の決定における応答時間は、前記部分映像の拡大または縮小における応答時間よりも長い
    映像再生装置。
  2. 前記生成部は、前記部分映像の拡大を行う場合、所定の倍率以下で拡大する
    請求項1記載の映像再生装置。
  3. さらに、前記検出部に検出された前記人物画像の大きさおよび位置の変化に所定の処理を行い、前記所定の処理後の前記人物画像の大きさおよび位置の変化を示す情報である対象情報を生成する人物データ処理部を備え、
    前記人物データ処理部は、前記生成部による前記切り抜き範囲の決定における、前記検出部に検出された前記人物画像の位置の変化に対する応答時間が、前記部分映像の拡大または縮小における、前記検出部に検出された前記人物画像の大きさの変化に対する応答時間よりも長くなるように、前記所定の処理を行い、
    前記生成部は、前記人物データ処理部に生成された前記対象情報に従って、前記切り抜き範囲の決定、および、前記部分映像の拡大または縮小を行う
    請求項1または2に記載の映像再生装置。
  4. 前記人物データ処理部は、前記所定の処理が行われた後の前記人物画像の大きさまたは位置についての補間を行う補間部を備え、
    前記補間部は、取得された前記映像に含まれる隣り合わない2つのフレームそれぞれに対応する前記人物画像の大きさまたは位置を用いて、前記2つのフレームの間に位置するフレームに対応する前記人物画像の大きさまたは位置を算出することで、前記人物画像の大きさまたは位置についての補間を行う
    請求項3記載の映像再生装置。
  5. 前記生成部は、
    前記人物画像の大きさの、所定の時点を基準とした変化量が第1の閾値以下であれば、前記部分映像の拡大または縮小を行わず、前記変化量が前記第1の閾値を超えた場合、前記部分映像の拡大または縮小を行い、
    さらに、前記部分映像の拡大または縮小を行った後に、前記変化量が、前記第1の閾値よりも小さな第2の閾値以下になるまでは前記部分映像の拡大または縮小が行われた状態を維持する
    請求項1〜4のいずれか1項に記載の映像再生装置。
  6. 映像再生装置が実行する映像再生方法であって、
    映像を取得する取得ステップと、
    取得した前記映像に登場する人物画像の時系列で変化する大きさおよび位置を検出する検出ステップと、
    再生される映像に示される前記人物画像が所定の大きさとなるように、(i)検出された前記人物画像の位置の変化に応答して前記映像の一部の切り抜き範囲を決定し、かつ、(ii)前記切り抜き範囲に示される前記映像の一部である部分映像に対し、検出された前記人物画像の大きさの変化に応答して、拡大または縮小を行うことで、再生される映像を生成する生成ステップと、
    生成された映像を再生する再生ステップと含み、
    前記切り抜き範囲の決定における応答時間は、前記部分映像の拡大または縮小における応答時間よりも長い
    映像再生方法。
JP2013218554A 2013-03-25 2013-10-21 映像再生装置および映像再生方法 Pending JP2014209707A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013218554A JP2014209707A (ja) 2013-03-25 2013-10-21 映像再生装置および映像再生方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013061416 2013-03-25
JP2013061416 2013-03-25
JP2013218554A JP2014209707A (ja) 2013-03-25 2013-10-21 映像再生装置および映像再生方法

Publications (1)

Publication Number Publication Date
JP2014209707A true JP2014209707A (ja) 2014-11-06

Family

ID=51569213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013218554A Pending JP2014209707A (ja) 2013-03-25 2013-10-21 映像再生装置および映像再生方法

Country Status (2)

Country Link
US (1) US9111363B2 (ja)
JP (1) JP2014209707A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017085564A (ja) * 2015-10-23 2017-05-18 株式会社モルフォ 画像処理装置、電子機器、画像処理方法及びプログラム
WO2017169293A1 (ja) * 2016-03-28 2017-10-05 パナソニックIpマネジメント株式会社 映像処理装置、映像処理システム、映像処理方法、及び映像出力装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104618803B (zh) * 2014-02-26 2018-05-08 腾讯科技(深圳)有限公司 信息推送方法、装置、终端及服务器
KR20160011532A (ko) * 2014-07-22 2016-02-01 삼성전자주식회사 동영상 표시 방법 및 장치
KR102390809B1 (ko) 2015-08-12 2022-04-26 삼성전자주식회사 영상을 제공하기 위한 방법, 전자 장치 및 저장 매체
US11169661B2 (en) * 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004172671A (ja) * 2002-11-15 2004-06-17 Toshiba Corp 動画像加工方法及び装置
JP2008078713A (ja) * 2006-09-19 2008-04-03 Sony Corp 記録装置および方法、プログラム、並びに再生装置および方法
JP2008228134A (ja) * 2007-03-15 2008-09-25 Sony Corp 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム
WO2009054333A1 (ja) * 2007-10-23 2009-04-30 Sony Corporation 映像再生装置及び映像再生方法
JP2010103972A (ja) * 2008-09-25 2010-05-06 Sanyo Electric Co Ltd 画像処理装置及び電子機器
JP2011082917A (ja) * 2009-10-09 2011-04-21 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012205037A (ja) * 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0426523D0 (en) * 2004-12-02 2005-01-05 British Telecomm Video processing
JP4349277B2 (ja) * 2004-12-24 2009-10-21 株式会社日立製作所 動画再生装置
JP4513699B2 (ja) 2005-09-08 2010-07-28 オムロン株式会社 動画像編集装置、動画像編集方法及びプログラム
JP2007251429A (ja) 2006-03-14 2007-09-27 Omron Corp 動画撮影装置及びズーム調整方法
JP5228354B2 (ja) 2007-03-30 2013-07-03 株式会社ニコン ディジタルカメラ
JP5202211B2 (ja) 2008-09-25 2013-06-05 三洋電機株式会社 画像処理装置及び電子機器
US20100074557A1 (en) 2008-09-25 2010-03-25 Sanyo Electric Co., Ltd. Image Processing Device And Electronic Appliance
US20110058100A1 (en) * 2009-09-09 2011-03-10 Yasuhiko Muto Video signal processing apparatus and video signal processing method
JP4873762B2 (ja) 2010-04-06 2012-02-08 キヤノン株式会社 撮像装置及び撮像装置の制御方法
JP5523182B2 (ja) * 2010-04-20 2014-06-18 キヤノン株式会社 映像編集装置および映像編集方法
JP2011242685A (ja) * 2010-05-20 2011-12-01 Hitachi Consumer Electronics Co Ltd 映像表示装置
JP2012175207A (ja) 2011-02-18 2012-09-10 Panasonic Corp 画像処理装置、画像処理方法、及びコンピュータプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004172671A (ja) * 2002-11-15 2004-06-17 Toshiba Corp 動画像加工方法及び装置
JP2008078713A (ja) * 2006-09-19 2008-04-03 Sony Corp 記録装置および方法、プログラム、並びに再生装置および方法
JP2008228134A (ja) * 2007-03-15 2008-09-25 Sony Corp 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム
WO2009054333A1 (ja) * 2007-10-23 2009-04-30 Sony Corporation 映像再生装置及び映像再生方法
JP2010103972A (ja) * 2008-09-25 2010-05-06 Sanyo Electric Co Ltd 画像処理装置及び電子機器
JP2011082917A (ja) * 2009-10-09 2011-04-21 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012205037A (ja) * 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017085564A (ja) * 2015-10-23 2017-05-18 株式会社モルフォ 画像処理装置、電子機器、画像処理方法及びプログラム
WO2017169293A1 (ja) * 2016-03-28 2017-10-05 パナソニックIpマネジメント株式会社 映像処理装置、映像処理システム、映像処理方法、及び映像出力装置
JPWO2017169293A1 (ja) * 2016-03-28 2019-02-14 パナソニックIpマネジメント株式会社 映像処理装置、映像処理システム、映像処理方法、及び映像出力装置
JP7174894B2 (ja) 2016-03-28 2022-11-18 パナソニックIpマネジメント株式会社 映像処理装置、映像処理システム、映像処理方法、及び映像出力装置

Also Published As

Publication number Publication date
US9111363B2 (en) 2015-08-18
US20140286625A1 (en) 2014-09-25

Similar Documents

Publication Publication Date Title
US7856145B2 (en) Image processing system and method therefor, image processing apparatus and method, image capturing apparatus and method, program recording medium, and program
JP4998026B2 (ja) 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム
JP4618166B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2014209707A (ja) 映像再生装置および映像再生方法
US9071806B2 (en) Reproducing apparatus
JP2007072520A (ja) 映像処理装置
JP2007110193A (ja) 画像処理装置
US11503375B2 (en) Systems and methods for displaying subjects of a video portion of content
US20190098250A1 (en) Information processing apparatus, imaging apparatus, information processing method, and recording medium
US8363726B2 (en) Electronic apparatus, motion vector detecting method, and program therefor
JP4504452B1 (ja) 映像視聴装置及び映像再生制御方法及び記録再生用プログラム
JP2020522193A (ja) リバッファリングイベントの時間的配置
JP2009290318A (ja) 撮像装置およびズーム調整方法
JP2007181164A (ja) 画像再生装置
JP2006101076A (ja) 動画編集方法、動画編集装置及びプログラム
JP2011254447A (ja) 動画再生装置、方法及びプログラム並びに記録媒体
JP2001119661A (ja) 動画編集システムおよび記録媒体
KR102066857B1 (ko) 객체 영상 트랙킹 스트리밍 시스템 및 이를 이용한 스트리밍 방법
JP6512208B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5163605B2 (ja) 動画像再生装置および動画像再生方法
JP2015170973A (ja) 画像処理装置及び画像処理方法
JP2017069596A (ja) 画像処理装置及び方法
JP5665380B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び記録媒体
JP4835540B2 (ja) 電子機器、映像特徴検出方法及びプログラム
JP2009175467A (ja) 記録再生装置、およびプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141001

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170704