JP2010278997A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2010278997A JP2010278997A JP2009132457A JP2009132457A JP2010278997A JP 2010278997 A JP2010278997 A JP 2010278997A JP 2009132457 A JP2009132457 A JP 2009132457A JP 2009132457 A JP2009132457 A JP 2009132457A JP 2010278997 A JP2010278997 A JP 2010278997A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- unit
- motion vector
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】画像に振動効果を自動的に付加又は強調することが可能な画像処理装置、画像処理方法及びプログラムを提供する。
【解決手段】データ抽出部15は、コンテンツデータから画像データを抽出する。動きベクトル算出部16は、データ抽出部15がコンテンツデータから抽出した画像データに基づいて、画像の動きベクトルを算出する。パラメータ算出部17は、動きベクトル算出部16が算出した動きベクトルに基づいて、効果付加パラメータを算出する。画像生成部18はパラメータ算出部17が算出した効果付加パラメータに基づいて、画像データに振動効果を付加又は強調する。
【選択図】図1
【解決手段】データ抽出部15は、コンテンツデータから画像データを抽出する。動きベクトル算出部16は、データ抽出部15がコンテンツデータから抽出した画像データに基づいて、画像の動きベクトルを算出する。パラメータ算出部17は、動きベクトル算出部16が算出した動きベクトルに基づいて、効果付加パラメータを算出する。画像生成部18はパラメータ算出部17が算出した効果付加パラメータに基づいて、画像データに振動効果を付加又は強調する。
【選択図】図1
Description
本発明は、画像データに画像効果を付加又は強調する画像処理装置、画像処理方法及びプログラムに関する。
コンテンツ製作における画像編集の過程において、映像コンテンツの内容をより印象的なものにするために様々な画像効果が画像に付加される。このような画像効果の1つの例として、画面の画像表示領域に対して画像を振動させる振動効果がある。振動効果は、画像内における人物の心の動揺を表現する場合、又は画像が揺れ動くような迫力のある爆発シーンを表現する場合等において有用な技法である。
特許文献1には、画像データに振動効果を付加するゲーム機が開示されている。該ゲーム機は、画面の画像表示領域内に上方から落下するブロックを積み上げていき、所定の条件が満たされた場合、積み上げた所定行数のブロックを消去させるゲーム機である。所定行数のブロックが消去された後、その上方に残る複数のブロックの量に応じて、前記ゲーム機の画像表示領域の画像が揺らされる。
一方、表示装置の発達に伴い、映画館のような大画面から携帯端末における小画面まで、異なる画面サイズにおいて同一の映像コンテンツを楽しめるようになってきている。しかし、同一の映像コンテンツを鑑賞する場合であっても、画面サイズ、画像の移動速度等の違いによって、映像コンテンツから受ける印象の異なることが報告されており(例えば、非特許文献1)、画面サイズが小さくなるほど、映像コンテンツの迫力感及び速度感の減少が示唆されている。
小黒他、最適カメラワークの画面サイズ依存性の検討―VR技術と調整法を用いた最適値導出実験―、画像電子学会第34回年次大会予稿集、2006年、P35−36
しかしながら、特許文献1の発明は、ゲーム機の画像に係る振動効果であり、テレビ番組、映画等の一般的な画像に振動効果を付加することは困難である。一般的な画像に振動効果を付加するためには、コンテンツ製作者に映像処理ソフトウェアを扱う高度な専門知識が求められるからである。
本発明はかかる事情に鑑みてなされたものであり、コンテンツデータに含まれるデータを利用して、画像の表示位置、表示サイズ又は外部の表示部に対する表示方向を変化させることにより、画像に振動効果を自動的に付加又は強調することが可能な画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
本発明に係る画像処理装置は、コンテンツデータに含まれる画像データが示す画像を外部の表示部に出力する画像処理装置において、前記コンテンツデータから所定のデータを抽出する抽出手段と、該抽出手段により抽出したデータを解析する解析手段と、該解析手段による解析結果に基づいて、前記画像データが示す画像の表示位置、表示サイズ又は前記表示部に対する表示方向を決定する手段とを備えることを特徴とする。
本発明に係る画像処理装置は、前記抽出手段は、前記コンテンツデータから画像データ、音声データ又は字幕データを抽出するようにしてあることを特徴とする。
本発明に係る画像処理装置は、前記解析手段は、前記抽出手段により抽出された画像データが示す画像の動きベクトルを算出するようにしてあることを特徴とする。
本発明に係る画像処理装置は、前記解析手段は、前記抽出手段により抽出された音声データが示す音の振幅変化を算出するようにしてあることを特徴とする。
本発明に係る画像処理装置は、前記解析手段は、前記抽出手段により抽出された字幕データが示す文字列に基づいて、前記画像データが示す画像の表示位置、表示サイズ又は前記表示部に対する表示方向を決定する情報を取得するようにしてあることを特徴とする。
本発明に係る画像処理装置は、前記解析手段は、前記画像データが示す画像を視聴する視聴条件に応じて、前記解析手段による解析結果を補正するようにしてあることを特徴とする。
本発明に係る画像処理装置は、前記表示部に表示される画像のサイズを検出する画像サイズ検出手段を備え、前記視聴条件は、前記画像サイズ検出手段により検出される画像のサイズであることを特徴とする。
本発明に係る画像処理装置は、視聴距離を検出する視聴距離検出手段を備え、前記視聴条件は、前記視聴距離検出手段により検出される視聴距離であることを特徴とする。
本発明に係る画像処理方法は、コンテンツデータに含まれる画像データが示す画像を外部に出力させる画像処理方法において、前記コンテンツデータから所定のデータを抽出する抽出ステップと、該抽出ステップにより抽出したデータを解析する解析ステップと、該解析ステップによる解析結果に基づいて、前記画像データが示す画像の表示位置、表示サイズ又は表示方向を決定するステップとを含むことを特徴とする。
本発明に係るプログラムは、コンピュータに、コンテンツデータに含まれる画像データが示す画像を外部に出力させるプログラムにおいて、コンピュータに、前記コンテンツデータから所定のデータを抽出する抽出ステップと、該抽出ステップにより抽出したデータを解析する解析ステップと、該解析ステップによる解析結果に基づいて、前記画像データが示す画像の表示位置、表示サイズ又は表示方向を決定するステップとを実行させることを特徴とする。
本発明に係るプログラムは、前記抽出ステップは、前記コンテンツデータから画像データ、音声データ又は字幕データを抽出することを特徴とする。
本発明に係るプログラムは、前記解析ステップは、前記抽出ステップにより抽出された画像データが示す画像の動きベクトルを算出することを特徴とする。
本発明に係る画像処理装置、画像処理方法及びプログラムにおいては、コンテンツデータから所定のデータを抽出し、抽出した前記所定のデータを解析する。そして、解析した結果に基づいて、コンテンツデータに含まれる画像データが示す画像の表示位置、表示サイズ又は表示部に対する表示方向を決定する。
本発明に係る画像処理装置及びプログラムにおいては、コンテンツデータから画像データ、音声データ又は字幕データを抽出する。
本発明に係る画像処理装置及びプログラムにおいては、コンテンツデータから抽出した画像データに基づいて、画像の動きベクトルを算出する。
本発明に係る画像処理装置においては、コンテンツデータから抽出した音声データに基づいて、音声データが示す音の振幅変化を算出する。
本発明に係る画像処理装置においては、コンテンツデータから抽出した字幕データが示す文字列に基づいて、画像データが示す画像の表示位置、表示サイズ又は表示部に対する表示方向を決定する情報を取得する。
本発明に係る画像処理装置においては、画像データに基づく画像を視聴する視聴条件に応じて、解析手段による解析結果を補正する。
本発明に係る画像処理装置においては、表示部に表示される画像のサイズを検出する画像サイズ検出手段を備えている。そして、画像サイズ検出手段により検出される画像のサイズに応じて、解析手段による解析結果を補正する。
本発明に係る画像処理装置においては、視聴距離を検出する視聴距離検出手段を備えている。そして、視聴距離検出手段により検出される視聴距離に応じて、解析手段による解析結果を補正する。
本発明に係る画像処理装置、画像処理方法及びプログラムは、画像に振動効果を自動的に付加又は強調することができる。
以下、本発明の実施の形態を、図面を参照して説明する。
実施の形態1
実施の形態1は、コンテンツデータに含まれる複数フレーム(画像)からなる画像データを利用して、画像データに振動効果を付加又は強調する形態に係る。
ここで振動効果は、画面の画像表示領域に対して画像を振動させる効果だけでなく、画像の移動、拡大、縮小及び回転等を含む効果である。画像の移動、拡大、縮小及び回転等が夫々異なる方向へ繰り返される場合、画面の画像表示領域に対して画像の振動している効果が得られる。
実施の形態1
実施の形態1は、コンテンツデータに含まれる複数フレーム(画像)からなる画像データを利用して、画像データに振動効果を付加又は強調する形態に係る。
ここで振動効果は、画面の画像表示領域に対して画像を振動させる効果だけでなく、画像の移動、拡大、縮小及び回転等を含む効果である。画像の移動、拡大、縮小及び回転等が夫々異なる方向へ繰り返される場合、画面の画像表示領域に対して画像の振動している効果が得られる。
図1は、実施の形態1に係る画像処理装置1の構成を示すブロック図である。
画像処理装置1は、制御部10、ROM(Read Only Memory)11、RAM(Random Access Memory)12、操作部13、入力部14、データ抽出部15、動きベクトル算出部16、パラメータ算出部17、画像生成部18及び出力部19を備えており、各構成部はバス1aを介して接続されている。
画像処理装置1は、制御部10、ROM(Read Only Memory)11、RAM(Random Access Memory)12、操作部13、入力部14、データ抽出部15、動きベクトル算出部16、パラメータ算出部17、画像生成部18及び出力部19を備えており、各構成部はバス1aを介して接続されている。
制御部10は、具体的にはCPU(Central Processing Unit)又はMPU(Micro Processing Unit)等で構成されており、バス1aを介して各構成部の操作を制御する。また、制御部10は、ROM11又はCD−ROM等の可搬型記憶媒体11aに予め記憶されているプログラム9を適宜RAM12に読み込み実行する。
ROM11は、書き込み及び消去可能なEPROM(Erasable Programmable ROM)、フラッシュメモリ等であり、画像処理装置を実施の形態1に係る画像処理装置1として動作させるために必要な種々のプログラム9が予め記憶されている。RAM12は、SRAM(Static Random Access Memory)又はSDRAM(Synchronous Dynamic Random Access Memory)等で構成され、制御部10によるプログラム9の実行時に発生する作業用のデータを一時的に記憶する。
操作部13は、例えばマウス、キーボード、タッチパネル、ボタン及びスイッチ等の操作手段である。また、操作部13は、赤外線又は電波等を利用して画像処理装置1に制御信号を送信することが可能な遠隔操作装置であってもよい。
入力部14は、例えばデジタル放送チューナ、HD(Hard Disk)ドライブ、DVD(Digital Versatile Disc)ドライブ、パソコン、デジタルカメラ等との接続が可能に構成されており、上記各機器から入力されたコンテンツデータをデータ抽出部15へ出力する。
ここで、コンテンツデータは、例えばMPEG(Moving Picture Experts Group)−2方式で圧縮されているTS(Transport Stream)のコンテンツデータであり、映像、音声及び字幕等のPES(Packetized Elementary Stream)データ形式の他に、セクションと呼ばれるデータ形式も含まれる。セクションには、PAT(Program Association Table)、PMT(Program Map Table)等の番組特定情報であるPSI(Program Specific Information)、及びEIT(Event Information Table)、TOT(Time Offset Table)等の番組配列情報であるSI(Service Information)も含まれる。なお、コンテンツデータがアナログデータである場合には、アナログデータをMPEG−2方式のデジタル信号に変換して、入力部14に入力されるものとする。
ここで、コンテンツデータは、例えばMPEG(Moving Picture Experts Group)−2方式で圧縮されているTS(Transport Stream)のコンテンツデータであり、映像、音声及び字幕等のPES(Packetized Elementary Stream)データ形式の他に、セクションと呼ばれるデータ形式も含まれる。セクションには、PAT(Program Association Table)、PMT(Program Map Table)等の番組特定情報であるPSI(Program Specific Information)、及びEIT(Event Information Table)、TOT(Time Offset Table)等の番組配列情報であるSI(Service Information)も含まれる。なお、コンテンツデータがアナログデータである場合には、アナログデータをMPEG−2方式のデジタル信号に変換して、入力部14に入力されるものとする。
TSは、固定長のTSパケットが複数個集まって構成される。TSパケットは、パケットヘッダ、アダプテーションフィールド及びペイロードで構成される。ペイロードは、PESデータ及びセクションデータである。アダプテーションフィールドは、ペイロードの大きさが規定の大きさになるようにダミーのビットでスタッフィングするデータである。
パケットヘッダには、PID(Packet Identifier)と呼ばれるパケット識別子が含まれる。PIDは、各TSパケットが伝送しているデータを識別する番号である。PIDを参照することにより、各TSパケットによって伝送されているデータが映像、音声又は字幕データ等のいずれであるかが識別される。
パケットヘッダには、PID(Packet Identifier)と呼ばれるパケット識別子が含まれる。PIDは、各TSパケットが伝送しているデータを識別する番号である。PIDを参照することにより、各TSパケットによって伝送されているデータが映像、音声又は字幕データ等のいずれであるかが識別される。
TSは、複数の番組を多重化して伝送することができる。そのため、前記PIDがどの番組の映像、音声及び字幕データ等であるかを識別するための情報を、PSIのPAT及びPMTから取得する。PMTには、1つの番組の映像、音声及び字幕データ等のPIDが記述されている。PATには、どのPMTにどの番組が対応するかについて記述されている。そこで、PAT及びPMTから、パケットヘッダのPIDを介して、伝送されてくるコンテンツデータから特定番組の映像、音声及び字幕データ等を抽出することができる。
データ抽出部15は、入力部14より入力されたコンテンツデータから画像データ及びセクションデータを抽出する。
データ抽出部15は、入力部14より入力されたコンテンツデータに係るTSの変調信号を復調する。データ抽出部15は、復調したパケットのPAT、PMT及びPIDを参照して、TSを個々の番組の映像、音声及び字幕等のパケットデータに分離する。また、データ抽出部15は、分離された画像データに係る圧縮符号化データから映像信号を復号し、動きベクトル算出部16へ出力する。また、データ抽出部15は、抽出したセクションデータのEIT等を制御部10へ出力する。さらに、データ抽出部15は、復調、復号を経て抽出した画像データを画像生成部18又は出力部19へ出力する。
データ抽出部15は、入力部14より入力されたコンテンツデータに係るTSの変調信号を復調する。データ抽出部15は、復調したパケットのPAT、PMT及びPIDを参照して、TSを個々の番組の映像、音声及び字幕等のパケットデータに分離する。また、データ抽出部15は、分離された画像データに係る圧縮符号化データから映像信号を復号し、動きベクトル算出部16へ出力する。また、データ抽出部15は、抽出したセクションデータのEIT等を制御部10へ出力する。さらに、データ抽出部15は、復調、復号を経て抽出した画像データを画像生成部18又は出力部19へ出力する。
動きベクトル算出部16は、データ抽出部15から抽出された画像データを入力し、画面の画像表示領域に表示される画像全体の動きベクトルを算出する。
図2は、画像全体の動きベクトル4の算出方法の一例を示す説明図である。動きベクトル算出部16は、画像表示領域6の9箇所に破線で示す部分動きベクトル検出領域6aを配置し、黒色矢印で示す夫々の部分動きベクトル3を算出する。動きベクトル算出部16は、例えばフレーム間のブロックマッチング、勾配法等から、各部分動きベクトル3を算出する。そして、動きベクトル算出部16は、各部分動きベクトル3の相加平均値を求めることにより、白抜き矢印で示す画像全体の動きベクトル4を算出する。図2では、画像全体の動きベクトル4は、画像が右に移動することに対応する。
図2は、画像全体の動きベクトル4の算出方法の一例を示す説明図である。動きベクトル算出部16は、画像表示領域6の9箇所に破線で示す部分動きベクトル検出領域6aを配置し、黒色矢印で示す夫々の部分動きベクトル3を算出する。動きベクトル算出部16は、例えばフレーム間のブロックマッチング、勾配法等から、各部分動きベクトル3を算出する。そして、動きベクトル算出部16は、各部分動きベクトル3の相加平均値を求めることにより、白抜き矢印で示す画像全体の動きベクトル4を算出する。図2では、画像全体の動きベクトル4は、画像が右に移動することに対応する。
なお、部分動きベクトル検出領域6aは、画像表示領域6の9箇所に限らない。部分動きベクトル検出領域6aを、画像表示領域6に9箇所未満配置してもよいし、10箇所以上配置してもよい。
また、動きベクトルの算出にあたり、画像データのフレームレートが例えば60(Hz)である場合、1秒間に60フレームを使用して動きベクトルを算出してもよいし、処理の負荷を減少させるために、適宜間引かれたフレームを使用して動きベクトルを算出してもよい。
画像全体の動きベクトル4は、部分動きベクトル3の相加平均値に限らず、例えば部分動きベクトル3の相乗平均値であってもよい。
また、動きベクトルの算出にあたり、画像データのフレームレートが例えば60(Hz)である場合、1秒間に60フレームを使用して動きベクトルを算出してもよいし、処理の負荷を減少させるために、適宜間引かれたフレームを使用して動きベクトルを算出してもよい。
画像全体の動きベクトル4は、部分動きベクトル3の相加平均値に限らず、例えば部分動きベクトル3の相乗平均値であってもよい。
動きベクトル算出部16は、各部分動きベクトル3のパターン認識を行うことで、画像の拡大、縮小又は回転等を示す動きベクトルの判断も行うことができる。
例えば、図3は、画像の拡大を示す動きベクトルを判断する説明図である。破線で囲まれた、9箇所の部分動きベクトル検出領域6aにおいて、夫々黒色矢印で示す部分動きベクトルが算出され、各部分動きベクトル3の相加平均値はゼロベクトルとなる。しかし、各部分動きベクトル3は、画像表示領域6の略中央から外側へ向かって放射状に分布しており、画像の拡大パターンを認識することができる。
例えば、図3は、画像の拡大を示す動きベクトルを判断する説明図である。破線で囲まれた、9箇所の部分動きベクトル検出領域6aにおいて、夫々黒色矢印で示す部分動きベクトルが算出され、各部分動きベクトル3の相加平均値はゼロベクトルとなる。しかし、各部分動きベクトル3は、画像表示領域6の略中央から外側へ向かって放射状に分布しており、画像の拡大パターンを認識することができる。
図4は、画像の回転を示す動きベクトルを判断する説明図である。破線で囲まれた、9箇所の部分動きベクトル検出領域6aにおいて、夫々黒色矢印で示す部分動きベクトルが算出され、各部分動きベクトル3の相加平均値はゼロベクトルとなる。しかし、各部分動きベクトル3は、画像表示領域6の略中央を中心として反時計回りに分布しており、画像の回転パターンを認識することができる。
動きベクトル算出部16は、パターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4を制御部10及びパラメータ算出部17へ出力する。
動きベクトル算出部16は、パターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4を制御部10及びパラメータ算出部17へ出力する。
実施の形態1の画像処理装置1において、制御部10は、画像データに振動効果を付加又は強調するか否か判断する判断手段として動作する。
制御部10は、パターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4が算出され、かつ算出された動きベクトルの大きさが所定の閾値Bより大きい場合、画像データに振動効果を付加又は強調すると判断し、データ抽出部15に対して抽出した画像データを画像生成部18へ出力させる。一方、制御部10は、パターン認識が可能な部分動きベクトル3及び画像全体の動きベクトル4が算出されない場合、又はパターン認識が可能な部分動きベクトル3及び画像全体の動きベクトル4の大きさが所定の閾値B未満である場合、データ抽出部15に対して抽出した画像データを出力部19へ出力させる。
閾値Bは予めROM11に記憶されており、制御部10はROM11から閾値Bを読み込んで、上記の判断処理を実行する。閾値Bは、例えば操作部13にGUI(Graphical User Interface)で示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された閾値Bは、ROM11に記憶される。
制御部10は、パターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4が算出され、かつ算出された動きベクトルの大きさが所定の閾値Bより大きい場合、画像データに振動効果を付加又は強調すると判断し、データ抽出部15に対して抽出した画像データを画像生成部18へ出力させる。一方、制御部10は、パターン認識が可能な部分動きベクトル3及び画像全体の動きベクトル4が算出されない場合、又はパターン認識が可能な部分動きベクトル3及び画像全体の動きベクトル4の大きさが所定の閾値B未満である場合、データ抽出部15に対して抽出した画像データを出力部19へ出力させる。
閾値Bは予めROM11に記憶されており、制御部10はROM11から閾値Bを読み込んで、上記の判断処理を実行する。閾値Bは、例えば操作部13にGUI(Graphical User Interface)で示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された閾値Bは、ROM11に記憶される。
また、制御部10は、コンテンツのジャンルに基づいて、画像データに振動効果を付加又は強調するか否か判断する判断手段として動作する。
振動効果を付加又は強調するコンテンツのジャンルは、予めROM11に記憶しておく。コンテンツデータのジャンルは、例えばTSのセクションデータに含まれるSIのEITから取得する。制御部10は、ROM11から振動効果を付加又は強調するコンテンツのジャンルを読み込み、データ抽出部15からEITを入力する。制御部10は、コンテンツデータのジャンルが振動効果を付加又は強調するジャンルに該当する場合、画像データに振動効果を付加又は強調すると判断する。一方、制御部10は、コンテンツデータのジャンルが振動効果を付加又は強調するジャンルに該当しない場合、画像データに振動効果を付加及び強調しないと判断する。
振動効果を付加又は強調するコンテンツのジャンルは、例えば操作部13に画面及びキーボードを設け、画面上で追加、削除、変更等、適宜編集可能とする。操作部13から編集された、振動効果を付加又は強調するコンテンツのジャンルは、ROM11に記憶される。
制御部10は、EITから取得したコンテンツデータのジャンルに係る情報を、パラメータ算出部17に出力する。
振動効果を付加又は強調するコンテンツのジャンルは、予めROM11に記憶しておく。コンテンツデータのジャンルは、例えばTSのセクションデータに含まれるSIのEITから取得する。制御部10は、ROM11から振動効果を付加又は強調するコンテンツのジャンルを読み込み、データ抽出部15からEITを入力する。制御部10は、コンテンツデータのジャンルが振動効果を付加又は強調するジャンルに該当する場合、画像データに振動効果を付加又は強調すると判断する。一方、制御部10は、コンテンツデータのジャンルが振動効果を付加又は強調するジャンルに該当しない場合、画像データに振動効果を付加及び強調しないと判断する。
振動効果を付加又は強調するコンテンツのジャンルは、例えば操作部13に画面及びキーボードを設け、画面上で追加、削除、変更等、適宜編集可能とする。操作部13から編集された、振動効果を付加又は強調するコンテンツのジャンルは、ROM11に記憶される。
制御部10は、EITから取得したコンテンツデータのジャンルに係る情報を、パラメータ算出部17に出力する。
振動効果が効果的なジャンル、例えばスポーツ、アニメ等の番組の画像データにのみ振動効果を付加又は強調し、他の番組ジャンルの画像データには振動効果を付加及び強調しないことにより、メリハリのある映像を通してコンテンツを楽しむことができる。
また、緊急地震速報の画像データに、より誇張した振動効果を付加又は強調することにより、難聴者に対してであっても、地震情報への注意を喚起することができる。
また、緊急地震速報の画像データに、より誇張した振動効果を付加又は強調することにより、難聴者に対してであっても、地震情報への注意を喚起することができる。
パラメータ算出部17は、動きベクトル算出部16が算出した、パターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4を基に、効果付加パラメータを算出する。効果付加パラメータは、画像データに付加されるパラメータであり、画像の移動方向及び移動量である。
効果付加パラメータの移動方向は、パターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4と同一方向に設定する場合と、異なる方向に設定する場合がある。
効果付加パラメータの移動方向がパターン認識の可能な部分動きベクトル3又は画像全体の動きベクトル4と同一方向の場合、振動効果の強調となる。また、効果付加パラメータの移動方向がパターン認識の可能な部分動きベクトル3又は画像全体の動きベクトル4と異なる方向の場合、振動効果の付加となる。
効果付加パラメータの移動方向がパターン認識の可能な部分動きベクトル3又は画像全体の動きベクトル4と同一方向の場合、振動効果の強調となる。また、効果付加パラメータの移動方向がパターン認識の可能な部分動きベクトル3又は画像全体の動きベクトル4と異なる方向の場合、振動効果の付加となる。
パラメータ算出部17は、動きベクトル算出部16が算出した動きベクトルに基づいて、効果付加パラメータの移動量E_val(画素)を算出する。
効果付加パラメータの移動量E_val(画素)は、動きベクトル算出部16が算出したパターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4の大きさV_val(画素)を基にして、式(1)のように算出される。
E_val=α×V_val (1)
ここで、αは任意の定数である。αのデフォルト値は1.0として、予めROM11に記憶されている。パラメータ算出部17は、ROM11からαを読み込み、式(1)の算出を実行する。
例えば、式(1)のV_valとして画像全体の動きベクトル4の大きさV_valを採用する場合、画像の移動量は、画像全体の動きベクトル4の移動量V_valにα=1.0としたときの移動量E_valが加算されるため、元の2倍になる。αは、例えば操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された定数αは、ROM11に記憶される。なお、上記αのデフォルト値は、例示に過ぎず、1.0に限らない。
効果付加パラメータの移動量E_val(画素)は、動きベクトル算出部16が算出したパターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4の大きさV_val(画素)を基にして、式(1)のように算出される。
E_val=α×V_val (1)
ここで、αは任意の定数である。αのデフォルト値は1.0として、予めROM11に記憶されている。パラメータ算出部17は、ROM11からαを読み込み、式(1)の算出を実行する。
例えば、式(1)のV_valとして画像全体の動きベクトル4の大きさV_valを採用する場合、画像の移動量は、画像全体の動きベクトル4の移動量V_valにα=1.0としたときの移動量E_valが加算されるため、元の2倍になる。αは、例えば操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された定数αは、ROM11に記憶される。なお、上記αのデフォルト値は、例示に過ぎず、1.0に限らない。
また、パラメータ算出部17は、コンテンツのジャンルに基づいて、効果付加パラメータの移動量E_val(画素)を補正する。
パラメータ算出部17は、制御部10からコンテンツデータのジャンルに係る情報を入力すると共に、予めコンテンツのジャンルごとにROM11に記憶されている補正値を読み込み、移動量E_valに補正値を掛けて補正する。コンテンツがスポーツ番組又はアニメ番組である場合、補正値は例えば1.5である。あるいは、コンテンツが緊急地震速報である場合、補正値は例えば2.0である。パラメータ算出部17は、コンテンツデータのジャンルが補正値としてROM11に記憶されていないジャンルである場合、移動量E_valを補正しない。
コンテンツのジャンルごとの補正値は、例えば操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された補正値は、ROM11に記憶される。
パラメータ算出部17は、補正した効果付加パラメータの移動方向及び移動量E_valを画像生成部18へ出力する。
パラメータ算出部17は、制御部10からコンテンツデータのジャンルに係る情報を入力すると共に、予めコンテンツのジャンルごとにROM11に記憶されている補正値を読み込み、移動量E_valに補正値を掛けて補正する。コンテンツがスポーツ番組又はアニメ番組である場合、補正値は例えば1.5である。あるいは、コンテンツが緊急地震速報である場合、補正値は例えば2.0である。パラメータ算出部17は、コンテンツデータのジャンルが補正値としてROM11に記憶されていないジャンルである場合、移動量E_valを補正しない。
コンテンツのジャンルごとの補正値は、例えば操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された補正値は、ROM11に記憶される。
パラメータ算出部17は、補正した効果付加パラメータの移動方向及び移動量E_valを画像生成部18へ出力する。
画像生成部18は、パラメータ算出部17が算出した効果付加パラメータの移動方向及び移動量E_valだけ、画面の画像表示領域6に対して画像が移動するように、振動効果を付加又は強調した画像データを生成する。
画像生成部18は、振動効果を付加又は強調した画像データを出力部19へ出力する。
画像生成部18は、振動効果を付加又は強調した画像データを出力部19へ出力する。
出力部19は、画像生成部18から入力された画像データを外部の表示装置2(表示部)へ出力する。
出力部19は、制御部10が画像データに振動効果を付加及び強調しないと判断した場合、データ抽出部15が抽出した画像データをデータ抽出部15から入力し、そのまま表示装置2へ出力する。
出力部19は、制御部10が画像データに振動効果を付加及び強調しないと判断した場合、データ抽出部15が抽出した画像データをデータ抽出部15から入力し、そのまま表示装置2へ出力する。
表示装置2は、例えば図示しない液晶パネル、有機EL(Electro-Luminescence)ディスプレイ、プラズマディスプレイ等の画面を備え、出力部19から入力された画像データを前記画面に表示する。
図5は、サンプル映像の説明図である。図6は、実施の形態1に係る振動効果を付加又は強調した映像の一例を示す説明図である。
効果付加パラメータの移動方向を、画像全体の動きベクトル4の方向と同一方向にする場合、図5の画像データから算出した画像全体の動きベクトル4の方向が図2のように右方向であったときに、効果付加パラメータの移動方向は右方向となる。図6は、画像5が画像全体の動きベクトル4と同じ移動量だけ、画像表示領域6に対して右へシフト移動する振動効果の強調例を示している。
画像生成部18は、画像データに振動効果を強調することによって、画像表示領域6に画像データ外領域7が生じる場合には、図6に示すように画像データ外領域7に黒帯画像を挿入する。
効果付加パラメータの移動方向を、画像全体の動きベクトル4の方向と同一方向にする場合、図5の画像データから算出した画像全体の動きベクトル4の方向が図2のように右方向であったときに、効果付加パラメータの移動方向は右方向となる。図6は、画像5が画像全体の動きベクトル4と同じ移動量だけ、画像表示領域6に対して右へシフト移動する振動効果の強調例を示している。
画像生成部18は、画像データに振動効果を強調することによって、画像表示領域6に画像データ外領域7が生じる場合には、図6に示すように画像データ外領域7に黒帯画像を挿入する。
図7は、実施の形態1に係る振動効果を付加又は強調した映像の一例を示す説明図である。画像全体の動きベクトル4として、動きベクトル算出部16により図2のように右方向の動きベクトルが算出された後、図2のような右方向と反対の左方向の動きベクトルが算出される場合、画像生成部18は、画像表示領域6に対して画像5を左にシフト移動した画像5を生成する。その後、画像全体の動きベクトル4として、動きベクトル算出部16により図2のように右方向の動きベクトルが算出される場合、画像生成部18は、画像表示領域6に対して右にシフト移動した画像5を生成する。このように画像全体の動きベクトル4の方向が時間経過に伴い変化する場合、生成される画像は、画像表示領域6に対して振動が強調されたものとなる。図7は、画像5が画像全体の動きベクトル4と同じ移動量だけ、画像表示領域6に対して左右に振動する例を示している。
画像生成部18は、画像データに左右に振動する振動効果を強調することによって、画像表示領域6に画像データ外領域7が生じる場合には、図7に示すように画像データ外領域7に黒帯画像を挿入する。
画像生成部18は、画像データに左右に振動する振動効果を強調することによって、画像表示領域6に画像データ外領域7が生じる場合には、図7に示すように画像データ外領域7に黒帯画像を挿入する。
図8は、実施の形態1に係る振動効果を付加又は強調した映像の一例を示す説明図である。動きベクトル算出部16により図3のように画像5の拡大パターンを示す部分動きベクトル3が算出された後、図3のような拡大とは反対の縮小パターンを示す部分動きベクトル3が算出される場合、画像生成部18は、画像表示領域6に対して画像5を縮小した画像5を生成する。その後、動きベクトル算出部16により画像5の拡大パターンを示す部分動きベクトル3が算出される場合、画像生成部18は、画像表示領域6に対して拡大した画像5を生成する。このようにパターン認識可能な部分動きベクトル3の方向が時間経過に伴い変化する場合、生成される画像は、画像表示領域6に対して拡大縮小による振動が強調されたものとなる。図8は、画像5が部分動きベクトル3と同じ移動量だけ、画像表示領域6に対して拡大縮小により振動する例を示している。
画像生成部18は、画像データに拡大縮小による振動効果を強調することによって、画像表示領域6に画像データ外領域7が生じる場合には、図8に示すように画像データ外領域7に黒帯画像を挿入する。
画像生成部18は、画像データに拡大縮小による振動効果を強調することによって、画像表示領域6に画像データ外領域7が生じる場合には、図8に示すように画像データ外領域7に黒帯画像を挿入する。
図9は、実施の形態1に係る奥行き方向への振動効果を示す概念図である。図9の視点位置30から映像を見る場合、視点位置30に対する画面の前後方向への周期的移動は、図8のような2次元平面における画像5の拡大縮小に係る振動効果に対応する。
図10は、実施の形態1に係る振動効果を付加又は強調した映像の一例を示す説明図である。動きベクトル算出部16により図4のように反時計回りの回転パターンを示す部分動きベクトル3が算出された後、図4のような反時計回りとは反対の、時計回りの回転パターンを示す部分動きベクトル3が算出される場合、画像生成部18は、画像表示領域6に対して画像5を時計回りに回転した画像5を生成する。その後、動きベクトル算出部16により図4のような反時計回りの回転パターンを示す部分動きベクトル3が算出される場合、画像生成部18は、画像表示領域6に対して反時計回りに回転した画像5を生成する。このようにパターン認識可能な部分動きベクトル3の方向が時間経過に伴い変化する場合、生成される画像は、画像表示領域6に対して回転による振動が強調されたものとなる。図10は、画像5が部分動きベクトル3と同じ移動量だけ、画像表示領域6に対して回転により振動する例を示している。
画像生成部18は、画像データに回転により振動する振動効果を強調することによって、画像表示領域6に画像データ外領域7が生じる場合には、図10に示すように画像データ外領域7に黒色画像を挿入する。
画像生成部18は、画像データに回転により振動する振動効果を強調することによって、画像表示領域6に画像データ外領域7が生じる場合には、図10に示すように画像データ外領域7に黒色画像を挿入する。
一方、効果付加パラメータの移動方向を、パターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4の方向と異なる方向にすることもできる。
例えば、動きベクトル算出部16により画像全体の動きベクトル4として、図2のような右方向の動きベクトルが算出された場合、画像生成部18が画像データに図8のような拡大縮小による振動効果を付加する態様でもよい。かかる場合、図2の画像全体の動きベクトル4に基づく振動効果の強調は行わずに、拡大縮小の振動効果のみを付加した態様でもよいし、図2の画像全体の動きベクトル4に基づく振動効果の強調に加えて、拡大縮小の振動効果を付加した態様でもよい。
上述のように、画像全体の動きベクトル4として、図2のような右方向の動きベクトルが算出された場合、図8に示すように画像5を拡大縮小させることは、新たな振動効果の付加に相当する。
例えば、動きベクトル算出部16により画像全体の動きベクトル4として、図2のような右方向の動きベクトルが算出された場合、画像生成部18が画像データに図8のような拡大縮小による振動効果を付加する態様でもよい。かかる場合、図2の画像全体の動きベクトル4に基づく振動効果の強調は行わずに、拡大縮小の振動効果のみを付加した態様でもよいし、図2の画像全体の動きベクトル4に基づく振動効果の強調に加えて、拡大縮小の振動効果を付加した態様でもよい。
上述のように、画像全体の動きベクトル4として、図2のような右方向の動きベクトルが算出された場合、図8に示すように画像5を拡大縮小させることは、新たな振動効果の付加に相当する。
また、例えば、動きベクトル算出部16により図4に示す回転に係るパターン認識が可能な部分動きベクトル3が算出された場合、回転による振動効果の強調と共に又は回転による振動効果の強調は行わずに、画像生成部18が図7のような左右方向の振動効果を画像データに付加する態様でもよい。この場合も振動効果の付加に相当する。
振動効果の付加は、付加する振動効果の種類を組み合わせることにより、多種多様な振動効果のバリエーションを実現することができる。
振動効果の付加は、付加する振動効果の種類を組み合わせることにより、多種多様な振動効果のバリエーションを実現することができる。
次に、実施の形態1に係る画像処理装置1の処理の手順を説明する。図11は、実施の形態1に係る画像処理装置1の処理の手順を示すフローチャートである。
データ抽出部15は、入力部14より入力したコンテンツデータから画像データ及びEITを抽出する(ステップS111)。動きベクトル算出部16は、データ抽出部15が抽出した画像データに基づいて、動きベクトルを算出する(ステップS112)。制御部10は、ROM11から閾値Bを読み込み、動きベクトル算出部16が算出した動きベクトルの大きさを閾値Bと比較する(ステップS113)。
データ抽出部15は、入力部14より入力したコンテンツデータから画像データ及びEITを抽出する(ステップS111)。動きベクトル算出部16は、データ抽出部15が抽出した画像データに基づいて、動きベクトルを算出する(ステップS112)。制御部10は、ROM11から閾値Bを読み込み、動きベクトル算出部16が算出した動きベクトルの大きさを閾値Bと比較する(ステップS113)。
制御部10は、動きベクトル算出部16が算出した動きベクトルの大きさが閾値B以上であると判断した場合(ステップS113:YES)、データ抽出部15が抽出したEITに基づいて、コンテンツのジャンルが振動効果を付加又は強調するジャンルか否か判断する(ステップS114)。
制御部10により、コンテンツのジャンルが振動効果を付加又は強調するジャンルと判断された場合(ステップS114:YES)、パラメータ算出部17は動きベクトル算出部16が算出した動きベクトルに基づいて、効果付加パラメータを算出する(ステップS115)。また、パラメータ算出部17は、コンテンツのジャンルに基づいて、効果付加パラメータを補正する(ステップS116)。画像生成部18は、パラメータ算出部17が算出及び補正した効果付加パラメータに基づいて、画像データに振動効果を付加又は強調する(ステップS117)。画像生成部18は、振動効果を付加又は強調した画像に黒帯画像又は黒色画像を挿入する(ステップS118)。出力部19は、画像生成部18が生成した画像データを出力し(ステップS119)、処理を終える。
制御部10により、動きベクトル算出部16が算出した動きベクトルの大きさが閾値B未満であると判断された場合(ステップS113:NO)、コンテンツのジャンルが振動効果を付加及び強調しないジャンルであると判断された場合(ステップS114:NO)、出力部19はデータ抽出部15が抽出した画像データを、そのまま出力し(ステップS119)、処理を終える。
次に、ステップS115でパラメータ算出部17が実行するパラメータ算出処理の手順について説明する。図12は、実施の形態1に係るパラメータ算出処理の手順を示すフローチャートである。パラメータ算出部17は、動きベクトル算出部16が算出した、パターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4を入力する(ステップS121)。パラメータ算出部17は、パターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4の方向を効果付加パラメータの移動方向として設定する(ステップS122)。例えば、入力された動きベクトルがパターン認識の可能な部分動きベクトル3である場合、効果付加パラメータの移動方向は拡大、縮小、時計回り回転又は反時計回り回転等である。また、入力された移動ベクトルが画像全体の動きベクトル4である場合、効果付加パラメータの移動方向は上、下、左、右等である。
パラメータ算出部17は、パターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4の大きさに基づいて、式(1)から移動量を算出する(ステップS123)。パラメータ算出部17は、算出した移動量を効果付加パラメータの移動量として設定する(ステップS124)。
パラメータ算出部17は、パターン認識が可能な部分動きベクトル3又は画像全体の動きベクトル4の大きさに基づいて、式(1)から移動量を算出する(ステップS123)。パラメータ算出部17は、算出した移動量を効果付加パラメータの移動量として設定する(ステップS124)。
ステップS116でパラメータ算出部17が実行するジャンル別パラメータ補正処理の手順について説明する。図13は、ジャンル別パラメータ補正処理の手順を示すフローチャートである。パラメータ算出部17は、制御部10からコンテンツデータのジャンルを入力する(ステップS131)。パラメータ算出部17は、ROM11からコンテンツのジャンル別補正値を読み込む(ステップS132)。パラメータ算出部17は、ステップS131で入力したコンテンツデータのジャンル及びステップS132で読み込んだ補正値が対応するジャンルが一致するか否か判断する(ステップS133)。すなわち、パラメータ算出部17は、コンテンツデータのジャンルが補正対象のジャンルか否か判断する。パラメータ算出部17は、コンテンツデータのジャンルが補正対象であると判断した場合(ステップS133:YES)、効果付加パラメータの移動量に補正値を掛け(ステップS134)、処理を終える。
一方、パラメータ算出部17は、コンテンツデータのジャンルが補正対象でないと判断した場合(ステップS133:NO)、効果付加パラメータの補正をしないで、処理を終える。
一方、パラメータ算出部17は、コンテンツデータのジャンルが補正対象でないと判断した場合(ステップS133:NO)、効果付加パラメータの補正をしないで、処理を終える。
ステップS118で画像生成部18が実行する黒帯画像挿入処理の手順について説明する。図14は、黒帯画像挿入処理の手順を示すフローチャートである。画像生成部18は、画像表示領域6とステップS117で生成した振動効果を付加又は強調した画像5とを対比し、画像5に画像データ外領域7が生じているか否か判断する(ステップS141)。画像生成部18は、画像5に画像データ外領域7が生じていると判断した場合(ステップS141:YES)、画像データ外領域7に黒帯画像又は黒色画像を挿入し(ステップS142)、処理を終える。画像生成部18は、画像5に画像データ外領域7が生じていないと判断した場合(ステップS141:NO)、画像データ外領域7に黒帯画像及び黒色画像を挿入しないで、処理を終える。
実施の形態1に係る画像処理装置1によれば、映像コンテンツデータの動きベクトルを利用することで、映像処理ソフトウェアに関する専門的な知識を有することなく、また映像コンテンツの情報量を増やすことなく、映像に対して振動効果を自動的に付加又は強調することができる。
実施の形態1では、パターン認識が可能な部分動きベクトル又は画像全体の動きベクトルを、フレーム間のブロックマッチング等から算出した。しかし、MPEG−2方式では動き補償のために、画像がブロックに分割され、ブロックごとの動きベクトルが画像データの中に含まれている。そこで、パターン認識が可能な部分動きベクトル又は画像全体の動きベクトルを求めるために、画像データに含まれる動きベクトルを利用する形態であってもよい。これにより、動きベクトル算出部の負荷を減少させることができる。
実施の形態1では、振動効果を付加又は強調するコンテンツのジャンルを、操作部に設けた画面及びキーボードから編集可能としたが、編集手段は画面及びキーボードに限られず、どのような手段を用いてもよい。
実施の形態1では、プログラムはROM又は可搬型記憶媒体に予め記憶されているものとした。しかし、実施の形態1に係る画像処理装置を動作させるプログラムは、通信網及びサーバコンピュータからROM又は可搬型記憶媒体にダウンロードする形態であってもよい。あるいは、ROM等の記憶手段を画像処理装置の外部に備える形態であってもよい。
実施の形態2
実施の形態2は、コンテンツデータに含まれる音声データを利用して、画像データに振動効果を付加又は強調する形態に係る。
図15は、実施の形態2に係る画像処理装置1の構成を示すブロック図である。実施の形態2の画像処理装置1は、制御部10、ROM11、RAM12、操作部13、入力部14、データ抽出部15、振幅比算出部216、パラメータ算出部217、画像生成部18及び出力部19を備えており、各構成部はバス1aを介して接続されている。
実施の形態2は、コンテンツデータに含まれる音声データを利用して、画像データに振動効果を付加又は強調する形態に係る。
図15は、実施の形態2に係る画像処理装置1の構成を示すブロック図である。実施の形態2の画像処理装置1は、制御部10、ROM11、RAM12、操作部13、入力部14、データ抽出部15、振幅比算出部216、パラメータ算出部217、画像生成部18及び出力部19を備えており、各構成部はバス1aを介して接続されている。
入力部14は、コンテンツデータをデータ抽出部15へ出力する。
データ抽出部15は、入力部14より入力されたコンテンツデータを復調、復号して、画像データ及び音声データを抽出する。データ抽出部15は、前記画像データ及び音声データを振幅比算出部216へ出力する。また、データ抽出部15は、画像データを画像生成部18又は出力部19へ出力する。
振幅比算出部216は、データ抽出部15から入力された画像データのフレームレートを読み込み、1フレームあたりの時間を算出する。例えば、フレームレートが60(Hz)であった場合、1フレームあたりの時間は1/60(秒)となる。以下、映像のフレームレートは60(Hz)として説明する。
振幅比算出部216は、1/60(秒)ごとにデータ抽出部15から入力された音声データに基づいて、音声データが示す音の振幅値の絶対値の相加平均値を算出する。例えば、音声データのサンプリング周波数が48000(Hz)であったとすると、1/60秒間での音声データのサンプル数は48000×(1/60)=800サンプルとなる。振幅比算出部216は、該800サンプルの振幅値の絶対値の相加平均値A_currを算出し、RAM12に記憶する。振幅比算出部216は、前フレームの相加平均値A_prevをRAM12から読み込み、現フレームの相加平均値A_currと前フレームの相加平均値A_prevとの振幅比Rを算出する。振幅比Rは式(2)で求められる。
R=A_curr/A_prev (2)
なお、振幅比Rの算出過程において、音の振幅値は相加平均値に限らず、例えばサンプルの中央値を採用してもよい。
振幅比算出部216は、算出した振幅比Rを制御部10及びパラメータ算出部217へ出力する。
振幅比算出部216は、1/60(秒)ごとにデータ抽出部15から入力された音声データに基づいて、音声データが示す音の振幅値の絶対値の相加平均値を算出する。例えば、音声データのサンプリング周波数が48000(Hz)であったとすると、1/60秒間での音声データのサンプル数は48000×(1/60)=800サンプルとなる。振幅比算出部216は、該800サンプルの振幅値の絶対値の相加平均値A_currを算出し、RAM12に記憶する。振幅比算出部216は、前フレームの相加平均値A_prevをRAM12から読み込み、現フレームの相加平均値A_currと前フレームの相加平均値A_prevとの振幅比Rを算出する。振幅比Rは式(2)で求められる。
R=A_curr/A_prev (2)
なお、振幅比Rの算出過程において、音の振幅値は相加平均値に限らず、例えばサンプルの中央値を採用してもよい。
振幅比算出部216は、算出した振幅比Rを制御部10及びパラメータ算出部217へ出力する。
実施の形態2の画像処理装置1において、制御部10は、画像データに振動効果を付加又は強調するか否か判断する判断手段として動作する。制御部10は、ROM11から閾値Tを読み込み、閾値Tと振幅比算出部216から入力された振幅比Rとを比較して、振幅比Rが閾値T以上の場合、画像データに振動効果を付加又は強調すると判断する。制御部10は、振幅比Rが閾値T未満の場合、画像データに振動効果を付加及び強調しないと判断する。
閾値Tのデフォルト値は3.2として、予めROM11に記憶されている。閾値Tは、音圧レベル比SPL_ratioが略10dBとなるように設定される。音圧レベル比SPL_ratioは式(3)で求められる。
SPL_ratio=20log10R (3)
なお、上記の閾値Tのデフォルト値は、例示に過ぎず、3.2に限らない。
閾値Tは、例えば操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された閾値Tは、ROM11に記憶される。
閾値Tのデフォルト値は3.2として、予めROM11に記憶されている。閾値Tは、音圧レベル比SPL_ratioが略10dBとなるように設定される。音圧レベル比SPL_ratioは式(3)で求められる。
SPL_ratio=20log10R (3)
なお、上記の閾値Tのデフォルト値は、例示に過ぎず、3.2に限らない。
閾値Tは、例えば操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された閾値Tは、ROM11に記憶される。
パラメータ算出部217は、制御部10が画像データに振動効果を付加又は強調すると判断した場合、振幅比算出部216が算出した振幅比Rを基に、効果付加パラメータを算出する。
効果付加パラメータの移動方向SE_dir(rad)は、例えば振幅比R及び閾値Tを基に式(4)で求められる。
SE_dir={(R/T)−1}×2π (4)
ここで、0(rad)方向は画像表示領域6を正面から見た場合、時計盤の3時方向とする。すなわち、SE_dirが0(rad)の場合、移動方向は図6の例と同様に右方向となる。SE_dirの値が大きくなるにつれて反時計回りに移動方向を決定する。
SE_dir={(R/T)−1}×2π (4)
ここで、0(rad)方向は画像表示領域6を正面から見た場合、時計盤の3時方向とする。すなわち、SE_dirが0(rad)の場合、移動方向は図6の例と同様に右方向となる。SE_dirの値が大きくなるにつれて反時計回りに移動方向を決定する。
効果付加パラメータの移動量SE_val(画素)は、例えば振幅比Rを基に式(5)で求められる。
SE_val=C_offset×R (5)
ここで、C_offsetは任意の定数であり、C_offsetのデフォルト値は1.0として、ROM11に記憶されている。パラメータ算出部217は、ROM11からC_offsetを読み込み、式(5)の算出を実行する。
C_offsetは、操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された定数C_offsetは、ROM11に記憶される。なお、C_offsetのデフォルト値は、例示に過ぎず、1.0に限らない。
パラメータ算出部217は、算出した効果付加パラメータを画像生成部18へ出力する。
SE_val=C_offset×R (5)
ここで、C_offsetは任意の定数であり、C_offsetのデフォルト値は1.0として、ROM11に記憶されている。パラメータ算出部217は、ROM11からC_offsetを読み込み、式(5)の算出を実行する。
C_offsetは、操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された定数C_offsetは、ROM11に記憶される。なお、C_offsetのデフォルト値は、例示に過ぎず、1.0に限らない。
パラメータ算出部217は、算出した効果付加パラメータを画像生成部18へ出力する。
画像生成部18は、データ抽出部15から入力された画像データとパラメータ算出部217から入力した効果付加パラメータとから、振動効果が付加又は強調された画像データを生成し、該画像データを出力部19へ出力する。
制御部10は、画像データに振動効果を付加及び強調しないと判断した場合、データ抽出部15に抽出した画像データを出力部19へ出力させる。
次に、実施の形態2に係る画像処理装置1の処理の手順を説明する。図16は、実施の形態2に係る画像処理装置1の処理の手順を示すフローチャートである。
データ抽出部15は、コンテンツデータから画像データ及び音声データを抽出する(ステップS161)。振幅比算出部216は、データ抽出部15が抽出した画像データに基づいて、1フレームあたりの時間を算出する(ステップS162)。振幅比算出部216は、1フレームあたりの時間ごとにデータ抽出部15から音声データを入力し、音声データが示す音の振幅値の絶対値の相加平均値を算出すると共に、該相加平均値をRAM12に記憶させる(ステップS163)。振幅比算出部216は、RAM12から1フレーム前の相加平均値を読み込み、式(2)に基づいて振幅比を算出する(ステップS164)。
データ抽出部15は、コンテンツデータから画像データ及び音声データを抽出する(ステップS161)。振幅比算出部216は、データ抽出部15が抽出した画像データに基づいて、1フレームあたりの時間を算出する(ステップS162)。振幅比算出部216は、1フレームあたりの時間ごとにデータ抽出部15から音声データを入力し、音声データが示す音の振幅値の絶対値の相加平均値を算出すると共に、該相加平均値をRAM12に記憶させる(ステップS163)。振幅比算出部216は、RAM12から1フレーム前の相加平均値を読み込み、式(2)に基づいて振幅比を算出する(ステップS164)。
制御部10は、振幅比算出部216により算出された振幅比が閾値T以上か否か判断する(ステップS165)。制御部10により振幅比が閾値T以上であると判断された場合(ステップS165:YES)、パラメータ算出部217は振幅比及び閾値Tに基づいて、効果付加パラメータを算出する(ステップS166)。画像生成部18は、パラメータ算出部217が算出した効果付加パラメータに基づいて、振動効果を付加又は強調した画像を生成する(ステップS167)。画像生成部18は、振動効果を付加又は強調した画像に黒帯画像又は黒色画像を挿入する(ステップS118)。出力部19は、画像生成部18が生成した画像データを出力し(ステップS168)、処理を終える。
制御部10により振幅比が閾値T未満であると判断された場合(ステップS165:NO)、出力部19はデータ抽出部15が抽出した画像データをそのまま出力し(ステップS168)、処理を終える。
次に、ステップS166でパラメータ算出部217が実行するパラメータ算出処理の手順について説明する。図17は、実施の形態2に係るパラメータ算出処理の手順を示すフローチャートである。パラメータ算出部217は、振幅比算出部216が算出した振幅比Rを入力すると共に、ROM11から閾値T及び定数C_offsetを読み込む(ステップS171)。パラメータ算出部217は、振幅比R及び閾値Tに基づいて、式(4)から移動方向を算出する(ステップS172)。パラメータ算出部217は、算出した移動方向を効果付加パラメータの移動方向として設定する(ステップS173)。
パラメータ算出部217は、振幅比R及び定数C_offsetに基づいて、式(5)から移動量を算出する(ステップS174)。パラメータ算出部217は、算出した移動量を効果付加パラメータの移動量として設定する(ステップS175)。
パラメータ算出部217は、振幅比R及び定数C_offsetに基づいて、式(5)から移動量を算出する(ステップS174)。パラメータ算出部217は、算出した移動量を効果付加パラメータの移動量として設定する(ステップS175)。
実施の形態2に係る画像処理装置1によれば、コンテンツの音声データを利用することで、映像処理ソフトウェアに関する専門的な知識を有することなく、また映像コンテンツの情報量を増やすことなく、映像に対して振動効果を自動的に付加又は強調することができる。
実施の形態2では、画像生成部が生成する画像は、画像表示領域に対して画像が効果付加パラメータの移動方向及び移動量に応じて移動等するものである。しかし、効果付加パラメータの移動方向及び移動量だけ、画像表示領域に対して画像を振動させる形態であってもよい。
例えば、サッカーの得点シーンのように歓声が沸き起こるシーンでは、音量が急増するため、大きな振幅比が算出される。かかる場合、画像を移動等させるのではなく、画像を振動させることにより映像の迫力をより増大させることができる。
例えば、サッカーの得点シーンのように歓声が沸き起こるシーンでは、音量が急増するため、大きな振幅比が算出される。かかる場合、画像を移動等させるのではなく、画像を振動させることにより映像の迫力をより増大させることができる。
実施の形態2は以上の如き構成にしてあり、その他の構成及び作用は実施の形態1と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。
実施の形態3
実施の形態3は、コンテンツデータに含まれる字幕データを利用して、画像データに振動効果を付加又は強調する形態に係る。
図18は、実施の形態3に係る画像処理装置1の構成を示すブロック図である。実施の形態3の画像処理装置1は、制御部10、ROM11、RAM12、操作部13、入力部14、データ抽出部15、検索部316、パラメータテーブル316a、パラメータ設定部317、画像生成部18及び出力部19を備えており、各構成部はバス1aを介して接続されている。
実施の形態3は、コンテンツデータに含まれる字幕データを利用して、画像データに振動効果を付加又は強調する形態に係る。
図18は、実施の形態3に係る画像処理装置1の構成を示すブロック図である。実施の形態3の画像処理装置1は、制御部10、ROM11、RAM12、操作部13、入力部14、データ抽出部15、検索部316、パラメータテーブル316a、パラメータ設定部317、画像生成部18及び出力部19を備えており、各構成部はバス1aを介して接続されている。
入力部14は、コンテンツデータをデータ抽出部15へ出力する。
データ抽出部15は、入力部14より入力されたコンテンツデータを復調、復号して、画像データ及び字幕データを抽出する。データ抽出部15は、前記画像データ及び字幕データを検索部316へ出力する。また、データ抽出部15は、画像データを画像生成部18又は出力部19へ出力する。
図19は、パラメータテーブル316aのレコードレイアウトを示す説明図である。図19に例示するパラメータテーブル316aは、対象文字列フィールド、振動方向フィールド及び振動量フィールドを含んで構成される。対象文字列フィールドには、映像の振動を想起させる文字列が記憶されている。振動方向フィールドには、移動方向又は振動方向が記憶されている。振動量フィールドには、移動量が画素単位で記憶されている。
検索部316は、データ抽出部15から入力された字幕データを基に、字幕データを単語からなる文字列に分割する。検索部316は、分割した文字列及び分割前の文字列を用いて、対象文字列フィールドについてパラメータテーブル316aを検索する。ここで、分割前の文字列をキーとした検索を行うのは、字幕データが単語だけの場合に対処するためである。
制御部10は、検索部316による検索結果に基づいて、画像データに振動効果を付加又は強調するか否か判断する判断手段として動作する。すなわち、制御部10は、検索部316を介して字幕データの文字列とパラメータテーブル316aのテンプレートマッチングを行い、字幕データが示す文字列と一致する文字列がパラメータテーブル316aの対象文字列に見つかった場合、画像データに振動効果を付加又は強調すると判断する。一方、制御部10は、字幕データが示す文字列と一致する文字列がパラメータテーブル316aの対象文字列に見つからなかった場合、画像データに振動効果を付加及び強調しないと判断する。
パラメータ設定部317は、制御部10が画像データに振動効果を付加又は強調すると判断した場合、検索部316がパラメータテーブル316aから検索したレコードを基に、効果付加パラメータを設定する。すなわち、パラメータ設定部317は、ヒットしたレコードの振動方向フィールド及び振動量フィールドの値を夫々効果付加パラメータの移動方向及び移動量に設定する。
画像生成部18は、データ抽出部15から入力された画像データとパラメータ設定部317から入力された効果付加パラメータとから、振動効果が付加又は強調された画像データを生成する。
例えば、図19のパラメータテーブル316aの対象文字列「ドカーン」が検索部316により検索された場合、パラメータ設定部317は効果付加パラメータの移動方向に上下、移動量に100(画素)を設定して、前記効果付加パラメータを画像生成部18へ出力する。画像生成部18は、パラメータ設定部317から入力された効果付加パラメータに基づいて、画像表示領域6に対して上下方向に100画素だけ画像5が振動する画像データを生成する。
例えば、図19のパラメータテーブル316aの対象文字列「ドカーン」が検索部316により検索された場合、パラメータ設定部317は効果付加パラメータの移動方向に上下、移動量に100(画素)を設定して、前記効果付加パラメータを画像生成部18へ出力する。画像生成部18は、パラメータ設定部317から入力された効果付加パラメータに基づいて、画像表示領域6に対して上下方向に100画素だけ画像5が振動する画像データを生成する。
また、画像生成部18は、振動効果を付加又は強調した画像の上に字幕データに基づく字幕を重ねる。これにより、映像は振動しても、字幕は振動しないため、視聴者が字幕を目で追う場合、振動効果を付加又は強調した迫力ある映像を提供しつつ、字幕情報については確実に把握することができる。
画像生成部18は、生成した画像データを出力部19へ出力する。
画像生成部18は、生成した画像データを出力部19へ出力する。
制御部10は、画像データに振動効果を付加及び強調しないと判断した場合、データ抽出部15に抽出した画像データを出力部19へ出力させる。
次に、実施の形態3に係る画像処理装置1の処理の手順を説明する。図20は、実施の形態3に係る画像処理装置1の処理の手順を示すフローチャートである。
データ抽出部15は、コンテンツデータから画像データ及び字幕データを抽出する(ステップS201)。検索部316は、データ抽出部15が抽出した字幕データを単語に分割する(ステップS202)。検索部316は、分割した文字列及び分割前の文字列をキーにして、パラメータテーブル316aの対象文字列フィールドを検索する(ステップS203)。
データ抽出部15は、コンテンツデータから画像データ及び字幕データを抽出する(ステップS201)。検索部316は、データ抽出部15が抽出した字幕データを単語に分割する(ステップS202)。検索部316は、分割した文字列及び分割前の文字列をキーにして、パラメータテーブル316aの対象文字列フィールドを検索する(ステップS203)。
制御部10は、検索部316の検索により、レコードがヒットしたか否か判断する(ステップS204)。制御部10により、レコードがヒットしたと判断された場合(ステップS204:YES)、パラメータ設定部317は、効果付加パラメータの移動方向及び移動量として、夫々検索部316の検索によりヒットしたレコードの値を設定する(ステップS205)。
画像生成部18は、データ抽出部15が抽出した画像データ及びパラメータ設定部317が設定した効果付加パラメータに基づいて、振動効果を付加又は強調した画像データを生成する(ステップS206)。画像生成部18は、振動効果を付加又は強調した画像5に黒帯画像又は黒色画像を挿入する(ステップS118)。画像生成部18は、振動効果を付加又は強調した映像の上に、字幕データに基づく字幕を重ねる(ステップS207)。出力部19は、画像生成部18が生成した画像データを出力し(ステップS208)、処理を終える。
画像生成部18は、データ抽出部15が抽出した画像データ及びパラメータ設定部317が設定した効果付加パラメータに基づいて、振動効果を付加又は強調した画像データを生成する(ステップS206)。画像生成部18は、振動効果を付加又は強調した画像5に黒帯画像又は黒色画像を挿入する(ステップS118)。画像生成部18は、振動効果を付加又は強調した映像の上に、字幕データに基づく字幕を重ねる(ステップS207)。出力部19は、画像生成部18が生成した画像データを出力し(ステップS208)、処理を終える。
検索部316の検索により、制御部10がレコードはヒットしなかったと判断した場合(ステップS204:NO)、出力部19はデータ抽出部15が抽出した画像データをそのまま出力し(ステップS208)、処理を終える。
本実施の形態3は以上の如き構成にしてあり、その他の構成及び作用は実施の形態1と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。
実施の形態3に係る画像処理装置1によれば、コンテンツデータに含まれる字幕データを利用することで、画像データに振動効果を自動的に付加又は強調することができる。
戸外でモバイル端末を利用して映像コンテンツを楽しむ場合、エチケット上音声を小さくするか、又はミュートしなければならない。しかし、実施の形態3に係る画像処理装置1によれば、字幕データに基づいて映像に振動効果を付加又は強調するため、たとえモバイル端末をミュートしていたとしても、的確に振動効果が付加又は強調された映像を楽しむことができる。
戸外でモバイル端末を利用して映像コンテンツを楽しむ場合、エチケット上音声を小さくするか、又はミュートしなければならない。しかし、実施の形態3に係る画像処理装置1によれば、字幕データに基づいて映像に振動効果を付加又は強調するため、たとえモバイル端末をミュートしていたとしても、的確に振動効果が付加又は強調された映像を楽しむことができる。
実施の形態1から実施の形態3で示した3つの形態を組み合わせた形態を採用することも可能である。これにより、より多様な振動効果を備えた映像を実現することができる。
実施の形態3では、パラメータテーブルを画像処理装置の中で、独立した構成部とした。しかし、パラメータテーブルは、ROM又は可搬型記憶媒体に記憶された形態であってもよい。
あるいは、画像処理装置に通信手段を設け、パラメータテーブルは、ネットを介して通信可能なサーバコンピュータに配置されてもよい。
あるいは、画像処理装置に通信手段を設け、パラメータテーブルは、ネットを介して通信可能なサーバコンピュータに配置されてもよい。
実施の形態3では、データ抽出部は、MPEG−2方式のコンテンツデータからTSパケットとして字幕データを抽出した。しかし、データ抽出部は、画像データが示す画像5に対して文字認識を行ない、認識された文字のコードを取得する文字認識手段を備えていてもよい。データ抽出部15は、この文字認識手段から取得したデータを字幕データとしてもよい。これにより、コンテンツデータがMPEG−2方式でない場合、又はMPEG−2方式の画像データに画像として文字が表示される場合であっても、データ抽出部は、コンテンツデータから字幕データを抽出することができる。
かかる場合、画像生成部は、振動効果を付加又は強調した画像の上に字幕を重ねる場合、画面上で文字認識手段により認識された文字の位置に、字幕を重ねる。
かかる場合、画像生成部は、振動効果を付加又は強調した画像の上に字幕を重ねる場合、画面上で文字認識手段により認識された文字の位置に、字幕を重ねる。
本実施の形態3は以上の如き構成にしてあり、その他の構成及び作用は実施の形態1と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。
実施の形態4
実施の形態4は、画像表示サイズに応じて効果付加パラメータを補正する形態に係る。
ここで、画像表示サイズは、画像が画面に表示されるサイズであって、必ずしも表示装置2の画面サイズではない。言い換えると、画像表示サイズは画面上で表示される画像のサイズである。図21は、実施の形態4に係る画像表示サイズに関する説明図である。図21に示すように、例えばダブルチューナ搭載型の表示装置2で画面8に2つの同じサイズの画像5を並べて表示した場合、画像5の合計サイズは表示装置2の画面サイズの半分である。すなわち、図21の例では、表示装置2の画面サイズに対する画像表示サイズは半分である。
実施の形態4は、画像表示サイズに応じて効果付加パラメータを補正する形態に係る。
ここで、画像表示サイズは、画像が画面に表示されるサイズであって、必ずしも表示装置2の画面サイズではない。言い換えると、画像表示サイズは画面上で表示される画像のサイズである。図21は、実施の形態4に係る画像表示サイズに関する説明図である。図21に示すように、例えばダブルチューナ搭載型の表示装置2で画面8に2つの同じサイズの画像5を並べて表示した場合、画像5の合計サイズは表示装置2の画面サイズの半分である。すなわち、図21の例では、表示装置2の画面サイズに対する画像表示サイズは半分である。
前記非特許文献1に示される通り、画面サイズが小さくなるほど、コンテンツの迫力感や速度感は減少する。また、画面サイズが大きくても、画像表示サイズが小さくなるほど、同様にコンテンツの迫力感や速度感は減少すると考えられる。そこで、実施の形態4では、画面8上に表示される画像5の大きさである画像表示サイズに応じて効果付加パラメータを補正する。実施の形態4は、実施の形態1から実施の形態3までの形態と組み合わせて実施することができる。
図22は、実施の形態4に係る画像処理装置1の構成を示すブロック図である。実施の形態4の画像処理装置1は、制御部10、ROM11、RAM12、操作部13、入力部14、データ抽出部15、解析部416、パラメータ算出部417、画像生成部18、出力部19及び画像表示サイズ検出部20を備えており、各構成部はバス1aを介して接続されている。
ただし、データ抽出部15は、入力部14より入力されたTSのコンテンツデータからBML(Broadcast Markup Language)で記述されたファイルも抽出し、画像表示サイズ検出部20へ出力する。BMLは、XML(Extensible Markup Language)ベースのデータ放送向けのページ記述言語であり、BMLファイルに表示装置2の画面8に表示される画像5の画像表示サイズが記述されている。
解析部416は、実施の形態1から実施の形態3までの動きベクトル算出部16、振幅比算出部216又は検索部316に該当する。パラメータ算出部417は、実施の形態1から実施の形態3までのパラメータ算出部17、217又はパラメータ設定部317に該当する。
解析部416は、実施の形態1から実施の形態3までの動きベクトル算出部16、振幅比算出部216又は検索部316に該当する。パラメータ算出部417は、実施の形態1から実施の形態3までのパラメータ算出部17、217又はパラメータ設定部317に該当する。
予めROM11に表示装置2の画面サイズを記憶させておく。画像表示サイズ検出部20は、ROM11から表示装置2の画面サイズを読み込む。次に、画像表示サイズ検出部20は、データ抽出部15から入力したBMLファイルから画像表示サイズを読み込む。画像表示サイズ検出部20は、画像表示サイズを考慮した、サイズ補正比SC_ratioを算出する。サイズ補正比SC_ratioは、式(6)で求められる。
SC_ratio={(Px_max2 +Py_max2 )/(Px2 +Py2 )}0.5 (6)
ここで、Pxは画像表示サイズの横方向の画素数、Pyは画像表示サイズの縦方向の画素数、Px_maxは表示装置2の画面サイズの横方向の画素数、Py_maxは表示装置2の画面サイズの横方向の画素数である。
なお、表示装置2の画面サイズは、例えば操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された表示装置2の画面サイズは、ROM11に記憶される。
SC_ratio={(Px_max2 +Py_max2 )/(Px2 +Py2 )}0.5 (6)
ここで、Pxは画像表示サイズの横方向の画素数、Pyは画像表示サイズの縦方向の画素数、Px_maxは表示装置2の画面サイズの横方向の画素数、Py_maxは表示装置2の画面サイズの横方向の画素数である。
なお、表示装置2の画面サイズは、例えば操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された表示装置2の画面サイズは、ROM11に記憶される。
例えば、画像表示サイズが960×540(画素)、表示装置2の画面サイズが1920×1080(画素)である場合、SC_ratio=2となる。
画像表示サイズ検出部20は、算出したサイズ補正比SC_ratioをパラメータ算出部417へ出力する。
画像表示サイズ検出部20は、算出したサイズ補正比SC_ratioをパラメータ算出部417へ出力する。
パラメータ算出部417は、画像表示サイズ検出部20からサイズ補正比SC_ratioを入力し、実施の形態1から実施の形態3で算出又は設定した効果付加パラメータの移動量E_valを補正する。例えば、実施の形態1の式(1)は、式(7)のように書き換えられる。
E_val=|SC_ratio−1|×α×V_val (7)
なお、SC_ratio<1の場合、移動方向を逆方向に設定する。
パラメータ算出部417は、式(7)により補正した効果付加パラメータを画像生成部18へ出力する。
E_val=|SC_ratio−1|×α×V_val (7)
なお、SC_ratio<1の場合、移動方向を逆方向に設定する。
パラメータ算出部417は、式(7)により補正した効果付加パラメータを画像生成部18へ出力する。
次に、実施の形態4に係る画像処理装置1の処理の手順を説明する。図23は、実施の形態4に係る画像処理装置1の処理の手順を示すフローチャートである。
抽出部15は、コンテンツデータから画像データ、音声データ及び字幕データをデータ抽出する(ステップS231)。解析部416は、データ抽出部15が抽出した画像データ、音声データ及び字幕データに基づいて、実施の形態1から実施の形態3と同様に画像全体の動きベクトル4の算出、部分動きベクトル3のパターン認識、振幅比の算出又はパラメータテーブル316aの検索をする(ステップS232)。あるいは、解析部416は、これらの解析処理を組み合わせて実行する。
抽出部15は、コンテンツデータから画像データ、音声データ及び字幕データをデータ抽出する(ステップS231)。解析部416は、データ抽出部15が抽出した画像データ、音声データ及び字幕データに基づいて、実施の形態1から実施の形態3と同様に画像全体の動きベクトル4の算出、部分動きベクトル3のパターン認識、振幅比の算出又はパラメータテーブル316aの検索をする(ステップS232)。あるいは、解析部416は、これらの解析処理を組み合わせて実行する。
制御部10は、解析部の解析結果に基づき、実施の形態1から実施の形態3と同様に、画像データに振動効果を付加又は強調するか否か判断する(ステップS233)。制御部10が画像データに振動効果を付加又は強調すると判断した場合(ステップS233:YES)、画像表示サイズ検出部20はサイズ補正比算出処理を実行する(ステップS234)。パラメータ算出部417は、実施の形態1から実施の形態3と同様に解析部416による解析結果に基づいて、効果付加パラメータを算出又は設定すると共に、ステップS234で画像表示サイズ検出部20が算出したサイズ補正比を用いて、算出又は設定した効果付加パラメータを補正する(ステップS235)。
画像生成部18は、パラメータ算出部417が算出、設定及び補正した効果付加パラメータに基づいて、振動効果を付加又は強調した画像データを生成する(ステップS236)。画像生成部18は、振動効果を付加又は強調した画像5に黒帯画像又は黒色画像を挿入する(ステップS118)。出力部19は、画像生成部18が生成した画像データを出力し(ステップS237)、処理を終える。
制御部10が画像データに振動効果を付加及び強調しないと判断した場合(ステップS233:NO)、出力部19はデータ抽出部15が抽出した画像データをそのまま出力し(ステップS237)、処理を終える。
次に、ステップS234で画像表示サイズ検出部20が実行するサイズ補正比算出処理の手順について説明する。図24は、サイズ補正比算出処理の手順を示すフローチャートである。画像表示サイズ検出部20は、ROM11から表示装置2の画面サイズを読み込む(ステップS241)。画像表示サイズ検出部20は、BMLファイルから画像表示サイズを読み込む(ステップS242)。画像表示サイズ検出部20は、ステップS241及びステップS242で夫々読み込んだ表示装置2の画面サイズ及び画像表示サイズに基づき、式(6)からサイズ補正比を算出して(ステップS243)、処理を終える。
実施の形態4に係る画像処理装置1によれば、表示装置2の画面8上での画像5のサイズが小さい場合であっても、画像表示サイズに応じて効果付加パラメータを補正することにより、画像データに振動効果が付加又は強調されるため、迫力ある映像コンテンツの再生が可能である。
実施の形態4では、画像表示サイズ検出部は、表示装置の画面サイズをROMから読み込んだ。しかし、画像表示サイズ検出部は、表示装置の画面サイズを、例えばHDMI規格のDDC(Display Data Channel)信号を介して、表示装置に記憶されているEDID(Extended Display Identification Data)から取得してもよい。EDIDは、例えば表示装置に固有の周波数、画面サイズ、製造メーカ名及び型式等である。
実施の形態4では、サイズ補正比算出処理の過程で画像表示サイズをBMLファイルから読み込んだ。しかし、画像表示サイズ検出部は、画像表示サイズを記述したBML、XML、HTML等のファイルを予めROMに記憶したテンプレートファイルに基づいて生成してもよい。そして、生成するBMLファイル等に記述する画像表示サイズをサイズ補正比算出処理で使用してもよい。このBMLファイル等は、画像表示サイズ検出部から出力部を介して表示装置2に出力される。ここで、BMLファイル等に記述する画像表示サイズは、操作部に画面及びキーボードを設け、この設けた画面及びキーボードからテンプレートファイルを編集することにより書き換え可能とする。なお、画像表示サイズの書き換え手段は画面及びキーボードに限られず、どのような手段を用いてもよい。
また、マルチチューナ搭載型の表示装置に画像を表示する場合、マルチ画面の画像表示サイズに関する情報を予めROMに記憶させておき、ROMから画像表示サイズの情報を読み込む態様であってもよい。例えば、ダブルチューナ搭載型の表示装置の場合、メイン画面サイズ:サブ画面サイズ=2:1のようにROMに記憶させておき、この比に基づいて各画像表示サイズの画素数を算出してもよい。
あるいは、表示装置の画面に表示される画像をカメラ等のセンサでモニタリングすることにより、画像表示サイズを検出する態様であってもよい。
更に、画像データをPC(Personal Computer )等のコンピュータに出力する場合、コンピュータのOSからウィンドウ、アプリケーション画面等の画像表示サイズを取得する態様であってもよい。
また、マルチチューナ搭載型の表示装置に画像を表示する場合、マルチ画面の画像表示サイズに関する情報を予めROMに記憶させておき、ROMから画像表示サイズの情報を読み込む態様であってもよい。例えば、ダブルチューナ搭載型の表示装置の場合、メイン画面サイズ:サブ画面サイズ=2:1のようにROMに記憶させておき、この比に基づいて各画像表示サイズの画素数を算出してもよい。
あるいは、表示装置の画面に表示される画像をカメラ等のセンサでモニタリングすることにより、画像表示サイズを検出する態様であってもよい。
更に、画像データをPC(Personal Computer )等のコンピュータに出力する場合、コンピュータのOSからウィンドウ、アプリケーション画面等の画像表示サイズを取得する態様であってもよい。
実施の形態4では、実施の形態1で扱ったコンテンツのジャンルによる振動効果の付加又は強調の切り分けと、コンテンツのジャンルによる効果付加パラメータの補正とを取り入れていない。しかし、実施の形態4は、実施の形態1から実施の形態3までの形態と組み合わせて実施することができるため、実施の形態1で扱ったコンテンツのジャンルによる振動効果の付加又は強調の切り分けと、コンテンツのジャンルによる効果付加パラメータの補正とを取り入れることができることは勿論である。
本実施の形態4は以上の如き構成にしてあり、その他の構成及び作用は実施の形態1と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。
実施の形態5
実施の形態5は、視聴者と表示装置2の画面8との間の距離に応じて効果付加パラメータを補正する形態に係る。以下、視聴者と表示装置2の画面8との間の距離を視聴距離と呼ぶ。
実施の形態4では、画像表示サイズに応じて効果付加パラメータを補正する実施形態について説明した。一方、表示装置2の画面サイズ及び表示画面数が一定であっても、視聴距離が変われば、相対的な画像表示サイズも変化する。例えば、1920×1080画素の映像を画面8から2mの地点で視聴した場合と、960×540画素の映像を同一の画面8から1mの地点で視聴した場合とでは、相対的に同等の画像表示サイズに見える。このことから、実施の形態5では、視聴距離に応じて効果付加パラメータを補正する。実施の形態5は、実施の形態1から実施の形態4までの形態と組み合わせて実施することができる。
実施の形態5は、視聴者と表示装置2の画面8との間の距離に応じて効果付加パラメータを補正する形態に係る。以下、視聴者と表示装置2の画面8との間の距離を視聴距離と呼ぶ。
実施の形態4では、画像表示サイズに応じて効果付加パラメータを補正する実施形態について説明した。一方、表示装置2の画面サイズ及び表示画面数が一定であっても、視聴距離が変われば、相対的な画像表示サイズも変化する。例えば、1920×1080画素の映像を画面8から2mの地点で視聴した場合と、960×540画素の映像を同一の画面8から1mの地点で視聴した場合とでは、相対的に同等の画像表示サイズに見える。このことから、実施の形態5では、視聴距離に応じて効果付加パラメータを補正する。実施の形態5は、実施の形態1から実施の形態4までの形態と組み合わせて実施することができる。
図25は、実施の形態5に係る画像処理装置1の構成を示すブロック図である。実施の形態5の画像処理装置1は、制御部10、ROM11、RAM12、操作部13、入力部14、データ抽出部15、解析部516、パラメータ算出部517、画像生成部18、出力部19及び視聴距離検出部21を備えており、各構成部はバス1aを介して接続されている。
解析部516は、実施の形態1から実施の形態4までの動きベクトル算出部16、振幅比算出部216、検索部316又は解析部416に該当する。パラメータ算出部517は、実施の形態1から実施の形態4までのパラメータ算出部17、217、417又はパラメータ設定部317に該当する。
視聴距離検出部21は、視聴距離を検出し、検出した視聴距離に基づいて、パラメータ算出部517へ効果付加パラメータを補正するための情報を出力する。視聴距離の検出方法は、例えば表示装置2に超音波の送信機と受信機とを設置し、視聴者に超音波が当たり、反射して戻ってくるまでの時間及び三角測量の原理から視聴距離を検出する。あるいは、赤外線等を利用して、視聴距離を検出してもよく、視聴距離の検出方法は限定されない。
予めROM11に基準視聴距離D_baseを記憶させておく。視聴距離検出部21は、ROM11から読み込んだ基準視聴距離D_baseと、上記で測定した視聴距離D_currとの、距離比D_ratioを算出する。距離比D_ratioの算出式を、式(8)に示す。
D_ratio=D_curr/D_base (8)
ここで、基準視聴距離D_baseは、デフォルト値として、画面両端を見込む視角が30度になることから決められたハイビジョン放送の標準観視距離である3Hに設定する。Hは表示装置2の画面8の高さである。なお、基準視聴距離D_baseのデフォルト値は、例示に過ぎず、3Hに限らない。
基準視聴距離D_baseは、例えば操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された基準視聴距離D_baseは、ROM11に記憶される。
視聴距離検出部21は、算出した距離比D_ratioをパラメータ算出部517へ出力する。
D_ratio=D_curr/D_base (8)
ここで、基準視聴距離D_baseは、デフォルト値として、画面両端を見込む視角が30度になることから決められたハイビジョン放送の標準観視距離である3Hに設定する。Hは表示装置2の画面8の高さである。なお、基準視聴距離D_baseのデフォルト値は、例示に過ぎず、3Hに限らない。
基準視聴距離D_baseは、例えば操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更可能とする。操作部13から入力された基準視聴距離D_baseは、ROM11に記憶される。
視聴距離検出部21は、算出した距離比D_ratioをパラメータ算出部517へ出力する。
パラメータ算出部517は、視聴距離検出部21から距離比D_ratioを入力し、実施の形態1から実施の形態3で算出又は設定した効果付加パラメータの移動量E_valを補正する。例えば、実施の形態1の式(1)は、式(9)のように書き換えられる。
E_val=|D_ratio−1|×α×V_val (9)
なお、D_ratio<1の場合、移動方向を逆方向に設定する。
E_val=|D_ratio−1|×α×V_val (9)
なお、D_ratio<1の場合、移動方向を逆方向に設定する。
実施の形態5の画像処理装置1に実施の形態4に係る画像表示サイズ検出部20を組み込むことも可能である。かかる場合、パラメータ算出部517は、画像表示サイズ検出部20からサイズ補正比SC_ratioを入力し、視聴距離検出部21から距離比D_ratioを入力する。そして、式(7)又は式(9)は、例えば式(10)のように書き換えることができる。
E_val=|SC_ratio−1|×|D_ratio−1|×α×V_val (10)
E_val=|SC_ratio−1|×|D_ratio−1|×α×V_val (10)
パラメータ算出部517は、式(9)又は式(10)により算出した移動量を効果付加パラメータの移動量として設定し、効果付加パラメータを画像生成部18へ出力する。
次に、実施の形態5に係る画像処理装置1の処理の手順を説明する。図26は、実施の形態5に係る画像処理装置1の処理の手順を示すフローチャートである。
データ抽出部15は、コンテンツデータから画像データ、音声データ及び字幕データを抽出する(ステップS261)。解析部516は、データ抽出部15が抽出した画像データ、音声データ及び字幕データに基づいて、実施の形態1から実施の形態3と同様に画像全体の動きベクトル4の算出、部分動きベクトル3のパターン認識、振幅比の算出又はパラメータテーブル316aの検索をする(ステップS262)。あるいは、解析部516は、これらの解析処理を組み合わせて実行する。
データ抽出部15は、コンテンツデータから画像データ、音声データ及び字幕データを抽出する(ステップS261)。解析部516は、データ抽出部15が抽出した画像データ、音声データ及び字幕データに基づいて、実施の形態1から実施の形態3と同様に画像全体の動きベクトル4の算出、部分動きベクトル3のパターン認識、振幅比の算出又はパラメータテーブル316aの検索をする(ステップS262)。あるいは、解析部516は、これらの解析処理を組み合わせて実行する。
制御部10は、解析部516の解析結果に基づき、画像データに振動効果を付加又は強調するか否か判断する(ステップS263)。制御部10が画像データに振動効果を付加又は強調すると判断した場合(ステップS263:YES)、視聴距離検出部21は距離比算出処理を実行する(ステップS264)。パラメータ算出部517は、実施の形態1から実施の形態3と同様に解析部516による解析結果に基づいて、効果付加パラメータを算出又は設定すると共に、ステップS264で視聴距離検出部21が算出した距離比を用いて、算出又は設定した効果付加パラメータを補正する(ステップS265)。ここで、実施の形態4のステップS234を導入して、パラメータ算出部517がサイズ補正比を用いて効果付加パラメータを補正するステップを組み入れてもよい。
画像生成部18は、パラメータ算出部517が算出、設定及び補正した効果付加パラメータに基づいて、振動効果を付加又は強調した画像データを生成する(ステップS266)。画像生成部18は、振動効果を付加又は強調した画像5に黒帯画像又は黒色画像を挿入する(ステップS118)。出力部19は、画像生成部18が生成した画像データを出力し(ステップS267)、処理を終える。
制御部10が画像データに振動効果を付加及び強調しないと判断した場合(ステップS263:NO)、出力部19はデータ抽出部15が抽出した画像データをそのまま出力し(ステップS267)、処理を終える。
次に、ステップS264で視聴距離検出部21が実行する距離比算出処理の手順について説明する。図27は、距離比算出処理の手順を示すフローチャートである。視聴距離検出部21は、視聴距離を検出する(ステップS271)。視聴距離検出部21は、ROM11から基準視聴距離を読み込む(ステップS272)。視聴距離検出部21は、ステップS271で検出した視聴距離及びステップS272で読み込んだ基準視聴距離に基づき、距離比を算出し(ステップS273)、処理を終える。
実施の形態5に係る画像処理装置1によれば、視聴距離が長く、相対的に画像表示サイズが小さい場合であっても、視聴距離に応じて効果付加パラメータを補正することにより、映像の振動効果が強調されるため、迫力ある映像コンテンツの再生が可能である。
実施の形態4及び実施の形態5の構成を組み合わせた画像処理装置1によれば、画像表示サイズ及び視聴距離に応じて効果付加パラメータを補正することにより、視聴条件が劣悪な場合であっても、映像処理ソフトウェアに関する専門的な知識を有することなく、また映像コンテンツの情報量を増やすことなく、映像に対して振動効果を自動的に付加又は強調することができる。
実施の形態5では、視聴距離検出部は、基準視聴距離D_baseをROMから読み込んだ。しかし、視聴距離検出部は、基準視聴距離D_baseを画面8の縦方向の画素数Iから、式(11)により算出してもよい。
D_base=3240×H/I (11)
画面8の縦方向の画素数Iは、例えばHDMI規格のDDC信号を介して、表示装置に記憶されているEDIDから取得する。
D_base=3240×H/I (11)
画面8の縦方向の画素数Iは、例えばHDMI規格のDDC信号を介して、表示装置に記憶されているEDIDから取得する。
実施の形態5では、実施の形態1で扱ったコンテンツのジャンルによる振動効果の付加又は強調の切り分けと、コンテンツのジャンルによる効果付加パラメータの補正とを取り入れていない。しかし、実施の形態5は、実施の形態1から実施の形態4までの形態と組み合わせて実施することができるため、実施の形態1で扱ったコンテンツのジャンルによる振動効果の付加又は強調の切り分けと、コンテンツのジャンルによる効果付加パラメータの補正とを取り入れることができることは勿論である。
コンテンツ製作者によっては、映像コンテンツが所定の画面サイズと所定の視聴距離で視聴されることを前提に、映像コンテンツを製作している場合がある。近距離で大きすぎる画面8を視聴している場合、目が疲れ、遠距離で小さな画面8を視聴している場合、映像の迫力が減少するからである。そこで、実施の形態4と実施の形態5とを組み合わせて実施する場合、本実施の形態に係る画像処理装置は、表示装置の画面サイズと視聴距離との組み合わせによって、効果付加パラメータの移動量を補正する手段を備えていてもよい。
例えば、画面サイズと視聴距離とからなるマトリクスで、効果付加パラメータの移動量の補正値を設定する。前記マトリクスはROM等の記憶手段に予め記憶しておく。画像処理装置は、画面サイズと視聴距離を入力して、前記記憶手段から補正値を読み込み、効果付加パラメータの移動量を補正する。
これにより、コンテンツ製作者が意図する視聴条件と異なる視聴条件で映像コンテンツを視聴する場合でも、コンテンツ製作者の意図により近い映像を楽しむことができる。
例えば、画面サイズと視聴距離とからなるマトリクスで、効果付加パラメータの移動量の補正値を設定する。前記マトリクスはROM等の記憶手段に予め記憶しておく。画像処理装置は、画面サイズと視聴距離を入力して、前記記憶手段から補正値を読み込み、効果付加パラメータの移動量を補正する。
これにより、コンテンツ製作者が意図する視聴条件と異なる視聴条件で映像コンテンツを視聴する場合でも、コンテンツ製作者の意図により近い映像を楽しむことができる。
実施の形態1〜5では、本実施の形態に係る画像処理装置を単体として実施する場合について説明した。しかし、本実施の形態に係る画像処理装置は、表示装置に組み込まれた形態としても実施可能であることは勿論である。かかる場合の表示装置は、例えばテレビ、携帯電話機、ゲーム機、マルチメディアプレーヤー、パソコン、PDA(Personal Digital Assistant)及びプロジェクタ等、画面を備えた機器である。
なお、本実施の形態に係る画像処理装置の構成要件に、表示装置(表示部)は含まれない。
なお、本実施の形態に係る画像処理装置の構成要件に、表示装置(表示部)は含まれない。
実施の形態1〜5では、画像データに振動効果を付加又は強調することによって、画像表示領域6に画像データ外領域7が生じる場合には、画像データ外領域7に黒帯画像又は黒色画像を挿入する。しかし、映像フレームの移動量によって黒帯画像又は黒色画像が大半を占めることが考えられる。そこで、効果付加パラメータの移動量が所定の閾値以上になる場合には、所定移動量を超えて画像を移動させないようにしてもよい。あるいは、効果付加パラメータの移動量が所定の閾値以上になる場合には、小さく画像を振動させるに留めた形態であってもよい。
実施の形態1、2、4及び5では、閾値B、式(1)のα、コンテンツのジャンルごとの補正値、振幅比の閾値T、式(5)のC_offset、式(6)の画面サイズ及び式(8)の基準視聴距離D_baseを、操作部13に設けたGUIによるスライドバーにより、適宜変更又は設定可能とした。しかし、上記設定値を変更又は設定する手段は、GUIによるスライドバーに限られず、どのような手段を用いてもよい。
本実施の形態5は以上の如き構成にしてあり、その他の構成及び作用は実施の形態1と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。
上記実施の形態1〜5は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その精神又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
1 画像処理装置
11 ROM
11a 可搬型記憶媒体
15 データ抽出部
16 動きベクトル算出部
216 振幅比算出部
316 検索部
316a パラメータテーブル
416、516 解析部
17、217、417、517 パラメータ算出部
317 パラメータ設定部
18 画像生成部
20 画像表示サイズ検出部
21 視聴距離検出部
2 表示装置
3 部分動きベクトル
4 画像全体の動きベクトル
5 画像
6 画像表示領域
6a 部分動きベクトル検出領域
7 画像データ外領域
8 画面
9 プログラム
11 ROM
11a 可搬型記憶媒体
15 データ抽出部
16 動きベクトル算出部
216 振幅比算出部
316 検索部
316a パラメータテーブル
416、516 解析部
17、217、417、517 パラメータ算出部
317 パラメータ設定部
18 画像生成部
20 画像表示サイズ検出部
21 視聴距離検出部
2 表示装置
3 部分動きベクトル
4 画像全体の動きベクトル
5 画像
6 画像表示領域
6a 部分動きベクトル検出領域
7 画像データ外領域
8 画面
9 プログラム
Claims (12)
- コンテンツデータに含まれる画像データが示す画像を外部の表示部に出力する画像処理装置において、
前記コンテンツデータから所定のデータを抽出する抽出手段と、
該抽出手段により抽出したデータを解析する解析手段と、
該解析手段による解析結果に基づいて、前記画像データが示す画像の表示位置、表示サイズ又は前記表示部に対する表示方向を決定する手段と
を備えることを特徴とする画像処理装置。 - 前記抽出手段は、
前記コンテンツデータから画像データ、音声データ又は字幕データを抽出するようにしてある
ことを特徴とする請求項1に記載の画像処理装置。 - 前記解析手段は、
前記抽出手段により抽出された画像データが示す画像の動きベクトルを算出するようにしてある
ことを特徴とする請求項2に記載の画像処理装置。 - 前記解析手段は、
前記抽出手段により抽出された音声データが示す音の振幅変化を算出するようにしてある
ことを特徴とする請求項2に記載の画像処理装置。 - 前記解析手段は、
前記抽出手段により抽出された字幕データが示す文字列に基づいて、前記画像データが示す画像の表示位置、表示サイズ又は前記表示部に対する表示方向を決定する情報を取得するようにしてある
ことを特徴とする請求項2に記載の画像処理装置。 - 前記解析手段は、
前記画像データが示す画像を視聴する視聴条件に応じて、前記解析手段による解析結果を補正するようにしてある
ことを特徴とする請求項1から請求項5までのいずれか一項に記載の画像処理装置。 - 前記表示部に表示される画像のサイズを検出する画像サイズ検出手段
を備え、
前記視聴条件は、
前記画像サイズ検出手段により検出される画像のサイズである
ことを特徴とする請求項6に記載の画像処理装置。 - 視聴距離を検出する視聴距離検出手段
を備え、
前記視聴条件は、
前記視聴距離検出手段により検出される視聴距離である
ことを特徴とする請求項6に記載の画像処理装置。 - コンテンツデータに含まれる画像データが示す画像を外部に出力させる画像処理方法において、
前記コンテンツデータから所定のデータを抽出する抽出ステップと、
該抽出ステップにより抽出したデータを解析する解析ステップと、
該解析ステップによる解析結果に基づいて、前記画像データが示す画像の表示位置、表示サイズ又は表示方向を決定するステップと
を含むことを特徴とする画像処理方法。 - コンピュータに、コンテンツデータに含まれる画像データが示す画像を外部に出力させるプログラムにおいて、
コンピュータに、
前記コンテンツデータから所定のデータを抽出する抽出ステップと、
該抽出ステップにより抽出したデータを解析する解析ステップと、
該解析ステップによる解析結果に基づいて、前記画像データが示す画像の表示位置、表示サイズ又は表示方向を決定するステップと
を実行させることを特徴とするプログラム。 - 前記抽出ステップは、
前記コンテンツデータから画像データ、音声データ又は字幕データを抽出する
ことを特徴とする請求項10に記載のプログラム。 - 前記解析ステップは、
前記抽出ステップにより抽出された画像データが示す画像の動きベクトルを算出する
ことを特徴とする請求項11に記載のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009132457A JP2010278997A (ja) | 2009-06-01 | 2009-06-01 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009132457A JP2010278997A (ja) | 2009-06-01 | 2009-06-01 | 画像処理装置、画像処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010278997A true JP2010278997A (ja) | 2010-12-09 |
Family
ID=43425483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009132457A Pending JP2010278997A (ja) | 2009-06-01 | 2009-06-01 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010278997A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013008869A1 (ja) * | 2011-07-14 | 2013-01-17 | 株式会社ニコン | 電子機器及びデータ生成方法 |
JP2014229315A (ja) * | 2013-05-24 | 2014-12-08 | イマージョン コーポレーションImmersion Corporation | メディア・コンテンツ及び一又は複数の外部パラメータに基づいて触覚フィードバックを提供する方法及び装置 |
CN105049746A (zh) * | 2010-12-24 | 2015-11-11 | 佳能株式会社 | 图像处理装置及其控制方法 |
CN109729426A (zh) * | 2017-10-27 | 2019-05-07 | 优酷网络技术(北京)有限公司 | 一种视频封面图像的生成方法及装置 |
CN110769129A (zh) * | 2019-10-14 | 2020-02-07 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
JP2020108175A (ja) * | 2014-07-02 | 2020-07-09 | ソニー株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003256846A (ja) * | 2002-03-05 | 2003-09-12 | Sony Corp | 画像処理装置と画像処理方法および画像処理プログラム |
JP2008005109A (ja) * | 2006-06-21 | 2008-01-10 | Sony Corp | 手振れ補正方法、手振れ補正方法のプログラム、手振れ補正方法のプログラムを記録した記録媒体及び手振れ補正装置 |
JP2008271237A (ja) * | 2007-04-20 | 2008-11-06 | Sony Corp | 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム |
JP2009234333A (ja) * | 2008-03-26 | 2009-10-15 | Yokohama Rubber Co Ltd:The | 空気入りタイヤ |
JP2009282151A (ja) * | 2008-05-20 | 2009-12-03 | Canon Inc | 映像表示装置およびその制御方法 |
JP2010175885A (ja) * | 2009-01-30 | 2010-08-12 | Panasonic Corp | 映像表示装置 |
JP2010252050A (ja) * | 2009-04-15 | 2010-11-04 | Sharp Corp | 映像処理装置、映像表示装置及び映像処理方法 |
-
2009
- 2009-06-01 JP JP2009132457A patent/JP2010278997A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003256846A (ja) * | 2002-03-05 | 2003-09-12 | Sony Corp | 画像処理装置と画像処理方法および画像処理プログラム |
JP2008005109A (ja) * | 2006-06-21 | 2008-01-10 | Sony Corp | 手振れ補正方法、手振れ補正方法のプログラム、手振れ補正方法のプログラムを記録した記録媒体及び手振れ補正装置 |
JP2008271237A (ja) * | 2007-04-20 | 2008-11-06 | Sony Corp | 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム |
JP2009234333A (ja) * | 2008-03-26 | 2009-10-15 | Yokohama Rubber Co Ltd:The | 空気入りタイヤ |
JP2009282151A (ja) * | 2008-05-20 | 2009-12-03 | Canon Inc | 映像表示装置およびその制御方法 |
JP2010175885A (ja) * | 2009-01-30 | 2010-08-12 | Panasonic Corp | 映像表示装置 |
JP2010252050A (ja) * | 2009-04-15 | 2010-11-04 | Sharp Corp | 映像処理装置、映像表示装置及び映像処理方法 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105049746B (zh) * | 2010-12-24 | 2019-04-12 | 佳能株式会社 | 图像处理装置及其控制方法 |
CN105049746A (zh) * | 2010-12-24 | 2015-11-11 | 佳能株式会社 | 图像处理装置及其控制方法 |
EP2978210A1 (en) * | 2010-12-24 | 2016-01-27 | Canon Kabushiki Kaisha | Image processing apparatus and method for controlling the same |
US10311915B2 (en) | 2010-12-24 | 2019-06-04 | Canon Kabushiki Kaisha | Image processing apparatus and method for controlling the same |
WO2013008869A1 (ja) * | 2011-07-14 | 2013-01-17 | 株式会社ニコン | 電子機器及びデータ生成方法 |
US10429934B2 (en) | 2013-05-24 | 2019-10-01 | Immersion Corporation | Method and apparatus to provide haptic feedback based on media content and one or more external parameters |
US10078368B2 (en) | 2013-05-24 | 2018-09-18 | Immersion Corporation | Method and apparatus to provide haptic feedback based on media content and one or more external parameters |
JP2014229315A (ja) * | 2013-05-24 | 2014-12-08 | イマージョン コーポレーションImmersion Corporation | メディア・コンテンツ及び一又は複数の外部パラメータに基づいて触覚フィードバックを提供する方法及び装置 |
CN110502113A (zh) * | 2013-05-24 | 2019-11-26 | 意美森公司 | 基于媒体内容和外部参数提供触觉反馈的方法及装置 |
KR20200040741A (ko) * | 2013-05-24 | 2020-04-20 | 임머숀 코퍼레이션 | 미디어 콘텐츠 및 하나 이상의 외부 파라미터에 기초하여 햅틱 피드백을 제공하기 위한 방법 및 장치 |
US10928910B2 (en) | 2013-05-24 | 2021-02-23 | Immersion Corporation | Method and apparatus to provide haptic feedback based on media content and one or more external parameters |
KR102251047B1 (ko) * | 2013-05-24 | 2021-05-13 | 임머숀 코퍼레이션 | 미디어 콘텐츠 및 하나 이상의 외부 파라미터에 기초하여 햅틱 피드백을 제공하기 위한 방법 및 장치 |
JP2020108175A (ja) * | 2014-07-02 | 2020-07-09 | ソニー株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP7143359B2 (ja) | 2014-07-02 | 2022-09-28 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN109729426A (zh) * | 2017-10-27 | 2019-05-07 | 优酷网络技术(北京)有限公司 | 一种视频封面图像的生成方法及装置 |
CN109729426B (zh) * | 2017-10-27 | 2022-03-01 | 优酷网络技术(北京)有限公司 | 一种视频封面图像的生成方法及装置 |
CN110769129A (zh) * | 2019-10-14 | 2020-02-07 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN110769129B (zh) * | 2019-10-14 | 2022-04-05 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6419306B2 (ja) | 要約コンテンツサービス方法及び放送受信装置 | |
US11330310B2 (en) | Encoding device and method, reproduction device and method, and program | |
JP2010278997A (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20150381925A1 (en) | Smart pause for neutral facial expression | |
KR101627861B1 (ko) | 사용자의 사용 이력을 기반으로 그래픽 유저 인터페이스 제공 방법 | |
JP2013546220A (ja) | ディスプレイ装置および信号処理装置並びにその方法 | |
WO2011081036A1 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
KR102383117B1 (ko) | 디스플레이 장치, 디스플레이 방법 및 디스플레이 시스템 | |
US20070200936A1 (en) | Apparatus, method, and program for controlling moving images | |
JP2012015771A (ja) | 画像処理装置、画像処理プログラム、及び画像処理方法 | |
JP4504452B1 (ja) | 映像視聴装置及び映像再生制御方法及び記録再生用プログラム | |
JP2008203756A (ja) | 映像信号処理装置、映像表示装置、映像信号処理方法 | |
JP2010252050A (ja) | 映像処理装置、映像表示装置及び映像処理方法 | |
JP2009005268A (ja) | 送信装置、受信装置及び再生装置 | |
TWI414182B (zh) | 多媒體裝置及其播放模式偵測方法 | |
CN111445427B (zh) | 视频图像处理方法以及显示设备 | |
JP2008004985A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2006333189A (ja) | 映像要約生成装置 | |
US9025930B2 (en) | Chapter information creation apparatus and control method therefor | |
JP2019213144A (ja) | 表示制御装置、表示装置、テレビジョン、及び表示制御方法 | |
JP7018752B2 (ja) | 映像処理装置及びプログラム | |
KR20150030081A (ko) | 영상 표시 장치 및 그것의 제어 방법 | |
JP2012147160A (ja) | 立体画像処理装置 | |
KR101430493B1 (ko) | 전자기기 및 그 영상신호 처리방법 | |
JP2009218874A (ja) | 記録再生装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121002 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130402 |