JP4774816B2 - 画像処理装置,画像処理方法,およびコンピュータプログラム。 - Google Patents

画像処理装置,画像処理方法,およびコンピュータプログラム。 Download PDF

Info

Publication number
JP4774816B2
JP4774816B2 JP2005167075A JP2005167075A JP4774816B2 JP 4774816 B2 JP4774816 B2 JP 4774816B2 JP 2005167075 A JP2005167075 A JP 2005167075A JP 2005167075 A JP2005167075 A JP 2005167075A JP 4774816 B2 JP4774816 B2 JP 4774816B2
Authority
JP
Japan
Prior art keywords
image
feature
original image
region
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005167075A
Other languages
English (en)
Other versions
JP2006313511A (ja
Inventor
博章 飛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005167075A priority Critical patent/JP4774816B2/ja
Priority to US11/278,774 priority patent/US20060238653A1/en
Publication of JP2006313511A publication Critical patent/JP2006313511A/ja
Application granted granted Critical
Publication of JP4774816B2 publication Critical patent/JP4774816B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は画像処理装置,画像処理方法,およびコンピュータプログラムに関する。
現在では,情報技術の発展に伴い,PC(パーソナルコンピュータ),ディジタルカメラ,ディジタルカメラ付き携帯電話などが一般ユーザに普及し,様々な場面で普通に使用されている。
上記に伴い,静止画又は動画を問わず,Webページに掲載されているディジタル画像(又は,単に画像)や,旅行先で撮影した画像など,ユーザ自ら使用する装置又はネット上には膨大な量のディジタル画像等のコンテンツが存在している。
かかる膨大なコンテンツの中からユーザが所望のものを効率的に探し出すために,特に静止画像では,コンテンツのサムネイルを表示し,画面上に表示又は印画紙等の印刷媒体に出力するシステムが一般的に存在している。
かかるシステムによって,コンテンツ自体を出力しなくとも,上記サムネイル表示から,ユーザはコンテンツの概略等について把握することができ,さらに複数のサムネイルをユーザが視認することができれば,一度に複数のコンテンツの概略等について把握することができる。
したがって,画面上に又は印刷媒体等にできるだけ多くのサムネイルを一度に表示するため,コンテンツのサムネイルをどのような態様で表示すれば,ユーザの視認性に影響を及ぼさずにサムネイルの1フレーム当たりのサイズを小さくできるのかについて開発が注力されている。
上記サムネイルの表示態様の一つとして,撮影したディジタル画像等の画像について不要な部分を切り落として所定の画像領域(注目領域又は特徴領域)だけを残すトリミング作業を,自動で行うシステムが存在する(例えば,特許文献1参照)。
一方,映像の分野では,膨大なコンテンツの中からユーザが所望のものを効率的に探し出すために,コンテンツの音量やテロップ映像による特徴部分(映像特徴)を基にしてダイジェスト映像を作成するシステムが存在している(例えば,特許文献2参照)。
特開2004−228994号公報 特開2000−223062号公報
しかしながら,かかるトリミングでは,特徴領域の画像についてユーザは目に付くようになるが,上記注目領域以外の部分が切除され,その部分の画像の情報が失われてしまうことで逆にサムネイルが示すコンテンツの概略が何であるかユーザは認識することができない場合が多い。
また,ダイジェスト映像では,例えば観衆の声により音量が大きい場面や,注目すべきテロップ映像が流れる場面の映像が断片的につなぎ合わされているため,それ以外の映像については切り捨てられ,視聴者はコンテンツの内容全体を概略的に把握することが難しかった。
なお,特徴的な場面以外の部分は,特徴部分の内容を理解する上でも,特徴部分への導入等として,何らかの関係があることが多く,その特徴部分の前後を利用者が視聴することで,視聴者はより的確に内容を理解できると期待されている。
本発明は,上記問題点に鑑みてなされたものであり,本発明の目的は,画像の情報量をそのままに,特徴領域に該当する画像に対して変形処理を施すことが可能な,新規かつ改良された画像処理装置,画像処理方法,コンピュータプログラムを提供することである。
また,本発明は,上記問題点に鑑みてなされたものであり,本発明の目的は,映像の特徴部分以外の映像の再生速度は,映像特徴部分からの距離が遠くなるに従い,次第に速く,映像特徴部分からの距離が短くなるに従い,次第に遅くすることが可能な,新規かつ改良された画像処理装置,画像処理方法,およびコンピュータプログラム。
上記課題を解決するため,本発明の第1の観点によれば,画像処理方法が提供される。上記画像処理方法は,1又は2フレーム以上の原画像の画像領域から特徴領域を抽出する抽出処理と;上記特徴領域を基にして原画像に対して変形処理を施し,特徴変形画像に変形する画像変形処理とを含むことを特徴としている。
本発明によれば,原画像の画像領域から特徴領域を抽出し,その特徴領域を基にして特徴変形画像に変形している。かかる構成によれば,特徴変形画像の情報量は原画像の情報量と変わらないため,特徴変形画像は,原画像が出力されることによって,その原画像が伝える情報と同じ内容の情報をそのまま伝えることができる。
なお,上記複数の特徴変形画像は,一画面内に又は一印刷媒体内に配置されるように構成してもよい。
上記画像変形処理では,原画像の画像領域のうち特徴領域を除いた画像領域に該当する部分の原画像について歪み処理が行われ,さらに上記特徴領域に該当する部分の原画像に対してズーム処理が行われるようにしてもよい。かかる構成によれば,特徴変形画像の情報量と原画像の情報量は変わらず同じであるため,特徴変形画像は,原画像が表示されることで,その原画像が伝える情報と同じ内容のものを伝えることができ,かつ,特徴領域となる部分の画像にズーム処理が施されているため,ユーザに対しより認知度を高められるように,特徴変形画像を表示することができ,ユーザに対する視認性が向上し,的確にユーザに情報を伝えることができる。なお,上記原画像の情報量は,例えば,原画像が画面上又は印刷媒体上等に表示され,表像され,その画面又は印刷媒体等を通じて原画像が伝える情報の量等を示している。
上記ズーム処理における拡大/縮小率は,上記特徴領域のサイズに応じて変動するように構成してもよく,上記ズーム処理は,膨張しながらズームする膨張ズーム処理であるように構成してもよい。
上記画像変形処理では,上記原画像を基にしてメッシュデータが生成されて,そのメッシュデータに対して画像変形処理が行われるように構成してもよい。
上記複数フレームの原画像からなる原画像群であって,各原画像について特徴領域を抽出し,その抽出された各特徴領域のサイズに応じて,各原画像のフレームのサイズを変更し,その変更後の各原画像の画像領域に対して上記抽出処理と,上記画像変形処理とが行われるように構成してもよい。
上記ズーム処理における拡大/縮小率は,上記特徴領域のサイズに応じて変動するように構成してもよい。
上記画像処理方法は,さらにユーザから抽出処理と画像変形処理とを自動的に実行開始する指示を受付ける指示受付け処理と,上記実行開始の指示が受付けられ,上記抽出処理と画像変形処理とが終了した後,上記特徴変形画像を出力する出力処理とを含むように構成してもよい。
上記特徴領域は,被写体の顔領域又は文字領域を含むように構成してもよい。
上記課題を解決するために,本発明の別の観点によれば,画像処理装置が提供され,その画像処理装置は,1又は2フレーム以上の原画像の画像領域から特徴領域を抽出する抽出部と;上記特徴領域を基にして原画像に対して変形処理を施し,特徴変形画像に変形する画像変形部とを備えることを特徴としている。
上記画像変形部は,上記原画像の画像領域のうち特徴領域を除いた画像領域に該当する部分の原画像を歪めて,さらに特徴領域に該当する部分の原画像をズームするように構成してもよい。
上記原画像をズームする拡大/縮小率は,特徴領域のサイズに応じて変動するように構成してもよい。
上記画像変形部は,上記原画像を基にしてメッシュデータを生成し,原画像の画像領域のうち特徴領域を除いた画像領域に該当する部分のメッシュデータを歪めて,さらに上記特徴領域に該当する部分のメッシュデータをズームするように構成してもよい。
上記画像処理装置は,複数フレームの各原画像について抽出された特徴領域のサイズに応じて,各原画像のフレームのサイズを変更するサイズ変更部をさらに備えるようにしてもよい。
上記画像処理装置は,さらにユーザから抽出部と画像変形部とに対する実行開始の指示を受付ける入力部と;上記特徴変形画像を出力する出力部と備えるように構成してもよい。
上記課題を解決するために,本発明の別の観点によれば,コンピュータをして,画像処理装置として機能させるコンピュータプログラムが提供される。上記コンピュータプログラムは,1又は2フレーム以上の原画像の画像領域から特徴領域を抽出する抽出手段と;上記特徴領域を基にして原画像に対して変形処理を施し,特徴変形画像に変形する画像変形手段とを含むことを特徴としている。
上記画像変形手段は,原画像の画像領域のうち特徴領域を除いた画像領域に該当する部分の原画像を歪めて,さらに特徴領域に該当する部分の原画像をズームするようにしてもよい。
また,上記課題を解決するために,本発明の別の観点によれば,1又は2フレーム以上の原画像が並べられた映像ストリームを再生する画像処理装置が提供される。上記画像処理装置は,映像ストリームに構成される原画像の画像領域から特徴領域を抽出する抽出部と;上記映像ストリームのうち上記抽出された特徴領域の大きさが所定の閾値を超える部分を特徴映像として特定する特徴映像特定部と;上記特徴映像の個所を起点とし上記原画像のフレーム位置までの距離を少なくともパラメータとし,そのパラメータを基に上記映像ストリームに対し変形処理を施し,該変形後の映像ストリームを基に重み付け値を求める変形部と;上記変形部により求められた重み付け値を基にして再生速度を算出する再生速度算出部とを備えることを特徴としている。
上記画像処理装置は,上記再生速度算出部により求められた上記再生速度に従って,上記映像ストリームを再生する再生部をさらに備えるように構成してもよい。
上記再生速度は,上記特徴映像の再生速度を基準とすると,その特徴映像以外の部分が再生される場合,その部分が該特徴映像から離れるに従って速度が上がるように構成してもよい。
上記抽出部は,上記映像ストリームに構成されるフレームのうち全部又は一部のフレームを基に生成される平均画像と上記原画像との差分をとることで,上記原画像の画像領域から特徴領域を抽出するように構成してもよい。
上記平均画像は,上記全部又は一部のフレームの原画像に構成される各画素の輝度及び/又は彩度についての平均を基に作成される画像であるようにしてもよい。
上記特徴映像以外の部分が再生される場合,該特徴映像が再生される際の音量を基準とすると,その部分が該特徴映像から離れるに従い上記部分の再生時の音量が下がるように構成してもよい。
上記抽出部は,上記映像ストリームに構成される各フレームに対応する音情報を,特徴領域として抽出し,上記特徴映像特定部は,上記抽出された各フレームの音情報のうち所定の閾値を超える部分を特徴映像として特定するようにしてもよい。
また,上記課題を解決するために,本発明の別の観点によれば,1又は2フレーム以上の原画像が並べられた映像ストリームを再生する再生方法が提供される。上記再生方法は,上記映像ストリームに構成される原画像の画像領域から特徴領域を抽出する抽出工程と;上記映像ストリームのうち上記抽出された特徴領域の大きさが所定の閾値を超える部分を特徴映像として特定する特徴映像特定工程と;上記特徴映像の個所を起点とし上記原画像のフレーム位置までの距離を少なくともパラメータとし,そのパラメータを基に上記映像ストリームに対し変形処理を施し,該変形後の映像ストリームを基に重み付け値を求める変形工程と;上記変形工程により求められた重み付け値を基にして再生速度を算出する再生速度算出工程とを含むことを特徴としている。
また,上記課題を解決するために,本発明の別の観点によれば,コンピュータをして,1又は2フレーム以上の原画像が並べられた映像ストリームを再生する画像処理装置として機能させるコンピュータプログラムが提供される。上記コンピュータプログラムは,上記映像ストリームに構成される原画像の画像領域から特徴領域を抽出する抽出手段と;上記映像ストリームのうち上記抽出された特徴領域の大きさが所定の閾値を超える部分を特徴映像として特定する特徴映像特定手段と;上記特徴映像の個所を起点とし上記原画像のフレーム位置までの距離を少なくともパラメータとし,そのパラメータを基に上記映像ストリームに対し変形処理を施し,該変形後の映像ストリームを基に重み付け値を求める変形手段と;上記変形ステップで求めた重み付け値を基にして再生速度を算出する再生速度算出手段とを含むことを特徴としている。
以上説明したように,本発明によれば,サムネイル等の原画像の情報量をそのままにして,原画像の画像領域に存在するユーザが注目する特徴領域をズーム(拡大/縮小)することができるため,原画像のサイズが小さく,複数の原画像が一度に表示されてもユーザは原画像を容易に視認することができ,ユーザが所望の原画像の探索を支援することができる。
また,映像に構成されるフレームを基に特定された特徴映像周辺部については通常の速度に近い速度で再生し,特徴映像から遠ざかるにつれて再生速度を徐々に上げることで,映像の情報量はそのままに映像全体を時間短縮してユーザは視聴することができ,さらに特徴映像部分について深く内容を把握することができるため,ユーザは短時間で所望の映像を探索することができる。
以下,本発明の好適な実施の形態について,添付図面を参照しながら詳細に説明する。なお,以下の説明及び添付図面において,略同一の機能及び構成を有する構成要素については,同一符号を付することにより,重複説明を省略する。
(第1の実施の形態)
図1,2を参照しながら,第1の実施の形態にかかる画像処理装置101について説明する。なお,図1は,第1の実施の形態にかかる画像処理装置の外観の概略を示した説明図であり,図2は,第1の実施の形態にかかる画像処理装置の概略的な構成を示すブロック図である。
図1に示すように,画像処理装置101は,小さなディスプレイ,モバイル性に優れた情報処理装置である。また,画像処理装置101は,インターネット等のネットワークを介してデータを送受信し,少なくとも1又は2以上の画像を表示することが可能な装置である。より具体的には,画像処理装置101は,例えば,携帯電話,通信機能付きディジタルカメラ等であるが,かかる例に限定されない。例えば,画像処理装置101は,PDA(Personal Digital Assistant),ノート型PC(パーソナルコンピュータ)等の場合でも良い。
また,上記画像処理装置101の画面上に表示される画像は,例えば,静止画像又は動画像などを例示することができる。なお,動画像等の映像の場合については,第6の実施の形態で詳細に説明する。
また,本実施の形態にかかるフレームは,単に原画像の画像領域又は原画像の枠を示す場合,またフレームは,原画像の画像領域と原画像の画像を含めたものを示す場合があるが,かかる例に限定されない。
図1に示すように,画像処理装置101の画面上には,複数のサムネイル(又は,原画像)が表示されている。ユーザは,それらのサムネイルから例えば画面上のカーソルを十字キーなどで移動し,関心のある興味のあるサムネイルを選択すると,そのサムネイル表示の画像に関連する詳細な情報等が画面に表示される。なお,上記原画像は,例えば,画像データ等であって,原画像の画像領域は,例えば,原画像のフレーム等の所定範囲である。
なお,図1に示す画面上には,15フレーム(3×5フレーム)分の原画像を表示可能な表示領域が割当てられているが,かかる例に限定されず,1又は2フレーム以上の原画像を表示することが可能な表示領域であれば,いかなるサイズの表示領域でも実施可能である。
なお,上記サムネイルは,例えば,コンテンツが写真などの静止画像の場合,その静止画像そのもの又は静止画像の解像度を下げることによって作成される画像であり,またコンテンツが動画などの場合,その動画の開始の部分に含まれる1フレーム分の画像そのもの又はその画像の解像度を下げることによって作成される画像である。以下,上記サムネイルまたはそのサムネイル等の源泉となる画像を総称して原画像とする。
したがって,画像処理装置101の特徴として,ネット上又は自装置内に存在する膨大な情報(又は,映画等のコンテンツ)を画面上にサムネイル表示することでユーザによる検索を支援する装置である。
また,本実施の形態にかかる画像処理装置101は,画像を表示する場合に限らず,音声や,動画等を表示することも可能な装置である。したがって,画像処理装置101は,スポーツ,映画等のコンテンツを再生したり,ゲームをプレイしたり等することができる。
次に,図2に示すように,画像処理装置101は,制御部130と,バス131と,記憶部133と,入出力インタフェース135と,入力部136と,表示部137と,画音入出力部138と,通信部139とを備える。
制御部130は,画像処理装置101に構成する各部の処理・命令等を制御する。また,原画像の画像領域から特徴領域(又は,注目領域)を抽出したり,原画像を変形したり等,画像処理に関する一連の処理を行うプログラムを起動及び実行等する。より具体的には,制御部130は,例えば,CPU(中央演算処理装置),MPU(マイクロプロセッサ)等を例示することができるが,かかる例に限定されない。
また,制御部130が,バス131を介してROM(Read Only Memory)132に記憶されているプログラムや,記憶部133からRAM(Random Access Memory)134に読み出したプログラム等に従って各種の画像処理等を実行する。
記憶部133は,上記プログラム,画像などのデータを読書き可能な記憶装置,ストレージ装置であり,例えば,ハードディスクドライブ,EEPROM(Electrically Erasable Programmable Read−Only Memory)などを例示することができるが,かかる例に限定されない。
入力部136は,ユーザから操作指示を受けることが可能な1又は2以上からなるボタン,トラックボール,トラックパッド,スタイラスペン,ダイアルログ,ジョイスティックなどのポインティングデバイス,または表示部137に表示される原画像を直接タッチすることでその原画像の選択を受付けるタッチパネル手段などからなるが,かかる例に限定されない。
表示部137は,少なくとも文学,コンサート,映画,またはスポーツなどの多種のジャンルに係るテキスト,音声,動画像,もしくは静止画像又はそれら任意の組み合わせなどを出力する。
バス131は,内部バス,メモリバス,入出力(I/O)バスなど画像処理装置101に構成されるバスの総称をいう。バス131は,各部から送出されたデータを,上記データの宛先である各部に伝送する。
画音入出力部138は,外部の装置で再生した画像や音声等のデータの入力をライン接続によって受付けたり,記憶部133に記憶された画像や音声等のデータを外部の装置にライン接続によって出力したりする。外部から受付けた原画像などのデータは,例えば表示部137に出力される。
通信部139は,有線又は無線からなるネットワークを介して種々の情報を送信又は受信する。なお,上記ネットワークとは,画像処理装置101とネット上のサーバ等を相互に双方向通信可能に接続するものであり,インターネットなどの公衆回線網であるが,WAN,LAN,IP−VPNなどの閉鎖回線網も含む。また接続媒体は,FDDI(Fiber Distributed Data Interface)などによる光ファイバケーブル,Ethernet(登録商標)による同軸ケーブル又はツイストペアケーブル,もしくはIEEE802.11bなどによる無線など,有線無線を問わず,衛星通信網なども含む。
(画像処理装置として機能させるプログラムについて)
次に,図3を参照しながら,第1の実施の形態にかかる画像処理装置101として機能させるプログラムについて説明する。なお,図3は,第1の実施の形態にかかる画像処理装置101として機能させるコンピュータプログラムの概略的な構成を示す説明図である。
画像処理装置101として機能させるプログラムは,予め記憶部133に実行可能なようにインストールされ,記憶されている。そして,変形処理などの画像処理を実行するために画像処理装置101にインストールされたプログラムが起動すると,図3に示すように,RAM134に読み込まれて実行される。
なお,第1の実施の形態にかかるコンピュータプログラムは,インストールされる場合を例に挙げて説明したが,かかる例に限定されず,例えば,サーバからコンピュータプログラムをダウンロードし,インタープリタして実行するJava(登録商標)等によるプログラムの場合であっても実施可能である。
図3に示すように,画像処理装置101として機能させるプログラムは,複数のモジュール群から構成されている。上記プログラムには,画像選択手段201と,画像読取手段203と,画像配置手段205と,画素結合手段207と,特徴領域算出手段(又は,抽出手段など)209と,特徴領域変形手段(又は,画像変形手段など)211と,表示手段213と,印刷手段215とが含まれている。
上記画像選択手段201は,ユーザにより入力部136が操作されると,入力部136から出力された指示内容を受けて,その指示内容に合致する画像を選択したり,既に画面上に表示された画像の中からカーソル等を移動することで画像を選択したりするモジュールである。
なお,画像選択手段201は,ユーザからの指示に限定されず,自装置内又はネット上に存在する画像を例えば最新のものから順に又はランダムに選択する場合等でも実施可能である。
上記画像読取手段203は,上記画像選択手段201により選択された画像を記憶部133又はネット上のサーバ等から原画像として読み出すモジュールである。また,画像読取手段203は,読み出した原画像を,例えば原画像の解像度よりも低い画像(サムネイル)等に加工することも可能である。上記説明の通り,本明細書では,特段の記載がない場合,原画像には,サムネイルなどの画像も含まれるものとする。
上記画像配置手段205は,表示部137の画面上の所定位置に原画像を配置するモジュールである。上記説明したように,一画面内には1又は2以上の原画像が例えば所定間隔ごとに配列されるが,かかる例に限定されない。
画素結合手段207は,表示部137に表示される1又は2以上の原画像の画素を結合して画面全体を一つの表示画像のデータに加工するモジュールである。この表示画像データが表示部137の画面に実際に表示される際のデータである。
特徴領域算出手段209は,原画像の画像領域のうちで人の目をひくような注目されやすい領域(注目領域,または,特徴領域)を特定することが可能なモジュールである。
特徴領域算出手段209は,原画像の画像領域のうち特徴領域を特定すると,原画像を加工し,特徴領域の位置を例えば矩形などで示した特徴抽出画像を作成する。なお,特徴抽出画像については後程説明するが,特徴抽出画像は,原画像の画像領域から特徴領域が抽出された画像であって,特徴領域が特定された点を除いて基本的には原画像と同様である。
なお,本実施の形態にかかる特徴領域算出手段209が特定する特徴領域は,原画像の内容に応じて多様な特徴領域を特定することができる。例えば,原画像に人や動物が含まれた画像の場合,特徴領域算出手段209は人又は動物の顔を特徴領域として特定してもよく,また原画像に地図の地名が含まれていた場合,特徴領域算出手段209は地図の地名を特徴領域として特定してもよい。
また,本実施の形態にかかる特徴領域算出手段209は,原画像の特徴領域を特定する際に,原画像と対応するメッシュデータを生成し,メッシュデータ上で特徴領域の位置を把握するようにしてもよい。なお,上記メッシュデータについては後程詳述する。
上記特徴領域変形手段211は,上記特徴領域算出手段209により特定された特徴領域(注目領域)を基にして,特徴領域をはじめそれ以外の画像領域も含めて変形処理を原画像に施す。
なお,本実施の形態にかかる特徴領域変形手段211は,上記特徴領域算出手段209で生成されたメッシュデータに対して変形処理を施すことによって,原画像に変形処理を施している。したがって,かかる特徴領域変形手段211は,原画像の画像データを直接加工しないため変形処理を効率的に実行することができる。
表示手段213は,上記特徴領域変形手段211により変形処理が施された原画像(特徴変形画像)を含む表示画像データを表示部137に出力するモジュールである。
印刷手段215は,上記特徴領域変形手段211により変形処理が施された1又は2以上の原画像(特徴変形画像)を含む表示画像データを印刷媒体等に印刷するためのモジュールである。
(画像処理について)
次に,図4を参照しながら,第1の実施の形態にかかる一連の画像処理について説明する。なお,図4は,第1の実施の形態にかかる画像処理の概略を示すフローチャートである。
図4に示すように,第1の実施の形態にかかる画像処理装置101による原画像に対する画像処理は,特徴領域抽出処理(S101)と,特徴領域変形処理(S103)と,大きく2つのステージから構成されている。
また,図4に示す画像処理では,画像読取手段203等によって読み出された原画像が複数フレームの場合,その複数フレーム分の原画像に対して,特徴領域抽出処理(S101)と,特徴領域変形処理(S103)とが実行される。
なお,本明細書では,フレームと単に記載した場合,そのフレームである枠自体もしくはそのフレームの原画像自体又は双方を示すものとする。
上記特徴領域抽出処理(S101)では,原画像の画像領域のうち例えば目立つ領域などの特徴領域を抽出する処理が行われる。以下に,図面と併せて特徴領域抽出処理(S101)について詳細に説明する。
(特徴領域抽出処理について)
まず,図5を参照しながら,第1の実施の形態にかかる特徴領域抽出処理(S101)について説明する。なお,図5は,第1の実施の形態にかかる特徴領域抽出処理の概略を示すフローチャートである。
図5に示すように,まず特徴領域算出手段209は,読み出された原画像に対し領域分割を行う(S301)。ここで,図6を参照しながら,領域分割について簡単に説明する。なお,図6は,第1の実施の形態にかかる原画像の概略を示す説明図である。
図6に示すように,原画像には,画像中央左側に1本の木と,右側に1軒の家と,上側に雲が表現されている。なお,原画像のフォーマットは,ビットマップ,JPEGなどいかなる形式でも実施可能である。
図6に示す原画像が特徴領域算出手段209によって,領域分割(S301)が行われる。例えば,領域分割(S301)は,縦横が所定ピクセルからなるブロックによって原画像を1又は2以上のブロックに分割することによって領域分割してもよいが,第1の実施の形態にかかる原画像に対する領域分割(イメージセグメンテーション)は,以下に示す方法が用いられている。
上記領域分割は,「Nock, R., and Nielsen, F. Statistical Region Merging,“Transactions on Pattern Analysis and Machine Intelligence(TPAMI)” IEEE CS Press4,pp.557−560,2004」の方法を用いて行われているが,かかる方法に限定されず,他の画像領域を分割する方法を用いても実施可能である。
次に,領域分割(S301)が終了すると,次に,分割された複数の画像領域各々に対して,特徴領域算出手段209によって誘目度を計算し評価する(S303)。上記誘目度は,人が目に留まりやすい又は人が注目しやすい度合いを示すパラメータであって,人の主観にあわせたパラメータである。
特徴領域(注目領域)の抽出は,求められた誘目度を評価した結果,最も目立つ領域を特徴領域として抽出する。つまり,特徴領域の評価の際は,物理的特徴に従って,人の主観にあうように評価がされるので,人の主観に適合する特徴領域が抽出される。
例えば,誘目度を計算し求める場合,物理的特徴が色の異質度を含む場合,また色相,彩度,明度など色の要素を基にして人の主観による目立つ色(赤色など)に近い領域等を誘目度が高いと算出する場合でもよい。
なお,第1の実施の形態にかかる誘目度の計算及び評価については,以下に示す方法が用いられている。「田中昭二, 井上征士, 岩館祐一, 中津良平,“画像領域の物理的特徴に基づく誘目度評価モデル”,電子情報通信学会論文誌 A Vol. J83A No.5,pp.576−588,2000.」の方法を用いて行われているが,かかる方法に限定されず,他の画像領域を分割する方法を用いても実施可能である。
誘目度が計算されると(S303),次に,特徴領域算出手段209は,評価した各分割後の画像領域の誘目度の数値を参照し,誘目度の高い方から順に分割後の画像領域を並べる(S305)。
次に,特徴領域算出手段209は,誘目度の高い画像領域から順に選択し,選択された分割後の画像領域の面積の総和が,原画像の面積の略半分以上に達した時点で,画像領域の選択を中止する(S307)。
上記ステップS307において,特徴領域算出手段209によって選択された分割後の画像領域全体が,特徴領域(又は,注目領域)となる。
次に,特徴領域算出手段209は,ステップS307で選択した画像領域が存在する位置の近傍(隣接するなど)に他の選択した画像領域が存在する場合,それらの画像領域を結合し,一つの画像領域(特徴領域)とする。
なお,上記ステップS307では,上記特徴領域算出手段209によって選択された分割後の画像領域全体が特徴領域とする場合を例に挙げて説明したが,かかる例に限定されず,例えば,上記特徴領域算出手段209によって選択された分割後の画像領域全体の外接四角形を特徴領域としてもよい。
以上,ステップS301〜ステップS309が実行されることで,特徴領域抽出処理(S101)が終了し,原画像の画像領域から特徴領域を抽出することができる。なお,ここで,図6に示す原画像が特徴抽出処理(S101)が実行されると,図7に示すような特徴領域が抽出された特徴抽出画像が作成される。
図7に示すように,特徴抽出画像には,上記図6に示す原画像に表現されていた木と家の周囲を囲むように矩形が表示されている。上記矩形内の部分が特徴領域(以下,矩形)に相当する。なお,図7に示す特徴抽出画像の特徴領域は,上記ステップS307において特徴領域算出手段209が選択した分割後の画像領域全体の外接四角形を特徴領域とした場合の領域であるが,かかる例に限定されない。
また,原画像について特徴領域抽出処理(S101)が実行されると特徴領域が抽出されるが,その特徴領域の位置を表すために,例えば図7に示す矩形の頂点の座標等が特徴領域情報としてRAM134又は記憶部133等に格納されてもよい。
(特徴領域変形処理について)
次に,図8を参照しながら,第1の実施の形態に特徴領域変形処理(S103)について説明する。なお,図8は,第1の実施の形態にかかる特徴領域変形処理の概略を示すフローチャートである。
図4に示すように,上記説明した特徴領域抽出処理(S101)が終了し,原画像の画像領域から特徴領域が抽出されると,次に,原画像の情報量をそのまま維持するように,少なくとも特徴領域を変形する特徴領域変形処理(S103)が実行される。
図8に示すように,特徴領域変形手段211は,RAM134等に記憶された特徴領域情報を基にして,上記特徴領域算出手段209によって原画像の画像領域から抽出された特徴領域の外接四角形を設定する(S401)。なお,特徴領域抽出処理(S101)において,上記特徴領域の外接四角形が設定されていた場合,上記ステップS401を省略しても良い。
次に,特徴領域変形手段211は,原画像の画像領域のうち,ステップS401で設定された特徴領域の外接四角形を除いた領域に対応するメッシュデータを,フィッシュアイ(Fisheye)アルゴリズムによって変形(歪み処理)する(S403)。
なお,上記ステップS401で設定された特徴領域の外接四角形を除いた領域に対応するメッシュデータが変形される際に,上記特徴領域がズーム処理される拡大/縮小率に応じて変形される度合いが調整される。
(メッシュデータ)
ここで,図9,図10を参照しながら,第1の実施の形態にかかるメッシュデータについて説明する。なお,図9は,第1の実施の形態にかかるメッシュデータの概略的な構成について示す説明図であり,図10は,第1の実施の形態にかかる原画像にメッシュデータが付加されたメッシュ入り特徴抽出画像の概略的な構成を示す説明図である。
図9に示すように,メッシュデータは,所定面積を有するブロック(矩形など)を網の目状に配置したものである。図9に示すように,メッシュデータは,ブロックを単位としてブロックの頂点座標(図9に示す黒点“・”)を構造化したデータである。
なお,図9に示すメッシュデータには,黒点“・”が全てのブロックの頂点に図示されていないが,実際にはメッシュデータには全てのブロックの頂点に黒点“・”が存在するものとする。同様に,図10,図11に図示されたメッシュデータについても同様である。
上記特徴領域変形手段211は,読み取られた原画像のサイズに対応するように,図9に示すようなメッシュデータを生成し,そのメッシュデータを基にして,以降に示す変形処理を施している。かかるメッシュデータに対して変形処理をすることで,例えばピクセルごとに原画像を処理するよりも格段に処理効率又は処理負荷が軽減される。
また,第1の実施の形態にかかるメッシュデータに構成される黒点の個数は,メッシュデータを構成するブロックの数に比例し,画像処理装置101の処理能力にも依存するが,基本的に,いかなる個数の場合でも実施可能である。
上記特徴領域変形手段211がメッシュデータを生成し,特徴領域が抽出された特徴抽出画像にマッピングしたものが図10に示すメッシュ入り特徴抽出画像である。図10に示す黒点の位置を上下左右等に移動すると,それに連動して移動した黒点に対応する特徴抽出画像(原画像)のピクセル又はピクセル群も移動するように特徴領域変形手段211が画像処理する。なお,ピクセル群は,複数のピクセルが一つのグループとしてグループ化されたものである。
したがって,図10に示すように,原画像の画像領域において特徴領域(図10に示す木を囲む矩形と家を囲む矩形内)以外の領域の位置に対応するメッシュデータ側の領域に含む黒点(“・”)群に対し,フィッシュアイアルゴリズムによって変形処理を施す(S403)。
図8に再び戻ると,次に,フィッシュアイアルゴリズムによって変形されなかった特徴領域に対して線形に計算し,先程ステップS403で変形処理が施されて移動した特徴領域以外の領域と連動して,変形処理後の位置を計算して求める(S405)。
上記ステップS405では,特徴領域内については線形に計算して変更処理後の位置を求めるため,特徴領域についてはズーム効果によって拡大した表現となり,ユーザがその変形処理後の画像を見ると,特徴領域について非常に目に付きやすくなる。
なお,第1の実施の形態にかかるステップS405では,特徴領域内をズーム処理することで,線形拡大(ズーム処理)する場合を例に挙げて説明したが,かかる例に限定されず,例えば,ステップS405では,特徴領域内をズーム処理することで,線形縮小する場合,または特徴領域内を線形拡大/縮小でないズーム処理をする場合などでも実施可能である。
また,第1の実施の形態にかかるステップS405では,特徴領域内をズーム処理する拡大/縮小率は,例えば,特徴領域のサイズが100ピクセルまでは2倍拡大又は0.5倍縮小する等,特徴領域のサイズに応じて変更されてもよい。
なお,上記ステップS405においても,図9,図10を参照しながら説明したように,原画像の画像領域のうち特徴領域に対応するメッシュデータ側の領域内に含む黒点群に対して変形処理が施される。
また,上記ステップS403と,上記ステップS405とが,特徴領域変形手段211によって行われた結果,図10に示す変形処理前のメッシュデータは,図11に示す変形処理後のメッシュデータのようになる。
なお,図11は,第1の実施の形態にかかる変形処理後のメッシュデータが付加された特徴変形画像であるメッシュ入り特徴変形画像の概略的な構成を示す説明図である。
特徴領域変形手段211によってステップS403とステップS405が実行されるとメッシュデータは,図11に示すような結果となる。
メッシュデータの変形処理で当該メッシュデータの黒点群が移動したのと伴って,その黒点群と対応する位置に存在する原画像のピクセル群等に対しても移動させることで,特徴変形画像が作成される。
つまり,図11に示すように,メッシュデータが変形処理(S403,S405)されると,原画像に対しても特徴領域以外の領域に存在する雲などは,原画像のフレームの枠方向又はフレームの中心方向に圧縮され,表現されるように歪み処理が行われ,歪んだ雲の表現(圧縮表現)になり,特徴領域である木を囲む矩形内と家を囲む矩形内は,上記歪み処理で圧縮された領域に対応するようにズーム処理が行われると,膨張したような木と家の表現になることで,図12に示すような特徴変形画像が作成される。
特徴領域変形手段211が原画像に対応するメッシュデータを基にして特徴領域変形処理(S103)を実行することで,メッシュデータを変形すると,その変形に伴って原画像も図12に示す特徴変形画像に変形される。
なお,特徴変形画像は,あくまでメッシュデータの変形に伴って変形されるため,メッシュデータが変更前の状態に戻れば特徴変形画像も原画像の状態に戻るが,かかる例に限定されず,原画像に直接変形処理を施して不可逆的な特徴変形画像が作成される場合でも実施可能である。また,図12は,第1の実施の形態にかかる特徴変形画像の概略的な構成を示す説明図である。
さらに,図12に示すように,特徴変形画像は,特徴領域にかかる画像は原画像の状態よりも拡大されて大きく表現され,特徴領域を除いた他の領域については,フィッシュアイ効果によって,原画像の状態よりも歪んだ表現となるが,特徴領域を含め,特徴領域を除いた他の領域についても原画像の情報量を維持している点が特徴である。
上記原画像の情報量とは,原画像が画面上又は印刷媒体上等に表示され,表像され,その画面又は印刷媒体等を通じて原画像が伝える情報の量である。なお,印刷媒体は,印刷可能なプリント紙,シール,印画紙などを例示することができる。原画像が単純にトリミングされて拡大された画像が作成された場合,上記拡大された画像の情報量は,トリミングによって一部の所定領域を除いて切除されるため,上記原画像の情報量よりも少なくなるが,本実施の形態にかかる特徴変形画像の情報量は,原画像の情報量と変わらず同じである。
なお,第1の実施の形態にかかるフィッシュアイアルゴリズムの具体的な手法については,以下に示す文献等に記載されているが,かかる手法に限定されない。
(1)Furnas, G. W. “Generalized
fisheye views.” In proceedings Of the ACM Tran on Computer−Human Interaction, pp.
126−160, 1994.
以上で,第1の実施の形態にかかる一連の画像処理について説明が終了するが,かかる画像処理によって以下に示すような優れた効果がある。
(1)特徴変形画像の情報量は,原画像の情報量と同じであるため,特徴変形画像は,原画像が表示されることで,その原画像が伝える情報と何ら変更なくそのまま伝えることができる。さらに特徴変形画像は,特徴領域となる部分の画像をユーザに対しより認知度を高められるように,表示することができ,ユーザに対する視認性が向上し,的確にユーザに情報を伝えることができる。
(2)特徴変形画像の情報量と原画像の情報量と同じであるため,特徴領域画像は原画像の表像によって原画像が伝える情報(コンテンツの概略等)と同じものをユーザに伝えることができ,ユーザによる誤認を防止し,ユーザによる検索回数を減らして効率的な検索を促すことができる。
(3)特徴変形画像は,原画像の特徴領域がズームされた画像となっているため,特徴変形画像のサイズを小さくしてもユーザによる視認性は低下させず,画面上に又は印刷媒体に出力する画像のフレーム数を増やすことができる。
(4)原画像の画像処理は,メッシュデータを基にして行われるため,特に携帯性の優れる画像処理装置101にとっては処理負荷が軽く,効率的に特徴変形画像を表示することができる。
(第2の実施の形態)
次に,第2の実施の形態にかかる画像処理装置について説明する。なお,第2の実施の形態にかかる画像処理装置についての説明は,第1の実施の形態にかかる画像処理装置と相違する点について詳細に説明するが,その他の点については,実質的に同一であるため,詳細な説明は省略する。
図1〜3を参照しながら,第1の実施の形態にかかる画像処理装置101について説明したが,第2の実施の形態にかかる画像処理装置101と比べると,特徴領域算出手段209が特に相違する。
第2の実施の形態にかかる特徴領域算出手段209は,原画像の画像領域から特徴領域を抽出するが,その手法が第1の実施の形態にかかる特徴領域算出手段209と異なる。第2の実施の形態にかかる特徴領域算出手段209では,原画像の画像領域から顔領域を抽出する顔領域抽出処理が行われる。なお,特徴領域としての顔領域の抽出については,後程説明する。
上記第2の実施の形態にかかる特徴領域算出手段209は,例えば,ディジタルカメラ等で撮像された被写体が表現された原画像を用いて,顔領域を認識し,その原画像の画像領域から顔領域を抽出する。
なお,第2の実施の形態にかかる特徴領域算出手段209は,顔領域を適切又は効率的に認識するため,顔領域抽出する画像処理において原画像について輝度又は彩度等の色補正等も必要に応じて実行してもよい。
また,その他にも,第2の実施の形態にかかる記憶部133は,第1の実施の形態に係る記憶部133と比べて,顔領域抽出DBを少なくとも格納している点で相違する。上記顔領域抽出DBには,原画像から顔領域を切り出すための顔が表現された顔画像のサンプル画像データ(又は,テンプレートデータ)等が格納されている。
上記サンプル画像データは,例えば,人物の顔の場合,複数の顔から平均的な顔を求め,その顔から生成される顔画像をサンプル画像データとする。一般的な顔画像が原画像に含まれていれば,その原画像に含まれる部分を顔画像であるとを認識し,その領域を顔領域として抽出することができる。
なお,第2の実施の形態にかかるサンプル画像データは,人間の顔の場合を例に挙げて説明したが,かかる例に限定されず,例えば,犬や,猫等の動物の場合,自動車等の物品の場合でも実施可能である。
(画像処理について)
次に,図13を参照しながら,第2の実施の形態にかかる一連の画像処理について説明する。なお,第2の実施の形態にかかる画像処理についての説明は,第1の実施の形態にかかる画像処理と相違する点について詳細に説明するが,その他の点については,実質的に同一であるため,詳細な説明は省略する。
図13に示すように,上記図4を参照しながら説明した第1の実施の形態にかかる一連の画像処理と比較して,第2の実施の形態にかかる一連の画像処理では,顔領域抽出処理(S201)が実行される点で相違する。
(顔領域抽出処理について)
ここで,図13に示す第2の形態にかかる顔領域抽出処理について説明する。なお,以下に説明する顔領域抽出処理(S201)は一例であって,かかる例に限定されず,原画像から顔領域を抽出可能であれば,いかなる処理でも実施可能である。
まず顔領域抽出処理(S201)では,原画像の画像領域をリサイズし,所定領域からなるブロック単位に切り出す。なお,上記原画像のリサイズは,原画像を記憶部133から読み出して,縮小率が相異なる複数のスケール画像に変換する。
例えば,第2の実施の形態にかかる原画像を,0.8倍ずつ順次縮小して5段階(1.0倍,0.8倍,0.64倍,0.51倍,0.41倍)のスケール画像に変換する。なお以下,上記複数のスケール画像は,1.0倍のスケール画像を第1のスケール画像とし,順次縮小するごとに,第2〜第5のスケール画像とする。
次に,複数のスケール画像が生成されると,スケール画像に対して切り出し処理を行う。切出し処理は,まず,例えば第1のスケール画像に対して,画像左上を起点として順にスケール画像の右下まで,例えば2画素ずつなど,適当な画素ずつ右側又は下側にずらしながらスキャンするようにして,20×20画素の矩形領域(以下,ウィンドウ画像と呼ぶ)を順次切出す。なお,本実施の形態にかかるスケール画像データの起点は,画像左上である場合に限らず,例えば画像右上などであっても実施可能である。
次に,上記第1のスケール画像データから切り出された複数のウィンドウ画像は,各ウィンドウ画像ごとに後続のテンプレートマッチング処理が実行される。上記テンプレートマッチング処理は,スケール画像を切り出す処理で,切り出されたウィンドウ画像について,例えば正規化相関法,誤差二乗法などの演算処理を実行してピーク値をもつ関数曲線に変換した後,当該関数曲線に対して認識性能が落ちない程度に十分に低い閾値を設定し,当該閾値を基準として当該ウィンドウ画像が顔画像であるか否かを判断する。
上記テンプレートマッチング処理では,上記説明したように,例えば100人程度の人間の顔画像の平均から生成される平均的な人間の顔画像をサンプル画像データ(又は,テンプレートデータ)として記憶部133の顔領域抽出DBに予め登録されている。
ウィンドウ画像が顔画像であるか否かの判断は,上記サンプル画像データを基にして,かかるウィンドウ画像について顔画像であるか否かの判断基準となる閾値が設定され,サンプル画像データとの簡易なマッチング処理を実行することで判断される。
切り出されたウィンドウ画像について,顔画像データであると判断された場合には,当該ウィンドウ画像をスコア画像(顔画像と判断されたウィンドウ画像。)とみなして,後続の前処理が実行される。
一方,上記ウィンドウ画像について,顔画像でないと判断された場合には,後続の前処理,パターン識別処理等は実行されない。なお,上記スコア画像には,顔領域と判断された度合いがどの程度確からしいのかを示す信頼度情報が含まれてもよい。例えば,信頼度情報は,スコア値が“00”〜“99”の範囲内の数値を表し,数値が高いほど,より顔領域であることが確からしいことを表す。
また,上記説明の正規化相関法,誤差二乗法などの演算処理は,後続の前処理や,パターン識別処理(SVM(サポートベクタマシン;Support Vector Machine)識別処理)等における演算処理と比較すると,演算処理量が10分の1から100分の1程度で済むとともに,テンプレートマッチング処理におけるマッチング処理時点で,例えば80(%)以上の確率で顔画像であるウィンドウ画像を検出することが可能である。
次に行われる前処理は,前述のテンプレートマッチング処理から得られたスコア画像について,例えば,スコア画像から人間の顔画像の領域とは無関係な背景等に相当する4隅の領域を抽出するために,当該4隅の領域を切り取ったマスクを用いて,20×20画素あるスコア画像から360画素分を抽出する。なお本実施の形態にかかるスコア画像は4隅を切り取った360画素分を抽出する場合を例に挙げて説明したが,かかる例に限定されず,例えば,4隅を抽出しない場合であっても実施可能である。
さらに前処理は,撮像時の照明などにより濃淡で表される被写体の傾き条件を解消するために,例えば平均二乗誤差(RSM:Root Mean Square)などによる算出方法を用いて当該抽出された360画素等のスコア画像の濃淡値に補正をかける。
続いて,前処理では,例えばスコア画像をベクトル変換し,得られたベクトル群をさらに1本のパターンベクトルに変換するため,ガボア・フィルタリング(Gabor Filtering)処理等が行われる。なお,ガボア・フィルタリングにおけるフィルタの種類は必要に応じて変更可能である。
次に,パターン識別処理では,上述した前処理でパターンベクトルとして得られたスコア画像に対して顔画像に係る画像領域(顔領域)の抽出が行われる。
なお,パターン識別処理で原画像の画像領域から抽出された顔領域に関する情報は,RAM134等に記憶される。上記顔領域に関する情報(顔領域属性情報)は,例えば,顔領域の位置(座標位置),顔領域の面積(縦×横の画素数),顔領域であることの確からしさを表す信頼度情報などが格納される。
上記記載のように,第1のスケール画像データについて,切り出し処理により順次スキャンされたウィンドウ画像について,後続のテンプレートマッチング処理,前処理,パターン識別処理等による各処理が実行され,当該第1のスケール画像から顔領域が含まれるスコア画像を複数検出することが可能となる。さらに,第2〜第5のスケール画像についても第1のスケール画像とほぼ同様に実行される。
したがって,1又は2以上の顔画像属性情報がRAM134等に格納されると,特徴領域算出手段209は,原画像の画像領域から1又は2以上の顔領域を認識し,その顔領域の部分を原画像の画像領域から特徴領域として抽出することができる。
なお,特徴領域算出手段209は,抽出した顔領域を必要に応じて,当該顔領域の外接四角形を設定し,その設定後の領域を特徴領域としての顔領域としても良い。以上で,顔領域抽出処理の一連の動作が終了する。
なお,第2の実施の形態にかかる顔領域抽出処理では,サンプル画像データを用いたマッチング処理によって,顔領域を抽出する場合を例に挙げて説明したが,かかる例に限定されず,顔領域を抽出することが可能であれば,いかなる手法でも実施可能である。
上記顔領域抽出処理(S201)が終了すると,次に,特徴領域変形手段211は,特徴領域変形処理(S103)を実行することで,原画像を特徴変形画像に変形する。かかる特徴領域変形処理(S103)は,第1の実施の形態にかかる特徴領域変形処理と実質的に同一であるため詳細な説明は省略する。
(顔領域が抽出された場合の特徴抽出画像,特徴変形画像について)
ここで,図14〜図16を参照しながら,第2の実施の形態にかかる特徴抽出画像及び特徴変形画像について説明する。なお,図14は,第2の実施の形態にかかる原画像の概略的な構成を示す説明図であり,図15は,第2の実施の形態にかかる特徴抽出画像の概略的な構成を示す説明図であり,図16は,第2の実施の形態にかかる特徴変形画像の概略的な構成を示す説明図である。
図14に示すように,ディジタルカメラ等の撮像手段によって人物を撮像した原画像が記憶部133等に格納される。なお,図14に示す原画像には一人の人物が表現された場合を例に挙げて説明するが,かかる例に限定されず,例えば,3人等の複数人の人物が原画像に表現された場合等でも実施可能である。また,第2の実施の形態にかかる原画像の解像度は,撮像手段等の性能に左右されるが,いかなる解像度でも実施可能である。
次に,図15に示すように,図14に示す原画像に対して第2の実施の形態にかかる顔領域抽出処理(S201)が実行されると,原画像の画像領域のうち顔領域が抽出される。当該顔領域が抽出され,その抽出された顔領域を表現した画像を特徴抽出画像とする。なお,上記顔領域(特徴領域)の部分は,図15に示す特徴抽出画像の四角形状の矩形で表された枠領域内である。
さらに,図15に示す特徴抽出画像として顔領域が抽出され,原画像の画像領域のうち顔領域を除いた領域に対して,上記説明したように,フィッシュアイアルゴリズムによる変形処理が行われ,顔領域についてはズーム処理が行われると,図14に示す原画像は,図16に示す特徴変形画像に変形する。
なお,第2の実施の形態にかかる一連の画像処理でも,第1の実施の形態に係る画像処理と同様に,メッシュデータを用いて顔領域抽出処理(S201),特徴領域変形処理(S103)などが実行される。
(第3の実施の形態)
次に,第3の実施の形態にかかる画像処理装置について説明する。なお,第3の実施の形態にかかる画像処理装置についての説明は,第1の実施の形態にかかる画像処理装置と相違する点について詳細に説明するが,その他の点については,実質的に同一であるため,詳細な説明は省略する。
図1〜3を参照しながら,第1の実施の形態にかかる画像処理装置101について説明したが,第3の実施の形態にかかる画像処理装置101と比べると,特徴領域算出手段209について相違する。
第3の実施の形態にかかる特徴領域算出手段209は,原画像の画像領域から特徴領域を抽出するが,その手法が第1の実施の形態にかかる特徴領域算出手段209と異なる。第3の実施の形態にかかる特徴領域算出手段209では,原画像に表現された文字を認識し,その原画像の画像領域から文字領域を抽出する文字領域抽出処理が行われる。なお,特徴領域としての文字領域の抽出については,後程説明する。
上記第3の実施の形態にかかる特徴領域算出手段209は,例えば,ディジタルカメラ等で地図を撮像又はスキャンすることで生成する原画像を用いて,文字を認識し,その原画像の画像領域から文字領域を抽出する。
なお,第3の実施の形態にかかる特徴領域算出手段209は,文字を適切又は効率的に認識するため,文字領域を抽出する画像処理において原画像について輝度又は彩度等の色補正等も必要に応じて実行してもよい。
より具体的には,第3の実施の形態にかかる特徴領域算出手段209は,例えばOCR(Optical Character Reader:光学式文字読み取り装置)によって,原画像のうち文字である部分を認識し,その文字の部分を文字領域として原画像の画像領域から抽出する機能を有する。
なお,第3の実施の形態に係る特徴領域算出手段209は,文字を認識する手法としてOCRを用いる場合を例に挙げて説明したが,かかる例に限定されず,文字を認識することが可能であれば如何なる手法の場合でも実施可能である。
また,その他にも,第3の実施の形態にかかる記憶部133は,第1の実施の形態に係る記憶部133と比べて,文字領域抽出DBを少なくとも格納している点で相違する。上記文字領域抽出DBには,原画像から文字を認識するために標準的な文字が表現された文字画像のパターンデータ等が格納されている。
なお,第3の実施の形態にかかるパターンデータは,文字の場合を例に挙げて説明したが,かかる例に限定されず,例えば,図形,記号等の場合でも実施可能である。
(画像処理について)
次に,図17を参照しながら,第3の実施の形態にかかる一連の画像処理について説明する。なお,第3の実施の形態にかかる画像処理についての説明は,第1の実施の形態にかかる画像処理と相違する点について詳細に説明するが,その他の点については,実質的に同一であるため,詳細な説明は省略する。
図17に示すように,上記図4を参照しながら説明した第1の実施の形態にかかる一連の画像処理と比較して,第3の実施の形態にかかる一連の画像処理では,OCRによる文字領域抽出処理(S203)が実行される点で相違する。
(文字領域抽出処理について)
ここで,図17に示す第3の形態にかかる文字領域抽出処理について簡単に説明する。なお,以下に説明するOCRによる文字領域抽出処理(S203)は一例であって,かかる例に限定されず,原画像から文字領域を抽出可能であれば,いかなる処理でも実施可能である。
特徴領域算出手段209は,例えば,OCRによって,原画像の画像領域に文字が含まれているか否かを解析し,文字が含まれる場合,その文字を認識し,文字領域として原画像の画像領域から抽出する。
なお,OCRは一般的な文字認識手法であって,OCRは,通常のパターン認識システムと同様に,認識対象とする文字のパターンを標準パターン(又は,パターンデータ)として作成しておき,この標準パターンと原画像側の入力パターンとを比較して最も似ている標準パターンを選んで,文字認識結果とするパターンマッチング法あるが,かかる例に限定されない。
なお,特徴領域算出手段209は,原画像の画像領域から抽出した文字領域を必要に応じて,当該文字領域の外接四角形を設定し,その設定後の領域を特徴領域としての文字領域としても良い。
図17に示すように,上記文字領域抽出処理(S203)が終了すると,特徴領域変形手段211は,抽出した文字領域を基にして,特徴領域変形処理(S103)を実行し,原画像を特徴変形画像に変形する。かかる特徴領域変形処理(S103)は,第1の実施の形態にかかる特徴領域変形処理と実質的に同一であるため詳細な説明は省略する。
(文字領域が抽出された場合の特徴抽出画像,特徴変形画像について)
ここで,図18〜図20を参照しながら,第3の実施の形態にかかる特徴抽出画像及び特徴変形画像について説明する。なお,図18は,第3の実施の形態にかかる原画像の概略的な構成を示す説明図であり,図19は,第3の実施の形態にかかる特徴抽出画像の概略的な構成を示す説明図であり,図20は,第3の実施の形態にかかる特徴変形画像の概略的な構成を示す説明図である。
図18に示すように,地図などをスキャニングにより生成した原画像が記憶部133等に格納される。なお,第3の実施の形態にかかる原画像の解像度は,スキャニングする読取手段等の性能に左右されるが,いかなる解像度でも実施可能である。
図18に示す原画像には,文字として「東京メトロ表参道駅」と2行に渡り表記されているのが分かる。かかる文字がOCR等によって認識され,文字領域として抽出される。
次に,図19に示すように,図18に示す原画像に対して第3の実施の形態にかかる文字領域抽出処理(S203)が実行されると,原画像の画像領域のうち文字領域が抽出される。
上記文字領域が抽出され,その抽出された文字領域を追加表現した画像を特徴抽出画像とする。なお,上記文字領域(特徴領域)の部分は,図19に示す特徴抽出画像の四角形状の矩形で表された枠領域内である。つまり,図19に示す文字領域は「東京メトロ表参道駅」を囲む矩形内の領域である。
さらに,図19に示す特徴抽出画像として顔領域が抽出され,原画像の画像領域のうち文字領域を除いた領域に対して,上記説明したように,フィッシュアイアルゴリズムによる変形処理が行われ,文字領域についてはズーム処理が行われると,図18に示す原画像は,図20に示す特徴変形画像に変形する。
なお,上記説明したように,第3の実施の形態にかかる一連の画像処理でも,第1の実施の形態に係る画像処理と同様に,メッシュデータを用いて文字領域抽出処理(S203),特徴領域変形処理(S103)が実行される。
(第4の実施の形態)
次に,第4の実施の形態にかかる一連の画像処理について説明する。なお,第4の実施の形態にかかる画像処理についての説明は,第1の実施の形態にかかる画像処理と相違する点について詳細に説明するが,その他の点については,実質的に同一であるため,詳細な説明は省略する。
また,第4の実施の形態にかかる画像処理装置は,第1の実施の形態にかかる画像処理装置の構成と実質的に同一であるため,詳細な説明は省略する。
(画像処理について)
第1〜第3の実施の形態にかかる一連の画像処理では,記憶部133から読み出された1フレーム分の原画像を対象としてきた。第4の実施の形態にかかる一連の画像処理では,図21に示すように,記憶部133から読み出された複数フレーム分の原画像群を対象とした場合の画像処理について説明する。
図21に示すように,上記原画像群は,画素結合手段207によって,記憶部133から読み取られた複数フレーム分の原画像から構成されている。かかる原画像群が表示画像データとして例えば画面上に表示される。
なお,図21に示す原画像を特定するために,フレームの位置を(縦,横)に1,2,3,…でナンバリングし,(x,y)として仮想的に図に表記しているが,実際には表示部137に表示されない。
したがって,図21に示す原画像群は,フレーム(2,4)に人物の原画像と,フレーム(3,2)に木・家の原画像と,フレーム(5,3)に地図の原画像が配置された原画像群(又は,表示画像)となっている。
なお,図21に示すように,第4の実施の形態にかかる原画像群は3フレーム分の原画像から構成され,残りのフレームは原画像が存在しない場合を例に挙げて説明しているが,原画像群は,原画像群に構成されるフレームの総数を超えず,かつ,1又は2フレーム以上の原画像が存在する場合であれば,かかる例に限定されず,いかなるフレーム数の原画像が存在する場合でも実施可能である。
第4の実施の形態にかかる一連の画像処理では,図21に示す原画像群に構成されるフレームを例えば左上端のフレーム(1,1)から順に,特徴領域抽出処理(S101),顔領域抽出処理(S201),または文字領域抽出処理(S203)が実行され,その後,特徴領域変形処理(S103)が実行される。
なお,第4の実施の形態にかかる画像処理では,まず顔領域抽出処理(S201)が行われ,その結果,当該フレームの原画像の画像領域には顔領域が存在しない場合,次に同じフレームの原画像に対して文字領域抽出処理(S203)が実行され,その結果,当該フレームの原画像の画像領域には文字領域が存在しない場合,さらに同じフレームの原画像に対して特徴領域抽出処理(S101)が実行される。
つまり,第4の実施の形態にかかる画像処理では,顔領域,文字領域等の特徴領域を抽出する抽出処理(S101,S201,S203)のうち,顔領域抽出処理(S201),文字領域抽出処理(S203),特徴領域抽出処理(S101)の順に,同じフレームの原画像について実行されるが,かかる順番に限定されない。
また,1フレーム内に顔領域,文字領域など複数の特徴領域が存在する原画像に対しても,上記抽出処理(S101,S201,S203)全て実行することで漏れなく特徴領域を抽出することができる。
図21に示す原画像群について特徴領域抽出処理(S101)と特徴領域変形処理(S103)とが実行されると,図21に示す原画像群は,図22に示すように各フレームごとに一連の画像処理が施された特徴変形画像群に変形される。
なお,第4の実施の形態にかかる一連の画像処理でも,第1の実施の形態に係る画像処理と同様に,メッシュデータを用いて特徴領域変形処理(S103)等の画像処理が実行される。
以上で,第4の実施の形態にかかる一連の画像処理の説明が終了するが,かかる画像処理によって,以下に示すような優れた効果がある。
(1)画像処理装置101は,画面上に複数の特徴変形画像が表示されるため一度に複数の特徴変形画像をユーザに対して視認させることができる。
(2)特徴変形画像の情報量と原画像の情報量が同じであり,特徴領域画像は目に留まる蓋然性が高い特徴領域にズーム処理を施した画像であるため,画像処理装置101は,特徴領域画像の画像領域の大きさを小さくし,一度に複数の特徴変形画像を画面上又は印刷媒体に出力しても,ユーザに対する視認性が著しく低下するのを防ぎ,ユーザが誤認せずに画像検索を支援することができる。したがって,画像処理装置101は,画面上又は印刷媒体上に出力可能な原画像のフレーム数を増加させて一度に画面又は印刷媒体などに出力する情報量を増やすことができる。
(3)各フレームに表示される特徴変形画像ともに変形前の原画像の情報量と同じであって,特徴領域が拡大されて表示されるため,画像処理装置101は,原画像の表像によって原画像が伝える情報(コンテンツの概略)と同じ内容をユーザに対して伝えることができ,かつ,ユーザに対する視認性を向上させて,誤認を防止することができる。
(第5の実施の形態)
次に,第5の実施の形態にかかる画像処理装置について説明する。なお,第5の実施の形態にかかる画像処理装置についての説明は,第1の実施の形態にかかる画像処理装置と相違する点について詳細に説明するが,その他の点については,実質的に同一であるため,詳細な説明は省略する。
図1〜3を参照しながら,第1の実施の形態にかかる画像処理装置101について説明したが,第5の実施の形態にかかる画像処理装置101と比べると,画像配置手段205,特徴領域算出手段209について相違する。
第5の実施の形態にかかる特徴領域算出手段209は,原画像の画像領域から抽出した特徴領域のサイズを,画像配置手段205に出力する。画像配置手段205は,その特徴領域のサイズを受け取ると,その特徴領域のサイズに応じて,フレームの領域を拡大/縮小する。
なお,第5の実施の形態にかかる特徴領域算出手段209は,上記説明した特徴領域抽出処理(S101),顔領域抽出処理(S201),または文字領域抽出処理(S203)を選択的に実行することができる。かかる処理内容は,第4の実施の形態にかかる特徴領域算出手段209による処理と実質的に同一である。
(画像処理について)
次に,図23〜図25を参照しながら,第5の実施の形態にかかる一連の画像処理について説明する。なお,第5の実施の形態にかかる画像処理についての説明は,第1の実施の形態にかかる画像処理と相違する点について詳細に説明するが,その他の点については,実質的に同一であるため,詳細な説明は省略する。
図23に示すように,上記図4を参照しながら説明した第1の実施の形態にかかる一連の画像処理と比較して,第5の実施の形態にかかる一連の画像処理では,まず領域抽出処理(S500)が実行される点で相違する。なお,図23は,第5の実施の形態にかかる画像処理の概略を示すフローチャートである。
上記領域抽出処理(S500)では,上記第4の実施の形態にかかる画像処理で説明したように,各フレームの原画像について,顔領域抽出処理(S201),文字領域抽出処理(S203),特徴領域抽出処理(S101)の順に抽出処理が実行される。
したがって,上記領域抽出処理(S500)では,まず顔領域抽出処理(S201)を実行し,その結果,顔領域が抽出されない場合,次に文字領域抽出処理(S203)を実行し,その結果,文字領域が抽出されない場合,最後に特徴領域抽出処理(S101)の順に行われる。
なお,上記領域抽出処理(S500)では,例えば,各抽出処理(S101,S201,S203)で顔領域又は文字領域等の特徴領域が抽出されても,以降の抽出処理を実行してもよい。したがって,1フレームの原画像に複数の顔領域及び文字領域等が存在しても,それらの特徴領域を抽出することができる。
なお,第5の実施の形態にかかる領域抽出処理(S500)では,上記顔領域抽出処理(S201),文字領域抽出処理(S203),特徴領域抽出処理(S101)の順に処理が実行される場合を例に挙げて説明したが,かかる処理の順番に限定されない。
また,第5の実施の形態にかかる領域抽出処理(S500)では,上記顔領域抽出処理(S201),文字領域抽出処理(S203),特徴領域抽出処理(S101)の順に処理が実行される場合を例に挙げて説明したが,かかる例に限定されず,例えば,領域抽出処理(S500)では,上記顔領域抽出処理(S201),文字領域抽出処理(S203),または特徴領域抽出処理(S101)のうち少なくとも一つの処理が実行される場合でも実施可能である。
図24(a)に示すように,2フレーム分の原画像群の場合,領域抽出処理(S500)が実行されると,左側のフレームの原画像については顔領域抽出処理(S201)によって顔領域が抽出され,右側のフレームの原画像については特徴領域抽出処理(S101)によって特徴領域が抽出される。
図24(b)に示すように,特徴領域算出手段209は,抽出した特徴領域(顔領域,文字領域,含む)のサイズを算出し,その特徴領域のサイズを画像配置手段205に出力する。なお,図24(b)に示す左側のフレームの特徴領域のサイズは“50(ピクセル)”で,右側のフレームの特徴領域のサイズは“75(ピクセル)”となっているが,数値,単位は,あくまで一例であって,かかる例に限定されない。
図23に示すように,各フレームについて抽出処理(S500)が終了すると,次に,領域割当処理が実行される(S501)。
図25(a)に示すように,画像配置手段205は,上記特徴領域算出手段209から抽出した特徴領域のサイズを取得すると,各特徴領域のサイズの数値を大小比較して,その大小の程度に応じてフレームを拡大/縮小する。
図25(a)に示すように,左側のフレームの特徴領域が50で,右側のフレームの特徴領域が75であるため,画像配置手段205は右側のフレームを矢印方向に拡大(移動)し,左側のフレームをその拡大した分だけ縮小(移動)する。
なお,画像配置手段205がフレームを拡大/縮小する量(拡大/縮小率)は,特徴領域のサイズを比較した結果,サイズの大小に応じて決定されるが,その拡大/縮小率の度合いは,原画像のフレームが原画像群のフレーム全体の範囲内に収まるような拡大/縮小率であれば,いかなる場合であっても実施可能である。
画像配置手段205によるフレームの拡大/縮小が終了すると,一連の領域割当処理(S501)が終了する。なお,拡大/縮小したフレームの原画像は,画素結合手段207によって,画素が結合され,複数の原画像が一つの表示画像となる。
次に,図23に示すように,拡大/縮小された左側のフレーム,右側のフレームの各フレームの原画像について,特徴領域変形処理(S103)が実行されると,図25(b)に示す特徴変形画像に変形される。
なお,第5の実施の形態にかかる一連の画像処理でも,第1の実施の形態に係る画像処理と同様に,メッシュデータを用いて領域抽出処理(S501),特徴領域変形処理(S103)などが実行される。
以上で,第5の実施の形態にかかる一連の画像処理の説明が終了するが,かかる画像処理によって,以下に示すような優れた効果がある。
(1)画面上に複数の特徴変形画像が表示されるため一度に複数の特徴変形画像をユーザに視認させることができる。特に,特徴領域のサイズに応じてフレームのサイズも変動するため,特徴領域のサイズが相対的に大きい特徴変形画像をより的確に視認させることができ,画像処理装置101はユーザの画像誤認によって,ユーザから誤った画像の選択指示を受ける可能性を減少させることができる。
なお,第5の実施の形態にかかる画像処理では,図24,25に示すように2フレーム分の原画像について処理が実行されたが,かかる例に限定されず,複数フレームからなる原画像群であればフレーム数に依存せずに,いかなるフレーム数の場合でも実施可能である。
(第6の実施形態について)
次に,第6の実施の形態にかかる画像処理装置について説明する。なお,第6の実施の形態にかかる画像処理装置についての説明は,第1の実施の形態にかかる画像処理装置と相違する点について詳細に説明するが,その他の点については,実質的に同一であるため,詳細な説明は省略する。
まず,図3及び図26を参照しながら,第1の実施の形態にかかる画像処理装置101と,第6の実施の形態にかかる画像処理装置101を比較すると,第1の実施の形態にかかる画像処理装置101が処理対象とするデータは静止画像データであるのに対し,第6の実施の形態にかかる画像処理装置が扱うデータは映像データ(映像ストリーム)である点で相違する。
なお,以下,第6の実施の形態において,映像は,動画像だけのもの,動画像及び音声から構成されるもののいずれかであるとするが,かかる例に限定されない。
次に,図3及び図26を参照すると,第6の実施の形態にかかる記憶部133又はRAM134に記憶されたプログラムには,映像選択手段801と,映像読取手段803と,映像配置手段805と,特徴領域算出手段809と,特徴映像特定部810と,変形部811と,再生速度算出部812と,再生手段813とが含まれている点で,第1の実施の形態にかかるプログラムとは異なる。
なお,第6の実施の形態にかかるコンピュータプログラムは,インストールされる場合を例に挙げて説明したが,かかる例に限定されず,例えば,サーバからコンピュータプログラムをダウンロードし,インタープリタして実行するJava(登録商標)等によるプログラムの場合であっても実施可能である。
図26に示すように,上記映像選択手段801は,ユーザにより入力部136が操作されると,入力部136から出力された指示内容を受けて,その指示内容に合致する映像を選択したり,既に画面上に表示された映像の先頭部分等を表すサムネイルからカーソル等を移動することで映像を選択したりするモジュールである。
なお,映像選択手段801は,ユーザからの指示に限定されず,自装置内又はネット上に存在する映像を例えば記憶部133に記録された最新のものから順に又はランダムに選択する場合等でも実施可能である。
上記映像読取手段803は,上記映像選択手段801により選択された映像を記憶部133又はネット上のサーバ等から映像データ(映像ストリーム)として読み出すモジュールである。また,映像読取手段803は,例えば,読み出した映像の先頭部分の1フレームを,サムネイルに加工することも可能である。なお,特段の記載がない場合,第6の実施の形態では,映像にはサムネイルなどの静止画像も含まれるものとする。
上記映像配置手段805は,表示部137の画面上の所定位置に映像を表示するために配置するモジュールである。なお,一画面内には1又は2以上の映像が例えば所定間隔ごとに配列されるが,かかる例に限定されず,例えば,映像を再生する際には画面内一杯に映像が表示されるように,映像配置手段805は映像を適当な個所に配置しても良い。
特徴領域算出手段809は,プログラムモジュールであって,映像データ(映像ストリーム)に構成されるフレームの原画像から1フレーム分の平均画像を求める。さらに,特徴領域算出手段809は,その平均画像を基準とし各フレームの原画像との差分を算出することで,特徴領域を抽出し,当該特徴領域の大きさ(数値)を出力する。なお,平均画像については後程説明する。
また,第6の実施の形態に係る映像データに構成されるフレームの原画像について特徴領域を求める場合を例に挙げて説明するが,かかる例に限定されず,例えば,映像データに構成される音声について特徴領域(平均音声からの差分等)を求める場合等でも実施可能である。
特徴映像特定手段(特徴映像特定部)810は,プログラムモジュールであって,特徴領域算出手段809から出力される特徴領域の数値を各フレームごとに時系列にプロットし,全フレームについて特徴領域の数値をプロットすると,特徴映像特定手段810は,所定の閾値を設定し,その閾値よりも特徴領域の数値が高いフレームの範囲を求めることで,特徴映像を特定する。なお,特徴映像を特定する処理については,後程説明する。
また,本実施の形態にかかる特徴領域算出手段810は,静止画像の場合と同様に,映像ストリームのなかで特徴映像を特定する際に,映像ストリームと対応するメッシュデータを生成し,そのメッシュデータ上で特徴映像の場所を把握するようにしてもよい。
また,第6の実施の形態に係る特徴映像は画像を基に特定される場合を例に挙げて説明するが,かかる例に限定されず,例えば,映像データに構成される音声を基に特徴映像が特定される場合等でも実施可能である。
上記変形手段811は,上記特徴領域算出手段810により特定された特徴映像の場所を基にして,さらに各フレームから当該特徴映像までの距離をパラメータとして,特徴映像をはじめそれ以外の映像も含めて変形処理を映像ストリームに施す。
なお,第6の実施の形態にかかる変形手段811は,例えば,上記特徴領域算出手段809で生成されたメッシュデータに対して変形処理を施すことによって,その変形されたメッシュデータと対応するように,映像ストリームを再生するようにしてもよい。かかる場合,変形手段811は,映像ストリームを直接加工しないですみ,計算量も少なく変形処理を効率的に実行することができる。
再生速度算出手段812は,変形手段811により映像ストリームが変形されることで,その変形後の映像ストリームを基にして,再生速度を算出することが可能なモジュールである。なお,再生速度の算出については,後程説明する。
再生手段813は,上記再生速度算出手段812により求められた再生速度に従い,映像ストリームを再生し,表示部137に出力するモジュールである。なお,再生手段813は,必要に応じてデコード処理等を実行することも可能である。したがって,例えば,映像ストリームがMPEG2,MPEG4などの形式であっても再生することが可能である。
(平均画像について)
次に,図27及び図28を参照しながら,第6の実施の形態にかかる平均画像について説明する。なお,図27は,第6の実施の形態にかかる映像の概略的な構成について示す説明図であり,図28は,第6の実施の形態にかかる平均画像の概略的な構成について示す説明図である。
図27(a)に示すように,第6の実施の形態にかかる映像ストリームは,再生時間に相当する分のフレームn(n>1)の原画像から構成されている。なお,フレーム1〜フレームnの並びは,再生時における原画像が再生される順番であって,符号化時のフレームの並びは異なっても良いため,MPEG2やMPEG4におけるBピクチャ等のような場合でも実施可能である。
なお,図27(a)に示す各フレーム(フレーム1〜フレームn)には,そのフレームの原画像に対応する音声(オーディオ)データが付随し,映像ストリームに含まれている(例えば,図27(c)参照)が,かかる例に限定されず,例えば,映像ストリームには複数フレームの原画像から構成される動画像のみが含まれる場合でも実施可能であり,また映像ストリームには,音声のみが含まれる場合等でも実施可能である。
また,第6の実施の形態にかかる映像には,動画像と音声の部分が存在する。図27(b)に示すように,動画像の部分は,上記説明したように,特徴領域算出手段809が,平均画像を基準として,各フレームの原画像と差分をとることで特徴領域を求め,その特徴領域の大きさ(数値)を横軸を再生時間とした時系列に従って出力していくと,縦軸が特徴領域の大きさからなるグラフになる。
なお,図27(b)に示すグラフは,平均画像を基準とした動画像の特徴領域の大きさが遷移する様子を示すものであるが,かかる例に限定されず,例えば,平均音声を基準とした音声の特徴領域の大きさが遷移する様子を示すものである場合でもよい。平均音声は,例えば,映像ストリームに構成される音声の音量の平均をとったもの等を例示することができる。
図27(c)に示すグラフは,映像に構成される音声の音量が遷移する様子を示すものであり,例えば,縦軸のうち垂直上方向が右側の音声で垂直下方向が左側の音声であるが,かかる例に限定されない。
図28の上段部に示すグラフは,上記図27(a)に示すグラフと同一である。図28に示すように,平均画像750は,映像に構成される一部又は全部の原画像の各画素について輝度,色彩(彩度),輝度レベル(輝度値),または彩度レベル(彩度値)等の平均を求めることで作成された画像である。
図28に示す平均画像750は,映像のジャンルがサッカーであるため平均画像750が作成されると全体の色彩として芝生の色である緑色系となるが,かかる例に限定されず,映像の種類によっては様々な平均画像750が作成される。
上記平均画像750を基準として,後程説明するが,映像ストリームに構成される各フレームの原画像と差分をとり,特徴領域を求めて,図27(b)に示すようなグラフを作成する。
図28に示すように,閾値sを超える部分(特徴映像)である特徴映像703−1には,フレーム701−1〜フレーム701−3の原画像が含まれているが,上記原画像が示すように,平均画像750に多く占める芝生に類似する色彩が比較的少なく,サッカー選手が原画像に含まれているため,差分をとると特徴領域は閾値sを多少超えているのが分かる。
一方,映像703−2には,図28に示すように,フレーム701−4〜フレーム701−6の原画像が含まれているが,上記原画像が示すように,平均画像750が示す芝生の色彩と類似する色彩が大部分を占めているため,差分をとっても特徴領域は閾値sを下回っているのが分かる。
また,特徴映像703−3には,図28に示すように,フレーム701−7〜フレーム701−9の原画像が含まれているが,上記原画像が示すように,平均画像750に多く占める芝生と類似する色彩がほとんどなく,サッカー選手をクローズアップした画像が原画像に多く含まれているため,差分をとると特徴領域は閾値sを大幅に超えているのが分かる。
なお,図28に示す映像703−1〜映像703−3に含まれるフレームは3フレームの場合を例に挙げて説明したが,かかる例に限定されず,1または2フレーム以上の原画像が映像703には含まれている。
(平均画像作成処理について)
次に,図29を参照しながら,第6の実施の形態にかかる平均画像を作成する処理について説明する。なお,図29は,第6の実施の形態にかかる平均画像作成処理の概略を示すフローチャートである。
図29に示すように,まず,特徴領域算出手段809は,動画コンテンツ(映像ストリーム)に構成される各フレームの画像(原画像)を取り出す(S2901)。なお,取り出された原画像は,平均画像が作成されるまで,記憶部133またはRAM134などに一時的に格納される。
次に,特徴領域算出手段809は,各フレームの画像(原画像)を取り出すと,それらの原画像の各画素について輝度または色彩の平均を求め,平均画像750を作成する(S2903)。以上で,平均画像750を作成することができる。
さらに,特徴領域算出手段809は,上記説明したように,映像ストリームに構成される各フレームの原画像と,先ほど生成した平均画像750との差分を求め,その差分を特徴領域とし,特徴領域の大きさ(数値)を出力する。
次に,特徴映像特定手段810は,上記特徴領域算出手段809により出力される特徴領域の値を各フレームごとに再生される時系列に従い取得し,プロットしていくと,上記説明したように,図27(b)に示すようなグラフ(特徴領域グラフ)を作成し,さらに所定の閾値sを設定すると図28に示す特徴領域グラフを作成することができる。
特徴映像特定手段810は,閾値sが設定された特徴領域グラフを基にして,その閾値sよりも高い特徴領域の値を有する範囲を,上記説明したように特徴映像と判断する(S2905)。
次に,図30を参照しながら,第6の実施の形態にかかる平均画像作成処理の変形例について説明する。なお,図30は,第6の実施の形態にかかる音情報による特徴映像を特定する概略を示すフローチャートである。
図30に示すように,特徴領域算出手段809は,まず,動画コンテンツ(映像ストリーム)に構成される各フレームの音情報を取り出す(S3001)。
次に,特徴領域算出手段809は,上記取り出した各フレームの音情報の値を出力する。
次に,特徴映像特定手段810は,上記特徴領域算出手段809により出力される音情報の値を各フレームごとに再生される時系列に従い取得し,プロットしていくと,上記説明したように,図27(c)に示すようなグラフ(音情報グラフ)を作成し,さらに所定の閾値sを設定する(図示せず。)。
特徴映像特定手段810は,閾値sが設定された音情報グラフを基にして,その閾値sよりも高い音情報の値を有する範囲を,上記説明したように特徴映像と判断する(S3003)。
なお,第6の実施の形態にかかる音情報は,例えば,音量(ボリューム)を例示することができるが,かかる例に限定されず,音の高低等の場合でもよい。
(変形処理について)
次に,図31及び図32を参照しながら,第6の実施の形態にかかる変形処理について説明する。なお,図31は,第6の実施の形態にかかる変形処理の概略を示すフローチャートであり,図32は,第6の実施の形態にかかる変形処理の概略を示す説明図である。
まず,図31に示すように,特徴領域算出手段809は,動画コンテンツ(映像ストリーム)の各フレームごとの特徴領域を算出する(S3101)。なお,上記特徴領域算出手段809により算出された特徴領域の値は,特徴映像特定手段810に出力される。
次に,特徴映像特定手段810は,図32(a)に示すように,特徴領域算出手段により出力された特徴領域の値をプロットしていき,特徴領域グラフを作成し,さらに所定の閾値sを設定する。
次に,特徴映像特定手段810は,図31及び図32(b)に示すように,特徴映像を特定し,再生トラック(又は,映像ストリーム,メッシュデータ)を生成する(S3103)。
なお,特徴映像は,図32(b)に示すように,ハッチングされた部分であり,また再生トラックは,所定時間からなる映像であって,例えば,特徴映像の部分はそのまま残し,その他の部分の再生トラックは例えば3分ごとに複数の再生トラックに分割されるが,かかる例に限定されない。
図32(b),(c)に示すように,再生トラックは,特徴映像部分を含めて8個存在するが,1又は2個以上であれば,かかる例に限定されない。
図32(b)に示すように,特徴映像特定手段810が再生トラックを生成すると(S3103),変形手段811は,上記特定された特徴映像からの距離をパラメータにし,1次元フィッシュアイにより各再生トラックを変形する(S3105)。
なお,再生トラックは,映像ストリームに構成される所定時間の映像である場合を例に挙げて説明するが,かかる例に限定されず,例えば,再生トラックは,映像ストリームに対応するメッシュデータに構成されるものであっても実施可能である。
図32(c)は,1次元フィッシュアイにより変形された再生トラックであるが,特徴映像の部分(再生トラック)の縦軸の高さはそのままで,その他,再生トラックの縦軸の高さは,上記特徴映像からの距離が長くなるにつれて,低くなっているのが分かる。
なお,変形手段811により行われる1次元フィッシュアイ変形処理は,上記説明したフィッシュアイアルゴリズムとほぼ同様なものであるため詳細な説明は省略するが,かかるフィッシュアイアルゴリズムに限定されず,他の変形手法による場合であってもよい。
また,図32(a),(b),(c)に示す横軸は,再生時間の場合を例に挙げて説明したが,かかる例に限定されず,例えば,動画コンテンツ(映像ストリーム)に構成され,再生される順に並べられたフレームもしくはフレーム番号等の場合でもよい。
なお,各再生トラックの特徴映像からの距離を求めるために,図32(c)に示すように,t,t,またはtを起点として再生トラックまでの距離を求め,その求められた距離のうち最も長いものを変形する際のパラメータとしてもよいが,かかる例に限定されない。
次に,変形手段811により再生トラックが変形されると(S3105),再生速度算出手段812は,上記図32(c)に示す変形後の再生トラックから重み付けの値を取得し,その逆数を求めることで,再生速度を算出する。なお,算出された各再生トラックの再生速度は,図32(d)に示す。
図32(c)に示すように,動画コンテンツ(映像ストリーム)の各再生トラックの縦軸方向の高さは,再生速度を算出するための重み付け値となっている。したがって,再生速度算出手段812は,それら各再生トラックの重み付け値を取得し,各再生トラックの再生速度を算出する。
再生速度算出手段812は,各再生トラックの縦軸方向の数値(重み付け値)を取得すると,特徴映像の部分(再生トラック)の再生速度を通常の速度(基準速度)とした上で,上記取得した重み付け値の逆数をとることで,各再生トラックの再生速度を求め,図32(d)に示すような再生速度グラフを作成する。
なお,図32(c),(d)に示すように,特徴映像の再生トラックは,時間t〜tの部分と,時間t〜tの部分である。上記2つの特徴映像の部分は,通常の再生速度で再生される。
再生速度算出手段812により,再生速度が算出されると,再生手段813は,上記図32(d)に示す再生速度に従って,映像ストリームを再生する。
図32(d)に示すように,再生速度は,特徴映像に近い部分(再生トラック)ほど特徴映像の通常速度にほぼ同じ程度の速度となるが,反対に特徴映像から遠くなる部分(再生トラック)ほど特徴映像の通常速度よりも大幅に速い速度(例えば,図32(d)に示す中央部分)となる。
したがって,特徴映像の部分含めその周辺部分の再生トラック(フレーム群)では,ゆっくりと通常速度等の速度で再生され,表示部137に出力されるため,視聴者は特徴映像周辺部について内容をより強固に把握することができ,その他の部分については,切り取らずに(又は,スキップされずに)再生速度を速めることで,映像全体の内容を短時間で的確に把握することができる。
なお,再生手段813は,上記図32(d)に示す再生速度と連動して,例えば,特徴映像の部分では音量を大きくし,その他の部分については,再生速度が速くなるにしたがい,特徴映像の部分の音量から相対的に小さくするように,再生してもよい。
また,第6の実施の形態にかかる一連の映像に対する処理を,例えば,図1に示すように,画像処理装置101の画面上に表示される複数の映像について個別に又は並列的に処理を実行する場合でも実施可能である。
なお,上述した一連の画像処理は,上記説明したように,専用のハードウェアにより行うこともできるし,ソフトウェアにより行うこともできる。上記一連の画像処理をソフトウェアによって行う場合には,そのソフトウェアを構成するプログラムが,汎用のコンピュータやマイクロコンピュータ等の情報処理装置にインストールされ,上記情報処理装置を画像処理装置101として機能させる。
プログラムは,コンピュータに内蔵されている記録媒体としての記憶部133(ハードディスクなど)やROM132に予め記録しておくことができる。
あるいはまた,プログラムは,ハードディスクドライブに限らず,フレキシブルディスク,CD−ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc),磁気ディスク,半導体メモリなどのリムーバブル記録媒体111に,一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は,いわゆるパッケージソフトウエアとして提供することができる。
なお,プログラムは,上述したようなリムーバブル記録媒体からコンピュータにインストールする他,ダウンロードサイトから,ディジタル衛星放送用の人工衛星を介して,コンピュータに無線で転送したり,LAN(Local Area Network),インターネットといったネットワークを介して,コンピュータに有線で転送し,コンピュータでは,そのようにして転送されてくるプログラムを,通信部139で受信し,内蔵する記憶部133にインストールすることができる。
ここで,本明細書において,コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは,必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく,並列的あるいは個別に実行される処理(例えば,並列処理あるいはオブジェクトによる処理)も含むものである。
また,プログラムは,1のコンピュータにより処理されるものであっても良いし,複数のコンピュータによって分散処理されるものであっても良い。
以上,添付図面を参照しながら本発明の好適な実施形態について説明したが,本発明はかかる例に限定されない。当業者であれば,特許請求の範囲に記載された技術的思想の範疇内において各種の変更例または修正例を想定し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。
また上記実施形態においては,原画像に対して変形処理を施すために,メッシュデータに対して変形処理を施すことで,原画像を変形する場合を例に挙げて説明したが,かかる例に限定されず,例えば,直接的に原画像に対して変形処理を施す場合等でも実施可能である。
上記実施形態においては,画像処理装置101に備わる各部はソフトウェアからなる場合を例にあげて説明したが,本発明はかかる例に限定されない。例えば,上記各部は,1又は2以上の素子又は回路から構成されるハードウェアの場合であってもよい。
第1の実施の形態にかかる画像処理装置の外観の概略を示した説明図である。 第1の実施の形態にかかる画像処理装置の概略的な構成を示すブロック図である。 第1の実施の形態にかかる画像処理装置として機能させるコンピュータプログラムの概略的な構成を示す説明図である。 第1の実施の形態にかかる画像処理の概略を示すフローチャートである。 第1の実施の形態にかかる特徴領域抽出処理の概略を示すフローチャートである。 第1の実施の形態にかかる原画像の概略を示す説明図である。 第1の実施の形態にかかる特徴抽出画像の概略を示す説明図である。 第1の実施の形態にかかる特徴領域変形処理の概略を示すフローチャートである。 第1の実施の形態にかかるメッシュデータの概略的な構成について示す説明図である。 第1の実施の形態にかかる原画像にメッシュデータが付加されたメッシュ入り特徴抽出画像の概略的な構成を示す説明図である。 第1の実施の形態にかかる変形処理後のメッシュデータが付加された特徴変形画像であるメッシュ入り特徴変形画像の概略的な構成を示す説明図である。 第1の実施の形態にかかる特徴変形画像の概略的な構成を示す説明図である。 第2の実施の形態にかかる画像処理の概略を示すフローチャートである。 第2の実施の形態にかかる原画像の概略的な構成を示す説明図である。 第2の実施の形態にかかる特徴抽出画像の概略的な構成を示す説明図である。 第2の実施の形態にかかる特徴変形画像の概略的な構成を示す説明図である。 第3の実施の形態にかかる画像処理の概略を示すフローチャートである。 第3の実施の形態にかかる原画像の概略的な構成を示す説明図である。 第3の実施の形態にかかる特徴抽出画像の概略的な構成を示す説明図であり, 第3の実施の形態にかかる特徴変形画像の概略的な構成を示す説明図である。 第4の実施の形態にかかる原画像群の概略的な構成を示す説明図である。 第4の実施の形態にかかる特徴変形画像群の概略的な構成を示す説明図である。 第5の実施の形態にかかる画像処理の概略を示すフローチャートである。 第5の実施の形態にかかる画像処理の概略を示す説明図である。 第5の実施の形態にかかる画像処理の概略を示す説明図である。 第6の実施の形態にかかる画像処理装置として機能させるコンピュータプログラムの概略的な構成を示す説明図である。 第6の実施の形態にかかる映像の概略的な構成について示す説明図である。 第6の実施の形態にかかる平均画像の概略的な構成について示す説明図である。 第6の実施の形態にかかる平均画像作成処理の概略を示すフローチャートである。 第6の実施の形態にかかる音情報による特徴映像を特定する概略を示すフローチャートである。 第6の実施の形態にかかる変形処理の概略を示すフローチャートである。 第6の実施の形態にかかる変形処理の概略を示す説明図である。
符号の説明
101 画像処理装置
130 制御部
133 記憶部
134 RAM
136 入力部
137 表示部
201 画像選択手段
203 画像読取手段
205 画像配置手段
207 画素結合手段
209 特徴領域算出手段
211 特徴領域変形手段
809 特徴領域算出手段
810 特徴映像特定手段
811 変形手段
812 再生速度算出手段
813 再生手段

Claims (13)

  1. 画像処理装置であって:
    2フレーム以上の原画像の画像領域から,当該原画像に含まれる情報に基づき自動的に特徴領域を抽出する抽出部と;
    各原画像について抽出された特徴領域のサイズに応じて,前記各原画像のフレームのサイズを変更するサイズ変更部と;
    前記特徴領域を基にして,フレームのサイズを変更された前記原画像に対して変形処理を施し,特徴変形画像に変形する画像変形部と;
    2フレーム以上の前記特徴変形画像を含む表示画像データを出力する出力部と;
    を備えることを特徴とする,画像処理装置。
  2. 前記画像変形部は,前記原画像の画像領域のうち前記特徴領域を除いた画像領域に該当する部分の原画像を歪めて,さらに前記特徴領域に該当する部分の原画像をズームすることを特徴とする,請求項1に記載の画像処理装置。
  3. 前記原画像をズームする拡大/縮小率は,前記特徴領域のサイズに応じて変動することを特徴とする,請求項2に記載の画像処理装置。
  4. 前記画像変形部は,前記原画像を基にしてメッシュデータを生成し,前記原画像の画像領域のうち前記特徴領域を除いた画像領域に該当する部分のメッシュデータを歪めて,さらに前記特徴領域に該当する部分のメッシュデータをズームすることを特徴とする,請求項1に記載の画像処理装置。
  5. 前記画像処理装置は,さらにユーザから前記抽出部と前記画像変形部とに対する実行開始の指示を受付ける入力部を備えることを特徴とする,請求項1に記載の画像処理装置。
  6. 前記特徴領域は,被写体の顔領域又は文字領域を含むことを特徴とする,請求項1に記載の画像処理装置。
  7. 画像処理方法であって:
    2フレーム以上の原画像の画像領域から,当該原画像に含まれる情報に基づき自動的に特徴領域を抽出する抽出処理と;
    前記特徴領域を基にして前記原画像に対して変形処理を施し,特徴変形画像に変形する画像変形処理と;
    2フレーム以上の前記特徴変形画像を含む表示画像データを出力する出力処理と;
    を含み、
    各原画像について前記特徴領域を抽出し,その抽出された各特徴領域のサイズに応じて,前記各原画像のフレームのサイズを変更し,その変更後の前記各原画像の画像領域に対して前記抽出処理と,前記画像変形処理とが行われる
    ことを特徴とする,画像処理方法。
  8. 前記画像変形処理では,前記原画像の画像領域のうち前記特徴領域を除いた画像領域に該当する部分の原画像について歪み処理が行われ,さらに前記特徴領域に該当する部分の原画像についてズーム処理が行われることを特徴とする,請求項7に記載の画像処理方法。
  9. 前記ズーム処理における拡大/縮小率は,前記特徴領域のサイズに応じて変動することを特徴とする,請求項8に記載の画像処理方法。
  10. 前記画像変形処理では,前記原画像を基にしてメッシュデータが生成されて,そのメッシュデータに対して前記画像変形処理が行われることを特徴とする,請求項7に記載の画像処理方法。
  11. 前記画像処理方法は,さらにユーザから前記抽出処理と前記画像変形処理とを実行開始する指示を受付ける指示受付け処理を含むことを特徴とする,請求項7に記載の画像処理方法。
  12. コンピュータをして,画像処理装置として機能させるコンピュータプログラムであって:
    2フレーム以上の原画像の画像領域から,当該原画像に含まれる情報に基づき自動的に特徴領域を抽出する抽出手段と;
    各原画像について抽出された特徴領域のサイズに応じて,前記各原画像のフレームのサイズを変更するサイズ変更手段と;
    前記特徴領域を基にして,フレームのサイズを変更された前記原画像に対して変形処理を施し,特徴変形画像に変形する画像変形手段と;
    2フレーム以上の前記特徴変形画像を含む表示画像データを出力する出力手段と;
    を含むことを特徴とする,コンピュータプログラム。
  13. 前記画像変形手段は,前記原画像の画像領域のうち前記特徴領域を除いた画像領域に該当する部分の原画像を歪めて,さらに前記特徴領域に該当する部分の原画像をズームすることを特徴とする,請求項12に記載のコンピュータプログラム。

JP2005167075A 2005-04-07 2005-06-07 画像処理装置,画像処理方法,およびコンピュータプログラム。 Expired - Fee Related JP4774816B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005167075A JP4774816B2 (ja) 2005-04-07 2005-06-07 画像処理装置,画像処理方法,およびコンピュータプログラム。
US11/278,774 US20060238653A1 (en) 2005-04-07 2006-04-05 Image processing apparatus, image processing method, and computer program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005111318 2005-04-07
JP2005111318 2005-04-07
JP2005167075A JP4774816B2 (ja) 2005-04-07 2005-06-07 画像処理装置,画像処理方法,およびコンピュータプログラム。

Publications (2)

Publication Number Publication Date
JP2006313511A JP2006313511A (ja) 2006-11-16
JP4774816B2 true JP4774816B2 (ja) 2011-09-14

Family

ID=37186449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005167075A Expired - Fee Related JP4774816B2 (ja) 2005-04-07 2005-06-07 画像処理装置,画像処理方法,およびコンピュータプログラム。

Country Status (2)

Country Link
US (1) US20060238653A1 (ja)
JP (1) JP4774816B2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4821642B2 (ja) 2007-02-15 2011-11-24 株式会社ニコン 画像処理方法、画像処理装置、ディジタルカメラ及び画像処理プログラム
US20080204359A1 (en) * 2007-02-28 2008-08-28 Perception Digital Limited Electronic display device for displaying digital images
JP4816538B2 (ja) * 2007-03-28 2011-11-16 セイコーエプソン株式会社 画像処理装置および画像処理方法
JP4816540B2 (ja) * 2007-03-29 2011-11-16 セイコーエプソン株式会社 画像処理装置および画像処理方法
US8762864B2 (en) 2007-08-06 2014-06-24 Apple Inc. Background removal tool for a presentation application
KR100963424B1 (ko) * 2008-07-23 2010-06-15 한국전자통신연구원 스케일러블 영상 복호화기 및 그 제어 방법
JP5421627B2 (ja) * 2009-03-19 2014-02-19 キヤノン株式会社 映像データ表示装置及びその方法
JP2011081764A (ja) * 2009-09-14 2011-04-21 Panasonic Corp コンテンツ受信機、コンテンツ再生機、コンテンツ再生システム、コンテンツ書き出し方法、視聴期限判定方法、プログラム、および記録媒体
JP5507962B2 (ja) * 2009-11-05 2014-05-28 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US20110110516A1 (en) * 2009-11-06 2011-05-12 Kensuke Satoh Content receiver, content reproducer, management server, content use system, content use method, method of write-out from content receiver, method of possible viewing time management on content reproducer, method of time limit fixation in management server, and program
JP4977243B2 (ja) 2010-09-16 2012-07-18 株式会社東芝 画像処理装置、方法、及びプログラム
JP5620313B2 (ja) * 2011-03-17 2014-11-05 株式会社東芝 画像処理装置、方法、及びプログラム
JP2013196009A (ja) * 2012-03-15 2013-09-30 Toshiba Corp 画像処理装置、画像処理方法及びプログラム
KR101382163B1 (ko) * 2013-03-14 2014-04-07 국방과학연구소 지상표적 분류방법 및 이를 이용한 지상표적 분류장치
WO2015050562A1 (en) * 2013-10-04 2015-04-09 Intel Corporation Technology for dynamically adjusting video playback speed
JP6366626B2 (ja) * 2016-03-17 2018-08-01 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
JP6663491B2 (ja) * 2016-06-08 2020-03-11 シャープ株式会社 画像処理装置、画像処理プログラム、および記録媒体
US11169661B2 (en) 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images
WO2020215214A1 (zh) * 2019-04-23 2020-10-29 深圳市大疆创新科技有限公司 图像处理方法和装置
CN112109549B (zh) * 2020-08-25 2021-11-30 惠州华阳通用电子有限公司 一种仪表显示方法和系统
CN111915608B (zh) * 2020-09-11 2023-08-15 北京百度网讯科技有限公司 建筑物提取方法、装置、设备和存储介质
CN114253233B (zh) * 2021-12-02 2024-06-04 稀科视科技(珠海)有限公司 一种数据驱动生产控制方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023062A (ja) * 1998-06-30 2000-01-21 Toshiba Corp ダイジェスト作成システム
US6985632B2 (en) * 2000-04-17 2006-01-10 Canon Kabushiki Kaisha Image processing system, image processing apparatus, and image processing method
US6608631B1 (en) * 2000-05-02 2003-08-19 Pixar Amination Studios Method, apparatus, and computer program product for geometric warps and deformations
JP2003250039A (ja) * 2002-02-22 2003-09-05 Tokyo Electric Power Co Inc:The 画像処理装置,画像処理方法および記録媒体
JP3690391B2 (ja) * 2003-01-23 2005-08-31 セイコーエプソン株式会社 画像編集装置、画像のトリミング方法、及びプログラム
JP4346938B2 (ja) * 2003-04-09 2009-10-21 キヤノン株式会社 画像処理装置、方法、プログラム及び記憶媒体
JP4383140B2 (ja) * 2003-09-25 2009-12-16 任天堂株式会社 画像処理装置および画像処理プログラム
JP4396430B2 (ja) * 2003-11-25 2010-01-13 セイコーエプソン株式会社 視線誘導情報生成システムおよび視線誘導情報生成プログラム、並びに視線誘導情報生成方法

Also Published As

Publication number Publication date
US20060238653A1 (en) 2006-10-26
JP2006313511A (ja) 2006-11-16

Similar Documents

Publication Publication Date Title
JP4774816B2 (ja) 画像処理装置,画像処理方法,およびコンピュータプログラム。
US8416332B2 (en) Information processing apparatus, information processing method, and program
JP4990994B2 (ja) ショートフィルム生成装置、ショートフィルム生成方法、プログラムおよび記録媒体
US8810708B2 (en) Image processing apparatus, dynamic picture reproduction apparatus, and processing method and program for the same
US7853897B2 (en) Information processing apparatus and method, and program
US9014537B2 (en) Information processing apparatus and method, and program
JP6023058B2 (ja) 画像処理装置、画像処理方法、プログラム、集積回路
US8350929B2 (en) Image pickup apparatus, controlling method and program for the same
JP4519531B2 (ja) 画像表示装置、画像表示方法およびプログラム
EP2180701A1 (en) Image processing device, dynamic image reproduction device, and processing method and program in them
US11758082B2 (en) System for automatic video reframing
JP4987943B2 (ja) 電子機器及び画像表示方法
WO2007126096A1 (ja) 画像処理装置及び画像処理方法
JP2004172671A (ja) 動画像加工方法及び装置
EP2129112A1 (en) Image processor, and processing method and program for the same
KR101812103B1 (ko) 썸네일이미지 설정방법 및 설정프로그램
KR101458521B1 (ko) 증강현실 콘텐츠 재생 시스템
JP2014006912A (ja) 情報処理装置、情報処理方法およびプログラム
EP2180699A1 (en) Image processor, animation reproduction apparatus, and processing method and program for the processor and apparatus
JP2006079457A (ja) 電子アルバム表示システム、電子アルバム表示方法、電子アルバム表示プログラム、画像分類装置、画像分類方法、及び画像分類プログラム
JP2006303707A (ja) 画像処理装置及び画像処理方法
JP4667356B2 (ja) 映像表示装置及びその制御方法、プログラム、記録媒体
JP5501915B2 (ja) レイアウト選択装置、レイアウト選択方法、レイアウト選択プログラムおよびコンピュータ読み取り可能な記録媒体、ならびに、コンテンツ表示装置およびコンテンツ作成方法
JP2008022441A (ja) 画像処理装置および方法、並びにプログラム
JP2008022442A (ja) 画像処理装置および方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110613

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees