JP4388939B2 - 画像再生装置ならびにその制御方法およびその制御プログラム - Google Patents

画像再生装置ならびにその制御方法およびその制御プログラム Download PDF

Info

Publication number
JP4388939B2
JP4388939B2 JP2006258163A JP2006258163A JP4388939B2 JP 4388939 B2 JP4388939 B2 JP 4388939B2 JP 2006258163 A JP2006258163 A JP 2006258163A JP 2006258163 A JP2006258163 A JP 2006258163A JP 4388939 B2 JP4388939 B2 JP 4388939B2
Authority
JP
Japan
Prior art keywords
image
cropping
subject
enlarged
enlargement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006258163A
Other languages
English (en)
Other versions
JP2008079166A (ja
Inventor
征和 西嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006258163A priority Critical patent/JP4388939B2/ja
Priority to US11/902,281 priority patent/US7974492B2/en
Priority to CN200710161843A priority patent/CN100593939C/zh
Publication of JP2008079166A publication Critical patent/JP2008079166A/ja
Application granted granted Critical
Publication of JP4388939B2 publication Critical patent/JP4388939B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Description

この発明は,画像再生装置ならびにその制御方法およびその制御プログラムに関する。
複数駒の画像を効果的に再生するものとしてスライドショーがある。スライドショーにより複数駒の画像を切り替えながら再生する場合,画像の明るさを徐々に明るくして次の駒の画像を表示して明るさを戻すといういわゆるフェードイン/フェードアウトをしたり,ある方向に画像を徐々に移動させて画像を徐々に消すというワイプをすることがある。また,画像の中の注目エリアに向かって画像全体をズームアップした後に次の画像を再生するもの(特許文献1),主要被写体に対してズームインまたはズームアウトするものがある(特許文献2)。
特開2005-354333号公報 特開2006-129453号公報
また,顔の類似度を算出した結果にもとづいてスライドショーの表示対象を自動的に選択するものもある(特許文献3)。
特開2005-33276号公報
しかしながら,いずれにおいても現在表示されている画像の次の画像に表示が切り替わった場合に閲覧者が注目している画像の視点が変わってしまうことが多いため,閲覧者は注意がそがれることがある。
この発明は,画像が切り替わった場合でも閲覧者が注目している視点が変わらないようにすることを目的とする。
この発明による画像再生装置は,第1の被写体像に含まれている顔画像部分が切り取り後の画像部分に含まれるように第1の被写体像から画像を切り取る第1の切り取り手段,第1の被写体像の大きさとなるように,上記第1の切り取り手段によって切り取られた画像を拡大する第1の拡大手段,上記第1の拡大手段によって拡大された切り取り画像を表示画面に表示するように表示装置を制御する第1の表示制御手段,切り取り後の画像が前回の切り取り後の画像よりも小さくなるように上記画像切り取り処理,上記拡大処理および上記表示制御処理を,切り取り後の画像が所定の大きさとなるまで繰り返すように上記第1の切り取り手段,上記第1の拡大手段および上記第1の表示制御手段を制御する第1制御手段,上記第1の切り取り手段による切り取り後の画像が上記所定の大きさとなったことに応じて,第2の被写体像に含まれている顔画像部分が切り取り後の画像の部分に含まれるように第2の被写体像から画像を切り取る第2の切り取り手段,第2の被写体像の大きさとなるように,上記第2の切り取り手段によって切り取られた画像を拡大する第2の拡大手段,上記第2の拡大手段によって拡大された切り取り画像を上記表示画面に表示するように上記表示装置を制御する第2の表示制御手段,ならびに切り取り後の画像が前回の切り取り後の画像よりも大きくなるように上記画像切り取り処理,上記拡大処理および上記表示制御処理を繰り返すように上記第2の切り取り手段,上記第2の拡大手段および上記第2の表示制御手段を制御する第2の制御手段を備えていることを特徴とする。
この発明は,上記画像再生装置に適した制御方法も提供している。すなわち,その方法は,第1の切り取り手段が,第1の被写体像に含まれている顔画像部分が切り取り後の画像部分に含まれるように第1の被写体像から画像を切り取り,第1の拡大手段が,第1の被写体像の大きさとなるように,上記第1の切り取り手段によって切り取られた画像を拡大し,第1の表示制御手段が,上記第1の拡大手段によって拡大された切り取り画像を表示画面に表示するように表示装置を制御し,第1の制御手段が,切り取り後の画像が前回の切り取り後の画像よりも小さくなるように上記画像切り取り処理,上記拡大処理および上記表示制御処理を,切り取り後の画像が所定の大きさとなるまで繰り返すように上記第1の切り取り手段,上記第1の拡大手段および上記第1の表示制御手段を制御し,第2の切り取り手段が,上記第1の切り取り手段による切り取り後の画像が上記所定の大きさとなったことに応じて,第2の被写体像に含まれている顔画像部分が切り取り後の画像の部分に含まれるように第2の被写体像から画像を切り取り,第2の拡大手段が,第2の被写体像の大きさとなるように,上記第2の切り取り手段によって切り取られた画像を拡大し,第2の表示制御手段が,上記第2の拡大手段によって拡大された切り取り画像を上記表示画面に表示するように上記表示装置を制御し,第2の切り取り手段が,切り取り後の画像が前回の切り取り後の画像よりも大きくなるように上記画像切り取り処理,上記拡大処理および上記表示制御処理を繰り返すように上記第2の切り取り手段,上記第2の拡大手段および上記第2の表示制御手段を制御するものである。
この発明によると,第1の被写体像に含まれている顔画像部分が切り取り後の画像の部分に含まれるように第1の被写体像から画像が切り取られる。切り取られた画像の大きさが第1の被写体像の大きさとなるように拡大処理が行われる。拡大された画像が表示される。切り取り後の画像が前回の切り取り後の画像よりも小さくなるように,切り取り後の画像が所定の大きさとなるまで画像の切り取り,拡大処理および表示制御が繰り返される。切り取り後の画像が所定の大きさとなると,第2の被写体像に含まれている顔画像部分が切り取り後の画像部分に含まれるように第2の被写体像から画像が切り取られる。切り取られた画像が第2の被写体像の大きさとなるように拡大されて表示される。切り取り後の画像の大きさが前回の切り取り後の画像の大きさよりも大きくなるように,画像の切り取り,拡大処理および表示制御が繰り返される。第1の被写体像については,第1の被写体像に含まれている顔画像部分の割合が徐々に大きくなるように表示され,第2の被写体像については,第2の被写体像に含まれている顔画像部分の割合が徐々に小さくなるように表示される。第1の被写体像から第2の被写体像に表示が切り替わるときには,顔画像部分の割合が大きな画像が表示されている状態であるから,閲覧者が注目している視点(顔画像)が変わらず,閲覧者の注意がそれることが無い。
上記第1の表示制御手段および上記第2の表示制御手段は,例えば,上記第1の拡大手段によって拡大された第1の拡大画像と,上記第2の拡大手段によって拡大された第2の拡大画像とが合成されて上記表示画面に表示されるように上記表示装置を制御するものである。第1の拡大画像と第2の拡大画像とが合成されて表示されるので,第1の拡大画像(第1の被写体像)の表示から第2の拡大画像(第2の被写体像)の表示に切り替わっても違和感が少ない。
上記第1の表示制御手段は,例えば,第1の切り取り手段による切り取り画像の大きさが小さくなるにつれて,第1の拡大画像の合成の割合が少なくなり,かつ第2の拡大画像の合成の割合が多くなるように合成して表示するものであり,上記第2の表示制御手段は,例えば,第2の切り取り手段による切り取り後の画像の大きさが大きくなるにつれて,第1の拡大画像の合成の割合が少なくなり,かつ第2の拡大画像の合成の割合が多くなるように合成して表示するものである。第1の拡大画像(第1の被写体像)から第2の拡大画像(第2の被写体像)に切り替わる前に,第1の拡大画像上に第2の拡大画像が徐々に現れ,第2の拡大画像に切り替わった後には第2の拡大画像上に現れている第1の拡大画像の割合が徐々に少なくなっていくので,第1の拡大画像から第2の拡大画像に切り替わったときに違和感が少ない。
上記第2の切り取り手段は,例えば,上記第1の切り取り手段による切り取り後の画像における目の相対位置と上記第2の切り取り手段における第1回目の切り取り後の画像における目の相対位置とが一致するように切り取り処理を行い,かつ切り取り後の画像と上記第2の被写体像との位置関係が徐々に一致するように切り取り画像を決定する。第1の拡大画像の目の位置と第2の拡大画像の目の位置とが一致するので,第1の拡大画像から第2の拡大画像に表示が切り替わった場合に目の位置のずれによる違和感を防止できる。
上記第1の被写体像または上記第2の被写体像に顔画像部分が含まれていない場合に,画像再生装置の処理を停止する停止制御手段をさらに備えても良い。
第1の被写体像または第2の被写体像の少なくとも一方に複数の顔画像が含まれており,上記第1の切り取り手段および上記第2の切り取り手段は,例えば,切り取り後の顔画像の類似度が高い顔画像部分が含まれるように第1の被写体像からの画像切り取り処理および第2の被写体像からの画像切り取り処理を行うものである。第1の拡大画像から第2の拡大画像に切り替わるときに表示されている顔画像が類似しているので,表示の切り替えによる違和感を防ぐことができる。
図1は,この発明の実施例を示すもので,画像再生装置の電気的構成を示すブロック図である。
画像再生装置の全体の動作は,プロセッサ1によって統括される。このプロセッサ1によって,後述するようにハード・ディスク(図示略)に格納されている画像データにより表わされる画像の切り取り,拡大処理,顔画像の検出などが行なわれる。
画像再生装置には,プログラム,データ等があらかじめ記憶されているROM2,データを一時的に記憶するRAM3,再生画像を表示する表示装置5を制御するグラフィック制御回路4,画像等をプリントするプリンタ6,マウス7,キーボード8,再生すべき画像を表す画像データが多数記憶されているハードディスク(図示略)にアクセスするハードディスク・ドライブ9,およびFD(フレキシビリ・ディスク)11にデータを書き込み,かつFD11に書き込まれているデータを読み取るFDドライブ10が含まれている。
さらに,画像再生装置には,CD-ROM(コンパクト・ディスク・リード−オンリ・メモリ)ドライブ12が含まれている。後述する動作プログラムが格納されているCD-ROM13がCD-ROMドライブ12に装填されることにより,CD-ROM13に格納されている動作プログラムが読み取られて,画像再生装置にインストールされる。
図2および図3は,画像再生装置において表示される画像の一例である。
この実施例の画像再生装置における画像再生は,複数駒の画像をスライドショーにより表示できるものである。とくに,この実施例においては,次の駒の画像に表示が切り替わるときに,切り替わる前の画像中の顔画像部分の割合が大きくなり,所定の割合となると次の画像に切り替わる。顔画像部分の割合が徐々に小さくなるように次の画像が表示される。このために,表示が切り替わる前の第1の被写体像I1の画像部分を示す顔枠領域R1および表示が切り替わった後の第2の被写体像I2の画像部分を示す顔枠領域R2がそれぞれ検出される。これらの顔枠領域R1およびR2を用いて,後述するように画像の表示切り替え処理が行われる。
図4は,画像再生装置の処理手順を示すフローチャートである。
ハードディスクに格納されている画像データによって表される多数駒の画像の中から再生すべき画像がユーザによって選択される(ステップ21)。再生駒数Nが設定され(ステップ22),再生順序が選択される(ステップ23)。再生駒数Nが2以上で無ければ(ステップ24でNO),画像を切り替えて表示することができないのでこの実施例による画像再生処理は終了する。ファイル名順,撮影日順などを選択することにより再生順序が選択されることとなる。
この実施例においては2駒ごとを基準に顔枠の検出処理,画像再生などが行われる。このために,再生駒数Nが2以上であると(ステップ24でYES),2駒を基準に処理するための変数Iが0にセットされる(ステップ25)。変数Iが再生駒数N未満であれば,選択された再生画像のうち顔枠を検出等する処理が終了していない画像があるので,顔枠部分の検出処理(ステップ27),画像再生処理が行われる(ステップ28)。変数Iに2加算され(ステップ29),変数Iが再生駒数N以上となるまで顔枠検出処理,画像再生処理が繰り返される。変数Iが再生駒数N以上となると(ステップ24でNO),選択された再生画像の再生が終了するので再生処理は終了する。もっとも,選択された画像を選択された再生順序にしたがって再び,再生するようにしてもよい。
顔枠検出処理は,公知の顔画像の検出処理を利用することができる。例えば,複数駒の顔データをあらかじめ登録しておき,それらの顔データとのパターン・マッチングにより検出することができる。または,目,鼻,口などのそれぞれの顔を構成するオブジェクト・データと位置とを登録しておき,それらとのパターン・マッチングにより検出するようにしても良い。検出された顔画像部分を囲む枠(例えば,矩形の枠であるが,画像のアスペクト比と同じアスペクト比をもつ枠にしてもよい)が顔枠とされる。複数の顔画像部分が検出された場合には,例えば,顔画像部分のもっとも大きな部分を囲む枠が顔枠として検出される。
図5および図6は,画像再生処理手順(図4のステップ28の処理手順)を示すフローチャートである。図7(A)は,第1の被写体像の切り取り範囲を示し,図7(B)は,表示される第1の拡大画像を示している。図8(A)は,第2の被写体像の切り取り範囲を示し,図8(B)は,表示される第2の拡大画像を示している。
この実施例による画像再生は,第1の被写体像から第2の被写体像に表示を切り替える場合に,第1の被写体像に含まれている顔画像部分が切り取り後の画像部分に含まれるように第1の被写体像から画像を切り取り,第1の被写体像の大きさとなるように,切り取られた画像を拡大して表示し,切り取り後の画像が前回の切り取り後の画像よりも小さくなるように画像切り取り処理,拡大処理および表示が繰り返される。切り取り後の画像が所定の大きさ(顔枠の大きさ)となると,第2の被写体像に含まれている顔画像部分が切り取り後の画像の部分に含まれるように第2の被写体像から画像を切り取り処理が行われ,その切り取られた画像の大きさが,第2の被写体像の大きさとなるように,切り取られた画像を拡大して表示し,切り取り後の画像が前回の切り取り後の画像よりも大きくなるように画像切り取り処理,拡大処理および表示が繰り返される。
変数Iによって指定される画像が第1の被写体像であり,変数Jによって指定される画像が第2の被写体像となる。したがって,変数Jは変数Iがインクレメントされた値に設定される(ステップ31)。変数Jの画像が存在しなければ(ステップ32でNO),変数Iの画像は選択された最後の駒の画像となるので,イフェクト無しで再生される(ステップ48)。
変数Jの画像が存在すると(ステップ32でYES),上述したように,画像の切り出し,拡大等の処理を行う操作対象画像が変数Iの画像(第1の被写体像)にセットされる(ステップ33)。最初は,第1の被写体像そのものが表示されるようにするために図7(A)に示すように,切り取り範囲R11は,第1の被写体像I1全体に設定される(ステップ33)。設定された切り取り範囲R11内の画像が第1の被写体像I1から切り取られる(ステップ35)。切り取られた画像の領域(切り取り領域)が顔枠領域R1以下となると,第1の被写体像を切り出して得られる第1の拡大画像の表示から第2の被写体像I2を切り出して得られる第2の拡大画像の表示に切り替わる。
切り取り領域が顔枠領域未満であれば(ステップ36でYES),第1の被写体像I1の大きさとなるように,切り取られた画像が拡大される(ステップ37)。図7(B)に示すように,拡大された画像(第1の拡大画像)I21が表示される(ステップ38)。最初は,切り取り範囲は第1の被写体像全体に設定されているので,第1の拡大画像I21と第1の被写体像I1とは同じものであり,拡大されていない第1の被写体像I1そのものが表示されることとなる。固定されている時間m秒の間,第1の拡大画像I21の表示が続けられる(ステップ39)。続いて切り取り範囲が小さくされて(ステップ40),その切り取り範囲内の画像が切り取られる(ステップ35)。切り取られた画像の大きさが第1の被写体像の大きさとなるように拡大されて表示される(ステップ37,38)。
図7(A)に示すように,切り取り範囲はR11より一回り小さい範囲R12に設定され,その切り取り範囲R12内の画像が第1の被写体像I1の大きさとなるように拡大される。これにより図7(B)に示すように,第1の拡大画像I22が得られる。得られた拡大画像I22が表示される。同様に,図7(A)に示すように,切り取り範囲R12よりさらに一回り小さい範囲R13が切り取り範囲に設定され,範囲R13内の画像が第1の被写体像I1の大きさとなるように拡大されて,図7(B)に示すように第1の拡大画像I23が得られる。得られた第1の拡大画像I23が表示される。以下同様に,切り取り範囲が顔枠領域R1以下となるまで小さくされながら,画像が切り取られ,切り取り画像が第1の被写体像I1の大きさとなるように拡大されて表示される。切り取り範囲は,徐々に小さくなり,最終的には,図7(A)に示すように,顔枠領域R1(図2参照)よりも一回り大きな領域R1n内の画像が拡大された第1の拡大画像I2nが表示される(図7(B)参照)。図7(B)に示すように,第1の被写体像I1にもとづいて得られ,表示される第1の拡大画像I21〜I2nは,第1の被写体像I1に含まれる顔画像部分が徐々に大きくなる。
切り取り領域が顔枠領域R1以下となると(ステップ36でNO),第1の拡大画像の表示から第2の被写体像I2にもとづいて得られる第2の拡大画像の表示に切り替わる。このために,操作対象画像が変数Jの第2の被写体像I2にセットされる(ステップ41)。続いて,第2の被写体像I2の顔枠R2(図3参照)を内包するような切り取り範囲であって,図8(A)に示すように顔枠R2よりも一回り大きな切り取り範囲R31が設定される(ステップ42)。設定された切り取り範囲R31内の画像が切り取られる(ステップ43)。
切り取り範囲の領域が第2の被写体像I2の全体の領域未満であれば(ステップ44でYES),切り取り範囲内の画像を拡大して得られる第2の拡大画像は第2の被写体像I2の一部分であるから拡大処理が行われ,図8(B)に示すように第2の拡大画像I41が得られる(ステップ45)。得られた第2の拡大画像I41が表示される(ステップ46)。上述したように固定のm秒の間表示されているのはいうまでもない。切り取り範囲が一回り大きくされて(ステップ47),切り取り処理(ステップ43),画像拡大処理(ステップ45)が繰り返される。図8(A)に示すように,切り取り範囲R32,R33のように徐々に大きくなり,それらの切り取り範囲R32,R33内の画像が第2の被写体像の大きさとなるように拡大処理が行われて第2の拡大画像I42,I43が得られて表示されることとなる。図8(A)に示すように切り取り範囲の領域R3nが第2の被写体像I2の全体の領域と同じとなると,図8(B)に示すように,第2の拡大画像I4nは第2の被写体像I2と同じとなる。
切り取り領域が第2の被写体像I2の全体よりも大きくなると,第2の被写体像I2についての表示処理は終了し,次の駒の被写体像の表示処理に移行する。図8(B)に示すように,第2の被写体像I2にもとづいて得られ,表示される第2の拡大画像I41〜I4nは,第2の被写体像I2に含まれる顔画像部分が徐々に小さくなる。
第1の被写体像I1から第2の被写体像I2への表示の切り替えは,第1の被写体像I1に含まれる顔画像があたかもズームインし,第2の被写体像I2に含まれる顔画像があたかもズームアウトするようにして行われる。しかも,第1の被写体像I1にもとづいて得られる第1の拡大画像から第2の被写体像I2にもとづいて得られる第2の拡大画像への表示が切り替えられる時の画像は,顔枠内の画像(顔画像部分)が占める割合が大きい状態となっている。アップにされている顔画像部分を閲覧者が注視している状態で次の被写体像に切り替わることとなるので,閲覧者の注意がそれてしまうことも無い。
図9から図14は,他の実施例を示すものである。
上述した実施例は,含まれる顔画像部分の割合が徐々に大きくなる第1の拡大画像から,含まれる顔画像部分の割合が徐々に小さくなる第2の拡大画像に表示されるものであるが,次に述べる実施例では,第1の拡大画像と第2の拡大画像とが合成されて表示されるものである。第1被写体像I1から切り取られる画像の大きさが小さくなるにつれて,第1の拡大画像の合成の割合が少なくなり,かつ第2の拡大画像の合成の割合が多くなるように合成され,第2の被写体像I2から切り取られる画像の大きさが大きくなるにつれて,第1の拡大画像の合成の割合が少なくなり,かつ第2の拡大画像の合成の割合が多くなるように合成される。
図9は第1の被写体像I1の一例であり,図10は第2の被写体像I2の一例である。
第1の拡大画像と第2の拡大画像との合成は,第1の被写体像I1の切り取り領域が合成タイミング領域未満となったことにより開始され,かつ第2の被写体像I2の切り取り領域が合成タイミング領域より大きくなったことにより終了する。このために,第1の被写体像I1および第2の被写体像I2のそれぞれに合成タイミング領域が設定される。 合成タイミング領域は,矩形の顔枠の領域の1.5倍(高さの1.5倍)の矩形領域とされる。
図9を参照して,第1の被写体像I1に含まれる顔枠領域R1の高さをH11とすると,顔枠領域R1が中央に内包されるように合成タイミング領域R01が規定される。合成タイミング領域R01の高さをH12とすると,H12/H11=1.5となる。
同様に,図10を参照して,第2の被写体像I2に含まれる顔枠領域R2の高さをH21とすると,顔枠領域R2が中央に内包されるように合成タイミング領域R02が規定される合成タイミング領域R02の高さをH22とすると,H22/H21=1.5となる。
図11(A)は第1被写体像I1の切り取り範囲を示し,図11(B)は第1拡大画像を示し,図11(C)は表示される画像を示している。図12(A)は,第2被写体像の切り取り範囲を示し,図12(B)は第2拡大画像を示し,図12(C)は,表示される画像を示している。
図11(A),(B)および(C)を参照して,切り取り範囲R1mが合成タイミング領域R01に対応するものとする。切り取り範囲R1mが拡大された第1の拡大画像I2mの前の駒の第1の拡大画像までは,切り取り範囲R11,R12などが切り取られて拡大された第1の拡大画像I21,I22が表示される画像そのものとなる。切り取り範囲R1mが合成タイミング領域R01となると,その切り取り範囲R1m内の画像が拡大された第1の拡大画像I2mと,図12(A)に示すように,切り取り範囲R1mに対応した切り取り範囲R3m内の画像が拡大された第2の拡大画像I4mとが合成される。合成された画像I5mが表示画像となる。画像I5mの合成比率は,たとえば,第1の拡大画像I2mの比率:第2の拡大画像I4mの比率=9:1とされる。
その後,第1の拡大画像と第2の拡大画像とが,第1の拡大画像の合成比率が低くなり,かつ第2の拡大画像の合成比率が高くなるような合成画像が生成され,図11(C)に示すように表示されていく。切り取り領域R1nが顔枠領域R1の領域より少し大きな領域となると,第1の拡大画像I2nと第2の拡大画像I41とが1:1の割合で合成された切り替え時の画像I5n(図12(C)のI61も同じ画像となる)が表示されることとなる。
つづいて,第1の拡大画像と第2の拡大画像とが第2の合成比率が高くなり,第1の拡大画像の合成比率が低くなるような合成画像I62〜I6mが生成され,図12(C)に示すように表示されていく。合成画像I6mが表示されたときの切り取り範囲R3mは,合成タイミング領域R02に対応することとなり,その後に表示される画像は,合成画像でなく第2の拡大画像そのものとなる。
図13および図14は,画像再生処理手順を示すフローチャートであり,図5および図6に対応するものである。図13および図14に示す処理において図5および図6に示す処理と同一の処理については同一符号を付して説明を省略する。
操作対象画像が第1の被写体像I1にセットされ(ステップ33),合成タイミング領域が設定される(ステップ51)。上述したように,第1の被写体像I1の切り取り範囲が合成タイミング領域未満であれば(ステップ52でYES),上述した実施例と同様に第1の拡大画像そのものが表示される。第1の被写体像I1の切り取り範囲が合成タイミング領域以下となると(ステップ52でNO),操作対象画像が第2の被写体像I2にセットされる(ステップ41)。
図9および図10を用いて説明したように,第1の被写体像I1の顔枠領域R1の高さH11と,合成タイミング領域R01の高さH12との比率と,第2の被写体像I2の顔枠領域R2の高さH21と,合成タイミング領域R02の高さH22との比率とが1.5となるように合成タイミング領域(切り取り範囲)が設定される(ステップ53)。設定された切り取り範囲が第2の被写体像I2の合成タイミング領域R02に設定される(ステップ54)。第2の被写体像I2にもとづいて得られる画像の表示切り替え前であるから,第1の被写体像I1の切り取り領域が小さくなるように切り取り範囲のフラグFdが0にセットされる(ステップ55)。
切り取り領域が全体領域未満であれば(ステップ44でYES),上述したように画像表示が続けられるから画像拡大処理が行われる(ステップ45)。切り取り領域が合成タイミング領域以下であれば(ステップ56でNO),第1の拡大画像と第2の拡大画像とが,第1の拡大画像の合成比率が第2の拡大画像の合成比率よりも高くなるようにして合成される(ステップ57)。切り取り領域が顔枠領域の一回り大きな大きさとなるまで,切り取り領域が小さくされながら,第1の拡大画像と第2の拡大画像との合成処理が続けられて合成画像が表示される(ステップ46,61,62)。これにより,図11(C)に示すように,第1の拡大画像と第2の拡大画像との画像の合成割合が9:1から1:1となるように,合成画像I5mから合成画像I5nが順に表示されるようになる。
図11(C)の画像I5nが表示されると,上述したように切り取り領域R1nは顔枠領域R1以下となる(ステップ58でNO)。すると,図12に示すように第2の被写体像I2の全体が表示されるようする必要がある。このために,切り取り範囲が大きくなるように方向フラグFdが1にセットされる(ステップ59)。切り取り範囲が大きくされながら図12(C)に示すように第2の拡大画像の合成割合が徐々に大きくなるような合成画像I61〜I6mが表示される(ステップ46,61,63)。
合成画像I6mが表示され,切り取り領域が合成タイミング領域より大きくなると(ステップ56でYES),第1の拡大画像と第2の拡大画像とが合成された画像は表示されなくなり,上述した実施例と同様に第2の拡大画像が順に表示されることとなる。
第1の被写体像I1から第2の被写体像I2への表示に切り替えにおいて,第1の被写体像から得られる第1の拡大画像の割合が徐々に少なくなり,第2の被写体像から得られる第2の拡大画像の割合が徐々に多くなるような合成画像が表示されるようになる。閲覧者は違和感をもつことなく,画像が切り替えられる様子を閲覧できる。
図15から図22は,さらに他の実施例を示すものである。この実施例は,第1の拡大画像から第2の拡大画像に切り替わるときに第1の拡大画像に含まれる目の位置と第2の拡大画像に含まれる目の位置とが一致させるものである。
図15および図16は,画像再生処理手順を示すフローチャートである。これらの図において,図5および図6に示す処理と同一の処理については同一符号を付して説明を省略する。図17は第1の拡大画像I2nの一例であり,図18(A)は第2の拡大画像I71の一例であり,図18(B)は第2の被写体像I7nの一例である。
操作対象画像として第1の被写体像I1がセットされ(ステップ33),切り取り領域が顔枠領域以下となると,切り替え時の第1の拡大画像I2nの目の座標E1L=(Lx1,Ly1),E1R=(Rx1,Ry1)が検出される(図17参照)(ステップ71)。
つづいて,操作対象画像として第2の被写体像I2がセットされ(ステップ41),第2の被写体像I2の目の座標E2L1=(Lx21,Ly21),E2R1=(Rx21,Ry21)が検出される(図18(B)参照)(ステップ72)。検出された目の座標E1L,E1Rと切り替え時の第2の拡大画像I71における目の座標E2L2=(Lx22,Ly22),E2R2=(Rx22,Ry22)とが一致するように(図18(A)参照),第2の被写体像I2の目の座標E2L1,E2R1を参照して,第2の被写体像の切り取り範囲R8nが設定される(ステップ73)。切り取り範囲の設定は,次のようにして行われる。
第1の拡大画像I2nの目の高さ(図17参照)と第2の拡大画像I71の目の高さ(図18(A)参照)とが一致するように,第2の被写体像I7から画像が切り出され,かつ第1の拡大画像I2nの幅と第1の拡大画像I2nの目の幅との比率と第2の拡大画像I71の幅と第2の拡大画像I71の目の幅との比率とが一致するように,第2の被写体像I7nの切り出し範囲R8nが決定される(図18(B)参照)。すなわち,第1の拡大画像I2nの幅をW1,第1の拡大画像I2nの目の幅をEW1とし,第2の拡大画像I71の幅をW2,第2の拡大画像I71の目の幅をEW2とすると,EW2/W2=EW1/W2が成立するように切り出し範囲R8nが設定される。
その後は,切り取り範囲が徐々に大きくされながら,第2の拡大画像が表示されるのは上述した実施例と同じである。第2の被写体像の切り出し範囲と第2の被写体像とが平行でない場合には,表示される第2の拡大画像は回転処理が行われるのはいうまでもない。
上述した実施例においては,図7および図8に示すように,第1の拡大画像と第2の拡大画像とが合成されることなく,第1の被写体像から第2の被写体像に表示が切り替えられる場合に適用されているが,図11および図12に示すように,第1の拡大画像と第2の拡大画像とが合成されながら,第1の被写体像から第2の被写体像に表示が切り替えられるものに適用することもできる。
図19は,第1の拡大画像と第2の拡大画像とが合成されながら,第1の被写体像から第2の被写体像に表示が切り替えられるものに適用した場合の合成画像I91の一例である。合成画像I91では第1の拡大画像に含まれる目の位置(E1L,E1R)と第2の拡大画像に含まれる目の位置(E2L2,E2R2)とが一致しているので,目の数は2つとなり違和感が無い。
図20は,目の一致処理をしない場合に第1の拡大画像と第2の拡大画像とを合成して得られる合成画像I92の一例である。第1の拡大画像に含まれる目の位置(E1L,E1R)と第2の拡大画像に含まれる目の位置(E2L2,E2R2)とが一致していないので,目の数が4となり違和感があることとなる。図21および図23においてはいずれも分りやすくするために第2の拡大画像については目のみが図示されている。
図21は,さらに他の実施例を示すもので画像再生処理手順を示すフローチャートである。
この処理は,変数Iで示される第1の被写体像と変数Jで示される第2の被写体像との両方の被写体像に顔画像部分が含まれており,顔枠領域が規定される場合に上述した処理(新規イフェクト処理)が行われるものである。
変数Jが変数Iをインクレメントされたものに設定され(ステップ81),変数Jで指定される画像が存在するかどうかが確認される(ステップ82)。存在しない場合には(ステップ82でNO),上述と同様にイフェクト無しの再生が行われる(ステップ86)。
変数Jで指定される画像が存在する場合には(ステップ82でYES),変数IおよびJで指定される連続する2駒の被写体像の両方に顔枠領域が存在するかどうかが確認される(ステップ83)。両方に顔枠領域が存在する場合には(ステップ83でYES),上述した新規イフェクト再生が行われる(ステップ84)。いずれか一方でも顔枠領域が存在しない場合には(ステップ83でNO),フェードイン/フェードアウトまたはワイプなとの従来のイフェクトの再生が行われる(ステップ85)。
図22から図25は,さらに他の実施例を示すものである。この実施例は,被写体像に複数の顔画像が含まれている場合についての処理である。
図22は,画像再生装置の処理手順を示すフローチャートである。図22は,図4に示す処理に対応するもので,図4に示す処理と同一の処理については同一符号を付して説明を省略する。
被写体像に含まれる顔画像の特徴量が検出される(ステップ91)。検出された特徴量を利用して,被写体像に複数の顔画像が含まれている場合に顔枠領域が確定される処理が行われる(ステップ92)。その後上述したように,複数駒の被写体像の画像再生処理が行われる。
図24は,特徴量検出処理手順(図23ステップ91の処理手順)を示すフローチャートである。
上述したように,第1の被写体像と第2の被写体像との2駒の被写体像を単位として処理が行われるため,特徴量検出処理においても2駒の被写体像を単位として処理が行われる。このために,変数Kが導入され,その変数Kが上述したように第1の被写体像を表す変数Iにセットされる(ステップ101)。変数Kが変数I+2以上となると処理が終了する(ステップ102)。
変数Kが変数I+2未満であると(ステップ102でYES),被写体像の中に含まれている顔画像の数についての顔画像変数Lが導入され,この顔画像変数Lが0にセットされる(ステップ103)。第1の被写体像について顔画像検出処理が行われる(ステップ104)。
第1の被写体像から顔画像が検出されると(ステップ105でYES),顔画像変数がインクレメントされ(ステップ106),検出された顔画像の中のいずれかの顔画像について顔の特徴量が算出される(ステップ107)。顔の特徴量は,顔画像を数値化したもので,目,鼻,口などの顔のパーツの大きさ,位置などを用いて公知の手法で得られる。特徴量が算出された顔画像については顔画像検出処理の対象外として再び顔画像の検出処理が行われる(ステップ104)。
顔の特徴量の算出処理が第1の被写体像に含まれるすべての顔画像について終了すると(ステップ105でYES),第1の被写体像の顔数が顔画像変数Lの値とされる(ステップ109)。変数Kがインクレメントされ(ステップ110),第2の被写体像についても第1の被写体像と同様に,含まれている顔画像すべての特徴量が算出される。
図24は,顔枠領域確定処理手順(図22ステップ92の処理手順)を示すフローチャートである。第1の被写体像から第2の被写体像に切り替えられる時に表示される第1の拡大画像に含まれる顔画像と第2の拡大画像に含まれる顔画像とが類似するように処理が行われる。
第1の被写体像について顔枠領域確定処理を行うために変数Iが変数Kにセットされる(ステップ121)。被写体像K(第1の被写体像)の顔数がL0に,被写体像K+1(第2の被写体像)の顔数がL1にそれぞれセットされる。また,被写体像Kに含まれるすべての顔画像を用いて顔枠を決定するための変数Pが導入され,この変数Pが0にセットされる(ステップ122)。変数Pの値が顔数L0以上となるまで顔枠領域確定処理が続けられる(ステップ123)。変数Pの値が顔数L0未満であると(ステップ123でYES),被写体像K+1に含まれるすべての顔画像を用いて顔枠を決定するための変数Qが導入され,この変数Qが0にセットされる(ステップ124)。変数Qの値が顔数L1以上となるまで顔枠領域確定処理が続けられる(ステップ125)。変数Qの値が顔数L1未満であると(ステップ125でYES),
被写体像K(第1の被写体像)に含まれるすべての顔画像と被写体像K+1(第2の被写体像)に含まれるすべての顔画像との組の顔画像の類似度のうち,もっとも類似する顔画像を囲む枠が被写体像Kおよび被写体像K+1の顔枠と確定される。具体的には,次のようにして確定される。まず,変数Pで指定される被写体像K(第1の被写体像)に含まれる一の顔画像と変数Qで指定される被写体像K+1(第2の被写体像)に含まれる一の顔画像との類似度Spqが算出される(ステップ126)。算出された類似度Spqが仮の最大類似度Smax(初期値は0)と比較され,算出された類似度Spqが仮の最大類似度Smaxより大きければ(ステップ127でYES),そのときの類似度Spqが仮の最大類似度Smaxとなるように,仮の最大類似度Smaxが更新される。また,そのときの類似度Spqが算出されたときに用いられた被写体像Kの変数Pで指定される顔画像を囲む枠が,被写体像Kの仮の顔枠とされ,被写体像K+1の変数Qで指定される顔画像を囲む枠が,被写体像K+1の仮の顔枠とされる(ステップ128)。算出された類似度Spqが仮の最大類似度Smax以下であると(ステップ127でNO),ステップ128の処理はスキップされる。
変数Qがインクレメントされ(ステップ129),変数Pで指定される被写体像Kに含まれる一の顔画像とインクレメント変数Qで指定される被写体像K+1に含まれる他の顔画像との類似度Spqが算出される。このように,仮の最大類似度Smaxおよび仮の顔枠が更新されていく。
被写体像Kに含まれる一の顔画像についてステップ124から129の処理が終了すると(ステップ125でNO),被写体像Kについての変数Pがインクレメントされ(ステップ130),被写体像Kに含まれる他の顔画像について,被写体像K+1に含まれる顔画像との類似度算出処理が行われる。
最終的に更新された仮の最大類似度Smaxが最大類似度Smaxとなり,その最大類似度Smaxを与える顔画像の組み合わせを構成する被写体像Kに含まれる顔画像と被写体像K+1に含まれる顔画像とのそれぞれ枠が顔枠として確定されることとなる。
図25は,上述のようにして確定された顔枠に含まれる顔画像が切り替え画像として利用される様子を示している。
第1の被写体像には,一つの顔画像が含まれており,第2の被写体像には複数の顔画像が含まれている。第2の被写体像に含まれている複数の顔画像のうち,第1の被写体像に含まれている顔画像ともっとも類似している顔画像は,顔枠R10nによって囲まれている顔画像であるとする。
まず,第1の被写体像から得られる第1の拡大画像I21〜I2nが表示されていく。切り替え時の第1の拡大画像I2nが表示されると,次に顔枠R10nによって囲まれている顔画像が拡大されている画像が切り替え時の第2の拡大画像I101として表示される。その後は,上述したように,顔枠R10nによって囲まれている顔画像が徐々にズームアウトにより得られる画像のようにして第2の拡大画像が表示される。最終的に第2の被写体像が表示されるようになる。切り替え前後に表示される顔が類似しているので,閲覧者は切り替え時に違和感を生じない。
図26は,変形例を示すもので,被写体像の切り替えの様子を示している。上述した実施例においては,切り替え前後に表示される顔画像は類似しているものが選ばれているが,この変形例では,第2の被写体像に含まれている複数の顔画像の中から最大の顔画像が切り替え時に表示されるようにするものである。
第1の被写体像I2には,1つの顔画像が含まれており,第2の被写体像には複数の顔画像が含まれている。上述したように,第1の被写体像I2から得られる第1の拡大画像が順に表示されていく。第2の被写体像に含まれている複数の顔画像のうち,顔枠R11nで囲まれている顔画像がもっとも大きなものであったとすると,その顔枠R11nで囲まれている顔画像がアップとなる第2の拡大画像I111が切り替え時の画像となる。その後は,上述したように,顔枠R11nによって囲まれている顔画像が徐々にズームアウトにより得られる画像のようにして第2の拡大画像が表示される。最終的に第2の被写体像が表示されるようになる。
画像再生装置の電気的構成を示すブロック図である。 被写体像の一例である。 被写体像の一例である。 画像再生装置の処理手順を示すフローチャートである。 画像再生処理手順を示すフローチャートである。 画像再生処理手順を示すフローチャートである。 (A)は第1被写体像の切り取り範囲を示し,(B)は第1拡大画像を示している。 (A)は第2被写体像の切り取り範囲を示し,(B)は第2拡大画像を示している。 被写体像の一例である。 被写体像の一例である。 (A)は第1被写体像の切り取り範囲を,(B)は第1拡大画像を,(C)は表示される画像を示している。 (A)は第2被写体像の切り取り範囲を,(B)は第2拡大画像を,(C)は表示される画像を示している。 画像再生処理手順を示すフローチャートである。 画像再生処理手順を示すフローチャートである。 画像再生処理手順を示すフローチャートである。 画像再生処理手順を示すフローチャートである。 被写体像の一例である。 (A)は被写体像の一部分の画像を示し,(B)は被写体像全体を示している。 合成画像の一例である。 合成画像の一例である。 画像再生処理手順を示すフローチャートである。 特徴量検出装置の処理手順を示すフローチャートである。 画像再生処理手順を示すフローチャートである。 顔枠領域確定処理手順を示すフローチャートである。 被写体像が切り替わる様子を示している。 被写体像が切り替わる様子を示している。
符号の説明
1 プロセッサ
4 グラフィック制御回路
5 表示装置
9 ハードディスク
12 CD-ROMドライブ
13 CD-ROM

Claims (8)

  1. 第1の被写体像に含まれている顔画像部分が切り取り後の画像部分に含まれるように第1の被写体像から画像を切り取る第1の切り取り手段,
    第1の被写体像の大きさとなるように,上記第1の切り取り手段によって切り取られた画像を拡大する第1の拡大手段,
    上記第1の拡大手段によって拡大された切り取り画像を表示画面に表示するように表示装置を制御する第1の表示制御手段,
    切り取り後の画像が前回の切り取り後の画像よりも小さくなるように上記画像切り取り処理,上記拡大処理および上記表示制御処理を,切り取り後の画像が所定の大きさとなるまで繰り返すように上記第1の切り取り手段,上記第1の拡大手段および上記第1の表示制御手段を制御する第1制御手段,
    上記第1の切り取り手段による切り取り後の画像が上記所定の大きさとなったことに応じて,第2の被写体像に含まれている顔画像部分が切り取り後の画像の部分に含まれるように第2の被写体像から画像を切り取る第2の切り取り手段,
    第2の被写体像の大きさとなるように,上記第2の切り取り手段によって切り取られた画像を拡大する第2の拡大手段,
    上記第2の拡大手段によって拡大された切り取り画像を上記表示画面に表示するように上記表示装置を制御する第2の表示制御手段,ならびに
    切り取り後の画像が前回の切り取り後の画像よりも大きくなるように上記画像切り取り処理,上記拡大処理および上記表示制御処理を繰り返すように上記第2の切り取り手段,上記第2の拡大手段および上記第2の表示制御手段を制御する第2の制御手段,
    を備えた画像再生装置。
  2. 上記第1の表示制御手段および上記第2の表示制御手段が,
    上記第1の拡大手段によって拡大された第1の拡大画像と,上記第2の拡大手段によって拡大された第2の拡大画像とが合成されて上記表示画面に表示されるように上記表示装置を制御するものである,
    請求項1に記載の画像再生装置。
  3. 上記第1の表示制御手段は,第1の切り取り手段による切り取り画像の大きさが小さくなるにつれて,第1の拡大画像の合成の割合が少なくなり,かつ第2の拡大画像の合成の割合が多くなるように合成して表示するものであり,
    上記第2の表示制御手段は,第2の切り取り手段による切り取り後の画像の大きさが大きくなるにつれて,第1の拡大画像の合成の割合が少なくなり,かつ第2の拡大画像の合成の割合が多くなるように合成して表示するものである,
    請求項2に記載の画像合成装置。
  4. 上記第2の切り取り手段は,上記第1の切り取り手段による切り取り後の画像における目の相対位置と上記第2の切り取り手段における第1回目の切り取り後の画像における目の相対位置とが一致するように切り取り処理を行い,かつ切り取り後の画像と上記第2の被写体像との位置関係が徐々に一致するように切り取り画像を決定するものである,
    請求項1に記載の画像合成装置。
  5. 上記第1の被写体像または上記第2の被写体像に顔画像部分が含まれていない場合に,画像再生装置の処理を停止する停止制御手段をさらに備えた請求項1に記載の画像合成装置。
  6. 第1の被写体像または第2の被写体像の少なくとも一方に複数の顔画像が含まれており,上記第1の切り取り手段および上記第2の切り取り手段は,切り取り後の顔画像の類似度が高い顔画像部分が含まれるように第1の被写体像からの画像切り取り処理および第2の被写体像からの画像切り取り処理を行うものである,
    請求項1に記載の画像合成装置。
  7. 第1の切り取り手段が,第1の被写体像に含まれている顔画像部分が切り取り後の画像部分に含まれるように第1の被写体像から画像を切り取り,
    第1の拡大手段が,第1の被写体像の大きさとなるように,上記第1の切り取り手段によって切り取られた画像を拡大し,
    第1の表示制御手段が,上記第1の拡大手段によって拡大された切り取り画像を表示画面に表示するように表示装置を制御し,
    第1の制御手段が,切り取り後の画像が前回の切り取り後の画像よりも小さくなるように上記画像切り取り処理,上記拡大処理および上記表示制御処理を,切り取り後の画像が所定の大きさとなるまで繰り返すように上記第1の切り取り手段,上記第1の拡大手段および上記第1の表示制御手段を制御し,
    第2の切り取り手段が,上記第1の切り取り手段による切り取り後の画像が上記所定の大きさとなったことに応じて,第2の被写体像に含まれている顔画像部分が切り取り後の画像の部分に含まれるように第2の被写体像から画像を切り取り,
    第2の拡大手段が,第2の被写体像の大きさとなるように,上記第2の切り取り手段によって切り取られた画像を拡大し,
    第2の表示制御手段が,上記第2の拡大手段によって拡大された切り取り画像を上記表示画面に表示するように上記表示装置を制御し,
    第2の切り取り手段が,切り取り後の画像が前回の切り取り後の画像よりも大きくなるように上記画像切り取り処理,上記拡大処理および上記表示制御処理を繰り返すように上記第2の切り取り手段,上記第2の拡大手段および上記第2の表示制御手段を制御する,
    画像再生装置の制御方法。
  8. 第1の被写体像に含まれている顔画像部分が切り取り後の画像部分に含まれるように第1の被写体像から画像を切り取らせる第1の切り取り処理を行わせ,
    第1の被写体像の大きさとなるように,上記第1の切り取り処理によって切り取られた画像を拡大する第1の拡大処理を行わせ,
    上記第1の拡大処理によって拡大された切り取り画像を表示画面に表示するように表示装置を制御する第1の表示制御処理を行わせ,
    切り取り後の画像が前回の切り取り後の画像よりも小さくなるように上記画像切り取り処理,上記拡大処理および上記表示制御処理を,切り取り後の画像が所定の大きさとなるまで繰り返させ,
    上記第1の切り取り処理による切り取り後の画像が上記所定の大きさとなったことに応じて,第2の被写体像に含まれている顔画像部分が切り取り後の画像の部分に含まれるように第2の被写体像から画像を切り取る第2の切り取り処理を行わせ,
    第2の被写体像の大きさとなるように,上記第2の切り取り処理によって切り取られた画像を拡大する第2の拡大処理を行わせ,
    上記第2の拡大処理によって拡大された切り取り画像を上記表示画面に表示するように上記表示装置を制御する第2の表示制御処理を行わせ,
    切り取り後の画像が前回の切り取り後の画像よりも大きくなるように上記画像切り取り処理,上記拡大処理および上記表示制御処理を繰り返させるように画像再生装置を制御するプログラム。

JP2006258163A 2006-09-25 2006-09-25 画像再生装置ならびにその制御方法およびその制御プログラム Expired - Fee Related JP4388939B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006258163A JP4388939B2 (ja) 2006-09-25 2006-09-25 画像再生装置ならびにその制御方法およびその制御プログラム
US11/902,281 US7974492B2 (en) 2006-09-25 2007-09-20 Image data reproducing apparatus with changing proportions of combined enlarged images, method of controlling same and control program therefor
CN200710161843A CN100593939C (zh) 2006-09-25 2007-09-24 图像数据再现装置、控制该装置的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006258163A JP4388939B2 (ja) 2006-09-25 2006-09-25 画像再生装置ならびにその制御方法およびその制御プログラム

Publications (2)

Publication Number Publication Date
JP2008079166A JP2008079166A (ja) 2008-04-03
JP4388939B2 true JP4388939B2 (ja) 2009-12-24

Family

ID=39225041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006258163A Expired - Fee Related JP4388939B2 (ja) 2006-09-25 2006-09-25 画像再生装置ならびにその制御方法およびその制御プログラム

Country Status (3)

Country Link
US (1) US7974492B2 (ja)
JP (1) JP4388939B2 (ja)
CN (1) CN100593939C (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100066900A1 (en) * 2008-09-12 2010-03-18 Himax Technologies Limited Image processing method
KR101663226B1 (ko) * 2010-03-02 2016-10-06 삼성전자주식회사 디지털 영상 처리 장치 및 디지털 영상 처리 방법
JP4852652B2 (ja) * 2010-03-09 2012-01-11 パナソニック株式会社 電子ズーム装置、電子ズーム方法、及びプログラム
JP4829357B2 (ja) * 2010-03-26 2011-12-07 株式会社東芝 画像処理装置及び画像処理方法
KR20120118383A (ko) * 2011-04-18 2012-10-26 삼성전자주식회사 이미지 보정 장치 및 이를 이용하는 이미지 처리 장치와 그 방법들
US9025835B2 (en) 2011-10-28 2015-05-05 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US8938100B2 (en) 2011-10-28 2015-01-20 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US20130108119A1 (en) * 2011-10-28 2013-05-02 Raymond William Ptucha Image Recomposition From Face Detection And Facial Features
US9025836B2 (en) * 2011-10-28 2015-05-05 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US8811747B2 (en) 2011-10-28 2014-08-19 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US9008436B2 (en) 2011-10-28 2015-04-14 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
JP6243112B2 (ja) * 2011-12-09 2017-12-06 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
US8520019B1 (en) 2012-03-01 2013-08-27 Blackberry Limited Drag handle for applying image filters in picture editor
CN102708841B (zh) * 2012-04-16 2015-04-29 广东威创视讯科技股份有限公司 信号开窗方法与装置
US9129643B2 (en) * 2012-09-17 2015-09-08 Adobe Systems Incorporated Method and apparatus for creating a media sequence with automatic selection of an optimal sequence preset
CN103731717B (zh) * 2012-10-10 2017-06-20 华为终端有限公司 展示多幅图像的方法、装置、家庭网络系统和移动终端
JP2014139734A (ja) * 2013-01-21 2014-07-31 Sony Corp 情報処理装置および方法、並びにプログラム
JP5619214B2 (ja) * 2013-05-22 2014-11-05 株式会社東芝 画像処理装置、画像処理プログラム及び画像処理方法
WO2016017695A1 (ja) * 2014-07-30 2016-02-04 オリンパス株式会社 画像処理装置
FR3030086A1 (fr) * 2014-12-16 2016-06-17 Orange Controle de l'affichage d'une image representative d'un objet capture par un dispositif d'acquisition d'images
CN105263049B (zh) * 2015-10-28 2019-10-29 努比亚技术有限公司 一种基于帧坐标的视频裁剪装置、方法及移动终端
KR101751039B1 (ko) * 2016-02-17 2017-06-26 네이버 주식회사 영상 표시 장치, 방법, 및 컴퓨터 프로그램
US9972111B2 (en) 2016-02-24 2018-05-15 Adobe Systems Incorporated Optimizing image cropping
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
CN108053460B (zh) * 2017-12-04 2022-02-08 上海振华重工(集团)股份有限公司 一种电力系统图的绘制方法及其装置
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
EP3864573A1 (en) 2018-10-11 2021-08-18 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
CN114245028B (zh) * 2021-12-14 2024-02-06 北京字跳网络技术有限公司 图像展示方法、装置、电子设备及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2372658A (en) * 2001-02-23 2002-08-28 Hewlett Packard Co A method of creating moving video data from a static image
GB2378342A (en) * 2001-07-31 2003-02-05 Hewlett Packard Co Selecting images based upon the similarity between images
US7383509B2 (en) * 2002-09-13 2008-06-03 Fuji Xerox Co., Ltd. Automatic generation of multimedia presentation
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
JP2005033276A (ja) 2003-07-07 2005-02-03 Seiko Epson Corp 画像再生システム及び画像再生プログラム、並びに画像再生方法
JP2005354333A (ja) 2004-06-10 2005-12-22 Casio Comput Co Ltd 画像再生装置およびプログラム
JP4581924B2 (ja) 2004-09-29 2010-11-17 株式会社ニコン 画像再生装置、および画像再生プログラム
US7505051B2 (en) * 2004-12-16 2009-03-17 Corel Tw Corp. Method for generating a slide show of an image
JP2006262496A (ja) 2006-04-03 2006-09-28 Casio Comput Co Ltd 画像記録再生装置、カメラ装置、画像記録再生方法及びプログラム
JP4720686B2 (ja) 2006-09-01 2011-07-13 株式会社セガ 自動写真館

Also Published As

Publication number Publication date
US20080075388A1 (en) 2008-03-27
US7974492B2 (en) 2011-07-05
JP2008079166A (ja) 2008-04-03
CN100593939C (zh) 2010-03-10
CN101197907A (zh) 2008-06-11

Similar Documents

Publication Publication Date Title
JP4388939B2 (ja) 画像再生装置ならびにその制御方法およびその制御プログラム
KR102642780B1 (ko) 햅틱 재생 조절 시스템
US20170200299A1 (en) Image processing device, image processing method and program
US8159530B2 (en) Method and apparatus for displaying stereoscopic images
JP2008501170A (ja) イメージを見てエンハンスする方法及びシステム
US20140240472A1 (en) 3d subtitle process device and 3d subtitle process method
US20110157474A1 (en) Image display control apparatus
US20130328918A1 (en) Image processing device, image processing method, and program
US7890866B2 (en) Assistant editing display method for media clips
JP5064424B2 (ja) 立体画像表示装置及び立体画像表示方法
CN104811797A (zh) 一种视频处理的方法及移动终端
JP2005354333A (ja) 画像再生装置およびプログラム
JP6666974B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6394703B2 (ja) 表示装置、表示システム及び表示制御プログラム
JP2006099058A (ja) 表示装置、表示方法、およびプログラム
EP3503579B1 (en) Multi-camera device
JP2009076984A (ja) 画像処理装置、画像処理方法、プログラム、及び記録媒体
CN110703973B (zh) 图像裁剪方法和装置
JP2021193778A5 (ja)
JP5033098B2 (ja) 画像表示装置、画像表示方法および画像表示プログラム
JP2009175467A (ja) 記録再生装置、およびプログラム
JP2006295749A (ja) 縮小画像一覧表示システムおよび方法ならびにそのシステムを制御するプログラム
JP5149925B2 (ja) 表示制御装置、及びその制御方法
JPH07226959A (ja) 立体映像表示装置
JP5419783B2 (ja) 画像再生装置及び画像再生装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090213

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090824

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091005

R150 Certificate of patent or registration of utility model

Ref document number: 4388939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121009

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121009

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131009

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees