JP2002359842A - 画像符号化方法と装置および画像復号方法と装置 - Google Patents

画像符号化方法と装置および画像復号方法と装置

Info

Publication number
JP2002359842A
JP2002359842A JP2001163952A JP2001163952A JP2002359842A JP 2002359842 A JP2002359842 A JP 2002359842A JP 2001163952 A JP2001163952 A JP 2001163952A JP 2001163952 A JP2001163952 A JP 2001163952A JP 2002359842 A JP2002359842 A JP 2002359842A
Authority
JP
Japan
Prior art keywords
image
point information
corresponding point
audio data
key frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001163952A
Other languages
English (en)
Inventor
Giyouzo Akiyoshi
仰三 秋吉
Nobuo Akiyoshi
信雄 秋吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Monolith Co Ltd
Original Assignee
Monolith Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Monolith Co Ltd filed Critical Monolith Co Ltd
Priority to JP2001163952A priority Critical patent/JP2002359842A/ja
Priority to EP20020011909 priority patent/EP1262918A3/en
Priority to US10/156,015 priority patent/US6959040B2/en
Publication of JP2002359842A publication Critical patent/JP2002359842A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/602Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for digital sound signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

(57)【要約】 【課題】 動画の圧縮率と画質を両立させる新たな符号
化および復号技術は永遠の課題である。 【解決手段】 画像入力部12はキーフレームを取得す
る。マッチングプロセッサ14はキーフレーム間の対応
情報を生成する。音声入力部20は動画と同期する音声
データを入力する。ストリーム生成部16は音声デー
タ、対応情報、キーフレームを盛り込んで符号化データ
ストリームを生成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、画像処理技術に
関し、とくに動画の圧縮を中心とする画像の符号化およ
び復号方法と装置に関する。
【0002】
【従来の技術】動画圧縮の事実上の世界標準であるMP
EG(Moving Picture Experts Group)は、CDなどス
トレージメディアからネットワークや放送などの伝送メ
ディアへとそのターゲットエリアが広がった。放送のデ
ジタル化はMPEGを中心とする圧縮符号化技術なしに
考えることはできない。放送と通信の垣根が崩れ、サー
ビス事業者の多様化は必須になり、ブロードバンド時代
にデジタル文化がいかなる進展を遂げるか、予測がつき
にくい状況にある。
【0003】
【発明が解決しようとする課題】そうした混沌の中で
も、動画の圧縮技術に関する方向性について確かなこと
がある。すなわち、より高い圧縮率と画質の両立であ
る。MPEGは周知のごとく高圧縮化をブロック歪みが
阻むことがある。
【0004】この発明はそうした状況に鑑みてなされた
ものであり、その目的は、良好な動画の圧縮技術を提供
することにある。
【0005】
【課題を解決するための手段】以下、本発明の画像復号
技術および画像符号化技術は、主に動画について説明す
るが、モーフィング、ウォークスルーなどの映像効果な
ど、用途は狭義の動画に限られない。
【0006】本発明のある態様は画像符号化方法に関す
る。この方法は、動画に含まれるキーフレームおよびキ
ーフレーム間の対応点情報を取得し、この動画の再生時
に同期して再生されるべき音声データを取得し、この音
声データ、前記対応点情報および前記キーフレームを含
む形式にて符号化データストリームを生成するものであ
る。「フレーム」は画像の単位ではあるが、以下特に必
要がない限り、これと「画像」を区別しない。この態様
によれば、従来にないタイプの動画符号化技術が提供さ
れる。
【0007】対応点情報は、キーフレームの特異点を基
礎として検出されたものでもよく、画素を単位として記
述されていてもよい。また、この方法は、対応点情報を
キーフレーム間におけるマッチングをもとに生成する処
理をさらに含んでもよい。
【0008】本発明の別の態様は、画像符号化装置に関
し、動画に含まれるキーフレームおよびキーフレーム間
の対応点情報を取得する第1機能ブロックと、前記動画
の再生時に同期して再生されるべき音声データを取得す
る第2機能ブロックと、前記音声データ、前記対応点情
報および前記キーフレームを含む形式にて符号化データ
ストリームを生成する第3機能ブロックとを含む。これ
らの機能ブロックはそれぞれ物理的に一体である必要は
なく、複数の機能ユニットの組合せであってもよい。
【0009】第1機能ブロックは、前記キーフレームを
入力する画像入力部と、前記対応点情報を生成するプロ
セッサとを含んでもよい。第3機能ブロックは、前記対
応点情報と前記音声データを一体化して対応情報ファイ
ルへ格納してもよい。
【0010】プロセッサは、各キーフレームを特異点を
抽出することによって多重解像度し、解像度の荒いレベ
ルから順に特異点どうしの対応関係を特定して対応点情
報を生成してもよい。また、多重解像度特異点フィルタ
を作用させることによりキーフレーム間のマッチングを
計算して対応点情報を生成してもよい。
【0011】本発明のさらに別の態様は、画像復号方法
に関する。この方法は、符号化データストリームを取得
し、そのストリームに含まれるキーフレームのデータ、
キーフレーム間の対応点情報、および音声データを検出
し、検出されたキーフレームのデータと対応点情報をも
とに動画を再生するとともに前記音声データをその動画
と同期して出力するものである。
【0012】動画の再生は、前記キーフレームおよびそ
れらの補間によって生成された中間フレームを利用して
なされ、前記音声データの出力タイミングは生成された
中間フレームの枚数にしたがって制御されてもよい。補
間による中間フレームの生成枚数は可変であり、仮に多
数の中間フレームが生成され、それらの表示間隔が一定
であれば、音声データも引き延ばしたほうが好都合な場
合があるためである。
【0013】本発明のさらに別の態様は、画像復号装置
に関する。この装置は、動画の符号化データストリーム
を取得する第1機能ブロックと、その符号化データスト
リームからキーフレーム、キーフレーム間の対応点情
報、および音声データを検出する第2機能ブロックと、
前記キーフレームと前記対応点情報をもとに補間により
中間フレームを生成する第3機能ブロックと、前記キー
フレームおよび前記中間フレームを動画として出力する
第4機能ブロックと、その動画の出力と同期して前記音
声データを出力する第5機能ブロックとを含む。
【0014】第3機能ブロックは、生成すべき中間フレ
ームの枚数に関する外部からの指定にしたがってもよ
い。例えば、ユーザがリモートコントローラその他の手
段で枚数またはそれに関連するパラメータを制御しても
よい。
【0015】対応点情報と音声データが対応情報ファイ
ルに一体化された状態で格納されている場合、第2機能
ブロックはその対応情報ファイルから対応点情報と音声
データを検出してもよい。
【0016】以上の各態様において、対応情報を導く技
術は、本出願人が先に特許第2927350号にて提案
した特異点を用いるマッチング技術(以下「前提技術」
という)の応用でもよい。
【0017】以上の各構成部材や処理内容を任意に入れ
替えたり、方法と装置の間で表現を一部または全部入れ
替え、または追加したり、表現をコンピュータプログラ
ム、記録媒体等に変更したものもまた、本発明として有
効である。
【0018】
【発明の実施の形態】はじめに、実施の形態で利用する
多重解像度特異点フィルタ技術とそれを用いた画像マッ
チング処理を「前提技術」として詳述する。これらの技
術は本出願人がすでに特許第2927350号を得てい
る技術であり、本発明との組合せに最適である。ただ
し、実施の形態で採用可能な画像マッチング技術はこれ
に限られない。図18以降、前提技術を利用した画像デ
ータ符号化および復号技術を具体的に説明する。 [前提技術の背景]最初に[1]で前提技術の要素技術の
詳述し、[2]で処理手順を具体的に説明する。さらに
[3]で実験の結果を報告する。 [1]要素技術の詳細 [1.1]イントロダクション 特異点フィルタと呼ばれる新たな多重解像度フィルタを
導入し、画像間のマッチングを正確に計算する。オブジ
ェクトに関する予備知識は一切不要である。画像間のマ
ッチングの計算は、解像度の階層を進む間、各解像度に
おいて計算される。その際、粗いレベルから精細なレベ
ルへと順に解像度の階層を辿っていく。計算に必要なパ
ラメータは、人間の視覚システムに似た動的計算によっ
て完全に自動設定される。画像間の対応点を人手で特定
する必要はない。
【0019】本前提技術は、例えば完全に自動的なモー
フィング、物体認識、立体写真測量、ボリュームレンダ
リング、少ないフレームからの滑らかな動画の生成など
に応用できる。モーフィングに用いる場合、与えられた
画像を自動的に変形することができる。ボリュームレン
ダリングに用いる場合、断面間の中間的な画像を正確に
再構築することができる。断面間の距離が遠く、断面の
形状が大きく変化する場合でも同様である。
【0020】[1.2]特異点フィルタの階層 前提技術に係る多重解像度特異点フィルタは、画像の解
像度を落としながら、しかも画像に含まれる各特異点の
輝度及び位置を保存することができる。ここで画像の幅
をN、高さをMとする。以下簡単のため、N=M=2
(nは自然数)と仮定する。また、区間[0,N]⊂R
をIと記述する。(i,j)における画像の画素をp
(i,j)と記述する(i,j∈I)。
【0021】ここで多重解像度の階層を導入する。階層
化された画像群は多重解像度フィルタで生成される。多
重解像度フィルタは、もとの画像に対して二次元的な探
索を行って特異点を検出し、検出された特異点を抽出し
てもとの画像よりも解像度の低い別の画像を生成する。
ここで第mレベルにおける各画像のサイズは2×2
(0≦m≦n)とする。特異点フィルタは次の4種類の
新たな階層画像をnから下がる方向で再帰的に構築す
る。
【0022】
【数1】 ただしここで、
【0023】
【数2】 とする。以降これら4つの画像を副画像(サブイメー
ジ)と呼ぶ。minx≦t ≦x+1、max
x≦t≦x+1をそれぞれα及びβと記述すると、副画
像はそれぞれ以下のように記述できる。
【0024】 P(m,0)=α(x)α(y)p(m+1,0) (m,1)=α(x)β(y)p(m+1,1) (m,2)=β(x)α(y)p(m+1,2) P(m,3)=β(x)β(y)p(m+1,3) すなわち、これらはαとβのテンソル積のようなものと
考えられる。副画像はそれぞれ特異点に対応している。
これらの式から明らかなように、特異点フィルタはもと
の画像について2×2画素で構成されるブロックごとに
特異点を検出する。その際、各ブロックのふたつの方
向、つまり縦と横について、最大画素値または最小画素
値をもつ点を探索する。画素値として、前提技術では輝
度を採用するが、画像に関するいろいろな数値を採用す
ることができる。ふたつの方向の両方について最大画素
値となる画素は極大点、ふたつの方向の両方について最
小画素値となる画素は極小点、ふたつの方向の一方につ
いて最大画素値となるとともに、他方について最小画素
値となる画素は鞍点として検出される。
【0025】特異点フィルタは、各ブロックの内部で検
出された特異点の画像(ここでは1画素)でそのブロッ
クの画像(ここでは4画素)を代表させることにより、
画像の解像度を落とす。特異点の理論的な観点からすれ
ば、α(x)α(y)は極小点を保存し、β(x)β
(y)は極大点を保存し、α(x)β(y)及びβ
(x)α(y)は鞍点を保存する。
【0026】はじめに、マッチングをとるべき始点(ソ
ース)画像と終点(デスティネーション)画像に対して
別々に特異点フィルタ処理を施し、それぞれ一連の画像
群、すなわち始点階層画像と終点階層画像を生成してお
く。始点階層画像と終点階層画像は、特異点の種類に対
応してそれぞれ4種類ずつ生成される。
【0027】この後、一連の解像度レベルの中で始点階
層画像と終点階層画像のマッチングがとれらていく。ま
ずp(m,0)を用いて極小点のマッチングがとられ
る。次に、その結果に基づき、p(m,1)を用いて鞍
点のマッチングがとられ、p m,2)を用いて他の鞍
点のマッチングがとられる。そして最後にp(m,3)
を用いて極大点のマッチングがとられる。
【0028】図1(c)と図1(d)はそれぞれ図1
(a)と図1(b)の副画像p(5, 0)を示してい
る。同様に、図1(e)と図1(f)はp(5,1)
図1(g)と図1(h)はp(5,2)、図1(i)と
図1(j)はp(5,3)をそれぞれ示している。これ
らの図からわかるとおり、副画像によれば画像の特徴部
分のマッチングが容易になる。まずp(5,0)によっ
て目が明確になる。目は顔の中で輝度の極小点だからで
ある。p(5,1)によれば口が明確になる。口は横方
向で輝度が低いためである。p(5,2)によれば首の
両側の縦線が明確になる。最後に、p(5,3)によっ
て耳や頬の最も明るい点が明確になる。これらは輝度の
極大点だからである。
【0029】特異点フィルタによれば画像の特徴が抽出
できるため、例えばカメラで撮影された画像の特徴と、
予め記録しておいたいくつかのオブジェクトの特徴を比
較することにより、カメラに映った被写体を識別するこ
とができる。
【0030】[1.3]画像間の写像の計算 始点画像の位置(i,j)の画素をp(n) (i,j)
と書き、同じく終点画像の位置(k,l)の画素をq
(n) (k,l)で記述する。i,j,k,l∈Iとす
る。画像間の写像のエネルギー(後述)を定義する。こ
のエネルギーは、始点画像の画素の輝度と終点画像の対
応する画素の輝度の差、及び写像の滑らかさによって決
まる。最初に最小のエネルギーを持つp(m,0)とq
(m,0)間の写像f(m,0):p(m,0)→q
(m,0)が計算される。f(m,0 に基づき、最小
エネルギーを持つp(m,1)、q(m,1)間の写像
(m ,1)が計算される。この手続は、p(m,3)
とq(m,3)の間の写像f m,3)の計算が終了す
るまで続く。各写像f(m,i)(i=0,1,2,
…)を副写像と呼ぶことにする。f(m,i)の計算の
都合のために、iの順序は次式のように並べ替えること
ができる。並べ替えが必要な理由は後述する。
【0031】
【数3】 ここでσ(i)∈{0,1,2,3}である。
【0032】[1.3.1]全単射 始点画像と終点画像の間のマッチングを写像で表現する
場合、その写像は両画像間で全単射条件を満たすべきで
ある。両画像に概念上の優劣はなく、互いの画素が全射
かつ単射で接続されるべきだからである。しかしながら
通常の場合とは異なり、ここで構築すべき写像は全単射
のディジタル版である。前提技術では、画素は格子点に
よって特定される。
【0033】始点副画像(始点画像について設けられた
副画像)から終点副画像(終点画像について設けられた
副画像)への写像は、f(m,s):I/2n−m×I
/2 n−m→I/2n−m×I/2n−m(s=0,
1,…)によって表される。ここで、f
(m,s)(i,j)=(k,l)は、始点画像のp
(m,s) (i, j)が終点画像のq(m,s)
(k,l)に写像されることを意味する。簡単のため
に、f(i,j)=(k,l)が成り立つとき画素q
(k,l)をqf(i ,j)と記述する。
【0034】前提技術で扱う画素(格子点)のようにデ
ータが離散的な場合、全単射の定義は重要である。ここ
では以下のように定義する(i,i’,j,j’,k,
lは全て整数とする)。まず始めに、始点画像の平面に
おいてRによって表記される各正方形領域、
【0035】
【数4】 を考える(i=0,…,2−1、j=0,…,2
1)。ここでRの各辺(エッジ)の方向を以下のように
定める。
【0036】
【数5】 この正方形は写像fによって終点画像平面における四辺
形に写像されなければならない。f(m,s)(R)に
よって示される四辺形、
【0037】
【数6】 は、以下の全単射条件を満たす必要がある。
【0038】1.四辺形f(m,s)(R)のエッジは
互いに交差しない。 2.f(m,s)(R)のエッジの方向はRのそれらに
等しい(図2の場合、時計回り)。 3.緩和条件として収縮写像(リトラクション:retrac
tions)を許す。
【0039】何らかの緩和条件を設けないかぎり、全単
射条件を完全に満たす写像は単位写像しかないためであ
る。ここではf(m,s)(R)のひとつのエッジの長
さが0、すなわちf(m,s)(R)は三角形になって
もよい。しかし、面積が0となるような図形、すなわち
1点または1本の線分になってはならない。図2(R)
がもとの四辺形の場合、図2(A)と図2(D)は全単
射条件を満たすが、図2(B)、図2(C)、図2
(E)は満たさない。
【0040】実際のインプリメンテーションでは、写像
が全射であることを容易に保証すべく、さらに以下の条
件を課してもよい。つまり始点画像の境界上の各画素
は、終点画像において同じ位置を占める画素に写影され
るというものである。すなわち、f(i,j)=(i,
j)(ただしi=0,i=2−1,j=0,j=2
−1の4本の線上)である。この条件を以下「付加条
件」とも呼ぶ。
【0041】[1.3.2]写像のエネルギー [1.3.2.1]画素の輝度に関するコスト 写像fのエネルギーを定義する。エネルギーが最小にな
る写像を探すことが目的である。エネルギーは主に、始
点画像の画素の輝度とそれに対応する終点画像の画素の
輝度の差で決まる。すなわち、写像f(m,s)の点
(i,j)におけるエネルギーC(m,s) (i,j)
は次式によって定まる。
【0042】
【数7】 ここで、V(p(m,s) (i,j))及びV(q
(m,s) f(i,j))はそれぞれ画素p(m,s)
(i,j)及びq(m,s) f(i,j)の輝度であ
る。fのトータルのエネルギーC(m,s)は、マッチ
ングを評価するひとつの評価式であり、つぎに示すC
(m,s) (i,j)の合計で定義できる。
【0043】
【数8】 [1.3.2.2]滑らかな写像のための画素の位置に
関するコスト 滑らかな写像を得るために、写像に関する別のエネルギ
ーDfを導入する。このエネルギーは画素の輝度とは関
係なく、p(m,s) (i,j)およびq(m ,s)
f(i,j)の位置によって決まる(i=0,…,2
−1,j=0,…,2−1)。点(i,j)における
写像f(m,s)のエネルギーD(m,s (i,j)
は次式で定義される。
【0044】
【数9】 ただし、係数パラメータηは0以上の実数であり、ま
た、
【0045】
【数10】
【0046】
【数11】 とする。ここで、
【0047】
【数12】 であり、i’<0およびj’<0に対してf(i’,
j’)は0と決める。Eは(i,j)及びf(i,
j)の距離で決まる。Eは画素があまりにも離れた画
素へ写影されることを防ぐ。ただしEは、後に別のエ
ネルギー関数で置き換える。Eは写像の滑らかさを保
証する。Eは、p(i,j)の変位とその隣接点の変
位の間の隔たりを表す。以上の考察をもとに、マッチン
グを評価する別の評価式であるエネルギーDは次式で
定まる。
【0048】
【数13】 [1.3.2.3]写像の総エネルギー 写像の総エネルギー、すなわち複数の評価式の統合に係
る総合評価式はλC m,s) +D(m,s) で定
義される。ここで係数パラメータλは0以上の実数であ
る。目的は総合評価式が極値をとる状態を検出するこ
と、すなわち次式で示す最小エネルギーを与える写像を
見いだすことである。
【0049】
【数14】 λ=0及びη=0の場合、写像は単位写像になることに
注意すべきである(すなわち、全てのi=0,…,2
−1及びj=0,…,2−1に対してf
(m ,s)(i,j)=(i,j)となる)。後述のご
とく、本前提技術では最初にλ=0及びη=0の場合を
評価するため、写像を単位写像から徐々に変形していく
ことができる。仮に総合評価式のλの位置を変えてC
(m,s) +λD(m ,s) と定義したとすれば、
λ=0及びη=0の場合に総合評価式がC(m, s)
だけになり、本来何等関連のない画素どうしが単に輝度
が近いというだけで対応づけられ、写像が無意味なもの
になる。そうした無意味な写像をもとに写像を変形して
いってもまったく意味をなさない。このため、単位写像
が評価の開始時点で最良の写像として選択されるよう係
数パラメータの与えかたが配慮されている。
【0050】オプティカルフローもこの前提技術同様、
画素の輝度の差と滑らかさを考慮する。しかし、オプテ
ィカルフローは画像の変換に用いることはできない。オ
ブジェクトの局所的な動きしか考慮しないためである。
前提技術に係る特異点フィルタを用いることによって大
域的な対応関係を検出することができる。
【0051】[1.3.3]多重解像度の導入による写
像の決定 最小エネルギーを与え、全単射条件を満足する写像f
minを多重解像度の階層を用いて求める。各解像度レ
ベルにおいて始点副画像及び終点副画像間の写像を計算
する。解像度の階層の最上位(最も粗いレベル)からス
タートし、各解像度レベルの写像を、他のレベルの写像
を考慮に入れながら決定する。各レベルにおける写像の
候補の数は、より高い、つまりより粗いレベルの写像を
用いることによって制限される。より具体的には、ある
レベルにおける写像の決定に際し、それよりひとつ粗い
レベルにおいて求められた写像が一種の拘束条件として
課される。
【0052】まず、
【0053】
【数15】 が成り立つとき、p(m−1,s) (i’,j’)、q
(m−1,s) (i’, j’)をそれぞれp(m,s)
(i,j)、q(m,s) (i,j)のparentと
呼ぶことにする。[x]はxを越えない最大整数であ
る。またp(m,s (i,j)、q(m,s)
(i,j)をそれぞれ
(m−1,s) (i’,j ’)、q(m−1,s)
(i’,j’)のchildと呼ぶ。関数parent
(i,j)は次式で定義される。
【0054】
【数16】 (m,s) (i,j)とq(m,s) (k,l)の間
の写像f(m,s)は、エネルギー計算を行って最小に
なったものを見つけることで決定される。f m,s)
(i,j)=(k,l)の値はf(m−1,s)(m=
1,2,…,n)を用いることによって、以下のように
決定される。まず、q(m,s) (k, l)は次の四辺
形の内部になければならないという条件を課し、全単射
条件を満たす写像のうち現実性の高いものを絞り込む。
【0055】
【数17】 ただしここで、
【0056】
【数18】 である。こうして定めた四辺形を、以下p(m,s)
(i,j)の相続(inherited)四辺形と呼ぶことにす
る。相続四辺形の内部において、エネルギーを最小にす
る画素を求める。
【0057】図3は以上の手順を示している。同図にお
いて、始点画像のA,B,C,Dの画素は、第m−1レ
ベルにおいてそれぞれ終点画像のA’,B’,C’,
D’へ写影される。画素p(m,s) (i,j)は、相
続四辺形A’B’C’D’の内部に存在する画素q
(m,s) f(m)(i,j)へ写影されなければなら
ない。以上の配慮により、第m−1レベルの写像から第
mレベルの写像への橋渡しがなされる。
【0058】先に定義したエネルギーEは、第mレベ
ルにおける副写像f(m,0)を計算するために、次式
に置き換える。
【0059】
【数19】 また、副写像f(m,s)を計算するためには次式を用
いる。
【0060】
【数20】 こうしてすべての副写像のエネルギーを低い値に保つ写
像が得られる。式20により、異なる特異点に対応する
副写像が、副写像どうしの類似度が高くなるように同一
レベル内で関連づけられる。式19は、f
(m,s)(i,j)と、第m−1レベルの画素の一部
と考えた場合の(i,j)が射影されるべき点の位置と
の距離を示している。
【0061】仮に、相続四辺形A’B’C’D’の内部
に全単射条件を満たす画素が存在しない場合は以下の措
置をとる。まず、A’B’C’D’の境界線からの距離
がL(始めはL=1)である画素を調べる。それらのう
ち、エネルギーが最小になるものが全単射条件を満たせ
ば、これをf(m,s)(i,j)の値として選択す
る。そのような点が発見されるか、またはLがその上限
のL(m)maxに到達するまで、Lを大きくしてい
く。L(m)maxは各レベルmに対して固定である。
そのような点が全く発見されない場合、全単射の第3の
条件を一時的に無視して変換先の四辺形の面積がゼロに
なるような写像も認め、f(m,s)(i,j)を決定
する。それでも条件を満たす点が見つからない場合、つ
ぎに全単射の第1及び第2条件を外す。
【0062】多重解像度を用いる近似法は、写像が画像
の細部に影響されることを回避しつつ、画像間の大域的
な対応関係を決定するために必須である。多重解像度に
よる近似法を用いなければ、距離の遠い画素間の対応関
係を見いだすことは不可能である。その場合、画像のサ
イズはきわめて小さなものに限定しなければならず、変
化の小さな画像しか扱うことができない。さらに、通常
写像に滑らかさを要求するため、そうした画素間の対応
関係を見つけにくくしている。距離のある画素から画素
への写像のエネルギーは高いためである。多重解像度を
用いた近似法によれば、そうした画素間の適切な対応関
係を見いだすことができる。それらの距離は、解像度の
階層の上位レベル(粗いレベル)において小さいためで
ある。
【0063】[1.4]最適なパレメータ値の自動決定 既存のマッチング技術の主な欠点のひとつに、パレメー
タ調整の困難さがある。大抵の場合、パラメータの調整
は人手作業によって行われ、最適な値を選択することは
きわめて難しい。前提技術に係る方法によれば、最適な
パラメータ値を完全に自動決定することができる。
【0064】前提技術に係るシステムはふたつのパレメ
ータ、λ及びηを含む。端的にいえば、λは画素の輝度
の差の重みであり、ηは写像の剛性を示している。これ
らのパラメータの値は初期値が0であり、まずη=0に
固定してλを0から徐々に増加させる。λの値を大きく
しながら、しかも総合評価式(式14)の値を最小にす
る場合、各副写像に関するC(m,s) の値は一般に
小さくなっていく。このことは基本的にふたつの画像が
よりマッチしなければならないことを意味する。しか
し、λが最適値を超えると以下の現象が発生する。
【0065】1.本来対応すべきではない画素どうし
が、単に輝度が近いというだけで誤って対応づけられ
る。 2.その結果、画素どうしの対応関係がおかしくなり、
写像がくずれはじめる。
【0066】3.その結果、式14においてD
(m,s) が急激に増加しようとする。 4.その結果、式14の値が急激に増加しようとするた
め、D(m,s) の急激な増加を抑制するようf
(m,s)が変化し、その結果C(m,s) が増加す
る。したがって、λを増加させながら式14が最小値を
とるという状態を維持しつつC(m,s) が減少から
増加に転じる閾値を検出し、そのλをη=0における最
適値とする。つぎにηを少しづつ増やしてC(m,s)
の挙動を検査し、後述の方法でηを自動決定する。そ
のηに対応してλも決まる。
【0067】この方法は、人間の視覚システムの焦点機
構の動作に似ている。人間の視覚システムでは、一方の
目を動かしながら左右両目の画像のマッチングがとられ
る。オブジェクトがはっきりと認識できるとき、その目
が固定される。
【0068】[1.4.1]λの動的決定 λは0から所定の刻み幅で増加されていき、λの値が変
わる度に副写像が評価される。式14のごとく、総エネ
ルギーはλC(m,s) +D(m,s) によって定
義される。式9のD(m,s) は滑らかさを表すもの
で、理論的には単位写像の場合に最小になり、写像が歪
むほどEもEも増加していく。Eは整数であるか
ら、D(m,s) の最小刻み幅は1である。このた
め、現在のλC(m,s) (i,j)の変化(減少量)
が1以上でなければ、写像を変化させることによって総
エネルギーを減らすことはできない。なぜなら、写像の
変化に伴ってD(m,s) は1以上増加するため、λ
(m,s) (i,j)が1以上減少しない限り総エネ
ルギーは減らないためである。
【0069】この条件のもと、λの増加に伴い、正常な
場合にC(m,s) (i,j)が減少することを示す。
(m,s) (i,j)のヒストグラムをh(l)と記
述する。h(l)はエネルギーC(m,s) (i,j)
がlである画素の数である。λl≧1が成り立つた
めに、例えばl=1/λの場合を考える。λがλ
らλまで微小量変化するとき、
【0070】
【数21】 で示されるA個の画素が、
【0071】
【数22】 のエネルギーを持つより安定的な状態に変化する。ここ
では仮に、これらの画素のエネルギーがすべてゼロにな
ると近似している。この式はC(m,s) の値が、
【0072】
【数23】 だけ変化することを示し、その結果、
【0073】
【数24】 が成立する。h(l)>0であるから、通常C
(m,s) は減少する。しかし、λが最適値を越えよ
うとするとき、上述の現象、つまりC(m,s) の増
加が発生する。この現象を検出することにより、λの最
適値を決定する。
【0074】なお、H(h>0)及びkを定数とすると
き、
【0075】
【数25】 と仮定すれば、
【0076】
【数26】 が成り立つ。このときk≠−3であれば、
【0077】
【数27】 となる。これがC(m,s) の一般式である(Cは定
数)。
【0078】λの最適値を検出する際、さらに安全を見
て、全単射条件を破る画素の数を検査してもよい。ここ
で各画素の写像を決定する際、全単射条件を破る確率を
と仮定する。この場合、
【0079】
【数28】 が成立しているため、全単射条件を破る画素の数は次式
の率で増加する。
【0080】
【数29】 従って、
【0081】
【数30】 は定数である。仮にh(l)=Hlを仮定するとき、
例えば、
【0082】
【数31】 は定数になる。しかしλが最適値を越えると、上の値は
急速に増加する。この現象を検出し、Bλ
3/2+k/2/2の値が異常値B0thresを越
えるかどうかを検査し、λの最適値を決定することがで
きる。同様に、Bλ3/2 +k/2/2の値が異常
値B1thresを越えるかどうかを検査することによ
り、全単射の第3の条件を破る画素の増加率Bを確認
する。ファクター2を導入する理由は後述する。この
システムはこれら2つの閾値に敏感ではない。これらの
閾値は、エネルギーC(m,s) の観察では検出し損
なった写像の過度の歪みを検出するために用いることが
できる。
【0083】なお実験では、副写像f(m,s)を計算
する際、もしλが0.1を越えたらf(m,s)の計算
は止めてf(m,s+1)の計算に移行した。λ>0.
1のとき、画素の輝度255レベル中のわずか「3」の
違いが副写像の計算に影響したためであり、λ>0.1
のとき正しい結果を得ることは困難だったためである。
【0084】[1.4.2]ヒストグラムh(l) C(m,s) の検査はヒストグラムh(l)に依存し
ない。全単射及びその第3の条件の検査の際、h(l)
に影響を受けうる。実際に(λ,C(m,s) )をプ
ロットすると、kは通常1付近にある。実験ではk=1
を用い、Bλ とBλを検査した。仮にkの本当
の値が1未満であれば、BλとBλは定数にな
らず、ファクターλ(1−k)/2に従って徐々に増加
する。h(l)が定数であれば、例えばファクターはλ
1/2である。しかし、こうした差は閾値B
0thresを正しく設定することによって吸収するこ
とができる。
【0085】ここで次式のごとく始点画像を中心が(x
,y)、半径rの円形のオブジェクトであると仮定
する。
【0086】
【数32】 一方、終点画像は、次式のごとく中心(x,y)、
半径がrのオブジェクトであるとする。
【0087】
【数33】 ここでc(x)はc(x)=xの形であるとする。中
心(x,y)及び(x,y)が十分遠い場合、
ヒストグラムh(l)は次式の形となる。
【0088】
【数34】 k=1のとき、画像は背景に埋め込まれた鮮明な境界線
を持つオブジェクトを示す。このオブジェクトは中心が
暗く、周囲にいくに従って明るくなる。k=−1のと
き、画像は曖昧な境界線を持つオブジェクトを表す。こ
のオブジェクトは中心が最も明るく、周囲にいくに従っ
て暗くなる。一般のオブジェクトはこれらふたつのタイ
プのオブジェクトの中間にあると考えてもさして一般性
を失わない。したがって、kは−1≦k≦1として大抵
の場合をカバーでき、式27が一般に減少関数であるこ
とが保障される。
【0089】なお、式34からわかるように、rは画像
の解像度に影響されること、すなわちrは2mに比例す
ることに注意すべきである。このために[1.4.1]
においてファクター2mを導入した。
【0090】[1.4.3]ηの動的決定 パラメータηも同様の方法で自動決定できる。はじめに
η=0とし、最も細かい解像度における最終的な写像f
(n)及びエネルギーC(n) を計算する。つづい
て、ηをある値Δηだけ増加させ、再び最も細かい解像
度における最終写像f(n)及びエネルギーC(n)
を計算し直す。この過程を最適値が求まるまで続ける。
ηは写像の剛性を示す。次式の重みだからである。
【0091】
【数35】 ηが0のとき、D(n) は直前の副写像と無関係に決
定され、現在の副写像は弾性的に変形され、過度に歪む
ことになる。一方、ηが非常に大きな値のとき、D
(n) は直前の副写像によってほぼ完全に決まる。こ
のとき副写像は非常に剛性が高く、画素は同じ場所に射
影される。その結果、写像は単位写像になる。ηの値が
0から次第に増えるとき、後述のごとくC(n) は徐
々に減少する。しかしηの値が最適値を越えると、図4
に示すとおり、エネルギーは増加し始める。同図のX軸
はη、Y軸はCである。
【0092】この方法でC(n) を最小にする最適な
ηの値を得ることができる。しかし、λの場合に比べて
いろいろな要素が計算に影響する結果、C(n) は小
さく揺らぎながら変化する。λの場合は、入力が微小量
変化するたびに副写像を1回計算しなおすだけだが、η
の場合はすべての副写像が計算しなおされるためであ
る。このため、得られたC(n) の値が最小であるか
どうかを即座に判断することはできない。最小値の候補
が見つかれば、さらに細かい区間を設定することによっ
て真の最小値を探す必要がある。
【0093】[1.5]スーパーサンプリング 画素間の対応関係を決定する際、自由度を増やすため
に、f(m,s)の値域をR×Rに拡張することができ
る(Rは実数の集合)。この場合、終点画像の画素の輝
度が補間され、非整数点、
【0094】
【数36】 における輝度を持つf(m,s)が提供される。つまり
スーパーサンプリングが行われる。実験では、f
(m,s)は整数及び半整数値をとることが許され、
【0095】
【数37】 は、
【0096】
【数38】 によって与えられた。
【0097】[1.6]各画像の画素の輝度の正規化 始点画像と終点画像がきわめて異なるオブジェクトを含
んでいるとき、写像の計算に元の画素の輝度がそのまま
では利用しにくい。輝度の差が大きいために輝度に関す
るエネルギーC(m,s) が大きくなりすぎ、正しい
評価がしずらいためである。
【0098】例えば、人の顔と猫の顔のマッチングをと
る場合を考える。猫の顔は毛で覆われており、非常に明
るい画素と非常に暗い画素が混じっている。この場合、
ふたつの顔の間の副写像を計算するために、まず副画像
を正規化する。すなわち、最も暗い画素の輝度を0、最
も明るいそれを255に設定し、他の画素の輝度は線形
補間によって求めておく。
【0099】[1.7]インプリメンテーション 始点画像のスキャンに従って計算がリニアに進行する帰
納的な方法を用いる。始めに、1番上の左端の画素
(i,j)=(0,0)についてf(m,s)の値を決
定する。次にiを1ずつ増やしながら各f
(m,s)(i,j)の値を決定する。iの値が画像の
幅に到達したとき、jの値を1増やし、iを0に戻す。
以降、始点画像のスキャンに伴いf(m,s)(i,
j)を決定していく。すべての点について画素の対応が
決まれば、ひとつの写像f(m,s)が決まる。
【0100】あるp(i,j)について対応点q
f(i,j)が決まれば、つぎにp(i, j+1)の対
応点qf(i,j+1)が決められる。この際、q
f(i,j+1 の位置は全単射条件を満たすために、
f(i,j)の位置によって制限される。したがっ
て、先に対応点が決まる点ほどこのシステムでは優先度
が高くなる。つねに(0,0)が最も優先される状態が
つづくと、求められる最終の写像に余計な偏向が加わ
る。本前提技術ではこの状態を回避するために、f
(m,s)を以下の方法で決めていく。
【0101】まず(s mod 4)が0の場合、(0,
0)を開始点としi及びjを徐々に増やしながら決めて
いく。(s mod 4)が1の場合、最上行の右端点を
開始点とし、iを減少、jを増加させながら決めてい
く。(s mod 4)が2のとき、最下行の右端点を開
始点とし、i及びjを減少させながら決めていく。(s
mod 4)が3の場合、最下行の左端点を開始点と
し、iを増加、jを減少させながら決めていく。解像度
が最も細かい第nレベルには副写像という概念、すなわ
ちパラメータsが存在しないため、仮にs=0及びs=
2であるとしてふたつの方向を連続的に計算した。
【0102】実際のインプリメンテーションでは、全単
射条件を破る候補に対してペナルティを与えることによ
り、候補(k,l)の中からできる限り全単射条件を満
たすf(m,s)(i,j)(m=0,…,n)の値を
選んだ。第3の条件を破る候補のエネルギーD(k、
l)にはφを掛け、一方、第1または第2の条件を破る
候補にはψを掛ける。今回はφ=2、ψ=100000
を用いた。
【0103】前述の全単射条件のチェックのために、実
際の手続として(k,l)=f(m ,s)(i,j)を
決定する際に以下のテストを行った。すなわちf
(m,s)(i,j)の相続四辺形に含まれる各格子点
(k,l)に対し、次式の外積のz成分が0以上になる
かどうかを確かめる。
【0104】
【数39】 ただしここで、
【0105】
【数40】
【0106】
【数41】 である(ここでベクトルは三次元ベクトルとし、z軸は
直交右手座標系において定義される)。もしWが負であ
れば、その候補についてはD(m,s) (k,l にψ
を掛けることによってペナルティを与え、できるかぎり
選択しないようにする。
【0107】図5(a)、図5(b)はこの条件を検査
する理由を示している。図5(a)はペナルティのない
候補、図5(b)はペナルティがある候補をそれぞれ表
す。隣接画素(i,j+1)に対する写像f(m,s)
(i,j+1)を決定する際、Wのz成分が負であれば
始点画像平面上において全単射条件を満足する画素は存
在しない。なぜなら、q(m,s) (k,l)は隣接す
る四辺形の境界線を越えるためである。
【0108】[1.7.1]副写像の順序 インプリメンテーションでは、解像度レベルが偶数のと
きにはσ(0)=0、σ(1)=1、σ(2)=2、σ
(3)=3、σ(4)=0を用い、奇数のときはσ
(0)=3、σ(1)=2、σ(2)=1、σ(3)=
0、σ(4)=3を用いた。このことで、副写像を適度
にシャッフルした。なお、本来副写像は4種類であり、
sは0〜3のいずれかである。しかし、実際にはs=4
に相当する処理を行った。その理由は後述する。
【0109】[1.8]補間計算 始点画像と終点画像の間の写像が決定された後、対応し
あう画素の輝度が補間される。実験では、トライリニア
補間を用いた。始点画像平面における正方形p
(i,j)(i+1,j)(i,j+1)
(i+1,j+1)が終点画像平面上の四辺形q
f(i,j)f(i+1,j)f(i,j+1)
f(i +1,j+1)に射影されると仮定する。簡単の
ため、画像間の距離を1とする。始点画像平面からの距
離がt(0≦t≦1)である中間画像の画素r(x,
y,t)(0≦x≦N−1,0≦y≦M−1)は以下の
要領で求められる。まず画素r(x,y,t)の位置
(ただしx,y,t∈R)を次式で求める。
【0110】
【数42】 つづいてr(x,y,t)における画素の輝度が次の式
を用いて決定される。
【0111】
【数43】 ここでdx及びdyはパラメータであり、0から1まで
変化する。
【0112】[1.9]拘束条件を課したときの写像 いままでは拘束条件がいっさい存在しない場合の写像の
決定を述べた。しかし、始点画像と終点画像の特定の画
素間に予め対応関係が規定されているとき、これを拘束
条件としたうえで写像を決定することができる。
【0113】基本的な考えは、まず始点画像の特定の画
素を終点画像の特定の画素に移す大まかな写像によって
始点画像を大まかに変形し、しかる後、写像fを正確に
計算する。
【0114】まず始めに、始点画像の特定の画素を終点
画像の特定の画素に射影し、始点画像の他の画素を適当
な位置に射影する大まかな写像を決める。すなわち、特
定の画素に近い画素は、その特定の画素が射影される場
所の近くに射影されるような写像である。ここで第mレ
ベルの大まかな写像をF(m)と記述する。
【0115】大まかな写像Fは以下の要領で決める。ま
ず、いくつかの画素について写像を特定する。始点画像
についてn個の画素、
【0116】
【数44】 を特定するとき、以下の値を決める。
【0117】
【数45】 始点画像の他の画素の変位量は、p(ih,jh)(h
=0,…,n−1)の変位に重み付けをして求められ
る平均である。すなわち画素p(i,j)は、終点画像
の以下の画素に射影される。
【0118】
【数46】 ただしここで、
【0119】
【数47】
【0120】
【数48】 とする。
【0121】つづいて、F(m)に近い候補写像fがよ
り少ないエネルギーを持つように、その写像fのエネル
ギーD(m,s) (i,j)を変更する。正確には、D
(m ,s) (i,j)は、
【0122】
【数49】 である。ただし、
【0123】
【数50】 であり、κ,ρ≧0とする。最後に、前述の写像の自動
計算プロセスにより、fを完全に決定する。
【0124】ここで、f(m,s)(i,j)がF
(m)(i,j)に十分近いとき、つまりそれらの距離
が、
【0125】
【数51】 以内であるとき、E (m,s) (i,j)が0になる
ことに注意すべきである。そのように定義した理由は、
各f(m,s)(i,j)がF(m)(i,j)に十分近い限
り、終点画像において適切な位置に落ち着くよう、その
値を自動的に決めたいためである。この理由により、正
確な対応関係を詳細に特定する必要がなく、始点画像は
終点画像にマッチするように自動的にマッピングされ
る。 [2]具体的な処理手順 [1]の各要素技術による処理の流れを説明する。図6
は前提技術の全体手順を示すフローチャートである。同
図のごとく、まず多重解像度特異点フィルタを用いた処
理を行い(S1)、つづいて始点画像と終点画像のマッ
チングをとる(S2)。ただし、S2は必須ではなく、
S1で得られた画像の特徴をもとに画像認識などの処理
を行ってもよい。
【0126】図7は図6のS1の詳細を示すフローチャ
ートである。ここではS2で始点画像と終点画像のマッ
チングをとることを前提としている。そのため、まず特
異点フィルタによって始点画像の階層化を行い(S1
0)、一連の始点階層画像を得る。つづいて同様の方法
で終点画像の階層化を行い(S11)、一連の終点階層
画像を得る。ただし、S10とS11の順序は任意であ
るし、始点階層画像と終点階層画像を並行して生成して
いくこともできる。
【0127】図8は図7のS10の詳細を示すフローチ
ャートである。もとの始点画像のサイズは2×2
する。始点階層画像は解像度が細かいほうから順に作ら
れるため、処理の対象となる解像度レベルを示すパラメ
ータmをnにセットする(S100)。つづいて第mレ
ベルの画像p(m,0)、p(m,1)
(m,2 、p(m,3)から特異点フィルタを用い
て特異点を検出し(S101)、それぞれ第m−1レベ
ルの画像p(m−1,0)、p(m−1,1)、p
(m−1 ,2)、p(m−1,3)を生成する(S10
2)。ここではm=nであるため、p(m,0)=p
(m,1)=p(m,2)=p(m,3)=p(n)
あり、ひとつの始点画像から4種類の副画像が生成され
る。
【0128】図9は第mレベルの画像の一部と、第m−
1レベルの画像の一部の対応関係を示している。同図の
数値は各画素の輝度を示す。同図のp(m,s)はp
(m, 0)〜p(m,3)の4つの画像を象徴するもの
で、p(m−1,0)を生成する場合には、p
(m,s)はp(m,0)であると考える。[1.2]
で示した規則により、p(m−1,0)は例えば同図で
輝度を記入したブロックについて、そこに含まれる4画
素のうち「3」、p(m−1,1)は「8」、p
(m−1 ,2)は「6」、p(m−1,3)を「10」
をそれぞれ取得し、このブロックをそれぞれ取得したひ
とつの画素で置き換える。したがって、第m−1レベル
の副画像のサイズは2m−1×2m−1になる。
【0129】つづいてmをデクリメントし(図8のS1
03)、mが負になっていないことを確認し(S10
4)、S101に戻ってつぎに解像度の粗い副画像を生
成していく。この繰り返し処理の結果、m=0、すなわ
ち第0レベルの副画像が生成された時点でS10が終了
する。第0レベルの副画像のサイズは1×1である。
【0130】図10はS10によって生成された始点階
層画像をn=3の場合について例示している。最初の始
点画像のみが4つの系列に共通であり、以降特異点の種
類に応じてそれぞれ独立に副画像が生成されていく。な
お、図8の処理は図7のS11にも共通であり、同様の
手順を経て終点階層画像も生成される。以上で図6のS
1による処理が完了する。
【0131】前提技術では、図6のS2に進むためにマ
ッチング評価の準備をする。図11はその手順を示して
いる。同図のごとく、まず複数の評価式が設定される
(S30)。[1.3.2.1]で導入した画素に関す
るエネルギーC(m,s) と[1.3.2.2]で導
入した写像の滑らかさに関するエネルギーD(m,s)
がそれである。つぎに、これらの評価式を統合して総
合評価式を立てる(S31)。[1.3.2.3]で導
入した総エネルギーλC(m,s) +D(m, s)
がそれであり、[1.3.2.2]で導入したηを用い
れば、 ΣΣ(λC(m,s) (i,j)+ηE (m,s) (i,j)+E (m ,s) (i,j) ) (式52) となる。ただし、総和はi、jについてそれぞれ0、1
…、2−1で計算する。以上でマッチング評価の準備
が整う。
【0132】図12は図6のS2の詳細を示すフローチ
ャートである。[1]で述べたごとく、始点階層画像と
終点階層画像のマッチングは互いに同じ解像度レベルの
画像どうしでとられる。画像間の大域的なマッチングを
良好にとるために、解像度が粗いレベルから順にマッチ
ングを計算する。特異点フィルタを用いて始点階層画像
および終点階層画像を生成しているため、特異点の位置
や輝度は解像度の粗いレベルでも明確に保存されてお
り、大域的なマッチングの結果は従来に比べて非常に優
れたものになる。
【0133】図12のごとく、まず係数パラメータηを
0、レベルパラメータmを0に設定する(S20)。つ
づいて、始点階層画像中の第mレベルの4つの副画像と
終点階層画像中の第mレベルの4つの副画像のそれぞれ
の間でマッチングを計算し、それぞれ全単射条件を満た
し、かつエネルギーを最小にするような4種類の副写像
(m,s)(s=0,1,2,3)を求める(S2
1)。全単射条件は[1.3.3]で述べた相続四辺形
を用いて検査される。この際、式17、18が示すよう
に、第mレベルにおける副写像は第m−1レベルのそれ
らに拘束されるため、より解像度の粗いレベルにおける
マッチングが順次利用されていく。これは異なるレベル
間の垂直的参照である。なお、いまm=0であってそれ
より粗いレベルはないが、この例外的な処理は図13で
後述する。
【0134】一方、同一レベル内における水平的参照も
行われる。[1.3.3]の式20のごとく、f
(m,3)はf(m,2)に、f(m,2)はf
(m,1)に、f (m,1)はf(m,0)に、それぞ
れ類似するように決める。その理由は、特異点の種類が
違っても、それらがもともと同じ始点画像と終点画像に
含まれている以上、副写像がまったく異なるという状況
は不自然だからである。式20からわかるように、副写
像どうしが近いほどエネルギーは小さくなり、マッチン
グが良好とみなされる。
【0135】なお、最初に決めるべきf(m,0)につ
いては同一のレベルで参照できる副写像がないため、式
19に示すごとくひとつ粗いレベルを参照する。ただ
し、実験ではf(m,3)まで求まった後、これを拘束
条件としてf(m,0)を一回更新するという手続をと
った。これは式20にs=4を代入し、f(m,4)
新たなf(m,0)とすることに等しい。f(m,0)
とf(m,3)の関連度が低くなり過ぎる傾向を回避す
るためであり、この措置によって実験結果がより良好に
なった。この措置に加え、実験では[1.7.1]に示
す副写像のシャッフルも行った。これも本来特異点の種
類ごとに決まる副写像どうしの関連度を密接に保つ趣旨
である。また、処理の開始点に依存する偏向を回避する
ために、sの値にしたがって開始点の位置を変える点は
[1.7]で述べたとおりである。
【0136】図13は第0レベルにおいて副写像を決定
する様子を示す図である。第0レベルでは各副画像がた
だひとつの画素で構成されるため、4つの副写像
f(0,s はすべて自動的に単位写像に決まる。図1
4は第1レベルにおいて副写像を決定する様子を示す図
である。第1レベルでは副画像がそれぞれ4画素で構成
される。同図ではこれら4画素が実線で示されている。
いま、p(1,s)の点xの対応点をq(1,s)の中
で探すとき、以下の手順を踏む。
【0137】1.第1レベルの解像度で点xの左上点
a、右上点b、左下点c、右下点dを求める。 2.点a〜dがひとつ粗いレベル、つまり第0レベルに
おいて属する画素を探す。図14の場合、点a〜dはそ
れぞれ画素A〜Dに属する。ただし、画素A〜Cは本来
存在しない仮想的な画素である。 3.第0レベルですでに求まっている画素A〜Dの対応
点A’〜D’をq(1 ,s)の中にプロットする。画素
A’〜C’は仮想的な画素であり、それぞれ画素A〜C
と同じ位置にあるものとする。 4.画素Aの中の点aの対応点a’が画素A’の中にあ
るとみなし、点a’をプロットする。このとき、点aが
画素Aの中で占める位置(この場合、右下)と、点a’
が画素A’の中で占める位置が同じであると仮定する。 5.4と同様の方法で対応点b’〜d’をプロットし、
点a’〜d’で相続四辺形を作る。 6.相続四辺形の中でエネルギーが最小になるよう、点
xの対応点x’を探す。対応点x’の候補として、例え
ば画素の中心が相続四辺形に含まれるものに限定しても
よい。図14の場合、4つの画素がすべて候補になる。
【0138】以上がある点xの対応点の決定手順であ
る。同様の処理を他のすべての点について行い、副写像
を決める。第2レベル以上のレベルでは、次第に相続四
辺形の形が崩れていくと考えられるため、図3に示すよ
うに画素A’〜D’の間隔が空いていく状況が発生す
る。
【0139】こうして、ある第mレベルの4つの副写像
が決まれば、mをインクリメントし(図12のS2
2)、mがnを超えていないことを確かめて(S2
3)、S21に戻る。以下、S21に戻るたびに次第に
細かい解像度のレベルの副写像を求め、最後にS21に
戻ったときに第nレベルの写像f(n)を決める。この
写像はη=0に関して定まったものであるから、f
(n)(η=0)と書く。
【0140】つぎに異なるηに関する写像も求めるべ
く、ηをΔηだけシフトし、mをゼロクリアする(S2
4)。新たなηが所定の探索打切り値ηmaxを超えて
いないことを確認し(S25)、S21に戻り、今回の
ηに関して写像f(n)(η=Δη)を求める。この処
理を繰り返し、S21でf(n)(η=iΔη)(i=
0,1,…)を求めていく。ηがηmaxを超えたとき
S26に進み、後述の方法で最適なη=ηoptを決定
し、f(n)(η=ηopt)を最終的に写像f (n)
とする。
【0141】図15は図12のS21の詳細を示すフロ
ーチャートである。このフローチャートにより、ある定
まったηについて、第mレベルにおける副写像が決ま
る。副写像を決める際、前提技術では副写像ごとに最適
なλを独立して決める。
【0142】同図のごとく、まずsとλをゼロクリアす
る(S210)。つぎに、そのときのλについて(およ
び暗にηについて)エネルギーを最小にする副写像f
(m, s)を求め(S211)、これをf
(m,s)(λ=0)と書く。異なるλに関する写像も
求めるべく、λをΔλだけシフトし、新たなλが所定の
探索打切り値λmaxを超えていないことを確認し(S
213)、S211に戻り、以降の繰り返し処理でf
(m,s)(λ=iΔλ)(i=0,1,…)を求め
る。λがλ maxを超えたときS214に進み、最適な
λ=λoptを決定し、f(m,s (λ=λopt
を最終的に写像f(m,s)とする(S214)。
【0143】つぎに、同一レベルにおける他の副写像を
求めるべく、λをゼロクリアし、sをインクリメントす
る(S215)。sが4を超えていないことを確認し
(S216)、S211に戻る。s=4になれば上述の
ごとくf(m,3)を利用してf(m,0)を更新し、
そのレベルにおける副写像の決定を終了する。
【0144】図16は、あるmとsについてλを変えな
がら求められたf(m,s)(λ=iΔλ)(i=0,
1,…)に対応するエネルギーC(m,s) の挙動を
示す図である。[1.4]で述べたとおり、λが増加す
ると通常C(m,s) は減少する。しかし、λが最適
値を超えるとC(m,s) は増加に転じる。そこで本
前提技術ではC(m,s) が極小値をとるときのλを
λoptと決める。同図のようにλ>λoptの範囲で
再度C(m,s) が小さくなっていっても、その時点
ではすでに写像がくずれていて意味をなさないため、最
初の極小点に注目すればよい。λoptは副写像ごとに
独立して決めていき、最後にf(n)についてもひとつ
定まる。
【0145】一方、図17は、ηを変えながら求められ
たf(n)(η=iΔη)(i=0,1,…)に対応す
るエネルギーC(n) の挙動を示す図である。ここで
もηが増加すると通常C(n) は減少するが、ηが最
適値を超えるとC(n) は増加に転じる。そこでC
(n) が極小値をとるときのηをηoptと決める。
図17は図4の横軸のゼロ付近を拡大した図と考えてよ
い。ηoptが決まればf(n)を最終決定することが
できる。
【0146】以上、本前提技術によれば種々のメリット
が得られる。まずエッジを検出する必要がないため、エ
ッジ検出タイプの従来技術の課題を解消できる。また、
画像に含まれるオブジェクトに対する先験的な知識も不
要であり、対応点の自動検出が実現する。特異点フィル
タによれば、解像度の粗いレベルでも特異点の輝度や位
置を維持することができ、オブジェクト認識、特徴抽
出、画像マッチングに極めて有利である。その結果、人
手作業を大幅に軽減する画像処理システムの構築が可能
となる。
【0147】なお、本前提技術について次のような変形
技術も考えられる。 (1)前提技術では始点階層画像と終点階層画像の間で
マッチングをとる際にパラメータの自動決定を行った
が、この方法は階層画像間ではなく、通常の2枚の画像
間のマッチングをとる場合全般に利用できる。
【0148】たとえば2枚の画像間で、画素の輝度の差
に関するエネルギーEと画素の位置的なずれに関する
エネルギーEのふたつを評価式とし、これらの線形和
ot=αE+Eを総合評価式とする。この総合
評価式の極値付近に注目してαを自動決定する。つま
り、いろいろなαについてEtotが最小になるような
写像を求める。それらの写像のうち、αに関してE
極小値をとるときのαを最適パラメータと決める。その
パラメータに対応する写像を最終的に両画像間の最適マ
ッチングとみなす。
【0149】これ以外にも評価式の設定にはいろいろな
方法があり、例えば1/Eと1/Eのように、評価
結果が良好なほど大きな値をとるものを採用してもよ
い。総合評価式も必ずしも線形和である必要はなく、n
乗和(n=2、1/2、−1、−2など)、多項式、任
意の関数などを適宜選択すればよい。
【0150】パラメータも、αのみ、前提技術のごとく
ηとλのふたつの場合、それ以上の場合など、いずれで
もよい。パラメータが3以上の場合はひとつずつ変化さ
せて決めていく。 (2)本前提技術では、総合評価式の値が最小になるよ
う写像を決めた後、総合評価式を構成するひとつの評価
式であるC(m,s) が極小になる点を検出してパラ
メータを決定した。しかし、こうした二段回処理の代わ
りに、状況によっては単に総合評価式の最小値が最小に
なるようにパラメータを決めても効果的である。その場
合、例えばαE+βEを総合評価式とし、α+β=
1なる拘束条件を設けて各評価式を平等に扱うなどの措
置を講じてもよい。パラメータの自動決定の本質は、エ
ネルギーが最小になるようにパラメータを決めていく点
にあるからである。 (3)前提技術では各解像度レベルで4種類の特異点に
関する4種類の副画像を生成した。しかし、当然4種類
のうち1、2、3種類を選択的に用いてもよい。例え
ば、画像中に明るい点がひとつだけ存在する状態であれ
ば、極大点に関するf(m,3)だけで階層画像を生成
しても相応の効果が得られるはずである。その場合、同
一レベルで異なる副写像は不要になるため、sに関する
計算量が減る効果がある。 (4)本前提技術では特異点フィルタによってレベルが
ひとつ進むと画素が1/4になった。例えば3×3で1
ブロックとし、その中で特異点を探す構成も可能であ
り、その場合、レベルがひとつ進むと画素は1/9にな
る。 (5)始点画像と終点画像がカラーの場合、それらをま
ず白黒画像に変換し、写像を計算する。その結果求めら
れた写像を用いて始点のカラー画像を変換する。それ以
外の方法として、RGBの各成分について副写像を計算
してもよい。
【0151】[画像符号化および復号に関する実施の形
態]前提技術ではキーフレーム間のマッチングをとって
対応情報を生成し、この対応情報をもとに中間フレーム
を生成した。したがって、この技術は動画の圧縮に利用
でき、現実に実験ではMPEGを超える画質と圧縮率の
両立が確認されはじめている。以下、前提技術を利用し
た画像符号化および復号技術を説明する。この技術は動
画に付随して音声の再生を実現する。 (符号化側)図18は実施の形態の係る画像符号化装置
10の構成を示す。画像符号化装置10は、動画のキー
フレーム(図中KF)のデータを入力する画像入力部
12、キーフレームどうしの間でマッチング計算を行
い、対応情報ファイル(図中C i,j)を生成するマッ
チングプロセッサ14、動画に付随する音声データを取
得する音声入力部20、キーフレームと対応情報ファイ
ルと音声データを組み込んで符号化データストリーム
(図中CBS:Coded Bit Stream、以下単にデータスト
リームという)を生成するストリーム生成部16とを含
む。ただし、この実施の形態では、対応情報ファイルに
音声データも格納される。データストリームは必要に応
じて保存部18へ格納される。
【0152】キーフレームは例えば動画のフレームを
0.5秒おきに抽出することで定められ、キーフレーム
間のフレーム、すなわち中間フレームは復号側にて対応
情報ファイルをもとに補間計算で生成される。なお、画
像入力部12は既存のキーフレームを入力してもよい
し、それ自体がデジタルカメラ等の画像撮影装置であっ
てもよい。音声入力部20も同様で、既存の音声データ
を入力してもよいし、それ自体がマイクロフォンであっ
てもよい。すなわち、この画像符号化装置10は、PC
その他のコンピュータ本体で実現されてもよいし、デジ
タルVTRのような画像・音声記録装置であってもよい
し、それら以外の任意の目的に向けた装置であってよ
い。
【0153】マッチングプロセッサ14は前提技術に基
づき、または別の任意の技術に基づき、特異点その他を
もとに画素単位でふたつのキーフレーム間のマッチング
をとる。ただし、マッチングプロセッサ14をなくし、
対応情報自体を別の個所から取得してストリーム生成部
16へ投入する構成であってもよい。
【0154】図19は、ストリーム生成部16によって
生成されたデータストリームCBSの構成を示す。この
ストリームは具体的に、KF,KF,C0,1,K
,C1,2,KF,C2,3,・・・となる。
【0155】図20は対応情報ファイルのフォーマット
を示す。対応情報ファイルCi,jには場合はキーフレ
ーム間の対応情報が画素ごとに記述されている。その後
に、KFとKFを再生または表示すべき時刻データ
が付加されている。キーフレームが固定間隔で選定され
る場合、この時刻データは不要であるが、この間隔が変
化しうる場合必要である。この時刻データは、開始フレ
ームであるKFやひとつ前のキーフレームからの経過
時間などの表示でもよい。なお、時刻データはデータス
トリームCBSの先頭に集めるなど、キーフレームのデ
ータとかなり離れた位置にあってもよい。
【0156】さらにこれらのデータの後に、音声データ
が記録されている。音声データは、キーフレームK
、KF間の時間的な間隔にしたがって盛り込まれ
ており、いま間隔がちょうど1秒であれば、音声データ
もちょうど1秒分記録される。以下、間隔を1秒とす
る。
【0157】音声データの先頭のタイミングとキーフレ
ームKFのタイミングの間に同期関係があり、再生時
に動画と音声のタイミングが同期するよう配慮されてい
る。実施の形態では中間フレームは当初存在しないた
め、音声データと動画の同期をとるためのデータはキー
フレームのみに関連づけられる。ここでは簡単に、中間
フレームを生成すべき2枚のキーフレームの組ごとに、
その先頭側のキーフレームの表示タイミングと音声デー
タの先頭部の出力タイミングが一致するよう音声データ
を対応情報ファイルに組み込む。
【0158】いま音声データのサンプリング周波数がC
D(Compact Disk)同等の44.1kHzであり16ビ
ットデータであるとすれば、1秒分の音声データとし
て、対応情報ファイルには44100個×16ビット、
すなわち90kB弱の音声データが盛り込まれる。音声
データには任意の圧縮が施されてもよく、例えば音声デ
ータが音楽であり、MP3による圧縮を加えれば、1/
10程度、すなわち10kB程度のデータとなる。音声
データの圧縮は図中のいずれの個所、または図示しない
任意の個所で実施でき、一例としてストリーム生成部1
6で実施してもよい。 (復号側)図21は実施の形態に係る画像復号装置40
の構成図である。画像復号装置40は、符号化されたデ
ータストリームCBSを入力するストリーム入力部42
と、そのストリームに含まれるキーフレームと対応情報
ファイルを分別するストリーム分別部100と、分別で
得られたキーフレームと対応情報ファイル中の対応点情
報から前提技術に基づく補間によって中間フレームを生
成する中間画像生成部44と、同様に分別で得られた対
応情報ファイル中の音声データをもとに音声を復号する
音声復号部102と、キーフレームおよび中間フレーム
を動画として表示するための処理を行う画像表示部50
を含む。画像表示部50で生成された表示データは表示
装置へ出力され、画像が再生される。画像表示部50と
音声復号部102は出力が同期するよう制御タイミング
を相互参照している。音声復号部102の先には図示し
ないスピーカがある。
【0159】図22は、中間画像生成部44による中間
フレームの生成の原理を示す。この処理自体は前提技術
でも示されている。すなわち、ふたつのキーフレームK
、KFとその対応情報主ファイルC5,6がある
とき、まずこのファイルにより、キーフレームKF
の点p(x,y)が他方のキーフレームKF
の点p(x,y)に対応することが判明する。点
は座標(x,y)と画素値pで特定される。した
がって、これらのキーフレームの中間フレームIF
5,6(t)の点p(x,y)は座標および画素
値を時間軸上で補間することで得られる。
【0160】この実施の形態では、中間画像生成部44
はユーザから中間フレームの枚数に関する指示を入力
し、これに従っている。ただし、ユーザは枚数を直接指
定するのではなく、「より速い再生」「より遅い再生」
などの指定ができるものとする。前者が指定されると中
間フレームの枚数が減り、後者だと増える。中間フレー
ムは例えば時間的に等間隔で表示されることにより、ス
ローモーションやスーパースローモーション画像が実現
する。中間フレームの多寡が変化すると、音声の出力と
の同期がずれる。そこで中間画像生成部44は、中間フ
レームの枚数からキーフレーム間の時間間隔を算出し、
この結果を音声復号部102へ伝える。音声再生部10
2は、その通知内容に従い、音声データの出力周波数を
44.1kHzから変動させる。たとえば中間フレーム
の枚数とキーフレームの合計数がデフォルト値から2倍
になれば出力周波数を22.05kHzにするなどであ
る。
【0161】以上、実施の形態をもとに本発明を説明し
た。なお本発明はこの実施の形態に限定されることな
く、そのさまざまな変形例もまた、本発明の態様として
有効である。
【図面の簡単な説明】
【図1】 図1(a)とは図1(b)は、ふたりの人物
の顔に平均化フィルタを施して得られる画像、図1
(c)と図1(d)は、ふたりの人物の顔に関して前提
技術で求められるp(5,0)の画像、図1(e)と図
1(f)は、ふたりの人物の顔に関して前提技術で求め
られるp(5,1)の画像、図1(g)と図1(h)
は、ふたりの人物の顔に関して前提技術で求められるp
(5,2)の画像、図1(i)と図1(j)は、ふたり
の人物の顔に関して前提技術で求められるp(5,3)
の画像をそれぞれディスプレイ上に表示した中間調画像
の写真である。
【図2】 図2(R)はもとの四辺形を示す図、図2
(A)、図2(B)、図2(C)、図2(D)、図2
(E)はそれぞれ相続四辺形を示す図である。
【図3】 始点画像と終点画像の関係、および第mレベ
ルと第m−1レベルの関係を相続四辺形を用いて示す図
である。
【図4】 パラメータηとエネルギーCの関係を示す
図である。
【図5】 図5(a)、図5(b)は、ある点に関する
写像が全単射条件を満たすか否かを外積計算から求める
様子を示す図である。
【図6】 前提技術の全体手順を示すフローチャートで
ある。
【図7】 図6のS1の詳細を示すフローチャートであ
る。
【図8】 図7のS10の詳細を示すフローチャートで
ある。
【図9】 第mレベルの画像の一部と、第m−1レベル
の画像の一部の対応関係を示す図である。
【図10】 前提技術で生成された始点階層画像を示す
図である。
【図11】 図6のS2に進む前に、マッチング評価の
準備の手順を示す図である。
【図12】 図6のS2の詳細を示すフローチャートで
ある。
【図13】 第0レベルにおいて副写像を決定する様子
を示す図である。
【図14】 第1レベルにおいて副写像を決定する様子
を示す図である。
【図15】 図12のS21の詳細を示すフローチャー
トである。
【図16】 あるf(m,s)についてλを変えながら
求められたf(m, s)(λ=iΔλ)に対応するエネ
ルギーC(m,s) の挙動を示す図である。
【図17】 ηを変えながら求められたf(n)(η=
iΔη)(i=0,1,…)に対応するエネルギーC
(n) の挙動を示す図である。
【図18】 実施の形態に係る画像符号化装置の構成図
である。
【図19】 ストリーム生成部によって生成されるデー
タストリームの構成を示す図である。
【図20】 マッチングプロセッサによって生成される
対応情報ファイルの構成を示す図である。
【図21】 実施の形態に係る画像復号装置の構成図で
ある。
【図22】 画像復号装置の中間画像生成部による中間
フレームの生成原理を示す図である。
【符号の説明】
10 画像符号化装置、 12 画像入力部、 14
マッチングプロセッサ、 16 ストリーム生成部、
20 音声入力部、 40 画像復号装置、42 スト
リーム入力部、 44 中間画像生成部、 100 ス
トリーム分別部、 102 音声復号部。
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 BA01 CE06 CG01 CH09 CH20 DC07 5C053 GB11 GB21 GB37 5C059 KK03 LB11 MA32 MA33 MB06 RE03 SS11 SS15 UA02 5J064 AA01 BB01 BB04 BB09 BC11 BD01 5L096 FA09 FA69 HA01 HA08 JA03

Claims (23)

    【特許請求の範囲】
  1. 【請求項1】 動画に含まれるキーフレームおよびキー
    フレーム間の対応点情報を取得し、この動画の再生時に
    同期して再生されるべき音声データを取得し、この音声
    データ、前記対応点情報および前記キーフレームを含む
    形式にて符号化データストリームを生成することを特徴
    とする画像符号化方法。
  2. 【請求項2】 前記対応点情報は、前記キーフレームの
    特異点を基礎として検出されたものである請求項1に記
    載の方法。
  3. 【請求項3】 前記対応点情報は、前記キーフレーム間
    で画素を単位として記述されている請求項1に記載の方
    法。
  4. 【請求項4】 前記対応点情報を前記キーフレーム間に
    おけるマッチングをもとに生成する処理をさらに含む請
    求項1に記載の方法。
  5. 【請求項5】 動画に含まれるキーフレームおよびキー
    フレーム間の対応点情報を取得する第1機能ブロック
    と、 前記動画の再生時に同期して再生されるべき音声データ
    を取得する第2機能ブロックと、 前記音声データ、前記対応点情報および前記キーフレー
    ムを含む形式にて符号化データストリームを生成する第
    3機能ブロックと、 を含むことを特徴とする画像符号化装置。
  6. 【請求項6】 前記対応点情報は、前記キーフレームの
    特異点を基礎として検出されたものである請求項5に記
    載の装置。
  7. 【請求項7】 前記対応点情報は、前記キーフレーム間
    で画素を単位として記述されている請求項5に記載の装
    置。
  8. 【請求項8】 前記第1機能ブロックは、前記キーフレ
    ームを入力する画像入力部と、前記対応点情報を生成す
    るプロセッサとを含む請求項5に記載の装置。
  9. 【請求項9】 前記プロセッサは、前記キーフレーム間
    において特異点に注目したマッチングをもとに前記対応
    点情報を生成する請求項5に記載の装置。
  10. 【請求項10】 前記第3機能ブロックは、前記対応点
    情報と前記音声データを一体化して対応情報ファイルへ
    格納する請求項5に記載の装置。
  11. 【請求項11】 前記プロセッサは、各キーフレームを
    特異点を抽出することによって多重解像度し、解像度の
    荒いレベルから順に特異点どうしの対応関係を特定して
    対応点情報を生成する請求項5に記載の装置。
  12. 【請求項12】 前記プロセッサは、多重解像度特異点
    フィルタを作用させることによりキーフレーム間のマッ
    チングを計算して対応点情報を生成する請求項5に記載
    の装置。
  13. 【請求項13】 符号化データストリームを取得し、そ
    のストリームに含まれるキーフレームのデータ、キーフ
    レーム間の対応点情報、および音声データを検出し、検
    出されたキーフレームのデータと対応点情報をもとに動
    画を再生するとともに前記音声データをその動画と同期
    して出力することを特徴とする画像復号方法。
  14. 【請求項14】 前記動画の再生は、前記キーフレーム
    およびそれらの補間によって生成された中間フレームを
    利用してなされ、前記音声データの出力タイミングは生
    成された中間フレームの枚数にしたがって制御される請
    求項13に記載の方法。
  15. 【請求項15】 前記対応点情報は、前記キーフレーム
    の特異点を基礎として検出されたものである請求項13
    に記載の方法。
  16. 【請求項16】 前記対応点情報は、前記キーフレーム
    間で画素を単位として記述されている請求項13に記載
    の方法。
  17. 【請求項17】 動画の符号化データストリームを取得
    する第1機能ブロックと、 その符号化データストリームからキーフレーム、キーフ
    レーム間の対応点情報、および音声データを検出する第
    2機能ブロックと、 前記キーフレームと前記対応点情報をもとに補間により
    中間フレームを生成する第3機能ブロックと、 前記キーフレームおよび前記中間フレームを動画として
    出力する第4機能ブロックと、 その動画の出力と同期して前記音声データを出力する第
    5機能ブロックと、 を含むことを特徴とする画像復号装置。
  18. 【請求項18】 前記対応点情報は、前記キーフレーム
    の特異点を基礎として検出されたものである請求項17
    に記載の装置。
  19. 【請求項19】 前記対応点情報は、前記キーフレーム
    間で画素を単位として記述されている請求項17に記載
    の装置。
  20. 【請求項20】 前記第3機能ブロックは、生成すべき
    中間フレームの枚数に関する外部からの指定にしたがう
    請求項17に記載の装置。
  21. 【請求項21】 前記対応点情報と前記音声データは対
    応情報ファイルに一体化された状態で格納されており、
    前記第2機能ブロックはその対応情報ファイルから対応
    点情報と音声データを検出する請求項17に記載の装
    置。
  22. 【請求項22】 動画に含まれるキーフレームおよびキ
    ーフレーム間の対応点情報を取得し、この動画の再生時
    に同期して再生されるべき音声データを取得し、この音
    声データ、前記対応点情報および前記キーフレームを含
    む形式にて符号化データストリームを生成する処理をコ
    ンピュータに実行せしめることを特徴とするコンピュー
    タプログラム。
  23. 【請求項23】 符号化データストリームを取得し、そ
    のストリームに含まれるキーフレームのデータ、キーフ
    レーム間の対応点情報、および音声データを検出し、検
    出されたキーフレームのデータと対応点情報をもとに動
    画を再生するとともに前記音声データをその動画と同期
    して出力する処理をコンピュータに実行せしめることを
    特徴とするコンピュータプログラム。
JP2001163952A 2001-05-31 2001-05-31 画像符号化方法と装置および画像復号方法と装置 Pending JP2002359842A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001163952A JP2002359842A (ja) 2001-05-31 2001-05-31 画像符号化方法と装置および画像復号方法と装置
EP20020011909 EP1262918A3 (en) 2001-05-31 2002-05-29 Method and apparatus for coding and decoding image data synchronizing sound data
US10/156,015 US6959040B2 (en) 2001-05-31 2002-05-29 Method and apparatus for coding and decoding image data with synchronized sound data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001163952A JP2002359842A (ja) 2001-05-31 2001-05-31 画像符号化方法と装置および画像復号方法と装置

Publications (1)

Publication Number Publication Date
JP2002359842A true JP2002359842A (ja) 2002-12-13

Family

ID=19006829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001163952A Pending JP2002359842A (ja) 2001-05-31 2001-05-31 画像符号化方法と装置および画像復号方法と装置

Country Status (3)

Country Link
US (1) US6959040B2 (ja)
EP (1) EP1262918A3 (ja)
JP (1) JP2002359842A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230575A (ja) * 2000-11-30 2002-08-16 Monolith Co Ltd 映像効果方法および装置
US8135230B2 (en) * 2007-07-30 2012-03-13 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
US9430628B2 (en) 2014-08-13 2016-08-30 Qualcomm Incorporated Access authorization based on synthetic biometric data and non-biometric data
US9674184B2 (en) 2014-08-13 2017-06-06 Qualcomm Incorporated Systems and methods to generate authorization data based on biometric data and non-biometric data

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2267624B (en) * 1992-05-05 1995-09-20 Acorn Computers Ltd Image data compression
US6009200A (en) * 1992-12-17 1999-12-28 Sony Corporation Dynamic image processing apparatus and method
DE69418942T2 (de) * 1993-08-13 1999-12-09 Nec Corp Gerät zur Komprimierung und Wiedergabe von Video/Audio-Daten
US5708767A (en) * 1995-02-03 1998-01-13 The Trustees Of Princeton University Method and apparatus for video browsing based on content and structure
US6037988A (en) * 1996-03-22 2000-03-14 Microsoft Corp Method for generating sprites for object-based coding sytems using masks and rounding average
US5778098A (en) * 1996-03-22 1998-07-07 Microsoft Corporation Sprite coding
DE69740053D1 (de) * 1996-08-07 2010-12-30 Panasonic Corp Vorrichtung zur decodierung und codierung von bild und ton, und informationsübertragungssystem
JP2927350B2 (ja) * 1997-03-27 1999-07-28 株式会社モノリス 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法
JP4536261B2 (ja) * 1999-01-29 2010-09-01 三菱電機株式会社 画像特徴符号化方法及び画像検索方法
US7099511B2 (en) * 2000-03-14 2006-08-29 Monolith Co., Ltd. Method and apparatus for coding and decoding image data using critical points
US6563874B1 (en) * 2000-06-23 2003-05-13 Hitachi America, Ltd. Fast search method for motion estimation
US6697523B1 (en) * 2000-08-09 2004-02-24 Mitsubishi Electric Research Laboratories, Inc. Method for summarizing a video using motion and color descriptors
JP3859989B2 (ja) * 2000-10-30 2006-12-20 株式会社モノリス 画像マッチング方法およびその方法を利用可能な画像処理方法と装置

Also Published As

Publication number Publication date
EP1262918A2 (en) 2002-12-04
US6959040B2 (en) 2005-10-25
US20030043910A1 (en) 2003-03-06
EP1262918A3 (en) 2008-12-31

Similar Documents

Publication Publication Date Title
JP3889233B2 (ja) 画像符号化方法と装置および画像復号方法と装置
JP2002271788A (ja) 画像符号化方法と装置および画像復号方法および装置
JP2008252860A (ja) 画像処理方法及び画像処理装置
JP3877651B2 (ja) 画像処理方法と装置
JP2002232908A (ja) 画像補間方法および装置
JP2003018602A (ja) 画像データ符号化および復号のための方法および装置
JP4050472B2 (ja) 画像生成方法、装置およびシステム
JP4157686B2 (ja) 画像符号化および復号のための方法および装置
JP4039858B2 (ja) 画像マッチング方法と装置、および画像符号化方法と装置
JP2003037842A (ja) 画像符号化方法、復号方法および画像符号化装置、復号装置
JP2002230543A (ja) 画像補間方法および装置
JP2002359842A (ja) 画像符号化方法と装置および画像復号方法と装置
JP2002232838A (ja) デジタルカメラ
JP2007122751A (ja) 画像処理のための方法、装置、プログラム
JP2002190020A (ja) 映像効果方法および装置
JP2002230575A (ja) 映像効果方法および装置
JP3827981B2 (ja) 画像符号化方法と装置および画像復号方法と装置
JP2004048116A (ja) 画像データ符号化および復号のための方法および装置
JP4524412B2 (ja) 画像符号化方法、復号方法および画像符号化装置、復号装置
JP3839353B2 (ja) 画像符号化方法と装置および画像復号方法および装置
JP2002230572A (ja) 映像効果方法と装置および画像補間方法と装置
JP3828048B2 (ja) 画像符号化方法と装置および画像復号方法および装置
JP2004048595A (ja) 画像符号化方法および装置
US20030068042A1 (en) Image processing method and apparatus
JP2003274399A (ja) 画像符号化方法と装置、画像復号方法と装置