JP6965914B2 - 映像生成装置、その方法、プログラム - Google Patents

映像生成装置、その方法、プログラム Download PDF

Info

Publication number
JP6965914B2
JP6965914B2 JP2019195980A JP2019195980A JP6965914B2 JP 6965914 B2 JP6965914 B2 JP 6965914B2 JP 2019195980 A JP2019195980 A JP 2019195980A JP 2019195980 A JP2019195980 A JP 2019195980A JP 6965914 B2 JP6965914 B2 JP 6965914B2
Authority
JP
Japan
Prior art keywords
image
component
motion
static
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019195980A
Other languages
English (en)
Other versions
JP2020030843A (ja
Inventor
隆寛 河邉
眞也 西田
和史 丸谷
正貴 澤山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JP2020030843A publication Critical patent/JP2020030843A/ja
Priority to JP2021167862A priority Critical patent/JP7283513B2/ja
Application granted granted Critical
Publication of JP6965914B2 publication Critical patent/JP6965914B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B25/00Viewers, other than projection viewers, giving motion-picture effects by persistence of vision, e.g. zoetrope
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J13/00Panoramas, dioramas, stereoramas, or the like
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J21/00Conjuring appliances; Auxiliary apparatus for conjurers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J5/00Auxiliaries for producing special effects on stages, or in circuses or arenas
    • A63J5/02Arrangements for making stage effects; Auxiliary stage appliances
    • A63J5/021Mixing live action with images projected on translucent screens
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/32Details specially adapted for motion-picture projection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/18Advertising or display means not otherwise provided for using special optical effects involving the use of optical projection means, e.g. projection of images on clouds
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Studio Circuits (AREA)

Description

本発明は、視覚的な錯覚をもたらす技術に関する。
例えば非特許文献1には、対象物(単一無彩色)の3次元形状をカメラで計測し、対象物の3次元形状に合わせて動きを表現した映像を投影することで、対象物に錯覚的な動きの効果を与える技術が開示されている。非特許文献1では、平板な単一無彩色の平面と、当該平面に置かれた単一無彩色の自動車模型を対象物として、この対象物をキャンバスとし、自動車のボディの色や反射特性、自動車の周囲の道路、自動車が走っている空間の昼光の条件などをシミュレーションした配色を映像として対象物に投影し、対象物である自動車模型があたかも道路を走行しているように錯覚させ、対象物に動きの効果を付与している。
Raskar, R.; Ziegler, R.; Willwacher, T., "Cartoon Dioramas in Motion", International Symposium on Non-Photorealistic Animation and Rendering (NPAR), June 2002.
非特許文献1は、対象物を単なるキャンバスとみなし、対象物が有するパターンを利用することなく対象物に動きの効果を与えるものであった。本発明の課題は、対象物が有するパターンを利用して対象物に動きが与えられているように知覚させることである。
映像生成装置は、入力された映像から静止画像を得、入力された映像中のフレームについて、フレームの輝度成分から、静止画像から得られる単一の輝度静止成分を減じて輝度運動成分を得、映像中のフレームについて得た輝度運動成分のみを含む第2映像を生成する。
これにより、対象物が有するパターンを利用して対象物に動きが与えられているように知覚させることができる。
第1実施形態の映像表示装置の構成を示すブロック図。 第1実施形態の映像表示装置の動作を示すフローチャート。 第1実施形態の実施例の映像投影装置の構成を示すブロック図。 第1実施形態の実施例の映像投影装置の動作を示すフローチャート。 第1実施形態の実施例の映像投影装置の投影部をプロジェクタで実現した場合の投影画角と対象物の関係について説明する図。 第2実施形態の映像表示装置の構成を示すブロック図。 第2実施形態の映像表示装置の動作を示すフローチャート。 第3実施形態の映像表示装置の構成を示すブロック図。 第3実施形態の映像表示装置の映像生成部の動作を示すフローチャート。 静止成分と運動成分を例示する図。 第4実施形態の映像表示装置の構成を示すブロック図。 第4実施形態の映像表示装置の動作を示すフローチャート。 図13Aおよび図13Bは処理の概要を例示するための概念図である。 図14Aおよび図14Bは処理の概要を例示するための概念図である。 図15は実施形態の機能構成を例示するブロック図である。 図16は実施形態の処理を例示するフロー図である。 図17は実施形態の処理を例示するフロー図である。 図18Aおよび図18Bは画像に輝度運動成分を加味する方法を例示するための図である。 図19は実施形態の機能構成を例示するブロック図である。
本発明の実施の形態を説明する。以下に説明する実施形態では、従来技術とは異なり、対象物のパターンを利用しつつ、そのパターンの見え方を錯覚的に変形させる。各実施形態では、対象物を単なるキャンバスと見なすのではなく、対象物が有するパターンを積極的に利用して動きの錯覚を生じさせる。よって対象物は単一無彩色ではなく、有彩色もしくはグレースケールとするのが好適である。各実施形態では、従来技術とは異なり、対象物の3次元性を考慮しなくともよい。例えば、静止対象物を撮影した画像の見え方を錯覚的に変形させることも可能である。従来技術では対象物の移動や変形という側面に光を当ててきたが、各実施形態では、対象物が有するパターンと対象物に重ねて表示する映像の画像情報の双方を利用することで、対象物に元々存在しなかった質感や印象(液体感や顔表情)を、対象物に持たせており、この点で従来技術と異なる。また、単に撮影した画像を画面上で変形させるという技術とは異なり、各実施形態では、対象物の質感印象変化を映像の重ね合わせによって視聴者に与えることができる。これにより、従来技術とは異なる知覚体験を視聴者に与えることができる。以下、各実施形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
[第1実施形態]
以下、図1、図2を参照して、本発明の基本的な構成例である第1実施形態の映像表示装置について説明する。図1は、本実施形態の映像表示装置1の構成を示すブロック図である。図2は、本実施形態の映像表示装置1の動作を示すフローチャートである。図1に示すように、映像表示装置1は、表示部11を含む。表示部11は、対象物に透過性のある映像を重ねて表示する。ここで、「対象物」とは、立体的形状を備える物(例えば、花瓶、ボール、模型)であってもよいし、所定の平面(例えば、紙、ボード、壁、スクリーン)であってもよい。対象物が平面である場合には、その平面にパターンが含まれることが望ましい。平面に含まれるパターンの例として、例えば、紙に印刷した写真、画像、所定の平面に投影した写真、画像が考えられる。対象物をディスプレイなどの画面とした場合には、パターンの例として、ディスプレイなどの画面に表示した画像などが挙げられる。
対象物に透過性のある映像を「重ねて表示する」方法として、典型的には、対象物にプロジェクタなどで映像を投影する方法がある。この場合、プロジェクタなどで投影された映像は、当然に透過性を有する。また、例えば対象物の前方に透明な液晶画面を設置し、当該液晶画面に透過性のある映像を流すことにより、液晶画面を挟んで、対象物と対向する観察者からみて、対象物に透過性のある映像を「重ねて表示する」ことも可能である。ここで、「映像」とは、例えば、低空間周波数成分を有する歪み分布の画像が時間的に切り替わる映像である。本実施形態では映像は予め用意されており、映像表示装置1の外部から入力されるものとする。表示部11は、当該映像に含まれるエッジが対象物の輪郭、または対象物に含まれるエッジと重なるように映像を表示する。例えば、対象物が花瓶である場合、表示部11は、映像に含まれるエッジが、対象物である花瓶の輪郭や、花瓶に描かれた模様などの花瓶に含まれるエッジと重なるように映像を表示する。例えば、対象物が平面であって、当該平面にパターンとして画像が投影されている場合、表示部11は、映像に含まれるエッジが、対象物に投影された画像の模様など、対象物に含まれるエッジと重なるように映像を表示する。
従って、表示部11は、透過性のある映像であって、低空間周波数成分を有する歪み分布の画像が時間的に切り替わる映像を、映像に含まれるエッジが対象物の輪郭、または対象物に含まれるエッジと重なるように、対象物に重ねて表示する(S11)。
[第1実施形態の実施例]
以下、本実施形態の一実施例である映像投影装置1aについて、図3、図4を参照して説明する。図3は、本実施形態の実施例の映像投影装置1aの構成を示すブロック図である。図4は、本実施形態の実施例の映像投影装置1aの動作を示すフローチャートである。図3に示す通り、映像投影装置1aは、投影部11aを含む構成である。本実施例では、静止している対象物を扱うものとする。前述同様、投影部11aは、低空間周波数成分を有する歪み分布の画像が時間的に切り替わる映像を、映像に含まれるエッジが対象物の輪郭、または対象物に含まれるエッジと重なるように、静止している対象物に重ねて投影する(S11a)。投影部11aは、例えばプロジェクタなどで実現可能である。例えば、投影部11aがプロジェクタである場合、図5に示すようにプロジェクタ投影レンズ中心からみた対象物9の水平方向の視角θ、垂直方向の視角φは投影する映像の水平、垂直方向の視角と一致させる必要がある。
なお、表示部11の実施例として投影部11aを選択することは、後述の第2、3、4実施形態などにおいても同様に可能であり、後述の実施形態の各装置を表す各ブロック図には、表示部11の実施例として投影部11aが包含されることを表記してある。
非特許文献1の技術では、対象物の周囲にある媒質(例えば空気、水、水蒸気)が不規則に揺らいでいるように見せる特殊な錯覚を与えることは簡単ではない。非特許文献1の技術を応用して上述のような特殊な錯覚を与えるためには、媒質の揺らぎや、光線の屈折などをシミュレーションするための膨大な計算が必要である。本実施形態の映像投影装置1aによれば、少ない計算量で対象物に特殊な錯覚を付与することができる。また、本実施形態の映像投影装置1aによれば、平面形状の対象物、立体形状の対象物、有彩色の対象物、および無彩色かつ濃淡を有する対象物にも錯覚を付与することができる。
[第2実施形態]
以下、図6、図7を参照して映像生成機能を装置内に含む第2実施形態の映像表示装置2について説明する。図6は、本実施形態の映像表示装置2の構成を示すブロック図である。図7は、本実施形態の映像表示装置2の動作を示すフローチャートである。図6に示すように、映像表示装置2は、第1実施形態と同じ表示部11と、撮影部21と、映像生成部22を含む。
撮影部21は、対象物を撮影して原画像を取得する(S21)。映像生成部22は、原画像から複数の異なる狭帯域画像を生成し、生成した複数の異なる狭帯域画像が時間的に滑らかにつながるように並べた映像を生成する(S22)。表示部11は、前述同様、生成された映像を、対象物に重ねて表示する(S11)。
狭帯域画像は、原画像に含まれるエッジの情報を保持しつつ、画像全体の空間周波数帯域を原画像の空間周波数帯域よりも狭めた画像であって、かつ、透過性のある画像である。
映像生成部22の実現例として、例えば参考文献1に記載のように、画像を位相の180度異なる方位フィルタで畳み込み、畳み込みした画像間を時間的に滑らかにつないで錯覚的に運動印象をもたらす映像を生成してもよい。
(参考文献1:Freeman, W. T., Adelson, E. H., & Heeger, D. J. (1991). Proceedings of the 18th annual conference on computer graphics and interactive techniques, 27-30.)
[第3実施形態]
以下、図8、図9を参照して映像生成機能を装置内に含む第3実施形態の映像表示装置3について説明する。図8は、本実施形態の映像表示装置3の構成を示すブロック図である。図9は、本実施形態の映像表示装置3の映像生成部32の動作を示すフローチャートである。図8に示すように、映像表示装置3は、第2実施形態と同じ表示部11、撮影部21と、第2実施形態と異なる映像生成部32を含む。映像生成部32は、変形映像生成部321と、フーリエ変換部322と、分離部323を含む。変形映像生成部321は、対象物を撮影した原画像に対し動的な変形を加えることによって、静止対象画像が変形する映像を作成する(S321)。変形はピクセル移動によって表現される。このピクセル移動は予め計算しておいたアルゴリズムに基づく。例えば液体印象を対象物に付加したい場合は参考文献2、および本願出願時に未公開の特許出願である特願2013−132609号のアルゴリズムを参考にする。
(参考文献2:Kawabe, T., Maruya, K., & Nishida, S. (2013). Seeing transparent liquids from dynamic image distortion. Journal of Vision, 13(9): 208.)
以下、特願2013−132609号のアルゴリズムに基づく変形映像生成部321の実現例を開示する。まず、変形映像生成部321は、歪み分布に基づいて原画像を変調した変調画像を複数生成する。このとき、透明液体が流動している印象が強く知覚されるようにするためには、歪み分布(歪み地図)の空間周波数が3cpd(cycles per degree)以下となる歪みを原画像に変調することが望ましい。換言すれば、隣接画素間での歪み量の差が小さくなるような粗い歪みを原画像に加えると、より強く透明液体の印象を知覚させることができる。なお、原画像に同一の低い空間周波数成分(例えば3cpd以下)を有する歪み分布を用いて変調しても良いし、異なる低い空間周波数成分(例えば一方には2cpd以下、他方には3cpd以下)を有する歪み分布を用いて変調しても良い。また、変調画像には2次元以上の歪み方向を付与するものとする。歪みの種類は、回転歪み、平行移動歪み、ランダムな歪みなどの2次元の幾何学的な歪みであれば何でも良い。
次に、変形映像生成部321は、原画像から生成された複数の変調画像に基づいて映像を生成する。例えば変形映像生成部321は、原画像から生成された複数の変調画像が時間的に切替呈示されるように、順序付けしてなる変調画像列を映像として生成してもよい。変調画像列は、変調画像列が視聴者に静止画の系列ではなく動画像として視聴可能な範囲で各画像の呈示時間(フレームレート)を設定されたもの、すなわち、「変調画像を時間的に並べることで構成される映像」である。また、例えば変形映像生成部321は、原画像から生成された複数の変調画像の各々を切り替えて呈示させる制御を行ってもよい。各画像の呈示間隔は、視聴者に静止画の系列ではなく動画像(映像)として視聴可能な範囲で制御すればよい。例えば、各画像の呈示時間が0.05(sec)を超えない範囲としたり、20Hz以上のフレームレートとしたりすればよい。
次に、フーリエ変換部322は、変形映像生成部321で作成された映像を3次元(時空間)フーリエ変換する(S322)。分離部323は、時間フィルタリングによってDC成分(静止成分)と運動成分とを分離し、運動成分のみを映像として出力する(S323)。
別の表現では、変形映像生成部321は、所定のアルゴリズムに基づいて原画像のピクセルを移動して得た複数の画像群を時間的に滑らかにつながるように並べた映像を生成する(S321)。フーリエ変換部322は、生成された映像を3次元(時空間)フーリエ変換する(S322)。分離部323は、フーリエ変換結果に基づいて、静止成分と運動成分とを分離し、運動成分のみを映像として出力する(S323)。
図10に、上述のステップS321〜S323により抽出された、静止成分(DC成分)と運動成分の例を示す。運動成分は主に高空間周波数成分で構成される。図5に示したように、対象物と同じ視角で運動成分を映像として、対象物に重ねて表示することにより、両者の位相関係が元の動画と一致する。この条件下では、対象物の空間構造が運動成分によって錯覚的に捕捉される。その結果として、対象物が動いて見える。
[第4実施形態]
以下、図11、図12を参照して対象物に表示する原画像の生成機能を装置内に含む第4実施形態の映像表示装置4について説明する。図11は、本実施形態の映像表示装置4の構成を示すブロック図である。図12は、本実施形態の映像表示装置4の動作を示すフローチャートである。図11に示すように、本実施形態の映像表示装置4は、第3実施形態と同じ表示部11、撮影部21、映像生成部32と、第3実施形態にない原画像表示部41を含む。撮影部21、映像生成部32は、第3実施形態と同様に、それぞれステップS21、S32を実行する。原画像表示部41は、ステップS21において対象物を撮影して取得した原画像を別の静止メディア(例えば、ディスプレイ、スクリーンなど)に表示(投影)する(S41)。表示部11は、このように静止メディアに対して表示した原画像に対して映像を重ねて表示(投影)する。これにより、上述と同様の効果が得られる。このとき、映像は第2実施形態に示したように画像に方位フィルタを畳み込んで作成してもよいし、第3実施形態に示したように画像に変形を加えることで作成してもよい。別の静止メディアに表示する場合は、対象物に原画像を印刷したり、別のプロジェクタによって投影したり、電子ペーパーに表示したりすることが可能である。
対象物の撮影は外部カメラを用いる。カメラはできるだけ空間解像度の高いものがよい。計算時間を除けば、即時的に眼前の静止対象に錯覚的動きを付加することが可能である。本実施形態の一実施例である映像投影装置4aの投影部11aとして、プロジェクタを用いることができる。このプロジェクタは市販のもので構わないが、明るい部屋で用いる場合は、輝度の高いプロジェクタとする必要がある。
対象物のサイズによって、理想的な視聴距離は異なってくる。例えば本形態の方式を用いて16cm四方の映像に動きを付加した場合、1.5mほどの視聴距離が必要となる。対象が大きいほど、視聴距離を長くする必要がある。
3次元の対象物に映像を投影する場合、対象物投影面の奥行きを考慮しないで投影した場合、対象物投影面の奥行き差が大きい場合には、映像と対象物の構造にずれが生じる場合がある。ずれが生じない範囲で投影可能な、比較的投影面の奥行き差が小さい対象物を用いればより好適となる。また、奥行きの大きい3次元対象物に映像を投影する場合には、対象物の3次元形状を把握し、当該形状に合わせて投影する映像を変形することで、奥行き方向へ傾いた面を錯覚的に変形することが可能である。
本形態の映像表示装置によれば、例えば静止した顔画像の表情を錯覚的に変化させたり、視線方向を変えたりすることができる。また、動きのパターンを変更することで、対象物がはためいて見えるように錯覚させたり、流動する液体下に存在するかのように錯覚させたりすることができる。印刷物のような2次元媒体を対象物として、当該対象物に映像を投影する場合、媒体内の対象物のもつ輝度のダイナミックレンジは一般に狭いが、本形態では、対象物に比べてハイダイナミックレンジの映像を、対象物に重ねて投影するので、対象物の見かけを高画質にしつつ、その対象物に錯覚的な動きを付加することができる。また、本形態の映像表示装置によれば、カメラで撮影した画像に対して、処理時間を除けば、即時的に動きの錯覚的効果を付加することが可能である。
本形態の映像表示装置は、美術館や博物館での展示手法や、エンターテインメント施設で利用されるアトラクションの要素技術として応用可能である。例えば、紙などの静止メディアに印刷された子供向けキャラクタを視覚的に動かすことができる。
従来技術では、動画を呈示するために、その動画の時間周波数に応じた色差運動成分が必要であった。以下では、所定の大きさ以上の時間周波数の色差運動成分を用いることなく、その大きさ以上の時間周波数で像が動いているように錯覚させる形態を説明する。
人間は、時空間フィルタリングのような機能を通して、動画内から局所的な運動成分を検出している(参考文献3:Watson, A. B., & Ahumada, A. J, “Model of human visual-motion sensing,” Journal of the Optical Society of America, (1985), A, 2, 322-342.)。これと同様な機能は、時間周波数フィルタなどを通して動画内から運動成分と静止成分とを分離抽出するという画像情報処理によって実現できる。
人間は色や輝度コントラストで定義される静止画像成分を輝度運動成分に引き寄せて知覚することが知られている(「参考文献4:Ramachandran, V. S., “Interaction between colour and motion in human vision,” Nature (1987), 328, 645-647.」および「参考文献5:Anstis, S., “Kinetic edges become displaced, segregated, and invisible,” In D. M.-K. Lam (Ed.), Neural mechanisms of visual perception, Proceedings of the Second Retina Research Foundation Conference, Texas (1989): Portfolio Press, 247-260.」)。この視覚特性から、動画内の輝度運動成分によって、画像の見え方を変調させることができると考えられる。
人間の視覚系は色信号で定義された運動信号に鈍感である一方で、輝度信号で定義された運動信号に対しては敏感である(参考文献6:Ramachandran, V. S., & Gregory, R. L, “Does colour provide an input to human motion perception?” Nature (1978), 275, 55-56.)。加えて、一定以上の速さで動く対象に対する人間の空間解像度は静止した対象に対するものよりも低い(参考文献7:Kelly, D. H. (1979). Motion and vision. II. Stabilized spatio-temporal threshold surface. Journal of the Optical Society of America, 69, 1340-1349.)。すなわち、動画の運動成分から色成分を除去したとしても、人間に知覚される映像の質は大きく低下しない。
各実施形態では、以上のような人間の知覚特性を考慮し、絶対値が零より大きい空間周波数成分を含み「時間周波数の絶対値が第1値以下の像」に、「時間周波数の絶対値が第2値以上の輝度運動成分」を加味する。なお「輝度運動成分」は「像」に応じた成分であり、「第2値」は「第1値」よりも大きい。「絶対値が零より大きい空間周波数成分を含む」とは、非零の空間周波数成分を含むことを意味する。例えば、「第1値」がFであり、「第2値」がFであるとすると、0≦F<Fの関係を満たす。F=0であってもよいし、F>0であってもよい。Fの例は、「像」が止まっているかのように知覚される時間周波数の絶対値である(例えば、零の近傍)。ただし、Fが、「像」が動いていると知覚される時間周波数であってもよい。F=0の場合、「時間周波数の絶対値が第1値以下の像」は静止した像である。F>0の場合、「時間周波数の絶対値が第1値以下の像」は、大きさが第1値以下の周波数成分を持つ動きを持ち、「時間周波数の絶対値が第2値以上の輝度運動成分」よりもゆっくりと動く像である。「像」は単一の時間周波数成分(例えば0Hz)のみを持っていてもよいし、複数個の時間周波数成分を持っていてもよい(すなわち、複数個の時間周波数の像を合成したものであってもよい)。以下では、「時間周波数の絶対値が第1値以下の成分」を「低時間周波数成分」と呼び、「時間周波数の絶対値が第2値以上の成分」を「高時間周波数成分」と呼ぶ。「像」は一様ではなく、絶対値が零より大きい空間周波数成分(非零の空間周波数成分)を含むことが望ましい。「像」の色差成分および輝度成分の両方が絶対値が零より大きい空間周波数成分を含んでいてもよいし、色差成分または輝度成分の一方のみが絶対値が零より大きい空間周波数成分を含んでいてもよい。このような「像」に「輝度運動成分」が加味された映像を見た人間は、「像」が「第1値」の大きさの時間周波数よりも高い時間周波数で動いているように錯覚する(動的錯覚)。例えば、静止した「像」に「輝度運動成分」を加味した場合、人間はこの「像」が動いているように錯覚する。なお、「周波数αが周波数βよりも高い」とは、周波数αの絶対値|α|が周波数βの絶対値|β|よりも大きいことを意味する。
「像」は輝度成分のみを含む無彩色(グレースケール)の像であってもよいし、有彩色(カラー)を含む像であってもよい。特に、後者の像に輝度運動成分を加味した場合、低時間周波数成分よりも高い色差成分を含んでいないにもかかわらず、有彩色の像が低時間周波数成分よりも高い周波数で動いているように錯覚させることができる。「像」は情報処理の対象となる画像(画像情報)であってもよいし、対象物の表面に表れた像であってもよい。対象物の表面に表れた「像」の例は、対象物の表面に「印刷」「描画」「表示」または「投影」された画像や写真、対象物の表面を構成する素材の色合いに基づく柄や模様、対象物の表面の形状に基づくパターン(例えば、模様、境界線、濃淡)などである。「対象物の表面」は、平面であってもよいし、曲面であってもよいし、凹凸面であってもよい。「対象物」は、立体的形状を備える物(例えば、花瓶、ボール、模型、建築物)であってもよいし、用途上、平面とみなせる物(例えば、紙、ボード、壁、スクリーン、画面、透過型ディスプレイ)であってもよい。
大きな動的錯覚をもたらすためには、「像」および「輝度運動成分」が同一の「動画」に対応することが望ましい。例えば、「像」が「動画」の「複数個のフレーム」での時間周波数が零(時間周波数=0Hz)または零の近傍となる成分に対応し、「輝度運動成分」が当該「複数個のフレーム」での時間周波数の絶対値が正(|時間周波数|>0Hz)となる輝度成分に対応する。特に「動画」が「周期的または反復的な運動成分」を含む場合、より大きな効果が期待できる。「周期的な運動成分」とは、厳密に周期運動を行う成分のみを意味するのではなく、周期性の高い運動を行う成分をも意味する。同様に、「反復的な運動成分」とは、厳密な反復運動を行う成分のみを意味するのではなく、反復性の高い運動を行う成分をも意味する。「動画」が「周期的または反復的な運動成分」を含む場合、「像」が当該「動画」に含まれた任意のフレームの静止画像に対応するものであってもよい。「AがBに対応する」とは、AがBであることであってもよいし、AにBが由来すること(基づくこと)であってもよいし、BにAが由来することであってもよい。「AにBが由来する」とは、AがBから得られることであってもよいし、AがBの複製から得られることであってもよいし、AがBを近似したものから得られることであってもよい。例えば、「動画」やその複製から「像」および「輝度運動成分」が抽出されてもよいし、カメラやスキャナーで取り込まれた静止した「像」から「動画」が生成され、その「動画」から「輝度運動成分」が抽出されてもよい。
一定値以上の輝度コントラストに対する運動視の機能は定常的である(参考文献8:Pantle, A., & Sekuler, R. (1969). Contrast response of human visual mechanisms sensitive to orientation and direction of motion. Vision Research, 9, 397-406.)。また、運動視の空間解像度は静止画像に対する知覚の空間解像度よりも低い(参考文献7)。つまり、動画から抽出した輝度運動成分の空間解像度やコントラストを操作して運動情報自体の質を落としても、知覚される動画像の質は保たれる。よって「動画」に含まれた輝度運動成分動画の高空間周波数成分やコントラストを低減させた成分を「輝度運動成分」としても、十分な動的錯覚を引き起こすことができる。これにより、動的錯覚の程度をほとんど低下させることなく、情報量を削減できる。
「像に輝度運動成分を加味する」とは、例えば「像に輝度運動成分を合成すること」「像に輝度運動成分を重ね合わせること」「像に輝度運動成分を統合すること」「像に輝度運動成分を追加すること」「像に輝度運動成分を反映させること」「像に輝度運動成分を盛り込むこと」または「像の画素値と輝度運動成分の画素値とに対し、少なくとも加算または乗算またはべき乗を含む演算を作用させること」である。「画像に輝度運動成分を加味する」ための具体的な方法については後述する。
[第5実施形態]
本形態では、動画Mから「低時間周波数成分」と「高時間周波数成分」とを抽出する。「低時間周波数成分」を「画像(像)」とし、「高時間周波数成分」から抽出した輝度成分を「輝度運動成分」とする。「高時間周波数成分」の色差成分は使用されない。「画像」に「輝度運動成分」を統合(加味)する演算が行われ、それによって得られた動画Mが表示される(図13A)。これにより、動画Mを見た人間の視覚系で「画像」と「輝度運動成分」とが統合され、「画像」が「低時間周波数」よりも高い時間周波数で動いているような錯覚をもたらす。このように、動画Mから「高時間周波数成分」の色差成分を取り除いても知覚的な映像の質が保たれる。
<構成>
図15に例示するように、本形態の動画成分抽出装置51は、低時間周波数成分抽出部511(第1処理部)、輝度運動成分抽出部512(第2処理部)、および出力部513を有する。本形態の動的錯覚呈示装置52(錯覚呈示装置)は、入力部521、演算部522、および表示部523を有する。動画成分抽出装置51および低時間周波数成分抽出部511は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)、RAM(random-access memory)・ROM(read-only memory)等のメモリ、ディスプレイ等の表示装置等を備える汎用または専用のコンピュータに所定のプログラムが読み込まれることで構成される装置である。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。また、1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。
<処理>
図16を用いて本形態の処理を説明する。本形態の動画Mは有彩色を含むカラー動画であり、Rチャネル、Gチャネル、Bチャネルの強度変化を表す画素値で構成されている(式(1))。
Figure 0006965914

ただし、{R(x,y,t)},{G(x,y,t)},{B(x,y,t)}は、それぞれ、画素値R(x,y,t),G(x,y,t),B(x,y,t)を要素とする空間2次元、時間1次元の情報を持つ3次元行列である。画素値R(x,y,t),G(x,y,t),B(x,y,t)は、それぞれ水平位置x、垂直位置y、フレーム番号tでのRチャネル、Gチャネル、Bチャネルの強度を表す。x,y,tは、それぞれ3次元座標系で動画を表現した場合の水平位置、垂直位置、フレーム番号を示す整数である。水平位置の下限および上限をxminおよびxmax(xmin<xmax)とし、垂直位置の下限および上限をyminおよびymax(ymin<ymax)とし、フレーム番号の下限および上限をtminおよびtmax(tmin<tmax)とする。x,y,tはxmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmaxを満たす。動画Mは絶対値が零より大きい空間周波数成分(非零の空間周波数成分)を持つフレーム(一様ではないフレーム)を含むことが望ましい。
動画Mを構成する画素値R(x,y,t),G(x,y,t),B(x,y,t)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmax)は、動画成分抽出装置51(図15)の低時間周波数成分抽出部511および輝度運動成分抽出部512に入力される。
低時間周波数成分抽出部511は、画素値R(x,y,t),G(x,y,t),B(x,y,t)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmax)から静止成分Rstatic(x,y),Gstatic(x,y),Bstatic(x,y)を得て出力する。本形態では、画素値R(x,y,t),G(x,y,t),B(x,y,t)の時間平均値を、それぞれRstatic(x,y),Gstatic(x,y),Bstatic(x,y)とする(式(2))。
Figure 0006965914

ただし、Mean[x(t)]a≦t≦bはx(a),・・・,x(b)の平均値を表す。
低時間周波数成分抽出部511は、Rstatic(x,y),Gstatic(x,y),Bstatic(x,y)(ただし、xmin≦x≦xmax,ymin≦y≦ymax)を要素とする2次元行列{Rstatic(x,y)},{Gstatic(x,y)},{Bstatic(x,y)}からなる静止した画像Mstatic(式(3))を出力する。
Figure 0006965914

画像Mstaticは、動画Mの複数個のフレームt(tmin≦t≦tmax)での時間周波数が零となる成分であり、「第1値」を0とした場合の「時間周波数の絶対値が第1値以下の像」の一例である。画像Mstaticは、絶対値が零より大きい空間周波数成分を含むことが望ましく、また有彩色を含むことが望ましい(ステップS511)。
輝度運動成分抽出部512は、画素値R(x,y,t),G(x,y,t),B(x,y,t)をRoriginal(x,y,t),Goriginal(x,y,t),Boriginal(x,y,t)とおき(ステップS5121)、これらを各色が輝度に貢献する程度に応じて重み付け加算し、動画Mの輝度成分Yoriginal(x,y,t)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmax)を得る(ステップS5122)(式(4))。
Yoriginal(x,y,t)=αRRoriginal(x,y,t)+αGGoriginal(x,y,t)+αBBoriginal(x,y,t) (4)
ただし、α,α,αは重み係数(定数)である(例えば、α=0.299,α=0.587,α=0.114)。
さらに輝度運動成分抽出部512は、各フレームtの輝度成分Yoriginal(x,y,t)から、輝度静止成分Ystatic(x,y)を減じることで輝度運動成分Ymotion(x,y,t)を得て出力する(式(5))。輝度静止成分Ystatic(x,y)は、輝度成分Yoriginal(x,y,t)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmax)を時間平均することで得られる。
Ymotion(x,y,t)=Yoriginal(x,y,t)-Ystatic(x,y) (5)
輝度運動成分Ymotion(x,y,t)は、動画Mの複数個のフレームt(tmin≦t≦tmax)での時間周波数の絶対値が正となる輝度成分であり、「時間周波数の絶対値が第2値以上の輝度運動成分」の一例である。この輝度運動成分は像に応じた成分であり、第2値が第1値よりも大きい(ステップS5123)。
画像Mstaticおよび輝度運動成分Ymotion(x,y,t)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmax)は出力部513に入力され、そこから動的錯覚呈示装置52に送られる。画像Mstaticおよび輝度運動成分Ymotion(x,y,t)は、動的錯覚呈示装置52の入力部521に入力され、演算部522に送られる。演算部522は、画像Mstaticに輝度運動成分Ymotion(x,y,t)を加味した動画Mを得て出力する。例えば、演算部522は、画像Mstaticの各静止成分Rstatic(x,y),Gstatic(x,y),Bstatic(x,y)(ただし、xmin≦x≦xmax,ymin≦y≦ymax)に輝度運動成分Ymotion(x,y,t)を加算して動画Mを得る(図18A,式(6))。
Figure 0006965914

これにより、動画Mから色運動情報を除去した動画Mを作成できる(ステップS522)。なお、式(6)の場合、動画Mの各ピクセルの色度(RGBの比)は動画M(原動画)から多少変化する。しかし、一般的に色変化に対して人間の視覚特性は鈍感であり、動画Mの見かけ上の質は動画Mに対して低下しない。各ピクセルの色度を保存したい場合は、輝度静止成分Ystatic(x,y)の運動による変調比率Y’motion(x,y,t)を各RGBチャネルに乗算すればよい(式(7),図18B)。
Figure 0006965914

この場合、各RGBチャネル強度の比率が保たれるため、色信号の変調を伴わない輝度運動成分が合成できる(ステップS522)。すなわち、本形態では、対象物(Mstatic)に動きが与えられているように知覚させるために、対象物に映像(Ymotion(x,y,t)またはY’motion(x,y,t))を重畳する。この映像は、対象物に与えられる動きに対応する輝度運動成分を含む映像(例えば、輝度成分のみを含む映像)である。また、式(6)(7)に例示するように、対象物(Mstatic)の領域と、映像中(Ymotion(x,y,t)またはY’motion(x,y,t))の当該対象物に与えられる動きに対応する領域と、が重なるように、当該映像を当該対象物に重畳する。また、映像中の複数個のフレームにおける輝度運動成分の時間周波数の絶対値は、対象物に対応する映像中の複数個のフレームにおける時間周波数の絶対値より大きい。
以上のように得られた動画Mは表示部523に入力され、そこから表示される(ステップS523)。動画Mは色信号の運動成分を含んでいないにもかかわらず、動いているような錯覚をもたらす。すなわち、動画Mから色運動成分を除去しても、本来の動画と遜色のない視覚体験をユーザーに与えることができる。
[第5実施形態の変形例1]
動画Mから各成分を分離抽出する処理は、フーリエ変換等によって動画Mを時間周波数領域に変換し、時間周波数フィルタリングを行うことでも実現できる。以降では、これまでに説明した事項との相違点を中心に説明する。すでに説明した事項については同じ参照番号を用いて説明を省略する場合がある。
<構成>
図15に例示するように、本形態の動画成分抽出装置51’は、周波数領域変換部514’、低時間周波数成分抽出部511’(第1処理部)、高時間周波数成分抽出部515’、輝度運動成分抽出部512’(第2処理部)、時間領域変換部516’,517’、および出力部513を有する。動的錯覚呈示装置52は第5実施形態と同じである。動画成分抽出装置51’は、例えば、上述のようなコンピュータに所定のプログラムが読み込まれることで構成される。
<処理>
図17を用いて本変形例の処理を説明する。前述の動画Mを構成する画素値R(x,y,t),G(x,y,t),B(x,y,t)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmax)は、周波数領域変換部514’に入力される。周波数領域変換部514’は、画素値R(x,y,t),G(x,y,t),B(x,y,t)を時間周波数領域に変換し、時間周波数領域の値FR(x,y,f),FG(x,y,f),FB(x,y,f)を得る。以下ではフーリエ変換を用いる例を示す(式(8))。
Figure 0006965914

この場合、FR(x,y,f),FG(x,y,f),FB(x,y,f)は、R(x,y,t),G(x,y,t),B(x,y,t)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmax)に関する次元tのフーリエスペクトルである。式(8)の積分範囲は−∞から+∞であるが、実際には有限区間tmin≦t≦tmaxのみについて計算すればよい。また、R(x,y,t),G(x,y,t),B(x,y,t)は離散値であるため、離散フーリエ変換が用いられてもよい。fは時間周波数を表す整数インデックスである。f=0は時間周波数が0Hzであることを表し、fが大きいほど高い時間周波数(絶対値の大きな時間周波数)を表す。|f|の上限をfmaxとすると、0≦|f|≦fmaxの関係を満たす。また、iは虚数単位を表し、πは円周率を表す。FR(x,y,f),FG(x,y,f),FB(x,y,f)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,0≦|f|≦fmax)は、低時間周波数成分抽出部511’および高時間周波数成分抽出部515’に送られる(ステップS514’)。
低時間周波数成分抽出部511’は、FR(x,y,f),FG(x,y,f),FB(x,y,f)にローパスフィルタLF(f)を乗算し、GRstatic(x,y,f),GGstatic(x,y,f),GBstatic(x,y,f)を得て出力する(式(9))。
GRstatic(x,y,f)=FR(x,y,f)LF(f)
GGstatic(x,y,f)=FG(x,y,f)LF(f) (9)
GBstatic(x,y,f)=FB(x,y,f)LF(f)
ただし、ローパスフィルタLF(f)は式(10)で表される。
Figure 0006965914

ただし、kは0以上の定数である。k=0の場合、ローパスフィルタLF(f)は時間周波数が0Hzの成分を抽出する。k>0の場合、ローパスフィルタLF(f)は、時間周波数の絶対値がkに対応する時間周波数以下の成分を抽出する(ステップS511’)。
GRstatic(x,y,f),GGstatic(x,y,f),GBstatic(x,y,f)は時間領域変換部516’に入力される。時間領域変換部516’は、GRstatic(x,y,f),GGstatic(x,y,f),GBstatic(x,y,f)を時間領域に変換し、低時間周波数成分Rstatic(x,y,t),Gstatic(x,y,t),Bstatic(x,y,t)を得る。以下では逆フーリエ変換を用いる例を示す(式(11))。
Figure 0006965914

式(11)の積分範囲は−∞から+∞であるが、実際には有限区間0≦|f|≦fmaxのみについて計算すればよい。また、逆離散フーリエ変換が用いられてもよい。時間領域変換部516’は、以下のような低時間周波数成分の画像(像)Mstaticを出力する。
Figure 0006965914

この画像Mstaticは「時間周波数の絶対値が第1値以下の像」の一例である。式(10)においてk=0に設定した場合、Rstatic(x,y,t),Gstatic(x,y,t),Bstatic(x,y,t)は、それぞれ、R(x,y,t),G(x,y,t),B(x,y,t)の時間平均値となり、Mstaticは静止した画像となる。この場合の画像Mstaticは、動画Mの複数個のフレームt(tmin≦t≦tmax)での時間周波数が零となる成分からなる。式(10)においてk>0に設定した場合、Mstaticはゆっくりとした動き成分を含む画像となる(ステップS516’)。
高時間周波数成分抽出部515’は、FR(x,y,f),FG(x,y,f),FB(x,y,f)にハイパスフィルタHF(f)を乗算し、GRmotion(x,y,f),GGmotion(x,y,f),GBmotion(x,y,f)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,0≦|f|≦fmax)を得て出力する(式(13))。
GRmotion(x,y,f)=FR(x,y,f)HF(f)
GGmotion(x,y,f)=FG(x,y,f)HF(f) (13)
GBmotion(x,y,f)=FB(x,y,f)HF(f)
ただし、ハイパスフィルタHF(f)は式(14)で表される。
Figure 0006965914

hは0以上の定数である。h=0の場合、ハイパスフィルタHF(f)は絶対値が正の時間周波数の成分を抽出する。h>0の場合、ハイパスフィルタHF(f)は、時間周波数の絶対値がhに対応する時間周波数よりも大きな時間周波数成分を抽出する。hはk以上であることが望ましい。必ずしもkとhとを等しくする必要はない。kとhとを等しくした場合、ローパスフィルタLF(f)とハイパスフィルタHF(f)は相補的になる。この場合、ハイパスフィルタHF(f)を用いることに代えて、低時間周波数成分抽出部511’で取り除かれなかった成分をGRmotion(x,y,f),GGmotion(x,y,f),GBmotion(x,y,f)としてもよい。すなわち、
GRmotion(x,y,f)=FR(x,y,f)-GRstatic(x,y,f)
GGmotion(x,y,f)=FG(x,y,f)-GGstatic(x,y,f) (15)
GBmotion(x,y,f)=FB(x,y,f)-GBstatic(x,y,f)
としてもよい(ステップS515’)。
GRmotion(x,y,f),GGmotion(x,y,f),GBmotion(x,y,f)は時間領域変換部517’に入力される。時間領域変換部517’は、GRmotion(x,y,f),GGmotion(x,y,f),GBmotion(x,y,f)を時間領域に変換し、高時間周波数成分Rmotion(x,y,t),Gmotion(x,y,t),Bmotion(x,y,t)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmax)を得て出力する。以下では逆フーリエ変換を用いる例を示す(式(16))。
Figure 0006965914

式(16)の積分範囲は−∞から+∞であるが、実際には有限区間0≦|f|≦fmaxのみについて計算すればよい。また、逆離散フーリエ変換が用いられてもよい(ステップS517’)。
輝度運動成分抽出部512’は、Rmotion(x,y,t),Gmotion(x,y,t),Bmotion(x,y,t)を重み付け加算し、動画Mの輝度成分Yoriginal(x,y,t)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmax)を得て出力する(ステップS512’)(式(17))。
Ymotion(x,y,t)=αRRmotion(x,y,t)+αGGmotion(x,y,t)+αBBmotion(x,y,t) (17)
ただし、α,α,αは重み係数(定数)である。輝度運動成分Ymotion(x,y,t)は「時間周波数の絶対値が第2値以上の輝度運動成分」の一例である。
以降の処理は第5実施形態と同じである。本形態では、画像Mstaticよりも高い時間周波数で動画Mが動いているような錯覚をユーザーにもたらすことができる。
[第5実施形態の変形例2]
第5実施形態およびその変形例1では、動画Mの低時間周波数成分からなる画像Mstaticに、動画Mの高時間周波数成分から抽出した輝度運動成分を加味した動画Mを生成した(図13A)。しかしながら、動画Mの低時間周波数成分から抽出した「色差成分」から定まる色成分の画像Mstaticに、動画Mの高時間周波数成分から抽出した輝度運動成分を加味した動画Mを生成してもよい(図13B)。あるいは、動画Mの低時間周波数成分から抽出した「輝度成分」からなる画像Mstaticに、動画Mの高時間周波数成分から抽出した輝度運動成分を加味した動画Mを生成してもよい(図14A)。このような動画Mでも、動的錯覚をもたらすことができる。また、動画Mがグレースケール動画であってもよい。
[第6実施形態]
動画Mが周期的または反復的な運動成分(例えば、小さな動き)を含む場合、動画Mに含まれた任意のフレーム(例えばt=n番目のフレーム)の静止画像を「画像」として用いてもよい(図13A)。すなわち、動画Mから抽出した任意のフレームの静止画像に輝度運動成分を加味した動画Mを生成してもよい。このような動画Mでも、静止画像が動いてみえるように錯覚させることができる。
<構成>
図15に例示するように、本形態の動画成分抽出装置61は、画像抽出部611(第1処理部)、輝度運動成分抽出部612(第2処理部)、および出力部513を有する。動的錯覚呈示装置52は第5実施形態と同じである。動画成分抽出装置61は、例えば、上述のようなコンピュータに所定のプログラムが読み込まれることで構成される。
<処理>
図16を用いて本形態の処理を説明する。第5実施形態との相違点はステップS511に代えてステップS611が実行され、ステップS5123に代えてステップS6123が実行される点である。以下では、相違点であるステップS611およびステップS6123のみを説明する。
《ステップS611》
動画M(式(1))は画像抽出部611および輝度運動成分抽出部612に入力される。画像抽出部611は、動画Mからt=n番目のフレームの静止画像を抽出し、それを画像Mstaticとして出力する。すなわち、Rstatic(x,y)=R(x,y,n),Gstatic(x,y)=G(x,y,n),Bstatic(x,y)=B(x,y,n)(xmin≦x≦xmax,ymin≦y≦ymax)を要素とする2次元行列{Rstatic(x,y)},{Gstatic(x,y)},{Bstatic(x,y)}からなる画像Mstatic(式(3))を出力する。本形態の画像Mstaticも、「第1値」を0とした場合の「時間周波数の絶対値が第1値以下の像」の一例である。画像Mstaticは、絶対値が零より大きい空間周波数成分を含むことが望ましく、また有彩色を含むことが望ましい(ステップS611)。
《ステップS6123》
輝度運動成分抽出部612は、Rstatic(x,y),Gstatic(x,y),Bstatic(x,y)(ただし、xmin≦x≦xmax,ymin≦y≦ymax)に対応する輝度成分を輝度静止成分Ystatic(x,y)とする。輝度静止成分Ystatic(x,y)は、ステップS5122と同じように、Rstatic(x,y),Gstatic(x,y),Bstatic(x,y)を重み付け加算することで得られる。輝度運動成分抽出部612は、各フレームtの輝度成分Yoriginal(x,y,t)から、輝度静止成分Ystatic(x,y)を減じることで輝度運動成分Ymotion(x,y,t)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmax)を得て出力する(ステップS6123)(式(5))。すなわち、本形態の映像(Ymotion(x,y,t))は、対象物に対応する映像中の複数個のフレームそれぞれの輝度成分Yoriginal(x,y,t)から、対象物に対応する映像に基づく静止画像から得られる輝度静止成分Ystatic(x,y)を減じて得られる輝度運動成分を含む。
本形態では、輝度運動成分によって任意フレームの単一の静止画像が視覚的に動いているように錯覚させ、本来の動画像と遜色のない視覚体験をユーザーに与えることができる。
[第6実施形態の変形例]
本形態では、動画Mの任意のフレームの静止画像Mstaticに、動画Mの高時間周波数成分から抽出した輝度運動成分を加味した動画Mを生成した(図13A)。しかしながら、動画Mの任意のフレームの静止画像Mstaticから抽出した「色差成分」から定まる色成分の画像に、動画Mの高時間周波数成分から抽出した輝度運動成分を加味した動画Mを生成してもよい(図13B)。あるいは、動画Mの任意のフレームの静止画像Mstaticから抽出した「輝度成分」からなる画像に、動画Mの高時間周波数成分から抽出した輝度運動成分を加味した動画Mを生成してもよい(図14A)。このような動画Mでも、動的錯覚をもたらすことができる。また、動画Mがグレースケール動画であってもよい。
[第7実施形態]
前述したように、視覚系の運動視特性上、「画像」に合成する「輝度運動成分」の空間解像度やコントラストを低減させても、知覚される動画像の質は保たれる。本形態では、動画Mの「低時間周波数成分」を「画像(像)」とし、動画Mの「高時間周波数成分」から抽出した輝度成分(動画Mに含まれた輝度運動成分画像)の高空間周波数成分またはコントラストの少なくとも一方を低減させた成分を「輝度運動成分」とする。例えば、輝度運動成分画像に対し、高空間周波数成分またはコントラストの少なくとも一方を低減させるためのフィルタリングを行う。その後、「画像」に「輝度運動成分」を統合(加味)する演算が行われ、それによって得られた動画Mが表示される(図14B)。
<構成>
図15に例示するように、本形態の動画成分抽出装置71は、低時間周波数成分抽出部511、輝度運動成分抽出部512、フィルタリング部719、および出力部513を有する。本形態の動的錯覚呈示装置52は、第5実施形態と同じである。動画成分抽出装置71は、例えば、上述のようなコンピュータに所定のプログラムが読み込まれることで構成される。
<処理>
図16を用いて本形態の処理を説明する。本形態と第5実施形態との相違点は、ステップS5123で得られた輝度運動成分Ymotion(x,y,t)(輝度運動成分画像)にフィルタリングを行い、フィルタリング後の輝度運動成分を「画像」に加味して動画Mを得る点である。以下では、S5123で得られた輝度運動成分Ymotion(x,y,t)に対するフィルタリングの処理のみを説明する。
ステップS5123で得られた輝度運動成分Ymotion(x,y,t)(ただし、xmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmax)はフィルタリング部719に入力される。フィルタリング部719は、まず、Ymotion(x,y,t)を時間空間周波数領域に変換してFYmotion(ξ,η,τ)を得る。ただし、ξ,η,τは、それぞれ水平方向の空間周波数,垂直方向の空間周波数,時間周波数を表す。水平方向の空間周波数の下限および上限をξminおよびξmax(ξmin<ξmax)とし、垂直方向の空間周波数の下限および上限をηminおよびηmax(ηmin<ηmax)とし、時間周波数の下限および上限をτminおよびτmax(τmin<τmax)とする。ξ,η,τはξmin≦ξ≦ξmax,ηmin≦η≦ηmax,τmin≦τ≦τmaxを満たす。以下ではフーリエ変換を用いる例を示す(式(18))。この場合のFYmotion(ξ,η,τ)は、Ymotion(x,y,t)のフーリエスペクトルである。
Figure 0006965914

式(18)の積分範囲は−∞から+∞であるが、実際には有限区間xmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmaxのみについて計算すればよい。また、離散フーリエ変換が用いられてもよい(ステップS7191)。
次にフィルタリング部719は、FYmotion(ξ,η,τ)にフィルタG(ξ,η,τ)を乗算し、さらに逆フーリエ変換によって輝度運動成分gYmotion(x,y,t)を得る(式19)。
Figure 0006965914

式(19)の積分範囲は−∞から+∞であるが、実際には有限区間ξmin≦ξ≦ξmax,ηmin≦η≦ηmax,τmin≦τ≦τmaxのみについて計算すればよい。また、逆離散フーリエ変換が用いられてもよい。輝度運動成分gYmotion(x,y,t)は「時間周波数の絶対値が第2値以上の輝度運動成分」の一例である。
G(ξ,η,τ)は高空間周波数成分またはコントラストを低減させるためのフィルタである。高空間周波数成分を低減させるためのフィルタはローパスフィルタであり、コントラスト(全体コントラスト)を低減させるためのフィルタは、例えば、濃淡レベルを線形変換する関数やヒストグラムを平坦化する関数(時空間周波数フィルタ)などである。以下にローパスフィルタの具体例を示す(式(20))。
Figure 0006965914

ただし、aおよびbは正の定数である。ここではステップ状に高空間周波数フーリエスペクトルをカットする関数をG(ξ,η,τ)としているが、高空間周波数フーリエスペクトルをカットできるものであれば、どのような関数をG(ξ,η,τ)としてもよい(ステップS7192)。
以降の処理は、第5実施形態の輝度運動成分Ymotion(x,y,t)を輝度運動成分gYmotion(x,y,t)に置換したものとなる。前述のように、フィルタリングによって輝度運動成分動画の高空間周波数を低減させたり、コントラストを低減させたりしても、視覚系の特性が許容する範囲内で動画の知覚的な質には影響しない。そのため、フィルタリングによって輝度運動成分の情報量を落としても、本来の動画Mと遜色のない視覚体験をユーザーに与えることができる。
[第7実施形態の変形例]
第7実施形態は、第5実施形態の輝度運動成分Ymotion(x,y,t)を輝度運動成分gYmotion(x,y,t)に置換した形態であった。しかしながら、第5実施形態の変形例1の輝度運動成分Ymotion(x,y,t)を輝度運動成分gYmotion(x,y,t)に置換してもよい。この場合には、図17のステップS512’の後にステップS7191およびS7192が実行される。同様に、第5実施形態の変形例2または第6実施形態の輝度運動成分Ymotion(x,y,t)を輝度運動成分gYmotion(x,y,t)に置換しもよい。
[第8実施形態]
第8実施形態では、前述した「時間周波数の絶対値が第1値以下の像」が「対象物」の表面に表れており、「時間周波数の絶対値が第2値以上の輝度運動成分」がこの「像」に重ね合わせられる。これによっても「像」が動いているように錯覚させることができる。以下では、静止した「像」が「対象物」上に印刷され、その「像」に対して「時間周波数の絶対値が第2値以上の輝度運動成分」が投影される例を説明する。
<構成>
図19に例示するように、本形態の動画成分抽出装置81は、第5実施形態から第7実施形態またはそれらの変形例の動画成分抽出装置51,51’,61,71の何れかの出力部513を出力部813および印刷部814に置換したものである。本形態の動的錯覚呈示装置82(錯覚呈示装置)は、入力部821、および投影部823(プロジェクタ)を有する。また、本形態で例示する対象物83は紙等の2次元媒体である。
<処理>
前述した何れかの実施形態または変形例のように動画Mから抽出された静止した画像Mstatic(式(3))は印刷部814(出力部)に入力される。印刷部814は、画像Mstaticを対象物83の表面に印刷する。何れかの実施形態または変形例のように動画Mから抽出された輝度運動成分Ymotion(x,y,t)またはgYmotion(x,y,t)は動的錯覚呈示装置82に送られ、入力部821に入力される。輝度運動成分Ymotion(x,y,t)またはgYmotion(x,y,t)は投影部823に送られ、投影部823は、公知の光プロダクション技術(例えば、参考文献9:河邉隆寛,澤山正貴,丸谷和史,西田眞也,(2014),“静止した2次元対象を運動情報によって錯覚的に変形させる光投影手法,” 2014年映像情報メディア学会年次大会, 5-3.)によって、輝度運動成分Ymotion(x,y,t)またはgYmotion(x,y,t)を、対象物83上に印刷された画像Mstaticに投影して動画Mを表示する(式(21))。
Figure 0006965914

ただし、式(21)の○は、画像Mstaticの輝度成分に対して輝度運動成分Ymotion(x,y,t)またはgYmotion(x,y,t)が複合的に加算・乗算される状態(加味される状態)を表す。言い換えると、画像Mstaticの輝度成分と輝度運動成分Ymotion(x,y,t)またはgYmotion(x,y,t)とに対して加算および乗算の少なくとも一方を含む演算が施される状態を表す。すなわち、印刷物に光を投影した場合、紙やインクの特性に応じて反射のパターンが異なり、部分的には乗算的に輝度が変化し、他の部分では加算的に輝度が変化することが想定されるので、この両方の輝度変化を生じさせる計算を○で表している。なお、式(6)は画像Mstatic中の輝度成分に対して輝度運動成分Ymotion(x,y,t)が加算される状態を示しており、式(7)は画像Mstatic中の輝度成分に対して輝度運動成分Ymotion(x,y,t)の運動による変調比率Y’motion(x,y,t)が乗算される状態を示している。すなわち、本形態では、対象物(Mstatic)に動きが与えられているように知覚させるために、対象物に映像(Ymotion(x,y,t)またはgYmotion(x,y,t)を重畳する。この映像は、対象物に与えられる動きに対応する輝度運動成分を含む映像(例えば、輝度成分のみを含む映像)である。また、式(3)(21)に例示するように、対象物(Mstatic)の領域と、映像中(Ymotion(x,y,t)またはgYmotion(x,y,t))の当該対象物に与えられる動きに対応する領域と、が重なるように、当該映像を当該対象物に重畳する。また、映像中の複数個のフレームにおける輝度運動成分の時間周波数の絶対値は、対象物に対応する映像中の複数個のフレームにおける時間周波数の絶対値より大きい。
このようにしても動的な錯覚を呈示できる。なお、輝度運動成分Ymotion(x,y,t)またはgYmotion(x,y,t)をプロジェクタによって投影する場合、これらは負の値を持てない。そのため、動画Mの全体的な輝度は上昇する。さらに、投影による輝度上昇は一部乗算的となる。そのため、動画Mの輝度分布は元の動画Mの輝度とはかなり異なる。それにもかかわらず、ユーザーは動画Mから元の動画Mの動きを視覚体験できる。これには、参考文献9が示すような、視覚系による適応的な輝度コントラストノーマライゼーションが関与していると考えられる。このように、本形態でも本来の動画Mと遜色のない視覚体験をユーザーに与えることができる。
[第8実施形態の変形例]
第8実施形態では、静止した画像Mstaticが紙等「対象物」上に印刷された。しかし、これを印刷するのではなく、他のプロジェクタでスクリーン等の「対象物」に投影して表示したり、電子ペーパー等の「対象物」に表示したりしてもよい。また、参考文献9が示すような透過型ディスプレイに「運動成分動画」を投影してもよい。また、画像Mstaticを投影や表示する場合には、画像Mstaticが静止した画像である必要はなく、ゆっくり動いている画像であってもよい。この場合には、画像Mstaticよりも高い時間周波数で動いているような視覚体験をユーザーに与えることができる。また、動画Mから画像Mstaticを抽出するのではなく、建築物や絵画等の「対象物」を撮影して得られた静止画像に基づいて動画Mを作成し、それから輝度運動成分Ymotion(x,y,t)またはgYmotion(x,y,t)を生成したり、「対象物」を撮影して得られた静止画像から輝度運動成分Ymotion(x,y,t)またはgYmotion(x,y,t)を生成したりしてもよい。このように生成した輝度運動成分Ymotion(x,y,t)またはgYmotion(x,y,t)を「対象物」の表面に表れた像に投影することで、「像」が動いているように錯覚させることができる。
[その他の変形例等]
なお、本発明は上述の実施形態およびその変形例に限定されるものではない。例えば、動画成分抽出装置および動的錯覚呈示装置が同一の装置であってもよい。あるいは、動画成分抽出装置や動的錯覚呈示装置が含む各部の処理が互いに異なる装置で実施されてもよい。
上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。
このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記録装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。
「撮影によって得た第1の画像を記録する第1画像データ」と、「前記第1の画像に含まれるエッジの情報を保持しつつ、画像全体の空間周波数帯域を前記第1の画像の空間周波数帯域よりも狭めた狭帯域画像であり、表示時に当該狭帯域画像に含まれるエッジが前記第1の画像のエッジと重なるように前記第1の画像の上に重ねて表示される、透過性を有する第2の画像を記録する第2画像データ」と、を対応付けたデータ構造の流通が行われてもよい。この流通は、そのデータ構造をインターネット等によって配信することで行われてもよいし、そのデータ構造を記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行われてもよい。
また、動画成分抽出装置から出力された「絶対値が零より大きい空間周波数成分を含み時間周波数の絶対値が第1値以下の像」を表す第1データと、「像に応じた、時間周波数の絶対値が第2値以上の輝度運動成分」を表す第2データと、を含むデータ構造の流通が行われてもよい。この流通は、そのデータ構造をインターネット等によって配信することで行われてもよいし、そのデータ構造を記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行われてもよい。このデータ構造の提供を受けた装置は、「第1データ」および「第2データ」を演算部に入力し、当該演算部は「像」に「輝度運動成分」を加味する演算を行って動画を得、表示部からこの動画を表示する。または、第1データが出力部に入力され、出力部が「像」を「対象物」の表面に表し、第2データが投影部に入力され、投影部が「輝度運動成分」を「対象物」の表面に表された「像」に投影する。これにより、動的錯覚を起こさせる動画を表示部または対象物に表示することができる。また、「対象物」に動きが与えられているように知覚させるために、「対象物」に映像を重畳する装置で用いる映像のデータ構造の流通が行われてもよい。ここで、映像中の複数個のフレームにおける前記輝度運動成分の時間周波数の絶対値は、「対象物」に対応する映像中の複数個のフレームにおける時間周波数の絶対値より大きい。あるいは、このデータ構造が「対象物」に対応する映像中の複数個のフレームそれぞれの輝度成分から、「対象物」に対応する映像に基づく静止画像から得られる輝度静止成分を減じて得られる輝度運動成分を含んでもよい。
本発明は、例えば、(1)光投影によって紙媒体に動き印象を加えたり、看板に動きの印象を与えたりといった広告分野、(2)床、壁などのインテリアの模様を錯覚的に変形させるといったインテリア分野、(3)キャラクタのイラストに動きを与えたり、従来のプロジェクションマッピング技術と融合したりといった芸術、玩具、エンターテインメント分野などに利用可能である。

Claims (3)

  1. 入力された映像から、絶対値が零より大きい空間周波数成分を含み時間周波数の絶対値が第1値以下の像を得る第1処理部と、
    時間周波数の絶対値が第2値以上の輝度運動成分を含む映像を生成する第2処理部と、を有する映像生成装置であって、
    前記輝度運動成分が前記像に応じた成分であり、前記第2値が前記第1値よりも大きい、
    ことを特徴とする映像生成装置。
  2. 入力された映像から、絶対値が零より大きい空間周波数成分を含み時間周波数の絶対値が第1値以下の像を得る第1処理ステップと、
    時間周波数の絶対値が第2値以上の輝度運動成分を含む映像を生成する第2処理ステップと、を有する映像生成方法であって、
    前記輝度運動成分が前記像に応じた成分であり、前記第2値が前記第1値よりも大きい、
    ことを特徴とする映像生成方法。
  3. 請求項1の映像生成装置としてコンピュータを機能させるためのプログラム。
JP2019195980A 2014-04-22 2019-10-29 映像生成装置、その方法、プログラム Active JP6965914B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021167862A JP7283513B2 (ja) 2014-04-22 2021-10-13 映像表示装置、映像投影装置、それらの方法、プログラム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2014088389 2014-04-22
JP2014088389 2014-04-22
JP2014230720 2014-11-13
JP2014230720 2014-11-13
JP2018022975A JP6611837B2 (ja) 2014-04-22 2018-02-13 映像呈示装置、その方法、プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018022975A Division JP6611837B2 (ja) 2014-04-22 2018-02-13 映像呈示装置、その方法、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021167862A Division JP7283513B2 (ja) 2014-04-22 2021-10-13 映像表示装置、映像投影装置、それらの方法、プログラム

Publications (2)

Publication Number Publication Date
JP2020030843A JP2020030843A (ja) 2020-02-27
JP6965914B2 true JP6965914B2 (ja) 2021-11-10

Family

ID=54332481

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2016514945A Active JP6425312B2 (ja) 2014-04-22 2015-04-21 動的錯覚呈示装置、その方法、プログラム
JP2018022975A Active JP6611837B2 (ja) 2014-04-22 2018-02-13 映像呈示装置、その方法、プログラム
JP2019195980A Active JP6965914B2 (ja) 2014-04-22 2019-10-29 映像生成装置、その方法、プログラム
JP2021167862A Active JP7283513B2 (ja) 2014-04-22 2021-10-13 映像表示装置、映像投影装置、それらの方法、プログラム
JP2023075601A Pending JP2023101517A (ja) 2014-04-22 2023-05-01 装置、方法、およびプログラム

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016514945A Active JP6425312B2 (ja) 2014-04-22 2015-04-21 動的錯覚呈示装置、その方法、プログラム
JP2018022975A Active JP6611837B2 (ja) 2014-04-22 2018-02-13 映像呈示装置、その方法、プログラム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021167862A Active JP7283513B2 (ja) 2014-04-22 2021-10-13 映像表示装置、映像投影装置、それらの方法、プログラム
JP2023075601A Pending JP2023101517A (ja) 2014-04-22 2023-05-01 装置、方法、およびプログラム

Country Status (5)

Country Link
US (3) US10571794B2 (ja)
EP (2) EP3637410A1 (ja)
JP (5) JP6425312B2 (ja)
CN (4) CN110989284A (ja)
WO (1) WO2015163317A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110989284A (zh) 2014-04-22 2020-04-10 日本电信电话株式会社 视频呈现装置、视频呈现方法以及程序
JP6430420B2 (ja) * 2016-02-12 2018-11-28 日本電信電話株式会社 情報呈示システム、および情報呈示方法
JP6461836B2 (ja) * 2016-02-12 2019-01-30 日本電信電話株式会社 対象に動きの変化が与えられているように知覚させる装置、およびその方法
JP6466354B2 (ja) * 2016-02-12 2019-02-06 日本電信電話株式会社 装置、映像投影装置、映像投影システム、映像表示装置、映像生成装置、それらの方法、およびプログラム
JP6457964B2 (ja) * 2016-03-10 2019-01-23 日本電信電話株式会社 装置、投影装置、表示装置、画像生成装置、それらの方法、およびプログラム
JP6556680B2 (ja) * 2016-09-23 2019-08-07 日本電信電話株式会社 映像生成装置、映像生成方法、およびプログラム
JP6615818B2 (ja) * 2017-04-03 2019-12-04 日本電信電話株式会社 映像生成装置、映像生成方法、およびプログラム
US10609355B2 (en) * 2017-10-27 2020-03-31 Motorola Mobility Llc Dynamically adjusting sampling of a real-time depth map
JP7010122B2 (ja) * 2018-04-11 2022-01-26 日本電信電話株式会社 映像生成装置、映像生成方法、およびプログラム
JP6845181B2 (ja) * 2018-04-24 2021-03-17 日本電信電話株式会社 映像生成装置、映像生成方法、およびプログラム
JP2019013012A (ja) * 2018-08-17 2019-01-24 日本電信電話株式会社 データ構造
JP7035936B2 (ja) * 2018-09-27 2022-03-15 日本電信電話株式会社 画像生成装置、画像生成方法、およびプログラム
JP7063216B2 (ja) * 2018-09-27 2022-05-09 日本電信電話株式会社 錯覚呈示システム、および錯覚呈示方法
JP7040422B2 (ja) * 2018-11-28 2022-03-23 日本電信電話株式会社 動きベクトル生成装置、投影像生成装置、動きベクトル生成方法、およびプログラム

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5794784A (en) 1980-11-20 1982-06-12 Kobe Steel Ltd Picture information synthetizing terminal
US5325473A (en) * 1991-10-11 1994-06-28 The Walt Disney Company Apparatus and method for projection upon a three-dimensional object
JPH0793558A (ja) * 1993-09-22 1995-04-07 Toshiba Corp 画像監視装置
JPH086158A (ja) * 1994-06-17 1996-01-12 Hitachi Ltd 投写型表示装置
US6567564B1 (en) * 1996-04-17 2003-05-20 Sarnoff Corporation Pipelined pyramid processor for image processing systems
WO1998044479A1 (fr) * 1997-03-31 1998-10-08 Matsushita Electric Industrial Co., Ltd. Procede de visualisation du premier plan d'images et dispositif connexe
US7604348B2 (en) * 2001-01-23 2009-10-20 Kenneth Martin Jacobs Continuous adjustable 3deeps filter spectacles for optimized 3deeps stereoscopic viewing and its control method and means
JP3453657B2 (ja) * 2001-03-13 2003-10-06 北海道地図株式会社 映像表示装置
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US7019748B2 (en) 2001-08-15 2006-03-28 Mitsubishi Electric Research Laboratories, Inc. Simulating motion of static objects in scenes
JP3674568B2 (ja) * 2001-10-02 2005-07-20 ソニー株式会社 強度変調方法及びシステム並びに光量変調装置
JP3793520B2 (ja) 2002-04-22 2006-07-05 元井 成幸 画像提供装置及び画像提供プログラム
JP2004173320A (ja) 2002-04-22 2004-06-17 Nariyuki Motoi 画像提供装置
JP2004128936A (ja) * 2002-10-03 2004-04-22 Matsushita Electric Ind Co Ltd 映像信号処理装置
JP4038689B2 (ja) * 2004-01-21 2008-01-30 ソニー株式会社 表示制御装置および方法、記録媒体、並びにプログラム
JP2005204923A (ja) 2004-01-22 2005-08-04 Heiwa Corp 遊技機
JP4522140B2 (ja) * 2004-05-14 2010-08-11 キヤノン株式会社 指標配置情報推定方法および情報処理装置
EP1804112B1 (en) * 2004-09-08 2016-11-30 Nippon Telegraph And Telephone Corporation Three-dimensional display method, apparatus and program
CN1770204A (zh) * 2004-10-29 2006-05-10 中国科学院计算技术研究所 从具有静态背景的运动视频提取运动对象重心轨迹的方法
JP4415842B2 (ja) * 2004-12-08 2010-02-17 パイオニア株式会社 情報多重装置及び方法、情報抽出装置及び方法、並びにコンピュータプログラム
JP2006325122A (ja) * 2005-05-20 2006-11-30 Otsuka Denshi Co Ltd 動画表示性能判定方法、検査画面及び動画表示性能判定装置
US7397933B2 (en) * 2005-05-27 2008-07-08 Microsoft Corporation Collusion resistant desynchronization for digital video fingerprinting
CN100584035C (zh) * 2005-10-10 2010-01-20 重庆大学 基于压缩传输数据的多个显示器动态视频显示方法
US8565525B2 (en) * 2005-12-30 2013-10-22 Telecom Italia S.P.A. Edge comparison in segmentation of video sequences
JP4795091B2 (ja) * 2006-04-21 2011-10-19 キヤノン株式会社 情報処理方法および装置
JP4697063B2 (ja) * 2006-06-20 2011-06-08 日産自動車株式会社 接近車両検出装置
US20080085741A1 (en) * 2006-10-10 2008-04-10 Sony Ericsson Mobile Communications Ab Method for providing an alert signal
JP4885690B2 (ja) * 2006-11-28 2012-02-29 株式会社エヌ・ティ・ティ・ドコモ 画像調整量決定装置、画像調整量決定方法、画像調整量決定プログラムおよび画像処理装置
KR20080101700A (ko) * 2007-05-18 2008-11-21 소니 가부시끼 가이샤 표시 장치, 표시 장치의 구동 방법 및 컴퓨터 프로그램
KR101388583B1 (ko) * 2007-06-12 2014-04-24 삼성디스플레이 주식회사 구동장치, 이를 갖는 표시장치 및 표시장치의 구동방법
US8422803B2 (en) * 2007-06-28 2013-04-16 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
JP2009033564A (ja) * 2007-07-27 2009-02-12 Sanyo Electric Co Ltd 表示装置及び表示プログラム
JP5080899B2 (ja) * 2007-08-08 2012-11-21 キヤノン株式会社 映像処理装置及びその制御方法
JP4829855B2 (ja) * 2007-09-04 2011-12-07 キヤノン株式会社 画像投影装置及びその制御方法
JP5464819B2 (ja) * 2008-04-30 2014-04-09 キヤノン株式会社 動画像処理装置および方法、プログラム
JP2010072025A (ja) * 2008-09-16 2010-04-02 Nikon Corp プロジェクタ付電子機器
EP2378392B1 (en) * 2008-12-25 2016-04-13 Panasonic Intellectual Property Management Co., Ltd. Information displaying apparatus and information displaying method
JP5402056B2 (ja) * 2009-02-16 2014-01-29 コニカミノルタ株式会社 画像処理装置、画像処理方法、およびプログラム
JP2010211303A (ja) * 2009-03-06 2010-09-24 Olympus Corp 画像生成装置、異物検査システム、及び画像生成方法
CN101562755B (zh) * 2009-05-19 2010-09-01 无锡景象数字技术有限公司 一种由平面视频制作3d视频的方法
JP5268796B2 (ja) * 2009-06-22 2013-08-21 日本放送協会 移動物体領域検出装置及び移動物体領域検出プログラム
JP2011022762A (ja) 2009-07-15 2011-02-03 Hitachi Ltd 画像信号処理装置
JP2011085686A (ja) * 2009-10-14 2011-04-28 Hara Seisakusho:Kk 立体表示方法及び装置
CN101777180B (zh) * 2009-12-23 2012-07-04 中国科学院自动化研究所 基于背景建模和能量最小化的复杂背景实时替换方法
JP2011146980A (ja) * 2010-01-15 2011-07-28 Sony Corp 画像処理装置および方法
US20120320986A1 (en) * 2010-02-23 2012-12-20 Nippon Telegraph And Telephone Corporation Motion vector estimation method, multiview video encoding method, multiview video decoding method, motion vector estimation apparatus, multiview video encoding apparatus, multiview video decoding apparatus, motion vector estimation program, multiview video encoding program, and multiview video decoding program
CN101815177B (zh) * 2010-03-11 2011-09-21 广东威创视讯科技股份有限公司 同步显示装置、同步显示方法及叠加拼接显示系统
CN101833791B (zh) * 2010-05-11 2012-04-18 成都索贝数码科技股份有限公司 一种单摄像机下的场景建模方法及系统
CN102109543B (zh) * 2010-12-08 2013-04-17 电子科技大学 一种具有波形图像实时缩放功能的数字三维示波器
KR101818024B1 (ko) * 2011-03-29 2018-01-12 퀄컴 인코포레이티드 각각의 사용자의 시점에 대해 공유된 디지털 인터페이스들의 렌더링을 위한 시스템
CN103135889B (zh) * 2011-12-05 2017-06-23 Lg电子株式会社 移动终端及其3d图像控制方法
JP5812855B2 (ja) 2011-12-27 2015-11-17 株式会社久保田製作所 遠心分離機用バケット、遠心分離機用バケットの製造方法
US10426333B2 (en) * 2012-02-23 2019-10-01 American University Directional illusions based on motion pixels and uses thereof
JP2013179542A (ja) * 2012-02-29 2013-09-09 Nikon Corp 画像処理装置およびプログラム
JP2013186691A (ja) * 2012-03-08 2013-09-19 Casio Comput Co Ltd 画像処理装置及び画像処理方法並びにプログラム
JP6040564B2 (ja) * 2012-05-08 2016-12-07 ソニー株式会社 画像処理装置、投影制御方法及びプログラム
JP6021053B2 (ja) * 2012-05-22 2016-11-02 学校法人東京理科大学 動画視認性定量化装置、動画視認性定量化方法、及びプログラム
JP2014171097A (ja) * 2013-03-04 2014-09-18 Toshiba Corp 符号化装置、符号化方法、復号装置、および、復号方法
US9478004B2 (en) * 2013-04-11 2016-10-25 John Balestrieri Method and system for analog/digital image simplification and stylization
US9292956B2 (en) * 2013-05-03 2016-03-22 Microsoft Technology Licensing, Llc Automated video looping with progressive dynamism
JP6069115B2 (ja) * 2013-06-25 2017-02-01 日本電信電話株式会社 映像生成装置、映像生成方法、プログラム
CN103310422B (zh) * 2013-06-28 2016-08-31 新晨易捷(北京)科技有限公司 获取图像的方法及装置
EP3092603B1 (en) * 2014-01-07 2022-05-11 ML Netherlands C.V. Dynamic updating of composite images
CN110989284A (zh) 2014-04-22 2020-04-10 日本电信电话株式会社 视频呈现装置、视频呈现方法以及程序

Also Published As

Publication number Publication date
US11036123B2 (en) 2021-06-15
JP2020030843A (ja) 2020-02-27
CN110996080A (zh) 2020-04-10
EP3136717A4 (en) 2017-12-13
US20170045813A1 (en) 2017-02-16
CN106233716B (zh) 2019-12-24
US20210247686A1 (en) 2021-08-12
JP2018078660A (ja) 2018-05-17
JP2023101517A (ja) 2023-07-21
CN110989284A (zh) 2020-04-10
JP7283513B2 (ja) 2023-05-30
EP3136717A1 (en) 2017-03-01
JPWO2015163317A1 (ja) 2017-04-20
US20200150521A1 (en) 2020-05-14
CN110996080B (zh) 2021-10-08
JP2022002141A (ja) 2022-01-06
WO2015163317A1 (ja) 2015-10-29
JP6425312B2 (ja) 2018-11-21
CN106233716A (zh) 2016-12-14
EP3637410A1 (en) 2020-04-15
CN110989285A (zh) 2020-04-10
JP6611837B2 (ja) 2019-11-27
US10571794B2 (en) 2020-02-25

Similar Documents

Publication Publication Date Title
JP6965914B2 (ja) 映像生成装置、その方法、プログラム
US9514558B2 (en) Method for preventing selected pixels in a background image from showing through corresponding pixels in a transparency layer
US8237730B1 (en) Tone mapping for motion pictures
US20180144446A1 (en) Image processing apparatus and method
KR20120095059A (ko) 2d 이미지를 3d 입체 이미지로 전환시키는 방법
WO2019198570A1 (ja) 映像生成装置、映像生成方法、プログラム、およびデータ構造
EP2567374B1 (en) A method and device for transforming an image
US11051376B2 (en) Lighting method and system to improve the perspective colour perception of an image observed by a user
JP2018028710A (ja) 映像生成装置、映像生成方法、およびプログラム
JP6457964B2 (ja) 装置、投影装置、表示装置、画像生成装置、それらの方法、およびプログラム
WO2016026650A1 (en) Methods and apparatus for mapping input image
JP6615818B2 (ja) 映像生成装置、映像生成方法、およびプログラム
JP6806040B2 (ja) 画像生成装置、表示システム、及びプログラム
JP6666296B2 (ja) 映像生成装置、その方法、およびプログラム
WO2019208143A1 (ja) 映像生成装置、映像生成方法、およびプログラム
JP5721210B2 (ja) 画像投影装置、画像処理装置、画像処理方法、画像処理プログラム、及び画像データの使用方法
Turk A review of color vision and imaging
US20130076733A1 (en) Image processing apparatus, image processing method, and image processing program
EP1239417A1 (en) Method and device to calculate light sources in a scene and to generate mutual photometric effects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R150 Certificate of patent or registration of utility model

Ref document number: 6965914

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150