JP2006101521A - 入力メディアオブジェクトの視覚的表現を決定する方法、コンピュータプログラム及びデータ処理システム - Google Patents

入力メディアオブジェクトの視覚的表現を決定する方法、コンピュータプログラム及びデータ処理システム Download PDF

Info

Publication number
JP2006101521A
JP2006101521A JP2005278628A JP2005278628A JP2006101521A JP 2006101521 A JP2006101521 A JP 2006101521A JP 2005278628 A JP2005278628 A JP 2005278628A JP 2005278628 A JP2005278628 A JP 2005278628A JP 2006101521 A JP2006101521 A JP 2006101521A
Authority
JP
Japan
Prior art keywords
visual representation
media object
visual
information
acceptable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005278628A
Other languages
English (en)
Inventor
Berna Erol
エロール ベルナ
Jonathan J Hull
ジェー ハル ジョナサン
Jamey Graham
グラハム ジャメイ
Shan Rii Daa
リー ダー・シャン
Peter E Hart
イー ハート ピーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2006101521A publication Critical patent/JP2006101521A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00283Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00283Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus
    • H04N1/00299Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus with a television transmission apparatus, e.g. a videophone, a teletext system or a digital television system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • H04N1/32133Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image on the same paper sheet, e.g. a facsimile page header
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3261Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal
    • H04N2201/3264Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal of sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3261Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal
    • H04N2201/3267Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal of motion picture signals, e.g. video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3269Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of machine readable codes or marks, e.g. bar codes or glyphs
    • H04N2201/327Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of machine readable codes or marks, e.g. bar codes or glyphs which are undetectable to the naked eye, e.g. embedded codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3271Printing or stamping

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】 マルチメディア情報の視覚的表現をデザインする装置を提供すること。
【解決手段】 入力マルチメディアオブジェクトの視覚的表現を決定する反復的なデザインプロセスの技法が使用される。一群のエンコードパラメータに基づいて1以上の視覚的表現が入力メディアオブジェクトから決定される。一群のデコードパラメータに基づいて入力メディアオブジェクトは1以上の視覚的表現から作成される。1以上の視覚的表現及び/又は第2のメディアオブジェクトがユーザに表示されてもよい。1以上の視覚的表現及び/又は第2のメディアオブジェクトが許容可能か否かの指示が受信される。1以上の視覚的表現及び/又は第2のメディアオブジェクトが許容可能でないならば、一群のエンコードパラメータ及び一群のデコードパラメータの少なくとも1つにおける少なくとも1つのパラメータが変更される。1以上の視覚的表現及び第2のメディアオブジェクトが許容可能であると判定されるまで、上記の手順が反復される。
【選択図】 図1

Description

本発明は、一般にマルチメディア情報処理システムに関し、特に入力メディアオブジェクトから決定される視覚的表現をデザイン(設計)する方法及び装置に関する。その視覚的表現は入力メディアオブジェクトを構築するために使用可能である。
コンピュータの急速な成長により、増加する大量の情報は電子的な(又はディジタル的な)書類の形式で保存されつつある。これらの電子書類はマルチメディア情報を含むマルチメディア書類を含む。「マルチメディア情報」なる用語は1種類以上の情報から構成されてもよい情報に言及するために使用される。1つ又は複数の種類(タイプ)は何らかの統合された形式でもよい。例えばマルチメディア情報はテキスト情報、図形情報、動画情報、サウンド(音声)情報、映像情報等の組み合わせを含んでもよい。マルチメディア情報は1以上のメディアオブジェクトより成る情報に言及するためにも使用され、1以上のメディアオブジェクトは異なるタイプの情報を含む。例えばマルチメディア情報に含まれるメディアオブジェクトは、テキスト情報、図形情報、動画情報、サウンド(音声)情報、映像情報等から構成されてもよい。マルチメディアオブジェクトの一例は時間変化する情報を含む映像である。例えばその映像はある期間にわたる一連のキーフレームを含んでもよい。
一般的にはメディアオブジェクトは電子ストレージ(記憶装置)に格納される。そしてユーザ゛がそのメディアオブジェクトに含まれているマルチメディア情報を再生することを希望する場合に、電子ストレージのメディアオブジェクトがアクセスされる。電子ストレージにメディア情報を格納することは便利でないことがしばしばある。例えば電子ストレージにアクセス可能な装置が利用可能でないかもしれない。また、電子ストレージ装置は携帯可能でないかもしれないし、容易に動かせないかもしれない。従って電子ストレージ装置に格納されたメディアオブジェクトにアクセスすることが常に可能であるとは限らない。従ってユーザがメディアオブジェクトを再生する場所は制限されてしまうかもしれない。例えば、メディアオブジェクトがコンピュータのハードドライブに格納されていることに起因して、ユーザは彼又は彼女のデスクトップコンピュータ上でメディアオブジェクトを再生することだけに制約されてしまうかもしれない。
一般的な表示媒体は紙である。例えば紙に写真がしばしば表示されるのは、その高解像度性、取り扱いの容易性、持ち運びやすさ及び何らの電力も消費しないこと等に起因する。マルチメディア情報を紙に表現する1つの試みはマルチメディア情報をフリップブックに印刷することである。フリップブックは連続的な紙面に印刷された様々なマルチメディア情報を含む。従ってユーザがその多数の紙をパラパラとめくると、あたかもマルチメディア情報が再生されたかのようにそれが現れる。
フリップブックは多くの欠点を含む。例えばこれらの本を作成するのに大量の紙が使用される。更にフリップブックをめくることがマルチメディア情報を理解しづらくするかもしれない。更にフリップブックは図形のマルチメディア情報を表現することだけを意図している。従って音声のような情報はフリップブックで表現できない。
入力マルチメディアオブジェクトの視覚的表現を作成する方法は、本願基礎出願と共に出願された“METHOD FOR ENCODING MEDIA OBJECTS TO STILL VISUAL REPRESENTATION”と題する米国特許出願第 号に記載されており、及びマルチメディアオブジェクトを作成するために視覚的表現をデコードする方法は、本願基礎出願と共に出願された“METHOD FOR DECODING AND RECONSTRUCTING MEDIA OBJECTS FROM A STILL VISUAL REPRESENTATION”と題する米国特許出願第 号に記載されている。視覚的表現の作成は多くのパラメータの組み合わせを利用して実行できる。
本発明の課題はマルチメディア情報の視覚的表現をデザインする装置及び方法を提供することである。
概して本発明はメディアオブジェクトの視覚的表現を判定する反復的なデザインプロセスに関連する。
一実施例では入力マルチメディアオブジェクトの視覚的表現を決定する方法が使用される。一群のエンコードパラメータに基づいて1以上の視覚的表現が入力メディアオブジェクトから決定される。一群のデコードパラメータに基づいて入力メディアオブジェクトは1以上の視覚的表現から作成される。1以上の視覚的表現及び/又は第2のメディアオブジェクトがユーザに表示されてもよい。1以上の視覚的表現及び/又は第2のメディアオブジェクトが許容可能か否かの指示が受信される。1以上の視覚的表現及び/又は第2のメディアオブジェクトが許容可能でないならば、一群のエンコードパラメータ及び一群のデコードパラメータの少なくとも1つにおける少なくとも1つのパラメータが変更される。1以上の視覚的表現及び第2のメディアオブジェクトが許容可能であると判定されるまで、上記の手順が反復される。
一実施例では、入力メディアオブジェクトの視覚的表現を決定する方法が使用される。本方法は:(a)一群のエンコードパラメータに基づいて入力メディアオブジェクトから1以上の視覚的表現を決定するステップ;(b)一群のデコードパラメータに基づいて1以上の視覚的表現から出力メディアオブジェクトを生成するステップ;(c)1以上の視覚的表現又は出力メディアオブジェクトが許容可能か否かを示す指示を受信するステップ; (d)1以上の視覚的表現又は出力メディアオブジェクトが許容可能でないことを前記指示が示す場合に、一群のエンコードパラメータ及び一群のデコードパラメータより成る群から選択されたようその少なくとも1つのパラメータを変更するステップ;(e)1以上の視覚的表現又は第2のメディアオブジェクトが許容可能であることを示す指示が受信されるまでステップ(a)−(d)を実行するステップ;を有する。
別の実施例では、入力メディアオブジェクトの第1の視覚的表現及び第2の視覚的表現を決定する方法が使用される。本方法は:(a)第1情報に基づいて入力メディアオブジェクトから第1の視覚的表現を決定するステップ;(b)第2情報に基づいて入力メディアオブジェクトから第2の視覚的表現を決定するステップ;(c)第1及び第2の視覚的表現から出力メディアオブジェクトを生成するステップ;(d)第1の視覚的表現、第2の視覚的表現及び出力メディアオブジェクトより成る群から選択された要素が許容可能か否かを示す指示を受信するステップ;(e)第1の視覚的表現、第2の視覚的表現及び出力メディアオブジェクトより成る群から選択された要素が許容可能でないことを前記指示が示す場合に、第1の視覚的表現、第2の視覚的表現及び出力メディアオブジェクトが許容可能であることを指示が示すまで、新たな第1の視覚的表現、新たな第2の視覚的表現及び新たな出力メディアオブジェクトより成る群から選択された要素を生成するようにステップ(a)−(d)を実行するステップ;を有する。
本願で開示される発明の性質及び利点についての更なる理解は明細書の残りの部分及び添付図面を参照することによってなされるであろう。
本発明の実施例は入力メディアオブジェクトを第1及び第2の視覚的表現にエンコードする方法及び装置を与える。第1及び第2の視覚的表現は以後出力メディアオブジェクトを構築するためにデコードされる。第1及び第2の視覚的表現を決定するインタラクティブデザインプロセスも与えられる。上記のことは、エンコーディング、デコーディング及びインタラクティブデザインプロセスの複数のセクションで説明される。
[エンコーディング]
図1は本発明の一実施例による入力メディアオブジェクトをエンコードするシステム100を示す。図示されるように、エンコーダ102は入力メディアオブジェクトを受信し、第1情報に基づく第1の視覚的表現104及び第2の情報に基づく第2の視覚的表現106を出力する。
第1及び第2情報が図示されているが、いかなる数の情報群が決定されてもよいことは理解されるべきである。以下に説明されるように、第1の視覚的情報104は第1情報から決定され、第2の視覚的情報106は第2情報から決定される。入力メディアオブジェクトから決定されるどのような情報量でもそれからいかなる数の視覚的表現が決定されてもよいことが理解されるべきである。例えば、複数の映像表現が第1情報だけに基づいて作成されてもよいし、1つの映像表現が第1,第2,...,第N情報等に基づいて作成されてもよい。
メディアオブジェクトはいかなる時変情報を含んでもよい。時変情報は時間の経過と共に変わる情報である。例えば時変情報はマルチメディア情報を含んでもよい。マルチメディア情報は映像、イメージ、音声、テキスト、図形、動画情報等を含んでもよい。一例では、メディアオブジェクトは、フレーム形式の又は任意的な形式のビデオ、音声、動画、図形等でもよい映像シーケンスを含んでもよい。当業者は他のメディアオブジェクト例も認識するであろう。
エンコーダ102は入力メディアオブジェクトから第1及び第2情報を判定するよう構築される装置ならどれでもよい。第1及び第2情報が説明されるが、いかなる数の情報が判別されてもよいことは理解されるべきである。例えば第3情報が決定され、以下に説明されるような視覚的表現を形成するために使用されてもよい。一実施例ではエンコーダ102はMPEG−4エンコーダ、フラッシュエンコーダ、MPEG−2エンコーダ、スピーチ−テキスト変換器等に含まれる技術を利用してもよい。
一実施例では、第1情報は入力メディアオブジェクトから決定されるいかなる情報を含んでもよい。第1情報はリファレンス(参照物)として機能する。リファレンスは、出力メディアオブジェクトを作成するために第2情報が適用可能な情報である。例えば第1情報は画像ベースのリファレンス情報でもよい。画像形式のリファレンス情報は入力メディアオブジェクトから判定される静止画像ビットでもよい。例えば画像形式のリファレンス情報は入力メディアオブジェクトから抽出された1以上のキーフレームでもよい。第1情報は音声情報から判定されたテキスト情報でもよい。
一実施例では第1情報はメディアオブジェクトから1つ又は複数のキーフレームを選択することで決定されてもよい。例えば、キーフレームは、動画像アニメーションの第1フレームとして選択されてもよいし、或いはアニメーションをエンコードするのに必要な第2情報(例えば、動きベクトル(motion vector)又は予測誤差)が最小になるように選択されてもよい。
第2情報は入力メディアオブジェクトから決定されるどのような情報でもよい。例えば第2情報は出力メディアオブジェクトを作成するために第1情報に適用される情報でもよい。例えば第2情報はバイナリ又はサイドチャネル情報のような動き情報でもよい。第2情報は、第1情報を用いて出力メディアオブジェクトを構築するのに使用される情報でもよい。例えば動き情報が画像ベースのリファレンス情報を処理するために使用されてもよい。
一実施例では第2情報は何らかの標準的な又は専有的な符号化されたビットストリーム(MPEG−4、フラッシュウインドウズメディア等)に類似するビットストリームを含んでもよい。第2情報はキーフレームをどのように登録するか(その解像度、印刷される大きさ、カラーヒストグラム、背景色、クロマキーカラー等)、動きベクトル、予測誤差、サイド(side)情報、デコーダ情報(例えば、ビットストリームをどのようにデコードするかを説明する情報)、記述子(例えば、MPEG−7その他のプロプラエタリ記述子)、音声、ハイパーリンク等についての情報を含んでもよい。
第1の視覚的表現104は第1情報に基づいて決定される。例えば第1情報がキーフレームである場合に、そのキーフレームは第1の視覚的表現104として使用されるかもしれない。また、視覚的表現を生成するために第1情報が更なるエンコードを必要とするフォーマットである場合には、更なるエンコードが実行される。例えば第1情報がJPEGフォーマットである場合に、その情報は視覚的表現にエンコードされてもよい。第1情報に情報が付加されてもよい。例えば第1の視覚的表現104を特定するのに使用されるマーカーが付されてもよい。
第2の視覚的表現106は第2情報に基づいて決定される。第2の視覚的表現106は第2情報がコンパクトな形式にエンコードされるように決定されてもよい。例えば第2情報はバーコードのような機械読み取り可能な形式にエンコードされてもよい。第2の視覚的表現106はベクトルダイヤグラムのような他の視覚的表現でもよいし、第2情報にデコードされる他の視覚的表現でもよい。
第1及び第2の視覚的表現104,106は表示される場合の静止画像でもよいし、媒体に印刷されてもよい。従って入力メディアオブジェクトの時変情報は静的な画像形式にエンコードされる。静止画像は、時変情報を含む出力メディアオブジェクトを構築するために使用され、以下に詳細に説明される。
一実施例では入力メディアオブジェクトは動画像又はアニメーションでもよい。第1情報はキーフレームでもよく、第2情報はそのキーフレームを処理するために使用される処理情報でもよい。第1の視覚的表現104の具体例は第1情報から決定されたキーフレーム表現を含む。第2の視覚的表現106はバーコードのような処理情報の機械読み取り可能なコンパクトな表現でもよい。
第2の視覚的表現106の情報は第1の視覚的表現104を操作(処理)するために使用される。例えば第2の視覚的表現106はエンコードされた情報を含むバーコードでもよく、その情報はキーフレームの動き、アニメーション及び/又は予測誤差情報のどれでもそれを決定するのに使用される。更に出力メディアオブジェクトの最終的な解像度及び一時的なサンプリングは第2の視覚的表現106にエンコードされてもよい。
別の実施例では入力メディアオブジェクトは音声情報でもよい。第1情報は楽譜ノートの音声情報でもよく、第2情報は楽器の指示のような出力メディアオブジェクトを生成するために第1情報に適用される情報でもよい。第1の視覚的表現104の具体例は音声情報から認識される楽譜ノートの記述でもよい。第2の視覚的表現106の具体例はバーコードでもよい。第1の視覚的表現104は音声情報を生成するのに使用されてもよい。例えば楽譜ノート認識又は光学式文字認識(OCR)を用いて楽譜ノートが捕捉されてもよい。バーコード中の情報は例えばオーディオ情報を再生するのにどの楽器が使用されるべきか、オーディオ情報を再生するキー等を含んでもよい。第2の視覚的表現106は楽譜ノートを演奏するのに使用されるべき楽器の記述でもよい。第1及び第2の視覚的表現104,106は、音楽ノートの音声情報を含む出力メディアオブジェクトを構築するのに使用されてもよい。
更に別の実施例では入力メディアオブジェクトはオブジェクトの映像又はアニメーションでもよい。第1情報はオブジェクトのワイヤフレームの情報でもよい。第2情報は出力メディアオブジェクトを構築するためにワイヤフレームに適用可能なフェースアニメーション(face animation)パラメータでもよい。第1の視覚的表現104は画像の3−Dワイヤフレームでもよい。第2の視覚的表現106はエンコードされたフェースアニメーションパラメータを含むバーコードでもよい。第1の視覚的表現104は統合されたテクスチャマップでもよく、その統合されたテクスチャマップは剥がされる及び平らに重ねられた何者かの皮のように見える特殊画像である。従ってバーコードからデコードされるアニメーション情報は3−Dワイヤフレームを会話する頭部のように動かすために使用される。従って第1及び第2の視覚的表現104,106は会話する頭のメディアオブジェクトを構築するのに使用されてもよい。
別の実施例では入力メディアオブジェクトは動く画像でもよい。第1情報は動かされる画像のキーフレームから細分されたオブジェクトの画像でもよい。第2情報は背景情報、付加的なアニメーション情報等のようなオブジェクトの画像に適用される情報でもよい。第1の視覚的表現104はオブジェクトの画像でもよい。第2の視覚的表現106は、エンコードされた背景情報、付加的なアニメーション情報、テキスト等を含むバーコード表現でもよい。第1及び第2の視覚的表現104,106は出力メディアオブジェクトを作成するのに使用される。
当業者は生成可能な視覚的表現の他の例も認識するであろう。他の具体例は以下で更に詳細に説明される。
図2は視覚的表現を作成する本発明の一実施例による方法の概略フローチャート200を示す。ステップ202では入力メディアオブジェクトがエンコーダ102で受信される。1つのメディアオブジェクトが受信されるように説明されるが、エンコーダ102はメディアオブジェクトをいくつでも受信してよいことが理解されるべきである。一実施例では入力メディアオブジェクトを区別する情報が受信されてもよい。例えばメディアオブジェクトの記憶装置の場所又は識別子がユーザにより指定される。メディアオブジェクトはその後にエンコーダ102で検索され及び受信されてもよい。
ステップ204では第1及び第2情報が入力メディアオブジェクトから決定される。入力メディアオブジェクトは第1情報を決定するために分析されてもよい。例えば上述したように基準フレームがメディアオブジェクトから判定されてもよい。上述したように第2情報は第1情報を処理するのに使用される情報である。
ステップ206では第1の視覚的表現104が第1情報に基づいて作成され、第2の視覚的表現106が第2情報に基づいて作成される。視覚的な表現はいくつでも作成されてよいことが理解されるべきである。例えば視覚的表現は第1情報からいくつでも作成されてよいし、視覚的表現は第2情報からいくつでも作成されてよい。第1及び第2情報の双方から1つの視覚的表現が作成されてもよい。
ステップ208では第1及び第2の視覚的表現104,106が媒体に出力される。一実施例では出力は印刷することでもよいし、格納すること等でもよい。例えば第1及び第2の視覚的表現104,106は紙媒体に印刷されてもよい。第1の視覚的表現104は紙媒体の第1の場所に印刷されてもよいし、第2の視覚的表現106は紙媒体の第2の場所に印刷されてもよい。更に別の実施例では第1及び第2の視覚的表現104,106は電子媒体に格納されてもよい。例えば第1及び第2の視覚的表現104,106はジェイペグ(JPEG)画像として格納されてもよい。当業者は視覚的表現を含むことができる適切な他の例も認識するであろう。
第1及び第2の視覚的表現104,106は出力メディアオブジェクトを構成するのに使用できる。出力メディアオブジェクトはステップ202で受信した入力メディアオブジェクトと実質的に同様でもよい。出力メディアオブジェクトはいくらかの情報損失に起因してステップ202で受信した入力メディアオブジェクトと厳密に同じでなくてもよく、実質的に同様でもよい。例えばキーフレームを表示又は印刷するのに使用されるビット数は出力メディアオブジェクトにて入力メディアオブジェクトより少なくてもよく、その理由はエンコード及びデコードの処理中に情報が失われることに起因する。また、何らかの情報が出力メディアオブジェクトに付加されてもよい。例えばステップ202で受信した入力メディアオブジェクトは音声及び映像を含むが、その視覚的表現から構築される出力メディアオブジェクトは音声、映像及びテキストの情報を含んでもよい。出力メディアオブジェクトを生成するプロセスが以下に更に詳細に説明される。
一実施例では付加的な情報がストレージ装置に格納されてもよい。付加的な情報は出力メディアオブジェクトを作成するのに使用されてもよい。例えば情報は第1及び第2の視覚的表現104,106からデコードされてもよい。この情報は出力メディアオブジェクトを構築するのに十分かもしれない。しかしながら、ストレージ装置の付加的な情報がアクセス可能なら、それが出力メディアオブジェクトを構築するのに使用されてもよい。例えば付加的な情報は解像度情報、テキスト、動きベクトルその他の情報(出力メディアオブジェクトを作成するために第1の視覚的表現104に適用可能な情報)を含んでもよい。付加的な情報は出力メディアオブジェクトを生成するのに必須ではないが品質を改善するのに使用される情報でもよい。例えば付加的な情報は出力メディアオブジェクトの解像度を増やすために使用されてもよい。
図3は視覚的表現を媒体に出力する本発明の一実施例によるシステム300を示す。図示されるようにシステム300はエンコーダ102、第1の視覚的表現104、第2の視覚的表現106、出力装置306及び媒体308を有する。
図示されるように入力メディアオブジェクト309がエンコーダ102で受信される。一実施例では入力メディアオブジェクト309はビデオカメラ311で取得した映像である。一実施例では映像はビデオカメラ311からエンコーダ102にダウンロードされる。図示されるように映像は3つの映像のキーフレーム310−1乃至310−3を含む。
エンコーダ102はメディアオブジェクト309の情報に基づいて第1の視覚的表現104及び第2の視覚的表現106を作成するように構成される。例えばエンコーダ102はキーフレーム画像からの情報として第1情報を決定する。例えば第1情報は第1フレーム310−1からの情報でもよい。
第2情報はメディアオブジェクト309から決定される動き情報でもよい。動き情報は第1のキーフレーム310−1から決定された第1情報を処理するために使用される。
一実施例では第1の視覚的表現104は第1情報に基づいて生成される。例えば第1の視覚的表現104はキーフレーム310−1の画像でもよい。これはリファレンスフレームとして使用される。
第2の視覚的表現106は1以上のバーコード画像でもよい。バーコード画像はエンコードされた動き情報を含んでもよく、その情報は第1の視覚的表現104のリファレンスキーフレーム画像を処理するのに使用されてもよい。
第1の視覚的表現104及び第2の視覚的表現106は出力装置306に送付される。一実施例では出力装置306はプリンタを含む。プリンタは第1の視覚的表現104及び第2の視覚的表現106を紙のような媒体308に印刷するように構成される。他の出力装置306が使用されてもよいことが理解されるべきである。例えば出力装置306は、コンピュータ装置や複写機等でもよく、第1の視覚的表現104及び第2の視覚的表現106からJPEGその他の電子画像を生成するように構成される。
第1の視覚的表現104は媒体308上の第1の場所に位置付けられ、第2の視覚的表現106は媒体308上の第2の場所に位置付けられる。それらは図示されているように位置付けられているが、別の場所にそれらが位置付けられてもよいことは理解されるべきである。例えば第2の視覚的表現302の別の区画が第1の視覚的表現104の隅の付近に設けられてもよい。第1及び第2の視覚的表現104,106を設ける様々な手法が以下に説明される。
第1及び第2の視覚的表現104,106に加えて、付加的な情報312が媒体308に出力されてもよい。図示されるように付加的な情報は絵313及び文字314を含む。付加的な情報312はメディアオブジェクト309から決定されてもよい。別の実施例では付加的な情報312はメディアオブジェクト309からは決定されず、別のソースから加えられてもよい。例えばバースデーカードが第1及び第2の視覚的表現104,106により生成されるべきことを示す情報が受信されてもよい。付加的な情報312を含むバースデーカードのテンプレートが使用され、第1の視覚的表現104及び第2の視覚的表現106がそのテンプレートに付け加えられてもよい。
図4は本発明の一実施例によるエンコードプロセスの概略フローチャートを示す。図示されるようにステップ402では入力メディアオブジェクトの表現が判定され、その表現は第1情報及び第2情報の2つの部分に分解される。一実施例では第1情報は画像形式のリファレンス情報であり、第2情報は2進のサイド情報でもよい。2進のサイド情報は画像形式のリファレンス情報を用いて出力メディアオブジェクトを構築するのに必要とされる情報である。
一実施例では第2情報は画像形式のリファレンス情報を含む。画像形式のリファレンス情報は視覚的表現を構築するのに使用可能であり、更なるエンコードは必要とされない。第1情報はステップ406として記述される印刷ステップに送られる。しかしながら第2情報は2進サイド情報であり、第2のエンコードステップを要する。
ステップ404では第2情報が印刷可能であって機械読み取り可能なフォーマットにエンコードされる。例えば第2情報はバーコードのように印刷可能な形式で良好に表現される2進情報でもよい。2進情報はベクトル図や数値的キャラクタ等のような他の視覚的表現として表されてもよい。一実施例ではステップ404で使用されてもよいエンコーダ102はバーコードエンコーダを含む。
ステップ404の出力は第2情報の印刷可能であって機械読み取り可能なフォーマットである。バーコードは第2情報からその後に作成されてもよい。一実施例ではバーコードは視覚的にコンパクトな形式に表現されるのでそれが使用される。バーコードはバーコードリーダーにより読み取られ、2進のサイド情報に変換される。
ステップ406では第1情報に基づく第1の視覚的表現104及び第2情報に基づく第2の視覚的表現106が印刷される。印刷することが説明されるが、視覚的表現を出力する他の方法が使用されてもよいことが理解されるであろう:例えば映像表現のJPEG画像又はPDF書類が生成されてもよい。
図5は第1及び第2の視覚的表現104,106を生成する本発明の一実施例による方法の概略フローチャート500を示す。図5は構成される入力メディアオブジェクトがフレーム形式の映像である場合のエンコードプロセスを示す。説明される画像圧縮はモーションピクチャーエキスパートグループ−4(MPEG−4)であるが;MPEG−2又は他の任意のフレーム形式のエンコードプロセスのような他のエンコードプロセスが使用されてもよいことが理解されるべきである。
ステップ502では映像クリップが受信され、MPEG−4ビットストリームを生成するために、あるリファレンスフレームでMPEG−4エンコードが実行される。MPEG−4エンコードは映像クリップをMPEG−4ビットストリームにエンコードする。更にリファレンスフレームはその映像クリップから決定される。リファレンスフレームは別の方法で決定されてもよい。例えばリファレンスフレームはユーザにより選択されてもよい。ユーザは映像を見てもよいし、リファレンスフレームとして使用されるべき映像のフレームを選択してもよい。また、映像の最初のフレームが使用されてもよい。更に、エンコードに要する第2情報量(例えば動きベクトルや予測誤差等)が最小になるようにリファレンスフレームが選択されてもよい。例えば出力メディアオブジェクトを生成するために最小の動きが付加されるようにリファレンスフレームが選択されてもよい。選択方法は使用されるエンコード動作(例えばMEPG−2,フラッシュ等)に依存して異なってもよい。
エンコードはリファレンスフレームに対するMPEG−4ビットストリーム及び情報を出力する。リファレンスフレームの情報は後の処理のためにバッファ504に送られる。リファレンスフレームの情報は上述したように第1情報になってもよい。
ステップ506ではリファレンスフレームを表現するビットがMPEG−4ビットストリームに拡張される。リファレンスフレームを表現するビットは以後ステップ508で破棄される。リファレンスフレームを表現するビットのないMPEG−4ビットストリームが「MPEG−4ビットストリーム」として言及される。MPEG−4ビットストリームは上述した第2情報を表現してもよい。リファレンスフレームビットは破棄され、その理由はそれらはリファレンスフレームの視覚的表現からデコードされ、MPEG−4ビットストリームで必要とされないからである。
ステップ510ではMPEG−4ビットストリームのビット数(N)が決定される。ステップ512ではNがあるビット数以下であるか否かが判定される。そのビット数はどのようなビット数でもよく、調整されてもよい。例えばそのビット数はBBITS+HBITSに等しくてもよい。
BBITSはMPEG−4ビットストリームの視覚的表現の中にあるべき望ましいビット数である。視覚的表現中のビット数は第2の視覚的表現106がどの程度多くの情報を含むべきかに依存して制限されてもよい。例えば視覚的表現中のビット数はその視覚的表現のサイズに対応してもよい。すなわち、視覚的表現中のビット数が多くなればなるほど、視覚的表現が大きくなる。視覚的表現の所望のサイズに依存して、BBITSがそれに応じて調整されてもよい。
HBITSはヘッダに必要なビット数である。ヘッダはアプリケーションに固有の情報を含む。例えばヘッダはデコーダで認識される固有の識別子でもよい。ヘッダはMPEG−4ビットストリームに含まれなくてもよいことが認識されるべきである。
NがBBITS+HBITSより小さくないならば、プロセスは反復され、エンコーダの設定が修正されるステップ514に進む。エンコーダの設定はMPEG−4ビットストリームで発見されたビット数を調整するために設定されてもよい。ビット数を調整するために異なるリファレンスフレームが決定されてもよい。例えばそのリファレンスフレームは、それがより多くの情報を含むように及びMPEG−4ビットストリーム中でより少ないビットが要求されるように選択されてもよい。より多くの情報がリファレンスフレームの情報に含まれるならば、ステップ506にて、リファレンスフレームについてより多くの情報が抽出され、MPEG−4ビットストリームから破棄される。以後プロセスは反復し、上述のプロセスが再び実行されるステップ502に進む。
NがBBITS+HBITSの数以下であるならば、プロセスはステップ516に進み、ヘッダ及びMPEG−4ビットストリームは視覚的表現にエンコードされる。一実施例では、ヘッダ及びMPEG−4ビットストリームはバーコード表現にエンコードされてもよい。そして、ステップ516の出力はヘッダ及びMPEG−4ビットストリームの視覚的表現になる。例えばバーコードイメージが出力される。リファレンスフレーム情報のリファレンスフレーム画像もバッファ504から出力される。したがってリファレンスフレーム画像及びバーコード画像が出力される。
MPEG−4ビットストリームが説明されたが、他のエンコードプロセスが使用されてもよいことは理解されるであろう。例えば、キーフレームのモーション/アニメーションを表現するビット数を減らすために、多くの様々なエンコード法及び圧縮アルゴリズムが使用されてもよい。ソースがテレビジョンやホームビデオコンテンツのような通常のビデオならば、そのようなコンテンツに最適なビデオエンコーディング法はMPEG−2、MPEG−4、ウインドウズメディア及びMPEG−4アドバンストビデオコーディング(AVC)でもよい。これらのフォーマットはより少数のビットを生成し、処理されるメディアオブジェクトに依存してバーコードフォーマットでより効率的に表現される。メディアオブジェクトがグリーティングカードやアニメーションのようなコンピュータグラフィックスならば、MPEG−4ビット及びフラッシュを使用するエンコーディング法が第2の視覚的表現104及び第2の視覚的表現106のより効率的な表現を生成する。更に、第1及び第2の視覚的表現104,106を生成するために、コンテンツに依存してメッシュコーディング、オブジェクト及びモデル−ベースコーディング、ウエーブレットベースコーディングの技法が使用されてもよい。
図6は本発明の一実施例による第1の視覚的表現104及び第2の視覚的表現106の様々なレイアウトを示す。図6Aに示されるように、第1の視覚的表現104に関する様々な場所にマーカー600が設けられている。一実施例ではマーカー600は第1の視覚的表現104の1以上の隅(コーナー)に設けられる。
マーカー600を利用して、デコーダは第1の視覚的表現104(の位置)を特定する。例えば媒体308がスキャンされ、第1の視覚的表現400の境界がマーカー600を用いて特定されてもよい。図示されるように3つのマーカー600が第1の視覚的表現104の隅に設けられている。第1の視覚的表現312のエッジ(辺)が互いに90度でつながることが想定されている場合に、それらのマーカーは第1の視覚的表現の境界を特定するために使用可能である。例えば3つのマーカー600を用いて形成される正方形又は長方形の領域が第1の視覚的表現104を含む領域でもよい。
印刷される第1の視覚的表現104のコーナーにマーカー600を設けることで、歪み(skew)や回転のような捕捉画像の空間歪がマーカー600により補正されるかもしれない。例えば紙媒体がスキャナによりスキャンされる場合に、イメージスキャナはある辺に対して歪んでいるかもしれない。第1の視覚的表現の境界300が互いに90度をなることが期待されている場合に、マーカー600を用いると、第1の視覚的表現104の歪みは直される。
第2の視覚的表現106のマーカー602は第2の視覚的表現106の境界を示してもよい。マーカー602は上述したようにして第2の視覚的表現304を判別するために使用されてもよい。図示されるように第2の視覚的表現106はセクション304−1,304−2及び304−3に区分けされる。各セクション304はマーカー602を含んでもよい。従って各セクションは個々に判定されてもよい。各セクション304がデコードされると、デコードされた情報は第1の視覚的表現104と共に出力メディアオブジェクトを構築する際に使用されてもよい。
図6Bでは第1の視覚的表現104を縁取るクロマキーカラーが媒体308に出力される。例えばデコーダは第1及び第2の視覚的表現104,106がクロマキーカラーで縁取られることを判定する。媒体308は区分けされ、第1の視覚的表現104はそれが所定の寸法を有する長方形であることに基づいて判定されてもよい。また、第2の視覚的表現106はその形状及び寸法に基づいて決定されてもよい。
また、第1の視覚的表現104はクロマキーカラーを第2の視覚的表現106にエンコードすることで決定されてもよい。バーコードリーダーは第2の視覚的表現106を認識してもよい。クロマキーカラーはバーコードからデコードされた情報により決定されてもよい。デコーダはクロマキーカラーで囲まれるイメージを決定することで媒体302上のイメージを特定することができる。第1の視覚的表現104が長方形形状であることが想定されていたならば、区分け後にスペース歪が補償されてもよい。例えば判別された画像が四角形でないならば、その画像を長方形で被覆することで歪が補正されてもよい。
図6Cでは第2の視覚的表現106の部分は第1の視覚的表現104が特定されるように所定の位置に設けられる。例えば第2の視覚的表現106の様々なセクションが第1の視覚的表現104のコーナー(例えば4隅のうちの3つ)に設けられる。第1の視覚的表現104を特定するためにデコーダは第2の視覚的表現106のセクションを使用してもよい。例えばそのセクションは第1の視覚的表現104を縁取る四角形を示してもよい。
第2の視覚的表現106の各部分及び第1の視覚的表現104の間の関係についての情報は第2の視覚的表現106の中にエンコードされてもよい。従って第1の視覚的表現104の正確な場所は第2の視覚的表現106のエンコードされた情報に基づいて算出されてもよい。例えば第1の視覚的表現104の何らかの座標が第2の視覚的表現106の中にエンコードされてもよい。
キーフレームのカラー補正も第2の視覚的表現106の中の第1の視覚的表現に関するカラー情報(例えば平均カラーやカラーヒストグラム)をエンコードすることで行うことができ、その情報は第1の視覚的表現104の色を補正するために使用されてもよい。
[デコーディング]
図7は出力メディアオブジェクトを作成する本発明の一実施例によるシステム700を示す図である。図示されるようにデコーダ702は第1の視覚的表現104及び第2の視覚的表現106を受信し、出力メディアオブジェクトを出力する。第1の視覚的表現104及び第2の視覚的表現106が示されているが、視覚的表現はいくつでもデコーダで受信されてよいことが理解されるべきである。また、メディアオブジェクトはいくつでもデコーダから出力されてよい。
第1の視覚的表現104及び第2の視覚的表現106は紙や電子媒体のような媒体に出力されてもよい。一実施例では第1の視覚的表現104及び第2の視覚的表現106は静的な画像である。
第1の視覚的表現104は第1情報に基づいて生成される。例えば上述したように第1情報は入力メディアオブジェクトに基づいて決定されてもよい。第1の視覚的表現104を生成する一例は上記のエンコーディングのセクションで説明済みである。
第2の視覚的表現106は第2情報に基づいて生成される。例えば上述したように第2情報は入力メディアオブジェクトに基づいて決定されてもよい。第2の視覚的表現106を生成する一例は上記のエンコーディングのセクションで説明済みである。
一実施例ではデコーダ702は視覚的な表現をデコードして情報を判別するように構築されたいかなる装置でもよい。例えばデコーダ702はMPEG−4でコーダ、フラッシュデコーダ、MPEG−2デコーダ、テキストースピーチ変換器、バーコードデコーダ等で使用される技術を使用してもよい。これらのデコーダのいかなる組み合わせがデコーダ702で使用されてもよいことが理解されるべきである。
デコーダ702は第1及び第2の視覚的表現104,106から出力メディアオブジェクトを構築するように構成される。例えば第1の視覚的表現104は画像ベースのリファレンス情報にデコード可能なリファレンス画像でもよい。第2の視覚的表現106は画像ベースのリファレンス情報に関する処理情報又は動き情報を判別するためにデコードされてもよい。処理情報を用いて出力メディアオブジェクトが生成され、画像ベースリファレンス情報はその処理情報を利用しながら時間と共に処理される。
従って第1及び第2の視覚的表現104,106が受信され、出力メディアオブジェクトがデコーダ702によって構築される。出力メディアオブジェクトはマルチメディア情報のような時変情報を含むいかなるオブジェクトでもよい。例えば出力メディアオブジェクトはテキスト情報、グラフィックス情報、アニメーション情報、サウンド(音声)情報、ビデオ情報等のいかなる組み合わせでもよい。
図8は出力メディアオブジェクトを作成する本発明の一実施例による方法の概略フローチャート800を示す図である。ステップ802では第1及び第2の視覚的表現104,106が捕捉装置から受信される。捕捉装置は第1の視覚的表現104及び第2の視覚的表現106を媒体308から判別する。例えば捕捉装置は媒体308上の第1の視覚的表現104及び第2の視覚的表現106を特定し、それをデコーダ702に送信するように構成され、デコーダは捕捉装置の一部でもよいし或いはそれと別々でもよい。第1及び第2の視覚的表現104,106を特定する技法は以下に説明される。
ステップ804では出力メディアオブジェクトが第1の視覚的表現104及び第2の視覚的表現106に基づいて生成される。一実施例では第1の視覚的表現104は画像ベースのリファレンス情報にデコードされてもよい。第2の視覚的表現106からデコードされた処理情報は画像ベースのリファレンス情報を処理して出力メディアオブジェクトを生成するように使用される。
ステップ806ではステップ804で生成された出力メディアオブジェクトが出力される。例えば出力メディアオブジェクトはセルラ電話、コンピュータ、パーソナルディジタルアシスタント(PDA)、テレビジョン等のような表示装置で表示するように出力されてもよい。また、出力メディアオブジェクトはストレージ装置に格納されてもよい。
従って出力メディアオブジェクトは第1の視覚的表現104及び第2の視覚的表現106から生成されてもよい。一実施例では出力メディアオブジェクトはマルチメディア情報のような時変情報を含む。静的な視覚的表現が、時変情報を含む出力メディアオブジェクトを生成するために使用されてもよい。
図9は出力メディアオブジェクトを作成する本発明の一実施例によるシステムの概略ブロック図を示す。図示されるようにキャプチャーデバイス(捕捉装置)902−1,902−2は第1の視覚的表現104及び第2の視覚的表現106を捕捉する。捕捉装置902−1は第1の視覚的表現104を第1情報デコーダ904に送信し、捕捉装置902−2は第2の視覚的表現106を第2情報デコーダ906に送信する。別々の捕捉装置902−1,902−2が示されているが、捕捉装置902は同じ捕捉装置でもよいし異なる捕捉装置でもよいことが理解されるべきである。
第2情報デコーダ906は第2の視覚的表現106中にエンコードされた第2情報を判別するために第2の視覚的表現106をデコードするように構築される。第2情報デコーダ906は捕捉装置902−2から第2の視覚的表現106を受信するよう構成される。第2の視覚的表現106はその後に分析及びデコードされる。例えば第2の視覚的表現106はエンコードされる第2情報を有するバーコードでもよい。第2情報はバーコードからデコードされる。第2情報は第1情報デコーダ904及びメディアオブジェクトクリエータ908に送られる。
第1情報デコーダ904は第1の視覚的表現104の中にエンコードされている第1情報を判別するように構成される。第1情報デコーダ904は捕捉装置902−1から第1の視覚的表現104を及び第2情報デコーダ906から第2の情報を受信する。例えば第1情報デコーダ904は、第1の視覚的表現104に基づくイメージベースリファレンス情報、及び第2情報デコーダ906から受信された第2情報中で見出された情報を判定する。一実施例では第1の視覚的表現104はキーフレームの画像でもよい。第2の情報は画像の特徴を調整するのに使用されてもよい。例えば第2の視覚的表現106は縁の切断、スケール変更、歪補正等を行ってもよい。
メディアオブジェクトクリエータ908は出力メディアオブジェクトを生成するよう構成される。メディアオブジェクトクリエータ908は第1情報及び第2情報を受信する。第2情報は出力メディアオブジェクトを生成するために第1情報に適用される。例えば処理情報は出力メディアオブジェクトを生成するために画像ベースのリファレンス情報に適用されてもよい。例えば第1及び第2情報からのビットを利用して完全な動きのあるビデオクリップが作成されてもよい。出力メディアオブジェクトはデコーダ702から出力される。
出力メディアオブジェクトは以後に出力装置で再生されてもよい。例えばビデオは携帯電話やコンピュータ等のようなコンピュータを利用する装置で再生されてもよい。また、出力メディアオブジェクトは後で再生するためにストレージに格納されてもよい。
一実施例では出力メディアオブジェクトはサーバその他のいかなるストレージ装置にもアクセスせずにデコーダ702により作成される。従って出力メディアオブジェクトは紙媒体のような媒体上で見出された第1及び第2の視覚的表現104,106からデコードされた情報を用いて作成される。そして、いかなる付加的な情報も要求せずに出力メディアオブジェクトを生成するために静的な画像が使用されてもよい。
ソースから受信した付加的な情報(第1及び第2の視覚的表現104,106以外)なしに出力メディアオブジェクトが作成されてもよいが、出力メディアオブジェクトを作成するのに付加的な情報が使用されてよいことも理解されるべきである。例えばストレージ装置に格納された情報が使用されてもよい。その情報は可能ならばネットワークを通じてストレージ装置から取得されてもよい。例えばデコーダ702はストレージ装置中の付加的な情報にアクセスすることを試みてもよい。それが可能でない場合に、出力メディアオブジェクトは第1及び第2の視覚的表現104,106から作成されてもよい。付加的な情報にアクセスすることが可能である場合には、その付加的な情報がアクセスされ、それが出力メディアオブジェクトを構築するのに使用されてもよい。
一実施例では第1及び第2の視覚的表現104,106の情報は付加的な情報及び/又は情報の場所が使用されるべきか否かを判定するために使用されてもよい。例えばURLが第2の視覚的表現100中にエンコードされてもよい。付加的な情報がアクセスされ、それがメディアオブジェクトの構築を促すように使用されてもよい。例えばその付加的な情報を用いて解像度が改善されてもよい。付加的な情報を用いて字幕、タイトル、図形等が出力メディアオブジェクトに付加されてもよい。
図10は出力メディアオブジェクトをデコード及び作成する本発明の一実施例による概略フローチャート1000を示す図である。一実施例では出力メディアオブジェクトはフレームベースビデオを含む。
ステップ1002ではバーコード画像(例えば第2の視覚的表現)がデコードされる。バーコードは当該技術分野で周知の方法を用いてデコードされてもよい。一実施例ではデコードされたバーコード画像はヘッダ及びMPEG−4ビットストリームを生成する。ヘッダはアプリケーションに固有の情報を含む。例えばヘッダは固有の識別子を含む。識別子はバーコード画像に関する情報を決定するために使用されてもよい。例えばヘッダはどの種類の情報がエンコードされているか(例えばMP3圧縮の音声、MPEG−4圧縮のビデオ等)を記述してもよい。デコーダはメディアオブジェクトを生成するのに使用するアプリケーションを決定するためのヘッダ情報を有してもよい。MPEG−4ビットストリームはMPEG−4フォーマットに基づくビットストリームを含む。一実施例ではMPEG−4ビットストリームはリファレンスフレーム表現用のビットを含まない(以下に説明される)。MPEG−4フォーマットが説明されるが、MPEG−2やフラッシュ等のようないかなるフォーマットが使用されてもよいことが理解されるべきである。
ステップ1004では有効なヘッダがステップ1002から受信されたか否かが判断される。例えばヘッダは使用するアプリケーションの識別子でもよい。そのアプリケーションがサポートされていなければ、ヘッダは有効でないと判断されてよい。有効なヘッダが受信されなければ、ステップ1006でデコード処理は終了する。有効なヘッダが受信されると、プロセスはステップ1008に進み、MPEG−4ビットストリームヘッダがデコードされる。MPEG−4ビットストリームのヘッダは解像度情報、量子化パラメータ等を含んでもよい。
ステップ1010ではリファレンスフレーム画像(例えば第1の視覚的表現)が受信され、リファレンスフレーム表現が決定される。リファレンスフレーム表現を決定する際に、一実施例では、キーフレームがリファレンスフレーム画像から抽出され、リファレンスフレーム表現を得るために縁取り、スケール変更、歪補正等の処理がなされる。リファレンスフレーム表現を生成するために使用されてもよい解像度情報はMPEG−4ビットストリームから決定されてもよい。解像度情報はリファレンスフレーム画像を縁落とし、寸法変更、歪補正等するために使用される。
ステップ1012ではMPEG−4ベースのデコードが実行される。一実施例ではMPEG−4ベースのデコードはMPEG−4仕様書に基づいて実行される。リファレンスフレーム表現はMPEG−4ビットストリームと共にMPEG−4形式のデコーダで受信される。MPEG−4仕様との1つの違いは、MPEG−4形式のデコーダはリファレンスフレーム表現によるビットを含まないMPEG−4ビットストリームをデコードするよう構築されることである。むしろリファレンスフレーム表現によるビットはデコードされたMPEG−4ビットストリームと組み合わせられる。その組み合わせはフレームベース映像を作成する。MPEG−4ベースデコーダは作成したフレームベース映像を出力する。
映像クリップはその後に出力装置で再生されてもよい。例えばビデオは携帯電話機やコンピュータ等のようなコンピュータ利用装置により再生されてもよい。また、出力メディアオブジェクトは後で再生するためにストレージに格納されてもよい。
図11は媒体308上の第1及び第2の視覚的表現104,106を判定する本発明の一実施例による方法の概略フローチャート1100を示す。ステップ1102では媒体308の画像が捕捉装置により捕捉される。捕捉装置はセルラ電話機、PDA、スキャナ、プリンタ、複写機、カメラ等のような画像を取得することが可能ないかなる装置をも含んでよい。一実施例では画像がスキャナにより捕捉されてもよい。例えば紙媒体308はスキャナにより走査されてもよいし、ディジタルカメラで捕捉されてもよい。PDF、JPEG等のような電子的な画像により表示されるイメージや、イメージファイルが捕捉されてもよい。例えば第1の視覚的表現104及び第2の視覚的表現106を表示する装置の写真が撮られてもよい。また、物理的に媒体をスキャンせずに、電子画像ファイルが捕捉されてもよい。例えば捕捉装置により電子画像ファイルが受信されてもよい。当業者は第1及び第2の視覚的表現104,106を捕捉する他の方法も認識するであろう。
ステップ1104では、第1の視覚的表現104及び第2の視覚的表現106が媒体308の画像上で特定される。例えば、第1の視覚的表現104及び第2の視覚的表現106の1以上のコーナーのような媒体308の所定の場所にマーカーが設けられてもよい。これらのマーカーは捕捉装置により見出され、第2の視覚的表現106又は第1の視覚的表現104の位置を決定するために使用されてもよい。更に第2の視覚的表現106が、第1の視覚的表現104の縁のまわりに見出され、それが第1の視覚的表現104を特定するために使用されてもよい。また、第2の視覚的表現106内の情報は第1の視覚的表現の位置を決定するために使用されてもよい。
第1及び第2の視覚的表現104,106を決定するために寸法が使用されてもよい。例えば捕捉装置は第1及び第2の視覚的表現104,106の近似的な寸法を知っていてもよい。画像の縁が決定されるクロマキーバックグラウンドが含まれてもよい。画像の寸法は第1及び第2の視覚的表現104,106に指定された寸法に適合する画像を決定するように分析されてもよい。
ステップ1106では見出された第1及び第2の視覚的表現104,106がデコーダ702に送信される。
作成される出力メディアオブジェクトの具体例が以下に説明される。図12は本発明の一実施例による出力メディアオブジェクトとしてバーコードにエンコードされた動きを有する印刷されたキーフレームの表現を示す。図示されるように紙媒体1202の画像1201は装置1204によって捕捉されてもよい。例えば装置1204は媒体1202の写真を撮ってもよい。一実施例では装置1204はセルラ電話でもよい;しかしながら、装置1204は紙媒体1202の画像を捕捉することができる他のいかなる装置でもよいことが認識されるべきである。
第1の視覚的表現1206及び第2の視覚的表現1208は媒体1202に出力される。例えば第1の視覚的表現1206及び第2の視覚的表現1208は紙媒体1202に印刷されてもよいし、電子記憶媒体1202に格納されてもよい。付加的な情報1210は媒体1202に出力される。付加的な情報1210はカード用の文字及び絵を含む。
捕捉装置1204は第1の視覚的表現1206及び第2の視覚的表現1208を媒体1202のイメージ1201から決定するように構成される。第1の視覚的表現1206及び第2の視覚的表現1208は上述したプロセスを用いて紙1202上で特定されてもよい。第1の視覚的表現1206及び第2の視覚的表現1208はデコーダ1212に送信される。
デコーダ1212は装置1204に含まれてもよい。デコーダ1212はキーフレーム及びバーコード画像を受信し、その気フレーム及びバーコード画像を用いて出力メディアオブジェクトを生成する。一実施例では完全な動画像クリップを作成するためにバーコードはキーフレームに適用される動き情報を含む。
出力メディアオブジェクトは装置1204のディスプレイ1214に出力される。図示されるように、ディスプレイ1214は出力メディアオブジェクトを再生するように構築されるインターフェースを含む。出力メディアオブジェクトはディスプレイ1214にてある時間にわたって表示される時変情報を含む。例えば音声クリップが装置1204で再生される。
図13は出力メディアオブジェクトを生成するのに使用される本発明の一実施例によるグリーティングカード例を示す。図示されるようにグリーティングカードは媒体1302に示される。一実施例では媒体1302は紙でもよいし、電子的なもの等でもよい。例えばグリーティングカードは紙のカードでもよいし、電子的なカードでもよい。
第1の視覚的表現1304及び第2の視覚的表現1306は媒体1302上に示される。第1の視覚的表現1304及び第2の視覚的表現1306は上述のプロセスを用いて媒体1302上で特定される。それらは出力メディアオブジェクトにデコードされてもよい。一実施例では第1の視覚的表現1304はキーフレームであり、第2の視覚的表現1306はバーコードでもよい。第2の視覚的表現1304は第2情報にデコードされ、第2情報は全体的な動きのベクトル(グローバルモーションベクトル)、テキストメッセージ、フォント、モーション情報等のような処理情報を含む。処理情報は出力メディアオブジェクトを生成するためにキーフレームを処理するために使用されてもよい。
インターフェース1308は出力メディアオブジェクトを再生するように使用されてもよい。例えば映像はある時間にわたる第1の視覚的表現1304に含まれる画像を含み、付加的な情報がその画像に適用される。例えば「今日十分がとても楽しい日でありますように・・・誕生日おめでとうございます」(Hope you have tons of fun today…Happy Birthday)の文字情報及び動いている風船が映像に含まれる。
図14は本発明の一実施例によるクロマキーアプリケーション例におけるエンコーダ102及びデコーダ702の入出力を示す。メディアオブジェクト1402はエンコーダ102で受信される。メディアオブジェクト1402は場面1403の画像とその場面とは別の人の顔の画像1405を含む。
エンコーダ102は第1の視覚的表現1404及び第2の視覚的表現1406を生成するよう構成される。第1の視覚的表現1404は人の顔画像1450であり、場面1403からの情報は第2の視覚的表現1406にエンコードされてもよい。その場面の情報はバックグランド情報、付加情報、テキスト等を含んでもよい。第1の視覚的表現1404及び第2の視覚的表現1406は媒体1408に出力される。例えば第1の視覚的表現1404及び第2の視覚的表現1406は紙媒体1408に印刷されてもよいし、電子ストレージ媒体1406に格納されてもよい。
第1の視覚的表現1404及び第2の視覚的表現1406は捕捉装置によって特定されてもよい。例えば第1及び第2の視覚的表現1404,1406はバックグランドカラーによって縁取りされた画像を分離することで判別されてもよい。第1の視覚的表現1404及び第2の視覚的表現1406は媒体1406上で背景色により区別されてもよい。捕捉装置は第2の視覚的表現106を認識するように構成されてもよい。第2の視覚的表現106の情報は背景色に含まれてもよい。捕捉装置は背景色から第1の視覚的表現102を分ける。
デコーダ702は第1の視覚的表現1404及び第2の視覚的表現1406を受信し、出力メディアオブジェクトを生成するように構成される。第2の視覚的表現1406にエンコードされている情報はリファレンス画像を生成するために第1の視覚的表現1404と共に使用されてもよい。第2の視覚的表現1406からデコードされた他の情報は付加的なアニメーション情報、テキスト等をリファレンス画像に付け加えるように使用されてもよい。
図15は音声情報を含む出力メディアオブジェクトを生成するための本発明の一実施例によるエンコーダ102及びデコーダ702の入出力を示す。入力メディアオブジェクト1502はエンコーダ102により第1の視覚的表現1504及び第2の視覚的表現1506にエンコードされる音声情報である。音声情報はMPEGのような標準的又は専有的な音声フォーマットでもよい。一実施例ではエンコーダ102はスピーチ−テキスト変換器を用いて音声をテキストに変換する。
また、音声情報のパラメータは第2の視覚的表現1506としてエンコードされてもよい。例えばそのパラメータはデコーダ702のシンセサイザのパフォーマンスを増強するように使用されてもよい。更に入力メディアオブジェクト1502からの何らかのテキスト情報が第2の視覚的表現1506にエンコードされてもよい。
図示されるように第1の視覚的表現1504及び第2の視覚的表現1506は紙媒体に印刷されるように媒体1508に出力される。デコードプロセスでは媒体1508のイメージが捕捉され、第1の視覚的表現1504及び第2の視覚的表現1506が媒体1508から決定される。
デコーダ702は第1の視覚的表現1504及び第2の視覚的表現1506を受信し、出力メディアオブジェクトを出力する。一実施例では第1の視覚的表現1504の文字がOCRにより認識され、シンセサイザがその文字を音声情報スピーチに変換する。音声情報は第2の視覚的表現1506にエンコードされた付加的なパラメータを用いて構築されてもよい。例えば音声のピッチやスピード等がそのパラメータを用いて調整されてもよい。従って媒体1508で見出された視覚的表現1504,1506を用いてスピーチが再生されてもよい。
図16は音楽を構成する本発明の一実施例によるエンコーダ102及びデコーダ702の入出力を示す図である。一実施例では音楽音声形式の入力メディアオブジェクト1602がエンコーダ102で受信される。エンコーダ102は第1の視覚的表現1604及び第2の視覚的表現1606を入力メディアオブジェクト1602から生成する。一実施例では第1の視覚的表現1604はメディアオブジェクト1602で再生される音楽音声に対応する楽譜を含む。第2の視覚的表現1606は第1の視覚的表現1604内で発見されたノートをどの楽器が演奏するか(の情報)を含むバーコードでもよい。更に第1の視覚的表現1604で見出されたノートを演奏するのに使用される他のパラメータが、ピッチやキー等のような第2の視覚的表現1606にエンコードされてもよい。図示されるように、第1の視覚的表現1604及び第2の視覚的表現1606は紙媒体に印刷されるように媒体1608に出力される。
デコーディングプロセスでは、第1の視覚的表現1604及び第2の視覚的表現1606が媒体1608から決定される。一実施例では第1の視覚的表現1604で発見された音楽がOCRにより認識される。第2の視覚的表現1606からデコードされた情報は音楽ノートの音を構築するように使用される。例えばシンセサイザは第2の視覚的表現1606からデコードされたパラメータにより指定される楽器を利用して音楽音声を構築する。出力メディアオブジェクト1604は認識された音楽ノートを演奏する楽器の音楽を含む。
図17は本発明の一実施例による合成符号化アプリケーションを示す。図示されるように会話している頭部を含むメディアオブジェクト1702がエンコーダ102で受信される。エンコーダ102は入力メディアオブジェクト1702に基づいて第1の視覚的表現1704及び第2の視覚的表現1706を作成する。一実施例では3−Dワイヤフレーム上に頭部画像をテクスチャマッピングすることで人間の喋っている頭部がエンコードされる。第1の視覚的表現1704として統合テクスチャマッピングが使用され、それは人の肌がめくられて平らに設けられたような特殊画像である。更に顔のアニメーションパラメータのような他の情報が第2の視覚的表現1706にエンコードされてもよい。第1の視覚的表現1704及び第2の視覚的表現1706は紙媒体に印刷されるように媒体1708に含まれてもよい。
デコードプロセスでは第1の視覚的表現1704及び第2の視覚的表現1706は媒体1708から決定される。デコーダ702は第1の視覚的表現1704及び第2の視覚的表現1706を受信し、出力メディアオブジェクト1710を出力する。例えば出力メディアオブジェクト1710は喋っている顔を含んでもよい。
本発明の一実施例による実行されてもよい他のアプリケーションは複合コピー機(Multifunction Copier)で見受けられるアプリケーションのような複合製品(MFP)アプリケーションを含んでもよい。一実施例では一枚の紙がMFPでスキャンされ、サーバやいかなるストレージにアクセスせずに再生アニメーション/ビデオがイネーブルされる。また、一枚の紙がMFPでスキャンされ、与えられたビデオが例えばMPEG、AVIその他の電子媒体(例えばCD)に複製されてもよい。更に、一枚の紙がMFPでスキャンされ、出力メディアオブジェクトが入力メディアオブジェクトより多い又は少ないキーフレームと共に作成されてもよく、その入力メディアオブジェクトは第1の視覚的表現及び第2の視覚的表現を作成するために使用される。
モーションプリンタがイネーブルにされてもよい。入力として映像を受信すること、第1の視覚的表現及び第2の視覚的表現を決定すること、ならびに第1の視覚的表現及び第2の視覚的表現を印刷することが可能なプリンタが使用されてもよい。例えばそのプリンタは入力として映像を取得し、キーフレームのアニメーションに関するリファレンスフレーム及び処理情報を決定し、処理情報をバーコード表現に変換し、リファレンスフレーム及びバーコードを紙に印刷する。リファレンスフレーム及びバーコードは出力メディアオブジェクトを生成するためにデコーダで使用されてもよい。
プロダクトアニメーション/ビデオがイネーブルされてもよい。シンプルなアニメーション/ビデオが製品箱や缶などに印刷可能である。例えば製品箱や缶は第1の視覚的表現及び第2の視覚的表現を含んでもよい。第1及び第2の視覚的表現は出力メディアオブジェクトを生成するのに使用されてもよい。出力メディアオブジェクトは、製品がどのように使用されるべきかを示す或いは賞品を勝ち取ったか否かを示すことが可能なアニメーション/ビデオでもよい。
映像アルバムがイネーブルにされてもよい。印刷されたアルバムは入力メディアオブジェクトの第1の視覚的表現及び第2の視覚的表現を含んでもよい。例えば印刷されたオブジェクトは小さなビデオクリップを生成するのに使用可能なリファレンスイメージ及び処理情報を含んでもよい。ユーザは静的な写真を見る代わりに小さなビデオクリップを生成するようにビデオアルバムを使用してもよい。
別の実施例では写真ブースアプリケーションがイネーブルされてもよい。例えば写真ブースは、ビデオを撮影し、視覚的表現を印刷することができでてもよく、第1の視覚的表現及び第2の視覚的表現を上述の媒体に含んでもよい。出力メディアオブジェクトは以後その視覚的表現から作成されてもよい。
別の実施例ではアプリケーションを与えるキーフレームが提供されてもよい。キーフレーム表現は紙のような媒体に第2の視覚的表現と共に又はそれなしに印刷されてもよい。従って写真ブースはビデオクリップを作成するように使用されてもよい静止画像を出力してもよい。キーフレーム表現は複数のキーフレームを含んでもよい。キーフレームはモーションビデオ内の一連のフレームに関するキーフレームを表現する。キーフレーム表現が捕捉されると、デコーダは出力メディアオブジェクト内でモーション映像のようにキーフレームを抽出し、再サンプリングし、キーフレームを変更する。第2の視覚的表現が包含されていたならば、第2の視覚的表現106に含まれる情報は最終的な解像度やキーフレームの一時的なサンプリングを調整するために使用される。
別の実施例ではスケール変更可能な(スケーラブルな)メッセージが使用される。例えば第2情報は入力メディアオブジェクトから判定されてもよい。一部の第2情報は第2の視覚的表現の形式で媒体に印刷され、一部の第2情報はサーバやストレージ装置からアクセス可能でもよい。デコードの際にサーバやストレージ装置が利用可能でないならば、その媒体から取得される第2の視覚的表現106からデコードされた第2情報が使用されてもよい。付加的な情報がストレージ又はサーバにより利用可能ならば、その情報は出力メディアオブジェクトの供給を促すように使用されてもよい。
以上のように本発明による実施例は出力メディアオブジェクトを構築するために第1の視覚的表現及び第2の視覚的表現を使用する。情報は紙媒体のような媒体に出力され、出力メディアオブジェクトを生成するために使用される。従ってビデオカードやビデオアルバムのようなアイテムが紙に印刷され、電子的に格納され、及び他者に与えられてもよい。そのアイテムに関する視覚的な表現を用いてユーザは出力メディアオブジェクトを構築してもよい。これは紙のような従来の媒体の価値を増進する利点をもたらす。例えばメッセージ付きの紙のカードは知られている。しかし、出力メディアオブジェクトを構築するように紙媒体が使用可能になれば、紙媒体に価値が付加される。また、出力メディアオブジェクトは紙媒体で出力された情報から構築されるので、媒体は携帯可能であって容易に持ち運び可能である。例えば出力メディアオブジェクトを含むコンパクトディスクや電子ストレージ装置をユーザに与えることは実用的でないかもしれない。しかしながら、メディアオブジェクトを生成するのに使用される視覚的表現を含む紙片はユーザに容易に与えられるであろう。
[インタラクティブデザインプロセス]
図18は入力メディアオブジェクトの視覚的表現を決定する本発明の一実施例によるシステム1800を示す。図示のシステム1800は入力メディアオブジェクト310、デザインシステム1804、媒体308及びクライアント1808を含む。
デザインシステム1804はエンコーダ102、デコーダ702及びユーザインターフェース1810を含む。ユーザインターフェース1810はどのグラフィックユーザインターフェースでもよい。ユーザインターフェース1810はクライアント1808にてエンコーダ102及び/又はでコーダ104からの出力をユーザが見えるように表示する。
クライアント1808はユーザインターフェース1810を表示するように構築されるいかなるコンピュータ装置でもよい。ユーザは出力が許容可能か否かを判別し、クライアントからのユーザ入力をデザインシステム1804にそのように送信する。出力が許容可能か否かの判別は自動的に実行されてもよいことが理解されるべきである。例えば解像度やサイズ等のような変数の閾値は、出力が許容可能か否かを判別するために使用されてもよい。出力は、その出力に加える変更が必要ないならば許容可能であり、出力に対する変更が望まれるならば非許容的である。
一実施例ではエンコーダ102は上述したように第1及び第2の視覚的表現104,106を生成するように構築される。ユーザインターフェース1810は第1及び第2の視覚的表現104,106をクライアント1808で表示するように構築される。ユーザは第1及び第2の視覚的表現104,106を見てもよいし、それらが許容可能であるか否かを示すユーザ入力を送信してもよい。
一実施例ではデコーダ702は上述したように視覚的表現から出力メディアオブジェクトを形成してもよい。ユーザインターフェース1810は出力メディアオブジェクトをクライアント1808に表示するように構築される。ユーザは出力メディアオブジェクトを眺め、出力メディアオブジェクトが許容可能か否かを示すユーザ入力を送る。
第1の視覚的表現104、第2の視覚的表現106及び/又は出力メディアオブジェクトの何れかが許容可能でないならば、デザインシステム1804は別の第1の視覚的表現104、別の第2の視覚的表現106及び/又は別の出力メディアオブジェクトを生成するように構築される。第1の視覚的表現104、第2の視覚的表現106及び/又は出力メディアオブジェクトが許容可能になるまでこのプロセスは続く。
図19は本発明の一実施例によるデザインシステム1804の概略ブロック図を示す。エンコーダ102は入力メディアオブジェクトを受信し、第1の視覚的表現104及び第2の視覚的表現106を出力するように構成される。
エンコーダ102は一群のエンコードパラメータに基づいて第1及び第2の視覚的表現104,106を決定する。エンコードパラメータは多数のリファレンスフレーム、バーコードのサイズ、ビデオの継続時間等を含んでもよい。一実施例ではエンコーダ102がエンコーダのエンコードプロセスをシミュレートする。例えば別のエンコードパラメータを用いて、MPEG−4、MEPG−2、フラッシュ等のエンコーダのような別のエンコーダがシミュレートされてもよい。従って第1及び第2の視覚的表現104,106を生成するプロセスは上述したようにエンコーダ102でシミュレートされる。第1及び第2の視覚的表現104,106はバッファ1902、デコーダ702及びユーザインターフェース1810に送られる。
バッファ1902は第1及び第2の視覚的表現104,106を可能などのストレージ媒体でもよい。バッファ1902は第1及び第2の視覚的表現104,106を使用し、それらが許容可能か否かを判別する。それらが許容可能ならばそれらは出力されてもよい。第1及び第2の視覚的表現104,106が許容可能でないならば、それらはバッファ1902からクリアされてもよい。
出力メディアオブジェクトを作成するために、デコーダ702は第1及び第2の視覚的表現104,106を受信し、デコーダは第1及び第2の視覚的表現104,106に基づいて出力メディアオブジェクトを構築するように構成される。一実施例ではデコーダ702は出力メディアオブジェクトを作成する装置をシミュレートするように構築される。例えばデコーダ702は出力メディアオブジェクトを構築するように使用される一群のデコードパラメータを使用してもよい。例えばセルラ電話機、コンピュータ、PDA等のような様々な装置が出力メディアオブジェクトを様々に構成する。分解能やメディアオブジェクトのサイズ等は使用される装置に依存して異なってもよい。従ってデコードパラメータは出力メディアオブジェクトを生成するのに使用されてもよいある種の装置をシミュレートする。デコーダ702は出力メディアオブジェクトをユーザインターフェース1810及びバッファ1902に送る。
反復的なデザインプロセスはエンコード状態及び/又はデコード状態の後に始めてもよい。プロセスがエンコード状態の後に始まる場合に、第1及び第2の視覚的表現104,106はユーザインターフェース1810上でユーザに見せるように表示される。この場合に、第1及び第2の視覚的表現104,106が許容可能か否かを示すようにユーザは要求されてもよい。それらが許容可能ならばプロセスは続き、出力メディアオブジェクトが生成され、インターフェース1810に表示される。その後にユーザは出力メディアオブジェクトが許容可能であるか否かを示してもよい。
第1及び第2の視覚的表現104,106が許容可能でないならば、プロセスは反復し、出力メディアオブジェクトを生成せずに第1及び第2の視覚的表現104,106を再び生成する。従って共用されない第1及び第2の視覚的表現104,106による出力メディアオブジェクトを生成する不要なステップが回避される。
別の実施例では出力メディアオブジェクトが第1及び第2の視覚的表現104,106から作成されるまでデザインプロセスは待機してもよい。
第1及び第2の視覚的表現104,106及び出力メディアオブジェクトはユーザインターフェース1810に表示されてもよい。第1及び第2の視覚的表現104,106及び出力メディアオブジェクトが許容可能であるか否かをユーザが決定してもよい。
ユーザインターフェース1810は第1及び第2の視覚的表現104,106に基づいて第1及び第2の視覚的表現104,106及び出力メディアオブジェクトを表示するように構築される。第1及び第2の視覚的表現104,106及び/又は出力メディアオブジェクトが許容可能か否かの指示がユーザインターフェース1810から受信されてもよい。第1の視覚的表現104、第2の視覚的表現106及びメディアオブジェクトのいかなる組み合わせでもその指示は示してよい。
第1の視覚的表現104、第2の視覚的表現106及びメディアオブジェクトのどの1つでも許容できなかったならば、ユーザインターフェース1810は再びデザインプロセスを実行するためにエンコーダ102及び/又はデコーダ702と通信する。新たなデザインプロセスでは新たなエンコードパラメータがエンコーダ102で使用され、及び/又は新たなデコードパラメータがデコーダ702で使用される。
変更されたどのパラメータでもその指示及び値はインターフェース1810から受信されてもよい。システム1804は別のエンコード及び/又はデコードパラメータを自動的に決定してもよい。上記のプロセスは新たなエンコードパラメータ及び/又は新たなデコードパラメータで再び実行される。そして新たな第1及び第2の視覚的表現104,106及び/又は出力メディアオブジェクトが生成され、上述したようにインターフェース1810を用いて出力される。それらが許容可能ならばデザインプロセスは終了する。そうでなかったならば、新たなエンコードパラメータ及び/又は新たなデコードパラメータと共に上述のプロセスが継続する。
第1及び第2の視覚的表現104,106並びに出力メディアオブジェクトが許容可能ならば、第1及び第2の視覚的表現104,106を出力するためにユーザインターフェース1810はバッファ1902と通信する。そしてデザインプロセスは終了する。
図20は本発明の一実施例によるデザインプロセスを実行する方法の概略フローチャート2000を示す。図示されるようにエンコーダ102は入力メディアオブジェクトを受信し、その入力メディアオブジェクトに基づいて第1及び第2の視覚的表現104,106を出力する。エンコーダ102は第1及び第2の視覚的表現104,106の複製をバッファ1902に送付する。以下に説明されるように、第1及び第2の視覚的表現104,106並びに第1及び第2の視覚的表現104,106から構築された出力メディアオブジェクトが許容可能ならば、第1及び第2の視覚的表現104,106はバッファ1902から出力されてもよい。
ステップ2002では、第1及び第2の視覚的表現104,106が許容可能か否かが判定される。一実施例では第1及び第2の視覚的表現104,106がユーザインターフェース1810に表示されてもよい。ユーザはそれらが許容可能か否かを決定してもよい。第1及び第2の視覚的表現104,106が許容可能か否かを示す入力が受信されてもよい。
別の実施例では第1及び第2の視覚的表現104,106が許容可能か否かをプロセスが自動的に決定してもよい。例えばパラメータ又は閾値が設定され、第1及び第2の視覚的表現104,106が許容可能か否かを判別するように使用されてもよい。閾値は第2の視覚的表現106が所定のサイズのものであることを示してもよい。例えば閾値はバーコードの幅がほんの1インチに過ぎないべきであることを示してもよい。第2の視覚的表現106のバーコードがそのサイズを超えた場合には、ソン第2の視覚的表現106が許容可能でないことが自動的に決定されてもよい。
第1及び第2の視覚的表現104,106が許容可能でないならば、プロセスはステップ2010に進み、新たなエンコードパラメータを用いてエンコードプロセスが再び始まる。新たなエンコードパラメータを用いるプロセスが以下に詳細に説明される。
第1及び第2の視覚的表現104,106が許容可能ならば、プロセスは劣化シミュレータ2004に進む。劣化シミュレータ2004は、(紙媒体308に印刷された場合のように)第1及び第2の視覚的表現104,106が媒体308に出力された後に生じるノイズ及び劣化をシミュレートする。例えばノイズ及び劣化は印刷又はスキャンの後にイメージ上に生じるかもしれない。このノイズ又は劣化はデコードプロセスに影響を与えるかもしれないし、そのデコードプロセスでは第1の視覚的表現104及び第2の視覚的表現106に関して少ないビットがデコードされる。劣化シミュレータ2004は本プロセスで使用されなくてもよいことが理解されるであろう。例えば何らのノイズも劣化も生じないと判断されるかもしれない。
デコーダ702は第1及び第2の視覚的表現104,106を劣化シミュレータ2004から受信し、第1及び第2の視覚的表現104,106に基づいて構築された出力メディアオブジェクトを出力する。デコーダ702は理論的にメディアオブジェクト308を出力するデコーダをシミュレートするよう構築される。
ステップ2006では出力メディアオブジェクトがユーザインターフェース1810に表示される。ユーザは出力メディアオブジェクトを眺めてそれが許容可能か否かを判別する。
ステップ2008では出力メディアオブジェクトが許容可能か否かを示す入力が受信される。出力メディアオブジェクトが許容可能か否かを判定する際に、ユーザは出力メディアオブジェクトを眺め、解像度、スピード、持続時間、ビットレート等のような様々な要因に基づいてそれが許容可能か否かを判定する。
出力メディアオブジェクトが許容可能か否かをプロセスが自動敵意に判別してもよいことが理解されるべきである。例えば出力メディアオブジェクトが許容可能か否かを判定するために閾値又はパラメータが使用されてもよい。解像度又はビットレートが所定の閾値より低い場合には、出力メディアオブジェクトが許容できないことを判定してもよい。この場合には作成された出力メディアオブジェクトをユーザに表示するステップは迂回されてもよい。
出力メディアオブジェクトが許容可能ならば、それが許容可能であることの指示がバッファ1902に送られる。バッファ1902は媒体308に出力可能な第1及び第2の表現104,106を出力する。
メディアオブジェクトが許容可能でないならば、第1及び第2の視覚的表現104,106及び/又は出力メディアオブジェクトを生成するプロセスが再び実行されてもよい。ステップ2010では新たなエンコードパラメータが決定される。例えば持続時間、ビットレート、第2の視覚的表現106のバーコード長等のようなパラメータが決定されてもよい。これらのパラメータはユーザから受信されてもよいし、自動的に決定されてもよい。
また、ステップ2012では新たなデコードパラメータが決定されてもよい。例えばデコードプロセスをシミュレートするのに使用された一群のデコードパラメータが変更されてもよい。ユーザは異なるデコード装置をシミュレートすることを希望するかもしれないので、デコードパラメータは変更されてもよい。例えば第1のデコードパラメータがこのメディアオブジェクトを表現するには不適切であったと判断するかもしれない。
新たなエンコードパラメータが決定された後でそれらはエンコーダ102に適用される。第1及び第2の視覚的表現104,106は入力メディアオブジェクトから生成される。プロセスは2002に続き、第1及び第2の視覚的表現104,106が許容可能か否かが判定される。新たな出力メディアオブジェクトが生成され、ステップ2006でユーザに表示される。新たなデコードパラメータは使用されてもされなくてもよい。例えばユーザはエンコードパラメータを調整し、第1及び第2の視覚的表現104,106を生成する。従って新たな第1及び第2の視覚的表現104,106から作成された新たな出力メディアオブジェクトが同じでコードパラメータを用いているようにどの程度見えるかをユーザは調べたいかもしれない。或いは第1及び第2の視覚的表現104,106から作成された出力メディアオブジェクトを、それらが新たなデコードパラメータを用いて新たなデコーダで現れるように見ることを希望するかもしれない。
ステップ2008では出力メディアオブジェクトが許容可能であるか否かが判定される。第1及び第2の視覚的表現104,106並びに出力メディアオブジェクトが許容可能ならば、新しい第1及び第2の視覚的表現104,106はバッファ1902から出力され、許容可能でなければ、新たなエンコードパラメータ及び/又はデコードパラメータで上述したようなプロセスが続く。
図21は本発明の一実施例によるインタラクティブデザインプロセスを実行する方法の概略フローチャート2100を示す。ステップ2102ではビデオクリップが受信され、そのビデオクリップの1つのリファレンスフレームのMPEG−4エンコードが実行される。リファレンスフレームに加えてMPGE−4ビットストリームが生成される。MPEG−4エンコーディングが説明されているが、他のいかなるエンコードフォーマットが使用されてもよいことは理解されるであろう。例えばMPEG−2エンコードが使用されてもよい。リファレンスフレームは後でデータ処理を行うためにバッファ2104に送られる。
ステップ2106ではリファレンスフレームを表現するMPEG−4ビットストリームからのビットが抽出される。第2の視覚的表現106はリファレンスフレームからのビットなしに生成されるので、リファレンスフレームからのビットは抽出される。リファレンスフレームビットのないビットストリームは「MPEG−4ビットストリーム」と言及される。
MPEG−4ビットストリームはステップ2108で生成され、MPEG−4ビットストリーム及びヘッダのビット数Nが決定される。ヘッダはアプリケーションに固有の情報を与える。例えばヘッダはデコードアプリケーションで認識される識別子を含んでもよい。
ステップ2110では、ビット数NがBBITS+HBITSより小さくなく、それに等しくもないならば、本プロセスは別のエンコード法を求めて反復する。BBITSは第2の視覚的表現106で印刷される望ましいビット数であり、HBITはヘッダに要求されるビット数である。MPEG−4ビットストリームのビット数がBBITS及びHBITより大きいならば、過剰に多いビットがそこにエンコードされるので、第2の視覚的表現106は所望のものより大きいかもしれない。
ステップ2112ではエンコーダの設定が修正される。例えばビデオクリップの持続時間、量子化パラメータ、ビットレート、フレームレート等がエンコードプロセス用に修正される。新たなパラメータはステップ2102のMPEG−4エンコーディングで使用される。MPEG−4ビットストリームのビット数NがBBITS+HBITSより小さくなるまで本プロセスはステップ2106,2108及び2110で説明されるように進行する。
ステップ2114ではMPEG−4ビットストリームのビット数がBBITS+HBITSより小さかった場合に、ヘッダ及びMPEG−4ビットストリームがバーコード表現のような第2の視覚的表現106にエンコードされる。更にリファレンスフレームがバッファ2104から受信される。バーコード表現及びリファレンスフレーム画像はその後に第1の視覚的表現104及び第2の視覚的表現106を生成するために使用される。第1及び第2の視覚的表現104,106はその後にバッファ2115に送られる。
ステップ2116では第1及び第2の視覚的表現104,106が許容可能か否かが判定される。それらが許容可能でないならば、本プロセスはステップ2112に戻り、新たなエンコード設定が決定されてもよい。第1及び第2の視覚的表現が許容可能ならば、ステップ2118で劣化シミュレーションが実行される。
劣化シミュレーションは第1及び第2の視覚的表現104,106と共に実行され、劣化させられた第1及び第2の視覚的表現104,106がMPEG−4デコーダ2120に出力される。MPEG−4デコーダ2120の出力はステップ2122でユーザに再生される出力メディアオブジェクトである。
ステップ2124では出力メディアオブジェクトが許容可能か否かが判定される。例えばその出力メディアオブジェクトが許容可能であるか否かを示すユーザからの入力が受信されてもよい。許容可能ならば本プロセスは進行し、バッファ2115に格納済みの第1及び第2の視覚的表現104,106が出力される。そして本デザインプロセスは終了する。
出力メディアオブジェクトが許容可能でなかったならば、本プロセスはステップ2112に進み、エンコードパラメータが変更されてもよい。ステップ2124では新たなデコードプロセスを実行する際に新たなデコードパラメータが使用されてもよい。本プロセスは新たなエンコード及び/又はデコードのパラメータと共に上述したように進行する。
以上のように本発明の実施例は対話式デザインプロセスを可能にし、そのプロセスでは第1,第2の視覚的表現及び出力メディアオブジェクトが対話式に決定されてもよい。例えば許容可能な第1又は第2の視覚的表現及び/又はメディアオブジェクトがパラメータを変更することで決定されてもよい。従ってユーザは彼/彼女が第1及び第2の視覚的表現から構築される出力メディアオブジェクトをどのように見たいかを決定してもよい。このプロセスはシミュレーションを利用してもよく、その場合にエンコーダ及び/又はデコーダを含む装置が使用されることは必要でないかもしれない。むしろ装置に関するパラメータ群を有するエンコーダ及び/又はデコーダのシミュレーションがエンコード/デコードのプロセスで使用されてもよい。そして、出力メディアオブジェクト及び第1,第2の視覚的表現が異なる装置でどのように見えるかを知るためにパラメータが変更されてもよい。
本デザインプロセスはフォトブース的なアプリケーションに使用可能であり、そこではユーザが入力メディアオブジェクト(例えばユーザが微笑んだりキスを投げたりしている小さなビデオクリップ)を生成し、入力メディアオブジェクトの表現を含むグリーティングカードを得るためにインタラクティブデザインプロセスを使用する。
別のアプリケーションはMFP(複合プリンタ)アプリケーションであり、入力メディアオブジェクトがSDカードのようなメモリカードで与えられ、ユーザはMFPとやり取りをしてメディアオブジェクトの満足な印刷出力を得るものである。別の例はデスクトップPCのユーザを含み、そのユーザはビデオクリップを提示することでグリーティングカードをデザインし、ビデオグリーティングカードのレイアウトや最終的なキャラクタを修正可能にするウエブブラウザデザインツールとやり取りをする。同様な対話がコンビニエンスストアのキオスクで実行可能である。
対話式デザインプロセスの実施例は多くの利点をもたらす。第1,第2の視覚的表現及び第1,第2の視覚的表現による出力メディアオブジェクトを生成することは無損失の(lossless)プロセスではなくてもよく、多くのトレードオフが含まれてもよい。例えばこのプロセスでビデオクリップを表現する場合に、小さな第2の視覚的表現(例えばバーコード)が望ましいならば、ビデオクリップの持続時間は非常に短いことを要する。また、エンコードされるメディアオブジェクトの種別に依存して、最終的な視覚的表現がどのように見えるかに最終的に影響する多くのパラメータが存在するかもしれない。量子化パラメータのようなこれらのパラメータの一部は所与の制約に基づいて自動的に調整されることが可能である。しかしながらリファレンスフレーム数、第2の視覚的表現(例えばバーコード)のサイズ、ビデオの持続時間のような他のパラメータの調整はより主観的なものであり、ユーザとの対話を要する。
図22は本発明の一実施例による処理を実行するのに使用可能なデータ処理システム2200の概略ブロック図である。図22に示されるように、データ処理システム2200は少なくとも1つのプロセッサ2202を有し、プロセッサはバスシステム2204を通じて多数の周辺装置と通信する。これらの周辺装置は、メモリサブシステム2208及びファイルストレージサブシステム2210を有するストレージサブシステム2206、ユーザインターフェース入力装置2212、ユーザインターフェース出力装置2214及びネットワークインターフェースサブシステム2216を有する。入力及び出力装置はユーザがデータ処理システム2202とやり取りすることを可能にする。
ネットワークインターフェースサブシステム2216は他のコンピュータシステム、ネットワーク及びストレージリソースに対するインターフェースを与える。ネットワークはインターネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、無線ネットワーク、イントラネット、プライベート(私的)ネットワーク、パブリック(公的)ネットワーク、交換ネットワーク又は適切な他のいかなる通信ネットワークでも含んでよい。ネットワークインターフェースサブシステム2216は他のソースからデータを受信し、他のソースからデータ処理システム2200へデータを送信するインターフェースとして機能する。ネットワークインターフェースサブシステム2216の例はイーサーネット(登録商標)カード、モデム(電話、衛星、ケーブル、ISDN等)、(非同期)ディジタル加入者回線(DSL)ユニット等を含む。
ユーザインターフェース入力装置2212はキーボード、マウス、トラックボール、タッチパッド又はグラフィクスタブレットのようなポインティングデバイス、スキャナ、バーコードスキャナ、ディスプレイに組み込まれたタッチスクリーン、音声認識システムのような音声入力装置、マイクロフォン、及び他の種類の入力装置を含んでもよい。一般に、「入力装置」なる用語の使用は、情報をデータ処理システム2200に入力する全ての可能な装置及び方法を含むように意図される。
ユーザインターフェース出力装置2214はディスプレイサブシステム、プリンタ、ファクシミリ装置又は非視覚的ディスプレイ(音声出力装置等)を含んでもよい。ディスプレイサブシステムは陰極線管(CRT)、液晶ディスプレイ(LCD)のようなフラットパネル装置又は投影装置(プロジェクタ)でもよい。一般に、「出力装置」なる用語の使用は、データ処理システム2200から情報を出力する全ての可能な種類の装置及び方法を含むように意図される。
ストレージサブシステム2206は本発明の機能を与える基本プログラム及びデータ構造を格納するよう構成される。例えば本発明の一実施例によれば本発明の機能を実行するソフトウエアモジュールがストレージサブシステム2206に格納されてもよい。これらのソフトウエアモジュールはプロセッサ2202により実行されてもよい。ストレージサブシステム2206は本発明で使用されるデータを格納するリポジトリも提供する。ストレージサブシステム2206はメモリサブシステム2208及びファイル/ディスクストレージサブシステム2210から構成されてもよい。
メモリサブシステム2208はいくつかのメモリを含んでもよく、そのメモリはプログラム実行中に命令及びデータを格納するランダムアクセスメモリ(RAM)2218及び所定の命令が格納されるリードオンリメモリ(ROM)2220を含む。ファイルストレージサブシステム2210は、プログラム及びデータファイル用の永続的な(不揮発性の)ストレージを提供し、ハードディスクドライブ、取り外し可能な媒体に関連するフロッピディスクドライブ、コンパクトディスクリードオンリメモリ(CD−ROM)ドライブ、光装置、取り外し可能なカートリッジ及び他のストレージ媒体を含んでもよい。
バスサブシステム2204はデータ処理システム2202の様々な要素及びサブシステムが意図されるように互いに通信させる機構を与える。バスサブシステム2204は一本のバスのように概略的に示されているが、他の実施例のバスサブシステムは複数のバスを使用してもよい。
データ処理システム2200はパーソナルコンピュータ、ポータブルコンピュータ、ワークステーション、ネットワークコンピュータ、メインフレーム、キオスク又は他のいかなるデータ処理システムをも含む異なる種類のものにすることができる。コンピュータ及びネットワークの日進月歩する性質に起因して、図22に示されるデータ処理システム2200の説明はコンピュータシステムの好適実施例を示す目的に関する単なる具体例であることが意図される。図22に示されるシステムより多くの又はより少ない要素を含む他の多くの構成例が可能である。
本発明はソフトウエア、ハードウエア又はその組み合わせにおける制御論理の形式で実現可能である。本願の開示及び教示の内容に基づいて、当業者は本発明を実現する他の手法及び/又は方法を認識するであろう。
上記の説明は例示的であり、制限的ではない。本発明の多くの変形例は本開示内容を参照することによって当業者に明白になるであろう。従って本発明の範囲は実施例を参照することによって決定されるものではなく、本発明の全範囲又は均等物と共に添付の特許請求の範囲を参照することで決定されるべきである。
本発明の一実施例による入力メディアオブジェクトをエンコードするシステムを示す図である。 視覚的表現を作成する本発明の一実施例による方法の概略フローチャートを示す図である。 視覚的表現を媒体に出力する本発明の一実施例によるシステムを示す図である。 本発明の一実施例によるエンコードプロセスの概略フローチャートを示す図である。 第1及び第2の視覚的表現を生成する本発明の一実施例による方法の概略フローチャートを示す図である。 本発明の一実施例による第1の視覚的表現及び第2の視覚的表現の様々なレイアウトを示す図である。 出力メディアオブジェクトを作成する本発明の一実施例によるシステムを示す図である。 出力メディアオブジェクトを作成する本発明の一実施例による方法の概略フローチャートを示す図である。 出力メディアオブジェクトを作成する本発明の一実施例によるシステムの概略ブロック図である。 出力メディアオブジェクトをデコード及び作成する本発明の一実施例による概略フローチャートを示す図である。 媒体上で発見された第1及び第2の視覚的表現を判定する本発明の一実施例による方法の概略フローチャートを示す図である。 本発明の一実施例による出力メディアオブジェクトとしてバーコードにエンコードされた動きを有する印刷されたキーフレームの表現を示す図である。 出力メディアオブジェクトを生成するのに使用される本発明の一実施例によるグリーティングカード例を示す図である。 本発明の一実施例によるクロマキーアプリケーション例におけるエンコーダ及びデコーダの入出力を示す図である。 音声情報を含む出力メディアオブジェクトを生成するための本発明の一実施例によるエンコーダ及びデコーダの入出力を示す図である。 音楽を構成する本発明の一実施例によるエンコーダ及びデコーダの入出力を示す図である。 本発明の一実施例による合成符号化アプリケーションを示す図である。 入力メディアオブジェクトの視覚的表現を決定する本発明の一実施例によるシステムを示す図である。 本発明の一実施例によるデザインシステムの概略ブロック図である。 本発明の一実施例によるデザインプロセスを実行する方法の概略フローチャートを示す図である。 本発明の一実施例によるインタラクティブデザインプロセスを実行する方法の概略フローチャートを示す図である。 本発明の一実施例による処理を実行するのに使用可能なデータ処理システムの概略ブロック図である。
符号の説明
102 エンコーダ
104 第1の視覚的表現
106 第2の視覚的表現
300 システム
306 出力装置
308 媒体
310 キーフレーム
311 ビデオカメラ
312 付加的な情報
313 絵
314 文字
600,602 マーカー
702 デコーダ
902 捕捉装置
906 第2情報デコーダ
908 メディアオブジェクト生成部
1201 画像
1202 紙媒体
1204 装置
1206 第1の視覚的表現
1208 第2の視覚的表現
1210 付加的な情報
1212 デコーダ
1214 ディスプレイ
1302 媒体
1304 第1の視覚的表現
1306 第2の視覚的表現
1308 インターフェース
1402 メディアオブジェクト
1403 場面
1405 人の顔の画像
1406 電子的格納媒体
1408 紙媒体
1502 入力メディアオブジェクト
1504 第1の視覚的表現
1506 第2の視覚的表現
1508 媒体
1604 第1の視覚的表現
1606 第2の視覚的表現
1608 媒体
1702 入力メディアオブジェクト
1704 第1の視覚的表現
1706 第2の視覚的表現
1708 媒体
1710 出力メディアオブジェクト
1800 システム
1804 デザインシステム
1808 クライアント
1810 ユーザインターフェース
1902 バッファ
2200 データ処理システム
2202 プロセッサ
2204 バスシステム
2206 ネットワークインターフェース
2208 メモリサブシステム
2210 ファイルストレージサブシステム
2212 ユーザインターフェース入力装置
2214 ユーザインターフェース出力装置
2218 RAM
2220 ROM

Claims (19)

  1. 入力メディアオブジェクトの視覚的表現を決定する方法であって、
    (a)一群のエンコードパラメータに基づいて入力メディアオブジェクトから1以上の視覚的表現を決定するステップと、
    (b)一群のデコードパラメータに基づいて1以上の視覚的表現から出力メディアオブジェクトを生成するステップと、
    (c)1以上の視覚的表現又は出力メディアオブジェクトが許容可能か否かを示す指示を受信するステップと、
    (d)1以上の視覚的表現又は出力メディアオブジェクトが許容可能でないことを前記指示が示す場合に、一群のエンコードパラメータ及び一群のデコードパラメータより成る群から選択された要素の少なくとも1つのパラメータを変更するステップと、
    (e)1以上の視覚的表現又は出力メディアオブジェクトが許容可能であることを示す指示が受信されるまでステップ(a)−(d)を実行するステップと、
    を有することを特徴とする方法。
  2. 1以上の視覚的表現をバッファリングするステップと、
    バッファリングされた1以上の視覚的表現を、それらが許容可能であることを入力が示す場合に出力するステップと、
    を更に有することを特徴とする請求項1記載の方法。
  3. 指示を受信するステップが、1以上の視覚的表現又は出力メディアオブジェクトが許容可能か否かを自動的に判定するステップより成る
    ことを特徴とする請求項1記載の方法。
  4. 入力メディアオブジェクトの第1の視覚的表現及び第2の視覚的表現を決定する方法であって、
    (a)第1情報に基づいて入力メディアオブジェクトから第1の視覚的表現を決定するステップと、
    (b)第2情報に基づいて入力メディアオブジェクトから第2の視覚的表現を決定するステップと、
    (c)第1及び第2の視覚的表現から出力メディアオブジェクトを生成するステップと、
    (d)第1の視覚的表現、第2の視覚的表現及び出力メディアオブジェクトより成る群から選択された要素が許容可能か否かを示す指示を受信するステップと、
    (e)第1の視覚的表現、第2の視覚的表現及び出力メディアオブジェクトより成る群から選択された要素が許容可能でないことを前記指示が示す場合に、第1の視覚的表現、第2の視覚的表現及び出力メディアオブジェクトが許容可能であることを指示が示すまで、新たな第1の視覚的表現、新たな第2の視覚的表現及び新たな出力メディアオブジェクトより成る群から選択された要素を生成するようにステップ(a)−(d)を実行するステップと、
    を有することを特徴とする方法。
  5. 第1の視覚的表現を決定するステップ及び第2の視覚的表現を決定するステップが、エンコードパラメータを用いて1以上の視覚的表現の生成をシミュレートするステップより成る
    ことを特徴とする請求項4記載の方法。
  6. 第1及び第2の視覚的表現をバッファリングするステップと、
    バッファリングされた第1及び第2の視覚的表現を、それらが許容可能であることを入力が示す場合に出力するステップと、
    を更に有することを特徴とする請求項4記載の方法。
  7. 指示を受信するステップが、第1及び第2の視覚的表現又は出力メディアオブジェクトが許容可能か否かを自動的に判定するステップより成る
    ことを特徴とする請求項4記載の方法。
  8. 入力メディアオブジェクトの視覚的表現を決定させるコンピュータ読み取り可能な媒体に記憶されたコンピュータプログラムであって、
    (a)一群のエンコードパラメータに基づいて入力メディアオブジェクトから1以上の視覚的表現を決定させるコードと、
    (b)一群のデコードパラメータに基づいて1以上の視覚的表現から出力メディアオブジェクトを生成させるコードと、
    (c)1以上の視覚的表現又は出力メディアオブジェクトが許容可能か否かを示す指示を受信させるコードと、
    (d)1以上の視覚的表現又は出力メディアオブジェクトが許容可能でないことを前記指示が示す場合に、一群のエンコードパラメータ及び一群のデコードパラメータより成る群から選択されたようその少なくとも1つのパラメータを変更させるコードと、
    (e)1以上の視覚的表現又は出力メディアオブジェクトが許容可能であることを示す指示が受信されるまで(a)−(d)の動作を実行させるコードと、
    を有することを特徴とするコンピュータプログラム。
  9. 1以上の視覚的表現をバッファリングさせるコードと、
    バッファリングされた1以上の視覚的表現を、それらが許容可能であることを入力が示す場合に出力させるコードと、
    を更に有することを特徴とする請求項8記載のコンピュータプログラム。
  10. 指示を受信させるコードが、1以上の視覚的表現又は出力メディアオブジェクトが許容可能か否かを自動的に判定させるコードより成る
    ことを特徴とする請求項8記載のコンピュータプログラム。
  11. 入力メディアオブジェクトの第1の視覚的表現及び第2の視覚的表現を決定させるコンピュータ読み取り可能な媒体に格納されたコンピュータプログラムであって、
    (a)第1情報に基づいて入力メディアオブジェクトから第1の視覚的表現を決定させるコードと、
    (b)第2情報に基づいて入力メディアオブジェクトから第2の視覚的表現を決定させるコードと、
    (c)第1及び第2の視覚的表現から出力メディアオブジェクトを生成させるコードと、
    (d)第1の視覚的表現、第2の視覚的表現及び出力メディアオブジェクトより成る群から選択された要素が許容可能か否かを示す指示を受信させるコードと、
    (e)第1の視覚的表現、第2の視覚的表現及び出力メディアオブジェクトより成る群から選択された要素が許容可能でないことを前記指示が示す場合に、第1の視覚的表現、第2の視覚的表現及び出力メディアオブジェクトが許容可能であることを指示が示すまで、新たな第1の視覚的表現、新たな第2の視覚的表現及び新たな出力メディアオブジェクトより成る群から選択された要素を生成するように(a)−(d)の動作を実行させるコードと、
    を有することを特徴とするコンピュータプログラム。
  12. 第1及び第2の視覚的表現をバッファリングさせるコードと、
    バッファリングされた第1及び第2の視覚的表現を、それらが許容可能であることを入力が示す場合に出力させるコードと、
    を更に有することを特徴とする請求項11記載のコンピュータプログラム。
  13. 指示を受信させるコードが、第1及び第2の視覚的表現又は出力メディアオブジェクトが許容可能か否かを自動的に判定させるコードより成る
    ことを特徴とする請求項11記載のコンピュータプログラム。
  14. 入力メディアオブジェクトの視覚的表現を決定するデータ処理システムであって、
    (a)一群のエンコードパラメータに基づいて入力メディアオブジェクトから1以上の視覚的表現を決定する手段と、
    (b)一群のデコードパラメータに基づいて1以上の視覚的表現から出力メディアオブジェクトを生成する手段と、
    (c)1以上の視覚的表現又は出力メディアオブジェクトが許容可能か否かを示す指示を受信する手段と、
    (d)1以上の視覚的表現又は出力メディアオブジェクトが許容可能でないことを前記指示が示す場合に、一群のエンコードパラメータ及び一群のデコードパラメータより成る群から選択されたようその少なくとも1つのパラメータを変更する手段と、
    を有し、1以上の視覚的表現又は出力メディアオブジェクトが許容可能であることを示す指示が受信されるまで動作(a)−(d)が実行され、当該データ処理システムが実行するように指示する複数の命令を格納するメモリを含むことを特徴とするデータ処理システム。
  15. 1以上の視覚的表現をバッファリングさせ、
    バッファリングされた1以上の視覚的表現を、それらが許容可能であることを入力が示す場合に出力させる
    ように指示する命令がメモリに含まれることを特徴とする請求項14記載のデータ処理システム。
  16. 指示の受信が、1以上の視覚的表現又は出力メディアオブジェクトが許容可能か否かを自動的に判定することでなされる
    ことを特徴とする請求項14記載のデータ処理システム。
  17. 入力メディアオブジェクトの第1の視覚的表現及び第2の視覚的表現を決定するデータ処理システムであって、
    (a)第1情報に基づいて入力メディアオブジェクトから第1の視覚的表現を決定する手段と、
    (b)第2情報に基づいて入力メディアオブジェクトから第2の視覚的表現を決定する手段と、
    (c)第1及び第2の視覚的表現から出力メディアオブジェクトを生成する手段と、
    (d)第1の視覚的表現、第2の視覚的表現及び出力メディアオブジェクトより成る群から選択された要素が許容可能か否かを示す指示を受信する手段と、
    を有し、第1の視覚的表現、第2の視覚的表現及び出力メディアオブジェクトより成る群から選択された要素が許容可能でないことを前記指示が示す場合に、第1の視覚的表現、第2の視覚的表現及び出力メディアオブジェクトが許容可能であることを指示が示すまで、新たな第1の視覚的表現、新たな第2の視覚的表現及び新たな出力メディアオブジェクトより成る群から選択された要素を生成するように(a)−(d)の動作が実行され、
    当該データ処理システムが実行するように指示する複数の命令を格納するメモリを有することを特徴とするデータ処理システム。
  18. 第1及び第2の視覚的表現をバッファリングさせ、
    バッファリングされた第1及び第2の視覚的表現を、それらが許容可能であることを入力が示す場合に出力させる
    ように指示する命令がメモリに含まれることを特徴とする請求項17記載のデータ処理システム。
  19. 指示の受信が、第1及び第2の視覚的表現又は出力メディアオブジェクトが許容可能か否かを自動的に判定することでなされる
    ことを特徴とする請求項17記載のデータ処理システム。
JP2005278628A 2004-09-28 2005-09-26 入力メディアオブジェクトの視覚的表現を決定する方法、コンピュータプログラム及びデータ処理システム Pending JP2006101521A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/952,606 US7774705B2 (en) 2004-09-28 2004-09-28 Interactive design process for creating stand-alone visual representations for media objects

Publications (1)

Publication Number Publication Date
JP2006101521A true JP2006101521A (ja) 2006-04-13

Family

ID=35385777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005278628A Pending JP2006101521A (ja) 2004-09-28 2005-09-26 入力メディアオブジェクトの視覚的表現を決定する方法、コンピュータプログラム及びデータ処理システム

Country Status (3)

Country Link
US (1) US7774705B2 (ja)
EP (1) EP1641275B1 (ja)
JP (1) JP2006101521A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010507273A (ja) * 2006-10-13 2010-03-04 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 印刷走査チャンネルを通じて処理されたディジタル画像を再構成するための補助情報
JP2012234577A (ja) * 2006-12-20 2012-11-29 Eastman Kodak Co 複数の出力生成物の自動化された生成

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8549400B2 (en) * 2004-09-28 2013-10-01 Ricoh Company, Ltd. Techniques for encoding media objects to a static visual representation
US7725825B2 (en) * 2004-09-28 2010-05-25 Ricoh Company, Ltd. Techniques for decoding and reconstructing media objects from a still visual representation
US20060112080A1 (en) * 2004-11-23 2006-05-25 Flipclips, Inc. Converting digital video into a printed format
KR100719776B1 (ko) * 2005-02-25 2007-05-18 에이디정보통신 주식회사 휴대형 코드인식 음성 합성출력장치
US20100306318A1 (en) * 2006-09-28 2010-12-02 Sfgt Inc. Apparatuses, methods, and systems for a graphical code-serving interface
US8069168B2 (en) * 2006-09-28 2011-11-29 Augme Technologies, Inc. Apparatuses, methods and systems for information querying and serving in a virtual world based on profiles
US20080126095A1 (en) * 2006-10-27 2008-05-29 Gil Sideman System and method for adding functionality to a user interface playback environment
US7740281B2 (en) * 2007-01-31 2010-06-22 The Ergonomic Group Method and system for producing certified documents and the like
US20090121471A1 (en) 2007-01-31 2009-05-14 Gaffney Gene F Method and system for producing documents, websites, and the like having security features
US20080231040A1 (en) * 2007-03-19 2008-09-25 Gaffney Gene F Security document with fade-way portion
US8496177B2 (en) 2007-06-28 2013-07-30 Hand Held Products, Inc. Bar code reading terminal with video capturing mode
US8424751B2 (en) * 2010-08-12 2013-04-23 Fuji Xerox Co., Ltd. Embedded media barcode links and systems and methods for generating and using them
EP2702546B1 (en) 2011-04-29 2021-03-03 American Greetings Corporation Systems, methods and apparatuses for creating, editing, distributing and viewing electronic greeting cards
US8823807B2 (en) * 2011-12-09 2014-09-02 Robert Schinker Methods and apparatus for enhanced reality messaging
US10593007B1 (en) * 2015-06-11 2020-03-17 Digimarc Corporation Methods and arrangements for configuring industrial inspection systems
US9922220B2 (en) * 2015-06-11 2018-03-20 Digimarc Corporation Image block selection for efficient time-limited decoding
CN111492424A (zh) * 2018-10-19 2020-08-04 索尼公司 信息处理设备、信息处理方法以及信息处理程序
RU2710278C1 (ru) * 2019-06-14 2019-12-25 Государственное бюджетное учреждение города Москвы "Научно-исследовательский институт организации здравоохранения и медицинского менеджмента Департамента здравоохранения города Москвы" (ГБУ "НИИОЗММ ДЗМ") Информационно-аналитическая система общественного здоровья
US11961317B2 (en) * 2021-11-24 2024-04-16 Oracle Financial Services Software Limited Extracting textual information from image documents

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348127A (ja) * 1999-06-03 2000-12-15 Fujitsu Ltd 印刷情報処理システム
JP2001096837A (ja) * 1999-07-29 2001-04-10 Olympus Optical Co Ltd 画像記録方法、画像記録装置、及び記録媒体
JP2003125361A (ja) * 2001-10-12 2003-04-25 Sony Corp 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0996083B1 (en) * 1992-09-28 2003-03-26 Olympus Optical Co., Ltd. Information reproducing system for optically reading a dot code from a recording medium
DE69331456T2 (de) 1992-10-09 2002-11-07 Matsushita Electric Ind Co Ltd Überprüfbare optische Zeichenerkennung
US5748807A (en) 1992-10-09 1998-05-05 Panasonic Technologies, Inc. Method and means for enhancing optical character recognition of printed documents
US5485554A (en) * 1993-10-29 1996-01-16 Hewlett-Packard Company Method and apparatus for processing an image in a video printing apparatus
US7076102B2 (en) 2001-09-27 2006-07-11 Koninklijke Philips Electronics N.V. Video monitoring system employing hierarchical hidden markov model (HMM) event learning and classification
US6006241A (en) 1997-03-14 1999-12-21 Microsoft Corporation Production of a video stream with synchronized annotations over a computer network
US6102505A (en) 1997-12-18 2000-08-15 Eastman Kodak Company Recording audio and electronic images
WO2001019082A1 (en) * 1999-09-07 2001-03-15 Media 100, Inc. Converting non-temporal based compressed image data to temporal based compressed image data
KR100317303B1 (ko) 2000-01-10 2001-12-22 구자홍 방송 프로그램 녹화 및 재생시 a/v와 데이터간 동기화장치
EP1231794A1 (en) * 2001-02-09 2002-08-14 STMicroelectronics S.r.l. A process for changing the resolution of MPEG bitstreams, a system and a computer program product therefor
US20020135808A1 (en) 2001-03-22 2002-09-26 Parry Travis J. Method and apparatus for printing video data
US7861169B2 (en) 2001-11-19 2010-12-28 Ricoh Co. Ltd. Multimedia print driver dialog interfaces
US6789123B2 (en) * 2001-12-28 2004-09-07 Microsoft Corporation System and method for delivery of dynamically scalable audio/video content over a network
US6988245B2 (en) 2002-06-18 2006-01-17 Koninklijke Philips Electronics N.V. System and method for providing videomarks for a video program
JP4113387B2 (ja) 2002-07-24 2008-07-09 シャープ株式会社 携帯端末装置並びに情報読取プログラム及びそのプログラムを記録した記録媒体
US6641053B1 (en) 2002-10-16 2003-11-04 Xerox Corp. Foreground/background document processing with dataglyphs
US20040143434A1 (en) 2003-01-17 2004-07-22 Ajay Divakaran Audio-Assisted segmentation and browsing of news videos
US7454342B2 (en) 2003-03-19 2008-11-18 Intel Corporation Coupled hidden Markov model (CHMM) for continuous audiovisual speech recognition
US7725825B2 (en) 2004-09-28 2010-05-25 Ricoh Company, Ltd. Techniques for decoding and reconstructing media objects from a still visual representation
US8549400B2 (en) 2004-09-28 2013-10-01 Ricoh Company, Ltd. Techniques for encoding media objects to a static visual representation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348127A (ja) * 1999-06-03 2000-12-15 Fujitsu Ltd 印刷情報処理システム
JP2001096837A (ja) * 1999-07-29 2001-04-10 Olympus Optical Co Ltd 画像記録方法、画像記録装置、及び記録媒体
JP2003125361A (ja) * 2001-10-12 2003-04-25 Sony Corp 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010507273A (ja) * 2006-10-13 2010-03-04 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 印刷走査チャンネルを通じて処理されたディジタル画像を再構成するための補助情報
JP4910049B2 (ja) * 2006-10-13 2012-04-04 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 印刷走査チャンネルを通じて処理されたディジタル画像を再構成するための補助情報
JP2012234577A (ja) * 2006-12-20 2012-11-29 Eastman Kodak Co 複数の出力生成物の自動化された生成
JP2014225273A (ja) * 2006-12-20 2014-12-04 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー 複数の出力生成物の自動化された生成

Also Published As

Publication number Publication date
EP1641275B1 (en) 2018-07-11
US20060067593A1 (en) 2006-03-30
US7774705B2 (en) 2010-08-10
EP1641275A2 (en) 2006-03-29
EP1641275A3 (en) 2006-07-19

Similar Documents

Publication Publication Date Title
EP1641275B1 (en) Interactive design process for creating stand-alone visual representations for media objects
EP1641282B1 (en) Techniques for encoding media objects to a static visual representation
EP1641281B1 (en) Techniques for decoding and reconstructing media objects from a still visual representation
US8584042B2 (en) Methods for scanning, printing, and copying multimedia thumbnails
US7603620B2 (en) Creating visualizations of documents
US7394969B2 (en) System and method to compose a slide show
US20080235564A1 (en) Methods for converting electronic content descriptions
JP3793142B2 (ja) 動画像加工方法及び装置
US20020135808A1 (en) Method and apparatus for printing video data
JP2018501693A (ja) 動画像を作成するための方法
JP2003087785A (ja) 動画像符号化データの形式変換方法及び装置
JPH11122401A (ja) 音声コード付き写真作成装置
JP2000348127A (ja) 印刷情報処理システム
US6744934B2 (en) Method, apparatus and recording medium for generating an image file having hierarchical image data representing a plurality of still images having different display dimensions
JP4097736B2 (ja) コンピュータを用いた漫画の製作方法及びその方法で作られた漫画をモニタ画面で見る方法
JP4471331B2 (ja) 画像処理装置及びその制御方法、並びにコンピュータプログラム及び記憶媒体
JP2011023836A (ja) スライドデータ作成装置、スライドデータ作成方法及びプログラム
JP2007011530A (ja) アニメーション作成装置およびアニメーション記録媒体製造方法
JPH0991362A (ja) 情報記録装置、情報記録媒体、及び情報再生装置
Kirby The modern trombone CD-ROM: A digital edition of a standard reference
Yan et al. Multimedia Contents for Mobile Entertainment
Brooks et al. Multimedia Beyond Text
Thompson Digital multimedia development processes and optimizing techniques
Raman New economy, new strategy: the latest digital technology innovations and applications
JP2004343159A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111011

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120306