JP2017513434A - 広角画像に関連する情報を記録、共有、及び処理することによるシステム挙動又はユーザエクスペリエンスの自動定義 - Google Patents

広角画像に関連する情報を記録、共有、及び処理することによるシステム挙動又はユーザエクスペリエンスの自動定義 Download PDF

Info

Publication number
JP2017513434A
JP2017513434A JP2017501437A JP2017501437A JP2017513434A JP 2017513434 A JP2017513434 A JP 2017513434A JP 2017501437 A JP2017501437 A JP 2017501437A JP 2017501437 A JP2017501437 A JP 2017501437A JP 2017513434 A JP2017513434 A JP 2017513434A
Authority
JP
Japan
Prior art keywords
image
imager
marker
parameters
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017501437A
Other languages
English (en)
Other versions
JP6634432B2 (ja
Inventor
コネン,ピエール
ニニ,パスカル
ペアレント,ジョスリン
ルーレ,パトリス
チボー,サイモン
チャン,フー
ゴスリン,マリー‐イヴ
バタイユ,ヴァレンティン
ドゥ,シャオジュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
6115187 カナダ・インコーポレイテッド ディ/ビー/エイ インマーヴィジョン・インコーポレイテッド
6115187 / / 6115187 Canada Inc D/b/a Immervision Inc
6115187 Canada Inc D/b/a Immervision Inc
Original Assignee
6115187 カナダ・インコーポレイテッド ディ/ビー/エイ インマーヴィジョン・インコーポレイテッド
6115187 / / 6115187 Canada Inc D/b/a Immervision Inc
6115187 Canada Inc D/b/a Immervision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 6115187 カナダ・インコーポレイテッド ディ/ビー/エイ インマーヴィジョン・インコーポレイテッド, 6115187 / / 6115187 Canada Inc D/b/a Immervision Inc, 6115187 Canada Inc D/b/a Immervision Inc filed Critical 6115187 カナダ・インコーポレイテッド ディ/ビー/エイ インマーヴィジョン・インコーポレイテッド
Publication of JP2017513434A publication Critical patent/JP2017513434A/ja
Application granted granted Critical
Publication of JP6634432B2 publication Critical patent/JP6634432B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00326Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本発明に係るシステム及び方法は、表示デバイス又はアルゴリズムユニットの具体的なシステム挙動を定義するために画像及びそれらのイメージャに関連する異なるパラメータの自動的な記録、共有、及び通信を可能にする。情報の例としては、イメージャパラメータ、環境パラメータ、画像処理及び強調パラメータ、広角シーン画像コンテンツの一部の座標、表示パラメータ、定義されたユーザエクスペリエンス、定義されたシステム挙動、又は記録、共有、及び通信対象の任意の情報が挙げられる。情報の損失を回避するために、情報は、マーカを使用して画像内に直接エンコードされる。このようにして、情報は、イメージャから表示ユニットへ安定して転送される。この情報により、最終的な画像は、表示前に自動的に補正されて強調されることができ、様々な関連パラメータが、最終的な画像上に表示されることができ、或いは、別の出力とともに使用されることができる。このように、エンドユーザエクスペリエンス又はシステム挙動は定義され、再生されることができる。

Description

本出願は、現在係属中の「適切かつ効率的なパノラマ画像の歪み処理システムのためのパノラマイメージャの自動識別(Automated Identification of Panoramic Imagers for Appropriate and Efficient Panoramic Image Distortion Processing System」と題する2014年3月25日に出願された米国仮特許出願第61/970,159号の利益を主張するものであり、その全内容は、参照によって本明細書に援用される。
本発明は、システム挙動を定義するためにイメージャに関連する情報を記録、共有、及び通信することに関する。これは、広角イメージャによって情報がエンコードされた広角画像又はビデオを作成する方法と、この情報を自動的にデコードして画像処理又は表示を適用する方法とを含む。その情報は、最終的に、パラメータに基づいて具体的なシステム挙動又はユーザエクスペリエンスを定義するために使用される。
画像又はビデオを使用して、ユーザは、情報を記録、共有、及び通信することができる。画像又はビデオのコンテンツに加え、このコンテンツに関連する多くの情報が存在する。この情報は、限定ではないが広角デバイスパラメータ等のイメージャパラメータ、環境パラメータ、画像の処理、強調又は表示のパラメータ、システム挙動、ユーザエクスペリエンス、又は任意のその他の記録、共有、又は通信対象となる情報の形態をしている。
イメージャからエンドユーザへ幾つかの重要なパラメータを転送するための既存の周知の方法は、メタデータ等の使用である。メタデータは、通例、デジタル画像ファイルのヘッダに書かれているテキスト情報である。このヘッダは、各ファイルフォーマットに特有の実際の画像データの前後のファイルの一部である。しかしながら、メタデータは、画像又はビデオファイルが別のフォーマットに変換される時、又は、インターネット等の異なる媒体を介して転送される時に、情報を損失することがある。また、印刷された画像又はスキャンされた画像によってメタデータを転送することはできない。従って、メタデータ等の使用は、広角画像又はビデオに関連する情報を転送する安定な方法ではない。
広角画像又はビデオに関連する重要な情報の一つがイメージャパラメータである。広角イメージャは、物体を画像にリマップすることによって現実世界の環境から二次元(2D)画像を生成し、生成された画像において歪み又は切れ目を作り出す。数個の狭角画像を互いにスティッチングするイメージャ又は別々のスティッチングされていない狭角画像を生成するイメージャを含む、レンズから反射屈折システムまで、使用される広角イメージャの種類にかかわらず、最終的な広角画像は、ある環境を2D平面で示すために多少の歪み又は画像リマッピングを含むことになる。画像リマッピングの結果、画像は、イメージャの種類に応じて、物体の環境における直線が、広角画像では湾曲していたり、区分的線形であったり、又は断続的に見えるように歪められる。
ユーザに対して又はアルゴリズムに対して画像の一部を適切に表示するために、線形歪みに関しては米国再発行特許発明第44,087号(特許文献1)の場合のように、又はカスタム対称及びカスタム非対称歪みに関しては、夫々、米国特許第6,844,990号(特許文献2)及び第6,865,028号(特許文献3)の場合のように、通例、歪みの補正が行われる。歪みを適切に補正するために、アルゴリズムは、正確な歪みプロファイル、視界、画像の光学中心の位置、及び広角イメージャの空間定位を含む、イメージャの異なるパラメータを知っていなければならない。しかしながら、前記先行技術では、歪み処理アルゴリズムは、パラメータが内部でプリコードされた単一の広角イメージャに結び付けられているか、エンドユーザからの異なるパラメータの手作業の選択を必要とする。エンドユーザは、多くの場合、パラメータの正確な知識がなく、歪み処理を面倒で不完全なものにし、必要なパラメータを転送するプロセスが必要になる。
立体画像処理の場合、使用される立体画像の種類及び両画像の視点間の距離等のイメージャからの情報を記憶するために、米国特許第8,358,329号(特許文献4)では、立体視のために二つの必要な画像を結合する画像ファイルのマージンに追加されたバーコードの使用が提案されている。しかしながら、バーコード内にエンコードされた送信データは、画像合成ユニットによってソフトウェアレベルで結合される立体画像のみに関する非常に限定されたパラメータを含む。
米国特許第5,461,440号(特許文献5)及び米国特許第6,707,998号(特許文献6)では、デジタルセンサの代わりに画像を撮像するためにアナログフィルムを使用するカメラにおいてバーコードを使用するレンズの識別が提案されている。しかしながら、静的なエンコードされたデータは、レンズの識別のみを可能にし、動的に、即ち、具体的なユーザの用途に応じて変化するイメージャ情報を送信するために使用されることができない。同様に、バーコード又はバイナリコードを使用するその他のシステムでは、バーコード又はバイナリコード内にエンコードされたデータは、非常に限られた目的のためにカメラ製造業者によって設定されている。その出力は単一の用途に結び付けられているため、エンコードされたデータに存在するパラメータの種類に応じて、又は具体的なユーザのニーズに応じて出力を変更することができない。さらに、これらのシステムは静的であり、変化するイメージャパラメータを動的にエンコードする又は送信するために使用されることができない。こうした理由から、エンコードされたデータは、本来のシーンの具体的な情報に応じて異なるシステム挙動又はユーザエクスペリエンスを定義するために使用されることができない。最適な広角画像処理のため、且つパラメータに応じて異なるシステム挙動又はユーザエクスペリエンスの定義を可能にするために、米国特許出願公開第2012/0314065号(特許文献7)において提案されているように、方向、送信画像の小区域、日付、地理的位置、更には動的歪み等の、動的に変化するレンズ、カメラ、デバイス又は環境のパラメータを説明するための情報が、イメージャレベルでリアルタイムに追加されることができる。
国際特許公開第2007/110697号(特許文献8)では、広角光学系を識別することを可能にするために光学系を物理的にマークする又は画像平面にマーカを光学的に追加するシステムが提案された。しかしながら、レンズ上の物理的なマーカが使用される場合、このシステムは、レンズ識別番号又はデバイスの方向などのイメージャにおけるパラメータの手作業によるユーザの外部入力を未だ必要とする。光学的なマーカが画像平面上に現れるように使用される時、このシステムは、送信された画像の方向又は小区域のような広角イメージャパラメータの動的なエンコーディングを含むことができないため、静的であり、非常に限定的である。このシステムは、具体的なユーザ用途によって変化するイメージャ情報を送信することができず、従って、異なるユーザエクスペリエンス又はシステム挙動を定義するために使用されることができない。さらに、別の欠点は、レンズが、初めからこのようなマーカを含むように設計されなければならず、この方法は、既存の広角イメージャまで拡大適用されることはできないということである。
広角デバイスパラメータに加えて、本発明は、画像又はビデオに関連するあらゆるレンズ、カメラ、デバイス、又は環境の情報を記録、共有又は通信する仕組みを提供する。この仕組みは、はるかに広範囲の用途において使用されることができる。この場合、主な新規性は、具体的なパラメータに応じて出力するもの及び出力する方法を指示することによって、異なるユーザエクスペリエンス又はシステム挙動を自動的に定義することができることである。更に、リアルタイムのカメラ方向、リアルタイムのユーザエクスペリエンス、リアルタイムのシステム挙動、及び前記特許において静的な方法では記録されることができない動的な情報など、一部の情報は動的である。
米国再発行特許発明第44,087号 米国特許第6,844,990号 米国特許第6,865,028号 米国特許第8,358,329号 米国特許第5,461,440号 米国特許第6,707,998号 米国特許出願公開第2012/0314065号 国際特許公開第2007/110697号
上述の問題を全て克服するために、本発明の実施形態は、画像又はビデオに関連する任意の種類のイメージャパラメータを記録、共有、又は通信するための仕組みを提案する。
これらのイメージャパラメータは、レンズ、カメラ、フルデバイス、又はデバイスの周辺環境に関連するあらゆる種類の情報を含む。共有されたシーンの具体的な情報に応じて、最終的な表示デバイス又はアルゴリズムユニットのために具体的なユーザエクスペリエンス又はシステム挙動が作成される。これにより、エンドユーザのデバイスは、使用されるイメージャパラメータ又はその他の情報の全てを識別することが可能になり、受信した情報に基づいて正確な種類のユーザエクスペリエンス又はシステム挙動を適用する。エンドユーザのために作成されることができる具体的なユーザエクスペリエンス又はシステム挙動の一部の例としては、画像歪み補正、画像強調、又はさらなる処理のための情報提供が挙げられる。これらは全て、エンドユーザがデバイスのイメージャパラメータの知識を有しなくても自動的になされることができる。
該システムによって作成されるユーザエクスペリエンスは、人間とシステムの相互作用に影響を及ぼし、イメージャパラメータによって定義される。このユーザエクスペリエンスは、該システムの使用及び/又は期待される使用の結果として生じるユーザの知覚及び反応である。ユーザエクスペリエンスとしては、該システムの使用前、使用時、及び使用後に生じる感情、信念、好み、知覚、物理的及び心理的反応、挙動、及び成果が挙げられる。ユーザエクスペリエンスとは、ブランドイメージ、プレゼンテーション、機能性、システム性能、相互作用システムの相互作用挙動及び支援能力、以前の体験、態度、スキル及び人格から生じるユーザの精神的及び物理的状態、及び使用の前後関係の結果である。
システム挙動とは、システムそれら自体(自律的)、又はその他のシステム、システムユーザ、有機体、人工的存在又は物理的環境を含むそれらシステムの環境と共にそれらのシステムによってなされる動作又は処理の範囲である。システム挙動は、内的であるか外的であるか、意識的であるか潜在的であるか、公然的であるか秘匿的であるか、及び自発的であるか強制的であるかを問わず、様々な刺激又は入力に対する該システムの反応である。
ここで、広角イメージャとは、広角画像又は広角画像の一部を生成することができる任意のデバイスであって、限定ではないが、広角レンズ、マルチレンズ系、反射屈折システム、又は、任意の画像処理ユニットによって生成される広角画像を含む。一部の実施形態では、イメージャは、画像を撮像するように構成された少なくとも一つのカメラモジュールを含む。
パラメータを共有するという思想は、シーンに関連する様々な情報をエンコードするためのイメージャデバイス内で画像上に可視のマーカを追加するということである。電子的に追加されるため、マーカは、動的にアップデートされることができ、空間定位、ジオローカリゼーション、日付、センサ動作モード、リアルタイムのユーザエクスペリエンス又はシステム挙動などのイメージャに関するリアルタイムのパラメータを含み、以前に提案されているマーカの静的問題を解決する。さらに、マーカ内にエンコードされた正確な情報は、エンドユーザの用途が必要とするものに応じて、且つ存在する情報に応じて変化することができ、エンドユーザエクスペリエンス又はシステム挙動は変化することになる。
より具体的には、本発明の少なくとも幾つかの実施形態では、関連するパラメータは全て、画像領域内に存在するマーカ内にエンコードされる。広角画像は、多くの場合、シーン画像コンテンツ外のデジタル画像のコーナに、環境に関する情報が存在しない領域を有する。これらのコーナは、大抵、これらの位置のセンサ平面に光が届かないため、これらの画像において黒色で現れる。これらの場合、エンコードされたマーカをコーナに載置することは、シーン画像コンテンツに影響を及ぼさない。そのほか、正距円筒図法の広角画像の場合のように、環境からのシーン画像コンテンツが画像全体を埋め尽くす場合では、画像は、これらのエンコードされたマーカが載置されるマージンを追加するために拡大されてもよい。エンコードされたパラメータを備えるマーカを画像内かつシーン画像コンテンツ領域外に載置することにより、画像ファイルが、処理、オンラインストリーミング、再エンコーディング、スケーリング又は印刷/スキャンされる時に損失することなく、完全な広角画像及び全ての関連情報の安全な転送が可能になる。
更に、本発明の少なくとも幾つかの実施形態では、広角イメージャによって広角画像内に追加するためのエンコーディングマーカは、周知のクイックレスポンスコード(QRコード)である。他の実施形態では、エンコーディングマーカは、エンコードされた情報を含む任意のその他の種類のマーカが考えられる。
本発明の少なくとも幾つか実施形態では、マーカ内にエンコードされた情報により、最適な歪み処理が可能になる。この情報としては、限定ではないが、以下のパラメータが挙げられる。即ち、固有のレンズイメージャ識別コード、表形式又は多項式形式の広角画像の完全な歪みプロファイル、全体的な視野、画像における環境フットプリント、広角イメージャの空間定位及びジオローカリゼーション座標、及び/又は光学的中心の画像内の位置である。その他の実施形態では、マーカ内にエンコードされた情報としては、限定ではないが、広角デバイスパラメータ、環境パラメータ、画像処理パラメータ、強調パラメータ、表示パラメータ、ユーザエクスペリエンス又はシステム挙動パラメータ、又は撮像デバイスとエンドユーザとの間での記録、共有、及び通信対象の任意の情報が考えられる。
本発明の幾つかの実施形態では、必要な帯域を減少するために、又はセンサ及びディスプレイのフレームレートを最大化するために、フル広角画像の一部のみが転送される時に利点がある。この場合、マーカは、転送されるフル広角画像の小区分の座標も含むことができる。これにより、歪み処理アルゴリズムは、画像の転送部分がどの方向からのものかを知ることができ、従って、最適な歪み処理が可能になる。
画像内のこれらの潜在的なイメージャパラメータの全てを転送することによって、我々は、エンドユーザが具体的な知識を必要とすることなく、エンドユーザのデバイスが画像を自動的に補正、処理、及び強調することができることを保証する。これは、全てのパラメータが、必要な情報を有しないエンドユーザからの手作業による入力を必要とする既存の歪み処理又は画像処理システムと比べて有利である。更に、表示デバイス又はアルゴリズムユニット上に出力されるユーザエクスペリエンス又はシステム挙動は、マーカ内にエンコードされた具体的な情報に従って、及び用途に従って作成されることもできる。
本発明の幾つかの実施形態では、生成されたユーザエクスペリエンス又はシステム挙動は、処理画像をエンドユーザの表示デバイスに出力することのみを含む。一部の他の実施形態では、エンドユーザのために生成される出力は、エンコードされたパラメータによって変わり、アルゴリズムユニットに出力されることができ、或いは、画像、パラメータのテキスト値、光インジケータ、触覚フィードバック、又は音声などのうちの少なくとも一つの任意の組み合わせとして出力されることができる。
本発明の幾つかの実施形態では、広角イメージャの代わりに標準的な視野のイメージャを使用するという利点がある。この場合、マーカは、エンドユーザの用途によって必要とされるこのイメージャに関連する具体的なパラメータも含むことができ、存在する情報に応じて、エンドユーザエクスペリエンス又はシステム挙動は変化することになる。
上述の概要及び本発明の好適な一実施形態の以下の詳細な説明は、添付の図面と共に読まれる時、より良く理解されるだろう。説明のため、図面には、現在好適な一実施形態が示されている。しかしながら、本発明が図示の正確な配置及び手段に限定されないことは理解されるべきである。
ユーザエクスペリエンス又はシステム挙動を定義するために共有媒体でイメージャパラメータを転送するためのシステムの概略図である。 イメージャパラメータを局所的に転送するためのシステムの概略図である。 イメージャデバイスにおけるマーカ付き画像の作成を詳細に説明する概略図である。 画像処理ユニットにおけるマーカ付き画像の処理を詳細に説明する概略図である。 イメージャパラメータが画像内にエンコードされた楕円形のシーン画像コンテンツを有するパノモーフイメージャからの広角画像の一例である。 イメージャパラメータが画像内にエンコードされた円形のシーン画像コンテンツを有する魚眼イメージャからの広角画像の一例である。 画像内に追加されたマージン内にイメージャパラメータがエンコードされた正距円筒図法における広角画像の一例である。 イメージャパラメータが画像内にエンコードされた立方体状投影における広角画像の一例である。 イメージャパラメータが画像内にエンコードされた、未だスティッチングされていない状態の広角画像の一例である。 イメージャパラメータが画像内にエンコードされたフル広角画像の小区分の一例である。 イメージャパラメータが画像内にエンコードされた広角画像において複数の種類の広角イメージャからのコンテンツを結合する一例である。
以下の説明において、特定の用語法は、便宜上使用されているに過ぎず、限定的なものではない。その用語法は、上記に列挙された表現、その派生語、及び類似の趣旨の表現を含む。さらに、請求項及び明細書の請求項対応箇所にて使用される「一つの(a)」及び「一つの(an)」という表現は、「少なくとも一つ(at least оne)」を意味する。
ユーザエクスペリエンス又はシステム挙動を定義するシステムは、複数のデバイス間でマーカ付き画像を共有するために、又は単一のデバイス内で局所的に使用されることができる。両方の事例は、夫々、図1及び図2に図式化されている。
図1は、ユーザエクスペリエンス又はシステム挙動を定義するために共有媒体でイメージャパラメータを転送するためのシステムの概略図である。このプロセスは、以下のステップを含む。撮像デバイス100には、広角イメージャ105が組み立てられている。撮像デバイス100は、例えば、限定ではないが、携帯電話、タブレット、車、ロボット、テレビ、ルータ、GPSユニット、インターネットボックス、家庭用監視カメラ、セキュリティカメラ、車載カメラ、内視鏡、ウェアラブルデバイス、腕時計などを含む、広角撮像特性を追加するために広角イメージャが追加されることができる任意の装置である。広角イメージャ105が撮像デバイス100に組み込まれる時、このデバイスは、広角画像110を撮像することができる。
ここでは、広角イメージャ105は、広角環境から画像又は画像の一部を撮像することができる任意のデバイスである。結果的に生じる広角環境は、好ましくは広角視野を生成する。このプロセスで使用されることができる広角イメージャ105の一例としては、限定ではないが、広角レンズ、反射屈折イメージャ、複数の狭視野カメラ、コンピュータ生成広角画像などである。様々な広角イメージャ105の一部の例示的な出力は、図5A〜図5Gに関して説明される。
広角イメージャ105は、構造によって及びその使用法に応じて、幾つかの固有の広角イメージャパラメータ及び外的広角イメージャパラメータを有する。これらのパラメータの一部の例は、限定ではないが、歪みプロファイル、撮像視野、幾つかの局所的な光学収差又は画像の点拡がり関数、横色、3軸配向及び位置、単一の広角イメージャ又は異なるイメージャからの複数のマーカ付き画像間の相互参照情報、ジオローカリゼーション、周囲の照明、湿度又は温度条件、カメラのベイヤ配列、信号対ノイズ比、露光パラメータ、1秒当たりのフレーム数、色空間パラメータ、中心光軸の画像内の位置、非対称の広角画像に関する画像フットプリントの方向、フルパノラマの一つ又は複数の狭視野部の方向及び座標、レンズの周辺光量比、歪みプロファイルを取り出すための広角レンズに関する固有の識別コード、データベース(即ち、局所的又は遠隔的に保存された表、リスト、スプレッドシート等)からの局所的な周辺光量比などである。
広角イメージャパラメータに加えて、限定ではないが、カメラモジュールの識別、好適な処理画像の視点座標(例えば、パン、チルト及びズーム)、著作権データ、歩行者の検出、追跡及び認識、顔検出、追跡及び認識、デバイスの速度及び加速、車線逸脱、危険識別、3D位置追跡、3D再構築などを含む、画像に関連するその他の種類のパラメータが存在する。
これらのパラメータの全て、及び表示デバイス又はアルゴリズムユニットにてエンドユーザに関するユーザエクスペリエンス又はシステム挙動を定義するために使用されることができる任意のその他の情報は、マーカ130に含まれているイメージャパラメータの一部である。
イメージャパラメータの完全な知識は、最良のユーザエクスペリエンス又はシステム挙動を生成するためにエンドユーザ又はそのデバイスにとって有用である一方、このデータの大部分は、従来、広角イメージャ105とエンドユーザとの間で失われるが、本発明の実施形態は、これを解決するものである。
図3に関して更に説明される方法では、広角イメージャ105は、画像フレーム内に、撮像した広角画像110からのシーン画像コンテンツ120と、画像に関連するイメージャパラメータの全てがエンコードされたマーカ130との両方の組み合わせを含むマーカ付き画像115を出力する。
マーカ130は、イメージャパラメータを含み、プロパティの転送を可能にするために画像の一部に意図的に追加された任意のマーカである。マーカの一部の例としては、限定ではないが、人間可読マーカ、クイックレスポンスコード(QRコード)を含む1D又は2Dバーコード等のコンピュータ可読マーカ、ウォータマークなどが挙げられる。マーカ付き画像は、単一又は複数のマーカを含むことができる。複数のマーカの場合、これらは全て、異なる相補的なパラメータを有することができ、或いは、一部のパラメータは、所望の冗長性のために複数のマーカにおいて繰り返されることができる。
図1に示す複数のデバイス間での共有では、広角イメージャから出力され、シーン画像コンテンツ120及びマーカ130を含むマーカ付き画像115は、次に、共有媒体140(例えば、「クラウド」)を介して共有される。ここで、共有媒体140とは、限定ではないが、インターネット上でのデジタル画像の転送、TCP−IPプロトコル、HDMI、USB、Firewire、メモリ、ソケットを介した転送、フロッピーディスク、レーザディスク、マグネットディスク、USBドライブ、ハードドライブとして物理的媒体を使用した転送、又は、画像を物理的に印刷し、次にそれをスキャンしてデジタルファイルに戻すことによる画像の転送などを含む、任意の種類の画像共有プロセスを表す概念である。
共有媒体140から、画像処理ユニット165を含む任意の表示デバイス170、175、又は180又はアルゴリズムユニット185は、マーカ付き画像115を受信してもよい。図4で更に説明される方法では、画像処理ユニット165は、画像190を補正又は強調するためにマーカ130内にエンコードされたイメージャパラメータを使用し、マーカ130内にエンコードされた情報を、画像190上に組み合わせて、又は別のディスプレイ上で別々に表示し、音又は光のインジケータ出力を生成し、触覚フィードバックを生成し、又はエンドユーザに対してマーカ130内にエンコードされた定義されたユーザエクスペリエンス又はシステム挙動を作成する。
処理画像190は、マーカ130内にエンコードされたイメージャパラメータを使用して画像処理ユニット165によって処理された元のシーン画像コンテンツ120の変形である。本発明の好適な一実施形態では、処理画像190は、フル広角画像120の小区分の最適に処理された画像を生成するために広角イメージャ105からの歪み情報及び方向情報を使用する。他の実施形態では、その他の歪み処理がなされる。歪み処理は、画像又は画像の一部から歪みをデジタル的に補正、制御、修正及び/又は除去する動作である。広角イメージャ105の正確な方向が画像処理ユニット165によってリアルタイムで知られている状態では、限定ではないが、処理画像190が撮像デバイス100の動きとは関係なく環境の特定の場所に中心を置いた状態を維持し、又は適切なナビゲーション基準を定義し、ユーザコマンドに従って次の処理画像の計算を可能にする方法で最適にシーン画像コンテンツ120における歪みを処理することができる。これらの具体的なユーザエクスペリエンス又はシステム挙動は、それらの必要なイメージャパラメータが、それらをマーカ130からデコードした後で画像処理デバイス165に利用可能な時にのみ可能である。従って、どの具体的なユーザエクスペリエンス又はシステム挙動がエンドユーザデバイスにて使用されることができるかを定めるのはイメージャデバイスである。
本発明の別の実施形態では、表示デバイス170、175又は180上に処理画像190を表示する代わりに、処理画像190は、限定ではないが、歩行者の向き、追跡及び認識、顔検出、車線逸脱、危険識別、3D位置追跡、3D再構築などを含む関連情報を抽出するために処理画像を処理する更なるアルゴリズムユニット185内で使用される。
図2を参照すると、単一の局所デバイス200内で情報を転送するためのシステムの一実施形態が示されている。ここでの局所デバイス200は、広角イメージャ220と、画像260を補正、強調し、画像260上に、又は音、光インジケータ、又は触覚フィードバックのような別の出力システムを通して関連情報を表示するための表示ユニット250の両方を含む任意の物理的なデバイスである。画像は記録されることもでき、後で具体的なユーザエクスペリエンス又はシステム挙動がこのデバイスによって再生されることができる。このデバイスとしては、限定ではないが、携帯電話、ラップトップ、タブレット、パソコン、ローカルクライアントを含むサーバ、車、デジタルスチルカメラ、カムコーダ、ウェアラブルデバイス、腕時計などが考えられる。
ローカルデバイス200において、プロセスは、システムバス210に沿って広角イメージャ220からの出力を転送する。図1のマルチデバイスの場合のように、広角イメージャ220の出力は、広角画像235及び関連情報がエンコードされたマーカ237であり、バスに沿ってメモリ230と交換される。画像処理ユニット240はバス210上に存在し、メモリ230から画像235及びマーカ237を受信し、且つ、補正及び強調された画像260を生成し、関連情報をデコードし、又はディスプレイ250上でユーザエクスペリエンス又はシステム挙動を再生する。最終的な処理画像260及び関連情報、ユーザエクスペリエンス又はシステム挙動は、次に、局所表示ユニット250に送信されて表示され、又は局所アルゴリズムユニット270に送信されて処理画像が使用される。
複数のデバイスに関して図1に示す自動識別プロセスと、単一の局所デバイスに関して図2に示す自動識別プロセスは、イメージャ及び画像処理ユニットを含む。
図3は、夫々図1及び図2からの広角イメージャ105及び220内の詳細な動作を示す。広角イメージャ300内には、広角環境情報を撮像して画像ファイルにするカメラモジュール310が存在する。好適な一実施形態におけるカメラモジュール310は、CCD又はCMOSイメージセンサとしての電子イメージセンサに結合された広角レンズである。このカメラモジュールからの出力は、エンコーディングユニット340に送信されるシーン画像コンテンツ312と、カメラモジュールパラメータユニット330に送信されるカメラモジュールパラメータ314である。本発明の他の実施形態では、カメラモジュールは、限定ではないが、反射屈折レンズ、数個の狭角カメラモジュール、仮想環境からシーン画像コンテンツを生成する広角イメージャなどを含む任意の種類のものが考えられる。
本発明の一部の実施形態では、限定ではないが、カメラモジュール識別、好適な処理画像の視点座標(例えば、パン、チルト及びズーム)、ナビゲーションパス、著作権データ、デバイスの速度及び加速、イメージャを保持するユーザの心拍のようなバイオメトリックパラメータ、画像の関心ゾーン又は危険ゾーン、デバイスの他の部品の状態などを含む、画像内にエンコードされる対象となる、図1に記載された一部の関連情報、ユーザエクスペリエンス又はシステム挙動を、局所的であれ遠隔的であれ任意のユーザが追加することができるように、任意選択の外部パラメータ320が追加される。この外部情報は、マーカ364内に含まれるように、リンク324を介してエンコーディングユニット340に転送される。
カメラモジュールパラメータユニット330は、任意選択のリンク314を介してカメラモジュール310から、又は任意選択のリンク322を介して外部パラメータ320から、シーン画像コンテンツに関する何らかの識別情報を受信する。広角画像を生成するカメラモジュール310を識別すると、カメラモジュールパラメータユニット330は、カメラモジュールパラメータ332をエンコーディングユニット340に出力する。これらのカメラモジュールパラメータは、限定ではないが、表形式又は多項式形式のカメラモジュールにおける広角レンズの歪みプロファイル、画像の視野、中心光軸の画像内の位置、非対称的な広角画像に関する画像フットプリントの方向、フルシーンの一つ又は複数の狭視野部の方向及び座標、レンズの周辺光量比、広角レンズの歪みプロファイルを取り出すためのその広角レンズに関する固有の識別コード、視野、データベース(即ち、局所的又は遠隔的に保存された表、リスト、スプレッドシート等)からの局所的な周辺光量比などを含む、イメージャに関する固有の情報を含む。
本発明の一実施形態では、広角イメージャ300は、センサユニットパラメータ352を、エンコードされたマーカ364に含まれるようにエンコーディングユニット340へ送信することができる更なるセンサユニット350も含む。これらの外的なパラメータとしては、限定ではないが、広角イメージャ空間定位、コンパス情報、ジオローカリゼーション、周辺光、温度、圧力及び湿度の情報などが挙げられる。
エンコーディングユニット340は、次に、カメラモジュールパラメータ332、任意選択の外部パラメータ324、及び任意選択のセンサユニットパラメータ352をマーカ364内にエンコードする。マーカ364は、次に、シーン画像コンテンツ362及びマーカ364を含むマーカ画像360である広角イメージャ300の最終的な出力を作成するために、カメラモジュールのシーン画像コンテンツ312と結合される。
本発明の好適な一実施形態では、カメラモジュールのシーン画像コンテンツ312は、カメラモジュール内の広角レンズからの画像であり、出力されたシーン画像コンテンツ362と同一である。この事例は、後に、カメラのフレームレートを増加するためにカメラモジュールレベルで画像クロッピングが行われる場合において、図5A、図5B、及び図5Fに関して説明される。
本発明の別の実施形態では、出力されたシーン画像コンテンツ362は、図5E及び図5Gのように、直接つなぎ合わされた複数のカメラモジュールのシーン画像コンテンツ312の結合体、又は、帯域幅を制限するためにエンコーディングユニットレベルで画像クロッピングが行われる場合に、図5C、図5D、及び図5Fのように、所望の投影を生成するためのカメラモジュールのシーン画像コンテンツ312の処理の結果である。
図4は、夫々図1及び2からの画像処理ユニット165及び240内の詳細な動作を示す。画像処理ユニット400内には、リンク416を介してシーン画像コンテンツ412及びマーカ414を含むマーカ付き画像410を受信するマーカ検出器420が存在する。マーカ検出器420の役割は、マーカ付き画像410内のマーカ414を見つけ出すこと、及び、リンク422を介してそのマーカをマーカデコーダ430に出力するためにマーカのみを抽出することである。
マーカデコーダ430は、リンク422からマーカを読み出し、リンク432を介して、広角イメージャ300内で以前にエンコードされたデコードイメージャパラメータを全て歪み処理及び画像強調ユニット440へ出力する。
歪み処理及び画像強調ユニット440は、補正され、強調された画像442を出力するために、マーカ付き画像410から418を介して受信したシーン画像コンテンツ412と、関連情報432とを使用する。エンコードされた情報、ユーザエクスペリエンス又はシステム挙動も画像442上に表示又は再生されることができる。
本発明の好適な一実施形態では、イメージャパラメータ432を使用して、歪み処理及び画像強調ユニット440は、観察者にとって不快な幾何学的な歪みのない処理画像442を提供するために、シーン画像コンテンツ又はシーン画像コンテンツの一部から歪みをデジタル的に補正、制御、修正、及び/又は除去することができる。
本発明の別の実施形態では、情報432を使用することにより、歪み処理及び画像強調ユニット440は、限定ではないが、レンズシェーディング補償、横色補償、色補正、ホワイトバランス、ノイズ除去、鮮鋭化、動的拡張、仮想露光、画素補間、画素サブサンプリングなどを含むその他の強調を行うことができる。
本発明の他の実施形態では、歪み処理及び画像強調ユニット440は、リンク452を介して外部入力450を任意選択で受信することもできる。外部入力450の一部の例としては、限定ではないが、ユーザが選択した視野方向及び座標、画像におけるナビゲーションパス、デジタルズームレベル、好適な関心地点、画像強調パラメータ、画像輝度、コントラスト、彩度、色温度などである。
処理画像442は、次に、図1及び図2に関して先に説明したように、表示デバイス460又はアルゴリズムユニット470によって使用される。
本明細書にて説明されるシステムのコンポーネントは、ハードウェアとソフトウェアの任意の組み合わせにおいて実施されてもよい。例えば、各コンポーネントは、専用のプロセッサ、コントローラ、ASICなどとして実施されてもよい。或いは、コンポーネントは、単一のコントローラ又はプロセッサにおけるソフトウェア、ファームウェアなどとして実施されてもよい。組み合わせることも可能である。
カメラモジュールのプロパティ及び広角イメージャの設定に応じて広角イメージャの異なる実施形態の結果的に生じる出力となり得る出力されたマーカ付き画像の7つの例が図5A〜Gに示されている。
図5Aは、広角イメージャ内のカメラモジュールが、シーン画像コンテンツ512へと正確に再生される非対称的なカメラモジュールのシーン画像コンテンツを生成する広角レンズである場合の例示的なマーカ付き画像510を示す。広角イメージャ内にこの種類のカメラモジュールを備える場合、画像には黒色コーナ516が存在し、マーカ514は、大抵の場合、シーン画像コンテンツ512が変更されていないことを確実にするためにコーナ516に追加される。
図5Bは、広角イメージャ内のカメラモジュールが、シーン画像コンテンツ522へと正確に再生される対称的なカメラモジュールのシーン画像コンテンツを生成する広角レンズである場合の例示的なマーカ付き画像520を示す。広角イメージャ内にこの種類のカメラモジュールを備える場合、画像には黒色のコーナ526が存在し、マーカ524は、大抵の場合、シーン画像コンテンツ522が変更されていないことを確実にするためにコーナ526に追加される。
図5Cは、シーン画像コンテンツ532が既知の投影法によって表示される場合の例示的なマーカ付き画像530を示す。正確なこの例の場合、図示の投影法は、正距円筒図法であるが、円筒、レクチリニア、メルカトル、サンソン等のその他の投影法が使用されることができる。カメラモジュールのシーン画像コンテンツから提供されるコンテンツは、エンコーディングユニットによってこの投影に変換される。図5Cのこの正距円筒図法により、シーン画像コンテンツは画像全体をカバーし、余分な黒色マージン536が、マーカ534を含むために追加されなければならない。余分なマージンの寸法を最小にするために、この場合のマーカは、一つの画素又は数個の画素ライン即ち列上に再配列されることができる。
図5Dは、シーン画像コンテンツ542が既知の投影法によって表示される場合の例示的なマーカ付き画像540を示す。正確なこの例の場合、図示の投影法は、立方体状投影であるが、その他の投影法が使用されることができる。カメラモジュールのシーン画像コンテンツから提供されるコンテンツは、エンコーディングユニットによってこの投影に変換される。この立方体状投影により、シーン画像コンテンツは画像全体をカバーし、余分な黒色マージン546が、マーカ544を含むために追加されなければならない。余分なマージンの寸法を最小にするために、この場合のマーカは、一つの画素又は数個の画素ライン即ち列上に再配列されることができる。
図5Eは、シーン画像コンテンツ552が、連続的な広角画像を形成するために後に互いにスティッチングされることができる幾つかの狭角画像の組み合わせである場合における、例示的なマーカ付き画像550を示す。カメラモジュールのシーン画像コンテンツから提供されるコンテンツとしては、数個のカメラモジュール又は異なる方向で使用される単一のカメラモジュールの結果が考えられる。各狭角画像が並べられる方法は、エンコーディングユニットによって決定され、各狭角画像のパラメータはマーカ554内に含まれる。マーカ554は、既存の黒色領域又は余分なマージン556に追加される。余分なマージンの寸法を最小にするために、この場合のマーカは、一つの画素又は数個の画素ライン即ち列上に再配列されることができる。
図5Fは、シーン画像コンテンツ562が、エンコーディングユニットによる画像クロッピング後のフルカメラモジュールシーン画像コンテンツの小区域、又はカメラモジュールによる画像クロッピング後のフルパノラマの小区域のいずれかである場合における、例示的なマーカ付き画像560を示す。使用される小区域に応じて、黒色マージン566の有無が決まり、黒色マージンは、シーン画像コンテンツを変更することなくマーカ564を含むために必要に応じて追加されることができる。この具体例では、マーカ564内にエンコードされた広角イメージャパラメータは、フルシーン画像コンテンツと比べて、この小区域の方向、座標及びズームレベルも含むことになるだろう。余分なマージンの寸法を最小にするために、この場合のマーカは、一つの画素又は数個の画素ライン即ち列上に再配列されることができる。
図5Gは、複数のシーン画像コンテンツ572及び578が同一のマーカ付き画像570上に共に追加される場合の例を示す。各カメラモジュールシーン画像コンテンツを生成するカメラモジュールは、天球を形成するために共に撮像された二つの半球形のシーン画像コンテンツの場合のように同一であるか、狭角カメラからの二つの高詳細画像が低詳細度の広角カメラに結合される図示の場合のように異なることができる。マーカ574を追加するための黒色領域576は、この場合、前記結合を行うエンコーディングユニットによって選択されることになる。
上記図面の全てにおいて、イメージャパラメータは、マーカ付き画像を通してイメージャから画像処理ユニットへ転送され、エンドユーザに関する具体的なユーザエクスペリエンス又はシステム挙動を定義するために使用される。イメージャパラメータによって異なる具体的なユーザエクスペリエンス又はシステム挙動の一部の例がここで説明される。これらは、本発明をより良く理解するための基本的な例であり、決して本発明の範囲及び精神を限定すべきではない。
第1の例は、スマートフォン、タブレット、スマートウォッチ、衣類の又はユーザにストラップで繋がれたパーソナルビデオレコーディングデバイス部などのような、ポータブル又はウェアラブルデバイス内に見られるイメージャである。ユーザ周辺のシーンのビデオ画像を記録することに加え、イメージャは、心拍、ペース、歩数のようなユーザの何らかのバイオメトリックデータ、及び、方向及びジオローカリゼーションパラメータを記録することができる。これは、付近の他のユーザからのリンクされたデバイスに関する情報、又はスマートランニングシューズ、自転車又は車のようなユーザが使用するリンクされた移動手段に関する情報を自動的に含むこともできる。この場合の具体的なユーザエクスペリエンスにより、ビデオからのマーカ付き画像を読み出すエンドユーザは、記録されたシーン画像コンテンツを見直し、歪んだ画像を作成したイメージャの正確な型式の知識がなくても、適切な画像歪み補正を使用するようにナビゲートすることができるようになる。これは、元のユーザがインターネット上にビデオをアップロードし、そうでなければ、エンドユーザが、使用されるイメージャの正確な型式に関する情報を有しない場合に特に有用である。さらに、マーカ内にエンコードされたイメージャデバイスのリアルタイムの方向は、デバイスがアクティビティ中に移動していても特定の関心地点上の視界を固定するために、ディスプレイにて画像安定化のために使用されることができる。この例における別の具体的なユーザエクスペリエンスとしては、このデバイスのユーザが、ランニングや自転車の運転のようなフィジカルトレーニングアクティビティを見直すのに役立てることが考えられる。エンドユーザは、アクティビティ中の心拍を、状況(路面の傾斜、地形の種類、天候条件)を示すビデオ画像と比較するためにマーカ付き画像からの情報を使用することができる。ユーザは、要望に応じて、シーン画像コンテンツの任意選択の表示とともに、ユーザのアクティビティのマップを描くためにジオローカリゼーションパラメータを使用することもできる。移動手段のリンクされたデバイス(スマートランニングシューズ又は自転車)からの情報又は信頼できるユーザからの情報は、ユーザがその情報をその都度手作業で入力する必要なしに、フィジカルアクティビティの種類を自動的にログするために、又はアクティビティにおける友人をタグ付けするために使用されることができる。別のユーザエクスペリエンスとしては、このウェアラブルイメージャが警察官(law-enforcement officer)の衣服内に含まれる場合が考えられる。介入後、警察官のシーン画像コンテンツ、ジオローカリゼーション及びバイオメトリックデータは、重大なインシデントが生じた後にそのインシデントをより良く再現するのに役立つことができる。
第2の例は、家庭用の監視セキュリティイメージャにおいて見られるイメージャに関する。このデバイスは、セキュリティカメラ、ウェブカム、スマート電子機器等が考えられる。このデバイスは、シーン画像コンテンツを記録することに加えて、日時、方向、アルゴリズムユニットによって自動的に動きが検出された関心ゾーン、スマートロックシステムを使用するドアロックの状態、アラームシステムの状態、識別されたユーザの画像における名前及び場所、プライバシーゾーン等のような幾つかのパラメータをマーカ内にエンコードすることができる。具体的なユーザエクスペリエンスは、遠隔地のユーザが、リアルタイムでセキュリティビデオを観ることを可能にし、レンズの歪みプロファイル又はデバイスの方向のようなイメージャパラメータを手作業で入力しなくても歪みが除去された状態で処理画像内においてナビゲートすることができるようにすることである。ユーザインタフェース上でのエンドユーザナビゲーションは、好ましくは、イメージャが、天井、壁、又は地上に置かれているか否かによって異なるため、方向パラメータのこの自動的な転送により、エンドユーザは、パラメータを手作業で入力することなく最適なナビゲーションを有することができる。別のユーザエクスペリエンス又はシステム挙動としては、強盗の後に一部のパラメータを見たいが、プライバシーの理由からシーン画像コンテンツにフルアクセスすることができない保険会社の場合が考えられる。この場合、保険会社は、強盗時の状況を決定するために日付とともにドアロック又はアラームシステムの状態を表示することができる。イメージャパラメータによって定義されることができる別の種類のユーザエクスペリエンス又はシステム挙動としては、プライバシーゾーンが考えられる。全てのビデオフィードは暗号化されることができ、その場合、正確なパスワードを有する所定の表示デバイスのみがこのビデオフィードを表示することができる。この表示デバイス上では、異なるユーザ名及びパスワードを有する異なるユーザには、シーン画像コンテンツの異なるゾーンが示され、プライバシー領域のシーンコンテンツは、必要な権利を有しないユーザに対してのみ取り除かれることができる。
第3の例は、複数のカメラモジュールを含み、各モジュールが個々のレンズを備えるイメージャの場合である。これは、イメージャ周囲の全天球シーンを撮像するために背中合わせの姿勢に構成された180°超の視野を有する二つの広角レンズを備えるデバイスが考えられ、或いは、これは、全て異なる方向の多くの狭角レンズを備え、イメージャ周囲の全天球シーンの全て又は一部をカバーするイメージャが考えられる。この例の一つの場合では、イメージャは、全てのカメラモジュールからのシーン画像コンテンツが、全天球シーンコンテンツを備える単一の画像を形成するために既に融合されているマーカ付き画像を作成することができ、マーカは、画像を結合する時に使用される特定の投影法に関するイメージャパラメータ、又はエンドユーザが使用することができる任意のその他のイメージャパラメータを含むことができる。この例の別の場合では、イメージャの出力としては、複数のカメラからの複数のマーカ付き画像が考えられる。この場合のマーカは、全てのマーカ付き画像同士を相互参照するために使用されることになる。時間的な参照は、画像の順序番号又は日時を用いてなされることができる。空間的な参照は、各カメラモジュールの他のカメラモジュールに対する又はイメージャにおける固定位置及び方向の参照座標に対する位置及び方向を定義することによってなされることができる。この例では、具体的なユーザエクスペリエンスは、エンドユーザの要望に応じて、天球シーンにおける関心方向を指し示す元の画像を表示すること、又は、ユーザが、マーカ付き画像からのイメージャパラメータを使用することによってシーン内で自由にナビゲートすることができる全天球シーンビューを表示することが考えられる。或いは、全天球シーンコンテンツは、マーカ内にエンコードされたイメージャの方向パラメータを使用することによって、イメージャが撮像中に移動していても、特定の関心地点上の安定したビューを表示し、ビューの方向を固定するために使用されることができる。別のユーザエクスペリエンスでは、全天球シーンと狭画像の両方が同時に表示されることができ、全天球シーンは、マーカ内にエンコードされた全ての相互参照情報を使用することによって元の狭画像内でナビゲートするために使用される。最後にもう一つのユーザエクスペリエンス又はシステム挙動としては、エンドユーザが、元のより狭いマーカ付き画像の一部のみ又は全てを受信し、マーカ内にエンコードされた位置及び方向情報を使用してこれらの画像を結合したいと思う場合が考えられる。
最後の一例は、道路を走る車のような自動車又は空中のドローン又はロボット化した機械上に見られるイメージャの場合である。このイメージャとしては、人間の運転手を伴う従来の車、遠隔地の人間によって制御されるドローン、自動運転車又は無人ドローンが考えられる。最後の二つのインテリジェント自律システムの場合、エンドユーザは、人工知能ユニット、コンピュータ、又はデバイスそれ自体である。これらの自動車により、イメージャは、多くのイメージャパラメータのみならず、車両又はドローンの前方のビューからのシーン画像コンテンツを記録することができる。これらのパラメータとしては、天候パラメータ(外気温、風、降雨及び湿度)、日付、ジオローカリゼーション、高度、検出された危険又は検出された車線のシーン画像コンテンツ上の位置、その自動デバイスの速度及び加速を伴うパラメータ、運転手及び乗員の識別、ブレーキ又はワイパの状態、検出された道路標識などが挙げられる。この場合の具体的なユーザエクスペリエンスとしては、何が起きたのかをより良く理解するのに役立つように、インシデント後に、記録されたシーン画像コンテンツ及びその他のパラメータを見ることが考えられる。この場合、イメージャパラメータは、歪みを除去するための最適な画像処理を可能にするためにイメージャの歪みプロファイルを含むことができる。この場合、一つのディスプレイが、処理されたシーン画像コンテンツを示し、インシデントの前、その間、及びその後に起きたことを示すことができる。別のユーザエクスペリエンス又はシステム挙動としては、画像を見ずに、日付、速度及び加速、ワイパ及びブレーキの状態、又は車外の天候のような装置の一部のパラメータを表示することが考えられる。これは、シーン画像コンテンツがプライバシーの理由から明らかにされない時に、インシデントに繋がった正確な状況を決定したいと思う保険会社にとって有用となり得る。別のユーザエクスペリエンスとしては、アルゴリズムユニットによって検出された何らかの情報を運転手にリアルタイムで表示することが考えられる。この情報としては、検出された車線逸脱、道路標識、又は危険が考えられる。この場合、出力は、テキストパラメータ、記号、音、光インジケータ、触覚フィードバック、又はアラームの形が考えられる。インテリジェント自律システムの場合における一つの具体的なシステム挙動としては、マーカ付き画像による自己誘導のために重要なイメージャパラメータをコンピュータ又は人工知能ユニットへ提供することが考えられる。この場合、具体的なシステム挙動は、人工知能ユニット又はコンピュータシステムがマーカを通してそのサブシステムに提供することができるパラメータ、及び、これらのパラメータに基づいて前記誘導を適応させることができる方法である。
上記は全てイメージャからのマーカ付き画像内にエンコードされたイメージャパラメータによって定義されることができる具体的なユーザエクスペリエンス又はシステム挙動の図及び例である。全てのこれらの例において、イメージャは、非常に狭い視野から極めて広角な視野まで、任意の視野を有することができる。これらは、網羅的なリストとなること、又は本発明の範囲及び精神を限定することを意図していない。当業者には、その広い発明の概念から逸脱することなく上記実施形態に変更を加えることができることが理解されるだろう。従って、本発明は、開示された特定の実施形態に限定されず、添付の請求項によって定められる本発明の精神及び範囲内の修正を包含することを意図していることが理解される。

Claims (26)

  1. マーカ付き画像を使用してシーン画像コンテンツに関するユーザエクスペリエンス又はシステム挙動を自動的に定義するためのシステムであって、
    (a)前記シーン画像コンテンツを撮像又は生成するように構成されたイメージャと、
    (b)前記イメージャから前記シーン画像コンテンツを受信し、前記マーカ付き画像を作成するために前記シーン画像コンテンツを少なくとも一つのマーカと組み合わせるように構成され、前記マーカが、前記ユーザエクスペリエンス又はシステム挙動を自動的に定義するために表示デバイス又はアルゴリズムユニットによって使用される少なくとも一つのイメージャパラメータをエンコードするエンコーディングユニットと、を備えるシステム。
  2. 前記イメージャは、画像を撮像するように構成された少なくとも一つのカメラモジュールを含む請求項1に記載のシステム。
  3. 前記少なくとも一つのイメージャパラメータは、少なくとも一つのカメラモジュールパラメータ又は外部パラメータを含み、該システムは、前記少なくとも一つのカメラモジュールパラメータ又は外部パラメータを前記エンコーディングユニットに転送するカメラモジュールパラメータユニットと、更なる外部パラメータを前記エンコーディングユニットに直接提供することができる外部ユニットとを更に備える請求項2に記載のシステム。
  4. 前記外部ユニットはセンサユニットを備え、前記外部パラメータはセンサパラメータである請求項3に記載のシステム。
  5. 前記イメージャは広角イメージャである請求項1に記載のシステム。
  6. 前記イメージャパラメータは、前記イメージャの方向、シーン画像コンテンツ位置、方向及びサイズ、イメージャ型式、前記イメージャの速度及び加速、エントリポイント、又は関心ゾーンのうちの少なくとも一つである請求項1に記載のシステム。
  7. 前記マーカは、人間可読コード、機械可読コード、又はウォータマークのうちの一つである請求項1に記載のシステム。
  8. 前記マーカはQRコードである請求項7に記載のシステム。
  9. 前記ユーザエクスペリエンス又はシステム挙動は、前記少なくとも一つのイメージャパラメータに従って撮像画像の歪みを処理することを更に含み、前記少なくとも一つのイメージャパラメータは、レンズ歪みプロファイル、前記歪みのある画像の視野、中心光軸の前記歪みのある画像内の位置、画像フットプリントの方向、一つ以上の狭視野の方向及び座標、レンズの周辺光量比、デジタルズームレベル、好適な関心地点、又は画像強調パラメータのうちの少なくとも一つを含む請求項1に記載のシステム。
  10. 前記ユーザエクスペリエンス又はシステム挙動は、前記少なくとも一つのイメージャパラメータに従って撮像画像の歪みを処理することを更に含み、前記少なくとも一つのイメージャパラメータは、前記イメージャのレンズの歪みプロファイル、視野、又は局所的な周辺光量比のうちの少なくとも一つを含むデータベースに関する固有の識別コードを含む請求項1に記載のシステム。
  11. 前記イメージャパラメータは、前記シーン画像コンテンツにナビゲーションパスを含む請求項1に記載のシステム。
  12. 前記マーカは、前記マーカ付き画像のコーナに、又は前記マーカ付き画像の追加的なマージンに存在する請求項1に記載のシステム。
  13. 前記カメラモジュールは、少なくとも一つのレンズと、前記レンズによって受け取られた画像を撮像するように構成されたイメージセンサを含む請求項2に記載のシステム。
  14. 前記カメラモジュールは、仮想環境から画像を撮像するように構成されたデジタルプロセッサである請求項2に記載のシステム。
  15. カメラモジュールパラメータの少なくとも一部は、前記カメラモジュールによって撮像された前記シーン画像コンテンツを分析することによって自動的に生成される請求項2に記載のシステム。
  16. 前記マーカ付き画像は、複数の画像部分に分割され、前記複数の画像部分の各々は、夫々のマーカを含み、前記マーカ付き画像を処理するためのデータが、前記複数の画像部分に対する相互参照を含む請求項1に記載のシステム。
  17. マーカ付き画像を使用してイメージャによって撮像されたシーン画像コンテンツに関するユーザエクスペリエンス又はシステム挙動を自動的に定義するためのシステムであって、前記マーカ付き画像は、前記シーン画像コンテンツ及び少なくとも一つのマーカを含み、該システムは、
    (a)前記定義されたユーザエクスペリエンス又はシステム挙動に従って前記シーン画像コンテンツを処理するように構成された画像処理ユニットと、
    (b)前記マーカ付き画像から前記マーカを識別及び抽出するように構成されたマーカ検出器と、
    (c)前記マーカをデコードし、前記マーカ内にエンコードされたイメージャパラメータを出力するように構成され、前記イメージャパラメータが、少なくとも、前記ユーザエクスペリエンス又はシステム挙動を自動的に定義するために前記画像処理ユニットによって使用されるデータを備えるマーカデコーダと、を含むシステム。
  18. 前記画像処理ユニットは、さらに、該システムの外部のソースからデータを受信し、前記画像処理ユニットは、外部データに部分的に基づいて前記シーン画像コンテンツをさらに処理するように構成される請求項17に記載のシステム。
  19. 前記イメージャパラメータは、ユーザが選択した視野方向及び座標、デジタルズームレベル、好適な関心地点、画像強調パラメータ、画像輝度、画像コントラスト、彩度、又は色温度のうちの少なくとも一つを含む請求項17に記載のシステム。
  20. 前記マーカは、人間可読コード、機械可読コード、又はウォータマークのうちの一つである請求項17に記載のシステム。
  21. 前記マーカはQRコードである請求項20に記載のシステム。
  22. 前記定義されたユーザエクスペリエンス又はシステム挙動は、前記イメージャパラメータに従って前記シーン画像コンテンツの歪みを処理することを含み、前記イメージャパラメータは、レンズの歪みプロファイル、視野、又は局所的な周辺光量比のうちの少なくとも一つを含むデータベースに関連する固有の識別コードを含む請求項17に記載のシステム。
  23. 前記定義されたユーザエクスペリエンス又はシステム挙動は、前記イメージャパラメータに従って前記シーン画像コンテンツの歪みを処理することを含み、前記イメージャパラメータは、レンズ歪みプロファイル、前記歪みのある画像の視野、中心光軸の前記歪みのある画像内の位置、画像フットプリントの方向、一つ以上の狭視野の方向及び座標、レンズの周辺光量比、デジタルズームレベル、好適な関心地点、又は画像強調パラメータのうちの少なくとも一つを含む請求項17に記載のシステム。
  24. 前記画像処理ユニットは、レンズシェーディング補償、横色補償、色補正、ホワイトバランス、ノイズ除去、鮮鋭化、動的拡張、仮想露光、画素補間、画素サブサンプリング、又はカスタムクロッピングゾーンのうちの少なくとも一つに部分的に基づいて前記シーン画像コンテンツを更に処理するように構成される請求項17に記載のシステム。
  25. 前記マーカは、前記マーカ付き画像のコーナに存在するか、前記マーカ付き画像の追加的なマージンに設けられるかのいずれかである請求項17に記載のシステム。
  26. マーカ付き画像を使用してイメージャによって撮像されたシーン画像コンテンツに関するユーザエクスペリエンス又はシステム挙動を自動的に定義するためのシステムであって、前記マーカ付き画像は、前記シーン画像コンテンツ及びマーカを含み、該システムは、
    (a)前記マーカ付き画像を処理し、イメージャパラメータ及び前記イメージャパラメータに基づくインジケータを出力するように構成された画像処理ユニットと、
    (b)前記マーカ付き画像から前記マーカを識別及び抽出するように構成されたマーカ検出器と、
    (c)前記マーカをデコードし、前記マーカにエンコードされたイメージャパラメータを出力するように構成され、前記イメージャパラメータが、少なくとも、前記ユーザエクスペリエンス又はシステム挙動を自動的に定義するために前記画像処理ユニットによって使用されるデータを含むマーカデコーダと、を備えるシステム。
JP2017501437A 2014-03-25 2015-03-25 広角画像に関連する情報を記録、共有、及び処理することによるシステム挙動又はユーザエクスペリエンスの自動定義 Active JP6634432B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461970159P 2014-03-25 2014-03-25
US61/970,159 2014-03-25
PCT/CA2015/000192 WO2015143547A1 (en) 2014-03-25 2015-03-25 Automated definition of system behavior or user experience by recording, sharing, and processing information associated with wide-angle image

Publications (2)

Publication Number Publication Date
JP2017513434A true JP2017513434A (ja) 2017-05-25
JP6634432B2 JP6634432B2 (ja) 2020-01-22

Family

ID=54192144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017501437A Active JP6634432B2 (ja) 2014-03-25 2015-03-25 広角画像に関連する情報を記録、共有、及び処理することによるシステム挙動又はユーザエクスペリエンスの自動定義

Country Status (13)

Country Link
US (3) US10516799B2 (ja)
EP (1) EP3123732A4 (ja)
JP (1) JP6634432B2 (ja)
KR (1) KR102357290B1 (ja)
CN (2) CN106664349B (ja)
AU (1) AU2015234575B2 (ja)
BR (1) BR112016021856A2 (ja)
CA (1) CA2943411C (ja)
CL (1) CL2016002371A1 (ja)
MX (1) MX2016012455A (ja)
RU (1) RU2689136C2 (ja)
SG (1) SG11201607733SA (ja)
WO (1) WO2015143547A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020092334A (ja) * 2018-12-05 2020-06-11 ミツミ電機株式会社 撮像デバイス、撮像システム、および産業用ロボット
JP2022522638A (ja) * 2019-02-15 2022-04-20 トヨタ モーター ヨーロッパ 画像正規化のためのシステムと方法

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9906902B2 (en) 2015-06-02 2018-02-27 GeoFrenzy, Inc. Geofence information delivery systems and methods
US10235726B2 (en) 2013-09-24 2019-03-19 GeoFrenzy, Inc. Systems and methods for secure encryption of real estate titles and permissions
US10121215B2 (en) 2014-07-29 2018-11-06 GeoFrenzy, Inc. Systems and methods for managing real estate titles and permissions
US9906609B2 (en) 2015-06-02 2018-02-27 GeoFrenzy, Inc. Geofence information delivery systems and methods
US9363638B1 (en) 2015-06-02 2016-06-07 GeoFrenzy, Inc. Registrar mapping toolkit for geofences
US9462239B2 (en) * 2014-07-15 2016-10-04 Fuji Xerox Co., Ltd. Systems and methods for time-multiplexing temporal pixel-location data and regular image projection for interactive projection
US10237232B2 (en) 2014-07-29 2019-03-19 GeoFrenzy, Inc. Geocoding with geofences
US11606666B2 (en) 2014-07-29 2023-03-14 GeoFrenzy, Inc. Global registration system for aerial vehicles
US10805761B2 (en) 2014-07-29 2020-10-13 GeoFrenzy, Inc. Global registration system for aerial vehicles
US9875251B2 (en) 2015-06-02 2018-01-23 GeoFrenzy, Inc. Geofence information delivery systems and methods
US11838744B2 (en) 2014-07-29 2023-12-05 GeoFrenzy, Inc. Systems, methods and apparatus for geofence networks
US10375514B2 (en) 2014-07-29 2019-08-06 GeoFrenzy, Inc. Systems, methods and apparatus for geofence networks
US10582333B2 (en) 2014-07-29 2020-03-03 GeoFrenzy, Inc. Systems and methods for geofence security
US10979849B2 (en) 2015-06-02 2021-04-13 GeoFrenzy, Inc. Systems, methods and apparatus for geofence networks
US11240628B2 (en) 2014-07-29 2022-02-01 GeoFrenzy, Inc. Systems and methods for decoupling and delivering geofence geometries to maps
US10932084B2 (en) 2014-07-29 2021-02-23 GeoFrenzy, Inc. Systems, methods and apparatus for geofence networks
US10115277B2 (en) 2014-07-29 2018-10-30 GeoFrenzy, Inc. Systems and methods for geofence security
US9986378B2 (en) 2014-07-29 2018-05-29 GeoFrenzy, Inc. Systems and methods for defining and implementing rules for three dimensional geofences
JP6387450B2 (ja) * 2015-02-18 2018-09-05 富士フイルム株式会社 追尾撮影制御装置、追尾撮影システム、カメラ、端末装置、追尾撮影方法、追尾撮影プログラム
WO2016196496A1 (en) 2015-06-02 2016-12-08 GeoFrenzy, Inc. Geofence information delivery systems and methods
US20180249056A1 (en) * 2015-08-18 2018-08-30 Lg Electronics Inc. Mobile terminal and method for controlling same
US10219026B2 (en) * 2015-08-26 2019-02-26 Lg Electronics Inc. Mobile terminal and method for playback of a multi-view video
CN114445303A (zh) 2016-02-16 2022-05-06 6115187加拿大公司暨伊美景象公司 图像失真变换方法和设备
US10839856B2 (en) * 2016-03-09 2020-11-17 Kyle Quinton Beatch Systems and methods for generating compilations of photo and video data
CN106060652A (zh) * 2016-06-08 2016-10-26 北京中星微电子有限公司 一种视频码流中全景信息的标识方法和标识装置
US10460501B2 (en) 2016-07-04 2019-10-29 Liquid Cinema Inc., Canada System and method for processing digital video
US10297086B2 (en) 2016-07-04 2019-05-21 Liquid Cinema Inc. System and method for processing digital video
US10694102B2 (en) * 2016-07-22 2020-06-23 Immervision, Inc. Method to capture, store, distribute, share, stream and display panoramic image or video
US10530970B2 (en) * 2016-09-02 2020-01-07 Microsoft Technology Licensing, Llc Automatic output metadata determination based on output device and substrate
US10537292B2 (en) 2016-09-07 2020-01-21 International Business Machines Corporation Automated calibration and quality assurance of medical images
KR101953310B1 (ko) * 2016-10-12 2019-02-28 삼성전자주식회사 영상을 처리하는 방법, 장치 및 기록매체
EP4254035A3 (en) * 2016-10-12 2023-12-06 Samsung Electronics Co., Ltd. Method, apparatus, and recording medium for processing image
US10560682B2 (en) * 2017-01-13 2020-02-11 Gopro, Inc. Methods and apparatus for providing a frame packing arrangement for panoramic content
US11765323B2 (en) * 2017-05-26 2023-09-19 Calumino Pty Ltd. Apparatus and method of location determination in a thermal imaging system
JP7043255B2 (ja) 2017-12-28 2022-03-29 キヤノン株式会社 電子機器及びその制御方法
JP2019121857A (ja) * 2017-12-28 2019-07-22 キヤノン株式会社 電子機器及びその制御方法
WO2019153855A1 (zh) * 2018-02-07 2019-08-15 迎刃而解有限公司 一种360度环绕方位及位置感知物件信息获取系统及其应用
US20210102820A1 (en) * 2018-02-23 2021-04-08 Google Llc Transitioning between map view and augmented reality view
CN111819530A (zh) 2018-03-09 2020-10-23 三星电子株式会社 电子设备中用于增强用户体验的电子设备和设备上方法
US10863160B2 (en) 2018-08-08 2020-12-08 Liquid Cinema Inc. Canada Conditional forced perspective in spherical video
WO2020070424A1 (fr) * 2018-10-02 2020-04-09 Crosscall Procede pour afficher une image independamment de l'orientation du moyen de capture ou d'une interface homme-machine de sortie d'un dispositif electronique mettant en oeuvre ledit procede
US11196985B1 (en) 2018-12-28 2021-12-07 Facebook, Inc. Surface adaptation for projection-based augmented reality system
US11172189B1 (en) * 2018-12-28 2021-11-09 Facebook, Inc. User detection for projection-based augmented reality system
CN110060252B (zh) * 2019-04-28 2021-11-05 重庆金山医疗技术研究院有限公司 一种图片内目标提示处理方法、装置及内窥镜系统
JP7249207B2 (ja) * 2019-05-28 2023-03-30 シャープ株式会社 シェーディング補正信号生成装置、複合機及びシェーディング補正信号生成方法
US11475546B2 (en) * 2019-06-11 2022-10-18 Immervision, Inc. Method for optimal body or face protection with adaptive dewarping based on context segmentation layers
CN110673734B (zh) * 2019-09-30 2023-12-01 京东方科技集团股份有限公司 虚拟旅游方法、客户端、服务器端、系统及图像采集设备
US11989342B2 (en) 2019-09-30 2024-05-21 Boe Technology Group Co., Ltd. Virtual tourism client, server, system and acquisition device
CN113422911B (zh) * 2021-05-25 2023-06-13 广西电网有限责任公司电力科学研究院 图像的采集发送和接收处理方法、采集设备及服务设备
CN113487323B (zh) * 2021-07-16 2022-04-08 湖南校智付网络科技有限公司 基于人脸数据识别记录载体的校园支付方法及系统
GB202111600D0 (en) * 2021-08-12 2021-09-29 Milestone Systems As Privacy preserving anomaly detection using semantic segmentation
US20230239565A1 (en) * 2022-01-24 2023-07-27 International Business Machines Corporation Automatically upload photographs according to requirements

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000196937A (ja) * 1998-12-28 2000-07-14 Fuji Photo Film Co Ltd ディジタル・カメラおよびその制御方法ならびに画像デ―タ再生装置および方法
JP2003230019A (ja) * 2002-02-05 2003-08-15 Fuji Photo Film Co Ltd 表示方法、及び表示システム
JP2004193645A (ja) * 2002-12-06 2004-07-08 Fuji Photo Film Co Ltd 撮像装置、合成画像作成方法および合成画像作成プログラム、並びに、撮影条件設定方法および撮影条件設定プログラム
JP2006011580A (ja) * 2004-06-23 2006-01-12 Sharp Corp 撮影情報処理装置
US20100134647A1 (en) * 2001-02-09 2010-06-03 Digital Imaging Systems Gmbh Methods and systems for embedding camera information in images
JP2012049807A (ja) * 2010-08-26 2012-03-08 Nippon Telegr & Teleph Corp <Ntt> 情報送受信システム及び情報送受信方法

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5461440A (en) 1993-02-10 1995-10-24 Olympus Optical Co., Ltd. Photographing image correction system
US7720249B2 (en) * 1993-11-18 2010-05-18 Digimarc Corporation Watermark embedder and reader
US7515733B2 (en) * 1993-11-18 2009-04-07 Digimarc Corporation Methods and arrangements employing digital content items
US6459451B2 (en) 1996-06-24 2002-10-01 Be Here Corporation Method and apparatus for a panoramic camera to capture a 360 degree image
US6434701B1 (en) * 1999-04-06 2002-08-13 Kwan Software Engineering, Inc. System and method for digitally marking a file
EP1202214A3 (en) * 2000-10-31 2005-02-23 Matsushita Electric Industrial Co., Ltd. Method and apparatus for object recognition
US8457346B2 (en) * 2001-04-24 2013-06-04 Digimarc Corporation Digital watermarking image signals on-chip
FR2826221B1 (fr) 2001-05-11 2003-12-05 Immervision Internat Pte Ltd Procede d'obtention et d'affichage d'une image panoramique numerique a resolution variable
FR2827680B1 (fr) 2001-07-20 2003-10-10 Immervision Internat Pte Ltd Procede de capture d'une image panoramique au moyen d'un capteur d'image de forme rectangulaire
US6707998B2 (en) 2002-05-14 2004-03-16 Eastman Kodak Company Method and system for correcting non-symmetric distortion in an image
US7313696B2 (en) * 2002-07-22 2007-12-25 Xerox Corporation Method for authentication of JPEG image data
GB2404819A (en) 2003-08-05 2005-02-09 Research In Motion Ltd Mobile communications device with integral optical navigation
JP2005167517A (ja) * 2003-12-01 2005-06-23 Olympus Corp 画像処理装置、画像処理装置のキャリブレーション方法及び画像処理プログラム
CN101111866A (zh) * 2005-01-27 2008-01-23 汤姆森许可贸易公司 胶片标记检测系统
JP4665166B2 (ja) * 2005-06-29 2011-04-06 ソニー株式会社 ステレオ画像処理装置、ステレオ画像処理方法およびステレオ画像処理用プログラム
JP4687279B2 (ja) * 2005-06-29 2011-05-25 ソニー株式会社 画像再生装置、画像再生方法、および画像再生用プログラム
FR2894685A3 (fr) 2005-12-09 2007-06-15 6115187 Canada Inc Procede et dispositif d'identification et de calibration d'optiques panoramiques
JP4670657B2 (ja) 2006-01-24 2011-04-13 富士ゼロックス株式会社 画像処理装置、画像処理方法及びプログラム
US8531540B2 (en) 2007-06-04 2013-09-10 Sharp Kabushiki Kaisha Mobile terminal, control method of same, control program of same, and computer-readable storage medium storing the control program
CN101105838A (zh) * 2007-06-22 2008-01-16 项立 使用激光标记、图像检测与无线网络管理的防伪认证系统
KR101313740B1 (ko) * 2007-10-08 2013-10-15 주식회사 스테레오피아 원소스 멀티유즈 스테레오 카메라 및 스테레오 영상 컨텐츠제작방법
JP4998287B2 (ja) 2008-01-25 2012-08-15 ソニー株式会社 画像処理装置および方法、並びにプログラム
EA012247B1 (ru) * 2008-07-07 2009-08-28 Общество С Ограниченной Ответственностью "Вдс" Лечебно-профилактический состав для ухода за полостью рта
US8724007B2 (en) * 2008-08-29 2014-05-13 Adobe Systems Incorporated Metadata-driven method and apparatus for multi-image processing
EP2410727B1 (en) * 2009-03-19 2017-08-09 Fujitsu Limited Marker generation program, restoration program, marker generation device, restoration device, and marker generation method
WO2010131287A1 (ja) * 2009-05-11 2010-11-18 富士通株式会社 画像暗号化・復号装置、方法、及びプログラム
WO2012049795A1 (ja) * 2010-10-12 2012-04-19 パナソニック株式会社 表示処理装置、表示方法およびプログラム
JP5742179B2 (ja) * 2010-11-05 2015-07-01 ソニー株式会社 撮像装置、画像処理装置、および画像処理方法、並びにプログラム
CN201927049U (zh) * 2010-12-27 2011-08-10 陆宝武 一种防伪检测装置
JP6056122B2 (ja) 2011-01-24 2017-01-11 ソニー株式会社 画像符号化装置と画像復号装置およびその方法とプログラム
JP5948731B2 (ja) * 2011-04-19 2016-07-06 富士ゼロックス株式会社 画像処理装置、画像処理システム及びプログラム
CN202019398U (zh) * 2011-05-06 2011-10-26 Tcl数码科技(深圳)有限责任公司 一种数码摄像机
US8842875B2 (en) * 2011-05-26 2014-09-23 Digimarc Corporation Image related methods and systems
US9829700B2 (en) 2011-06-09 2017-11-28 Universite Laval Imaging system for producing an image having at least one distorted zone
US8528820B2 (en) * 2011-06-29 2013-09-10 Symbol Technologies, Inc. Object identification using barcode reader
US9591149B2 (en) * 2012-04-30 2017-03-07 Qualcomm Incorporated Generation of a combined image of a presentation surface
WO2013188807A2 (en) * 2012-06-14 2013-12-19 Digimarc Corporation Methods and systems for signal processing
WO2014031899A1 (en) * 2012-08-22 2014-02-27 Goldrun Corporation Augmented reality virtual content platform apparatuses, methods and systems
RU2504915C1 (ru) * 2012-09-03 2014-01-20 Вячеслав Михайлович Смелков Способ юстировки направления визирной оси двухкамерной телевизионной системы и устройство для его осуществления
US9201976B1 (en) * 2013-02-22 2015-12-01 Isaac S. Daniel System and method of authenticating an immigration visa card holder using an interactive immigration card

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000196937A (ja) * 1998-12-28 2000-07-14 Fuji Photo Film Co Ltd ディジタル・カメラおよびその制御方法ならびに画像デ―タ再生装置および方法
US20100134647A1 (en) * 2001-02-09 2010-06-03 Digital Imaging Systems Gmbh Methods and systems for embedding camera information in images
JP2003230019A (ja) * 2002-02-05 2003-08-15 Fuji Photo Film Co Ltd 表示方法、及び表示システム
JP2004193645A (ja) * 2002-12-06 2004-07-08 Fuji Photo Film Co Ltd 撮像装置、合成画像作成方法および合成画像作成プログラム、並びに、撮影条件設定方法および撮影条件設定プログラム
JP2006011580A (ja) * 2004-06-23 2006-01-12 Sharp Corp 撮影情報処理装置
JP2012049807A (ja) * 2010-08-26 2012-03-08 Nippon Telegr & Teleph Corp <Ntt> 情報送受信システム及び情報送受信方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020092334A (ja) * 2018-12-05 2020-06-11 ミツミ電機株式会社 撮像デバイス、撮像システム、および産業用ロボット
JP7372513B2 (ja) 2018-12-05 2023-11-01 ミツミ電機株式会社 撮像デバイス、撮像システム、および産業用ロボット
JP2022522638A (ja) * 2019-02-15 2022-04-20 トヨタ モーター ヨーロッパ 画像正規化のためのシステムと方法
JP7316620B2 (ja) 2019-02-15 2023-07-28 トヨタ モーター ヨーロッパ 画像正規化のためのシステムと方法

Also Published As

Publication number Publication date
RU2016140636A (ru) 2018-04-26
AU2015234575A1 (en) 2016-10-06
KR20160136432A (ko) 2016-11-29
CL2016002371A1 (es) 2017-06-23
US11172092B2 (en) 2021-11-09
CN111246195B (zh) 2022-01-11
MX2016012455A (es) 2017-07-28
US10924623B2 (en) 2021-02-16
CA2943411A1 (en) 2015-10-01
US20150281507A1 (en) 2015-10-01
JP6634432B2 (ja) 2020-01-22
CN111246195A (zh) 2020-06-05
EP3123732A4 (en) 2018-01-24
RU2016140636A3 (ja) 2018-07-24
WO2015143547A1 (en) 2015-10-01
RU2689136C2 (ru) 2019-05-24
EP3123732A1 (en) 2017-02-01
KR102357290B1 (ko) 2022-01-28
CN106664349B (zh) 2020-03-13
CA2943411C (en) 2022-11-22
US20200099816A1 (en) 2020-03-26
SG11201607733SA (en) 2016-10-28
CN106664349A (zh) 2017-05-10
US10516799B2 (en) 2019-12-24
BR112016021856A2 (pt) 2017-08-15
AU2015234575B2 (en) 2019-10-10
US20210136246A1 (en) 2021-05-06

Similar Documents

Publication Publication Date Title
JP6634432B2 (ja) 広角画像に関連する情報を記録、共有、及び処理することによるシステム挙動又はユーザエクスペリエンスの自動定義
US11122271B2 (en) Systems and methods for spatially selective video coding
US9838668B2 (en) Systems and methods for transferring a clip of video data to a user facility
CN109074632B (zh) 图像失真变换方法和设备
US20160286119A1 (en) Mobile Device-Mountable Panoramic Camera System and Method of Displaying Images Captured Therefrom
JP6332037B2 (ja) 画像処理装置および方法、並びにプログラム
US20190057496A1 (en) Information processing device, imaging apparatus, image reproduction apparatus, and method and program
US20230018560A1 (en) Virtual Reality Systems and Methods
CN110488489B (zh) 用于头戴式壳体的眼睛登记
WO2016072130A1 (ja) 情報処理装置
CN114556329A (zh) 用于从照片集生成映射图的方法和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190618

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191216

R150 Certificate of patent or registration of utility model

Ref document number: 6634432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250