JP2019510982A - カメラ較正システム - Google Patents

カメラ較正システム Download PDF

Info

Publication number
JP2019510982A
JP2019510982A JP2018552855A JP2018552855A JP2019510982A JP 2019510982 A JP2019510982 A JP 2019510982A JP 2018552855 A JP2018552855 A JP 2018552855A JP 2018552855 A JP2018552855 A JP 2018552855A JP 2019510982 A JP2019510982 A JP 2019510982A
Authority
JP
Japan
Prior art keywords
cameras
calibration
camera
test object
rig system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018552855A
Other languages
English (en)
Other versions
JP6619105B2 (ja
Inventor
キース カブラル、ブライアン
キース カブラル、ブライアン
パラ ポゾ、アルバート
パラ ポゾ、アルバート
サミュエル ブリッグス、フォレスト
サミュエル ブリッグス、フォレスト
スー、ジョイス
Original Assignee
フェイスブック,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フェイスブック,インク. filed Critical フェイスブック,インク.
Publication of JP2019510982A publication Critical patent/JP2019510982A/ja
Application granted granted Critical
Publication of JP6619105B2 publication Critical patent/JP6619105B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

カメラ較正システムは、カメラリグシステム内の複数台のカメラを一緒に較正する。カメラ較正システムは、他のカメラに対する各カメラの位置および配向などの、カメラリグシステム内の複数台のカメラに関する構成情報を取得する。カメラ較正システムは、取得された構成情報に基づいて、複数台のカメラの較正パラメータ(例:回転および平行移動)を推定する。カメラ較正システムは、複数台のカメラによって取り込まれた試験対象の二次元画像を受信し、試験対象の外観で区別可能な点の位置、サイズ、質感、および詳細情報などの、試験対象に関する既知の情報を取得する。次に、カメラ較正システムは、受信した二次元画像および推定された較正パラメータに基づいて試験対象の三次元モデルを生成する。生成された三次元モデルは、実際の試験対象と比較して評価され、較正誤差を決定する。カメラの較正パラメータは、複数台のカメラの較正誤差を低減するように更新される。

Description

本開示は一般に、マルチカメラシステム、より具体的には、マルチカメラシステムのカメラを較正することに関する。
マルチカメラシステムを通して画像を取り込むことは、三次元(3D)画像またはビデオをヘッドマウントディスプレイ(Head−Mounted Display:HMD)を装着したユーザに表示するバーチャルリアリティ(VR)システムに必須である。
しかし、マルチカメラシステムの設計および製造における公差によって、実際のカメラは、正しい位置で、または設計された通りの正しい角度で位置決めされていない場合がある。カメラは、互いに水平方向または垂直方向に平行移動しているか、または互いに対して不完全に配向されている可能性がある。これらの欠陥により、マルチカメラシステムによって生成される画像に深刻な問題、例えば、深刻な歪みまた複視を引き起こす場合があり、これによってユーザ体験が低下する。
したがって、正確な画像を表示するためのマルチカメラシステムの較正が必要とされている。
本発明による実施形態は、具体的には、方法、記録媒体、システム、およびコンピュータプログラム製品を対象とした添付の請求項において開示されており、例えば、方法などの1つの請求項カテゴリにおいて言及されている任意の特徴は、例えば、システムなどの別の請求項カテゴリにおいても同様に特許請求され得る。添付の請求項における従属関係または後方参照は、形式的な理由にのみ起因して選択されたものである。ただし、請求項およびその特徴の任意の組み合わせが開示されると共に添付の請求項において選択された従属関係とは無関係に特許請求され得るように、任意の先行する請求項に対する意図的な後方参照(特に、複数従属関係)から結果的に得られる任意の主題も同様に特許請求され得る。特許請求され得る主題は、添付の請求項に記載される特徴の組み合わせだけでなく、請求項中の特徴の任意の他の組み合わせも包含し、請求項に記載される各特徴は、請求項中の任意の他の特徴または他の特徴の組み合わせと組み合わせることができる。さらに、本明細書に記述または図示される実施形態および特徴のいずれかは、別の請求項において、および/または本明細書に記述または図示される任意の実施形態および特徴もしくは添付の請求項の特徴のいずれかと任意に組み合わせて特許請求され得る。
本発明による一実施形態では、カメラリグシステムを較正する方法であって、方法は、
カメラリグシステム内の複数台のカメラに関する構成情報を受信するステップと、
複数台のカメラの較正パラメータを識別するステップと、
複数台のカメラによって取り込まれた既知の試験対象の複数の画像を受信するステップと、
識別された較正パラメータおよび受信した複数の画像に基づいて試験対象の三次元モデルを生成するステップと、
既知の試験対象と比べた、試験対象の生成された三次元モデルの差異を反映する較正誤差を計算する、較正誤差計算ステップと、
複数台のカメラの較正パラメータを変更して較正誤差を低減するステップと
を備えることができる。
構成情報は、複数台のカメラ中の各カメラについて、複数台のカメラ中の他のカメラに対する位置および配向を含むことができる。
較正誤差計算するステップは、
三次元モデルの較正基準を既知の試験対象の対応する較正基準と比較するステップ
をさらに含むことができる。
既知の試験対象の較正基準は、既知の試験対象上の外観で区別可能な点の位置、サイズ、質感、形状および詳細情報のうちの少なくとも1つを含むことができる。
較正パラメータは、複数台のカメラのうちの各カメラに関する回転情報および平行移動情報を含むことができる。
カメラリグシステム内の複数台のカメラは、既知の試験対象が位置するそれぞれの視野中に重なり合った部分を共有することができる。
カメラリグシステム内の複数台のカメラは、カメラリグシステム内の2台のカメラであってよい。
カメラリグシステムは、複数台のカメラおよび複数の既知の対象を含むことができ、既知の対象のそれぞれは少なくとも2台のカメラによって見られ、各カメラは少なくとも2つの既知の対象を見る。
対になったカメラが較正され得る。
複数台のカメラは、一緒に較正され、カメラ各々の較正誤差を最小にすることができる。
本発明による一実施形態では、カメラリグシステムを較正するコンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、非一時的コンピュータ可読記憶媒体は、コンピュータプロセッサによって実行されたときに、プログラム命令はプロセッサに、
カメラリグシステム内の複数台のカメラに関する構成情報を受信するステップと、
複数台のカメラの較正パラメータを識別するステップと、
複数台のカメラによって取り込まれた既知の試験対象の複数の画像を受信するステップと、
識別された較正パラメータおよび受信した複数の画像に基づいて試験対象の三次元モデルを生成するステップと、
既知の試験対象と比べた、試験対象の生成された三次元モデルの差異を反映する較正誤差を計算する、較正誤差計算ステップと、
複数台のカメラの較正パラメータを変更して較正誤差を低減するステップと
を実行させることができる。
構成情報は、複数台のカメラ中の各カメラについて、複数台のカメラ中の他のカメラに対する位置および配向を含むことができる。
較正誤差計算ステップは、
三次元モデルの較正基準を既知の試験対象の対応する較正基準と比較するステップ
をさらに含むことができる。
既知の試験対象の較正基準は、既知の試験対象上の外観で区別可能な点の位置、サイズ、質感、形状および詳細情報のうちの少なくとも1つを含むことができる。
較正パラメータは、複数台のカメラのうちの各カメラに関する回転情報および平行移動情報を含むことができる。
カメラリグシステム内の複数台のカメラは、既知の試験対象が位置するそれぞれの視野中に重なり合った部分を共有することができる。
カメラリグシステム内の複数台のカメラは、カメラリグシステム内の2台のカメラであってよい。
カメラリグシステムは、複数台のカメラおよび複数の既知の対象を含むことができ、既知の対象のそれぞれは少なくとも2台のカメラによって見られ、各カメラは少なくとも2つの既知の対象を見る。
対になったカメラは較正され得る。
複数台のカメラは、一緒に較正され、カメラ各々の較正誤差を最小にすることができる。
本発明による一実施形態では、1つまたは複数のコンピュータ可読非一時的記憶媒体は、実行されたときに、本発明の方法または上述の実施形態のいずれかを実行するように動作可能なソフトウェアを具現化できる。
本発明による一実施形態では、システムは、1つまたは複数のプロセッサと、プロセッサに接続され、プロセッサによって実行可能な命令を含む少なくとも1つのメモリとを備え、プロセッサは、本発明の方法または上述の実施形態のいずれかを実行するために命令を実行するときに動作可能である。
本発明による一実施形態では、コンピュータ可読非一時的記憶媒体を含むことが好ましいコンピュータプログラム製品は、データ処理システムで実行されたときに、本発明の方法または上述の実施形態のいずれかを実行するように動作可能であり得る。
一実施形態による、カメラ較正システムが動作するシステム環境のブロック図。 一実施形態によるカメラリグシステムの斜視図。 一実施形態による、図2Aに示すカメラリグシステムの平面図。 一実施形態による、較正中のカメラリグシステムの平面図。 一実施形態による、カメラ較正システムのアーキテクチャのブロック図。 一実施形態による、十分に較正されていない2台のカメラからの例示的画像を示す図。 一実施形態による、カメラリグシステム内の複数台のカメラの外部較正のための例示的な試験対象を示す図。 一実施形態による、カメラリグシステム内の2台の異なる周辺カメラによって取り込まれた試験対象の画像を示す図。 一実施形態による、カメラリグシステム内の2台の異なる周辺カメラによって取り込まれた試験対象の画像を示す図。 一実施形態による、カメラ較正システムによる較正プロセスを示す例示的フローチャートを示す図。
カメラ較正システムは、カメラが見ている対象をモデル化し、その対象をカメラリグシステムの既知の周囲環境と比較することによって複数台のカメラを一緒に較正する。
カメラリグシステム内の複数台のカメラは、意図された設計目的のために要求される通りに配置または配向されていない場合があり、この場合、カメラの実際の位置および設計と比較した相対的な回転は不明である。この問題によって、例えば、2台のカメラ間のビューを生成するために、複数台のカメラによって取り込まれた画像を合成するときに視覚的なアーチファクトを引き起こす可能性がある。カメラ較正システムは、外部較正を実行して、カメラリグシステム内の複数台のカメラを較正する。外部較正とは、色、露出、およびカメラ間で異なり得る他の構成とは区別される、カメラリグシステム内のカメラ間の回転および平行移動の較正を意味する。
カメラ較正システムは、カメラリグシステムの1ラウンドまたは複数ラウンドの較正を実行することができる。較正ラウンドの間、複数台のカメラは、複数台のカメラによって提供される異なる視野から、指定された場所に配置された1組の試験対象の画像を取り込む。取り込まれた画像、ならびに試験対象の位置、サイズ、形状、色および質感などの1組の試験対象に関する詳細情報は、カメラ較正システムによって受信される。カメラ較正システムはまた、試験対象の画像を取り込む複数台のカメラに関する構成情報を取得する。構成情報は、複数台のカメラ中の他のカメラに対する各カメラの位置および配向の測定基準を含む。次に、構成情報を使用して、複数台のカメラの回転および平行移動などの初期較正パラメータを推定する。カメラ較正システムは、例えば、複数台のカメラによって取り込まれた受信二次元画像および複数台のカメラに関する推定較正パラメータに基づいて、三次元モデルの基準を計算することによって、ある特定の試験対象の三次元モデルを生成する。
カメラ較正システムは、特定の試験対象の既知の情報と比較して生成された三次元モデルを評価する。較正誤差は、生成された三次元モデルが実際の試験対象にどのくらい似ているか、例えば、生成された三次元モデルが様々な較正基準、例えば、試験対象の表面上の外観で区別可能な点の位置、サイズ、形状、質感および詳細情報に関して既知の試験対象にどのくらい一致しているかを示す。いくつかの実施形態では、較正基準は試験対象の特性にも依存する。例えば、六面立方体の試験対象の場合、異なる面間の直角度および各面の平坦度は、この試験対象の2つの較正基準である。したがって、較正誤差は、三次元モデルの計算された較正基準を既知の対象の較正基準と比較することによって、複数台のカメラの較正パラメータがどのくらい良好に推定されるかを示す。例えば、実際の試験対象と一致しない三次元モデルは、複数台のカメラの推定較正パラメータが正確ではなく、推定パラメータに基づく較正が有効ではなく、また較正パラメータは、次のラウンドの外部較正で調整できることを示すことができる。
一実施形態では、カメラリグシステム内の2台のカメラのみが、上記の手法を使用して1ラウンドの較正につき一度に一緒に較正される。次に、カメラのすべてのグループが所定の較正の繰り返しで較正されるまで、隣接する対のカメラ各々が一緒に較正されてもよい。別の実施形態では、カメラリグシステム内の異なる数のカメラまたはすべてのカメラが、上記の手法を使用して一度に一緒に較正されてもよい。較正誤差が改善し続けなくなる(すなわち、最後の較正誤差が繰り返す間に類似する)まで較正が繰り返し実行されてもよい。
一実施形態では、カメラリグシステムは、カメラリグシステム内の各カメラのビュー内に2つまたはそれ以上の既知の対象を有する既知の周囲環境に配置される。この例では、既知の対象のそれぞれは、2台またはそれ以上のカメラによって見られていてもよい。このようにして、各カメラの較正は、同じ対象のジョイントビューを介して他の近くのカメラの較正に関連付けることができる。
カメラを較正するために、カメラ較正システムは、カメラの較正パラメータに対して勾配降下関数を使用することができる。勾配降下関数は、較正誤差を低減する勾配内の較正パラメータを調整することによって、モデル化された三次元対象と既知の試験対象との間の、基準の差異の較正誤差を最小にする。既知の対象を使用してカメラを最適化することができるため、この較正技術は、従来の方法よりも高速かつより信頼性の高い較正を可能にする。
図面は、単なる例示を目的として本発明の種々の実施形態を図示する。当業者は、本明細書に記載された本発明の原理から逸脱することなく、本明細書に例示される構造および方法の代替的実施形態を利用できることを以下の記述より容易に認識するであろう。
システムアーキテクチャ
図1は、一実施形態による、カメラ較正システム300が動作するシステム環境100のブロック図である。図1に示すシステム環境100は、カメラリグシステム200、カメラ較正システム300、およびクライアントVRデバイス180を含む。1台のみのカメラリグシステム200、1つのカメラ較正システム300、および1つのクライアントVRデバイス180が、図1で例示のために図示されている。図示されていない代替的実施形態では、システム環境100は、複数のカメラリグシステム200、カメラ較正システム300、クライアントVRデバイス180、ならびに異なるおよび/または追加の要素を含むことができる。同様に、システム環境100内の様々なエンティティによって実行される機能は、異なる実施形態において異なっていてもよい。
カメラリグシステム200は、局所領域の画像および/またはビデオを取り込むように設計されたマルチカメラシステムである。局所領域は、カメラリグシステム200を取り囲む環境である。例えば、局所領域は、カメラリグシステム200が内部に位置している部屋であってもよい。カメラリグシステム200によって取り込まれた画像は、シーンまたは対象の複数のビューを提供し、クライアントVRデバイス180のためのシーンのキャンバスビューを生成するために使用することができる。キャンバスビューは、カメラリグシステム200内の複数台のカメラからの複数のビューを合成することによって生成されたシーンの任意のパノラマビュー、球面パノラマビュー、または好適な広角アングルビューであり得る。キャンバスビューは、クライアントVRデバイス180を装着したユーザのために、カメラリグシステム200の起点に立っている体験をシミュレーションできる。以下の図2A〜図2Bでより完全に説明されるように、カメラリグシステム200は、複数台の周辺カメラ230、上部軸カメラ240および下部軸カメラを含む。いくつかの実施形態では、カメラリグシステム200に含まれるカメラによって取り込まれた画像および関連する画像データは、複数台のカメラの組を較正するためにカメラ較正システム300に出力される。一例として、カメラリグシステム200は、カメラリグシステム内の複数台のカメラの組を一緒に較正するために、カメラ較正システム300のために既知の試験対象の画像を取り込む。
カメラ較正システム300は、カメラリグシステム200から取り込まれた画像を受信し、カメラリグシステム内の複数台のカメラの組のためにソフトウェアに基づくカメラ較正を実行する。カメラリグシステム200は、外部較正を必要とする様々な種類の歪みを含んでいる場合がある。例えば、カメラリグシステム200内の複数台のカメラの組は、意図される製造構成とは異なる何らかの未知の不一致をもって配向されている場合があり、また異なるカメラ間の相対的な位置および配向は、理想的な設計とはわずかに異なっている場合がある。カメラ較正システム300は、カメラリグシステム200内の複数台のカメラの組を一緒に較正し、較正パラメータに、ソフトウェアに基づく較正を実行して、その不一致を考慮するように各カメラからの画像を調整する。
以下でより完全に説明されるように、カメラ較正システム300は、カメラリグシステム200によって取り込まれた既知の試験対象の画像を処理し、カメラリグシステム内のカメラの較正のための初期較正パラメータ(例:回転および平行移動)を識別する。より具体的には、試験対象の三次元モデルは、カメラ較正システム300によって生成され、実際の試験対象の既知のデータと比較されて、較正パラメータを評価し、より正確な較正のためにそのパラメータを調整する。カメラ較正システム300による較正は、互いに対する各カメラの位置および配向などの、カメラリグシステム200に関するより正確な情報を提供する。較正パラメータを使用して、個々のカメラそれぞれから取り込まれた画像の確度を改善し、その後の処理を改善し、例えば、クライアントVRデバイス180用のコンテンツを生成することができる。
クライアントVRデバイス180は、メディアをユーザに提示するヘッドマウントディスプレイである。より具体的には、クライアントVRデバイス180は、カメラリグシステム200によって提供される画像またはビデオを受信し、クライアントVRデバイスを装着したユーザにバーチャルシーンを提供する。例えば、クライアントVRデバイス180は、カメラリグシステム200から取り込まれた画像を用いて生成されたビューから立体三次元バーチャルシーンをユーザに提供する。
図2A〜図2Cは、一実施形態によるカメラリグシステム200の異なるビューを示す。より詳細には、図2Aは、一実施形態によるカメラリグシステム200の斜視図である。図2Aに示すように、カメラリグシステム200は、位置合わせ軸205、上板210、底板220、複数台の周辺カメラ230および複数台の軸カメラ240を含む。複数台の周辺カメラ230は、周辺カメラ230が位置合わせ軸205によって二等分されている中心点周りにリングを成すように配置される。上板210は、周辺カメラ230のリングの上面に連結しており、底板220は、周辺カメラ230のリングの底面に連結している。軸カメラ240は、位置合わせ軸205に沿って位置合わせされ、局所領域またはシーンの上方ビューおよび下方ビューを取り込むことができる。この構成は、周辺カメラ230の振動を防止し、周辺カメラがVRシステム用の360°の画像/ビデオを生成するために使用される高品質の画像および/またはビデオを取り込むことを可能にする剛構造を作り出し、このことによって周辺カメラおよび軸カメラは一緒にVRシステム用のキャンバスビューを生成することができる。より詳細には、シーンのキャンバスビューは、上部軸カメラ240によって取り込まれた上方ビュー、下部軸カメラ(ここでは図示されていない)によって取り込まれた下方ビュー、および複数台の周辺カメラ230によって取り込まれた側方ビューを合成することによって生成される。
図2Aでは、14台の周辺カメラ230と、上部軸カメラ240および下部軸カメラ(ここでは図示せず)を含む2つの軸カメラとが、例示のために図示されている。図示されていない代替的実施形態では、異なる台数の周辺カメラ230および/または軸カメラ240がカメラリグシステム200に含まれていてもよい。同様に、追加および/または異なる要素がカメラリグシステム200に含まれてもよい。さらに、図2Aに示す様々なエンティティによって実行される機能は、異なる実施形態において異なっていてもよい。
より詳細には、周辺カメラ230は、局所領域またはシーンの360°ビューの画像および/またはビデオを取り込むように設計される。上述したように、複数台の周辺カメラ230は、周辺カメラ230が位置合わせ軸205によって二等分されている中心点周りにリングを成すように配置される。複数台の周辺カメラ230はさらに、各周辺カメラの光軸が平面内にあり、各周辺カメラの視野が中心点から離れる方向を向くように、中心点の周りに配置される。図2Aに示すように、各周辺カメラ230はさらに、ある距離およびある角度で、隣接する周辺カメラの隣に配置される。しかしながら、製造公差および構成公差のため、各カメラは実際には元の設計に対して平行移動または回転している場合がある。各カメラの較正パラメータを使用して、この平行移動および回転を考慮し修正することができる。
軸カメラ240は、局所領域またはシーンの上方ビューおよび下方ビューの画像および/またはビデオを取り込むように設計されている。軸カメラ240はそれぞれ、位置合わせ軸205に沿って位置合わせされ、軸カメラそれぞれの光軸が位置合わせ軸と同一線上になるように配向される。軸カメラ240それぞれの視野は、カメラリグシステム200の中心点から離れる方向に向けられる。図2Aに示すように、上部軸カメラ240は、局所領域または局所シーンの上方ビューを取り込む。下部軸カメラ(図示せず)は、位置合わせ軸205に沿って上部軸カメラ240と対称に配置され、局所領域の下方ビューを取り込む。上部軸カメラおよび下部軸カメラ240は、周辺カメラ230に対して垂直方向にずらされ、視野間の重なりを制限する。一例として、上部軸カメラ240および下部軸カメラは、広い視野を取り込むために魚眼レンズを含んでいてもよい。
図2Bは、一実施形態による、図2Aに示すカメラリグシステム200の平面図である。図2Bに示す構成は、特に、周辺カメラ230A、230B、および230Cに関するカメラリグシステム200の較正のために使用することができる。図2Bでは、対象275が図示されており、周辺カメラ230A、230B、および230Cならびにそれらの対応するビュー領域260A、260B、および260Cは、例示のために強調されている。各ビュー領域260は、対応する周辺カメラ230の視野を示す。例えば、ビュー領域260Aは周辺カメラ230Aの視野を示し、ビュー領域260Bは周辺カメラ260Bの視野を示し、ビュー領域260Cは周辺カメラ260Cの視野を示す。
以下で説明されるように、各周辺カメラ230は、それぞれ隣接する2台の周辺カメラがその視野の特定の重なりを有するように、隣接する周辺カメラの隣に一定の距離および一定の角度で配置および配向される。視野の重なり合う部分は、図2Bの影領域によって表される。いくつかの実施形態では、複数台の周辺カメラ230は、中心点から一定の距離にある局所領域内のいかなる対象も少なくとも2台の周辺カメラによって見えるように配置および配向される。図2A示す実施例では、ビュー領域260A、260B、および260Cの間の領域は、対象がいずれの周辺カメラ230によっても見ることができない死角領域280であり、影領域は、少なくとも2台の周辺カメラによって見ることができる。図2Bの対象275は、3台の周辺カメラ230A、230B、および230Cによって見ることができる。視野は、周辺カメラ230の異なる種類に応じて変化し得、異なるカメラの視界の重なり合った領域は、複数台の周辺カメラの数、位置および配向によっても変化し得る。
対象275は、その形状、対象上の任意の印、および周辺カメラ230によって見ることができる他の特徴などの既知の特性を有する対象である。以下にさらに記述されように、対象275の異なるビューを使用して、周辺カメラ230を較正することができる。対象275の既知の特徴を使用して、既知の特徴を、異なるビューを介して決定された特徴と比較し、各周辺カメラ230に関して識別された較正パラメータを評価する。この例では、較正パラメータは周辺カメラ230A、230B、および230Cに関して識別され得る。
図2Cは、一実施形態による、較正中のカメラリグシステム270の平面図である。カメラリグシステム270は、図2A〜図2Bに示すカメラリグシステム200と類似の特性を共有しているが、異なる台数の周辺カメラ295を有する。さらに詳細には、図2Cに示すカメラリグシステム270は、図2A〜図2Bに示す14台の周辺カメラ230の代わりに8台の周辺カメラ295を有する。この例に示すように、8台のカメラ295A〜295Hはそれぞれ対応する視野290A〜290Hを有する。カメラ295Aおよび295Bなどの隣接しているカメラは、既知の対象275A〜275Hが位置する重なり合った視野を有する。このようにして、各対象は、少なくとも2台のカメラによって見られ、各カメラは、その視野内に少なくとも2つの対象を含む。これにより、各カメラを、連続した対(例:295A〜295B、次いで295B〜295C)として、またはカメラの全組に関して一緒にするなど、互いに一緒に較正することが可能になる。したがって、各対象275は、カメラリグシステム全体が一緒に較正され得るように、各カメラ295の較正を、対象を見る他のカメラ295の較正に結びつける。
図3は、一実施形態による、カメラ較正システム300のアーキテクチャの例示的なブロック図である。カメラ較正システム300は、カメラリグシステム200からの入力、例えば、カメラリグシステム内の複数台のカメラによって取り込まれた画像および/またはビデオを受信する。例えば、カメラ較正システム300は、カメラリグシステム200によって取り込まれた試験対象の画像を受信する。カメラ較正システム300はまた、カメラリグシステム200の外部較正のために、回転および平行移動などの較正パラメータを推定および識別し、試験対象の位置、サイズ、質感、および形状などの計算された較正基準を用いて試験対象の三次元モデルを生成する。カメラ較正システム300は、様々な較正基準に関して、生成された三次元モデルを実際の既知の試験対象と比較して評価し、その比較に基づいてカメラの較正パラメータを調整する。
より詳細には、図3では、カメラ較正システム300は、インタフェースモジュール322、推定モジュール324、三次元モデル生成モジュール326、評価モジュール328、画像データ・ストア342、パラメータデータ・ストア344、三次元データ・ストア346、および評価データ・ストア348を含む。図示されていない代替的実施形態では、追加および/または異なる要素がカメラ較正システム300に含まれてもよい。同様に、カメラ較正システム300の様々なエンティティによって実行される機能は、異なる実施形態において異なっていてもよい。
インタフェースモジュール322は、カメラリグシステム200および/またはクライアントVRデバイス180から入力データを受信する。より具体的には、インタフェースモジュール322は、カメラリグシステム200から画像および/またはビデオを受信する。例えば、インタフェースモジュール322は、カメラリグシステム200内の複数台のカメラによって取り込まれた局所領域または対象(例:試験対象)の二次元画像を受信することができる。インタフェースモジュール322はさらに、カメラリグシステム200によって取り込まれた画像に関する画像データおよび/またはビデオデータを受信することができる。一実施形態では、インタフェースモジュール322は、以下により完全に説明されるように、将来の計算のために試験対象に関する情報を受信することもできる。試験対象に関する情報の例としては、試験対象上の特徴に関する位置、サイズ、形状、色および質感、ならびに情報、例えば、対象の外観で区別される点の視覚的特徴が挙げられる。
インタフェースモジュール322はまた、カメラリグシステムに含まれる各カメラの位置および配向の識別および推定のために、カメラリグシステム200に関する構成情報を受信することができる。構成情報は、互いの関係など、カメラの元のまたは予想される構成を説明するものである。構成情報はさらに、カメラの最大の誤差または較正を含み、カメラの製造公差を反映することができる。例えば、構成情報は、各カメラが互いに水平であるべきだが、±2cmだけ垂直にずれ、45°±2だけ角度が離れていてもよいことを示すことができる。したがって、構成情報は、カメラの較正の開始点であってもよく、所定の方向におけるカメラの最大較正パラメータを示す。初期較正パラメータは、構成情報に基づいて決定することができる。
一実施形態では、試験対象に関する情報および/またはカメラリグシステム200に関する構成情報は、カメラ較正システム300のユーザから受信することができる。例えば、ユーザは、カメラ較正システム300にインタフェースモジュール322を介して情報をタイプ入力する。ユーザ情報は、例えば、構築されたカメラリグシステム200の測定値を反映することができる。別の実施形態では、情報は、カメラ較正システム300に関連する別のコンピュータサーバ(ここでは図示せず)から受信される。受信した画像および/または関連する画像データは、将来の使用のために画像データ・ストア342に記憶される。試験対象に関する受信情報(例:位置、サイズ、質感、形状)およびカメラリグシステム200内の各カメラの位置および配向情報などのカメラの構成情報は、将来の使用のためにパラメータデータ・ストア344に記憶される。
インタフェースモジュール322はまた、クライアントVRデバイス180から入力データを受信することができる。例えば、インタフェースモジュール322は、クライアントVRデバイス180を装着しているユーザに提供されたビュー、画像および/またはデータに関するフィードバック情報を受信し、フィードバックに応答してユーザに変更または更新された画像などの出力データを提供する。
インタフェースモジュール322はまた、上述したように、カメラリグシステム200および/またはクライアントVRデバイス180にデータを出力する。クライアントVRデバイス180への出力データは、画像および/またはビデオを含むことができる。例えば、インタフェースモジュール322は、クライアントVRデバイス180を装着したユーザにバーチャル体験用に生成された三次元シーンを提供することができる。カメラリグシステム200への出力データは、試験対象または異なる局所領域に関するより多くの画像、またはカメラリグシステムの更新された較正パラメータに対する要求であってもよい。
推定モジュール324は、カメラリグシステム200の外部較正のためのパラメータを識別し、推定する。いくつかの実施形態では、パラメータは、カメラリグシステム200内の複数台のカメラを較正するために使用される較正パラメータである。より具体的には、各周辺カメラ230は、位置および配向に関する周辺カメラと他の周辺カメラとの関係を示す較正パラメータを有する。パラメータはまた、各周辺カメラ230について、カメラリグシステム200内のその実際の位置および配向と、設計された位置および配向(例:構成情報で指定されたもの)との間の関係を示す。例えば、周辺カメラ230は、その周辺カメラのために設計により要求されるような位置に配置されていなかったり、要求される方向に配向されていなかったりする場合があり、これにより周辺カメラによって撮影された画像が回転または変形する。一例として、異なる周辺カメラ230によって取り込まれた画像は、一緒に適用されてクライアントVRデバイス180用の画像を生成する場合、複視を引き起こすことがある。
各周辺カメラ230について、較正パラメータは、マルチカメラシステムの較正のための十分に確立されたデータ構造である、回転行列および変換行列を含むことができる。より詳細には、回転行列は、カメラのピッチ、ロール、およびヨーを説明でき、変換行列は、カメラの前方、側方、および垂直の配置を示す。いくつかの実施形態では、カメラリグシステム200との関連における各周辺カメラ230のパラメータは、パラメータデータ・ストア344に記憶された周辺カメラ230に関する構成情報に基づいて推定される。
カメラリグシステム200に含まれる異なる数のカメラのパラメータは、1回の外部較正に対して一度で識別し、推定することができる。例えば、カメラリグシステム200内の2台の周辺カメラ230に対する較正パラメータ(例:回転および平行移動)は、図7でより完全に以下で説明されるように、カメラリグシステム内の他のカメラに関係なく、一度に推定されてもよく、これは、2台の周辺カメラのための外部較正に対応する。この実施例では、2台の周辺カメラ230は、互いに隣接していてもよく、または互いに隣接するのではなく、異なる場所に配置されていてもよい。2台の周辺カメラ230は、両方のカメラによって取り込まれるべき同じ対象を含む重なり合ったビュー領域または視野を共有する。さらに、2台のカメラのみが1ラウンドで一緒に較正される場合、カメラリグシステム200内のすべての周辺カメラ230を較正するために、複数ラウンドの外部較正を実行することができる。例えば、カメラは繰り返し較正することができる。繰り返しの各回において、視野を共有するカメラの各対を較正することができる。図2Cの実施例では、1回目の繰り返しは、対象275Aを使用してカメラ295Hおよび295Aが較正されるまで、対象275Bを使用してカメラ295Aおよび295Bを較正し、次に対象275Cを使用してカメラ295Bおよび295Cを較正し、同様のことをカメラリグを一周して行うことができる。較正パラメータの変化量は、較正誤差として測定されてもよく、較正誤差がしきい値未満になるか、またはそれ以上改善されなくなるまで、較正のさらなる繰り返しを実行することができる。
別の例として、カメラリグシステム200内の異なる台数の周辺カメラ230、例えば、すべての周辺カメラを、1回の繰り返しで一緒に較正することができる。較正パラメータは、将来の使用のためにパラメータデータ・ストア344にも記憶され、同様にカメラリグシステム200にも記憶されてもよい。
三次元モデル生成モジュール326は、局所領域または対象の画像および/または画像データを受信し、その局所領域または対象の三次元モデルを生成する。局所シーンまたは対象の三次元モデルは、以下により完全に説明されるように、局所シーンまたは対象をシミュレーションする三次元モデルである。一例として、三次元モデル生成モジュール326は、カメラリグシステム200内の複数台のカメラによって取り込まれた二次元画像に基づいて、試験対象の三次元モデルを生成する。より詳細には、三次元モデル生成モジュール326は、画像データ・ストア342から試験対象の画像および/または画像データを抽出し、パラメータデータ・ストア344からカメラリグシステム200の現在の較正パラメータ(例:回転および平行移動)を抽出する。試験対象の三次元モデルは、受信した試験対象の二次元画像およびカメラリグシステム200内の複数台のカメラの推定較正パラメータに基づいて生成される。生成された三次元モデルに関するデータは、試験対象の位置、サイズ、形状、および質感に関する情報、例えば、三次元モデル上の外観で区別可能な点に関する詳細情報を含む。このデータは、上述のように、較正基準としてもみなされる。データは、以下により完全に説明されるように、三次元データ・ストア346に記憶される。
評価モジュール328は、生成された三次元モデルを評価して、既知の対象および三次元モデルの較正基準間の誤差を最小にするために、較正パラメータをさらに調整し、再推定する。評価モジュール328は、三次元データ・ストア346から生成された三次元モデルに関するデータを抽出し、パラメータデータ・ストア344から試験対象に関する既知のデータを抽出する。評価モジュール328は、三次元モデルの較正基準を既知の試験対象の基準と比較し、較正誤差を生成する。これらの基準としては、図6に関してさらに論じられるように、位置、サイズ、形状、質感、および他の基準を挙げることができる。評価モジュール328は、生成された三次元モデルに関するデータと、実際の試験対象に関する既知のデータとを比較して、生成された三次元モデルが実際の試験対象とどのくらい似ているか、例えば、生成された三次元モデルが様々な基準に関して実際の試験対象とどのくらい一致するかを評価する。(基準によって決定される)既知の対象と三次元モデルとの差異は、較正誤差と呼ばれる。
実際の試験対象とよく似ているかまたはよく一致する、生成された三次元モデルは、複数台のカメラに対する較正パラメータ(例:回転および平行移動)がほぼ正確であり、既知の対象を効果的に表すことを示す。
対照的に、実際の試験対象に似ていない、生成された三次元モデルは、カメラリグシステム200の較正パラメータ(例:回転および平行移動)が正確ではなく、関与する複数台のカメラの外部較正が有効でないことを示す。例えば、生成された三次元モデルの形状が実際の試験対象と同じでない可能性があるか、または三次元モデルに関して決定された質感が実際の試験対象の対応する部分と同じでない可能性がある。これらの例は、較正パラメータ(例:回転および平行移動)の推定が正確でない可能性があることを示している。いくつかの実施形態では、較正誤差にしきい値を設定することができる。例えば、しきい値内にある較正誤差は、生成された三次元モデルと実際の試験対象との良好な一致を示すことができ、しきい値から外れている較正誤差は、生成された三次元モデルと実際の試験対象とがよく一致していないことを示すことができる。
上述のように、評価モジュール328はさらに、試験対象の生成された三次元モデルの評価に基づいてカメラリグシステム200の推定較正パラメータを評価する。いくつかの実施形態では、較正パラメータ(例:回転および平行移動)は、現在の推定の評価に基づいて次のラウンドの較正および三次元モデル生成のために調整される。例えば、複数台のカメラの現在のラウンドの較正パラメータに対する評価が大きな較正誤差を有する場合、これはさらに、現在の較正がそれほど有効ではないことを示す。この例では、関与する同一の複数台のカメラに対する較正パラメータを次の較正ラウンドのために調整することができ、次の較正ラウンドの間、同じ試験対象の新しい三次元モデルが、現在のラウンド中に複数台のカメラによって取り込まれた同じ二次元画像に基づいて生成される。
一実施形態では、較正パラメータは、勾配降下関数または勾配降下アルゴリズムを使用して調整される。勾配降下関数は、較正パラメータに対する調整が三次元モデルの基準をどのように調整するかを決定し、三次元モデルの基準と対象の既知の基準との差異を最小にするように較正パラメータを調整する。勾配降下関数は、較正パラメータに対する可能な変化に基づいて三次元モデルを再計算するか、または基準および較正誤差が較正パラメータへの様々な調整に対してどのように変化するかを決定することができる。生成された三次元モデルおよび更新された較正パラメータの評価結果は、評価データ・ストア348に記憶される。
画像データ・ストア342は、特定の対象またはシーンの二次元画像および/または画像データを記憶する。一例として、画像は、同じ試験対象の複数のビューを示すことができ、カメラリグシステム200内の異なるカメラによって異なる視点ビューから取り込まれる。画像データは、各画素の明度、階調および色などの二次元画像上の各画素に関する情報を含むことができる。画像データ・ストア322に記憶された画像および画像データは、上述のように、三次元モデル生成モジュール326のために使用され、試験対象の三次元モデルを生成する。
パラメータデータ・ストア344は、試験対象に関する既知のデータを記憶する。例えば、パラメータデータ・ストア344は、試験対象のサイズ、形状、質感、および他の基準を記憶し、試験対象上の各点またはパターンに関する細かい情報を含むことができる。
パラメータデータ・ストア344はまた、カメラリグシステム200において一緒に較正されるべき複数台のカメラの構成情報および較正パラメータを記憶する。
三次元データ・ストア346は、生成された三次元モデルおよび生成された三次元モデルに関するデータを記憶する。上述のように、三次元モデルは、局所シーンまたは対象の三次元画像である。一例として、試験対象の三次元モデルは、画像データ・ストア342に記憶された試験対象の二次元画像を用いて生成される。生成された三次元モデルに関連するデータは、関与する複数台のカメラによって取り込まれたシーン内の試験対象のサイズ、形状、および位置などのデータを含むことができる。
評価データ・ストア348は、生成された三次元モデルおよび較正パラメータの評価データを記憶する。試験対象の生成された三次元モデルの評価データは、上述のように、三次元モデルが実際の試験対象にどのくらい似ているかを反映する較正誤差を示すことができる。
図4は、一実施形態による、十分に較正されていない2台のカメラからの例示的画像430を示す。図4では、画像430Aおよび画像430Bは、2つの異なる斜視ビューから同じ対象を見せるように、2台の異なる周辺カメラ230Aおよび230Bによって取り込まれる。2台のカメラ230Aおよび230Bは、設計通りに配置または配向されていないか、または一緒に較正されていない。図4に示すように、2枚の画像430Aおよび430BをブレンドしてクライアントVRデバイス180のユーザ用のビューを生成する際、2枚の画像430Aおよび430Bの不正確な位置および配向を原因として複視を引き起こす場合がある。
図5は、一実施形態による、カメラリグシステム200内の複数台のカメラの外部較正のための例示的な試験対象500を示す。図5では、試験対象500は、正面にチェッカー盤パターン510が塗布された六面立方体である。図5に示す実施例では、チェッカー盤パターン510は、5×5の正方形のチェッカー盤パターンである。チェッカー盤パターン510の角は、生成された三次元モデルの将来の評価に使用される。図示されていない代替的実施形態では、試験対象500は、図5に示される立方体ではなく、異なる種類または形状を有していてもよい。
図6Aおよび図6Bは、一実施形態による、カメラリグシステム200内の2台の異なる周辺カメラ230によって取り込まれた試験対象500の2枚の画像600および650を示す。図6Aおよび図6Bに示すように、角512は、図5に示す試験対象500の表面上の同じ角を表す。
図5および図6A〜図6Bに示す試験対象500の実施例では、生成された三次元モデルが実際の試験対象に似ているかどうかを判断するいくつかの方法がある。これらの基準を計算し、比較して、図6A〜図6Bを取り込むカメラの較正パラメータに対する較正誤差を決定することができる。一例として、図5に示された試験対象500について、立方体の二つの面の各々は互いに垂直であるべきであり、その場合、試験対象の生成された三次元モデルの各二つの面は、それらが互いに垂直であるかどうかを調べられ得る。ドット積のような数学的計算を使用して、生成された三次元モデルの面同士が互いに垂直であるかどうかを確認することができる。別の例として、試験対象500の各面は平坦であるべきであり、その場合、生成された三次元モデルは、試験対象500の各面が平坦であるかどうかを調べられ得る。さらなる例として、試験対象500の異なる辺は互いに対して回転すべきではない。別の例では、生成された三次元モデルにおける対象の面は、実際の試験対象の表面上の対応する点と比較され、生成された三次元モデルが実際の試験対象とどのくらい一致するかを評価することができる。別の言い方をすれば、生成された三次元モデルの面の質感は、試験対象の既知のパターンと比較することができる。この例では、「チェッカー盤」パターンを比較して、三次元モデルのパターンが正方形パターンであるか、または曲がっているかを1つの基準により判定することができる。生成された三次元モデルが既知の試験対象と一致するかどうかを評価するための較正基準として、試験対象のこれら様々な各側面を使用することができる。
図7は、一実施形態による、カメラ較正システム300による較正プロセスを示す例示的フローチャート700を示す。図7に示す例示的フローチャートでは、カメラ較正システム300内の2台またはそれ以上のカメラは、一緒に推定されるこれらの2台またはそれ以上のカメラのパラメータを用いて一緒に較正される。図示されていない代替的実施形態では、カメラ較正システム300内の異なる数のカメラまたはすべてのカメラは、図7に示すフローチャート700と同様のプロセスを使用して一緒に較正されてもよい。上述のように、較正は、試験対象に関して2台またはそれ以上のカメラを較正する第1の較正ラウンド、次いで、第1の較正ラウンドから調整された較正パラメータを用いた、別の組のカメラを較正する次の較正ラウンドにおいて繰り返されてよい。
図7に戻ると、最初に、カメラ較正システム300は、較正のためにカメラリグシステム200内の2台またはそれ以上のカメラに関する構成情報を受信する(710)。構成情報は、カメラリグシステム200内の他のカメラと比較した、各カメラの設計または測定された相対的な位置および配向に関する情報を含むことができる。カメラ較正システム300はまた、既知の試験対象に関する情報を受信する(720)。この情報は、既知の試験対象の様々な較正基準を含むことができる。カメラ較正システムはまた、2台またはそれ以上のカメラによって取り込まれた既知の試験対象の二次元画像を受信する(730)。カメラ較正システム300は、2台またはそれ以上のカメラに関する受信した構成情報に基づいて、またはカメラのための前の較正パラメータに基づいて、カメラの初期較正パラメータ、例えば、カメラの回転情報および平行移動情報を識別(740)または推定する。次に、カメラ較正システム300は、試験対象の受信した二次元画像と、2台またはそれ以上のカメラの識別された較正パラメータとに基づいて、試験対象の三次元モデルを生成する(750)。カメラ較正システム300は、試験対象の既知の基準に基づいて、試験対象の生成された三次元モデルの評価レポートを生成する(760)。評価レポートは、生成された三次元モデルが実際の試験対象とどのくらい似ているか、およびパラメータ(回転と平行移動)がどのくらい良好に推定されているかを示すことができる。カメラ較正システム300は、評価レポートに基づいて較正パラメータの評価を調整する(770)。
追加構成情報
本発明の実施形態の上述の説明は、例示の目的のために提示されており、網羅的であること、または、開示された正確な形態に本開示を限定することを意図するものではない。関連技術の当業者は、上記の開示に照らして多くの修正および変形が可能であることを理解することができる。
上記説明の一部は、情報操作のアルゴリズムおよび記号表現に関して本発明の実施形態を説明するものである。これらのアルゴリズムの説明および表現は、それらの作業内容を当業者に効果的に伝えるためにデータ処理分野において当業者によって一般に用いられる。これらの操作は、機能的、計算的に、または論理的に説明されるが、コンピュータプログラムまたは同等の電気回路、マイクロコードなどによって実施されることが理解されよう。また、一般性を失うことなく、これらの操作の構成をモジュールとして指すことが時として便利であることがさらに分かっている。記述された操作およびその関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア、または任意のそれらの組み合わせにおいて具現化されてよい。
本明細書に記載されているステップ、操作、またはプロセスのいずれかは、1つまたは複数のハードウェアまたはソフトウェアモジュールを、単独で、または他のデバイスと組み合わせて、実行または実施されてよい。一実施形態では、ソフトウェアモジュールは、コンピュータプログラムコードを含むコンピュータ可読媒体を備えたコンピュータプログラム製品を用いて実施され、このコンピュータプログラムコードは、記載されたステップ、操作、またはプロセスのいずれかまたはすべてを実行するためにコンピュータプロセッサによって実行され得る。
本発明の実施形態はまた、本明細書における操作を実行するための装置に関する。この装置は、必要な用途のために特別に設計されていてもよく、および/または、コンピュータ内に記憶されたコンピュータプログラムにより選択的に起動または再構成される汎用演算装置を備えていてもよい。このようなコンピュータプログラムは、非一時的な有形のコンピュータ可読記憶媒体、またはコンピュータシステムバスに接続することができる、電子命令を記憶するのに好適な任意の種類の媒体に記憶されてよい。さらに、本明細書において言及される演算システムは、単一のプロセッサを含んでいてもよく、または、増加した演算能力のための複数プロセッサ設計を使用したアーキテクチャであってもよい。
本発明の実施形態はまた、本明細書に記載の演算処理によって作り出される製品に関連し得る。このような製品は、演算処理から生じる情報を含むことができ、この情報は、非一時的な有形のコンピュータ可読記憶媒体に記憶され、かつ、コンピュータプログラム製品または本明細書に記載の他のデータの組み合わせの任意の実施形態を含むことができる。
最後に、本明細書で使用される用語は、主として読み易さおよび教示の目的で選択されており、それは本発明の主題を限定または制限するために選択されていない場合がある。したがって、本発明の範囲は、この詳細な説明によってではなく、本明細書に基づく出願に関して生じる特許請求の範囲によって限定されることが意図される。したがって、本発明の実施形態の開示は、添付の特許請求の範囲に記載される本発明の範囲を例示することを意図しており、限定することは意図していない。

Claims (34)

  1. カメラリグシステムを較正する方法であって、
    前記カメラリグシステム内の複数台のカメラに関する構成情報を受信するステップと、
    前記複数台のカメラの較正パラメータを識別するステップと、
    前記複数台のカメラによって取り込まれた既知の試験対象の複数の画像を受信するステップと、
    識別された前記較正パラメータおよび受信した前記複数の画像に基づいて前記試験対象の三次元モデルを生成するステップと、
    前記既知の試験対象と比べた、前記試験対象の生成された前記三次元モデルの差異を反映する較正誤差を計算する、較正誤差計算ステップと、
    前記複数台のカメラの前記較正パラメータを変更して前記較正誤差を低減するステップと
    を備える、方法。
  2. 前記構成情報は、前記複数台のカメラ中の各カメラについて、前記複数台のカメラ中の他のカメラに対する位置および配向を含む、請求項1に記載の方法。
  3. 前記較正誤差計算ステップは、
    前記三次元モデルの較正基準を前記既知の試験対象の対応する較正基準と比較するステップをさらに含む、請求項1に記載の方法。
  4. 前記既知の試験対象の前記較正基準は、前記既知の試験対象上の外観で区別可能な点の位置、サイズ、質感、形状および詳細情報のうちの少なくとも1つを含む、請求項3に記載の方法。
  5. 前記較正パラメータは、前記複数台のカメラのうちの各カメラに関する回転情報および平行移動情報を含む、請求項1に記載の方法。
  6. 前記カメラリグシステム内の複数台のカメラは、前記既知の試験対象が位置するそれぞれの視野中に重なり合った部分を共有している、請求項1に記載の方法。
  7. 前記カメラリグシステム内の前記複数台のカメラは、前記カメラリグシステム内の2台のカメラである、請求項6に記載の方法。
  8. 前記カメラリグシステムは、複数台のカメラおよび複数の既知の対象を含み、既知の対象のそれぞれは少なくとも2台のカメラによって見られ、各カメラは少なくとも2つの既知の対象を見る、請求項1に記載の方法。
  9. 対のカメラが較正される、請求項8に記載の方法。
  10. 前記複数台のカメラは、一緒に較正され、前記カメラ各々の較正誤差を最小にする、請求項8に記載の方法。
  11. カメラリグシステムを較正するコンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行されたときに前記コンピュータプログラム命令は、前記プロセッサに、
    前記カメラリグシステム内の複数台のカメラに関する構成情報を受信するステップと、
    前記複数台のカメラの較正パラメータを識別するステップと、
    前記複数台のカメラによって取り込まれた既知の試験対象の複数の画像を受信するステップと、
    識別された前記較正パラメータおよび受信した前記複数の画像に基づいて前記試験対象の三次元モデルを生成するステップと、
    前記既知の試験対象と比べた、前記試験対象の生成された前記三次元モデルの差異を反映する較正誤差を計算する、較正誤差計算ステップと、
    前記複数台のカメラの前記較正パラメータを変更して前記較正誤差を低減するステップと
    を実行させる、非一時的コンピュータ可読記憶媒体。
  12. 前記構成情報は、前記複数台のカメラ中の各カメラについて、前記複数台のカメラ中の他のカメラに対する位置および配向を含む、請求項11に記載の非一時的コンピュータ可読記憶媒体。
  13. 前記較正誤差計算ステップは、
    前記三次元モデルの較正基準を前記既知の試験対象の対応する較正基準と比較するステップをさらに含む、請求項11に記載の非一時的コンピュータ可読記憶媒体。
  14. 前記既知の試験対象の前記較正基準は、前記既知の試験対象上の外観で区別可能な点の位置、サイズ、質感、形状および詳細情報のうちの少なくとも1つを含む、請求項13に記載の非一時的コンピュータ可読記憶媒体。
  15. 前記較正パラメータは、前記複数台のカメラのうちの各カメラに関する回転情報および平行移動情報を含む、請求項11に記載の非一時的コンピュータ可読記憶媒体。
  16. 前記カメラリグシステム内の複数台のカメラは、前記既知の試験対象が位置するそれぞれの視野中に重なり合った部分を共有している、請求項11に記載の非一時的コンピュータ可読記憶媒体。
  17. 前記カメラリグシステム内の前記複数台のカメラは、前記カメラリグシステム内の2台のカメラである、請求項16に記載の非一時的コンピュータ可読記憶媒体。
  18. 前記カメラリグシステムは、複数台のカメラおよび複数の既知の対象を含み、既知の対象のそれぞれは少なくとも2台のカメラによって見られ、各カメラは少なくとも2つの既知の対象を見る、請求項11に記載の非一時的コンピュータ可読記憶媒体。
  19. 対のカメラが較正される、請求項18に記載の非一時的コンピュータ可読記憶媒体。
  20. 前記複数台のカメラは、一緒に較正され、前記カメラ各々の較正誤差を最小にする、請求項18に記載の非一時的コンピュータ可読記憶媒体。
  21. カメラリグシステムを較正する方法であって、
    前記カメラリグシステム内の複数台のカメラに関する構成情報を受信するステップと、
    前記複数台のカメラの較正パラメータを識別するステップと、
    前記複数台のカメラによって取り込まれた既知の試験対象の複数の画像を受信するステップと、
    識別された前記較正パラメータおよび受信した前記複数の画像に基づいて前記試験対象の三次元モデルを生成するステップと、
    前記既知の試験対象と比べた、前記試験対象の生成された前記三次元モデルの差異を反映する較正誤差を計算する、較正誤差計算ステップと、
    前記複数台のカメラの前記較正パラメータを変更して前記較正誤差を低減するステップと
    を備える、方法。
  22. 前記構成情報は、前記複数台のカメラ中の各カメラについて、前記複数台のカメラ中の他のカメラに対する位置および配向を含む、請求項21に記載の方法。
  23. 前記較正誤差計算ステップは、
    前記三次元モデルの較正基準を前記既知の試験対象の対応する較正基準と比較するステップをさらに含み、
    任意で、前記既知の試験対象の前記較正基準は、前記既知の試験対象上の外観で区別可能な点の位置、サイズ、質感、形状および詳細情報のうちの少なくとも1つを含む、請求項21または22に記載の方法。
  24. 前記較正パラメータは、前記複数台のカメラのうちの各カメラに関する回転情報および平行移動情報を含む、請求項21〜23のいずれか一項に記載の方法。
  25. 前記カメラリグシステム内の複数台のカメラは、前記既知の試験対象が位置するそれぞれの視野中に重なり合った部分を共有し、
    任意で、前記カメラリグシステム内の前記複数台のカメラは、前記カメラリグシステム内の2台のカメラである、請求項21〜24のいずれか一項に記載の方法。
  26. 前記カメラリグシステムは、複数台のカメラおよび複数の既知の対象を含み、既知の対象のそれぞれは少なくとも2台のカメラによって見られ、各カメラは少なくとも2つの既知の対象を見て、
    任意で、対のカメラが較正され、および/または、
    任意で、前記複数台のカメラは、一緒に較正され、前記カメラ各々の較正誤差を最小にする、請求項21〜25のいずれか一項に記載の方法。
  27. カメラリグシステムを較正するコンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行されたときに前記コンピュータプログラム命令は、前記プロセッサに、
    前記カメラリグシステム内の複数台のカメラに関する構成情報を受信するステップと、
    前記複数台のカメラの較正パラメータを識別するステップと、
    前記複数台のカメラによって取り込まれた既知の試験対象の複数の画像を受信するステップと、
    識別された前記較正パラメータおよび受信した前記複数の画像に基づいて前記試験対象の三次元モデルを生成するステップと、
    前記既知の試験対象と比べた、前記試験対象の生成された前記三次元モデルの差異を反映する較正誤差を計算する、較正誤差計算ステップと、
    前記複数台のカメラの前記較正パラメータを変更して前記較正誤差を低減するステップと
    を実行させる、非一時的コンピュータ可読記憶媒体。
  28. 前記構成情報は、前記複数台のカメラ中の各カメラについて、前記複数台のカメラ中の他のカメラに対する位置および配向を含む、請求項27に記載の非一時的コンピュータ可読記憶媒体。
  29. 前記較正誤差計算ステップは、
    前記三次元モデルの較正基準を前記既知の試験対象の対応する較正基準と比較するステップをさらに含み、
    任意で、前記既知の試験対象の前記較正基準は、前記既知の試験対象上の外観で区別可能な点の位置、サイズ、質感、形状および詳細情報のうちの少なくとも1つを含む、請求項27または28に記載の非一時的コンピュータ可読記憶媒体。
  30. 前記較正パラメータは、前記複数台のカメラのうちの各カメラに関する回転情報および平行移動情報を含む、請求項27〜29のいずれか一項に記載の非一時的コンピュータ可読記憶媒体。
  31. 前記カメラリグシステム内の複数台のカメラは、前記既知の試験対象が位置するそれぞれの視野中に重なり合った部分を共有しており、
    任意で、前記カメラリグシステム内の前記複数台のカメラは、前記カメラリグシステム内の2台のカメラである、請求項27〜30のいずれか一項に記載の非一時的コンピュータ可読記憶媒体。
  32. 前記カメラリグシステムは、複数台のカメラおよび複数の既知の対象を含み、既知の対象のそれぞれは少なくとも2台のカメラによって見られ、各カメラは少なくとも2つの既知の対象を見て、
    任意で、対のカメラが較正され、および/または、
    任意で、前記複数台のカメラは、一緒に較正され、前記カメラ各々の較正誤差を最小にする、請求項27〜31のいずれか一項に記載の非一時的コンピュータ可読記憶媒体。
  33. 1つまたは複数のプロセッサと、前記プロセッサに接続され、前記プロセッサによって実行可能な命令を含む少なくとも1つのメモリとを備えたシステムであって、前記プロセッサは、前記命令を実行するときに請求項21〜26のいずれか一項に記載の方法を実行するように動作可能である、システム。
  34. コンピュータ可読非一時的記憶媒体を含むことが好ましいコンピュータプログラム製品であって、データ処理システムで実行されたときに、請求項21〜26のいずれか一項に記載の方法を実行するように動作可能である、コンピュータプログラム製品。
JP2018552855A 2016-04-06 2017-03-27 カメラ較正システム Active JP6619105B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662319032P 2016-04-06 2016-04-06
US62/319,032 2016-04-06
US15/096,149 US10187629B2 (en) 2016-04-06 2016-04-11 Camera calibration system
US15/096,149 2016-04-11
PCT/US2017/024309 WO2017176485A1 (en) 2016-04-06 2017-03-27 Camera calibration system

Publications (2)

Publication Number Publication Date
JP2019510982A true JP2019510982A (ja) 2019-04-18
JP6619105B2 JP6619105B2 (ja) 2019-12-11

Family

ID=59999789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018552855A Active JP6619105B2 (ja) 2016-04-06 2017-03-27 カメラ較正システム

Country Status (10)

Country Link
US (2) US10187629B2 (ja)
JP (1) JP6619105B2 (ja)
KR (1) KR102069022B1 (ja)
CN (1) CN109313814B (ja)
AU (1) AU2017246118B2 (ja)
BR (1) BR112018070561A2 (ja)
CA (1) CA3019797C (ja)
IL (1) IL262000A (ja)
MX (1) MX2018012160A (ja)
WO (1) WO2017176485A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170305438A1 (en) * 2014-10-27 2017-10-26 Fts Computertechnik Gmbh Computer vision monitoring for a computer vision system
US10230904B2 (en) * 2016-04-06 2019-03-12 Facebook, Inc. Three-dimensional, 360-degree virtual reality camera system
CN107993276B (zh) * 2016-10-25 2021-11-23 杭州海康威视数字技术股份有限公司 一种全景图像的生成方法及装置
US10778906B2 (en) 2017-05-10 2020-09-15 Grabango Co. Series-configured camera array for efficient deployment
US20180357819A1 (en) * 2017-06-13 2018-12-13 Fotonation Limited Method for generating a set of annotated images
JP2019080223A (ja) * 2017-10-26 2019-05-23 株式会社ソニー・インタラクティブエンタテインメント カメラシステム
US20190180475A1 (en) * 2017-12-08 2019-06-13 Qualcomm Incorporated Dynamic camera calibration
US10854165B2 (en) * 2017-12-21 2020-12-01 Magic Leap, Inc. Method for calibrating an augmented reality device
US11727597B2 (en) * 2018-12-21 2023-08-15 Sony Group Corporation Calibrating volumetric rig with structured light
US11282231B2 (en) 2018-12-21 2022-03-22 Sony Group Corporation Camera rig with multiple sensors
CN109685858B (zh) * 2018-12-29 2020-12-04 北京茵沃汽车科技有限公司 一种单目摄像头在线标定方法
US10839560B1 (en) * 2019-02-26 2020-11-17 Facebook Technologies, Llc Mirror reconstruction
US11080884B2 (en) 2019-05-15 2021-08-03 Matterport, Inc. Point tracking using a trained network
CN112184823A (zh) * 2019-07-03 2021-01-05 上海飞猿信息科技有限公司 环视系统快速标定方法
US11488324B2 (en) * 2019-07-22 2022-11-01 Meta Platforms Technologies, Llc Joint environmental reconstruction and camera calibration
US11328424B1 (en) 2019-08-08 2022-05-10 The Chamberlain Group Llc Systems and methods for monitoring a movable barrier
US20210201431A1 (en) * 2019-12-31 2021-07-01 Grabango Co. Dynamically controlled cameras for computer vision monitoring
EP3882857A1 (en) * 2020-03-19 2021-09-22 Sony Group Corporation Extrinsic calibration of multi-camera system
CN114286075A (zh) * 2021-12-01 2022-04-05 北京新奥特图腾科技有限公司 校正参数调整方法、装置、电子设备及可读介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002350131A (ja) * 2001-05-25 2002-12-04 Minolta Co Ltd 多眼カメラのキャリブレーション方法および装置並びにコンピュータプログラム
JP2005017286A (ja) * 2003-06-06 2005-01-20 Mitsubishi Electric Corp カメラキャリブレーション方法およびカメラキャリブレーション装置
JP2008250487A (ja) * 2007-03-29 2008-10-16 Kyushu Institute Of Technology エッジ検出によるモデルマッチングを用いたカメラ校正方法
JP2011107990A (ja) * 2009-11-17 2011-06-02 Fujitsu Ltd キャリブレーション装置
US20150341618A1 (en) * 2014-05-23 2015-11-26 Leap Motion, Inc. Calibration of multi-camera devices using reflections thereof
US20150341617A1 (en) * 2014-05-20 2015-11-26 Nextvr Inc. Methods and apparatus including or for use with one or more cameras

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7224357B2 (en) 2000-05-03 2007-05-29 University Of Southern California Three-dimensional modeling based on photographic images
US7463280B2 (en) * 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
US8405323B2 (en) * 2006-03-01 2013-03-26 Lancaster University Business Enterprises Limited Method and apparatus for signal presentation
DE102008040985B4 (de) * 2008-08-05 2021-05-27 Robert Bosch Gmbh Verfahren zur Kalibrierung eines Mehrkamerasystems
CA2679903A1 (en) * 2008-09-25 2010-03-25 Orthosoft Inc. Optical camera calibration for cas navigation
CN100588269C (zh) * 2008-09-25 2010-02-03 浙江大学 基于矩阵分解的摄像机阵列标定方法
US8310525B2 (en) * 2008-10-07 2012-11-13 Seiko Epson Corporation One-touch projector alignment for 3D stereo display
KR101043450B1 (ko) 2009-07-31 2011-06-21 삼성전기주식회사 카메라를 이용한 위치와 거리 측정장치 및 위치와 거리 측정방법
KR20120065834A (ko) 2010-12-13 2012-06-21 한국전자통신연구원 멀티 카메라 기반의 디지털 액터 생성 장치 및 그 방법
EP2695385B8 (en) * 2011-04-08 2016-03-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Capturing panoramic or semi-panoramic 3d scenes
DE202011005083U1 (de) * 2011-04-09 2011-06-09 Maier, Florian, 82205 Vorrichtung zum Kalibrieren von Mehrkamera-Aufnahmevorrichtungen
EP2530647A1 (en) * 2011-06-01 2012-12-05 Harman Becker Automotive Systems GmbH Method of calibrating a vehicle vision system and vehicle vision system
TWI515455B (zh) 2011-11-10 2016-01-01 鴻海精密工業股份有限公司 星型探針量測校正系統及方法
WO2014071400A1 (en) * 2012-11-05 2014-05-08 360 Heros, Inc. 360 degree camera mount and related photographic and video system
WO2014169952A1 (de) * 2013-04-16 2014-10-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Justieren eines multi-kamerasystems, multi kamerasystem und justierhilfe
US9292765B2 (en) * 2014-01-07 2016-03-22 Microsoft Technology Licensing, Llc Mapping glints to light sources
WO2015110847A1 (en) 2014-01-27 2015-07-30 Xylon d.o.o. Data-processing system and method for calibration of a vehicle surround view system
DE102014210099B3 (de) * 2014-05-27 2015-10-22 Carl Zeiss Meditec Ag Verfahren zur bildbasierten Kalibrierung von Mehrkamerasystemen mit einstellbarem Fokus und / oder Zoom
US20150362579A1 (en) 2014-06-12 2015-12-17 Google Inc. Methods and Systems for Calibrating Sensors Using Recognized Objects
US10368011B2 (en) * 2014-07-25 2019-07-30 Jaunt Inc. Camera array removing lens distortion
US9560345B2 (en) * 2014-12-19 2017-01-31 Disney Enterprises, Inc. Camera calibration
US10531071B2 (en) * 2015-01-21 2020-01-07 Nextvr Inc. Methods and apparatus for environmental measurements and/or stereoscopic image capture
US10237473B2 (en) * 2015-09-04 2019-03-19 Apple Inc. Depth map calculation in a stereo camera system
US10057562B2 (en) * 2016-04-06 2018-08-21 Facebook, Inc. Generating intermediate views using optical flow
US9934615B2 (en) * 2016-04-06 2018-04-03 Facebook, Inc. Transition between binocular and monocular views
USD830444S1 (en) * 2016-06-30 2018-10-09 Facebook, Inc. Panoramic virtual reality camera
USD830445S1 (en) * 2016-06-30 2018-10-09 Facebook, Inc. Panoramic virtual reality camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002350131A (ja) * 2001-05-25 2002-12-04 Minolta Co Ltd 多眼カメラのキャリブレーション方法および装置並びにコンピュータプログラム
JP2005017286A (ja) * 2003-06-06 2005-01-20 Mitsubishi Electric Corp カメラキャリブレーション方法およびカメラキャリブレーション装置
JP2008250487A (ja) * 2007-03-29 2008-10-16 Kyushu Institute Of Technology エッジ検出によるモデルマッチングを用いたカメラ校正方法
JP2011107990A (ja) * 2009-11-17 2011-06-02 Fujitsu Ltd キャリブレーション装置
US20150341617A1 (en) * 2014-05-20 2015-11-26 Nextvr Inc. Methods and apparatus including or for use with one or more cameras
US20150341618A1 (en) * 2014-05-23 2015-11-26 Leap Motion, Inc. Calibration of multi-camera devices using reflections thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YUKO UEMATSU,外3名: ""D-Calib: Calibration Software for Multiple Cameras System"", 14TH INTERNATIONAL CONFERENCE ON IMAGE ANALYSIS AND PROCESSING (ICIAP 2007), vol. pp. 285-290, JPN6019016155, 2007, ISSN: 0004030668 *

Also Published As

Publication number Publication date
CA3019797A1 (en) 2017-10-12
US20170295358A1 (en) 2017-10-12
US10623718B2 (en) 2020-04-14
WO2017176485A1 (en) 2017-10-12
BR112018070561A2 (pt) 2019-02-12
MX2018012160A (es) 2019-02-07
CA3019797C (en) 2019-10-08
AU2017246118B2 (en) 2019-04-04
IL262000A (en) 2018-10-31
AU2017246118A1 (en) 2018-11-08
US20190098287A1 (en) 2019-03-28
KR20180123575A (ko) 2018-11-16
JP6619105B2 (ja) 2019-12-11
CN109313814B (zh) 2020-05-08
US10187629B2 (en) 2019-01-22
KR102069022B1 (ko) 2020-01-22
CN109313814A (zh) 2019-02-05

Similar Documents

Publication Publication Date Title
JP6619105B2 (ja) カメラ較正システム
EP3229209B1 (en) Camera calibration system
US10916033B2 (en) System and method for determining a camera pose
US8447099B2 (en) Forming 3D models using two images
US20130010079A1 (en) Calibration between depth and color sensors for depth cameras
JP6391130B2 (ja) カメラキャリブレーション
CN108257183A (zh) 一种相机镜头光轴校准方法和装置
CN108629810B (zh) 双目相机的标定方法、装置及终端
JP7151879B2 (ja) カメラ校正装置、カメラ校正方法、及びプログラム
An et al. Novel calibration method for camera array in spherical arrangement
CN115797461A (zh) 基于双目视觉的火焰空间定位系统标定与校正方法
Krutikova et al. Creation of a depth map from stereo images of faces for 3D model reconstruction
Angelopoulou et al. Uncalibrated flatfielding and illumination vector estimationfor photometric stereo face reconstruction
CN112396663A (zh) 一种多深度相机的可视化标定方法、装置、设备和介质
CN109238167B (zh) 透明物体光线对应关系采集系统
Vupparaboina et al. Euclidean auto calibration of camera networks: baseline constraint removes scale ambiguity
Kojima et al. New multiple-camera calibration method for a large number of cameras
Colombo et al. Shape reconstruction and texture sampling by active rectification and virtual view synthesis
Liang et al. Robust calibration of cameras with telephoto lens using regularized least squares
Qi et al. A Minimal Solution for Sphere-Based Camera-Projector Pair Calibration
JP4196784B2 (ja) カメラ位置測定装置および方法並びにカメラ位置制御方法
Vupparaboina et al. Smart camera networks: An analytical framework for auto calibration without ambiguity
Madeira et al. Horizontal Stereoscopic Display based on Homologous Points.
Kannala et al. Self-calibration of central cameras by minimizing angular error.
CN112767455A (zh) 一种双目结构光的校准方法及系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181130

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181130

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191113

R150 Certificate of patent or registration of utility model

Ref document number: 6619105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250