JP7297515B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7297515B2
JP7297515B2 JP2019084152A JP2019084152A JP7297515B2 JP 7297515 B2 JP7297515 B2 JP 7297515B2 JP 2019084152 A JP2019084152 A JP 2019084152A JP 2019084152 A JP2019084152 A JP 2019084152A JP 7297515 B2 JP7297515 B2 JP 7297515B2
Authority
JP
Japan
Prior art keywords
imaging device
information processing
image
distance
focal point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019084152A
Other languages
English (en)
Other versions
JP2020182109A (ja
JP2020182109A5 (ja
Inventor
靖 四方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019084152A priority Critical patent/JP7297515B2/ja
Priority to US16/837,852 priority patent/US11172188B2/en
Publication of JP2020182109A publication Critical patent/JP2020182109A/ja
Publication of JP2020182109A5 publication Critical patent/JP2020182109A5/ja
Application granted granted Critical
Publication of JP7297515B2 publication Critical patent/JP7297515B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Generation (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
近年、複数の撮像装置を異なる位置に設置し、複数の撮像装置が同期して被写体を撮像し、撮像により得られた複数の視点の画像を用いて、撮像装置の設置位置の画像だけでなく任意の視点の画像を仮想視点画像として生成する技術がある。
複数の視点の画像に基づく仮想視点画像の生成、及び閲覧は、例えば、次のようにして実現することができる。まず、被写体を撮像するように複数の撮像装置を設置し、撮像した画像をサーバ装置等の画像生成装置に集約する。そして、画像生成装置は、複数の撮像装置が撮像した画像を用いて、仮想視点に基づくレンダリング等の処理を施して仮想視点画像を生成し、ユーザの視聴端末に仮想視点画像を表示する。
サッカーやバスケットボールの試合を撮像した画像から、画像コンテンツ制作者により指定された仮想視点に応じた、仮想視点画像を生成することにより迫力のある視点のコンテンツを制作することができる。また、コンテンツを見ているユーザ自身が視聴端末に備えたコントローラやタブレット等を使用して自由に視点を移動し、画像生成装置がその視点に応じた仮想視点画像を生成することで、ユーザは、好みの視点で、試合を観戦することができる。従って、仮想視点画像を用いたサービスでは、視点を任意に変更できない従来のサービスと比較して、ユーザにその場面にいるような臨場感を与えることができる。
特許文献1には、複数の撮像装置により撮像して取得された画像を利用して、ユーザが指定した仮想視点から見た仮想視点画像を生成する技術が開示されている。
特開2014-215828号公報
複数の撮像装置により取得される撮像画像を用いて所定領域の仮想視点画像を生成する場合に、各撮像装置の合焦範囲(ピントが合っている範囲)の共通部分にその所定領域が含まれていれば、高画質の仮想視点画像を生成することができる。しかし、各撮像装置の合焦範囲の共通部分が小さい場合には、生成される仮想視点画像における当該共通部分に含まれない領域が大きくなってしまうおそれがある。その結果、仮想視点画像の画質が低くなってしまう。
これに対し、各撮像装置の合焦位置の調整により、仮想視点画像を生成可能な領域を拡大する方法が考えられる。しかし、このような方法では、各撮像装置の合焦位置が空中となり、実際に意図した位置で合焦しているか目視により確認することができなかった。
特許文献1には、各撮像装置の合焦位置に関しての記載がない。そのため、特許文献1では、このよう問題を解決できなかった。
本発明は、複数の撮像装置のそれぞれの合焦範囲は広げた場合であっても撮像装置の合焦状態を容易に確認することを目的とする。
本発明の情報処理装置は、オブジェクトを撮像して仮想視点画像を生成するために用いられる撮像装置の合焦点の位置であって、前記撮像装置の光軸上にあり、前記オブジェクト上の第1の位置よりも前記撮像装置に近い設定位置を特定する第1の特定手段と、特定された前記設定位置と、前記撮像装置の位置と、の間の距離に基づいて、前記撮像装置の光軸上にない前記オブジェクト上の第2の位置を決定する決定手段と、前記オブジェクト上の前記第2の位置に対応する、前記撮像装置により撮像された画像上の位置を特定する第2の特定手段と、特定された前記画像上の位置に関する情報を出力する出力手段と、を有する。
本発明によれば、複数の撮像装置のそれぞれの合焦範囲は広げた場合であっても撮像装置の合焦状態を容易に確認することができる。
情報処理システムのシステム構成の一例を示す図である。 複数の撮像装置の配置状況の一例を示す図である。 情報処理装置のハードウェア構成等の一例を示す図である。 撮像装置からの距離とボケ量との関係の一例を示す図である。 注視点を合焦点とした場合の合焦領域の一例を示す図である。 合焦点を手前に移動した場合の合焦領域の一例を示す図である。 焦点距離と合焦点との関係の一例を示す図である。 3次元形状モデルデータの一例を説明する図である。 3次元形状モデルデータの一例を説明する図である。 空間合焦点と、実際の合焦点と、の関係の一例を示す図である。 情報処理装置の処理の一例を示すフローチャートである。 情報処理装置の処理の一例を示すフローチャートである。 情報処理装置の処理の一例を示すフローチャートである。 撮像画像上にフォーカス枠を重畳した画面の一例を示す図である。 情報処理装置の処理の一例を示すフローチャートである。
以下に、本発明の実施の形態の一例を、図面に基づいて詳細に説明する。
<実施形態1>
本実施形態の情報処理システムは、複数の撮像装置について、焦点の合う地点である合焦点を注視点よりも撮像装置寄りに設定する。これにより、情報処理システムは、複数の撮像装置の合焦領域の合計の領域を拡大したのち、ユーザの目視によりその妥当性を確認可能にする情報を出力することができるようになる。合焦とは、フォーカス(焦点)が合っていることである。合焦領域とは、対応する撮像装置により焦点の合った画像を撮像可能な領域である。注視点は、撮像装置の光軸(レンズの光軸)と撮影フィールドとの交点であり、本実施形態では、複数の撮像装置で注視点の位置が共通な場合を例にして説明を行う。ただし、注視点の位置は、複数の撮像装置で共通な位置に設定されてなくてもよく、複数の撮像装置それぞれの注視点が異なる位置に設定されていてもよい。また、複数の撮像装置の光軸が、注視点を含む所定の領域に向けられていてもよい。
図1は、本実施形態の情報処理システムのシステム構成の一例を示す図である。情報処理システムは、撮像装置101~110、情報処理装置200、UI部260、ハブ210、画像処理装置300を含む。撮像装置101~110、情報処理装置200、画像処理装置300は、それぞれハブ210を介して、相互に通信可能に接続されている。
撮像装置101~110は、それぞれ異なる位置に配置され、それぞれ異なる視点から撮像対象を撮像するネットワークカメラ、カメラと接続されたカメラコントローラ等の撮像装置である。以下では、撮像装置101~110は、撮像装置100と総称する。
撮像装置101~110は、それぞれ、撮像した画像を、ハブ210を通して、画像処理装置300に送信する。
情報処理装置200は、撮像装置100それぞれの撮影や状態を制御する情報処理装置である。本実施形態では、情報処理装置200は、パーソナルコンピュータ(PC)であるとするが、サーバ装置、タブレット装置等の他の情報処理装置であってもよい。
ハブ210は、ネットワーク中継機器である。
UI部260は、情報処理装置200への情報の入力、情報処理装置200からの情報の出力に用いられる入出力装置である。
画像処理装置300は、撮像装置100により撮像された画像と、設定された仮想視点と、に基づいて、仮想視点画像250を生成する情報処理装置である。本実施形態では、画像処理装置300は、サーバ装置であるとするが、PC、タブレット装置等の他の情報処理装置であってもよい。
画像処理装置300は、撮像装置100それぞれからの画像をもとに、前景背景分離を実行し、前景から3次元モデルを生成し、3次元モデルに仮想撮像装置から見たときの色をレンダリングすることで仮想視点画像を生成する。ただし、他の例として、画像処理装置300は、仮想視点映像を生成する方式はこれに限るものではなく、ビルボード方式等の3次元モデルを作らない方式等の他の方式で、仮想視点画像を生成してもよい。
本実施形態では、情報処理システムのシステム構成は、図1の構成であるとする。ただし、他の例として、情報処理システムは、他のシステム構成であるとしてもよい。例えば、撮像装置100それぞれが直接、情報処理装置200や画像処理装置300に接続されていてもよいし、撮像装置100同士がデイジーチェーン接続されていてもよい。また、撮像装置100の台数も10台に限定されるものではなく、11台以上であってもよいし、9台以下であってもよい。
図2は、本実施形態における撮像装置101~110それぞれの配置状況の一例を示す図である。図2が示すように、撮像装置101~110それぞれは、スタジアムのフィールドを取り囲むように配置されており、1つの注視点(所定の位置)130の方向を向いている。
情報処理システムは、撮像装置101~110により撮像された画像を用いて、注視点130付近で発生するシーンの仮想視点画像を生成する。情報処理装置200は、撮像装置100それぞれのフォーカスを合わせる制御を行う。なお、本実施形態では、撮像装置100の注視点を、注視点130の1つであるとする。ただし、他の例として、撮像装置100の注視点は、複数あることとしてもよい。その場合、撮像装置100それぞれは、この複数の注視点のうちの何れか1つの注視点を向いている。
図3(a)は、情報処理装置200のハードウェア構成の一例を示す図である。
情報処理装置200は、CPU211、ROM212、RAM213、補助記憶装置214、表示部215、操作部216、通信I/F217を含む。各要素は、バス218を介して相互に通信可能に接続されている。
CPU211は、ROM212やRAM213に格納されているコンピュータプログラムやデータを用いて情報処理装置200の全体を制御する。なお、情報処理装置200がCPU211とは異なる1又は複数の専用のハードウェアを有し、CPU211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、DSP(デジタルシグナルプロセッサ)等がある。
ROM212は、変更を必要としないプログラム等を格納する。RAM213は、補助記憶装置214から供給されるプログラムやデータ、及び通信I/F217を介して外部から供給されるデータ等を一時記憶する。補助記憶装置214は、例えばハードディスクドライブ等で構成され、画像データや音声データ等の種々のデータを記憶する。
表示部215は、例えば液晶ディスプレイやLED等で構成され、ユーザが情報処理装置200を操作するためのGUI(Graphical User Interface)等を表示する。操作部216は、例えば、キーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU211に入力する。通信I/F217は、情報処理装置200の外部の装置との通信に用いられる。例えば、情報処理装置200が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F217に接続される。情報処理装置200が外部の装置と無線通信する機能を有する場合には、通信I/F217はアンテナを備える。バス218は、情報処理装置200の各部をつないで情報を伝達する。
CPU211がROM212又は補助記憶装置214に記憶されたプログラムにしたがって処理を実行することで、図3(b)で後述する情報処理装置200の機能、図11-13、15、16のフローチャートの処理等が実現される。
本実施形態では、表示部215と操作部216とが情報処理装置200の内部に存在するものとする。ただし、表示部215と操作部216との少なくとも一方が情報処理装置200の外部に別の装置として存在していてもよい。この場合、CPU211が、表示部215を制御する表示制御部、及び操作部216を制御する操作制御部として動作してもよい。
本実施形態では、画像処理装置300のハードウェア構成も、図3(a)に示す情報処理装置200のハードウェア構成と同様である。
画像処理装置300のCPUが画像処理装置300のROM又は補助記憶装置に記憶されたプログラムにしたがって処理を実行することで、画像処理装置300の機能、画像処理装置300の処理が実現される。
図3(b)は、情報処理装置200の機能構成等の一例を示す図である。
情報処理装置200は、画像取得部221、コマンド送信部222、パラメータ取得部223、パラメータ設定部224、フォーカス位置設定部225、被写界深度計算部226、移動量計算部227、領域特定部228、入力制御部229を含む。
画像取得部221は、撮像装置100それぞれからの画像を取得してUI部260に送る。UI部260は、撮像装置100それぞれの撮像画像を表示し、表示された撮像画像を確認したユーザからの入力される情報(例えば、画角や注視点の調整指示、フォーカス位置の指定等)を受付ける。また、ユーザは、UI部260に表示されたフォーカスの合焦状態の確認画面を視認することで、撮像装置100それぞれのフォーカスの合焦状態の確認を行う。
コマンド送信部222は、撮像装置100それぞれへコマンドを送信し、撮影開始や終了制御の他に、フォーカス合わせの指令等も送信する。
パラメータ取得部223は、処理時点における撮像装置100それぞれに設定されたパラメータ(例えば、ズーム値、フォーカス値、絞り値等)を、撮像装置100それぞれから取得する。パラメータ取得部223は、更に、フォーカスに関してはフォーカスレンズの物理的なポジション値だけでなく、フォーカス領域のコントラスト値も取得する。
パラメータ設定部224では、焦点距離の移動量を、フォーカスレンズのポジション値として、対応する撮像装置に送信し、このポジション値を設定するよう撮像装置に指示することで、この撮像装置のフォーカスの位置を変更する。なお、パラメータ設定部224は、フォーカスレンズのポジション値だけでなく、対応する撮像装置に対する、ズーム値や絞り値等の他のパラメータの設定も行う。
フォーカス位置設定部225は、撮像装置の撮像画面内における、その撮像装置のフォーカス合わせ位置を、指定の場所に設定する制御を行う。フォーカス位置設定部225は、画面中心から外れた領域に、フォーカスの位置を設定することができる。
被写界深度計算部226は、パラメータ取得部223により撮像装置ごとに取得されたパラメータに基づいて、撮像装置100それぞれの合焦点前後の被写界深度を計算する。
移動量計算部227では、撮像装置100それぞれについて、合焦点の移動距離をレンズの焦点距離移動量に変換する。
領域特定部228は、撮像装置100それぞれが注視点130を合焦点とする場合に比べて、撮像装置100の合焦領域の合計の領域が拡大するように、撮像装置100それぞれの合焦点を、空中の位置に決定する。以下では、この決定された合焦点を、空間合焦点とする。また、以下では、撮像装置100の合焦領域の合計の領域を、合計合焦領域とする。領域特定部228は、撮像装置100それぞれについて、実際の合焦点の位置を、以下のように決定する。即ち、領域特定部228は、撮像装置と実際の合焦点との距離が、撮像装置と空間合焦点との距離と等しくなるように、注視点130の近傍に存在するオブジェクト上の表面上の位置を、実際の合焦点として決定する。
入力制御部229は、外部から、スタジアムの3次元形状モデルデータと、撮像装置100それぞれと注視点との距離情報と、の入力を受付け、領域特定部228へ送信する。この3次元形状モデルデータについては、図8等で後述する。3次元形状モデルデータは、3次元形状データの一例である。
図4を用いて、撮像装置からの距離と、撮像装置のレンズのボケ量と、の関係について説明する。図4のグラフは、ある絞り値とフォーカス値とが設定された撮像装置から被写体までの距離と、ボケ量と、の関係を示すグラフである。この撮像装置のフォーカスは、被写体位置である合焦点340に合わせられている。図4に示すように、合焦点340から(撮像装置から見て)手前に向かっては、急激にボケ量が増加し、(撮像装置から見て)奥(後方)に向かっては緩やかにボケ量が増加する。
人間が目で見て分からない程度のボケ量を許容ボケ量310として予め定義されている。この場合、フォーカスの合っている範囲は合焦範囲350になる。合焦範囲の前端351は、合焦点340からの距離がA、後端353は合焦点340からの距離がB+Cになり、合焦範囲の中心352は合焦点よりも後方になる。なお、A+Bの長さはCと同じである。
図5を用いて、従来行われていた撮像装置のフォーカス合わせの方法を説明する。図5の状況は、撮像装置401、402それぞれがマーカ420を向いて配置されている状況である。
図5の例では、撮像装置401、402は、マーカ420の位置を注視点430として、マーカ420にフォーカスを合わせて、注視点430であるマーカ420の位置を合焦点440とする。即ち、図5の例では、マーカ420の位置と注視点430と合焦点440とは、同じ位置となる。複数の撮像装置が注視点を取り囲むように配置されている場合、合計合焦領域450(この複数の撮像装置それぞれの合焦領域の合計の領域)は、注視点430から撮像装置に向かって距離Aの位置を、端部とする範囲になる。なお、注視点から撮像装置までの距離が異なる場合には、距離Aも、対応する撮像装置に応じて異なる値になる。
この場合、複数の撮像装置が、同一の点であるマーカ420に合焦して撮影しているため、マーカ420の近傍において複数の撮像装置の合焦領域同士の重複が広範に生じてしまう。
図6を用いて、合計合焦領域を広げる方法について説明する。図6の状況は、図5と同様に、撮像装置401、402それぞれがマーカ420を向いている状況である。
図6の例では、撮像装置401、402それぞれは、合焦点の位置を、図5の状況と比べて、次のように移動させている。即ち、撮像装置401、402それぞれは、撮像装置と注視点430とを結ぶ線分に沿って、注視点430から撮像装置側に移動させている。これにより、撮像装置401の合焦点は、合焦点541となり、撮像装置402の合焦点は、合焦点542となる。合焦点541、542それぞれは、撮像装置401、402の光軸上、空中に存在し、空間合焦点となる。この場合、合計合焦領域550は、マーカ420の位置から撮像装置に向かって距離A+Bの位置を端点とする範囲になり、合計合焦領域450よりも広い領域となる。なお、注視点から撮像装置までの距離が異なる場合には、距離Bも、対応する撮像装置に応じて異なる値になる。合焦点541、542それぞれの位置は、空間合焦点が設定されている設定位置の一例である。
撮像装置の合焦点を、合焦点541、542のような空間合焦点にすると、その撮像装置の合焦領域を拡大することができる。しかし、合焦点が空中にあるため、実際に合焦されているか否かを確認することが困難となる。
図7を用いて、撮像装置の合焦点を移動させる方法を説明する。
撮像装置のレンズ610と合焦点との距離aと、レンズ610とセンサ(撮像センサ)620との距離bと、には、1/a+1/b=1/fという関係式が成り立っている。fはレンズに平行光が入射したときのセンサ距離(焦点距離)である。図7に示すように、注視点630が合焦点である状態から、レンズに対して撮像センサの位置をdだけ移動させると、合焦点は、Dだけ移動して、合焦点640の位置となる。
合焦点の移動量Dが指定されれば、レンズ610をどの程度移動させればよいかを計算できる。以下では、焦点距離という言葉は、適宜、fだけでなく、センサ距離bのことも指すものとする。
図8、及び図9は、本実施形態で用いられるスタジアムの3次元形状モデルデータの一例を説明する図である。以下では、本実施形態で用いられるスタジアムの3次元形状モデルデータを、スタジアムモデルデータとする。スタジアムモデルデータには、実空間上に設定された3次元座標上におけるスタジアム構造、フィールド面の形状、各撮像装置及び注視点の座標情報が少なくとも含まれる。スタジアムモデルデータは、撮像環境の3次元形状モデルの一例である。
図8が示すように、スタジアムモデルデータには、フィールド中心を原点として、注視点130の3次元座標(Xn、Yn、Zn)や各撮像装置の座標が含まれる。
また、図9が示すように、スタジアムモデルデータは、撮像装置のズーム値に応じた撮影画像の2次元座標系と設定された3次元座標系とのマッピング情報も含む。
そのため、情報処理装置200は、スタジアムモデルデータを用いることで、設定された3次元座標上の位置の3次元座標が、撮像装置100の何れか(例えば、撮像装置109)の撮像画像上(撮像センサ面上)のどの座標に対応するかを求めることができる。本実施形態では、スタジアムモデルデータは、3次元レーザースキャンを用いて実測されたスタジアムの形状のデータを用いて作成されたデータである。ただし、他の例として、スタジアムモデルデータは、スタジアムの設計図を用いて生成されたデータであってもよい。
図10を用いて、本実施形態の情報処理システムが実行する撮像装置100それぞれに対する実際の合焦点の決定方法の概要を説明する。
図10の状況は、図5と同様に、撮像装置401、402それぞれがマーカ420を向いている状況である。図10を用いて、情報処理システムが実行する撮像装置100それぞれに対する実際の合焦点の決定方法と同様の方法で、撮像装置401、402それぞれの実際の合焦点の決定する処理を説明する。
まず、撮像装置401、402それぞれについて、レンズを移動させることで、マーカ420の位置に合せられていた合焦点の位置を、それぞれ、合焦点541、542に移動させる。
ここで、撮像装置と空間合焦点との距離をDとおく。撮像装置からの距離が、E=D±α(α:予め定められた誤差)となるフィールドの表面(フィールド面)上の点を特定する。そして、特定した点を、撮像装置の実際の合焦点として決定する。
つまり、合焦点541に対応する(撮像装置401の)実際の合焦点543は、図10で示す位置となる。また、合焦点542に対応する(撮像装置402の)実際の合焦点544は、図10で示す位置となる。
図10の例では、撮像装置401、402それぞれの実際の合焦点の位置は、フィールド面上を移動され、注視点430より撮像装置401、402それぞれに近い位置に設定されている。これにより、撮像装置401の合焦点は、合焦点543となり、撮像装置402の合焦点は、合焦点544となる。この場合、合計合焦領域560は、実際の合焦点の位置から撮像装置に向かって距離A+Bの位置を端点とする範囲になり、合計合焦領域450よりも広い領域となる。
合焦点543、544は、フィールド面上の点であり、撮像装置401、402それぞれにより撮像された画像には、合焦点であるフィールド面が写った画像が撮像される。そのため、ユーザは、その画像内のフィールド面を視認することで、実際に合焦点で合焦されているか否かを容易に確認できる。
図11を用いて、情報処理装置200が実行する撮像装置100それぞれに対するフォーカス処理の一例を説明する。
S810において、CPU211は、撮像装置100それぞれに対して、合焦領域を拡大する制御処理を実行する。これにより、パラメータ設定部224は、撮像装置100それぞれの合焦点を、注視点130よりも(各撮像装置から見て)手前に移動させた空間合焦点とすることで、各撮像装置について合焦領域を拡大させる。S810の処理の詳細については、図12で後述する。
S820において、CPU211は、撮像装置100それぞれについて、実際の合焦点を特定する処理を実行する。本実施形態では、CPU211は、撮像装置100それぞれについて、S810で移動された合焦点(空間合焦点)と撮像装置との距離が等しくなるフィールド面上の点を、実際の合焦点として特定する。
S830において、CPU211は、撮像装置100の合焦領域の合計である合計合焦領域を特定し、特定した合計合焦領域を示すオブジェクトを、UI部260に、撮像装置100それぞれの撮像画像と重複して表示する。ユーザは、UI部260に表示された画面を確認することで、フォーカス状態を確認する。S820、S830の処理の詳細については、図13で後述する。
図12を用いて、S810の処理の詳細を説明する。
S710において、CPU211は、注視点130へのマーカの配置を待機する。CPU211は、UI部260を介してマーカの配置の完了が通知された場合、処理をS720に進める。
S720において、CPU211は、撮像装置100から撮像装置を1つ選択し、選択した撮像装置に対して、注視点130に配置されたマーカにフォーカスを合わせるよう指示する。図12の処理中において、最新のS720の処理で選択された撮像装置を選択撮像装置とする。
S730において、CPU211は、被写界深度計算部226を介して、選択撮像装置について、注視点130に配置されたマーカ周囲における被写界深度を計算する。より具体的には、CPU211は、パラメータ取得部223を介して、被写界深度の計算に用いられるパラメータ(絞り値やズーム値等)を、選択撮像装置からを取得する。また、CPU211は、予め補助記憶装置214に記憶された選択撮像装置と注視点130との距離を取得する。ただし、CPU211は、スタジアムモデルデータから選択撮像装置と注視点130との距離を求めることで、選択撮像装置と注視点130との距離を取得してもよい。そして、CPU211は、取得したパラメータと、選択撮像装置と注視点130との距離と、に基づいて、選択撮像装置の被写界深度を計算する。
そして、CPU211は、被写界深度計算部226を介して、選択撮像装置について、被写界深度の中心を注視点130の位置(マーカ位置)にするために、合焦点をマーカ位置からどの程度、移動させればよいかを示す移動距離を計算する。
S740において、CPU211は、移動量計算部227を介して、選択撮像装置について、S730で求められた移動距離を、レンズの移動量に変換する。
S750において、CPU211は、パラメータ設定部224及びコマンド送信部222を介して、選択撮像装置に対して、S740で求めたレンズの移動量だけレンズを移動させることを指示するコマンドを送信する。これにより、選択撮像装置の合焦点が、マーカのある注視点130の位置から対応する撮像装置側の空中の位置に移動し、空間合焦点となる。この空間合焦点は、選択撮像装置と注視点とを結ぶ線分上に設定された点の一例である。
そして、CPU211は、選択撮像装置の空間合焦点と選択撮像装置との距離を求める。CPU211は、選択撮像装置からの距離が求めた距離となるフィールド面上の位置のうち、注視点130からの距離が最小となる位置を、選択撮像装置の実際の合焦点の位置として求める。ただし、他の例として、CPU211は、選択撮像装置からの距離が求めた距離となるフィールド面上の位置であって、注視点130からの距離が予め定められた閾値以下となる位置のうちの何れかの位置を、実際の合焦点の位置として求めてもよい。そして、CPU211は、選択撮像装置の合焦点を、求めた実際の合焦点の位置にするよう制御する。
CPU211は、例えば、予め定められたフォーカス合わせの方式で、選択撮像装置について、合焦点を、求められた実際の合焦点の位置とするように制御する。予め定められたフォーカス合わせの方式は、例えば、位相差やコントラスト差をもとにしたオートフォーカス、ユーザによる操作に応じたマニュアルフォーカス等がある。
撮像装置のレンズに温度特性や個体差があり、S1010で計算された合焦点の移動量が適切でない場合、S1020で合焦点を制御された撮像装置により撮像される画像は、不適切なものとなる。そのため、S750で合焦点が制御された選択撮像装置の撮像画像を確認することで、適切に合焦点が設定されているか確認できるようになる。
S760において、CPU211は、撮像装置100の全てについて、S720~750の処理が完了したか否かを判定する。CPU211は、撮像装置100の全てについて、S720~750の処理が完了したと判定した場合、図12の処理を終了し、撮像装置100の中にS720~750の処理が完了していない撮像装置があると判定した場合、処理をS720に進める。
以上の処理により、複数の撮像装置が注視点130を取り囲むように配置されている場合に、許容ボケ量以下の撮像領域(合焦領域、被写界深度)を有効に利用することが可能となる。
図13を用いて、S820の処理の詳細を説明する。
S910において、CPU211は、撮像装置100から撮像装置を1つ選択する。図13の処理中において、最新のS910の処理で選択された撮像装置を選択撮像装置とする。S910の処理は、S730と同様である。そのため、CPU211は、S730の結果を用いることで、S910の処理を割愛することとしてもよい。
以下のS920~S940それぞれの処理は、領域特定部228を介した処理となる。
S920において、CPU211は、スタジアムモデルデータと、S910で求めた移動量と、から、スタジアムモデルデータに設定された3次元座標のける選択撮像装置の空間合焦点の座標を求める。
S930において、CPU211は、スタジアムモデルデータ上での選択撮像装置の空間合焦点と選択撮像装置との距離を求める。そして、CPU211は、選択撮像装置からの距離が求めた距離となるフィールド面上の位置のうち、注視点130からの距離が最小となる位置を特定し、特定した位置の座標を、選択撮像装置の実際の合焦点の座標として求める。ただし、他の例として、CPU211は、選択撮像装置からの距離が求めた距離となるフィールド面上の位置であって、注視点130からの距離が予め定められた閾値以下となる位置のうちの何れかの位置の座標を、実際の合焦点の座標として求めてもよい。
S940において、CPU211は、S930で求めた座標を、選択撮像装置の撮像画像内に設定された(選択撮像装置の撮像センサ面上に設定された)2次元座標系におけるどの座標に該当するか特定する。
S950において、CPU211は、S940で求めた2次元座標に基づいて、UI部260に、選択撮像装置により撮像された画像に重畳して、フォーカスされた位置を示す枠を表示する。
S960において、CPU211は、撮像装置100の全てについてS910~S950の処理が完了したか否かを判定する。CPU211は、撮像装置100の全てについてS910~S950の処理が完了したと判定した場合、図13の処理を終了し、撮像装置100にS910~S950の処理が完了していない撮像装置が存在すると判定した場合、処理をS910に進める。
図14は、S950でUI部260に表示される画面の一例を示す図である。撮像画像上にフォーカス位置を示す枠が重畳して表示されている。図14の例では、CPU211は、S940で求めた2次元座標点を中心に矩形の枠を重畳して表示した。この枠は、表示オブジェクトの一例である。表示されたこの画面を確認することで、ユーザは、このフォーカス枠内の合焦状態を目視確認し、その妥当性を判断できる。
以上、本実施形態の処理により、情報処理システムは、撮像装置100それぞれの合焦状態を確認可能なように、仮想視点画像を生成可能な領域をより拡大できる。
<実施形態2>
本実施形態では、情報処理システムは、撮像装置100それぞれについて、フィールド面上の実際の合焦点の位置を特定した後に、特定した実際の合焦点の位置を、合焦点に設定する。
情報処理システムのシステム構成は、実施形態1と同様である。また、情報処理装置200のハードウェア構成、及び機能構成は、実施形態1と同様である。
図15は、本実施形態の情報処理装置200の処理の一例を示すフローチャートである。
S1010において、CPU211は、撮像装置100それぞれについて、実際の合焦点の位置を特定する。より具体的には、CPU211は、以下のような処理を行う。
即ち、CPU211は、パラメータ取得部223を介して、被写界深度の計算に用いられるパラメータ(絞り値やズーム値等)を、補助記憶装置214から取得する。本実施形態では、補助記憶装置214には、撮像装置100それぞれについてのパラメータ(絞り値やズーム値)の固定値が予め記憶されている。また、CPU211は、予め補助記憶装置214に記憶された撮像装置100それぞれと注視点130との距離を取得する。ただし、CPU211は、スタジアムモデルデータから撮像装置100それぞれと注視点130との距離を求めることで、撮像装置それぞれと注視点130との距離を取得してもよい。
そして、CPU211は、取得したパラメータと、撮像装置100それぞれと注視点130との距離と、に基づいて、撮像装置100それぞれの被写界深度を計算する。
CPU211は、撮像装置100それぞれについて、計算した被写界深度に基づいて、被写界深度の中心を注視点130の位置(マーカ位置)にするために、合焦点をマーカ位置からどの程度、移動させればよいかを示す移動量を計算する。マーカ位置からこの移動量だけ撮像装置の方へ移動した点が、この撮像装置の空間合焦点となる。
CPU211は、スタジアムモデルデータと、計算した移動量と、から、スタジアムモデルデータに設定された3次元座標における撮像装置100それぞれの空間合焦点の座標を求める。そして、CPU211は、撮像装置100それぞれについて、スタジアムモデルデータ上での空間合焦点と撮像装置との距離を求める。そして、CPU211は、撮像装置100それぞれについて、フィールド面上における撮像装置からの距離が求めた距離となる位置のうち、注視点130からの距離が最小となる位置を特定し、特定した位置の座標を、実際の合焦点の座標として求める。ただし、他の例として、CPU211は、撮像装置からの距離が求めた距離となるフィールド面上の位置であって、注視点130からの距離が予め定められた閾値以下となる位置のうちの何れかの位置の座標を、実際の合焦点の座標として求めてもよい。
S1020において、CPU211は、撮像装置100それぞれを、S1010で求めた実際の合焦点の座標が示す位置を、合焦点とするよう制御する。CPU211は、例え、予め定められたフォーカス合わせの方式で、撮像装置100それぞれについて、合焦点を、求められた実際の合焦点の位置とするように制御する。予め定められたフォーカス合わせの方式は、例えば、位相差やコントラスト差をもとにしたオートフォーカス、ユーザによる操作に応じたマニュアルフォーカス等がある。
また、選択撮像装置は、実際の合焦点が設定された後で、実際の合焦点の位置に配置されたマーカを撮像することとしてもよい。それにより、特徴点が少なくコントラストが低いフィールド面に合せてフォーカス合せを行う場合よりも、S1020でのフォーカス合せの精度が向上される。
S1030において、CPU211は、撮像装置100それぞれについて、S1010で求めた座標を、撮像画像内に設定された2次元座標系におけるどの座標に該当するか特定する。そして、CPU211は、撮像装置100それぞれについて、特定した座標に基づいて、UI部260に、撮像画像に重畳して、フォーカスされた位置を示す枠を表示する。
以上、本実施形態の処理により、情報処理システムは、実施形態1と同様の効果を奏することができる。
更に、本実施形態では、情報処理システムは、撮像装置100それぞれに実際の合焦点を設定する前に、撮像装置100それぞれの実際の合焦点の位置を決定できる。そのため、例えば、情報処理システムは、撮像装置が実際にスタジアムに設置される前に、各撮像装置の実際の合焦点を決定し、撮像装置の設置後に、決定した実際の合焦点を設定できる。このように、情報処理システムは、撮像装置の設置前に処理の一部を実行することで、撮像装置の設置後の作業負荷や作業時間を削減することができる。本実施形態は、スタジアムが屋内である場合等の外光条件が一定である場合、特に好適な形態となる。
<その他の実施形態>
実施形態1、2では、情報処理システムは、撮像装置100それぞれの実際の合焦点をフィールド面上の位置にするようにした。ただし、他の例として、情報処理システムは、合焦していることが理解できる画像が撮像可能であるならば、フィールド面以外のオブジェクト(例えば、壁面、ポール等)上の位置を、撮像装置100それぞれの実際の合焦点とするようにしてもよい。
例えば、CPU211は、S750で、以下のようにして、実際の合焦点の位置を求めてもよい。即ち、CPU211は、まず、選択撮像装置の空間合焦点と選択撮像装置との距離を求める。そして、CPU211は、選択撮像装置からの距離が求めた距離となるスタジアムの壁面上の位置のうち、注視点130からの距離が最小となる位置を、選択撮像装置の実際の合焦点の位置として求めてもよい。
また、実施形態1、2では、情報処理システムは、撮像装置100それぞれについて、撮像装置と空間合焦点との距離と、撮像装置と実際の合焦点との距離と、が同じになるように、実際の合焦点を決定した。
ただし、他の例として、情報処理システムは、撮像装置100それぞれについて、撮像装置と空間合焦点との距離と、撮像装置と実際の合焦点との距離と、の差分の大きさが予め定められた閾値以下になるように、実際の合焦点を決定してもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した情報処理システムの機能構成の一部又は全てをハードウェアとして情報処理装置200に実装してもよい。以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。例えば、上述した各実施形態を任意に組み合わせる等してもよい。
100 撮像装置
200 情報処理装置
211 CPU

Claims (13)

  1. オブジェクトを撮像して仮想視点画像を生成するために用いられる撮像装置の合焦点の位置であって、前記撮像装置の光軸上にあり、前記オブジェクト上の第1の位置よりも前記撮像装置に近い設定位置を特定する第1の特定手段と、
    特定された前記設定位置と、前記撮像装置の位置と、の間の距離に基づいて、前記撮像装置の光軸上にない前記オブジェクト上の第2の位置を決定する決定手段と、
    前記オブジェクト上の前記第2の位置に対応する、前記撮像装置により撮像された画像上の位置を特定する第2の特定手段と、
    特定された前記画像上の位置に関する情報を出力する出力手段と、
    を有する情報処理装置。
  2. 前記設定位置は、前記撮像装置の光軸上において、前記オブジェクト上の前記第1の位置から予め定められた距離だけ離れた位置である請求項1に記載の情報処理装置。
  3. 前記設定位置は、前記撮像装置の光軸上において、前記撮像装置の被写界深度の中心が前記オブジェクト上の前記第1の位置に対応する場合における前記撮像装置の合焦点の位置である請求項1又は2に記載の情報処理装置。
  4. 前記撮像装置との距離が前記設定位置と前記撮像装置の位置との間の距離と等しくなる位置であって、前記オブジェクト上の位置を、前記オブジェクト上の前記第2の位置として特定する請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記オブジェクト上の前記第2の位置は、前記設定位置と前記撮像装置の位置との間の距離と、前記オブジェクトの3次元形状データと、に基づいて決定される請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記オブジェクト上の前記第2の位置は、前記オブジェクト上の前記第2の位置に配置されたマーカを用いて、前記撮像装置の合焦点として設定される請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記撮像装置により撮像された画像を設定された表示部に表示する表示制御手段を更に有する請求項1乃至6の何れか1項に記載の情報処理装置。
  8. 前記表示制御手段は、前記撮像装置により撮像された画像と、実際の合焦点を示す表示オブジェクトと、を重畳して前記表示部に表示する請求項7に記載の情報処理装置。
  9. 特定された前記画像上の位置に関する情報は、フレームを使用して前記画像上に表示される、請求項7に記載の情報処理装置。
  10. 前記オブジェクトは、フィールドである請求項1乃至の何れか1項に記載の情報処理装置。
  11. 特定された前記画像上の位置に関する情報は、前記撮像装置の焦点の状態をユーザがチェックするために使用される、請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 情報処理装置が実行する情報処理方法であって、
    オブジェクトを撮像して仮想視点画像を生成するために用いられる撮像装置の合焦点の位置であって、前記撮像装置の光軸上にあり、前記オブジェクト上の第1の位置よりも前記撮像装置に近い設定位置を特定する第1の特定ステップと、
    特定された前記設定位置と、前記撮像装置の位置と、の間の距離に基づいて、前記撮像装置の光軸上にない前記オブジェクト上の第2の位置を決定する決定ステップと、
    前記オブジェクト上の前記第2の位置に対応する、前記撮像装置により撮像された画像上の位置を特定する第2の特定ステップと、
    特定された前記画像上の位置に関する情報を出力する出力ステップと、
    を含む情報処理方法。
  13. コンピュータを、請求項1乃至11の何れか1項に記載の情報処理装置の各手段として、機能させるためのプログラム。
JP2019084152A 2019-04-25 2019-04-25 情報処理装置、情報処理方法及びプログラム Active JP7297515B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019084152A JP7297515B2 (ja) 2019-04-25 2019-04-25 情報処理装置、情報処理方法及びプログラム
US16/837,852 US11172188B2 (en) 2019-04-25 2020-04-01 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019084152A JP7297515B2 (ja) 2019-04-25 2019-04-25 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2020182109A JP2020182109A (ja) 2020-11-05
JP2020182109A5 JP2020182109A5 (ja) 2022-05-02
JP7297515B2 true JP7297515B2 (ja) 2023-06-26

Family

ID=72921778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019084152A Active JP7297515B2 (ja) 2019-04-25 2019-04-25 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US11172188B2 (ja)
JP (1) JP7297515B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11488348B1 (en) * 2021-12-09 2022-11-01 Unity Technologies Sf Computing virtual screen imagery based on a stage environment, camera position, and/or camera settings

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182248A (ja) 2013-03-19 2014-09-29 Fujitsu Ltd 合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラム
JP2019009766A (ja) 2017-06-23 2019-01-17 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002065763A2 (en) * 2001-02-12 2002-08-22 Carnegie Mellon University System and method for manipulating the point of interest in a sequence of images
JP2003101825A (ja) * 2001-09-20 2003-04-04 Fuji Photo Optical Co Ltd レンズ情報表示装置
US20030210329A1 (en) * 2001-11-08 2003-11-13 Aagaard Kenneth Joseph Video system and methods for operating a video system
JP2014215828A (ja) 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
US9742974B2 (en) * 2013-08-10 2017-08-22 Hai Yu Local positioning and motion estimation based camera viewing system and methods

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182248A (ja) 2013-03-19 2014-09-29 Fujitsu Ltd 合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラム
JP2019009766A (ja) 2017-06-23 2019-01-17 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム

Also Published As

Publication number Publication date
JP2020182109A (ja) 2020-11-05
US11172188B2 (en) 2021-11-09
US20200344460A1 (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP7051457B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6849430B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11100664B2 (en) Depth-aware photo editing
CN110022470B (zh) 使用合成图像训练对象检测算法的方法和系统和存储介质
US11343425B2 (en) Control apparatus, control method, and storage medium
JP6620394B2 (ja) 制御装置、制御方法及びプログラム
KR20170031733A (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
JP2016144089A (ja) 画像処理装置およびその制御方法
JP2020004325A (ja) 画像処理装置、画像処理方法およびプログラム
JP2021530816A (ja) 角検出のための方法および装置
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
KR20140130638A (ko) 실사 영상 기반의 스마트 피팅장치 및 그 방법
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP7297515B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2022133133A (ja) 生成装置、生成方法、システム、およびプログラム
JP6726016B2 (ja) 情報処理装置、情報処理方法
KR20210133674A (ko) 증강 현실 장치 및 그 제어 방법
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
JP2019185475A (ja) 特定プログラム、特定方法及び情報処理装置
JP6996450B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP7289754B2 (ja) 制御装置、制御方法、及びプログラム
US20220408069A1 (en) Information processing apparatus, information processing method, and storage medium
JP2023175503A (ja) 画像処理装置及びその画像処理方法
WO2020049619A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2016023962A (ja) 被写体の大きさを測定する方法、被写体の大きさを測定する装置、被写体の大きさを測定するプログラム、画像表示方法、画像表示装置、および、画像表示プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230614

R151 Written notification of patent or utility model registration

Ref document number: 7297515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151