JP2019022211A - スマートデバイス及び深度画像を出力する方法 - Google Patents

スマートデバイス及び深度画像を出力する方法 Download PDF

Info

Publication number
JP2019022211A
JP2019022211A JP2018085623A JP2018085623A JP2019022211A JP 2019022211 A JP2019022211 A JP 2019022211A JP 2018085623 A JP2018085623 A JP 2018085623A JP 2018085623 A JP2018085623 A JP 2018085623A JP 2019022211 A JP2019022211 A JP 2019022211A
Authority
JP
Japan
Prior art keywords
lens
image
image sensor
reflecting mirror
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018085623A
Other languages
English (en)
Other versions
JP6740280B2 (ja
Inventor
フォン シンポン
Xinpeng Feng
フォン シンポン
ジョウ ジィ
Ji Zhou
ジョウ ジィ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NextVPU Shanghai Co Ltd
Original Assignee
NextVPU Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NextVPU Shanghai Co Ltd filed Critical NextVPU Shanghai Co Ltd
Publication of JP2019022211A publication Critical patent/JP2019022211A/ja
Application granted granted Critical
Publication of JP6740280B2 publication Critical patent/JP6740280B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/514Depth or shape recovery from specularities
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

【課題】双眼レンズまたはマルチレンズを用いたデバイスを用いる場合に存在した、体積が大きく、消費電力が高いという欠陥を解消する。【解決手段】スマートデバイス100において、反射ミラーは、収集した光を、レンズに反射する。レンズは、反射ミラーから反射された光を、画像センサに射出する。画像センサは、受光した光を結像処理して、画像を取得するとともに、画像をプロセッサに送信する。プロセッサは、画像に基づいて、深度画像を出力する。当該スマートデバイスでは、1つのレンズしか使用されていないので、レンズが反射ミラーとの協働で、光を収集して、深度画像を取得し、双眼レンズまたはマルチレンズと同じ効果を実現する。【選択図】図1A

Description

本発明は、画像技術分野に関し、特に、スマートデバイス及び深度画像を出力する方法に関する。
世界は立体的なものであり、世界中の全ての物体の位置がいずれも、3次元空間情報で示されることが可能であり、各物体の幾何属性が3次元空間情報で記述されてもよい。そのため、3次元空間情報は、生物体及び自律型デバイスによる世界の感知に対する重要なものである。
目下、3次元空間情報を取得する方法は種々あり、例えば、レーザ光、飛行時間(Time-of-Flight)、構造光、オプティカルフロー(Optical Flow)、双眼レンズまたはマルチレンズに基づく立体的視覚などの方法が採用されてもよい。そのうち、双眼レンズまたはマルチレンズに基づく立体的視覚法は、適用範囲が広く、感知範囲が広く、取得できる情報が豊かで、理論上にも成熟したなどのメリットを有するため、幅広く応用されており、例えば、現在、多くの車両の運転支援システム中に応用されており、無人機、火星探査車、月探査車などの分野にも応用されている。
しかし、双眼レンズまたはマルチレンズに基づく立体的視覚法では、少なくとも、2つ以上のレンズを使用する必要があるので、双眼レンズまたはマルチレンズを用いたデバイスは、体積が大きく、消費電力が高いなどのデメリットを有する。
上記の問題を鑑みて、本発明を提案し、上記の問題を克服した、または、上記の問題を少なくとも一部解決したスマートデバイス及び深度画像を出力する方法を提供することにより、従来技術の双眼レンズまたはマルチレンズを用いたデバイスを用いる場合に存在した、体積が大きく、消費電力が高いという欠陥を解消した。
本発明の実施の形態の第1の面では、反射ミラー、レンズ、画像センサ、及び、プロセッサを含むスマートデバイスであって、
前記反射ミラーは、収集した光を、前記レンズに反射するためのものであり、
前記レンズは、前記反射ミラーから反射された光を、前記画像センサに射出するためのものであり、
前記画像センサは、受光した光を結像処理して、画像を取得するとともに、前記画像を前記プロセッサに送信するためのものであり、
前記プロセッサは、前記画像に基づいて、深度画像を出力するためのものである、スマートデバイスを提供する。
一実施の形態では、本発明の上記の実施の形態に記載のデバイスによると、前記反射ミラーは、第1の反射ミラーの組と第2の反射ミラーの組を含む。
いくつかの実施の形態では、本発明の上記の実施の形態のいずれかに記載のデバイスによると、前記第1の反射ミラーの組は、第1の反射ミラーと第2の反射ミラーを含み、前記第1の反射ミラーと前記第2の反射ミラーとの間は予め設定された角度をなしており、
前記第2の反射ミラーの組は、第3の反射ミラーと第4の反射ミラーを含み、前記第3の反射ミラーと前記第4の反射ミラーとの間は予め設定された角度をなしている。
いくつかの実施の形態では、本発明の上記の実施の形態のいずれかに記載のデバイスによると、前記第1の反射ミラーは、収集した光を、前記第2の反射ミラーに反射するためのものであり、
前記第2の反射ミラーは、収集した光を、前記レンズの第1の部分に反射するためのものである。いくつかの実施の形態では、本発明の上記した実施の形態のいずれかに記載のデバイスによると、前記画像センサの第3の部分は、前記レンズの第1の部分で受光した光を結像する。
いくつかの実施の形態では、本発明の上記の実施の形態のいずれかに記載のデバイスによると、前記レンズの第1の部分は、前記レンズの左部分、右部分、上部分及び下部分のうちの少なくとも1つであり、
前記画像センサの第3の部分は、前記画像センサの左部分、右部分、上部分及び下部分のうちの少なくとも1つである。
いくつかの実施の形態では、本発明の上記の実施の形態のいずれかに記載のデバイスによると、前記第3の反射ミラーは、収集した光を、前記第4の反射ミラーに反射するためのものであり、
前記第4の反射ミラーは、収集した光を、前記レンズの第2の部分に反射するためのものである。
いくつかの実施の形態では、本発明の上記の実施の形態のいずれかに記載のデバイスによると、前記画像センサの第4の部分は、前記レンズの第2の部分で受光した光を結像する。
いくつかの実施の形態では、本発明の上記の実施の形態のいずれかに記載のデバイスによると、前記レンズの第2の部分は、前記レンズの左部分、右部分、上部分及び下部分のうちの少なくとも1つであり、
前記画像センサの第4の部分は、前記画像センサの左部分、右部分、上部分及び下部分のうちの少なくとも1つである。
いくつかの実施の形態では、本発明の上記の実施の形態のいずれかに記載のデバイスによると、前記レンズは、前記反射ミラーの下方に位置し、前記画像センサは、前記レンズの真下に位置し、または、
前記レンズは、前記反射ミラーの上方に位置し、前記画像センサは、前記レンズの真上に位置し、または、
前記レンズは、前記反射ミラーの左方に位置し、前記画像センサは、前記レンズの真左に位置し、または、
前記レンズは、前記反射ミラーの右方に位置し、前記画像センサは、前記レンズの真右に位置する。
いくつかの実施の形態では、本発明の上記の実施の形態のいずれかに記載のデバイスによると、前記第1の反射ミラーの組と前記第2の反射ミラーの組に含まれた反射ミラーの鏡面は平面、凸面、及び凹面のうちの少なくとも1つである。
いくつかの実施の形態では、本発明の上記の実施の形態のいずれかに記載のデバイスによると、前記プロセッサに送信された画像は、前記画像センサが取得した画像のうちの一部の画像である。
本発明の実施形態の第2の面では、第1の面または第1の面におけるいずれか1つの実施例に記載のスマートデバイスに用いられる深度画像を出力する方法であって、
前記反射ミラーは、収集した光を、前記レンズに反射し、
前記レンズは、前記反射ミラーから反射された光を、前記画像センサに射出し、
前記画像センサは、受光した光を結像処理して、画像を取得するとともに、前記画像を前記プロセッサに送信し、
前記プロセッサは、前記画像に基づいて、深度画像を出力することを含む、方法を提供する。
一実施の形態では、本発明の上記の実施の形態に記載の方法によると、前記レンズは、前記反射ミラーから反射された光を、前記画像センサに射出する前に、
前記レンズは、前記レンズを2つの仮想カメラに等価化するとともに、前記2つの仮想カメラのそれぞれの内部パラメータを、ともに、前記レンズの内部パラメータに設定することをさらに含む。
いくつかの実施の形態では、本発明の上記の実施の形態のいずれかに記載の方法によると、前記プロセッサは前記画像を処理して、深度画像を出力することは、
前記プロセッサは、前記画像を補正し、かつ、補正後の画像を立体的にマッチングし、前記プロセッサは、立体的にマッチングされた画像を処理して、深度画像を出力することをさらに含む。
いくつかの実施の形態では、本発明の上記の実施の形態のいずれかに記載の方法によると、前記プロセッサは前記画像を補正することは、
前記プロセッサは、前記2つの仮想カメラが位置合せられるように、前記2つの仮想カメラを回転させることをさらに含む。
いくつかの実施の形態では、本発明の上記の実施の形態のいずれかに記載の方法によると、前記プロセッサは、前記2つの仮想カメラを回転させることは、
前記プロセッサは、前記第1の反射ミラーの組と前記第2の反射ミラーの組との間の第1の相対的位置関係を特定し、
前記プロセッサは、前記第1の相対的位置関係に基づいて、前記2つの仮想カメラ間の第2の相対的位置関係を特定し、
前記プロセッサは、前記第2の相対的位置関係に基づいて、前記2つの仮想カメラを回転させることを含む。
本発明の実施例では、反射ミラー、レンズ、画像センサ、及び、プロセッサを含むスマートデバイスであって、前記反射ミラーは、収集した光を、前記レンズに反射するためのものであり、前記レンズは、前記反射ミラーから反射された光を、前記画像センサに射出するためのものであり、前記画像センサは、受光した光を結像処理して、画像を取得するとともに、前記画像を前記プロセッサに送信するためのものであり、前記プロセッサは、前記画像に基づいて、深度画像を出力するためのものである、スマートデバイスを提案する。当該スマートデバイスでは、1つのレンズしか使用されておらず、当該レンズが反射ミラーとの協働で、光を収集して、最後に、深度画像を取得し、双眼レンズまたはマルチレンズと同じ効果を実現することができる。そのため、従来技術の双眼レンズまたはマルチレンズを用いたデバイスを用いる場合に存在した、体積が大きく、消費電力が高いという欠陥を解消することができる。
上記の説明は、本発明の技術案の概要に過ぎず、本発明の技術手段をより明確に理解できるように、明細書の内容に基づき実施することができる。かつ、本発明の上記の目的及び他の目的、特徴、及びメリットをさらに明瞭的かつ分かりやすくするために、以下は、特に、本発明の具体的な実施の形態を例示する。
以下の好適な実施の形態に対する詳細を閲覧したうえで、本発明のさまざまな他のメリットや有益な効果は、当業者にとっては明瞭なものとなるだろう。添付図面は、好適な実施の形態を例示するためのものに過ぎず、本発明を制限するものではない。かつ、全ての添付図面において、同一の部材は同一の参照符号で示される。
本発明の実施例に基づいて提案されたスマートデバイスの概略図である。 本発明の実施例に基づいて提案された反射ミラーの概略図である。 本発明の実施例に基づいて提案された画像センサで結像された画像の一部を選定する概略図である。 本発明の実施例に基づいて提案された深度画像を出力する方法のフローチャートである。 本発明の実施例に基づいて提案された補正前の画像の比較概略図である。 本発明の実施例に基づいて提案された補正前の画像の拡大比較概略図である。 本発明の実施例に基づいて提案された補正後の画像の拡大比較概略図である。
以下は、添付図面を参照しながら、本開示の例示的な実施例をより詳しく説明する。添付図面には、本開示の例示的な実施例が示されたが、本開示は、種々な形式で実現することができ、ここに記載の実施例により限られたものではないと理解すべきである。逆に、それらの実施例を提供する目的は、本開示をさらに明瞭に理解できるようにすることであって、本開示の範囲を当業者に完全に伝えることができることである。
図1Aに示されるように、本発明の実施例では、反射ミラー10、レンズ11、画像センサ12、及び、プロセッサ13を含むスマートデバイス100を提案し、そのうち、
前記反射ミラー10は、収集した光を、前記レンズ11に反射するためのものであり、
前記レンズ11は、前記反射ミラー10から反射された光を、前記画像センサ12に射出するためのものであり、
前記画像センサ12は、受光した光を結像処理して、画像を取得するとともに、前記画像を前記プロセッサ13に送信するためのものであり、
前記プロセッサ13は、前記画像に基づいて、深度画像を出力するためのものである。
本発明の実施例では、選択的に、前記反射ミラー10は、第1の反射ミラー10の組と第2の反射ミラー10の組を含んでもよい。即ち、本発明の実施例に記載の反射ミラー10は、2つの反射ミラー10の組を含んでもよい。ここで説明すべきなのは、反射ミラー10の数はそれに限らず、上記の記載がただの例示的なものに過ぎない。実際な応用では、実際な必要に応じて、変化することが可能であり、例えば、2組以上の反射ミラー10を含んでもよい。
本発明の実施例では、選択的に、前記第1の反射ミラー10の組は、第1の反射ミラー10と第2の反射ミラー10を含み、前記第1の反射ミラー10と前記第2の反射ミラー10との間に予め設定された角度をなしており、前記第2の反射ミラー10の組は、第3の反射ミラー10と第4の反射ミラー10を含み、前記第3の反射ミラー10と前記第4の反射ミラー10との間は予め設定された角度をなしていてもよい。
そのうち、選択的に、第1の反射ミラー10と第2の反射ミラー10は平行に設置されてもよい。例えば、第1の反射ミラー10と前記第2の反射ミラー10との間の予め設定された角度が0°または180°であってもよい。同じ理由により、選択的に、第3の反射ミラー10と第4の反射ミラー10は平行に設置されてもよい。例えば、第3の反射ミラー10と前記第4の反射ミラー10との間の予め設定された角度が0°または180°であってもよい。
ここで説明すべきなのは、予め設定された角度は任意の角度であってもよい。上記記載の0°または180°はただ具体的な例示に過ぎず、実際な応用では、それらに限らず、他の角度、例えば、5°〜20°であってもよい。
図1Bは、反射ミラー10の概略図であり、1は第1の反射ミラー10であり、2は第2の反射ミラー10であり、第1の反射ミラー10と第2の反射ミラー10が平行となり、3は第3の反射ミラー10であり、4は第4の反射ミラー10であり、第3の反射ミラー10と第4の反射ミラー10が平行となる。
図1Bは、反射ミラー10の例示に過ぎず、実際な応用では、それに限らない。ここでは、詳しい説明が省略される。
本発明の実施例では、選択的に、前記第1の反射ミラー10は、収集した光を、前記第2の反射ミラー10に反射するためのものであり、
前記第2の反射ミラーは、収集した光を、前記レンズ11の第1の部分に反射するためのものであってもよい。
図1Aに示されるように、b3上の反射ミラー10は、光m1をa1上の反射ミラー10に反射し、a1上の反射ミラー10はさらに、光をレンズ11に反射する。b3上の反射ミラー10は光m2をa1上の反射ミラー10に反射し、a1上の反射ミラー10はさらに、光をレンズ11に反射する。同じ理由により、c3上の反射ミラー10は光m3をa3上の反射ミラー10に反射し、a3上の反射ミラー10はさらに、光をレンズ11に反射する。c3上の反射ミラー10は光m4をa3上の反射ミラー10に反射し、a3上の反射ミラー10はさらに、光をレンズ11に反射する。
本発明の実施例では、前記画像センサ12の第3の部分は、前記レンズ11の第1の部分で受光した光を結像する。前記レンズ11の第1の部分は、前記レンズ11の左部分、右部分、上部分及び下部分のうちの少なくとも1つであり、
前記画像センサ12の第3の部分は、前記画像センサ12の左部分、右部分、上部分及び下部分のうちの少なくとも1つである。
同じ理由により、選択的に、前記第3の反射ミラー10は、収集した光を、前記第4の反射ミラー10に反射するためのものであり、
前記第4の反射ミラー10は、収集した光を、前記レンズ11の第2の部分に反射するためのものであってもよい。
本発明の実施例では、選択的に、前記画像センサ12の第4の部分は、前記第2の部分での光を結像してもよい。
前記レンズ11の第2の部分は、前記レンズ11の左部分、右部分、上部分及び下部分のうちの少なくとも1つであり、
前記画像センサ12の第4の部分は、前記画像センサ12の左部分、右部分、上部分及び下部分のうちの少なくとも1つである。
ここで説明すべきなのは、選択的に、レンズ11の第1の部分と第2の部分との位置関係は逆なものであってもよい。
例えば、レンズ11の第1の部分がレンズ11の左部分である場合、レンズ11の第2の部分はレンズ11の右部分である。レンズ11の第1の部分がレンズ11の右部分である場合、レンズ11の第2の部分はレンズ11の左部分である。レンズ11の第1の部分がレンズ11の上部分である場合、レンズ11の第2の部分はレンズ11の下部分である。レンズ11の第1の部分がレンズ11の下部分である場合、レンズ11の第2の部分はレンズ11の上部分である。
同じ理由により、選択的に、画像センサ12の第3の部分と第4の部分との位置関係は逆なものであってもよい。例えば、画像センサ12の第3の部分が画像センサ12の左部分である場合、画像センサ12の第4の部分は画像センサ12の右部分である。画像センサ12の第3の部分が画像センサ12の右部分である場合、画像センサ12の第4の部分は画像センサ12の左部分である。画像センサ12の第3の部分が画像センサ12の上部分である場合、画像センサ12の第4の部分は画像センサ12の下部分である。画像センサ12の第3の部分が画像センサ12の下部分である場合、画像センサ12の第4の部分は画像センサ12の上部分である。
勿論、上記記載はレンズ11と画像センサ12のいくつかの具体的な例示に過ぎず、限られたものではない。
本発明の実施例では、選択的に、前記レンズ11は、前記反射ミラー10の下方に位置し、前記画像センサ12は、前記レンズ11の真下に位置し、または、
前記レンズ11は、前記反射ミラー10の上方に位置し、前記画像センサ12は、前記レンズ11の真上に位置し、または、
前記レンズ11は、前記反射ミラー10の左方に位置し、前記画像センサ12は、前記レンズ11の真左に位置し、または、
前記レンズ11は、前記反射ミラー10の右方に位置し、前記画像センサ12は、前記レンズ11の真右に位置してもよい。
本発明の実施例では、選択的に、前記第1の反射ミラー10の組と前記第2の反射ミラー10の組に含まれた反射ミラー10の鏡面は平面、凸面、及び凹面のうちの少なくとも1つであってもよい。
本発明の実施例では、画像センサ12で結像された画像は2部分に分けられており、1つの部分は、反射ミラー10からレンズ11へ反射されたことで結像された画像であり、もう1つの部分は、反射ミラー10による反射を経ず、レンズ11が直接撮影した光で結像された画像であり、レンズ11が直接撮影した光で結像された画像は画像のエッジに現れることが一般的である。反射ミラー10とレンズ11のエッジの歪みによる画像ノイズを除去するために、本発明の実施例では、選択的に、前記プロセッサ13に送信された画像は、前記画像センサ13が取得した画像のうちの一部の画像であってもよい。
そのうち、一部の画像は標定されて得られた反射ミラー10とレンズ11との間の距離、なす角などの位置関係に基づいて決定されてもよい。
図1Cに示されるように、画像センサ12の左部分は第1の反射ミラー10の組から反射された光を結像し、画像センサ12の右部分は第2の反射ミラー10の組から反射された光を結像するが、しかし、画像センサ12が画像をプロセッサ13に送信するときに、左部分で結像された全ての画像をプロセッサ13に送信するのではなく、第5の部分をプロセッサ13に送信してもよい。同じ理由により、画像センサ12が画像をプロセッサ13に送信するときに、右部分で結像されたすべての画像をプロセッサ13に送信するのではなく、第6の部分をプロセッサ13に送信してもよい。
本発明の実施例では、選択的に、スマートデバイス100はスマートスイーパーであってもよい。勿論、スマートスイーパーはただの例示に過ぎず、それに限られたものではない。
以上は、スマートデバイス100を説明してきたが、以下は、スマートデバイス100が深度画像を出力する方法について、簡単に説明する。
図2Aに示されるように、本発明の実施例では、上記記載のスマートデバイス100に用いられる深度画像を出力する方法200を提案し、以下のステップを含む:
ステップ20:前記反射ミラー10は、収集した光を、前記レンズ11に反射すること;
ステップ21:前記レンズ11は、前記反射ミラー10から反射された光を、前記画像センサ12に射出すること;
ステップ22:前記画像センサ12は、受光した光を結像処理して、画像を取得するとともに、前記画像を前記プロセッサ13に送信すること;
ステップ23:前記プロセッサ13は、前記画像に基づいて、深度画像を出力すること。
本発明の実施例では、さらに、前記レンズ11は、前記反射ミラー10から反射された光を前記画像センサ12に射出する前に、標定操作を行ってもよい。
そのうち、標定操作を行うときに、選択的に、以下のような操作を実行してもよい:
前記レンズ11は、前記レンズ11を2つの仮想カメラに等価化するとともに、前記2つの仮想カメラのそれぞれの内部パラメータを、ともに、前記レンズ11の内部パラメータに設定する操作。それで、同一の標定物は当該スマートデバイス100にて2箇所で投影されるようになり、それは、当該スマートデバイス100が撮影した空間における位置が相対的に固定された2つの標定物に等価し、さらに、標定物の画像の1組によって、2つの仮想カメラの内部パラメータを標定することができ、さらに、2つの仮想カメラの外部パラメータを標定することもできる。
そのうち、選択的に、内部パラメータは、焦点距離、光学中心、歪み係数のうちの少なくとも1つであってもよい。
そのうち、焦点距離とは、仮想カメラの光学中心から結像平面までの距離を指し、光学中心とは、仮想カメラの光学中心の結像平面での投影を指し、通常、画像中心の近傍に位置してもよい。
選択的に、歪み係数は、径方向の歪みと接線方向の歪みをさらに含んでもよい。
ここで説明すべきなのは、仮想カメラは、外部パラメータをさらに含む。
本発明の実施例では、2つの仮想カメラの結像平面は、異なる平面に位置し、または、位置する可能性がある。
その場合、出力する深度画像の正確さを高めるために、画像を補正することができる。具体的に、仮想カメラが撮像した2枚の画像の結像平面を同一の平面に位置させることができる。そのため、本発明の実施例では、前記プロセッサ13は前記画像を処理して深度画像を出力することは、
前記プロセッサ13は、前記画像を補正し、かつ、補正後の画像を立体的にマッチングし、
前記プロセッサ13は、立体的にマッチングされた画像を処理して、深度画像を出力することを含む。
図2Bは補正前の2枚の画像であり、左半分の画像と右半分の画像が完全に一致したはずであるが、しかし、左半分の画像におけるM領域の椅子底部と右半分の画像におけるM領域の椅子底部とが完全に一致したものではない。具体的に、図2Cにおける当該比較部分の拡大図を参照されたい。補正後、左半分の画像におけるM領域の椅子底部と右半分の画像におけるM領域の椅子底部とが完全に対応するようになった。具体的に、図2Dにおける当該比較部分の拡大図を参照されたい。
本発明の実施例では、前記プロセッサ13は前記画像を補正するときに、選択的に、以下のような方式を採用してもよい:
前記プロセッサ13は、前記2つの仮想カメラが位置合せられるように、前記2つの仮想カメラを回転させる。
本発明の実施例では、前記プロセッサ13は前記2つの仮想カメラを回転させるときに、選択的に、以下のような方式を採用してもよい:
前記プロセッサ13は、前記第1の反射ミラー10の組と前記第2の反射ミラー10の組との間の第1の相対的位置関係を特定すること;
前記プロセッサ13は、前記第1の相対的位置関係に基づいて、前記2つの仮想カメラ間の第2の相対的位置関係を特定すること;
前記プロセッサ13は、前記第2の相対的位置関係に基づいて、前記2つの仮想カメラを回転させること。
本発明の実施例では、選択的に、標定の過程において第1の相対的位置関係と第2の相対的位置関係とを取得してもよい。
ここで提案された方法及び装置は、任意の特定のコンピュータ、仮想システムまたは他のデバイスとは固有関係するものではない。種々の汎用システムはここでの示唆とともに、使用されてもよい。以上の説明に基づき、そのような装置を構成するために必要な構造が自明なものとなるだろう。また、本発明は、任意の特定のプログラミング言語を対象とするものでもない。ここに記載の本発明の内容は、種々のプログラミング言語で実現されてもよいことが明らかになるだろう。そして、以上、特定の言語を説明する目的は、本発明の最適な実施の形態を開示することにある。
ここで提供される明細書には、具体的な詳細が大量に説明されている。しかし、理解すべきなのは、本発明の実施例はそれらの具体的な詳細がない場合であっても実践可能である。いくつかの実例では、本明細書に対する理解を曖昧にさせないように、公知された方法、構造及び技術が詳しく示されていない。
類似するように、理解すべきなのは、本開示を簡素化して発明の各面のうちの1つまたは複数への理解に助かるように、上記の本発明の例示的な実施例に対する説明では、本発明のそれぞれの特徴が一緒に単一の実施例、図面、または、それに対する説明にグループ化された場合がある。しかし、当該開示の方法を、保護を求める本発明が各請求項において明確に記載されている特徴よりも多くの特徴を有するように求められるという意図を反映するものであると解釈してはならない。さらに、適切にいうと、特許請求の範囲に反映されるように、発明の面では、前に開示された単一の実施例におけるすべての特徴よりも少ないものが求められる。したがって、具体的な実施の形態に準拠した特許請求の範囲は、ここから当該具体的な実施の形態に併入され、そのうち、それぞれの請求項自体は本発明の単一の実施例である。
当業者であれば理解できるように、実施例における装置中のモジュールを適応的に変更させて、それらを、当該実施例とは異なる1つまたは複数の装置に設置してもよい。実施例における若干のモジュールを1つのジュールまたはユニットまたは部品に組み合わせてもよい。また、それらを複数のサブモジュールまたはサブユニットまたは副部品に分割してもよい。そのような特徴及び/過程またはモジュールのうちの少なくともいくつかが互いに反発する場合を除外して、本明細書(添付される請求項、要約書及び添付図面)における開示のすべての特徴及びそのように開示された任意の方法またはデバイスのすべての過程またはユニットを任意の組み合わせで組み合わせてもよい。別途で明確に説明した場合を除き、本明細書(添付される請求項、要約書及び添付図面)における開示の各特徴は同一、等価または類似した目的の代替特徴を提供することで代替可能となる。
また、当業者であれば理解できるように、ここに記載のいくつかの実施例は、他の特徴ではなく、他の実施例に含まれたいくつかの特徴を含むが、しかし、異なる実施例における特徴の組み合わせは、本発明の範囲内にあり、異なる実施例を形成するものを意味している。例えば、特許請求の範囲では、保護を求める実施例のいずれか1つは任意の組み合わせの方式によって使用されてもよい。
本発明における各装置の実施例はハードウェアによって実現されてもよいし、1つまたは複数のプロセッサに実行されているソフトウェアモジュールによって実現されてもよいし、それらの組み合わせで実現されてもよい。当業界の技術者であれば理解できるように、実践中、本発明の実施例における装置のうちのいくつかまたはすべてのモジュールのいくつかまたは全部の機能を、マイクロプロセッサまたはデジタル信号プロセッサ(DSP)によって実現されてもよい。本発明は、ここに記載の方法の一部または全部を実行するための装置プログラム(例えば、コンピュータプログラム及びコンピュータプログラム製品)によって実現されてもよい。そのような本発明を実現するプログラムは、コンピュータ可読媒体に記憶されてもよいし、または、1つまたは複数の信号形式を有するものであってもよい。そのような信号はインターネットウェブサイトからダウンロードされてもよいし、または、キャリア信号から提供されてもよいし、または、任意の他の形式によって提供されてもよい。
注意すべきなのは、上記の実施例は、本発明を制限するものではなく、本発明を説明するものであり、かつ、当業者は、添付される特許請求の範囲から脱離しない場合では、代替可能な実施例を設計することができる。請求項には、括弧間に記載の任意の参照符号を、請求項を制限するものに構成してはならない。言葉の「含む」は、請求項に挙げられない素子またはステップを除外しないものを意味している。素子の前に限定された「1つ」または「1個」は、そのような素子が複数ある場合を除外しないものである。本発明は、若干の異なる素子のハードウェアによって実現されてもよいし、適切にプログラミングされたコンピュータによって実現されてもよい。若干の装置が挙げられたユニットの請求項には、それらの装置のうちの若干は同一のハードウェア項目によって具体的に表されてもよい。第1、第2、及び第3などのような言葉の使用は順序付けられたものではない。それらの言葉を名詞として解釈することが可能である。

Claims (17)

  1. 反射ミラー、レンズ、画像センサ、及び、プロセッサを含むスマートデバイスであって、
    前記反射ミラーは、収集した光を、前記レンズに反射するためのものであり、
    前記レンズは、前記反射ミラーから反射された光を、前記画像センサに射出するためのものであり、
    前記画像センサは、受光した光を結像処理して、画像を取得するとともに、前記画像を前記プロセッサに送信するためのものであり、
    前記プロセッサは、前記画像に基づいて、深度画像を出力するためのものである、スマートデバイス。
  2. 前記反射ミラーは、第1の反射ミラーの組と第2の反射ミラーの組を含む、請求項1に記載のスマートデバイス。
  3. 前記第1の反射ミラーの組は、第1の反射ミラーと第2の反射ミラーを含み、前記第1の反射ミラーと前記第2の反射ミラーとの間は予め設定された角度をなしており、
    前記第2の反射ミラーの組は、第3の反射ミラーと第4の反射ミラーを含み、前記第3の反射ミラーと前記第4の反射ミラーとの間は予め設定された角度をなしている、請求項2に記載のスマートデバイス。
  4. 前記第1の反射ミラーは、収集した光を、前記第2の反射ミラーに反射するためのものであり、
    前記第2の反射ミラーは、受光した光を、前記レンズの第1の部分に反射するためのものである、請求項3に記載のスマートデバイス。
  5. 前記画像センサの第3の部分は、前記レンズの第1の部分で受光した光を結像する、請求項4に記載のスマートデバイス。
  6. 前記レンズの第1の部分は、前記レンズの左部分、右部分、上部分及び下部分のうちの少なくとも1つであり、
    前記画像センサの第3の部分は、前記画像センサの左部分、右部分、上部分及び下部分のうちの少なくとも1つである、請求項5に記載のスマートデバイス。
  7. 前記第3の反射ミラーは、収集した光を、前記第4の反射ミラーに反射するためのものであり、
    前記第4の反射ミラーは、受光した光を、前記レンズの第2の部分に反射するためのものである、請求項3に記載のスマートデバイス。
  8. 前記画像センサの第4の部分は、前記第2の部分での光を結像する、請求項7に記載のスマートデバイス。
  9. 前記レンズの第2の部分は、前記レンズの左部分、右部分、上部分及び下部分のうちの少なくとも1つであり、
    前記画像センサの第4の部分は、前記画像センサの左部分、右部分、上部分及び下部分のうちの少なくとも1つである、請求項8に記載のスマートデバイス。
  10. 前記レンズは、前記反射ミラーの下方に位置し、前記画像センサは、前記レンズの真下に位置し、または、
    前記レンズは、前記反射ミラーの上方に位置し、前記画像センサは、前記レンズの真上に位置し、または、
    前記レンズは、前記反射ミラーの左方に位置し、前記画像センサは、前記レンズの真左に位置し、または、
    前記レンズは、前記反射ミラーの右方に位置し、前記画像センサは、前記レンズの真右に位置する、請求項1〜9のいずれか1項に記載のスマートデバイス。
  11. 前記第1の反射ミラーの組と前記第2の反射ミラーの組に含まれた反射ミラーの鏡面は平面、凸面、及び凹面のうちの少なくとも1つである、請求項2に記載のスマートデバイス。
  12. 前記プロセッサに送信された画像は、前記画像センサが取得した画像のうちの一部の画像である、請求項1に記載のスマートデバイス。
  13. 請求項1〜12のいずれか1項に記載のスマートデバイスに用いられる深度画像を出力する方法において、
    前記反射ミラーは、収集した光を、前記レンズに反射し、
    前記レンズは、前記反射ミラーから反射された光を、前記画像センサに射出し、
    前記画像センサは、受光した光を結像処理して、画像を取得するとともに、前記画像を前記プロセッサに送信し、
    前記プロセッサは、前記画像に基づいて、深度画像を出力することを含む、方法。
  14. 前記レンズは、前記反射ミラーから反射された光を、前記画像センサに射出する前に、
    前記レンズは、前記レンズを2つの仮想カメラに等価化するとともに、前記2つの仮想カメラのそれぞれの内部パラメータを、ともに、前記レンズの内部パラメータに設定することをさらに含む、請求項13に記載の方法。
  15. 前記プロセッサは前記画像を処理して、深度画像を出力することは、
    前記プロセッサは、前記画像を補正し、かつ、補正後の画像を立体的にマッチングし、
    前記プロセッサは、立体的にマッチングされた画像を処理して、深度画像を出力することを含む、請求項14に記載の方法。
  16. 前記プロセッサは、前記画像を補正することは、
    前記プロセッサは、前記2つの仮想カメラが位置合せられるように、前記2つの仮想カメラを回転させることを含む、請求項15に記載の方法。
  17. 前記プロセッサは、前記2つの仮想カメラを回転させることは、
    前記プロセッサは、前記第1の反射ミラーの組と前記第2の反射ミラーの組との間の第1の相対的位置関係を特定し、
    前記プロセッサは、前記第1の相対的位置関係に基づいて、前記2つの仮想カメラ間の第2の相対的位置関係を特定し、
    前記プロセッサは、前記第2の相対的位置関係に基づいて、前記2つの仮想カメラを回転させることを含む、請求項15に記載の方法。
JP2018085623A 2017-07-14 2018-04-26 スマートデバイス及び深度画像を出力する方法 Active JP6740280B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710577093.8 2017-07-14
CN201710577093.8A CN107369172B (zh) 2017-07-14 2017-07-14 一种智能设备和输出深度图像的方法

Publications (2)

Publication Number Publication Date
JP2019022211A true JP2019022211A (ja) 2019-02-07
JP6740280B2 JP6740280B2 (ja) 2020-08-12

Family

ID=60307447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018085623A Active JP6740280B2 (ja) 2017-07-14 2018-04-26 スマートデバイス及び深度画像を出力する方法

Country Status (4)

Country Link
US (1) US20190020866A1 (ja)
EP (1) EP3428720A1 (ja)
JP (1) JP6740280B2 (ja)
CN (1) CN107369172B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110286385A (zh) * 2019-07-02 2019-09-27 苏州全视智能光电有限公司 一种双目立体结构光传感设备
CN111571561B (zh) * 2019-08-07 2021-08-31 上海肇观电子科技有限公司 移动机器人
CN110533708A (zh) * 2019-08-28 2019-12-03 维沃移动通信有限公司 一种电子设备及深度信息获取方法
CN111031258B (zh) * 2020-01-15 2021-02-05 北京航天飞行控制中心 月球车导航相机曝光参数确定方法及装置
CN111327808A (zh) * 2020-03-12 2020-06-23 Oppo广东移动通信有限公司 摄像头组件及电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1314056A (zh) * 1999-06-11 2001-09-19 埃米尔·亨德里克斯 用单部手持摄像机获取三维景象
JP2001346226A (ja) * 2000-06-02 2001-12-14 Canon Inc 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体
JP2003284096A (ja) * 2002-01-16 2003-10-03 Olympus Optical Co Ltd ステレオ撮影装置、ファインダ、目印提示部材、及び、ステレオ撮影装置の撮影方法
JP2004132829A (ja) * 2002-10-10 2004-04-30 Olympus Corp 3次元撮影装置と3次元撮影方法及びステレオアダプタ
JP2004258266A (ja) * 2003-02-25 2004-09-16 Olympus Corp ステレオアダプタ及びそれを用いた距離画像入力装置
CN1645943A (zh) * 2004-01-23 2005-07-27 奥林巴斯株式会社 生成立体图像的电子照相机和图像生成装置
JP2005216191A (ja) * 2004-01-30 2005-08-11 Canon Inc ステレオ画像処理装置およびステレオ画像処理方法
JP2005236966A (ja) * 2004-01-23 2005-09-02 Olympus Corp ステレオ画像を生成する電子カメラ及び画像生成装置
JP2013126135A (ja) * 2011-12-15 2013-06-24 Fujitsu Ltd ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3905736B2 (ja) * 2001-10-12 2007-04-18 ペンタックス株式会社 ステレオ画像撮像装置及び自動輻輳調整装置
US8964004B2 (en) * 2010-06-18 2015-02-24 Amchael Visual Technology Corporation Three channel reflector imaging system
US9557634B2 (en) * 2012-07-05 2017-01-31 Amchael Visual Technology Corporation Two-channel reflector based single-lens 2D/3D camera with disparity and convergence angle control
CN104823105A (zh) * 2012-07-13 2015-08-05 拉姆·斯里坎特·米雷 用于照相机的可变三维适配器组件
WO2017074505A1 (en) * 2015-10-28 2017-05-04 Spectral Md, Inc. Reflective mode multi-spectral time-resolved optical imaging methods and apparatuses for tissue classification
US9717417B2 (en) * 2014-10-29 2017-08-01 Spectral Md, Inc. Reflective mode multi-spectral time-resolved optical imaging methods and apparatuses for tissue classification
CN104408732B (zh) * 2014-12-10 2017-07-28 东北大学 一种基于全向结构光的大视场深度测量系统及方法
US10021284B2 (en) * 2015-08-27 2018-07-10 Samsung Electronics Co., Ltd. Epipolar plane single-pulse indirect TOF imaging for automotives

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1314056A (zh) * 1999-06-11 2001-09-19 埃米尔·亨德里克斯 用单部手持摄像机获取三维景象
JP2003502925A (ja) * 1999-06-11 2003-01-21 エミーレ・ヘンドリクス 一台の携帯カメラによる3d情景の撮影法
JP2001346226A (ja) * 2000-06-02 2001-12-14 Canon Inc 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体
JP2003284096A (ja) * 2002-01-16 2003-10-03 Olympus Optical Co Ltd ステレオ撮影装置、ファインダ、目印提示部材、及び、ステレオ撮影装置の撮影方法
JP2004132829A (ja) * 2002-10-10 2004-04-30 Olympus Corp 3次元撮影装置と3次元撮影方法及びステレオアダプタ
JP2004258266A (ja) * 2003-02-25 2004-09-16 Olympus Corp ステレオアダプタ及びそれを用いた距離画像入力装置
CN1645943A (zh) * 2004-01-23 2005-07-27 奥林巴斯株式会社 生成立体图像的电子照相机和图像生成装置
JP2005236966A (ja) * 2004-01-23 2005-09-02 Olympus Corp ステレオ画像を生成する電子カメラ及び画像生成装置
JP2005216191A (ja) * 2004-01-30 2005-08-11 Canon Inc ステレオ画像処理装置およびステレオ画像処理方法
JP2013126135A (ja) * 2011-12-15 2013-06-24 Fujitsu Ltd ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム

Also Published As

Publication number Publication date
JP6740280B2 (ja) 2020-08-12
EP3428720A1 (en) 2019-01-16
CN107369172A (zh) 2017-11-21
CN107369172B (zh) 2021-07-09
US20190020866A1 (en) 2019-01-17

Similar Documents

Publication Publication Date Title
JP2019022211A (ja) スマートデバイス及び深度画像を出力する方法
US11042034B2 (en) Head mounted display calibration using portable docking station with calibration target
WO2020168668A1 (zh) 一种车辆的slam建图方法及系统
US9836483B1 (en) Using a mobile device for coarse shape matching against cloud-based 3D model database
US9846960B2 (en) Automated camera array calibration
US10782126B2 (en) Three-dimensional scanning method containing multiple lasers with different wavelengths and scanner
US20150304617A1 (en) System for performing distortion correction and calibration using pattern projection, and method using the same
HK1252601A2 (zh) 自適應三維立體成像系統
WO2015168042A1 (en) 3d mapping with flexible camera rig
US20130002823A1 (en) Image generating apparatus and method
JP2010113720A (ja) 距離情報を光学像と組み合わせる方法及び装置
WO2018058155A8 (en) Immersive optical projection system
CN109099838B (zh) 一种基于折反射的单目立体视觉系统三维信息测量方法
KR20150068545A (ko) 복합 영상 센싱 시스템
WO2019218801A1 (zh) 投影设备和系统、投影方法
JP2012014171A5 (ja)
US20220012905A1 (en) Image processing device and three-dimensional measuring system
JP2019500606A5 (ja)
JP2006220603A (ja) 撮像装置
JP2014178124A (ja) 3次元計測システム、プログラム及び方法。
KR102158025B1 (ko) 카메라 보정모듈, 카메라 시스템 및 카메라 시스템의 제어 방법
TWM594322U (zh) 全向立體視覺的相機配置系統
US11137582B2 (en) Omnidirectional catadioptric lens with odd aspheric contour or multi-lens
CN105208373B (zh) 一种基于光场压缩采样的通用集成成像记录装置
CN210274243U (zh) 一种融合了深度相机和普通相机的传感器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20180508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190917

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200512

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200722

R150 Certificate of patent or registration of utility model

Ref document number: 6740280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250