JP2019139069A - 投影システム - Google Patents

投影システム Download PDF

Info

Publication number
JP2019139069A
JP2019139069A JP2018022207A JP2018022207A JP2019139069A JP 2019139069 A JP2019139069 A JP 2019139069A JP 2018022207 A JP2018022207 A JP 2018022207A JP 2018022207 A JP2018022207 A JP 2018022207A JP 2019139069 A JP2019139069 A JP 2019139069A
Authority
JP
Japan
Prior art keywords
light
visible light
image
projection system
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018022207A
Other languages
English (en)
Other versions
JP2019139069A5 (ja
JP7236680B2 (ja
Inventor
千春 坪田
Chiharu TSUBOTA
千春 坪田
渕上 竜司
Ryuji Fuchigami
竜司 渕上
和博 南
Kazuhiro Minami
和博 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018022207A priority Critical patent/JP7236680B2/ja
Priority to EP19155926.9A priority patent/EP3524929B1/en
Priority to US16/270,740 priority patent/US11218677B2/en
Publication of JP2019139069A publication Critical patent/JP2019139069A/ja
Publication of JP2019139069A5 publication Critical patent/JP2019139069A5/ja
Application granted granted Critical
Publication of JP7236680B2 publication Critical patent/JP7236680B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/499Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using polarisation effects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/26Projecting separately subsidiary matter simultaneously with main image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Projection Apparatus (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】物体に応じた映像を投影する投影システムにおいて、物体の三次元計測を行いながら、物体に関する情報を取得し易くする。【解決手段】投影システム(1)は、可視光投影部(2)と、非可視光投影部(3,30)と、撮像部(4)と、制御部(5)とを備える。可視光投影部は、可視光によって物体に応じた映像(71)を投影する。非可視光投影部は、非可視光による非可視光映像(80)を物体に投影する。撮像部は、非可視光投影部によって投影された非可視光映像を撮像する。制御部は、撮像された撮像画像(11)に基づき、物体の三次元計測を行いながら物体において反射した光に基づく情報を取得して、映像を制御する。非可視光映像は、明領域(R1)と、明領域の光量よりも小さい光量を有する暗領域(R0)とを含む。非可視光投影部は、非可視光映像において暗領域の光量がオフセット値(b)以上になるように、非可視光を照射する。【選択図】図4

Description

本開示は、物体の三次元計測等に基づき、物体の形状および位置等に応じた映像を投影する投影システムに関する。
特許文献1は、建物のような構造物に映像コンテンツを投影するプロジェクションマッピングのための投影システムを開示している。特許文献1の投影システムにおいては、投影装置が、映像コンテンツを示す映像光と、投影座標系で規定される投影座標をコード化したパターン画像を示すパターン光とを構造物に照射する。また、撮像装置が、構造物に投影されたパターン画像を撮像する。特許文献1の投影システムによると、構造物に映像コンテンツを位置合わせしてプロジェクションマッピングを行うことが可能になる。
特開2015−173431号公報
本開示は、物体に応じた映像を投影する投影システムにおいて、物体の三次元計測を行いながら、物体に関する情報を取得し易くすることができる投影システム提供する。
本開示における投影システムは、物体の計測に基づき、物体に応じた映像を投影する。投影システムは、可視光投影部と、非可視光投影部と、撮像部と、制御部とを備える。可視光投影部は、可視光によって物体に応じた映像を投影する。非可視光投影部は、非可視光による非可視光映像を物体に投影する。撮像部は、非可視光投影部によって投影された非可視光映像を撮像する。制御部は、撮像部によって撮像された撮像画像に基づき、物体の三次元計測を行いながら物体において反射した光に基づく情報を取得して、映像を制御する。非可視光映像は、所定の光量を有する明領域と、明領域の光量よりも小さい光量を有する暗領域とを含む。非可視光投影部は、非可視光映像において暗領域の光量が所定のオフセット値以上になるように、非可視光を照射する。
本開示における投影システムによると、物体に応じた映像を投影する際に、オフセット値以上の光量を有する非可視光映像が撮像される。これにより、投影システムにおいて、物体の三次元計測を行いながら、物体に関する情報を取得し易くすることができる。
実施形態1に係る投影システムの構成を示すブロック図 投影システムにおける三次元計測の原理を説明するための図 空間コード化法に基づく計測パターンを説明するための図 実施形態1に係る投影システムの投影動作を説明するための図 実施形態1の二次元検出における非可視光映像を説明するための図 実施形態2に係る投影システムの構成を示すブロック図 実施形態2に係る投影システムの投影動作を説明するための図 実施形態2の投影システムのスクリーン及び各種フィルタを説明するための図 実施形態3に係る投影システムの構成を示すブロック図 実施形態3の投影システムのスクリーンを説明するための図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、出願人は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施形態1)
1.構成
実施形態1に係る投影システムの構成を、図1を参照して説明する。図1は、本実施形態に係る投影システム1の構成を示すブロック図である。
本実施形態に係る投影システム1は、図1に示すように、可視光プロジェクタ2と、赤外光プロジェクタ3と、赤外光投光器30と、カメラ4と、コントローラ5と、スクリーン10とを備える。投影システム1は、例えば演出用に人物等の被写体6に可視光の映像を投影するプロジェクションマッピングを行うシステムである。投影システム1は、可視光プロジェクタ2からの可視光による映像71が、被写体6の三次元的な形状等に応じて投影されるように、赤外光プロジェクタ3及びカメラ4を用いて被写体6の三次元計測を行う。
さらに、本実施形態の投影システム1は、被写体6に保持させるマーカ61の二次元的な位置を逐次、取得する二次元検出を行って、映像71を被写体6の動きに精度良く追従させる。本実施形態では、上記の三次元計測のための赤外光プロジェクタ3等に加えて赤外光投光器30を投影システム1に用いて、マーカ61の二次元検出を高速化する。
マーカ61は、被写体6において映像71が投影される基準の位置を示す。例えば、マーカ61は、被写体6となる人物の手足など、高速に動くことが想定される位置に取り付けられる。本実施形態において、マーカ61は、再帰反射性を有する反射部材で構成される。
可視光プロジェクタ2は、例えばDLP方式、3LCD方式又はLCOS方式などのプロジェクタである。可視光プロジェクタ2は、例えばコントローラ5から入力される映像信号(映像データ)に基づき、種々の映像コンテンツを含む映像71を投影するように可視光を射出する。可視光プロジェクタ2は、本実施形態における可視光投影部の一例である。可視光プロジェクタ2は、図1に示すように、可視光光源21と、空間光変調部22と、投影光学系23とを備える。
可視光光源21は、本実施形態では、赤色光、緑色光及び青色光をそれぞれ射出する複数の光源素子(例えばLED)を含む。可視光光源21は、可視光プロジェクタ2の投影方式に応じて適宜、単色の光源素子のみ、或いは白色の光源素子を有してもよい。光源素子は、レーザダイオード又はハロゲンランプなどであってもよい。
空間光変調部22は、例えばRGBに対応する3つの空間光変調素子で構成される。空間光変調素子としては、DMD又はLCD等を用いることができる。空間光変調部22は、特に3つの空間光変調素子に限らず、例えば1つの空間光変調素子で構成されてもよい。
投影光学系23は、可視光プロジェクタ2の画角を設定するズームレンズ、及びフォーカスを調整するフォーカスレンズを含む。
赤外光プロジェクタ3は、例えばDLP方式、LCD方式又はLCOS方式などのプロジェクタである。赤外光プロジェクタ3は、例えばコントローラ5から入力される映像信号(映像データ)に基づき、後述する所定の赤外光の計測パターン等の映像を投影する。
本実施形態における赤外光プロジェクタ3及び赤外光投光器30は、非可視光により非可視光映像を投影する非可視光投影部の一例である。本実施形態では、非可視光の一例として赤外光を用いるが、これに限らず、例えば紫外光を用いてもよい。赤外光プロジェクタ3は、図1に示すように、赤外光光源31と、空間光変調素子32と、投影光学系33とを備える。
赤外光光源31は、例えばピーク波長が800nm〜900nmの赤外光を射出する。赤外光光源31は、例えばレーザダイオード等の光源素子を含む。赤外光光源31の光源素子は、LED又はランプなどであってもよい。
空間光変調素子32は、DMD又はLCD等で構成される。空間光変調素子32の画像形成面には、コントローラ5等からの映像信号に基づき画像が形成される。赤外光光源31において発光した赤外光が空間光変調素子32の画像形成面に入射することで、赤外光が空間変調される。
投影光学系33は、赤外光プロジェクタ3の画角を設定するズームレンズ、及びフォーカスを調整するフォーカスレンズを含む。
赤外光投光器30は、非可視光として赤外光を投光する投光部の一例である。赤外光投光器30は、例えばLEDおよびランプなどの光源を含む。例えば、赤外光投光器30は、ピーク波長が800nm〜900nmの赤外光を射出する。
赤外光投光器30と赤外光プロジェクタ3とは、例えば互いに同一の領域に赤外光を照射可能に配置される。赤外光投光器30とカメラ4とは、例えば、それぞれの光軸が略一致するように位置及び向きを近接させて配置される。
各プロジェクタ2,3は、例えば互いに同一の領域に映像を投影するように配置される。各プロジェクタ2,3は、それぞれの光軸が一致するように光学的に結合されてもよい。この場合、例えば、可視光を透過して赤外光を反射する、或いは可視光を反射して赤外光を透過するダイクロイックミラーなどを用いてもよい。また、この場合、それぞれの投影光学系23,33は一体的に構成されてもよい。また、赤外光プロジェクタ3と可視光プロジェクタ2とが、一つの装置として一体的に構成されてもよい。
カメラ4は、赤外光プロジェクタ3等によって非可視光映像が投影される領域の画像を撮像可能な位置に配置される。カメラ4は、赤外光において被写体6に投影される計測パターンの撮像画像を生成し、撮像画像を示す画像データである撮像データをコントローラ5に出力する。カメラ4は、投影システム1における撮像部の一例である。カメラ4は、図1に示すように、撮像素子41と、撮像レンズ42と、可視光遮断フィルタ43とを備える。
撮像素子41は、例えばシリコンを主原料として含むCCDイメージセンサ又はCMOSイメージセンサなどの固体撮像素子で構成される。撮像素子41は、光を受光する複数の画素回路が並ぶ撮像面を有する。撮像素子41の主原料はシリコンに限らず、例えばゲルマニウム或いはガリウムであってもよい。
撮像レンズ42は、カメラ4の画角を設定するズームレンズ、及びフォーカスを調整するフォーカスレンズを含む。
可視光遮断フィルタ43は、入射する光の内の赤外光成分を透過し、可視光成分を吸収するバンドパスフィルタ或いはロングパスフィルタである。可視光遮断フィルタ43は、例えば撮像レンズ42に取り付けられる。可視光遮断フィルタ43は、カメラ4において選択的に赤外光を透過する波長選択部材の一例である。
可視光遮断フィルタ43は、撮像レンズ42におけるコーティング、或いは回折格子の形成等により、撮像レンズ42と一体的に構成されてもよい。また、可視光遮断フィルタ43は、撮像素子41の画像形成面(即ち撮像面)などに組み込まれて構成されてもよい。また、可視光遮断フィルタ43は、可視光成分の吸収に代えて、又はこれに加えて、可視光成分を反射するように構成されてもよい。
コントローラ5は、投影システム1の各部を制御する制御装置である。コントローラ5は、例えばソフトウェアと協働して所定の機能を実現するCPU又はMPUを備える。コントローラ5は、図1に示すように、映像生成部50と、記憶部51とを備える。コントローラ5は、本実施形態における投影システム1の制御部の一例である。
コントローラ5は、記憶部51に格納されたデータやプログラムを読み出して種々の演算処理を行い、各種の機能を実現する。例えば、コントローラ5は、映像生成部50としての機能を実現する。また、コントローラ5は、カメラ4、赤外光プロジェクタ3及び可視光プロジェクタ2等の各種動作タイミングの制御(例えば各部の同期制御)、ズーム制御、フォーカス制御などを行ってもよい。
コントローラ5は、所定の機能を実現するように設計された専用の電子回路や再構成可能な電子回路などのハードウェア回路であってもよい。コントローラ5は、CPU,MPU,GPU,マイコン、DSP、FPGA、ASIC等の種々の半導体集積回路で構成されてもよい。また、コントローラ5の各種機能は、例えば可視光プロジェクタ2等の投影システム1の各部に組み込まれてもよい。
映像生成部50は、可視光プロジェクタ2によって投影される映像71を示す映像データを生成する。この際、映像データは、映像71を被写体6の動きに追従して投影できるように生成される必要がある。そこで、本実施形態においてコントローラ5は、カメラ4からの撮像データに基づき被写体6の形状の三次元計測を行い、同時に位置の二次元検出を高速に行う。
記憶部51は、コントローラ5の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体であり、例えばハードディスク(HDD)又は半導体記憶装置(SSD)を備える。また、記憶部51は、さらに、DRAMやSRAM等の半導体デバイスを備えてもよく、データを一時的に記憶するとともにコントローラ5の作業エリアとしても機能する。例えば、記憶部51は、種々の映像コンテンツを示す映像データ及び後述する計測パターンを示す映像データを格納する。
スクリーン10は、各プロジェクタ2,3の投影方向において被写体6よりも後方となる位置に配置される。スクリーン10は、投影システム1において被写体6の背景となるような映像71を映し出すための背景部材の一例である。スクリーン10を用いることにより、例えば被写体6の動きに連動するような映像71が投影でき、プロジェクションマッピングにおける演出効果を高めることができる。なお、本実施形態の投影システム1では、特に背景の演出が必要ない場合等に適宜、スクリーン10が省略されてもよい。
2.動作
以上のように構成される投影システム1の動作を以下に説明する。
2−1.三次元計測の原理について
本実施形態では、被写体6の三次元計測における計測原理の一例として、空間コード化法によるアクティブステレオ計測を採用する。本計測原理について、図2,3を用いて説明する。図2は、三次元計測の原理を説明するための図である。図3は、空間コード化法に基づく計測パターンを説明するための図である。
図2では、カメラ4と赤外光プロジェクタ3とが、それぞれの光軸が平行になるように並んで配置されている。以下、図2に示すように、各光軸の方向をz方向とする。また、z方向に直交し、カメラ4と赤外光プロジェクタ3とが並ぶ方向をx方向とし、z方向及びx方向に直交する方向をy方向とする。
図2では、赤外光プロジェクタ3から射出した赤外光が物体の特定の点(輝点)において反射し、輝点からの反射光がカメラ4に入射する様子を示している。図2に示すように、カメラ4と赤外光プロジェクタ3との間には、視差θが生じる。赤外光プロジェクタ3から投影された映像がカメラ4で撮像されると、投影された映像はカメラ4の撮像画像において視差θだけずれて映る。すなわち、図2に示すように、物体上の輝点までの距離に応じて、カメラ4の撮像画像における輝点のx座標がずれる。
投影システム1では、上記のような座標のずれに基づき、コントローラ5がカメラ4と赤外光プロジェクタ3との間隔を基線長とする三角法に基づく計算を行って、z方向の距離を計測する。基線長は、例えば投影システム1の設置時のキャリブレーションなどによって予め取得される。座標のずれは、空間コード化法に基づく計測パターンを用いて計測される。この計測方法について、図3(a),(b)を参照して説明する。
図3(a)は、赤外光プロジェクタ3から投影される1組の計測パターン81,82,83の映像データを例示している。各計測パターン81〜83は、ずれの計測対象のx座標の方向に沿って配置された明領域R1と暗領域R0を有する。明領域R1は、暗領域R0よりも大きい光量を有する。空間コード化法によると、明領域R1を「1」、暗領域R0を「0」に対応させることで、映像データ上のx座標がコード化される。
図3(a)の例では、第1ステップの計測パターン81と、第2ステップの計測パターン82と、第3ステップの計測パターン83とが順次、投影される。時間の経過とともに第1〜第3ステップの順に投影される3つの計測パターン81〜83により、映像データ上で8つの領域に対応する3ビットのコードが得られる。
図3(b)は、図3(a)の各計測パターン81,82,83が投影された物体がカメラ4によって撮像されたときに生成される撮像画像Im1,Im2,Im3を示している。図3(b)に示すように、同じコード「110」に対応する輝点であっても、物体上の奥行きに応じて、撮像画像におけるx座標がずれる。本実施形態では、コントローラ5が、映像生成部50において撮像画像Im1〜Im3を示す撮像データをデコードすることにより、座標のずれを計測する。
具体的に、コントローラ5は、まず、1フレームの撮像画像の画素毎に、画素の輝度と所定の閾値とを比較する閾値判定を行う。所定の閾値は、撮像画像中で計測パターンにおける明領域の輝点を映している画素を判断する基準の閾値であり、例えばノイズの光量を考慮して設定される。コントローラ5は、閾値判定において、輝度が閾値を超えると判断した画素に「1」を割り当て、輝度が閾値を超えないと判断した画素に「0」を割り当てる。
コントローラ5は、以上の処理を全ての撮像画像Im1,Im2,Im3に対して行い、画素毎に割り当てられた二値(「0」又は「1」)を集計することにより、撮像データのデコードを行う。
コントローラ5は、デコード結果が表すx座標の値と基準のx座標の値とを画素毎に比較することにより、x座標のずれを計測する。y座標のずれについても、例えば図3(a)の計測パターン81〜83を90度回転させた計測パターンを用いることで、上記と同様に計測できる。また、赤外光プロジェクタ3と可視光プロジェクタ2との間にも視差がある場合、例えば予め両者の設置位置を示す情報を取得しておき、適宜、赤外光プロジェクタ3において規定される三次元座標を可視光プロジェクタ2において規定される三次元座標に換算する。
2−2.二次元検出について
本実施形態の投影システム1における二次元検出の概要について、以下説明する。
本実施形態では、上記のような三次元計測のための計測パターン81〜83(図3)の撮像画像を利用して、マーカ61の位置等を高速に取得するように二次元検出を実行する。カメラ4の撮像画像中には、赤外光プロジェクタ3から投影される計測パターン81〜83における明領域R1が撮像された部分(以下「明部」という)と、暗領域R0が撮像された部分(以下「暗部」という)とが含まれる。
投影システム1において、被写体6に保持されたマーカ61は、ある計測パターンの投影中に暗領域R0に位置する場合がある。このとき、マーカ61から反射光が得られないと、マーカ61がカメラ4により撮像されないこととなる。このことから、各フレームにおける撮像画像中の暗部ではマーカ61が検出されず、二次元検出を撮像画像のフレーム毎に実行することが困難であるという課題が考えられる。
そこで、本実施形態の投影システム1は、マーカ61を保持する被写体6に、赤外光プロジェクタ3から計測パターン81〜83を投影する際、これと共に赤外光投光器30から赤外光を一様光として照射する。これにより、赤外光プロジェクタ3から投影される計測パターン81〜83に依らず、マーカ61から反射光が得られ、カメラ4による各フレームの撮像画像においてマーカ61を検出可能にすることができる。
二次元検出を行う他の方法としては、例えば、複数の計測パターンを撮像した撮像画像をデコードし、デコード結果が示す座標と基準の座標を比較することにより三次元計測し、生成された形状の輪郭の一部を被写体の位置として検出する方法が考えられる。この場合、被写体における特定の位置を検出するために、複数フレームの撮像画像を用いる必要が生じてしまう。
これに対して、本実施形態の二次元検出によると、各フレームの撮像画像においてマーカ61を検出できる。このため、マーカ61の位置を取得するために要する時間を著しく短縮できる。よって、投影システム1において、被写体6のマーカ61の位置に応じて映像71を投影するために要する時間が短縮され、被写体6の位置に対するずれを低減して投影動作を行うことができる。
2−3.投影動作(プロジェクションマッピング)
本実施形態に係る投影システム1においてプロジェクションマッピングを行うための投影動作を、図1,4を参照して説明する。図4は、本実施形態における投影動作を説明するための図である。
本実施形態において、赤外光プロジェクタ3は、スクリーン10の投影面全体などの被写体6を含む範囲に、1組の計測パターン81〜83(図3参照)の各々を順次、投影する。図4では、赤外光プロジェクタ3から投影される1フレームの計測パターン8を例示している。赤外光プロジェクタ3のフレームレートは、例えば60fps〜240fpsである。
赤外光投光器30は、計測パターン8が投影される範囲において一様な分布9を有する赤外光の一様光を照射する。本実施形態では、赤外光プロジェクタ3からの計測パターン8と、赤外光投光器30からの赤外光の一様分布9とが、同範囲において重畳することによって、非可視光映像が形成される(図5(c)参照)。
この際、カメラ4は、計測パターン8と赤外光の一様分布9とによる非可視光映像を撮像して、撮像画像11を生成する。カメラ4は、撮像画像11を示す撮像データをコントローラ5に出力する。カメラ4の撮像動作は、例えばコントローラ5の制御により赤外光プロジェクタ3の動作に同期して、計測パターン8のフレーム毎に行われる。
コントローラ5は、撮像データが示す撮像画像11に基づいて、三次元計測と二次元検出とのそれぞれの処理を実行する。本実施形態において、三次元計測の計測対象は、例えば被写体6等の物体の輪郭及び凹凸を含む三次元形状である。また、二次元検出の検出対象は、被写体6のマーカ61の位置を撮像画像11中で示す二次元座標である。コントローラ5の映像生成部50(図1)は、三次元計測及び二次元検出の処理結果に応じて、被写体6に投影される映像コンテンツを含む映像データを生成する。
三次元計測の処理は、複数フレームの撮像画像11に基づいて実行される。具体的に、上述した空間コード化法による1組の計測パターン81〜83(図3)に対応した各撮像画像において、コントローラ5は、各々の画素毎に自装置までの距離を計測し、例えば画素毎に計測した距離を深度として示す深度画像12を生成する。
一方、二次元検出の処理は、例えば撮像画像11のフレーム毎に実行される。本実施形態では、コントローラ5が、各フレームの撮像画像11における所定の閾値以上の明るさの画素位置を、被写体6のマーカ61の位置として検出し、当該撮像画像11中の二次元の位置座標の値(X,Y)を取得する。二次元検出の詳細については後述する。
生成した深度画像12及び取得した二次元座標に基づいて、コントローラ5の映像生成部50は、映像71が被写体6に投影された際に適切に映し出されるように、映像データを補正する。映像データは、例えば予め記憶部51に格納されている。例えば映像生成部50は、1つの深度画像12が生成される毎に、映像71を三次元的に補正する。新たな深度画像が得られるまでの複数フレームの期間中、映像生成部50は順次、取得される二次元座標に基づいて、映像71の二次元的な補正をフレーム毎に実行する。
可視光プロジェクタ2は、所定のフレームレートにおいて、コントローラ5の映像生成部50から映像データを順次、入力して、被写体6及びスクリーン10に、入力した映像データが示す映像71を投影する。可視光プロジェクタ2のフレームレートは、例えばカメラ4の撮像動作のフレームレートと同様である。
以上の投影動作によると、非可視光映像の撮像画像11に基づき、被写体6の三次元計測を行いながら、高速にマーカ61の二次元検出を行うことにより、可視光プロジェクタ2から投影される映像71を被写体6の動きに精度良く追従させることができる。
また、本実施形態では、図1に示すように、可視光遮断フィルタ43をカメラ4に用いて、カメラ4に入射する光の内の可視光成分を遮断して赤外光成分を透過する。これにより、可視光プロジェクタ2が可視光の発光により映像を投影することに干渉せず、カメラ4が赤外光プロジェクタ3による計測パターンを精度良く撮像することができる。
また、以上の投影動作において、映像生成部50は、スクリーン10に投影する映像71も含めるように、可視光プロジェクタ2に出力する映像データを生成してもよい。例えば、投影システム1の設置時などのキャリブレーションによりスクリーン10の位置及び形状(向き)を示す情報を予め記憶部51に記録しておき、投影動作時に映像生成部50が上記の情報を参照して、スクリーン10に投影する映像71の補正を行う。
2−4.二次元検出の詳細
本実施形態における非可視光映像を用いた二次元検出の詳細について、図5を用いて説明する。図5は、本実施形態の二次元検出における非可視光映像80を説明するための図である。以下では、説明の簡単化のため、立体的な歪みがない物体に非可視光映像80等が投影される例について説明する。
図5(a)は、本実施形態の投影システム1における赤外光プロジェクタ3からの計測パターン8の一例を示す。図5(b)は、図5(a)の計測パターン8の光量分布を示す。図5(b)では、X方向に分布する光量を示している(図5(d),(e)も同様)。
本実施形態では、赤外光プロジェクタ3が投影する計測パターン8においては、図5(a),(b)に示すように、暗領域R0に分布する光量の値、即ち光量値が「0」である。また、明領域R1の光量値は、所定の差分B(以下「明暗差B」という)だけ、暗領域R0の光量値よりも大きい。計測パターン8における明暗差Bは、三次元計測における閾値判定の観点から適宜、設定される。
図5(c)は、本実施形態における非可視光映像80の一例を示す。図5(d)は、図5(c)の非可視光映像80の光量分布を示す。図5(e)は、図5(c)の非可視光映像80の撮像画像11の一例を示す。
図5(c)では、図5(a)の計測パターン8に基づく非可視光映像80を例示している。本実施形態の投影システム1は、赤外光プロジェクタ3からの計測パターン8に、赤外光投光器30からの一様光を重畳して、非可視光映像80を投影する。非可視光映像80は、図5(d)に示すように、パターン成分とオフセット成分とを含む。
非可視光映像80のパターン成分は、赤外光プロジェクタ3からの計測パターン8に対応して、明領域R1と暗領域R0間の明暗差Bを有する。また、非可視光映像80のオフセット成分は、赤外光投光器30からの一様光の光量に対応するオフセット値bを有する。オフセット値bは、「0」でない所定の正値であり、二次元検出の閾値判定等の観点から適宜、設定される。
以上のような非可視光映像80によると、図5(d)に示すように、暗領域R0の光量値が「0」よりもオフセット値bの分、大きくなる。これにより、本実施形態の二次元検出では、非可視光映像80の暗領域R0にマーカ61が位置したとしても(図5(c)参照)、マーカ61からオフセット値bに応じた光量の反射光を得ることができる。このような場合の撮像画像11の輝度分布を、図5(e)に例示する。
本実施形態の投影システム1では、マーカ61が赤外光投光器30からの一様光をカメラ4の方向に再帰反射することにより、撮像画像11中でマーカ61の位置が、周囲よりも明るく映ることとなる。図5(e)の例において、撮像画像11は、非可視光映像80の暗領域R0に対応する範囲内に、マーカ61に対応する輝度のピークP1を有する。
投影システム1のコントローラ5は、二次元検出の処理において、撮像画像11中の輝度を、予め設定された閾値と比較することにより、ピークP1のようなマーカ61の位置を取得する。二次元検出の閾値は、例えば撮像画像11中の明部およびマーカ61(ピークP1)として想定される輝度を考慮して設定可能である。
また、投影システム1の非可視光映像80におけるオフセット値bは、例えば明領域R1と暗領域R0間の明暗差Bを基準に設定されてもよい。例えば、オフセット値bは、明暗差Bの0.1倍等であってもよい。例えばオフセット値bの設定により、撮像画像11の輝度分布(図5(e))において、マーカ61に対応するピークP1の輝度を、明領域R1に対応する輝度よりも顕著に大きくすることができる。また、オフセット値bは、例えば撮像画像11の輝度分布におけるノイズの輝度等を考慮して設定されてもよい。
3.効果等
以上のように、本実施形態において投影システム1は、被写体6等の物体の三次元計測に基づき、物体に応じた映像71を投影する。投影システム1は、可視光プロジェクタ2と、赤外光プロジェクタ3及び赤外光投光器30による非可視光投影部と、カメラ4と、コントローラ5とを備える。可視光プロジェクタ2は、可視光投影部は、可視光によって映像71を物体に投影する。非可視光投影部は、非可視光による非可視光映像80を物体に投影する。カメラ4は、非可視光投影部によって投影された非可視光映像80を撮像する。コントローラ5は、カメラ4によって撮像された撮像画像11に基づき、物体の三次元計測を行いながら物体において反射した光に基づく情報を取得して、映像71を制御する。非可視光映像80は、所定の光量を有する明領域R1と、明領域R1の光量よりも小さい光量を有する暗領域R0とを含む。非可視光投影部は、非可視光映像80において暗領域R0の光量が所定のオフセット値b以上になるように、非可視光を照射する。
以上の投影システム1によると、物体に応じた映像71を投影する際に、撮像される非可視光映像80において暗領域R0の光量がオフセット値b以上になるため、例えば撮像画像11のフレーム毎など高速に、マーカ61等の二次元検出を行える。このように、投影システム1において、物体の三次元計測を行いながら、マーカ61の位置等の物体に関する情報を取得し易くすることができる。
また、本実施形態の投影システム1において、投影システム1の被写体6となる物体は、非可視光の一例の赤外光を反射するマーカ61を含む。二次元検出の対象とする反射した光に基づく情報は、マーカ61の二次元的な位置を含む。本実施形態のマーカ61は、例えば赤外光を再帰反射する。また、本実施形態の非可視光投影部は、投光部の一例の赤外光投光器30を備える。赤外光投光器30は、オフセット値bに応じた赤外光を投光する。
以上の投影システム1によると、被写体6が保持するマーカ61には、赤外光プロジェクタ3から計測パターン8が投影されると同時に、赤外光投光器30により一様分布9の赤外光が照射される。このため、計測パターン8の明領域R1及び暗領域R0に依らず、撮像画像11においてマーカ61の位置が高輝度の領域として撮像される。マーカ61の位置を示す高輝度の領域を抽出するように所定の閾値を設定することで、マーカ61の撮像画像11中の位置を認識できる。
以上のように、本実施形態の投影システム1において、被写体6の形状を計測すると同時に、高速に被写体6の位置を検出できる。コントローラ5の映像生成部50は、被写体6の形状と位置の計測結果に応じて物体に投影される映像を示す映像データを生成する。可視光プロジェクタ2は、物体に映像データが示す映像を可視光により投影する。
また、本実施形態において、カメラ4は、シリコンを含む撮像素子41と、赤外光を透過して可視光を吸収または反射する可視光遮断フィルタ43とを備える。これにより、カメラ4において、撮像素子41には可視光領域に受光感度があるような場合であっても、可視光の受光を遮断することができる。なお、可視光領域に受光感度がない撮像素子を用いる場合には、可視光遮断フィルタ43を省略してもよい。
また、本実施形態において、可視光遮断フィルタ43は、カメラ4における撮像レンズ42に取り付けられるフィルタである。可視光遮断フィルタ43は、撮像素子41に組み込まれるフィルタであってもよいし、カメラ4における撮像レンズ42と一体的に構成されてもよい。
また、本実施形態の投影システム1は、背景部材の一例のスクリーン10を備えてもよい。スクリーン10は、非可視光投影部から非可視光が射出する方向において被写体6の後方に配置される。本実施形態のスクリーン10によると、可視光の映像71を投影して演出効果等を得ることができる。
また、本実施形態において、非可視光映像80は、空間コード化法に基づく計測パターン8を含む。本実施形態の非可視光映像80によると、明領域R1と暗領域R0のデコードによって、コントローラ5が物体の三次元計測を行うことができる。
(実施形態2)
以下、図面を用いて、実施形態2を説明する。実施形態1では、投影システム1の二次元検出においてマーカ61の位置を取得した。実施形態2では、被写体6の輪郭を取得するような二次元検出を行う投影システムについて、図6〜8を参照して説明する。
実施形態1に係る投影システム1と同様の構成、動作の説明は適宜、省略して、本実施形態に係る投影システムを説明する。
1.構成
実施形態2に係る投影システム1Aの構成について、図6を参照して説明する。図6は、実施形態2に係る投影システム1Aの構成を示すブロック図である。
実施形態2に係る投影システム1Aでは、実施形態1と同様の構成において(図1参照)、スクリーン10Aが、被写体6の輪郭を取得可能な背景部材を構成する。さらに、本実施形態の投影システム1Aは、図6に示すように第1及び第2偏光フィルタ34,44を備える。
また、実施形態1の投影システム1は、赤外光投光器30と赤外光プロジェクタ3とを用いて非可視光映像を投影した。本実施形態では、赤外光投光器30を投影システム1Aに用いない例を説明する。つまり、本実施形態の投影システム1Aにおいては、赤外光プロジェクタ3が、二次元検出を高速化するための非可視光映像を投影する。本実施形態の赤外光プロジェクタ3は、非可視光投影部の一例である。
実施形態2のスクリーン10Aは、偏光状態を維持する性質を有する反射面10aを備える。スクリーン10Aの投影面は、偏光状態を維持する性質であれば、平面であってもよいし、曲面であってもよい。本実施形態のスクリーン10Aとしては、金属粉を反射面10aの全面に塗布したシルバースクリーンを用いることができる。
第1偏光フィルタ34は、赤外光プロジェクタ3から投影される非可視光のうち、特定方向の直線偏光成分のみを透過する偏光フィルタである。第1偏光フィルタ34は、例えば赤外光プロジェクタ3の投影光学系33に取り付けられる。第1偏光フィルタ34は、赤外光プロジェクタ3において非可視光に特定の偏光特性を付与する偏光部材の一例である。第1偏光フィルタ34は、投影光学系33における赤外光光源31とスクリーン10の間に配置されたり、投影光学系33と一体的に構成されたりしてもよい。
第2偏光フィルタ44は、カメラ4に入射する光のうち、特定方向の直線偏光成分のみを透過する偏光フィルタである。第2偏光フィルタ44は、第1偏光フィルタ34により付与された特定の偏光特性の赤外光を遮断するため、第1偏光フィルタ34の特性と90°異なる方向の特性になるように設置される。第2偏光フィルタ44は、入射する非可視光のうちの所定の偏光成分を遮断する偏光部の一例である。
第2偏光フィルタ44は、例えば撮像レンズ42に取り付けられる。また、第2偏光フィルタ44は撮像レンズ42における撮像素子41とスクリーン10Aの間に配置されたり、撮像レンズ42と一体的に構成されたりしてもよい。また、第2偏光フィルタ44は、撮像素子41の画像形成面などに組み込まれて構成されてもよい。また、第2偏光フィルタ44は、可視光遮断フィルタ43と一体的に構成されてもよい。
2.動作
以上のように構成される投影システム1Aの動作を以下に説明する。
2−1.投影動作
実施形態2に係る投影システム1Aの投影動作を、図7を参照して説明する。図7は、本実施形態に係る投影システム1Aの投影動作を説明するための図である。
本実施形態の投影システム1Aでは、図7に示すように、赤外光プロジェクタ3が、三次元計測の計測パターンを示すパターン成分と、投影範囲を一様に照射するオフセット成分とを重畳した非可視光映像80Aを投影する。非可視光映像80Aのオフセット成分を示すオフセット値bは、例えばコントローラ5(図6)から赤外光プロジェクタ3に入力する映像データに設定されている。
赤外光プロジェクタ3からの非可視光映像80Aは、第1偏光フィルタ34を介して、被写体6及びスクリーン10Aに投影される。カメラ4は、第2偏光フィルタ44を介して、投影された非可視光映像80Aを撮像する。本実施形態のスクリーン10A並びに第1及び第2偏光フィル34,44によると、図7に示すように、カメラ4の撮像画像11に、非可視光映像80Aにおいてスクリーン10A上の部分が映り込まないようにすることができる。本実施形態のスクリーン10A及び各種フィルタ34,44の機能については後述する。
本実施形態において、コントローラ5は、カメラ4の撮像画像11に基づいて、被写体6の三次元計測を行いながら、被写体6の輪郭を取得するように二次元検出の処理を実行する。例えば、コントローラ5は、撮像画像11における所定の閾値以上の高輝度の画素を、被写体6として認識する。コントローラ5は、被写体6を示す画素領域をオブジェクト部として抽出するように2値化したマスク画像13を生成する。あるいは、コントローラ5は、被写体6を示す画素領域の任意の方向のエッジとなる画素位置を、被写体6の二次元座標として算出してもよい。
以上の投影動作によると、非可視光映像80Aに含まれたオフセット成分により、三次元計測の計測パターンに依らず、カメラ4のすべての撮像画像11に、被写体6の全体像が映ることとなる。また、撮像画像11中で、被写体6はスクリーン10Aと比べて、顕著に輝度の高い領域として映り、所定の閾値以上の領域を被写体6として認識することができる。
本実施形態の非可視光映像80Aの代わりに、オフセット成分を重畳しない、計測パターンのみの画像を用いる場合、撮像画像中の被写体6のうち暗領域R0が撮像された暗部と、スクリーン10Aとが、区別できないことが考えられる。この場合、赤外光プロジェクタ3からある計測パターンを投影してカメラ4で撮像した画像と、次のフレームで明暗が反転したパターンを投影して撮像した画像とを合成するなどの追加の処理が必要になる。
これに対して、本実施形態では、すべての撮像画像11で被写体6の領域と他の領域とを区別できるため、被写体6の輪郭または位置を取得するために要する時間を著しく短縮できる。これにより、二次元検出を高速化して、投影システム1Aにおいて投影される映像71を被写体6の動きに精度良く追従させることができる。
2−2.スクリーンと各種フィルタについて
本実施形態の投影システム1Aにおけるスクリーン10A並びに第1及び第2偏光フィルタ34,44の機能について、図8を用いて説明する。図8は、実施形態2のスクリーン10A及び各種フィルタ34,44を説明するための図である。
本実施形態の投影システム1Aは、スクリーン10Aの投影面で反射された赤外光プロジェクタ3からの赤外光がカメラ4に受光されないようにするため、反射時に偏光状態を維持するスクリーン10Aと、第1及び第2偏光フィルタ44とを用いる。具体的に、赤外光が第1偏光フィルタ34を透過する際に特定の方向の直線偏光成分のみを透過させ、スクリーン10Aで反射する際に上記の直線偏光成分を維持し、第2偏光フィルタ44を透過する際に上記の直線偏光成分のみを遮断する。
これにより、赤外光プロジェクタ3から投影される画像中のスクリーン10Aに投影された部分はカメラ4の撮像画像に映らない。一方、被写体6に投影された部分からの反射光は、偏光が乱れ略無偏光となる。よって、被写体6における略無偏光の反射光の一部が第2偏光フィルタ44を透過するため、被写体6は撮像画像に映ることとなる。このため、カメラ4の撮像画像上で被写体6の輪郭が明瞭になり、被写体6の形状を精度良く取得可能になる。
詳述すると、例えば図8に示すように、赤外光プロジェクタ3からの射出時の赤外光18は、無偏光である(図中に全方向の矢印で示す)。次いで、射出した赤外光18は、第1偏光フィルタ34を通過するとき、図中で横方向の偏光成分のみを透過させる(横方向の矢印)。第1偏光フィルタ34を通過した赤外光18は、被写体6又はスクリーン10Aで反射される。
スクリーン10Aで反射した赤外光18aは、スクリーン10Aの反射面10aで偏光状態を維持するので、横方向の偏光成分のみで反射される(横方向の矢印)。すると、第2偏光フィルタ44で横方向の偏光成分が遮断され、スクリーン10Aで反射した赤外光はカメラ4に受光されない。一方、被写体6で反射した赤外光18bは、被写体6の表面で偏光が乱れるので、無偏光となる(全方向の矢印)。この場合、第2偏光フィルタ44で横方向の偏光成分が遮断される一方で、他の方向の偏光成分が透過する(縦方向の矢印)。よって、被写体6で反射した赤外光はカメラ4に受光される。これにより、カメラ4において、被写体6の輪郭を明瞭に撮像することができる。
また、第1偏光フィルタ34が赤外光18を横方向の偏光成分のみにすることが技術的に困難な場合が想定される。この場合、スクリーン10Aでの反射と、被写体6での反射とを撮像素子41で見分けるためには、第2偏光フィルタ44を透過する赤外光の偏光成分の合計値に差があればよい。この観点から、第1偏光フィルタ34を透過した赤外光の所定の偏光状態は、非可視光において所定の偏光成分が50%より多い割合となればよい。より好ましくは、スクリーン10Aでの反射と、被写体6での反射との見分けをつけるために、第2偏光フィルタ44を透過した赤外光に10%以上の差異をつければよい。つまり、第1偏光フィルタ34を透過した赤外光の所定の偏光状態は、非可視光において所定の偏光成分が60%以上の割合とすればよい。
また、本実施形態では、スクリーン10Aとしてシルバースクリーンを用いることにより、可視光の拡散反射を行うことができる。これにより、スクリーン10において可視光プロジェクタ2による映像の視認性を確保することができる。
3.効果等
以上のように、本実施形態において、投影システム1Aのコントローラ5は、例えば被写体6の輪郭など、スクリーン10A以外の物体において反射した光に基づく情報を取得する。これにより、被写体6等の物体の形状に応じた映像71を精度良く投影することができる。
本実施形態の投影システム1Aにおいて、背景部材の一例であるスクリーン10Aは、反射面10aにおいて、入射する非可視光を、偏光状態を維持するように反射する。スクリーン10Aは、例えば金属粉を塗布したシルバースクリーンで構成される。
また、本実施形態の投影システム1Aにおいて、非可視光投影部としての赤外光プロジェクタ3は、例えば第1偏光フィルタ34により、所定の偏光状態において非可視光を射出する。カメラ4には、入射する非可視光のうちの上記の偏光状態の成分を遮断するように、第2偏光フィルタ44が設けられている。
以上の投影システム1Aによると、赤外光プロジェクタ3における偏光状態を維持したままスクリーン10Aが非可視光を反射することで、第2偏光フィルタ44によりスクリーン10Aで反射された非可視光は遮断される。これにより、物体の形状または位置に応じて映像を投影する投影システム1において、被写体6の形状を精度良く計測するとともに、高速で位置等を検出することができる。
また、本実施形態において、スクリーン10Aは、可視光を拡散反射する。これにより、可視光プロジェクタ2からスクリーン10Aに映像を映し出すことができ、投影システム1Aにおける演出効果を高めることができる。
また、本実施形態の投影システム1Aは、赤外光プロジェクタ3が非可視光である赤外光により、オフセット成分を含む非可視光映像80Aを投影する構成に限らず、例えば実施形態1のような赤外光投光器30(図1参照)を用いてもよい。この場合、赤外光投光器30は、例えば第1偏光フィルタ34と同様の構成により、赤外光プロジェクタ3と同じ偏光状態において赤外光を投光する。
また、本実施形態において、第1偏光フィルタ34は、赤外光プロジェクタ3における投影光学系33に取り付けられるフィルタである。第1偏光フィルタ34は、赤外光プロジェクタ3における投影光学系33と一体的に構成されてもよい。なお、赤外光プロジェクタ3における赤外光光源31が、上記の偏光状態に対応する偏光特性を持った光を発する場合、第1偏光フィルタ34を省略してもよい。この場合、例えば赤外光光源31は、例えばレーザ光源などの発光素子を含む。
また、本実施形態において、第2偏光フィルタ44は、カメラ4における撮像レンズ42に取り付けられるフィルタである。第2偏光フィルタ44は、撮像素子41に組み込まれるフィルタであってもよいし、カメラ4における撮像レンズ42と一体的に構成されてもよい。
また、以上の説明では、第1偏光フィルタ34を透過する際に、上記の偏光状態として特定の方向の直線偏光成分のみを透過し、第2偏光フィルタ44を透過する際に同方向の直線偏光成分のみを遮断する構成を説明した。本実施形態の投影システム1Aにおいて用いる偏光状態は、特定の直線偏光成分に限定されない。
例えば、本実施形態の投影システム1Aは、第1偏光フィルタ34で、非可視光を円偏光又は楕円偏光などの所定の偏光状態の非可視光成分のみに変換し、第2偏光フィルタ44で当該偏光状態の非可視光成分のみを遮断するように構成されてもよい。これによっても、赤外光プロジェクタ3から投影して第1偏光フィルタ34を透過する所定の偏光特性を持つ非可視光が、第2偏光フィルタ44を介してカメラ4で検出されないようにすることができる。所定の偏光状態は、非可視光において所定の偏光成分が50%よりも多くてもよいし、60%以上であってもよい。
(実施形態3)
以下、図面を用いて、実施形態3を説明する。実施形態2では、非可視光を拡散反射するスクリーン10Aを用いた。実施形態3では、非可視光の拡散反射を遮断するスクリーンを用いた投影システムについて、図9,10を参照して説明する。
実施形態1、2に係る投影システム1,1Aと同様の構成、動作の説明は適宜、省略して、本実施形態に係る投影システムを説明する。
図9は、実施形態3に係る投影システム1Bの構成を示すブロック図である。本実施形態に係る投影システム1Bでは、実施形態1と同様の構成において(図1参照)、スクリーン10Bが、赤外光の拡散反射を遮断する背景部材を構成する。
実施形態3のスクリーン10Bは、可視光を拡散反射する可視光拡散層101と、赤外光を遮断する赤外光遮断層102との2層構造で構成される(図10参照)。スクリーン10Bの反射面10bは、可視光拡散層101が赤外光遮断層102に覆われて構成される。スクリーン10Bの投影面は、赤外光を遮断し、可視光を拡散反射する性質であれば、平面であってもよいし、曲面であってもよい。
スクリーン10Bの可視光拡散層101は、可視光を拡散反射する投影面を構成する。可視光拡散層101は、各種の幕部材であってもよい。
赤外光遮断層102は、入射する光の内の可視光成分を平均50%以上の透過率で透過し、赤外光成分を平均50%以上吸収する光学特性を有する。赤外光遮断層102は、例えばフィルム部材で構成される。赤外光遮断層102により、スクリーン10Bの投影面が、入射する赤外光の拡散反射を遮断する遮光面として形成される。赤外光遮断層102は、スクリーン10Bにおける遮光部材の一例である。また、赤外光遮断層102は、フィルム部材に限らず、例えばパネル部材で構成されてもよい。また、可視光拡散層に対するコーティングなどにより、赤外光遮断層102が形成されてもよい。
本実施形態の投影システム1Bにおけるスクリーン10Bの機能について、図10を用いて説明する。図10は、実施形態3の投影システム1Bにおけるスクリーン10Bを説明するための図である。
本実施形態では、可視光プロジェクタ2は、被写体6と共に、スクリーン10Bに映像71を投影する(図9参照)。スクリーン10Bにおいて観察者等に視認可能に映像71を映すためには、図10に示すように、可視光プロジェクタ2からの可視光17がスクリーン10Bにおいて拡散反射される必要がある。しかし、赤外光プロジェクタ3からの赤外光18もスクリーン10Bにおいて拡散反射されると、カメラ4による計測パターンの撮像画像中で、被写体6の領域と被写体6以外の領域との境界が不明瞭になってしまう。
そこで、本実施形態では、スクリーン10Bの投影面において赤外光18が拡散反射されないように、赤外光遮断層102を用いてスクリーン10Bを構成する(図10)。これにより、赤外光プロジェクタ3から投影される計測パターン中のスクリーン10Bに投影された部分はカメラ4の撮像画像に映らずに、計測パターン中の被写体6に投影された部分のみが、撮像画像に映ることとなる。このため、カメラ4の撮像画像上で被写体6の輪郭が明瞭になり、被写体6の形状及び位置を精度良く計測可能になる。
また、スクリーン10Bは、可視光を拡散反射する可視光拡散層101に赤外光遮断層102を重ねて構成される。図10に示すように、赤外光遮断層102が可視光17を透過することにより、スクリーン10Bの投影面において可視光17の拡散反射は維持される。これにより、スクリーン10Bにおいて可視光プロジェクタ2による映像の視認性を確保することができる。
以上のように、本実施形態の投影システム1Bにおいて、背景部材の一例であるスクリーン10Bは、反射面10bにおいて、入射する非可視光の拡散反射を遮断する。これによっても、実施形態2と同様に、二次元検出において、被写体6の輪郭などの情報を取得し易くすることができる。
本実施形態の投影システム1Bにおいては、被写体6に、実施形態1と同様のマーカ61が含まれてもよい。本実施形態の投影システム1Bによると、二次元検出において実施形態1と同様にマーカ61の二次元位置を取得できる。
また、以上の説明では、本実施形態における非可視光投影部の一例として実施形態1と同様の構成を説明したが、本実施形態の非可視光投影部は、実施形態2と同様に赤外光プロジェクタ3で構成されてもよい。これによっても、上記と同様の効果を得ることができる。
(他の実施形態)
以上のように、本出願において開示する技術の例示として、実施形態1〜3を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置換、付加、省略などを行った実施の形態にも適用可能である。また、上記各実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施形態を例示する。
上記の実施形態1において、マーカ61は非可視光を再帰反射した。本実施形態の投影システムでは、再帰反射性でないマーカが投影対象の物体に含まれてもよい。本実施形態の投影システムにおけるマーカは、例えば75%などの所定値以上の反射率を有してもよい。これによっても、撮像画像にマーカが顕著に高い輝度で映るようにして、実施形態1と同様の効果を得ることができる。
また、上記の各実施形態では、非可視光映像80,80Aが空間コード化法に基づく計測パターンを含む例を説明した。本実施形態の非可視光映像は、空間コード化法に限定されず、例えば、位相差コントラスト法に基づく計測パターン、或いはランダムドットパターン等を含んでもよい。非可視光映像は、投影システムにおいて採用する三次元計測の計測原理に応じて適宜、設定されてもよい。
また、上記の各実施形態では、被写体6等の物体に映像71を投影する例を説明したが、投影システムの投影対象は、特に当該物体上に限定されない。例えば、本実施形態の投影システムは、物体の計測結果に基づいて、計測した物体に応じた映像として、同物体を避けるような可視光の映像を、可視光プロジェクタ2から投影することができる。
また、上記各実施形態において、投影システム1において被写体6に映像71を追従させる例について説明した。本開示における投影システムの投影対象となる物体は、特に動体に限らず静止物体でもよく、例えば建造物でもよい。静止物体が投影システムの投影対象である場合には、特に投影動作中に位置を計測しなくてもよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において、種々の変更、置換、付加、省略などを行うことができる。
本開示における投影システムは、物体に映像を投影する種々の用途に適用可能である。
1,1A,1B 投影システム
2 可視光プロジェクタ
3 赤外光プロジェクタ
30 赤外光投光器
34 第1偏光フィルタ
4 カメラ
43 可視光遮断フィルタ
44 第2偏光フィルタ
5 コントローラ
50 映像生成部
6 被写体
61 マーカ
10,10A,10B スクリーン
10a,10b 反射面

Claims (10)

  1. 物体の計測に基づき、前記物体に応じた映像を投影する投影システムであって、
    可視光によって前記物体に応じた映像を投影する可視光投影部と、
    非可視光による非可視光映像を前記物体に投影する非可視光投影部と、
    前記非可視光投影部によって投影された非可視光映像を撮像する撮像部と、
    前記撮像部によって撮像された撮像画像に基づき、前記物体の三次元計測を行いながら前記物体において反射した光に基づく情報を取得して、前記映像を制御する制御部と
    を備え、
    前記非可視光映像は、所定の光量を有する明領域と、前記明領域の光量よりも小さい光量を有する暗領域とを含み、
    前記非可視光投影部は、前記非可視光映像において前記暗領域の光量が所定のオフセット値以上になるように、前記非可視光を照射する
    投影システム。
  2. 前記物体は、前記非可視光を反射するマーカを含み、
    前記反射した光に基づく情報は、前記マーカの二次元的な位置を含む
    請求項1に記載の投影システム。
  3. 前記マーカは、前記非可視光を再帰反射する
    請求項2に記載の投影システム。
  4. 前記非可視光投影部は、前記オフセット値に応じた非可視光を投光する投光部を備える
    請求項1〜3のいずれか1項に記載の投影システム。
  5. 前記非可視光投影部から前記非可視光が射出する方向において前記物体の後方に配置される背景部材を備える
    請求項1〜4のいずれか1項に記載の投影システム。
  6. 前記制御部は、前記背景部材以外の物体において反射した光に基づく情報を取得する
    請求項5に記載の投影システム。
  7. 前記背景部材は、入射する非可視光を、偏光状態を維持するように反射する
    請求項5又は6に記載の投影システム。
  8. 前記非可視光投影部は、所定の偏光状態において前記非可視光を射出し、
    前記撮像部に入射する非可視光のうちの前記所定の偏光状態の成分を遮断する偏光部が設けられた
    請求項7に記載の投影システム。
  9. 前記背景部材は、入射する非可視光の拡散反射を遮断する
    請求項7又は8に記載の投影システム。
  10. 前記非可視光映像は、空間コード化法に基づく計測パターンを含む
    請求項1〜9のいずれか1項に記載の投影システム。
JP2018022207A 2018-02-09 2018-02-09 投影システム Active JP7236680B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018022207A JP7236680B2 (ja) 2018-02-09 2018-02-09 投影システム
EP19155926.9A EP3524929B1 (en) 2018-02-09 2019-02-07 Projection system
US16/270,740 US11218677B2 (en) 2018-02-09 2019-02-08 Projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018022207A JP7236680B2 (ja) 2018-02-09 2018-02-09 投影システム

Publications (3)

Publication Number Publication Date
JP2019139069A true JP2019139069A (ja) 2019-08-22
JP2019139069A5 JP2019139069A5 (ja) 2021-02-18
JP7236680B2 JP7236680B2 (ja) 2023-03-10

Family

ID=65363128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018022207A Active JP7236680B2 (ja) 2018-02-09 2018-02-09 投影システム

Country Status (3)

Country Link
US (1) US11218677B2 (ja)
EP (1) EP3524929B1 (ja)
JP (1) JP7236680B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11877104B2 (en) 2021-08-06 2024-01-16 Seiko Epson Corporation Display method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6822234B2 (ja) * 2017-03-15 2021-01-27 セイコーエプソン株式会社 プロジェクターシステム
JP6782433B2 (ja) * 2017-03-22 2020-11-11 パナソニックIpマネジメント株式会社 画像認識装置
US10848647B1 (en) * 2019-07-17 2020-11-24 Brendan Bellomo Composite environment filmmaking devices, systems, products and methods
US11867499B2 (en) * 2020-02-19 2024-01-09 Faro Technologies, Inc. System and method for verifying a position of a component on an object
CN113259644B (zh) * 2021-05-17 2022-07-22 青岛海信激光显示股份有限公司 激光投影系统及图像校正方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004045222A (ja) * 2002-07-11 2004-02-12 Hamamatsu Photonics Kk 表面形状計測装置
JP2006177781A (ja) * 2004-12-22 2006-07-06 Matsushita Electric Works Ltd 3次元形状計測方法並びに3次元形状計測装置、3次元形状計測用プログラム
JP2006308323A (ja) * 2005-04-26 2006-11-09 Teruaki Yogo 3次元形状測定方法
JP2011002240A (ja) * 2009-06-16 2011-01-06 Olympus Corp 三次元形状測定方法および装置
CN103189823A (zh) * 2010-11-12 2013-07-03 3M创新有限公司 交互式偏振保持投影显示器
US20130215235A1 (en) * 2011-04-29 2013-08-22 Austin Russell Three-dimensional imager and projection device
JP2014186010A (ja) * 2013-03-25 2014-10-02 Toshiba Corp 計測装置、方法及びプログラム
JP2015018554A (ja) * 2013-07-10 2015-01-29 クリスティ デジタル システムズ カナダ インコーポレイテッド 画像を物体の所定部分に投影するための装置、システム及び方法
WO2017212509A1 (ja) * 2016-06-08 2017-12-14 パナソニックIpマネジメント株式会社 投影システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2575910B2 (ja) 1990-02-19 1997-01-29 株式会社 電通プロックス 自動追尾投影装置
JP4734882B2 (ja) 2004-09-29 2011-07-27 カシオ計算機株式会社 投影装置、投影方法及びプログラム
JP2008039925A (ja) 2006-08-02 2008-02-21 Dainippon Printing Co Ltd 対話型の前面投射型スクリーンシステム
US20090015548A1 (en) 2007-06-28 2009-01-15 Keiko Tazaki Image projection system
JP5141110B2 (ja) 2007-06-28 2013-02-13 大日本印刷株式会社 画像投影システム
JP2010204572A (ja) 2009-03-05 2010-09-16 Dainippon Printing Co Ltd 反射スクリーン、映像表示システム
US20130222892A1 (en) * 2010-11-12 2013-08-29 3M Innovative Properties Company Interactive polarization-selective projection display
JP6618249B2 (ja) 2014-02-18 2019-12-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 投影システムおよび半導体集積回路
JP6601790B2 (ja) * 2015-06-30 2019-11-06 パナソニックIpマネジメント株式会社 リアルタイム計測投影装置及び三次元投影計測装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004045222A (ja) * 2002-07-11 2004-02-12 Hamamatsu Photonics Kk 表面形状計測装置
JP2006177781A (ja) * 2004-12-22 2006-07-06 Matsushita Electric Works Ltd 3次元形状計測方法並びに3次元形状計測装置、3次元形状計測用プログラム
JP2006308323A (ja) * 2005-04-26 2006-11-09 Teruaki Yogo 3次元形状測定方法
JP2011002240A (ja) * 2009-06-16 2011-01-06 Olympus Corp 三次元形状測定方法および装置
CN103189823A (zh) * 2010-11-12 2013-07-03 3M创新有限公司 交互式偏振保持投影显示器
US20130222237A1 (en) * 2010-11-12 2013-08-29 3M Innovative Properties Company Interactive polarization-preserving projection display
US20130215235A1 (en) * 2011-04-29 2013-08-22 Austin Russell Three-dimensional imager and projection device
JP2014186010A (ja) * 2013-03-25 2014-10-02 Toshiba Corp 計測装置、方法及びプログラム
JP2015018554A (ja) * 2013-07-10 2015-01-29 クリスティ デジタル システムズ カナダ インコーポレイテッド 画像を物体の所定部分に投影するための装置、システム及び方法
WO2017212509A1 (ja) * 2016-06-08 2017-12-14 パナソニックIpマネジメント株式会社 投影システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11877104B2 (en) 2021-08-06 2024-01-16 Seiko Epson Corporation Display method

Also Published As

Publication number Publication date
EP3524929A1 (en) 2019-08-14
JP7236680B2 (ja) 2023-03-10
US11218677B2 (en) 2022-01-04
EP3524929B1 (en) 2022-05-11
US20190253679A1 (en) 2019-08-15

Similar Documents

Publication Publication Date Title
JP7236680B2 (ja) 投影システム
JP6587158B2 (ja) 投影システム
JP6153050B1 (ja) 投影システム
CN109155843B (zh) 图像投影系统和图像投影方法
US10728508B2 (en) Projection system and projection method
WO2017212509A1 (ja) 投影システム
TWI489079B (zh) 投影裝置與深度量測系統
JP6152395B2 (ja) 光学検出システム
JP2006270798A (ja) 合成映像撮影装置
JP7236854B2 (ja) 形状情報取得装置および形状情報取得方法、プログラム並びに記憶媒体
JP2022138755A (ja) 投影制御装置、空間投影装置、空間投影システム及び空間投影方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230217

R151 Written notification of patent or utility model registration

Ref document number: 7236680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151