JP6830112B2 - 投影適否検知システム、投影適否検知方法及び投影適否検知プログラム - Google Patents

投影適否検知システム、投影適否検知方法及び投影適否検知プログラム Download PDF

Info

Publication number
JP6830112B2
JP6830112B2 JP2018565959A JP2018565959A JP6830112B2 JP 6830112 B2 JP6830112 B2 JP 6830112B2 JP 2018565959 A JP2018565959 A JP 2018565959A JP 2018565959 A JP2018565959 A JP 2018565959A JP 6830112 B2 JP6830112 B2 JP 6830112B2
Authority
JP
Japan
Prior art keywords
projection
unit
detection system
distortion
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018565959A
Other languages
English (en)
Other versions
JPWO2018142743A1 (ja
Inventor
太一 三宅
太一 三宅
大津 誠
誠 大津
拓人 市川
拓人 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JPWO2018142743A1 publication Critical patent/JPWO2018142743A1/ja
Application granted granted Critical
Publication of JP6830112B2 publication Critical patent/JP6830112B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Image Analysis (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Image Processing (AREA)

Description

本開示は、投影装置によって投影対象にコンテンツを投影する際の投影の適否を検知する投影適否検知システム、投影適否検知方法及び投影適否検知プログラムに関する。
近年、実空間を示す画像に図形や文字、静止画、映像などの視覚情報を重畳し、表示する拡張現実(Augmented Reality、AR)技術が開発されている。AR技術によれば、例えば、作業現場において、作業対象物に対して作業方法を示す映像等を重畳させたり、医療現場において、患者の身体に対して、診察画像等を重畳させたりすることができる。
AR技術の実施方式としては、光学シースルー型、ビデオシースルー型、プロジェクション型等の方式が存在する。光学シースルー型、ビデオシースルー型といった方式では、複数人が同時に同じAR情報を見る場合、各々が専用の機器を装着する必要がある。これに対し、プロジェクション型AR技術では、各々が専用の機器を装着することなく、複数人が同時に同じAR情報を見ることができるという利点がある。
プロジェクション型AR技術は、物体に、図形や文字、静止画、映像などの視覚的な情報を投影する投影装置を用いて、コンピュータ上で生成または加工した映像を投影装置から投影し、実空間内の物体に映像を重畳させる技術である。
特許文献1には、この技術を用いたプロジェクション型AR作業支援方法として、作業現場で作業をするユーザ(以下、作業者と記載)に対して、遠隔地から指示をするユーザ(以下、指示者と記載)が入力した指示情報をARコンテンツとして作業現場に投影する方法が開示されている。
WO2016/084151(2016年6月2日)
しかしながら、特許文献1に記載されているようなプロジェクション型AR作業支援技術は、基本的に撮像装置と作業者との位置が離れているため、撮像装置の撮像映像を観る指示者の視点位置と、作業者の視点位置とが異なっている。そのため、特許文献1に記載されている方法では、撮像装置の撮像映像に作業対象の傾斜や凹凸が考慮されず、その状態で指示者が作業指示を入力した結果、投影されたARコンテンツ(以下、投影内容あるいは視覚化情報と称す)を作業者から見たときに、指示者が作業指示として入力した形状と異なる形状で視認される場合がある。
本開示は、以上の課題を鑑みてなされたものであり、投影対象に視覚化情報を投影する投影装置を備え、作業対象を構成する面の形状的特徴から、指示者の視点と、作業者の視点とのそれぞれで、適切に視覚化情報が投影されない箇所を検知し、検知結果を指示者に通知する投影適否検知システム、投影適否検知方法及び投影適否検知プログラムを提供することを目的とする。
上記の課題を解決するために、本開示の一態様に係る投影適否検知システムは、対象物の撮像画像上の位置の指定を受け付ける指示装置を含む第1端末と、上記撮像画像上の指定された位置に対応する上記対象物の被投影面に視覚化情報を投影する投影装置を含む第2端末と、を備え、上記第1端末と上記第2端末とは互いに通信可能な範囲で離間している投影適否検知システムであって、上記投影適否検知システムは、上記撮像画像に基づいて、上記被投影面が投影歪みを生じさせるか否かを検知する検知部を備え、上記第1端末は、上記検知部の検知結果を出力する出力部と、を備えている。
また上記の課題を解決するために、本開示の一態様に係る投影側端末は、対象物の撮像画像上の位置の指定を受け付ける指示装置を含む指示側端末と通信可能な範囲で離間しており、上記撮像画像上の指定された位置に対応する上記対象物の被投影面に視覚化情報を投影する投影装置を含む投影側端末であって、上記撮像画像に基づいて、上記被投影面が投影歪みを生じさせるか否かを検知する検知部を備えており、上記検知部の検知結果を上記指示側端末に送信するようになっている。
また上記の課題を解決するために、本開示の一態様に係る指示側端末は、対象物の撮像画像上の位置の指定を受け付ける指示装置を含む指示側端末であって、上記撮像画像上の指定された位置に対応する上記対象物の被投影面に視覚化情報を投影する投影装置を含む投影側端末と通信可能な範囲で離間しており、上記撮像画像に基づいて、上記被投影面が投影歪みを生じさせるか否かを検知する検知部と、上記検知部の検知結果を出力する出力部と、を備えている。
また上記の課題を解決するために、本開示の一態様に係る投影適否検知方法は、対象物の撮像画像上の位置の指定を受け付ける指示装置を含む第1端末と、上記第1端末と通信可能な範囲で離間しており、上記撮像画像上の指定された位置に対応する上記対象物の被投影面に視覚化情報を投影する投影装置を含む第2端末と、を備えた投影適否検知システムの投影適否検知方法であって、上記撮像画像に基づいて、上記被投影面が投影歪みを生じさせるか否かを検知する検知ステップと、上記第1端末において上記検知ステップの検知結果を出力する出力ステップと、を含む。
また上記の課題を解決するために、本開示の一態様に係る投影適否検知プログラムは、上述した構成の投影適否検知システムの各部としてコンピュータを機能させるための投影適否検知プログラムであって、上記検知部及び上記出力部としてコンピュータを機能させるための投影適否検知プログラムである。
本開示の一態様によれば、投影対象に視覚化情報(投影内容)を投影する際に適切に投影されない箇所を検知し、その旨を出力することにより、指示者がその旨の通知を受けることができる。
本開示の一実施形態に係る投影適否検知システムとしてのプロジェクション型AR作業支援システムの利用シーンの模式図である。 本開示の一実施形態に係る投影適否検知システムの構成を示す構成図である。 本開示の一実施形態に係る投影適否検知システムの機能ブロックを示す図である。 本開示の一実施形態に係る投影適否検知システムの作業者側装置及び指示装置の構成例を示すブロック図である。 本開示の一実施形態に係る投影適否検知システムの面推定処理部の構成を示すブロック図である。 本開示の一実施形態に係る投影適否検知システムの投影歪み通知方法の一例を示す図である。 本開示の一実施形態に係る投影適否検知システムの作業者側装置の投影歪み検出結果と、映像符号と、を送信するための処理のフローチャート図である。 本開示の一実施形態に係る投影適否検知システムの作業者側装置が指示装置から情報を受信する場合のフローチャート図である。 本開示の一実施形態に係る投影適否検知システムの指示装置の処理を示すフローチャート図である。 本開示の他の実施形態に係る投影適否検知システムとしてのプロジェクション型AR作業支援システムの利用シーンの模式図である。 本開示の他の実施形態に係る投影適否検知システムの指示装置の処理を示すフローチャート図である。 本開示の他の実施形態に係る投影適否検知システムとしてのプロジェクション型AR作業支援システムの利用シーンの模式図である。 本開示の他の実施形態に係る投影適否検知システムの機能ブロックの一部を示す図である。 本開示の他の実施形態に係る投影適否検知システムとしてのプロジェクション型AR作業支援システムの利用シーンの模式図である。 本開示の一実施形態に係る投影適否検知システムの指示装置の処理を示すフローチャート図である。 図15に示す指示装置の処理の一部を説明する図である。
〔実施形態1〕
以下、本開示の一実施形態に係る投影適否検知システムについて、図1から図9に基づいて説明する。
<投影適否検知システム100の使用形態およびシステムの概要>
図1は、本実施形態1に係る投影適否検知システム100の使用形態の一例を模式的に示す図である。
図1に示す例では、作業現場WSと、指示室CSとが示されており、作業現場WSにいる作業者WRが、指示室CSにいる指示者CRから作業対象オブジェクトOBに関する作業指示を受けている様子を示している。
指示者CRは、作業現場WSに配置している投影装置105を用いて、作業対象オブジェクトOBの特定の位置に対して、指示内容を示す投影内容106を投影して表示させることができる。そして、作業者WRは、この投影された投影内容106を見ながら作業を行うことができる。これと同時に、作業現場WSの様子は、作業現場WSに配置している撮像装置107で撮影されており、指示者CRは、遠隔から作業の様子を確認することができる。
本実施形態1に係る投影適否検知システム100は、作業者側装置108(第2端末)及び指示装置109(第1端末)を備えている。そして、図1に示す例では、投影適否検知システム100は、以下のように動作する。
まず、作業者側装置108は、撮像装置107によって撮影された作業対象オブジェクトOBを含む領域の映像を取得し、取得した映像を指示装置109に送信する。その後、指示装置109は、受信した映像を表示装置110に表示する。指示者CRは、表示装置110に表示された作業対象の映像111の上に、指示内容を示す視覚化情報106’を設置する。指示装置109は、視覚化情報106’を作業者側装置108に送信する。作業者側装置108は、視覚化情報106’を受信すると、受信した視覚化情報106’を投影内容106として、投影装置105を通じて作業対象オブジェクトOBに対して投影する。なお、本明細書において、作業者側装置108を含む作業現場WS側の構成を投影側端末とも称し、指示装置109を含む指示室CS側の構成を指示側端末とも称す。
ここで、作業者側装置108と指示装置109とは、互いに通信可能な範囲で離間していればよく、例えば、図2に示すような公衆通信網(例えば、インターネット)によって、お互いに接続されており、TCP/IPやUDP等のプロトコルに従い、通信する。投影適否検知システム100は、さらに、視覚化情報106’を一括して管理するための管理サーバ200を含んでいてもよく、この場合、管理サーバ200は、公衆通信網に接続している。なお、作業者側装置108と、指示装置109とは、公衆通信網と無線通信によって接続してもよい。この場合、無線通信は、例えばWi−Fi(登録商標)Alliance(米国業界団体)によって規定された国際標準規格(IEEE 802.11)のWi−Fi(登録商標)(ワイファイ、Wireless Fidelity)接続によって実現することが可能である。通信網に関しては、これまでインターネットなどの公衆通信網について示してきたが、例えば、企業などで使用されている、LAN(Local Area Network)を用いることも可能で、また、それらが混在した構成であっても良い。
<投影適否検知システム100の要部構成>
図3は、本実施形態1に係る投影適否検知システム100の要部構成を示すブロック図である。
投影適否検知システム100は、図3に示すように、撮像装置107と、制御部300と、投影装置105と、表示装置110と、外部入力部104とを備えている。
撮像装置107は、撮影空間を画像として取り込むための光学部品、および、CMOS(Complementary Metal Oxide Semiconductor)やCCD(ChargeCoupled Device)などの撮像素子を具備するように構成されており、撮像素子における光電変換によって得られた電気信号に基づいて映像111の映像データを生成する。
制御部300は、機能ブロックとして、映像取得部301と、エンコード部302と、面推定処理部303と、投影歪み箇所検知部304(検知部)と、デコード部305と、投影歪み箇所通知部306(出力部)と、映像表示部307と、入力受付部308と、投影内容出力部309とを備えている。
制御部300は、1または複数のプロセッサである。制御部300としては、1個のプロセッサが全ての機能ブロックの処理を実行してもよいし、複数のプロセッサが各機能ブロックの処理を分けて実行してもよい。
映像取得部301は、撮像装置107から映像データ(撮像画像)を取得し、エンコード部302及び面推定処理部303に出力する。一態様において、映像取得部301は、取得した映像データをそのまま出力してもよいし、図示しない画像処理部を用い、取得した映像データに対して輝度変調処理、ノイズ除去などの画像処理を施した後に出力してもよいし、それら両方を出力してもよい。また、映像取得部301は、出力する映像データと、撮影時の焦点距離などのパラメータとを、後述する第1保存部402あるいは第2保存部405(図4)に送るように構成することもできる。
エンコード部302は、映像取得部301が取得した映像信号を、元の信号量より小さくなるよう圧縮する符号化処理を行い、映像符号を出力する。一態様において、エンコード部302は、FPGA(Field Programmable Gate Array)やASIC(ApplicationSpecific Integrated Circuit)などによって構成され得る。符号化処理については、例えば動画像符号化に適したH.264(国際標準動画圧縮規格)を適用することができるし、他の手法を用いることもできる。なお、後述する作業者側装置108と、指示装置109との間の映像信号の通信の際に、映像信号の圧縮を必要としない場合は、エンコード部302を含まないシステム構成としてもよい。
面推定処理部303は、投影対象である作業対象オブジェクトOBの平面のパラメータ(以下、平面パラメータと称す)を取得し、作業対象オブジェクトOBの表面(被投影面)の情報を推定する。投影対象の表面の情報の推定結果は、投影歪み箇所検知部304に出力される。一態様において、面推定処理部303は、FPGAやASICなどによって構成され得る。平面パラメータを取得する具体的な方法、及び投影対象の面の情報を推定する具体的な方法については後述する。
投影歪み箇所検知部304は、面推定処理部303の推定結果を受けて、投影装置105が投影内容106を投影する場合の、作業対象オブジェクトOBの表面における少なくともの投影を予定している箇所(位置)を含む領域の投影歪みの有無(以下、投影歪み検出結果と称す)を検出する。
なお、本明細書において、「投影歪み」が有る、または、生じるとは、或る視覚化情報が被投影面に投影された状態において、当該被投影面を観察したときに、当該視覚化情報の少なくとも一部が歪んで見えること、または当該視覚化情報の少なくとも一部が欠けて視認できない状態(凹みや穴を含む領域に投影しようとした場合の当該領域に生じ得る現象)であることを意味する。一態様において、投影歪み箇所検知部304は、FPGAやASICなどによって構成され得る。投影歪み検出結果の取得方法については後述する。
デコード部305は、符号化された映像符号を、元の映像信号に復号する処理を行う。一態様において、デコード部305は、FPGAやASICなどによって構成され得る。なお、後述する作業者側装置108と指示装置109との間の映像信号の通信の際に、映像信号の圧縮を必要としない場合は、デコード部305を含まないシステム構成としてもよい。
投影歪み箇所通知部306は、投影歪み箇所検知部304の検出結果を受けて、当該検出結果を出力する。具体的には、投影歪み箇所通知部306は、投影歪み箇所の通知内容の生成および出力を行う。一態様において、投影歪み箇所通知部306は、FPGAやASICなどによって構成され得る。具体的な通知内容の生成方法については後述する。
映像表示部307は、デコード部305が出力した映像信号と、投影歪み検出結果と、から、映像信号に、投影歪み箇所通知部306によって生成された通知内容を重畳した映像信号を生成する。生成した映像信号は、外部接続された表示装置110に送る。一態様において、表示される情報のデータ形式は特に限定されず、静止画であれば、例えば、Bitmap、JPEG(Joint Photographic Experts Group)など、動画であれば、例えば、AVI(Audio Video Interleave)、FLV(Flash Video)などの汎用のデータ形式であってもよく、独自のデータ形式であってもよい。また、映像表示部307が、データ形式を変換しても良い。映像表示部307は、一態様において、FPGAやASICなどによって構成され得る。
入力受付部308は、外部入力部104によって入力された視覚化情報106’を受け付ける。一態様において、入力受付部308は、FPGAやASICなどによって構成され得る。
投影内容出力部309は、入力受付部308が受け付けた視覚化情報106’を、投影内容106として、外部接続された投影装置105に出力する。一態様において、投影内容出力部309は、FPGAやASICなどによって構成され得る。
以上の各機能ブロックが、制御部300を構成している。
投影装置105は、一態様において、DLP(Digital LightProcessing)プロジェクタや液晶プロジェクタなどによって構成され得る。
表示装置110は、一態様において、LCD(Liquid CrystalDisplay)や有機ELディスプレイ(OELD:Organic Electro LuminescenceDisplay)などによって構成され得る。
外部入力部104は、指示者CRの操作によって、視覚化情報106’を入力する。一態様において、外部入力部104は、マウスやキーボードなどの装置によって構成され得る。また、表示装置110が外部入力部104を含む構成としてもよく、例えば、タッチパネルを表示装置110に含むことによって、指示者CRが表示装置110に指などを接触させることによって、操作を入力することとしてもよい。
<投影適否検知システム100のハードウェア構成>
図4は、投影適否検知システム100のハードウェア構成の一例を示すブロック図である。投影適否検知システム100は、先述のように、一例において作業者側装置108及び指示装置109を備えている。
作業者側装置108は、図4に示すように、第1通信部401と、第1保存部402と、第1制御部403とを備えている。
第1通信部401は、エンコード部302が出力した映像符号を、ネットワーク通信が行えるようにデータを整形し、指示装置109に送信する。さらに、第1通信部401は、投影歪み箇所検知部304から投影歪み検出結果を受け取り、これを指示装置109に送信する。また、第1通信部401は、指示装置109から視覚化情報106’を受信する。一態様において、第1通信部401は、FPGAやASICなどによって構成され得る。ネットワーク通信を行うためのデータの整形は、例えば、TCP/IPやUDP等のプロトコルに従った、通信に必要な情報を付加するものである。通信の方式は該方式に限定するものではなく、双方の通信路が確立されて、お互いにデータの送受信ができれば良い。
第1保存部402は、撮像装置107及び投影装置105の内部パラメータ及び外部パラメータや、面推定処理部303で取得した平面パラメータや、画像処理に利用する種々のデータなどを保存する。一態様において、第1保存部402は、RAM(Random Access Memory)や、ハードディスクなどの記憶装置によって構成され得る。
第1制御部403は、作業者側装置108全体の制御を行う。第1制御部403は、例えば、CPU(Central Processing Unit)などによって構成され、各機能ブロックにおける処理の命令、制御やデータの入出力に関するコントロールを行う。第1制御部403は、図3の制御部300の一部または全部の機能ブロックの処理を実行することが可能である。
なお、各々のブロック間でのデータのやり取りを行うためのバスを備えてもよい。
なお、一態様において、図1に示すように、作業者側装置108と投影装置105と撮像装置107とが独立した装置として構成されている。本実施形態1ではこれに限定されず、他の態様において、作業者側装置と投影装置と撮像装置が、筺体に内包されて一体となった構成であっても良いし、あるいは、その一部の組合せが一体となった態様であっても良い。
指示装置109は、第2通信部404と、第2保存部405と、第2制御部406とを備えている。
第2通信部404は、作業者側装置108から、映像符号と、面推定処理部303の推定結果とを受信する。また、作業者側装置108に視覚化情報106’を送信する。一態様において、第2通信部404は、FPGAやASICなどによって構成され得る。
第2保存部405は、投影歪みの検知に必要なパラメータや、画像処理に利用する種々のデータなどを保存する。一態様において、第2保存部405は、RAM(Random Access Memory)や、ハードディスクなどの記憶装置によって構成され得る。
第2制御部406は、指示装置109全体の制御を行う。第2制御部406は、例えば、CPUなどによって構成され、各機能ブロックにおける処理の命令、制御やデータの入出力に関するコントロールを行う。第2制御部406は、図3の制御部300の一部または全部の機能ブロックの処理を実行することが可能である。
なお、指示装置109においても、作業者側装置108と同様に、各々のブロック間でのデータのやり取りを行うためのバスを備えてもよい。
また、一態様において、図1に示すように、指示装置109と表示装置110とが独立した装置として構成されている。本実施形態ではこれに限定されず、他の態様において、指示装置と表示装置とが、筺体に内包されたタブレット型の形態であっても良い。
ここで、作業者側装置108の第1制御部403と、指示装置109の第2制御部406とは、図3の制御部300の各機能ブロックを分けて実行することが可能である。例えば、図3において制御部300の枠組内に破線にて境界を示したように、作業者側装置108の第1制御部403が、映像取得部301、面推定処理部303及び投影内容出力部309の処理を実行し、指示装置109の第2制御部406が、投影歪み箇所検知部304、投影歪み箇所通知部306及び映像表示部307の処理を実行してよい。また、他の分け方で、作業者側装置108の第1制御部403と、指示装置109の第2制御部406とが、制御部300の各機能ブロックの処理を実行してもよい。
<面推定処理部303の処理内容>
続いて、本実施形態1における面推定処理部303による面情報の取得方法について、図5を用いて説明する。
図5は、面推定処理部303の機能ブロック構成を示す図である。
図5に示すように、面推定処理部303は、対応点マップ取得部501と、点群取得部502と、平面パラメータ導出部503とを有する。
対応点マップ取得部501は、図3に示す映像取得部301が取得した映像データ上の画素の位置と、投影装置105から投影される映像上の画素の位置との対応関係のリスト(以下、対応点マップと称す)を算出する。対応点マップの算出方法は、例えば、投影装置から投影したパターン画像(参照画像)を撮影し、撮影した画像のパターンから対応関係を算出するコード化パターン光投影法を用いることができる。なお、対応点マップの算出方法については、コード化パターン光投影法に限定するものではなく、映像データ上の画素の位置と、投影装置105から投影される映像上の画素の位置と、の対応関係が取得できる方法であればどのような方法であってもよい。
点群取得部502は、対応点マップ取得部501で取得した対応点マップと、撮像装置107及び投影装置105の内部パラメータと、外部パラメータと、映像取得部301が取得した映像データ上の画素の座標とから、ステレオ法の原理を用いて、撮像装置107で撮影された映像データ上の各画素について、撮像装置107を基準とした3次元座標を算出する。ここで、内部パラメータは、撮像装置107及び投影装置105の焦点距離、主点を含む。また、外部パラメータは、撮像装置107と投影装置105との間の回転行列と並進ベクトルを含む。なお、点群取得部502は、3次元座標を直接取得できる装置であってもよく、例えば、被写体までの赤外光の反射時間に基づいて距離を測定するTOF(Time Of Flight)方式の装置などを適用してもよい。
平面パラメータ導出部503は、点群取得部502で取得した各画素の3次元座標(以下、3次元点群と称す)から3次元点群中に最もよく当てはまる平面を算出する。一態様において、3次元座標の座標をそれぞれx、y、zとしたとき、3次元座標における平面は、以下の式(1)によって定義できる。
Figure 0006830112
式(1)における(a、b、c)は平面の法線ベクトルを示し、dは3次元座標の原点と平面の距離を示す。すなわち、式(1)における、パラメータ(a、b、c、d)を算出することによって、平面を算出することができる。
ここで、一態様において、平面パラメータ導出部503は、対応点マップの画素に対してN×Nのマスクをかける。このマスク内のN×N個の画素に対応する、三次元点群(x1,y1,z1)から(xN×N,yN×N,zN×N)は、以下に示す式(2)の連立方程式を満たす。ここで、(a、b、c)は法線ベクトルで、ベクトルの大きさが変わっても問題が無いため、cの値を1に固定する。
Figure 0006830112
ここで、一態様において、式(2)の各行列を、以下に示す式(3)から式(5)のように定義すると、平面パラメータ導出部503は、以下に示す式(6)によってパラメータ(a、b、c、d)を算出することができる。
Figure 0006830112
Figure 0006830112
Figure 0006830112
Figure 0006830112
ここで、A−1は行列Aの逆行列を示し、Aは行列Aの転置行列を示す。
上記の計算を対応点マップ上のマスクを走査するごとに行い、結果(a、b、1、d)のパラメータ群が、投影歪み箇所検知部304へと出力される。添字iはマスクを走査した回数を表し、それぞれの走査で1つの面情報が推定される。
<投影歪み箇所検知部304の処理内容>
投影歪み箇所検知部304は、面推定処理部303が算出した各平面のパラメータ(推定結果)を参照し、投影内容106を投影する場合に、作業者WRの視点から見た場合の歪みの有無を検知する。
投影歪み箇所検知部304は、投影装置105の投影方向のベクトルをD、マスクiの平面の法線ベクトルをP=(a、b、1)とすると、式(7)によって、マスクiの投影歪み検出結果Giを取得する。
Figure 0006830112
ここで、式(7)中のnormalized()は、入力したベクトルの正規化処理を行う関数を示し、abs()は絶対値を算出する関数を示す。また、記号・は、ベクトルの内積を示す。また、Thはあらかじめ設定された閾値であり、0から1の間の実数値に設定される。
上記の式(7)において、abs{normalized(Pi)・normalized(D)}が1に近いほど、マスクiで算出された平面は投影装置105の投影方向に対して正対しているため、作業者WRの視点からは投影内容の歪みが小さい。逆に、abs{normalized(Pi)・normalized(D)}が0に近いほど、マスクiで算出された平面は投影方向に対して大きな傾きを持つため、作業者WRの視点からは投影内容106が大きく歪む。この判定は、あらかじめ設定された閾値Thを下回っているかどうかで判断を行う。
<通知方法>
投影歪み箇所通知部306の、通知の表示方法について図6を用いて説明する。
図6は、投影歪み箇所通知部306が、投影歪みの通知を行っている一例を示す図である。図6では、作業対象オブジェクトOBの面601は投影歪み検出結果(投影適否の判定結果)が歪み有り、すなわち投影が不適である、と判定されている箇所を示している。
投影歪み箇所通知部306は、投影歪み箇所検知部304から送信された、投影歪み検出結果(投影適否の判定結果)を受け、指示者CRに対して通知処理を行う。
通知方法は、投影歪み、すなわち投影が不適であること、を通知できる方法であればよく、例えば、投影歪み検出結果を参照し、面601の該当する箇所を単一色で塗りつぶすことで、作業者WRの視点では正しく指示が投影されないことを、指示者CRに通知する方法を用いることができる。
また、別の方法として、指示者CRが視覚化情報106’を投影歪み箇所に入力する場合は、重なっている箇所の色を変更することで通知する方法としてもよい。
また、さらに別の方法として、表示装置のいずれかの位置に、歪み有りとの通知コンテンツ602を描画する処理を行うことで、指示者CRに気付かせる方法や、指示装置109を振動させて通知する方法としてもよい。
なお、投影歪み箇所通知部306の通知方法は上記方法に限定するものではなく、投影歪みの有無(投影の適否)、または、投影歪みの発生する画素を通知する方法であれば、どのような方法であってもよい。
なお、指示者に対する通知は、作業者WRの視点では正しく指示が投影されないことを通知すればよく、投影歪みを通知する必要はない。しかしながら、正しく指示が投影されない理由、すなわち投影歪みがあることを併せて通知してもよい。
<投影適否検知システム100の動作(投影適否検知方法)>
作業者側装置108(図1及び図4)の処理フローチャートについて、図7及び図8を用いて説明する。なお、図7及び図8のそれぞれフローチャートは、並列に動作する。
図7は作業者側装置108から指示装置109に、平面パラメータ(推定結果)と、映像符号とを送信するためのフローチャートを示す。
投影適否検知システム(A)を起動すると、まずステップS701に処理を進める。
ステップS701では、映像取得部301が、撮像装置107によって撮影された作業対象オブジェクトOBの映像を取得する。取得後、ステップS702に移行する。
ステップS702では、面推定処理部303が、上述の対応点マップを取得する。更に、面推定処理部303が、投影装置105と撮像装置107の内部パラメータ及び外部パラメータの算出を行う。更に、面推定処理部303が、対応点マップと、内部パラメータと、外部パラメータとを用いて、投影装置105の投影範囲内における3次元点群を取得する。最後に、面推定処理部303が、3次元点群から平面パラメータを取得し、第1通信部401に出力する。第1通信部401は、平面パラメータを指示装置109へ送信し、ステップS703に移行する。
ステップS703では、エンコード部302が、映像取得部301が取得した映像を映像符号に変換し、第1通信部401に出力する。第1通信部401によって、映像符号が指示装置109へ送信されると、ステップS704に移行する。
ステップS704では、処理を終了するかどうかの判定を行い、終了しない場合はステップS701に進む。処理を終了させる場合は全体の処理を終了する。
図8は、作業者側装置108が指示装置109から情報を受信する場合のフローチャートを示す。
ステップS801では、第1通信部401が、指示装置109から送信された視覚化情報106’を受信する。受信した視覚化情報を投影内容出力部309に出力し、ステップS802へ移行する。
ステップS802では、投影内容出力部309が、視覚化情報106’を投影内容106として、投影装置105に出力する。その後、ステップS803へ移行する。
ステップS803では、処理を終了するかどうかの判定を行い、終了しない場合はステップS801に進む。処理を終了させる場合は全体の処理を終了する。
続いて、指示装置109の処理フローチャートについて図9を用いて説明する。
ステップS901では、第2通信部404が、作業者側装置108から送信された平面パラメータを受信し、投影歪み箇所検知部304に出力する。出力後、ステップS902へ移行する。
ステップS902では、第2通信部404が、作業者側装置108から受信した映像符号を、デコード部305に出力する。デコード部305は、映像符号をデコードして映像111として映像表示部307に出力する。出力後、ステップS903へ移行する。
ステップS903(検知ステップ)では、投影歪み箇所検知部304が、平面パラメータと、投影装置105の投影方向の情報とを用いて、投影対象の面の、投影方向に対する傾き(角度)(歪み情報)を算出する。算出後、ステップS904へ移行する。ここで、投影方向とは、投影装置105が投影する向きを表す。投影する向きとは、投影装置105が投影する映像に対して垂直な方向と同じである。この方向は下記方法で取得する。すなわち、まず、投影装置105と撮像装置107の画像間の対応点マップを取得する。そして、対応点マップと、内部パラメータと、外部パラメータとを用いて投影装置105の投影範囲内における3次元点群を取得する。更に、投影装置105から投影する映像の中心の画素を選択し、その画素位置に対応する3次元位置を取得する。取得した3次元位置をPc(Xc,Yc,Zc)とすると、ベクトルPcは、投影装置105の投影面中心を始点とした光軸ベクトル(投影方向)と等価である。
ステップS904(検知ステップ)では、投影歪み箇所検知部304が、面の傾きと、閾値とを比較し、投影歪みが生ずるか否かを判定し、投影歪み検出結果を投影歪み箇所通知部306へ出力する。出力後、ステップS905へ移行する。
ステップS905(通知ステップ)では、投影歪み箇所通知部306が、受信した投影歪み検出結果に基づいて、映像111の該当する箇所に通知内容を重ねて描画する処理を行う。処理結果を映像表示部307に出力してステップS906へ移行する。
ステップS906(通知ステップ)では、映像表示部307が、投影歪み箇所の通知が重畳された映像を表示装置110へ出力する。その後、ステップS907に移行する。なお、受信する映像は基本的には対応点マップを取得する際に撮影したものと同じである。そのため、事前に映像中の面の傾き情報をすべて算出したものを保存しておき、指示者が視覚化情報を入力した際に、前述した面の傾き情報をオフラインで参照して入力範囲における歪みの有無を通知するという処理であってもよい。
ステップS907では、入力受付部308が、外部入力部104を用いた指示者CRの入力を受け付け、指示者CRが、映像表示部307に出力された撮像画像上において指定する位置に、視覚化情報106’を生成する。ここで、撮像画像上において指定する位置とは、画像上の点及び当該点を含む領域(被投影面)を意味する。その後、ステップS908に移行する。
ステップS908では、第2通信部404が、視覚化情報106’を作業者側装置108に送信する。その後、ステップS909に移行する。
ステップS909では、処理を終了させるかどうかの判定を行う。処理を終了させない場合は、ステップS902へ進む。処理を終了させる場合は、全ての処理を終了させる。
以上の構成によって、作業対象に対し投影内容を投影する際、作業者と指示者の視点の方向が異なることで、投影内容が歪んで投影される箇所を、投影面の傾き情報をもとに検知することができる。また、歪んで表示される箇所である旨を表示装置に映る作業現場の映像の上に重ねて描画することで、指示者に通知する投影適否検知システムを提供することができる。
なお、本実施形態1では、指示者にのみ通知されるが、これに限定されるものではなく、作業者にも通知されてもよい。すなわち、映像表示部307が、投影歪み箇所の通知が重畳された映像を表示装置110へ出力するとともに、作業者側装置108に設けられた表示部へ出力するか、あるいは、当該重畳された映像を投影装置105から作業対象オブジェクトOBに投影させてもよい。これにより、作業者が現状を認識することができる。作業現場では、指示者から指示が無いと不安を感じる場合がある。その場合、実際に指示が無いのか、あるいは、指示者が指示を出そうとしているが投影箇所を調整している状態なのかが、作業者にも通知されることによって、作業者側で状況を把握でき、不安を軽減させることに寄与する。
また、本実施形態1では、投影歪みが生じることが、投影する前に指示者に通知される。しかしながら、これに限定されるものではなく、投影歪みの有無に関わらず投影内容を作業対象オブジェクトOBに投影した状態において、投影内容が歪んで投影されてしまっていること、すなわち、投影内容が良好に投影されていないことを指示者に通知してもよい。
また、本実施形態1では、作業者が作業する対象物である作業対象オブジェクトOBに投影しているが、作業者の近傍に在り、且つ投影可能な物体であれば、作業する対象物とは別の物体に投影しても良い。
〔実施形態2〕
本開示の他の実施形態について、図10及び図11に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
投影歪みは、複数の面にまたがるように投影しようとした場合でも発生する。その一例を図10に示す。
図10は、投影環境の一例である。図10の例では、作業対象オブジェクトOBの側部における隣接した2つの面1001及び1002に投影しようとしている状態を示している。このような状態でも、投影内容が歪んでしまう。更に、一方の面1002には、凹部1003が設けられている。このような箇所に投影しようとする場合も、投影内容が歪んでしまう。
そこで、本実施形態2に係る投影適否検知システムは、投影内容が複数の面にまたがるように投影されようとしていることも、指示者に通知する。この点において、本実施形態2に係る投影適否検知システムは、上述の実施形態1の投影適否検知システムと異なる。
また、上述の実施形態1の投影適否検知システムの指示装置109の処理フローでは、先に面の傾きの検出と通知とを実施してから指示者の視覚化情報の入力を待つという態様であるが、本開示はこれに限らず、順序は逆になってもよい。そこで、本実施形態2に係る投影適否検知システムの指示装置109の処理フローでは、順序が逆である態様を説明する。概要としては、受信した映像に対して、まず、指示者が視覚化情報を入力し、その後に、入力された視覚化情報の範囲内における面の傾きを算出する。そして、算出結果に基づいて、歪みの有無の判定をおこない、入力された視覚化情報の範囲に関する歪みを通知するというフローである。
なお、本実施形態2においても、作業者側装置108による処理は、実施形態1のそれと同じであるため、説明を省略する。すなわち、本実施形態2の態様でも、上述の実施形態1の面推定処理部303による、対応点マップの取得と、3次元座標の算出と、平面パラメータの算出とをおこなう。
図11は、本実施形態2に係る投影適否検知システムの指示装置109の処理フローチャートを示す図である。
ステップS1101では、第2通信部404が、作業者側装置108から送信された平面パラメータを受信し、投影歪み箇所検知部304に出力する。出力後、ステップS1102へ移行する。
ステップS1102では、第2通信部404が、作業者側装置108から受信した映像符号を、デコード部305に出力する。デコード部305は、映像符号をデコードして映像111として映像表示部307に出力する。出力後、ステップS1103へ移行する。
ステップS1103では、図9のステップS907と同じく、入力受付部308が、外部入力部104を用いた指示者CRの入力を受け付け、視覚化情報106’を生成する。その後、ステップS1104に移行する。
ステップS1104では、ステップS1103において指示者の入力した視覚化情報の範囲内においてのみ、面の傾きを算出する。算出後、ステップS1105に移行する。面の傾きの算出処理自体は、図9のステップS903と同じであるが、上述の実施形態1では1つの面に対して傾き算出を行う態様であったところ、本実施形態2では、複数の面に対して傾き算出を行う点において異なる。すなわち、本実施形態2では、視覚化情報の範囲(投影対象)の傾きを算出する際、投影対象が複数の面で構成されているかどうかを判別する。投影対象が複数の面で構成される場合には、傾きの算出結果は少なくとも2つ以上得られる。すなわち、2つ以上の結果が得られる場合は投影対象が複数面にまたがっており、1つの結果である場合には投影対象が1つの面によって構成されていると判別することができる。
ステップS1105では、図9のステップS904と同様、投影歪み箇所検知部304が、面の傾きと、閾値とを比較し、投影歪みが生ずるか否かを判定する。ここで、判定には、実施形態1において説明した式(7)を用いるが、例えば投影対象が複数の面にまたがっている場合、それぞれの面で歪み無し(すなわち投影可)と判定されると、指示者の入力した視覚化情報が複数の面にまたがって投影される。この場合、投影内容は歪んでしまうことが考えられるので、投影が複数の面にまたがる場合は歪み有り(すなわち投影不可)と判定する。投影歪み箇所検知部304によって、投影歪み検出結果が投影歪み箇所通知部306へ出力されると、ステップS1106へ移行する。
ステップS1106(通知ステップ)では、図9のステップS905と同様に、投影歪み箇所通知部306が、受信した投影歪み検出結果に基づいて、映像111の該当する箇所に通知内容を重ねて描画する処理を行う。処理結果を映像表示部307に出力してステップS1107へ移行する。
ステップS1107(通知ステップ)では、図9のステップS906と同様に、映像表示部307が、投影歪み箇所の通知が重畳された映像を表示装置110へ出力する。その後、ステップS1108に移行する。
ステップS1108では、第2通信部404が、視覚化情報106’を作業者側装置108に送信する。その後、ステップS1109に移行する。
ステップS1109では、処理を終了させるかどうかの判定を行う。処理を終了させない場合は、ステップS1102へ進む。処理を終了させる場合は、全ての処理を終了させる。
なお、指示者への通知方法については、実施形態1の通知方法と同じである。
〔実施形態3〕
本開示の他の実施形態について、図12及び図13に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
投影装置105と撮像装置107との間にオクルージョンがある場合は対応点マップが取得できない。この場合、作業者WRの視点と、指示者CRの視点とで、投影内容106が正しく視認されない。
そこで、本実施形態3に係る投影適否検知システムでは、対応点マップが取得できない部分についても、上述の実施形態1の通知内容と同様に指示者に通知する。
対応点マップが取得できない部分について説明すると、図12に示す一例のように、投影装置105の投影範囲1101と、撮像装置107の撮影範囲1102とは、基本的に一致しない。そのため、撮像装置107の撮影範囲1102内であっても投影装置105の投影光の届かない範囲が生じる。当該範囲としては、一例として、図12に示す箇所1103および1104がある。箇所1103は、作業対象オブジェクトOBの側面に設けられた穴を示しており、この穴には投影光が届かない。また、箇所1104は、作業対象オブジェクトOB自体の立体的な形状が遮蔽となる領域を示しており、この領域には投影光が当たらない。
このように投影光の届かない箇所は、上述の実施形態1の面推定処理部303の対応点マップ取得部501において対応点が取得できるか否かで判別することができる。
図13は、本実施形態3に係る投影適否検知システムのブロック構成の一部を示した図である。
本実施形態3に係る投影適否検知システムでは、図13に示すように、面推定処理部303’は、対応点マップ取得部501’によって対応点の取得を行った際に、対応点が取得できなかった箇所があると、その箇所の画素の位置を、(指示装置109の)投影歪み箇所通知部306へ出力する。
投影歪み箇所通知部306は、投影歪み箇所検知部304からの出力を受けるとともに、対応点マップ取得部501’からの出力を受けて、投影歪み箇所、及び対応点マップが取得できない箇所の通知内容の生成を行う。対応点マップが取得できない箇所の通知内容の生成方法については、投影歪み箇所の通知内容の生成方法と同じである。
本実施形態3に係る投影適否検知システムによれば、投影歪みの有無に加えて、投影光の届かず投影内容を投影することができない箇所についても、指示者に通知することができる。
なお、本実施形態3では、対応点マップが取得できない箇所として、投影光の届かない箇所を挙げている。しかしながら、対応点マップが取得できない箇所は、これに限らない。例えば、投影しようとする面の素材がガラスのような光透過性を有するものである箇所も、投影ができない。そのような箇所についても、対応点マップが取得できない。これを指示者に通知することも可能である。
〔実施形態4〕
本開示の他の実施形態について、図14及び図15に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
上述の実施形態1では、1つの面にのみ視覚化情報を投影する態様を説明し、上述の実施形態2では、少なくとも2つ以上の面にまたがるように視覚化情報を投影しようとする場合に通知する態様を説明した。そこで、次に本実施形態4では、少なくとも2つ以上の面それぞれに、互いに同じまたは互いに異なる視覚化情報を投影することを想定した態様について説明する。
図14は、本実施形態4の態様を説明する図である。図14では、面1401、面1402および面1403の3つの面から投影対象が構成されている。そして、図14では、この投影対象に対して投影装置105が光軸1405の方向に向けて投影している様子を上から見たものである。多くの場合、作業者WRは光軸方向1405とおおよそ同じ方向1407を向いて投影内容を視認している。このとき、面1401、面1402および面1403は上述の式(7)に従い、指示者CRはどの面の上に視覚化情報を入力しても投影適否の判定結果に問題はないものとする。このような態様において、実際に投影された内容は歪んでいないにも関わらず、作業者WRの位置によっては、投影した投影内容は見えない可能性がある。例えば、作業者WRが図14の位置にいるときでは、面1401に投影されたコンテンツを見ようとしても、面1402の裏に隠れていて見えないか、見えたとしても面1401に対する視線の角度が急なため、投影内容を正しく視認できない可能性が高い。
そこで、本実施形態4では、これに対処するべく、面と面との繋がり部分(以下、エッジと称する)が凸型になっている場合に、それを投影歪みが発生する箇所とみなし、いずれかの面は作業者に視認されない可能性がある旨を通知する。
具体的には、本実施形態4における指示装置109の処理フローチャートについて図15を用いて説明する。
ステップS1501では、図9のステップS901と同様、第2通信部404が、作業者側装置108から送信された平面パラメータを受信し、投影歪み箇所検知部304に出力する。出力後、ステップS1502へ移行する。
ステップS1502では、図9のステップS902と同様、第2通信部404が、作業者側装置108から受信した映像符号を、デコード部305に出力する。デコード部305は、映像符号をデコードして映像111として映像表示部307に出力する。出力後、ステップS1503へ移行する。
ステップS1503(検知ステップ)では、図9のステップS903と同様、投影歪み箇所検知部304が、平面パラメータと、投影装置105の投影方向の情報とを用いて、投影対象の面1401および面1402の、投影方向に対する傾き(角度)(歪み情報)を算出する。算出後、ステップS1504へ移行する。
ステップS1504(検知ステップ)では、ステップS904と同様、投影歪み箇所検知部304が、面の傾きと閾値とを比較して、面の傾きに基づく投影歪みが生ずるか否かを判定し、投影歪み検出結果を投影歪み箇所通知部306へ出力する。出力後、ステップS1505へ移行する。
ステップS1505(検知ステップ)では、投影歪み箇所検知部304が、先述したエッジに基づく投影歪みが生ずるか否かを判定する。
<ステップS1505の詳細>
図16は、ステップS1505を説明するための図である。図16は、図14に示す3つの面のうちの2つの面1401および面1402の斜視図を示している。
ステップS1505について説明すると、まず、ステップS15051では、投影歪み箇所検知部304が、面1401と面1402のエッジのベクトル1601を取得する。取得後、ステップS15052へ移行する。
ステップS15052では、投影歪み箇所検知部304が、面1401の法線ベクトル1602と、面1402の法線ベクトル1603を取得する。取得後、ステップS15053へ移行する。
ステップS15053では、投影歪み箇所検知部304が、ベクトル1601と法線ベクトル1602の外積を算出し、従法線ベクトル1604を取得する。従法線ベクトル1604は、次の式(8)によって求められる。
Figure 0006830112
取得後、ステップS15054へ移行する。
ステップS15054では、投影歪み箇所検知部304が、従法線ベクトル1604と、法線ベクトル1603との内積を求める。内積は、次の式(9)によって求められる。
Figure 0006830112
その後、ステップS15055へ移行する。
ステップS15055では、投影歪み箇所検知部304が、求めた内積の値に基づいて、投影歪みが生ずるか否かを判定する。判定方法としては、求めた内積の値が0に近い場合、2つの面1401および面1402はほぼ平行に連なるため、歪みは小さい、すなわち、面1401と面1402とに投影する内容を、図14に示す作業者WRは正確に視認することができる。この場合、特に通知はしない。一方、求めた内積の値が正の場合、面1401と面1402のエッジは凹型である。また、求めた内積の値が負の場合、面1401と面1402のエッジは凸型である。投影歪み箇所検知部304は、求めた内積の値に基づいて、面1401と面1402のエッジが凸型だった場合、歪みを生じ得る、すなわち、投影内容は作業者WRに視認されない可能性がある旨の投影歪み検出結果を投影歪み箇所通知部306へ出力する。具体的には、作業者WRが正対している面1402とエッジを介して隣接している面1401に投影される内容が作業者WRに視認されない可能性がある旨の投影歪み検出結果を、投影歪み箇所通知部306へ出力する。
ステップS1506(通知ステップ)では、図9のステップS905と同様に、投影歪み箇所通知部306が、受信した投影歪み検出結果に基づいて、映像111の該当する箇所に通知内容を重ねて描画する処理を行う。ここで、投影歪み箇所通知部306は、ステップS1504において判定された結果と、ステップS15055において判定された結果とを取得する。なお、投影歪み箇所通知部306は、いずれかの結果において歪みが生じるという判定であれば歪みを検出したことを示す通知内容を重ねて描画する処理を行えばよい。なお、面の傾きに基づく判定(ステップS1504)を優先してもよく、仮に、面の傾きに基づく判定において面1401および面1402のいずれにも歪みは起きないとされる場合には、投影の可否を指示者が選択してもよい。
なお、ステップS1507以降の処理は、図9のステップS906以降と同じである。
〔ソフトウェアによる実現例〕
本開示に係る投影適否検知システムの制御部300は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPUを用いてソフトウェアによって実現してもよい。
後者の場合、制御部300は、各機能を実現するソフトウェアであるプログラム(投影適否検知プログラム)の命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本開示の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本開示の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本開示の態様1に係る投影適否検知システムは、対象物(作業対象オブジェクトOB)の撮像画像上の位置の指定を受け付ける指示装置109を含む第1端末(指示装置109を含む指示室CS側の構成)と、上記撮像画像上の指定された位置に対応する上記対象物の被投影面(作業対象オブジェクトOBの表面)に視覚化情報106’(投影内容106)を投影する投影装置105を含む第2端末(作業者側装置108を含む作業現場WS側の構成)と、を備え、上記第1端末と上記第2端末とは互いに通信可能な範囲で離間している投影適否検知システムであって、上記投影適否検知システムは、上記撮像画像に基づいて、上記被投影面が投影歪みを生じさせるか否かを検知する検知部(投影歪み箇所検知部304)を備え、第1端末(指示装置109を含む指示室CS側の構成)は、上記検知部(投影歪み箇所検知部304)の検知結果を出力する出力部(投影歪み箇所通知部306)を備えている。
上記の構成によれば、被投影面に視覚化情報を投影する際に適切に投影されない箇所を検知し、その旨を、視覚化情報を設定する指示者に通知することができる。
具体的には、上記の構成によれば、被投影面に対し視覚化情報(投影内容)を投影する際、第1端末側と第2端末側とにそれぞれ居る投影適否検知システム使用者の視点の方向が互いに異なることで、投影装置が在る第2端末側に居て被投影面を観察する使用者(作業者WR)にとって投影内容の一部が歪んで観察される箇所(投影歪みを生じる箇所)を、撮像画像に基づいて検知することができる。また、当該箇所がある旨を出力(通知)する投影適否検知システムを提供することができる。
本開示の態様2に係る投影適否検知システムは、上記態様1において、上記検知部(投影歪み箇所検知部304)が、上記投影装置105が参照画像(パターン画像)を上記被投影面に投影したときの上記撮像画像と当該参照画像との各々の画素の対応位置関係に基づいて、上記被投影面が投影歪みを生じさせるか否かを検知してもよい。
上記撮像画像と上記参照画像との各々の画素の対応位置関係に基づいて歪みを検知することによって、外環境で投影適否検知システムを使用することができる。また、被投影面が机上のように平坦で特徴が極端に少ないような箇所でも、当該対応位置関係に基づけば、上記投影歪みが生じるか否かを検知することができる。
本開示の態様3に係る投影適否検知システムは、上記態様1または2において、上記検知部(投影歪み箇所検知部304)が、上記投影装置105の投影方向に対する上記被投影面(作業対象オブジェクトOBの表面)の角度に基づいて、上記被投影面が投影歪みを生じさせるか否かを検知してもよい。
被投影面が投影装置の投影方向に対して正対していない場合には、第2端末側に居て当該投影方向に対して正対している投影適否検知システム使用者にとって、投影される視覚化情報が歪んで視認される。そのため、上記の構成のように投影装置の投影方向に対する被投影面の角度に基づけば、投影歪みを生じる箇所を検知することができる。
本開示の態様4に係る投影適否検知システムは、上記態様1から3において、上記出力部(投影歪み箇所通知部306)は、上記被投影面(作業対象オブジェクトOBの表面)が投影歪みを生じさせることを、(1)上記指示装置109において、上記撮像画像上の上記指定された位置に上記視覚化情報とは異なる画像を表示させるか、(2)上記指示装置109において、上記撮像画像上の上記指定された位置とは異なる位置にコンテンツ(通知コンテンツ602)を表示させるか、あるいは(3)上記指示装置109を振動させる、ことによって出力(通知)してもよい。
本開示の態様5に係る投影適否検知システムは、上記態様1から4において、上記検知部(投影歪み箇所検知部304)が上記第1端末(指示装置109を含む指示室CS側の構成)に含まれてもよい。
本開示の態様6に係る投影側端末(作業者側装置108を含む作業現場WS側の構成)は、対象物(作業対象オブジェクトOB)の撮像画像上の位置の指定を受け付ける指示装置109を含む指示側端末(指示装置109を含む指示室CS側の構成)と通信可能な範囲で離間しており、上記撮像画像上の指定された位置に対応する上記対象物の被投影面(作業対象オブジェクトOBの表面)に視覚化情報106’(投影内容106)を投影する投影装置105を含む投影側端末であって、上記撮像画像に基づいて、上記被投影面が投影歪みを生じさせるか否かを検知する検知部(投影歪み箇所検知部304)を備えており、上記検知部(投影歪み箇所検知部304)の検知結果を上記指示側端末において出力される構成(投影歪み箇所通知部306)となっている。
本開示の態様7に係る指示側端末(指示装置109を含む指示室CS側の構成)は、対象物(作業対象オブジェクトOB)の撮像画像上の位置の指定を受け付ける指示装置109を含む指示側端末であって、上記撮像画像上の指定された位置に対応する上記対象物の被投影面(作業対象オブジェクトOBの表面)に視覚化情報106’(投影内容106)を投影する投影装置105を含む投影側端末(作業者側装置108を含む作業現場WS側の構成)と通信可能な範囲で離間しており、上記撮像画像に基づいて、上記被投影面が投影歪みを生じさせるか否かを検知する検知部(投影歪み箇所検知部304)と、上記検知部(投影歪み箇所検知部304)の検知結果を出力する出力部(投影歪み箇所通知部306)と、を備えている。
本開示の態様8に係る投影適否検知方法は、対象物(作業対象オブジェクトOB)の撮像画像上の位置の指定を受け付ける指示装置109を含む第1端末(指示装置109を含む指示室CS側の構成)と、上記第1端末と通信可能な範囲で離間しており、上記撮像画像上の指定された位置に対応する上記対象物の被投影面(作業対象オブジェクトOBの表面)に視覚化情報106’(投影内容106)を投影する投影装置105を含む第2端末(作業者側装置108を含む作業現場WS側の構成)と、を備えた投影適否検知システムの投影適否検知方法であって、上記撮像画像に基づいて、上記被投影面が投影歪みを生じさせるか否かを検知する検知ステップと、上記第1端末(指示装置109を含む指示室CS側の構成)において上記検知ステップの検知結果を出力する出力ステップと、を含む。
上記の構成によれば、上述した投影適否検知システムの効果と同等の効果を奏する。
上記の態様1から5に係る投影適否検知システムは、コンピュータによって実現してもよく、この場合には、コンピュータを上記投影適否検知システムが備える各部(ソフトウェア要素)として動作させることにより各部をコンピュータにて実現させる制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本開示の範疇に入る。
〔付記事項〕
本開示は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
〔関連出願の相互参照〕
本出願は、2017年2月1日に出願された日本国特許出願:特願2017-017061に対して優先権の利益を主張するものであり、それを参照することにより、その内容の全てが本書に含まれる。
100 投影適否検知システム
WS 作業現場
CS 指示室
WR 作業者
CR 指示者
OB 作業対象オブジェクト(対象物の被投影面)
104 外部入力部(第1端末、指示側端末)
105 投影装置(第2端末、投影側端末)
106 投影内容
106’ 視覚化情報
107 撮像装置(投影側端末)
108 作業者側装置(投影側端末)
109 指示装置(第1端末、指示側端末)
110 表示装置(第1端末、指示側端末)
111 映像
200 管理サーバ
300 制御部(制御装置)
301 映像取得部
302 エンコード部
303 面推定処理部
304 投影歪み箇所検知部(検知部)
305 デコード部
306 投影歪み箇所通知部(出力部)
307 映像表示部
308 入力受付部
309 投影内容出力部
401 第1通信部
402 第1保存部
403 第1制御部
404 第2通信部
405 第2保存部
406 第2制御部
501 対応点マップ取得部
502 点群取得部
503 平面パラメータ導出部
602 通知コンテンツ(コンテンツ)
1003 凹部
1101 投影範囲
1102 撮影範囲
1103、1104 対応点マップが取得できない箇所

Claims (6)

  1. 対象物の撮像画像上の位置の指定を受け付ける指示装置を含む第1端末と、
    上記撮像画像上の指定された位置に対応する上記対象物の被投影面に視覚化情報を投影する投影装置を含む第2端末と、を備え、
    上記第1端末と上記第2端末とは互いに通信可能な範囲で離間している投影適否検知システムであって、
    上記投影適否検知システムは、
    上記撮像画像に基づいて、上記被投影面が作業者視点での投影歪みを生じさせるか否かを検知する検知部を備え、
    上記第1端末は、
    上記指示装置を介して、上記検知部の検知結果を出力する出力部を備え
    上記出力部は、上記被投影面が投影歪みを生じさせるという検知結果を、(1)上記指示装置において、上記撮像画像上の上記指定された位置に上記視覚化情報とは異なる画像を表示させるか、(2)上記指示装置において、上記撮像画像上の上記指定された位置とは異なる位置にコンテンツを表示させるか、あるいは(3)上記指示装置を振動させる、ことによって出力することを特徴とする投影適否検知システム。
  2. 上記検知部は、上記投影装置が参照画像を上記被投影面に投影したときの上記撮像画像と当該参照画像との各々の画素の対応位置関係に基づいて、上記被投影面が作業者視点での投影歪みを生じさせるか否かを検知することを特徴とする請求項1に記載の投影適否検知システム。
  3. 対象物の撮像画像上の位置の指定を受け付ける指示装置を含む第1端末と、
    上記撮像画像上の指定された位置に対応する上記対象物の少なくとも1つの被投影面に視覚化情報を投影する投影装置を含む第2端末と、を備え、
    上記第1端末と上記第2端末とは互いに通信可能な範囲で離間している投影適否検知システムであって、
    上記投影適否検知システムは、
    上記撮像画像に基づいて、上記少なくとも1つの被投影面が作業者視点での投影歪みを生じさせるか否かを検知する検知部を備え、
    上記第1端末は、
    上記指示装置を介して、上記検知部の検知結果を出力する出力部を備え、
    上記検知部は、上記投影装置の投影方向に対する上記少なくとも1つの被投影面の少なくとも1つの角度を算出し、上記算出された少なくとも1つの角度が複数か否かに基づいて、上記被投影面が作業者視点での投影歪みを生じさせるか否かを検知することを特徴とする投影適否検知システム。
  4. 上記出力部は、上記被投影面が作業者視点での投影歪みを生じさせるという検知結果を、(1)上記指示装置において、上記撮像画像上の上記指定された位置に上記視覚化情報とは異なる画像を表示させるか、(2)上記指示装置において、上記撮像画像上の上記指定された位置とは異なる位置にコンテンツを表示させるか、あるいは(3)上記指示装置を振動させる、ことによって出力することを特徴とする請求項3に記載の投影適否検知システム。
  5. 上記検知部は、上記第1端末に含まれる、ことを特徴とする請求項1から4のいずれか1項に記載の投影適否検知システム。
  6. 請求項1から5のいずれか1項に記載の投影適否検知システムの各部としてコンピュータを機能させるための投影適否検知プログラムであって、上記検知部及び上記出力部としてコンピュータを機能させるための投影適否検知プログラム。
JP2018565959A 2017-02-01 2017-11-30 投影適否検知システム、投影適否検知方法及び投影適否検知プログラム Active JP6830112B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017017061 2017-02-01
JP2017017061 2017-02-01
PCT/JP2017/043143 WO2018142743A1 (ja) 2017-02-01 2017-11-30 投影適否検知システム、投影適否検知方法及び投影適否検知プログラム

Publications (2)

Publication Number Publication Date
JPWO2018142743A1 JPWO2018142743A1 (ja) 2019-12-19
JP6830112B2 true JP6830112B2 (ja) 2021-02-17

Family

ID=63040450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018565959A Active JP6830112B2 (ja) 2017-02-01 2017-11-30 投影適否検知システム、投影適否検知方法及び投影適否検知プログラム

Country Status (4)

Country Link
US (1) US20190349556A1 (ja)
JP (1) JP6830112B2 (ja)
CN (1) CN110268709A (ja)
WO (1) WO2018142743A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7415439B2 (ja) * 2019-10-28 2024-01-17 セイコーエプソン株式会社 プロジェクターの制御方法及びプロジェクター

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04355740A (ja) * 1991-06-03 1992-12-09 Hitachi Ltd プロジェクタ
JP2002158946A (ja) * 2000-11-20 2002-05-31 Seiko Epson Corp プロジェクタおよび画像歪補正方法
JP2003270719A (ja) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization 投影方法、投影装置、作業支援方法及び作業支援システム
JP2004029110A (ja) * 2002-06-21 2004-01-29 Canon Inc 投射型表示装置
JP2005031205A (ja) * 2003-07-08 2005-02-03 Seiko Precision Inc 角度検出装置及びそれを備えたプロジェクタ
JP2006145613A (ja) * 2004-11-16 2006-06-08 Canon Inc 投射装置
JP4670424B2 (ja) * 2005-03-25 2011-04-13 ソニー株式会社 情報処理装置および情報処理方法、画像表示システム、並びに、プログラム
CN101322402B (zh) * 2005-12-22 2010-09-15 松下电器产业株式会社 图像投影装置、控制方法以及半导体装置
JP4341723B2 (ja) * 2008-02-22 2009-10-07 パナソニック電工株式会社 光投影装置、照明装置
JP5266953B2 (ja) * 2008-08-19 2013-08-21 セイコーエプソン株式会社 投写型表示装置および表示方法
CN103034030B (zh) * 2011-09-30 2016-05-04 精工爱普生株式会社 投影仪以及投影仪的控制方法
JP6098045B2 (ja) * 2012-06-06 2017-03-22 セイコーエプソン株式会社 プロジェクションシステム
JP6255705B2 (ja) * 2013-04-19 2018-01-10 セイコーエプソン株式会社 プロジェクター、及びプロジェクターの制御方法
JP6127757B2 (ja) * 2013-06-14 2017-05-17 セイコーエプソン株式会社 プロジェクター、およびプロジェクターの制御方法
JP2015060012A (ja) * 2013-09-17 2015-03-30 株式会社リコー 画像処理システム、画像処理装置、画像処理方法および画像処理プログラム、ならびに、表示システム
JP2015130555A (ja) * 2014-01-06 2015-07-16 株式会社東芝 画像処理装置、画像処理方法、および画像投影装置
US20160165197A1 (en) * 2014-05-27 2016-06-09 Mediatek Inc. Projection processor and associated method

Also Published As

Publication number Publication date
CN110268709A (zh) 2019-09-20
US20190349556A1 (en) 2019-11-14
WO2018142743A1 (ja) 2018-08-09
JPWO2018142743A1 (ja) 2019-12-19

Similar Documents

Publication Publication Date Title
Schneider et al. Augmented reality based on edge computing using the example of remote live support
US20200288105A1 (en) Selective culling of multi-dimensional data sets
JP6230113B2 (ja) 撮影動画像に指示画像を同期して重畳する映像指示同期方法、システム、端末、及びプログラム
US20150009212A1 (en) Cloud-based data processing
US9848168B2 (en) Method, synthesizing device, and system for implementing video conference
JP2017503442A (ja) ビデオ送信
WO2017013986A1 (ja) 情報処理装置、端末、および、遠隔通信システム
CN108702482A (zh) 信息处理设备、信息处理系统、信息处理方法和程序
US20240015264A1 (en) System for broadcasting volumetric videoconferences in 3d animated virtual environment with audio information, and procedure for operating said device
WO2013145820A1 (ja) 撮影装置、方法、記憶媒体及びプログラム
JP6830112B2 (ja) 投影適否検知システム、投影適否検知方法及び投影適否検知プログラム
JP6192107B2 (ja) 撮影動画像に指示画像を重畳することができる映像指示方法、システム、端末及びプログラム
JP6359333B2 (ja) テレコミュニケーションシステム
CN107592520B (zh) Ar设备的成像装置及成像方法
JP6412685B2 (ja) 映像投影装置
JP6146869B2 (ja) 撮影動画像に指示画像を同期して重畳する映像指示表示方法、システム、端末、及びプログラム
JP5326816B2 (ja) 遠隔会議システム、情報処理装置、及びプログラム
WO2021147749A1 (zh) 实现3d显示的方法、装置及3d显示系统
WO2017086355A1 (ja) 送信装置、送信方法、受信装置、受信方法および送受信システム
JP6156930B2 (ja) 撮影動画像に指示画像を重畳することができる映像指示方法、システム、端末、及びプログラム
EP3182367A1 (en) Apparatus and method for generating and visualizing a 3d model of an object
US20240220010A1 (en) Terminal apparatus and method of operating terminal apparatus
KR102498870B1 (ko) 카메라 시스템 및 그의 영상처리방법
CN107168662B (zh) 一种信息处理方法及电子设备
KR20120046981A (ko) 위치정보 기반의 영상데이터의 처리 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190724

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210125

R150 Certificate of patent or registration of utility model

Ref document number: 6830112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150