JP6232730B2 - プロジェクターおよび制御方法 - Google Patents

プロジェクターおよび制御方法 Download PDF

Info

Publication number
JP6232730B2
JP6232730B2 JP2013085523A JP2013085523A JP6232730B2 JP 6232730 B2 JP6232730 B2 JP 6232730B2 JP 2013085523 A JP2013085523 A JP 2013085523A JP 2013085523 A JP2013085523 A JP 2013085523A JP 6232730 B2 JP6232730 B2 JP 6232730B2
Authority
JP
Japan
Prior art keywords
image
unit
captured
projection
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013085523A
Other languages
English (en)
Other versions
JP2014206952A5 (ja
JP2014206952A (ja
Inventor
明彦 田村
明彦 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013085523A priority Critical patent/JP6232730B2/ja
Priority to US14/252,379 priority patent/US9594455B2/en
Publication of JP2014206952A publication Critical patent/JP2014206952A/ja
Publication of JP2014206952A5 publication Critical patent/JP2014206952A5/ja
Application granted granted Critical
Publication of JP6232730B2 publication Critical patent/JP6232730B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、プロジェクターおよび制御方法に関する。
投射面に画像を投射するプロジェクターと、投射された画像上でユーザーによって操作される発光ペンと、を備えたインタラクティブシステムが知られている(例えば、特許文献1参照)。発光ペンは、ペン先から赤外線を発光し、プロジェクターは、発光ペンからの赤外線を撮像部で撮影して、発光ペンの位置を認識する。このようなインタラクティブシステムで、発光ペンの位置を正確に認識するためには、投射される画像(投射画像)上の位置と、撮影された画像(撮影画像)上の位置とを対応付けるためのキャリブレーションを事前に行う必要がある。
特開2012−173447号公報
しかしながら、キャリブレーションをした後に、プロジェクターと投射面との位置関係が変わる場合(例えば、何らかの要因でプロジェクターが動かされる場合)がある。この場合、投射画像上の位置と撮影画像上の位置との対応関係がずれてしまうため、発光ペンの位置を正確に認識することができなくなるという問題があった。このように、インタラクティブシステムにおいてユーザーの利便性が十分でないという問題があった。
本発明は上記の点に鑑みてなされたものであり、インタラクティブシステムにおいてユーザーの利便性を向上させることができるプロジェクターおよび制御方法を提供することを課題とする。
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、投射面に投射画像を投射する投射部と、前記投射部が投射した前記投射画像を含む範囲を撮影した撮影画像を生成する撮像部と、前記撮像部が撮影した前記撮影画像に基づいて、自装置の動きを検出する検出部と、前記検出部が前記自装置の動きを検出した場合、前記投射画像の座標系と前記撮影画像の座標系と対応付けるキャリブレーションに関して予め定められた処理を実行する実行部と、を備えることを特徴とするプロジェクターである。
この構成によれば、プロジェクターは、撮影画像に基づいて自装置の動きを検出することができ、自装置の動きを検出した場合にキャリブレーションに関して予め決められた処理を実行することができる。このため、インタラクティブシステムにおいてユーザーの利便性を向上させることができる。
(2)また、本発明の一態様は、前記実行部が実行する前記処理は、前記キャリブレーションの実行を促す処理であることを特徴とするプロジェクターである。
この構成によれば、プロジェクターは、撮影画像に基づいて自装置の動きを検出でき、検出結果に基づいてキャリブレーションの実行をユーザーに促すことができる。
(3)また、本発明の一態様は、前記実行部が実行する前記処理は、前記キャリブレーションを実行する処理であることを特徴とするプロジェクターである。
この構成によれば、プロジェクターは、撮影画像に基づいて自装置の動きを検出でき、検出結果に基づいてキャリブレーションを自動で実行できる。
(4)また、本発明の一態様は、前記検出部は、前記撮像部が予め撮影した基準画像と、前記基準画像を撮影した後に前記撮像部が撮影した撮影画像との間の画像の変化に基づいて前記自装置の動きを検出することを特徴とするプロジェクターである。
この構成によれば、予め撮影した基準画像と、撮影した撮影画像との間の画像変化に応じて自装置の動きを検出できる。
(5)また、本発明の一態様は、前記検出部は、前記基準画像と、前記基準画像を撮影した後に前記撮像部が撮影した複数の撮影画像との間の画像の変化に基づいて前記自装置の動きを検出することを特徴とするプロジェクターである。
この構成によれば、プロジェクターは、基準画像と複数の撮影画像との間の画像変化に基づいて自装置の動きを検出することができる。
(6)また、本発明の一態様は、前記検出部は、前記複数の撮影画像のそれぞれについて、前記基準画像との絶対値差分和を算出し、算出した前記絶対値差分和の平均および分散の少なくとも一方を所定の閾値と比較し、当該比較結果に基づいて自装置の動きを検出することを特徴とするプロジェクターである。
この構成によれば、プロジェクターは、複数の撮影画像と、基準画像との絶対値差分和を算出することで自装置の動きを検出することができる。このため、人がある撮影画像に一時的に映り込んだ場合などの変化をプロジェクターの動きとして誤検出することを抑制することができ、プロジェクターの動きの検出精度を向上させることができる。また、プロジェクターは、基準画像と、撮影した複数の撮影画像との差分和の平均または分散の一方と閾値とを比較してプロジェクターの動きを検出することで、プロジェクターの動き検出処理を簡易化することができる。
(7)また、本発明の一態様は、プロジェクターが、投射面に投射画像を投射する投射ステップと、前記投射ステップにおいて投射された前記投射画像を含む範囲を撮影して撮影画像を生成する撮像ステップと、前記撮像ステップにおいて撮影された前記撮影画像に基づいて、自装置の動きを検出する検出ステップと、前記検出ステップにおいて自装置の動きを検出した場合、前記投射画像の座標系と前記撮影画像の座標系と対応付けるキャリブレーションに関して予め定められた処理を実行する実行ステップと、を有することを特徴とする制御方法である。
この構成によれば、制御方法は、プロジェクターが、撮影画像に基づいて自装置の動きを検出することができ、自装置の動きを検出した場合にキャリブレーションに関して予め決められた処理を実行することを制御することができる。このため、インタラクティブシステムにおいてユーザーの利便性を向上させることができる。
本発明によれば、インタラクティブシステムにおいてユーザーの利便性を向上させることができる。
本発明の実施形態に係るインタラクティブシステムの構成の一例を示す概略図である。 本発明の実施形態に係るプロジェクターの構成の一例を示す概略ブロック図である。 本実施形態に係る撮像部が撮影する撮影画像の一例を示す図である。 本実施形態に係る撮影画像に対して画像処理装置が検出フィルター処理をしたときの一例を示す図である。 本実施形態に係る位置検出装置の状態遷移の一例を示す状態遷移図である。 本実施形態に係る位置検出装置の初期化処理の一例を示すフローチャートである。 本実施形態に係る位置検出装置のペントラッキング処理の一例を示すフローチャートである。 本実施形態に係る位置検出装置のキャリブレーション処理の一例を示すフローチャートである。 本実施形態に係る位置検出装置の動き検出処理の一例を示すフローチャートである。 本実施形態に係る画像処理装置の生成部において生成され、投射部により投射されるダイアログ表示画像の一例を示す概略図である。
(実施形態)
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の実施形態に係るインタラクティブシステムS1の構成の一例を示す概略図である。
インタラクティブシステムS1は、投射面SCに画像を投射するプロジェクター1と、ペン先から赤外線を発光する発光ペン2と、を含んで構成される。ユーザーは、投射面SCに投射された投射画像G0上の所望の位置を発光ペン2で指示する操作を行ったり、投射画像G0上に発光ペン2で文字や図形などを描画する操作を行ったりすることができる。プロジェクター1は、赤外線を検出して発光ペン2の位置を認識し、ユーザーの操作内容に応じた動作を行う。
図2は、本発明の実施形態に係るプロジェクター1の構成の一例を示す概略ブロック図である。
プロジェクター1は、位置検出装置10と、投射部16と、を含んで構成される。位置検出装置10は、撮像部11と、画像処理装置12と、フレームメモリー13と、不揮発メモリー14と、インターフェース部15と、を含んで構成される。撮像部11は、レンズ111と、フィルター切り替え装置112と、撮像素子113と、を含んで構成される。フィルター切り替え装置112は、可視光透過フィルター1121と、赤外線透過フィルター1122と、を含んで構成される。画像処理装置12は、位置検出部121と、動き検出部122と、実行部123と、制御部124と、を含んで構成される。プロジェクター1は、その他、一般的なプロジェクターの機能を備えるが、図示および説明は省略する。
撮像部11は、プロジェクター1の投射レンズ(図示せず)の近傍に配置され、投射面SCに投射された投射画像G0を含む範囲を所定のフレームレートで撮影する。撮像部11は、撮影した画像(以下、撮影画像と称する。)を表す画像情報を生成し、生成した画像情報を画像処理装置12に出力する。
フィルター切り替え装置112は、画像処理装置12から入力される指示信号に基づいて、可視光透過フィルター1121と、赤外線透過フィルター1122と、を切り替える。可視光透過フィルター1121は、可視光を透過させる光学フィルターであり、赤外線透過フィルター1122は、赤外線を透過させる光学フィルターである。
撮像素子113は、例えば、CCD(Charge Coupled Device:シーシーディー)センサーやCMOS(Complementary Metal Oxide Semiconductor:シーモス)センサーなどの撮像素子である。
フィルター切り替え装置112が可視光透過フィルター1121に切り替えている状態では、撮像部11は、レンズ111と可視光透過フィルター1121とを介し、投射面SCに投射されている投射画像G0を含む範囲の可視光を撮像素子113上に結像させる。また、フィルター切り替え装置112が赤外線透過フィルター1122に切り替えている状態では、撮像部11は、レンズ111と赤外線透過フィルター1122とを介し、発光ペン2などが発する赤外線を撮像素子113上に結像させる。
画像処理装置12は、CPU(Central Processing Unit:中央演算処理装置)、各種データの一時記憶などに用いられるRAM(Random Acccess Memory:ラム)、およびマスクROM(Read Only Memory:ロム)やフラッシュメモリー、FeRAM(Ferroelectric Randam Access Memory:強誘電体メモリー)などの不揮発性メモリー(いずれも図示せず)を備えている。また、画像処理装置12は、プロジェクター1を制御する制御装置および画像を処理するプロセッサーなどを備える。
画像処理装置12は、撮像部11から入力される画像情報に基づいて、発光ペン2の位置を表す位置情報を生成し、生成した位置情報をインターフェース部15を介し、投射部16に出力する。また、画像処理装置12は、インターフェース部15を介して投射部16にコマンドを出力し、投射部16に各種指示を行うことができる。
実行部123は、キャリブレーション(投射画像と撮影画像との間の位置の対応づけ)を実行する。例えば、実行部123は、複数の測定点を含む所定の画像(キャリブレーション画像)を投射部16に投射させ、さらに、投射部16がキャリブレーション画像を投射している状態で、撮像部11に投射面SC(可視光)を撮影させる。そして、実行部123は、投射画像(キャリブレーション画像)における測定点の位置と、撮影画像における測定点の位置と基づいて、投射画像と撮影画像との間の位置の対応関係を導出する。具体的には、実行部123は、撮影画像上の位置と投射画像上の位置とを対応付けた変換テーブル、すなわち撮影画像上の位置から投射画像上の位置に変換するための変換テーブルを生成し、不揮発メモリー14に記憶する。
実行部123は、キャリブレーションの実行に伴って、投射面SCに投射された投射画像G0を含む範囲の可視光を撮像部11に撮影させる。そして、実行部123は、撮影した撮影画像に対しエッジ検出を行い、エッジ検出した画像情報をフレームメモリー13および不揮発メモリー14に記憶させる。なお、以降の説明において、実行部123がキャリブレーション時に撮像部11に撮影させ、フレームメモリー13に記憶させた画像情報を基準画像情報と称し、基準画像情報が表す画像のことを基準画像と称する。
図3は、本実施形態に係る撮像部11が撮影する撮影画像G1の一例を示す画像である。
図4は、本実施形態に係る撮影画像G1に対して画像処理装置12の実行部123が検出フィルター処理をしたときの一例を示す画像である。
図3における撮影画像G1は、投射面SCに投射された投射画像G0(図3)を含む範囲の画像である。実行部123は、当該撮影画像G1に対して、検出フィルター(例えば、エッジ検出フィルター)を用いたフィルター処理を施し、図4に示すエッジ検出画像G2を得る。実行部123は、当該エッジ検出画像G2を表す画像情報を、基準画像情報としてフレームメモリー13および不揮発メモリー14に記憶させる。
位置検出部121は、撮像部11から入力された画像情報に基づいて、発光ペン2の位置(投射画像上の位置座標)を検出する。具体的には、位置検出部121は、撮像部11が赤外線透過フィルター1122を介して撮影して生成した画像情報に基づいて、撮影画像における発光ペン2の位置を検出する。そして、位置検出部121は、キャリブレーションによって生成された変換テーブルに基づいて、投射画像における発光ペン2の位置を導き、この位置を表す位置情報を投射部16に出力する。なお、以降の説明において、位置検出部121が発光ペン2の位置の検出を行うことをペントラッキングと称する。
動き検出部122は、投射画像G0を含む範囲の可視光を撮像部11に撮影させて取得した画像情報を解析し、解析結果からプロジェクター1の動きを検出する。ここで、プロジェクター1の動き検出とは、プロジェクター1がキャリブレーションを実行した後に、何らかの外的要因でプロジェクター1と投射面SCとの位置関係が変化したとき、すなわち、投射面SCに対する設置角度、投射面SCとプロジェクター1との間の距離、床面または天井などの設置面に設置されたプロジェクター1の高さなどが変更されたとき、これらの変化をプロジェクター1の動きとして検出することである。動き検出部122は、位置検出部121が発光ペン2のペントラッキングを実行しなくても問題がないとき(例えば、発光ペン2が発光していないとき)に、短時間でプロジェクター1の動き検出を実行する。
動き検出部122は、撮影した撮影画像に対しエッジ検出を行い、エッジ検出を行った画像情報と、フレームメモリー13に記憶されている基準画像情報とを比較して、プロジェクター1の動きを検出する。つまり、動き検出部122は、キャリブレーションを実行したときとの撮影画像の変化に基づいてプロジェクター1の動きを検出する。
制御部124は、上述した実行部123、位置検出部121及び動き検出部122を含む画像処理装置12全体の動作を制御する。
フレームメモリー13は、例えばDRAM(Dynamic Random Access Memory:ディーラム)などの大容量揮発性メモリーであり、撮像部11が撮影した撮影画像を表す画像情報を記憶する。
不揮発メモリー14は、例えばフラッシュメモリーなどの不揮発性メモリーであり、撮像部11が撮影した撮影画像を表す画像情報を記憶する。
これにより、プロジェクター1は、何らかの要因でプロジェクター1の電源がオフの状態にされた場合であっても、不揮発メモリー14がフレームメモリー13と同様の画像情報を記憶しているため、プロジェクター1の電源がオンの状態になったときに、電源がオフ状態になる前の基準画像情報が保持されているため、基準画像情報を改めて取得し直すことなく、動き検出を行うことができる。
インターフェース部15は、画像処理装置12が投射部16に発光ペン2の位置情報やコマンドなどの出力を行うときに用いられる、例えばUSB(Universal Serial Bus:ユーエスビー)などのインターフェースである。
投射部16は、放電ランプなどの光源、液晶パネルなどの光変調装置、投射レンズなどの投射光学系(いずれも図示せず)などを備え、光源から射出された光を、外部から入力される画像信号に基づいて光変調装置で変調し、投射光学系から投射する。また、投射部16は、画像処理装置12から入力されるコマンドに基づいて、キャリブレーション画像を投射したり、画像処理装置12から入力される位置情報が表す位置に所定のマーク(矢印状のポインターなど)を重畳させて投射したりすることができる。
発光ペン2は、赤外線を発光する発光素子(例えば、赤外線LED(Light Emitting Diode:発光ダイオード))と、押下式のスイッチとを備えており、発光素子とスイッチとは、ともにペン先に配置されている。発光ペン2は、スイッチが押下されているか否かに応じて発光パターンを変化させる。このため、プロジェクター1は、発光ペン2のペン先が投射面SCに接触している状態と、投射面SCからペン先が離れている状態(以下、ホバー状態と称する。)と、を識別することができる。なお、発光ペン2を、スイッチが押下されている場合にのみ発光する態様としてもよい。
図5は、本実施形態に係る位置検出装置10の状態遷移の一例を示す状態遷移図である。
プロジェクター1の主電源(図示せず)がオン状態になると、位置検出装置10は、ステップST100(初期化状態)に遷移し、後述する初期化処理を行った後でステップST200(ペントラッキング状態)に遷移する。
ステップST200において、位置検出装置10は、ペントラッキングを実行する。ここで、位置検出装置10は、一定時間、発光ペン2が検出されないとき(発光ペン非検出のとき)、ステップST400(動き検出状態)に状態遷移する。また、位置検出装置10は、ユーザーによってキャリブレーションの実行が指示されたとき、ステップST300(キャリブレーション状態)に状態遷移する。
ステップST300において、位置検出装置10は、キャリブレーションを実行する。位置検出装置10は、キャリブレーションが終了すると、ステップST200(ペントラッキング状態)に状態遷移する。
ステップST400において、位置検出装置10は、プロジェクター1の動き検出を実行する。位置検出装置10は、プロジェクター1の動きが検出されない場合(動き非検出)、ステップST200(ペントラッキング状態)に状態遷移する。また、位置検出装置10は、プロジェクター1の動きを検出した場合、キャリブレーションの実行をユーザーに促す。そして、ユーザーによってキャリブレーションの実行が指示された場合にステップST300(キャリブレーション状態)に状態遷移する。
図6は、本実施形態に係る位置検出装置10の初期化処理の一例を示すフローチャートである。
本フローチャートは、図5におけるステップST100の初期化状態での初期化処理を説明するものである。
ステップST101において、制御部124は、フィルター切り替え装置112に可視光透過フィルター1121から赤外線透過フィルター1122への切り替えを指示する指示信号を出力する。フィルター切り替え装置112は、当該指示信号に基づいて赤外線透過フィルター1122に切り替える。
ステップST102において、制御部124は、SAD保存インデックスiを初期値(例えば、0)に初期化する。SAD保存インデックスiについては、後述する。
ステップST103において、制御部124は、プロジェクター1の動き検出を実施するか否かを表す動き検出実施フラグをオン(実施する)に設定する。
位置検出装置10は、初期化処理が終了すると、ステップST200(ペントラッキング状態)に進む。
図7は、本実施形態に係る位置検出装置10のペントラッキング処理の一例を示すフローチャートである。
本フローチャートは、図5におけるステップST200のペントラッキング状態でのペントラッキング処理を説明するものである。
ステップST201において、位置検出部121は、発光ペン2の検出を行う。位置検出部121が、発光ペン2を検出した場合、ステップST204に進む。一方、位置検出部121が発光ペン2を検出しない場合、ステップST202に進む。
ステップST202において、位置検出部121は、動き検出実施フラグがオンか否かを判定する。動き検出実施フラグがオンである場合、ステップST203に進む。一方、動き検出実施フラグがオフである場合、ステップST201に戻る。
ステップST203において、位置検出部121は、一定時間以上、発光ペン2を検出していないか否かを判定する。一定時間以上、発光ペン2を検出していない場合、ステップST400(動き検出状態)に進む。一方、発光ペン2を検出していない時間が一定時間未満である場合、ステップST201に戻る。
ステップST204において、位置検出部121は、撮像部11が撮影した撮影画像から発光ペン2の位置(撮影画像の座標系における発光ペン2の位置座標)を検出する。
ステップST205において、位置検出部121は、撮影画像の座標系における発光ペン2の位置座標を投射部16が投射する投射画像の座標系の位置座標に座標変換する。
ステップST206において、位置検出部121は、変換した投射画像の座標系における発光ペン2の位置座標がキャリブレーションされたエリア内(例えば、投射画像の範囲内)であるか否かを判定する。投射画像の座標系における発光ペン2の位置座標がキャリブレーションされたエリア内である場合、ステップST207に進む。一方、投射画像の座標系における発光ペン2の位置座標がキャリブレーションされたエリア内でない場合、ステップST201に戻る。
ステップST207において、制御部124は、位置検出部121が変換した投射画像の座標系における発光ペン2の位置座標を、インターフェース部15を介し、位置情報として投射部16に出力し、ステップST201に戻る。投射部16は、この位置情報が入力されると、例えば、位置情報が表す位置に所定のマーク(矢印状のポインターなど)を重畳させて投射する。
図8は、本実施形態に係る位置検出装置10のキャリブレーション処理の一例を示すフローチャートである。
本フローチャートは、図5におけるステップST300のキャリブレーション状態でのキャリブレーション処理を説明するものである。
ステップST301において、制御部124は、フィルター切り替え装置112に赤外線透過フィルター1122から可視光透過フィルター1121への切り替えを指示する指示信号を出力する。フィルター切り替え装置112は、当該指示信号に基づいて可視光透過フィルター1121に切り替える。このとき、実行部123は、投射部16にコマンドを出力して、キャリブレーション画像を投射させる。
ステップST302において、実行部123は、上述したキャリブレーションを実行する。
ステップST303において、実行部123は、撮像部11が撮影した撮影画像を取得する。
ステップST304において、実行部123は、取得した撮影画像に対してエッジ検出フィルターによるフィルター処理を行ってエッジ検出を行う。
ステップST305において、実行部123は、エッジ検出した当該撮影画像を基準画像としてフレームメモリー13に記憶させる。
ステップST306において、制御部124は、SAD保存インデックスiを初期値(例えば、0)に初期化する。SAD保存インデックスiについては、後述する。
ステップST307において、制御部124は、フィルター切り替え装置112に可視光透過フィルター1121から赤外線透過フィルター1122への切り替えを指示する指示信号を出力する。フィルター切り替え装置112は、当該指示信号に基づいて赤外線透過フィルター1122に切り替える。
位置検出装置10は、キャリブレーション処理が終了すると、ステップST200(ペントラッキング状態)に進む。
図9は、本実施形態に係る位置検出装置10の動き検出処理の一例を示すフローチャートである。
本フローチャートは、図5におけるステップST400の動き検出状態での動き検出処理を説明するものである。
ステップST401において、制御部124は、フィルター切り替え装置112に赤外線透過フィルター1122から可視光透過フィルター1121への切り替えを指示する指示信号を出力する。フィルター切り替え装置112は、当該指示信号に基づいて可視光透過フィルター1121に切り替える。
ステップST402において、動き検出部122は、撮像部11が撮影した可視光の撮影画像を取得する。
ステップST403において、制御部124は、フィルター切り替え装置112に可視光透過フィルター1121から赤外線透過フィルター1122への切り替えを指示する指示信号を出力する。フィルター切り替え装置112は、当該指示信号に基づいて赤外線透過フィルター1122に切り替える。このように、制御部124は、撮像部11に可視光の撮影画像を撮影させるために、一時的に赤外線透過フィルター1122から可視光透過フィルター1121への切り替えを指示する指示信号を出力する。
ステップST404において、動き検出部122は、取得した撮影画像に対してエッジ検出フィルターによるフィルター処理を行ってエッジ検出を行う。
ステップST405において、動き検出部122は、エッジ検出した撮影画像と、フレームメモリー13に記憶されている基準画像とを比較して、プロジェクター1の動きを検出する。具体的には、動き検出部122は、エッジ検出した撮影画像と、基準画像とについて、対応する画素ごとの差分を導いて、SAD(Sum of Absolute Difference:絶対値差分和)を算出する。動き検出部122は、算出したSADを、画像処理装置12内のRAMに配列SAD[i](i=0〜N−1)として保存する。ここで、iは、前述したSAD保存インデックスであり、Nは、撮像部11に撮影を行わせる回数である。つまり、動き検出部122は、撮像部11に撮影を行わせる度にSADを算出して配列SAD[i]に順次保存し、撮影回数がN回に達した場合に、配列SAD[0]〜SAD[N−1]にそれぞれ保存されている複数のSADに基づいてプロジェクター1の動きを検出する。
なお、本実施形態では、複数回の撮影によってプロジェクター1の動きを検出するようにしているが、例えば、一回の撮影のみでプロジェクター1の動きを検出する場合には、撮影範囲内に一時的に進入した人などが撮像部11において撮影されることで、動き検出部122が算出するSADが大きくなり、プロジェクター1の動きとして誤検出することが生じ得る。このような誤検出を抑制するために、本実施形態では、複数回の撮影によってプロジェクター1の動きを検出するようにしており、これにより、検出精度を向上させることができる。
ステップST406において、動き検出部122は、配列SAD[i]のSAD保存インデックスiをインクリメント(i=i+1)する。
ステップST407において、動き検出部122は、インクリメント後のSAD保存インデックスiと撮影回数Nとを比較し、SAD保存インデックスiが撮影回数N未満か否かを判定する。SAD保存インデックスiが撮影回数N未満である場合、ステップST200(ペントラッキング状態)に戻る。一方、SAD保存インデックスiが撮影回数N未満でない場合、すなわちSAD保存インデックスiが撮影回数N以上である場合、ステップST408に進む。
ステップST408において、動き検出部122は、配列SAD[0]から配列SAD[N−1]までの分散を算出し、算出した分散が所定の閾値以下か否かを判定する。配列SAD[0]から配列SAD[N−1]までの分散が所定の閾値以下でない場合、ステップST409に進む。一方、配列SAD[0]から配列SAD[N−1]までの分散が所定の閾値以下である場合、ステップST410に進む。
ステップST409において、動き検出部122は、SADの分散、すなわち撮影画像毎の画像の変化(ばらつき)が大きすぎることから、プロジェクター1の動きを正確に検出することが困難であると判断する。そして、SAD保存インデックスiを初期化し、ステップST200(ペントラッキング状態)に戻る。
ステップST410において、動き検出部122は、配列SAD[0]から配列SAD[N−1]までの平均が所定の閾値以上か否かを判定する。配列SAD[0]から配列SAD[N−1]までの平均が所定の閾値以上でない場合、すなわち当該平均が所定の閾値未満である場合、プロジェクター1は動いていないと判定し、ステップST409に進む。一方、配列SAD[0]から配列SAD[N−1]までの平均が所定の閾値以上である場合、プロジェクター1が動いたと判定し、ステップST411に進む。
ステップST411において、制御部124は、投射部16にコマンドを出力して、ダイアログ表示画像W1を投射させる。
図10は、投射部16により投射されるダイアログ表示画像の一例を示す概略図である。
ダイアログ表示画像W1は、例えば投射画像G3の右上端に表示される。当該ダイアログ表示画像W1には、キャリブレーションを促すメッセージ、例えば、「キャリブレーションを行いますか?」C1と、コメント「今後、このメッセージを表示しない」C2と、操作アイコン(操作ボタン)「はい」B1および「いいえ」B2と、前述のコメント「今後、このメッセージを表示しない」C2に対応するチェックボックスCBと、が含まれる。ユーザーは、例えば、プロジェクター1に備えられた操作部(図示せず)を用いて、チェックボックスCBにチェックMを挿入したり、操作アイコン「はい」B1または「いいえ」B2のいずれかを選択したりすることができる。
図9に戻り、ステップST412において、制御部124は、ダイアログ表示画像W1を投射させてから所定時間が経過したか否かを判定する。所定時間が経過した場合、ステップST413に進む。一方、所定時間が経過していない場合、ステップST414に進む。
ステップST413において、制御部124は、投射部16にコマンドを出力して、ダイアログ表示画像W1を投射画像から消去させる。そして、ステップST409においてSAD保存インデックスiを初期化した後で、ステップST200(ペントラッキング状態)に戻る。
ステップST414において、制御部124は、ダイアログ表示画像W1に含まれる操作アイコン「はい」B1または操作アイコン「いいえ」B2が選択されたか否かを判定する。操作アイコン「はい」B1または操作アイコン「いいえ」B2が選択された場合、ステップST415に進む。一方、操作アイコン「はい」B1と操作アイコン「いいえ」B2のいずれも選択されていない場合、ステップST412に戻る。
ステップST415において、制御部124は、ダイアログ表示画像W1を今後表示しないか否か、すなわちチェックボックスCBにチェックMが挿入されているか否かを判定する。ダイアログ表示画像W1を今後表示しない、すなわちチェックボックスCBにチェックMが挿入されている場合、ステップST416に進む。一方、ダイアログ表示画像W1を今後表示する、すなわちチェックボックスCBにチェックMが挿入されていない場合、ステップST417に進む。
ステップST416において、制御部124は、動き検出実施フラグをオフに変更し、ステップST417に進む。
ステップST417において、制御部124は、操作アイコン「はい」B1と操作アイコン「いいえ」B2のどちらが選択されたかを判定する。操作アイコン「はい」B1が選択された場合、制御部124は、ステップST300(キャリブレーション状態)に状態遷移し、実行部123にキャリブレーションを実行させる。一方、操作アイコン「いいえ」B2が選択された場合、制御部124は、ステップST200(ペントラッキング状態)に状態遷移し、位置検出部121にペントラッキングを実行させる。
なお、本実施形態において、プロジェクター1の動き検出において、エッジ検出を用いて説明したが、ジャイロセンサーなどでプロジェクター1の動きを検出し、検出結果から動き検出を行ってもよいし、エッジ検出とジャイロセンサーの検出結果とを併用してプロジェクター1の動きを検出してもよい。これにより、プロジェクター1の動き検出における検出精度を向上させることができる。また、本実施形態において、キャリブレーションの実行を促す場合について説明したが、キャリブレーションの実行を促さずに自動でキャリブレーションを行ってもよい。
このように、本実施形態によれば、プロジェクター1は、投射面SCに投射画像を投射する投射部16と、投射部16が投射した投射画像を含む範囲を撮影した撮影画像を生成する撮像部11と、撮像部11が撮影した撮影画像に基づいて、自装置の動きを検出する検出部(動き検出部122)と、検出部(動き検出部122)が自装置の動きを検出した場合、投射画像の座標系と撮影画像の座標系と対応付けるキャリブレーションに関して予め定められた処理を実行する実行部123と、を備える。
これにより、プロジェクター1は、プロジェクター1の設置状態の変化を画像処理で判定することができるため、ハードウェア構成を変更することなく、プロジェクター1の動きを検出することができる。また、プロジェクター1は、撮影画像に基づいて自装置の動きを検出することができ、自装置の動きを検出した場合にキャリブレーションに関して予め決められた処理を実行することができる。このため、インタラクティブシステムにおいてユーザーの利便性を向上させることができる。
なお、上述した各実施形態における位置検出装置10、画像処理装置12、プロジェクター1の一部、または全部をコンピューターで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピューター読み取り可能な記憶媒体に記憶して、この記憶媒体に記憶されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現してもよい。
なお、ここでいう「コンピューターシステム」とは、位置検出装置10、画像処理装置12、プロジェクター1に内蔵されたコンピューターシステムであって、OSや周辺機器などのハードウェアを含むものとする。また、「コンピューター読み取り可能な記憶媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROMなどの可搬媒体、コンピューターシステムに内蔵されるハードディスクなどの記憶装置のことをいう。さらに「コンピューター読み取り可能な記憶媒体」とは、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピューターシステムにすでに記憶されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態における位置検出装置10、画像処理装置12、プロジェクター1の一部、または全部を、LSI(Large Scale Integration)などの集積回路として実現してもよい。位置検出装置10、画像処理装置12、プロジェクター1の各機能ブロックは個別にプロセッサー化してもよいし、一部、または全部を集積してプロセッサー化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサーで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更などをすることが可能である。
例えば、上述した実施形態では、N回分のSADの分散が所定の閾値以下で、N回分のSADの平均が所定の閾値以上の場合に、プロジェクター1が動いたと判定しているが、平均のみ、または分散のみでプロジェクター1の動きを判定してもよい。
また、発光ペン2が発する光は、赤外線に限定されず、可視光であってもよい。また、プロジェクター1と発光ペン2との間の通信は、光を利用した態様に限定されず、bluetooth(登録商標)や無線LAN(Local Area Network:ラン)などのように、電波を用いた態様であってもよい。
1・・・プロジェクター、10・・・位置検出装置、11・・・撮像部、111・・・レンズ、112・・・フィルター切り替え装置、1121・・・可視光透過フィルター、1122赤外線透過フィルター、113・・・撮像素子、12・・・画像処理装置、121・・・位置検出部、122・・・動き検出部、123・・・実行部、124・・・制御部、13・・・フレームメモリー、14・・・不揮発メモリー、15・・・インターフェース部、16・・・投射部

Claims (8)

  1. 投射面に投射画像を投射する投射部と、
    可視光を撮影する状態と、赤外線を撮影する状態とを切り替え可能に構成され、前記投射部が投射した前記投射画像を含む範囲を撮影した撮影画像を生成する撮像部と、
    前記撮像部が赤外線を撮影した前記撮影画像に基づいて、赤外線を発する発光ペンの位置を検出する位置検出部と、
    前記撮像部が可視光を撮影した前記撮影画像に基づいて、自装置の動きを検出する動き検出部と、
    前記動き検出部が前記自装置の動きを検出した場合、前記投射画像の座標系と前記撮影画像の座標系とを対応付けるキャリブレーションに関して予め定められた処理を実行する実行部と、
    前記撮像部が赤外線を撮影する状態において前記位置検出部が前記発光ペンを一定時間以上検出していない場合に、前記撮像部を、可視光を撮影する状態に切り替えて、前記動き検出部に前記自装置の動きの検出を開始させる制御部と、
    を備えることを特徴とするプロジェクター。
  2. 前記実行部が実行する前記処理は、前記キャリブレーションの実行を促す処理であること
    を特徴とする請求項1に記載のプロジェクター。
  3. 前記実行部が実行する前記処理は、前記キャリブレーションを実行する処理であること
    を特徴とする請求項1に記載のプロジェクター。
  4. 前記動き検出部は、
    前記撮像部が予め撮影した基準画像と、前記基準画像を撮影した後に前記撮像部が撮影した撮影画像との間の画像の変化に基づいて前記自装置の動きを検出すること
    を特徴とする請求項1から請求項3のいずれか一項に記載のプロジェクター。
  5. 前記動き検出部は、
    前記基準画像と、前記基準画像を撮影した後に前記撮像部が撮影した複数の撮影画像との間の画像の変化に基づいて前記自装置の動きを検出すること
    を特徴とする請求項4に記載のプロジェクター。
  6. 前記動き検出部は、
    前記複数の撮影画像のそれぞれについて、前記基準画像との絶対値差分和を算出し、算出した前記絶対値差分和の平均および分散の少なくとも一方を所定の閾値と比較し、当該比較結果に基づいて自装置の動きを検出すること
    を特徴とする請求項5に記載のプロジェクター。
  7. 投射面に投射画像を投射する投射部と、
    前記投射部が投射した前記投射画像を含む範囲を撮影した撮影画像を生成する撮像部と、
    前記撮像部が予め撮影した基準画像と、前記基準画像を撮影した後に前記撮像部が撮影した複数の撮影画像との間の画像の変化に基づいて、自装置の動きを検出する検出部と、
    前記検出部が前記自装置の動きを検出した場合、前記投射画像の座標系と前記撮影画像の座標系とを対応付けるキャリブレーションに関して予め定められた処理を実行する実行部と、を備え、
    前記検出部は、
    前記複数の撮影画像のそれぞれについて、前記基準画像との絶対値差分和を算出し、算出した前記絶対値差分和の平均および分散の少なくとも一方を所定の閾値と比較し、当該比較結果に基づいて自装置の動きを検出すること
    を特徴とするプロジェクター。
  8. プロジェクターが、
    投射面に投射画像を投射する投射ステップと、
    可視光を撮影する状態と、赤外線を撮影する状態とを切り替え可能に構成された撮像部により、前記投射画像を含む範囲の赤外線を撮影して撮影画像を生成する赤外線撮像ステップと、
    前記赤外線撮像ステップにおいて赤外線を撮影して生成された前記撮影画像に基づいて、赤外線を発する発光ペンの位置を検出する位置検出ステップと、
    前記撮像部により、前記投射画像を含む範囲の可視光を撮影して撮影画像を生成する可視光撮像ステップと、
    前記可視光撮像ステップにおいて可視光を撮影して生成された前記撮影画像に基づいて、自装置の動きを検出する動き検出ステップと、
    前記動き検出ステップにおいて前記自装置の動きを検出した場合、前記投射画像の座標系と前記撮影画像の座標系とを対応付けるキャリブレーションに関して予め定められた処理を実行する実行ステップと、
    前記位置検出ステップにおいて前記発光ペンを一定時間以上検出していない場合に、前記撮像部を、可視光を撮影する状態に切り替えて、前記動き検出ステップを開始させる制御ステップと、
    を有すること
    を特徴とする制御方法。
JP2013085523A 2013-04-16 2013-04-16 プロジェクターおよび制御方法 Expired - Fee Related JP6232730B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013085523A JP6232730B2 (ja) 2013-04-16 2013-04-16 プロジェクターおよび制御方法
US14/252,379 US9594455B2 (en) 2013-04-16 2014-04-14 Projector and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013085523A JP6232730B2 (ja) 2013-04-16 2013-04-16 プロジェクターおよび制御方法

Publications (3)

Publication Number Publication Date
JP2014206952A JP2014206952A (ja) 2014-10-30
JP2014206952A5 JP2014206952A5 (ja) 2016-05-26
JP6232730B2 true JP6232730B2 (ja) 2017-11-22

Family

ID=51686466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013085523A Expired - Fee Related JP6232730B2 (ja) 2013-04-16 2013-04-16 プロジェクターおよび制御方法

Country Status (2)

Country Link
US (1) US9594455B2 (ja)
JP (1) JP6232730B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9875496B2 (en) * 2013-10-29 2018-01-23 Ebay Inc. Product schematics collection and projection
JP2017092830A (ja) * 2015-11-13 2017-05-25 株式会社リコー 端末、プログラム、装置及びシステム
JP2018056799A (ja) * 2016-09-29 2018-04-05 セイコーエプソン株式会社 プロジェクターシステム及び撮像装置
JP2018056800A (ja) * 2016-09-29 2018-04-05 セイコーエプソン株式会社 プロジェクターシステム
WO2018083848A1 (ja) * 2016-11-07 2018-05-11 ソニー株式会社 画像処理装置、キャリブレーション用チャート、及びキャリブレーションシステム
JP6822234B2 (ja) * 2017-03-15 2021-01-27 セイコーエプソン株式会社 プロジェクターシステム
KR102015479B1 (ko) * 2017-07-28 2019-08-28 에스케이텔레콤 주식회사 프로젝터 장치
JP2019103062A (ja) * 2017-12-06 2019-06-24 東芝映像ソリューション株式会社 放送受信装置及び放送受信方法
KR101984240B1 (ko) * 2018-10-31 2019-09-03 (주)앤트로스 동작 인식을 위한 자동 캘리브레이션 방법 및 시스템
CN112912829A (zh) * 2018-11-01 2021-06-04 索尼公司 信息处理装置、信息处理方法和程序
JP7188176B2 (ja) * 2019-02-25 2022-12-13 セイコーエプソン株式会社 プロジェクター、画像表示システム及び画像表示システムの制御方法
EP3715135B1 (en) 2019-03-29 2023-04-05 Brother Kogyo Kabushiki Kaisha Non-transitory computer-readable medium, print image control device, and control method of print image control device
JP7183918B2 (ja) * 2019-03-29 2022-12-06 ブラザー工業株式会社 印刷画像システム、プログラム、非一時的なコンピュータ可読媒体、及び印刷画像システムの制御方法
JP7180504B2 (ja) * 2019-03-29 2022-11-30 ブラザー工業株式会社 印刷画像システム、印刷画像制御装置、プログラム、非一時的なコンピュータ可読媒体、及び印刷画像制御装置の制御方法
KR102100921B1 (ko) * 2019-08-08 2020-04-14 에스케이텔레콤 주식회사 프로젝터 장치
CN111402325A (zh) * 2020-03-11 2020-07-10 广州志胜游艺设备有限公司 一种互动投影游戏自动校准方法
JP7196899B2 (ja) * 2020-12-10 2022-12-27 セイコーエプソン株式会社 投写方法、投写システム、及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04344515A (ja) * 1991-05-21 1992-12-01 Fuji Xerox Co Ltd 位置指示装置
USH1840H (en) * 1998-09-23 2000-02-01 Caterpillar Inc. Apparatus and method of providing calibration information to an operator of a work machine
US7119833B2 (en) * 2002-12-03 2006-10-10 University Of Kentucky Research Foundation Monitoring and correction of geometric distortion in projected displays
EP1443777A1 (de) * 2003-01-28 2004-08-04 Gretag-Macbeth AG Profilierungsvorrichtung, damit ausgestatteter elektronischer Projektor und Verfahren zur Profilierung einer elektronischen Anzeigevorrichtung
US6709116B1 (en) * 2003-03-21 2004-03-23 Mitsubishi Electric Research Laboratories, Inc. Shape-adaptive projector system
US7372456B2 (en) * 2004-07-07 2008-05-13 Smart Technologies Inc. Method and apparatus for calibrating an interactive touch system
JP2007019776A (ja) * 2005-07-07 2007-01-25 Matsushita Electric Ind Co Ltd 撮像システム
JP4763541B2 (ja) * 2006-07-31 2011-08-31 クラリオン株式会社 タッチパネル付き表示装置およびナビゲーション装置
JP5652596B2 (ja) * 2009-06-11 2015-01-14 セイコーエプソン株式会社 プロジェクター、プログラム、情報記憶媒体および画像投写方法
US8842096B2 (en) * 2010-01-08 2014-09-23 Crayola Llc Interactive projection system
US8896715B2 (en) * 2010-02-11 2014-11-25 Microsoft Corporation Generic platform video image stabilization
JP5625490B2 (ja) * 2010-05-25 2014-11-19 セイコーエプソン株式会社 プロジェクター、投射状態調整方法及び投射状態調整プログラム
US20120026088A1 (en) * 2010-08-01 2012-02-02 T-Mobile Usa, Inc. Handheld device with projected user interface and interactive image
JP5673191B2 (ja) 2011-02-21 2015-02-18 セイコーエプソン株式会社 インタラクティブシステム、位置情報変換方法、およびプロジェクター
TWI545956B (zh) * 2011-03-02 2016-08-11 鴻海精密工業股份有限公司 投影系統和其投影方法
JP5849560B2 (ja) 2011-09-20 2016-01-27 セイコーエプソン株式会社 表示装置、プロジェクター、及び、表示方法

Also Published As

Publication number Publication date
US9594455B2 (en) 2017-03-14
JP2014206952A (ja) 2014-10-30
US20140306939A1 (en) 2014-10-16

Similar Documents

Publication Publication Date Title
JP6232730B2 (ja) プロジェクターおよび制御方法
US10282857B1 (en) Self-validating structured light depth sensor system
US9900500B2 (en) Method and apparatus for auto-focusing of an photographing device
US10310675B2 (en) User interface apparatus and control method
KR102472156B1 (ko) 전자 장치 및 그 깊이 정보 생성 방법
JP4710734B2 (ja) ポインティング装置、ポインティング位置検出方法及びプログラム
US9875525B2 (en) Image processing device, projector, and image processing method
JP6079695B2 (ja) 画像表示撮影システム、撮影装置、表示装置、画像の表示および撮影の方法、およびコンピュータープログラム
JP6422118B2 (ja) 表示システム、情報処理装置、及び表示方法
JP2016091457A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JP7150980B2 (ja) 光ラベルに基づく情報デバイスインタラクション方法及びシステム
JP2016184362A (ja) 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム
JP6253128B2 (ja) 表示システム、入力装置、表示装置、及び表示方法
JP2018132799A (ja) 電子黒板システム、電子ペン、表示装置及び電子ペン位置検出方法
KR102290991B1 (ko) 열화상을 생성하는 방법 및 장치
JP6286841B2 (ja) プロジェクターおよび制御方法
US11991481B2 (en) Display method, information processing device, and non-transitory computer-readable storage medium storing program
KR20210048725A (ko) 카메라 제어를 위한 방법 및 이를 위한 전자 장치
JP2020008750A5 (ja) 表示装置および画像処理方法
JP2015220607A (ja) 情報処理装置、情報処理方法およびプログラム
JP2016139396A (ja) ユーザーインターフェイス装置、方法およびプログラム
JP7266151B2 (ja) 指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システム
JP2016114626A (ja) 画像表示装置
JP2024032042A (ja) 検出方法、検出装置及びプログラム
JP2019204539A (ja) 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160325

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171009

R150 Certificate of patent or registration of utility model

Ref document number: 6232730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees