JP6844159B2 - 表示装置、及び、表示装置の制御方法 - Google Patents
表示装置、及び、表示装置の制御方法 Download PDFInfo
- Publication number
- JP6844159B2 JP6844159B2 JP2016177223A JP2016177223A JP6844159B2 JP 6844159 B2 JP6844159 B2 JP 6844159B2 JP 2016177223 A JP2016177223 A JP 2016177223A JP 2016177223 A JP2016177223 A JP 2016177223A JP 6844159 B2 JP6844159 B2 JP 6844159B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- unit
- detected
- operation detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
特許文献1は、プロジェクターの投影画像に、操作アイコンを表示させ、投影画像を含む領域を撮影したカメラの撮影画像により、操作アイコンへの操作が検出されると、操作アイコンが選択されたものと判定し、操作アイコンに対応付けて設定された処理が実行される。
本発明は、表示される検出画像に対する操作を高精度で検出でき、検出画像に関連する処理などを分かりやすく表示できるようにすることを目的とする。
本発明によれば、表示面に表示される複数の検出画像を撮像した撮像画像に基づいて、複数の検出画像のそれぞれに対する操作が検出され、検出された操作に対応する処理が実行される。ここで、複数の検出画像は、入力画像の外側に表示される。このため、検出画像に対する入力画像の影響を抑制することが可能となり、検出画像に対する操作を高精度で検出できる。また、複数の検出画像のそれぞれに対応する複数の識別画像が、検出画像に対応する位置に表示される。このため、複数の検出画像の表示が、入力画像の表示に与える影響を低減し、検出画像に関連する処理などを分かりやすく表示できる。
本発明によれば、複数の検出画像として同一の外観を有する画像が表示されるので、操作を検出するための条件を共通化して、処理負荷を軽減できる。
本発明によれば、検出画像が、予め設定された背景色に重ねて表示されるため、検出画像の視認性を高め、入力画像の表示と、検出画像の表示との区別を明確にできる。
本発明によれば、操作が検出された検出画像が複数である場合、処理の少なくとも一部が実行されないため、誤った操作の検出によって誤った処理が実行されるのを防止できる。
本発明によれば、検出される表示領域のサイズに基づいて、検出画像の表示位置、表示サイズ、及び複数の検出画像の間隔の少なくともいずれかが変更されるので、検出画像を表示領域に適した表示位置、表示サイズ、表示間隔で表示できる。
本発明によれば、操作が検出された検出画像に対応する識別画像の表示態様が変化するので、ユーザーは、操作が検出された検出画像を他の検出画像と区別して認識することができる。
本発明によれば、識別画像が検出画像の入力画像側に表示される。従って、表示面の外側にいるユーザーが検出画像を操作する際に、ユーザーの手が識別画像に重なることがなくなり、識別画像の視認性が低下せずに済む。
本発明によれば、検出画像を操作することで、入力画像に対する複数の検出画像の相対的な表示位置を変更できる。
本発明によれば、インターフェイス部に外部の装置が接続された場合には、外部の装置が実行する処理に対応する検出画像が表示され、インターフェイス部に外部の装置が接続されていない場合には、外部の装置が実行する処理に対応する検出画像が表示面に表示されない。つまり、無効な検出画像が表示されなくなるため、ユーザーの利便性が向上する。
本発明によれば、外部の装置がインターフェイス部に接続された場合と、接続されていない場合とで、異なる処理が実行される。このため、インターフェイス部に外部の装置が接続された場合には、例えば、外部の装置が実行する処理に応じた処理を表示装置に実行させることができる。また、インターフェイス部に外部の装置が接続されていない場合には、表示装置が単独で実行する処理を表示装置に実行させることができる。
本発明によれば、表示面に表示される複数の検出画像を撮像した撮像画像に基づいて、複数の検出画像のそれぞれに対する操作が検出され、検出された操作に対応する処理が実行される。ここで、複数の検出画像は、入力画像の外側に表示される。このため、検出画像に対する入力画像の影響を抑制することが可能となり、表示される検出画像に対する操作を高精度で検出できる。また、複数の検出画像のそれぞれに対応する複数の識別画像が、検出画像に対応する位置に表示される。このため、複数の検出画像の表示が、入力画像の表示に与える影響を低減し、検出画像に関連する処理などを分かりやすく表示できる。
図1は、プロジェクター200の構成図である。
プロジェクター200は、画像供給装置100に接続され、画像供給装置100から供給される画像信号に基づき、投射対象に画像を投射する。また、プロジェクター200は、内蔵する記憶部260や外部接続される記憶媒体に記憶された画像データを読み出し、読み出した画像データに基づきスクリーンSCに画像を表示してもよい。
また、プロジェクター200の使用態様は、スクリーンSCに対して正面から画像光を投射するフロントプロジェクション型の投射方法、及び、透過型のスクリーンSCの背面に画像光を投射する背面投射型の投射方法のいずれでもよい。
表示部210は、光源部211、光変調部212及び投射光学系213を備える。
光源部211は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)又はレーザー光源等からなる光源を備える。また、光源部211は、光源が発した光を光変調部212に導くリフレクター及び補助リフレクターを備えていてもよい。さらに、光源部211は、投射光の光学特性を高めるためのレンズ群、偏光板、又は光源が発した光の光量を光変調部212に至る経路上で低減させる調光素子等(いずれも図示略)を備えていてもよい。
光変調部駆動部222には、画像合成部259からR,G,Bの各原色に対応する重畳画像データが入力される。重畳画像データの詳細については後述する。光変調部駆動部222は、入力された重畳画像データを液晶パネルの動作に適したデータ信号に変換する。光変調部駆動部222は、変換したデータ信号に基づいて、各液晶パネルの各画素に電圧を印加し、各液晶パネルに画像を描画する。
操作パネル231には、プロジェクター200を操作するための各種操作キーが設けられる。操作パネル231には、例えば、プロジェクター200の電源オン又は電源オフを指示するための電源キー、各種設定を行うためのメニューキー等が設けられる。入力処理部235は、操作キーが操作されると、操作されたキーに対応した操作信号を制御部270に出力する。
リモコン受光部233は、リモコン5から送信される赤外線信号を受光する。入力処理部235は、リモコン受光部233が受光した赤外線信号をデコードして、リモコン5における操作内容を示す操作信号を生成し、制御部270に出力する。
キャリブレーションデータ261は、プロジェクター200の出荷前に実行されるキャリブレーションによって得られるデータである。キャリブレーションデータ261は、投射した所定のパターン画像を撮像して得られる撮像画像データ上でのパターン画像の位置やサイズ等の情報(撮像位置情報)から、スクリーンSC上での投射領域のサイズを導くためのデータであり、投射光学系213に含まれるズームレンズのズーム比と、プロジェクター200からスクリーンSCまでの距離(設置距離)と、これらに応じて変化する撮像位置情報との関係を表す行列式である。キャリブレーションデータ261は、記憶部260に記憶される。なお、投射領域とは、プロジェクター200が投射する画像の全体がスクリーンSC上で占める領域を示す。
第1パターン画像310は、矩形の画像であり、第1領域311と第2領域312とを有する。第1領域311は、第1パターン画像310の中心部分に配置される矩形の領域である。本実施形態では、第1領域311として、白色の画像を用いる。また、第2領域312は、第1領域311を取り囲むように第1領域311の周囲に配置される領域である。本実施形態では、第2領域312として、黒色の画像を用いる。なお、本実施形態では、第1領域311が矩形の領域である場合を示したが、第1領域311の形状は矩形に限定されない。また、本実施形態では、第1領域311を白色の画像とし、第2領域312を黒色の画像とした場合を示すが、第1領域311及び第2領域312の色は、これらの色に限定されない。後述するように第1パターン画像310を撮像した撮像画像データと、第2パターン画像320を撮像した撮像画像データとの差分を求めることによって、撮像画像データ上での第1領域311の位置及び範囲が認識できる画像であればよい。
処理登録テーブル262には、後述する操作検出マーカー305を識別するための情報(マーカー識別情報)と、操作検出マーカー305が選択された場合にプロジェクター200が実行する処理を示す情報(処理情報)とを対応付けて記憶する。マーカー識別情報は、複数の操作検出マーカー305のそれぞれを識別するために、各操作検出マーカー305に個別に割り当てられた情報(例えば、番号)である。操作検出マーカー305は、描画データに基づいて表示される画像であり、本発明の「検出画像」に対応する。なお、処理登録テーブル262は、記憶部260に記憶させておく構成とする代わりに、制御プログラムによって生成するようにしてもよい。
具体的には、表示制御部271は、画像処理部255に、画像I/F部253が受信した画像データを処理させる。この際、表示制御部271は、画像処理部255の処理に必要なパラメーターを記憶部260から読み出し、画像処理部255に出力してもよい。
また、表示制御部271は、画像合成部259を制御して、画像合成部259に、画像データと描画データとを合成する処理を実行させる。また、表示制御部271は、光変調部駆動部222を制御して光変調部212の液晶パネルに画像を描画させる。さらに、表示制御部271は、光源駆動部221を制御して光源部211の光源を点灯させ、光源の輝度を調整させる。これにより、光源が発光して光変調部212が変調する画像光が投射光学系213によりスクリーンSCに投射される。
処理実行制御部273は、操作検出部272が操作を検出した操作検出マーカー305に対応付けられた処理をプロジェクター200に実行させる。
表示制御部271、操作検出部272及び処理実行制御部273の動作の詳細については図4を参照しながら説明する。表示制御部271は、本発明の「表示制御部、及びサイズ検出部」に相当し、操作検出部272は、本発明の「検出部」に相当する。また、処理実行制御部273は、本発明の「処理部」に相当する。
まず、表示制御部271は、リモコン5又は操作パネル231により操作検出マーカー305(図5参照)の表示要求を受け付けたか否かを判定する(ステップS1)。操作検出マーカー305は、ユーザーの操作を検出するための検出画像であり、画像供給装置100から供給される画像データに基づく画像(以下、入力画像という)と共にスクリーンSCに投射される。
表示画像300には、画像表示領域301と、操作検出領域302とが形成される。画像表示領域301は、投射領域10の大部分を占める領域であり、入力画像が表示される領域である。操作検出領域302は、投射領域10の端部に表示される領域である。すなわち、操作検出領域302は、画像表示領域301の外側に表示され、操作検出領域302に表示される操作検出マーカー305も画像表示領域301の外側に表示される。図5には、操作検出領域302を、投射領域10の左端に表示した場合を示すが、操作検出領域302の表示位置は、左端に限定されない。例えば、操作検出領域302が、投射領域10の右端に投射されるようにしてもよいし、投射領域10の上側の端部や下側の端部に投射されるようにしてもよい。
複数の操作検出マーカー305及び複数のアイコン307は、予め設定された背景色に重ねて表示される。本実施形態では、背景色として黒色が用いられる。操作検出領域302内で複数の操作検出マーカー305及び複数のアイコン307が黒色の背景色に重ねて表示されることで、画像表示領域301と、操作検出領域302との区別を明確にできる。
また、操作検出領域302に複数の操作検出マーカー305を表示する場合、操作検出マーカー305を表す画像として、同一の外観を有する画像が用いられる。本実施形態では、操作検出マーカー305の画像として、同一形状、同一サイズ、同一模様(色調)の画像を用いる。複数の操作検出マーカー305を表す画像に同一サイズ、同一形状、同一模様(色調)の画像を用いることで、操作検出マーカー305に対する操作を検出する場合に用いるしきい値を共通化し、操作検出マーカー305に対する操作の検出が容易になる。
図5には、操作検出マーカー305A〜305Dを表す画像として、白色の円形の画像を用いた場合を示す。
複数のアイコン307は、複数の操作検出マーカー305に対応する位置にそれぞれ表示される。より詳細には、アイコン307は、アイコン307が表示する処理を割り当てられた操作検出マーカー305の近傍で、操作検出マーカー305に重ならない位置に配置される。図5に示す例では、操作検出マーカー305Aの右側に、操作検出マーカー305Aに割り当てられた処理を示すアイコン307Aが表示される。同様に、操作検出マーカー305Bの右側にアイコン307Bが表示され、操作検出マーカー305Cの右側にアイコン307Cが表示され、操作検出マーカー305Dの右側にアイコン307Dが表示される。ここで、操作検出マーカー305の右側とは、画像表示領域301側(入力画像側)であり、表示画像300における内側である。
複数の操作検出マーカー305A〜305Dを表す画像の形状やサイズは共通であるため、ユーザーは、操作検出マーカー305の画像を見ただけでは、操作検出マーカー305A〜305Dに対応付けられた処理を認識することができない。このため、複数の操作検出マーカー305のそれぞれの近くに、各操作検出マーカー305に対応付けられた処理を示す複数のアイコン307を表示して、操作検出マーカー305に対応付けられた処理が認識できるようにする。
例えば、図5に示す操作検出マーカー305Aには、操作検出マーカー305Aの操作に応じて、投射領域10における画像表示領域301に対する操作検出領域302の相対的な表示位置を変更する処理が割り当てられる。記憶部260が記憶する処理登録テーブル262には、操作検出マーカー305Aを表すマーカー識別情報と、実行する処理の内容を示す情報(処理情報)として表示位置の変更とが対応付けて登録される。
また、表示制御部271は、ステップS1の判定が肯定判定の場合(ステップS1/YES)、投射条件を検出して投射領域10のサイズを推定するため、スクリーンSCに第1パターン画像310を表示させる(ステップS2)。表示制御部271は、記憶部260から第1パターン画像310の画像データを読み出し、読み出した画像データを画像合成部259に出力し、表示部210により第1パターン画像310をスクリーンSCに表示させる。
次に、表示制御部271は、特定した4頂点の座標と、キャリブレーションデータ261とを用いて、スクリーンSC上での投射領域10のサイズを求める。本実施形態では、表示制御部271は、まず、特定した4頂点の座標に、キャリブレーションデータ261(行列式)を用いた演算を行い、投射条件である設置距離やズーム比を特定する(ステップS7)。
表示制御部271は、投射サイズに対応した操作検出マーカー305の設定情報を記憶部260から取得すると、取得した設定情報に基づいて、第3パターン画像330を生成して、スクリーンSCに表示させる(ステップS10)。
第3パターン画像330は、スクリーンSCに投射する操作検出マーカー305の位置を特定するための画像である。第3パターン画像330には、位置検出パターン331が表示される。第3パターン画像330において位置検出パターン331の表示位置、表示サイズ、及び表示間隔は、ステップS9において決定された操作検出マーカー305の表示位置、表示サイズ、及び表示間隔に等しい。位置検出パターン331を表す画像は、第3パターン画像330を撮像した撮像画像データにおいて、位置検出パターン331の画像が特定可能な画像であればよく、その色調や、形状、サイズは任意である。例えば、位置検出パターン331は、操作検出マーカー305と同様に白色の円形であり、その重心位置が特定しやすくなるように、中心(重心)から周辺に向けて徐々に暗くなる輝度分布を有する画像とすることができる。なお、位置検出パターン331の画像が検出し易いように、位置検出パターン331のサイズを、記憶部260から取得した操作検出マーカー305のサイズよりも大きなサイズとしてもよい。
次に、表示制御部271は、記憶部260から撮像画像データを読み出し、撮像画像データから位置検出パターン331の画像を検出する(ステップS12)。その後、表示制御部271は、検出した位置検出パターン331の重心位置を特定し、この位置を操作検出マーカー305に対する操作を検出する際の検出位置とする。なお、その後に表示される操作検出マーカー305は、その重心位置が位置検出パターン331の重心位置に一致するように表示される。
すなわち、画像合成部259は、表示制御部271により決定されたフレームメモリー257上の位置に、画像処理部255から入力される画像データを展開する。また、画像合成部259は、表示制御部271により決定されたフレームメモリー257上の位置に、操作検出マーカー305やアイコン307の描画データを展開する。
画像合成部259は、フレームメモリー257に、画像データや、操作検出マーカー305やアイコン307の描画データを展開すると、展開したデータを読み出して重畳画像データとして光変調部駆動部222に出力する。光変調部駆動部222が、重畳画像データに基づいてデータ信号を生成し、液晶パネルにデータ信号に基づく画像を描画することで、光源部211から射出される光が変調され、表示画像300がスクリーンSCに表示される(ステップS13)。
ユーザーは、表示画像300の操作検出領域302に表示される複数の操作検出マーカー305の中から1つの操作検出マーカー305を選択し、選択した操作検出マーカー305の位置にユーザーの手や指を重ねる。
操作検出部272は、撮像部240の撮像画像データに基づいて、操作検出マーカー305にユーザーの手や指が重ねられたか否かを判定する。操作検出部272は、操作検出マーカー305にユーザーの手や指が重ねられたと判定した場合、操作検出マーカー305に対する操作がされたと判定する。
図9に実線で示す曲線31は、抽出領域の画素の輝度値を示す。また、図9に破線で示す曲線32は、ユーザーの手が重ねられた場合の抽出領域の画素の輝度値を示す。曲線31と曲線32とを比較すると明らかなように、ユーザーの手が操作検出マーカー305に重ねられると、抽出領域の画素の輝度値が低下する。
操作検出部272は、前回の撮像画像データから抽出した抽出領域の画素の画素値と、今回の撮像画像データから抽出した抽出領域の画素の画素値とを比較して、操作検出マーカー305が操作されたか否かを判定する。
例えば、操作検出部272は、抽出領域の画素のうち、検出位置の画素を今回の撮像画像データと、前回の撮像画像データとでそれぞれに求める。操作検出部272は、検出位置の画素の輝度値を比較して、操作検出マーカー305が操作されたか否かを判定してもよい。また、操作検出部272は、抽出領域の画素の輝度値の総和、又は平均値を前回撮像画像データと、今回の撮像画像データとのそれぞれで求める。操作検出部272は、求めた輝度値の総和又は平均値を比較して、操作検出マーカー305が操作されたか否かを判定してもよい。
図10に示す曲線35〜37は、輝度値を露出値で除算した値の時間変化を示す。より詳細には、曲線35は、抽出領域の画素の画素値のうち、輝度が最大の画素の輝度値を、撮像部240の備える撮像素子の露出の明るさを示す露出値で除算した値の変化を示す。露出値は、露出、すなわち撮像素子に投影される露光量を数値で表したものであり、撮像部240の備えるレンズの絞り値(F値)とシャッター速度により決まる。輝度が最大の画素の輝度値を輝度値maxと表記し、輝度が最大の画素の輝度値maxを露出値で除算した値を、輝度値max/露出値と表記する。
また、曲線36は、操作検出マーカー305の周辺の黒色部の画素の輝度値を露出値で除算した値の変化を示す。黒色部の画素の輝度値を輝度値minと表記し、黒色部の画素の輝度値minを露出値で除算した値を、輝度値min/露出値と表記する。
また、図10に示す曲線37は、(輝度値max/露出値)と、(輝度値min/露出値)との差分示す。
図10を参照すると明らかなように、室内灯がオン又はオフされた場合、曲線35及び曲線36の示す値は大きく変化する。しかし、(輝度値max/露出値)と、(輝度値min/露出値)との差分を示す曲線37の値は、撮像素子の露出が調整された後は、大きな変動を示さない。このため、操作検出マーカー305に対する操作が行われたか否かを判定する値として、(輝度値max/露出値)―(輝度値min/露出値)を用いることで、室内灯のオン、オフなどによる環境光の影響を低減することができる。
このため、表示制御部271は、(輝度値max/露出値)又は(輝度値min/露出値)の値に基づいて、露出制御を実行すべきか否かを判定してもよい。表示制御部271は、撮像部240が露出制御を実行すべきであると判定する場合、露出制御を実行するとともに、アイコン307の表示を、操作を受け付けることができない状態であることを示す表示に変更する。表示制御部271は、例えば、アイコン307の表示を点滅させたり、初期状態及び操作検出時とは別の色で表示させたり、アイコン307の図柄等を変更したりすることにより、操作検出マーカー305に対する操作ができない旨を報知する。
また、撮像部240が露出制御を実行すべきであるか否かの判定方法は、以下の方法であってもよい。すなわち、表示制御部271は、撮像部240が一定の時間間隔で更新する撮像画像データに基づいて、複数の操作検出マーカー305が所定時間継続して変化し続けたと判定した場合、又は、少なくとも1つ以上の操作検出マーカー305の画素の輝度値が所定時間継続して飽和し続けたと判定した場合、又は、複数の操作検出マーカー305の所定範囲内の画素の最大輝度値が所定の輝度範囲から外れたと判定した場合に、撮像部240の露出制御を実行すべきであると判定し、露出制御を実行する。
また、操作検出部272は、複数の操作検出マーカー305に対する操作を検出した場合に(ステップS15/YES)、一部の処理の実行を制限するようにしてもよい。例えば、複数の操作検出マーカー305に対する操作が検出された場合に、実行を許可する処理の情報を予め記憶部260に記憶させておく。操作検出部272は、操作が検出された複数の操作検出マーカー305が、記憶部260に記憶させた実行を許可された処理に対応付けられている場合には、処理の実行制御を処理実行制御部273に実施させる。
次に、操作検出部272は、対応アイコン307の表示態様が変更される所定の期間の間に、操作を検出した操作検出マーカー305上に重ねられたユーザーの手又は指が、この操作検出マーカー305上から移動したか(離れたか)否かを判定する。操作検出部272は、この判定により操作を検出した操作検出マーカー305が選択されたか否かを判定する(ステップS17)。操作検出部272は、操作検出マーカー305上にユーザーの手が重ねられたか否かを判定した場合と同様に、撮像部240の撮像画像データにより、ユーザーの手又は指が、この操作検出マーカー305上から移動したか否かを判定する。操作検出部272は、ユーザーの手又は指が操作検出マーカー305上から移動したと判定すると、操作を検出した操作検出マーカー305が選択されたと判定する(ステップS17/YES)。また。操作検出部272は、ユーザーの手又は指が所定の期間の間に操作検出マーカー305上から移動しなかった場合、操作を検出した操作検出マーカー305が選択されなかったと判定する(ステップS17/NO)。操作を検出した操作検出マーカー305が選択されなかった場合、操作検出部272は、表示制御部271により対応するアイコンの表示状態を初期状態に戻してステップS14に戻り、撮像部240が順次更新する撮像画像データを用いて操作検出マーカー305に対する操作を引き続き検出する。
例えば、処理登録テーブル262において、1つのマーカー識別情報に、I/F部251にPC等の制御装置(画像供給装置100)が接続された場合に実行する処理を示す処理情報と、I/F部251に制御装置が接続されていない場合に実行する処理を示す処理情報の両方を対応付け登録する。例えば、I/F部251に制御装置が接続されていない場合に実行する処理としては、AVミュート、フリーズ、ソース切り替え等、プロジェクター200が実行する処理が挙げられる。また、I/F部251に制御装置が接続された場合に実行する処理としては、ページアップ、ページダウン、全画面表示、全画面非表示等、制御装置が実行する処理が挙げられる。制御装置が実行する処理に対応する操作検出マーカー305が選択された場合には、処理実行制御部273は、当該処理を示す処理情報を制御装置に出力し、制御装置に当該処理を実行させる。
表示部210は、スクリーンSCに画像を表示する。撮像部240は、スクリーンSCに表示される複数の操作検出マーカー305を撮像する。
表示制御部271は、入力される画像信号に基づく入力画像と、操作検出に用いる複数の操作検出マーカー305とを表示部210によりスクリーンSCに表示させる。
操作検出部272は、撮像部240の撮像画像に基づき、複数の操作検出マーカー305のそれぞれに対する操作を検出する。
処理実行制御部273は、操作検出部272が操作を検出した操作検出マーカー305に対応する処理を実行させる。
また、表示制御部271は、スクリーンSCにおいて入力画像の外側に複数の操作検出マーカー305を表示させる。従って、操作検出マーカー305によって入力画像の一部を隠してしまうことがなくなるとともに、操作検出マーカー305に対する操作を検出する際に、入力画像の表示状態の影響を受けずに高精度で検出することができる。例えば、操作検出マーカー305を、入力画像に重畳して配置する場合には、操作検出マーカー305に合わせて露出調整した際に、入力画像の画素が飽和して操作検出マーカー305への操作の検出に影響を及ぼす恐れがあるが、本実施形態では、操作検出マーカー305を入力画像の外側に配置しているため、その恐れがない。
また、複数の操作検出マーカー305のそれぞれに対応する複数のアイコン307が、操作検出マーカー305に対応する位置に表示される。このため操作検出マーカー305に関連する処理などを分かりやすく表示できる。
従って、複数の操作検出マーカー305として同一の外観を有する画像が表示されるので、操作を検出するための条件を共通化して、処理負荷を軽減できる。
従って、操作検出マーカー305が、予め設定された背景色に重ねて表示されるため、操作検出マーカー305の視認性を高め、入力画像の表示と、操作検出マーカー305の表示との区別を明確にできる。
従って、操作が検出された操作検出マーカー305が複数である場合、処理の少なくとも一部が実行されないため、誤った操作の検出によって誤った処理が実行されるのを防止できる。
表示制御部271は、検出した投射領域10のサイズに基づき、投射領域10における操作検出マーカー305の表示位置、操作検出マーカー305の表示サイズ、及び複数の操作検出マーカー305の表示間隔の少なくともいずれかを変更する。
従って、操作検出マーカー305を投射領域10に適した表示位置、表示サイズ、表示間隔で表示できる。
従って、操作検出マーカー305の操作により、入力画像に対する複数の操作検出マーカー305の相対的な表示位置を変更できる。
表示制御部271は、I/F部251に外部の装置が接続された場合には、外部の装置が実行する処理に対応する操作検出マーカー305を表示する。また、表示制御部271は、I/F部251に外部の装置が接続されていない場合には、外部の装置が実行する処理に対応する操作検出マーカー305を表示しない。
従って、操作検出領域302には、無効な操作検出マーカー305が表示されなくなるため、ユーザーの利便性が向上する。
また、プロジェクター200は、表示部210が表示するいずれかの操作検出マーカー305の操作に応じて処理実行制御部273が実行させる処理が、I/F部251に外部の装置が接続される場合と、接続されていない場合とで異なる。
従って、I/F部251に外部の装置が接続された場合には、例えば、外部の装置が実行する処理に応じた処理をプロジェクター200に実行させることができる。また、I/F部251に外部の装置が接続されていない場合には、プロジェクター200が単独で実行する処理を実行させることができる。
従って、投射領域10の外側にいるユーザーが操作検出マーカー305を操作する際に、ユーザーの手がアイコン307に重なることがなくなり、アイコン307の視認性が低下せずに済む。
例えば、上述した実施形態では、ステップS15にて複数の操作検出マーカー305に対する操作でないと判断された場合に、ステップS16にてアイコン307の表示態様を変更するようにしているが、いずれか1つの操作検出マーカー305への操作が検出された時点でアイコン307の表示態様を変更し、その後、複数の操作検出マーカー305への操作が検出された場合に、アイコン307の表示態様の変更を元に戻すようにしてもよい。
Claims (10)
- 表示面に画像を表示する表示部と、
入力される画像信号に基づく入力画像と、操作検出に用いる複数の検出画像とを前記表示部により前記表示面に表示させる表示制御部と、
前記表示面に表示される複数の前記検出画像を撮像する撮像部と、
前記撮像部の撮像画像に基づき、複数の前記検出画像のそれぞれに対する操作を検出する検出部と、
前記検出部が操作を検出した前記検出画像に対応する処理を実行する処理部と、を備え、
前記表示制御部は、中心から周辺に向けて輝度分布を有する複数の位置検出画像を前記表示面に表示させ、前記撮像部の撮像画像から複数の前記位置検出画像の輝度分布を検出し、検出した複数の前記位置検出画像の前記輝度分布に基づいて複数の前記検出画像の表示位置を決定し、決定した表示位置に、複数の前記検出画像を表示させ、
決定した複数の前記検出画像の表示位置は、前記表示面において前記入力画像の外側であり、
複数の前記検出画像のそれぞれに対応する複数の識別画像を、前記検出画像に対応する位置に表示させる表示装置。 - 前記表示制御部は、前記表示部により、予め設定された背景色に重ねて前記検出画像を表示させる請求項1記載の表示装置。
- 前記検出部が操作を検出した前記検出画像が複数である場合に、操作が検出された前記検出画像に対応して前記処理部が実行する処理の少なくとも一部が実行されない請求項1又は2記載の表示装置。
- 前記表示面において前記表示部が画像を表示する表示領域のサイズを検出するサイズ検出部を備え、
前記表示制御部は、前記サイズ検出部が検出する前記表示領域のサイズに基づき、前記表示領域における前記検出画像の表示位置、前記検出画像の表示サイズ、及び複数の前記検出画像の表示間隔の少なくともいずれかを変更する請求項1から3のいずれか1項に記載の表示装置。 - 前記表示制御部は、前記検出部が操作を検出した前記検出画像に対応する識別画像の表示態様を変化させる請求項1から4のいずれか1項に記載の表示装置。
- 前記表示制御部は、前記識別画像を前記検出画像の前記入力画像側に表示させる請求項1から5のいずれか1項に記載の表示装置。
- 前記処理部は、前記表示部が表示するいずれかの前記検出画像の操作に応じて、前記表示面における前記入力画像に対する複数の前記検出画像の相対的な表示位置を変更する処理を実行する請求項1から6のいずれか1項に記載の表示装置。
- 外部の装置に接続するインターフェイス部を備え、
前記表示制御部は、前記インターフェイス部に前記外部の装置が接続された場合には、前記外部の装置が実行する処理に対応する前記検出画像を表示し、前記インターフェイス部に前記外部の装置が接続されていない場合には、前記外部の装置が実行する処理に対応する前記検出画像を表示しない請求項1から7のいずれか1項に記載の表示装置。 - 外部の装置に接続するインターフェイス部を備え、
前記表示部が表示するいずれかの前記検出画像の操作に応じて前記処理部が実行する処理が、前記インターフェイス部に前記外部の装置が接続される場合と、接続されていない場合とで異なる処理である請求項1から8のいずれか1項に記載の表示装置。 - 表示面に画像を表示する表示装置の制御方法であって、
前記表示面に、入力される画像信号に基づく入力画像と、操作検出に用いる複数の検出画像とを表示するステップと、
前記表示面に表示した複数の前記検出画像を撮像するステップと、
複数の前記検出画像を撮像した撮像画像に基づき、複数の前記検出画像のそれぞれに対する操作を検出するステップと、
操作を検出した前記検出画像に対応する処理を実行するステップと、を有し、
前記表示するステップは、中心から周辺に向けて輝度分布を有する複数の位置検出画像を前記表示面に表示させ、前記撮像するステップにより撮像された撮像画像から複数の前記位置検出画像の輝度分布を検出し、検出した複数の前記位置検出画像の前記輝度分布に基づいて複数の前記検出画像の表示位置を決定し、決定した表示位置に、複数の前記検出画像を表示させ、
決定した複数の前記検出画像の表示位置は、前記表示面において前記入力画像の外側であり、
複数の前記検出画像のそれぞれに対応する複数の識別画像を、前記検出画像に対応する位置に表示させる表示装置の制御方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016177223A JP6844159B2 (ja) | 2016-09-12 | 2016-09-12 | 表示装置、及び、表示装置の制御方法 |
CN201710761788.1A CN107817924B (zh) | 2016-09-12 | 2017-08-30 | 显示装置和显示装置的控制方法 |
US15/695,518 US10354428B2 (en) | 2016-09-12 | 2017-09-05 | Display device and method of controlling display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016177223A JP6844159B2 (ja) | 2016-09-12 | 2016-09-12 | 表示装置、及び、表示装置の制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018045263A JP2018045263A (ja) | 2018-03-22 |
JP2018045263A5 JP2018045263A5 (ja) | 2019-09-05 |
JP6844159B2 true JP6844159B2 (ja) | 2021-03-17 |
Family
ID=61560222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016177223A Active JP6844159B2 (ja) | 2016-09-12 | 2016-09-12 | 表示装置、及び、表示装置の制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10354428B2 (ja) |
JP (1) | JP6844159B2 (ja) |
CN (1) | CN107817924B (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170076428A1 (en) * | 2015-09-14 | 2017-03-16 | Canon Kabushiki Kaisha | Information processing apparatus |
CN108600716A (zh) * | 2018-05-17 | 2018-09-28 | 京东方科技集团股份有限公司 | 投影设备和系统、投影方法 |
JP7224799B2 (ja) * | 2018-07-13 | 2023-02-20 | キヤノン株式会社 | 画像投影装置、画像投影装置の制御方法、プログラム |
US10848647B1 (en) * | 2019-07-17 | 2020-11-24 | Brendan Bellomo | Composite environment filmmaking devices, systems, products and methods |
CN110430408A (zh) * | 2019-08-29 | 2019-11-08 | 北京小狗智能机器人技术有限公司 | 一种基于投影型显示设备的控制方法及装置 |
JP7251539B2 (ja) * | 2020-12-10 | 2023-04-04 | セイコーエプソン株式会社 | プロジェクターの制御方法、プロジェクター、及び表示システム |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10269012A (ja) * | 1997-03-28 | 1998-10-09 | Yazaki Corp | タッチパネルコントローラ及びこれを用いた情報表示装置 |
US7937665B1 (en) * | 2000-06-13 | 2011-05-03 | National Instruments Corporation | System and method for automatically generating a graphical program to implement a prototype |
US20050024341A1 (en) * | 2001-05-16 | 2005-02-03 | Synaptics, Inc. | Touch screen with user interface enhancement |
JP2004212857A (ja) * | 2003-01-08 | 2004-07-29 | Pioneer Electronic Corp | タッチパネル表示装置 |
JP2005141151A (ja) * | 2003-11-10 | 2005-06-02 | Seiko Epson Corp | プロジェクタおよびプロジェクタの機能設定方法 |
US7873916B1 (en) * | 2004-06-22 | 2011-01-18 | Apple Inc. | Color labeling in a graphical user interface |
JP2006018374A (ja) * | 2004-06-30 | 2006-01-19 | Casio Comput Co Ltd | プロジェクタ機能付き画像処理装置およびプログラム |
CN101006415B (zh) * | 2004-10-05 | 2010-08-18 | 株式会社尼康 | 具有投影仪装置的电子设备 |
US7502032B2 (en) * | 2004-10-06 | 2009-03-10 | Microsoft Corporation | Integrating color discrimination assessment into operating system color selection |
JP5201999B2 (ja) * | 2006-02-03 | 2013-06-05 | パナソニック株式会社 | 入力装置、及びその方法 |
JP5214223B2 (ja) * | 2007-11-15 | 2013-06-19 | 船井電機株式会社 | プロジェクタ |
WO2009108123A1 (en) * | 2008-02-29 | 2009-09-03 | Nanyang Polytechnic | Laser pointer based interactive display system and method thereof |
JP4706769B2 (ja) * | 2009-03-23 | 2011-06-22 | コニカミノルタビジネステクノロジーズ株式会社 | 画像処理装置 |
US20100259464A1 (en) * | 2009-04-14 | 2010-10-14 | Jae Young Chang | Terminal and controlling method thereof |
KR20110015308A (ko) * | 2009-08-07 | 2011-02-15 | 삼성전자주식회사 | 디지털 영상 처리장치, 그 제어방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체 |
JP5442393B2 (ja) * | 2009-10-29 | 2014-03-12 | 日立コンシューマエレクトロニクス株式会社 | 表示装置 |
JP5244084B2 (ja) | 2009-12-21 | 2013-07-24 | パナソニック株式会社 | 表示制御システムおよび表示制御方法 |
CN102223508A (zh) * | 2010-04-14 | 2011-10-19 | 鸿富锦精密工业(深圳)有限公司 | 前投影控制系统及方法 |
JP5304848B2 (ja) * | 2010-10-14 | 2013-10-02 | 株式会社ニコン | プロジェクタ |
JP5085713B2 (ja) * | 2010-10-22 | 2012-11-28 | 株式会社東芝 | 映像再生装置 |
JP5861324B2 (ja) * | 2011-08-30 | 2016-02-16 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
KR101271996B1 (ko) * | 2011-09-02 | 2013-06-05 | 엘지전자 주식회사 | 외부기기 리스트 제공방법 및 그를 이용한 영상 표시 기기 |
JP2013070303A (ja) * | 2011-09-26 | 2013-04-18 | Kddi Corp | 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム |
JP6064319B2 (ja) * | 2011-12-27 | 2017-01-25 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
US9299168B2 (en) * | 2012-03-06 | 2016-03-29 | Apple Inc. | Context aware user interface for image editing |
JP2013257686A (ja) * | 2012-06-12 | 2013-12-26 | Sony Corp | 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム |
US9319483B2 (en) * | 2012-11-13 | 2016-04-19 | Karl Storz Imaging, Inc. | Asynchronous open task for operating room control system |
US9645678B2 (en) * | 2012-12-18 | 2017-05-09 | Seiko Epson Corporation | Display device, and method of controlling display device |
IN2014CN03231A (ja) * | 2013-02-20 | 2015-08-14 | Panasonic Corp | |
US9411432B2 (en) | 2013-04-18 | 2016-08-09 | Fuji Xerox Co., Ltd. | Systems and methods for enabling gesture control based on detection of occlusion patterns |
US9317171B2 (en) | 2013-04-18 | 2016-04-19 | Fuji Xerox Co., Ltd. | Systems and methods for implementing and using gesture based user interface widgets with camera input |
CN104346044A (zh) * | 2013-08-06 | 2015-02-11 | 北京怡孚和融科技有限公司 | 拉幕式菜单控制方法 |
KR20150029451A (ko) * | 2013-09-10 | 2015-03-18 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
JP6330292B2 (ja) * | 2013-11-20 | 2018-05-30 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
JP6307852B2 (ja) * | 2013-11-26 | 2018-04-11 | セイコーエプソン株式会社 | 画像表示装置、及び、画像表示装置の制御方法 |
JP2015153363A (ja) * | 2014-02-19 | 2015-08-24 | セイコーエプソン株式会社 | カーソル操作システム、画像生成装置及びカーソル操作方法 |
JP6394190B2 (ja) | 2014-03-18 | 2018-09-26 | 富士ゼロックス株式会社 | 遮蔽パターン検出に基づくジェスチャ制御を可能とするシステムと方法 |
JP6488653B2 (ja) * | 2014-11-07 | 2019-03-27 | セイコーエプソン株式会社 | 表示装置、表示制御方法および表示システム |
JP2017033044A (ja) | 2015-07-28 | 2017-02-09 | 富士通株式会社 | 電力供給装置及び電力供給装置制御方法 |
JP2017033042A (ja) | 2015-07-28 | 2017-02-09 | 株式会社東芝 | 利用者状態監視システム、および利用者状態監視方法 |
JP2017032782A (ja) | 2015-07-31 | 2017-02-09 | 株式会社ジャパンディスプレイ | 表示装置 |
-
2016
- 2016-09-12 JP JP2016177223A patent/JP6844159B2/ja active Active
-
2017
- 2017-08-30 CN CN201710761788.1A patent/CN107817924B/zh active Active
- 2017-09-05 US US15/695,518 patent/US10354428B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20180075633A1 (en) | 2018-03-15 |
US10354428B2 (en) | 2019-07-16 |
CN107817924B (zh) | 2022-08-09 |
CN107817924A (zh) | 2018-03-20 |
JP2018045263A (ja) | 2018-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6844159B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
US10681320B2 (en) | Projection apparatus, method for controlling projection apparatus, and non-transitory storage medium | |
US10373589B2 (en) | Display system, display device, controller, method of controlling display device, and program | |
US9554105B2 (en) | Projection type image display apparatus and control method therefor | |
US10431131B2 (en) | Projector and control method for projector | |
US9906762B2 (en) | Communication apparatus, method of controlling communication apparatus, non-transitory computer-readable storage medium | |
JP6307852B2 (ja) | 画像表示装置、及び、画像表示装置の制御方法 | |
JP6343910B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP6834258B2 (ja) | 表示装置、表示システム及び表示装置の制御方法 | |
JP2013064827A (ja) | 電子機器 | |
US20150279336A1 (en) | Bidirectional display method and bidirectional display device | |
US10847121B2 (en) | Display apparatus and method for controlling display apparatus displaying image with superimposed mask | |
US20230080888A1 (en) | Image display method and projector | |
JP2018132769A (ja) | 画像表示装置、及び、画像表示装置の制御方法 | |
JP2018142856A (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP2008112035A (ja) | プロジェクタ | |
US11778150B2 (en) | Image supply device, display system, and method for direct display of second image | |
US10503322B2 (en) | Projector and method of controlling projector | |
US20240040077A1 (en) | Image output apparatus including a plurality of projection parts and control method thereof | |
US20240323327A1 (en) | Projection system, projection method, non-transitory computer-readable storage medium storing projection program | |
JP2009251542A (ja) | プロジェクタおよびその制御方法 | |
JP6880899B2 (ja) | 表示装置及び表示装置の制御方法 | |
US20200145628A1 (en) | Projection apparatus and correcting method of display image | |
JP2020004040A (ja) | 投写装置、投写装置の制御方法、プログラムおよび記憶媒体 | |
JP2017173402A (ja) | プロジェクター及びプロジェクターの制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190725 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6844159 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |