JP6282758B2 - 投射型映像表示装置および映像表示方法 - Google Patents

投射型映像表示装置および映像表示方法 Download PDF

Info

Publication number
JP6282758B2
JP6282758B2 JP2016558510A JP2016558510A JP6282758B2 JP 6282758 B2 JP6282758 B2 JP 6282758B2 JP 2016558510 A JP2016558510 A JP 2016558510A JP 2016558510 A JP2016558510 A JP 2016558510A JP 6282758 B2 JP6282758 B2 JP 6282758B2
Authority
JP
Japan
Prior art keywords
projection
region
unit
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016558510A
Other languages
English (en)
Other versions
JPWO2016075796A1 (ja
Inventor
光博 木谷
光博 木谷
孝志 松原
孝志 松原
雄大 新倉
雄大 新倉
小畑 信一
信一 小畑
隆 金丸
隆 金丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2016075796A1 publication Critical patent/JPWO2016075796A1/ja
Application granted granted Critical
Publication of JP6282758B2 publication Critical patent/JP6282758B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Description

本発明は、投射型映像表示装置および映像表示方法に関し、特に、指や電子ペンなどによるユーザ操作の改善に有効な技術に関する。
映像を投射して表示する装置に関しては多くの技術が考案されている。例えば特許文献1には、目的として、「特殊な機器を用いることなく操作情報を検出する」操作検出装置とそのプログラムが記載されている。
また、その目的を達成する手段としては、「照明手段及び撮像手段と共に使用される操作検出装置であって、前記照明手段により照らされた状態で操作者を前記撮像手段に撮像させる手段と、前記撮像手段により得られる操作者の画像データをもとに、前記操作者の特定部位の領域を検出する手段と、前記検出された操作者の特定部位の領域から影の部分を抽出する手段と、前記抽出された影の部分の中から、エッジが直線を成す線分を複数検出し、検出された線分同士が鋭角に交わる点を検出し、この交点を前記操作者の特定部位の領域内における指差し位置として検出する手段とを具備することを特徴とする」ことがが記載されている。
特開2008−59283号公報
上述した特許文献1の技術では、ライトなどを照射することによって現れた指の影などに基づいて、指動作と位置とを検出している。よって、例えば外光などの周囲光の影響により、指の影の形状が乱れた場合には、指動作や位置などを検出することができ無くなってしまう恐れが生じる。
また、ユーザにおいては、外光などの影響によってユーザ操作が検出できない領域を把握することができない。そのため、ユーザ自身にて使用環境の改善ができないという問題がある。
本発明の目的は、外光などの影響によるユーザ操作の誤認識や不検出を改善することのできる技術を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。
すなわち、代表的な投射型映像表示装置は、投射面に投射された操作オブジェクトの操作により制御可能な映像表示装置である。この投射型映像表示装置は、投射部と、撮像部と、操作可能領域特定部と、検出部と、を備える。
投射部は、表示映像を投射面上に投射する。撮像部は、投射面を撮像する。操作可能領域特定部は、撮像部が撮像した画像データに基づいて、投射面のうち、表示映像が投射される範囲において操作オブジェクトの操作を検出できる第1の領域および操作オブジェクトの操作を検出できない第2の領域をそれぞれ特定する検出部は、撮像部が撮像した画像データに基づいて、操作オブジェクトの操作を検出する。
そして、投射部は、操作可能領域特定部が特定した操作オブジェクトの操作を検出できる第1の領域を、第2の領域と区別して表示する表示映像を投射可能である。また、操作オブジェクトの操作を検出できる第1の領域の範囲内に表示されるように操作オブジェクトの表示位置を変更して表示する。
特に、投射部は、外部から入力された入力映像を投射部から投射して表示する場合に、操作可能領域特定部が特定した第1の領域に基づいて、表示映像中における入力映像の占める範囲を変更する。
さらに、操作可能領域特定部は、撮像部が撮影した投射面の画像データの輝度レベルに基づいて、操作オブジェクトの操作を検出できる第1の領域および操作オブジェクトの操作を検出できない第2の領域をそれぞれ特定する。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
ユーザの利便性を向上させることができる。
実施の形態1による操作検出装置における構成の一例を示す説明図である。 図1の操作検出装置における他の構成例を示した説明図である。 図1の操作検出装置の概観および該操作検出装置を操作するユーザの様子の一例を示す説明図である。 図1の操作検出装置が有する電子ペンの構成の一例を示した説明図である。 発明者が検討した画像の投射時に外部からの光が投射面に照射されている様子の一例を示した説明図である。 図1の操作検出装置による領域特定提示処理の一例を示すフローチャートである。 図6のフローチャートにおけるステップS101の処理の際に用いられる操作検出判定テーブルの構成の一例を示す説明図である。 図1の操作検出装置による指操作を検出できない領域の表示およびユーザへのガイドの一例を示す説明図である。 図1の操作検出装置による指操作を検出できない領域の表示およびユーザへのガイド表示の他の例を示す説明図である。 図1の操作検出装置による指操作を検出できない領域の表示、ユーザへのガイド表示、および操作メニューアイコン表示の一例を示す説明図である。 図1の操作検出装置による指操作を検出できない領域の表示、投射範囲の変更、操作メニューアイコン表示の一例を示す説明図である。 実施の形態3による操作検出装置の構成の一例を示す説明図である。 図12の操作検出装置による処理の一例を示すフローチャートである。 図12の操作検出装置による机上への映像投射時の映像表示の一例を示す説明図である。 実施の形態4による操作検出装置における構成の一例を示す説明図である。 実施の形態5による操作検出装置における構成の一例を示した説明図である。
以下の実施の形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。
また、以下の実施の形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。
さらに、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。
同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。また、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
以下、実施の形態を詳細に説明する。
(実施の形態1)
〈操作検出装置の構成例〉
図1は、本実施の形態1による操作検出装置100における構成の一例を示す説明図である。
投射型映像表示装置である操作検出装置100は、図1に示すように、座標検出装置101、操作対象装置150、および電子ペン400を有する。座標検出装置101は、カメラ102、照明103,104、指接触位置検出部105、ペン接触位置検出部106、操作検出可能領域特定部107、通信部108、および制御部109から構成されている。
撮像部であるカメラ102は、イメージセンサ、レンズ、およびフィルタなどから構成されており、画像を撮像する。2つの照明103,104は、図示しない発光ダイオード、回路基盤、およびレンズなどからそれぞれ構成されている。
照明103,104は、カメラ102が撮像する領域を照射する。照明103、104は、常時点灯させる他に、例えば照明103と照明104とが交互に点灯するようにそれぞれ点滅させるようにしてもよい。
これに加えて、照明103と照明104との点灯が切り替わる際に、一時的に両者を消灯させてもよい。あるいは、照明103と照明104とを同じタイミングにて点滅させてもよい。
また、照明103,104の光は不可視であってもよく、例えば、カメラ102および照明103,104を、赤外カメラと赤外照明で構成して、赤外画像を撮像することで指の接触位置を検出する処理を行ってもよい。赤外カメラと赤外照明にて構成する場合には、赤外カメラの構成にフィルタを追加し、赤外領域でない光を一部あるいは全て遮蔽して撮像するようにしてもよい。
検出部となる指接触位置検出部105は、カメラ102が撮像した画像データから指の接触位置を検出する。同じく検出部となるペン接触位置検出部106は、カメラ102が撮像した画像データから電子ペン400の接触位置を検出する。
これら指接触位置検出部105およびペン接触位置検出部106による検出処理は、指接触位置検出部105/ペン接触位置検出部106を構成する電子回路などがプログラム形式のソフトウェアに基づいて実行する。
これら指接触位置検出部105またはペン接触位置検出部106が検出した接触位置情報は、指や電子ペン400による操作情報として制御部153にて処理される。
以降、本実施の形態では、「指」を検出する対象物の代表として記載する。指接触位置検出部105が接触位置を検出する対象物は、指以外に、指し棒などのペン状のものであってもよい。また、指接触位置検出部105とペン接触位置検出部106は、少なくともどちらか一方が本構成に含まれていればよく、どちらとも備わっている必要はない。
操作可能領域特定部となる操作検出可能領域特定部107は、カメラ102にて撮像した画像データから、指や電子ペン400による操作情報を検出可能な領域を特定する。この操作情報が検出可能な領域が、第1の領域となる。
この領域の特定処理は、操作検出可能領域特定部107を構成する電子回路などがプログラム形式のソフトウェアに基づいて実行する。なお、領域の特定技術については、図6および図7を用いて後述する。
通信部108は、ネットワーク接続やUSB接続、超音波ユニット、赤外線通信装置などから構成され、操作対象装置150が有する通信部151と通信するインタフェースである。
この通信部108は、例えば検出結果データ120などの通信を行う。検出結果データ120は、座標検出装置101が通信部108を介して操作対象装置150に出力する情報である。具体的には、指の接触点座標、電子ペン400の接触点座標、および指/ペン操作情報検出不可領域データなどである。
指/ペン操作情報検出不可領域データは、指/電子ペンによる操作情報を検出できない領域を表す情報、即ち、指/電子ペンによる操作が利用できない領域を示す位置情報(例えば座標データ)、指/ペンによる操作情報を検出できない場合の検出精度に関わる度合いを表す情報などが含まれる。操作が利用できない領域が、第2の領域となる。
制御部109は、カメラ102、照明103、照明104、指接触位置検出部105、ペン接触位置検出部106、操作検出可能領域特定部107、および通信部108を制御する。制御部109は、例えばCPU(Central Processing Unit)などからなり、該制御部109がプログラム形式のソフトウェアに基づいて制御を行う。
続いて、投射部である操作対象装置150は、通信部151、設定入力部152、制御部153、映像照射部154、表示部155、発光部156、および音出力部157から構成されている。
操作対象装置150は、例えばプロジェクタであり、座標検出装置101の通信部108から送信された検出結果データ120を受け取り、ユーザの指による描画情報の表示や、プロジェクタ本体の操作、設定、および制御などを行う。
通信部151は、通信部108と同様に、ネットワーク接続やUSB(Universal Serial Bus)接続、超音波ユニット、あるいは赤外線通信装置などで構成されており、座標検出装置101と通信するインタフェースである。設定入力部152は、ボタンおよびタッチパネルなどにて構成されており、ユーザの入力を受け付けるインタフェースである。
制御部153は、例えばCPUなどからなり、通信部151、設定入力部152、映像照射部154、表示部155、発光部156、音出力部157、および電子ペン400などを制御する。制御部153は、プログラム形式のソフトウェアに基づいて制御を実行する。
映像照射部154は、光源ランプ、液晶パネル、およびレンズなどによって構成されており、図3に示す投射面301に対して映像を照射する。投射面301に照射する映像は、例えば操作対象装置150に接続される図示しないパーソナルコンピュータなどから出力される。
ここで、映像照射部154より照射する光をある一定の波長よりも短い可視の領域の光とし、照明103,104より照射する光をある一定の波長よりも長い不可視の領域の光とすれば、ユーザは、映像照射部154より照射する光のみを視認できるようになる。照射する光の波長を制御するために、帯域通過フィルタなどを用いてもよい。
表示部155は、液晶ディスプレイおよびそれを駆動する電子回路などによって構成されており、文字や画像などの情報を表示する。発光部156は、発光素子およびそれを駆動する電子回路などからなり、点灯、点滅、消灯などの状態を作り出す。
音出力部157は、スピーカおよび該スピーカに出力する信号などを増幅する増幅回路などからなり、音声メッセージや効果音など様々な音を出力する。電子ペン400は、発光素子およびそれを駆動する電子回路などからなる。
制御部153の具体的な処理としては、映像照射部154に対して、指による操作を検出できる領域とそうでない領域を区別できるように映像投射制御を行う。また、指による操作を検出できる領域とそうでない領域の2段階ではなく、検出精度の度合いに応じてn段階で区別できるように映像投射制御を行うようにしてもよい。ここで、n=2, 3・・・nである。
さらに、映像照射部154に対して、指による操作を検出できない領域を避けて、投射面301へメニューアイコンやユーザメッセージなどの表示を行うように映像投射制御を行う。さらに、映像照射部154に対して、指による操作を検出できない領域がなくなるように、投射面301へ投射する映像の大きさを調整する制御を行う。
なお、図1では、カメラ102、照明103,104、指接触位置検出部105、ペン接触位置検出部106、操作検出可能領域特定部107、通信部108、および制御部109の各機能ブロック部は独立しているが、必要に応じて、1または複数の構成要件で構成してもよい。
例えば、指接触位置検出部105、ペン接触位置検出部106、および操作検出可能領域特定部107は、1または複数の中央処理装置(CPU)などにてその処理を行う構成としてもよい。
また、図1では、座標検出装置101がカメラ102、照明103,104、指接触位置検出部105、ペン接触位置検出部106、操作検出可能領域特定部107、通信部108、および制御部109の各機能ブロック部を全て有する構成としている。
同様に、操作対象装置150は、通信部151、設定入力部152、制御部153、映像照射部154、表示部155、発光部156、および音出力部157の各機能ブロック部を全て有する構成としている。
しかし、上記した構成は、例えば後述する図2に示すように、1または複数の構成要件を外部に構成し、ネットワーク接続あるいはUSB接続などによって結合する構成としてもよい。
〈操作検出装置の他の構成例〉
図2は、図1の操作検出装置100における他の構成例を示した説明図である。
この場合、操作検出装置100は、図2に示すように、カメラ102および照明103,104が、座標検出装置101とは独立して個別にそれぞれ設けられた構成となっている。
また、操作検出装置100のさらに他の構成例としては、例えば座標検出装置101および操作対象装置150を1つの装置として構成するようにしてもよい。
〈操作検出装置の概観および操作例〉
図3は、図1の操作検出装置100の概観および該操作検出装置100を操作するユーザの様子の一例を示す説明図である。図3(a)は、ユーザ300が指により操作を行う際の一例を示しており、図3(b)は、ユーザ300が電子ペン400により操作を行う際の一例を示している。
図3では、カメラ102が投射面301の投射範囲302で示す範囲を含むように撮像している。投射面301は、例えば壁、スクリーン、あるいは机など任意の対象物を使用する。
図3(a)に示すように、ユーザ300が投射面301上の投射範囲302に指で触れると、操作検出装置100の指接触位置検出部105が指の接触位置を検出する。また、図3(b)に示すように、ユーザ300が投射面301上の投射範囲302に電子ペン400で触れると、ペン接触位置検出部106がペンの接触位置を検出する。
また、指接触位置検出部105は、ユーザ300が投射面301付近でジェスチャ操作を行った場合、カメラ102が撮像した画像データからユーザの手指の形状や動きを検出する機能があってもよい。
指接触位置検出部105が検出した情報は、検出結果データ120として通信部108を介して操作対象装置150に転送される。そして、制御部153は、検出結果データ120に応じて操作対象装置150の制御を行う。
これにより、操作面上にタッチセンサなどを設けることなく、操作面に対する電子ペンや指の接触位置を正しく検出することが可能となる。
〈電子ペンの構成例〉
図4は、図1の操作検出装置100が有する電子ペン400の構成の一例を示した説明図である。図4(a)は、電子ペン400の外観の一例を示したものである。図4(b)は、電子ペン400の先端が接触していない場合の例を示しており、図4(c)は、電子ペン400の先端が接触している場合の例を示している。
電子ペン400は、図4(a)に示すように、先端部に発光素子401が備えられており、該電子ペン400のグリップ部分には、先端接触検出部402および発光制御部403が設けられている。先端接触検出部402は、例えば感圧センサおよび電子回路などからなり、電子ペン400の先端が壁面などに接触しているか否かを判定する。
発光制御部403は、先端接触検出部402の判定結果に基づいて、図4(b)に示すように、電子ペン400の先端が接触していない場合に発光素子401が消灯するように制御する。
また、発光制御部403は、図4(c)に示すように、電子ペン400の先端が接触していると先端接触検出部402が判定した際に、発光素子401が点灯するように制御する。
あるいは、電子ペン400の先端が接触している場合は、発光素子401が点灯し、接触していない場合は点滅するように制御するなど、接触時と非接触時で、発光素子401が異なる状態となるように制御を行ってもよい。さらには、接触時と非接触時で、発光素子401の点滅が異なる周波数となるように制御を行ってもよい。
また、カメラ102と発光素子401は、それぞれ赤外カメラと赤外照明によって構成し、赤外画像を撮像することで電子ペン400の接触位置を検出する処理を行ってもよい。さらに、赤外カメラと赤外照明にて構成する場合には、赤外カメラの構成にフィルタを追加して、赤外領域でない光を一部あるいは全て遮蔽して撮像するようにしてもよい。
続いて、図1の操作検出装置100が、指による操作情報を検出できない領域を特定して、ユーザに対してその領域を提示して、改善を促すためのガイドを表示する技術について説明する。
〈外光の照射の影響〉
図5は、本発明者が検討した画像の投射時に外部からの光が投射面に照射されている様子の一例を示した説明図である。
図5に示す外光701は、例えば蛍光灯、白熱灯の光、または太陽光などの外部からの光であり、照明103,104とは異なる光源である。このような外光701が投射面301に強く照射された場合、照明103,104によって形成される影703,704は、形状が崩れたり、薄くなって周囲との明暗の差が小さくなったりしてしまう。
このため、カメラ102によってその形状を正確に捉えられなくなる、あるいは指接触位置検出部105において指702の投射面301の接触位置が正確に検出できなくなるなどの現象が発生する。
そこで、図1の操作検出装置100は、領域特定提示処理を実行する。この領域特定提示処理は、図5に示したように外光701などによって指702の投射面301の接触位置が正確に検出できなくなる領域、すなわち指による操作情報を検出できない領域を特定する。そして、特定した領域をユーザに対して提示して、改善を促すためのガイドを表示する。
これにより、指による操作情報を検出できない場合は、ユーザへ検出できない投射面上の場所を明示することが可能となり、操作性を向上させることができる。
〈領域特定提示処理の処理例〉
図6は、図1の操作検出装置100による領域特定提示処理の一例を示すフローチャートである。
図6においては、ステップS101〜ステップS106の処理をそれぞれ1度ずつ実行する一巡のフローであるが、実際には、このフローが連続して繰り返される。よって、ステップS103またはステップS106の処理後は、再びステップS101の処理に戻るものとする。
図6に示すフローチャートは、ユーザが操作検出装置100を使用開始する前や、操作検出装置100を使用している最中など、該操作検出装置100に電源が投入されている間、常時実行される。
そうすることで、ユーザが操作検出装置100を使用している間、突然、外光の輝度が変化などの該操作検出装置100の周囲環境が突然変わった場合においても効果を得ることが可能となる。
また、図6のフローチャートは、ユーザによる指操作機能を使用する場合にのみ実行するようにしてもよい。つまり、ユーザによる指操作機能が無効化されていて、映像を投射する目的のみで操作対象装置150を使用する場合は、図6の処理を実行しないようにする。これによって、操作検出装置100のCPU、すなわち制御部153などの処理負荷や消費電力を低減することができる効果がある。
まず、操作検出可能領域特定部107は、カメラ102が投射面301を撮像した画像データに基づいて、指による操作を検出できるかどうかの判定処理を行う(ステップS101)。
判定処理の一例としては、輝度レベルを用いた判定技術が挙げられる。照明103、104のみが点灯していて外光701が全く照射されていない状況において、カメラ102が撮影する画像データの輝度を予めデータとして保持しておき、現在撮影している画像データの輝度が保持しているデータよりも一定値(第1の設定値)以上大きければ、外光701の量が多いと推定できる。その結果、指による操作情報を検出することができないため、指による操作を利用できないと判定できる。
あるいは、一時的に照明103,104を消灯して、すなわち外光701のみが照射されている状態で撮像し、その時の画像データの輝度がある一定値(第1の設定値)よりも大きければ、外光701の量が多く、指による操作を利用できないと判定することができる。本判定処理については、図7を用いて説明する。
続いて、制御部153は、ステップS101の処理の結果、すなわち検出結果データ120の指/ペン操作情報検出不可領域データに基づいて、指操作を利用できる状態であるかどうかの判定を行う(ステップS102)。ステップS102の処理にて、指操作を利用できる状態であると判定された場合には(Yes)、ステップS103の処理に遷移する。
ステップS102の処理にて指操作を利用できる状態であると判定された場合、制御部153は、映像照射部154を介してユーザが指による操作を利用できる旨の通知を投射範囲302に表示して(ステップS103)、処理を終了する。
なお、ステップS103の処理は、初回は実行しないようにしてもよい。つまり、装置使用中に指操作が一旦利用できなくなり、その後、指操作が利用できるようになった場合にのみ、ユーザにその旨を通知するようにしてもよい。
一方、ステップS102の処理にて指操作を利用できない状態であると判定された場合には(No)、ステップS104の処理に遷移する。この処理では、制御部153が映像照射部154を介して指操作を検出できない領域の表示を投射面301に行う(ステップS104)。指操作を検出できない領域の表示については、図8を用いて後述する。
続いて、制御部153は、指操作を検出できない領域に基づいて、操作オブジェクトの表示位置を決定する(ステップS105)。この表示位置の決定については、図9および図10を用いて後述する。ここで、操作オブジェクトとは、投射面301に投影するユーザへのメッセージや操作メニューアイコンなどの表示を示す。
そして、制御部153は、映像照射部154を介してユーザに対して操作検出装置100を設定している周囲環境の見直しを喚起するガイド表示を投射面301に行う(ステップS106)。なお、ガイド表示については、図8および図9を用いて後述する。
以上により、操作検出装置100による領域特定提示処理が終了となる。ステップS106の処理の終了後、再びステップS101の処理に遷移して図6の処理を繰り返す。
なお、ステップS106の処理後、ユーザによって周囲環境の見直しを行うことなく処理を続行することが選択された場合には、ステップS101の処理に戻ることなく処理を終了する。
〈ステップS101の処理例および操作検出判定テーブルの構成例〉
続いて、図6のステップS101の処理について判定処理について追加説明する。
図7は、図6のフローチャートにおけるステップS101の処理の際に用いられる操作検出判定テーブル900の構成の一例を示す説明図である。
操作検出可能領域特定部107は、図7に示す操作検出判定テーブル900を用いて、指による操作を検出できるかどうかの判定を行う。この操作検出判定テーブル900は、例えば操作検出可能領域特定部107が有する図示しない記憶部などに格納されている。
操作検出判定テーブル900は、図7に示すように、インデックス番号901、指操作検出精度902、輝度レベル903、基準輝度差分904、および表示カラー905から構成されている。
インデックス番号901は、操作検出判定テーブル900のインデックス番号を表す。指操作検出精度902は、指による操作の検出精度を表す指標である。この指数は、数値が大きいほど指による操作の検出精度が高くなることから、3が最も指操作を検出しやすく、0が最も検出しづらいことを表す。
図7に示した操作検出判定テーブル900の例では、3が指による操作を検出できることを表しており、それ以外の値である2〜0は、指による操作を検出できないことを表している。
輝度レベル903は、指操作検出精度902に関連しており、カメラ102で撮像した画像データの輝度レベル値の範囲を示している。この輝度レベル値は、一例として0から255の256段階で表現されており、255が最も明く、0に近いほど暗いことを表す。
よって、255に近いほど外光の影響を受けていると判断し、指操作検出精度902は0に近づく。一方、0に近いほど外光の影響を受けていないと判断し、指操作検出精度902は3に近づく。
基準輝度差分904は、指操作検出精度902に関連しており、カメラ102で撮像した画像データの輝度レベル値と装置で保持する基準の輝度レベル値との差分をとった値の範囲を示している。装置で保持する基準の輝度レベル値は、外光の影響を受けていないときの値であるため、使用環境で撮像した画像データの輝度レベル値との比較で、外光の影響をどのぐらい受けているのかの推測に使用できる。
よって、基準輝度差分904の値が大きいほど外光の影響を受けていると判断し、指操作検出精度902は0に近づく。一方、本差分値が小さいほど外光の影響を受けていないと判断し、指操作検出精度902は3に近づく。
なお、指操作検出精度902は、輝度レベル903と基準輝度差分904のいずれか一方の条件を用いて決定してもよいし、輝度レベル903と基準輝度差分904の両方のAND(論理積)条件、OR(論理和)条件、XOR(排他的論理和)条件のいずれかを用いて決定してもよい。
表示カラー905は、指操作検出精度902に関連した、投射面301へ表示するための色を示す。図6のステップS105の処理における指による操作を検出できない領域に対して、言い換えれば、指操作検出精度902の値に応じて、表示カラー905で表す色を投射面301へ表示する。
なお、図7では、表示カラー905でそれぞれ表す色を、網掛け、ドット、およびハッチングにて示している。指操作検出精度902の値が3の場合には、例えば無色とする。また、表示カラー905は、異なる色とするのではなく、同色であってもよい。その場合には、濃淡によって表示カラーを表す。
なお、図7ではエントリ数=4のテーブル例を記載しているが、それ以外のエントリ数を持つテーブルであってもよい。エントリ数≧2を満たすようにテーブルを設定すれば、指による操作を検出できるエリアとできないエリアを特定することができる。
よって、操作検出判定テーブル900のエントリ数、即ちインデックス数≧2を満足すれば何でもよい。なお、本判定処理は、投射面301上の投射範囲302内の全画素に対して適用してもよいし、いくつかの一部の画素に対してのみ適用してもよい。更にはm*nの纏まった画素に集合に対して、平均値などの演算を実施した後、本判定処理を適用してもよい。ここで、m、nは、任意の整数値である。
〈指操作を検出できない領域の表示およびユーザへのガイド例〉
続いて、図6のフローチャートにおけるステップS103〜ステップS106の処理に関する投射面301への表示について、図8〜図10を用いて以下説明する。
図8は、図1の操作検出装置100による指操作を検出できない領域の表示およびユーザへのガイドの一例を示す説明図である。
図8(a)は、図6のステップS104の処理およびステップSS106の処理において、指による操作を検出できない領域が特定された後、ユーザへの周囲環境の見直しをガイドするための投射面301への表示例を示している。
図8において、領域1000は、指による操作を検出できない領域を表しており、図7の表示カラー905にて定義された色表現を用いて検出精度がユーザに分かるように表示する。領域1001は、指による操作を検出できる領域を表しており、図7の表示カラー905で定義された色にて表示する。ガイド表示1002は、ユーザへの使用環境の改善を促すための表示を表す。
領域1000と領域1001において、指による操作を検出できる領域と、そうでない領域とを色分けしてユーザへ提示する場合は、画素毎に色分けしてもよいし、a×bの纏まった画素の集合毎に色分けしてもよい。a、bは、任意の整数値である。
さらには、投射範囲302を予め定めた複数個に分割した領域毎に色分けしてもよい。a×bの纏まった画素の集合や、投射範囲302を複数個に分割した領域毎に色分けすることで、ユーザには通知する情報量を削減することができる。それにより、ユーザは現在の状態を認識しやすくなり、結果的にユーザ利便性を高めることができる。
図8(b)は、図8(a)の状態から、ユーザが太陽光をカーテンで遮るなどの使用環境の見直しを行った結果、一定の改善が見受けられた場合における表示例を示している。
図8(a)に示す指による操作を検出できない領域1000の一部が、操作を検出できる領域1001に変化しており、さらに、操作を検出できない領域1000の検出精度も改善していることを示している。
図8(c)は、図8(b)の状態から、ユーザがさらに使用環境の見直しを行った結果、より改善が見受けられ、指による操作を検出できない領域1000が投射範囲302から完全になくなった場合の表示例を示している。
指による操作を検出できない領域1000は、操作を検出できる領域1001に全て変わり、ガイド表示1002の表示は、投射範囲302の全領域で指による操作を検出できることを表す文面となっている。
〈ガイド表示の他の例〉
図9は、図1の操作検出装置100による指操作を検出できない領域の表示およびユーザへのガイド表示の他の例を示す説明図である。
この図9は、図6のステップS105の処理およびステップS106の処理において、ユーザへのガイド表示1002や、操作ボタン表示1100の表示位置を、指による操作を検出できない領域に合わせて可変にする例を示している。
この場合、図9(a)、図9(b)にそれぞれ示すように、ガイド表示1002と操作ボタン表示1100とは、指による操作を検出できない領域1000を避け、指による操作を検出できる領域1001内に入るように表示する。
これにより、指操作による操作ボタンの選択ができないことや、指による操作を検出できない領域を示すための表示とユーザメッセージ表示が重なることで表示が見えにくくなることを解消することができる。その結果、ユーザ利便性を向上させることができる。
なお、この際、ガイド表示1002は、投射面301上のいずれの座標に表示してもよく、ユーザが指やジェスチャによって投射面301を操作する操作ボタン表示1100のみを指による操作を検出できる領域1001内に入るように表示するようにしてもよい。
〈操作メニューアイコンなどの表示例〉
図10は、図1の操作検出装置100による指操作を検出できない領域の表示、ユーザへのガイド表示、および操作メニューアイコン表示の一例を示す説明図である。
この図10は、図6のステップS105の処理およびステップS106の処理において、操作メニューアイコン1200の表示位置を、指による操作を検出できない領域に合わせて可変にする表示例を示したものである。
図10(a)、図10(b)にてそれぞれ示す通り、操作メニューアイコン1200は、指による操作を検出できない領域1000を避け、指による操作を検出できる領域1001内に入るように表示する。
これにより、指による操作メニューアイコン1200の選択操作ができないことや、指による操作を検出できない領域を示す表示とメニューアイコンが重なって表示され、メニューアイコンの表示が見えづらくなることを解消してユーザの利便性を向上させることができる。
なお、指による操作を検出できない領域が広く、ユーザへのガイド表示1002を表示する領域が不足する場合は、その場合のみガイド表示のフォントサイズを小さくして表示するようにしてもよい。
また、映像照射部154からアイコンを投射し、アイコンを用いてユーザへ通知するようにしてもよい。さらに、表示部155にガイド表示することでユーザへ通知してもよい。また、音出力部157から音声ガイドや効果音を出力することでユーザへ通知してもよい。
さらに、指による操作を検出できない領域が広く、操作メニューアイコン1200を表示する領域が不足する場合についても、操作メニューアイコン1200についても同様に、アイコンの表示サイズを小さくして表示してもよい。あるいは、表示するアイコンの種類を最低限の数に減らして表示してもよい。
このようにすることで、指による操作を検出できない領域が広すぎるため、ユーザへのガイド表示1002を表示することができなどの問題を解消し、ユーザ利便性を向上することが可能になる。
以上により、ユーザは指による操作情報を検出できない領域を認識し、その領域の改善状況を確認しながら、操作対象装置の使用環境の見直しを実行することができる。それにより、操作検出装置100を利用するユーザの利便性を向上させることができる。
(実施の形態2)
〈概要〉
本実施の形態2では、操作検出装置100において、指による操作情報を検出できない領域が存在する場合や、指による操作情報を検出できない領域を投射面から消すことが困難な場合に、映像投射の投射範囲を調整して、指による操作情報を検出できない領域を投射面からなくす処理について説明する。この処理は、制御部153が検出結果データ120の指/ペン操作情報検出不可領域データに基づいて実行する。
〈操作メニューアイコンなどの表示例〉
図11は、図1の操作検出装置100による指操作を検出できない領域の表示、投射範囲の変更、操作メニューアイコン表示の一例を示す説明図である。
この図11は、投射範囲を変更することによって、投射面から指による操作情報を検出できない領域をなくした場合の投射面の一例を示している。
例えば、図11(a)に示すように、投射面上の投射範囲302内には、領域1000のような指による操作情報を検出できない領域が存在することがある。そこで、図11(b)に示すように、領域1000を避けるように投射範囲302を変更することにより、指による操作情報を検出できない領域を、投射範囲302の枠外にすることができる。
本処理は、指による操作情報を検出できない領域が存在することを検出したら、自動で実行してもよいし、図11(a)に示すユーザメッセージ1301と、ユーザ選択ボタン1302を表示して、ユーザが投射範囲の変更を許可した場合のみ実行するようにしてもよい。
また、図11(a)に示すユーザメッセージ1301、ユーザ選択ボタン1302、および操作メニューアイコン1200は、指による操作情報を検出できない領域1000に表示しないように表示座標を投射面の状態に応じて変えるようにしてもよい。
さらに、本処理はユーザによる指操作機能が有効になっている場合のみ実行するようにしてもよい。一方、指操作機能が無効化されていれば、指による操作情報を検出できない領域があったとしてもユーザの利便性には無関係であるため、ユーザが決定した任意の投射範囲で映像を投射しても問題は発生しない。
また、図11(a)において、ユーザメッセージ1301は、投射面上のいずれの座標に表示してもよく、ユーザが指やジェスチャによって操作を行うユーザ選択ボタン1302と操作メニューアイコン1200のみを、指による操作情報を検出できない領域1000に表示しないように表示座標を投射面の状態に応じて変えるようにしてもよい。
さらに、図11(a)において、変更後の投射サイズが分かるように投射サイズの外枠を投射することで、ユーザに変更後の投射サイズを予め明示しても良い。そうすることで、ユーザは投射サイズを変更するか否かを判断し易くなり利便性を向上することができる。また、その場合は、指による操作情報を検出できない領域1000を表示しないようにしてもよい。
以上により、指による操作情報を検出できない領域が存在する場合や、指による操作情報を検出できない領域を投射範囲から消すことが困難な場合などにおいて、映像の投射範囲を調整して、指による操作情報を検出できない領域を投射範囲から取り除くことができるため、ユーザの利便性を向上させることができる。
(実施の形態3)
〈概要〉
本実施の形態3においては、操作検出装置100において、指による操作情報を検出できない領域、あるいは設定した投射範囲が机や壁などの投射対象物に全て収まらない場合に、その領域を輝度レベル判定に基づいて同一の処理で検出して、それぞれの領域に応じた処理を実行する技術について説明する。
〈操作検出装置の構成例〉
図12は、本実施の形態3による操作検出装置100の構成の一例を示す説明図である。
図12の操作検出装置100が、前記実施形態1における図1の操作検出装置100と異なるところは、映像照射可能領域特定部1601を新たに追加し、また、検出結果データ120として映像照射不可領域データを追加している点である。それ以外の構成については、図1と同様であるので、説明は省略する。
映像照射可能領域特定部1601は、カメラ102が投射面301を撮像した画像データに基づいて、机や壁などの投射対象物に対して映像を照射可能な領域を特定する。その特定技術については、図13のフローチャートにて後述する。
また、検出結果データ120に追加された映像照射不可領域データは、映像照射可能領域特定部1601によって特定された映像照射できない領域を表すデータであり、例えば、映像照射できない領域を示す位置情報(たとえば座標データ)が含まれる。
〈照射可能な領域を特定する処理例〉
図13は、図12の操作検出装置100による処理の一例を示すフローチャートである。図13に示すステップS201〜ステップS204、およびステップS104〜ステップS106の処理は、それずれ一度ずつ実行する一巡のフローであるが、実際にはこの処理は連続して繰り返され、ステップS205、ステップS103、ステップS106の後は、ステップS201の処理に戻るものとする。
図13におけるフローチャートは、ユーザが操作検出装置100の使用を開始する前や、操作検出装置100を使用している最中など、本装置に電源が投入されている間、常時実行される。そうすることで、ユーザが本装置を使用している間、周囲の使用環境が突然変わった場合、たとえば外光の輝度の変化などが発生しても、すぐに操作性を改善することができる。
また、図13に示すフローチャートは、ユーザによる指操作機能を使用する場合にのみ実行するようにしてもよい。これにより、制御部153(CPU)などの処理負荷や消費電力を低減することができる効果がある。
また、図13におけるステップS103〜S106の処理は、図6のステップS103〜S106の処理と同様であることを示しており、これらの処理については説明を省略する。
まず、操作検出可能領域特定部107は、カメラ102が投射面301を撮像した画像データに基づいて、判定処理を行う(ステップS201)。このステップS201の判定処理は、指による操作を検出できるかどうかの判定、および設定された投射範囲が、机や壁などの投射対象物内に収まっているかどうかを判定する処理である。
この判定処理の一例としては、例えば図6のステップS101の処理の説明にて述べた輝度レベルを用いた方法が考えられる。また、指による操作を検出できるかどうかの判定処理については、図6のステップS101の処理で述べたものと同様である。
設定された投射範囲に対して机や壁などの投射対象物が広いかどうかの判定処理は、一例として、同じ輝度レベルを用いた方法が挙げられる。照明103,104のみが点灯していて外光701が全く照射されていない状況で、カメラ102が撮影する画像データの輝度を予めデータとして保持しておき、現在撮影している画像データの輝度が保持しているデータよりも一定値以上(第2の設定値)小さければ、投射対象物が存在しない領域、即ち使用不可領域と推定できる。その結果、その領域については、映像を投影できないと判定することができる。
あるいは、一時的に照明103,104を消灯して、すなわち外光701のみが照射されている状態にて撮像し、その時の画像データの輝度がある一定値(第2の設定値)よりも小さければ、投射対象物が存在せず、映像を投射できない使用不可領域と判定することができる。
図7に示したように、具体的な数値を挙げるとすれば、輝度レベル903が0〜49の場合は、投射対象物が存在せずに映像を投射できないと判定できる。また、基準輝度差分904が−(マイナス)20以下である場合も同様に投射対象物が存在せずに映像を投射できないと判定できる。さらには、輝度レベル903と基準輝度差分904の両方の指標から投射対象物が存在せずに映像を投射できないかどうかを判定してもよい。
続いて、制御部153は、使用不可領域があるか否かを判定する(ステップS202)。このステップS202の処理では、制御部153が、ステップS201の処理による処理結果によって、設定された投射範囲で映像を投射できるか否かを判定する。また、ステップS202の処理結果としては、例えば検出結果データ120の指/ペン操作情報検出不可領域データおよび映像照射不可領域データなどが用いられる。
そして、設定された投射範囲で映像を投射できないと判定した場合(Yes)、制御部153は、投射範囲302の全領域に対して投射対象物が存在するよう新たに決定された投射範囲に変更することを、ユーザが設定入力部152を介して許可したかどうかの判定を行う(ステップS203)。
ユーザが投射範囲の変更を許可した場合(Yes)、制御部153は、投射範囲302の全領域に対して投射対象物が存在するように、投射範囲を新たに決定して、投射範囲の変更を行い、映像照射部154を介して映像を照射する(ステップS205)。
一方、ステップS203の処理において、ユーザが投射範囲の変更を許可しなかった場合(No)、またはステップS202の処理にて設定された投射範囲で映像を投射できる判定した場合(No)、制御部153は、外光などの周囲光が原因で指による操作を検出できない領域が存在するか否かを判定する(ステップS204)。
ステップS204の処理において、制御部153が、外光などの周囲光が原因で指による操作を検出できない領域が存在すると判定した場合(Yes)、ステップS104の処理に遷移する。
一方、ステップS204の処理において、制御部153が、外光などの周囲光が原因で指による操作を検出できない領域は存在しないと判定した場合(No)には、ステップS103の処理に遷移する。以降のステップS103〜S106の処理については、図6で説明したものと同様の処理を行う。
〈机上への映像表示例〉
図14は、図12の操作検出装置100による机上への映像投射時の映像表示の一例を示す説明図である。
図14(a)は、図13に示すステップ202およびステップS205の処理に相当し、操作検出装置100から映像を机上投射した際に、投射範囲302の一部の領域が投射面301上にないため、領域1501が机上へ正しく投射できていない様子を示している。
その後、ユーザが投射サイズを変更するか否かを選択するユーザ選択ボタン1302を操作することで、新たな投射範囲の決定処理が実行される。図14(b)は、ユーザによりYesのユーザ選択ボタン1302が選択され、投射範囲302に投射範囲が調整された状態を示している。
そして、図13の処理フローが最初から再び実行され、図13のステップS204の処理が実行されると、図14(c)に示す通り、指による操作を検出できない領域1000の提示およびユーザへ使用環境の見直しを促すガイド表示1002が表示される。また、図14(d)は、図14(a)の時点、即ち、投射範囲302を調整する前に、指による操作を検出できない領域1000を投射範囲302上に表示した例を示している。
図14(c)と図14(d)とを比較すると分かるように、指による操作を検出できない領域1000は、投射範囲302を調整することで変わっていることが分かる。
よって、映像投射範囲を小さくする場合、指による操作を検出できない領域1000は小さくなる可能性がある。一方、映像投射範囲を大きくする場合、指による操作を検出できない領域1000は大きくなる可能性がある。
よって、指による操作を検出できない領域と、机などの投射対象物が存在しない領域との両方を特定した場合、まず投射範囲の調整を行い、続いて指による操作を検出できない領域を表示して、ユーザへ使用環境改善のためのガイドを提示することで、ユーザへの不要な情報提示をなくすことができる。これにより、ユーザの利便性を高めることができる。
また、本実施の形態3においては、机などの投射対象物が存在しない領域を検出した場合を例示したが、それ以外にも映像投射を妨げる障害物を検出した場合に、投射範囲内から障害物がなくなるように投射範囲を調整するようにしてもよい。
障害物の検出は、例えば、予め障害物検出用の輝度レベル903のしきい値と、基準輝度差分904のしきい値とをそれぞれ設定しておくことで、設定されたしきい値と比較判定することが考えられる。そうすることで、投射対象物が存在しない場合と同様、ユーザ利便性を向上することができる。
以上により、同じ判定処理を用いて、指による操作情報を検出できない領域と、投射対象物が存在しないため画像を投射できない領域を同時に特定することができる。それにより、処理の実行時間を削減することができ、ユーザは装置に電源を入れてから装置が使用可能になるまでの時間を短縮することができる。また、装置使用中であっても装置の使用を中断する時間を短縮することができるため。ユーザ利便性を向上できる
(実施の形態4)
〈操作検出装置の構成例〉
図15は、本実施の形態4による操作検出装置100における構成の一例を示す説明図である。
図15の操作検出装置100が図1の操作検出装置100と異なるところは、操作検出可能領域特定部107が座標検出装置101ではなく操作対象装置150に設けられた点および座標検出装置101にカメラ取得画像送出部110を新たに追加した点である。また、座標検出装置101と操作対象装置150との間で送受信される検出結果データ121にも相違がある。
カメラ取得画像送出部110は、制御部109によって制御される。このカメラ取得画像送出部110は、カメラ102が撮像したカメラ取得画像を検出結果データ121の一部として、通信部108を介して操作対象装置150へ送信する。
操作検出可能領域特定部107は、図1に示した座標検出装置101が有する操作検出可能領域特定部107と同様の処理を行うものであり、制御部153からの制御に基づいて、通信部151からカメラ取得画像を受信し、その画像データから指による操作情報を検出可能な領域を特定する。
以上のように構成した操作検出装置100においても、上述した前記実施の形態1と同様の作用効果を奏することができる。
(実施の形態5)
前記実施の形態1の図1に示す操作検出装置100では、電子ペンの接触点座標あるいは指の接触点座標を検出するために、1つのカメラと2つの照明とを用いた構成としたが、本実施の形態5においては、他の構成例について説明する。
〈操作検出装置の構成例〉
図16は、本実施の形態5による操作検出装置100における構成の一例を示した説明図である。
図16に示す操作検出装置100は、操作対象装置150、カメラ102、電磁波生成装置600、および制御装置601から構成されている。なお、図16の操作検出装置100において、図16(a)は検出する対象物が指であり、図16(b)は、検出する対象物が電子ペン400である。
電磁波生成装置600は、例えば、投射面301の上方などに取り付けられ、赤外線を含む波長領域の電磁波を照射する。電磁波は、投射面301と平行に、投射面301に沿うよう平面上に投射され、投射範囲302に接近した物体によって反射された電磁波をカメラ102にて撮像することにより、物体の位置を検出する。なお、照射する電磁波は、赤色光などの可視光であってもよい。
制御装置601は、カメラ102、操作対象装置150、電磁波生成装置600の動作を制御する。また、操作対象装置150、カメラ102、電磁波生成装置600、制御装置601の構成要素は、図16に示す通り別体として構成してもよいし、全てまたは一部が統合された装置として図16の構成要素に代わって置き換えられてもよい。
以上により、投射範囲302上でユーザの指を用いた操作を検出し、操作対象装置150から適切な情報を出力したり、操作対象装置150を操作・制御したりすることが可能になる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
例えば実施の形態1〜5において、図8〜図11にて示した映像照射部154から投射するユーザメッセージ表示は、映像照射部154からアイコンを投射し、アイコンを用いてユーザへ通知するようにしてもよい。
あるいは、表示部155にメッセージ表示することでユーザへ通知してもよい。さらには、音出力部157から音声メッセージや効果音を出力することでユーザへ通知してもよい。上記何れの手段を用いたとしても、同様の効果を得ることができる。
なお、上記の実施の形態は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現しても良い。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
100 操作検出装置
101 座標検出装置
102 カメラ
103 照明
104 照明
105 指接触位置検出部
106 ペン接触位置検出部
107 操作検出可能領域特定部
108 通信部
109 制御部
110 カメラ取得画像送出部
120 検出結果データ
121 検出結果データ
150 操作対象装置
151 通信部
152 設定入力部
153 制御部
154 映像照射部
155 表示部
156 発光部
157 音出力部
301 投射面
302 投射範囲
400 電子ペン
401 発光素子
402 先端接触検出部
403 発光制御部
600 電磁波生成装置
601 制御装置
900 操作検出判定テーブル

Claims (13)

  1. 投射面に投射された操作オブジェクトの操作により制御可能な投射型映像表示装置であって、
    表示映像を前記投射面上に投射する投射部と、
    前記投射面を撮像する撮像部と、
    前記撮像部が撮像した画像データに基づいて、前記投射面のうち、前記表示映像が投射される範囲において前記操作オブジェクトの操作を検出できる第1の領域および前記操作オブジェクトの操作を検出できない第2の領域をそれぞれ特定する操作可能領域特定部と、
    前記撮像部が撮像した画像データに基づいて、前記操作オブジェクトの操作を検出する検出部と、
    を備え、
    前記投射部は、前記操作可能領域特定部が特定した前記操作オブジェクトの操作を検出できる前記第1の領域を、前記第2の領域と区別して表示する表示映像を投射可能であり、前記操作オブジェクトの操作を検出できる前記第1の領域の範囲内に表示されるように前記操作オブジェクトの表示位置を変更して表示する、投射型映像表示装置。
  2. 請求項1記載の投射型映像表示装置において、
    さらに、前記投射部は、外部から入力された入力映像を前記投射部から投射して表示する場合に、前記操作可能領域特定部が特定した前記第1の領域に基づいて、前記表示映像中における前記入力映像の占める範囲を変更する、投射型映像表示装置。
  3. 請求項1記載の投射型映像表示装置において、
    前記操作可能領域特定部は、前記撮像部が撮影した前記投射面の画像データの輝度レベルに基づいて、前記操作オブジェクトの操作を検出できる前記第1の領域および前記操作オブジェクトの操作を検出できない前記第2の領域をそれぞれ特定する、投射型映像表示装置。
  4. 請求項3記載の投射型映像表示装置において、
    さらに、前記操作可能領域特定部は、前記輝度レベルが第1の設定値よりも高い領域を、前記第1の領域と特定し、前記輝度レベルが第1の設定値よりも低い領域を、前記第2の領域として特定する、投射型映像表示装置。
  5. 請求項4記載の投射型映像表示装置において、
    さらに、前記操作可能領域特定部は、前記操作オブジェクトの操作を検出できない前記第2の領域を、前記輝度レベルに応じてグループ分けし、
    前記投射部は、前記操作可能領域特定部がグループ分けした前記第2の領域がグループ毎に識別されるように前記表示映像中に表示する、投射型映像表示装置。
  6. 請求項3記載の投射型映像表示装置において、
    さらに、前記操作可能領域特定部は、前記輝度レベルが第2の設定値よりも低い領域を前記投射面がない使用不可領域として検出し、
    前記投射部は、前記操作可能領域特定部の検出結果に基づいて、前記使用不可領域に映像が投影されないように投影範囲を設定する、投射型映像表示装置。
  7. 請求項1記載の投射型映像表示装置において、
    前記検出部は、指または電子ペンの少なくともいずれかの接触位置を検出し、検出した前記接触位置に基づいて、前記操作オブジェクトの操作を検出する、投射型映像表示装置。
  8. 表示映像を投射面上に投射する投射部と、前記投射面を撮像する撮像部と、操作オブジェクトの操作を検出できる第1の領域および前記操作オブジェクトの操作を検出できない第2の領域をそれぞれ特定する操作可能領域特定部と、前記操作オブジェクトの操作を検出する検出部と、を備え、前記投射面に投射された操作オブジェクトの操作により制御可能な投射型映像表示装置による映像表示方法であって、
    前記操作可能領域特定部が、前記撮像部が撮像した画像データに基づいて、前記投射面のうち、前記表示映像が投射される範囲において、前記検出部が前記操作オブジェクトの操作を検出できる前記第1の領域および前記検出部が前記操作オブジェクトの操作を検出できない前記第2の領域をそれぞれ特定するステップと、
    前記投射部が、前記操作可能領域特定部が特定した前記第1の領域を前記第2の領域と区別して表示するステップと、
    前記投射部が、前記操作可能領域特定部が特定した前記操作オブジェクトの操作を検出できる前記第1の領域の範囲内に表示されるように前記操作オブジェクトの表示位置を変更して表示するステップと、
    を有する、映像表示方法。
  9. 請求項8記載の映像表示方法において、
    さらに、前記投射部が、外部から入力された入力映像を投射して表示する際に、前記操作可能領域特定部が特定した前記操作オブジェクトの操作を検出できる前記第1の領域の範囲内に前記入力映像が表示されるように映像投射範囲を変更して表示するステップを有する、映像表示方法。
  10. 請求項8記載の映像表示方法において、
    前記領域を特定するステップは、前記撮像部が撮影した前記投射面の画像データの輝度レベルに基づいて、前記第1および前記第2の領域をそれぞれ特定する、映像表示方法。
  11. 請求項10記載の映像表示方法において、
    前記第1および前記第2の領域の特定は、前記輝度レベルが第1の設定値よりも高い領域を、前記第1の領域と特定し、前記輝度レベルが第1の設定値よりも低い領域を、前記第2の領域として特定する、映像表示方法。
  12. 請求項11記載の映像表示方法において、
    さらに、前記操作可能領域特定部が、特定した前記第2の領域を、前記輝度レベルに応じてグループ分けするステップと、
    前記投射部が、グループ分けした前記第2の領域がグループ毎に識別されるように前記表示映像中に表示するステップと、
    を有する、映像表示方法。
  13. 請求項10記載の映像表示方法において、
    さらに、前記操作可能領域特定部が、前記輝度レベルが第2の設定値よりも低い領域を前記投射面がない使用不可領域として検出するステップと、
    前記投射部が、前記操作可能領域特定部の検出結果に基づいて、前記使用不可領域に映像が投影されないように、前記表示映像の投影範囲を設定して表示するステップと、
    を有する、映像表示方法。
JP2016558510A 2014-11-13 2014-11-13 投射型映像表示装置および映像表示方法 Active JP6282758B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/080120 WO2016075796A1 (ja) 2014-11-13 2014-11-13 投射型映像表示装置および映像表示方法

Publications (2)

Publication Number Publication Date
JPWO2016075796A1 JPWO2016075796A1 (ja) 2017-09-21
JP6282758B2 true JP6282758B2 (ja) 2018-02-21

Family

ID=55953909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016558510A Active JP6282758B2 (ja) 2014-11-13 2014-11-13 投射型映像表示装置および映像表示方法

Country Status (4)

Country Link
US (2) US10521050B2 (ja)
JP (1) JP6282758B2 (ja)
CN (1) CN107077258B (ja)
WO (1) WO2016075796A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016093241A1 (ja) * 2014-12-09 2016-06-16 旭化成株式会社 位置方位検出装置及び位置方位検出プログラム
TWI574180B (zh) * 2016-01-21 2017-03-11 緯創資通股份有限公司 光學觸控系統、光學觸控裝置及其觸控偵測方法
JP2017215631A (ja) * 2016-05-30 2017-12-07 沖電気工業株式会社 入力装置、入力システム、入力処理方法、及びプログラム
JP6780315B2 (ja) * 2016-06-22 2020-11-04 カシオ計算機株式会社 投影装置、投影システム、投影方法及びプログラム
JP6275312B1 (ja) 2017-06-02 2018-02-07 キヤノン株式会社 投写装置およびその制御方法、プログラム
CN110999280B (zh) * 2017-08-23 2022-02-25 三菱电机株式会社 影像内容介质和影像再现装置
JP7124375B2 (ja) * 2018-03-26 2022-08-24 セイコーエプソン株式会社 電子ペン、表示システムおよび電子ペンの制御方法
JP2019174513A (ja) * 2018-03-27 2019-10-10 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP7117525B2 (ja) * 2018-05-31 2022-08-15 パナソニックIpマネジメント株式会社 投写型映像表示装置の制御装置、制御方法、プログラム、及び投写型映像表示システム
US11597085B2 (en) 2018-09-13 2023-03-07 The Charles Stark Draper Laboratory, Inc. Locating and attaching interchangeable tools in-situ
JP7251094B2 (ja) 2018-10-22 2023-04-04 セイコーエプソン株式会社 位置検出装置、表示システム、及び、位置検出方法
JP7251095B2 (ja) * 2018-10-22 2023-04-04 セイコーエプソン株式会社 位置検出装置、表示装置、表示システム、及び、位置検出方法
JP7443819B2 (ja) 2020-02-27 2024-03-06 セイコーエプソン株式会社 画像表示装置、画像表示方法、および画像表示プログラム
JP7338659B2 (ja) * 2021-03-30 2023-09-05 セイコーエプソン株式会社 指示体の検出方法及びプロジェクションシステム
CN115421615A (zh) * 2022-10-21 2022-12-02 潍坊歌尔电子有限公司 触控灵敏度自检方法、装置、桌面投影机及存储介质

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5386249A (en) * 1992-01-22 1995-01-31 Samsung Electronics Co., Ltd. Video motion detector with full-band response except for diagonal spatial frequencies
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
WO2004055776A1 (en) * 2002-12-13 2004-07-01 Reactrix Systems Interactive directed light/sound system
JP3871061B2 (ja) * 2003-03-25 2007-01-24 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
EP1596271A1 (en) 2004-05-11 2005-11-16 Hitachi Europe S.r.l. Method for displaying information and information display system
GB2431500B (en) * 2004-06-18 2009-03-25 Microth Inc Stroke-based data entry device, system, and method
JP2006267995A (ja) * 2005-02-28 2006-10-05 Yamaha Corp 投射型映像再生装置
US7631974B2 (en) * 2006-08-29 2009-12-15 Panasonic Corporation Image display method and image display device
JP4733600B2 (ja) 2006-08-31 2011-07-27 日本電信電話株式会社 操作検出装置とそのプログラム
WO2008045464A2 (en) * 2006-10-10 2008-04-17 Wms Gaming Inc. Multi-player, multi-touch table for use in wagering game systems
GB2447071A (en) 2007-02-27 2008-09-03 Pro Fit Int Ltd An apparatus and method for transporting a fabric
JP5103944B2 (ja) * 2007-03-02 2012-12-19 セイコーエプソン株式会社 入力機能付有機エレクトロルミネッセンス装置、及び電子機器
WO2008128096A2 (en) * 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
FR2940000A1 (fr) * 2008-12-17 2010-06-18 Bernard Taillade Systeme de securite perimetrique par l'analyse active de l'image d'une camera video
US20120069180A1 (en) * 2009-05-26 2012-03-22 Panasonic Electric Works Co., Ltd. Information presentation apparatus
JP2010277377A (ja) * 2009-05-29 2010-12-09 Panasonic Corp タッチパネルシステム
US8390600B2 (en) * 2009-11-13 2013-03-05 Microsoft Corporation Interactive display system with contact geometry interface
FR2962834A1 (fr) * 2010-07-13 2012-01-20 Commissariat Energie Atomique Procede de detection d'une cible dans les images stereoscopiques par apprentissage et classification statistique a partir d'une loi de probabilite.
JP2012027515A (ja) 2010-07-20 2012-02-09 Hitachi Consumer Electronics Co Ltd 入力方法及び入力装置
JP2012094085A (ja) 2010-10-29 2012-05-17 Hitachi Consumer Electronics Co Ltd 入力装置
JP2012178674A (ja) * 2011-02-25 2012-09-13 Sanyo Electric Co Ltd 投写型映像表示装置
JP2012177768A (ja) 2011-02-25 2012-09-13 Sanyo Electric Co Ltd 投写型映像表示装置
JP2013003185A (ja) * 2011-06-13 2013-01-07 Seiko Epson Corp プロジェクター、プロジェクターシステム、及び画像投写方法
JP5921835B2 (ja) 2011-08-23 2016-05-24 日立マクセル株式会社 入力装置
JP2013109538A (ja) 2011-11-21 2013-06-06 Hitachi Consumer Electronics Co Ltd 入力方法及び入力装置
JP6000553B2 (ja) 2012-01-24 2016-09-28 キヤノン株式会社 情報処理装置及びその制御方法
US9785028B2 (en) * 2012-03-23 2017-10-10 Pioneer Corporation Display apparatus, driving method thereof, and screen apparatus for displaying
US9285895B1 (en) * 2012-03-28 2016-03-15 Amazon Technologies, Inc. Integrated near field sensor for display devices
JP6098153B2 (ja) 2012-12-18 2017-03-22 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP6097843B2 (ja) * 2012-12-29 2017-03-15 アップル インコーポレイテッド コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース
CN105247447B (zh) * 2013-02-14 2017-11-10 脸谱公司 眼睛跟踪校准系统及方法
JP2015022442A (ja) * 2013-07-17 2015-02-02 株式会社東芝 電子機器、電子機器の制御方法、電子機器の制御プログラム
KR102162836B1 (ko) * 2013-08-30 2020-10-07 삼성전자주식회사 필드 속성을 이용한 컨텐트를 제공하는 전자 장치 및 방법
WO2015052765A1 (ja) * 2013-10-08 2015-04-16 日立マクセル株式会社 投射型映像表示装置、操作検出装置及び投射型映像表示方法
JP6417702B2 (ja) * 2014-05-01 2018-11-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
CA2949088C (en) * 2014-05-15 2023-01-24 Federal Express Corporation Wearable devices for courier processing and methods of use thereof
CN106462227A (zh) 2014-08-07 2017-02-22 日立麦克赛尔株式会社 投影型影像显示装置及其控制方法

Also Published As

Publication number Publication date
CN107077258B (zh) 2019-12-17
US20170322672A1 (en) 2017-11-09
US20200150821A1 (en) 2020-05-14
US10915186B2 (en) 2021-02-09
US10521050B2 (en) 2019-12-31
CN107077258A (zh) 2017-08-18
JPWO2016075796A1 (ja) 2017-09-21
WO2016075796A1 (ja) 2016-05-19

Similar Documents

Publication Publication Date Title
JP6282758B2 (ja) 投射型映像表示装置および映像表示方法
JP6105075B2 (ja) 投射型映像表示装置、操作検出装置及び投射型映像表示方法
JP6037901B2 (ja) 操作検出装置、操作検出方法及び表示制御データ生成方法
US20120044140A1 (en) Information display system and program, and optical input system, projection-type images and display apparatus
JP5197777B2 (ja) インターフェイス装置、方法、およびプログラム
WO2016021022A1 (ja) 投写型映像表示装置及びその制御方法
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
US20120169671A1 (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
US9830023B2 (en) Image display apparatus and method of controlling image display apparatus
JP6304618B2 (ja) 照明装置
JP2012208926A (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
JP2011043876A (ja) 画像表示装置
US20150009138A1 (en) Information processing apparatus, operation input detection method, program, and storage medium
JP2016038902A (ja) 接触検出システム、情報処理方法、情報処理装置、及びプログラム
JP2010205223A (ja) 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置
US20170185233A1 (en) Information processing apparatus, information input system, method for processing information
JP6350175B2 (ja) 位置検出装置、プロジェクター、及び、位置検出方法
EP2957998A1 (en) Input device
JP6439398B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP2017062813A (ja) 映像表示装置及びプロジェクタ
JP6823988B2 (ja) 画面操作方法及び画面操作装置
JPWO2017081805A1 (ja) 操作検出装置、操作検出方法、及び映像表示システム
KR20190027081A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
WO2022034745A1 (ja) 書き込み画面画像を重畳する情報処理装置
KR100951681B1 (ko) 적외선 카메라를 이용한 사용자 인터페이스 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170419

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180124

R150 Certificate of patent or registration of utility model

Ref document number: 6282758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250