JPWO2017081805A1 - 操作検出装置、操作検出方法、及び映像表示システム - Google Patents

操作検出装置、操作検出方法、及び映像表示システム Download PDF

Info

Publication number
JPWO2017081805A1
JPWO2017081805A1 JP2017549949A JP2017549949A JPWO2017081805A1 JP WO2017081805 A1 JPWO2017081805 A1 JP WO2017081805A1 JP 2017549949 A JP2017549949 A JP 2017549949A JP 2017549949 A JP2017549949 A JP 2017549949A JP WO2017081805 A1 JPWO2017081805 A1 JP WO2017081805A1
Authority
JP
Japan
Prior art keywords
operation detection
detection process
signal processing
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017549949A
Other languages
English (en)
Other versions
JP6538871B2 (ja
Inventor
雄大 新倉
雄大 新倉
孝志 松原
孝志 松原
森 直樹
直樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2017081805A1 publication Critical patent/JPWO2017081805A1/ja
Application granted granted Critical
Publication of JP6538871B2 publication Critical patent/JP6538871B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

操作検出装置100は、電子ペン(第1の操作オブジェクト)120の発光検出に基づく第1の操作検出処理と、照明光の照射による指(第2の操作オブジェクト)300の影検出に基づく第2の操作検出処理を行う。イメージセンサ101は、電子ペンと指の画像を撮像し、画像信号処理部111,112は、撮像画像のコントラスト調整を行う。ここに、画像信号処理部の施すコントラスト調整状態は、電子ペンの撮像画像と指の撮像画像とで異なる。操作検出部106,107,108,114,115は、コントラスト調整を施した撮像画像を用いて、電子ペンと指の操作検出処理を実行する。これにより、電子ペンと指のそれぞれの操作検出に適した画像のコントラストを実現し、検出精度が向上する。

Description

本発明は、映像表示面上でユーザの行う操作を検出する操作検出装置、操作検出方法、及びこれを用いた映像表示システムに関する。
映像の表示面を操作面としてユーザが行う操作を検出するために、ユーザが電子ペン等を使用して操作し、電子ペンの発光位置から操作位置を検出する方法が知られる。また、ユーザの指や手の位置をそれらの影から検出する方法が知られる。特許文献1には、ユーザの操作する操作対象物(操作オブジェクト)が電子ペンである場合とユーザの指や手である場合との両方に対応できる操作検出装置が記載される。すなわち同文献に記載される操作検出装置では、先端が発光する第1の操作オブジェクトが操作面に接する位置を検出するための第1の検出処理を行う第1の検出部と、操作面に照明光を照射し、発光しない第2の操作オブジェクトが操作面に接する位置を検出するための前記第1の検出処理とは異なる第2の検出処理を行う第2の検出部とを有する構成となっている。
国際公開第2015/052765号
特許文献1の検出装置では、撮像部により撮像された1枚の画像から、先端が発光する第1の操作オブジェクトと、発光しない第2の操作オブジェクトの両方の検出処理を行う場合がある。しかし、同一の撮像条件においては、第1の操作オブジェクトと第2の操作オブジェクトとの画像を両方ともコントラストを満足するように撮像することが困難である。すなわち、発光する第1の操作オブジェクトを検出するために画面全体を暗い画像として撮像すると、発光しない第2の操作オブジェクトのコントラストが低下し、第2の検出部での検出精度が悪化する。一方、発光しない第2の操作オブジェクトを検出するために画像全体を明るい画像として撮像すると、発光する第1の操作オブジェクトのコントラストが低下し、第1の検出部での検出精度が悪化するからである。
本発明の目的は、上記の課題を鑑み、同一の撮像条件で発光する操作オブジェクトと発光しない操作オブジェクトを撮像する場合、それぞれの操作オブジェクトの検出に適した画像のコントラストを実現することである。
本発明は、第1の操作オブジェクトの発光検出または反射光検出に基づく第1の操作検出処理と、照明光の照射による第2の操作オブジェクトの影検出に基づく第2の操作検出処理を行う操作検出装置であって、前記第1の操作オブジェクトと前記第2の操作オブジェクトの画像を撮像する撮像部と、前記撮像部で撮像した撮像画像のコントラスト調整または前記撮像部で撮像する際のコントラスト調整を行う画像信号処理部と、前記コントラスト調整を施した撮像画像を用いて、前記第1の操作検出処理と前記第2の操作検出処理を実行する操作検出部と、を備え、前記画像信号処理部の施すコントラスト調整状態は、前記第1の操作検出処理に用いる撮像画像の場合と、前記第2の操作検出処理に用いる撮像画像の場合とで異なることを特徴とする。
本発明によれば、第1の操作オブジェクトと第2の操作オブジェクトのそれぞれの操作検出に適した画像のコントラストを実現し、検出精度が向上するとともに操作性が向上する。
実施例1における操作検出装置を用いた映像表示システムの構成図。 操作検出装置の外観とユーザの操作状態を示す図。 撮像画像の明るさと操作検出精度との関係を示す図。 画像信号処理部1,2による輝度調整とコントラスト変化を説明する図。 電子ペンの構成と動作の一例を示す図。 電子ペンと壁面の接触位置の検出を説明する図。 指が壁面に接触していない場合の影の形状を示す図。 指が壁面に接触している場合の影の形状を示す図。 指の接近度と影の生成位置をまとめて示した図。 指と壁面の接触位置の検出を説明する図。 図1の変形例を示す構成図。 実施例2における操作検出装置を用いた映像表示システムの構成図。 実施例3における操作検出装置を用いた映像表示システムの構成図。 実施例4における操作検出装置を用いた映像表示システムの構成図。 各操作モードにおけるゲイン調整状態の一例を示す図。
以下、図面を用いて実施例を説明する。以下の実施例では、電子ペンなどの発光する操作オブジェクト(第1の操作オブジェクト)とユーザの指や手などの発光しない操作オブジェクト(第2の操作オブジェクト)の両方を使用する場合の操作検出について説明する。なお、第1の操作オブジェクトは、自身は発光せずに反射光を発する操作物でもよく、以下ではこれも含めることとする。
実施例1では、第1、第2の操作オブジェクトに共通の画像信号処理部1と、発光しない第2の操作オブジェクト用の画像信号処理部2とを用いて、両方の操作オブジェクトの接触点(操作位置)を検出する方法について説明する。
図1は、実施例1における操作検出装置を用いた映像表示システムの構成を示す図である。映像表示システムは操作検出装置100とプロジェクタ150を備え、操作検出装置100により検出したユーザの操作に基づき、プロジェクタ150により投射する映像を制御する構成である。
操作検出装置100において、101はイメージセンサ(撮像部)、102及び103は照明、104はスイッチ、105はフレーム検出部、106は影領域抽出部、107は輪郭検出部、108は指先接触点検出部、109は制御部、110は出力部、111は画像信号処理部1、112は画像信号処理部2、114はペン先抽出部、115はペン先接触点検出部である。
イメージセンサ(撮像部)101は、センサ回路やレンズ等で構成され、第1の操作オブジェクト(電子ペン)と、第2の操作オブジェクト(ユーザの指や手)の画像を取得する。照明102及び照明103は、発光ダイオード、回路基板、レンズ等で構成され、前記イメージセンサ101で撮像する領域を照射する。これにより、第2の操作オブジェクトに影を生成する。なお、イメージセンサ101、照明102,103は、赤外カメラと赤外照明で構成し、赤外画像を撮像することで後述する指や手の状態を検出する処理を行ってもよい。また、照明102,103の光源は、レーザ等の発光ダイオード以外の光源でもよい。
スイッチ104は、ハードウェアやソフトウェア等で構成され、フレーム検出部105によって送られた信号を元に照明102,103の点灯及び消灯を制御する。これにより、後述する影領域抽出部106において、撮像した画像内から抽出する第2の操作オブジェクトの影のコントラストを向上させる。例えば、フレーム検出部105から信号Aが送られていた場合には照明102を点灯し照明103を消灯し、フレーム検出部105から信号Bが送られていた場合には照明102を消灯し照明103を点灯する。
フレーム検出部105は、ハードウェアやソフトウェア等で構成され、イメージセンサ101で1つのフレームの撮像が完了したことを検出し、予め設定した周期に応じてスイッチ104に信号を送信する。例えば、イメージセンサ101で撮像された画像の枚数が2の倍数となった時に、スイッチ104に送る信号をAとBとで交互に切り替える。なお、フレーム検出部105において信号を切り替える周期は、他の周期としてもよい。
画像信号処理部1(111)は、回路基板やソフトウェア等で構成され、イメージセンサ101で取得した撮像画像に対して画像全体が暗くなるように画像処理を行い、第1の操作オブジェクト(電子ペン)のペン先領域のコントラストを向上させ、ペン先抽出部114でのペン先の発光領域の抽出を容易にする。ここでは、例えばゲイン調整やガンマ調整などの画像処理を適用し、ペン先領域のコントラストを向上させる。
ペン先抽出部114は、ハードウェアやソフトウェア等で構成され、画像信号処理部1(111)で処理した画像から発光する電子ペンの発光領域を抽出する。例えば、ゲイン調整した画像から一定の輝度値以上の領域を抽出する。なお、ペン先抽出部114の処理は、同様の結果を得るための他の画像処理のアルゴリズムを用いてもよい。ペン先接触点検出部115は、ハードウェアやソフトウェア等で構成され、ペン先抽出部114によって得られた発光領域の形状や大きさ等に基づき、操作面に対する電子ペンの接触点を検出する。
一方画像信号処理部2(112)は、回路基板やソフトウェア等で構成され、画像信号処理部1(111)から出力された画像の各画素に対して画像全体が明るくなるように画像処理を行い、影領域抽出部106での第2の操作オブジェクト(指や手)の影領域抽出を容易にする。ここでも、例えばゲイン調整やガンマ調整などの画像処理を適用し、影領域のコントラストを向上させる。
影領域抽出部106は、ハードウェアやソフトウェア等で構成され、画像信号処理部2(112)で処理した画像から影の領域を検出する。影の領域は、例えば、予め撮像した背景画像と最新の撮像画像との差分から差分画像を生成し、前記差分画像を所定の輝度の閾値で二値化することで得られる。なお、影領域抽出部106の処理は、同様の結果を得るための他の画像処理のアルゴリズムを用いてもよい。
輪郭検出部107は、ハードウェアやソフトウェア等で構成され、影領域抽出部106によって得られた影の領域の輪郭を検出する。影領域の輪郭は、例えば、最初に影領域の左上端の画素を求め、逐次的に隣接する画素を探索することによって得られる。なお、輪郭検出部107の処理は、同様の結果を得るための他の画像処理のアルゴリズムを用いてもよい。指先接触点検出部108は、回路基板やソフトウェア等で構成され、影の形状や位置に基づいて、操作面に対する指の接触点を検出する。
制御部109は、回路基板やソフトウェア等で構成され、イメージセンサ101、照明102,103、スイッチ104、フレーム検出部105、影領域抽出部106、輪郭検出部107、接触点検出部108、出力部110、画像信号処理部1(111)、画像信号処理部2(112)、ペン先抽出部114、ペン先接触点検出部115を制御する。
出力部110は、ネットワーク接続やUSB接続、超音波ユニット、赤外線通信装置等で構成され、投射する映像を表示するプロジェクタ150と通信できるインタフェースである。なお、映像を表示する装置としては、他のディスプレイ(ヘッドマウントディスプレイ、ヘッドアップディスプレイを含む)を接続してもよい。
検出結果データ140は、操作検出装置100が前記出力部110を介してプロジェクタ150に送信するデータであり、接触状態情報や接触点座標などが含まれる。
プロジェクタ150は、映像をスクリーン等の投射面に投射する装置である。映像入力部151は投射する映像信号を入力し、投射映像処理部152は投射方式に従って映像信号の変換と補正処理を行い、映像投射部153は映像信号を投射映像光に変換して投射面に投射する。例えば、液晶パネルによる光変調や、レーザ光の走査方式などを用いる。ここに投射映像処理部152では、操作検出装置100から受信した検出結果データ140に基づき、映像投射部153から投射する映像の切り替えや、表示形式の変更など様々な制御を行う。
図2は、操作検出装置100の外観とユーザ200の操作状態を示す正面図と側面図である。(a)はユーザ200が電子ペン120(第1の操作オブジェクト)を操作している場合で、(b)はユーザが指300(第2の操作オブジェクト)で壁面201に操作している場合である。プロジェクタ150は壁面201に対し映像を投射している(なお、側面図ではプロジェクタ150を省略している)。
操作検出装置100は、イメージセンサ101により壁面201を撮像し、撮像可能な領域202内において、電子ペン120または指300の接触位置を検出する。(a)では、ユーザ200が壁面201に電子ペン120を触れると、ペン先が発光する。すなわち、電子ペン120の接触位置はその撮像画像内の電子ペン120の発光位置から求める。(b)では、2つの照明102,103を交互に点灯させて指300の2つの影を生成し、その位置関係から指300の接触位置を求める。
図3は、撮像画像の明るさと操作検出の精度との関係を示す図である。左側の(1)は撮像画像が明るい場合、右側の(2)は撮像画像が暗い場合である。また、上側(a)は電子ペン120による操作のとき、下側(b)は指300による操作のときである。
(a)の電子ペン120のとき、(2)のように撮像画像が暗い場合には電子ペン120の発光領域は明瞭であるが、(1)のように撮像画像が明るい場合には、電子ペン120の発光領域が周囲と識別しにくくなる。一方、(b)の指300のとき、(1)のように撮像画像が明るい場合には指300に生成される影は明瞭であるが、(2)のように撮像画像が暗い場合には、指300の影は周囲と識別しにくくなる。すなわち、発光する電子ペン120と発光しない指300とを同一の撮像条件で撮像する場合、一方のオブジェクト画像のコントラストは満足できても、他方のオブジェクト画像のコントラストが低下し、接触位置の検出精度が悪化してしまう。
本実施例では、電子ペンの発光領域および指の影からそれらの接触位置を検出する際に、操作検出装置100内に画像信号処理部1(111)と画像信号処理部2(112)とを設けて、イメージセンサ101で取得した撮像画像に対して、第1の操作オブジェクト(電子ペン)と第2の操作オブジェクト(指や手)のコントラストがいずれも満足できるものとなるように画像処理を行う。以下、画像処理として輝度ゲイン調整を行う場合を例に説明する。
図4は、画像信号処理部1,2による輝度調整とコントラスト変化を説明する図である。(a)は画像信号処理部1(111)による輝度調整を、(b)は画像信号処理部2(112)による輝度調整を示す。図面右側には、各操作オブジェクト(指300と電子ペン120)近傍の輝度値の変化を示しており、破線は調整前、実線は調整後である。
図4(a)では、画像信号処理部1(111)により、イメージセンサ101で取得した撮像画像に対して画像全体が暗くなるように輝度ゲインG1を調整する。その結果、電子ペン120の発光部のコントラストを向上させることができる。すなわち、電子ペン120の周囲の輝度が低下することで、発光中心と周囲との輝度差(コントラスト)を大きくしている。
図4(b)では、画像信号処理部2(112)により、画像信号処理部1(111)で処理した画像に対して画像全体が明るくなるように輝度ゲインG2を調整する。その結果、指300の周囲の輝度が上昇することで、指300の影と周囲との輝度差が大きくなり、コントラストを向上させることができる。
なお、(a)の輝度調整に伴い、他方の操作オブジェクトである指300の周囲においても輝度が低下し、指300の影と周囲との輝度差が縮小する。ただし、その輝度差は消失しないように、言い換えれば影の輝度が周囲の輝度と同化しないように調整ゲインG1を決定する。なぜなら、輝度差が消失してしまうと、次の(b)の輝度調整において、指300の影の輝度差(コントラスト)を回復させることができなくなるからである。
画像信号処理部1(111)および画像信号処理部2(112)における調整量(ゲインG1,G2)は、調整前に一度撮像した画像を用いてその最適値を決定するのがよい。また、予め指300と電子ペン120の操作領域が操作面内で分離している場合には、画像信号処理部1,2におけるゲイン調整に関しては、それぞれの操作領域において異なるゲイン値を設定してもよい。
なお、前段の画像信号処理部1(111)で行う画像処理機能は、制御部109からイメージセンサ101に制御信号を送り、露光時間を調整するなどの方法によって実現してもよい。
この構成により、発光する第1の操作オブジェクト(電子ペン)と発光しない第2の操作オブジェクト(指や手)を用いて操作入力を行う場合に、それぞれの検出に適した画像のコントラストを実現して、操作オブジェクトを検出することが可能となる。各検出処理における画像のコントラストが向上することで、接触点の検出精度が向上し、操作性が向上する効果が得られる。
以下、それぞれの操作オブジェクトの操作検出法について説明する。まず、電子ペン120(第1操作オブジェクト)による操作検出法を説明する。
図5は、電子ペンの構成と動作の一例を示す図である。(a)は電子ペン120の構造を示し、発光素子121と、先端接触検出部122と、発光制御部123を有する。先端接触検出部122はハードウェアや感圧センサ等で構成され、電子ペン120の先端が壁面等に接触しているか否かを判定する。なお、先端接触検出部122は、同様の結果を得るために異なるセンサを用いてもよい。発光制御部123はハードウェアやソフトウェア等で構成され、先端接触検出部122の判定結果に基づいて、発光素子121の発光を制御する。
(b)は電子ペン120の先端が接触していない場合で、発光素子121を消灯するように制御する。(c)は電子ペン120の先端が接触している場合で、発光素子121を点灯するように制御する。なお、(b)の電子ペン120の先端が接触していない場合は、発光素子121が点滅するように制御してもよい。あるいは、接触時と非接触時で、発光素子121が異なる周波数で点滅するように制御を行ってもよい。いずれにせよ、接触時と非接触時で、発光素子121の発光状態が異なるように制御を行えばよい。
なお、イメージセンサ101と発光素子121はそれぞれ赤外カメラと赤外照明で構成し、赤外画像を撮像することで後述するペンの接触位置を検出する処理を行ってもよい。また、赤外カメラと赤外照明で構成する場合に、赤外カメラの構成にフィルタを追加し、赤外領域でない光を一部あるいは全て遮蔽して撮像するようにしてもよい。
図6は、電子ペンと壁面の接触位置の検出を説明する図である。ペン先接触点検出部115は、電子ペン120と壁面201との接触点を検出する処理を行う。図6(a)は処理フローを示し、図6(b)と(c)は接触点の求め方を説明する図である。
S501では、ペン先抽出部114は、画像信号処理部1(111)によって処理された画像について、明るく発光する領域が検出されているか否かを判定する。検出されている場合はS502に進み、検出されていない場合は一連のフローを終了する。
S502では、ペン先接触点検出部115は、検出された発光領域511が所定の条件を満たすか否かを判定する。図6(b)には電子ペン120のペン先が発光した状態(発光領域511)を示し、図6(c)には発光領域511の判定条件を示す。発光領域511の面積S、周囲長L、縦方向の最大長H、横方向の最大長W、縦横比R等の値が、上限値と下限値の間に収まるか否かを判定する。この条件は、発光領域が電子ペン120の発光のみに起因するように設定されている。判定の結果、条件を満たす場合はS503に進み、条件を満たさない場合はS504に進む。
S503では、図6(b)に示すように、発光領域511の重心510をペン先の接触点として検出する。あるいは、発光領域511の周上の点群の重心位置をペン先の接触点として検出してもよい。
S504では、発光領域は電子ペン120によるものではないと判定する。S503もしくはS504の処理が終わると、一連のフローを終了する。
ここではS501〜S504の処理をそれぞれ一度ずつ実行する一巡のフローを示すが、実際にはS503、S504の後はS501に戻り、このフローを繰り返すものとする。
本実施例では、画像信号処理部1(111)による輝度調整の結果、発光領域511と周囲の輝度差(コントラスト)が十分得られるので、S501やS502での判定誤りが少なくなり、S503では接触点の位置を精度良く検出することができる。なお、ペン先接触点検出部115における処理は、同様の結果を得るための他の画像処理のアルゴリズムを用いてもよい。
次に、指や手(第2操作オブジェクト)による操作検出法を説明する。
図7〜図9は、照明102あるいは照明103を点灯した際に、指300と壁面201との接触有無による影の形状の違いの一例を示す図である。
図7(a)は指300が壁面201に接触していない場合の影の形状を示す。照明103が点灯している場合には照明103によって投影される影301ができ、照明102が点灯している場合には照明102によって投影される影302ができる。影301と影302は互いに離れた状態となる。図7(b)は、図7(a)に示すような影ができる原理を説明している。投射面上方から見た場合、照明103が照射する光が指300で遮断され、壁面201上に影301ができる。また、照明102が照射する光が指300で遮断され、壁面201上に影302ができる。したがって、イメージセンサ101が撮像する画像において、影301と影302はそれぞれが離れた状態となる。
一方、図8(a)は指300が壁面201に接触している場合の影の形状を示す。影301と影302は、指300の指先の位置で接近した状態となる。図8(b)は、図8(a)に示すような影ができる原理を説明している。投射面上方から見た場合、照明103が照射する光が指300で遮断され、壁面201上に影301ができる。また、照明102が照射する光が指300で遮断され、壁面201上に影302ができる。したがって、イメージセンサ101が撮像する画像において、影301と影302は指先の位置で接近した状態となる。
図9は、指の接近度と影301,302の生成位置をまとめて示した図である。指300と壁面201との距離が最も近い場合(接触時)では、影301と影302は指先の位置で接近した状態となる。指300と壁面201が離れるにつれて、影301と影302との距離は次第に大きくなる。また、指300と壁面201との距離が遠い場合には、影301と影302は指300から離れた状態となる。このように、影301と影302との距離は、指300と壁面201との距離(接近度)に対応している。
図10は、指と壁面の接触位置の検出を説明する図である。指先接触点検出部108は、指300と壁面201との接触点を検出する処理を行う。図10(a)は処理フローを示し、図10(b)は接触点の求め方を説明する図である。
S601では、輪郭検出部107は指300の影301,302の先端611,612を検出する。S602では、指先接触点検出部108は先端611と先端612の距離を計算し、距離が予め定めた値(所定値)以下であるか否かを判定する。所定値以下である場合はS603に進み、所定値より大きい場合はS604に進む。
S603では、指300が壁面201に接触していると判定し、図10(b)に示すように、先端611と先端612の中点610を指300と壁面201との接触点として検出する。
S604では、指300は壁面201には接触していないと判定する。S603もしくはS604の処理が終わると、一連のフローを終了する。
ここではS601〜S604の処理をそれぞれ一度ずつ実行する一巡のフローを示すが、実際にはS603、S604の後はS601に戻り、このフローを繰り返すものとする。
本実施例では、画像信号処理部2(112)による輝度調整の結果、2つの影301,302と周囲の輝度差(コントラスト)が十分得られるので、S601やS602での検出・判定誤りが少なくなり、S603では接触点の位置を精度良く検出することができる。
このように実施例1によれば、発光する第1の操作オブジェクトと発光しない第2の操作オブジェクトを1台のイメージセンサを用いて撮像して検出する場合、各検出処理においてそれぞれの操作オブジェクトの検出に適したコントラストを実現することができる。操作オブジェクトのコントラストが向上することで、接触点検出精度が向上し、操作性が向上する効果が得られる。また、本実施例の操作検出装置を用いることで、いずれの操作オブジェクトであっても、また、操作面が壁面やテーブル等のようにどのような面であっても利用可能となる効果が得られる。
なお、図1で示した操作検出装置100の構成では、符号101〜115で示す各部は独立しているが、必要に応じて1または複数の構成要件で構成してもよい。例えば、105〜115は1または複数の中央処理装置(CPU)でその処理を行うように構成してもよい。また、図1では101〜115の各部を全て操作検出装置100の内部に構成しているが、1または複数の構成要件を操作検出装置100の外部に構成し、ネットワーク接続やユニバーサルシリアルバス(USB)接続や、その他の有線、無線接続によって操作検出装置100に結合してもよい。
例えば、図11は図1の変形例を示す構成図である。図11では、イメージセンサ101、画像信号処理部1(111)、照明102,103、スイッチ104について、操作検出装置100とは別のカメラ/照明モジュール130として構成している。そして、操作検出装置100とモジュール130とをUSB等で接続したものである。
実施例2では、実施例1における画像信号処理部2を廃止し、ペン先抽出部114の前段に画像信号処理部3を配置する構成とした。
図12は、実施例2における操作検出装置を用いた映像表示システムの構成を示す図である。実施例1(図1)と異なる点は、影領域抽出部106の前段にあった画像信号処理部2(112)を廃止し、代わりにペン先抽出部114の前段に画像信号処理部3(113)を配置したことである。
この構成において、前段の画像信号処理部1(111)では影領域抽出部106での影領域抽出処理を容易にするため、画像全体が明るくなるように画像処理を行う。一方、後段の画像信号処理部3(113)では、ペン先抽出部114でのペン先抽出処理を容易にするため、画像信号処理部1(111)で処理された画像を、画像全体が暗くなるように画像処理を行う。すなわち、実施例1の図4を用いて説明すると、画像信号処理部1(111)では図4(b)のゲイン調整G2に対応する調整を行い、画像信号処理部3(113)では図4(a)のゲイン調整G1に対応する調整を行うようにする。
なお、画像信号処理部1(111)による輝度調整に伴い、電子ペン120の発光部と周囲との輝度差が縮小するが、その輝度差は消失しないように、言い換えれば発光部の輝度が周囲の輝度と同化しないように調整ゲインを決定する。なぜなら、輝度差が消失してしまうと、次の画像信号処理部3(113)の輝度調整において、電子ペン120の発光部の輝度差(コントラスト)を回復させることができないからである。
実施例2の構成においても、電子ペンのペン先発光および指の影から接触を検出する際に、画像信号処理部1と画像信号処理部3とにより適切な輝度調整を行うことで、それぞれの検出に最適な画像のコントラストを実現し、いずれの検出精度も向上する。すなわち、実施例1と同様の効果が得られる。
なお、実施例1と実施例2の構成は、使用環境に応じて選択するのがよい。前記実施例1の構成は、外光が暗く撮像画像が暗いとき、または投射面の反射率が低いときに適している。なぜなら、初段の画像信号処理部1(111)で行う輝度調整量(ゲインG1の減少幅)が少なく、処理後の画像の劣化が少ないからである。逆に実施例2の構成は、外光が明るく撮像画像が明るいとき、または投射面の反射率が高いときに適している。なぜなら、初段の画像信号処理部1(111)で行う輝度調整量(ゲインG2の増加幅)が少なく、処理後の画像の劣化が少ないからである。
実施例3では、実施例1の構成において、ペン先抽出部114の前段にさらに画像信号処理部3を追加する構成とした。すなわち、3個の画像信号処理部を備える構成である。
図13は、実施例3における操作検出装置を用いた映像表示システムの構成を示す図である。実施例1(図1)と異なる点は、ペン先抽出部114の前段にも画像信号処理部3(113)を配置したことである。
この構成において、前段の画像信号処理部1(111)では影領域抽出処理を容易にするため、画像全体が少し明るくなるように画像処理(前処理)を行う。後段の画像信号処理部2(112)では、影領域抽出部106での影領域抽出処理を容易にするため、画像信号処理部1(111)で処理された画像を、画像全体がさらに明るくなるように画像処理を行う。一方、後段の画像信号処理部3(113)では、ペン先抽出部114でのペン先抽出処理を容易にするため、画像信号処理部1(111)で処理された画像を、画像全体が暗くなるように画像処理を行う。
すなわち、実施例1の図4を用いて説明すると、後段の画像信号処理部2(112)では図4(b)のゲイン調整G2に対応する調整を行い、後段の画像信号処理部3(113)では図4(a)のゲイン調整G1に対応する調整を行う。なお、入力する撮像画像が明るい場合には、前段の画像信号処理部1(111)では少し暗くなるように画像処理(前処理)を行ってもよい。
実施例3の構成においても、電子ペンのペン先発光および指の影から接触を検出する際に、画像信号処理部2と画像信号処理部3とにより適切な輝度調整を行うことで、それぞれの検出に最適な画像のコントラストを実現し、いずれの検出精度も向上する。
なお、実施例3における画像信号処理部2と画像信号処理部3は、いずれも最終の処理となるのでゲイン調整には制約がなく、前記実施例1,2と比べて、より理想的な画像のコントラストを得ることができる。すなわち、画像信号処理部2では影領域抽出処理に特化できるので、他方のペン先抽出処理において発光部の輝度が周囲と同化しても構わない。また、画像信号処理部3ではペン先抽出処理に特化できるので、他方の影領域抽出処理における影の輝度が周囲と同化しても構わないからである。
実施例4は、実施例3の操作検出装置において操作モードを切り替え可能に構成したものである。すなわち、電子ペン(第1の操作オブジェクト)のみを用いて操作するモードと、指(第2の操作オブジェクト)のみを用いて操作するモードと、電子ペンと指の両方を用いるモードとを、切り替え可能にしている。
図14は、実施例4における操作検出装置を用いた映像表示システムの構成を示す図である。実施例3(図13)と異なる点は、操作モード制御部116を新たに追加したことである。操作モード制御部116は、出力部110から出力された検出結果データ140(電子ペン及び指先の接触点情報)、もしくは外部からのユーザ入力をもとに現在の操作モードを決定する。本例では操作モードとして、電子ペンのみによる操作を検出する第1の操作モード、指のみによる操作を検出する第2の操作モード、電子ペンと指と両方の操作を検出する第3の操作モードを設けている。
操作モード制御部116は、決定した現在の操作モードにしたがい、モード切替信号を制御部109に送る。制御部109はモード切替信号に従い、画像信号処理部1(111)、画像信号処理部2(112)、および画像信号処理部3(113)に対し、操作モードに応じた画像処理を実行するように制御する。すなわち、各画像信号処理部1,2,3に対しゲイン調整状態を切り替えて設定する。
図15は、各操作モードにおけるゲイン調整状態の一例を示す図である。電子ペンによる発光のみを検出する第1の操作モードでは、画像信号処理部1では画像が暗くなるように調整し(ゲインG1が負(−))、画像信号処理部2,3では調整なし(ゲインG2,G3=0)とする。指による影のみを検出する第2の操作モードでは、画像信号処理部1では画像が明るくなるように調整し(ゲインG1が正(+))、画像信号処理部2,3では調整なし(ゲインG2,G3=0)とする。また、電子ペンの発光と指の影の両方を検出する第3の操作モードでは、前記実施例3で説明したように、画像信号処理部1,2では画像が明るくなるように調整し(ゲインG1,G2が正(+))、画像信号処理部3では画像が暗くなるように調整する(ゲインG3が負(−))。このように、各操作モードに応じて各画像信号処理部1,2,3のゲイン調整状態は異なるものとなっている。
実施例4によれば、電子ペンのペン先発光および指の影から接触を検出する際に、操作モードに応じて各画像信号処理部1,2,3のゲイン調整状態を切り替えて動作させ、それぞれの検出に最適な画像のコントラストを実現できる。これにより、各検出処理における接触点の検出精度が向上し、操作性が向上する効果が得られる。
上記した各実施例は、本発明を分かり易く説明するために装置及びシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることは可能であり、さらにはある実施例の構成に他の実施例の構成を加えることも可能である。
各実施例における画像信号処理部は、画像信号に対し輝度ゲインを調整するものとして説明したが、その他ガンマ調整などを含め、コントラストを調整可能であればいずれも適用できる。このうち、初段の画像信号処理部は、イメージセンサ101における露光時間を制御してコントラストを調整するものであってもよい。
100:操作検出装置、
101:イメージセンサ(撮像部)、
102,103:照明、
104:スイッチ、
105:フレーム検出部、
106:影領域抽出部、
107:輪郭検出部、
108:指先接触点検出部、
109:制御部、
110:出力部、
111:画像信号処理部1、
112:画像信号処理部2、
113:画像信号処理部3、
114:ペン先抽出部、
115:ペン先接触点検出部、
116:操作モード制御部、
120:電子ペン(第1操作オブジェクト)、
121:発光素子、
130:モジュール、
140:検出結果データ、
150:プロジェクタ、
151:映像入力部、
152:投射映像処理部、
153:映像投射部、
200:ユーザ、
201:壁面、
202:撮像範囲、
300:指(第2操作オブジェクト)、
301,302:影、
510,610:接触点。

Claims (10)

  1. 第1の操作オブジェクトの発光検出または反射光検出に基づく第1の操作検出処理と、照明光の照射による第2の操作オブジェクトの影検出に基づく第2の操作検出処理を行う操作検出装置であって、
    前記第1の操作オブジェクトと前記第2の操作オブジェクトの画像を撮像する撮像部と、
    前記撮像部で撮像した撮像画像のコントラスト調整または前記撮像部で撮像する際のコントラスト調整を行う画像信号処理部と、
    前記コントラスト調整を施した撮像画像を用いて、前記第1の操作検出処理と前記第2の操作検出処理を実行する操作検出部と、を備え、
    前記画像信号処理部の施すコントラスト調整状態は、前記第1の操作検出処理に用いる撮像画像の場合と、前記第2の操作検出処理に用いる撮像画像の場合とで異なることを特徴とする操作検出装置。
  2. 請求項1に記載の操作検出装置であって、
    複数の操作検出モードを切り替え可能な制御部を備え、
    前記操作検出モードとして、前記第1の操作検出処理を実行し前記第2の操作検出処理を実行しない第1の操作モードと、前記第2の操作検出処理を実行し前記第1の操作検出処理を実行しない第2の操作モードと、前記第1の操作検出処理と前記第2の操作検出処理の両方を実行する第3の操作モードと、を有し、
    前記制御部は前記画像信号処理部に対し、前記第1の操作モード、前記第2の操作モード、前記第3の操作モードに応じて、互いに異なる3通りのコントラスト調整状態を設定すること特徴とする操作検出装置。
  3. 請求項1に記載の操作検出装置であって、
    前記画像信号処理部として、前記第1の操作検出処理と前記第2の操作検出処理のために、互いに異なるコントラスト調整を行う少なくとも2つの信号処理部を有することを特徴とする操作検出装置。
  4. 請求項1に記載の操作検出装置であって、
    前記画像信号処理部の行うコントラスト調整は、前記撮像部で撮像した撮像画像のゲイン調整であることを特徴とする操作検出装置。
  5. 請求項1に記載の操作検出装置であって、
    前記画像信号処理部の行うコントラスト調整は、前記撮像部で撮像した撮像画像のガンマ調整であることを特徴とする操作検出装置。
  6. 請求項1に記載の操作検出装置であって、
    前記画像信号処理部の行うコントラスト調整は、前記撮像部で撮像する際の露光時間調整を含むことを特徴とする操作検出装置。
  7. 請求項1に記載の操作検出装置により検出したユーザの操作に基づきプロジェクタが投射する映像を制御する映像表示システムであって、
    前記プロジェクタは、
    投射する映像信号の処理を行う投射映像処理部と、
    前記映像信号を投射映像光に変換して投射面に投射する映像投射部と、を備え、
    前記操作検出装置は前記プロジェクタへ、前記操作検出部による検出結果データを送信し、
    前記投射映像処理部は、受信した前記検出結果データに基づき、前記映像投射部から投射する映像の切り替えや表示形式の変更を行うことを特徴とする映像表示システム。
  8. 請求項7に記載の映像表示システムであって、
    前記操作検出装置は、複数の操作検出モードを切り替え可能な制御部を備え、
    前記操作検出モードとして、前記第1の操作検出処理を実行し前記第2の操作検出処理を実行しない第1の操作モードと、前記第2の操作検出処理を実行し前記第1の操作検出処理を実行しない第2の操作モードと、前記第1の操作検出処理と前記第2の操作検出処理の両方を実行する第3の操作モードと、を有し、
    前記制御部は前記画像信号処理部に対し、前記第1の操作モード、前記第2の操作モード、前記第3の操作モードに応じて、互いに異なる3通りのコントラスト調整状態を設定すること特徴とする映像表示システム。
  9. 第1の操作オブジェクトの発光検出または反射光検出に基づく第1の操作検出処理と、照明光の照射による第2の操作オブジェクトの影検出に基づく第2の操作検出処理を行う操作検出方法であって、
    前記第1の操作オブジェクトと前記第2の操作オブジェクトの画像を撮像する撮像ステップと、
    前記撮像ステップで撮像した撮像画像のコントラスト調整または前記撮像ステップで撮像する際のコントラスト調整を行う信号処理ステップと、
    前記コントラスト調整を施した撮像映像を用いて、前記第1の操作検出処理と前記第2の操作検出処理を実行する操作検出ステップと、を備え、
    前記信号処理ステップにおけるコントラスト調整状態は、前記第1の操作検出処理に用いる撮像画像の場合と、前記第2の操作検出処理に用いる撮像画像の場合とで異なることを特徴とする操作検出方法。
  10. 請求項9に記載の操作検出方法であって、
    操作検出モードとして、前記第1の操作検出処理を実行し前記第2の操作検出処理を実行しない第1の操作モードと、前記第2の操作検出処理を実行し前記第1の操作検出処理を実行しない第2の操作モードと、前記第1の操作検出処理と前記第2の操作検出処理の両方を実行する第3の操作モードと、を有し、
    前記信号処理ステップでは、前記第1の操作モード、前記第2の操作モード、前記第3の操作モードに応じて、互いに異なる3通りのコントラスト調整状態を設定すること特徴とする操作検出方法。
JP2017549949A 2015-11-13 2015-11-13 操作検出装置、操作検出方法、及び映像表示システム Active JP6538871B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/081922 WO2017081805A1 (ja) 2015-11-13 2015-11-13 操作検出装置、操作検出方法、及び映像表示システム

Publications (2)

Publication Number Publication Date
JPWO2017081805A1 true JPWO2017081805A1 (ja) 2018-08-02
JP6538871B2 JP6538871B2 (ja) 2019-07-03

Family

ID=58694861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017549949A Active JP6538871B2 (ja) 2015-11-13 2015-11-13 操作検出装置、操作検出方法、及び映像表示システム

Country Status (4)

Country Link
US (1) US10942607B2 (ja)
JP (1) JP6538871B2 (ja)
CN (1) CN108351684B (ja)
WO (1) WO2017081805A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112422934A (zh) * 2019-08-23 2021-02-26 中强光电股份有限公司 投影装置及其亮度调整方法
JP7135144B1 (ja) * 2021-03-18 2022-09-12 東芝エレベータ株式会社 エレベータの利用者検知システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001052230A1 (en) * 2000-01-10 2001-07-19 Ic Tech, Inc. Method and system for interacting with a display
WO2008083205A2 (en) 2006-12-29 2008-07-10 Gesturetek, Inc. Manipulation of virtual objects using enhanced interactive system
JP2010112990A (ja) 2008-11-04 2010-05-20 Nikon Corp プロジェクタ
JP4690473B2 (ja) * 2009-03-06 2011-06-01 シャープ株式会社 画像解析装置、画像解析方法、撮像装置、画像解析プログラムおよび記録媒体
JP2010257089A (ja) 2009-04-22 2010-11-11 Xiroku:Kk 光学式位置検出装置
JP2012068690A (ja) 2010-09-21 2012-04-05 Univ Of Tsukuba 手指ジェスチャ検出装置
JP6011157B2 (ja) * 2011-09-05 2016-10-19 株式会社リコー 投影システム、投影装置、センサ装置、発電制御方法及び発電制御プログラム
JP5849560B2 (ja) 2011-09-20 2016-01-27 セイコーエプソン株式会社 表示装置、プロジェクター、及び、表示方法
JP2013141105A (ja) 2011-12-29 2013-07-18 Nikon Corp 画像処理装置および電子カメラ、並びに画像処理プログラム
CA2862470C (en) * 2012-01-11 2018-10-23 Smart Technologies Ulc Calibration of an interactive light curtain
TWI501021B (zh) * 2012-11-26 2015-09-21 Everest Display Inc 互動式投影系統及其光標的座標校正方法
US10216381B2 (en) * 2012-12-25 2019-02-26 Nokia Technologies Oy Image capture
JP6037901B2 (ja) * 2013-03-11 2016-12-07 日立マクセル株式会社 操作検出装置、操作検出方法及び表示制御データ生成方法
CN104423578B (zh) * 2013-08-25 2019-08-06 杭州凌感科技有限公司 交互式输入系统和方法
JP6105075B2 (ja) 2013-10-08 2017-03-29 日立マクセル株式会社 投射型映像表示装置、操作検出装置及び投射型映像表示方法
WO2016031224A1 (ja) * 2014-08-25 2016-03-03 シャープ株式会社 画像表示装置

Also Published As

Publication number Publication date
US10942607B2 (en) 2021-03-09
CN108351684B (zh) 2020-11-10
CN108351684A (zh) 2018-07-31
WO2017081805A1 (ja) 2017-05-18
US20200174620A1 (en) 2020-06-04
JP6538871B2 (ja) 2019-07-03

Similar Documents

Publication Publication Date Title
CN107077258B (zh) 投射型影像显示装置以及影像显示方法
JP6037901B2 (ja) 操作検出装置、操作検出方法及び表示制御データ生成方法
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
JP6398248B2 (ja) 位置検出システム、及び、位置検出システムの制御方法
JP6417690B2 (ja) プロジェクター、表示装置、及び、プロジェクターの制御方法
JP6623812B2 (ja) 位置検出装置、及び、そのコントラスト調整方法
US10547792B2 (en) Control device, control method, and program for controlling light intensities
JP5956941B2 (ja) 光学コード読取システム及び光学コードの読取制御方法
US20200241697A1 (en) Position detecting method, position detecting device, and interactive projector
JP2015159529A (ja) 位置検出装置、及び位置検出方法
KR101989998B1 (ko) 가상의 터치 스크린이 구현되는 컴퓨터 입력 시스템
US20150138071A1 (en) Projector and method of controlling projector
TW201633077A (zh) 用來偵測雜訊的影像處理方法及其導航裝置
JP2018121213A (ja) 画像処理装置、画像投影装置、および画像処理方法
WO2017081805A1 (ja) 操作検出装置、操作検出方法、及び映像表示システム
JP2020160808A (ja) 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP6596501B2 (ja) 映像表示装置およびこれに用いる操作検出方法
JP6307576B2 (ja) 映像表示装置及びプロジェクタ
JP2012053603A (ja) 情報表示システム
JP2015220607A (ja) 情報処理装置、情報処理方法およびプログラム
US20200302610A1 (en) Medical image processing device, medical observation device, method of processing image, and computer readable recording medium
JP2001273484A (ja) 指示位置検出システム、プレゼンテーションシステムおよび情報記憶媒体
US11997435B2 (en) Display method and display system
WO2018211659A1 (ja) 操作検出装置、及びそれを備えた映像表示装置、映像表示方法
JP6340860B2 (ja) 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190606

R150 Certificate of patent or registration of utility model

Ref document number: 6538871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250