JP2020123118A - 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター - Google Patents

位置検出方法、位置検出装置、及び、インタラクティブプロジェクター Download PDF

Info

Publication number
JP2020123118A
JP2020123118A JP2019014290A JP2019014290A JP2020123118A JP 2020123118 A JP2020123118 A JP 2020123118A JP 2019014290 A JP2019014290 A JP 2019014290A JP 2019014290 A JP2019014290 A JP 2019014290A JP 2020123118 A JP2020123118 A JP 2020123118A
Authority
JP
Japan
Prior art keywords
image
camera
distance
operation surface
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019014290A
Other languages
English (en)
Inventor
陽 池田
Hiromi Ikeda
陽 池田
信 大谷
Makoto Otani
信 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2019014290A priority Critical patent/JP2020123118A/ja
Priority to US16/775,623 priority patent/US20200241697A1/en
Publication of JP2020123118A publication Critical patent/JP2020123118A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Projection Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

【課題】指示体と操作面との間の距離に関連する距離関連パラメーターの検出精度を向上する技術を提供する。【解決手段】位置検出方法は、(a)第1カメラと第2カメラを用いて、第1撮像画像と第2撮像画像を取得する工程と、(b)第1撮像画像と第2撮像画像から第1処理用画像と第2処理用画像を取得する工程と、(c)第1処理用画像と第2処理用画像から第1関心領域画像と第2関心領域画像を抽出する工程と、(d)第1関心領域画像と第2関心領域画像を入力とする入力層と、操作面と指示体の距離に関連する距離関連パラメーターを出力する出力層と、を有する畳み込みニューラルネットワークを用いて、距離関連パラメーターを決定する工程と、を備える。【選択図】図4

Description

本開示は、指示体の位置を検出する技術に関するものである。
特許文献1には、投写画面をスクリーンに投写するとともに、指などの指示体を含む画像をカメラで撮像し、この撮像画像を用いて指示体の位置を検出することが可能なプロジェクターが開示されている。このプロジェクターは、指示体の先端がスクリーンに接しているときに投写画面に対して描画等の所定の指示が入力されているものと認識し、その指示に応じて投写画面を再描画する。従って、ユーザーは、投写画面をユーザーインターフェースとして用いて、各種の指示を入力することが可能である。このように、スクリーン上の投写画面を入力可能ユーザーインターフェースとして利用できるタイプのプロジェクターを、「インタラクティブプロジェクター」と呼ぶ。また、指示体を用いた指示の入力に使用される表面としてのスクリーン面を「操作面」とも呼ぶ。指示体の位置は、複数のカメラで撮像された複数の画像を用いて、三角測量を利用して決定される。
特開2016−184850号公報
しかしながら、従来技術では、指示体と操作面との間の距離や、距離に関連する他の距離関連パラメーターの検出精度が必ずしも十分でないという問題があった。そこで、指示体と操作面との間の距離に関連する距離関連パラメーターの検出精度の向上が望まれていた。
本開示の一形態によれば、操作面に対する指示体の位置に関連するパラメーターを検出する位置検出方法が提供される。この位置検出方法は、(a)第1カメラを用いて、前記操作面を背景とした前記指示体を撮影して、第1撮像画像を撮影し、前記第1カメラと異なる位置に配置された第2カメラを用いて、前記操作面を背景とした前記指示体を撮影して、第2撮像画像を取得する工程と、(b)前記第1撮像画像から第1処理用画像を取得し、前記第2撮像画像から第2処理用画像を取得する工程と、(c)前記第1処理用画像と前記第2処理用画像から前記指示体をそれぞれ含む第1関心領域画像と第2関心領域画像を抽出する工程と、(d)前記第1関心領域画像を入力とする第1入力チャンネルと前記第2関心領域画像を入力とする第2入力チャンネルを含む入力層と、前記操作面と前記指示体の距離に関連する距離関連パラメーターを出力する出力層と、を有する畳み込みニューラルネットワークを用いて、前記距離関連パラメーターを決定する工程と、を備える。
本開示は、位置検出装置の形態でも実現することが可能であり、位置検出方法や位置検出装置以外の種々の形態で実現することも可能である。例えば、インタラクティブプロジェクターや、それらの方法または装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した一時的でない記録媒体等の様々な形態で実現することができる。
第1実施形態におけるインタラクティブプロジェクションシステムの斜視図。 インタラクティブプロジェクションシステムの側面図。 インタラクティブプロジェクションシステムの正面図。 インタラクティブプロジェクターの機能ブロック図。 位置検出処理の手順を示すフローチャート。 図5のステップS100〜S300の処理内容を示す説明図。 ステップS100における撮像処理の手順を示すフローチャート。 撮像処理の内容を示す説明図。 畳み込みニューラルネットワークの構成例を示す説明図。 畳み込み層による処理例を示す説明図。 第2実施形態における位置検出システムの正面図。 位置検出システムの機能ブロック図。
A. 第1実施形態
図1は、第1実施形態におけるインタラクティブプロジェクションシステム800の斜視図である。このシステム800は、インタラクティブプロジェクター100と、スクリーン板820とを有している。スクリーン板820の前面は、指示体80を用いた指示の入力に使用される操作面SSとして利用される。操作面SSは、また、投写画面PSが投写される投写面としても利用される。プロジェクター100は壁面に固定されており、スクリーン板820の前方かつ上方に設置されている。なお、図1では操作面SSを鉛直に配置しているが、操作面SSを水平に配置してこのシステム800を使用することも可能である。図1では、スクリーン板820の前方方向がZ方向で、上方方向がY方向で、右方向がX方向である。例えばZ=0として、操作面SSの平面内の位置は2次元座標系(X,Y)で検出できる。
プロジェクター100は、画像をスクリーン板820に投写する投写レンズ210と、指示体80を含む画像を撮影する2台のカメラ310,320と、指示体80を検出するための赤外光を照射し、2台のカメラ310、320に対応した2台の照明部410,420とを有する。
投写レンズ210は、操作面SS上に投写画面PSを投写する。投写画面PSは、プロジェクター100内で描画された画像を含んでいる。プロジェクター100内で描画された画像がない場合には、プロジェクター100から投写画面PSに光が照射されて、白色画像が表示される。本明細書において、「操作面SS」とは、指示体80を用いた指示の入力に使用される表面を意味する。また、「投写画面PS」とは、プロジェクター100によって操作面SS上に投写された画像の領域を意味する。
このシステム800では、1つ又は複数の非発光の指示体80を利用可能である。指示体80としては、指やペンなどの非発光の物体を使用可能である。また、非発光の指示体80の指示のための先端部は、赤外光に対する反射特性にすぐれ、さらには再帰反射特性を有することが好ましい。
第1カメラ310と第2カメラ320は、それぞれ操作面SSの全体を撮影可能に設定され、操作面SSを背景とした指示体80の画像をそれぞれ撮影する機能を有する。すなわち、第1カメラ310と第2カメラ320は、第1照明部410と第2照明部420から照射された赤外光のうち、操作面SSと指示体80で反射された光を受光することによって指示体80を含む画像を作成する。第1カメラ310と第2カメラ320で撮影された2つの画像を用いると、三角測量等によって指示体80の3次元位置を求めることが可能である。なお、カメラの台数は3以上でもよい。
第1照明部410は、第1カメラ310の光軸の周囲を赤外光で照明する周囲照明部としての機能を有する。図1の例では、第1照明部410は、第1カメラ310の周囲を囲うように配置された4つの照明素子を含んでいる。第1照明部410は、第1カメラ310で指示体80の画像を撮影するときに、第1照明部410による指示体80の影が実質的に生じないように構成されている。ここで、「影が実質的に生じない」とは、その画像を使用して指示体80の3次元位置を求める処理に対して、指示体80の影の影響が無い程度に影が薄いことを意味する。第2照明部420も、第1照明部410と同様の構成及び機能を有しており、第2カメラ320の光軸の周囲を赤外光で照明する周囲照明部としての機能を有する。
第1照明部410を構成する照明素子の数は、4つに限らず、2つ以上の任意の数としてもよい。但し、第1照明部410を構成する複数の照明素子は、第1カメラ310を中心とした回転対称の位置に配置されることが好ましい。また、複数の照明素子を用いる代わりに、リング状の照明素子を用いて第1照明部410を構成してもよい。更に、第1照明部410として、第1カメラ310のレンズを通して赤外光を出射する同軸照明部を用いるようにしても良い。これらの変形例は、第2照明部420にも適用可能である。なお、Nを2以上の整数として、N台のカメラを設ける場合には、各カメラに対して周囲照明部又は同軸照明部をそれぞれ設けることが好ましい。
図2は、インタラクティブプロジェクションシステム800の側面図であり、図3はその正面図である。本明細書では、操作面SSの左端から右端に向かう方向をX方向と定義し、操作面SSの下端から上端に向かう方向をY方向と定義し、操作面SSの法線に沿った方向をZ方向と定義している。なお、便宜上、X方向を「幅方向」とも呼び、Y方向を「上方向」とも呼び、Z方向を「距離方向」とも呼ぶ。なお、図2では、図示の便宜上、スクリーン板820のうちの投写画面PSの範囲にハッチングを付している。投写画面PSが投写される操作面SSの座標位置は、例えばZ=0として、2次元座標系(X、Y)の2次元座標として検出できる。また、第1カメラ310の撮影画像の2次元座標系(V、U)と第2カメラ320の撮影画像の2次元座標系(η、ξ)は、第1カメラ310と第2カメラ320の配置や特性からそれぞれ異なり、また、投写画面PSおよび操作面SSの座標系(X、Y)とも異なる。これらの座標系は、キャリブレーション処理により、変換係数等を求め、対応付けられる。
図3の例は、インタラクティブプロジェクションシステム800がホワイトボードモードで動作している様子を示している。ホワイトボードモードは、指示体80を用いて投写画面PS上にユーザーが任意に描画できるモードである。操作面SS上には、ツールボックスTBを含む投写画面PSが投写されている。このツールボックスTBは、処理を元に戻す取消ボタンUDBと、マウスポインターを選択するポインターボタンPTBと、描画用のペンツールを選択するペンボタンPEBと、描画された画像を消去する消しゴムツールを選択する消しゴムボタンERBと、画面を次に進めたり前に戻したりする前方/後方ボタンFRBと、を含んでいる。ユーザーは、指示体80を用いてこれらのボタンをクリックすることによって、そのボタンに応じた処理を行ったり、ツールを選択したりすることが可能である。なお、システム800の起動直後は、マウスポインターがデフォールトツールとして選択されるようにしてもよい。図3の例では、ユーザーがペンツールを選択した後、指示体80の先端部を操作面SSに接した状態で投写画面PS内で移動させることにより、投写画面PS内に線が描画されてゆく様子が描かれている。この線の描画は、後述する投写画像作成部によって行われる。
なお、インタラクティブプロジェクションシステム800は、ホワイトボードモード以外の他のモードでも動作可能である。例えば、このシステム800は、図示しないパーソナルコンピューターから通信回線を介して転送されたデータの画像を投写画面PSに表示するPCインタラクティブモードでも動作可能である。PCインタラクティブモードにおいては、例えば表計算ソフトウェアなどのデータの画像が表示され、その画像内に表示された各種のツールやアイコンを利用してデータの入力、作成、修正等を行うことが可能となる。
図4は、インタラクティブプロジェクター100の機能ブロック図である。プロジェクター100は、制御部700と、投写部200と、投写画像生成部500と、位置検出部600と、撮像部300と、赤外照明部400と、を有している。撮像部300は、第1カメラ310と第2カメラ320を含み、赤外照明部400は、第1照明部410と第2照明部420を含む。
制御部700は、プロジェクター100の各部の制御を行う。また、制御部700は、撮像部300と赤外照明部400とを用いて指示体80の画像を取得する撮影制御部710としての機能を有する。更に、制御部700は、位置検出部600で検出された指示体80によって投写画面PS上で行われた指示の内容を認識するとともに、その指示の内容に従って投写画像を作成又は変更することを投写画像生成部500に指令する操作実行部720としての機能を有する。
投写画像生成部500は、投写画像を記憶する画像メモリー510を有しており、投写部200によって操作面SS上に投写される投写画像を生成する機能を有する。投写画像生成部500は、更に、投写画面PSの台形歪みを補正するキーストーン補正部としての機能を有することが好ましい。
投写部200は、投写画像生成部500で生成された投写画像を操作面SS上に投写する機能を有する。投写部200は、図2で説明した投写レンズ210の他に、光変調部220と、光源230とを有する。光変調部220は、画像メモリー510から与えられる投写画像データに応じて光源230からの光を変調することによって投写画像光IMLを形成する。この投写画像光IMLは、典型的には、RGBの3色の可視光を含むカラー画像光であり、投写レンズ210によって操作面SS上に投写される。なお、光源230としては、超高圧水銀ランプ等の光源ランプの他、発光ダイオードやレーザーダイオード等の種々の光源を採用可能である。また、光変調部220としては、透過型又は反射型の液晶パネルやデジタルミラーデバイス等を採用可能であり、色光別に複数の光変調部220を備えた構成としてもよい。
赤外照明部400は、図1で説明した第1照明部410と第2照明部420とを有する。第1照明部410と第2照明部420は、指示体80の先端部を検出するための照射検出光IDLを操作面SSとその前方の空間にわたってそれぞれ照射することが可能である。照射検出光IDLは赤外光である。後述するように、第1照明部410と第2照明部420は、排他的なタイミングで点灯する。
撮像部300は、図2で説明した第1カメラ310と第2カメラ320とを有している。2台のカメラ310,320は、照射検出光IDLの波長を含む波長領域の光を受光して撮像する機能を有する。図4の例では、赤外照明部400によって照射された照射検出光IDLが指示体80で反射され、その反射検出光RDLが2台のカメラ310,320によって受光されて撮像される様子が描かれている。
位置検出部600は、第1カメラ310が撮影して、取得された第1撮像画像と,第2カメラ320で撮像して、取得された第2撮像画像を用いて、指示体80の先端部の位置を求める機能を有する。位置検出部600は、処理用画像取得部610と、関心領域抽出部620と、畳み込みニューラルネットワーク630とを含む。これらは、モデルとして、位置検出部の記憶領域に格納されてもよい。これらは、モデルとして、位置検出部の記憶領域に格納されてもよい。処理用画像取得部610は、2台のカメラ310,320で撮影された2つの撮像画像から、関心領域抽出部620の処理対象となる2つの処理用画像である第1処理用画像と第2処理用画像を取得する。一実施例では、処理用画像取得部610は、2台のカメラ310,320で撮影された2つの撮像画像に対してステレオキャリブレーションを行うことによって2つの較正画像を作成し、その2つの較正画像を2つの処理用画像として取得する。関心領域抽出部620は、2つの処理用画像から、指示体80をそれぞれ含む2つの関心領域画像である第1関心領域画像と第2関心領域画像を抽出する。畳み込みニューラルネットワーク630は、2つの関心領域画像を入力とする入力層と、操作面SSと指示体80の距離に関連する距離関連パラメーターを出力する出力層とを有するように構成されている。これらの各部610〜630の機能の詳細は後述する。
制御部700の各部の機能と位置検出部600の各部の機能は、例えば、プロジェクター100内のプロセッサーがコンピュータープログラムを実行することによって実現される。また、これらの各部の機能の一部をFPGA(field-programmable gate array)等のハードウェア回路で実現してもよい。
図5は、実施形態における位置検出処理の手順を示すフローチャートであり、図6は、図5のステップS100〜S300の処理内容を示す説明図である。この処理は、インタラクティブプロジェクションシステム800の稼働中に繰り返し実行される。
ステップS100では、撮像部300が操作面SSを背景とした指示体80を撮影することによって、複数の画像を取得する。
図7は、図5のステップS100における撮像処理の手順を示すフローチャートであり、図8は、撮像処理の内容を示す説明図であり、第1画像IM1_1とIM1_2は、第1カメラ310で撮影された2次元座標系(U、V)で示され、第2画像IM2_1とIM2_2は、第2カメラ320で撮影された2次元座標系(η、ξ)で示される。図7の手順は、撮影制御部710の制御の下で実行される。
ステップS110では、第1照明部410がオンで第2照明部420がオフの状態とする。ステップS120では、第1カメラ310と第2カメラ320を用いて画像を撮影する。この結果、図8の上段に示す第1画像IM1_1及び第2画像IM2_1が取得される。第1画像IM1_1の周囲を囲う破線は強調のために付したものである。これらの画像IM1_1,IM2_1は、いずれも操作面SSを背景とした指示体80を含む画像である。図1で説明したように、第1照明部410は、第1カメラ310で指示体80の画像を撮影するときに、第1照明部410による指示体80の影が実質的に生じないように構成されている。従って、ステップS120で取得された2つの画像のうち、第1画像IM1_1は、第1照明部410が点灯した時に第1カメラ310が撮影した撮像画像であり、指示体80の影を実質的に含んでいない。一方、第2画像IM2_1は、第2照明部42が消灯した時に第2カメラ320が撮影した撮像画像であり、指示体80の影SH1を含んでいる。この第2画像IM2_1は、撮影しなくてもよい。
ステップS130では、第1照明部410がオフで第2照明部420がオンの状態とする。ステップS140では、第1カメラ310と第2カメラ320を用いて画像を撮影する。この結果、図8の中段に示す第1画像IM1_2及び第2画像IM2_2が取得される。第2照明部420は、第2カメラ320で指示体80の画像を撮影するときに、第2照明部420による指示体80の影が実質的に生じないように構成されている。従って、ステップS140で取得された2つの画像のうち、第2画像IM2_2は、第2照明部420が点灯した時に第2カメラ320が撮影した画像であり、指示体80の影を実質的に含んでいない。一方、第1画像IM1_2は、第1照明部410が消灯した時に第1カメラ310が撮影した画像であり、指示体80の影SH2を含んでいる。この第1画像IM1_2は、撮影しなくてもよい。
ステップS120及びステップS140における撮影が終了すると、図8の下段に示すように、第1カメラ310で撮影された実質的に影の無い第1画像IM1_1と、第2カメラ320で撮影された実質的に影の無い第2画像IM2_2とが得られる。第1画像IM1_1は、第1撮像画像であり、第2画像IM2_2は、第2撮像画像である。図7のステップS150では、2つの照明部410,420がオフ状態とされてステップS100の処理を終了し、次の撮影まで待機する。なお、ステップS150は省略してもよい。また、図7の処理が終了した後に、直ちに図7の処理を再開するようにしてもよい。
こうしてステップS100の処理が終了すると、図5のステップS200において、処理用画像取得部610が、ステップS100で得られた2つの画像IM1_1,IM2_2から、関心領域抽出部620の処理対象となる2つの処理用画像を取得する。処理用画像の取得方法としては、例えば、以下の方法1〜3のいずれかを選択することができる。
<方法1>
2つの画像IM1_1,IM2_2についてステレオキャリブレーションを行うことによって2つの較正画像を作成し、これらの2つの較正画像を処理用画像とする。
本実施形態では、「ステレオキャリブレーション」として、操作面SSにおける視差がゼロになるように、2つの画像IM1_1,IM2_2の一方の座標を調整する処理を行う。例えば、座標系(U,V)である第1画像IM1_1を基準画像とし、第2画像IM2_2を比較画像として視差を算出する場合には、第2画像IM2_2の座標系(η、ξ)を座標系(U,V)に調整することによって、操作面SS上において第1画像IM1_1と第2画像IM2_2の視差がゼロになるようにキャリブレーションを行うことができる。このステレオキャリブレーションに必要な変換係数等のキャリブレーションパラメーターは、予め決定されて較正実行部610に設定されている。前述した図6の上段に示す2つの画像IM1,IM2は、ステレオキャリブレーション後の2つの較正画像を示している。但し、これらの較正画像IM1,IM2では、指示体80を簡略化して描いている。また、(X、Y)座標系である投写画面PSを基準画像として、第1カメラ310で撮影された第1画像IM1_1と第2カメラ320で撮影された第2画像IM2_2のそれぞれの較正画像IM1,IM2を作成し、ステレオキャリブレーションを行ってもよい。この場合、第1画像IM1の2次元座標系(U,V)を投写画像PSの2次元座標系(X,Y)に変換するキャリブレーションパラメーターと、第2画像IM2の2次元座標系(η,ξ)を投写画像PSの2次元座標系(X,Y)に変換するキャリブレーションパラメーターが、予め決定されて較正実行部610に設定されている。第1実施形態では、この方法1によって得られた2つの較正画像IM1,IM2を関心領域抽出部620の処理対象となる2つの処理用画像として使用する。
<方法2>
2つの画像IM1_1,IM2_2そのものを2つの処理用画像として取得する。
<方法3>
2つの画像IM1_1,IM2_2に対して歪み補正や平行化などの前処理を実行することによって、2つの処理用画像を作成する。
発明者らの実験によれば、上記方法1〜方法3のうち、方法1を用いる場合に距離関連パラメーターを最も精度良く決定することができた。この理由は、ステレオキャリブレーションを行うことによって、固有のレンズの歪みや、カメラの位置ずれによる画像の歪みが補正されるからであると推定される。但し、方法2や方法3は、方法1に比べて処理を簡略化できるという利点がある。
なお、図7及び図8で説明したように、2つの照明部410,420に対して互いに異なる排他的なタイミングで照明期間を設定し、それぞれの照明期間で画像を順次撮影する代わりに、2つのカメラ310,320で同じタイミングで撮影された2つの画像を用いてステレオキャリブレーションを実行してもよい。この場合には、図1で説明したような2つの照明部410,420を設ける必要はなく、2つのカメラ310,320に対して共通に使用する1つの照明部を設けておけば十分である。但し、図7及び図8で説明した撮影方法では、実質的に影の無い2つの画像IM1_1,IM2_2が得られるので、図5の処理をより精度良く行えるという利点がある。
図5のステップS300では、関心領域抽出部620が、2つの処理用画像IM1,IM2から関心領域画像RO1,RO2をそれぞれ抽出する。図6の上段及び中段に示すように、関心領域画像RO1,RO2は、指示体80の先端部を含む領域の画像であり、その後の処理対象として抽出される画像である。関心領域画像RO1,RO2の抽出処理は、例えば、背景差分法や、平均背景差分法、二値化、モルフォロジー変換、エッジ検出、及び、凸包検出等の公知の種々の画像処理を利用して実行することができる。関心領域画像RO1,RO2のそれぞれは、例えば、指示体80の先端部を中心とした一辺が100〜300画素の正方形の画像として抽出される。関心領域画像RO1内の各画素の位置は、関心領域画像RO1の2次元座標u,vで表される。他の関心領域画像RO2も同様である。
ステップS400では、畳み込みニューラルネットワーク630が、2つの関心領域画像RO1,RO2から距離関連パラメーターを決定する。第1実施形態では、距離関連パラメーターとして、操作面SSと指示体80の距離そのものを使用する。
図9は、畳み込みニューラルネットワーク630の構成例を示す説明図である。この畳み込みニューラルネットワーク630は、入力層631と、中間層632と、全結合層633と、出力層634とを有する。入力層631は、ステップS400で得られた2つの関心領域画像RO1,RO2が入力される2つの入力チャンネルである第1チャンネルと第2チャンネルを有する。中間層632は、畳み込み層CU1,CU2,CU3…と、正規化層RU1,RU2…と、プーリング層PU2…とを含む。畳み込み層と正規化層とプーリング層の組み合わせや配置は一例であり、これ以外の種々の組み合わせや配置が可能である。中間層632からは、2つの関心領域画像RO1,RO2に応じた複数の特徴量が出力されて、全結合層633に入力される。全結合層633は、複数の全結合層を含んでいても良い。出力層634は、3つの出力ノードN1〜N3を有する。第1の出力ノードN1は、距離関連パラメーターとして、操作面SSと指示体80の距離ΔZを出力する。第2の出力ノードN2は、指示体80の先端のu座標値を出力する。第3の出力ノードN3は、指示体80の先端のu座標値を出力する。これらのu座標値とv座標値は、図6に示した関心領域画像RO1の2次元座標系の座標値である。なお、第2の出力ノードN2と第3の出力ノードN3は省略してもよい。
図9の各層の右下には、各層の出口におけるX方向の画素サイズNxと、Y方向の画素サイズNyと、チャンネル数Ncの数値例が示されている。例えば、入力層631から最初の畳み込み層CU1に入力されるデータについては、Nx=100,Ny=100,Nc=2である。また、最初の畳み込み層CU1から正規化層RU1に入力されるデータについては、Nx=98,Ny=98,Nc=64である。すなわち、最初の畳み込み層CU1では、画像領域のサイズが一辺当たり2画素減少しており、また、チャンネル数は2個から64個に増加している。
図10は、畳み込み層CU1,CU2による処理例を示す説明図である。ここでは、正規化層はデータサイズに影響が無いので図示を省略している。畳み込み層CU1は、2チャンネルの関心領域画像RO1,RO2に適用される複数のフィルターF11,F12…を有している。第1のフィルターF11は、第1チャンネル用のフィルターF11_1と、第2チャンネル用のフィルターF11_2とで構成されている。第1のフィルターF11による処理では、第1チャンネル用のフィルターF11_1と第1の関心領域画像RO1との畳み込み結果と、第2チャンネル用のフィルターF11_2と第2の関心領域画像RO2との畳み込み結果とが加算され、その加算結果が新たな画像MM11として作成される。この例では、フィルターF11_1,F11_2のサイズは3×3画素なので、画像MM1の一辺の画素サイズは、元の関心領域画像RO1,RO2の一辺の画素サイズよりも2画素小さい。第2のフィルターF12も第1のフィルターF11と同じサイズを有しており、第2のフィルターF12による処理によって、新たな画像MM12が作成される。畳み込み層CU1は、このようなフィルターF11,F12…を64個有している。従って、図9の例では、最初の畳み込み層CU1の出力は64チャンネルに増加している。2番目の畳み込み層CU2は、各チャンネルに適用する3×3画素のフィルターF21,F22…を有している。
なお、図9及び図10に示した畳み込みニューラルネットワーク630の構成は一例であり、これ以外の種々の構成を採用することが可能である。
畳み込みニューラルネットワーク630を用いて距離関連パラメーターを決定できる理由は、距離関連パラメーターが、2つの関心領域画像RO1,RO2の特徴量と正又は負の相関があるからである。距離関連パラメーターと相関を有する特徴量としては、2つの関心領域画像RO1,RO2の相関を示す代表相関値がある。2つの関心領域画像RO1,RO2の代表相関値の作成方法の一例としては、まず、2つの関心領域画像RO1,RO2の各画素を中心としたカーネル領域を用いて2つの関心領域画像RO1,RO2の画素毎の相関値を求めることによって、その相関値で構成された相関画像を作成し、更に、その相関画像内の相関値の統計的な代表値を求める方法がある。相関値としては、相関係数や、SAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)などを使用できる。統計的な代表値としては、平均値や、最大値、中央値などが該当する。このような代表相関値又はこれに類似する値は、畳み込みニューラルネットワーク630の中間層632において2つの関心領域画像RO1,RO2の特徴量の一つとして算出されて、全結合層633に入力される。上述したように、操作面SSと指示体80の距離ΔZは、2つの関心領域画像RO1,RO2の特徴量と正又は負の相関があるので、2つの関心領域画像RO1,RO2を入力とする畳み込みニューラルネットワーク630を用いて距離ΔZを決定することが可能である。また、畳み込みニューラルネットワーク630の学習時に、距離ΔZ以外の距離関連パラメーターを学習させれば、畳み込みニューラルネットワーク630を用いてその距離関連パラメーターを得ることができる。
図5のステップS500では、操作実行部720が、操作面SSと指示体80の距離ΔZが予め設定された閾値Th以下か否かを判定し、閾値Th以下であればステップS600において指示体80の先端位置に応じた操作を実行する。閾値Thは、指示体80の先端が操作面SSに極めて近いと判定できる値であり、例えば3〜5mmの範囲に設定される。ステップS600の操作は、図3で説明した描画のような操作面SS上の処理である。操作面SSにおける指示体80の先端位置のXY座標は、畳み込みニューラルネットワーク630の2つの出力ノードN2,N3から出力された指示体80先端位置のuv座標をXY座標に変換することによって得ることができる。なお、畳み込みニューラルネットワーク630が指示体80先端位置のuv座標を出力する出力ノードを有していない場合には、他の任意の方法で指示体80の先端位置のXY座標を決定してもよい。例えば、2つの関心領域画像RO1,RO2における指示体80のパターンマッチングや特徴検出などの公知の方法を用いて指示体80の先端位置のXY座標を決定可能である。
なお、ステップS400では、距離関連パラメーターとして操作面SSと指示体80の距離ΔZを決定していたが、距離関連パラメーターとして距離ΔZ以外のパラメーターを求めてもよい。例えば、ステップS400において、2つの関心領域画像RO1,RO2に応じて得られる特徴量から距離ΔZが十分に小さなことが推定できる場合には、距離ΔZを求めることなく、ステップS600の操作を直ちに実行するようにしてもよい。この場合には、距離関連パラメーターは、指示体80の位置に応じた操作の実行を示すフラグやコマンドなどの操作実行パラメーターであり、その操作実行パラメーターが畳み込みニューラルネットワーク630の出力となる。この構成によれば、指示体80と操作面SSの距離ΔZが十分に小さいと推定される状況において、指示体80と操作面SSの距離ΔZを決定すること無く、指示体80を用いた操作面SSに対する操作を実行できる。
以上のように、第1実施形態では、2つの関心領域画像RO1,RO2を入力とし、操作面SSと指示体80の距離ΔZに関連する距離関連パラメーターを出力とする畳み込みニューラルネットワーク630を用いて距離関連パラメーターを決定するので、距離関連パラメーターを精度良く決定することができる。
また、第1実施形態では、畳み込みニューラルネットワーク630に入力する関心領域画像RO1,RO2は、ステレオキャリブレーション済の画像なので、固有のレンズの歪みや、カメラの位置ずれによる画像の歪みがステレオキャリブレーションによって補正されている。これにより、畳み込みニューラルネットワーク630による特徴の抽出誤差を小さくすることができるので、結果として、学習済の畳み込みニューラルネットワーク630を異なるレンズやカメラに対しても適応することができるという利点がある。
なお、カメラの台数は3以上でもよい。すなわち、Nを3以上の整数として、N台のカメラを設けるようにしてもよい。この場合に、処理用画像取得部610は、N個の処理用画像を取得し、関心領域抽出部620は、N個の処理用画像から、指示体80をそれぞれ含むN個の関心領域画像を抽出する。また、畳み込みニューラルネットワーク630の入力層631は、N個の関心領域画像を入力とするN個の入力チャンネルを含むように構成される。この構成によれば、N個の関心領域画像から距離関連パラメーターを決定するので、距離関連パラメーターを精度良く決定できる。
B. 第2実施形態
図11は、第2実施形態における位置検出システム900の正面図である。位置検出システム900は、画像表示パネル200aと、指示体80を含む画像を撮影する2台のカメラ310,320と、指示体80を検出するための赤外光を照射する2組の照明部410,420とを有する。カメラ310,320と照明部410,420の構成は第1実施形態におけるこれらの構成と同じである。画像表示パネル200aは、いわゆるフラットパネルディスプレイである。画像表示パネル200aの画像表示面は、操作面SSに相当する。
図12は、位置検出システム900の機能ブロック図である。この位置検出システム900は、図4に示したインタラクティブプロジェクター100の構成のうち、投写部200を画像表示パネル200aに変更し、投写画像生成部500を画像生成部500aに変更したものであり、他の構成はインタラクティブプロジェクター100と同じである。また、位置検出システム900による位置検出処理は、図4〜図10で説明した第1実施形態の処理と同様なので、説明を省略する。また、第2実施形態も、第1実施形態と同様の効果を奏する。
C. 他の実施形態
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態(aspect)によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
(1)本開示の第1の形態によれば、操作面に対する指示体の位置に関連するパラメーターを検出する位置検出方法が提供される。この位置検出方法は、(a)第1カメラを用いて、前記操作面を背景とした前記指示体を撮影して、第1撮像画像を取得し、前記第1カメラと異なる位置に配置された第2カメラを用いて、前記操作面を背景とした前記指示体を撮影して、第2撮像画像を取得する工程と、(b)前記第1撮像画像から第1処理用画像を取得し、前記第2撮像画像から第2処理用画像を取得する工程と、(c)前記第1処理用画像と前記第2処理用画像から、前記指示体をそれぞれ含む第1関心領域画像と第2関心領域画像を抽出する工程と、(d)前記第1関心領域画像を入力とする第1入力チャンネルと前記第2関心領域画像を入力とする第2入力チャンネルを含む入力層と、前記操作面と前記指示体の距離に関連する距離関連パラメーターを出力する出力層と、を有する畳み込みニューラルネットワークを用いて、前記距離関連パラメーターを決定する工程と、を備える。
この位置検出方法によれば、2個の関心領域画像を入力とし、操作面と指示体の距離に関連する距離関連パラメーターを出力とする畳み込みニューラルネットワークを用いて距離関連パラメーターを決定するので、距離関連パラメーターを精度良く決定することができる。
(2)上記位置検出方法において、前記工程(a)では、Nを3以上の整数として、N台のカメラを用いて、前記操作面を背景とした前記指示体を撮影して、N個の撮像画像を取得し、前記工程(b)では、前記N個の画像からN個の処理用画像を取得し、前記工程(c)では、前記N個の処理用画像から、前記指示体をそれぞれ含むN個の関心領域画像を抽出し、前記工程(e)では、前記N個の関心領域画像を入力とするN個の入力チャンネルを含む入力層と、前記距離関連パラメーターを出力する出力層と、を有する畳み込みニューラルネットワークを用いて、前記距離関連パラメーターを決定するものとしてもよい。
この位置検出方法によれば、N個の関心領域画像を入力とし、操作面と指示体の距離に関連する距離関連パラメーターを出力とする畳み込みニューラルネットワークを用いて距離関連パラメーターを決定するので、距離関連パラメーターを更に精度良く決定することができる。
(3)上記位置検出方法において、前記工程(b)では、前記第1撮像画像と前記第2撮像画像に対してステレオキャリブレーションを行うことによって、前記N個の処理用画像を作成するものとしてもよい。
この位置検出方法によれば、ステレオキャリブレーションを行った2個の処理用画像から2個の関心領域画像を抽出するので、それらを入力とする畳み込みニューラルネットワークを用いて距離関連パラメーターを精度良く決定できる。
(4)上記位置検出方法において、前記工程(b)では、前記第1撮像画像及び前記第2撮像画像を前記第1処理用画像及び前記第2処理用画像として取得するものとしてもよい。
この位置検出方法によれば、第1撮像画像及び第2撮像画像を第1処理用画像及び第2処理用画像として取得するので、距離関連パラメーターを求める処理を簡略化できる。
(5)上記位置検出方法において、前記距離関連パラメーターは、前記操作面と前記指示体の距離であるものとしてもよい。
この位置検出方法によれば、畳み込みニューラルネットワークを用いて操作面と指示体の距離を精度良く決定できる。
(6)上記位置検出方法において、前記距離関連パラメーターは、前記指示体の位置に応じた前記操作面に対する操作を実行することを示す操作実行パラメーターであるものとしてもよい。
この位置検出方法によれば、指示体と操作面の距離が十分に小さいと推定される状況において、指示体と操作面の距離を決定すること無く、指示体を用いた操作面に対する操作を実行できる。
(7)上記位置検出方法において、前記工程(a)は、前記第1カメラに対応して設けられた第1赤外照明部と、前記第2カメラに対応して設けられた第2赤外照明部と、を順次選択する工程と、前記第2赤外照明部では照明を行わずに前記第1赤外照明部で照明を行いながら前記第1カメラを用いて撮影を実行し、前記第1赤外照明部では照明を行わずに前記第2赤外照明部で照明を行いながら前記第2カメラを用いて撮影を実行し、前記第1撮像画像と前記第2撮像画像を1つずつ異なるタイミングで順次取得する工程と、を含み、前記第1赤外照明部と前記第2赤外照明部は、各カメラに対する同軸照明を行う同軸照明部と、各カメラの光軸の周囲を囲うように配置された周囲照明部と、の少なくとも一方を含むように構成されるものとしてもよい。
この位置検出方法によれば、操作面上において指示体の影が少ない状態で第1撮像画像と第2撮像画像を撮影できるので、距離関連パラメーターを精度良く決定できる。
(8)本開示の第2の形態によれば、操作面に対する指示体の位置に関連するパラメーターを検出する位置検出装置が提供される。この位置検出装置は、前記操作面を背景とした前記指示体を撮影して、第1撮像画像を取得する第1カメラと、前記第1カメラと異なる位置に配置され、前記操作面を背景とした前記指示体を撮影して、第2撮像画像を取得する第2カメラと、を含む撮像部と、前記第1撮像画像から第1処理用画像を取得し、前記第2撮像画像から第2処理用画像を取得する処理用画像取得部と、前記第1処理用画像と前記第2処理用画像から、前記指示体をそれぞれ含む第1関心領域画像と第2関心領域画像を抽出する関心領域抽出部と、前記第1関心領域画像を入力とする第1入力チャンネルと前記第2関心領域画像を入力とする第2入力チャンネルを含む入力層と、前記操作面と前記指示体の距離に関連する距離関連パラメーターを出力する出力層と、を有する畳み込みニューラルネットワークと、を備える。
この位置検出装置によれば、2個の関心領域画像を入力とし、操作面と指示体の距離に関連する距離関連パラメーターを出力とする畳み込みニューラルネットワークを用いて距離関連パラメーターを決定するので、距離関連パラメーターを精度良く決定することができる。
(9)上記位置検出装置において、前記撮像部は、Nを3以上の整数として、前記操作面を背景とした前記指示体を撮影して、N個の撮像画像を取得するN台のカメラと、を含み、前記処理用画像取得部は、前記N個の画像からN個の処理用画像を取得し、前記関心領域抽出部は、前記N個の処理用画像から、前記指示体をそれぞれ含むN個の関心領域画像を抽出し、前記畳み込みニューラルネットワークは、前記N個の関心領域画像を入力とするN個の入力チャンネルを含む入力層と、前記距離関連パラメーターを出力する出力層と、を有するものとしてもよい。
この位置検出装置によれば、N個の関心領域画像を入力とし、操作面と指示体の距離に関連する距離関連パラメーターを出力とする畳み込みニューラルネットワークを用いて距離関連パラメーターを決定するので、距離関連パラメーターを更に精度良く決定することができる。
(10)上記位置検出装置において、前記処理用画像取得部は、前記第1撮像画像と前記第2撮像画像に対してステレオキャリブレーションを行うことによって、前記N個の処理用画像を作成するものとしてもよい。
この位置検出装置によれば、ステレオキャリブレーションを行った2個の処理用画像から2個の関心領域画像を抽出するので、それらを入力とする畳み込みニューラルネットワークを用いて距離関連パラメーターを精度良く決定できる。
(11)上記位置検出装置において、前記処理用画像取得部は、前記第1撮像画像及び前記第2撮像画像を前記第1処理用画像及び前記第2処理用画像として取得するものとしてもよい。
この位置検出装置によれば、第1撮像画像及び第2撮像画像を第1処理用画像及び第2処理用画像として取得するので、距離関連パラメーターを求める処理を簡略化できる。
(12)上記位置検出装置において、前記距離関連パラメーターは、前記操作面と前記指示体の距離であるものとしてもよい。
この位置検出装置によれば、畳み込みニューラルネットワークを用いて操作面と指示体の距離を精度良く決定できる。
(13)上記位置検出装置において、前記距離関連パラメーターは、前記指示体の位置に応じた前記操作面に対する操作を実行することを示す操作実行パラメーターであるものとしてもよい。
この位置検出装置によれば、指示体と操作面の距離が十分に小さいと推定される状況において、指示体と操作面の距離を決定すること無く、指示体を用いた操作面に対する操作を実行できる。
(14)上記位置検出装置は、更に、前記第1カメラに対する同軸照明を行う同軸照明部と、前記第1カメラの光軸の周囲を囲うように配置された周囲照明部と、の少なくとも一方を含むように構成された第1赤外照明部と、前記第2カメラに対する同軸照明を行う同軸照明部と、前記第2カメラの光軸の周囲を囲うように配置された周囲照明部と、の少なくとも一方を含むように構成された第2赤外照明部と、前記第1カメラ及び前記第1赤外照明部と、前記第2カメラ及び前記第2赤外照明部と、を用いた撮影を制御する撮影制御部と、を備え、前記撮影制御部は、前記第1カメラ及び前記第1赤外照明部と、前記第2カメラ及び前記第2赤外照明部と、を順次選択し、前記第2赤外照明部では照明を行わずに前記第1赤外照明部で照明を行いながら前記第1カメラを用いて撮影を実行し、前記第1赤外照明部では照明を行わずに前記第2赤外照明部で照明を行いながら前記第2カメラを用いて撮影を実行することによって、前記第1撮像画像と前記第2撮像画像を異なるタイミングで順次撮影するものとしてもよい。
この位置検出装置によれば、操作面上において指示体の影が少ない状態で第1撮像画像と第2撮像画像を撮影できるので、距離関連パラメーターを精度良く決定できる。
(15)本開示の第3の形態によれば、操作面に対する指示体の位置に関連するパラメーターを検出するインタラクティブプロジェクターが提供される。このインタラクティブプロジェクターは、投写画像を前記操作面に投写する投写部と、前記操作面を背景とした前記指示体を撮影して、第1撮像画像を取得する第1カメラと、前記第1カメラと異なる位置に配置され、前記操作面を背景とした前記指示体を撮影して、第2撮像画像を取得する第2カメラと、を含む撮像部と、前記第1撮像画像から第1処理用画像を取得し、前記第2撮像画像から第2処理用画像を取得する処理用画像取得部と、前記第1処理用画像と前記第2処理用画像から、前記指示体をそれぞれ含む第1関心領域画像と第2関心領域画像を抽出する関心領域抽出部と、前記第1関心領域画像を入力とする第1入力チャンネルと前記第2関心領域画像を入力とする第2入力チャンネルを含む入力層と、前記操作面と前記指示体の距離に関連する距離関連パラメーターを出力する出力層と、を有する畳み込みニューラルネットワークと、を備える。
このインタラクティブプロジェクターによれば、N個の関心領域画像を入力とし操作面と指示体の距離に関連する距離関連パラメーターを出力とする畳み込みニューラルネットワークを用いて距離関連パラメーターを決定するので、距離関連パラメーターを精度良く決定することができる。
80…指示体、100…インタラクティブプロジェクター、200…投写部、200a…画像表示パネル、210…投写レンズ、220…光変調部、230…光源、300…撮像部、310…第1カメラ、320…第2カメラ、400…赤外照明部、410…第1照明部、420…第2照明部、500…投写画像生成部、500a…画像生成部、510…画像メモリー、600…位置検出部、610…処理用画像取得部、620…関心領域抽出部、630…畳み込みニューラルネットワーク、631…入力層、632…中間層、633…全結合層、634…出力層、700…制御部、710…撮影制御部、720…操作実行部、800…インタラクティブプロジェクションシステム、820…スクリーン板、900…位置検出システム

Claims (15)

  1. 操作面に対する指示体の位置に関連するパラメーターを検出する位置検出方法であって、
    (a)第1カメラを用いて、前記操作面を背景とした前記指示体を撮影して、第1撮像画像を取得し、前記第1カメラと異なる位置に配置された第2カメラを用いて、前記操作面を背景とした前記指示体を撮影して、第2撮像画像を取得する工程と、
    (b)前記第1撮像画像から第1処理用画像を取得し、前記第2撮像画像から第2処理用画像を取得する工程と、
    (c)前記第1処理用画像と前記第2処理用画像から、前記指示体をそれぞれ含む第1関心領域画像と第2関心領域画像を抽出する工程と、
    (d)前記第1関心領域画像を入力とする第1入力チャンネルと前記第2関心領域画像を入力とする第2入力チャンネルを含む入力層と、前記操作面と前記指示体の距離に関連する距離関連パラメーターを出力する出力層と、を有する畳み込みニューラルネットワークを用いて、前記距離関連パラメーターを決定する工程と、
    を備える位置検出方法。
  2. 請求項1に記載の位置検出方法であって、
    前記工程(a)では、Nを3以上の整数として、N台のカメラを用いて、前記操作面を背景とした前記指示体を撮影して、N個の撮像画像を取得し、
    前記工程(b)では、前記N個の画像からN個の処理用画像を取得し、
    前記工程(c)では、前記N個の処理用画像から、前記指示体をそれぞれ含むN個の関心領域画像を抽出し、
    前記工程(e)では、前記N個の関心領域画像を入力とするN個の入力チャンネルを含む入力層と、前記距離関連パラメーターを出力する出力層と、を有する畳み込みニューラルネットワークを用いて、前記距離関連パラメーターを決定する、
    位置検出方法。
  3. 請求項1に記載の位置検出方法であって、
    前記工程(b)では、前記第1撮像画像と前記第2撮像画像に対してステレオキャリブレーションを行うことによって、前記N個の処理用画像を作成する、位置検出方法。
  4. 請求項1に記載の位置検出方法であって、
    前記工程(b)では、前記第1撮像画像及び前記第2撮像画像を前記第1処理用画像及び前記第2処理用画像として取得する、位置検出方法。
  5. 請求項1〜4のいずれか一項に記載の位置検出方法であって、
    前記距離関連パラメーターは、前記操作面と前記指示体の距離である、位置検出方法。
  6. 請求項1〜4のいずれか一項に記載の位置検出方法であって、
    前記距離関連パラメーターは、前記指示体の位置に応じた前記操作面に対する操作を実行することを示す操作実行パラメーターである、位置検出方法。
  7. 請求項1に記載の位置検出方法であって、
    前記工程(a)は、
    前記第1カメラに対応して設けられた第1赤外照明部と、前記第2カメラに対応して設けられた第2赤外照明部と、を順次選択する工程と、
    前記第2赤外照明部では照明を行わずに前記第1赤外照明部で照明を行いながら前記第1カメラを用いて撮影を実行し、前記第1赤外照明部では照明を行わずに前記第2赤外照明部で照明を行いながら前記第2カメラを用いて撮影を実行し、前記第1撮像画像と前記第2撮像画像を1つずつ異なるタイミングで順次取得する工程と、
    を含み、
    前記第1赤外照明部と前記第2赤外照明部は、各カメラに対する同軸照明を行う同軸照明部と、各カメラの光軸の周囲を囲うように配置された周囲照明部と、の少なくとも一方を含むように構成される、
    位置検出方法。
  8. 操作面に対する指示体の位置に関連するパラメーターを検出する位置検出装置であって、
    前記操作面を背景とした前記指示体を撮影して、第1撮像画像を取得する第1カメラと、前記第1カメラと異なる位置に配置され、前記操作面を背景とした前記指示体を撮影して、第2撮像画像を取得する第2カメラと、を含む撮像部と、
    前記第1撮像画像から第1処理用画像を取得し、前記第2撮像画像から第2処理用画像を取得する処理用画像取得部と、
    前記第1処理用画像と前記第2処理用画像から、前記指示体をそれぞれ含む第1関心領域画像と第2関心領域画像を抽出する関心領域抽出部と、
    前記第1関心領域画像を入力とする第1入力チャンネルと前記第2関心領域画像を入力とする第2入力チャンネルを含む入力層と、前記操作面と前記指示体の距離に関連する距離関連パラメーターを出力する出力層と、を有する畳み込みニューラルネットワークと、
    を備える位置検出装置。
  9. 請求項8に記載の位置検出装置であって、
    前記撮像部は、Nを3以上の整数として、前記操作面を背景とした前記指示体を撮影して、N個の撮像画像を取得するN台のカメラと、を含み、
    前記処理用画像取得部は、前記N個の画像からN個の処理用画像を取得し、
    前記関心領域抽出部は、前記N個の処理用画像から、前記指示体をそれぞれ含むN個の関心領域画像を抽出し、
    前記畳み込みニューラルネットワークは、前記N個の関心領域画像を入力とするN個の入力チャンネルを含む入力層と、前記距離関連パラメーターを出力する出力層と、を有する、
    位置検出装置。
  10. 請求項8に記載の位置検出装置であって、
    前記処理用画像取得部は、前記第1撮像画像と前記第2撮像画像に対してステレオキャリブレーションを行うことによって、前記N個の処理用画像を作成する、位置検出装置。
  11. 請求項8に記載の位置検出装置であって、
    前記処理用画像取得部は、前記第1撮像画像及び前記第2撮像画像を前記第1処理用画像及び前記第2処理用画像として取得する、位置検出装置。
  12. 請求項8〜11のいずれか一項に記載の位置検出装置であって、
    前記距離関連パラメーターは、前記操作面と前記指示体の距離である、位置検出装置。
  13. 請求項8〜11のいずれか一項に記載の位置検出装置であって、
    前記距離関連パラメーターは、前記指示体の位置に応じた前記操作面に対する操作を実行することを示す操作実行パラメーターである、位置検出装置。
  14. 請求項8に記載の位置検出装置であって、更に、
    前記第1カメラに対する同軸照明を行う同軸照明部と、前記第1カメラの光軸の周囲を囲うように配置された周囲照明部と、の少なくとも一方を含むように構成された第1赤外照明部と、
    前記第2カメラに対する同軸照明を行う同軸照明部と、前記第2カメラの光軸の周囲を囲うように配置された周囲照明部と、の少なくとも一方を含むように構成された第2赤外照明部と、
    前記第1カメラ及び前記第1赤外照明部と、前記第2カメラ及び前記第2赤外照明部と、を用いた撮影を制御する撮影制御部と、
    を備え、
    前記撮影制御部は、前記第1カメラ及び前記第1赤外照明部と、前記第2カメラ及び前記第2赤外照明部と、を順次選択し、前記第2赤外照明部では照明を行わずに前記第1赤外照明部で照明を行いながら前記第1カメラを用いて撮影を実行し、前記第1赤外照明部では照明を行わずに前記第2赤外照明部で照明を行いながら前記第2カメラを用いて撮影を実行することによって、前記第1撮像画像と前記第2撮像画像を異なるタイミングで順次撮影する、位置検出装置。
  15. 操作面に対する指示体の位置に関連するパラメーターを検出するインタラクティブプロジェクターであって、
    投写画像を前記操作面に投写する投写部と、
    前記操作面を背景とした前記指示体を撮影して、第1撮像画像を取得する第1カメラと、前記第1カメラと異なる位置に配置され、前記操作面を背景とした前記指示体を撮影して、第2撮像画像を取得する第2カメラと、を含む撮像部と、
    前記第1撮像画像から第1処理用画像を取得し、前記第2撮像画像から第2処理用画像を取得する処理用画像取得部と、
    前記第1処理用画像と前記第2処理用画像から、前記指示体をそれぞれ含む第1関心領域画像と第2関心領域画像を抽出する関心領域抽出部と、
    前記第1関心領域画像を入力とする第1入力チャンネルと前記第2関心領域画像を入力とする第2入力チャンネルを含む入力層と、前記操作面と前記指示体の距離に関連する距離関連パラメーターを出力する出力層と、を有する畳み込みニューラルネットワークと、
    を備えるインタラクティブプロジェクター。
JP2019014290A 2019-01-30 2019-01-30 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター Pending JP2020123118A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019014290A JP2020123118A (ja) 2019-01-30 2019-01-30 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
US16/775,623 US20200241697A1 (en) 2019-01-30 2020-01-29 Position detecting method, position detecting device, and interactive projector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019014290A JP2020123118A (ja) 2019-01-30 2019-01-30 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター

Publications (1)

Publication Number Publication Date
JP2020123118A true JP2020123118A (ja) 2020-08-13

Family

ID=71733677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019014290A Pending JP2020123118A (ja) 2019-01-30 2019-01-30 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター

Country Status (2)

Country Link
US (1) US20200241697A1 (ja)
JP (1) JP2020123118A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021056588A (ja) * 2019-09-27 2021-04-08 セイコーエプソン株式会社 位置検出装置、プロジェクター、及び位置検出方法
US11023729B1 (en) 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
JP2022065419A (ja) * 2020-10-15 2022-04-27 セイコーエプソン株式会社 表示方法、及び表示装置
DE102021107904A1 (de) * 2021-03-29 2022-09-29 Conti Temic Microelectronic Gmbh Verfahren und System zur Bestimmung der Bodenebene mit einem künstlichen neuronalen Netz

Also Published As

Publication number Publication date
US20200241697A1 (en) 2020-07-30

Similar Documents

Publication Publication Date Title
JP2020123118A (ja) 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP5108093B2 (ja) 撮像装置及び撮像方法
EP2824923B1 (en) Apparatus, system and method for projecting images onto predefined portions of objects
US11295434B2 (en) Image inspection system and image inspection method
US20200241695A1 (en) Position detecting method, position detecting device, and interactive projector
US20200264729A1 (en) Display method, display device, and interactive projector
US11093085B2 (en) Position detection method, position detection device, and interactive projector
JP2016218729A (ja) 画像処理装置、画像処理方法およびプログラム
US11379083B2 (en) Position detection device, projector, and position detection method
US11012612B2 (en) Image inspection system and image inspection method
US11144164B2 (en) Position detection method, position detection device, and interactive projector
WO2023007891A1 (ja) 投影デバイスおよび測距システム
JP6538871B2 (ja) 操作検出装置、操作検出方法、及び映像表示システム
JP2020123113A (ja) 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP2023552974A (ja) ディスプレイを介する深度測定
EP4085272A1 (en) Alternating light distributions for active depth sensing
JP6057407B2 (ja) タッチ位置入力装置及びタッチ位置入力方法
JP2017125764A (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
JP2011254268A (ja) 撮像装置、撮像方法、及びプログラム
JP6547366B2 (ja) インタラクティブプロジェクター
US20230419735A1 (en) Information processing device, information processing method, and storage medium
US20160282958A1 (en) Interactive projector and method of controlling interactive projector
US11330236B2 (en) Projector controlling method and projector
JP2005216191A (ja) ステレオ画像処理装置およびステレオ画像処理方法
US20190187821A1 (en) Interactive projection system, interactive projector and method of controlling interactive projector