JP2015094828A - 画像投影方法、情報入力装置及びプログラム - Google Patents

画像投影方法、情報入力装置及びプログラム Download PDF

Info

Publication number
JP2015094828A
JP2015094828A JP2013233491A JP2013233491A JP2015094828A JP 2015094828 A JP2015094828 A JP 2015094828A JP 2013233491 A JP2013233491 A JP 2013233491A JP 2013233491 A JP2013233491 A JP 2013233491A JP 2015094828 A JP2015094828 A JP 2015094828A
Authority
JP
Japan
Prior art keywords
palm
image
finger
control unit
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013233491A
Other languages
English (en)
Inventor
昌史 井出
Masashi Ide
昌史 井出
剛男 小味山
Takeo Komiyama
剛男 小味山
野崎 孝明
Takaaki Nozaki
孝明 野崎
吉永 明生
Akio Yoshinaga
明生 吉永
悠二 野田
Yuji Noda
悠二 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Citizen Holdings Co Ltd
Original Assignee
Citizen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Citizen Holdings Co Ltd filed Critical Citizen Holdings Co Ltd
Priority to JP2013233491A priority Critical patent/JP2015094828A/ja
Publication of JP2015094828A publication Critical patent/JP2015094828A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)

Abstract

【課題】確実に指先及び手のひらを認識して誤検出を防止することを可能とした画像投影方法、情報入力装置及びプログラムを提供する。【解決手段】画像投影方法は、投影部(31)により画像を投影可能な空間(40)内において、深度センサ(22)を用いて投影部から空間内の物体までの距離を示す深度データを取得し、深度データから空間内の物体の輪郭を抽出し、抽出された輪郭の曲率から、空間内の物体の先端部分が指であるか否かを判定し、指と判定された物体の先端部分から一定距離離れたその物体上の点を含み、その物体上に収まる任意の図形領域を手のひらとして検出し、投影部により手のひらに画像を投影するステップを有する。【選択図】図5

Description

本発明は、ユーザの手のひらに画像を投影する画像投影方法、その画像を用いた情報入力装置及びプログラムに関する。
例えば、テレビ、ビデオ等を操作するための情報入力を行うには、リモコン等の情報入力装置を利用することが一般的である。しかしながら、いざ利用しようとすると、リモコン等の置き場所が不明であったりして、利用したいときに利用できないといった不具合があった。このため、情報入力機器自体を操作することなく、シンプルで分かり易く、且つ大多数の人が直感的に操作できるような情報入力装置が求められていた。
ところで、映像投射装置から複数の入力キーを有する操作部を示す映像を投影し、この映像上における指の動きを画像認識処理により検出して、入力キーに対する押下げ操作がなされたか否かを判別する情報入力装置が知られている(例えば、特許文献1を参照)。特許文献1に記載の情報入力装置では、撮像部で読取った映像から、エッジ検出によって指を判別した上で、指の上から下への動き、即ち映像が投影されている面に対する指の接触を検出する。
また、ユーザがプロジェクタを身に着け、プロジェクタが投影するダイアルパッドを手のひらで受け、手のひらに投影されたダイアルパッドをユーザの指先に装着された器具で指し示すと、指し示されたダイアルパッドに対応した入力がなされる、装着可能なジェスチャーインタフェイスが知られている(例えば、特許文献2を参照)。特許文献2に記載のジェスチャーインタフェイスでは、カメラが撮像した画像をコンピュータが画像解析して、ユーザの指先に装着された器具の動きを追跡し、ダイアルパッドに対応した入力があるか否かが判断される。また、プロジェクタからの画像は、ミラーで反射されてから投影されるため、ミラーの位置をユーザがマニュアルで変更することによって、投影場所を変更することができる。
さらに、画像を投影可能な所定の領域内で手のひらを検出し、検出した手のひらに画像を投影するシステムが知られている(例えば、特許文献3及び非特許文献1を参照)。特許文献3に記載の情報提示装置は、撮影画像に写っている人物の重心を求め、人物の胴体の領域を除去した後、最初に求めた重心から一番遠い重心位置をもつ領域を掌として検出して、その領域に詳細情報を提示する。また、非特許文献1に記載のシステムでは、プロジェクタの投影方向は固定され、常に所定領域全体に投影が行われており、検出された手のひらの部分にのみ画像が表示される。
特開平11−95895号公報(図1) 米国公開2010/0199232号公報(図10) 特許第4256850号公報(図4、図5)
「手のひらインタフェース:画像処理を用いた公共空間におけるパーソナルな情報提示システム」、情報処理学会論文誌 vol.49、No.7 2528−2538、2008年7月
しかしながら、映像のエッジを検出して指の動きを判断したり、画像中の物体の重心位置により手のひらの位置を検出したりすると、人間の指や手のひら以外の物体を誤って認識したり、物を持っている場合に持っている物の先を指や手のひらと誤って認識したりするという不具合があった。
また、特許文献2に記載のジェスチャーインタフェイスでは、ユーザがプロジェクタ等を含む装置を身に着けなければならず、通常のリモコンと比較しても、操作が煩わしいという不具合があった。
さらに、特許文献2に記載のジェスチャーインタフェイスでは、プロジェクタが固定されているため、ミラーによって投影位置はマニュアルで変更することはできるが、投影位置に手のひらを持っていかなければ手のひらにダイアルパッドを投影することができないという不具合もあった。
また、非特許文献1に記載のシステムでは、プロジェクタの投影方向が固定されているので、検出された手のひらに画像を表示するためには、所定の領域全体を投影可能な大型プロジェクタを利用しなければならなかった。
そこで、本発明は、確実に指先及び手のひらを認識して誤検出を防止することが可能な画像投影方法を提供することを目的とする。また、本発明は、ユーザの手のひらの位置を追尾して、その手のひらに情報入力画像を表示することが可能な画像投影方法を提供することを目的とする。また、本発明は、特定の装置を身に着けることなく、簡単且つ容易に情報入力を行うことが可能な情報入力装置を提供することを目的とする。
本発明に係る画像投影方法は、投影部により画像を投影可能な空間内において、深度センサを用いて投影部から空間内の物体までの距離を示す深度データを取得し、深度データから空間内の物体の輪郭を抽出し、抽出された輪郭の曲率から、空間内の物体の先端部分が指であるか否かを判定し、指と判定された物体の先端部分から一定距離離れた物体上の点を含み、物体上に収まる任意の図形領域を手のひらとして検出し、投影部により手のひらに画像を投影するステップを有することを特徴とする。
上記の画像投影方法では、指を判定するステップにより、手のひらの上に指が移動したか否かを判定し、手のひらと手のひら上に移動した指との深度差に基づき、手のひらに投影された画像に対する移動した指による操作を情報入力操作として検出するステップをさらに有することが好ましい。
上記の画像投影方法では、指を判定するステップにより、手のひらの上に、手のひらと同じ手の指が移動したか否かを判定することが好ましい。
上記の画像投影方法では、指を判定するステップでは、抽出された輪郭の曲率により定まる輪郭の先端から輪郭に沿って一方向に予め定められた距離ずつ離れた点列と、先端から逆方向に予め定められた距離ずつ離れた点列との対応する2点間の距離が、指の幅に応じて定められた閾値以内であるときに、輪郭の先端と2つの点列により囲まれる物体の先端部分を指であると判定することが好ましい。
上記の画像投影方法では、手のひらを検出するステップでは、先端部分が指と判定された物体上で、2つの点列により定まる指の付け根から一定距離離れた点を含み、物体上に収まる最大の矩形領域を手のひらとして検出することが好ましい。
上記の画像投影方法では、抽出された物体の輪郭を含む一定範囲内における深度分布の立上りと立下りの間の距離が、指の幅に応じて定められた閾値以内であるときに、物体の先端部分が指であると判定するステップをさらに有することが好ましい。
また、本発明に係る情報入力装置は、画像を投影する投影部と、投影部により画像を投影可能な空間内において、投影部から空間内の物体までの距離を示す深度データを取得する深度センサと、投影部を制御して画像を投影し、投影された画像に対する入力操作を検出する制御部とを有し、制御部は、深度データから空間内の物体の輪郭を抽出し、抽出された輪郭の曲率から、空間内の物体の先端部分が指であるか否かを判定し、指と判定された物体の先端部分から一定距離離れた物体上の点を含み、物体上に収まる任意の図形領域を手のひらとして検出し、投影部により手のひらに画像を投影させることを特徴とする。
上記の情報入力装置では、深度センサは、赤外線照射部及び赤外線カメラを有し、赤外線照射部により空間内の物体に投影された画像を赤外線カメラにより撮像することで深度データを取得することが好ましい。
また、本発明に係るプログラムは、画像を投影する投影部を有する装置を制御するコンピュータに、投影部により画像を投影可能な空間内において、深度センサにより測定された投影部から空間内の物体までの距離を示す深度データを取得する機能と、深度データから空間内の物体の輪郭を抽出する機能と、抽出された輪郭の曲率から、空間内の物体の先端部分が指であるか否かを判定する機能と、指と判定された物体の先端部分から一定距離離れた物体上の点を含み、物体上に収まる任意の図形領域を手のひらとして検出する機能と、投影部により手のひらに画像を投影させる機能とを実現させることを特徴とする。
本発明によれば、確実に指先及び手のひらを認識して誤検出を防止することが可能となる。また、本発明によれば、ユーザの手のひらの位置を追尾して、その手のひらに情報入力画像を表示することが可能となる。また、本発明によれば、ユーザが特定の装置を身に着けることなく、簡単且つ容易に情報入力を行うことが可能となる。
また、一度に投影する面積に必要な最小限の光出力でよいため、装置を小型化、低消費電力化することが可能となる。さらに、手のひらや指先の検出が例えば830nm等の近赤外光によって行われることから、人の目では暗い部屋等であっても装置が対象物を検出できるため、ユーザは部屋の照明を点灯させることなく情報入力を行うことができる。
情報入力装置1の外観を示す斜視図である。 情報入力装置1の概略ブロック図である。 初期設定処理の一例を示すフローチャートである。 RGBカラー映像認識用カメラ21により撮像されディスプレイ上に表示された画像の一例を示す図である。 画像投影処理の一例を示すフローチャートである。 情報入力画像70の例と、情報入力画像70が手のひら100に投影された状態を示す図である。 カーブ検出処理の一例を示すフローチャートである。 カーブ検出処理について説明するための図である。 手のひら検出処理の一例を示すフローチャートである。 手のひら検出処理について説明するための図である。 手のひら領域とする最大の正方形を決定する処理の一例を示すフローチャートである。 最大の正方形を決定する処理について説明するための図である。 手のひら追尾処理の一例を示すフローチャートである。 勾配検出処理の一例を示すフローチャートである。 勾配検出処理について説明するための図である。 情報入力処理の一例を示すフローチャートである。 手のひらに投影された画像に対する情報入力操作の例を示す図である。 手のひらに投影された画像に対する情報入力操作の別の例を示す図である。 パンティルト架台10及びレーザプロジェクタ30の構成例を示す図である。 レーザプロジェクタ30の出射部31及び赤外線センサ22の構成例を示す断面図である。
以下、図面を参照して、画像投影方法、情報入力装置及びプログラムについて説明する。ただし、本発明の技術的範囲はそれらの実施の形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。なお、図面の説明において、同一の要素には同一の符号を付し、重複する説明は省略する。また、説明のため、部材の縮尺は適宜変更している。
図1は、情報入力装置1の外観を示す斜視図である。また、図2は、情報入力装置1の概略ブロック図である。
情報入力装置1は、パンティルト架台10、検知部20、レーザプロジェクタ30、制御部50等を含む。情報入力装置1は、少なくとも床41、天井42及び壁43を有する空間40に配置されている。空間40は、完全に閉じられた空間であっても、開放的な空間であってもよい。図1において、壁43には、被操作装置60の一例として、ビデオ機能付き壁掛け型の液晶TVが配置されている。
パンティルト架台10は、天井42に固定されており、基部11、第1回転部12、第2回転部13等を含む。第1回転部12は第1モータ15によってθ方向に回転し、第2回転部13は第2モータ16によってψ方向に回転する。
検知部20は、不図示の架台に固定されており、RGBカラー映像認識用カメラ21、赤外線センサ22等を含む。RGBカラー映像認識用カメラ21は、空間40内の画像を撮像し、撮像した画像の画素毎の位置座標(x,y)データ及びRGBデータを出力する。赤外線センサ22は、深度画像を取得する深度センサの一例であり、赤外線カメラ及び赤外線照射部等で構成される。赤外線照射部は、空間40内に赤外線を照射し、赤外線カメラは、空間40内に存在する物体及び空間40を構成する部材(床41、壁43等)からの反射光を受光して撮像する。赤外線センサ22は、赤外線照射部により空間40内の物体に投影された画像を赤外線カメラにより撮像することで、撮像した画像(深度画像)から、各画素の位置座標(x,y)データに対応する深度データ(r)を出力する。深度データは、赤外線センサ22から深度画像の画素に対応する物体までの距離を示すデータである。なお、RGBカラー映像認識用カメラ21と赤外線センサ22は、同じ検知範囲及び解像度を有するものとする。
レーザプロジェクタ30は、RGB各色の発光レーザ、各色レーザ光を導く光ファイバ、及び超小型の出射部31を含む。出射部31は、パンティルト架台10の第2回転部13に取り付けられている。レーザプロジェクタ30は、制御部50から受信した画像データに応じて、被投影面である手のひらの上に情報入力画像70を投影する。出射部31は小型且つ軽量に構成されているので、大掛かりな駆動架台を用いずに素早く投影画像を移動させることができる。また、レーザプロジェクタ30は、レーザ光により画像を投影するため、被投影面と出射部31の間の距離に拘わらず良好な画像を被投影面上に結像することができるというフォーカスフリー特性を有する。なお、情報入力画像を投影することが可能であれば、RGB各色の発光レーザを用いたプロジェクタ以外の投影装置を利用してもよい。
出射部31には、SLM(Spatial Light Modulator:空間光位相変調器)として例えばLCOS(Liquid Crystal on Silicon)を用いる。なお、MEMS(Micro Electro Mechanical System)ミラーを用いたスポット走査型の出射部、又はファイバ走査型の出射部を用いて、出射部31を一層小型化することもできる。
制御部50は、CPU51、RAM52、ROM53、I/O54等を含む。I/O54は、パンティルト架台10、検知部20、レーザプロジェクタ30及び被操作装置60との間でデータの送受信を行うためのインタフェースである。なお、制御部50は、HD等の他の記録媒体を含んでもよい。制御部50は、レーザプロジェクタ30により例えばユーザの左手80の手のひら上に情報入力画像70を投影させ、投影された情報入力画像70が例えばユーザの右手90の指先でタッチされたことを検出し、そのタッチ操作による情報入力データを被操作装置60へ出力する。
制御部50は、例えばユーザの左手80の手のひらを検出すると、制御データに基づいて第1モータ15及び第2モータ16を制御して、情報入力画像70をユーザの左手80の手のひら上に投影させる。第1モータ15により第1回転部12をθ方向に回転させると、情報入力画像70は矢印Aの方向に移動する。第2モータ16により第2回転部13をψ方向に回転させると、情報入力画像70は矢印Bの方向に移動する。
被操作装置60は、エアコン、ネットワークへのアクセス装置、PC、テレビ、ラジオ、CD、DVD又はBD等の各種記録媒体の記録再生装置等であってよく、情報入力データに基づいて各種の処理を実行する。図1の例では、前述したように、ビデオ機能付き壁掛け型の液晶TVを被操作装置60としている。情報入力装置1は、空間40内で利用することができるこのような様々な機器のユーザインタフェイス(UI)又はバーチャルコントローラとして機能する。
はじめに、レーザプロジェクタ30により投影されるRGBからなる可視光画像の位置と、手のひらを検出するための深度データの位置とを合わせるための工程について説明する。図3は、初期設定処理の一例を示すフローチャートである。図3に示す制御フローは、制御部50のROM53に予め記憶されたプログラムに従って、制御部50のCPU51がパンティルト架台10、検知部20及びレーザプロジェクタ30を制御することにより実行される。
予め、不図示のディスプレイ及び操作部(キーボード及びマウス)を、I/O54を介して制御部50に取り付けておく。そして、制御部50は、検知部20からのRGBデータに基づく画像をディスプレイ上に表示させ、ユーザが空間40内の基準位置を指定する操作を受け付ける(S10)。指定された基準位置を示す位置座標(x,y)データは、RAM52等に記録される。
図4は、RGBカラー映像認識用カメラ21により撮像されディスプレイ上に表示された画像の一例を示す図である。例えば、図4のC1〜C4の4点を指定することによって、床41の領域が指定される。なお、基準位置は、床41の四隅に限定されず、他の箇所でもよい。
次に、制御部50は、例えば830nmの近赤外画像投影による三角測量法に基づき検知部20により計測された深度データを取得する(S11)。そして、制御部50は、基準位置C1〜C4により指定された領域(以下、「基準領域」という)に含まれる画素毎の深度データをRAM52に記憶する(S12)。検知部20の直下にある床41上の点と検知部20から離れた位置にある床41上の点とでは、同じ床41上でありながら検知部20からの深度データに差が出てしまうため、制御部50は、基準領域(例えば床41)の全ての画素について、位置座標データ及び深度データを予め取得して記憶する。
次に、制御部50は、レーザプロジェクタ30に画像データを送信して基準投影画像71を基準領域に投影させ、パンティルト架台10に制御データを送信して基準投影画像71を移動させる(S13)。基準投影画像71は、例えば、図4に示すように円形の枠内に表示された5つの黒点である。なお、基準投影画像71として他の画像を利用してもよい。また、図4における基準投影画像71−1は、パンティルト架台10の直下であって、本例における基準位置に投影されたものである。なお、パンティルト架台10と被投影面との位置関係及び投影画像の基準位置等は、状況に応じて適宜定めることができる。
次に、制御部50は、検知部20から位置座標データ及びRGBデータを取得する(S14)。そして、制御部50は、5つの黒点を利用して基準投影画像71の位置を特定し、パンティルト架台10へ送信した制御データと特定された基準投影画像71の位置座標データとの関係を、RAM52上に構成されたデータテーブルに記憶する(S15)。
制御部50は、上述したステップS13〜S15を、所定の間隔毎に基準投影画像71を移動させながら、基準領域全体をカバーするように繰り返し行う(S16)。なお、図4における基準投影画像71−2〜71−10は一例であって、位置を特定するために基準投影画像71を移動させる1回の移動量等は適宜定めることができる。
制御部50は、ステップS13〜S15を所定回数繰り返すことによって、基準領域(例えば床41)全体について、投影画像の位置座標(x,y)データ及び深度データ(r)と制御データとの対応関係を表すデータテーブルを完成させる(S17)。以上で、制御部50は初期設定の処理を終了する。制御部50は、後述する方法により空間40で手のひらを認識した場合、その位置データ(x,y)と深度データ(r)からその手のひらの空間座標(x,y,z)を割り出し、上記のデータテーブルを利用して、手のひら位置に投影画像が投影されるようにパンティルト架台10を制御する。
図5は、画像投影処理の一例を示すフローチャートである。制御部50は、図5に示すフローを、予め定められた時間間隔で(例えば1秒毎に)実行する。なお、図5に示す制御フローは、制御部50のROM53に予め記憶されたプログラムに従って、制御部50のCPU51がパンティルト架台10、検知部20及びレーザプロジェクタ30を制御することにより実行される。
最初に、制御部50は、830nm等の近赤外画像投影による検知部20からの深度データ(深度画像)を取得する(S20)。そして、制御部50は、取得された深度画像に対し、深度値をもとに公知のラベリング処理を行い、近赤外線の深度画像に写っている物体の輪郭を抽出する(S21)。ラベリング処理により、各物体の像がグループ分けされ、それぞれにラベルが割り当てられる。
次に、制御部50は、輪郭が抽出された各物体について、輪郭線上の各点で曲率を計算し、その値から「一時的な指先」を検出する(S22)。その際、制御部50は、曲率が指先判定のための閾値以上である点の個数をカウントし、さらにその点の個数が閾値以上であるときに、最も曲率が高い点を一時的な指先として検出する。そして、制御部50は、後述するカーブ検出処理により、一時的な指先が実際の指先であるか否かを判定し、その指先を含む指のカーブを検出する(S23)。
続いて、制御部50は、ステップS23で定まる指先及び指の付け根を用いて、後述する手のひら検出処理により、手のひらを検出する(S24)。そして、制御部50は、ステップS24で検出された手のひらの位置座標データ及び深度データをセットにして、RAM52等に記憶する(S25)。
次に、制御部50は、ステップS24で検出された手のひらの中心点の位置データ(x,y)と深度データ(r)から、空間40における中心点の空間座標(x,y,z)を割り出す。そして、制御部50は、図3のステップS17で作成したデータテーブルを利用し、パンティルト架台10を制御して、手のひら上に情報入力画像70を投影させる(S26)。以上で、制御部50は画像投影処理を終了する。
図6(a)は、情報入力画像70の例を示す図である。この情報入力画像70は、ビデオの再生ボタン72、早送りボタン73、巻戻しボタン74、チャンネルアップボタン75及びチャンネルダウンボタン76を含む。後述するように、例えばそれぞれ点線で囲まれた領域に指先がある場合に、情報入力画像70が投影されている手のひらとその上の指先との深度差に基づいて、各ボタンに対応した情報入力がなされたか否かが判定される。なお、図6(a)に示す情報入力画像70は一例であって、レーザプロジェクタ30は、制御部50からの画像データに基づいて、様々な種類の情報入力画像を投影することができる。
図6(b)は、情報入力画像70が手のひら100に投影された状態を示す図である。なお、投影画像の大きさはレーザプロジェクタ30と手のひら100との距離によって決まるので、同じ大きさの画像を投影すると、手のひら100内に情報入力画像70が収まらないことがあり得る。そこで、制御部50は、丁度手のひら100内に情報入力画像70が収まるように、手のひら100の中心点の深度データに基づいて、投影画像自体を拡大又は縮小する。
制御部50は、レーザプロジェクタ30へ送信する画像データに基づいて、情報入力画像に含まれる入力ボタンの種類及び情報入力画像内の配置位置を判断する。さらに、制御部50は、パンティルト架台10へ送信した制御データ及び図3のステップS17で作成したデータテーブルに基づいて、情報入力画像の手のひら100上の位置を判断する。したがって、制御部50は、レーザプロジェクタ30へ送信する画像データ及びパンティルト架台10へ送信する制御データに基づいて、各入力ボタンの位置を特定することができる。
図7は、カーブ検出処理の一例を示すフローチャートである。また、図8(a)〜図8(c)は、カーブ検出処理について説明するための図である。
カーブ検出処理は、ラベリング処理により得られた輪郭上の一時的な指先が実際の指先であるか否かを判定し、その指先を含む指のカーブを検出する処理であり、検知部20が深度画像を取得するたびに(即ち、各フレームで)実行される。また、カーブ検出処理は、制御部50のROM53に予め記憶されたプログラムに従って、制御部50のCPU51により実行される。
まず、制御部50は、図8(a)に示すように、図5のステップS22で検出された一時的な指先Pから、輪郭双方向に予め定められた距離だけ移動した2点A,Bをとる(S100)。点Aと点Bの幅Wが指の幅に関する幅判定閾値を超える場合(S101でNo)、制御部50は、一時的な指先Pは実際の指先ではないと判定し、処理を終了する。
一方、幅Wが幅判定閾値以内であれば(S101でYes)、制御部50は、図8(b)に示すように、一時的な指先Pの点とAB間の中点Mを結ぶ線分の向きを算出し、その向きを基準角とする(S102)。
次に、制御部50は、点Aと点Bから輪郭双方向にさらに予め定められた距離だけ進んだ次の点Amと点Bmをとる(S103)。最初は、m=1として、図8(b)に示すように、点A1と点B1をとる。そして、制御部50は、点Amと点Bmの幅Wmが上記の幅判定閾値以内であり、点Aから点Amへの向き(Aの角度)と基準角の差が角度判定閾値以内(例えば、±45度未満)であり、且つ点Bから点Bmへの向き(Bの角度)と基準角との差もその角度判定閾値以内であるか否かを判定する(S104)。
この判定基準を満たすならばステップS103に戻って、制御部50は、さらに次の点Amと点Bmをとる。即ち、最初は、点A1と点B1から輪郭双方向にさらに予め定められた距離だけ進んだ点A2と点B2(不図示)をとる。このようにして、制御部50は、幅又は角度がステップS104の判定基準外となるまでステップS103とS104の処理を繰り返し、輪郭の先端から輪郭に沿って一方向に予め定められた距離ずつ離れた点列A,A1,A2,・・・と、その先端から逆方向に予め定められた距離ずつ離れた点列B,B1,B2,・・・をとる。
そして、制御部50は、ステップS103とS104の処理を基準回数(例えば3回)以上繰り返すことができなければ(S105でNo)、一時的な指先Pは実際の指先ではないと判定し、処理を終了する。一方、制御部50は、ステップS103とS104の処理を基準回数以上繰り返すことができれば(S105でYes)、一時的な指先Pは実際の指先であると判定する(S106)。
これにより、制御部50は、図8(c)に示すように、最終的な点Anと点Bn(nは反復回数に応じて決まる)を指の根元と認識し、AnBn間の中点Mnを指の付け根と認識する。そして、指の付け根と指先の座標が決定したことにより、指の付け根から指先へ向かう線分の向き(指の角度)も決定する。まとめると、カーブ検出処理により検出された指について、指先の座標、付け根の座標、指の角度、指が属する輪郭のラベル、及び指先の深度が得られる。制御部50は、これらの値をRAM52等に記憶して(S107)、処理を終了する。
図9は、手のひら検出処理の一例を示すフローチャートである。また、図10(a)及び図10(b)は、手のひら検出処理について説明するための図である。
手のひら検出処理は、カーブ検出処理により指先と判定された物体(以下、ラベリングともいう)の先端から一定距離離れたその物体上の点を含み、その物体上に収まる最大の矩形領域を手のひらとして検出する処理であり、1本以上の指が検出されているラベルに対して各フレームで実行される。また、手のひら検出処理は、制御部50のROM53に予め記憶されたプログラムに従って、制御部50のCPU51により実行される。
まず、制御部50は、対象の指の付け根を中心としその指先までを半径とする円を作成する(S120)。例えば、対象の指が薬指である場合には、図10(a)に示すように、その付け根110を中心とし指先111までを半径とした円112を作成する。
そして、制御部50は、その円とラベリングとの重なり部分のうち、最も長い弧の中心を暫定的な手のひら座標とする(S121)。例えば、図10(a)の例では、3個ある重なり部分の弧113a〜113cのうち、最も長い弧113aの中心114を暫定的な手のひら座標とする。
続いて、制御部50は、後述する方法によりラベリング内で暫定的な手のひら座標を含む最大の矩形領域を作成し、これを手のひら領域とする(S122)。例えば、制御部50は、後述する手順により、図10(b)に示すように、中心114を有しラベリング内に含まれる最大の正方形115を作成する。
ここで、制御部50は、ステップS122で得られた矩形領域の対角線の長さを実空間上の距離に変換して、手のひら領域のサイズを算出する(S123)。算出されたサイズが例えば60〜150mmの範囲外であった場合(S124でNo)、制御部50は、手のひらでないものを手のひらと誤認したと判断し、処理を終了する。ステップS124における判定の基準範囲は、人の手のひらの大きさとして自然な範囲内で適宜設定される。
一方、ステップS124で算出されたサイズが60〜150mmの範囲内である場合(S124でYes)には、制御部50は、ステップS122で得られた矩形領域を正式に手のひらであると判定し、その中心を正式な手のひら座標とする(S125)。制御部50は、正式な手のひら座標と手のひら領域の大きさをRAM52等に記憶して(S126)、処理を終了する。
なお、対象のラベルが複数の指を持っている場合には、制御部50は、全ての指について図9の処理を行ってもよい。それにより手のひらが複数作成できた場合には、制御部50は、全ての正式な手のひら座標から中心座標を算出し、その中心座標に最も近い手のひら座標を、最終的な手のひら座標として採用する。また、対象のラベルで手のひらが1つも検出できなかった場合には、制御部50は、別のラベルで再度図9の処理を行う。
基準領域内に2つ以上の手のひらが存在した場合でも、制御部50は、各フレームで1つの手のひらのみを検出し、最初に検出したもの以外は無視してもよい。また、制御部50は、一度手のひらを検出すると、後述する手のひら追尾処理により以後のフレームではその手のひらを追尾し続け、追尾できなくなったら再度上記の手のひら検出処理により新しい手のひらを検出する。
また、制御部50は、情報入力装置1が手のひらに画像を投影するときの天地設定用に、検出された手のひらの角度を予め定められた時間間隔で求める。その際、制御部50は、例えば手のひらが保持する指の角度の平均を、その手のひらの角度として求める。角度の算出は、上記の手のひら検出処理の中で行ってもよいし、手のひら検出処理とは別に行ってもよい。制御部50は、算出した手のひらの角度をRAM52等に記憶する。
ただし、親指だけで角度を算出すると急激な角度変化が生じる可能性があるため、制御部50は、指が2本以上認識されていることを角度算出の条件としてもよい。また、手のひらが他の物体と接触している場合も正しく角度を算出できない可能性があるため、制御部50は、手のひらのラベルが他のラベルと接触していないことも角度算出の条件としてもよい。手のひらのラベルが他のラベルと接触しているか否かは、例えば、手のひらのラベルの面積が一定割合(例えば1.5倍)以上増えたか否かを基準に判定される。
次に、図9に示した手のひら検出処理のステップS122において、ラベリング内で暫定的な手のひら座標を含む最大の矩形領域を作成する手順について説明する。ここでは、矩形領域として正方形を作成する例を説明する。
図11は、手のひら領域とする最大の正方形を決定する処理の一例を示すフローチャートである。また、図12(a)〜図12(f)は、最大の正方形を決定する処理について説明するための図である。なお、図11に示す制御フローは、制御部50のROM53に予め記憶されたプログラムに従って、制御部50のCPU51により実行される。
まず、制御部50は、対象のラベルを白黒の2値化画像に変換する(S140)。図12(a)は、白黒に2値化された対象のラベルの例である。以下の図では、便宜的に黒色領域を斜線により表す。図中の白色領域120が手のひらと思われる物体(ラベリング)に相当し、白と黒の境界画素がその物体の輪郭である。図12(a)では、図9のステップS121で得られた暫定的な手のひら座標を「▲」で示している。
そして、制御部50は、暫定的な手のひら座標から上下左右の方向で白から黒に変わるところの境界画素を見つけ(S141)、これら4つの画素を境界上に含む正方形に含まれない画素を削除する(S142)。図12(b)では、上下左右方向の境界画素を「+」で示し、削除される画素を「×」で示している。
さらに、制御部50は、その画素と手のひら周辺座標とを頂点とする正方形が対象の白色領域120に含まれないような画素があれば、その画素も削除する(S143)。即ち、制御部50は、白色領域120に凹みを与えている画素を削除して、凹みのない領域を作成する。例えば、図12(c)に「×」で示した画素は、正方形121が白色領域120に含まれないため、削除される。
次に、制御部50は、不要な画素が削除された、図12(d)に示すような白色領域122において、「+」で示した境界画素のうちの1つを選択する(S144)。そして、制御部50は、白色領域122内で、選択された境界画素と暫定的な手のひら座標の両方が含まれる最大の正方形を作成し、それを正方形リストに記憶する(S145)。例えば、白色領域122の左上にある「●」で示す境界画素が選択されたときは、その境界画素と暫定的な手のひら座標の両方が含まれる正方形には、図12(e)の正方形123と図12(f)の正方形124がある。この場合は、大きい方の正方形124が正方形リストに記憶される。
そして、他に未選択の境界画素があれば(S146でYes)、ステップS144に戻る。一方、未選択の境界画素がない場合(S146でNo)には、制御部50は、正方形リストの中から、面積が最大で、且つ中心座標が暫定的な手のひら座標に最も近い正方形を最終的な最大正方形として決定し、手のひら領域とする(S147)。以上で、手のひら領域を決定する処理は終了する。
なお、手のひら領域は、正方形に限らず、長方形、ひし形、正多角形、又は円等の任意の図形でもよい。ただし、凹みのない図形であることが好ましい。
図13は、手のひら追尾処理の一例を示すフローチャートである。制御部50は、手のひら検出後の各フレームにおいて、急速な手のひらの移動がない限り、指を認識していなくても手のひらを追尾し続ける。手のひら追尾処理は、前フレームでの手のひらラベル(手のひら検出処理により手のひらと判定されたラベル)を現フレームにおけるどのラベルとリンクさせる(同一物体とする)かを判定する処理である。手のひら追尾処理は、制御部50のROM53に予め記憶されたプログラムに従って、制御部50のCPU51により実行される。
まず、制御部50は、現フレームに含まれるラベルのうち、前フレームに手のひらラベルが存在していた箇所と重なりがあるものを抽出する(S160)。そして、制御部50は、ステップS160で抽出されたラベルのうち、深度情報を用いて、前フレームの手のひらとの深度差が閾値(例えば10cm)以内のものを選択する(S161)。次に、制御部50は、ステップS161で選択されたラベルのうち、前フレームの手のひらラベルとの重なり部分が最も多いものを、現フレームでの手のひらラベル(リンクラベル)とする(S162)。
ここで、手のひらの微小な動きによる変動の影響を除くために、制御部50は、前フレームの手のひら領域と同じ中心座標をもつ、大きさがやや(例えば10%)小さい処理正方形を作成する(S163)。次に、制御部50は、現フレームで処理正方形と重なりがあるラベルを特定する(S164)。処理正方形と重なるラベルが1つもない場合(S165でNo)には、制御部50は、前フレームの手のひらは消失したと判断して、手のひら追尾処理を終了し、再び上記の手のひら検出処理を行う。
一方、処理正方形と重なるラベルがある場合(S165でYes)には、制御部50は、手のひら領域の再計算が必要か否かを判定する(S166)。例えば、処理正方形内のラベルがリンクラベルのみの場合か、又は他のラベルが含まれていてもそれらが全てリンクラベルの上にいる場合には、制御部50は、手のひらは移動しておらず手のひら領域の再計算は不要と判定する。ただし、これらの場合であっても、処理正方形内における背景画素の割合が一定割合(例えば2%)を超えたときには、制御部50は、手のひら領域の再計算が必要と判定してもよい。
また、処理正方形内にリンクラベルと他のラベルが含まれていて、他のラベルがリンクラベルの下にある場合には、制御部50は、手のひら領域の再計算が必要と判定する。
また、処理正方形内にリンクラベルがない場合か、又は処理正方形内のリンクラベルが現フレームで急激に減った場合(例えば、手のひらラベルの面積が前フレームと比べて2/3未満になった場合)には、制御部50は、手のひら領域の再計算が必要と判定する。この場合、制御部50は、処理正方形内の中にあるラベルのうち、最も大きいものをリンクラベルに置き換える。
手のひら領域の再計算が必要と判定された場合(S166でYes)には、制御部50は、前フレームの手のひらの正方形とリンクラベルとを用いて、手のひら領域を再計算する(S167)。その際、制御部50は、リンクラベル内で、前フレームの手のひら座標を含む最大の正方形を作成する。
前フレームの手のひら座標を含む正方形を作成できない場合には、制御部50は、例えば、深度画像上で45度ずつに8分割された各方向のうち、前々フレームから前フレームにかけて手のひら座標がどの方向に移動したかを判定する。そして、制御部50は、前フレームの手のひら領域の頂点と各辺の中点との計8点のうち、判定された移動方向に相当する点を、新たな手のひら座標とする。そして、制御部50は、その新たな手のひら座標を含む、リンクラベル内で最大の正方形を作成する。なお、これでも正方形が作成できない場合には、制御部50は、前フレームの手のひらは消失したと判断して、手のひら追尾処理を終了し、再び上記の手のひら検出処理を行う。
リンクラベル内で最大の正方形を作成できたら、制御部50は、その正方形に対し、図9の手のひら検出処理におけるステップS124と同様のサイズ判定を行って、その正方形が手のひらか否かを判定する(S168)。
手のひら領域の再計算が不要と判定された場合(S166でNo)か、又はステップS168のサイズ判定にて正式に手のひらと判定された場合には、制御部50は、手のひら追尾処理の最後に、手のひらの整合判定を行う(S169)。整合判定では、制御部50は、例えば次の各条件が全て満たされているか否かを判定する。
条件1:手のひらラベルで認識されている指が2本〜5本であり、且つそれらの指が他のラベルと非接触と判断されている。
条件2:手のひらラベルで認識されている指(例えば、見つかった順に2本)の付け根と手のひら座標との距離が、いずれも閾値(例えば100mm)以下である。
上記の何れかの条件を満たさない場合(S169でNo)、制御部50は、現在のリンクラベルに対して手のひら検出処理を行って、手のひら領域の情報を更新する(S170)。一方、上記の条件を全て満たす場合(S169でYes)には、制御部50は、対象のリンクラベルを正式に手のひらと判定する(S171)。以上で、手のひら追尾処理は終了する。
図14は、勾配検出処理の一例を示すフローチャートである。また、図15(a)〜図15(c)は、勾配検出処理について説明するための図である。
カーブ検出処理により認識されていた指又はその手のひら一部が何らかの物体にタッチすると、その指又は手のひらは正しくラベリングできなくなることがある。前フレームまで検出されていた指を現フレームではカーブ検出処理で検出できない(このような指のことを「消失した指」という)場合、制御部50は、図7のカーブ検出処理とは別の指検出方法である以下の勾配検出処理により指を検出する。なお、勾配検出処理は、制御部50のROM53に予め記憶されたプログラムに従って、制御部50のCPU51により実行される。
まず、制御部50は、消失した指の指先座標を中心として、既に検出されている手のひらを含む一定の大きさの処理領域を設定する(S180)。そして、制御部50は、深度画像から得られる処理領域の深度データに対して公知の平滑化処理を行って、平滑済みデータを取得する(S181)。
次に、制御部50は、処理領域において、水平方向に深度グラフを作成する(S182)。例えば、図15(a)に示す手130の指を検出する場合には、水平方向について、直線h1,h2のように複数の深度グラフを作成する。図15(b)は、図15(a)の直線h1,h2に沿った深度グラフである。
そして、制御部50は、その深度のグラフにおける立上りと立下りを検出し、その間の距離が幅判定閾値以内であるか否かを判定する(S183)。立上りと立下りの間の距離が幅判定閾値を超えている場合(S183でNo)には、制御部50は、立上りと立下りの間の画素を指の画素ではないと判定し、処理を終了する。
一方、検出された立上りと立下りの間の距離が幅判定閾値以内である場合(S183でYes)には、制御部50は、処理領域において、垂直方向にも深度のグラフを作成する(S184)。そして、制御部50は、その深度のグラフにおける立上りと立下りを検出し、その間の距離が幅判定閾値以内であるか否かを判定する(S185)。立上りと立下りの間の距離が幅判定閾値を超えている場合(S185でNo)には、制御部50は、立上りと立下りの間の画素を指の画素ではないと判定し、処理を終了する。
一方、検出された立上りと立下りの間の距離が幅判定閾値以内である場合(S185でYes)、制御部50は、立上りと立下りの間の画素を指の画素であると判定し、指と判定された画素を含む図15(c)のような最小矩形131を作成する(S186)。そして、制御部50は、その最小矩形の2つの短辺と重なる輪郭部分のうち、最も中心に近い点を指先座標の候補A,Bとして、最小矩形の中心から点A、点Bにそれぞれ向かう線分の向き(角度)を求める(S187)。
その角度と前フレームにおける指の角度との差が閾値以内でなければ(S188でNo)、制御部50は、検出されたものは消失した指ではないと判定し、処理を終了する。一方、ステップS187で求めた角度と前フレームにおける指の角度との差が閾値以内であれば(S188でYes)、制御部50は、前フレームにおける指先に近い方の点を現フレームにおける消失した指の指先位置と判定する(S189)。このとき、制御部50は、指先の座標、指の角度、指が属する輪郭のラベル等をRAM52等に記憶して(S190)、処理を終了する。
また、前フレーム検出された指Aと現フレームで検出された指Bを関連付けるには、制御部50は、それらの指の角度差が閾値以内(例えば±60度未満)であるか否かを判定する。また、制御部50は、指Aの指先と指Bの指先との距離差が閾値以内であるか否かを判定する。そして、制御部50は、上記の角度差と距離差が両方とも閾値以内である場合に、指Aと指Bは同じ指であると判定し、これらの指を関連付ける(リンクさせる)。一方、制御部50は、上記の角度差と距離差の何れか一方でも閾値範囲外である場合には、指Aと指Bは異なる指であると判定し、これらの指をリンクさせない。
なお、各フレーム上で複数の指先が検出されている場合は、制御部50は、距離差が閾値以内であり最も近いもの同士を同じ指であると判定し、互いにリンクさせる。そして、リンクできない指が残った場合、制御部50は、その指を、新たに検出した指か又は消失した指であると判定する。
図16は、情報入力処理の一例を示すフローチャートである。また、図17(a)及び図17(b)は、手のひらに投影された画像に対する情報入力操作の例を示す図である。図16に示す制御フローは、制御部50のROM53に予め記憶されたプログラムに従って、制御部50のCPU51がパンティルト架台10、検知部20及びレーザプロジェクタ30を制御することにより実行される。
最初に、制御部50は、ユーザの手のひらが認識されているか否かを判定し(S30)、手のひらが認識されている場合にのみ、以下のステップに進む。
手のひらが認識されている場合、制御部50は、レーザプロジェクタ30へ送信した画像データ及びパンティルト架台10へ送信した制御データを取得する(S31)。次に、制御部50は、検知部20からRGBデータ及び深度データを取得する(S32)。なお、ステップS31とS32の順番は逆であってもよい。
続いて、制御部50は、図17(a)に示すように、認識されている手のひら領域141を含む円等の一定範囲142内に指が侵入してきたか否かを、上記のカーブ検出処理又は勾配検出処理により判定する(S33)。なお、例えば認識されている手のひらに指がタッチした場合、カーブ検出処理では正しく指を検出できないことがあるため、その場合は、制御部50は、勾配検出処理により指を検出する。このような指の侵入が検出されると、カーブ検出処理又は勾配検出処理により、その指先の位置も求められる。
指の侵入が検出された場合には、制御部50は、検出された指が情報入力操作を行っているか否かを判定する(S34)。図17(b)は、情報入力画像70が投影された左手80の手のひら100と、その上にかざされた右手90を示す図である。このように手のひら100上に別の手である右手90が存在したとしても、情報入力操作が意図されていない場合もあり得る。そこで、制御部50は、指先位置が手のひら100上にあり、手のひら100と手のひらの上にある指先位置F5の深度差が閾値以内(例えば10mm以内)であれば、右手90の指先位置F5が情報入力操作を行っていると判定する。
なお、チャタリング等によって、指先位置F5の深度データが短い期間で変動する可能がある。したがって、誤検知を防止するために、所定時間(例えば1秒)以上連続して手のひら100と指先位置F5の深度差が閾値以内である場合に、情報入力があったと判定してもよい。
ステップS34において、指先位置F5が情報入力操作を意図したものであると判断された場合、制御部50は、レーザプロジェクタ30へ送信した画像データ及びパンティルト架台10へ送信した制御データに基づいて、情報入力画像70に含まれる各入力ボタンの手のひら100中の位置を特定する(S35)。
次に、制御部50は、ステップS33で特定された指先位置F5と、ステップS35で特定された各入力ボタンの手のひら100内での位置に基づいて、情報入力内容を特定する(S36)。例えば、制御部50は、指先位置F5の座標が、図6(a)の再生ボタン72の範囲内にある場合には、情報入力内容が「再生」であると特定する。また、制御部50は、指先位置F5と一致する入力ボタンが存在しない場合には、情報入力内容が存在しないと特定してもよい。
次に、制御部50は、ステップS36で特定された情報入力内容に対応した処理を実行して(S37)、一連の処理を終了する。例えば、特定された情報入力の内容が「再生」である場合には、制御部50は、接続されている被操作装置60に「再生」のための信号を送信する。なお、ステップS34において情報入力ではないと判断された場合にも、一連の処理を終了する。
図18は、手のひらに投影された画像に対する情報入力操作の別の例を示す図である。図17(b)では情報入力画像70が投影された手とは別の手により情報入力操作が行われる例を示したが、図18では、情報入力画像70が投影された手と同じ手により情報入力操作が行われる例を示す。上記の通り、制御部50は、情報入力画像70が投影される手のひらと、その情報入力画像70を操作する指とを深度データから検出する。このため、制御部50は、例えば、情報入力画像70が投影されている手の親指151とその手のひら152が重なっていても、両者がタッチしているか否かを判定可能である。したがって、ユーザは、例えばスマートフォンを片手で操作するように、手のひらに投影された情報入力画像70を操作することが可能になる。
なお、制御部50は、手のひら領域内の各画素の深度データから、検出された手のひら領域が手のひらと手の甲の何れであるかを識別することも可能である。例えば、制御部50は、上記のように手のひらの角度を算出してその角度で手のひら領域上に平面をとり、この平面を基準として手のひら領域内の各画素が赤外線センサ22に近いか否かを判定する。そして、例えば、制御部50は、手のひら領域の中央部が赤外線センサ22から見て凹状であればその手のひら領域は手のひらであり、逆に中央部が赤外線センサ22から見て凸状であれば手の甲であると判定する。
このため、情報入力装置1では、例えば、手のひらと手の甲のどちらが検出されたかに応じて異なる情報入力画像を投影し、両者に異なる機能をもたせることも可能である。手のひらに投影された情報入力画像はどちらの手でも操作可能であるが、手の甲に投影された情報入力画像については、ユーザは原則として逆の手の指で操作することになる。
図16に示す制御フローが実行されることにより、手のひら100に投影されている情報入力画像70の何れかの入力ボタンにユーザが指先で触れることで、リモコン等の機器を利用することなく、その入力ボタンに対応する情報入力を行うことが可能となる。
なお、以上説明してきた制御部50の各機能を実現するプログラムは、通信手段により提供してもよいし、CD−ROM等の記録媒体に格納して提供してもよい。
図19は、パンティルト架台10及びレーザプロジェクタ30の構成例を示す図である。なお、図19に示したパンティルト架台10及びレーザプロジェクタ30は一例であって、これらに限定されるものではない。
雲台10は、レーザプロジェクタ30の出射部31を固定したチルト用の第2回転部13、第2回転部13を保持したパン用の第1回転部12、第1回転部12を保持する基部11等を有する。
第2回転部13は、第2モータ16に付属された第1ギア13−1及び第1ギア13−1と噛み合わされた第2ギア13−2等の稼動部材によって、φ方向に回転自在にレーザプロジェクタ30の出射部31を保持している。また、第1回転部12は、第1モータ15によって回転台12−1を移動させ、θ方向に回転自在に第2回転部13を保持している。
レーザプロジェクタ30は、RGBレーザ光用ファイバを固定するファイバピグテイルモジュール34、RGBレーザ光用ファイバからの光を合成するRGBファイバコンバイナ33、可視シングルモードファイバ32、及び出射部31等で構成される。可視シングルモードファイバ32は、RGBファイバコンバイナ33で合成された光を、第2回転部13に保持された出射部31へ導く機能を有する。ファイバピグテイルモジュール34は、RGB各色の発光レーザ(不図示)に接続されている。
図20は、レーザプロジェクタ30の出射部31及び赤外線センサ22の構成例を示す断面図である。図20に示すように、赤外線センサ22は、例えばレーザプロジェクタ30の下部に取り付けられている。赤外線センサ22をこのように配置することにより、赤外線センサ22は、レーザプロジェクタ30により画像を投影可能な空間内において、出射部31からその空間内の物体までの距離を示す深度データを取得することができる。
1 情報入力装置
10 パンティルト架台
20 検知部
22 赤外線センサ
30 レーザプロジェクタ
31 出射部
40 空間
50 制御部
70 情報入力画像
100 手のひら

Claims (9)

  1. 投影部により画像を投影可能な空間内において、深度センサを用いて当該投影部から当該空間内の物体までの距離を示す深度データを取得し、
    前記深度データから前記空間内の物体の輪郭を抽出し、
    抽出された輪郭の曲率から、前記空間内の物体の先端部分が指であるか否かを判定し、
    指と判定された前記物体の先端部分から一定距離離れた当該物体上の点を含み、当該物体上に収まる任意の図形領域を手のひらとして検出し、
    前記投影部により前記手のひらに画像を投影する、
    ステップを有することを特徴とする画像投影方法。
  2. 前記指を判定するステップにより、前記手のひらの上に指が移動したか否かを判定し、
    前記手のひらと当該手のひら上に移動した指との深度差に基づき、当該手のひらに投影された画像に対する当該移動した指による操作を情報入力操作として検出するステップをさらに有する、請求項1に記載の画像投影方法。
  3. 前記指を判定するステップにより、前記手のひらの上に、当該手のひらと同じ手の指が移動したか否かを判定する、請求項2に記載の画像投影方法。
  4. 前記指を判定するステップでは、抽出された輪郭の曲率により定まる当該輪郭の先端から当該輪郭に沿って一方向に予め定められた距離ずつ離れた点列と、当該先端から逆方向に予め定められた距離ずつ離れた点列との対応する2点間の距離が、指の幅に応じて定められた閾値以内であるときに、当該輪郭の先端と当該2つの点列により囲まれる物体の先端部分を指であると判定する、請求項1〜3の何れか一項に記載の画像投影方法。
  5. 前記手のひらを検出するステップでは、先端部分が指と判定された物体上で、前記2つの点列により定まる当該指の付け根から一定距離離れた点を含み、当該物体上に収まる最大の矩形領域を手のひらとして検出する、請求項4に記載の画像投影方法。
  6. 抽出された物体の輪郭を含む一定範囲内における深度分布の立上りと立下りの間の距離が、指の幅に応じて定められた閾値以内であるときに、当該物体の先端部分が指であると判定するステップをさらに有する、請求項1〜5の何れか一項に記載の画像投影方法。
  7. 画像を投影する投影部と、
    前記投影部により画像を投影可能な空間内において、当該投影部から当該空間内の物体までの距離を示す深度データを取得する深度センサと、
    前記投影部を制御して画像を投影し、投影された画像に対する入力操作を検出する制御部と、を有し、
    前記制御部は、
    前記深度データから前記空間内の物体の輪郭を抽出し、
    抽出された輪郭の曲率から、前記空間内の物体の先端部分が指であるか否かを判定し、
    指と判定された前記物体の先端部分から一定距離離れた当該物体上の点を含み、当該物体上に収まる任意の図形領域を手のひらとして検出し、
    前記投影部により前記手のひらに画像を投影させる、
    ことを特徴とする情報入力装置。
  8. 前記深度センサは、赤外線照射部及び赤外線カメラを有し、当該赤外線照射部により前記空間内の物体に投影された画像を当該赤外線カメラにより撮像することで前記深度データを取得する、請求項7に記載の情報入力装置。
  9. 画像を投影する投影部を有する装置を制御するコンピュータに、
    前記投影部により画像を投影可能な空間内において、深度センサにより測定された当該投影部から当該空間内の物体までの距離を示す深度データを取得する機能と、
    前記深度データから前記空間内の物体の輪郭を抽出する機能と、
    抽出された輪郭の曲率から、前記空間内の物体の先端部分が指であるか否かを判定する機能と、
    指と判定された前記物体の先端部分から一定距離離れた当該物体上の点を含み、当該物体上に収まる任意の図形領域を手のひらとして検出する機能と、
    前記投影部により前記手のひらに画像を投影させる機能と、
    を実現させることを特徴とするプログラム。
JP2013233491A 2013-11-11 2013-11-11 画像投影方法、情報入力装置及びプログラム Pending JP2015094828A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013233491A JP2015094828A (ja) 2013-11-11 2013-11-11 画像投影方法、情報入力装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013233491A JP2015094828A (ja) 2013-11-11 2013-11-11 画像投影方法、情報入力装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2015094828A true JP2015094828A (ja) 2015-05-18

Family

ID=53197270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013233491A Pending JP2015094828A (ja) 2013-11-11 2013-11-11 画像投影方法、情報入力装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2015094828A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102499A (ja) * 2015-11-30 2017-06-08 富士通株式会社 操作検出方法、操作検出装置、及び操作検出プログラム
JP2019003397A (ja) * 2017-06-15 2019-01-10 コニカミノルタ株式会社 情報処理装置及びプログラム
WO2019184789A1 (zh) * 2018-03-27 2019-10-03 维沃移动通信有限公司 激光投射装置及移动终端
JP2019178513A (ja) * 2018-03-30 2019-10-17 株式会社Lixil 吐水制御装置、吐水制御システム、及び吐水制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102499A (ja) * 2015-11-30 2017-06-08 富士通株式会社 操作検出方法、操作検出装置、及び操作検出プログラム
JP2019003397A (ja) * 2017-06-15 2019-01-10 コニカミノルタ株式会社 情報処理装置及びプログラム
WO2019184789A1 (zh) * 2018-03-27 2019-10-03 维沃移动通信有限公司 激光投射装置及移动终端
JP2019178513A (ja) * 2018-03-30 2019-10-17 株式会社Lixil 吐水制御装置、吐水制御システム、及び吐水制御方法
JP7206057B2 (ja) 2018-03-30 2023-01-17 株式会社Lixil 吐水制御装置、及び吐水制御システム

Similar Documents

Publication Publication Date Title
US9229584B2 (en) Information input apparatus
CN108664173B (zh) 投影型影像显示装置
EP2480955B1 (en) Remote control of computer devices
JP6372487B2 (ja) 情報処理装置、制御方法、プログラム、および記憶媒体
US20130135199A1 (en) System and method for user interaction with projected content
TWI559174B (zh) 以手勢爲基礎之三維影像操控技術
WO2016021022A1 (ja) 投写型映像表示装置及びその制御方法
JPWO2018079446A1 (ja) 情報入力装置および情報入力方法
CN105323520B (zh) 投影仪设备、交互系统和交互控制方法
TW201426413A (zh) 三維互動裝置及其操控方法
WO2015159548A1 (ja) 投影制御装置、投影制御方法及び投影制御プログラムを記録した記録媒体
TW201115412A (en) Hybrid pointing device
JPWO2016092617A1 (ja) 投射型映像表示装置及び映像表示方法
US20170085848A1 (en) Information processing device, projector and information processing method
JP2017142726A (ja) 電子黒板システム、表示装置及び表示方法
JP2015094828A (ja) 画像投影方法、情報入力装置及びプログラム
JP6349811B2 (ja) 映像信号出力装置、映像信号出力方法、及びプログラム
JP2012220678A (ja) カーソル表示システム
JP2017182109A (ja) 表示システム、情報処理装置、プロジェクター及び情報処理方法
JPWO2018096827A1 (ja) 表示制御装置、表示制御方法及びコンピュータプログラム
JP2013152529A (ja) 情報処理装置及びその制御方法
TWI394063B (zh) 應用影像辨識之指令輸入系統以及方法
JP6314177B2 (ja) 投射型映像表示装置
JP2006260487A (ja) ポインタシステム
JP2013134549A (ja) データ入力装置およびデータ入力方法