JP2016038621A - 空間入力システム - Google Patents
空間入力システム Download PDFInfo
- Publication number
- JP2016038621A JP2016038621A JP2014159622A JP2014159622A JP2016038621A JP 2016038621 A JP2016038621 A JP 2016038621A JP 2014159622 A JP2014159622 A JP 2014159622A JP 2014159622 A JP2014159622 A JP 2014159622A JP 2016038621 A JP2016038621 A JP 2016038621A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- input
- input system
- video information
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
【課題】空間入力に対する入力結果を入力空間内に投影することができる空間入力システムを提供する。【解決手段】空間入力システム10は、撮像装置100と、車載装置200と、プロジェクタ300とを有する。撮像装置100は、入力空間R1内の実物体の入力動作を撮像し、撮像された画像データを車載装置200に送信する。車載装置は、送信された画像データを解析し、解析結果に基づき生成された映像情報をプロジェクタ300に送信する。プロジェクタ300は、空間入力に対する結果を投影空間R2内に投影する。【選択図】図2
Description
本発明は、3次元空間内の実物体の移動を認識する空間入力システムに関し、特に、ジェスチャー入力の結果を映像によりフィードバックする空間入力システムに関する。
車載装置には、キーボタン入力、タッチパネル入力、音声入力、ジェスチャー入力等、様々な入力インターフェイスが提供されている。近年では特に、運転時に車載装置を操作する場合の安全性を考慮し、運転者の注意を散漫させないような音声入力やジェスチャー入力が注目されている。
ジェスチャー入力は、ユーザーの手の動きを撮像装置で撮像し、予め決められた移動を認識することができたとき、ユーザーの入力操作が実行される。ジェスチャー入力は車載装置だけでなく、特許文献1に開示されるように、テレビジョン等の表示装置に対する入力制御にも使用されている。
ジェスチャー入力は、操作が簡単である反面、入力したか否かのフィードバックが無いことが多く、ユーザーにとって、入力が行われたのか否かの判断が難しいものであった。例えば、特許文献1には、入力操作のフィードバックを表示画面に表示させることが記載されているが、車載装置のように、運転中に表示画面にフィードバック結果を表示することは、安全面を考慮すると好ましくない。
本発明は、このような従来の課題を解決するものであり、空間入力に対する入力結果を投影することができる空間入力システムを提供することを目的とする。
本発明に係る空間入力システムは、入力空間内の実物体の動作を撮像する撮像装置と、前記撮像装置からの撮像情報に基づき実物体の移動軌跡を解析する電子装置と、前記電子装置の解析結果に基づき映像を投影する出力装置を含むものであって、前記電子装置は、前記撮像情報を受信する受信手段と、前記撮像情報から前記実物体の移動軌跡を解析する軌跡解析手段と、前記軌跡解析手段により解析された移動軌跡に対応する映像情報を生成する生成手段と、前記映像情報を前記出力装置に送信する送信手段とを有し、前記出力装置は、前記映像情報を前記入力空間内に投影する投影手段を有する。
好ましくは前記空間入力システムはさらに、前記撮像情報から前記実物体の少なくとも1つの特徴点を抽出する抽出手段を含み、前記軌跡解析手段は、前記実物体の特徴点の移動軌跡を解析する。好ましくは前記生成手段は、前記軌跡解析手段が前記実物体の移動軌跡を解析できなかった場合に、前記映像情報の映像色を変更する。好ましくは前記電子装置はさらに、移動軌跡パターンを予め記憶する記憶手段と、前記軌跡解析手段により解析された前記実物体の移動軌跡と前記記憶手段に記憶された移動軌跡パターンを比較する比較手段と、前記比較手段の比較結果に基づき前記実物体の移動軌跡に対応する移動軌跡パターンを認識する認識手段とを有し、前記生成手段はさらに、前記認識手段により認識された前記移動軌跡パターンに対応する映像情報を生成する。好ましくは前記映像情報は、前記移動軌跡パターンに対応する図形または文字情報を含む。好ましくは前記認識手段は、前記入力空間内においてユーザーのジェスチャーを認識する。好ましくは前記生成手段は、前記認識手段が移動軌跡パターンを認識できなかった場合、前記映像情報の映像色を変更する。好ましくは前記撮像装置は、前記投影手段に用いられる投影光の波長と異なる帯域の波長で前記入力空間を撮像する。好ましくは前記電子装置はさらに、前記認識手段により認識された前記実物体の移動軌跡に基づき前記実物体の位置を予測する予測手段を有し、前記投影手段は、前記予測手段の予測結果に基づき前記映像情報を前記入力空間内に投影する。好ましくは前記電子装置は、車両に搭載された車載装置であり、前記撮像装置および前記投影手段は、前記車両の天井に設置される。好ましくは前記電子装置は、車両のセンターコンソールに表示装置を含み、前記撮像装置は、前記センターコンソール近傍の入力空間を撮像し、前記投影手段は、前記センターコンソール近傍の入力空間に映像情報を投影する。
本発明によれば、入力空間内の実物体の移動軌跡を解析し、解析結果に基づいた映像情報を入力空間内に投影するようにしたので、ユーザーは、入力が行われたか否かを容易に識別することができる。
次に、本発明の実施の形態について図面を参照して詳細に説明する。本発明の1つの好ましい態様では、空間入力システムは、車両に搭載された車載装置への入力システムとして利用される。但し、本発明は、必ずしも車載用の空間入力システムに限定されるものではない。
本発明の空間入力システムは、入力空間を撮像するための撮像装置を含み、撮像装置は、車内に設置された撮像カメラを含む。撮像カメラは、例えば、車両の天井などに設置され、車内の入力空間において手などの実物体の動作または移動を撮像する。さらに空間入力システムは、入力情報としての撮像情報を撮像装置から受け取る電子装置を含む。当該電子装置は、例えば、車内に備えられた車載装置である。電子装置は、特に制限されないが、種々の機能を包含することができ、撮像装置から送信される撮像情報を解析する機能の他に、そのような解析から得られた入力に応答して動作可能なナビゲーション機能、オーディオ・ビデオデータを再生する機能、テレビ・ラジオ放送を受信する機能などを備えることができる。さらに空間入力システムは、電子装置から送信される映像情報を出力する出力装置を含み、出力装置は、好ましくは、映像情報を投影するプロジェクタを含む。出力装置は、撮像装置が撮像する入力空間とほぼ一致する投影空間内に映像信号を投影し、入力された結果を投影情報としてユーザーに伝える。
次に、本発明の実施例に係る空間入力システムについて図面を参照して説明する。図1は、本発明の実施例に係る空間入力システムの具体的な全体構成を示す俯瞰図である。本実施例に係る空間入力システム10は、入力空間R1を撮像する撮像装置100と、撮像装置100からの撮像情報を受け取る車載装置200と、車載装置200から送信される映像信号を投影するプロジェクタ300とを含んで構成される。例えば、ユーザーUは、運転席の運転者であり、入力空間R1の範囲内でジェスチャー動作を行うことで、車載装置200への入力操作を行うことができる。
図2は、本発明の実施例に係る車内の空間入力システムの斜視図を示す図である。撮像装置100は、車両の天井またはその他の位置に固定され、ユーザーUの手Hの動作を感知する入力空間R1を形成する。入力空間R1は、好ましくは、運転者が運転をしながら、片方の手を容易に動かすことできる位置である(図2の場合、左手でハンドルを操作し、右手でジェスチャー入力が可能となる空間である)。例えば、車載装置200のディスプレイ250がセンターコンソールに配置されるとき、入力空間R1は、運転席と助手席と間の空間、より好ましくはアームレストAR上の空間であることができる。
プロジェクタ300は、入力空間R1と重複する投影空間R2内に映像を投影する。好ましくは入力空間R1と投影空間R2は、ほぼ等しい空間であるが、入力空間R1よりも投影空間R2が大きくてもよいし、反対に小さくてもよい。本発明の実施例に係る空間入力システム10は、入力空間R1内の手Hの動きを撮像装置100で撮像し、車載装置200で動きの解析等をした後、プロジェクタ300が入力に対応する映像を投影する。それ故、ユーザーにとって、入力した結果を即座に認識できる位置に映像が投影されることが望ましく、例えば、ユーザーがアームレストAR上の空間で入力を行ったならば、その空間に、入力結果を反映した映像を投影することが望ましい。
図3は、空間入力システム10の構成例を示すブロック図である。撮像装置100は、車内の入力空間R1を撮像する撮像部110、D/A変換部120、制御部130、画像データ送信部140を含む。車載装置200は、記憶部210、ナビゲーション部220、音声出力部230、入力部240、表示部250、マルチメディア再生部260、制御部270、入力インターフェイス280および外部インターフェイス290を含む。但し、図3に示す撮像装置100、車載装置200、プロジェクタ300の構成は例示であり、これに限定されることを意図するものではない。以下、各部について詳細に説明する。
撮像部110は、車内上部に取り付けられた少なくとも1つの撮像カメラを含み、撮像カメラにより車内の入力空間R1を撮像する。撮像部110は、入力空間R1内にユーザーUの手Hが進入したとき動作を開始するようにしてもよいし、あるいは、図示しない赤外線センサーなどにより入力空間R1内への物体の進入が検知されたことに応答して動作を開始するようにしてもよい。
D/A変換部120は、撮像部110によって撮像された画像データをデジタルデータに変換する。制御部130は、撮像装置100の各部を制御し、例えば、撮像部110の動作開始、撮像部110のチルト、撮像された画像データの送信等を制御する。画像データ送信部140は、撮像部110で撮像された画像データを車載装置200に送信する。車載装置200は、入力インターフェイス280を介して画像データを受け取る。
車載装置200は、入力インターフェイス280を介して撮像装置100とデータの送受を可能にする。データの送受は、有線または無線のいずれかを問わない。さらに車載装置200は、出力インターフェイス290を介してプロジェクタ300とデータの送受を可能にする。このデータの送受もまた、有線または無線のいずれであってもよい。
記憶部210は、種々のデータやプログラムなどを記憶することができる。さらに記憶部210は、マルチメディア再生部260で再生可能な映像データやオーディオデータを格納したり、ナビゲーション部220に必要な地図データ等を格納することができる。さらに好ましくは、記憶部210は、撮像装置100から送信される画像データのデジタルデータを記憶したり、ジェスチャー入力を判定するために必要なデータを記憶することができる。図4は、ジェスチャー動作軌跡とこれに対応する入力内容を規定した判定テーブルである。同図に示すように、入力操作としての「早送り」、「再生」、「次へ」、「戻る」、「ナビ開始」、「ナビ停止」などが、予め決められたジェスチャー動作軌跡に割り当てられている。これらの入力操作は、マルチメディア再生部260、ナビゲーション部220などへの指示を与えるものとして規定されている。
ナビゲーション部220は、自車位置周辺の道路地図を案内したり、自車位置から目的地までの経路を探索し、これを案内したりする。自車位置は、ジャイロセンサや加速度センサなどの測定結果、および/またはGPS衛星からのGPS信号から算出される。
音声出力部230は、マルチメディア再生部260で再生されたオーディオデータや記憶部210に記憶されているオーディオデータ等を出力する。入力部240は、タッチパネルやボタンキーなど、車載装置200を使用するユーザーが実行する機能を選択したり、ユーザーの音声を入力するマイク等を含むことができる。表示部250は、マルチメディア再生部260で再生されたビデオデータや、記憶部210に記憶されている地図データ等を表示する。マルチメディア再生部260は、CD、DVD、メモリなどの外部媒体や記憶部210から読み出されたビデオデータやオーディオデータを再生したり、テレビ放送やラジオ放送で受信したビデオデータやオーディオデータを再生したりする。再生されたデータは、表示部250や音声出力部230から出力される。
制御部270は、マイクロプロセッサやマイクロコントローラ、ROM/RAM等を含み、例えば、プログラム等を実行することにより車載装置200の各部を制御する。本実施例では、制御部270は、撮像装置100から送信される画像データに基づき、ユーザーUの手Hの空間入力を制御する空間入力制御プログラム400を実行する。図5に、空間入力制御プログラム400の機能的な構成を示す。
空間入力制御プログラム400は、画像データ取得部410、特徴点抽出部420、特徴点座標検出部430、動作軌跡作成部440、動作軌跡比較部450、動作軌跡認識部460、映像情報生成部470、映像情報送信部480、および機能実行部490を含む。画像データ取得部410は、撮像装置100が入力空間R1を撮像したデジタル化された画像データを取得する。画像データ取得部420で取得された画像データは、画像処理のために特徴点抽出部420等の各部へ供給される。
特徴点抽出部420は、画像データ取得部410が取得した画像データを解析し、当該画像データの中から特徴点を抽出する。特徴点は、特に限定されないが、例えば、ジェスチャー入力を判定するうえで、判定精度が高まるような部位が望ましい。本例では、ユーザーの手Hの指先を特徴点として抽出する。特徴点の抽出は、例えば、画像データの濃淡からエッジないし輪郭を抽出し、さらにその指先に対応する画素領域を抽出する。例えば、図6(A)に示すような形でジェスチャー入力操作が行われたとき、特徴点抽出部420は、指先H1を特徴点として抽出する。また、図6(B)に示すような形でジェスチャー入力操作が行われたとき、複数の指先H2を特徴点として抽出してもよいし、いずれかの指先を特徴点として抽出してもよい。いずれの指先を抽出できない場合は、手Hの中心H3を特徴点としても良い。特徴点の抽出は、1フレームデータごとに抽出を行う。
特徴点座標検出部430は、特徴点抽出部420で抽出された特徴点の座標をフレーム毎に検出する。特徴点は、フレーム内のX、Yアドレスに対応するので、特徴点座標検出部430は、フレーム内のX、Yアドレスを検出する。図7に、座標検出の具体例を示す。t1、t2、t3、t4、t5…tnは、撮像装置100から送信される各フレームであり、特徴点座標検出部430は、時刻t1における特徴点P1の座標(X1、Y1)、時刻t2における特徴点P2の座標(X2、Y2)、時刻t3における特徴点P3の座標(X3、Y3)、時刻t4における特徴点P4の座標(X4、Y4)、時刻t5における特徴点P5の座標(X5、Y5)・・・時刻tnにおける特徴点Pnの座標(Xn、Yn)をそれぞれ検出する。
動作軌跡作成部440は、特徴点座標検出部430から特徴点P1〜Pnの座標情報を受け取り、これらの特徴点の座標を連結することで特徴点の動作軌跡(すなわち、ユーザーUの手Hの動き)を作成する。図8は、図7の時刻t1から時刻tnの特徴点の座標を連結した特徴点の動作軌跡Lを例示している。
動作軌跡比較部450は、動作軌跡作成部440で得られた特徴点の動作軌跡Lと、記憶部210に記憶されているジェスチャー動作(図4参照)の軌跡パターンとを比較する。動作軌跡比較部450は、動作軌跡作成部440で作成された動作軌跡Lを軌跡パターンのサイズに合わせるため、作成された動作軌跡を必要に応じて正規化することが望ましい。
動作軌跡認識部460は、動作軌跡比較部450の比較結果をもとに、ユーザーUのジェスチャー入力操作が図4のどの軌跡パターンに該当するのかを認識する。動作軌跡認識部460は、好ましくは、最も一致率の高い動作軌跡パターンを入力操作として認識する。さらに好ましくは、一致率がしきい値を越えない場合には、入力操作の認識が不可能と判定してもよい。
映像情報生成部470は、動作軌跡認識部460の認識結果に基づきプロジェクタ300が投影する映像情報を生成する。好ましい第1の態様では、映像情報生成部470は、動作軌跡作成部440で作成されたユーザーUの手Hの動作軌跡をそのまま投影する映像情報を生成する。また、第2の態様では、映像情報生成部470は、動作軌跡認識部470によって認識された動作軌跡パターン(図4に示すパターン)に対応する映像情報を生成する。例えば、動作軌跡認識部460で有効なジェスチャー入力を認識することができた場合は、認識されたジェスチャー動作の軌跡の映像情報を生成し、認識できなかった場合はユーザーUの手Hの動作軌跡をそのまま投影する映像情報を生成するようにしても良い。さらに好ましくは、映像情報生成部470は、第1の態様による映像情報を生成するとき、動作軌跡の作成状況に応じた映像情報の色を変更することができる。例えば、ユーザー入力が入力空間R1を部分的に逸脱し、連続的な動作軌跡を作成することができなかったときには、映像情報の色を、通常のときと異なるようにすることができる。また、映像情報生成部470は、第2の態様による映像情報を生成するとき、図4に示す動作軌跡パターンが認識できなかった場合には、認識できたときと異なる色の映像情報を生成することができる。
映像情報送信部480は、映像情報生成部470で生成された映像情報をプロジェクタ300に送信する。機能実行部490は、動作軌跡認識部460で認識されたジェスチャー動作の入力操作に基づき、各機能部を制御する。例えば、「早送り」が入力されたと認識した場合は、再生している音楽や映像を早送りし、「次へ」が入力されたと認識した場合は、表示部250に表示されている画面のページを変更させる等の制御を行うことができる。
再び図3を参照する。プロジェクタ300は、車載装置200の外部インターフェイス290を介して映像信号を取得する映像情報取得部310と、取得した投影情報を投影空間R2に投影する投影部320と、各部を制御する制御部330とを有する。投影部320は、公知の投影手法を利用することができ、液晶デバイスにより光を空間変調を行うプロジェクタ、あるいはディジタルミラーデバイスにより光を空間変調するプロジェクタを用いることができる。
次に、本発明の第1の実施例に係る空間入力システムの動作を図9のフローチャートを参照して説明する。ここでの説明は、図4で示す「早送り」のジェスチャーを入力するケースを想定する。先ず始めに、撮像装置100は、ユーザーUの手Hが入力空間R1内に進入したことを検知する(S100)。この検知は、撮像装置100の画像データのフレーム間の差分から行ってもよいし、あるいは物体の有無を検出するような物体検知センサを用いて行ってもよい。次に、ユーザーUは、入力空間R1内において、手Hを「早送り」のジェスチャーに併せて移動させる。撮像装置100は、このようなジェスチャーの動きを撮像し(S102)、撮像された画像データは、フレーム単位で車載装置へ送信される(S104)。なお、撮像装置100は、フレーム間の差分から物体の動きが検出されなくなったとき、ジェスチャー入力が終了したと判定し、画像データの送信を停止するか、あるいは一定期間が経過したとき、または物体検知センサにより物体が検知されなくなったとき、画像データの送信を停止するようにしてもよい。
次に、車載装置200は、撮像装置100から送信されたフレーム単位の画像データを受信し(S106)、次に、画像データの解析を行い、指先H1である特徴点が特徴点抽出部420によって抽出され(S108)、次いで、特徴点座標検出部430によって特徴点の座標が検出される(S110)。特徴点の抽出および特徴点の座標検出は、撮像装置100から送信されたすべてのフレーム分の画像データに対して行われる(S112)。受信した全ての画像データの特徴点の座標を検出したのち、動作軌跡作成部440は、座標情報に基づいてユーザーUの手Hの動作軌跡を作成する(S114)。次に、動作軌跡比較部450によって、作成された動作軌跡と記憶部210に記憶されジェスチャー動作の軌跡パターンとが比較され(S116)、動作軌跡認識部460によってジェスチャー入力が認識される(S118)。次に、映像情報生成部470によって、認識されたジェスチャーを表す軌跡の映像情報が作成され(S120)、映像情報送信部480は、作成した映像情報をプロジェクタ300に送信する(S122)。プロジェクタ300は、車載装置200から映像情報を受信し、映像情報に基づいた画像を投影空間R2に投影する(S124)。次に、機能実行部490は、認識されたジェスチャーが表す入力操作を実行する(S126)。
このように、ジェスチャーが認識されたとき、認識されたジェスチャーの投影画像を表示させることで、ユーザーは、自身が入力したジェスチャーがどのように認識されたのかを容易に理解することができる。
次に、本発明の第1の実施例に係るジェスチャー入力操作の具体的な動作を図10に示す。第1の実施例では、「早送り」の入力操作を行うため、図4に記載された早送りのジェスチャーの軌跡を描くように、入力空間R1内で指先H1を移動させる。撮像装置100は、時刻t1〜tnの期間、指先H1の移動を撮像し、この画像データを車載装置200に送信する(S104に相当)。
図11は、図10に示す「早送り」のジェスチャーが入力された際の特徴点座標検出部430によって検出された時刻毎の特徴点(指先H1)の座標である。同図に示すように、時刻t1〜tnの全ての画像データに対して特徴点の座標が検出されると、各々の座標を連結し、指先H1の動作軌跡L1が作成される
図11で示すような動作軌跡L1は、記憶部210に記憶されているジェスチャー動作の軌跡パターンと比較される。比較の方法は限定されないが、例えば、図12に示すように、記憶部210に記憶されているジェスチャーのパターンS1〜S6と比較し、最も照合度合の大きなジェスチャーのパターンが認識される。第1の実施例の場合、入力された動作軌跡L1は、ジェスチャーパターンS1と最も一致する判定され、その結果、「早送り」が認識される。
次に、本発明の第1の実施例に係る映像情報について図を用いて説明する。図13は、「早送り」が入力された時に生成される映像情報の例示である(S120に相当)。図13(A)は、動作軌跡作成部440で作成された動作軌跡、すなわち、手Hの動作軌跡L1をそのまま映像情報とするものであり、図13(B)は、「早送り」の入力操作に対して認識されたジェスチャーの軌跡パターンS1を映像情報とするものである。図9に示すフローでは、図13(B)に示す映像情報が投影される例を示したが、図13(A)に示す映像情報を投影するようにしてもよい。さらに、投影される画像は、図13(A)や図13(B)のような軌跡図形に限らず、図13(C)に示すような文字情報で入力の認識結果を投影したり、図13(D)で示すような「早送り」を概念的に表す図形で入力の認識結果を投影するようにしてもよい。
次に、本発明の第1の実施例に係る投影部310の具体的な態様を図14に示す。投影部310は、入力空間R1とほぼ同一の投影空間R2に対して、作成された映像情報を投影する。図14(A)は、図13(A)、(B)に示すような動作軌跡L1または軌跡パターンS1を投影した例であり、図14(B)は、図13(C)に示す文字情報を投影した例である。入力空間R1と投影空間R2はほぼ同一であるため、ジェスチャー入力を行う手Hは、必然的に投影空間R2の中に存在し、認識結果である画像を手Hの甲などに投影することができる。これにより、ユーザーは、即座に入力の認識結果を知ることができる。
上記実施例では、ジェスチャー入力が、例えば図4に示す軌跡パターンによって認識できたときに、ジェスチャー入力に対応する映像を投影するようにしたが、これに限らず、ユーザー自身がどのような入力を行ったのかを認識させる場合には、軌跡パターンによる認識を行うことなく、動作軌跡L1をそのまま投影させるようにしてもよい。その際、ジェスチャー入力が入力空間R1を逸脱した場合には、それが認識できるような映像を投影させ、ユーザーへの再入力を促すようにしてもよい。
さらに上記実施例では、入力空間R1と投影空間R2とを重複させる例を示したが、これに限らず、入力空間R1と投影空間R2とは全く異なる場所であってもよい。例えば、投影空間R2は、車両のフロントガラスであり、ここに認識結果の映像を表示させるようにしてもよい。
さらに入力空間R1と投影空間R2とが重複する場合、撮像装置100は、プロジェクタ300の投影画像とユーザー入力とを正確に識別することができなくなるおそれがある。これを解消するため、プロジェクタ300の投影する映像の波長帯を、撮像装置100が撮像する波長帯または車載装置200が解析する画像の波長帯と異ならせるようにしてもよい。例えば、プロジェクタ300が青色帯域の映像を表示させるとき、撮像装置100または車載装置200は、青色帯域以外の帯域の画像データを撮像したり、あるいは画像解析して特徴点を抽出するようにしてもよい。
また、投影部310で使用される投影用の光は、ユーザーUに視覚的な認識を伝達する必要があるため、可視光領域の光を使用し、撮像装置100は、赤外線を感知する赤外線カメラを用いてもよい。撮像装置100の入力空間R1は赤外光で形成されるため、投影部320で使用される光とは帯域が分離される。なお、使用される光の種類は本実施例に記載の内容に限られるものではなく、撮像装置100で使用される入力空間を形成するための光と、プロジェクタ300で使用される投影用の光とが帯域分離する程度のものであれば良い。
次に、本発明に係る第2の実施例に係る空間入力システムについて説明する。本発明の第2の実施例は、ユーザーUの手Hの位置を予測し、より正確に手Hの甲へ投影することができる空間入力システムである。本発明の第2の実施例に係る空間入力制御プログラム400Aの機能的な構成を図15に示す。第2の実施例で使用される空間入力制御プログラム400Aには、第1の実施例で示した機能に加え、新たに動き予測部435が含まれる。
動き予測部435は、撮像装置100から送信される画像データの特徴点抽出を行った後、抽出結果に基づき、T秒後の特徴点の位置を予測する。例えば、第1の実施例の図11を用いると、t1、t2・・・tnの各々の相対的な変化からT秒後の特徴点の位置を予測する。予測された位置は、座標情報としてプロジェクタ300に送信され、プロジェクタ300は、動き予測部435によって予測されたT秒後の特徴点の位置に基づき、投影位置を制御する。
図10または図11に示すようなジェスチャーが入力される場合を想定する。動作軌跡認識部460は、時刻t1〜t5の動作軌跡から軌跡パターンS1を認識することができる場合には、軌跡パターンS1から指先H1の動きを予測することができる。第2の実施例では、撮像装置100から送信される画像データの一部によって軌跡パターンを認識できる場合には、軌跡パターンから動きを予測し、映像情報とともに動き予測情報をプロジェクタ300に送信する。プロジェクタ300は、動き予測情報に従い映像情報を投影することで、認識空間R2内のユーザーの手Hに映像を投影させることができる。
以上、本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された発明の要旨の範囲において、種々の変形、変更が可能である。
10:空間入力システム 100:撮像装置
110:撮像部 120:D/A変換部
130:制御部 140:動画像データ送信部
200:車載装置 210:記憶部
220:ナビゲーション部 230:音声出力部
240:入力部 250:表示部
260:マルチメディア再生部 270:制御部
300:プロジェクタ 310:投影部
330:制御部
340:映像情報取得部 400:空間入力制御プログラム
410:画像データ取得部 420:特徴点抽出部
430:特徴点座標検出部 440:動作軌跡作成部
450:動作軌跡比較部 460:動作軌跡認識部
470:映像情報生成部 480:映像情報送信部
490:機能実行部 H:手
H1、H2:指先 H3:中心
L、L1:動作軌跡 R1:入力空間
R2:投影空間 S1〜S6:ジェスチャー軌跡パターン
U:ユーザー
110:撮像部 120:D/A変換部
130:制御部 140:動画像データ送信部
200:車載装置 210:記憶部
220:ナビゲーション部 230:音声出力部
240:入力部 250:表示部
260:マルチメディア再生部 270:制御部
300:プロジェクタ 310:投影部
330:制御部
340:映像情報取得部 400:空間入力制御プログラム
410:画像データ取得部 420:特徴点抽出部
430:特徴点座標検出部 440:動作軌跡作成部
450:動作軌跡比較部 460:動作軌跡認識部
470:映像情報生成部 480:映像情報送信部
490:機能実行部 H:手
H1、H2:指先 H3:中心
L、L1:動作軌跡 R1:入力空間
R2:投影空間 S1〜S6:ジェスチャー軌跡パターン
U:ユーザー
Claims (11)
- 入力空間内の実物体の動作を撮像する撮像装置と、前記撮像装置からの撮像情報に基づき実物体の移動軌跡を解析する電子装置と、前記電子装置の解析結果に基づき映像を投影する出力装置を含む空間入力システムであって、
前記電子装置は、
前記撮像情報を受信する受信手段と、
前記撮像情報から前記実物体の移動軌跡を解析する軌跡解析手段と、
前記軌跡解析手段により解析された移動軌跡に対応する映像情報を生成する生成手段と、
前記映像情報を前記出力装置に送信する送信手段とを有し、
前記出力装置は、
前記映像情報を前記入力空間内に投影する投影手段を有する、空間入力システム。 - 前記空間入力システムはさらに、前記撮像情報から前記実物体の少なくとも1つの特徴点を抽出する抽出手段を含み、
前記軌跡解析手段は、前記実物体の特徴点の移動軌跡を解析する、請求項1に記載の空間入力システム。 - 前記生成手段は、前記軌跡解析手段が前記実物体の移動軌跡を解析できなかった場合に、前記映像情報の映像色を変更する、請求項1または2に記載の空間入力システム。
- 前記電子装置はさらに、移動軌跡パターンを予め記憶する記憶手段と、
前記軌跡解析手段により解析された前記実物体の移動軌跡と前記記憶手段に記憶された移動軌跡パターンを比較する比較手段と、
前記比較手段の比較結果に基づき前記実物体の移動軌跡に対応する移動軌跡パターンを認識する認識手段とを有し、
前記生成手段はさらに、前記認識手段により認識された前記移動軌跡パターンに対応する映像情報を生成する、請求項1ないし3いずれか1つに記載の空間入力システム。 - 前記映像情報は、前記移動軌跡パターンに対応する図形または文字情報を含む、請求項4に記載の空間入力システム。
- 前記認識手段は、前記入力空間内においてユーザーのジェスチャーを認識する、請求項4または5に記載の空間入力システム。
- 前記生成手段は、前記認識手段が移動軌跡パターンを認識できなかった場合、前記映像情報の映像色を変更する、請求項4ないし6いずれか1つに記載の空間入力システム。
- 前記撮像装置は、前記投影手段に用いられる投影光の波長と異なる帯域の波長で前記入力空間を撮像する、請求項1ないし7いずれか1つに記載の空間入力システム。
- 前記電子装置はさらに、前記認識手段により認識された前記実物体の移動軌跡に基づき前記実物体の位置を予測する予測手段を有し、前記投影手段は、前記予測手段の予測結果に基づき前記映像情報を前記入力空間内に投影する、請求項4ないし7いずれか1つに記載の空間入力システム。
- 前記電子装置は、車両に搭載された車載装置であり、前記撮像装置および前記投影手段は、前記車両の天井に設置される、請求項1ないし9いずれか1つに記載の空間入力システム。
- 前記電子装置は、車両のセンターコンソールに表示装置を含み、前記撮像装置は、前記センターコンソール近傍の入力空間を撮像し、前記投影手段は、前記センターコンソール近傍の入力空間に映像情報を投影する、請求項10に記載の空間入力システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014159622A JP2016038621A (ja) | 2014-08-05 | 2014-08-05 | 空間入力システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014159622A JP2016038621A (ja) | 2014-08-05 | 2014-08-05 | 空間入力システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016038621A true JP2016038621A (ja) | 2016-03-22 |
Family
ID=55529674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014159622A Pending JP2016038621A (ja) | 2014-08-05 | 2014-08-05 | 空間入力システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016038621A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018022318A (ja) * | 2016-08-03 | 2018-02-08 | 株式会社東海理化電機製作所 | 操作入力装置 |
JP2018090086A (ja) * | 2016-12-02 | 2018-06-14 | トヨタ自動車株式会社 | 車両用制御装置 |
WO2018116565A1 (ja) * | 2016-12-22 | 2018-06-28 | 株式会社デンソー | 車両用情報表示装置及び車両用情報表示プログラム |
CN110395113A (zh) * | 2019-07-16 | 2019-11-01 | 奇瑞汽车股份有限公司 | 车窗显示系统、方法、装置及存储介质 |
JP2020067712A (ja) * | 2018-10-22 | 2020-04-30 | パイオニア株式会社 | 表示制御装置、表示システム、表示制御方法及び表示制御プログラム |
WO2020116197A1 (ja) * | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置、固体撮像方法および電子機器 |
CN112292656A (zh) * | 2018-06-18 | 2021-01-29 | 提姆拉博株式会社 | 影像显示系统、影像显示方法及计算机程序 |
WO2023063263A1 (ja) * | 2021-10-14 | 2023-04-20 | 株式会社ソシオネクスト | 信号処理方法、信号処理装置、ジェスチャ認識システム及び信号処理プログラム |
US11683197B2 (en) | 2018-08-10 | 2023-06-20 | Denso Corporation | Vehicle master device, update data distribution control method, computer program product and data structure of specification data |
-
2014
- 2014-08-05 JP JP2014159622A patent/JP2016038621A/ja active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018025507A1 (ja) * | 2016-08-03 | 2018-02-08 | 株式会社東海理化電機製作所 | 操作入力装置 |
CN109416590A (zh) * | 2016-08-03 | 2019-03-01 | 株式会社东海理化电机制作所 | 操作输入装置 |
US20200094864A1 (en) * | 2016-08-03 | 2020-03-26 | Kabushiki Kaisha Tokai Rika Denki Seisakusho | Operation input device |
JP2018022318A (ja) * | 2016-08-03 | 2018-02-08 | 株式会社東海理化電機製作所 | 操作入力装置 |
JP2018090086A (ja) * | 2016-12-02 | 2018-06-14 | トヨタ自動車株式会社 | 車両用制御装置 |
WO2018116565A1 (ja) * | 2016-12-22 | 2018-06-28 | 株式会社デンソー | 車両用情報表示装置及び車両用情報表示プログラム |
JP2018103646A (ja) * | 2016-12-22 | 2018-07-05 | 株式会社デンソー | 車両用情報表示装置及び車両用情報表示プログラム |
CN112292656A (zh) * | 2018-06-18 | 2021-01-29 | 提姆拉博株式会社 | 影像显示系统、影像显示方法及计算机程序 |
CN112292656B (zh) * | 2018-06-18 | 2024-02-20 | 提姆拉博株式会社 | 影像显示系统、影像显示方法及记录计算机程序的计算机能读取的记录介质 |
US11683197B2 (en) | 2018-08-10 | 2023-06-20 | Denso Corporation | Vehicle master device, update data distribution control method, computer program product and data structure of specification data |
JP2020067712A (ja) * | 2018-10-22 | 2020-04-30 | パイオニア株式会社 | 表示制御装置、表示システム、表示制御方法及び表示制御プログラム |
JP2023052452A (ja) * | 2018-10-22 | 2023-04-11 | パイオニア株式会社 | 表示制御装置、表示システム、表示制御方法及び表示制御プログラム |
JPWO2020116197A1 (ja) * | 2018-12-07 | 2021-10-14 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置、固体撮像方法および電子機器 |
WO2020116197A1 (ja) * | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置、固体撮像方法および電子機器 |
JP7337094B2 (ja) | 2018-12-07 | 2023-09-01 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置、固体撮像方法および電子機器 |
US12052463B2 (en) | 2018-12-07 | 2024-07-30 | Sony Semiconductor Solutions Corporation | Solid-state imaging device, solid-state imaging method, and electronic equipment |
CN110395113B (zh) * | 2019-07-16 | 2022-03-15 | 奇瑞汽车股份有限公司 | 车窗显示系统、方法、装置及存储介质 |
CN110395113A (zh) * | 2019-07-16 | 2019-11-01 | 奇瑞汽车股份有限公司 | 车窗显示系统、方法、装置及存储介质 |
WO2023063263A1 (ja) * | 2021-10-14 | 2023-04-20 | 株式会社ソシオネクスト | 信号処理方法、信号処理装置、ジェスチャ認識システム及び信号処理プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016038621A (ja) | 空間入力システム | |
US10466800B2 (en) | Vehicle information processing device | |
US9696814B2 (en) | Information processing device, gesture detection method, and gesture detection program | |
JP6062123B1 (ja) | 情報表示装置及び情報表示方法 | |
WO2012117508A1 (ja) | 情報処理装置、方法およびプログラム | |
KR20210112324A (ko) | 운송수단을 위한 멀티모달 사용자 인터페이스 | |
JP4416557B2 (ja) | 空間入力システム | |
JP5750687B2 (ja) | カーナビ用ジェスチャ入力装置 | |
JP2007127437A (ja) | 情報表示装置 | |
JP2007045169A (ja) | 車両用情報処理装置 | |
JP2007045168A (ja) | 車両用情報処理装置 | |
JP4885632B2 (ja) | ナビゲーション装置 | |
JP2007331692A (ja) | 車載電子装置およびタッチパネル装置 | |
WO2018061603A1 (ja) | ジェスチャ操作システム、ジェスチャ操作方法およびプログラム | |
JP2007280316A (ja) | タッチパネル入力装置 | |
JP2009129251A (ja) | 操作入力装置 | |
JP2010117917A (ja) | 動作検出装置および操作システム | |
JP6401268B2 (ja) | 非接触操作検出装置 | |
JP2010108185A (ja) | 表示制御システム、表示制御方法、及び表示制御プログラム | |
JP2019133395A (ja) | 入力装置 | |
JP2008033821A (ja) | 運転支援装置、運転支援プログラム、及び運転支援方法 | |
JP2010154405A (ja) | 映像再生装置、制御信号生成装置及び制御信号生成方法 | |
JP4368233B2 (ja) | 空間入力システム | |
JP2020067713A (ja) | 表示制御装置、表示システム、表示制御方法及び表示制御プログラム | |
CN113302664B (zh) | 运载工具的多模态用户接口 |