JP2015028765A - 入力制御方法及び入力制御装置 - Google Patents

入力制御方法及び入力制御装置 Download PDF

Info

Publication number
JP2015028765A
JP2015028765A JP2014120170A JP2014120170A JP2015028765A JP 2015028765 A JP2015028765 A JP 2015028765A JP 2014120170 A JP2014120170 A JP 2014120170A JP 2014120170 A JP2014120170 A JP 2014120170A JP 2015028765 A JP2015028765 A JP 2015028765A
Authority
JP
Japan
Prior art keywords
change
angle
posture
input
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014120170A
Other languages
English (en)
Inventor
稔也 新井
Toshiya Arai
稔也 新井
宗太郎 築澤
Sotaro Tsukizawa
宗太郎 築澤
池田 洋一
Yoichi Ikeda
洋一 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to JP2014120170A priority Critical patent/JP2015028765A/ja
Publication of JP2015028765A publication Critical patent/JP2015028765A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】タッチ入力において、接触面をタッチパネル上に制限することなく、タッチ操作入力を受け付ける入力制御方法及び入力制御装置を提供する。
【解決手段】指の接触面に対する第1関節までの姿勢を示す姿勢情報を取得する姿勢取得ステップと、姿勢情報を用いて姿勢の時間経過に伴う変化を検出する姿勢変化検出ステップと、姿勢の時間経過に伴う変化を検出した際の第1関節の曲り状態である第1角の状態を取得する第1角取得ステップと、第1角の状態を用いて、第1角の時間経過に伴う変化を検出する第1角変化検出ステップと、検出した姿勢の時間経過に伴う変化と第1角の時間経過に伴う変化とを用いて指の変化方向を判定する変化方向判定ステップと、変化方向判定ステップにおける判定結果に基づいて、指による入力を受け付ける操作入力ステップと、を備える。
【選択図】図4

Description

本開示は、指を用いたタッチ入力における入力制御方法及び入力制御装置に関する。
近年、端末装置における、表示画面に対するタッチ入力及び、タッチ入力を基本としたオペレーションシステムの普及が進展している。このような端末装置は、表示装置上にタッチパネルを設けており、表示画面上で直感的な操作を実現できる。
従来のタッチ入力方法としては、タッチパネルの表示画面上に表示されたタッチ操作部材へのタッチ状態で、該タッチ操作部材に関する機能を実行する技術が開示されている(例えば、特許文献1を参照)。
特許第4166229号公報
しかしながら、従来の構成では、タッチパネルが圧力センサを設けており、タッチパネルへの押圧力でタッチ操作を検知している。つまり、操作者は、タッチパネルに手が届く位置まで近づいて、指などの指示手段でタッチパネル上をふれる必要がある。
本開示では、タッチ入力において、接触面をタッチパネル上に制限することなく、タッチ操作入力を受け付ける、入力制御方法及び入力制御装置を提供する。
本開示の一態様にかかる入力制御方法は、指を用いて操作入力を行う入力方法であって、接触面に対する第1関節までの姿勢情報を取得する姿勢取得ステップと、姿勢取得ステップにより得られた姿勢情報を用いて、姿勢の時間経過に伴う変化を検出する姿勢変化検出ステップと、姿勢変化を検出した際の第1関節の曲り状態である第1角の状態を取得する第1角取得ステップと、第1角取得ステップにより得られた第1角の状態を用いて、第1角の時間経過に伴う変化を検出する第1角変化検出ステップと、検出した姿勢変化と第1角変化との変化方向を判定する変化方向判定ステップと、変化方向判定ステップにおける判定結果に基づいて、指による入力を受け付ける操作入力ステップとを備え、接触面をタッチパネル上に制限することなく、タッチ操作入力を受け付ける。
本開示の入力制御方法及び入力制御装置によれば、タッチ入力において、接触面をタッチパネル上に限定することなく、タッチ操作入力を受け付けることができる。
図1は、本開示の実施の形態1における入力制御装置を備えたシステム構成を示す図である。 図2は、本開示の実施の形態1における入力制御装置のハードウェア構成の一例を示す図である。 図3(a)〜(c)は、本開示の実施の形態1における指状態と第1角の関係を示す図である。 図4は、本開示の実施の形態1における入力制御装置の構成の一例を示すブロック図である。 図5は、本開示の実施の形態1における入力制御方法の処理の流れの一例を示すフローチャートである。 図6(a)、(b)は、本開示の実施の形態1における指状態と指姿勢の関係を示す図である。 図7(a)、(b)は、本開示の実施の形態1における指状態と指姿勢の関係を示す図である。 図8(a)、(b)は、本開示の実施の形態1における指状態と指姿勢の関係を示す図である。 図9は、本開示の実施の形態2における入力制御装置の構成の一例を示すブロック図である。 図10は、本開示の実施の形態2における入力制御方法の処理の流れの一例を示すフローチャートである。 図11は、本開示の実施の形態3における入力制御装置を備えたシステムの概観図である。 図12は、本開示の実施の形態3における入力制御装置の構成の一例を示すブロック図である。
(本開示の基礎となった知見)
情報処理装置へのタッチ入力を行う場合、圧力センサを設けたタッチパネルが用いられ、タッチパネルへの押圧力でタッチ操作を検知している。この場合、操作者は、タッチパネルに手が届く位置まで近づいて、指などの指示手段でタッチパネル上をふれる必要がある。
情報処理装置が、プロジェクタなどを介して表示画面を投影して表示し、操作者が、投影された表示画面上で操作入力を行う場合、従来のタッチパネルを用いた技術を利用することができない。
このような課題を解決するために、本入力制御方法は、指を用いて操作入力を行う入力方法であって、接触面に対する指第1関節までの姿勢情報を取得する姿勢取得ステップと、姿勢取得ステップにより得られた姿勢情報を用いて、姿勢の時間経過に伴う変化を検出する姿勢変化検出ステップと、姿勢変化を検出した際の指第1関節の曲り状態である第1角の状態を取得する第1角取得ステップと、第1角取得ステップにより得られた第1角の状態を用いて、第1角の時間経過に伴う変化を検出する第1角変化検出ステップと、検出した姿勢変化と第1角変化との変化方向を判定する、変化方向判定ステップと、変化方向判定ステップにおける判定結果に基づいて、指による入力を受け付ける操作入力ステップとを備え、接触面をタッチパネル上に制限することなく、タッチ操作入力を受け付けることが可能となる。本開示の入力制御方法を用いることで、操作者による操作入力の対象である接触面は、表示画面の投影先の壁やスクリーン、机上とした構成が可能となる。また、操作者による操作入力の対象である接触面は、タッチパネル機能を有しない表示装置のディスプレイ、操作者自身の手のひらなどの体の一部とする構成が可能となる。
なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
以下本開示の実施の形態について、図面を用いて説明する。
(実施の形態1)
図1は、本開示の実施の形態1における入力制御装置を備えたシステムの構成を示す図である。
図1において、本システムは、入力装置101と、入力制御装置100と、情報処理装置102と、表示装置103とを備えている。
操作者は、指を用いて操作入力を行うため、指1で接触面2に対してタッチ動作を行う。入力装置101は、操作者のタッチ動作による指状態を入力し、入力制御装置100に通知する。入力制御装置100は、入力した指状態から、接触面2に対する指第1関節までの姿勢情報と、指第1関節の曲り状態である第1角の状態を取得し、押下げ操作がなされたた否かを判断する。入力制御装置100は、判断結果に基づいて、操作者のタッチ動作による入力を決定し、情報処理装置102に入力コマンドとして通知する。情報処理装置102は、入力コマンドを受け付け、対応する処理を実施する。情報処理装置102は、処理に応じた表示画面を表示装置103に通知し、画面表示する。
図1では、表示装置103が出力する表示画面を、平面上に投影し、操作者は、表示画面が投影された平面上(接触面2)に対し、タッチ動作を行う。なお、接触面2は、スクリーンや壁、机上などである。また、接触面2は、曲面でもよい。また、接触面2は、操作者自身の手のひらなど体の一部でもよい。
また、入力装置101は、指状態を入力可能なデバイスであって、例えば、カメラやセンサ、データグローブなどのである。
表示装置103は、表示画面を表示するディスプレイであり、例えばLCD(Liguid Crystal Display;液晶表示器)である。また、表示装置103は、プロジェクタであり、外部のスクリーンや壁などに表示画面を投影する。
また、情報処理装置102は、操作対象機器であり、PCなどの情報端末、通信機器、家電機器、AV機器などである。
なお、入力制御装置100は、他の機能も有する一つの装置で構成してもよい。例えば、入力制御装置100aは、操作者のタッチ動作による指状態を入力する入力装置101の機能を有する。また、入力制御装置100bは、操作者のタッチ動作による入力を受け付け、対応する処理を実施する情報処理装置102の機能を有する。これは、入力制御装置100が操作対象機器(情報処理装置102)に組み込まれた構成である。
以上により、入力制御装置100は、接触面をタッチパネル上に制限することなく、タッチ操作入力を受け付けることが可能となる。
図2は、本開示の実施の形態における入力制御装置のハードウェア構成を示す図である。
入力制御装置100は、CPU(Central Processing Unit;中央演算処理部)110、メモリ装置120、ハードディスク装置130を備えている。これらの装置は、バスライン150を通じて互いに接続されている。ハードディスク装置130は、インタフェース111を介してバスライン150に接続される。また、入力制御装置100は、インタフェース113を介して、入力装置101に接続する。また、入力制御装置100は、インタフェース114を介して、情報処理装置102に接続する。
CPU110は、単一のCPUで構成されてもよく、複数のCPUで構成されてもよい。図2は、単一のCPU110を有する例を示している。
メモリ装置120は、ROM(Read Only Memory)121及びRAM(Random Access Memory)122を備えている。ROM121は、CPU110の動作を規定するコンピュータプログラム及びデータを記憶している。コンピュータプログラム及びデータは、ハードディスク装置130に記憶させることもできる。CPU110は、ROM121又はハードディスク装置130が格納するコンピュータプログラム及びデータを、必要に応じてRAM122に書き込みつつ、コンピュータプログラムが規定する処理を実行する。RAM122は、CPU110が処理を実行するのに伴って発生するデータを一時的に記憶する媒体としても機能する。メモリ装置120は、フラッシュメモリなど、書き込みが可能で、電源を切っても記憶内容を保持できる不揮発性のメモリと記憶媒体含んでいる。
ハードディスク装置130は、コンピュータプログラムを記録保持する装置である。また、ハードディスク装置130は、指状態の履歴データを記録してもよい。なお、履歴データは、RAM122(不揮発性メモリ)に記録してもよい。
以上のように、入力制御装置100は、コンピュータとして構成されている。上記コンピュータプログラムは、ROM121、ハードディスク装置130、不図示のフレキシブルディスク、可搬型記録媒体を通じて供給することも、ネットワーク等の伝送媒体を通じて供給することも可能である。また、読み出したコンピュータプログラムを、RAM122あるいはハードディスク装置130に格納することができる。
プログラム記録媒体としてROM121からコンピュータプログラムが供給される場合には、当該ROM121を入力制御装置100に搭載することにより、CPU110は上記コンピュータプログラムに従った処理を実行可能となる。ネットワーク等の伝送媒体を通じて供給されるコンピュータプログラムは、例えば、RAM122あるいはハードディスク装置130に格納される。伝送媒体は、有線の伝送媒体に限られず、無線の伝送媒体であってもよい。
なお、図2では、入力制御装置100は、入力装置101と情報処理装置102とを含まず、インタフェース113、114を介して接続する構成とした。入力制御装置100が、入力装置101または情報処理装置102を含む構成でもよい。(図1の100a、100b)この場合、例えば、入力制御装置100の処理を行うコンピュータプログラムと、情報処理装置102の処理を行うコンピュータプログラムが、一つのCPU110上で動作する構成となる。
また、入力制御装置100は、LSIとして構成してもよい。LSIは、CPU110とメモリ装置120とを備える。
以下、操作者が指を用いて操作面に対するタッチ動作を行う場合に、入力制御装置が、タッチ動作による指状態から入力を決定し、情報処理装置102に入力コマンドとして通知する処理について説明する。
図3は、操作者のタッチ動作による指状態を示す図である。操作者のタッチ動作の順に、図3(a)、(b)、(c)と変化する。図3(a)は、指1が接触面2に接触する前の状態である。図3(b)は、指1が接触面2に接触した弱接触状態である。図3(c)は、指1が接触面2を押下した強接触状態である。
図3において、11は指1と接触面2との接点である指先、12は指1の第1関節、13は指1の第2関節、21は指1の第1角である。第1角21は、指1の第1関節の曲り状態を示す。
なお、図3では、第1角21は、指第1関節12として図示しているが、第1関節からずれた点で定義してもよい。例えば、指先11と指第1関節12の間であり、指先11から所定の距離離れた点で角度を定義してもよい。
また、本開示の入力制御装置は、指の姿勢情報を使用して処理を行う。指の姿勢情報とは、指先11から指第1関節12までの姿勢を表す情報である。例えば、姿勢情報は、指先11から指第1関節12を結ぶ線分の傾きである。また、姿勢情報は、指先11から指第1関節12を結ぶ線分の接触面との内積である。また、姿勢情報は、指先11から指第1関節12を結ぶ線分の接触面との距離である。また、姿勢情報は、指先11から指第1関節12を結ぶ線分の接触面との接地面積である。
図4は、本開示の実施の形態における入力制御装置の構成を示すブロック図である。入力制御装置は、図2に示すメモリ装置120を用いてCPU110で動作するプログラムである。
図4において、入力制御装置は、姿勢情報取得部31と、第1角取得部32と、姿勢変化検出部33と、第1角変化検出部34と、変化方向判定部35と、操作入力部36とを備える。入力制御装置は、タッチ動作による指状態から入力を決定し、入力(押下)または入力解除を判定し、入力コマンドとして入力(ON)または入力解除(OFF)を出力する。
姿勢情報取得部31は、入力装置が入力した指状態を用いて、指の姿勢情報を取得し、取得した姿勢情報を姿勢変化検出部33に出力する。姿勢情報を取得するための具体的手段としては、例えば、入力装置であるカメラが撮影したカメラ画像を画像処理し、指形状を検出し、検出結果を用いて姿勢情報を取得する。また、姿勢情報を取得するための具体的手段としては、例えば、入力装置である各種データグローブが測定したデータを入力し、入力したデータを用いて姿勢情報を取得する。
第1角取得部32は、入力装置が入力した指状態を用いて、指の第1角を取得し、取得した第1角を第1角状態として第1角変化検出部34に出力する。第1角を取得するための具体的手段としては、例えば、入力装置であるカメラが撮影したカメラ画像を画像処理し、指形状を検出し、検出結果を用いて第1角を取得する。また、第1角を取得するための具体的手段としては、例えば、入力装置である各種データグローブが測定したデータを入力し、入力したデータを用いて第1角を取得する。
姿勢変化検出部33は、姿勢情報取得部31から入力した姿勢情報の変化を検出し、姿勢変化情報として出力する。まず、姿勢変化検出部33は、姿勢情報取得部31から入力した初回の姿勢情報を、記憶する。次に、姿勢変化検出部33は、姿勢情報取得部31から新たに入力された姿勢情報と、初回の姿勢情報とを比較する。姿勢変化検出部33は、指先11から指第1関節12までの姿勢が、接触面に対しより平行に近づいたか否かを検出し、検出結果を姿勢変化情報として変化方向判定部35に出力する。操作入力部36が入力を受け付けた後は、姿勢変化検出部33は、姿勢情報取得部31から新たに入力された姿勢情報と、入力受付時の最後の姿勢情報とを比較する。姿勢変化検出部33は、指先11から指第1関節12までの姿勢が、接触面に対しより垂直に近づいたか否かを検出し、検出結果を姿勢変化情報として変化方向判定部35に出力する。
第1角変化検出部34は、第1角取得部32から入力した第1角状態から第1角の変化を検出し、第1角変化として出力する。まず、第1角変化検出部34は、第1角取得部32から入力した初回の第1角状態から初回の第1角を取得し、記憶する。次に、第1角変化検出部34は、第1角取得部32から新たに入力された第1角状態から第1角を取得し、初回の第1角と比較する。第1角変化検出部34は、初回の第1角と新たに入力された第1角との差分を計算し、第1角変化を検出し、変化方向判定部35に出力する。操作入力部36が入力を受け付けた後は、第1角変化検出部34は、第1角取得部32から新たに入力された第1角状態からの第1角と、入力受付時の最後の第1角とを比較する。第1角変化検出部34は、入力受付時の最後の第1角と新たに入力された第1角との差分を計算し、第1角変化を検出し、変化方向判定部35に出力する。
変化方向判定部35は、姿勢変化と第1角変化の正負に基づいて、押下げ操作がなされたか否かを判定する。変化方向判定部35は、指先11から指第1関節12までの姿勢が、接触面に対しより平行に近づき、かつ第1角が大きくなった時に、姿勢変化と第1角の変化方向が押下げ方向であると判定する。姿勢変化と第1角の変化方向が押下げ方向である時とは、図3(c)に示されるように、図3(b)に比べ、指を押しこんだ状態である。操作入力部36が入力を受け付けた後は、変化方向判定部35は、姿勢変化と第1角変化の正負に基づいて、押下げ解除操作がなされたか否かを判定する。変化方向判定部35は、指先11から指第1関節12までの姿勢が、接触面に対しより垂直に近づき、かつ第1角が小さくなった時に、姿勢変化と第1角の変化方向が押下げ解除方向であると判定する。姿勢変化と第1角の変化方向が押下げ解除方向である時とは、図3(c)の状態から図3(b)の状態に遷移し、指を戻した状態である。すなわち押下動作が解除されたとみなすことができる。
操作入力部36は、変化方向判定部35が押下げ方向と判定すると、入力コマンドとして入力(ON)を出力する。また、操作入力部36は、変化方向判定部35が押下げ解除方向と判定すると、入力コマンドとして入力解除(OFF)を出力する。
以上により、本開示の入力制御装置は、接触面をタッチパネル上に制限することなく、タッチ操作入力を受け付けることが可能となる。本開示の入力制御装置を用いることで、操作者による操作入力の対象である接触面は、表示画面の投影先の壁やスクリーン、机上とした構成が可能となる。また、操作者による操作入力の対象である接触面は、タッチパネル機能を有しない表示装置のディスプレイ、操作者自身の手のひらなどの体の一部とする構成が可能となる。
図5は、本開示の入力制御方法におけるフローチャートである。以下、図3、図4および図5を用いて、本開示の入力方法における各機能ステップおよび処理フローの説明をする。
図3(a)に記載の状態から、図3(b)に記載の状態に遷移したときに処理を開始する。図3(b)の弱接触状態から図3(c)の強接触状態への遷移を判定して、入力を受付ける処理手順を説明する。
姿勢取得ステップS01において、姿勢情報取得部31は、入力装置が入力した指状態を用いて、姿勢情報を取得し、取得した姿勢情報を姿勢変化検出部33に出力する。姿勢変化検出部33は、姿勢情報取得部31から入力した姿勢情報を、初回の姿勢情報を基準の姿勢情報として記憶する。
第1角取得ステップS02において、第1角取得部32は、入力装置が入力した指状態を用いて、指の第1角を取得し、取得した第1角を第1角状態として第1角変化検出部34に出力する。第1角変化検出部34は、第1角取得部32から入力した初回の第1角状態から初回の第1角を取得し、基準の第1角として記憶する。
次に、姿勢情報取得ステップS03において、姿勢情報取得部31は、再度姿勢情報を取得し(ステップS03がYes)、姿勢変化検出部33に出力する。姿勢情報取得部31は、姿勢情報が取得できない場合(ステップS03がNo)、つまり、指が接触面から離れた場合、処理を終了する。
第1角取得ステップS04において、第1角取得部32は、再度第1角を取得し、第1角変化検出部34に出力する。
姿勢変化検出ステップS05において、姿勢変化検出部33は、基準の姿勢情報と新たに入力された姿勢情報を比較する。姿勢変化検出部33は、指先11から指第1関節12までの姿勢が、接触面に対しより平行に近づいたか否かを検出し、検出結果を姿勢変化情報として変化方向判定部35に出力する。この時、基準の姿勢情報は、初回の姿勢情報である。
第1角変化検出ステップS06において、第1角変化検出部34は、基準の第1角と新たに入力された第1角を比較する。第1角変化検出部34は、下式により基準の第1角と新たに入力された第1角との差分を計算し、第1角変化を検出し、変化方向判定部35に出力する。この時、基準の第1角は、初回の第1角である。
第1角変化 = 基準の第1角 − 新たに入力された第1角
変化方向判定ステップS07において、変化方向判定部35は、姿勢変化と第1角変化の正負に基づいて、押下げ操作がなされたか否かを判定する。変化方向判定部35は、指先11から指第1関節12までの姿勢が、接触面に対しより平行に近づき、かつ第1角が大きくなった時に、姿勢変化と第1角の変化方向が押下げ方向であると判定する。姿勢変化と第1角の変化方向が押下げ方向である時とは、図3(c)に示されるように、図3(b)に比べ、指を押しこんだ状態である。
変化方向判定部35は、変化方向判定ステップS07の判定結果が、姿勢変化と第1角の変化方向が押下げ方向である時に、入力決定する(ステッププS08がYes)。操作入力ステップS08において、操作入力部36は、決定した入力を受け付け、入力コマンドとして入力(ON)を出力する。
一方、変化方向判定部35は、変化方向判定ステップS07の判定結果が、変化方向が押下げ方向でない時(ステッププS08がNo)、ステップS03に遷移する。入力制御装置は、再度姿勢情報と第1角度を取得する、入力待ちの状態を繰り返す。
次に、図3(c)の強接触状態から図3(b)の弱接触状態への遷移を判定して、入力解除を受付ける処理手順を説明する。入力解除を受け付ける処理は、図5のステップS01からS09に遷移して、操作入力部36が入力を受け付けた後の処理である。以下、ステップS09からステップS03に遷移した続きを説明する。また、ステップS09で操作入力部36が入力を受け付けると、姿勢変化検出部33は、基準の姿勢情報を、入力受付時の最後に取得した姿勢情報に変更する。操作入力部36が入力を受け付けると、第1角変化検出部34は、基準の第1角を、入力受付時最後に取得した第1角に変更する。
姿勢情報取得ステップS03において、姿勢情報取得部31は、再度姿勢情報を取得し(ステップS03がYes)、姿勢変化検出部33に出力する。姿勢情報取得部31は、姿勢情報が取得できない場合(ステップS03がNo)、つまり、指が接触面から離れた場合、処理を終了する。
第1角取得ステップS04において、第1角取得部32は、再度第1角を取得し、第1角変化検出部34に出力する。
姿勢変化検出ステップS05において、姿勢変化検出部33は、基準の姿勢情報と新たに入力された姿勢情報を比較する。姿勢変化検出部33は、指先11から指第1関節12までの姿勢が、接触面に対しより垂直に近づいたか否かを検出し、検出結果を姿勢変化情報として変化方向判定部35に出力する。この時、基準の姿勢情報は、入力受付時の最後に取得した姿勢情報である。
第1角変化検出ステップS06において、第1角変化検出部34は、基準の第1角と、新たに入力された第1角を比較する。第1角変化検出部34は、前述した式により基準の第1角と新たに入力された第1角との差分を計算し、第1角変化を検出し、変化方向判定部35に出力する。この時、基準の第1角は、入力受付時の最後に取得した第1角である。
変化方向判定ステップS07において、変化方向判定部35は、姿勢変化と第1角変化の正負に基づいて、押下げ解除操作がなされたか否かを判定する。変化方向判定部35は、指先11から指第1関節12までの姿勢が、接触面に対しより垂直に近づき、かつ第1角が小さくなった時に、姿勢変化と第1角の変化方向が押下げ解除方向であると判定する。指の状態は、図3(c)の状態から図3(b)の状態に遷移し、指を戻した状態であり、押下動作が解除された状態である。
変化方向判定部35は、変化方向判定ステップS07の判定結果が、姿勢変化と第1角の変化方向が押下げ解除方向である時に、入力決定する(ステッププS08がYes)。操作入力ステップS08において、操作入力部36は、決定した入力解除を受け付け、入力コマンドとして入力(OFF)を出力する。
一方、変化方向判定部35は、変化方向判定ステップS07の判定結果が、変化方向が押下げ解除方向でない時(ステッププS08がNo)、ステップS03に遷移する。入力制御装置は、再度姿勢情報と第1角度を取得する、入力待ちの状態を繰り返す。
なお、姿勢情報が取得できない場合(ステップS03がNo)、つまり、指が接触面から離れた場合、操作入力部36は、入力が解除されたとして、入力コマンドとして入力(OFF)を出力してもよい。
また、ステップS09で操作入力部36が入力解除を受け付けると、姿勢変化検出部33は、基準の姿勢情報を、入力解除受付時の最後に取得した姿勢情報に変更する。操作入力部36が入力か解除を受け付けると、第1角変化検出部34は、基準の第1角を、入力解除受付時最後に取得した第1角に変更する。これにより、図5のステップS09からS03に遷移して、指が接触面から離れるまで、入力を受け付ける処理を繰り返すことが可能となる。
以上により、本開示の入力制御方法は、接触面をタッチパネル上に制限することなく、タッチ操作入力を受け付けることが可能となる。本開示の入力制御装置を用いることで、操作者による操作入力の対象である接触面は、表示画面の投影先の壁やスクリーン、机上とした構成が可能となる。また、操作者による操作入力の対象である接触面は、タッチパネル機能を有しない表示装置のディスプレイ、操作者自身の手のひらなどの体の一部とする構成が可能となる。
なお、本開示の入力制御装置は、姿勢情報の入力がない場合に、第1角の情報の入力のみを用いても、押下げを推定することができる。この場合、操作者が指を用いて操作面に対するタッチ動作を行ったのか、タッチ動作以外で任意に指を動かしたのかを区別する必要がある。入力制御装置は、任意に動かせる指の可動範囲をあらかじめ指定しておくことで、区別することが可能となる。
次に、指の姿勢情報について、詳細に説明する。
指の姿勢情報とは、指先11から指第1関節12までの姿勢を表す情報である。例えば、姿勢情報は、指先11から指第1関節12を結ぶ線分の傾きである。また、姿勢情報は、指先11から指第1関節12を結ぶ線分の接触面との内積である。また、姿勢情報は、指先11から指第1関節12を結ぶ線分の接触面との距離である。また、姿勢情報は、指先11から指第1関節12を結ぶ線分の接触面との接地面積である。
図6は、指の姿勢情報として、指先11から指第1関節12を結ぶ線分の傾きである場合を示している。図7は、指の姿勢情報として、指先11から指第1関節12を結ぶ線分の接触面との距離である場合を示している。図8は、指の姿勢情報として、指先11から指第1関節12を結ぶ線分の接触面との接地面積である場合を示している。
以下、指の姿勢情報として、指と接触面との角(第2角)を用いた場合について説明する。
図6は、指の姿勢情報として用いる指と接触面との角(第2角)と、指の関係を示す図である。図6(a)は図3(b)の状態に一致し、図6(b)は図3(c)の状態に一致する。14は接点11における指と接触面との折れ曲がりを定義する補助点、22は第2角である。本開示の入力制御装置は、図6(a)の弱接触状態から図6(b)の強接触状態への遷移を判定して、入力を受付ける。
図5の姿勢変化検出ステップS05において、姿勢変化検出部33は、基準の第2角と、姿勢情報取得ステップS03において新たに入力された第2角を比較する。姿勢変化検出部33は、下式により基準の第2角と新たに入力された第2角との差分を計算し、第2角変化を検出し、第2角変化を変化方向判定部35に出力する。この時、基準の第2角は、初回の第2角である。
第2角変化 = 基準の第2角 − 新たに入力された第2角
変化方向判定ステップS07において、変化方向判定部35は、第1角変化と第2角変化の正負に基づいて、押下げ操作がなされたか否かを判定する。変化方向判定部35は、第1角が大きくなりかつ第2角が小さくなった時に、姿勢変化と第1角の変化方向が押下げ方向であると判定する。
一方、変化方向判定部35は、変化方向判定ステップS07の判定結果が、変化方向が押下げ方向でない時(ステッププS08がNo)、ステップS03に遷移する。入力制御装置は、再度第1角度と第2角度を取得する、入力待ちの状態を繰り返す。
次に、図6(b)の強接触状態から、図6(a)の弱接触状態への遷移を判定して、入力解除を受付ける処理手順を説明する。入力解除を受け付ける処理は、図5のステップS01からS09に遷移して、操作入力部36が入力を受け付けた後の処理である。ステップS09で操作入力部36が入力を受け付けると、姿勢変化検出部33は、基準の第2角を、入力受付時の最後に取得した第2角に変更する。
変化方向判定ステップS07において、変化方向判定部35は、第1角変化と第2角変化の正負に基づいて、押下げ解除操作がなされたか否かを判定する。変化方向判定部35は、第1角が小さくなりかつ第2角が大きくなった時に、姿勢変化と第1角の変化方向が押下げ解除方向であると判定する。
なお、第2角は、指先と接触面が接触している状態においてのみ取得可能である。入力制御装置は、姿勢情報として接触点における第2角を用いることにより、図3(a)に示されるような非接触状態か否かの判定を同時に実現可能である。
また、姿勢情報として第2角を用いた場合において、変化方向判定部35は、前述した判定とは異なる判定を行ってもよい。変化方向判定ステップS07において、変化方向判定部35は、第1角変化と第2角変化の正負と、第1角変化および第2角変化の絶対値に基づいて、第1角が大きくなりその変化が所定の値より大きく、かつ第2角が小さくなり、その変化が所定の値より大きい時に、姿勢変化と第1角の変化方向が押下げ方向であると判定する。
この場合、例えば、操作者の指先が、意図せず変化した場合など、第1角変化と第2角変化が小さい場合に無視する事で、操作者の意図しない操作を回避できる。対して、タッチ操作の意図がある時には、図3(c)に示されるように、指先が曲がる程度に軽く押し込む事で、簡易に、かつ確実にタッチ操作を実行できる。
また、変化の閾値を複数設けることにより、押下げの大きさによって、その後の処理を変化させることも可能である。
以上により、本開示の入力制御方法及び入力制御装置は、接触面をタッチパネル上に制限することなく、タッチ操作入力を受け付けることが可能となる。本開示の入力制御装置を用いることで、操作者による操作入力の対象である接触面は、表示画面の投影先の壁やスクリーン、机上とした構成が可能となる。また、操作者による操作入力の対象である接触面は、タッチパネル機能を有しない表示装置のディスプレイ、操作者自身の手のひらなどの体の一部とする構成が可能となる。
(実施の形態2)
本開示の実施の形態における入力制御装置は、姿勢変化と第1角の変化方向が押下げ方向であると判定した第1の時刻からの経過時間を取得し、経過時間に基づいて、受け付ける入力の種別を変化させる機能を有している。
図9は、本開示の実施の形態における入力制御装置の構成を示すブロック図である。入力制御装置は、図2に示すメモリ装置120を用いてCPU110で動作するプログラムである。
図9において、入力制御装置は、姿勢情報取得部31と、第1角取得部32と、姿勢変化検出部33と、第1角変化検出部34と、変化方向判定部35と、経過時間判定部37と、操作入力部38とを備える。入力制御装置は、タッチ動作による指状態から入力を決定し、入力(短押し、長押し)を判定し、入力コマンドとして入力(短押し)または入力(長押し)を出力する。
姿勢情報取得部31と、第1角取得部32と、姿勢変化検出部33と、第1角変化検出部34と、変化方向判定部35は、前述した図4と同じであるため、説明を省略する。
経過時間判定部37は、変化方向判定部35が押下げ方向と判定すると、押下げられた第1の時刻を記録する。次に、経過時間判定部37は、変化方向判定部35が押下げ解除方向と判定すると、第1の時刻から、押下げが解除された第2の時刻までの経過時間を、操作入力部36に出力する。
操作入力部38は、経過時間判定部37が出力した経過時間に基づいて、受け付ける入力の種別を決定し、入力コマンドを出力する。操作入力部38は、経過時間が所定の時間以下の場合、入力(短押し)と判定し、所定の時間を越える場合、入力(長押し)と判定する。また、操作入力部38は、所定の時間1と所定の時間2(時間1<時間2)など複数の基準時間を保持してもよい。操作入力部38は、経過時間が時間1以下の場合、入力(短押し)、時間1を超え時間2以下の場合、入力(長押し)、時間2を超える場合、入力(長押し2)と判定する。また、予め他の機能を割り当てる構成でもよい。例えば、操作入力部38は、経過時間が時間1以下の場合、入力(右クリック)、時間1を超え時間2以下の場合、入力(右長押し)、時間2を超える場合、入力(左クリック)と判定する。
以上により、本開示の入力制御装置は、接触面をタッチパネル上に制限することなく、タッチ操作入力を受け付けることが可能となる。本開示の入力制御装置を用いることで、操作者による操作入力の対象である接触面は、表示画面の投影先の壁やスクリーン、机上とした構成が可能となる。また、操作者による操作入力の対象である接触面は、タッチパネル機能を有しない表示装置のディスプレイ、操作者自身の手のひらなどの体の一部とする構成が可能となる。
また、本開示の入力制御装置は、接触面へ経過時間に基づいて、受け付ける入力の種別を変化させることが可能となる。本開示の入力制御装置を用いることで、操作対象機器に応じて、出力する入力コマンドを切り替えて制御することが容易になる。
図10は、本開示の入力制御方法におけるフローチャートである。以下、図9および図10を用いて、本開示の入力方法における各機能ステップおよび処理フローの説明をする。なお、ここでは、操作入力部38は、経過時間が所定の時間以下の場合、入力(短押し)と判定し、所定の時間を越える場合、入力(長押し)と判定する。
姿勢取得ステップS11において、姿勢情報取得部31は、入力装置が入力した指状態を用いて、姿勢情報を取得し、取得した姿勢情報を姿勢変化検出部33に出力する。姿勢変化検出部33は、姿勢情報取得部31から入力した姿勢情報を、初回の姿勢情報を基準の姿勢情報として記憶する。
第1角取得ステップS12において、第1角取得部32は、入力装置が入力した指状態を用いて、指の第1角を取得し、取得した第1角を第1角状態として第1角変化検出部34に出力する。第1角変化検出部34は、第1角取得部32から入力した初回の第1角状態から初回の第1角を取得し、基準の第1角として記憶する。
次に、姿勢情報取得ステップS13において、姿勢情報取得部31は、再度姿勢情報を取得し(ステップS13がYes)、姿勢変化検出部33に出力する。姿勢情報取得部31は、姿勢情報が取得できない場合(ステップS13がNo)、つまり、指が接触面から離れた場合、処理を終了する。
第1角取得ステップS14において、第1角取得部32は、再度第1角を取得し、第1角変化検出部34に出力する。
姿勢変化検出ステップS15において、姿勢変化検出部33は、基準の姿勢情報と新たに入力された姿勢情報を比較する。姿勢変化検出部33は、指先11から指第1関節12までの姿勢が、接触面に対しより平行に近づいたか否かを検出し、検出結果を姿勢変化情報として変化方向判定部35に出力する。この時、基準の姿勢情報は、初回の姿勢情報である。
第1角変化検出ステップS16において、第1角変化検出部34は、基準の第1角と新たに入力された第1角を比較する。第1角変化検出部34は、下式により基準の第1角と新たに入力された第1角との差分を計算し、第1角変化を検出し、変化方向判定部35に出力する。この時、基準の第1角は、初回の第1角である。
第1角変化 = 基準の第1角 − 新たに入力された第1角
変化方向判定ステップS17において、変化方向判定部35は、姿勢変化と第1角変化の正負に基づいて、押下げ操作がなされたか否かを判定する。変化方向判定部35は、指先11から指第1関節12までの姿勢が、接触面に対しより平行に近づき、かつ第1角が大きくなった時に、姿勢変化と第1角の変化方向が押下げ方向であると判定する。
変化方向判定部35は、変化方向判定ステップS17の判定結果が、姿勢変化と第1角の変化方向が押下げ方向である時に(ステッププS18がYes)、ステップS19に遷移する。この時、経過時間判定部37は、押下げられた第1の時刻を記録する。姿勢変化検出部33は、基準の姿勢情報を、入力受付時の最後に取得した姿勢情報に変更する。第1角変化検出部34は、基準の第1角を、入力受付時最後に取得した第1角に変更する。
一方、変化方向判定部35は、変化方向判定ステップS17の判定結果が、変化方向が押下げ方向でない時(ステッププS18がNo)、ステップS13に遷移する。入力制御装置は、再度姿勢情報と第1角度を取得する、入力待ちの状態を繰り返す。
姿勢情報取得ステップS19において、姿勢情報取得部31は、再度姿勢情報を取得し(ステップS19がYes)、姿勢変化検出部33に出力する。一方、姿勢情報取得部31は、姿勢情報が取得できない場合(ステップS19がNo)、つまり、指が接触面から離れた場合、操作入力ステップS08において、操作入力部38は、経過時間が所定の時間以下として処理する。操作入力部38は、経過時間が所定の時間以下のため、受け付ける入力の種別を入力(短押し)と決定し、入力コマンドを出力し、処理を終了する。
第1角取得ステップS21において、第1角取得部32は、再度第1角を取得し、第1角変化検出部34に出力する。
姿勢変化検出ステップS22において、姿勢変化検出部33は、基準の姿勢情報と新たに入力された姿勢情報を比較する。姿勢変化検出部33は、指先11から指第1関節12までの姿勢が、接触面に対しより垂直に近づいたか否かを検出し、検出結果を姿勢変化情報として変化方向判定部35に出力する。この時、基準の姿勢情報は、入力受付時の最後に取得した姿勢情報である。
第1角変化検出ステップS23において、第1角変化検出部34は、基準の第1角と、新たに入力された第1角を比較する。第1角変化検出部34は、前述した式により基準の第1角と新たに入力された第1角との差分を計算し、第1角変化を検出し、変化方向判定部35に出力する。この時、基準の第1角は、入力受付時の最後に取得した第1角である。
変化方向判定ステップS24において、変化方向判定部35は、姿勢変化と第1角変化の正負に基づいて、押下げ解除操作がなされたか否かを判定する。変化方向判定部35は、指先11から指第1関節12までの姿勢が、接触面に対しより垂直に近づき、かつ第1角が小さくなった時に、姿勢変化と第1角の変化方向が押下げ解除方向であると判定する。
変化方向判定部35は、変化方向判定ステップS24の判定結果が、姿勢変化と第1角の変化方向が押下げ解除方向である時(ステッププS25がYes)、ステップS26に遷移する。
経過時間判定ステップS26において、経過時間判定部37は、第1の時刻から、押下げが解除された第2の時刻までの経過時間を、操作入力部38に出力する。
入力決定ステップS27において、操作入力部38は、経過時間に基づいて、受け付ける入力の種別を決定する。操作入力ステップS28において、操作入力部38は、ステップS28で決定した入力の種別に応じて、入力コマンドを出力する。
一方、変化方向判定部35は、変化方向判定ステップS24の判定結果が、変化方向が押下げ解除方向でない時(ステッププS25がNo)、ステップS19に遷移する。入力制御装置は、再度姿勢情報と第1角度を取得する、入力解除待ちの状態を繰り返す。
ステップS28で操作入力部36が入力コマンドを出力すると、ステップS13に遷移する。この時、姿勢変化検出部33は、基準の姿勢情報を、入力解除受付時の最後に取得した姿勢情報に変更する。第1角変化検出部34は、基準の第1角を、入力解除受付時最後に取得した第1角に変更する。これにより、ステップS28からS13に遷移して、指が接触面から離れるまで、入力を受け付ける処理を繰り返すことが可能となる。
以上により、本開示の入力制御方法は、接触面をタッチパネル上に制限することなく、タッチ操作入力を受け付けることが可能となる。本開示の入力制御装置を用いることで、操作者による操作入力の対象である接触面は、表示画面の投影先の壁やスクリーン、机上とした構成が可能となる。また、操作者による操作入力の対象である接触面は、タッチパネル機能を有しない表示装置のディスプレイ、操作者自身の手のひらなどの体の一部とする構成が可能となる。
また、本開示の入力制御方法は、接触面へ経過時間に基づいて、受け付ける入力の種別を変化させることが可能となる。本開示の入力制御装置を用いることで、操作対象機器に応じて、出力する入力コマンドを切り替えて制御することが容易になる。
(実施の形態3)
本開示の実施の形態における入力制御装置は、操作者のタッチ動作による指状態を、カメラを用いて取得する構成である。入力制御装置は、カメラから入力した画像を用いて、姿勢情報と第1角を取得する。なお、本実施の形態では、姿勢情報として、指と接触面との角(第2角)を用いた例を説明する。また、実施の形態1と実施の形態2と同様に、姿勢情報は、指先11から指第1関節12までの姿勢を表す情報であり、第2角以外の情報を用いてもよい。
図11は、本開示の実施の形態における入力制御装置を備えたシステムの概観図である。
図11において、本システムは、入力装置であるカメラ101aと、入力制御装置100cと、表示装置であるモニタ103aとを備えている。図11では、入力制御装置が操作対象機器(情報処理装置)に組み込まれた例を示している。なお、実施の形態1と実施の形態2と同様に、入力制御装置は、決定した入力コマンドを情報処理装置に通知する構成でもよい。
操作者は、指を用いて操作入力を行うため、指1で接触面2に対してタッチ動作を行う。カメラ101aは、操作者のタッチ動作による指状態を撮影し、撮影した画像情報を入力制御装置100cに通知する。入力制御装置100cは、入力した画像情報を解析し、接触面2に対する指第1関節までの姿勢情報(第2角)と、指第1関節の曲り状態である第1角を取得する。入力制御装置100cは、第1角と第2角を用いて、押下げ操作がなされたた否かを判断する。入力制御装置100cは、判断結果に基づいて、操作者のタッチ動作による入力を決定し、入力を受け付ける。
図11では、カメラを1つのみ図示しているが、多地点カメラであり、各々のカメラから入力制御装置に画像情報が通知される構成でもよい。
図12は、本開示の実施の形態における入力制御装置の構成を示すブロック図である。
図12において、入力制御装置は、姿勢情報取得部31と、第1角取得部32と、姿勢変化検出部33と、第1角変化検出部34と、変化方向判定部35と、操作入力部36と、画像取得部41と、撮影距離取得部42とを備える。入力制御装置は、カメラが撮影した画像情報を取得し、画像情報を解析して、タッチ動作による指状態から入力を決定し、入力を受け付ける。
姿勢情報取得部31と、第1角取得部32と、姿勢変化検出部33と、第1角変化検出部34と、変化方向判定部35と、操作入力部36は、前述した図4と同じであるため、説明を省略する。
画像取得部41は、カメラ101aが撮影した画像情報を取得し、画像情報を解析し、操作者の指に相当する部分を抽出する。画像取得部41は、抽出した指画像情報を撮影距離取得部42に出力する。指画像情報は、例えば、抽出した指の位置を示す位置情報を含んでいる。画像取得部41は、指画像情報を抽出する方法として、例えば、テンプレートマッチングや学習アルゴリズムなどの方法を用いる。
撮影距離取得部42は、画像取得部41が出力した位置情報を含む画像情報に基づいて、撮影された指に対する距離情報を取得する。撮影距離取得部42は、取得した距離情報を、姿勢情報取得部31と第1角取得部32に出力する。
これにより、姿勢情報取得部31と第1角取得部32は、撮影距離取得部42から距離情報を取得し、処理を行う。姿勢情報取得部31は、距離情報に基づいて、指と接触面とが成す角である第2角を取得する。また、第1角取得部32は、距離情報に基づいて、指関節の曲り状態である第1角を取得する。
なお、カメラが、距離測定が可能であり、測定した距離情報を入力制御装置へ出力する構成でもよい。この場合、カメラが、画像取得部41と撮影距離取得部42の機能を有する。カメラが、撮影した画像情報から距離情報を取得し、距離情報を入力制御装置に出力する。入力制御装置は、カメラが出力した距離情報を用いて、姿勢情報(第2角)と第1角を取得する。
以上により、本開示の入力制御方法および入力制御装置は、接触面をタッチパネル上に制限することなく、タッチ操作入力を受け付けることが可能となる。本開示の入力制御装置を用いることで、操作者による操作入力の対象である接触面は、表示画面の投影先の壁やスクリーン、机上とした構成が可能となる。また、操作者による操作入力の対象である接触面は、タッチパネル機能を有しない表示装置のディスプレイ、操作者自身の手のひらなどの体の一部とする構成が可能となる。
また、本開示の入力制御装置は、カメラが撮影した画像情報に基づいて、第1角と第2角とを取得する。これにより、カメラで撮影可能な場所であれば、操作者による操作対象である接触面とすることが可能となる。
本開示にかかる入力制御方法及び入力制御装置は、指の第1関節の曲がり状態である第1角と、接触面に対する指第1関節までの姿勢情報とを用いて、入力を受け付ける機能を有し、指を用いたタッチ入力を行うPCなどの情報端末等として有用である。また、通信機器、家電機器、AV機器等の用途にも応用できる。
100,100a,100b,100c 入力制御装置
101 入力装置
101a カメラ
102 情報処理装置
103 表示装置
103a モニタ
110 CPU
120 メモリ装置
130 ハードディスク装置
150 バスライン
111,113,114 インタフェース
121 ROM
122 RAM
31 姿勢情報取得部
32 第1角取得部
33 姿勢変化検出部
34 第1角変化検出部
35 変化方向判定部
36,38 操作入力部
37 経過時間判定部
41 画像取得部
42 撮影距離取得部

Claims (16)

  1. 指を用いて操作入力を行う入力制御方法であって、
    前記指の接触面に対する第1関節までの姿勢を示す姿勢情報を取得する姿勢取得ステップと、
    前記姿勢取得ステップにより得られた前記姿勢情報を用いて、前記姿勢の時間経過に伴う変化を検出する姿勢変化検出ステップと、
    前記姿勢の時間経過に伴う変化を検出した際の前記第1関節の曲り状態である第1角の状態を取得する第1角取得ステップと、
    前記第1角取得ステップにより得られた前記第1角の状態を用いて、前記第1角の時間経過に伴う変化を検出する第1角変化検出ステップと、
    検出した前記姿勢の時間経過に伴う変化と前記第1角の時間経過に伴う変化とを用いて前記指の変化方向を判定する変化方向判定ステップと、
    前記変化方向判定ステップにおける判定結果に基づいて、前記指による入力を受け付ける操作入力ステップと を備えることを特徴とする入力制御方法。
  2. 前記姿勢情報は、前記指と前記接触面とが成す角である第2角の状態であって、
    前記姿勢取得ステップは、前記第2角の状態を取得し、
    前記姿勢変化検出ステップは、前記姿勢取得ステップにより得られた前記第2角の状態を用いて、前記第2角の時間経過に伴う変化を検出し、
    前記操作入力ステップは、前記第1角の時間経過に伴う変化と前記第2角の時間経過に伴う変化との変化方向が逆であるときに、前記指による入力を受け付けることを特徴とする請求項1に記載の入力制御方法。
  3. 前記第1角は、前記第1関節における掌側の角であって、前記第2角は、前記指と前記接触面との掌側の角であって、
    前記第1角変化検出ステップは、前記第1角の値が時間経過に伴い大きくなる場合に、第1角の変化が正と検出し、
    前記第2角変化検出ステップは、前記第2角の値が時間経過に伴い小さくなる場合に、第2角の変化が負と検出し、
    前記操作入力ステップは、前記第1角の変化が正であり、前記第2角の変化が負であるときに、前記指による入力を受け付けることを特徴とする請求項2に記載の入力制御方法。
  4. 前記変化方向判定ステップにおいて第1角変化と姿勢変化の変化方向が押下方向あると判定した第1の時刻からの経過時間を取得する経過時間判定ステップをさらに備え、
    前記操作入力ステップは、前記経過時間に基づいて、受け付ける入力の種別を変化させることを特徴とする請求項2に記載の入力制御方法。
  5. 前記操作入力ステップは、前記第1角の変化量と前記姿勢の変化量との少なくとも一つの絶対値が、所定の変化量よりも大きいときに、前記指による入力を受け付けることを特徴とする請求項2に記載の入力制御方法。
  6. カメラが撮影した前記指の画像データを取得する画像取得ステップと、
    前記画像データに基づいて、撮影された指に対する距離情報を取得する撮影距離取得ステップを備え、
    前記第1角取得ステップは、前記撮影距離情報に基づいて、前記第1関節の曲り状態である第1角を取得し、
    前記第2角取得ステップは、前記撮影距離情報に基づいて、前記指と前記接触面とが成す角である第2角を取得することを特徴とする請求項5に記載の入力制御方法。
  7. 前記姿勢情報は、前記指と前記接触面との接触面積であって、
    前記姿勢取得ステップは、前記接触面積の状態を取得し、
    前記姿勢変化検出ステップは、前記接触面積取得ステップにより得られた前記接触面積の状態を用いて、前記接触面積の時間経過に伴う変化を検出し、
    前記操作入力ステップは、前記第1角の変化と前記接触面積の変化との変化方向が同じであるときに、前記指による入力を受け付けることを特徴とする請求項1に記載の入力制御方法。
  8. 前記姿勢情報は、前記第1関節と前記接触面との距離であって、
    前記姿勢取得ステップは、前記第1関節と前記接触面との距離を取得し、
    前記姿勢変化検出ステップは、前記接触距離取得ステップにより得られた前記第1関節と前記接触面との距離を用いて、前記距離の時間経過に伴う変化を検出し、
    前記操作入力ステップは、前記第1角の変化と前記第1関節と前記接触面との距離の変化との変化方向が逆であるときに、前記指による入力を受け付けることを特徴とする請求項1に記載の入力制御方法。
  9. 指を用いて操作入力を行う入力制御装置であって、
    前記指の接触面に対する第1関節までの姿勢を示す姿勢情報を取得する姿勢取得部と、
    前記姿勢取得部により得られた前記姿勢情報を用いて、前記姿勢の時間経過に伴う変化を検出する姿勢変化検出部と、
    前記姿勢の時間経過に伴う変化を検出した際の前記第1関節の曲り状態である第1角の状態を取得する第1角取得部と、
    前記第1角取得部により得られた前記第1角の状態を用いて、前記第1角の時間経過に伴う変化を検出する第1角変化検出部と、
    検出した前記姿勢の時間経過に伴う変化と前記第1角の時間経過に伴う変化とを用いて前記第1関節の変化方向が押下方向であることを判定する、変化方向判定部と、
    前記変化方向判定部における判定結果に基づいて、前記指による入力を受け付ける操作入力部とを備えることを特徴とする入力制御装置。
  10. 前記姿勢情報は、前記指と前記接触面とが成す角である第2角の状態であって、
    前記姿勢取得部は、前記第2角の状態を取得し、
    前記姿勢変化検出部は、前記姿勢取得部により得られた前記第2角の状態を用いて、前記第2角の時間経過に伴う変化を検出し、
    前記操作入力部は、前記第1角の時間経過に伴う変化と前記第2角の時間経過に伴う変化との変化方向が逆であるときに、前記指による入力を受け付けることを特徴とする請求項9に記載の入力制御装置。
  11. 前記第1角は、前記第1関節における掌側の角であって、前記第2角は、前記指と前記接触面との掌側の角であって、
    前記第1角変化検出部は、前記第1角の値が時間経過に伴い大きくなる場合に、第1角の変化が正と検出し、
    前記第2角変化検出部は、前記第2角の値が時間経過に伴い小さくなる場合に、第2角の変化が負と検出し、
    前記操作入力部は、前記第1角の変化が正であり、前記第2角の変化が負であるときに、指による入力を受け付けることを特徴とする請求項10に記載の入力制御装置。
  12. 前記変化方向判定部において前記姿勢変化と第1角変化の変化方向が押下方向であると判定した第1の時刻からの経過時間を取得する、経過時間判定部をさらに備え、
    前記操作入力部は、前記経過時間に基づいて、受け付ける入力の種別を変化させることを特徴とする請求項10に記載の入力制御装置。
  13. 前記操作入力部は、前記第1角の変化量と前記姿勢の変化量との少なくとも一つの絶対値が、所定の変化量よりも大きいときに、前記指による入力を受け付けることを特徴とする請求項10に記載の入力制御装置。
  14. カメラが撮影した前記指の画像データを取得する画像取得部と、
    前記画像データに基づいて、撮影された指に対する距離情報を取得する距離取得部を備え、
    前記第1角取得部は、前記距離情報に基づいて、前記第1関節の曲り状態である第1角を取得し、
    前記第2角取得部は、前記距離情報に基づいて、前記指と前記接触面とが成す角である第2角を取得することを特徴とする請求項13に記載の入力制御装置。
  15. 前記姿勢情報は、前記指と前記接触面との接触面積であって、
    前記姿勢取得部は、前記接触面積の状態を取得し、
    前記姿勢変化検出部は、前記接触面積の状態を用いて、前記接触面積の時間経過に伴う変化を検出し、
    前記操作入力部は、前記第1角の変化と前記接触面積の変化との変化方向が同じであるときに、前記指による入力を受け付けることを特徴とする請求項9に記載の入力制御装置。
  16. 前記姿勢情報は、前記第1関節と前記接触面との距離であって、
    前記姿勢取得部は、前記第1関節と前記接触面との距離を取得し、
    前記姿勢変化検出部は、前記接触距離取得部により得られた前記第1関節と接触面との距離を用いて、前記距離の時間経過に伴う変化を検出し、
    前記操作入力部は、前記第1角の変化と前記第1関節と接触面との距離の変化との変化方向が逆であるときに、前記指による入力を受け付けることを特徴とする請求項9に記載の入力制御装置。
JP2014120170A 2013-06-25 2014-06-11 入力制御方法及び入力制御装置 Pending JP2015028765A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014120170A JP2015028765A (ja) 2013-06-25 2014-06-11 入力制御方法及び入力制御装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013132230 2013-06-25
JP2013132230 2013-06-25
JP2014120170A JP2015028765A (ja) 2013-06-25 2014-06-11 入力制御方法及び入力制御装置

Publications (1)

Publication Number Publication Date
JP2015028765A true JP2015028765A (ja) 2015-02-12

Family

ID=52110492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014120170A Pending JP2015028765A (ja) 2013-06-25 2014-06-11 入力制御方法及び入力制御装置

Country Status (2)

Country Link
US (1) US20140375581A1 (ja)
JP (1) JP2015028765A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107666987A (zh) * 2015-07-02 2018-02-06 埃森哲环球服务有限公司 机器人过程自动化
JP2020004282A (ja) * 2018-06-29 2020-01-09 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム及び記憶媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015222152A1 (de) * 2015-11-11 2017-05-11 Robert Bosch Gmbh Elektrohandwerkzeugmaschine
KR20180097026A (ko) * 2017-02-22 2018-08-30 에스케이하이닉스 주식회사 불휘발성 메모리 장치, 그것을 포함하는 데이터 저장 장치 및 데이터 저장 장치의 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050057535A1 (en) * 2003-09-16 2005-03-17 Chen-Duo Liu Handwriting pen capable of simulating different strokes
JP2014052988A (ja) * 2012-09-10 2014-03-20 Konica Minolta Inc タッチパネル入力装置、タッチ入力方法及びタッチ入力制御プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6304840B1 (en) * 1998-06-30 2001-10-16 U.S. Philips Corporation Fingerless glove for interacting with data processing system
JP2006060774A (ja) * 2004-07-20 2006-03-02 Olympus Corp 携帯情報機器
US8686960B2 (en) * 2010-04-23 2014-04-01 Lester F. Ludwig Piecewise-linear and piecewise-affine transformations for high dimensional touchpad (HDTP) output decoupling and corrections
US20130009896A1 (en) * 2011-07-09 2013-01-10 Lester F. Ludwig 3d finger posture detection and gesture recognition on touch surfaces

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050057535A1 (en) * 2003-09-16 2005-03-17 Chen-Duo Liu Handwriting pen capable of simulating different strokes
JP2014052988A (ja) * 2012-09-10 2014-03-20 Konica Minolta Inc タッチパネル入力装置、タッチ入力方法及びタッチ入力制御プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107666987A (zh) * 2015-07-02 2018-02-06 埃森哲环球服务有限公司 机器人过程自动化
JP2018535459A (ja) * 2015-07-02 2018-11-29 アクセンチュア グローバル サービスィズ リミテッド ロボットによるプロセス自動化
JP7089879B2 (ja) 2015-07-02 2022-06-23 アクセンチュア グローバル サービスィズ リミテッド ロボットによるプロセス自動化
JP2020004282A (ja) * 2018-06-29 2020-01-09 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム及び記憶媒体
JP7278723B2 (ja) 2018-06-29 2023-05-22 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
US20140375581A1 (en) 2014-12-25

Similar Documents

Publication Publication Date Title
KR102170321B1 (ko) 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
US10185402B2 (en) Method and system for gesture based control device
US8619064B2 (en) Dynamic resistance control of a stylus
US20150301684A1 (en) Apparatus and method for inputting information
JP2016515747A (ja) ハンドヘルドデバイスおよび方法での片手およびマルチモーダルの対話のためのグリップ力センサアレイ
US10346992B2 (en) Information processing apparatus, information processing method, and program
US20150331491A1 (en) System and method for gesture based touchscreen control of displays
JP2015028765A (ja) 入力制御方法及び入力制御装置
TW201939260A (zh) 一種利用手勢模擬滑鼠操作的方法、裝置及終端
WO2017029749A1 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
WO2014057975A1 (ja) 携帯電子機器、その制御方法及びプログラム
JP2015172887A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
KR20170061560A (ko) 사용자 입력을 획득하기 위한 방법 및 전자장치
WO2015131590A1 (zh) 一种控制黑屏手势处理的方法及终端
US20150185871A1 (en) Gesture processing apparatus and method for continuous value input
CN104238935B (zh) 用于与触敏设备交互的定点装置以及方法
Wolf et al. Tickle: a surface-independent interaction technique for grasp interfaces
US10162501B2 (en) Terminal device, display control method, and non-transitory computer-readable recording medium
WO2016021255A1 (ja) 装置、装置の制御方法
CN105912158B (zh) 一种移动终端的触屏拍照方法、装置及移动终端
US10114469B2 (en) Input method touch device using the input method, gesture detecting device, computer-readable recording medium, and computer program product
Le et al. Demonstrating palm touch: the palm as an additional input modality on commodity smartphones
WO2016206438A1 (zh) 一种触屏控制方法和装置、移动终端
CN106575184B (zh) 信息处理装置、信息处理方法及计算机可读介质
TW201621651A (zh) 滑鼠模擬系統及方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20141105

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170419

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170516

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20171208

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181016