JP5766479B2 - 電子機器、制御方法および制御プログラム - Google Patents

電子機器、制御方法および制御プログラム Download PDF

Info

Publication number
JP5766479B2
JP5766479B2 JP2011068967A JP2011068967A JP5766479B2 JP 5766479 B2 JP5766479 B2 JP 5766479B2 JP 2011068967 A JP2011068967 A JP 2011068967A JP 2011068967 A JP2011068967 A JP 2011068967A JP 5766479 B2 JP5766479 B2 JP 5766479B2
Authority
JP
Japan
Prior art keywords
predetermined
intensity
predetermined object
strength
displacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011068967A
Other languages
English (en)
Other versions
JP2012203736A (ja
Inventor
雄大 永田
雄大 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011068967A priority Critical patent/JP5766479B2/ja
Priority to EP12764899.6A priority patent/EP2690524B1/en
Priority to PCT/JP2012/057602 priority patent/WO2012133226A1/ja
Priority to US14/007,307 priority patent/US9430081B2/en
Publication of JP2012203736A publication Critical patent/JP2012203736A/ja
Application granted granted Critical
Publication of JP5766479B2 publication Critical patent/JP5766479B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本発明は、電子機器、制御方法および制御プログラムに関する。
近年、仮想現実技術や拡張現実技術の進歩により、人々は様々な事象を擬似的に体験できるようになってきている。例えば、特許文献1では、楽器の演奏を擬似的に体験ことができる技術が開示されている。
特開2011−011008号公報
しかしながら、楽器を演奏するに際しては、鍵盤をたたく強度等の操作の強度が重要であるところ、特許文献1に記載されている技術は、タッチパネル面上に接触することによって擬似体験を実現するものであり、実際に楽器を演奏する感覚を十分に与えることは難しい。
本発明は、上記に鑑みてなされたものであって、立体表示がなされた空間における利用者の操作を検出することができる電子機器、制御方法および制御プログラムを提供することを目的とする。
本発明に係る電子機器は、所定のオブジェクトを3次元表示する表示部と、前記オブジェクトに関連付けられた動作を実行する動作部と、前記オブジェクトの視認空間における所定の物体の変位を検出する検出部と、当該検出した変位に基づいて前記オブジェクトに対する操作の強度を判定し、判定された前記強度に応じて、前記動作の内容を変化させる制御部とを備える。
ここで、前記検出部は、前記所定の物体に接触することなく前記変位を検出することが好ましい。
また、前記制御部は、前記所定の物体が、前記空間において移動した距離に基づいて前記操作の強度を判定することが好ましい。
また、前記制御部は、前記所定の物体が、所定の第1位置から所定の第2位置まで移動するのに要した時間に基づいて前記操作の強度を判定することが好ましい。
また、前記制御部は、前記所定の物体が、所定の第1位置から所定の第2位置まで移動するのに要した時間から換算される速度に基づいて前記操作の強度を判定することが好ましい。
また、前記制御部は、前記所定の物体が、所定の第1位置から所定の第2位置まで移動するのに要した時間から換算される速度に基づいて前記操作の強度を判定することが好ましい。
また、前記制御部は、前記所定の物体の大きさが変化するのに要した時間に基づいて前記操作の強度を判定することが好ましい。
また、前記制御部は、前記所定の物体の大きさが変化する比率に基づいて前記操作の強度を判定することが好ましい。
また、前記所定の物体は指であることが好ましい。この場合、前記所定の物体の変位は、前記空間を撮影する撮影部の画像に基づいて検出され、前記制御部は、予め記憶している指紋データと前記画像とを照合することにより、前記所定の物体の大きさを求めることとしてもよい。
また、前記制御部は、指定した操作の強度と、前記所定の物体の変位に基づいて判定した操作の強度との差或いは比率に基づいて、操作の強度を判定するための閾値を調整することが好ましい。
また、前記制御部は、前記表示部に前記オブジェクトを3次元表示する立体視の程度と、当該オブジェクトに接触する操作を行った際の前記所定の物体の位置の検出結果とに基づいて、前記表示部にオブジェクトを3次元表示する立体視の程度を調整することが好ましい。
また、本発明に係る制御方法は、表示部を有する電子機器によって実行される制御方法であって、所定のオブジェクトを3次元表示するステップと、前記オブジェクトに関連付けられた動作を実行するステップと、前記オブジェクトの視認空間における所定の物体の変位を検出するステップと、当該検出した変位に基づいて前記オブジェクトに対する操作の強度を判定し、判定された前記強度に応じて、前記動作の内容を変化させるステップとを含む。
また、本発明に係る制御プログラムは、表示部を有する電子機器に、所定のオブジェクトを3次元表示するステップと、前記オブジェクトに関連付けられた動作を実行するステップと、前記オブジェクトの視認空間における所定の物体の変位を検出するステップと、当該検出した変位に基づいて前記オブジェクトに対する操作の強度を判定し、判定された前記強度に応じて、前記動作の内容を変化させるステップとを実行させる。
本発明は、立体表示がなされた空間における利用者の操作を検出することができるという効果を奏する。
図1は、本実施例に係る携帯電話端末(電子機器)の外観を示す正面図である。 図2は、本実施例に係る携帯電話端末の機能的な構成を示すブロック図である。 図3は、3次元オブジェクトに対する操作の検出について説明するための図である。 図4は、3次元オブジェクトに対する操作時に撮影される画像の例を示す図である。 図5は、3次元オブジェクトに対する操作の強度の検出について説明するための図である。 図6は、操作の強度の調整処理の処理手順を示すフローチャートである。 図7は、強度の段階を分けて調整処理を行う例を示す図である。 図8は、立体視の程度の調整の例を示す図である。 図9は、ロック解除画面で立体視の程度の調整を行う例を示す図である。
以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、電子機器の一例として携帯電話端末について説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA、ポータブルナビゲーション装置、ノートパソコン、ゲーム機等に対しても本発明は適用できる。
まず、図1および図2を参照しながら、本実施例に係る携帯電話端末(電子機器)1の構成について説明する。図1は、携帯電話端末1の外観を示す正面図である。図2は、携帯電話端末1の機能的な構成を示すブロック図である。
図1および図2に示すように、携帯電話端末1は、操作部13と、マイク15と、レシーバ16と、制御部22と、記憶部24と、通信部26と、音声処理部30と、タッチパネル32と、撮影部40とを有する。操作部13、マイク15、レシーバ16、タッチパネル32および撮影部40は、携帯電話端末1の正面に一部が露出する。
操作部13は、物理的なボタンを有し、押下されたボタンに対応する信号を制御部22へ出力する。なお、図1に示す例では、操作部13はボタンを1つしか有していないが、操作部13は複数のボタンを有していてもよい。
マイク15は、外部の音声を取得する。レシーバ16は、通話時に通話相手の音声を出力する。音声処理部30は、マイク15から入力される音声をデジタル信号化して制御部22へ出力する。また、音声処理部30は、制御部22から入力されるデジタル信号を復号してレシーバ16へ出力する。
通信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介して、基地局との間にCDMA(Code Division Multiple Access)方式などによる無線信号回線を確立する。通信部26は、基地局との間に確立された無線信号回線を通じて、他の装置との間で電話通信および情報通信を行う。
タッチパネル32は、文字、図形、画像等の各種の情報を表示するとともに、表示されたアイコン、ボタン、文字入力領域等の所定領域に対する入力操作を検出する。タッチパネル32は、表示部32aと、タッチセンサ32bとを重畳して構成される。
表示部32aは、液晶ディスプレイ(Liquid Crystal Display)や有機EL(Organic Electro−Luminescence)パネル等の表示装置を備え、制御部22から入力される制御信号に従って各種の情報を表示する。タッチセンサ32bは、タッチパネル32の表面に対して行われる入力操作を検出し、検出した入力操作に応じた信号を制御部22へ出力する。本実施例において、タッチセンサ32bは、静電容量式のセンサであるものとする。
また、本実施例において、タッチパネル32は、3次元オブジェクトを表示できるものとする。3次元オブジェクトは、視差を利用して立体的に見えるように作成された画像や形状である。なお、3次元オブジェクトを表示する方式は、眼鏡等の器具を用いて立体視を実現する方式であってもよいし、裸眼で立体視を実現する方式であってもよい。
撮影部40は、撮像センサによって画像を電子的に取得する。本実施例において、撮影部40は、タッチパネル32が設けられた面の対角に配置された撮影部40aおよび撮影部40bとから構成されるが、撮影部40は、必ずしも複数の撮影手段を必要としない。なお、撮影部40は、タッチパネル32上のどの位置に指が置かれていてもその指を撮影することができるように画角や配置が設定されていることが好ましい。また、撮影部40は、可視光の画像を取得する装置であってもよいし、赤外線等の不可視光の画像を取得する装置であってもよい。
制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリおよび記憶部24に対してデータの読み書きを行ったり、通信部26や表示部32a等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータやタッチセンサ32b等から入力される信号がパラメータや判定条件の一部として利用される。
記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムには、制御プログラム24aが含まれる。なお、記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、制御プログラム24aは、記憶媒体に記憶されていてもよい。また、制御プログラム24aは、通信部26による無線通信によってサーバ装置等の他の装置から取得することとしてもよい。
制御プログラム24aは、携帯電話端末1を稼働させるための各種制御に関する機能を提供する。制御プログラム24aが提供する機能には、タッチパネル32での3次元オブジェクトの表示を制御する機能や、タッチパネル32によって表示される3次元オブジェクトに対する利用者の操作の強度を検出する機能が含まれる。
次に、図3から図5を参照しながら、3次元オブジェクトに対する操作の強度の検出について説明する。図3は、3次元オブジェクトに対する操作の検出について説明するための図である。図4は、3次元オブジェクトに対する操作時に撮影される画像の例を示す図である。図5は、3次元オブジェクトに対する操作の強度の検出について説明するための図である。
図3に示すように、タッチパネル32が、3次元オブジェクトOB1を表示しているものとする。3次元オブジェクトOB1は、利用者には視認空間中にタッチパネル32から浮き上がって見えるため、3次元オブジェクトOB1に対する操作は、タッチパネル32から離れた位置で行われる。図3では、利用者は、指F1を3次元オブジェクトまで振り下ろした後、元の位置まで戻す操作を行っている。なお、視認空間とは、利用者には、あたかもオブジェクトOB1が存在しているように見えている空間をいう。
このような操作中に、図4に示すような画像Pが撮影部40によって撮影される。図4では、当初は小さく写っていた指先が振り下ろし動作にともなって大きくなり、指先を元の位置へ戻す動作にともなって元の大きさに戻っていく様子が撮影されている。図4において、FP1は、操作開始前の指先領域であり、FP2は、指F1がタッチパネル32に最も近づいたときの指先領域であり、FP3は、操作完了後の指先領域である。
操作中に撮影される各画像Pに含まれる指先の大きさを時間順にプロットすると、図5に示すような曲線が得られる。ここで、指F1で3次元オブジェクトOB1を操作する場合、指F1を強く動かすほど、操作に要する時間は短くなると考えられる。したがって、操作開始時の指F1の画像が撮影されてから、指先が最も大きく写った画像が撮影されるまでの時間Tに基づいて操作の強弱を判定することができる。すなわち、時間Tが短いほど強く操作が行われ、時間Tが短いほど弱く操作が行われたと判定することができる。
また、指F1で3次元オブジェクトOB1を操作する場合、指F1を強く動かすほど、指F1の移動量が大きくなると考えられる。したがって、操作開始時の指先領域FP1の大きさSminと、指F1が最もタッチパネルに近づいたときの指先領域FP2の大きさSmaxとの比率に基づいて操作の強弱を判定することもできる。すなわち、Smax/Sminが大きいほど強く操作が行われ、Smax/Sminが小さいほど弱く操作が行われたと判定することができる。
なお、個人によっては、比較的弱く操作を行う場合には時間Tが操作の強弱を明確に表し、比較的強く操作を行う場合にはSmax/Sminが操作の強弱を明確に表すこともあるため、これらの指標を併用して操作の強弱を判定することが好ましい。また、これらの指標を求めるには、操作の開始時点を識別する必要があるが、例えば、撮影部40によって撮影される画像に含まれる指先領域の大きさが所定回数以上連続して増大したタイミングを操作の開始時点として処理してもよい。
また、指先領域の大きさを精度よく識別するため、利用者の指紋データを携帯電話端末1に予め登録しておき、登録されている指紋データとマッチする領域を指先領域として処理してもよい。
次に、図6を参照しながら、操作の強度の調整処理の処理手順について説明する。図6は、操作の強度の調整処理の処理手順を示すフローチャートである。図6に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。なお、図6に示す処理手順は、利用者が3次元オブジェクトに対する操作を初めて行う前のタイミングや、その後の定期的なタイミング等に実行される。
図6に示すように、制御部22は、まず、ステップS11として、タッチパネル32に3次元オブジェクトを表示させる。続いて、制御部22は、ステップS12として、3次元オブジェクトに対する操作を指示するメッセージをタッチパネル32に表示させる。そして、制御部22は、ステップS13として、撮影部40に指先の画像を連続して撮影させる。
なお、撮影部40に指先の画像を連続して撮影させる期間は、予め定められた長さの期間であってもよいし、撮影された画像から操作の完了が検出されるまでの期間であってもよい。
制御部22は、ステップS14として、撮影された画像の中から指先のサイズが最小の画像と指先のサイズが最大の画像とを選択する。続いて、制御部22は、ステップS15として、選択された画像間の経過時間または指先のサイズの比率の少なくとも一方を算出する。そして、制御部22は、ステップS16として、算出結果に基づいて、操作の強度を判定するための閾値を補正する等して、操作の強度の調整を行う。なお、ここでは、選択された画像間の経過時間または指先のサイズの比率に基づいて、操作の強度を示す値を算出し、閾値と予め対応づけられている強度と算出された強度との差或いは比率に応じて閾値を調整してもよい。
このように、操作の強度の調整処理を実施することにより、操作の強度の判定を利用者の特性に合わせることができる。なお、図7に示すように、強度の段階を分けて調整処理を行ってもよい。図7に示す例では、3本のピンを3次元オブジェクトとして表示し、左側のピンを強くたたかせ、中央のピンを中程度の強さでたたかせ、右側のピンを弱くたたかせた結果に基づいて操作の強度の調整が行われる。強度の段階を分けて調整処理を行うことにより、操作の強度の調整処理をより精密に行うことができる。
上述してきたように、本実施例では、操作に要した時間や操作にともなう移動距離に基づいて利用者が行う操作の強度を検出することとしたので、利用者が行う操作の強度を適確に検出することができる。
なお、上記の実施例で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。例えば、上記の実施例で示した制御プログラム24aは、複数のモジュールに分割されていてもよいし、他のプログラムと統合されていてもよい。また、上記の実施例では、3次元オブジェクトに対して指で操作を行うこととしたが、3次元オブジェクトに対して道具を使って操作することとしてもよい。
また、上記の実施例では、3次元空間での指の動きを撮影部40が撮影した画像に基づいて検出することとしたが、タッチセンサ32bを用いて3次元空間での指の動きを検出してもよい。タッチセンサ32bの感度を調整することにより、指がタッチセンサ32bと接触していなくても、指のX軸方向、Y軸方向およびZ軸方向の動きを検出することができる。
また、操作の強度の判定の精度を向上させるために、携帯電話端末1が想定している立体視の程度と、実際に利用者に見えている立体視の程度とを調整することとしてもよい。立体視の程度の調整について、図8および図9を参照しながら説明する。
図8に示すように、制御部22は、球形の3次元オブジェクトをタッチパネル32上に1つ表示し、その3次元オブジェクトに指を接触させるように利用者に促す。すると、利用者は、3次元オブジェクトが見えている位置に指を置く。このときの指の位置を検出することにより、携帯電話端末1が想定している立体視の程度と、実際に利用者に見えている立体視の程度とを一致させることができる。
続いて、制御部22は、立体視の程度が異なる複数の3次元オブジェクトをタッチパネル32上に表示し、最も立体的に見える3次元オブジェクトに指を接触させるように利用者に促す。すると、利用者は、最も立体的に見える3次元オブジェクトに指を接触させる。どの3次元オブジェクトに指が接触したかを判定することにより、最も好適な立体視の程度が分かる。
なお、好適な立体視の程度は、体調等によっても変化するため、なるべく頻繁に判定を行うことが好ましい。例えば、図9に示すように、省電力状態から復帰する際に表示されるロック解除画面に立体視の程度が異なる複数の3次元オブジェクトを表示し、最も立体的に見える3次元オブジェクトに対応する操作によって復帰を実現することにより、利用者に負担をかけることなく、好適な立体視の程度を高い頻度で判定することができる。
なお、上述では、所定の物体の大きさが変化するのに要した時間に基づいて操作の強度を判定するようにしたが、これに限られない。たとえば所定の物体が、立体画像が表示される空間において移動した距離に基づいて操作の強度を判定してもよい。そして移動距離が大きいほど、操作強度を高く設定するとよい。この場合、指の移動を撮影部で撮影すればよい。この場合、指の移動方向が、撮影部が撮影できる撮影面とほぼ平行になるように撮影部を配置していると、物体の移動量を容易に計測できる。
あるいは、所定の物体が、所定の第1位置から所定の第2位置まで移動するのに要した時間に基づいて前記操作の強度を判定してもよい。そして要した時間が短いほど、操作強度を高く設定するとよい。この場合、指の移動を撮影部で撮影すればよい。また、所定の第1位置および所定の第2位置は、ユーザーが立体表示を見ながら設定できるようにしてもよい。もちろん、所定の第1位置から所定の第2位置まで移動するのに要した時間に換えて、所定の物体が移動を開始してから停止するまでの時間としてもよい。
あるいは、上記所定の第1位置から上記所定の第2位置まで移動するのに要した時間から換算される速度が速いほど、操作強度を高く設定してもよい。この場合、第1位置から第2位置までの直線距離をあらかじめ測定あるいは設定しておき、この距離と移動に要した時間から第1位置から第2位置まで移動する際の速度を算出してもよい。
また、上記実施例では、所定の物体の移動により生じる各物理量の変位を検出するために撮影部を用いた例を示したが、これに限られない。たとえば撮影部に変えて、TOF(Time-of-Flight)法を用いたセンサでもよい。また立体表示がされた空間における面方向の移動を検出できる赤外線センサや近接センサ等を、所定の物体の移動方向とほぼ水平に配置すると、所定の物体の変位が非接触でも検出できることから、もちろんこれらを用いてもよい。なお、所定の物体にセンサ等を配置することなく、上記変位の検出ができるとよく、その場合、指にわざわざ加速度センサを取り付けたり、加速度を備えた電子機器そのものを移動させたりする必要がないので、コスト低減が図れる。
また、判定された強度の強さに応じて、動作内容を変化させる例としては、指等を空間内で移動させたときの強度に対応付けられており、強弱のレベル調整が行えるものであればなんでもよい。たとえば、強度の強さに応じて、オブジェクトを移動させる、あるいはその際の移動の速さを変える、オブジェクトを変形させる、あるいは変形させる量を変える等、オブジェクト自体についてのなんらかの変化があるようにしてもよい。
あるいは、オブジェクトとしてピアノの鍵盤を表示しており、当該強度が高いほどピアノの音を大きくするような動作内容としてもよい。この場合、オブジェクト自体の表示を変化させるわけではないが、オブジェクトと関連付けられた物理量である音の大きさを変えたり、音の出し方を変えたりすることができる。その他、音以外の物理量として、光の強度、明滅、そのテンポ、周期等を変化させてもよい。
また、上述の実施例では、3次元オブジェクトが利用者側に飛び出す場合について記載したが、表示部よりも奥側に3次元オブジェクトが存在するように見せる場合でも本発明を適用できる。この場合、表示部の裏面側にセンサやカメラを配置すればよい。
電子機器がたとえば携帯電話の場合、利用者自身を撮影するためのインカメラと、風景等を撮影するためのアウトカメラを共に備えていることが多い。そこで、このアウトカメラを用いることで裏面側における所定の物体の変位を捕捉することができるようにしてもよい。
1 携帯電話端末
13 操作部
22 制御部
24 記憶部
24a 制御プログラム
26 通信部
30 音声処理部
32 タッチパネル
32a 表示部
32b タッチセンサ
40 撮影部

Claims (12)

  1. 所定のオブジェクトを3次元表示する表示部と、
    前記オブジェクトに関連付けられた動作を実行する動作部と、
    前記オブジェクトの視認空間における所定の物体の変位を検出する検出部と、
    当該検出した変位に基づいて前記オブジェクトに対する操作の強度を判定し、判定された前記強度に応じて、前記動作の内容を変化させる制御部と
    を備え
    前記制御部は、前記表示部に前記オブジェクトを3次元表示する立体視の程度と、当該オブジェクトに接触する操作を行った際の前記所定の物体の位置の検出結果とに基づいて、前記表示部にオブジェクトを3次元表示する立体視の程度を調整することを特徴とする電子機器。
  2. 前記検出部は、前記所定の物体に接触することなく前記変位を検出する
    ことを特徴とする請求項1に記載の電子機器。
  3. 前記制御部は、前記所定の物体が、前記空間において移動した距離に基づいて前記操作の強度を判定する
    ことを特徴とする請求項1に記載の電子機器。
  4. 前記制御部は、前記所定の物体が、所定の第1位置から所定の第2位置まで移動するのに要した時間に基づいて前記操作の強度を判定する
    ことを特徴とする請求項1に記載の電子機器。
  5. 前記制御部は、前記所定の物体が、所定の第1位置から所定の第2位置まで移動するのに要した時間から換算される速度に基づいて前記操作の強度を判定する
    ことを特徴とする請求項1に記載の電子機器。
  6. 前記制御部は、前記所定の物体の大きさが変化するのに要した時間に基づいて前記操作の強度を判定することを特徴とする請求項1に記載の電子機器。
  7. 前記制御部は、前記所定の物体の大きさが変化する比率に基づいて前記操作の強度を判定することを特徴とする請求項1に記載の電子機器。
  8. 前記所定の物体は指であることを特徴とする請求項1から7のいずれか1項に記載の電子機器。
  9. 前記所定の物体の変位は、前記空間を撮影する撮影部の画像に基づいて検出され、
    前記制御部は、予め記憶している指紋データと前記画像とを照合することにより、前記所定の物体の大きさを求めることを特徴とする請求項8に記載の電子機器。
  10. 前記制御部は、指定した操作の強度と、前記所定の物体の変位に基づいて判定した操作の強度との差或いは比率に基づいて、操作の強度を判定するための閾値を調整することを特徴とする請求項1から9のいずれか1項に記載の電子機器。
  11. 表示部を有する電子機器によって実行される制御方法であって、
    所定のオブジェクトを3次元表示するステップと、
    前記オブジェクトに関連付けられた動作を実行するステップと、
    前記オブジェクトの視認空間における所定の物体の変位を検出するステップと、
    当該検出した変位に基づいて前記オブジェクトに対する操作の強度を判定し、判定された前記強度に応じて、前記動作の内容を変化させるステップと
    前記表示部に前記オブジェクトを3次元表示する立体視の程度と、当該オブジェクトに接触する操作を行った際の前記所定の物体の位置の検出結果とに基づいて、前記表示部にオブジェクトを3次元表示する立体視の程度を調整するステップと
    を含むことを特徴とする制御方法。
  12. 表示部を有する電子機器に、
    所定のオブジェクトを3次元表示するステップと、
    前記オブジェクトに関連付けられた動作を実行するステップと、
    前記オブジェクトの視認空間における所定の物体の変位を検出するステップと、
    当該検出した変位に基づいて前記オブジェクトに対する操作の強度を判定し、判定された前記強度に応じて、前記動作の内容を変化させるステップと
    前記表示部に前記オブジェクトを3次元表示する立体視の程度と、当該オブジェクトに接触する操作を行った際の前記所定の物体の位置の検出結果とに基づいて、前記表示部にオブジェクトを3次元表示する立体視の程度を調整するステップと
    を実行させることを特徴とする制御プログラム。
JP2011068967A 2011-03-25 2011-03-25 電子機器、制御方法および制御プログラム Active JP5766479B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011068967A JP5766479B2 (ja) 2011-03-25 2011-03-25 電子機器、制御方法および制御プログラム
EP12764899.6A EP2690524B1 (en) 2011-03-25 2012-03-23 Electronic device, control method and control program
PCT/JP2012/057602 WO2012133226A1 (ja) 2011-03-25 2012-03-23 電子機器、制御方法および制御プログラム
US14/007,307 US9430081B2 (en) 2011-03-25 2012-03-23 Electronic device, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011068967A JP5766479B2 (ja) 2011-03-25 2011-03-25 電子機器、制御方法および制御プログラム

Publications (2)

Publication Number Publication Date
JP2012203736A JP2012203736A (ja) 2012-10-22
JP5766479B2 true JP5766479B2 (ja) 2015-08-19

Family

ID=46930948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011068967A Active JP5766479B2 (ja) 2011-03-25 2011-03-25 電子機器、制御方法および制御プログラム

Country Status (4)

Country Link
US (1) US9430081B2 (ja)
EP (1) EP2690524B1 (ja)
JP (1) JP5766479B2 (ja)
WO (1) WO2012133226A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5785753B2 (ja) * 2011-03-25 2015-09-30 京セラ株式会社 電子機器、制御方法および制御プログラム
AU2015230785A1 (en) * 2014-09-29 2016-04-14 Aristocrat Technologies Australia Pty Limited A gaming machine and a method of gaming thereon
JP2016115028A (ja) * 2014-12-12 2016-06-23 富士通株式会社 情報処理装置および情報処理装置の制御方法
CN106062683B (zh) 2014-12-26 2021-01-08 株式会社尼康 检测装置、电子设备、检测方法以及程序
US10748509B2 (en) 2014-12-26 2020-08-18 Nikon Corporation Control device, electronic apparatus, control method and program
US11137857B2 (en) 2014-12-26 2021-10-05 Nikon Corporation Detection device and program
CN108427522A (zh) * 2017-02-15 2018-08-21 上海箩箕技术有限公司 终端及其可阅读内容的查阅方法、装置、指纹模组
CN113631477A (zh) * 2019-04-02 2021-11-09 索尼集团公司 信息处理装置、信息处理方法和程序

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE40891E1 (en) * 1991-11-26 2009-09-01 Sandio Technology Corp. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US5801681A (en) * 1996-06-24 1998-09-01 Sayag; Michel Method and apparatus for generating a control signal
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US7728848B2 (en) * 2000-03-28 2010-06-01 DG FastChannel, Inc. Tools for 3D mesh and texture manipulation
US7131907B2 (en) * 2001-02-22 2006-11-07 Kabushiki Kaisha Sega System and method for superimposing an image on another image in a video game
US9474968B2 (en) * 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US7532206B2 (en) * 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
JP4563723B2 (ja) * 2004-05-10 2010-10-13 株式会社竹中工務店 指示動作認識装置及び指示動作認識プログラム
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
US8614669B2 (en) * 2006-03-13 2013-12-24 Navisense Touchless tablet method and system thereof
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
JP2008040576A (ja) * 2006-08-02 2008-02-21 Sharp Corp 画像処理システム及び該システムを備えた映像表示装置
WO2008083205A2 (en) 2006-12-29 2008-07-10 Gesturetek, Inc. Manipulation of virtual objects using enhanced interactive system
CN101952818B (zh) * 2007-09-14 2016-05-25 智慧投资控股81有限责任公司 基于姿态的用户交互的处理
JP5148960B2 (ja) * 2007-09-21 2013-02-20 独立行政法人情報通信研究機構 体積走査型3次元空中映像ディスプレイ
JP4657331B2 (ja) * 2008-08-27 2011-03-23 富士フイルム株式会社 3次元表示時における指示位置設定装置および方法並びにプログラム
US9248376B2 (en) * 2008-09-30 2016-02-02 Nintendo Co., Ltd. Computer-readable storage medium having stored game program therein, and game apparatus
JP4793422B2 (ja) * 2008-10-10 2011-10-12 ソニー株式会社 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム
US8974301B2 (en) * 2009-03-30 2015-03-10 Nintentdo Co., Ltd. Computer readable storage medium having game program stored thereon and game apparatus
US20100306716A1 (en) 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
JP2011011008A (ja) * 2009-07-06 2011-01-20 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム処理方法、ならびに、プログラム
TW201104494A (en) * 2009-07-20 2011-02-01 J Touch Corp Stereoscopic image interactive system
JP5357685B2 (ja) * 2009-09-28 2013-12-04 株式会社ソニー・コンピュータエンタテインメント 3次元オブジェクト処理装置、3次元オブジェクト処理方法、プログラム、及び情報記憶媒体
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
JP2011170838A (ja) * 2010-01-20 2011-09-01 Sanyo Electric Co Ltd 画像処理装置及び電子機器
US8717360B2 (en) * 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
JP5573487B2 (ja) * 2010-08-20 2014-08-20 ソニー株式会社 情報処理装置、プログラム及び操作制御方法
JP6049990B2 (ja) * 2010-09-15 2016-12-21 京セラ株式会社 携帯電子機器、画面制御方法および画面制御プログラム
EP2656181B1 (en) * 2010-12-22 2019-10-30 zSpace, Inc. Three-dimensional tracking of a user control device in a volume
JP5846738B2 (ja) * 2011-01-06 2016-01-20 任天堂株式会社 表示制御プログラム、表示装置、表示システム、および、表示制御方法
US8963883B2 (en) * 2011-03-17 2015-02-24 Symbol Technologies, Inc. Touchless interactive display system
JP5708083B2 (ja) * 2011-03-17 2015-04-30 ソニー株式会社 電子機器、情報処理方法、プログラム、及び電子機器システム
US20120287065A1 (en) * 2011-05-10 2012-11-15 Kyocera Corporation Electronic device
JP5694883B2 (ja) * 2011-08-23 2015-04-01 京セラ株式会社 表示機器
US9477303B2 (en) * 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface

Also Published As

Publication number Publication date
EP2690524B1 (en) 2019-03-20
US20140009424A1 (en) 2014-01-09
EP2690524A1 (en) 2014-01-29
JP2012203736A (ja) 2012-10-22
US9430081B2 (en) 2016-08-30
EP2690524A4 (en) 2015-04-29
WO2012133226A1 (ja) 2012-10-04

Similar Documents

Publication Publication Date Title
JP5766479B2 (ja) 電子機器、制御方法および制御プログラム
JP5785753B2 (ja) 電子機器、制御方法および制御プログラム
CN108710525B (zh) 虚拟场景中的地图展示方法、装置、设备及存储介质
US9417763B2 (en) Three dimensional user interface effects on a display by using properties of motion
US9501204B2 (en) Display device
US20150035781A1 (en) Electronic device
JP2009140368A (ja) 入力装置、表示装置、入力方法、表示方法及びプログラム
CN109324739B (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN112044065B (zh) 虚拟资源的显示方法、装置、设备及存储介质
US9105132B2 (en) Real time three-dimensional menu/icon shading
US11886643B2 (en) Information processing apparatus and information processing method
US9619048B2 (en) Display device
CN110213205B (zh) 验证方法、装置及设备
CN108509127B (zh) 启动录屏任务的方法、装置及计算机设备
CN111860064B (zh) 基于视频的目标检测方法、装置、设备及存储介质
CN106990843A (zh) 一种眼睛跟踪系统的参数校准方法及电子设备
JP5926008B2 (ja) 電子機器、制御方法および制御プログラム
WO2018155123A1 (ja) 表示装置、表示方法、制御装置および車両
CN109886226B (zh) 确定图像的特征数据的方法、装置、电子设备及存储介质
JP6126195B2 (ja) 表示機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150617

R150 Certificate of patent or registration of utility model

Ref document number: 5766479

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150