JP2014199491A - 電子機器および電子機器の制御方法 - Google Patents

電子機器および電子機器の制御方法 Download PDF

Info

Publication number
JP2014199491A
JP2014199491A JP2013073867A JP2013073867A JP2014199491A JP 2014199491 A JP2014199491 A JP 2014199491A JP 2013073867 A JP2013073867 A JP 2013073867A JP 2013073867 A JP2013073867 A JP 2013073867A JP 2014199491 A JP2014199491 A JP 2014199491A
Authority
JP
Japan
Prior art keywords
sensor
display
electronic device
sensor surface
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013073867A
Other languages
English (en)
Other versions
JP5856995B2 (ja
Inventor
錠治 山田
Joji Yamada
錠治 山田
中川 裕史
Yasushi Nakagawa
裕史 中川
倫生 山本
Michio Yamamoto
倫生 山本
康平 安住
kohei Azumi
康平 安住
真人 林
Masato Hayashi
真人 林
水橋 比呂志
Hiroshi Mizuhashi
比呂志 水橋
考造 池野
Kozo Ikeno
考造 池野
木田 芳利
Yoshitoshi Kida
芳利 木田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Display Inc
Original Assignee
Japan Display Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Display Inc filed Critical Japan Display Inc
Priority to JP2013073867A priority Critical patent/JP5856995B2/ja
Priority to US14/211,818 priority patent/US9740395B2/en
Priority to TW103110546A priority patent/TWI545477B/zh
Priority to KR1020140034458A priority patent/KR101635261B1/ko
Priority to CN201410155708.4A priority patent/CN104076981B/zh
Publication of JP2014199491A publication Critical patent/JP2014199491A/ja
Application granted granted Critical
Publication of JP5856995B2 publication Critical patent/JP5856995B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】画像表示を行う多種多様のアプリケーションに対して柔軟に適応できるようにした電子機器および電子機器の制御方法を提供する。【解決手段】表示情報を出力する表示面と操作情報を入力するセンサ面を一体に有したセンサ付表示デバイス100と、センサ面で感知された信号をもとに三次元情報(RAW−D)を生成し出力するデータ転送手段200と、データ転送手段が出力した前記三次元情報をもとにセンサ面の複数の感知点における三次元のイメージデータを生成し、生成したイメージデータをもとにセンサ面上を操作した導体の操作内容を解析する処理機能を有したアプリケーション動作デバイス300とを具備する。【選択図】図1

Description

この発明の実施形態は携行可能な電子機器および同電子機器の制御方法に関する。
携帯電話、タブレット、パーソナルデジタルアシスタント(PDA)、及び小型の携帯用パーソナルコンピュータなどが普及している。これら電子機器は、表示パネルと一体となった操作入力パネルを有する。
操作入力パネルは、ユーザが表示面上に触れたとき、触れた位置を、例えば静電容量の変化として検出する。検出信号は、操作入力パネルのために専用に設計され、集積回路(IC)化されたタッチ信号処理ICに入力される。タッチ信号処理ICは、前記検出信号を予め用意した計算アルゴリズムで処理し、ユーザが触れた位置を座標データに変換して出力している。
特開2012−48295号公報
製造技術の進歩とともに、表示パネルの解像度は高解像度化し、また表示パネルの大型化も進んでいる。表示パネルの高解像度化や大型化に伴い、操作入力パネルの位置検出精度も高精細化が要求されている。また、アプリケーションによっては、操作入力パネルの操作入力に対するデータ処理速度も高速化が要求されている。また、アプリケーションを容易に変更できる方式の装置が要望されている。
そこでこの発明に係る一実施形態では、多様のアプリケーションに対して柔軟に適応できるようにし、アプリケーションに対する入力情報も豊富にすることができる電子機器および電子機器の制御方法を提供することを目的とする。
一実施形態に係る電子機器は、表示情報を出力する表示面と操作情報を入力するセンサ面を一体に有したセンサ付表示デバイスと、前記センサ面で感知された信号をもとに三次元情報を生成し出力するデータ転送手段と、前記データ転送手段が出力した前記三次元情報をもとに前記センサ面の複数の感知点における三次元のイメージデータを生成するイメージ生成手段と、前記イメージ生成手段が生成したイメージデータをもとに前記センサ面上を操作した導体の操作内容を解析する処理手段と、を具備する。
タッチデータを三次元解析することで様々な機能の付与やアプリケーションとの連携が可能となる。更にタッチデータを高性能なアプリケーションプロセッサで解析することにより、高速、高解像度の解析が行えると共に多機能やアプリケーションとの連携が可能である。
一実施形態による電子機器のブロック構成図である。 表示面又は表示パネルと操作面又は操作入力パネルを一体に有したセンサ一体型表示デバイスを説明するために示した断面図である。 操作入力パネルから出力される信号からタッチ検出信号を得るための原理を説明するために示す説明図である。 操作入力パネルのセンサ構成部品とその駆動方法を説明するために示した斜視図である。 図1に示すデータ転送デバイスのブロック構成例及びアプリケーション動作デバイスの各種アプリケーションにより実現される機能の幾つかの例をブロック化して示す図である。 図1及び図4のドライブから出力される表示用の信号とセンサ用検出電極の駆動信号との出力タイミングの例を示す図である。 センサ用検出電極の駆動信号の出力と共通電極との駆動状態を説明するために示した模式図である。 操作入力が無い場合のセンサ出力の生データ(検出データ)をグラフ化した一例を示す模式図である。 操作入力が有った場合のセンサ出力の生データ(検出データ)をグラフ化した一例を示す模式図である。 本実施形態に係る携帯端末の使用例を説明するための図である。 本実施形態に係る携帯端末の使用例を説明するためのフローチャートである。 本実施形態に係る携帯端末の具体的な使用例(その1)を説明するためのフローチャートである。 本実施形態に係る携帯端末の具体的な使用例(その1)を説明するためのフローチャートである。 本実施形態に係る携帯端末の具体的な使用例(その2)を説明するためのフローチャートである。 本実施形態に係る携帯端末の具体的な使用例(その2)を説明するためのフローチャートである。 本実施形態に係る携帯端末の具体的な使用例(その3)を説明するための操作説明図である。 本実施形態に係る携帯端末の具体的な使用例(その4)を説明するための操作説明図である。 本実施形態に係る携帯端末の具体的な使用例(その5)を説明するための操作説明図である。
以下、実施の形態について図面を参照して説明する。
図1には、一実施形態が適用された携帯端末1を示している。携帯端末1は、表示情報を出力する表示面と操作情報を入力するセンサ面を一体に有したセンサ一体型表示デバイス100と、上記センサ面で感知された信号をもとに三次元情報(RAW−D)を生成し出力するデータ転送デバイス200と、データ転送デバイスが出力した三次元情報(RAW−D)をもとに上記センサ面の複数の感知点における三次元のイメージデータを生し、生成したイメージデータをもとに上記センサ面上を操作した導体の操作内容を解析する処理機能を有したアプリケーション動作デバイス300とを備えた電子機器を構成している。
センサ一体型表示デバイス100は、表示面(又は表示パネル)と操作面(又は操作入力パネル)を一体に有し、そのために表示素子構成部品110、及びセンサ構成部品150を有する。
このセンサ一体型表示デバイス100には、後述するドライバ210から表示用信号(又は画素信号)が供給される。そしてドライバ210からゲート信号が供給されると、表示素子構成部品110の画素に対して画素信号Sigxが書き込まれる。この画素信号Sigxに応じて、画素電極と共通電極間の電圧が決まり、この電圧により電極間の液晶分子が変位し、液晶分子の変位に応じた輝度が得られる。
センサ一体型表示デバイス100の呼び名は、これに限定されるものではなく、入力センサ一体型表示部、ユーザインターフェースなどと称してもよい。
表示素子構成部品110は、液晶表示パネル、LED、有機ELなどの発光素子による表示部を採用してもよい。表示素子構成部品110は、単純にディスプレイと称されてもよい。センサ構成部品150は、静電容量変化検知方式、光量変化検知方式などがあり、何れが採用されてもよい。センサ構成部品150はタッチ入力を検出するためのパネルと称されてもよい。
センサ一体型表示デバイス100は、データ転送デバイス200を介してアプリケーション動作デバイス300に接続される。
データ転送デバイス200は、ドライバ210、センサ検出器250を有する。ドライバ210は、基本的には、アプリケーション動作デバイス300から転送されてくるグラフィックデータを表示素子構成部品110に入力する。また、センサ信号検出器250は、センサ構成部品150から出力されるセンサ信号Rxを検出する。
ドライバ210とセンサ信号検出器250は、相互に同期動作するもので、同期制御は、アプリケーション動作デバイス300の制御に基づいている。
アプリケーション動作デバイス300は、携帯電話等の電子機器内に組み込まれている、たとえば半導体集積回路(LSI)であって、OS等のソフトウエアによってWebブラウジングやマルチメディア処理などの複数の機能処理を複合的に実行する役割を持つものである。これらアプリケーションプロセッサは、高速な演算処理を行うもので、デュアルコア、あるいはQuad−Coreのものであってもよい。動作速度としてたとえば500MHz以上、より好ましくは1GHzのものが好適である。
ドライバ210は、アプリケーションに基づいて、表示構成素子構成部品110に表示信号(グラフィックスデータがアナログ変換された信号)Sigxを供給する。さらにドライバ210は、センサ信号検出器250からのタイミング信号に基づいて、センサ構成部品150をアクセスするためのセンサ駆動信号Txを出力する。このセンサ駆動信号Txに同期して読み出されたセンサ信号Rxは、センサ構成部品150から読み出されて、センサ信号検出器250に入力する。
センサ信号検出器250は、センサ信号をスライスし、ノイズ除去し、生の読み取りイメージデータ(3次元イメージデータと称することができる)としてアプリケーション動作デバイス300に入力する。この実施形態では上記センサ信号検出器250から出力される生の読み取りイメージデータをロウデータ(RAW−D)若しくは符号を除いたロウデータと呼称する。
センサ構成部品150が容量検出方式である場合、イメージデータは、単純に座標を表す2次元データではなく、容量の大きさに応じて異なる多値(2ビット以上の例えば3値−7値)を持つことができる。したがって、このイメージデータは、物理量と座標を含む3次元データと称することができる。対象物となる導体(例えばユーザの指先)とタッチパネルとの遠近(近接度)に応じて容量の変化があるので、この変化を物理量の変化として捕らえることができる。
上記したようにデータ転送デバイス200のセンサ信号検出器250が、イメージデータを直接、アプリケーション動作デバイス300に提供する理由は以下の理由に基づいている。
まずアプリケーション動作デバイス300は、その高速演算機能を活かして、イメージデータを各種の用途に用いることができる。
アプリケーション動作デバイス300においては、ユーザからの種々の要望に応じて、新しい種々のアプリケーションが格納される。新しいアプリケーションは、データ処理内容に応じて、イメージデータの処理方法、読み出しタイミング、読み出しフォーマット、読み出し領域または、読み出し密度などの変化や切換えを望む場合がある。
このような場合、従来の装置のように座標データのみを受け取ると、その取得情報量が制約される。しかし、この装置のように生の3次元イメージデータを解析すると、例えば座標位置情報のほかに、導体の近接度に応じた遠近情報も得ることができる。
さらに、アプリケーションによる各種機能の拡張性を得るために、データ転送デバイス200は、アプリケーションによる制御に基づく各種の動作に追従できることが望ましい。そこで、データ転送デバイス200は、できるだけシンプルな機能として、アプリケーションによる制御に応じて、センサ信号の読み取りタイミング、読み取り領域、読み取り密度などを任意に切換え可能な構造としている。この点は、後でも説明する。
アプリケーション動作デバイス300は、この実施形態の場合、無線機インターフェース(図1参照)を備えたベースバンドエンジンを搭載して多種のアプリケーションの処理を可能にした、所謂、アプリケーションプロセッサと称される単一の半導体集積回路により構成されており、上記した無線機インターフェース以外に、例えばカメラ機能インターフェースなどをも含むことができる。さらにアプリケーション動作デバイス300には、センサ信号検出器250から受けたロウデータ(RAW−D)をもとに、センサ構成部品150のセンサ面の複数の感知点における三次元イメージデータを生成するイメージデータ生成処理部(P1)と、このイメージデータ生成処理部で生成されたイメージデータをもとに上記センサ面上を操作した導体の操作内容を認識するイメージ解析処理部(P2)と、このイメージ解析処理部で認識した操作内容に従うアプリケーションを実行する各種のアプリケーション実行部(Ps)が含まれる。
図2Aには、表示素子構成部品110とセンサ構成部品150とが一体となった、センサ一体型表示デバイス100、つまり表示パネルと操作入力パネルが一体化した表示装置の断面構造を示している。
薄膜トランジスタ(TFT)基板11上に、共通電極13、さらに絶縁層を介して画素電極12が形成され、画素基板10が構成されている。画素基板10対して、液晶層30を挟んで、対向基板20が画素基板10と平行に配置されている。対向基板20は、液晶層側から順次カラーフィルタ22、ガラス基板23、センサ用検出電極24、偏光板25が配置されて構成されている。
共通電極13は、表示用の共通駆動電極でもあるが、センサ用駆動電極(或いはセンサの共通駆動電極)としても機能する。
図2Bは、共通電極とセンサ用検出電極の交差点付近に、導体、例えばユーザの指先が近接した場合であって、この交差点からセンサ用検出電極を介して読み出した電圧がV0からV1に変化した様子を示している。指を接触していない状態では、交差点の容量(第1容量素子とする)に対する充放電に伴って第1容量素子の容量値に応じた電流が流れる。このときの第1容量素子の他端の電位波形は、例えば図2Bの波形V0のようになる。センサ用検出電極にユーザの指先が近接すると、指によって形成される第2容量素子が第1容量素子に直列に追加された形となる。この状態では、第1容量素子と第2容量素子とに対する充放電に伴って、それぞれ電流が流れる。このときの第1容量素子の他端の電位波形は、例えば図4の波形V1のようになり、これが検出回路20によって検出される。このとき、第1容量素子の他端の電位は、第1容量素子と第2容量素子とを流れる電流の値によって定まる分圧電位となる。このため、波形V1は、非接触状態での波形V0よりも小さい値となる。したがって、このセンサ信号Rxと閾値Vthと比較することにより、センサに接触しているか否かを判断することが可能となる。
図3は、操作入力パネルのセンサ構成部品とその駆動方法を説明するために示した斜視図であり、センサ用検出電極24と共通電極21との配置関係を示している。図3に示す例は一例であり、このようなタイプに限定されるものではない。
図4には再度、センサ一体表示デバイス100、データ転送デバイス200及びアプリケーション動作デバイス300を示している。
ここでは、データ転送デバイス200とアプリケーション動作デバイス300の内部構成例をさらに示している。
データ転送デバイス200は、大きく分けてドライバ210と、センサ信号検出器250を有する。ドライバ210、センサ信号検出器250の名称は、これに限定されるものではなく、表示器ドライバIC,タッチICと称されてもよい。ブロックは別々に示されているが、一体に構成され、1チップとしてされてもよい。
ドライバ210は、アプリケーション動作デバイス300から表示用データを受け取る。表示用データは、時分割されておりブランキング期間を備える。表示用データは、バッファとしてのビデオランダムアクセスメモリ(VRAM)211を介して、タイミング回路及びデジタルアナログ変換器212に入力される。本システムでは、VRAM211は、1フレーム以下の容量であってもよい。
アナログ量としての表示用データSigxは、出力増幅器213で増幅されて、表示素子に書き込むためにセンサ一体型表示デバイス100に入力される。タイミング回路及びデジタルアナログ変換器212で検出されたブランキング検出信号は、センサ信号検出器250のタイミング制御器251に入力する。このタイミング制御器251は、ドライバ210内に設けられてもよい、また同期化回路と称されてもよい。
タイミング制御器251は、前記表示用信号のブランキング期間にセンサをアクセスするためのセンサクセスパルスを生成する。このセンサクセスパルスは、出力増幅器214で増幅されてセンサ一体型表示デバイス100に入力される。
駆動信号Txがセンサ用検出電極を駆動することにより、センサ信号Rxがセンサ一体型表示デバイス100から出力される。センサ信号Rxは、センサ信号検出器250内の積分回路252に入力する。センサ信号Rxは、積分回路252で基準電圧(閾値)Vrefと比較され、基準電位以上のレベルのセンサ信号Rxは、コンデンサで積分され、積分出力が出力され、そして検出単位期間ごとにスイッチによりリセットされ、Rxのアナログ出力を得ることができる。積分回路252の出力は、サンプルホールド及びアナログデジタル変換器253に入力され、デジタル化される。デジタル化された検出データは、デジタルフィルタ254を介して生のデータとして、アプリケーション動作デバイス300に入力する。
検出データは、操作入力の検出データ及び操作入力の非検出データの両方を含む3次元データ(多値のデータ)である。プレゼンス検出器255は、例えばアプリケーション動作デバイスがスリープモードにあり、操作面上のタッチ座標の検出が行われていないときに機能する。プレゼンス検出器255は、何か接近物があるような場合、接近物を感知し、スリープモードを解除することができる。
アプリケーション動作デバイス300は、検出データを受け取り解析し、解析結果に応じた前記表示用データを出力することができる、また、システムの動作機能を切り替えることができる。
アプリケーション動作デバイス300は、各種のアプリケーションを展開して装置の動作手順の設定、機能切り替え、表示用信号の生成、切り替えなどを実行することができる。センサ信号検出器250から出力されたセンサ出力(ロウデータ)を用いて、座標演算処理を行い操作位置の解析を行うことができる。このセンサ出力は、イメージデータとして捉えられるので、アプリケーションにより3次元イメージデータが構築されることもできる。3次元イメージデータの登録処理、消去処理、確認処理なども実行できる。登録イメージデータと、取得したイメージデータを比較することにより、動作機能のロック及びロック解除を実行することもできる。
またセンサ信号を取得する場合、アプリケーション動作デバイス300は、タイミング制御器251から出力されるセンサ検出用電極へのアクセスパルスの周波数変更、アクセスパルスの出力タイミングを行うこともできる。これにより、アプリケーション動作デバイスは、センサ構成部品150のアクセス領域の切換え、アクセス速度の設定を行うことができる。
また、アプリケーション動作デバイス300は、センサ出力信号のサンプリング密度、センサ出力信号に対する付加データの追加なども実行することができる。
図5Aには、データ転送デバイス200から出力される時分割の表示用データSigxと、センサ駆動信号Tx(Tx1−Txn)のタイミングチャートの一例を示している。図5Bは、共通電極とセンサ用検出電極とを含むセンサ構成部品150を、共通電圧Vcomとセンサ駆動信号Txとが2次元スキャンを行う様子を模式的に示している。共通電圧Vcomは、共通電極13に対して順次印加される。また共通電極13には、任意の期間にセンサ出力を得るための駆動信号Txが与えられる。
アプリケーション動作デバイス300から、表示用データSigxとセンサ駆動信号Txとは、同じバスを介して時分割によりドライバ210に入力してもよい。タイミング回路及びデジタルアナログ変換器212で、表示用データSigxとセンサ駆動信号Txが分離されてもよい。センサ駆動信号Txは、タイミング制御器251、増幅器214を介して先に説明した共通電極13に供給される。タイミング制御器251からセンサ駆動信号Txを出力するタイミング、周波数などはアプリケーション動作デバイス300の指令により変更することができる。またタイミング制御器251は、センサ信号検出器250の積分回路252に対してリセットタイミング信号を供給し、サンプルホールド及アナログデジタル変換器253、デジタルフィルタ254にクロックを供給することができる。
図6には、センサ出力の生データの例であり、操作入力が検出されていないときのデータをグラフ化した模式図を示している。
図7には、センサ出力の生データの例であり、操作入力が検出されたときのデータをグラフ化した模式図を示している。
図8には、アプリケーション動作デバイス300において、センサ信号検出器250から入力されたロウデータ(RAW−D)をもとに生成した三次元イメージデータにより、マルチタッチインタフェース機能を含んだ多種多様なアプリケーション動作機能を実現した具体例を示している。図8に示す例では、ロウデータ(RAW−D)をもとに生成した三次元イメージデータにより、例えば操作者(ユーザ)の耳の形状(Ia)、操作者が大人の場合、子供の場合のそれぞれの掌の形状(Ib)、特定のジェスチャーと操作の組み合わせ(Ic)、複数本の指タッチによる操作(Id)、指の腹がセンサ面に触れた状態(Ie)、指の先がセンサ面に触れた状態(If)、など、センサ面上における、多種多様な操作内容の認識が可能である。これら認識が可能な操作内容の三次元イメージデータをアプリケーション機能とともに登録しておくことにより、イメージ照合による多種多様な制御が可能となる。
例えば、操作者が耳を携帯端末1のセンサ面に当てることにより、耳の形状(Ia参照)を認識して、操作者の真贋判定やその他の機能制御が可能である。真贋判定では、操作者の耳であることを認識して、携帯端末1の機能ロックを解除することが可能となる。機能制御では、操作者がセンサ面に耳を当てることで通話に入ることを認識して動作モードを通話モード(受話状態)に切り替える、機能の自動切替制御が可能となる。
また、掌サイズを認識する(Ib参照)ことで、世代別アプリケーションの選択的な提供、ユーザ別アプリケーションの選択的な提供、操作者を特定した機器またはアプリケーションの使用許可または使用禁止などが可能になる。
また、特定のジェスチャーと操作の組み合わせ(Ic参照)では、例えばピースサインの2本の指で操作面を2回連続タッチすると、カメラアプリケーションが起動してカメラ撮影を可能にし、3回連続タッチすると、音楽プレーヤが起動して音楽再生を可能にする。
また、複数本の指を使い分け(Id参照)、例えば親指でスクロール操作を行い、人差指でタップ操作を行い、小指でズーム操作を行うことが操作機能の切替なしで可能となる。
また、指の腹のタッチ(Ie参照)と、爪を立てた指先のタッチ(If参照)とを区別して認識し、それぞれ別のアプリケーションを起動することも可能である。
図9には、携帯端末1における、上記した各種の操作内容の認識による、ロック解除例を示している。この例では、耳の形状で認証が得られた場合(SB31)と、掌の形状で認証が得られた場合(SB32)と、指先の形状で認証が得られた場合(SB33)とを対象に、そのオア条件、若しくはいずれかのアンド条件で、携帯端末1の機能ロックを選択的に解除(SB34)し、携帯端末1の使用を可能(SB35)にしている。このロック解除手段により、セキュリティレベルに合わせた使い勝手のよい認証機能が実現可能である。
これらの認証に用いられる三次元イメージデータの登録処理は、例えばイメージの登録画面、音声ガイダンスの双方若しくはいずれかによる操作案内で円滑に実施可能である。
アプリケーション動作デバイス300には、上記した三次元イメージデータに基づく各種操作内容に従うアプリケーション機能を実現するためのイメージの登録処理、並びに認証処理を実現するための処理手順が予め用意されている。
図10および図11には、耳の形状(Ia参照)を認識して携帯端末1の機能ロックを選択的に解除する登録並びに認証の処理手順を示している。
図10に登録シーケンスの一例を示している。この登録シーケンスでは、携帯端末1を所有するユーザの耳の三次元イメージデータをアプリケーション動作デバイス300上で動作するアプリケーションに登録し(S11〜S13)、さらに登録した耳の三次元イメージデータを用いて機能の選択を行い(S14)、ロック解除(S14A)を登録して、耳形状による認証の登録処理を完了する。なおロック解除でなくその他の機能(S14B)を用いてもよい。
図11にロック解除シーケンスの一例を示している。ロック解除シーケンスでは、携帯端末1を所有するユーザがセンサ構成部品150のセンサ面に耳を当てることにより生成された耳の三次元イメージデータが、耳の三次元イメージデータを予め登録したアプリケーション内で照合され(S21〜S22)、登録判定し(S23)、特徴が一致した判定により、耳の三次元イメージデータを予め登録したアプリケーションのロックが解除される(S23A〜S24)。なおロック解除でなくその他の機能(S23B)を用いてもよい。 図12および図13には、複数本の指を使い分けた操作入力(Id参照)を可能にする登録並びに操作の処理手順を示している。
図12に登録シーケンスの一例を示している。この登録シーケンスでは、センサ面の操作に用いる指それぞれの形状を三次元イメージデータで予め登録しておく。例えば、親指でスクロール操作を行い、人差指でタップ操作を行い、小指でズーム操作を行う場合、先ずセンサ面に親指を触れて親指の三次元イメージデータを登録し(S31〜S33)、続いて登録した親指の操作機能(スクロール操作機能)を登録する(S34A〜S35)。さらに続いて人差指の三次元イメージデータ、並びに同人差指の操作機能(タップ操作機能(S34B〜S35))を登録した後、小指の三次元イメージデータ、並びに同小指の操作機能(ズーム操作機能(S34C〜S35))を登録する。
図13に操作シーケンスの一例を示している。この操作シーケンスでは、センサ面に触れた指のイメージデータと登録された指のイメージデータとが照合され(S43)、親指でのスクロール操作(S43A〜S44)と、人差指でのタップ操作(S43B〜S44)と、小指でのズーム操作(S43C〜S44)とをそれぞれ、機能選択を行うことなく可能にしている。
図14には、センサ面の2カ所を別々にタッチしてアプリケーション機能を切り替える操作例を示している。例えば左手の親指で描画の線種機能を選択し、右手の人差指で描画部分をタッチすることで、人差指の描画部分の線種を変えることができ、左手の親指で描画の色指定を選択し、右手の人差指で描画部分をタッチすることで、人差指の描画部分の色を変えることができ、左手の親指で描画の部分取消を選択し、右手の人差指で描画部分をタッチすることで、人差指の描画部分を消しゴムで消すことができる。このように複数本の指操作による機能切替を可能にしたことで操作性に優れたタッチ操作機能が提供できる。
図15には、特定形状のイメージデータを予め登録しておき、ロック解除時の認証用パターンとして使用する例を示している。例えばスタンプのような特定形状のイメージデータを予め登録しておくことで、当該形状のスタンプイメージを用いたロック解除の認証手続が可能である。
図16には、数フレーム分のイメージデータを予め登録しておき、ゼスチャーとして使用する例を示している。例えば人差指の原全体でセンサ面を画面の上方向にスライド操作することによりロックを解除し、その逆方向にスライド操作することによりスリープ状態にする機能制御が可能である。
また、図16に示す機能の応用として、例えば操作方向に応じた前曲方向、次曲方向への選曲操作、音楽プレーヤの起動、停止など、様々な機能切替、機能選択が可能である。これらの操作は必ずしもセンサ面に導体となる指をタッチした状態で行う必要はなく、ロウデータ(RAW−D)に基づく三次元イメージデータにより感知が可能となるようにセンサ面の感知レベルを調整することで、センサ面上において非接触で(例えば鞄の外側から)操作可能である。
ここでは本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。さらにまた、請求項の各構成要素において、構成要素を分割して表現した場合、或いは複数を合わせて表現した場合、或いはこれらを組み合わせて表現した場合であっても本発明の範疇である。また請求項を方法、ステップ、或いはプログラムとして表現した場合であっても本発明の装置を適用したものである。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1・・・携帯端末(電子機器)、100・・・センサ一体型表示デバイス、200・・・データ転送デバイス、210・・・ドライバ、250・・・センサ信号検出器、300・・・アプリケーション動作デバイス、RAW−D・・・ロウデータ(生の読み取りイメージデータ = 三次元イメージデータ)、P1・・・イメージデータ生成処理部、P2・・・イメージ解析処理部。

Claims (11)

  1. 表示情報を出力する表示面と操作情報を入力するセンサ面を一体に有したセンサ付表示デバイスと、
    前記センサ面で感知された信号をもとに三次元情報を生成し出力するデータ転送手段と、
    前記データ転送手段が出力した前記三次元情報をもとに前記センサ面の複数の感知点における三次元のイメージデータを生成するイメージ生成手段と、
    前記イメージ生成手段が生成したイメージデータをもとに前記センサ面上を操作した導体の操作内容を解析する処理手段と、
    を具備したことを特徴とする電子機器。
  2. 前記三次元情報は前記センサ面に対する導体の近接度を表す操作情報である請求項1に記載の電子機器。
  3. 前記データ転送手段は前記表示面に表示情報を表示する表示駆動タイミングに同期して前記三次元情報を前記イメージ生成手段に転送する請求項1に記載の電子機器。
  4. 前記イメージ生成手段および前記座標演算処理手段は、それぞれ、複数種のアプリケーションの処理を可能にし、ベースバンドエンジンを有した半導体集積回路により構成されたアプリケーション動作デバイス内に設けられていることを特徴とする請求項1に記載の電子機器。
  5. 前記イメージ生成手段は前記表示面に表示情報を表示する表示駆動タイミングに同期して前記センサ面の全感知点の前記三次元情報をもとに前記イメージデータを生成する請求項1に記載の電子機器。
  6. 前記処理手段は前記解析した操作内容に対応付けられたアプリケーション処理を起動するアプリケーション処理手段を具備する請求項1に記載の電子機器。
  7. 前記処理手段は前記センサ面上を操作した操作者の人体の特定部位のイメージを認識する操作入力認識処理手段を具備する請求項1に記載の電子機器。
  8. 前記処理手段は前記センサ面上を操作した操作者の身体的特徴若しくは行動的特徴による生体認証を行う生体認証処理手段を具備する請求項1に記載の電子機器。
  9. 表示情報を出力する表示面と操作情報を入力するセンサ面を一体に有したセンサ付表示デバイスを有する電子機器の制御方法であって、
    前記センサ面で感知された信号をもとに生成された三次元情報を取得し、
    前記取得した三次元情報をもとに前記センサ面の複数の感知点における三次元のイメージデータを生成し、
    前記生成したイメージデータをもとに前記センサ面上を操作した導体の操作内容を認識し、
    前記認識した操作内容に従いアプリケーション動作を制御することを特徴とした電子機器の制御方法。
  10. 前記三次元情報は、前記操作面に対する導体の近接度を表す操作情報である請求項9に記載の電子機器の制御方法。
  11. 前記三次元情報は、前記表示面に表示情報を表示する表示駆動タイミングに同期したブロック転送により取得される請求項9または10に記載の電子機器の制御方法。
JP2013073867A 2013-03-29 2013-03-29 電子機器および電子機器の制御方法 Active JP5856995B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013073867A JP5856995B2 (ja) 2013-03-29 2013-03-29 電子機器および電子機器の制御方法
US14/211,818 US9740395B2 (en) 2013-03-29 2014-03-14 Electronic apparatus with sensor-integrated display device and method of controlling the same
TW103110546A TWI545477B (zh) 2013-03-29 2014-03-20 電子機器及電子機器之控制方法
KR1020140034458A KR101635261B1 (ko) 2013-03-29 2014-03-25 전자 기기 및 전자 기기의 제어 방법
CN201410155708.4A CN104076981B (zh) 2013-03-29 2014-03-28 电子设备以及电子设备的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013073867A JP5856995B2 (ja) 2013-03-29 2013-03-29 電子機器および電子機器の制御方法

Publications (2)

Publication Number Publication Date
JP2014199491A true JP2014199491A (ja) 2014-10-23
JP5856995B2 JP5856995B2 (ja) 2016-02-10

Family

ID=51598287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013073867A Active JP5856995B2 (ja) 2013-03-29 2013-03-29 電子機器および電子機器の制御方法

Country Status (5)

Country Link
US (1) US9740395B2 (ja)
JP (1) JP5856995B2 (ja)
KR (1) KR101635261B1 (ja)
CN (1) CN104076981B (ja)
TW (1) TWI545477B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070266A1 (ja) * 2022-09-29 2024-04-04 Nissha株式会社 指装着型コントローラー

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113534980B (zh) * 2015-03-02 2024-03-12 株式会社和冠 方法、主动式触控笔以及传感器控制器
JP6728152B2 (ja) * 2015-05-28 2020-07-22 株式会社半導体エネルギー研究所 タッチパネル
CN105553718B (zh) * 2015-12-15 2019-06-25 腾讯科技(深圳)有限公司 引导信息显示方法及装置
CN106959792B (zh) * 2016-01-12 2023-10-31 宸鸿科技(厦门)有限公司 具指纹辨识功能的触控检测装置
US10133430B2 (en) 2016-05-11 2018-11-20 Microsoft Technology Licensing, Llc Encoding data in capacitive tags
CN108196815B (zh) * 2017-12-28 2020-01-03 维沃移动通信有限公司 一种通话声音的调节方法和移动终端
TWI699602B (zh) * 2019-01-21 2020-07-21 友達光電股份有限公司 顯示裝置
US10838547B1 (en) * 2019-10-16 2020-11-17 Synaptics Incorporated Display noise filter for a sensing device
WO2022032462A1 (en) * 2020-08-11 2022-02-17 Huawei Technologies Co., Ltd. Sensor circuit, pixel circuit, and method for controlling pixel circuit
TWI774265B (zh) 2021-03-12 2022-08-11 元太科技工業股份有限公司 顯示器的驅動電路及時序控制器的操作方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008117371A (ja) * 2006-10-13 2008-05-22 Sony Corp 近接検知型情報表示装置およびこれを使用した情報表示方法
JP2010271779A (ja) * 2009-05-19 2010-12-02 Sharp Corp 情報通信システム、通信装置、通信プログラム、および通信方法
JP2011221607A (ja) * 2010-04-05 2011-11-04 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2012048295A (ja) * 2010-08-24 2012-03-08 Sony Corp タッチ検出機能付き表示装置、制御回路、タッチ検出機能付き表示装置の駆動方法、および電子機器

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1058924B1 (en) * 1998-01-26 2012-06-13 Apple Inc. Method and apparatus for integrating manual input
US7750891B2 (en) 2003-04-09 2010-07-06 Tegic Communications, Inc. Selective input system based on tracking of motion parameters of an input device
JP3968522B2 (ja) 2003-10-06 2007-08-29 ソニー株式会社 記録装置、及び記録方法
KR20100030404A (ko) 2008-09-10 2010-03-18 김현규 스크린 상에서의 상황 인지적 인식을 통한 사용자 정보 입력방법
US8355887B1 (en) * 2009-04-24 2013-01-15 Cypress Semiconductor Corporation Proximity based gesturing devices, systems and methods
US9594431B2 (en) * 2009-06-19 2017-03-14 Hewlett-Packard Development Company, L.P. Qualified command
KR101639383B1 (ko) 2009-11-12 2016-07-22 삼성전자주식회사 근접 터치 동작 감지 장치 및 방법
TW201137668A (en) 2010-04-26 2011-11-01 Hon Hai Prec Ind Co Ltd Adjustment system and method for three-dimensional image
US8566955B2 (en) * 2010-10-31 2013-10-22 Pixart Imaging Inc. User indentification with capacitive touchscreen
JP2012220967A (ja) 2011-04-04 2012-11-12 Rohm Co Ltd 電子機器
US9158455B2 (en) * 2011-07-12 2015-10-13 Apple Inc. Multifunctional environment for image cropping
CN105022540B (zh) * 2011-09-07 2018-11-09 辛纳普蒂克斯公司 非显示更新时间期间的电容性感测
US8780065B2 (en) * 2012-07-19 2014-07-15 Cypress Semiconductor Corporation Interface and synchronization method between touch controller and display driver for operation with touch integrated displays
US9268399B2 (en) * 2013-03-01 2016-02-23 Qualcomm Incorporated Adaptive sensor sampling for power efficient context aware inferences
CN103116432B (zh) * 2013-03-04 2016-08-31 惠州Tcl移动通信有限公司 一种触摸屏的三维操作控制方法、装置及其移动终端

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008117371A (ja) * 2006-10-13 2008-05-22 Sony Corp 近接検知型情報表示装置およびこれを使用した情報表示方法
JP2010271779A (ja) * 2009-05-19 2010-12-02 Sharp Corp 情報通信システム、通信装置、通信プログラム、および通信方法
JP2011221607A (ja) * 2010-04-05 2011-11-04 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2012048295A (ja) * 2010-08-24 2012-03-08 Sony Corp タッチ検出機能付き表示装置、制御回路、タッチ検出機能付き表示装置の駆動方法、および電子機器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070266A1 (ja) * 2022-09-29 2024-04-04 Nissha株式会社 指装着型コントローラー

Also Published As

Publication number Publication date
US9740395B2 (en) 2017-08-22
US20140292687A1 (en) 2014-10-02
CN104076981B (zh) 2017-07-07
TW201502911A (zh) 2015-01-16
TWI545477B (zh) 2016-08-11
JP5856995B2 (ja) 2016-02-10
CN104076981A (zh) 2014-10-01
KR20140118826A (ko) 2014-10-08
KR101635261B1 (ko) 2016-06-30

Similar Documents

Publication Publication Date Title
JP5856995B2 (ja) 電子機器および電子機器の制御方法
US9557873B2 (en) Electronic device and method for controlling the electronic device
TWI515621B (zh) 輸入裝置、其輸入模式切換方法以及電腦裝置
US9092125B2 (en) Multi-mode touchscreen user interface for a multi-state touchscreen device
US9626099B2 (en) Multi-finger sliding detection using fingerprints to generate different events
JP2014199492A (ja) 電子機器および電子機器の制御方法
US20090167719A1 (en) Gesture commands performed in proximity but without making physical contact with a touchpad
BR112015007261B1 (pt) Método, meio de armazenamento legível por computador não transitório, e aparelho
JP2017504853A (ja) モバイルデバイスにおけるユーザ認証バイオメトリクス
US20130106707A1 (en) Method and device for gesture determination
US20110248946A1 (en) Multi-mode prosthetic device to facilitate multi-state touch screen detection
US20120188178A1 (en) Information processing apparatus and control method of the same
US20100127969A1 (en) Non-Contact Input Electronic Device and Method Thereof
US9417717B2 (en) Methods for interacting with an electronic device by using a stylus comprising body having conductive portion and systems utilizing the same
US9760758B2 (en) Determining which hand is being used to operate a device using a fingerprint sensor
JP2016206803A (ja) 指示装置及びタッチ検出システム
KR101689927B1 (ko) 전자 기기, 어플리케이션 실행 디바이스, 전자 기기의 제어 방법
JP5866311B2 (ja) 電子機器、電子機器の制御方法
TW201504876A (zh) 防止手掌誤觸方法
CN103092491B (zh) 生成控制命令的方法和装置、以及电子设备
Huang et al. SpeciFingers: Finger Identification and Error Correction on Capacitive Touchscreens
TW201312391A (zh) 觸控板裝置以及其控制方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151214

R150 Certificate of patent or registration of utility model

Ref document number: 5856995

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250