JPWO2018037738A1 - 情報処理装置、プログラムおよび情報処理システム - Google Patents

情報処理装置、プログラムおよび情報処理システム Download PDF

Info

Publication number
JPWO2018037738A1
JPWO2018037738A1 JP2018535511A JP2018535511A JPWO2018037738A1 JP WO2018037738 A1 JPWO2018037738 A1 JP WO2018037738A1 JP 2018535511 A JP2018535511 A JP 2018535511A JP 2018535511 A JP2018535511 A JP 2018535511A JP WO2018037738 A1 JPWO2018037738 A1 JP WO2018037738A1
Authority
JP
Japan
Prior art keywords
control
area
information processing
processing apparatus
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018535511A
Other languages
English (en)
Other versions
JP6943250B2 (ja
Inventor
山野 郁男
郁男 山野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018037738A1 publication Critical patent/JPWO2018037738A1/ja
Application granted granted Critical
Publication of JP6943250B2 publication Critical patent/JP6943250B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • G06F3/041661Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving using detection at multiple resolutions, e.g. coarse and fine scanning; using detection within a limited area, e.g. object tracking window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Input (AREA)

Abstract

【課題】情報処理装置において実行されるアプリケーションに対する操作性を向上させる。【解決手段】接触体の位置を検知する検知領域を有する検知部と、アプリケーションに対する制御情報を生成する制御情報生成部と、を備え、前記検知領域は、前記接触体が接触したときに前記アプリケーションに対する制御を行わないようにするための非制御領域を含み、前記制御情報生成部は、前記検知部が検知する前記検知領域における前記接触体の位置と前記非制御領域との位置関係に基づいて、前記アプリケーションに対する制御情報を生成する、情報処理装置。【選択図】図4

Description

本開示は、情報処理装置、プログラムおよび情報処理システムに関する。
現在、機器を操作するための様々な方法がある。機器を操作するための方法としては、例えばユーザがハードキー(物理キー)を押下することによって、機器に操作情報が送信されるリモートコントローラがある。また、近年ではタッチパネルを用いてユーザが操作を行う方法がある。タッチパネルはスマートフォンなどの情報処理装置に備えられ、ユーザはフリック、スワイプなどの操作方法を用いて情報処理装置で実行されているアプリケーションに対する操作を行う。
特許文献1には、タッチパネルを用いた操作方法が開示されている。特許文献1に開示されている発明では、ユーザが所定領域内を起点とする操作を行うと、スクロールおよび拡大/縮小の操作が行われ、ユーザが所定領域外を起点として操作を行うと、スクロールまたは拡大/縮小のどちらか一方の操作が行われる。
特開2010−266961号公報
現在の情報処理装置では様々な種類のアプリケーションが実行される。そこで本開示では、情報処理装置において実行されるアプリケーションに対する、より操作性が高い操作方法を提案する。
本開示によれば、接触体の位置を検知する検知領域を有する検知部と、アプリケーションに対する制御情報を生成する制御情報生成部と、を備え、前記検知領域は、前記接触体が接触したときに前記アプリケーションに対する制御を行わないようにするための非制御領域を含み、前記制御情報生成部は、前記検知部が検知する前記検知領域における前記接触体の位置と前記非制御領域との位置関係に基づいて、前記アプリケーションに対する制御情報を生成する、情報処理装置が提供される。
また、本開示によれば、検知領域を有する検知部に接触体の位置を検知させ、制御情報生成部にアプリケーションに対する制御情報を生成させ、前記検知領域は、前記接触体が接触したときに前記アプリケーションに対する制御を行わないようにするための非制御領域を含み、前記制御情報生成部に、前記検知部が検知する前記検知領域における前記接触体の位置と前記非制御領域との位置関係に基づいて、前記アプリケーションに対する制御情報を生成させる、プログラムが提供される。
また、本開示によれば、接触体の位置を検知する検知領域を有する検知部と、アプリケーションに対する制御情報を生成する制御情報生成部と、を備え、前記検知領域は、前記接触体が接触したときに前記アプリケーションに対する制御を行わないようにするための非制御領域を含み、前記制御情報生成部は、前記検知部が検知する前記検知領域における前記接触体の位置と前記非制御領域との位置関係に基づいて、前記アプリケーションに対する制御情報を生成する、情報処理システムが提供される。
以上説明したように本開示によれば、ユーザは、より操作性が高い操作方法を用いて、アプリケーションに対する操作を行うことができる。
なお、上記の効果は必ずしも限定されず、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
図1は、本開示の実施形態における情報処理装置の外観の一例を示す図である。 図2は、本開示の実施形態における情報処理装置の構成の一例を示すブロック図である。 図3は、本開示の実施形態における検知部の例である指紋センサの一例を示す図である。 図4は、本開示の実施形態の情報処理装置に表示される位置表示の表示例を示す図である。 図5は、本開示の実施形態の情報処理装置に表示される位置表示の表示例を示す図である。 図6は、本開示の実施形態の情報処理装置に表示される位置表示の表示例を示す図である。 図7は、本開示の実施形態の情報処理装置における操作方法の一例を示す図である。 図8は、本開示の実施形態の情報処理装置におけるスクロール制御の一例を示す図である。 図9は、本開示の実施形態の情報処理装置における操作方法の一例を示す図である。 図10は、本開示の実施形態の情報処理装置における操作方法の一例を示す図である。 図11は、本開示の実施形態の情報処理装置において実行される処理の一例を示す図である。 図12は、本開示の実施形態の情報処理装置において振動デバイスが駆動するタイミングの一例を示す図である。 図13は、本開示の実施形態の情報処理装置において振動デバイスが駆動するタイミングの一例を示す図である。 図14は、本開示の実施形態において接触体の指紋センサの短辺方向における位置が検知される例を示す図である。 図15は、本開示の実施形態において接触体の指紋センサの短辺方向における位置が検知される例を示す図である。 図16は、本開示の実施形態において接触体の指紋センサの短辺方向における位置が検知される例を示す図である。 図17は、本開示の実施形態における検知部の他の例を示す図である。 図18は、本開示の実施形態における検知部の他の例を示す図である。 図19は、本開示の実施形態における検知部の他の例を示す図である。 図20は、本開示の実施形態における検知部の他の例を示す図である。 図21は、本開示の実施形態において検知部に凸部が設けられた構成の一例を示す図である。 図22は、本開示の実施形態の情報処理装置における検知部の他の配置例を示す図である。 図23は、本開示の実施形態における情報処理装置の他の例を示す図である。 図24は、本開示の実施形態における検知部の他の例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行う。
1.情報処理装置の構成例
2.ユーザの操作を補助するための表示
3.情報処理装置における操作方法
4.情報処理装置における処理例
5.情報処理装置における他の構成
5−1.振動デバイスによるフィードバック
5−2.検知ポイントの横方向(短辺方向)への移動の検知
5−3.指紋センサが円形である場合の例
6.情報処理装置のその他の構成例
7.補足
8.むすび
<<1.本開示の情報処理装置の構成例>>
図1は、本開示の実施形態における情報処理装置100の外観を示す図である。本開示の実施形態における情報処理装置100は、例えば図1に示されるスマートフォンのような多様なアプリケーションを実行する携帯端末であってもよい。
図1に示されるように情報処理端末は、表示部102と、指紋センサ104を備える。表示部102は、情報処理装置100において実行されるアプリケーションに関する情報を表示する。なお表示部102は、液晶ディスプレイであってもよく、有機EL(Electro Luminescence)ディスプレイであってもよい。
指紋センサ104は指などの接触体を検知する検知部の一例であり、本実施形態において指紋センサ104は情報処理装置100の側面に設置される。指紋センサ104は、例えば電極が配置され、当該電極の電荷の変化を検知する静電容量方式の指紋センサ104であってもよい。このような静電容量方式の指紋センサ104は、指紋の凹凸によって電極に保持される電荷量に基づいて指紋を検知する。
また指紋センサ104は、接触体である指の位置を検知することができる。例えば指紋センサ104は、指などの接触体が指紋センサ104に接触している範囲を検知し、指が指紋センサ104に接触している範囲の重心を算出することなどによって指の位置を検知してもよい。本開示の情報処理装置100では、指紋センサ104を用いて接触体である指の位置を検知し、検知された指の位置に基づいてアプリケーションに対する制御を行う。なお、指紋センサ104はハードキー(物理キー)であってもよく、また指紋センサ104は押下可能に構成されてもよい。このように、本開示では既存の物理キーが有する機能に基づいて接触体の位置を検出する機能を実現してもよい。このように指紋センサ104を利用することにより、例えばスマートフォンのように物理キーを配置するスペースが限られる情報処理装置100において、新規な物理キーを配置しなくても本開示の操作方法を実現することができる。
図1では、本開示の情報処理装置100の外観について説明された。以下では、情報処理装置100の内部構成について説明される。図2に示されるように本開示の情報処理装置100はさらに、表示制御部106と、タッチパネル108と、制御情報生成部110と、処理部112と、振動制御部114と、振動デバイス116と、を備える。
表示制御部106は、表示部102に画像を表示するための表示信号を生成する。例えば表示制御部106は、アプリケーションの操作画面またはアプリケーションによって再生される静止画および動画に関する表示信号を生成してもよい。表示制御部106は生成した表示信号を表示部102に送り、表示部102は受け取った表示信号に基づいて画像を表示する。
タッチパネル108は、ユーザが情報処理装置100において実行されるアプリケーションに対する操作を行うために使用される。タッチパネル108は、液晶ディスプレイまたは有機ELディスプレイ上に外付けされてもよく、また液晶ディスプレイまたは有機ELディスプレイと一体的に形成されてもよい。
制御情報生成部110は、タッチパネル108または指紋センサ104から送られてくる信号に基づいてアプリケーションを制御するための制御情報を生成し、当該制御情報を処理部112に送信する。
処理部112は、情報処理装置100の各部と接続され、様々な処理を実行する。例えば、処理部112は、情報処理装置100が有するアプリケーションを実行する。情報処理装置100が有するアプリケーションとしては、例えばメール、ショートメッセージ、ソーシャルネットワーキングサービス、ブラウジング、写真撮影、音楽再生、地図表示に関するアプリケーションなどが含まれる。また処理部112は、表示部102に表示する画像データを生成し、表示制御部106に当該画像データを送る。また処理部112は、制御情報生成部110からアプリケーションに対する制御情報を受け取り、当該制御情報に基づいてアプリケーションを制御する。
振動制御部114は、振動デバイス116を制御するための振動信号を生成する。振動デバイス116は、形状に偏りのある錘がモータの回転軸に取り付けられた偏心モータであってもよい。また振動デバイス116は、ボイスコイルモータ、ピエゾアクチュエータまたは電磁リニアアクチュエータであってもよい。このとき振動制御部114は、音声信号を生成し、当該音声信号を振動デバイス116に送ることによって振動デバイス116を駆動させてもよい。
以上では、情報処理装置100の内部構成について説明された。以下では、本開示の検知部の一例である指紋センサ104の構成について説明される。図3は、指紋センサ104の構成を示す図である。本開示の指紋センサ104は、指などの接触体を検知する検知領域200を備える。検知領域200は、上述したように静電容量方式のセンサが指紋センサ104に備えられることによって形成される。なお、図3では説明を容易にするため、検知領域200は指紋センサ104の一部に形成されている。しかし検知領域200は指紋センサ104の全面に形成されてもよい。また検知領域200内には、アプリケーションに対する制御を行わないようにするための非制御領域202が含まれる。なお、図3に示されるように非制御領域202は検知領域200の中央付近に設けられてもよい。また、本開示の指紋センサ104は、検知領域200の中央を示す中央部204を備える。
非制御領域202についてより詳細に説明する。例えばユーザが画面のスクロールを行っている場合、ユーザが指で非制御領域202を触れることによって画面のスクロールは停止する。ここで非制御領域202を用いてアプリケーションに対する制御を行わないようにする方法はどのような方法であってもよい。
例えば、指紋センサ104がユーザの指が非制御領域202に触れたことを検知すると、制御情報生成部110は処理部112に制御情報を送ることを停止してもよい。処理部112は制御情報生成部110から制御情報が送られてこないことを認識することによって、アプリケーションに対する制御を停止してもよい。また制御情報生成部110は、アプリケーションに対する制御を停止することを指示する制御情報を明示的に処理部112に送ってもよい。処理部112は制御情報生成部110からアプリケーションに対する制御を停止することを指示する制御情報を受け取ることによって、アプリケーションに対する制御を停止してもよい。
<<2.ユーザの操作を補助するための表示>>
以上では、本開示の情報処理装置100の構成および情報処理装置100に備えられる指紋センサ104の構成について説明された。以下では、ユーザの操作を補助するための表示について説明される。
図4は、ユーザが本開示の情報処理装置100を把持している図である。図4に示されるように、ユーザが指900(図4では人差し指)で指紋センサ104に触れると、ユーザが指紋センサ104のどの部分に触れているかを示す位置表示300が表示される。位置表示300は、図4の点線で示されるように指紋センサ104と対応する位置および大きさで表示されることが好ましい。このように構成されることによって、ユーザは、指900が指紋センサ104のどの位置にあるかを直感的に認識することができる。また位置表示300は、図5に示されるように指紋センサ104よりも大きく表示されてもよい。このとき図5において一点鎖線で示されるように、位置表示300の中央位置と指紋センサ104の中央位置とが一致するように位置表示300は表示されてもよい。このように構成されることによって、ユーザは、指紋センサ104の中央付近に非制御領域202が設けられる場合において違和感なく操作を行うことができる。
また位置表示300の近傍(図4および図5では位置表示300の左横)には、ユーザの操作を補助するための補助表示302が表示される。補助表示302は、ユーザがどの方向に指900を動かせばよいかを示すために表示される。例えば図4および図5では下方向にユーザが指900を動かすべきであることを示すために、下方向の矢印が補助表示302として表示される。このように補助表示302が表示されることによって、ユーザはより容易にアプリケーションに対する操作を行うことができる。
図6を用いて位置表示300の構成を詳細に説明する。図6に示されるように位置表示300は、ユーザが指紋センサ104を触れている位置を示すカーソル304を含み、また位置表示300の中心を表す中心線306を含む。この位置表示300内の中心線306は、指紋センサ104の検知領域200の中心線と対応する。
<<3.情報処理装置における操作方法>>
以上では、本開示においてアプリケーションに対する操作を容易にするために表示される位置表示300および補助表示302について説明された。以下では指紋センサ104を用いた操作方法について説明される。なお以下では、画像を表示するアプリケーションにおいて、ユーザがスクロール操作を行う場合の操作方法について説明される。
図7に示されるようにユーザが指紋センサ104に触れると、検知領域200における指900の位置として認識される検知ポイント206が検知される。検知ポイント206は、上述したように、指900が検知領域200に触れている範囲の重心を算出することによって検知されてもよい。なお、以下では検知ポイント206の位置は、ユーザの指900の位置であるとみなして説明される。
図7において2点鎖線で示されるように、ユーザは最初に検知領域200において非制御領域202の上部を触れ、その後ユーザは図7において矢印で示されるように非制御領域202を通過して非制御領域202の下部まで指900を移動させる。
図7に示されるような操作が行われたとき、本開示の情報処理装置100では、検知ポイント206が非制御領域202の上部にある間はアプリケーションに対する制御(スクロール)を行わない。そして検知ポイント206が非制御領域202に一旦入り(図7においてP1で示される)、その後検知ポイント206が非制御領域202を通過したとき(図7においてP2で示される)にアプリケーションに対する制御を開始する。
よって図7のように指900が移動した場合、検知ポイント206が非制御領域202を通過したときに図8に示されるように表示部102に表示される画像は下方向にスクロールされる。つまり、下方向のスクロールが行われることによって、表示部102に表示されているコンテンツ(例えばウェブページ)の下方方向に表示範囲が変更される。また、スクロールは、ユーザが指900を指紋センサ104から離すまで、または後述するようにユーザが指900を非制御領域202に移動させるまで継続して行われてもよい。なお、図8に示されるように、ユーザが指900を下側に移動させたことに対応して、位置表示300内のカーソル302は、下側に移動する。
また図9に示されるように、ユーザがさらに指900を下側に移動させた場合、スクロールの速度は、中央部204と検知ポイント206との距離Dに応じて変わってもよい。例えばスクロールの速度は中央部204と検知ポイント206との距離に定数をかけることにより算出されてもよい。つまり、スクロールの速度は中央部204と検知ポイント206との距離に比例して速くなってもよい。よって、図7の状態から図9の状態にユーザが指900を移動させた場合、図7の状態におけるスクロール速度と比べて図9の状態におけるスクロール速度は速くなる。
このようにスクロール制御が行われる場合、ユーザが指900を検知領域200の最下部に移動させたときにスクロールの速度は最大となる。また、このとき図8に示される位置表示300のカーソル304も最下部に移動する。また、スクロールの速度は閾値が設定され、閾値以上の速度でスクロールは行われないように構成されてもよい。また位置表示300とともに/または位置表示300に代えてスクロールの速度を表す速度表示が表示されてもよく、上述したようにスクロール速度に関する閾値が設定されている場合、スクロール速度が閾値に達すると、速度表示内のカーソル304は上端または下端に移動するように構成されてもよい。
次に図10で示されるように、図7の状態からユーザが指900を上方向に移動させた場合、検知ポイント206が非制御領域202に入ったとき(図10においてP3で示される)にスクロールは止まる。よって、ユーザがスクロールを止めたいときは、ユーザは指900を非制御領域202に移動させることによって迅速にスクロールを止めることができる。ユーザがさらに指900を上方向に移動させ、検知ポイント206が非制御領域202から出たとき(図10においてP4で示される)に上方向のスクロールが開始される。このときも上述した場合と同様に、ユーザが指900をさらに上方に移動させることによって、中央部204と検知ポイント206の距離に応じてスクロールの速度が速くなってもよい。
なお、上述した例では、検知ポイント206が非制御領域202の下側になった場合に下方向のスクロールが行われ、検知ポイント206が非制御領域202の上側になった場合に上方向のスクロールが行われた。しかし、検知ポイント206と非制御領域202の位置関係とスクロールの方向は逆方向であってもよい。つまり、検知ポイント206が非制御領域202の下側になった場合に上方向のスクロールが行われ、検知ポイント206が非制御領域202の上側になった場合に下方向のスクロールが行われてもよい。
また、アプリケーションに対する制御は、アプリケーションの状態に応じて変わってもよい。例えばアプリケーションがブラウザであり、アプリケーションの状態がウェブページの最上部が表示されている状態である場合には上方向にはスクロールできないため、スクロール制御は下方向のスクロール制御に限定されてもよい。
また、アプリケーションの状態がウェブページの最上部が表示されている状態である場合、上述した中央部204および非制御領域202の検知領域200における位置を動的に下側に移動させてもよい。これによりユーザが指紋センサ104に触れたときの検知ポイント206は擬似的に中央部204よりも上側として認識されるため、ユーザは下方向のスクロールを行いやすくなる。
また、アプリケーションで表示されているコンテンツの内容に応じてアプリケーションに対する制御が変わってもよい。例えば、表示されるウェブページの長さに応じてアプリケーションに対する制御が変わってもよい。この場合、長いウェブページがアプリケーションによって表示されているとき、スクロールの速度は速くなってもよく、表示されるウェブページが短いとき、スクロールの速度は遅くなってもよい。
上述した例では画像を表示するアプリケーションに対してスクロールの制御が行われる例が説明された。しかし、アプリケーションに対する制御はこれに限られない。例えば、表示画面の表示範囲を変更する制御としてスクロール制御の他に、表示画面のズームを行う制御が行われてもよい。このとき例えば、スクロール制御における上方向のスクロールの制御に表示画面の拡大を行う制御が対応し、スクロール制御における下方向のスクロールの制御に表示画面の縮小を行う制御が対応してもよい。また、上述したスクロールの速度を可変にする制御には、表示画面の拡大または縮小を行う速度を可変にする制御が対応してもよい。
また表示画面のズームを行う制御が行われる場合、表示されるコンテンツの大きさに応じてアプリケーションに対する制御が変わってもよい。例えば大きい画像がアプリケーションによって表示されている状態の場合、表示画面の拡大または縮小を行う速度が速くなってもよく、表示される画像が小さい場合、表示画面の拡大または縮小を行う速度が遅くなってもよい。
また、アプリケーションは動画を再生するアプリケーションであってもよい。このとき例えば、スクロール制御における上方向のスクロールの制御に動画を早送りする制御が対応し、スクロール制御における下方向のスクロールの制御に動画を巻き戻す制御が対応してもよい。また、上述したスクロールの速度を可変にする制御には、動画を早送りするまたは巻き戻す速度を可変にする制御が対応してもよい。
またアプリケーションは動画を再生するアプリケーションである場合、再生される動画の長さに応じてアプリケーションに対する制御が変わってもよい。例えば長い動画がアプリケーションによって再生されている状態の場合、動画を早送りするまたは巻き戻す速度が速くなってもよく、再生されている動画が短い場合、動画を早送りするまたは巻き戻す速度が遅くなってもよい。
また、アプリケーションは音声を再生するアプリケーションであってもよい。このとき例えば、スクロール制御における上方向のスクロールの制御に音量を上げる制御が対応し、スクロール制御における下方向のスクロールの制御に音量を下げる制御が対応してもよい。また、上述したスクロールの速度を可変にする制御には、音量を上げるまたは音量を下げる速度を可変にする制御が対応してもよい。
このように本開示の情報処理装置100では、非制御領域202と検知される接触体の位置との位置関係によってアプリケーションに対する制御が行われる。このような構成により、ユーザはより操作性の高い操作方法でアプリケーションに対する操作を行うことができる。
また、非制御領域202が設けられることにより、ユーザが意図しないアプリケーションに対する細かな操作が繰り返し行われることを防ぐことができる。例えばスクロールが行われる場合には、上下方向にユーザが意図しない細かなスクロールが繰り返し行われる。このようなユーザが意図しない細かな操作の繰り返しが、非制御領域202が設けられることによって防がれる。また、ユーザは、非制御領域202に指900を移動させることにより、迅速にアプリケーションに対する操作を停止することができる。
また、上述したように指紋センサ104は押下可能な構成であってもよく、上述したアプリケーションに対する制御が行われている間に指紋センサ104が押下されることによって、実行されているアプリケーションに対する制御が継続されてもよい。つまり、スクロール制御が行われている場合、ユーザがスクロール制御が行われている間に指紋センサ104を押下すると、ユーザが指紋センサ104から指900を離した場合であってもスクロール制御が継続される。
また、ユーザが指紋センサ104を押下した後に指900を上下に移動させた場合、上述したように検知ポイント206が非制御領域202を通過したときに行われる制御とは異なる制御が行われてもよい。例えば検知ポイント206が非制御領域202を通過したときに行われる制御がスクロールである場合、ユーザが指紋センサ104を押下した後に指900を上下に移動させた場合には画面キャプチャなどのスクロールとは異なる制御が行われてもよい。
<<4.情報処理装置における処理例>>
以上では、本開示の情報処理装置100における操作方法が説明された。以下では、本開示の情報処理装置100における処理例が説明される。図11は、情報処理装置100においてスクロールが行われるときの処理を示す図である。
最初にS100において、指紋センサ104は、接触体である指900の位置を検知する。次にS102において、制御情報生成部110は、指紋センサ104が検知した指900の検知ポイント206に基づいて、当該検知ポイント206が非制御領域202の上部にあるか否かを判定する。S102において制御情報生成部110が検知ポイント206は非制御領域202の上部にあると判定すると、処理はS104に進む。
S104において、制御情報生成部110は、検知ポイント206が非制御領域202を通過したか否かを判定する。S104において制御情報生成部110が、検知ポイント206が非制御領域202を通過したことを認識すると、S106において制御情報生成部110は、検知領域200の中央部204と検知ポイント206との距離を算出する。次にS108において制御情報生成部110は、S106において算出した距離に応じた速度の下スクロールを行うための制御情報を生成し、当該制御情報を処理部112に送る。制御情報を受け取った処理部112は、当該制御情報に基づいて、下スクロールを行うようにアプリケーションを制御する。
S102において、制御情報生成部110が検知ポイント206は非制御領域202の上部にはないと判定すると、処理はS110に進む。そしてS110において制御情報生成部110は、検知ポイント206は非制御領域202の下部にあるか否かを判定する。S110において制御情報生成部110が検知ポイント206は非制御領域202の下部にあると判定すると、処理はS112に進む。
S112において、制御情報生成部110は、検知ポイント206が非制御領域202を通過したか否かを判定する。S112において制御情報生成部110が、検知ポイント206が非制御領域202を通過したことを認識すると、S114において制御情報生成部110は、検知領域200の中央部204と検知ポイント206との距離を算出する。次にS116において制御情報生成部110は、S114において算出した距離に応じた速度の上スクロールを行うための制御情報を生成し、当該制御情報を処理部112に送る。制御情報を受け取った処理部112は、当該制御情報に基づいて、上スクロールを行うようにアプリケーションを制御する。
S110において、制御情報生成部110が検知ポイント206は非制御領域202の下部にはないと判定すると、制御情報生成部110は検知ポイント206が非制御領域202内にあると認識し、処理はS118に進む。S118において、検知ポイント206は非制御領域202内にあるので、制御情報生成部110は制御情報を生成しない、またはアプリケーションに対する制御を行わないことを指示する制御情報を処理部112に送る。このように処理が進むことによって、S118においてはスクロールは行われない。
<<5.情報処理装置における他の構成>>
以上では、本開示の情報処理装置100の各部の構成および処理の例について説明された。以下では、本開示の情報処理装置100の他の構成の例について説明される。
<5−1.振動デバイスによるフィードバック>
本開示の情報処理装置100では、検知ポイント206が非制御領域202に入ったとき、または検知ポイント206が非制御領域202から出たときに振動デバイス116によってユーザに触覚的なフィードバックが行われてもよい。例えば、検知ポイント206が非制御領域202に入ったこと、または検知ポイント206が非制御領域202から出たことが制御情報生成部110によって認識されると、処理部112は振動デバイス116を動作させるための指示を振動制御部114に送る。また、上述した振動デバイス116の動作は、特にアプリケーションに対する制御が行われるとき、またはアプリケーションに対する制御が変わるときに行われてもよい。これによってユーザは、アプリケーションに対する操作が行われること、または変わることを触覚的に認識することができる。
図12は、情報処理装置100において振動デバイス116が駆動されるタイミングの一例を示す図である。図12において2点鎖線で示されるように、ユーザは最初に非制御領域202の上部を触れる(図12においてP5で示される)。その後検知ポイント206が一旦非制御領域202に入り、検知ポイント206が非制御領域202から出た時点(検知ポイント206がP6の位置になった時点)で振動デバイス116が動作し、振動が発生する。このとき上述したように、下方向のスクロールが開始される。
また、図12の後、図13に示されるように検知ポイント206がP7の位置まで移動し、その後検知ポイント206が非制御領域202に入る時点(検知ポイント206がP8の位置になった時点)で振動デバイス116が動作し、振動が発生する。このとき上述したように、スクロールが停止する。
また、さらにユーザが指900を移動させ、検知ポイント206が非制御領域202から出る時点(検知ポイント206がP9の位置になった時点)で再び振動デバイス116が動作し、振動が発生する。このとき上述したように、上方向のスクロールが開始される。なお、最初に非制御領域202に検知ポイント206が入るとき(図12において最初に非制御領域202に入るとき)は、アプリケーションに対する制御が行われず、またアプリケーションに対する制御が変わりもしないので、振動は発生されないことが好ましい。
上述したように、検知ポイント206が非制御領域202に出入りするときに振動デバイス116が振動する。これによって、アプリケーションに対する制御が行われるまたは変わるタイミングで振動が発生するので、ユーザはアプリケーションに対する制御が変わるタイミングを振動で認識することができ、操作性が向上する。
また、上述した振動の強さは、検知ポイント206が非制御領域202に入るときと、検知ポイント206が非制御領域202から出るときとで変えられてもよい。例えば検知ポイント206が非制御領域202に入るときの振動の強さは、検知ポイント206が非制御領域202から出るときの振動の強さよりも強くてもよい。このように振動の強さが変えられることによって、ユーザはアプリケーションに対する制御が開始されるときと、アプリケーションに対する制御が停止されるときを振動の強さによって認識することができる。
<5−2.検知ポイントの横方向(短辺方向)への移動の検知>
以上では、振動デバイス116によるフィードバックが行われる例について説明された。以下では、検知ポイント206の検知領域200における横方向(短辺方向)への移動が検知される例について説明される。上述したように本開示の指紋センサ104は、情報処理装置100の側面に設置される。よってユーザは、指900が指紋センサ104の短辺方向においてどの位置にあるかを目視で認識することが困難であるため、ユーザは誤って指紋センサ104から指900を外してしまう可能性がある。よって本開示の情報処理装置100では、検知領域200における指900の短辺方向の位置が位置表示300において表示される。
図14は、指紋センサ104が短辺方向の指900の位置を検出する例を示す図である。図14に示されるように、ユーザが指900を動かすことによって、検知ポイント206がP10の位置からP11の位置に移動し、さらにP12の位置に移動したことが検知される。このときP12の位置は、検知領域200の短辺方向における中心からはずれた位置である。
図15は、図14で示されるように検知ポイント206が検知されたときに表示される位置表示300を示す図である。図15で示されるようにカーソル304は、図14で示された検知ポイント206に対応するように位置表示300において表示される。つまりカーソル304はP12の位置において、中心線306から短辺方向にずれた位置に表示される。
このように指紋センサ104の短辺方向における指900の位置に対応するようにカーソル304が表示されることによって、ユーザは指900が指紋センサ104から外れそうになっていることを容易に認識することができる。
また、図16において示すように、ユーザが指紋センサ104から指900を短辺方向に意図的に外した場合、制御情報生成部110は、これを意図的な操作であると認識してもよい。例えば、このような操作がユーザによって行われた場合、指900が指紋センサ104から外されたときのスクロール速度で自動スクロールが継続されてもよい。この場合、ユーザが表示部102または指紋センサ104に触れたとき、自動スクロールは停止する。
意図的に指900が指紋センサ104から外されたか否かは、図16に示されるように、長辺方向から短辺方向に検知ポイント206が移動した角度(図16においてθで示される)に基づいて意図的な操作であるか否かが判定されてもよい。例えば、θが45°<θ<110°のような小さい角度である場合、意図的な操作であると判定されてもよく、θが110°<θ<180°のような大きい角度である場合、意図的な操作ではないと判定されてもよい。このように、本開示の情報処理装置100は、指900が指紋センサ104の長辺方向から短辺方向に移動した軌跡(上述した角度θのような)に基づいてアプリケーションに対する制御を継続するか否かを判定してもよい。
<5−3.指紋センサが円形である場合の例>
以上では、短辺と長辺を有する指紋センサ104を備える情報処理装置100について説明された。以下では、指紋センサ104が円形である場合の例について説明される。図17は、円形の指紋センサ104の構成を示す図である。このような指紋センサ104を備えることにより、以下に説明するように情報処理装置100は横方向のスクロールも行うことができる。
図17に示されるように、指紋センサ104が円形である場合は、非制御領域202は十字型に形成されてもよい。このように非制御領域202が形成された指紋センサ104において、図17で示されるように検知ポイント206が非制御領域202を通過し、検知ポイント206がP13からP14に移動したことが検知された場合、例えば地図表示を行うアプリケーションにおいて左方向の横スクロールが行われてもよい。また、上述した上下方向のスクロールと同様に、縦方向に延伸した非制御領域202の中央からの距離に基づいて横スクロールが行われる速度が動的に変更されてもよい。
また、図18に示すように非制御領域202は円形に形成されてもよい。このように非制御領域202が形成された指紋センサ104において、図18の矢印で示されるように検知ポイント206が非制御領域202を通過し、P15からP16に移動したことが検知された場合、例えば地図表示を行うアプリケーションにおいて検知ポイント206が移動した任意の方向にスクロールが行われてもよい。つまり図18で示されるように検知ポイント206が移動した場合、地図表示を行うアプリケーションにおいて右上にスクロールする制御が行われてもよい。
このときスクロールが行われる方向は、例えば検知ポイント206が最初に検知された位置(図18のP15で示される位置)と、現在の検知ポイント206の位置(図18のP16で示される位置)とに基づいて決定されてもよい。またスクロールが行われる方向は、検知ポイント206が非制御領域202から出た位置と、現在の検知ポイント206の位置とに基づいて決定されてもよい。
また、図19に示すように、非制御領域202は設けられなくてもよい。この場合、最初の検知ポイント206の位置(P17の位置)から検知ポイント206が一定距離移動した時点(検知ポイント206がP18の位置になった時点)で、検知ポイント206の移動方向に応じたスクロールが開始されてもよい。また、図20に示すように、中心点208に対する回転角度θを算出し、その回転角度の大きさに応じたスクロール距離またはスクロール速度でスクロールが行われてもよい。
<<6.情報処理装置のその他の構成例>>
以上では、円形の指紋センサ104を有する情報処理装置100について説明された。以下では、情報処理装置100のその他の構成例について説明される。
本開示の情報処理装置100は、例えば、図21に示すように、指紋センサ104の中央部204に凸部210が設けられてもよい。このように凸部210が設けられることにより、ユーザは指先の触覚情報を用いてより容易に操作を行うことができる。なお、指紋センサ104の中央部204に設けられる構造は凸部210に代えて凹部が設けられてもよい。また、指紋センサ104の中央部204に設けられる構造は1つでなくてもよく、複数の小さな構造物が設けられてもよい。
また、上述した例では指紋センサ104は情報処理装置100の側面に配置された。しかし、図22に示されるように、指紋センサ104は、情報処理装置100の背面に配置されてもよい。このとき位置表示300は、背面の指紋センサ104の位置に対応するように表示されてもよい。また、上述したように指紋センサ104は接触体を検知する検知部の一例であり、検知部はタッチパネル108の一部の領域を用いて形成されてもよい。
また、上述した例では、情報処理装置100はアプリケーションを実行する処理部112を備えていた。しかし本開示の情報処理装置100は、図23に示されるように、アプリケーションを実行する処理部112を備えないリモートコンローラであってもよい。この場合、情報処理装置100は制御情報生成部110と検知部の一例であり、上述した指紋センサ104に対応する操作部118を備え、制御情報を他の情報端末に送信してもよい。
また、図24に示されるように、検知領域200に複数の閾値(図24で212a〜212eで示される)が設定され、検知ポイント206が各閾値を通過するごとにアプリケーションに対する制御が行われるように情報処理装置100は構成されてもよい。このように構成されることによって、ユーザはジョグダイヤルを用いた操作のような操作を行うことができる。
<<7.補足>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属する。
例えば、指紋センサ104が電源ボタンなどの他の機能をボタンと兼用である場合、他の機能との区別のため、本開示の情報処理装置100は、ユーザが指紋センサ104に触れた後、所定時間経過後に位置表示300を表示し、アプリケーションに対する制御を有効にするように構成されてもよい。
また、上述した例では、検知ポイント206と非制御領域202との位置関係に基づいてアプリケーションに対する制御が行われた。しかし、最初にユーザが指紋センサ104に触れたときの検知ポイント206から、検知ポイント206が一定の距離以上移動した場合にアプリケーションに対する制御は開始されてもよい。
また、上述した制御情報生成部110、処理部112は汎用のプロセッサを用いて実現されてもよい。また、当該プロセッサを上述したように動作させるためのコンピュータプログラムが提供されてもよい。また、このようなプログラムが記憶された記憶媒体が提供されてもよい。
<<8.むすび>>
以上説明したように、本開示の情報処理装置100では、非制御領域202と検知される接触体の位置との位置関係によってアプリケーションに対する制御が行われる。このような構成により、ユーザはより操作性の高い操作方法でアプリケーションに対する操作を行うことができる。
また、非制御領域202が設けられることにより、ユーザが意図しないアプリケーションに対する細かな操作が繰り返し行われることを防ぐことができる。また、ユーザは、非制御領域202に指900を移動させることにより、迅速にアプリケーションに対する操作を停止することができる。また、検知領域200の中央部204と検知される接触体の位置との距離に応じてアプリケーションに対する制御が変えられてもよい。このように構成されることによって、ユーザは簡易な操作によって、アプリケーションに対する制御を変更することができる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
接触体の位置を検知する検知領域を有する検知部と、
アプリケーションに対する制御情報を生成する制御情報生成部と、を備え、
前記検知領域は、前記接触体が接触したときに前記アプリケーションに対する制御を行わないようにするための非制御領域を含み、
前記制御情報生成部は、前記検知部が検知する前記検知領域における前記接触体の位置と前記非制御領域との位置関係に基づいて、前記アプリケーションに対する制御情報を生成する、情報処理装置。
(2)
前記制御情報生成部は、前記検知部が前記接触体が前記非制御領域を通過したことを検知したことに基づいて前記アプリケーションに対する制御情報を生成する、前記(1)に記載の情報処理装置。
(3)
前記アプリケーションは、画像を表示するアプリケーションである、前記(1)または前記(2)に記載の情報処理装置。
(4)
前記制御情報生成部が生成する前記アプリケーションに対する制御情報は、表示部に表示される表示画像の表示範囲を変更する制御情報である、前記(3)に記載の情報処理装置。
(5)
前記表示部に表示される表示画面の表示範囲を変更する制御情報は、前記表示画面のスクロールに関する制御情報である、前記(4)に記載の情報処理装置。
(6)
前記制御情報生成部は、前記検知部が検知する前記検知領域における前記接触体の位置と前記検知領域の中央部との距離に応じて前記スクロールを行う速度を変えるように制御情報を生成する、前記(5)に記載の情報処理装置。
(7)
前記表示部に表示される表示画面の表示範囲を変更する制御情報は、前記表示画面のズームである、前記(4)に記載の情報処理装置。
(8)
前記制御情報生成部は、前記アプリケーションの状態に応じて異なる制御情報を生成する、前記(2)から前記(7)のいずれか1項に記載の情報処理装置。
(9)
前記非制御領域は、前記検知領域の中央にある、前記(1)から前記(8)のいずれか1項に記載の情報処理装置。
(10)
前記検知部は、ハードキーである、前記(1)から前記(9)のいずれか1項に記載の情報処理装置。
(11)
前記ハードキーは凸部または凹部を有する、前記(10)に記載の情報処理装置。
(12)
前記検知部は、指紋センサである、前記(10)または前記(11)に記載の情報処理装置。
(13)
前記ハードキーは押下可能であり、
前記制御情報生成部は、前記ハードキーが押下されたことおよび前記接触体が前記非制御領域を通過したことに基づいて、前記接触体が前記非制御領域を通過したときに行われる制御とは異なる制御に関する制御情報を生成する、前記(10)から前記(12)のいずれか1項に記載の情報処理装置。
(14)
表示部を制御する表示制御部をさらに備え、
前記表示制御部は、前記検知部が検知している前記検知領域における前記接触体の位置に関する位置表示を前記表示部に表示する、前記(2)から前記(13)のいずれか1項に記載の情報処理装置。
(15)
前記表示制御部は、前記位置表示の近傍にユーザの操作を補助する補助表示を前記表示部に表示する、前記(14)に記載の情報処理装置。
(16)
振動デバイスを制御する振動制御部をさらに備え、
前記検知部が、前記接触体が前記非制御領域に入ったことまたは前記接触体が前記非制御領域から出たことを検知した場合に、
前記振動制御部は前記振動デバイスを振動させる、前記(1)から前記(15)のいずれか1項に記載の情報処理装置。
(17)
前記振動制御部は、前記検知部が前記接触体が前記非制御領域に入ったことを検知した場合と、前記検知部が前記接触体が前記非制御領域から出たことを検知した場合とで、前記振動デバイスの振動方法を変更する、前記(16)に記載の情報処理装置。
(18)
前記検知部は長辺と短辺を有し、
前記検知部は前記接触体が前記検知領域から外れたことを検知し、
前記制御情報生成部は、前記接触体の前記検知部の長辺方向から短辺方向への移動の軌跡に基づいて前記アプリケーションに対する制御を継続するか否かの判定を行う、前記(2)から前記(17)のいずれか1項に記載の情報処理装置。
(19)
プロセッサに検知領域を有する検知部に接触体の位置を検知させ、
アプリケーションに対する制御情報を生成させ、
前記検知領域は、前記接触体が接触したときに前記アプリケーションに対する制御を行わないようにするための非制御領域を含み、
さらに前記プロセッサに、前記検知部が検知する前記検知領域における前記接触体の位置と前記非制御領域との位置関係に基づいて、前記アプリケーションに対する制御情報を生成させる、プログラム。
(20)
接触体の位置を検知する検知領域を有する検知部と、
アプリケーションに対する制御情報を生成する制御情報生成部と、を備え、
前記検知領域は、前記接触体が接触したときに前記アプリケーションに対する制御を行わないようにするための非制御領域を含み、
前記制御情報生成部は、前記検知部が検知する前記検知領域における前記接触体の位置と前記非制御領域との位置関係に基づいて、前記アプリケーションに対する制御情報を生成する、情報処理システム。
100 情報処理装置
102 表示部
104 指紋センサ
106 表示制御部
108 タッチパネル
110 制御情報生成部
112 処理部
114 振動制御部
116 振動デバイス
200 検知領域
202 非制御領域
204 中央部
206 検知ポイント
210 凸部
300 位置表示
302 補助表示
304 カーソル
306 中心線
900 指

Claims (20)

  1. 接触体の位置を検知する検知領域を有する検知部と、
    アプリケーションに対する制御情報を生成する制御情報生成部と、を備え、
    前記検知領域は、前記接触体が接触したときに前記アプリケーションに対する制御を行わないようにするための非制御領域を含み、
    前記制御情報生成部は、前記検知部が検知する前記検知領域における前記接触体の位置と前記非制御領域との位置関係に基づいて、前記アプリケーションに対する制御情報を生成する、情報処理装置。
  2. 前記制御情報生成部は、前記検知部が前記接触体が前記非制御領域を通過したことを検知したことに基づいて前記アプリケーションに対する制御情報を生成する、請求項1に記載の情報処理装置。
  3. 前記アプリケーションは、画像を表示するアプリケーションである、請求項1に記載の情報処理装置。
  4. 前記制御情報生成部が生成する前記アプリケーションに対する制御情報は、表示部に表示される表示画像の表示範囲を変更する制御情報である、請求項3に記載の情報処理装置。
  5. 前記表示部に表示される表示画面の表示範囲を変更する制御情報は、前記表示画面のスクロールに関する制御情報である、請求項4に記載の情報処理装置。
  6. 前記制御情報生成部は、前記検知部が検知する前記検知領域における前記接触体の位置と前記検知領域の中央部との距離に応じて前記スクロールを行う速度を変えるように制御情報を生成する、請求項5に記載の情報処理装置。
  7. 前記表示部に表示される表示画面の表示範囲を変更する制御情報は、前記表示画面のズームである、請求項4に記載の情報処理装置。
  8. 前記制御情報生成部は、前記アプリケーションの状態に応じて異なる制御情報を生成する、請求項2に記載の情報処理装置。
  9. 前記非制御領域は、前記検知領域の中央にある、請求項1に記載の情報処理装置。
  10. 前記検知部は、ハードキーである、請求項1に記載の情報処理装置。
  11. 前記ハードキーは凸部または凹部を有する、請求項10に記載の情報処理装置。
  12. 前記検知部は、指紋センサである、請求項10に記載の情報処理装置。
  13. 前記ハードキーは押下可能であり、
    前記制御情報生成部は、前記ハードキーが押下されたことおよび前記接触体が前記非制御領域を通過したことに基づいて、前記接触体が前記非制御領域を通過したときに行われる制御とは異なる制御に関する制御情報を生成する、請求項10に記載の情報処理装置。
  14. 表示部を制御する表示制御部をさらに備え、
    前記表示制御部は、前記検知部が検知している前記検知領域における前記接触体の位置に関する位置表示を前記表示部に表示する、請求項2に記載の情報処理装置。
  15. 前記表示制御部は、前記位置表示の近傍にユーザの操作を補助する補助表示を前記表示部に表示する、請求項14に記載の情報処理装置。
  16. 振動デバイスを制御する振動制御部をさらに備え、
    前記検知部が、前記接触体が前記非制御領域に入ったことまたは前記接触体が前記非制御領域から出たことを検知した場合に、
    前記振動制御部は前記振動デバイスを振動させる、請求項1に記載の情報処理装置。
  17. 前記振動制御部は、前記検知部が前記接触体が前記非制御領域に入ったことを検知した場合と、前記検知部が前記接触体が前記非制御領域から出たことを検知した場合とで、前記振動デバイスの振動方法を変更する、請求項16に記載の情報処理装置。
  18. 前記検知部は長辺と短辺を有し、
    前記検知部は前記接触体が前記検知領域から外れたことを検知し、
    前記制御情報生成部は、前記接触体の前記検知部の長辺方向から短辺方向への移動の軌跡に基づいて前記アプリケーションに対する制御を継続するか否かの判定を行う、請求項2に記載の情報処理装置。
  19. プロセッサに、検知領域を有する検知部に接触体の位置を検知させ、
    アプリケーションに対する制御情報を生成させ、
    前記検知領域は、前記接触体が接触したときに前記アプリケーションに対する制御を行わないようにするための非制御領域を含み、
    さらに前記プロセッサに、前記検知部が検知する前記検知領域における前記接触体の位置と前記非制御領域との位置関係に基づいて、前記アプリケーションに対する制御情報を生成させる、プログラム。
  20. 接触体の位置を検知する検知領域を有する検知部と、
    アプリケーションに対する制御情報を生成する制御情報生成部と、を備え、
    前記検知領域は、前記接触体が接触したときに前記アプリケーションに対する制御を行わないようにするための非制御領域を含み、
    前記制御情報生成部は、前記検知部が検知する前記検知領域における前記接触体の位置と前記非制御領域との位置関係に基づいて、前記アプリケーションに対する制御情報を生成する、情報処理システム。
JP2018535511A 2016-08-24 2017-07-10 情報処理装置、プログラムおよび情報処理システム Active JP6943250B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016163719 2016-08-24
JP2016163719 2016-08-24
PCT/JP2017/025065 WO2018037738A1 (ja) 2016-08-24 2017-07-10 情報処理装置、プログラムおよび情報処理システム

Publications (2)

Publication Number Publication Date
JPWO2018037738A1 true JPWO2018037738A1 (ja) 2019-06-20
JP6943250B2 JP6943250B2 (ja) 2021-09-29

Family

ID=61245857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018535511A Active JP6943250B2 (ja) 2016-08-24 2017-07-10 情報処理装置、プログラムおよび情報処理システム

Country Status (5)

Country Link
US (1) US10627953B2 (ja)
EP (1) EP3506061A4 (ja)
JP (1) JP6943250B2 (ja)
CN (1) CN109643174B (ja)
WO (1) WO2018037738A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7027108B2 (ja) * 2017-10-12 2022-03-01 Fcnt株式会社 電子機器
JP7034856B2 (ja) * 2018-07-27 2022-03-14 京セラ株式会社 電子機器、制御プログラム及び表示制御方法
JP7244231B2 (ja) * 2018-07-27 2023-03-22 京セラ株式会社 電子機器、制御プログラム及び表示制御方法
US20230393726A1 (en) * 2022-06-02 2023-12-07 Shopify Inc. Methods and apparatuses for providing condensable user interface

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121302A (ja) * 1993-10-26 1995-05-12 Canon Inc 携帯用情報装置
JP2001265507A (ja) * 2000-03-17 2001-09-28 Canon Inc 携帯端末装置およびその操作方法
JP2005301658A (ja) * 2004-04-12 2005-10-27 Hosiden Corp 携帯情報端末装置
JP2008204402A (ja) * 2007-02-22 2008-09-04 Eastman Kodak Co ユーザインターフェース装置
JP2011120090A (ja) * 2009-12-04 2011-06-16 Nec Corp 携帯端末、携帯端末の操作方法、及び携帯端末の操作プログラム
JP2012503223A (ja) * 2008-05-23 2012-02-02 マイクロソフト コーポレーション ドラッグ動作を利用したコンテンツのパンニング
JP2012078988A (ja) * 2010-09-30 2012-04-19 Nippon Seiki Co Ltd 表示項目選択装置及び表示項目選択システム
JP2013161141A (ja) * 2012-02-01 2013-08-19 Sharp Corp 表示装置及び表示方法、プログラム
JP2013228786A (ja) * 2012-04-24 2013-11-07 Nec Casio Mobile Communications Ltd 情報端末、情報表示方法及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4669423B2 (ja) * 2006-03-20 2011-04-13 富士通株式会社 電子機器、スクロール制御装置、およびプログラム
JP4921912B2 (ja) * 2006-09-29 2012-04-25 日本無線株式会社 携帯電話機及びポインティング制御方法
KR101189712B1 (ko) * 2008-04-24 2012-10-10 교세라 가부시키가이샤 휴대전자기기
CN102203696B (zh) * 2008-10-28 2015-03-25 富士通株式会社 便携终端以及输入控制方法
JP5343692B2 (ja) 2009-05-12 2013-11-13 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
JP5594847B2 (ja) * 2011-05-19 2014-09-24 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理装置の制御方法、プログラム及び情報記憶媒体
EP2798439B1 (en) * 2011-12-29 2020-11-25 Intel Corporation Methods and systems for typing on keyboards on a steering wheel
US20140270413A1 (en) * 2013-03-15 2014-09-18 Motorola Mobility Llc Auxiliary device functionality augmented with fingerprint sensor

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121302A (ja) * 1993-10-26 1995-05-12 Canon Inc 携帯用情報装置
JP2001265507A (ja) * 2000-03-17 2001-09-28 Canon Inc 携帯端末装置およびその操作方法
JP2005301658A (ja) * 2004-04-12 2005-10-27 Hosiden Corp 携帯情報端末装置
JP2008204402A (ja) * 2007-02-22 2008-09-04 Eastman Kodak Co ユーザインターフェース装置
JP2012503223A (ja) * 2008-05-23 2012-02-02 マイクロソフト コーポレーション ドラッグ動作を利用したコンテンツのパンニング
JP2011120090A (ja) * 2009-12-04 2011-06-16 Nec Corp 携帯端末、携帯端末の操作方法、及び携帯端末の操作プログラム
JP2012078988A (ja) * 2010-09-30 2012-04-19 Nippon Seiki Co Ltd 表示項目選択装置及び表示項目選択システム
JP2013161141A (ja) * 2012-02-01 2013-08-19 Sharp Corp 表示装置及び表示方法、プログラム
JP2013228786A (ja) * 2012-04-24 2013-11-07 Nec Casio Mobile Communications Ltd 情報端末、情報表示方法及びプログラム

Also Published As

Publication number Publication date
US20190286322A1 (en) 2019-09-19
CN109643174A (zh) 2019-04-16
WO2018037738A1 (ja) 2018-03-01
US10627953B2 (en) 2020-04-21
CN109643174B (zh) 2022-09-13
EP3506061A1 (en) 2019-07-03
EP3506061A4 (en) 2019-12-11
JP6943250B2 (ja) 2021-09-29

Similar Documents

Publication Publication Date Title
US11029775B2 (en) Pointer display device, pointer display detection method, pointer display detection program and information apparatus
JP6274822B2 (ja) 触覚効果によるフィードフォワード及びフィードバックのためのシステム及び方法
KR102169206B1 (ko) 햅틱 피드백 제어 시스템
EP3469470B1 (en) Accelerated scrolling
RU2669087C2 (ru) Способ и устройство управления тактильной отдачей инструмента ввода для терминала мобильной связи
EP2889717B1 (en) Systems and methods for a haptically-enabled projected user interface
TWI396999B (zh) 電子裝置中的觸覺反饋
US9507507B2 (en) Information processing apparatus, information processing method and program
JP2018185823A (ja) プログラム可能な表面テクスチャによってモードまたは状態認識を提供するシステムおよび方法
JP6943250B2 (ja) 情報処理装置、プログラムおよび情報処理システム
KR101974852B1 (ko) 터치스크린을 가진 단말에서 오브젝트 이동 방법 및 장치
US20130254714A1 (en) Method and apparatus for providing floating user interface
JP2013235588A (ja) 空間上の相互作用に基づく端末の制御方法及びその端末
KR20130129220A (ko) 컴퓨팅 디바이스의 의도적 이동을 수반하는 제스처를 검출하는 방법
JP6246640B2 (ja) 電子機器
KR20090066368A (ko) 터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법
US20160103506A1 (en) Input device, method for controlling input device, and non-transitory computer-readable recording medium
US10306047B2 (en) Mechanism for providing user-programmable button
KR101901233B1 (ko) 터치 스크린의 접촉 방향성을 이용한 영상 확대/축소 장치 및 그 방법
WO2008082142A1 (en) Media device having touch sensor, and control method for the same
KR101893890B1 (ko) 터치 스크린의 접촉 방향성을 이용한 영상 확대/축소 장치 및 그 방법

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R151 Written notification of patent or utility model registration

Ref document number: 6943250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151