JP7130988B2 - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP7130988B2
JP7130988B2 JP2018037041A JP2018037041A JP7130988B2 JP 7130988 B2 JP7130988 B2 JP 7130988B2 JP 2018037041 A JP2018037041 A JP 2018037041A JP 2018037041 A JP2018037041 A JP 2018037041A JP 7130988 B2 JP7130988 B2 JP 7130988B2
Authority
JP
Japan
Prior art keywords
user
information processing
processing apparatus
touch panel
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018037041A
Other languages
English (en)
Other versions
JP2019153021A (ja
Inventor
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2018037041A priority Critical patent/JP7130988B2/ja
Priority to US16/121,936 priority patent/US10802591B2/en
Publication of JP2019153021A publication Critical patent/JP2019153021A/ja
Application granted granted Critical
Publication of JP7130988B2 publication Critical patent/JP7130988B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Description

本発明は、情報処理装置及びプログラムに関する。
スマートフォンやタブレット端末のタッチパネルを指で操作することによって種々の情報を入力したり、表示された情報を操作したりすることは一般的になっている。例えば、ユーザは、1本又は2本の指の動かした方によって、タップ、フリック、スワイプ、ピンチイン/ピンチアウトなどと名付けられた操作を行うことによってスマートフォン等に種々の指示を出すことができる。
特許第5373467号明細書 特許第5862271号明細書
本発明は、表示部にかかる力の方向によって受け付ける操作を判断することを目的とする。
本発明に係る情報処理装置は、表示部にかかる力の方向が所定の特定方向である場合のみユーザの操作を受け付ける受付手段を有し、前記受付手段は、前記力の方向に加え、ユーザの操作方向によってユーザの操作の有効性を判断する
また、前記受付手段は、前記力の方向及び前記操作方向との組合せが所定の条件に合致する場合のみユーザの操作を受け付けることを特徴とする。
また、前記受付手段は、前記表示部に対するユーザの操作位置によってユーザの操作の有効性を判断することを特徴とする。
また、前記受付手段は、ユーザにより前記表示部に複数の操作が行われる場合において、前記複数の操作それぞれの前記表示部にかかる力の方向がそれぞれ所定の特定方向である場合のみ前記複数の操作子による操作を受け付けることを特徴とする。
本発明に係る情報処理装置は、表示部にかかる力の方向が所定の特定方向である場合のみユーザの操作を受け付ける受付手段を有し、前記受付手段は、ユーザにより前記表示部に複数の操作が行われる場合において、前記複数の操作それぞれの前記表示部にかかる力の方向がそれぞれ所定の特定方向である場合のみ前記複数の操作を受け付け、前記所定の特定方向は、前記表示部を複数の領域に分割したときの領域毎に設定されることを特徴とする。
また、前記所定の特定方向は、前記表示部に表示されている情報に応じて設定されることを特徴とする。
また、前記受付手段は、操作時における前記表示部に接触する角度によってユーザの操作の有効性を判断することを特徴とする。
また、前記受付手段が受け付けた操作に応じて実行する機能を制御する制御手段を有することを特徴とする。
また、前記制御手段は、受け付けられた操作において前記表示部にかかる力の方向に応じて機能の実行を制御することを特徴とする。
また、前記制御手段は、前記力の方向及びユーザの操作方向に応じて機能の実行を制御することを特徴とする。
また、前記制御手段は、前記表示部へのユーザによる複数の操作に応じて実行する機能を制御することを特徴とする。
また、前記制御手段は、前記複数の操作それぞれに対応した機能の実行を制御することを特徴とする。
また、前記制御手段は、前記複数の操作に対応した機能の実行を制御することを特徴とする。
また、前記制御手段は、前記表示部に対する操作位置に応じて機能の実行を制御することを特徴とする。
また、前記制御手段は、前記表示部に表示されている情報に応じて実行する機能を制御することを特徴とする。
また、前記制御手段は、前記表示部に表示されている画像に対するユーザの操作方向に応じて実行する機能を制御することを特徴とする。
また、前記機能は、各画像に対応する機器を利用した連携機能であることを特徴とする。
本発明に係るプログラムは、コンピュータを、表示部にかかる力の方向が所定の特定方向である場合のみユーザの操作を受け付ける受付手段として機能させ、前記受付手段は、前記力の方向に加え、ユーザの操作方向によってユーザの操作の有効性を判断する
本発明に係るプログラムは、コンピュータを、表示部にかかる力の方向が所定の特定方向である場合のみユーザの操作を受け付ける受付手段として機能させ、前記受付手段は、ユーザにより前記表示部に複数の操作が行われる場合において、前記複数の操作それぞれの前記表示部にかかる力の方向がそれぞれ所定の特定方向である場合のみ前記複数の操作を受け付け、前記所定の特定方向は、前記表示部を複数の領域に分割したときの領域毎に設定される。
請求項1に記載の発明によれば、表示部にかかる力の方向によって受け付ける操作を判断することができる。また、表示部にかかる力の方向とユーザの操作方向によってユーザの操作を受け付けるかどうかを判断することができる。
請求項に記載の発明によれば、表示部にかかる力の方向と操作方向の組合せが所定の条件に合致した場合にユーザの操作を受け付けることができる。
請求項に記載の発明によれば、ユーザの操作位置を考慮してユーザの操作を受け付けるかどうかを判断することができる。
請求項に記載の発明によれば、ユーザによる複数の操作を受け付けることができる。
請求項に記載の発明によれば、ユーザが操作する位置によって受付可能な力の方向を異ならせることができる。
請求項に記載の発明によれば、受付可能な力の方向を表示内容と連携させることができる。
請求項に記載の発明によれば、ユーザが表示部に接触する角度によってユーザの操作の有効性を判断することができる。
請求項に記載の発明によれば、操作に応じて機能の実行を制御することができる。
請求項に記載の発明によれば、表示部にかかる力の方向に応じて機能の実行を制御することができる。
請求項10に記載の発明によれば、力の方向及びユーザの操作方向に応じて機能の実行を制御することができる。
請求項11に記載の発明によれば、ユーザによる複数の操作に対応することができる。
請求項12に記載の発明によれば、複数の操作それぞれに対応した機能を並列して実行することができる。
請求項13に記載の発明によれば、複数の操作を連携させた機能を実行することができる。
請求項14に記載の発明によれば、ユーザの操作位置に応じて機能の実行を制御することができる。
請求項15に記載の発明によれば、機能の実行を表示内容と連携させることができる。
請求項16に記載の発明によれば、ユーザの操作方向に応じて実行する機能を制御することができる。
請求項17に記載の発明によれば、連携機能の実行を制御することができる。
請求項18に記載の発明によれば、表示部にかかる力の方向によって受け付ける操作を判断することができる。また、表示部にかかる力の方向とユーザの操作方向によってユーザの操作を受け付けるかどうかを判断することができる。
請求項19に記載の発明によれば、ユーザが操作する位置によって受付可能な力の方向を異ならせることができる。
本発明に係る情報処理装置の一実施の形態を示したブロック構成図である。 実施の形態1における情報処理装置のハードウェア構成図である。 指先の操作の角度、方向を説明するための概念図である。 指先がタッチパネルにかける力の方向を説明するための概念図である。 実施の形態1においてタッチパネルに画像が表示されているときの表示画面の一例を示す図である。 図5においてユーザ操作後の表示画面の一例を示す図である。 実施の形態1においてタッチパネルに画像が表示されているときの表示画面の他の例を示す図である。 実施の形態2においてタッチパネルに画像が表示されているときの表示画面の一例を示す図である。 実施の形態2においてタッチパネルに画像が表示されているときの表示画面の他の例を示す図である。 実施の形態2における機能制御情報をテーブル形式にて示す図である。 実施の形態2においてタッチパネルに画像が表示されているときの表示画面の他の例を示す図である。
以下、図面に基づいて、本発明の好適な実施の形態について説明する。
実施の形態1.
図1は、本発明に係る情報処理装置10の一実施の形態を示したブロック構成図である。本実施の形態における情報処理装置10は、画像を表示すると共に操作子で操作することによって種々の情報を入力したり、表示された情報を操作したりすることが可能なタッチパネルを搭載している。「操作子」は、タッチパネルに表示されている画像又はその一部を指し示すなどして何らかの操作をする際に用いられる。操作を伴わずにいずれかの画像の部位を単に指し示すために用いてもよい。操作子は、画像に対して操作する物、例えば、人間の指先や人間が用いるペンなどである。本実施の形態では、特に断らない限り、操作子として人間の指先を例にして説明する。
図2は、本実施の形態における情報処理装置10のハードウェア構成図である。本実施の形態において情報処理装置10は、コンピュータ又はコンピュータを搭載した機器であり、従前から存在する汎用的なハードウェア構成で実現できる。すなわち、コンピュータは、図2に示したようにCPU1、ROM2、RAM3、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)等の記憶手段としてのストレージ4、通信手段として設けられた通信インタフェース(IF)5、タッチパネル6を接続する入出力コントローラ7を内部バス8に接続して構成される。
図1に戻り、情報処理装置10は、ユーザインタフェース(UI)部11、情報取得部12、機能実行部13及び制御部14を有している。なお、本実施の形態の説明に用いない構成要素は図から省略している。UI部11は、表示部111、操作部112、検出部113及び受付制御部114を有している。表示部111及び操作部112は、タッチパネル6により実現される。表示部111は、画像をタッチパネル6に表示する。操作部112は、タッチパネル6に対するユーザ操作を入力する。検出部113及び受付制御部114は、入出力コントローラ7により実現される。検出部113は、指先がタッチパネル6に触れているときの指先の角度を検出する。また、指先の角度に応じて指先がタッチパネル6にかける力の方向を検出する。受付制御部114は、タッチパネル6へのユーザ操作を受け付けるかどうかを制御する。具体的には、検出部113が検出した指先のかかる力の方向が所定の特定方向である場合のみ指先による操作を受け付ける。「所定の特定方向」は、方向を特定していない、すなわち全方向でなければよく複数の方向を特定方向としてよい。情報取得部12は、ユーザ操作に応じて表示等に必要な情報をストレージ4又は通信IF5を介して外部から取得する。機能実行部13は、ユーザ操作により指定された機能を実行する。制御部14は、各構成要素11~13の動作を制御する。例えば、UI部11が受け付けた操作に応じて機能実行部13に実行させる機能を制御する。
情報処理装置10における各構成要素11~14は、情報処理装置10を形成するコンピュータと、コンピュータに搭載されたCPU1で動作するプログラムとの協調動作により実現される。また、本実施の形態で用いるプログラムは、通信手段により提供することはもちろん、CD-ROMやUSBメモリ等のコンピュータ読み取り可能な記録媒体に格納して提供することも可能である。通信手段や記録媒体から提供されたプログラムはコンピュータにインストールされ、コンピュータのCPU1がプログラムを順次実行することで各種処理が実現される。
ところで、ユーザは、指先でタッチパネル6に触れることで操作(例えば、選択操作)を行うが、本実施の形態の動作を説明する前にタッチパネル6に対するユーザ操作、特にタッチパネル6に触れるときの指先の角度及び指先がタッチパネル6にかける力の方向について説明する。
例えば、スマートフォンのタッチパネル6をユーザが操作する場合、ユーザは、必ずしもタッチパネル6に対して垂直方向(接触位置の真上)からタッチパネル6に触れて操作するとは限らない。指先がタッチパネル6に触れるときの角度は、ユーザの手又は身体とタッチパネル6との位置関係に依存する場合が少なくない。例えば、左手に持つことによって左肩の前にある状態のスマートフォンを右手で操作することを想定すると明らかなように、右手の指先は、タッチパネル6の真上(画面に対して垂直方向)ではなく、タッチパネル6の右の方向から右に傾いた状態でタッチパネル6に触れることになると考えられる。もちろん、ユーザは、手首を曲げることによって指先を異なる方向に傾けて操作することは可能であるが、そのような操作は、意識的に操作しなければならない。
検出部113は、前述したユーザの指先がタッチパネル6に触れているときの角度を検出する。検出部113が検出する角度には、図3に示すようにタッチパネル6の表面(水平方向)に対する角度Aと、例えば指先がタッチパネル6の上側(上方向)を基準位置(基準軸)としたときの時計方向の回転角度Bと、が含まれるが、力の方向及び操作方向は、共に回転角度Bによって検出できる。
また、ユーザが手首を意識的に操作しなければ、通常は指先がタッチパネル6に触れるときの方向と指先がタッチパネル6にかける力の方向は一致すると考えられる。図4は、ユーザがタッチパネル6に触れるときの状態を示す概念図である。例えば、タッチパネル6に対して垂直方向(真上から)ではなく、実線の矢印Cのように右の方から左上の方に向けて指先を動かしタッチパネル6に触れたとすると、左上の方向の力がタッチパネル6にかかると考えられる。つまり、指先9がタッチパネル6にかける力には、破線の矢印Dのように左方向へのベクトル成分が含まれていることになる。この逆に、ユーザが指先9で左の方向からタッチパネル6に触れた場合、指先9がタッチパネル6にかける力には、右方向へのベクトル成分が含まれていることになる。このことは、上下方向や他の方向からタッチパネル6に触れたときにも同様なことがいえる。
以上説明したように、指先がタッチパネル6に触れたときの角度が検出できると、指先がタッチパネル6にかける力の方向も検出できることになる。従って、検出部113は、タッチパネル6に触れる角度を検出する手段で実現してもよい。ただ、タッチパネル6にかける力の方向は、圧力計等のセンサ手段を用いて別途測定するようにしてもよい。
以上説明した指先がタッチパネル6に触れる角度及び指先がタッチパネル6にかける力の方向を踏まえて、以下、本実施の形態における動作について説明する。まず、本実施の形態における基本的な動作について説明する。
ユーザは、タッチパネル6に触れて操作を行うが、本実施の形態において特徴的なことは、タッチパネル6に指先のかかる力の方向が所定の特定方向である場合のみ指先による操作を受け付けるようにしたことである。例えば、受付制御部114には、ユーザが何らかの操作を行うために指先でタッチパネル6を触れたとき、その指先がタッチパネル6にかける力の方向が所定の特定方向として左向きの場合のみ操作を受け付けるように制御するように設定されているものとする。なお、受付制御部114は、受け付ける力の方向を適宜変更できるようになっている。このような設定条件の下、ユーザが右の方向からタッチパネル6に触れる場合、検出部113は、その指先がタッチパネル6にかける力の方向を左向きと検出する。これにより、受付制御部114は、その操作の力の方向は左の方向なので、その操作は有効な操作と判断して受け付ける。そして、受付制御部114は、検出部113が検出した力の方向が左向き以外の場合、その操作は無効な操作と判断して受け付けない。
なお、この例のように力の方向が左の方向と限定してもよいが、ユーザが厳密に右から左方向に指先を動かせるとは限らないので、許容範囲を持たせ、例えば上記のように指先がタッチパネル6にかける力の方向に左方向のベクトル成分が含まれていれば受け付けるようにしてもよい。ただ、説明の便宜上、以下の説明では、力の方向を上、下、左又は右の方向と限定的に説明することにする。なお、受付制御部114が受け付ける力の方向は、必ずしも一方向に限定する必要はなく、複数の力の方向を受け付けるように制御してもよい。
図5は、タッチパネル6に画像が表示されているときの表示画面の一例を示す図である。ここで用いるタッチパネル6は、複数のユーザによって同時に操作しうるような大画面で形成されているものとする。タッチパネル6(以下、「画面」ともいう)の前には、2人のユーザA,Bが立っている。ユーザAは、ユーザBの左側、すなわち画面の左寄りに立っている。従って、ユーザBは、ユーザAの右側、すなわち画面の右寄りに立っている。
例えば、ユーザA,Bが議論を行う際にタッチパネル6を利用しているとする。この場合、ユーザAはユーザBの方に身体を向け、ユーザBはユーザAの方に身体を向けてそれぞれ議論を行うことが想定しうる。従って、ユーザAがタッチパネル6を操作する場合、操作のために指先がタッチパネル6にかける力の方向は右の方向になると考えられる。より詳細には、右の方向のベクトル成分が含まれていると考えられる。同様に、ユーザBがタッチパネル6を操作する場合、操作のために指先がタッチパネル6にかける力の方向には、左の方向のベクトル成分が含まれていると考えられる。
ところで、複数のユーザが同時に利用可能なタッチパネル6を有する情報処理装置10では、画面全体を同一に取り扱うのではなく、複数の領域に分割し、受け付ける力の方向を領域毎に設定することによって操作の有効性を領域毎に判断するようにしてもよい。例えば、図5に例示するように、2人のユーザA,Bがタッチパネル6を利用する場合、各ユーザに対応させて画面の領域を左右に分割する。そして、画面左側(ユーザA)に対しては、右方向の力の方向の操作のみを受け付けるように設定する。一方、画面右側(ユーザB)に対しては、左方向の力の方向の操作のみを受け付けるように設定する。ユーザBの方を向いているユーザAは、操作のために指先がタッチパネル6にかける力の方向は右の方向になるため、上記ように受け付ける力の方向を設定すると、ユーザAが画面左側に対して操作する場合、その操作は受け付けられる。一方、ユーザAが画面右側に対して操作しようとしても、その操作の力の方向は右の方向であるため受け付けられない。ユーザBに対しても同様で、ユーザAの方を向いているユーザBは、操作のために指先がタッチパネル6にかける力の方向は左の方向になるため、上記のように受け付ける力の方向を設定すると、ユーザBが画面右側に対して操作する場合は受け付けられるものの、画面左側に対して行う操作は受け付けられない。
なお、本実施の形態では、タッチパネル6上における領域に対して受け付ける操作の力の方向を設定するようにしたが、例えばタッチパネル6に表示されている情報(画像、テキスト文字等)に対して受け付ける力の方向を設定するようにしてもよい。
ここでは、1つのタッチパネル6に対して複数のユーザが操作する場合を例にして説明した。つまり、複数の操作子(指先)を各ユーザに対応付けたが、一のユーザが複数の操作子、例えば右手の指先と左手の指先を操作子として使うようにしてもよい。また、上記説明では、ユーザに対応させて画面分割をしたが、画面を単に領域分割するのではなく、受け付ける力の方向を、表示する情報に対応させて設定するようにしてもよい。
また、上記説明では、ユーザ個々に操作する場合を例にして説明したが、例えば、複数のユーザA,Bが同時に正しい操作をした場合(各ユーザが所定の領域に対してそれぞれ所定の特定方向に合致する力の方向での操作をした場合)にのみ、ユーザA,Bによる操作を受け付けるように制御してもよい。
図6は、図5において、ユーザAが指先でタッチパネル6にかける力の方向が右となるように触れ、かつユーザBが指先でタッチパネル6にかける力の方向が左となるように触れた場合のタッチパネル6の表示例を示す図である。ここでいうタッチパネル6に触れるという行為は、選択操作に等しい。
ユーザAは、車両の画像に対して所定の力の方向で触れることで(すなわち、車両の画像の選択操作を行うことで)、車両に関連する情報がタッチパネル6に表示される。より詳細には、検出部113が検出したユーザAの指先がタッチパネル6にかける力の方向が設定通り右の方向の場合、受付制御部114は、その操作が有効と判断して受け付ける。制御部14は、受付制御部114が操作を受け付けると、その操作指示に従って情報取得部12に情報の取得を指示する。なお、ここでは、車両の画像には、選択されると当該車両に関する情報(図6に示す例では、人気ランキング)を取得する処理機能が対応付けられているので、制御部14は、その情報を取得するよう情報取得部12に指示する。情報取得部12は、制御部14からの指示に従い、当該車両に関連する情報を所定の格納先から取り出す。そして、UI部11における表示部111は、制御部14からの指示に従い、情報取得部12が取得した情報をタッチパネル6に表示する。同様に、検出部113が検出したユーザBの指先がタッチパネル6にかける力の方向が設定通り左の方向の場合、受付制御部114は、その操作が有効と判断して受け付ける。制御部14は、受付制御部114がユーザBによる操作を受け付けると、その操作指示に従って情報取得部12に情報の取得を指示する。なお、ここでは、店舗の画像には、選択されると当該店舗に関する情報(図6に示す例では、売上情報)を取得する処理機能が対応付けられているので、制御部14は、その情報を取得するよう情報取得部12に指示する。情報取得部12は、制御部14からの指示に従い、当該店舗に関連する情報を所定の格納先から取り出す。そして、UI部11における表示部111は、制御部14からの指示に従い、情報取得部12が取得した情報をタッチパネル6に表示する。
なお、上記説明においては、受付制御部114は、車両に対するユーザBによる操作の力の方向が設定されている力の方向と異なるため受け付けないように制御したが、受け付けないように制御せずに異なる動作制御を行うようにしてもよい。例えば、力の方向が右の方向の場合は、人気ランキングの情報を取得し表示するようにしたが、力の方向が左の方向の場合は、右の方向の場合と異なる情報、例えば車両の販売台数を取得し表示するようにしてもよい。このように、異なる力の方向による操作をそれぞれ受け付けるようにしてもよい。
図7は、情報処理装置10の異なる利用シーンを示す図である。図7には、タッチパネル6を左右に分割し、画面左側には問題を表示させ、画面右側には生徒の回答を表示させた例が示されている。ここでは、操作子としてペンを用いることを想定して説明する。そして、右側の分割画面には、ペンがタッチパネル6にかける力の方向が左の方向の場合、赤色で記入できるように機能が割り付けられ、力の方向が右の方向の場合、青色で記入できるように機能が割り付けられ、力の方向が上の方向の場合、表示内容を保存する機能が割り付けられているものとする。このように、ペンがタッチパネル6にかける力の方向によって操作の有効性を判断する。上記例では、左、右、上の力の方向を有効と判断する。かつ、力の方向によって異なる機能を割り付ける。
ここで、教師が回答を採点する場合、タッチパネル6にかかる力の方向が左の方向となるようペンを傾けてタッチパネル6に書き込むよう操作する。検出部113は、このペンがタッチパネル6にかける力の方向が左の方向であることを検出すると、受付制御部114は、その操作を受け付ける。そして、制御部14は、ペンがタッチパネル6をなぞった後を赤色で表示するよう制御する。なお、この教師の操作は、機能の選択操作であって、図6を用いて説明した画面上に表示されている画像の選択操作とは異なる。
教師が採点後にタッチパネル6にかかる力の方向が上の方向となるようペンを傾けてタッチパネル6に触れる。検出部113は、このペンがタッチパネル6にかける力の方向が上の方向であることを検出すると、受付制御部114は、その操作を受け付ける。そして、制御部14は、その操作に応じて採点した回答データを所定の格納先に保存する。このように、教師は、ペンの力の方向、すなわちペンでタッチパネル6の触れる方向(角度)を調整することで異なる機能を選択することができる。
ところで、ユーザは、操作子でタッチパネル6に触れるときの力の方向を意識的に操作することは可能である。しかしながら、上記採点時のように文字をタッチパネル6に記入する際に、ペンでタッチパネル6の触れる方向(角度)を常時維持できるとは限らない。上記例示したように、タッチパネル6に触れている位置(軌跡)を赤色で表示させるために、ペンでタッチパネル6にかける力の方向を左の方向にしたまま右の方向にペンを移動させることはできない。
そこで、検出部113は、ペンでタッチパネル6に触れたときの角度を検出するが、この角度をタッチパネル6に力のかかる方向(左の方向)とみなして記憶しておき、この角度が検出されている間はタッチパネル6に触れたときにかかる力の方向が維持されているものと判断する。つまり、受付制御部114は、操作子がタッチパネル6に接触する角度を、操作子がタッチパネル6にかける力の方向を示す情報とみなして、操作の有効性を判断してもよい。上記例に基づくと、教師は、回答の採点のために(赤色での記入のために)ペンがタッチパネル6にかける力の方向を左の方向にしてペンをタッチパネル6に接触させる。検出部113は、その力の方向、すなわちペンの角度を検出するが、制御部14は、その検出された角度が維持されている間、タッチパネル6上におけるペンの位置(軌跡)を赤色で表示するよう制御する。また、ペンの角度を常時維持したまま記入することが困難であるかもしれない。そこで、受付制御部114は、操作を受け付ける角度に許容範囲を設けてもよい。あるいは、赤色での記入が開始された後、ペン先がタッチパネル6から離れるまで、ペンの位置(軌跡)を赤色で表示するようにしてもよい。このように、ペンがタッチパネル6に触れた後の操作時における力の方向(操作子の角度)によって操作の有効性を判断してもよい。
また、図7における画面左側には、いかなる方向から力が加わっても操作を受け付けないように設定されている。すなわち、受付制御部114は、ペンがタッチパネル6にかける力がいかなる方向であっても受け付けないことになるが、これにより問題への書き込みが禁止できる。つまり、問題の改ざんを防止できる。
実施の形態2.
図8は、本実施の形態における情報処理装置10のタッチパネル6の表示画面の一例を示す図である。図8には、機能の制御対象とする機器として複合機の画像が表示されている。なお、図8における矢印及び機能を説明する文字は、説明の便宜を図るための情報とし、必ずしも画面に表示する必要はない。
図9は、本実施の形態における情報処理装置10のタッチパネル6の表示画面の他の例を示す図である。図9には、図8に示した複合機の画像に加えてロボットの画像が表示されている。
図10は、本実施の形態における機能制御情報をテーブル形式にて示す図である。図10に示す機能制御情報は、図8及び図9に示す複合機に対応して生成されている。機能制御情報には、「力の方向」に、「操作方向」及び「機能」が設定される。「力の方向」は、指先がタッチパネル6にかける力の方向である。力の方向は、実施の形態1において説明したように、例えば指先を右方向からタッチパネル6に触れると、指先がタッチパネル6にかける力の方向は左の方向となる。「操作方向」は、この力の方向を加えたときの指先の角度を維持した状態で指先を、タッチパネル6上を移動させたときの方向である。「機能」には、ユーザが当該力の方向(指先の角度)で当該操作方向による操作をタッチパネル6に表示されている画像に対して行った場合に実行される機能が設定される。なお、図10に例示したように、「機能」には、複合機が提供する機能とロボットが提供する機能とを連携させて一連の機能を実現する連携機能を設定してもよい。
図10に例示した機能制御情報を予め設定した上で、タッチパネル6上の表示画像をユーザに操作させ、受付制御部114がその操作を受け付けると、制御部14は、受付制御部114が受け付けた操作に応じて次のように実行する機能を制御する。上記実施の形態1においては、図5~7を用いて説明したように操作子がタッチパネル6にかける力の方向(指先の角度)及び操作子による操作方向によってユーザ操作の有効性を判断するようにしたが、本実施の形態においては、力の方向(指先の角度)及び操作子による操作方向に応じて実行する機能を制御するようにしたことを特徴としている。
例えば、図8において、ユーザが右の方向から指先でタッチパネル6上の複合機の画像に触れる。これにより、タッチパネル6の複合機の画像には、左の方向の力がかかる。なお、このときの指先は、通常右に傾いている。ユーザは、指先の角度を維持したまま指先を上の方向に移動させる。検出部113がこの力の方向(指先の角度)及び操作方向を検出すると、受付制御部114は、該当する操作が機能制御情報に設定されているので、この操作を受け付ける。そして、制御部14は、図10に示す機能制御情報を参照して、ユーザの操作はA4サイズの用紙への印刷指示であることを認識する。これにより、制御部14は、機能実行部13に指示することで、A4サイズへの印刷を複合機へ要求する。複合機は、情報処理装置10とハブ等の中継器を介して通信可能に接続されていることから機能実行部13からの指示を受け付け、実行することは可能である。なお、印刷対象とするファイルは、事前に指定されており、何らかの方法によって複合機が受信するものとする。
また、ユーザが右の方向から指先でタッチパネル6上の複合機の画像に触れ、その指先の角度を維持したまま指先を左の方向に移動させる。検出部113がこの力の方向(指先の角度)及び操作方向を検出すると、受付制御部114は、該当する操作が機能制御情報に設定されているので、この操作を受け付ける。そして、制御部14は、図10に示す機能制御情報を参照して、ユーザの操作は両面印刷の指示であることを認識する。これにより、制御部14は、機能実行部13に指示することで、両面印刷を複合機へ要求する。このように、力の方向(指先の角度)及び操作方向に応じて機能の実行を制御するようにしてもよい。換言すると、力の方向(指先の角度)と操作方向との組で機能が実行されるように制御機能情報に設定してもよい。
また、例えば、ユーザが左の方向から指先でタッチパネル6上の複合機の画像に触れると、タッチパネル6には、右の方向の力がかかる。ユーザは、左の方向に力をかけたときの指先の角度を維持したまま指先をいずれかの方向に移動させる。機能制御情報の設定例によると、ユーザがいずれの方向に動かそうとも右の方向の力がかかる指先の角度が維持されていれば、ステープル機能が実行される。このように、力の方向(指先の角度)に応じて機能の実行を制御するようにしてもよい。換言すると、力の方向(指先の角度)だけで機能が実行されるように制御機能情報に設定してもよい。
また、例えば、ユーザが下の方から指先でタッチパネル6上の複合機の画像に触れると、タッチパネル6には、上の方向の力がかかる。ユーザは、上の方向に力をかけたときの指先の角度を維持したまま指先を上の方向に移動させる。これにより、制御部14は、機能実行部13に指示することで、スキャンを複合機へ要求する。一方、ユーザは、上の方向に力をかけたときの指先の角度を維持したまま指先を左の方向に移動させる。機能制御情報の設定例によると、機能が設定されていない。すなわち、受付制御部114は、該当する操作が機能制御情報に設定されていないので、この操作を受け付けない。この結果、このユーザ操作では、何の機能も実行されない。このように、操作方向によっては、機能が実行されないように制御機能情報に設定してもよい。
また、図9に例示したように、タッチパネル6に複合機及びロボットの各画像が表示されている場合において、ユーザが下の方から指先でタッチパネル6上の複合機の画像に触れると、タッチパネル6には、上の方向の力がかかる。ユーザは、上の方向に力をかけたときの指先の角度を維持したまま指先をロボットの画像まで移動させる。このときの操作方向は、画面表示されているロボット画像とする。検出部113がこの力の方向(指先の角度)及び操作方向を検出すると、受付制御部114は、該当する操作が機能制御情報に設定されているので、この操作を受け付ける。そして、制御部14は、図10に示す機能制御情報を参照して、ユーザの操作はロボットとの連携機能1の指示であることを認識する。これにより、機能実行部13は、制御部14からの指示に従い、複合機及びロボットに対して、それぞれの機能を連携して実行することを指示する。つまり、複合機の画像とロボットの画像を繋ぐという同じユーザ操作でも、指先がかける力の方向(指先の角度)によって異なる機能を実行させることができる。
以上説明したように、本実施の形態においては、タッチパネル6に表示されている情報(画像)に対して、力の方向と操作方向との組により実行する機能を制御することができる。
本実施の形態においては、複合機の画像を例にして機能の実行制御を行う場合を例にして説明したが、例えば図11に示すように、アプリケーションの画像に紐付いた機能の実行制御に利用してもよい。また、連携機能に関しては、図9を用いて複合機及びロボットという異なる機器それぞれに紐付けた機能を連携して実行する場合を例にして説明したが、1台の機器が有する機能(例えば、複合機のスキャン機能と印刷機能)を連携させた連携機能の実行を制御するようにしてもよい。また、複合機及びロボットという異なる機器(ハードウェア)に紐付く機能を連携させずに、機器に紐付く機能とアプリケーション(ソフトウェア)に紐付く機能を連携させた連携機能の実行を制御するようにしてもよい。
また、上記説明では、一ユーザの指先(操作子)での操作に基づく機能の実行制御を例にして説明したが、複数の操作子(一ユーザが複数の操作子を使う場合と、複数のユーザが1又は複数の操作子を使う場合とを含む)を用いて行われた操作に応じて実行する機能を制御するようにしてもよい。複数の操作子による操作の場合、操作子それぞれに対応した機能の実行を制御するようにしてもよいし、複数の操作子の操作の組合せに対応した一の機能の実行を制御するようにしてもよい。
また、タッチパネル6上に表示されている複合機及びロボットという画像(情報)に応じて実行する機能を制御するようにしたが、タッチパネル6上における位置に応じて機能の実行を制御するようにしてもよい。例えば、画面左下の所定の位置(領域)に対するユーザ操作(タッチパネル6に触れる力の方向及び操作方向)に応じて、実行される機能を制御するようにしてもよい。
1 CPU、2 ROM、3 RAM、4 ストレージ、5 通信インタフェース(IF)、6 タッチパネル、7 入出力コントローラ、8 内部バス、10 情報処理装置、11 ユーザインタフェース(UI)部、12 情報取得部、13 機能実行部、14 制御部、111 表示部、112 操作部、113 検出部、114 受付制御部。

Claims (19)

  1. 表示部にかかる力の方向が所定の特定方向である場合のみユーザの操作を受け付ける受付手段を有し、
    前記受付手段は、前記力の方向に加え、ユーザの操作方向によってユーザの操作の有効性を判断することを特徴とする情報処理装置。
  2. 前記受付手段は、前記力の方向及び前記操作方向との組合せが所定の条件に合致する場合のみユーザの操作を受け付けることを特徴とする請求項に記載の情報処理装置。
  3. 前記受付手段は、前記表示部に対するユーザの操作位置によってユーザの操作の有効性を判断することを特徴とする請求項1に記載の情報処理装置。
  4. 前記受付手段は、ユーザにより前記表示部に複数の操作が行われる場合において、前記複数の操作それぞれの前記表示部にかかる力の方向がそれぞれ所定の特定方向である場合のみ前記複数の操作を受け付けることを特徴とする請求項1に記載の情報処理装置。
  5. 表示部にかかる力の方向が所定の特定方向である場合のみユーザの操作を受け付ける受付手段を有し、
    前記受付手段は、ユーザにより前記表示部に複数の操作が行われる場合において、前記複数の操作それぞれの前記表示部にかかる力の方向がそれぞれ所定の特定方向である場合のみ前記複数の操作を受け付け、
    前記所定の特定方向は、前記表示部を複数の領域に分割したときの領域毎に設定されることを特徴とする情報処理装置。
  6. 前記所定の特定方向は、前記表示部に表示されている情報に応じて設定されることを特徴とする請求項1又は5に記載の情報処理装置。
  7. 前記受付手段は、操作時における前記表示部に接触する角度によってユーザの操作の有効性を判断することを特徴とする請求項1に記載の情報処理装置。
  8. 前記受付手段が受け付けた操作に応じて実行する機能を制御する制御手段を有することを特徴とする請求項1に記載の情報処理装置。
  9. 前記制御手段は、受け付けられた操作において前記表示部にかかる力の方向に応じて機能の実行を制御することを特徴とする請求項に記載の情報処理装置。
  10. 前記制御手段は、前記力の方向及びユーザの操作方向に応じて機能の実行を制御することを特徴とする請求項に記載の情報処理装置。
  11. 前記制御手段は、前記表示部へのユーザによる複数の操作に応じて実行する機能を制御することを特徴とする請求項に記載の情報処理装置。
  12. 前記制御手段は、前記複数の操作それぞれに対応した機能の実行を制御することを特徴とする請求項11に記載の情報処理装置。
  13. 前記制御手段は、前記複数の操作に対応した機能の実行を制御することを特徴とする請求項11に記載の情報処理装置。
  14. 前記制御手段は、前記表示部に対する操作位置に応じて機能の実行を制御することを特徴とする請求項に記載の情報処理装置。
  15. 前記制御手段は、前記表示部に表示されている情報に応じて実行する機能を制御することを特徴とする請求項に記載の情報処理装置。
  16. 前記制御手段は、前記表示部に表示されている画像に対するユーザの操作方向に応じて実行する機能を制御することを特徴とする請求項に記載の情報処理装置。
  17. 前記機能は、各画像に対応する機器を利用した連携機能であることを特徴とする請求項16に記載の情報処理装置。
  18. コンピュータを、
    表示部にかかる力の方向が所定の特定方向である場合のみユーザの操作を受け付ける受付手段として機能させ
    前記受付手段は、前記力の方向に加え、ユーザの操作方向によってユーザの操作の有効性を判断することを特徴とするプログラム。
  19. コンピュータを、
    表示部にかかる力の方向が所定の特定方向である場合のみユーザの操作を受け付ける受付手段として機能させ、
    前記受付手段は、ユーザにより前記表示部に複数の操作が行われる場合において、前記複数の操作それぞれの前記表示部にかかる力の方向がそれぞれ所定の特定方向である場合のみ前記複数の操作を受け付け、
    前記所定の特定方向は、前記表示部を複数の領域に分割したときの領域毎に設定されることを特徴とするプログラム。
JP2018037041A 2018-03-02 2018-03-02 情報処理装置及びプログラム Active JP7130988B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018037041A JP7130988B2 (ja) 2018-03-02 2018-03-02 情報処理装置及びプログラム
US16/121,936 US10802591B2 (en) 2018-03-02 2018-09-05 Information processing device and non-transitory computer readable medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018037041A JP7130988B2 (ja) 2018-03-02 2018-03-02 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2019153021A JP2019153021A (ja) 2019-09-12
JP7130988B2 true JP7130988B2 (ja) 2022-09-06

Family

ID=67767669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018037041A Active JP7130988B2 (ja) 2018-03-02 2018-03-02 情報処理装置及びプログラム

Country Status (2)

Country Link
US (1) US10802591B2 (ja)
JP (1) JP7130988B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007331692A (ja) 2006-06-19 2007-12-27 Xanavi Informatics Corp 車載電子装置およびタッチパネル装置
US20120105358A1 (en) 2010-11-03 2012-05-03 Qualcomm Incorporated Force sensing touch screen
WO2013145804A1 (ja) 2012-03-28 2013-10-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2014219706A (ja) 2013-04-30 2014-11-20 コニカミノルタ株式会社 画像処理装置、携帯端末装置、リモート画面データの作成プログラム及び表示制御プログラム
US20160162098A1 (en) 2012-12-26 2016-06-09 Korea Electronics Technology Institute Method for providing user interface using multi-point touch and apparatus for same
WO2016189734A1 (ja) 2015-05-28 2016-12-01 三菱電機株式会社 タッチパネル制御装置及び車載情報機器
US20170220170A1 (en) 2016-01-29 2017-08-03 Hyundai Motor Company Three-Dimensional Touch Recognition Apparatus and Method
JP2018026683A (ja) 2016-08-09 2018-02-15 キヤノン株式会社 撮像装置、その制御方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090167702A1 (en) * 2008-01-02 2009-07-02 Nokia Corporation Pointing device detection
JP5373467B2 (ja) 2009-03-31 2013-12-18 アプリックスIpホールディングス株式会社 ユーザインターフェイス装置
JP5862271B2 (ja) 2010-12-29 2016-02-16 株式会社リコー ユーザインターフェイス装置、画像形成装置、ユーザインターフェイス制御方法およびプログラム
US9977499B2 (en) * 2012-05-09 2018-05-22 Apple Inc. Thresholds for determining feedback in computing devices
US10817172B2 (en) * 2015-03-27 2020-10-27 Intel Corporation Technologies for graphical user interface manipulations using multi-finger touch interactions
KR101745267B1 (ko) * 2016-06-07 2017-06-08 현대자동차주식회사 힘 기반 터치 인터페이스를 구비한 보안장치

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007331692A (ja) 2006-06-19 2007-12-27 Xanavi Informatics Corp 車載電子装置およびタッチパネル装置
US20120105358A1 (en) 2010-11-03 2012-05-03 Qualcomm Incorporated Force sensing touch screen
JP2013541795A (ja) 2010-11-03 2013-11-14 クアルコム,インコーポレイテッド 力をセンシングするタッチスクリーン
WO2013145804A1 (ja) 2012-03-28 2013-10-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20160162098A1 (en) 2012-12-26 2016-06-09 Korea Electronics Technology Institute Method for providing user interface using multi-point touch and apparatus for same
JP2014219706A (ja) 2013-04-30 2014-11-20 コニカミノルタ株式会社 画像処理装置、携帯端末装置、リモート画面データの作成プログラム及び表示制御プログラム
WO2016189734A1 (ja) 2015-05-28 2016-12-01 三菱電機株式会社 タッチパネル制御装置及び車載情報機器
US20170220170A1 (en) 2016-01-29 2017-08-03 Hyundai Motor Company Three-Dimensional Touch Recognition Apparatus and Method
JP2018026683A (ja) 2016-08-09 2018-02-15 キヤノン株式会社 撮像装置、その制御方法およびプログラム

Also Published As

Publication number Publication date
US10802591B2 (en) 2020-10-13
JP2019153021A (ja) 2019-09-12
US20190272033A1 (en) 2019-09-05

Similar Documents

Publication Publication Date Title
JP6233314B2 (ja) 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体
JP6009454B2 (ja) コンピューティング装置の動きを利用するコンピューティング装置と相互作用するときに発生する入力イベントの解釈の強化
JP5203797B2 (ja) 情報処理装置及び情報処理装置の表示情報編集方法
US9069386B2 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP6207240B2 (ja) 情報処理装置及びその制御方法
US9201503B2 (en) User interface device, image forming apparatus, user interface control method, and computer program product
US20120297336A1 (en) Computer system with touch screen and associated window resizing method
JP5389241B1 (ja) 電子機器および手書き文書処理方法
JP2012226520A (ja) 電子機器、表示方法及びプログラム
JP6142564B2 (ja) 情報表示装置および表示制御プログラム
JP5888423B2 (ja) 文字入力装置、文字入力方法、文字入力制御プログラム
WO2013121770A1 (en) Image processing apparatus, method for controlling the same, and storage medium
US9870142B2 (en) Displaying device which can receive pinch out operation
JP7130988B2 (ja) 情報処理装置及びプログラム
JP6428693B2 (ja) 表示操作装置及び操作指示受付プログラム
JP2016119019A (ja) 情報処理装置、情報処理方法、プログラム
JP6327834B2 (ja) 操作表示装置、操作表示方法及びプログラム
US10185490B2 (en) Information processing apparatus, information processing method, and storage medium
JP6283280B2 (ja) 電子書籍閲覧装置及び電子書籍閲覧方法
US10213687B2 (en) Information processing system, information processing method, information processing program, and computer-readable recording medium on which information processing program is stored
JP5963663B2 (ja) オブジェクト選択装置、方法およびプログラム
JP6455476B2 (ja) 表示操作装置及び操作指示受付プログラム
JP6818282B1 (ja) 処理制御プログラム、処理制御方法、および、処理制御装置
JP2018106480A (ja) 電子機器、その制御方法およびプログラム
JP6891645B2 (ja) 情報処理装置、表示制御方法及び表示制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7130988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150