JP2016110349A - Information processing device, control method therefor, and program - Google Patents

Information processing device, control method therefor, and program Download PDF

Info

Publication number
JP2016110349A
JP2016110349A JP2014246374A JP2014246374A JP2016110349A JP 2016110349 A JP2016110349 A JP 2016110349A JP 2014246374 A JP2014246374 A JP 2014246374A JP 2014246374 A JP2014246374 A JP 2014246374A JP 2016110349 A JP2016110349 A JP 2016110349A
Authority
JP
Japan
Prior art keywords
area
information
display
processing apparatus
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014246374A
Other languages
Japanese (ja)
Inventor
正則 田代
Masanori Tashiro
正則 田代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2014246374A priority Critical patent/JP2016110349A/en
Publication of JP2016110349A publication Critical patent/JP2016110349A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To properly display a hand contact area displayed on a touch panel in stead of consistently displaying.SOLUTION: An information processing device includes a touch panel capable of receiving touch operation from a user. The device displays a hand contact area which is an area where a hand touches the touch panel on a predetermined position when it is determined that input operation to a touch panel is stopped. The device makes the displayed hand contact area non-displayed, when it is determined that a hand contact area disappeared from the touch panel.SELECTED DRAWING: Figure 14

Description

タッチ操作による文字の入力が可能な情報処理装置、その制御方法、及びプログラムに関する。   The present invention relates to an information processing apparatus capable of inputting characters by a touch operation, a control method thereof, and a program.

従来、タッチパネルを備えタッチ操作でディスプレイ上のボタンなどを押下し操作をすることが可能な端末(以下、タブレット端末)がある。   2. Description of the Related Art Conventionally, there is a terminal (hereinafter referred to as a tablet terminal) that includes a touch panel and can be operated by pressing a button on a display by a touch operation.

タッチパネルに対するタッチ操作は1点だけではなくマルチタッチによる操作が可能であり、例えば人差し指や親指を用いるピンチインピンチアウト動作による拡大縮小が可能である。   The touch operation on the touch panel can be performed not only by one point but also by multi-touch, and for example, can be enlarged or reduced by a pinch-in / pinch-out operation using an index finger or thumb.

このようなタッチパネルを備える端末では、ユーザがタッチ操作をするとタッチした領域がユーザの指で隠れて見えなくなってしまう。   In a terminal having such a touch panel, when the user performs a touch operation, the touched area is hidden by the user's finger and cannot be seen.

そこで、下記の特許文献1に示すようにタッチ操作をすることにより隠れてしまう領域をタッチした領域とは異なる領域に表示をさせるという仕組みが開示されている。   Therefore, as shown in Patent Document 1 below, a mechanism is disclosed in which an area that is hidden by a touch operation is displayed in a different area from the touched area.

特開2010−181940号公報JP 2010-181940 A

ところで、上述したようなタッチパネルを備える端末において作文を行うということが、例えば学校などの教育施設で行われている。   By the way, writing in a terminal having a touch panel as described above is performed in an educational facility such as a school.

ユーザがペンを用いてタッチパネルに対してタッチ操作を行う。受け付けたタッチ操作の線をタブレット端末がタッチパネル上に描画することで、ユーザはあたかも紙に文字を書いているかのように、タブレット端末に文字を書くことができる。   A user performs a touch operation on the touch panel using a pen. When the tablet terminal draws the line of the accepted touch operation on the touch panel, the user can write characters on the tablet terminal as if they were writing on paper.

ユーザはペンを用いて筆記動作をする場合、手接触領域が生じる。手接触領域とは、ペン入力を行うためにタッチパネル上に手をつく領域である。ユーザが筆記動作をしている場合、ユーザは手接触領域の下に書かれている文字は手で隠れてしまい見ることができない。   When a user performs a writing operation using a pen, a hand contact area is generated. The hand contact area is an area where a hand is placed on the touch panel in order to perform pen input. When the user is performing a writing operation, the user cannot see the characters written under the hand contact area because they are hidden by the hand.

上述した特許文献1によれば、タッチパネル上のタッチされた領域(手接触領域)をタッチされた領域とは異なる領域に表示することが可能である。   According to Patent Document 1 described above, a touched area (hand contact area) on the touch panel can be displayed in a different area from the touched area.

しかしながら、上述した特許文献1では、手接触領域が手接触領域とは異なる領域に常に表示されることになり、ユーザの作業領域が減ってしまうという課題がある。   However, in Patent Document 1 described above, the hand contact area is always displayed in a different area from the hand contact area, and there is a problem that the work area of the user is reduced.

そこで本発明の目的は、タッチ操作が可能な表示部に接触している領域を適切に表示することの可能な仕組みを提供することである。   Accordingly, an object of the present invention is to provide a mechanism capable of appropriately displaying an area in contact with a display unit that can be touch-operated.

本発明の情報処理装置は、ユーザのタッチ操作による入力を受け付けることが可能な表示部を備える情報処理装置であって、前記表示部に接触している領域の情報を取得する領域情報取得手段と、前記表示部に対する入力が停止した場合に、前記領域情報取得手段で取得した前記領域の情報を、前記表示部に接触している領域とは異なる領域に表示するよう制御する表示制御手段とを備えることを特徴とする。   An information processing apparatus according to the present invention is an information processing apparatus including a display unit that can accept an input by a user's touch operation, and includes an area information acquisition unit that acquires information on an area in contact with the display unit. Display control means for controlling display of the area information acquired by the area information acquisition means in a different area from the area in contact with the display section when input to the display section is stopped. It is characterized by providing.

本発明によれば、タッチ操作が可能な表示部に接触している領域を適切に表示することを可能にする。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to display appropriately the area | region which is contacting the display part in which touch operation is possible.

本発明の情報処理装置100におけるハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions in the information processing apparatus 100 of this invention. 第1及び第2の実施形態の情報処理装置100における機能ブロック図である。It is a functional block diagram in information processor 100 of the 1st and 2nd embodiments. 本発明の第1の実施形態における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in the 1st Embodiment of this invention. 図3に示す部分画像表示処理の一例を示すフローチャートである。It is a flowchart which shows an example of the partial image display process shown in FIG. 本発明の第2の実施形態における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in the 2nd Embodiment of this invention. 手接触領域テーブル600の一例を示す図である。It is a figure which shows an example of the manual contact area | region table. タッチ座標テーブル700の一例を示す図である。5 is a diagram illustrating an example of a touch coordinate table 700. FIG. 部分画像テーブル800の一例を示す図である。5 is a diagram illustrating an example of a partial image table 800. FIG. 検知誤差情報テーブル900の一例を示す図である。It is a figure which shows an example of the detection error information table. 視線座標テーブル1000の一例を示す図である。It is a figure which shows an example of the gaze coordinate table 1000. FIG. 部分画像のイメージを示す部分画像イメージ1100である。A partial image 1100 showing an image of a partial image. 手接触領域のイメージを示す手接触領域イメージ1200である。It is the hand contact area image 1200 which shows the image of a hand contact area. ユーザが情報処理装置100に筆記を行うイメージである筆記イメージ1300である。A writing image 1300 is an image in which the user writes on the information processing apparatus 100. 部分画像が表示されるイメージを示す部分画像表示イメージ1400である。It is the partial image display image 1400 which shows the image in which a partial image is displayed. 情報処理装置100を横向きにして横書きを行うイメージである横書きイメージ1500である。This is a horizontal writing image 1500 that is an image for horizontal writing with the information processing apparatus 100 turned sideways. 本発明の第2の実施形態における視線の領域に応じて部分画像を表示する視線イメージ1600である。It is a line-of-sight image 1600 that displays a partial image according to the line-of-sight region in the second embodiment of the present invention. 図4のフローチャートで用いる分岐条件テーブル1700の一例である。It is an example of the branch condition table 1700 used with the flowchart of FIG.

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、情報処理装置100のハードウェア構成を示す図である。尚、図1に示すハードウェア構成はあくまで一例である。   FIG. 1 is a diagram illustrating a hardware configuration of the information processing apparatus 100. Note that the hardware configuration shown in FIG. 1 is merely an example.

情報処理装置100は、タッチパネルを備える装置である。本実施形態では、いわゆるスマートフォンやタブレット端末のような装置を想定して説明を行うが、特にこれに限らない。タッチパネルを備える装置であれば、パーソナルコンピュータであってもよい。   The information processing apparatus 100 is an apparatus that includes a touch panel. In the present embodiment, description will be made assuming a device such as a so-called smartphone or tablet terminal, but the present invention is not limited to this. A personal computer may be used as long as the device includes a touch panel.

CPU101は、システムバスを介してメモリやコントローラを統括的に制御する。ROM102あるいはフラッシュメモリ114には、CPU101の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステム200が記憶されている。更には、情報処理装置100が実行する機能を実現するために必要な、後述する各種プログラム等が記憶されている。   The CPU 101 comprehensively controls the memory and the controller via the system bus. The ROM 102 or the flash memory 114 stores a basic input / output system (BIOS) that is a control program of the CPU 101 and an operating system 200. Furthermore, various programs described below that are necessary for realizing the functions executed by the information processing apparatus 100 are stored.

RAM103は、CPU101の主メモリ、ワークエリア等として機能する。CPU101は、処理の実行に際して必要なプログラム等をRAM103にロードして、プログラムを実行することで各種動作を実現するものである。   The RAM 103 functions as a main memory, work area, and the like for the CPU 101. The CPU 101 implements various operations by loading a program or the like necessary for execution of processing into the RAM 103 and executing the program.

ディスプレイコントローラ104は、ディスプレイ110(表示部)等の表示装置への表示を制御する。ディスプレイ110は例えば液晶ディスプレイである。また、ディスプレイ110の表面にはタッチパネル111が備えられている。タッチパネル111に対するタッチ操作の検知をタッチパネルコントローラ105が制御する。タッチパネルコントローラ105は、タッチパネル111に対する複数の箇所に対するタッチ操作(以下、マルチタッチという。)も検知することが可能である。   The display controller 104 controls display on a display device such as the display 110 (display unit). The display 110 is a liquid crystal display, for example. A touch panel 111 is provided on the surface of the display 110. The touch panel controller 105 controls detection of a touch operation on the touch panel 111. The touch panel controller 105 can also detect touch operations (hereinafter referred to as multi-touch) on a plurality of locations on the touch panel 111.

カメラコントローラ106は、カメラ112(視線検出手段に相当する)における撮影を制御する。カメラ112はデジタルカメラであり、カメラコントローラ106からの制御で撮像した画像を撮像素子でデジタルデータに変換する。カメラ112は静止画と動画を撮影することが可能である。ユーザの顔と情報処理装置100との距離を取得するため2つのカメラ112を備えており、2つのカメラ112から取得する画像の視差により情報処理装置100からの距離を測ることができる。   The camera controller 106 controls photographing with the camera 112 (corresponding to the line-of-sight detection means). The camera 112 is a digital camera, and an image picked up by the control from the camera controller 106 is converted into digital data by the image pickup device. The camera 112 can capture still images and moving images. In order to acquire the distance between the user's face and the information processing apparatus 100, two cameras 112 are provided, and the distance from the information processing apparatus 100 can be measured based on the parallax of images acquired from the two cameras 112.

センサコントローラ107は、情報処理装置100が備える各種センサ113からの入力を制御する。情報処理装置100のセンサ113には様々なセンサが存在し、例えば方位センサ、加速度センサ等である。   The sensor controller 107 controls input from various sensors 113 included in the information processing apparatus 100. Various sensors exist in the sensor 113 of the information processing apparatus 100, such as an orientation sensor and an acceleration sensor.

ネットワークコントローラ108は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。   The network controller 108 is connected to and communicates with an external device via a network, and executes communication control processing on the network. For example, Internet communication using TCP / IP is possible.

フラッシュメモリコントローラ109は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するフラッシュメモリ114へのアクセスを制御する。本実施形態においては、フラッシュメモリとして説明を行うが、ハードディスクやフレキシブルディスク、或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の記憶媒体であってもよい。   The flash memory controller 109 controls access to the flash memory 114 that stores a boot program, browser software, various applications, font data, user files, editing files, various data, and the like. In this embodiment, the flash memory is described, but a storage medium such as a hard disk, a flexible disk, or a card-type memory connected to a PCMCIA card slot via an adapter may be used.

前述したCPU101、各メモリ、各コントローラは、1つのチップ115に統合されている。いわゆるSoC(System on Chip)の形態で情報処理装置100の内部に備えられている。   The CPU 101, each memory, and each controller described above are integrated into one chip 115. The information processing apparatus 100 is provided in the form of a so-called SoC (System on Chip).

尚、CPU101は、例えばRAM103内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ110での表示を可能としている。   For example, the CPU 101 can perform display on the display 110 by executing outline font rasterization processing on a display information area in the RAM 103.

本発明の情報処理装置100が後述する各種処理を実行するために用いられる各種プログラム等はフラッシュメモリ114に記録されており、必要に応じてRAM103にロードされることによりCPU101によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルはフラッシュメモリ114に格納されている。以上が、本実施形態におけるハードウェア構成である。   Various programs and the like used by the information processing apparatus 100 of the present invention to execute various processes described later are recorded in the flash memory 114, and are executed by the CPU 101 by being loaded into the RAM 103 as necessary. is there. Further, definition files and various information tables used by the program according to the present invention are stored in the flash memory 114. The above is the hardware configuration in the present embodiment.

図2は、本発明の第1の実施形態である情報処理装置100の機能ブロック図の一例を示す図である。   FIG. 2 is a diagram illustrating an example of a functional block diagram of the information processing apparatus 100 according to the first embodiment of the present invention.

情報処理装置100の機能部として、記憶部201、表示制御部202、及び操作検知部203を備えている。これらはオペレーティングシステム200において動作する機能部である。   As functional units of the information processing apparatus 100, a storage unit 201, a display control unit 202, and an operation detection unit 203 are provided. These are functional units that operate in the operating system 200.

記憶部201は、後述する各種テーブルの情報や各種画面、カメラ112で撮影することにより生成された画像データ等を構成する情報をRAM103やフラッシュメモリ114に記憶するための機能部である。必要に応じて、情報の追加・更新・削除を行う。また、後述するタッチペン入力アプリ210からの要求があった場合も同様に動作する。   The storage unit 201 is a functional unit for storing, in the RAM 103 and the flash memory 114, information constituting various tables described later, various screens, information constituting image data generated by photographing with the camera 112, and the like. Add, update, and delete information as necessary. The same operation is performed when there is a request from the touch pen input application 210 described later.

表示制御部202は、ディスプレイ110の表示を制御するための機能部である。表示制御部202から画面等の表示指示がなされると、ディスプレイコントローラ104を介してディスプレイ110に表示指示が送信される。そして、ディスプレイ110はこの指示を受信すると、指示に従って画面等を表示する。   The display control unit 202 is a functional unit for controlling display on the display 110. When a display instruction such as a screen is issued from the display control unit 202, the display instruction is transmitted to the display 110 via the display controller 104. Upon receiving this instruction, the display 110 displays a screen or the like according to the instruction.

操作検知部203は、タッチパネル111に対するタッチ操作を検知するための機能部である。タッチパネル111に対するタッチ操作の位置、タッチ操作された数等を検知することができる。また、タッチパネル111に対してタッチペンなどの棒状のもので筆記行為がされているのか等、タッチ操作の種別も検知することができる。具体的には、タッチペンによるタッチされた領域とタッチペンを持つ手の接触による手接触領域(手を握った時に小指から手首までの掌の側面に当たる部分)とを、タッチパネル111にタッチされた領域の大きさによって判断し、所定の範囲以下のタッチをタッチペンによるタッチとして受け付ける。   The operation detection unit 203 is a functional unit for detecting a touch operation on the touch panel 111. The position of the touch operation on the touch panel 111, the number of touch operations, and the like can be detected. In addition, it is possible to detect the type of touch operation such as whether a writing action is performed on the touch panel 111 with a stick-shaped object such as a touch pen. Specifically, an area touched by the touch pen and a hand contact area by a contact with the hand holding the touch pen (a part corresponding to the side of the palm from the little finger to the wrist when the hand is held) Judging by the size, a touch within a predetermined range is accepted as a touch with a touch pen.

また情報処理装置100は、オペレーティングシステム200において動作可能なタッチペン入力アプリ210がインストールされている。タッチペン入力アプリ210は、画像データ制御部211、表示制御指示部212、操作取得部213、手接触領域取得部214、表示場所特定部215、及び表示タイミング制御部216を備えている。   Further, the information processing apparatus 100 is installed with a touch pen input application 210 that can operate in the operating system 200. The touch pen input application 210 includes an image data control unit 211, a display control instruction unit 212, an operation acquisition unit 213, a hand contact area acquisition unit 214, a display location specifying unit 215, and a display timing control unit 216.

タッチペン入力アプリ210は、操作検知部203から操作取得部213に渡されたタッチ操作の内容に応じて、タッチパネル111へのタッチがタッチペンによるタッチ操作であれば軌跡を描画し、手接触領域であれば手接触領域に相当する領域の画像(部分画像)をコピーし、他の領域に表示する等を実行する。   The touch pen input application 210 draws a trajectory if the touch on the touch panel 111 is a touch operation by the touch pen according to the content of the touch operation passed from the operation detection unit 203 to the operation acquisition unit 213. For example, an image (partial image) of an area corresponding to the hand contact area is copied and displayed in another area.

画像データ制御部211は、記憶部201に記憶されている画像データに対して処理を実行するための機能部である。画像データとは、ユーザがタッチペンにより描画することで得られる画像データのことを示している。画像データ制御部211は、画像データの取得や保存を行うことができる。   The image data control unit 211 is a functional unit for executing processing on the image data stored in the storage unit 201. The image data indicates image data obtained by the user drawing with a touch pen. The image data control unit 211 can acquire and store image data.

表示制御指示部212は、タッチペン入力アプリ210で表示する画面等の表示を表示制御部202に指示するための機能部である。表示制御部202は、表示制御指示部212からの指示に応じた画面等をディスプレイ110に表示する。例えばタッチペンによるタッチ操作の軌跡を操作取得部213から取得し、軌跡を所定の色で描画する。こうすることで、ユーザがタッチペンによるタッチ操作により作文をタッチパネル上に行うことが可能である。タッチ操作が一定の領域以上である手接触領域であれば、表示画面のスクリーンショットから手接触領域に相当する領域を切り取り、他の領域に表示する等を実行する。   The display control instruction unit 212 is a functional unit for instructing the display control unit 202 to display a screen or the like displayed by the touch pen input application 210. The display control unit 202 displays a screen or the like according to an instruction from the display control instruction unit 212 on the display 110. For example, the locus of the touch operation with the touch pen is acquired from the operation acquisition unit 213, and the locus is drawn with a predetermined color. By doing so, it is possible for the user to perform composition on the touch panel by a touch operation with a touch pen. If the touch operation is a hand contact area that is greater than or equal to a certain area, an area corresponding to the hand contact area is cut from the screen shot of the display screen and displayed in another area.

操作取得部213は、操作検知部203で検知したタッチ操作の内容を取得するための機能部である。   The operation acquisition unit 213 is a functional unit for acquiring the content of the touch operation detected by the operation detection unit 203.

手接触領域取得部214は、タッチパネル111に対する手接触領域の情報を取得するための機能部である。   The hand contact area acquisition unit 214 is a functional unit for acquiring information on a hand contact area with respect to the touch panel 111.

表示場所特定部215は、手接触領域取得部214で取得した手接触領域の情報(部分画像)を表示する場所を特定する機能部である。具体的には、記憶部201に記憶された分岐条件テーブル1700に基づいて、部分画像を表示する位置を決定する。   The display location specifying unit 215 is a functional unit that specifies a location for displaying the information (partial image) of the hand contact area acquired by the hand contact area acquiring unit 214. Specifically, the position for displaying the partial image is determined based on the branch condition table 1700 stored in the storage unit 201.

表示タイミング制御部216は、タッチペンによる筆記動作が停止したことや、ユーザの視線が手接触領域に向いている場合など、手接触領域の情報を表示場所特定部215で特定した場所に表示させるタイミングを制御する機能部である。以上が、本実施形態における機能構成である。   The display timing control unit 216 displays the information of the hand contact area at the location specified by the display location specifying unit 215, such as when the writing operation by the touch pen is stopped or when the user's line of sight is facing the hand contact region. Is a functional unit for controlling The functional configuration in the present embodiment has been described above.

図3は、本発明の第1の実施形態である一連の処理の一例を示すフローチャートである。なお、各ステップで実行される処理は情報処理装置100のCPU101が動作することで実現されるものである。   FIG. 3 is a flowchart showing an example of a series of processes according to the first embodiment of the present invention. Note that the processing executed in each step is realized by the CPU 101 of the information processing apparatus 100 operating.

ステップS301では、情報処理装置100のCPU101は、タッチパネル111上にタッチペンの接触1302を検知したか否かを判定する。具体的には、タッチペンの接触1302の面積を事前に記憶しておき、1つの接触であってタッチペンの接触1302の面積の接触があった場合にタッチペンの接触1302を検知したと判定する。タッチパネル111上にタッチペンの接触1302を検知したと判定した場合に、処理をステップS302に進め、タッチパネル111上にタッチペンの接触1302を検知しないと判定された場合には、検知するまで待機する。   In step S <b> 301, the CPU 101 of the information processing apparatus 100 determines whether or not a touch pen contact 1302 has been detected on the touch panel 111. Specifically, the area of the touch pen contact 1302 is stored in advance, and it is determined that the touch pen contact 1302 has been detected when there is one touch and the area of the touch pen contact 1302. If it is determined that the touch pen contact 1302 has been detected on the touch panel 111, the process proceeds to step S302. If it is determined that the touch pen contact 1302 has not been detected on the touch panel 111, the process waits until it is detected.

ステップS302では、情報処理装置100のCPU101は、ステップS301で検知したタッチペンの軌跡をディスプレイ110に黒色で表示させる。軌跡の描画の色はこれに限定されない。例えば手接触領域のように、タッチペンの接触より大きい接触である場合には、軌跡を描画しない。これにより、手接触領域が接触したとしても描画されないという効果がある。   In step S302, the CPU 101 of the information processing apparatus 100 causes the display 110 to display the locus of the touch pen detected in step S301 in black. The color of the locus drawing is not limited to this. For example, when the contact is larger than that of the touch pen, such as a hand contact area, the locus is not drawn. Thereby, even if a hand contact area | region contacts, there exists an effect that it is not drawn.

ステップS303では、情報処理装置100のCPU101は、タッチパネル111上に手接触領域を検知したか否かを判定する。手接触領域とは、ユーザがタッチペンによる筆記動作を行う際にタッチペンの接触1302以外に手がタッチパネル111に接触する領域を示している。   In step S <b> 303, the CPU 101 of the information processing apparatus 100 determines whether a hand contact area has been detected on the touch panel 111. The hand contact area indicates an area where the hand touches the touch panel 111 in addition to the touch pen contact 1302 when the user performs a writing operation with the touch pen.

具体的な判定方法は、事前に所定の面積を記憶しておき、1つの領域であって所定の面積以上の領域がタッチパネル111上に接触した場合に手接触領域を検知したと判定する。タッチパネル111上に手接触領域を検知したと判定した場合に処理をステップS303に進め、手接触領域を検知しないと判定した場合には、手接触領域を検知するまで待機する。   A specific determination method stores a predetermined area in advance, and determines that a hand contact area is detected when an area that is one area and is larger than the predetermined area touches the touch panel 111. If it is determined that the hand contact area is detected on the touch panel 111, the process proceeds to step S303. If it is determined that the hand contact area is not detected, the process waits until the hand contact area is detected.

ステップS304では、情報処理装置100のCPU101は、ステップS301とステップS302で検知したタッチペンの接触した座標と手接触領域をそれぞれ取得する。取得した手接触領域の座標は図6に示す手接触領域テーブル600に格納する。手接触領域テーブル600は、第1のX座標601、第1のY座標602、第2のX座標603、第2のY座標604を備える。図12の手接触領域イメージ1200に示すように、第1のX座標601、第1のY座標602が示す点は、手接触領域1201の上端の辺と左端の辺の交点である。第2のX座標603、第2のY座標604が示す点は手接触領域1201の下端の辺と右端の辺の交点である。この2点が示す矩形が手接触領域に相当する領域である。一方、タッチペンの接触した座標は、図7に示すタッチ座標テーブル700に格納する。タッチ座標テーブル700には、ステップS301で検知したタッチペンの接触の座標のX座標701とY座標702が格納されている。   In step S304, the CPU 101 of the information processing apparatus 100 acquires the touched coordinates and the hand contact area detected by the touch pen detected in steps S301 and S302, respectively. The acquired coordinates of the hand contact area are stored in the hand contact area table 600 shown in FIG. The hand contact area table 600 includes a first X coordinate 601, a first Y coordinate 602, a second X coordinate 603, and a second Y coordinate 604. As shown in the hand contact area image 1200 of FIG. 12, the points indicated by the first X coordinate 601 and the first Y coordinate 602 are the intersections of the upper end side and the left end side of the hand contact area 1201. The point indicated by the second X coordinate 603 and the second Y coordinate 604 is an intersection of the lower end side and the right end side of the hand contact area 1201. The rectangle indicated by these two points is an area corresponding to the hand contact area. On the other hand, the coordinates touched by the touch pen are stored in a touch coordinate table 700 shown in FIG. The touch coordinate table 700 stores the X coordinate 701 and the Y coordinate 702 of the touch pen contact coordinates detected in step S301.

ステップS305では、情報処理装置100のCPU101は、タイマカウントを開始する。ここで、時間を測り始めることで、タッチペンが動いたか否かを後で判断することが可能になる。   In step S305, the CPU 101 of the information processing apparatus 100 starts a timer count. Here, by starting to measure time, it is possible to determine later whether or not the touch pen has moved.

ステップS306では、情報処理装置100のCPU101は、ステップS305でカウントを始めたタイマが所定時間経過したか否かを判定する。本実施例では、所定時間を1秒とするが、これに限定されない。タイマのカウントが1秒以上であると判定した場合には処理をステップS306に進め、タイマのカウントが1秒以下であると判定した場合にはタイマのカウントが1秒以上になるまで待機する。   In step S306, the CPU 101 of the information processing apparatus 100 determines whether or not a predetermined time has elapsed from the timer that started counting in step S305. In this embodiment, the predetermined time is 1 second, but is not limited to this. If it is determined that the timer count is 1 second or more, the process proceeds to step S306. If it is determined that the timer count is 1 second or less, the process waits until the timer count is 1 second or more.

ステップS307では、情報処理装置100のCPU101は、再びタッチペンの接触する座標を取得する。ここでタッチパネル111へのタッチペンの接触している座標を再度取得することにより、タイマカウントの間にタッチペンの接触1302が移動しているのか、または、タッチペンの接触した座標を取得することができず、タッチペンの接触1302がなくなっているのかを判断することができる。   In step S307, the CPU 101 of the information processing apparatus 100 acquires the coordinates with which the touch pen contacts again. Here, by acquiring again the coordinates at which the touch pen is in contact with the touch panel 111, the touch pen contact 1302 is moving during the timer count, or the coordinates at which the touch pen is in contact cannot be acquired. It can be determined whether or not the touch pen contact 1302 disappears.

ステップS308では、情報処理装置100のCPU101は、ステップS307で取得したタッチペンの座標とステップS304で取得したタッチペンの座標とを比較し、タイマでカウントしている間にタッチペンの接触した座標が変化しているか、または、ステップS307でタッチペンの接触した座標を取得できなかったかを判定する(判定手段に相当する)。タッチペンの座標が変化なし、または、タッチペンの接触1302がないと判定する場合は処理をステップS309に進める。タッチペンの接触1302があり、タッチペンの座標が変化ありと判定する場合は処理をステップS313に進める。   In step S308, the CPU 101 of the information processing apparatus 100 compares the coordinates of the touch pen acquired in step S307 with the coordinates of the touch pen acquired in step S304, and the coordinates touched by the touch pen change while counting by the timer. It is determined whether or not the coordinates touched by the touch pen could not be acquired in step S307 (corresponding to determination means). If it is determined that the coordinates of the touch pen are not changed or there is no touch pen contact 1302, the process proceeds to step S309. If it is determined that there is a touch pen contact 1302 and the coordinates of the touch pen are changed, the process proceeds to step S313.

タッチペンの座標が変化している場合、ユーザの筆記動作は停止しておらず順調に筆記を続けていると判断ができるが、タッチペンの座標の変化がない場合やタッチペンをタッチパネル111から離していながら手接触領域がある場合は、ユーザの筆記動作が停止しており、ユーザは何を書くべきか考えていると言える。そのため、タッチペンの座標の動きがない場合やタッチペンをタッチパネル111から離していながら手接触領域がある場合は、手接触領域に相当する部分画像を表示させることでユーザの参考とさせることができる。更に、常に部分画像を表示することなく、特定の場合にのみ表示させることでディスプレイ110の表示領域を節約することができる。   If the coordinates of the touch pen are changing, it can be determined that the user's writing operation is not stopped and the writing is continuing smoothly, but if there is no change in the coordinates of the touch pen or the touch pen is being separated from the touch panel 111 If there is a hand contact area, the user's writing operation has stopped, and it can be said that the user is thinking about what to write. Therefore, when there is no movement of the coordinates of the touch pen or when there is a hand contact area while the touch pen is being separated from the touch panel 111, it is possible to refer to the user by displaying a partial image corresponding to the hand contact area. Furthermore, the display area of the display 110 can be saved by displaying only in a specific case without always displaying a partial image.

ステップS309では、情報処理装置100のCPU101は、ディスプレイ110上の表示を画像データ(スクリーンショット)として取得する。取得した画像データは、RAM103上に記憶させる。   In step S309, the CPU 101 of the information processing apparatus 100 acquires the display on the display 110 as image data (screen shot). The acquired image data is stored on the RAM 103.

ステップS310では、情報処理装置100のCPU101は、ステップS309で取得したスクリーンショットから、手接触領域テーブル600が示す矩形の画像データ(部分画像・領域の情報に相当する)を切り出す(領域情報取得手段に相当する)。切り出した部分画像はフラッシュメモリ114に記憶し、記憶したファイルの位置と書誌情報を図8の部分画像テーブル800に格納する。部分画像テーブル800には部分画像を表示すべき位置の座標を示すX座標801、Y座標802と、部分画像の格納場所を示す格納場所803とを記憶している。X座標801とY座標802は、部分画像を表示すべき位置の座標であり、この座標を中心として部分画像が表示される(図11部分画像イメージ参照)。X座標801とY座標802の決定方法については、のちの表示位置決定処理で詳細に説明する。格納場所803は、部分画像の格納されている場所を示すものである。   In step S310, the CPU 101 of the information processing apparatus 100 cuts out rectangular image data (corresponding to partial image / region information) indicated by the hand contact region table 600 from the screen shot acquired in step S309 (region information acquisition unit). Equivalent to The cut partial image is stored in the flash memory 114, and the stored file position and bibliographic information are stored in the partial image table 800 of FIG. The partial image table 800 stores an X coordinate 801 and a Y coordinate 802 that indicate the coordinates of the position where the partial image is to be displayed, and a storage location 803 that indicates the storage location of the partial image. The X coordinate 801 and the Y coordinate 802 are the coordinates of the position where the partial image is to be displayed, and the partial image is displayed around this coordinate (see the partial image image in FIG. 11). The method for determining the X coordinate 801 and the Y coordinate 802 will be described in detail later in the display position determination process. A storage location 803 indicates a location where the partial image is stored.

本実施形態では、スクリーンショットから部分画像を切り出して取得したが、一例であってこれに限定されない。   In the present embodiment, the partial image is cut out and acquired from the screen shot, but this is an example and the present invention is not limited to this.

ステップS311では、情報処理装置100のCPU101は、ステップS310で切り取った部分画像に黒色の画素(情報)があるか否かを判定する(情報包含判定手段に相当する)。具体的にはRGBが(0,0,0)となる画素がある場合には処理をステップS312に進める。RGBが(0,0,0)となる画素がない場合には処理をステップS317に進める。   In step S311, the CPU 101 of the information processing apparatus 100 determines whether there is a black pixel (information) in the partial image cut out in step S310 (corresponding to an information inclusion determination unit). Specifically, if there is a pixel whose RGB is (0, 0, 0), the process proceeds to step S312. If there is no pixel whose RGB is (0, 0, 0), the process proceeds to step S317.

部分画像に黒色の画素がない場合、手接触領域には何も表示すべき情報がないと判断できるため、本実施形態では部分画像表示処理を行わない。これにより、ユーザの参考とならない部分画像を表示させないという効果がある。本実施形態では、手接触領域に表示すべき情報があるか否かを黒色の画素があるか否かによって判定を行ったが、他の色であってもよいし、白以外の色があるか否かの判定を行ってもよい。また、黒色が所定の割合以上か否かの判定を行ってもよい。   When there is no black pixel in the partial image, it can be determined that there is no information to be displayed in the hand contact area, and therefore the partial image display process is not performed in this embodiment. Thereby, there is an effect that a partial image which is not helpful to the user is not displayed. In this embodiment, whether or not there is information to be displayed in the hand contact area is determined by whether or not there is a black pixel. However, other colors may be used, and there may be colors other than white. Whether or not it may be determined. Moreover, you may determine whether black is more than a predetermined ratio.

ステップS312では、情報処理装置100のCPU101は、ステップS310で切り取った部分画像を表示する位置を決定し、表示させる処理である部分画像表示処理を行う。詳細な処理の説明は図4を用いて説明を行う。   In step S312, the CPU 101 of the information processing apparatus 100 determines a position for displaying the partial image cut in step S310 and performs a partial image display process that is a process for displaying the position. Detailed processing will be described with reference to FIG.

ステップS313では、情報処理装置100のCPU101は、タッチパネル111上の手接触領域が離れたか否かを判定する。手接触領域が離れたと判定された場合には処理をステップS314に進める。手接触領域が離れたと判定されない場合には、処理をステップS317に進める。   In step S313, the CPU 101 of the information processing apparatus 100 determines whether the hand contact area on the touch panel 111 has left. If it is determined that the hand contact area has left, the process proceeds to step S314. If it is not determined that the hand contact area has left, the process proceeds to step S317.

ステップS314では、情報処理装置100のCPU101は、ステップS313でタッチパネル111から離れたと判定された手接触領域の範囲(ステップS304で取得した手接触領域)に点線を表示する。例えば図15に示すイメージである。図15は点線イメージ1500であり、タッチパネル111から手接触領域が離れると表示される点線1501のイメージを表現するものである。このようにタッチパネル111から離れた手接触領域部分を点線で表示することにより、表示されている部分画像1502がどの部分から切り取られたものであるかを識別可能にするという効果がある。   In step S314, the CPU 101 of the information processing apparatus 100 displays a dotted line in the range of the hand contact area determined to be separated from the touch panel 111 in step S313 (the hand contact area acquired in step S304). For example, the image shown in FIG. FIG. 15 is a dotted line image 1500 that represents an image of a dotted line 1501 displayed when the hand contact area is separated from the touch panel 111. Thus, by displaying the hand contact area part away from the touch panel 111 with a dotted line, there is an effect that it is possible to identify from which part the displayed partial image 1502 is cut.

ステップS315では、情報処理装置100のCPU101は、所定時間待機する。本実施形態では1秒間とするが、これに限定されない。   In step S315, the CPU 101 of the information processing apparatus 100 waits for a predetermined time. In this embodiment, it is 1 second, but the present invention is not limited to this.

ステップS316では、情報処理装置100のCPU101は、点線1501と部分画像1502を非表示にするよう制御する。非表示にすることによりディスプレイ110の表示領域を適切に確保することができる。   In step S316, the CPU 101 of the information processing apparatus 100 controls to hide the dotted line 1501 and the partial image 1502. By not displaying, the display area of the display 110 can be appropriately secured.

ステップS317では、情報処理装置100のCPU101は、ユーザからタッチペン入力アプリ210の終了指示を受け付けたか否かを判定する。具体的には不図示の終了ボタンの押下を受け付けたか否かによって判定する。ユーザから終了指示を受け付けたと判定した場合は一連の処理を終了させ、ユーザから終了指示を受け付けなかったと判定された場合は、処理をステップS301に戻し、再びタッチペンによる入力を受け付ける。   In step S317, the CPU 101 of the information processing apparatus 100 determines whether an instruction to end the touch pen input application 210 has been received from the user. Specifically, the determination is made based on whether or not pressing of an end button (not shown) is accepted. If it is determined that an end instruction has been received from the user, the series of processes is terminated. If it is determined that an end instruction has not been received from the user, the process returns to step S301, and input from the touch pen is received again.

以上の一連の処理により、ユーザの筆記動作が停止した場合に適切なタイミングで部分画像を表示させることの可能な効果を奏する。   With the above series of processes, there is an effect that a partial image can be displayed at an appropriate timing when the user's writing operation is stopped.

図4は、本発明の第1の実施形態における表示位置決定処理の流れを示すフローチャートである。   FIG. 4 is a flowchart showing the flow of display position determination processing in the first embodiment of the present invention.

ステップS401では、情報処理装置100のCPU101は、情報処理装置100の姿勢状態を取得する。姿勢状態とは、センサ113により取得した情報処理装置100のディスプレイ110の表示向きであり、横向きか縦向きかの2種類である。   In step S <b> 401, the CPU 101 of the information processing apparatus 100 acquires the posture state of the information processing apparatus 100. The posture state refers to the display orientation of the display 110 of the information processing apparatus 100 acquired by the sensor 113, and there are two types, that is, landscape orientation or portrait orientation.

ステップS402では、情報処理装置100のCPU101は、ステップS401で取得した姿勢状態に基づいて、ユーザの書く文字の進行方向が縦書きか、横書きかを判定する。この姿勢状態は、ユーザが情報処理装置100を水平に載置する前の状況を記憶するものである。具体的には、ステップS401で取得した姿勢状態が横向きであれば横書きであると特定し、ステップS401で取得した姿勢状態が縦向きであれば縦書きであると特定する。縦書きか横書きかの判定は、情報処理装置100の姿勢状態によって判定したが、ユーザの筆記する文字の進行方向を特定することにより判定することも可能であり、これに限定されない。特定した文字の進行方向はRAM103に記憶しておく。   In step S402, the CPU 101 of the information processing apparatus 100 determines whether the progress direction of the character written by the user is vertical writing or horizontal writing based on the posture state acquired in step S401. This posture state stores a state before the user places the information processing apparatus 100 horizontally. Specifically, if the posture state acquired in step S401 is horizontal, it is specified as horizontal writing, and if the posture state acquired in step S401 is vertical, it is specified as vertical writing. Whether vertical writing or horizontal writing is determined based on the posture state of the information processing apparatus 100, but it is also possible to determine by specifying the traveling direction of the character written by the user, and the present invention is not limited to this. The traveling direction of the specified character is stored in the RAM 103.

ステップS403では、情報処理装置100のCPU101は、タッチペンの接触したX座標が、手接触領域のX座標より大きいか否かを判定する。より具体的には、タッチペンの接触したX座標701が、手接触領域テーブル600の第1のX座標601と第2のX座標603より大きいか否かを判定する。タッチペンの接触したX座標701が、手接触領域テーブル600の第1のX座標601と第2のX座標603より大きいと判定された場合は処理をステップS404に進め、タッチペンの接触したX座標701が、手接触領域テーブル600の第1のX座標601と第2のX座標603より小さいと判定された場合は処理をステップS405に進める。   In step S403, the CPU 101 of the information processing apparatus 100 determines whether or not the X coordinate touched by the touch pen is larger than the X coordinate of the hand contact area. More specifically, it is determined whether the X coordinate 701 touched by the touch pen is larger than the first X coordinate 601 and the second X coordinate 603 in the hand contact area table 600. If it is determined that the X coordinate 701 touched by the touch pen is larger than the first X coordinate 601 and the second X coordinate 603 of the hand contact area table 600, the process proceeds to step S404, and the X coordinate 701 touched by the touch pen is reached. However, if it is determined that it is smaller than the first X coordinate 601 and the second X coordinate 603 of the hand contact area table 600, the process proceeds to step S405.

右手による筆記動作であれば必ずタッチペンの接触したX座標701が、手接触領域テーブル600の第1のX座標601と第2のX座標603より小さいので、このように判定することで、右手による筆記動作か、左手による筆記動作かを判定することができる。   If the writing operation is performed with the right hand, the X coordinate 701 touched by the touch pen is always smaller than the first X coordinate 601 and the second X coordinate 603 in the hand contact area table 600. It can be determined whether the writing operation or the writing operation with the left hand.

ステップS404では、情報処理装置100のCPU101は、筆記動作を行う手が左手によるものであると特定する。特定した情報はRAM103に記憶しておく。   In step S404, the CPU 101 of the information processing apparatus 100 identifies that the hand performing the writing operation is with the left hand. The specified information is stored in the RAM 103.

ステップS405では、情報処理装置100のCPU101は、筆記動作を行うてが右手によるものであると特定する。特定した情報はRAM103に記憶しておく。   In step S405, the CPU 101 of the information processing apparatus 100 specifies that the writing operation is performed with the right hand. The specified information is stored in the RAM 103.

ステップS406では、情報処理装置100のCPU101は、フラッシュメモリ114に記憶されている分岐条件テーブル1700を読み込む。例えば図17に示す分岐条件テーブル1700である。分岐条件テーブル1700には文書の方向1701、手1702、表示位置1703、表示位置変更フラグ1704が格納されている。文書の方向1701は、文書の方向を示すものであり縦書きか横書きかのいずれかである。手1702はユーザの筆記動作を行う手を示しており、右手か左手かのいずれかである。表示位置1703は、部分画像を表示する位置を規定する座標値であり、タッチペンの接触したX座標701、Y座標702に加算することにより、部分画像を表示する位置を特定することが可能である。表示位置変更フラグ1704は、表示位置1703を加算する対象を、通常のタッチペンの接触したX座標701やY座標702ではなく、手接触領域テーブル600が示す2点の中点を起点とするよう規定するフラグである。具体的には中点は2点のX座標同士とY座標同士を足して、2で割ることにより求められる。例えば、図6の手接触領域テーブル600が示す2点の中点は、(575、575)である。中点のイメージは図11に示す部分画像イメージ1100である。   In step S <b> 406, the CPU 101 of the information processing apparatus 100 reads the branch condition table 1700 stored in the flash memory 114. For example, the branch condition table 1700 shown in FIG. The branch condition table 1700 stores a document direction 1701, a hand 1702, a display position 1703, and a display position change flag 1704. The document direction 1701 indicates the direction of the document, and is either vertical writing or horizontal writing. A hand 1702 indicates a hand performing a writing operation by the user, and is either a right hand or a left hand. The display position 1703 is a coordinate value that defines the position where the partial image is displayed, and by adding to the X coordinate 701 and the Y coordinate 702 touched by the touch pen, the position where the partial image is displayed can be specified. . The display position change flag 1704 specifies that the object to which the display position 1703 is added is not the X coordinate 701 or Y coordinate 702 touched by a normal touch pen but the middle point of the two points indicated by the hand contact area table 600. It is a flag to do. Specifically, the midpoint is obtained by adding two X coordinates and Y coordinates and dividing by two. For example, the midpoint between the two points indicated by the hand contact area table 600 in FIG. 6 is (575, 575). The image of the midpoint is a partial image 1100 shown in FIG.

ステップS407では、情報処理装置100のCPU101は、ステップS402で特定した縦書きか横書きかの情報と、ステップS404またはステップS405で特定した筆記動作の手に基づいて、ステップS406で読み込んだ分岐条件テーブル1700の表示位置1703と表示位置変更フラグ1704を取得する。例えば、ステップS402で縦書きと特定し、ステップS404で筆記動作が左手によるものであると特定した場合は、表示位置1703が「(−a,0)」、表示位置変更フラグ1704が「1」の値を取得する。   In step S407, the CPU 101 of the information processing apparatus 100 reads the branch condition table read in step S406 based on the vertical writing or horizontal writing information specified in step S402 and the hand of the writing operation specified in step S404 or step S405. A display position 1703 and a display position change flag 1704 of 1700 are acquired. For example, when the vertical writing is specified in step S402 and the writing operation is specified as a left hand in step S404, the display position 1703 is “(−a, 0)” and the display position change flag 1704 is “1”. Get the value of.

ステップS408では、情報処理装置100のCPU101は、ステップS407で取得した表示位置変更フラグ1704が、立っているか否かを判定する。ステップS407で取得した表示位置変更フラグ1704が立っていると判定した場合、処理をステップS409に進め、ステップS407で取得した表示位置変更フラグ1704が立っていないと判定した場合は処理をステップ410に進める。   In step S408, the CPU 101 of the information processing apparatus 100 determines whether the display position change flag 1704 acquired in step S407 is standing. If it is determined that the display position change flag 1704 acquired in step S407 is set, the process proceeds to step S409. If it is determined that the display position change flag 1704 acquired in step S407 is not set, the process proceeds to step 410. Proceed.

ステップS409では、情報処理装置100のCPU101は、表示位置変更フラグ1704が立っているので、手接触領域テーブル600が示す2点の中点を起点とし、当該中点にステップS407で取得した表示位置1703を加算することで部分画像の表示位置の座標を特定する。特定した部分画像の表示位置の座標は、部分画像テーブル800のX座標801とY座標802に格納する。   In step S409, since the display position change flag 1704 is set, the CPU 101 of the information processing apparatus 100 starts from the midpoint of the two points indicated by the hand contact area table 600, and the display position acquired in step S407 at the midpoint. By adding 1703, the coordinates of the display position of the partial image are specified. The coordinates of the display position of the specified partial image are stored in the X coordinate 801 and the Y coordinate 802 of the partial image table 800.

部分画像の表示位置の起点を、手接触領域の中心点とすることで、タッチペンの接触する座標を起点とした場合に生じる問題である、部分画像が手接触領域と重複してしまうという問題を解決する。更に、タッチペンの接触位置ではなく手接触領域からの位置関係を規定すべく表示位置1703を設定すればよいので、ユーザ毎に手の大きさが違っているような場合であっても適切な位置に部分画像を表示させることを可能にするという効果がある。   By setting the starting point of the display position of the partial image as the center point of the hand contact area, the problem that occurs when the coordinate touched by the touch pen is set as the starting point, the partial image overlaps with the hand contact area. Solve. Furthermore, since the display position 1703 may be set so as to define the positional relationship from the hand contact area rather than the touch pen contact position, an appropriate position can be obtained even when the hand size is different for each user. There is an effect that it is possible to display a partial image.

ステップS410では、情報処理装置100のCPU101は、タッチ座標テーブル700が示す座標にステップS407で取得した表示位置1703を加算することにより、部分画像を表示する位置を特定し、特定した表示位置を部分画像テーブル800のX座標801とY座標802に格納する。部分画像テーブル800のX座標801とY座標802が示す座標を部分画像の表示位置として特定する。   In step S410, the CPU 101 of the information processing apparatus 100 identifies the position where the partial image is displayed by adding the display position 1703 acquired in step S407 to the coordinates indicated by the touch coordinate table 700, and sets the identified display position as the partial display position. Stored in the X coordinate 801 and Y coordinate 802 of the image table 800. The coordinates indicated by the X coordinate 801 and the Y coordinate 802 of the partial image table 800 are specified as the display position of the partial image.

ステップS411では、情報処理装置100のCPU101は、ステップS409またはステップS410で特定された表示位置である、部分画像テーブル800の座標に格納場所803の部分画像を表示させる(表示制御手段に相当する)。部分画像1401を表示するイメージは図14に示す部分画像表示イメージ1400である。部分画像1401を表示していないときは、図13の筆記イメージ1300に示すように部分画像1401が表示されない状態である。   In step S411, the CPU 101 of the information processing apparatus 100 displays the partial image of the storage location 803 at the coordinates of the partial image table 800, which is the display position specified in step S409 or step S410 (corresponding to display control means). . An image for displaying the partial image 1401 is a partial image display image 1400 shown in FIG. When the partial image 1401 is not displayed, the partial image 1401 is not displayed as shown in the handwritten image 1300 of FIG.

以上により、部分画像表示処理の説明を終了する。   This is the end of the description of the partial image display process.

図5は、本発明の第2の実施形態における一連の処理の一例を示すフローチャートである。第1の実施形態では、ユーザからのタッチペンによる筆記動作がなくなったことをトリガーとして部分画像を表示する位置を特定し、部分画像を表示した。第2の実施形態では、ユーザからの視線を検出することにより、部分画像を表示するタイミングを決定する。表示位置決定処理は第1の実施形態と同様であるので説明を省略する。更に、第1の実施形態におけるフローチャートのステップS301乃至ステップS304とステップS309乃至ステップS317に対応する、ステップS501乃至ステップS504とステップS507乃至ステップS515の処理は第1の実施形態と同様であるので説明を省略する。   FIG. 5 is a flowchart showing an example of a series of processes in the second embodiment of the present invention. In the first embodiment, the position where the partial image is displayed is specified by using the writing operation with the touch pen from the user as a trigger, and the partial image is displayed. In 2nd Embodiment, the timing which displays a partial image is determined by detecting the eyes | visual_axis from a user. Since the display position determination process is the same as that in the first embodiment, a description thereof will be omitted. Furthermore, the processing of steps S501 to S504 and steps S507 to S515 corresponding to steps S301 to S304 and steps S309 to S317 of the flowchart in the first embodiment is the same as that of the first embodiment, and thus will be described. Is omitted.

ステップS505では、情報処理装置100のCPU101は、ユーザの視線の座標値を取得する(視線領域特定手段に相当する)。より具体的には、まず2つのカメラ112よりユーザの目の距離を特定する。距離の特定方法は、2つのカメラ112より得られる画像同士の差に基づいて特定する方法を用いるものとする。ユーザの2つの眼球の向きと、ユーザの目の距離によって、ユーザの視線の座標値を取得することができる。取得したユーザの視線の座標値は、図10に示す視線座標テーブル1000に記憶しておく。   In step S505, the CPU 101 of the information processing apparatus 100 acquires coordinate values of the user's line of sight (corresponding to line-of-sight area specifying means). More specifically, first, the distance of the user's eyes is specified from the two cameras 112. As a distance specifying method, a method of specifying based on a difference between images obtained from two cameras 112 is used. The coordinate value of the user's line of sight can be acquired based on the direction of the two eyes of the user and the distance between the eyes of the user. The acquired coordinate values of the user's line of sight are stored in the line-of-sight coordinate table 1000 shown in FIG.

ステップS506では、情報処理装置100のCPU101は、ステップS505で取得したユーザの視線の座標値が、手接触領域テーブル600が示す矩形内にあるか否かを判定する(判定手段に相当する)。ステップS505で取得したユーザの視線の座標値は精度がよくないため、座標値の誤差の範囲を設定する。例えば図9に示す検知誤差情報テーブル900である。検知誤差情報テーブル900はX座標誤差範囲901、Y座標誤差範囲902を格納する。X座標誤差範囲901はX座標の誤差の範囲を規定し、Y座標誤差範囲902はY座標の誤差の範囲を規定する。この範囲内のずれであれば、手接触領域テーブル600が示す矩形内に、ステップS505で取得した視線の座標がなかった場合でも、手接触領域テーブル600が示す矩形内にあると判定する。ステップS505で取得したユーザの視線の座標値が、手接触領域テーブル600が示す矩形内にあると判定した場合は処理をステップS507に進め、ステップS505で取得したユーザの視線の座標値が、手接触領域テーブル600が示す矩形内にないと判定された場合は処理をステップS511に進める。   In step S506, the CPU 101 of the information processing apparatus 100 determines whether or not the coordinate value of the user's line of sight acquired in step S505 is within the rectangle indicated by the hand contact area table 600 (corresponding to a determination unit). Since the coordinate value of the user's line of sight acquired in step S505 is not accurate, a coordinate value error range is set. For example, the detection error information table 900 shown in FIG. The detection error information table 900 stores an X coordinate error range 901 and a Y coordinate error range 902. The X coordinate error range 901 defines the X coordinate error range, and the Y coordinate error range 902 defines the Y coordinate error range. If the deviation is within this range, even if the coordinates of the line of sight acquired in step S505 are not present in the rectangle indicated by the hand contact area table 600, the hand contact area table 600 is determined to be within the rectangle indicated by the hand contact area table 600. If it is determined that the coordinate value of the user's line of sight acquired in step S505 is within the rectangle indicated by the hand contact area table 600, the process proceeds to step S507, and the coordinate value of the user's line of sight acquired in step S505 is If it is determined that it is not within the rectangle indicated by the contact area table 600, the process proceeds to step S511.

以上の処理により、第2の実施形態ではユーザの動作(筆記動作)が停止したと判断する1方法として、視線の検出による判断を行った。これにより、ユーザの手接触領域を適切なタイミングで表示させることを可能にする。例えば図16に示す視線イメージ1600における部分画像1603の表示である。   With the above processing, in the second embodiment, the determination based on the detection of the line of sight is performed as one method for determining that the user's operation (writing operation) has stopped. This makes it possible to display the user's hand contact area at an appropriate timing. For example, it is a display of a partial image 1603 in the line-of-sight image 1600 shown in FIG.

以上説明したように、本発明によれば、タッチ操作が可能な表示部に接触している領域を適切に表示することを可能にする。   As described above, according to the present invention, it is possible to appropriately display an area in contact with a display unit that can be touched.

本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   The present invention can be implemented as a system, apparatus, method, program, storage medium, or the like, and can be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   Note that the present invention includes a software program that implements the functions of the above-described embodiments directly or remotely from a system or apparatus. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   Note that the above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100 情報処理装置
101 CPU
102 ROM
103 RAM
104 ディスプレイコントローラ
105 タッチパネルコントローラ
106 カメラコントローラ
107 センサコントローラ
108 ネットワークコントローラ
109 フラッシュメモリコントローラ
110 ディスプレイ
111 タッチパネル
112 カメラ
113 センサ
114 フラッシュメモリ
100 Information processing apparatus 101 CPU
102 ROM
103 RAM
104 Display controller 105 Touch panel controller 106 Camera controller 107 Sensor controller 108 Network controller 109 Flash memory controller 110 Display 111 Touch panel 112 Camera 113 Sensor 114 Flash memory

Claims (12)

ユーザのタッチ操作による入力を受け付けることが可能な表示部を備える情報処理装置であって、
前記表示部に接触している領域の情報を取得する領域情報取得手段と、
前記表示部に対する入力が停止した場合に、前記領域情報取得手段で取得した前記領域の情報を、前記表示部に接触している領域とは異なる領域に表示するよう制御する表示制御手段と
を備えることを特徴とする情報処理装置。
An information processing apparatus including a display unit capable of receiving input by a user's touch operation,
Area information acquisition means for acquiring information of an area in contact with the display unit;
Display control means for controlling to display information on the area acquired by the area information acquisition means in an area different from the area in contact with the display section when input to the display section is stopped. An information processing apparatus characterized by that.
前記表示部に対する入力が停止したか否かを判定する判定手段を更に備え、
前記表示制御手段は、前記判定手段で前記入力が停止したと判定した場合に、前記領域情報取得手段で取得した領域の情報を、当該領域とは異なる領域に表示するよう制御すること
を特徴とする請求項1に記載の情報処理装置。
A determination unit for determining whether or not input to the display unit is stopped;
The display control means controls the display of the area information acquired by the area information acquisition means in a different area from the area when the determination means determines that the input is stopped. The information processing apparatus according to claim 1.
前記判定手段は、前記表示部に接触している領域が所定の領域より大きいか否かを更に判定し、
前記表示制御手段は、前記判定手段が前記表示部に接触している領域が所定の領域より大きいと判定した場合に、当該領域の情報を表示すること
を特徴とする請求項2に記載の情報処理装置。
The determination means further determines whether or not an area in contact with the display unit is larger than a predetermined area,
The information according to claim 2, wherein the display control means displays information on the area when the determination means determines that the area in contact with the display unit is larger than a predetermined area. Processing equipment.
前記判定手段は、タッチ操作による入力を所定時間受け付けなかった場合に前記入力の停止をしたと判定すること
を特徴とする請求項2または3のいずれか1項に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the determination unit determines that the input is stopped when an input by a touch operation is not received for a predetermined time.
ユーザからの視線を検出する視線検出手段と、
前記視線検出手段で検出した視線が、表示部上のどの領域を指しているかを特定する視線領域特定手段と
を更に備え、
前記判定手段は、前記表示部に接触している領域に、前記視線領域特定手段で特定した領域が含まれるか否かを更に判定し、
前記判定手段で、前記表示部に接触している領域に、前記視線領域特定手段で特定した領域が含まれると判定された場合に、前記表示制御手段は、前記領域情報取得手段で取得した前記領域の情報を、当該領域とは異なる領域に表示すること
を特徴とする請求項2乃至4のいずれか1項に記載の情報処理装置。
Gaze detection means for detecting gaze from the user;
A line-of-sight area specifying means for specifying which area on the display unit the line of sight detected by the line-of-sight detection means further comprises:
The determining means further determines whether or not the area that is in contact with the display unit includes the area specified by the line-of-sight area specifying means,
When it is determined by the determination unit that the region specified by the line-of-sight region specifying unit is included in the region in contact with the display unit, the display control unit acquires the region information acquisition unit The information processing apparatus according to claim 2, wherein the information on the area is displayed in an area different from the area.
前記表示制御手段は、ユーザが既に入力を行った領域ではない領域に、前記領域情報取得手段で取得した領域の情報を表示すること
を特徴とする請求項2乃至5のいずれか1項に記載の情報処理装置。
The display control means displays information on the area acquired by the area information acquisition means in an area that is not already input by the user. Information processing device.
前記判定手段は、ユーザによる入力の方向を更に判定し、
前記表示制御手段は、前記判定手段が特定した前記入力の方向に基づいて表示する位置を決定し、前記領域情報取得手段で取得した領域の情報を表示すること
を特徴とする請求項2乃至6のいずれか1項に記載の情報処理装置。
The determination means further determines the direction of input by the user,
The display control means determines a display position based on the direction of the input specified by the determination means, and displays area information acquired by the area information acquisition means. The information processing apparatus according to any one of the above.
前記表示部に接触している領域に情報が含まれているか否かを判定する情報包含判定手段を更に備え、
前記情報包含判定手段が前記表示部に接触している領域に情報が含まれていると判定した場合に、前記表示制御手段は、前記領域情報取得手段で取得した前記領域の情報を、前記表示部に接触している領域とは異なる領域に表示するよう制御すること
を特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
Further comprising information inclusion determination means for determining whether information is included in an area in contact with the display unit;
When the information inclusion determination unit determines that information is included in the region in contact with the display unit, the display control unit displays the information on the region acquired by the region information acquisition unit. The information processing apparatus according to claim 1, wherein display is performed in a region different from a region in contact with the unit.
前記判定手段は、前記領域情報取得手段で取得した情報が前記表示部に接触している領域のうち一定の割合を満たしているか否かを更に判定し、
前記判定手段が前記領域情報取得手段で取得した情報が前記表示部に接触している領域のうち一定の割合を満たしていると判定した場合に、前記表示制御手段は、前記領域情報取得手段で取得した前記領域の情報を、前記表示部に接触している領域とは異なる領域に表示するよう制御すること
を特徴とする請求項2乃至8のいずれか1項に記載の情報処理装置。
The determination unit further determines whether or not the information acquired by the region information acquisition unit satisfies a certain ratio of the region in contact with the display unit,
When the determination means determines that the information acquired by the area information acquisition means satisfies a certain percentage of the area in contact with the display unit, the display control means is the area information acquisition means. The information processing apparatus according to any one of claims 2 to 8, wherein the acquired information on the area is controlled to be displayed in an area different from an area in contact with the display unit.
前記表示制御手段は、前記表示部に接触している領域をコピーすることによって、当該領域とは異なる領域に前記領域情報取得手段で取得した情報を表示することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。   The said display control means displays the information acquired by the said area | region information acquisition means in the area | region different from the said area | region by copying the area | region which is in contact with the said display part. The information processing apparatus according to any one of the above. ユーザのタッチ操作による入力を受け付けることが可能な表示部を備える情報処理装置の制御方法であって、
前記情報処理装置の領域情報取得手段が、前記表示部に接触している領域の情報を取得する領域情報取得工程と、
前記情報処理装置の表示制御手段が、前記表示部に対する入力が停止した場合に、前記領域情報取得工程で取得した前記領域の情報を、前記表示部に接触している領域とは異なる領域に表示するよう制御する表示制御工程と
を備えることを特徴とする情報処理装置の制御方法。
A control method for an information processing apparatus including a display unit capable of receiving input by a user's touch operation,
A region information acquisition step in which the region information acquisition means of the information processing apparatus acquires information of a region in contact with the display unit;
When the input to the display unit is stopped, the display control unit of the information processing apparatus displays the information on the area acquired in the area information acquisition step in a different area from the area in contact with the display unit. And a display control process for controlling the information processing apparatus.
ユーザのタッチ操作による入力を受け付けることが可能な表示部を備える情報処理装置の制御方法をコンピュータに実行させることの可能なプログラムであって、
前記情報処理装置を、
前記表示部に接触している領域の情報を取得する領域情報取得手段と、
前記表示部に対する入力が停止した場合に、前記領域情報取得手段で取得した前記領域の情報を、前記表示部に接触している領域とは異なる領域に表示するよう制御する表示制御手段
として機能させることを特徴とするプログラム。
A program capable of causing a computer to execute a control method of an information processing apparatus including a display unit capable of receiving an input by a user's touch operation,
The information processing apparatus;
Area information acquisition means for acquiring information of an area in contact with the display unit;
When the input to the display unit is stopped, the information on the area acquired by the area information acquiring unit is caused to function as a display control unit that controls to display in a region different from the region in contact with the display unit. A program characterized by that.
JP2014246374A 2014-12-05 2014-12-05 Information processing device, control method therefor, and program Pending JP2016110349A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014246374A JP2016110349A (en) 2014-12-05 2014-12-05 Information processing device, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014246374A JP2016110349A (en) 2014-12-05 2014-12-05 Information processing device, control method therefor, and program

Publications (1)

Publication Number Publication Date
JP2016110349A true JP2016110349A (en) 2016-06-20

Family

ID=56122273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014246374A Pending JP2016110349A (en) 2014-12-05 2014-12-05 Information processing device, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP2016110349A (en)

Similar Documents

Publication Publication Date Title
CN108876934B (en) Key point marking method, device and system and storage medium
US20140129990A1 (en) Interactive input system having a 3d input space
JP5916037B2 (en) Information processing apparatus, information processing method, program, and information storage medium
US10013156B2 (en) Information processing apparatus, information processing method, and computer-readable recording medium
US9880721B2 (en) Information processing device, non-transitory computer-readable recording medium storing an information processing program, and information processing method
US10140002B2 (en) Information processing apparatus, information processing method, and program
US10949668B2 (en) Electronic apparatus and method for controlling thereof
US10176556B2 (en) Display control apparatus, display control method, and non-transitory computer readable medium
TW201604719A (en) Method and apparatus of controlling a smart device
EP2712433B1 (en) User interface for drawing with electronic devices
JP2016119019A (en) Information processing apparatus, information processing method, and program
JP2016110349A (en) Information processing device, control method therefor, and program
JPWO2016157418A1 (en) Display control apparatus, display control method, display control program, and recording medium
JP6843564B2 (en) Display control device, its control method and program
JP2015007844A (en) User interface device, user interface method, and program
US11531431B2 (en) Information processing device and information processing method
US10678346B2 (en) Method for interacting a pointing device with a target point arranged on a projection screen of a virtual desktop and pointing device therefore
JP2013131066A (en) Display system and display program
JP6493099B2 (en) Display system, control method, and program
KR102076561B1 (en) Electronic device for controlling a plurality of images included in electronic document and operating method thereof
JP6459358B2 (en) Information processing apparatus, control method, and program
JP2016115341A (en) Information processing device, control method therefor, and program
JP6312044B2 (en) Information display control device and program
JP2016157392A (en) Information processing apparatus, information processing method, and program
JP5475163B2 (en) Data acquisition device, data acquisition system, data acquisition device control method, and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101