JP2013206350A - Information processor, and method for correcting input place in the information processor - Google Patents

Information processor, and method for correcting input place in the information processor Download PDF

Info

Publication number
JP2013206350A
JP2013206350A JP2012077282A JP2012077282A JP2013206350A JP 2013206350 A JP2013206350 A JP 2013206350A JP 2012077282 A JP2012077282 A JP 2012077282A JP 2012077282 A JP2012077282 A JP 2012077282A JP 2013206350 A JP2013206350 A JP 2013206350A
Authority
JP
Japan
Prior art keywords
shadow
contact area
touch panel
area
extension direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012077282A
Other languages
Japanese (ja)
Inventor
Masafumi Tsuboi
雅史 壷井
Harumi Kobayashi
ハルミ 小林
Mitsuru Dobashi
充 土橋
Haruna Terai
はるな 寺井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2012077282A priority Critical patent/JP2013206350A/en
Publication of JP2013206350A publication Critical patent/JP2013206350A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processor for enabling an intuitive operation input by making a place designated by an operation body coincide with a place that a user actually wants to designate.SOLUTION: An information processor 10 being a device that can receive an operation input by a finger F to a touch panel 12a includes a contact area extraction part 22 for extracting a contact area TA by the finger F to the touch panel 12a, a shadow area extraction part 24 for extracting an area connecting to the contact area TA extracted by the contact area extraction part 22 and being a shadow area SA formed on the touch panel 12a by the finger F, an extension direction calculation part 26 for calculating an extension direction of the shadow area SA extracted by the shadow area extraction part 24 with the contact area TA extracted by the contact area extraction part 22 as reference, and an input place correction part 28 for correcting an end point AP of the shadow area SA in a direction opposite from the extension direction calculated by the extension direction calculation part 26 as an input place by the finger F.

Description

本発明は、情報処理装置及び当該情報処理装置における入力箇所の補正方法に関する。   The present invention relates to an information processing apparatus and an input location correction method in the information processing apparatus.

ディスプレイ上にタッチパネルが重ねられて指などの操作体で所定の操作入力を行うことができる情報処理装置が知られている(例えば特許文献1)。このような情報処理装置ではタッチパネルを介して所定の操作入力を行うことが可能であるが、ディスプレイ上の表示位置とそれに対応するタッチパネルでの入力箇所とが重なってしまい視認性が損なわれることがあった。そこで、ディスプレイの表示位置を変更調整するなどして、適切な画面配置を行うことができる各種技術が検討されている(例えば特許文献2参照)。   There is known an information processing apparatus in which a touch panel is superimposed on a display and a predetermined operation input can be performed with an operation body such as a finger (for example, Patent Document 1). In such an information processing apparatus, it is possible to perform a predetermined operation input via the touch panel, but the display position on the display and the input position on the touch panel corresponding to the display position may overlap, and visibility may be impaired. there were. Therefore, various techniques that can perform appropriate screen layout by changing and adjusting the display position of the display have been studied (for example, see Patent Document 2).

特開2010−182071号公報JP 2010-182071 A 特開平09−044292号公報JP 09-042992 A

ところで、従来の技術は、あくまでも指等の操作体が実際にタッチパネルに接触する位置を入力箇所として入力処理を行うことが前提であった。このため、例えば、かかる情報処理装置でお絵かきソフトなどを用いた場合、指の腹部分(接触部分)をペンに見立てて操作する必要があるが、指の腹部分で指定する箇所と実際にユーザが指定したい箇所とは必ずしも一致していなかった。すなわち、通常、ユーザが上記装置で絵などを書く際には、指の腹部分ではなく、指の先や爪の先が、ユーザが実際に入力したい箇所であることが分かってきた。しかしながら、従来の技術ではこのような要望に十分に応えることができなかった。また、お絵かきソフト以外でも、指の腹部分で操作する場合にタッチパネルとの接点が指で隠れてしまうため、文字入力をしている箇所を十分に確認できないといった問題もあった。   By the way, the conventional technique is based on the premise that the input process is performed using the position where the operating body such as a finger actually contacts the touch panel as an input location. For this reason, for example, when drawing software or the like is used in such an information processing device, it is necessary to operate the finger with the abdomen (contact part) of the finger as a pen. The location that the user wanted to specify did not always match. In other words, it has been found that when the user usually draws a picture or the like with the above-described device, the fingertip or the tip of the nail is not the belly portion of the finger, but the portion that the user actually wants to input. However, the prior art has not been able to sufficiently meet such a demand. In addition to the drawing software, there is also a problem that when the operation is performed on the abdomen of the finger, the contact point with the touch panel is hidden by the finger, so that the place where characters are input cannot be sufficiently confirmed.

そこで、本発明では、操作体によって指定する箇所と実際にユーザが指定したい箇所とを一致させることにより、直感的な操作入力が可能な情報処理装置及び当該情報処理装置における入力箇所の補正方法を提供することを目的とする。   Therefore, in the present invention, an information processing apparatus capable of intuitive operation input by matching a place designated by the operating body with a place actually designated by the user, and a method of correcting the input place in the information processing apparatus are provided. The purpose is to provide.

本発明に係る情報処理装置は、操作体によるタッチパネルへの操作入力が受け付け可能な情報処理装置である。この情報処理装置は、操作体によるタッチパネルへの接触領域を抽出する接触領域抽出手段と、接触領域抽出手段で抽出された接触領域に連なる領域であって、操作体によってタッチパネル上に形成される影領域を抽出する影領域抽出手段と、接触領域抽出手段で抽出された接触領域を基準とし、影領域抽出手段で抽出された影領域の延出方向を算出する延出方向算出手段と、延出方向算出手段で算出された延出方向と逆の方向における影領域の端部を、操作体による入力箇所と補正する入力箇所補正手段とを備えることを特徴としている。   The information processing apparatus according to the present invention is an information processing apparatus that can accept an operation input to a touch panel by an operating tool. The information processing apparatus includes a contact area extracting unit that extracts a contact area on the touch panel by an operating body, and a shadow that is formed on the touch panel by the operating body, the area being connected to the contact area extracted by the contact area extracting unit. A shadow area extracting means for extracting an area; an extension direction calculating means for calculating an extension direction of the shadow area extracted by the shadow area extracting means on the basis of the contact area extracted by the contact area extracting means; It is characterized by comprising an input location by the operating body and an input location correction means for correcting the end of the shadow area in the direction opposite to the extending direction calculated by the direction calculation means.

また、本発明に係る補正方法は、操作体によるタッチパネルへの操作入力が受け付け可能な情報処理装置における入力箇所の補正方法である。この補正方法は、操作体によるタッチパネルへの接触領域を抽出する接触領域抽出ステップと、接触領域抽出ステップで抽出された接触領域に連なる領域であって、操作体によってタッチパネル上に形成される影領域を抽出する影領域抽出ステップと、接触領域抽出ステップで抽出された接触領域を基準とし、影領域抽出ステップで抽出された影領域の延出方向を算出する延出方向算出ステップと、延出方向算出ステップで算出された延出方向と逆の方向における影領域の端部を、操作体による入力箇所と補正する入力箇所補正ステップとを備えることを特徴としている。   The correction method according to the present invention is a method for correcting an input location in an information processing apparatus that can accept an operation input to a touch panel by an operating tool. This correction method includes a contact area extraction step for extracting a contact area to the touch panel by the operating body, and a shadow area formed on the touch panel by the operating body, the area being connected to the contact area extracted in the contact area extracting step. A shadow area extracting step for extracting the shadow area, an extension direction calculating step for calculating the extending direction of the shadow area extracted in the shadow area extracting step based on the contact area extracted in the contact area extracting step, and an extending direction It is characterized by comprising an input location correction step for correcting an input location by an operating body and an end location of a shadow region in a direction opposite to the extending direction calculated in the calculation step.

この情報処理装置又は補正方法によれば、操作体による接触領域だけでなく影領域も抽出し、抽出された接触領域を基準として、抽出された影領域の延出方向を算出している。そして、算出された延出方向と逆の方向における影領域の端部を、操作体による入力箇所と補正している。この場合、例えば操作体が指であれば、ユーザが実際に指定したい箇所を指す場合に自然と用いられる指先や爪先といった箇所に対応する部分が入力箇所として補正されることになる。その結果、操作体によって指定した箇所とユーザが実際に指定したい箇所とが一致することになり、これにより、直感的な操作入力が可能となる。   According to the information processing apparatus or the correction method, not only the contact area by the operating body but also the shadow area is extracted, and the extension direction of the extracted shadow area is calculated on the basis of the extracted contact area. And the edge part of the shadow area | region in the direction opposite to the calculated extending direction is correct | amended with the input location by an operating body. In this case, for example, if the operating body is a finger, a part corresponding to a part such as a fingertip or a toe that is naturally used when the user points to a part that the user actually wants to specify is corrected as an input part. As a result, the location specified by the operating tool matches the location that the user actually wants to specify, thereby enabling intuitive operation input.

上記情報処理装置において、延出方向算出手段は、接触領域の中心を基準として、影領域抽出手段で抽出された影領域の延出方向を算出することが好ましい。また、上記情報処理装置において、延出方向算出手段は、影領域抽出手段で抽出された影領域が広がる第1及び第2の方向を抽出すると共に第1及び第2の方向を比較し、長さが長い方向を延出方向として算出してもよい。これらの場合、ユーザが実際に指定したい箇所へと入力箇所をより正確に補正することが可能となる。   In the information processing apparatus, it is preferable that the extension direction calculation unit calculates the extension direction of the shadow region extracted by the shadow region extraction unit with reference to the center of the contact region. In the information processing apparatus, the extension direction calculating unit extracts the first and second directions in which the shadow region extracted by the shadow region extracting unit extends and compares the first and second directions, The long direction may be calculated as the extending direction. In these cases, the input location can be more accurately corrected to the location that the user actually wants to specify.

本発明によれば、操作体によって指定した箇所とユーザが実際に指定したい箇所とを一致させることにより、直感的な操作入力が可能な情報処理装置及び当該情報処理装置における入力箇所の補正方法を提供することができる。   According to the present invention, there is provided an information processing device capable of intuitive operation input by matching a location designated by an operating tool with a location actually desired by a user, and a method for correcting an input location in the information processing device. Can be provided.

指がタッチパネルに接触している状態を示す図であり、(a)は、その上面図であり、(b)は、その時の接触領域や影領域を模式的に示す図である。It is a figure which shows the state which the finger is contacting the touch panel, (a) is the top view, (b) is a figure which shows typically the contact area and shadow area | region at that time. 本実施形態に係る情報処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the information processing apparatus which concerns on this embodiment. 図2に示す情報処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the information processing apparatus shown in FIG. 図2に示す情報処理装置で入力箇所を補正する際のフローチャートである。It is a flowchart at the time of correct | amending an input location with the information processing apparatus shown in FIG. 本実施形態に係る情報処理装置の変形例の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the modification of the information processing apparatus which concerns on this embodiment. 図5に示す情報処理装置で入力箇所を補正する際のフローチャートである。It is a flowchart at the time of correct | amending an input location with the information processing apparatus shown in FIG. 指を立てた場合の入力箇所の補正を模式的に示す図である。It is a figure which shows typically correction | amendment of the input location at the time of raising a finger.

以下、図面を参照して、本発明に係る好適な実施形態について詳細に説明する。なお、図面の説明において、可能な場合には、同一要素には同一符号を付し、重複する説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the description of the drawings, if possible, the same elements are denoted by the same reference numerals, and redundant description is omitted.

本実施形態に係る情報処理装置10は、図1の(a)に示されるように、指F等の操作体によるタッチパネルディスプレイ12への操作入力が可能な装置である。情報処理装置10としては、例えばスマートフォンなどの携帯端末や小型パーソナルコンピュータなどが例示されるが、これらに限定される訳ではなく、タッチパネルディスプレイを備えた情報処理装置であれば、本発明を適用することが可能である。   As illustrated in FIG. 1A, the information processing apparatus 10 according to the present embodiment is an apparatus that can input an operation to the touch panel display 12 using an operation body such as a finger F. Examples of the information processing apparatus 10 include a mobile terminal such as a smartphone and a small personal computer. However, the information processing apparatus 10 is not limited thereto, and the present invention is applied to any information processing apparatus including a touch panel display. It is possible.

図2に示されるように、情報処理装置10は、機能的には、接触判定部20、接触領域抽出部22(接触領域抽出手段)、影領域抽出部24(影領域抽出手段)、延出方向算出部26(延出方向算出手段)、入力箇所補正部28(入力箇所補正手段)及び表示部30を備えている。   As shown in FIG. 2, the information processing apparatus 10 functionally includes a contact determination unit 20, a contact region extraction unit 22 (contact region extraction unit), a shadow region extraction unit 24 (shadow region extraction unit), and an extension. A direction calculation unit 26 (extension direction calculation unit), an input location correction unit 28 (input location correction unit), and a display unit 30 are provided.

ここで、図3に示されるように、情報処理装置10は、物理的には、CPU10a、RAM10b、ROM10c、入力装置10d、出力装置10e、通信装置10f及び記録装置10gを備えており、これらのハードウェアはバス10hに接続されている。CPU10aは、ROM10cや記録装置10g等の内蔵メモリに格納された所定のコンピュータソフトウェア(図4及び図6に示す情報処理装置10の行う処理を実行するためのコンピュータプログラム等を含む)をRAM10bにロードして実行することにより、情報処理装置10を統括的に制御する。   Here, as shown in FIG. 3, the information processing apparatus 10 physically includes a CPU 10a, a RAM 10b, a ROM 10c, an input device 10d, an output device 10e, a communication device 10f, and a recording device 10g. The hardware is connected to the bus 10h. The CPU 10a loads predetermined computer software (including a computer program for executing processing performed by the information processing apparatus 10 shown in FIGS. 4 and 6) stored in a built-in memory such as the ROM 10c or the recording apparatus 10g into the RAM 10b. In this way, the information processing apparatus 10 is controlled in an integrated manner.

入力装置10dは、情報処理装置10に設けられているタッチパネル12a等からなる入力用デバイスであり、タッチパネル12aを介して入力されたデータをCPU10aに出力する。ここで用いられるタッチパネル12aは、例えば光学式タッチパネル(例えば、シャープ株式会社製の「光センサ内蔵システム液晶」、2007年8月31日、[2012年3月16日検索]、インターネット(URL:http://news.mynavi.jp/news/2007/08/31/022/index.html)や、特開2010−182071号公報参照)であり、指による接触位置だけでなく、指によってタッチパネル12a上に形成される影の領域SA(図1の(b)参照)も検出可能なタッチパネルである。出力装置10eは、例えばLCD等からなる表示画面であり、CPU10aから出力された画像情報等を表示する。入力装置10dのタッチパネル12aと出力装置10eの表示画面とは互いの入出力点が対応するように上下に積層されて、タッチパネルディスプレイ12を構成する。   The input device 10d is an input device including the touch panel 12a and the like provided in the information processing apparatus 10, and outputs data input via the touch panel 12a to the CPU 10a. The touch panel 12a used here is, for example, an optical touch panel (for example, “System liquid crystal with built-in optical sensor” manufactured by Sharp Corporation, August 31, 2007, [March 16, 2012 search], Internet (URL: http: http://news.mynavi.jp/news/2007/08/31/022/index.html) and Japanese Patent Application Laid-Open No. 2010-182071) on the touch panel 12a by the finger as well as the contact position by the finger. The touch panel is also capable of detecting a shadow area SA (see FIG. 1B). The output device 10e is a display screen made up of an LCD, for example, and displays image information and the like output from the CPU 10a. The touch panel 12a of the input device 10d and the display screen of the output device 10e are stacked one above the other so that their input / output points correspond to each other to constitute the touch panel display 12.

通信装置10fは、通信網等を介してデータ通信を行うためのインターフェイスを有する。記録装置10gは、CPU10aの実行可能なコンピュータソフトウェアを格納する。後述する各機能は、CPU10aがROM10cや記録装置10gに格納されたコンピュータソフトウェアを実行し、図3に示す情報処理装置10の各構成部を動作させることにより実現される機能である。以下、図2に戻って、情報処理装置10の各機能ブロックについて説明する。   The communication device 10f has an interface for performing data communication via a communication network or the like. The recording device 10g stores computer software executable by the CPU 10a. Each function to be described later is a function realized by the CPU 10a executing computer software stored in the ROM 10c or the recording device 10g and operating each component of the information processing apparatus 10 shown in FIG. Hereinafter, returning to FIG. 2, each functional block of the information processing apparatus 10 will be described.

接触判定部20は、指Fがタッチパネル12aに接触したか否かを判定する部分である。接触判定部20は、指Fによる接触があったと判定すると、接触があった旨の情報を接触領域抽出部22に出力する。   The contact determination unit 20 is a part that determines whether or not the finger F has touched the touch panel 12a. When the contact determination unit 20 determines that there is a contact with the finger F, the contact determination unit 20 outputs information indicating that there is a contact to the contact region extraction unit 22.

接触領域抽出部22は、指Fによるタッチパネル12aへの接触領域TAを抽出する部分である。接触領域抽出部22は、接触判定部20から指Fの接触があった旨の情報が入力されると、入力装置10dを構成する光学式タッチパネルを用いて、指Fがタッチパネル12aに接触している領域TAを抽出する(図1の(b)参照)。また、接触領域抽出部22は、抽出した接触領域TAの情報から、その中心TAcの情報も併せて抽出する。これらの接触領域の抽出は、従来と同様の技術であり詳細は省略する。接触領域抽出部22は、このように抽出した接触領域TAの情報(位置や面積等、以下同様)や接触領域TAの中心TAcの情報を影領域抽出部24、延出方向算出部26及び入力箇所補正部28に出力する。   The contact area extraction unit 22 is a part that extracts a contact area TA with the finger F to the touch panel 12a. When the information indicating that the finger F has been touched is input from the contact determination unit 20, the contact area extraction unit 22 uses the optical touch panel constituting the input device 10 d to touch the touch panel 12 a. Area TA is extracted (see FIG. 1B). The contact area extraction unit 22 also extracts information about the center TAc from the extracted information about the contact area TA. The extraction of these contact areas is a technique similar to the conventional technique, and details thereof are omitted. The contact area extraction unit 22 inputs the information of the contact area TA (position, area, etc.) and the information of the center TAc of the contact area TA extracted in this way, the shadow area extraction unit 24, the extension direction calculation unit 26, and the input. The data is output to the location correction unit 28.

影領域抽出部24は、接触領域抽出部22で抽出された接触領域TAに連なる領域であって、指Fによってタッチパネル12a上に形成される影領域SAを抽出する部分である。影領域抽出部24は、接触領域抽出部22から接触領域TAの情報が入力されると、入力装置10dを構成する光学式タッチパネルを用いて、その接触領域TAに連なる領域であって、指Fによってタッチパネル12a上に形成されている影領域SAを抽出する。タッチパネルとして光学式タッチパネルを用いているため、指Fが接触していないものの、タッチパネル12a上に形成される指Fの影の領域を抽出することができる。なお、光学式タッチパネルでは、接触領域TAと影領域SAとは、取得される画像の濃淡が異なることから、その濃淡の差データを用いて両者の情報を区別する。影領域抽出部24は、抽出した影領域SAの情報を延出方向算出部26に出力する。   The shadow area extraction unit 24 is an area that is continuous with the contact area TA extracted by the contact area extraction unit 22 and extracts a shadow area SA formed on the touch panel 12a by the finger F. When the information on the contact area TA is input from the contact area extraction unit 22, the shadow area extraction unit 24 is an area connected to the contact area TA using the optical touch panel constituting the input device 10d, and the finger F To extract the shadow area SA formed on the touch panel 12a. Since the optical touch panel is used as the touch panel, the shadow area of the finger F formed on the touch panel 12a can be extracted although the finger F is not in contact. In the optical touch panel, since the contact area TA and the shadow area SA have different shades of the acquired image, the information of the two is distinguished using the shade difference data. The shadow area extraction unit 24 outputs information on the extracted shadow area SA to the extension direction calculation unit 26.

延出方向算出部26は、接触領域抽出部22で抽出された接触領域TAの中心TAcを基準として、影領域抽出部24で抽出された影領域SAの延出方向を算出する部分である。延出方向算出部26は、接触領域抽出部22から接触領域TAやその中心TAcの情報が入力されると共に、影領域抽出部24から影領域SAの情報が入力されると、接触領域TAの中心TAcを基準として、影領域抽出部24で抽出された影領域SAが広がる第1の方向D1と第2の方向D2とを、入力された画像データに対して所定の画像処理を行って、算出する。これらの画像処理には各種の従来技術を適宜用いることができる。   The extension direction calculation unit 26 is a part that calculates the extension direction of the shadow area SA extracted by the shadow area extraction unit 24 based on the center TAc of the contact area TA extracted by the contact area extraction unit 22. When the information on the contact area TA and its center TAc is input from the contact area extraction unit 22 and the information on the shadow area SA is input from the shadow area extraction unit 24, the extending direction calculation unit 26 receives the information on the contact area TA. Using the center TAc as a reference, predetermined image processing is performed on the input image data for the first direction D1 and the second direction D2 in which the shadow region SA extracted by the shadow region extraction unit 24 spreads, calculate. Various conventional techniques can be appropriately used for these image processes.

延出方向算出部26は、影領域SAが広がる第1及び第2の方向D1,D2を算出すると、これら第1及び第2の方向D1,D2を互いに比較し、長さが長い方向を指の延出方向として算出する。図1の(b)に示す例では、第1の方向D1が長いので、第1の方向D1を延出方向として算出する。延出方向算出部26は、算出した延出方向の情報等を入力箇所補正部28に出力する。   When calculating the first and second directions D1 and D2 in which the shadow area SA is widened, the extending direction calculation unit 26 compares the first and second directions D1 and D2 with each other and indicates the direction with the longer length. It is calculated as the extending direction. In the example shown in FIG. 1B, since the first direction D1 is long, the first direction D1 is calculated as the extending direction. The extension direction calculation unit 26 outputs information on the calculated extension direction and the like to the input location correction unit 28.

入力箇所補正部28は、延出方向算出部26で算出された延出方向(第1の方向D1)と180度、逆向きの方向(第2の方向D2)における影領域の端点APを、指Fによる入力箇所と補正する部分である。入力箇所補正部28は、延出方向算出部26から延出方向や影の広がる第1及び第2の方向D1,D2の情報が入力されると共に接触領域抽出部22から接触領域TA(中心TAc含む)の情報が、影領域抽出部24から影領域SAの情報がそれぞれ入力されると、延出方向と逆の方向(第2の方向)における影領域SAの端点APを指先や爪先の影であると推定して、その部分を指Fによる入力箇所へと補正する。この補正により、タッチパネル12aに対する入力箇所が指Fの腹部分から指先や爪先といった部分に対応する箇所へと変更される。なお、影領域SAの端点APと接触領域TAの第2の方向の端点とが重なっている場合は、その接触領域TAの端点を補正箇所とする。   The input location correction unit 28 determines the end point AP of the shadow area in the extension direction (first direction D1) calculated by the extension direction calculation unit 26 by 180 degrees and in the opposite direction (second direction D2). This is the portion to be corrected with the input portion by the finger F. The input location correction unit 28 receives information on the extending direction and the first and second directions D1 and D2 where the shadows extend from the extending direction calculating unit 26 and also outputs a contact area TA (center TAc) from the contact area extracting unit 22. When the shadow area SA information is input from the shadow area extraction unit 24, the end point AP of the shadow area SA in the direction opposite to the extending direction (second direction) is used as the shadow of the fingertip or toe. And the portion is corrected to the input position by the finger F. By this correction, the input location on the touch panel 12a is changed from the belly portion of the finger F to a location corresponding to a portion such as a fingertip or a toe. When the end point AP of the shadow area SA and the end point of the contact area TA in the second direction overlap, the end point of the contact area TA is set as a correction location.

表示部30は、所定の画像をLCD等の表示画面上に表示させる部分である。表示部30は、例えば、お絵かきソフトが使用されている場合には、上述した補正が行われた箇所に対して入力が行われたと擬制処理を行い、当該部分に所定の情報(絵を構成する線など)を表示させる。   The display unit 30 is a part that displays a predetermined image on a display screen such as an LCD. For example, when drawing software is used, the display unit 30 performs a falsification process when an input is made to the portion where the above-described correction is performed, and predetermined information (a picture is configured in the portion). Display a line to display).

続いて、上述した構成を備えた情報処理装置10における入力箇所の補正方法について、図4を参照して詳細に説明する。   Next, a method for correcting an input location in the information processing apparatus 10 having the above-described configuration will be described in detail with reference to FIG.

まず、接触判定部20によって、指Fによるタッチパネル12aへの接触があったか否かが判定される(ステップS1)。ステップS1において、指Fによるタッチパネル12aへの接触があったと判定されると、ステップS2に進む。一方、指Fによるタッチパネル12aへの接触がない場合は、接触判定を所定の時間間隔で繰り返す。   First, the contact determination unit 20 determines whether or not the finger F has touched the touch panel 12a (step S1). If it is determined in step S1 that the finger F has touched the touch panel 12a, the process proceeds to step S2. On the other hand, when the finger F does not touch the touch panel 12a, the contact determination is repeated at a predetermined time interval.

続いて、接触判定部20によって指Fの接触があったと判定されると、測定モードが開示され(ステップS2)、入力装置10dを構成する光学式タッチパネルを用いて、指Fがタッチパネル12aに接触している領域TAが、接触領域抽出部22によって抽出される(ステップS3:接触領域抽出ステップ)。また、ステップS3では、接触領域抽出部22によって、抽出した接触領域TAの情報から、その中心TAcの情報も併せて抽出される(接触領域抽出ステップ)。   Subsequently, when the contact determination unit 20 determines that the finger F has touched, the measurement mode is disclosed (step S2), and the finger F touches the touch panel 12a using the optical touch panel constituting the input device 10d. The area TA is extracted by the contact area extraction unit 22 (step S3: contact area extraction step). In step S3, the contact area extraction unit 22 also extracts information on the center TAc from the extracted information on the contact area TA (contact area extraction step).

続いて、接触領域抽出部22によって接触領域TA等の抽出が行われると、ステップS4に進み、入力装置10dを構成する光学式タッチパネルを用いて、その接触領域TAに連なる領域であって、指Fによってタッチパネル12a上に形成されている影領域SAが、影領域抽出部24によって抽出される(影領域抽出ステップ)。本実施形態では、タッチパネルとして光学式タッチパネルを用いているため、指Fが接触していないものの、タッチパネル12a上に形成される指Fの影の領域を抽出することができる。   Subsequently, when the contact area TA or the like is extracted by the contact area extraction unit 22, the process proceeds to step S <b> 4, and the area touching the contact area TA using the optical touch panel constituting the input device 10 d The shadow area SA formed on the touch panel 12a by F is extracted by the shadow area extraction unit 24 (shadow area extraction step). In this embodiment, since the optical touch panel is used as the touch panel, the shadow area of the finger F formed on the touch panel 12a can be extracted although the finger F is not in contact.

続いて、ステップS3での接触領域TAの抽出やステップS4での影領域SAの抽出が行われると、ステップS5に進み、延出方向算出部26によって、接触領域TAの中心TAcを基準として影領域SAが広がる第1の方向D1と第2の方向D2とが算出される。そして、影領域SAが広がる第1及び第2の方向D1,D2が算出されると、延出方向算出部26によって、これら第1及び第2の方向D1,D2が互いに比較され、長さが長い方向が指の延出方向として算出される(延出方向算出ステップ)。図1の(b)に示す例では、第1の方向D1が長いので、第1の方向D1が延出方向として算出される。   Subsequently, when the contact area TA is extracted in step S3 or the shadow area SA is extracted in step S4, the process proceeds to step S5, and the extension direction calculation unit 26 uses the center TAc of the contact area TA as a reference. A first direction D1 and a second direction D2 in which the area SA extends are calculated. Then, when the first and second directions D1 and D2 in which the shadow area SA expands are calculated, the extension direction calculation unit 26 compares the first and second directions D1 and D2 with each other, and the length is calculated. The long direction is calculated as the extension direction of the finger (extension direction calculation step). In the example shown in FIG. 1B, since the first direction D1 is long, the first direction D1 is calculated as the extending direction.

続いて、ステップS5で延出方向が算出されると、入力箇所補正部28によって、延出方向と逆の方向(第2の方向)における影領域SAの端点APが指先や爪先の影であると推定され、その部分を指Fによる入力箇所と補正される。この補正により、タッチパネル12aに対する入力箇所が指Fの腹部分から指先や爪先といった部分に対応する箇所APへと変更される(ステップS6:入力箇所補正ステップ)。そして、例えば、お絵かきソフトが使用されている場合には、上述した補正が行われた箇所に入力が行われたといった擬制処理が行われ、表示部30により、当該部分に所定の情報(絵を構成する線など)が表示される。   Subsequently, when the extending direction is calculated in step S5, the end point AP of the shadow area SA in the direction opposite to the extending direction (second direction) is the shadow of the fingertip or toe by the input location correction unit 28. And the portion is corrected as an input portion by the finger F. By this correction, the input location on the touch panel 12a is changed from the belly portion of the finger F to the location AP corresponding to a portion such as a fingertip or a toe (step S6: input location correction step). For example, when drawing software is used, a forgery process is performed in which an input is made at the location where the above-described correction is performed, and the display unit 30 displays predetermined information (picture) Etc.) are displayed.

このように本実施形態に係る情報処理装置10によれば、指Fによる接触領域TAだけでなく影領域SAも抽出し、抽出された接触領域TAを基準として、抽出された影領域SAの延出方向(第1の方向)を算出している。そして、算出された延出方向と逆の方向(第2の方向)における影領域SAの端点APを、指Fによる入力箇所と補正している。このため、ユーザが実際に指定したい箇所を指す場合に自然と用いられる指先や爪先といった箇所に対応する部分APが入力箇所として補正されることになる。その結果、指Fによって指定した箇所とユーザが実際に指定したい箇所とが一致することになり、これにより、直感的な操作入力が可能となる。   As described above, according to the information processing apparatus 10 according to the present embodiment, not only the contact area TA by the finger F but also the shadow area SA is extracted, and the extracted shadow area SA is extended based on the extracted contact area TA. The outgoing direction (first direction) is calculated. Then, the end point AP of the shadow area SA in the direction opposite to the calculated extending direction (second direction) is corrected as an input location by the finger F. For this reason, when the user points to a location that the user actually wants to specify, a portion AP corresponding to a location such as a fingertip or a toe that is naturally used is corrected as an input location. As a result, the location specified by the finger F matches the location that the user actually wants to specify, thereby enabling intuitive operation input.

また、情報処理装置10において、延出方向算出部26は、接触領域TAの中心TAcを基準として、影領域抽出部24で抽出された影領域SAが広がる第1及び第2の方向D1,D2を抽出すると共に第1及び第2の方向D1,D2の長さを比較し、長さが長い方向を延出方向(第1の方向D1)として算出している。このため、ユーザが実際に指定したい箇所へと入力箇所をより正確に補正することが可能となる。   In the information processing apparatus 10, the extension direction calculation unit 26 uses the center TAc of the contact area TA as a reference, and the first and second directions D1, D2 in which the shadow area SA extracted by the shadow area extraction unit 24 spreads. And the lengths of the first and second directions D1 and D2 are compared, and the longer direction is calculated as the extending direction (first direction D1). For this reason, it becomes possible to correct | amend an input location more correctly to the location which a user wants to actually designate.

以上、本発明をその実施形態に基づき具体的に説明したが、本発明は、上記実施形態に限定されるものではない。例えば、図5に示されるように、上記実施形態の情報処理装置が、入力箇所補正部28で算出した入力箇所の補正値を記憶する記憶部42を更に備える情報処理装置40といった構成を採用してもよい。この場合、図6に示されるように、情報処理装置10での各種ステップ(図4参照)に加え、ステップS6での補正処理の後に、補正した値(位置情報の変更値)を記憶部42に記憶して、記憶部42に記憶された補正値を所定の期間(例えば2秒間)連続して使用するようにしてもよい。そして、ユーザによる入力操作が終了するまで、ステップS1〜ステップS7の処理を所定のタイミング(2秒毎)で繰り返すようにしてもよい(ステップS8)。なお、図1に示した例では、指Fが略横向きになっておりタッチパネルディスプレイ12に重ねられる領域が広くなっているが、図7に示すように、指Fがほぼ立ったような状態であっても、指Fの先に対応する箇所APに入力箇所を補正することは可能である。   As mentioned above, although this invention was concretely demonstrated based on the embodiment, this invention is not limited to the said embodiment. For example, as illustrated in FIG. 5, the information processing apparatus according to the above embodiment employs a configuration such as an information processing apparatus 40 that further includes a storage unit 42 that stores a correction value of the input location calculated by the input location correction unit 28. May be. In this case, as shown in FIG. 6, in addition to the various steps in the information processing apparatus 10 (see FIG. 4), the corrected value (changed value of position information) is stored in the storage unit 42 after the correction processing in step S <b> 6. The correction value stored in the storage unit 42 may be used continuously for a predetermined period (for example, 2 seconds). And you may make it repeat the process of step S1-step S7 at a predetermined timing (every 2 seconds) until input operation by a user is complete | finished (step S8). In the example shown in FIG. 1, the finger F is substantially sideways and the area overlapped with the touch panel display 12 is wide. However, as shown in FIG. 7, the finger F is almost standing. Even if it exists, it is possible to correct the input location to the location AP corresponding to the tip of the finger F.

10…情報処理装置、22…接触領域抽出部、24…影領域抽出部、26…延出方向算出部、28…入力箇所補正部、SA…影領域、TA…接触領域、TAc…中心。   DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus, 22 ... Contact area extraction part, 24 ... Shadow area extraction part, 26 ... Extension direction calculation part, 28 ... Input location correction part, SA ... Shadow area, TA ... Contact area, TAc ... Center.

Claims (4)

操作体によるタッチパネルへの操作入力が受け付け可能な情報処理装置であって、
前記操作体による前記タッチパネルへの接触領域を抽出する接触領域抽出手段と、
前記接触領域抽出手段で抽出された前記接触領域に連なる領域であって、前記操作体によって前記タッチパネル上に形成される影領域を抽出する影領域抽出手段と、
前記接触領域抽出手段で抽出された前記接触領域を基準とし、前記影領域抽出手段で抽出された前記影領域の延出方向を算出する延出方向算出手段と、
前記延出方向算出手段で算出された前記延出方向と逆の方向における前記影領域の端部を、前記操作体による入力箇所と補正する入力箇所補正手段と、
を備えることを特徴とする情報処理装置。
An information processing apparatus that can accept an operation input to a touch panel by an operating body,
Contact area extraction means for extracting a contact area to the touch panel by the operating body;
A shadow area extracting means for extracting a shadow area formed on the touch panel by the operating body, the area being connected to the contact area extracted by the contact area extracting means;
An extension direction calculating means for calculating an extension direction of the shadow area extracted by the shadow area extracting means with reference to the contact area extracted by the contact area extracting means;
An input location correction means for correcting an end portion of the shadow area in a direction opposite to the extension direction calculated by the extension direction calculation means with an input location by the operating body;
An information processing apparatus comprising:
前記延出方向算出手段は、前記接触領域の中心を基準として、前記影領域抽出手段で抽出された前記影領域の延出方向を算出することを特徴とする、請求項1に記載の情報処理装置。   2. The information processing according to claim 1, wherein the extension direction calculation unit calculates the extension direction of the shadow region extracted by the shadow region extraction unit with reference to the center of the contact region. apparatus. 前記延出方向算出手段は、前記影領域抽出手段で抽出された前記影領域が広がる第1及び第2の方向を抽出すると共に前記第1及び第2の方向を比較し、長さが長い方向を前記延出方向として算出することを特徴とする請求項1又は2に記載の情報処理装置。   The extension direction calculation means extracts the first and second directions in which the shadow area extracted by the shadow area extraction means expands, compares the first and second directions, and has a longer length. The information processing apparatus according to claim 1, wherein the information is calculated as the extending direction. 操作体によるタッチパネルへの操作入力が受け付け可能な情報処理装置における入力箇所の補正方法であって、
前記操作体による前記タッチパネルへの接触領域を抽出する接触領域抽出ステップと、
前記接触領域抽出ステップで抽出された前記接触領域に連なる領域であって、前記操作体によって前記タッチパネル上に形成される影領域を抽出する影領域抽出ステップと、
前記接触領域抽出ステップで抽出された前記接触領域を基準とし、前記影領域抽出ステップで抽出された前記影領域の延出方向を算出する延出方向算出ステップと、
前記延出方向算出ステップで算出された前記延出方向と逆の方向における前記影領域の端部を、前記操作体による入力箇所と補正する入力箇所補正ステップと、
を備えることを特徴とする入力箇所の補正方法。
A method of correcting an input location in an information processing apparatus that can accept an operation input to a touch panel by an operating body,
A contact area extracting step of extracting a contact area to the touch panel by the operating body;
A shadow region extraction step for extracting a shadow region formed on the touch panel by the operating body, the region being connected to the contact region extracted in the contact region extraction step;
An extension direction calculation step for calculating an extension direction of the shadow region extracted in the shadow region extraction step with reference to the contact region extracted in the contact region extraction step;
An input location correction step for correcting an end portion of the shadow region in the direction opposite to the extension direction calculated in the extension direction calculation step with an input location by the operating body;
A method for correcting an input location, comprising:
JP2012077282A 2012-03-29 2012-03-29 Information processor, and method for correcting input place in the information processor Pending JP2013206350A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012077282A JP2013206350A (en) 2012-03-29 2012-03-29 Information processor, and method for correcting input place in the information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012077282A JP2013206350A (en) 2012-03-29 2012-03-29 Information processor, and method for correcting input place in the information processor

Publications (1)

Publication Number Publication Date
JP2013206350A true JP2013206350A (en) 2013-10-07

Family

ID=49525319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012077282A Pending JP2013206350A (en) 2012-03-29 2012-03-29 Information processor, and method for correcting input place in the information processor

Country Status (1)

Country Link
JP (1) JP2013206350A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007183706A (en) * 2006-01-04 2007-07-19 Epson Imaging Devices Corp Touch sensor system
JP2010055510A (en) * 2008-08-29 2010-03-11 Sony Corp Information processor and information processing method
US20100295796A1 (en) * 2009-05-22 2010-11-25 Verizon Patent And Licensing Inc. Drawing on capacitive touch screens
JP2011022945A (en) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd Fingertip-manipulation-type information providing system, program, and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007183706A (en) * 2006-01-04 2007-07-19 Epson Imaging Devices Corp Touch sensor system
JP2010055510A (en) * 2008-08-29 2010-03-11 Sony Corp Information processor and information processing method
US20100295796A1 (en) * 2009-05-22 2010-11-25 Verizon Patent And Licensing Inc. Drawing on capacitive touch screens
JP2011022945A (en) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd Fingertip-manipulation-type information providing system, program, and storage medium

Similar Documents

Publication Publication Date Title
US9514311B2 (en) System and method for unlocking screen
US9824266B2 (en) Handwriting input apparatus and control method thereof
US10031667B2 (en) Terminal device, display control method, and non-transitory computer-readable recording medium
KR20130111812A (en) Apparatus and method for inage outputting in electronic device
US8954873B2 (en) Information processing apparatus, information processing method and computer readable medium
KR20130128681A (en) Method for correcting character style and an electronic device thereof
US9395844B2 (en) Terminal device and correction method
US20140304580A1 (en) Adjusting layout size of hyperlink
CN107291312B (en) Information display method and electronic equipment
US20140354569A1 (en) Mobile phone capable of separating screen and controlling method thereof
US20120154298A1 (en) Method for Adjusting Touch Positions of Software Keyboard, Non-Transitory Computer Readable Storage Medium for Storing Thereof and Touch Screen Electrical Device Applying Thereof
US10162501B2 (en) Terminal device, display control method, and non-transitory computer-readable recording medium
CN110851048A (en) Method for adjusting control and electronic equipment
WO2016110259A1 (en) Content acquiring method and apparatus, and user equipment
US20180059888A1 (en) Browsing assistance method for electronic book, and browsing assistance program
JP6164361B2 (en) Terminal device, display control method, and program
JP6411067B2 (en) Information processing apparatus and input method
WO2020258950A1 (en) Mobile terminal control method and mobile terminal
JP2010258603A (en) Communication terminal and method of adjusting display size
TWI547863B (en) Handwriting recognition method, system and electronic device
US20170010791A1 (en) Information processing apparatus, non-transitory computer readable storage medium, and information display method
US10713463B2 (en) Display method of user interface and electronic apparatus thereof
JP2013206350A (en) Information processor, and method for correcting input place in the information processor
US20150116281A1 (en) Portable electronic device and control method
KR20160053590A (en) Method for handwriting on the touchscreen

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140610