JP2013077180A - Recognition device and method for controlling the same - Google Patents

Recognition device and method for controlling the same Download PDF

Info

Publication number
JP2013077180A
JP2013077180A JP2011216778A JP2011216778A JP2013077180A JP 2013077180 A JP2013077180 A JP 2013077180A JP 2011216778 A JP2011216778 A JP 2011216778A JP 2011216778 A JP2011216778 A JP 2011216778A JP 2013077180 A JP2013077180 A JP 2013077180A
Authority
JP
Japan
Prior art keywords
input
trajectory
recognition
user
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011216778A
Other languages
Japanese (ja)
Inventor
Kenichiro Nakagawa
賢一郎 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011216778A priority Critical patent/JP2013077180A/en
Publication of JP2013077180A publication Critical patent/JP2013077180A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve an orbit input operation following the intention of a user even on the rear face (back face) of equipment (casing).SOLUTION: The recognition device includes: a front input part and a back input part for detecting an orbit input by a user. The recognition device includes: acquisition means for acquiring an orbit input from the front input part or the back input part; specification means for specifying from which of the two input parts has the acquired orbit been input; and recognition means for recognizing the acquired orbit. When it is specified that the acquired orbit has been input from the back input part, the recognition means performs normalization processing accompanied by the inversion processing of the acquired orbit, and then executes the recognition of the orbit by using the same recognition algorithm as that in the case of recognizing the orbit input from the front input part.

Description

本発明は、ユーザの指やスタイラスなどを用いて描画された軌跡を認識する技術に関する。   The present invention relates to a technique for recognizing a trace drawn using a user's finger or stylus.

近年、携帯電話やゲーム機などにおいて、ユーザインタフェース(UI)としてタッチ操作を採用するものが増えてきている。タッチ操作の1つとして、文字及びジェスチャの軌跡を入力する「手書き軌跡入力操作」が存在する。この操作においては装置が軌跡を認識するため、タッチしている指などが移動する方向が重要な意味を持つことは言うまでもない。
また、1つの機器に複数のタッチ操作ができる画面が存在するものなども知られている。
In recent years, an increasing number of mobile phones, game machines, and the like adopt a touch operation as a user interface (UI). As one of the touch operations, there is a “handwriting locus input operation” for inputting characters and gesture locus. In this operation, since the device recognizes the trajectory, it is needless to say that the direction in which the touching finger moves is important.
In addition, there are known devices in which a single device has a screen on which a plurality of touch operations can be performed.

特開2010−26064号公報JP 2010-26064 A

もし、機器(筐体)の表面に相当する画面に対して、その裏面(背面)にタッチパネルが存在するような場合を考える。この場合に、ユーザが画面を見ながら、裏面に文字などの軌跡を記入しようとすると、ユーザが意識する左右(もしくは上下)と実際の裏面の画面の左右の位置は反転関係(いわゆる鏡像)になってしまう。従って、このような機器を操作する場合においては、ユーザの意図に沿った裏面(背面)への手書き軌跡の入力ができなかった。
本発明は上記課題を解決するためになされたものであって、機器(筐体)の裏面(背面)においてもユーザの意図に沿った軌跡入力の操作ができるようにすることを主な目的とする。
Consider a case where a touch panel is present on the rear surface (rear surface) of the screen corresponding to the front surface of the device (housing). In this case, when the user tries to write a trajectory such as characters on the back side while looking at the screen, the left and right (or top and bottom) that the user is conscious of and the left and right positions of the actual back side screen are reversed (so-called mirror image) turn into. Therefore, when operating such a device, it is impossible to input a handwritten locus on the back surface (back surface) in accordance with the user's intention.
The present invention has been made in order to solve the above-described problems, and has as its main object to enable operation of locus input in accordance with the user's intention even on the back surface (back surface) of the device (housing). To do.

上記課題を解決するため、本発明の手書き認識装置によれば、ユーザにより入力される軌跡を検知する正面入力部および背面入力部を備えた認識装置であって、前記正面入力部または背面入力部から入力された軌跡を取得する取得手段と、前記取得された軌跡が、前記2つの入力部の何れから入力された軌跡であるかを特定する特定手段と、前記取得された軌跡を認識する認識手段とを備え、前記認識手段は、前記取得された軌跡が背面入力部から入力された場合には、該取得された軌跡の反転処理を伴う正規化処理を行った後に、前記正面入力部から入力された軌跡の認識と同じ認識アルゴリズムを用いて、軌跡の認識を実行することを特徴とする。   In order to solve the above problems, according to the handwriting recognition device of the present invention, a recognition device including a front input unit and a rear input unit for detecting a locus input by a user, the front input unit or the rear input unit. An acquisition means for acquiring a trajectory input from, a specifying means for specifying from which of the two input sections the acquired trajectory, and recognition for recognizing the acquired trajectory And when the acquired trajectory is input from the back surface input unit, the recognizing unit performs normalization processing that includes reversal processing of the acquired trajectory, and then from the front input unit. Trajectory recognition is performed using the same recognition algorithm as the input trajectory recognition.

本発明によれば、機器の裏面(背面)においてもユーザの意図に沿った軌跡入力の操作ができる。   According to the present invention, it is possible to perform a locus input operation in accordance with the user's intention even on the back surface (back surface) of the device.

手書き認識装置の機能構成図Functional configuration diagram of handwriting recognition device 手書き認識工程を示すフローチャートFlow chart showing the handwriting recognition process 一般的な手書き軌跡認識を示す図Diagram showing general handwriting trajectory recognition 手書き認識装置を組み込んだ携帯端末の外観図External view of a portable terminal incorporating a handwriting recognition device 背面入力の例Rear input example 背面入力による手書き軌跡の例Example of handwriting trajectory by back side input 手書き認識装置の機能構成図Functional configuration diagram of handwriting recognition device 手書き軌跡パタンの例Example of handwritten locus pattern 背面入力により発生する歪みを説明する図The figure explaining the distortion which occurs by the back input 手書き軌跡の補正テーブルHandwritten locus correction table 携帯端末の外観図External view of mobile terminal 手書き認識装置の機能構成図Functional configuration diagram of handwriting recognition device 背面入力による手書き軌跡認識処理のフローチャートFlowchart of handwriting locus recognition processing by back side input 手書き認識装置の機能構成図Functional configuration diagram of handwriting recognition device

<実施形態1>
図4は、本実施形態で適用可能な機器(手書き認識装置)の外観図である。ここに示す機器のサイズは、例えば、ユーザの手のひら、またはそれより少し大きいサイズのものを想定して構わない。
<Embodiment 1>
FIG. 4 is an external view of a device (handwriting recognition device) applicable in the present embodiment. The size of the device shown here may be assumed to be, for example, the palm of the user or a size slightly larger than that.

機器(筐体)の表面(正面)401には、GUI402を表示するとともに、そのGUI402に対するタッチ操作が可能なタッチパネル403を備えている。   On the front surface (front surface) 401 of the device (housing), a GUI 402 is displayed, and a touch panel 403 capable of touching the GUI 402 is provided.

さらに機器(筐体)の裏面(背面)404には、タッチ操作ができるタッチパッド405を備えている。ユーザは、このタッチパッド405をタッチ操作することで、表面401に表示されたGUI402に対する操作をすることが可能である。すなわち、機器に表示されているGUI402は、表面401のタッチパネル403からも操作が可能であり、裏面404のタッチパッド405からも操作が可能である。   Furthermore, the back surface (back surface) 404 of the device (housing) is provided with a touch pad 405 that allows touch operation. The user can operate the GUI 402 displayed on the surface 401 by touching the touch pad 405. That is, the GUI 402 displayed on the device can be operated from the touch panel 403 on the front surface 401 and can also be operated from the touch pad 405 on the back surface 404.

なお、裏面(背面)のタッチパッド405を備えるメリットを考える。例えば、ユーザは、タッチパッド405を操作しながら、GUI402の全てを見ることができるであろう。また、タッチパネル403がタッチ操作で汚れる可能性が少なくなるであろう。   In addition, the merit provided with the touch pad 405 on the back surface (back surface) is considered. For example, the user may be able to see all of the GUI 402 while operating the touchpad 405. In addition, the possibility that the touch panel 403 is soiled by a touch operation will be reduced.

また、以下では、タッチパネル403からタッチ操作することを正面入力部による正面入力と呼び、タッチパッド405からタッチ操作することを背面入力部による背面入力と呼ぶこととする。   In the following, touch operation from the touch panel 403 is referred to as front input by the front input unit, and touch operation from the touch pad 405 is referred to as back input from the back input unit.

図5および図6は、ユーザが上記機器に背面入力を実行する場合の様子を示す図である。ここでは、機器(筐体)の正面501は、図4の正面401に相当する。またタッチパネル502は、図4のタッチパネル403に相当する。ユーザの手503は、機器を保持している。文字軌跡504は、図4のタッチパッド405にユーザが手書き記入した軌跡を視覚的に示したものであるが、タッチパネル502上に表示されているわけではない。   FIG. 5 and FIG. 6 are diagrams illustrating a state where the user performs a back surface input to the device. Here, the front surface 501 of the device (housing) corresponds to the front surface 401 in FIG. The touch panel 502 corresponds to the touch panel 403 in FIG. A user's hand 503 holds the device. A character locus 504 visually indicates a locus handwritten by the user on the touch pad 405 in FIG. 4, but is not displayed on the touch panel 502.

例えばユーザは、機器(筐体)の正面401上のタッチパネル402にはタッチせず、タッチパネル402を見ながら、タッチパッド405のほうに手書きで文字を入力する。   For example, the user does not touch the touch panel 402 on the front surface 401 of the device (housing), but inputs characters by handwriting on the touch pad 405 while looking at the touch panel 402.

この場合、ユーザは、タッチパッド405に自分がどんな文字を書いているのかを実際に見ることができないであろう。すなわち、ユーザは、文字軌跡504を正面501から見た場合を頭の中で想像しながら、指を動かすことになる。   In this case, the user will not be able to actually see what character he / she is writing on the touchpad 405. That is, the user moves his / her finger while imagining the case where the character locus 504 is viewed from the front 501 in his / her head.

以上で説明したような背面入力を行うと、タッチパッド405上には、図6のような文字を書いたことになる。これは、ユーザが意図している文字とは左右が反転したもの(鏡像)になっている。   When the back input as described above is performed, characters as shown in FIG. 6 are written on the touch pad 405. This is a mirror image of the characters intended by the user.

本実施形態では、このような鏡像を、ユーザが意図している正しい軌跡あるいは文字として認識する。   In this embodiment, such a mirror image is recognized as a correct locus or character intended by the user.

図1は、本実施形態で適用可能な機器(手書き認識装置100)の機能構成図である。本装置100には、軌跡検知部101が接続されている。これは、例えば上述した機器正面の正面入力部であるタッチパネル403や、機器背面の背面入力部であるタッチパッド405に相当する。軌跡検知部101において発生した、ユーザの手書き等で得られる軌跡の情報は、軌跡入力部102を介して本装置100によって入力される。なお、ここでは上記軌跡検知部101を、装置100の外部機器として接続されているものとして説明するが、装置100に内蔵された処理部として存在していても構わない。   FIG. 1 is a functional configuration diagram of a device (handwriting recognition device 100) applicable in the present embodiment. A trajectory detection unit 101 is connected to the apparatus 100. This corresponds to, for example, the touch panel 403 that is the front input unit on the front side of the device and the touch pad 405 that is the rear input unit on the back side of the device. Information on the locus generated by the user's handwriting or the like generated in the locus detection unit 101 is input by the apparatus 100 via the locus input unit 102. Here, the trajectory detection unit 101 is described as being connected as an external device of the apparatus 100, but may exist as a processing unit built in the apparatus 100.

次に、ここで入力された軌跡の情報は、正面/背面入力検出部103に出力される。この検出部103では、入力した軌跡が機器の正面(タッチパネル403)から入力されたものか、機器の背面(タッチパッド405)から入力されたものかを特定する。   Next, the trajectory information input here is output to the front / back input detection unit 103. The detection unit 103 specifies whether the input locus is input from the front of the device (touch panel 403) or input from the back of the device (touch pad 405).

もし、機器の正面から入力された軌跡であれば、その軌跡の情報は正面入力軌跡認識部104に出力される。一方、もし機器の背面から入力された軌跡であれば、その軌跡は、背面入力軌跡認識部105に出力される。   If the trajectory is input from the front of the device, the information on the trajectory is output to the front input trajectory recognition unit 104. On the other hand, if the trajectory is input from the back of the device, the trajectory is output to the back input trajectory recognition unit 105.

正面入力軌跡認識部104、および背面入力軌跡認識部105では、入力された軌跡の情報を所定の認識アルゴリズムを用いて認識処理し、その軌跡の認識結果を出力する。この認識結果は、ユーザによる手書き入力の結果として、認識結果出力部106を介して装置100の外部機器へ出力されたり、装置100内における各種処理に利用される。なお、ここでの認識結果の具体例としては、文字認識などの結果である文字データや記号データが相当する。   The front input trajectory recognition unit 104 and the back input trajectory recognition unit 105 recognize the input trajectory information using a predetermined recognition algorithm, and output the trajectory recognition result. This recognition result is output as a result of handwriting input by the user to an external device of the apparatus 100 via the recognition result output unit 106 or used for various processes in the apparatus 100. In addition, as a specific example of the recognition result here, character data or symbol data, which is a result of character recognition or the like, corresponds.

図2は、装置100の動作フローを示した図である。本実施形態では、ユーザが機器の正面401のGUI402などを操作することによって、軌跡を認識するソフトウェアアプリケーションを起動するものとする。そして、機器の正面にあるタッチパネル403または機器の背面にあるタッチパッド405に、ユーザの指やスタイラスなどによる軌跡の入力が開始された時点で、この動作フローが開始されるものとする。   FIG. 2 is a diagram illustrating an operation flow of the apparatus 100. In the present embodiment, it is assumed that a software application for recognizing a trajectory is started when the user operates the GUI 402 or the like on the front surface 401 of the device. Then, this operation flow is started when input of a locus by a user's finger or stylus is started on the touch panel 403 on the front surface of the device or the touch pad 405 on the back surface of the device.

図中の動作フローが開始された場合、ステップS201において、軌跡入力部102は、入力されている軌跡が正面から入力された軌跡か、背面から入力された軌跡かを検出する。ここでは、軌跡入力部102が上記検出を容易にするため、軌跡検知部101から入力された各軌跡の情報には、正面入力による軌跡なのか背面入力による軌跡なのかを識別できるフラグが付与されるものとする。   When the operation flow in the figure is started, in step S201, the trajectory input unit 102 detects whether the input trajectory is a trajectory input from the front or a trajectory input from the back. Here, in order for the trajectory input unit 102 to facilitate the detection, a flag for identifying whether the trajectory is input from the front input or the back input is added to the information on each trajectory input from the trajectory detection unit 101. Shall be.

ステップS202では、入力された軌跡の情報を取得する。例えば、この時点までにシステムのイベントキューに溜まっている軌跡の情報を取得する。   In step S202, the input trajectory information is acquired. For example, information on the trajectory accumulated in the event queue of the system up to this point is acquired.

ステップS203では、取得された軌跡から、その軌跡がユーザが入力した軌跡の終端であるかどうかを判定する。例えば、取得した最新の軌跡が、500ms以上の追加または更新が無い場合などには、ユーザによる軌跡の入力が既に終了していると判定する。本実施形態では、ユーザによる軌跡の入力中に、軌跡の認識処理を順次行うものとし、軌跡の入力が終了した場合には速やかに認識結果の候補を出力するものである。よって、ステップS203において、もし「取得した軌跡が、まだ終端ではない(ユーザにより、まだ軌跡を入力中である)」と判定した場合には、速やかにステップS204以降の軌跡の認識工程に進む。   In step S203, it is determined from the acquired trajectory whether the trajectory is the end of the trajectory input by the user. For example, when the acquired latest locus has not been added or updated for 500 ms or longer, it is determined that the input of the locus by the user has already been completed. In this embodiment, the locus recognition process is sequentially performed while the locus is input by the user, and when the locus input is completed, a recognition result candidate is output immediately. Therefore, if it is determined in step S203 that "the acquired trajectory is not yet the end (the trajectory is still being input by the user)", the process immediately proceeds to the trajectory recognition process in and after step S204.

ステップS204では、ステップS201で正面入力と判定したかどうかを調べる(S204)。もし、ステップS201の検出結果が正面入力であった場合、ステップ205へ進む。一方、もし、ステップS201の検出結果が背面入力であった場合、ステップ206へ進む。   In step S204, it is checked whether or not the front input is determined in step S201 (S204). If the detection result in step S201 is front input, the process proceeds to step 205. On the other hand, if the detection result in step S201 is the back side input, the process proceeds to step 206.

ステップS205では、ステップS202で取得した軌跡に対して、正面入力による軌跡としての認識を行う。具体的には、後述する正面入力軌跡パタン702を用いたパターンマッチングにより、軌跡の認識を実行する。   In step S205, the trajectory acquired in step S202 is recognized as a trajectory by front input. Specifically, the trajectory recognition is executed by pattern matching using a front input trajectory pattern 702 described later.

ステップS206では、ステップS202で取得した軌跡に対して、背面入力による軌跡としての認識を行う。具体的には、後述する正規化処理によって軌跡の左右を反転する反転処理を行い、その後に正面入力軌跡パタン702を用いたパターンマッチングにより、軌跡の認識を実行する。   In step S206, the locus acquired in step S202 is recognized as a locus by back input. Specifically, reversal processing for reversing the left and right of the trajectory is performed by normalization processing described later, and then the trajectory is recognized by pattern matching using the front input trajectory pattern 702.

もし、ステップ203の判定において、取得した軌跡が軌跡の終端であると判定した場合には、これ以上の認識処理を行う必要が無いため、ステップS207に進む。   If it is determined in step 203 that the acquired trajectory is the end of the trajectory, it is not necessary to perform any further recognition processing, and the process proceeds to step S207.

ステップS207では、以前までのステップS205またはステップS206における認識処理の結果を出力する。なお、その認識結果は1つに決定する必要は無く、正解の可能性が高い(認識結果のスコアが高い)1〜N番目までのN個の候補を認識結果として出力する。ここでは詳述しないが、後段の処理において、ユーザまたは装置が必要に応じて、N個の候補のうちの1つを選択すれば良い。   In step S207, the result of the recognition process in the previous step S205 or step S206 is output. Note that it is not necessary to determine one recognition result, and N candidates from the 1st to Nth candidates with a high possibility of correct answer (high recognition result score) are output as recognition results. Although not described in detail here, in the subsequent processing, the user or the device may select one of N candidates as necessary.

図3は、軌跡認識部104、105において軌跡の認識を行うための、基本的な機能を示した概念図である。主には、特徴抽出機能301、パタンマッチング機能302、出力機能303、軌跡パタン304からなる。まず、特徴抽出部301は、軌跡検知部101から入力された軌跡の情報を用いて、特徴の抽出を行う。この特徴としては、例えば、軌跡の各座標や、一定時刻前の軌跡からの変動量などが利用される。ステップS302では、上記抽出された特徴量を、予め登録されている多数の軌跡パタン304とパタンマッチングを行う。なお、パタンマッチングについては公知の種々のパタンマッチングを適用してかまわない。例えば、動的計画法(Dynamic Programming)により、時間方向のゆれを加味した類似度の算出を行っても良いし、Hidden Marcov Modelで軌跡パタンを表現することで、確率的な計算を用いて類似度を算出しても良い。ステップS303では、上記パタンマッチングの結果、類似度が近い上位N個を認識結果の候補として出力する。   FIG. 3 is a conceptual diagram showing basic functions for recognizing a locus in the locus recognizing units 104 and 105. It mainly comprises a feature extraction function 301, a pattern matching function 302, an output function 303, and a locus pattern 304. First, the feature extraction unit 301 performs feature extraction using the trajectory information input from the trajectory detection unit 101. As this feature, for example, each coordinate of the trajectory, a variation amount from the trajectory before a certain time, or the like is used. In step S302, the extracted feature value is subjected to pattern matching with a large number of pre-registered trajectory patterns 304. For pattern matching, various known pattern matching may be applied. For example, the degree of similarity may be calculated by taking into account fluctuations in the time direction by dynamic programming, or similar using stochastic calculation by expressing the trajectory pattern in Hidden Markov Model. The degree may be calculated. In step S303, as a result of the pattern matching, the top N pieces having similarities are output as recognition result candidates.

図7は、上述した図1の装置100の内部を、更に詳細に示した図である。ここでは、特に、正面入力軌跡認識部104と背面入力軌跡認識部105の更なる詳細を示している。なお、基本的な構成は図1と同じであるので、本図で新たに登場する処理部以外については、説明を省略する。   FIG. 7 is a diagram showing in more detail the inside of the apparatus 100 of FIG. 1 described above. Here, further details of the front input trajectory recognition unit 104 and the back input trajectory recognition unit 105 are shown. Since the basic configuration is the same as that in FIG. 1, the description of the processing units other than those newly appearing in FIG.

正面入力軌跡認識部104は、軌跡認識部A701を備える。軌跡認識部A701は、正面入力軌跡パタン702を用いて、ユーザに入力された軌跡の認識を行う。なお、この正面入力軌跡パタン702は、ユーザが正面入力を行った際に手書きで描く可能性が高い軌跡の全てのパタンを格納したデータベースである。   The front input trajectory recognition unit 104 includes a trajectory recognition unit A701. The trajectory recognition unit A 701 recognizes a trajectory input by the user using the front input trajectory pattern 702. The front input trajectory pattern 702 is a database that stores all patterns of trajectories that are highly likely to be drawn by handwriting when the user performs front input.

図8は、軌跡パタンの一例を示す図である。図中801は、上述した「ユーザが正面入力を行った際に手書きで描く可能性が高い軌跡」のパタンの一例である。一方、図中802は、「ユーザが背面入力を行った際に手書きで描く可能性が高い軌跡」のパタンの一例である。すなわち、上記正面入力軌跡パタン702は、図中801に該当するパタンを格納したデータベースである。   FIG. 8 is a diagram illustrating an example of a locus pattern. In the figure, reference numeral 801 is an example of the above-described pattern of “a locus that is highly likely to be drawn by handwriting when the user performs front input”. On the other hand, reference numeral 802 in the figure is an example of a pattern of “a trajectory that is highly likely to be drawn by handwriting when the user makes a backside input”. That is, the front input locus pattern 702 is a database storing patterns corresponding to 801 in the figure.

背面入力軌跡認識部105は、軌跡正規化部703と軌跡認識部B704とを備える。軌跡正規化部703は、背面入力された軌跡の情報を左右に反転させることで、正面入力による軌跡と同様のデータに正規化する。軌跡認識部B704は、軌跡認識部A701と同様に、正面入力軌跡パタン702を用いて、上記正規化された軌跡の認識を行う。   The back surface input trajectory recognition unit 105 includes a trajectory normalization unit 703 and a trajectory recognition unit B704. The trajectory normalization unit 703 normalizes the back side input trajectory information to the same data as the front trajectory by inverting left and right. The trajectory recognition unit B704 recognizes the normalized trajectory using the front input trajectory pattern 702 in the same manner as the trajectory recognition unit A701.

以上によれば、ユーザにより正面入力された軌跡であっても、背面入力された軌跡であっても、高精度の軌跡の認識ができる。   According to the above, it is possible to recognize a highly accurate trajectory regardless of whether the trajectory is input from the front or the trajectory input from the back.

<実施形態2>
上記実施形態1では、背面入力された軌跡は、入力された軌跡の正規化(左右反転)を行った後に認識を行っていた。しかしながら、上記正規化の処理として、左右反転以外の正規化も合わせて行うことが有効な場合も有り得る。以下ではその一例を説明する。
<Embodiment 2>
In the first embodiment, the trajectory input on the back side is recognized after normalization (horizontal inversion) of the input trajectory. However, there may be cases where it is effective to perform normalization other than left-right reversal as the normalization processing. An example will be described below.

まず、ユーザが背面入力をする場合を考える。例えば、ユーザは、機器を人差し指以外の指で保持しているかもしれない。その場合には、人差し指で手書き軌跡を入力することになるであろう。ここで、人差し指によって入力された軌跡は、特徴的な形状を持ち、人差し指の可動範囲に軌跡の全てが閉じ込められた形状となるであろう。   First, let us consider a case where the user makes a backside input. For example, the user may hold the device with a finger other than the index finger. In that case, the handwriting trajectory will be input with the index finger. Here, the trajectory input by the index finger has a characteristic shape, and the trajectory will be confined in the movable range of the index finger.

図9の901は、背面入力時において、片方の人差し指がタッチパッド405に接触できる範囲、言い換えればタッチパッド上での人差し指の可動範囲を示す。ユーザが機器を保持しながら人差し指で軌跡を描いた場合には、本来ユーザが描こうとした軌跡は、この楕円形の可動範囲の内部に歪められてしまう。そして、もしこの歪んだ軌跡を認識しようとすれば、正しい認識を行うことは困難である。従って、本実施形態では、第1実施形態での正規化である左右反転に加えて、上述した歪みも解消する。具体的には、図中902で示すように、軌跡の各点について、図示の楕円形の可動範囲から矩形に変形するような空間変換(マッピング処理)を行う。これにより、空間の歪みが正規化される。   Reference numeral 901 in FIG. 9 indicates a range in which one index finger can come into contact with the touch pad 405 at the time of back side input, in other words, a movable range of the index finger on the touch pad. When the user draws a trajectory with the index finger while holding the device, the trajectory originally intended to be drawn by the user is distorted inside the elliptical movable range. And if it is going to recognize this distorted locus | trajectory, it will be difficult to perform correct recognition. Therefore, in this embodiment, in addition to the left-right inversion which is normalization in the first embodiment, the above-described distortion is also eliminated. Specifically, as indicated by reference numeral 902 in the figure, a spatial transformation (mapping process) is performed for each point of the trajectory so as to transform the illustrated elliptical movable range into a rectangle. Thereby, the distortion of space is normalized.

図13は、この背面入力軌跡認識部105で行われる背面入力軌跡認識処理S206のサブフローである。まず、ステップS1301において、第1の正規化処理として、背面入力された軌跡の左右反転を行う。次に、ステップS1302において、第2の正規化処理として、左右反転された軌跡を図9の902で示したように空間変換する。次に、ステップS1303では、上記2種類の正規化処理が施された軌跡を、正面入力軌跡パタン702とのパタンマッチングにより認識処理する。   FIG. 13 is a sub-flow of the back surface input locus recognition process S206 performed by the back surface input locus recognition unit 105. First, in step S1301, as the first normalization process, the trajectory input to the back side is reversed horizontally. Next, in step S1302, as a second normalization process, the left-right inverted trajectory is spatially transformed as indicated by 902 in FIG. Next, in step S1303, the locus subjected to the above two types of normalization processing is recognized by pattern matching with the front input locus pattern 702.

なお、2種類の正規化処理を行う方法としては、例えば図10に示すような空間変換テーブルを用いて、第1正規化(左右反転)と第2正規化(歪み除去の空間変換)の両方を行う空間変換を実行しても良い。たとえば、このテーブルを用いると、入力された軌跡上の座標(100,104)は、座標(209,52)にマッピングされる。このマッピングにより、第1正規化(左右反転)と第2正規化(歪み除去の空間変換)の両方が一度に実行されることとなる。   As a method of performing two types of normalization processing, for example, using a spatial conversion table as shown in FIG. 10, both first normalization (horizontal inversion) and second normalization (spatial conversion for distortion removal) are used. Spatial transformation may be executed. For example, using this table, the coordinates (100, 104) on the input locus are mapped to the coordinates (209, 52). With this mapping, both the first normalization (left-right inversion) and the second normalization (spatial transformation for distortion removal) are performed at a time.

なお、本実施形態では、人差し指の可動範囲を一例に挙げて、第2の正規化を説明したが、本発明はこれに限らない。例えば指の種類は、他の指であっても構わない。また、スタイラスなどによって背面入力する場合の可動範囲などを考慮したものであっても構わない。   In the present embodiment, the second normalization has been described by taking the movable range of the index finger as an example, but the present invention is not limited to this. For example, the finger type may be another finger. In addition, a movable range in the case where the back side input is performed by a stylus or the like may be considered.

以上によれば、背面入力された軌跡を、より高精度に認識できる。   According to the above, the trajectory input from the back can be recognized with higher accuracy.

<実施形態3>
上述した各実施形態では、機器の正面はタッチパネル403、機器の背面はタッチパッド405といったように、ユーザまたは装置が、正面と背面の種類を明確に区別できる機器について説明した。以下では、これらを明確に区別できない場合の実施形態について説明する。
<Embodiment 3>
In each of the above-described embodiments, the device that allows the user or the device to clearly distinguish between the front and back types, such as the touch panel 403 on the front of the device and the touch pad 405 on the back of the device, has been described. Hereinafter, an embodiment in which these cannot be clearly distinguished will be described.

図11は、正面と背面をユーザに区別させないような機器の一例である。図中、機器のA面1101とB面1102のそれぞれにはタッチパネル1103とタッチパネル1104が備えられている。ユーザは、この端末のA面とB面の何れが正面であるかを意識せずに、操作するものである。すなわち、A面とB面の何れも、機器の正面にも背面にもなり得る。   FIG. 11 is an example of a device that does not allow the user to distinguish between the front and the back. In the figure, a touch panel 1103 and a touch panel 1104 are provided on each of the A side 1101 and the B side 1102 of the device. The user operates without being aware of which side of the terminal is the front side A or side B. That is, both the A side and the B side can be the front side or the back side of the device.

図12は、本実施形態で適用可能な機器(手書き認識装置100)の機能構成図である。なお、図1および図7と同じ構成要素に対しては同じ番号を付与し、説明を省略する。本実施形態において特徴的な部分は、正面/背面入力検出部103の動作である。   FIG. 12 is a functional configuration diagram of a device (handwriting recognition device 100) applicable in the present embodiment. Note that the same components as those in FIGS. 1 and 7 are given the same reference numerals and description thereof is omitted. A characteristic part in this embodiment is the operation of the front / back input detection unit 103.

ここで注意するべき点としては、タッチパネル1200は正面のタッチパネルかもしれないし、背面のタッチパネルかもしれない点である。もしタッチパネル1200が正面のタッチパネルである時には、それはタッチパネル1202と同一物に相当する。一方で、もしタッチパネル1200が背面のタッチパネルである時には、それはタッチパネル1202の反対面に存在するタッチパネルということになる。   It should be noted that the touch panel 1200 may be a front touch panel or a rear touch panel. If the touch panel 1200 is a front touch panel, it corresponds to the same thing as the touch panel 1202. On the other hand, if the touch panel 1200 is a back touch panel, it is a touch panel on the opposite side of the touch panel 1202.

本実施形態では、正面/背面入力検出部103が、A面あるいはB面のどちらのタッチパネルがユーザの正面に向いているのかを検出することができる。すなわち、正面/背面入力検出部103は、軌跡検知部101を含むタッチパネル1200が正面のタッチパネルか、背面のタッチパネルかを判断することができる。この検出方法としては種々の方法を適用可能である。例えば、機器のA面にカメラを備え、軌跡の入力時にはA面のカメラで撮影を行う。もしこのカメラで撮影された画像を顔検出した結果、顔が含まれていると判定した場合は、A面がユーザ正面であると判定できる。逆に、顔が含まれていないと判定した場合には、B面がユーザ正面であると判定すれば良い。   In the present embodiment, the front / back input detection unit 103 can detect which side of the touch panel A or B is facing the front of the user. That is, the front / back input detection unit 103 can determine whether the touch panel 1200 including the trajectory detection unit 101 is a front touch panel or a back touch panel. As this detection method, various methods can be applied. For example, a camera is provided on the A side of the device, and shooting is performed with the A side camera when a trajectory is input. If it is determined that the face is included as a result of detecting the face of the image captured by this camera, it can be determined that the A-side is the front of the user. Conversely, if it is determined that no face is included, it may be determined that surface B is the front of the user.

他の方法としては、例えば、機器内に加速度センサ(重力センサ)を装備し、A面とB面のうち、上方を向いている面をユーザ正面と判定しても良い。   As another method, for example, an acceleration sensor (gravity sensor) may be provided in the device, and the surface facing upward from the A surface and the B surface may be determined as the front surface of the user.

以上により、ユーザにとって正面のタッチパネルに軌跡が入力された場合は、正面入力であると判定し、ユーザにとって背面のタッチパネルに軌跡が入力された場合は、背面入力と判定する。   As described above, when a trajectory is input to the front touch panel for the user, it is determined as front input, and when a trajectory is input to the rear touch panel for the user, it is determined as rear input.

なお、本実施形態では、背面入力軌跡認識部105に正面パネル出力部1201を備えている。そして、軌跡正規化部703で正規化された軌跡を、正面パネル出力部1201を介して、ユーザの正面と判断されたタッチパネル(タッチパネルディスプレイ)1202に出力させることができる。これは、ユーザに、背面入力された軌跡がどのようなものかを明示することができ、ユーザの意図に沿った軌跡の入力がし易くなるという利点がある。   In the present embodiment, the rear input track recognition unit 105 includes a front panel output unit 1201. Then, the trajectory normalized by the trajectory normalization unit 703 can be output to the touch panel (touch panel display) 1202 that is determined to be the front of the user via the front panel output unit 1201. This has an advantage that it is possible to clearly indicate to the user what the trajectory input on the back side is, and it is easy to input the trajectory according to the user's intention.

<実施形態4>
上記各実施形態では、背面入力した軌跡を正規化することで、正面入力軌跡パタン702とのパターンマッチングを行っていた。しかしながら、図10のようなテーブルを利用した空間変換であっても、入力された軌跡の全ての座標について行う場合には、その負荷が大きい。これに対し、あえて背面入力された軌跡を正規化せずに、背面入力された軌跡を高速に認識できるようにすることも可能である。以下、その一例を説明する。
<Embodiment 4>
In each of the above embodiments, pattern matching with the front input trajectory pattern 702 is performed by normalizing the trajectory input on the back side. However, even if the spatial transformation using the table as shown in FIG. 10 is performed for all the coordinates of the input trajectory, the load is large. On the other hand, it is also possible to recognize the trajectory input on the back side at a high speed without normalizing the trajectory input on the back side. An example will be described below.

図14は、本実施形態の機能ブロック図である。背面入力軌跡パタン1601は、上述した図8における背面入力軌跡パタン802と同様のデータベースである。このデータベースには、全て背面入力で入力される可能性のある軌跡が格納されている。すなわち、背面入力軌跡パタン1601は、正面入力で入力される可能性のある軌跡を左右反転している軌跡の集まりに相当する。図14においては、正面/背面入力検出部103が背面入力であると判定した場合、軌跡認識部B704は、軌跡正規化部703の機能を必要とせずに、速やかに背面入力の軌跡パタン1601とのパタンマッチングを行う。図14における他の動作は基本的に上記図12と同様であるので詳細な説明は省略する。   FIG. 14 is a functional block diagram of the present embodiment. The back surface input locus pattern 1601 is a database similar to the back surface input locus pattern 802 in FIG. 8 described above. In this database, trajectories that can be input by back side input are stored. That is, the back input trajectory pattern 1601 corresponds to a collection of trajectories obtained by horizontally flipping trajectories that may be input by front input. In FIG. 14, when the front / back input detection unit 103 determines that the input is the back side, the trajectory recognition unit B 704 does not need the function of the trajectory normalization unit 703, and the trajectory pattern 1601 of the back input is promptly determined. Perform pattern matching. Other operations in FIG. 14 are basically the same as those in FIG.

以上によれば、背面入力による軌跡の認識を高速に行うことができる。   According to the above, the locus can be recognized at high speed by the back surface input.

<変形例>
なお、上記各実施形態では、正面と背面は角度が180度異なる方向を向いている状態を想定して説明したが、本発明はこれに限らない。すなわち、本発明は、ユーザが平面であると感じるような少なくとも2つの面を有する機器に適用でき、その2つの面は、ユーザが感覚的に正面と背面であると感じる関係であれば良い。例えば、機器のA面とB面が90度ぐらいの角度を形成するような配置関係であっても、A面を正面として見ているユーザにとって、B面をA面と同時に見ることができなければ、B面は背面に相当する。そのような関係の2面についても、上述した各実施形態の正面と背面の概念を適用することが可能である。
<Modification>
In each of the above embodiments, the description has been made assuming that the front surface and the back surface face in directions different by 180 degrees, but the present invention is not limited to this. That is, the present invention can be applied to a device having at least two surfaces that the user feels is flat, and the two surfaces may be in any relationship that the user feels sensuously the front and the back. For example, even if the arrangement is such that the A side and the B side of the device form an angle of about 90 degrees, a user who views the A side as the front must be able to see the B side at the same time as the A side. For example, the B surface corresponds to the back surface. It is possible to apply the concept of the front and back of each embodiment mentioned above also about two surfaces of such a relationship.

なお、上述した各実施形態は、以下の処理を実行することによっても実現される。即ち、上記実施形態の各工程や機能を実現するソフトウェア(コンピュータプログラム)を、ネットワークや記憶媒体を介してシステムに供給し、そのシステムのコンピュータ(またはCPU等)が上記プログラムを読み込んで実行する処理である。上記コンピュータプログラムや、それを記憶したコンピュータ可読記憶媒体も本発明の範疇に含まれる。例えば、図1に示した機器の各処理部と同等の機能を、CPUやROM、RAMなどから構成されるコンピュータが実行する場合には、そのコンピュータは認識装置に相当し、その一連の認識動作を制御することは認識装置の制御方法に相当する。   Each embodiment described above is also realized by executing the following processing. That is, a process of supplying software (computer program) that realizes each process and function of the above-described embodiment to the system via a network or a storage medium, and the computer (or CPU or the like) of the system reads and executes the program. It is. The computer program and a computer-readable storage medium storing the computer program are also included in the scope of the present invention. For example, when a computer composed of a CPU, ROM, RAM, and the like performs functions equivalent to the processing units of the device shown in FIG. 1, the computer corresponds to a recognition device, and a series of recognition operations. Controlling this corresponds to the control method of the recognition device.

Claims (4)

ユーザにより入力される軌跡を検知する正面入力部および背面入力部を備えた認識装置であって、
前記正面入力部または背面入力部から入力された軌跡を取得する取得手段と、
前記取得された軌跡が、前記2つの入力部の何れから入力された軌跡であるかを特定する特定手段と、
前記取得された軌跡を認識する認識手段とを備え、
前記認識手段は、前記取得された軌跡が背面入力部から入力された場合には、該取得された軌跡の反転処理を伴う正規化処理を行った後に、前記正面入力部から入力された軌跡の認識と同じ認識アルゴリズムを用いて、軌跡の認識を実行することを特徴とする認識装置。
A recognition device including a front input unit and a back input unit for detecting a trajectory input by a user,
Obtaining means for obtaining a trajectory input from the front input unit or the back input unit;
A specifying means for specifying which of the two input units is the acquired trajectory;
Recognizing means for recognizing the acquired trajectory,
When the acquired trajectory is input from the back surface input unit, the recognizing unit performs a normalization process including a reversal process of the acquired trajectory, and then performs a normalization process of the trajectory input from the front input unit. A recognition apparatus that performs recognition of a trajectory using the same recognition algorithm as recognition.
コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1に記載の認識装置として機能させるコンピュータプログラム。   A computer program that causes a computer to function as the recognition device according to claim 1 by being read and executed by a computer. 請求項2に記載のコンピュータプログラムを記憶したことを特徴とするコンピュータ可読記憶媒体。   A computer-readable storage medium storing the computer program according to claim 2. ユーザにより入力される軌跡を検知する正面入力部および背面入力部を備えた認識装置の制御方法であって、
取得手段により、前記正面入力部または背面入力部から入力された軌跡を取得する取得工程と、
特定手段により、前記取得された軌跡が、前記2つの入力部の何れから入力された軌跡であるかを特定する特定工程と、
認識手段により、前記取得された軌跡を認識する認識工程とを備え、
前記認識工程では、前記取得された軌跡が背面入力部から入力された場合には、該取得された軌跡の反転処理を伴う正規化処理を行った後に、前記正面入力部から入力された軌跡の認識と同じ認識アルゴリズムを用いて、軌跡の認識を実行することを特徴とする制御方法。
A method for controlling a recognition device including a front input unit and a back input unit for detecting a trajectory input by a user,
An acquisition step of acquiring a trajectory input from the front input unit or the back input unit by an acquisition unit;
A specifying step of specifying, by specifying means, whether the acquired trajectory is a trajectory input from which of the two input units;
A recognition step of recognizing the acquired trajectory by a recognition means,
In the recognition step, when the acquired trajectory is input from a back surface input unit, after performing a normalization process accompanied by a reversal process of the acquired trajectory, the trajectory input from the front input unit A control method characterized by executing recognition of a trajectory using the same recognition algorithm as recognition.
JP2011216778A 2011-09-30 2011-09-30 Recognition device and method for controlling the same Withdrawn JP2013077180A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011216778A JP2013077180A (en) 2011-09-30 2011-09-30 Recognition device and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011216778A JP2013077180A (en) 2011-09-30 2011-09-30 Recognition device and method for controlling the same

Publications (1)

Publication Number Publication Date
JP2013077180A true JP2013077180A (en) 2013-04-25

Family

ID=48480594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011216778A Withdrawn JP2013077180A (en) 2011-09-30 2011-09-30 Recognition device and method for controlling the same

Country Status (1)

Country Link
JP (1) JP2013077180A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207167A (en) * 2014-04-21 2015-11-19 株式会社デンソー Input device for vehicle
JP2017161986A (en) * 2016-03-07 2017-09-14 シャープ株式会社 Information display device and information display method
CN110727201A (en) * 2019-08-27 2020-01-24 珠海格力电器股份有限公司 User motion track identification method, computer readable storage medium and intelligent electric equipment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207167A (en) * 2014-04-21 2015-11-19 株式会社デンソー Input device for vehicle
JP2017161986A (en) * 2016-03-07 2017-09-14 シャープ株式会社 Information display device and information display method
CN110727201A (en) * 2019-08-27 2020-01-24 珠海格力电器股份有限公司 User motion track identification method, computer readable storage medium and intelligent electric equipment
CN110727201B (en) * 2019-08-27 2020-12-25 珠海格力电器股份有限公司 User motion track identification method, computer readable storage medium and intelligent electric equipment

Similar Documents

Publication Publication Date Title
US12073008B2 (en) Three-dimensional object tracking to augment display area
US9069386B2 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP5604279B2 (en) Gesture recognition apparatus, method, program, and computer-readable medium storing the program
JP6815707B2 (en) Face posture detection method, device and storage medium
WO2014045953A1 (en) Information processing device and method, and program
JP2013232208A (en) Method, device, computer readable recording medium and apparatus for enhanced rejection of out-of-vocabulary words
JP2013246633A (en) Electronic apparatus, handwriting document creation method, and handwriting document creation program
JP2015162088A (en) Electronic device, method, and program
JP5395927B2 (en) Electronic device and handwritten document search method
US20140325351A1 (en) Electronic device and handwritten data processing method
JP2015172887A (en) Gesture recognition device and control method of gesture recognition device
CN103455262A (en) Pen-based interaction method and system based on mobile computing platform
JP2015225527A (en) Electronic apparatus, method and program
CN111443831A (en) Gesture recognition method and device
US20150205483A1 (en) Object operation system, recording medium recorded with object operation control program, and object operation control method
US20160034027A1 (en) Optical tracking of a user-guided object for mobile platform user input
EP3622382A1 (en) Disambiguating gesture input types using multiple heatmaps
JP2013077180A (en) Recognition device and method for controlling the same
JP2014186530A (en) Input device and portable terminal device
US20170085784A1 (en) Method for image capturing and an electronic device using the method
JP2014106813A (en) Authentication device, authentication program, and authentication method
JP2014052718A (en) Information processing system, program, and method for processing information processing system
WO2019134606A1 (en) Terminal control method, device, storage medium, and electronic apparatus
JP6373664B2 (en) Electronic device, method and program
JP6039066B2 (en) Electronic device, handwritten document search method and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202