JP2006154898A - Portable terminal - Google Patents
Portable terminal Download PDFInfo
- Publication number
- JP2006154898A JP2006154898A JP2004340164A JP2004340164A JP2006154898A JP 2006154898 A JP2006154898 A JP 2006154898A JP 2004340164 A JP2004340164 A JP 2004340164A JP 2004340164 A JP2004340164 A JP 2004340164A JP 2006154898 A JP2006154898 A JP 2006154898A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- unit
- motion
- detection unit
- mobile terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Character Input (AREA)
- Character Discrimination (AREA)
- Telephone Function (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、動画像を撮影可能としたCCDカメラ等の撮像装置、及び文字や制御コードを入力する入力部を備えた携帯端末に関する。 The present invention relates to an imaging apparatus such as a CCD camera that can capture a moving image, and a portable terminal that includes an input unit for inputting characters and control codes.
携帯電話を含む携帯情報端末装置は、小型で携帯性に優れる分、入力部にはパソコン等のように多数のキーを設けることができず、このため少ない数のキー(例えば、電話機の15個前後のキー、ジョイスティックキーなど)によって入力するように工夫されている。いわゆるPDA(携帯情報端末)では、タッチパネルからペン入力による手書き文字認識などを用いたものも知られている。 Since a portable information terminal device including a mobile phone is small and excellent in portability, a large number of keys such as a personal computer cannot be provided in an input unit. Therefore, a small number of keys (for example, 15 phones) It is devised to input with the front and back keys, joystick keys, etc.). A so-called PDA (personal digital assistant) is also known that uses handwritten character recognition by pen input from a touch panel.
また、携帯電話の底部にラインセンサを配置し、文字認識を行って文字入力を行うようにしたものが特許文献1により知られている。また、特許文献2は、15個のキーにそれぞれ4分割したタッチセンサを備え、キー全体をタッチパネルのようになぞることにより文字入力を可能にした携帯端末を提案している。また、特許文献3は、携帯端末に動きセンサを搭載し、端末自体を前後左右に動かして文字等を入力するものを提案している。
しかし、ラインセンサやタッチセンサ等の特別のハードウエアを文字入力のために増設することは、携帯端末の容積の肥大化を招き、携帯電話端末の高価格化を招く。
Japanese Patent Application Laid-Open No. 2004-133867 discloses a line sensor arranged at the bottom of a mobile phone to perform character input by performing character recognition. Patent Document 2 proposes a portable terminal that includes a touch sensor that is divided into four for each of 15 keys, and that enables character input by tracing the entire key like a touch panel. Japanese Patent Application Laid-Open No. 2004-228561 proposes a mobile terminal equipped with a motion sensor, and the terminal itself is moved back and forth and left and right to input characters and the like.
However, adding special hardware such as a line sensor or a touch sensor for character input leads to an increase in the volume of the mobile terminal and an increase in the price of the mobile phone terminal.
また、特許文献4は、携帯電話端末に付属のカメラにより、ユーザのジェスチャを認識して、画面の切り替え等を行う技術を開示している。しかし、この文献の技術では、画面の切り替え等を行うことができるに止まり、文字入力等を可能にするものではない。
本発明は、特別なハードウエアを追加することなく、新規な文字入力モードを提供することを可能とした携帯端末を提供することを目的とする。 An object of the present invention is to provide a portable terminal capable of providing a new character input mode without adding special hardware.
本発明に係る携帯端末は、入力情報を入力する機能を備えた携帯端末において、本体部と、本体部に一体に設けられ動画像を撮像する撮像部と、前記本体部を動かしながら撮像された動画像中の被撮像体の動きを示す動ベクトルを検出する動ベクトル検出部と、前記動ベクトルの前記動画像中での分布状態を検出する動ベクトル分布検出部と、複数の前記動ベクトルのそれぞれの大きさ及び向き、並びに前記分布状態と対応付けて文字を記憶する辞書データベースと、前記動ベクトル検出部及び前記動ベクトル分布検出部が検出した前記大きさ及び向き並びに前記分布状態に対応する文字を前記辞書データベースから読み出す読み出し部とを備えたことを特徴とする。 The portable terminal according to the present invention is a portable terminal having a function of inputting input information, and is imaged while moving the main body, an imaging unit that is provided integrally with the main body and captures a moving image, and moving the main body. A motion vector detection unit for detecting a motion vector indicating the motion of the imaging target in the video, a motion vector distribution detection unit for detecting a distribution state of the motion vector in the video, and a plurality of the motion vectors. A dictionary database that stores characters in association with each size and direction, and the distribution state, and corresponds to the size and direction detected by the motion vector detection unit and the motion vector distribution detection unit, and the distribution state. And a reading unit for reading out characters from the dictionary database.
この発明によれば、携帯端末において、特別なハードウエアを追加することなく、新規な文字入力モードを提供することができる。 According to the present invention, a new character input mode can be provided in a portable terminal without adding special hardware.
次に、本発明の実施の形態を、図面を参照して詳細に説明する。また、以下の説明では、主に数字やアルファベットなどの文字の入力を行う例を説明するが、図形、記号や、メールの送信命令などの制御コードも「文字」と考えて入力の対象とすることができるのは勿論である。
図1は、この発明の実施形態に係わる携帯電話端末の回路構成を示すブロック図である。この携帯電話端末100は、無線部1と、ベースバンド部2と、入出力部3と、電源部4と、バイブレータ5とから構成される。この携帯電話端末100には、本実施の形態に係る辞書データベース6A等を格納するためのメモリカード6が接続され得る。
Next, embodiments of the present invention will be described in detail with reference to the drawings. In addition, in the following explanation, an example of inputting characters such as numbers and alphabets is mainly explained. However, control codes such as figures, symbols, and mail sending commands are also considered as "characters" and are subject to input. Of course you can.
FIG. 1 is a block diagram showing a circuit configuration of a cellular phone terminal according to an embodiment of the present invention. The
同図において、図示しない基地局から無線チャネルを介して到来した無線周波信号は、アンテナ11で受信されたのちアンテナ共用器(DUP)12を介して受信回路(RX)13に入力される。受信回路13は、高周波増幅器、周波数変換器及び復調器を備える。そして、この無線周波信号を低雑音増幅器で低雑音増幅したのち、周波数変換器において周波数シンセサイザ(SYN)14から発生された受信局部発振信号とミキシングして受信中間周波信号又は受信ベースバンド信号に周波数変換し、その出力信号を復調器でディジタル復調する。復調方式としては、例えばQPSK方式に対応した直交復調方式と、拡散符号を使用したスペクトラム逆拡散方式が用いられる。なお、上記周波数シンセサイザ14から発生される受信局部発振信号周波数は、ベースバンド部2に設けられた主制御部21から指示される。
In the figure, a radio frequency signal arriving from a base station (not shown) via a radio channel is received by an
上記復調器から出力された復調信号はベースバンド部2に入力される。ベースバンド部2は、主制御部21と、多重分離部22と、音声符号復号部(以後音声コーデックと呼称する)23と、画像処理部24と、LCD制御部25と、メモリ部26とを備えている。メモリ部26は、カメラ33により得られた動画像データを記憶する動画像データ記憶部261、検出された動ベクトルを記憶する動ベクトルデータ記憶部262、検出された基準動ベクトルを記憶する基準動ベクトル記憶部263、及び文字認識結果を記憶する文字認識結果記憶部264、音声データを記憶する音声データ記憶部265等を備えている。動ベクトル、基準動ベクトルについては後述する。
The demodulated signal output from the demodulator is input to the baseband unit 2. The baseband unit 2 includes a
復調信号は、主制御部21において制御情報であるか画像情報であるかが識別され、画像情報であれば多重分離部22に供給されてここで音声データと画像データとに分離される。そして、音声データは音声コーデック23に供給されてここで音声復号され、これにより再生された音声信号は入出力部3のスピーカ32から拡声出力される。これに対し画像データは、画像処理部24に供給されてここで画像復号処理され、これにより再生された画像信号はLCD制御部25を介して入出力部3のLCD34に供給され表示される。
The demodulated signal is identified by the
また、メモリ部26に記憶された音声データおよび画像データを再生および表示する場合にも、これらのデータはそれぞれ音声コーデック23および画像処理部24に入力される。そして、音声データは音声コーデック23で復号されたのちスピーカ32から拡声出力される。また画像データは、画像処理部24で復号されたのちLCD制御部25を介してLCD34に供給され、表示される。
Also, when reproducing and displaying audio data and image data stored in the
一方、入出力部3のマイクロホン31から出力されたユーザの送話音声信号は、ベースバンド部2の音声コーデック23に入力され、ここで音声符号化されたのち多重分離部22に入力される。またカメラ33から出力された画像信号は、ベースバンド部2の画像処理部24に入力され、ここで画像符号化処理が施されたのち多重分離部22に入力される。多重分離部22では、上記符号化された音声データと画像データとが所定のフォーマットで多重化され、この多重化された送信データは主制御部21から無線部1の送信回路(TX)15に入力される。
なお、カメラ33は、フレーム撮影可能なもの、フィールド撮影が可能なもののいずれであってもよい。フレーム撮影とは、1秒間に例えば30フレームを撮影し、その各フレームが1画像を構成するものであり、フィールド撮影とは、1画面を奇数ラインと偶数ラインに従って分割可能な形で撮影し(インタレース撮影)し、2つのフィールドで1つのフレームを構成するものである。以下では、図1のカメラはフレーム撮影を行うものとして説明を行う。
On the other hand, the user's transmitted voice signal output from the
Note that the
送信回路15は、変調器、周波数変換器及び送信電力増幅器を備える。送信データは、変調器でディジタル変調されたのち、周波数変換器により周波数シンセサイザ14から発生された送信局部発振信号とミキシングされて無線周波信号に周波数変換される。変調方式としては、QPSK方式及び拡散符号使用するスペクトラム拡散方式が用いられる。そして、この生成された送信無線周波信号は、送信電力増幅器で所定の送信レベルに増幅されたのち、アンテナ共用器12を介してアンテナ11に供給され、このアンテナ11から図示しない基地局に向け送信される。
The
なお、電源部4には、リチウムイオン電池等のバッテリ41と、このバッテリ41を商用電源出力(AC100V)をもとに充電するための充電回路42と、電圧生成回路(PS)43とが設けられている。電圧生成回路43は、例えばDC/DCコンバータからなり、バッテリ41の出力電圧をもとに所定の電源電圧Vccを生成する。
The
主制御部21は、本実施の形態に係る文字入力を行うため、図1に示すように動ベクトル検出部211、動ベクトル絞り込み処理部212、動ベクトル分布検出部214、音声認識部215、及び文字認識部216を含んでいる。本実施の形態では、図2に示すように、携帯電話端末100を、入力したい文字を描くように動かしながらカメラ33で被撮像体(図2ではユーザの左手の指F)を撮影することにより、文字入力を行う。例えば、数字の「6」を入力したい場合には、図2に示すように、文字入力起動キー35Aを押してカメラ33による文字入力モードを起動した後、カメラ33を指Fの方向に向けて指Fを撮影しながら、文字入力キー35Bを押しながら、携帯電話端末100を「6」を描くように移動させる。文字入力キー35Bは、「6」を描く軌跡の始点で押し始められ、終点において離される。こうして文字入力キー35Bが押下されている間に撮影された指Fのカメラ33に対する相対的な動きを示す動ベクトルを動ベクトル検出部211で検出することにより文字入力を行うことができる。すなわち、文字入力キー35Bは、文字を構成する1つの画の開始と終了を示す情報を入力する手段として機能する。2以上の画数からなる文字は、1画の文字が終了したら文字入力キー35Bを離し、次の1画を入力するときに再び文字入力キー35Bを押すことにより、入力することができる。
Since the
なお、指F等の被撮像体は、静止物、すなわちカメラ33が撮影を行っている間において、所定の位置から動かない物体とすることが好ましい。図2の例の指F以外でも、撮影可能で動ベクトルを明確に検出できる静止物であればよい。
また、文字入力キー35Bを1画の入力の間押し続ける代わりに、1画の開始と終了のときにそれぞれ文字入力キー35Bを1回押すことにより、1画の開始と終了を入力するようにしてもよい。または、マイクロホン31から入力された音声により、文字の1画の開始および終了を入力するようにしてもよい。
Note that the imaging target such as the finger F is preferably a stationary object, that is, an object that does not move from a predetermined position while the
Also, instead of holding down the character input key 35B during the input of one stroke, the start and end of one stroke are input by pressing the character input key 35B once at the start and end of one stroke. May be. Alternatively, the start and end of one stroke of a character may be input by voice input from the
動ベクトル検出部211は、カメラ33が取得した動画像を構成する各フレームの所定の領域における画素の動きを示す動ベクトルの大きさ及び向きを計算する機能を有する。この実施の形態で動ベクトルは、例えば参照フレームとしての前後のフレームと、現フレームとの間において、動画像が動いた方向と距離を表すベクトルのことをいうものとする。MPEG(Motion Picture Encoding Group)の規格に従う場合、基準フレームをIピクチャとし、所定の設定間隔でIピクチャを設定する。そして、このIピクチャを基準として、前後のフレーム(Bピクチャ、Pピクチャ)の動ベクトルを計算する。なお、この実施の形態では、画像の圧縮符号化が目的ではないので、動ベクトルは指Fのカメラ33に対する動きを検出する視標として用いられるのみであり、圧縮符号化に用いる必要のあるものではない。ただし、圧縮符号化後、その圧縮画像に基づいて、動ベクトルを検出するようにすることは可能である。
The motion vector detection unit 211 has a function of calculating the size and direction of a motion vector indicating the motion of a pixel in a predetermined region of each frame constituting a motion image acquired by the
一例として、動ベクトル検出部211は、図3に示すように、横X画素、縦Y画素(例えばX=360、Y=240)の1つのフレームを、横XB画素×縦YB画素(例えばXB=YB=4)のマクロブロックに分割する。そして、各マクロブロック毎にVN個(=X/XB×Y/YB)の動ベクトルを計算するように構成する。例えば、図3に示すように、現フレームN+T、過去のフレームNがあり、フレームNではマクロブロックMに存在していた画像が、フレームN+TではマクロブロックSに移動している、という場合を考える。このとき、マクロブロックSにおける動ベクトルVmを、マクロブロックMとSの座標値の相違、その他位置の相違を示すデータにより計算することができる。その他のマクロブロックについても、同様に動ベクトルを計算することができる。
なお、マクロブロックは長方形に限るものではなく、例えば円形、楕円形、三角形、5角以上の多角形とすることもできる。また、動ベクトルは複数個のフレーム間に亘って、順方向予測計算、逆方向予測計算を用いて計算することもできる。
As an example, as illustrated in FIG. 3, the motion vector detection unit 211 converts one frame of horizontal X pixels and vertical Y pixels (for example, X = 360, Y = 240) into horizontal XB pixels × vertical YB pixels (for example, XB = YB = 4). Then, it is configured to calculate VN (= X / XB × Y / YB) motion vectors for each macroblock. For example, as shown in FIG. 3, consider a case where there are a current frame N + T and a past frame N, and an image that was present in the macroblock M in the frame N has moved to the macroblock S in the frame N + T. . At this time, the motion vector Vm in the macroblock S can be calculated from data indicating the difference in the coordinate values of the macroblocks M and S and other differences in position. For other macroblocks, motion vectors can be calculated similarly.
Note that the macroblock is not limited to a rectangle, and may be, for example, a circle, an ellipse, a triangle, or a polygon having five or more corners. The motion vector can also be calculated using a forward prediction calculation and a backward prediction calculation over a plurality of frames.
或いは、1つのフレームの中の特定の領域を動ベクトル抽出領域として定義し、その動ベクトル抽出領域ごとに代表動ベクトルを求めるようにすることもできる。動ベクトル抽出領域は、例えば図4に示すように、画面中央を挟んで略対称に、略同一形状・大きさの第1〜第4の動ベクトル抽出領域302〜305を定義し、それぞれの領域ごとに代表動ベクトル302A〜305Aを求めるようにすることができる。場合によっては、図5に示すように、左右対称でなく、また個々の抽出領域302’〜305’の大きさ又は形状も異ならせるようにしてもよい。画面のコーナー部など、動ベクトルが発生する可能性が少なく、雑音が入り込み易いと考えられる領域には、抽出領域を設定しないようにするのが好ましい。 Alternatively, a specific region in one frame can be defined as a motion vector extraction region, and a representative motion vector can be obtained for each motion vector extraction region. For example, as shown in FIG. 4, the motion vector extraction regions define first to fourth motion vector extraction regions 302 to 305 having substantially the same shape and size, with the screen center interposed therebetween, and each region. The representative motion vectors 302A to 305A can be obtained for each. In some cases, as illustrated in FIG. 5, the size and shape of the individual extraction regions 302 ′ to 305 ′ may be different from each other. It is preferable not to set an extraction region in a region where a motion vector is unlikely to occur and noise is likely to enter, such as a corner portion of a screen.
動ベクトル検出部211においては、動ベクトルの向きだけでなく大きさも検出する。動ベクトルの向きだけによると、例えば数字の「0」と「6」の識別が困難になり、誤認識等が生じる虞が大きくなる。動ベクトルの大きさは、携帯電話端末100の移動速度に対応するデータである。「0」を描く場合と、「6」を描く場合とでは、後者の方が描くループが小さく、早くループが閉じるので、ループの移動速度にも差が生じる。従って、移動速度すなわち動ベクトルの大きさを検出することにより、例えば類似する文字「0」と「6」の識別が容易になる。
The motion vector detection unit 211 detects not only the direction of the motion vector but also the size thereof. According to only the direction of the motion vector, for example, it becomes difficult to distinguish the numbers “0” and “6”, and the possibility of erroneous recognition and the like increases. The magnitude of the motion vector is data corresponding to the moving speed of the
動ベクトル絞り込み処理部212は、動ベクトル検出部211で検出された動ベクトルに対し所定のデータ除去処理を実行して、動ベクトルデータを絞り込んだ基準動ベクトルを取得する機能を有する。実行されるデータ除去処理は、例えば、
(1)動ベクトル検出部211で計算された1フレーム内の動ベクトルのばらつきを吸収して外乱データを除去する処理、
(2)フレーム間の間引きを実行して外乱データを除去する処理、
(3)動画像中の物体像のエッジ検出を行い、このエッジ付近の動ベクトル以外を除去する処理、又は
(4)これらの組合せの処理
である。
The motion vector narrowing
(1) Processing for removing disturbance data by absorbing variations in motion vectors in one frame calculated by the motion vector detection unit 211;
(2) Processing to remove disturbance data by performing frame thinning,
(3) Processing for detecting an edge of an object image in a moving image and removing other than the moving vector in the vicinity of the edge, or (4) Processing of a combination thereof.
例えば、移動する車内などで本実施の形態の文字入力がなされる場合、背景において、建物や自動車などが移動し、これが画面に映ることがあり得る。こうした物体の移動は、フレーム上において、動ベクトルの全体に対するばらつきとして現われる。このような場合、VN個の動ベクトルの総和平均、又は複数の代表ベクトルの相関係数を計算することにより、ばらつきを吸収し、このような物体の像の影響を除去することができる。或いは、VN個の動ベクトルの標準偏差σを求め、所定の値KI・σ(KIは正の値の係数)の範囲内にある動ベクトルのみを残し、この範囲外の動ベクトルを除去することによっても、絞込みを行うことができる。 For example, when a character input according to the present embodiment is performed in a moving vehicle or the like, a building, a car, or the like may move in the background, and this may appear on the screen. Such movement of the object appears as a variation with respect to the entire motion vector on the frame. In such a case, by calculating the total average of VN motion vectors or the correlation coefficient of a plurality of representative vectors, variations can be absorbed and the influence of such an object image can be removed. Alternatively, the standard deviation σ of VN motion vectors is obtained, and only motion vectors within the range of a predetermined value KI · σ (KI is a positive value coefficient) are left, and motion vectors outside this range are removed. Depending on, it is possible to narrow down.
あるいは、撮影した動画像に含まれるフレーム数AAを、これより少ないフレーム数APに間引きすることにより、動ベクトル数を絞り込むこともできる。フレーム数AAをAPに間引きする方法は、例えば、(1)文字の1画の始点と終点の間において、その時間の長さに関係なく、固定の枚数に間引く、(2)間引き後のフレーム間の時間間隔を所定の期間TTとする、(3)期間TTを非等間隔とする、(4)隣接するフレームにおける各動ベクトルの相関を計算して、所定の閾値TSH以上の高い相関を有するフレームは間引く、などが考えられる。 Alternatively, the number of motion vectors can be narrowed down by thinning out the number of frames AA included in the captured moving image to a smaller number of frames AP. The method of thinning the number of frames AA to the AP is, for example, (1) thinning a fixed number of characters between the start point and end point of one stroke of a character, regardless of the length of time, (2) frames after thinning The time interval between them is a predetermined period TT, (3) the period TT is an unequal interval, (4) the correlation of each motion vector in adjacent frames is calculated, and a high correlation greater than a predetermined threshold TSH is obtained. It is conceivable to thin out the frame that has it.
あるいは、フレーム間の相関から、移動していくフレーム内の小物体の移動を推測し、これを除去することも可能である。このようにして、指Fの相対移動に基づく動ベクトルの推定に有効でないと判定されるデータの除去処理が行われることにより、文字認識部216における文字認識精度を向上させることができる。
Alternatively, it is possible to estimate the movement of the small object in the moving frame from the correlation between the frames and remove it. In this way, the character recognition accuracy in the
動ベクトル分布検出部213は、各フレームにおいて検出され絞り込み処理が行われた後の動ベクトルの各フレーム上における分布状態を検出する機能を有する。例えば、図6に示すように、フレーム1101〜1106において、携帯電話端末100が文字を描くように動かされたことにより、指Fが画面上を移動する場合、動ベクトルも、各フレーム1101〜1106において、指Fの移動方向に沿って、その分布範囲が移動していく。この分布の状態を、例えば図6に示すように分布の移動方向を示すベクトル1108を計算することにより、各フレームにおける動ベクトルの分布状態を検出することができる。
The motion vector
音声認識部215は、携帯電話端末100を動かしながら指F等を撮影することにより得られた動ベクトルによる文字認識の補助情報としてマイクロホン31から入力される音声情報を認識する機能を有する。入力される音声の種類は様々に考え得るが、例えば(1)入力される文字の読み自体を示す音声、(2)入力される文字の形状を示す音声等を入力することができる。前者の例としては、例えば形状が類似した文字、例えば「0」と「6」を識別するため、その読みをマイクロホン31から音声入力することができる。後者の例としては、例えば形状の類似する「+」と「T」を入力する場合に、携帯電話端末100を動かしつつ、各画の交点において、交点を示す音声(例:「クロス」)をマイクロホン31から入力することにより、両者を識別することができる。
The
文字認識部216は、動ベクトル検出部211で検出され動ベクトル絞り込み処理部で絞り込み処理された後の動ベクトルの向き及び大きさ、並びに動ベクトル分布検出部213で検出された動ベクトルの分布状態に対応する文字を、辞書データベース6Aから検索し、その検索結果を読み出す機能を有する。
辞書データベース6Aは、動ベクトルの向き及び大きさ、並びに分布状態に関するデータと、各種文字とを対応付けて記憶している。この辞書データベース6Aの学習処理は、文字入力及び認識と同様の手順により行うことができるが、他の同じ解像度、同じ光学的特性を有した撮像装置等を用いて入力したデータを用いることも可能である。また、撮像装置でなくとも、動ベクトルの情報を入力できるものであれば、辞書データベース6Aへの学習処理の方法は不問である。
The
The
学習時に用いる撮像装置は、カメラ33とは異なる解像度、光学特性を有するものであってもよい。また、学習時において、動ベクトルの検出方法(マクロブロックや動ベクトル抽出領域の設定等)が、文字入力及び認識の場合と異なっていてもよい。この場合には、動ベクトル絞り込み処理部212において、動ベクトル検出部211で検出された動ベクトルの数M2を、辞書データベース6Aにデータとして格納されている動ベクトルの数M1に合わせ込み(例えば、M1、M2以下のM3個の動ベクトルに絞り込み)、この合わせ込み後の動ベクトルにより、文字認識を行うことができる。
The imaging device used at the time of learning may have a resolution and optical characteristics different from those of the
次に、本実施の形態の携帯電話端末による文字入力の手順を、図7のフローチャートを参照して説明する。ここでは、2画からなる文字「+」を入力する場合を例にとって説明する。文字入力を開始する場合、ユーザはまず文字入力起動キー35Aを押下する(S11)。カメラ33のレンズの前に指F等の被撮像体を置き、この指Fの方向にカメラ33を向け、文字入力キー35Bを押し始めた後(S12)、携帯電話端末100を「+」の横線の1画を描くように移動させる(S13)。なお、携帯電話端末100の移動中必要に応じてマイクロホン31から音声を入力するが(S14)、この横線を描く際は音声入力は不要である。
Next, a procedure for inputting characters by the mobile phone terminal according to the present embodiment will be described with reference to the flowchart of FIG. Here, a case where a character “+” consisting of two strokes is input will be described as an example. When starting character input, the user first presses the character
横方向への移動が終わると、文字入力キー35Bは離される(S15)。こうして文字入力キー35Bが押下されている間に撮影された指Fのカメラ33に対する相対的な動きを示す動ベクトルを動ベクトル検出部211で検出する(S16)。動ベクトル絞り込み処理部212において動ベクトルの絞り込み処理が行われた後(S17)、動ベクトル分布検出部213により、これら動ベクトルの分布状態が検出される(S18)。2画以上の画数からなる文字を入力する場合には、このS12〜S18の手順を、入力しようとする文字を構成する全画の入力が完了するまで繰り返す(S19)。文字「+」の2画目である縦線を入力する場合には、携帯電話100の縦方向(上から下)への移動の途中において、交点を示す音声(「クロス」等)をマイクロホン31に向けてユーザが発声する。文字認識部216は、この音声の内容、発せられたタイミングの情報、及び動ベクトルの情報とに基づき、入力文字の認識を行う(S20)。
When the movement in the horizontal direction is finished, the character input key 35B is released (S15). A motion vector indicating the relative movement of the finger F taken with respect to the
なお、「+」と類似する文字「T」を入力する場合には、移動の途中ではなく、縦方向への携帯電話端末100の移動の最初において、交点を示す音声(「クロス」等)を発声する。このように、発声のタイミングを入力文字によって異ならせることにより、類似する文字同士の識別が可能になる。入力文字の読み自体を示す音声(「プラス」、「ティー」など)を入力するようにすることも可能である。
When a character “T” similar to “+” is input, a voice (“cross” or the like) indicating an intersection is not given at the beginning of the movement of the
以上、発明の実施の形態を説明したが、本発明はこれらに限定されるものではなく、発明の趣旨を逸脱しない範囲内において、種々の変更、追加等が可能である。例えば、上記実施の形態では、1つのレンズを持つ1つのカメラ33により動画像を撮像していたが、複数のレンズを持つカメラにより得られる時間的に同期又は非同期の複数系列の動画像を選択してもよいし、また複数系列の画像を重畳させて動画像として用いてもよい。さらに、画像を重畳させる場合に、別に定めた重み付け係数を掛け合わせた上で重畳するようにしてもよい。
Although the embodiments of the invention have been described above, the present invention is not limited to these embodiments, and various modifications and additions can be made without departing from the spirit of the invention. For example, in the above embodiment, a moving image is picked up by one
また、上記の実施の形態では、辞書データベース6Aに動ベクトルの情報(向き及び大きさ、分布状態)を文字と対応させて格納していたが、代わりに動ベクトルの情報から計算した携帯電話端末100の移動方向及び速度を辞書データベース6Aに格納するようにしてもよい。携帯電話端末100の移動方向は、動ベクトルの方向とは逆方向となる。また、辞書データベース6Aに、文字入力の際に入力される音声に関する情報を格納しておき、文字認識の際に利用するように構成することも可能である。
In the above embodiment, the motion vector information (direction, size, and distribution state) is stored in the
また、上記の実施の形態では、マイクロホン31により類似文字を互いに識別するための情報を入力していたが、これに限らず、様々な情報を入力可能に構成してもよい。例えば文字の種別に関する情報(英字、ひらがな、カタカナ、数字等)を音声で入力するようにしてもよい。
In the above embodiment, information for identifying similar characters from each other is input by the
また、本実施の形態の文字入力モードを終了させる場合、上記の例ではキー35Aを操作していたが、この代わりに、例えばカメラ33のレンズが所定の期間TE秒(例えば2〜5秒程度)継続して押えられた場合に、本実施の形態の文字入力モードを終了させるようにしてもよい。
When the character input mode according to the present embodiment is terminated, the key 35A is operated in the above example. Instead, for example, the lens of the
また、図8に示すように、フリップ34と本体部37とがヒンジ部38により開閉可能となっているフリップ式携帯情報端末装置においては、フリップ34の表面(フリップを閉じた状態で見える面)に本実施の形態の文字入力ボタン35Bを設けてもよい。
Further, as shown in FIG. 8, in the flip-type portable information terminal device in which the
また、上記実施の形態では、動ベクトル検出部211により検出した動ベクトルの向き及び大きさ、並びに動ベクトル分布検出部213により検出した動ベクトルの分布状態によって文字認識を行っていたが、本発明はこれに限定されるものではなく、例えば分布状態のみに基づいて文字認識を実行するようにしてもよい。このとき、各動ベクトルの向き又は大きさも「分布状態」を構成するデータの一部と把握して、動ベクトル分布検出部213において検出させるようにしてもよい。
また、画素のサイズも本発明においては、様々なサイズ又はフォーマットとすることができ、例えば、ITU−T H.261のCIF、MPEG−1のSIF、NTSC用画像、PAL用画像、HDTV画像あるいはそれとは異なるサイズの画像のいずれでも良い。
In the above embodiment, character recognition is performed based on the direction and magnitude of the motion vector detected by the motion vector detection unit 211 and the distribution state of the motion vector detected by the motion vector
In addition, the pixel size may be various sizes or formats in the present invention. For example, ITU-T H.261 CIF, MPEG-1 SIF, NTSC image, PAL image, HDTV image, Any image of a different size may be used.
1・・・無線部、2・・・ベースバンド部、3・・・入出力部、4・・・電源部、 5・・・バイブレータ、 6・・・メモリカード、 11・・・アンテナ、12・・・アンテナ共用器(DUP)、 13・・・受信回路(RX)、 14・・・周波数シンセサイザ(SYN)、 15・・・送信回路、 21・・・主制御部、 22・・・多重分離部、 23・・・音声コーデック、 24・・・画像処理部、 25・・・LCD制御部、 26・・・メモリ部、 31・・・マイクロホン、 32・・・スピーカ、 33・・・カメラ、 34・・・LCD、 35・・・キーボード、 41・・・バッテリ、 42・・・充電回路、 43・・・電圧生成回路、 211・・・動ベクトル検出部、 212・・・動ベクトル絞り込み処理部、213・・・動ベクトル分布検出部部、 215・・・音声認識部、 216・・・文字認識部。
DESCRIPTION OF SYMBOLS 1 ... Radio part, 2 ... Baseband part, 3 ... Input / output part, 4 ... Power supply part, 5 ... Vibrator, 6 ... Memory card, 11 ... Antenna, 12 ... Antenna duplexer (DUP), 13 ... Reception circuit (RX), 14 ... Frequency synthesizer (SYN), 15 ... Transmission circuit, 21 ... Main control unit, 22 ... Multiplexing Separation unit, 23 ... Audio codec, 24 ... Image processing unit, 25 ... LCD control unit, 26 ... Memory unit, 31 ... Microphone, 32 ... Speaker, 33 ...
Claims (10)
本体部と、
本体部に一体に設けられ動画像を撮像する撮像部と、
前記本体部を動かしながら撮像された動画像中の被撮像体の動きを示す動ベクトルを検出する動ベクトル検出部と、
前記動ベクトルの前記動画像中での分布状態を検出する動ベクトル分布検出部と、
複数の前記動ベクトルのそれぞれの大きさ及び向き、並びに前記分布状態と対応付けて文字を記憶する辞書データベースと、
前記動ベクトル検出部及び前記動ベクトル分布検出部が検出した前記大きさ及び向き並びに前記分布状態に対応する文字を前記辞書データベースから読み出す読み出し部と
を備えたことを特徴とする携帯端末。 In a mobile terminal equipped with a function for inputting input information,
The main body,
An imaging unit that is provided integrally with the main body unit to capture a moving image;
A motion vector detection unit that detects a motion vector indicating a motion of the imaging target in a moving image captured while moving the main body;
A motion vector distribution detector for detecting a distribution state of the motion vector in the moving image;
A dictionary database that stores characters in association with the size and direction of each of the plurality of motion vectors and the distribution state;
A mobile terminal comprising: a reading unit that reads out from the dictionary database characters corresponding to the size and direction detected by the motion vector detection unit and the motion vector distribution detection unit and the distribution state.
前記動ベクトル検出部は、この一画開始終了入力部が示す前記開始及び終了の間において動作する請求項1記載の携帯端末。 A one-stroke start / end input unit for inputting information indicating the start and end of drawing of a stroke of a character having two or more strokes;
The mobile terminal according to claim 1, wherein the motion vector detection unit operates between the start and end indicated by the one-stroke start / end input unit.
前記本体部に一体に設けられ動画像を撮像する撮像部と、
前記本体部を動かしながら撮像された前記動画像中の被撮像体の動きを示す動ベクトルを順次検出し、前記動ベクトルの前記動画像中での分布状態を検出する動ベクトル検出部と、
予め文字記号ごとに対応付けられた複数の動ベクトルの分布状態を記憶する辞書データベースと、
前記動ベクトル分布検出部が検出した前記分布状態に最も類似する分布状態に対応付けられた文字記号を前記辞書データベースから検索する検索部と
を備えたことを特徴とする携帯端末。 A portable main body with a function for inputting information;
An imaging unit that is provided integrally with the main body unit and captures a moving image;
A motion vector detection unit that sequentially detects a motion vector indicating a motion of an imaging target in the moving image captured while moving the main body, and detects a distribution state of the motion vector in the moving image;
A dictionary database that stores distribution states of a plurality of motion vectors previously associated with each character symbol;
A mobile terminal comprising: a search unit that searches the dictionary database for a character symbol associated with a distribution state most similar to the distribution state detected by the motion vector distribution detection unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004340164A JP4703173B2 (en) | 2004-11-25 | 2004-11-25 | Mobile device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004340164A JP4703173B2 (en) | 2004-11-25 | 2004-11-25 | Mobile device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006154898A true JP2006154898A (en) | 2006-06-15 |
JP4703173B2 JP4703173B2 (en) | 2011-06-15 |
Family
ID=36633175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004340164A Expired - Fee Related JP4703173B2 (en) | 2004-11-25 | 2004-11-25 | Mobile device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4703173B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010056641A (en) * | 2008-08-26 | 2010-03-11 | Nec Corp | Pairing method using camera, system and apparatus, and program for pairing using camera |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001142631A (en) * | 1999-08-31 | 2001-05-25 | Toshiba Corp | Input system and its method |
JP2004318826A (en) * | 2003-04-04 | 2004-11-11 | Mitsubishi Electric Corp | Portable terminal device and character input method |
-
2004
- 2004-11-25 JP JP2004340164A patent/JP4703173B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001142631A (en) * | 1999-08-31 | 2001-05-25 | Toshiba Corp | Input system and its method |
JP2004318826A (en) * | 2003-04-04 | 2004-11-11 | Mitsubishi Electric Corp | Portable terminal device and character input method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010056641A (en) * | 2008-08-26 | 2010-03-11 | Nec Corp | Pairing method using camera, system and apparatus, and program for pairing using camera |
Also Published As
Publication number | Publication date |
---|---|
JP4703173B2 (en) | 2011-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9591256B2 (en) | Methods and devices for video communication | |
US8120641B2 (en) | Panoramic photography method and apparatus | |
US9400563B2 (en) | Apparatus and method for recognizing subject motion using a camera | |
KR100651368B1 (en) | Method for controlling image according to movement of wireless terminal | |
RU2664688C2 (en) | Method of human faces recognition, device and terminal | |
US8184166B2 (en) | Method, device, mobile terminal and computer program product for a camera motion detection based scheme for improving camera input user interface functionalities | |
KR100651521B1 (en) | Method for clocking speed in wireless terminal | |
EP2998960B1 (en) | Method and device for video browsing | |
US11514711B2 (en) | Fingerprint identification method and apparatus | |
CN105430262A (en) | Photographing control method and photographing control device | |
JP3649242B2 (en) | Mobile phone device and character input method for mobile phone device | |
CN102778947A (en) | Electronic device and method for non-contact control of electronic device | |
KR20110088914A (en) | Apparatus and method for providing canera function in portable terminal | |
KR20110051073A (en) | Method of executing application program in portable terminal | |
KR100735262B1 (en) | Method for displaying automatically in wireless terminal | |
KR101336951B1 (en) | Mobile terminal and method for executing mode photographing panorama image thereof | |
CN106210495A (en) | Image capturing method and device | |
CN112927122A (en) | Watermark removing method, device and storage medium | |
KR100630203B1 (en) | Method for displaying of picture in wireless terminal | |
KR20140039928A (en) | Method and apparatus for photographing in portable terminal | |
KR101503017B1 (en) | Motion detecting method and apparatus | |
CN112990197A (en) | License plate recognition method and device, electronic equipment and storage medium | |
JP4703173B2 (en) | Mobile device | |
JP4381282B2 (en) | Mobile device | |
KR101499133B1 (en) | Method and device for performing menu in wireless terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071003 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110308 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4703173 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |