JP4381282B2 - Mobile device - Google Patents

Mobile device Download PDF

Info

Publication number
JP4381282B2
JP4381282B2 JP2004308501A JP2004308501A JP4381282B2 JP 4381282 B2 JP4381282 B2 JP 4381282B2 JP 2004308501 A JP2004308501 A JP 2004308501A JP 2004308501 A JP2004308501 A JP 2004308501A JP 4381282 B2 JP4381282 B2 JP 4381282B2
Authority
JP
Japan
Prior art keywords
image
motion vector
black image
unit
black
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004308501A
Other languages
Japanese (ja)
Other versions
JP2006121515A (en
Inventor
守 渡戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004308501A priority Critical patent/JP4381282B2/en
Publication of JP2006121515A publication Critical patent/JP2006121515A/en
Application granted granted Critical
Publication of JP4381282B2 publication Critical patent/JP4381282B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、動画像を撮影可能としたCCDカメラ等の撮像装置、及び文字や制御コードを入力する入力部を備えた携帯端末に関する。     The present invention relates to an imaging apparatus such as a CCD camera that can capture a moving image, and a portable terminal that includes an input unit for inputting characters and control codes.

携帯電話を含む携帯情報端末装置は、小型で携帯性に優れる分、入力部にはパソコン等のように多数のキーを設けることができず、このため少ない数のキー(例えば、電話機の15個前後のキー、ジョイスティックキーなど)によって入力するように工夫されている。いわゆるPDA(携帯情報端末)では、タッチパネルからペン入力による手書き文字認識などを用いたものも知られている。   Since a portable information terminal device including a mobile phone is small and excellent in portability, a large number of keys such as a personal computer cannot be provided in an input unit. Therefore, a small number of keys (for example, 15 phones) It is devised to input with the front and back keys, joystick keys, etc.). A so-called PDA (personal digital assistant) is also known that uses handwritten character recognition by pen input from a touch panel.

また、携帯電話の底部にラインセンサを配置し、文字認識を行って文字入力を行うようにしたものが特許文献1により知られている。また、特許文献2は、15個のキーにそれぞれ4分割したタッチセンサを備え、キー全体をタッチパネルのようになぞることにより文字入力を可能にした携帯端末を提案している。また、特許文献3は、携帯端末に動きセンサを搭載し、端末自体を前後左右に動かして文字等を入力するものを提案している。
しかし、ラインセンサやタッチセンサ等の特別のハードウエアを文字入力のために増設することは、携帯端末の容積の肥大化を招き、携帯電話端末の高価格化を招く。
特開2003−199163号公報([0011]欄他) 特開2001−333166号公報([0016]欄他) 特開2000−78262号公報([0009]〜[0017]欄他)
Japanese Patent Application Laid-Open No. 2004-133867 discloses a line sensor arranged at the bottom of a mobile phone to perform character input by performing character recognition. Patent Document 2 proposes a portable terminal that includes a touch sensor that is divided into four for each of 15 keys, and that enables character input by tracing the entire key like a touch panel. Japanese Patent Application Laid-Open No. 2004-228561 proposes a mobile terminal equipped with a motion sensor, and the terminal itself is moved back and forth and left and right to input characters and the like.
However, adding special hardware such as a line sensor or a touch sensor for character input leads to an increase in the volume of the mobile terminal and an increase in the price of the mobile phone terminal.
JP 2003-199163 A ([0011] column and others) JP 2001-333166 A ([0016] column etc.) JP 2000-78262 A ([0009] to [0017] columns and others)

本発明は、特別なハードウエアを追加することなく、新規な文字入力モードを提供することを可能とした携帯端末を提供することを目的とする。   An object of the present invention is to provide a portable terminal capable of providing a new character input mode without adding special hardware.

本発明に係る携帯端末は、入力情報を入力する機能を備えた携帯端末において、動画像を撮像する撮像部と、前記動画像に含まれる画像が黒画像であるか否かを判定する黒画像判定部と、前記黒画像が発生する発生タイミングを検出する黒画像タイミング検出部と、前記発生タイミングと前記入力情報とを対応付けて記憶する辞書データベースと、前記黒画像タイミング検出部で検出された前記発生タイミングに対応する前記入力情報を前記辞書データベースから読み出す読出し部とを備え、前記黒画像判定部は、前記画像上の所定の領域における黒画素の動きを示す動ベクトルを計算する動ベクトル計算部を含み、前記動ベクトルが示す前記動きが所定量以下である場合に、その動ベクトルが含まれる画像を前記黒画像と判定することを特徴とする。 A portable terminal according to the present invention is a portable terminal having a function of inputting input information, an imaging unit that captures a moving image, and a black image that determines whether or not the image included in the moving image is a black image Detected by a determination unit, a black image timing detection unit that detects a generation timing at which the black image is generated, a dictionary database that stores the generation timing and the input information in association with each other, and the black image timing detection unit A read unit that reads out the input information corresponding to the generation timing from the dictionary database , and the black image determination unit calculates a motion vector that indicates a motion of a black pixel in a predetermined region on the image. An image including the motion vector is determined as the black image when the motion indicated by the motion vector is equal to or less than a predetermined amount. To.

この発明によれば、携帯端末において、特別なハードウエアを追加することなく、新規な文字入力モードを提供することができる。   According to the present invention, a new character input mode can be provided in a portable terminal without adding special hardware.

次に、本発明の実施の形態を、図面を参照して詳細に説明する。
図1は、この発明の実施形態に係わる携帯電話端末の回路構成を示すブロック図である。この携帯電話端末100は、無線部1と、ベースバンド部2と、入出力部3と、電源部4と、バイブレータ5とから構成される。この携帯電話端末100には、本実施の形態に係る辞書データベース6A等を格納するためのメモリカード6が接続され得る。
Next, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a circuit configuration of a cellular phone terminal according to an embodiment of the present invention. The cellular phone terminal 100 includes a wireless unit 1, a baseband unit 2, an input / output unit 3, a power supply unit 4, and a vibrator 5. The mobile phone terminal 100 can be connected to a memory card 6 for storing the dictionary database 6A and the like according to the present embodiment.

同図において、図示しない基地局から無線チャネルを介して到来した無線周波信号は、アンテナ11で受信されたのちアンテナ共用器(DUP)12を介して受信回路(RX)13に入力される。受信回路13は、高周波増幅器、周波数変換器及び復調器を備える。そして、この無線周波信号を低雑音増幅器で低雑音増幅したのち、周波数変換器において周波数シンセサイザ(SYN)14から発生された受信局部発振信号とミキシングして受信中間周波信号又は受信ベースバンド信号に周波数変換し、その出力信号を復調器でディジタル復調する。復調方式としては、例えばQPSK方式に対応した直交復調方式と、拡散符号を使用したスペクトラム逆拡散方式が用いられる。なお、上記周波数シンセサイザ14から発生される受信局部発振信号周波数は、ベースバンド部2に設けられた主制御部21から指示される。   In the figure, a radio frequency signal arriving from a base station (not shown) via a radio channel is received by an antenna 11 and then input to a receiving circuit (RX) 13 via an antenna duplexer (DUP) 12. The reception circuit 13 includes a high frequency amplifier, a frequency converter, and a demodulator. The radio frequency signal is amplified by a low noise amplifier and then mixed with a reception local oscillation signal generated from a frequency synthesizer (SYN) 14 in a frequency converter to generate a reception intermediate frequency signal or a reception baseband signal. The output signal is digitally demodulated by a demodulator. As the demodulation method, for example, an orthogonal demodulation method corresponding to the QPSK method and a spectrum despreading method using a spreading code are used. The reception local oscillation signal frequency generated from the frequency synthesizer 14 is instructed from the main control unit 21 provided in the baseband unit 2.

上記復調器から出力された復調信号はベースバンド部2に入力される。ベースバンド部2は、主制御部21と、多重分離部22と、音声符号復号部(以後音声コーデックと呼称する)23と、画像処理部24と、LCD制御部25と、メモリ部26とを備えている。メモリ部26は、カメラ33により得られた動画像データを記憶する動画像データ記憶部261、検出された動ベクトルを記憶する動ベクトルデータ記憶部262、検出された基準動ベクトルを記憶する基準動ベクトル記憶部263、及び文字認識結果を記憶する文字認識結果記憶部264、音声データを記憶する音声データ記憶部265等を備えている。動ベクトル、基準動ベクトルについては後述する。   The demodulated signal output from the demodulator is input to the baseband unit 2. The baseband unit 2 includes a main control unit 21, a demultiplexing unit 22, an audio code decoding unit (hereinafter referred to as an audio codec) 23, an image processing unit 24, an LCD control unit 25, and a memory unit 26. I have. The memory unit 26 is a moving image data storage unit 261 that stores moving image data obtained by the camera 33, a moving vector data storage unit 262 that stores detected moving vectors, and a reference moving image that stores detected reference moving vectors. A vector storage unit 263, a character recognition result storage unit 264 that stores character recognition results, a voice data storage unit 265 that stores voice data, and the like are provided. The motion vector and the reference motion vector will be described later.

復調信号は、主制御部21において制御情報であるか画像情報であるかが識別され、画像情報であれば多重分離部22に供給されてここで音声データと画像データとに分離される。そして、音声データは音声コーデック23に供給されてここで音声復号され、これにより再生された音声信号は入出力部3のスピーカ32から拡声出力される。これに対し画像データは、画像処理部24に供給されてここで画像復号処理され、これにより再生された画像信号はLCD制御部25を介して入出力部3のLCD34に供給され表示される。   The demodulated signal is identified by the main control unit 21 as control information or image information. If it is image information, it is supplied to the demultiplexing unit 22 where it is separated into audio data and image data. Then, the audio data is supplied to the audio codec 23 where it is decoded, and the reproduced audio signal is amplified and output from the speaker 32 of the input / output unit 3. On the other hand, the image data is supplied to the image processing unit 24 where the image decoding process is performed, and the image signal reproduced thereby is supplied to the LCD 34 of the input / output unit 3 via the LCD control unit 25 and displayed.

また、メモリ部26に記憶された音声データおよび画像データを再生および表示する場合にも、これらのデータはそれぞれ音声コーデック23および画像処理部24に入力される。そして、音声データは音声コーデック23で復号されたのちスピーカ32から拡声出力される。また画像データは、画像処理部24で復号されたのちLCD制御部25を介してLCD34に供給され、表示される。   Also, when reproducing and displaying audio data and image data stored in the memory unit 26, these data are input to the audio codec 23 and the image processing unit 24, respectively. The audio data is decoded by the audio codec 23 and then output from the speaker 32. The image data is decoded by the image processing unit 24 and then supplied to the LCD 34 via the LCD control unit 25 and displayed.

一方、入出力部3のマイクロホン31から出力されたユーザの送話音声信号は、ベースバンド部2の音声コーデック23に入力され、ここで音声符号化されたのち多重分離部22に入力される。またカメラ33から出力された画像信号は、ベースバンド部2の画像処理部24に入力され、ここで画像符号化処理が施されたのち多重分離部22に入力される。多重分離部22では、上記符号化された音声データと画像データとが所定のフォーマットで多重化され、この多重化された送信データは主制御部21から無線部1の送信回路(TX)15に入力される。
なお、カメラ33は、フレーム撮影可能なもの、フィールド撮影が可能なもののいずれであってもよい。フレーム撮影とは、1秒間に例えば30フレームを撮影し、その各フレームが1画像を構成するものであり、フィールド撮影とは、1画面を奇数ラインと偶数ラインに従って分割可能な形で撮影し(インタレース撮影)し、2つのフィールドで1つのフレームを構成するものである。以下では、図1のカメラはフレーム撮影を行うものとして説明を行う。
On the other hand, the user's transmitted voice signal output from the microphone 31 of the input / output unit 3 is input to the audio codec 23 of the baseband unit 2, and is encoded here and then input to the demultiplexing unit 22. The image signal output from the camera 33 is input to the image processing unit 24 of the baseband unit 2, and after being subjected to image encoding processing, is input to the demultiplexing unit 22. The demultiplexing unit 22 multiplexes the encoded audio data and image data in a predetermined format, and the multiplexed transmission data is sent from the main control unit 21 to the transmission circuit (TX) 15 of the radio unit 1. Entered.
Note that the camera 33 may be either one capable of frame photographing or one capable of field photographing. For example, 30 frames are shot in one second, and each frame forms one image. Field shooting is a shooting in which a screen can be divided according to odd lines and even lines ( Interlace shooting), and one frame is composed of two fields. In the following description, it is assumed that the camera in FIG. 1 performs frame shooting.

送信回路15は、変調器、周波数変換器及び送信電力増幅器を備える。送信データは、変調器でディジタル変調されたのち、周波数変換器により周波数シンセサイザ14から発生された送信局部発振信号とミキシングされて無線周波信号に周波数変換される。変調方式としては、QPSK方式及び拡散符号使用するスペクトラム拡散方式が用いられる。そして、この生成された送信無線周波信号は、送信電力増幅器で所定の送信レベルに増幅されたのち、アンテナ共用器12を介してアンテナ11に供給され、このアンテナ11から図示しない基地局に向け送信される。   The transmission circuit 15 includes a modulator, a frequency converter, and a transmission power amplifier. The transmission data is digitally modulated by the modulator, then mixed with the transmission local oscillation signal generated from the frequency synthesizer 14 by the frequency converter and frequency-converted to a radio frequency signal. As a modulation method, a QPSK method and a spread spectrum method using a spread code are used. The generated transmission radio frequency signal is amplified to a predetermined transmission level by a transmission power amplifier, then supplied to the antenna 11 via the antenna duplexer 12, and transmitted from the antenna 11 to a base station (not shown). Is done.

なお、電源部4には、リチウムイオン電池等のバッテリ41と、このバッテリ41を商用電源出力(AC100V)をもとに充電するための充電回路42と、電圧生成回路(PS)43とが設けられている。電圧生成回路43は、例えばDC/DCコンバータからなり、バッテリ41の出力電圧をもとに所定の電源電圧Vccを生成する。   The power supply unit 4 includes a battery 41 such as a lithium ion battery, a charging circuit 42 for charging the battery 41 based on a commercial power output (AC 100 V), and a voltage generation circuit (PS) 43. It has been. The voltage generation circuit 43 is composed of, for example, a DC / DC converter, and generates a predetermined power supply voltage Vcc based on the output voltage of the battery 41.

主制御部21は、本実施の形態に係る文字入力を行うため、図1に示すように黒画像判定部211、黒画像タイミング検出部212、文字認識部213、及びタイマ214を含んでいる。本実施の形態では、図2Aに示すように、カメラ33のレンズを例えばユーザが指(F)等で所定のタイミングで叩く(隠す)ことにより、文字入力を行う文字入力モードを選択することができる。すなわちユーザは、例えばモールス信号の系列に沿って、入力したい文字や制御コードに対応するタイミング(例えば図2Bに示す対応表に規定するようなタイミング)で、カメラ33のレンズを叩く。図2Bにおいて、「・」は、カメラ33のレンズを指で叩いてすぐに離すことを意味し、「−」は、カメラ33のレンズを「・」よりも長いタイミングの間押えることを意味する。   The main control unit 21 includes a black image determination unit 211, a black image timing detection unit 212, a character recognition unit 213, and a timer 214 as shown in FIG. 1 in order to perform character input according to the present embodiment. In this embodiment, as shown in FIG. 2A, the user can select a character input mode for inputting characters by hitting (hiding) the lens of the camera 33 with a finger (F) or the like at a predetermined timing. it can. That is, for example, the user hits the lens of the camera 33 at a timing corresponding to a character or control code to be input (for example, a timing specified in the correspondence table shown in FIG. 2B) along a Morse code sequence. In FIG. 2B, “•” means that the lens of the camera 33 is hit with a finger and released immediately, and “−” means that the lens of the camera 33 is pressed for a longer timing than “•”. .

例えば、文字「A」の入力は、「・」を入力した後、一拍置いて「−」を入力することにより行うことができる。図2Bの対応表は単に一例であり、タイミング情報を更に増やして、入力できる文字の種類を増やすことも可能である。この対応表は、携帯電話端末100から入力することも可能であるし、また図示しない他の装置で入力し、携帯電話端末100に取り込むことも可能である。また、モールス信号の系列も単に一例であり、その他、例えば特定の音楽のリズムと、文字等を対応付けて辞書データベース6Aに格納し、入力したい文字に対応したリズムでレンズを指で叩かせるようにしてもよい。   For example, the input of the character “A” can be performed by inputting “-” after inputting “·” and then inputting “−”. The correspondence table in FIG. 2B is merely an example, and it is possible to further increase the timing information and increase the types of characters that can be input. This correspondence table can be input from the mobile phone terminal 100, or can be input by another device (not shown) and loaded into the mobile phone terminal 100. Further, the Morse code sequence is merely an example. For example, a rhythm of a specific music is stored in the dictionary database 6A in association with a character, and the lens is struck with a finger at a rhythm corresponding to the character to be input. It may be.

主制御部21は、カメラ33を叩くタイミングを検出し、ユーザが入力しようとしている文字を認識するものである。この方法は、キーボード35等による文字入力に代わる手段又はこれを補完するための手段として有効である。レンズを叩くタイミングと、それに対応する文字等との関係(一例として、図2Bの表に示すようなもの)は、メモリカード6等に辞書データベース6Aとして記憶されており、主制御部21は、レンズが叩かれたタイミングを検出する。そして、この検出タイミングと同一又はこれに類似する検出タイミング情報を、辞書データベース6Aから抽出する。認識処理の簡易化のために、例えば検出タイミングの特徴をベクトル量子化し、平均総括化し、代表コードブック毎の認識とすることもできる。この検出された検出タイミング情報に対応する文字等を辞書データベース6Aから読み出すことにより、文字入力を行うことができる。   The main control unit 21 detects the timing of hitting the camera 33 and recognizes the character that the user is trying to input. This method is effective as a means for substituting for character input by the keyboard 35 or the like or a means for complementing it. The relationship between the timing of hitting the lens and the corresponding characters (as shown in the table of FIG. 2B as an example) is stored as a dictionary database 6A in the memory card 6 or the like. The timing when the lens is struck is detected. Then, detection timing information that is the same as or similar to this detection timing is extracted from the dictionary database 6A. In order to simplify the recognition process, for example, the features of the detection timing can be vector quantized, averaged, and recognized for each representative codebook. Characters can be input by reading out characters and the like corresponding to the detected detection timing information from the dictionary database 6A.

なお、上記の文字入力モードは、例えば図2Aに示す文字入力起動/終了キー35Aを1度押下することで(他の機能と兼用されるときは、長押し(通常キーを押下する長さTI秒より十分長い所定期間TIL秒以上の間キーを押し続けること)するか、またはマルチクリックする(所定の期間TS秒の間にキーを複数回クリックすること)ことで)起動又は終了させることができる。   The above character input mode can be obtained by, for example, pressing the character input start / end key 35A shown in FIG. 2A once (when combined with other functions, a long press (the length TI for pressing the normal key). Can be activated or terminated (by pressing the key for a predetermined period TIL seconds longer than 2 seconds) or by multi-clicking (by clicking the key multiple times during the predetermined period TS seconds) it can.

指でカメラ33のレンズが叩かれ覆い隠される場合、カメラ33で撮像される画像は、その全部又は一部の明度が所定値以下の画像(以下、このような画像を「黒画像」という。逆に、「黒画像」でない画像を、以下では「白画像」という)となる。黒画像判定部211は、カメラ33から入力される画像信号に含まれる各フレームが黒画像であるか否かを判定する機能を有する。黒画像判定部211の具体的な構成、動作については後述する。明度の判定に加え又はこれに代えて、彩度、色相の判定を行うことにより、黒画像か否かの判定を行うこととしてもよい。   When the lens of the camera 33 is struck and covered with a finger, an image captured by the camera 33 is an image whose brightness is all or part of a predetermined value or less (hereinafter, such an image is referred to as a “black image”). Conversely, an image that is not a “black image” is hereinafter referred to as a “white image”). The black image determination unit 211 has a function of determining whether or not each frame included in the image signal input from the camera 33 is a black image. The specific configuration and operation of the black image determination unit 211 will be described later. In addition to or instead of the lightness determination, it may be determined whether the image is a black image by determining the saturation and the hue.

黒画像タイミング検出部212は、黒画像判定部211で黒画像と判定されたフレームが、どのようなタイミングで発生するかを検出するものである。
文字認識部213は、黒画像タイミング検出部212で検出された黒画像発生タイミングと同一又は類似のタイミング情報に対応付けられている文字等を、メモリカード6に格納された辞書データベース6Aから読み出す機能を有する。同一性又は類似性の判定は、連続DP(Dynamic Programming)マッチングの他、HMM(Hidden Markov Model:隠れマルコフモデル)やニューラルネットワークによる認識手法等を用いることができる。なお、候補となる文字が複数通りある場合には、これらをLCD34に全て表示し、ユーザにキーボード35等により選択させるようにしてもよい。
タイマ214は、黒画像タイミング検出部212が前述のタイミングを判定するのに用いるクロック信号を提供するものである。
The black image timing detection unit 212 detects at what timing a frame determined to be a black image by the black image determination unit 211 is generated.
The character recognizing unit 213 reads a character or the like associated with timing information that is the same as or similar to the black image generation timing detected by the black image timing detecting unit 212 from the dictionary database 6A stored in the memory card 6. Have For the determination of identity or similarity, a recognition method using HMM (Hidden Markov Model) or a neural network can be used in addition to continuous DP (Dynamic Programming) matching. If there are a plurality of candidate characters, all of them may be displayed on the LCD 34 and may be selected by the user using the keyboard 35 or the like.
The timer 214 provides a clock signal used by the black image timing detection unit 212 to determine the aforementioned timing.

なお、辞書データベース6Aの辞書データ(例えば、図2Bの表に示すようなデータ)の生成は、上記文字入力の場合と同様にカメラ33のレンズを叩いてタイミング情報を得た後、このタイミング情報に対応させたい文字をキーボード35から入力、格納することにより行うことができる。ただし、カメラ33やキーボード35など、携帯電話端末100の構成要素によらず、別途外部装置からこれらの情報を取得して、辞書データベース6Aに格納させるのでも構わない。   The dictionary data (for example, data as shown in the table of FIG. 2B) of the dictionary database 6A is generated after the timing information is obtained by hitting the lens of the camera 33 as in the case of the character input. This can be done by inputting and storing the character desired to correspond to the keyboard 35. However, the information may be separately obtained from an external device and stored in the dictionary database 6A regardless of the components of the mobile phone terminal 100 such as the camera 33 and the keyboard 35.

黒画像判定部211は、図1に示すように、例えば動ベクトル計算処理部2111、動ベクトル絞り込み計算処理部2112、及び黒画像含有率計算処理部2113を備えている。
動ベクトル計算処理部2111は、カメラ33が取得した動画像の各フレームの所定の領域における画素の動きを示す動ベクトルを計算する機能を有する。この実施の形態で動ベクトルは、例えば参照フレームとしての前後のフレームと、現フレームとの間において、動画像が動いた方向と距離を表すベクトルのことをいうものとする。MPEG(Motion Picture Encoding Group)の規格に従う場合、基準フレームをIピクチャとし、所定の設定間隔でIピクチャを設定する。そして、このIピクチャを基準として、前後のフレーム(Bピクチャ、Pピクチャ)の動ベクトルを計算する。なお、この実施の形態では、画像の圧縮符号化が目的ではないので、動ベクトルは指Fの動きを検出する視標として用いられるのみであり、圧縮符号化に用いる必要のあるものではない。ただし、圧縮符号化後、その圧縮画像に基づいて、黒画像か否かを判定するようにすることは可能である。
As shown in FIG. 1, the black image determination unit 211 includes, for example, a motion vector calculation processing unit 2111, a motion vector narrowing calculation processing unit 2112, and a black image content rate calculation processing unit 2113.
The motion vector calculation processing unit 2111 has a function of calculating a motion vector indicating the motion of a pixel in a predetermined region of each frame of a moving image acquired by the camera 33. In this embodiment, a motion vector refers to a vector representing the direction and distance in which a moving image has moved between, for example, the previous and subsequent frames as reference frames and the current frame. When conforming to the MPEG (Motion Picture Encoding Group) standard, a reference frame is set as an I picture, and an I picture is set at a predetermined setting interval. Then, using this I picture as a reference, the motion vectors of the previous and subsequent frames (B picture, P picture) are calculated. In this embodiment, since the purpose is not to compress and encode an image, the motion vector is only used as a target for detecting the movement of the finger F, and is not required to be used for the compression encoding. However, after compression encoding, it is possible to determine whether or not the image is a black image based on the compressed image.

一例として、動ベクトル計算処理部2111は、図3に示すように、横X画素、縦Y画素(例えばX=360、Y=240)の1つのフレームを、横XB画素×縦YB画素(例えばXB=YB=4)のマクロブロックに分割する。そして、各マクロブロック毎にVN個(=X/XB×Y/YB)の動ベクトルを計算するように構成する。例えば、図3に示すように、現フレームN+T、過去のフレームNがあり、フレームNではマクロブロックMに存在していた画像が、フレームN+TではマクロブロックSに移動している、という場合を考える。このとき、マクロブロックSにおける動ベクトルVmを、マクロブロックMとSの座標値の相違、その他位置の相違を示すデータにより計算することができる。その他のマクロブロックについても、同様に動ベクトルを計算することができる。
なお、マクロブロックは長方形に限るものではなく、例えば円形、楕円形、三角形、5角以上の多角形とすることもできる。また、動ベクトルは複数個のフレーム間に亘って、順方向予測計算、逆方向予測計算を用いて計算することもできる。
As an example, as shown in FIG. 3, the motion vector calculation processing unit 2111 converts one frame of horizontal X pixels and vertical Y pixels (for example, X = 360, Y = 240) into horizontal XB pixels × vertical YB pixels (for example, It is divided into macro blocks of XB = YB = 4). Then, it is configured to calculate VN (= X / XB × Y / YB) motion vectors for each macroblock. For example, as shown in FIG. 3, consider a case where there are a current frame N + T and a past frame N, and an image that was present in the macroblock M in the frame N has moved to the macroblock S in the frame N + T. . At this time, the motion vector Vm in the macroblock S can be calculated from data indicating the difference in the coordinate values of the macroblocks M and S and other differences in position. For other macroblocks, motion vectors can be calculated similarly.
Note that the macroblock is not limited to a rectangle, and may be, for example, a circle, an ellipse, a triangle, or a polygon having five or more corners. The motion vector can also be calculated using a forward prediction calculation and a backward prediction calculation over a plurality of frames.

或いは、1つのフレームの中の特定の領域を動ベクトル抽出領域として定義し、その動ベクトル抽出領域ごとに代表動ベクトルを求めるようにすることもできる。動ベクトル抽出領域を1つのフレーム中のどの領域に定義するかは、検出しようとする指Fの動きの特徴又は傾向によって決めるのが好ましい。一例としては、図4に示すように、画面中央を挟んで略左右対称に、略同一形状・大きさの第1、第2の動ベクトル抽出領域302、303を定義することができる。場合によっては、図5に示すように、左右対称でなく、また個々の抽出領域302’、303’、304’の大きさ又は形状も異ならせるようにしてもよい。画面のコーナー部など、指F以外の画像が入り込む可能性が高く、指Fの画像が映る可能性が少ない領域には、抽出領域を設定しないようにするのが好ましい。   Alternatively, a specific region in one frame can be defined as a motion vector extraction region, and a representative motion vector can be obtained for each motion vector extraction region. It is preferable to determine in which region in one frame the motion vector extraction region is defined depending on the feature or tendency of the motion of the finger F to be detected. As an example, as shown in FIG. 4, first and second motion vector extraction regions 302 and 303 having substantially the same shape and size can be defined substantially symmetrically with respect to the center of the screen. In some cases, as shown in FIG. 5, the size and shape of the individual extraction regions 302 ', 303', and 304 'may be different from each other. It is preferable not to set the extraction area in an area where there is a high possibility that an image other than the finger F enters, such as a corner portion of the screen, and there is a low possibility that the image of the finger F is reflected.

動ベクトル絞り込み計算処理部2112は、所定のデータ除去処理を実行して、計算された動ベクトルデータを絞り込んだ基準動ベクトルを取得する機能を有する。実行されるデータ除去処理は、例えば、
(1)動ベクトル計算処理部2111で計算された1フレーム内の動ベクトルのばらつきを吸収して外乱データを除去する処理、
(2)フレーム間の間引きを実行して外乱データを除去する処理、
(3)動画像中の物体像のエッジ検出を行い、このエッジ付近の動ベクトル以外を除去する処理、又は
(4)これらの組合せの処理
である。
The motion vector narrowing calculation processing unit 2112 has a function of executing a predetermined data removal process to acquire a reference motion vector obtained by narrowing down the calculated motion vector data. The data removal process to be executed is, for example,
(1) A process of removing disturbance data by absorbing variations in a motion vector in one frame calculated by the motion vector calculation processing unit 2111;
(2) Processing to remove disturbance data by performing frame thinning,
(3) Processing for detecting an edge of an object image in a moving image and removing other than the moving vector in the vicinity of the edge, or (4) Processing of a combination thereof.

例えば、移動する車内などで本実施の形態の文字入力がなされる場合、背景において、建物や自動車など、指Fとは無関係の物体が移動し、これが画面に映ることがあり得る。こうした物体の移動は、フレーム上において、動ベクトルの全体に対するばらつきとして現われる。このような場合、VN個の動ベクトルの総和平均、又は複数の代表ベクトルの相関係数を計算することにより、ばらつきを吸収し、このような物体の像の影響を除去することができる。或いは、VN個の動ベクトルの標準偏差σを求め、所定の値KI・σ(KIは正の値の係数)の範囲内にある動ベクトルのみを残し、この範囲外の動ベクトルを除去することによっても、絞込みを行うことができる。   For example, when the character input according to the present embodiment is performed in a moving car or the like, an object unrelated to the finger F such as a building or a car may move in the background and be reflected on the screen. Such movement of the object appears as a variation with respect to the entire motion vector on the frame. In such a case, by calculating the total average of VN motion vectors or the correlation coefficient of a plurality of representative vectors, variations can be absorbed and the influence of such an object image can be removed. Alternatively, the standard deviation σ of VN motion vectors is obtained, and only motion vectors within the range of a predetermined value KI · σ (KI is a positive value coefficient) are left, and motion vectors outside this range are removed. Depending on, it is possible to narrow down.

あるいは、フレーム間の相関から、移動していくフレーム内の小物体の移動を推測し、これを除去することも可能である。このようにして、指Fの移動に基づく動ベクトルの推定に有効でないと判定されるデータの除去処理が行われることにより、文字認識部213における文字認識精度を向上させることができる。   Alternatively, it is possible to estimate the movement of the small object in the moving frame from the correlation between the frames and remove it. In this way, the character recognition accuracy in the character recognition unit 213 can be improved by performing the data removal processing that is determined to be ineffective for estimating the motion vector based on the movement of the finger F.

黒画素含有率計算処理部2113は、カメラ33が取得した動画像に含まれる1つのフレーム全体、又はその中の特定の領域における、明度、色相、彩度等から黒い画素と判定される画素(黒画素)の含有率(割合)を計算する機能を有する。   The black pixel content rate calculation processing unit 2113 is a pixel that is determined to be a black pixel from lightness, hue, saturation, or the like in one entire frame included in the moving image acquired by the camera 33 or in a specific region therein ( It has a function of calculating the content (ratio) of (black pixels).

黒画像判定部211は、この動ベクトル計算処理部2111の計算結果と、黒画素含有率計算処理部2113の計算結果の一方のみ、または双方を用いて、対象フレームが黒画像か否かを判定する。動ベクトル計算処理2111の計算結果のみで黒画像が精度よく検出できる場合には、黒画素含有率計算処理部2113の動作は停止させるなど、一方のみを動作させることも可能である。その選択は、背景の状況などをユーザが判断して行ってもよいし、また、黒画像判定部211が自動的に行うようにしてもよい。   The black image determination unit 211 determines whether or not the target frame is a black image using only one or both of the calculation result of the motion vector calculation processing unit 2111 and the calculation result of the black pixel content rate calculation processing unit 2113. To do. When a black image can be detected with high accuracy only by the calculation result of the motion vector calculation processing 2111, only one of them can be operated, for example, the operation of the black pixel content rate calculation processing unit 2113 is stopped. The selection may be made by the user determining the background situation or the like, or the black image determination unit 211 may automatically make the selection.

動ベクトル計算処理部2111の計算結果のみを用いる場合、黒画像判定部211は、例えば動ベクトル絞り込み計算処理部2112が出力した基準動ベクトルが示す動きが所定値よりも小さい場合、主制御部21はその動ベクトルが含まれるフレームを黒画像と判定することができる。   When only the calculation result of the motion vector calculation processing unit 2111 is used, the black image determination unit 211, for example, when the motion indicated by the reference motion vector output from the motion vector narrowing calculation processing unit 2112 is smaller than a predetermined value, the main control unit 21 Can determine a frame including the motion vector as a black image.

また、黒画素含有率計算処理部2114の計算結果のみを用いる場合、黒画像判定部2111は、例えば、フレームの中心の画素X1×Y1の矩形領域に、N箇所の判定領域を設けて、そのうちのM箇所(M≦N)以上の判定領域が黒画素含有率B%(例えば80%)である場合、そのフレームは黒画像であると判定することができる。判定領域は、画面の中心である必要はなく、場合によっては画面の一端側に非対称に設けられてもよい。判定領域の大きさや位置、M、Bの閾値等は、検出精度等に基づいて、適宜変更することができる。例えば、ある設定で黒画像が1フレームしか検出されないような場合には、黒画像と判定されるべき画像が白画像と誤判定されていると疑われるので、判定領域の大きさや位置、M、Bの閾値等を適当に変更して、適正な判定がなされるようにする。   When only the calculation result of the black pixel content rate calculation processing unit 2114 is used, the black image determination unit 2111 provides, for example, N determination regions in the rectangular region of the pixel X1 × Y1 at the center of the frame, In the case where the determination areas of M locations (M ≦ N) or more are black pixel content B% (for example, 80%), it can be determined that the frame is a black image. The determination region does not need to be the center of the screen, and may be provided asymmetrically on one end side of the screen depending on circumstances. The size and position of the determination region, the threshold values for M and B, and the like can be changed as appropriate based on detection accuracy and the like. For example, when only one frame of a black image is detected with a certain setting, it is suspected that the image to be determined as a black image is erroneously determined as a white image, so the size and position of the determination region, M, Appropriate determination is made by appropriately changing the threshold value of B or the like.

このような判定方法の場合、カメラ33の光学的特性が変わっても判定結果には殆ど影響が無い。また、辞書データベース6Aの作成時に用いたカメラの画素数と、文字入力の際に用いたカメラ33の画素数とが異なっていても認識精度には殆ど影響しない。   In the case of such a determination method, even if the optical characteristics of the camera 33 change, the determination result is hardly affected. In addition, even if the number of pixels of the camera used when creating the dictionary database 6A is different from the number of pixels of the camera 33 used when inputting characters, the recognition accuracy is hardly affected.

次に、本実施の形態の動作を、図6を参照して説明する。ここでは、指Fがカメラ33のレンズに向かって徐々に近付き、最後にレンズを完全に覆い隠すまでの動作がフレーム1101〜1106として撮像され(フレーム1106はレンズが指Fで完全に覆い隠された状態のフレーム)、その指Fの動きが動ベクトルVmとして検出される様子を示している。また、この図6では、動ベクトル絞り込み計算処理部2112において指Fの像のエッジ検出がなされ、そのエッジ付近の動ベクトル以外の動ベクトルが除去された例を示している。エッジ付近の動ベクトル以外の動ベクトルが除去されることにより、黒画像判定部211での負荷が少なくなり、判定速度を速くすることができる。計算負荷が問題とならない場合には、エッジ検出動作を停止し、画面全体の動ベクトルの検出を行うようにしてもよい。また、エッジ検出の代わりに、全ての画素に2値化処理を行うようにしてもよい。   Next, the operation of the present embodiment will be described with reference to FIG. Here, images of the motion until the finger F gradually approaches the lens of the camera 33 and finally completely covers the lens are captured as frames 1101 to 1106 (the lens is completely covered by the finger F in the frame 1106). In this state, the movement of the finger F is detected as a motion vector Vm. Further, FIG. 6 shows an example in which the edge of the image of the finger F is detected in the motion vector narrowing calculation processing unit 2112 and motion vectors other than the motion vector near the edge are removed. By removing motion vectors other than those near the edges, the load on the black image determination unit 211 is reduced, and the determination speed can be increased. If the calculation load is not a problem, the edge detection operation may be stopped and the motion vector of the entire screen may be detected. Further, instead of edge detection, binarization processing may be performed on all pixels.

この例の場合、指Fがレンズに近付いて、レンズを覆い隠す直前(フレーム1105)においては、動ベクトルの大きさが減少し、しかも動ベクトルの位置が、フレーム内の外周方向へ拡散していく。この傾向が検出された場合に、指Fがレンズを覆い隠したと判定し、その直後の動ベクトル量の少ない数フレームの画像列を黒画像と判定することができる。
なお、単一色の壁など、動きの少ない背景を撮影している場合にも、動ベクトルの大きさは減少するが(手ぶれに基づくもの程度となる)、この場合には、上記の動ベクトルの拡散傾向が生じない。従って、背景が動かない場合と、レンズを指Fが覆い隠した場合とを、この拡散傾向に基づいて判別することができる。
In this example, immediately before the finger F approaches the lens and covers the lens (frame 1105), the size of the motion vector decreases, and the position of the motion vector diffuses toward the outer periphery in the frame. Go. When this tendency is detected, it is determined that the finger F has covered the lens, and an image sequence of several frames with a small amount of motion vector immediately after that can be determined as a black image.
Note that the size of the motion vector also decreases when shooting a background with little motion, such as a single-color wall (it will be based on camera shake). No diffusion tendency occurs. Therefore, the case where the background does not move and the case where the finger F covers the lens can be discriminated based on this diffusion tendency.

このようにして、動画像を構成する多数のフレームのうち黒画像となるフレームが検出されると、黒画像タイミング検出部212は、この黒画像が動画像の中でどのようなタイミングで発生するのかを検出する。タイミングの表現方法は、初期フレームからのフレーム数で表わしてもよいし、時間間隔で表現してもよいが、以下では、黒画像タイミング検出部212が、黒画像の発生タイミングをフレーム数で表現したタイミング信号を生成するものとする。   In this way, when a black image frame is detected from among a large number of frames constituting a moving image, the black image timing detection unit 212 generates the black image at any timing in the moving image. To detect. The timing expression method may be expressed by the number of frames from the initial frame or may be expressed by time intervals. In the following, the black image timing detection unit 212 expresses the black image generation timing by the number of frames. The generated timing signal is generated.

文字認識部213は、図7に示すように、こうして生成されたタイミング信号504と同一又は類似のタイミングで黒画像発生タイミングを有するタイミング情報501を辞書データベース中6Aから検索し、検索されたタイミング情報に対応する文字をデータベース6Aから読み出す。すなわち、タイミング情報501中の黒画像列502のタイミングと、タイミング信号504中の黒画像列505の発生タイミングとを比較し、同一又は類似のタイミングと言えるか否かが、文字認識部213により判定される。このとき、タイミング信号504に突発的に発生する黒画像511は、その発生タイミング等に基づいて、指Fの動きに基づくものではなくノイズと判定して破棄する(間引く)のが好ましい。例えば、黒画像511が、隣接する黒画像505に対し2フレーム以下(1/15秒以下)の間隔しかない場合には、黒画像511はノイズと判定して間引くことができる。また、そのような黒画像511を単純に破棄するのでなく、黒画像でないと判定する確率を下げるようにしてもよい。   As shown in FIG. 7, the character recognizing unit 213 searches the dictionary database 6A for timing information 501 having black image generation timing at the same timing as or similar to the timing signal 504 thus generated, and the searched timing information Is read from the database 6A. That is, the character recognition unit 213 determines whether the timing of the black image sequence 502 in the timing information 501 and the generation timing of the black image sequence 505 in the timing signal 504 are the same or similar. Is done. At this time, it is preferable that the black image 511 suddenly generated in the timing signal 504 is determined not to be based on the movement of the finger F but to be discarded (thinned out) based on the generation timing or the like. For example, when the black image 511 has an interval of 2 frames or less (1/15 seconds or less) with respect to the adjacent black image 505, the black image 511 can be determined as noise and thinned. Further, instead of simply discarding such a black image 511, the probability of determining that it is not a black image may be lowered.

以上、発明の実施の形態を説明したが、本発明はこれらに限定されるものではなく、発明の趣旨を逸脱しない範囲内において、種々の変更、追加等が可能である。例えば、上記実施の形態では、1つのレンズを持つ1つのカメラ33により動画像を撮像していたが、複数のレンズを持つカメラにより得られる時間的に同期又は非同期の複数系列の動画像を選択してもよいし、また複数系列の画像を重畳させて動画像として用いてもよい。さらに、画像を重畳させる場合に、別に定めた重み付け係数を掛け合わせた上で重畳するようにしてもよい。
また、上記の実施の形態では、カメラ33のレンズを叩くことにより文字の入力を行っていたが、例えばメールの送信命令など、制御コードを入力するようにしてもよいことは勿論である。
Although the embodiments of the invention have been described above, the present invention is not limited to these embodiments, and various modifications and additions can be made without departing from the spirit of the invention. For example, in the above embodiment, a moving image is picked up by one camera 33 having one lens, but a plurality of time-synchronous or asynchronous moving images obtained by a camera having a plurality of lenses are selected. Alternatively, a plurality of series of images may be superimposed and used as a moving image. Furthermore, when superimposing images, they may be superimposed after multiplying by a separately determined weighting coefficient.
In the above-described embodiment, characters are input by hitting the lens of the camera 33, but it is needless to say that a control code such as a mail transmission command may be input.

また、本実施の形態の文字入力モードを終了させる場合、上記の例ではキー35Aを操作していたが、この代わりに、例えばカメラ33のレンズが所定の期間TE秒(例えば2〜5秒程度)継続して押えられた場合に、本実施の形態の文字入力モードを終了させるようにしてもよい。
また、図8に示すように、フリップ34と本体部37とがヒンジ部38により開閉可能となっているフリップ式携帯情報端末装置においては、フリップ34の表面(フリップを閉じた状態で見える面)に本実施の形態の文字入力モードを開始又は終了させるためのボタン35Bを設けてもよい。これにより、フリップを開かなくても、本実施の形態の文字入力モードを開始又は終了させることができる。
When the character input mode according to the present embodiment is terminated, the key 35A is operated in the above example. Instead, for example, the lens of the camera 33 has a predetermined period of TE seconds (for example, about 2 to 5 seconds). ) When the character is continuously pressed, the character input mode of this embodiment may be terminated.
Further, as shown in FIG. 8, in the flip-type portable information terminal device in which the flip 34 and the main body 37 can be opened and closed by the hinge portion 38, the surface of the flip 34 (the surface seen when the flip is closed). In addition, a button 35B for starting or ending the character input mode of the present embodiment may be provided. Thereby, the character input mode of the present embodiment can be started or ended without opening the flip.

また、上記の実施の形態では、指Fでカメラ33のレンズを定められたタイミングで叩く例を説明したが、指F以外の物体によりレンズを所定のタイミングで叩くようにしてもよい。
また、画素のサイズも本発明においては、様々なサイズ又はフォーマットとすることができ、例えば、ITU−T H.261のCIF、MPEG−1のSIF、NTSC用画像、PAL用画像、HDTV画像あるいはそれとは異なるサイズの画像のいずれでも良い。
In the above embodiment, the example in which the lens of the camera 33 is hit with a finger F at a predetermined timing has been described. However, the lens may be hit with an object other than the finger F at a predetermined timing.
In addition, the pixel size may be various sizes or formats in the present invention. For example, ITU-T H.261 CIF, MPEG-1 SIF, NTSC image, PAL image, HDTV image, Any image of a different size may be used.

この発明の実施形態に係わる携帯電話端末の回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of the mobile telephone terminal concerning embodiment of this invention. 本実施の形態による文字入力モードを実行する様子を示す概念図である。It is a conceptual diagram which shows a mode that the character input mode by this Embodiment is performed. 辞書データベース6Aに格納される入力文字情報とタイミング情報との対応関係を示す対応表の一例である。It is an example of the correspondence table | surface which shows the correspondence of the input character information stored in the dictionary database 6A, and timing information. 動ベクトル計算処理部2111の動作の一例を示す。An example of the operation of the motion vector calculation processing unit 2111 will be described. フレーム中において設定される動ベクトル抽出領域の一例を示す。An example of a motion vector extraction region set in a frame is shown. フレーム中において設定される動ベクトル抽出領域の一例を示す。An example of a motion vector extraction region set in a frame is shown. 黒画像判定部211の動作の一例を示す。An example of operation | movement of the black image determination part 211 is shown. 文字認識部2113の動作の一例を示す。An example of the operation of the character recognition unit 2113 is shown. 本実施の形態の変形例の1つを示す。One of the modifications of this Embodiment is shown.

符号の説明Explanation of symbols

1・・・無線部、2・・・ベースバンド部、3・・・入出力部、4・・・電源部、 5・・・バイブレータ、 6・・・メモリカード、 11・・・アンテナ、12・・・アンテナ共用器(DUP)、 13・・・受信回路(RX)、 14・・・周波数シンセサイザ(SYN)、 15・・・送信回路、 21・・・主制御部21、 22・・・多重分離部、 23・・・音声コーデック、 24・・・画像処理部、 25・・・LCD制御部、 26・・・メモリ部、 31・・・マイクロフォン、 32・・・スピーカ、 33・・・カメラ、 34・・・LCD、 35・・・キーボード、 41・・・バッテリ、 42・・・充電回路、 43・・・電圧生成回路、 211・・・黒画像判定部、 212・・・黒画像タイミング検出部、 213・・・文字認識部、 214・・・タイマ、 2111・・・動ベクトル計算処理部、 2112・・・動ベクトル絞込み計算処理部、 2113・・・黒画素含有率計算処理部。   DESCRIPTION OF SYMBOLS 1 ... Radio part, 2 ... Baseband part, 3 ... Input / output part, 4 ... Power supply part, 5 ... Vibrator, 6 ... Memory card, 11 ... Antenna, 12 ... Antenna duplexer (DUP), 13 ... Reception circuit (RX), 14 ... Frequency synthesizer (SYN), 15 ... Transmission circuit, 21 ... Main control unit 21, 22 ... Demultiplexing unit, 23 ... Audio codec, 24 ... Image processing unit, 25 ... LCD control unit, 26 ... Memory unit, 31 ... Microphone, 32 ... Speaker, 33 ... Camera 34 ... LCD 35 ... Keyboard 41 ... Battery 42 ... Charging circuit 43 ... Voltage generation circuit 211 ... Black image determination unit 212 ... Black image Timing detector 213 ... Character recognition unit, 214 ... Timer, 2111 ... Motion vector calculation processing unit, 2112 ... Motion vector narrowing calculation processing unit, 2113 ... Black pixel content calculation processing unit.

Claims (8)

入力情報を入力する機能を備えた携帯端末において、
動画像を撮像する撮像部と、
前記動画像に含まれる画像が黒画像であるか否かを判定する黒画像判定部と、
前記黒画像が発生する発生タイミングを検出する黒画像タイミング検出部と、
前記発生タイミングと前記入力情報とを対応付けて記憶する辞書データベースと、
前記黒画像タイミング検出部で検出された前記発生タイミングに対応する前記入力情報を前記辞書データベースから読み出す読出し部と
を備え
前記黒画像判定部は、前記画像上の所定の領域における黒画素の動きを示す動ベクトルを計算する動ベクトル計算部を含み、
前記動ベクトルが示す前記動きが所定量以下である場合に、その動ベクトルが含まれる画像を前記黒画像と判定する
ことを特徴とする携帯端末。
In a mobile terminal equipped with a function for inputting input information,
An imaging unit that captures a moving image;
A black image determination unit that determines whether an image included in the moving image is a black image;
A black image timing detection unit for detecting a generation timing at which the black image is generated;
A dictionary database that stores the occurrence timing and the input information in association with each other;
A reading unit that reads out the input information corresponding to the generation timing detected by the black image timing detection unit from the dictionary database ;
The black image determination unit includes a motion vector calculation unit that calculates a motion vector indicating a motion of a black pixel in a predetermined region on the image,
When the motion indicated by the motion vector is equal to or less than a predetermined amount, an image including the motion vector is determined as the black image.
A portable terminal characterized by that.
前記黒画像判定部は、前記動ベクトル計算部により計算された複数の動ベクトルを所定の絞込み基準に従って絞り込んで基準動ベクトルを出力する動ベクトル絞込み計算部を更に備えた請求項記載の携帯端末。 The black image determining unit, the portable terminal according to claim 1, further comprising a calculation unit narrowing the motion vector to output a reference motion vector a plurality of motion vectors calculated by the motion vector calculating portion narrow in accordance with the criteria refine a given . 前記動ベクトル絞込み計算部は、前記動ベクトル計算部で計算された動ベクトルのばらつきを吸収して外乱データを除去する処理を実行する請求項記載の携帯端末。 The mobile terminal according to claim 2, wherein the motion vector narrowing calculation unit executes a process of removing disturbance data by absorbing variations in the motion vector calculated by the motion vector calculation unit. 前記動ベクトル絞込み計算部は、前記画像間の間引きを実行して外乱データを除去する請求項記載の携帯端末。 The mobile terminal according to claim 2, wherein the motion vector narrowing calculation unit removes disturbance data by performing thinning out of the images. 前記動ベクトル絞込み計算部は、前記動画像中の物体像のエッジ検出を行い、このエッジ付近の動ベクトル以外の動ベクトルを除去する処理を実行する請求項記載の携帯端末。 The mobile terminal according to claim 2, wherein the motion vector narrowing calculation unit performs an edge detection of an object image in the motion image and executes a process of removing motion vectors other than the motion vector near the edge. 前記黒画像判定部は、前記エッジ付近の動ベクトルが前記画像の周辺部に拡散したことが検出された場合に、その直後の動ベクトル量の少ない数フレームの画像列を前記黒画像と判定する請求項記載の携帯端末。 When it is detected that a motion vector near the edge has diffused to the periphery of the image, the black image determination unit determines an image sequence of several frames with a small amount of motion vector immediately after that as the black image. The mobile terminal according to claim 5 . 前記黒画像判定部は、前記動画像に含まれる画像中の前記黒画素の含有率を計算する黒画素含有率計算部をさらに含み、
前記動ベクトルが示す前記動きが所定量以下である場合、及び前記含有率が所定値以上である場合に、その画像を前記黒画像と判定する請求項1記載の携帯端末。
The black image determination unit further includes a black pixel content rate calculation unit that calculates the content rate of the black pixels in the image included in the moving image,
The portable terminal according to claim 1, wherein the image is determined as the black image when the motion indicated by the motion vector is equal to or less than a predetermined amount and when the content rate is equal to or greater than a predetermined value.
前記動画像において所定時間以上の間黒画像が継続することが前記黒画像判定部により判定された場合に、前記黒画像タイミング検出部及び前記読出し部による前記入力情報の入力を開始又は終了するように構成された請求項1記載の携帯端末。   When the black image determination unit determines that the black image continues for a predetermined time or longer in the moving image, the input of the input information by the black image timing detection unit and the reading unit is started or ended. The mobile terminal according to claim 1, which is configured as follows.
JP2004308501A 2004-10-22 2004-10-22 Mobile device Active JP4381282B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004308501A JP4381282B2 (en) 2004-10-22 2004-10-22 Mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004308501A JP4381282B2 (en) 2004-10-22 2004-10-22 Mobile device

Publications (2)

Publication Number Publication Date
JP2006121515A JP2006121515A (en) 2006-05-11
JP4381282B2 true JP4381282B2 (en) 2009-12-09

Family

ID=36538970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004308501A Active JP4381282B2 (en) 2004-10-22 2004-10-22 Mobile device

Country Status (1)

Country Link
JP (1) JP4381282B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5614849B2 (en) * 2011-09-20 2014-10-29 日本電信電話株式会社 Command signal transmitting apparatus and operation method thereof
JP2013069040A (en) * 2011-09-21 2013-04-18 Nippon Telegr & Teleph Corp <Ntt> Instruction signal transmission device and its operation method
WO2018198499A1 (en) * 2017-04-27 2018-11-01 ソニー株式会社 Information processing device, information processing method, and recording medium

Also Published As

Publication number Publication date
JP2006121515A (en) 2006-05-11

Similar Documents

Publication Publication Date Title
US9400563B2 (en) Apparatus and method for recognizing subject motion using a camera
US8184166B2 (en) Method, device, mobile terminal and computer program product for a camera motion detection based scheme for improving camera input user interface functionalities
RU2664688C2 (en) Method of human faces recognition, device and terminal
KR100651521B1 (en) Method for clocking speed in wireless terminal
CN111161316A (en) Target object tracking method and device and terminal equipment
JP3649242B2 (en) Mobile phone device and character input method for mobile phone device
US20080242352A1 (en) Image transmission apparatus, image transmission method and image transmission program product
US20130053010A1 (en) Apparatus and method for performing a call connection in portable terminal
US9799376B2 (en) Method and device for video browsing based on keyframe
KR100735262B1 (en) Method for displaying automatically in wireless terminal
CN112188091B (en) Face information identification method and device, electronic equipment and storage medium
KR100630203B1 (en) Method for displaying of picture in wireless terminal
KR100719841B1 (en) Method for creation and indication of thumbnail view
KR101503017B1 (en) Motion detecting method and apparatus
US7489853B2 (en) Auxiliary information generation method, auxiliary information generation apparatus, video data generation method, video data playback method, video data playback apparatus, and data storage medium
JP4381282B2 (en) Mobile device
CN109271863B (en) Face living body detection method and device
JP4703173B2 (en) Mobile device
KR100703354B1 (en) Method for transmitting image data in video telephone mode of wireless terminal
JP5451364B2 (en) Subject tracking device and control method thereof
KR100734003B1 (en) User terminal capable of function selection using camera and function selection method thereof
KR101499133B1 (en) Method and device for performing menu in wireless terminal
CN113438480B (en) Method, device and storage medium for judging video scene switching
KR100652632B1 (en) A apparatus and method for changing direction in mobile communication terminal with digital camera
KR101163228B1 (en) Mobile terminal with camera function and method for photographing thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090915

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3