JP2001306049A - Information processor, movement recognition process displaying method and program storage medium - Google Patents

Information processor, movement recognition process displaying method and program storage medium

Info

Publication number
JP2001306049A
JP2001306049A JP2000126344A JP2000126344A JP2001306049A JP 2001306049 A JP2001306049 A JP 2001306049A JP 2000126344 A JP2000126344 A JP 2000126344A JP 2000126344 A JP2000126344 A JP 2000126344A JP 2001306049 A JP2001306049 A JP 2001306049A
Authority
JP
Japan
Prior art keywords
recognition
user
image
cpu
moving direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000126344A
Other languages
Japanese (ja)
Inventor
Gakuo Inagaki
岳夫 稲垣
Junko Saito
潤子 齋藤
Keigo Ihara
圭吾 井原
Takahiko Sueyoshi
隆彦 末吉
Sachihiro Yamaguchi
祥弘 山口
Shinichiro Gomi
信一郎 五味
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000126344A priority Critical patent/JP2001306049A/en
Priority to EP01303523A priority patent/EP1148411A3/en
Priority to US09/838,644 priority patent/US7046232B2/en
Priority to KR1020010021420A priority patent/KR100843811B1/en
Priority to CNB01116655XA priority patent/CN100487633C/en
Publication of JP2001306049A publication Critical patent/JP2001306049A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make a user learn how movements of hands of the user are to be recognized. SOLUTION: This invention can make a user learn how movements of hands of the user are recognized by recognizing movements in images, based on images obtained by picking up images of the hands of the user with a CCD camera 8 and by generating visual feedback pictures expressing loci of the recognized movements of the hands of the user and by displaying the pictures on a liquid crystal display 10.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は情報処理装置、動作
認識過程表示方法及びプログラム格納媒体に関し、例え
ばノートブック型パーソナルコンピュータ(以下、これ
をノートパソコンと呼ぶ)に適用して好適なものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus, an operation recognition process display method, and a program storage medium, which are suitably applied to, for example, a notebook personal computer (hereinafter, referred to as a notebook personal computer). .

【0002】[0002]

【従来の技術】従来、ノートパソコンにおいては液晶デ
ィスプレイ等の表示手段と、所定のコマンドや文字を入
力するためのキーボードあるいはマウス等の入力手段と
によって構成され、キー操作によって入力されたコマン
ドに応じて所定の処理を実行し、その実行結果を表示部
に表示するようになされている。
2. Description of the Related Art Conventionally, a notebook personal computer is constituted by display means such as a liquid crystal display and input means such as a keyboard or a mouse for inputting predetermined commands and characters, and responds to commands input by key operations. To execute a predetermined process, and display the execution result on a display unit.

【0003】また最近のノートパソコンにおいては、キ
ーボードやマウス以外の入力手段として例えば当該ノー
トパソコンの筐体側面から僅かに突出するように設けら
れた所定形状の回転操作子いわゆるジョグダイヤルが用
いられ、当該ジョグダイヤルに対する回転操作及び押圧
操作に応動して、メニュー項目の選択及びコマンドの決
定等の命令が入力されるようになされている。
In recent notebook personal computers, a so-called jog dial having a predetermined shape is used as input means other than a keyboard and a mouse, for example, so as to slightly protrude from the side of the housing of the notebook personal computer. In response to a rotating operation and a pressing operation on the jog dial, a command such as selection of a menu item and determination of a command is input.

【0004】[0004]

【発明が解決しようとする課題】ところでかかる構成の
ノートパソコンにおいては、上述のキーボード、マウス
あるいはジョグダイヤルの他にも、外部接続されたカメ
ラを介してユーザを撮像し、当該ユーザの動きに応じて
コマンドを自動的に入力することが提案されているが、
ユーザにとっては間違ったコマンドを入力してしまった
ときに、それがどのような動作に基づいて認識されたた
めであるのかを知り得ず、使い勝手が悪いという問題が
あった。
By the way, in a notebook personal computer having such a configuration, in addition to the above-mentioned keyboard, mouse or jog dial, a user is imaged through an externally connected camera, and the image is taken in accordance with the movement of the user. It has been suggested that commands be entered automatically,
When a user inputs a wrong command, the user cannot know the operation based on which the command is recognized, and there is a problem that the usability is poor.

【0005】本発明は以上の点を考慮してなされたもの
で、認識対象の動作が認識されるまでの認識過程をユー
ザに対してフィードバックして学習させ得る情報処理装
置、動作認識過程表示方法及びプログラム格納媒体を提
案しようとするものである。
The present invention has been made in view of the above points, and an information processing apparatus capable of feeding back and learning a recognition process until a motion of a recognition target is recognized for a user, and a motion recognition process display method. And a program storage medium.

【0006】[0006]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、撮像手段によって認識対象を撮像
することにより得られた画像に基づいて当該画像中の認
識対象の移動方向を認識し、当該認識した認識対象の移
動方向の軌跡を表す認識過程画像を生成して所定の表示
手段に表示することにより、認識対象の移動方向がどの
ように認識されたのかをユーザに対してフィードバック
して学習させることができる。
According to the present invention, a moving direction of a recognition target in an image is recognized based on an image obtained by imaging the recognition target by an imaging unit. By generating a recognition process image representing the trajectory of the moving direction of the recognized recognition target and displaying the image on a predetermined display unit, the user is fed back to the user how the moving direction of the recognition target has been recognized. Can be learned.

【0007】[0007]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0008】(1)第1の実施の形態 (1−1)ノートブック型パーソナルコンピュータの外
観構成 図1において、1は全体として本発明を適用した情報処
理装置としてのノートブック型パーソナルコンピュータ
(以下、これをノートパソコンと呼ぶ)を示し、本体2
と当該本体2に対して開閉自在に取り付けられた表示部
3とによって構成されている。
(1) First Embodiment (1-1) External Configuration of Notebook-Type Personal Computer In FIG. 1, reference numeral 1 denotes a notebook-type personal computer (hereinafter referred to as an information processing apparatus) to which the present invention is applied as a whole. , This is called a notebook computer).
And a display unit 3 attached to the main body 2 so as to be openable and closable.

【0009】本体2は、その上面に各種文字や記号及び
数字等を入力するための複数の操作キー4、マウスカー
ソルの移動に用いられるスティック式ポインティングデ
バイス(以下、これを単にスティックと呼ぶ)5、通常
のマウスにおける左ボタン及び右ボタンに相当する左ク
リックボタン5A及び5B、マウスカーソルをスクロー
ルボタンに合わせることなくスクロールバーを操作する
ためのセンタボタン5C、内蔵スピーカ6A及び6B、
押圧式の電源スイッチ7、表示部3に設けられたCCD
(Charge Coupled Device )カメラ8用のシャッタボタ
ン9、LED(Light Emitting Diode)で構成された電
源ランプPL、電池ランプBL及びメッセージランプM
L等が設けられている。
The main body 2 has a plurality of operation keys 4 for inputting various characters, symbols, numbers, and the like on a top surface thereof, and a stick type pointing device (hereinafter, simply referred to as a stick) 5 used for moving a mouse cursor. Left click buttons 5A and 5B corresponding to a left button and a right button of a normal mouse, a center button 5C for operating a scroll bar without moving the mouse cursor to the scroll buttons, built-in speakers 6A and 6B,
Push-type power switch 7, CCD provided on display unit 3
(Charge Coupled Device) A shutter button 9 for a camera 8, a power lamp PL, a battery lamp BL, and a message lamp M each composed of an LED (Light Emitting Diode).
L and the like are provided.

【0010】表示部3は、その正面に例えば8.9型
(1024×480ピクセル)対応のTFT(Thin Fil
m Transisitor )カラー液晶でなる液晶ディスプレイ1
0が設けられると共に、正面の中央上端部には撮像手段
としてのCCDカメラ8を備えた撮像部11が当該表示
部3に対して回動自在に設けられている。
The display section 3 has a TFT (Thin Fil) corresponding to, for example, an 8.9 type (1024 × 480 pixels) on its front surface.
m Transisitor) Liquid crystal display 1 consisting of color liquid crystal
0 is provided, and an image pickup section 11 provided with a CCD camera 8 as an image pickup means is provided at the upper end of the front center so as to be rotatable with respect to the display section 3.

【0011】この撮像部11においては、CCDカメラ
8が表示部3の正面方向から背面方向までの180度程
度の角度範囲で回動して任意の角度で位置決めし得ると
共に、当該CCDカメラ8によって所望の撮像対象を撮
像する際のフォーカス調整を当該撮像部11の上端部に
設けられた調整リング12の回転操作により容易に行い
得るようになされている。
In the image pickup section 11, the CCD camera 8 can be rotated at an angle of about 180 degrees from the front direction to the back direction of the display section 3 and positioned at an arbitrary angle. Focus adjustment when imaging a desired imaging target can be easily performed by rotating the adjustment ring 12 provided at the upper end of the imaging unit 11.

【0012】また表示部3は、撮像部11の左端近傍に
おける正面側及び背面側にマイクロフォン13が設けら
れており、当該マイクロフォン13を介して当該表示部
3の正面側から背面側までの広範囲に渡って集音し得る
ようになされている。
The display unit 3 is provided with microphones 13 on the front side and the back side near the left end of the image pickup unit 11, and covers a wide area from the front side to the back side of the display unit 3 via the microphone 13. It is designed to be able to collect sound across.

【0013】さらに表示部3は、液晶ディスプレイ10
の左端近傍及び右端近傍にそれぞれつめ14及び15が
設けられ、当該つめ14及び15と対応する本体2の所
定位置には孔部16及び17が設けられており、表示部
3を本体2に閉塞した状態でつめ14及び15がそれぞ
れ対応する孔部16及び17に嵌合される。
The display unit 3 further includes a liquid crystal display 10
The pawls 14 and 15 are provided near the left end and the right end, respectively, and holes 16 and 17 are provided at predetermined positions of the main body 2 corresponding to the pawls 14 and 15, respectively. In this state, the claws 14 and 15 are fitted into the corresponding holes 16 and 17, respectively.

【0014】これに対して表示部3は、本体2に閉塞さ
れた当該表示部3の前側が持ち上げられたときに、孔部
16及び17とつめ14及び15の嵌合状態が解除さ
れ、その結果、当該表示部3が本体2から展開し得るよ
うになされている。
On the other hand, when the front side of the display unit 3 closed by the main body 2 is lifted, the fitted state of the holes 16 and 17 and the claws 14 and 15 is released, and As a result, the display unit 3 can be developed from the main body 2.

【0015】また本体2は、その右側面にIrDA(In
frared Data Association )準拠の赤外線ポート18、
ヘッドフォン端子19、マイクロフォン用入力端子2
0、USB(Universal Serial Bus)端子21、外部電
源コネクタ22、外部ディスプレイ出力用コネクタ2
3、回転操作子の回転操作及び押圧操作によって所定の
処理を実行するための命令を入力し得るジョグダイヤル
24及びモジュラージャック用のモデム端子25が設け
られている。
The body 2 has an IrDA (In) on its right side.
frared Data Association) compliant infrared port 18,
Headphone terminal 19, microphone input terminal 2
0, USB (Universal Serial Bus) terminal 21, external power supply connector 22, external display output connector 2
3. A jog dial 24 and a modem terminal 25 for a modular jack are provided for inputting a command for executing a predetermined process by a rotation operation and a pressing operation of the rotary operation element.

【0016】一方、図2に示すように本体2は、その左
側面に排気孔26、PCMCIA(Personal Computer
Memory Card International Association )規格のPC
(Personal Computer )カードに対応したPCカードス
ロット27及び4ピン対応のIEEE(Institute of E
lectrical and Electronics Engineers )1394端子
28が設けられている。
On the other hand, as shown in FIG. 2, the main body 2 has an exhaust hole 26 and a PCMCIA (Personal Computer) on its left side.
Memory Card International Association) standard PC
(Personal Computer) card compatible with PC card slot 27 and 4-pin IEEE (Institute of E)
Electrical and Electronics Engineers) 1394 terminal 28 is provided.

【0017】さらに図3に示すように本体2は、その後
側面にバッテリコネクタ29が設けられており、底面に
はバッテリパック30(図1)を取り外すためのスライ
ド式取り外しレバー31及び当該スライド式取り外しレ
バー31のスライド操作をロックするロックレバー32
が設けられると共に、本体2の動作を中断して電源投入
時の環境を再構築するためのリセットスイッチ33が設
けられている。なおバッテリパック30は、バッテリコ
ネクタ29に対して着脱自在に接続される。
Further, as shown in FIG. 3, the main body 2 is provided with a battery connector 29 on a rear side surface thereof, and a slide type removal lever 31 for detaching the battery pack 30 (FIG. 1) on the bottom surface, and the slide type removal lever 31. Lock lever 32 for locking the sliding operation of lever 31
And a reset switch 33 for interrupting the operation of the main body 2 and reconstructing the environment at power-on. The battery pack 30 is detachably connected to the battery connector 29.

【0018】(1−2)ノートブック型パーソナルコン
ピュータの回路構成 次にノートパソコン1の回路構成について図4を用いて
詳細に説明する。ノートパソコン1の本体2において
は、当該本体2の各種機能を統括的に制御するCPU
(Central Processing Unit )50がホストバス52に
接続されており、当該CPU50によってRAM(Rand
om Access Memory)53にロードされた各種プログラム
やアプリケーションソフトウェアに応じた処理を、クロ
ックジェネレータ60から与えられるシステムクロック
に基づいて所定の動作速度で実行することにより各種機
能を実現し得るようになされている。
(1-2) Circuit Configuration of Notebook Type Personal Computer Next, the circuit configuration of the notebook personal computer 1 will be described in detail with reference to FIG. In the main body 2 of the notebook personal computer 1, a CPU for controlling various functions of the main body 2 in an integrated manner
(Central Processing Unit) 50 is connected to the host bus 52, and the CPU 50 controls the RAM (Rand Rand).
om Access Memory) 53 is executed at a predetermined operating speed based on a system clock provided from the clock generator 60, thereby realizing various functions. I have.

【0019】またホストバス52には、キャッシュメモ
リ51が接続されており、CPU50が使用するデータ
をキャッシュし、高速アクセスを実現し得るようになさ
れている。
A cache memory 51 is connected to the host bus 52 so as to cache data used by the CPU 50 and realize high-speed access.

【0020】このホストバス52は、PCI(Peripher
al Component Interconnect )バス55とホスト−PC
Iブリッジ54を介して接続されており、当該PCIバ
ス55にはビデオコントローラ56、IEEE1349
インターフェース57、ビデオキャプチャ処理チップ8
3及びPCカードインターフェース58が接続されてい
る。
The host bus 52 is connected to a PCI (Peripher
al Component Interconnect) bus 55 and host-PC
The PCI bus 55 is connected via a video controller 56 and an IEEE 1349
Interface 57, video capture processing chip 8
3 and the PC card interface 58 are connected.

【0021】ここでホスト−PCIブリッジ54は、C
PU50と、ビデオコントローラ56、ビデオキャプチ
ャ処理チップ83、IEEE1349インターフェース
57及びPCカードインターフェース58との間で行わ
れる各種データの授受を制御すると共に、メモリバス5
9を介して接続されたRAM53のメモリコントロール
を行うようになされている。
Here, the host-PCI bridge 54
It controls the exchange of various data between the PU 50 and the video controller 56, the video capture processing chip 83, the IEEE 1349 interface 57, and the PC card interface 58, and controls the memory bus 5
9 for controlling the memory of the RAM 53 connected thereto.

【0022】またホスト−PCIブリッジ54は、ビデ
オコントローラ56とAGP(Accelerated Graphics P
ort )に沿った信号線を介して接続されており、これに
より当該ホスト−PCIブリッジ54及びビデオコント
ローラ56間で画像データを高速転送し得るようになさ
れている。
The host-PCI bridge 54 includes a video controller 56 and an AGP (Accelerated Graphics P
(ort), so that image data can be transferred between the host-PCI bridge 54 and the video controller 56 at a high speed.

【0023】ビデオキャプチャ処理チップ83は、シリ
アルバスでなるI2 Cバス82(一般的にSM(System
Management )バスとも呼ばれている)と接続されてお
り、当該I2 Cバス82を介してCCDカメラ8で撮像
された画像データが供給されると、これを内蔵のフレー
ムメモリ(図示せず)に一旦格納し、JPEG(Joint
Photographic Experts Group)規格に従って画像圧縮処
理を施すことによりJPEG画像データを生成した後、
当該JPEG画像データを再度フレームメモリに格納す
るようになされている。
The video capture processing chip 83 includes an I 2 C bus 82 (generally an SM (System
Management) bus, and when image data captured by the CCD camera 8 is supplied via the I 2 C bus 82, the image data is stored in a built-in frame memory (not shown). And store it in JPEG (Joint
Photographic Experts Group) After generating JPEG image data by performing image compression processing according to the standard,
The JPEG image data is stored in the frame memory again.

【0024】そしてビデオキャプチャ処理チップ83
は、CPU50からの要求に応じて、フレームメモリに
格納されているJPEG画像データをバスマスタ機能を
用いてRAM53へ転送した後、JPEG画像(静止
画)データ又はMotionJPEG画像(動画)デー
タとしてハードディスクドライブ(HDD)67へ転送
する。
Then, the video capture processing chip 83
Transmits the JPEG image data stored in the frame memory to the RAM 53 using the bus master function in response to a request from the CPU 50, and then transfers the JPEG image (still image) data or the Motion JPEG image (moving image) data to the hard disk drive ( HDD) 67.

【0025】またビデオコントローラ56は、適時供給
される各種アプリケーションソフトウェアに基づく画像
データや、CCDカメラ8で撮像された画像データを表
示部3の液晶ディスプレイ10に出力することにより、
複数のウィンドウ画面を表示し得るようになされてい
る。
The video controller 56 outputs image data based on various kinds of application software supplied at appropriate times and image data picked up by the CCD camera 8 to the liquid crystal display 10 of the display unit 3,
A plurality of window screens can be displayed.

【0026】IEEE1349インターフェース57
は、IEEE1394端子28と直結されており、当該
IEEE1394端子28を介して他のコンピュータ装
置やディジタルビデオカメラ等の外部デバイスと接続し
得るようになされている。
IEEE 1349 interface 57
Is directly connected to the IEEE 1394 terminal 28, and can be connected to another computer device or an external device such as a digital video camera via the IEEE 1394 terminal 28.

【0027】PCカードインターフェース58は、オプ
ション機能を追加するときに適宜PCカードスロット2
7に装填されるPCカード(図示せず)と接続され、当
該PCカードを介して例えばCD−ROM(Compact Di
sc-Read Only Memory )ドライブやDVD(Digital Ve
rsatile Disc)ドライブ等の外部デバイスと接続し得る
ようになされている。
When an optional function is added, the PC card interface 58
7 is connected to a PC card (not shown) mounted on the PC 7 and, for example, a CD-ROM (Compact Dimm
sc-Read Only Memory) drive and DVD (Digital Ve
(rsatile Disc) drive so that it can be connected to an external device.

【0028】PCIバス55は、ISA(Industrial S
tandard Architecture)バス65とPCI−ISAブリ
ッジ66を介して接続されており、当該PCI−ISA
ブリッジ66にはHDD67及びUSB端子21が接続
されている。
The PCI bus 55 is an ISA (Industrial S)
and a PCI-ISA bridge 66 and a PCI-ISA bridge 66.
The HDD 67 and the USB terminal 21 are connected to the bridge 66.

【0029】ここでPCI−ISAブリッジ66は、I
DE(Integrated Drive Electronics)インターフェー
ス、コンフィギュレーションレジスタ、RTC(Real-T
imeClock )回路及びUSBインターフェース等によっ
て構成されており、クロックジェネレータ60から与え
られるシステムクロックを基にIDEインターフェース
を介してHDD67の制御を行う。
Here, the PCI-ISA bridge 66
DE (Integrated Drive Electronics) interface, configuration register, RTC (Real-T
imeClock) circuit, a USB interface, and the like, and controls the HDD 67 via the IDE interface based on a system clock supplied from the clock generator 60.

【0030】HDD67のハードディスクには、 Windo
ws98(商標)等のOS(Operating System)、電子メ
ールプログラム、オートパイロットプログラム、ジョグ
ダイヤルサーバプログラム、ジョグダイヤルドライバ、
キャプチャーソフトウェア、ディジタル地図ソフトウェ
ア及びこれら以外の各種アプリケーションソフトウェア
が格納されており、起動処理の過程で適時RAM53に
転送されてロードされる。
The hard disk of the HDD 67 has Windo
OS (Operating System) such as ws98 (trademark), e-mail program, auto pilot program, jog dial server program, jog dial driver,
Capture software, digital map software, and various other application software are stored, and are transferred to and loaded on the RAM 53 as needed in the course of startup processing.

【0031】またPCI−ISAブリッジ66は、US
B端子21を介して接続される図示しないフロッピー
(登録商標)ディスクドライブ、プリンタ及びUSBマ
ウス等の外部デバイスをUSBインターフェースを介し
て制御すると共に、ISAバス65に接続されるモデム
69及びサウンドコントローラ70の制御を行う。
The PCI-ISA bridge 66 is a U.S.A.
External devices such as a floppy (registered trademark) disk drive, a printer, and a USB mouse (not shown) connected via the B terminal 21 are controlled via a USB interface, and a modem 69 and a sound controller 70 connected to the ISA bus 65. Control.

【0032】モデム69は、モデム端子25から図示し
ない公衆電話回線を介してインターネットサービスプロ
バイダ(以下、これをプロバイダと呼ぶ)に接続し、当
該プロバイダを介してインターネットへダイヤルアップ
IP接続するようになされている。
The modem 69 is connected to an Internet service provider (hereinafter, referred to as a provider) from a modem terminal 25 via a public telephone line (not shown), and is connected to the Internet via the provider through a dial-up IP connection. ing.

【0033】サウンドコントローラ70は、マイクロフ
ォン13で集音された音声信号をディジタル変換するこ
とにより音声データを生成し、これをCPU50に出力
すると共に、当該CPU50から供給される音声データ
をアナログ変換することにより音声信号を生成し、これ
を内蔵スピーカ6を介して外部に出力する。
The sound controller 70 generates audio data by digitally converting the audio signal collected by the microphone 13, outputs the audio data to the CPU 50, and converts the audio data supplied from the CPU 50 into an analog signal. , And outputs it to the outside via the built-in speaker 6.

【0034】またISAバス65には、I/O(In/Ou
t)コントローラ73が接続されており、外部電源コネ
クタ22から電源供給充電制御回路85を介して外部電
源の電力供給を受け、電源スイッチ7がオンされたとき
に各回路へ電力の供給を行う。なお、ここでもI/Oコ
ントローラ73は、クロックジェネレータ60から供給
されるシステムクロックを基に動作する。
The ISA bus 65 has an I / O (In / Ou).
t) The controller 73 is connected, receives power from an external power supply from the external power supply connector 22 via the power supply charging control circuit 85, and supplies power to each circuit when the power switch 7 is turned on. Here, the I / O controller 73 operates based on the system clock supplied from the clock generator 60 also.

【0035】また電源供給充電制御回路85は、I/O
コントローラ73によって制御され、バッテリコネクタ
29(図3)に接続されたバッテリパック30の充電を
制御する。
The power supply charge control circuit 85 is provided with an I / O
The controller 73 controls charging of the battery pack 30 connected to the battery connector 29 (FIG. 3).

【0036】I/Oコントローラ73は、マイクロコン
トローラ、I/Oインターフェース、CPU、ROM、
RAM等によって構成されており、フラッシュメモリ7
9に格納されているBIOS(Basic Input/Output Sys
tem )に基づいてOSやアプリケーションソフトウェア
と液晶ディスプレイ10やHDD67等の各種周辺機器
との間におけるデータの入出力を制御する。
The I / O controller 73 includes a microcontroller, an I / O interface, a CPU, a ROM,
The flash memory 7 comprises a RAM or the like.
9 (Basic Input / Output Sys.)
tem) to control the input and output of data between the OS and application software and various peripheral devices such as the liquid crystal display 10 and the HDD 67.

【0037】またI/Oコントローラ73は、赤外線ポ
ート18と接続され、例えば他のコンピュータ装置との
間で赤外線通信を実行し得るようになされている。
The I / O controller 73 is connected to the infrared port 18 and can execute infrared communication with, for example, another computer.

【0038】さらにI/Oコントローラ73は、反転ス
イッチ77と接続されており、撮像部11が液晶ディス
プレイ10の背面側方向に180度回転されたとき当該
反転スイッチ77がオンされ、その旨をPCI−ISA
ブリッジ66及びホスト−PCIブリッジ54を介して
CPU50に通知する。
Further, the I / O controller 73 is connected to an inversion switch 77, and when the imaging unit 11 is rotated by 180 degrees toward the back side of the liquid crystal display 10, the inversion switch 77 is turned on. -ISA
The CPU 50 is notified via the bridge 66 and the host-PCI bridge 54.

【0039】これに加えてI/Oコントローラ73は、
全押し/半押しスイッチ78と接続されており、本体2
の上面に設けられたシャッタボタン9が半押し状態にさ
れたとき全押し/半押しスイッチ78が半押し状態にオ
ンされ、その旨をCPU50に通知すると共に、シャッ
タボタン9が全押し状態にされたとき全押し/半押しス
イッチ78が全押し状態にオンされ、その旨をCPU5
0に通知する。
In addition, the I / O controller 73
It is connected to the full-press / half-press switch 78 and the main body 2
When the shutter button 9 provided on the upper surface of the camera is half-pressed, the full-press / half-press switch 78 is turned on to the half-pressed state, the CPU 50 is notified of this, and the shutter button 9 is fully pressed. The full-press / half-press switch 78 is turned on to the full-press state, and the CPU 5
Notify 0.

【0040】すなわちCPU50は、HDD67のハー
ドディスクからキャプチャーソフトウェアをRAM53
上に立ち上げた状態で、ユーザによってシャッタボタン
9が半押し状態にされると静止画像モードに入り、CC
Dカメラ8を制御して静止画像のフリーズを実行し、全
押し状態にされるとフリーズされた静止画像データを取
り込みビデオコントローラ56に送出する。
That is, the CPU 50 transfers the capture software from the hard disk of the HDD 67 to the RAM 53.
When the shutter button 9 is half-pressed by the user in a state where the camera is raised up, the still image mode is entered and the CC
The D camera 8 is controlled to freeze the still image. When the D camera 8 is fully pressed, the frozen still image data is captured and sent to the video controller 56.

【0041】これに対してCPU50は、キャプチャー
ソフトウェアを立ち上げない状態で、ユーザによってシ
ャッタボタン9が全押し状態にされると動画像モードに
入り、最大60秒程度までの動画像を取り込んでビデオ
コントローラ56に送出するようになされている。
On the other hand, when the shutter button 9 is fully depressed by the user without starting the capture software, the CPU 50 enters the moving image mode, captures a moving image for up to about 60 seconds, and outputs the moving image. The data is sent to the controller 56.

【0042】ところで、I/Oコントローラ73のRO
Mには、ウェイクアッププログラム、キー入力監視プロ
グラム、LED制御プログラム及びジョグダイヤル状態
監視プログラム、その他種々の制御プログラムが格納さ
れている。
By the way, the RO of the I / O controller 73
M stores a wakeup program, a key input monitoring program, an LED control program, a jog dial state monitoring program, and various other control programs.

【0043】ここでジョグダイヤル状態監視プログラム
は、HDD67のハードディスクに格納されているジョ
グダイヤルサーバプログラムと連動して用いられるプロ
グラムであり、ジョグダイヤル24が回転操作又は押圧
操作されたか否かを監視するためのものである。
Here, the jog dial state monitoring program is a program used in conjunction with a jog dial server program stored on the hard disk of the HDD 67, and monitors whether the jog dial 24 is rotated or pressed. It is.

【0044】ウェイクアッププログラムは、PCI−I
SAブリッジ66内のRTC回路から供給される現在時
刻が予め設定した開始時刻と一致すると、CPU50に
よって所定の処理を実行するように制御されたプログラ
ムであり、キー入力監視プログラムは操作キー4及びそ
の他の各種キースイッチからの入力を監視するプログラ
ムである。LED制御プログラムは、電源ランプPL、
電池ランプBL、メッセージランプML(図1)等の各
種ランプの点灯を制御するプログラムである。
The wake-up program is a PCI-I
When the current time supplied from the RTC circuit in the SA bridge 66 coincides with a preset start time, the CPU 50 is a program controlled to execute a predetermined process. Is a program for monitoring inputs from various key switches. The LED control program includes a power lamp PL,
This is a program for controlling lighting of various lamps such as a battery lamp BL and a message lamp ML (FIG. 1).

【0045】またI/Oコントローラ73のRAMに
は、ジョグダイヤル状態監視プログラム用のI/Oレジ
スタ、ウェイクアッププログラム用の設定時刻レジス
タ、キー入力監視プログラム用のキー入力監視レジス
タ、LED制御プログラム用のLED制御レジスタ及び
その他の各種プログラム用のレジスタが設けられてい
る。
In the RAM of the I / O controller 73, an I / O register for a jog dial state monitoring program, a set time register for a wakeup program, a key input monitoring register for a key input monitoring program, and an LED control program An LED control register and other registers for various programs are provided.

【0046】設定時刻レジスタは、ウェイクアッププロ
グラムで用いるためにユーザが予め任意に設定した開始
時刻の時間情報を格納するようになされている。従って
I/Oコントローラ73は、ウェイクアッププログラム
に基づいてRTC回路から供給される現在時刻が任意に
設定した開始時刻と一致するか否かを判別し、当該開始
時刻と一致したときにはその旨をCPU50に通知す
る。
The set time register stores the time information of the start time arbitrarily set by the user in advance for use in the wake-up program. Accordingly, the I / O controller 73 determines whether or not the current time supplied from the RTC circuit matches the arbitrarily set start time based on the wake-up program. Notify.

【0047】これによりCPU50は、開始時刻で予め
設定された所定のアプリケーションソフトウェアを立ち
上げ、当該アプリケーションソフトウェアに従って所定
の処理を実行する。
Thus, the CPU 50 starts up predetermined application software set in advance at the start time, and executes predetermined processing according to the application software.

【0048】またキー入力監視レジスタは、操作キー
4、スティック5、左クリックボタン5A、右クリック
ボタン5B及びセンタボタン5C等の入力操作に応じた
操作キーフラグを格納するようになされている。
The key input monitoring register stores operation key flags corresponding to input operations of the operation key 4, the stick 5, the left click button 5A, the right click button 5B, the center button 5C and the like.

【0049】従ってI/Oコントローラ73は、キー入
力監視プログラムに基づいて例えばスティック5による
ポインティング操作や、左クリックボタン5A、右クリ
ックボタン5B及びセンタボタン5Cのクリック操作が
行われたか否かを操作キーフラグの状態に基づいて判別
し、ポインティング操作やクリック操作が行われたとき
にはその旨をCPU50に通知する。
Therefore, the I / O controller 73 operates based on the key input monitoring program to determine whether or not the pointing operation with the stick 5 or the clicking operation of the left click button 5A, right click button 5B and center button 5C has been performed. The determination is made based on the state of the key flag, and when a pointing operation or a click operation is performed, the fact is notified to the CPU 50.

【0050】ここでポインティング操作とは、スティッ
ク5を指で上下左右に押圧操作することによりマウスカ
ーソルを画面上の所望位置に移動する操作のことであ
り、クリック操作とは左クリックボタン5A又は右クリ
ックボタン5Bを指で素早く押して離す操作のことであ
る。
Here, the pointing operation is an operation of moving the mouse cursor to a desired position on the screen by pressing the stick 5 up, down, left and right with a finger, and the clicking operation is the left click button 5A or the right click button. This is an operation to quickly press and release the click button 5B with a finger.

【0051】これによりCPU50は、ポインティング
操作によるマウスカーソルの移動やクリック操作に応じ
た所定の処理を実行する。
Thus, the CPU 50 executes a predetermined process in accordance with the movement of the mouse cursor and the click operation by the pointing operation.

【0052】またLED制御レジスタは、電源ランプP
L、電池ランプBL、メッセージランプML等の各種ラ
ンプの点灯状態を示す点灯フラグを格納するようになさ
れている。
The LED control register includes a power lamp P
A lighting flag indicating the lighting state of various lamps such as L, battery lamp BL, and message lamp ML is stored.

【0053】従ってI/Oコントローラ73は、例えば
ジョグダイヤル24の押圧操作によりCPU50がHD
D67のハードディスクから電子メールプログラムを立
ち上げ、当該電子メールプログラムに従って電子メール
を受け取ったときに点灯フラグを格納すると共に、当該
点灯フラグに基づいてLED81を制御することにより
メッセージランプMLを点灯させる。
Therefore, the I / O controller 73 causes the CPU 50 to operate the HD
The e-mail program is started from the hard disk at D67, and when an e-mail is received according to the e-mail program, a lighting flag is stored, and the message lamp ML is turned on by controlling the LED 81 based on the lighting flag.

【0054】またジョグダイヤル状態監視プログラム用
のI/Oレジスタは、ジョグダイヤル24に対する回転
操作及び押圧操作に応じた回転操作フラグ及び押圧操作
フラグを格納するようになされている。
The I / O register for the jog dial state monitoring program stores a rotation operation flag and a pressing operation flag corresponding to a rotation operation and a pressing operation on the jog dial 24.

【0055】従ってI/Oコントローラ73は、回転検
出部88を介して接続されたジョグダイヤル24の回転
操作及び押圧操作により複数のメニュー項目の中からユ
ーザ所望のメニュー項目が選択されたとき、I/Oレジ
スタに格納されている回転操作フラグ及び押圧操作フラ
グを立てると共に、その旨をCPU50に通知する。
Therefore, when a user's desired menu item is selected from a plurality of menu items by rotating and pressing the jog dial 24 connected via the rotation detecting unit 88, the I / O controller 73 outputs the I / O controller 73. The rotation operation flag and the pressing operation flag stored in the O register are set, and the CPU 50 is notified to that effect.

【0056】これによりCPU50は、HDD67から
読み出してRAM53上に立ち上げたジョグダイヤルサ
ーバプログラムに従って、ジョグダイヤル24の回転操
作及び押圧操作によって決定されたメニュー項目に該当
するアプリケーションソフトウェアを立ち上げて所定の
処理を実行する。
Thus, according to the jog dial server program read out from the HDD 67 and started on the RAM 53, the CPU 50 starts up application software corresponding to the menu item determined by rotating and pressing the jog dial 24, and performs a predetermined process. Execute.

【0057】ここでI/Oコントローラ73は、電源ス
イッチ7がオフでOSが起動していない状態であって
も、電源供給充電制御回路85の制御によって常時動作
しており、専用キーを設けることなく省電力状態又は電
源オフ時のジョグダイヤル24の押圧操作によってユー
ザ所望のアプリケーションソフトウェアやスクリプトフ
ァイルを起動し得るようになされている。
Here, the I / O controller 73 operates constantly under the control of the power supply / charge control circuit 85 even when the power switch 7 is off and the OS is not running. The user can start application software or a script file desired by the user by pressing the jog dial 24 in the power saving state or when the power is off.

【0058】なおI/Oコントローラ73は、I2 Cバ
ス82とも接続されており、操作キー4やジョグダイヤ
ル24によって設定されたCCDカメラ8に対する各種
設定パラメータをI2 Cバス82を介して供給すること
により、CCDカメラ8における明るさやコントラスト
を調整するようになされている。
[0058] Note that the I / O controller 73 is also connected to the I 2 C bus 82, supplies the various setting parameters for the CCD camera 8 set by operating keys 4 or the jog dial 24 through the I 2 C bus 82 Thus, the brightness and contrast of the CCD camera 8 are adjusted.

【0059】(1−3)ジェスチャー認識処理 かかる構成に加えてノートパソコン1は、CCDカメラ
8で撮像されたユーザの手の動き(ジェスチャー)を認
識するためのサイバージェスチャープログラムと呼ばれ
るアプリケーションソフトウェアをHDD67のハード
ディスクから立ち上げ、当該サイバージェスチャープロ
グラムに基づいてCCDカメラ8で撮像したユーザの手
の動きを認識し、その認識結果に応じた所定の処理をア
プリケーションソフトウェアに基づくアクティブウィン
ドウ画面上で実行するようになされている。
(1-3) Gesture Recognition Processing In addition to the above configuration, the notebook personal computer 1 uses the HDD 67 with application software called a cyber gesture program for recognizing a user's hand movement (gesture) captured by the CCD camera 8. From the hard disk, recognizes the movement of the user's hand captured by the CCD camera 8 based on the cyber gesture program, and executes a predetermined process according to the recognition result on the active window screen based on the application software. Has been made.

【0060】すなわちノートパソコン1は、例えば撮像
された静止画を加工することが可能な画像編集プログラ
ムを立ち上げ、加工対象となる静止画を選択するために
HDD67のハードディスクに格納されている複数枚の
静止画を液晶ディスプレイ10に順次表示する場合、ユ
ーザによるジョグダイヤル24の回動操作に応じて液晶
ディスプレイ10に表示した静止画を1枚づつ送り進め
たり送り戻すような画像送り動作を行うが、本発明にお
いてはCCDカメラ8で撮像されたユーザの手の動きを
CPU50に認識させることにより、当該CPU50の
制御により上述の画像送り動作をジョグダイヤル24に
触れることなく非接触で実行し得るようになされてい
る。
That is, the notebook personal computer 1 starts up an image editing program capable of processing a captured still image, for example, and selects a plurality of images stored in the hard disk of the HDD 67 in order to select a still image to be processed. When the still images are sequentially displayed on the liquid crystal display 10, an image feed operation is performed such that the still images displayed on the liquid crystal display 10 are moved forward or backward one by one in response to the turning operation of the jog dial 24 by the user. In the present invention, by making the CPU 50 recognize the movement of the user's hand captured by the CCD camera 8, the above-described image feed operation can be executed without touching the jog dial 24 under the control of the CPU 50. ing.

【0061】因みにノートパソコン1では、ジョグダイ
ヤル24がユーザから見て奥行側に所定角度以上回転さ
れたときに液晶ディスプレイ10に表示した静止画を1
枚だけ送り進め、ジョグダイヤル24がユーザから見て
手前側に所定角度以上回転されたときに液晶ディスプレ
イ10に表示した静止画を1枚だけ送り戻すようになさ
れている。
Incidentally, in the notebook computer 1, one still image displayed on the liquid crystal display 10 when the jog dial 24 is rotated more than a predetermined angle to the depth side as viewed from the user is displayed.
When the jog dial 24 is rotated by a predetermined angle or more toward the user as viewed from the user, only one still image displayed on the liquid crystal display 10 is fed back.

【0062】実際上ノートパソコン1のCPU50は、
図5のルーチンRT1の開始ステップから入って次のス
テップSP1に移り、ユーザの操作に応じてHDD67
のハードディスクからサイバージェスチャープログラム
を立ち上げ、当該サイバージェスチャープログラムに従
って図6に示すようなジェスチャー認識画面100を生
成し、これを画像編集プログラムに応じたアクティブウ
ィンドウ画面の静止画に重ねて表示した後、次のステッ
プSP2に移る。
In practice, the CPU 50 of the notebook computer 1
Entering from the start step of the routine RT1 in FIG. 5, the process proceeds to the next step SP1, and the HDD 67 is operated according to a user operation.
After launching a cyber gesture program from the hard disk of the above, a gesture recognition screen 100 as shown in FIG. 6 is generated according to the cyber gesture program, and this is superimposed and displayed on a still image of an active window screen according to the image editing program. Move to the next step SP2.

【0063】ここで、図7に示すようにジェスチャー認
識画面100は、164×136ピクセルの画面サイズ
で構成され、当該ジェスチャー認識画面100の上端部
にサイバージェスチャープログラムであることを示す
「CYBERGESTURE」(ソニー(株)商標)のタイトル文字
部101、機能のオプション選択を行うためのオプショ
ンボタン102、ヘルプボタン103、最小化ボタン1
04及び閉じるボタン105が設けられている。
Here, as shown in FIG. 7, the gesture recognition screen 100 has a screen size of 164 × 136 pixels, and “CYBERGESTURE” (Cyber Gesture Program) is displayed at the upper end of the gesture recognition screen 100 to indicate that it is a cyber gesture program. Sony Corporation trademark title part 101, option button 102 for selecting option of function, help button 103, minimize button 1
04 and a close button 105 are provided.

【0064】このジェスチャー認識画面100は、液晶
ディスプレイ10の画面サイズ(1024×480ピク
セル)に比べて極めて小さな画面サイズで形成されてお
り、これにより当該ジェスチャー認識画面100の背景
に表示されているアクティブウィンドウ画面の静止画に
対する隠蔽面積を極力小さくするようになされている。
The gesture recognition screen 100 is formed with an extremely small screen size as compared with the screen size (1024 × 480 pixels) of the liquid crystal display 10, whereby the active state displayed on the background of the gesture recognition screen 100 is displayed. The concealment area of a window screen from a still image is minimized.

【0065】なおノートパソコン1のCPU50は、ジ
ェスチャー認識画面100においてオプションボタン1
02、ヘルプボタン103、最小化ボタン104及び閉
じるボタン105のいずれかにマウスカーソルが合わせ
られたときには、そのボタン部分を盛り上がった状態に
表示し、クリックされた選択後にはそのボタン部分を凹
んだ状態に表示するようになされており、これによりボ
タン部分に対する選択及び決定操作を視覚的に容易に実
行し得るようになされている。
Note that the CPU 50 of the notebook personal computer 1
02, when the mouse cursor is placed on any one of the help button 103, the minimize button 104, and the close button 105, the button is displayed in a raised state, and after the clicked selection, the button is recessed. Is displayed, so that selection and determination operations on the button portion can be easily performed visually.

【0066】またノートパソコン1のCPU50は、ジ
ェスチャー認識画面100におけるジェスチャー認識表
示エリア106を256階調のグレースケールで表示す
ると共に、当該ジェスチャー認識表示エリア106のほ
ぼ中央部分に、5個の正方形状に形成されたターゲット
107A〜107Eからなるターゲット部107を横一
列に配列して表示するようになされている。
The CPU 50 of the notebook personal computer 1 displays the gesture recognition display area 106 on the gesture recognition screen 100 in a gray scale of 256 gradations, and has five squares at the approximate center of the gesture recognition display area 106. The target portions 107 formed by the targets 107A to 107E are arranged in a row and displayed.

【0067】これによりCPU50は、ジェスチャー認
識画面100のジェスチャー認識表示エリア106に表
示したターゲット部107によって、ユーザの手が動か
されたときの左右方向の動作をノートパソコン1が認識
するようになされていることを当該ユーザに対して容易
に想像させて通知し得るようになされている。
Thus, the CPU 50 allows the notebook computer 1 to recognize the left-right movement when the user's hand is moved by the target unit 107 displayed in the gesture recognition display area 106 of the gesture recognition screen 100. The user can be easily imagined that the user is informed.

【0068】また各ターゲット107A〜107Eは、
図8に示すように全体が8ピクセル×8ピクセルのサイ
ズで、それぞれ1ピクセル幅の枠部分107AF〜10
7EFによって形成されると共に、枠部分107AF〜
107EFが赤色で表示されるようになされていおり、
これにより背景のグレースケール表示に対してターゲッ
ト107A〜107Eを視認し易くしている。
Each of the targets 107A to 107E is
As shown in FIG. 8, the frame portions 107AF to 10AF each having a size of 8 pixels × 8 pixels and each having a width of 1 pixel.
7EF and the frame portions 107AF-
107EF is displayed in red,
This makes it easier to visually recognize the targets 107A to 107E with respect to the gray scale display of the background.

【0069】なおジェスチャー認識画面100のジェス
チャー認識表示エリア106は、走査線の2水平ライン
毎に黒色のライン表示(図示せず)がなれており、これ
により通常の画像を表示するような画面とは異なり、ジ
ェスチャー認識画面100であることをユーザに対して
容易に認識させるようになされている。
In the gesture recognition display area 106 of the gesture recognition screen 100, a black line display (not shown) is provided for every two horizontal lines of the scanning lines, thereby providing a screen for displaying a normal image. In contrast, the gesture recognition screen 100 is made to be easily recognized by the user.

【0070】ステップSP2においてCPU50は、表
示部3の正面に存在するユーザを撮像部11のCCDカ
メラ8で撮像し、その結果得られる入力画像をジェスチ
ャー認識画面100のジェスチャー認識表示エリア10
6に表示し、次のサブルーチンSRT2に移る。
In step SP 2, the CPU 50 images the user present in front of the display unit 3 with the CCD camera 8 of the imaging unit 11, and obtains the resulting input image on the gesture recognition display area 10 of the gesture recognition screen 100.
6 and proceed to the next subroutine SRT2.

【0071】図9に示すように、サブルーチンSRT2
のステップSP21においてCPU50は、ジェスチャ
ー認識画面100のジェスチャー認識表示エリア106
に表示した入力画像を色成分に基づいて複数種類の色領
域に分割し、次のステップSP22に移る。
As shown in FIG. 9, the subroutine SRT2
In step SP21, the CPU 50 determines the gesture recognition display area 106 of the gesture recognition screen 100.
Is divided into a plurality of types of color regions based on the color components, and the process proceeds to the next step SP22.

【0072】因みに色領域とは、図10に示すように所
定のYUV色度空間上に表され、当該YUV色度空間上
の例えば斜線で示された+Y、−U、−V象限の所定領
域をユーザの手の平の色と等価な色領域R(以下、これ
を肌色領域Rと呼ぶ)であると見なしている。
Incidentally, the color area is represented on a predetermined YUV chromaticity space as shown in FIG. 10, and for example, a predetermined area of + Y, -U, and -V quadrants indicated by oblique lines in the YUV chromaticity space. Is regarded as a color region R equivalent to the palm color of the user (hereinafter, referred to as a skin color region R).

【0073】ステップSP22においてCPU50は、
YUV(輝度・色差)色度空間上の肌色領域Rに対応す
る所定の肌色テーブルと入力画像の各色領域とをそれぞ
れ比較し、次のステップSP23に移る。
At step SP22, the CPU 50
The predetermined skin color table corresponding to the skin color region R on the YUV (luminance / color difference) chromaticity space is compared with each color region of the input image, and the process proceeds to the next step SP23.

【0074】この場合、入力画像の各色領域は例えばユ
ーザの顔領域や手の平領域等の肌色領域Rと、服装部分
の非肌色領域とに大きく分けられる。
In this case, each color region of the input image is roughly divided into a skin color region R such as a user's face region and palm region, and a non-skin color region of a clothing portion.

【0075】ステップSP23においてCPU50は、
肌色テーブルと入力画像の各色領域とをそれぞれ比較し
た結果、入力画像の中に肌色であると認められる肌色領
域Rが存在するか否かを判定する。
At step SP23, the CPU 50
As a result of comparing the skin color table with each color region of the input image, it is determined whether or not a skin color region R recognized as a skin color exists in the input image.

【0076】ここで否定結果が得られると、このことは
肌色テーブルに対応する肌色領域Rが入力画像の中には
存在していないことを表しており、このときCPU50
は次のステップSP29に移る。
If a negative result is obtained here, it means that the skin color region R corresponding to the skin color table does not exist in the input image.
Moves to the next step SP29.

【0077】ステップSP29においてCPU50は、
肌色領域Rが入力画像の中に存在しておらず、ユーザの
手の動きを認識することはできないので次のフレームの
入力画像へ進み、上述のステップSP21に戻る。
At step SP29, the CPU 50
Since the skin color region R does not exist in the input image and the movement of the user's hand cannot be recognized, the process proceeds to the input image of the next frame, and returns to step SP21 described above.

【0078】これに対してステップSP23で肯定結果
が得られると、このことは肌色テーブルに対応する肌色
領域Rが入力画像の中に存在していることを表してお
り、このときCPU50は次のステップSP24に移
る。
On the other hand, if a positive result is obtained in step SP23, this means that the skin color region R corresponding to the skin color table exists in the input image. At this time, the CPU 50 Move to step SP24.

【0079】ステップSP24においてCPU50は、
現フレームの入力画像における肌色領域Rの動きを当該
現フレームと前フレームとの座標値の変化に基づいて検
出し、次のステップSP25に移る。
In step SP24, the CPU 50
The movement of the skin color region R in the input image of the current frame is detected based on a change in the coordinate values between the current frame and the previous frame, and the flow advances to next step SP25.

【0080】ステップSP25においてCPU50は、
動きのある肌色領域Rが入力画像の中に存在しているか
否かを判定する。ここで否定結果が得られると、このこ
とは動きのある肌色領域Rが入力画像の中に存在してい
ないことを表しており、このときCPU50は次のステ
ップSP29に移り、次のフレームの入力画像へ進んで
上述のステップSP21に戻る。
At step SP25, the CPU 50
It is determined whether a moving skin color region R exists in the input image. If a negative result is obtained here, this indicates that the moving skin color region R does not exist in the input image. At this time, the CPU 50 proceeds to the next step SP29, and inputs the next frame. The process proceeds to the image and returns to step SP21 described above.

【0081】これに対してステップSP25で肯定結果
が得られると、このことは動きのある肌色領域Rが入力
画像の中に存在していることを表しており、このときC
PU50は次のステップSP26に移る。
On the other hand, if an affirmative result is obtained in step SP25, this means that a moving skin color region R exists in the input image.
The PU 50 moves to the next step SP26.

【0082】ステップSP26においてCPU50は、
動きのある肌色領域Rのうち最大面積の肌色領域Rを検
出し、これを仮に手の平領域として判断した後、次のス
テップSP27に移る。
At step SP26, the CPU 50
After detecting the largest skin color region R among the moving skin color regions R and temporarily determining this as a palm region, the process proceeds to the next step SP27.

【0083】ステップSP27においてCPU50は、
ステップSP26で判断した手の平領域全体の座標値を
取得し、次のステップSP28に移る。
At step SP27, the CPU 50
The coordinate values of the entire palm area determined in step SP26 are obtained, and the routine goes to the next step SP28.

【0084】ステップSP28においてCPU50は、
ステップSP27で取得した手の平領域全体の座標値に
基づいて当該手の平領域の重心を算出した後、当該重心
に対する垂直方向上方に相当する手の平領域の上端位置
の座標を検出し、これを手の指先に該当する重心上部デ
ータとして取得することにより、サブルーチンSRT2
における手の位置情報に関する取得処理手順を終了し、
ルーチンRT1(図5)のステップSP3に移る。
At step SP28, the CPU 50
After calculating the center of gravity of the palm area based on the coordinate values of the entire palm area acquired in step SP27, the coordinates of the upper end position of the palm area corresponding to the vertical direction above the center of gravity are detected, and this is set as the fingertip of the hand. The subroutine SRT2 is obtained by acquiring the corresponding data above the center of gravity.
Ends the acquisition processing procedure regarding hand position information in
The process moves to step SP3 of the routine RT1 (FIG. 5).

【0085】ステップSP3においてCPU50は、サ
ブルーチンSRT2で取得した重心上部データに基づい
てユーザの手がジェスチャー認識画面100のジェスチ
ャー認識表示エリア106に存在するか否かを判定す
る。
At step SP 3, the CPU 50 determines whether or not the user's hand is in the gesture recognition display area 106 of the gesture recognition screen 100 based on the data on the center of gravity acquired in the subroutine SRT 2.

【0086】ここで否定結果が得られると、このことは
サブルーチンSRT2で重心上部データが取得されてお
らず、すなわちユーザの手がジェスチャー認識画面10
0のジェスチャー認識表示エリア106に存在していな
いことを表しており、このときCPU50は、次のステ
ップSP4に移る。
If a negative result is obtained here, this means that the data above the center of gravity has not been obtained in the subroutine SRT2, that is, the user's hand is
0 indicates that it does not exist in the gesture recognition display area 106. At this time, the CPU 50 proceeds to the next step SP4.

【0087】ステップSP4においてCPU50は、ユ
ーザの手がジェスチャー認識画面100のジェスチャー
認識表示エリア106に表示されていないので、現在ユ
ーザの手を認識するためのサーチ状態であることを示す
アニメーション表示を行い、上述のステップSP2に戻
る。
In step SP 4, since the user's hand is not displayed in the gesture recognition display area 106 of the gesture recognition screen 100, the CPU 50 performs an animation display indicating that it is currently in a search state for recognizing the user's hand. The process returns to step SP2.

【0088】この場合、図11に示すようにCPU50
は、ジェスチャー認識画面100のジェスチャー認識表
示エリア106にユーザの肌色部分が殆ど表示されてお
らず、現時点ではユーザの手を認識し得ていないので、
肌色領域Rのサーチ状態であることをターゲット部10
7を用いたアニメーション表示によってユーザに容易に
認識させ得るようになされている。
In this case, as shown in FIG.
Indicates that the user's skin color portion is hardly displayed in the gesture recognition display area 106 of the gesture recognition screen 100, and the user's hand cannot be recognized at this time.
The target state 10 indicates that the skin color region R is being searched.
7 allows the user to easily recognize the animation.

【0089】すなわちCPU50は、各ターゲット10
7A〜107Eにおける枠部分107AF〜107EF
の内部領域(破線で示す)を矢印A及びBで示す左右方
向に沿って赤色で順番に交互表示することによりグラデ
ュエーション効果をもたらし、サイバージェスチャープ
ログラムが起動中でユーザの手をサーチ中であることを
ユーザに対して容易に想像させ得るようになされてい
る。
That is, the CPU 50 controls each target 10
Frame portions 107AF to 107EF in 7A to 107E
Are displayed alternately in red along the left and right directions indicated by arrows A and B in order to produce a gradation effect. It is designed to make it easy for the user to imagine something.

【0090】これに対してステップSP3で肯定結果が
得られると、このことはサブルーチンSRT2で重心上
部データが取得された、すなわちユーザの手がジェスチ
ャー認識画面100のジェスチャー認識表示エリア10
6に存在していることを表しており、このときCPU5
0は、次のステップSP5に移る。
On the other hand, if an affirmative result is obtained in step SP3, this means that the data above the center of gravity has been obtained in the subroutine SRT2, that is, the user's hand is in the gesture recognition display area 10 of the gesture recognition screen 100.
6 that the CPU 5
"0" moves to the next step SP5.

【0091】ステップSP5においてCPU50は、図
12に示すように取得した重心上部データに対応する位
置に所定形状のポインタ108を表示すると共に、当該
ポインタ108を含みユーザの手の平領域全体に渡って
囲われた手の平領域認識枠109をジェスチャー認識表
示エリア106の入力画像上にオーバーラップ表示し、
次のサブルーチンSRT3に移る。
In step SP5, the CPU 50 displays a pointer 108 having a predetermined shape at a position corresponding to the acquired data on the center of gravity as shown in FIG. 12, and surrounds the entire palm area of the user including the pointer 108. The overlapped palm area recognition frame 109 is displayed on the input image of the gesture recognition display area 106,
Move to the next subroutine SRT3.

【0092】ここでCPU50は、手の平領域認識枠1
09を1ピクセル幅で白色表示し、ターゲット部107
の各107A〜107Eと同様の形状及びサイズで形成
されたポインタ108における1ピクセル幅のポインタ
枠108Fを白色表示すると共に、その内部を赤色表示
するようになされている。
Here, the CPU 50 sets the palm area recognition frame 1
09 is displayed in white with one pixel width, and the target unit 107 is displayed.
A pointer frame 108F having a width of one pixel of the pointer 108 formed in the same shape and size as each of 107A to 107E is displayed in white, and the inside thereof is displayed in red.

【0093】これによりCPU50は、各ターゲット1
07A〜107Eにおける枠部分107AF〜107E
Fの赤色表示と、ポインタ108におけるポインタ枠1
08Fの白色表示とによって、各ターゲット107A〜
107Eとポインタ108とをユーザに対して明確に区
別させるようになされている。
Thus, the CPU 50 sets each target 1
Frame portions 107AF to 107E in 07A to 107E
F in red and the pointer frame 1 in the pointer 108
08F, each target 107A-
107E and the pointer 108 are clearly distinguished for the user.

【0094】なおCPU50は、ユーザの手の動きに応
じて手の平領域認識枠109及びポインタ108を連動
して動かせながら表示するようになされている。
The CPU 50 displays the palm area recognition frame 109 and the pointer 108 while moving them in conjunction with the movement of the user's hand.

【0095】続いて図13に示すように、サブルーチン
SRT3のステップSP31においてCPU50は、R
AM53を用いてリングバッファ状に格納された現フレ
ームと、当該現フレームに隣合う前フレームとの隣接フ
レーム間における重心上部データの座標値の差分に基づ
いて指先移動距離を求め、次のステップSP32に移
る。
Subsequently, as shown in FIG. 13, in step SP31 of the subroutine SRT3, the CPU 50
The fingertip moving distance is obtained based on the difference between the coordinate values of the data above the center of gravity between the current frame stored in the ring buffer shape using AM53 and the previous frame adjacent to the current frame, and the next step SP32 Move on to

【0096】ステップSP32においてCPU50は、
ステップSP31で算出した隣接フレーム間の指先移動
距離が所定の上限閾値以下であるか否かを判定する。こ
こで否定結果が得られると、このことは前フレームの指
先を示す位置から現フレームの指先を示す位置までの距
離が極端に離れ過ぎていることにより、手の動きを認識
するためのデータとして指先移動距離が不適切であるこ
とを表しており、このときCPU50は次のステップS
P33に移る。
At step SP32, the CPU 50
It is determined whether or not the fingertip movement distance between adjacent frames calculated in step SP31 is equal to or less than a predetermined upper threshold. If a negative result is obtained here, this means that the distance from the position indicating the fingertip of the previous frame to the position indicating the fingertip of the current frame is extremely far away, and as data for recognizing hand movement. This indicates that the fingertip movement distance is inappropriate, and at this time, the CPU 50 proceeds to the next step S
Move to P33.

【0097】ステップSP33においてCPU50は、
隣接フレーム間の指先移動距離をデータとして使用する
ことが不適切であるので、ステップSP34以降で行う
指先移動距離の算出を停止し、ルーチンRT1(図5)
のステップSP2に戻って上述の処理を繰り返す。
[0097] In step SP33, the CPU 50
Since it is inappropriate to use the fingertip movement distance between adjacent frames as data, the calculation of the fingertip movement distance performed after step SP34 is stopped, and the routine RT1 (FIG. 5)
Returning to step SP2, the above processing is repeated.

【0098】これに対してステップSP32で肯定結果
が得られると、このことは前フレームの指先を示す位置
から現フレームの指先を示す位置までの距離が極端に離
れ過ぎてはおらず、手の動きを認識するためのデータと
して指先移動距離が適切であることを表しており、この
ときCPU50は次のステップSP34に移る。
On the other hand, if a positive result is obtained in step SP32, this means that the distance from the position indicating the fingertip of the previous frame to the position indicating the fingertip of the current frame is not extremely far, and the hand movement This indicates that the fingertip movement distance is appropriate as data for recognizing, and the CPU 50 proceeds to the next step SP34.

【0099】ステップSP34においてCPU50は、
図14に示すようにリングバッファ状に順次格納された
現フレームの指先を示す重心上部データと、所定範囲の
過去数フレームの中から選ばれた任意の過去フレームの
指先を示す重心上部データとの座標値の差分が最大長さ
となるものを最大指先移動距離として算出し、当該最大
指先移動距離が所定の下限閾値よりも大きいか否かを判
定する。
In step SP34, the CPU 50
As shown in FIG. 14, upper center-of-gravity data indicating the fingertip of the current frame sequentially stored in a ring buffer shape, and upper center-of-gravity data indicating the fingertip of an arbitrary past frame selected from several past frames within a predetermined range. The difference between the coordinate values having the maximum length is calculated as the maximum fingertip movement distance, and it is determined whether the maximum fingertip movement distance is greater than a predetermined lower threshold.

【0100】ここで否定結果が得られると、このことは
複数フレームに渡る入力画像の状態遷移に基づく最大指
先移動距離が所定の下限閾値よりも小さいこと、すなわ
ち手の動きとして認識するに値しない程度でしか動いて
いないことを表しており、このときCPU50は最大指
先移動距離を認識処理から除外し、ステップSP31に
戻って上述の処理を繰り返す。
If a negative result is obtained here, this means that the maximum fingertip movement distance based on the state transition of the input image over a plurality of frames is smaller than a predetermined lower threshold, that is, it is not worth recognizing hand movement. At this time, the CPU 50 excludes the maximum fingertip movement distance from the recognition processing, returns to step SP31, and repeats the above processing.

【0101】これに対してステップSP34で肯定結果
が得られると、このことは最大指先移動距離が所定の下
限閾値よりも大きく、確実に手の指先が左右に移動した
と認められることを表しており、このときCPU50は
次のステップSP35に移る。
On the other hand, if an affirmative result is obtained in step SP34, this means that the maximum fingertip movement distance is larger than the predetermined lower limit threshold, and it is recognized that the fingertip of the hand has surely moved left and right. At this time, the CPU 50 moves to the next step SP35.

【0102】ステップSP35においてCPU50は、
現フレームの指先を示す重心上部データと最大指先移動
距離を算出したときに用いられた過去フレームの指先を
示す重心上部データとの移動ベクトルに基づいて指先移
動距離の移動方向(右方向又は左方向)を検出し、ルー
チンRT1(図5)のステップSP6に戻る。
In step SP35, the CPU 50
The moving direction (rightward or leftward) of the fingertip moving distance based on the moving vector of the data above the center of gravity indicating the fingertip of the current frame and the data above the center of gravity indicating the fingertip of the past frame used when calculating the maximum fingertip moving distance. ), And returns to step SP6 of the routine RT1 (FIG. 5).

【0103】ステップSP6においてCPU50は、最
大指先移動距離及び当該最大指先移動距離の移動方向を
検出したので、当該検出した手の平領域全体の現フレー
ムの画素データと前フレームの画素データとの座標値の
単位時間当たりの変化に基づいて当該検出した手の平領
域全体の動き速度が所定の速度を超えているか否かを判
定する。
In step SP6, the CPU 50 detects the maximum fingertip movement distance and the movement direction of the maximum fingertip movement distance, so that the CPU 50 calculates the coordinate values of the pixel data of the current frame and the pixel data of the previous frame in the entire detected palm area. Based on the change per unit time, it is determined whether the detected movement speed of the entire palm area exceeds a predetermined speed.

【0104】ここで否定結果が得られると、このことは
検出した手の平領域全体の動き速度が所定の速度を超え
ていない、すなわち比較的遅く動いているので実際には
手の平領域ではなく顔領域である可能性があると判断
し、再度ステップSP2に戻って上述の処理を繰り返
す。
If a negative result is obtained here, this means that the detected movement speed of the entire palm region does not exceed a predetermined speed, that is, since the movement is relatively slow, the actual palm region is not the palm region but the face region. It is determined that there is a possibility, and the process returns to step SP2 again to repeat the above processing.

【0105】これに対してステップSP6で肯定結果が
得られると、このことは検出した手の平領域全体の動き
速度が所定の速度を超えている、すなわち比較的速く動
いているので手の平領域である可能性が一段と高いと判
断し、次のステップSP7に移る。
On the other hand, if a positive result is obtained in step SP6, this means that the detected motion speed of the entire palm area exceeds a predetermined speed, that is, the palm area is moving relatively fast, and thus the palm area may be a palm area. It is determined that the property is even higher, and the routine goes to the next step SP7.

【0106】この場合CPU50は、単一フレームの入
力画像に手の平領域と思われる候補が2つ以上存在した
ときに、手の平領域と顔領域とを一段と正確に判別し得
るようになされている。
In this case, when there are two or more palm area candidates in the input image of a single frame, the CPU 50 can more accurately discriminate between the palm area and the face area.

【0107】ステップSP7においてCPU50は、図
15に示すようにサイバージェスチャープログラム18
0に基づいて認識した手の平領域のジェスチャー動作の
認識結果をジョグダイヤル用のAPI(Application Pr
ogramming Interface )181を介してジョグダイヤル
サーバープログラム182に供給すると共に、ユーザが
動かした手の動き(ジェスチャー)を表す軌跡と、当該
ジェスチャーをノートパソコン1がどのように認識した
のかを示す認識過程を、ジェスチャー認識画面100に
ビジュアルフィードバック表示し、次のステップSP8
に移る。
At step SP7, the CPU 50 executes the cyber gesture program 18 as shown in FIG.
The recognition result of the gesture motion of the palm area recognized based on the O.D.
The trajectory representing the hand movement (gesture) moved by the user and the recognition process indicating how the notebook computer 1 recognized the gesture are supplied to the jog dial server program 182 via the gramming interface 181. Visual feedback is displayed on the gesture recognition screen 100, and the next step SP8
Move on to

【0108】ここでAPIとは、OSがアプリケーショ
ンソフトウェアに対して公開しているプログラムインタ
ーフェースであり、アプリケーションソフトウェアは基
本的に全ての処理を当該APIを経由して行うようにな
されている。因みに、現在一般的なOSのAPIは、関
数の形式をとっており、アプリケーションソフトウェア
からは適当な引数(パラメータ)を指定してAPIの関
数を呼び出すようになされている。
Here, the API is a program interface open to the application software by the OS, and the application software basically performs all processing via the API. Incidentally, the API of the general OS at present takes the form of a function, and the function of the API is called from application software by designating appropriate arguments (parameters).

【0109】因みにCPU50は、ジョグダイヤル24
の動作結果とサイバージェスチャープログラム180に
基づく認識結果を同一の入力形式で取り込み、兼用のジ
ョグダイヤル用のAPI181を介してジョグダイヤル
サーバープログラム182に供給するようになされてお
り、これによりソフトウェア的な処理を簡素化し得るよ
うになされている。
Incidentally, the CPU 50 operates the jog dial 24.
The operation result and the recognition result based on the cyber gesture program 180 are fetched in the same input format, and supplied to the jog dial server program 182 via the shared jog dial API 181. This simplifies software processing. It has been made possible.

【0110】実際上CPU50は、図16(A)に示す
ようなビジュアルフィードバック画面191を生成し、
当該ビジュアルフィードバック画面191を介して、ユ
ーザが実際に動かした手の動き(ジェスチャー)を示す
軌跡に対応して、軌跡表示枠120内に予め斜めに配置
されたターゲット107A〜107E上にポインタ10
8を重ねて矢印C方向に移動させながら表示することに
より、実際の手の動きの認識過程をユーザに対して視覚
的に確認させ得るようになされている。
In practice, the CPU 50 generates a visual feedback screen 191 as shown in FIG.
Via the visual feedback screen 191, the pointer 10 is placed on targets 107A to 107E that are arranged obliquely in advance in the trajectory display frame 120 in accordance with the trajectory indicating the hand movement (gesture) actually moved by the user.
By superimposing 8 and displaying it while moving it in the direction of arrow C, the user can visually confirm the actual hand movement recognition process.

【0111】続いてCPU50は、図16(B)に示す
ようなビジュアルフィードバック画面192を生成し、
これをビジュアルフィードバック画面191に置き換え
て表示する。
Subsequently, the CPU 50 generates a visual feedback screen 192 as shown in FIG.
This is replaced with the visual feedback screen 191 and displayed.

【0112】このビジュアルフィードバック画面192
は、ビジュアルフィードバック画面191における軌跡
表示枠120を変形することによりターゲット107A
〜107Eの高さを横一列に揃えた状態の方向表示枠1
21を形成して線素化すると共に、当該方向表示枠12
1内の右端にターゲット107Eを、左端にポインタ1
08を表示するようになされており、当該方向表示枠1
21を介してユーザの手が矢印D方向(右方向から左方
向へ)に動かされたことを簡略的に示すようになされて
いる。
The visual feedback screen 192
Is the target 107A by deforming the trajectory display frame 120 in the visual feedback screen 191.
Direction display frame 1 with heights of ~ 107E aligned in a horizontal row
21 is formed and linearized, and the direction display frame 12 is formed.
1, the target 107E is at the right end, and the pointer 1 is at the left end.
08 is displayed, and the direction display frame 1 is displayed.
It is shown simply that the user's hand has been moved in the direction of arrow D (from right to left) via 21.

【0113】最後にCPU50は、図16(C)に示す
ようなビジュアルフィードバック画面193を生成し、
これをビジュアルフィードバック画面192に置き換え
て表示する。
Finally, the CPU 50 generates a visual feedback screen 193 as shown in FIG.
This is replaced with the visual feedback screen 192 and displayed.

【0114】このビジュアルフィードバック画面193
は、ビジュアルフィードバック画面192の方向表示枠
121を消去すると共に、横一列に配列した各ターゲッ
ト107A〜107E上にポインタ108を重ねて矢印
D方向に向かって移動させながら繰り返し表示するよう
になされており、ユーザの手が右側から左側(矢印D方
向)へ動かされたとノートパソコン1が認識したことを
ユーザに対して容易に認識させ得るようになされてい
る。
The visual feedback screen 193
Deletes the direction display frame 121 of the visual feedback screen 192 and repeatedly displays the pointer 108 on each of the targets 107A to 107E arranged in a horizontal line while moving the pointer 108 in the direction of arrow D. The user can easily recognize that the notebook computer 1 has recognized that the user's hand has been moved from the right side to the left side (the direction of arrow D).

【0115】なおCPU50は、各ターゲット107A
〜107E上にポインタ108を重ねて矢印D方向に向
かって移動させながら表示する際、ユーザの手の動きを
認識したときと同じ手の移動速度でポインタ108を移
動させるようになされており、これによりノートパソコ
ン1が認識可能な手の移動速度をユーザに対して知らし
めるようになされている。
The CPU 50 controls each target 107A.
When the pointer 108 is superimposed on to 107E and displayed while being moved in the direction of arrow D, the pointer 108 is moved at the same moving speed as when the movement of the user's hand is recognized. Thus, the user can be informed of the moving speed of the hand recognizable by the notebook computer 1.

【0116】ステップSP8においてCPU50は、ユ
ーザの手を動きを認識した後、当該手の動きに応じた所
定のコマンドをジョグダイヤルサーバープログラム18
2(図15)からアプリケーションソフトウェア183
に供給して所定の処理を実行するが、このとき認識結果
に応じた所定の処理を実行中であるので、手の動きの認
識直後については数フレーム分の入力画像に対してジェ
スチャー認識処理を実行せず、再度ステップSP2に戻
って上述の処理を繰り返す。
In step SP8, after recognizing the movement of the user's hand, the CPU 50 issues a predetermined command corresponding to the movement of the hand to the jog dial server program 18.
2 (FIG. 15) to application software 183
And performs a predetermined process according to the recognition result. At this time, the gesture recognition process is performed on the input image for several frames immediately after the recognition of the hand movement. Instead, the process returns to step SP2 and repeats the above processing.

【0117】これによりCPU50は、誤動作を起こす
ことがなく確実にユーザの手の動きに応じた処理をアク
ティブウィンドウ画面上で実行した後に、次のユーザの
手の動きの応じた処理を実行することができる。
Thus, the CPU 50 executes the processing corresponding to the movement of the user's hand on the active window screen without fail, and then executes the processing corresponding to the movement of the next user's hand. Can be.

【0118】このようにノートパソコン1のCPU50
は、サイバージェスチャープログラム180に従ってユ
ーザの手の動きを認識した後、当該認識結果に応じた所
定のコマンドをジョグダイヤルサーバープログラム18
2を介してアプリケーションソフトウェア183に供給
し、当該アプリケーションソフトウェア183に基づく
アクティブウィンドウ画面上でコマンドに応じた所定の
画像送り動作を実行し得るようになされている。
Thus, the CPU 50 of the notebook personal computer 1
After recognizing the movement of the user's hand in accordance with the cyber gesture program 180, the jog dial server program 18
2 to the application software 183 to execute a predetermined image feed operation according to a command on an active window screen based on the application software 183.

【0119】実際上ノートパソコン1のCPU50は、
手のジェスチャーが左側から右側への動き(矢印D方向
とは逆方向)であると認識した場合、ジェスチャー認識
画面100の背景に表示されているアクティブウィンド
ウ画面の静止画を1枚分だけ送り進め、手のジェスチャ
ーが右側から左側への動き(矢印D方向)であると認識
した場合、ジェスチャー認識画面100の背景に表示さ
れているアクティブウィンドウ画面の静止画を1枚分だ
け送り戻すようになされている。
In practice, the CPU 50 of the notebook personal computer 1
When the gesture of the hand is recognized as moving from left to right (the direction opposite to the direction of arrow D), the still image of the active window screen displayed on the background of the gesture recognition screen 100 is advanced by one image. When the gesture of the hand is recognized as a movement from the right side to the left side (in the direction of arrow D), the still image of the active window screen displayed on the background of the gesture recognition screen 100 is returned by one frame. ing.

【0120】これによりユーザは、ジョグダイヤル24
を直接操作することなく、撮像部11のCCDカメラ8
に手をかざして左右いずれかに動かすだけで、ジェスチ
ャー認識画面100の背景に表示されているアクティブ
ウィンドウ画面の静止画を所望方向に画像送りすること
ができる。
Thus, the user can enter the jog dial 24
Without directly operating the CCD camera 8 of the imaging unit 11.
The still image of the active window screen displayed on the background of the gesture recognition screen 100 can be image-forwarded in a desired direction only by moving the hand to the left or right while holding the hand.

【0121】(1−4)第1の実施の形態における動作
及び効果 以上の構成において、ノートパソコン1のCPU50
は、画像編集プログラムを立ち上げて液晶ディスプレイ
10にアクティブウィンドウ画面を表示した状態でサイ
バージェスチャープログラム180を起動することによ
り、アクティブウィンドウ画面の静止画にジェスチャー
認識画面100を重ねて表示する。
(1-4) Operation and Effect of First Embodiment In the above configuration, the CPU 50 of the notebook personal computer 1
Activates the cyber gesture program 180 with the image editing program started and the active window screen displayed on the liquid crystal display 10, thereby displaying the gesture recognition screen 100 over the still image of the active window screen.

【0122】そしてノートパソコン1のCPU50は、
表示部3の正面に位置するユーザを撮像部11のCCD
カメラ8で撮像し、その結果得られる入力画像をジェス
チャー認識画面100のジェスチャー認識表示エリア1
06に表示すると共に、ユーザの手の動きを認識し、当
該認識した手の動きに応じてコマンドを生成する。
Then, the CPU 50 of the notebook computer 1
The user located in front of the display unit 3 is connected to the CCD of the imaging unit 11
The camera 8 picks up an image and displays the resulting input image on the gesture recognition display area 1 of the gesture recognition screen 100.
In addition to the display of the command at 06, the movement of the user's hand is recognized, and a command is generated in accordance with the recognized movement of the hand.

【0123】このときノートパソコン1のCPU50
は、ユーザが実際に動かした手の動き(ジェスチャー)
を示す軌跡に対応して、図16(A)に示したように軌
跡表示枠120内に予め斜めにターゲット107A〜1
07Eを配置し、当該ターゲット107A〜107E上
にポインタ108を重ねて矢印C方向に移動させながら
順番に交互表示することにより、ユーザの手の動きに対
する認識過程の軌跡を当該ユーザに対して視覚的に確認
させることができる。
At this time, the CPU 50 of the notebook personal computer 1
Is the hand movement (gesture) actually moved by the user
16A, the targets 107A to 107A are tilted in advance in the locus display frame 120 as shown in FIG.
07E, the pointer 108 is superimposed on the targets 107A to 107E, and alternately displayed in order while moving in the direction of arrow C, so that the trajectory of the recognition process for the movement of the user's hand is visually recognized by the user. Can be confirmed.

【0124】その後CPU50は、図16(B)に示し
たように軌跡表示枠120を変形することによりターゲ
ット107A〜107Eの高さを横一列に揃えた状態の
方向表示枠121を形成して線素化すると共に、当該方
向表示枠121内の右端にターゲット107Eを左端に
ポインタ108を表示することにより、ユーザの手が矢
印D方向(左方向)に動かされたことを簡略的に示す。
Thereafter, the CPU 50 forms the direction display frame 121 in which the heights of the targets 107A to 107E are aligned in a horizontal line by deforming the trajectory display frame 120 as shown in FIG. In addition, the target 107E is displayed at the right end in the direction display frame 121 and the pointer 108 is displayed at the left end in the direction display frame 121, thereby simply indicating that the user's hand has been moved in the direction of arrow D (left direction).

【0125】最後にCPU50は、図16(C)に示し
たように方向表示枠121を消去すると共に、各ターゲ
ット107A〜107E上にポインタ108を重ね、認
識したときのユーザの手の移動速度で矢印D方向に向か
って当該ポインタ108を移動させながら表示すること
により、ユーザの手が右側から左側(矢印D方向)へ動
かされたと認識したことをユーザに対して確実に通知す
ることができる。
Finally, the CPU 50 erases the direction display frame 121 as shown in FIG. 16 (C), overlaps the pointer 108 on each of the targets 107A to 107E, and uses the moving speed of the user's hand at the time of recognition. By displaying the pointer 108 while moving it in the direction of arrow D, it is possible to reliably notify the user that the user's hand has been recognized to have been moved from right to left (in the direction of arrow D).

【0126】以上の構成によれば、ノートパソコン1は
CCDカメラ8で撮像したユーザの手の動きに対する認
識過程の軌跡や認識結果を各ターゲット107A〜10
7E及びポインタ108を用いて分かり易くアニメーシ
ョン表示することにより、ユーザの手の動きがどのよう
な認識過程でどのように認識されたのかを当該ユーザに
対してフィードバックして学習させることができる。
According to the above configuration, the notebook computer 1 displays the trajectory and the recognition result of the recognition process for the movement of the user's hand picked up by the CCD camera 8 in each of the targets 107A to 107A.
By displaying the animation in an easy-to-understand manner using the pointer 7E and the pointer 108, it is possible to feed back and learn how the movement of the hand of the user was recognized in what kind of recognition process.

【0127】これによりユーザは、手を動かす方向や移
動速度を考慮してノートパソコン1に手の動きを認識さ
せるようになるので、例えば画像送り動作を行うための
コマンドの入力操作を短時間で実行することができる。
Thus, the user causes the notebook computer 1 to recognize the movement of the hand in consideration of the moving direction and the moving speed of the hand, so that, for example, the input operation of the command for performing the image feed operation can be performed in a short time. Can be performed.

【0128】(2)第2の実施の形態 (2−1)ネットワークシステムの全体構成 図17において、200は全体として本発明を適用した
携帯電話機MS3が接続されているネットワークシステ
ムを示し、通信サービスの提供エリアを所望の大きさに
分割したセル内にそれぞれ固定無線局である基地局CS
1〜CS4が設置されている。
(2) Second Embodiment (2-1) Overall Configuration of Network System In FIG. 17, reference numeral 200 denotes a network system to which a mobile phone MS3 to which the present invention is applied is connected as a whole. Base station CS, which is a fixed radio station, in a cell obtained by dividing the service area of
1 to CS4 are provided.

【0129】これらの基地局CS1〜CS4には、移動
無線局である携帯情報端末MS1及びMS2やカメラ付
ディジタル携帯電話機MS3及びMS4が例えばW−C
DMA(Wideband-Code Division Multiple Access)と
呼ばれる符号分割多元接続方式によって無線接続される
ようになされており、2[GHz] の周波数帯域を使用して
最大2[Mbps]のデータ転送速度で大容量データを高速に
データ通信し得るようになされている。
The base stations CS1 to CS4 include mobile information terminals MS1 and MS2 as mobile radio stations and digital mobile phones MS3 and MS4 with cameras, for example, WC.
Wireless connection is made by a code division multiple access method called DMA (Wideband-Code Division Multiple Access), and a large capacity at a maximum data transfer rate of 2 [Mbps] using a frequency band of 2 [GHz]. Data is transmitted at high speed.

【0130】このように携帯情報端末MS1及びMS2
やカメラ付ディジタル携帯電話機MS3及びMS4は、
W−CDMA方式によって大容量データを高速にデータ
通信し得るようになされていることにより、音声通話だ
けでなく電子メールの送受信、簡易ホームページの閲
覧、画像の送受信等の多種に及ぶデータ通信を実行し得
るようになされている。
As described above, the portable information terminals MS1 and MS2
And camera-equipped digital mobile phones MS3 and MS4
The W-CDMA system enables high-speed data communication of large-volume data, so it can perform not only voice calls but also various data communications such as sending and receiving e-mails, browsing simple homepages, and sending and receiving images. It is made to be able to do.

【0131】また基地局CS1〜CS4は、有線回線を
介して公衆回線網INWに接続されており、当該公衆回
線網INWにはインターネットITNや、図示しない多
くの加入者有線端末、コンピュータネットワーク及び企
業内ネットワーク等が接続されている。
The base stations CS1 to CS4 are connected to a public line network INW via a wired line. The public line network INW includes the Internet ITN, many subscriber wired terminals (not shown), computer networks, and corporate networks. The internal network is connected.

【0132】公衆回線網INWには、インターネットサ
ービスプロバイダのアクセスサーバASも接続されてお
り、当該アクセスサーバASには当該インターネットサ
ービスプロバイダが保有するコンテンツサーバTSが接
続されている。
An access server AS of an Internet service provider is also connected to the public network INW, and a content server TS owned by the Internet service provider is connected to the access server AS.

【0133】このコンテンツサーバTSは、加入者有線
端末や携帯情報端末MS1、MS2及びカメラ付ディジ
タル携帯電話機MS3、MS4からの要求に応じて例え
ば簡易ホームページ等のコンテンツを例えばコンパクト
HTML(Hyper Text Markup Language)形式のファイ
ルとして提供するようになされている。
[0133] The content server TS converts content such as a simple homepage into, for example, a compact HTML (Hyper Text Markup Language) in response to a request from a subscriber wired terminal or mobile information terminal MS1, MS2 and a digital mobile phone with camera MS3, MS4. ) Format file.

【0134】ところでインターネットITNには、多数
のWWWサーバWS1〜WSnが接続され、TCP/I
Pプロトコルに従って加入者有線端末や携帯情報端末M
S1、MS2及びカメラ付ディジタル携帯電話機MS
3、MS4からWWWサーバWS1〜WSnに対してア
クセスし得るようになされている。
Incidentally, a number of WWW servers WS1 to WSn are connected to the Internet ITN,
Subscriber wired terminal or portable information terminal M according to P protocol
S1, MS2 and digital mobile phone MS with camera
3. The MS 4 can access the WWW servers WS1 to WSn.

【0135】因みに携帯情報端末MS1、MS2及びカ
メラ付ディジタル携帯電話機MS3、MS4は、図示し
ない基地局CS1〜CS4までを2 [Mbps] の簡易トラ
ンスポートプロトコルで通信し、当該基地局CS1〜C
S4からインターネットITNを介してWWWサーバW
S1〜WSnまでをTCP/IPプロトコルで通信する
ようになされている。
The portable information terminals MS1 and MS2 and the digital cellular phones with cameras MS3 and MS4 communicate with base stations CS1 to CS4 (not shown) using a simple transport protocol of 2 [Mbps].
WWW server W from S4 via Internet ITN
S1 to WSn are communicated by the TCP / IP protocol.

【0136】なお管理制御装置MCUは、公衆回線網I
NWを介して加入者有線端末や携帯情報端末MS1、M
S2及びカメラ付ディジタル携帯電話機MS3、MS4
に接続されており、当該加入者有線端末や携帯情報端末
MS1、MS2及びカメラ付ディジタル携帯電話機MS
3、MS4に対する認証処理や課金処理等を行うように
なされている。
The management control unit MCU is connected to the public network I
Subscriber wired terminal or portable information terminal MS1, M via NW
S2 and digital mobile phone with camera MS3, MS4
And the subscriber's wired terminal, the portable information terminals MS1, MS2, and the camera-equipped digital cellular phone MS.
3. Authentication processing, charging processing, and the like for the MS 4 are performed.

【0137】(2−2)カメラ付ディジタル携帯電話機
の外観構成 次に本発明を適用したカメラ付ディジタル携帯電話機M
S3の外観構成について説明する。図18に示すように
カメラ付ディジタル携帯電話機MS3は、中央のヒンジ
部211を境に表示部212と本体213とに分けられ
ており、当該ヒンジ部211を介して折り畳み可能に形
成されている。
(2-2) External Configuration of Digital Mobile Phone with Camera Next, the digital mobile phone with camera M to which the present invention is applied
The external configuration of S3 will be described. As shown in FIG. 18, the digital mobile phone with camera MS3 is divided into a display unit 212 and a main body 213 with a central hinge 211 as a boundary, and is foldable via the hinge 211.

【0138】表示部212には、上端左部に送受信用の
アンテナ214が引出し及び収納可能な状態に取り付け
られており、当該アンテナ214を介して基地局CS3
との間で電波を送受信するようになされている。
On the display section 212, a transmitting / receiving antenna 214 is attached to the upper left portion so as to be able to be pulled out and stored, and the base station CS3 is connected via the antenna 214.
It is designed to transmit and receive radio waves between and.

【0139】また表示部212には、上端中央部にほぼ
180度の角度範囲で回動自在なカメラ部215が設け
られており、当該カメラ部215のCCDカメラ216
によって所望の撮像対象を撮像し得るようになされてい
る。
The display section 212 is provided with a camera section 215 which is rotatable at an angle range of about 180 degrees at the center of the upper end, and the CCD camera 216 of the camera section 215 is provided.
Thus, a desired imaging target can be imaged.

【0140】ここで表示部212は、カメラ部215が
ユーザによってほぼ180度回動されて位置決めされた
場合、図19に示すように当該カメラ部215の背面側
中央に設けられたスピーカ217が正面側に位置するこ
とになり、これにより通常の音声通話状態に切り換わる
ようになされている。
Here, when the camera unit 215 is rotated by approximately 180 degrees and positioned by the user, the display unit 212 is provided with a speaker 217 provided at the center of the rear side of the camera unit 215 as shown in FIG. Side, thereby switching to a normal voice call state.

【0141】さらに表示部212には、その正面に液晶
ディスプレイ218が設けられており、電波の受信状
態、電池残量、電話帳として登録されている相手先名や
電話番号及び発信履歴等の他、電子メールの内容、簡易
ホームページ、カメラ部215のCCDカメラ216で
撮像した画像を表示し得るようになされている。
Further, the display unit 212 is provided with a liquid crystal display 218 in front of the display unit 212, for receiving radio wave reception status, remaining battery power, a destination name and telephone number registered as a telephone directory, a transmission history, and the like. The content of the e-mail, the simple homepage, and the image captured by the CCD camera 216 of the camera unit 215 can be displayed.

【0142】一方、本体213には、その表面に「0」
〜「9」の数字キー、発呼キー、リダイヤルキー、終話
及び電源キー、クリアキー及び電子メールキー等の操作
キー219が設けられており、当該操作キー219を用
いて各種指示を入力し得るようになされている。
On the other hand, the main body 213 has “0” on its surface.
There are provided operation keys 219 such as a number key, a call key, a redial key, an end call and power key, a clear key, an e-mail key, and the like of "9", and various instructions are inputted using the operation keys 219. Have been made to gain.

【0143】また本体213には、操作キー219の下
部にメモボタン220やマイクロフォン221が設けら
れており、当該メモボタン220によって通話中の相手
の音声を録音し得ると共に、マイクロフォン221によ
って通話時のユーザの音声を集音するようになされてい
る。
The main body 213 is provided with a memo button 220 and a microphone 221 below the operation keys 219, so that the memo button 220 can record the voice of the other party during a call, and the microphone 221 can be used to record a call. The sound of the user is collected.

【0144】さらに本体213には、操作キー219の
上部に回動自在なジョグダイヤル222が当該本体21
3の表面から僅かに突出した状態で設け等られており、
当該ジョグダイヤル222に対する回動操作に応じて液
晶ディスプレイ218に表示されている電話帳リストや
電子メールのスクロール動作、簡易ホームページのペー
ジ捲り動作及び画像の送り動作等の種々の動作を実行す
るようになされている。
Further, the main body 213 is provided with a rotatable jog dial 222 above the operation keys 219.
3 is provided so as to protrude slightly from the surface,
Various operations such as a scrolling operation of a telephone directory list or an e-mail displayed on the liquid crystal display 218, a page turning operation of a simple homepage, an image sending operation, and the like are performed in response to the turning operation on the jog dial 222. ing.

【0145】例えば本体213は、ユーザによるジョグ
ダイヤル222の回動操作に応じて液晶ディスプレイ2
18に表示された電話帳リストの複数の電話番号の中か
ら所望の電話番号が選択され、当該ジョグダイヤル22
2が本体213の内部方向に押圧されると、選択された
電話番号を確定して当該電話番号に対して自動的に発呼
処理を行うようになされている。
For example, the main body 213 is turned on by the user by turning the jog dial 222 by the user.
A desired telephone number is selected from a plurality of telephone numbers in the telephone directory list displayed at 18 and the jog dial 22 is selected.
When the user presses the button 2 toward the inside of the main body 213, the selected telephone number is determined and the calling process is automatically performed on the telephone number.

【0146】なお本体213は、背面側に図示しないバ
ッテリパックが挿着されており、終話及び電源キーがオ
ン状態になると、当該バッテリパックから各回路部に対
して電力が供給されて動作可能な状態に起動する。
The main body 213 has a battery pack (not shown) inserted on the back side, and when the call is ended and the power key is turned on, power is supplied from the battery pack to each circuit portion, and the main body 213 can operate. Start up in a proper state.

【0147】ところで本体213には、当該本体213
の左側面上部に抜差自在なメモリスティック(ソニー
(株)商標)223を挿着するためのメモリスティック
スロット224が設けられており、メモボタン220が
押下されるとメモリスティック223に通話中の相手の
音声を記録したり、ユーザの操作に応じて電子メール、
簡易ホームページ、CCDカメラ216で撮像した画像
を記録し得るようになされている。
The main body 213 has the main body 213.
A memory stick slot 224 for inserting a detachable memory stick (trademark of Sony Corporation) 223 is provided on the upper left side of the device. When the memo button 220 is pressed, a call can be made to the memory stick 223 during a call. Record the voice of the other party, send e-mail,
A simple homepage is provided so that images captured by the CCD camera 216 can be recorded.

【0148】ここでメモリスティック223は、本願出
願人であるソニー株式会社によって開発されたフラッシ
ュメモリカードの一種である。このメモリスティック2
23は、縦21.5×横50×厚さ2.8[mm] の小型薄型形状の
プラスチックケース内に電気的に書換えや消去が可能な
不揮発性メモリであるEEPROM(Electrically Era
sable and Programmable Read Only Memory )の一種で
あるフラッシュメモリ素子を格納したものであり、10
ピン端子を介して画像や音声、音楽等の各種データの書
き込み及び読み出しが可能となっている。
Here, the memory stick 223 is a type of flash memory card developed by Sony Corporation, the present applicant. This memory stick 2
Reference numeral 23 denotes an EEPROM (Electrically Era) which is a nonvolatile memory which can be electrically rewritten and erased in a small and thin plastic case having a size of 21.5 × 50 × 2.8 [mm].
sable and Programmable Read Only Memory), which stores flash memory elements.
Various data such as images, sounds, and music can be written and read via pin terminals.

【0149】またメモリスティック223は、大容量化
等による内蔵フラッシュメモリの仕様変更に対しても、
使用する機器で互換性を確保することができる独自のシ
リアルプロトコルを採用し、最大書込速度1.5[MB/S] 、
最大読出速度2.45[MB/S]の高速性能を実現していると共
に、誤消去防止スイッチを設けて高い信頼性を確保して
いる。
The memory stick 223 can be used in response to a change in the specification of the built-in flash memory due to an increase in capacity or the like.
Adopts a unique serial protocol that can ensure compatibility with the device used, with a maximum writing speed of 1.5 [MB / S]
It achieves high-speed performance with a maximum read speed of 2.45 [MB / S] and secures high reliability by providing an erasure prevention switch.

【0150】従ってカメラ付ディジタル携帯電話機MS
3は、このようなメモリスティック223を挿着可能に
構成されているために、当該メモリスティック223を
介して他の電子機器との間でデータの共有化を図ること
ができるようになされている。
Therefore, the camera-equipped digital mobile phone MS
3 is configured to be able to insert such a memory stick 223, so that data can be shared with another electronic device via the memory stick 223. .

【0151】(2−3)カメラ付ディジタル携帯電話機
の回路構成 図20に示すように、カメラ付ディジタル携帯電話機M
S3は、表示部212及び本体213の各部を統括的に
制御するようになされた主制御部250に対して、電源
回路部251、操作入力制御部252、画像エンコーダ
253、カメラインターフェース部254、LCD(Li
quid Crystal Display)制御部255、画像デコーダ2
56、多重分離部257、記録再生部262、変復調回
路部258及び音声コーデック259がメインバス26
0を介して互いに接続されると共に、画像エンコーダ2
53、画像デコーダ256、多重分離部257、変復調
回路部258及び音声コーデック259が同期バス26
1を介して互いに接続されて構成されている。
(2-3) Circuit Configuration of Digital Mobile Phone with Camera As shown in FIG.
In step S3, the power supply circuit unit 251, the operation input control unit 252, the image encoder 253, the camera interface unit 254, and the LCD control unit 250 control the main control unit 250 that controls the display unit 212 and the main body 213 in an integrated manner. (Li
quid Crystal Display) control unit 255, image decoder 2
56, a demultiplexing unit 257, a recording / reproducing unit 262, a modulation / demodulation circuit unit 258, and an audio codec 259.
0 and connected to each other via the image encoder 2
53, an image decoder 256, a demultiplexing unit 257, a modulation / demodulation circuit unit 258, and an audio codec 259.
1 are connected to each other.

【0152】電源回路部251は、ユーザの操作により
終話及び電源キーがオン状態にされると、バッテリパッ
クから各部に対して電力を供給することによりカメラ付
ディジタル携帯電話機MS3を動作可能な状態に起動す
る。
When the call end and power key are turned on by the user's operation, the power supply circuit section 251 supplies power to each section from the battery pack to enable the digital cellular phone with camera MS3 to operate. To start.

【0153】カメラ付ディジタル携帯電話機MS3は、
CPU、ROM及びRAM等でなる主制御部250の制
御に基づいて、音声通話モード時にマイクロフォン22
1で集音した音声信号を音声コーデック259によって
ディジタル音声データに変換し、これを変復調回路部2
58でスペクトラム拡散処理し、送受信回路部262で
ディジタルアナログ変換処理及び周波数変換処理を施し
た後にアンテナ214を介して送信する。
The digital mobile phone with camera MS3 is
Under the control of the main control unit 250 including a CPU, a ROM, a RAM, and the like, the
1 is converted into digital audio data by the audio codec 259, and this is converted into a digital demodulation circuit unit 2.
The spread spectrum processing is performed at 58, and the digital signal is subjected to digital / analog conversion processing and frequency conversion processing at the transmission / reception circuit section 262, and then transmitted via the antenna 214.

【0154】またカメラ付ディジタル携帯電話機MS3
は、音声通話モード時にアンテナ214で受信した受信
信号を増幅して周波数変換処理及びアナログディジタル
変換処理を施し、変復調回路部258でスペクトラム逆
拡散処理し、音声コーデック259によってアナログ音
声信号に変換した後、これをスピーカ217を介して出
力する。
A digital mobile phone with camera MS3
After amplifying the received signal received by the antenna 214 in the voice communication mode, performing a frequency conversion process and an analog-to-digital conversion process, performing a spectrum despreading process in the modulation / demodulation circuit unit 258, and converting the received signal into an analog voice signal by the voice codec 259. Is output via the speaker 217.

【0155】さらにカメラ付ディジタル携帯電話機MS
3は、データ通信モード時に電子メールを送信する場
合、操作キー219及びジョグダイヤル222の操作に
よって入力された電子メールのテキストデータを操作入
力制御部252を介して主制御部250に送出する。
Further, digital mobile phone MS with camera
When transmitting an e-mail in the data communication mode, the e-mail 3 sends text data of the e-mail input by operating the operation keys 219 and the jog dial 222 to the main control unit 250 via the operation input control unit 252.

【0156】主制御部250は、テキストデータを変復
調回路部258でスペクトラム拡散処理し、送受信回路
部262でディジタルアナログ変換処理及び周波数変換
処理を施した後にアンテナ214を介して基地局CS3
(図17)へ送信する。
The main control section 250 subjects the text data to spread spectrum processing in the modulation / demodulation circuit section 258, performs digital / analog conversion processing and frequency conversion processing in the transmission / reception circuit section 262, and then passes the base station CS 3 via the antenna 214.
(FIG. 17).

【0157】これに対してカメラ付ディジタル携帯電話
機MS3は、データ通信モード時に電子メールを受信す
る場合、アンテナ214を介して基地局CS3から受信
した受信信号を変復調回路部258でスペクトラム逆拡
散処理して元のテキストデータを復元した後、LCD制
御部255を介して液晶ディスプレイ218に電子メー
ルとして表示する。
On the other hand, when receiving an e-mail in the data communication mode, the camera-equipped digital mobile phone MS3 performs a spectrum despreading process on the received signal received from the base station CS3 via the antenna 214 in the modulation / demodulation circuit unit 258. After the original text data is restored, the data is displayed as an electronic mail on the liquid crystal display 218 via the LCD control unit 255.

【0158】この後カメラ付ディジタル携帯電話機MS
3は、ユーザの操作に応じて受信した電子メールを記録
再生部262を介してメモリスティック223に記録す
ることも可能である。
Thereafter, a digital mobile phone with a camera MS
3 can also record an e-mail received in response to a user operation on the memory stick 223 via the recording / reproducing unit 262.

【0159】一方カメラ付ディジタル携帯電話機MS3
は、データ通信モード時に画像データを送信する場合、
CCDカメラ216で撮像された画像データをカメライ
ンターフェース部254を介して画像エンコーダ253
に供給する。
On the other hand, camera-equipped digital mobile phone MS3
When transmitting image data in the data communication mode,
The image data captured by the CCD camera 216 is transferred to the image encoder 253 via the camera interface unit 254.
To supply.

【0160】因みにカメラ付ディジタル携帯電話機MS
3は、画像データを送信しない場合には、CCDカメラ
216で撮像した画像データをカメラインターフェース
部254及びLCD制御部255を介して液晶ディスプ
レイ218に直接表示することも可能である。
By the way, digital mobile phone MS with camera
3 does not transmit image data, it is also possible to directly display image data captured by the CCD camera 216 on the liquid crystal display 218 via the camera interface unit 254 and the LCD control unit 255.

【0161】画像エンコーダ253は、CCDカメラ2
16から供給された画像データを例えばMPEG(Movi
g Picture Experts Group )2やMPEG4等の所定の
符号化方式によって圧縮符号化することにより符号化画
像データに変換し、これを多重分離部257に送出す
る。
The image encoder 253 is a CCD camera 2
The image data supplied from the MPU 16 is, for example, MPEG (Movi)
g Picture Experts Group) 2, converts the encoded image data into encoded image data by compression encoding according to a predetermined encoding method such as MPEG4, and sends it to the demultiplexing unit 257.

【0162】このとき同時にカメラ付ディジタル携帯電
話機MS3は、CCDカメラ216で撮像中にマイクロ
フォン221で集音した音声を音声コーデック259を
介してディジタルの音声データとして多重分離部257
に送出する。
At the same time, the camera-equipped digital mobile phone MS3 simultaneously converts the sound collected by the microphone 221 during imaging by the CCD camera 216 as digital sound data via the sound codec 259 into the demultiplexing unit 257.
To send to.

【0163】多重分離部257は、画像エンコーダ25
3から供給された符号化画像データと音声コーデック2
59から供給された音声データとを所定の方式で多重化
し、その結果得られる多重化データを変復調回路部25
8でスペクトラム拡散処理し、送受信回路部262でデ
ィジタルアナログ変換処理及び周波数変換処理を施した
後にアンテナ214を介して送信する。
The demultiplexing unit 257 includes the image encoder 25
3 and the coded image data supplied from 3 and the audio codec 2
The multiplexed data is multiplexed with the audio data supplied from 59 in a predetermined manner, and the resulting multiplexed data is
Then, the transmission / reception circuit unit 262 performs a digital-to-analog conversion process and a frequency conversion process, and then transmits the signal via the antenna 214.

【0164】これに対してカメラ付ディジタル携帯電話
機MS3は、データ通信モード時に例えば簡易ホームペ
ージ等の画像データを受信する場合、アンテナ214を
介して基地局CS3から受信した受信信号を変復調回路
部258でスペクトラム逆拡散処理し、その結果得られ
る多重化データを多重分離部257に送出する。
On the other hand, in the case of receiving image data such as a simple homepage in the data communication mode, the camera-equipped digital mobile phone MS3 modulates the received signal received from the base station CS3 via the antenna 214 by the modem circuit 258. The spectrum despreading process is performed, and the resulting multiplexed data is sent to the demultiplexing unit 257.

【0165】多重分離部257は、多重化データを分離
することにより符号化画像データと音声データとに分
け、同期バス261を介して当該符号化画像データを画
像デコーダ256に供給すると共に当該音声データを音
声コーデック259に供給する。
The demultiplexing section 257 separates the multiplexed data into coded image data and audio data, supplies the coded image data to the image decoder 256 via the synchronous bus 261 and outputs the coded data. Is supplied to the audio codec 259.

【0166】画像デコーダ256は、符号化画像データ
をMPEG2やMPEG4等の所定の符号化方式に対応
した復号化方式でデコードすることにより再生画像デー
タを生成し、これをLCD制御部255を介して液晶デ
ィスプレイ218に、例えば簡易ホームページにリンク
された画像として表示する。
The image decoder 256 generates reproduced image data by decoding the encoded image data by a decoding method corresponding to a predetermined encoding method such as MPEG2 or MPEG4, and outputs the reproduced image data via the LCD control unit 255. The image is displayed on the liquid crystal display 218 as an image linked to, for example, a simple homepage.

【0167】このとき同時に音声コーデック259は、
音声データをアナログ音声信号に変換した後、これをス
ピーカ217を介して、例えば簡易ホームページにリン
クされた音声として出力する。
At this time, the audio codec 259 simultaneously
After converting the audio data into an analog audio signal, the audio data is output via the speaker 217 as, for example, audio linked to a simple homepage.

【0168】この場合も電子メールの場合と同様にカメ
ラ付ディジタル携帯電話機MS3は、受信した簡易ホー
ムページの画像データをユーザの操作により記録再生部
262を介してメモリスティック223に記録すること
が可能である。
In this case, similarly to the case of the electronic mail, the digital mobile phone with camera MS3 can record the received image data of the simple homepage on the memory stick 223 via the recording / reproducing unit 262 by the operation of the user. is there.

【0169】かかる構成に加えてカメラ付ディジタル携
帯電話機MS3は、主制御部250のROMに第1の実
施の形態と同様のサイバージェスチャープログラム18
0(図15)及びジョグダイヤルサーバプログラム18
2が格納されており、所定のアプリケーションソフトウ
ェア183に基づくアクティブウィンドウ画面を液晶デ
ィスプレイ218に表示した状態で、サイバージェスチ
ャープログラム180に基づいてアクティブウィンドウ
画面にジェスチャー認識画面100(図6)を重ねて表
示し得ると共に、当該ジェスチャー認識画面100のジ
ェスチャー認識表示エリア106にCCDカメラ216
で撮像したユーザの画像を表示し得るようになされてい
る。
In addition to the above configuration, the camera-equipped digital mobile phone MS3 stores the same cyber gesture program 18 in the ROM of the main controller 250 as in the first embodiment.
0 (FIG. 15) and the jog dial server program 18
2 is stored, and the gesture recognition screen 100 (FIG. 6) is superimposed on the active window screen based on the cyber gesture program 180 in a state where the active window screen based on the predetermined application software 183 is displayed on the liquid crystal display 218. And the CCD camera 216 is displayed in the gesture recognition display area 106 of the gesture recognition screen 100.
It is possible to display the image of the user captured by the user.

【0170】次にカメラ付ディジタル携帯電話機MS3
は、第1の実施の形態と同様に図5〜図16に示したよ
うに、主制御部250の制御によりジェスチャー認識画
面100のジェスチャー認識表示エリア106に表示し
たユーザの画像の中から肌色領域Rを検出し、そのうち
動きのある肌色領域Rを手の平領域として認識した後、
当該手の平領域のジェスチャー動作に応じた所定のコマ
ンドをジョグダイヤルサーバプログラム182を介して
アプリケーションソフトウェア183に供給する。
Next, the digital cellular phone MS3 with a camera
As in the first embodiment, as shown in FIGS. 5 to 16, the skin color area is selected from the user's image displayed in the gesture recognition display area 106 of the gesture recognition screen 100 under the control of the main control unit 250. After detecting R, and recognizing the moving skin color region R as a palm region,
A predetermined command corresponding to the gesture operation of the palm area is supplied to the application software 183 via the jog dial server program 182.

【0171】これによりカメラ付ディジタル携帯電話機
MS3は、第1の実施の形態におけるノートパソコン1
と同様に、主制御部250の制御によりアプリケーショ
ンソフトウェア183に従ってジェスチャー認識画面1
00の背景に表示されているアクティブウィンドウ画面
の静止画をコマンドに応じて所望方向に画像送りし得る
ようになされている。
As a result, the camera-equipped digital mobile phone MS3 is connected to the notebook personal computer 1 of the first embodiment.
Similarly, the gesture recognition screen 1 according to the application software 183 under the control of the main control unit 250.
The still image of the active window screen displayed on the background of the image No. 00 can be fed in a desired direction in response to a command.

【0172】(2−4)第2の実施の形態における動作
及び効果 以上の構成においてカメラ付ディジタル携帯電話機MS
3は、主制御部250がサイバージェスチャープログラ
ム180を起動することにより、ジェスチャー認識画面
100におけるジェスチャー認識表示エリア106のほ
ぼ中央部分に、5個の正方形状に形成されたターゲット
107A〜107Eからなるターゲット部107を横一
列に配列して表示する。
(2-4) Operation and Effect in Second Embodiment In the above configuration, the digital portable telephone with camera MS
3 is a target composed of five square-shaped targets 107A to 107E substantially at the center of the gesture recognition display area 106 on the gesture recognition screen 100 when the main control unit 250 activates the cyber gesture program 180. The units 107 are displayed in a row.

【0173】そしてカメラ付ディジタル携帯電話機MS
3は、第1の実施の形態と同様に、ユーザの手が動かさ
れたときの左右方向の動作を認識すると共に、各ターゲ
ット107A〜107E上にポインタ108を重ねてユ
ーザの手の動きに合わせて移動させながら順番に表示す
ることにより、手の動きの軌跡や認識結果をユーザに対
して確認させることができる。
The digital mobile phone with camera MS
3 recognizes the movement in the left and right direction when the user's hand is moved, as in the first embodiment, and overlaps the pointer 108 on each of the targets 107A to 107E to match the movement of the user's hand. By moving the hand and displaying it in order, the user can confirm the trajectory of the hand movement and the recognition result.

【0174】このようにカメラ付ディジタル携帯電話機
MS3は、手の動きを認識し得るときの手の動きの軌跡
や認識結果をユーザに対してフィードバックして学習さ
せることにより、当該カメラ付ディジタル携帯電話機M
S3が認識し易い手の動きを当該ユーザに対して促すこ
とができるので、ユーザによってコマンドが入力される
までの時間を短縮することができる。
As described above, the camera-equipped digital mobile phone MS3 feeds back and learns the trajectory of the hand movement and the recognition result when the hand movement can be recognized, and thereby the camera-equipped digital mobile phone MS3. M
Since it is possible to prompt the user to perform a hand movement that is easy to recognize in S3, it is possible to reduce the time until a command is input by the user.

【0175】以上の構成によればカメラ付ディジタル携
帯電話機MS3は、CCDカメラ216で撮像したユー
ザの手の動きを認識した結果、手の動きの軌跡や認識結
果をターゲット107A〜107E及びポインタ108
を用いて分かり易くアニメーション表示することによ
り、手の動きの軌跡や認識結果をユーザに対してフィー
ドバックして学習させることができる。
According to the above configuration, the camera-equipped digital mobile phone MS3 recognizes the user's hand movement captured by the CCD camera 216 and, as a result, displays the trajectory of the hand movement and the recognition result as the targets 107A to 107E and the pointer 108.
By displaying the animation in an easy-to-understand manner using, the trajectory of the hand movement and the recognition result can be fed back to the user for learning.

【0176】(3)他の実施の形態 なお上述の第1及び第2の実施の形態においては、ノー
トパソコン1及びカメラ付ディジタル携帯電話機MS3
がユーザの手に関する左右方向の動きの軌跡や認識結果
を、認識過程画像としてのビジュアルフィードバック画
面191〜193を介して、各ターゲット107A〜1
07E上にポインタ108を重ねた状態でユーザの手の
動きに合わせて移動させながら表示するようにした場合
について述べたが、本発明はこれに限らず、各ターゲッ
ト107A〜107Eをユーザの手の動きに合わせて順
番に点滅させるようにしてもよい。
(3) Other Embodiments In the first and second embodiments described above, the notebook personal computer 1 and the camera-equipped digital mobile phone MS3
The target 107 </ b> A- 1 </ b> A displays the trajectory of the left-right movement and the recognition result of the user's hand via visual feedback screens 191-193 as recognition process images.
07E, the pointer 108 is displayed while being moved in accordance with the movement of the user's hand, but the present invention is not limited to this. You may make it blink in order according to movement.

【0177】また上述の第1及び第2の実施の形態にお
いては、認識対象としてユーザの動作を認識するように
した場合について述べたが、本発明はこれに限らず、例
えばユーザ以外にロボットや動物等の他の種々の認識対
象の動作を認識するようにしても良い。
In the first and second embodiments described above, a case has been described in which a user's operation is recognized as a recognition target. However, the present invention is not limited to this. You may make it recognize the operation | movement of various other recognition objects, such as an animal.

【0178】さらに上述の第1及び第2の実施の形態に
おいては、移動方向認識手段及び制御手段としてのCP
U50及び250がHDD67のハードディスクやRO
Mに予め格納されたサイバージェスチャープログラム1
80に基づいて各ターゲット107A〜107E上にポ
インタ108を重ねた状態でユーザの手の動きに合わせ
て移動させながらアニメーション表示することにより、
ユーザの手の動きの軌跡や認識結果をユーザに対して通
知するようにした場合について述べたが、本発明はこれ
に限らず、サイバージェスチャープログラム180が格
納されたプログラム格納媒体をノートパソコン1及びカ
メラ付ディジタル携帯電話機MS3にインストールする
ことにより、ユーザの手の動きの軌跡や認識結果をアニ
メーション表示によって通知するようにしても良い。
Further, in the above-described first and second embodiments, the CP as the moving direction recognizing means and the control means is used.
U50 and 250 are hard disk or RO of HDD67.
Cyber gesture program 1 pre-stored in M
By displaying the animation while moving the pointer 108 on each of the targets 107A to 107E based on the position of the pointer 108 in accordance with the movement of the user's hand,
Although the case where the trajectory of the movement of the user's hand and the recognition result are notified to the user has been described, the present invention is not limited to this, and the program storage medium storing the cyber gesture program 180 is stored in the notebook computer 1 and By installing it in the digital mobile phone with camera MS3, the locus of the user's hand movement and the recognition result may be notified by animation display.

【0179】このように上述した一連の処理を実行する
サイバージェスチャープログラム180をノートパソコ
ン1及びカメラ付ディジタル携帯電話機MS3にインス
トールし、当該ノートパソコン1及びカメラ付ディジタ
ル携帯電話機MS3にインストールにおいて実行可能な
状態にするために用いられるプログラム格納媒体として
は、例えばフロッピーディスク、CD−ROM(Compac
t Disc-Read Only Memory)、DVD(Digital Versatai
le Disc )等のパッケージメディアのみならず、サイバ
ージェスチャープログラム180が一時的もしくは永続
的に格納される半導体メモリや磁気ディスク等で実現し
ても良い。また、これらプログラム格納媒体にサイバー
ジェスチャープログラム180を格納する手段として
は、ローカルエリアネットワークやインターネット、デ
ィジタル衛生放送等の有線及び無線通信媒体を利用して
も良く、ルータやモデム等の各種通信インターフェース
を介して格納するようにしても良い。
As described above, the cyber gesture program 180 for executing the series of processes described above is installed in the notebook personal computer 1 and the digital mobile phone with camera MS3, and can be executed in the notebook personal computer 1 and the digital mobile phone with camera MS3. Examples of the program storage medium used for setting the state include a floppy disk, a CD-ROM (Compac
t Disc-Read Only Memory), DVD (Digital Versatai
le Disc), a semiconductor memory or a magnetic disk in which the cyber gesture program 180 is temporarily or permanently stored. As a means for storing the cyber gesture program 180 in these program storage media, a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting may be used, and various communication interfaces such as a router and a modem may be used. Alternatively, the information may be stored via the Internet.

【0180】さらに上述の第1及び第2の実施の形態に
おいては、本発明の情報処理装置としてノートパソコン
1及びカメラ付ディジタル携帯電話機MS3に適用する
ようにした場合について述べたが、携帯情報端末MS1
及びMS2等の他の種々の情報処理装置に適用するよう
にしても良い。
Further, in the first and second embodiments, a case has been described in which the information processing apparatus of the present invention is applied to the notebook personal computer 1 and the digital mobile phone with camera MS3. MS1
And other various information processing devices such as the MS2.

【0181】[0181]

【発明の効果】上述のように本発明によれば、撮像手段
によって認識対象を撮像することにより得られた画像に
基づいて当該画像中の認識対象の移動方向を認識し、当
該認識した認識対象の移動方向の軌跡を表す認識過程画
像を生成して所定の表示手段に表示することにより、認
識対象の動作がどのように認識されたのかをユーザに対
してフィードバックして学習させることができる。
As described above, according to the present invention, the moving direction of the recognition target in the image is recognized based on the image obtained by imaging the recognition target by the imaging means, and the recognized recognition target is recognized. By generating a recognition process image representing the trajectory of the movement direction and displaying it on a predetermined display means, it is possible to feed back and learn how the recognition target operation is recognized to the user.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態によるノートブック
型パーソナルコンピュータの全体構成を示す略線的斜視
図である。
FIG. 1 is a schematic perspective view showing an overall configuration of a notebook personal computer according to a first embodiment of the present invention.

【図2】本体の左側面の構成を示す略線図である。FIG. 2 is a schematic diagram illustrating a configuration of a left side surface of a main body.

【図3】本体の後側面及び底面の構成を示す略線図であ
る。
FIG. 3 is a schematic diagram illustrating a configuration of a rear side surface and a bottom surface of a main body.

【図4】ノートブック型パーソナルコンピュータの回路
構成を示すブロツク図である。
FIG. 4 is a block diagram showing a circuit configuration of the notebook personal computer.

【図5】ジェスチャー認識処理手順を示すフローチャー
トである。
FIG. 5 is a flowchart illustrating a gesture recognition processing procedure.

【図6】アクティブウィンドウ画面上に重ねて表示され
たジェスチャー認識画面を示す略線図である。
FIG. 6 is a schematic diagram illustrating a gesture recognition screen displayed over the active window screen.

【図7】ジェスチャー認識画面の構成を示す略線図であ
る。
FIG. 7 is a schematic diagram illustrating a configuration of a gesture recognition screen.

【図8】ターゲットの構成を示す略線図である。FIG. 8 is a schematic diagram illustrating a configuration of a target.

【図9】手の位置情報に関する取得処理手順を示すフロ
ーチャートである。
FIG. 9 is a flowchart illustrating an acquisition processing procedure regarding hand position information.

【図10】YUV色度空間上に表される色領域を示す略
線図である。
FIG. 10 is a schematic diagram illustrating a color region represented on a YUV chromaticity space.

【図11】サーチ状態のジェスチャー認識画面を示す略
線図である。
FIG. 11 is a schematic diagram illustrating a gesture recognition screen in a search state.

【図12】ポインタ及び手の平領域認識枠がオーバーラ
ップ表示されたジェスチャー認識画面を示す略線図であ
る。
FIG. 12 is a schematic diagram illustrating a gesture recognition screen on which a pointer and a palm area recognition frame are overlapped and displayed.

【図13】ジェスチャー動作に関する判断処理手順を示
すフローチャートである。
FIG. 13 is a flowchart illustrating a determination processing procedure regarding a gesture operation.

【図14】指先移動距離の算出の説明に供する略線図で
ある。
FIG. 14 is a schematic diagram for explaining calculation of a fingertip moving distance;

【図15】ソフトウェア的な処理の流れの説明に供する
略線図である。
FIG. 15 is a schematic diagram used to explain a flow of software processing;

【図16】ビジュアルフィードバック画面を示す略線図
である。
FIG. 16 is a schematic diagram illustrating a visual feedback screen.

【図17】第2の実施の形態におけるネットワークシス
テムの全体構成を示す略線図である。
FIG. 17 is a schematic diagram illustrating an overall configuration of a network system according to a second embodiment.

【図18】カメラ付ディジタル携帯電話機の外観構成を
示す略線的斜視図である。
FIG. 18 is a schematic perspective view showing an external configuration of a digital mobile phone with a camera.

【図19】カメラ部を回動したときの表示部を示す略線
的斜視図である。
FIG. 19 is a schematic perspective view showing the display unit when the camera unit is rotated.

【図20】カメラ付ディジタル携帯電話機の回路構成を
示すブロック図である。
FIG. 20 is a block diagram illustrating a circuit configuration of a digital mobile phone with a camera.

【符号の説明】[Explanation of symbols]

1……ノートブック型パーソナルコンピュータ、2、2
13……本体、3、212……表示部、4、219……
操作キー、8、216……CCDカメラ、10、218
……液晶ディスプレイ、11……撮像部、24、222
……ジョグダイヤル、50……CPU、53……RA
M、100……ジェスチャー認識画面、107……ター
ゲット部、108……ポインタ、109……手の平領域
認識枠、120……軌跡表示枠、121……方向表示
枠、200……ネットワークシステム、MS1、MS2
……携帯情報端末、MS3、MS4……カメラ付ディジ
タル携帯電話機、CS1〜CS4……基地局、INW…
…公衆回線網、214……アンテナ、223……メモリ
スティック、250……主制御部、251……電源回路
部、252……操作入力制御部、253……画像エンコ
ーダ、254……カメラインターフェース部、255…
…LCD制御部、256……画像デコーダ、257……
多重分離部、258……変復調回路部、259……音声
コーデック、260……メインバス、261……同期バ
ス、262……記録再生部。
1. Notebook type personal computer, 2, 2
13 ... body, 3, 212 ... display unit, 4, 219 ...
Operation keys, 8, 216 ... CCD camera, 10, 218
...... liquid crystal display, 11 ... imaging part, 24, 222
…… Jog dial, 50 …… CPU, 53 …… RA
M, 100: gesture recognition screen, 107: target unit, 108: pointer, 109: palm area recognition frame, 120: locus display frame, 121: direction display frame, 200: network system, MS1, MS2
…… Personal digital assistant, MS3, MS4 …… Digital mobile phone with camera, CS1-CS4 …… Base station, INW…
.. Public telephone network, 214 antenna 223 memory stick 250 main control unit 251 power supply circuit unit 252 operation input control unit 253 image encoder 254 camera interface unit , 255 ...
... LCD controller, 256 ... Image decoder, 257 ...
Demultiplexer, 258 Modulator / demodulator, 259 Audio codec, 260 Main bus, 261 Synchronous bus, 262 Recording / reproducing unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 井原 圭吾 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 末吉 隆彦 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 山口 祥弘 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 五味 信一郎 東京都品川区北品川6丁目7番35号ソニー 株式会社内 Fターム(参考) 5C082 AA01 AA21 AA22 AA24 AA27 AA37 BA02 BA12 BA27 BD02 CA55 CA62 CB06 MM09  ──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Keigo Ihara 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Takahiko Sueyoshi 6-35-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony (72) Inventor Yoshihiro Yamaguchi 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation Inside (72) Inventor Shinichiro Gomi 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F Terms (reference) 5C082 AA01 AA21 AA22 AA24 AA27 AA37 BA02 BA12 BA27 BD02 CA55 CA62 CB06 MM09

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】撮像手段によって認識対象を撮像すること
により得られた画像に基づいて上記認識対象の移動方向
を認識する移動方向認識手段と、 上記移動方向認識手段によって認識した上記認識対象の
移動方向の軌跡を表す認識過程画像を生成して所定の表
示手段に表示する制御手段とを具えることを特徴とする
情報処理装置。
1. A moving direction recognizing means for recognizing a moving direction of the recognition target based on an image obtained by imaging the recognition target by an imaging means, and a movement of the recognition target recognized by the moving direction recognizing means. A control unit for generating a recognition process image representing the trajectory of the direction and displaying the image on a predetermined display unit.
【請求項2】上記制御手段は、上記認識過程画像として
上記認識対象の移動方向に沿って順次複数配列した所定
形状のマークを上記移動方向に向かって順番に交互表示
することを特徴とする請求項1に記載の情報処理装置。
2. The apparatus according to claim 1, wherein the control means alternately displays, as the recognition process image, a plurality of marks of a predetermined shape sequentially arranged in the moving direction of the recognition target in the moving direction. Item 2. The information processing device according to item 1.
【請求項3】撮像手段によって認識対象を撮像すること
により得られた画像に基づいて上記認識対象の移動方向
を認識する移動方向認識処理ステップと、 上記移動方向認識処理ステップで認識した上記認識対象
の移動方向の軌跡を表す認識過程画像を生成する認識過
程画像生成処理ステップと、 上記認識過程画像生成処理ステップで生成された上記認
識過程画像を所定の表示手段に表示する表示処理ステッ
プとを具えることを特徴とする動作認識過程表示方法。
3. A moving direction recognition processing step of recognizing a moving direction of the recognition target based on an image obtained by imaging the recognition target by an imaging unit; and the recognition target recognized in the moving direction recognition processing step. A recognition process image generating process step of generating a recognition process image representing a trajectory of the moving direction of the moving object; and a display process step of displaying the recognition process image generated in the recognition process image generating process step on predetermined display means. A motion recognition process display method characterized by the following steps.
【請求項4】撮像手段によって認識対象を撮像すること
により得られた画像に基づいて上記認識対象の移動方向
を認識する移動方向認識処理ステップと、 上記移動方向認識処理ステップで認識した上記認識対象
の移動方向の軌跡を表す認識過程画像を生成する認識過
程画像生成処理ステップと、 上記認識過程画像生成処理ステップで生成された上記認
識過程画像を所定の表示手段に表示する表示処理ステッ
プとを具えることを特徴とするプログラムを情報処理装
置に実行させるプログラム格納媒体。
4. A moving direction recognition processing step of recognizing a moving direction of the recognition target based on an image obtained by imaging the recognition target by an imaging unit; and the recognition target recognized in the moving direction recognition processing step. A recognition process image generating process step of generating a recognition process image representing a trajectory of the moving direction of the moving object; and a display process step of displaying the recognition process image generated in the recognition process image generating process step on predetermined display means. A program storage medium for causing an information processing device to execute a program characterized by the following.
JP2000126344A 2000-04-21 2000-04-21 Information processor, movement recognition process displaying method and program storage medium Pending JP2001306049A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2000126344A JP2001306049A (en) 2000-04-21 2000-04-21 Information processor, movement recognition process displaying method and program storage medium
EP01303523A EP1148411A3 (en) 2000-04-21 2001-04-18 Information processing apparatus and method for recognising user gesture
US09/838,644 US7046232B2 (en) 2000-04-21 2001-04-19 Information processing apparatus, method of displaying movement recognizable standby state, method of showing recognizable movement, method of displaying movement recognizing process, and program storage medium
KR1020010021420A KR100843811B1 (en) 2000-04-21 2001-04-20 Information processing apparatus, method of displaying movement recognizable standby state, method of showing recognizable movement, method of displaying movement recognizing process, and program storage medium
CNB01116655XA CN100487633C (en) 2000-04-21 2001-04-20 Information processing device, display method and advising method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000126344A JP2001306049A (en) 2000-04-21 2000-04-21 Information processor, movement recognition process displaying method and program storage medium

Publications (1)

Publication Number Publication Date
JP2001306049A true JP2001306049A (en) 2001-11-02

Family

ID=18636139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000126344A Pending JP2001306049A (en) 2000-04-21 2000-04-21 Information processor, movement recognition process displaying method and program storage medium

Country Status (1)

Country Link
JP (1) JP2001306049A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052590A (en) * 2006-08-25 2008-03-06 Toshiba Corp Interface device and its method
JP2013164658A (en) * 2012-02-09 2013-08-22 Ricoh Co Ltd Image display device
JP2015172887A (en) * 2014-03-12 2015-10-01 オムロン株式会社 Gesture recognition device and control method of gesture recognition device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052590A (en) * 2006-08-25 2008-03-06 Toshiba Corp Interface device and its method
US7844921B2 (en) 2006-08-25 2010-11-30 Kabushiki Kaisha Toshiba Interface apparatus and interface method
JP2013164658A (en) * 2012-02-09 2013-08-22 Ricoh Co Ltd Image display device
JP2015172887A (en) * 2014-03-12 2015-10-01 オムロン株式会社 Gesture recognition device and control method of gesture recognition device

Similar Documents

Publication Publication Date Title
KR100843811B1 (en) Information processing apparatus, method of displaying movement recognizable standby state, method of showing recognizable movement, method of displaying movement recognizing process, and program storage medium
US20220334697A1 (en) Screen capture method and related device
WO2022022495A1 (en) Cross-device object dragging method and device
US11669242B2 (en) Screenshot method and electronic device
US9965878B2 (en) Mobile communication terminal and data input method
WO2020173370A1 (en) Method for moving application icons, and electronic device
US20220283610A1 (en) Electronic Device Control Method and Electronic Device
US20070103455A1 (en) Information processing apparatus and method, program, and recording medium
WO2021037227A1 (en) Image processing method, electronic device and cloud server
CN110601959B (en) Session message display method, device, terminal and storage medium
KR20070080918A (en) Method and apparatus for digital image displaying on a portable terminal
EP4102379A1 (en) Data sharing method, electronic device and system
CN110559645B (en) Application operation method and electronic equipment
JP2002083302A (en) Information processing device, action recognition processing method, and program storage medium
WO2022166618A1 (en) Screen projection method and electronic device
CN113934330A (en) Screen capturing method and electronic equipment
CN115756268A (en) Cross-device interaction method and device, screen projection system and terminal
JP2023528384A (en) CONTENT SHARING METHOD, APPARATUS AND SYSTEM
WO2022007678A1 (en) Method for opening file, and device
CN115016697A (en) Screen projection method, computer device, readable storage medium, and program product
CN114915834A (en) Screen projection method and electronic equipment
JP2002116859A (en) Information processor, instruction recognition processing method and program storage medium
JP4415227B2 (en) Information processing apparatus, information processing method, and recording medium
WO2023029916A1 (en) Annotation display method and apparatus, terminal device, and readable storage medium
JP2001306049A (en) Information processor, movement recognition process displaying method and program storage medium