JP2002116859A - Information processor, instruction recognition processing method and program storage medium - Google Patents
Information processor, instruction recognition processing method and program storage mediumInfo
- Publication number
- JP2002116859A JP2002116859A JP2000310938A JP2000310938A JP2002116859A JP 2002116859 A JP2002116859 A JP 2002116859A JP 2000310938 A JP2000310938 A JP 2000310938A JP 2000310938 A JP2000310938 A JP 2000310938A JP 2002116859 A JP2002116859 A JP 2002116859A
- Authority
- JP
- Japan
- Prior art keywords
- image
- predetermined area
- area
- image data
- recognizing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は情報処理装置、命令
認識処理方法及びプログラム格納媒体に関し、例えばノ
ートブック型パーソナルコンピュータ(以下、これをノ
ートパソコンと呼ぶ)に適用して好適なものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus, an instruction recognition processing method, and a program storage medium, and is suitably applied to, for example, a notebook personal computer (hereinafter referred to as a notebook personal computer).
【0002】[0002]
【従来の技術】従来、ノートパソコンにおいては本体部
と、液晶ディスプレイ等の表示手段と、所定のコマンド
や文字を入力するためのキーボードあるいはマウス等の
入力手段とによって構成され、当該入力手段によって入
力されたコマンドに応じて所定の処理を実行し、その実
行結果を表示手段に表示するようになされている。2. Description of the Related Art Conventionally, a notebook personal computer comprises a main body, display means such as a liquid crystal display, and input means such as a keyboard or mouse for inputting predetermined commands and characters. A predetermined process is executed in response to the command, and the execution result is displayed on a display unit.
【0003】[0003]
【発明が解決しようとする課題】ところでかかる構成の
ノートパソコンにおいては、キーボード又はマウス等の
入力手段を当該各入力手段毎の操作方法で直接操作しな
ければならず、ユーザに対して各入力手段毎の操作方法
を覚えさせる必要があると共に、煩雑な操作を強いると
いう問題があった。In a notebook personal computer having such a configuration, an input means such as a keyboard or a mouse must be directly operated by an operation method for each input means. There is a problem in that it is necessary to memorize each operation method and a complicated operation is required.
【0004】またノートパソコンは、ユーザの入力操作
に間違いがあった場合には、間違った処理を実行するこ
とにもなり、使い勝手としては不十分であった。[0004] In addition, if the input operation by the user is incorrect, the notebook personal computer performs an incorrect process, and is not easy to use.
【0005】本発明は以上の点を考慮してなされたもの
で、ユーザに対して操作が容易で使い勝手の優れた入力
インターフェースを提供し得る情報処理装置、命令認識
処理方法及びプログラム格納媒体を提案しようとするも
のである。The present invention has been made in view of the above points, and proposes an information processing apparatus, an instruction recognition processing method, and a program storage medium which can provide a user with an easy-to-operate and easy-to-use input interface. What you want to do.
【0006】[0006]
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、撮像手段によって認識対象を撮像
することにより得られた画像中の所定領域を特定し、当
該所定領域における画像データの変化を認識したとき、
所定領域に対して予め対応付けられている命令に応じた
所定の処理を実行するようにしたことにより、処理を希
望する所定領域における画像データの変化がいかなる種
類の変化であるかに係わらず、変化を認識しただけで直
ちに所定領域に対応付けられている命令に応じた処理を
実行することができるので、誤認識が無く即応性の高い
入力インターフェースを提供することができる。According to the present invention, a predetermined area in an image obtained by imaging an object to be recognized by an imaging means is specified, and a change in image data in the predetermined area is specified. When recognizing
By performing a predetermined process according to a command previously associated with the predetermined region, regardless of what kind of change in the image data in the predetermined region desired to be processed, Since the processing corresponding to the command associated with the predetermined area can be immediately executed just by recognizing the change, it is possible to provide a highly responsive input interface without erroneous recognition.
【0007】[0007]
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.
【0008】(1)ノートブック型パーソナルコンピュ
ータの外観構成 図1において、1は全体として本発明を適用した情報処
理装置としてのノートブック型パーソナルコンピュータ
(以下、これをノートパソコンと呼ぶ)を示し、本体2
と当該本体2に対して開閉自在に取り付けられた表示部
3とによって構成されている。(1) External Configuration of Notebook Personal Computer In FIG. 1, reference numeral 1 denotes a notebook personal computer (hereinafter referred to as a notebook personal computer) as an information processing apparatus to which the present invention is applied. Body 2
And a display unit 3 attached to the main body 2 so as to be openable and closable.
【0009】本体2は、その上面に各種文字や記号及び
数字等を入力するための複数の操作キー4、マウスカー
ソルの移動に用いられるスティック式ポインティングデ
バイス(以下、これを単にスティックと呼ぶ)5、通常
のマウスにおける左ボタン及び右ボタンに相当する左ク
リックボタン5A及び5B、マウスカーソルをスクロー
ルボタンに合わせることなくスクロールバーを操作する
ためのセンタボタン5C、内蔵スピーカ6A及び6B、
押圧式の電源スイッチ7、表示部3に設けられたCCD
(Charge Coupled Device )カメラ8用のシャッタボタ
ン9、LED(Light Emitting Diode)で構成された電
源ランプPL、電池ランプBL及びメッセージランプM
L等が設けられている。The main body 2 has a plurality of operation keys 4 for inputting various characters, symbols, numbers, and the like on a top surface thereof, and a stick type pointing device (hereinafter, simply referred to as a stick) 5 used for moving a mouse cursor. Left click buttons 5A and 5B corresponding to a left button and a right button of a normal mouse, a center button 5C for operating a scroll bar without moving the mouse cursor to the scroll buttons, built-in speakers 6A and 6B,
Push-type power switch 7, CCD provided on display unit 3
(Charge Coupled Device) A shutter button 9 for a camera 8, a power lamp PL, a battery lamp BL, and a message lamp M each composed of an LED (Light Emitting Diode).
L and the like are provided.
【0010】表示部3は、その正面に例えば8.9型
(1024×480ピクセル)対応のTFT(Thin Fil
m Transisitor )カラー液晶でなる液晶ディスプレイ1
0が設けられると共に、正面の中央上端部には撮像手段
としてのCCDカメラ8を備えた撮像部11が当該表示
部3に対して回動自在に設けられている。The display section 3 has a TFT (Thin Fil) corresponding to, for example, an 8.9 type (1024 × 480 pixels) on its front surface.
m Transisitor) Liquid crystal display 1 consisting of color liquid crystal
0 is provided, and an image pickup section 11 provided with a CCD camera 8 as an image pickup means is provided at the upper end of the front center so as to be rotatable with respect to the display section 3.
【0011】この撮像部11においては、CCDカメラ
8が表示部3の正面方向から背面方向までの180度程
度の角度範囲で回動して任意の角度で位置決めし得ると
共に、当該CCDカメラ8によって所望の撮像対象を撮
像する際のフォーカス調整を当該撮像部11の上端部に
設けられた調整リング12の回転操作により容易に行い
得るようになされている。In the image pickup section 11, the CCD camera 8 can be rotated at an angle of about 180 degrees from the front direction to the back direction of the display section 3 and positioned at an arbitrary angle. Focus adjustment when imaging a desired imaging target can be easily performed by rotating the adjustment ring 12 provided at the upper end of the imaging unit 11.
【0012】また表示部3は、撮像部11の左端近傍に
おける正面側及び背面側にマイクロフォン13が設けら
れており、当該マイクロフォン13を介して当該表示部
3の正面側から背面側までの広範囲に渡って集音し得る
ようになされている。The display unit 3 is provided with microphones 13 on the front side and the back side near the left end of the image pickup unit 11, and covers a wide area from the front side to the back side of the display unit 3 via the microphone 13. It is designed to be able to collect sound across.
【0013】さらに表示部3は、液晶ディスプレイ10
の左端近傍及び右端近傍にそれぞれつめ14及び15が
設けられ、当該つめ14及び15と対応する本体2の所
定位置には孔部16及び17が設けられており、表示部
3を本体2に閉塞した状態でつめ14及び15がそれぞ
れ対応する孔部16及び17に嵌合される。The display unit 3 further includes a liquid crystal display 10
The pawls 14 and 15 are provided near the left end and the right end, respectively, and holes 16 and 17 are provided at predetermined positions of the main body 2 corresponding to the pawls 14 and 15, respectively. In this state, the claws 14 and 15 are fitted into the corresponding holes 16 and 17, respectively.
【0014】これに対して表示部3は、本体2に閉塞さ
れた当該表示部3の前側が持ち上げられたときに、孔部
16及び17とつめ14及び15の嵌合状態が解除さ
れ、その結果、当該表示部3が本体2から展開し得るよ
うになされている。On the other hand, when the front side of the display unit 3 closed by the main body 2 is lifted, the fitted state of the holes 16 and 17 and the claws 14 and 15 is released, and As a result, the display unit 3 can be developed from the main body 2.
【0015】また本体2は、その右側面にIrDA(In
frared Data Association )準拠の赤外線ポート18、
ヘッドフォン端子19、マイクロフォン用入力端子2
0、USB(Universal Serial Bus)端子21、外部電
源コネクタ22、外部ディスプレイ出力用コネクタ2
3、回転操作子の回転操作及び押圧操作によって所定の
処理を実行するための命令を入力し得るジョグダイヤル
24及びモジュラージャック用のモデム端子25が設け
られている。The body 2 has an IrDA (In) on its right side.
frared Data Association) compliant infrared port 18,
Headphone terminal 19, microphone input terminal 2
0, USB (Universal Serial Bus) terminal 21, external power supply connector 22, external display output connector 2
3. A jog dial 24 and a modem terminal 25 for a modular jack are provided for inputting a command for executing a predetermined process by a rotation operation and a pressing operation of the rotary operation element.
【0016】一方、図2に示すように本体2は、その左
側面に排気孔26、PCMCIA(Personal Computer
Memory Card International Association )規格のPC
(Personal Computer )カードに対応したPCカードス
ロット27及び4ピン対応のIEEE(Institute of E
lectrical and Electronics Engineers )1394端子
28が設けられている。On the other hand, as shown in FIG. 2, the main body 2 has an exhaust hole 26 and a PCMCIA (Personal Computer) on its left side.
Memory Card International Association) standard PC
(Personal Computer) card compatible with PC card slot 27 and 4-pin IEEE (Institute of E)
Electrical and Electronics Engineers) 1394 terminal 28 is provided.
【0017】さらに図3に示すように本体2は、その後
側面にバッテリコネクタ29が設けられており、底面に
はバッテリパック30(図1)を取り外すためのスライ
ド式取り外しレバー31及び当該スライド式取り外しレ
バー31のスライド操作をロックするロックレバー32
が設けられると共に、本体2の動作を中断して電源投入
時の環境を再構築するためのリセットスイッチ33が設
けられている。なおバッテリパック30は、バッテリコ
ネクタ29に対して着脱自在に接続される。Further, as shown in FIG. 3, the main body 2 is provided with a battery connector 29 on a rear side surface thereof, and a slide type removal lever 31 for detaching the battery pack 30 (FIG. 1) on the bottom surface, and the slide type removal lever 31. Lock lever 32 for locking the sliding operation of lever 31
And a reset switch 33 for interrupting the operation of the main body 2 and reconstructing the environment at power-on. The battery pack 30 is detachably connected to the battery connector 29.
【0018】(2)ノートブック型パーソナルコンピュ
ータの回路構成 次にノートパソコン1の回路構成について図4を用いて
詳細に説明する。ノートパソコン1の本体2において
は、当該本体2の各種機能を統括的に制御するCPU
(Central Processing Unit )50がホストバス52に
接続されており、当該CPU50によってRAM(Rand
om Access Memory)53にロードされた各種プログラム
やアプリケーションソフトウェアに応じた処理を、クロ
ックジェネレータ60から与えられるシステムクロック
に基づいて所定の動作速度で実行することにより各種機
能を実現し得るようになされている。(2) Circuit Configuration of Notebook Type Personal Computer Next, the circuit configuration of the notebook personal computer 1 will be described in detail with reference to FIG. In the main body 2 of the notebook personal computer 1, a CPU for controlling various functions of the main body 2 in an integrated manner
(Central Processing Unit) 50 is connected to the host bus 52, and the CPU 50 controls the RAM (Rand Rand).
om Access Memory) 53 is executed at a predetermined operating speed based on a system clock provided from the clock generator 60, thereby realizing various functions. I have.
【0019】またホストバス52には、キャッシュメモ
リ51が接続されており、CPU50が使用するデータ
をキャッシュし、高速アクセスを実現し得るようになさ
れている。A cache memory 51 is connected to the host bus 52 so as to cache data used by the CPU 50 and realize high-speed access.
【0020】このホストバス52は、PCI(Peripher
al Component Interconnect )バス55とホスト−PC
Iブリッジ54を介して接続されており、当該PCIバ
ス55にはビデオコントローラ56、IEEE1349
インターフェース57、ビデオキャプチャ処理チップ8
3及びPCカードインターフェース58が接続されてい
る。The host bus 52 is connected to a PCI (Peripher
al Component Interconnect) bus 55 and host-PC
The PCI bus 55 is connected via a video controller 56 and an IEEE 1349
Interface 57, video capture processing chip 8
3 and the PC card interface 58 are connected.
【0021】ここでホスト−PCIブリッジ54は、C
PU50と、ビデオコントローラ56、ビデオキャプチ
ャ処理チップ83、IEEE1349インターフェース
57及びPCカードインターフェース58との間で行わ
れる各種データの授受を制御すると共に、メモリバス5
9を介して接続されたRAM53のメモリコントロール
を行うようになされている。Here, the host-PCI bridge 54
It controls the exchange of various data between the PU 50 and the video controller 56, the video capture processing chip 83, the IEEE 1349 interface 57, and the PC card interface 58, and controls the memory bus 5
9 for controlling the memory of the RAM 53 connected thereto.
【0022】またホスト−PCIブリッジ54は、ビデ
オコントローラ56とAGP(Accelerated Graphics P
ort )に沿った信号線を介して接続されており、これに
より当該ホスト−PCIブリッジ54及びビデオコント
ローラ56間で画像データを高速転送し得るようになさ
れている。The host-PCI bridge 54 includes a video controller 56 and an AGP (Accelerated Graphics P
(ort), so that image data can be transferred between the host-PCI bridge 54 and the video controller 56 at a high speed.
【0023】ビデオキャプチャ処理チップ83は、シリ
アルバスでなるI2Cバス82(一般的にSM(System
Management )バスとも呼ばれている)と接続されてお
り、当該I2Cバス82を介してCCDカメラ8で撮像
された画像データが供給されると、これを内蔵のフレー
ムメモリ(図示せず)に一旦格納し、JPEG(Joint
Photographic Experts Group)規格に従って画像圧縮処
理を施すことによりJPEG画像データを生成した後、
当該JPEG画像データを再度フレームメモリに格納す
るようになされている。The video capture processing chip 83 includes an I 2 C bus 82 (generally an SM (System
Management), and when image data captured by the CCD camera 8 is supplied via the I 2 C bus 82, the image data is stored in a built-in frame memory (not shown). And store it in JPEG (Joint
Photographic Experts Group) After generating JPEG image data by performing image compression processing according to the standard,
The JPEG image data is stored in the frame memory again.
【0024】そしてビデオキャプチャ処理チップ83
は、CPU50からの要求に応じて、フレームメモリに
格納されているJPEG画像データをバスマスタ機能を
用いてRAM53へ転送した後、JPEG画像(静止
画)データ又はMotionJPEG画像(動画)デー
タとしてハードディスクドライブ(HDD)67へ転送
する。Then, the video capture processing chip 83
Transmits the JPEG image data stored in the frame memory to the RAM 53 using the bus master function in response to a request from the CPU 50, and then transfers the JPEG image (still image) data or the Motion JPEG image (moving image) data to the hard disk drive ( HDD) 67.
【0025】またビデオコントローラ56は、適時供給
される各種アプリケーションソフトウェアに基づく画像
データや、CCDカメラ8で撮像された画像データを表
示部3の液晶ディスプレイ10に出力することにより、
複数のウィンドウ画面を表示し得るようになされてい
る。The video controller 56 outputs image data based on various kinds of application software supplied at appropriate times and image data picked up by the CCD camera 8 to the liquid crystal display 10 of the display unit 3,
A plurality of window screens can be displayed.
【0026】IEEE1349インターフェース57
は、IEEE1394端子28と直結されており、当該
IEEE1394端子28を介して他のコンピュータ装
置やディジタルビデオカメラ等の外部デバイスと接続し
得るようになされている。IEEE 1349 interface 57
Is directly connected to the IEEE 1394 terminal 28, and can be connected to another computer device or an external device such as a digital video camera via the IEEE 1394 terminal 28.
【0027】PCカードインターフェース58は、オプ
ション機能を追加するときに適宜PCカードスロット2
7に装填されるPCカード(図示せず)と接続され、当
該PCカードを介して例えばCD−ROM(Compact Di
sc-Read Only Memory )ドライブやDVD(Digital Ve
rsatile Disc)ドライブ等の外部デバイスと接続し得る
ようになされている。When an optional function is added, the PC card interface 58
7 is connected to a PC card (not shown) mounted on the PC 7 and, for example, a CD-ROM (Compact Dimm
sc-Read Only Memory) drive and DVD (Digital Ve
(rsatile Disc) drive so that it can be connected to an external device.
【0028】PCIバス55は、ISA(Industrial S
tandard Architecture)バス65とPCI−ISAブリ
ッジ66を介して接続されており、当該PCI−ISA
ブリッジ66にはHDD67及びUSB端子21が接続
されている。The PCI bus 55 is an ISA (Industrial S)
and a PCI-ISA bridge 66 and a PCI-ISA bridge 66.
The HDD 67 and the USB terminal 21 are connected to the bridge 66.
【0029】ここでPCI−ISAブリッジ66は、I
DE(Integrated Drive Electronics)インターフェー
ス、コンフィギュレーションレジスタ、RTC(Real-T
imeClock )回路及びUSBインターフェース等によっ
て構成されており、クロックジェネレータ60から与え
られるシステムクロックを基にIDEインターフェース
を介してHDD67の制御を行う。Here, the PCI-ISA bridge 66
DE (Integrated Drive Electronics) interface, configuration register, RTC (Real-T
imeClock) circuit, a USB interface, and the like, and controls the HDD 67 via the IDE interface based on a system clock supplied from the clock generator 60.
【0030】HDD67のハードディスクには、 Windo
ws98(商標)等のOS(Operating System)、電子メ
ールプログラム、オートパイロットプログラム、ジョグ
ダイヤルサーバプログラム、ジョグダイヤルドライバ、
キャプチャーソフトウェア、ディジタル地図ソフトウェ
ア及びこれら以外の各種アプリケーションソフトウェア
が格納されており、起動処理の過程で適時RAM53に
転送されてロードされる。The hard disk of the HDD 67 has Windo
OS (Operating System) such as ws98 (trademark), e-mail program, auto pilot program, jog dial server program, jog dial driver,
Capture software, digital map software, and various other application software are stored, and are transferred to and loaded on the RAM 53 as needed in the course of startup processing.
【0031】またPCI−ISAブリッジ66は、US
B端子21を介して接続される図示しないフロッピー
(登録商標)ディスクドライブ、プリンタ及びUSBマ
ウス等の外部デバイスをUSBインターフェースを介し
て制御すると共に、ISAバス65に接続されるモデム
69及びサウンドコントローラ70の制御を行う。The PCI-ISA bridge 66 is a U.S.A.
External devices such as a floppy (registered trademark) disk drive, a printer, and a USB mouse (not shown) connected via the B terminal 21 are controlled via a USB interface, and a modem 69 and a sound controller 70 connected to the ISA bus 65. Control.
【0032】モデム69は、モデム端子25から図示し
ない公衆電話回線を介してインターネットサービスプロ
バイダ(以下、これをプロバイダと呼ぶ)に接続し、当
該プロバイダを介してインターネットへダイヤルアップ
IP接続するようになされている。The modem 69 is connected to an Internet service provider (hereinafter, referred to as a provider) from a modem terminal 25 via a public telephone line (not shown), and is connected to the Internet via the provider through a dial-up IP connection. ing.
【0033】サウンドコントローラ70は、マイクロフ
ォン13で集音された音声信号をディジタル変換するこ
とにより音声データを生成し、これをCPU50に出力
すると共に、当該CPU50から供給される音声データ
をアナログ変換することにより音声信号を生成し、これ
を内蔵スピーカ6を介して外部に出力する。The sound controller 70 generates audio data by digitally converting the audio signal collected by the microphone 13, outputs the audio data to the CPU 50, and converts the audio data supplied from the CPU 50 into an analog signal. , And outputs it to the outside via the built-in speaker 6.
【0034】またISAバス65には、I/O(In/Ou
t)コントローラ73が接続されており、外部電源コネ
クタ22から電源供給充電制御回路85を介して外部電
源の電力供給を受け、電源スイッチ7がオンされたとき
に各回路へ電力の供給を行う。なお、ここでもI/Oコ
ントローラ73は、クロックジェネレータ60から供給
されるシステムクロックを基に動作する。The ISA bus 65 has an I / O (In / Ou).
t) The controller 73 is connected, receives power from an external power supply from the external power supply connector 22 via the power supply charging control circuit 85, and supplies power to each circuit when the power switch 7 is turned on. Here, the I / O controller 73 operates based on the system clock supplied from the clock generator 60 also.
【0035】また電源供給充電制御回路85は、I/O
コントローラ73によって制御され、バッテリコネクタ
29(図3)に接続されたバッテリパック30の充電を
制御する。The power supply charge control circuit 85 is provided with an I / O
The controller 73 controls charging of the battery pack 30 connected to the battery connector 29 (FIG. 3).
【0036】I/Oコントローラ73は、マイクロコン
トローラ、I/Oインターフェース、CPU、ROM、
RAM等によって構成されており、フラッシュメモリ7
9に格納されているBIOS(Basic Input/Output Sys
tem )に基づいてOSやアプリケーションソフトウェア
と液晶ディスプレイ10やHDD67等の各種周辺機器
との間におけるデータの入出力を制御する。The I / O controller 73 includes a microcontroller, an I / O interface, a CPU, a ROM,
The flash memory 7 comprises a RAM or the like.
9 (Basic Input / Output Sys.)
tem) to control the input and output of data between the OS and application software and various peripheral devices such as the liquid crystal display 10 and the HDD 67.
【0037】またI/Oコントローラ73は、赤外線ポ
ート18と接続され、例えば他のコンピュータ装置との
間で赤外線通信を実行し得るようになされている。The I / O controller 73 is connected to the infrared port 18 and can execute infrared communication with, for example, another computer.
【0038】さらにI/Oコントローラ73は、反転ス
イッチ77と接続されており、撮像部11が液晶ディス
プレイ10の背面側方向に180度回転されたとき当該
反転スイッチ77がオンされ、その旨をPCI−ISA
ブリッジ66及びホスト−PCIブリッジ54を介して
CPU50に通知する。Further, the I / O controller 73 is connected to an inversion switch 77, and when the imaging unit 11 is rotated by 180 degrees toward the back side of the liquid crystal display 10, the inversion switch 77 is turned on. -ISA
The CPU 50 is notified via the bridge 66 and the host-PCI bridge 54.
【0039】これに加えてI/Oコントローラ73は、
全押し/半押しスイッチ78と接続されており、本体2
の上面に設けられたシャッタボタン9が半押し状態にさ
れたとき全押し/半押しスイッチ78が半押し状態にオ
ンされ、その旨をCPU50に通知すると共に、シャッ
タボタン9が全押し状態にされたとき全押し/半押しス
イッチ78が全押し状態にオンされ、その旨をCPU5
0に通知する。In addition, the I / O controller 73
It is connected to the full-press / half-press switch 78 and the main body 2
When the shutter button 9 provided on the upper surface of the camera is half-pressed, the full-press / half-press switch 78 is turned on to the half-pressed state, the CPU 50 is notified of this, and the shutter button 9 is fully pressed. The full-press / half-press switch 78 is turned on to the full-press state, and the CPU 5
Notify 0.
【0040】すなわちCPU50は、HDD67のハー
ドディスクからキャプチャーソフトウェアをRAM53
上に立ち上げた状態で、ユーザによってシャッタボタン
9が半押し状態にされると静止画像モードに入り、CC
Dカメラ8を制御して静止画像のフリーズを実行し、全
押し状態にされるとフリーズされた静止画像データを取
り込みビデオコントローラ56に送出する。That is, the CPU 50 transfers the capture software from the hard disk of the HDD 67 to the RAM 53.
When the shutter button 9 is half-pressed by the user in a state where the camera is raised up, the still image mode is entered and the CC
The D camera 8 is controlled to freeze the still image. When the D camera 8 is fully pressed, the frozen still image data is captured and sent to the video controller 56.
【0041】これに対してCPU50は、キャプチャー
ソフトウェアを立ち上げない状態で、ユーザによってシ
ャッタボタン9が全押し状態にされると動画像モードに
入り、最大60秒程度までの動画像を取り込んでビデオ
コントローラ56に送出するようになされている。On the other hand, when the shutter button 9 is fully depressed by the user without starting the capture software, the CPU 50 enters the moving image mode, captures a moving image for up to about 60 seconds, and outputs the moving image. The data is sent to the controller 56.
【0042】ところで、I/Oコントローラ73のRO
Mには、ウェイクアッププログラム、キー入力監視プロ
グラム、LED制御プログラム及びジョグダイヤル状態
監視プログラム、その他種々の制御プログラムが格納さ
れている。By the way, the RO of the I / O controller 73
M stores a wakeup program, a key input monitoring program, an LED control program, a jog dial state monitoring program, and various other control programs.
【0043】ここでジョグダイヤル状態監視プログラム
は、HDD67のハードディスクに格納されているジョ
グダイヤルサーバプログラムと連動して用いられるプロ
グラムであり、ジョグダイヤル24が回転操作又は押圧
操作されたか否かを監視するためのものである。Here, the jog dial state monitoring program is a program used in conjunction with a jog dial server program stored in the hard disk of the HDD 67, and is for monitoring whether the jog dial 24 is rotated or pressed. It is.
【0044】ウェイクアッププログラムは、PCI−I
SAブリッジ66内のRTC回路から供給される現在時
刻が予め設定した開始時刻と一致すると、CPU50に
よって所定の処理を実行するように制御されたプログラ
ムであり、キー入力監視プログラムは操作キー4及びそ
の他の各種キースイッチからの入力を監視するプログラ
ムである。LED制御プログラムは、電源ランプPL、
電池ランプBL、メッセージランプML(図1)等の各
種ランプの点灯を制御するプログラムである。The wake-up program is a PCI-I
When the current time supplied from the RTC circuit in the SA bridge 66 coincides with a preset start time, the CPU 50 is a program controlled to execute a predetermined process. Is a program for monitoring inputs from various key switches. The LED control program includes a power lamp PL,
This is a program for controlling lighting of various lamps such as a battery lamp BL and a message lamp ML (FIG. 1).
【0045】またI/Oコントローラ73のRAMに
は、ジョグダイヤル状態監視プログラム用のI/Oレジ
スタ、ウェイクアッププログラム用の設定時刻レジス
タ、キー入力監視プログラム用のキー入力監視レジス
タ、LED制御プログラム用のLED制御レジスタ及び
その他の各種プログラム用のレジスタが設けられてい
る。In the RAM of the I / O controller 73, an I / O register for a jog dial state monitoring program, a set time register for a wakeup program, a key input monitoring register for a key input monitoring program, and an LED control program An LED control register and other registers for various programs are provided.
【0046】設定時刻レジスタは、ウェイクアッププロ
グラムで用いるためにユーザが予め任意に設定した開始
時刻の時間情報を格納するようになされている。従って
I/Oコントローラ73は、ウェイクアッププログラム
に基づいてRTC回路から供給される現在時刻が任意に
設定した開始時刻と一致するか否かを判別し、当該開始
時刻と一致したときにはその旨をCPU50に通知す
る。The set time register stores the time information of the start time arbitrarily set by the user in advance for use in the wake-up program. Accordingly, the I / O controller 73 determines whether or not the current time supplied from the RTC circuit matches the arbitrarily set start time based on the wake-up program. Notify.
【0047】これによりCPU50は、開始時刻で予め
設定された所定のアプリケーションソフトウェアを立ち
上げ、当該アプリケーションソフトウェアに従って所定
の処理を実行する。Thus, the CPU 50 starts up predetermined application software set in advance at the start time, and executes predetermined processing according to the application software.
【0048】またキー入力監視レジスタは、操作キー
4、スティック5、左クリックボタン5A、右クリック
ボタン5B及びセンタボタン5C等の入力操作に応じた
操作キーフラグを格納するようになされている。The key input monitoring register stores operation key flags corresponding to input operations of the operation key 4, the stick 5, the left click button 5A, the right click button 5B, the center button 5C and the like.
【0049】従ってI/Oコントローラ73は、キー入
力監視プログラムに基づいて例えばスティック5による
ポインティング操作や、左クリックボタン5A、右クリ
ックボタン5B及びセンタボタン5Cのクリック操作が
行われたか否かを操作キーフラグの状態に基づいて判別
し、ポインティング操作やクリック操作が行われたとき
にはその旨をCPU50に通知する。Therefore, the I / O controller 73 operates based on the key input monitoring program to determine whether or not the pointing operation with the stick 5 or the clicking operation of the left click button 5A, right click button 5B and center button 5C has been performed. The determination is made based on the state of the key flag, and when a pointing operation or a click operation is performed, the fact is notified to the CPU 50.
【0050】ここでポインティング操作とは、スティッ
ク5を指で上下左右に押圧操作することによりマウスカ
ーソルを画面上の所望位置に移動する操作のことであ
り、クリック操作とは左クリックボタン5A又は右クリ
ックボタン5Bを指で素早く押して離す操作のことであ
る。Here, the pointing operation is an operation of moving the mouse cursor to a desired position on the screen by pressing the stick 5 up, down, left and right with a finger, and the clicking operation is the left click button 5A or the right click button. This is an operation to quickly press and release the click button 5B with a finger.
【0051】これによりCPU50は、ポインティング
操作によるマウスカーソルの移動やクリック操作に応じ
た所定の処理を実行する。Thus, the CPU 50 executes a predetermined process in accordance with the movement of the mouse cursor and the click operation by the pointing operation.
【0052】またLED制御レジスタは、電源ランプP
L、電池ランプBL、メッセージランプML等の各種ラ
ンプの点灯状態を示す点灯フラグを格納するようになさ
れている。The LED control register includes a power lamp P
A lighting flag indicating the lighting state of various lamps such as L, battery lamp BL, and message lamp ML is stored.
【0053】従ってI/Oコントローラ73は、例えば
ジョグダイヤル24の押圧操作によりCPU50がHD
D67のハードディスクから電子メールプログラムを立
ち上げ、当該電子メールプログラムに従って電子メール
を受け取ったときに点灯フラグを格納すると共に、当該
点灯フラグに基づいてLED81を制御することにより
メッセージランプMLを点灯させる。Therefore, the I / O controller 73 causes the CPU 50 to operate the HD
The e-mail program is started from the hard disk at D67, and when an e-mail is received according to the e-mail program, a lighting flag is stored, and the message lamp ML is turned on by controlling the LED 81 based on the lighting flag.
【0054】またジョグダイヤル状態監視プログラム用
のI/Oレジスタは、ジョグダイヤル24に対する回転
操作及び押圧操作に応じた回転操作フラグ及び押圧操作
フラグを格納するようになされている。The I / O register for the jog dial state monitoring program stores a rotation operation flag and a pressing operation flag corresponding to a rotation operation and a pressing operation on the jog dial 24.
【0055】従ってI/Oコントローラ73は、回転検
出部88を介して接続されたジョグダイヤル24の回転
操作及び押圧操作により複数のメニュー項目の中からユ
ーザ所望のメニュー項目が選択されたとき、I/Oレジ
スタに格納されている回転操作フラグ及び押圧操作フラ
グを立てると共に、その旨をCPU50に通知する。Therefore, when a user's desired menu item is selected from a plurality of menu items by rotating and pressing the jog dial 24 connected via the rotation detecting unit 88, the I / O controller 73 outputs the I / O controller 73. The rotation operation flag and the pressing operation flag stored in the O register are set, and the CPU 50 is notified to that effect.
【0056】これによりCPU50は、HDD67から
読み出してRAM53上に立ち上げたジョグダイヤルサ
ーバプログラムに従って、ジョグダイヤル24の回転操
作及び押圧操作によって決定されたメニュー項目に該当
する所定の処理を実行したり、メニュー項目に該当する
アプリケーションソフトウェアを起動する。In accordance with the jog dial server program read from the HDD 67 and started on the RAM 53, the CPU 50 executes a predetermined process corresponding to the menu item determined by the rotation operation and the press operation of the jog dial 24, and executes the menu item. Start the application software corresponding to.
【0057】ここでI/Oコントローラ73は、電源ス
イッチ7がオフでOSが起動していない状態であって
も、電源供給充電制御回路85の制御によって常時動作
しており、専用キーを設けることなく省電力状態又は電
源オフ時のジョグダイヤル24の押圧操作によってユー
ザ所望のアプリケーションソフトウェアやスクリプトフ
ァイルを起動し得るようになされている。Here, the I / O controller 73 operates constantly under the control of the power supply / charge control circuit 85 even when the power switch 7 is off and the OS is not running. The user can start application software or a script file desired by the user by pressing the jog dial 24 in the power saving state or when the power is off.
【0058】なおI/Oコントローラ73は、I2Cバ
ス82とも接続されており、操作キー4やジョグダイヤ
ル24によって設定されたCCDカメラ8に対する各種
設定パラメータをI2Cバス82を介して供給すること
により、CCDカメラ8における明るさやコントラスト
を調整するようになされている。[0058] Note that the I / O controller 73 is also connected to the I 2 C bus 82, supplies the various setting parameters for the CCD camera 8 set by operating keys 4 or the jog dial 24 through the I 2 C bus 82 Thus, the brightness and contrast of the CCD camera 8 are adjusted.
【0059】(3)命令認識処理 かかる構成に加えてノートパソコン1は、CCDカメラ
8で撮像したユーザの手の動きに応じた所定の命令を認
識するためのサイバージェスチャープログラムと呼ばれ
るアプリケーションプログラムをHDD67のハードデ
ィスクから立ち上げ、当該サイバージェスチャープログ
ラムに基づいてCCDカメラ8で撮像されたユーザの手
の動きを認識し、その認識結果に応じた所定の処理をア
プリケーションプログラムに基づくウィンドウ画面上で
実行するようになされている。(3) Command Recognition Process In addition to the above configuration, the notebook computer 1 includes an application program called a cyber gesture program for recognizing a predetermined command corresponding to the movement of the user's hand captured by the CCD camera 8. From the hard disk, recognizes the movement of the user's hand captured by the CCD camera 8 based on the cyber gesture program, and executes a predetermined process according to the recognition result on a window screen based on the application program. Has been made.
【0060】例えばノートパソコン1は、図5に示すよ
うに所定のアプリケーションプログラムに基づいて液晶
ディスプレイ10に表示したウィンドウ画面99の右端
部及び下端部におけるスクロールバー101及び102
を操作キー4の上方向キー、下方向キー、左方向キー及
び右方向キーで操作することにより、当該ウィンドウ画
面99の表示画像99Aを上下左右にスクロールするこ
とを通常行っているが、本発明においてはCCDカメラ
8で撮像したユーザの手の動きに応じた命令をサイバー
ジェスチャープログラムに基づいてCPU50に認識さ
せることにより、当該CPU50の制御により上述のス
クロール動作を操作キー4に触れることなく非接触で実
行し得るようになされている。For example, as shown in FIG. 5, the notebook computer 1 has scroll bars 101 and 102 at the right end and the lower end of the window screen 99 displayed on the liquid crystal display 10 based on a predetermined application program.
Is operated with the up key, the down key, the left key, and the right key of the operation key 4 to scroll the display image 99A of the window screen 99 up, down, left, and right. In the above, the CPU 50 recognizes a command corresponding to the movement of the hand of the user picked up by the CCD camera 8 based on the cyber gesture program, so that the above-described scrolling operation can be performed without touching the operation keys 4 under the control of the CPU 50. To be able to run on.
【0061】すなわちノートパソコン1のCPU50
は、図6に示すようにルーチンRT1のサイバージェス
チャープログラムに基づく命令認識処理手順に従ってユ
ーザの手の動きに応じた命令を認識するようになされて
おり、まずステップSP1に移る。That is, the CPU 50 of the notebook computer 1
As shown in FIG. 6, a command corresponding to the movement of the user's hand is recognized according to a command recognition processing procedure based on the cyber gesture program of the routine RT1, and the process first proceeds to step SP1.
【0062】ステップSP1においてCPU50は、ユ
ーザの操作に応じてHDD67のハードディスクからサ
イバージェスチャープログラムを立ち上げ、当該サイバ
ージェスチャープログラムに基づいて生成した命令認識
画面100をウィンドウ画面99中の表示画像99Aに
重ねて表示した後、次のステップSP2に移る。In step SP 1, the CPU 50 starts a cyber gesture program from the hard disk of the HDD 67 in response to a user operation, and superimposes the command recognition screen 100 generated based on the cyber gesture program on the display image 99 A in the window screen 99. Then, the process proceeds to the next step SP2.
【0063】ここで、命令認識画面100は、164×
136ピクセル(画素)の画面サイズで構成され、液晶
ディスプレイ10の画面サイズ(1024×480ピク
セル)に比べて極めて小さな画面サイズで形成されてお
り、これにより当該命令認識画面100の背景に表示さ
れている表示画像99Aが隠れてしまうことがないよう
に、ウィンドウ画面99に対する命令認識画面100の
隠蔽面積を極力小さくするようになされている。Here, the instruction recognition screen 100 is 164 ×
It is configured with a screen size of 136 pixels (pixels), and is formed with a screen size extremely smaller than the screen size of the liquid crystal display 10 (1024 × 480 pixels). The hidden area of the instruction recognition screen 100 with respect to the window screen 99 is made as small as possible so that the displayed image 99A is not hidden.
【0064】また命令認識画面100は、図7に示すよ
うに当該命令認識画面100の上端部にサイバージェス
チャープログラムであることを示す「CYBERGESTURE」
(ソニー(株)商標)のタイトル文字部103、機能の
詳細設定を行うためのオプションボタン104、ヘルプ
ボタン105、最小化ボタン106及び閉じるボタン1
07が設けられている。As shown in FIG. 7, the command recognition screen 100 has "CYBERGESTURE" at the upper end of the command recognition screen 100 indicating that it is a cyber gesture program.
(Sony Corporation trademark) title character portion 103, option button 104 for performing detailed setting of functions, help button 105, minimize button 106, and close button 1
07 is provided.
【0065】さらに命令認識画面100には、画像表示
領域110の中に4種類の命令を認識するための矩形状
枠でなる命令認識エリア111〜114が設けられてお
り、命令認識エリア111でウィンドウ画面99の表示
画像99Aを上方向にスクロールするためのコマンドを
認識し、命令認識エリア112で表示画像99Aを下方
向にスクロールするためのコマンドを認識し、命令認識
エリア113で表示画像99Aを左方向にスクロールす
るためのコマンドを認識し、命令認識エリア114で表
示画像99Aを右方向にスクロールするためのコマンド
を認識するようになされている。Further, the command recognition screen 100 is provided with command recognition areas 111 to 114, which are rectangular frames for recognizing four types of commands, in the image display area 110. A command for scrolling up the display image 99A on the screen 99 is recognized, a command for scrolling down the display image 99A in the command recognition area 112 is recognized, and the display image 99A is moved left in the command recognition area 113. The command for scrolling in the direction is recognized, and the command for scrolling the display image 99A rightward in the command recognition area 114 is recognized.
【0066】ステップSP2においてCPU50は、表
示部3(図1)の正面に位置するユーザを撮像部11の
CCDカメラ8で撮像し、その結果得られる入力画像を
ユーザの手の動きを認識するために取り込むと共に、当
該入力画像を命令認識画面100の画像表示領域110
に表示し、次のステップSP3に移る。In step SP2, the CPU 50 takes an image of the user located in front of the display unit 3 (FIG. 1) with the CCD camera 8 of the imaging unit 11, and recognizes the input image obtained as a result of the movement of the user's hand. And input the input image into the image display area 110 of the instruction recognition screen 100.
And moves to the next step SP3.
【0067】ステップSP3においてCPU50は、ス
テップSP2においてCCDカメラ8から取り込んだ入
力画像に対して、画像表示領域110の命令認識エリア
111〜114に対応した図8に示すようなマスクパタ
ーンのマスク画像116を用いてマスク処理を行い、次
のサブルーチンSRT2に移る。In step SP3, the CPU 50 applies a mask image 116 of a mask pattern as shown in FIG. 8 corresponding to the command recognition areas 111 to 114 of the image display area 110 to the input image fetched from the CCD camera 8 in step SP2. To perform a mask process, and then proceeds to the next subroutine SRT2.
【0068】このマスク画像116は、画像表示領域1
10(図7)の命令認識エリア111〜114に対応
し、当該命令認識エリア111〜114だけを残すよう
に遮蔽領域116A及び非遮蔽領域116B〜116E
が形成されたマスクパターンを有している。The mask image 116 is displayed in the image display area 1
Corresponding to the instruction recognition areas 111 to 114 of FIG. 7 (FIG. 7), the shield area 116A and the non-shield areas 116B to 116E are left so that only the instruction recognition areas 111 to 114 are left.
Has a mask pattern formed thereon.
【0069】従ってCPU50は、マスク画像116を
入力画像に重ねて合成することにより、入力画像のうち
命令認識エリア111〜114だけからユーザの手の動
きに関する画像データを取得し得るようになされてい
る。因みにCPU50は、このマスク画像116が重ね
られた入力画像を手の動き認識のために用いてはいる
が、当該マスク画像116が重ねられた入力画像を命令
認識画面100の画像表示領域110に表示するわけで
はなく、マスク処理の施されていない入力画像を用い命
令認識画面100の画像表示領域110に表示してい
る。Therefore, the CPU 50 can obtain image data relating to the movement of the hand of the user only from the command recognition areas 111 to 114 of the input image by superimposing the mask image 116 on the input image and synthesizing the mask image. . Incidentally, the CPU 50 displays the input image on which the mask image 116 is superimposed in the image display area 110 of the command recognition screen 100, although the input image on which the mask image 116 is superimposed is used for hand movement recognition. Instead, the input image that has not been subjected to the mask processing is displayed in the image display area 110 of the command recognition screen 100.
【0070】図9に示すように、サブルーチンSRT2
のステップSP11においてCPU50は、取り込んだ
入力画像を16画素×16画素でなる複数のマクロブロ
ックに分割し、次のステップSP12に移る。As shown in FIG. 9, the subroutine SRT2
In step SP11, the CPU 50 divides the fetched input image into a plurality of 16 × 16 pixel macroblocks, and proceeds to the next step SP12.
【0071】ステップSP12においてCPU50は、
各マクロブロックにおける現フレームと前フレームとの
輝度レベルの変化に基づいてマクロブロック毎の動きベ
クトルを算出し、次のステップSP13に移る。At step SP12, the CPU 50
A motion vector for each macroblock is calculated based on a change in the luminance level between the current frame and the previous frame in each macroblock, and the flow advances to next step SP13.
【0072】ステップSP13においてCPU50は、
同一方向の動きベクトルを持つマクロブロックを複数個
集めて、その動き領域の中心点を算出し、次のステップ
SP14に移る。At step SP13, the CPU 50
A plurality of macroblocks having motion vectors in the same direction are collected, the center point of the motion area is calculated, and the routine goes to the next step SP14.
【0073】この場合、CPU50はマスク画像116
で入力画像をマスク処理していることにより、入力画像
のうち命令認識エリア111〜114からのみデータ処
理対象となるマクロブロックが得られるので、データ処
理量としては必要最小限で済むようになされている。In this case, the CPU 50 sets the mask image 116
Since the input image is subjected to the mask processing, macroblocks to be subjected to data processing can be obtained only from the instruction recognition areas 111 to 114 in the input image, so that the necessary amount of data processing is minimized. I have.
【0074】ステップSP14においてCPU50は、
ステップSP13で算出した動き領域が入力画像中に存
在しているか否かを判定する。ここで否定結果が得られ
ると、このことは同一方向の動きベクトルを持つマクロ
ブロックの集合体である動き領域が入力画像中には存在
していないことを表しており、このときCPU50はス
テップSP16に移って次のフレームにおけるステップ
SP11以降の処理を繰り返す。At step SP14, the CPU 50
It is determined whether or not the motion area calculated in step SP13 exists in the input image. If a negative result is obtained here, this means that a motion area which is a set of macroblocks having motion vectors in the same direction does not exist in the input image. At this time, the CPU 50 proceeds to step SP16. Then, the processing after step SP11 in the next frame is repeated.
【0075】これに対してステップSP14で肯定結果
が得られると、このことは同一方向の動きベクトルを持
つマクロブロックの集合体である動き領域が入力画像中
に存在していることを表しており、このときCPU50
は次のステップSP15に移る。On the other hand, if an affirmative result is obtained in step SP14, this means that a motion area which is a set of macroblocks having motion vectors in the same direction exists in the input image. At this time, the CPU 50
Moves to the next step SP15.
【0076】ステップSP15においてCPU50は、
動き領域が所定の大きさ以上であるか否かを判定する。
ここで否定結果が得られると、動き領域が所定の大きさ
以上ではなく、すなわちユーザの手とは判断し得ないこ
とを表しており、このときCPU50はステップSP1
7に移って次のフレームにおけるステップSP11以降
の処理を繰り返す。At step SP15, the CPU 50
It is determined whether or not the motion area is equal to or larger than a predetermined size.
If a negative result is obtained here, it indicates that the motion area is not equal to or larger than the predetermined size, that is, it cannot be determined that the movement area is the user's hand.
Then, the process proceeds to step 7 and the processes after step SP11 in the next frame are repeated.
【0077】これに対してステップSP15で肯定結果
が得られると、このことは動き領域が所定の大きさ以上
すなわちユーザの手であると判断し得ることを表してお
り、このときCPU50は例えば図10に示すように命
令認識エリア113にユーザの手がかざされたことを認
識することができ、その後再度ルーチンRT1に戻って
次のステップSP4へ移る。On the other hand, if an affirmative result is obtained in step SP15, this indicates that the motion area can be determined to be equal to or larger than a predetermined size, that is, the user's hand. As shown in FIG. 10, it can be recognized that the user's hand is held over the instruction recognition area 113, and thereafter, the process returns to the routine RT1 again and proceeds to the next step SP4.
【0078】ステップSP4においてCPU50は、サ
イバージェスチャープログラムに基づいてユーザの手が
かざされた命令認識エリア113に応じたコマンド(こ
の場合、ウィンドウ画面99の表示画像99Aを左方向
にスクロールする命令)をAPI(Application Progra
mming Interface )を経由してジョグダイヤルサーバー
プログラムからアプリケーションプログラムへ供給する
ことにより当該コマンドに応じた表示画像99Aのスク
ロール動作を実行し、次のステップSP5に移る。In step SP4, the CPU 50 issues a command (in this case, an instruction to scroll the display image 99A of the window screen 99 to the left) in accordance with the command recognition area 113 held by the user based on the cyber gesture program. API (Application Progra
The scroll operation of the display image 99A according to the command is performed by supplying the jog dial server program to the application program via the mming interface), and the process proceeds to the next step SP5.
【0079】ここでAPIとは、OSがアプリケーショ
ンプログラムに対して公開しているプログラムインター
フェースであり、アプリケーションプログラムは基本的
に全ての処理を当該APIを経由して行うようになされ
ている。因みに、現在一般的なOSのAPIは、関数の
形式をとっており、アプリケーションプログラムからは
適当な引数(パラメータ)を指定してAPIの関数を呼
び出すようになされている。Here, the API is a program interface open to the application program by the OS, and the application program basically performs all processes via the API. Incidentally, the API of a general OS at present is in the form of a function, and an application program calls an API function by designating appropriate arguments (parameters).
【0080】ステップSP5においてCPU50は、命
令認識エリア113で認識された手の動き領域の中心点
が現フレーム及び前フレーム間で動いたか否かを判定す
る。ここで否定結果が得られると、このことはユーザの
手がかざされているにも係わらず全く動いていないこと
を表しており、このときCPU50はサブルーチンSR
T2に戻って上述の処理を繰り返す。In step SP5, the CPU 50 determines whether or not the center point of the hand movement area recognized in the instruction recognition area 113 has moved between the current frame and the previous frame. If a negative result is obtained here, this indicates that the user has not moved at all despite the hand being held, and at this time, the CPU 50 executes the subroutine SR
Returning to T2, the above processing is repeated.
【0081】これに対してステップSP5で肯定結果が
得られると、このことは命令認識エリア113で認識さ
れたユーザの手が当該命令認識エリア113内で再度動
かされたことを表しており、このときCPU50は再度
ステップSP4に戻って上述の処理を繰り返すことによ
り、ユーザの手の動きに応じて再度コマンドをアプリケ
ーションプログラムに供給することにより当該コマンド
に応じた表示画像99Aのスクロール動作を継続して実
行するようになされている。On the other hand, if a positive result is obtained in step SP5, this means that the user's hand recognized in the instruction recognition area 113 has been moved again in the instruction recognition area 113. At this time, the CPU 50 returns to step SP4 again and repeats the above-described processing, thereby supplying a command to the application program again according to the movement of the user's hand, thereby continuing the scroll operation of the display image 99A corresponding to the command. Have been made to perform.
【0082】なお、この実施の形態においては、ユーザ
の胴体部が常に命令認識エリア112に入ってしまって
いるが、胴体部分が動かない限り、ウィンドウ画面99
の表示画像99Aを下方向にスクロールするためのコマ
ンドをアプリケーションプログラムに供給することはな
い。In this embodiment, the torso of the user always enters the command recognition area 112. However, unless the torso moves, the window screen 99 is displayed.
No command is supplied to the application program to scroll the displayed image 99A downward.
【0083】このようにノートパソコン1のCPU50
は、CCDカメラ8で撮像した入力画像に対してマスク
処理を施し、命令認識エリア111〜114に対応する
コマンドを割り当て、当該命令認識エリア111〜11
4にユーザの手がかざされると、各命令認識エリア11
1〜114に対応するコマンドを認識し、当該コマンド
をジョグダイヤルサーバープログラムを介してアプリケ
ーションプログラムに供給することにより、当該アプリ
ケーションプログラムに基づくウィンドウ画面99上で
コマンドに応じた表示画像99Aのスクロール動作を実
行し得るようになされている。As described above, the CPU 50 of the notebook personal computer 1
Performs mask processing on an input image captured by the CCD camera 8 and assigns commands corresponding to the command recognition areas 111 to 114 to the command recognition areas 111 to 114.
When the user's hand is held over the command recognition area 4,
By executing the scroll operation of the display image 99A corresponding to the command on the window screen 99 based on the application program by recognizing the command corresponding to 1 to 114 and supplying the command to the application program via the jog dial server program. It is made to be able to do.
【0084】これによりユーザは、操作キー8を直接操
作することなく、撮像部11のCCDカメラ8を介して
命令認識エリア111〜114のいずれかに手をかざす
だけで、所望のスクロール動作に対応したコマンドを与
えてウィンドウ画面99の表示画像99Aを所望方向へ
容易に動かすことができる。Thus, the user can handle a desired scrolling operation simply by holding his / her hand over any of the command recognition areas 111 to 114 via the CCD camera 8 of the imaging unit 11 without directly operating the operation keys 8. By giving the given command, the display image 99A of the window screen 99 can be easily moved in a desired direction.
【0085】(4)動作及び効果 以上の構成において、ノートパソコン1のCPU50
は、CCDカメラ8で撮像した入力画像に対してマスク
画像116でマスク処理を施し、命令認識エリア111
〜114のいずれかにユーザの手がかざされたことを認
識したときに、その命令認識エリアに予め割り当てられ
たコマンドをアプリケーションプログラムに供給するよ
うにしたことにより、ユーザは操作キー4等を直接操作
することなく命令認識エリア111〜114のいずれか
にユーザの手がかざすだけで非接触に所望のスクロール
動作を実行させることができる。(4) Operation and Effect In the above configuration, the CPU 50 of the notebook computer 1
Performs a mask process on the input image captured by the CCD camera 8 with a mask image 116, and outputs a command recognition area 111
When the user recognizes that the user's hand is held over any one of the command recognition areas 114 to 114, a command previously assigned to the instruction recognition area is supplied to the application program. A desired scrolling operation can be executed in a non-contact manner by merely holding the user's hand over one of the instruction recognition areas 111 to 114 without performing an operation.
【0086】またノートパソコン1のCPU50は、予
め命令認識エリア111〜114に所定のコマンドを予
め対応付けておくことにより、ユーザの手がどのように
動かされたのかを認識する必要なく、命令認識エリア1
11〜114に手がかざされたことを認識しただけで対
応するコマンドをアプリケーションプログラムに供給す
ることができるので、ユーザの手のジェスチャーを認識
する場合に比べて誤認識がなく、正確かつ即応性の高い
スクロール動作を実行することができる。The CPU 50 of the notebook personal computer 1 associates predetermined commands with the command recognition areas 111 to 114 in advance, so that it is not necessary to recognize how the user's hand has been moved. Area 1
Since the corresponding command can be supplied to the application program only by recognizing that the hand has been held over 11 to 114, there is no erroneous recognition as compared with the case of recognizing the gesture of the user's hand, and it is accurate and responsive. High scroll operation can be executed.
【0087】以上の構成によれば、ノートパソコン1は
命令認識画面100の画像表示領域110の中に設けら
れた命令認識エリア111〜114のいずれかにおいて
ユーザの手の動きを認識した場合に、当該認識した命令
認識エリアに予め対応付けられたコマンドを直ちにアプ
リケーションプログラムに供給するようにしたことによ
り、瞬時にユーザの命令を認識して当該命令に応じたス
クロール動作を正確かつ確実に実行することができる。According to the above configuration, when the notebook computer 1 recognizes the movement of the user's hand in any of the command recognition areas 111 to 114 provided in the image display area 110 of the command recognition screen 100, By immediately supplying the command previously associated with the recognized command recognition area to the application program, it is possible to instantly recognize the user's command and accurately and reliably execute a scroll operation according to the command. Can be.
【0088】(5)他の実施の形態 なお上述の実施の形態においては、マスク画像116を
用いてマスク処理することにより、命令認識画面100
の画像表示領域110の上下左右に命令認識エリア11
1〜114を設けるようにした場合について述べたが、
本発明はこれに限らず、図11(A)に示すような遮蔽
領域171A及び非遮蔽領域171B〜171Fのマス
クパターンでなるマスク画像171や、図11(B)に
示すような遮蔽領域172A及びユーザの周囲を囲むよ
うな非遮蔽領域172B〜171Hのマスクパターンで
なるマスク画像172を用いてマスク処理することによ
り、種々のパターンでなる命令認識エリアを設けるよう
にしても良い。(5) Other Embodiments In the above-described embodiment, mask processing is performed using the mask image 116 so that the instruction recognition screen 100
Command recognition areas 11 at the top, bottom, left and right of the image display area 110
Although the case where 1 to 114 are provided has been described,
The present invention is not limited to this, and a mask image 171 having a mask pattern of a shielded area 171A and non-shielded areas 171B to 171F as shown in FIG. 11A, and a shielded area 172A and a masked area 172A as shown in FIG. By performing mask processing using a mask image 172 formed of a mask pattern of the non-shielded areas 172B to 171H surrounding the user, command recognition areas formed of various patterns may be provided.
【0089】この図11(B)に示したようなスク画像
172を用いてマスク処理した場合、実施の形態の図1
0に示したように、ユーザの胴体部が常に命令認識エリ
ア112に入ってしまうような事態を予め避けることが
でき、胴体部における動きを認識する可能性が全く無い
ので誤認識がなく一段と正確にユーザの命令を認識する
ことができる。When mask processing is performed using the disk image 172 as shown in FIG. 11B, FIG.
As shown in FIG. 0, it is possible to avoid a situation in which the user's torso always enters the command recognition area 112, and there is no possibility of recognizing the movement in the torso, so that there is no erroneous recognition and more accurate Can recognize the user's command.
【0090】また上述の実施の形態においては、所定領
域としての命令認識エリア111〜114に対して上下
左右方向に関するスクロール動作に対応したコマンドを
割り当てるようにした場合について述べたが、本発明は
これに限らず、他の種々の動作に対応したコマンドを割
り当てるようにしても良い。In the above-described embodiment, a case has been described in which commands corresponding to scroll operations in up, down, left, and right directions are assigned to the command recognition areas 111 to 114 as predetermined areas. The present invention is not limited to this, and commands corresponding to other various operations may be assigned.
【0091】さらに上述の実施の形態においては、認識
手段としてのCPU50によって命令認識エリア111
〜114における画像データの輝度レベルの変化に基づ
いてユーザの手がかざされたことを認識するようにした
場合について述べたが、本発明はこれに限らず、ブロッ
クマッチング等の他の種々の手法によってユーザの手が
かざされたことを認識するようにしても良い。Further, in the above embodiment, the command recognition area 111 is recognized by the CPU 50 as recognition means.
Although the case where the user's hand is held over based on the change in the brightness level of the image data in .about.114 has been described, the present invention is not limited to this, and various other methods such as block matching are used. May recognize that the user's hand is held.
【0092】さらに上述の実施の形態においては、マス
ク画像116を用いて入力画像をマスク処理することに
より、手の動きを認識するためだけに必要な画像データ
を命令認識エリア111〜114だけから取得するよう
にした場合について述べたが、本発明はこれに限らず、
領域特定手段としてのCPU50によりマスク画像11
6を用いることなく入力画像の中から命令認識エリア1
11〜114に該当する領域の画像データだけを特定
(指定)して取得するようにしても良い。Further, in the above-described embodiment, by masking the input image using the mask image 116, image data necessary only for recognizing hand movement is obtained from only the command recognition areas 111 to 114. However, the present invention is not limited to this.
Mask image 11 by CPU 50 as an area specifying means
Command recognition area 1 from the input image without using
Only the image data of the area corresponding to 11 to 114 may be specified (designated) and acquired.
【0093】さらに上述の実施の形態においては、実行
手段としてのCPU50がHDD67のハードディスク
やROMに予め格納されたサイバージェスチャープログ
ラムに基づいてユーザの手を認識してスクロール動作を
実行するようにした場合について述べたが、本発明はこ
れに限らず、サイバージェスチャープログラムが格納さ
れたプログラム格納媒体をノートパソコン1にインスト
ールすることにより、上述のユーザの手を認識してスク
ロール動作を実行するようにしても良い。Further, in the above-described embodiment, the case where the CPU 50 as the execution means recognizes the user's hand based on the cyber gesture program stored in advance in the hard disk or ROM of the HDD 67 and executes the scroll operation is described. However, the present invention is not limited to this. By installing a program storage medium in which a cyber gesture program is stored in the notebook computer 1, it is possible to recognize the above-mentioned user's hand and execute the scroll operation. Is also good.
【0094】このように上述した一連の処理を実行する
サイバージェスチャープログラムをノートパソコン1に
インストールし、当該ノートパソコン1において実行可
能な状態にするために用いられるプログラム格納媒体と
しては、例えばフロッピーディスク、CD−ROM(Co
mpact Disc-Read Only Memory)、DVD(Digital Vers
atile Disc)等のパッケージメディアのみならず、サイ
バージェスチャープログラムが一時的もしくは永続的に
格納される半導体メモリや磁気ディスク等で実現しても
良い。また、これらプログラム格納媒体にサイバージェ
スチャープログラムを格納する手段としては、ローカル
エリアネットワークやインターネット、ディジタル衛生
放送等の有線及び無線通信媒体を利用しても良く、ルー
タやモデム等の各種通信インターフェースを介して格納
するようにしても良い。As described above, a program storage medium used to install the cyber gesture program for executing the above-described series of processes in the notebook personal computer 1 and make it executable in the notebook personal computer 1 includes, for example, a floppy disk, CD-ROM (Co
mpact Disc-Read Only Memory), DVD (Digital Vers
The present invention may be realized not only by package media such as an atile disc, but also by a semiconductor memory or a magnetic disk in which a cyber gesture program is temporarily or permanently stored. As a means for storing the cyber gesture program in these program storage media, a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting may be used, and various communication interfaces such as a router and a modem may be used. It may be stored.
【0095】さらに上述の実施の形態においては、撮像
手段として表示部3と一体形成された撮像部11におけ
るCCDカメラ8で撮像した入力画像を取り込むように
した場合について述べたが、本発明はこれに限らず、ノ
ートパソコン1とは別個のの他の種々の撮像手段によっ
て撮像した入力画像をIEEE1394端子28等を介
して取り込むようにしても良い。Further, in the above-described embodiment, the case where the input image picked up by the CCD camera 8 in the image pickup unit 11 integrally formed with the display unit 3 is taken as the image pickup means has been described. However, the present invention is not limited to this, and an input image captured by various other image capturing means separate from the notebook computer 1 may be captured via the IEEE 1394 terminal 28 or the like.
【0096】さらに上述の実施の形態においては、本発
明の情報処理装置としてノートパソコン1に適用するよ
うにした場合について述べたが、デスクトップ型のパー
ソナルコンピュータやPDA(Personal Digital Assis
tant)等の他の種々の情報処理装置に適用するようにし
ても良い。Further, in the above-described embodiment, the case where the information processing apparatus of the present invention is applied to the notebook personal computer 1 has been described. However, a desktop personal computer or a PDA (Personal Digital Assis
tant) may be applied to various other information processing devices.
【0097】[0097]
【発明の効果】上述のように本発明によれば、撮像手段
によって認識対象を撮像することにより得られた画像中
の所定領域を特定し、当該所定領域における画像データ
の変化を認識したとき、所定領域に対して予め対応付け
られている命令に応じた所定の処理を実行するようにし
たことにより、処理を希望する所定領域における画像デ
ータの変化がいかなる種類の変化であるかに係わらず、
変化を認識しただけで直ちに所定領域に対応付けられて
いる命令に応じた処理を実行することができるので、誤
認識が無く即応性の高い入力インターフェースを提供す
ることができ、かくしてユーザに対して操作が容易で使
い勝手の優れた入力インターフェースを提供し得る情報
処理装置、命令認識処理方法及びプログラム格納媒体を
実現することができる。As described above, according to the present invention, when a predetermined area in an image obtained by imaging an object to be recognized by an imaging means is specified, and a change in image data in the predetermined area is recognized, By performing a predetermined process according to a command previously associated with the predetermined region, regardless of what kind of change in the image data in the predetermined region desired to be processed,
Just by recognizing the change, it is possible to immediately execute a process corresponding to the command associated with the predetermined area, so that a highly responsive input interface without erroneous recognition can be provided. An information processing apparatus, a command recognition processing method, and a program storage medium that can provide an input interface that is easy to operate and easy to use can be realized.
【図1】本発明の第1の実施の形態におけるノートブッ
ク型パーソナルコンピュータの全体構成を示す略線的斜
視図である。FIG. 1 is a schematic perspective view showing an overall configuration of a notebook personal computer according to a first embodiment of the present invention.
【図2】本体の左側面の構成を示す略線図である。FIG. 2 is a schematic diagram illustrating a configuration of a left side surface of a main body.
【図3】本体の後側面及び底面の構成を示す略線図であ
る。FIG. 3 is a schematic diagram illustrating a configuration of a rear side surface and a bottom surface of a main body.
【図4】ノートブック型パーソナルコンピュータの回路
構成を示すブロック図である。FIG. 4 is a block diagram illustrating a circuit configuration of a notebook personal computer.
【図5】ウィンドウ画面上に重ねて表示された命令認識
画面を示す略線図である。FIG. 5 is a schematic diagram illustrating an instruction recognition screen displayed over the window screen.
【図6】命令認識エリア内での動き検出によるウィンド
ウ制御処理手順を示すフローチャートである。FIG. 6 is a flowchart illustrating a window control processing procedure based on motion detection in the instruction recognition area.
【図7】命令認識画面の構成を示す略線図である。FIG. 7 is a schematic diagram illustrating a configuration of a command recognition screen.
【図8】マスク画像を示す略線図である。FIG. 8 is a schematic diagram illustrating a mask image.
【図9】手の位置情報に関する取得処理手順を示すフロ
ーチャートである。FIG. 9 is a flowchart illustrating an acquisition processing procedure regarding hand position information.
【図10】命令認識領域に手がかざされたときの状態を
示す略線図である。FIG. 10 is a schematic diagram illustrating a state when a hand is held over an instruction recognition area.
【図11】他の実施の形態におけるマスク画像の種類を
示す略線図である。FIG. 11 is a schematic diagram illustrating types of mask images according to another embodiment.
1……ノートブック型パーソナルコンピュータ、2……
本体、3……表示部、4……操作キー、8……CCDカ
メラ、10……液晶ディスプレイ、11……撮像部、5
0……CPU、53……RAM、100……命令認識画
面、110……画像表示領域、111〜114……命令
認識エリア、116、171、172……マスク画像。1 ... Notebook type personal computer, 2 ...
Main unit, 3 display unit, 4 operation keys, 8 CCD camera, 10 liquid crystal display, 11 imaging unit, 5
0: CPU, 53: RAM, 100: Command recognition screen, 110: Image display area, 111 to 114: Command recognition area, 116, 171, 172: Mask image.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/20 G06T 7/20 A (72)発明者 井原 圭吾 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 末吉 隆彦 東京都品川区北品川6丁目7番35号ソニー 株式会社内 Fターム(参考) 5B057 CA08 CA12 CA16 CB08 CB12 CB16 CC01 CE09 DC22 5B087 AA09 CC33 DD03 DE02 5E501 AA03 AC15 BA05 CB14 EA14 EB01 FA14 FA45 FB21 FB32 FB43 5L096 AA09 BA18 CA02 CA14 DA05 EA35 HA02 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 7/20 G06T 7/20 A (72) Inventor Keigo Ihara 6-7-35 Kita Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Takahiko Sueyoshi 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo F-term (reference) 5B057 CA08 CA12 CA16 CB08 CB12 CB16 CC01 CE09 DC22 5B087 AA09 CC33 DD03 DE02 5E501 AA03 AC15 BA05 CB14 EA14 EB01 FA14 FA45 FB21 FB32 FB43 5L096 AA09 BA18 CA02 CA14 DA05 EA35 HA02
Claims (12)
により得られた画像中の所定領域を特定する領域特定手
段と、 上記所定領域における画像データの変化を認識する認識
手段と、 上記認識手段によって上記画像データの変化を認識した
とき、上記所定領域に対して予め対応付けられている命
令に応じた所定の処理を実行する実行手段とを具えるこ
とを特徴とする情報処理装置。1. An area specifying means for specifying a predetermined area in an image obtained by imaging an object to be recognized by an imaging means; a recognition means for recognizing a change in image data in the predetermined area; An information processing apparatus comprising: an execution unit configured to execute a predetermined process according to a command associated with the predetermined area in advance when recognizing a change in the image data.
残すように当該所定領域に対応した遮蔽パターンでなる
マスク画像を上記画像に重ねて合成することを特徴とす
る請求項1に記載の情報処理装置。2. The apparatus according to claim 1, wherein said area specifying means superimposes a mask image formed of a shielding pattern corresponding to the predetermined area on the image so as to leave only the predetermined area. Information processing device.
て撮像された上記認識対象と上記所定領域とが重ならな
いような上記遮蔽パターンでなる上記マスク画像を上記
画像に重ねて合成することを特徴とする請求項2に記載
の情報処理装置。3. The image processing apparatus according to claim 2, wherein the area specifying means superimposes the mask image formed of the shielding pattern such that the recognition target imaged by the image pickup means and the predetermined area do not overlap with each other. The information processing apparatus according to claim 2, wherein
して当該画像データの現フレーム及び前フレーム間にお
ける輝度レベル差を認識することを特徴とする請求項1
に記載の情報処理装置。4. The apparatus according to claim 1, wherein said recognizing means recognizes a luminance level difference between a current frame and a previous frame of the image data as a change in the image data.
An information processing apparatus according to claim 1.
により得られた画像中の所定領域を特定する領域特定ス
テップと、 上記所定領域における画像データの変化を認識する認識
ステップと、 上記認識ステップで上記画像データの変化を認識したと
き、上記所定領域に対して予め対応付けられている命令
に応じた所定の処理を実行する実行ステップとを具える
ことを特徴とする命令認識処理方法。5. An area specifying step for specifying a predetermined area in an image obtained by imaging an object to be recognized by an imaging unit; a recognition step of recognizing a change in image data in the predetermined area; An execution step of executing a predetermined process according to a command previously associated with the predetermined area when the change in the image data is recognized.
だけを残すように当該所定領域に対応した遮蔽パターン
でなるマスク画像を上記画像に重ねて合成することを特
徴とする請求項5に記載の命令認識処理方法。6. The area specifying step according to claim 5, wherein a mask image composed of a shielding pattern corresponding to the predetermined area is superimposed on the image so as to leave only the predetermined area. Instruction recognition processing method.
ップで撮像された上記認識対象と上記所定領域とが重な
らないような上記遮蔽パターンでなる上記マスク画像を
上記画像に重ねて合成することを特徴とする請求項6に
記載の命令認識処理方法。7. In the area specifying step, the mask image formed of the shielding pattern such that the recognition target imaged in the image capturing step does not overlap the predetermined area is superimposed on the image and synthesized. The instruction recognition processing method according to claim 6, wherein
変化として当該画像データの現フレーム及び前フレーム
間における輝度レベル差を認識することを特徴とする請
求項5に記載の命令認識処理方法。8. The method according to claim 5, wherein in the recognizing step, a luminance level difference between a current frame and a previous frame of the image data is recognized as a change in the image data.
により得られた画像中の所定領域を特定する領域特定ス
テップと、 上記所定領域における画像データの変化を認識する認識
ステップと、 上記認識ステップで上記画像データの変化を認識したと
き、上記所定領域に対して予め対応付けられている命令
に応じた所定の処理を実行する実行ステップとを具える
ことを特徴とするプログラムを情報処理装置に実行させ
るプログラム格納媒体。9. An area specifying step of specifying a predetermined area in an image obtained by imaging a recognition target by an imaging unit; a recognition step of recognizing a change in image data in the predetermined area; Executing a predetermined process according to a command associated with the predetermined area in advance when the change in the image data is recognized. A program storage medium to be executed.
域だけを残すように当該所定領域に対応した遮蔽パター
ンでなるマスク画像を上記画像に重ねて合成することを
特徴とする請求項9に記載のプログラム格納媒体。10. The method according to claim 9, wherein in the area specifying step, a mask image formed of a shielding pattern corresponding to the predetermined area is superimposed on the image so as to leave only the predetermined area. Program storage medium.
テップで撮像された上記認識対象と上記所定領域とが重
ならないような上記遮蔽パターンでなる上記マスク画像
を上記画像に重ねて合成することを特徴とする請求項1
0に記載のプログラム格納媒体。11. The method according to claim 11, wherein in the area specifying step, the mask image formed of the shielding pattern such that the recognition target imaged in the imaging step does not overlap the predetermined area is superimposed on the image. Claim 1
0. The program storage medium according to 0.
の変化として当該画像データの現フレーム及び前フレー
ム間における輝度レベル差を認識することを特徴とする
請求項9に記載のプログラム格納媒体。12. The program storage medium according to claim 9, wherein, in the recognizing step, a luminance level difference between a current frame and a previous frame of the image data is recognized as a change in the image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000310938A JP2002116859A (en) | 2000-10-11 | 2000-10-11 | Information processor, instruction recognition processing method and program storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000310938A JP2002116859A (en) | 2000-10-11 | 2000-10-11 | Information processor, instruction recognition processing method and program storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002116859A true JP2002116859A (en) | 2002-04-19 |
Family
ID=18790796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000310938A Pending JP2002116859A (en) | 2000-10-11 | 2000-10-11 | Information processor, instruction recognition processing method and program storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002116859A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006100907A (en) * | 2004-09-28 | 2006-04-13 | Clarion Co Ltd | Method and apparatus of notifying selected image |
JP2010534895A (en) * | 2007-07-27 | 2010-11-11 | ジェスチャー テック,インコーポレイテッド | Advanced camera-based input |
JP2012058884A (en) * | 2010-09-07 | 2012-03-22 | Sony Corp | Information processor and information processing method |
JP2012123617A (en) * | 2010-12-08 | 2012-06-28 | Omron Corp | Gesture recognition apparatus, gesture recognition method, control program, and recording medium |
JP2012164115A (en) * | 2011-02-07 | 2012-08-30 | Fujitsu Ltd | Operation control device, operation control program and operation control method |
JP2013088075A (en) * | 2011-10-20 | 2013-05-13 | Panasonic Corp | Gesture decoder |
JP2013529802A (en) * | 2010-06-10 | 2013-07-22 | マイクロソフト コーポレーション | Content gesture |
JP2013178783A (en) * | 2013-03-07 | 2013-09-09 | Fujitsu Ten Ltd | Display device |
JP2014096804A (en) * | 2013-12-02 | 2014-05-22 | Hitachi Consumer Electronics Co Ltd | Operation control device and operation display method |
JP2014165917A (en) * | 2013-02-27 | 2014-09-08 | Samsung Electronics Co Ltd | Display device |
CN104145233A (en) * | 2012-02-23 | 2014-11-12 | 英特尔公司 | Method and apparatus for controlling screen by tracking head of user through camera module, and computer-readable recording medium therefor |
JP2023114587A (en) * | 2022-02-07 | 2023-08-18 | 三菱電機Itソリューションズ株式会社 | Process execution device, process execution method and process execution program |
-
2000
- 2000-10-11 JP JP2000310938A patent/JP2002116859A/en active Pending
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006100907A (en) * | 2004-09-28 | 2006-04-13 | Clarion Co Ltd | Method and apparatus of notifying selected image |
JP4578193B2 (en) * | 2004-09-28 | 2010-11-10 | クラリオン株式会社 | Selection image notification method and selection image notification device |
JP2016194948A (en) * | 2007-07-27 | 2016-11-17 | クアルコム,インコーポレイテッド | Enhanced camera-based input |
JP2010534895A (en) * | 2007-07-27 | 2010-11-11 | ジェスチャー テック,インコーポレイテッド | Advanced camera-based input |
JP2014149856A (en) * | 2007-07-27 | 2014-08-21 | Qualcomm Inc | Enhanced camera-based input |
US11500514B2 (en) | 2007-07-27 | 2022-11-15 | Qualcomm Incorporated | Item selection using enhanced control |
US10509536B2 (en) | 2007-07-27 | 2019-12-17 | Qualcomm Incorporated | Item selection using enhanced control |
US10268339B2 (en) | 2007-07-27 | 2019-04-23 | Qualcomm Incorporated | Enhanced camera-based input |
US11960706B2 (en) | 2007-07-27 | 2024-04-16 | Qualcomm Incorporated | Item selection using enhanced control |
US8659548B2 (en) | 2007-07-27 | 2014-02-25 | Qualcomm Incorporated | Enhanced camera-based input |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
JP2013529802A (en) * | 2010-06-10 | 2013-07-22 | マイクロソフト コーポレーション | Content gesture |
US8842890B2 (en) | 2010-09-07 | 2014-09-23 | Sony Corporation | Method and device for detecting a gesture from a user and for performing desired processing in accordance with the detected gesture |
JP2012058884A (en) * | 2010-09-07 | 2012-03-22 | Sony Corp | Information processor and information processing method |
JP2012123617A (en) * | 2010-12-08 | 2012-06-28 | Omron Corp | Gesture recognition apparatus, gesture recognition method, control program, and recording medium |
JP2012164115A (en) * | 2011-02-07 | 2012-08-30 | Fujitsu Ltd | Operation control device, operation control program and operation control method |
JP2013088075A (en) * | 2011-10-20 | 2013-05-13 | Panasonic Corp | Gesture decoder |
CN104145233A (en) * | 2012-02-23 | 2014-11-12 | 英特尔公司 | Method and apparatus for controlling screen by tracking head of user through camera module, and computer-readable recording medium therefor |
JP2015508211A (en) * | 2012-02-23 | 2015-03-16 | インテル コーポレイション | Method and apparatus for controlling a screen by tracking a user's head through a camera module and computer-readable recording medium thereof |
US9465437B2 (en) | 2012-02-23 | 2016-10-11 | Intel Corporation | Method and apparatus for controlling screen by tracking head of user through camera module, and computer-readable recording medium therefor |
JP2014165917A (en) * | 2013-02-27 | 2014-09-08 | Samsung Electronics Co Ltd | Display device |
JP2013178783A (en) * | 2013-03-07 | 2013-09-09 | Fujitsu Ten Ltd | Display device |
JP2014096804A (en) * | 2013-12-02 | 2014-05-22 | Hitachi Consumer Electronics Co Ltd | Operation control device and operation display method |
JP2023114587A (en) * | 2022-02-07 | 2023-08-18 | 三菱電機Itソリューションズ株式会社 | Process execution device, process execution method and process execution program |
JP7336553B2 (en) | 2022-02-07 | 2023-08-31 | 三菱電機Itソリューションズ株式会社 | Process execution device, process execution method and process execution program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7046232B2 (en) | Information processing apparatus, method of displaying movement recognizable standby state, method of showing recognizable movement, method of displaying movement recognizing process, and program storage medium | |
CN112954210B (en) | Photographing method and device, electronic equipment and medium | |
US8190993B2 (en) | Menu selection using a rotating dial and button | |
US6795097B1 (en) | Information processing apparatus, information processing method, and program storage medium for controlling and displaying a menu | |
US20120154307A1 (en) | Image display control apparatus and image display control method | |
US20230013753A1 (en) | Image shooting method and electronic device | |
JP2000082107A (en) | Image processing device, method therefor and medium | |
EP3709570B1 (en) | Conference information management system, information processing apparatus, control method and carrier means | |
JP2002116859A (en) | Information processor, instruction recognition processing method and program storage medium | |
JP4565291B2 (en) | Information processing apparatus, information processing method, and program storage medium | |
JP2004356819A (en) | Remote control apparatus | |
WO2023083089A1 (en) | Photographing control display method and apparatus, and electronic device and medium | |
JP2001177764A (en) | Image processing unit, image processing method and storage medium | |
CN106911839A (en) | Electronic equipment and its control method | |
JP2002083302A (en) | Information processing device, action recognition processing method, and program storage medium | |
JP2001111881A (en) | Image pickup device and its remote control method | |
JP4415227B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP4385266B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP2001092552A (en) | Device and method for processing information, and program storage medium | |
JP2001092444A (en) | Device and method for information processing and program storing medium | |
JP2001307108A (en) | Information processor, method for displaying operation recognizing waiting state and program storage medium | |
JP2001306049A (en) | Information processor, movement recognition process displaying method and program storage medium | |
JP2001306236A (en) | Information processor, operation recognition processing method and program storage medium | |
JP2001092584A (en) | Input device, information processor, method of processing information, and program storage medium | |
JP2002229735A (en) | Information processing unit |