JPH07271482A - Computer system - Google Patents

Computer system

Info

Publication number
JPH07271482A
JPH07271482A JP6255094A JP6255094A JPH07271482A JP H07271482 A JPH07271482 A JP H07271482A JP 6255094 A JP6255094 A JP 6255094A JP 6255094 A JP6255094 A JP 6255094A JP H07271482 A JPH07271482 A JP H07271482A
Authority
JP
Japan
Prior art keywords
computer system
image
face
unit
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6255094A
Other languages
Japanese (ja)
Inventor
Takaiwa Nakaya
崇厳 中家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP6255094A priority Critical patent/JPH07271482A/en
Publication of JPH07271482A publication Critical patent/JPH07271482A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Power Sources (AREA)

Abstract

PURPOSE:To heighten an added value by easily attaining the prevention of burning of a CRT, etc., and power saving control by obtaining scrupulous human-machine interface by effectively using an image fetched from a camera in a computer system combined with the camera. CONSTITUTION:Video information from a camera means 1 connected to a computer means 2 is inputted to an image processing means 3. The image processing means 3 recognizes the ambient status(whether a person approaches or separates from a system, or the person faces toward the front of the system, etc.) of the computer system based on inputted video information. A recognized result is outputted to a system control means 4. The system control means 4 performs control for the connection/disconnection of the power source of a power source part 2i and a display part 2f in the computer means 2, etc.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、パーソナルコンピュー
タやワークステーションなどのコンピュータシステムで
あって、特に操作者を撮像するカメラと組み合わされた
コンピュータシステムに関するものである。本発明のコ
ンピュータシステムは、HAシステムなどの家庭情報端
末や携帯情報端末などにも適用可能である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer system such as a personal computer or a workstation, and more particularly to a computer system combined with a camera for photographing an operator. The computer system of the present invention is also applicable to home information terminals such as HA systems and portable information terminals.

【0002】[0002]

【従来の技術】従来のカメラと組み合わせたコンピュー
タシステムにおいては、カメラからの画像を取り込ん
で、テレビ会議とかテレビ電話、あるいは文字や図形の
読み取りなどに主に利用されていた。
2. Description of the Related Art In a conventional computer system combined with a camera, an image from the camera is captured and mainly used for a video conference, a video telephone, or reading characters and figures.

【0003】また、最近では、CRTの焼き付け防止の
ために、AfterDerkにみられるようにキーボー
ドやマウスなどの入力デバイスからの信号の入力が一定
時間以上ない状態が続くと画面に幾何学模様を表示させ
てそれを動かすようにしたものが知られている。
Recently, in order to prevent CRT burn-in, a geometric pattern is displayed on the screen when there is no signal input from an input device such as a keyboard or a mouse for a certain time as seen in AfterDerk. It is known to let it move.

【0004】[0004]

【発明が解決しようとする課題】従来のカメラと組み合
わせたコンピュータシステムにおいては、上記したよう
に、カメラからの入力画像は、テレビ会議やテレビ電話
での画像として利用されたり、文字や図形の読み取りに
利用されるのが主な用途であった。
In the computer system combined with the conventional camera, as described above, the input image from the camera is used as an image in a video conference or a videophone, and characters or figures are read. Was mainly used for.

【0005】また、コンピュータシステムの環境制御に
おいても、タイマーによるON/OFF制御がなされて
いるだけであった。
Also, in the environmental control of the computer system, the ON / OFF control by the timer is only performed.

【0006】このように従来システムは、環境制御とか
セキュリティにおいて充分に操作者が満足できるもので
はなかった。
As described above, the conventional system has not been satisfactory to the operator in environmental control and security.

【0007】本発明は、このような事情に鑑みて創案さ
れたものであって、カメラと組み合わせたコンピュータ
システムにおいて、そのカメラから取り込んだ画像を有
効に活用することにより、付加価値を高めることを目的
としている。
The present invention was devised in view of the above circumstances, and it is intended to enhance added value by effectively utilizing an image captured from a camera in a computer system combined with the camera. Has an aim.

【0008】[0008]

【課題を解決するための手段】[Means for Solving the Problems]

(1) 本発明に係る請求項1のコンピュータシステム
は、CPU,電源部,表示部などから構成されたコンピ
ュータ手段と、被写体を撮像するカメラ手段と、前記カ
メラ手段から入力される被写体画像を処理してコンピュ
ータシステムの周辺の状況を認識する画像処理手段と、
前記画像処理手段の認識結果に応じてコンピュータシス
テムの電源の投入・遮断を行うシステム制御手段とを備
えていることを特徴とするものである。
(1) A computer system according to a first aspect of the present invention is a computer means including a CPU, a power supply section, a display section, etc., a camera means for capturing a subject, and a subject image input from the camera means. Image processing means for recognizing the surroundings of the computer system,
System control means for turning on / off the power of the computer system according to the recognition result of the image processing means.

【0009】(2) 本発明に係る請求項2のコンピュ
ータシステムは、上記請求項1のコンピュータシステム
において、画像処理手段で人物の顔面を認識し、コンピ
ュータシステムの前面から人物が離れたと判定したとき
はシステム制御手段は電源遮断またはスリープ状態と
し、コンピュータシステムの前面に近づき席に着いたと
判定したときはシステム制御手段はシステムの立ち上げ
を自動的に行うことを特徴とするものである。
(2) A computer system according to a second aspect of the present invention is the computer system according to the first aspect, wherein the image processing means recognizes the face of the person and determines that the person has left the front surface of the computer system. The system control means shuts off the power supply or sleeps, and the system control means automatically starts up the system when it is determined that the user has approached the front of the computer system and is seated.

【0010】(3) 本発明に係る請求項3のコンピュ
ータシステムは、上記請求項1または請求項2のコンピ
ュータシステムにおいて、システム制御手段はタイマー
を有し、そのタイマーで人物が離れてから電源遮断する
までの時間を設定可能に構成してあることを特徴とする
ものである。
(3) A computer system according to a third aspect of the present invention is the computer system according to the first or second aspect, wherein the system control means has a timer, and the power is shut off after a person leaves the timer. It is characterized in that the time until it is set can be set.

【0011】[0011]

【作用】[Action]

(1) 請求項1のコンピュータシステムにおいては、
カメラ手段から得られた被写体画像に基づいてコンピュ
ータシステムの周辺状況を認識し、その認識結果すなわ
ち操作者が席に着いたのか離れていったのかに応じて電
源の投入・遮断を行うので、きめの細かいヒューマン・
マシン・インターフェイスを得ることができ、簡単にC
RTなどの焼き付け防止と節電制御が可能となる。
(1) In the computer system according to claim 1,
The peripheral condition of the computer system is recognized based on the subject image obtained from the camera means, and the power is turned on / off according to the recognition result, that is, whether the operator is sitting or away from the seat. A detailed human
You can get a machine interface and easily C
It is possible to prevent burning such as RT and control power saving.

【0012】(2) 請求項2のコンピュータシステム
においては、操作者の顔面を認識することで操作者が実
際にコンピュータシステムに向かって作業をしているの
かどうかを判定する。操作者がコンピュータシステムか
ら完全に離れた場合はもちろん、システムから離れては
いないがシステムに顔面を向けていないときも作業をし
ていないものと判定し、電源遮断またはスリープ状態と
する。操作者がコンピュータシステムに近づき顔面をシ
ステムに向けているときは作業をしているものと判定
し、自動的にシステムを立ち上げる。したがって、キー
ボードやマウスなどの入力デバイスからの入力が一定時
間にわたってない状態であっても、操作者の顔面を検知
している限りは、不測に電源遮断やスリープ状態になる
ことはなく、操作者にとって柔軟性のある環境を提供す
る。
(2) In the computer system according to the second aspect, it is determined whether or not the operator is actually working toward the computer system by recognizing the face of the operator. When the operator is completely away from the computer system, or when the operator is not away from the system but is not facing the system, it is determined that the operator is not working, and the power is shut down or the sleep state is set. When the operator approaches the computer system and faces the system, it is determined that the operator is working and the system is automatically started. Therefore, even if there is no input from an input device such as a keyboard or mouse for a certain period of time, as long as the operator's face is detected, there is no unexpected power cutoff or sleep state. To provide a flexible environment for

【0013】(3) 請求項3のコンピュータシステム
においては、操作者はコンピュータシステムを離れてか
ら実際に電源遮断されるまでの時間を状況に応じて設定
することにより、例えば、システムを離れた状態でアプ
リケーションを走らせておくことが可能となる。
(3) In the computer system according to the third aspect, the operator sets the time from when the operator leaves the computer system until when the power is actually cut off, for example, when the operator leaves the system. You can keep the application running with.

【0014】[0014]

【実施例】以下、本発明に係るコンピュータシステムの
実施例を図面に基づいて詳細に説明する。以下に説明す
る各実施例は、カメラ内蔵型であるが、カメラ一体型V
TRを外付けしてもよい。
Embodiments of a computer system according to the present invention will be described below in detail with reference to the drawings. Each of the embodiments described below has a built-in camera,
The TR may be attached externally.

【0015】〔第1実施例〕この第1実施例は請求項1
に係るコンピュータシステムの実施例であり、図1はそ
の実施例の電気的構成を示すブロック図である。
[First Embodiment] The first embodiment is claim 1
FIG. 1 is a block diagram showing an electrical configuration of the computer system according to the embodiment.

【0016】カメラ手段1において、撮像素子1bはレ
ンズ1aがとらえた光像を電気信号に変換する。前処理
部1eは撮像素子1bからの出力信号をサンプルホール
ドし、自動利得補正をし、アナログ−デジタル変換をし
て、画素単位でデジタルデータに変換する。デジタルビ
デオ信号処理部1fは前処理部1eから出力されたデジ
タルデータをもとに輝度信号、色差信号を生成し、ホワ
イトバランス処理,ガンマ補正処理などを行い、輝度信
号と色差信号をデジタル信号として出力する。
In the camera means 1, the image pickup device 1b converts an optical image captured by the lens 1a into an electric signal. The pre-processing unit 1e samples and holds the output signal from the image sensor 1b, performs automatic gain correction, performs analog-digital conversion, and converts digital data in pixel units. The digital video signal processing unit 1f generates a luminance signal and a color difference signal based on the digital data output from the preprocessing unit 1e, performs white balance processing, gamma correction processing, etc., and converts the luminance signal and the color difference signal into digital signals. Output.

【0017】このときの色差信号は、R−Y/B−Yの
点順次色差信号として出力される。
The color difference signal at this time is output as an R-Y / B-Y dot-sequential color difference signal.

【0018】撮像素子駆動部1cは撮像素子1bを制御
するための駆動タイミングパルス、映像信号用同期パル
ス、映像信号処理用パルスなどを発生する。カメラマイ
コン1dは撮像素子駆動部1c、前処理部1e、デジタ
ルビデオ信号処理部1fなどを制御し、カメラ手段1の
動作を実現するものである。
The image pickup device driving section 1c generates a drive timing pulse for controlling the image pickup device 1b, a video signal synchronizing pulse, a video signal processing pulse and the like. The camera microcomputer 1d controls the image pickup device driving section 1c, the preprocessing section 1e, the digital video signal processing section 1f, etc., and realizes the operation of the camera means 1.

【0019】コンピュータ手段2はCPU2a、RAM
2b、ROM2c、ハードディスクなどの周辺回路部2
e、コンピュータに電源を供給する電源部2i、コンピ
ュータ外部とインターフェイスをとる入出力回路部2
h、グラフィック表示を制御する表示制御部2g、表示
制御部2gより出力されるグラフィック信号を表示する
表示部2fから構成されている。カメラ手段1からの映
像信号を表示制御部2gで受けて処理を行い、CPU2
aで生成されるグラフィック信号と合成して表示部2f
に表示することも可能である。
The computer means 2 comprises a CPU 2a and a RAM
2b, ROM 2c, peripheral circuit section 2 such as hard disk
e, a power supply unit 2i for supplying power to the computer, an input / output circuit unit 2 for interfacing with the outside of the computer
h, a display control unit 2g for controlling graphic display, and a display unit 2f for displaying a graphic signal output from the display control unit 2g. The display control unit 2g receives the video signal from the camera unit 1 and processes it.
The display unit 2f is synthesized with the graphic signal generated in a.
It is also possible to display in.

【0020】画像処理手段3はカメラ手段1から出力さ
れる輝度信号をもとにして人体の検知、顔面の認識、動
きの特徴抽出などの画像の処理を行う。この例では輝度
信号を使った処理であるが、色差信号を使った認識を行
えば、より精度の高いものとなる。
The image processing means 3 performs image processing such as human body detection, face recognition, and motion feature extraction based on the luminance signal output from the camera means 1. In this example, the processing is performed using the luminance signal, but if the recognition is performed using the color difference signal, the accuracy becomes higher.

【0021】システム制御手段4は画像処理手段3から
出力されるデータをもとにしてコンピュータ手段2の電
源部2i、表示部2fなどの制御を実現するものであ
る。
The system control means 4 realizes control of the power supply section 2i, the display section 2f, etc. of the computer means 2 based on the data output from the image processing means 3.

【0022】上記の構成により、画像の取り込み装置と
して使用されているカメラ手段1を画像処理手段3、シ
ステム制御手段4と組み合わせることにより、カメラ手
段1から得られた映像信号より画像処理手段3でコンピ
ュータシステム周辺の環境を認識・検知して、その認識
・検知結果よりコンピュータ手段2の動作状況を判定し
て、システム制御手段4に制御内容を出力する。この出
力された内容をもとにしてシステム制御手段4はコンピ
ュータ手段2の電源の投入・遮断を最適制御するもので
ある。操作者が席に着いたのか離れていったのかに応じ
て電源の投入・遮断を行うので、きめの細かいヒューマ
ン・マシン・インターフェイスを得ることができ、CR
Tなどの焼き付け防止と節電制御が簡単に実現できる。
With the above structure, the camera means 1 used as an image capturing device is combined with the image processing means 3 and the system control means 4 so that the image processing means 3 can use the video signal obtained from the camera means 1. The environment around the computer system is recognized and detected, the operating condition of the computer means 2 is determined from the recognition and detection result, and the control content is output to the system control means 4. Based on the output contents, the system control means 4 optimally controls the turning on / off of the power supply of the computer means 2. Since the power is turned on and off depending on whether the operator is seated or away from the seat, a fine-grained human-machine interface can be obtained.
It is possible to easily prevent burning of T etc. and control power saving.

【0023】〔第2実施例〕この第2実施例は請求項2
に係る実施例であり、図2は画像処理手段3のブロック
図である。
[Second Embodiment] This second embodiment is claimed in claim 2.
2 is a block diagram of the image processing means 3.

【0024】カメラ手段1から出力されたnフレーム目
の輝度データを2値化処理部3aで2値のデータに変換
する。この2値化されたnフレーム目の2値データを差
分検出部3bを通してフレームメモリ3fに格納する。
差分検出部3bでは、すでにフレームメモリ3fに格納
されているnフレーム目の2値データと次に入力される
(n+1)フレーム目の2値データとの比較を行い、フ
レーム間に動きがあるか否かを検出する。この動作を順
次実行する。この差分検出部3bは入力される画像に動
きがあるかどうかを判定するものである。動きがある場
合は人物(操作者)がいるものと判定し、動きがない場
合は人物がいないと判定する。動きがないと判定された
場合は、人物がいないという情報を人物認知部3dに出
力する。
The luminance data of the nth frame output from the camera means 1 is converted into binary data by the binarization processing unit 3a. The binarized n-th frame binary data is stored in the frame memory 3f through the difference detection unit 3b.
The difference detection unit 3b compares the binary data of the nth frame already stored in the frame memory 3f with the binary data of the (n + 1) th frame to be input next, and determines whether there is a motion between the frames. Detect whether or not. This operation is sequentially executed. The difference detecting unit 3b is for determining whether or not the input image has a motion. If there is movement, it is determined that there is a person (operator), and if there is no movement, it is determined that there is no person. When it is determined that there is no movement, the information that there is no person is output to the person recognition unit 3d.

【0025】そして、上記の差分検出動作を継続する。Then, the above difference detection operation is continued.

【0026】差分検出部3bは動きがあると判定した場
合は、フレームメモリ3fの画像データを顔面検出部3
c、胴体検出部3eに出力する。差分検出部3bから出
力された2値画像データは顔面検出部3cに入力され
る。この顔面検出部3cでは、図3に示すように、X軸
方向、Y軸方向に所定のタイミングで走査する。まず、
最初に差分が出現する画素のY座標を頭頂Ytとして認
識する。走査の進行に伴ってこの座標以降、静的な背景
像に対して動きのある顔面の画像に対応した画素が出現
するが、図3の左から走査する場合に、最も左のX座標
位置に出現した画素を頭左座標Xlと認識する。同様に
走査を続ける過程で最も右のX座標位置に出現した画素
を頭右座標Xrと認識する。
When the difference detecting unit 3b determines that there is a motion, the image data in the frame memory 3f is used as the face detecting unit 3b.
c, output to the body detection unit 3e. The binary image data output from the difference detection unit 3b is input to the face detection unit 3c. The face detecting section 3c scans in the X-axis direction and the Y-axis direction at a predetermined timing, as shown in FIG. First,
First, the Y coordinate of the pixel in which the difference appears is recognized as the crown Yt. As the scanning progresses, pixels corresponding to the image of the face moving with respect to the static background image appear after this coordinate. However, when scanning from the left in FIG. 3, the pixel is located at the leftmost X coordinate position. The appearing pixel is recognized as the head left coordinate Xl. Similarly, the pixel appearing at the rightmost X coordinate position in the process of continuing scanning is recognized as the right head coordinate Xr.

【0027】顔面の下部座標については、訪問者の胴体
画像が継続して出現するため、上記X軸の座標(Xl,
Yl)の距離データと統計的に求めた顔面の長さFlよ
り顔面下部の頭下のY座標Yuを算出する。すなわち、 Xc=(Xr−Xl)/2+Xl Yc=(Yu−Yt)/2+Yt Yu=Yt+Fl 上記の演算によって、顔面の最も突出している部分の4
点の座標が決定できる。上記4点の座標とは、頭頂Pt
(Xc,Yt)、頭左Pl(Xl,Yl)、頭右Pr
(Xr,Yr)、頭下Pu(Xc,Yu)である。この
4点で囲まれた領域を顔面領域として、この顔面領域座
標と画像信号をメモリに記憶する。この記憶された顔面
領域座標と画像信号をもとにして目、鼻、口の特徴を抽
出して顔面であることを認識する。なお、この画面抽出
に関しては、本件出願人の出願である特願平5−177
720号(テレビインターホン装置)、特願平5−15
3933号(画像処理装置)、特願平5−268608
号(イメージフォーマット変換装置)に記載してある。
これらの処理によって顔面が検出されたことをシステム
制御手段4に出力する。
Regarding the lower coordinates of the face, since the visitor's torso image appears continuously, the coordinates of the X axis (Xl,
The Y coordinate Yu under the head of the lower face is calculated from the distance data of Y1) and the face length Fl statistically obtained. That is, Xc = (Xr-Xl) / 2 + Xl Yc = (Yu-Yt) / 2 + Yt Yu = Yt + Fl By the above calculation, 4 of the most prominent part of the face is calculated.
The coordinates of the points can be determined. The coordinates of the above 4 points are the top Pt
(Xc, Yt), head left Pl (Xl, Yl), head right Pr
(Xr, Yr) and below-the-head Pu (Xc, Yu). The area surrounded by these four points is set as the face area, and the face area coordinates and the image signal are stored in the memory. Based on the stored face area coordinates and the image signal, the features of the eyes, nose, and mouth are extracted to recognize the face. Regarding this screen extraction, Japanese Patent Application No. 5-177 filed by the applicant of the present application
No. 720 (TV intercom device), Japanese Patent Application No. 5-15
No. 3933 (image processing apparatus), Japanese Patent Application No. 5-268608
No. (image format conversion device).
The fact that the face is detected by these processes is output to the system control means 4.

【0028】次に、胴体検出部3eは差分検出部3bか
ら出力されたデータと顔面検出部3cから出力される顔
面座標をもとにして胴体を検出する。これは、図4に示
すように、入力された画像データからX軸方向、Y軸方
向に投影処理をして人物の投影データを算出処理する。
この投影データと顔面検出部3cから出力された顔面座
標データより胴体部分を抽出する。つまり、顔面検出部
3cで検出されたY軸座標の頭頂座標Yt、頭下座標Y
uの範囲が投影Y軸の顔面であり、X軸座標の頭左座標
Xl、頭右座標Xrの範囲が投影X軸の顔面となる。そ
して、この投影X軸、Y軸上で顔面に続いて動きのある
面積を有する部分が胴体であると判定される。この判定
結果を人物認知部3dに出力する。
Next, the body detecting section 3e detects the body based on the data output from the difference detecting section 3b and the face coordinates output from the face detecting section 3c. As shown in FIG. 4, the projection processing is performed in the X-axis direction and the Y-axis direction from the input image data to calculate the projection data of the person.
The body portion is extracted from the projection data and the face coordinate data output from the face detecting unit 3c. That is, the parietal coordinates Yt and the subordinate coordinates Y of the Y-axis coordinates detected by the face detecting unit 3c.
The range of u is the projected Y-axis face, and the range of the X-axis coordinate head left coordinate Xl and the head right coordinate Xr is the projected X-axis face. Then, it is determined that the part having an area having movement following the face on the projected X-axis and Y-axis is the body. This determination result is output to the person recognition unit 3d.

【0029】人物認知部3dは顔面検出部3cと胴体検
出部3eから顔面、胴体の両方が存在することを認識す
ると、人物(操作者)がコンピュータシステムに向かっ
て作業をしていると判断してシステム制御手段4に対し
人物がいることを示すデータを出力する。この人物認知
部3dでは実際にコンピュータシステムに向かって作業
をしているかどうかを判定するものである。
When the person recognizing unit 3d recognizes from the face detecting unit 3c and the body detecting unit 3e that both the face and the body exist, it determines that the person (operator) is working toward the computer system. And outputs data indicating that there is a person to the system control means 4. The person recognition unit 3d determines whether or not the user is actually working toward the computer system.

【0030】システム制御手段4では人物認知部3dか
ら出力されるデータをもとに人物がコンピュータシステ
ムから離れたか、コンピュータシステムの前に座ったか
の状態を把握し、コンピュータシステムの動作状況を加
味して電源部2iを制御し、コンピュータシステムの投
入または遮断を行うものである。また、同様にして表示
部2fの電源の投入または遮断を行うものである。この
とき、操作者がコンピュータシステムを離れるときは電
源を遮断し、コンピュータシステムの前に着席したとき
は電源を投入するものである。この動作を組み合わせる
ことも可能である。電源遮断に代えてシステムをスリー
プ状態にしてもよい。
Based on the data output from the person recognizing section 3d, the system control means 4 grasps the state of whether the person is away from the computer system or sits in front of the computer system, and considers the operating state of the computer system. The power supply unit 2i is controlled to turn on / off the computer system. Similarly, the power of the display unit 2f is turned on or off. At this time, when the operator leaves the computer system, the power is cut off, and when the operator sits in front of the computer system, the power is turned on. It is also possible to combine these operations. The system may be put into a sleep state instead of power-off.

【0031】操作者がコンピュータシステムに顔面を向
けている限りは、キーボードやマウスなどの入力デバイ
スからの入力が一定時間にわたってない状態であって
も、不測に電源遮断やスリープ状態になることはなく、
操作者にとってより柔軟性のある環境を設定することが
できる。
As long as the operator faces his or her face toward the computer system, even if the input from the input device such as the keyboard or the mouse does not occur for a certain period of time, the power is not cut off or the sleep state is not unexpectedly reached. ,
An environment that is more flexible for the operator can be set.

【0032】〔第3実施例〕この第3実施例は請求項3
に係る実施例であり、図5はその実施例のシステム制御
手段4のブロック図である。
[Third Embodiment] This third embodiment is claimed in claim 3.
FIG. 5 is a block diagram of the system control means 4 of the embodiment.

【0033】タイマー5aは画像処理手段3から操作者
がコンピュータシステムの前から離れたとの信号を受け
てタイマーカウントするカウンタであり、予め設定され
た時間をカウントすると、イベント信号を電源制御部5
bに出力する。タイマー5aのカウント設定はコンピュ
ータ手段2から入出力回路部2hを通して実行される。
また、カウント動作の開始は入出力回路部2hから入力
されるコンピュータ手段2の動作状況フラグをチェック
して実行される。例えば、アプリケーションプログラム
の実行状態であればビジィフラグが立ち、タイマー動作
が実行されないようにする。これにより、電源制御部5
bにイベント信号を出力しないため、電源遮断動作やス
リープ動作などを実行しない。
The timer 5a is a counter which receives a signal from the image processing means 3 that the operator has left the front of the computer system and counts the timer. When the preset time is counted, an event signal is output from the power control unit 5a.
output to b. The count setting of the timer 5a is executed from the computer means 2 through the input / output circuit section 2h.
Further, the counting operation is started by checking the operation status flag of the computer means 2 input from the input / output circuit section 2h. For example, if the application program is in the execution state, the busy flag is set to prevent the timer operation from being executed. As a result, the power control unit 5
Since the event signal is not output to b, the power cutoff operation and the sleep operation are not executed.

【0034】そして、タイマー5aから出力されたイベ
ント信号(操作者がコンピュータシステムの前から離れ
たと認識した情報)を受けて、電源部2iまたは表示部
2fの電源を遮断するものである。電源部2iの遮断に
ついてはシステム全体の電源を遮断するモードとシステ
ムの動作に影響を与えない部分の電源を遮断するモード
があり、設定して使用できるものとする。
Then, in response to the event signal output from the timer 5a (information that the operator recognizes that the operator has moved away from the front of the computer system), the power source of the power source unit 2i or the display unit 2f is shut off. There are two modes for shutting off the power supply unit 2i: a mode for shutting off the power of the entire system and a mode for shutting off the power of a part that does not affect the operation of the system, which can be set and used.

【0035】本実施例によれば、操作者がコンピュータ
システムを離れてから電源を遮断するまでの時間を設定
することができる。例えば、コンピュータシステムを離
れた状態でアプリケーションを走らせておくといった利
用の仕方があり、操作者にとってより柔軟性のある環境
を設定することができる。
According to this embodiment, it is possible to set the time from when the operator leaves the computer system until the power is cut off. For example, there is a method of using the application such that the computer system is kept away from the user, and it is possible to set a more flexible environment for the operator.

【0036】〔第4実施例〕図6は第4実施例のシステ
ム制御手段4のブロック図である。
[Fourth Embodiment] FIG. 6 is a block diagram of the system control means 4 of the fourth embodiment.

【0037】スイッチ部6aは画像処理手段3からの信
号と入出力回路部2hから入力される電源遮断をイネー
ブル/ディスイネーブルする信号とコンピュータシステ
ムの動作状況を示す信号から状況判断をし、電源制御部
6bに電源遮断をするか否かのイベント情報を送るもの
である。コンピュータ手段2の入出力回路部2hよりイ
ネーブル信号が送られると、スイッチ部6aはONとな
り、電源制御部6bに画像処理手段3からの操作者がコ
ンピュータシステムを離れたという信号を出力する。こ
の信号を受けて電源制御部6bは電源遮断動作を実行す
る。
The switch section 6a judges the situation from the signal from the image processing means 3, the signal for enabling / disenabling the power cutoff inputted from the input / output circuit section 2h, and the signal showing the operating situation of the computer system, and controls the power source. Event information indicating whether or not the power is cut off is sent to the unit 6b. When the enable signal is sent from the input / output circuit unit 2h of the computer unit 2, the switch unit 6a is turned on, and the power control unit 6b outputs a signal from the image processing unit 3 that the operator has left the computer system. In response to this signal, the power supply control unit 6b executes the power supply cutoff operation.

【0038】また、コンピュータ手段2の入出力回路部
2hよりディスイネーブル信号が送られると、スイッチ
部6aはOFFとなり、画像処理手段3からの操作者が
コンピュータシステムを離れたという信号を受けても、
電源制御部6bにはイベント信号を出力しない。このた
め、電源遮断動作は実行されない。
When a disenable signal is sent from the input / output circuit section 2h of the computer means 2, the switch section 6a is turned off, and even if the operator from the image processing means 3 receives a signal that the operator has left the computer system. ,
No event signal is output to the power supply controller 6b. Therefore, the power cutoff operation is not executed.

【0039】〔第5実施例〕図7は第5実施例の画像処
理手段3とシステム制御手段4のブロック図である。
[Fifth Embodiment] FIG. 7 is a block diagram of the image processing means 3 and the system control means 4 of the fifth embodiment.

【0040】画像処理手段3の構成要素である2値化処
理部3a、差分検出部3b、フレームメモリ3f、顔面
検出部3cについては第2実施例と同様であるので、説
明を省略する。
The binarization processing section 3a, the difference detection section 3b, the frame memory 3f, and the face detection section 3c, which are the constituent elements of the image processing means 3, are the same as those in the second embodiment, and therefore their explanations are omitted.

【0041】システム制御手段4は顔面切り出し部7
d、フレームメモリ7e、画像メモリ7a、顔面ファイ
ルメモリ7cおよび画面比較部7bより構成されてい
る。顔面切り出し部7dは顔面検出部3cから入力され
る顔面を囲む画像座標に基づいてフレームメモリ7eに
記憶された画像から顔面の切り出しを行う。つまり、顔
面検出部3cから出力される顔面を囲む座標、頭頂Pt
(Xc,Yt)、頭左Pl(Xl,Yl)、頭右Pr
(Xr,Yr)、頭下Pu(Xc,Yu)から顔面を囲
む4点の座標を求める。この4点の座標は、P1(X
l,Yt)、P2(Xr,Yt)、P3(Xl,Y
u)、P4(Xr,Yu)となる。これらの座標により
フレームメモリ7eのアドレスをアクセスしてP1、P
2、P3、P4で囲まれる顔面画像データを出力する。
図8に切り出しのイメージを示してある。フレームメモ
リ7eは顔面切り出し部7dの処理のための一時記憶メ
モリである。
The system control means 4 includes a face cutting section 7
d, a frame memory 7e, an image memory 7a, a face file memory 7c, and a screen comparison unit 7b. The face cutout unit 7d cuts out the face from the image stored in the frame memory 7e based on the image coordinates surrounding the face input from the face detection unit 3c. That is, the coordinates surrounding the face output from the face detection unit 3c, the top Pt
(Xc, Yt), head left Pl (Xl, Yl), head right Pr
From (Xr, Yr) and below-the-head Pu (Xc, Yu), the coordinates of four points surrounding the face are obtained. The coordinates of these four points are P1 (X
l, Yt), P2 (Xr, Yt), P3 (Xl, Y
u) and P4 (Xr, Yu). By accessing the address of the frame memory 7e by these coordinates, P1, P
The face image data surrounded by 2, P3 and P4 is output.
FIG. 8 shows a cutout image. The frame memory 7e is a temporary storage memory for the processing of the face cutout unit 7d.

【0042】画像メモリ7aは顔面切り出し部7dから
出力された顔面画像を一時記憶するメモリであり、顔面
画像の比較に用いる。顔面ファイルメモリ7cは操作者
の顔面画像を予め登録しておくメモリである。画面比較
部7bは、コンピュータシステムの前に座った操作者の
顔面画像である画像メモリ7aに切り出された顔面画像
と予め顔面ファイルメモリ7cに登録されている顔面画
像との比較照合を行うものである。
The image memory 7a is a memory for temporarily storing the facial image output from the facial clipping unit 7d, and is used for comparing the facial images. The face file memory 7c is a memory in which the face image of the operator is registered in advance. The screen comparison unit 7b performs comparison and comparison between the face image cut out in the image memory 7a, which is the face image of the operator sitting in front of the computer system, and the face image registered in advance in the face file memory 7c. is there.

【0043】以下、この処理の流れを記述する。まず、
カメラ手段1より入力された画像データは2値化処理部
3aで2値化され、差分検出部3bと顔面切り出し部7
dに2値化画像データが入力される。差分検出部3bで
は差分を検出し、差分結果を顔面検出部3cに出力す
る。顔面検出部3cは顔面のみを検出し、顔面エリアの
座標を算出する。この算出結果を顔面切り出し部7dに
出力する。
The flow of this processing will be described below. First,
The image data input from the camera means 1 is binarized by the binarization processing unit 3a, and the difference detection unit 3b and the face cutout unit 7 are processed.
Binarized image data is input to d. The difference detection unit 3b detects the difference and outputs the difference result to the face detection unit 3c. The face detection unit 3c detects only the face and calculates the coordinates of the face area. The calculation result is output to the face cutout unit 7d.

【0044】最初に操作者各人の顔面ファイルを作成し
ておく。これは、顔面検出部3cから出力される顔面の
座標データよりフレームメモリ7eに記憶された画像デ
ータから顔面部分の顔面データのみを切り出し、顔面フ
ァイルメモリ7cに登録しておく。この顔面データを登
録するとき同時に画像の名前と識別番号もコンピュータ
手段2からの操作により記憶する。この動作を必要なだ
け繰り返し、各人の操作者の顔面画像を順次登録してい
く。この操作は予め行っておく。
First, a face file for each operator is created. For this, only the face data of the face portion is cut out from the image data stored in the frame memory 7e from the coordinate data of the face output from the face detection unit 3c and registered in the face file memory 7c. At the same time when the face data is registered, the image name and the identification number are also stored by the operation from the computer means 2. This operation is repeated as many times as necessary to sequentially register the facial images of each operator. This operation is performed in advance.

【0045】次に、操作者がコンピュータシステムの前
に座ると、カメラ手段1より画像データが入力され2値
化処理部3aで2値化され、差分検出部3bと顔面切り
出し部7dに2値化画像データが入力される。差分検出
部3bで差分処理し、顔面検出部3cでは顔面を囲むデ
ータを生成し、顔面切り出し部7dに出力する。顔面切
り出し部7dではフレームメモリ7eに記憶されている
画像データから顔面画像データのみを切り出し、画像メ
モリ7aに出力する。ここで、画像メモリ7aの顔面画
像データと予め登録されている顔面ファイルメモリ7c
との比較照合処理を画面比較部7bで実行し、画像上で
名前と識別番号を検索する。
Next, when the operator sits in front of the computer system, the image data is input from the camera means 1 and binarized by the binarization processing unit 3a, and the binary data is binarized by the difference detection unit 3b and the face cutout unit 7d. The converted image data is input. The difference detection unit 3b performs difference processing, the face detection unit 3c generates data surrounding the face, and outputs the data to the face cutout unit 7d. The face cutout unit 7d cuts out only the face image data from the image data stored in the frame memory 7e and outputs it to the image memory 7a. Here, the face image data in the image memory 7a and the face file memory 7c registered in advance are stored.
The screen comparison unit 7b executes the comparison and collation processing with and searches the image for the name and the identification number.

【0046】この検索結果をコンピュータ手段2の入出
力回路部2h、システムバスを介してCPU2aに与え
る。CPU2aは予め登録している名前と識別番号を認
識してコンピュータシステムの前に座った人物に応じた
操作環境を自動的に設定する。したがって、コンピュー
タシステムの前に座った操作者が誰であるのかを検出す
ることができる。この結果として、例えば他の操作者の
データを誤って消去してしまうような誤操作がなくな
り、コンピュータシステムのセキュリティを高めること
ができる。
This search result is given to the CPU 2a via the input / output circuit section 2h of the computer means 2 and the system bus. The CPU 2a recognizes the registered name and identification number and automatically sets the operating environment according to the person sitting in front of the computer system. Therefore, it is possible to detect who is the operator sitting in front of the computer system. As a result, for example, an erroneous operation such as erasing the data of another operator by mistake is eliminated, and the security of the computer system can be enhanced.

【0047】〔第6実施例〕図9は第6実施例の画像処
理手段3とシステム制御手段4のブロック図である。
[Sixth Embodiment] FIG. 9 is a block diagram of the image processing means 3 and the system control means 4 of the sixth embodiment.

【0048】画像処理手段3の構成要素である2値化処
理部3a、差分検出部3b、フレームメモリ3f、顔面
検出部3cについては第2実施例と同様であるので、説
明を省略する。
The binarization processing section 3a, the difference detection section 3b, the frame memory 3f, and the face detection section 3c, which are the constituent elements of the image processing means 3, are the same as those in the second embodiment, and therefore their explanations are omitted.

【0049】システム制御手段4は顔面切り出し部7
d、フレームメモリ7e、画像メモリ7a、画面比較部
7b、2値化画像メモリ9a、画像フレームメモリ9b
および画像出力部9cより構成されている。
The system control means 4 includes a face cutting section 7
d, frame memory 7e, image memory 7a, screen comparison unit 7b, binarized image memory 9a, image frame memory 9b
And an image output unit 9c.

【0050】2値化画像メモリ9aは2値化され切り出
された顔面画像を記憶するものであり、コンピュータシ
ステムを操作中の操作者の2値化顔面画像データを記憶
するものである。操作者が離れたときもその顔面画像デ
ータをそのまま保持する。
The binarized image memory 9a stores the binarized and cut-out face image, and stores the binarized face image data of the operator who is operating the computer system. Even when the operator leaves, the face image data is retained as it is.

【0051】画像フレームメモリ9bは2値化画像メモ
リ9aに記憶された画像データと同一タイミングの画像
データが記憶されるものである。この画像フレームメモ
リ9bの画像データは2値化顔面画像データを記憶する
のではなくて、カメラ手段1から入力される階調のある
データである。画像出力部9cは画像フレームメモリ9
bの画像データをコンピュータ手段2の表示制御部2g
に出力する。この画像データの出力の制御は画面比較部
7bからの出力信号によって決定される。
The image frame memory 9b stores image data at the same timing as the image data stored in the binarized image memory 9a. The image data of the image frame memory 9b is not the binary face image data stored, but the gradation data input from the camera means 1. The image output unit 9c is the image frame memory 9
The image data of b is displayed by the display controller 2g of the computer means 2.
Output to. The control of the output of this image data is determined by the output signal from the screen comparison unit 7b.

【0052】画面比較部7bでは画像メモリ7aと2値
化画像メモリ9aを画像照合して似通っていれば画像出
力部9cに画像データの出力を許可する信号を出力す
る。これにより、画像出力部9cからコンピュータ手段
2の表示制御部2gに画像データを出力することができ
る。
In the screen comparison section 7b, the image memory 7a and the binarized image memory 9a are collated with each other, and if they are similar to each other, a signal permitting the output of the image data is outputted to the image output section 9c. Thereby, the image data can be output from the image output unit 9c to the display control unit 2g of the computer means 2.

【0053】上記で説明したように、まずコンピュータ
システムを操作中に操作者の顔面画像データを2値化画
像メモリ9aに記憶する。そして、操作者が離れたと認
識すると2値化画像メモリ9aの顔面画像データをその
まま保持する。次に、別の操作者がコンピュータシステ
ムの前に座ると、カメラ手段1より画像データが2値化
処理部3aに入力される。2値化処理部3aで2値化さ
れた画像データは顔面切り出し部7dに入力され、顔面
の切り出し処理をし、画像メモリ7aに記憶する。そし
て、すでに2値化画像メモリ9aに記憶されている顔面
画像データと画像メモリ7aの切り出し顔面画像データ
の比較処理を画面比較部7bで行い、同一人物でないと
判定すると、入出力回路部2hと画像出力部9cに信号
を出力する。これを受けて画像出力部9cは表示制御部
2gへ画像データを出力し、入出力回路部2hはCPU
2aに画像出力部9cからの画像データを表示するよう
に制御する。これにより、別の操作者がコンピュータシ
ステムの前に座ると、それまで操作していて離れていっ
た人物の画像が表示部2fに表示される。その結果とし
て、例えば他の操作者のデータを誤って消去してしまう
ような誤操作がなくなり、コンピュータシステムのセキ
ュリティを高めることができる。
As described above, first, the face image data of the operator is stored in the binarized image memory 9a while operating the computer system. When the operator recognizes that the user has left, the face image data in the binarized image memory 9a is held as it is. Next, when another operator sits in front of the computer system, the image data is input from the camera means 1 to the binarization processing unit 3a. The image data binarized by the binarization processing unit 3a is input to the face cutout unit 7d, the face is cut out, and stored in the image memory 7a. Then, the comparison processing of the face image data already stored in the binarized image memory 9a and the cut-out face image data of the image memory 7a is performed by the screen comparison unit 7b, and when it is determined that they are not the same person, the input / output circuit unit 2h The signal is output to the image output unit 9c. In response to this, the image output unit 9c outputs the image data to the display control unit 2g, and the input / output circuit unit 2h outputs the CPU data.
The image data from the image output unit 9c is controlled to be displayed on 2a. As a result, when another operator sits in front of the computer system, the image of the person who has been operating and has left is displayed on the display unit 2f. As a result, erroneous operations such as erasing data of other operators by mistake are eliminated, and the security of the computer system can be enhanced.

【0054】〔第7実施例〕図10は第7実施例の画像
処理手段3のブロック図である。
[Seventh Embodiment] FIG. 10 is a block diagram of the image processing means 3 of the seventh embodiment.

【0055】画像処理手段3の構成要素である2値化処
理部3a、差分検出部3b、フレームメモリ3f、顔面
検出部3c、胴体検出部3e、人物認知部3dについて
は第2実施例と同様であるので、説明を省略する。
The binarization processing unit 3a, the difference detection unit 3b, the frame memory 3f, the face detection unit 3c, the body detection unit 3e, and the person recognition unit 3d, which are the components of the image processing means 3, are the same as those in the second embodiment. Therefore, the description is omitted.

【0056】この実施例では、画像処理手段3はさらに
顔面幅検出部10aと胴体幅検出部10bを備えてい
る。顔面幅検出部10aで顔面の横幅の検出を行い、胴
体幅検出部10bで胴体の幅の検出を行う。
In this embodiment, the image processing means 3 further comprises a face width detecting section 10a and a body width detecting section 10b. The face width detection unit 10a detects the lateral width of the face, and the body width detection unit 10b detects the width of the body.

【0057】顔面幅検出部10aでは図4に示す頭右座
標と頭左座標の差をとることにより顔面の幅が求められ
る。顔面幅HWはX軸方向に沿ったもので、 HW=頭右座標−頭左座標=Xr−Xl である。
The face width detecting section 10a obtains the face width by calculating the difference between the right head coordinates and the left head coordinates shown in FIG. The face width HW is along the X-axis direction, and HW = head right coordinate−head left coordinate = Xr−X1.

【0058】胴体幅検出部10bでは図4に示す胴体の
左右座標の差をとることにより胴体の幅を求める。胴体
幅DHは、 DH=Dr−Dl である。
The body width detection unit 10b obtains the width of the body by taking the difference between the left and right coordinates of the body shown in FIG. The body width DH is DH = Dr-Dl.

【0059】顔面幅、胴体幅ともに予め統計的に算出し
てデータとしてもっておき、このデータ値の近いものを
求めてコンピュータシステムに向かって座っているのか
否かを判定する。この結果をもとに人物認知部3dでは
操作者がいるかいないかを判定し、コンピュータシステ
ムの制御を行う。
Both the face width and the body width are statistically calculated in advance and stored as data, and a close data value is determined to determine whether or not the user is sitting at the computer system. Based on this result, the person recognition unit 3d determines whether or not there is an operator, and controls the computer system.

【0060】本実施例によれば、顔面幅と胴体幅とに基
づいて、操作者と周囲の人物とを区別し、操作者に対し
てはコンピュータシステムが反応するが、周囲の人物に
対しては反応しないようにすることができる。したがっ
て、節電効果が一層高くなる。
According to the present embodiment, the operator and the surrounding person are distinguished based on the face width and the body width, and the computer system reacts to the operator, but to the surrounding person. Can be unresponsive. Therefore, the power saving effect is further enhanced.

【0061】[0061]

【発明の効果】【The invention's effect】

(1) 請求項1のコンピュータシステムによれば、コ
ンピュータシステムの周辺状況の認識結果すなわち操作
者が席に着いたのか離れていったのかに応じて電源の投
入・遮断を行うので、きめの細かいヒューマン・マシン
・インターフェイスを得ることができ、CRTなどの焼
き付け防止や節電制御を簡単に実現することができる。
(1) According to the computer system of claim 1, the power is turned on / off according to the recognition result of the peripheral condition of the computer system, that is, whether the operator is seated or away from the computer. A human-machine interface can be obtained, and it is possible to easily realize burning prevention and power saving control of a CRT or the like.

【0062】(2) 請求項2のコンピュータシステム
によれば、キーボードやマウスなどの入力デバイスから
の入力が一定時間にわたってない状態であっても、操作
者の顔面を検知している限りは、不測に電源遮断やスリ
ープ状態になることはなく、操作者にとって柔軟性のあ
る環境を設定することができる。
(2) According to the computer system of claim 2, even if there is no input from an input device such as a keyboard or a mouse for a certain period of time, as long as the face of the operator is detected, it is unexpected. It is possible to set a flexible environment for the operator without shutting off the power or going to sleep.

【0063】(3) 請求項3のコンピュータシステム
によれば、コンピュータシステムを離れてから電源遮断
されるまでの時間を任意に設定することで、アプリケー
ションを走らせておくなど操作者にとってより柔軟性の
ある環境を設定することができる。
(3) According to the computer system of claim 3, by setting the time from the time when the computer system is left until the time when the power is cut off, it is more flexible for the operator to keep the application running. You can set an environment.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例のコンピュータシステムの
電気的構成を示すブロック図である。
FIG. 1 is a block diagram showing an electrical configuration of a computer system according to a first embodiment of the present invention.

【図2】本発明の第2実施例のコンピュータシステムに
おける画像処理手段のブロック図である。
FIG. 2 is a block diagram of image processing means in a computer system according to a second embodiment of the present invention.

【図3】顔面の座標図である。FIG. 3 is a coordinate diagram of a face.

【図4】人物の投影図である。FIG. 4 is a projection view of a person.

【図5】本発明の第3実施例のコンピュータシステムに
おけるシステム制御手段のブロック図である。
FIG. 5 is a block diagram of system control means in a computer system according to a third embodiment of the present invention.

【図6】本発明の第4実施例のコンピュータシステムに
おけるシステム制御手段のブロック図である。
FIG. 6 is a block diagram of system control means in a computer system according to a fourth embodiment of the present invention.

【図7】本発明の第5実施例のコンピュータシステムに
おける画像処理手段とシステム制御手段のブロック図で
ある。
FIG. 7 is a block diagram of image processing means and system control means in a computer system according to a fifth embodiment of the present invention.

【図8】画像メモリのイメージ図である。FIG. 8 is an image diagram of an image memory.

【図9】本発明の第6実施例のコンピュータシステムに
おける画像処理手段とシステム制御手段のブロック図で
ある。
FIG. 9 is a block diagram of image processing means and system control means in a computer system according to a sixth embodiment of the present invention.

【図10】本発明の第7実施例のコンピュータシステム
における画像処理手段のブロック図である。
FIG. 10 is a block diagram of image processing means in a computer system according to a seventh embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1……カメラ手段 2……コンピュータ手段 2a…CPU 2f…表示部 2g…表示制御部 2h…入出力回路部 2i…電源部 3……画像処理手段 3a…2値化処理部 3b…差分検出部 3c…顔面検出部 3d…人物認知部 3e…胴体検出部 4……システム制御手段 5a…タイマー 5b…電源制御部 7a…画像メモリ 7b…画面比較部 7c…顔面ファイルメモリ 7d…顔面切り出し部 9a…2値化画像メモリ 9b…画像フレームメモリ 9c…画像出力部 10a…顔面幅検出部 10b…胴体幅検出部 1 ... Camera means 2 ... Computer means 2a ... CPU 2f ... Display section 2g ... Display control section 2h ... Input / output circuit section 2i ... Power supply section 3 ... Image processing means 3a ... Binarization processing section 3b ... Difference detection section 3c ... Face detection unit 3d ... Person recognition unit 3e ... Body detection unit 4 ... System control means 5a ... Timer 5b ... Power supply control unit 7a ... Image memory 7b ... Screen comparison unit 7c ... Face file memory 7d ... Face cutout unit 9a ... Binary image memory 9b ... Image frame memory 9c ... Image output unit 10a ... Face width detection unit 10b ... Body width detection unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/14 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical indication H04N 7/14

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 CPU,電源部,表示部などから構成さ
れたコンピュータ手段と、被写体を撮像するカメラ手段
と、前記カメラ手段から入力される被写体画像を処理し
てコンピュータシステムの周辺の状況を認識する画像処
理手段と、前記画像処理手段の認識結果に応じてコンピ
ュータシステムの電源の投入・遮断を行うシステム制御
手段とを備えていることを特徴とするコンピュータシス
テム。
1. A computer means composed of a CPU, a power supply section, a display section, etc., a camera means for picking up an image of a subject, and a subject image input from the camera means for processing to recognize the surroundings of the computer system. And a system control means for turning on / off the power of the computer system according to the recognition result of the image processing means.
【請求項2】 画像処理手段で人物の顔面を認識し、コ
ンピュータシステムの前面から人物が離れたと判定した
ときはシステム制御手段は電源遮断またはスリープ状態
とし、コンピュータシステムの前面に近づき席に着いた
と判定したときはシステム制御手段はシステムの立ち上
げを自動的に行うことを特徴とする請求項1に記載のコ
ンピュータシステム。
2. The image processing means recognizes a person's face, and when it is determined that the person has moved away from the front surface of the computer system, the system control means shuts off the power or sleeps, and approaches the front surface of the computer system to sit down. 2. The computer system according to claim 1, wherein the system control means automatically starts up the system when it is determined to be.
【請求項3】 システム制御手段はタイマーを有し、そ
のタイマーで人物が離れてから電源遮断するまでの時間
を設定可能に構成してあることを特徴とする請求項1ま
たは請求項2に記載のコンピュータシステム。
3. The system control means has a timer, and the timer is configured to be able to set the time from the time when the person leaves until the power is cut off. Computer system.
JP6255094A 1994-03-31 1994-03-31 Computer system Pending JPH07271482A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6255094A JPH07271482A (en) 1994-03-31 1994-03-31 Computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6255094A JPH07271482A (en) 1994-03-31 1994-03-31 Computer system

Publications (1)

Publication Number Publication Date
JPH07271482A true JPH07271482A (en) 1995-10-20

Family

ID=13203476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6255094A Pending JPH07271482A (en) 1994-03-31 1994-03-31 Computer system

Country Status (1)

Country Link
JP (1) JPH07271482A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02995A (en) * 1988-06-08 1990-01-05 Japan Aviation Electron Ind Ltd Vector generator for liquid crystal panel
JP2002335501A (en) * 2001-05-10 2002-11-22 Mitsubishi Electric Corp Portable display device
US7398555B2 (en) 2000-08-28 2008-07-08 Fujitsu Limited Electronic apparatus and medium
JP2008292753A (en) * 2007-05-24 2008-12-04 Denso Corp Information display device
US7487375B2 (en) 1998-03-06 2009-02-03 Intel Corporation Method and apparatus for powering on an electronic device with a video camera that detects motion
WO2011118837A1 (en) * 2010-03-26 2011-09-29 シャープ株式会社 Display device and control method of same, television, program and storage medium
JP2012520051A (en) * 2009-03-09 2012-08-30 ポリコム,インク. Method and apparatus for controlling the state of a communication system
KR101275353B1 (en) * 2012-11-20 2013-07-30 주식회사 뉴젠엠앤에스 Apparatus and method for controlling power saving with security camera
US9551541B2 (en) 2012-07-18 2017-01-24 Mitsubishi Electric Corporation Indoor unit of air-conditioning apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02995A (en) * 1988-06-08 1990-01-05 Japan Aviation Electron Ind Ltd Vector generator for liquid crystal panel
US7487375B2 (en) 1998-03-06 2009-02-03 Intel Corporation Method and apparatus for powering on an electronic device with a video camera that detects motion
US7398555B2 (en) 2000-08-28 2008-07-08 Fujitsu Limited Electronic apparatus and medium
JP2002335501A (en) * 2001-05-10 2002-11-22 Mitsubishi Electric Corp Portable display device
JP2008292753A (en) * 2007-05-24 2008-12-04 Denso Corp Information display device
JP2012520051A (en) * 2009-03-09 2012-08-30 ポリコム,インク. Method and apparatus for controlling the state of a communication system
WO2011118837A1 (en) * 2010-03-26 2011-09-29 シャープ株式会社 Display device and control method of same, television, program and storage medium
US9551541B2 (en) 2012-07-18 2017-01-24 Mitsubishi Electric Corporation Indoor unit of air-conditioning apparatus
KR101275353B1 (en) * 2012-11-20 2013-07-30 주식회사 뉴젠엠앤에스 Apparatus and method for controlling power saving with security camera

Similar Documents

Publication Publication Date Title
US8379059B2 (en) Portable electronic device and method for adjusting display orientation of the portable electronic device
US8319851B2 (en) Image capturing apparatus, face area detecting method and program recording medium
US20070279485A1 (en) Image Processor, Image Processing Method, Recording Medium, Computer Program, And Semiconductor Device
US20120020568A1 (en) Image processor and image processing method
JP5606281B2 (en) Display device
JP2009193323A (en) Display apparatus
KR20020031188A (en) Pointing direction calibration in video conferencing and other camera-based system applications
US20110267529A1 (en) Imaging apparatus
JPH11242733A (en) Power saving controller
US7460705B2 (en) Head-top detecting method, head-top detecting system and a head-top detecting program for a human face
JP2009086703A (en) Image display device, image display method and image display program
JP2003150942A (en) Eye position tracing method
US8432473B2 (en) Imaging apparatus
JPH07271482A (en) Computer system
JP3862389B2 (en) Coordinate input device, coordinate input system and method, and storage medium
JPH05298015A (en) Glance detecting system and information processing system
JPH08106519A (en) Face direction discriminating device and picture display device using this device
CN106791407A (en) A kind of self-timer control method and system
JPH05232908A (en) Instruction input device
JP2007156606A (en) Image display device and program
JP4091184B2 (en) Camera and image generation method
JP2001005975A (en) Device and method for controlling equipment
JP2000292834A (en) Device and method for photographing face picture
JP5951966B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP5477025B2 (en) Image display device and program