JP3329494B2 - Use condition setting input control device - Google Patents
Use condition setting input control deviceInfo
- Publication number
- JP3329494B2 JP3329494B2 JP27243792A JP27243792A JP3329494B2 JP 3329494 B2 JP3329494 B2 JP 3329494B2 JP 27243792 A JP27243792 A JP 27243792A JP 27243792 A JP27243792 A JP 27243792A JP 3329494 B2 JP3329494 B2 JP 3329494B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- distance
- recognition
- sensor
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003860 storage Methods 0.000 claims description 38
- 238000000034 method Methods 0.000 description 66
- 230000006870 function Effects 0.000 description 55
- 238000005259 measurement Methods 0.000 description 48
- 238000001514 detection method Methods 0.000 description 36
- 238000012545 processing Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 33
- 230000008859 change Effects 0.000 description 30
- 238000013473 artificial intelligence Methods 0.000 description 24
- 238000013459 approach Methods 0.000 description 22
- 230000004044 response Effects 0.000 description 21
- 230000007613 environmental effect Effects 0.000 description 20
- 238000013528 artificial neural network Methods 0.000 description 17
- 238000007726 management method Methods 0.000 description 15
- 238000000605 extraction Methods 0.000 description 12
- 238000012805 post-processing Methods 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 11
- 238000005070 sampling Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 7
- 238000000926 separation method Methods 0.000 description 7
- 238000009434 installation Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000007257 malfunction Effects 0.000 description 4
- 210000003371 toe Anatomy 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 238000007430 reference method Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 241000287107 Passer Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000007306 turnover Effects 0.000 description 2
- 230000003442 weekly effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Accessory Devices And Overall Control Thereof (AREA)
- Electrophotography Configuration And Component (AREA)
- Control Or Security For Electrophotography (AREA)
- Facsimiles In General (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Description
【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION
【0001】[0001]
【産業上の利用分野】本発明は、各種装置機器類に備え
られた操作部へ使用条件を設定入力する際の使用条件設
定入力制御装置に関するものであり、より具体的には、
使用者の入れ替わりを判別し、その結果によりオートリ
セットを行う機能を備えた画像形成装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a use condition setting input control device for setting and inputting use conditions to an operation unit provided in various apparatus and equipment.
The present invention relates to an image forming apparatus having a function of determining user replacement and performing an automatic reset based on the result.
【0002】[0002]
【従来技術】近年は、使用者の利便性を向上させるた
め、装置機器類の自動化が益々図られるようになってき
ている。特に、本発明において着目した分野は、人体検
知可能なセンサを用いることによる装置機器への使用者
の接近、及び装置機器からの使用者の離間を検知し、装
置機器類の各種機能をより充実させたい分野である。2. Description of the Related Art In recent years, in order to improve the convenience of users, automation of equipment has been increasingly promoted. In particular, the field focused on in the present invention is to enhance the various functions of the equipment by detecting the approach of the user to the equipment and the separation of the user from the equipment by using a sensor capable of detecting the human body. This is the field I want to make.
【0003】例えば、人の接近を検知してドアを自動的
に開閉させる自動ドア、人の接近を検知して操作表示部
(LCD)を自動的にON/OFFさせる銀行等のキャ
ッシュディスペンサー等では広く実用化されており、更
に、複写機等の画像形成装置においても人の接近を検知
して操作表示部(LCD)を自動的にON/OFFさせ
る自動予熱機能、操作部から入力された各種複写条件・
複写モードを自動的に初期条件に復帰させるオートリセ
ット機能として実用化されつつある。For example, in an automatic door that detects the approach of a person and automatically opens and closes the door, and in a cash dispenser of a bank or the like that detects an approach of a person and automatically turns on / off an operation display unit (LCD). It is widely put into practical use. In addition, in an image forming apparatus such as a copying machine, an automatic preheating function for automatically turning on / off an operation display unit (LCD) by detecting approach of a person, and various types input from the operation unit Copying conditions
An automatic reset function for automatically returning the copy mode to the initial condition is being put to practical use.
【0004】画像形成装置において、特殊条件及びモー
ド設定(両面、合成、ソート、綴代調整、変倍他)によ
る複写動作が実行された後に、次なる使用者が装置を作
動させる際、設定されている複写条件をよく確認せずに
複写動作をそのまま実行してしまうと、先に設定されて
いた特殊条件で複写が実行されミスコピーとなってしま
う事態が頻繁に発生している。このような不具合を防ぐ
ために複写条件、及びモードを所定の条件(複写動作終
了後所定時間の経過、使用者の装置からの離間)が満た
されれば初期条件に自動的に復帰させるオートリセット
機能が広く普及している。In the image forming apparatus, after a copying operation is performed under special conditions and mode settings (double-sided, combining, sorting, binding adjustment, scaling, etc.), the setting is made when the next user operates the apparatus. If the copying operation is executed as it is without carefully confirming the copying conditions, the copying is often executed under the previously set special conditions, resulting in erroneous copying. In order to prevent such a problem, an automatic reset function for automatically returning the copy conditions and the mode to the initial conditions when a predetermined condition (elapse of a predetermined time after completion of the copy operation, separation from the user's apparatus) is satisfied is satisfied. Widespread.
【0005】[0005]
【発明が解決しようとする課題】上述のように、オート
リセット機能自体は誤設定入力による誤動作を防ぐ有効
な手立てではあるが、オートリセット機能が作動しても
らいたい時であっても、上述のような所定の条件を満た
していない場合には、この機能が作動せず、依然として
従来の問題点が解決されていなかった。As described above, the auto-reset function itself is an effective means for preventing a malfunction due to an erroneous setting input. When such a predetermined condition is not satisfied, this function does not operate, and the conventional problem has not been solved.
【0006】詳しくは、オートリセット機能は所定の条
件(複写動作終了後所定時間の経過、使用者の装置から
の離間)を満たさねば作動せず、使用条件は初期条件に
自動復帰しないため、先の複写動作終了から所定時間の
経過前、或いは先の使用者が装置から所定距離以上離れ
る前に次なる使用者が装置を取扱う場合には、未だ使用
条件は先の複写条件のままであり従来と全く同一の誤設
定入力による誤動作の発生という問題が生じていた。More specifically, the auto-reset function does not operate unless a predetermined condition (elapse of a predetermined time after completion of the copying operation, separation from the user's apparatus) is satisfied, and the use condition does not automatically return to the initial condition. If the next user handles the device before the predetermined time has elapsed from the end of the copying operation or before the previous user has separated from the device by a predetermined distance or more, the use condition is still the same as the previous copy condition, and However, there has been a problem that a malfunction occurs due to the same wrong setting input.
【0007】本発明は、上記従来技術の課題を解決すべ
くなされたものであり、使用者の入れ替わりを判別検出
し、入れ替わりが検出されたときオートリセット機能を
作動させることによって、装置の使用条件設定ミスによ
る誤動作を確実に防止させた使用条件設定入力制御装置
を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the prior art. The present invention has been made to solve the above-mentioned problems. An object of the present invention is to provide a use condition setting input control device in which a malfunction due to a setting mistake is reliably prevented.
【0008】[0008]
【課題を解決するための手段】本発明は、上記課題を解
決するために、装置を使用する際に使用条件を設定入力
するための操作部と、装置を使用する人の入れ替わりを
判別検出する判別手段と、前記判別手段により、装置を
使用する人の入れ替わりが検出された場合に、前記操作
部から設定入力されている使用条件を予め定められた初
期の使用条件へ自動的に切り換える制御手段とを有し、
前記制御手段により、装置の使用条件が予め定められた
初期の使用条件へ自動的に切り換えられた後も直前に使
用された際の使用条件を記憶手段に記憶しておき、該記
憶手段に記憶された前記使用条件を1回の操作入力で呼
出し、装置を該使用条件に自動的に設定することを特徴
としたものである。SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention discriminates and detects whether an operation unit for setting and inputting use conditions when using the apparatus and a person who uses the apparatus are replaced. Discriminating means, and control means for automatically switching a use condition set and input from the operation unit to a predetermined initial use condition when replacement of a person using the device is detected by the discriminating means. It has a door,
After the use condition of the apparatus is automatically switched to the predetermined initial use condition by the control means, the use condition at the time of immediately preceding use is stored in the storage means, and the use condition is stored in the storage means. call has been the use conditions in one operation input is obtained by said and Turkey automatically sets the apparatus to said use condition.
【0009】[0009]
【作用】使用者の入れ替わりを判別検出し、入れ替わり
が検出されたとき、オートリセット機能作動条件(複写
動作終了後所定時間の経過、使用者の装置からの所定距
離以上の離間)に関わらずオートリセット機能を作動さ
せる。According to the present invention, the switching of the user is discriminated and detected. When the switching is detected, the automatic reset function is activated regardless of the operating condition (elapse of a predetermined time after completion of the copying operation, separation from the user's apparatus by a predetermined distance or more). Activate the reset function.
【0010】装置概略 図1は、自動応答システムをOA機器に適用した場合の
構成概念を説明するためのブロック図で、該自動応答シ
ステムは、一個以上のセンサより構成されるセンサ部2
と、認識判断装置3と、サービス提供装置4とより構成
され、自動応答機能を実現するために各種OA機器1に
装着され、OA機器1の使用者による能動的なはたらき
かけによらず、適切な応答を行い、各種のサービスを提
供するものである。FIG. 1 is a block diagram for explaining a configuration concept when an automatic response system is applied to OA equipment. The automatic response system includes a sensor unit 2 composed of one or more sensors.
And a recognition providing device 3 and a service providing device 4, which are mounted on various OA devices 1 to realize an automatic response function, and which are appropriate regardless of active work by a user of the OA devices 1. It responds and provides various services.
【0011】センサ部2は自動応答する対象の物体(例
えば、近付いてくる人間)を認識するための各種データ
を作り出すためにOA機器1の表面または内部に実装さ
れ、得られたデータを認識判断装置3へと送る。センサ
の種類、実装位置およびその個数は、センサからのデー
タより検出したいパラメータ、検出対象とする方向(例
えば、操作パネルの向いている方向=OA機器正面方
向)や応答対象とする物体の大きさ(幅、高さ)、検出
精度(分解能、検出間隔)等により適宜決定される。The sensor unit 2 is mounted on the surface or inside the OA device 1 to generate various data for recognizing an object (for example, an approaching human) to be automatically responded, and recognizes and determines the obtained data. Send to device 3. The type of the sensor, the mounting position and the number thereof are determined by the parameters to be detected from the data from the sensor, the direction to be detected (for example, the direction in which the operation panel is facing = the front of the OA device), and the size of the object to be responded to. (Width, height), detection accuracy (resolution, detection interval) and the like are appropriately determined.
【0012】図2は、複写機またはファクシミリまたは
レーザ・ビーム・プリンタである画像形成装置5に複数
の距離センサ6により構成されたセンサ部の実装例を示
す図で、(a)図は画像形成装置の全体斜視図、(b)
図は平面図である。図2の例では、応答する対象の物体
を人間(操作可能者)、測定によって得るデータを画像
形成装置5から被測定物体までの距離、測定対象とする
方向を装置5の正面および側面としている。また、それ
らに加えて被測定物体の方向も得るために比較的鋭い指
向性をもった距離センサにより複数方向について距離の
測定を行う。この種のセンサには、たとえば発光部より
赤外光を対象方向に照射し、受後部でその反射光量を計
測することにより距離を測定するものや、ある周波数の
超音波を送波器より発信し、反射波を受波器によって受
けてその位相差によって距離を測定するもの等がある。FIG. 2 is a diagram showing an example of mounting a sensor unit including a plurality of distance sensors 6 on an image forming apparatus 5 which is a copying machine, a facsimile, or a laser beam printer. Overall perspective view of the device, (b)
The figure is a plan view. In the example of FIG. 2, the response target object is a human (operable person), the data obtained by measurement is the distance from the image forming apparatus 5 to the measured object, and the directions to be measured are the front and side surfaces of the apparatus 5. . In addition, in order to obtain the direction of the object to be measured, the distance is measured in a plurality of directions by a distance sensor having a relatively sharp directivity. For example, a sensor of this type irradiates infrared light from a light emitting unit in a target direction and measures the amount of reflected light at a receiving unit to measure a distance, or transmits an ultrasonic wave of a certain frequency from a transmitter. In some cases, the reflected wave is received by a receiver and the distance is measured based on the phase difference.
【0013】図2の例では、比較的短い検出期間で高い
分解能を得るために複数のセンサを実装し、各距離セン
サを並列動作させて測定を行う。被測定物体の方向を得
るために各センサは各々少しづつ(10度間隔)発光・
発信/受光・受信の方向をずらして実装されている。ま
た、垂直方向データ(身長等)は必要としないため、発
光・発信/受光・受信の方向を水平面上にのみ展開して
実装している。センサ部の構成は、距離センサの他に例
えばCCDを用いた画像入力装置等も考えられる。この
場合は、画像入力装置から取り込まれた画像データが認
識判断装置に送られる。In the example shown in FIG. 2, a plurality of sensors are mounted in order to obtain a high resolution in a relatively short detection period, and the distance sensors are operated in parallel for measurement. In order to obtain the direction of the object to be measured, each sensor emits light little by little (10 degrees interval).
The transmission / reception / reception directions are shifted. Also, since vertical direction data (height etc.) is not required, the direction of light emission / transmission / reception / reception is developed and mounted only on a horizontal plane. As the configuration of the sensor unit, an image input device using a CCD, for example, may be considered in addition to the distance sensor. In this case, the image data captured from the image input device is sent to the recognition determination device.
【0014】認識判断装置3は、OA機器1に内蔵また
は外付けされ、センサ部2から送られてくるデータに基
づいて認識判断を行う。例えば、図2に示した例のよう
に、物体までの距離およびその方向データからは、静止
物体と応答対象とする移動物体の認識をしたり、応答対
象とする物体(人間)がOA機器を使用するかどうか
(もしくは使用が終了したかどうか)等の行動判断を行
う。また、画像入力装置から構成されるセンサ部を持
ち、画像データを使用する装置については、応答する対
象の物体(人間)の特徴を抽出し、抽出された特徴によ
り個人の特定をおこない、個人のID(例えば、名前、
番号、等)を生成し、生成された判断データを、サービ
ス提供装置へ送る。The recognition judging device 3 is built in or external to the OA device 1 and makes a judgment based on data sent from the sensor unit 2. For example, as shown in the example shown in FIG. 2, based on the distance to the object and its direction data, a stationary object and a moving object as a response target are recognized, or the response target object (human) recognizes the OA device. An action decision such as whether or not to use (or whether or not use has been completed) is made. For a device having a sensor unit composed of an image input device and using image data, the characteristics of an object (human) to be responded to are extracted, the individual is identified by the extracted characteristics, and the individual is identified. ID (for example, name,
Number, etc.), and sends the generated judgment data to the service providing apparatus.
【0015】サービス提供装置4は、OA機器1の各部
を駆動する機能を有し、各種自動応答によるサービスを
具現化する。例えば、OA機器1に近づく応答対象の物
体があり、その物体がOA機器を使用する旨の判断デー
タが送られてきた場合に、予熱モードを自動的に解除す
るとか、反対に使用終了の判断データが送られてきた場
合には、自動的に余熱モードに遷移するといったサービ
スがこれにあたる。また、個人のIDがデータとして送
られてくる構成の装置については、使用者毎に操作部の
最適化(キー・レイアウト変更、指示画面の切り替え、
等)等のより使用しやすい環境を提供する。このサービ
ス提供装置は、専用のハード・ウェアを用意しても良い
が、OA機器の中央演算装置によりソフト・ウェア的に
機能を代行することも可能である。The service providing device 4 has a function of driving each unit of the OA device 1 and implements a service by various automatic responses. For example, when there is a response target object approaching the OA device 1 and determination data indicating that the object uses the OA device is sent, the preheating mode is automatically released, or conversely, the use termination determination is made. A service that automatically transitions to the residual heat mode when data is sent corresponds to this. In the case of an apparatus having a configuration in which a personal ID is transmitted as data, the operation unit is optimized for each user (key layout change, switching of instruction screens,
Provide an environment that is easier to use. This service providing apparatus may be provided with dedicated hardware, but it is also possible to substitute functions as software by a central processing unit of the OA equipment.
【0016】認識判断装置 認識判断装置概略 図3に、認識判断装置の基本構成をブロック図で示し、
各部の動作を説明する。尚、自動応答システムが実装さ
れているOA機器は画像形成装置とし、認識判断装置に
データを送ってくるセンサ部の構成は、図2に示したよ
うに指向性の強い複数の距離センサを発光・受信/受光
・受信の方向を水平面上に展開して実装したものとして
以下の説明を行う。認識判断装置3は、センサ駆動部
7、パラメータ抽出部8、認識判断部9、後処理部1
0、制御部11、入出力管理部12、記憶装置13、デ
ータ線14、制御線15、外部I/F(インターフェイ
ス)線16より構成される。FIG. 3 is a block diagram showing a basic configuration of the recognition / judgment device.
The operation of each unit will be described. The OA device on which the automatic response system is mounted is an image forming apparatus, and the configuration of the sensor unit that sends data to the recognition / determination apparatus is such that a plurality of distance sensors having high directivity emit light as shown in FIG. The following description will be made assuming that the direction of reception / light reception / reception is expanded on a horizontal plane and mounted. The recognition determining device 3 includes a sensor driving unit 7, a parameter extracting unit 8, a recognition determining unit 9, and a post-processing unit 1.
0, a control unit 11, an input / output management unit 12, a storage device 13, a data line 14, a control line 15, and an external I / F (interface) line 16.
【0017】センサ駆動部7は、距離センサ6の駆動お
よび測定された距離データの受信をおこなう。制御部1
1からのサンプリング信号に基づき、各距離センサ6を
駆動し物体までの距離を計測する。しかる後、測定結果
データをパラメータ抽出部8へと送出する。パラメータ
抽出部8では、各物体までの距離データより応答対象と
する物体の認識および各種判断に必要となる特徴量パラ
メータを測定された距離データより抽出、計算する。生
成されたパラメータおよびその付加情報は、認識判断部
9へ送られると共に、適宜記憶装置13に書き込まれ、
必要に応じて他のブロックより読みだされる。The sensor driver 7 drives the distance sensor 6 and receives measured distance data. Control unit 1
Each distance sensor 6 is driven based on the sampling signal from 1 to measure the distance to the object. After that, the measurement result data is sent to the parameter extracting unit 8. The parameter extraction unit 8 extracts and calculates feature amount parameters required for recognition of an object to be a response target and various determinations from the distance data to each object from the measured distance data. The generated parameters and the additional information thereof are sent to the recognition determination unit 9 and written into the storage device 13 as appropriate.
Read from other blocks as needed.
【0018】認識判断部9は、制御部11からの要求信
号により応答対象の物体に関わる判断をおこなう。パラ
メータ抽出部8により生成されたパラメータを直接また
は記憶装置13を介して受け取り、例えば、応答対象の
物体が画像形成装置の使用者であるか否か(画像形成装
置を「使う」か「使わない」か)、画像形成装置の使用
を終了したか否か(「使用中」か「使い終った」か)、
等の判断を行う。The recognition determining section 9 makes a determination relating to the response target object based on a request signal from the control section 11. The parameters generated by the parameter extracting unit 8 are received directly or via the storage device 13 and, for example, whether the response target object is a user of the image forming apparatus (“use” or “do not use” the image forming apparatus) )), Whether the use of the image forming apparatus has been completed (“in use” or “completed”),
And so on.
【0019】後処理部10は、判断結果を取りまとめて
最終的に外部に出力する形式に整える。例えば、応答対
象とする物体が複数存在する場合の処理がこのブロック
でおこなわれる。制御部11は認識判断装置全体の制御
をおこなう。入出力管理部12を介して外部(画像形成
装置)と通信をおこない、また、各ブロックに制御信号
を送ることによりコントロールする。The post-processing unit 10 puts together the results of the determination and finally prepares the format for external output. For example, the processing when there are a plurality of objects to be responded is performed in this block. The control unit 11 controls the entire recognition determination device. Communication is performed with the outside (image forming apparatus) via the input / output management unit 12, and control is performed by sending a control signal to each block.
【0020】入出力管理部12は、外部I/F線16を
通して外部(画像形成装置)とのインターフェイスをつ
かさどる。また、外部との同期をとるためのバッファと
しても機能する。入出力される信号には、後処理部10
で生成されサービス提供装置に送られる判断データの他
に、認識判断装置と画像形成装置との間の各種リクエス
ト、タイミング信号、等の制御信号も含まれる。The input / output management unit 12 controls an interface with the outside (image forming apparatus) through the external I / F line 16. It also functions as a buffer for synchronizing with the outside. The post-processing unit 10 includes
In addition to the determination data generated in step (1) and sent to the service providing apparatus, control signals such as various requests and timing signals between the recognition determining apparatus and the image forming apparatus are also included.
【0021】記憶装置13は、各ブロックで生成された
ダーテを必要に応じて蓄えておくRAM、および、各ブ
ロックを動かすのに必要なプログラムおよびデータを蓄
えておくROMにより構成され、各ブロックによりデー
タの読み出し/書き込みがおこなわれる。データ線14
は各データの伝送に使用される。制御線15は制御信号
の伝送に使われる。外部I/F線16は、外部(画像形
成装置)とのインターフェイスのための制御信号および
データの伝送に使われる。The storage device 13 is composed of a RAM for storing the data generated in each block as necessary, and a ROM for storing programs and data necessary for operating each block. Data read / write is performed. Data line 14
Is used for transmission of each data. The control line 15 is used for transmitting a control signal. The external I / F line 16 is used for transmitting control signals and data for interfacing with the outside (image forming apparatus).
【0022】センサ駆動部 センサ駆動部7は、制御部11から制御線15を介して
周期T(Tは認識する応答対象とする物体の移動速度に
比べて十分に短い周期でなければいけない)で送られて
くるサンプリング信号に従って画像形成装置に実装され
ている距離センサ6を駆動する。各距離センサは同時
(並列)に駆動され、1サンプリング周期(時間間隔
T)に1回距離の測定をおこなう。測定データは、セン
サ駆動部7内でアナログ・データからデジタル・データ
へと変換され、どのセンサにより測定されたデータかを
識別できる方法(例えば、各データにセンサの識別番号
を付加する)によりパラメータ抽出部8へと送られる。Sensor Drive Unit The sensor drive unit 7 has a cycle T (T must be a cycle sufficiently shorter than the moving speed of the object to be recognized and responded) from the control unit 11 via the control line 15. The distance sensor 6 mounted on the image forming apparatus is driven according to the sent sampling signal. Each distance sensor is driven simultaneously (parallel) and measures the distance once in one sampling cycle (time interval T). The measured data is converted from analog data to digital data in the sensor driver 7 and the parameters are determined by a method capable of identifying which sensor has measured the data (for example, adding an identification number of the sensor to each data). It is sent to the extraction unit 8.
【0023】パラメータ抽出部 パラメータ抽出部8では、センサ駆動部7より送られて
きた距離データから認識に必要なパラメータを抽出す
る。尚、各距離センサは、図4に示すように、画像形成
装置5の中心を中心として10度間隔で…(ただ
し、10番目〜19番目については、〇10,〇11,
…〇19のように記す)の19方向について測定を行う
ように(ただし、測定を行う方向は、画像形成装置の測
面および正面方向のみとし、ここでは背面については考
えない)実装されており、時間間隔Tで同時に物体まで
の距離の測定を繰り返すものとする。図4中の各矢印は
センサの発光・発信/受光・受信方向を表す。Parameter Extraction Unit The parameter extraction unit 8 extracts parameters necessary for recognition from the distance data sent from the sensor driving unit 7. As shown in FIG. 4, the distance sensors are arranged at intervals of 10 degrees around the center of the image forming apparatus 5 (however, for the tenth to nineteenth, # 10, # 11,
The measurement is performed in 19 directions (note that it is described as $ 19) (however, the measurement direction is only the measurement surface and the front direction of the image forming apparatus, and the rear surface is not considered here). , The measurement of the distance to the object is repeated at the same time interval T. Each arrow in FIG. 4 indicates the light emission / transmission / light reception / reception direction of the sensor.
【0024】パラメータ抽出部は時間間隔Tで(測定を
行なう度に)以下の処理を行なう。 位置検出 (1)測定結果のストア いま、画像形成装置5が、図4に示すように、前方方向
および側方のうちの一方向に壁等の静止物体17がある
ような場所に設置されていたとし、距離センサによって
物体までの距離の測定が可能な最大距離をRmaxする。
この測定可能距離とは、距離センサ自体の測定可能距離
のほかに、各測定可能方向間の隙間(測定が行なわれな
い範囲)が応答対象とする物体(人間)の大きさに比べ
十分小さくなるような範囲である。図4の例では、19
の測定方向のうち、白抜き文字で示した方向に関して距
離センサの測定可能距離内に何らかの静止物体(この場
合は壁、以下障害物と記す)17がある。パラメータ抽
出部8は一回の測定毎に記憶装置(メモリ)13に距離
データをその測定方向(距離センサ番号)と共に蓄えて
おく。図4の場合について記憶装置13内に書き込まれ
る距離データの例を、図5に模式的に示す。ここで、図
5において、rdは方向dについての測定結果(物体ま
での距離)を表し、また、∞記号は物体が測定されなか
った(Rmax)よりも近くに物体が何もなかった)こと
を示している。パラメータ抽出部8は、時間間隔Tで測
定を行う度に、測定結果を記憶装置13内の所定の番地
に書き込む。The parameter extraction unit performs the following processing at time intervals T (every time measurement is performed). Position Detection (1) Store of Measurement Results As shown in FIG. 4, the image forming apparatus 5 is now installed in a place where there is a stationary object 17 such as a wall in one of a forward direction and a lateral direction. It is assumed that the maximum distance at which the distance to the object can be measured by the distance sensor is Rmax.
The measurable distance is, in addition to the measurable distance of the distance sensor itself, a gap between the measurable directions (a range where no measurement is performed) is sufficiently smaller than the size of an object (human) as a response target. It is in such a range. In the example of FIG.
Among the measurement directions, there is some stationary object (in this case, a wall, hereinafter referred to as an obstacle) 17 within the measurable distance of the distance sensor with respect to the direction indicated by the outlined characters. The parameter extractor 8 stores the distance data in the storage device (memory) 13 together with the measurement direction (distance sensor number) for each measurement. FIG. 5 schematically shows an example of distance data written in the storage device 13 in the case of FIG. Here, in FIG. 5, r d represents the measurement results for the direction d (distance to the object), also, ∞ symbol object was not anything closer than the object was not measured (Rmax)) It is shown that. The parameter extractor 8 writes the measurement result to a predetermined address in the storage device 13 every time the measurement is performed at the time interval T.
【0025】(2)環境情報の更新 距離センサの測定可能範囲内にあり、画像形成装置5に
能動的に働きかけない物体(=障害物:例えば、壁、
机、椅子、等)の位置情報を環境情報と呼ぶことにす
る。パラメータ抽出部8は、これらの物体と、画像形成
装置5に能動的に働きかける可能性のある物体(=動い
ている物体:例えば、人間、等。以下、対象物体と記
す)とを区別するために、記憶装置5内の環境情報を参
照する。環境情報は、概念的には図5に示した各方向に
ついての距離の表のような形式をしており、各方向につ
いてどの距離に障害物があるかを表している。(2) Update of Environmental Information Objects (= obstacles: for example, walls, etc.) that are within the measurable range of the distance sensor and do not actively act on the image forming apparatus 5
The position information of a desk, a chair, etc.) is called environmental information. The parameter extracting unit 8 distinguishes these objects from objects that may actively act on the image forming apparatus 5 (= moving objects: for example, humans, etc .; hereinafter, referred to as target objects). Next, the environment information in the storage device 5 is referred to. The environment information is conceptually in the form of a table of distances in each direction shown in FIG. 5, and indicates at which distance an obstacle is present in each direction.
【0026】環境情報は、画像形成装置5に対象物体が
距離センサの測定可能範囲で活動する期間よりも十分長
い期間(例えば、電源投入以降後)に各方向について測
定された最大距離をそれぞれ選択することにより作成さ
れる。上記期間内に測定された方向dについての最大距
離をrdmaxとすると、環境情報は概念的に図6にように
示される。時間間隔Tで測定を行う毎に、各方向につい
て測定された距離rdと環境情報rdmaxとが比較さ
れ、もし、rd>rdmaxの関係が成り立てば、環境情報
をrdで置き換える。このようにして、十分長い時間が
経過した後、環境情報が作られる。例えば、図4のよう
な環境に設置された画像形成装置で、十分に長い時間
(距離センサの測定範囲内に人間等の動く物体が存在し
ない時期を経れば十分である)が経過した後の環境情報
は図7のようになる。ただし、rdは図4の場合におけ
る方向dについての障害物までの距離を表す。The environmental information selects the maximum distance measured in each direction during a period (for example, after power-on) sufficiently longer than a period in which the target object is active in the measurable range of the distance sensor in the image forming apparatus 5. It is created by doing. When the maximum distance for the measured direction d within the period and r d max, environmental information is shown conceptually as in FIG. Each making measurements at time intervals T, and the distance rd is measured for each direction and the environmental information rdmax are compared, If Naritate the relationship r d> r d max, replacing environmental information r d. In this way, after a sufficiently long time has passed, the environmental information is created. For example, after a sufficiently long time (it is sufficient if a moving object such as a human does not exist within the measurement range of the distance sensor) in the image forming apparatus installed in the environment as shown in FIG. The environmental information is as shown in FIG. However, r d is the distance to the obstacle in the direction d in the case of FIG.
【0027】(3)物体検出 環境情報の更新をおこなった後、パラメータ抽出部8は
以下の方法で物体検出を行う。例えば、時間t0におけ
る状態が図8に示すように、の方向から対象物体18
が近づいて来る場合を考える。(1)の手順で記憶装置
内に書き込まれた図8の場合についての距離データを図
9に示す。ただし、rdtは時刻tにおける方向dについ
ての物体までの距離とする。パラメータ抽出部8はこの
距離データと、(2)の手順により作成され記憶装置5
内に蓄えられている環境情報とを比較することにより対
象物体を検出する。具体的には、例えば、各方向につい
て環境情報に書かれている距離と距離データとの差をと
る。図9の場合について環境情報との距離データとの差
をとった結果を図10に示す。図10によると、方向
について距離データと環境情報との差が生じており、こ
のこと(環境≠距離データ)によりの方向に対象物体
18が認識される。いま、画像形成装置の中心を原点と
し、〇10の方向を角度θ=0とするような極座標系を
考えると、図8の例での対象物体18の位置は
(r5t0,50°)で表される。物体が認識されると、
その位置(距離、および方向)が記憶装置13内の所定
の位置に書き込まれる。(3) Object Detection After updating the environment information, the parameter extraction unit 8 performs object detection by the following method. For example, the state at time t0 is as shown in FIG.
Consider when approaching. FIG. 9 shows the distance data for the case of FIG. 8 written in the storage device in the procedure of (1). Here, r dt is the distance to the object in the direction d at time t. The parameter extracting unit 8 stores the distance data and the storage device 5 created by the procedure of (2).
The target object is detected by comparing it with the environmental information stored therein. Specifically, for example, the difference between the distance written in the environment information and the distance data is obtained for each direction. FIG. 10 shows a result obtained by taking a difference between the environmental information and the distance data in the case of FIG. According to FIG. 10, there is a difference between the distance data and the environment information in the direction, and the target object 18 is recognized in the direction based on this (environment / distance data). Now, considering a polar coordinate system in which the origin of the image forming apparatus is the origin and the direction of 〇10 is the angle θ = 0, the position of the target object 18 in the example of FIG. 8 is (r 5t0 , 50 °). expressed. When the object is recognized,
The position (distance and direction) is written to a predetermined position in the storage device 13.
【0028】ところで、移動物体18が画像形成装置に
近づくにつれて、複数の距離センサに同一の物体が測定
されることがあるが、この場合は以下のような方法によ
り位置を算出する。図11の例では同一の物体がおよ
びの方向でセンサに測定されており、上記手段による
と2つの位置(r6,θ6(=40°))および(r7,
θ7(=30°))が検出される。そこで、2つ以上の
位置が検出された場合には、その各々の間の距離を計算
し、その全ての距離が予め定められている値Lmin(た
だし、Lminは応答対象とする物体(=人間)の大きさ
から決定される)よりも小さく、かつ、検出方向がとな
りあっているような各点は、一つの位置としてまとめら
れる。2点の場合にはその中点の位置にまとめられ、3
点以上の場合にはその重心の位置にまとめられ、1つの
位置を生成する。図11の例では検出される2点間の距
離lは、As the moving object 18 approaches the image forming apparatus, the same object may be measured by a plurality of distance sensors. In this case, the position is calculated by the following method. In the example of FIG. 11, the same object is measured by the sensor in and directions. According to the above-mentioned means, two positions (r 6 , θ 6 (= 40 °)) and (r 7 ,
θ 7 (= 30 °)) is detected. Therefore, when two or more positions are detected, the distance between each of them is calculated, and all the distances are set to a predetermined value Lmin (where Lmin is a response target object (= human) Points that are smaller than) determined from the size of) and whose detection directions are adjacent to each other are collected as one position. In the case of two points, they are put together at the position of the midpoint and 3
If the number of points is equal to or more than the point, the positions are combined at the position of the center of gravity to generate one position. In the example of FIG. 11, the distance l between two points detected is
【0029】[0029]
【数1】 (Equation 1)
【0030】であり、l<Lminの時には2点は一つに
まとめられ、新たにその中点が位置として採用される。
また、3点以上の場合には、図12に示すように、l1
<Lminかつl2<Lminかつl3<Lminの時に限り3
点はまとめられ、3点の重心Gが対象物体の位置として
採用され記憶装置に書き込まれる。When l <Lmin, the two points are combined into one and the middle point is newly adopted as the position.
In the case of three or more points, as shown in FIG.
3 only when <Lmin and l2 <Lmin and l3 <Lmin
The points are collected, and the three centers of gravity G are adopted as the positions of the target object and written to the storage device.
【0031】物体追跡 (1)一物体の追跡 一度対象物体が距離センサの測定可能範囲内で認識され
ると、対象物体の追跡が行なわれる。例えば、図8の例
に示した対象物体18が時刻t1(=t0+T)に図1
3に示すように移動したとすると、前述した方法により
物体位置(r6t1,40°)が検出される。ここで、も
しそのl測定間隔時間前(時間T前)の対象物体の位置
情報が記憶装置13内にストアされていた場合、移動速
度vおよび移動方向φの計算が行なわれる。図13の例
に示した対象物体18については、既に図8の例で計算
された位置情報が記憶装置13内にストアされているの
で、移動速度vおよび移動方向φの計算が行なわれる。Object Tracking (1) Tracking One Object Once the target object is recognized within the measurable range of the distance sensor, the target object is tracked. For example, at time t1 (= t0 + T), the target object 18 shown in the example of FIG.
Assuming that the object has moved as shown in FIG. 3, the object position (r 6t1 , 40 °) is detected by the above-described method. Here, if the position information of the target object is stored in the storage device 13 one measurement interval time before (time T before), the moving speed v and the moving direction φ are calculated. For the target object 18 shown in the example of FIG. 13, since the position information calculated in the example of FIG. 8 is already stored in the storage device 13, the calculation of the moving speed v and the moving direction φ is performed.
【0032】以下に図8および図13を例にとり、その
計算方法を説明する。時刻t0からt1の間の対象物体
18の移動距離をlt1、平均速度をvt1、座標原点(画
像形成装置の中心)と時刻t0における対象物体18の
位置とを結ぶ線と、時刻t0における対象物体18の位
置と時刻t1における対象物体18の位置とを結ぶ線と
のなす角(移動方向)をφt1と定義すると、各パラメー
タの表す量は図14に示すようになる。図14におい
て、lt1は、The calculation method will be described below with reference to FIGS. 8 and 13. The movement distance of the target object 18 between time t0 and t1 is l t1 , the average speed is v t1 , a line connecting the coordinate origin (center of the image forming apparatus) and the position of the target object 18 at time t0, and If the angle (moving direction) between the position of the target object 18 and the line connecting the position of the target object 18 at time t1 is defined as φt1 , the amounts represented by the respective parameters are as shown in FIG. In FIG. 14, it1 is
【0033】[0033]
【数2】 (Equation 2)
【0034】となる。式3,式5,式6によって計算さ
れた移動速度v、移動方向φは、先に計算された位置
(r,θ)とともに記憶装置13に書き込まれる。以上
のような操作を時間間隔tごとに繰り返すことにより、
記憶装置13内には位置情報r,θ,およびもしその1
回前に測定した位置情報があれば、移動速度v、移動方
向φが時間間隔tごと物体の軌跡情報として順次蓄えら
れていく。物体18の軌跡情報は、記憶装置13内では
リスト、またはリングバッファ等のデータ形式で蓄えら
れているが、概念的には表のようなものと考えてさしつ
かえない。図13の時間T後(=t2)の対象物体18
の移動の様子を図15に、そのさらに時間T後(=t
3)の物体の移動の様子を図16に、そして物体が時刻
t0からt3の間に図8,図13,図15,図16で示
したように移動した場合に得られる軌跡情報の概念図を
図17に、それぞれ示す。## EQU1 ## The moving speed v and the moving direction φ calculated by Expressions 3, 5, and 6 are written in the storage device 13 together with the position (r, θ) calculated previously. By repeating the above operation at every time interval t,
In the storage device 13, the position information r, θ, and if
If there is position information measured before the current time, the moving speed v and the moving direction φ are sequentially stored as the trajectory information of the object at each time interval t. The trajectory information of the object 18 is stored in the storage device 13 in a data format such as a list or a ring buffer. However, the trajectory information may be conceptually regarded as a table. Target object 18 after time T (= t2) in FIG.
FIG. 15 shows the state of the movement of FIG.
FIG. 16 shows the state of the movement of the object 3), and a conceptual diagram of the trajectory information obtained when the object moves as shown in FIGS. 8, 13, 15, and 16 between times t0 and t3. Are shown in FIG.
【0035】(2)複数物体の追跡 距離センサ6の測定範囲内に複数の対象物体が存在する
場合には、記憶装置内に対象物体毎に複数の軌跡情報を
生成し追跡をおこなう。例えば、図18に示すように対
象物体Aおよび対象物体Bの2つの対象物体が存在して
いる場合を考える。記憶装置内には対象物体Aおよび対
象物体Bについて2つの軌跡情報が生成される。図18
の状態では、対象物体Aの位置として(r6,θ6(=4
0°))、対象物体Bの位置として(r12,θ12(=−
20°))が検出され、各々の軌跡情報が書き込まれて
いるものとする。図18の状態から1サンプリング周期
(時間間隔T)後の状態を図19に示す。物体検出によ
り位置1(r7,θ7(=30°))および位置2
(r11,θ11(=−10°))の2つの位置が検出され
る。可能性としては、図20に示すように、対象物体A
が位置1に、対象物体Bが位置2それぞれ移動した(場
合A)か、または対象物体Aが位置2に、対象物体Bが
位置1にそれぞれ移動した(場合B)という2通りが考
えられるが、以下のような方法でそれぞれの位置をどち
らの軌跡情報に書き込むかを決定する。(2) Tracking of a plurality of objects When a plurality of target objects exist within the measurement range of the distance sensor 6, a plurality of trajectory information is generated for each target object in the storage device and tracking is performed. For example, consider a case where two target objects, a target object A and a target object B, exist as shown in FIG. Two pieces of trajectory information are generated for the target object A and the target object B in the storage device. FIG.
In the state of (1), the position of the target object A is (r 6 , θ 6 (= 4
0 °)), and the position of the target object B is (r 12 , θ 12 (= −
20 °)) is detected, and the respective trajectory information is written. FIG. 19 shows a state one sampling cycle (time interval T) after the state of FIG. Position 1 (r 7 , θ 7 (= 30 °)) and position 2 by object detection
Two positions of (r 11 , θ 11 (= −10 °)) are detected. As a possibility, as shown in FIG.
There are two cases in which the target object B has moved to the position 1 and the target object B has moved to the position 2 (case A), or the target object A has moved to the position 2 and the target object B has moved to the position 1 (case B). The following method is used to determine which trajectory information each position is to be written into.
【0036】上記2つの場合についてそれぞれ移動方向
φおよび速度vを式5および式6により計算する。場合
Aについて計算された対象物体Aの移動方向をφA2、移
動速度をvA2、対象物体Bの移動方向をφB4、移動速度
をvB4、また、場合Bについて計算された対象物体Aの
移動方向をφAb、移動速度をvAb、対象物体Bの移動方
向をφBb、移動速度をvBbとする。また、1サンプリン
グ周期(時間間隔T)前の状態(図18の状態における
対象物体Aの移動方向をφApre、移動速度をvApre、対
象物体Bの移動方向をφBpreとすると、対象物体Aの移
動方向の変化量δφA、移動速度の変化量δvA、対象物
体Bの移動方向の変化量δφB、移動速度の変化量をδ
vBは、For the above two cases, the moving direction φ and the velocity v are calculated by equations 5 and 6, respectively. The moving direction of the target object A calculated for the case A is φ A2 , the moving speed is v A2 , the moving direction of the target object B is φ B4 , the moving speed is v B4 , and the target object A calculated for the case B is The moving direction is φ Ab , the moving speed is v Ab , the moving direction of the target object B is φ Bb , and the moving speed is v Bb . Further, one sampling period (time interval T) previous state (the moving direction of the object A in the state of FIG. 18 phi Apre, the moving velocity v Apre, when the moving direction of the target object B and phi BPRE, the object A movement direction variation .delta..phi a, the change in the moving speed amount .delta.v a, the movement direction variation .delta..phi B of the target object B, and the amount of change in the moving speed δ of
v B is
【0037】[0037]
【数3】 (Equation 3)
【0038】と表される。ここで、対象物体iに関する
変化量eiを以下の式9により定義し、さらに場合nに
ついての総変化量Enを以下の式10により定義する。Is represented by Here, defined by Equation 9 below variation e i about the target object i, further case is defined by equation 10 below the total variation En for n.
【0039】[0039]
【数4】 (Equation 4)
【0040】但し、αおよびβは、移動方向の変化量δ
φiおよび移動速度の変化量δviにそれぞれ重み付けを
するための定数である。対象物体と検出位置との組み合
わせには、総変化量の最も少ない場合についての対象物
体と検出位置との組み合わせを採用するものとする。場
合Aおよび場合Bの総変化量Ea,Ebは、Where α and β are the changes δ in the moving direction.
It is a constant for weighting the change amount δv i of φ i and the moving speed. As the combination of the target object and the detection position, a combination of the target object and the detection position in the case where the total change amount is the smallest is adopted. The total changes E a and E b in case A and case B are
【0041】[0041]
【数5】 (Equation 5)
【0042】となり、Ea<Ebとなることより場合Aに
ついての対象物体と検出位置との組み合わせを採用し、
対象物体Aの軌跡情報には位置1(r7,θ7(=30
°))、移動方向φAa、移動速度vAaが、また、対象物体
Bの軌跡情報には位置2(r11,θ11(=−10°))、移
動方向φBa、移動速度vBaがそれぞれ書き込まれる。When E a <E b , a combination of the target object and the detection position for case A is adopted,
The trajectory information of the target object A includes position 1 (r 7 , θ 7 (= 30
°)), the moving direction φ Aa and the moving speed v Aa , and the trajectory information of the target object B includes position 2 (r 11 , θ 11 (= −10 °)), the moving direction φ Ba and the moving speed v Ba Are written respectively.
【0043】3つ以上の対象物体が距離センサの測定範
囲内に存在する場合にも同様に可能性のある全ての場合
について、対象物体と検出位置との組み合わせを作り、
各場合について総変化量Eを計算することにより軌跡情
報に書き込むデータを決定する。総変化量Eが計算でき
ない対象物体が含まれる場合には、例えば、移動距離1
が最小になるように(1サンプリング周期(時間間隔
T)前と比べて、近い物体の検出位置同士を対応させ
て)対象物体と検出位置との対応をとるなどの処理をお
こなう。Similarly, in all cases where three or more target objects are present within the range of measurement of the distance sensor, a combination of the target object and the detection position is created.
The data to be written into the trajectory information is determined by calculating the total change amount E in each case. When a target object for which the total variation E cannot be calculated is included, for example, the moving distance 1
Is performed (correspondence between detected positions of objects that are closer to each other compared to one sampling period (time interval T) before) so as to minimize the target object and the detected position.
【0044】図21の対象物体Aおよび対象物体Bの例
のように複数の対象物体が画像形成装置から見て重なり
あった(同一のセンサの測定方向上に存在する)場合、
検出される対象物体の数が一時的に減少する。このよう
な場合には、以下のようにして追跡をおこない、軌跡情
報を生成する。図21の例では、の方向に物体を検出
し、位置(r9,θ9(=10°))が得られる。ここ
で、1サンプリング周期(時間間隔T)前の対象物体A
および対象物体Bの位置をそれぞれ(rApre,θApre)
および(rBpre,θBpre)とし、また、図22に示すよ
うに、検出された位置に対象物体Aおよび対象物体Bが
それぞれ到達したと考えたときの移動方向および移動速
度を、φA,vAおよびφB,vBとすると、式5および式
6より、When a plurality of target objects overlap as seen from the image forming apparatus (exist in the same sensor measurement direction) as in the example of target object A and target object B in FIG.
The number of detected target objects temporarily decreases. In such a case, tracking is performed as follows, and trajectory information is generated. In the example of FIG. 21, the object is detected in the direction, and the position (r 9 , θ 9 (= 10 °)) is obtained. Here, the target object A before one sampling cycle (time interval T)
And the position of the target object B, respectively (r Apre , θ Apre )
And (r Bpre , θ Bpre ), and as shown in FIG. 22, the moving direction and moving speed when the target object A and the target object B are considered to have reached the detected positions are φ A , Assuming v A and φ B , v B , from equations 5 and 6,
【0045】[0045]
【数6】 (Equation 6)
【0046】となる。また、1サンプリング周期(時間
間隔T)前の対象物体Aおよび対象物体Bの移動方向お
よび移動速度を、φApre,vApreおよびφBpre,vBpre
とすると、それぞれの変化量eAおよびeBは式10よ
り、Is as follows. Further, the moving directions and moving speeds of the target object A and the target object B one sampling cycle (time interval T) are set as φ Apre , v Apre and φ Bpre , v Bpre
Then, the respective amounts of change e A and e B are given by Equation 10,
【0047】[0047]
【数7】 (Equation 7)
【0048】となる。検出された位置を、変化量の少な
い方の対象物体の位置とするものとすると、図22の例
の場合には、eB<eAより、検出された位置は対象物体
Bの軌跡情報に書き込まれる。この場合、位置の確定し
ない対象物体Aに関しては、軌跡情報の書き込みが保留
され、位置が確定した時点に、時刻を遡って軌跡情報が
書き込まれる。例えば、1サンプリング周期(時間間隔
T)後に対象物体Aの位置が(rApost,θApost)に確
定したとすると、2点(rApre,θApre)と
(rApost,θApost)との中点が保留されていた位置
(rA,θA)に割り当てられる。以下、同様にnサンプ
リング周期(時間間隔nT)後に位置が確定した場合に
は、2点をn個に内分する点がそれぞれ保留されていた
位置に割り当てられ軌跡情報に書き込まれる。Is as follows. Assuming that the detected position is the position of the target object having the smaller change amount, in the example of FIG. 22, the detected position is included in the trajectory information of the target object B from e B <e A. Written. In this case, the writing of the trajectory information is suspended for the target object A whose position is not determined, and the trajectory information is written retroactively at the time when the position is determined. For example, assuming that the position of the target object A is determined to be (r Apost , θ Apost ) after one sampling cycle (time interval T), two points (r Apre , θ Apre ) and (r Apost , θ Apost ) The point is assigned to the reserved position (r A , θ A ). Hereinafter, similarly, when the position is determined after n sampling periods (time interval nT), points that internally divide the two points into n points are respectively assigned to the reserved positions and written into the trajectory information.
【0049】3個以上の対象物体が距離センサの測定範
囲内に存在し、対象物体が画像形成装置から見て重なり
あった(同一のセンサの測定方向上に存在する)場合に
も、同様にして各対象物体について変化量eを計算しそ
れらを比較することにより対象物体と検出位置との対応
をとる。The same applies to the case where three or more target objects exist within the measurement range of the distance sensor, and the target objects overlap when viewed from the image forming apparatus (exist in the same sensor measurement direction). Then, a change amount e is calculated for each target object, and the target object and the detected position are correlated by comparing them.
【0050】認識判断トリガの生成 近づいてくる対象物体17までの距離rが、ある値Lmi
n以下になると、パラメータ抽出部8は対象物体17に
関する距離判断を行うため制御部11に対して認識判断
トリガを送る。複数の対象物体が測定範囲内に存在する
場合には、対象物体のうちどれかまでの距離rがある値
Lmin以下になる毎にこの動作が動こる。認識判断トリ
ガは制御部11で認識判断要求信号に変換され、認識判
断部9に送られる。同様に、画像形成装置を使用してい
る対象物体が遠ざかる際に、対象物体までの距離rが、
ある値Lmin以上になると、パラメータ抽出部8は対象
物体に関する認識判断を行うために制御部11に対して
認識判断トリガを送る。複数の対象物体が測定範囲内に
存在する場合も近づく場合と同様である。図23に判断
認識トリガ生成の様子を示す。Generation of Recognition Judgment Trigger The distance r to the approaching target object 17 is a certain value Lmi
If n or less, the parameter extraction unit 8 sends a recognition determination trigger to the control unit 11 to make a distance determination on the target object 17. When a plurality of target objects exist within the measurement range, this operation is performed every time the distance r to any one of the target objects becomes equal to or less than a certain value Lmin. The recognition determination trigger is converted into a recognition determination request signal by the control unit 11 and sent to the recognition determination unit 9. Similarly, when the target object using the image forming apparatus moves away, the distance r to the target object becomes
When the value exceeds a certain value Lmin, the parameter extracting unit 8 sends a recognition determination trigger to the control unit 11 in order to perform recognition determination on the target object. The case where a plurality of target objects exist within the measurement range is the same as the case where they approach. FIG. 23 shows how a judgment recognition trigger is generated.
【0051】Lminの値は、普通は認識判断装置が認識
判断結果(=例えば、対象物体が画像形成装置に作用す
るか否か)をサービス提供装置に出力しなければならな
い距離に設定される。この距離は、認識判断装置からの
出力結果によってもたらされるサービスの種類およびサ
ービスにかかる時間、対象物体の移動速度、等によって
適宜決定される。Lmaxの値は、距離センサの測定最大
距離(図4のRmax)以内の距離に適宜設定される。認
識判断トリガを出力した後、認識判断を行う必要のある
対象物体の軌跡情報に関するデータ(軌跡情報が格納さ
れている記憶装置内のアドレスや、軌跡データのサイ
ズ、対象物体が近づいてきているのか遠ざかっているの
か、等、認識判断部で軌跡情報のアクセスの際に必要と
されるデータ)を認識判断部9へ送る。The value of Lmin is usually set to a distance at which the recognition determination device must output a recognition determination result (for example, whether or not the target object acts on the image forming apparatus) to the service providing apparatus. This distance is appropriately determined by the type of service provided by the output result from the recognition determination device, the time required for the service, the moving speed of the target object, and the like. The value of Lmax is appropriately set to a distance within the maximum measurement distance (Rmax in FIG. 4) of the distance sensor. After outputting the recognition determination trigger, data relating to the trajectory information of the target object for which the recognition determination needs to be performed (the address in the storage device where the trajectory information is stored, the size of the trajectory data, whether the target object is approaching or not) The recognition determination section 9 sends data required for access to the trajectory information, such as whether the user is moving away, to the recognition determination section 9.
【0052】認識判断部 認識判断部9では、制御部11からの要求により応答対
象の物体に関わる判断をおこなう。認識判断要求信号を
制御部11から受け取った後、パラメータ抽出部8より
認識判断を行う必要のある対象物体の軌跡情報に関する
データ(軌跡情報が格納されている記憶装置13内のア
ドレスや、軌跡データのサイズ、対象物体が近づいてき
ているのか遠ざかっているのか、等、軌跡情報のアクセ
スに必要とされるデータ)をパラメータ抽出部8より受
け取る。しかる後、記憶装置13内の認識判断を行う必
要のある対象物体の軌跡情報にアクセスし所定の処理を
おこなうことによって、例えば、対象物体が近づいてく
る場合には画像形成装置の使用者であるか否か(画像形
成装置を「使う」か「使わない」か)、遠ざかっていく
場合には画像形成装置の使用を終了したか否か(「使用
中」か「使い終わったか」か)、等の判断を行い、その
結果を後処理部10へ出力する。以下に認識判断の処理
のうち、対象物体が近づいてくる場合について画像形成
装置を「使う」か「使わない」かの判断をおこなうため
の処理の幾つかの例を説明する。Recognition judging section The recognition judging section 9 makes a judgment relating to the response target object in response to a request from the control section 11. After receiving the recognition determination request signal from the control unit 11, data relating to the trajectory information of the target object that needs to be recognized and determined by the parameter extraction unit 8 (the address in the storage device 13 where the trajectory information is stored, the trajectory data From the parameter extraction unit 8, such as the size of the target object, whether the target object is approaching or moving away, etc. Thereafter, by accessing the trajectory information of the target object in the storage device 13 which needs to perform the recognition determination and performing a predetermined process, for example, when the target object approaches, the user is the user of the image forming apparatus. ("Use" or "do not use" the image forming apparatus), and if it goes away, whether the use of the image forming apparatus has been completed ("in use" or "has been used"), And outputs the result to the post-processing unit 10. In the following, some examples of processing for determining whether to use the image forming apparatus or not to use the image forming apparatus when the target object approaches in the recognition determination processing will be described.
【0053】前処理 対象物体に関する認識判断のために、認識判断部9では
軌跡情報から幾つかのパラメータの生成を行う。距離セ
ンサの測定範囲内に基準とする距離を1つ以上幾つか設
ける。例えば、図24のように画像形成装置の中心から
距離L0,L1,L2,…,L(n−1)のn個の基準
距離(但し、L0<L1<L2<…L(n−1)の関係
が成り立つものとする)を設けるとする。ここで、画像
形成装置から最も近い距離L0の基準距離は、Lmin
(パラメータ抽出部により認識判断トリガが生成される
距離)に等しいものとする。基準距離Lmにおける軌跡
情報を、時刻tLm、距離rLm(=Lm)、方向θLm、移
動速度vLm、移動方向φLmとし、また、距離L(m−
1)とLmとの間の移動速度の変化量をΔvLm(=vLm
−vL(m-1))、移動方向の変化量をΔLm(=φLm−φL
(m-1))とし、各距離についてパラメータを生成する
(但し、距離L0における移動速度の変化量ΔvL0と移
動方向の変化量Δφ0とを除く)。各距離について生成
されたパラメータを概念的に図25に示す。生成された
パラメータは、さらに次の段階で利用可能なように処理
をされる。例えば、値範囲によりグループ分けされその
グループ番号に変換されたり、ある値範囲についての正
規化処理等がおこなわれる。Preprocessing In order to determine the recognition of the target object, the recognition determining unit 9 generates some parameters from the trajectory information. One or more reference distances are provided in the measurement range of the distance sensor. For example, as shown in FIG. 24, n reference distances L0, L1, L2,..., L (n-1) from the center of the image forming apparatus (where L0 <L1 <L2 <... L (n-1)) Is established). Here, the reference distance of the closest distance L0 from the image forming apparatus is Lmin
(Distance at which the recognition determination trigger is generated by the parameter extraction unit). The trajectory information at the reference distance Lm is time tLm , distance rLm (= Lm), direction θLm , moving speed vLm , moving direction φLm, and the distance L (m−
The change amount of the moving speed between 1) and Lm is represented by Δv Lm (= v Lm
−v L ( m−1 )), and the amount of change in the moving direction is Δ Lm (= φ Lm −φ L
( m-1 )), and a parameter is generated for each distance (however, the change amount Δv L0 of the moving speed and the change amount Δφ 0 of the moving direction at the distance L0 are excluded). FIG. 25 conceptually shows the parameters generated for each distance. The generated parameters are further processed so that they can be used in the next stage. For example, the data is grouped according to a value range and converted into the group number, or a normalization process for a certain value range is performed.
【0054】認識判断処理 前処理段階で生成されたパラメータを使い認識判断をお
こなう方法のうち、ニューラル・ネットワークを使う方
法について以下に述べる。例えば、対象物体が画像形成
装置を「使う」か「使わない」かを判断するための以下
のようなニューラル・ネットワーク21を用意する。図
26に入力層22、中間層23、出力層24の3層から
構成される階層型ニューラル・ネットワークによる認識
判断用ニューラル・ネットワーク21の模式図を示す。
入力層22は入力する各パラメータに対応しており、出
力層24は各判断(この場合は「使う」および「使わな
い」)に対応している。ここで使われるニューラル・ネ
ットワークは、予め実験等により収集された特徴的なパ
ターンを教師データとして、所定の方法(例えば、バッ
クプロパゲーション)で学習しておく。つまり、各パラ
メータを入力とし、その時対象としている物体が画像形
成装置を「使う」か「使わない」かを学習させておくも
のとする。Recognition Judgment Processing Among the methods for performing recognition judgment using the parameters generated in the preprocessing stage, the method using a neural network will be described below. For example, the following neural network 21 is prepared for determining whether the target object uses or does not use the image forming apparatus. FIG. 26 is a schematic diagram of a neural network 21 for recognition determination by a hierarchical neural network including three layers, an input layer 22, a middle layer 23, and an output layer 24.
The input layer 22 corresponds to each parameter to be input, and the output layer 24 corresponds to each determination (in this case, “use” and “do not use”). The neural network used here learns by a predetermined method (for example, back propagation) using characteristic patterns collected in advance through experiments and the like as teacher data. That is, each parameter is input, and it is learned whether the target object "uses" or "does not use" the image forming apparatus at that time.
【0055】認識判断処理の際は、制御部からの制御信
号により軌跡情報より生成されたパラメータが認識判断
用のニューラル・ネットワークに入力され、その際のニ
ューラル・ネットワークの出力層24のうち、最も強く
発火した(最も出力値の大きい)ユニットに対応する結
果を認識判断結果として後処理部10へと出力する。同
様の仕様で、対象物体が画像形成装置を「使用中」か
「使い終わった」かを判断するためのニューラル・ネッ
トワークを用意し、認識判断結果を後処理部10へと出
力する。At the time of the recognition judgment processing, the parameters generated from the trajectory information by the control signal from the control unit are input to the neural network for recognition judgment, and among the output layers 24 of the neural network at that time. The result corresponding to the unit that fired strongly (having the largest output value) is output to the post-processing unit 10 as a recognition determination result. With the same specifications, a neural network for determining whether the target object is “in use” or “finished” of the image forming apparatus is prepared, and the recognition determination result is output to the post-processing unit 10.
【0056】後処理部 後処理部10では認識判断結果を取りまとめて最終的に
外部に出力する形式に整えた後、必要ならば制御部11
に状態変化を通知した後、入出力管理部12へ認識判断
データを送る。例えば、図27に示すように距離センサ
の測定範囲に対象物体が複数存在する場合について考え
る。(a)の例の場合には、対象物体Aがすでに画像形
成装置を使用中である所に、新たに画像形成装置を使用
しようとしている対象物体Bがやってくる。この場合、
対象物体Bが画像形成装置から距離Lminにさしかかっ
たところで認識判断トリガが生成され、認識判断部9に
より対象物体Bが画像形成装置を「使う」と判断される
が、この判断はマスクされるか保留されないと、対象物
体Aが使用中にもかかわらず対象物体Bに対するサービ
スが開始されるといった不具合が生ずる。逆に(b)の
例の場合のように、対象物体Bが画像形成装置を使用中
である状態で、前の使用者である対象物体Aが立ち去っ
たとする。この場合、対象物体Aが画像形成装置から距
離Lmaxにさしかかったところで認識判断トリガが生成
され、認識判断部9により対象物体Aが画像形成装置を
「使い終わった」と判断されるが、この判断もマスクさ
れるか保留されないと、対象物体Bが使用中にもかかわ
らずサービスが開始される(余熱モードに遷移したりオ
ートリセットがかかったり等)といった不具合が生ず
る。後処理部10では必要ならば制御部11を通して外
部(画像形成装置)の情報(例えば、コピー中であるか
否か、等)を取り込み、複数の対象物体に関する判断を
マスクしたり保留したりすることにより状態を変化させ
る必要が生じた場合にのみ、入出力管理部12へ認識判
断データを送る。Post-Processing Unit The post-processing unit 10 collects the results of the recognition judgment and arranges the final output to the outside.
, And sends recognition determination data to the input / output management unit 12. For example, consider a case where a plurality of target objects exist in the measurement range of the distance sensor as shown in FIG. In the case of the example (a), a target object B who is going to newly use the image forming apparatus comes to a place where the target object A is already using the image forming apparatus. in this case,
When the target object B approaches the distance Lmin from the image forming apparatus, a recognition determination trigger is generated, and the recognition determination unit 9 determines that the target object B "uses" the image forming apparatus. If not suspended, a problem occurs that the service for the target object B is started even though the target object A is in use. Conversely, as in the case of the example (b), it is assumed that the target object A as the previous user has left while the target object B is using the image forming apparatus. In this case, when the target object A approaches the distance Lmax from the image forming apparatus, a recognition determination trigger is generated, and the recognition determination unit 9 determines that the target object A has used the image forming apparatus. If the target object B is not masked or held, a problem occurs that the service is started even though the target object B is in use (transition to the residual heat mode, automatic reset, etc.). The post-processing unit 10 fetches external (image forming apparatus) information (for example, whether or not copying is in progress) through the control unit 11 if necessary, and masks or suspends determinations regarding a plurality of target objects. Only when it is necessary to change the state, the recognition determination data is sent to the input / output management unit 12.
【0057】制御部 制御部11は認識判断装置全体の制御をおこなう。おも
な制御内容には次のようなものがある。Control Unit The control unit 11 controls the entire recognition judging device. The main control contents are as follows.
【0058】(1)各ブロックのタイミング処理 認識判断装置内の各ブロック(センサ駆動部7、パラメ
ータ抽出部8、認識判断部9、後処理部10、入出力管
理部12)間でのデータの受渡しのための同期処理をお
こなう。例えば、あるブロックAからあるブロックBに
対してデータが転送される場合、まず、ブロックAから
制御部11に対してデータ送信要求が出される。制御部
11はブロックBに対してブロックAからのデータ受信
要求信号を送り、ブロックBの受信準備が完了したこと
を確かめた後、ブロックAにデータ送信要求信号が送ら
れる。ブロックAでは制御部11からのデータ送信要求
信号を受け取った後、データの転送を開始する。(1) Timing Processing of Each Block Data of each block (sensor driving unit 7, parameter extracting unit 8, recognition determining unit 9, post-processing unit 10, input / output managing unit 12) in the recognition determining unit is Performs synchronous processing for delivery. For example, when data is transferred from a certain block A to a certain block B, first, a data transmission request is issued from the block A to the control unit 11. The control unit 11 sends a data reception request signal from the block A to the block B, and after confirming that the reception preparation of the block B is completed, a data transmission request signal is sent to the block A. In block A, after receiving the data transmission request signal from the control unit 11, data transfer is started.
【0059】(2)各ブロックの要求処理 認識判断装置内の各ブロックから送られてくる要求(例
えば、パラメータ抽出部で発生する認識判断トリガ、各
ブロックで発生するエラーに対するリカバリー要求、
等)について定められた処理をおこなう。(2) Request processing for each block A request sent from each block in the recognition / judgment device (for example, a recognition judgment trigger generated in the parameter extraction unit, a recovery request for an error generated in each block,
Etc.).
【0060】(3)記憶装置のアクセス管理 複数のブロックが同時に記憶装置へのアクセスをおこな
わないように(読み出し/書き込みがぶつからないよう
に)、アービトレーションをおこなう。認識判断装置内
の各ブロックは、記憶装置にアクセスする際には制御部
にアクセス権を要求し許可された場合にのみアクセスで
きる。(3) Storage Device Access Management Arbitration is performed so that a plurality of blocks do not access the storage device at the same time (so that read / write does not collide). Each block in the recognition / judgment device can access the storage device only by requesting an access right from the control unit and only when permitted.
【0061】(4)外部とのインターフェイスの制御 外部(画像形成装置)からのクロック信号やリセット信
号を入出力管理部12を通して受け取り、外部と認識判
断装置内の各ブロックとの同期処理をおこなう。また、
外部情報(画像形成装置の状態、例えば「稼働中である
/ない」や、操作パネルの情報、等)を取り込み、認識
判断に必要なものについては、対応する各ブロックへ転
送する。(4) Control of Interface with External The clock signal and the reset signal from the external (image forming apparatus) are received through the input / output management unit 12, and the external and the respective blocks in the recognition judging device are synchronized. Also,
External information (the state of the image forming apparatus, for example, “operating / not operating”, information on the operation panel, etc.) is fetched, and those necessary for recognition determination are transferred to the corresponding blocks.
【0062】外部からの種々の要求を入出力管理部12
を通して受け取り、その要求に答える処理をおこなう。
例えば、外部から対象物体の軌跡情報が要求されると、
記憶装置内の所定のエリアから軌跡情報を読み出し、入
出力管理部12を通して出力する等の処理がこれにあた
る。また、認識判断装置内でエラー等が発生した際の外
部への要求(例えば、操作パネルにエラーの表示をおこ
なう、等)も制御部11で生成され、入出力管理部12
を通して外部に出力される。Various requests from the outside are sent to the input / output management unit 12.
Process that responds to the request.
For example, when the trajectory information of the target object is requested from outside,
This corresponds to processing such as reading out locus information from a predetermined area in the storage device and outputting it through the input / output management unit 12. In addition, a request to the outside when an error or the like occurs in the recognition determination device (for example, displaying an error on an operation panel, etc.) is also generated by the control unit 11, and the input / output management unit 12
Output to the outside through
【0063】入出力管理部 入出力管理部12は、外部I/F線16を通じての外部
(画像形成装置)とのインターフェイスをつかさどる。
また、外部との同期をとるためのバッファとしても機能
し、各入出力データ/信号は入出力管理部12でラッチ
され同期をとられる。入出力される信号には、後処理部
10で生成されサービス提供装置に送られる対象物体に
関する判断データの他に、認識判断装置と外部との間の
各種要求、タイミング信号、等の制御信号も含まれる。Input / Output Management Unit The input / output management unit 12 controls an interface with the outside (image forming apparatus) through the external I / F line 16.
Further, it also functions as a buffer for synchronizing with the outside, and each input / output data / signal is latched and synchronized by the input / output management unit 12. The input / output signals include, in addition to the determination data on the target object generated by the post-processing unit 10 and sent to the service providing device, various control signals between the recognition determination device and the outside, control signals such as timing signals, and the like. included.
【0064】記憶装置 記憶装置13は、各ブロックで生成されたデータを必要
に応じて蓄えておくRAM、および各ブロックを動かす
のに必要なプログラムおよびデータを蓄えておくROM
により構成され、各ブロックによりデータの読み出し/
書き込みがおこなわれる。Storage Device The storage device 13 is a RAM for storing data generated in each block as needed, and a ROM for storing programs and data necessary for operating each block.
And data reading / reading by each block.
Writing is performed.
【0065】サービス提供装置 サービス提供装置概略 サービス提供装置4は、OA機器の各部の駆動する機能
を有し、認識判断装置3で生成された各種判断結果を受
り取りそれに対応する自動応答によりサービスを具現化
する。また、必要があれば認識判断部に対して対象物体
に関するより詳しい情報を要求する。サービス提供装置
4は概念的な装置であり、その実現形態には幾つかの方
法が考えられる。特に、専用のハード・ウェアを用意す
ることを規定せず、OA機器の中央演算装置等によりソ
フト・ウェア的に機能を代行することの可能なサービス
についてはそのような方法で実現したほうがよい。Service Providing Apparatus Outline of Service Providing Apparatus The service providing apparatus 4 has a function of driving each section of the OA equipment, receives various judgment results generated by the recognition judging apparatus 3, and provides a service by an automatic response corresponding thereto. To embody. Further, if necessary, it requests the recognition determination unit for more detailed information on the target object. The service providing device 4 is a conceptual device, and several methods can be considered for its realization. In particular, it is better to realize such a service that does not specify the provision of dedicated hardware and that can perform functions as software by a central processing unit of an OA device.
【0066】人を対象としたサービス OA機器に近づく応答対象の物体(人)があり、その物
体がOA機器を使用する旨の判断データが送られてきた
場合には、以下のようなサービスを実行する。 (1)AI(Artificial Intelligence)余熱機能 (2)AI自動電源スイッチング機能 (3)AI圧板自動開閉機能 (4)AI自動割り込み機能 (5)高さ可変機能Service for People When there is a response target object (person) approaching the OA device, and when the judgment data indicating that the object uses the OA device is sent, the following service is provided. Execute. (1) AI (Artificial Intelligence) residual heat function (2) AI automatic power switching function (3) AI pressure plate automatic opening / closing function (4) AI automatic interrupt function (5) Height variable function
【0067】また、OA機器を使用中だった人が操作を
終了しOA機器を離れ、使用を終了した旨の判断データ
が送られてきた場合には、以下のようなサービスを実行
する。 (1)AI余熱機能 (2)AI自動電源スイッチング機能 (3)AI圧板自動開閉機能 (4)AI自動割り込み機能 (5)AIオートリセット機能 (6)AI原稿・コピー忘れチェック機能When a person who has been using the OA device ends the operation, leaves the OA device, and receives determination data indicating that the use has been completed, the following service is executed. (1) AI residual heat function (2) AI automatic power switching function (3) AI pressure plate automatic opening / closing function (4) AI automatic interrupt function (5) AI automatic reset function (6) AI original / copy forgetting check function
【0068】個人を対象としたサービス OA機器に近づく応答対象の物体(人)があり、個人の
IDがデータとして送られてくる構成の装置について
は、以下のようなサービスを実行する。 (1)オペレーションパネルAI自動設定機能 (2)AIガイダンス機能 (3)管理機能 (4)AI自動割り込み機能 (5)AIオートリセット機能 (6)メッセージ伝言機能Service for Individuals For an apparatus having a configuration in which there is an object (person) to be responded to approaching the OA device and the ID of the individual is transmitted as data, the following service is executed. (1) Operation panel AI automatic setting function (2) AI guidance function (3) Management function (4) AI automatic interruption function (5) AI auto reset function (6) Message notification function
【0069】次に、画像データによる使用者認識/個人
認識について説明する。 使用者認識 前述の自動応答システムでは、センサとして赤外線セン
サなどの距離センサを使用した例をあげた。次に、距離
情報ではなく、画像データを処理することによって得ら
れる、対象物体(人物)が近づく際の体や顔の向きなど
の情報を基に、その人が「使用する人」であるのか、
「単なる通過者」であるのかを認識/判断する方法につ
いて説明する。距離センサを使用した場合の構成例であ
る図1、実装例である図2、認識判断装置の基本構成で
ある図3などは、以下に述べる画像データによる認識方
式での場合も全く同様である。但し、距離センサ2は、
CCDやMOS、撮像管などを使用した何らかの画像デ
ータ入力のためのセンサである必要がある。図3のパラ
メータ抽出部8では、画像データなどから必要な情報を
画像処理などによって抽出することになる。Next, user recognition / personal recognition based on image data will be described. User Recognition In the above-described automatic response system, an example in which a distance sensor such as an infrared sensor is used as a sensor has been described. Next, based on information obtained by processing the image data, not the distance information, such as the body and face orientation when the target object (person) approaches, is the person a "person to use"? ,
A method of recognizing / determining whether a person is a “mere passer” will be described. FIG. 1, which is a configuration example using a distance sensor, FIG. 2, which is an implementation example, and FIG. 3, which is a basic configuration of a recognition determination device, are completely the same in the case of a recognition method using image data described below. . However, the distance sensor 2
It must be a sensor for inputting some kind of image data using a CCD, MOS, image pickup tube or the like. The parameter extracting unit 8 in FIG. 3 extracts necessary information from image data or the like by image processing or the like.
【0070】さて、本認識判断装置が付帯されている複
写機などの画像形成装置5を使用する為に近づいて来る
人の動作を考えてみよう。特に、障害物のない場合、通
常人は、使いたい装置に対して真っ直ぐに歩いてくると
考えてよい。つまり、使用したい装置に対して体の向き
を真っ直ぐにして近づいて来る。また、何らかの障害物
などがあったりして、真っ直ぐに近づいて来れない場合
でも、目標の装置の位置まで近づくまでに、その装置が
見える範囲に来れば、少なくとも何回かはその装置を直
視すると考えてよい。つまり、使用したい装置に対し
て、顔の向きが幾度となく真っ直ぐ向くことになる。こ
のような、人間が自然に振る舞う行動をルールとして蓄
えておき、画像処理などによりこれらの行動を抽出/判
定することにより、対象人物が「使用者」なのか単なる
「通過者」なのかを判断する。Now, consider the operation of a person approaching to use the image forming apparatus 5 such as a copying machine provided with the present recognition determining apparatus. In particular, in the absence of obstacles, one can usually think of a person walking straight to the device he wants to use. In other words, the user approaches the device he or she wants to use while keeping his body straight. Also, even if there is some obstacle, etc., if you can not approach straight, if you come within the range where the device can be seen by the time you approach the position of the target device, you can look at the device at least several times You can think. In other words, the direction of the face is directed several times straight toward the device to be used. Such behaviors in which humans behave naturally are stored as rules, and these behaviors are extracted / determined by image processing or the like to determine whether the target person is a “user” or a mere “passer”. I do.
【0071】以下、図28を参照して具体的な判断の仕
方の簡単な例について説明する。撮影した画像データに
おいて、人物が撮影されているかをまず判断しなければ
ならない(step1)。これには、例えば、誰も映ってい
ない画像データを保持しておき、撮影された画像データ
との差分をとることなどにより可能となる。つまり、現
在撮影した画像データから背景部分を消去することによ
り、残った部分は、背景でない何らかの移動する物体、
つまり対象人物であることが分かる。Hereinafter, a simple example of a specific determination method will be described with reference to FIG. In the photographed image data, it must first be determined whether a person has been photographed (step 1). This can be achieved, for example, by holding image data in which no one is shown and calculating the difference from the captured image data. In other words, by removing the background portion from the currently captured image data, the remaining portion becomes a moving object other than the background,
In other words, it can be seen that the subject person.
【0072】次に、対象人物の画像データにおいて、体
もしくは顔の向きを検知しなければならない(step
2)。検知と言っても、こちらを向いているか否かを判
断すればよい。非常に単純な例としては、撮影された人
物の体もしくは顔の向きがこちらを向いていれば使用者
として判断してもよい。しかし、通常唯一度だけこちら
を向いていたからといって、単純には判断しがたい。つ
まり、これだけでは十分な精度は得られない。そこで、
例えば、カウンタを設け、こちらを向いていたと観測さ
れる回数をそのカウンタによって記憶しておき、あらか
じめ設定しておいた回数分だけ観測されたときに「使用
者」であると判断しても良い。Next, in the image data of the target person, the orientation of the body or face must be detected (step
2). Speaking of detection, it is only necessary to judge whether or not this is facing. As a very simple example, if the body or face of the photographed person is facing this direction, the person may be determined as a user. However, it's usually hard to judge just because you're facing him only once. In other words, this alone does not provide sufficient accuracy. Therefore,
For example, a counter may be provided, and the number of times that it is observed that the user is facing the user may be stored by the counter. .
【0073】また、向きをyes/noではなく、例え
ば、角度数等によって数値化して観測し、そのデータ列
によって判断してもよい。この場合、あらかじめ「使用
者」のデータ列パターンを記憶しておき、その記憶して
おいた表を参照することにより判断してもよいし、時間
と向きをパラメータとして適度な重みパラメータを付加
した評価関数によって判断してもよいし、「使用者」の
行動パターンを自然言語的なルール(例えば、短時間に
何回もこちらを向いたら、使用者である。等)によって
記述しておき、ファジィ推論によって判断してもよい
し、あらかじめ「使用者」の行動パターンをニューラル
ネットワークに記憶させ、観測されたデータ列を入力と
してニューラルネットワークから「使用者」であるか否
かを出力させるようにしてもよい。Instead of yes / no, for example, the orientation may be converted into a numerical value based on the number of angles and the like, observed, and a determination may be made based on the data sequence. In this case, the data string pattern of “user” may be stored in advance, and the determination may be made by referring to the stored table, or an appropriate weight parameter may be added using time and direction as parameters. Judgment may be made by an evaluation function, or the behavior pattern of the “user” may be described by natural language rules (for example, if you turn here many times in a short time, you are the user.) Judgment may be made by fuzzy inference, or the behavior pattern of the "user" may be stored in the neural network in advance, and the observed data sequence may be used as input to output from the neural network whether or not the user is "user". You may.
【0074】また、本認識処理を実施するための構成
は、基本的には、前述のものと特に大きくは変わりはな
いが、図1における距離センサ2は、CCDなどの画像
入力センサに変わる。また、近づいて来る対象物体(対
象人物)が撮影された画像データは、図3のパラメータ
抽出部8で処理される。ここで抽出すべき特徴量(デー
タ/情報)は、先に述べた対象人物の顔又は体の向きで
ある。また、認識判断部9では、先に述べた表参照や、
評価関数、ファジィ推論、ニューラルネットワークなど
により判断処理を行うことになる。The configuration for carrying out the present recognition processing is basically not significantly different from that described above, but the distance sensor 2 in FIG. 1 is replaced with an image input sensor such as a CCD. In addition, image data of the approaching target object (target person) is processed by the parameter extraction unit 8 in FIG. The feature quantity (data / information) to be extracted here is the face or body orientation of the target person described above. Further, the recognition determining unit 9 refers to the table described above,
Judgment processing is performed by an evaluation function, fuzzy inference, a neural network, or the like.
【0075】個人認識 人物である対象物体を特定の個人であることを認識する
ことを、個人識認と呼ぶ。個人認識においては、更に大
きな2つの認識に分けられる。一つは、あらかじめ登録
されている個人を特定するという認識(既個人特定化識
別)と、もう一つは、特に個人を登録しておくのではな
く、ある時点で観測された対象人物に対し、同じ人であ
るか否かを認識(逐次同一人物判別)するものである。
前述の自動応答システムでは、センサとして対象物体の
位置を計測するために、距離センサを具備する例を示
し、その一具体例として赤外線や超音波センサなどを挙
げて説明した。ここでは、対象人物の個人認識に関する
例を示すが、この場合センサの具体例としては、CCD
などによる画像入力後、画像データを処理する例を中心
として述べる。Personal Recognition Recognizing that a target object that is a person is a specific individual is called personal recognition. Personal recognition is divided into two larger recognitions. One is to identify individuals who have been registered in advance (identification that has already been individualized), and the other is not to register individuals in particular, but to target individuals observed at a certain point in time. , To determine whether they are the same person (sequentially identifying the same person).
In the above-described automatic response system, an example in which a distance sensor is provided to measure the position of a target object as a sensor has been described, and an infrared or ultrasonic sensor has been described as a specific example. Here, an example relating to personal recognition of a target person is shown. In this case, a specific example of the sensor is a CCD.
An example in which image data is processed after an image is input by, for example, will be mainly described.
【0076】この場合、図1に示された認識判断装置3
において個人認識を行い、距離センサ2は画像データが
入力できるセンサとなるだけで、基本的な構成は何ら変
わらない。以下では、説明を簡単にするために一つの画
像入力センサを例として説明するが、図1、図2などで
示したのと同様に複数のセンサを設けても良い。なお、
センサとしてCCDなどの画像入力装置を用いても、前
述の自動応答システムで説明した対象物体までの位置を
観測することは、現在の画像処理技術をもってすればな
んら問題なく可能である([「ロボット」bit 増刊、pp
711/724,1976年7月号],[「立体視」日本ロボット学会
誌,Vol.1,pp30/35,1983]など参照)。つまり、画像
入力センサは、距離センサの一具体例に過ぎず、例え
ば、1台の固定されたセンサから撮影された画像データ
から対象物体の位置を求めるには、対象人物の足の位置
の画像データ座標を抽出し、実世界の座標データにマッ
ピングすればよいし、センサが複数台ある場合は、三角
測量の原理を応用(両眼立体視法)すれば対象物体まで
の位置を観測できる。よって、センサが前述の赤外線セ
ンサなどから画像センサに変わったとしても、前述まで
の処理は同様に可能であるばかりか、以降に説明する個
人認識においても有用なセンサとなる。In this case, the recognition judging device 3 shown in FIG.
, And the distance sensor 2 is merely a sensor capable of inputting image data, but the basic configuration is not changed at all. Hereinafter, one image input sensor will be described as an example for simplicity of description, but a plurality of sensors may be provided as shown in FIGS. In addition,
Even if an image input device such as a CCD is used as a sensor, it is possible to observe the position up to the target object described in the aforementioned automatic response system without any problem using current image processing techniques ([[Robot "Bit extra number, pp
711/724, July 1976 issue], ["Stereoscopic vision", Journal of the Robotics Society of Japan, Vol. 1, pp30 / 35, 1983]. In other words, the image input sensor is only a specific example of the distance sensor. For example, in order to obtain the position of the target object from image data captured from one fixed sensor, an image of the position of the foot of the target person is used. Data coordinates may be extracted and mapped to real world coordinate data. If there are a plurality of sensors, the position to the target object can be observed by applying the principle of triangulation (binocular stereovision). Therefore, even if the sensor is changed from the above-mentioned infrared sensor or the like to an image sensor, the above-described processing is similarly possible, and the sensor is also useful in personal recognition described below.
【0077】既個人特定化識別 画像データから、既に登録されている個人を特定化す
る、既個人特定化識別についてその処理方法を述べる。
識別技術は古くから存在し、例えば、文字認識などで実
用化されている。既個人特定化識別においても、同様の
技術/原理で行える。原理を簡単に説明すると、あらか
じめ辞書と呼ばれる特定化すべきものの特徴について記
述したものを用意し、観測された入力データの特徴を抽
出し、辞書の各内容と比較して、最も特徴が合致してい
るものを、特定されたものとするわけである。また、こ
のような識別論的なアプローチのほかにも、表参照方
式、評価関数方式、確信度計算方式、ファジィ推論方
式、ニューラルネット方式なども知られている。Personalized Specific Identification The processing method of the personalized specific identification for specifying the registered individual from the image data will be described.
Identification technology has been around for a long time, and has been put to practical use, for example, for character recognition. The same technique / principle can be used for personalized identification. To explain the principle briefly, we prepare a dictionary called a dictionary that describes the characteristics of what is to be specified, extract the characteristics of the observed input data, compare them with the contents of the dictionary, Is to be identified. In addition to the discriminant approach, a table reference method, an evaluation function method, a certainty calculation method, a fuzzy inference method, a neural network method, and the like are also known.
【0078】個人を識別するためのデータとして、あら
かじめ登録しておなかければいけない個人に関する情報
つまり特徴は、画像処理などによって得られる特徴であ
れば何でもよいが、個人を見分けるのに良いものでなけ
ればならない。例えば、身長、体重(体積)、性別、体
や顔の大きさや形、眼鏡の有無などが考えられる。身長
は画像データより頭から爪先までの画素数を実際の長さ
に変換することにより得られる。これは対象物体までの
距離がわかっているはずなので、変換は容易である。頭
および爪先を見つけだすことは、2値化やフィルター処
理などの通常の画像処理技術や知識工学をもってすれば
実現可能である。性別は、髪の毛の形状や、覆き物、化
粧の有無、などを画像処理により得ることにより判別可
能である。画像データによって個人を特定するのに有効
とされ、よく用いられているのは、顔の特徴である。例
えば、目の離れ具合、目の形、顎の輪郭、などのよう
に、各部品間の関係や個々の部品の形状などがよく使用
される。Information about an individual, which must be registered in advance, as data for identifying the individual, that is, a characteristic, may be any characteristic obtained by image processing or the like, but must be good for identifying the individual. Must. For example, height, weight (volume), gender, size and shape of body and face, presence or absence of glasses, and the like can be considered. The height is obtained by converting the number of pixels from the head to the toe from the image data to the actual length. Since the distance to the target object must be known, the conversion is easy. Finding the head and toe can be realized by ordinary image processing techniques such as binarization and filter processing and knowledge engineering. The gender can be determined by obtaining the shape of the hair, the covering, the presence or absence of makeup, and the like by image processing. Facial features are effective and often used to identify individuals by image data. For example, the relationship between the components and the shape of the individual components, such as the degree of eye separation, the shape of the eyes, the contour of the chin, and the like, are often used.
【0079】この既個人特定化識別の個人認識により、
ユーザの操作性を向上したり、装置の管理を省力化する
ことなどを実現することが可能となる。例えば、複写機
などの画像形成装置にこの個人認識装置を付けた場合、
オペレーションパネルAI自動設定機能、AIガイダン
ス機能、AI自動割り込みなどを実現することが可能と
なる。With the personal recognition of the already personalized identification,
It is possible to improve the operability of the user, save labor in managing the apparatus, and the like. For example, when this personal recognition device is attached to an image forming apparatus such as a copying machine,
The operation panel AI automatic setting function, AI guidance function, AI automatic interrupt, and the like can be realized.
【0080】逐次同一人物判別 次に、前述のように、あらかじめ個人を登録しておくの
ではなく、ある時点で観測された対象人物に対し、同じ
人であるか否かの認識である、逐次同一人物判別につい
て述べる。これは、ある時点で観測された対象人物の特
徴を記憶しておき、別の時点で観測された対象人物の特
徴と一致しているかどうかを判定して、同一人物である
かどうかを判別/認識するもので、あらかじめ特定した
い個人の特徴などを含む情報を辞書として登録しておく
必要がない代わりに、例えば、観測された人の名前など
の人為的に誰かが装置に入力してやらなければ分からな
い情報は得ることはできない。逐次同一人物判別を行う
ための方法は、基本的には既個人特定化識別における方
法と大きくは違わない。個人識別では、観測/抽出され
た特徴をもとに、これをあらかじめ辞書に記述しておい
た各個人の特徴を比較するものであったが、逐次同一人
物判定では、ある以前の時点で直接観測された特徴とを
比較する点が違う。同一人物判定において、ある時点で
観測された対象人物の特徴は、辞書として記憶してお
き、後に観測された人物の特徴と比較する際に使用され
るが、直前の観測物体のみを辞書に記憶しても、複数記
憶できるようにしておいても良い。Next, as described above, instead of registering an individual in advance, the target person observed at a certain point in time is recognized as the same person or not. The same person determination will be described. In this method, the characteristics of the target person observed at a certain point in time are stored, and it is determined whether the characteristics match with the characteristics of the target person observed at another point in time. It is not necessary to register information including the characteristics of the individual you want to identify as a dictionary in advance, but instead, for example, if someone does not artificially enter the device, such as the name of the observed person, you can not understand No information can not be obtained. The method for successively identifying the same person is basically not significantly different from the method in the already-personalized identification. In individual identification, based on observed / extracted features, the characteristics of each individual, which were previously described in a dictionary, were compared. The difference is that they compare with the observed features. In the same person determination, the characteristics of the target person observed at a certain point in time are stored as a dictionary and used when comparing with the characteristics of the person observed later, but only the immediately preceding observation object is stored in the dictionary. Alternatively, a plurality of storages may be made.
【0081】逐次同一人物判別が可能になることによ
り、例えば、装置の使用者が代わったことが分かるの
で、その時点で「使用中/使い終わった」を区別するこ
とができる。同一人物と判別される人が来た場合、それ
がある一定時間内であれば、「使用中」であると認識で
きるし、同一人物でない人がやって来れば、前の人は使
い終わったと認識できる。また、この装置が例えば複写
機であれば各パラメータを自動的にリセット(AIオー
トリセット機能)して次の使用者の誤操作を防ぐことな
どが可能となる。また、AI自動割り込み機能も個人ま
で特定できなくても、本認識により可能となる。また、
逐次同一人物判別における特徴を観測するためのセンサ
は、特にCCDに限られるわけではない。例えば、色セ
ンサや体重計、音センサなどの人物の特徴を測定できる
ものであれば何でもよい。また、先に説明したCCD等
による画像入力センサのように単独で判別可能なセンサ
もあるが、単独では判別が困難なセンサでも、複合して
用いることにより、より高い精度で判別が可能となる。
この場合の構成は、図1にある距離センサ2と並列にこ
れらのセンサを連結させれば良いだけである。Since the same person can be sequentially discriminated, for example, it is known that the user of the apparatus has been changed, so that "in use / completed use" can be distinguished at that time. When a person is identified as the same person, it can be recognized as “in use” within a certain period of time, and if a person who is not the same person comes, the previous person is recognized as having used it. it can. If the apparatus is a copying machine, for example, the parameters can be automatically reset (AI auto reset function) to prevent the next user from erroneous operation. Further, even if the AI automatic interrupt function cannot be specified even to an individual, it can be realized by the real recognition. Also,
The sensor for observing the feature in the same person determination sequentially is not particularly limited to the CCD. For example, any device that can measure the characteristics of a person, such as a color sensor, a weight scale, and a sound sensor, may be used. In addition, there are sensors that can be distinguished by themselves, such as the above-described image input sensor using a CCD or the like. However, even sensors that are difficult to distinguish by themselves can be distinguished with higher accuracy by using them in combination. .
The configuration in this case is only required to connect these sensors in parallel with the distance sensor 2 shown in FIG.
【0082】認識判断用パラメータの処理方法:あらか
じめ定められた測定検出エリアの初期条件設定方式 近づいて来る人が、本認識装置が付帯してあるシステム
(装置)を操作するために来た人なのか、単なる通り掛
かりの人なのかを判断する際において、システムが設定
されている状況によって判断を早期にもしくはより確実
にするために、周囲の状況を認識し、記憶しておくこと
が望ましい。ここで言う、「状況」というのは、例え
ば、周囲の壁などの障害物の場所のことである。例え
ば、行き止まりの廊下の一番奥にシステムが設置されて
いるような状態の場合、殆どの場合システムに近づいて
来る人は使用する人であると考えられる。ここでは、
「行き止まりの廊下の一番奥にシステムが設置されてい
る」というような状況を自動的に認識する方法について
述べる。検出したい情報は、人間にとって歩行するのに
制止/障害となる、例えば、壁などの固定された物体で
ある。これらの物体をあるタイミングで見つければ良
い。これには、例えば、本認識装置が付帯されているシ
ステムを設置するサービスマンやユーザなどが、何らか
の方法により直接システムに入力してやることも可能で
あるが、レイアウトの変更などのたびにいちいち入力/
設定し直さなければならず、面倒である。ここでは、こ
れらを自動的に認識していく方法を述べる。Method of processing parameters for recognition judgment: Initial condition setting method for predetermined measurement detection area A person approaching is a person who comes to operate a system (apparatus) provided with the present recognition apparatus. When determining whether a person is just passing by or not, it is desirable to recognize and store the surrounding situation in order to make the decision early or more reliably depending on the situation in which the system is set. The "situation" mentioned here is, for example, a location of an obstacle such as a surrounding wall. For example, in the case where the system is installed at the end of a dead-end corridor, it is considered in most cases that the person approaching the system is the person who uses the system. here,
A method for automatically recognizing situations such as "the system is installed at the end of the dead end corridor" will be described. The information to be detected is, for example, a fixed object such as a wall, which hinders / obstructs human walking. What is necessary is just to find these objects at a certain timing. For example, a service person or a user who installs a system to which the present recognition device is attached can directly input to the system by some method.
It has to be reset, which is troublesome. Here, a method of automatically recognizing these will be described.
【0083】前述の認識装置で記したセンサなどによ
り、測定可能な検出エリアにおいて、初期条件となる障
害物などのデータ(エリアデータ)を認識するために
は、以下の(a),(b),(c)の3つが考えられる。 (a)電源投入から所定時間経過後に検出される検出値
からエリアデータを記憶(規則的な受光・受信データに
基づく制止障害物データ) 電源が投入された時点から、あらかじめ定めておいた所
定時間後にセンサを起動させ、センサにより何らかの物
体が検出された場所を、固定物体(障害物)であると認
識して、記憶しておく方法である。電源が投入された直
後では、電源を投入した人がその傍におり、これを固定
物体であると認識してしまう可能性がある。そこで、電
源が投入され、しばらくした後(例えば1分後)にセン
サを起動させ、何らかを検知した場所を固定物体として
認識し、記憶する。The following conditions (a) and (b) are required for recognizing data (area data) such as an obstacle as an initial condition in a measurable detection area by the sensor or the like described in the above-described recognition device. , (C). (A) Area data is stored from detected values detected after a predetermined time has elapsed since the power was turned on (blocking obstacle data based on regular light reception / reception data) A predetermined time predetermined from the time when the power was turned on This is a method in which the sensor is activated later, and the location where some object is detected by the sensor is recognized as a fixed object (obstacle) and stored. Immediately after the power is turned on, there is a possibility that the person who turned on the power is nearby and recognizes this as a fixed object. Then, after the power is turned on, after a while (for example, one minute), the sensor is activated, and the place where something is detected is recognized as a fixed object and stored.
【0084】実施例の一つとして、前述のセンサによ
り、初期条件の設定を行う場合を説明する。図1及び図
2には、本認識装置が付帯してあるシステム(OA機器
1または画像形成装置5)とセンサ2の構成が示されて
いる。ここでは、システムに複数の各方向に対してセン
サを向けて取付けてある。このシステムがユーザにより
電源を投入された場合、例えば、本認識装置の電源がそ
のシステムの電源と共有されているなどして、電源が投
入されたタイミングが何らかの手段により容易に分かる
ので、本認識装置などにタイマーを設置しておき、さら
かじめ設定された所定の時間、例えば、1分後に各セン
サが起動し、所定の測定を行わせる。これらセンサは、
少なくとも何らかの物体が、どの方向にどの位の距離に
あるかを測定できるものであり、例えば、図4及び図5
のような場合、何らかの物体が観測された方向と距離の
組合せで示され、〜〇13、〇15〜〇19の所に、
障害物があるものとして認識し、これを記憶しておく。As one of the embodiments, the case where the initial conditions are set by the above-described sensor will be described. 1 and 2 show the configuration of a system (OA device 1 or image forming apparatus 5) to which the present recognition device is attached and the configuration of the sensor 2. FIG. Here, the sensor is mounted on the system in a plurality of directions. When this system is turned on by the user, the timing of turning on the power can be easily known by any means, for example, the power of the recognition device is shared with the power of the system. A timer is installed in the device or the like, and each sensor is activated after a predetermined time set in advance, for example, one minute, and a predetermined measurement is performed. These sensors are
At least some object can be measured in what direction and at what distance. For example, FIGS. 4 and 5
In such a case, a certain object is indicated by a combination of the observed direction and distance, and at ~ 〇13, 〇15 to 〇19,
It recognizes that there is an obstacle and stores it.
【0085】(b)電源投入から所定タイミング毎に検
出される検出値からエリアデータを所定タイミング毎に
記憶更新 電源が投入された時点から、あらかじめ定めておいた所
定時間毎にセンサを起動させ、前回に測定した際のセン
サの検知状況と今回の検知状況を比較して、固定物体が
どこにあるかを認識し、記憶更新する方法である。固定
物体は、レイアウト変更などによる状況の変化が人為的
に起こされない場合以外、センサによる検知を何度行っ
ても同じ場所に検知されるはずである。一方、たまたま
近くにいた人など、本来は障害物ではない場合には、最
初はセンサにより観測されるが、次の測定時には既にそ
こを去り、観測されないはずである。よって、例えば、
5分毎にセンサから検知状況を得て、過去の検知状況を
覚えておき、いつも同じ場所に検知されるものは、固定
物体であると認識する方法である。所定のタイミング
は、常時つまり最小限の間隔で観測をしなくてもよい。
但し、単にエリアデータを取得するのみであるならば、
常時観測する必要は特になく、ある程度の間隔をおいて
測定すればよい。例えば、常時何らかの判断をするため
にセンサを起動させているのであれば、それを流用し、
常時エリアデータを更新していけば、より確実である
が、他に特に常時観測しておく必要がなければ、ある程
度の間隔をおいて測定したほうが、省電力の効果が得ら
れる。(B) Renewal of area data stored at predetermined timings from detected values detected at predetermined timings after power-on The sensors are activated at predetermined time intervals after power-on, This is a method of comparing the detection status of the sensor at the time of the previous measurement with the current detection status, recognizing where the fixed object is, and updating the storage. The fixed object should be detected at the same place no matter how many times the sensor performs detection, except when the situation is not artificially changed due to a layout change or the like. On the other hand, if the object is not originally an obstacle, such as a person who happened to be near by chance, it is first observed by the sensor, but at the next measurement, it has already left and should not be observed. So, for example,
This is a method in which the detection status is obtained from the sensor every five minutes, the past detection status is remembered, and the one that is always detected at the same place is recognized as a fixed object. The predetermined timing does not need to be observed at all times, that is, at minimum intervals.
However, if you only want to get area data,
There is no particular need for constant observation, and measurement may be performed at certain intervals. For example, if you always activate the sensor to make some kind of judgment, use that,
It is more reliable if the area data is constantly updated, but if there is no particular need for constant observation, it is better to measure at some intervals to save power.
【0086】この方法を実現するにあたっては、過去の
検知状況は、少なくとも1回は記憶しておく必要があ
る。しかし、複数回を記憶しておいてもよく、この方が
認識精度は高まる反面コストが高くなる。過去の検知状
況を1回のみ記憶しておく場合、記憶しておいた以前の
検知状況が、例えば、θ=15度、距離=3mとθ=8
0度、距離=2mの所であったとし、所定時間後である
今回測定した検知状況では、30度、4mと80度、2
mであったなら、同じ所に検知された80度、2mの部
分には何らかの固定物体(障害物)があると認識/判断
する。そして、過去の検知状況として30度、4mと;
80度、2mを記憶しておく。In realizing this method, it is necessary to store the past detection status at least once. However, a plurality of times may be stored, which increases the recognition accuracy but increases the cost. When the past detection status is stored only once, the stored previous detection status is, for example, θ = 15 degrees, distance = 3 m and θ = 8.
It is assumed that the position is 0 degree and the distance = 2 m, and in the detection state measured this time after a predetermined time, 30 degrees, 4 m and 80 degrees, and 2 degrees
If it is m, it is recognized / determined that there is some fixed object (obstacle) in the 80 degree, 2m part detected at the same place. And 30 degrees and 4 meters as the past detection situation;
80 degrees and 2 m are stored.
【0087】また、複数回の検知状況を記憶しておく場
合も、ほぼ同様に判断をすれば良い。例えば、5回分の
状況を記憶しておく場合、最近3回以上連続で同じ場所
に検知された所には、確実に固定物体があると判断し、
連続ではないが、今回測定分を含め6回の検知状況で4
回以上検知された場所には障害物となりえるものがある
と判断する。このようにすることにより、より正確に障
害物であるか否かがわかることになる。これにより、壁
などの本当に静止物体である物以外にも、例えば、本認
識装置が付帯されたシステムの近くに、例えば、ワープ
ロなどが設置されており、そのワープロを使用する人間
がセンサに検知される場合、つまり、本来は移動物体な
どではあるが何らかの都合により一時的にシステムにと
っての障害物となる場合などにも対処でき、正しい設置
環境つまり初期条件を得ることができる。Also, when a plurality of detection situations are stored, the determination may be made in substantially the same manner. For example, when the situation for five times is stored, it is determined that there is a fixed object in a place that has been detected at the same place three or more times in succession recently,
Although it is not continuous, it is 4
It is determined that there is an obstacle that can be an obstacle in places where the number of times has been detected. By doing so, it is possible to more accurately determine whether or not the obstacle is an obstacle. As a result, besides a truly stationary object such as a wall, for example, a word processor, for example, is installed near the system to which the recognition device is attached, and a human using the word processor is detected by the sensor. In other words, it is possible to deal with a case where the system is originally a moving object, but temporarily becomes an obstacle to the system for some reason, and a correct installation environment, that is, an initial condition can be obtained.
【0088】(c)所定条件の時に検出される検出値か
らのエリアデータを記憶(所定条件毎にエリアデータ記
憶更新) エリアデータを認識するタイミングを所定の条件が満た
されたときに限って行う方法である。所定の条件とは、
基本的に周りに人がいない状況のことである。センサ自
体は一定もしくは不定期に起動させておいてもよいが、
エリアデータを認識すべきなのかどうかを所定の条件と
照らし合せて認識を行い、記憶しておく。所定条件とし
ては、以下のような4つの場合が考えられる。(C) Storing area data from detected values detected under predetermined conditions (updating storage of area data for each predetermined condition) Timing for recognizing area data is performed only when predetermined conditions are satisfied. Is the way. The predetermined condition is
Basically, it is a situation where no one is around. The sensor itself may be activated constantly or irregularly,
Whether or not the area data should be recognized is determined by referring to predetermined conditions and stored. As the predetermined condition, the following four cases can be considered.
【0089】(i)非使用時 本認識装置が付帯されているシステムが稼働していな
い、つまり誰も使っていないときに測定/認識を行う。
システムが稼働していない時には、基本的に近くに人が
いないと考えられる。つまりその時点で測定すれば、何
らか検知された場所に障害物があると判断してもよい。
この場合、一回の測定で、その時に何らか検知された場
所を障害物であると認識しても良いし、何回か測定し
て、多数検知された場所を障害物であるとしてもよい。(I) When not in use Measurement / recognition is performed when the system to which the present recognition device is attached is not operating, that is, when no one is using it.
When the system is not running, it is basically considered that there are no nearby people. That is, if the measurement is performed at that time, it may be determined that there is an obstacle at a location where some detection is made.
In this case, in one measurement, a location detected at that time may be recognized as an obstacle, or a number of locations may be measured several times and determined as an obstacle. .
【0090】(ii)人がいない夜間:タイマー 通常のオフィスなどでは、夜間は人がいない。よって、
この時に測定/認識を行う。夜間などの人のいない時間
にタイマーなどによりセンサを起動させ、何らかの物体
が検知されたならば、それは壁などの障害物であること
が想定される。また、タイマーのみではなく、照明の明
るさなどによって、人がいない状態であることをより確
実に判断することも可能である。例えば、具体的な時間
の設定としては、デフォルトで夜中の3時、変更したい
場合はユーザにより行えるようにしておいても良いし、
別の用途でシステムに組み込まれているON/OFFタ
イマと連動させ、OFF時、もしくはOFFされる直
前、自動的にONされた直後などに設定しても良い。こ
の場合、最低限一回の測定でよく、その時に何らか検知
された場所を障害物であると識別しても良いし、念のた
め人のいない夜間などの時間の間に、何回か測定して、
多数検知された場所を障害物であるとしてもよい。(Ii) Night with no people: timer In a normal office or the like, there are no people at night. Therefore,
At this time, measurement / recognition is performed. When a sensor is activated by a timer or the like at a time when no person is present, such as at night, and if any object is detected, it is assumed that the object is an obstacle such as a wall. Further, it is possible to more reliably determine that there is no person by using not only the timer but also the brightness of the lighting. For example, as a specific time setting, the default is 3 o'clock in the middle of the night, and if it is desired to change the time, it may be set by the user,
It may be set in conjunction with an ON / OFF timer incorporated in the system for another use, at the time of OFF, immediately before being turned off, immediately after being automatically turned on, or the like. In this case, at least one measurement is sufficient, and the place where something was detected at that time may be identified as an obstacle, or several times during a time when nobody is present just in case. Measure
The locations where many are detected may be obstacles.
【0091】(iii)休日:ウィークリータイマー 通常のオフィスでは、休日には人がいない。よって、こ
の時に測定/認識を行う。日曜日など、人のいない日に
カレンダー(ウィークリータイマー)などによりセンサ
を起動させ、何らかの物体が検知されたならば、それは
壁などの障害物であると想定される。具体的な時間の設
定は、デフォルトで日曜日、変更したい場合はユーザに
より行えるようにしておいても良い。この場合、最低一
回の測定でもよく、その時に何らか検知された場所を障
害物であると認識しても良いし、何回か測定して、多数
検知された場所を障害物であるとしてもよい。(Iii) Holiday: Weekly timer In a normal office, there are no people on holidays. Therefore, measurement / recognition is performed at this time. When a sensor is activated by a calendar (weekly timer) or the like on a day when no one is present, such as Sunday, if any object is detected, it is assumed that the object is an obstacle such as a wall. The specific time may be set by default to Sunday, and may be changed by the user if it is desired to change the setting. In this case, at least one measurement may be performed, and a location detected at that time may be recognized as an obstacle. Is also good.
【0092】(iv)初期条件設定手段ON ここでは初期条件設定のための手段をユーザに閉放する
ものであり、例えば、「初構条件設定ボタン」のような
操作ボタンを装置に付けておき、サービスマンやユーザ
/管理者などがレイアウトなど決定して、初期条件を設
定すべきであると判断したときに、明示的にこのボタン
を押してもらうことによって、初期条件を認識/設定す
る方法である。しかし、ボタンを押した直後では、押し
た人が装置の目の前にいるので、カメラなどによく使用
されているセルフタイマーのように、数秒後に設定され
るようにあらかじめ設定しておき、その間にボタンの操
作者はセンサの検知範囲外に退避してもらうようにすれ
ばよい。また、赤外線リモコンなどを使用して、離れた
場所から本手段を動作させられるようにしておいてもよ
い。(Iv) Initial condition setting means ON Here, means for setting initial conditions are released to the user. For example, an operation button such as a "initial structure condition setting button" is attached to the apparatus. When a service engineer, user / administrator, or the like determines the layout, etc. and determines that initial conditions should be set, the user can explicitly press this button to recognize / set the initial conditions. is there. However, immediately after pressing the button, the person who pressed it is in front of the device, so it is set in advance so that it will be set a few seconds later, like a self-timer often used for cameras etc. The operator of the button may be caused to retreat outside the detection range of the sensor. Alternatively, the means may be operated from a remote place using an infrared remote controller or the like.
【0093】次に、マシン設置環境による「使う/使わ
ない」又は「使用中/使い終わった」の早期識認の仕方
について説明する。初期条件設定に基づくマシン設置環
境データ(エリアデータ)からマシン(装置)が隅に設
置されたと認識したならば、設定されている検出測定エ
リア内に測定対象物体(移動物体)が進入しただけで
「使う」ものと認識することができる。すなわち、マシ
ンの設置環境により、単純に人が来ればその人は必ず使
う人である場合が考えられる。例えば、行き止まりの通
路の一番奥にマシンを設置した場合、近くに来る人は使
う人であると考えてよい。Next, a method of early recognition of “use / not use” or “used / finished” according to the machine installation environment will be described. If it is recognized from the machine installation environment data (area data) based on the initial condition settings that the machine (equipment) has been installed in a corner, the object (moving object) just enters the set detection measurement area. It can be recognized as "use". That is, depending on the installation environment of the machine, it is conceivable that if a person simply comes, that person is always the person who uses it. For example, if a machine is installed at the end of a dead-end aisle, those who come nearby may be considered to be those who use it.
【0094】マシンの設置環境(エリアデータ)は、前
述の方法により得ることが可能であり、この時、基本的
にはマシンの前を人が物理的に通過/行き過ぎることが
できるかどうかが問題となり、エリアデータよりこれを
判断していて、物理的に人がマシンの前を通過して行っ
てしまうことが不可能な場合には、単純に距離センサな
どにより、人が近くにいるかどうかを見て、近くに来た
ならばその人は「使う人」と判断する。また、もしセン
サを多方向に向けた複数を具備しているような構成にし
た場合、障害物として判断された方角を測定するセンサ
に限っては、動作させないようにして、省電力を図れる
という効果もある。The installation environment (area data) of the machine can be obtained by the above-described method. At this time, basically, it is a problem whether a person can physically pass / overpass the front of the machine. This is judged from the area data, and if it is impossible for a person to physically pass by the front of the machine, simply use a distance sensor to determine whether a person is near. Look, and if they come close, they will be judged as "users". Also, if the sensor is configured to have a plurality of sensors oriented in multiple directions, it is possible to save power by not operating the sensor that measures the direction determined as an obstacle. There is also an effect.
【0095】近づく人の殆どが「使う人」であると判断
できる条件である、マシンの前を人が物理的に通過/行
き過ぎることができないような状況とは、マシンが行き
止まりの地点に設置されている場合である。マシンが行
き止まりにあるという状況は、例えば、行き止まりの通
路の奥や、2面が壁でその角に置かれているような場合
が考えられる。マシンの正面のみが通行可能であるか、
もしくは、横(右又は左)などの方向だけが通行可能で
あるような場合、このような認識/判断を行う。このよ
うなことにより、設置環境に一定の制約はあるが、特に
難しいことがなく、早期で確実に簡単に、「使う人」の
判断が可能となる。The condition in which most of the approaching people can be determined to be “users”, that is, a situation where a person cannot physically pass / exceed the front of the machine is that the machine is installed at a dead end. If you are. The situation where the machine is in a dead end may be, for example, a case where the end of a dead end passage or two surfaces are placed at the corners of a wall. Is only the front of the machine accessible?
Alternatively, such recognition / judgment is performed in a case where the vehicle can pass only in a horizontal (right or left) direction or the like. Due to this, although there are certain restrictions on the installation environment, there is no particular difficulty, and the "user" can be determined quickly and easily easily.
【0096】なお、以上には、近づいて来る人に対し
「使う/使わない」を認識判断する例を述べたが、去る
人に対し「使用中/使い終わった」を認識する方法も全
く同様な考え方で実現可能であることは言うまでもな
い。In the above, the example of recognizing and judging "use / do not use" for the approaching person has been described, but the method of recognizing "in use / finished" for the leaving person is exactly the same. Needless to say, it can be realized with a simple concept.
【0097】次に、測定対象物体(移動物体)の「使う
/使わない」又は「使用中/使い終わった」の認識方法
について説明する。 (A)CCDからの画像信号を処理した画像データによ
り顔又は体の向きを判断し、「使う/使わない」又は
「使用中/使い終わった」かを認識する。人間が通路や
部屋の中に置かれているシステム(装置)を使用しよう
と近づいて来る場合、通常そのシステムに向かってなる
べく真っ直ぐに到達しようとする。つまり、システムか
ら見れば使用するために来る人は、体が正面を向きなが
ら歩いてくると考えてよい。但し、歩いて来るまでの空
間の広さ/狭さによっては、体は真っ直ぐシステムを向
いてなくて近づいて来る場合も考えられるが、少なくと
もある時点で、よほど無意識でないかぎり、システムを
見る。よって、このことを検知すれば、その人が使うた
めに近づいて来る人なのか、そうでないのか想定でき
る。体の向きや、顔の向きを検出するためには、CCD
等による画像データを処理して認識すればよい。Next, a method of recognizing "used / not used" or "used / used" of the measurement object (moving object) will be described. (A) The orientation of the face or body is determined based on the image data obtained by processing the image signal from the CCD, and it is recognized whether "used / not used" or "used / finished". When a person approaches to use a system (device) placed in a hallway or room, it usually tries to reach the system as straight as possible. In other words, from the viewpoint of the system, a person who comes to use may think that the body walks while facing the front. However, depending on the size / narrowness of the space before walking, it is possible that the body does not face the system straight and comes closer, but at least at some point, the system is seen unless it is very unconscious. Therefore, if this is detected, it can be assumed whether the person is approaching for use or not. In order to detect body orientation and face orientation, CCD
And the like may be processed and recognized.
【0098】体の向きが正面を向いているかどうかは、
例えば、肩の線を抽出し、それが水平に近ければ正面を
向いていることが分かるし、傾いていれば正面を向いて
いないことが分かる。また、横を向いている人の状態の
画像では、胸などの体の正面部分は非常に小さく映るの
で、このことによっても、正面を向いているかどうか分
かる。Whether the body is facing front or not
For example, a shoulder line is extracted, and if it is close to horizontal, it is known that it is facing the front, and if it is inclined, it is known that it is not facing the front. Also, in the image of the person facing sideways, the front part of the body such as the chest appears very small, so that it can be determined whether the person is facing the front.
【0099】顔の向きが正面を向いているかどうかは、
鼻の形や、両目/耳を結ぶ線やどの程度映っているかな
どにより判断できる。これらによって得られる向きは、
例えば、角度などの数値化されたデータとしても抽出可
能であり、あらかじめ設定しておいたしきい値と比較し
て、「向いている/向いていない」の2値を出力するこ
とも可能である。これらのデータ抽出処理は、従来より
用いられている一般的な画像処理の技術を使用すれば問
題なく実現可能である。Whether the face is facing the front is
Judgment can be made based on the shape of the nose, the line connecting both eyes / ears, and the degree of reflection. The resulting orientation is
For example, it can be extracted as numerical data such as an angle, and it is also possible to output two values of “facing / not facing” in comparison with a preset threshold value. . These data extraction processes can be realized without any problem by using a conventionally used general image processing technique.
【0100】単純に撮影された人物の体/顔の向きが本
認識装置に直面していることが観測されたならば、直ち
にその人は「使う人」であると判断することも可能であ
る。しかし、十分な精度ではない。そこで、例えば、カ
ウンタを設け、こちらを向いていたと観測される回数を
記憶しておき、あらかじめ設定しておいた回数分だけ観
測されたときに「使用中」であると判断しても良い。よ
り精度を高めるためには、「向いている/向いていな
い」の2値ではなく、角度などで示される数値データ
(列)を取り扱う必要がある。If it is observed that the body / face direction of a simply photographed person is facing the present recognition device, it is possible to immediately determine that the person is a “user”. . However, it is not enough accuracy. Therefore, for example, a counter may be provided to store the number of times that the user is facing the object is stored, and it may be determined that the device is “in use” when the number of observations is equal to the preset number of times. In order to further increase the accuracy, it is necessary to handle numerical data (columns) represented by angles or the like, instead of binary values of “facing / not facing”.
【0101】このパラメータの処理方式としては、以下
に述べるような方法が考えられる。 (i)表参照方式 あらかじめ「使用中」の取りうる行動パターンを観測
し、ある時間内で観測されるデータ列を見つけておき、
それを記憶しておく。例えば、3回の観測されたデータ
列で、[5,3,0]、もしくは[−2,1,−1]で
あれば、「使用者」のパターンであるというように記憶
しておく。記憶方法としては、例えば、今の例では3組
のデータで示されるので、3次元の表として (x=5,y=3,z=0)=「使用者」フラグ などのようにして記憶しておけばよい。認識判断時に
は、刻々と観測されるデータをこれら記憶しておいた表
を引いてくることにより、「使用者」フラグが立ってい
れば「使用者」であると判断すればよい。As a method of processing the parameter, the following method can be considered. (I) Table reference method Observing possible behavior patterns of “in use” in advance, finding a data sequence observed within a certain time,
Remember it. For example, if the data sequence is [5,3,0] or [−2,1, −1] in the data sequence observed three times, it is stored as a “user” pattern. As a storage method, for example, since it is indicated by three sets of data in the present example, it is stored as a three-dimensional table such as (x = 5, y = 3, z = 0) = “user” flag You should keep it. At the time of recognition determination, it is only necessary to determine that the user is a "user" if the "user" flag is set by referring to a table in which the data observed every moment is stored.
【0102】(ii)評価関数方式 あらかじめ「使用者」の取りうる行動パターンを観測
し、データ列におけるいくつかのデータをパラメータと
して、重み関数を付加した評価関数を設定させる。例え
ば、d1,d2,d3,d4として順に得られるデータ
列に対し、 k1*d1+k2*d2+k3*d3+k4*d4 のような評価関数を設定する。例えば、k1=0.5、
k2=0.6、k3=0.8、k4=1のように設定され
た場合、認識判断時に、d1=80、d2=80、d3
=85、d4=90が観測されたとすると、評価関数式
により246が得られる。また、d1=80、d2=9
0、d3=80、d4=75と観測されたとすると評価
関数式により233が得られる。向きを表す観測データ
が、対象人物が真横を向いているとき0、正面を向いて
いるときは90が得られるようなものであった場合、前
者は徐々に正面を向いている例であり、後者は途中で方
向を変えたかもしくは横切ろうとしているかの例であ
る。ここで評価関数式によって得られた数値に対してあ
らかじめ適度に設定されたしきい値とを比較し「使う」
のか否かを判断する。例えば、しきい値を240とする
と、前者の例では「使う人」と判断され、後者の例では
「使う人ではない」と判断される。また、前記例では、
k*dというような単純な例であるが、dは観測された
角度などの向きその物でなくてもよく、例えば、d2−
d1を一つのデータとしたりすることも可能である。(Ii) Evaluation function method An action pattern that the "user" can take is observed in advance, and an evaluation function to which a weight function is added is set using some data in the data sequence as a parameter. For example, an evaluation function such as k1 * d1 + k2 * d2 + k3 * d3 + k4 * d4 is set for a data sequence obtained in order as d1, d2, d3, and d4. For example, k1 = 0.5,
When k2 = 0.6, k3 = 0.8, and k4 = 1, d1 = 80, d2 = 80, d3
= 85 and d4 = 90, 246 is obtained from the evaluation function equation. D1 = 80, d2 = 9
Assuming that 0, d3 = 80, and d4 = 75, 233 is obtained from the evaluation function equation. When the observation data indicating the direction is such that 0 is obtained when the target person is facing sideways, and 90 when the target person is facing the front, the former is an example in which the front is gradually facing the front, The latter is an example of changing direction or trying to cross. Here, the numerical value obtained by the evaluation function formula is compared with an appropriately set threshold value in advance and "use"
Is determined. For example, if the threshold value is 240, it is determined that the user is “user” in the former example, and “not a user” in the latter example. In the above example,
Although it is a simple example such as k * d, d does not have to be the direction of the observed angle or the like, for example, d2-
It is also possible to use d1 as one data.
【0103】(iii)ファジィ推論方式 前記(ii)評価関数方式での例にもあるように、例えば
「徐々に正面を向いてくる」場合や、「一定して正面を
向いてくる」場合などは「使用する人」である。また、
「突如として方向が逸れていく」場合などは、逆に「使
用しない人」であることがわかる。このような自然言語
的なルールを多数用意し、これらの“徐々に”や“正
面”などというあいまいな言語をファジィ論理のメンバ
ーシップ関数によって表現することによって、ファジィ
推論による認識判定が行えるようになる。(Iii) Fuzzy Reasoning Method As described in the example of the above (ii) evaluation function method, for example, a case in which "facing gradually toward the front" or a case in which "facing constantly in the front" Is a "user." Also,
On the other hand, in the case where the direction suddenly deviates, for example, it can be understood that the person is a “non-use person”. By preparing a number of such natural language rules and expressing these ambiguous languages such as "gradually" and "frontal" by membership functions of fuzzy logic, recognition judgment by fuzzy inference can be performed. Become.
【0104】(iv)ニューラルネット方式 あらかじめ「使う人」のデータ列から得られる特徴を入
力として、ニューラルネットに学習させておき、認識判
断時には観測されたデータ列を入力として「使う/使わ
ない」の出力によって認識判定する。なお以上には、近
づいて来る人に対し「使う/使わない」を認識判断する
例を述べたが、去る人に対し「使用中/使い終わった」
を認識する方法も全く同様な考え方で実現可能であるこ
とは言うまでもない。(Iv) Neural network method The features obtained from the data string of "users" are input as input, and the neural network is trained. At the time of recognition judgment, the observed data string is input / unused. The recognition is determined by the output of. In the above, an example of recognizing and judging "use / do not use" for an approaching person has been described.
It is needless to say that the method of recognizing is also possible with the completely same concept.
【0105】(B)CCDからの画像信号を処理した画
像データより、使用者が同一人物であるか否かにより
「使用中/使い終わった」かを認識する。CCDなどか
ら得られる画像情報(データ)を基に画像処理を行い、
使用者の各種の特徴を収集/記憶しておき、次に測定さ
れた使用者の同様にして抽出された特徴と比較して、同
一人物で或るか否かを判断し、別の人物であれば前の使
用者は既に使い終わったと判断する。(B) It is recognized from the image data obtained by processing the image signal from the CCD whether or not the user is "in use / completed" based on whether or not the user is the same person. Performs image processing based on image information (data) obtained from a CCD or the like,
Various characteristics of the user are collected / stored and then compared with the measured characteristics of the user in the same manner to determine whether or not the user is the same person. If there is, the previous user judges that it has already been used.
【0106】まず、同一人物であるか否かを判断する手
法としては、以下のようにすればよい。使用中である人
物の特定部分付近の画像データを撮影しこれを保持す
る。CCDのシステムへの付帯させ方にもよるが、使用
中の使用者の顔付近の画像を撮影しても良いし、全体を
撮影してもよい。また、近づいて来る前に既に撮影して
おいても良い。このようにして撮影された画像データに
対して、各種の特徴を抽出する。例えば、顔付近を撮影
するようにした場合、顔の丸さを表すような顔の縦長/
横長や、目の離れ具合、鼻と口との距離、髪の毛の大き
さ、眼鏡の有無等を特徴量として抽出する。大きさや長
さなどに関連したパラメータは、画像レベルでの正規
化、もしくはパラメータとして抽出する際のパラメータ
決定式に正規化するようにさせるなどのことは当然であ
り、技術的にも通常頻繁に用いられている。つまり、画
像を撮影する際に、その時によって、同じ人でも小さく
映ってしまう場合や大きく映ってしまう場合がある。例
えば、遠くにいるうちに撮影してしまえば小さく映る。
その時の被写体までの距離を計算してアフィン変換など
の処理を画像データに施しても良いし、画像から得られ
た、例えば、顔の幅の画素数などに対して、距離の補正
を施しても良しい、また、被写体までの距離が分からな
い場合は、顔の丸さ(顔の縦長/横長)のような距離に
は不変の特徴量を使用しても良い。First, as a method of determining whether or not two persons are the same person, the following method may be used. Image data around a specific portion of a person in use is photographed and held. Depending on how the CCD is attached to the system, an image near the face of the user in use may be captured, or the entire image may be captured. It is also possible to take a picture before approaching. Various features are extracted from the image data thus photographed. For example, when taking a picture near the face, the portrait of the face
The horizontal length, the degree of eye separation, the distance between the nose and the mouth, the size of the hair, the presence or absence of glasses, and the like are extracted as feature amounts. It is natural that parameters related to size, length, etc. are normalized at the image level, or to be normalized to the parameter determination formula when extracting as parameters, and technically usually Used. In other words, when an image is taken, the same person may appear small or large depending on the time. For example, if you shoot while you are far away, it will appear small.
Processing such as affine transformation may be performed on the image data by calculating the distance to the subject at that time, or the distance may be corrected for the number of pixels of the face width obtained from the image, for example. If the distance to the subject is not known, an invariable feature amount may be used for the distance such as the roundness of the face (vertical / horizontal of the face).
【0107】また、同一人物であるか否か判断された場
合、どのようにして「使用中/使い終わった」かを判断
するには、ある一定時刻内で同一人物であると判断され
る人が来た場合には、使用中であると認識し、同一人物
でないと判断された人物が来た場合には既に前の人は使
い終わったと認識する。When it is determined whether or not the person is the same person, how to determine “in use / completed use” can be determined by a person who is determined to be the same person within a certain time. Comes, it is recognized that the person is in use, and when a person who is determined not to be the same person comes, it recognizes that the previous person has already used it.
【0108】次に、測定対象物体(移動物体)の固体の
認識方法について説明する。測定対象物体の特徴デー
タ、例えば、CCDからの画像信号を処理した画像デー
タにより、身長、体重、性別、顔(大きさ、形、髪形、
眼鏡など)、服装(形、色)などを判別し、測定対象物
体(移動物体)の固体を認識する。これは、本認識装置
の付帯しているシステムを使用する人が、誰であるかを
認識しようとするもので、CCDなどによる画像入力装
置により得られた画像情報(データ)を処理して、その
人の特徴的なパラメータを抽出し、あらかじめ入力/記
憶しておいた個人別の標準特徴辞書を参照して、それら
の中のどの人かを認識/判断する。識別技術は古くから
存在し、例えば、文字認識などで実用化されている。既
個人特定化識別においても、同様の技術/原理で行え
る。Next, a method for recognizing a solid object to be measured (moving object) will be described. Height, weight, gender, face (size, shape, hairstyle, etc.) are obtained from the characteristic data of the measurement target object, for example, image data obtained by processing an image signal from a CCD.
The glasses (e.g., glasses), clothes (shape, color), and the like are determined, and a solid object to be measured (moving object) is recognized. This is intended to identify who is using the system provided with the recognition device. The image information (data) obtained by an image input device such as a CCD is processed, The characteristic parameters of the person are extracted, and reference is made to a standard characteristic dictionary for each individual, which has been input / stored in advance, to recognize / determine which person is among them. Identification technology has been around for a long time, and has been put to practical use, for example, for character recognition. The same technique / principle can be used for personalized identification.
【0109】原理を簡単に説明すると、あらかじめ辞書
と呼ばれる特定化すべきものの特徴について記述したも
のを用意し、観測された入力データの特徴を抽出し、辞
書の各内容と比較して、最も特徴が合致しているもの
を、特定されたものとするわけである。また、このよう
な識別論的なアプローチのほかにも、表参照方式、評価
関数方式、確信度計算方式、ファジィ推論方式、ニュー
ラルネット方式なども知られている。In brief, the principle is described. A dictionary called a dictionary, which describes the characteristics of the object to be specified, is prepared in advance. The characteristics of the observed input data are extracted and compared with the contents of the dictionary. The one that matches is specified. In addition to the discriminant approach, a table reference method, an evaluation function method, a certainty calculation method, a fuzzy inference method, a neural network method, and the like are also known.
【0110】個人を識別するためのデータとして、あら
かじめ登録しておかなければいけない個人に関する情報
つまり特徴は、画像処理などによって得られる特徴であ
れば何でもよいが、個人を見分けるのに良いものでなけ
ればならない。例えば、身長、体重(体積)、性別、体
や顔の大きさや形、眼鏡の有無などが考えられる。身長
は画像データより頭から爪先までの画素数を実際の長さ
に変換することにより得られる。これは対象物体までの
距離がわかっているはずなので、変換は容易である。頭
および爪先も見つけだすことは、2値化やフィルター処
理などの通常の画像処理技術や知識工学をもってすれば
実現可能である。性別は、髪の毛の形状や、覆き物、化
粧の有無、などを画像処理により得ることにより判別可
能である。画像データによって個人を特定するのに有効
とされ、よく用いられているのは、顔の特徴である。例
えば、目の離れ具合、目の形、顎の輪郭、などのよう
に、各部品間の関係や個々の部品の形状などがよく使用
される。Information about an individual, which must be registered in advance as data for identifying the individual, that is, a feature may be any feature obtained by image processing or the like, but it must be good for identifying the individual. Must. For example, height, weight (volume), gender, size and shape of body and face, presence or absence of glasses, and the like can be considered. The height is obtained by converting the number of pixels from the head to the toe from the image data to the actual length. Since the distance to the target object must be known, the conversion is easy. Finding out the head and toes can also be realized by ordinary image processing techniques such as binarization and filter processing and knowledge engineering. The gender can be determined by obtaining the shape of the hair, the covering, the presence or absence of makeup, and the like by image processing. Facial features are effective and often used to identify individuals by image data. For example, the relationship between the components and the shape of the individual components, such as the degree of eye separation, the shape of the eyes, the contour of the chin, and the like, are often used.
【0111】測定対象物体(移動物体)が検出測定エリ
ア内に複数存在する場合の「使う/使わない」の認識を
行う際の方法について述べる。ここでは、距離データの
みで判断する場合と距離データと方向データで判断する
場合があるが、まず距離データのみで判断する場合を述
べる。ここの例では説明を簡潔にする為に、移動物体が
2つの場合を説明していく。A method of recognizing "use / not use" when a plurality of measurement objects (moving objects) exist in the detection measurement area will be described. Here, there are cases where the determination is made only with the distance data and cases where the determination is made with the distance data and the direction data. First, the case where the determination is made only with the distance data will be described. In this example, a case where there are two moving objects will be described for the sake of simplicity.
【0112】まず、2つの移動物体が共に装置に近付く
場合を考える。まず、2つの移動物体が同方向から近付
く場合には、認識装置から見て距離の長い方が短い方の
陰に入ってしまう為に測定は不可能である。よって、こ
の場合には距離の短い方のみのデータで認識を行うこと
とする。また、他方向から各々接近する場合には、赤外
線を脈動発光し、その赤外線の返ってくる光量を光量計
で捉えることにより、2つ以上の他方向の物体から返っ
てきた赤外線の脈動発光の1周期における量の変化は、
図29のように山が二つの複合の山になる。これをニュ
ーロ等の判断手段を用いて判断することによって、複数
の移動物体を識別することが出来るようになる。このデ
ータを使用して使用者かどうかの判断を各々行う。First, consider a case where two moving objects both approach the apparatus. First, when two moving objects approach from the same direction, measurement is impossible because the longer distance is behind the shorter distance when viewed from the recognition device. Therefore, in this case, recognition is performed using only the data of the shorter distance. In addition, when approaching from each other direction, infrared light pulsatingly emits light, and the amount of light returned by the infrared light is captured by a light meter, so that the pulsating light emission of infrared light returned from two or more objects in other directions is obtained. The change in quantity in one cycle is
As shown in FIG. 29, the mountain becomes a composite mountain of two. By judging this using a judging means such as a neuro, a plurality of moving objects can be identified. Using this data, it is determined whether the user is a user.
【0113】次に、一方が近付き、他方が通り過ぎる場
合を考える。この場合、通り過ぎる移動物体が近付く物
体の影になったり、影にされたりする場合が考えられ
る。他の場合には前記の方法により、2つの移動物体は
識別出来るので、この時の処理方法を述べる。まず、近
付く移動物体の前を他の移動物体が横切る場合は、横切
った移動物体はそのまま判断を行い、近付く移動物体に
関しては、影に入る前のデータを元にして、影に入って
いる限りその移動を予測する。その後、影から出た時点
で再度追跡を開始する。次に、近付く移動物体の後ろを
他の移動物体が通り過ぎる場合であるが、近付く移動物
体に関してはそのまま判断を行い、横切った移動物体は
影に入る前のデータを元にして、影に入っている限りそ
の移動を予測する。その後、影から出た時点で再度追跡
を開始するが、優先的に判断を行うのは近付く移動物体
である。使用者以外の移動物体が存在する場合には、使
用者と他の移動物体が距離的に入れ替わったと判断した
時から、装置を使用するかの判断を優先的に行う対象を
現在までの使用者から、移動物体へと変更する。Next, consider the case where one approaches and the other passes by. In this case, it is conceivable that a passing moving object may be a shadow of an approaching object, or be cast as a shadow. In other cases, two moving objects can be identified by the above-described method, and a processing method at this time will be described. First, when another moving object crosses the approaching moving object, the moving object that has crossed is judged as it is, and for the approaching moving object, based on the data before entering the shadow, as long as it is in the shadow Predict its movement. After that, when it comes out of the shadow, tracking is started again. Next, in the case where another moving object passes behind the approaching moving object, the judgment is made as it is for the approaching moving object, and the moving object that traversed enters the shadow based on the data before entering the shadow. Predict that movement as long as you have. After that, the tracking is started again when the moving object comes out of the shadow. When there is a moving object other than the user, the user who has prioritized the judgment on whether to use the device from the time when it is determined that the user and the other moving object have been switched in terms of distance has been used. From to a moving object.
【0114】次に、距離データと方向データで判断する
場合について述べる。まず、2つの移動物体が近付いて
くる場合には、同方向からの場合と異なる方向からの2
通りあるが、同方向からの場合は一方が他方の影に入っ
てしまう為、センサによる検出が不可能になるので、画
像形成装置に近い移動物体の距離と方向のデータから判
断を行う。また、途中に影から出て検出された場合に
は、新たに出現した物として判断する。次に、別々の方
向から近付く場合には、異なるセンサが各々検出する為
に、別々の移動物体として捉えることができるので、各
々の動きから装置を使用するのか否かを各々判断する。
この場合、画像形成装置に距離的に近い方を先に判断す
ることとする。Next, a case where the determination is made based on the distance data and the direction data will be described. First, when two moving objects come closer, two moving objects from different directions
However, when viewed from the same direction, one becomes in the shadow of the other and cannot be detected by the sensor. Therefore, the determination is made based on the distance and direction data of the moving object close to the image forming apparatus. Also, if it is detected out of the shadow on the way, it is determined as a newly appearing object. Next, when approaching from different directions, since different sensors detect each of them, they can be regarded as separate moving objects, so it is determined whether or not to use the device from each of the movements.
In this case, the one closer in distance to the image forming apparatus is determined first.
【0115】次に、一方が近付き、他方が通り過ぎる場
合を考える。この場合、通り過ぎる移動物体が近付く物
体の影になったり、影にされたりする場合が考えられ
る。他の場合には前記の方法により、2つの移動物体は
識別出来るので、この時の処理方法を述べる。まず、近
付く移動物体の前を他の移動物体が横切る場合は、横切
った移動物体はそのまま判断を行い、近付く移動物体に
関しては、影に入る前のデータを元にして、影に入って
いる限りその移動を予測する。その後、影から出た時点
で再度追跡を開始する。次に、近付く移動物体の後ろを
他の移動物体が通り過ぎる場合であるが、近付く移動物
体に関してはそのまま判断を行い、横切った移動物体は
影に入る前のデータを元にして、影に入っている限りそ
の移動を予測する。その後、影から出た時点で再度追跡
を開始するが、優先的に判断を行うのは近付く移動物体
である。Next, consider the case where one approaches and the other passes by. In this case, it is conceivable that a passing moving object may be a shadow of an approaching object, or be cast as a shadow. In other cases, two moving objects can be identified by the above-described method, and a processing method at this time will be described. First, when another moving object crosses the approaching moving object, the moving object that has crossed is judged as it is, and for the approaching moving object, based on the data before entering the shadow, as long as it is in the shadow Predict its movement. After that, when it comes out of the shadow, tracking is started again. Next, in the case where another moving object passes behind the approaching moving object, the judgment is made as it is for the approaching moving object, and the moving object that traversed enters the shadow based on the data before entering the shadow. Predict that movement as long as you have. After that, the tracking is started again when the moving object comes out of the shadow.
【0116】ここでは、判断する場合の優先順を装置か
らの距離の近い物体からとし、次に同じ距離の場合は、
近付き方の早い物からとする。以上の方法で装置を使用
しようとしているのかを判断する際の基本的考え方とす
ることで、確実な判断を行っていくことができるように
なる。In this case, the priority order for the determination is set to the object closest to the apparatus, and if the distance is the same,
Let's start with the one approaching fast. By using the above method as a basic idea when judging whether or not an apparatus is going to be used, it is possible to make a reliable judgment.
【0117】次に、測定対象物体(移動物体)が、使用
中に画像形成装置の使用者の認識を行う際の判断方法に
ついて説明する。この例においては、赤外線発光手段と
赤外線受光手段を有し、赤外線発光手段が発する赤外線
を投光し、物体に反射される赤外線を赤外線受光手段で
受光することにより、画像形成装置から、画像形成装置
近傍の物体までの距離を検出する検出手段を用いて距離
データを得、この得られた距離データにより、使用者の
認識を行う場合は、使用を開始した時点において、この
装置を使用している使用者が一番近い距離にいると考え
られるので、常に一番近い距離の移動物体をマークして
追跡し、使用中であるかの判断を行う。Next, a description will be given of a method of determining when the object to be measured (moving object) recognizes the user of the image forming apparatus during use. In this example, the image forming apparatus has an infrared light emitting unit and an infrared light receiving unit, emits infrared light emitted by the infrared light emitting unit, and receives infrared light reflected by an object by the infrared light receiving unit. When distance data is obtained by using a detecting unit that detects a distance to an object near the device, and when the user is recognized based on the obtained distance data, use the device at the time of starting use. Since the user is considered to be at the closest distance, the moving object at the closest distance is always marked and tracked to determine whether or not the moving object is being used.
【0118】また、距離データと方向データで判断する
場合は、距離データのみでの判断と同様の判断方法で
は、検出するセンサの数を間引いて減らすとか、検出す
るタイミングを長くして認識装置の負担を減らす等のよ
うなこともできる。また、別の判断方法では次のような
ものもある。When the determination is made based on the distance data and the direction data, the same determination method as that based on only the distance data may be used to reduce the number of sensors to be detected by reducing the number of sensors to be detected, or to lengthen the detection timing to increase the timing of the recognition device. It is also possible to reduce the burden. Further, the following is another determination method.
【0119】図30は、画像形成装置の距離と方向のデ
ータを用いて使用者の判断を行う装置の図で、5aは赤
外線発光手段と赤外線受光手段(以下赤外線センサ)、
5bは複数の超音波センサ群である。赤外線センサ5a
は、排紙口の反対端方向から装置の排紙口方向に向け
て、装置から近い距離の部分を検出範囲に持つ。FIG. 30 is a view of an apparatus for making a judgment of a user by using data of the distance and direction of the image forming apparatus.
5b is a group of a plurality of ultrasonic sensors. Infrared sensor 5a
Has, in the detection range, a portion close to the apparatus from the opposite end direction of the paper discharge port toward the paper discharge port of the apparatus.
【0120】画像形成装置の使用された時点までは、赤
外線センサ5aは作動しておらず、超音波センサ5bに
より移動物体が、使用者であるかを判断している。次
に、この画像形成装置が使用された時点で、超音波セン
サ5bによる検出及び判断を中止し、使用者の検出は赤
外線センサ5aが行い始める。つまり、赤外線センサに
検出される限り、その移動物体は使用中であると判断さ
れる。次に赤外線センサの検出範囲から出た場合には、
赤外線センサ5aの動作は中止され、同時に超音波セン
サ5bが動作を開始し、使用終了の判断を行うことにな
る。以上の方法で、使用者が継続的に画像形成装置を使
用するのかを的確に判断することができる。Until the time when the image forming apparatus is used, the infrared sensor 5a is not operating, and the ultrasonic sensor 5b determines whether the moving object is a user. Next, when the image forming apparatus is used, the detection and determination by the ultrasonic sensor 5b are stopped, and the detection of the user is started by the infrared sensor 5a. That is, as long as the moving object is detected, it is determined that the moving object is in use. Next, when it comes out of the detection range of the infrared sensor,
The operation of the infrared sensor 5a is stopped, and at the same time, the operation of the ultrasonic sensor 5b is started to determine the end of use. With the above method, it is possible to accurately determine whether the user uses the image forming apparatus continuously.
【0121】[0121]
【実施例】本発明は、上述のごとき装置を使用する人の
入れ替わりを判別検出する判別手段を有する装置、例え
ば、画像形成装置において、使用者の入れ替わりを判別
し、その結果によりオートリセットを行うAI(Artifi
cial Intelligence)オートリセット機能に関する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention relates to a device having a discriminating means for discriminating and detecting a change of a person using the above-mentioned apparatus, for example, in an image forming apparatus, discriminating a change of a user and performing an automatic reset according to the result. AI (Artifi
cial Intelligence) Auto reset function.
【0122】従来のオートリセット機能は、使用者のオ
ペレーションを終了した時点からの時間設定により、自
動的に初期設定画面にリセットしていた。そのため、使
用者がリセットしたくない場合にも、しばしばリセット
される場合がある。このような、不必要なオートリセッ
トをしないために、本発明は、使用者の入れ替わりを判
別することにより、使用者が入れ替わらない限り不必要
なオートリセットを行わないようにしたものである。In the conventional auto reset function, the screen is automatically reset to the initial setting screen according to the time setting from the end of the user's operation. Therefore, even when the user does not want to reset, the reset is often performed. In order not to perform such unnecessary auto-reset, the present invention determines that the user has been replaced, so that unnecessary auto-reset is not performed unless the user is replaced.
【0123】図2は、本発明が適用される画像形成装置
の一例を示す図であるが、該画像形成装置5は、前述の
ように認識判断装置を具備し、個人または逐次同一人物
判別を行うためには距離センサ6をCCD等の画像デー
タ入力のためのセンサに変えた物を使用する。FIG. 2 is a diagram showing an example of an image forming apparatus to which the present invention is applied. The image forming apparatus 5 is provided with the recognition judging device as described above, and is capable of discriminating between individuals or the same person sequentially. In order to perform this operation, an object in which the distance sensor 6 is replaced with a sensor such as a CCD for inputting image data is used.
【0124】図31は、本発明によるAIオートリセッ
トを行う際の処理の流れを示すフローチャートで、ま
ず、画像形成装置が使用される前に個人認識(逐次同一
人物判別の場合は特徴認識)を、図3に示した認識判断
装置によって行う。次に、コピー動作が終了した時点か
ら認識判断装置が次の使用者を認識・判断する。ここ
で、前使用者以外の人が使おうとしたと判断が下された
場合、オートリセット機能が働きオペレーションパネル
は初期設定画面に変更される。この時の初期設定画面は
個人が認識を行っている場合には、記憶装置13のデー
タを用いることによって、使用者個人用の物にすること
もできる。FIG. 31 is a flowchart showing the flow of processing when performing an AI auto-reset according to the present invention. First, before the image forming apparatus is used, personal recognition (feature recognition in the case of sequential same person determination) is performed. , By the recognition determination device shown in FIG. Next, the recognition determining device recognizes and determines the next user from the time when the copying operation is completed. Here, if it is determined that a person other than the previous user tried to use the automatic reset function, the operation panel is changed to the initial setting screen. The initial setting screen at this time can be customized for the user by using data in the storage device 13 when the individual is performing recognition.
【0125】[0125]
【発明の効果】使用者の入れ替わりを判別検出し、入れ
替わりが検出されたとき、オートリセット機能作動条件
(複写動作終了後所定時間の経過、使用者の装置からの
所定距離以上の離間)に関わらずオートリセット機能を
作動させることによって、装置の使用条件設定ミスによ
る誤動作を確実に防止し、操作性及び取扱い性の極めて
優れた使用条件設定入力制御装置が実現できる。更に、
直前に使用された際の使用条件を記憶し、1回の操作で
呼び出せるようにしたため前使用者が装置から一旦離れ
た後すぐに同一使用条件で装置を使用する際にも利便性
に優れた使用条件設定入力制御装置が実現できる。Turnover was determined detection used for persons according to the present invention, when the turnover is detected, (the course of the copying operation is finished after a predetermined time, a predetermined distance or more away from the device user's) auto reset function enable conditions Regardless, by operating the auto-reset function, a malfunction due to an erroneous use condition setting of the device is reliably prevented, and a use condition setting input control device with extremely excellent operability and handleability can be realized. Furthermore ,
Since the use conditions at the time of use immediately before are memorized and can be called up by one operation, it is excellent in convenience even when the former user once leaves the device and immediately uses the device under the same use conditions. A use condition setting input control device can be realized.
【図1】 自動応答システムをOA機器に適用した場合
の構成概念を説明するためのブロック図である。FIG. 1 is a block diagram for explaining a configuration concept when an automatic response system is applied to an OA device.
【図2】 画像形成装置にセンサを実装した場合の例を
示す図である。FIG. 2 is a diagram illustrating an example of a case where a sensor is mounted on an image forming apparatus.
【図3】 認識装置の基本構成を示すブロック図であ
る。FIG. 3 is a block diagram showing a basic configuration of a recognition device.
【図4】 画像形成装置と障害物との関係を示す図であ
る。FIG. 4 is a diagram illustrating a relationship between an image forming apparatus and an obstacle.
【図5】 画像形成装置と障害物との間の距離データを
模式的に示す図である。FIG. 5 is a diagram schematically illustrating distance data between an image forming apparatus and an obstacle.
【図6】 画像形成装置に対する環境情報の一例を示す
図である。FIG. 6 is a diagram illustrating an example of environment information for an image forming apparatus.
【図7】 図4における環境情報を示す図である。FIG. 7 is a diagram showing environment information in FIG. 4;
【図8】 環境情報の変化の状態を示す図である。FIG. 8 is a diagram showing a state of change of environmental information.
【図9】 図8における距離データを示す図である。FIG. 9 is a diagram showing distance data in FIG. 8;
【図10】 図9の場合について、環境情報と距離デー
タとの差をとった結果を示す図である。FIG. 10 is a diagram showing a result obtained by taking a difference between environment information and distance data in the case of FIG. 9;
【図11】 環境情報の変化の状態を示す図である。FIG. 11 is a diagram showing a state of change of environmental information.
【図12】 図11の要部詳細図である。FIG. 12 is a detailed view of a main part of FIG. 11;
【図13】 環境情報の変化の状態を示す図である。FIG. 13 is a diagram showing a state of change of environmental information.
【図14】 図13の要部詳細図である。FIG. 14 is a detailed view of a main part of FIG. 13;
【図15】 環境情報の変化の状態を示す図である。FIG. 15 is a diagram showing a state of change of environmental information.
【図16】 環境情報の変化の状態を示す図である。FIG. 16 is a diagram showing a state of change of environmental information.
【図17】 対象物体の移動軌跡情報の概念を示す図で
ある。FIG. 17 is a diagram illustrating a concept of movement trajectory information of a target object.
【図18】 環境情報の変化の状態を示す図である。FIG. 18 is a diagram illustrating a state of change of environmental information.
【図19】 環境情報の変化の状態を示す図である。FIG. 19 is a diagram showing a state of change of environmental information.
【図20】 環境情報の変化の状態を示す図である。FIG. 20 is a diagram showing a state of change of environmental information.
【図21】 環境情報の変化の状態を示す図である。FIG. 21 is a diagram showing a state of change of environmental information.
【図22】 環境情報の変化の状態を示す図である。FIG. 22 is a diagram showing a state of change of environmental information.
【図23】 対象物体に対する認識判断を説明するため
の図である。FIG. 23 is a diagram for describing recognition determination for a target object.
【図24】 対象物体が画像形成装置に近づいてくる場
合の認識判断の例を説明するための図である。FIG. 24 is a diagram for describing an example of recognition determination when a target object approaches an image forming apparatus.
【図25】 図24の例において、各距離について生成
されたパラメータを概念的に示す図である。FIG. 25 is a diagram conceptually showing parameters generated for each distance in the example of FIG. 24;
【図26】 階層型ニューラル・ネットワークの一例を
示す図である。FIG. 26 is a diagram illustrating an example of a hierarchical neural network.
【図27】 距離センサの測定範囲内に複数の対象物体
が存在する場合の例を説明するための図である。FIG. 27 is a diagram for describing an example in which a plurality of target objects exist within a measurement range of a distance sensor.
【図28】 対象人物が画像形成装置の使用者なのか、
否かの判断の仕方の一例を示す図である。FIG. 28 shows whether the target person is a user of the image forming apparatus,
It is a figure showing an example of the way of judging whether or not.
【図29】 赤外線を脈動発光させて2以上の物体を識
別する場合の例を説明するための図である。FIG. 29 is a diagram for describing an example in which two or more objects are identified by pulsating emission of infrared light.
【図30】 赤外線センサと超音波センサを用いて使用
者の判断を行う例を説明するための図である。FIG. 30 is a diagram illustrating an example in which a user is determined using an infrared sensor and an ultrasonic sensor.
【図31】 AIオートリセットを行う際の処理のフロ
ーチャートである。FIG. 31 is a flowchart of a process when performing an AI auto reset.
1…OA機器、2…センサ部、3…認識判断装置、4…
サービス提供装置、5…画像形成装置、5a…赤外線セ
ンサ、5b…超音センサ、6…距離センサ、7…センサ
駆動部、8…パラメータ抽出部、9…認識判断部、10
…後処理部、11…制御部、12…入出力管理部、13
…記憶装置、14…データ線、15…制御線、16…外
部I/F、17…障害物、18…対象物体、21…階層
型ニューラル・ネットワーク、22…入力層、23…中
間層、24…出力層。DESCRIPTION OF SYMBOLS 1 ... OA equipment, 2 ... Sensor part, 3 ... Recognition determination device, 4 ...
Service providing device, 5: image forming device, 5a: infrared sensor, 5b: supersonic sensor, 6: distance sensor, 7: sensor driving unit, 8: parameter extracting unit, 9: recognition determining unit, 10
... Post-processing unit, 11 ... Control unit, 12 ... Input / output management unit, 13
... Storage device, 14 data line, 15 control line, 16 external I / F, 17 obstacle, 18 target object, 21 hierarchical neural network, 22 input layer, 23 intermediate layer, 24 ... the output layer.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G01S 17/88 B41J 29/00 G03G 15/00 G01S 17/88 B G06F 1/24 G06F 1/00 350B (72)発明者 一宮 孝司 東京都大田区中馬込1丁目3番6号 株 式会社リコー内 (72)発明者 市川 福男 東京都大田区中馬込1丁目3番6号 株 式会社リコー内 審査官 鶴谷 裕二 (56)参考文献 特開 昭59−123858(JP,A) 実開 平1−160448(JP,U) (58)調査した分野(Int.Cl.7,DB名) H04N 1/00 G03G 15/00 ────────────────────────────────────────────────── ─── Continued on the front page (51) Int.Cl. 7 Identification code FI G01S 17/88 B41J 29/00 G03G 15/00 G01S 17/88 B G06F 1/24 G06F 1/00 350B (72) Inventor Ichinomiya Takashi 1-3-6 Nakamagome, Ota-ku, Tokyo Ricoh Co., Ltd. (72) Inventor Fukuo Ichikawa 1-3-6 Nakamagome, Ota-ku, Tokyo Examiner at Ricoh Co., Ltd. Yuji Tsuruya (56) Reference Reference JP-A-59-123858 (JP, A) JP-A-1-160448 (JP, U) (58) Fields investigated (Int. Cl. 7 , DB name) H04N 1/00 G03G 15/00
Claims (1)
するための操作部と、装置を使用する人の入れ替わりを
判別検出する判別手段と、前記判別手段により、装置を
使用する人の入れ替わりが検出された場合に、前記操作
部から設定入力されている使用条件を予め定められた初
期の使用条件へ自動的に切り換える制御手段とを有する
使用条件設定入力制御装置において、前記制御手段によ
り、装置の使用条件が予め定められた初期の使用条件へ
自動的に切り換えられた後も直前に使用された際の使用
条件は記憶手段に記憶され、該記憶手段に記憶された前
記使用条件を1回の操作入力で呼出し、装置を該使用条
件に自動的に設定する制御手段を有することを特徴とす
る使用条件設定入力制御装置。 1. An operation unit for setting and inputting use conditions when using an apparatus, determining means for determining and detecting replacement of a person using the apparatus, and switching of a person using the apparatus by the determination means. If but detected, that have a and automatically switching control means the use conditions set input from the operation unit to a predetermined initial operating conditions
In the condition setting input control device used in the control means
The operating conditions of the device to the predetermined initial operating conditions.
Use when used immediately after switching automatically
The condition is stored in the storage means and before the condition is stored in the storage means.
The operating conditions are called by one operation input, and the device is operated under the operating conditions.
Control means for automatically setting the case
Use condition setting input control device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27243792A JP3329494B2 (en) | 1992-09-14 | 1992-09-14 | Use condition setting input control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27243792A JP3329494B2 (en) | 1992-09-14 | 1992-09-14 | Use condition setting input control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06189049A JPH06189049A (en) | 1994-07-08 |
JP3329494B2 true JP3329494B2 (en) | 2002-09-30 |
Family
ID=17513906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27243792A Expired - Fee Related JP3329494B2 (en) | 1992-09-14 | 1992-09-14 | Use condition setting input control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3329494B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002245346A (en) * | 2000-12-14 | 2002-08-30 | Fuji Xerox Co Ltd | Method and device for picture output |
EP3174277B1 (en) * | 2003-02-25 | 2018-10-31 | SHARP Kabushiki Kaisha | Image processing apparatus |
JP2005141542A (en) * | 2003-11-07 | 2005-06-02 | Hitachi Ltd | Non-contact input interface device |
US7269361B2 (en) * | 2005-08-10 | 2007-09-11 | Xerox Corporation | System and method for notifying a user of a document left at a xerographic apparatus |
JP2009134761A (en) * | 2009-03-16 | 2009-06-18 | Hitachi Ltd | Contactless input interface device and information terminal device |
JP2022065672A (en) * | 2020-10-16 | 2022-04-28 | 株式会社システック | Distance sensor device |
-
1992
- 1992-09-14 JP JP27243792A patent/JP3329494B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH06189049A (en) | 1994-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5822077A (en) | Determination unit for determining, through detecting information associated with external object, whether or not external object will use functional apparatus or who is external object, so as to provide appropriate service | |
US20200357125A1 (en) | Systems and methods for user detection, identification, and localization within a defined space | |
US5912721A (en) | Gaze detection apparatus and its method as well as information display apparatus | |
US6686844B2 (en) | Human interface system using a plurality of sensors | |
TW201941099A (en) | A method and its equipment of locking interaction target for intelligent device | |
Goodridge | Multimedia sensor fusion for intelligent camera control and human-computer interaction | |
US20040161132A1 (en) | Gesture-controlled interfaces for self-service machines and other applications | |
TW201941643A (en) | A method including its equipment and storage medium to keep intelligent device continuously awake | |
JPH11175246A (en) | Sight line detector and method therefor | |
JP3329494B2 (en) | Use condition setting input control device | |
JPH0678094A (en) | Control device for operation display | |
JPH0675728A (en) | Operation display controller | |
JPH0659039A (en) | Image forming device | |
JPH06105046A (en) | Working condition setting input controller | |
JP3205080B2 (en) | Electronic equipment | |
JP3249195B2 (en) | Electronic equipment | |
JP5865584B2 (en) | Specific person detection system and detection method | |
JPH0666954A (en) | Apparatus for controlling operation | |
CN116570439B (en) | Intelligent wheelchair control mode switching method and device, equipment and storage medium | |
JPH0666944A (en) | Image forming apparatus | |
JP3205081B2 (en) | Electronic equipment | |
JPH0659041A (en) | Image forming device | |
JPH0650752A (en) | Image formation apparatus | |
JP3205068B2 (en) | Electronic equipment | |
JPH0675444A (en) | Image forming device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070719 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080719 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090719 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |