JP2016066280A - Image processor, person detection method, and program - Google Patents
Image processor, person detection method, and program Download PDFInfo
- Publication number
- JP2016066280A JP2016066280A JP2014195226A JP2014195226A JP2016066280A JP 2016066280 A JP2016066280 A JP 2016066280A JP 2014195226 A JP2014195226 A JP 2014195226A JP 2014195226 A JP2014195226 A JP 2014195226A JP 2016066280 A JP2016066280 A JP 2016066280A
- Authority
- JP
- Japan
- Prior art keywords
- person
- predetermined range
- image processing
- mfp
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像処理装置、人物検出方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, a person detection method, and a program.
例えば画像形成装置等の機器において、省電力モードからの復帰時間を短くするために、人物検知センサを用いて機器の利用者の接近を検知して、この利用者が機器の操作を開始する前に省電力モードから復帰する技術が知られている(例えば特許文献1参照)。 For example, in a device such as an image forming apparatus, in order to shorten the return time from the power saving mode, a person detection sensor is used to detect the approach of the user of the device and the user starts operating the device. A technique for returning from the power saving mode is known (see, for example, Patent Document 1).
しかしながら、上記の従来技術においては、機器の周辺に複数の人物がいる場合に機器の利用者を正しく判断することができないことがあった。例えば、複数の人物が何度も入れ替わり機器を利用する場合等では、1人の人物が機器を利用し続けていると誤って判断されることがあった。また、例えば、機器を利用中の人物の近くを他の人物が通り過ぎた場合等では、機器の利用者が入れ替わったと誤って判断されることがあった。したがって、人物検知センサを用いた機器の省電力制御や自動ログオフ制御等が正しく行えない場合があった。 However, in the above prior art, there are cases where the user of the device cannot be correctly determined when there are a plurality of persons around the device. For example, when a plurality of persons change devices many times and use a device, it may be erroneously determined that one person continues to use the device. Further, for example, when another person passes near a person who is using the device, it may be erroneously determined that the user of the device has been switched. Therefore, there are cases where power saving control, automatic logoff control, etc. of the device using the person detection sensor cannot be performed correctly.
本発明の実施の形態は、上記の点に鑑みてなされたもので、人物の移動軌跡から機器の利用者が他の利用者に入れ替わったのか否かを判定することを目的とする。 The embodiment of the present invention has been made in view of the above points, and an object of the present invention is to determine whether or not a user of a device has been replaced by another user based on a person's movement trajectory.
上記目的を達成するため、本発明の実施の形態は、画像処理装置であって、所定の範囲内に位置する人物を検出する人物検出手段と、前記人物検出手段により検出された人物の前記所定の範囲内における過去の位置から現在の位置までの移動軌跡を導出し、該移動軌跡に基づき前記所定の範囲内に位置する1以上の人物をそれぞれ区別する区別手段と、前記区別手段により区別された人物に関する情報に基づき、前記画像処理装置を操作する人物が他の人物に入れ替わったのか否かを判定する判定手段と、を有することを特徴とする。 In order to achieve the above object, an embodiment of the present invention is an image processing apparatus, comprising: a person detection unit that detects a person located within a predetermined range; and the predetermined person detected by the person detection unit. A discriminating means for deriving a movement trajectory from a past position to a current position within a range and distinguishing one or more persons located within the predetermined range based on the movement trajectory, and the discrimination means And determining means for determining whether or not the person who operates the image processing apparatus has been replaced with another person based on the information related to the person.
本発明の実施の形態によれば、人物の移動軌跡から機器の利用者が他の利用者に入れ替わったのか否かを判定することができる。 According to the embodiment of the present invention, it is possible to determine whether or not the user of the device has been replaced with another user from the movement trajectory of the person.
以降、本発明の実施の形態について、図面を参照しつつ詳細に説明する。本実施形態では、画像処理装置の一例としてMFP(MultiFunction Peripheral)について説明するが、これに限られず、例えば、プロジェクタ、電子黒板、ゲーム機器等の各種電子機器であってもよい。すなわち、本発明の実施形態は、人体検知センサを用いて各種制御を行う電子機器に対して適用され得る。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, an MFP (Multi Function Peripheral) will be described as an example of an image processing apparatus. However, the present invention is not limited to this, and may be various electronic devices such as a projector, an electronic blackboard, and a game device. That is, the embodiment of the present invention can be applied to an electronic device that performs various controls using a human body detection sensor.
<ハードウェア構成>
まず、本実施形態に係るMFP10のハードウェア構成について説明する。本実施形態に係るMFP10は、例えば図1に示すようなハードウェア構成により実現される。図1は、本実施形態に係るMFPの一例のハードウェア構成図である。図1に示すように、本実施形態に係るMFP10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、HDD(Hard Disk Drive)14、通信I/F15、操作パネル16、人体検知センサ17、画像処理エンジン18等を備え、それぞれがバスBで相互に接続されている。
<Hardware configuration>
First, a hardware configuration of the
CPU11は、ROM12やHDD14等の記憶装置からプログラムやデータをRAM13上に読み出し、処理を実行することで、MFP10全体の制御や機能を実現する演算装置である。
The
ROM12は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)である。RAM13は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。
The
HDD14は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、例えば、本実施形態を実現するためのプログラム、MFP10全体を制御する基本ソフトウェアであるOS(Operating System)、OS上において各種機能を提供するアプリケーションソフトウェア等がある。HDD14は格納しているプログラムやデータを所定のファイルシステム及び/又はDB(データベース)により管理している。なお、MFP10は、HDDの代わりに又はHDDと併せて、SSD(Solid State Drive)等を備えていてもよい。
The HDD 14 is a non-volatile storage device that stores programs and data. The stored programs and data include, for example, a program for realizing the present embodiment, an OS (Operating System) that is basic software for controlling the
通信I/F15は、例えば、LAN等によりネットワークに接続するためのインタフェースである。これにより、MFP10は通信I/F15を介して他の機器とデータ通信を行うことができる。
The communication I /
操作パネル16は、ユーザからの入力を受け付ける入力部と、表示を行う表示部とを備えているタッチパネルである。ユーザは、操作パネル16を介してMFP10に対して各種情報を入力するための操作を行うことができる。
The
人体検知センサ17は、MFP10の周囲(例えば、MFP10の操作パネル16の前面方向の所定範囲)の人(人物)を検知するセンサである。人体検知センサ17は、例えば、赤外線、超音波、可視光線等を用いて人を検知するセンサや、カメラ等の撮像手段で撮像することにより生成した画像データを用いて人を検知するセンサ等である。ただし、人体検知センサ17は、これらに限られず、種々の方法を用いて人を検知する種々のセンサであってもよい。なお、人体検知センサ17は、人を検知可能な範囲が、人体検知センサ17の種類又は設定等により決まっており、以降では、このような所定の範囲を「センサ検知範囲」と称する。
The human
また、MFP10は、人体検知センサ17を2台以上有していてもよい。MFP10は人体検知センサ17を2台以上有することにより、例えば、一の人体検知センサ17では死角となる位置に人物が存在する場合でも、他の人体検知センサ17において検知できる位置であれば、当該人物の存在を検知することができる。すなわち、複数の人体検知センサ17それぞれが取得する情報を、相互に補完しつつ人物の検知を行うことができる。なお、このようにMFP10が人体検知センサ17を2台以上有する場合、後述する人体検知部101はそれぞれの人体検知センサ17に対応する人体検知手段を有していてもよい。例えばMFP10が人体検知センサ17を2台有する場合、一の人体検知センサ17のセンサ検知範囲(第1の所定の範囲)における人物を検知する第1の人物検知手段と、他の人体検知センサ17のセンサ検知範囲内(第2の所定の範囲)における人物を検知する第2の人物検知手段とを有していてもよい。
Further, the MFP 10 may include two or more human
画像処理エンジン18は、例えば、プリント機能、コピー機能、スキャン機能等のMFP10が有する各種画像処理機能を行う。
The
本実施形態に係るMFP10は、上記したハードウェア構成により後述するような各種処理を実現できる。
The
<ソフトウェア構成>
次に、本実施形態に係るMFP10のソフトウェア構成について説明する。本実施形態に係るMFP10は、例えば図2に示すような機能ブロックにより実現される。図2は、本実施形態に係るMFPの一例の機能ブロック図である。図2に示すように、本実施形態に係るMFP10は、人体検知部101、人体検知情報制御部102、移動軌跡特定部103、人物区別部104、利用者判定部105、省エネ制御部106、自動ログアウト制御部107等を有する。また、本実施形態に係るMFP10は、人物別検知情報記憶部108を利用する。
<Software configuration>
Next, a software configuration of the
人体検知部101は、例えば、CPU11、人体検知センサ17等により実現され、センサ検知範囲内の人を検知する。人体検知部101により検知された人の情報は、人体検知情報として人体検知情報制御部102に渡される。ここで、人体検知情報とは、人体検知センサ17により検知されたセンサ検知範囲内における人の情報であり、例えば、ある時点におけるセンサ検知範囲内における人の位置情報である。また、人体検知情報は、センサ検知範囲内をカメラ等の撮像手段で撮像して生成した画像データ又はこの画像データから算出された人の位置情報等であってもよい。
The human
人体検知情報制御部102は、例えば、CPU11等により実現され、人体検知部101から受け取った人体検知情報に基づいて、他の各部に処理を依頼する。例えば、人体検知情報制御部102は、人体検知部101から人体検知情報を受け取ると、検知された人をトラッキングするために移動軌跡特定部103に処理を依頼する。また、人体検知情報制御部102は、移動軌跡特定部103によりトラッキングされた人体検知情報を、この人体検知情報に含まれる人別に区別するために人物区別部104に処理を依頼する。
The human body detection
移動軌跡特定部103は、例えば、CPU11等により実現され、人体検知情報制御部102から受け取った人体検知情報に基づき、センサ検知範囲内において検知された人の移動軌跡をトラッキングする。これにより、本実施形態に係るMFP10では、センサ検知範囲内において、検知された人が移動した場合の移動軌跡がトラッキングされる(すなわち、移動軌跡に関する情報が導出される)。なお、移動軌跡に関する情報とは、センサ検知範囲内において検知された人が、このセンサ検知範囲内において移動した場合(静止している場合も含む)の軌跡に関する情報(つまり、後述するように、各時点における位置情報)である。
The movement
人物区別部104は、例えば、CPU11等により実現され、移動軌跡特定部103により移動軌跡がトラッキングされた人を、人別の情報に区別して、人物別検知情報を作成又は更新する。すなわち、例えば、人体検知情報に複数の人の位置情報等が含まれる場合に、それぞれの人毎の移動軌跡に関する情報からそれぞれ人物別検知情報を作成する。ここで、人物別検知情報とは、センサ検知範囲内において検知された人の人別の移動軌跡に関する情報(トラッキング情報)であり、例えば、ある人の各時点における位置情報である。このように、本実施形態に係るMFP10では、センサ検知範囲内において検知された人毎のトラッキング情報(人物別検知情報)が作成される。したがって、MFP10は、人物別検知情報を用いることにより、センサ検知範囲内に複数の人が存在する場合においても各々の人を識別することができる。換言すれば、MFP10は、人物別検知情報により、センサ検知範囲内において、検知された複数の人がすれ違うような場合や検知された人が遮蔽物の後ろを通り過ぎるような場合においても、各々の人を他の人の間違うことなく認識することができる。
The
利用者判定部105は、例えば、CPU11等により実現され、人物別検知情報に基づきセンサ検知範囲内から離れた(センサ検知範囲の外に出た)人が、MFP10の利用者であるか否かを判定する。これにより、本実施形態に係るMFP10は、複数の人が入れ替わりMFP10を利用する場合等においても、各々の利用者を異なる利用者であると識別することができる。したがって、本実施形態に係るMFP10は、例えば、前の利用者が利用し終わった後、間もなく次の利用者がMFP10を利用するような場合等においても、自動ログアウト制御部107による前の利用者の自動ログアウトが行われる。
For example, the
省エネ制御部106は、例えば、CPU11等により実現され、MFP10を省電力状態(例えば、操作パネル16のバックライトをOFFにする等)に移行させる制御を行う。すなわち、例えば、MFP10の利用者が利用を終了(これは、MFP10の利用者がセンサ検知範囲から外に出たと判定されることで認識される)した場合において、所定の時間が経過している場合、省エネ制御部106は、MFP10を省電力状態に移行させる。
The energy saving
自動ログアウト制御部107は、例えば、CPU11等により実現され、MFP10の利用者を、MFP10から自動でログアウトさせる制御を行う。すなわち、上記で説明した省エネ制御部106と同様に、例えば、MFP10の利用者が利用を終了した場合において、所定の時間が経過している場合、自動ログアウト制御部107は、MFP10の利用者を、MFP10から自動でログアウトさせる。
The automatic
人物別検知情報記憶部108は、例えば、HDD14又はMFP10とネットワークを介して接続された記憶装置等により実現され、人物別検知情報を記憶する。人物別検知情報は、上述した通り、センサ検知範囲内において検知された人別の移動軌跡に関する情報(トラッキング情報)である。
The person detection
<処理の概要>
次に、本実施形態に係るMFP10の処理の概要について説明する。図3は、本実施形態に係るMFPの処理の概要の一例を説明するための図である。図3では、MFP10の利用者が人物Aから人物Bに入れ替わる場合(図3(a))と、MFP10を利用している人物Aの近くを人物Bが通り過ぎる場合(図3(b))とについて説明する。
<Outline of processing>
Next, an outline of processing of the
なお、従来では、図3(a)の場合では利用者が入れ替わっていないと誤って判断されることがあり、図3(b)の場合では利用者が入れ替わったと誤って判断されることがあった。 Conventionally, in the case of FIG. 3A, it may be erroneously determined that the user has not been switched, and in the case of FIG. 3B, it may be erroneously determined that the user has been switched. It was.
まず、図3(a)を用いて、MFP10の利用者が人物Aから人物Bに入れ替わる場合について説明する。
First, a case where the user of the
ステップS1−1において、人物AがMFP10を利用するために、MFP10に接近したものとする。このとき、人物AがMFP10のセンサ検知範囲内に入ると、人体検知センサ17は人物Aを検知する。そして、MFP10は、人物Aの移動軌跡をトラッキングする。なお、このとき、センサ検知範囲内の人数は、1人となる。
In step S1-1, it is assumed that the person A approaches the
ステップS1−2において、人物AはMFP10を利用中である。
In step S1-2, the person A is using the
ステップS1−3において、人物AがMFP10の利用を終えてMFP10を離れ始めるのとほぼ同じタイミングで、人物BがMFP10を利用するためにMFP10に接近したものとする。このとき、人物BがMFP10のセンサ検知範囲内に入ると、人体検知センサ17は人物Bを検知して、人物Bの移動軌跡をトラッキングする。これにより、MFP10は、人物Aと人物Bとが同一人物であると誤認識することなく、別人物であると認識することができる。なお、このとき、センサ検知範囲内の人数は、2人となる。
In step S <b> 1-3, it is assumed that the person B approaches the
ステップS1−4において、人物BがMFP10を利用中である一方、人物Aはセンサ検知範囲から外に出たものとする。このとき、本実施形態に係るMFP10は、人物A及び人物Bの移動軌跡をトラッキングしているため、人物Aと人物Bとを誤認識することなく、人物Aがセンサ検知範囲から外に出た一方、MFP10の利用者が人物Aから人物Bに代わったことを認識することができる。したがって、人物AがMFP10の利用を終えて、センサ検知範囲の外に出た場合、MFP10は所定の場合に省エネ制御や人物Aのユーザアカウントの自動ログアウト制御等を行うことできる。これにより、本実施形態に係るMFP10は、無駄な電力消費等を抑えることができるとともに、他のユーザによるユーザアカウントの不正利用を防止することができる。なお、このとき、センサ検知範囲内の人数は、1人となる。ここで、上記においてユーザアカウントとは、ユーザがMFP10を利用するために予め付与されたユーザ名(又はユーザID)等を含む情報である。利用者(ユーザ)は、MFP10の利用開始時に、自身に付与されたユーザアカウントを用いてログインすることで、このMFP10を利用することができる。他方、利用者(ユーザ)は、MFP10の利用終了時に、自身に付与されたユーザアカウントをMFP10からログアウトすることで、このMFP10の利用を終了させる。換言すれば、ログイン及びログアウトとは、ログイン及びログアウトされたユーザアカウントに対して、それぞれ、MFP10の利用権限を付与する及び剥奪することである。
In step S1-4, it is assumed that the person B is using the
次に、図3(b)を用いて、MFP10を利用している人物Aの近くを人物Bが通り過ぎる場合について説明する。
Next, the case where the person B passes near the person A who uses the
ステップS2−1において、人物AがMFP10を利用するために、MFP10に接近したものとする。このとき、人物AがMFP10のセンサ検知範囲内に入ると、人体検知センサ17は人物Aを検知する。そして、MFP10は、人物Aの移動軌跡をトラッキングする。なお、このとき、センサ検知範囲内の人数は、1人となる。
In step S2-1, it is assumed that the person A approaches the
ステップS2−2において、人物AはMFP10を利用中である。
In step S2-2, the person A is using the
ステップS2−3において、人物AがMFP10の利用中に、人物BがMFP10の近く(センサ検知範囲内)を通過するものとする。このとき、人物BがMFP10のセンサ検知範囲内に入ると、人体検知センサ17は人物Bを検知して、人物Bの移動軌跡をトラッキングする。これにより、MFP10は、人物Aと人物Bとが同一人物であると誤認識することなく、別人物であると認識することができる。なお、このとき、センサ検知範囲内の人数は、2人となる。
In step S2-3, it is assumed that the person A passes near the MFP 10 (within the sensor detection range) while the person A is using the
ステップS2−4において、人物AがMFP10を利用中である一方、人物Bはセンサ検知範囲から外に出たものとする。このとき、本実施形態に係るMFP10は、人物A及び人物Bの移動軌跡をトラッキングしているため、人物Aと人物Bとを誤認識することなく、人物Bがセンサ検知範囲から外に出た一方、MFP10の利用者は引き続き人物Aであることを認識することができる。したがって、MFP10を利用中である人物Aの近くを人物Bが通り過ぎる場合においても、MFP10は省エネ制御や自動ログアウト制御等の誤った制御を行うことがない。なお、このとき、センサ検知範囲内の人数は、1人となる。
In step S2-4, it is assumed that the person A is using the
以上のように、本実施形態に係るMFP10では、人体検知センサ17で検知された人物の移動軌跡をトラッキングすることで、センサ検知範囲内に位置する各人物をそれぞれ区別して認識することができる。したがって、本実施形態に係るMFP10は、人物の誤認識に起因する誤った制御を防止することができる。
As described above, the
<処理の詳細>
次に、本実施形態に係るMFP10の処理の詳細について説明する。
<Details of processing>
Next, details of processing of the
≪MFP10の制御処理≫
図4は、本実施形態に係るMFPの制御処理の一例のフローチャートである。まず、MFP10を利用したいと所望する人物Aが、MFP10を利用するためにMFP10に近づき、センサ検知範囲内に入ったものとする。
<< Control Process of
FIG. 4 is a flowchart of an example of control processing of the MFP according to the present embodiment. First, it is assumed that a person A who desires to use the
ステップS401において、人体検知部101は、センサ検知範囲内の人を検知する。すなわち、人体検知部101は、MFP10のセンサ検知範囲内の人物Aを検知する。人体検知部101は、センサ検知範囲内の人を検知すると、人体検知情報を人体検知情報制御部102に送信する。なお、人体検知情報とは、上述した通り、例えば、人体検知部101により検知されたセンサ検知範囲内の人の位置情報、又はセンサ検知範囲内をカメラ等の撮像手段で撮像して生成した画像データ若しくはこの画像データから算出された人の位置情報等である。
In step S401, the human
ステップS402において、人体検知情報制御部102は、人体検知部101より受け取った人体検知情報に基づき、人体検知部101により検知された人のトラッキングを行い、人物別検知情報を人物別検知情報記憶部108に格納させる。人体検知部101により検知された人のトラッキングを行うためのトラッキング処理は、例えば、パーティクルフィルタを用いる場合や画像データを用いる場合等がある。以下では、図3(a)で示したようにMFP10の利用者が人物Aから人物Bに入れ替わる場合について、パーティクルフィルタを用いたトラッキング方法と画像データを用いたトラッキング方法の概略を説明する。
In step S <b> 402, the human body detection
図5は、パーティクルフィルタを用いたトラッキングの一例を説明するための図である。人体検知情報がセンサ検知範囲内における人物の位置情報である場合に、この人物の位置情報の変化をパーティクルフィルタで予測することでトラッキングを行うことができる。この方法によれば、人物AがMFP10を利用するためにセンサ検知範囲内に入ると、パーティクルフィルタを用いて人物Aの移動軌跡がトラッキングされる(ステップS3−1)。人物AがMFP10を利用し(ステップS3−2)、人物Aが利用を終えてMFP10を離れ始めるのとほぼ同じタイミングで、人物BがMFP10を利用するためにMFP10に接近したものとする。このとき、人物BがMFP10のセンサ検知範囲内に入ると、人体検知センサ17は人物Bを検知して、パーティクルフィルタを用いて人物Bの移動軌跡をトラッキングされる(ステップS3−3)。そして、人物BがMFP10を利用中である一方、人物Aはセンサ検知範囲から外に出たものとする。このとき、上述したように、パーティクルフィルタを用いて人物A及び人物Bの移動軌跡がトラッキングされているため、MFP10は利用者が人物Aから人物Bに代わったことを認識することができる(ステップS3−4)。以上のようなパーティクルフィルタを用いたトラッキング処理の詳細については、後述する。
FIG. 5 is a diagram for explaining an example of tracking using a particle filter. When the human body detection information is position information of a person within the sensor detection range, tracking can be performed by predicting a change in the position information of the person using a particle filter. According to this method, when the person A enters the sensor detection range in order to use the
図6は、画像データを用いたトラッキングの一例を説明するための図である。人体検知情報がセンサ検知範囲内における人物の画像の特徴点に関する情報である場合に、この人物の画像の特徴点を用いてマッチングすることでトラッキングを行うことができる。この方法によれば、人物AがMFP10を利用するためにセンサ検知範囲内に入ると、人物Aの画像の特徴点を用いたマッチングにより人物Aの移動軌跡がトラッキングされる(ステップS4−1)。人物AがMFP10を利用し(ステップS4−2)、人物Aが利用を終えてMFP10を離れ始めるのとほぼ同じタイミングで、人物BがMFP10を利用するためにMFP10に接近したものとする。このとき、人物BがMFP10のセンサ検知範囲内に入ると、人体検知センサ17は人物Bを検知して、人物Bの画像の特徴点を用いてマッチングすることで、人物Bの移動軌跡がトラッキングされる(ステップS4−3)。そして、人物BがMFP10を利用中である一方、人物Aはセンサ検知範囲から外に出たものとする。このとき、上述したように、それぞれの人物の特徴点を用いてマッチングにより人物A及び人物Bの移動軌跡がトラッキングされているため、MFP10は利用者が人物Aから人物Bに代わったことを認識することができる(ステップS4−4)。以上のような画像データを用いたトラッキング処理の詳細については、後述する。
FIG. 6 is a diagram for explaining an example of tracking using image data. When the human body detection information is information related to the feature points of the person image within the sensor detection range, tracking can be performed by matching using the feature points of the person image. According to this method, when person A enters the sensor detection range in order to use
ステップS403において、人体検知部101により検知された人がMFP10を利用する。例えば、人体検知部101により検知された人物AがMFP10を利用する。
In step S <b> 403, the person detected by the human
ステップS404において、人体検知情報制御部102は、センサ検知範囲内の人の人数が増加したか又は減少したかを判定する。これは、上述のステップS402によりセンサ検知範囲内の人の移動軌跡をそれぞれトラッキングすることで生成される人物別検知情報により判定することができる。例えば、人物別検知情報が、人別の各時点における位置情報である場合、人体検知情報制御部102は、現時点の位置情報が記録されている人物別検知情報の数を算出することで判定することができる。センサ検知範囲内の人の人数が増加した場合(すなわち、人体検知部101により新たに人が検知された場合)は、ステップS405に進む。他方、センサ検知範囲内の人の人数が減少した(すなわち、センサ検知範囲内からセンサ検知範囲外に人が移動した場合)は、ステップS406に進む。なお、センサ検知範囲内の人の人数の増減がない場合には、人体検知情報制御部102は何もしない。
In step S404, the human body detection
ステップS405において、人体検知情報制御部102は、人体検知部101により新たに検知された人のトラッキングを行い、この検知された人の人物別検知情報を人物別検知情報記憶部108に格納させる。このトラッキングを行うための処理は、上述したステップS402で説明した処理と同様である。
In step S <b> 405, the human body detection
ステップS406において、人体検知情報制御部102は、センサ検知範囲内の人の人数が1人以上が否かを判定する。この判定は、上述したステップS404と同様に、例えば、人物別検知情報が、人別の各時点における位置情報である場合、人体検知情報制御部102は、現時点の位置情報が記録されている人物別検知情報の数を算出することで判定することができる。センサ検知範囲内の人の人数が、1人以上である場合、ステップS407に進む。他方、センサ検知範囲内の人の人数が、0人である場合、ステップS413に進む。
In step S406, the human body detection
ステップS407において、利用者判定部105は、センサ検知範囲外となった人物が、MFP10の利用者(例えば、上述した人物A)であるか否かを判定する。これは、例えば、人物Aの人物別検知情報から判定することができる。すなわち、例えば、MFP10の利用者であった人物Aの人物別検知情報において、現時点の位置情報が記録されていない場合、利用者判定部105は、人物Aはセンサ検知範囲外となったと判定される。他方、例えば、人物Aの人物別検知情報において、現時点の位置情報が記録されている場合、センサ検知範囲の外に移動した人物は、人物A以外であると判定される。センサ検知範囲外となった人物がMFP10の利用者である場合、ステップS409に進む。他方、センサ検知範囲外となった人物がMFP10の利用者でない場合、ステップS410に進む。
In step S <b> 407, the
ステップS408において、MFP10は、ある特定の利用者(例えば、上述した人物A)が継続して利用しているものとして動作する。すなわち、この場合、MFP10では自動ログアウト制御や省エネ制御等の各種制御は行われない。
In step S408, the
ステップS409において、自動ログアウト制御部107は、自動ログアウトタイマがタイムアップとなっているか否かを判定する。すなわち、例えばセンサ検知範囲外に移動した人物AによるMFP10に対する最後の操作から所定の時間が経過しているか否かを判定する。自動ログアウトタイマがタイムアップとなっている場合、ステップS410に進む。他方、自動ログアウトタイマがタイムアップとなっていない場合、ステップS411に進む。
In step S409, the automatic
ステップS410において、自動ログアウト制御部107は、MFP10の利用者(例えば、上述した人物A)を、MFP10から自動でログアウトさせる制御を行う。これにより、MFP10の利用者である人物AがMFP10の利用後ログアウトせずにセンサ検知範囲外に出た場合、操作終了後所定の時間が経過していれば自動でユーザアカウントがログアウトされる。
In step S <b> 410, the automatic
ステップS411において、省エネ制御部106は、省エネ移行タイマがタイムアップとなっているか否かを判定する。すなわち、例えばセンサ検知範囲外に移動した人物AによるMFP10に対する最後の操作から所定の時間が経過しているか否かを判定する。省エネ移行タイマがタイムアップとなっている場合、ステップS412に進む。他方、省エネ移行タイマがタイムアップとなっていない場合、ステップS404に戻る。
In step S411, the energy saving
ステップS412において、省エネ制御部106は、MFP10を省電力状態に移行させる制御を行う。これにより、MFP10の利用者である人物Aの操作終了後、所定の時間が経過していればMFP10は省エネ状態に移行する。
In step S412, the energy saving
なお、上述したように、MFP10の利用者がセンサ検知範囲外に出た場合に、自動ログアウト制御及び省エネ制御を行う処理について述べたが、これらに限られず、MFP10はその他の各種制御を行ってもよい。例えば、MFP10の利用者がセンサ検知範囲外に出た場合に、MFP10のシステムリセット制御手段(不図示)は、操作パネル16の表示を初期画面や予め設定された所定の機能を実行させるための画面に遷移する(すなわち、所定の状態にシステムをリセットする)ための制御を行ってもよい。
As described above, the process of performing the automatic logout control and the energy saving control when the user of the
ステップS413〜ステップS416は、それぞれステップS409〜ステップS412と同様の処理であるため、説明を省略する。 Steps S413 to S416 are the same processes as steps S409 to S412 and will not be described.
以上のように、本実施形態に係るMFP10は、センサ検知範囲内において検知された人物をトラッキングすることで、各人物を区別して認識する。これにより、MFP10の利用者が他の利用者に入れ替わったのか否か、MFP10の利用者がセンサ検知範囲の外に出たのか否か等を認識することができる。したがって、本実施形態に係るMFP10は、自動ログアウト制御や省エネ制御等の各種制御を適切に行うことができる。
As described above, the
≪パーティクルフィルタを用いたトラッキング処理≫
次に、上記のステップS402及びS405におけるトラッキング処理について、一例としてパーティクルフィルタを用いたトラッキング処理について説明する。図7は、本実施形態に係るトラッキング処理の一例のフローチャートである。なお、トラッキング処理はパーティクルフィルタを用いる場合に限られず、例えば、カルマンフィルタを用いてもよい。カルマンフィルタとは、現在の観測値と、1つ前の時点(例えば、1つ前のフレーム)の状態推定値とに基づき、現在の状態推定値と1つ後の時点(例えば、1つ後のフレーム)の状態推定値とを算出するものである。カルマンフィルタを用いた場合、パーティクルフィルタと比して推定(予測)精度は低いものの、計算量を抑えることができる。なお、パーティクルフィルタやカルマンフィルタを用いた人物や物体のトラッキング処理は既知の方法であるため、以降では概略を述べる。
≪Tracking process using particle filter≫
Next, tracking processing using a particle filter will be described as an example of the tracking processing in steps S402 and S405. FIG. 7 is a flowchart of an example of tracking processing according to the present embodiment. The tracking process is not limited to using a particle filter, and for example, a Kalman filter may be used. The Kalman filter is based on the current observation value and the state estimation value of the previous time point (for example, the previous frame), and the current state estimation value and the next time point (for example, the next time point). Frame) state estimation value. When the Kalman filter is used, although the estimation (prediction) accuracy is lower than that of the particle filter, the calculation amount can be suppressed. Since tracking processing of a person or an object using a particle filter or a Kalman filter is a known method, an outline will be described below.
ステップS701において、移動軌跡特定部103は、人体検知情報制御部102より人物の位置情報を含む人体検知情報を受け取ると、人物の位置情報を現在の観測値(現在の観測状態)として取得する。そして、移動軌跡特定部103は、現在の観測状態の付近の位置(位置座標)をパーティクルとする。換言すれば、移動軌跡特定部103は、現在の観測状態の付近の位置にパーティクルを撒く。なお、初期状態においては、移動軌跡特定部103は、現在の観測値の付近にランダムにパーティクルを撒き、他方、初期状態以外においては、ステップS705で算出された重み付けに応じてパーティクルを撒く(撒き直す)。
In step S <b> 701, upon receiving the human body detection information including the position information of the person from the human body detection
なお、移動軌跡特定部103は、人体検知情報制御部102より複数の人物の位置を含む人体検知情報を受け取った場合(すなわち、センサ検知範囲内に複数の人物がいる場合)、一の位置情報を取得して、この取得した位置情報を当該人物の現在の観測状態する。この場合、人体検知情報に含まれる人物の位置情報毎に、ステップS701〜ステップS705を繰り返す。
In addition, the movement locus | trajectory specific |
ステップS702において、移動軌跡特定部103は、過去の推定値(過去の推定状態)があるか否かを判定する。過去の推定状態がある場合、ステップS703に進む一方、過去の推定状態がない場合、ステップS701に戻る。ここで、過去の推定状態とは、現時点により以前のすべての時点におけるにおけるステップS705の処理において算出された「次の時点の推定状態」である。
In step S702, the movement
ステップS703において、移動軌跡特定部103は、過去の推定状態に基づき、現在の推定状態を算出する。すなわち、移動軌跡特定部103は、各パーティクルを所定の状態方正式に基づいて移動させる。
In step S703, the movement
ステップS704において、移動軌跡特定部103は、現在の推定状態に基づき、各パーティクルの尤度を所定の計算式により算出する。ここで算出された尤度が、各パーティクルの「重み」となる。
In step S704, the movement
ステップS705において、移動軌跡特定部103は、各パーティクルの重み付き平均を次の時点の推定状態(次の時点の推定値)として取得する。なお、各パーティクルにおいて最大の重みを持つパーティクルを、次の時点の推定状態としてもよい。
In step S705, the movement
以上のステップS701〜ステップS705を、各時点毎に繰り返すことで、人物の移動軌跡をトラッキングすることができる。そして、人物区別部104は、各時点毎に、人物毎に人物別検知情報を作成又は更新して、人物別検知情報記憶部108に格納する。これにより、人物別検知情報記憶部108には、人体検知部101により検知された人物毎の移動軌跡に関する情報を示す人物別検知情報が格納される。
By repeating the above steps S701 to S705 for each time point, the movement trajectory of the person can be tracked. Then, the
≪画像データを用いたトラッキング処理≫
次に、上記のステップS402及びS405におけるトラッキング処理について、他の例として画像データを用いたトラッキング処理について説明する。図8は、本実施形態に係るトラッキング処理の他の例のフローチャートである。画像データを用いる場合とは、人体検知センサ17として、例えばカメラ等の撮像手段を用いる場合である。以降では、画像データに基づき、人物の画像の特徴点を用いたマッチングによりトラッキングする処理について説明する。なお、画像データには、1人以上の人物の画像が含まれるものとする。すなわち、人体検知センサ17は、センサ検知範囲内に人物が存在する場合のみ撮像するか、又は常にセンサ検知範囲内を撮像する場合には特徴点等に基づき人物が写っている場合のみ人体検知情報を人体検知情報制御部102に送信するものとする。ただし、人体検知センサ17により撮像された画像データには、人物の一部(例えば、顔)のみが写っている場合であってもよい。なお、画像データを用いた特徴点のマッチングによる人物や物体のトラッキング処理は既知の方法であるため、以降では概略を述べる。
≪Tracking process using image data≫
Next, tracking processing using image data will be described as another example of the tracking processing in steps S402 and S405. FIG. 8 is a flowchart of another example of the tracking process according to the present embodiment. The case where image data is used is a case where imaging means such as a camera is used as the human
ここで、人体検知センサ17がカメラ等である場合に、撮像により生成された画像データに人物が写って否かは、MFP10のマップ作成手段(不図示)により予め作成されたMFP10の周囲の空間を撮像して生成された画像データ(マップ)を用いることにより判定することができる。すなわち、MFP10のマップ作成手段(不図示)は、予め、MFP10の周囲(センサ検知範囲)を人物がいない状態で撮像し、画像データ(これを「第1のマップ」と表す)を生成する。これにより、MFP10の人体検知部101は、各時点において撮像により生成された画像データ(これを「第2のマップ」と表す)と、第1のマップとの差分を取ることにより、各時点のおける画像データに人物が写っていることを検知することができる。つまり、第1のマップと第2のマップとに差がある箇所又は差が所定以上の箇所が人物が写っている箇所となる。
Here, when the human
ステップS801において、移動軌跡特定部103は、人体検知情報制御部102より画像データを含む人体検知情報を受け取ると、この画像データに含まれる人物の画像の特徴点を取得する。なお、画像データに複数の人物が含まれる場合、一の人物の画像の特徴点を取得する。すなわち、画像データに複数の人物が含まれる場合、すべての人物について、人物毎に、当該人物の画像の特徴点を取得して、ステップS801〜ステップS805の処理を実行すればよい。ここで、特徴点は、例えば、人物の画像の輪郭(エッジ)やテクスチャ等を特徴点とすればよい。
In step S <b> 801, upon receiving the human body detection information including the image data from the human body detection
ステップS802において、移動軌跡特定部103は、現時点(すなわち、現フレーム)の当該人物の特徴点と、1つ前の時点(すなわち、1つ前のフレーム)の画像データに含まれる一の人物の特徴点とをマッチングする。
In step S802, the movement
ステップS803において、移動軌跡特定部103は、上記のステップS802のマッチング結果に基づき、現時点の画像データに含まれる当該人物と、1つ前の時点に含まれる一の人物とが同一人物か否かを判定する。これは、例えば、現時点の画像データに含まれる当該人物の特徴点と、1つ前の時点に含まれる一の人物の特徴点とが、所定の閾値以上一致する場合に、同一人物であると判定するようにすればよい。マッチング結果に基づき、同一人物であると判定された場合、ステップS804に進む一方、同一人物であると判定されなかった場合、ステップS805に進む。
In step S803, the movement
ステップS804において、人物区別部104は、同一人物であると判定された当該人物の人物別検知情報を、作成又は更新する。これにより、1つ前の時点から現時点における当該人物の移動軌跡を示す人物別検知情報が、人物別検知情報記憶部108に格納される。
In step S804, the
ステップS805において、移動軌跡特定部103は、1つ前の時点の画像データに、上記のステップS802において特徴点を取得した一の人物以外の他の人物が含まれるか否かを判定する。1つ前の時点の画像データに他の人物が含まれる場合、ステップS802に戻る。他の人物が含まれない場合、ステップS806に進む。なお、上記のステップS804の処理を実行した場合、本ステップの処理は行わなくてもよい。
In step S805, the movement
以上のステップS801〜ステップS805を、各時点毎に繰り返すことで、人物の移動軌跡をトラッキングすることができる。すなわち、過去の各時点における画像データ(第1の画像データ)と、現時点の画像データ(第2の画像データ)とから現時点における人物の移動軌跡がトラッキングされる。これにより、人物別検知情報記憶部108には、人体検知部101により検知された人物毎の移動軌跡に関する情報を示す人物別検知情報が格納される。
By repeating the above steps S801 to S805 for each time point, the movement trajectory of the person can be tracked. That is, the movement trajectory of the person at the present time is tracked from the image data (first image data) at each past time point and the current image data (second image data). As a result, the person-specific detection
<まとめ>
以上のように、本実施形態に係るMFP10では、人体検知センサ17のセンサ検知範囲内のいる人物の移動軌跡をトラッキングすることで、各人物を区別して認識する。したがって、MFP10の利用者が他の人物と入れ替わった場合やMFP10の利用者の付近を他の人物が通り過ぎた場合等において、利用者と他の人物とを誤認識することなく、各種制御を行うことができる。
<Summary>
As described above, the
なお、人体検知部101は、人物検出手段の一例である。移動軌跡特定部103及び人物区別部104は、区別手段の一例である。利用者判定部105は、判定手段の一例である。自動ログアウト制御部107は、ログアウト制御手段の一例である。省エネ制御部106は、省エネ制御手段の一例である。
The human
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。 The present invention is not limited to the specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims.
10 MFP
11 CPU
12 ROM
13 RAM
14 HDD
15 通信I/F
16 操作パネル
17 人体検知センサ
18 画像処理エンジン
101 人体検知部
102 人体検知情報制御部
103 移動軌跡特定部
104 人物区別部
105 利用者判定部
106 省エネ制御部
107 自動ログアウト制御部
108 人物別検知情報記憶部
10 MFP
11 CPU
12 ROM
13 RAM
14 HDD
15 Communication I / F
Claims (9)
所定の範囲内に位置する人物を検出する人物検出手段と、
前記人物検出手段により検出された人物の前記所定の範囲内における過去の位置から現在の位置までの移動軌跡を導出し、該移動軌跡に基づき前記所定の範囲内に位置する1以上の人物をそれぞれ区別する区別手段と、
前記区別手段により区別された人物に関する情報に基づき、前記画像処理装置を操作する人物が他の人物に入れ替わったのか否かを判定する判定手段と、
を有する画像処理装置。 An image processing apparatus,
Person detecting means for detecting a person located within a predetermined range;
A movement trajectory of the person detected by the person detection means from a past position within the predetermined range to a current position is derived, and one or more persons located within the predetermined range are respectively determined based on the movement trajectory. Distinction means to distinguish,
Determination means for determining whether or not a person operating the image processing apparatus has been replaced with another person based on information on the person distinguished by the distinguishing means;
An image processing apparatus.
前記人物検出手段は、
前記マップ作成手段により前記所定の範囲内に人物がいない状態で予め作成された第1のマップと、前記所定の範囲内に人物がいる状態で作成された第2のマップとの差分に基づき、前記画像処理装置から所定の範囲内に位置する人物を検出する、請求項1ないし4のいずれか1項に記載の画像処理装置。 Map creating means for creating a map indicating information on the space within the predetermined range;
The person detecting means is
Based on the difference between the first map created in advance with no person in the predetermined range by the map creating means and the second map created with a person in the predetermined range, The image processing apparatus according to claim 1, wherein a person located within a predetermined range from the image processing apparatus is detected.
前記画像処理装置の撮像手段により作成される前記所定の範囲内の画像データに基づき、該所定の範囲内に位置する人物を検出し、
前記区別手段は、
前記人物検出手段により検出された人物の前記所定の範囲内における過去の位置に関する1以上の第1の画像データと、該人物の前記所定の範囲内における現在の位置に関する第2の画像データとに基づき、前記人物の前記所定の範囲における前記過去の位置から前記現在の位置までの移動軌跡を導出し、該移動軌跡に基づき前記所定の範囲内に位置する1以上の人物をそれぞれ区別する、請求項1ないし5のいずれか1項に記載の画像処理装置。 The person detecting means is
Based on the image data within the predetermined range created by the imaging means of the image processing device, a person located within the predetermined range is detected,
The distinguishing means is
One or more first image data relating to a past position of the person detected by the person detecting means within the predetermined range, and second image data relating to a current position of the person within the predetermined range. And deriving a movement trajectory of the person from the past position to the current position in the predetermined range, and distinguishing one or more persons located in the predetermined range based on the movement trajectory. Item 6. The image processing apparatus according to any one of Items 1 to 5.
第1の所定の範囲内に位置する人物を検出する第1の人物検出手段と、
第2の所定の範囲内に位置する人物を検出する第2の人物検出手段と、を有し、
前記区別手段は、
前記第1の人物検出手段又は前記第2の人物検出手段により検出された前記人物の前記第1の所定の範囲内における過去の位置又は前記第2の所定の範囲内における過去の位置と、前記第1の人物検出手段又は前記第2の人物検出手段により検出された前記人物の前記第1の所定の範囲内における現在の位置又は前記第2の所定の範囲内における現在の位置とに基づき、前記過去の位置から前記現在の位置までの前記人物の移動軌跡を導出し、該移動軌跡に基づき前記所定の範囲内に位置する1以上の人物をそれぞれ区別する、請求項1ないし6のいずれか1項に記載の画像処理装置。 The person detecting means is
First person detecting means for detecting a person located within a first predetermined range;
Second person detecting means for detecting a person located within a second predetermined range,
The distinguishing means is
The past position within the first predetermined range of the person detected by the first person detection means or the second person detection means or the past position within the second predetermined range; and Based on the current position within the first predetermined range or the current position within the second predetermined range of the person detected by the first person detection means or the second person detection means, 7. The human trajectory of the person from the past position to the current position is derived, and one or more persons located within the predetermined range are distinguished based on the trajectory. The image processing apparatus according to item 1.
所定の範囲内に位置する人物を検出する人物検出工程と、
前記人物検出工程により検出された人物の前記所定の範囲内における過去の位置から現在の位置までの移動軌跡を導出し、該移動軌跡に基づき前記所定の範囲内に位置する1以上の人物をそれぞれ区別する区別工程と、
前記区別工程により区別された人物に関する情報に基づき、前記画像処理装置を操作する人物が他の人物に入れ替わったのか否かを判定する判定工程と、
を有する人物検出方法。 A person detection method used in an image processing apparatus,
A person detection step of detecting a person located within a predetermined range;
A movement trajectory of a person detected by the person detection step from a past position within the predetermined range to a current position is derived, and one or more persons located within the predetermined range are respectively determined based on the movement trajectory. A distinction process to distinguish;
A determination step of determining whether or not a person operating the image processing apparatus has been replaced with another person based on information on the person distinguished by the distinction step;
A person detection method having
所定の範囲内に位置する人物を検出する人物検出手段、
前記人物検出手段により検出された人物の前記所定の範囲内における過去の位置から現在の位置までの移動軌跡を導出し、該移動軌跡に基づき前記所定の範囲内に位置する1以上の人物をそれぞれ区別する区別手段、
前記区別手段により区別された人物に関する情報に基づき、前記画像処理装置を操作する人物が他の人物に入れ替わったのか否かを判定する判定手段、
として機能させるためのプログラム。 The image processing device
A person detecting means for detecting a person located within a predetermined range;
A movement trajectory of the person detected by the person detection means from a past position within the predetermined range to a current position is derived, and one or more persons located within the predetermined range are respectively determined based on the movement trajectory. Distinction means to distinguish,
Determination means for determining whether or not a person operating the image processing apparatus has been replaced with another person based on information about the person distinguished by the distinguishing means;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014195226A JP2016066280A (en) | 2014-09-25 | 2014-09-25 | Image processor, person detection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014195226A JP2016066280A (en) | 2014-09-25 | 2014-09-25 | Image processor, person detection method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016066280A true JP2016066280A (en) | 2016-04-28 |
Family
ID=55805580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014195226A Pending JP2016066280A (en) | 2014-09-25 | 2014-09-25 | Image processor, person detection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016066280A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020098996A (en) * | 2018-12-18 | 2020-06-25 | シャープ株式会社 | Image forming apparatus, information processing system, control program, and control method |
-
2014
- 2014-09-25 JP JP2014195226A patent/JP2016066280A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020098996A (en) * | 2018-12-18 | 2020-06-25 | シャープ株式会社 | Image forming apparatus, information processing system, control program, and control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11650659B2 (en) | User input processing with eye tracking | |
JP5991041B2 (en) | Virtual touch screen system and bidirectional mode automatic switching method | |
EP2742412B1 (en) | Manipulating layers of multi-layer applications | |
EP2891950B1 (en) | Human-to-computer natural three-dimensional hand gesture based navigation method | |
US20120304067A1 (en) | Apparatus and method for controlling user interface using sound recognition | |
US20130266174A1 (en) | System and method for enhanced object tracking | |
KR101551576B1 (en) | Robot cleaner, apparatus and method for recognizing gesture | |
US20160085949A1 (en) | User verification using touch and eye tracking | |
KR100692526B1 (en) | Gesture recognition apparatus and methods for automatic control of systems | |
WO2016169273A1 (en) | Screen fingerprint identification method and terminal | |
JP5550124B2 (en) | INPUT DEVICE, DEVICE, INPUT METHOD, AND PROGRAM | |
US20170344858A1 (en) | Control device, control method, and computer program product | |
JP2017525074A (en) | Apparatus and method for determining a desired target | |
WO2021102969A1 (en) | Method and apparatus for triggering fingerprint detection, electronic device, and storage medium | |
WO2019149123A1 (en) | Control execution method, device, storage medium and electronic device | |
US9866798B2 (en) | Image processing apparatus, method and program for controlling an image processing apparatus based on detected user movement | |
JP2016066280A (en) | Image processor, person detection method, and program | |
JP2016525235A (en) | Method and device for character input | |
CN104063041A (en) | Information processing method and electronic equipment | |
CN104205013A (en) | Information processing device, information processing method and program | |
WO2022160085A1 (en) | Control method, electronic device, and storage medium | |
CN103984499A (en) | Action command control method and electronic equipment | |
US20150103205A1 (en) | Method of controlling digital apparatus and image capture method by recognition of hand shape, and apparatus therefor | |
US11451705B2 (en) | Imaging control apparatus, imaging control method, and storage medium | |
JP2023511893A (en) | Information processing device, information processing method, and program for liveness detection based on gaze |