JP2016066280A - Image processor, person detection method, and program - Google Patents

Image processor, person detection method, and program Download PDF

Info

Publication number
JP2016066280A
JP2016066280A JP2014195226A JP2014195226A JP2016066280A JP 2016066280 A JP2016066280 A JP 2016066280A JP 2014195226 A JP2014195226 A JP 2014195226A JP 2014195226 A JP2014195226 A JP 2014195226A JP 2016066280 A JP2016066280 A JP 2016066280A
Authority
JP
Japan
Prior art keywords
person
predetermined range
image processing
mfp
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014195226A
Other languages
Japanese (ja)
Inventor
元気 渡邊
Genki Watanabe
元気 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014195226A priority Critical patent/JP2016066280A/en
Publication of JP2016066280A publication Critical patent/JP2016066280A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processor, a person detection method, and a program capable of determining whether or not the user of equipment has been replaced with the other user from the movement locus of a person.SOLUTION: An image processor includes: person detection means for detecting a person positioned in a predetermined range; discrimination means for deriving the movement locus of the person detected by the person detection means from the past position to the current position in the predetermined range, and for discriminating one or more persons positioned in the predetermined range on the basis of the movement locus; and determination means for determining whether or not the person who operates the image processor has been replaced with the other person on the basis of the information related to the person discriminated by the discrimination means.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、人物検出方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, a person detection method, and a program.

例えば画像形成装置等の機器において、省電力モードからの復帰時間を短くするために、人物検知センサを用いて機器の利用者の接近を検知して、この利用者が機器の操作を開始する前に省電力モードから復帰する技術が知られている(例えば特許文献1参照)。   For example, in a device such as an image forming apparatus, in order to shorten the return time from the power saving mode, a person detection sensor is used to detect the approach of the user of the device and the user starts operating the device. A technique for returning from the power saving mode is known (see, for example, Patent Document 1).

しかしながら、上記の従来技術においては、機器の周辺に複数の人物がいる場合に機器の利用者を正しく判断することができないことがあった。例えば、複数の人物が何度も入れ替わり機器を利用する場合等では、1人の人物が機器を利用し続けていると誤って判断されることがあった。また、例えば、機器を利用中の人物の近くを他の人物が通り過ぎた場合等では、機器の利用者が入れ替わったと誤って判断されることがあった。したがって、人物検知センサを用いた機器の省電力制御や自動ログオフ制御等が正しく行えない場合があった。   However, in the above prior art, there are cases where the user of the device cannot be correctly determined when there are a plurality of persons around the device. For example, when a plurality of persons change devices many times and use a device, it may be erroneously determined that one person continues to use the device. Further, for example, when another person passes near a person who is using the device, it may be erroneously determined that the user of the device has been switched. Therefore, there are cases where power saving control, automatic logoff control, etc. of the device using the person detection sensor cannot be performed correctly.

本発明の実施の形態は、上記の点に鑑みてなされたもので、人物の移動軌跡から機器の利用者が他の利用者に入れ替わったのか否かを判定することを目的とする。   The embodiment of the present invention has been made in view of the above points, and an object of the present invention is to determine whether or not a user of a device has been replaced by another user based on a person's movement trajectory.

上記目的を達成するため、本発明の実施の形態は、画像処理装置であって、所定の範囲内に位置する人物を検出する人物検出手段と、前記人物検出手段により検出された人物の前記所定の範囲内における過去の位置から現在の位置までの移動軌跡を導出し、該移動軌跡に基づき前記所定の範囲内に位置する1以上の人物をそれぞれ区別する区別手段と、前記区別手段により区別された人物に関する情報に基づき、前記画像処理装置を操作する人物が他の人物に入れ替わったのか否かを判定する判定手段と、を有することを特徴とする。   In order to achieve the above object, an embodiment of the present invention is an image processing apparatus, comprising: a person detection unit that detects a person located within a predetermined range; and the predetermined person detected by the person detection unit. A discriminating means for deriving a movement trajectory from a past position to a current position within a range and distinguishing one or more persons located within the predetermined range based on the movement trajectory, and the discrimination means And determining means for determining whether or not the person who operates the image processing apparatus has been replaced with another person based on the information related to the person.

本発明の実施の形態によれば、人物の移動軌跡から機器の利用者が他の利用者に入れ替わったのか否かを判定することができる。   According to the embodiment of the present invention, it is possible to determine whether or not the user of the device has been replaced with another user from the movement trajectory of the person.

本実施形態に係るMFPの一例のハードウェア構成図である。FIG. 2 is a hardware configuration diagram of an example of an MFP according to the present embodiment. 本実施形態に係るMFPの一例の機能ブロック図である。2 is a functional block diagram of an example of an MFP according to the present embodiment. FIG. 本実施形態に係るMFPの処理の概要の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of an outline of processing of an MFP according to the present embodiment. 本実施形態に係るMFPの制御処理の一例のフローチャートである。6 is a flowchart of an example of control processing of the MFP according to the present embodiment. パーティクルフィルタを用いたトラッキングの一例を説明するための図である。It is a figure for demonstrating an example of the tracking using a particle filter. 画像データを用いたトラッキングの一例を説明するための図である。It is a figure for demonstrating an example of the tracking using image data. 本実施形態に係るトラッキング処理の一例のフローチャートである。It is a flowchart of an example of the tracking process which concerns on this embodiment. 本実施形態に係るトラッキング処理の他の例のフローチャートである。It is a flowchart of the other example of the tracking process which concerns on this embodiment.

以降、本発明の実施の形態について、図面を参照しつつ詳細に説明する。本実施形態では、画像処理装置の一例としてMFP(MultiFunction Peripheral)について説明するが、これに限られず、例えば、プロジェクタ、電子黒板、ゲーム機器等の各種電子機器であってもよい。すなわち、本発明の実施形態は、人体検知センサを用いて各種制御を行う電子機器に対して適用され得る。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, an MFP (Multi Function Peripheral) will be described as an example of an image processing apparatus. However, the present invention is not limited to this, and may be various electronic devices such as a projector, an electronic blackboard, and a game device. That is, the embodiment of the present invention can be applied to an electronic device that performs various controls using a human body detection sensor.

<ハードウェア構成>
まず、本実施形態に係るMFP10のハードウェア構成について説明する。本実施形態に係るMFP10は、例えば図1に示すようなハードウェア構成により実現される。図1は、本実施形態に係るMFPの一例のハードウェア構成図である。図1に示すように、本実施形態に係るMFP10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、HDD(Hard Disk Drive)14、通信I/F15、操作パネル16、人体検知センサ17、画像処理エンジン18等を備え、それぞれがバスBで相互に接続されている。
<Hardware configuration>
First, a hardware configuration of the MFP 10 according to the present embodiment will be described. The MFP 10 according to the present embodiment is realized by, for example, a hardware configuration as illustrated in FIG. FIG. 1 is a hardware configuration diagram of an example of an MFP according to the present embodiment. As shown in FIG. 1, the MFP 10 according to this embodiment includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an HDD (Hard Disk Drive) 14, a communication I / O. F15, an operation panel 16, a human body detection sensor 17, an image processing engine 18, and the like are connected to each other via a bus B.

CPU11は、ROM12やHDD14等の記憶装置からプログラムやデータをRAM13上に読み出し、処理を実行することで、MFP10全体の制御や機能を実現する演算装置である。   The CPU 11 is an arithmetic device that realizes control and functions of the entire MFP 10 by reading a program and data from a storage device such as the ROM 12 and the HDD 14 onto the RAM 13 and executing processing.

ROM12は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)である。RAM13は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。   The ROM 12 is a nonvolatile semiconductor memory (storage device) that can retain programs and data even when the power is turned off. The RAM 13 is a volatile semiconductor memory (storage device) that temporarily stores programs and data.

HDD14は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、例えば、本実施形態を実現するためのプログラム、MFP10全体を制御する基本ソフトウェアであるOS(Operating System)、OS上において各種機能を提供するアプリケーションソフトウェア等がある。HDD14は格納しているプログラムやデータを所定のファイルシステム及び/又はDB(データベース)により管理している。なお、MFP10は、HDDの代わりに又はHDDと併せて、SSD(Solid State Drive)等を備えていてもよい。   The HDD 14 is a non-volatile storage device that stores programs and data. The stored programs and data include, for example, a program for realizing the present embodiment, an OS (Operating System) that is basic software for controlling the entire MFP 10, and application software that provides various functions on the OS. The HDD 14 manages stored programs and data by a predetermined file system and / or DB (database). The MFP 10 may include an SSD (Solid State Drive) or the like instead of the HDD or in combination with the HDD.

通信I/F15は、例えば、LAN等によりネットワークに接続するためのインタフェースである。これにより、MFP10は通信I/F15を介して他の機器とデータ通信を行うことができる。   The communication I / F 15 is an interface for connecting to a network via, for example, a LAN. Accordingly, the MFP 10 can perform data communication with other devices via the communication I / F 15.

操作パネル16は、ユーザからの入力を受け付ける入力部と、表示を行う表示部とを備えているタッチパネルである。ユーザは、操作パネル16を介してMFP10に対して各種情報を入力するための操作を行うことができる。   The operation panel 16 is a touch panel including an input unit that receives input from a user and a display unit that performs display. The user can perform an operation for inputting various information to the MFP 10 via the operation panel 16.

人体検知センサ17は、MFP10の周囲(例えば、MFP10の操作パネル16の前面方向の所定範囲)の人(人物)を検知するセンサである。人体検知センサ17は、例えば、赤外線、超音波、可視光線等を用いて人を検知するセンサや、カメラ等の撮像手段で撮像することにより生成した画像データを用いて人を検知するセンサ等である。ただし、人体検知センサ17は、これらに限られず、種々の方法を用いて人を検知する種々のセンサであってもよい。なお、人体検知センサ17は、人を検知可能な範囲が、人体検知センサ17の種類又は設定等により決まっており、以降では、このような所定の範囲を「センサ検知範囲」と称する。   The human body detection sensor 17 is a sensor that detects a person (person) around the MFP 10 (for example, a predetermined range in the front direction of the operation panel 16 of the MFP 10). The human body detection sensor 17 is, for example, a sensor that detects a person using infrared rays, ultrasonic waves, visible light, or the like, or a sensor that detects a person using image data generated by imaging with an imaging unit such as a camera. is there. However, the human body detection sensor 17 is not limited to these, and may be various sensors that detect a person using various methods. In the human body detection sensor 17, a range in which a person can be detected is determined by the type or setting of the human body detection sensor 17, and such a predetermined range is hereinafter referred to as a “sensor detection range”.

また、MFP10は、人体検知センサ17を2台以上有していてもよい。MFP10は人体検知センサ17を2台以上有することにより、例えば、一の人体検知センサ17では死角となる位置に人物が存在する場合でも、他の人体検知センサ17において検知できる位置であれば、当該人物の存在を検知することができる。すなわち、複数の人体検知センサ17それぞれが取得する情報を、相互に補完しつつ人物の検知を行うことができる。なお、このようにMFP10が人体検知センサ17を2台以上有する場合、後述する人体検知部101はそれぞれの人体検知センサ17に対応する人体検知手段を有していてもよい。例えばMFP10が人体検知センサ17を2台有する場合、一の人体検知センサ17のセンサ検知範囲(第1の所定の範囲)における人物を検知する第1の人物検知手段と、他の人体検知センサ17のセンサ検知範囲内(第2の所定の範囲)における人物を検知する第2の人物検知手段とを有していてもよい。   Further, the MFP 10 may include two or more human body detection sensors 17. Since the MFP 10 has two or more human body detection sensors 17, for example, even if a person is present at a blind spot in one human body detection sensor 17, if the position can be detected by another human body detection sensor 17, The presence of a person can be detected. That is, it is possible to detect a person while mutually complementing information acquired by each of the plurality of human body detection sensors 17. When the MFP 10 includes two or more human body detection sensors 17 as described above, the human body detection unit 101 described later may include a human body detection unit corresponding to each human body detection sensor 17. For example, when the MFP 10 has two human body detection sensors 17, a first person detection unit that detects a person in the sensor detection range (first predetermined range) of one human body detection sensor 17 and another human body detection sensor 17. And a second person detecting means for detecting a person within the sensor detection range (second predetermined range).

画像処理エンジン18は、例えば、プリント機能、コピー機能、スキャン機能等のMFP10が有する各種画像処理機能を行う。   The image processing engine 18 performs various image processing functions that the MFP 10 has, such as a print function, a copy function, and a scan function.

本実施形態に係るMFP10は、上記したハードウェア構成により後述するような各種処理を実現できる。   The MFP 10 according to the present embodiment can realize various processes as described later with the above-described hardware configuration.

<ソフトウェア構成>
次に、本実施形態に係るMFP10のソフトウェア構成について説明する。本実施形態に係るMFP10は、例えば図2に示すような機能ブロックにより実現される。図2は、本実施形態に係るMFPの一例の機能ブロック図である。図2に示すように、本実施形態に係るMFP10は、人体検知部101、人体検知情報制御部102、移動軌跡特定部103、人物区別部104、利用者判定部105、省エネ制御部106、自動ログアウト制御部107等を有する。また、本実施形態に係るMFP10は、人物別検知情報記憶部108を利用する。
<Software configuration>
Next, a software configuration of the MFP 10 according to the present embodiment will be described. The MFP 10 according to the present embodiment is realized by, for example, functional blocks as illustrated in FIG. FIG. 2 is a functional block diagram of an example of an MFP according to this embodiment. As shown in FIG. 2, the MFP 10 according to the present embodiment includes a human body detection unit 101, a human body detection information control unit 102, a movement locus specifying unit 103, a person discrimination unit 104, a user determination unit 105, an energy saving control unit 106, an automatic operation. A logout control unit 107 and the like. The MFP 10 according to the present embodiment uses the person-specific detection information storage unit 108.

人体検知部101は、例えば、CPU11、人体検知センサ17等により実現され、センサ検知範囲内の人を検知する。人体検知部101により検知された人の情報は、人体検知情報として人体検知情報制御部102に渡される。ここで、人体検知情報とは、人体検知センサ17により検知されたセンサ検知範囲内における人の情報であり、例えば、ある時点におけるセンサ検知範囲内における人の位置情報である。また、人体検知情報は、センサ検知範囲内をカメラ等の撮像手段で撮像して生成した画像データ又はこの画像データから算出された人の位置情報等であってもよい。   The human body detection unit 101 is realized by, for example, the CPU 11, the human body detection sensor 17, and the like, and detects a person within the sensor detection range. Information on the person detected by the human body detection unit 101 is passed to the human body detection information control unit 102 as human body detection information. Here, the human body detection information is information on a person within the sensor detection range detected by the human body detection sensor 17, and is, for example, position information on the person within the sensor detection range at a certain point in time. Further, the human body detection information may be image data generated by imaging the sensor detection range with an imaging unit such as a camera, or position information of a person calculated from the image data.

人体検知情報制御部102は、例えば、CPU11等により実現され、人体検知部101から受け取った人体検知情報に基づいて、他の各部に処理を依頼する。例えば、人体検知情報制御部102は、人体検知部101から人体検知情報を受け取ると、検知された人をトラッキングするために移動軌跡特定部103に処理を依頼する。また、人体検知情報制御部102は、移動軌跡特定部103によりトラッキングされた人体検知情報を、この人体検知情報に含まれる人別に区別するために人物区別部104に処理を依頼する。   The human body detection information control unit 102 is realized by the CPU 11 or the like, for example, and requests other units to perform processing based on the human body detection information received from the human body detection unit 101. For example, when the human body detection information control unit 102 receives the human body detection information from the human body detection unit 101, the human body detection information control unit 102 requests the movement locus specifying unit 103 to perform processing in order to track the detected person. In addition, the human body detection information control unit 102 requests the person discrimination unit 104 to perform processing so as to discriminate the human body detection information tracked by the movement trajectory identification unit 103 for each person included in the human body detection information.

移動軌跡特定部103は、例えば、CPU11等により実現され、人体検知情報制御部102から受け取った人体検知情報に基づき、センサ検知範囲内において検知された人の移動軌跡をトラッキングする。これにより、本実施形態に係るMFP10では、センサ検知範囲内において、検知された人が移動した場合の移動軌跡がトラッキングされる(すなわち、移動軌跡に関する情報が導出される)。なお、移動軌跡に関する情報とは、センサ検知範囲内において検知された人が、このセンサ検知範囲内において移動した場合(静止している場合も含む)の軌跡に関する情報(つまり、後述するように、各時点における位置情報)である。   The movement locus specifying unit 103 is realized by, for example, the CPU 11 or the like, and tracks the movement locus of a person detected within the sensor detection range based on the human body detection information received from the human body detection information control unit 102. Thereby, in the MFP 10 according to the present embodiment, the movement locus when the detected person moves is tracked within the sensor detection range (that is, information on the movement locus is derived). Note that the information on the movement trajectory is information on the trajectory when a person detected within the sensor detection range moves (including when stationary) within the sensor detection range (that is, as described later, Position information at each time point).

人物区別部104は、例えば、CPU11等により実現され、移動軌跡特定部103により移動軌跡がトラッキングされた人を、人別の情報に区別して、人物別検知情報を作成又は更新する。すなわち、例えば、人体検知情報に複数の人の位置情報等が含まれる場合に、それぞれの人毎の移動軌跡に関する情報からそれぞれ人物別検知情報を作成する。ここで、人物別検知情報とは、センサ検知範囲内において検知された人の人別の移動軌跡に関する情報(トラッキング情報)であり、例えば、ある人の各時点における位置情報である。このように、本実施形態に係るMFP10では、センサ検知範囲内において検知された人毎のトラッキング情報(人物別検知情報)が作成される。したがって、MFP10は、人物別検知情報を用いることにより、センサ検知範囲内に複数の人が存在する場合においても各々の人を識別することができる。換言すれば、MFP10は、人物別検知情報により、センサ検知範囲内において、検知された複数の人がすれ違うような場合や検知された人が遮蔽物の後ろを通り過ぎるような場合においても、各々の人を他の人の間違うことなく認識することができる。   The person distinguishing unit 104 is realized by the CPU 11 or the like, for example, and distinguishes the person whose movement locus is tracked by the movement locus specifying unit 103 into individual information, and creates or updates the individual detection information. That is, for example, when position information of a plurality of persons is included in the human body detection information, detection information for each person is created from information regarding the movement trajectory for each person. Here, the detection information for each person is information (tracking information) regarding the movement trajectory of each person detected within the sensor detection range, for example, position information at each time point of a certain person. As described above, in the MFP 10 according to the present embodiment, tracking information (person-specific detection information) for each person detected within the sensor detection range is created. Therefore, the MFP 10 can identify each person even when there are a plurality of persons within the sensor detection range by using the person-specific detection information. In other words, the MFP 10 detects each person in the sensor detection range according to the person-specific detection information even when a plurality of detected persons pass each other or when a detected person passes behind the shield. Recognize people without making mistakes.

利用者判定部105は、例えば、CPU11等により実現され、人物別検知情報に基づきセンサ検知範囲内から離れた(センサ検知範囲の外に出た)人が、MFP10の利用者であるか否かを判定する。これにより、本実施形態に係るMFP10は、複数の人が入れ替わりMFP10を利用する場合等においても、各々の利用者を異なる利用者であると識別することができる。したがって、本実施形態に係るMFP10は、例えば、前の利用者が利用し終わった後、間もなく次の利用者がMFP10を利用するような場合等においても、自動ログアウト制御部107による前の利用者の自動ログアウトが行われる。   For example, the user determination unit 105 is realized by the CPU 11 or the like, and whether or not a person who is separated from the sensor detection range (goes out of the sensor detection range) based on the person-specific detection information is a user of the MFP 10. Determine. As a result, the MFP 10 according to the present embodiment can identify each user as a different user even when a plurality of people change and use the MFP 10. Therefore, the MFP 10 according to the present embodiment is used by the automatic logout control unit 107 even when the next user uses the MFP 10 soon after the previous user finishes using the MFP 10. Automatic logout is performed.

省エネ制御部106は、例えば、CPU11等により実現され、MFP10を省電力状態(例えば、操作パネル16のバックライトをOFFにする等)に移行させる制御を行う。すなわち、例えば、MFP10の利用者が利用を終了(これは、MFP10の利用者がセンサ検知範囲から外に出たと判定されることで認識される)した場合において、所定の時間が経過している場合、省エネ制御部106は、MFP10を省電力状態に移行させる。   The energy saving control unit 106 is realized by, for example, the CPU 11 and controls the MFP 10 to shift to a power saving state (for example, turning off the backlight of the operation panel 16). That is, for example, when the user of the MFP 10 ends the use (this is recognized by determining that the user of the MFP 10 has moved out of the sensor detection range), a predetermined time has elapsed. In this case, the energy saving control unit 106 shifts the MFP 10 to the power saving state.

自動ログアウト制御部107は、例えば、CPU11等により実現され、MFP10の利用者を、MFP10から自動でログアウトさせる制御を行う。すなわち、上記で説明した省エネ制御部106と同様に、例えば、MFP10の利用者が利用を終了した場合において、所定の時間が経過している場合、自動ログアウト制御部107は、MFP10の利用者を、MFP10から自動でログアウトさせる。   The automatic logout control unit 107 is realized by, for example, the CPU 11 or the like, and performs control to automatically log out the user of the MFP 10 from the MFP 10. That is, in the same manner as the energy saving control unit 106 described above, for example, when the user of the MFP 10 ends the use, when a predetermined time has elapsed, the automatic logout control unit 107 determines the user of the MFP 10. Then, the MFP 10 is automatically logged out.

人物別検知情報記憶部108は、例えば、HDD14又はMFP10とネットワークを介して接続された記憶装置等により実現され、人物別検知情報を記憶する。人物別検知情報は、上述した通り、センサ検知範囲内において検知された人別の移動軌跡に関する情報(トラッキング情報)である。   The person detection information storage unit 108 is realized by, for example, a storage device connected to the HDD 14 or the MFP 10 via a network, and stores person detection information. As described above, the person-specific detection information is information (tracking information) related to the person-specific movement locus detected within the sensor detection range.

<処理の概要>
次に、本実施形態に係るMFP10の処理の概要について説明する。図3は、本実施形態に係るMFPの処理の概要の一例を説明するための図である。図3では、MFP10の利用者が人物Aから人物Bに入れ替わる場合(図3(a))と、MFP10を利用している人物Aの近くを人物Bが通り過ぎる場合(図3(b))とについて説明する。
<Outline of processing>
Next, an outline of processing of the MFP 10 according to the present embodiment will be described. FIG. 3 is a diagram for explaining an example of an outline of processing of the MFP according to the present embodiment. 3, when the user of the MFP 10 is switched from the person A to the person B (FIG. 3A), and when the person B passes by the person A using the MFP 10 (FIG. 3B). Will be described.

なお、従来では、図3(a)の場合では利用者が入れ替わっていないと誤って判断されることがあり、図3(b)の場合では利用者が入れ替わったと誤って判断されることがあった。   Conventionally, in the case of FIG. 3A, it may be erroneously determined that the user has not been switched, and in the case of FIG. 3B, it may be erroneously determined that the user has been switched. It was.

まず、図3(a)を用いて、MFP10の利用者が人物Aから人物Bに入れ替わる場合について説明する。   First, a case where the user of the MFP 10 is switched from person A to person B will be described with reference to FIG.

ステップS1−1において、人物AがMFP10を利用するために、MFP10に接近したものとする。このとき、人物AがMFP10のセンサ検知範囲内に入ると、人体検知センサ17は人物Aを検知する。そして、MFP10は、人物Aの移動軌跡をトラッキングする。なお、このとき、センサ検知範囲内の人数は、1人となる。   In step S1-1, it is assumed that the person A approaches the MFP 10 in order to use the MFP 10. At this time, when the person A enters the sensor detection range of the MFP 10, the human body detection sensor 17 detects the person A. Then, the MFP 10 tracks the movement locus of the person A. At this time, the number of people in the sensor detection range is one.

ステップS1−2において、人物AはMFP10を利用中である。   In step S1-2, the person A is using the MFP 10.

ステップS1−3において、人物AがMFP10の利用を終えてMFP10を離れ始めるのとほぼ同じタイミングで、人物BがMFP10を利用するためにMFP10に接近したものとする。このとき、人物BがMFP10のセンサ検知範囲内に入ると、人体検知センサ17は人物Bを検知して、人物Bの移動軌跡をトラッキングする。これにより、MFP10は、人物Aと人物Bとが同一人物であると誤認識することなく、別人物であると認識することができる。なお、このとき、センサ検知範囲内の人数は、2人となる。   In step S <b> 1-3, it is assumed that the person B approaches the MFP 10 in order to use the MFP 10 at almost the same timing as the person A finishes using the MFP 10 and starts to leave the MFP 10. At this time, when the person B enters the sensor detection range of the MFP 10, the human body detection sensor 17 detects the person B and tracks the movement locus of the person B. Accordingly, the MFP 10 can recognize that the person A and the person B are different persons without erroneously recognizing that the person A and the person B are the same person. At this time, the number of people in the sensor detection range is two.

ステップS1−4において、人物BがMFP10を利用中である一方、人物Aはセンサ検知範囲から外に出たものとする。このとき、本実施形態に係るMFP10は、人物A及び人物Bの移動軌跡をトラッキングしているため、人物Aと人物Bとを誤認識することなく、人物Aがセンサ検知範囲から外に出た一方、MFP10の利用者が人物Aから人物Bに代わったことを認識することができる。したがって、人物AがMFP10の利用を終えて、センサ検知範囲の外に出た場合、MFP10は所定の場合に省エネ制御や人物Aのユーザアカウントの自動ログアウト制御等を行うことできる。これにより、本実施形態に係るMFP10は、無駄な電力消費等を抑えることができるとともに、他のユーザによるユーザアカウントの不正利用を防止することができる。なお、このとき、センサ検知範囲内の人数は、1人となる。ここで、上記においてユーザアカウントとは、ユーザがMFP10を利用するために予め付与されたユーザ名(又はユーザID)等を含む情報である。利用者(ユーザ)は、MFP10の利用開始時に、自身に付与されたユーザアカウントを用いてログインすることで、このMFP10を利用することができる。他方、利用者(ユーザ)は、MFP10の利用終了時に、自身に付与されたユーザアカウントをMFP10からログアウトすることで、このMFP10の利用を終了させる。換言すれば、ログイン及びログアウトとは、ログイン及びログアウトされたユーザアカウントに対して、それぞれ、MFP10の利用権限を付与する及び剥奪することである。   In step S1-4, it is assumed that the person B is using the MFP 10 while the person A is out of the sensor detection range. At this time, since the MFP 10 according to the present embodiment tracks the movement trajectories of the person A and the person B, the person A goes out of the sensor detection range without erroneously recognizing the person A and the person B. On the other hand, it can be recognized that the user of the MFP 10 has changed from the person A to the person B. Therefore, when the person A finishes using the MFP 10 and goes out of the sensor detection range, the MFP 10 can perform energy saving control, automatic logout control of the user account of the person A, and the like in a predetermined case. Accordingly, the MFP 10 according to the present embodiment can suppress wasteful power consumption and the like, and can prevent unauthorized use of the user account by other users. At this time, the number of people in the sensor detection range is one. Here, in the above, the user account is information including a user name (or user ID) assigned in advance for the user to use the MFP 10. A user (user) can use the MFP 10 by logging in using a user account assigned to the user at the start of use of the MFP 10. On the other hand, the user (user) terminates the use of the MFP 10 by logging out the user account assigned to the user (user) from the MFP 10 when the use of the MFP 10 is terminated. In other words, login and logout are to grant and revoke the authority to use the MFP 10 to the logged-in and logged-out user account, respectively.

次に、図3(b)を用いて、MFP10を利用している人物Aの近くを人物Bが通り過ぎる場合について説明する。   Next, the case where the person B passes near the person A who uses the MFP 10 will be described with reference to FIG.

ステップS2−1において、人物AがMFP10を利用するために、MFP10に接近したものとする。このとき、人物AがMFP10のセンサ検知範囲内に入ると、人体検知センサ17は人物Aを検知する。そして、MFP10は、人物Aの移動軌跡をトラッキングする。なお、このとき、センサ検知範囲内の人数は、1人となる。   In step S2-1, it is assumed that the person A approaches the MFP 10 in order to use the MFP 10. At this time, when the person A enters the sensor detection range of the MFP 10, the human body detection sensor 17 detects the person A. Then, the MFP 10 tracks the movement locus of the person A. At this time, the number of people in the sensor detection range is one.

ステップS2−2において、人物AはMFP10を利用中である。   In step S2-2, the person A is using the MFP 10.

ステップS2−3において、人物AがMFP10の利用中に、人物BがMFP10の近く(センサ検知範囲内)を通過するものとする。このとき、人物BがMFP10のセンサ検知範囲内に入ると、人体検知センサ17は人物Bを検知して、人物Bの移動軌跡をトラッキングする。これにより、MFP10は、人物Aと人物Bとが同一人物であると誤認識することなく、別人物であると認識することができる。なお、このとき、センサ検知範囲内の人数は、2人となる。   In step S2-3, it is assumed that the person A passes near the MFP 10 (within the sensor detection range) while the person A is using the MFP 10. At this time, when the person B enters the sensor detection range of the MFP 10, the human body detection sensor 17 detects the person B and tracks the movement locus of the person B. Accordingly, the MFP 10 can recognize that the person A and the person B are different persons without erroneously recognizing that the person A and the person B are the same person. At this time, the number of people in the sensor detection range is two.

ステップS2−4において、人物AがMFP10を利用中である一方、人物Bはセンサ検知範囲から外に出たものとする。このとき、本実施形態に係るMFP10は、人物A及び人物Bの移動軌跡をトラッキングしているため、人物Aと人物Bとを誤認識することなく、人物Bがセンサ検知範囲から外に出た一方、MFP10の利用者は引き続き人物Aであることを認識することができる。したがって、MFP10を利用中である人物Aの近くを人物Bが通り過ぎる場合においても、MFP10は省エネ制御や自動ログアウト制御等の誤った制御を行うことがない。なお、このとき、センサ検知範囲内の人数は、1人となる。   In step S2-4, it is assumed that the person A is using the MFP 10 while the person B is out of the sensor detection range. At this time, since the MFP 10 according to the present embodiment tracks the movement trajectories of the person A and the person B, the person B goes out of the sensor detection range without erroneously recognizing the person A and the person B. On the other hand, the user of the MFP 10 can continue to recognize that he is the person A. Therefore, even when the person B passes near the person A who is using the MFP 10, the MFP 10 does not perform erroneous control such as energy saving control or automatic logout control. At this time, the number of people in the sensor detection range is one.

以上のように、本実施形態に係るMFP10では、人体検知センサ17で検知された人物の移動軌跡をトラッキングすることで、センサ検知範囲内に位置する各人物をそれぞれ区別して認識することができる。したがって、本実施形態に係るMFP10は、人物の誤認識に起因する誤った制御を防止することができる。   As described above, the MFP 10 according to the present embodiment can distinguish and recognize each person located within the sensor detection range by tracking the movement trajectory of the person detected by the human body detection sensor 17. Therefore, the MFP 10 according to the present embodiment can prevent erroneous control due to erroneous recognition of a person.

<処理の詳細>
次に、本実施形態に係るMFP10の処理の詳細について説明する。
<Details of processing>
Next, details of processing of the MFP 10 according to the present embodiment will be described.

≪MFP10の制御処理≫
図4は、本実施形態に係るMFPの制御処理の一例のフローチャートである。まず、MFP10を利用したいと所望する人物Aが、MFP10を利用するためにMFP10に近づき、センサ検知範囲内に入ったものとする。
<< Control Process of MFP 10 >>
FIG. 4 is a flowchart of an example of control processing of the MFP according to the present embodiment. First, it is assumed that a person A who desires to use the MFP 10 approaches the MFP 10 to use the MFP 10 and enters the sensor detection range.

ステップS401において、人体検知部101は、センサ検知範囲内の人を検知する。すなわち、人体検知部101は、MFP10のセンサ検知範囲内の人物Aを検知する。人体検知部101は、センサ検知範囲内の人を検知すると、人体検知情報を人体検知情報制御部102に送信する。なお、人体検知情報とは、上述した通り、例えば、人体検知部101により検知されたセンサ検知範囲内の人の位置情報、又はセンサ検知範囲内をカメラ等の撮像手段で撮像して生成した画像データ若しくはこの画像データから算出された人の位置情報等である。   In step S401, the human body detection unit 101 detects a person within the sensor detection range. That is, the human body detection unit 101 detects the person A within the sensor detection range of the MFP 10. When the human body detection unit 101 detects a person within the sensor detection range, the human body detection unit 101 transmits human body detection information to the human body detection information control unit 102. As described above, the human body detection information is, for example, the position information of a person within the sensor detection range detected by the human body detection unit 101, or an image generated by imaging the sensor detection range with an imaging unit such as a camera. Data or position information of a person calculated from the image data.

ステップS402において、人体検知情報制御部102は、人体検知部101より受け取った人体検知情報に基づき、人体検知部101により検知された人のトラッキングを行い、人物別検知情報を人物別検知情報記憶部108に格納させる。人体検知部101により検知された人のトラッキングを行うためのトラッキング処理は、例えば、パーティクルフィルタを用いる場合や画像データを用いる場合等がある。以下では、図3(a)で示したようにMFP10の利用者が人物Aから人物Bに入れ替わる場合について、パーティクルフィルタを用いたトラッキング方法と画像データを用いたトラッキング方法の概略を説明する。   In step S <b> 402, the human body detection information control unit 102 performs tracking of the person detected by the human body detection unit 101 based on the human body detection information received from the human body detection unit 101, and stores the individual detection information as the person detection information storage unit. The data is stored in 108. Tracking processing for tracking a person detected by the human body detection unit 101 includes, for example, a case where a particle filter is used and a case where image data is used. In the following, an outline of the tracking method using the particle filter and the tracking method using the image data when the user of the MFP 10 is switched from the person A to the person B as shown in FIG.

図5は、パーティクルフィルタを用いたトラッキングの一例を説明するための図である。人体検知情報がセンサ検知範囲内における人物の位置情報である場合に、この人物の位置情報の変化をパーティクルフィルタで予測することでトラッキングを行うことができる。この方法によれば、人物AがMFP10を利用するためにセンサ検知範囲内に入ると、パーティクルフィルタを用いて人物Aの移動軌跡がトラッキングされる(ステップS3−1)。人物AがMFP10を利用し(ステップS3−2)、人物Aが利用を終えてMFP10を離れ始めるのとほぼ同じタイミングで、人物BがMFP10を利用するためにMFP10に接近したものとする。このとき、人物BがMFP10のセンサ検知範囲内に入ると、人体検知センサ17は人物Bを検知して、パーティクルフィルタを用いて人物Bの移動軌跡をトラッキングされる(ステップS3−3)。そして、人物BがMFP10を利用中である一方、人物Aはセンサ検知範囲から外に出たものとする。このとき、上述したように、パーティクルフィルタを用いて人物A及び人物Bの移動軌跡がトラッキングされているため、MFP10は利用者が人物Aから人物Bに代わったことを認識することができる(ステップS3−4)。以上のようなパーティクルフィルタを用いたトラッキング処理の詳細については、後述する。   FIG. 5 is a diagram for explaining an example of tracking using a particle filter. When the human body detection information is position information of a person within the sensor detection range, tracking can be performed by predicting a change in the position information of the person using a particle filter. According to this method, when the person A enters the sensor detection range in order to use the MFP 10, the movement trajectory of the person A is tracked using the particle filter (step S3-1). It is assumed that the person B uses the MFP 10 (step S3-2), and the person B approaches the MFP 10 in order to use the MFP 10 at almost the same timing as the person A finishes the use and starts to leave the MFP 10. At this time, when the person B enters the sensor detection range of the MFP 10, the human body detection sensor 17 detects the person B and tracks the movement trajectory of the person B using the particle filter (step S3-3). It is assumed that the person B is using the MFP 10 while the person A has moved out of the sensor detection range. At this time, as described above, since the movement trajectories of the person A and the person B are tracked using the particle filter, the MFP 10 can recognize that the user has changed from the person A to the person B (step S3-4). Details of the tracking process using the particle filter as described above will be described later.

図6は、画像データを用いたトラッキングの一例を説明するための図である。人体検知情報がセンサ検知範囲内における人物の画像の特徴点に関する情報である場合に、この人物の画像の特徴点を用いてマッチングすることでトラッキングを行うことができる。この方法によれば、人物AがMFP10を利用するためにセンサ検知範囲内に入ると、人物Aの画像の特徴点を用いたマッチングにより人物Aの移動軌跡がトラッキングされる(ステップS4−1)。人物AがMFP10を利用し(ステップS4−2)、人物Aが利用を終えてMFP10を離れ始めるのとほぼ同じタイミングで、人物BがMFP10を利用するためにMFP10に接近したものとする。このとき、人物BがMFP10のセンサ検知範囲内に入ると、人体検知センサ17は人物Bを検知して、人物Bの画像の特徴点を用いてマッチングすることで、人物Bの移動軌跡がトラッキングされる(ステップS4−3)。そして、人物BがMFP10を利用中である一方、人物Aはセンサ検知範囲から外に出たものとする。このとき、上述したように、それぞれの人物の特徴点を用いてマッチングにより人物A及び人物Bの移動軌跡がトラッキングされているため、MFP10は利用者が人物Aから人物Bに代わったことを認識することができる(ステップS4−4)。以上のような画像データを用いたトラッキング処理の詳細については、後述する。   FIG. 6 is a diagram for explaining an example of tracking using image data. When the human body detection information is information related to the feature points of the person image within the sensor detection range, tracking can be performed by matching using the feature points of the person image. According to this method, when person A enters the sensor detection range in order to use MFP 10, the movement trajectory of person A is tracked by matching using the feature points of the image of person A (step S4-1). . It is assumed that the person A uses the MFP 10 (step S4-2), and the person B approaches the MFP 10 in order to use the MFP 10 at almost the same timing as the person A finishes the use and starts to leave the MFP 10. At this time, when the person B enters the sensor detection range of the MFP 10, the human body detection sensor 17 detects the person B and performs matching using the feature points of the image of the person B, thereby tracking the movement trajectory of the person B. (Step S4-3). It is assumed that the person B is using the MFP 10 while the person A has moved out of the sensor detection range. At this time, as described above, since the movement trajectories of person A and person B are tracked by matching using the feature points of each person, MFP 10 recognizes that the user has changed from person A to person B. (Step S4-4). Details of the tracking process using the image data as described above will be described later.

ステップS403において、人体検知部101により検知された人がMFP10を利用する。例えば、人体検知部101により検知された人物AがMFP10を利用する。   In step S <b> 403, the person detected by the human body detection unit 101 uses the MFP 10. For example, the person A detected by the human body detection unit 101 uses the MFP 10.

ステップS404において、人体検知情報制御部102は、センサ検知範囲内の人の人数が増加したか又は減少したかを判定する。これは、上述のステップS402によりセンサ検知範囲内の人の移動軌跡をそれぞれトラッキングすることで生成される人物別検知情報により判定することができる。例えば、人物別検知情報が、人別の各時点における位置情報である場合、人体検知情報制御部102は、現時点の位置情報が記録されている人物別検知情報の数を算出することで判定することができる。センサ検知範囲内の人の人数が増加した場合(すなわち、人体検知部101により新たに人が検知された場合)は、ステップS405に進む。他方、センサ検知範囲内の人の人数が減少した(すなわち、センサ検知範囲内からセンサ検知範囲外に人が移動した場合)は、ステップS406に進む。なお、センサ検知範囲内の人の人数の増減がない場合には、人体検知情報制御部102は何もしない。   In step S404, the human body detection information control unit 102 determines whether the number of persons within the sensor detection range has increased or decreased. This can be determined based on the individual detection information generated by tracking the movement trajectory of the person within the sensor detection range in step S402 described above. For example, when the person-specific detection information is position information at each time point for each person, the human body detection information control unit 102 determines by calculating the number of person-specific detection information in which the current position information is recorded. be able to. When the number of persons within the sensor detection range has increased (that is, when a person has been newly detected by the human body detection unit 101), the process proceeds to step S405. On the other hand, if the number of people within the sensor detection range has decreased (that is, if a person has moved from within the sensor detection range to outside the sensor detection range), the process proceeds to step S406. In addition, when there is no increase / decrease in the number of persons within the sensor detection range, the human body detection information control unit 102 does nothing.

ステップS405において、人体検知情報制御部102は、人体検知部101により新たに検知された人のトラッキングを行い、この検知された人の人物別検知情報を人物別検知情報記憶部108に格納させる。このトラッキングを行うための処理は、上述したステップS402で説明した処理と同様である。   In step S <b> 405, the human body detection information control unit 102 performs tracking of the person newly detected by the human body detection unit 101, and stores the detected person-by-person detection information in the person-by-person detection information storage unit 108. The process for performing this tracking is the same as the process described in step S402 described above.

ステップS406において、人体検知情報制御部102は、センサ検知範囲内の人の人数が1人以上が否かを判定する。この判定は、上述したステップS404と同様に、例えば、人物別検知情報が、人別の各時点における位置情報である場合、人体検知情報制御部102は、現時点の位置情報が記録されている人物別検知情報の数を算出することで判定することができる。センサ検知範囲内の人の人数が、1人以上である場合、ステップS407に進む。他方、センサ検知範囲内の人の人数が、0人である場合、ステップS413に進む。   In step S406, the human body detection information control unit 102 determines whether or not the number of persons within the sensor detection range is one or more. This determination is made in the same manner as in step S404 described above, for example, when the person-specific detection information is position information at each time point for each person, the human body detection information control unit 102 records the person whose current position information is recorded. This can be determined by calculating the number of separate detection information. When the number of persons within the sensor detection range is one or more, the process proceeds to step S407. On the other hand, when the number of persons within the sensor detection range is zero, the process proceeds to step S413.

ステップS407において、利用者判定部105は、センサ検知範囲外となった人物が、MFP10の利用者(例えば、上述した人物A)であるか否かを判定する。これは、例えば、人物Aの人物別検知情報から判定することができる。すなわち、例えば、MFP10の利用者であった人物Aの人物別検知情報において、現時点の位置情報が記録されていない場合、利用者判定部105は、人物Aはセンサ検知範囲外となったと判定される。他方、例えば、人物Aの人物別検知情報において、現時点の位置情報が記録されている場合、センサ検知範囲の外に移動した人物は、人物A以外であると判定される。センサ検知範囲外となった人物がMFP10の利用者である場合、ステップS409に進む。他方、センサ検知範囲外となった人物がMFP10の利用者でない場合、ステップS410に進む。   In step S <b> 407, the user determination unit 105 determines whether the person who is outside the sensor detection range is a user of the MFP 10 (for example, the person A described above). This can be determined from, for example, person-by-person detection information of person A. That is, for example, when the current position information is not recorded in the person-by-person detection information of the person A who is the user of the MFP 10, the user determination unit 105 determines that the person A is out of the sensor detection range. The On the other hand, for example, when the current position information is recorded in the person-by-person detection information of the person A, the person who has moved outside the sensor detection range is determined to be other than the person A. If the person outside the sensor detection range is a user of the MFP 10, the process proceeds to step S409. On the other hand, if the person outside the sensor detection range is not the user of the MFP 10, the process proceeds to step S410.

ステップS408において、MFP10は、ある特定の利用者(例えば、上述した人物A)が継続して利用しているものとして動作する。すなわち、この場合、MFP10では自動ログアウト制御や省エネ制御等の各種制御は行われない。   In step S408, the MFP 10 operates on the assumption that a specific user (for example, the person A described above) is continuously using the MFP 10. That is, in this case, the MFP 10 does not perform various controls such as automatic logout control and energy saving control.

ステップS409において、自動ログアウト制御部107は、自動ログアウトタイマがタイムアップとなっているか否かを判定する。すなわち、例えばセンサ検知範囲外に移動した人物AによるMFP10に対する最後の操作から所定の時間が経過しているか否かを判定する。自動ログアウトタイマがタイムアップとなっている場合、ステップS410に進む。他方、自動ログアウトタイマがタイムアップとなっていない場合、ステップS411に進む。   In step S409, the automatic logout control unit 107 determines whether the automatic logout timer is up. That is, for example, it is determined whether or not a predetermined time has elapsed since the last operation on the MFP 10 by the person A who moved out of the sensor detection range. If the automatic logout timer is up, the process proceeds to step S410. On the other hand, if the automatic logout timer is not up, the process proceeds to step S411.

ステップS410において、自動ログアウト制御部107は、MFP10の利用者(例えば、上述した人物A)を、MFP10から自動でログアウトさせる制御を行う。これにより、MFP10の利用者である人物AがMFP10の利用後ログアウトせずにセンサ検知範囲外に出た場合、操作終了後所定の時間が経過していれば自動でユーザアカウントがログアウトされる。   In step S <b> 410, the automatic logout control unit 107 performs control to automatically log out a user of the MFP 10 (for example, the person A described above) from the MFP 10. Accordingly, when the person A who is a user of the MFP 10 goes out of the sensor detection range without logging out after using the MFP 10, the user account is automatically logged out if a predetermined time has elapsed after the operation is completed.

ステップS411において、省エネ制御部106は、省エネ移行タイマがタイムアップとなっているか否かを判定する。すなわち、例えばセンサ検知範囲外に移動した人物AによるMFP10に対する最後の操作から所定の時間が経過しているか否かを判定する。省エネ移行タイマがタイムアップとなっている場合、ステップS412に進む。他方、省エネ移行タイマがタイムアップとなっていない場合、ステップS404に戻る。   In step S411, the energy saving control unit 106 determines whether or not the energy saving transition timer is up. That is, for example, it is determined whether or not a predetermined time has elapsed since the last operation on the MFP 10 by the person A who moved out of the sensor detection range. If the energy saving transition timer is up, the process proceeds to step S412. On the other hand, when the energy saving transition timer is not up, the process returns to step S404.

ステップS412において、省エネ制御部106は、MFP10を省電力状態に移行させる制御を行う。これにより、MFP10の利用者である人物Aの操作終了後、所定の時間が経過していればMFP10は省エネ状態に移行する。   In step S412, the energy saving control unit 106 performs control to shift the MFP 10 to the power saving state. Thereby, after the operation of the person A who is the user of the MFP 10 is completed, the MFP 10 shifts to an energy saving state if a predetermined time has elapsed.

なお、上述したように、MFP10の利用者がセンサ検知範囲外に出た場合に、自動ログアウト制御及び省エネ制御を行う処理について述べたが、これらに限られず、MFP10はその他の各種制御を行ってもよい。例えば、MFP10の利用者がセンサ検知範囲外に出た場合に、MFP10のシステムリセット制御手段(不図示)は、操作パネル16の表示を初期画面や予め設定された所定の機能を実行させるための画面に遷移する(すなわち、所定の状態にシステムをリセットする)ための制御を行ってもよい。   As described above, the process of performing the automatic logout control and the energy saving control when the user of the MFP 10 goes out of the sensor detection range has been described. However, the present invention is not limited thereto, and the MFP 10 performs various other controls. Also good. For example, when the user of the MFP 10 goes out of the sensor detection range, a system reset control unit (not shown) of the MFP 10 causes the operation panel 16 to display an initial screen or a predetermined function set in advance. Control for transitioning to a screen (that is, resetting the system to a predetermined state) may be performed.

ステップS413〜ステップS416は、それぞれステップS409〜ステップS412と同様の処理であるため、説明を省略する。   Steps S413 to S416 are the same processes as steps S409 to S412 and will not be described.

以上のように、本実施形態に係るMFP10は、センサ検知範囲内において検知された人物をトラッキングすることで、各人物を区別して認識する。これにより、MFP10の利用者が他の利用者に入れ替わったのか否か、MFP10の利用者がセンサ検知範囲の外に出たのか否か等を認識することができる。したがって、本実施形態に係るMFP10は、自動ログアウト制御や省エネ制御等の各種制御を適切に行うことができる。   As described above, the MFP 10 according to the present embodiment distinguishes and recognizes each person by tracking the person detected within the sensor detection range. As a result, it is possible to recognize whether the user of the MFP 10 has been replaced with another user, whether the user of the MFP 10 has gone out of the sensor detection range, and the like. Therefore, the MFP 10 according to the present embodiment can appropriately perform various controls such as automatic logout control and energy saving control.

≪パーティクルフィルタを用いたトラッキング処理≫
次に、上記のステップS402及びS405におけるトラッキング処理について、一例としてパーティクルフィルタを用いたトラッキング処理について説明する。図7は、本実施形態に係るトラッキング処理の一例のフローチャートである。なお、トラッキング処理はパーティクルフィルタを用いる場合に限られず、例えば、カルマンフィルタを用いてもよい。カルマンフィルタとは、現在の観測値と、1つ前の時点(例えば、1つ前のフレーム)の状態推定値とに基づき、現在の状態推定値と1つ後の時点(例えば、1つ後のフレーム)の状態推定値とを算出するものである。カルマンフィルタを用いた場合、パーティクルフィルタと比して推定(予測)精度は低いものの、計算量を抑えることができる。なお、パーティクルフィルタやカルマンフィルタを用いた人物や物体のトラッキング処理は既知の方法であるため、以降では概略を述べる。
≪Tracking process using particle filter≫
Next, tracking processing using a particle filter will be described as an example of the tracking processing in steps S402 and S405. FIG. 7 is a flowchart of an example of tracking processing according to the present embodiment. The tracking process is not limited to using a particle filter, and for example, a Kalman filter may be used. The Kalman filter is based on the current observation value and the state estimation value of the previous time point (for example, the previous frame), and the current state estimation value and the next time point (for example, the next time point). Frame) state estimation value. When the Kalman filter is used, although the estimation (prediction) accuracy is lower than that of the particle filter, the calculation amount can be suppressed. Since tracking processing of a person or an object using a particle filter or a Kalman filter is a known method, an outline will be described below.

ステップS701において、移動軌跡特定部103は、人体検知情報制御部102より人物の位置情報を含む人体検知情報を受け取ると、人物の位置情報を現在の観測値(現在の観測状態)として取得する。そして、移動軌跡特定部103は、現在の観測状態の付近の位置(位置座標)をパーティクルとする。換言すれば、移動軌跡特定部103は、現在の観測状態の付近の位置にパーティクルを撒く。なお、初期状態においては、移動軌跡特定部103は、現在の観測値の付近にランダムにパーティクルを撒き、他方、初期状態以外においては、ステップS705で算出された重み付けに応じてパーティクルを撒く(撒き直す)。   In step S <b> 701, upon receiving the human body detection information including the position information of the person from the human body detection information control unit 102, the movement locus specifying unit 103 acquires the position information of the person as the current observation value (current observation state). Then, the movement trajectory specifying unit 103 sets a position (positional coordinate) in the vicinity of the current observation state as a particle. In other words, the movement locus specifying unit 103 places particles at positions near the current observation state. In the initial state, the movement trajectory specifying unit 103 randomly throws particles in the vicinity of the current observation value. On the other hand, in other cases than the initial state, the movement trajectory specifying unit 103 whisks particles according to the weight calculated in step S705. cure).

なお、移動軌跡特定部103は、人体検知情報制御部102より複数の人物の位置を含む人体検知情報を受け取った場合(すなわち、センサ検知範囲内に複数の人物がいる場合)、一の位置情報を取得して、この取得した位置情報を当該人物の現在の観測状態する。この場合、人体検知情報に含まれる人物の位置情報毎に、ステップS701〜ステップS705を繰り返す。   In addition, the movement locus | trajectory specific | specification part 103 is one position information, when the human body detection information containing the position of a several person is received from the human body detection information control part 102 (that is, when there exist a several person in a sensor detection range). And the acquired position information is made the current observation state of the person. In this case, step S701 to step S705 are repeated for each position information of the person included in the human body detection information.

ステップS702において、移動軌跡特定部103は、過去の推定値(過去の推定状態)があるか否かを判定する。過去の推定状態がある場合、ステップS703に進む一方、過去の推定状態がない場合、ステップS701に戻る。ここで、過去の推定状態とは、現時点により以前のすべての時点におけるにおけるステップS705の処理において算出された「次の時点の推定状態」である。   In step S702, the movement locus specifying unit 103 determines whether there is a past estimated value (past estimated state). If there is a past estimated state, the process proceeds to step S703. If there is no past estimated state, the process returns to step S701. Here, the past estimated state is the “estimated state at the next time point” calculated in the process of step S705 at all the previous time points according to the current time point.

ステップS703において、移動軌跡特定部103は、過去の推定状態に基づき、現在の推定状態を算出する。すなわち、移動軌跡特定部103は、各パーティクルを所定の状態方正式に基づいて移動させる。   In step S703, the movement trajectory specifying unit 103 calculates the current estimated state based on the past estimated state. That is, the movement trajectory specifying unit 103 moves each particle based on a predetermined state method.

ステップS704において、移動軌跡特定部103は、現在の推定状態に基づき、各パーティクルの尤度を所定の計算式により算出する。ここで算出された尤度が、各パーティクルの「重み」となる。   In step S704, the movement trajectory specifying unit 103 calculates the likelihood of each particle using a predetermined calculation formula based on the current estimated state. The likelihood calculated here becomes the “weight” of each particle.

ステップS705において、移動軌跡特定部103は、各パーティクルの重み付き平均を次の時点の推定状態(次の時点の推定値)として取得する。なお、各パーティクルにおいて最大の重みを持つパーティクルを、次の時点の推定状態としてもよい。   In step S705, the movement trajectory specifying unit 103 acquires the weighted average of each particle as an estimated state at the next time point (estimated value at the next time point). In addition, it is good also considering the particle with the largest weight in each particle as an estimated state of the next time.

以上のステップS701〜ステップS705を、各時点毎に繰り返すことで、人物の移動軌跡をトラッキングすることができる。そして、人物区別部104は、各時点毎に、人物毎に人物別検知情報を作成又は更新して、人物別検知情報記憶部108に格納する。これにより、人物別検知情報記憶部108には、人体検知部101により検知された人物毎の移動軌跡に関する情報を示す人物別検知情報が格納される。   By repeating the above steps S701 to S705 for each time point, the movement trajectory of the person can be tracked. Then, the person distinguishing unit 104 creates or updates the individual detection information for each person at each time point, and stores it in the individual detection information storage unit 108. As a result, the person-specific detection information storage unit 108 stores person-specific detection information indicating information on the movement trajectory of each person detected by the human body detection unit 101.

≪画像データを用いたトラッキング処理≫
次に、上記のステップS402及びS405におけるトラッキング処理について、他の例として画像データを用いたトラッキング処理について説明する。図8は、本実施形態に係るトラッキング処理の他の例のフローチャートである。画像データを用いる場合とは、人体検知センサ17として、例えばカメラ等の撮像手段を用いる場合である。以降では、画像データに基づき、人物の画像の特徴点を用いたマッチングによりトラッキングする処理について説明する。なお、画像データには、1人以上の人物の画像が含まれるものとする。すなわち、人体検知センサ17は、センサ検知範囲内に人物が存在する場合のみ撮像するか、又は常にセンサ検知範囲内を撮像する場合には特徴点等に基づき人物が写っている場合のみ人体検知情報を人体検知情報制御部102に送信するものとする。ただし、人体検知センサ17により撮像された画像データには、人物の一部(例えば、顔)のみが写っている場合であってもよい。なお、画像データを用いた特徴点のマッチングによる人物や物体のトラッキング処理は既知の方法であるため、以降では概略を述べる。
≪Tracking process using image data≫
Next, tracking processing using image data will be described as another example of the tracking processing in steps S402 and S405. FIG. 8 is a flowchart of another example of the tracking process according to the present embodiment. The case where image data is used is a case where imaging means such as a camera is used as the human body detection sensor 17. In the following, processing for tracking by matching using feature points of a person's image based on image data will be described. It is assumed that the image data includes an image of one or more persons. That is, the human body detection sensor 17 captures an image only when a person is present within the sensor detection range, or always captures an image of the human body detection information when a person is captured based on a feature point or the like when capturing an image within the sensor detection range. Is transmitted to the human body detection information control unit 102. However, the image data captured by the human body detection sensor 17 may include only a part of a person (for example, a face). Since tracking processing of a person or an object by matching feature points using image data is a known method, an outline will be described below.

ここで、人体検知センサ17がカメラ等である場合に、撮像により生成された画像データに人物が写って否かは、MFP10のマップ作成手段(不図示)により予め作成されたMFP10の周囲の空間を撮像して生成された画像データ(マップ)を用いることにより判定することができる。すなわち、MFP10のマップ作成手段(不図示)は、予め、MFP10の周囲(センサ検知範囲)を人物がいない状態で撮像し、画像データ(これを「第1のマップ」と表す)を生成する。これにより、MFP10の人体検知部101は、各時点において撮像により生成された画像データ(これを「第2のマップ」と表す)と、第1のマップとの差分を取ることにより、各時点のおける画像データに人物が写っていることを検知することができる。つまり、第1のマップと第2のマップとに差がある箇所又は差が所定以上の箇所が人物が写っている箇所となる。   Here, when the human body detection sensor 17 is a camera or the like, whether or not a person is reflected in the image data generated by imaging is determined by the space around the MFP 10 created in advance by the map creating means (not shown) of the MFP 10. It can be determined by using image data (map) generated by imaging. That is, the map creation means (not shown) of the MFP 10 captures the surroundings of the MFP 10 (sensor detection range) in the absence of a person in advance and generates image data (this is represented as “first map”). As a result, the human body detection unit 101 of the MFP 10 obtains a difference between the image data generated by imaging at each time point (this is expressed as “second map”) and the first map, so that each time point is obtained. It is possible to detect that a person is reflected in the image data. That is, a portion where there is a difference between the first map and the second map or a portion where the difference is equal to or greater than a predetermined value is a portion where a person is shown.

ステップS801において、移動軌跡特定部103は、人体検知情報制御部102より画像データを含む人体検知情報を受け取ると、この画像データに含まれる人物の画像の特徴点を取得する。なお、画像データに複数の人物が含まれる場合、一の人物の画像の特徴点を取得する。すなわち、画像データに複数の人物が含まれる場合、すべての人物について、人物毎に、当該人物の画像の特徴点を取得して、ステップS801〜ステップS805の処理を実行すればよい。ここで、特徴点は、例えば、人物の画像の輪郭(エッジ)やテクスチャ等を特徴点とすればよい。   In step S <b> 801, upon receiving the human body detection information including the image data from the human body detection information control unit 102, the movement trajectory specifying unit 103 acquires the feature points of the person image included in the image data. Note that when the image data includes a plurality of persons, the feature points of the image of one person are acquired. That is, when a plurality of persons are included in the image data, for each person, the feature points of the person's image may be acquired for each person, and the processes in steps S801 to S805 may be executed. Here, the feature point may be, for example, the outline (edge) or texture of a person image.

ステップS802において、移動軌跡特定部103は、現時点(すなわち、現フレーム)の当該人物の特徴点と、1つ前の時点(すなわち、1つ前のフレーム)の画像データに含まれる一の人物の特徴点とをマッチングする。   In step S802, the movement trajectory specifying unit 103 determines the feature point of the person at the current time (ie, the current frame) and the one person included in the image data at the previous time (ie, the previous frame). Match feature points.

ステップS803において、移動軌跡特定部103は、上記のステップS802のマッチング結果に基づき、現時点の画像データに含まれる当該人物と、1つ前の時点に含まれる一の人物とが同一人物か否かを判定する。これは、例えば、現時点の画像データに含まれる当該人物の特徴点と、1つ前の時点に含まれる一の人物の特徴点とが、所定の閾値以上一致する場合に、同一人物であると判定するようにすればよい。マッチング結果に基づき、同一人物であると判定された場合、ステップS804に進む一方、同一人物であると判定されなかった場合、ステップS805に進む。   In step S803, the movement trajectory specifying unit 103 determines whether the person included in the current image data and the one person included in the previous time point are the same person based on the matching result in step S802. Determine. For example, if the feature point of the person included in the current image data and the feature point of one person included in the previous time point match at least a predetermined threshold, they are the same person It may be determined. If it is determined that they are the same person based on the matching result, the process proceeds to step S804. If it is not determined that they are the same person, the process proceeds to step S805.

ステップS804において、人物区別部104は、同一人物であると判定された当該人物の人物別検知情報を、作成又は更新する。これにより、1つ前の時点から現時点における当該人物の移動軌跡を示す人物別検知情報が、人物別検知情報記憶部108に格納される。   In step S804, the person distinguishing unit 104 creates or updates the person-by-person detection information of the person determined to be the same person. As a result, the person-by-person detection information indicating the movement trajectory of the person from the previous time point to the present time is stored in the person-by-person detection information storage unit 108.

ステップS805において、移動軌跡特定部103は、1つ前の時点の画像データに、上記のステップS802において特徴点を取得した一の人物以外の他の人物が含まれるか否かを判定する。1つ前の時点の画像データに他の人物が含まれる場合、ステップS802に戻る。他の人物が含まれない場合、ステップS806に進む。なお、上記のステップS804の処理を実行した場合、本ステップの処理は行わなくてもよい。   In step S805, the movement trajectory specifying unit 103 determines whether or not the image data at the previous time includes another person other than the one who acquired the feature point in step S802. If another person is included in the previous image data, the process returns to step S802. If no other person is included, the process proceeds to step S806. Note that when the process of step S804 is performed, the process of this step may not be performed.

以上のステップS801〜ステップS805を、各時点毎に繰り返すことで、人物の移動軌跡をトラッキングすることができる。すなわち、過去の各時点における画像データ(第1の画像データ)と、現時点の画像データ(第2の画像データ)とから現時点における人物の移動軌跡がトラッキングされる。これにより、人物別検知情報記憶部108には、人体検知部101により検知された人物毎の移動軌跡に関する情報を示す人物別検知情報が格納される。   By repeating the above steps S801 to S805 for each time point, the movement trajectory of the person can be tracked. That is, the movement trajectory of the person at the present time is tracked from the image data (first image data) at each past time point and the current image data (second image data). As a result, the person-specific detection information storage unit 108 stores person-specific detection information indicating information on the movement trajectory of each person detected by the human body detection unit 101.

<まとめ>
以上のように、本実施形態に係るMFP10では、人体検知センサ17のセンサ検知範囲内のいる人物の移動軌跡をトラッキングすることで、各人物を区別して認識する。したがって、MFP10の利用者が他の人物と入れ替わった場合やMFP10の利用者の付近を他の人物が通り過ぎた場合等において、利用者と他の人物とを誤認識することなく、各種制御を行うことができる。
<Summary>
As described above, the MFP 10 according to this embodiment recognizes each person by tracking the movement trajectory of the person within the sensor detection range of the human body detection sensor 17. Therefore, when the user of the MFP 10 is replaced with another person or when another person passes near the user of the MFP 10, various controls are performed without misrecognizing the user and the other person. be able to.

なお、人体検知部101は、人物検出手段の一例である。移動軌跡特定部103及び人物区別部104は、区別手段の一例である。利用者判定部105は、判定手段の一例である。自動ログアウト制御部107は、ログアウト制御手段の一例である。省エネ制御部106は、省エネ制御手段の一例である。   The human body detection unit 101 is an example of a person detection unit. The movement trajectory specifying unit 103 and the person distinguishing unit 104 are an example of a distinguishing unit. The user determination unit 105 is an example of a determination unit. The automatic logout control unit 107 is an example of logout control means. The energy saving control unit 106 is an example of an energy saving control unit.

本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。   The present invention is not limited to the specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims.

10 MFP
11 CPU
12 ROM
13 RAM
14 HDD
15 通信I/F
16 操作パネル
17 人体検知センサ
18 画像処理エンジン
101 人体検知部
102 人体検知情報制御部
103 移動軌跡特定部
104 人物区別部
105 利用者判定部
106 省エネ制御部
107 自動ログアウト制御部
108 人物別検知情報記憶部
10 MFP
11 CPU
12 ROM
13 RAM
14 HDD
15 Communication I / F
Reference Signs List 16 Operation Panel 17 Human Body Detection Sensor 18 Image Processing Engine 101 Human Body Detection Unit 102 Human Body Detection Information Control Unit 103 Movement Trajectory Identification Unit 104 Person Discrimination Unit 105 User Determination Unit 106 Energy Saving Control Unit 107 Automatic Logout Control Unit 108 Person-Specific Detection Information Storage Part

特開2002−71833号公報JP 2002-71833 A

Claims (9)

画像処理装置であって、
所定の範囲内に位置する人物を検出する人物検出手段と、
前記人物検出手段により検出された人物の前記所定の範囲内における過去の位置から現在の位置までの移動軌跡を導出し、該移動軌跡に基づき前記所定の範囲内に位置する1以上の人物をそれぞれ区別する区別手段と、
前記区別手段により区別された人物に関する情報に基づき、前記画像処理装置を操作する人物が他の人物に入れ替わったのか否かを判定する判定手段と、
を有する画像処理装置。
An image processing apparatus,
Person detecting means for detecting a person located within a predetermined range;
A movement trajectory of the person detected by the person detection means from a past position within the predetermined range to a current position is derived, and one or more persons located within the predetermined range are respectively determined based on the movement trajectory. Distinction means to distinguish,
Determination means for determining whether or not a person operating the image processing apparatus has been replaced with another person based on information on the person distinguished by the distinguishing means;
An image processing apparatus.
前記判定手段により前記画像処理装置を操作する人物が他の人物に入れ替わったと判定された場合において、前記人物が操作を終了した時点から所定の時間が経過している場合、該人物のユーザアカウントを前記画像処理装置からログアウトさせるログアウト制御手段を有する請求項1記載の画像処理装置。   When it is determined by the determination means that the person operating the image processing apparatus has been replaced with another person, when a predetermined time has elapsed since the person finished the operation, the user account of the person is The image processing apparatus according to claim 1, further comprising logout control means for logging out from the image processing apparatus. 前記判定手段により前記画像処理装置を操作する人物が他の人物に入れ替わったと判定された場合において、前記人物が操作を終了した時点から所定の時間が経過している場合、前記画像処理装置を省電力状態に移行させる制御を行う省エネ制御手段を有する請求項1又は2記載の画像処理装置。   If it is determined by the determination means that the person operating the image processing apparatus has been replaced by another person, the image processing apparatus is omitted if a predetermined time has passed since the person finished the operation. The image processing apparatus according to claim 1, further comprising an energy saving control unit configured to perform control for shifting to the power state. 前記判定手段により前記画像処理装置を操作する人物が他の人物に入れ替わったと判定された場合において、前記人物が操作を終了した時点から所定の時間が経過してる場合、前記画像処理装置の表示部を、予め設定された所定の機能を実行させるための画面に遷移させる制御を行うシステムリセット制御手段を有する請求項1ないし3のいずれか1項に記載の画像処理装置。   When it is determined by the determination means that the person operating the image processing apparatus has been replaced with another person, when a predetermined time has passed since the person finished the operation, the display unit of the image processing apparatus 4. The image processing apparatus according to claim 1, further comprising: a system reset control unit configured to perform control for transitioning to a screen for executing a predetermined function set in advance. 5. 前記所定の範囲内の空間に関する情報を示すマップを作成するマップ作成手段を有し、
前記人物検出手段は、
前記マップ作成手段により前記所定の範囲内に人物がいない状態で予め作成された第1のマップと、前記所定の範囲内に人物がいる状態で作成された第2のマップとの差分に基づき、前記画像処理装置から所定の範囲内に位置する人物を検出する、請求項1ないし4のいずれか1項に記載の画像処理装置。
Map creating means for creating a map indicating information on the space within the predetermined range;
The person detecting means is
Based on the difference between the first map created in advance with no person in the predetermined range by the map creating means and the second map created with a person in the predetermined range, The image processing apparatus according to claim 1, wherein a person located within a predetermined range from the image processing apparatus is detected.
前記人物検出手段は、
前記画像処理装置の撮像手段により作成される前記所定の範囲内の画像データに基づき、該所定の範囲内に位置する人物を検出し、
前記区別手段は、
前記人物検出手段により検出された人物の前記所定の範囲内における過去の位置に関する1以上の第1の画像データと、該人物の前記所定の範囲内における現在の位置に関する第2の画像データとに基づき、前記人物の前記所定の範囲における前記過去の位置から前記現在の位置までの移動軌跡を導出し、該移動軌跡に基づき前記所定の範囲内に位置する1以上の人物をそれぞれ区別する、請求項1ないし5のいずれか1項に記載の画像処理装置。
The person detecting means is
Based on the image data within the predetermined range created by the imaging means of the image processing device, a person located within the predetermined range is detected,
The distinguishing means is
One or more first image data relating to a past position of the person detected by the person detecting means within the predetermined range, and second image data relating to a current position of the person within the predetermined range. And deriving a movement trajectory of the person from the past position to the current position in the predetermined range, and distinguishing one or more persons located in the predetermined range based on the movement trajectory. Item 6. The image processing apparatus according to any one of Items 1 to 5.
前記人物検出手段は、
第1の所定の範囲内に位置する人物を検出する第1の人物検出手段と、
第2の所定の範囲内に位置する人物を検出する第2の人物検出手段と、を有し、
前記区別手段は、
前記第1の人物検出手段又は前記第2の人物検出手段により検出された前記人物の前記第1の所定の範囲内における過去の位置又は前記第2の所定の範囲内における過去の位置と、前記第1の人物検出手段又は前記第2の人物検出手段により検出された前記人物の前記第1の所定の範囲内における現在の位置又は前記第2の所定の範囲内における現在の位置とに基づき、前記過去の位置から前記現在の位置までの前記人物の移動軌跡を導出し、該移動軌跡に基づき前記所定の範囲内に位置する1以上の人物をそれぞれ区別する、請求項1ないし6のいずれか1項に記載の画像処理装置。
The person detecting means is
First person detecting means for detecting a person located within a first predetermined range;
Second person detecting means for detecting a person located within a second predetermined range,
The distinguishing means is
The past position within the first predetermined range of the person detected by the first person detection means or the second person detection means or the past position within the second predetermined range; and Based on the current position within the first predetermined range or the current position within the second predetermined range of the person detected by the first person detection means or the second person detection means, 7. The human trajectory of the person from the past position to the current position is derived, and one or more persons located within the predetermined range are distinguished based on the trajectory. The image processing apparatus according to item 1.
画像処理装置に用いられる人物検出方法であって、
所定の範囲内に位置する人物を検出する人物検出工程と、
前記人物検出工程により検出された人物の前記所定の範囲内における過去の位置から現在の位置までの移動軌跡を導出し、該移動軌跡に基づき前記所定の範囲内に位置する1以上の人物をそれぞれ区別する区別工程と、
前記区別工程により区別された人物に関する情報に基づき、前記画像処理装置を操作する人物が他の人物に入れ替わったのか否かを判定する判定工程と、
を有する人物検出方法。
A person detection method used in an image processing apparatus,
A person detection step of detecting a person located within a predetermined range;
A movement trajectory of a person detected by the person detection step from a past position within the predetermined range to a current position is derived, and one or more persons located within the predetermined range are respectively determined based on the movement trajectory. A distinction process to distinguish;
A determination step of determining whether or not a person operating the image processing apparatus has been replaced with another person based on information on the person distinguished by the distinction step;
A person detection method having
画像処理装置を、
所定の範囲内に位置する人物を検出する人物検出手段、
前記人物検出手段により検出された人物の前記所定の範囲内における過去の位置から現在の位置までの移動軌跡を導出し、該移動軌跡に基づき前記所定の範囲内に位置する1以上の人物をそれぞれ区別する区別手段、
前記区別手段により区別された人物に関する情報に基づき、前記画像処理装置を操作する人物が他の人物に入れ替わったのか否かを判定する判定手段、
として機能させるためのプログラム。
The image processing device
A person detecting means for detecting a person located within a predetermined range;
A movement trajectory of the person detected by the person detection means from a past position within the predetermined range to a current position is derived, and one or more persons located within the predetermined range are respectively determined based on the movement trajectory. Distinction means to distinguish,
Determination means for determining whether or not a person operating the image processing apparatus has been replaced with another person based on information about the person distinguished by the distinguishing means;
Program to function as.
JP2014195226A 2014-09-25 2014-09-25 Image processor, person detection method, and program Pending JP2016066280A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014195226A JP2016066280A (en) 2014-09-25 2014-09-25 Image processor, person detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014195226A JP2016066280A (en) 2014-09-25 2014-09-25 Image processor, person detection method, and program

Publications (1)

Publication Number Publication Date
JP2016066280A true JP2016066280A (en) 2016-04-28

Family

ID=55805580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014195226A Pending JP2016066280A (en) 2014-09-25 2014-09-25 Image processor, person detection method, and program

Country Status (1)

Country Link
JP (1) JP2016066280A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020098996A (en) * 2018-12-18 2020-06-25 シャープ株式会社 Image forming apparatus, information processing system, control program, and control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020098996A (en) * 2018-12-18 2020-06-25 シャープ株式会社 Image forming apparatus, information processing system, control program, and control method

Similar Documents

Publication Publication Date Title
US11650659B2 (en) User input processing with eye tracking
JP5991041B2 (en) Virtual touch screen system and bidirectional mode automatic switching method
EP2742412B1 (en) Manipulating layers of multi-layer applications
EP2891950B1 (en) Human-to-computer natural three-dimensional hand gesture based navigation method
US20120304067A1 (en) Apparatus and method for controlling user interface using sound recognition
US20130266174A1 (en) System and method for enhanced object tracking
KR101551576B1 (en) Robot cleaner, apparatus and method for recognizing gesture
US20160085949A1 (en) User verification using touch and eye tracking
KR100692526B1 (en) Gesture recognition apparatus and methods for automatic control of systems
WO2016169273A1 (en) Screen fingerprint identification method and terminal
JP5550124B2 (en) INPUT DEVICE, DEVICE, INPUT METHOD, AND PROGRAM
US20170344858A1 (en) Control device, control method, and computer program product
JP2017525074A (en) Apparatus and method for determining a desired target
WO2021102969A1 (en) Method and apparatus for triggering fingerprint detection, electronic device, and storage medium
WO2019149123A1 (en) Control execution method, device, storage medium and electronic device
US9866798B2 (en) Image processing apparatus, method and program for controlling an image processing apparatus based on detected user movement
JP2016066280A (en) Image processor, person detection method, and program
JP2016525235A (en) Method and device for character input
CN104063041A (en) Information processing method and electronic equipment
CN104205013A (en) Information processing device, information processing method and program
WO2022160085A1 (en) Control method, electronic device, and storage medium
CN103984499A (en) Action command control method and electronic equipment
US20150103205A1 (en) Method of controlling digital apparatus and image capture method by recognition of hand shape, and apparatus therefor
US11451705B2 (en) Imaging control apparatus, imaging control method, and storage medium
JP2023511893A (en) Information processing device, information processing method, and program for liveness detection based on gaze