JP2015080265A - Apparatus selection system, apparatus selection device, and apparatus selection program - Google Patents

Apparatus selection system, apparatus selection device, and apparatus selection program Download PDF

Info

Publication number
JP2015080265A
JP2015080265A JP2014260911A JP2014260911A JP2015080265A JP 2015080265 A JP2015080265 A JP 2015080265A JP 2014260911 A JP2014260911 A JP 2014260911A JP 2014260911 A JP2014260911 A JP 2014260911A JP 2015080265 A JP2015080265 A JP 2015080265A
Authority
JP
Japan
Prior art keywords
user
instruction signal
unit
control target
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014260911A
Other languages
Japanese (ja)
Other versions
JP5893122B2 (en
Inventor
加藤 裕之
Hiroyuki Kato
裕之 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba TEC Corp
Original Assignee
Toshiba Corp
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba TEC Corp filed Critical Toshiba Corp
Priority to JP2014260911A priority Critical patent/JP5893122B2/en
Publication of JP2015080265A publication Critical patent/JP2015080265A/en
Application granted granted Critical
Publication of JP5893122B2 publication Critical patent/JP5893122B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Facsimiles In General (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus selection system allowing plural users to efficiently use specific apparatuses under control.SOLUTION: The apparatus selection system includes: plural imaging units that take images of plural users 81-84 issuing instruction signals to plural apparatuses under control; a user identification section that identifies each of the users based on pieces of image information taken by the imaging units; an apparatus identification section that identifies apparatuses under control based on the orientation of the users taken by the imaging units; a signal determination section that receives instruction signals issued by the users to determine the instruction signals; an instruction signal setting section that makes different settings to plural functions which are executable by the apparatus under control; and a control section that gives the users identified by the user identification section an authority to carry out functions on the respective apparatuses under control based on instruction signals determined by the signal determination section and the signals for the functions set by the instruction signal setting section.

Description

この明細書に記載の実施形態は、複数の機能を備えた複合機(MFP)等の複数の情報処理機器を制御対象機器とし、複数人のユーザーが空間ハンド・ジェスチャー等の手法を用いて特定の制御対象機器に異なる機能を実行させる権限を取得させる技術に関する。   In the embodiment described in this specification, a plurality of information processing devices such as a multifunction peripheral (MFP) having a plurality of functions are set as control target devices, and a plurality of users are identified using a technique such as a spatial hand gesture. The present invention relates to a technique for acquiring the right to execute different functions in a control target device.

従来、一人の操作者が複数の機器の中から一つの機器を選択してON−OFF等の制御を行うために、当該制御対象となる機器を選択する選択手法と、選択した制御対象機器の操作手法として、空間ハンド・ジェスチャーを利用する方法が提案されている(特許文献1)。   Conventionally, in order for one operator to select one device from a plurality of devices and perform control such as ON-OFF, a selection method for selecting the device to be controlled, and the selected control target device As an operation method, a method using a spatial hand gesture has been proposed (Patent Document 1).

これらの手法は、操作者が行う空間ハンド・ジェスチャーをカメラにより取り込み、画像処理により操作者がどの機器を選択したかを認識する。これらの制御対象機器は、照明器具、カーテンの開閉駆動部、CDプレイヤー、テレビ、ビデオであり、種類の異なる機器を一人の操作者で操作するもので、その操作者を選ばない。   In these methods, a spatial hand gesture performed by the operator is captured by the camera, and the device selected by the operator is recognized by image processing. These devices to be controlled are a lighting fixture, a curtain opening / closing drive unit, a CD player, a television, and a video, and operate different types of devices with one operator, and the operator is not selected.

特開2009−037434号公報JP 2009-037344 A

本明細書に記載の実施形態の目的は、複数のユーザーにより特定の制御対象機器を効率的に使用できる機器の選択システム、機器選択装置、機器選択プログラムを提供することにある。   An object of the embodiment described in the present specification is to provide a device selection system, a device selection device, and a device selection program that can efficiently use a specific device to be controlled by a plurality of users.

本実施形態に係る機器の選択システムは、少なくとも複数の制御対象機器と、サーバーとをネットワークを介して接続し、ユーザーから発する指示シグナルに基づいて、実行可能な複数の機能を有する制御対象機器に対して特定のユーザーにそれぞれ異なる機能を実行させる権限を取得させる機器の選択システムであって、前記複数の制御対象機器に対して指示シグナルを発する複数のユーザーを撮影する撮影部と、前記撮影部で撮影した撮影情報に基づいて指示シグナルを発する各ユーザーを特定するユーザー特定部と、前記撮影部で撮影したユーザーの向きに基づいて制御対象機器を特定する機器特定部と、ユーザーの発する指示シグナルを受け取って、指示シグナルを判別するシグナル判別部と、前記制御対象機器が実行可能な複数の機能に対して異なるシグナル内容を設定する指示シグナル設定部と、前記シグナル判別部で判別した指示シグナルと、前記指示シグナル設定部で設定した機能に対するシグナル内容とに基づいて、前記ユーザー特定部で特定した各ユーザーに対し、当該ユーザーが特定した制御対象機器にそれぞれ異なる機能を実行させる権限を取得させる制御部と、を有する。   The device selection system according to the present embodiment connects at least a plurality of devices to be controlled and a server via a network, and is based on an instruction signal issued from a user to a device to be controlled having a plurality of executable functions. A device selection system that allows a specific user to acquire a right to execute different functions, a photographing unit that photographs a plurality of users that issue instruction signals to the plurality of control target devices, and the photographing unit A user identifying unit that identifies each user that emits an instruction signal based on the shooting information captured by the camera, a device identifying unit that identifies a control target device based on the orientation of the user captured by the imaging unit, and an instruction signal issued by the user A signal determination unit that determines an instruction signal, and a plurality of executable devices Specified by the user specifying unit based on the instruction signal setting unit for setting different signal contents for the function, the instruction signal determined by the signal determination unit, and the signal content for the function set by the instruction signal setting unit And a control unit that obtains each user with the authority to execute a different function on the control target device specified by the user.

本実施形態の機器選択装置は、少なくとも複数の制御対象機器とネットワークを介して接続されており、ユーザーから発する指示シグナルに基づいて、実行可能な複数の機能を有する制御対象機器に対して特定のユーザーにそれぞれ異なる機能を実行させる権限を取得させる機器選択装置であって、前記複数の制御対象機器に対して指示シグナルを発する複数のユーザーが撮影された情報に基づいて、指示シグナルを発する各ユーザーを特定するユーザー特定部と、撮像されたユーザーの向きに基づいて、制御対象機器を特定する機器特定部と、撮影されたユーザーの指示シグナルを受け取って、該指示シグナルを判別するシグナル判別部と、前記制御対象機器が実行可能な複数の機能に対して異なるシグナル内容を設定する指示シグナル設定部と、前記シグナル判別部で判別した指示シグナルと、前記指示シグナル設定部で設定した機能に対するシグナル内容とに基づいて、前記ユーザー特定部で特定した各ユーザーに対し、当該ユーザーが特定した制御対象機器にそれぞれ異なる機能を実行させる権限を取得させる制御部と、を有する。   The device selection apparatus according to the present embodiment is connected to at least a plurality of control target devices via a network, and is specific to a control target device having a plurality of executable functions based on an instruction signal issued from a user. A device selection device that allows a user to acquire an authority to execute different functions, and each user that issues an instruction signal based on information captured by a plurality of users that issue an instruction signal to the plurality of devices to be controlled A user specifying unit for specifying the image, a device specifying unit for specifying the device to be controlled based on the orientation of the imaged user, a signal determining unit for receiving a captured user instruction signal and determining the instruction signal An instruction signal setting for setting different signal contents for a plurality of functions executable by the control target device Control unit specified by the user for each user specified by the user specifying unit based on the signal, the instruction signal determined by the signal determining unit, and the signal content for the function set by the instruction signal setting unit And a control unit that obtains authority to cause each device to execute different functions.

本実施形態の機器選択プログラムは、ユーザーから発する指示シグナルに基づいて、特定の制御対象機器に対して特定のユーザーにそれぞれ異なる機能を実行させる権限を取得させる処理を、少なくとも複数の制御対象機器とネットワークを介して接続されている機器選択装置に実行させるためのプログラムであって、前記複数の制御対象機器に対して指示シグナルを発する複数のユーザーが撮影された情報に基づいて、指示シグナルを発する各ユーザーを特定し、撮像されたユーザーの向きに基づいて、制御対象機器を特定し、撮影されたユーザーの指示シグナルを受け取って、該指示シグナルを判別し、前記制御対象機器が実行可能な複数の機能に対して異なるシグナル内容を設定し、判別された前記指示シグナルと、設定された機能に対するシグナル内容とに基づいて、特定された各ユーザーに対し、当該ユーザーが特定した制御対象機器にそれぞれ異なる機能を実行させる権限を取得させる処理を、前記機器選択装置に実行させるためのものである。   The device selection program according to the present embodiment performs processing for acquiring the authority to allow a specific user to execute a different function for a specific control target device based on an instruction signal issued from the user, with at least a plurality of control target devices. A program for causing a device selection device connected via a network to execute an instruction signal based on information captured by a plurality of users who issue instruction signals to the plurality of control target devices. A plurality of devices that can be executed by the control target device by specifying each user, specifying the control target device based on the orientation of the imaged user, receiving the captured user instruction signal, determining the instruction signal Different signal contents are set for each function, and the determined instruction signal and the set function The device selection apparatus is configured to execute a process for acquiring, for each identified user, authority to execute different functions for each identified device to be controlled based on the signal content to be performed. .

本実施形態による機器の選択システムの全体構成を示す図。The figure which shows the whole structure of the selection system of the apparatus by this embodiment. 図1の機器の正面図。The front view of the apparatus of FIG. 図2の撮影部の詳細図。FIG. 3 is a detailed view of the photographing unit in FIG. 2. 図1に示すサーバーの制御ブロック図。The control block diagram of the server shown in FIG. 図4に示すサーバーによる初期処理の流れを示すフローチャート。The flowchart which shows the flow of the initial process by the server shown in FIG. 図5の呼出処理の流れを示すフローチャート。The flowchart which shows the flow of the calling process of FIG. 図5の選択処理の流れを示すフローチャート。The flowchart which shows the flow of the selection process of FIG. 図5の操作処理の流れを示すフローチャート。6 is a flowchart showing a flow of operation processing in FIG. 5. ジェスチャーの定義の一例を示す図。The figure which shows an example of the definition of gesture. ユーザー毎の各制御対象機器に対するジェスチャーの定義の一例を示す図。The figure which shows an example of the definition of the gesture with respect to each control object apparatus for every user.

以下、実施形態の機器の選択システムを図面に基づいて説明する。   Hereinafter, a device selection system according to an embodiment will be described with reference to the drawings.

図1は機器の選択システムの全体構成を示す図、図2は機器の正面図である。   FIG. 1 is a diagram showing the overall configuration of a device selection system, and FIG. 2 is a front view of the device.

図1において、制御対象機器群10を構成する複数の情報処理機器11、12、13と、複数のパーソナルコンピュータ(PC)31、32、33と、サーバー40と、外部カメラ群60を構成する複数のカメラ61、62をネットワーク70に接続している。   In FIG. 1, a plurality of information processing devices 11, 12, and 13 that constitute a control target device group 10, a plurality of personal computers (PCs) 31, 32, and 33, a server 40, and a plurality that constitutes an external camera group 60. The cameras 61 and 62 are connected to the network 70.

複数の情報処理機器11、12、13は、例えばスキャナー機能と、プリンタ機能と、Webブラウザ機能、FAX機能等の複数の機能を備えた複合機(MFP)として以下説明する。また、複数のMFP11、12、13は例えばオフィス内の一か所にまとめて配置しても、適当な箇所に点在して配置してもよい。さらに、全てのMFPは同一機能を備えたものでなくてもよく、例えば一台のMFPのみが消色性のトナーと非消色性のトナーの両方を別々に収容する現像器を備えた構成としてもよい。   The plurality of information processing apparatuses 11, 12, and 13 will be described below as a multifunction peripheral (MFP) having a plurality of functions such as a scanner function, a printer function, a Web browser function, and a FAX function. The plurality of MFPs 11, 12, and 13 may be arranged in one place in the office, for example, or may be arranged in appropriate places. Further, not all MFPs may have the same function. For example, only one MFP includes a developing device that separately accommodates both a decolorable toner and a non-decolorable toner. It is good.

MFP11、12、13は、図2に示すように、本実施形態において、装置本体に、画像形成部14、印刷用紙を格納する用紙格納部15、画像形成部14に用紙格納部15の用紙を搬送し、機外に排出する用紙搬送部16を配置している。また、装置本体には、自動原稿供給部17からの原稿、および原稿台ガラスに載置した原稿を読み込むスキャナー部18、操作部および表示部を備えた操作パネル19、空間ハンド・ジェスチャー等の操作者のジェスチャーを認識するジェスチャー認識部20、ネットワークインタフェース21、スピーカー22、カード認証部23を備えている。   As shown in FIG. 2, the MFPs 11, 12, and 13 are configured such that, in this embodiment, the image forming unit 14, the paper storage unit 15 that stores printing paper is stored in the apparatus body, and the paper in the paper storage unit 15 is stored in the image forming unit 14. A paper transport unit 16 for transporting and discharging out of the apparatus is disposed. Further, the main body of the apparatus includes a scanner unit 18 for reading a document from the automatic document feeder 17 and a document placed on the platen glass, an operation panel 19 having an operation unit and a display unit, and operations such as a spatial hand gesture. A gesture recognition unit 20 for recognizing a person's gesture, a network interface 21, a speaker 22, and a card authentication unit 23.

操作パネル19は、MFP11(12、13)の操作を行うもので、例えばネットワーク印刷の場合には、ジョブが一旦キューに格納される。ユーザーは、前記キューに貯まったジョブを操作パネル19の操作によりリリースする。この印刷ジョブを一旦キューに貯める機能は、情報漏洩の防止手段として有効である。つまり、一旦貯めずにジョブを受け取った途端に印刷を開始する場合、印刷済みの印刷物をMFPの排紙部に長時間放置している状態があると、その間に第三者の目に触れるおそれがある。このため、操作者が選択したMFPのカード認証部23に自己の認証カードをかざすと、サーバー40に一旦貯めてあった当該操作者の印刷ジョブが当該選択したMFPから印刷される。図1では、D操作者84が例えば自己の認証カードをカード認証部に23にかざし、プリントアウトされるのを待っている状態を示す。   The operation panel 19 is used to operate the MFP 11 (12, 13). For example, in the case of network printing, a job is temporarily stored in a queue. The user releases the job stored in the queue by operating the operation panel 19. This function of temporarily storing print jobs in a queue is effective as a means for preventing information leakage. In other words, when printing is started as soon as a job is received without being stored, if there is a state in which the printed matter is left on the paper discharge unit of the MFP for a long time, it is touched by a third party in the meantime. There is a fear. For this reason, when the operator places his authentication card over the card authentication unit 23 of the MFP selected by the operator, the print job of the operator once stored in the server 40 is printed from the selected MFP. FIG. 1 shows a state in which the D operator 84 holds his / her authentication card over the card authentication unit 23 and waits for printing out.

一方、PC31、32、33の置かれた机に向かって着席する操作者81、82、83と、MFP11、12、13とは、MFP11、12、13のジェスチャー認識部20によるA〜C操作者81、82、83のハンド・ジェスチャーの認識が可能な範囲として、例えば数m〜数十mの範囲内に位置する。Aユーザー81とPC31、Bユーザー82とPC32、Cユーザー83とPC33とは関連付けられており、PC31〜33から印刷のためのデータはサーバー40に記憶される。   On the other hand, the operators 81, 82, 83 seated at the desks on which the PCs 31, 32, 33 are placed and the MFPs 11, 12, 13 are AC operators by the gesture recognition unit 20 of the MFPs 11, 12, 13. As a range in which the hand gestures 81, 82, and 83 can be recognized, the range is, for example, within a range of several meters to several tens of meters. The A user 81 and the PC 31, the B user 82 and the PC 32, and the C user 83 and the PC 33 are associated with each other, and data for printing from the PCs 31 to 33 is stored in the server 40.

ジェスチャー認識部20は、支柱201の上端部に設けた水平バー202に、カラーカメラ203と、撮影画像の奥行を認識する赤外線カメラ204とを設ける。また、支柱201の上端に、通知ランプ205を設けている。MFPのジェスチャー認識部20がジェスチャーを検知すると、当該MFPの通知ランプ205が点灯等により操作者に制御対象機器であるMFPに対する制御状態を通知する。例えば、呼び出し対象であることを示す場合、操作対象として選択されたことを示すように、ランプを光らせる。本実施形態において、通知ランプ205は、呼び出し対象である場合には点滅、選択状態の場合には点灯、待機状態では消灯させる。その際、スピーカー22を通じて音声により制御状態を通知してもよい。   The gesture recognizing unit 20 is provided with a color camera 203 and an infrared camera 204 for recognizing the depth of a captured image on a horizontal bar 202 provided at the upper end of the column 201. In addition, a notification lamp 205 is provided at the upper end of the column 201. When the gesture recognition unit 20 of the MFP detects a gesture, the notification lamp 205 of the MFP is turned on to notify the operator of the control state for the MFP that is the control target device. For example, when indicating that it is a call target, the lamp is lit to indicate that it has been selected as an operation target. In the present embodiment, the notification lamp 205 blinks when it is a call target, is turned on when it is selected, and is turned off when it is in a standby state. At that time, the control state may be notified by voice through the speaker 22.

カラーカメラ203と赤外線カメラ204は広角度の範囲でオフィス内を撮影し、一度に複数の操作者81〜83の顔認証を可能とする。なお、ジェスチャー認識部20は、図3に示すように、MFP11〜13とは別に設置できる構成としてもよく、例えば基台207に支柱201を設け、支柱201の上部に取り付けた水平バー202にマイク206をさらに設けた構成としている。マイク206は操作者の音声認識を行うために使用される。   The color camera 203 and the infrared camera 204 capture the inside of the office in a wide angle range, and can perform face authentication of a plurality of operators 81 to 83 at a time. As shown in FIG. 3, the gesture recognizing unit 20 may be configured separately from the MFPs 11 to 13. For example, the gesture recognizing unit 20 is provided with a column 201 on the base 207 and a microphone on a horizontal bar 202 attached to the top of the column 201. 206 is further provided. The microphone 206 is used for voice recognition of the operator.

本実施形態において、各MFPにジェスチャー認識部20を配置することにより、操作者81〜83が操作権限を取得したいMFPに向いてジェスチャーを行うと、当該MFPのカメラ203、204により取得の意思があることを確実に認識することができる。カラーカメラ203は操作者81〜83の顔認識のための動画データを取得する。に操作者を動画として撮影し、赤外線カメラ204は被写体の奥行およびジェスチャーの特定のためのデータを取得する。   In the present embodiment, by arranging the gesture recognition unit 20 in each MFP, when the operators 81 to 83 perform a gesture toward the MFP for which the operation authority is desired to be acquired, the intention of acquisition is obtained by the cameras 203 and 204 of the MFP. You can recognize that there is. The color camera 203 acquires moving image data for face recognition of the operators 81-83. The operator is photographed as a moving image, and the infrared camera 204 acquires data for specifying the depth of the subject and the gesture.

また、外部カメラ群50を構成する複数のカメラ51,52をオフィスの天井や壁、パソコン31、32,33等に適宜配置し、操作者を撮影することにより、ジェスチャー認識部20のカメラと同様の認識を行わせ、あるいはジェスチャー認識部20の補助として使用することができる。   In addition, a plurality of cameras 51 and 52 constituting the external camera group 50 are appropriately arranged on the ceiling or wall of the office, the personal computers 31, 32, and 33, and the operator is photographed, so that the camera of the gesture recognition unit 20 is taken. Can be used as an aid to the gesture recognition unit 20.

サーバー40は、図4に示すように、プロセッサ41、記憶部42、ディスプレイ431およびスピーカー22を有する出力部43、入力部44、ネットワークインタフェース部45、複数操作者の個人特定部46、複数同時ジェスチャー検出部47、ジェスチャー判別部48、機器選択可否判断部49、機器選択完了通知部50、ジェスチャーに応じた機器操作部51をライン52に接続する。   As shown in FIG. 4, the server 40 includes a processor 41, a storage unit 42, an output unit 43 having a display 431 and a speaker 22, an input unit 44, a network interface unit 45, a plurality of individual identification units 46, and a plurality of simultaneous gestures. A detection unit 47, a gesture determination unit 48, a device selection availability determination unit 49, a device selection completion notification unit 50, and a device operation unit 51 corresponding to the gesture are connected to the line 52.

プロセッサ41は、サーバー40における各種の判断を行い、各部に指示を出す。記憶部42は、プロセッサ41が制御に用いる情報を格納する。入力部44は、ユーザーインタフェースの入力部であり、Aユーザー81〜Cユーザー83の操作するキーボード441およびマウス442からの操作を受け付ける。出力部43のディスプレイ431はユーザーインタフェースの出力部であり、ユーザーに情報を表示する。ネットワークインタフェース部45は、制御対象機器であるMFP11〜13とネットワーク70との情報の入出力を行い、制御対象機器群10の各MFP11〜13と、外部カメラ群60の各カメラ61,62とが接続される。   The processor 41 makes various determinations in the server 40 and issues instructions to each unit. The storage unit 42 stores information used by the processor 41 for control. The input unit 44 is an input unit of a user interface and receives operations from the keyboard 441 and the mouse 442 operated by the A user 81 to the C user 83. A display 431 of the output unit 43 is an output unit of a user interface, and displays information to the user. The network interface unit 45 inputs / outputs information between the MFPs 11 to 13 as control target devices and the network 70, and the MFPs 11 to 13 of the control target device group 10 and the cameras 61 and 62 of the external camera group 60 are connected. Connected.

複数操作者の個人特定部46は、カメラからの撮影情報、マイクからの音声情報と、予め登録している各ユーザー81〜83の顔画像情報と音声情報に基づいて、顔認識処理や音声認識処理によりユーザーを特定する。   The multi-operator personal identification unit 46 performs face recognition processing and voice recognition based on shooting information from the camera, voice information from the microphone, and face image information and voice information of each of the users 81 to 83 registered in advance. Identify users by processing.

複数同時ジェスチャー検出部47は、リアルタイムで複数のユーザーのジェスチャーを同時に検出する。   The multiple simultaneous gesture detection unit 47 simultaneously detects a plurality of user gestures in real time.

ジェスチャー判別部48は、画像処理されたユーザーが行う例えばハンド・ジェスチャーより、ジェスチャーの内容が「機器の呼出」、「機器の選択」、「機器の操作」なのかを判別する。判別には、図9に示すように、ハンド・ジェスチャーの動作と制御対象機器が制御される定義と、図10に示すように、複数のA〜Cユーザー毎、制御対象機器(MFP)11〜13毎に異なるジェスチャーを対応して操作内容を定義づけた対応表が用いられる。図10において、呼出、選択、操作の各制御項目において、ジェスチャーの内容が異なっても、ユーザーが異なれば同じ制御が実行される。   The gesture determination unit 48 determines whether the content of the gesture is “calling a device”, “selecting a device”, or “operating a device” based on, for example, a hand gesture performed by an image-processed user. For the determination, as shown in FIG. 9, the operation of the hand gesture and the definition of the control target device are controlled, and as shown in FIG. 10, the control target device (MFP) 11 for each of a plurality of AC users. A correspondence table in which operation contents are defined corresponding to different gestures every 13 is used. In FIG. 10, even if the contents of the gesture are different in the call, selection, and operation control items, the same control is executed if the user is different.

機器選択可否判断部49は、制御対象機器が呼出や選択ができる状態に有るか否かを判断する。   The device selection availability determination unit 49 determines whether the control target device is in a state where it can be called or selected.

機器選択完了通知部50は、ジェスチャーにより選択を完了した制御対象機器があることをユーザーに通知するもので、例えば図2に示す通知ランプ205、スピーカー22が相当し、通知ランプ205の点滅・点灯、あるいはスピーカー22からの「○○さん、操作可能です」といった内容の音声を流すように指示を出す。   The device selection completion notification unit 50 notifies the user that there is a device to be controlled that has been selected by a gesture. For example, the notification lamp 205 and the speaker 22 shown in FIG. Or, an instruction is given to play a voice message such as “Mr. XX, can be operated” from the speaker 22.

ジェスチャーに応じた機器操作部51は、制御対象機器であるMFP11〜13に対し、ジェスチャーに応じて定義される制御内容をMFP11〜13に指示する。   The device operation unit 51 corresponding to the gesture instructs the MFPs 11 to 13 of the control contents defined according to the gesture to the MFPs 11 to 13 that are the devices to be controlled.

次に、サーバー40による機器の選択システムの初期処理を図5に示すフローチャートに基づいて説明する。   Next, initial processing of the device selection system by the server 40 will be described based on the flowchart shown in FIG.

サーバー40のプロセッサ41は、ネットワークインタフェース部45を介して制御対象機器群10の各ジェスチャー認識部20および外部カメラ群60からの動画画像を受信し(ACT1)、ACT2に進む。   The processor 41 of the server 40 receives the moving image from each gesture recognition unit 20 and the external camera group 60 of the control target device group 10 via the network interface unit 45 (ACT1), and proceeds to ACT2.

ACT2において、プロセッサ41は、ジェスチャーを検出したかどうかを判断し、ジェスチャーを検出するとACT3に進む。   In ACT2, the processor 41 determines whether or not a gesture is detected, and proceeds to ACT3 when a gesture is detected.

ACT3において、プロセッサ41は、複数操作者の個人特定部46を用いてジェスチャーを行っているユーザー数を特定し、ACT4に進む。   In ACT3, the processor 41 specifies the number of users who are making a gesture using the individual specifying unit 46 of the plurality of operators, and proceeds to ACT4.

ACT4において、プロセッサ41は、ユーザーがゼロ(0)であるかどうかを判断し、ゼロでなければACT5に進み、ゼロであればACT1に戻る。   In ACT4, the processor 41 determines whether or not the user is zero (0), and if not, proceeds to ACT5, otherwise returns to ACT1.

ACT5において、複数のユーザーが存在する場合、これらユーザーのジェスチャーが制御対象機器の呼出であるかどうかを判断する。呼出ジェスチャーであれば、ACT6に進んで制御対象機器の呼出処理を行い、呼出処理でなければACT7に進む。   In ACT5, when there are a plurality of users, it is determined whether or not the gesture of these users is a call to the control target device. If it is a call gesture, the process proceeds to ACT 6 to perform a call process for the control target device, and if it is not a call process, the process proceeds to ACT 7.

ACT7では、選択ジェスチャーであるかどうかを判断し、選択ジェスチャーであればACT8に進んで制御対象機器の選択処理を行い、選択ジェスチャーでなければACT9に進んで制御対象機器の操作処理を行う。そして、ACT6、ACT8、ACT9の処理が終了するとACT4に戻る。   In ACT7, it is determined whether or not the gesture is a selection gesture. If the gesture is a selection gesture, the process proceeds to ACT8 and the control target device is selected. If not, the process proceeds to ACT9 and the control target device is operated. When the processes of ACT6, ACT8, and ACT9 are completed, the process returns to ACT4.

図5のACT6に示す呼出処理を図6のフローチャートに基づいて説明する。   The calling process shown in ACT6 of FIG. 5 will be described based on the flowchart of FIG.

呼出処理が開始されると、ACT21において、プロセッサ41は、カメラの撮影情報から、誰がどの制御対象機器を呼び出しているかを特定し、ACT22に進む。ここで、制御対象機器の特定は、例えば特定されるユーザーの顔の向きが制御対象機器に向いているかどうか、また特定されるユーザーのジェスチャーが制御対象機器を指しているか、で判断される。呼出対象の制御対象機器は1つに限定されてもよく、またその近辺の複数の機器を対象としてもよい。これは、システム全体の設定によって振る舞いを変更することができる。また、ユーザーを特定するための判別は、顔認識、あるいはカメラの位置と角度、座席表からジェスチャーを行っているユーザーを特定する。   When the calling process is started, in ACT 21, the processor 41 specifies who is calling which control target device from the photographing information of the camera, and proceeds to ACT 22. Here, the specification of the control target device is determined based on, for example, whether the orientation of the specified user's face is facing the control target device, and whether the specified user's gesture indicates the control target device. The number of control target devices to be called may be limited to one, and a plurality of devices in the vicinity thereof may be targeted. This can change the behavior according to the settings of the entire system. Further, the determination for specifying the user specifies the user who is performing the gesture from the face recognition or the position and angle of the camera and the seating chart.

ACT22において、プロセッサ41は、特定した制御対象機器の機器状態を当該制御対象機器に問い合わせ、ACT23に進む。   In ACT 22, the processor 41 inquires of the device to be controlled about the device state of the specified device to be controlled, and proceeds to ACT 23.

ACT23において、機器状態が呼出実行条件を満たしている場合には、ACT24に進んで呼出応答指示を当該制御対象機器に指示し、ACT25に進む。呼出応答指示としては、呼出を意味するようにパトロールランプを点滅させ、あるいは呼出を意味する音声をスピーカー22から出力する。   In ACT23, when the device state satisfies the call execution condition, the process proceeds to ACT24, instructing the call target instruction to the control target apparatus, and then proceeds to ACT25. As a call response instruction, a patrol lamp blinks to indicate a call, or a sound indicating a call is output from the speaker 22.

また、ACT23において呼出実行条件を満たしていなければ本処理動作を終了する。呼出実行条件を満たしていない場合としては、例えば制御対象機器が既に他のユーザーによって使われている(操作中)場合が例示できる。   If the call execution condition is not satisfied in ACT 23, this processing operation is terminated. As a case where the call execution condition is not satisfied, for example, a case where the control target device has already been used by another user (during operation) can be exemplified.

ACT25において、プロセッサ41は、ストレージに一時情報を記録する。例えば、呼出指示を行った制御機器番号、ユーザーの番号、機器状態=「呼出中」をストレージに記録し、本呼出処理を終了する。   In ACT 25, the processor 41 records temporary information in the storage. For example, the control device number that issued the call instruction, the user number, and the device state = “calling” are recorded in the storage, and the call processing is terminated.

図5のACT8に示す選択処理を図7のフローチャートに基づいて説明する。   The selection process shown in ACT8 of FIG. 5 will be described based on the flowchart of FIG.

選択処理が開始されると、ACT31において、プロセッサ41は、カメラの撮影情報から、誰がどの制御対象機器を選択しているかを特定し、ACT32に進む。特定方法は呼出処理の場合と同様である。   When the selection process is started, in ACT 31, the processor 41 specifies which control target device is selected from the imaging information of the camera, and proceeds to ACT 32. The identification method is the same as in the case of call processing.

ACT32において、プロセッサ41は、ストレージから一時保管した制御対象機器群の記録情報を問い合わせ、ACT33に進む。   In ACT 32, the processor 41 inquires the record information of the control target device group temporarily stored from the storage, and proceeds to ACT 33.

ACT33では、問い合わせの結果、特定した制御対象機器の記録が存在し、その機器状態が「呼出中」で有る場合には、ACT34に進み、機器状態が選択済みである場合には本選択処理を終了する。   In ACT 33, if there is a record of the specified device to be controlled as a result of the inquiry and the device state is “calling”, the process proceeds to ACT 34. If the device state has been selected, this selection process is performed. finish.

ACT34において、プロセッサ41は、選択応答指示を選択された制御対象機器に指示し、ACT35に進む。   In ACT 34, the processor 41 instructs the selected control target device to perform a selection response instruction, and proceeds to ACT 35.

ACT35において、プロセッサ41は、ストレージに一時情報を記録する。例えば呼出指示を行った制御対象機器番号、ユーザーの番号、機器状態が「選択済み」をストレージに記録する。また、選択応答指示を受け取った制御対象機器は、選択済みを意味するようにパトロールランプを点灯させ、または選択済みを意味する音声をスピーカー22から出力して本選択処理を終了する。   In ACT 35, the processor 41 records temporary information in the storage. For example, the control target device number for which the call instruction is issued, the user number, and the device status “selected” are recorded in the storage. In addition, the control target device that has received the selection response instruction turns on the patrol lamp so as to indicate that it has been selected, or outputs a sound that indicates that it has been selected from the speaker 22, and ends this selection process.

図5のACT9に示す操作処理を図8に示すフローチャートに基づいて説明する。   The operation process shown in ACT9 of FIG. 5 will be described based on the flowchart shown in FIG.

操作処理が開始されると、プロセッサ41は、カメラの撮影情報から、だれがどの制御対象機器を操作しようとしているかを特定し、ACT42に進む。特定方法は呼出処理の場合と同様である。   When the operation process is started, the processor 41 specifies which control target device is to be operated from the photographing information of the camera, and proceeds to ACT42. The identification method is the same as in the case of call processing.

ACT42において、プロセッサ41は、ストレージから保管した制御対象機器群の記録情報を問い合わせ、ACT43に進む。   In ACT 42, the processor 41 inquires the record information of the control target device group stored from the storage, and proceeds to ACT 43.

ACT43において、特定した制御対象機器の記録が存在し、その機器状態が「選択済み」であれば、ACT44に進み、そうでなければ本操作処理を終了する。   In ACT 43, if there is a record of the specified control target device and the device state is “selected”, the process proceeds to ACT 44, and if not, this operation processing is terminated.

ACT44において操作指示を特定した制御対象機器に指示し、ACT45に進む。   In ACT 44, the control target device whose operation instruction is specified is instructed, and the process proceeds to ACT 45.

ACT45において、プロセッサ41は、特定された制御対象機器の操作が終了すると、操作実行終了通知を受け取り、ACT46に進む。   In ACT 45, when the operation of the specified control target device ends, the processor 41 receives an operation execution end notification and proceeds to ACT 46.

ACT46において、プロセッサ41は、ストレージに一時記録されていた情報を削除し、本操作処理を終了する。   In ACT 46, the processor 41 deletes the information temporarily recorded in the storage and ends the operation process.

図5に示す処理について、図9を参照して説明する。図9は空間ハンド・ジェスチャーと、実際に行う操作との関連を定義した情報で、空間ハンド・ジェスチャーに対し、操作を一意に割り付けている。   The process shown in FIG. 5 will be described with reference to FIG. FIG. 9 shows information defining the relationship between the spatial hand gesture and the operation to be actually performed, and the operation is uniquely assigned to the spatial hand gesture.

例えばAユーザー81が複数のMFP11、12、13を使用してサーバー40に記憶している例えばAユーザー81の印刷情報を印刷させようとした場合、どのMFPが使用可能であるか否かが不明であるため、取り敢えず例えばMFP11とMFP12を使用候補として呼び出すために、例えば、Aユーザー81は自席から手を振ることで少し離れたところに配置された複数の制御対象機器であるMFP11MFP12の呼び出しを行う。呼び出された複数のMFP11とMFP12は、応答を返し(通知ランプ205を点滅させる)、次にユーザーはMFP11を指差して指定すると、選択処理が実行され、指定されたMFP11は通知ランプ205を点灯し、選択されなかったMFP12は通知ランプ205を消灯する。   For example, when the A user 81 uses a plurality of MFPs 11, 12, and 13 to print, for example, the printing information of the A user 81 stored in the server 40, it is unknown which MFP can be used. Therefore, for example, in order to call the MFP 11 and the MFP 12 as candidates for use, for example, the A user 81 calls the MFP 11 MFP 12, which is a plurality of control target devices arranged slightly away from each other by shaking his / her hand. . The plurality of called MFPs 11 and 12 return a response (blinking the notification lamp 205). Next, when the user points to and designates the MFP 11, a selection process is executed, and the designated MFP 11 turns on the notification lamp 205. Then, the MFP 12 that has not been selected turns off the notification lamp 205.

Aユーザー81はMFP11を選択したので、Aユーザー81は指定したMFP11に操作実行の空間ハンド・ジェスチャー(親指を立てる)を行うことにより、操作処理が実行され、サーバー40はMFPを介してAユーザー認証カードから認証情報を受け取ると、キューに貯まっている印刷ジョブを当該MFP11から印刷させる。   Since the A user 81 has selected the MFP 11, the A user 81 performs an operation process on the designated MFP 11 by performing a spatial hand gesture (putting his thumb up), and the server 40 receives the A user via the MFP. When the authentication information is received from the authentication card, the print job stored in the queue is printed from the MFP 11.

本実施形態では、複数のユーザー81、82、83が複数のMFP11、12、13について選択できるように、図10に示すように空間ハンド・ジェスチャーを割り振っている。   In the present embodiment, spatial hand gestures are allocated as shown in FIG. 10 so that a plurality of users 81, 82, 83 can select a plurality of MFPs 11, 12, 13.

ここで、Aユーザー81とBユーザー82が同じMFP11を呼び出し、選択しても、Aユーザー81がプリント機能、Bユーザー82がスキャナー機能を使用しようとする場合には、複数の機能について新たにジェスチャーを割り振れば、同時にMFP11を使用することが可能となる。   Here, even if the A user 81 and the B user 82 call and select the same MFP 11, if the A user 81 wants to use the print function and the B user 82 uses the scanner function, a new gesture is made for a plurality of functions. Can be used at the same time.

また、MFP13のみが消色トナーを収容した現像器を備えている場合、Aユーザー81とBユーザー82が消色印刷機能の使用について競合した場合、優先順位を決めておけば、例えばCユーザー83が割り込むことを防止することができる。   Further, when only the MFP 13 includes a developing unit containing the erasing toner, when the A user 81 and the B user 82 compete for the use of the erasing printing function, if the priority order is determined, for example, the C user 83 Can be prevented from interrupting.

ジェスチャー認識部20は、複数の制御対象機器を使用する意思を示しているユーザーを特定するために、カメラによりユーザーの顔を撮影する役割と、ユーザーがサーバー40と対話しながら発する呼出、選択、操作指示のシグナルとしての空間ハンド・ジェスチャーをカメラにより読み取る役割を有する。   The gesture recognizing unit 20 has a role of photographing a user's face by a camera and calls, selections made while the user interacts with the server 40 in order to identify a user who intends to use a plurality of control target devices, It has a role of reading a spatial hand gesture as a signal of an operation instruction by a camera.

本実施形態では、機器の呼出から選択を経て印刷操作のために、ユーザーが自らの手を利用した空間ハンド・ジェスチャーを例えば図10に示すように、3段階に分けて使用し、またカメラを用いてユーザーの特定を行っているが、呼出、選択、操作指示のシグナルは空間ハンド・ジェスチャーに限られることはなく、例えば、近赤外線発光素子を用いたリモコン装置を使用し、ジェスチャー認識部20にリモコン装置の受光部を設けれ、リモコン装置からユーザーを特定する情報と共に、呼出指示、選択指示、操作指示等の各種の指示シグナルを出力するようにしてもよい。   In the present embodiment, a spatial hand gesture using a user's own hand is used in three stages as shown in FIG. Although the user is specified by using, a call, selection, and operation instruction signal is not limited to the spatial hand gesture. For example, the gesture recognition unit 20 uses a remote control device using a near infrared light emitting element. The remote control device may be provided with a light receiving unit to output various instruction signals such as a call instruction, a selection instruction, and an operation instruction together with information specifying the user from the remote control apparatus.

本実施形態によれば、一台又は複数台の制御対象機器を複数のユーザー毎に定義付けされた空間ハンド・ジェスチャーといった指示媒体を利用して使用権限を同時に独立して取得することが可能となった。そして、使用権限を取得した制御対象機器、あるいは機能を操作して、所望の動作を行わせることができる。例えば印刷ジョブの実行は、それぞれのユーザーの貯まっているジョブだけをリリースして印刷することができる。   According to the present embodiment, it is possible to acquire one or more control target devices simultaneously and independently using a pointing medium such as a spatial hand gesture defined for each of a plurality of users. became. Then, a desired operation can be performed by operating the control target device or the function for which the use authority has been acquired. For example, execution of a print job can release and print only the jobs stored by each user.

また、図1のDユーザー84が操作パネル上のボタン操作により操作を既に行っていたり、ある一人のユーザーが空間ハンド・ジェスチャーの実行により操作中の場合には、他のユーザーが当該MFPあるいは当該機能を空間ハンド・ジェスチャーにより利用することができない。   In addition, when the D user 84 in FIG. 1 has already performed an operation by operating a button on the operation panel, or when one user is performing an operation by executing a spatial hand gesture, Functions cannot be used by spatial hand gestures.

本実施の形態では装置内部に発明を実施する機能が予め記録されている場合で説明をしたが、これに限らず同様の機能をネットワークから装置にダウンロードしても良いし、同様の機能を記録媒体に記憶させたものを装置にインストールしてもよい。記録媒体としては、CD−ROM等プログラムを記憶でき、かつ装置が読み取り可能な記録媒体であれば、その形態は何れの形態であっても良い。またこのように予めインストールやダウンロードにより得る機能は装置内部のOS(オペレーティング・システム)等と協働してその機能を実現させるものであってもよい。   In this embodiment, the function for implementing the invention is recorded in advance in the apparatus. However, the present invention is not limited to this, and the same function may be downloaded from the network to the apparatus, and the same function is recorded. What is stored in the medium may be installed in the apparatus. The recording medium may be any form as long as the recording medium can store the program and can be read by the apparatus, such as a CD-ROM. In addition, the function obtained by installing or downloading in advance may be realized in cooperation with an OS (operating system) inside the apparatus.

上記した実施形態は一例を示すもので、その精神または主要な特徴から逸脱することなく、他の様々な形で実施することができる。そのため、前述の実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。特許請求の範囲によって示す技術的事項の解釈は明細書本文になんら拘束されない。さらに、特許請求の範囲の均等範囲に属する全ての変形、様々な改良、代替および改質は、すべて本発明の範囲内のものである。   The above-described embodiments are merely examples, and can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-mentioned embodiment is only a mere illustration in all points, and should not be interpreted limitedly. The interpretation of the technical matters indicated by the claims is not limited to the text of the specification. Further, all modifications, various improvements, alternatives and modifications belonging to the equivalent scope of the claims are all within the scope of the present invention.

11〜13 情報処理機器(MFP)
20 ジェスチャー認識部
31〜33 パーソナルコンピュータ(PC)
40 サーバー
70 ネットワーク
81〜84 ユーザー
11-13 Information processing equipment (MFP)
20 Gesture recognition units 31-33 Personal computer (PC)
40 servers 70 networks 81-84 users

Claims (5)

少なくとも複数の制御対象機器と、サーバーとをネットワークを介して接続し、ユーザーから発する指示シグナルに基づいて、実行可能な複数の機能を有する制御対象機器に対して特定のユーザーにそれぞれ異なる機能を実行させる権限を取得させる機器の選択システムであって、
前記複数の制御対象機器に対して指示シグナルを発する複数のユーザーを撮影する撮影部と、
前記撮影部で撮影した撮影情報に基づいて指示シグナルを発する各ユーザーを特定するユーザー特定部と、
前記撮影部で撮影したユーザーの向きに基づいて制御対象機器を特定する機器特定部と、
ユーザーの発する指示シグナルを受け取って、指示シグナルを判別するシグナル判別部と、
前記制御対象機器が実行可能な複数の機能に対して異なるシグナル内容を設定する指示シグナル設定部と、
前記シグナル判別部で判別した指示シグナルと、前記指示シグナル設定部で設定した機能に対するシグナル内容とに基づいて、前記ユーザー特定部で特定した各ユーザーに対し、当該ユーザーが特定した制御対象機器にそれぞれ異なる機能を実行させる権限を取得させる制御部と、
を有する機器の選択システム。
Connect at least multiple devices to be controlled and a server via a network, and execute different functions for specific users on the devices to be controlled that have multiple functions that can be executed based on instruction signals issued by the user. A device selection system for obtaining authority to
An imaging unit that images a plurality of users that issue instruction signals to the plurality of devices to be controlled;
A user identifying unit that identifies each user that emits an instruction signal based on photographing information photographed by the photographing unit;
A device identifying unit that identifies a device to be controlled based on the orientation of the user photographed by the photographing unit;
A signal determination unit that receives an instruction signal issued by the user and determines the instruction signal;
An instruction signal setting unit that sets different signal contents for a plurality of functions that can be executed by the device to be controlled;
Based on the instruction signal determined by the signal determination unit and the signal content for the function set by the instruction signal setting unit, for each user specified by the user specifying unit, to each control target device specified by the user A control unit for acquiring authority to execute different functions;
A selection system for equipment.
前記指示シグナルは空間ハンド・ジェスチャーであることを特徴とする請求項1に記載の機器の選択システム。   The device selection system according to claim 1, wherein the instruction signal is a spatial hand gesture. 少なくとも複数の制御対象機器とネットワークを介して接続されており、ユーザーから発する指示シグナルに基づいて、実行可能な複数の機能を有する制御対象機器に対して特定のユーザーにそれぞれ異なる機能を実行させる権限を取得させる機器選択装置であって、
前記複数の制御対象機器に対して指示シグナルを発する複数のユーザーが撮影された情報に基づいて、指示シグナルを発する各ユーザーを特定するユーザー特定部と、
撮像されたユーザーの向きに基づいて、制御対象機器を特定する機器特定部と、
撮影されたユーザーの指示シグナルを受け取って、該指示シグナルを判別するシグナル判別部と、
前記制御対象機器が実行可能な複数の機能に対して異なるシグナル内容を設定する指示シグナル設定部と、
前記シグナル判別部で判別した指示シグナルと、前記指示シグナル設定部で設定した機能に対するシグナル内容とに基づいて、前記ユーザー特定部で特定した各ユーザーに対し、当該ユーザーが特定した制御対象機器にそれぞれ異なる機能を実行させる権限を取得させる制御部と、
を有する機器選択装置。
Authority to allow a specific user to execute different functions on a control target device that has multiple functions that can be executed based on an instruction signal that is connected to at least a plurality of control target devices via a network. A device selection device for acquiring
A user identifying unit that identifies each user that emits an instruction signal based on information captured by a plurality of users that emit instruction signals to the plurality of control target devices;
A device identification unit that identifies a device to be controlled based on the orientation of the captured user;
A signal determination unit that receives an instruction signal of a photographed user and determines the instruction signal;
An instruction signal setting unit that sets different signal contents for a plurality of functions that can be executed by the device to be controlled;
Based on the instruction signal determined by the signal determination unit and the signal content for the function set by the instruction signal setting unit, for each user specified by the user specifying unit, to each control target device specified by the user A control unit for acquiring authority to execute different functions;
A device selection device.
前記制御対象機器は、少なくともスキャナー機能とプリント機能とを備えた複合機であることを特徴とする請求項3に記載の機器選択装置。   The device selection apparatus according to claim 3, wherein the device to be controlled is a multifunction device having at least a scanner function and a print function. ユーザーから発する指示シグナルに基づいて、特定の制御対象機器に対して特定のユーザーにそれぞれ異なる機能を実行させる権限を取得させる処理を、少なくとも複数の制御対象機器とネットワークを介して接続されている機器選択装置に実行させるためのプログラムであって、
前記複数の制御対象機器に対して指示シグナルを発する複数のユーザーが撮影された情報に基づいて、指示シグナルを発する各ユーザーを特定し、
撮像されたユーザーの向きに基づいて、制御対象機器を特定し、
撮影されたユーザーの指示シグナルを受け取って、該指示シグナルを判別し、
前記制御対象機器が実行可能な複数の機能に対して異なるシグナル内容を設定し、
判別された前記指示シグナルと、設定された機能に対するシグナル内容とに基づいて、特定された各ユーザーに対し、当該ユーザーが特定した制御対象機器にそれぞれ異なる機能を実行させる権限を取得させる
処理を、前記機器選択装置に実行させるための機器選択プログラム。
A device connected to at least a plurality of control target devices via a network for processing to acquire a right to execute a different function for a specific user for a specific control target device based on an instruction signal issued by the user A program for causing a selection device to execute,
Identify each user that emits an instruction signal based on information taken by a plurality of users that emit an instruction signal to the plurality of control target devices,
Based on the orientation of the imaged user, identify the controlled device,
Receiving a photographed user instruction signal, determining the instruction signal,
Set different signal contents for a plurality of functions that can be executed by the device to be controlled,
Based on the determined instruction signal and the signal content for the set function, a process for causing each identified user to acquire the authority to cause the control target device identified by the user to execute a different function, A device selection program for causing the device selection apparatus to execute.
JP2014260911A 2014-12-24 2014-12-24 Device selection system, device selection device, device selection program Active JP5893122B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014260911A JP5893122B2 (en) 2014-12-24 2014-12-24 Device selection system, device selection device, device selection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014260911A JP5893122B2 (en) 2014-12-24 2014-12-24 Device selection system, device selection device, device selection program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013181198A Division JP5675917B1 (en) 2013-09-02 2013-09-02 Device selection system, device selection device, device selection program

Publications (2)

Publication Number Publication Date
JP2015080265A true JP2015080265A (en) 2015-04-23
JP5893122B2 JP5893122B2 (en) 2016-03-23

Family

ID=53011274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014260911A Active JP5893122B2 (en) 2014-12-24 2014-12-24 Device selection system, device selection device, device selection program

Country Status (1)

Country Link
JP (1) JP5893122B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207572A (en) * 2018-05-29 2019-12-05 富士ゼロックス株式会社 Information processing device and program
WO2020022254A1 (en) * 2018-07-24 2020-01-30 株式会社tiwaki Operation instruction control device and method therefor
JP2020021473A (en) * 2018-07-24 2020-02-06 株式会社tiwaki Operation instruction control device and operation instruction control method
JP7234324B1 (en) 2021-09-28 2023-03-07 三菱電機インフォメーションシステムズ株式会社 NOTIFICATION RECEIVING DEVICE, NOTIFICATION METHOD AND NOTIFICATION RECEIVING PROGRAM
US11949839B2 (en) 2022-03-23 2024-04-02 Toshiba Tec Kabushiki Kaisha Image forming apparatus and control method with requesting user image capture

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012104035A (en) * 2010-11-12 2012-05-31 Konica Minolta Business Technologies Inc Image processing system
WO2012117570A1 (en) * 2011-03-03 2012-09-07 オムロン株式会社 Gesture input device and method for controlling gesture input device
JP2012185833A (en) * 2012-04-17 2012-09-27 Omron Corp Gesture input device and control method for gesture input device
JP2013105203A (en) * 2011-11-10 2013-05-30 Canon Inc Information processing device, control method for the same, and information processing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012104035A (en) * 2010-11-12 2012-05-31 Konica Minolta Business Technologies Inc Image processing system
WO2012117570A1 (en) * 2011-03-03 2012-09-07 オムロン株式会社 Gesture input device and method for controlling gesture input device
JP2013105203A (en) * 2011-11-10 2013-05-30 Canon Inc Information processing device, control method for the same, and information processing system
JP2012185833A (en) * 2012-04-17 2012-09-27 Omron Corp Gesture input device and control method for gesture input device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207572A (en) * 2018-05-29 2019-12-05 富士ゼロックス株式会社 Information processing device and program
JP7155613B2 (en) 2018-05-29 2022-10-19 富士フイルムビジネスイノベーション株式会社 Information processing device and program
WO2020022254A1 (en) * 2018-07-24 2020-01-30 株式会社tiwaki Operation instruction control device and method therefor
JP2020021473A (en) * 2018-07-24 2020-02-06 株式会社tiwaki Operation instruction control device and operation instruction control method
JP7234324B1 (en) 2021-09-28 2023-03-07 三菱電機インフォメーションシステムズ株式会社 NOTIFICATION RECEIVING DEVICE, NOTIFICATION METHOD AND NOTIFICATION RECEIVING PROGRAM
JP2023048165A (en) * 2021-09-28 2023-04-07 三菱電機インフォメーションシステムズ株式会社 Notification reception device, notification reception method, and notification reception program
US11949839B2 (en) 2022-03-23 2024-04-02 Toshiba Tec Kabushiki Kaisha Image forming apparatus and control method with requesting user image capture

Also Published As

Publication number Publication date
JP5893122B2 (en) 2016-03-23

Similar Documents

Publication Publication Date Title
JP5893122B2 (en) Device selection system, device selection device, device selection program
US9134794B2 (en) System to identify user and device the user is intending to operate
US11659111B2 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium for displaying information associated with a setting
US10110453B2 (en) Network system and device management method
JP5545497B2 (en) Input display device, image forming device, imaging device, and program
JP5675917B1 (en) Device selection system, device selection device, device selection program
US9639312B2 (en) Image processing apparatus for performing processing on a print job, control method and storage medium of the same
JP6780667B2 (en) Management system
JP6642316B2 (en) Information processing system, electronic device, information processing device, information processing method, electronic device processing method, and program
JP6432361B2 (en) Image forming system, job processing program, and computer-readable recording medium recording job processing program
CN107272888B (en) Information processing apparatus
US20100302382A1 (en) Image data processing apparatus, and recording medium on which an image data processing program is recorded
JP2013254244A (en) Information terminal and control method of the same, and program
US11683428B2 (en) Information processing apparatus for managing sheet information according to presence or absence of a sheet
EP3021308B1 (en) Image forming apparatus and image forming apparatus control program
JP6142646B2 (en) Image processing apparatus and image processing system
JP6069277B2 (en) Image forming apparatus
US8867053B2 (en) Image forming apparatus, control method, and program
JP2014130619A (en) Device
JP2010079529A (en) Information processor, information processing method, program therefor and recording medium
JP6953726B2 (en) Information processing equipment, image processing equipment and programs
JP6084191B2 (en) Image forming apparatus
JP6977610B2 (en) Photographing equipment, image printing system
JP6311773B2 (en) Image forming apparatus
JP7099136B2 (en) Image formation system and image formation method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160223

R150 Certificate of patent or registration of utility model

Ref document number: 5893122

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150