JP2017146732A - システム、情報処理装置、携帯端末、情報処理方法及びプログラム - Google Patents

システム、情報処理装置、携帯端末、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2017146732A
JP2017146732A JP2016027201A JP2016027201A JP2017146732A JP 2017146732 A JP2017146732 A JP 2017146732A JP 2016027201 A JP2016027201 A JP 2016027201A JP 2016027201 A JP2016027201 A JP 2016027201A JP 2017146732 A JP2017146732 A JP 2017146732A
Authority
JP
Japan
Prior art keywords
information processing
information
human sensor
processing apparatus
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016027201A
Other languages
English (en)
Inventor
祐輔 堀下
Yusuke Horishita
祐輔 堀下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016027201A priority Critical patent/JP2017146732A/ja
Publication of JP2017146732A publication Critical patent/JP2017146732A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

【課題】ユーザが所有する携帯端末を用いて、情報処理装置と自動的に認証処理を行うと共に、ユーザの意図しない認証処理を低減させ、セキュリティを向上させることを目的とする。
【解決手段】情報処理装置と通信を行う通信手段と、通信手段を介して情報処理装置よりパケットが受信された場合に、パケットに含まれる電波強度情報に基づき携帯端末と情報処理装置との距離が距離閾値より短いと判定し、パケットに含まれる人感センサ情報に基づき情報処理装置でユーザが検出されたと判定した場合、認証要求を、通信手段を介して情報処理装置に送信するよう制御する制御手段とを有することによって課題を解決する。
【選択図】図8

Description

本発明は、システム、情報処理装置、携帯端末、情報処理方法及びプログラムに関する。
パーソナルコンピュータや複合機等の情報処理装置をユーザが利用する際に、個人認証を行い操作の許可を行うということは一般的に行われている。個人認証の方法にはユーザにパスワードを入力させるもの、個人の指紋や静脈パターン等の生体情報を認証情報として使用するもの等が存在する。また、ICカードがユーザのIDやパスワードを保持し、それを読み出すことで個人認証が行われる認証システムもある(特許文献1参照)。
装置に認証処理を行わせるためには、ユーザは装置の前に行き所定の認証処理を行い、認証されるまでの時間を待つ必要がある。そこで、ユーザが所有する携帯端末との距離をBluetooth(登録商標) Low Energyの技術を利用して測定し、一定距離以内である場合に、情報処理装置に対して認証を行うシステムが提案されている(特許文献2参照)。
特開2003−178034号公報 特開2013−190900号公報
ユーザが所有する携帯端末と情報処理装置とが一定距離以内である場合に認証処理を行ってしまうと、単にユーザが情報処理装置を通過しただけなのに認証処理を行ってしまう可能性がある。
本発明は、ユーザが所有する携帯端末を用いて、情報処理装置と自動的に認証処理を行うと共に、ユーザの意図しない認証処理を低減させ、セキュリティを向上させることを目的とする。
本発明は、情報処理装置と、携帯端末と、を含むシステムであって、前記情報処理装置は、人感センサからの情報に基づいて人感センサ情報を取得する取得手段と、前記携帯端末と通信を行う第1の通信手段と、前記取得手段により取得された人感センサ情報と電波強度情報とを含むパケットを前記第1の通信手段を介して一定時間ごとに前記携帯端末に送信するよう制御する第1の制御手段と、を有し、前記携帯端末は、前記情報処理装置と通信を行う第2の通信手段と、前記第2の通信手段を介して前記パケットが受信された場合に、前記パケットに含まれる前記電波強度情報に基づき前記携帯端末と前記情報処理装置との距離が距離閾値より短いと判定し、前記パケットに含まれる前記人感センサ情報に基づき前記情報処理装置でユーザが検出されたと判定した場合、認証要求を前記第2の通信手段を介して前記情報処理装置に送信するよう制御する第2の制御手段と、を有する。
本発明によれば、ユーザが所有する携帯端末を用いて、情報処理装置と自動的に認証処理を行うと共に、ユーザの意図しない認証処理を低減させ、セキュリティを向上させることができる。
無線通信システムのシステム構成を示す図である。 画像形成装置の外観を示す図である。 画像形成装置及び携帯端末のハードウェア構成を示す図である。 画像形成装置と人感センサの検出エリアを示す図である。 エリアの位置関係を示す図である。 ユーザ検出処理を示す図である。 一定時間ごとの画像形成装置と人との距離の遷移を示す図である。 自動ログインの情報処理を示したフローチャートである。 携帯端末を持ったユーザが画像形成装置に近づく過程を示す図である。 画像形成装置同士が隣り合った場所に設置されている場合を示す図である。 携帯端末を持ったユーザが画像形成装置を通り過ぎる場合を示す図である。 別のユーザがパケットを受信している場合を示す図である。 別のユーザが画像形成装置の近傍に存在する場合を示す図である。 人感センサに対する超音波周波数の切り替え制御を示す図である。 データの送出方法として、FSK変調方式を用いた例を示す図である。 人感センサの検出エリアを示す図である。 ユーザ検出処理を示すフローチャートである。 人が画像形成装置に対して正面から接近するケースを示す図である。 人が画像形成装置の近傍を通過するケースを示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
(実施形態1)
図1は、無線通信システムのシステム構成の一例を示す図である。本実施形態における環境は、複数の画像形成装置10及び11、複数の携帯端末20及び21が存在し、例えば一人一台携帯端末を所持し、普段からその携帯端末を持ち歩くようなオフィス環境を想定している。よって、携帯端末20及び21は別々のユーザによって所有される。画像形成装置10及び11はLAN30に接続されており、LAN30に接続された他の端末と相互に通信を行うことができる。また、画像形成装置10及び11はコピー機能、プリント機能、スキャン機能を有している。携帯端末20及び21は、無線LANルータ40を介してLAN30に接続可能であり、LAN30に接続された他の端末と相互に通信を行うことができる。更に、画像形成装置10及び11や携帯端末20及び21はBluetooth通信機能を備えており、Blootoothの電波の届く範囲において、相互に接続して通信を行うことができる。Blootoothは、近距離無線通信の一例である。
図2は、画像形成装置10の外観の一例を示す図である。本実施形態では、画像形成装置11も同様の外観を有する。画像形成装置10は、画像形成装置10に接近する人を検出するための人感センサ130を備えている。本実施形態における人感センサ130は、非可聴域の40KHzのパルス音波を出力し、物体に反射したパルス音波の反射波を受信可能な超音波センサである。人感センサ130は、パルス音波を出力したタイミングと、物体に反射したパルス音波の反射波を受信したタイミングとから、画像形成装置10とその前方に存在する物体とまでの距離を測定することができる。但し、人感センサ130は人の検出を可能なセンサであればよい。例えば、超音波センサと同様に画像形成装置10とその前方に存在する物体との距離を測定可能な赤外反射センサや、人から放射される赤外線を受光する赤外線受光センサ、物体との静電容量に基づいて距離を測定する静電容量センサ等が用いられてもよい。更に、赤外線受光部がライン上、又はマトリクス状に配置された赤外線アレイセンサやカメラが用いられてもよい。また、画像形成装置10及び11は、Bluetoothモジュール109を備えており、Blootoothの電波の届く範囲において、携帯端末20及び21と相互に接続して通信を行うことができる。
図3は、画像形成装置10及び携帯端末20のハードウェア構成の一例を示す図である。本実施形態では、画像形成装置11及び携帯端末21もそれぞれ同様のハードウェア構成を有する。CPU101は、画像形成装置10全体を制御する中央演算ユニットである。RAM102は、CPU101で実行されるプログラムが格納されるメモリであり、CPU101が演算に用いるデータを一時的に格納する為のワークメモリでもある。ROM103は、画像形成装置10の起動に用いるプログラムが格納されている。HDD104は、画像形成装置10の制御に関するソフトウェアに係るプログラムや各種設定、保存された文書データ、等を格納するハードディスクドライブ(HDD)である。CPU101が、ROM103又はHDD104等に記憶されたプログラムに基づき処理を実行することによりCPU101の機能及びCPU101が処理を実行するフローチャートの各ステップの処理が実現される。操作部CPU106は、ユーザが画像形成装置10を制御するためのものであり、画像形成装置10とユーザとの間での情報の入出力を行う。また、操作部CPU106には、LCD、タッチパネル及びハードウェアキーが接続される。ユーザがLCD上に表示されるボタンを選択する場合は、ユーザが表示されているボタンに触れればよい。更に、操作部CPU106は、人感センサ130の制御を行う。操作部CPU106は、一定周期ごとに人感センサ130を動作させ、画像形成装置10とその前方に存在する物体との距離を検出する。更に、操作部CPU106は、その測定距離を操作部CPU106内に備えるRAMに保存する。そして、操作部CPU106は、それらの測定距離の時系列結果から、画像形成装置10の前方に存在する物体が、遠いか、近いか、或いは、画像形成装置10を利用するユーザか、単なる通行人か、等といった判断を行うことができる。操作部CPU106は、画像形成装置10の前方に存在する物体が、画像形成装置10を利用するユーザであると判断した場合、操作部I/F105を介して電源制御部112に信号を通知する。操作部I/F105は、操作部CPU106に対するインタフェースであり、操作部CPU106への入出力データを中継する。操作部CPU106が、操作部CPU106内のメモリに記憶されているプログラムに基づき処理を実行することによって、操作部CPU106の機能及び操作部CPU106が処理を実行するフローチャートの各ステップの処理が実現される。CPU101は、操作部I/F105を介して受信するユーザが選択したキー情報及びタッチパネル上の座標情報に基づいて画像形成装置10を制御する。有線LANモジュール107は、LAN30を介して外部機器とのデータの送受信を行うための制御を行う。無線LANモジュール108は、インフラモードで動作する場合は無線LANルータ40を介してLAN30に接続し、他のネットワーク機器或いはファイルサーバ等と双方向にデータを送受信可能である。また、無線LANモジュール108は、ソフトAPモードで動作する場合は、画像形成装置10をアクセスポイントして動作させ、携帯端末20及び21と直接無線通信可能としてもよい。Bluetoothモジュール109は、Bluetooth規格で無線通信を行うI/Fであり、他のBluotooth I/Fを有する機器と相互に通信可能である。本実施形態におけるBluetoothモジュール109は、Bluetooth Low Energy通信が可能である。CPU101は、Bluetoothモジュール109を一定間隔でスタンバイ状態からアドバタイジング状態に遷移させることにより、アドバタイジングパケットを送出して携帯端末に無線で画像形成装置10の各種情報を通知することができる。イメージバス110は、システムバス114と画像バス115との中継、及びデータ構造の変換を担う。タイマ111は、CPU101で実行されるプログラムの指示によりクリア、カウント開始、カウント停止、現在のカウント値の確認、等の制御が可能である。電源制御部112は、画像形成装置10の電源を制御するブロックであり、CPU101からの指示、操作部CPU106からの通知、ユーザによる電源スイッチ等の操作により電源の制御を行う。CPU101は、ユーザからの操作を一定期間受け付けていない状態、或いは、LAN30を介してプリントジョブを一定期間受信していない状態を検出すると、電源制御部112を介して不要な部分への電源供給を停止させる。また、電源制御部112は、電源スイッチによる電源オフの操作を検出することが可能であり、検出した結果を電源オフ要求としてCPU101に通知することができる。CPU101は、電源オフ要求を受信することで画像形成装置10を電源オフできる状態へと移行させ、電源制御部112に対して電源停止の指示を行う。電源部113は、画像形成装置10に対して交流電源を直流電源に変換する電源であり、電源制御部112の指示により変換動作をオフ/オンする。RIP116は、ラスタイメージプロセッサ(RIP)であり、ページ記述言語(PDL)コードやディスプレイリストをビットマップイメージに変換する。デバイスI/F部117は、スキャナ部118やプリンタ部119と画像バス115とを接続するインタフェースである。デバイスI/F部117は、スキャナ部118から受信した画像データを画像バス115に送信するためのタイミング調整を行うと共に、画像バス115からプリンタ部119への画像データ送信のためのタイミング調整を行う。スキャナ部118は、スキャナセンサーが生成した画像データに対し、画像形成装置10に応じた補正、解像度変換、等の処理を行う。プリンタ部119は、プリント出力する画像データに対し、画像形成装置10のプリントエンジンに応じた補正、解像度変換等の処理を行う。
CPU201は、携帯端末20全体を制御する中央演算ユニットである。RAM202は、CPU201で実行されるプログラムが格納されるメモリであり、また、RAM202は、CPU201が演算に用いるデータを一時的に格納する為のワークメモリである。ROM203は、CPU201が使用するプログラムや各種データを格納する。操作部204は、ユーザと携帯端末20間の情報の入出力を行うものであり、LCD及びタッチパネルにて構成される。スピーカー205は、電子信号を外部へ音として送出するために用いられ、18〜20kHz等の非可聴域の音波を出力可能である。マイク206は、外部の音を電子信号に変換するために用いられ、18〜20kHz等の非可聴域の音波を受信可能である。カメラ207は、静止画や動画を撮影するものである。無線LANモジュール208は、無線LANルータ40を介してデータの送受信を行うための制御を行う。Bluetoothモジュール209は、Bluetooth規格で無線通信を行うI/Fであり、他のBluotooth I/Fを有する機器と相互に通信可能である。本実施形態におけるBluetoothモジュール209は、Bluetooth Low Energy通信が可能である。CPU201は、一定間隔でBluetoothモジュール209をスタンバイ状態からスキャニング状態に遷移させ、画像形成装置10から送出されたアドバタイジングパケットを受信し、必要に応じて応答することができる。また、CPU201は、Bluetoothモジュール209を介してアドバタイジングパケット内に埋め込まれた電波の受信信号強度(RSSI)から、携帯端末20が画像形成装置10から遠いか、近いか等大まかな距離を推定することができる。
図4は、画像形成装置10と人感センサ130の検出エリアの一例を示す図である。領域A100は操作部CPU106が人感センサ130を介して物体の検出を行った場合、その物体が画像形成装置10から「遠い」と判断する領域である。また、領域A101は操作部CPU106が人感センサ130を介して物体の検出を行った場合、その物体が画像形成装置10から「近い」と判断する領域である。
図5は、画像形成装置10と人感センサ130の検出エリア、Bluetoothモジュール109から発せられる電波を携帯端末20が検出できるエリアの位置関係の一例を示す図である。上述したように、人が領域A100内に侵入すると操作部CPU106は、画像形成装置10から「遠い」検出エリアに物体が存在すると判断する。また、人が領域A101内に侵入すると操作部CPU106は、画像形成装置10から「近い」検出エリアに物体が存在すると判断する。更に、携帯端末20が領域A103内に存在する場合、携帯端末20はBluetoothモジュール109から発せられる電波を受信可能になる。このとき、CPU201は、画像形成装置10に装着されたBluetoothモジュール109から発せられる電波のRSSIを解析し、画像形成装置10から「遠い」エリアに存在すると判断できる。また、携帯端末20が領域A102に存在する場合、CPU201は、画像形成装置10に装着されたBluetoothモジュール109から発せられる電波のRSSIを解析し、画像形成装置10から「近い」エリアに存在すると判断できる。
図6は、操作部CPU106が実行するユーザ検出処理を示す図である。S1300において、操作部CPU106は、CPU内部に備えるハードウェアタイマのタイマ値をインクリメントする。S1301において、操作部CPU106は、そのタイマ値が予め設定してあるタイマ閾値を超えたか否かを判定する。タイマ値が予め設定してあるタイマ閾値を超えた場合(S1301においてYes)、操作部CPU106は、S1302に処理を移行する。即ち、操作部CPU106は、タイマにより一定周期ごとにS1302への移行の処理を行う。一方、タイマ値が予め設定してあるタイマ閾値を超えない場合(S1301においてNo)、操作部CPU106は、S1300に処理を戻す。S1302において、操作部CPU106は、タイマ値をクリアする。S1303において、操作部CPU106は、人感センサを制御することで人と画像形成装置10との間の距離を測定する。更に、S1304において、操作部CPU106は、測定距離を操作部CPU106内に備えるRAMに保存しておく。S1305において、操作部CPU106は、測定距離が予め設定してある距離閾値より短いか否かを判定する。測定距離が予め設定してある距離閾値より短い場合(S1305においてYes)、即ち人が画像形成装置10に近いと判断した場合、操作部CPU106は、S1306に処理を移行する。S1306において、操作部CPU106は、ユーザ検出カウンタをインクリメントする。ユーザ検出カウンタは、測定距離が予め設定してある距離閾値より短いと連続して判定した回数をカウントするカウント値の一例である。また、測定距離が予め設定してある距離閾値より長い場合(S1305においてNo)、操作部CPU106は、S1310に処理を移行する。S1310において、操作部CPU106は、ユーザ検出カウンタをクリアする。更に、S1311において、操作部CPU106は、「ユーザ非検出」というフラグを人感センサ情報として操作部CPU106内に備えるRAMに保存する。そして、操作部CPU106は、S1300に処理を移行する。S1307において、操作部CPU106は、ユーザ検出カウンタのカウント値が予め設定してあるカウント閾値より多いか否かを判定する。ユーザ検出カウンタのカウント値が予め設定してあるカウント閾値より多い場合(S1307においてYes)、即ち人が画像形成装置10の近い場所に一定時間滞在したと判断した場合、操作部CPU106は、S1308に処理を移行する。S1308において、操作部CPU106は、ユーザ検出カウンタをクリアする。そして、S1309において、操作部CPU106は、画像形成装置10の近くに滞在する人がユーザであると判断し、「ユーザ検出」というフラグを人感センサ情報として操作部CPU106内に備えるRAMに保存する。また、ユーザ検出カウンタのカウント値が予め設定してあるカウント閾値より小さい場合(S1307においてNo)、即ち人が画像形成装置10の近い場所に一定時間滞在していないと判断した場合、操作部CPU106は、S1311に処理を移行する。S1311において、操作部CPU106は、「ユーザ非検出」というフラグを人感センサ情報として操作部CPU106内に備えるRAMに保存する。そして、操作部CPU106は、S1300に処理を移行する。上述した処理を行うことによって、操作部CPU106は、画像形成装置10の目の前に一定時間滞在した人に対して確実にユーザであると判断できる。上述したアルゴリズムはあくまで一例である。例えば、画像形成装置10は、操作部CPU106内のROMに予め教師データを保存しておき、一定時間ごとに測定された人と画像形成装置10との間の距離の時系列を利用するようにしてもよい。このことで、画像形成装置10は、単純なパターンマッチングやDPマッチング、又は隠れマルコフモデルやニューラルネットワーク等の機械学習による方法等で、ユーザ検出の判断を行うことができる。また、上述した実施形態では、操作部CPU106は、人感センサ情報として「ユーザ検出」「ユーザ非検出」という2つのフラグを保存したが、人感センサ情報の中に人感センサを制御することで得られる「測定距離」を含めるようにしてもよい。また、操作部CPU106は、所定のユーザ操作等に基づき、上述した距離閾値やカウント閾値を設定、変更するようにしてもよい。
図7は、一定時間ごとの画像形成装置10と人との距離の遷移の一例を示す図である。図7内の表には、操作部CPU106が人感センサ130を介して測定した人と画像形成装置10との間の距離や、その距離から操作部CPU106が判断する判断結果が示してある。図7の(A)は画像形成装置10に向かって人が近づく場合を示している。操作部CPU106は、T1の時点で領域A100に人が存在すると判断し、その後、T1〜T4にかけて測定距離が連続的に減少したので、検出している人が画像形成装置10を利用するユーザであると判断する。図7の(B)は画像形成装置10に人が近距離から近づく場合を示している。操作部CPU106は、T1の時点で領域A101に人が存在すると判断するが、その後T2〜T4まで距離の増減がないため、人が画像形成装置10を利用するユーザなのか、判断を保留する。その後、操作部CPU106は、T5まで連続して領域A101に人を検出したことで、人が画像形成装置10の目の前に一定時間滞在したと判断する。そして、操作部CPU106は、画像形成装置10の前方に存在する人をユーザであると判断する。図7の(C)は画像形成装置10を人が通過する場合を示している。操作部CPU106は、T1の時点で領域A101に人が存在すると判断する。しかし、T2、T3時点では判断ができず、更にT4、T5で検出がなくなることから、操作部CPU106は、通行人に対してユーザであると判断しない。上述した操作部CPU106のアルゴリズムはあくまで一例であり、他のアルゴリズムによって画像形成装置10に近づく人をユーザであるか否か判断してもよい。
図8は、Bluetooth Low Energy通信を利用した自動ログインの情報処理の一例を示したフローチャートである。CPU101は、一定時間ごとに操作部I/F105を介して、操作部CPU106がRAMに保存してある人感センサ情報(「ユーザ非検出」又は「ユーザ検出」)を取得する。更に、S1020において、CPU101は、Bluetoothモジュール109を一定間隔でスタンバイ状態からアドバタイジング状態に遷移させることにより、人感センサ情報を埋め込んだアドバタイジングパケットを外部へ送信する。一方、ユーザが所有する携帯端末20が画像形成装置10に近づくと、Bluetoothモジュール209は、画像形成装置10に装着されているBluetoothモジュール109から送信されるアドバタイジングパケットを受信可能となる。そして、S2020において、CPU201は、アドバタイジングパケットを受信する。S2022において、CPU201は、アドバタイジングパケットに含まれるRSSIから携帯端末20と画像形成装置10との大まかな距離を推定する。RSSIは、電波強度情報の一例である。例えば、CPU201は、アドバタイジングパケットに含まれるTx Power Levelや、Manufacturer Specific Dataに含まれる画像形成装置10が発する送信電波強度に関する情報とRSSIとの差分を取る。そして、CPU201は、その差分から距離を推定することもできる。また、一般にRSSIは誤差が大きいため、CPU201は、得られたRSSIの時系列に対して移動平均フィルタ等のフィルタリングをかけた上で、距離を推定することができる。更に、CPU201は、機械学習等のアルゴリズムを用いることによって距離の推定精度を高めることもできる。S2023において、CPU201は、推定した距離が予め設定した距離閾値より短いか否か、即ち画像形成装置10に近いか否かを判断する。画像形成装置10に近いと判断した場合(S2023においてYes)、CPU201は、S2024に処理を移行する。一方、画像形成装置10に近くないと判断した場合(S2023においてNo)、CPU201は、S2020に処理を戻す。S2024において、CPU201は、アドバタイジングパケット内に含まれる人感センサ情報を参照する。そして、S2025において、CPU201は、「ユーザ検出」状態であるか否かを確認する。「ユーザ検出」状態であることを確認でき次第(S2025においてYes)、CPU201は、S2026に処理を移行する。「ユーザ検出」状態であることを確認できない場合(S2025においてNo)、CPU201は、S2020に処理を戻す。S2026において、CPU201は、画像形成装置10へBluetoothモジュール209を介してログイン要求を行う。ここでCPU201は、必ずしも「ユーザ検出」状態を確認するのではなく、アドバタイジングパケットに含まれる人感センサ情報が「ユーザ非検出」状態から「ユーザ検出」状態に変化したことを持って、画像形成装置10に対してログイン要求を行ってもよい。S1021において、CPU101は、ログイン要求を受信し、ログイン中のユーザがいないことを確認する。ログイン中のユーザがいない(S1021においてYes)、CPU101は、S1023に処理を移行する。S1023において、CPU101は、ログイン処理を行う。ログイン中のユーザがいた場合は(S1021においてNo)、CPU101は、S1022に処理を移行する。S1022において、CPU101は、ログインできないことを同様の通信で携帯端末20へ通知する。上述した実施形態では、CPU101は、操作部CPU106に対して、人感センサ情報として「ユーザ非検出」又は「ユーザ検出」といった状態を要求した。しかし、操作部CPU106が人感センサ情報の中に人と画像形成装置10との間の測定距離を含めていた場合、CPU101は、その測定距離を取得することもできる。そして、CPU101は、その測定距離をアドバタイジングパケットに埋め込み携帯端末20へ送信することで、携帯端末20のCPU201が図6で示したアルゴリズム等を実行し、ユーザ検出の判断を行うこともできる。また、上述した実施形態では、S2023における距離閾値を固定値としたが、この距離閾値はユーザが携帯端末21の操作部204を介して、任意に設定した値であってもよい。即ち、CPU101は、操作部204を介したユーザ操作に応じて、距離閾値を設定、変更するようにしてもよい。ログイン要求は、認証要求の一例である。
図9は、携帯端末20を持ったユーザが画像形成装置10に近づく過程の一例を示す図である。操作部CPU106は、図6で示したユーザ検出処理を行うことで、画像形成装置10に近づく人を「ユーザ」であると判断する。更に、CPU201は、画像形成装置10に装着されたBluetoothモジュール109から発せられる電波のRSSIを解析し、画像形成装置10から「近い」エリアに存在すると判断する。その結果、携帯端末20は、画像形成装置10から受け取るアドバタイジングパケットの情報を参照することにより、自動でログイン要求を行うことができる。即ち、携帯端末20を持つユーザは、画像形成装置10に近づくだけで自動ログイン処理を行うことができる。
図10は、画像形成装置10と画像形成装置11とが隣り合った場所に設置されている場合の一例を示す図である。画像形成装置10内の操作部CPU106は、図6で示したユーザ検出処理を行うことで、画像形成装置10に近づく人を「ユーザ」であると判断する。一方、画像形成装置11内の操作部CPU106は、図6で示したユーザ検出処理を行うことで、画像形成装置11の前にユーザが存在しないと判断する。更に、CPU201は、画像形成装置10に装着されたBluetoothモジュール109から発せられる電波のRSSIを解析し、画像形成装置10から「近い」エリアに存在すると判断する。その結果、携帯端末20は、ユーザが近づいた先の画像形成装置10のみにログイン要求を行い、画像形成装置11に対してはログイン要求を行わない。よって、ユーザの意図しない画像形成装置11へのログインを防止しながら、画像形成装置10に対して自動でログイン要求を行うことができる。
図11は、携帯端末20を持ったユーザが画像形成装置10及び11を通り過ぎる場合の一例を示す図である。操作部CPU106は、図6で示したユーザ検出処理を行うことで、画像形成装置を通り過ぎるだけの人に対しては「ユーザ」であると判断しない。よって、携帯端末20はどちらの画像形成装置に対してもログイン要求を行わず、ユーザの意図しないログインを防止することができる。
図12は、携帯端末20を所有するユーザAが画像形成装置10に近づくと共に、携帯端末21を持った別のユーザBが画像形成装置10から送信されるアドバタイジングパケットを受信している場合の一例を示す図である。画像形成装置10内の操作部CPU106は、図6で示したユーザ検出処理を行うことで、画像形成装置10に近づく人を「ユーザ」であると判断する。また、携帯端末20内のCPU201は、画像形成装置10に装着されたBluetoothモジュール109から発せられる電波のRSSIを解析し、画像形成装置10から「近い」エリアに存在すると判断する。よって、携帯端末20を持つユーザAは、画像形成装置10に近づくだけで自動ログイン処理を行うことができる。
一方、携帯端末21内のCPU201は、アドバタイジングパケット内に埋め込まれたRSSIを解析し、自らが画像形成装置10から「遠い」エリアに存在すると判断する。よって、携帯端末21は、画像形成装置10に対してログイン要求を行わない。即ち、画像形成装置10を使う意思のないユーザBの意図しないログインを防止することができる。
(実施形態2)
実施形態2では、図3で示した構成を持つ画像形成装置10において、人感センサ130に超音波センサを用い、その超音波センサが大きく分けて2つの周波数帯域の音波を出力可能な場合を想定する。より具体的には、超音波センサは18〜20kHzのパルス音波と、40kHzのパルス音波を出力可能である。
人感センサ130は、非可聴域の18〜20kHz等のパルス音波を出力することが可能であり、携帯端末20に備えられたマイク206はそのパルス音波を受信することができる。一方、携帯端末20に備えられたスピーカー205も18〜20kHz等のパルス音波を出力することが可能であり、人感センサ130はそのパルス音波を受信することができる。つまり、画像形成装置10と携帯端末20とは人感センサやマイク、スピーカーを利用することで、18〜20kHz等の超音波を用いた超音波通信を行うことができる。よって、実施形態1では無線通信を行う物理的な通信方式としてBluetooth通信を用いてきたが、これを超音波通信に置き換えることにより自動ログイン処理を実現することもできる。
図13は、携帯端末20を所有するユーザAが画像形成装置10に近づくと共に、携帯端末21を持った別のユーザBが画像形成装置10の近傍に存在する場合を示す図である。領域A100は操作部CPU106が人感センサ130を介して物体の検出を行った場合、その物体が画像形成装置10から「遠い」と判断する領域である。また、領域A101は操作部CPU106が人感センサ130を介して物体の検出を行った場合、その物体が画像形成装置10から「近い」と判断する領域である。超音波はBluetooth等の電波に比べて指向性が絞りやすく、超音波センサ周囲のメカ形状等によってその指向性をコントロールしやすい。よって、本実施形態では携帯端末20を持ったユーザAが領域A101とほぼ同様の大きさの領域A102に侵入すると、携帯端末20のマイクは画像形成装置10から発せられるアドバタイジングパケットを受信可能になる。即ち、超音波通信を用いた場合、携帯端末20がアドバタイジングパケットを受信したことは、携帯端末20画像形成装置10に十分に近いこととほぼ等価になる。よって、実施形態1を単純に超音波通信に置き換えて実施することも可能だが、上述した超音波の物理的な特性を活かすことで、図8で示した携帯端末側の処理において、画像形成装置10と近いか否かの確認動作(S2022〜S2023)を省略することができる。以下に、S2022〜S2023を省略した場合の、携帯端末及び画像形成装置の動作を説明する。
画像形成装置10内の操作部CPU106は、図6で示したユーザ検出処理を行うことで、画像形成装置10に近づく人を「ユーザ」であると判断する。そして、領域A102内に存在するユーザAの所有する携帯端末20は、画像形成装置10から受け取るアドバタイジングパケットの情報を参照することにより、自動でログイン要求を行うことができる。一方、領域A102内に存在しないユーザBの所有する携帯端末21は、画像形成装置10から発せられるアドバタイジングパケットを受け取ることができない。よって、携帯端末21は、画像形成装置10に対してログイン要求を行わない。即ち、画像形成装置10を使う意思のないユーザBの意図しないログインを防止することができる。
図14は、操作部CPU106が行う人感センサ130に対する超音波周波数の切り替え制御の一例を示す図である。操作部CPU106は、人感センサ130を人検出用として利用する人検出区間T1と、超音波通信用として利用する超音波通信区間T2を時分割で切り替える。このような制御を行うことで、1つの人感センサを用いて人検出と超音波通信の2つの機能が実現可能である。但し、必ずしも1つの人感センサを用いて人検出と超音波通信とを実現可能でなくてもよく、人検出と超音波通信とにそれぞれ適したセンサを用いて自動ログイン処理を実現することもできる。
図15は、画像形成装置10と携帯端末20とが超音波通信を行うデータの送出方法として、FSK(Frequency Shift Keying)変調方式を用いた一例を示す図である。超音波通信用の周波数として18kHzと19kHzとを利用している。また、操作部CPU106やCPU201は、1bitに定められた時間の中で、相手にデータ0を送りたい場合には18kHz、データ1を送りたい場合には19kHzで人感センサ130やスピーカー205を駆動する。このことで、超音波を介した通信を実現することができる。更に、操作部CPU106やCPU201は、必要に応じて誤り訂正を実行し、超音波通信の精度を高めることもできる。
(実施形態3)
実施形態3では、人感センサ130に赤外線受光素子がライン上、又はマトリクス状に配置された赤外線アレイセンサを用いている。
図16は、人感センサ130の検出エリアの一例を示す図である。赤外アレイセンサは、熱源から放射される赤外線を格子状に並べられた1つ1つの赤外線受光素子で受光し、各受光素子の検出した温度値を用いることによって熱源の形状を温度分布として検出する特徴を持っている。その特徴を利用し、操作部CPU106は、画像形成装置10に近づいてくる物体の温度分布を検出し、人の検出位置や移動量等を判断することができる。
なお、赤外アレイセンサが人を検出する精度は、人から放射される熱(Signal)と周囲環境から放射される熱(Noise)との比(S/N比)が大きければ大きいほどよい。よって、人感センサ130は、人体の部位の中でも低温から高温環境下で高い温度を持ち、かつ、周囲環境の温度変化による体温への影響が少ない「顔」の温度を検出できることが望ましい。よって、実施形態3では、人感センサ130の検出エリアを画像形成装置10の前面方向斜め上方に設定している。
図17は、操作部CPU106が実行するユーザ検出処理を示すフローチャートである。S1320において、操作部CPU106は、CPU内部に備えるハードウェアタイマのタイマ値をインクリメントする。S1321において、操作部CPU106は、そのタイマ値が予め設定してあるタイマ閾値を超えたか否かを判定する。タイマ値が予め設定してあるタイマ閾値を超えた場合(S1321においてYes)、操作部CPU106は、S1322に処理を移行する。即ち、操作部CPU106は、タイマにより一定周期ごと(1フレームごと)にS1322への移行の処理を行う。一方、タイマ値が予め設定してあるタイマ閾値を超えない場合(S1321においてNo)、操作部CPU106は、S1320に処理を戻す。S1322において、操作部CPU106は、タイマ値をクリアする。S1323において、操作部CPU106は、人感センサ130から現在の温度分布を取得する。S1324において、操作部CPU106は、S1323で取得した現在の温度分布に対して、CPU内部のRAMに既に保存してある過去の温度分布(背景データ)と差分をとることで二値化処理を行う。即ち、操作部CPU106は、動画像処理における動体認識手法として一般的な背景差分法を実行することにより、現在の温度分布と過去の温度分布との差分が1℃より大きな箇所(熱源画素と呼ぶ)を認識する。但し、必ずしも閾値が1℃である必要はなく、操作部CPU106は、画像形成装置10の置かれる場所や周囲環境によって動的に閾値を変化させてもよい。次に、S1325において、操作部CPU106はラベリング処理を行い、二値化データから熱源画素の候補を抽出する。更に、S1326において、操作部CPU106は、ラベリングしたデータから最も大きなかたまりを熱源画素として認識する。熱源画素は、以降の処理で特徴量解析を行うための対象となる。但し、必ずしもラベリングしたデータのうち最も大きなかたまりを特徴量解析の対象とする必要はない。例えば、操作部CPU106は、ラベリングしたデータのうち最も平均温度の高いかたまりを特徴量解析の対象としてもよい。S1327において、操作部CPU106は、次フレームの二値化処理(S1324)に必要となる背景データを更新し、CPU内部のRAMに保存する。なお、背景データの更新には、既にRAM内に保存してある背景データと、現在のフレームで取得したデータと、を所定の割合ずつ足し合わせる等、動画像処理で知られている様々な背景更新アルゴリズム適用可能である。また、操作部CPU106は、背景データの更新の際にS1326で認識した熱源画素と、それ以外の画素と、に対する背景更新方法について、それぞれ別の手法を用いることもできる。次に、S1328において、操作部CPU106は、熱源画素から特徴量を解析する。本実施形態では、操作部CPU106は、人感センサ130から得られた二次元の温度分布における「縦方向の最大座標」と「横方向の重心座標」とを解析する。操作部CPU106は、これらの特徴量を操作部CPU106内のRAMに保存し、次フレーム以降に参照することができる。次に、S1329において、操作部CPU106は、熱源画素が所定の個数以上存在するか否か判断する。熱源画素が所定の個数以上存在する場合(S1329においてYes)、操作部CPU106は、S1330に処理を移行する。S1330及びS1331において、操作部CPU106は、「y方向のMAX座標」と「x方向の重心座標」とが所定のエリア(復帰エリアという)に存在するか否か判断する。所定のエリアに存在する場合(S1330においてYes、及びS1331においてYes)、操作部CPU106は、S1332に処理を移行する。一方、「y方向のMAX座標」又は「x方向の重心座標」は復帰エリアに存在しない場合(S1330においてNo、又はS1331においてNo)、操作部CPU106は、S1320に処理を戻す。S1332において、操作部CPU106は、「x方向の重心座標」の一定時間内の変動幅を算出する。例えば、0.5秒間でx方向の重心座標が1〜8に変化した場合、変動幅は7である。なお、前記変動幅は、画像形成装置10の正面(前面方向)に対する、ユーザの横方向の移動量を示している。次に、S1333において、操作部CPU106は、前記変動幅が所定の閾値以下か否か判断する。所定の閾値以下であった場合(S1333においてYes)、操作部CPU106は、S1334に処理を移行する。一方、所定の閾値以下でなかった場合(S1333においてNo)、操作部CPU106は、S1320に処理を戻す。S1334において、操作部CPU106は、画像形成装置10の前方に存在する物体をユーザであると判断する。なお、上述した閾値や復帰エリア等のパラメータは、画像形成装置10の管理者やユーザ等が、任意に設定することも可能であり、画像形成装置10にログインしているユーザごとに動的に変更されるものであってもよい。即ち、操作部CPU106は、所定のユーザ操作等に基づき、上述した閾値や復帰エリア等のパラメータを設定、変更するようにしてもよい。本ユーザ検出処理によって、人が画像形成装置10に対して正面から接近する場合は素早くユーザであると判断し、かつ、ユーザが画像形成装置10の近傍を通過する場合はユーザであると判断しない。
図18は、人が画像形成装置10に対して正面から接近するケースの一例を示す図である。上段に画像形成装置10と人体との距離を示し、中段にその距離での操作部CPU106の熱源画素の検出結果を、下段に操作部CPU106の特徴量解析結果を示している。なお、図18を説明するにあたって、図17で示したS1329の熱源画素の閾値を2個とする。また、S1330及びS1331で示した所定エリア(復帰エリア)を図18の点線より上方向とする。更に、S1332で示した変動幅の算出期間を0.3秒に、S1333で示した変動幅の閾値を1とする。図18の(A)は、人体が人感センサ130の検出エリアに入った際の熱源画素の検出結果を示している。操作部CPU106の検出結果は素子(4、1)、(5、1)、(4、2)、(5、2)等、人感センサ130の下部(下側)の素子で熱源を数カ所検出している。図18の(B)のように人体が画像形成装置10へ近付くと、操作部CPU106の検出結果はy方向の1行目から4行目まで拡大し、x方向の3列目〜6列へと左右にも拡大した領域に温度検出範囲が広がる。更に、図18の(C)のように人体が画像形成装置10の復帰エリアに到達すると、操作部CPU106は、図18で示したS1330及びS1331をYesと判断する。ここで、操作部CPU106は、時刻T3直近の0.3秒間の「x方向の重心座標」の変動幅を算出する。時刻T1〜T3まで「x方向の重心座標」4.5のまま変化していないため、操作部CPU106は、前記変動幅を0と算出する。よって、操作部CPU106は、S1333をYesと判断し、画像形成装置10に近づく人をユーザであると判断する。即ち、操作部CPU106は、図18で示したユーザ検出処理を実行することにより、図18で示した人の動きを画像形成装置10に正面から接近する動きと判断し、いち早くユーザであると判断することができる。
図19は、人が画像形成装置10の近傍を通過するケースの一例を示す図である。上段に画像形成装置10と人体との距離を示し、中段にその距離での操作部CPU106の熱源画素の検出結果を、下段に操作部CPU106の特徴量解析結果を示している。なお、図19を説明するにあたって、図17で示したS1329の熱源画素の閾値を2個とする。また、S1330及びS1331で示した所定エリア(復帰エリア)を図19の点線より上方向とする。更に、S1332で示した変動幅の算出期間を0.3秒に、S1333で示した変動幅の閾値を1とする。図19の(A)は、人体が復帰エリアに入った際の熱源画素の検出結果を示している。図19の(B)は、人体が画像形成装置10の目の前を移動しており、操作部CPU106は、時刻T2直近の0.3秒間の「x方向の重心座標」の変動幅を算出する。ここで、時刻T1〜T2が0.3秒であったとすると、操作部CPU106は、前記変動幅を3.1と算出する。よって、操作部CPU106は、S1333をNoと判断し、ユーザであると判断しない。図19の(C)は、人体が画像形成装置10から離れていく場面を示しており、図19の(B)と同様に時刻T3〜T2が0.3秒であったとすると、操作部CPU106は、S1333をNoと判断し、ユーザであると判断しない。即ち、操作部CPU106は、図18で示したユーザ検出処理を実行することにより、図19で示した人の動きを画像形成装置10の近傍を通過していると判断し、ユーザであると判断しない。
以上に示したように、本実施形態によれば、装置の正面方向から近づいた人に対しては速やかにユーザであると判断し、装置近傍を通行する人に対してはユーザであると判断しない。よって、実施形態1で示した自動ログイン処理を、赤外アレイセンサを用いて実現することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した実施形態を任意に組み合わせて実施してもよい。また、上述した実施形態では、処理の一部を操作部CPU106が実行するものとして説明を行ったが、人感センサ130等からの情報に基づきCPU101が行うようにしてもよい。また、上述した実施形態では、ユーザの検出、認証処理等を行う装置の一例として画像形成装置を例に説明を行ったが、これに限定されるものではなく、プリンタ、FAX、PC、自動車、家電製品等であってもよい。画像形成装置、プリンタ、FAX、PC、自動車、家電製品等は、情報処理装置の一例である。
ユーザが所有する携帯端末を用いて、画像形成装置と自動的に認証処理を行うと共に、ユーザの意図しない認証処理を低減させ、セキュリティを向上させることができる。
10、11 画像形成装置
20、21 携帯端末
101 CPU
104 HDD

Claims (18)

  1. 情報処理装置と、携帯端末と、を含むシステムであって、
    前記情報処理装置は、
    人感センサからの情報に基づいて人感センサ情報を取得する取得手段と、
    前記携帯端末と通信を行う第1の通信手段と、
    前記取得手段により取得された人感センサ情報と電波強度情報とを含むパケットを前記第1の通信手段を介して一定時間ごとに前記携帯端末に送信するよう制御する第1の制御手段と、
    を有し、
    前記携帯端末は、
    前記情報処理装置と通信を行う第2の通信手段と、
    前記第2の通信手段を介して前記パケットが受信された場合に、前記パケットに含まれる前記電波強度情報に基づき前記携帯端末と前記情報処理装置との距離が距離閾値より短いと判定し、前記パケットに含まれる前記人感センサ情報に基づき前記情報処理装置でユーザが検出されたと判定した場合、認証要求を前記第2の通信手段を介して前記情報処理装置に送信するよう制御する第2の制御手段と、
    を有するシステム。
  2. 前記第1の制御手段は、前記第1の通信手段を介して前記認証要求が受信された場合に、ログイン中のユーザがいるか否かを判定し、ログイン中のユーザがいない場合は、前記認証要求に応じて認証処理を実行するよう制御する請求項1記載のシステム。
  3. 前記第2の制御手段は、前記パケットに含まれる前記電波強度情報に基づき前記携帯端末と前記情報処理装置との距離が距離閾値より短いか否かを判定し、前記携帯端末と前記情報処理装置との距離が距離閾値より短いと判定した場合、前記パケットに含まれる前記人感センサ情報に基づき前記情報処理装置でユーザが検出されたか否かを判定する請求項1又は2記載のシステム。
  4. 前記第1の通信手段と前記第2の通信手段との通信は近距離無線通信である請求項1乃至3何れか1項記載のシステム。
  5. 前記第1の通信手段と前記第2の通信手段との通信は超音波通信である請求項1乃至3何れか1項記載のシステム。
  6. 前記人感センサは超音波センサである請求項1乃至5何れか1項記載のシステム。
  7. 前記人感センサは赤外アレイセンサである請求項1乃至5何れか1項記載のシステム。
  8. 前記情報処理装置は、画像形成装置である請求項1乃至7何れか1項記載のシステム。
  9. 人感センサからの情報に基づいて人感センサ情報を取得する取得手段と、
    携帯端末と通信を行う通信手段と、
    前記取得手段により取得された人感センサ情報と電波強度情報とを含むパケットを、前記通信手段を介して一定時間ごとに前記携帯端末に送信するよう制御する制御手段と、
    を有する情報処理装置。
  10. 前記人感センサは超音波センサであり、
    前記取得手段は、前記人感センサからの情報に基づいて人と前記情報処理装置との距離を求め、求めた距離が距離閾値より短い回数をカウントするカウント値がカウント閾値より多くなった場合、ユーザを検出したことを示す人感センサ情報を取得する請求項9記載の情報処理装置。
  11. 前記人感センサは赤外アレイセンサであり、
    前記取得手段は、前記人感センサからの情報に基づいて熱源画素を認識し、認識した熱源画素が設定された個数以上であり、設定されたエリアに存在し、一定時間内の変動幅が設定された閾値以下である場合、ユーザを検出したことを示す人感センサ情報を取得する請求項9記載の情報処理装置。
  12. 前記情報処理装置は、画像形成装置である請求項9乃至11何れか1項記載の情報処理装置。
  13. 携帯端末であって、
    情報処理装置と通信を行う通信手段と、
    前記通信手段を介して前記情報処理装置よりパケットが受信された場合に、前記パケットに含まれる電波強度情報に基づき前記携帯端末と前記情報処理装置との距離が距離閾値より短いと判定し、前記パケットに含まれる人感センサ情報に基づき前記情報処理装置でユーザが検出されたと判定した場合、認証要求を、前記通信手段を介して前記情報処理装置に送信するよう制御する制御手段と、
    を有する携帯端末。
  14. 情報処理装置と、携帯端末と、を含むシステムが実行する情報処理方法であって、
    前記情報処理装置が、人感センサからの情報に基づいて人感センサ情報を取得する取得工程と、
    前記情報処理装置が、前記携帯端末と通信を行う第1の通信工程と、
    前記情報処理装置が、前記取得工程により取得された人感センサ情報と電波強度情報とを含むパケットを前記第1の通信工程を介して一定時間ごとに前記携帯端末に送信するよう制御する第1の制御工程と、
    前記携帯端末が、前記情報処理装置と通信を行う第2の通信工程と、
    前記携帯端末が、前記第2の通信工程を介して前記パケットが受信された場合に、前記パケットに含まれる前記電波強度情報に基づき前記携帯端末と前記情報処理装置との距離が距離閾値より短いと判定し、前記パケットに含まれる前記人感センサ情報に基づき前記情報処理装置でユーザが検出されたと判定した場合、認証要求を前記第2の通信工程を介して前記情報処理装置に送信するよう制御する第2の制御工程と、
    を含む情報処理方法。
  15. 情報処理装置が実行する情報処理方法であって、
    人感センサからの情報に基づいて人感センサ情報を取得する取得工程と、
    携帯端末と通信を行う通信工程と、
    前記取得工程により取得された人感センサ情報と電波強度情報とを含むパケットを、前記通信工程を介して一定時間ごとに前記携帯端末に送信するよう制御する制御工程と、
    を含む情報処理方法。
  16. 携帯端末が実行する情報処理方法であって、
    情報処理装置と通信を行う通信工程と、
    前記通信工程を介して前記情報処理装置よりパケットが受信された場合に、前記パケットに含まれる電波強度情報に基づき前記携帯端末と前記情報処理装置との距離が距離閾値より短いと判定し、前記パケットに含まれる人感センサ情報に基づき前記情報処理装置でユーザが検出されたと判定した場合、認証要求を、前記通信工程を介して前記情報処理装置に送信するよう制御する制御工程と、
    を含む情報処理方法。
  17. コンピュータに、
    人感センサからの情報に基づいて人感センサ情報を取得する取得工程と、
    携帯端末と通信を行う通信工程と、
    前記取得工程により取得された人感センサ情報と電波強度情報とを含むパケットを、前記通信工程を介して一定時間ごとに前記携帯端末に送信するよう制御する制御工程と、
    を実行させるためのプログラム。
  18. コンピュータに、
    情報処理装置と通信を行う通信工程と、
    前記通信工程を介して前記情報処理装置よりパケットが受信された場合に、前記パケットに含まれる電波強度情報に基づき前記コンピュータと前記情報処理装置との距離が距離閾値より短いと判定し、前記パケットに含まれる人感センサ情報に基づき前記情報処理装置でユーザが検出されたと判定した場合、認証要求を、前記通信工程を介して前記情報処理装置に送信するよう制御する制御工程と、
    を実行させるためのプログラム。
JP2016027201A 2016-02-16 2016-02-16 システム、情報処理装置、携帯端末、情報処理方法及びプログラム Pending JP2017146732A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016027201A JP2017146732A (ja) 2016-02-16 2016-02-16 システム、情報処理装置、携帯端末、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016027201A JP2017146732A (ja) 2016-02-16 2016-02-16 システム、情報処理装置、携帯端末、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2017146732A true JP2017146732A (ja) 2017-08-24

Family

ID=59683043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016027201A Pending JP2017146732A (ja) 2016-02-16 2016-02-16 システム、情報処理装置、携帯端末、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2017146732A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019113366A (ja) * 2017-12-21 2019-07-11 株式会社富士通アドバンストエンジニアリング 測定プログラム、及び測定システム
JP2020087403A (ja) * 2018-11-19 2020-06-04 株式会社リコー 情報処理システム、情報処理方法、プログラム
JP2020155946A (ja) * 2019-03-20 2020-09-24 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
WO2022009337A1 (ja) * 2020-07-08 2022-01-13 株式会社知財管理 情報管理システム、並びに、それに用いられる情報端末、情報管理プログラム、及び、情報管理方法
WO2022162857A1 (ja) * 2021-01-29 2022-08-04 エアトラスト株式会社 情報処理システム、情報処理方法、およびプログラム
US11854323B2 (en) 2020-12-18 2023-12-26 Moca System Inc. Access control method based on received signal strength indicator

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019113366A (ja) * 2017-12-21 2019-07-11 株式会社富士通アドバンストエンジニアリング 測定プログラム、及び測定システム
JP2020087403A (ja) * 2018-11-19 2020-06-04 株式会社リコー 情報処理システム、情報処理方法、プログラム
JP7225920B2 (ja) 2018-11-19 2023-02-21 株式会社リコー 情報処理システム、サーバ、情報処理方法及びプログラム
JP2020155946A (ja) * 2019-03-20 2020-09-24 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP7272033B2 (ja) 2019-03-20 2023-05-12 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
WO2022009337A1 (ja) * 2020-07-08 2022-01-13 株式会社知財管理 情報管理システム、並びに、それに用いられる情報端末、情報管理プログラム、及び、情報管理方法
US11854323B2 (en) 2020-12-18 2023-12-26 Moca System Inc. Access control method based on received signal strength indicator
WO2022162857A1 (ja) * 2021-01-29 2022-08-04 エアトラスト株式会社 情報処理システム、情報処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP2017146732A (ja) システム、情報処理装置、携帯端末、情報処理方法及びプログラム
US11465274B2 (en) Module type home robot
US11451947B2 (en) System, information processing apparatus, method, and storage medium storing a program
US9747537B2 (en) Power controlling device, image processing apparatus, computer readable medium, and power controlling method
EP2997669B1 (en) Communication method and device
US20190075460A1 (en) Authentication system, authentication control device, method of controlling authentication control device, and recording medium
CN106781242B (zh) 危险区域的预警方法和装置
KR20150106229A (ko) 사용자를 인증하는 장치 및 방법
CN105550552B (zh) 一种移动终端的保护方法及装置
US10021255B2 (en) Portable terminal device for selecting one of a plurality of output image processing devices by comparing radio wave strengths
US10325082B2 (en) Information processing apparatus, information processing system, authentication method, and recording medium
JP2016167679A (ja) 画像処理装置、情報処理装置、及び画像処理システム
JP2016178348A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
US20210021734A1 (en) Communication apparatus and control method for communication apparatus
US20220163650A1 (en) Electronic device for identifying attribute of object by using millimeter wave and control method therefor
KR20210078245A (ko) 무선 통신을 이용하여 출입을 제어하는 전자 장치 및 그 방법
JP2018007036A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP6759621B2 (ja) 情報処理システム、情報処理装置、認証方法およびプログラム
JP2014045271A (ja) 電力供給制御装置、画像処理装置、電力供給制御プログラム
JP2017107172A (ja) 画像形成装置、画像形成システム、認証方法およびプログラム
JP2017107542A (ja) 情報処理装置、情報処理システム、認証方法およびプログラム
JP6723871B2 (ja) 情報処理装置及びその制御方法、並びにプログラム
JP6819636B2 (ja) 表示装置及び表示プログラム
JP2018065270A (ja) 印刷装置および印刷装置制御プログラム
JP2016097653A (ja) 画像形成装置及び画像形成方法