JP4232252B2 - User identification system - Google Patents
User identification system Download PDFInfo
- Publication number
- JP4232252B2 JP4232252B2 JP01806699A JP1806699A JP4232252B2 JP 4232252 B2 JP4232252 B2 JP 4232252B2 JP 01806699 A JP01806699 A JP 01806699A JP 1806699 A JP1806699 A JP 1806699A JP 4232252 B2 JP4232252 B2 JP 4232252B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- data
- code
- light emitting
- badge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、利用者特定システムに関し、特に、広い面積を有する敷地または施設の利用者およびその位置を特定する利用者特定システムに関する。
【0002】
【従来の技術】
博物館、または遊園地若しくはゲームセンターなどのエンターテイメント施設等において、展示物の説明、またはアトラクションの為の設備の制御などにコンピュータが使用されることが、一般的になりつつある。これらの施設におけるコンピュータは、見学者または入場者などの利用者の属性(通過したルート、性別、年齢、使用言語など)とは無関係に、予め決められた動作をする。
【0003】
展示物の説明を求めたり、アトラクションの設備の動作を指示する為に、利用者がタッチパネルまたはキーボードなどからコンピュータを直接操作する場合、利用者がその属性を、そのつど入力しなければ、コンピュータは、利用者の属性に応じた動作をすることができない。また、博物館またはエンターテイメント施設などにおいて、利用者は不特定多数であり、誤動作の防止などのため、利用者によるコンピュータへの操作は、制限せざるを得ない。
【0004】
利用者の属性の識別の為に、無線によりIDコード等の送受信ができる、いわゆるIDタグの利用もあり得るが、IDタグと対応する通信装置との通信可能な距離は、通常、1乃至2メートル程度と限られているため、博物館またはエンターテイメント施設などの広い領域では、適用できる設備の範囲も限られ、また、多数の専用の通信装置を設置しなければならず、現実的ではない。
【0005】
【発明が解決しようとする課題】
このように、広い床面積または広い敷地を有する施設で、利用者の属性を識別することは困難であり、利用者の属性に合わせたサービスを提供することはできない。
【0006】
本発明はこのような状況に鑑みてなされたものであり、広い床面積または広い敷地を有する施設で、簡単な装置により、利用者の属性を識別し、利用者の属性に合わせたサービスを提供することができるようにすることを目的とする。
【0007】
【課題を解決するための手段】
請求項1に記載の利用者特定システムは、発信装置が、発光面が所定の長さを有し、所定のパターンで、時間経過とともに変化する輝度で発光する発光手段を含み、情報処理装置が、発光手段を撮像する撮像手段と、撮像手段により撮像された画像データ上の発光手段の画像の大きさおよび位置から、発信装置の3次元空間の位置を算出する位置算出手段と、撮像手段により撮像された、発光手段の画像データから、所定のパターンに対応するコードを算出するコード算出手段と、コードをデータ提供装置に送信し、データ提供装置から送信された利用者のデータを受信する第1の通信手段とを含み、データ提供装置が、コードと対応させ、利用者のデータを記憶する記憶手段と、コードを情報処理装置から受信し、記憶手段が記憶する利用者のデータを情報処理装置に送信する第2の通信手段と、第2の通信手段が受信したコードを基に、第2の通信手段が情報処理装置に送信する利用者のデータを記憶手段から検索する検索手段とを含むことを特徴とする。
【0008】
請求項6に記載の利用者特定システムは、発信装置は、相互の位置関係が明確で、所定のパターンで、時間経過とともに変化する輝度で発光する3以上の発光手段を含み、位置特定手段は、発光手段を撮像する撮像手段と、撮像手段により撮像された画像の発光手段の位置から、発信装置の3次元空間上の位置および角度を算出する位置算出手段と、撮像手段により撮像された、発光手段の画像データから、所定のパターンに対応するコードを算出するコード算出手段と、コードをデータ提供装置に送信し、データ提供装置から送信された利用者のデータを受信する第1の通信手段とを含み、データ提供装置は、コードと対応させ、利用者のデータを記憶する記憶手段と、コードを情報処理装置から受信し、記憶手段が記憶している利用者のデータを情報処理装置に送信する第2の通信手段と、第2の通信手段が受信したコードを基に、第2の通信手段が情報処理装置に送信する利用者のデータを記憶手段から検索する検索手段とを含むことを特徴とする。
【0021】
請求項1に記載の利用者特定システムにおいては、発信装置で、所定の長さおよび所定のパターンで、時間経過とともに変化する輝度で発光し、情報処理装置で、発信装置が撮像され、撮像された画像データ上の発信装置の画像の大きさおよび位置から、発信装置の3次元空間の位置が算出され、撮像された、発信装置の画像データから、所定のパターンに対応するコードが算出され、コードがデータ提供装置に送信され、データ提供装置から送信された利用者のデータが受信され、データ提供装置で、コードと対応させ、利用者のデータが記憶され、コードが情報処理装置から受信され、記憶する利用者のデータが情報処理装置に送信され、受信したコードを基に、情報処理装置に送信する利用者のデータが検索される。
【0022】
請求項6に記載の利用者特定システムにおいては、発信装置で、3以上で相互の位置関係が明確で、所定のパターンで、時間経過とともに変化する輝度で発光され、位置特定手段で、発信装置が撮像され、撮像された画像の発光の位置から、発信装置の3次元空間上の位置および角度が算出され、撮像された、画像データから、所定のパターンに対応するコードが算出され、コードがデータ提供装置に送信され、データ提供装置から送信された利用者のデータが受信され、データ提供装置で、コードと対応させ、利用者のデータが記憶され、コードが情報処理装置から受信され、記憶している利用者のデータが情報処理装置に送信され、受信したコードを基に、情報処理装置に送信する利用者のデータが検索される。
【0027】
【発明の実施の形態】
図1は、本発明に係る利用者管理システムの一実施の形態の構成を説明する図である。利用者1−1は、バッジ15−1を装着し、博物館の展示室2−1の展示物を見学し、利用者1−2は、バッジ15−2を装着し、博物館の展示室2−2の展示物を見学し、利用者1−3は、バッジ15−3を装着し、博物館の展示室2−3の展示物を見学している。利用者1−1乃至1−3を個々に区別する必要がないとき、以下、単に利用者1と称する。バッジ15−1乃至15−3を個々に区別する必要がないとき、以下、単にバッジ15と称する。
【0028】
撮像装置11−1は、展示室2−1の所定の位置に設置され、展示室2−1の内部の利用者1−1の映像を含んだ画像をパーソナルコンピュータ12−2に出力する。撮像装置11−2は、展示室2−1の撮像装置11−1が設置されている位置とは異なる所定の位置に設置され、展示室2−1の内部の利用者1−1の映像を含んだ画像をパーソナルコンピュータ12−2に出力する。
【0029】
撮像装置11−3は、展示室2−2の所定の位置に設置され、展示室2−2の内部の利用者1−2の映像を含んだ画像をパーソナルコンピュータ12−3に出力する。撮像装置11−4は、展示室2−2の撮像装置11−3が設置されている位置とは異なる所定の位置に設置され、展示室2−2の内部の利用者1−2の映像を含んだ画像をパーソナルコンピュータ12−3に出力する。
【0030】
撮像装置11−5は、展示室2−3の所定の位置に設置され、展示室2−3の内部の利用者1−3の映像を含んだ画像をパーソナルコンピュータ12−4に出力する。撮像装置11−1乃至11−5を個々に区別する必要がないとき、以下、単に撮像装置11と称する。
【0031】
パーソナルコンピュータ12−1は、博物館の入り口に設置されている。受付の担当者は、利用者1の入場のとき、利用者1の名前、性別、年齢、使用言語などの属性のデータをパーソナルコンピュータ12−1に入力する。パーソナルコンピュータ12−1は、利用者1に装着させるバッジ15に所定のデータを供給し、そのデータおよび利用者1の属性のデータを、ネットワーク13を介して、サーバ14に送信する。サーバ14は、パーソナルコンピュータ12−1から供給された利用者1の名前、性別、年齢、使用言語などの属性のデータおよび利用者1に装着させるバッジ15に供給した所定のデータを記憶する。
【0032】
パーソナルコンピュータ12−2は、撮像装置11−1および撮像装置11−2から供給された画像を基に、バッジ15−1を特定し、バッジ15−1(すなわち、利用者1−1)の位置を算出して、ネットワーク13を介して、バッジ15−1を特定するデータおよびバッジ15−1の位置を示すデータをサーバ14に供給する。
【0033】
パーソナルコンピュータ12−3は、撮像装置11−3および撮像装置11−4から供給された画像を基に、バッジ15−2を特定し、バッジ15−2の位置を算出して、ネットワーク13を介して、バッジ15−2を特定するデータおよびバッジ15−2の位置を示すデータをサーバ14に供給する。
【0034】
パーソナルコンピュータ12−4は、撮像装置11−5から供給された画像を基に、バッジ15−3を特定し、バッジ15−3の位置を算出して、ネットワーク13を介して、バッジ15−3を特定するデータおよびバッジ15−3の位置を示すデータをサーバ14に供給する。パーソナルコンピュータ12−1乃至12−4を個々に区別する必要がないとき、以下、単にパーソナルコンピュータ12と称する。
【0035】
サーバ14は、パーソナルコンピュータ12−2から供給されたバッジ15−1を特定するデータを利用者1−1を特定するデータに変換し、バッジ15−1の位置を示すデータとともに記憶する。サーバ14は、パーソナルコンピュータ12−3から供給されたバッジ15−2を特定するデータを利用者1−2を特定するデータに変換し、利用者1−2の位置を示すデータとともに記憶する。サーバ14は、パーソナルコンピュータ12−4から供給されたバッジ15−3を特定するデータを利用者1−3を特定するデータに変換し、バッジ15−3の位置を示すデータとともに記憶する。サーバ14に記憶されるこれらのデータは、日付および時刻を示すデータが付される。
【0036】
博物館の管理者または博物館の展示物の説明をするシステムなどは、サーバ14に記憶されたこれらのデータから、利用者1−1乃至1−3の属性、現在位置、および移動の経歴を知ることができる。
【0037】
図2は、博物館を見学する利用者1が所定のバッジ15を装着した状態を説明する図である。利用者1は、博物館に入場するとき、バッジ15を受け取り、例えば、左胸などの所定の位置に固定する。バッジ15は、利用者1に引き渡す前に、所定のデータが記憶される。
【0038】
バッジ15は、赤外線を発する発光ダイオード31を備え、発光ダイオード31は、そのバッジ15の固有の明滅パターンで点滅する。バッジ15の発光ダイオード31の固有の明滅パターンは、利用者1に引き渡す前に、パーソナルコンピュータ12−1から入力されたデータ(以下、バッジ15のIDコードと称する)によって決定される。
【0039】
図3は、利用者1に引き渡す前に、バッジ15に所定のデータが記憶されるときの、バッジ15とパーソナルコンピュータ12−1との接続を説明する図である。バッジ15は、PCバッジインターフェース21に装着される。パーソナルコンピュータ12−1は、バッジ15のIDコードなどの所定のデータを、RS232Cポートから、PCバッジインターフェース21のRS232C変換回路23に出力する。PCバッジインターフェース21は、パーソナルコンピュータ12−1から受信したデータを、IDバッジインターフェース22が接続される信号端子32を介して、バッジ15に供給する。
【0040】
パーソナルコンピュータ12−1は、バッジ15に所定のデータを供給したとき、そのデータを、利用者1の属性のデータととも、通信ボードに接続されたネットワーク13を介して、サーバ14に供給する。パーソナルコンピュータ12−2乃至12−4は、バッジ15に入力したデータと利用者1の属性のデータを、サーバ14から受信する。
【0041】
PCバッジインターフェース21のIDバッジインターフェース22は、所定のデータに加えて、バッジ15の電源端子33およびアース端子34を介して、バッジ15に所定の電源を供給する。
【0042】
図4は、バッジ15の構成を説明するブロック図である。クロック発生回路35は、所定の周波数のクロック信号を生成し、Nbitカウンタ36および制御ロジック37に供給する。Nbitカウンタ36は、バッジ15の動作立ち上がりのとき、IDコードメモリ38からバッジ15のIDコードを読み取り、そのIDコードおよびクロック発生回路35から供給されたクロック信号を基準として、発光ダイオード31に発光させる信号をLEDドライバ39に供給する。
【0043】
制御ロジック37は、クロック発生回路35から供給された信号に同期してバッジ15全体を制御し、信号端子32を介してパーソナルコンピュータ12−1から供給された所定データを受信し、記憶する。また、制御ロジック37は、パーソナルコンピュータ12−1から受信した点滅パターンを指定するIDコードをIDコードメモリ38に記憶させる。
【0044】
LEDドライバ39は、Nbitカウンタ36から供給された信号を基に、発光ダイオード31を点灯させる所定の電力を発光ダイオード31に供給する。発光ダイオード31は、LEDドライバ39から供給された電力を基に、所定の点滅パターンで、赤外線を発する。
【0045】
電池40は、リチウム水素電池、またはリチウムイオン電池などで、電源端子33およびアース端子34を介して、PCバッジインターフェース21から供給された電力を蓄電し、DC/DCコンバータ40およびLEDドライバ39に電源を供給する。バッジ15の動作時間が短くても良い場合、電池40に代えて、スーパーキャパシタに蓄電するようにしてもよい。
【0046】
DC/DCコンバータ40は、電池40から供給された電源を所定の電圧に昇圧し、クロック発生回路35、Nbitカウンタ36、制御ロジック37、およびIDコードメモリ38に供給する。
【0047】
図5は、パーソナルコンピュータ12の構成を説明するブロック図である。CPU(central processing unit)71は、各種アプリケーションプログラムや、基本的なOS(operating system)を実際に実行する。ROM(read-only memory)72は、一般的には、CPU71が使用するプログラムや演算用のパラメータのうちの基本的に固定のデータを格納する。RAM(random-access memory)73は、CPU71の実行において使用するプログラムや、その実行において適宜変化するパラメータを格納する。これらはバス74により相互に接続されている。
【0048】
キーボード76は、CPU71に各種の指令を入力するとき、ユーザにより操作される。マウス77は、CRT(cathode ray tube)78の画面上のポイントの指示や選択を行うとき、ユーザにより操作される。CRT78は、各種情報をテキストやイメージで表示する。HDD(hard disk drive)79とFDD(floppy disk drive)80は、それぞれハードディスクまたはフロッピーディスクを駆動し、それらにCPU71によって実行するプログラムや情報を記録または再生させる。
【0049】
通信ボード81は、ネットワーク13と接続するための装置であり、具体的にはイーサネット(Ethernet)ボード等で構成される。RS232Cポート82は、RS232C規格に基づくケーブルが接続され、RS232C規格に基づく信号を送受信し、PCバッジインターフェース21に所定のデータを供給する。ビデオキャプチャボード83は、撮像装置11から供給された動画像の信号を入力し、動画像に含まれる静止画像を、デジタルデータとしてCPU71またはRAM73に供給する。
【0050】
これらのキーボード76乃至ビデオキャプチャボード83は、インターフェース75に接続されており、インターフェース75はバス74を介してCPU71に接続されている。
【0051】
図6は、撮像装置11の構成を示すブロック図である。CCD(Charge Coupled Device)ビデオカメラ102は、流し撮り駆動回路101により駆動され、いわゆる、流し撮像で、バッジ15の発光ダイオード31を撮像する。CCDビデオカメラ102は、流し撮像により得られたバッジ15の発光ダイオード31の点滅パターンの画像データをパーソナルコンピュータ12に出力する。フィルタ103は、発光ダイオード31から発光される発光点以外の光がCCDビデオカメラ102に入射されるのを抑制する光学フィルタで、CCDビデオカメラ102のレンズ部(図示せず)の前段に設けられている。
【0052】
次に、バッジ15から撮像装置11までの距離を算出する場合のパーソナルコンピュータ12のCPU71の処理手順を、図7および図8を参照して説明する。図7は、1/3インチ(縦3.6mm×横4.8mm)、縦492画素×横510画素、および画素の大きさが縦7.5μm×横9.6μmのCCD121を使用した、画角が60度のCCDビデオカメラ102で、バッジ15の発光ダイオード31を撮影している例を説明する上面図である。CCD121の1画素当たりの画角は、0.118度(=60度/510画素)である。
【0053】
バッジ15の発光ダイオード31の発光面の幅が10mmである場合、発光ダイオード31の画像がCCD121の1つの画素に撮像されているとき、図8に示されるように、発光ダイオード31の発光面からCCDビデオカメラ102の仮想原点までの距離L2は、4885mm(=5mm/tan(0.118/2))と、近似的に求められる。このとき、CCD121から仮想原点までの距離L3は、4.6mm(=4.8μm/tan(0.118/2))であるので、発光ダイオード31の発光面からCCD121までの距離L1は、ほぼ、L2に等しい。
【0054】
同様に、例えば、バッジ15の発光ダイオード31の発光面の幅が10mmである場合、発光ダイオード31の画像がCCD121の10の画素に撮像されているとき、発光ダイオード31の発光面からCCD121までの距離L1は、約48cmである。
【0055】
このように、発光ダイオード31の発光面からCCD121までの距離L1は、式(1)で算出される。
L1=(W/2)/(tan(θ/2)×N) (1)
Wは、発光ダイオード31の発光面の幅である。θは、CCD121の1つの画素が画角である。Nは、発光ダイオード31の画像が撮像されている画素の数である。
【0056】
以上のように、バッジ15の発光ダイオード31の発光面の幅、およびCCDビデオカメラ102の能力を基に、CCDビデオカメラ102が撮像する画像に含まれる発光ダイオード31の発光面の画像の大きさから、パーソナルコンピュータ12のCPU71は、バッジ15から撮像装置11までの距離を算出する。
【0057】
パーソナルコンピュータ12のCPU71は、CCDビデオカメラ102が撮像する画像を時系列に比較することにより、バッジ15の発光ダイオード31の点滅パターン、すなわちIDコードを検出することができる。
【0058】
また、撮像装置11のCCDビデオカメラ102が行う流し撮像した画像から、パーソナルコンピュータ12のCPU71は、バッジ15の発光ダイオード31の点滅パターン、すなわちIDコードを検出することもできる。ここで、撮像装置11のCCDビデオカメラ102が行う流し撮像について、図9乃至図11を参照して説明する。流し撮像とは、CCDビデオカメラ102に内蔵されるCCD撮像素子において、各画素を構成するホトダイオードの出力を、同一フィールドの期間中に、複数回、垂直転送CCDに転送する撮像方法を意味する。これに対して、通常の撮像方法では、各画素を構成するホトダイオードの出力が、同一フィールドの期間中に、1回だけ、垂直転送CCDに転送される。
【0059】
従って、バッジ15の発光ダイオード31が、例えば、図9(A)に示すように、1フィールドの期間中に、12HD(Horizontal Drive:水平走査周期)の期間、消灯し、次の12HDの期間、点灯する点滅パターン1を、2回繰り返すような場合、これを通常の撮像方法で撮像すると、1個の発光点が撮像されるだけである。しかしながら、これを、CCDビデオカメラ102が流し撮像し、図9(B)に示すように、2HDに1回の割合で、各画素を構成する発光ダイオードの出力を、垂直転送CCDに転送するようにすると、その結果得られる画像には、図9(C)に示すように、発光ダイオード31の出力(点灯または消灯)が、複数現れるようになる。なお、この例の場合、発光ダイオード31は、撮像画面上で、3ライン分の大きさを有するものとする。
【0060】
そこで、CCDビデオカメラ102から出力された、図9(C)に示すような画像がパーソナルコンピュータ12のビデオキャプチャボード83に供給されると、ビデオキャプチャボード83は、その画像にキャプチャ処理を施し、図10に示すような画像を生成する。上述したように、バッジ15の発光ダイオード31が3ラインで表されることから、各出力の像が前後の出力の像と一部重なるようになり、キャプチャされた画像の画素の輝度が段階的に変化している。
【0061】
例えば、ラインL8では発光ダイオード31の点灯している状態の画像が3回重畳されるので、最も明るい輝度Dとなり、ラインL7では、点灯している状態の画像が2回と、消灯している状態の画像が1回表示されるので、輝度Dより暗い輝度Cとなり、ラインL6では、点灯している状態の画像が1回と、消灯している状態の画像が2回表示されるので、輝度Cより暗い輝度Bとなり、ラインL5では消灯している状態の画像が3回表示されているので、輝度Bより暗い輝度Aとなる。
【0062】
さらに、ビデオキャプチャボード83から出力された、図10に示したような画像がCPU71に供給されると、CPU71は、その画像に2値化処理を施し、図11に示すような画像を生成する。この場合、図10に示す画像の輝度Aおよび輝度Bで表される輝度は、輝度L、そして輝度Cおよび輝度Dで表される輝度は、輝度Hとされる。また、輝度Hの画素の画素値は、”1”に、輝度Lの画素の画素値は”0”に符号化される。
【0063】
このように、流し撮像することより、1フィールド期間中の2回の輝度の時間的変化が、2個の空間的変化に変換される。本発明の実施の形態においては、この原理に基づいて、バッジ15の発光ダイオード31の発光の状態が観察される。
【0064】
次に、以上のようにして求められた空間的パターンに変換された画像データから、CCDビデオカメラ102のレンズとCCDを結ぶ線に垂直に交わる平面(画像の面)上の、輝点の位置を検出する場合のパーソナルコンピュータ12のCPU71の処理手順を説明する。
【0065】
図12(A)は、図13に示すように配置されたバッジ15−1の発光ダイオード31に対応する輝点Li1、バッジ15−2の発光ダイオード31に対応する輝点Li2、およびバッジ15−3の発光ダイオード31に対応する輝点Li3の点滅パターンの画像データが、空間的パターンに変換された例を表している。輝点Li1,Li2,Li3の位置を求める場合、パーソナルコンピュータ12のCPU71は、走査線上に配置された輝点の画素値”1”を、図12(B)に示すように、流し撮像された方向(この例の場合、z軸方向)に加算し、その加算の中からピークを求め、そのピークの位置するy軸上の座標を表示画像上の輝点のY座標とする。この表示例の場合、輝点Li1,Li2,Li3の表示画像上のY座標は、それぞれY1,Y2,Y3となる。
【0066】
一方、Z座標は、最初に発光した輝点のz軸上の座標が輝点の表示画像上のZ座標となる。この表示例の場合、流し撮像方向が負方向であることから、輝点1、輝点2、輝点3が最初に光始めた点であり、このことにより、輝点1、輝点2、輝点3のz軸上の座標である、Z1,Z2,Z3が、輝点Li1,Li2,Li3のZ座標となる。
【0067】
このようにして、CPU71は、図13に示すように、輝点Li1,Li2,Li3の表示画像上のY座標およびZ座標、すなわち(Y1,Z1),(Y2,Z2),(Y3,Z3)を求める。
【0068】
次に、輝点の点滅パターンを検知する場合のパーソナルコンピュータ12のCPU71の処理手順を、図14を参照して説明する。
【0069】
図14(A)は、図12の輝点Li1の空間的パターンを取りだして表示している。輝点Li1の状態を検出する場合、パーソナルコンピュータ12のCPU71は、Y座標Y1に対する、予め定められたばらつき範囲内(Y1-ΔY<Y<Y1+ΔY)の輝点を選択し、Y軸方向に加算し、図14(B)に示すように、そのピークを求める。次に、CPU71は、求められたピークを所定の閾値で2値化処理し、図14(C)に示すようなビットパターンの情報を生成する。このようにして求められたビットパターン(10101010)から輝点Li1の状態が検出される。この例の場合、輝点Li1は、8ビットのIDコードが抽出されるような点滅パターンで、輝点が点滅されている。
【0070】
このように、バッジ15が、バッジ15固有(すなわち、利用者1固有)の所定のパターンで輝点を発光し、それを上述したように流し撮像して処理することにより、バッジ15の位置およびIDコードを同時に検出することができる。
【0071】
従って、例えば、博物館の展示室2−1の内部を図15に示すような領域A乃至領域Iに分割すれば、パーソナルコンピュータ12−2は、撮像装置11−1または11−2から供給される画像から、所定の時間毎に(例えば、1/30秒毎に)、バッジ15のIDコードおよび位置(領域A乃至領域Iのいずれか)を示すデータを算出し、サーバ14に供給することができる。
【0072】
サーバ14は、パーソナルコンピュータ12−2乃至12−4から供給されたバッジ15のIDコードを利用者1を特定するユーザIDに変換し、バッジ15の位置を示すデータ、日付、および時刻と共に、例えば、表(1)のように記憶する。
<表1>
部屋番号 12;時刻 12時30分25秒;1998 7/10
ロケーション A B C D E F G ・・・
ユーザID 0001 1000 0001
部屋番号 13;時刻 12時30分25秒;1998 7/10
ロケーション A B C D E F G ・・・
ユーザID 0011 0101 0111
【0073】
パーソナルコンピュータ12または博物館の管理者は、サーバ14に記憶されている表(1)のデータを参照することにより、利用者1の現在位置および移動の履歴を知ることができる。
【0074】
次に、利用者管理システムが利用者1の移動を記憶する処理を、図16のフローチャートを参照して説明する。ステップS11において、博物館の入り口の担当者は、利用者1の名前、性別、年齢、使用言語などの属性のデータをパーソナルコンピュータ12−1に入力する。ステップS12において、博物館の入り口の担当者は、図示せぬスイッチを操作してバッジ15の電源を入れ、そのバッジ15をPCバッジインターフェース61に装着する。パーソナルコンピュータ12−1は、バッジ15のIDコードなど所定のデータを、PCバッジインターフェース61に装着されたバッジ15に送信し、バッジ15は、所定のデータを受信し、バッジ15のIDコードメモリ38などに記憶する。
【0075】
ステップS13において、パーソナルコンピュータ12−1のCPU71は、通信ボード81に、ステップS11で入力された利用者1の属性データおよびバッジに供給したIDコードなどの所定のデータをサーバ14に送信させ、サーバ14は、パーソナルコンピュータ12−1から供給されたデータを受信し、それらのデータを基にユーザを特定するユーザIDを生成する。サーバ14は、パーソナルコンピュータ12−1から供給されたデータおよびユーザIDを記憶する。
【0076】
ステップS14において、利用者1は、所定の発光パターンで発光ダイオード31が発光するバッジ15を、胸に固定する。
【0077】
ステップS15において、パーソナルコンピュータ12のCPU71は、撮像装置11から供給された画像を基に、バッジ15の発光ダイオード31の点滅のパターンを検出し、バッジ15のIDコードを求める。ステップS16において、パーソナルコンピュータ12のCPU71は、撮像装置11から供給された画像を基に、バッジ15の位置を算出する。
【0078】
ステップS17において、パーソナルコンピュータ12のCPU71は、通信ボード81に、ステップS15で求めたバッジ15のIDコード、およびステップS16で求めたバッジ15の位置をサーバ14に送信させ、サーバ14は、バッジ15のIDコードおよびバッジ15の位置を受信する。
【0079】
ステップS18において、サーバ14は、バッジ15のIDコードに対応する利用者のユーザIDを求め、利用者のユーザIDをバッジ15の位置、日付、および時刻とともに記憶する。
【0080】
以上のように、利用者管理システムは、バッジ15のIDコードおよび位置を求めることにより、利用者1の現在位置および移動の経歴を記憶する。
【0081】
図17は、図16のステップ12に対応するバッジ15の設定の処理の詳細を説明するフローチャートである。ステップS31において、バッジ15に電池40が装着されていない場合、博物館の入り口の担当者は、バッジ15に電池40を装着する。制御ロジック37は、内部のRAMをクリアする、スタックポインタを設定するなどの所定のイニシャライズの処理を実行する。ステップS32において、バッジ15の制御ロジック37は、イニシャライズが終了後、スリープモードになる。
【0082】
ステップS33において、制御ロジック37は、図示せぬ電源スイッチがONされているか否かを判定し、電源スイッチがOFFされていると判定された場合、ステップS33に戻り、電源スイッチがONされるまで、処理を繰り返す。ステップS33において、電源スイッチがONされていると判定された場合、手続きは、ステップS34に進み、制御ロジック37は、スリープモードを解除し、動作モードになる。
【0083】
ステップS35において、制御ロジック37は、信号端子32からデータが入力されているか否かを判定し、信号端子32からデータが入力されていないと判定された場合、ステップS35に戻り、信号端子32からデータが入力されるまで、判定の処理を繰り返す。ステップS35において、信号端子32からデータが入力されていると判定された場合、ステップS36に進み、制御ロジック37は、信号端子32から入力されているデータがIDコードであるか否かを判定する。ステップS36において、信号端子32から入力されているデータがIDコードであると判定された場合、制御ロジック37は、入力されたIDコードを受信し、IDコードメモリ38に記憶させる。
【0084】
ステップS36において、信号端子32から入力されているデータがIDコードでないと判定された場合、ステップS43に進み、制御ロジック37は、入力されているデータが日付のデータであるか否かを判定し、入力されているデータが日付のデータであると判定された場合、ステップS44に進み、制御ロジック37は、入力されている日付のデータを内部のメモリの所定のアドレスに記憶する。
【0085】
ステップS43において、入力されているデータが日付のデータでないと判定された場合、ステップS45に進み、制御ロジック37は、入力されているデータを内部のメモリの所定のアドレスに記憶する。
【0086】
ステップS38において、制御ロジック37は、必要なデータを入力したか否かを判定し、必要なデータが入力されていないと判定された場合、ステップS35に戻り、データの読み込みの処理を繰り返す。
【0087】
ステップS38において、必要なデータが入力されたと判定された場合、手続きは、ステップS39に進み、Nbitカウンタ36は、IDコードメモリ38に記憶されているIDコードを読み込み、クロック発生回路35から供給されるクロック信号を基に、点滅を指示する信号をLEDドライバ39に供給する。LEDドライバ39は、Nbitカウンタ36から供給される信号を基に、発光ダイオード31に所定のパターンで電力を供給し、発光ダイオード31は、所定のパターンで点滅する。
【0088】
ステップS40において、制御ロジック37は、電源スイッチがOFFされているか否かを判定し、電源スイッチがOFFされていないと判定された場合、ステップS39に戻り、バッジ15の発光ダイオード31は、発光を繰り返す。
【0089】
ステップS40において、電源スイッチがOFFされていると判定された場合、ステップS41に進み、制御ロジック37は、IDコードメモリ38に記憶されているIDコード、制御ロジックのメモリに記憶されている日付のデータおよびその他のデータをクリアする。ステップS42において、制御ロジック37は、スリープモードに入り、ステップS33に戻り、電源スイッチが入れられるまで待機する。
【0090】
以上のように、バッジ15は、電源スイッチがONされると、パーソナルコンピュータ12−1から、IDコードなどの所定のデータを読み込み、読み込んだIDコードに基づき、発光ダイオード31を発光させる。
【0091】
図18は、バッジ15の他の実施の形態を説明するブロック図である。図4の場合と同様な部分には、同一の番号を付してあり、その説明は省略する。マイクロプロセッサ121は、所定のメモリおよび入出力ポートなどを内蔵した、いわゆるワンチップマイコンである。電源スイッチ122は、プッシュ式のスイッチで、押すごとにONからOFF、またはOFFからONに切り替わり、ONまたはOFFそれぞれの状態に対応した信号をマイクロプロセッサ121に供給する。
【0092】
スイッチ123は、マイクロプロセッサ121の制御によりONまたはOFFの状態が切り替わる。スイッチ123がONのとき、電池39の電源が、LEDドライバ38およびDC/DCコンバータ40に供給され、スイッチ123がOFFのとき、電池39の電源は、LEDドライバ38およびDC/DCコンバータ40に供給されない。
【0093】
LCDディスプレイ124は、マイクロプロセッサ121から供給されるバッジ15の状態(例えば、電源スイッチ122がONになっている、マイクロプロセッサ121がスリープモードである、電池39の出力電圧が所定の電圧以下であるなど)を示すデータ、日付、バッジ15の有効期限、利用者1の名前など表示する。
【0094】
図18に示すバッジ15においては、バッジ15に電池39が装着されると、マイクロプロセッサ121は、電池39から供給されるスタンバイ電源により、イニシャライズを実行し、スリープモードとなる。スリープモードで電源スイッチ122がONになると、マイクロプロセッサ121は、スイッチ123をONさせ、電池39の電源をLEDドライバ38およびDC/DCコンバータ40に供給させ、図17のステップS35以降の処理を実行する。
【0095】
バッジ15の電源スイッチ122がONからOFFになると、マイクロプロセッサ121は、パーソナルコンピュータ12−1から受信したIDコード、日付、またはその他のデータをクリアし、スイッチ123をOFFさせ、電池39の電源のLEDドライバ38およびDC/DCコンバータ40への供給を停止させ、スリープモードに遷移する。
【0096】
図18に示すバッジ15は、図4に示すバッジ15に比較し、簡単な構成で実現が可能で、電池39の消耗を少なくできる。なお、電源スイッチ122に代えて、担当者のみが操作できるように、電源スイッチ122の接点を外部に露出させ、担当者は、所定の器具でその接点を短絡させるようにしてもよい。この場合、マイクロプロセッサ121は、その短絡により、モードを切り替えるようにする。
【0097】
図19は、バッジ15の更に他の実施の形態の背面の外観を示す図である。バッジ15は、バッジ15を利用者1に固定するためのクリップ151、およびクリップ151の先端部分がバッジ15と接触する部分に設けられた端子152を有する。クリップ151および端子152は、いずれも、金属、メッキされたプラスチック、または導電性プラスチックなどの導電材料で形成されている。図19のバッジ15は、図20のブロック図に示す構成を有する。すなわち、クリップ151および端子152は、電源スイッチ122の接点および接片を構成する。
【0098】
図19に示すバッジ15は、利用されないとき、電源スイッチ122が、クローズ(ON)となり、利用者1の衣服に装着されたとき(すなわち、使用されるとき)、電源スイッチ122が、オープン(OFF)となる。マイクロプロセッサ121は、電源スイッチ122がONのとき、通常動作モードになり、電源スイッチ122がOFFのとき、スリープモードになる。
【0099】
従って、図19に示すバッジ15おいては、電源スイッチ122として、プッシュ式などの専用のスイッチを設ける必要がなく、しかも、使用時のスイッチ122の操作の手間を省くことができる。
【0100】
また、クリップ151および端子152に代えて、図21に示すように、それぞれ、安全ピンの形状をした針161および針受け162で構成するようにしてもよい。針161および針受け162は、金属、メッキされたプラスチック、または導電性プラスチックなどの導電材料で形成されている。図21のバッジ15の針161および針受け162は、図19のバッジ15の場合と同様に、図20の電源スイッチ122の接点および接片を構成する。
【0101】
更に、図22のブロック図に示すように、バッジ15は、クリップ151および端子152、並びに針161および針受け162を有する構成としてもよい。バッジ15が図22の構成を有する場合、マイクロプロセッサ121は、バッジ15の装着または非装着の判定を、表(2)に示すように判定し、その判定の結果に基づき、スリープモードと通常動作モードの切り替えを実行する。
<表2>
クリップ151/端子152 針161/針受け162 判定
ON ON 装着
OFF ON 装着
ON OFF 非装着
OFF OFF 非装着
【0102】
針161が針受け162から外れている場合、安全の為、クリップ151および端子152がOFFのときでも、マイクロプロセッサ121は、非装着と判定する。
【0103】
次に、バッジ15の他の実施の形態、および、そのときのパーソナルコンピュータ12がバッジ15の位置を算出する処理を説明する。図23は、利用者1に装着されている他の実施の形態のバッジ15を示す図である。図23に示すバッジ15は、相互の位置関係が明確に把握されている発光ダイオード31−1乃至31−4を有する。発光ダイオード31−1乃至31−4は、所定の発光パターンで点滅する。
【0104】
図24は、図23に示すバッジ15の構成を示すブロック図である。図4に示す場合と同様な部分には、同一の番号を付してあり、その説明は省略する。Nbitカウンタ36−1は、バッジ15の動作立ち上がりのとき、IDコードメモリ38から所定のIDコードを読み取り、そのIDコードおよびクロック発生回路35から供給されたクロック信号を基準として、発光ダイオード31−1に発光させる信号をLEDドライバ39−1に供給する。LEDドライバ39−1は、Nbitカウンタ36−1から供給された信号を基に、発光ダイオード31−1を点灯させる所定の電力を発光ダイオード31−1に供給する。発光ダイオード31−1は、LEDドライバ39−1から供給された電力を基に、所定の点滅パターンで、赤外線を発光する。
【0105】
Nbitカウンタ36−2は、バッジ15の動作立ち上がりのとき、IDコードメモリ38から所定のIDコードを読み取り、そのIDコードおよびクロック発生回路35から供給されたクロック信号を基準として、発光ダイオード31−2に発光させる信号をLEDドライバ39−2に供給する。LEDドライバ39−2は、Nbitカウンタ36−2から供給された信号を基に、発光ダイオード31−2を点灯させる所定の電力を発光ダイオード31−2に供給する。発光ダイオード31−2は、LEDドライバ39−2から供給された電力を基に、所定の点滅パターンで、赤外線を発光する。
【0106】
Nbitカウンタ36−3は、バッジ15の動作立ち上がりのとき、IDコードメモリ38から所定のIDコードを読み取り、そのIDコードおよびクロック発生回路35から供給されたクロック信号を基準として、発光ダイオード31−3に発光させる信号をLEDドライバ39−3に供給する。LEDドライバ39−3は、Nbitカウンタ36−3から供給された信号を基に、発光ダイオード31−3を点灯させる所定の電力を発光ダイオード31−3に供給する。発光ダイオード31−3は、LEDドライバ39−3から供給された電力を基に、所定の点滅パターンで、赤外線を発光する。
【0107】
Nbitカウンタ36−4は、バッジ15の動作立ち上がりのとき、IDコードメモリ38から所定のIDコードを読み取り、そのIDコードおよびクロック発生回路35から供給されたクロック信号を基準として、発光ダイオード31−4に発光させる信号をLEDドライバ39−4に供給する。LEDドライバ39−4は、Nbitカウンタ36−4から供給された信号を基に、発光ダイオード31−4を点灯させる所定の電力を発光ダイオード31−4に供給する。発光ダイオード31−4は、LEDドライバ39−4から供給された電力を基に、所定の点滅パターンで、赤外線を発光する。
【0108】
次に、図23に示すバッジ15の位置を算出する、パーソナルコンピュータ12のCPU71の処理を説明する。まず、CPU71は、撮像装置11から供給された発光ダイオード31−1乃至31−4の画像から、消失点を算出する。CPU71が発光ダイオード31−1乃至31−4の画像から、消失点を算出する処理を図25を参照して説明する。
【0109】
以下の説明において、画像座標系は、CCDビデオカメラ102の視点を原点とする座標系である。画像面上の点aは、発光ダイオード31−1の画像を示し、画像面上の点bは、発光ダイオード31−2の画像を示し、画像面上の点cは、発光ダイオード31−3の画像を示し、画像面上の点dは、発光ダイオード31−4の画像を示す。
【0110】
まず、図25に示すように、消失点U(xu,yu)は、画像面上の点aおよび点bを通る直線ab、並びに点cおよび点dを通る直線cdの交点であり、消失点V(xv,yv)は、点aおよび点dを通る直線ad、並びに点bおよび点cを通る直線bcの交点である。直線abは、式(2)で表され、直線cdは、式(3)で表され、直線adは、式(4)で表され、直線bcは、式(5)で表される。
α1x+β1y=γ1 (2)
α2x+β2y=γ2 (3)
α3x+β3y=γ3 (4)
α4x+β4y=γ4 (5)
【0111】
従って、消失点U(xu,yu)の座標は、式(6)および式(7)で算出され、消失点V(xv,yv)の座標は、式(8)および式(9)で算出される。
xu=(β2γ1−β1γ2)/(α1β2−α2β1) (6)
yu=(α1γ2−α2γ1)/(α1β2−α2β1) (7)
xv=(β4γ3−β3γ4)/(α3β4−α4β3) (8)
yv=(α3γ4−α4γ3)/(α3β4−α4β3) (9)
【0112】
ここで、画像面上での点aの座標が(x1,y1)、点bの座標が(x2,y2)、点cの座標が(x3,y3)、および点dの座標が(x4,y4)であれば、α1,β1,γ1,α2,β2,γ2,α3,β3,γ3,α4,β4、およびγ4は、それぞれ式(10)、式(11)、式(12)、式(13)、式(14)、式(15)、式(16)、式(17)、式(18)、式(19)、式(20)、および式(21)で算出される。
α1=y1−y2 (10)
β1=−(x1−x2) (11)
γ1=x2y1−x1y2 (12)
α2=y3−y4 (13)
β2=−(x3−x4) (14)
γ2=x4y3−x3y4 (15)
α3=y1−y4 (16)
β3=−(x1−x4) (17)
γ3=x4y1−x1y4 (18)
α4=y2−y3 (19)
β4=−(x2−x3) (20)
γ4=x3y2−x2y3 (21)
【0113】
次に、CPU71は、消失点U(xu,yu)および消失点V(xv,yv)からバッジ15の傾きを算出する。図26に示すように、画像座標系上の座標点がレンズの焦点距離fで規格化できるように、画像座標系のz軸が画像面に垂直で、かつ、画像座標系のz=1に画像面が位置するように、画像座標系を設定する。空間中の点Pa(xa,ya,za)は、透視変換によって、画像面上の点pa(xa/za,ya/za)に投影される。
【0114】
点Pを通り、方向ベクトルv=(vx,vy,vz)を有する空間中の直線L上の点Plは、式(22)で表され、点Plを画像面に投影した点plは、式(23)で表される。
Pl=Pa+tv
=(xa+tvx,ya+tvy,za+tvz) (22)
pl=((xa+tvx)/(za+tvz),(ya+tvy)
/(za+tvz))
=((xa/t+vx)/(za/t+vz),
(ya/t+vy)/(za/t+vz)) (23)
【0115】
消失点は、ある方向ベクトルを有する直線を無限遠に伸ばしたときの投影像であるから、t→∞としたときのplが消失点であり、式(24)で表される。
【数1】
【0116】
空間中のある平面πの法線ベクトルn(ps,qs,−1)は、平面π上の任意の直線の方向ベクトルu=(ux,uy,uz)と直交するので、式(25)が成立し、式(25)を変形すれば式(26)が求まる。(以下、式中の”→”を付した変数は、ベクトルであることを示す)
【数2】
ps(ux/uz)+qs(uy/uz)=1 (26)
【0117】
式(26)の(ux/uz)および(uy/uz)は、式(24)に示されるように、消失点を表す。また、方向ベクトルuは、任意であるから、式(26)は、画像面上の消失点の集合、すなわち、消失線を表す。逆に、消失線ax+by=1があるとき、この消失線を有する平面の傾きは、(a,b,−1)である。従って、四角形ABCDの投影像である四角形abcdから求められる消失点U(xu,yu)および消失点V(xv,yv)を用いると、消失線は、式(27)で算出される。
((−yu+yv)/(xuyv−xvyu))x
+((xu−xv)/(xuyv−xvyu))y=1 (27)
【0118】
これより、四角形ABCDの法線ベクトルnabcdは、式(28)で表現できる。
【数3】
【0119】
法線ベクトルnabcdを正規化して、ベクトルNを求める。
【数4】
ただし、演算子||ベクトル||は、ベクトルの絶対値を求める演算子である。
【0120】
以上のように、CPU71は、バッジ15の発光ダイオード31−1乃至31−4の画像から、バッジ15の傾きを算出する。
【0121】
次に、CPU71は、バッジ15の傾きを基に、CCDビデオカメラ102からバッジ15までの距離を求める。図27は、CCDビデオカメラ102およびバッジ15を横から見た図である。点aを基準に算出される、画像座標系の原点oとバッジ座標系の原点O(発光ダイオード31−1と発光ダイオード31−3とを結ぶ直線と発光ダイオード31−2と発光ダイオード31−4とを結ぶ直線の交点)との距離daは、式(30)で算出される。
da=(‖AO‖sinθa)/(sin(θa+φa) (30)
ここで、‖AO‖は既知である。θaは、式(31)で定義され、φaは、式(32)で定義される角度である。
θa= oOA (31)
φa= oAO (32)
【0122】
同様に、点bを基準に算出される、画像座標系の原点oとバッジ座標系の原点Oとの距離db、点cを基準に算出される、画像座標系の原点oとバッジ座標系の原点Oとの距離dc、および点dを基準に算出される、画像座標系の原点oとバッジ座標系の原点Oとの距離ddを算出し、距離da、距離db、距離dc、および距離ddの平均が、画像座標系の原点oからバッジ座標系の原点Oまでの距離daveとされる。
【0123】
画像座標系の原点oからバッジ座標系の原点O(長方形ABCDの中心)へと向かう平行移動ベクトルtは、式(33)で算出される。
【数5】
【0124】
以上のように、画像の中のバッジの位置から、3次元上のバッジ15の位置(Xm,Ym,Zm)および角度(Rxm,Rym,Rzm)が計算される。このバッジ15の位置および角度を計算する処理の説明では、画像座標系のz=1に画像面が位置するとして説明したが、psおよびqsをCCDビデオカメラ102の焦点距離fで補正すれば、CCDビデオカメラ102の焦点距離fが1以外でも、正確な位置および角度が算出できる。
【0125】
なお、4つの発光ダイオード31がバッジ15に備えられているとして説明したが、3以上の相互に位置関係が明確な発光ダイオード31がバッジ15に備えられていれば、上記の処理により、バッジ15の位置および角度を求めることができる。
【0126】
また、発光ダイオード31−1乃至31−4が、それぞれ異なる所定の発光パターンで点滅すれば、CPU71は、画像面上の点a、点b、点c、および点dへの発光ダイオード31−1乃至31−4の対応が容易に算出できる。CPU71が、他の処理により、画像面上の点a、点b、点c、および点dへの発光ダイオード31−1乃至31−4の対応が算出できれば、例えば、発光ダイオード31−1乃至31−4が、同一の所定の発光パターンで点滅するようにしてもよい。
【0127】
あるいは、例えば、発光ダイオード31−1が所定の発光パターンで点滅するようにし、発光ダイオード31−2乃至31−4が、連続して点灯するようにし、CPU71のバッジ15の角度の算出範囲は、所定の範囲に特定するようにしてもよい。
【0128】
このように、本発明の利用管理者システムを利用すれば、広い面積の敷地または建物の利用者1の属性および現在位置を知ることができるので、例えば、利用者1が所定の展示物に近づいたとき、その利用者1のヘッドフォンに、利用者1がそれ以前に見学してきた展示物との違いを際立たせた説明を供給する、または、展示物の説明において、その利用者1の名前を呼びながら挨拶させるなどのきめ細かいサービスを提供できるようになる。
【0129】
最後に、本発明に係るコンピュータ利用者管理システムについて説明する。図28は、コンピュータ利用者管理システムの実施の形態を説明する図である。パーソナルコンピュータ12に接続されている撮像装置11は、パーソナルコンピュータ12の利用者1が装着しているバッジ15を撮像するように設置されている。パーソナルコンピュータ12は、撮像装置11が撮像した画像から利用者1が装着しているバッジ15のIDコードを識別する。パーソナルコンピュータ12は、ネットワーク13を介して接続されているサーバ14にバッジ15のIDコードを送信し、サーバ14にバッジ15のIDコードに対応させて登録されている利用者1のパーソナルコンピュータ12の利用を許可する否かを判定するためのデータの送信を要求する。
【0130】
パーソナルコンピュータ12は、利用者1のパーソナルコンピュータ12の利用を許可する否かを判定するためのデータを基に、パーソナルコンピュータ12の利用を許可するか否かを判定し、パーソナルコンピュータ12の利用を許可すると判定された場合、所定のメッセージをCRT78に表示し、キーボード76等の操作を許可する。パーソナルコンピュータ12の利用を許可しないと判定された場合、パーソナルコンピュータ12は、所定のメッセージをCRT78に表示し、キーボード76等の操作を受け付けない。
【0131】
以上のように、コンピュータ利用者管理システムは、簡単な構成で、所定の範囲にいる特定の利用者1にのみパーソナルコンピュータ12の利用を許可することができる。パーソナルコンピュータ12の前の所定の範囲に所定のバッジ15を装着した利用者1がいないとき、パーソナルコンピュータ12をバッジ15の認識の処理のみ実行させる低消費電力モードとし、パーソナルコンピュータ12の前の所定の範囲に所定のバッジ15を装着した利用者1がいるとき、パーソナルコンピュータ12を通常のモードとすれば、所定の期間にパーソナルコンピュータ12が消費する電力量を小さくすることができる。もちろん、利用者1毎に異なるパーソナルコンピュータ12の利用を許可し、または、利用者1毎にパーソナルコンピュータ12の利用の範囲(利用時間、読み出し若しくは書き込みできるファイル、または利用できるプログラムなど)を制限することもできる。
【0132】
なお、本明細書において、博物館などの施設として説明したが、広い敷地または広い床面積を有する工場(例えば、自動車の製造工場、または化学工場のプラントなど)に、本発明の利用者管理システムを適用すれば、ラインの管理者は、問題が発生したラインに一番近い担当者を即座に呼びだし、問題解決にあたらせることができる。
【0133】
また、研究所などにおいて、ゲストに内部を見学させる場合、ゲストに付き添いをつけなくても、ゲストの現在位置を把握することができ、更に、ドアの施錠と連動させれば、ゲスト毎に見学範囲を制限することができる。
【0134】
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものとする。
【0135】
また、上記したような処理を行うコンピュータプログラムをユーザに提供する提供媒体としては、磁気ディスク、CD-ROM、固体メモリなどの記録媒体の他、ネットワーク、衛星などの通信媒体を利用することができる。
【0136】
【発明の効果】
請求項1に記載の利用者特定システムによれば、発信装置で、所定の長さおよび所定のパターンで、時間経過とともに変化する輝度で発光し、情報処理装置で、発信装置が撮像され、撮像された画像データ上の発信装置の画像の大きさおよび位置から、発信装置の3次元空間の位置が算出され、撮像された、発信装置の画像データから、所定のパターンに対応するコードが算出され、コードがデータ提供装置に送信され、データ提供装置から送信された利用者のデータが受信され、データ提供装置で、コードと対応させ、利用者のデータが記憶され、コードが情報処理装置から受信され、記憶する利用者のデータが情報処理装置に送信され、受信したコードを基に、情報処理装置に送信する利用者のデータが検索されるようにしたので、広い床面積または広い敷地を有する施設で、簡単な装置により、利用者の属性を識別し、利用者の属性に合わせたサービスを提供することができるようになる。
【0137】
請求項6に記載の利用者特定システムによれば、発信装置で、3以上で相互の位置関係が明確で、所定のパターンで、時間経過とともに変化する輝度で発光され、位置特定手段で、発信装置が撮像され、撮像された画像の発光の位置から、発信装置の3次元空間上の位置および角度が算出され、撮像された、画像データから、所定のパターンに対応するコードが算出され、コードがデータ提供装置に送信され、データ提供装置から送信された利用者のデータが受信され、データ提供装置で、コードと対応させ、利用者のデータが記憶され、コードが情報処理装置から受信され、記憶している利用者のデータが情報処理装置に送信され、受信したコードを基に、情報処理装置に送信する利用者のデータが検索されるようにしたので、広い床面積または広い敷地を有する施設で、簡単な装置により、利用者の属性を識別し、利用者の属性に合わせたサービスを提供することができるようになる。
【図面の簡単な説明】
【図1】本発明に係る利用者管理システムの一実施の形態の構成を説明する図である。
【図2】博物館を見学する利用者1がバッジ15を装着した状態を説明する図である。
【図3】バッジ15とパーソナルコンピュータ12−1との接続を説明する図である。
【図4】バッジ15の構成を説明するブロック図である。
【図5】パーソナルコンピュータ12の構成を説明するブロック図である。
【図6】撮像装置11の構成を示すブロック図である。
【図7】バッジ15から撮像装置11までの距離を算出する場合のパーソナルコンピュータ12のCPU71の処理手順を説明する図である。
【図8】バッジ15から撮像装置11までの距離を算出する場合のパーソナルコンピュータ12のCPU71の処理手順を説明する図である。
【図9】流し撮像を説明する図である。
【図10】流し撮像を説明する図である。
【図11】流し撮像を説明する図である。
【図12】点滅パターンの画像データが、空間的パターンに変換された例を説明する図である。
【図13】バッジ15の配置を説明する図である。
【図14】輝点の点滅パターンを検知する場合のパーソナルコンピュータ12のCPU71の処理手順を説明する図である。
【図15】博物館の展示室2−1の内部の分割例を説明する図である。
【図16】利用者管理システムが利用者1の移動を記憶する処理を説明するフローチャートである。
【図17】バッジ15の設定の処理の詳細を説明するフローチャートである。
【図18】バッジ15の他の実施の形態を説明するブロック図である。
【図19】バッジ15の更に他の実施の形態の背面の外観を示す図である。
【図20】バッジ15の更に他の実施の形態の構成を説明するブロック図である。
【図21】バッジ15の更に他の実施の形態の背面の外観を示す図である。
【図22】バッジ15の更に他の実施の形態の構成を説明するブロック図である。
【図23】利用者1が他の実施の形態のバッジ15を装着した状態を説明する図である。
【図24】バッジ15の更に他の実施の形態の構成を説明するブロック図である。
【図25】バッジ15の位置を算出するCPU71の他の処理を説明する図である。
【図26】バッジ15の位置を算出するCPU71の他の処理を説明する図である。
【図27】バッジ15の位置を算出するCPU71の他の処理を説明する図である。
【図28】コンピュータ利用者管理システムの実施の形態を説明する図である。
【符号の説明】
11 撮像装置, 12 パーソナルコンピュータ, 13 ネットワーク,14 サーバ, 15 バッジ, 31 発光ダイオード, 71 CPU,81 通信ボード, 83 ビデオキャプチャボード, 101 流し撮り駆動回路, 102 CCDビデオカメラ[0001]
BACKGROUND OF THE INVENTION
The present invention User identification system In particular, identify users and locations of large sites or facilities User identification system About.
[0002]
[Prior art]
In an entertainment facility such as a museum or an amusement park or a game center, computers are being used to explain exhibitions or control facilities for attractions. Computers in these facilities operate in a predetermined manner regardless of the attributes of the users such as visitors or visitors (routes passed, sex, age, language used, etc.).
[0003]
When a user operates the computer directly from the touch panel or keyboard to request explanation of the exhibit or to instruct the operation of the attraction equipment, the computer will not enter unless the user inputs the attribute each time. , Can not operate according to the user's attributes. In museums or entertainment facilities, there are an unspecified number of users, and the operation of computers by users must be restricted to prevent malfunctions.
[0004]
A so-called ID tag that can transmit and receive an ID code and the like wirelessly can be used to identify the user's attributes. However, the communication distance between the ID tag and the corresponding communication device is usually 1 to 2. Since it is limited to about a meter, in a wide area such as a museum or an entertainment facility, the range of applicable equipment is limited, and a large number of dedicated communication devices must be installed, which is not practical.
[0005]
[Problems to be solved by the invention]
Thus, it is difficult to identify a user's attribute in a facility having a large floor area or a large site, and it is impossible to provide a service according to the user's attribute.
[0006]
The present invention has been made in view of such a situation. In a facility having a large floor area or a large site, a user can identify a user attribute with a simple device and provide a service according to the user attribute. The purpose is to be able to.
[0007]
[Means for Solving the Problems]
The user identification system according to
[0008]
The user specifying system according to claim 6 includes three or more light-emitting means that emit light at a luminance that changes with the passage of time in a predetermined pattern in which the positional relationship between the transmitting devices is clear, and the position specifying means includes: The imaging means for imaging the light emitting means, the position calculating means for calculating the position and angle in the three-dimensional space of the transmitter from the position of the light emitting means of the image taken by the imaging means, and the image taken by the imaging means. Code calculating means for calculating a code corresponding to a predetermined pattern from image data of the light emitting means, and first communication means for transmitting the code to the data providing apparatus and receiving user data transmitted from the data providing apparatus The data providing apparatus includes a storage unit that stores the user data in association with the code, and a user that stores the code from the information processing apparatus and stores the code. Based on the second communication means for transmitting the data to the information processing apparatus and the code received by the second communication means, the second communication means retrieves the user data to be transmitted to the information processing apparatus from the storage means. And a search means.
[0021]
In the user identification system according to
[0022]
The user identification system according to claim 6, wherein the positional relationship between the three or more transmitting devices is clear, light is emitted in a predetermined pattern with a luminance that changes with the passage of time, and the positional specifying means includes the transmitting device. , The position and angle of the transmitter in the three-dimensional space are calculated from the light emission position of the captured image, the code corresponding to the predetermined pattern is calculated from the captured image data, and the code is The data of the user transmitted to the data providing device is received, and the user data transmitted from the data providing device is received. The data providing device stores the user data in correspondence with the code. The code is received from the information processing device and stored. The user data being transmitted is transmitted to the information processing apparatus, and the user data transmitted to the information processing apparatus is searched based on the received code.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram for explaining the configuration of an embodiment of a user management system according to the present invention. The user 1-1 wears the badge 15-1 and observes the exhibits in the museum exhibition room 2-1, and the user 1-2 wears the badge 15-2 to display the museum exhibition room 2- The user 1-3 visits the exhibits in the museum exhibition room 2-3 by wearing the badge 15-3. When it is not necessary to distinguish the users 1-1 to 1-3, they are simply referred to as
[0028]
The imaging device 11-1 is installed at a predetermined position in the exhibition room 2-1, and outputs an image including an image of the user 1-1 inside the exhibition room 2-1 to the personal computer 12-2. The imaging device 11-2 is installed at a predetermined position different from the position where the imaging device 11-1 of the exhibition room 2-1 is installed, and displays an image of the user 1-1 inside the exhibition room 2-1. The included image is output to the personal computer 12-2.
[0029]
The imaging device 11-3 is installed at a predetermined position in the exhibition room 2-2, and outputs an image including an image of the user 1-2 inside the exhibition room 2-2 to the personal computer 12-3. The imaging device 11-4 is installed at a predetermined position different from the position where the imaging device 11-3 of the exhibition room 2-2 is installed, and displays an image of the user 1-2 inside the exhibition room 2-2. The included image is output to the personal computer 12-3.
[0030]
The imaging device 11-5 is installed at a predetermined position in the exhibition room 2-3, and outputs an image including an image of the user 1-3 inside the exhibition room 2-3 to the personal computer 12-4. When it is not necessary to individually distinguish the imaging devices 11-1 to 11-5, they are simply referred to as the
[0031]
The personal computer 12-1 is installed at the entrance of the museum. The person in charge of reception inputs data of attributes such as the name, gender, age, language used, etc. of the
[0032]
The personal computer 12-2 identifies the badge 15-1 based on the imaging device 11-1 and the image supplied from the imaging device 11-2, and the position of the badge 15-1 (that is, the user 1-1). And the data specifying the badge 15-1 and the data indicating the position of the badge 15-1 are supplied to the
[0033]
The personal computer 12-3 identifies the badge 15-2 based on the images supplied from the imaging device 11-3 and the imaging device 11-4, calculates the position of the badge 15-2, and transmits the position via the
[0034]
The personal computer 12-4 identifies the badge 15-3 based on the image supplied from the imaging device 11-5, calculates the position of the badge 15-3, and then via the
[0035]
The
[0036]
The system for explaining the museum administrator or the museum exhibits knows the attributes of the users 1-1 to 1-3, the current position, and the travel history from these data stored in the
[0037]
FIG. 2 is a diagram illustrating a state in which the
[0038]
The
[0039]
FIG. 3 is a diagram illustrating the connection between the
[0040]
When the personal computer 12-1 supplies predetermined data to the
[0041]
The
[0042]
FIG. 4 is a block diagram illustrating the configuration of the
[0043]
The
[0044]
The
[0045]
The
[0046]
The DC /
[0047]
FIG. 5 is a block diagram illustrating the configuration of the
[0048]
The
[0049]
The
[0050]
These
[0051]
FIG. 6 is a block diagram illustrating a configuration of the
[0052]
Next, the processing procedure of the
[0053]
When the width of the light emitting surface of the
[0054]
Similarly, for example, when the width of the light emitting surface of the
[0055]
Thus, the distance L1 from the light emitting surface of the
L1 = (W / 2) / (tan (θ / 2) × N) (1)
W is the width of the light emitting surface of the
[0056]
As described above, based on the width of the light emitting surface of the
[0057]
The
[0058]
Further, the
[0059]
Therefore, for example, as shown in FIG. 9A, the
[0060]
Therefore, when an image output from the
[0061]
For example, in line L8, the image of the
[0062]
Further, when the image as shown in FIG. 10 output from the
[0063]
As described above, by performing flow imaging, two temporal changes in luminance during one field period are converted into two spatial changes. In the embodiment of the present invention, the light emission state of the
[0064]
Next, the position of the bright spot on the plane (image plane) perpendicular to the line connecting the lens of the
[0065]
FIG. 12A shows a bright spot Li1 corresponding to the
[0066]
On the other hand, in the Z coordinate, the coordinate on the z-axis of the bright spot that is first emitted becomes the Z coordinate on the display image of the bright spot. In the case of this display example, since the shooting imaging direction is a negative direction, the
[0067]
In this way, as shown in FIG. 13, the
[0068]
Next, the processing procedure of the
[0069]
FIG. 14A shows the spatial pattern of the bright spot Li1 shown in FIG. When detecting the state of the bright spot Li1, the
[0070]
In this way, the
[0071]
Therefore, for example, if the interior of the museum exhibition room 2-1 is divided into areas A to I as shown in FIG. 15, the personal computer 12-2 is supplied from the imaging device 11-1 or 11-2. Data indicating the ID code and position (any one of the areas A to I) of the
[0072]
The
<Table 1>
Location ABC D E F G ...
User ID 0001 1000 0001
Location ABC D E F G ...
User ID 0011 0101 0111
[0073]
The administrator of the
[0074]
Next, the process in which the user management system stores the movement of the
[0075]
In step S13, the
[0076]
In step S14, the
[0077]
In step S <b> 15, the
[0078]
In step S17, the
[0079]
In step S18, the
[0080]
As described above, the user management system stores the current position and movement history of the
[0081]
FIG. 17 is a flowchart for explaining details of the setting process of the
[0082]
In step S33, the
[0083]
In step S35, the
[0084]
If it is determined in step S36 that the data input from the
[0085]
If it is determined in step S43 that the input data is not date data, the process proceeds to step S45, and the
[0086]
In step S38, the
[0087]
If it is determined in step S38 that necessary data has been input, the procedure proceeds to step S39, where the
[0088]
In step S40, the
[0089]
If it is determined in step S40 that the power switch is OFF, the process proceeds to step S41, and the
[0090]
As described above, when the power switch is turned on, the
[0091]
FIG. 18 is a block diagram for explaining another embodiment of the
[0092]
The
[0093]
The
[0094]
In the
[0095]
When the
[0096]
Compared with the
[0097]
FIG. 19 is a view showing the external appearance of the back surface of still another embodiment of the
[0098]
When the
[0099]
Therefore, in the
[0100]
Further, instead of the
[0101]
Furthermore, as shown in the block diagram of FIG. 22, the
<Table 2>
ON ON wearing
OFF ON wearing
ON OFF Not installed
OFF OFF Not installed
[0102]
When the
[0103]
Next, another embodiment of the
[0104]
FIG. 24 is a block diagram showing a configuration of the
[0105]
The Nbit counter 36-2 reads a predetermined ID code from the
[0106]
The Nbit counter 36-3 reads a predetermined ID code from the
[0107]
The Nbit counter 36-4 reads a predetermined ID code from the
[0108]
Next, the processing of the
[0109]
In the following description, the image coordinate system is a coordinate system with the viewpoint of the
[0110]
First, as shown in FIG. 25, the vanishing point U (x u , Y u ) Is an intersection of a straight line ab passing through the points a and b on the image plane and a straight line cd passing through the points c and d, and the vanishing point V (x v , Y v ) Is an intersection of a straight line ad passing through the points a and d and a straight line bc passing through the points b and c. The straight line ab is represented by Expression (2), the straight line cd is represented by Expression (3), the straight line ad is represented by Expression (4), and the straight line bc is represented by Expression (5).
α 1 x + β 1 y = γ 1 (2)
α 2 x + β 2 y = γ 2 (3)
α Three x + β Three y = γ Three (4)
α Four x + β Four y = γ Four (5)
[0111]
Therefore, the vanishing point U (x u , Y u ) Coordinates are calculated by Equation (6) and Equation (7), and the vanishing point V (x v , Y v ) Coordinates are calculated by equation (8) and equation (9).
x u = (Β 2 γ 1 -Β 1 γ 2 ) / (Α 1 β 2 -Α 2 β 1 (6)
y u = (Α 1 γ 2 -Α 2 γ 1 ) / (Α 1 β 2 -Α 2 β 1 (7)
x v = (Β Four γ Three -Β Three γ Four ) / (Α Three β Four -Α Four β Three (8)
y v = (Α Three γ Four -Α Four γ Three ) / (Α Three β Four -Α Four β Three (9)
[0112]
Here, the coordinates of the point a on the image plane are (x 1 , Y 1 ), The coordinates of point b are (x 2 , Y 2 ), The coordinates of point c are (x Three , Y Three ), And the coordinates of the point d are (x Four , Y Four ) 1 , Β 1 , Γ 1 , Α 2 , Β 2 , Γ 2 , Α Three , Β Three , Γ Three , Α Four , Β Four , And γ Four Are the equations (10), (11), (12), (13), (14), (15), (16), (17), (18), ( 19), equation (20), and equation (21).
α 1 = Y 1 -Y 2 (10)
β 1 =-(X 1 -X 2 (11)
γ 1 = X 2 y 1 -X 1 y 2 (12)
α 2 = Y Three -Y Four (13)
β 2 =-(X Three -X Four (14)
γ 2 = X Four y Three -X Three y Four (15)
α Three = Y 1 -Y Four (16)
β Three =-(X 1 -X Four (17)
γ Three = X Four y 1 -X 1 y Four (18)
α Four = Y 2 -Y Three (19)
β Four =-(X 2 -X Three (20)
γ Four = X Three y 2 -X 2 y Three (21)
[0113]
Next, the
[0114]
Passing through point P, direction vector v = (v x , V y , V z ) On the straight line L in the space having l Is represented by equation (22), and the point P l Point p projected onto the image plane l Is represented by equation (23).
P l = P a + Tv
= (X a + Tv x , Y a + Tv y , Z a + Tv z (22)
p l = ((X a + Tv x ) / (Z a + Tv z ), (Y a + Tv y )
/ (Z a + Tv z ))
= ((X a / T + v x ) / (Z a / T + v z ),
(Y a / T + v y ) / (Z a / T + v z )) (23)
[0115]
Since the vanishing point is a projection image when a straight line having a certain direction vector is extended to infinity, p at t → ∞ is set. l Is the vanishing point and is represented by the formula (24).
[Expression 1]
[0116]
A normal vector n (p of a plane π in space s , Q s , −1) is the direction vector u = (u x , U y , U z ), The equation (25) is established, and the equation (26) is obtained by modifying the equation (25). (Hereafter, variables with “→” in the formula indicate that they are vectors)
[Expression 2]
p s (U x / U z ) + Q s (U y / U z ) = 1 (26)
[0117]
(U) in equation (26) x / U z ) And (u y / U z ) Represents the vanishing point as shown in the equation (24). Further, since the direction vector u is arbitrary, Expression (26) represents a set of vanishing points on the image plane, that is, a vanishing line. Conversely, when there is a vanishing line ax + by = 1, the inclination of the plane having the vanishing line is (a, b, −1). Therefore, the vanishing point U (x u , Y u ) And vanishing point V (x v , Y v ) Is used to calculate the vanishing line by equation (27).
((-Y u + Y v ) / (X u y v -X v y u )) X
+ ((X u -X v ) / (X u y v -X v y u )) Y = 1 (27)
[0118]
From this, the normal vector n of the rectangle ABCD abcd Can be expressed by equation (28).
[Equation 3]
[0119]
Normal vector n abcd Is normalized to obtain a vector N.
[Expression 4]
However, the operator || vector || is an operator for obtaining the absolute value of the vector.
[0120]
As described above, the
[0121]
Next, the
d a = (‖AO‖sinθ a ) / (Sin (θ a + Φ a (30)
Here, ‖AO‖ is known. θ a Is defined by equation (31) and φ a Is an angle defined by equation (32).
θ a = OOA (31)
φ a = OAO (32)
[0122]
Similarly, the distance d between the origin o of the image coordinate system and the origin O of the badge coordinate system, calculated based on the point b b The distance d between the origin o of the image coordinate system and the origin O of the badge coordinate system, calculated based on the point c c , And the distance d between the origin o of the image coordinate system and the origin O of the badge coordinate system, calculated on the basis of the point d d And the distance d a , Distance d b , Distance d c , And distance d d Is the distance d from the origin o of the image coordinate system to the origin O of the badge coordinate system ave It is said.
[0123]
A translation vector t from the origin o of the image coordinate system to the origin O (the center of the rectangle ABCD) of the badge coordinate system is calculated by Expression (33).
[Equation 5]
[0124]
As described above, from the position of the badge in the image, the position (X m , Y m , Z m ) And angle (Rx m , Ry m , Rz m ) Is calculated. In the description of the processing for calculating the position and angle of the
[0125]
In addition, although demonstrated that the four
[0126]
If the light emitting diodes 31-1 to 31-4 blink with different predetermined light emission patterns, the
[0127]
Alternatively, for example, the light emitting diode 31-1 blinks in a predetermined light emitting pattern, the light emitting diodes 31-2 to 31-4 are continuously lit, and the calculation range of the angle of the
[0128]
As described above, by using the use manager system of the present invention, it is possible to know the attributes and the current position of the
[0129]
Finally, a computer user management system according to the present invention will be described. FIG. 28 is a diagram for explaining an embodiment of a computer user management system. The
[0130]
The
[0131]
As described above, the computer user management system can permit the use of the
[0132]
In this specification, although described as a facility such as a museum, the user management system of the present invention is applied to a factory (for example, a car manufacturing factory or a chemical factory plant) having a large site or a large floor area. If applied, the manager of the line can immediately call the person in charge closest to the line where the problem has occurred to solve the problem.
[0133]
In addition, when inspecting the inside of a guest in a laboratory, etc., the current position of the guest can be grasped without accompanying the guest. The range can be limited.
[0134]
In the present specification, the term “system” represents the entire apparatus including a plurality of apparatuses.
[0135]
Further, as a providing medium for providing a computer program for performing the processing as described above to a user, a communication medium such as a network or a satellite can be used in addition to a recording medium such as a magnetic disk, a CD-ROM, or a solid-state memory. .
[0136]
【The invention's effect】
According to the user identification system of
[0137]
According to the user specifying system according to claim 6, at the transmission device, the mutual positional relationship is clear at 3 or more, light is emitted in a predetermined pattern with a luminance that changes over time, and the position specifying means transmits the light. The device is imaged, the position and angle of the transmitting device in the three-dimensional space are calculated from the light emission position of the captured image, and a code corresponding to a predetermined pattern is calculated from the imaged image data. Is transmitted to the data providing device, the user data transmitted from the data providing device is received, the data providing device is associated with the code, the user data is stored, the code is received from the information processing device, The stored user data is sent to the information processing device, and the user data to be sent to the information processing device is searched based on the received code. Other facilities with large site, a simple device, to identify the attributes of the user, it is possible to provide a service tailored to attributes of a user.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating the configuration of an embodiment of a user management system according to the present invention.
FIG. 2 is a diagram illustrating a state in which a
FIG. 3 is a diagram for explaining a connection between a
4 is a block diagram illustrating a configuration of a
FIG. 5 is a block diagram illustrating a configuration of a
6 is a block diagram illustrating a configuration of an
FIG. 7 is a diagram illustrating a processing procedure of the
FIG. 8 is a diagram for explaining the processing procedure of the
FIG. 9 is a diagram illustrating sink imaging.
FIG. 10 is a diagram illustrating sink imaging.
FIG. 11 is a diagram illustrating sink imaging.
FIG. 12 is a diagram illustrating an example in which image data of a blinking pattern is converted into a spatial pattern.
FIG. 13 is a diagram for explaining the arrangement of
FIG. 14 is a diagram illustrating a processing procedure of the
FIG. 15 is a diagram for explaining an example of division inside the exhibition room 2-1 of the museum.
FIG. 16 is a flowchart illustrating a process in which the user management system stores the movement of the
FIG. 17 is a flowchart for explaining details of a setting process of a
18 is a block diagram illustrating another embodiment of the
FIG. 19 is a view showing the appearance of the back surface of still another embodiment of the
FIG. 20 is a block diagram illustrating a configuration of still another embodiment of the
FIG. 21 is a view showing the external appearance of the back surface of still another embodiment of the
FIG. 22 is a block diagram illustrating the configuration of still another embodiment of the
FIG. 23 is a diagram illustrating a state in which a
FIG. 24 is a block diagram illustrating a configuration of still another embodiment of the
FIG. 25 is a diagram for explaining another process of the
FIG. 26 is a diagram for explaining another process of the
FIG. 27 is a diagram illustrating another process of the
FIG. 28 is a diagram for explaining an embodiment of a computer user management system.
[Explanation of symbols]
DESCRIPTION OF
Claims (9)
前記発信装置は、
発光面が所定の長さを有し、所定のパターンで、時間経過とともに変化する輝度で発光する発光手段
を含み、
前記情報処理装置は、
前記発光手段を撮像する撮像手段と、
前記撮像手段により撮像された画像データ上の前記発光手段の画像の大きさおよび位置から、前記発信装置の3次元空間の位置を算出する位置算出手段と、
前記撮像手段により撮像された、前記発光手段の画像データから、前記所定のパターンに対応するコードを算出するコード算出手段と、
前記コードを前記データ提供装置に送信し、前記データ提供装置から送信された前記利用者のデータを受信する第1の通信手段と
を含み、
前記データ提供装置は、
前記コードと対応させ、前記利用者のデータを記憶する記憶手段と、
前記コードを前記情報処理装置から受信し、受信した前記コードに対応する、前記記憶手段が記憶する前記利用者のデータを前記情報処理装置に送信する第2の通信手段と、
前記第2の通信手段が受信した前記コードを基に、前記第2の通信手段が前記情報処理装置に送信する前記利用者のデータを前記記憶手段から検索する検索手段と
を含むことを特徴とする利用者特定システム。In a user identification system comprising a transmission device worn at a predetermined position of a user's body, an information processing device for identifying the transmission device, and a data providing device for providing data of a user wearing the transmission device,
The transmitting device is
A light emitting means having a predetermined length, a light emitting means for emitting light in a predetermined pattern with a luminance that changes over time;
The information processing apparatus includes:
Imaging means for imaging the light emitting means;
Position calculating means for calculating the position of the transmitter in the three-dimensional space from the size and position of the image of the light emitting means on the image data captured by the imaging means;
Code calculating means for calculating a code corresponding to the predetermined pattern from the image data of the light emitting means imaged by the imaging means;
First communication means for transmitting the code to the data providing device and receiving the data of the user transmitted from the data providing device;
The data providing device includes:
Storage means for storing the user data in association with the code;
Second communication means for receiving the code from the information processing apparatus and transmitting the user data stored in the storage means corresponding to the received code to the information processing apparatus;
Search means for searching the storage means for the user data transmitted from the second communication means to the information processing device based on the code received by the second communication means. User identification system.
ことを特徴とする請求項1に記載の利用者特定システム。The user identification system according to claim 1, wherein the light emitting means emits light in the infrared.
前記コード算出手段は、流し撮像された前記発光手段の画像データから、前記所定のパターンに対応するコードを算出する
ことを特徴とする請求項1に記載の利用者特定システム。The imaging means flows the light emitting means to take an image,
The user specifying system according to claim 1, wherein the code calculating unit calculates a code corresponding to the predetermined pattern from the image data of the light-emitting unit that has been picked up.
を更に含むことを特徴とする請求項1に記載の利用者特定システム。The said information processing apparatus further contains the determination means which determines whether the said user is permitted to use the said information processing apparatus based on the said user's data. User identification system.
前記第2の通信手段は、前記発信装置の3次元空間の位置を受信し、
前記記憶手段は、受信した前記発信装置の3次元空間の位置に対応して、前記利用者の所定のデータを記憶する
ことを特徴とする請求項1に記載の利用者特定システム。The first communication means transmits the position of the transmitting device in a three-dimensional space to the data providing device,
The second communication means receives a position of the transmitting device in a three-dimensional space;
The user specifying system according to claim 1, wherein the storage unit stores predetermined data of the user corresponding to the received position of the transmitting device in a three-dimensional space.
前記発信装置は、
相互に所定の位置に配置され、所定のパターンで、時間の経過とともに変化する輝度で発光する3個以上の発光手段
を含み、
前記情報処理装置は、
前記発光手段を撮像する撮像手段と、
前記撮像手段により撮像された画像の前記発光手段の位置から、前記発信装置の3次元空間上の位置および角度を算出する位置算出手段と、
前記撮像手段により撮像された、前記発光手段の画像データから、前記所定のパターンに対応するコードを算出するコード算出手段と、
前記コードを前記データ提供装置に送信し、前記データ提供装置から送信された前記利用者のデータを受信する第1の通信手段と
を含み、
前記データ提供装置は、
前記コードと対応させ、前記利用者のデータを記憶する記憶手段と、
前記コードを前記情報処理装置から受信し、受信した前記コードに対応する、前記記憶手段が記憶している前記利用者のデータを前記情報処理装置に送信する第2の通信手段と、
前記第2の通信手段が受信した前記コードを基に、前記第2の通信手段が前記情報処理装置に送信する前記利用者のデータを前記記憶手段から検索する検索手段と
を含むことを特徴とする利用者特定システム。In a user identification system comprising a transmission device worn at a predetermined position of a user's body, an information processing device for identifying the transmission device, and a data providing device for providing data of a user wearing the transmission device,
The transmitting device is
Including three or more light-emitting means that are arranged at predetermined positions with respect to each other and emit light with a predetermined pattern and with a luminance that changes over time;
The information processing apparatus includes:
Imaging means for imaging the light emitting means;
Position calculating means for calculating the position and angle of the transmitter in a three-dimensional space from the position of the light emitting means of the image captured by the imaging means;
Code calculating means for calculating a code corresponding to the predetermined pattern from the image data of the light emitting means imaged by the imaging means;
First communication means for transmitting the code to the data providing device and receiving the data of the user transmitted from the data providing device;
The data providing device includes:
Storage means for storing the user data in association with the code;
Second communication means for receiving the code from the information processing apparatus and transmitting the user data stored in the storage means corresponding to the received code to the information processing apparatus;
Search means for searching the storage means for the user data transmitted from the second communication means to the information processing device based on the code received by the second communication means. User identification system.
ことを特徴とする請求項6に記載の利用者特定システム。The user identification system according to claim 6, wherein the light emitting means emits light in the infrared.
ことを特徴とする請求項6に記載の利用者特定システム。The user identification system according to claim 6, wherein the light emitting means emits light with different predetermined light emission patterns.
前記コード算出手段は、流し撮像された前記発光手段の画像データから、前記所定のパターンに対応するコードを算出する
ことを特徴とする請求項6に記載の利用者特定システム。 The imaging means flows the light emitting means to take an image,
The user specifying system according to claim 6, wherein the code calculating unit calculates a code corresponding to the predetermined pattern from the image data of the light emitting unit that has been picked up .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01806699A JP4232252B2 (en) | 1999-01-27 | 1999-01-27 | User identification system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01806699A JP4232252B2 (en) | 1999-01-27 | 1999-01-27 | User identification system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000214945A JP2000214945A (en) | 2000-08-04 |
JP4232252B2 true JP4232252B2 (en) | 2009-03-04 |
Family
ID=11961315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01806699A Expired - Fee Related JP4232252B2 (en) | 1999-01-27 | 1999-01-27 | User identification system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4232252B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4348576B2 (en) * | 1999-07-08 | 2009-10-21 | ソニー株式会社 | Image processing apparatus and method, and recording medium |
JP3843321B2 (en) | 2002-11-27 | 2006-11-08 | 独立行政法人産業技術総合研究所 | Information support system |
JP4110478B2 (en) | 2004-09-02 | 2008-07-02 | ソニー株式会社 | Image processing apparatus and method, photographing apparatus, and program |
JP4600810B2 (en) * | 2004-10-07 | 2010-12-22 | 日本ビクター株式会社 | Monitoring system and authentication method in monitoring system |
JP4839764B2 (en) * | 2005-09-30 | 2011-12-21 | 富士ゼロックス株式会社 | Monitoring system |
JP4856585B2 (en) * | 2007-06-07 | 2012-01-18 | 株式会社ユニバーサルエンターテインメント | Personal identification communication system and program executed in personal identification communication system |
JP2011048547A (en) * | 2009-08-26 | 2011-03-10 | Toshiba Corp | Abnormal-behavior detecting device, monitoring system, and abnormal-behavior detecting method |
JP2018529154A (en) * | 2015-07-31 | 2018-10-04 | ゼッホティヒ, ジュリア エス.SOCHTIG, Julia S. | Communication apparatus and method for communicating with friends |
CN107280153A (en) * | 2017-08-11 | 2017-10-24 | 吉林建筑大学 | A kind of Electronic school badges with positioning function |
JP7136141B2 (en) * | 2020-02-07 | 2022-09-13 | カシオ計算機株式会社 | Information management device, information management method and program |
-
1999
- 1999-01-27 JP JP01806699A patent/JP4232252B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000214945A (en) | 2000-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106164982B (en) | Electronic equipment positioning based on image | |
US10241565B2 (en) | Apparatus, system, and method of controlling display, and recording medium | |
CN105830367B (en) | Visible light communication method, identification signal and reception device | |
US20090241039A1 (en) | System and method for avatar viewing | |
JP4232252B2 (en) | User identification system | |
JP2007266959A (en) | Remote control system | |
US9843727B2 (en) | Image capturing apparatus and image capturing method | |
JP2018117368A (en) | Communication method, communication device, and program | |
CN109302569A (en) | A kind of image imaging method and device of mobile terminal | |
WO2015075849A1 (en) | Communication method | |
KR102027959B1 (en) | Augmented Reality provider system using head mounted display device for attached type | |
CN110852850A (en) | Shared article recommendation method and device, computer equipment and storage medium | |
CN112328091A (en) | Barrage display method and device, terminal and storage medium | |
JP2013054542A (en) | Image display device, image display system, and program | |
WO2019189768A1 (en) | Communication method, communication device, transmitter, and program | |
JP2018207151A (en) | Display device, reception device, program, and control method of reception device | |
CN115904188A (en) | Method and device for editing house-type graph, electronic equipment and storage medium | |
JP2012088984A (en) | Portable terminal, image display device and image display system | |
JP4167447B2 (en) | Object localization system | |
CN111064657B (en) | Method, device and system for grouping concerned accounts | |
CN112051919B (en) | Interaction method and interaction system based on position | |
CN114498827A (en) | Operation method and device of cleaning robot, electronic device and medium | |
CN112950535A (en) | Video processing method and device, electronic equipment and storage medium | |
JP4296606B2 (en) | Electronic device and display method | |
CN110362203A (en) | Information processing method, device, storage medium and augmented reality equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081027 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081201 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111219 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111219 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121219 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |