JP4232252B2 - User identification system - Google Patents

User identification system Download PDF

Info

Publication number
JP4232252B2
JP4232252B2 JP01806699A JP1806699A JP4232252B2 JP 4232252 B2 JP4232252 B2 JP 4232252B2 JP 01806699 A JP01806699 A JP 01806699A JP 1806699 A JP1806699 A JP 1806699A JP 4232252 B2 JP4232252 B2 JP 4232252B2
Authority
JP
Japan
Prior art keywords
user
data
code
light emitting
badge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01806699A
Other languages
Japanese (ja)
Other versions
JP2000214945A (en
Inventor
純一 暦本
茂 田島
和彦 上田
信一郎 五味
司 吉村
大二 伊藤
安彦 市野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP01806699A priority Critical patent/JP4232252B2/en
Publication of JP2000214945A publication Critical patent/JP2000214945A/en
Application granted granted Critical
Publication of JP4232252B2 publication Critical patent/JP4232252B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、利用者特定システムに関し、特に、広い面積を有する敷地または施設の利用者およびその位置を特定する利用者特定システムに関する。
【0002】
【従来の技術】
博物館、または遊園地若しくはゲームセンターなどのエンターテイメント施設等において、展示物の説明、またはアトラクションの為の設備の制御などにコンピュータが使用されることが、一般的になりつつある。これらの施設におけるコンピュータは、見学者または入場者などの利用者の属性(通過したルート、性別、年齢、使用言語など)とは無関係に、予め決められた動作をする。
【0003】
展示物の説明を求めたり、アトラクションの設備の動作を指示する為に、利用者がタッチパネルまたはキーボードなどからコンピュータを直接操作する場合、利用者がその属性を、そのつど入力しなければ、コンピュータは、利用者の属性に応じた動作をすることができない。また、博物館またはエンターテイメント施設などにおいて、利用者は不特定多数であり、誤動作の防止などのため、利用者によるコンピュータへの操作は、制限せざるを得ない。
【0004】
利用者の属性の識別の為に、無線によりIDコード等の送受信ができる、いわゆるIDタグの利用もあり得るが、IDタグと対応する通信装置との通信可能な距離は、通常、1乃至2メートル程度と限られているため、博物館またはエンターテイメント施設などの広い領域では、適用できる設備の範囲も限られ、また、多数の専用の通信装置を設置しなければならず、現実的ではない。
【0005】
【発明が解決しようとする課題】
このように、広い床面積または広い敷地を有する施設で、利用者の属性を識別することは困難であり、利用者の属性に合わせたサービスを提供することはできない。
【0006】
本発明はこのような状況に鑑みてなされたものであり、広い床面積または広い敷地を有する施設で、簡単な装置により、利用者の属性を識別し、利用者の属性に合わせたサービスを提供することができるようにすることを目的とする。
【0007】
【課題を解決するための手段】
請求項1に記載の利用者特定システムは、発信装置が、発光面が所定の長さを有し、所定のパターンで、時間経過とともに変化する輝度で発光する発光手段を含み、情報処理装置が、発光手段を撮像する撮像手段と、撮像手段により撮像された画像データ上の発光手段の画像の大きさおよび位置から、発信装置の3次元空間の位置を算出する位置算出手段と、撮像手段により撮像された、発光手段の画像データから、所定のパターンに対応するコードを算出するコード算出手段と、コードをデータ提供装置に送信し、データ提供装置から送信された利用者のデータを受信する第1の通信手段とを含み、データ提供装置が、コードと対応させ、利用者のデータを記憶する記憶手段と、コードを情報処理装置から受信し、記憶手段が記憶する利用者のデータを情報処理装置に送信する第2の通信手段と、第2の通信手段が受信したコードを基に、第2の通信手段が情報処理装置に送信する利用者のデータを記憶手段から検索する検索手段とを含むことを特徴とする。
【0008】
請求項6に記載の利用者特定システムは、発信装置は、相互の位置関係が明確で、所定のパターンで、時間経過とともに変化する輝度で発光する3以上の発光手段を含み、位置特定手段は、発光手段を撮像する撮像手段と、撮像手段により撮像された画像の発光手段の位置から、発信装置の3次元空間上の位置および角度を算出する位置算出手段と、撮像手段により撮像された、発光手段の画像データから、所定のパターンに対応するコードを算出するコード算出手段と、コードをデータ提供装置に送信し、データ提供装置から送信された利用者のデータを受信する第1の通信手段とを含み、データ提供装置は、コードと対応させ、利用者のデータを記憶する記憶手段と、コードを情報処理装置から受信し、記憶手段が記憶している利用者のデータを情報処理装置に送信する第2の通信手段と、第2の通信手段が受信したコードを基に、第2の通信手段が情報処理装置に送信する利用者のデータを記憶手段から検索する検索手段とを含むことを特徴とする。
【0021】
請求項1に記載の利用者特定システムにおいては、発信装置で、所定の長さおよび所定のパターンで、時間経過とともに変化する輝度で発光し、情報処理装置で、発信装置が撮像され、撮像された画像データ上の発信装置の画像の大きさおよび位置から、発信装置の3次元空間の位置が算出され、撮像された、発信装置の画像データから、所定のパターンに対応するコードが算出され、コードがデータ提供装置に送信され、データ提供装置から送信された利用者のデータが受信され、データ提供装置で、コードと対応させ、利用者のデータが記憶され、コードが情報処理装置から受信され、記憶する利用者のデータが情報処理装置に送信され、受信したコードを基に、情報処理装置に送信する利用者のデータが検索される。
【0022】
請求項6に記載の利用者特定システムにおいては、発信装置で、3以上で相互の位置関係が明確で、所定のパターンで、時間経過とともに変化する輝度で発光され、位置特定手段で、発信装置が撮像され、撮像された画像の発光の位置から、発信装置の3次元空間上の位置および角度が算出され、撮像された、画像データから、所定のパターンに対応するコードが算出され、コードがデータ提供装置に送信され、データ提供装置から送信された利用者のデータが受信され、データ提供装置で、コードと対応させ、利用者のデータが記憶され、コードが情報処理装置から受信され、記憶している利用者のデータが情報処理装置に送信され、受信したコードを基に、情報処理装置に送信する利用者のデータが検索される。
【0027】
【発明の実施の形態】
図1は、本発明に係る利用者管理システムの一実施の形態の構成を説明する図である。利用者1−1は、バッジ15−1を装着し、博物館の展示室2−1の展示物を見学し、利用者1−2は、バッジ15−2を装着し、博物館の展示室2−2の展示物を見学し、利用者1−3は、バッジ15−3を装着し、博物館の展示室2−3の展示物を見学している。利用者1−1乃至1−3を個々に区別する必要がないとき、以下、単に利用者1と称する。バッジ15−1乃至15−3を個々に区別する必要がないとき、以下、単にバッジ15と称する。
【0028】
撮像装置11−1は、展示室2−1の所定の位置に設置され、展示室2−1の内部の利用者1−1の映像を含んだ画像をパーソナルコンピュータ12−2に出力する。撮像装置11−2は、展示室2−1の撮像装置11−1が設置されている位置とは異なる所定の位置に設置され、展示室2−1の内部の利用者1−1の映像を含んだ画像をパーソナルコンピュータ12−2に出力する。
【0029】
撮像装置11−3は、展示室2−2の所定の位置に設置され、展示室2−2の内部の利用者1−2の映像を含んだ画像をパーソナルコンピュータ12−3に出力する。撮像装置11−4は、展示室2−2の撮像装置11−3が設置されている位置とは異なる所定の位置に設置され、展示室2−2の内部の利用者1−2の映像を含んだ画像をパーソナルコンピュータ12−3に出力する。
【0030】
撮像装置11−5は、展示室2−3の所定の位置に設置され、展示室2−3の内部の利用者1−3の映像を含んだ画像をパーソナルコンピュータ12−4に出力する。撮像装置11−1乃至11−5を個々に区別する必要がないとき、以下、単に撮像装置11と称する。
【0031】
パーソナルコンピュータ12−1は、博物館の入り口に設置されている。受付の担当者は、利用者1の入場のとき、利用者1の名前、性別、年齢、使用言語などの属性のデータをパーソナルコンピュータ12−1に入力する。パーソナルコンピュータ12−1は、利用者1に装着させるバッジ15に所定のデータを供給し、そのデータおよび利用者1の属性のデータを、ネットワーク13を介して、サーバ14に送信する。サーバ14は、パーソナルコンピュータ12−1から供給された利用者1の名前、性別、年齢、使用言語などの属性のデータおよび利用者1に装着させるバッジ15に供給した所定のデータを記憶する。
【0032】
パーソナルコンピュータ12−2は、撮像装置11−1および撮像装置11−2から供給された画像を基に、バッジ15−1を特定し、バッジ15−1(すなわち、利用者1−1)の位置を算出して、ネットワーク13を介して、バッジ15−1を特定するデータおよびバッジ15−1の位置を示すデータをサーバ14に供給する。
【0033】
パーソナルコンピュータ12−3は、撮像装置11−3および撮像装置11−4から供給された画像を基に、バッジ15−2を特定し、バッジ15−2の位置を算出して、ネットワーク13を介して、バッジ15−2を特定するデータおよびバッジ15−2の位置を示すデータをサーバ14に供給する。
【0034】
パーソナルコンピュータ12−4は、撮像装置11−5から供給された画像を基に、バッジ15−3を特定し、バッジ15−3の位置を算出して、ネットワーク13を介して、バッジ15−3を特定するデータおよびバッジ15−3の位置を示すデータをサーバ14に供給する。パーソナルコンピュータ12−1乃至12−4を個々に区別する必要がないとき、以下、単にパーソナルコンピュータ12と称する。
【0035】
サーバ14は、パーソナルコンピュータ12−2から供給されたバッジ15−1を特定するデータを利用者1−1を特定するデータに変換し、バッジ15−1の位置を示すデータとともに記憶する。サーバ14は、パーソナルコンピュータ12−3から供給されたバッジ15−2を特定するデータを利用者1−2を特定するデータに変換し、利用者1−2の位置を示すデータとともに記憶する。サーバ14は、パーソナルコンピュータ12−4から供給されたバッジ15−3を特定するデータを利用者1−3を特定するデータに変換し、バッジ15−3の位置を示すデータとともに記憶する。サーバ14に記憶されるこれらのデータは、日付および時刻を示すデータが付される。
【0036】
博物館の管理者または博物館の展示物の説明をするシステムなどは、サーバ14に記憶されたこれらのデータから、利用者1−1乃至1−3の属性、現在位置、および移動の経歴を知ることができる。
【0037】
図2は、博物館を見学する利用者1が所定のバッジ15を装着した状態を説明する図である。利用者1は、博物館に入場するとき、バッジ15を受け取り、例えば、左胸などの所定の位置に固定する。バッジ15は、利用者1に引き渡す前に、所定のデータが記憶される。
【0038】
バッジ15は、赤外線を発する発光ダイオード31を備え、発光ダイオード31は、そのバッジ15の固有の明滅パターンで点滅する。バッジ15の発光ダイオード31の固有の明滅パターンは、利用者1に引き渡す前に、パーソナルコンピュータ12−1から入力されたデータ(以下、バッジ15のIDコードと称する)によって決定される。
【0039】
図3は、利用者1に引き渡す前に、バッジ15に所定のデータが記憶されるときの、バッジ15とパーソナルコンピュータ12−1との接続を説明する図である。バッジ15は、PCバッジインターフェース21に装着される。パーソナルコンピュータ12−1は、バッジ15のIDコードなどの所定のデータを、RS232Cポートから、PCバッジインターフェース21のRS232C変換回路23に出力する。PCバッジインターフェース21は、パーソナルコンピュータ12−1から受信したデータを、IDバッジインターフェース22が接続される信号端子32を介して、バッジ15に供給する。
【0040】
パーソナルコンピュータ12−1は、バッジ15に所定のデータを供給したとき、そのデータを、利用者1の属性のデータととも、通信ボードに接続されたネットワーク13を介して、サーバ14に供給する。パーソナルコンピュータ12−2乃至12−4は、バッジ15に入力したデータと利用者1の属性のデータを、サーバ14から受信する。
【0041】
PCバッジインターフェース21のIDバッジインターフェース22は、所定のデータに加えて、バッジ15の電源端子33およびアース端子34を介して、バッジ15に所定の電源を供給する。
【0042】
図4は、バッジ15の構成を説明するブロック図である。クロック発生回路35は、所定の周波数のクロック信号を生成し、Nbitカウンタ36および制御ロジック37に供給する。Nbitカウンタ36は、バッジ15の動作立ち上がりのとき、IDコードメモリ38からバッジ15のIDコードを読み取り、そのIDコードおよびクロック発生回路35から供給されたクロック信号を基準として、発光ダイオード31に発光させる信号をLEDドライバ39に供給する。
【0043】
制御ロジック37は、クロック発生回路35から供給された信号に同期してバッジ15全体を制御し、信号端子32を介してパーソナルコンピュータ12−1から供給された所定データを受信し、記憶する。また、制御ロジック37は、パーソナルコンピュータ12−1から受信した点滅パターンを指定するIDコードをIDコードメモリ38に記憶させる。
【0044】
LEDドライバ39は、Nbitカウンタ36から供給された信号を基に、発光ダイオード31を点灯させる所定の電力を発光ダイオード31に供給する。発光ダイオード31は、LEDドライバ39から供給された電力を基に、所定の点滅パターンで、赤外線を発する。
【0045】
電池40は、リチウム水素電池、またはリチウムイオン電池などで、電源端子33およびアース端子34を介して、PCバッジインターフェース21から供給された電力を蓄電し、DC/DCコンバータ40およびLEDドライバ39に電源を供給する。バッジ15の動作時間が短くても良い場合、電池40に代えて、スーパーキャパシタに蓄電するようにしてもよい。
【0046】
DC/DCコンバータ40は、電池40から供給された電源を所定の電圧に昇圧し、クロック発生回路35、Nbitカウンタ36、制御ロジック37、およびIDコードメモリ38に供給する。
【0047】
図5は、パーソナルコンピュータ12の構成を説明するブロック図である。CPU(central processing unit)71は、各種アプリケーションプログラムや、基本的なOS(operating system)を実際に実行する。ROM(read-only memory)72は、一般的には、CPU71が使用するプログラムや演算用のパラメータのうちの基本的に固定のデータを格納する。RAM(random-access memory)73は、CPU71の実行において使用するプログラムや、その実行において適宜変化するパラメータを格納する。これらはバス74により相互に接続されている。
【0048】
キーボード76は、CPU71に各種の指令を入力するとき、ユーザにより操作される。マウス77は、CRT(cathode ray tube)78の画面上のポイントの指示や選択を行うとき、ユーザにより操作される。CRT78は、各種情報をテキストやイメージで表示する。HDD(hard disk drive)79とFDD(floppy disk drive)80は、それぞれハードディスクまたはフロッピーディスクを駆動し、それらにCPU71によって実行するプログラムや情報を記録または再生させる。
【0049】
通信ボード81は、ネットワーク13と接続するための装置であり、具体的にはイーサネット(Ethernet)ボード等で構成される。RS232Cポート82は、RS232C規格に基づくケーブルが接続され、RS232C規格に基づく信号を送受信し、PCバッジインターフェース21に所定のデータを供給する。ビデオキャプチャボード83は、撮像装置11から供給された動画像の信号を入力し、動画像に含まれる静止画像を、デジタルデータとしてCPU71またはRAM73に供給する。
【0050】
これらのキーボード76乃至ビデオキャプチャボード83は、インターフェース75に接続されており、インターフェース75はバス74を介してCPU71に接続されている。
【0051】
図6は、撮像装置11の構成を示すブロック図である。CCD(Charge Coupled Device)ビデオカメラ102は、流し撮り駆動回路101により駆動され、いわゆる、流し撮像で、バッジ15の発光ダイオード31を撮像する。CCDビデオカメラ102は、流し撮像により得られたバッジ15の発光ダイオード31の点滅パターンの画像データをパーソナルコンピュータ12に出力する。フィルタ103は、発光ダイオード31から発光される発光点以外の光がCCDビデオカメラ102に入射されるのを抑制する光学フィルタで、CCDビデオカメラ102のレンズ部(図示せず)の前段に設けられている。
【0052】
次に、バッジ15から撮像装置11までの距離を算出する場合のパーソナルコンピュータ12のCPU71の処理手順を、図7および図8を参照して説明する。図7は、1/3インチ(縦3.6mm×横4.8mm)、縦492画素×横510画素、および画素の大きさが縦7.5μm×横9.6μmのCCD121を使用した、画角が60度のCCDビデオカメラ102で、バッジ15の発光ダイオード31を撮影している例を説明する上面図である。CCD121の1画素当たりの画角は、0.118度(=60度/510画素)である。
【0053】
バッジ15の発光ダイオード31の発光面の幅が10mmである場合、発光ダイオード31の画像がCCD121の1つの画素に撮像されているとき、図8に示されるように、発光ダイオード31の発光面からCCDビデオカメラ102の仮想原点までの距離L2は、4885mm(=5mm/tan(0.118/2))と、近似的に求められる。このとき、CCD121から仮想原点までの距離L3は、4.6mm(=4.8μm/tan(0.118/2))であるので、発光ダイオード31の発光面からCCD121までの距離L1は、ほぼ、L2に等しい。
【0054】
同様に、例えば、バッジ15の発光ダイオード31の発光面の幅が10mmである場合、発光ダイオード31の画像がCCD121の10の画素に撮像されているとき、発光ダイオード31の発光面からCCD121までの距離L1は、約48cmである。
【0055】
このように、発光ダイオード31の発光面からCCD121までの距離L1は、式(1)で算出される。
L1=(W/2)/(tan(θ/2)×N) (1)
Wは、発光ダイオード31の発光面の幅である。θは、CCD121の1つの画素が画角である。Nは、発光ダイオード31の画像が撮像されている画素の数である。
【0056】
以上のように、バッジ15の発光ダイオード31の発光面の幅、およびCCDビデオカメラ102の能力を基に、CCDビデオカメラ102が撮像する画像に含まれる発光ダイオード31の発光面の画像の大きさから、パーソナルコンピュータ12のCPU71は、バッジ15から撮像装置11までの距離を算出する。
【0057】
パーソナルコンピュータ12のCPU71は、CCDビデオカメラ102が撮像する画像を時系列に比較することにより、バッジ15の発光ダイオード31の点滅パターン、すなわちIDコードを検出することができる。
【0058】
また、撮像装置11のCCDビデオカメラ102が行う流し撮像した画像から、パーソナルコンピュータ12のCPU71は、バッジ15の発光ダイオード31の点滅パターン、すなわちIDコードを検出することもできる。ここで、撮像装置11のCCDビデオカメラ102が行う流し撮像について、図9乃至図11を参照して説明する。流し撮像とは、CCDビデオカメラ102に内蔵されるCCD撮像素子において、各画素を構成するホトダイオードの出力を、同一フィールドの期間中に、複数回、垂直転送CCDに転送する撮像方法を意味する。これに対して、通常の撮像方法では、各画素を構成するホトダイオードの出力が、同一フィールドの期間中に、1回だけ、垂直転送CCDに転送される。
【0059】
従って、バッジ15の発光ダイオード31が、例えば、図9(A)に示すように、1フィールドの期間中に、12HD(Horizontal Drive:水平走査周期)の期間、消灯し、次の12HDの期間、点灯する点滅パターン1を、2回繰り返すような場合、これを通常の撮像方法で撮像すると、1個の発光点が撮像されるだけである。しかしながら、これを、CCDビデオカメラ102が流し撮像し、図9(B)に示すように、2HDに1回の割合で、各画素を構成する発光ダイオードの出力を、垂直転送CCDに転送するようにすると、その結果得られる画像には、図9(C)に示すように、発光ダイオード31の出力(点灯または消灯)が、複数現れるようになる。なお、この例の場合、発光ダイオード31は、撮像画面上で、3ライン分の大きさを有するものとする。
【0060】
そこで、CCDビデオカメラ102から出力された、図9(C)に示すような画像がパーソナルコンピュータ12のビデオキャプチャボード83に供給されると、ビデオキャプチャボード83は、その画像にキャプチャ処理を施し、図10に示すような画像を生成する。上述したように、バッジ15の発光ダイオード31が3ラインで表されることから、各出力の像が前後の出力の像と一部重なるようになり、キャプチャされた画像の画素の輝度が段階的に変化している。
【0061】
例えば、ラインL8では発光ダイオード31の点灯している状態の画像が3回重畳されるので、最も明るい輝度Dとなり、ラインL7では、点灯している状態の画像が2回と、消灯している状態の画像が1回表示されるので、輝度Dより暗い輝度Cとなり、ラインL6では、点灯している状態の画像が1回と、消灯している状態の画像が2回表示されるので、輝度Cより暗い輝度Bとなり、ラインL5では消灯している状態の画像が3回表示されているので、輝度Bより暗い輝度Aとなる。
【0062】
さらに、ビデオキャプチャボード83から出力された、図10に示したような画像がCPU71に供給されると、CPU71は、その画像に2値化処理を施し、図11に示すような画像を生成する。この場合、図10に示す画像の輝度Aおよび輝度Bで表される輝度は、輝度L、そして輝度Cおよび輝度Dで表される輝度は、輝度Hとされる。また、輝度Hの画素の画素値は、”1”に、輝度Lの画素の画素値は”0”に符号化される。
【0063】
このように、流し撮像することより、1フィールド期間中の2回の輝度の時間的変化が、2個の空間的変化に変換される。本発明の実施の形態においては、この原理に基づいて、バッジ15の発光ダイオード31の発光の状態が観察される。
【0064】
次に、以上のようにして求められた空間的パターンに変換された画像データから、CCDビデオカメラ102のレンズとCCDを結ぶ線に垂直に交わる平面(画像の面)上の、輝点の位置を検出する場合のパーソナルコンピュータ12のCPU71の処理手順を説明する。
【0065】
図12(A)は、図13に示すように配置されたバッジ15−1の発光ダイオード31に対応する輝点Li1、バッジ15−2の発光ダイオード31に対応する輝点Li2、およびバッジ15−3の発光ダイオード31に対応する輝点Li3の点滅パターンの画像データが、空間的パターンに変換された例を表している。輝点Li1,Li2,Li3の位置を求める場合、パーソナルコンピュータ12のCPU71は、走査線上に配置された輝点の画素値”1”を、図12(B)に示すように、流し撮像された方向(この例の場合、z軸方向)に加算し、その加算の中からピークを求め、そのピークの位置するy軸上の座標を表示画像上の輝点のY座標とする。この表示例の場合、輝点Li1,Li2,Li3の表示画像上のY座標は、それぞれY1,Y2,Y3となる。
【0066】
一方、Z座標は、最初に発光した輝点のz軸上の座標が輝点の表示画像上のZ座標となる。この表示例の場合、流し撮像方向が負方向であることから、輝点1、輝点2、輝点3が最初に光始めた点であり、このことにより、輝点1、輝点2、輝点3のz軸上の座標である、Z1,Z2,Z3が、輝点Li1,Li2,Li3のZ座標となる。
【0067】
このようにして、CPU71は、図13に示すように、輝点Li1,Li2,Li3の表示画像上のY座標およびZ座標、すなわち(Y1,Z1),(Y2,Z2),(Y3,Z3)を求める。
【0068】
次に、輝点の点滅パターンを検知する場合のパーソナルコンピュータ12のCPU71の処理手順を、図14を参照して説明する。
【0069】
図14(A)は、図12の輝点Li1の空間的パターンを取りだして表示している。輝点Li1の状態を検出する場合、パーソナルコンピュータ12のCPU71は、Y座標Y1に対する、予め定められたばらつき範囲内(Y1-ΔY<Y<Y1+ΔY)の輝点を選択し、Y軸方向に加算し、図14(B)に示すように、そのピークを求める。次に、CPU71は、求められたピークを所定の閾値で2値化処理し、図14(C)に示すようなビットパターンの情報を生成する。このようにして求められたビットパターン(10101010)から輝点Li1の状態が検出される。この例の場合、輝点Li1は、8ビットのIDコードが抽出されるような点滅パターンで、輝点が点滅されている。
【0070】
このように、バッジ15が、バッジ15固有(すなわち、利用者1固有)の所定のパターンで輝点を発光し、それを上述したように流し撮像して処理することにより、バッジ15の位置およびIDコードを同時に検出することができる。
【0071】
従って、例えば、博物館の展示室2−1の内部を図15に示すような領域A乃至領域Iに分割すれば、パーソナルコンピュータ12−2は、撮像装置11−1または11−2から供給される画像から、所定の時間毎に(例えば、1/30秒毎に)、バッジ15のIDコードおよび位置(領域A乃至領域Iのいずれか)を示すデータを算出し、サーバ14に供給することができる。
【0072】
サーバ14は、パーソナルコンピュータ12−2乃至12−4から供給されたバッジ15のIDコードを利用者1を特定するユーザIDに変換し、バッジ15の位置を示すデータ、日付、および時刻と共に、例えば、表(1)のように記憶する。
<表1>
部屋番号 12;時刻 12時30分25秒;1998 7/10
ロケーション A B C D E F G ・・・
ユーザID 0001 1000 0001
部屋番号 13;時刻 12時30分25秒;1998 7/10
ロケーション A B C D E F G ・・・
ユーザID 0011 0101 0111
【0073】
パーソナルコンピュータ12または博物館の管理者は、サーバ14に記憶されている表(1)のデータを参照することにより、利用者1の現在位置および移動の履歴を知ることができる。
【0074】
次に、利用者管理システムが利用者1の移動を記憶する処理を、図16のフローチャートを参照して説明する。ステップS11において、博物館の入り口の担当者は、利用者1の名前、性別、年齢、使用言語などの属性のデータをパーソナルコンピュータ12−1に入力する。ステップS12において、博物館の入り口の担当者は、図示せぬスイッチを操作してバッジ15の電源を入れ、そのバッジ15をPCバッジインターフェース61に装着する。パーソナルコンピュータ12−1は、バッジ15のIDコードなど所定のデータを、PCバッジインターフェース61に装着されたバッジ15に送信し、バッジ15は、所定のデータを受信し、バッジ15のIDコードメモリ38などに記憶する。
【0075】
ステップS13において、パーソナルコンピュータ12−1のCPU71は、通信ボード81に、ステップS11で入力された利用者1の属性データおよびバッジに供給したIDコードなどの所定のデータをサーバ14に送信させ、サーバ14は、パーソナルコンピュータ12−1から供給されたデータを受信し、それらのデータを基にユーザを特定するユーザIDを生成する。サーバ14は、パーソナルコンピュータ12−1から供給されたデータおよびユーザIDを記憶する。
【0076】
ステップS14において、利用者1は、所定の発光パターンで発光ダイオード31が発光するバッジ15を、胸に固定する。
【0077】
ステップS15において、パーソナルコンピュータ12のCPU71は、撮像装置11から供給された画像を基に、バッジ15の発光ダイオード31の点滅のパターンを検出し、バッジ15のIDコードを求める。ステップS16において、パーソナルコンピュータ12のCPU71は、撮像装置11から供給された画像を基に、バッジ15の位置を算出する。
【0078】
ステップS17において、パーソナルコンピュータ12のCPU71は、通信ボード81に、ステップS15で求めたバッジ15のIDコード、およびステップS16で求めたバッジ15の位置をサーバ14に送信させ、サーバ14は、バッジ15のIDコードおよびバッジ15の位置を受信する。
【0079】
ステップS18において、サーバ14は、バッジ15のIDコードに対応する利用者のユーザIDを求め、利用者のユーザIDをバッジ15の位置、日付、および時刻とともに記憶する。
【0080】
以上のように、利用者管理システムは、バッジ15のIDコードおよび位置を求めることにより、利用者1の現在位置および移動の経歴を記憶する。
【0081】
図17は、図16のステップ12に対応するバッジ15の設定の処理の詳細を説明するフローチャートである。ステップS31において、バッジ15に電池40が装着されていない場合、博物館の入り口の担当者は、バッジ15に電池40を装着する。制御ロジック37は、内部のRAMをクリアする、スタックポインタを設定するなどの所定のイニシャライズの処理を実行する。ステップS32において、バッジ15の制御ロジック37は、イニシャライズが終了後、スリープモードになる。
【0082】
ステップS33において、制御ロジック37は、図示せぬ電源スイッチがONされているか否かを判定し、電源スイッチがOFFされていると判定された場合、ステップS33に戻り、電源スイッチがONされるまで、処理を繰り返す。ステップS33において、電源スイッチがONされていると判定された場合、手続きは、ステップS34に進み、制御ロジック37は、スリープモードを解除し、動作モードになる。
【0083】
ステップS35において、制御ロジック37は、信号端子32からデータが入力されているか否かを判定し、信号端子32からデータが入力されていないと判定された場合、ステップS35に戻り、信号端子32からデータが入力されるまで、判定の処理を繰り返す。ステップS35において、信号端子32からデータが入力されていると判定された場合、ステップS36に進み、制御ロジック37は、信号端子32から入力されているデータがIDコードであるか否かを判定する。ステップS36において、信号端子32から入力されているデータがIDコードであると判定された場合、制御ロジック37は、入力されたIDコードを受信し、IDコードメモリ38に記憶させる。
【0084】
ステップS36において、信号端子32から入力されているデータがIDコードでないと判定された場合、ステップS43に進み、制御ロジック37は、入力されているデータが日付のデータであるか否かを判定し、入力されているデータが日付のデータであると判定された場合、ステップS44に進み、制御ロジック37は、入力されている日付のデータを内部のメモリの所定のアドレスに記憶する。
【0085】
ステップS43において、入力されているデータが日付のデータでないと判定された場合、ステップS45に進み、制御ロジック37は、入力されているデータを内部のメモリの所定のアドレスに記憶する。
【0086】
ステップS38において、制御ロジック37は、必要なデータを入力したか否かを判定し、必要なデータが入力されていないと判定された場合、ステップS35に戻り、データの読み込みの処理を繰り返す。
【0087】
ステップS38において、必要なデータが入力されたと判定された場合、手続きは、ステップS39に進み、Nbitカウンタ36は、IDコードメモリ38に記憶されているIDコードを読み込み、クロック発生回路35から供給されるクロック信号を基に、点滅を指示する信号をLEDドライバ39に供給する。LEDドライバ39は、Nbitカウンタ36から供給される信号を基に、発光ダイオード31に所定のパターンで電力を供給し、発光ダイオード31は、所定のパターンで点滅する。
【0088】
ステップS40において、制御ロジック37は、電源スイッチがOFFされているか否かを判定し、電源スイッチがOFFされていないと判定された場合、ステップS39に戻り、バッジ15の発光ダイオード31は、発光を繰り返す。
【0089】
ステップS40において、電源スイッチがOFFされていると判定された場合、ステップS41に進み、制御ロジック37は、IDコードメモリ38に記憶されているIDコード、制御ロジックのメモリに記憶されている日付のデータおよびその他のデータをクリアする。ステップS42において、制御ロジック37は、スリープモードに入り、ステップS33に戻り、電源スイッチが入れられるまで待機する。
【0090】
以上のように、バッジ15は、電源スイッチがONされると、パーソナルコンピュータ12−1から、IDコードなどの所定のデータを読み込み、読み込んだIDコードに基づき、発光ダイオード31を発光させる。
【0091】
図18は、バッジ15の他の実施の形態を説明するブロック図である。図4の場合と同様な部分には、同一の番号を付してあり、その説明は省略する。マイクロプロセッサ121は、所定のメモリおよび入出力ポートなどを内蔵した、いわゆるワンチップマイコンである。電源スイッチ122は、プッシュ式のスイッチで、押すごとにONからOFF、またはOFFからONに切り替わり、ONまたはOFFそれぞれの状態に対応した信号をマイクロプロセッサ121に供給する。
【0092】
スイッチ123は、マイクロプロセッサ121の制御によりONまたはOFFの状態が切り替わる。スイッチ123がONのとき、電池39の電源が、LEDドライバ38およびDC/DCコンバータ40に供給され、スイッチ123がOFFのとき、電池39の電源は、LEDドライバ38およびDC/DCコンバータ40に供給されない。
【0093】
LCDディスプレイ124は、マイクロプロセッサ121から供給されるバッジ15の状態(例えば、電源スイッチ122がONになっている、マイクロプロセッサ121がスリープモードである、電池39の出力電圧が所定の電圧以下であるなど)を示すデータ、日付、バッジ15の有効期限、利用者1の名前など表示する。
【0094】
図18に示すバッジ15においては、バッジ15に電池39が装着されると、マイクロプロセッサ121は、電池39から供給されるスタンバイ電源により、イニシャライズを実行し、スリープモードとなる。スリープモードで電源スイッチ122がONになると、マイクロプロセッサ121は、スイッチ123をONさせ、電池39の電源をLEDドライバ38およびDC/DCコンバータ40に供給させ、図17のステップS35以降の処理を実行する。
【0095】
バッジ15の電源スイッチ122がONからOFFになると、マイクロプロセッサ121は、パーソナルコンピュータ12−1から受信したIDコード、日付、またはその他のデータをクリアし、スイッチ123をOFFさせ、電池39の電源のLEDドライバ38およびDC/DCコンバータ40への供給を停止させ、スリープモードに遷移する。
【0096】
図18に示すバッジ15は、図4に示すバッジ15に比較し、簡単な構成で実現が可能で、電池39の消耗を少なくできる。なお、電源スイッチ122に代えて、担当者のみが操作できるように、電源スイッチ122の接点を外部に露出させ、担当者は、所定の器具でその接点を短絡させるようにしてもよい。この場合、マイクロプロセッサ121は、その短絡により、モードを切り替えるようにする。
【0097】
図19は、バッジ15の更に他の実施の形態の背面の外観を示す図である。バッジ15は、バッジ15を利用者1に固定するためのクリップ151、およびクリップ151の先端部分がバッジ15と接触する部分に設けられた端子152を有する。クリップ151および端子152は、いずれも、金属、メッキされたプラスチック、または導電性プラスチックなどの導電材料で形成されている。図19のバッジ15は、図20のブロック図に示す構成を有する。すなわち、クリップ151および端子152は、電源スイッチ122の接点および接片を構成する。
【0098】
図19に示すバッジ15は、利用されないとき、電源スイッチ122が、クローズ(ON)となり、利用者1の衣服に装着されたとき(すなわち、使用されるとき)、電源スイッチ122が、オープン(OFF)となる。マイクロプロセッサ121は、電源スイッチ122がONのとき、通常動作モードになり、電源スイッチ122がOFFのとき、スリープモードになる。
【0099】
従って、図19に示すバッジ15おいては、電源スイッチ122として、プッシュ式などの専用のスイッチを設ける必要がなく、しかも、使用時のスイッチ122の操作の手間を省くことができる。
【0100】
また、クリップ151および端子152に代えて、図21に示すように、それぞれ、安全ピンの形状をした針161および針受け162で構成するようにしてもよい。針161および針受け162は、金属、メッキされたプラスチック、または導電性プラスチックなどの導電材料で形成されている。図21のバッジ15の針161および針受け162は、図19のバッジ15の場合と同様に、図20の電源スイッチ122の接点および接片を構成する。
【0101】
更に、図22のブロック図に示すように、バッジ15は、クリップ151および端子152、並びに針161および針受け162を有する構成としてもよい。バッジ15が図22の構成を有する場合、マイクロプロセッサ121は、バッジ15の装着または非装着の判定を、表(2)に示すように判定し、その判定の結果に基づき、スリープモードと通常動作モードの切り替えを実行する。
<表2>
クリップ151/端子152 針161/針受け162 判定
ON ON 装着
OFF ON 装着
ON OFF 非装着
OFF OFF 非装着
【0102】
針161が針受け162から外れている場合、安全の為、クリップ151および端子152がOFFのときでも、マイクロプロセッサ121は、非装着と判定する。
【0103】
次に、バッジ15の他の実施の形態、および、そのときのパーソナルコンピュータ12がバッジ15の位置を算出する処理を説明する。図23は、利用者1に装着されている他の実施の形態のバッジ15を示す図である。図23に示すバッジ15は、相互の位置関係が明確に把握されている発光ダイオード31−1乃至31−4を有する。発光ダイオード31−1乃至31−4は、所定の発光パターンで点滅する。
【0104】
図24は、図23に示すバッジ15の構成を示すブロック図である。図4に示す場合と同様な部分には、同一の番号を付してあり、その説明は省略する。Nbitカウンタ36−1は、バッジ15の動作立ち上がりのとき、IDコードメモリ38から所定のIDコードを読み取り、そのIDコードおよびクロック発生回路35から供給されたクロック信号を基準として、発光ダイオード31−1に発光させる信号をLEDドライバ39−1に供給する。LEDドライバ39−1は、Nbitカウンタ36−1から供給された信号を基に、発光ダイオード31−1を点灯させる所定の電力を発光ダイオード31−1に供給する。発光ダイオード31−1は、LEDドライバ39−1から供給された電力を基に、所定の点滅パターンで、赤外線を発光する。
【0105】
Nbitカウンタ36−2は、バッジ15の動作立ち上がりのとき、IDコードメモリ38から所定のIDコードを読み取り、そのIDコードおよびクロック発生回路35から供給されたクロック信号を基準として、発光ダイオード31−2に発光させる信号をLEDドライバ39−2に供給する。LEDドライバ39−2は、Nbitカウンタ36−2から供給された信号を基に、発光ダイオード31−2を点灯させる所定の電力を発光ダイオード31−2に供給する。発光ダイオード31−2は、LEDドライバ39−2から供給された電力を基に、所定の点滅パターンで、赤外線を発光する。
【0106】
Nbitカウンタ36−3は、バッジ15の動作立ち上がりのとき、IDコードメモリ38から所定のIDコードを読み取り、そのIDコードおよびクロック発生回路35から供給されたクロック信号を基準として、発光ダイオード31−3に発光させる信号をLEDドライバ39−3に供給する。LEDドライバ39−3は、Nbitカウンタ36−3から供給された信号を基に、発光ダイオード31−3を点灯させる所定の電力を発光ダイオード31−3に供給する。発光ダイオード31−3は、LEDドライバ39−3から供給された電力を基に、所定の点滅パターンで、赤外線を発光する。
【0107】
Nbitカウンタ36−4は、バッジ15の動作立ち上がりのとき、IDコードメモリ38から所定のIDコードを読み取り、そのIDコードおよびクロック発生回路35から供給されたクロック信号を基準として、発光ダイオード31−4に発光させる信号をLEDドライバ39−4に供給する。LEDドライバ39−4は、Nbitカウンタ36−4から供給された信号を基に、発光ダイオード31−4を点灯させる所定の電力を発光ダイオード31−4に供給する。発光ダイオード31−4は、LEDドライバ39−4から供給された電力を基に、所定の点滅パターンで、赤外線を発光する。
【0108】
次に、図23に示すバッジ15の位置を算出する、パーソナルコンピュータ12のCPU71の処理を説明する。まず、CPU71は、撮像装置11から供給された発光ダイオード31−1乃至31−4の画像から、消失点を算出する。CPU71が発光ダイオード31−1乃至31−4の画像から、消失点を算出する処理を図25を参照して説明する。
【0109】
以下の説明において、画像座標系は、CCDビデオカメラ102の視点を原点とする座標系である。画像面上の点aは、発光ダイオード31−1の画像を示し、画像面上の点bは、発光ダイオード31−2の画像を示し、画像面上の点cは、発光ダイオード31−3の画像を示し、画像面上の点dは、発光ダイオード31−4の画像を示す。
【0110】
まず、図25に示すように、消失点U(xu,yu)は、画像面上の点aおよび点bを通る直線ab、並びに点cおよび点dを通る直線cdの交点であり、消失点V(xv,yv)は、点aおよび点dを通る直線ad、並びに点bおよび点cを通る直線bcの交点である。直線abは、式(2)で表され、直線cdは、式(3)で表され、直線adは、式(4)で表され、直線bcは、式(5)で表される。
α1x+β1y=γ1 (2)
α2x+β2y=γ2 (3)
α3x+β3y=γ3 (4)
α4x+β4y=γ4 (5)
【0111】
従って、消失点U(xu,yu)の座標は、式(6)および式(7)で算出され、消失点V(xv,yv)の座標は、式(8)および式(9)で算出される。
u=(β2γ1−β1γ2)/(α1β2−α2β1) (6)
u=(α1γ2−α2γ1)/(α1β2−α2β1) (7)
v=(β4γ3−β3γ4)/(α3β4−α4β3) (8)
v=(α3γ4−α4γ3)/(α3β4−α4β3) (9)
【0112】
ここで、画像面上での点aの座標が(x1,y1)、点bの座標が(x2,y2)、点cの座標が(x3,y3)、および点dの座標が(x4,y4)であれば、α1,β1,γ1,α2,β2,γ2,α3,β3,γ3,α4,β4、およびγ4は、それぞれ式(10)、式(11)、式(12)、式(13)、式(14)、式(15)、式(16)、式(17)、式(18)、式(19)、式(20)、および式(21)で算出される。
α1=y1−y2 (10)
β1=−(x1−x2) (11)
γ1=x21−x12 (12)
α2=y3−y4 (13)
β2=−(x3−x4) (14)
γ2=x43−x34 (15)
α3=y1−y4 (16)
β3=−(x1−x4) (17)
γ3=x41−x14 (18)
α4=y2−y3 (19)
β4=−(x2−x3) (20)
γ4=x32−x23 (21)
【0113】
次に、CPU71は、消失点U(xu,yu)および消失点V(xv,yv)からバッジ15の傾きを算出する。図26に示すように、画像座標系上の座標点がレンズの焦点距離fで規格化できるように、画像座標系のz軸が画像面に垂直で、かつ、画像座標系のz=1に画像面が位置するように、画像座標系を設定する。空間中の点Pa(xa,ya,za)は、透視変換によって、画像面上の点pa(xa/za,ya/za)に投影される。
【0114】
点Pを通り、方向ベクトルv=(vx,vy,vz)を有する空間中の直線L上の点Plは、式(22)で表され、点Plを画像面に投影した点plは、式(23)で表される。
l=Pa+tv
=(xa+tvx,ya+tvy,za+tvz) (22)
l=((xa+tvx)/(za+tvz),(ya+tvy
/(za+tvz))
=((xa/t+vx)/(za/t+vz),
(ya/t+vy)/(za/t+vz)) (23)
【0115】
消失点は、ある方向ベクトルを有する直線を無限遠に伸ばしたときの投影像であるから、t→∞としたときのplが消失点であり、式(24)で表される。
【数1】

Figure 0004232252
【0116】
空間中のある平面πの法線ベクトルn(ps,qs,−1)は、平面π上の任意の直線の方向ベクトルu=(ux,uy,uz)と直交するので、式(25)が成立し、式(25)を変形すれば式(26)が求まる。(以下、式中の”→”を付した変数は、ベクトルであることを示す)
【数2】
Figure 0004232252
s(ux/uz)+qs(uy/uz)=1 (26)
【0117】
式(26)の(ux/uz)および(uy/uz)は、式(24)に示されるように、消失点を表す。また、方向ベクトルuは、任意であるから、式(26)は、画像面上の消失点の集合、すなわち、消失線を表す。逆に、消失線ax+by=1があるとき、この消失線を有する平面の傾きは、(a,b,−1)である。従って、四角形ABCDの投影像である四角形abcdから求められる消失点U(xu,yu)および消失点V(xv,yv)を用いると、消失線は、式(27)で算出される。
((−yu+yv)/(xuv−xvu))x
+((xu−xv)/(xuv−xvu))y=1 (27)
【0118】
これより、四角形ABCDの法線ベクトルnabcdは、式(28)で表現できる。
【数3】
Figure 0004232252
【0119】
法線ベクトルnabcdを正規化して、ベクトルNを求める。
【数4】
Figure 0004232252
ただし、演算子||ベクトル||は、ベクトルの絶対値を求める演算子である。
【0120】
以上のように、CPU71は、バッジ15の発光ダイオード31−1乃至31−4の画像から、バッジ15の傾きを算出する。
【0121】
次に、CPU71は、バッジ15の傾きを基に、CCDビデオカメラ102からバッジ15までの距離を求める。図27は、CCDビデオカメラ102およびバッジ15を横から見た図である。点aを基準に算出される、画像座標系の原点oとバッジ座標系の原点O(発光ダイオード31−1と発光ダイオード31−3とを結ぶ直線と発光ダイオード31−2と発光ダイオード31−4とを結ぶ直線の交点)との距離daは、式(30)で算出される。
a=(‖AO‖sinθa)/(sin(θa+φa) (30)
ここで、‖AO‖は既知である。θaは、式(31)で定義され、φaは、式(32)で定義される角度である。
θa= oOA (31)
φa= oAO (32)
【0122】
同様に、点bを基準に算出される、画像座標系の原点oとバッジ座標系の原点Oとの距離db、点cを基準に算出される、画像座標系の原点oとバッジ座標系の原点Oとの距離dc、および点dを基準に算出される、画像座標系の原点oとバッジ座標系の原点Oとの距離ddを算出し、距離da、距離db、距離dc、および距離ddの平均が、画像座標系の原点oからバッジ座標系の原点Oまでの距離daveとされる。
【0123】
画像座標系の原点oからバッジ座標系の原点O(長方形ABCDの中心)へと向かう平行移動ベクトルtは、式(33)で算出される。
【数5】
Figure 0004232252
【0124】
以上のように、画像の中のバッジの位置から、3次元上のバッジ15の位置(Xm,Ym,Zm)および角度(Rxm,Rym,Rzm)が計算される。このバッジ15の位置および角度を計算する処理の説明では、画像座標系のz=1に画像面が位置するとして説明したが、psおよびqsをCCDビデオカメラ102の焦点距離fで補正すれば、CCDビデオカメラ102の焦点距離fが1以外でも、正確な位置および角度が算出できる。
【0125】
なお、4つの発光ダイオード31がバッジ15に備えられているとして説明したが、3以上の相互に位置関係が明確な発光ダイオード31がバッジ15に備えられていれば、上記の処理により、バッジ15の位置および角度を求めることができる。
【0126】
また、発光ダイオード31−1乃至31−4が、それぞれ異なる所定の発光パターンで点滅すれば、CPU71は、画像面上の点a、点b、点c、および点dへの発光ダイオード31−1乃至31−4の対応が容易に算出できる。CPU71が、他の処理により、画像面上の点a、点b、点c、および点dへの発光ダイオード31−1乃至31−4の対応が算出できれば、例えば、発光ダイオード31−1乃至31−4が、同一の所定の発光パターンで点滅するようにしてもよい。
【0127】
あるいは、例えば、発光ダイオード31−1が所定の発光パターンで点滅するようにし、発光ダイオード31−2乃至31−4が、連続して点灯するようにし、CPU71のバッジ15の角度の算出範囲は、所定の範囲に特定するようにしてもよい。
【0128】
このように、本発明の利用管理者システムを利用すれば、広い面積の敷地または建物の利用者1の属性および現在位置を知ることができるので、例えば、利用者1が所定の展示物に近づいたとき、その利用者1のヘッドフォンに、利用者1がそれ以前に見学してきた展示物との違いを際立たせた説明を供給する、または、展示物の説明において、その利用者1の名前を呼びながら挨拶させるなどのきめ細かいサービスを提供できるようになる。
【0129】
最後に、本発明に係るコンピュータ利用者管理システムについて説明する。図28は、コンピュータ利用者管理システムの実施の形態を説明する図である。パーソナルコンピュータ12に接続されている撮像装置11は、パーソナルコンピュータ12の利用者1が装着しているバッジ15を撮像するように設置されている。パーソナルコンピュータ12は、撮像装置11が撮像した画像から利用者1が装着しているバッジ15のIDコードを識別する。パーソナルコンピュータ12は、ネットワーク13を介して接続されているサーバ14にバッジ15のIDコードを送信し、サーバ14にバッジ15のIDコードに対応させて登録されている利用者1のパーソナルコンピュータ12の利用を許可する否かを判定するためのデータの送信を要求する。
【0130】
パーソナルコンピュータ12は、利用者1のパーソナルコンピュータ12の利用を許可する否かを判定するためのデータを基に、パーソナルコンピュータ12の利用を許可するか否かを判定し、パーソナルコンピュータ12の利用を許可すると判定された場合、所定のメッセージをCRT78に表示し、キーボード76等の操作を許可する。パーソナルコンピュータ12の利用を許可しないと判定された場合、パーソナルコンピュータ12は、所定のメッセージをCRT78に表示し、キーボード76等の操作を受け付けない。
【0131】
以上のように、コンピュータ利用者管理システムは、簡単な構成で、所定の範囲にいる特定の利用者1にのみパーソナルコンピュータ12の利用を許可することができる。パーソナルコンピュータ12の前の所定の範囲に所定のバッジ15を装着した利用者1がいないとき、パーソナルコンピュータ12をバッジ15の認識の処理のみ実行させる低消費電力モードとし、パーソナルコンピュータ12の前の所定の範囲に所定のバッジ15を装着した利用者1がいるとき、パーソナルコンピュータ12を通常のモードとすれば、所定の期間にパーソナルコンピュータ12が消費する電力量を小さくすることができる。もちろん、利用者1毎に異なるパーソナルコンピュータ12の利用を許可し、または、利用者1毎にパーソナルコンピュータ12の利用の範囲(利用時間、読み出し若しくは書き込みできるファイル、または利用できるプログラムなど)を制限することもできる。
【0132】
なお、本明細書において、博物館などの施設として説明したが、広い敷地または広い床面積を有する工場(例えば、自動車の製造工場、または化学工場のプラントなど)に、本発明の利用者管理システムを適用すれば、ラインの管理者は、問題が発生したラインに一番近い担当者を即座に呼びだし、問題解決にあたらせることができる。
【0133】
また、研究所などにおいて、ゲストに内部を見学させる場合、ゲストに付き添いをつけなくても、ゲストの現在位置を把握することができ、更に、ドアの施錠と連動させれば、ゲスト毎に見学範囲を制限することができる。
【0134】
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものとする。
【0135】
また、上記したような処理を行うコンピュータプログラムをユーザに提供する提供媒体としては、磁気ディスク、CD-ROM、固体メモリなどの記録媒体の他、ネットワーク、衛星などの通信媒体を利用することができる。
【0136】
【発明の効果】
請求項1に記載の利用者特定システムによれば、発信装置で、所定の長さおよび所定のパターンで、時間経過とともに変化する輝度で発光し、情報処理装置で、発信装置が撮像され、撮像された画像データ上の発信装置の画像の大きさおよび位置から、発信装置の3次元空間の位置が算出され、撮像された、発信装置の画像データから、所定のパターンに対応するコードが算出され、コードがデータ提供装置に送信され、データ提供装置から送信された利用者のデータが受信され、データ提供装置で、コードと対応させ、利用者のデータが記憶され、コードが情報処理装置から受信され、記憶する利用者のデータが情報処理装置に送信され、受信したコードを基に、情報処理装置に送信する利用者のデータが検索されるようにしたので、広い床面積または広い敷地を有する施設で、簡単な装置により、利用者の属性を識別し、利用者の属性に合わせたサービスを提供することができるようになる。
【0137】
請求項6に記載の利用者特定システムによれば、発信装置で、3以上で相互の位置関係が明確で、所定のパターンで、時間経過とともに変化する輝度で発光され、位置特定手段で、発信装置が撮像され、撮像された画像の発光の位置から、発信装置の3次元空間上の位置および角度が算出され、撮像された、画像データから、所定のパターンに対応するコードが算出され、コードがデータ提供装置に送信され、データ提供装置から送信された利用者のデータが受信され、データ提供装置で、コードと対応させ、利用者のデータが記憶され、コードが情報処理装置から受信され、記憶している利用者のデータが情報処理装置に送信され、受信したコードを基に、情報処理装置に送信する利用者のデータが検索されるようにしたので、広い床面積または広い敷地を有する施設で、簡単な装置により、利用者の属性を識別し、利用者の属性に合わせたサービスを提供することができるようになる。
【図面の簡単な説明】
【図1】本発明に係る利用者管理システムの一実施の形態の構成を説明する図である。
【図2】博物館を見学する利用者1がバッジ15を装着した状態を説明する図である。
【図3】バッジ15とパーソナルコンピュータ12−1との接続を説明する図である。
【図4】バッジ15の構成を説明するブロック図である。
【図5】パーソナルコンピュータ12の構成を説明するブロック図である。
【図6】撮像装置11の構成を示すブロック図である。
【図7】バッジ15から撮像装置11までの距離を算出する場合のパーソナルコンピュータ12のCPU71の処理手順を説明する図である。
【図8】バッジ15から撮像装置11までの距離を算出する場合のパーソナルコンピュータ12のCPU71の処理手順を説明する図である。
【図9】流し撮像を説明する図である。
【図10】流し撮像を説明する図である。
【図11】流し撮像を説明する図である。
【図12】点滅パターンの画像データが、空間的パターンに変換された例を説明する図である。
【図13】バッジ15の配置を説明する図である。
【図14】輝点の点滅パターンを検知する場合のパーソナルコンピュータ12のCPU71の処理手順を説明する図である。
【図15】博物館の展示室2−1の内部の分割例を説明する図である。
【図16】利用者管理システムが利用者1の移動を記憶する処理を説明するフローチャートである。
【図17】バッジ15の設定の処理の詳細を説明するフローチャートである。
【図18】バッジ15の他の実施の形態を説明するブロック図である。
【図19】バッジ15の更に他の実施の形態の背面の外観を示す図である。
【図20】バッジ15の更に他の実施の形態の構成を説明するブロック図である。
【図21】バッジ15の更に他の実施の形態の背面の外観を示す図である。
【図22】バッジ15の更に他の実施の形態の構成を説明するブロック図である。
【図23】利用者1が他の実施の形態のバッジ15を装着した状態を説明する図である。
【図24】バッジ15の更に他の実施の形態の構成を説明するブロック図である。
【図25】バッジ15の位置を算出するCPU71の他の処理を説明する図である。
【図26】バッジ15の位置を算出するCPU71の他の処理を説明する図である。
【図27】バッジ15の位置を算出するCPU71の他の処理を説明する図である。
【図28】コンピュータ利用者管理システムの実施の形態を説明する図である。
【符号の説明】
11 撮像装置, 12 パーソナルコンピュータ, 13 ネットワーク,14 サーバ, 15 バッジ, 31 発光ダイオード, 71 CPU,81 通信ボード, 83 ビデオキャプチャボード, 101 流し撮り駆動回路, 102 CCDビデオカメラ[0001]
BACKGROUND OF THE INVENTION
The present invention User identification system In particular, identify users and locations of large sites or facilities User identification system About.
[0002]
[Prior art]
In an entertainment facility such as a museum or an amusement park or a game center, computers are being used to explain exhibitions or control facilities for attractions. Computers in these facilities operate in a predetermined manner regardless of the attributes of the users such as visitors or visitors (routes passed, sex, age, language used, etc.).
[0003]
When a user operates the computer directly from the touch panel or keyboard to request explanation of the exhibit or to instruct the operation of the attraction equipment, the computer will not enter unless the user inputs the attribute each time. , Can not operate according to the user's attributes. In museums or entertainment facilities, there are an unspecified number of users, and the operation of computers by users must be restricted to prevent malfunctions.
[0004]
A so-called ID tag that can transmit and receive an ID code and the like wirelessly can be used to identify the user's attributes. However, the communication distance between the ID tag and the corresponding communication device is usually 1 to 2. Since it is limited to about a meter, in a wide area such as a museum or an entertainment facility, the range of applicable equipment is limited, and a large number of dedicated communication devices must be installed, which is not practical.
[0005]
[Problems to be solved by the invention]
Thus, it is difficult to identify a user's attribute in a facility having a large floor area or a large site, and it is impossible to provide a service according to the user's attribute.
[0006]
The present invention has been made in view of such a situation. In a facility having a large floor area or a large site, a user can identify a user attribute with a simple device and provide a service according to the user attribute. The purpose is to be able to.
[0007]
[Means for Solving the Problems]
The user identification system according to claim 1, wherein the transmission device includes a light emitting unit that emits light with a predetermined pattern, a light emitting surface having a predetermined length, and a luminance that changes with the passage of time. An imaging means for imaging the light emitting means, a position calculating means for calculating the position of the three-dimensional space of the transmitting device from the size and position of the image of the light emitting means on the image data taken by the imaging means, and the imaging means Code calculation means for calculating a code corresponding to a predetermined pattern from the captured image data of the light emitting means, and a code for transmitting the code to the data providing apparatus and receiving user data transmitted from the data providing apparatus. And a storage unit that stores the user's data in association with the code, and that receives the code from the information processing apparatus and stores the code in the storage unit. Based on the second communication means for transmitting the data to the information processing apparatus and the code received by the second communication means, the user communication data to be transmitted to the information processing apparatus by the second communication means is retrieved from the storage means. And a search means.
[0008]
The user specifying system according to claim 6 includes three or more light-emitting means that emit light at a luminance that changes with the passage of time in a predetermined pattern in which the positional relationship between the transmitting devices is clear, and the position specifying means includes: The imaging means for imaging the light emitting means, the position calculating means for calculating the position and angle in the three-dimensional space of the transmitter from the position of the light emitting means of the image taken by the imaging means, and the image taken by the imaging means. Code calculating means for calculating a code corresponding to a predetermined pattern from image data of the light emitting means, and first communication means for transmitting the code to the data providing apparatus and receiving user data transmitted from the data providing apparatus The data providing apparatus includes a storage unit that stores the user data in association with the code, and a user that stores the code from the information processing apparatus and stores the code. Based on the second communication means for transmitting the data to the information processing apparatus and the code received by the second communication means, the second communication means retrieves the user data to be transmitted to the information processing apparatus from the storage means. And a search means.
[0021]
In the user identification system according to claim 1, the transmitting device emits light with a predetermined length and a predetermined pattern with a luminance that changes over time, and the information processing device captures and images the transmitting device. The position of the transmitting device in the three-dimensional space is calculated from the size and position of the image of the transmitting device on the image data, and a code corresponding to a predetermined pattern is calculated from the captured image data of the transmitting device, The code is transmitted to the data providing device, the user data transmitted from the data providing device is received, the data providing device stores the user data in correspondence with the code, and the code is received from the information processing device. The stored user data is transmitted to the information processing apparatus, and the user data to be transmitted to the information processing apparatus is searched based on the received code.
[0022]
The user identification system according to claim 6, wherein the positional relationship between the three or more transmitting devices is clear, light is emitted in a predetermined pattern with a luminance that changes with the passage of time, and the positional specifying means includes the transmitting device. , The position and angle of the transmitter in the three-dimensional space are calculated from the light emission position of the captured image, the code corresponding to the predetermined pattern is calculated from the captured image data, and the code is The data of the user transmitted to the data providing device is received, and the user data transmitted from the data providing device is received. The data providing device stores the user data in correspondence with the code. The code is received from the information processing device and stored. The user data being transmitted is transmitted to the information processing apparatus, and the user data transmitted to the information processing apparatus is searched based on the received code.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram for explaining the configuration of an embodiment of a user management system according to the present invention. The user 1-1 wears the badge 15-1 and observes the exhibits in the museum exhibition room 2-1, and the user 1-2 wears the badge 15-2 to display the museum exhibition room 2- The user 1-3 visits the exhibits in the museum exhibition room 2-3 by wearing the badge 15-3. When it is not necessary to distinguish the users 1-1 to 1-3, they are simply referred to as user 1 hereinafter. When it is not necessary to individually distinguish the badges 15-1 to 15-3, they are simply referred to as badges 15 hereinafter.
[0028]
The imaging device 11-1 is installed at a predetermined position in the exhibition room 2-1, and outputs an image including an image of the user 1-1 inside the exhibition room 2-1 to the personal computer 12-2. The imaging device 11-2 is installed at a predetermined position different from the position where the imaging device 11-1 of the exhibition room 2-1 is installed, and displays an image of the user 1-1 inside the exhibition room 2-1. The included image is output to the personal computer 12-2.
[0029]
The imaging device 11-3 is installed at a predetermined position in the exhibition room 2-2, and outputs an image including an image of the user 1-2 inside the exhibition room 2-2 to the personal computer 12-3. The imaging device 11-4 is installed at a predetermined position different from the position where the imaging device 11-3 of the exhibition room 2-2 is installed, and displays an image of the user 1-2 inside the exhibition room 2-2. The included image is output to the personal computer 12-3.
[0030]
The imaging device 11-5 is installed at a predetermined position in the exhibition room 2-3, and outputs an image including an image of the user 1-3 inside the exhibition room 2-3 to the personal computer 12-4. When it is not necessary to individually distinguish the imaging devices 11-1 to 11-5, they are simply referred to as the imaging device 11 hereinafter.
[0031]
The personal computer 12-1 is installed at the entrance of the museum. The person in charge of reception inputs data of attributes such as the name, gender, age, language used, etc. of the user 1 when the user 1 enters. The personal computer 12-1 supplies predetermined data to the badge 15 to be worn by the user 1, and transmits the data and attribute data of the user 1 to the server 14 via the network 13. The server 14 stores data of attributes such as the name, sex, age, language used, and the like of the user 1 supplied from the personal computer 12-1 and predetermined data supplied to the badge 15 to be worn by the user 1.
[0032]
The personal computer 12-2 identifies the badge 15-1 based on the imaging device 11-1 and the image supplied from the imaging device 11-2, and the position of the badge 15-1 (that is, the user 1-1). And the data specifying the badge 15-1 and the data indicating the position of the badge 15-1 are supplied to the server 14 via the network 13.
[0033]
The personal computer 12-3 identifies the badge 15-2 based on the images supplied from the imaging device 11-3 and the imaging device 11-4, calculates the position of the badge 15-2, and transmits the position via the network 13. Then, data specifying the badge 15-2 and data indicating the position of the badge 15-2 are supplied to the server 14.
[0034]
The personal computer 12-4 identifies the badge 15-3 based on the image supplied from the imaging device 11-5, calculates the position of the badge 15-3, and then via the network 13, the badge 15-3. And the data indicating the position of the badge 15-3 are supplied to the server 14. When it is not necessary to individually distinguish the personal computers 12-1 to 12-4, they are simply referred to as personal computers 12 below.
[0035]
The server 14 converts the data specifying the badge 15-1 supplied from the personal computer 12-2 into data specifying the user 1-1, and stores it together with data indicating the position of the badge 15-1. The server 14 converts the data specifying the badge 15-2 supplied from the personal computer 12-3 into data specifying the user 1-2, and stores it together with data indicating the position of the user 1-2. The server 14 converts the data specifying the badge 15-3 supplied from the personal computer 12-4 into data specifying the user 1-3, and stores the data together with data indicating the position of the badge 15-3. These data stored in the server 14 are attached with data indicating the date and time.
[0036]
The system for explaining the museum administrator or the museum exhibits knows the attributes of the users 1-1 to 1-3, the current position, and the travel history from these data stored in the server 14. Can do.
[0037]
FIG. 2 is a diagram illustrating a state in which the user 1 who visits the museum wears a predetermined badge 15. When the user 1 enters the museum, the user 1 receives the badge 15 and fixes it at a predetermined position such as the left chest. The badge 15 is stored with predetermined data before being delivered to the user 1.
[0038]
The badge 15 includes a light emitting diode 31 that emits infrared light, and the light emitting diode 31 blinks in a blinking pattern unique to the badge 15. The unique blinking pattern of the light emitting diode 31 of the badge 15 is determined by data (hereinafter referred to as an ID code of the badge 15) input from the personal computer 12-1 before being delivered to the user 1.
[0039]
FIG. 3 is a diagram illustrating the connection between the badge 15 and the personal computer 12-1 when predetermined data is stored in the badge 15 before being delivered to the user 1. The badge 15 is attached to the PC badge interface 21. The personal computer 12-1 outputs predetermined data such as an ID code of the badge 15 from the RS232C port to the RS232C conversion circuit 23 of the PC badge interface 21. The PC badge interface 21 supplies the data received from the personal computer 12-1 to the badge 15 through a signal terminal 32 to which the ID badge interface 22 is connected.
[0040]
When the personal computer 12-1 supplies predetermined data to the badge 15, the personal computer 12-1 supplies the data together with the attribute data of the user 1 to the server 14 via the network 13 connected to the communication board. The personal computers 12-2 to 12-4 receive data input to the badge 15 and attribute data of the user 1 from the server 14.
[0041]
The ID badge interface 22 of the PC badge interface 21 supplies predetermined power to the badge 15 via the power terminal 33 and the ground terminal 34 of the badge 15 in addition to predetermined data.
[0042]
FIG. 4 is a block diagram illustrating the configuration of the badge 15. The clock generation circuit 35 generates a clock signal having a predetermined frequency and supplies the clock signal to the Nbit counter 36 and the control logic 37. The Nbit counter 36 reads the ID code of the badge 15 from the ID code memory 38 when the operation of the badge 15 starts, and causes the light emitting diode 31 to emit light based on the ID code and the clock signal supplied from the clock generation circuit 35. A signal is supplied to the LED driver 39.
[0043]
The control logic 37 controls the entire badge 15 in synchronization with the signal supplied from the clock generation circuit 35, and receives and stores predetermined data supplied from the personal computer 12-1 via the signal terminal 32. Further, the control logic 37 causes the ID code memory 38 to store an ID code designating the blinking pattern received from the personal computer 12-1.
[0044]
The LED driver 39 supplies the light emitting diode 31 with predetermined power for turning on the light emitting diode 31 based on the signal supplied from the Nbit counter 36. The light emitting diode 31 emits infrared rays in a predetermined blinking pattern based on the power supplied from the LED driver 39.
[0045]
The battery 40 is a lithium hydrogen battery, a lithium ion battery, or the like, stores the power supplied from the PC badge interface 21 via the power terminal 33 and the ground terminal 34, and supplies power to the DC / DC converter 40 and the LED driver 39. Supply. When the operation time of the badge 15 may be short, it may be stored in a super capacitor instead of the battery 40.
[0046]
The DC / DC converter 40 boosts the power supplied from the battery 40 to a predetermined voltage and supplies it to the clock generation circuit 35, the Nbit counter 36, the control logic 37, and the ID code memory 38.
[0047]
FIG. 5 is a block diagram illustrating the configuration of the personal computer 12. A CPU (central processing unit) 71 actually executes various application programs and a basic OS (operating system). A ROM (read-only memory) 72 generally stores basically fixed data out of programs used by the CPU 71 and parameters for calculation. A RAM (random-access memory) 73 stores programs used in the execution of the CPU 71 and parameters that change as appropriate in the execution. These are connected to each other by a bus 74.
[0048]
The keyboard 76 is operated by the user when inputting various commands to the CPU 71. The mouse 77 is operated by the user when specifying or selecting a point on the screen of a CRT (cathode ray tube) 78. The CRT 78 displays various information as text and images. An HDD (hard disk drive) 79 and an FDD (floppy disk drive) 80 drive a hard disk or a floppy disk, respectively, and record or reproduce programs executed by the CPU 71 or information.
[0049]
The communication board 81 is a device for connecting to the network 13, and specifically includes an Ethernet board or the like. The RS232C port 82 is connected to a cable based on the RS232C standard, transmits / receives a signal based on the RS232C standard, and supplies predetermined data to the PC badge interface 21. The video capture board 83 inputs a moving image signal supplied from the imaging device 11 and supplies a still image included in the moving image to the CPU 71 or the RAM 73 as digital data.
[0050]
These keyboard 76 to video capture board 83 are connected to an interface 75, and the interface 75 is connected to the CPU 71 via a bus 74.
[0051]
FIG. 6 is a block diagram illustrating a configuration of the imaging device 11. A CCD (Charge Coupled Device) video camera 102 is driven by a panning drive driving circuit 101 and images the light emitting diode 31 of the badge 15 by so-called panning imaging. The CCD video camera 102 outputs image data of a blinking pattern of the light emitting diodes 31 of the badge 15 obtained by sink imaging to the personal computer 12. The filter 103 is an optical filter that suppresses light other than the light emitting point emitted from the light emitting diode 31 from being incident on the CCD video camera 102, and is provided in front of the lens unit (not shown) of the CCD video camera 102. ing.
[0052]
Next, the processing procedure of the CPU 71 of the personal computer 12 when calculating the distance from the badge 15 to the imaging device 11 will be described with reference to FIGS. FIG. 7 shows an image obtained by using a CCD 121 having a size of 1/3 inch (vertical 3.6 mm × horizontal 4.8 mm), vertical 492 pixels × horizontal 510 pixels, and pixel size 7.5 μm × horizontal 9.6 μm. It is a top view explaining the example which image | photographs the light emitting diode 31 of the badge 15 with the CCD video camera 102 whose angle | corner is 60 degree | times. The angle of view per pixel of the CCD 121 is 0.118 degrees (= 60 degrees / 510 pixels).
[0053]
When the width of the light emitting surface of the light emitting diode 31 of the badge 15 is 10 mm, when the image of the light emitting diode 31 is captured by one pixel of the CCD 121, as shown in FIG. The distance L2 to the virtual origin of the CCD video camera 102 is approximately obtained as 4885 mm (= 5 mm / tan (0.118 / 2)). At this time, since the distance L3 from the CCD 121 to the virtual origin is 4.6 mm (= 4.8 μm / tan (0.118 / 2)), the distance L1 from the light emitting surface of the light emitting diode 31 to the CCD 121 is almost equal. , Equal to L2.
[0054]
Similarly, for example, when the width of the light emitting surface of the light emitting diode 31 of the badge 15 is 10 mm, when the image of the light emitting diode 31 is picked up by 10 pixels of the CCD 121, the light emitting surface of the light emitting diode 31 to the CCD 121 is captured. The distance L1 is about 48 cm.
[0055]
Thus, the distance L1 from the light emitting surface of the light emitting diode 31 to the CCD 121 is calculated by the equation (1).
L1 = (W / 2) / (tan (θ / 2) × N) (1)
W is the width of the light emitting surface of the light emitting diode 31. As for θ, one pixel of the CCD 121 is an angle of view. N is the number of pixels on which an image of the light emitting diode 31 is captured.
[0056]
As described above, based on the width of the light emitting surface of the light emitting diode 31 of the badge 15 and the capability of the CCD video camera 102, the size of the image of the light emitting surface of the light emitting diode 31 included in the image captured by the CCD video camera 102. Therefore, the CPU 71 of the personal computer 12 calculates the distance from the badge 15 to the imaging device 11.
[0057]
The CPU 71 of the personal computer 12 can detect the blinking pattern of the light emitting diode 31 of the badge 15, that is, the ID code, by comparing the images captured by the CCD video camera 102 in time series.
[0058]
Further, the CPU 71 of the personal computer 12 can also detect the blinking pattern of the light emitting diode 31 of the badge 15, that is, the ID code, from the image captured by the CCD video camera 102 of the imaging device 11. Here, sink imaging performed by the CCD video camera 102 of the imaging apparatus 11 will be described with reference to FIGS. 9 to 11. Flow imaging means an imaging method in which the output of a photodiode constituting each pixel is transferred to the vertical transfer CCD a plurality of times during the same field in the CCD image sensor incorporated in the CCD video camera 102. On the other hand, in the normal imaging method, the output of the photodiode constituting each pixel is transferred to the vertical transfer CCD only once during the same field.
[0059]
Therefore, for example, as shown in FIG. 9A, the light emitting diode 31 of the badge 15 is turned off during a period of 12 HD (Horizontal Drive: horizontal scanning cycle) during the period of one field, When the blinking pattern 1 that is turned on is repeated twice, if this is imaged by a normal imaging method, only one light emitting point is imaged. However, this is captured by the CCD video camera 102, and as shown in FIG. 9B, the output of the light-emitting diodes constituting each pixel is transferred to the vertical transfer CCD at a rate of once per 2HD. Then, as shown in FIG. 9C, a plurality of outputs (lighted or turned off) of the light emitting diode 31 appear in the image obtained as a result. In this example, it is assumed that the light emitting diode 31 has a size of three lines on the imaging screen.
[0060]
Therefore, when an image output from the CCD video camera 102 as shown in FIG. 9C is supplied to the video capture board 83 of the personal computer 12, the video capture board 83 performs capture processing on the image, An image as shown in FIG. 10 is generated. As described above, since the light emitting diodes 31 of the badge 15 are represented by three lines, each output image partially overlaps with the preceding and following output images, and the brightness of the pixels of the captured image is stepwise. Has changed.
[0061]
For example, in line L8, the image of the light emitting diode 31 that is lit is superimposed three times, so that the brightness is the brightest D, and in line L7, the image that is lit is turned off twice. Since the image in the state is displayed once, the luminance C is darker than the luminance D, and in the line L6, the image in the lit state is displayed once and the image in the unlit state is displayed twice. Since the brightness B is darker than the brightness C and the image in the off state is displayed three times in the line L5, the brightness A is darker than the brightness B.
[0062]
Further, when the image as shown in FIG. 10 output from the video capture board 83 is supplied to the CPU 71, the CPU 71 performs binarization processing on the image to generate an image as shown in FIG. . In this case, the brightness represented by brightness A and brightness B of the image shown in FIG. 10 is brightness L, and the brightness represented by brightness C and brightness D is brightness H. Also, the pixel value of the pixel with luminance H is encoded as “1”, and the pixel value of the pixel with luminance L is encoded as “0”.
[0063]
As described above, by performing flow imaging, two temporal changes in luminance during one field period are converted into two spatial changes. In the embodiment of the present invention, the light emission state of the light emitting diode 31 of the badge 15 is observed based on this principle.
[0064]
Next, the position of the bright spot on the plane (image plane) perpendicular to the line connecting the lens of the CCD video camera 102 and the CCD from the image data converted into the spatial pattern obtained as described above. A processing procedure of the CPU 71 of the personal computer 12 when detecting the above will be described.
[0065]
FIG. 12A shows a bright spot Li1 corresponding to the light emitting diode 31 of the badge 15-1, arranged as shown in FIG. 13, a bright spot Li2 corresponding to the light emitting diode 31 of the badge 15-2, and a badge 15-. The image data of the blinking pattern of the bright spot Li3 corresponding to the three light emitting diodes 31 is converted into a spatial pattern. When obtaining the positions of the bright spots Li1, Li2, and Li3, the CPU 71 of the personal computer 12 captured the pixel value “1” of the bright spot arranged on the scanning line as shown in FIG. 12B. It adds to the direction (in this example, the z-axis direction), a peak is obtained from the addition, and the coordinate on the y-axis where the peak is located is set as the Y coordinate of the bright spot on the display image. In the case of this display example, the Y coordinates on the display image of the bright spots Li1, Li2, and Li3 are Y1, Y2, and Y3, respectively.
[0066]
On the other hand, in the Z coordinate, the coordinate on the z-axis of the bright spot that is first emitted becomes the Z coordinate on the display image of the bright spot. In the case of this display example, since the shooting imaging direction is a negative direction, the luminescent spot 1, the luminescent spot 2, and the luminescent spot 3 are the first points where light has started to be emitted. Z1, Z2, and Z3, which are coordinates on the z-axis of the bright spot 3, are the Z coordinates of the bright spots Li1, Li2, and Li3.
[0067]
In this way, as shown in FIG. 13, the CPU 71 has Y and Z coordinates on the display image of the bright spots Li1, Li2, and Li3, that is, (Y1, Z1), (Y2, Z2), (Y3, Z3). )
[0068]
Next, the processing procedure of the CPU 71 of the personal computer 12 when detecting a blinking pattern of bright spots will be described with reference to FIG.
[0069]
FIG. 14A shows the spatial pattern of the bright spot Li1 shown in FIG. When detecting the state of the bright spot Li1, the CPU 71 of the personal computer 12 selects a bright spot within a predetermined variation range (Y1-ΔY <Y <Y1 + ΔY) with respect to the Y coordinate Y1, and adds it in the Y-axis direction. Then, as shown in FIG. 14B, the peak is obtained. Next, the CPU 71 binarizes the obtained peak with a predetermined threshold value to generate bit pattern information as shown in FIG. The state of the bright spot Li1 is detected from the bit pattern (10101010) thus obtained. In the case of this example, the bright spot Li1 is flashing in such a flashing pattern that an 8-bit ID code is extracted.
[0070]
In this way, the badge 15 emits a bright spot with a predetermined pattern unique to the badge 15 (that is, unique to the user 1), and the image is processed by flowing and processing it as described above. The ID code can be detected simultaneously.
[0071]
Therefore, for example, if the interior of the museum exhibition room 2-1 is divided into areas A to I as shown in FIG. 15, the personal computer 12-2 is supplied from the imaging device 11-1 or 11-2. Data indicating the ID code and position (any one of the areas A to I) of the badge 15 is calculated from the image every predetermined time (for example, every 1/30 seconds) and supplied to the server 14. it can.
[0072]
The server 14 converts the ID code of the badge 15 supplied from the personal computers 12-2 to 12-4 into a user ID for identifying the user 1, and together with data indicating the position of the badge 15, date, and time, for example, And stored as shown in Table (1).
<Table 1>
Room number 12; Time 12:30:25; 1998 7/10
Location ABC D E F G ...
User ID 0001 1000 0001
Room number 13; Time 12:30:25; 1998 7/10
Location ABC D E F G ...
User ID 0011 0101 0111
[0073]
The administrator of the personal computer 12 or the museum can know the current position of the user 1 and the movement history by referring to the data in the table (1) stored in the server 14.
[0074]
Next, the process in which the user management system stores the movement of the user 1 will be described with reference to the flowchart of FIG. In step S11, the person in charge at the entrance of the museum inputs data of attributes such as the name, gender, age, language used, etc. of the user 1 into the personal computer 12-1. In step S <b> 12, the person in charge at the entrance of the museum operates a switch (not shown) to turn on the badge 15 and attaches the badge 15 to the PC badge interface 61. The personal computer 12-1 transmits predetermined data such as an ID code of the badge 15 to the badge 15 attached to the PC badge interface 61. The badge 15 receives the predetermined data and receives the ID code memory 38 of the badge 15. To remember.
[0075]
In step S13, the CPU 71 of the personal computer 12-1 causes the communication board 81 to transmit to the server 14 predetermined data such as the attribute data of the user 1 input in step S11 and the ID code supplied to the badge. 14 receives the data supplied from the personal computer 12-1, and generates a user ID for identifying the user based on the data. The server 14 stores the data and user ID supplied from the personal computer 12-1.
[0076]
In step S14, the user 1 fixes the badge 15 that the light emitting diode 31 emits light in a predetermined light emission pattern to the chest.
[0077]
In step S <b> 15, the CPU 71 of the personal computer 12 detects the blinking pattern of the light emitting diode 31 of the badge 15 based on the image supplied from the imaging device 11 and obtains the ID code of the badge 15. In step S <b> 16, the CPU 71 of the personal computer 12 calculates the position of the badge 15 based on the image supplied from the imaging device 11.
[0078]
In step S17, the CPU 71 of the personal computer 12 causes the communication board 81 to transmit the ID code of the badge 15 obtained in step S15 and the position of the badge 15 obtained in step S16 to the server 14, and the server 14 ID code and the position of the badge 15 are received.
[0079]
In step S18, the server 14 obtains the user ID of the user corresponding to the ID code of the badge 15, and stores the user ID of the user together with the position, date, and time of the badge 15.
[0080]
As described above, the user management system stores the current position and movement history of the user 1 by obtaining the ID code and position of the badge 15.
[0081]
FIG. 17 is a flowchart for explaining details of the setting process of the badge 15 corresponding to step 12 of FIG. In step S <b> 31, when the battery 40 is not attached to the badge 15, the person in charge at the entrance of the museum attaches the battery 40 to the badge 15. The control logic 37 executes predetermined initialization processing such as clearing the internal RAM and setting a stack pointer. In step S32, the control logic 37 of the badge 15 enters a sleep mode after the initialization is completed.
[0082]
In step S33, the control logic 37 determines whether or not a power switch (not shown) is turned on. If it is determined that the power switch is turned off, the process returns to step S33 until the power switch is turned on. Repeat the process. If it is determined in step S33 that the power switch is turned on, the procedure proceeds to step S34, and the control logic 37 cancels the sleep mode and enters the operation mode.
[0083]
In step S35, the control logic 37 determines whether or not data is input from the signal terminal 32. If it is determined that no data is input from the signal terminal 32, the control logic 37 returns to step S35 and returns from the signal terminal 32. The determination process is repeated until data is input. If it is determined in step S35 that data is input from the signal terminal 32, the process proceeds to step S36, and the control logic 37 determines whether the data input from the signal terminal 32 is an ID code. . If it is determined in step S36 that the data input from the signal terminal 32 is an ID code, the control logic 37 receives the input ID code and stores it in the ID code memory 38.
[0084]
If it is determined in step S36 that the data input from the signal terminal 32 is not an ID code, the process proceeds to step S43, and the control logic 37 determines whether the input data is date data. If it is determined that the input data is date data, the process proceeds to step S44, and the control logic 37 stores the input date data at a predetermined address in the internal memory.
[0085]
If it is determined in step S43 that the input data is not date data, the process proceeds to step S45, and the control logic 37 stores the input data at a predetermined address in the internal memory.
[0086]
In step S38, the control logic 37 determines whether or not necessary data has been input. If it is determined that the necessary data has not been input, the control logic 37 returns to step S35 and repeats the data reading process.
[0087]
If it is determined in step S38 that necessary data has been input, the procedure proceeds to step S39, where the Nbit counter 36 reads the ID code stored in the ID code memory 38 and is supplied from the clock generation circuit 35. Based on the clock signal, a signal for instructing blinking is supplied to the LED driver 39. The LED driver 39 supplies power to the light emitting diode 31 in a predetermined pattern based on the signal supplied from the Nbit counter 36, and the light emitting diode 31 blinks in a predetermined pattern.
[0088]
In step S40, the control logic 37 determines whether or not the power switch is turned off. If it is determined that the power switch is not turned off, the process returns to step S39, and the light emitting diode 31 of the badge 15 emits light. repeat.
[0089]
If it is determined in step S40 that the power switch is OFF, the process proceeds to step S41, and the control logic 37 stores the ID code stored in the ID code memory 38 and the date stored in the control logic memory. Clear data and other data. In step S42, the control logic 37 enters the sleep mode, returns to step S33, and waits until the power switch is turned on.
[0090]
As described above, when the power switch is turned on, the badge 15 reads predetermined data such as an ID code from the personal computer 12-1, and causes the light emitting diode 31 to emit light based on the read ID code.
[0091]
FIG. 18 is a block diagram for explaining another embodiment of the badge 15. The same parts as those in FIG. 4 are denoted by the same reference numerals, and the description thereof is omitted. The microprocessor 121 is a so-called one-chip microcomputer incorporating a predetermined memory and an input / output port. The power switch 122 is a push-type switch that switches from ON to OFF or from OFF to ON each time it is pressed, and supplies a signal corresponding to the ON or OFF state to the microprocessor 121.
[0092]
The switch 123 is turned on or off under the control of the microprocessor 121. When the switch 123 is ON, the power of the battery 39 is supplied to the LED driver 38 and the DC / DC converter 40. When the switch 123 is OFF, the power of the battery 39 is supplied to the LED driver 38 and the DC / DC converter 40. Not.
[0093]
The LCD display 124 is in a state of the badge 15 supplied from the microprocessor 121 (for example, the power switch 122 is ON, the microprocessor 121 is in the sleep mode, and the output voltage of the battery 39 is equal to or lower than a predetermined voltage. Etc.), the date, the expiration date of the badge 15, the name of the user 1, etc. are displayed.
[0094]
In the badge 15 shown in FIG. 18, when the battery 39 is attached to the badge 15, the microprocessor 121 performs initialization by the standby power supplied from the battery 39 and enters the sleep mode. When the power switch 122 is turned on in the sleep mode, the microprocessor 121 turns on the switch 123 to supply the power of the battery 39 to the LED driver 38 and the DC / DC converter 40, and executes the processing after step S35 in FIG. To do.
[0095]
When the power switch 122 of the badge 15 is turned from ON to OFF, the microprocessor 121 clears the ID code, date, or other data received from the personal computer 12-1, turns off the switch 123, and turns on the battery 39. Supply to the LED driver 38 and the DC / DC converter 40 is stopped, and a transition is made to the sleep mode.
[0096]
Compared with the badge 15 shown in FIG. 4, the badge 15 shown in FIG. 18 can be realized with a simple configuration, and the consumption of the battery 39 can be reduced. Instead of the power switch 122, the contact of the power switch 122 may be exposed to the outside so that only the person in charge can operate it, and the person in charge may short-circuit the contact with a predetermined instrument. In this case, the microprocessor 121 switches modes by the short circuit.
[0097]
FIG. 19 is a view showing the external appearance of the back surface of still another embodiment of the badge 15. The badge 15 includes a clip 151 for fixing the badge 15 to the user 1, and a terminal 152 provided at a portion where the tip portion of the clip 151 contacts the badge 15. Each of the clip 151 and the terminal 152 is formed of a conductive material such as metal, plated plastic, or conductive plastic. The badge 15 of FIG. 19 has a configuration shown in the block diagram of FIG. That is, the clip 151 and the terminal 152 constitute a contact point and a contact piece of the power switch 122.
[0098]
When the badge 15 shown in FIG. 19 is not used, the power switch 122 is closed (ON), and when it is worn on the clothes of the user 1 (that is, when used), the power switch 122 is open (OFF). ) The microprocessor 121 enters a normal operation mode when the power switch 122 is ON, and enters a sleep mode when the power switch 122 is OFF.
[0099]
Therefore, in the badge 15 shown in FIG. 19, it is not necessary to provide a dedicated switch such as a push type as the power switch 122, and the trouble of operating the switch 122 during use can be saved.
[0100]
Further, instead of the clip 151 and the terminal 152, as shown in FIG. 21, a needle 161 and a needle receiver 162 each having a safety pin shape may be used. The needle 161 and the needle receiver 162 are made of a conductive material such as metal, plated plastic, or conductive plastic. The needle 161 and the needle receiver 162 of the badge 15 in FIG. 21 constitute the contact point and contact piece of the power switch 122 in FIG. 20, as in the case of the badge 15 in FIG.
[0101]
Furthermore, as shown in the block diagram of FIG. 22, the badge 15 may have a clip 151 and a terminal 152, and a needle 161 and a needle receiver 162. When the badge 15 has the configuration shown in FIG. 22, the microprocessor 121 determines whether the badge 15 is attached or not as shown in Table (2), and based on the result of the determination, the sleep mode and the normal operation Perform mode switching.
<Table 2>
Clip 151 / terminal 152 needle 161 / needle receiver 162 judgment
ON ON wearing
OFF ON wearing
ON OFF Not installed
OFF OFF Not installed
[0102]
When the needle 161 is detached from the needle receiver 162, the microprocessor 121 determines that it is not attached even when the clip 151 and the terminal 152 are OFF for safety.
[0103]
Next, another embodiment of the badge 15 and processing for calculating the position of the badge 15 by the personal computer 12 at that time will be described. FIG. 23 is a diagram showing a badge 15 according to another embodiment attached to the user 1. The badge 15 shown in FIG. 23 includes light emitting diodes 31-1 to 31-4 whose positional relationships are clearly grasped. The light emitting diodes 31-1 to 31-4 blink in a predetermined light emission pattern.
[0104]
FIG. 24 is a block diagram showing a configuration of the badge 15 shown in FIG. The same parts as those shown in FIG. 4 are denoted by the same reference numerals, and the description thereof is omitted. The Nbit counter 36-1 reads a predetermined ID code from the ID code memory 38 when the operation of the badge 15 starts, and uses the ID code and the clock signal supplied from the clock generation circuit 35 as a reference to the light emitting diode 31-1. The LED driver 39-1 is supplied with a signal for causing the LED driver 39-1 to emit light. The LED driver 39-1 supplies the light emitting diode 31-1 with predetermined power for lighting the light emitting diode 31-1, based on the signal supplied from the Nbit counter 36-1. The light emitting diode 31-1 emits infrared rays with a predetermined blinking pattern based on the power supplied from the LED driver 39-1.
[0105]
The Nbit counter 36-2 reads a predetermined ID code from the ID code memory 38 when the operation of the badge 15 starts, and uses the ID code and the clock signal supplied from the clock generation circuit 35 as a reference to the light emitting diode 31-2. A signal for causing the LED driver 39-2 to emit light is supplied to the LED driver 39-2. The LED driver 39-2 supplies predetermined power for lighting the light emitting diode 31-2 to the light emitting diode 31-2 based on the signal supplied from the Nbit counter 36-2. The light emitting diode 31-2 emits infrared rays in a predetermined blinking pattern based on the power supplied from the LED driver 39-2.
[0106]
The Nbit counter 36-3 reads a predetermined ID code from the ID code memory 38 when the operation of the badge 15 starts up, and uses the ID code and the clock signal supplied from the clock generation circuit 35 as a reference to the light emitting diode 31-3. A signal for causing the LED driver 39-3 to emit light is supplied to the LED driver 39-3. The LED driver 39-3 supplies predetermined power for lighting the light emitting diode 31-3 to the light emitting diode 31-3 based on the signal supplied from the Nbit counter 36-3. The light emitting diode 31-3 emits infrared rays in a predetermined blinking pattern based on the power supplied from the LED driver 39-3.
[0107]
The Nbit counter 36-4 reads a predetermined ID code from the ID code memory 38 when the operation of the badge 15 starts up, and uses the ID code and the clock signal supplied from the clock generation circuit 35 as a reference to the light emitting diode 31-4. A signal for causing the LED driver 39-4 to emit light is supplied to the LED driver 39-4. The LED driver 39-4 supplies predetermined power for lighting the light emitting diode 31-4 to the light emitting diode 31-4 based on the signal supplied from the Nbit counter 36-4. The light emitting diode 31-4 emits infrared rays in a predetermined blinking pattern based on the power supplied from the LED driver 39-4.
[0108]
Next, the processing of the CPU 71 of the personal computer 12 for calculating the position of the badge 15 shown in FIG. 23 will be described. First, the CPU 71 calculates a vanishing point from the images of the light emitting diodes 31-1 to 31-4 supplied from the imaging device 11. A process in which the CPU 71 calculates the vanishing point from the images of the light emitting diodes 31-1 to 31-4 will be described with reference to FIG.
[0109]
In the following description, the image coordinate system is a coordinate system with the viewpoint of the CCD video camera 102 as the origin. A point a on the image plane indicates an image of the light emitting diode 31-1, a point b on the image plane indicates an image of the light emitting diode 31-2, and a point c on the image plane indicates the light emitting diode 31-3. An image is shown, and a point d on the image surface shows an image of the light emitting diode 31-4.
[0110]
First, as shown in FIG. 25, the vanishing point U (x u , Y u ) Is an intersection of a straight line ab passing through the points a and b on the image plane and a straight line cd passing through the points c and d, and the vanishing point V (x v , Y v ) Is an intersection of a straight line ad passing through the points a and d and a straight line bc passing through the points b and c. The straight line ab is represented by Expression (2), the straight line cd is represented by Expression (3), the straight line ad is represented by Expression (4), and the straight line bc is represented by Expression (5).
α 1 x + β 1 y = γ 1 (2)
α 2 x + β 2 y = γ 2 (3)
α Three x + β Three y = γ Three (4)
α Four x + β Four y = γ Four (5)
[0111]
Therefore, the vanishing point U (x u , Y u ) Coordinates are calculated by Equation (6) and Equation (7), and the vanishing point V (x v , Y v ) Coordinates are calculated by equation (8) and equation (9).
x u = (Β 2 γ 11 γ 2 ) / (Α 1 β 22 β 1 (6)
y u = (Α 1 γ 22 γ 1 ) / (Α 1 β 22 β 1 (7)
x v = (Β Four γ ThreeThree γ Four ) / (Α Three β FourFour β Three (8)
y v = (Α Three γ FourFour γ Three ) / (Α Three β FourFour β Three (9)
[0112]
Here, the coordinates of the point a on the image plane are (x 1 , Y 1 ), The coordinates of point b are (x 2 , Y 2 ), The coordinates of point c are (x Three , Y Three ), And the coordinates of the point d are (x Four , Y Four ) 1 , Β 1 , Γ 1 , Α 2 , Β 2 , Γ 2 , Α Three , Β Three , Γ Three , Α Four , Β Four , And γ Four Are the equations (10), (11), (12), (13), (14), (15), (16), (17), (18), ( 19), equation (20), and equation (21).
α 1 = Y 1 -Y 2 (10)
β 1 =-(X 1 -X 2 (11)
γ 1 = X 2 y 1 -X 1 y 2 (12)
α 2 = Y Three -Y Four (13)
β 2 =-(X Three -X Four (14)
γ 2 = X Four y Three -X Three y Four (15)
α Three = Y 1 -Y Four (16)
β Three =-(X 1 -X Four (17)
γ Three = X Four y 1 -X 1 y Four (18)
α Four = Y 2 -Y Three (19)
β Four =-(X 2 -X Three (20)
γ Four = X Three y 2 -X 2 y Three (21)
[0113]
Next, the CPU 71 calculates the inclination of the badge 15 from the vanishing point U (xu, yu) and the vanishing point V (xv, yv). As shown in FIG. 26, the z-axis of the image coordinate system is perpendicular to the image plane and z = 1 of the image coordinate system so that the coordinate point on the image coordinate system can be normalized by the focal length f of the lens. The image coordinate system is set so that the image plane is located. Point P in space a (X a , Y a , Z a ) Is a point p on the image plane by perspective transformation. a (X a / Z a , Y a / Z a ).
[0114]
Passing through point P, direction vector v = (v x , V y , V z ) On the straight line L in the space having l Is represented by equation (22), and the point P l Point p projected onto the image plane l Is represented by equation (23).
P l = P a + Tv
= (X a + Tv x , Y a + Tv y , Z a + Tv z (22)
p l = ((X a + Tv x ) / (Z a + Tv z ), (Y a + Tv y )
/ (Z a + Tv z ))
= ((X a / T + v x ) / (Z a / T + v z ),
(Y a / T + v y ) / (Z a / T + v z )) (23)
[0115]
Since the vanishing point is a projection image when a straight line having a certain direction vector is extended to infinity, p at t → ∞ is set. l Is the vanishing point and is represented by the formula (24).
[Expression 1]
Figure 0004232252
[0116]
A normal vector n (p of a plane π in space s , Q s , −1) is the direction vector u = (u x , U y , U z ), The equation (25) is established, and the equation (26) is obtained by modifying the equation (25). (Hereafter, variables with “→” in the formula indicate that they are vectors)
[Expression 2]
Figure 0004232252
p s (U x / U z ) + Q s (U y / U z ) = 1 (26)
[0117]
(U) in equation (26) x / U z ) And (u y / U z ) Represents the vanishing point as shown in the equation (24). Further, since the direction vector u is arbitrary, Expression (26) represents a set of vanishing points on the image plane, that is, a vanishing line. Conversely, when there is a vanishing line ax + by = 1, the inclination of the plane having the vanishing line is (a, b, −1). Therefore, the vanishing point U (x u , Y u ) And vanishing point V (x v , Y v ) Is used to calculate the vanishing line by equation (27).
((-Y u + Y v ) / (X u y v -X v y u )) X
+ ((X u -X v ) / (X u y v -X v y u )) Y = 1 (27)
[0118]
From this, the normal vector n of the rectangle ABCD abcd Can be expressed by equation (28).
[Equation 3]
Figure 0004232252
[0119]
Normal vector n abcd Is normalized to obtain a vector N.
[Expression 4]
Figure 0004232252
However, the operator || vector || is an operator for obtaining the absolute value of the vector.
[0120]
As described above, the CPU 71 calculates the inclination of the badge 15 from the images of the light emitting diodes 31-1 to 31-4 of the badge 15.
[0121]
Next, the CPU 71 obtains the distance from the CCD video camera 102 to the badge 15 based on the inclination of the badge 15. FIG. 27 is a side view of the CCD video camera 102 and the badge 15. Calculated based on the point a, the origin o of the image coordinate system and the origin O of the badge coordinate system (a straight line connecting the light emitting diode 31-1 and the light emitting diode 31-3, the light emitting diode 31-2, and the light emitting diode 31-4). D) a Is calculated by equation (30).
d a = (‖AO‖sinθ a ) / (Sin (θ a + Φ a (30)
Here, ‖AO‖ is known. θ a Is defined by equation (31) and φ a Is an angle defined by equation (32).
θ a = OOA (31)
φ a = OAO (32)
[0122]
Similarly, the distance d between the origin o of the image coordinate system and the origin O of the badge coordinate system, calculated based on the point b b The distance d between the origin o of the image coordinate system and the origin O of the badge coordinate system, calculated based on the point c c , And the distance d between the origin o of the image coordinate system and the origin O of the badge coordinate system, calculated on the basis of the point d d And the distance d a , Distance d b , Distance d c , And distance d d Is the distance d from the origin o of the image coordinate system to the origin O of the badge coordinate system ave It is said.
[0123]
A translation vector t from the origin o of the image coordinate system to the origin O (the center of the rectangle ABCD) of the badge coordinate system is calculated by Expression (33).
[Equation 5]
Figure 0004232252
[0124]
As described above, from the position of the badge in the image, the position (X m , Y m , Z m ) And angle (Rx m , Ry m , Rz m ) Is calculated. In the description of the processing for calculating the position and angle of the badge 15, it has been described that the image plane is located at z = 1 in the image coordinate system. However, if ps and qs are corrected by the focal length f of the CCD video camera 102, Even when the focal length f of the CCD video camera 102 is other than 1, an accurate position and angle can be calculated.
[0125]
In addition, although demonstrated that the four light emitting diodes 31 were provided in the badge 15, if the badge 15 was equipped with three or more light emitting diodes 31 with a clear positional relationship with each other, the badge 15 is obtained by the above processing. Can be determined.
[0126]
If the light emitting diodes 31-1 to 31-4 blink with different predetermined light emission patterns, the CPU 71 causes the light emitting diodes 31-1 to point a, point b, point c, and point d on the image plane. To 31-4 can be easily calculated. If the CPU 71 can calculate the correspondence of the light-emitting diodes 31-1 to 31-4 to the points a, b, c, and d on the image plane by other processing, for example, the light-emitting diodes 31-1 to 31-31. -4 may blink in the same predetermined light emission pattern.
[0127]
Alternatively, for example, the light emitting diode 31-1 blinks in a predetermined light emitting pattern, the light emitting diodes 31-2 to 31-4 are continuously lit, and the calculation range of the angle of the badge 15 of the CPU 71 is: You may make it specify in a predetermined range.
[0128]
As described above, by using the use manager system of the present invention, it is possible to know the attributes and the current position of the user 1 of the site or building having a large area. For example, the user 1 approaches a predetermined exhibit. The headphone of the user 1 is supplied with an explanation that highlights the difference from the exhibits that the user 1 has visited before, or the name of the user 1 in the description of the exhibits It will be possible to provide fine-grained services such as calling and greeting.
[0129]
Finally, a computer user management system according to the present invention will be described. FIG. 28 is a diagram for explaining an embodiment of a computer user management system. The imaging device 11 connected to the personal computer 12 is installed so as to image the badge 15 worn by the user 1 of the personal computer 12. The personal computer 12 identifies the ID code of the badge 15 worn by the user 1 from the image captured by the imaging device 11. The personal computer 12 transmits the ID code of the badge 15 to the server 14 connected via the network 13, and the personal computer 12 of the user 1 registered corresponding to the ID code of the badge 15 is transmitted to the server 14. Requests transmission of data for determining whether or not to permit use.
[0130]
The personal computer 12 determines whether or not to permit the use of the personal computer 12 based on the data for determining whether or not to permit the use of the personal computer 12 of the user 1 and uses the personal computer 12. If it is determined to be permitted, a predetermined message is displayed on the CRT 78 and the operation of the keyboard 76 or the like is permitted. When it is determined that the use of the personal computer 12 is not permitted, the personal computer 12 displays a predetermined message on the CRT 78 and does not accept the operation of the keyboard 76 or the like.
[0131]
As described above, the computer user management system can permit the use of the personal computer 12 only to a specific user 1 within a predetermined range with a simple configuration. When there is no user 1 wearing a predetermined badge 15 in a predetermined range in front of the personal computer 12, the personal computer 12 is set to a low power consumption mode in which only the recognition process of the badge 15 is executed, and a predetermined power in front of the personal computer 12 is set. When the user 1 wearing the predetermined badge 15 is in the range, if the personal computer 12 is set to the normal mode, the amount of power consumed by the personal computer 12 during the predetermined period can be reduced. Of course, the use of a personal computer 12 that is different for each user 1 is permitted, or the range of use of the personal computer 12 (a use time, a file that can be read or written, or a program that can be used) is restricted for each user 1. You can also
[0132]
In this specification, although described as a facility such as a museum, the user management system of the present invention is applied to a factory (for example, a car manufacturing factory or a chemical factory plant) having a large site or a large floor area. If applied, the manager of the line can immediately call the person in charge closest to the line where the problem has occurred to solve the problem.
[0133]
In addition, when inspecting the inside of a guest in a laboratory, etc., the current position of the guest can be grasped without accompanying the guest. The range can be limited.
[0134]
In the present specification, the term “system” represents the entire apparatus including a plurality of apparatuses.
[0135]
Further, as a providing medium for providing a computer program for performing the processing as described above to a user, a communication medium such as a network or a satellite can be used in addition to a recording medium such as a magnetic disk, a CD-ROM, or a solid-state memory. .
[0136]
【The invention's effect】
According to the user identification system of claim 1, the transmitting device emits light with a predetermined length and a predetermined pattern at a luminance that changes over time, and the information processing device captures the image of the transmitting device. The position of the transmitting device in the three-dimensional space is calculated from the size and position of the image of the transmitting device on the captured image data, and a code corresponding to a predetermined pattern is calculated from the imaged image data of the transmitting device. The code is transmitted to the data providing device, the user data transmitted from the data providing device is received, and the data providing device stores the user data in correspondence with the code, and the code is received from the information processing device. The stored user data is transmitted to the information processing apparatus, and the user data to be transmitted to the information processing apparatus is searched based on the received code. In facilities having an area or large site, a simple device, to identify the attributes of the user, it is possible to provide a service tailored to attributes of a user.
[0137]
According to the user specifying system according to claim 6, at the transmission device, the mutual positional relationship is clear at 3 or more, light is emitted in a predetermined pattern with a luminance that changes over time, and the position specifying means transmits the light. The device is imaged, the position and angle of the transmitting device in the three-dimensional space are calculated from the light emission position of the captured image, and a code corresponding to a predetermined pattern is calculated from the imaged image data. Is transmitted to the data providing device, the user data transmitted from the data providing device is received, the data providing device is associated with the code, the user data is stored, the code is received from the information processing device, The stored user data is sent to the information processing device, and the user data to be sent to the information processing device is searched based on the received code. Other facilities with large site, a simple device, to identify the attributes of the user, it is possible to provide a service tailored to attributes of a user.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating the configuration of an embodiment of a user management system according to the present invention.
FIG. 2 is a diagram illustrating a state in which a user 1 who visits a museum wears a badge 15;
FIG. 3 is a diagram for explaining a connection between a badge 15 and a personal computer 12-1.
4 is a block diagram illustrating a configuration of a badge 15. FIG.
FIG. 5 is a block diagram illustrating a configuration of a personal computer 12;
6 is a block diagram illustrating a configuration of an imaging apparatus 11. FIG.
FIG. 7 is a diagram illustrating a processing procedure of the CPU 71 of the personal computer 12 when calculating the distance from the badge 15 to the imaging device 11;
FIG. 8 is a diagram for explaining the processing procedure of the CPU 71 of the personal computer 12 when calculating the distance from the badge 15 to the imaging device 11;
FIG. 9 is a diagram illustrating sink imaging.
FIG. 10 is a diagram illustrating sink imaging.
FIG. 11 is a diagram illustrating sink imaging.
FIG. 12 is a diagram illustrating an example in which image data of a blinking pattern is converted into a spatial pattern.
FIG. 13 is a diagram for explaining the arrangement of badges 15;
FIG. 14 is a diagram illustrating a processing procedure of the CPU 71 of the personal computer 12 when detecting a blinking pattern of bright spots.
FIG. 15 is a diagram for explaining an example of division inside the exhibition room 2-1 of the museum.
FIG. 16 is a flowchart illustrating a process in which the user management system stores the movement of the user 1;
FIG. 17 is a flowchart for explaining details of a setting process of a badge 15;
18 is a block diagram illustrating another embodiment of the badge 15. FIG.
FIG. 19 is a view showing the appearance of the back surface of still another embodiment of the badge 15;
FIG. 20 is a block diagram illustrating a configuration of still another embodiment of the badge 15;
FIG. 21 is a view showing the external appearance of the back surface of still another embodiment of the badge 15;
FIG. 22 is a block diagram illustrating the configuration of still another embodiment of the badge 15;
FIG. 23 is a diagram illustrating a state in which a user 1 wears a badge 15 according to another embodiment.
FIG. 24 is a block diagram illustrating a configuration of still another embodiment of the badge 15;
FIG. 25 is a diagram for explaining another process of the CPU 71 for calculating the position of the badge 15;
FIG. 26 is a diagram for explaining another process of the CPU 71 for calculating the position of the badge 15;
FIG. 27 is a diagram illustrating another process of the CPU 71 that calculates the position of the badge 15;
FIG. 28 is a diagram for explaining an embodiment of a computer user management system.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 11 Imaging device, 12 Personal computer, 13 Network, 14 Server, 15 Badge, 31 Light emitting diode, 71 CPU, 81 Communication board, 83 Video capture board, 101 Panning drive circuit, 102 CCD video camera

Claims (9)

利用者の身体の所定の位置に装着する発信装置、前記発信装置を特定する情報処理装置、および前記発信装置を装着した利用者のデータを提供するデータ提供装置からなる利用者特定システムにおいて、
前記発信装置は、
発光面が所定の長さを有し、所定のパターンで、時間経過とともに変化する輝度で発光する発光手段
を含み、
前記情報処理装置は、
前記発光手段を撮像する撮像手段と、
前記撮像手段により撮像された画像データ上の前記発光手段の画像の大きさおよび位置から、前記発信装置の3次元空間の位置を算出する位置算出手段と、
前記撮像手段により撮像された、前記発光手段の画像データから、前記所定のパターンに対応するコードを算出するコード算出手段と、
前記コードを前記データ提供装置に送信し、前記データ提供装置から送信された前記利用者のデータを受信する第1の通信手段と
を含み、
前記データ提供装置は、
前記コードと対応させ、前記利用者のデータを記憶する記憶手段と、
前記コードを前記情報処理装置から受信し、受信した前記コードに対応する、前記記憶手段が記憶する前記利用者のデータを前記情報処理装置に送信する第2の通信手段と、
前記第2の通信手段が受信した前記コードを基に、前記第2の通信手段が前記情報処理装置に送信する前記利用者のデータを前記記憶手段から検索する検索手段と
を含むことを特徴とする利用者特定システム。
In a user identification system comprising a transmission device worn at a predetermined position of a user's body, an information processing device for identifying the transmission device, and a data providing device for providing data of a user wearing the transmission device,
The transmitting device is
A light emitting means having a predetermined length, a light emitting means for emitting light in a predetermined pattern with a luminance that changes over time;
The information processing apparatus includes:
Imaging means for imaging the light emitting means;
Position calculating means for calculating the position of the transmitter in the three-dimensional space from the size and position of the image of the light emitting means on the image data captured by the imaging means;
Code calculating means for calculating a code corresponding to the predetermined pattern from the image data of the light emitting means imaged by the imaging means;
First communication means for transmitting the code to the data providing device and receiving the data of the user transmitted from the data providing device;
The data providing device includes:
Storage means for storing the user data in association with the code;
Second communication means for receiving the code from the information processing apparatus and transmitting the user data stored in the storage means corresponding to the received code to the information processing apparatus;
Search means for searching the storage means for the user data transmitted from the second communication means to the information processing device based on the code received by the second communication means. User identification system.
前記発光手段は、赤外で発光する
ことを特徴とする請求項1に記載の利用者特定システム。
The user identification system according to claim 1, wherein the light emitting means emits light in the infrared.
前記撮像手段は、前記発光手段を流し撮像し、
前記コード算出手段は、流し撮像された前記発光手段の画像データから、前記所定のパターンに対応するコードを算出する
ことを特徴とする請求項1に記載の利用者特定システム。
The imaging means flows the light emitting means to take an image,
The user specifying system according to claim 1, wherein the code calculating unit calculates a code corresponding to the predetermined pattern from the image data of the light-emitting unit that has been picked up.
前記情報処理装置は、前記利用者のデータを基に、前記利用者に前記情報処理装置の利用を許可するか否かを判定する判定手段
を更に含むことを特徴とする請求項1に記載の利用者特定システム。
The said information processing apparatus further contains the determination means which determines whether the said user is permitted to use the said information processing apparatus based on the said user's data. User identification system.
前記第1の通信手段は、前記発信装置の3次元空間の位置を前記データ提供装置に送信し、
前記第2の通信手段は、前記発信装置の3次元空間の位置を受信し、
前記記憶手段は、受信した前記発信装置の3次元空間の位置に対応して、前記利用者の所定のデータを記憶する
ことを特徴とする請求項1に記載の利用者特定システム。
The first communication means transmits the position of the transmitting device in a three-dimensional space to the data providing device,
The second communication means receives a position of the transmitting device in a three-dimensional space;
The user specifying system according to claim 1, wherein the storage unit stores predetermined data of the user corresponding to the received position of the transmitting device in a three-dimensional space.
利用者の身体の所定の位置に装着する発信装置、前記発信装置を特定する情報処理装置、および前記発信装置を装着した利用者のデータを提供するデータ提供装置からなる利用者特定システムにおいて、
前記発信装置は、
相互に所定の位置に配置され、所定のパターンで、時間の経過とともに変化する輝度で発光する3個以上の発光手段
を含み、
前記情報処理装置は、
前記発光手段を撮像する撮像手段と、
前記撮像手段により撮像された画像の前記発光手段の位置から、前記発信装置の3次元空間上の位置および角度を算出する位置算出手段と、
前記撮像手段により撮像された、前記発光手段の画像データから、前記所定のパターンに対応するコードを算出するコード算出手段と、
前記コードを前記データ提供装置に送信し、前記データ提供装置から送信された前記利用者のデータを受信する第1の通信手段と
を含み、
前記データ提供装置は、
前記コードと対応させ、前記利用者のデータを記憶する記憶手段と、
前記コードを前記情報処理装置から受信し、受信した前記コードに対応する、前記記憶手段が記憶している前記利用者のデータを前記情報処理装置に送信する第2の通信手段と、
前記第2の通信手段が受信した前記コードを基に、前記第2の通信手段が前記情報処理装置に送信する前記利用者のデータを前記記憶手段から検索する検索手段と
を含むことを特徴とする利用者特定システム。
In a user identification system comprising a transmission device worn at a predetermined position of a user's body, an information processing device for identifying the transmission device, and a data providing device for providing data of a user wearing the transmission device,
The transmitting device is
Including three or more light-emitting means that are arranged at predetermined positions with respect to each other and emit light with a predetermined pattern and with a luminance that changes over time;
The information processing apparatus includes:
Imaging means for imaging the light emitting means;
Position calculating means for calculating the position and angle of the transmitter in a three-dimensional space from the position of the light emitting means of the image captured by the imaging means;
Code calculating means for calculating a code corresponding to the predetermined pattern from the image data of the light emitting means imaged by the imaging means;
First communication means for transmitting the code to the data providing device and receiving the data of the user transmitted from the data providing device;
The data providing device includes:
Storage means for storing the user data in association with the code;
Second communication means for receiving the code from the information processing apparatus and transmitting the user data stored in the storage means corresponding to the received code to the information processing apparatus;
Search means for searching the storage means for the user data transmitted from the second communication means to the information processing device based on the code received by the second communication means. User identification system.
前記発光手段は、赤外で発光する
ことを特徴とする請求項6に記載の利用者特定システム。
The user identification system according to claim 6, wherein the light emitting means emits light in the infrared.
前記発光手段は、それぞれ異なる所定の発光パターンで発光する
ことを特徴とする請求項6に記載の利用者特定システム。
The user identification system according to claim 6, wherein the light emitting means emits light with different predetermined light emission patterns.
前記撮像手段は、前記発光手段を流し撮像し、
前記コード算出手段は、流し撮像された前記発光手段の画像データから、前記所定のパターンに対応するコードを算出する
ことを特徴とする請求項6に記載の利用者特定システム。
The imaging means flows the light emitting means to take an image,
The user specifying system according to claim 6, wherein the code calculating unit calculates a code corresponding to the predetermined pattern from the image data of the light emitting unit that has been picked up .
JP01806699A 1999-01-27 1999-01-27 User identification system Expired - Fee Related JP4232252B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01806699A JP4232252B2 (en) 1999-01-27 1999-01-27 User identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01806699A JP4232252B2 (en) 1999-01-27 1999-01-27 User identification system

Publications (2)

Publication Number Publication Date
JP2000214945A JP2000214945A (en) 2000-08-04
JP4232252B2 true JP4232252B2 (en) 2009-03-04

Family

ID=11961315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01806699A Expired - Fee Related JP4232252B2 (en) 1999-01-27 1999-01-27 User identification system

Country Status (1)

Country Link
JP (1) JP4232252B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4348576B2 (en) * 1999-07-08 2009-10-21 ソニー株式会社 Image processing apparatus and method, and recording medium
JP3843321B2 (en) 2002-11-27 2006-11-08 独立行政法人産業技術総合研究所 Information support system
JP4110478B2 (en) 2004-09-02 2008-07-02 ソニー株式会社 Image processing apparatus and method, photographing apparatus, and program
JP4600810B2 (en) * 2004-10-07 2010-12-22 日本ビクター株式会社 Monitoring system and authentication method in monitoring system
JP4839764B2 (en) * 2005-09-30 2011-12-21 富士ゼロックス株式会社 Monitoring system
JP4856585B2 (en) * 2007-06-07 2012-01-18 株式会社ユニバーサルエンターテインメント Personal identification communication system and program executed in personal identification communication system
JP2011048547A (en) * 2009-08-26 2011-03-10 Toshiba Corp Abnormal-behavior detecting device, monitoring system, and abnormal-behavior detecting method
JP2018529154A (en) * 2015-07-31 2018-10-04 ゼッホティヒ, ジュリア エス.SOCHTIG, Julia S. Communication apparatus and method for communicating with friends
CN107280153A (en) * 2017-08-11 2017-10-24 吉林建筑大学 A kind of Electronic school badges with positioning function
JP7136141B2 (en) * 2020-02-07 2022-09-13 カシオ計算機株式会社 Information management device, information management method and program

Also Published As

Publication number Publication date
JP2000214945A (en) 2000-08-04

Similar Documents

Publication Publication Date Title
CN106164982B (en) Electronic equipment positioning based on image
US10241565B2 (en) Apparatus, system, and method of controlling display, and recording medium
CN105830367B (en) Visible light communication method, identification signal and reception device
US20090241039A1 (en) System and method for avatar viewing
JP4232252B2 (en) User identification system
JP2007266959A (en) Remote control system
US9843727B2 (en) Image capturing apparatus and image capturing method
JP2018117368A (en) Communication method, communication device, and program
CN109302569A (en) A kind of image imaging method and device of mobile terminal
WO2015075849A1 (en) Communication method
KR102027959B1 (en) Augmented Reality provider system using head mounted display device for attached type
CN110852850A (en) Shared article recommendation method and device, computer equipment and storage medium
CN112328091A (en) Barrage display method and device, terminal and storage medium
JP2013054542A (en) Image display device, image display system, and program
WO2019189768A1 (en) Communication method, communication device, transmitter, and program
JP2018207151A (en) Display device, reception device, program, and control method of reception device
CN115904188A (en) Method and device for editing house-type graph, electronic equipment and storage medium
JP2012088984A (en) Portable terminal, image display device and image display system
JP4167447B2 (en) Object localization system
CN111064657B (en) Method, device and system for grouping concerned accounts
CN112051919B (en) Interaction method and interaction system based on position
CN114498827A (en) Operation method and device of cleaning robot, electronic device and medium
CN112950535A (en) Video processing method and device, electronic equipment and storage medium
JP4296606B2 (en) Electronic device and display method
CN110362203A (en) Information processing method, device, storage medium and augmented reality equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees