JP2004015448A - Information processing apparatus and method, information processing system, recording medium, and program - Google Patents

Information processing apparatus and method, information processing system, recording medium, and program Download PDF

Info

Publication number
JP2004015448A
JP2004015448A JP2002166402A JP2002166402A JP2004015448A JP 2004015448 A JP2004015448 A JP 2004015448A JP 2002166402 A JP2002166402 A JP 2002166402A JP 2002166402 A JP2002166402 A JP 2002166402A JP 2004015448 A JP2004015448 A JP 2004015448A
Authority
JP
Japan
Prior art keywords
data
information processing
pattern
analysis
control step
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002166402A
Other languages
Japanese (ja)
Inventor
Yoshiaki Iwai
岩井 嘉昭
Daisuke Hihara
日原 大輔
Hidenori Koyaizu
小柳津 秀紀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002166402A priority Critical patent/JP2004015448A/en
Publication of JP2004015448A publication Critical patent/JP2004015448A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Mobile Radio Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processing system for smoothly exchanging detailed data of an exhibit of an exhibiter in an exhibition hall with personal data of an exhibition visitor. <P>SOLUTION: A PC server 1, which is managed and operated by exhibiters exhibiting exhibits in the exhibition hall, outputs exhibiter data by adjusting light emitting timings of optical beacons 6-1 to 6-6 of an information unit 3 via a control unit 2. An exhibition visitor operates an operation section 23 of a mobile terminal 11 to allow an ID recognition camera 21 to image an exhibit 5 of interest and to record a still picture of the image. Further, the mobile terminal 11 controls an information unit 21 to output personal data at that time. The PC server 1 controls the ID recognition camera 21 to acquire the personal data outputted from the information unit 12. The PC server 1 controls the control unit 2 in this timing to allow the information unit 3 to output detailed data of the exhibit 5 to the mobile terminal 11. This invention is applicable to information exchange systems in exhibition halls or the like. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、情報処理装置および方法、情報処理システム、記録媒体、並びにプログラムに関し、特に、展示会などで見学者と出展者との情報交換を円滑に行えるようにした情報処理装置および方法、情報処理システム、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
展示会などで、出展者が、見学者の個人データと交換に展示物についての情報を配布するシステムが一般に普及しつつある。
【0003】
従来の展示会における展示物の詳細情報の配布は、以下のように行われていた。すなわち、まず、各見学者は、入場時に専用のフォーマットの用紙に個人データ(e−mailアドレス、会社名等)の記入が求められ、所定の個人データが記入された用紙と引き換えに入場証が見学者に渡される。この入場証にはバーコードなどのラベルがつけられており、専用の読み取り装置で見学者の個人情報を読み取ることが可能となっている。そして、見学者が展示物のパンフレットなどを所望する場合、このラベルを出展者に渡し、出展者側に個人データを提供する代りに、出展者から展示物のパンフレットなどが配布される。
【0004】
【発明が解決しようとする課題】
しかしながら、上述のようなシステムでは、出展者は、自らの展示物に興味を持った見学者の個人データを収集することができるというメリットが存在するものの、見学者にはその都度名刺を出さなくてもいいといった程度のメリットしかないという課題があった。
【0005】
また、近年、展示会は、その規模が大きなものが増えており、所望の展示物を探すこと自体が困難な場合がある。この際、唯一補助となりえるものは展示場で受け取れる地図などであるが、見学者が、この地図を見ながら見学する際、展示会場が広いと所望とする展示物の見落としや、逆に1度見学した展示物を、再び見学してしまうと言う、いわゆる2度見などを引き起こしてしまうという課題があった。
【0006】
さらに、最近では、デジタルカメラにより展示物の静止画像を撮像し、後の情報整理に使用するといった利用方法が普及している。しかしながら、展示会場から出て、さらに記憶もあいまいな状態となる後日において、写真の撮り方をよほどうまく行わない限り、撮影した写真をもとに情報を整理するのは多大な労力を要するという課題があった。
【0007】
本発明はこのような状況に鑑みてなされたものであり、見学者に必要な情報と、出展者に必要な情報を円滑に相互交換できるようにし、さらに、見学者と出展者のそれぞれが取得した情報を整理して記録できるようにするものである。
【0008】
【課題を解決するための手段】
本発明の第1の情報処理装置は、所定のデータに対応した点滅パターンを発生するパターン発生手段と、パターン発生手段により発生された点滅パターンで発光する発光手段と、第1のデータと第2のデータを記憶するデータ記憶手段と、他の情報処理装置により制御されて発光する点滅パターンを撮像する撮像手段と、撮像手段により撮像された点滅パターンを解析する解析手段とを備え、解析手段の解析結果が、第1のデータに対応する第3のデータである場合、パターン発生手段は、第2のデータに対応した点滅パターンを発生することを特徴とする。
【0009】
前記第1のデータには、展示会の展示物を出展した出展者の出展者データを含ませるようにすることができる。
【0010】
前記出展者データには、展示物、または、出展者に関するアンケートフォームを含ませるようにすることができる。
【0011】
前記第1のデータに対応した第3のデータには、アンケートフォームの応答を含ませるようにすることができる。
【0012】
前記第2のデータには、展示会の展示物の詳細データを含ませるようにすることができる。
【0013】
前記第3のデータには、展示会の展示物に興味を持った見学者の個人データを含ませるようにすることができる。
【0014】
本発明の第1の情報処理方法は、所定のデータに対応した点滅パターンを発生するパターン発生ステップと、パターン発生ステップの処理で発生された点滅パターンで発光する発光ステップと、第1のデータと第2のデータを記憶するデータ記憶ステップと、他の情報処理装置により制御されて発光する点滅パターンを撮像する撮像ステップと、撮像ステップの処理で撮像された点滅パターンを解析する解析ステップとを含み、解析ステップの処理での解析結果が、第1のデータに対応する第3のデータである場合、パターン発生ステップの処理は、第2のデータに対応した点滅パターンを発生することを特徴とする。
【0015】
本発明の第1の記録媒体のプログラムは、所定のデータに対応した点滅パターンの発生を制御するパターン発生制御ステップと、パターン発生制御ステップの処理で発生された点滅パターンでの発光を制御する発光制御ステップと、第1のデータと第2のデータの記憶を制御するデータ記憶制御ステップと、他の情報処理装置により制御されて発光する点滅パターンの撮像を制御する撮像制御ステップと、撮像制御ステップの処理で撮像が制御された点滅パターンの解析を制御する解析制御ステップとを含み、解析制御ステップの処理での解析結果が、第1のデータに対応する第3のデータである場合、パターン発生制御ステップの処理は、第2のデータに対応した点滅パターンを発生することを特徴とする。
【0016】
本発明の第1のプログラムは、所定のデータに対応した点滅パターンの発生を制御するパターン発生制御ステップと、パターン発生制御ステップの処理で発生された点滅パターンでの発光を制御する発光制御ステップと、第1のデータと第2のデータの記憶を制御するデータ記憶制御ステップと、他の情報処理装置により制御されて発光する点滅パターンの撮像を制御する撮像制御ステップと、撮像制御ステップの処理で撮像が制御された点滅パターンの解析を制御する解析制御ステップとを実行させ、解析制御ステップの処理での解析結果が、第1のデータに対応する第3のデータである場合、パターン発生制御ステップの処理は、第2のデータに対応した点滅パターンを発生することを特徴とする。
【0017】
本発明の第2の情報処理装置は、他の情報処理装置により制御されて発光する点滅パターンを撮像する撮像手段と、撮像手段により撮像された点滅パターンを解析する解析手段と、解析手段の解析結果が第1のデータである場合、第1のデータを蓄積する蓄積手段と、解析手段の解析結果が第1のデータである場合、第1のデータに対応した第2のデータを生成する生成手段と、第2のデータに対応した点滅パターンを発生するパターン発生手段と、パターン発生手段により発生された点滅パターンで発光する発光手段とを備え、解析手段の解析結果が、第2のデータに対応した第3のデータである場合、蓄積手段は、第1のデータに加えて、第3のデータを蓄積することを特徴とする。
【0018】
前記第1のデータには、展示会の展示物を出展した出展者の出展者データを含ませるようにすることができる。
【0019】
前記出展者データには、展示物、または、企業に関するアンケートフォームを含ませるようにすることができる。
【0020】
前記第1のデータに対応した第2のデータには、アンケートフォームの応答を含ませるようにすることができる。
【0021】
前記第2のデータには、展示会の展示物に興味を持った見学者の個人データを含ませるようにすることができる。
【0022】
前記第3のデータには、展示会の展示物の詳細データを含ませるようにすることができる。
【0023】
前記撮像手段には、点滅パターンに加えて、他の情報処理装置を含む範囲の静止画像を撮像させるようにすることができ、蓄積手段には、第3のデータ、第1のデータ、および、静止画像を対応付けて蓄積させるようにすることができる。
【0024】
前記蓄積手段により対応付けて蓄積されている第3のデータ、第1のデータ、および、静止画像を所定の形式に変換する変換手段とをさらに設けるようにさせることができる。
【0025】
前記変換手段には、蓄積手段により対応付けて蓄積されている第3のデータ、第1のデータ、および、静止画像をhtmlの形式に変換させるようにすることができる。
【0026】
本発明の第2の情報処理方法は、他の情報処理装置により制御されて発光する点滅パターンを撮像する撮像ステップと、撮像ステップの処理で撮像された点滅パターンを解析する解析ステップと、解析ステップの処理での解析結果が第1のデータである場合、第1のデータを蓄積する蓄積ステップと、解析ステップの処理での解析結果が第1のデータである場合、第1のデータに対応した第2のデータを生成する生成ステップと、第2のデータに対応した点滅パターンを発生するパターン発生ステップと、パターン発生ステップの処理で発生された点滅パターンで発光する発光ステップとを含み、解析ステップの処理での解析結果が、第2のデータに対応した第3のデータである場合、蓄積ステップの処理は、第1のデータに加えて、第3のデータを蓄積することを特徴とする。
【0027】
本発明の第2の記録媒体は、他の情報処理装置により制御されて発光する点滅パターンの撮像を制御する撮像制御ステップと、撮像制御ステップの処理で撮像された点滅パターンの解析を制御する解析制御ステップと、解析制御ステップの処理での解析結果が第1のデータである場合、第1のデータの蓄積を制御する蓄積制御ステップと、解析制御ステップの処理での解析結果が第1のデータである場合、第1のデータに対応した第2のデータの生成を制御する生成制御ステップと、第2のデータに対応した点滅パターンの発生を制御するパターン発生制御ステップと、パターン発生制御ステップの処理で発生された点滅パターンでの発光を制御する発光制御ステップとを含み、解析制御ステップの処理での解析結果が、第2のデータに対応した第3のデータである場合、蓄積制御ステップの処理は、第1のデータに加えて、第3のデータの蓄積を制御することを特徴とする。
【0028】
本発明の第2のプログラムは、他の情報処理装置により制御されて発光する点滅パターンの撮像を制御する撮像制御ステップと、撮像制御ステップの処理で撮像された点滅パターンの解析を制御する解析制御ステップと、解析制御ステップの処理での解析結果が第1のデータである場合、第1のデータの蓄積を制御する蓄積制御ステップと、解析制御ステップの処理での解析結果が第1のデータである場合、第1のデータに対応した第2のデータの生成を制御する生成制御ステップと、第2のデータに対応した点滅パターンの発生を制御するパターン発生制御ステップと、パターン発生制御ステップの処理で発生された点滅パターンでの発光を制御する発光制御ステップとを実行させ、解析制御ステップの処理での解析結果が、第2のデータに対応した第3のデータである場合、蓄積制御ステップの処理は、第1のデータに加えて、第3のデータの蓄積を制御することを特徴とする。
【0029】
本発明の情報処理システムは、第1の情報処理装置が、所定のデータに対応した点滅パターンを発生する第1のパターン発生手段と、第1のパターン発生手段により発生された点滅パターンで発光する第1の発光手段と、第1のデータと第2のデータを記憶するデータ記憶手段と、第2の情報処理装置により制御されて発光する点滅パターンを撮像する第1の撮像手段と、第1の撮像手段により撮像された点滅パターンを解析する第1の解析手段とを備え、第1の解析手段の解析結果が、第1のデータに対応する第3のデータである場合、第1のパターン発生手段は、第2のデータに対応した点滅パターンを発生し、第2の情報処理装置が、第1の情報処理装置により制御されて発光する点滅パターンを撮像する第2の撮像手段と、第2の撮像手段により撮像された点滅パターンを解析する第2の解析手段と、第2の解析手段の解析結果が第1のデータである場合、第1のデータを蓄積する蓄積手段と、第2の解析手段の解析結果が第1のデータである場合、第1のデータに対応した第2のデータを生成する生成手段と、第2のデータに対応した点滅パターンを発生する第2のパターン発生手段と、第2のパターン発生手段により発生された点滅パターンで発光する第2の発光手段とを備え、第2の解析手段の解析結果が、第2のデータに対応した第3のデータである場合、蓄積手段は、第1のデータに加えて、第3のデータを蓄積することを特徴とする。
【0030】
本発明の第1の情報処理装置および方法、並びにプログラムにおいては、所定のデータに対応した点滅パターンが発生され、発生された点滅パターンで発光され、第1のデータと第2のデータが記憶され、他の情報処理装置により制御されて発光する点滅パターンが撮像され、撮像された点滅パターンが解析され、解析結果が、第1のデータに対応する第3のデータである場合、第2のデータに対応した点滅パターンが発生される。
【0031】
本発明の第2の情報処理装置および方法、並びにプログラムにおいては、他の情報処理装置により制御されて発光する点滅パターンが撮像され、撮像された点滅パターンが解析され、解析結果が第1のデータである場合、第1のデータが蓄積され、解析結果が第1のデータである場合、第1のデータに対応した第2のデータが生成され、第2のデータに対応した点滅パターンが発生され、発生された点滅パターンで発光され、解析結果が、第2のデータに対応した第3のデータである場合、第1のデータに加えて、第3のデータが蓄積される。
【0032】
本発明の情報処理システムにおいては、第1の情報処理装置により、所定のデータに対応した点滅パターンが発生され、発生された点滅パターンで発光され、第1のデータと第2のデータが記憶され、第2の情報処理装置により制御されて発光する点滅パターンが撮像され、撮像された点滅パターンが解析され、解析結果が、第1のデータに対応する第3のデータである場合、第2のデータに対応した点滅パターンが発生され、第2の情報処理装置により、第1の情報処理装置により制御されて発光する点滅パターンが撮像され、撮像された点滅パターンが解析され、解析結果が第1のデータである場合、第1のデータが蓄積され、解析結果が第1のデータである場合、第1のデータに対応した第2のデータが生成され、第2のデータに対応した点滅パターンが発生され、発生された点滅パターンで発光され、解析結果が、第2のデータに対応した第3のデータである場合、第1のデータに加えて、第3のデータが蓄積される。
【0033】
【発明の実施の形態】
図1は、本発明に係る情報配信システムの一実施の形態の構成を示すブロック図である。
【0034】
この情報配信システムは、展示会などで使用されるものであり、展示物を出展する出展者側で所持されるPC(Personal Computer)サーバ1、コントロールユニット2、情報ユニット3、およびID認識カメラ4、並びに、見学者側で所持される携帯端末11、ID認識カメラ、および情報ユニット12から構成されるものである。そして、この情報配信システムは、展示物を出展している出展者の所有するPCサーバ1と見学者の所持する携帯端末11との間で、相互にデータを交換させるようにするものである。
【0035】
PCサーバ1は、コントロールユニット2に対して、情報ユニット3から出展者名データを、見学者の所持する携帯端末11に向けて常に出力させるように制御している。また、携帯端末11が、出展者データを受信し、それに対する個人データからなる応答を送信すると、PCサーバ1は、ID認識カメラ4を介してこの応答を受信(認識)する。このとき、PCサーバ1は、コントロールユニット2を制御して、情報ユニット3からの送信信号を切替えさせて、その個人データを送信してきた見学者の携帯端末11にのみ取得可能なIDを付して展示物の詳細データを送信させる。
【0036】
また、PCサーバ1は、このようにして取得された見学者の個人データを個人データ毎に記録して管理する。
【0037】
コントロールユニット2は、いわゆる切替制御装置のような機能を果たすものであり、PCサーバ1からの指令に基づいて、情報ユニット3からの送信信号を切替える。情報ユニット3は、板状の平面上に2次元、または、1次元に複数の光ビーコン6−1乃至6−6が配列されたものであり、この例においては、図1で示すように、展示物5の付近などの展示物5が撮像されるとき、その撮像範囲に含まれるような位置に設置される。また、情報ユニット3は、コントロールユニット2からの制御信号に基づいて、光ビーコン6−1乃至6−6のそれぞれについての点滅パターンを替えて発光することにより、光で携帯端末11に出展者名、または、展示物の詳細データを送信する。より詳細には、各光ビーコン6−1乃至6−6は、それぞれの点滅パターンにより、自らを識別するID(Identifier)データを送信しているが、IDデータには様々なデータを含めて送信することができるので、この機能を利用することにより、情報ユニット3毎に出展者名、または、展示物の詳細データを送信している。
【0038】
光ビーコン6−1乃至6−6は、所定の発光パターンで光を発することによりデータを送信する。このデータは、IDデータと呼ばれるものであり、光ビーコン6−1乃至6−6をそれぞれ識別するものであるが、転送可能なデータ量に余裕があるため、その他のデータを含めて送信することも可能である。例えば、IDデータに含められるデータとしては、コンテンツデータ(画像データ、音声データ、または、テキストデータなど)、リンク先データ(URL(Uniform Resource Locator)、アドレス、ホストネームなどのデータ)、および、自らが所属するグループを識別するグループ識別データなどがあるが、これらに限るものではなく、電子データとして管理できるデータであれば含めて送信することが可能である。このように、光ビーコン6−1乃至6−6は、その発光パターンを変化させることによりIDデータのみならず、様々なデータを送信することができる。
【0039】
ここで、自らが所属するグループを識別するグループ識別データについて説明する。例えば、図1においては、情報ユニット3が1個であるが、例えば、複数の情報ユニット3が存在した場合、それぞれを構成する複数の光ビーコン6の群はグループと称され、これらのグループを識別するデータがグループ識別データとなる。したがって、今の場合、光ビーコン6−1乃至6−6は、同一の情報ユニット3の同一のグループに属しているので、同一のグループ識別データを発する。
【0040】
尚、光ビーコン6−1乃至6−6は、特に区別する必要がない場合、単に光ビーコン6と称する。また、今の場合、図1には、情報ユニット3が1個に対して光ビーコン6が6個ある例について示されているが、送信するデータに必要な点滅パターンが作り出せる個数であればよく、少なくとも1個以上であれば個数はいくつであっても構わない。
【0041】
携帯端末11は、展示会場に訪れた見学者により所持されるものであり、操作部23が見学者により操作されると(例えば、シャッタボタンとして設定されたボタンが押下されると)、ID認識カメラ21を制御して展示物5の静止画像を撮像し、その静止画像を記憶すると共に、展示物5の静止画像を撮像するタイミングで、情報ユニット3より光ビーコン6の点滅パターンにより光で送信されてくる出展者データを認識し、受信する。さらに、携帯端末11は、見学者の個人データを情報ユニット12から送信させる。また、携帯端末11は、PCサーバ1のコントロールユニット3から送信されてくる展示物5の詳細データを、ID認識カメラ21を介して受信する。
【0042】
さらに、携帯端末11は、このようにして取得した展示物5の静止画像、出展者データ、および展示物の詳細データなどを統合し、例えば、html形式のファイルに変換して管理する。尚、変換形式は、html(Hyper−text Markup Language)形式に限るものではなく、統一されたファイル形式であればよく、例えば、xml(Extensible Markup Language)などであってもよいし、また、単純なリストとして統合するようにしてもよい。
【0043】
尚、展示物の出展者により所有されるPCサーバ1、コントロールユニット2、情報ユニット3、および、ID認識カメラ4は、図1においては、有線接続されているが、相互にデータの授受ができる構成となっていれば良く、無線で通信できる構成となっていても良い。また、携帯端末11においても同様であり、図1においては、ID認識カメラ21、および、情報ユニット12は、携帯端末11と有線接続されているが、無線接続された構成となっていてもよい。さらに、ID認識カメラ21、および、光ビーコン6については、詳細を後述する。
【0044】
図2は、PCサーバ1の構成を示すブロック図である。CPU(Central Processing Unit)31は、ROM(Read Only Memory)32、または記憶部38に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)33には、CPU31が実行するプログラムやデータなどが適宜記憶される。これらのCPU31、ROM32、およびRAM33は、バス34により相互に接続されている。
【0045】
CPU31には、バス34を介して入出力インタフェース35が接続されている。入出力インタフェース35には、キーボード、マウス、マイクロホンなどよりなる入力部36、ディスプレイ、スピーカなどよりなる出力部37が接続されている。CPU31は、入力部36から入力される指令に対応して各種の処理を実行する。また、CPU31は、入力部36に接続されたID認識カメラ4より取得される動画像データ、静止画像データ、および、IDデータを記憶部38、または、ROM32に記憶されたプログラムにより適宜処理する、または、記憶部38に記憶させる。
【0046】
そして、CPU31は、処理の結果得られた画像や音声等を出力部37に出力する。また、CPU31は、出力部37に接続されているコントロールユニット2を制御して、出展者データ、および、展示物の詳細データを情報ユニット3より出力させる。
【0047】
入出力インタフェース35に接続されている記憶部38は、例えばハードディスクなどで構成され、CPU31が実行するプログラムや各種のデータを記憶する。通信部39は、図示せぬネットワークを介して通信機能を有する装置と各種のデータの授受を行う。
【0048】
入出力インタフェース35に接続されているドライブ40は、磁気ディスク51、光ディスク52、光磁気ディスク53、或いは半導体メモリ54などが装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部38に転送され、記憶される。
【0049】
次に、図3を参照して、携帯端末11の構成について説明する。
【0050】
携帯端末11の構成は、基本的に、図2のPCサーバ1と同様であり、携帯端末11のCPU71、ROM72、RAM73、バス74、入出力インタフェース75、入力部76、出力部77、記憶部78、通信部79、ドライブ80、磁気ディスク91、光ディスク92、光磁気ディスク93、および、半導体メモリ94は、PCサーバ1のCPU31、ROM32、RAM33、バス34、入出力インタフェース35、入力部36、出力部37、記憶部38、通信部39、ドライブ40、磁気ディスク51、光ディスク52、光磁気ディスク53、および、半導体メモリ54に対応するものである。但し、携帯端末11は、全てにおいて携帯性を重視した構成となっているため、処理速度や記憶部78の記憶容量などは、PCサーバ1に比べて小さいものである。
【0051】
また、入力部76には、ID(Identifier)認識カメラ21が接続されており、操作部23が操作されたとき、静止画像が撮像されて、さらに、PCサーバ1の情報ユニット3の光ビーコン6が撮像された際に、その点滅パターンにより取得されるIDデータが入力される。操作部23は、例えば、タブレットボタンなどから構成され、見学者(ユーザ)が携帯端末11に各種の処理を入力するとき操作される。
【0052】
尚、情報ユニット3およびID認識カメラ4は、情報ユニット12およびID認識カメラ21とそれぞれ同一ものものである。
【0053】
ここで、図4を参照して、ID認識カメラ4の詳細な構成について説明する。イメージセンサ131の受光部141は、撮像される対象となる撮像領域の光を電気信号に光電変換した後、演算部142に出力する。また、受光部141の受光素子151は、CMOS(Complementary Metal−Oxide Semiconductor)素子からなり、従来のCCD(Charge Coupled Device)素子よりも高速に動作することができる。より詳細には、受光素子151が、撮像される対象となる撮像領域の光を光電変換し、増幅器152に出力する。増幅器152は、受光素子151より入力される光電変換された電気信号を増幅して、演算部142に出力する。
【0054】
演算部142の記憶部161は、受光部141より入力された増幅されている電気信号を記憶し、適宜比較部162に出力する。比較部162は、記憶部161に記憶された電気信号の値に基づいて、演算処理を行い、演算結果を所定のリファレンス値(=基準信号レベル)と比較して、比較結果を出力部163に出力する。出力部163は、比較結果に基づいてセンサ出力信号を生成してデータ生成部132に出力する。但し、演算部142の処理内容は、画像モードとIDモードの2つの動作モードにより異なる。尚、この2つの異なる動作モードによる演算内容の詳細については後述する。
【0055】
データ生成部132の画像デコード処理部171は、画像モードの場合、センサ出力信号をデコード処理して撮像画像を生成して入力部36(図2)に出力する。また、IDモードの場合、IDデコード処理部172は、センサ出力信号をデコード処理してIDデータと位置データを生成して入力部36(図2)に出力する。
【0056】
次に、図5を参照して、画像デコード処理部171の詳細な構成について説明する。画像デコード処理部171の画素値決定部181は、センサ出力信号に基づいて画素値を決定し、フレームメモリ182の対応する画素位置に決定した画素値を記憶させる。フレームメモリ182は、1フレーム分の画素値を記憶するメモリであり、画素位置毎に画素値を記憶する。
【0057】
出力部183は、フレームメモリ182に1フレーム分の画素値が記憶されたとき、順次画像データとして読出し、出力する。
【0058】
次に、図6を参照して、IDデコード処理部172の詳細な構成について説明する。IDデコード部201のIDデコード回路211は、IC(Integrated Circuit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などのデバイスにより構成されており、イメージセンサ131から入力されるセンサ出力信号より各画素のIDデータを復元する。このIDデコード回路211は、処理能力が十分であれば、マイクロプロセッサやDSP(Digital Signal Processor)によってソフトウェアで構成するようにしても良い。
【0059】
フラグレジスタ212は、IDデータをデコードするために必要なフラグ類を記憶するためのレジスタであり、データレジスタ213は、デコード途中またはデコードを完了したIDを記憶しておくためのレジスタである。
【0060】
尚、図6においては、IDデコード部201は、1個のみが示されているが、処理速度の要求により、例えば、各画素毎に設けるようにしてもよいし、垂直方向、または、水平方向のライン毎に設けるようにしても良い。
【0061】
タイミング制御部202は、IDデコード処理部172の全体の動作に必要なタイミングを制御するタイミング制御信号を出力する。より具体的には、タイミング制御部202は、IDデコード回路211とセンサ出力信号のタイミングの同期をとり、所望のセンサ出力信号に対して、対応するフレームメモリ203のフラグデータをフラグレジスタ212に、IDデータをデータレジスタ213に、それぞれロードして、IDデコード処理を進めるためのタイミング制御信号を生成し、IDデコード部201(のIDデコード回路211、フラグレジスタ212、および、データレジスタ213)に供給する。また、このとき、タイミング制御部202は、フレームメモリ203へのアドレス信号、リードライトなどのタイミング制御信号を生成し供給する。さらに、タイミング制御部202は、重心計算部204のIDレジスタ221、および、ID重心計算回路222、並びに、ID座標格納メモリ205のタイミング制御を行うタイミング制御信号を生成して供給する。
【0062】
フレームメモリ203は、受光素子151、または演算部142毎に演算されたセンサ出力信号がデコードされたIDデータとフラグデータを格納するメモリであり、イメージセンサ131が1画素につき1個の演算部142をもつ場合には、センサの画像サイズであるM画素×N画素と同じサイズとなり、データ幅はフラグレジスタ212とデータレジスタ213のビット幅の和で構成される。図6においては、各画素の位置に対応する座標が、I軸とJ軸により示されており、それぞれの座標位置にIDデータとフラグデータが格納される。
【0063】
重心計算部204は、同一のIDデータを持つ撮像画像上の画素の重心位置の座標を求め、IDデータに、光ビーコン6の検出位置としての位置データ(=光ビーコン2の撮像画像上の位置データ)を付して出力する。より詳細には、重心計算部204のIDレジスタ221は、タイミング制御部202より入力される所定のIDデータがデコード部201よりデコードされたことを示すタイミング制御信号によりフレームメモリ203に今記憶されたIDデータを読出し、ID重心計算回路222に出力する。ID重心計算回路222は、入力されたIDデータ毎に、対応する画素の座標位置のI座標とJ座標、並びにデータの個数を順次加算してID座標格納メモリ205に記憶させる。また、ID重心計算回路222は、フレームメモリ203に1フレーム分のデータが格納されたとき、ID座標格納メモリ205よりID毎にI座標の和とJ座標の和を、データの個数で割ることにより重心位置の座標を求めて、IDデータと共に出力する。
【0064】
次に、図7,図8を参照して、光ビーコン6の構成について説明する。
【0065】
図7の光ビーコン2は、送信データ保存用メモリ151、点滅制御部152、発光部153から構成される。送信データ保存メモリ151は、予め送信するためのデータを記憶しており、適宜読み出して点滅制御部152に出力する。点滅制御部152は、発信器とIC,ASIC,FPGA、ワンチップマイコンなどのデジタル回路によって構成されており、送信データ保存用メモリ151に記憶されたデータの内容に基づいて、点滅パターンを発生させると共に、発生された点滅パターンで発光部153を発光させる。発光部153は、高速に点滅することができる光源であれば良く、出力波長もセンサが反応する範囲であれば良い。また、発光部153が発する光は、可視光だけではなく、赤外域などでもよく、応答速度や、寿命の点から、LED(Light Emission Diode)は最適な光源の1つであるといえる。
【0066】
また、図8の光ビーコン6は、図示せぬネットワークを介して他の装置と通信することによりデータを可変とすることが可能である。ここでネットワークとは、有線・無線の通信回線、例えば電話回線、ISDN、RS−232C、RS−422、Ethernet(登録商標)(10base−T,100base−T)、USB(Universal Serial Bus)、IEEE(Institute of Electrical and Electronic Engineers)1394、IEEE802.11a、IEEE802.11b、BlueToothなどの通信手段により他の装置とデータ通信ができる環境をいう。また、データ送受信部251は、この通信手段に対応するデータ通信用IC及びドライバから構成されており、ネットワークを介して受信した光ビーコン6の送信データを、点滅制御部252に出力する。点滅制御部252は、入力された送信データに応じた点滅パターンを発生し、発光部253を発光させる。
【0067】
次に、ID認識カメラ4の動作について説明する。
【0068】
受光部141の受光素子151は、光を光電変換し、変換した電気信号を増幅部152に出力する。増幅部152は、電気信号を増幅して演算部142に出力する。演算部142の記憶部161は、受光部141より入力された電気信号を順次記憶して、4フレーム分の電気信号を記憶し、いっぱいになると、最も古いフレームの電気信号を消去して、最新のフレームの電気信号を記憶する処理を繰り返して、常に最新の4フレーム分の電気信号を記憶しており、その4フレーム分の電気信号を比較部162に出力する。
【0069】
比較部162の動作は、画像モードとIDモードにより異なる。この動作モードは、例えば、図9で示すように図示せぬ制御装置により、所定の時間間隔で交互に切り替えるようにしてもよい。また、画像モードとIDモードがそれぞれ30fps(frame per second)や60fpsといった従来のフレームレートで切り替えられるようにしても良い。さらに、IDモードには、IDデータをデコードするIDデコード処理区間と、デコードされたIDデータを持つ画素の座標位置としての位置データを求めるID重心計算区間がある。
【0070】
尚、図9においては、画像モードとIDモードが同時間の場合を示しているが、それぞれの動作モードの時間は、同時間でも良いし、同時間でなくてもよい。また、図9の下段で示すように、各画像モードの後のタイミングでは、画像デコード処理部171により、センサ出力信号がデコードされて撮像画像の画像データが出力され、IDモードの後のタイミングで、IDデコード処理部172により、センサ出力信号がデコードされてIDデータと位置データが出力される。
【0071】
まず、画像モードの場合の動作について説明する。
【0072】
画像モードの場合、イメージセンサ131の比較部162は、各画素の受光部41で検出した輝度を示す信号レベル(記憶部161に記憶された電気信号)を、基準信号レベルと比較して、図10で示すように、基準信号レベルよりも低くなったときに、図11で示すようにアクティブになるような信号(図11中の1の信号)を出力する。
【0073】
ここで、図10は、輝度信号レベルを示しており、図11は、センサ出力信号を示している。輝度信号レベルは、実質的に受光素子151の充電電圧の変化を示している。受光素子151は、所定のタイミングで充電される電圧と逆極性の所定のリセットレベルの電圧が印加され、その後のタイミングから受光素子により蓄積される電荷量に対応して電圧レベルが低下する。従って、図10においては、時刻0において蓄積される電荷は0であるので、輝度信号レベルは、リセットレベル(所定のレベル)となっている。この状態から時間が経過するに従って、電荷が蓄積されて、輝度信号レベルが低下する。今の場合、図10中のHで示す直線が、比較的輝度信号レベルの高い(明るい)画素値として、Lで示す直線が、比較的輝度信号レベルの低い(暗い)画素値として示されている。
【0074】
画素値のレベルが高い輝度信号レベルの変化Hは、時刻0から時間T(H)だけ経過したタイミングである時刻T(H)において、基準信号レベルに達する電荷が蓄積されていることが示されている。一方、画素値のレベルが低い輝度信号レベルの変化Lは、時刻0から時間T(L)だけ経過したタイミングである時刻T(L)において、基準信号レベルに達する電荷が蓄積されていることが示されている。
【0075】
すなわち、図10で示すように、明るい画素ほど基準信号レベルに達する時間が短く(図中T(H))、暗い画素ほど基準信号レベルに達する時間(図中T(L))が長くなる(T(H)<T(L))。比較部162は、実際の受光部141より出力される各画素の電気信号(輝度信号)が、前記基準信号レベルに達したかどうかの比較結果(コンパレータ出力)を図11で示すように2値のセンサ出力信号として出力する。このような処理により、イメージセンサ131は、画像を高速に撮像して基準信号との比較演算を行い、1画面(フレーム)分の結果をセンサ出力信号として出力する。
【0076】
さらに、画像デコード処理部171の画素値決定部181は、この時間T(H),T(L)を計測するために、このイメージセンサ131が1画面単位で出力する結果を、フレーム単位でカウントし、各画素で何番目のフレームでセンサ出力信号が図10で示すようにアクティブになるかを示すセンサ出力信号をエンコードして画像データとして出力する。今の場合、センサ出力信号は、時刻T(H)が、フレーム数F(H)であり、時刻T(L)が、フレーム数F(L)である。
【0077】
すなわち、画像モードの場合、画像デコード処理部171の画素値決定部181が、このセンサ出力信号を正しい明るさの値に変換するために、この基準信号に到達するまでの時間(フレーム数)の逆数を各画素毎に計算することで、センサ出力信号を画像データにデコードし、フレームメモリ182に記憶させる。そして、1フレーム分の画像データが蓄積された時、出力部183は、フレームメモリ182に記憶された画素値を画像データとして順次読出して出力する。この動作により、ID認識カメラ21は、画像モードにおいて画像データを出力することができる(詳細は、48Kframes/s CMOS Image Sensor for Real−time 3−D Sensing and Motion Detection” ISSCC Digest of  Technical Papers, pp.94−95, Feb.2001、または、特開2001−326857を参照されたい)。
【0078】
一方、動作モードがIDモードの場合、比較部162は、記憶部161に記憶されている時間的に連続する4フレーム分の電気信号を輝度信号として以下の式(1)のような演算処理を実行する。
【0079】
V(N)=F(N)+F(N−1)−F(N−2)−F(N−3)・・・(1)
【0080】
ここで、Nはフレーム番号を表し、V(N)は、Nフレーム目の輝度値が入力された時点での比較値を示し、F(N)はNフレーム目の受光部141に蓄積された輝度を示す。この演算により、光の変化を検出することができるため、その演算結果をセンサ出力信号としてデータ生成部132に出力する。データ生成部132は、このセンサ出力信号を用いて、後述するIDデコード処理を行うことで、点滅パターンからなるIDデータを復元し、光ビーコン6からのIDデータを生成することが可能となる。
【0081】
尚、比較部162の演算方法は、式(1)に限るものではなく、他の演算(1次微分や2値化画像の比較など)によって実現するようにしてもよいが、以下の説明においては、光変化の検出の安定性の高い、式(1)を用いて説明するものとする。
【0082】
ここで、IDデコード処理部172の動作について説明する。
【0083】
IDデコード部201のIDデコード回路211は、タイミング制御部202からのセンサ出力信号のタイミングの同期を図るためのタイミング制御信号に基づいて、イメージセンサ131から入力されるセンサ出力信号より各画素のIDデータを復元する。この際、IDデコード回路211は、タイミング制御信号に応じて、フラグレジスタ212を制御して、フレームメモリ203にロードされたフラグデータを用いて、センサ出力信号からIDデータをデコードし、デコード途中またはデコードを完了したIDをデータレジスタ213に記憶させる。
【0084】
さらに、フレームメモリ203は、これらのデコード処理がなされたフラグデータとIDデータを対応する座標位置に格納する。
【0085】
重心計算部204のIDレジスタ221は、タイミング制御部202より入力される所定のIDデータがデコード部201よりデコードされたことを示すタイミング制御信号により、フレームメモリ203に今記憶されたIDデータの情報をID重心計算回路222に読み出させる。
【0086】
ID重心計算回路222は、読み出したIDデータに対応する画素の座標位置のI座標とJ座標を順次加算して、これに画素の個数の情報を付してID座標格納メモリ205に記憶させ、この処理を繰り返す。
【0087】
そして、フレームメモリ203に1フレーム分のデータが格納されたとき、ID重心計算回路222は、ID座標格納メモリ205よりID毎にI座標の和とJ座標の和を、データの個数で割ることにより重心位置の座標を位置データとして求めて、対応するIDデータと共に出力する。
【0088】
以上の動作により、例えば、図12で示すように、2個の光ビーコン6−1,11−2が、点滅しながら発光してデータを送信する場合、ID認識カメラ4には、図12上部に示すような現実空間上の光ビーコン6−1,11−2の物理的な位置に応じた、撮像画像上の位置の画素で光の信号を受光する。例えば、光ビーコン6−1から発せられた光が座標位置(10,10)の受光素子151で受光されるものとし、光ビーコン6−2から発せられた光が座標位置(90,90)の受光素子151で受光されるものとする。このとき、各受光部141の座標位置(10,10)と(90,90)の受光素子151では、それぞれが光ビーコン6−1と11−2の点滅パターンにより受光強度(明るさ)の時間的変化として信号を受信することができる。今の場合、座標(10,10)の位置データに対応する画素は、IDデータとして「321」が、座標(90,90)の位置データに対応する画素は、IDデータとして105がデコード結果として求められている。
【0089】
結果として、この受光強度の変化を上述の式(1)などにより2値化することにより1/0のビット列からなるIDデータを取得する事ができる。
【0090】
次に、図13の機能ブロック図を参照して、PCサーバ1により実現される機能について説明する。尚、以下の説明において、機能ブロックの各構成は、例えば、記憶部39、または、ROM32に予め組み込まれるプログラムからなるソフトウェアを、CPU31が実行するときに実現されるものとして説明するが、各機能ブロックを実現するハードウェアから構成されるようにしても良い。従って、以下の機能ブロック図は、ハードウェア構成図と見ても良いし、ソフトウェア構成図と見てもよいものである。
【0091】
PCサーバ1の取得データ解析部301は、ID認識カメラ4が、携帯端末11の情報ユニット12を撮像することにより取得したIDデータ、および、位置データから携帯端末11より送信されてくる個人データを解析し、データベース301aに記憶すると共に、データ送信制御部302に出力する。
【0092】
データ送信制御部302は、通常は、送信データ記憶部303に予め記憶されている、展示物5(図1)を出展している出展者の出展者データを、コントロールユニット2を制御して情報ユニット3より出力させる。また、データ送信制御部302は、取得データ解析部301を介して、携帯端末11から送信されてきた個人データを受信すると、送信データ記憶部303より展示物詳細データを含むデータを、個人データを送信してきた携帯端末11に対して送信するように(送信するデータの内容を切替えるように)、コントロールユニット2を制御して情報ユニット3より出力させる。また、送信データ制御部302は、送信データ記憶部303に予め記憶されている展示会場の地図データを、コントロールユニット2を制御して情報ユニット3より出力させる。
【0093】
次に、図14の機能ブロック図を参照して、携帯端末11により実現される機能について説明する。
【0094】
画像記録部321は、操作部23が見学者に操作されるとID認識カメラ21より入力される画像データを静止画像として記録し、データ統合部325に出力する。すなわち、操作部23は、この場合、いわゆるシャッタボタンとして機能する。
【0095】
取得データ解析部322は、操作部23が見学者に操作されると、そのタイミングで、ID認識カメラ21より入力されるIDデータ(位置データを含む)を解析し、情報ユニット3から送信されてきた出展者データを解析して、解析結果としての出展者データをデータ統合部325に出力する。また、取得データ解析部322は、常時ID認識カメラ21から出力されてくるデータを解析し、自らの個人ID(見学者の個人ID)を含むデータ(例えば、後述する展示物5の展示物詳細データ)が検出された時、そのデータをデータ統合部325に出力する。また、展示会場の地図データが検出された場合、取得データ解析部322は、その地図データをメモリ322aに記憶させる。
【0096】
データ送信制御部323は、操作部23が、見学者により操作されると、そのタイミングで送信データ記憶部324に予め記憶されている個人データを読み出して、情報ユニット12を制御して送信させる。
【0097】
すなわち、画像記録部321によるID認識カメラ21からの出力画像を静止画像として記録する処理、取得データ解析部322によるID認識カメラ21からのIDデータを解析して、解析結果をデータ統合部325に出力する処理、および、データ送信制御部323による個人データを情報ユニット12に送信させる処理は、操作部23が操作されたタイミングで、ほぼ同時に全ての処理が実行される。
【0098】
データ統合部325は、画像記録部321から入力される展示物5の静止画像、取得データ解析部322より入力される(展示物5を出展する出展者の)出展者データ、および、展示物5の展示物詳細データを、html形式の1個のファイルに変換し、統合データ記憶部326に出力する。
【0099】
表示制御部327は、操作部23の操作指令に基づいて、取得データ解析部322のメモリ322aに記憶された地図データに、統合データ記憶部326に記憶された統合データのリンク情報を含むアイコンを表示させ、さらに、そのアイコンが操作部23により操作されると(選択されると)、そのアイコンに対応する統合データを統合データ記憶部326より読み出し表示部22に表示させる。
【0100】
次に、図15を参照して、PCサーバ1の情報ユニット3から出力される出展者データの構成例について説明する。出展者データは、展示ID、および、出展者名のデータから構成されている。展示IDは、展示会毎に展示物を出展する出展者毎に予め設定されるIDである。出展者名は、出展者が企業である場合、企業名のデータであったり、また、出展者が、企業以外の、例えば、有志の団体などであった場合、その団体名のデータであったり、さらに、出展者が個人の場合、出展者の氏名のデータが記録される。この出展者データは、PCサーバ1の情報ユニット3から常時出力されているデータであり、見学者が、自らが所持する携帯端末11で興味を持った展示物5を撮像するとき、そのタイミングで取得される。
【0101】
次に、図16を参照して、携帯端末11の情報ユニット12から出力される個人データの構成例について説明する。個人データは、展示ID、個人ID、e−mailアドレス、および、会社名のデータから構成されている。展示IDは、個人データのヘッダ部に上述の出展者データとして取得した展示IDに基づいて記述される。個人IDは、見学者(ユーザ)を識別するIDである。E−mailアドレス、および、会社名は、それぞれ、見学者が通常使用するE−mailアドレスと、見学者の所属する会社名(会社の住所や電話番号なども含む)のデータである。この個人データは、見学者が、所持する携帯端末11で興味を持った展示物5を撮像するとき、取得される出展者データに応答するデータである。また、PCサーバ1は、ヘッダ部に展示IDが設定されているので、この展示IDにより、複数の携帯端末11から複数の個人データが送信されてきても、自らに送られた個人データ(自らの展示IDを含む個人データ)だけを選択する事ができ、展示物5に興味を持った見学者の個人データを蓄積することができる。
【0102】
すなわち、見学者は、自分が興味を持った展示物の静止画像を撮像すると、展示物の出展者データを取得すると同時に、この出展者データに基づいて個人データを応答する。
【0103】
次に、図17を参照して、上述の個人データを取得した後に、PCサーバ1が情報ユニット3から出力する展示物の詳細データの構成例について説明する。展示物の詳細データは、個人ID、展示ID、展示物詳細データ、および、URLなどから構成される。個人IDは、図16で示した個人データが取得されたときのものが使用される。また、個人IDは、展示物の詳細データのヘッダ部に設定され、展示物の詳細データを受信する、携帯端末11が、そのデータが自らが興味を持って撮像した展示物の詳細データであることを識別させることができる。
【0104】
展示IDは、出展者データ、および、個人データの展示IDと同一のものである。展示物詳細データは、出展者により作成された展示物の詳細な情報が記録されたデータである。URLは、出展者が運営するURLのデータが記録されている。
【0105】
すなわち、出展者のPCサーバ1は、自らの展示物に興味を持った見学者からの個人データに基づいて、展示物の詳細データを送る。
【0106】
次に、データ統合部325によるデータの統合について説明する。
【0107】
データ統合部325には、操作部23が操作されることにより、画像記録部321で記録された静止画像のデータと、取得データ解析部322より入力された出展者データと展示物の詳細データが入力されていることになるので、データ統合部325は、これらのデータを図18で示すようなhtmlで規定される所定のフォーマットに変換して統合する。
【0108】
すなわち、図18の第1行目には、“<HTML>”と記述され、このページの開始が指示されている。第2,4行目には、“<HEAD>”,“</HEAD>”と記され、その間に、このページの性質を示す情報が記述される。今の場合、“<TITLE>06</TITLE>”と記述され、タイトルとして、展示IDである「06」を表示することが示されている。
【0109】
第5,12行目には、“<BODY>”,“</BODY>”と記され、その間に、このページの記述内容が入力されている。第6,7行目、第8行目、第9,10行目、および第11行目の“<P>”,“</P>”は、段落を示し、この間の記述を1段落として表示することが示されている。第6行目の“出展者名:F社<BR>”の“<BR>”は、改行を示し、携帯端末11の表示部22に表示するとき、図19の最上段で示すように「出展者名:F社」が表示されて、さらに改行されることが示されている。
【0110】
第7行目に示される“URL:http://www.<FONT size=”−2”>△△△.△△.△</FONT>”は、「size=”−2”」で指定されるサイズで、「URL:http://www.」以下の位置に「△△△.△△.△」を表示することが指示されている。すなわち、このコマンドにより、図19で示すように、上から第2段目には、展示物の詳細データに含まれていたURLのデータに基づいて「URL:http://www.△△△.△△.△」が表示されている。
【0111】
さらに、第8行目には、<IMG src=”image.jpg” width=”50” height=”30” border=”0”>が記述されており、”image.jpg”で示される画像記録部321により記録された画像ファイルが、「width=”50”」で設定された横幅で、「height=”30”」で設定された高さの画像を、「border=”0”」で設定される縁取り幅で表示させることを示しており、例えば、図19の画像331のように表示される。
【0112】
さらに、第9行目には、「詳細情報:」が記述されており、図19で示すように、画像331の下の段落に表示されており。さらに、第10行目には、「F社の先端技術を取り入れた・・」で示す図17で示した展示物の詳細データのうちの展示物詳細データに含まれた部分のテキストデータが記述されており、図19で示すように「詳細情報:」の下に表示されている。また、第11行目には、「コメント」と表示されており、図19で示すように「詳細情報」のさらに下に表示されている。
【0113】
次に、図20のフローチャートを参照して、PCサーバ1と携帯端末11によるデータ交換処理について説明する。
【0114】
ステップS1において、データ送信制御部302は、送信データ記憶部303に予め記憶されている、図15で示した出展者データを読み出して、コントロールユニット2を制御して、情報ユニット3から送信させる。
【0115】
ステップS11において、携帯端末11の操作部23が操作されたか否かが判定され、操作されたと判定されるまで、その処理が繰り返される。例えば、見学者が展示物5に興味を持って、ID認識カメラ21を展示物5にかざし、展示物5を撮像するように携帯端末11の操作部23が操作されると(操作部23が操作されて、操作部23から操作信号が、画像記録部321、取得データ解析部322、およびデータ送信制御部323に出力されると)、操作部23が操作されたと判定され、その処理は、ステップS12に進む。尚、このとき、展示物5の傍にある情報ユニット3も撮像される。
【0116】
ステップS12において、画像記録部321は、ID認識カメラ21より入力された画像データに基づいて、そのタイミングの静止画像を記録し、データ統合部325に出力する。今の場合、展示物5が撮像された静止画像が記録される。
【0117】
ステップS13において、取得データ解析部322は、ID認識カメラ21より入力されるIDデータを解析し、出展者データを取得し、データ統合部325に出力すると共に、データ送信制御部323に出力する。
【0118】
ステップS14において、データ送信制御部323は、送信データ制御部324に予め記憶されている見学者の個人ID、e−mailアドレス、および、会社名のデータを読出し、さらに、取得データ解析部322より取得された出展者データから展示IDを読出し、個人データを生成して、情報ユニット12から出力させる。
【0119】
ステップS2において、PCサーバ1のID認識カメラ4は、発光パターンを検出して、そこから得られるIDデータを取得データ解析部301に出力する。ステップS3において、取得データ解析部301は、携帯端末11から自らに向けて送信されてきた個人データが検出されたか否かを判定し、携帯端末11からの個人データが検出されなかった場合、その処理は、ステップS1に戻り、個人データが検出されるまで、ステップS1乃至S3の処理が繰り返される。
【0120】
ステップS3において、例えば、ステップS14の処理が実行され、個人データが送信されてきた場合、取得データ解析部301は、ID認識カメラ21から入力されたIDデータを解析して、自らに向けて送信されてきた個人データを検出し、その処理は、ステップS4に進む。より詳細には、個人データは、ヘッダ部に展示IDが設定されているので、取得データ解析部301は、IDデータを解析し、ヘッダ部に自らの展示IDが検出された時、自らに向けて送信されてきた個人データを検出したと判定する。
【0121】
ステップS4において、取得データ解析部301は、取得した個人データを内蔵するデータベース301aに記憶させ、さらに、個人データをデータ送信制御部302に出力する。
【0122】
ステップS5において、データ送信制御部302は、それまで送信していた、出展者データに加えて、送信データ記憶部303の別の領域に記憶されている展示物の詳細データを読み出し、図17で示すように、展示物の詳細データを生成してコントロールユニット2を制御して、情報ユニット3から出力させ、その処理は、ステップS1に戻る。
【0123】
ステップS15において、取得データ検出部322は、展示物の詳細データが検出されたか否かを判定し、展示物の詳細データが送信されてくるまでその処理を繰り返す。例えば、ステップS5の処理により、PCサーバ1のデータ送信制御部302が、コントロールユニット2を制御して、展示物の詳細データを送信すると、取得データ解析部322により展示物の詳細なデータが検出されたと判定され、その処理は、ステップS16に進む。
【0124】
ステップS16において、取得データ解析部322は、検出された展示物の詳細データをデータ統合部325に出力する。ステップS17において、データ統合部325は、画像記録部321より入力される撮像された展示物の静止画像、取得データ解析部322より入力される出展者データ、および、展示物の詳細データを、図18で示したようにhtml形式のファイルに統合して、統合データ記憶部326に記憶させる。
【0125】
このようにデータ交換処理を行うことで、ステップS11において、操作部23が操作されると、そのタイミングで、携帯端末11では、PCサーバ1の情報ユニット3から送信されてくる出展者データを取得すると共に、ステップS14の処理により、情報ユニット12が個人データをPCサーバ1のID認識カメラ4に向けて出力する。この処理により、ステップS4において、取得データ解析部301において個人データがデータベース301aに蓄積される。さらに、PCサーバ1は、個人データを取得すると、その個人データを送信してきた携帯端末11に向けて、展示物の詳細データを送信する。
【0126】
結果として、見学者が自らの携帯端末11で興味のある展示物の静止画像を撮像するために操作部23を操作するだけで、出展者は、自らの出展した展示物に関心を示す見学者の個人データを取得して、蓄積させることができ、さらに、見学者は、携帯端末11によりPCサーバ1から送信されてくる展示物の詳細データを取得することができるので、出展者、および、見学者に双方にメリットのあるデータ交換が、スムーズに行われるようになる。
【0127】
次に、携帯端末11が、PCサーバ1などから予め図21で示すような展示会場の地図データの配布を受け、この地図データに統合データに対応するアイコンを表示させ、さらにそのアイコンが操作されたときに、対応する展示物の詳細データを表示させる処理について説明する。
【0128】
図21は、表示制御部327が、取得データ解析部322により取得された地図データを表示させたときの状態を示している。図中左から出展者であるA社乃至J社のブースの配置が示されている。また、各ブースを示す左上の数値は、各出展者を識別する展示IDである。すなわち、A社の展示IDは、「01」、B社の展示IDは、「02」、C社の展示IDは、「03」、D社の展示IDは、「04」、E社の展示IDは、「05」、F社の展示IDは、「06」、G社の展示IDは、「07」、H社の展示IDは、「08」、I社の展示IDは、「09」、J社の展示IDは、「10」であることがそれぞれ示されている。
【0129】
表示制御部327は、この地図データに対して、図22で示すように、各出展者のブースを示す範囲に、統合データのファイルに対応したアイコンを表示させる。図22においては、展示IDが「06」のF社のブースに、アイコン351−1乃至351−3の3個のアイコンが表示されている。表示制御部327は、これらのアイコンが操作部23により操作されると、そこにリンクされている統合データを統合データ記憶部326から読み出し、例えば、上述の図18で示すようなhtmlファイルがリンクされていた場合、表示部22に図23で示すように展示物のデータを表示させる。
【0130】
次に、図24のフローチャートを参照して、PCサーバ1による地図データの配信と、携帯端末11による地図データの受信処理について説明する。
【0131】
ステップS31において、データ送信制御部302は、送信データ記憶部303に記憶されている、予め記憶されている展示会場の地図データを読み出して、コントロールユニット2を制御して、情報ユニット3から送信させ、この処理を繰り返す。
【0132】
ステップS41において、携帯端末11の取得データ解析部322は、ID認識カメラ21により情報ユニット3が撮像されることにより検出されるIDデータを解析して、地図データを取得すると共に、自らのメモリ322aに記憶する。
【0133】
この処理により、地図データが携帯端末11に取得される。尚、地図データは、展示会場に存在する全ての出展者のPCサーバ1の情報ユニット3から常時出力されるようにして、展示会場を訪れた全ての見学者の携帯端末11で取得できるようにしてもよい。
【0134】
次に、図25のフローチャートを参照して、地図データ表示処理について説明する。
【0135】
ステップS51において、表示制御部327は、操作部23が見学者により操作されて地図データの表示が指示されたか否かを判定し、地図データの表示が指示されるまでその処理を繰り返す。例えば、操作部23が見学者により操作されて地図データの表示が指示されると、地図データの表示が指示されたと判定され、その処理は、ステップS52に進む。
【0136】
ステップS52において、表示制御部327は、取得データ解析部322のメモリ322aに、図24の処理により取得された地図データを読み出し、例えば、図18で示すように、表示部22に表示させる。
【0137】
ステップS53において、表示制御部327は、例えば、図22で示すように地図データの展示IDの位置に対応するように、図20のフローチャートの処理により統合データ記憶部326に記憶された統合データに対応したアイコンを表示させる。
【0138】
ステップS54において、表示制御部327は、いずれかのアイコンが操作部23により選択されたか否かを判定し、例えば、いずれかのアイコンが選択された場合、その処理は、ステップS55に進む。
【0139】
ステップS55において、表示制御部327は、選択されたアイコンに対応する統合データを統合データ記憶部326より読み出し、例えば、図23で示すように、表示部22に表示させる。
【0140】
ステップS56において、表示制御部327は、統合データの表示の終了が指示されたか否かを判定し、統合データの表示の終了が指示されるまでその処理を繰り返し、終了が指示された場合、その処理は、ステップS54に戻る。
【0141】
ステップS54において、アイコンが選択されなかった場合、ステップS57において、表示制御部327は、地図データの表示の終了が指示されたか否かを判定し、地図データの終了が指示されていないと判定された場合、その処理は、ステップS54に戻り、アイコンが選択されるまで、ステップS54,S57の処理が繰り返される。そして、ステップS57において、地図データの表示の終了が指示されたと判定されると、地図データの表示処理が終了される。
【0142】
以上の処理により、見学者は、展示会場で撮像した展示物の静止画像や詳細データの整理が容易になると共に、展示会場で、この地図データの表示を見ることにより、見学した展示物を地図データに基づいて確認することができるので、同じ展示物の2度以上の見学や、見学を希望していたのに見学し忘れてしまうといったことを防止することが可能となる。
【0143】
さらに、見学者の個人データに加えて、アンケートなどの情報を取得した場合、図26で示すように、出展者データにアンケートフォームを添付して送信し、さらに、図27で示すように、個人データにアンケートフォームの応答を添付するようにさせるようにしても良い。
【0144】
次に、図28のフローチャートを参照して、上述の図26で示した出展者データと、図27で示した個人データを用いた場合のデータ交換処理について説明する。尚、図28のフローチャートのステップS72,S73,S75、および、ステップS91乃至S92,S96乃至S98の処理は、図20のステップS2,S3,S5、および、ステップS11,S12,S14乃至S17の処理と同様であるので、その説明は省略する。
【0145】
ステップS71において、データ送信制御部302は、送信データ記憶部303に予め記憶されている、図27で示した出展者データを読み出して、コントロールユニット2を制御して、情報ユニット3から送信させる。
【0146】
ステップS93において、表示制御部327は、取得データ解析部322は、IDデータを解析し出展者データを取得し、さらに、表示制御部327がアンケートフォームを表示部22に表示する。
【0147】
ステップS94において、データ送信制御部323は、アンケートフォームに入力処理がなされたか否かを判定し、入力が完了するまでその処理を繰り返し、アンケートフォームに入力処理がなされたと判定された場合、その処理は、ステップS95に進む。
【0148】
ステップS95において、データ送信制御部323は、入力処理がなされたアンケートフォームのデータ、出展者データの展示ID、送信データ記憶部324に記憶されている個人ID、e−mailアドレス、および、会社名のデータから個人データを生成し、コントロールユニット2を制御して、情報ユニット3から出力させる。
【0149】
ステップS74において、取得データ解析部301は、取得したアンケートフォームを含む、図27で示した個人データを内蔵するデータベース301aに記憶させ、さらに、個人データをデータ送信制御部302に出力する。
【0150】
以上の処理により、出展者のPCサーバ1は、見学者の個人データとして、アンケートの情報をも取得することが可能となる。
【0151】
以上の例においては、出展者データ、個人データ、および、展示物の詳細データが、PCサーバ1の情報ユニット3、および、ID認識カメラ4、並びに、携帯端末11の情報ユニット12、および、ID認識カメラ21を介して授受されていたが、例えば、相互に無線LANの通信設備を設けて、PCサーバ1の情報ユニット3からPCサーバ1のIPアドレスを含めた出展者データを出力させ、さらに、携帯端末11に、この出展者データをID認識カメラ21を介して取得できるようにしても良い。
【0152】
図29は、無線LANを使用して展示物の詳細データを配信できるようにしたPCサーバ1の機能を説明する機能ブロック図である。尚、図中、図13における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。また、基本的な機能は、同一であるので、同一名称の部位については、その差分のみを説明する。
【0153】
データ通信制御部371は、図13のデータ送信制御部302の機能に加えて、送信データ制御部373に記憶されているデータに基づいて、図30で示すように、展示ID、出展者名、自らのIPアドレス、および、アンケートフォームのデータから、出展者データを生成し、コントロールユニット2を制御して、情報ユニット3から出力させる。また、無線LAN通信部372は、データ送信制御部371により制御され、図31で示す携帯端末11の無線LAN通信部383との通信を確立し、展示物の詳細データを配信する。
【0154】
図31は、無線LANを使用して、展示物の詳細データを受信できるようにした携帯端末11の機能を説明する機能ブロック図である。尚、図中、図14における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。また、基本的な機能は、同一であるので、同一名称の部位については、その差分のみを説明する。
【0155】
データ通信制御部381は、取得データ解析部382により取得された図30で示す出展者データに含まれるIPアドレスに基づいて、無線LAN通信部383を制御してPCサーバ1との通信を確立させる。また、データ通信制御部381は、無線LAN通信部383を介して個人データをPCサーバ1に送信する。無線LAN通信部383は、PCサーバ1の無線LAN通信部372との通信を確立し、送信されてくる展示物の詳細データを受信し、データ統合部384に出力する。データ統合部384は、画像記録部321からの静止画像データ、取得データ解析部382からの出展者データ、および、無線LAN通信部383を介して入力された展示物5の詳細データを統合し、統合データとして統合データ記憶部326に記憶させる。
【0156】
次に、図32のフローチャートを参照して、図29のPCサーバ1と図31の携帯端末11によるデータ交換処理について説明する。尚、図32のステップS113,S114、および、ステップS131乃至S134、S136乃至S138の処理は、図28のフローチャートのステップS73,S74、および、ステップS91乃至S94,S96乃至S98の処理と同様であるので、その説明は省略する。
【0157】
ステップS111において、データ送信制御部371は、送信データ記憶部373に予め記憶されている、図30で示した出展者データを読み出して、コントロールユニット2を制御して、情報ユニット3から送信させる。
【0158】
ステップS135において、データ通信制御部381は、出展者データに含まれているIPアドレスの情報に基づいて、無線LAN通信部383を制御し、個人データをPCサーバ1に送信する。
【0159】
ステップS112において、PCサーバ1のデータ通信制御部371は、無線LAN通信部372を制御して、携帯端末11の無線LAN通信部383との通信を確立する。
【0160】
より詳細には、ステップS135において、データ通信制御部381は、無線LAN通信部383を制御し、出展者データに含まれているIPアドレスの情報に基づいて、自らのIPアドレスの情報をPCサーバ1に送信し、ステップS112において、PCサーバ1の無線LAN通信部372との通信を確立し、個人データをPCサーバ1に送信する。
【0161】
ステップS115において、データ送信制御部371は、無線LAN通信部372を制御して、個人データに対応する相手となる携帯端末11に、送信データ記憶部373に記憶されている展示物5の詳細データを送信する。
【0162】
以上の処理により、出展者は、無線LANを介して、自らの展示物5に興味を示す見学者の個人データを取得することができ、見学者は、無線LANを介して、自らが興味を持った展示物の詳細データを取得することが可能となる。また、展示物の詳細データをLANにより取得することができるので、ID認識カメラ21により、情報ユニット3を常に撮像した状態でなくても、展示物の詳細データの配信を受けることができるので、例えば、展示物の詳細データをストリームデータとして配信することも可能となる。
【0163】
また、以上の例においては、出展者の展示物が1個である場合について説明してきたが、複数の展示物であってもよい。ただし。この場合、情報ユニット3が複数に必要となる。
【0164】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行させることが可能な、例えば汎用のパーソナルコンピュータなどに記録媒体からインストールされる。
【0165】
この記録媒体は、図2,図3に示すようにPCサーバ1、携帯端末11に予め組み込まれた状態でユーザに提供される、プログラムが記録されている記憶部38,76だけではなく、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク51,91(フレキシブルディスクを含む)、光ディスク52,92(CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク53,93(MD(Mini−Disc)(登録商標)を含む)、もしくは半導体メモリ54,94(Memory Stickを含む)などよりなるパッケージメディアにより構成される。
【0166】
尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
【0167】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0168】
【発明の効果】
本発明によれば、展示会などで見学者により展示物を撮像する操作がなされるだけで、出展者は、自らの展示物に興味を示した見学者の個人データを取得することが可能となり、見学者は、個人データと引き換えに展示物の詳細データを取得することが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した情報配信システムの一実施の形態の構成を示す図である。
【図2】図1のPCサーバの構成を示すブロック図である。
【図3】図1の携帯端末の構成を示すブロック図である。
【図4】図2のID認識カメラのブロック図である。
【図5】図4の画像デコード処理部のブロック図である。
【図6】図4のIDデコード処理部のブロック図である。
【図7】図1の光ビーコンのブロック図である。
【図8】図1の光ビーコンのブロック図である。
【図9】ID認識カメラの動作を説明する図である。
【図10】ID認識カメラが画像信号を生成する動作を説明する図である。
【図11】ID認識カメラが画像信号を生成する動作を説明する図である。
【図12】ID認識カメラが点滅パターンをデコードする動作を説明する図である。
【図13】図1のPCサーバの機能を説明する機能ブロック図である。
【図14】図1の携帯端末の機能を説明する機能ブロック図である。
【図15】出展者データを説明する図である。
【図16】個人データを説明する図である。
【図17】展示物の詳細データを説明する図である。
【図18】展示物の詳細データの統合処理を説明する図である。
【図19】展示物の詳細データの統合データの表示例を示す図である。
【図20】データ交換処理を説明するフローチャートである。
【図21】地図データの表示例を示す図である。
【図22】地図データの表示例を示す図である。
【図23】展示物の詳細データの統合データの表示例を示す図である。
【図24】地図データ配信処理を説明するフローチャートである。
【図25】地図データ表示処理を説明するフローチャートである。
【図26】出展者データを説明する図である。
【図27】個人データを説明する図である。
【図28】データ交換処理を説明するフローチャートである。
【図29】図1のPCサーバの機能のその他の例を説明する機能ブロック図である。
【図30】出展者データを説明する図である。
【図31】図1の携帯端末の機能のその他の例を説明する機能ブロック図である。
【図32】データ交換処理を説明するフローチャートである。
【符号の説明】
1 PCサーバ, 2 コントロールユニット, 3 情報ユニット, 6,6−1乃至6−6 光ビーコン, 11 携帯端末, 12 情報ユニット, 21 ID認識カメラ, 22 表示部, 23 操作部, 301 取得データ解析部, 301a データベース, 302 データ送信制御部, 303 送信データ記憶部, 321 画像記録部, 322 取得データ解析部, 322a メモリ, 323 データ送信制御部, 324 送信データ記憶部, 325 データ統合部, 326 統合データ記憶部, 327 表示制御部,371 データ送信制御部, 372 無線LAN通信部, 373 送信データ記憶部, 381 データ送信通信部, 382 取得データ解析部, 382a メモリ, 383 無線LAN通信部, 384 データ統合部, 385表示制御部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information processing apparatus and method, an information processing system, a recording medium, and a program, and in particular, to an information processing apparatus, method, and information capable of smoothly exchanging information between a visitor and an exhibitor at an exhibition or the like. The present invention relates to a processing system, a recording medium, and a program.
[0002]
[Prior art]
2. Description of the Related Art In an exhibition or the like, a system in which an exhibitor distributes information about an exhibit in exchange for visitor's personal data is becoming popular.
[0003]
The distribution of detailed information of an exhibit in a conventional exhibition has been performed as follows. That is, first, each visitor is required to enter personal data (e-mail address, company name, etc.) on a specially formatted sheet at the time of entry, and the admission certificate is exchanged for a sheet on which predetermined personal data is entered. Handed over to visitors. A label such as a bar code is attached to this admission certificate, and the visitor's personal information can be read by a dedicated reading device. Then, when the visitor desires a pamphlet or the like of the exhibit, the exhibitor distributes the pamphlet of the exhibit or the like instead of giving the label to the exhibitor and providing the exhibitor with personal data.
[0004]
[Problems to be solved by the invention]
However, with the above-described system, there is an advantage that the exhibitor can collect personal data of a visitor who is interested in his or her exhibit, but the visitor does not have to give a business card each time. There was a problem that there was only a merit that it was good.
[0005]
Further, in recent years, the number of exhibitions is increasing, and it may be difficult to find a desired exhibit in itself. At this time, the only thing that can be assisted is a map that can be received at the exhibition hall, but when the visitor observes while viewing this map, if the exhibition hall is large, it is possible to overlook the desired exhibit or once There was a problem that a so-called double-view was caused, such as re-visiting the exhibited object.
[0006]
Furthermore, recently, a usage method of capturing a still image of an exhibit with a digital camera and using the still image for organizing information has become widespread. However, at a later date when you leave the exhibition hall and the memory becomes more ambiguous, organizing information based on the taken pictures requires a great deal of effort unless you take good pictures. was there.
[0007]
The present invention has been made in view of such a situation, and enables information necessary for visitors and information necessary for exhibitors to be smoothly exchanged with each other. It is intended to organize and record the information obtained.
[0008]
[Means for Solving the Problems]
A first information processing apparatus according to the present invention includes: a pattern generating means for generating a blinking pattern corresponding to predetermined data; a light emitting means for emitting light in a blinking pattern generated by the pattern generating means; A data storage unit for storing the data of the flash unit, an imaging unit for capturing a flashing pattern that emits light under the control of another information processing device, and an analysis unit for analyzing the flashing pattern captured by the imaging unit. When the analysis result is the third data corresponding to the first data, the pattern generating means generates a blinking pattern corresponding to the second data.
[0009]
The first data may include exhibitor data of an exhibitor exhibiting an exhibit at an exhibition.
[0010]
The exhibitor data may include an exhibit or a questionnaire form relating to the exhibitor.
[0011]
The third data corresponding to the first data may include a response of a questionnaire form.
[0012]
The second data may include detailed data of an exhibit at an exhibition.
[0013]
The third data may include personal data of a visitor who is interested in an exhibit at an exhibition.
[0014]
According to a first information processing method of the present invention, there is provided a pattern generating step of generating a blinking pattern corresponding to predetermined data, a light emitting step of emitting light with a blinking pattern generated in the processing of the pattern generating step, Including a data storage step of storing second data, an imaging step of capturing a flashing pattern that emits light under the control of another information processing device, and an analysis step of analyzing the flashing pattern captured in the processing of the imaging step When the analysis result in the processing of the analysis step is the third data corresponding to the first data, the processing of the pattern generation step generates a blinking pattern corresponding to the second data. .
[0015]
The program of the first recording medium of the present invention includes a pattern generation control step for controlling generation of a blink pattern corresponding to predetermined data, and a light emission for controlling light emission in the blink pattern generated in the processing of the pattern generation control step. A control step, a data storage control step for controlling storage of the first data and the second data, an imaging control step for controlling imaging of a flashing pattern that emits light under the control of another information processing apparatus, and an imaging control step An analysis control step of controlling the analysis of the blinking pattern of which the imaging is controlled in the processing of the step (b). If the analysis result in the processing of the analysis control step is the third data corresponding to the first data, the pattern generation is performed. The processing of the control step is characterized in that a blinking pattern corresponding to the second data is generated.
[0016]
A first program according to the present invention includes a pattern generation control step of controlling generation of a blink pattern corresponding to predetermined data, a light emission control step of controlling light emission in a blink pattern generated in the processing of the pattern generation control step. A data storage control step of controlling storage of the first data and the second data, an imaging control step of controlling the imaging of a blinking pattern that emits light under the control of another information processing apparatus, and a processing of the imaging control step. And performing an analysis control step of controlling the analysis of the blink pattern in which the imaging is controlled. If the analysis result in the processing of the analysis control step is the third data corresponding to the first data, the pattern generation control step Is characterized in that a blinking pattern corresponding to the second data is generated.
[0017]
A second information processing apparatus according to the present invention includes: an imaging unit configured to capture a blinking pattern that emits light under the control of another information processing unit; an analysis unit configured to analyze the blinking pattern captured by the imaging unit; When the result is the first data, a storage unit that stores the first data, and when the analysis result of the analysis unit is the first data, a generation unit that generates the second data corresponding to the first data. Means, a pattern generating means for generating a blinking pattern corresponding to the second data, and a light emitting means for emitting light in a blinking pattern generated by the pattern generating means, wherein the analysis result of the analyzing means is converted to the second data. When the data is the corresponding third data, the storage means stores the third data in addition to the first data.
[0018]
The first data may include exhibitor data of an exhibitor exhibiting an exhibit at an exhibition.
[0019]
The exhibitor data may include a questionnaire form about an exhibit or a company.
[0020]
The second data corresponding to the first data may include a response of a questionnaire form.
[0021]
The second data may include personal data of a visitor who is interested in an exhibit at an exhibition.
[0022]
The third data may include detailed data of an exhibit at an exhibition.
[0023]
In addition to the blinking pattern, the image capturing unit can capture a still image in a range including another information processing device, and the storage unit includes third data, first data, Still images can be stored in association with each other.
[0024]
Conversion means for converting the third data, the first data, and the still image stored in association with the storage means into a predetermined format may be further provided.
[0025]
The conversion means may convert the third data, the first data, and the still image stored in association with each other by the storage means into an html format.
[0026]
A second information processing method according to the present invention includes an imaging step of capturing a flashing pattern that emits light under the control of another information processing apparatus; an analysis step of analyzing the flashing pattern captured in the processing of the imaging step; In the case where the analysis result in the processing of (1) is the first data, the accumulation step of accumulating the first data, and in the case where the analysis result in the processing of the analysis step is the first data, the data corresponds to the first data. An analysis step including: a generation step of generating second data; a pattern generation step of generating a flashing pattern corresponding to the second data; and a light emission step of emitting light with the flashing pattern generated in the processing of the pattern generation step. If the analysis result in the processing of (3) is the third data corresponding to the second data, the processing of the accumulation step includes the third data in addition to the first data. Characterized by accumulating over data.
[0027]
The second recording medium according to the present invention includes an imaging control step of controlling the imaging of a flashing pattern that emits light under the control of another information processing apparatus, and an analysis that controls the analysis of the flashing pattern captured in the processing of the imaging control step. When the analysis result in the control step and the analysis control step is first data, the accumulation control step for controlling accumulation of the first data and the analysis result in the analysis control step are the first data. The generation control step of controlling generation of the second data corresponding to the first data, the pattern generation control step of controlling the generation of a blinking pattern corresponding to the second data, and the pattern generation control step. A light emission control step of controlling light emission in a blink pattern generated in the processing, wherein an analysis result in the processing of the analysis control step corresponds to the second data. If a third data, the processing of the storage control step, in addition to the first data, and controlling the accumulation of the third data.
[0028]
A second program according to the present invention includes an imaging control step for controlling the imaging of a blinking pattern that emits light under the control of another information processing apparatus, and an analysis control for controlling the analysis of the blinking pattern captured in the processing of the imaging control step. When the analysis result in the processing of the step and the analysis control step is the first data, an accumulation control step for controlling accumulation of the first data, and the analysis result in the processing of the analysis control step is the first data. In some cases, a generation control step of controlling generation of second data corresponding to the first data, a pattern generation control step of controlling generation of a blinking pattern corresponding to the second data, and processing of the pattern generation control step And a light emission control step of controlling light emission in the blinking pattern generated in the step (c). If a third data corresponding, the processing of the storage control step, in addition to the first data, and controlling the accumulation of the third data.
[0029]
In the information processing system of the present invention, the first information processing device emits light in a first pattern generating means for generating a blink pattern corresponding to predetermined data, and a blink pattern generated by the first pattern generating means. A first light-emitting means, a data storage means for storing the first data and the second data, a first image-capturing means for capturing a flashing pattern which emits light under the control of the second information processing device; First analyzing means for analyzing a blinking pattern imaged by the imaging means, and when the analysis result of the first analyzing means is the third data corresponding to the first data, the first pattern Generating means for generating a blinking pattern corresponding to the second data, wherein the second information processing device captures a blinking pattern that emits light under the control of the first information processing device; Shooting 2 Second analyzing means for analyzing the blinking pattern imaged by the means, when the analysis result of the second analyzing means is the first data, accumulating means for accumulating the first data, and second analyzing means When the analysis result is the first data, generating means for generating second data corresponding to the first data, second pattern generating means for generating a blinking pattern corresponding to the second data, A second light-emitting unit that emits light in a flickering pattern generated by the second pattern generating unit, wherein when the analysis result of the second analysis unit is the third data corresponding to the second data, The means stores third data in addition to the first data.
[0030]
In the first information processing apparatus, method, and program according to the present invention, a blink pattern corresponding to predetermined data is generated, light is emitted according to the generated blink pattern, and the first data and the second data are stored. When the blinking pattern that emits light under the control of another information processing device is captured, the captured blinking pattern is analyzed, and when the analysis result is the third data corresponding to the first data, the second data Is generated.
[0031]
In the second information processing apparatus, method, and program according to the present invention, a flashing pattern that emits light under the control of another information processing apparatus is captured, the captured flashing pattern is analyzed, and the analysis result is the first data. , The first data is accumulated, and if the analysis result is the first data, second data corresponding to the first data is generated, and a blinking pattern corresponding to the second data is generated. When the light is emitted in the generated blinking pattern and the analysis result is the third data corresponding to the second data, the third data is accumulated in addition to the first data.
[0032]
In the information processing system of the present invention, the first information processing device generates a blinking pattern corresponding to predetermined data, emits light in the generated blinking pattern, and stores the first data and the second data. When the blinking pattern that emits light under the control of the second information processing apparatus is captured, the captured blinking pattern is analyzed, and if the analysis result is the third data corresponding to the first data, the second A flashing pattern corresponding to the data is generated, a flashing pattern that emits light under the control of the first information processing device is captured by the second information processing device, the captured flashing pattern is analyzed, and the analysis result is the first. If the data is the first data, the first data is accumulated. If the analysis result is the first data, the second data corresponding to the first data is generated, and the second data corresponding to the first data is generated. When the analysis result is the third data corresponding to the second data, the third data is accumulated in addition to the first data. You.
[0033]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a block diagram showing a configuration of an embodiment of an information distribution system according to the present invention.
[0034]
This information distribution system is used in an exhibition or the like, and has a PC (Personal Computer) server 1, a control unit 2, an information unit 3, and an ID recognition camera 4 possessed by an exhibitor exhibiting an exhibit. And a portable terminal 11 held by the visitor, an ID recognition camera, and an information unit 12. In this information distribution system, data is exchanged between the PC server 1 owned by the exhibitor exhibiting the exhibit and the portable terminal 11 possessed by the visitor.
[0035]
The PC server 1 controls the control unit 2 to always output the exhibitor name data from the information unit 3 to the portable terminal 11 owned by the visitor. When the portable terminal 11 receives the exhibitor data and transmits a response including personal data to the exhibitor data, the PC server 1 receives (recognizes) the response via the ID recognition camera 4. At this time, the PC server 1 controls the control unit 2 to switch the transmission signal from the information unit 3 and attaches an ID that can be obtained only to the portable terminal 11 of the visitor who transmitted the personal data. To send detailed data of the exhibit.
[0036]
Further, the PC server 1 records and manages the personal data of the visitor thus obtained for each personal data.
[0037]
The control unit 2 performs a function like a so-called switching control device, and switches a transmission signal from the information unit 3 based on a command from the PC server 1. The information unit 3 includes a plurality of optical beacons 6-1 to 6-6 arranged two-dimensionally or one-dimensionally on a plate-like plane. In this example, as shown in FIG. When an image of the exhibit 5 such as the vicinity of the exhibit 5 is captured, the display 5 is installed at a position included in the imaging range. The information unit 3 changes the blinking pattern of each of the optical beacons 6-1 to 6-6 based on a control signal from the control unit 2 and emits light. Or send detailed data of the exhibit. More specifically, each of the optical beacons 6-1 to 6-6 transmits ID (Identifier) data for identifying itself by a blinking pattern, and the ID data includes various data. By using this function, the exhibitor name or the detailed data of the exhibit is transmitted for each information unit 3.
[0038]
The optical beacons 6-1 to 6-6 transmit data by emitting light in a predetermined light emission pattern. This data is called ID data and identifies each of the optical beacons 6-1 to 6-6. However, since the amount of data that can be transferred is sufficient, it is necessary to transmit the data including other data. Is also possible. For example, the data included in the ID data includes content data (image data, audio data, text data, and the like), link destination data (URL (Uniform Resource Locator), address, host name, and other data), and There is, for example, group identification data for identifying a group to which the user belongs, but the present invention is not limited to this. Any data that can be managed as electronic data can be transmitted. As described above, the optical beacons 6-1 to 6-6 can transmit not only ID data but also various data by changing the light emission pattern.
[0039]
Here, group identification data for identifying a group to which the user belongs will be described. For example, in FIG. 1, the number of information units 3 is one. For example, when there are a plurality of information units 3, a group of a plurality of optical beacons 6 constituting each is called a group. The identification data becomes the group identification data. Therefore, in this case, since the optical beacons 6-1 to 6-6 belong to the same group of the same information unit 3, they emit the same group identification data.
[0040]
Note that the optical beacons 6-1 to 6-6 are simply referred to as the optical beacon 6 unless it is particularly necessary to distinguish them. Also, in this case, FIG. 1 shows an example in which one information unit 3 has six optical beacons 6 with respect to one information unit. The number may be any number as long as it is at least one.
[0041]
The portable terminal 11 is carried by a visitor who has visited the exhibition hall. When the operation unit 23 is operated by the visitor (for example, when a button set as a shutter button is pressed), ID recognition is performed. The camera 21 is controlled to capture a still image of the exhibit 5 and store the still image. At the timing of capturing the still image of the exhibit 5, the information unit 3 transmits light from the information unit 3 according to the blinking pattern of the optical beacon 6. The received exhibitor data is recognized and received. Further, the mobile terminal 11 causes the information unit 12 to transmit the visitor's personal data. Further, the portable terminal 11 receives the detailed data of the exhibit 5 transmitted from the control unit 3 of the PC server 1 via the ID recognition camera 21.
[0042]
Further, the mobile terminal 11 integrates the still image of the exhibit 5 thus acquired, exhibitor data, detailed data of the exhibit, and the like, and converts the integrated data into, for example, an html format file for management. The conversion format is not limited to the html (Hyper-text Markup Language) format, but may be a unified file format. For example, the conversion format may be xml (Extensible Markup Language) or a simple format. May be integrated as a simple list.
[0043]
The PC server 1, the control unit 2, the information unit 3, and the ID recognition camera 4, which are owned by the exhibitor of the exhibit, are wired in FIG. 1, but can exchange data with each other. Any configuration may be used, and a configuration that allows wireless communication may be used. The same applies to the mobile terminal 11. In FIG. 1, the ID recognition camera 21 and the information unit 12 are connected to the mobile terminal 11 by wire, but may be configured to be wirelessly connected. . The details of the ID recognition camera 21 and the optical beacon 6 will be described later.
[0044]
FIG. 2 is a block diagram showing a configuration of the PC server 1. A CPU (Central Processing Unit) 31 executes various processes according to a program stored in a ROM (Read Only Memory) 32 or a storage unit 38. In a RAM (Random Access Memory) 33, programs executed by the CPU 31, data, and the like are stored as appropriate. These CPU 31, ROM 32, and RAM 33 are mutually connected by a bus.
[0045]
An input / output interface 35 is connected to the CPU 31 via a bus 34. The input / output interface 35 is connected to an input unit 36 including a keyboard, a mouse, a microphone, and the like, and an output unit 37 including a display, a speaker, and the like. The CPU 31 executes various processes in response to a command input from the input unit 36. Further, the CPU 31 appropriately processes the moving image data, the still image data, and the ID data acquired from the ID recognition camera 4 connected to the input unit 36 according to a program stored in the storage unit 38 or the ROM 32. Alternatively, it is stored in the storage unit 38.
[0046]
Then, the CPU 31 outputs an image, a sound, or the like obtained as a result of the processing to the output unit 37. Further, the CPU 31 controls the control unit 2 connected to the output unit 37 to output the exhibitor data and the detailed data of the exhibit from the information unit 3.
[0047]
The storage unit 38 connected to the input / output interface 35 is composed of, for example, a hard disk, and stores programs executed by the CPU 31 and various data. The communication unit 39 exchanges various data with a device having a communication function via a network (not shown).
[0048]
The drive 40 connected to the input / output interface 35 drives the magnetic disk 51, the optical disk 52, the magneto-optical disk 53, or the semiconductor memory 54 when they are mounted, and drives the programs and data recorded thereon. Get etc. The acquired programs and data are transferred to and stored in the storage unit 38 as necessary.
[0049]
Next, the configuration of the mobile terminal 11 will be described with reference to FIG.
[0050]
The configuration of the mobile terminal 11 is basically the same as that of the PC server 1 of FIG. 2, and includes a CPU 71, a ROM 72, a RAM 73, a bus 74, an input / output interface 75, an input unit 76, an output unit 77, and a storage unit of the mobile terminal 11. 78, a communication unit 79, a drive 80, a magnetic disk 91, an optical disk 92, a magneto-optical disk 93, and a semiconductor memory 94 include a CPU 31, a ROM 32, a RAM 33, a bus 34, an input / output interface 35, an input unit 36 of the PC server 1, It corresponds to the output unit 37, the storage unit 38, the communication unit 39, the drive 40, the magnetic disk 51, the optical disk 52, the magneto-optical disk 53, and the semiconductor memory 54. However, since the portable terminal 11 has a configuration that emphasizes portability in all cases, the processing speed, the storage capacity of the storage unit 78, and the like are smaller than those of the PC server 1.
[0051]
An ID (Identifier) recognition camera 21 is connected to the input unit 76. When the operation unit 23 is operated, a still image is captured, and the optical beacon 6 of the information unit 3 of the PC server 1 is further connected. Is captured, ID data obtained by the blinking pattern is input. The operation unit 23 includes, for example, a tablet button and is operated when a visitor (user) inputs various processes to the mobile terminal 11.
[0052]
The information unit 3 and the ID recognition camera 4 are the same as the information unit 12 and the ID recognition camera 21, respectively.
[0053]
Here, a detailed configuration of the ID recognition camera 4 will be described with reference to FIG. The light receiving unit 141 of the image sensor 131 photoelectrically converts light in an imaging area to be imaged into an electric signal, and outputs the electric signal to the arithmetic unit 142. Further, the light receiving element 151 of the light receiving section 141 is composed of a CMOS (Complementary Metal-Oxide Semiconductor) element, and can operate at a higher speed than a conventional CCD (Charge Coupled Device) element. More specifically, the light receiving element 151 photoelectrically converts light in an imaging region to be imaged and outputs the light to the amplifier 152. The amplifier 152 amplifies the photoelectrically converted electric signal input from the light receiving element 151 and outputs the amplified electric signal to the calculation unit 142.
[0054]
The storage unit 161 of the calculation unit 142 stores the amplified electric signal input from the light receiving unit 141 and outputs the amplified electric signal to the comparison unit 162 as appropriate. The comparison unit 162 performs an arithmetic process based on the value of the electric signal stored in the storage unit 161, compares the calculation result with a predetermined reference value (= reference signal level), and outputs the comparison result to the output unit 163. Output. The output unit 163 generates a sensor output signal based on the comparison result and outputs the signal to the data generation unit 132. However, the processing content of the calculation unit 142 differs depending on the two operation modes of the image mode and the ID mode. The details of the calculation contents in the two different operation modes will be described later.
[0055]
In the image mode, the image decoding processing unit 171 of the data generation unit 132 decodes the sensor output signal to generate a captured image, and outputs the captured image to the input unit 36 (FIG. 2). In the case of the ID mode, the ID decode processing unit 172 decodes the sensor output signal, generates ID data and position data, and outputs the generated ID data and position data to the input unit 36 (FIG. 2).
[0056]
Next, a detailed configuration of the image decoding processing unit 171 will be described with reference to FIG. The pixel value determination unit 181 of the image decoding processing unit 171 determines a pixel value based on the sensor output signal, and stores the determined pixel value in a corresponding pixel position in the frame memory 182. The frame memory 182 is a memory that stores pixel values for one frame, and stores a pixel value for each pixel position.
[0057]
When one frame of pixel values are stored in the frame memory 182, the output unit 183 sequentially reads and outputs the image data as image data.
[0058]
Next, a detailed configuration of the ID decode processing unit 172 will be described with reference to FIG. The ID decoding circuit 211 of the ID decoding unit 201 is configured by a device such as an IC (Integrated Circuit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array), and is input from the image sensor 131. The ID data of each pixel is restored from the signal. The ID decode circuit 211 may be configured by software using a microprocessor or a DSP (Digital Signal Processor) if the processing capability is sufficient.
[0059]
The flag register 212 is a register for storing flags required for decoding ID data, and the data register 213 is a register for storing an ID that is being decoded or has been decoded.
[0060]
In FIG. 6, only one ID decoding unit 201 is shown. However, the ID decoding unit 201 may be provided for each pixel depending on the processing speed, or may be provided in the vertical or horizontal direction. May be provided for each line.
[0061]
Timing control section 202 outputs a timing control signal for controlling the timing required for the entire operation of ID decode processing section 172. More specifically, the timing control unit 202 synchronizes the timing of the ID decode circuit 211 with the timing of the sensor output signal, and stores the flag data of the frame memory 203 corresponding to the desired sensor output signal in the flag register 212. The ID data is loaded into the data register 213 to generate a timing control signal for advancing the ID decoding process, and the timing control signal is supplied to the ID decoding unit 201 (the ID decoding circuit 211, the flag register 212, and the data register 213). I do. At this time, the timing control unit 202 generates and supplies an address signal to the frame memory 203 and a timing control signal such as read / write. Further, the timing control unit 202 generates and supplies a timing control signal for performing timing control of the ID register 221 of the center of gravity calculation unit 204, the ID center of gravity calculation circuit 222, and the ID coordinate storage memory 205.
[0062]
The frame memory 203 is a memory for storing ID data and flag data obtained by decoding sensor output signals calculated for each of the light receiving elements 151 or the calculation units 142, and the image sensor 131 uses one calculation unit 142 for one pixel. , The size is the same as the sensor image size of M pixels × N pixels, and the data width is the sum of the bit widths of the flag register 212 and the data register 213. In FIG. 6, coordinates corresponding to the position of each pixel are indicated by an I axis and a J axis, and ID data and flag data are stored at each coordinate position.
[0063]
The center-of-gravity calculation unit 204 obtains the coordinates of the center of gravity of the pixel on the captured image having the same ID data, and adds the position data (= the position of the optical beacon 2 on the captured image) as the detection position of the optical beacon 6 to the ID data. Output). More specifically, the ID register 221 of the center-of-gravity calculation unit 204 stores the predetermined ID data input from the timing control unit 202 in the frame memory 203 by using a timing control signal indicating that the decoding unit 201 has decoded the ID data. The ID data is read and output to the ID gravity center calculation circuit 222. The ID gravity center calculating circuit 222 sequentially adds the I coordinate and the J coordinate of the coordinate position of the corresponding pixel and the number of data for each input ID data, and stores the added data in the ID coordinate storage memory 205. When the data for one frame is stored in the frame memory 203, the ID gravity center calculation circuit 222 divides the sum of the I coordinate and the sum of the J coordinate for each ID by the number of data from the ID coordinate storage memory 205. To obtain the coordinates of the position of the center of gravity, and outputs the coordinates together with the ID data.
[0064]
Next, the configuration of the optical beacon 6 will be described with reference to FIGS.
[0065]
The optical beacon 2 of FIG. 7 includes a transmission data storage memory 151, a blinking control unit 152, and a light emitting unit 153. The transmission data storage memory 151 stores data for transmission in advance, reads out the data as appropriate, and outputs the data to the blinking control unit 152. The blinking control unit 152 includes a transmitter and a digital circuit such as an IC, an ASIC, an FPGA, and a one-chip microcomputer, and generates a blinking pattern based on the content of data stored in the transmission data storage memory 151. At the same time, the light emitting unit 153 emits light in the generated blinking pattern. The light emitting unit 153 may be a light source that can blink at high speed, and the output wavelength may be within a range in which the sensor responds. Further, the light emitted from the light emitting unit 153 may be not only visible light but also infrared light or the like, and it can be said that an LED (Light Emission Diode) is one of the most suitable light sources in terms of response speed and life.
[0066]
The optical beacon 6 in FIG. 8 can change data by communicating with another device via a network (not shown). Here, the network means a wired / wireless communication line, for example, a telephone line, ISDN, RS-232C, RS-422, Ethernet (registered trademark) (10base-T, 100base-T), USB (Universal Serial Bus), IEEE. (Institute of Electrical and Electronic Engineers) Refers to an environment in which data communication with other devices can be performed by communication means such as 1394, IEEE802.11a, IEEE802.11b, and Bluetooth. The data transmission / reception unit 251 includes a data communication IC and a driver corresponding to the communication unit, and outputs transmission data of the optical beacon 6 received via the network to the blinking control unit 252. The blinking control unit 252 generates a blinking pattern according to the input transmission data, and causes the light emitting unit 253 to emit light.
[0067]
Next, the operation of the ID recognition camera 4 will be described.
[0068]
The light receiving element 151 of the light receiving unit 141 photoelectrically converts the light, and outputs the converted electric signal to the amplifier 152. The amplification unit 152 amplifies the electric signal and outputs the electric signal to the calculation unit 142. The storage unit 161 of the calculation unit 142 sequentially stores the electric signals input from the light receiving unit 141, stores the electric signals of four frames, and when full, deletes the electric signal of the oldest frame, and By repeating the process of storing the electric signals of the current frame, the electric signals of the latest four frames are always stored, and the electric signals of the four frames are output to the comparing unit 162.
[0069]
The operation of the comparison unit 162 differs depending on the image mode and the ID mode. This operation mode may be alternately switched at predetermined time intervals by a control device (not shown) as shown in FIG. 9, for example. Further, the image mode and the ID mode may be switched at a conventional frame rate such as 30 fps (frame per second) or 60 fps. Further, in the ID mode, there are an ID decoding processing section for decoding ID data, and an ID gravity center calculation section for obtaining position data as a coordinate position of a pixel having the decoded ID data.
[0070]
Although FIG. 9 shows a case where the image mode and the ID mode are simultaneously performed, the time of each operation mode may or may not be the same. Further, as shown in the lower part of FIG. 9, at the timing after each image mode, the sensor output signal is decoded by the image decoding processing unit 171 to output the image data of the captured image, and at the timing after the ID mode. The ID output processing unit 172 decodes the sensor output signal and outputs ID data and position data.
[0071]
First, the operation in the image mode will be described.
[0072]
In the image mode, the comparison unit 162 of the image sensor 131 compares a signal level (electric signal stored in the storage unit 161) indicating the luminance detected by the light receiving unit 41 of each pixel with a reference signal level. As shown by 10, when the signal level becomes lower than the reference signal level, a signal (signal 1 in FIG. 11) which becomes active as shown in FIG. 11 is output.
[0073]
Here, FIG. 10 shows a luminance signal level, and FIG. 11 shows a sensor output signal. The luminance signal level substantially indicates a change in the charging voltage of the light receiving element 151. A voltage of a predetermined reset level having a polarity opposite to the voltage charged at a predetermined timing is applied to the light receiving element 151, and the voltage level decreases from the subsequent timing in accordance with the amount of charge accumulated by the light receiving element. Therefore, in FIG. 10, since the electric charge accumulated at time 0 is 0, the luminance signal level is the reset level (predetermined level). As time elapses from this state, charges are accumulated and the luminance signal level decreases. In this case, the straight line indicated by H in FIG. 10 is indicated as a pixel value having a relatively high luminance signal level (bright), and the straight line indicated by L is indicated as a pixel value having a relatively low luminance signal level (dark). I have.
[0074]
The change H in the luminance signal level having a high pixel value level indicates that the charge reaching the reference signal level is accumulated at time T (H), which is the timing when the time T (H) has elapsed from time 0. ing. On the other hand, in the change L of the luminance signal level at which the pixel value level is low, the charge reaching the reference signal level is accumulated at time T (L), which is the timing when time T (L) has elapsed from time 0. It is shown.
[0075]
That is, as shown in FIG. 10, the brighter pixel has a shorter time to reach the reference signal level (T (H) in the figure), and the darker pixel has a longer time to reach the reference signal level (T (L) in the figure) (T (L) in the figure). T (H) <T (L)). The comparing unit 162 converts the comparison result (comparator output) of whether or not the electric signal (luminance signal) of each pixel actually output from the light receiving unit 141 has reached the reference signal level into a binary value as shown in FIG. As a sensor output signal. Through such processing, the image sensor 131 captures an image at high speed, performs a comparison operation with a reference signal, and outputs a result for one screen (frame) as a sensor output signal.
[0076]
Further, in order to measure the times T (H) and T (L), the pixel value determination unit 181 of the image decoding processing unit 171 counts the result output by the image sensor 131 in units of one screen in units of frames. Then, in each pixel, a sensor output signal indicating in which frame the sensor output signal becomes active as shown in FIG. 10 is encoded and output as image data. In this case, in the sensor output signal, the time T (H) is the number of frames F (H), and the time T (L) is the number of frames F (L).
[0077]
That is, in the image mode, the pixel value determining unit 181 of the image decoding unit 171 converts the sensor output signal into a correct brightness value by the time (number of frames) required to reach the reference signal. By calculating the reciprocal for each pixel, the sensor output signal is decoded into image data and stored in the frame memory 182. When the image data for one frame is accumulated, the output unit 183 sequentially reads out and outputs the pixel values stored in the frame memory 182 as image data. By this operation, the ID recognition camera 21 can output image data in the image mode (for details, see 48 Kframes / s CMOS Image Sensor for Real-time 3-D Sensing and Motion Detection "ISSCC Digestion Point-of-Peach, 94-95, Feb. 2001, or JP-A-2001-326857).
[0078]
On the other hand, when the operation mode is the ID mode, the comparing unit 162 performs an arithmetic process such as the following equation (1) by using the electric signals for four consecutive frames stored in the storage unit 161 as luminance signals. Execute.
[0079]
V (N) = F (N) + F (N-1) -F (N-2) -F (N-3) (1)
[0080]
Here, N represents a frame number, V (N) represents a comparison value when the luminance value of the Nth frame is input, and F (N) is stored in the light receiving unit 141 of the Nth frame. Indicates luminance. Since the change in light can be detected by this calculation, the calculation result is output to the data generator 132 as a sensor output signal. Using the sensor output signal, the data generating unit 132 performs an ID decoding process described later, thereby restoring the ID data composed of the blinking pattern and generating the ID data from the optical beacon 6.
[0081]
Note that the calculation method of the comparison unit 162 is not limited to Expression (1), and may be realized by another calculation (such as a primary differentiation or comparison of a binarized image). Is described using Expression (1), which has high stability in detecting a light change.
[0082]
Here, the operation of the ID decode processing unit 172 will be described.
[0083]
The ID decoding circuit 211 of the ID decoding unit 201 determines the ID of each pixel from the sensor output signal input from the image sensor 131 based on the timing control signal for synchronizing the timing of the sensor output signal from the timing control unit 202. Restore data. At this time, the ID decode circuit 211 controls the flag register 212 in accordance with the timing control signal to decode the ID data from the sensor output signal using the flag data loaded in the frame memory 203, The ID for which decoding has been completed is stored in the data register 213.
[0084]
Further, the frame memory 203 stores the decoded flag data and ID data at the corresponding coordinate positions.
[0085]
The ID register 221 of the center-of-gravity calculation unit 204 stores information of the ID data currently stored in the frame memory 203 by a timing control signal indicating that predetermined ID data input from the timing control unit 202 has been decoded by the decoding unit 201. Is read by the ID gravity center calculation circuit 222.
[0086]
The ID gravity center calculation circuit 222 sequentially adds the I coordinate and the J coordinate of the coordinate position of the pixel corresponding to the read ID data, adds the information to the number of pixels, and stores the information in the ID coordinate storage memory 205. This process is repeated.
[0087]
When one frame of data is stored in the frame memory 203, the ID gravity center calculation circuit 222 divides the sum of I coordinates and the sum of J coordinates by the number of data from the ID coordinate storage memory 205 for each ID. , The coordinates of the position of the center of gravity are obtained as position data and output together with the corresponding ID data.
[0088]
By the above operation, for example, as shown in FIG. 12, when the two optical beacons 6-1 and 11-2 emit light while blinking and transmit data, the ID recognition camera 4 includes the upper part of FIG. The light signal is received by the pixel at the position on the captured image corresponding to the physical position of the optical beacon 6-1 or 11-2 on the real space as shown in FIG. For example, it is assumed that the light emitted from the optical beacon 6-1 is received by the light receiving element 151 at the coordinate position (10, 10), and the light emitted from the optical beacon 6-2 is at the coordinate position (90, 90). It is assumed that the light is received by the light receiving element 151. At this time, the light receiving elements 151 at the coordinate positions (10, 10) and (90, 90) of the respective light receiving sections 141 have the light receiving intensity (brightness) time according to the blinking patterns of the optical beacons 6-1 and 11-2, respectively. A signal can be received as a target change. In this case, the pixel corresponding to the position data at the coordinates (10, 10) has ID data “321”, and the pixel corresponding to the position data at the coordinates (90, 90) has ID data 105 as the decoding result. It has been demanded.
[0089]
As a result, the change in the received light intensity is binarized by the above equation (1) or the like, so that ID data composed of a 1/0 bit string can be obtained.
[0090]
Next, functions realized by the PC server 1 will be described with reference to a functional block diagram of FIG. In the following description, each configuration of the functional block will be described as being realized when the CPU 31 executes software including a program pre-installed in the storage unit 39 or the ROM 32, for example. You may make it comprise the hardware which implement | achieves a block. Therefore, the following functional block diagram may be regarded as a hardware configuration diagram or a software configuration diagram.
[0091]
The acquired data analysis unit 301 of the PC server 1 converts the ID data acquired by the ID recognition camera 4 by imaging the information unit 12 of the portable terminal 11 and the personal data transmitted from the portable terminal 11 from the position data. The data is analyzed, stored in the database 301a, and output to the data transmission control unit 302.
[0092]
The data transmission control unit 302 normally controls the control unit 2 to transmit the exhibitor data of the exhibitor exhibiting the exhibit 5 (FIG. 1) stored in the transmission data storage unit 303 in advance. Output from unit 3. Further, when the data transmission control unit 302 receives the personal data transmitted from the portable terminal 11 via the acquired data analysis unit 301, the data transmission control unit 302 transmits the data including the exhibit detail data from the transmission data storage unit 303, The control unit 2 is controlled to output from the information unit 3 so as to transmit to the transmitting portable terminal 11 (to switch the content of data to be transmitted). The transmission data control unit 302 controls the control unit 2 to output the map data of the exhibition hall stored in the transmission data storage unit 303 in advance from the information unit 3.
[0093]
Next, the functions realized by the mobile terminal 11 will be described with reference to the functional block diagram of FIG.
[0094]
When the operation unit 23 is operated by a visitor, the image recording unit 321 records the image data input from the ID recognition camera 21 as a still image, and outputs the still image to the data integration unit 325. That is, in this case, the operation unit 23 functions as a so-called shutter button.
[0095]
When the operation unit 23 is operated by a visitor, the acquired data analysis unit 322 analyzes the ID data (including the position data) input from the ID recognition camera 21 at that timing, and is transmitted from the information unit 3. It analyzes the exhibited exhibitor data and outputs exhibitor data as an analysis result to the data integration unit 325. In addition, the acquired data analysis unit 322 always analyzes data output from the ID recognition camera 21 and outputs data including its own personal ID (personal ID of the visitor) (for example, the details of the exhibit 5 of the exhibit 5 described later). When the data is detected, the data is output to the data integration unit 325. When map data of the exhibition hall is detected, the acquired data analysis unit 322 stores the map data in the memory 322a.
[0096]
When the operation unit 23 is operated by a visitor, the data transmission control unit 323 reads personal data stored in advance in the transmission data storage unit 324 at that timing, and controls the information unit 12 to transmit.
[0097]
That is, the process of recording the output image from the ID recognition camera 21 by the image recording unit 321 as a still image, the analysis of the ID data from the ID recognition camera 21 by the acquired data analysis unit 322, and the analysis result to the data integration unit 325. All the processes of outputting and the process of transmitting the personal data to the information unit 12 by the data transmission control unit 323 are performed almost simultaneously at the timing when the operation unit 23 is operated.
[0098]
The data integration unit 325 includes a still image of the exhibit 5 input from the image recording unit 321, exhibitor data (of an exhibitor exhibiting the exhibit 5) input from the acquired data analysis unit 322, and the exhibit 5 Is converted into a single file in html format and output to the integrated data storage unit 326.
[0099]
The display control unit 327 adds an icon including link information of integrated data stored in the integrated data storage unit 326 to the map data stored in the memory 322a of the acquired data analysis unit 322 based on an operation command of the operation unit 23. When the icon is operated (selected) by the operation unit 23, the integrated data corresponding to the icon is read out from the integrated data storage unit 326 and displayed on the display unit 22.
[0100]
Next, a configuration example of exhibitor data output from the information unit 3 of the PC server 1 will be described with reference to FIG. The exhibitor data includes an exhibit ID and data of an exhibitor name. The exhibition ID is an ID that is set in advance for each exhibitor who exhibits an exhibit at each exhibition. The exhibitor name is the data of the company name if the exhibitor is a company, or the data of the organization name if the exhibitor is a company other than a company, for example, a volunteer organization. Further, when the exhibitor is an individual, data of the exhibitor's name is recorded. This exhibitor data is data that is constantly output from the information unit 3 of the PC server 1, and when a visitor takes an image of an exhibit 5 of interest with his / her own portable terminal 11, the exhibitor data is output at that timing. Is obtained.
[0101]
Next, a configuration example of personal data output from the information unit 12 of the mobile terminal 11 will be described with reference to FIG. The personal data is composed of exhibition ID, personal ID, e-mail address, and company name data. The exhibit ID is described based on the exhibit ID acquired as the exhibitor data in the header of the personal data. The personal ID is an ID for identifying a visitor (user). The E-mail address and the company name are data of the E-mail address normally used by the visitor and the name of the company to which the visitor belongs (including the address of the company and the telephone number). This personal data is data that responds to the exhibitor data acquired when the visitor takes an image of the exhibit 5 of interest with the portable terminal 11 possessed by the visitor. Also, since the exhibition ID is set in the header part of the PC server 1, even if a plurality of personal data is transmitted from a plurality of portable terminals 11 by this exhibition ID, the personal data transmitted to the PC server 1 (self) Personal data including the exhibition ID) can be selected, and personal data of a visitor who is interested in the exhibit 5 can be stored.
[0102]
That is, when the visitor captures a still image of the exhibit in which he or she is interested, the visitor acquires exhibitor data of the exhibit and responds with personal data based on the exhibitor data.
[0103]
Next, with reference to FIG. 17, a description will be given of a configuration example of detailed data of an exhibit output from the information unit 3 by the PC server 1 after acquiring the above-described personal data. The detailed data of the exhibit includes an individual ID, an exhibit ID, exhibit detail data, a URL, and the like. The personal ID used when the personal data shown in FIG. 16 is obtained is used. The personal ID is set in the header of the detailed data of the exhibit, and the portable terminal 11 that receives the detailed data of the exhibit is the detailed data of the exhibit that the data is taken by the user himself with interest. Can be identified.
[0104]
The exhibition ID is the same as the exhibitor data and the exhibition ID of the personal data. The exhibit detail data is data in which detailed information of the exhibit created by the exhibitor is recorded. In the URL, data of the URL operated by the exhibitor is recorded.
[0105]
That is, the exhibitor's PC server 1 sends detailed data of the exhibit based on personal data from a visitor who is interested in the exhibit.
[0106]
Next, data integration by the data integration unit 325 will be described.
[0107]
When the operation unit 23 is operated, the data integration unit 325 stores the still image data recorded by the image recording unit 321, the exhibitor data input from the acquired data analysis unit 322, and the detailed data of the exhibit. Since the data has been input, the data integration unit 325 converts these data into a predetermined format defined by html as shown in FIG. 18 and integrates them.
[0108]
That is, "<HTML>" is described in the first line of FIG. 18, and the start of this page is instructed. In the second and fourth lines, “<HEAD>” and “</ HEAD>” are written, and information indicating the nature of this page is described between them. In this case, "<TITLE> 06 </ TITLE>" is described, and it is indicated that the display ID "06" is displayed as the title.
[0109]
In the fifth and twelfth lines, “<BODY>” and “</ BODY>” are written, and between them, the description content of this page is input. "<P>" and "</ P>" on the sixth, seventh, eighth, ninth, tenth, and eleventh lines indicate paragraphs, and the description between them is regarded as one paragraph. It is shown to be displayed. “<BR>” of “Exhibitor name: Company F <BR>” on the sixth line indicates a line feed, and when displayed on the display unit 22 of the mobile terminal 11, “<BR>” as shown at the top of FIG. "Exhibitor name: Company F" is displayed, indicating that a line feed is further performed.
[0110]
“URL: http: // www. <FONT size =“ − 2 ”>} .. {.} </ FONT>” shown in the seventh line is designated by “size =“ − 2 ””. It is instructed to display “△△△. △△. △” at a position below “URL: http: // www.” In the size of the URL. That is, by this command, as shown in FIG. 19, in the second row from the top, based on the URL data included in the detailed data of the exhibit, “URL: http: // www. . △△. △ ”is displayed.
[0111]
Further, on the eighth line, <IMG src = “image.jpg” width = “50” height = “30” border = “0”> is described, and an image recording indicated by “image.jpg” is described. The image file recorded by the unit 321 is an image having a width set by “width =“ 50 ”” and an image having a height set by “height =“ 30 ”” set by “border =“ 0 ””. This indicates that the image is to be displayed with the border width set, for example, as shown in an image 331 in FIG.
[0112]
Further, “Detailed information:” is described in the ninth line, and is displayed in the paragraph below the image 331 as shown in FIG. Further, the tenth line describes the text data of the part included in the detailed information of the exhibit among the detailed data of the exhibit shown in FIG. 19, and is displayed under “Detailed information:” as shown in FIG. In the eleventh line, “comment” is displayed, and as shown in FIG. 19, is displayed further below “detailed information”.
[0113]
Next, a data exchange process between the PC server 1 and the mobile terminal 11 will be described with reference to the flowchart in FIG.
[0114]
In step S1, the data transmission control unit 302 reads the exhibitor data shown in FIG. 15 stored in the transmission data storage unit 303 in advance, controls the control unit 2, and causes the information unit 3 to transmit.
[0115]
In step S11, it is determined whether or not the operation unit 23 of the mobile terminal 11 has been operated, and the processing is repeated until it is determined that the operation has been performed. For example, when the visitor is interested in the exhibit 5, holds the ID recognition camera 21 over the exhibit 5, and operates the operation unit 23 of the mobile terminal 11 so as to image the exhibit 5 (the operation unit 23 is When the operation unit 23 is operated and an operation signal is output from the operation unit 23 to the image recording unit 321, the acquired data analysis unit 322, and the data transmission control unit 323), it is determined that the operation unit 23 is operated, and the process is performed. Proceed to step S12. At this time, the information unit 3 near the exhibit 5 is also imaged.
[0116]
In step S12, the image recording unit 321 records a still image at that timing based on the image data input from the ID recognition camera 21, and outputs the still image to the data integration unit 325. In this case, a still image of the exhibit 5 is recorded.
[0117]
In step S13, the acquired data analysis unit 322 analyzes the ID data input from the ID recognition camera 21, acquires exhibitor data, outputs the exhibitor data to the data integration unit 325, and outputs the data to the data transmission control unit 323.
[0118]
In step S <b> 14, the data transmission control unit 323 reads the visitor's personal ID, e-mail address, and company name data stored in the transmission data control unit 324 in advance. The exhibition ID is read from the acquired exhibitor data, personal data is generated, and the information is output from the information unit 12.
[0119]
In step S2, the ID recognition camera 4 of the PC server 1 detects the light emission pattern and outputs ID data obtained from the light emission pattern to the acquired data analysis unit 301. In step S3, the acquired data analysis unit 301 determines whether or not the personal data transmitted from the mobile terminal 11 to itself is detected. If the personal data from the mobile terminal 11 is not detected, The process returns to step S1, and steps S1 to S3 are repeated until personal data is detected.
[0120]
In step S3, for example, when the process of step S14 is performed and personal data is transmitted, the acquired data analysis unit 301 analyzes the ID data input from the ID recognition camera 21 and transmits the data to itself. The detected personal data is detected, and the process proceeds to step S4. More specifically, since the exhibition ID is set in the header part of the personal data, the acquired data analysis unit 301 analyzes the ID data, and when the own exhibition ID is detected in the header part, the acquired data analysis unit 301 directs the acquisition data to itself. It is determined that the transmitted personal data has been detected.
[0121]
In step S4, the acquired data analysis unit 301 stores the acquired personal data in the built-in database 301a, and outputs the personal data to the data transmission control unit 302.
[0122]
In step S5, the data transmission control unit 302 reads out the detailed data of the exhibit stored in another area of the transmission data storage unit 303 in addition to the exhibitor data that has been transmitted up to that point. As shown, the detailed data of the exhibit is generated, the control unit 2 is controlled to output the data from the information unit 3, and the process returns to step S1.
[0123]
In step S15, the acquired data detection unit 322 determines whether or not the detailed data of the exhibit is detected, and repeats the process until the detailed data of the exhibit is transmitted. For example, when the data transmission control unit 302 of the PC server 1 controls the control unit 2 to transmit the detailed data of the exhibit by the processing in step S5, the acquired data analyzing unit 322 detects the detailed data of the exhibit. Is determined to have been performed, and the process proceeds to step S16.
[0124]
In step S16, the acquired data analysis unit 322 outputs detailed data of the detected exhibit to the data integration unit 325. In step S17, the data integration unit 325 converts the captured still image of the exhibit input from the image recording unit 321, the exhibitor data input from the acquired data analysis unit 322, and the detailed data of the exhibit into a figure. As shown by 18, the data is integrated into an html format file and stored in the integrated data storage unit 326.
[0125]
By performing the data exchange processing in this manner, when the operation unit 23 is operated in step S11, the portable terminal 11 acquires the exhibitor data transmitted from the information unit 3 of the PC server 1 at that timing. At the same time, the information unit 12 outputs the personal data to the ID recognition camera 4 of the PC server 1 by the processing of step S14. With this processing, in step S4, the acquired data analysis unit 301 stores personal data in the database 301a. Further, upon acquiring the personal data, the PC server 1 transmits the detailed data of the exhibit to the portable terminal 11 that has transmitted the personal data.
[0126]
As a result, the exhibitor simply operates the operation unit 23 to capture a still image of the exhibit of interest on his / her mobile terminal 11, and the exhibitor is interested in the exhibit exhibited by the exhibitor. Can be acquired and stored. Further, since the visitor can acquire the detailed data of the exhibit transmitted from the PC server 1 by the portable terminal 11, the exhibitor, The exchange of data, which is beneficial to both visitors, will be carried out smoothly.
[0127]
Next, the portable terminal 11 receives distribution of the map data of the exhibition hall as shown in FIG. 21 in advance from the PC server 1 or the like, displays an icon corresponding to the integrated data on the map data, and further operates the icon. The process of displaying the detailed data of the corresponding exhibit when the display is completed will be described.
[0128]
FIG. 21 illustrates a state where the display control unit 327 displays the map data acquired by the acquired data analysis unit 322. Booth arrangements of exhibitors A to J are shown from the left in the figure. The upper left numerical value indicating each booth is an exhibition ID for identifying each exhibitor. That is, the display ID of company A is "01", the display ID of company B is "02", the display ID of company C is "03", the display ID of company D is "04", and the display ID of company E The ID is “05”, the display ID of Company F is “06”, the display ID of Company G is “07”, the display ID of Company H is “08”, and the display ID of Company I is “09”. , J exhibit ID “10”.
[0129]
As shown in FIG. 22, the display control unit 327 displays an icon corresponding to the integrated data file in a range indicating the booth of each exhibitor, as shown in FIG. In FIG. 22, three icons 351-1 to 351-3 are displayed in the booth of the company F whose exhibition ID is "06". When these icons are operated by the operation unit 23, the display control unit 327 reads the integrated data linked thereto from the integrated data storage unit 326, and, for example, links the html file as shown in FIG. If so, the display 22 displays the data of the exhibit as shown in FIG.
[0130]
Next, distribution of map data by the PC server 1 and reception processing of map data by the portable terminal 11 will be described with reference to the flowchart of FIG.
[0131]
In step S31, the data transmission control unit 302 reads out the pre-stored map data of the exhibition hall stored in the transmission data storage unit 303, controls the control unit 2, and causes the information unit 3 to transmit. This process is repeated.
[0132]
In step S41, the acquired data analysis unit 322 of the portable terminal 11 analyzes the ID data detected when the information unit 3 is imaged by the ID recognition camera 21, acquires map data, and acquires its own memory 322a. To memorize.
[0133]
Through this processing, the map data is acquired by the portable terminal 11. It should be noted that the map data is always output from the information unit 3 of the PC server 1 of all exhibitors present in the exhibition hall, so that all the visitors who have visited the exhibition hall can acquire the map data. You may.
[0134]
Next, the map data display processing will be described with reference to the flowchart in FIG.
[0135]
In step S51, the display control unit 327 determines whether or not the operation unit 23 has been operated by a visitor to instruct display of map data, and repeats the processing until display of map data is instructed. For example, when the operation unit 23 is operated by the visitor to instruct the display of the map data, it is determined that the display of the map data is instructed, and the process proceeds to step S52.
[0136]
In step S52, the display control unit 327 reads the map data acquired by the processing of FIG. 24 into the memory 322a of the acquired data analysis unit 322, and causes the display unit 22 to display the map data, for example, as shown in FIG.
[0137]
In step S53, the display control unit 327 converts the integrated data stored in the integrated data storage unit 326 by the processing in the flowchart of FIG. 20 to correspond to the position of the exhibition ID in the map data as shown in FIG. 22, for example. Display the corresponding icon.
[0138]
In step S54, the display control unit 327 determines whether any icon is selected by the operation unit 23. For example, if any icon is selected, the process proceeds to step S55.
[0139]
In step S55, the display control unit 327 reads the integrated data corresponding to the selected icon from the integrated data storage unit 326, and causes the display unit 22 to display the integrated data, for example, as shown in FIG.
[0140]
In step S56, the display control unit 327 determines whether the end of the display of the integrated data has been instructed, and repeats the processing until the end of the display of the integrated data is instructed. The process returns to step S54.
[0141]
If no icon is selected in step S54, in step S57, the display control unit 327 determines whether or not the end of the display of the map data has been instructed, and determines that the end of the map data has not been instructed. If so, the process returns to step S54, and the processes of steps S54 and S57 are repeated until the icon is selected. If it is determined in step S57 that the end of the display of the map data has been instructed, the display processing of the map data is ended.
[0142]
Through the above processing, the visitor can easily organize the still images and detailed data of the exhibit taken at the exhibition hall, and view the display of the map data at the exhibition hall to view the displayed exhibit on the map. Since the confirmation can be made based on the data, it is possible to prevent the same exhibit from being visited more than once, and to prevent a visit from being forgotten if the visit was desired.
[0143]
Further, when information such as a questionnaire is acquired in addition to the visitor's personal data, as shown in FIG. 26, a questionnaire form is attached to the exhibitor data and transmitted, and as shown in FIG. The response of the questionnaire form may be attached to the data.
[0144]
Next, a data exchange process using the exhibitor data shown in FIG. 26 and the personal data shown in FIG. 27 will be described with reference to the flowchart in FIG. The processing of steps S72, S73, S75 and steps S91 to S92, S96 to S98 of the flowchart of FIG. Therefore, the description is omitted.
[0145]
In step S71, the data transmission control unit 302 reads the exhibitor data shown in FIG. 27 stored in the transmission data storage unit 303 in advance, controls the control unit 2, and causes the information unit 3 to transmit.
[0146]
In step S93, the display control unit 327, the acquired data analysis unit 322 analyzes the ID data to acquire exhibitor data, and the display control unit 327 displays a questionnaire form on the display unit 22.
[0147]
In step S94, the data transmission control unit 323 determines whether or not the input processing has been performed on the questionnaire form, and repeats the processing until the input is completed. Proceeds to step S95.
[0148]
In step S95, the data transmission control unit 323 sets the data of the questionnaire form subjected to the input processing, the exhibition ID of the exhibitor data, the personal ID stored in the transmission data storage unit 324, the e-mail address, and the company name. Is generated from the data, and the control unit 2 is controlled to output the data from the information unit 3.
[0149]
In step S74, the acquired data analysis unit 301 stores the personal data shown in FIG. 27 including the acquired questionnaire form in the built-in database 301a, and outputs the personal data to the data transmission control unit 302.
[0150]
Through the above processing, the PC server 1 of the exhibitor can also acquire the information of the questionnaire as the visitor's personal data.
[0151]
In the above example, the exhibitor data, the personal data, and the detailed data of the exhibit are stored in the information unit 3 of the PC server 1, the ID recognition camera 4, the information unit 12 of the portable terminal 11, and the ID. Although transmitted and received through the recognition camera 21, for example, wireless LAN communication facilities are provided mutually, and the exhibitor data including the IP address of the PC server 1 is output from the information unit 3 of the PC server 1. Alternatively, the exhibitor data may be obtained by the portable terminal 11 via the ID recognition camera 21.
[0152]
FIG. 29 is a functional block diagram illustrating a function of the PC server 1 capable of distributing detailed data of an exhibit using a wireless LAN. In the figure, portions corresponding to those in FIG. 13 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. Further, since the basic functions are the same, only the differences between the parts having the same name will be described.
[0153]
The data communication control unit 371, as shown in FIG. 30, based on the data stored in the transmission data control unit 373, as well as the function of the data transmission control unit 302 in FIG. Exhibitor data is generated from the own IP address and the data of the questionnaire form, and the control unit 2 is controlled to output from the information unit 3. The wireless LAN communication unit 372 is controlled by the data transmission control unit 371, establishes communication with the wireless LAN communication unit 383 of the portable terminal 11 shown in FIG. 31, and distributes detailed data of the exhibit.
[0154]
FIG. 31 is a functional block diagram illustrating functions of the portable terminal 11 that can receive detailed data of an exhibit using a wireless LAN. In the figure, parts corresponding to those in FIG. 14 are denoted by the same reference numerals, and a description thereof will be omitted as appropriate below. Further, since the basic functions are the same, only the differences between the parts having the same name will be described.
[0155]
The data communication control unit 381 controls the wireless LAN communication unit 383 to establish communication with the PC server 1 based on the IP address included in the exhibitor data shown in FIG. 30 acquired by the acquired data analysis unit 382. . Further, the data communication control unit 381 transmits personal data to the PC server 1 via the wireless LAN communication unit 383. The wireless LAN communication unit 383 establishes communication with the wireless LAN communication unit 372 of the PC server 1, receives the transmitted detailed data of the exhibit, and outputs the detailed data to the data integration unit 384. The data integration unit 384 integrates the still image data from the image recording unit 321, the exhibitor data from the acquired data analysis unit 382, and the detailed data of the exhibit 5 input via the wireless LAN communication unit 383, The integrated data is stored in the integrated data storage unit 326 as integrated data.
[0156]
Next, data exchange processing between the PC server 1 in FIG. 29 and the portable terminal 11 in FIG. 31 will be described with reference to the flowchart in FIG. The processing in steps S113 and S114, and steps S131 to S134, and S136 to S138 in FIG. 32 is the same as the processing in steps S73 and S74, and steps S91 to S94 and S96 to S98 in the flowchart in FIG. Therefore, the description is omitted.
[0157]
In step S111, the data transmission control unit 371 reads the exhibitor data shown in FIG. 30 stored in the transmission data storage unit 373 in advance, controls the control unit 2, and causes the information unit 3 to transmit.
[0158]
In step S135, the data communication control unit 381 controls the wireless LAN communication unit 383 based on the IP address information included in the exhibitor data, and transmits the personal data to the PC server 1.
[0159]
In step S112, the data communication control unit 371 of the PC server 1 controls the wireless LAN communication unit 372 to establish communication with the wireless LAN communication unit 383 of the portable terminal 11.
[0160]
More specifically, in step S135, the data communication control unit 381 controls the wireless LAN communication unit 383, and based on the IP address information included in the exhibitor data, transmits the own IP address information to the PC server. 1 and, in step S112, establishes communication with the wireless LAN communication unit 372 of the PC server 1 and transmits personal data to the PC server 1.
[0161]
In step S115, the data transmission control section 371 controls the wireless LAN communication section 372 to store the detailed data of the exhibit 5 stored in the transmission data storage section 373 in the portable terminal 11 corresponding to the personal data. Send
[0162]
Through the above processing, the exhibitor can acquire personal data of a visitor who is interested in the exhibit 5 via the wireless LAN, and the exhibitor can acquire his / her own interest via the wireless LAN. It is possible to acquire detailed data of the exhibit held. In addition, since the detailed data of the exhibit can be obtained via the LAN, the detailed data of the exhibit can be received by the ID recognition camera 21 even if the information unit 3 is not always imaged. For example, it is possible to distribute detailed data of an exhibit as stream data.
[0163]
Further, in the above example, the case where the exhibitor has one exhibit has been described, but a plurality of exhibites may be exhibited. However. In this case, a plurality of information units 3 are required.
[0164]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may be executed by a computer built into dedicated hardware or by installing various programs to execute various functions. It is installed from a recording medium in a possible personal computer or the like, for example.
[0165]
As shown in FIGS. 2 and 3, this recording medium is provided not only to the storage units 38 and 76 in which the program is recorded and provided to the user in a state where it is incorporated in the PC server 1 and the portable terminal 11 in advance, but also to a computer. Separately, the magnetic disks 51 and 91 (including flexible disks) and the optical disks 52 and 92 (CD-ROMs (Compact Disk-Read Only Memory)) on which the programs are recorded are distributed to provide the programs to users. , DVD (including Digital Versatile Disk), magneto-optical disks 53 and 93 (including MD (Mini-Disc) (registered trademark)), or semiconductor media 54 and 94 (including Memory Stick). Be composed.
[0166]
In this specification, a step of describing a program recorded on a recording medium is performed in a time-series manner in the order described. Alternatively, the processing includes individually executed processing.
[0167]
Also, in this specification, a system refers to an entire device including a plurality of devices.
[0168]
【The invention's effect】
According to the present invention, it is possible for an exhibitor to acquire personal data of a visitor who is interested in his / her exhibit only by performing an operation of imaging the exhibit by a visitor at an exhibition or the like. The visitor can obtain detailed data of the exhibit in exchange for personal data.
[Brief description of the drawings]
FIG. 1 is a diagram showing the configuration of an embodiment of an information distribution system to which the present invention has been applied.
FIG. 2 is a block diagram illustrating a configuration of a PC server in FIG. 1;
FIG. 3 is a block diagram illustrating a configuration of the mobile terminal of FIG. 1;
FIG. 4 is a block diagram of the ID recognition camera of FIG. 2;
FIG. 5 is a block diagram of an image decoding processing unit in FIG. 4;
FIG. 6 is a block diagram of an ID decode processing unit in FIG. 4;
FIG. 7 is a block diagram of the optical beacon of FIG. 1;
FIG. 8 is a block diagram of the optical beacon of FIG. 1;
FIG. 9 is a diagram illustrating the operation of the ID recognition camera.
FIG. 10 is a diagram illustrating an operation in which an ID recognition camera generates an image signal.
FIG. 11 is a diagram illustrating an operation in which an ID recognition camera generates an image signal.
FIG. 12 is a diagram illustrating an operation in which an ID recognition camera decodes a blinking pattern.
FIG. 13 is a functional block diagram illustrating functions of the PC server of FIG. 1;
FIG. 14 is a functional block diagram illustrating functions of the mobile terminal of FIG. 1;
FIG. 15 is a diagram illustrating exhibitor data.
FIG. 16 is a diagram illustrating personal data.
FIG. 17 is a diagram illustrating detailed data of an exhibit.
FIG. 18 is a diagram illustrating an integration process of detailed data of an exhibit.
FIG. 19 is a diagram showing a display example of integrated data of detailed data of an exhibit.
FIG. 20 is a flowchart illustrating a data exchange process.
FIG. 21 is a diagram illustrating a display example of map data.
FIG. 22 is a diagram illustrating a display example of map data.
FIG. 23 is a diagram showing a display example of integrated data of detailed data of an exhibit.
FIG. 24 is a flowchart illustrating a map data distribution process.
FIG. 25 is a flowchart illustrating a map data display process.
FIG. 26 is a diagram illustrating exhibitor data.
FIG. 27 is a diagram illustrating personal data.
FIG. 28 is a flowchart illustrating a data exchange process.
FIG. 29 is a functional block diagram illustrating another example of the function of the PC server in FIG. 1;
FIG. 30 is a diagram illustrating exhibitor data.
FIG. 31 is a functional block diagram illustrating another example of the function of the mobile terminal in FIG. 1;
FIG. 32 is a flowchart illustrating a data exchange process.
[Explanation of symbols]
1 PC server, 2 control unit, 3 information unit, 6,6-1 to 6-6 optical beacon, 11 portable terminal, 12 information unit, 21 ID recognition camera, 22 display unit, 23 operation unit, 301 acquired data analysis unit , 301a database, 302 data transmission control unit, 303 transmission data storage unit, 321 image recording unit, 322 acquired data analysis unit, 322a memory, 323 data transmission control unit, 324 transmission data storage unit, 325 data integration unit, 326 integrated data Storage unit, 327 display control unit, 371 data transmission control unit, 372 wireless LAN communication unit, 373 transmission data storage unit, 381 data transmission communication unit, 382 acquired data analysis unit, 382a memory, 383 wireless LAN communication unit, 384 data integration Unit, 385 display control unit

Claims (22)

他の情報処理装置に所定のデータを配信する情報処理装置において、
前記所定のデータに対応した点滅パターンを発生するパターン発生手段と、
前記パターン発生手段により発生された前記点滅パターンで発光する発光手段と、
第1のデータと第2のデータを記憶するデータ記憶手段と、
前記他の情報処理装置により制御されて発光する点滅パターンを撮像する撮像手段と、
前記撮像手段により撮像された点滅パターンを解析する解析手段とを備え、
前記解析手段の解析結果が、前記第1のデータに対応する第3のデータである場合、前記パターン発生手段は、前記第2のデータに対応した点滅パターンを発生する
ことを特徴とする情報処理装置。
In an information processing device that distributes predetermined data to another information processing device,
Pattern generating means for generating a blinking pattern corresponding to the predetermined data,
Light emitting means for emitting light in the blinking pattern generated by the pattern generating means,
Data storage means for storing first data and second data;
Imaging means for imaging a flashing pattern that emits light under the control of the other information processing device;
Analyzing means for analyzing the blinking pattern imaged by the imaging means,
When the analysis result of the analysis means is the third data corresponding to the first data, the pattern generation means generates a blinking pattern corresponding to the second data. apparatus.
前記第1のデータは、展示会の展示物を出展した出展者の出展者データを含む
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the first data includes exhibitor data of an exhibitor exhibiting an exhibit at an exhibition.
前記出展者データは、前記展示物、または、前記出展者に関するアンケートフォームを含む
ことを特徴とする請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the exhibitor data includes the exhibit or a questionnaire form regarding the exhibitor.
前記第1のデータに対応した第3のデータは、前記アンケートフォームの応答を含む
ことを特徴とする請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the third data corresponding to the first data includes a response to the questionnaire form.
前記第2のデータは、展示会の展示物の詳細データを含む
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the second data includes detailed data of an exhibit at an exhibition.
前記第3のデータは、展示会の展示物に興味を持った見学者の個人データを含む
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the third data includes personal data of a visitor who is interested in an exhibit at an exhibition.
他の情報処理装置に所定のデータを配信する情報処理装置の情報処理方法において、
前記所定のデータに対応した点滅パターンを発生するパターン発生ステップと、
前記パターン発生ステップの処理で発生された前記点滅パターンで発光する発光ステップと、
第1のデータと第2のデータを記憶するデータ記憶ステップと、
前記他の情報処理装置により制御されて発光する点滅パターンを撮像する撮像ステップと、
前記撮像ステップの処理で撮像された点滅パターンを解析する解析ステップとを含み、
前記解析ステップの処理での解析結果が、前記第1のデータに対応する第3のデータである場合、前記パターン発生ステップの処理は、前記第2のデータに対応した点滅パターンを発生する
ことを特徴とする情報処理方法。
In an information processing method of an information processing device that distributes predetermined data to another information processing device,
A pattern generating step of generating a blinking pattern corresponding to the predetermined data;
A light emitting step of emitting light in the blinking pattern generated in the processing of the pattern generating step,
A data storing step of storing first data and second data;
An imaging step of imaging a blinking pattern that emits light under the control of the other information processing apparatus;
Analyzing step of analyzing the blinking pattern imaged in the processing of the imaging step,
When the analysis result in the processing of the analysis step is third data corresponding to the first data, the processing of the pattern generation step includes generating a blinking pattern corresponding to the second data. Characteristic information processing method.
他の情報処理装置に所定のデータを配信する情報処理装置を制御するプログラムであって、
前記所定のデータに対応した点滅パターンの発生を制御するパターン発生制御ステップと、
前記パターン発生制御ステップの処理で発生された前記点滅パターンでの発光を制御する発光制御ステップと、
第1のデータと第2のデータの記憶を制御するデータ記憶制御ステップと、
前記他の情報処理装置により制御されて発光する点滅パターンの撮像を制御する撮像制御ステップと、
前記撮像制御ステップの処理で撮像が制御された点滅パターンの解析を制御する解析制御ステップとを含み、
前記解析制御ステップの処理での解析結果が、前記第1のデータに対応する第3のデータである場合、前記パターン発生制御ステップの処理は、前記第2のデータに対応した点滅パターンを発生する
ことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A program for controlling an information processing device that distributes predetermined data to another information processing device,
A pattern generation control step of controlling generation of a blinking pattern corresponding to the predetermined data,
A light emission control step of controlling light emission in the blinking pattern generated in the processing of the pattern generation control step,
A data storage control step of controlling storage of the first data and the second data;
An imaging control step of controlling imaging of a blinking pattern that emits light under the control of the other information processing apparatus;
An analysis control step of controlling the analysis of the blink pattern in which the imaging is controlled in the processing of the imaging control step,
When the analysis result in the processing of the analysis control step is the third data corresponding to the first data, the processing of the pattern generation control step generates a blinking pattern corresponding to the second data. A recording medium on which a computer-readable program is recorded.
他の情報処理装置に所定のデータを配信する情報処理装置を制御するコンピュータに、
前記所定のデータに対応した点滅パターンの発生を制御するパターン発生制御ステップと、
前記パターン発生制御ステップの処理で発生された前記点滅パターンでの発光を制御する発光制御ステップと、
第1のデータと第2のデータの記憶を制御するデータ記憶制御ステップと、
前記他の情報処理装置により制御されて発光する点滅パターンの撮像を制御する撮像制御ステップと、
前記撮像制御ステップの処理で撮像が制御された点滅パターンの解析を制御する解析制御ステップとを実行させ、
前記解析制御ステップの処理での解析結果が、前記第1のデータに対応する第3のデータである場合、前記パターン発生制御ステップの処理は、前記第2のデータに対応した点滅パターンを発生する
ことを特徴とするプログラム。
A computer that controls an information processing device that distributes predetermined data to another information processing device,
A pattern generation control step of controlling generation of a blinking pattern corresponding to the predetermined data,
A light emission control step of controlling light emission in the blinking pattern generated in the processing of the pattern generation control step,
A data storage control step of controlling storage of the first data and the second data;
An imaging control step of controlling imaging of a blinking pattern that emits light under the control of the other information processing apparatus;
Performing an analysis control step of controlling the analysis of the blinking pattern of which the imaging is controlled in the processing of the imaging control step,
When the analysis result in the processing of the analysis control step is the third data corresponding to the first data, the processing of the pattern generation control step generates a blinking pattern corresponding to the second data. A program characterized by that:
他の情報処理装置よりデータの配信を受ける情報処理装置において、
前記他の情報処理装置により制御されて発光する点滅パターンを撮像する撮像手段と、
前記撮像手段により撮像された点滅パターンを解析する解析手段と、
前記解析手段の解析結果が第1のデータである場合、前記第1のデータを蓄積する蓄積手段と、
前記解析手段の解析結果が第1のデータである場合、前記第1のデータに対応した第2のデータを生成する生成手段と、
前記第2のデータに対応した点滅パターンを発生するパターン発生手段と、
前記パターン発生手段により発生された点滅パターンで発光する発光手段とを備え、
前記解析手段の解析結果が、前記第2のデータに対応した第3のデータである場合、前記蓄積手段は、前記第1のデータに加えて、前記第3のデータを蓄積する
ことを特徴とする情報処理装置。
In an information processing device receiving data distribution from another information processing device,
Imaging means for imaging a flashing pattern that emits light under the control of the other information processing device;
Analysis means for analyzing the blinking pattern imaged by the imaging means,
A storage unit that stores the first data when an analysis result of the analysis unit is first data;
Generating means for generating second data corresponding to the first data when an analysis result of the analyzing means is first data;
Pattern generating means for generating a blinking pattern corresponding to the second data;
Light-emitting means for emitting light in a blinking pattern generated by the pattern generating means,
When the analysis result of the analysis means is the third data corresponding to the second data, the accumulation means accumulates the third data in addition to the first data. Information processing device.
前記第1のデータは、展示会の展示物を出展した出展者の出展者データを含む
ことを特徴とする請求項10に記載の情報処理装置。
The information processing apparatus according to claim 10, wherein the first data includes exhibitor data of an exhibitor exhibiting an exhibit at an exhibition.
前記出展者データは、前記展示物、または、前記企業に関するアンケートフォームを含む
ことを特徴とする請求項11に記載の情報処理装置。
The information processing apparatus according to claim 11, wherein the exhibitor data includes a questionnaire form regarding the exhibit or the company.
前記第1のデータに対応した第2のデータは、前記アンケートフォームの応答を含む
ことを特徴とする請求項12に記載の情報処理装置。
13. The information processing apparatus according to claim 12, wherein the second data corresponding to the first data includes a response to the questionnaire form.
前記第2のデータは、展示会の展示物に興味を持った見学者の個人データを含む
ことを特徴とする請求項10に記載の情報処理装置。
11. The information processing apparatus according to claim 10, wherein the second data includes personal data of a visitor who is interested in an exhibit at an exhibition.
前記第3のデータは、展示会の展示物の詳細データを含む
ことを特徴とする請求項10に記載の情報処理装置。
11. The information processing apparatus according to claim 10, wherein the third data includes detailed data of an exhibit at an exhibition.
前記撮像手段は、前記点滅パターンに加えて、前記他の情報処理装置を含む範囲の静止画像を撮像し、
前記蓄積手段は、前記第3のデータ、前記第1のデータ、および、前記静止画像を対応付けて蓄積する
ことを特徴とする請求項10に記載の情報処理装置。
In addition to the blinking pattern, the imaging unit captures a still image in a range including the other information processing device,
The information processing apparatus according to claim 10, wherein the storage unit stores the third data, the first data, and the still image in association with each other.
前記蓄積手段により対応付けて蓄積されている前記第3のデータ、前記第1のデータ、および、前記静止画像を所定の形式に変換する変換手段とをさらに備える
ことを特徴とする請求項16に記載の情報処理装置。
17. The image processing apparatus according to claim 16, further comprising a conversion unit configured to convert the third data, the first data, and the still image stored in association with each other by the storage unit into a predetermined format. An information processing apparatus according to claim 1.
前記変換手段は、前記蓄積手段により対応付けて蓄積されている前記第3のデータ、前記第1のデータ、および、前記静止画像をhtmlの形式に変換する
ことを特徴とする請求項17に記載の情報処理装置。
18. The apparatus according to claim 17, wherein the conversion unit converts the third data, the first data, and the still image stored in association with each other by the storage unit into an html format. Information processing device.
他の情報処理装置よりデータの配信を受ける情報処理装置の情報処理方法において、
前記他の情報処理装置により制御されて発光する点滅パターンを撮像する撮像ステップと、
前記撮像ステップの処理で撮像された点滅パターンを解析する解析ステップと、
前記解析ステップの処理での解析結果が第1のデータである場合、前記第1のデータを蓄積する蓄積ステップと、
前記解析ステップの処理での解析結果が第1のデータである場合、前記第1のデータに対応した第2のデータを生成する生成ステップと、
前記第2のデータに対応した点滅パターンを発生するパターン発生ステップと、
前記パターン発生ステップの処理で発生された点滅パターンで発光する発光ステップとを含み、
前記解析ステップの処理での解析結果が、前記第2のデータに対応した第3のデータである場合、前記蓄積ステップの処理は、前記第1のデータに加えて、前記第3のデータを蓄積する
ことを特徴とする情報処理方法。
In an information processing method of an information processing device receiving data distribution from another information processing device,
An imaging step of imaging a blinking pattern that emits light under the control of the other information processing apparatus;
An analyzing step of analyzing the blinking pattern imaged in the processing of the imaging step,
An accumulation step of accumulating the first data when an analysis result in the processing of the analysis step is first data;
A generating step of generating second data corresponding to the first data when an analysis result in the processing of the analyzing step is first data;
A pattern generating step of generating a blinking pattern corresponding to the second data;
A light emitting step of emitting light in a blinking pattern generated in the processing of the pattern generating step,
When the analysis result in the processing in the analysis step is the third data corresponding to the second data, the processing in the storage step includes storing the third data in addition to the first data. An information processing method comprising:
他の情報処理装置よりデータの配信を受ける情報処理装置を制御するプログラムであって、
前記他の情報処理装置により制御されて発光する点滅パターンの撮像を制御する撮像制御ステップと、
前記撮像制御ステップの処理で撮像された点滅パターンの解析を制御する解析制御ステップと、
前記解析制御ステップの処理での解析結果が第1のデータである場合、前記第1のデータの蓄積を制御する蓄積制御ステップと、
前記解析制御ステップの処理での解析結果が第1のデータである場合、前記第1のデータに対応した第2のデータの生成を制御する生成制御ステップと、
前記第2のデータに対応した点滅パターンの発生を制御するパターン発生制御ステップと、
前記パターン発生制御ステップの処理で発生された点滅パターンでの発光を制御する発光制御ステップとを含み、
前記解析制御ステップの処理での解析結果が、前記第2のデータに対応した第3のデータである場合、前記蓄積制御ステップの処理は、前記第1のデータに加えて、前記第3のデータの蓄積を制御する
ことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A program for controlling an information processing device that receives data distribution from another information processing device,
An imaging control step of controlling imaging of a blinking pattern that emits light under the control of the other information processing apparatus;
An analysis control step of controlling the analysis of the blink pattern captured in the processing of the imaging control step,
An accumulation control step of controlling accumulation of the first data when an analysis result in the processing of the analysis control step is first data;
A generation control step of controlling generation of second data corresponding to the first data when an analysis result in the processing of the analysis control step is first data;
A pattern generation control step of controlling generation of a blinking pattern corresponding to the second data;
A light emission control step of controlling light emission in the blinking pattern generated in the processing of the pattern generation control step,
When the analysis result in the processing of the analysis control step is the third data corresponding to the second data, the processing of the accumulation control step includes the third data in addition to the first data. A storage medium storing a computer-readable program, which controls accumulation of data.
他の情報処理装置よりデータの配信を受ける情報処理装置を制御するコンピュータに、
前記他の情報処理装置により制御されて発光する点滅パターンの撮像を制御する撮像制御ステップと、
前記撮像制御ステップの処理で撮像された点滅パターンの解析を制御する解析制御ステップと、
前記解析制御ステップの処理での解析結果が第1のデータである場合、前記第1のデータの蓄積を制御する蓄積制御ステップと、
前記解析制御ステップの処理での解析結果が第1のデータである場合、前記第1のデータに対応した第2のデータの生成を制御する生成制御ステップと、
前記第2のデータに対応した点滅パターンの発生を制御するパターン発生制御ステップと、
前記パターン発生制御ステップの処理で発生された点滅パターンでの発光を制御する発光制御ステップとを実行させ、
前記解析制御ステップの処理での解析結果が、前記第2のデータに対応した第3のデータである場合、前記蓄積制御ステップの処理は、前記第1のデータに加えて、前記第3のデータの蓄積を制御する
ことを特徴とするプログラム。
A computer that controls an information processing device that receives data distribution from another information processing device,
An imaging control step of controlling imaging of a blinking pattern that emits light under the control of the other information processing apparatus;
An analysis control step of controlling the analysis of the blink pattern captured in the processing of the imaging control step,
An accumulation control step of controlling accumulation of the first data when an analysis result in the processing of the analysis control step is first data;
A generation control step of controlling generation of second data corresponding to the first data when an analysis result in the processing of the analysis control step is first data;
A pattern generation control step of controlling generation of a blinking pattern corresponding to the second data;
A light emission control step of controlling light emission in the blinking pattern generated in the processing of the pattern generation control step,
When the analysis result in the processing of the analysis control step is the third data corresponding to the second data, the processing of the accumulation control step includes the third data in addition to the first data. A program characterized by controlling the accumulation of data.
所定のデータを配信する第1の情報処理装置と、前記第1の情報処理装置により配信された所定のデータの配信を受ける第2の情報処理装置からなる情報処理システムにおいて、
前記第1の情報処理装置は、
前記所定のデータに対応した点滅パターンを発生する第1のパターン発生手段と、
前記第1のパターン発生手段により発生された前記点滅パターンで発光する第1の発光手段と、
第1のデータと第2のデータを記憶するデータ記憶手段と、
前記第2の情報処理装置により制御されて発光する点滅パターンを撮像する第1の撮像手段と、
前記第1の撮像手段により撮像された点滅パターンを解析する第1の解析手段とを備え、
前記第1の解析手段の解析結果が、前記第1のデータに対応する第3のデータである場合、前記第1のパターン発生手段は、前記第2のデータに対応した点滅パターンを発生し、
前記第2の情報処理装置は、
前記第1の情報処理装置により制御されて発光する点滅パターンを撮像する第2の撮像手段と、
前記第2の撮像手段により撮像された点滅パターンを解析する第2の解析手段と、
前記第2の解析手段の解析結果が第1のデータである場合、前記第1のデータを蓄積する蓄積手段と、
前記第2の解析手段の解析結果が第1のデータである場合、前記第1のデータに対応した第2のデータを生成する生成手段と、
前記第2のデータに対応した点滅パターンを発生する第2のパターン発生手段と、
前記第2のパターン発生手段により発生された点滅パターンで発光する第2の発光手段とを備え、
前記第2の解析手段の解析結果が、前記第2のデータに対応した第3のデータである場合、前記蓄積手段は、前記第1のデータに加えて、前記第3のデータを蓄積する
ことを特徴とする情報処理システム。
In an information processing system including a first information processing apparatus that distributes predetermined data and a second information processing apparatus that receives distribution of the predetermined data distributed by the first information processing apparatus,
The first information processing device includes:
First pattern generating means for generating a blinking pattern corresponding to the predetermined data;
First light emitting means for emitting light in the blinking pattern generated by the first pattern generating means;
Data storage means for storing first data and second data;
First imaging means for imaging a blinking pattern that emits light under the control of the second information processing device;
First analyzing means for analyzing a blinking pattern imaged by the first imaging means,
When the analysis result of the first analysis means is the third data corresponding to the first data, the first pattern generation means generates a blinking pattern corresponding to the second data;
The second information processing device includes:
Second imaging means for imaging a blinking pattern that emits light under the control of the first information processing device;
Second analysis means for analyzing the blinking pattern imaged by the second imaging means;
A storage unit for storing the first data when an analysis result of the second analysis unit is the first data;
Generating means for generating second data corresponding to the first data when an analysis result of the second analyzing means is first data;
Second pattern generating means for generating a blinking pattern corresponding to the second data;
A second light emitting unit that emits light in a blinking pattern generated by the second pattern generating unit,
When the analysis result of the second analysis means is the third data corresponding to the second data, the storage means stores the third data in addition to the first data. An information processing system characterized by the following.
JP2002166402A 2002-06-07 2002-06-07 Information processing apparatus and method, information processing system, recording medium, and program Withdrawn JP2004015448A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002166402A JP2004015448A (en) 2002-06-07 2002-06-07 Information processing apparatus and method, information processing system, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002166402A JP2004015448A (en) 2002-06-07 2002-06-07 Information processing apparatus and method, information processing system, recording medium, and program

Publications (1)

Publication Number Publication Date
JP2004015448A true JP2004015448A (en) 2004-01-15

Family

ID=30433953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002166402A Withdrawn JP2004015448A (en) 2002-06-07 2002-06-07 Information processing apparatus and method, information processing system, recording medium, and program

Country Status (1)

Country Link
JP (1) JP2004015448A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020225899A1 (en) * 2019-05-09 2020-11-12 日本電信電話株式会社 Exhibition assistance device, exhibition assistance system, exhibition assistance method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020225899A1 (en) * 2019-05-09 2020-11-12 日本電信電話株式会社 Exhibition assistance device, exhibition assistance system, exhibition assistance method, and program
JPWO2020225899A1 (en) * 2019-05-09 2020-11-12
JP7389367B2 (en) 2019-05-09 2023-11-30 日本電信電話株式会社 Exhibition support device, exhibition support system, exhibition support method, and program

Similar Documents

Publication Publication Date Title
CN203224887U (en) Display control device
CN103581550A (en) Data storage device and data medium
JP5217922B2 (en) Electronic advertisement system, electronic advertisement distribution apparatus, and program
US10460587B2 (en) Information processing apparatus, information processing method, and program
US20150324635A1 (en) Methods, systems, and apparatuses for visitor monitoring
CN109479181B (en) System and method for user detection and identification
US10360572B2 (en) Image processing system, method and computer program product for evaluating level of interest based on direction of human action
CN1684084A (en) Data notification method and system thereof
CN1589451A (en) Video surveillance system employing video primitives
CN103890810A (en) Image processing apparatus, method and computer program product
CN104718749A (en) Image processing system, image processing method, and program
JP2014123261A (en) Information processor and recording medium
CN102402382A (en) Information processing device and information processing method
CN111178294A (en) State recognition method, device, equipment and storage medium
JP2012042507A (en) Video display device
JP4244221B2 (en) Surveillance video distribution method, surveillance video distribution apparatus, and surveillance video distribution system
JP5262929B2 (en) Image processing program and image processing apparatus
US20040001074A1 (en) Image display apparatus and method, transmitting apparatus and method, image display system, recording medium, and program
JP2007043579A (en) Object identification system and detection apparatus
JP2004048524A (en) Information processing apparatus and method therefor, information processing system, recording medium, and program
CN112055152B (en) Image pickup apparatus
JP2004015448A (en) Information processing apparatus and method, information processing system, recording medium, and program
JP2009251952A (en) Information processing apparatus, information storage device, and information processing system
JP2004054890A (en) Method and device for image display, method and device for transmission, image display system, recording medium, and program
JP2003348390A (en) Information processing apparatus and method, information processing system, recording medium, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050906