JP4165095B2 - Information providing apparatus and information providing method - Google Patents

Information providing apparatus and information providing method Download PDF

Info

Publication number
JP4165095B2
JP4165095B2 JP2002071612A JP2002071612A JP4165095B2 JP 4165095 B2 JP4165095 B2 JP 4165095B2 JP 2002071612 A JP2002071612 A JP 2002071612A JP 2002071612 A JP2002071612 A JP 2002071612A JP 4165095 B2 JP4165095 B2 JP 4165095B2
Authority
JP
Japan
Prior art keywords
information
passer
passerby
face
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002071612A
Other languages
Japanese (ja)
Other versions
JP2003271084A (en
Inventor
えりな 瀧川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2002071612A priority Critical patent/JP4165095B2/en
Publication of JP2003271084A publication Critical patent/JP2003271084A/en
Application granted granted Critical
Publication of JP4165095B2 publication Critical patent/JP4165095B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、不特定の通行人に情報を提供する情報提供装置および情報提供方法に関するものである。
【0002】
【従来の技術】
従来の情報提供装置または情報提供方法は、不特定の者を対象にして情報提供を行うタイプのものと、特定の者を対象にして情報提供を行うタイプのものに大別することができる。
【0003】
前者の例としては、店頭または街頭などに設置される電光掲示板・ディスプレイなどを有する情報提供装置が知られている。この種の装置は、主に通行人の興味をひいて顧客の拡大を図るために用いられ、たとえばお店の紹介やおすすめ商品の案内、新製品・新刊本などの情報を繰り返し表示する構成になっている。他の用途としては、施設内での案内表示をする目的などにも利用されている。
【0004】
また、後者の例としては、インターネットや携帯電話を用いた情報提供サービスなどが知られている。たとえば、特開2001−203811号公報では、携帯電話のユーザが自己のライフスタイルや嗜好に合った情報提供サービスを享受可能なシステムが提案されている。
【0005】
【発明が解決しようとする課題】
ところで、前者のタイプでは、不特定者を対象としている関係上、個々人の嗜好に合わせた情報を提供することはできない。また、通行人も受動的に情報提供を受けるだけなので、表示された情報に興味をひかれることは稀である。したがって、広告宣伝情報などを表示しても高い訴求効果は得られないという課題があった。
【0006】
その点、後者のタイプでは特定者を対象としているため、個々人の嗜好に合わせた情報提供サービスを行うことができるという利点がある。しかしながら、この場合には個人情報の登録が必須となることから、ユーザの拡大が難しいという課題があった。すなわち、プライバシー保護の観点および個人情報の漏洩・流出・悪用などの危機感から、個人情報の登録に抵抗を感じる者は少なくなく、そのような者は当該情報提供サービスの利用そのものをためらってしまうケースが多いのである。
【0007】
本発明は上記実情に鑑みてなされたものであって、その目的とするところは、不特定の通行人に対しても、その者の嗜好に合った内容の情報を提供することができる情報提供装置および情報提供方法を実現することにある。
【0008】
【課題を解決するための手段】
上記目的を達成するために、本発明の情報提供装置は、不特定の通行人に情報を提供する情報提供装置であって、通行人の像情報を取得する像情報取得手段と、前記取得した像情報から、人の有する属性に係る特徴量を抽出する特徴量抽出手段と、前記抽出した特徴量に基づいて当該通行人に提供すべき提供情報を決定する情報決定手段と、前記決定した提供情報を前記通行人に向けて出力する情報出力手段と、を備える構成を採用する。
【0009】
この構成によれば、プライバシーにかかわる個人情報を取得することなしに不特定の通行人(の特徴量)からその者固有の属性を推定することができる。属性としては種々のものが採用でき、たとえば、性別、年齢層(年代)、人種、身長、体格、髪型、服装、歩き方、持ち物、一人で歩いているか複数人で連れ立っているかなどの属性が好適である。このような属性を知ることができれば、属性に基づきその者の嗜好やライフスタイルの傾向を推定することができ、さらには、その嗜好やライフスタイルの傾向に合った提供情報を決定することができる。したがって、不特定の通行人に対して、個人情報を取得することなく、その者の嗜好に合った内容の情報の提供が可能となる。
【0010】
これにより、情報提供者にとっては効率的に訴求効果の高い情報提供ができるようになり、他方、通行人にとっては特段の手間をかけることなく、自分に有益な情報を取得することができるので、両者にとっての利益が大きい。
【0011】
前記情報決定手段は、前記抽出した特徴量に基づいて当該通行人を所定のカテゴリに分類する分類手段と、前記通行人の属するカテゴリに応じて前記提供すべき提供情報を選択する情報選択手段と、を有することが好適である。
【0012】
この構成によれば、プライバシーにかかわる個人情報を取得することなしに不特定の通行人を所定のカテゴリに分類することができる。分類のしかたとしては種々考えられるが、たとえば上記属性ごとに又は複数の属性の組み合わせなどで分類してもよい。このように通行人を分類すれば、そのカテゴリごとに嗜好やライフスタイルの傾向を容易に推定することができる(換言すれば、嗜好やライフスタイルの傾向などに基づいてカテゴリを設定すればよい)。そして、カテゴリに応じてその嗜好やライフスタイルの傾向に合った提供情報を選択することができる。したがって、不特定の通行人に対して、個人情報を取得することなく、その者の嗜好に合った内容の情報の提供が可能となる。
【0013】
前記カテゴリに対応して予め分類された複数種類の提供情報を記憶する提供情報記憶手段を備え、前記情報選択手段は、前記通行人の属するカテゴリに対応する種類の提供情報を前記提供情報記憶手段から選択することが好適である。
【0014】
上記のようにカテゴリごとに嗜好やライフスタイルの傾向を推定することができるので、カテゴリに対応して予め提供情報を分類し提供情報記憶手段に記憶させておけば、情報決定手段における情報決定処理が簡易になる。そうすると通行人の像情報を取得してから情報提供までに要する処理時間を短縮することができるので、移動中の通行人に対してもリアルタイムに最適な情報の提供が可能となる。なお、提供情報を分類する処理は自動で行ってもよいし、情報提供者(装置管理者)が手動で行ってもよい。
【0015】
前記情報出力手段が出力する提供情報は、情報の内容の要旨を示す概略情報と、より詳しい内容の取得方法を示す参照情報とを含むことが好ましい。
【0016】
概略情報を含めたことで、移動中の通行人に対しても瞬時に情報の内容の要旨を伝達することができる。したがって、出力した提供情報が通行人の注意をひく可能性が高くなる。また、概略情報によって興味をもった通行人は参照情報に基づいてより詳しい内容を取得することができるので、量的にも質的にも充実した内容の情報を提供することができる。したがって、高い訴求効果を得ることができる。
【0017】
前記通行人の像情報を取得する像情報取得手段としては、通行人の顔、半身または全身を撮像して画像情報を取得するカメラなどの撮像手段を好適に用いることができる。また、通行人の顔、半身または全身の形状情報や凹凸情報を取得する赤外線センサ、距離センサなどの検知手段も好適に用いることができる。なお、像情報取得手段としては、ここで例示したものに限られず、人の有する属性に係る特徴量を抽出することのできる像情報を取得可能な手段であれば種々のものを好適に用いることができる。
【0018】
前記情報出力手段としては、文字または画像で情報を出力する電光掲示板やディスプレイなどの表示手段、音声で情報を出力するスピーカなどの音声出力手段、通行人が所持する携帯電話や携帯情報端末などの移動体端末にデジタル情報を送信する送信手段、情報を紙媒体などに印字出力する印字手段、その他これに類する情報出力手段を好適に用いることができる。
【0019】
前記通行人の移動速度を検知する移動速度検知手段を備え、前記検知した移動速度が所定値以下の場合のみ当該通行人に情報を提供する構成も好適である。比較的速い速度で移動する通行人は出力される情報にあまり興味をひかれないことが予想され、他方、比較的遅い速度で移動する通行人や立ち止まっている通行人は出力される情報を受け取る可能性が高いと考えられる。したがって、通行人の移動速度に基づいて通行人に情報を提供するか否かを決定すれば、効率的かつ訴求効果の高い情報提供が可能となる。
【0020】
前記移動速度検知手段は、所定の時間間隔をあけて取得した複数の像情報に基づいて前記通行人の移動速度を算出することが好ましい。像情報取得手段で取得した像情報を用いて移動速度を検出するようにすれば、通行人の移動速度を測定するためのセンサなどを別途設ける必要がなくなるので、装置構成が簡易になり、低コスト化を図ることができる。
【0021】
なお、上記本発明の情報提供装置は、単体構成の装置として実現することもできるし、端末とサーバの複数の情報処理装置で構成したシステムとして実現することもできる。たとえば、その一実施態様たる情報提供装置(システム)としては、不特定の通行人に情報を提供する情報提供装置であって、端末とサーバとを備えて構成され、前記端末は、通行人の像情報を取得する像情報取得手段と、前記取得した像情報を前記サーバに送信する像情報送信手段と、前記サーバから受信した提供情報を前記通行人に向けて出力する情報出力手段と、を備え、前記サーバは、前記端末から像情報を受信する像情報受信手段と、前記受信した像情報から、人の有する属性に係る特徴量を抽出する特徴量抽出手段と、前記抽出した特徴量に基づいて当該通行人に提供すべき提供情報を決定する情報決定手段と、前記決定した提供情報を前記端末に送信する提供情報送信手段と、を備える構成が好適である。
【0022】
また、本発明の情報提供方法は、不特定の通行人に情報を提供する情報提供方法であって、通行人の像情報を取得するステップと、前記取得した像情報から、人の有する属性に係る特徴量を抽出するステップと、前記抽出した特徴量に基づいて当該通行人に提供すべき提供情報を決定するステップと、前記決定した提供情報を前記通行人に向けて出力するステップと、を含むことを特徴とする。
【0023】
前記提供すべき提供情報を決定するステップは、前記抽出した特徴量に基づいて当該通行人を所定のカテゴリに分類するステップと、前記通行人の属するカテゴリに応じて前記提供すべき提供情報を選択するステップと、を含むことが好適である。
【0024】
前記提供すべき提供情報を選択するステップでは、前記カテゴリに対応して予め分類された複数種類の提供情報を記憶する提供情報記憶手段から、前記通行人の属するカテゴリに対応する種類の提供情報を選択することが好適である。
【0025】
前記出力する提供情報は、情報の内容の要旨を示す概略情報と、より詳しい内容の取得方法を示す参照情報とを含むことが好ましい。
【0026】
前記通行人の移動速度を検知するステップと、前記検知した移動速度が所定値以下の場合のみ当該通行人に情報を提供するステップと、を含むことも好適である。
【0027】
【発明の実施の形態】
以下に図面を参照して、この発明の好適な実施の形態を例示的に説明する。
【0028】
まず、図1を参照して、本発明の実施形態に係る情報提供装置1の概略構成を説明する。図1は、本発明の実施形態に係る情報提供装置1の概念図である。
【0029】
同図に示すように、情報提供装置1は、通行人3の顔、半身、全身等の像情報を取得する像情報取得手段100と、取得した像情報から人の有する属性に係る特徴量を抽出する特徴量抽出手段101と、抽出した特徴量に基づいて通行人3に提供すべき提供情報を決定する情報決定手段102と、決定した提供情報を通行人3に向けて出力する情報出力手段103とを備える。
【0030】
この構成によれば、プライバシーにかかわる個人情報を取得することなしに不特定の通行人3(の特徴量)からその者固有の属性を推定し、その属性に基づきその者の嗜好やライフスタイルの傾向を推定することができる。つまり、情報決定手段102によって、特徴量から推定される嗜好やライフスタイルに合った提供情報を決定すれば、不特定の通行人3に対して、個人情報を取得することなく、その者の嗜好に合った内容の情報の提供が可能となる。
【0031】
これにより、情報提供者にとっては効率的に訴求効果の高い情報提供ができるようになり、他方、通行人3にとっては特段の手間をかけることなく、自分に有益な情報を取得することができるので、両者にとっての利益が大きい。
【0032】
では次に、上記情報提供装置1を具現化するための詳細な構成について説明する。
【0033】
ここでは、本発明を、書店やコンビニエンスストアなどにおいて新刊雑誌に関する広告情報を提供するために用いられる情報提供装置に適用した一例について説明する。なお、本発明の適用範囲はこれに限られるものではなく、たとえば、店頭または街頭などに設置して、お店の紹介やおすすめ商品の案内、新製品の情報などの広告情報を提供するために用いられる装置、テーマパークやショッピングモールなどに設置して、施設内の案内情報を提供するために用いられる装置、その他不特定の通行人に対して情報提供サービスを行う装置に好適に適用することができる。
【0034】
(第1の実施形態)
まず、図2および図3を参照して、本発明の第1の実施形態に係る情報提供装置のハードウェア構成について説明する。
【0035】
図2は、本実施形態に係る情報提供装置1の内部構成を模式的に示すブロック図であり、図3は、同情報提供装置1の設置例を模式的に示す説明図である。
【0036】
情報提供装置1は、概略、カメラ11、ディスプレイ12、通信部13、メモリ部14、CPU15、記憶部16を有して構成される。これらの各構成要素は、バス20を介して相互に接続されている。具体的には、パーソナルコンピュータなどの情報処理装置に、カメラ11およびディスプレイ12を接続することで構成可能である。
【0037】
このような構成の情報提供装置1は、図3に示すような態様で設置される。図3は、書店の店内Iと通路Oとを上方からみた様子を表している。この例では、書店の店内Iに2台の情報提供装置1a,1bが設置されている。情報提供装置1aは、上記通信部13、メモリ部14、CPU(Central Processing Unit)15、記憶部16を内蔵する情報処理装置10aに、カメラ11aおよびディスプレイ12aが接続された構成である。他方、情報提供装置1bは、同様の構成の情報処理装置10bに、カメラ11bおよびディスプレイ12bが接続された構成である。
【0038】
なお、以下の説明では、2台の情報提供装置1a,1bの両方に共通な構成または作用については、「a」,「b」の符号を用いずに説明し、いずれかの装置に特有の構成または作用については、「a」または「b」の符号を明示して説明することとする。
【0039】
カメラ11は、店外の通路Oを通行する通行人3(3a,3b)の像情報を取得するための像情報取得手段である。カメラ11は、通路Oに面したショーウィンドウ2内に設置され、その画角(図の一点鎖線)内に存在する通行人3の顔、半身または全身を撮像して画像情報を取得する。撮像して得た画像情報は情報処理装置10に入力される。なお、カメラ11としては、CCD(Charge Coupled Device)カメラ、ビデオカメラ、デジタルカメラなど、通行人3を撮像しデジタルデータとして装置に取り込むことの可能な種々の撮像手段を用いることができる。
【0040】
ディスプレイ12は、ショーウィンドウ2に隣接して設置され、提供情報を通行人3に向けて出力するための情報出力手段である。ディスプレイ12としては、液晶ディスプレイ、プラズマディスプレイ、CRT(Cathode Ray Tube)、FED(Field Emission Display)、プロジェクタなど、文字または画像で情報を出力可能な種々の表示手段を好適に用いることができる。また、ディスプレイの代わりに電光掲示板などの表示手段を用いてもよい。
【0041】
なお、本実施形態では、情報出力手段として表示手段(ディスプレイ12)を用いた例を示しているが、表示手段の代わりに、音声で情報を出力するスピーカなどの音声出力手段、通行人が所持する携帯電話や携帯情報端末などの移動体端末にデジタル情報を送信する送信手段、情報を紙媒体などに印字出力する印字手段、その他これに類する情報出力手段を用いても構わない。
【0042】
通信部13は、インターネットやイントラネットなどのコンピュータネットワークを利用したデータ通信を制御するための通信手段であり、例えばネットワークアダプタ、ターミナルアダプタ、モデムなどが該当する。情報提供装置1は、通信部13を介して、サーバや他の情報提供装置とデータの送受信を行うことができる。
【0043】
メモリ部14は、RAM(Random Access Memory)などの読み書き可能なメモリとROM(Read Only Memory)などの読み出し専用のメモリとから構成される主記憶手段である。ROMには、情報処理装置10のBIOS(Basic Input/Output System)などが格納されている。一方、RAMは、CPU15の実行対象となっているプログラムやデータを一時的に格納・保持するものであって、後述の処理を実行するプログラムの実行エリアとなる部位である。
【0044】
CPU15は、記憶部16に記憶されているデータ、カメラ11から入力されたデータ若しくは通信部13を介して受信したデータ、またはROMや記憶部16に記憶されているプログラム若しくは通信部13を介して受信したプログラムをRAMに読み込み、この読み込んだ内容に基づいて演算処理などを行う演算手段である。また、CPU15は、この演算処理の結果に基づき、カメラ11、ディスプレイ12などのデバイスの制御を行う制御手段でもある。
【0045】
記憶部16は、メモリ部14の記憶容量を補うための補助記憶手段である。例えば磁気ディスク装置(ハードディスク等)、光ディスク装置(CD−ROM,CD−R,CD−R/W,DVD−ROM,DVD−RAM等)、光磁気ディスク装置(MO等)、半導体ディスク装置(メモリカード等)などが該当する。記憶部16には、当該装置の利用目的を達成するために必要なプログラム、すなわち後述する一連の処理を実行するために必要なプログラムが格納されている。オペレーションシステムやデバイスドライバなどの基本ソフトも記憶部16に格納されている。また、記憶部16には、属性カテゴリデータベース17、顧客データベース18および提供情報データベース19などのデータベースが構築されている。これらのデータベースの詳しい説明は後述する。
【0046】
次に、図4を参照して、情報提供装置1の機能構成について説明する。図4は、本実施形態に係る情報提供装置1の機能ブロック図である。
【0047】
同図に示すように、情報提供装置1は、概略、特徴量抽出部30および情報決定部31などの機能ブロックを有している。
【0048】
これらの機能ブロックは、記憶部16に格納されたプログラムおよびデータがメモリ部14に読み込まれCPU15で処理されることで実現される。なお、これらの機能ブロックを実現するためのプログラムは、単一のプログラムで構成してもよいし、複数のモジュールプログラムを組み合わせて実現したものであっても構わない。
【0049】
特徴量抽出部30は、画像入力部32、顔検出部33および顔特徴抽出部34の機能ブロックから構成されており、カメラ11で取得した画像情報から、人の有する属性に係る特徴量を抽出する特徴量抽出手段として機能する。
【0050】
人の分類のしかた、すなわち属性の選び方は種々のものが考えられるが、いずれを選択するかは、提供する情報の内容や情報提供の対象となるターゲット層などに応じて適宜決めればよい。たとえば、性別、年齢層、人種、身長、体格、髪型、服装などの属性に基づいて人を分類することが考えられる。本実施形態では、このうち性別と年齢層の2つの属性を用いることとする。
【0051】
画像入力部32は、カメラ11で撮像して得た画像情報をデジタル処理可能な形式にて装置内に取り込む画像入力手段として機能する。たとえば、カメラ11としてアナログ方式の撮像手段を用いた場合には、画像入力部32でデジタル画像(以降、デジタル化された画像情報を「画像データ」と称する。)に変換する。あるいは、カメラ11としてビデオカメラなどの動画の撮像手段を用いた場合には、画像入力部32で1フレーム分の画像データを取り込む。
【0052】
顔検出部33は、画像データのなかから通行人の顔に相当するエリアを検出し、当該エリアを表す座標点などの情報(顔領域情報)を生成する顔領域検出手段として機能する。また、顔検出部33は、顔領域における、眉・目・鼻・口などの顔を構成するパーツの位置などから顔の中心線を算出し、顔の向きを推定する機能、および目の部分における黒目領域と白目領域の割合などから視線の向きを推定する機能などを有してもよい。なお、このような機能は、たとえば「徘徊者保護支援システム, OMRON TECHNICS, Vol.39, No.2, pp.108-113, (1999)」にて開示されている技術を適用することで実現可能である。
【0053】
顔特徴抽出部34は、顔領域情報にて定まる顔領域画像データから上記属性に係る特徴量を抽出する顔特徴抽出手段として機能する。特徴量とは、たとえば眉・目・鼻・口などの顔を構成するパーツの大きさ・位置・相対配置や、顔の輪郭などをパラメータ化したものである。このような機能は、たとえば「Classifying Facial Attributes using a 2-D Gabor Wavelet Representation and Discriminant Analysis, Proceedings of the 4th International Conference on Automatic Face and Gesture Recognition, pp.202-207, (2000)」や「Modeling the Process of Ageing in Face Images, Proceedings of the International Conference on Computer Vision, pp.131-136, (1999)」にて開示されている技術を適用することで実現可能である。
【0054】
情報決定部31は、カテゴリ分類部35および情報選択部36の機能ブロックから構成されており、特徴量抽出部30で抽出した特徴量に基づいて通行人に提供すべき提供情報を決定する情報決定手段として機能する。
【0055】
カテゴリ分類部35は、特徴量抽出部30で抽出した特徴量に基づいて通行人を所定のカテゴリに分類する分類手段として機能する。具体的には、予め属性カテゴリデータベース17に格納されている属性カテゴリ情報を参照して、上記抽出した特徴量に係る通行人がどのカテゴリに属しているかを推定する。
【0056】
属性カテゴリデータベース17に格納されている属性カテゴリ情報は、図5に示すように、属性(性別、年齢層)、カテゴリおよびパラメータが互いに関連付けられたデータ構造となっている。
【0057】
カテゴリ分類部35は、抽出した特徴量を各カテゴリに係るパラメータと比較し、特徴量がどのカテゴリのパラメータに最も合致するかを演算する。
【0058】
なお、図中のa〜o,A〜Oは、パラメータを便宜的に表したものである。パラメータの持ち方としては、男女推定用パラメータ、年齢層推定用パラメータ、人種推定用パラメータなど、属性ごとにパラメータを持つ方法や、それらを組み合わせたカテゴリ推定用パラメータとして1つのパラメータを持つ方法など、種々の方法を採用できる。また、各パラメータは、1つまたは複数の数値若しくは数値範囲から構成されるものである。
【0059】
一例を挙げれば、年齢層推定用パラメータとして、0.0〜0.2は15歳未満、0.2〜0.4は15〜25歳、0.4〜0.6は25〜40歳、0.6〜0.8は40〜60歳、0.8〜1.0は60歳以上となるように、0.0〜1.0の数値範囲で正規化されたパラメータを採用する。このとき、カテゴリ分類部35は、抽出した特徴量のうち年齢層に係る特徴量の値が、いずれの数値範囲に含まれるか調べる。たとえば「0.12」であった場合には、「15歳未満」に該当すると判定する。そして、他のパラメータについても同様に判定処理を行い、最終的に、抽出した特徴量に係る通行人がいずれのカテゴリに属するかを決定するのである。
【0060】
情報選択部36は、通行人の属するカテゴリに応じて提供すべき提供情報を選択する情報選択手段として機能する。具体的には、情報選択部36は、通行人の属するカテゴリをキーとして、提供情報記憶手段たる提供情報データベース19から当該カテゴリに対応する種類の提供情報を選択する。
【0061】
提供情報データベース19には、各カテゴリに対応して予め分類された複数種類の提供情報が格納されている。図6は、そのデータ構造の一例を表形式で表したものである。図中、各列は性別に基づく分類を、各行は年齢層に基づく分類を表し、行と列が交差する各セルに各カテゴリに対応した提供情報が表されている。たとえば、「女子学生層」というカテゴリに対応する提供情報は、「ファッションA(3/10号)」,「ヘアーH(3/10月号)」,「インテリアM(隔週)」の3つの雑誌に関する情報である。なお、雑誌の分類は、出版社側の想定する読者層に対応して設定する。
【0062】
カテゴリ分類部35と情報選択部36は、それぞれ通行人の属するカテゴリとそのカテゴリに対応して選択された提供情報を、顧客データとして顧客データベース18に格納する。このとき、画像データを取得した日時やこの装置が設置されている店鋪名などを一緒に格納する。このようにして蓄積される顧客データは、店側の有益なマーケティング情報として活用することができる。
【0063】
次に、図3および図7〜図9を参照して、上記構成の情報提供装置1に係る情報提供方法の一具体例を説明する。
【0064】
図7〜図9は、情報提供装置1の処理の流れを示すフローチャートであり、図7は特徴量抽出処理を、図8はカテゴリ分類処理を、図9は情報選択処理を示す。また、図3は、2人の通行人3a,3bがショーウィンドウ2の前方を通行している状態を示している。通行人3a,3bは図中の矢印方向に移動していて、通行人3aはカメラ11aの画角内に、通行人3bはカメラ11bの画角内にさしかかったところである。ここで、通行人3aは40代の女性、通行人3bは20代の男性であるとする。
【0065】
情報提供装置1a(1b)が起動されると、CPU15は、記憶部16に格納されたプログラムおよびデータをメモリ部14に読み込んで、特徴量抽出処理を開始する。なお、カテゴリ分類処理は特徴量抽出処理が正常終了した場合に続けて実行され、情報選択処理はカテゴリ分類処理が正常終了した場合に続けて実行されるものである。
【0066】
特徴量抽出処理がスタートすると、まず、カメラ11a(11b)が撮像を行い、通行人3a(3b)の画像情報を取得する(ステップS100)。この画像情報は、画像入力部32によりデジタル画像データとして情報処理装置10a(10b)内に取り込まれる(ステップS101)。
【0067】
続いて、顔検出部33は、画像データから顔に相当するエリアを検出して、顔領域情報を生成する(ステップS102)。このとき、顔の向きや視線方向を推定してもよい。ここで、顔領域情報の生成に失敗した場合(画像中に通行人が存在しなかった場合など)や、通行人がショーウィンドウ2の方向を向いていないと判断した場合には、顔部分の検出に失敗したものとみなす。顔部分の検出に失敗した場合には、現在の画像データの処理は中止し、ステップS100に戻って新たな画像情報を取得する(ステップS103)。
【0068】
顔部分の検出に成功した場合には、顔特徴抽出部34が、顔領域画像データから特徴量を抽出し(ステップS104)、その特徴量を記憶部16に保存する(ステップS105)。保存された特徴量は、次工程のカテゴリ分類処理に用いられる他、記憶部16に設けられた人物特徴情報データベース(図示せず)に蓄積される。このように蓄積された特徴量データは、顔の特徴量の傾向やばらつきなどを把握するためのサンプルデータ、顔検出および顔特徴抽出の精度を向上させるための学習用データなどに活用される。
【0069】
次に、カテゴリ分類部35が起動し、カテゴリ分類処理を開始する。カテゴリ分類部35は、記憶部16からステップS104で抽出した特徴量を読み込む(ステップS110)とともに、属性カテゴリデータベース17から属性カテゴリ情報を読み込む(ステップS111)。そして、特徴量と各カテゴリに係るパラメータを比較することで、カテゴリを推定する(ステップS112)。
【0070】
情報提供装置1aの場合には、通行人3aの特徴量はパラメータ「j,k,l」に最も合致すると判断され、性別は「女性」、年齢層は「40〜60歳」、カテゴリは「中年主婦層」であると分類される。一方、情報提供装置1bの場合には、通行人3bの特徴量はパラメータ「D,E,F」に最も合致すると判断され、性別は「男性」、年齢層は「15〜25歳」、カテゴリは「学生層」であると分類される。
【0071】
カテゴリ分類部35は、通行人3a,3bの属するカテゴリを顧客データベース18に格納して(ステップS113)、処理を終了する。
【0072】
次に、情報選択部36が起動し、情報選択処理を開始する。情報選択部36は、顧客データベース18からステップS112で推定されたカテゴリを読み込み(ステップS120)、このカテゴリをキーとして提供情報データベース19から提供すべき提供情報を選択する(ステップS121)。
【0073】
情報提供装置1aの場合には、通行人3aの属するカテゴリは「中年主婦層」なので、提供情報として「料理B(4月号)」,「健康A(4月号)」,「女性C(毎週月)」の3つの雑誌名に関する情報が選択される。一方、情報提供装置1bの場合には、通行人3bの属するカテゴリは「学生層」なので、提供情報として「ファッションM(4月号)」,「スポーツS(4月号)」,「コミックB(毎週月)」の3つの雑誌に関する情報が選択される。
【0074】
このようにして決定した提供情報をディスプレイ12に表示することで、通行人3a,3bに向けて提供情報の出力を行う(ステップS122)。図10は、ディスプレイ12aの表示例、図11は、ディスプレイ12bの表示例を示す。ディスプレイ12aには、「本日の発売雑誌情報」として「料理B(4月号)」,「健康A(4月号)」,「女性C(毎週月)」の3つの雑誌名が表示される。一方、ディスプレイ12bには、「本日の発売雑誌情報」として「ファッションM(4月号)」,「スポーツS(4月号)」,「コミックB(毎週月)」の3つの雑誌名が表示される。
【0075】
ここでは雑誌の具体的な内容までは表示せずに、情報の内容の要旨を示す概略情報40として雑誌名のみを表示する(雑誌名と併せて特集ページの見出しなどの概略情報を表示してもよい)。そして、より詳しい内容の取得方法を示す参照情報41として、URL(Uniform Resource Locator)「http://www.xxx.net」や(図10)、店内での販売場所(図11)などを表示する。雑誌名をみて興味をひかれた通行人3a,3bは、携帯電話や携帯情報端末などから上記URLのホームページにアクセスすることで、雑誌の目次や紹介記事などの詳しい情報を取得することができるし、販売場所に足を運んだり店員に尋ねたりすることで雑誌の詳細を知ることができる。
【0076】
以上で、情報提供処理は完了する。
【0077】
以上述べた本実施形態の構成によれば、カメラ11で取得した顔画像情報から特徴量を抽出し、その特徴量に基づいて通行人の属性を自動的に推定するので、プライバシーにかかわる個人情報を取得することなしに不特定の通行人を所定のカテゴリに分類することができる。そして、通行人を、性別および年齢層の2つの属性により、女子若年層、女子学生層、主婦・会社員層、中年主婦層、女性高齢者層、若年層、学生層、ビジネスマン層、中年男性層、男性高齢者層の10個のカテゴリに分類したので、そのカテゴリごとに嗜好やライフスタイルの傾向を推定することができ、カテゴリに応じてその嗜好やライフスタイルの傾向に合った提供情報を選択することができる。したがって、不特定の通行人に対して、個人情報を取得することなく、その者の嗜好に合った内容の情報の提供が可能となる。
【0078】
これにより、情報提供者にとっては効率的に訴求効果の高い情報提供ができるようになり、他方、通行人にとっては店内に入ったり情報検索を自ら行うという手間をかけることなく、自分に有益な情報を取得することができるので、両者にとっての利益が大きい。
【0079】
また、通行人の顔の向きや視線方向を推定し、ショーウィンドウ2(装置設置側)の方向を向いていると判断した場合に情報提供を行うこととすれば、出力した提供情報が通行人の目にとまり興味をひく可能性が高まるので、より効率的な情報提供が可能となる。
【0080】
また、カテゴリに対応して予め提供情報を分類し提供情報データベース19に記憶しておき、そこからカテゴリをキーとして提供すべき提供情報を選択することとしたので、情報決定処理が簡易になる。そうすると通行人の画像情報を取得してから情報提供までに要する処理時間を短縮することができるので、移動中の通行人に対してもリアルタイムに最適な情報の提供が可能となる。
【0081】
また、ディスプレイ12に雑誌名などの概略情報40を表示したことで、移動中の通行人に対しても瞬時に情報の内容の要旨を伝達することができる。したがって、出力した提供情報が通行人の注意をひく可能性が高くなる。また、概略情報40に併せてURLなどの参照情報41を表示したことで、雑誌名によって興味をもった通行人はURLに基づいてより詳しい内容を取得することができるので、量的にも質的にも充実した内容の情報を提供することができる。したがって、高い訴求効果を得ることができる。
【0082】
さらに、通行人の属するカテゴリ、そのカテゴリに対応して選択した提供情報、画像データの取得日時などを顧客データとして自動的に蓄積するので、人件費をかけずにマーケティング調査が可能である。また、この顧客データに基づいて、カテゴリの数や分け方などを変更したり、提供情報の内容を更新したりすれば、より通行人の嗜好に合った内容の情報提供が可能となる。
【0083】
(第2の実施形態)
図12には、本発明の第2の実施形態が示されている。上記第1の実施形態では、単体構成の情報提供装置を示したが、本実施形態では、カメラおよびディスプレイを備える端末と、特微量抽出処理や情報決定処理を受け持つサーバとで構成した情報提供装置たる情報提供システムを示す。
【0084】
その他の構成および作用については第1の実施の形態と同一なので、同一の構成部分については同一の符号を用いて、その説明は省略する。
【0085】
図12は、本実施形態に係る情報提供システム4のシステム構成図である。
【0086】
同図に示すように、情報提供システム4は、端末5とサーバ6とをインターネットなどのコンピュータネットワーク7を介して接続することで構成される。
【0087】
端末5は、パーソナルコンピュータなどの情報処理装置10にカメラ11とディスプレイ12を接続した構成である。情報処理装置10は、第1の実施形態の図4に示した画像入力部32の機能の他、取得した画像データをサーバ6に送信する機能、サーバ6から提供情報を受信する機能、および受信した提供情報をディスプレイ12に出力する機能を有する。
【0088】
一方、サーバ6は、1台または複数台のパーソナルコンピュータ、ワークステーションまたはホストコンピュータなどの情報処理装置によって構成され、属性カテゴリデータベース17、顧客データベース18および提供情報データベース19を備えている。サーバ6は、第1の実施形態の図4に示した顔検出部33、顔特徴抽出部34、カテゴリ分類部35および情報選択部36の機能の他、端末5から画像データを受信する機能、および決定した提供情報を端末5に送信する機能を有する。
【0089】
上記構成の情報提供システム4では、店頭などに設置された端末5のカメラ11で取り込まれた画像情報は、コンピュータネットワーク7を通じてサーバ6に送信される。そして、サーバ6にて通行人の特微量抽出処理ならびに提供情報決定処理が行われ、提供情報はコンピュータネットワーク7を通じて端末5に送信される。端末5では受信した提供情報をディスプレイ12に表示し、通行人に向けて提供情報を出力する。
【0090】
以上述べた本実施形態の構成によっても、上記第1の実施形態と同様の効果を奏することができる。
【0091】
さらに本実施形態では、端末5とサーバ6に機能を切り分けたので、1つのサーバに対して複数の端末を設置する構成が可能となる。この構成によれば、提供情報が一元的に管理されるので、提供情報の更新などが容易となる。また、複数の端末からの顧客データがサーバに蓄積されるので、マーケティング情報としての価値が増大する。さらに、端末の設備コストが低く抑えられるので、当該装置の導入が促進される。
【0092】
逆に、1つの端末が複数のサーバに対して画像データを送信し、複数のサーバから提供情報を取得する構成も可能となる。サーバごとに提供情報データベース19のコンテンツを変えておけば、端末利用者は、目的や用途に応じて利用するサーバを選択することで、種々のコンテンツの提供情報を取得することが可能となる。
【0093】
(第3の実施形態)
図13には、本発明の第3の実施形態が示されている。図13は、本実施形態に係る情報提供装置の情報提供処理のうち、移動速度検出処理および特徴量検出処理の流れを示すフローチャートである。
【0094】
本実施形態の情報提供装置は、通行人の移動速度を検知する移動速度検知手段を有する。その他の構成および作用については第1の実施の形態と同一なので、同一の構成部分については同一の符号を用いて、その説明は省略する。
【0095】
本実施形態では、図4における特徴量抽出部30のなかに移動速度検知手段として機能する移動速度検知部をさらに設ける(図示せず)。移動速度検知部は、所定の時間間隔(コンマ数秒〜数秒)をあけてカメラ11で撮像して得た複数の画像情報(時系列画像)に基づき、通行人の移動速度を算出する。その具体的な方法を、図13のフローチャートを参照して説明する。
【0096】
特徴量抽出処理がスタートすると、まず、移動速度検知部が枚数カウンタを0にリセットする(ステップS130)。そして、カメラ11が撮像を行い、通行人3の画像情報を取得する(ステップS131)。この画像情報は、画像入力部32によりデジタル画像データとして情報処理装置10内に取り込まれる(ステップS132)。
【0097】
続いて、顔検出部33は、画像データから顔に相当するエリアを検出して、顔領域情報を生成する(ステップS133)。このとき、移動速度検知部は、枚数カウンタが1以上のときには、検出した顔が前回処理した画像データに含まれていた顔と同一の通行人のものかどうかの判断を行う。この処理は、さほど厳密に行う必要はなく、顔領域画像データ同士を比較し、類似度が所定のしきい値を超えているかどうかで判断すれば足りる。また、顔の向きなどから通行人の移動方向を推定することが可能なので、検出された顔領域の位置の推移に基づいて同一通行人か否かを判断してもよい。
【0098】
ここで、顔領域情報の生成に失敗した場合(画像中に通行人が存在しなかった場合など)や、顔領域情報の生成に成功した場合であっても同一の通行人のものではなかった場合には、顔部分の検出に失敗したものとみなす。顔部分の検出に失敗した場合には、現在の処理は中止し、ステップS130に戻って新たな処理を開始する(ステップS134)。
【0099】
一方、ステップS134において顔部分の検出に成功した場合には、移動速度検知部は枚数カウンタに1をプラスし(ステップS135)、枚数カウンタのカウント値が所定枚数に達したか否かを判断する(ステップS136)。所定枚数に達していない場合には、ステップS131〜S135の処理を繰り返し、所定枚数に達した場合には、当該通行人の顔の特徴量を抽出する処理に移行する(ステップS104)。以降の処理は上記第1の実施形態のものと同様である。
【0100】
上述した移動速度検知部による処理は次のような意味を持つ。すなわち、同一の通行人が所定枚数の時系列画像に含まれているかどうかを調べることは、それらの画像を撮像した間、当該通行人がカメラ11の画角内に存在していたか、換言すれば、当該通行人の移動速度が所定値よりも遅いかを検知していることに相当する。
【0101】
そして、移動速度が所定値以下の場合(所定枚数取得できた場合)には、ステップS104の処理を続行することで、当該通行人に情報を提供することとし、逆に移動速度が所定値よりも早い場合(所定枚数取得できなかった場合)には、処理を中止してステップS130に戻ることで、当該通行人への情報提供を行わないのである。
【0102】
比較的速い速度で移動する通行人は出力される情報にあまり興味をひかれないことが予想され、他方、比較的遅い速度で移動する通行人や立ち止まっている通行人は出力される情報を受け取る可能性が高いと考えられる。したがって、本実施形態のごとく通行人の移動速度に基づいて通行人に情報を提供するか否かを決定すれば、効率的かつ訴求効果の高い情報提供が可能となる。
【0103】
また、本実施形態の構成にあっても、上記第1の実施形態と同様の効果を奏することができることはいうまでもない。
【0104】
さらに、本実施形態では、複数の画像情報に基づいて通行人の移動速度を算出する構成にしたことで、通行人の移動速度を測定するためのセンサなどを別途設ける必要をなくした。これにより、装置構成が簡易になり、低コスト化を図ることができる。
【0105】
なお、装置構成は複雑になるものの、通行人の移動速度を測定するためのセンサなどを別途設ける構成を採用しても構わない。この場合も、通行人の移動速度に基づいて情報を提供するか否かを決定する制御は可能であり、効率的かつ訴求効果の高い情報提供ができるという効果を奏することができるからである。
【0106】
また、本実施形態では、同一通行人に係る画像データが所定枚数取得できたか否かをもって、当該通行人の移動速度を検知する構成としたが、たとえば、複数の画像データに含まれる同一通行人の顔部分の移動距離と画像の撮像間隔に基づいて移動速度を算出する手法を採用することも好適である。
【0107】
以上、本発明の一具体例として第1〜第3の実施形態を例示したが、本発明の適用範囲はこれらの実施形態に限られることなく、上述した技術的思想に基づいて種々の変形が可能である。
【0108】
たとえば、上記各実施形態では、通行人の顔画像を用いて特徴量の抽出を行っているが、顔に加えて又は顔の代わりに、人物の半身または全身の画像を用いて特徴量の抽出を行うことも好適である。半身または全身の画像を用いれば、体格や服装、歩き方、持ち物、一人で歩いているか複数人で連れ立っているかなど、顔画像からは得られない種々の属性を取得できるようになるので、分類するカテゴリの細分化を図れ、より訴求効果の高い情報提供が可能になる。
【0109】
また、上記実施形態では、像情報取得手段として1台のカメラを用いたが、カメラを複数台にしたり、カメラに加えて又はカメラの代わりに、他の像情報取得手段を用いることも好適である。像情報取得手段としては、たとえば、通行人の顔、半身または全身の形状情報や凹凸情報を取得する赤外線センサ、距離センサなどの検知手段、その他これに類する像情報を取得可能な手段であれば種々のものを適用可能である。
【0110】
また、上記第1の実施形態では一枚の画像データから通行人の顔の向きや視線方向を推定することとしたが、複数枚の時系列画像データに基づき通行人が装置設置側の方向を向いている時間を調べ、所定時間以上向いていると判断した場合のみ当該通行人に情報を提供するようにすることも好適である。
【0111】
【発明の効果】
以上説明したように、本発明によれば、不特定の通行人に対して、個人情報を取得することなく、その者の嗜好に合った内容の情報の提供が可能となる。これにより、情報提供者にとっては効率的に訴求効果の高い情報提供ができるようになり、他方、通行人にとっては特段の手間をかけることなく、自分に有益な情報を取得することができるので、両者にとっての利益が大きい。
【図面の簡単な説明】
【図1】本発明の実施形態に係る情報提供装置の概念図である。
【図2】本発明の第1の実施形態に係る情報提供装置の内部構成を模式的に示すブロック図である。
【図3】図1の情報提供装置の設置例を模式的に示す説明図である。
【図4】図1の情報提供装置の機能ブロック図である。
【図5】属性カテゴリデータベースのデータ構造の一例を表形式で表した図である。
【図6】提供情報データベースのデータ構造の一例を表形式で表した図である。
【図7】図1の情報提供装置の情報提供処理のうち、特徴量抽出処理の流れを示すフローチャートである。
【図8】図1の情報提供装置の情報提供処理のうち、カテゴリ分類処理の流れを示すフローチャートである。
【図9】図1の情報提供装置の情報提供処理のうち、情報選択処理の流れを示すフローチャートである。
【図10】提供情報のディスプレイへの表示例である。
【図11】提供情報のディスプレイへの表示例である。
【図12】本発明の第2の実施形態に係る情報提供システムのシステム構成図である。
【図13】本発明の第3の実施形態に係る情報提供装置の情報提供処理のうち、移動速度検出処理および特徴量検出処理の流れを示すフローチャートである。
【符号の説明】
1,1a,1b 情報提供装置
2 ショーウィンドウ
3,3a,3b 通行人
4 情報提供システム
5 端末
6 サーバ
7 コンピュータネットワーク
10,10a,10b 情報処理装置
11,11a,11b カメラ
12,12a,12b ディスプレイ
13 通信部
14 メモリ部
15 CPU
16 記憶部
17 属性カテゴリデータベース
18 顧客データベース
19 提供情報データベース
20 バス
30 特徴量抽出部
31 情報決定部
32 画像入力部
33 顔検出部
34 顔特徴抽出部
35 カテゴリ分類部
36 情報選択部
40 概略情報
41 参照情報
100 像情報取得手段
101 特徴量抽出手段
102 情報決定手段
103 情報出力手段
I 店内
O 通路
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information providing apparatus and an information providing method for providing information to an unspecified passerby.
[0002]
[Prior art]
Conventional information providing apparatuses or information providing methods can be broadly classified into those that provide information for unspecified persons and those that provide information for specific persons.
[0003]
As an example of the former, an information providing apparatus having an electronic bulletin board / display installed in a store or a street is known. This type of device is mainly used to attract customers and expand the number of customers. For example, it is designed to repeatedly display information such as store introductions, recommended product guidance, and new products and new books. It has become. As other uses, it is also used for the purpose of displaying guidance in the facility.
[0004]
As the latter example, an information providing service using the Internet or a mobile phone is known. For example, Japanese Patent Laid-Open No. 2001-203811 proposes a system in which a user of a mobile phone can enjoy an information providing service that suits his / her lifestyle and taste.
[0005]
[Problems to be solved by the invention]
By the way, the former type cannot provide information tailored to the preference of each individual because of the relationship with unspecified persons. Also, since passersby only receive information passively, they are rarely interested in the displayed information. Therefore, there has been a problem that even if advertisement information is displayed, a high appeal effect cannot be obtained.
[0006]
On the other hand, since the latter type targets a specific person, there is an advantage that it is possible to provide an information providing service in accordance with individual preference. However, in this case, since registration of personal information is essential, there is a problem that it is difficult to expand the number of users. In other words, there are many people who feel resistance to registration of personal information from the viewpoint of privacy protection and a sense of crisis such as leakage, outflow and misuse of personal information, and such people hesitate to use the information providing service itself. There are many cases.
[0007]
The present invention has been made in view of the above circumstances, and the purpose of the present invention is to provide information that can provide unspecified passers-by with information of content that suits their preference It is to implement an apparatus and an information providing method.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, an information providing apparatus of the present invention is an information providing apparatus that provides information to an unspecified passer-by, an image information acquiring unit that acquires image information of a passer-by, and the acquired Feature amount extraction means for extracting a feature amount relating to an attribute of a person from image information, information determination means for determining provision information to be provided to the passer-by based on the extracted feature amount, and the determined provision An information output means for outputting information to the passerby is adopted.
[0009]
According to this configuration, it is possible to estimate an attribute unique to a person from an unspecified passer (feature amount) without acquiring personal information related to privacy. Various attributes can be adopted, such as gender, age group (age), race, height, physique, hairstyle, clothes, walking style, belongings, whether walking alone or with multiple people Is preferred. If such an attribute can be known, it is possible to estimate the preference and lifestyle trend of the person based on the attribute, and further, it is possible to determine provision information that matches the preference and lifestyle trend. . Therefore, it is possible to provide information with content that suits the preference of an unspecified passerby without acquiring personal information.
[0010]
As a result, information providers can efficiently provide information that is highly appealing, while passers-by can obtain useful information for themselves without any special effort. The profit for both is great.
[0011]
The information determining unit includes a classifying unit that classifies the passerby into a predetermined category based on the extracted feature amount, and an information selection unit that selects the provision information to be provided according to a category to which the passer belongs. It is preferable to have
[0012]
According to this configuration, it is possible to classify unspecified passers into a predetermined category without acquiring personal information related to privacy. There are various ways of classification. For example, the classification may be performed for each of the above attributes or by a combination of a plurality of attributes. By classifying passers-by in this way, preference and lifestyle trends can be easily estimated for each category (in other words, categories can be set based on preferences and lifestyle trends). . And according to a category, the provision information suitable for the taste and lifestyle tendency can be selected. Therefore, it is possible to provide information with content that suits the preference of an unspecified passerby without acquiring personal information.
[0013]
Provided information storing means for storing a plurality of types of provided information classified in advance corresponding to the category, wherein the information selecting means displays the provided information of the type corresponding to the category to which the passerby belongs to the provided information storing means. It is preferable to select from.
[0014]
As described above, since the preference and lifestyle tendency can be estimated for each category, if the provision information is classified and stored in advance in the provision information storage means corresponding to the category, the information decision processing in the information decision means Becomes simple. As a result, since it is possible to shorten the processing time required from the acquisition of the image information of the passer-by to the provision of information, it is possible to provide the optimum information in real time to the passer-by who is moving. The process of classifying the provided information may be performed automatically, or may be performed manually by an information provider (device manager).
[0015]
The provided information output by the information output means preferably includes summary information indicating the gist of the content of the information and reference information indicating a more detailed content acquisition method.
[0016]
By including the summary information, the gist of the contents of the information can be instantaneously transmitted to a passerby who is moving. Therefore, there is a high possibility that the output provided information will attract the attention of the passerby. Further, a passerby who is interested in the summary information can acquire more detailed contents based on the reference information, and therefore can provide information with contents that are substantial both quantitatively and qualitatively. Therefore, a high appeal effect can be obtained.
[0017]
As the image information acquisition means for acquiring the image information of the passerby, an image pickup means such as a camera that acquires the image information by imaging the face, half or whole body of the passerby can be suitably used. In addition, detection means such as an infrared sensor and a distance sensor that acquire shape information and unevenness information of the face, half or whole body of a passerby can be suitably used. Note that the image information acquisition means is not limited to those exemplified here, and various means can be suitably used as long as they can acquire image information that can extract a feature amount related to an attribute of a person. Can do.
[0018]
Examples of the information output means include a display means such as an electric bulletin board or a display for outputting information in characters or images, an audio output means such as a speaker for outputting information by voice, a mobile phone or a portable information terminal possessed by a passerby A transmitting means for transmitting digital information to the mobile terminal, a printing means for printing information on a paper medium or the like, and other similar information output means can be preferably used.
[0019]
A configuration that includes a moving speed detection unit that detects the moving speed of the passerby and provides information to the passerby only when the detected moving speed is a predetermined value or less is also preferable. Passers who move at a relatively fast speed are expected to be less interested in the output information, while passers who move at a relatively slow speed or those who are stationary can receive the output information It is considered that the nature Therefore, if it is determined whether or not to provide information to the passer-by based on the travel speed of the passer-by, it is possible to provide information with high efficiency and high appealing effect.
[0020]
It is preferable that the moving speed detection unit calculates the moving speed of the passer-by based on a plurality of pieces of image information acquired at predetermined time intervals. If the moving speed is detected using the image information acquired by the image information acquiring means, it is not necessary to separately provide a sensor for measuring the moving speed of a passerby, so that the apparatus configuration becomes simple and low. Cost can be reduced.
[0021]
Note that the information providing apparatus of the present invention can be realized as a single-unit apparatus, or as a system including a plurality of information processing apparatuses including a terminal and a server. For example, an information providing apparatus (system) as one embodiment thereof is an information providing apparatus that provides information to an unspecified passer, and includes a terminal and a server, and the terminal Image information acquisition means for acquiring image information, image information transmission means for transmitting the acquired image information to the server, and information output means for outputting provided information received from the server to the passers-by The server includes image information receiving means for receiving image information from the terminal, feature quantity extracting means for extracting a feature quantity relating to a human attribute from the received image information, and the extracted feature quantity. A configuration comprising information determining means for determining provided information to be provided to the passer based on the information, and providing information transmitting means for transmitting the determined provided information to the terminal is preferable.
[0022]
Further, the information providing method of the present invention is an information providing method for providing information to an unspecified passer-by, wherein the image information of the passer-by is obtained, and the attribute of the person is obtained from the acquired image information. Extracting the feature amount, determining the provision information to be provided to the passer based on the extracted feature amount, and outputting the determined provision information to the passer-by It is characterized by including.
[0023]
The step of determining the provision information to be provided includes the step of classifying the passer-by into a predetermined category based on the extracted feature amount, and the provision information to be provided is selected according to the category to which the passer-by belongs. Preferably comprising the steps of:
[0024]
In the step of selecting the provision information to be provided, the provision information corresponding to the category to which the passer-by belongs is provided from provision information storage means for storing a plurality of kinds of provision information classified in advance corresponding to the category. It is preferable to select.
[0025]
The provision information to be output preferably includes summary information indicating a gist of information content and reference information indicating a more detailed content acquisition method.
[0026]
It is also preferable to include a step of detecting the travel speed of the passer-by and a step of providing information to the passer-by only when the detected travel speed is a predetermined value or less.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Preferred embodiments of the present invention will be illustratively described below with reference to the drawings.
[0028]
First, a schematic configuration of an information providing apparatus 1 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a conceptual diagram of an information providing apparatus 1 according to an embodiment of the present invention.
[0029]
As shown in the figure, the information providing apparatus 1 includes an image information acquisition unit 100 that acquires image information such as a face, a half body, and a whole body of a passerby 3 and a feature amount relating to a person's attribute from the acquired image information. Feature amount extracting means 101 to be extracted, information determining means 102 for determining provision information to be provided to the passerby 3 based on the extracted feature amount, and information output means for outputting the determined provision information to the passerby 3 103.
[0030]
According to this configuration, an attribute specific to the person is estimated from an unspecified passerby 3 without acquiring personal information related to privacy, and the preference or lifestyle of the person is estimated based on the attribute. Trends can be estimated. In other words, if the information determining means 102 determines provision information that matches the preference estimated from the feature amount and the lifestyle, the preference of the person can be obtained without acquiring personal information for an unspecified passerby 3. It is possible to provide information that matches the content.
[0031]
As a result, the information provider can efficiently provide information with a high appeal effect, while the passerby 3 can acquire useful information for the passerby without any special effort. , The benefits for both are great.
[0032]
Next, a detailed configuration for realizing the information providing apparatus 1 will be described.
[0033]
Here, an example will be described in which the present invention is applied to an information providing apparatus used for providing advertisement information related to a newly published magazine in a bookstore or a convenience store. The scope of application of the present invention is not limited to this. For example, in order to provide advertising information such as store introductions, recommended product guidance, and new product information installed in stores or streets. Appropriately applied to devices used, devices installed in theme parks, shopping malls, etc., used to provide guidance information in facilities, and other devices that provide information providing services to unspecified passers-by Can do.
[0034]
(First embodiment)
First, the hardware configuration of the information providing apparatus according to the first embodiment of the present invention will be described with reference to FIG. 2 and FIG.
[0035]
FIG. 2 is a block diagram schematically illustrating an internal configuration of the information providing apparatus 1 according to the present embodiment, and FIG. 3 is an explanatory diagram schematically illustrating an installation example of the information providing apparatus 1.
[0036]
The information providing apparatus 1 generally includes a camera 11, a display 12, a communication unit 13, a memory unit 14, a CPU 15, and a storage unit 16. These components are connected to each other via a bus 20. Specifically, it can be configured by connecting the camera 11 and the display 12 to an information processing apparatus such as a personal computer.
[0037]
The information providing apparatus 1 having such a configuration is installed in a manner as shown in FIG. FIG. 3 shows a state in which the inside I and the passage O of the bookstore are viewed from above. In this example, two information providing devices 1a and 1b are installed in a store I in a bookstore. The information providing apparatus 1a has a configuration in which a camera 11a and a display 12a are connected to an information processing apparatus 10a including the communication unit 13, a memory unit 14, a CPU (Central Processing Unit) 15, and a storage unit 16. On the other hand, the information providing apparatus 1b has a configuration in which a camera 11b and a display 12b are connected to an information processing apparatus 10b having a similar configuration.
[0038]
In the following description, the configuration or operation common to both of the two information providing apparatuses 1a and 1b will be described without using the symbols “a” and “b”, and is unique to either apparatus. The configuration or operation will be described with reference to “a” or “b”.
[0039]
The camera 11 is image information acquisition means for acquiring image information of a passerby 3 (3a, 3b) passing through the passage O outside the store. The camera 11 is installed in the show window 2 facing the passage O, and acquires image information by imaging the face, half body or whole body of the passerby 3 existing in the angle of view (the dashed line in the figure). Image information obtained by imaging is input to the information processing apparatus 10. As the camera 11, various imaging means capable of imaging the passerby 3 and taking it into the apparatus as digital data, such as a CCD (Charge Coupled Device) camera, a video camera, and a digital camera can be used.
[0040]
The display 12 is an information output unit that is installed adjacent to the show window 2 and outputs provided information to the passerby 3. As the display 12, various display means capable of outputting information in characters or images, such as a liquid crystal display, a plasma display, a CRT (Cathode Ray Tube), an FED (Field Emission Display), and a projector can be suitably used. Further, display means such as an electric bulletin board may be used instead of the display.
[0041]
In the present embodiment, the display means (display 12) is used as the information output means. However, instead of the display means, voice output means such as a speaker for outputting information by voice, a passerby possesses the information output means. A transmitting means for transmitting digital information to a mobile terminal such as a mobile phone or a portable information terminal, a printing means for printing information on a paper medium or the like, or other similar information output means may be used.
[0042]
The communication unit 13 is a communication unit for controlling data communication using a computer network such as the Internet or an intranet, and corresponds to, for example, a network adapter, a terminal adapter, or a modem. The information providing apparatus 1 can exchange data with a server or another information providing apparatus via the communication unit 13.
[0043]
The memory unit 14 is a main storage unit including a readable / writable memory such as a RAM (Random Access Memory) and a read-only memory such as a ROM (Read Only Memory). The ROM stores a basic input / output system (BIOS) of the information processing apparatus 10. On the other hand, the RAM temporarily stores and holds a program and data to be executed by the CPU 15 and is a part that becomes an execution area of a program that executes processing to be described later.
[0044]
The CPU 15 receives data stored in the storage unit 16, data input from the camera 11 or data received via the communication unit 13, or a program or communication unit 13 stored in the ROM or the storage unit 16. It is an arithmetic means for reading the received program into the RAM and performing arithmetic processing based on the read contents. The CPU 15 is also a control unit that controls devices such as the camera 11 and the display 12 based on the result of the arithmetic processing.
[0045]
The storage unit 16 is auxiliary storage means for supplementing the storage capacity of the memory unit 14. For example, a magnetic disk device (hard disk, etc.), an optical disk device (CD-ROM, CD-R, CD-R / W, DVD-ROM, DVD-RAM, etc.), a magneto-optical disk device (MO, etc.), a semiconductor disk device (memory) Card). The storage unit 16 stores a program necessary for achieving the purpose of use of the apparatus, that is, a program necessary for executing a series of processes described later. Basic software such as an operation system and a device driver is also stored in the storage unit 16. In the storage unit 16, databases such as an attribute category database 17, a customer database 18, and a provision information database 19 are constructed. A detailed description of these databases will be described later.
[0046]
Next, a functional configuration of the information providing apparatus 1 will be described with reference to FIG. FIG. 4 is a functional block diagram of the information providing apparatus 1 according to the present embodiment.
[0047]
As shown in the figure, the information providing apparatus 1 includes functional blocks such as an outline, a feature amount extraction unit 30 and an information determination unit 31.
[0048]
These functional blocks are realized by the program and data stored in the storage unit 16 being read into the memory unit 14 and processed by the CPU 15. The program for realizing these functional blocks may be configured by a single program or may be realized by combining a plurality of module programs.
[0049]
The feature amount extraction unit 30 is composed of functional blocks of an image input unit 32, a face detection unit 33, and a face feature extraction unit 34, and extracts feature amounts relating to human attributes from image information acquired by the camera 11. It functions as a feature amount extraction means.
[0050]
There are various ways to classify people, that is, how to select attributes. Which one should be selected may be determined as appropriate according to the content of information to be provided, the target layer to which information is provided, and the like. For example, it is conceivable to classify people based on attributes such as gender, age group, race, height, physique, hairstyle, and clothing. In the present embodiment, two attributes of sex and age group are used.
[0051]
The image input unit 32 functions as an image input unit that captures image information captured by the camera 11 into the apparatus in a digitally processable format. For example, when an analog imaging means is used as the camera 11, the image input unit 32 converts it into a digital image (hereinafter, digitized image information is referred to as “image data”). Alternatively, when moving image capturing means such as a video camera is used as the camera 11, the image input unit 32 captures image data for one frame.
[0052]
The face detection unit 33 functions as a face area detection unit that detects an area corresponding to a passer's face from image data and generates information (face area information) such as coordinate points representing the area. In addition, the face detection unit 33 calculates the center line of the face from the position of the parts constituting the face such as the eyebrows, eyes, nose, and mouth in the face area, and estimates the face direction, and the eye part May have a function of estimating the direction of the line of sight based on the ratio of the black-eye area and the white-eye area. Such a function is realized by applying the technology disclosed in, for example, “Bad Protection Support System, OMRON TECHNICS, Vol.39, No.2, pp.108-113, (1999)”. Is possible.
[0053]
The face feature extracting unit 34 functions as a face feature extracting unit that extracts a feature amount related to the attribute from face area image data determined by face area information. The feature amount is, for example, a parameterization of the size, position, relative arrangement of parts constituting the face such as eyebrows, eyes, nose, mouth, and the face outline. Such functions include, for example, `` Classifying Facial Attributes using a 2-D Gabor Wavelet Representation and Discriminant Analysis, Proceedings of the 4th International Conference on Automatic Face and Gesture Recognition, pp. 202-207, (2000) '' and `` Modeling the This can be achieved by applying the technology disclosed in “Process of Aging in Face Images, Proceedings of the International Conference on Computer Vision, pp. 131-136, (1999)”.
[0054]
The information determination unit 31 includes functional blocks of the category classification unit 35 and the information selection unit 36, and determines information to be provided to passersby based on the feature amount extracted by the feature amount extraction unit 30. Functions as a means.
[0055]
The category classification unit 35 functions as a classification unit that classifies passers-by into predetermined categories based on the feature amounts extracted by the feature amount extraction unit 30. Specifically, with reference to attribute category information stored in the attribute category database 17 in advance, it is estimated to which category the passerby related to the extracted feature amount belongs.
[0056]
As shown in FIG. 5, the attribute category information stored in the attribute category database 17 has a data structure in which attributes (gender, age group), categories, and parameters are associated with each other.
[0057]
The category classification unit 35 compares the extracted feature quantity with the parameter relating to each category, and calculates which category parameter the feature quantity most closely matches.
[0058]
In the figure, a to o and A to O represent parameters for convenience. How to have parameters, such as a method for having parameters for each attribute, such as gender estimation parameters, age group estimation parameters, race estimation parameters, or a method for having one parameter as a combined category estimation parameter Various methods can be employed. Each parameter is composed of one or more numerical values or numerical ranges.
[0059]
For example, as parameters for estimating the age group, 0.0 to 0.2 is less than 15 years old, 0.2 to 0.4 is 15 to 25 years old, 0.4 to 0.6 is 25 to 40 years old, The parameter normalized in the numerical range of 0.0-1.0 is employ | adopted so that 0.6-0.8 may be 40-60 years old, and 0.8-1.0 may be 60 years old or more. At this time, the category classification unit 35 checks in which numerical range the value of the feature value related to the age group among the extracted feature values is included. For example, in the case of “0.12”, it is determined that it corresponds to “under 15 years old”. Then, the determination process is similarly performed for the other parameters, and finally, it is determined to which category the passerby related to the extracted feature amount belongs.
[0060]
The information selection unit 36 functions as information selection means for selecting provided information to be provided according to the category to which the passerby belongs. Specifically, the information selection unit 36 selects the type of provision information corresponding to the category from the provision information database 19 serving as provision information storage means, using the category to which the passerby belongs as a key.
[0061]
The provision information database 19 stores a plurality of types of provision information classified in advance corresponding to each category. FIG. 6 shows an example of the data structure in a tabular format. In the figure, each column represents a classification based on gender, each row represents a classification based on an age group, and provided information corresponding to each category is represented in each cell where the row and the column intersect. For example, the provided information corresponding to the category “girls student group” includes three magazines “Fashion A (3/10)”, “Hair H (March / October)”, and “Interior M (Biweekly)”. It is information about. The classification of magazines is set according to the readership assumed by the publisher.
[0062]
The category classification unit 35 and the information selection unit 36 store the category to which the passerby belongs and the provision information selected corresponding to the category in the customer database 18 as customer data. At this time, the date and time when the image data was acquired and the name of the store where the apparatus is installed are stored together. The customer data accumulated in this way can be used as useful marketing information on the store side.
[0063]
Next, a specific example of the information providing method according to the information providing apparatus 1 having the above configuration will be described with reference to FIGS. 3 and 7 to 9.
[0064]
7 to 9 are flowcharts showing the processing flow of the information providing apparatus 1. FIG. 7 shows a feature amount extraction process, FIG. 8 shows a category classification process, and FIG. 9 shows an information selection process. FIG. 3 shows a state in which two passers-by 3 a and 3 b are passing in front of the show window 2. The passers-by 3a and 3b are moving in the direction of the arrows in the figure, and the passer-by 3a has come within the angle of view of the camera 11a, and the passerby 3b has just reached the angle of view of the camera 11b. Here, it is assumed that the passerby 3a is a woman in her 40s and the passerby 3b is a man in her 20s.
[0065]
When the information providing apparatus 1a (1b) is activated, the CPU 15 reads the program and data stored in the storage unit 16 into the memory unit 14 and starts the feature amount extraction process. The category classification process is executed after the feature quantity extraction process is normally completed, and the information selection process is executed when the category classification process is normally completed.
[0066]
When the feature amount extraction process starts, first, the camera 11a (11b) captures an image and acquires image information of the passerby 3a (3b) (step S100). This image information is taken into the information processing apparatus 10a (10b) as digital image data by the image input unit 32 (step S101).
[0067]
Subsequently, the face detection unit 33 detects an area corresponding to the face from the image data, and generates face area information (step S102). At this time, the face direction and the line-of-sight direction may be estimated. Here, when the generation of the face area information has failed (for example, when no passerby exists in the image) or when it is determined that the passerby is not facing the direction of the show window 2, It is assumed that the detection has failed. If the detection of the face portion fails, the processing of the current image data is stopped, and the process returns to step S100 to acquire new image information (step S103).
[0068]
When the detection of the face portion is successful, the face feature extraction unit 34 extracts a feature amount from the face area image data (step S104), and stores the feature amount in the storage unit 16 (step S105). The stored feature amount is used for the category classification process of the next process and is stored in a person feature information database (not shown) provided in the storage unit 16. The feature amount data accumulated in this way is used as sample data for grasping the tendency and variation of the face feature amount, learning data for improving the accuracy of face detection and face feature extraction, and the like.
[0069]
Next, the category classification unit 35 is activated to start the category classification process. The category classification unit 35 reads the feature amount extracted in step S104 from the storage unit 16 (step S110) and also reads attribute category information from the attribute category database 17 (step S111). Then, the category is estimated by comparing the feature amount and the parameter relating to each category (step S112).
[0070]
In the case of the information providing device 1a, it is determined that the feature amount of the passerby 3a most closely matches the parameter “j, k, l”, the gender is “female”, the age group is “40-60 years”, and the category is “ Classified as “middle-aged housewives”. On the other hand, in the case of the information providing apparatus 1b, it is determined that the feature amount of the passerby 3b most closely matches the parameters “D, E, F”, the gender is “male”, the age group is “15 to 25 years”, the category Are classified as “students”.
[0071]
The category classification unit 35 stores the category to which the passers-by 3a and 3b belong in the customer database 18 (step S113), and ends the process.
[0072]
Next, the information selection unit 36 is activated to start the information selection process. The information selection unit 36 reads the category estimated in step S112 from the customer database 18 (step S120), and selects the provision information to be provided from the provision information database 19 using this category as a key (step S121).
[0073]
In the case of the information providing device 1a, the category to which the passerby 3a belongs is “middle-aged housewives”, so the provided information is “Cooking B (April issue)”, “Health A (April issue)”, “Women C Information on three magazine names “Every Week” is selected. On the other hand, in the case of the information providing apparatus 1b, the category to which the passerby 3b belongs is “student group”, so the provided information includes “fashion M (April issue)”, “sports S (April issue)”, “comic B”. (Weekly Month) "information on the three magazines is selected.
[0074]
By displaying the provision information determined in this way on the display 12, the provision information is output to the passers-by 3a and 3b (step S122). FIG. 10 shows a display example on the display 12a, and FIG. 11 shows a display example on the display 12b. Three magazine names of “Cooking B (April issue)”, “Health A (April issue)”, and “Women C (Weekly month)” are displayed on the display 12a as “Today's release magazine information”. . On the other hand, three magazine names “Fashion M (April issue)”, “Sports S (April issue)”, and “Comic B (Monthly month)” are displayed on the display 12b as “Today's release magazine information”. Is done.
[0075]
Here, only the magazine name is displayed as the summary information 40 indicating the gist of the content of the information without displaying the specific content of the magazine (the summary information such as the headline of the special feature page is displayed together with the magazine name). Also good). The URL (Uniform Resource Locator) “http://www.xxx.net” (FIG. 10), the sales location in the store (FIG. 11), and the like are displayed as reference information 41 indicating a more detailed content acquisition method. To do. Passers-by 3a, 3b who are interested by looking at the magazine name can obtain detailed information such as the table of contents of the magazine and introductory articles by accessing the homepage of the above URL from a mobile phone or portable information terminal. You can learn more about the magazine by visiting the sales location or by asking the store clerk.
[0076]
Thus, the information providing process is completed.
[0077]
According to the configuration of the present embodiment described above, the feature amount is extracted from the face image information acquired by the camera 11 and the attribute of the passerby is automatically estimated based on the feature amount. Therefore, the personal information related to privacy An unspecified passerby can be classified into a predetermined category without obtaining the password. The passersby can be divided into two categories: gender and age group, female youth group, female student group, housewife / office worker group, middle-age housewife group, female elderly group, young group, student group, businessman group, Since it was classified into 10 categories of middle-aged males and male seniors, it was possible to estimate the preference and lifestyle trends for each category, and matched the preferences and lifestyle trends according to the categories Offer information can be selected. Therefore, it is possible to provide information with content that suits the preference of an unspecified passerby without acquiring personal information.
[0078]
This makes it possible for information providers to efficiently provide highly appealing information, while for passers-by, information useful to them without having to enter the store or search for information on their own. Can be obtained, so the profits for both are great.
[0079]
Further, if the direction of the passer's face and the direction of the line of sight are estimated and it is determined that the direction of the show window 2 (device installation side) is facing, and the information is provided, the output provided information is the passerby. This increases the possibility of catching your eyes and attracting interest, so it is possible to provide more efficient information.
[0080]
Further, since the provision information is classified and stored in advance in the provision information database 19 corresponding to the category, and the provision information to be provided is selected from the category as a key, the information determination process is simplified. As a result, since it is possible to shorten the processing time required from the acquisition of the image information of the passer-by to the provision of the information, it is possible to provide the optimum information in real time to the passer-by who is moving.
[0081]
Moreover, since the summary information 40 such as the magazine name is displayed on the display 12, the gist of the information content can be instantly transmitted to a passerby who is moving. Therefore, there is a high possibility that the output provided information will attract the attention of the passerby. Further, by displaying the reference information 41 such as a URL in addition to the summary information 40, a passerby who is interested in the magazine name can acquire more detailed contents based on the URL. It is possible to provide rich information. Therefore, a high appeal effect can be obtained.
[0082]
Furthermore, since the category to which the passerby belongs, the provision information selected corresponding to the category, the acquisition date and time of the image data, etc. are automatically stored as customer data, a marketing survey can be performed without incurring labor costs. In addition, if the number of categories or how to divide the category is changed based on the customer data, or the content of the provided information is updated, it is possible to provide information with content that better matches the preference of the passerby.
[0083]
(Second Embodiment)
FIG. 12 shows a second embodiment of the present invention. In the first embodiment, an information providing apparatus having a single configuration is shown. However, in the present embodiment, an information providing apparatus configured by a terminal having a camera and a display and a server responsible for special quantity extraction processing and information determination processing. An information providing system is shown.
[0084]
Since other configurations and operations are the same as those of the first embodiment, the same components are denoted by the same reference numerals, and the description thereof is omitted.
[0085]
FIG. 12 is a system configuration diagram of the information providing system 4 according to the present embodiment.
[0086]
As shown in the figure, the information providing system 4 is configured by connecting a terminal 5 and a server 6 via a computer network 7 such as the Internet.
[0087]
The terminal 5 has a configuration in which a camera 11 and a display 12 are connected to an information processing apparatus 10 such as a personal computer. In addition to the function of the image input unit 32 shown in FIG. 4 of the first embodiment, the information processing apparatus 10 has a function of transmitting acquired image data to the server 6, a function of receiving provided information from the server 6, and reception The provided information is output to the display 12.
[0088]
On the other hand, the server 6 includes an information processing apparatus such as one or a plurality of personal computers, workstations, or host computers, and includes an attribute category database 17, a customer database 18, and a provision information database 19. The server 6 has functions of receiving image data from the terminal 5 in addition to the functions of the face detection unit 33, the face feature extraction unit 34, the category classification unit 35, and the information selection unit 36 shown in FIG. 4 of the first embodiment. And having the function of transmitting the determined provided information to the terminal 5.
[0089]
In the information providing system 4 configured as described above, image information captured by the camera 11 of the terminal 5 installed at a storefront or the like is transmitted to the server 6 through the computer network 7. The server 6 performs passerby extra-volume extraction processing and provision information determination processing, and the provision information is transmitted to the terminal 5 through the computer network 7. The terminal 5 displays the received provision information on the display 12 and outputs the provision information to a passerby.
[0090]
Even with the configuration of the present embodiment described above, the same effects as those of the first embodiment can be obtained.
[0091]
Furthermore, in this embodiment, since the function is divided into the terminal 5 and the server 6, the structure which installs a some terminal with respect to one server is attained. According to this configuration, the provision information is managed in an integrated manner, so that the provision information can be easily updated. In addition, since customer data from a plurality of terminals is accumulated in the server, the value as marketing information increases. Furthermore, since the equipment cost of the terminal can be kept low, introduction of the device is promoted.
[0092]
Conversely, a configuration in which one terminal transmits image data to a plurality of servers and obtains provided information from the plurality of servers is also possible. If the contents of the provision information database 19 are changed for each server, the terminal user can acquire provision information of various contents by selecting a server to be used according to the purpose and application.
[0093]
(Third embodiment)
FIG. 13 shows a third embodiment of the present invention. FIG. 13 is a flowchart illustrating the flow of the moving speed detection process and the feature amount detection process in the information providing process of the information providing apparatus according to the present embodiment.
[0094]
The information providing apparatus according to the present embodiment includes a movement speed detection unit that detects a movement speed of a passerby. Since other configurations and operations are the same as those of the first embodiment, the same components are denoted by the same reference numerals, and the description thereof is omitted.
[0095]
In the present embodiment, a movement speed detection unit that functions as movement speed detection means is further provided in the feature quantity extraction unit 30 in FIG. 4 (not shown). The moving speed detection unit calculates the moving speed of the passerby based on a plurality of pieces of image information (time-series images) obtained by imaging with the camera 11 with a predetermined time interval (comma several seconds to several seconds). The specific method will be described with reference to the flowchart of FIG.
[0096]
When the feature amount extraction process starts, first, the moving speed detection unit resets the number counter to 0 (step S130). And the camera 11 images and acquires the image information of the passerby 3 (step S131). This image information is taken into the information processing apparatus 10 as digital image data by the image input unit 32 (step S132).
[0097]
Subsequently, the face detection unit 33 detects an area corresponding to the face from the image data, and generates face area information (step S133). At this time, when the number counter is 1 or more, the moving speed detection unit determines whether the detected face belongs to the same passerby as the face included in the previously processed image data. This process does not need to be performed so strictly, and it is sufficient to compare the face area image data and determine whether the similarity exceeds a predetermined threshold value. Further, since the direction of movement of the passerby can be estimated from the face direction or the like, it may be determined whether or not the same passerby is based on the transition of the position of the detected face area.
[0098]
Here, even if the generation of face area information has failed (such as when no passerby is present in the image) or the generation of face area information has succeeded, it was not that of the same passerby In this case, it is considered that the detection of the face portion has failed. If the detection of the face portion fails, the current process is stopped, and the process returns to step S130 to start a new process (step S134).
[0099]
On the other hand, if the face portion is successfully detected in step S134, the moving speed detection unit adds 1 to the number counter (step S135), and determines whether the count value of the number counter has reached a predetermined number. (Step S136). If the predetermined number has not been reached, the processes in steps S131 to S135 are repeated. If the predetermined number has been reached, the process proceeds to a process for extracting the feature amount of the passer's face (step S104). Subsequent processing is the same as that of the first embodiment.
[0100]
The processing by the moving speed detection unit described above has the following meaning. That is, checking whether or not the same passerby is included in the predetermined number of time-series images means that the passerby was present within the angle of view of the camera 11 while the images were captured. For example, this corresponds to detecting whether the speed of movement of the passerby is slower than a predetermined value.
[0101]
If the moving speed is less than or equal to a predetermined value (when a predetermined number of images can be acquired), the process of step S104 is continued to provide information to the passerby. If it is too early (when the predetermined number cannot be obtained), the process is stopped and the process returns to step S130, so that information is not provided to the passerby.
[0102]
Passers who move at a relatively fast speed are expected to be less interested in the output information, while passers who move at a relatively slow speed or those who are stationary can receive the output information It is considered that the nature Therefore, if it is determined whether or not to provide information to the passer-by based on the travel speed of the passer-by as in the present embodiment, information can be provided efficiently and with a high appealing effect.
[0103]
Needless to say, the configuration of the present embodiment can achieve the same effects as those of the first embodiment.
[0104]
Furthermore, in the present embodiment, since the movement speed of the passer-by is calculated based on a plurality of pieces of image information, it is not necessary to separately provide a sensor for measuring the movement speed of the passer-by. As a result, the apparatus configuration is simplified and the cost can be reduced.
[0105]
In addition, although the apparatus configuration is complicated, a configuration in which a sensor or the like for measuring the moving speed of a passerby is separately provided may be employed. Also in this case, it is possible to control whether or not to provide information based on the moving speed of the passerby, and it is possible to achieve an effect that information can be provided efficiently and with a high appeal effect.
[0106]
In the present embodiment, the configuration is such that the moving speed of the passerby is detected based on whether or not a predetermined number of pieces of image data relating to the same passer have been acquired. For example, the same passerby included in a plurality of image data It is also preferable to adopt a method of calculating the moving speed based on the moving distance of the face part and the image capturing interval.
[0107]
The first to third embodiments have been illustrated as specific examples of the present invention. However, the scope of the present invention is not limited to these embodiments, and various modifications can be made based on the technical idea described above. Is possible.
[0108]
For example, in each of the above embodiments, feature amounts are extracted using a passer's face image, but feature amounts are extracted using an image of a person's half or whole body in addition to or instead of the face. It is also suitable to perform. By using half-body or whole-body images, it is possible to acquire various attributes that cannot be obtained from face images, such as physique, clothes, how to walk, belongings, whether you are walking alone or with multiple people, etc. This makes it possible to subdivide categories and provide information with a higher appeal effect.
[0109]
In the above-described embodiment, one camera is used as the image information acquisition unit. However, it is also preferable to use a plurality of cameras, or another image information acquisition unit in addition to the camera or instead of the camera. is there. The image information acquisition means may be, for example, an infrared sensor that acquires shape information and unevenness information of a passer's face, half body or whole body, detection means such as a distance sensor, and other means that can acquire image information similar to this. Various things are applicable.
[0110]
In the first embodiment, the face direction and line-of-sight direction of the passerby are estimated from one piece of image data. However, the passerby determines the direction of the apparatus installation side based on a plurality of pieces of time-series image data. It is also preferable to check the time that the person is facing and to provide information to the passer-by only when it is determined that the person is facing the predetermined time or longer.
[0111]
【The invention's effect】
As described above, according to the present invention, it is possible to provide unspecified passers-by with information with content that matches the preference of the person without acquiring personal information. As a result, information providers can efficiently provide information that is highly appealing, while passers-by can obtain useful information for themselves without any special effort. The profit for both is great.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram of an information providing apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram schematically showing an internal configuration of the information providing apparatus according to the first embodiment of the present invention.
FIG. 3 is an explanatory diagram schematically illustrating an installation example of the information providing apparatus in FIG. 1;
4 is a functional block diagram of the information providing apparatus in FIG. 1. FIG.
FIG. 5 is a diagram showing an example of a data structure of an attribute category database in a tabular format.
FIG. 6 is a diagram showing an example of a data structure of a provided information database in a table format.
7 is a flowchart showing a flow of feature amount extraction processing in the information provision processing of the information provision apparatus in FIG. 1;
8 is a flowchart showing a flow of a category classification process in the information providing process of the information providing apparatus of FIG.
9 is a flowchart showing a flow of an information selection process in the information providing process of the information providing apparatus of FIG.
FIG. 10 is a display example of provided information on a display;
FIG. 11 is a display example of provided information on a display;
FIG. 12 is a system configuration diagram of an information providing system according to a second embodiment of the present invention.
FIG. 13 is a flowchart showing a flow of a movement speed detection process and a feature amount detection process in the information provision process of the information provision apparatus according to the third embodiment of the present invention.
[Explanation of symbols]
1,1a, 1b Information providing device
2 show window
3,3a, 3b Passerby
4 Information provision system
5 Terminal
6 servers
7 Computer network
10, 10a, 10b Information processing apparatus
11, 11a, 11b Camera
12, 12a, 12b display
13 Communication Department
14 Memory part
15 CPU
16 Memory unit
17 Attribute category database
18 Customer database
19 Provided information database
20 buses
30 feature extraction unit
31 Information decision part
32 Image input section
33 Face detection unit
34 Face feature extraction unit
35 Category classification part
36 Information selector
40 Summary information
41 Reference information
100 Image information acquisition means
101 feature amount extraction means
102 Information determining means
103 Information output means
I Inside the store
O passage

Claims (14)

不特定の通行人に情報を提供する情報提供装置であって、
通行人の顔、半身または全身の画像情報を取得する撮像手段と、
前記取得した画像情報から顔の構成をパラメータ化し、特徴量として抽出する特徴量抽出手段と、
前記抽出した特徴量に基づいて当該通行人に提供すべき提供情報を決定する情報決定手段と、
前記決定した提供情報を前記通行人に向けて出力する情報出力手段と、
を備える情報提供装置において、
前記撮像手段で取得した画像情報から前記通行人の顔もしくは視線の向きを求め、前記通行人の顔もしくは視線が装置設置側を向いている場合に当該通行人に情報を提供することを特徴とする情報提供装置。
An information providing device that provides information to unspecified passers,
Imaging means for acquiring image information of the face, half or whole body of a passer-by,
Feature quantity extraction means for parameterizing the face configuration from the acquired image information and extracting it as a feature quantity;
Information determining means for determining provided information to be provided to the passer-by based on the extracted feature amount;
Information output means for outputting the determined provided information to the passers-by;
In an information providing apparatus comprising:
The direction of the passer's face or line of sight is obtained from the image information acquired by the imaging means, and information is provided to the passerby when the passer's face or line of sight faces the device installation side. To provide information.
不特定の通行人に情報を提供する情報提供装置であって、
通行人の顔、半身または全身の画像情報を取得する撮像手段と、
前記取得した画像情報から顔の構成をパラメータ化し、特徴量として抽出する特徴量抽出手段と、
前記抽出した特徴量に基づいて当該通行人に提供すべき提供情報を決定する情報決定手段と、
前記決定した提供情報を前記通行人に向けて出力する情報出力手段と、
を備える情報提供装置において、
前記撮像手段で取得した画像情報から前記通行人の移動速度を求め、前記通行人の移動速度が所定値以下の場合に当該通行人に情報を提供することを特徴とする情報提供装置。
An information providing device that provides information to unspecified passers,
Imaging means for acquiring image information of the face, half or whole body of a passer-by,
Feature quantity extraction means for parameterizing the face configuration from the acquired image information and extracting it as a feature quantity;
Information determining means for determining provided information to be provided to the passer-by based on the extracted feature amount;
Information output means for outputting the determined provided information to the passers-by;
In an information providing apparatus comprising:
An information providing apparatus characterized in that a travel speed of the passer-by is obtained from image information acquired by the imaging means, and information is provided to the passer-by when the travel speed of the passer-by is equal to or less than a predetermined value.
所定の時間間隔をあけて取得した複数の画像情報から前記通行人の移動速度を求める請求項2に記載の情報提供装置。  The information providing apparatus according to claim 2, wherein a moving speed of the passerby is obtained from a plurality of pieces of image information acquired at predetermined time intervals. 同一の通行人を含む画像情報を所定数取得できた場合に、前記通行人の移動速度が前記所定値以下であるとする請求項3に記載の情報提供装置。  The information providing apparatus according to claim 3, wherein when a predetermined number of pieces of image information including the same passers-by are obtained, the movement speed of the passers-by is equal to or less than the predetermined value. 前記情報決定手段は、
前記抽出した特徴量に基づいて当該通行人を所定のカテゴリに分類する分類手段と、
前記通行人の属するカテゴリに応じて前記提供すべき提供情報を選択する情報選択手段と、
を有する請求項1〜4のいずれかに記載の情報提供装置。
The information determining means includes
Classification means for classifying the passerby into a predetermined category based on the extracted feature amount;
Information selection means for selecting the provision information to be provided according to a category to which the passerby belongs;
The information providing apparatus according to claim 1, comprising:
前記カテゴリに対応して予め分類された複数種類の提供情報を記憶する提供情報記憶手段を備え、
前記情報選択手段は、前記通行人の属するカテゴリに対応する種類の提供情報を前記提供情報記憶手段から選択する請求項5に記載の情報提供装置。
Provided information storage means for storing a plurality of types of provided information classified in advance corresponding to the category,
The information providing apparatus according to claim 5, wherein the information selection unit selects the type of provision information corresponding to the category to which the passerby belongs from the provision information storage unit.
前記情報出力手段が出力する提供情報は、情報の内容の要旨を示す概略情報と、より詳しい内容の取得方法を示す参照情報とを含む請求項1〜6のいずれかに記載の情報提供装置。  The information providing apparatus according to any one of claims 1 to 6, wherein the provision information output by the information output unit includes summary information indicating a gist of the content of information and reference information indicating a more detailed content acquisition method. 不特定の通行人に情報を提供する情報提供方法であって、
通行人の顔、半身または全身の画像情報を撮像手段によって取得するステップと、
前記取得した画像情報から顔の構成をパラメータ化し、特徴量として抽出するステップと、
前記抽出した特徴量に基づいて当該通行人に提供すべき提供情報を決定するステップと、
前記決定した提供情報を前記通行人に向けて出力するステップと、
を含む情報提供方法において、
前記撮像手段で取得した画像情報から前記通行人の顔もしくは視線の向きを求め、前記通行人の顔もしくは視線が装置設置側を向いている場合に当該通行人に情報を提供することを特徴とする情報提供方法。
An information providing method for providing information to unspecified passers,
Acquiring image information of a passer's face, half body or whole body by an imaging means;
Parameterizing the face configuration from the acquired image information and extracting it as a feature quantity;
Determining providing information to be provided to the passer-by based on the extracted feature amount;
Outputting the determined provided information to the passers-by;
In the information providing method including
The direction of the passer's face or line of sight is obtained from the image information acquired by the imaging means, and information is provided to the passerby when the passer's face or line of sight faces the device installation side. How to provide information.
不特定の通行人に情報を提供する情報提供方法であって、
通行人の顔、半身または全身の画像情報を撮像手段によって取得するステップと、
前記取得した画像情報から顔の構成をパラメータ化し、特徴量として抽出するステップと、
前記抽出した特徴量に基づいて当該通行人に提供すべき提供情報を決定するステップと、
前記決定した提供情報を前記通行人に向けて出力するステップと、
を含む情報提供方法において、
前記撮像手段で取得した画像情報から前記通行人の移動速度を求め、前記通行人の移動速度が所定値以下の場合に当該通行人に情報を提供することを特徴とする情報提供方法。
An information providing method for providing information to unspecified passers,
Acquiring image information of a passer's face, half body or whole body by an imaging means;
Parameterizing the face configuration from the acquired image information and extracting it as a feature quantity;
Determining providing information to be provided to the passer-by based on the extracted feature amount;
Outputting the determined provided information to the passers-by;
In the information providing method including
An information providing method comprising: obtaining a travel speed of the passer-by from the image information acquired by the imaging means; and providing information to the passer-by when the travel speed of the passer-by is a predetermined value or less.
所定の時間間隔をあけて取得した複数の画像情報から前記通行人の移動速度を求める請求項9に記載の情報提供方法。  The information providing method according to claim 9, wherein a moving speed of the passer-by is obtained from a plurality of pieces of image information acquired at predetermined time intervals. 同一の通行人を含む画像情報を所定数取得できた場合に、前記通行人の移動速度が前記所定値以下であるとする請求項10に記載の情報提供方法。  The information providing method according to claim 10, wherein when a predetermined number of pieces of image information including the same passers-by can be obtained, a moving speed of the passers-by is equal to or less than the predetermined value. 前記提供すべき提供情報を決定するステップは、
前記抽出した特徴量に基づいて当該通行人を所定のカテゴリに分類するステップと、
前記通行人の属するカテゴリに応じて前記提供すべき提供情報を選択するステップと、を含む請求項8〜11のいずれかに記載の情報提供方法。
Determining the provision information to be provided;
Classifying the passerby into a predetermined category based on the extracted feature amount;
The information providing method according to claim 8, further comprising: selecting the provision information to be provided according to a category to which the passerby belongs.
前記提供すべき提供情報を選択するステップでは、
前記カテゴリに対応して予め分類された複数種類の提供情報を記憶する提供情報記憶手段から、前記通行人の属するカテゴリに対応する種類の提供情報を選択する請求項12に記載の情報提供方法。
In the step of selecting the provision information to be provided,
13. The information providing method according to claim 12, wherein providing information of a type corresponding to the category to which the passer belongs is selected from providing information storage means for storing a plurality of types of providing information classified in advance corresponding to the category.
前記出力する提供情報は、情報の内容の要旨を示す概略情報と、より詳しい内容の取得方法を示す参照情報とを含む請求項8〜13のいずれかに記載の情報提供方法。  The information providing method according to any one of claims 8 to 13, wherein the provided information to be output includes summary information indicating a gist of information content and reference information indicating a more detailed content acquisition method.
JP2002071612A 2002-03-15 2002-03-15 Information providing apparatus and information providing method Expired - Lifetime JP4165095B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002071612A JP4165095B2 (en) 2002-03-15 2002-03-15 Information providing apparatus and information providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002071612A JP4165095B2 (en) 2002-03-15 2002-03-15 Information providing apparatus and information providing method

Publications (2)

Publication Number Publication Date
JP2003271084A JP2003271084A (en) 2003-09-25
JP4165095B2 true JP4165095B2 (en) 2008-10-15

Family

ID=29201842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002071612A Expired - Lifetime JP4165095B2 (en) 2002-03-15 2002-03-15 Information providing apparatus and information providing method

Country Status (1)

Country Link
JP (1) JP4165095B2 (en)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
WO2004055776A1 (en) 2002-12-13 2004-07-01 Reactrix Systems Interactive directed light/sound system
KR101094119B1 (en) 2003-10-24 2011-12-15 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 Method and system for managing an interactive video display system
JP2005157135A (en) * 2003-11-27 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> Information display method, system and program
GB2410359A (en) * 2004-01-23 2005-07-27 Sony Uk Ltd Display
JP4511209B2 (en) * 2004-02-02 2010-07-28 日本たばこ産業株式会社 Product display shelf light emission system and light emission simulation system
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
JP5015926B2 (en) 2005-08-04 2012-09-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus and method for monitoring individuals interested in property
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US9336700B2 (en) 2006-06-07 2016-05-10 Koninklijke Philips N.V. Light feedback on physical object selection
JP2008230296A (en) * 2007-03-16 2008-10-02 Mazda Motor Corp Vehicle drive supporting system
JP2008249784A (en) * 2007-03-29 2008-10-16 Toppan Printing Co Ltd Advertisement information providing system
WO2009035705A1 (en) 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
JP2009186630A (en) * 2008-02-05 2009-08-20 Nec Corp Advertisement distribution apparatus
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
JP5229944B2 (en) * 2008-08-04 2013-07-03 株式会社ブイシンク On-demand signage system
JP5224360B2 (en) * 2008-11-10 2013-07-03 日本電気株式会社 Electronic advertising device, electronic advertising method and program
JP5423035B2 (en) * 2009-02-18 2014-02-19 沖電気工業株式会社 Information providing apparatus and method
JP2011008571A (en) * 2009-06-26 2011-01-13 Shunkosha:Kk Passer-by fluidity data generating device, content distribution controlling device, passer-by fluidity data generating method, and content distribution controlling method
JP2011017883A (en) * 2009-07-09 2011-01-27 Nec Soft Ltd Target specifying system, target specifying method, advertisement output system, and advertisement output method
JP2011027977A (en) * 2009-07-24 2011-02-10 Sanyo Electric Co Ltd Display system
JP5115763B2 (en) * 2010-03-02 2013-01-09 Necソフト株式会社 Image processing apparatus, content distribution system, image processing method, and program
CN102947850B (en) * 2010-05-28 2016-07-06 乐天株式会社 Content output apparatus, content outputting method
JP2012022538A (en) * 2010-07-15 2012-02-02 Hitachi Ltd Attention position estimating method, image display method, attention content display method, attention position estimating device and image display device
US20130241821A1 (en) * 2010-11-10 2013-09-19 Nec Corporation Image processing system, image processing method, and storage medium storing image processing program
JP2012205112A (en) * 2011-03-25 2012-10-22 Olympus Imaging Corp Voice and video data notification system and control method therefor
CN103493068B (en) * 2011-04-11 2017-06-13 英特尔公司 Personalized advertisement selects system and method
US20130054377A1 (en) * 2011-08-30 2013-02-28 Nils Oliver Krahnstoever Person tracking and interactive advertising
US20130138499A1 (en) * 2011-11-30 2013-05-30 General Electric Company Usage measurent techniques and systems for interactive advertising
JP5953365B2 (en) * 2012-02-24 2016-07-20 ジャパン サイエンス アンド テクノロジー トレーディング カンパニー リミテッドJapan Science & Technology Trading Co.,Limited Attractive multipurpose electronic signage system
JP6716207B2 (en) * 2015-07-06 2020-07-01 パラマウントベッド株式会社 Display control device, display control method, program and display system
JP2017156514A (en) * 2016-03-01 2017-09-07 株式会社Liquid Electronic signboard system
US11094228B2 (en) 2016-11-14 2021-08-17 Sony Corporation Information processing device, information processing method, and recording medium
JP2018113023A (en) * 2017-01-11 2018-07-19 ライフスタイルデザイン株式会社 Information collection device, lifestyle estimation device, recommendation presentation device, information collection method, and program for information collection
JP7426782B2 (en) * 2019-03-04 2024-02-02 日本信号株式会社 Information display system
WO2021156996A1 (en) * 2020-02-06 2021-08-12 日本電気株式会社 Gate system, gate device, method for controlling same, and program
JP7237243B2 (en) * 2020-03-31 2023-03-10 三菱電機株式会社 Vehicle light control device and light control method
WO2023152951A1 (en) * 2022-02-14 2023-08-17 シャープNecディスプレイソリューションズ株式会社 Display system and display method

Also Published As

Publication number Publication date
JP2003271084A (en) 2003-09-25

Similar Documents

Publication Publication Date Title
JP4165095B2 (en) Information providing apparatus and information providing method
CN108876526B (en) Commodity recommendation method and device and computer-readable storage medium
US9324006B2 (en) System and method for displaying contextual supplemental content based on image content
US8725567B2 (en) Targeted advertising in brick-and-mortar establishments
JP5224360B2 (en) Electronic advertising device, electronic advertising method and program
US9123061B2 (en) System and method for personalized dynamic web content based on photographic data
US7337127B1 (en) Targeted marketing system and method
US8204280B2 (en) Method and system for determining attraction in online communities
JP6267861B2 (en) Usage measurement techniques and systems for interactive advertising
JP5190560B2 (en) Content output apparatus, content output method, content output program, and recording medium on which content output program is recorded
US20080004951A1 (en) Web-based targeted advertising in a brick-and-mortar retail establishment using online customer information
US20030088463A1 (en) System and method for group advertisement optimization
KR102246109B1 (en) Product recommendation system and method based on consumer preference
JP2004227158A (en) Information providing device and information providing method
CN108197519A (en) Method and apparatus based on two-dimensional code scanning triggering man face image acquiring
GB2530515A (en) Apparatus and method of user interaction
JP6611772B2 (en) Control method, information processing apparatus, and control program
TWI709098B (en) Multimedia material pushing method and device
JP2009151408A (en) Marketing data analyzing method, marketing data analysis system, data analyzing server device, and program
KR20180077959A (en) Method and apparatus of recommending contents
CN111738777A (en) Coupon pushing method and device, storage medium and intelligent terminal
US20140365310A1 (en) Presentation of materials based on low level feature analysis
CN112165514A (en) System and method for determining display content
CN111143698B (en) Content recommendation method and system
CN108573056B (en) Content data processing method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080721

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4165095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130808

Year of fee payment: 5

EXPY Cancellation because of completion of term