JP6773144B2 - コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム - Google Patents

コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム Download PDF

Info

Publication number
JP6773144B2
JP6773144B2 JP2019005919A JP2019005919A JP6773144B2 JP 6773144 B2 JP6773144 B2 JP 6773144B2 JP 2019005919 A JP2019005919 A JP 2019005919A JP 2019005919 A JP2019005919 A JP 2019005919A JP 6773144 B2 JP6773144 B2 JP 6773144B2
Authority
JP
Japan
Prior art keywords
information
target
person
content
imaging data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019005919A
Other languages
English (en)
Other versions
JP2020115159A (ja
Inventor
博幸 富森
博幸 富森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019005919A priority Critical patent/JP6773144B2/ja
Priority to US16/736,243 priority patent/US20200234338A1/en
Publication of JP2020115159A publication Critical patent/JP2020115159A/ja
Application granted granted Critical
Publication of JP6773144B2 publication Critical patent/JP6773144B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0261Targeted advertisements based on user location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、コンテンツを選択する装置、方法、システム及びプログラムに関する。
店舗や公共施設等において、デジタルサイネージと呼ばれる、電子機器を用いて情報発信を行うシステムが用いられている。
一般に、デジタルサイネージでは、静的に決定されたルールに基づいて、出力するコンテンツを切り替えることが行われている。近年では、コンテンツの訴求効果、すなわち宣伝効果を向上させるため、撮像装置を用いて一定の範囲を撮像し、当該一定の範囲に位置する人物の情報に基づいてコンテンツを切り替える方法が知られている。
例えば、特許文献1に開示される技術では、撮像装置を用いて撮像した人物の年齢や性別といった属性を推定し、推定した属性に基づいて、当該人物に対して提示するコンテンツを選択する。
特開2003−271084号公報
ところで、店舗や公共施設等にデジタルサイネージが設置される場合、デジタルサイネージ付近で、従業員、清掃員または警備員等(以降、「従業員等」とも称する)が業務に従事している場合がある。すなわち、撮像装置が撮像する範囲に、従業員等が、任意の時間滞在する場合がある。一般に、店舗や公共施設等に設置されるデジタルサイネージでは、従業員等は、コンテンツを提示する対象の人物でない場合が多い。
特許文献1に開示される技術では、人物を選別することなく、撮像した人物に対して提示するコンテンツを選択している。そのため、従業員等がデジタルサイネージ付近に位置する場合、従業員等の属性に基づいたコンテンツが選択され、出力されるので、効果的に宣伝を行うことができない虞がある。
本開示は、上記課題を鑑みてなされたものであり、宣伝効果が高いコンテンツを選択するコンテンツ選択装置、コンテンツ選択方法、プログラム等を提供することを主要な目的とする。
本発明の一態様にかかるコンテンツ選択装置は、撮像データから、当該撮像データに含まれる人物の特徴に関する情報を抽出する抽出手段と、前記抽出された情報に基づいて、前記撮像データに含まれる人物が、コンテンツを提示する対象でない人物である非ターゲットであるか否かを判定する判定手段と、前記抽出手段により抽出された情報のうち、前記判定手段により非ターゲットでないと判定された人物に関する情報に基づいて、コンテンツを選択する選択手段と、を備える。
本発明の一態様にかかるコンテンツ選択方法は、撮像データから、当該撮像データに含まれる人物の特徴に関する情報を抽出し、前記抽出された情報に基づいて、前記撮像データに含まれる人物が、コンテンツを提示する対象でない人物である非ターゲットであるか否かを判定し、前記判定の結果に基づいて、コンテンツを選択する。
本発明の一態様にかかるプログラムは、撮像データから、当該撮像データに含まれる人物の特徴に関する情報を抽出する処理と、前記抽出された情報に基づいて、前記撮像データに含まれる人物が、コンテンツを提示する対象でない人物である非ターゲットであるか否かを判定する処理と、前記判定の結果に基づいて、コンテンツを選択する処理と、をコンピュータに実行させる。
本開示によれば、宣伝効果が高いコンテンツを選択することが可能になる、という効果が得られる。
各実施形態におけるコンテンツ選択装置を実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。 第1の実施形態にかかるコンテンツ選択システムの構成の一例を模式的に示す図である。 第1の実施形態にかかるコンテンツ選択システムの機能構成の一例を示すブロック図である。 第1の実施形態にかかる非ターゲット情報の一例を示す図である。 第1の実施形態にかかる非ターゲット情報の他の一例を示す図である。 第1の実施形態にかかるコンテンツ識別情報の一例を示す図である。 第1の実施形態にかかるターゲット属性情報の一例を示す図である。 第1の実施形態にかかるコンテンツ情報取得部の動作を説明するフローチャートである。 第1の実施形態にかかる非ターゲット情報登録部の動作を説明するフローチャートである。 第1の実施形態にかかるコンテンツ選択システムの動作を説明するフローチャートである。 第1の実施形態にかかる抽出情報の一例を示す図である。 第1の実施形態の変形例2にかかるコンテンツ選択システムの機能構成の一例を示すブロック図である。 第1の実施形態の変形例3にかかるコンテンツ選択システムの機能構成の一例を示すブロック図である。 第2の実施形態にかかるコンテンツ選択装置の機能構成の一例を示すブロック図である。 第2の実施形態にかかる人物情報の一例を示す図である。 第3の実施形態にかかるコンテンツ選択装置の最小構成の一例を示す図である。 第3の実施形態にかかるコンテンツ選択装置の動作を説明するフローチャートである。
第1の実施形態
第1の実施形態及び他の実施形態にかかるコンテンツ選択装置を構成するハードウェアについて説明する。図1は、各実施形態におけるコンテンツ選択装置を実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。図1が示す各ブロックは、各実施形態におけるコンテンツ選択装置及びコンテンツ選択方法を実現するコンピュータ装置10と、ソフトウェアとの任意の組み合わせにより実現できる。
図1に示すように、コンピュータ装置10は、プロセッサ11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、記憶装置14、入出力インタフェース15およびバス16を備える。
記憶装置14は、プログラム18を格納する。プロセッサ11は、RAM12を用いて本コンテンツ選択装置にかかるプログラム18を実行する。具体的には、例えば、プログラム18は、図8、図9及び図10等に示す処理をコンピュータに実行させるプログラムを含む。プロセッサ11が、プログラム18を実行することにより、本コンテンツ選択装置の各構成要素(後述する、情報抽出部110、非ターゲット判定部120、コンテンツ選択部130、非ターゲット情報管理部140、コンテンツ情報取得部160)の機能が実現される。プログラム18は、ROM13に記憶されていてもよい。また、プログラム18は、記録媒体20に記録され、ドライブ装置17によって読み出されてもよいし、外部装置からネットワークを介して送信されてもよい。
入出力インタフェース15は、周辺機器(キーボード、マウス、表示装置など)19とデータをやり取りする。入出力インタフェース15は、データを取得または出力する手段として機能する。バス16は、各構成要素を接続する。
なお、コンテンツ選択装置の実現方法には様々な変形例がある。例えば、コンテンツ選択装置は、専用の装置として実現することができる。また、コンテンツ選択装置は、複数の装置の組み合わせにより実現することができる。
本実施形態および他の実施形態の機能における各構成要素を実現するためのプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
該記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disc)−ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するものも各実施形態の範疇に含まれる。
次に、デジタルサイネージを構成するコンテンツ選択システムの各構成要素の概要について説明する。
図2は、第1の実施形態にかかるコンテンツ選択システムの構成の一例を模式的に示す図である。図2に示すように、コンテンツ選択システム1000は、コンテンツ選択装置100と、撮像装置200と、管理端末300と、出力装置400とを備える。コンテンツ選択システム1000は、少なくともコンテンツ選択装置100の制御に基づいて、出力装置400がコンテンツを出力するシステムである。
コンテンツ選択装置100は、撮像装置200と、管理端末300と、出力装置400と相互に通信可能に接続されている。
図3は、図2に示したコンテンツ選択システム1000の機能構成の一例を示すブロック図である。図3が示すコンテンツ選択装置100内のそれぞれのブロックは、単一の装置内に実装されてよく、あるいは、複数の装置にわかれて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
図3に示すように、コンテンツ選択装置100は、情報抽出部110と、非ターゲット判定部120と、コンテンツ選択部130と、非ターゲット情報管理部140と、非ターゲット情報記憶部150と、コンテンツ情報取得部160と、コンテンツ情報記憶部170とを備える。コンテンツ選択装置100は、撮像装置200及び管理端末300から取得した情報等を用いて、出力装置400が出力するコンテンツを選択する機能を有する。
撮像装置200は、所定の範囲を撮像する装置である。撮像装置200が撮像する範囲を「撮像範囲」と称する。図2において、出力装置400の前方側に点線で示した範囲を撮像範囲とする。撮像装置200は、撮像範囲を撮像し、生成した撮像データをコンテンツ選択装置100に送信する。
管理端末300は、コンテンツ選択システム1000を管理するための入出力手段を備えた情報処理装置である。管理端末300は、例えばパーソナルコンピュータであってよい。管理端末300は、非ターゲットを識別するための情報をコンテンツ選択装置100に送信する。
出力装置400は、平面ディスプレイやプロジェクタなどによって映像や文字などのコンテンツを表示するサイネージ端末である。出力装置400は、コンテンツ選択装置100から、選択されたコンテンツを取得し、平面ディスプレイ等に出力する。
図2及び図3では、コンテンツ選択装置100は、独立した装置として示されているが、これに限定されない。すなわち、例えば、コンテンツ選択装置100は、出力装置400に含まれてもよい。また、コンテンツ選択装置100は、撮像装置200、及び出力装置400が一体となった装置に含まれてもよい。また、コンテンツ選択装置100は、オンプレミス環境で構築されてもよいし、クラウド環境で構築されてもよい。 次に、コンテンツ選択装置100の各構成要素について説明する。
情報抽出部110は、撮像装置200から撮像データを取得し、撮像データに含まれる人物を検出すると共に、検出した人物の特徴に関する情報を抽出する。人物の特徴に関する情報は、検出した人物の属性や、撮像データから切り出された当該人物の画像等である。情報抽出部110は、このような、人物の特徴に関する情報を撮像データから抽出する。以下、情報抽出部110が抽出する、人物の特徴に関する情報を「抽出情報」と称する。また、抽出情報のうち、人物の属性を「抽出属性」、撮像データから切り出された当該人物の画像を「抽出画像」と称する。抽出属性とは、例えば、人物の性別、年齢、身長、姿勢、眼鏡の有無、髭の有無、人物が保持している荷物であるが、これに限らない。また、抽出画像とは、例えば、撮像データにおける当該人物の顔の部分や、着衣の部分を矩形領域で切り出された画像であるが、これに限らない。情報抽出部110は、撮像データから、当該撮像データに含まれる人物の特徴に関する情報を抽出する抽出手段に相当する。
非ターゲット判定部120は、抽出情報と、非ターゲット情報記憶部150に格納される非ターゲット情報(詳細は後述する)とに基づいて、撮像データに含まれる人物が非ターゲットであるか否かを判定する。ここで、本実施形態では、通行人や客等の不特定の人物を、コンテンツを提示するターゲットとして考える。非ターゲットとは、コンテンツを提示する対象として扱わない人物である。非ターゲットは、予め設定される。非ターゲットは、例えば、従業員、清掃員及び警備員等、撮像範囲付近で業務に従事している人物である。非ターゲット判定部120は、抽出した情報に基づいて、撮像データに含まれる人物が非ターゲットであるか否かを判定する判定手段に相当する。
コンテンツ選択部130は、非ターゲット判定部120が判定した結果に応じて、出力装置400が出力するコンテンツを選択する。コンテンツ選択部130は、抽出された情報のうち、非ターゲットでないと判定された人物に関する情報に基づいて、コンテンツを選択する選択手段に相当する。
非ターゲット情報管理部140は、管理端末300から取得した非ターゲット情報を、非ターゲット情報記憶部150に登録する。図4及び図5は、それぞれ非ターゲット情報の一例を示す図である。非ターゲット情報は、コンテンツを提示する対象でない人物の情報である。図4は、非ターゲットに設定した人物の属性を示す非ターゲット属性を含む、非ターゲット情報を示す。図4では、非ターゲット属性の種別として「年齢」、「性別」、「身長」、「髭(の有無)」、「眼鏡(の有無)」及び「名札(の有無)」を用いているが、これに限らない。また、図5は、非ターゲットに設定した人物の画像を示す非ターゲット画像を含む、非ターゲット情報を示す。図5では、非ターゲット画像の種別として、「着衣画像」及び「顔画像」を用いているが、これに限らない。ここで、着衣画像とは、例えば、非ターゲットに設定した、店舗の従業員、清掃員及び警備員等の制服の画像であるが、これに限らない。着衣画像は、例えば、非ターゲットに設定した人物の個別の着衣の画像であってもよい。また、顔画像とは、例えば、非ターゲットに設定した人物の顔の画像である。非ターゲット情報は、非ターゲット属性及び非ターゲット画像の少なくとも一方を含む。
コンテンツ情報取得部160は、コンテンツ情報(詳細は後述する)を取得し、コンテンツ情報記憶部170に格納する。本実施形態では、コンテンツ情報取得部160は、コンテンツ選択装置100とネットワークを介して接続されるサーバ等(図示せず)からコンテンツ情報を取得することを採用したが、これに限らない。例えば、コンテンツ情報取得部160は、コンテンツ選択装置100に挿入されるメモリカードやUSB(Universal Serial Bus)メモリ等からコンテンツ情報を取得してもよい。
コンテンツ情報記憶部170は、コンテンツ情報を保持する。コンテンツ情報は、コンテンツの実データと、コンテンツを識別する情報と、コンテンツのターゲットとなる人物の属性に関する情報とを含む。以下、コンテンツの実データを「コンテンツファイル」、コンテンツを識別する情報を「コンテンツ識別情報」、コンテンツのターゲットとなる人物の属性に関する情報を「ターゲット属性情報」と称する。図6は、コンテンツ識別情報の一例を示す図である。図6に示すように、コンテンツ識別情報は、コンテンツを識別するためのコンテンツID(IDentification)及びコンテンツファイル名を対応付けた情報である。例えば、コンテンツファイル名が「cosmetic_aaa.mp4」であるコンテンツファイルのコンテンツIDは「0001」である。
なお、コンテンツ情報取得部160及びコンテンツ情報記憶部170は、それぞれコンテンツ選択装置100の外部に接続されてもよいし、コンテンツ選択部130に含まれてもよい。
図7は、ターゲット属性情報の一例を示す図である。図7に示すように、ターゲット属性情報は、ターゲット属性と、コンテンツIDとを含む。ターゲット属性は、コンテンツのメインターゲットとする人物の属性である。メインターゲットとは、コンテンツの訴求効果(宣伝効果)が高いと考えられる層である。ターゲット属性情報は、ターゲット属性ごとに、当該属性をもつ人物をメインターゲットとするコンテンツのコンテンツIDが対応づけられている。例えば、年齢が「10−20」歳かつ性別が「女性」をメインターゲットとするコンテンツのコンテンツIDは、「0001」及び「0004」である。ここで、年齢または性別が「all」のコンテンツは、メインターゲットとして年齢または性別を指定しないことを示す。また、図7では、ターゲット属性として、年齢及び性別が用いられているが、これに限らない。例えば、身長、姿勢、眼鏡の有無、髭の有無、人物が保持している荷物等、をターゲット属性として用いてもよい。
次に、コンテンツ選択システム1000の動作を説明する。本実施形態のコンテンツ選択システム1000は、撮像範囲を撮像し、生成した撮像データから抽出した情報に基づいて、コンテンツを選択する処理を行う。コンテンツ選択装置100は、予めコンテンツ情報及び非ターゲット情報を取得する。そして、コンテンツ選択装置100は、取得したコンテンツ情報及び非ターゲット情報を用いて、撮像データから抽出する情報を決定する。そこで、まず、コンテンツ選択装置100が、コンテンツ選択システム1000によりコンテンツ情報及び非ターゲット情報を取得する動作を説明する。以下、本明細書において、フローチャートの各ステップを「S801」のように、それぞれのステップに付した番号を用いて表現する。
図8は、コンテンツ情報取得部160により、コンテンツ情報を取得する動作を説明するフローチャートである。まず、コンテンツ情報取得部160は、コンテンツ選択装置100とネットワークを介して接続するサーバ等から、コンテンツ情報を取得する。ここでは、コンテンツ情報取得部160は、図6に示すコンテンツ識別情報及びコンテンツ識別情報に示されるコンテンツファイルと、図7に示すターゲット属性情報とを取得したとする。コンテンツ情報取得部160は、取得したコンテンツ情報をコンテンツ情報記憶部170に格納する(S801)。そして、コンテンツ情報取得部160は、ターゲット属性情報に含まれる、ターゲット属性の種別を情報抽出部110に通知する(S802)。図7の例では、コンテンツ情報取得部160は、「年齢」及び「性別」を情報抽出部110に通知する。
図9は、非ターゲット情報管理部140により、非ターゲット情報を取得する動作を説明するフローチャートである。まず、非ターゲット情報管理部140は、管理端末300から、非ターゲット情報を取得する。ここでは、図4及び図5に示す非ターゲット情報を取得したとする。非ターゲット情報管理部140は、取得した非ターゲット情報を非ターゲット情報記憶部150に格納する(S901)。そして、非ターゲット情報管理部140は、非ターゲット情報に含まれる、非ターゲット属性の種別と、非ターゲット画像の種別とを情報抽出部110に通知する(S902)。図4及び図5の例では、非ターゲット情報管理部140は、「年齢」、「性別」、「身長」、「髭」の有無、「眼鏡」の有無、「名札」の有無、「着衣画像」及び「顔画像」を情報抽出部110に通知する。
S802及びS902において情報抽出部110に通知された、ターゲット属性の種別、非ターゲット属性の種別、及び非ターゲット画像の種別は、情報抽出部110に撮像データから抽出する情報を指示するために用いられる(詳細は後述する)。以下、撮像データから抽出する情報を指示するために用いられる情報を「抽出指示情報」と称する。
次に、コンテンツ選択システム1000が、撮像範囲を撮像し、生成した撮像データから抽出した情報に基づいて、コンテンツを選択する処理について説明する。図10は、本実施形態にかかるコンテンツ選択システム1000の動作を説明するフローチャートである。
コンテンツ選択装置100は、撮像装置200から撮像データを取得している。情報抽出部110は、抽出指示情報に基づいて、所定のタイミングで、撮像データから人物に関する情報、すなわち上述した抽出情報を抽出する(S1001)。
図11は、抽出情報の一例を示す図である。抽出指示情報が、ターゲット属性の種別または非ターゲット属性の種別を示す場合、情報抽出部110は、撮像データに含まれる人物に対して、それぞれの属性の種別に応じた属性を抽出する。図11の例では、情報抽出部110は、撮像データに含まれる人物の「年齢」、「性別」、「身長」、「髭」の有無、「眼鏡」の有無、及び「名札」の有無を示す抽出属性を抽出する。また、抽出指示情報が、非ターゲット画像の種別を示す場合、情報抽出部110は、画像の種別に応じた画像を撮像データから抽出する。図11の例では、情報抽出部110は、撮像データから切り出された、人物の「顔画像」及び「着衣画像」を示す抽出画像を抽出する。また、図11に示す「人物ID」は、撮像データに含まれる人物を識別するために付与された情報である。
上述したように、コンテンツ選択装置100は、所定のタイミングで、撮像データから抽出情報を抽出する。ここで、所定のタイミングとは、一定時間ごとであってもよいし、あらかじめ決められた時刻であってもよいが、これに限らない。例えば、出力装置400がコンテンツを出力している間に、次に出力するコンテンツをコンテンツ選択装置100が選択する場合、出力装置400が出力しているコンテンツの時間の長さに応じた間隔で、撮像データから情報を抽出してもよい。また、本実施形態では、情報抽出部110は、コンテンツ情報取得部160及び非ターゲット情報管理部140から予め抽出指示情報を取得し、撮像データから抽出する情報を決定しているが、この例に限らない。例えば、情報抽出部110が、上述した所定のタイミングで、非ターゲット情報記憶部150及びコンテンツ情報記憶部170から、抽出指示情報を読み出してもよい。このとき、情報抽出部110は、非ターゲット情報記憶部150及びコンテンツ情報記憶部170と直接接続されてもよい。
図10に戻り、非ターゲット判定部120は、情報抽出部110から取得した抽出情報と、非ターゲット情報記憶部150に格納される非ターゲット情報とに基づいて、検出された人物が非ターゲットであるか否かを判定する(S1002)。ここでは、非ターゲット判定部120は、図11に示す人物A、人物B及び人物Cのそれぞれに対して、非ターゲットであるか否かを判定する。
ここで、非ターゲットであるか否かを判定する方法としては、様々な方法が考えられる。例えば、抽出情報に含まれる抽出画像と、非ターゲット情報に含まれる非ターゲット画像とを照合する。照合の結果、それぞれの画像に含まれる顔や着衣が同一であると判定される場合、非ターゲット判定部120は、検出された人物が非ターゲットであると判定してもよい。画像の照合には、既知の種々の画像照合技術を用いることができる。例えば、画像からエッジ等の特徴点を抽出し、それぞれの画像の特徴点の位置関係を元に画像間の照合を行う方法や、非ターゲット画像をテンプレート画像とし、抽出画像にテンプレート画像を重ね合わせ、類似する領域を探索する方法等を用いることができる。また、抽出情報に含まれる抽出属性と、非ターゲット情報に含まれる非ターゲット属性とを比較し、それぞれの属性が一致した場合、検出された人物が非ターゲットであると判定してもよい。このとき、一致する割合の閾値を予め定め、閾値以上の割合の属性が一致した場合、検出された人物が非ターゲットであると判定してもよい。例えば、閾値を2/3とすると、図4及び図11の例では、6種類の属性のうち、4種類以上の属性が一致した場合、検出された人物が非ターゲットであると判定してもよい。
また、本実施形態では、非ターゲット情報として、図4に示す非ターゲット属性と、図5に示す非ターゲット画像との両方を取得してもよいし、いずれか一方のみを取得してもよい。例えば、非ターゲット情報として、非ターゲット画像のみを取得している場合、画像の照合のみを行い、検出された人物が非ターゲットであるか否かを判定してもよい。また、非ターゲット情報として、非ターゲット属性と、非ターゲット画像との両方を取得している場合、画像の照合と、属性の比較とを両方行ってもよい。画像の照合と、属性の比較とを両方行うことによって、一方のみでは一意に判定できない場合であっても、検出された人物が非ターゲットであるか否かを判定することが可能となる。すなわち、判定の精度を向上することができる。
非ターゲット判定部120は、検出された人物が非ターゲットであると判定した場合(S1003の「YES」)、抽出情報の当該人物のレコードにフラグ「1」を付加する(S1004)。また、非ターゲット判定部120は、検出された人物が非ターゲットでない、すなわちターゲットであると判定した場合(S1003の「NO」)、抽出情報の当該人物のレコードにフラグ「0」を付加する(S1005)。例えば、図11に示す「人物A」の抽出属性は、図4に示す非ターゲット属性に、すべて一致している。この場合、非ターゲット判定部120は、「人物A」を非ターゲットであると判定し、抽出情報の「人物A」のレコードに対してフラグ「1」を付加する。
非ターゲット判定部120は、S1004またはS1005の処理の後、抽出情報に含まれるすべての人物に対して判定が終了したかどうか確認する。具体的には、非ターゲット判定部120は、抽出情報に、フラグを付加していないレコードがあるか否かを確認する。非ターゲット判定部120は、フラグを付加していないレコードがある場合、すべての人物に対して判定が終了していないと判断し、フラグを付加していないレコードがない場合、すべての人物に対して判定が終了したと判断する。
抽出情報に含まれるすべての人物に対して判定が終了していない場合(S1006の「YES」)、非ターゲット判定部120は、判定が終了していない人物に対して、非ターゲットであるか否かの判定を行う。非ターゲット判定部120は、抽出情報に含まれるすべての人物の判定が終了するまで、S1002からS1005の処理を繰り返す。本実施形態では、非ターゲット判定部120は、図11に示す抽出情報の「人物A」は非ターゲットであり、「人物B」及び「人物C」は非ターゲットでないと判定したとする。つまり、抽出情報の「人物A」に対してフラグ「1」が付加され、「人物B」及び「人物C」に対してフラグ「0」が付加される。
非ターゲット判定部120は、抽出情報に含まれるすべての人物の項目に対してフラグを付加し(S1006の「NO」)、抽出情報をコンテンツ選択部130に送信する。
コンテンツ選択部130は、抽出情報にターゲットとなる人物のみ含まれる場合(S1007の「NO」)、及び、抽出情報に非ターゲットが含まれる場合(S1007の「YES」及びS1008の「NO」)、抽出情報のうち、ターゲットとなる人物の情報に基づいてコンテンツを選択する(S1009)。具体的には、コンテンツ選択部130は、コンテンツ情報記憶部170に格納されるターゲット属性情報から、抽出情報のうちフラグ「0」が付加された人物の属性、図11の例では、「人物B」及び「人物C」の属性に合致するコンテンツを選択する。例えば、「人物B」は、年齢が「15」、性別が「女性」である。このとき、コンテンツ選択部130は、図7に示されるターゲット属性情報のうち、年齢が「10−20」、性別が「女性」である、コンテンツID「0001」及び「0004」のコンテンツを選択する。また、「人物C」は、年齢が「30」、性別が「女性」である。これに対して、ターゲット属性情報に年齢「30」を指定しているコンテンツはない。このとき、コンテンツ選択部130は、ターゲット属性の年齢が「all」、性別が「女性」である、コンテンツID「0004」のコンテンツを選択する。
抽出情報にターゲットとなる人物が含まれない場合、すなわち、抽出情報に非ターゲットと判定された人物のみ含まれる場合(S1008の「YES」)、コンテンツ選択部130は、抽出情報を考慮せず、コンテンツを選択する(S1010)。例えば、ターゲット属性を指定していないコンテンツ、すなわち年齢及び性別が共に「all」である、コンテンツID「0005」のコンテンツを選択する。
コンテンツを選択する方法は、上述の例に限らない。例えば、サイネージ端末と各々の人物との距離や、各々の人物の視線の向き等に応じて、コンテンツを選択する際に使用する抽出情報を選択してもよい。具体的には、サイネージ端末と各々の人物との距離を測定し、フラグが付加された抽出情報のうち、当該距離が最も短い人物の情報を用いてコンテンツを選択してもよい。また、各々の人物の視線や顔の向きを判別し、フラグが付加された抽出情報のうち、サイネージ端末を視認していると判定された人物の情報を用いてコンテンツを選択してもよい。
コンテンツ選択部130は、選択したコンテンツのコンテンツファイルを出力装置400に送信する(S1010)。ここでは、コンテンツID「0001」及び「0004」のコンテンツファイルを、出力装置400に送信する。出力装置400は、受信したコンテンツファイルを用いてコンテンツを再生し、当該コンテンツを平面ディスプレイ等に出力する。このとき、出力装置400は、例えば、2つのコンテンツのうち、いずれか一方を出力してもよいし、2つのコンテンツを順に出力してもよい。順に出力することによって、同一のコンテンツを出力し続ける時間を削減することができる。
以上のように、第1の実施形態にかかるコンテンツ選択装置100は、撮像データから得られる抽出情報に基づいて、撮像データに含まれる人物が非ターゲットであるか否かを判定する。そして、コンテンツ選択装置100は、当該判定の結果に基づいて、出力装置400が出力するコンテンツを選択する。これにより、非ターゲットの情報を除いてコンテンツを選択できるので、宣伝効果が高いコンテンツを選択できるという効果が得られる。
[変形例1]
図12は、変形例1にかかるコンテンツ選択システム1000の機能構成の一例を示すブロック図である。図12に示すように、コンテンツ情報記憶部170は、出力装置500にあってもよい。このとき、コンテンツ情報取得部160は、出力装置500と通信可能に接続されている。
コンテンツ情報取得部160は、コンテンツ情報を取得し、取得したコンテンツ情報を、出力装置500内のコンテンツ情報記憶部170に格納する。
コンテンツ選択部130は、非ターゲット判定部120が判定した結果に基づいて、コンテンツを選択し、選択したコンテンツのコンテンツIDを出力装置500に送信する。
出力装置500は、コンテンツ選択部130から受信したコンテンツIDに対応するコンテンツファイルをコンテンツ情報記憶部170から探索し、当該コンテンツを出力する。
このように、本変形例では、出力装置が予め保持しているコンテンツを再生しているので、安定してコンテンツを出力することができる。
[変形例2]
図13は、変形例2にかかるコンテンツ選択システム1000の機能構成の一例を示すブロック図である。図13に示すように、コンテンツ選択装置100は、さらに判定結果記憶部180を備えてもよい。
判定結果記憶部180は、非ターゲット判定部120と接続されている。非ターゲット判定部120は、撮像データに含まれる人物が非ターゲットであるか否かを判定した結果、すなわちフラグを付加した抽出情報と、時刻情報とを対応付けた情報を判定結果記憶部180に格納する。このとき、非ターゲット判定部120が格納する情報は、これに限らない。例えば、非ターゲット判定部120は、非ターゲットと判定された人物の情報を除いた抽出情報と時刻情報とを対応付けて格納してもよい。また、非ターゲット判定部120は、抽出情報に、撮像データに含まれる人物を検出した時刻に出力されたコンテンツのコンテンツIDを対応付けてもよい。すなわち、判定結果記憶部180は、抽出した情報と、撮像データに含まれる人物が非ターゲットであるか否かを判定した結果と、撮像データに含まれる人物を検出した時刻とを対応付けた情報を記憶する記憶手段に相当する。
この構成により、本変形例では、抽出情報を、各種分析に用いられる統計データとして活用することができる。例えば、検出された人物がサイネージ端末を視認したか否かを示す情報を抽出情報として抽出することで、抽出情報から、コンテンツに興味を持った人物の属性を取得できる。そのため、抽出情報を、それぞれのコンテンツが、どのような属性を持つ人物に対して高い宣伝効果が得られるか、といった予測に用いることができる。また、抽出情報から、デジタルサイネージ付近の通行人の属性を、所定の時間帯ごとに取得できる。よって、抽出情報を、後日の同時間帯において、特定の属性をもつ人物がデジタルサイネージ付近を通行するか否かの予測に用いることができる。
さらに、本変形例では、非ターゲットであるか否かを判定した結果を反映した抽出情報を生成し、記憶するので、非ターゲットでない人物、すなわちターゲットとなる人物に関する情報のみを分析に用いることができる。そのため、例えば、上述した予測において、非ターゲットの属性に関する情報を予め除くことができるので、抽出情報をより精度の高い統計データとして活用することができる。
第2の実施形態
第2の実施形態では、撮像データから抽出される情報に基づいて、非ターゲット情報を登録する例について説明する。
図14は、本実施形態にかかるコンテンツ選択装置600の構成の一例を示すブロック図である。なお、本実施形態にかかるコンテンツ選択システムの構成は、情報抽出部及び非ターゲット情報管理部を除き、図3に示したコンテンツ選択システムの構成と同様である。以下、上述した第1の実施形態の説明と重複する内容については説明を省略する。コンテンツ選択装置600は、情報抽出部610、非ターゲット判定部120、コンテンツ選択部130、非ターゲット情報管理部640、非ターゲット情報記憶部150、コンテンツ情報取得部160及びコンテンツ情報記憶部170を備える。非ターゲット情報管理部640は、情報登録部641と、抽出情報記憶部642とを備える。非ターゲット判定部120、コンテンツ選択部130、非ターゲット情報記憶部150、コンテンツ情報取得部160及びコンテンツ情報記憶部170は、第1の実施形態における各構成と同様であるため、詳細な説明は省略する。
本実施形態では、非ターゲット情報管理部640が、抽出情報に含まれる人物の出現頻度に基づいて、当該人物が非ターゲットであるか否かを判定し、非ターゲットと判定した人物の情報を、非ターゲット情報記憶部150に登録することについて説明する。
情報抽出部610は、抽出情報を抽出情報記憶部642に格納する。図15は、本実施形態にかかる抽出情報記憶部642に格納された抽出情報の一例を示す図である。
抽出情報記憶部642に、抽出情報が格納されると、情報登録部641は、格納された抽出情報に、非ターゲットとなる人物の情報が含まれるか否かを判定する。具体的には、情報登録部641は、所定時間ごとの、同一人物の出現頻度を算出し、出現頻度が高い人物を非ターゲットと判定する。例えば、当該所定の時間を3分とし、出現頻度の閾値を3と設定する。つまり、3分以内に出現頻度が3以上の人物を非ターゲットと判定する。図15の例では、人物A、人物C、人物D及び人物Fの属性は、年齢「22」、性別「男性」、身長「175」、ひげ「あり」、眼鏡「なし」、名札「あり」であり、6種類の属性がすべて一致している。よって、人物A、人物C、人物D及び人物Fは、同一人物と判定される。このとき、当該人物の出現頻度は4であり、閾値3を超えている。そのため、当該人物の情報を非ターゲット情報であると判定する。情報登録部641は、抽出情報のうち当該人物の情報を、非ターゲット情報記憶部150に格納し、非ターゲット情報として登録する。非ターゲット判定部120は、当該登録された非ターゲット情報を用いて、撮像データに含まれる人物が非ターゲットであるか否かを判定することができる。
ここで、人物が非ターゲットであるか否かを判定する方法は、上述の方法に限らない。例えば、撮像データに含まれる人物が、撮像範囲に滞在し続ける時間(滞在時間)を抽出情報として抽出し、滞在時間が閾値以上である人物を非ターゲットと判定してもよい。
情報登録部641は、抽出された情報に関する人物の、撮像データにおける出現頻度に基づいて、当該人物が非ターゲットであるか否かを判定し、当該人物が非ターゲットであると判定された場合、当該人物の特徴に関する情報を、非ターゲット情報とする、非ターゲット情報管理手段に相当する。
以上のように、本実施形態にかかるコンテンツ選択装置600は、抽出情報に含まれる人物の出現頻度及び滞在時間の少なくとも一方を用いて、当該人物が非ターゲットであるか否かを判定し、非ターゲットであると判定した人物の情報を、非ターゲット情報として登録する。これにより、自動的に非ターゲット情報を生成することができるので、非ターゲット情報の登録にかかる手間や時間を削減することができる。
第3の実施形態
図16は、本発明の第3の実施形態にかかるコンテンツ選択装置700の一例を示すブロック図である。図16に示すように、コンテンツ選択装置700は、抽出部710と、判定部720と、選択部730とを備える。抽出部710、判定部720、選択部730の構成はそれぞれ、第1の実施形態にかかる情報抽出部110、非ターゲット判定部120、コンテンツ選択部130の構成と同様である。よって、その詳細な説明を省略する。
抽出部710は、撮像データから人物に関する情報を抽出する。
判定部720は、抽出部710が抽出した情報に基づいて、撮像データに含まれる人物が非ターゲットであるか否かを判定する。
選択部730は、抽出された情報のうち、判定部720により非ターゲットでないと判定された人物に関する情報に基づいて、コンテンツを選択する。
次に、コンテンツ選択装置700の動作を説明する。図17は、本実施形態にかかるコンテンツ選択装置700の動作を説明するフローチャートである。
抽出部710は、撮像データを取得すると、撮像データから、撮像データに含まれる人物の特徴に関する情報を抽出する(S1701)。このとき、抽出部710は、コンテンツ選択装置700とネットワークを介して接続される撮像装置等(図示せず)から、撮像データを取得してもよい。
判定部720は、抽出部710が抽出した、人物の特徴に関する情報に基づいて、撮像データに含まれる人物が、コンテンツを提示する対象でない人物である非ターゲットであるか否かを判定する(S1702)。
選択部730は、抽出部710が抽出した、人物の特徴に関する情報のうち、非ターゲットでないと判定された人物の特徴に関する情報に基づいて、コンテンツを選択する(S1703)。このとき、選択部720は、コンテンツ選択装置700とネットワークを介して接続されるサーバ等(図示せず)や、コンテンツ選択装置100に挿入されるメモリカードやUSBメモリ等から、コンテンツを取得してもよい。また、選択部720は、コンテンツを予め取得してもよいし、S1703において取得してもよい。
以上のように、本実施形態にかかるコンテンツ選択装置700によれば、非ターゲットの情報を除いてコンテンツを選択できるので、高い宣伝効果が得られるコンテンツを選択できるという効果が得られる。
以上、上述した実施形態を参照して本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、種々の上記開示要素の多様な組み合わせ乃至選択など、当業者が理解し得る様々な態様を適用することができる。
10 コンピュータ装置
11 プロセッサ
12 RAM
13 ROM
14 記憶装置
15 入出力インタフェース
16 バス
17 ドライブ装置
18 プログラム
19 周辺機器
20 記録媒体
1000 コンテンツ選択システム
100、600、700 コンテンツ選択装置
110、610 情報抽出部
120 非ターゲット判定部
130 コンテンツ選択部
140、640 非ターゲット情報管理部
150 非ターゲット情報記憶部
160 コンテンツ情報取得部
170 コンテンツ情報記憶部
180 判定結果記憶部
200 撮像装置
300 管理端末
400、500 出力装置
641 情報登録部
642 抽出情報記憶部
710 抽出部
720 判定部
730 選択部

Claims (9)

  1. 撮像データから、当該撮像データに含まれる人物の特徴に関する情報を抽出する抽出手段と、
    前記抽出された情報と、予め設定された、非ターゲットに関する情報とに基づいて、前記撮像データに含まれる人物が、コンテンツを提示する対象でない人物である非ターゲットであるか否かを判定する判定手段と、
    前記判定手段により非ターゲットでないと判定された人物に関する前記抽出された情報に基づいて、提示するコンテンツを選択する選択手段と、を備える
    コンテンツ選択装置。
  2. 前記抽出された情報に関する人物の、前記撮像データにおける出現頻度に基づいて、当該人物が非ターゲットであるか否かを判定する非ターゲット情報管理手段をさらに備え、
    前記非ターゲットに関する情報は、前記非ターゲット情報管理手段により、非ターゲットであると判定された前記人物の特徴に関する情報である
    請求項に記載のコンテンツ選択装置。
  3. 撮像データから、当該撮像データに含まれる人物の特徴に関する情報を抽出する抽出手段と、
    前記抽出された情報に基づいて、前記撮像データに含まれる人物が、コンテンツを提示する対象でない人物である非ターゲットであるか否かを判定する判定手段と、
    前記判定手段により非ターゲットでないと判定された人物に関する前記抽出された情報に基づいて、提示するコンテンツを選択する選択手段と、
    前記抽出された情報と、前記判定手段が前記撮像データに含まれる人物が非ターゲットであるか否かを判定した結果と、前記撮像データに含まれる人物を検出した時刻とを対応付けた情報を記憶する記憶手段と、を備える
    ンテンツ選択装置。
  4. 前記選択手段は、
    前記抽出された情報に、非ターゲットでないと判定された人物の特徴に関する情報が含まれる場合、当該人物の特徴に関する情報に基づいてコンテンツを選択し、
    前記抽出された情報に、前記非ターゲットでないと判定された人物の特徴に関する情報が含まれない場合、所定のコンテンツを選択する
    請求項1乃至3のいずれか1項に記載のコンテンツ選択装置。
  5. 前記特徴は、前記撮像データに含まれる人物の属性及び前記撮像データから切り出された当該人物を含む画像の少なくとも一方を含む
    請求項1乃至4のいずれか1項に記載のコンテンツ選択装置。
  6. 前記属性は、前記撮像データに含まれる人物の年齢、性別、身長、髭の有無、眼鏡の有無及び名札の有無の情報の少なくとも一を含み、
    前記切り出された画像は、前記撮像データに含まれる人物の顔を含む画像及び当該人物の着衣を含む画像の少なくとも一方を含む
    請求項5に記載のコンテンツ選択装置。
  7. 請求項1乃至のいずれか1項に記載のコンテンツ選択装置と、
    前記撮像データを生成する撮像装置と、
    前記選択手段によって選択された前記コンテンツを出力する出力装置と、を備える
    コンテンツ選択システム。
  8. 撮像データから、当該撮像データに含まれる人物の特徴に関する情報を抽出し、
    前記抽出された情報と、予め設定された、非ターゲットに関する情報とに基づいて、前記撮像データに含まれる人物が、コンテンツを提示する対象でない人物である非ターゲットであるか否かを判定し、
    非ターゲットでないと判定された人物に関する前記抽出された情報に基づいて、提示するコンテンツを選択する
    コンテンツ選択方法。
  9. 撮像データから、当該撮像データに含まれる人物の特徴に関する情報を抽出する処理と、
    前記抽出された情報と、予め設定された、非ターゲットに関する情報とに基づいて、前記撮像データに含まれる人物が、コンテンツを提示する対象でない人物である非ターゲットであるか否かを判定する処理と、
    非ターゲットでないと判定された人物に関する前記抽出された情報に基づいて、提示するコンテンツを選択する処理と、をコンピュータに実行させる
    プログラム。
JP2019005919A 2019-01-17 2019-01-17 コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム Active JP6773144B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019005919A JP6773144B2 (ja) 2019-01-17 2019-01-17 コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム
US16/736,243 US20200234338A1 (en) 2019-01-17 2020-01-07 Content selection apparatus, content selection method, content selection system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019005919A JP6773144B2 (ja) 2019-01-17 2019-01-17 コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2020115159A JP2020115159A (ja) 2020-07-30
JP6773144B2 true JP6773144B2 (ja) 2020-10-21

Family

ID=71609979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019005919A Active JP6773144B2 (ja) 2019-01-17 2019-01-17 コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム

Country Status (2)

Country Link
US (1) US20200234338A1 (ja)
JP (1) JP6773144B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024185409A1 (en) * 2023-03-08 2024-09-12 Nec Corporation Method, apparatus, and system for allocating hardware resources to process video streams

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1821237B1 (en) * 2006-02-15 2010-11-17 Kabushiki Kaisha Toshiba Person identification device and person identification method

Also Published As

Publication number Publication date
JP2020115159A (ja) 2020-07-30
US20200234338A1 (en) 2020-07-23

Similar Documents

Publication Publication Date Title
US20140247997A1 (en) Information processing system, information processing method, and computer program product
US9891798B2 (en) Face image tracking system
JP5751321B2 (ja) 情報処理装置及び情報処理プログラム
US20130044922A1 (en) Information processing device, information processing method, program, and information processing system
US11816923B2 (en) Face image candidate determination apparatus for authentication, face image candidate determination method for authentication, program, and recording medium
WO2016038901A1 (ja) 画像処理装置、画像処理プログラム、画像処理方法及び記録媒体
US20240201835A1 (en) Information processing apparatus, information processing method, and storage medium for person search
WO2020018349A4 (en) Systems and methods for generating targeted media content
WO2015003287A1 (zh) 一种行为辨识及追踪系统及其运作方法
JP6773144B2 (ja) コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム
JP6635208B1 (ja) 検索装置、検索方法、およびプログラム
JP6112156B2 (ja) 行動分析装置及び行動分析プログラム
JP2003281157A (ja) 人物検索システム、人物追跡システム、人物検索方法および人物追跡方法
JP5223404B2 (ja) 組織活動分析装置およびプログラム
JP5205137B2 (ja) 行動管理システム
JP7389955B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2018074317A (ja) 人物特定支援装置
US10699105B2 (en) Workflow creation by image analysis
JP5618628B2 (ja) 人物情報自動収集システム及び人物情報自動収集方法並びにそのプログラム
JP2017167983A (ja) 出力制御プログラム、出力制御方法及び出力制御装置
US20240054813A1 (en) Information generation device, information generation system, information generation method, and recording medium
WO2022079841A1 (ja) グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体
CN110020579A (zh) 行人重识别方法及装置、存储介质和电子设备
JP6844681B2 (ja) 検索装置、検索方法、およびプログラム
US20240135411A1 (en) Display control device, display control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200914

R150 Certificate of patent or registration of utility model

Ref document number: 6773144

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150