JP2022012890A - 情報処理システム、情報処理装置、及び情報処理方法 - Google Patents

情報処理システム、情報処理装置、及び情報処理方法 Download PDF

Info

Publication number
JP2022012890A
JP2022012890A JP2020115047A JP2020115047A JP2022012890A JP 2022012890 A JP2022012890 A JP 2022012890A JP 2020115047 A JP2020115047 A JP 2020115047A JP 2020115047 A JP2020115047 A JP 2020115047A JP 2022012890 A JP2022012890 A JP 2022012890A
Authority
JP
Japan
Prior art keywords
user
information processing
information
current position
entertainment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2020115047A
Other languages
English (en)
Inventor
由里香 田中
Yurika Tanaka
修一 澤田
Shuichi Sawada
孝治 上野
Koji Ueno
伸 桜田
Shin Sakurada
大樹 横山
Daiki Yokoyama
玄史 久野
Genshi Kuno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020115047A priority Critical patent/JP2022012890A/ja
Priority to US17/357,207 priority patent/US20220005336A1/en
Priority to CN202110734600.0A priority patent/CN113888763A/zh
Publication of JP2022012890A publication Critical patent/JP2022012890A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0266System arrangements wherein the object is to detect the exact distance between parent and child or surveyor and item
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0233System arrangements with pre-alarms, e.g. when a first distance is exceeded
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0241Data exchange details, e.g. data protocol
    • G08B21/025System arrangements wherein the alarm criteria uses absence of reply signal after an elapsed time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Child & Adolescent Psychology (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】子供等が同行者からはぐれた場合に、両者を効率的に合流させることができる技術を提供する。【解決手段】本開示に係る情報処理システムでは、制御装置が、所定のエリア内において第1のユーザと第2のユーザとがはぐれたことを検出すると、第1のユーザと第2のユーザとを関連付けるデータ及び所定のエリア内に設置された複数のカメラで撮影される画像に基づいて、第1のユーザの現在位置を特定する。そして、制御装置は、第1のユーザの現在位置において該第1のユーザに対するエンターテイメントを提供する処理と、第1のユーザの現在位置を示す情報である位置情報を第2のユーザに通知する処理と、を実行する。【選択図】図5

Description

本開示は、情報処理システム、情報処理装置、及び情報処理方法に関する。
監視カメラにより撮影された画像情報から親子の移動経路が相違していることが検出されると、子供が迷子になったと判定して、警告を発生する技術が知られている(例えば、特許文献1を参照。)。
また、特許文献2には、施設へ入場した際に撮影された親子の画像から親の服の色、子供の服の色、子供の身長等の親子情報を抽出して、親子情報DBに登録しておく技術が提案されている。そして、子供が施設内で迷子になった場合に、親の服の色、子供の服の色、子供の身長等が親の端末からサーバへ送信されると、親の位置から子供の位置までの誘導経路がサーバから親の端末に送信される。
特許第6350024号公報 特開2013-191059号公報
本開示の目的は、子供等が同行者からはぐれた場合に、両者を効率的に合流させることができる技術を提供することにある。
本開示は、情報処理システムとして捉えることができる。その場合の情報処理システムは、例えば、
所定のエリア内に設置される複数のカメラと、
前記所定のエリアに入場している第1のユーザと該第1のユーザに同行するユーザである第2のユーザとを関連付けるデータを記憶する記憶装置と、
前記第1のユーザと前記第2のユーザとがはぐれたことを検出する処理と、前記複数のカメラにより撮影される画像と前記記憶装置に記憶されているデータとに基づいて、前記第1のユーザの現在位置を特定する処理と、前記特定された現在位置において前記第1のユーザに対するエンターテイメントを提供する処理と、前記特定された現在位置に関する情報である位置情報を、前記第2のユーザに通知する処理と、を実行する制御装置と、
を備えるようにしてもよい。
本開示は、情報処理装置として捉えることもできる。その場合の情報処理装置は、例えば、
所定のエリアに入場している第1のユーザと該第1のユーザに同行するユーザである第2のユーザとを関連付けるデータを記憶する記憶部と、
前記第1のユーザと前記第2のユーザとがはぐれたことを検出する処理と、前記所定のエリア内に設置される複数のカメラによって撮影される画像と前記記憶部に記憶されているデータとに基づいて、前記第1のユーザの現在位置を特定する処理と、前記特定された現在位置において前記第1のユーザに対するエンターテイメントを提供する処理と、前記特定された現在位置に関する情報である位置情報を、前記第2のユーザに通知する処理と、を実行する制御部と、
を備えるようにしてもよい。
本開示は、情報処理方法として捉えることもできる。その場合の情報処理方法は、例えば、
所定のエリアに入場している第1のユーザと該第1のユーザに同行するユーザである第2のユーザとがはぐれたことを検出するステップと、
前記第1のユーザと前記第2のユーザとを関連付けるデータを取得するステップと、
前記所定のエリア内に設置される複数のカメラにより撮影される画像と、前記第1のユーザと前記第2のユーザとを関連付けるデータと、に基づいて、前記第1のユーザの現在位置を特定するステップと、
前記特定された現在位置において前記第1のユーザに対するエンターテイメントを提供するステップと、
前記特定された現在位置に関する情報である位置情報を、前記第2のユーザに通知するステップと、
をコンピュータが実行するようにしてもよい。
なお、本開示は、上記した情報処理方法を実現するための情報処理プログラム、又は該情報処理プログラムを格納した非一時的記憶媒体として捉えることもできる。
本開示によれば、子供等が同行者からはぐれた場合に、両者を効率的に合流させることができる技術を提供することができる。
本開示を適用するユーザ探索システムの概要を示す図である。 所定のエリアにおけるカメラ及びサイネージ装置の配置例を示す図である。 ユーザ探索システムに含まれるサーバ装置の構成例を概略的に示したブロック図である。 ユーザ管理DBに格納されるユーザ情報テーブルの構成例を示す図である。 実施形態におけるサーバ装置で行われる処理フローを示すフローチャートである。
本開示は、店舗、施設、又は街等の所定のエリアにおいて、第2のユーザとはぐれた第1のユーザを探索するためのシステムに適用される。本開示における第1のユーザは、該第1のユーザの外出時に同行者の付添いが必要なユーザ(例えば、子供等)である。第2のユーザは、第1のユーザの外出時に同行するユーザ(例えば、親、親以外の親族、保育士、又は教員等)である。
ここで、所定のエリア内で第1のユーザと第2のユーザとがはぐれた場合に、所定のエリア内に設置された複数のカメラ(例えば、監視カメラ等)を利用して第1のユーザの現在位置を特定し、特定された現在位置を第2のユーザに通知する方法が考えられる。斯様な方法によれば、第1のユーザの現在位置を効率的且つ速やかに特定することができる。また、第1のユーザの探索に割くことができる人手が少ない場合等であっても、第1のユーザの現在位置を特定することができる。しかしながら、特定された現在位置に第1のユーザが留まっているとは限らず、第2のユーザを探して移動し続けてしまう可能性がある。その場合、第1のユーザと第2のユーザとを速やかに合流させることが困難になる可能性がある。
これに対し、本開示に係る情報処理システムは、第2のユーザからはぐれた第1のユー
ザの現在位置を特定すると、その現在位置で第1のユーザにエンターテイメントを提供することで、第1のユーザの不要な移動を抑制することを特徴とする。斯様な情報処理システムでは、制御装置が、先ず、第1のユーザと第2のユーザとがはぐれたことを検出する処理を実行する。例えば、制御装置は、所定のエリア内に設置された複数のカメラによって撮影される画像に基づいて、第2のユーザから所定の距離以内に第1のユーザが存在しないことを検出してもよい。すなわち、第2のユーザから所定の距離以内に第1のユーザが存在しないことをもって、第1のユーザと第2のユーザとがはぐれたことが検出されてもよい。その際、第1のユーザと第2のユーザとを関連付けるデータを予め記憶装置に記憶させておけば、制御装置は、当該データを利用して第1のユーザから所定の距離以内に第2のユーザが存在するかを判別することができる。第1のユーザと第2のユーザとを関連付けるデータとしては、例えば、第1のユーザと第2のユーザとの各々の外観上の特徴(例えば、性別、年齢、身長、服装等)を関連付けたデータを用いてもよい。また、第1のユーザと第2のユーザとを関連付けるデータとしては、第1のユーザと第2のユーザとの各々の顔認証データを関連付けたデータを用いてもよい。
なお、第1のユーザと第2のユーザとの合意の下で、両者の距離が一時的に離れる場合も想定される。よって、第2のユーザから所定の距離以内に第1のユーザが存在しない状態が所定時間以上続いていることをもって、第1のユーザと第2のユーザとがはぐれたことが検出されてもよい。また、制御装置は、第1のユーザを捜索するための要求を第2のユーザから取得することで、第1のユーザと第2のユーザとがはぐれたことを検出してもよい。
第1のユーザと第2のユーザとがはぐれたことが検出されると、制御装置は、所定のエリア内に設置された複数のカメラによって撮影される画像と記憶装置に記憶されているデータとに基づいて、第1のユーザの現在位置を特定する。例えば、制御装置は、複数のカメラによって撮影される画像の中から、記憶装置に記憶されている第1のユーザのデータ(第1のユーザの外観上の特徴に関するデータ、又は第1のユーザの顔認証データ)と一致するユーザが写っている画像を抽出してもよい。そして、制御装置は、第1のユーザが写っている画像を撮影したカメラの位置又は撮影範囲に基づいて、第1のユーザの現在位置を特定してもよい。
第1のユーザの現在位置が特定されると、制御装置は、特定された現在位置において第1のユーザに対するエンターテイメントを提供する処理を実行する。例えば、制御装置は、第2のユーザの嗜好に適したデジタルコンテンツ(例えば、アニメーション等の動画、又はゲーム等)を、第2のユーザの近傍に位置するサイネージ装置から出力させてもよい。また、制御装置は、自律走行可能な遊具(例えば、アニメーションのキャラクタ若しくは動物等を模した自律走行型のロボット又は乗り物等)を、第1のユーザの現在位置に向けて運行させてもよい。なお、記憶装置は、第1のユーザと第2のユーザとを関連付けるデータに、第1のユーザの好むエンターテイメントに関する情報(以下、「嗜好情報」と記す場合もある。)を更に関連付けて記憶するようにしてもよい。その場合、制御装置は、記憶装置に記憶されている嗜好情報に基づいて、第1のユーザに提供されるエンターテイメントを決定してもよい。
また、第1のユーザの現在位置が特定されると、制御装置は、当該現在位置に関する情報である位置情報を、第2のユーザに通知する処理を実行する。その際、第2のユーザがスマートフォン等のユーザ端末を携帯していれば、当該ユーザ端末に位置情報が通知されてもよい。別法として、第2のユーザの近傍に位置する係員等を介して位置情報の通知が行われてもよく、又は第2のユーザの近傍に配置されているサイネージ装置を介して位置情報の通知が行われてもよい。なお、上記位置情報を第2のユーザに通知する処理において、制御装置は、複数のカメラで撮影される画像のうち、エンターテイメントの提供を受
けている第1のユーザが撮影されている画像を、位置情報とともに第1のユーザに通知してもよい。
本開示に係る情報処理システムによれば、第1のユーザが第2のユーザからはぐれてしまった場合に、人手に依存することなく、第1のユーザの現在位置を効率的且つ速やかに特定することができる。さらに、本開示に係る情報処理システムによれば、第1のユーザの現在位置において、該第1のユーザにエンターテイメントを提供することで、第1のユーザの不要な移動を抑制することができる。これにより、第1のユーザと第2のユーザとを速やかに合流させることも可能になる。
<実施形態>
以下、本開示の具体的な実施形態について図面に基づいて説明する。本実施形態に記載される構成部品の寸法、材質、形状、相対配置等は、特に記載がない限り開示の技術的範囲をそれらのみに限定する趣旨のものではない。
本実施形態では、所定のエリア内において同行者(第2のユーザ)からはぐれてしまったユーザ(第1のユーザ)を探索するためのシステム(以下、「ユーザ探索システム」と記す場合もある。)に本開示を適用する例について述べる。
(ユーザ探索システムの概要)
図1は、本実施形態におけるユーザ探索システムの概要を示す図である。本実施形態におけるユーザ探索システムは、サーバ装置100と、カメラ200と、サイネージ装置300と、ユーザ端末400と、を含んで構成される。
カメラ200は、所定のエリア内で人(ユーザ)が立ち入り得る場所を撮影する、所謂監視カメラである。本例では、図2に示すように、所定のエリア内でユーザが立ち入り得る場所を、区画1から区画NまでのN個の区画に区分けし、それらの区画の各々に少なくとも1つのカメラ200が設置される。その際、区画1から区画Nの各々の広さおよびまたは形状は、1台のカメラで当該区画の全域を撮影し得るように定められてもよい。なお、撮影角度およびまたは撮影位置の異なる複数のカメラが個々の区画に設置されてもよい。各カメラ200により撮影された画像は、リアルタイムでサーバ装置100へ送信されてもよく、又は所定の周期(例えば、数秒から数十秒の周期)でサーバ装置100へ送信されてもよい。
サイネージ装置300は、電子化された広告又は所定のエリアの案内図等の映像若しくは文字を表示する装置である。本例では、図2に示すように、上記した区画1から区画Nの各区画に少なくとも1つ配置される。また、サイネージ装置300は、第2のユーザからはぐれてしまった第1のユーザに対し、該第1のユーザの嗜好に見合ったデジタルコンテンツを提供する機能も有する。斯様なデジタルコンテンツの提供は、サーバ装置100からの要求に応じて行われる。
ユーザ端末400は、第2のユーザが携帯する小型のコンピュータである。ユーザ端末400は、例えば、スマートフォン、携帯電話、タブレットコンピュータ、ウェアラブルコンピュータ(スマートウォッチ等)等である。本例においては、ユーザ端末400は、第1のユーザの現在位置を示す情報(位置情報)をサーバ装置100から受信したときに、当該位置情報を第2のユーザに提示する機能も有する。例えば、ユーザ端末400は、第1のユーザの現在位置を示す画像をディスプレイに表示、又は第1のユーザの現在位置を示す音声メッセージをスピーカから出力する。
サーバ装置100は、第1のユーザと第2のユーザとがはぐれてしまった場合に、両ユ
ーザの合流を幇助するための情報処理装置である。サーバ装置100は、カメラ200で撮影された画像をモニタリングすることで、第1のユーザが第2のユーザからはぐれたことを検出する。斯様な検出の具体的な方法については後述する。第1のユーザが第2のユーザからはぐれたことが検出されると、サーバ装置100は、第1のユーザの現在位置を特定し、特定された現在位置に第1のユーザを足止めするための処理を行う。本例では、サーバ装置100は、第1のユーザの現在位置が属する区画に設置されているサイネージ装置300を利用して、第1のユーザの嗜好に見合ったエンターテイメントを提供する。例えば、サーバ装置100は、第1のユーザが好むキャラクタが出演しているアニメーション等の映像を、上記サイネージ装置300から表示させてもよい。なお、サイネージ装置300がゲーム機としての機能を有する場合は、サーバ装置100は、第1のユーザが好むビデオゲームのソフトウェアを、上記サイネージ装置300で実行させてもよい。また、本例のサーバ装置100は、特定された第1のユーザの現在位置を第2のユーザに通知する機能も有する。例えば、サーバ装置100は、第1のユーザの現在位置を示す情報(位置情報)を、第2のユーザのユーザ端末400へ送信する。
(サーバ装置100)
ここで、図1に示したユーザ探索システムに含まれるサーバ装置100の構成について、図3に基づいて説明する。図3は、図1に示したサーバ装置100の構成の一例を概略的に示したブロック図である。
サーバ装置100は、前述したように、第1のユーザと第2のユーザとがはぐれてしまった場合に、両ユーザの合流を幇助するための情報処理装置である。斯様なサーバ装置100は、汎用のコンピュータにより構成することができる。例えば、サーバ装置100は、プロセッサ(CPU、又はGPU等)と、主記憶装置(RAM、又はROM等)と、補助記憶装置(EPROM、ハードディスクドライブ、又はリムーバブルメディア等)と、を含んで構成される。リムーバブルメディアは、例えば、USBメモリ、CD、又はDVD等の記録媒体でもよい。補助記憶装置には、オペレーティングシステム(OS)、各種プログラム、及び各種テーブル等が格納される。プロセッサが補助記憶装置に格納されたプログラムを実行することで、後述するような、所定の目的に合致した各機能を実現する。なお、サーバ装置100の一部又は全部の機能は、ASIC又はFPGA等のハードウェア回路で実現されてもよい。
本例におけるサーバ装置100は、図3に示すように、通信部101、制御部102、及び記憶部103を有して構成される。なお、サーバ装置100の構成は、図3に示す例に限らず、適宜構成要素の省略、置換、追加が行われてもよい。
通信部101は、サーバ装置100をネットワークに接続する。例えば、通信部101は、LAN(Local Area Network)、WAN(Wide Area Network)、又はWi-Fi(
登録商標)等の通信網を利用して、ネットワーク経由でカメラ200又はサイネージ装置300等との通信を行う。また、通信部101は、5G(5th-Generation)若しくはLTE(Long Term Evolution)等の移動体通信サービス、又はWi-Fi等の無線通信網を
利用して、第2のユーザのユーザ端末400等と通信を行う。
制御部102は、CPU等のプロセッサにより構成され、サーバ装置100の制御を司る。本例における検出部1021、特定部1022、提供部1023、及び通知部1024等の機能モジュールを有する。これらの機能モジュールは、記憶部103に格納されているプログラムをプロセッサが実行することで実現される。
検出部1021は、所定のエリア内において第1のユーザと第2のユーザとがはぐれたことを検出する。具体的には、検出部1021は、各区画に設置されているカメラ200
で撮影された画像の中から、第2のユーザが写っている画像(以下、「第1の画像」と記す場合もある。)を特定する。第1の画像を特定する処理は、後述の記憶部103に記憶されているデータ(例えば、第2のユーザの顔認証データ等)に基づいて行われる。第1の画像が特定されると、検出部1021は、第1の画像、及び第1の画像の対象区画に隣接する区画が撮影された画像(以下、「関連画像」と記す場合もある。)に基づいて、第2のユーザから所定の距離以内に第1のユーザが写っているかを判定する。例えば、検出部1021は、先ず、第1の画像及び関連画像から、第2のユーザから所定の距離以内の画像(第2のユーザを中心として半径が所定の距離となる円の内部の画像)をトリミングする。続いて、検出部1021は、トリミングされた画像の中に第1のユーザが写っているかを判定する。斯様な判定処理は、後述の記憶部103に記憶されているデータ(例えば、第1のユーザの顔認証データ)に基づいて行われる。そして、トリミングされた画像の中に第1のユーザが写っていなければ、第1のユーザと第2のユーザとがはぐれている判定する。一方、トリミングされた画像の中に第1のユーザが写っていれば、第1のユーザと第2のユーザとがはぐれていないと判定する。
なお、検出部1021は、トリミングされた画像の中に第1のユーザが写っていない状態が所定時間以上続いていることをもって、第1のユーザと第2のユーザとがはぐれていると判定してもよい。斯様な方法によれば、第1のユーザと第2のユーザとの合意の下で両者の距離が一時的に所定の距離より大きくなっている場合と、第1のユーザと第2のユーザとの合意無しに両者の距離が所定の距離より大きくなっている場合と、を区別することができる。
特定部1022は、第1のユーザと第2のユーザとがはぐれていることが検出された場合に、第1のユーザの現在位置を特定する。具体的には、特定部1022は、各区画に設置されているカメラ200で撮影された画像の中から、第1のユーザが写っている画像(以下、「第2の画像」と記す場合もある。)を抽出する。第2の画像を抽出する処理は、後述の記憶部103に記憶されているデータ(例えば、第1のユーザの顔認証データ等)に基づいて行われる。第2の画像が抽出されると、特定部1022は、該第2の画像を撮影したカメラが設置されている区画(第2の画像の対象区画)を、第1のユーザの現在位置に特定する。なお、特定部1022は、第2の画像の対象区画に加え、当該対象区画において第1のユーザの近傍に位置する目印(例えば、建造物、看板、又は展示物等)も特定してもよい。
提供部1023は、特定部1022によって特定された第1のユーザの現在位置に基づいて、第1のユーザに対するエンターテイメントの提供を行う。具体的には、提供部1023は、先ず、第1のユーザの嗜好に見合ったエンターテイメントを決定する。斯様なエンターテイメントを決定する処理は、後述の記憶部103に記憶されているデータ(例えば、第1のユーザの嗜好情報等)に基づいて行われる。その際、例えば、第1のユーザがアニメーション等に出演している特定のキャラクタを嗜好していれば、提供部1023は、当該キャラクタが出演している映像を、第1のユーザの嗜好に見合ったエンターテイメントに決定する。また、第1のユーザが特定のビデオゲームを嗜好していれば、提供部1023は、当該ビデオゲームを、第1のユーザの嗜好に見合ったエンターテイメントに決定する。第1のユーザの嗜好に見合ったエンターテイメントが決定されると、提供部1023は、第1のユーザの現在位置が属する区画に設置されているサイネージ装置300に対し、提供指令を送信する。ここでいう「提供指令」は、例えば、上記エンターテイメントをサイネージ装置300から第1のユーザへ提供させるための指令である。なお、上記エンターテイメントをサイネージ装置300から提供させる際に、提供部1023は、第2のユーザが迎えに行くまで現在位置に留まっていることを第1のユーザに促すためのメッセージを、当該サイネージ装置300から表示させてもよい。
通知部1024は、特定部1022によって特定された第1のユーザの現在位置を、第2のユーザに通知する。具体的には、通知部1024は、先ず、第2の画像の対象区画を示す情報(及び、対象区画において第1のユーザの近傍に位置する目印を示す情報)を含む位置情報を生成する。続いて、通知部1024は、生成された位置情報を、通信部101を介して第2のユーザのユーザ端末400へ送信する。位置情報の送信は、後述の記憶部103に記憶されているデータ(例えば、ユーザ端末400のメールアドレス等)に基づいて行われる。なお、上記した位置情報には、エンターテイメントの提供を受けている第1のユーザを撮影した画像が含まれてもよい。これにより、第2のユーザは、サーバ装置100により特定されたユーザが第1のユーザで間違えないかの確認を行うことができるとともに、第1のユーザの様子を把握することができる。
記憶部103は、各種の情報を記憶する。記憶部103は、例えば、RAM、磁気ディスク、又はフラッシュメモリ等の記憶媒体により構成される。記憶部103には、プロセッサにより実行される各種プログラム、及び各種データ等が記憶される。本例では、記憶部103には、ユーザ管理DB1031が構築される。ユーザ管理DB1031は、プロセッサによって実行されるDBMS(Database Management System)のプログラムが、補助記憶部に記憶されるデータを管理することで構築される。ユーザ管理DB1031は、例えば、リレーショナルデータベースである。
ユーザ管理DB1031は、第1のユーザと該第1のユーザに同行している第2のユーザとを関連付けたデータが格納される。ここで、ユーザ管理DB1031に格納されるデータの一構成例について、図4に基づいて説明する。図4は、ユーザ管理DB1031に格納されるデータのテーブル構成を例示する図である。ユーザ管理DB1031に格納されるテーブル(以下、「ユーザ情報テーブル」と記す場合もある。)は、図4に示すように、グループID、第1の顔認証データ、第2の顔認証データ、嗜好、及び連絡先等の各フィールドを有する。グループIDフィールドには、第1のユーザと該第1のユーザに同行している第2のユーザとを含むグループを識別するための情報(グループID)が登録される。斯様なグループIDは、各ユーザ情報テーブルがユーザ管理DB1031に登録される際に付与される。第1の顔認証データフィールドには、第1のユーザの顔を識別するための顔認証データ(以下、「第1の顔認証データ」と記す場合もある。)が登録される。第2の顔認証データフィールドには、第2のユーザの顔を識別するための顔認証データ(以下、「第2の顔認証データ」と記す場合もある。)が登録される。嗜好フィールドには、第1のユーザの好むエンターテイメントに関する情報(嗜好情報)が登録される。例えば、第1のユーザが好む特定のキャラクタを示す情報、又は第1のユーザが好む特定のビデオゲームを示す情報等が嗜好フィールドに登録される。連絡先フィールドには、第2のユーザの連絡先を示す情報が登録される。本例では、第2のユーザが携帯するユーザ端末400のメールアドレスを示す情報が連絡先フィールドに登録される。
ここで、ユーザ情報テーブルの第1の顔認証データフィールド、第2の顔認証データフィールド、嗜好フィールド、及び連絡先フィールドに登録される情報は、第1のユーザ及び第2のユーザが所定のエリアに入場する際に登録されてもよい。その際、第1の顔認証データと第2の顔認証データとは、第1のユーザ及び第2のユーザが所定のエリアに入場する際にカメラ200で撮影された画像から生成されてもよい。また、第1のユーザの嗜好情報と第2のユーザの連絡先に関する情報とは、第2のユーザがユーザ端末400を介してサーバ装置100に登録してもよい。なお、第1の顔認証データ、第2の顔認証データ、嗜好情報、及び連絡先に関する情報は、第1のユーザ及び第2のユーザが所定のエリアに入場する前に、第2のユーザによってサーバ装置100に事前登録されてもよい。
なお、上記したようなユーザ管理DB1031は、外部装置で構築されてもよい。そして、サーバ装置100と外部装置とをネットワークを介して接続することで、サーバ装置
100が適宜にユーザ管理DB1031にアクセスすることができるようにしてもよい。
上記したように構成されるサーバ装置100で実行される一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。
(処理の流れ)
次に、本例におけるサーバ装置100で行われる処理フローについて、図5に基づいて説明する。図5は、サーバ装置100で繰り返し実行される処理フローを示すフローチャートである。なお、図5に示す処理フローは、記憶部103のユーザ管理DB1031に登録されているグループ(第1のユーザと第2のユーザとの組合せ)毎に繰り返し実行される。
図5の処理ルーチンでは、サーバ装置100の検出部1021が、各カメラ200で撮影された画像を、通信部101を通じて取得する(ステップS101)。次いで、検出部1021は、ステップS101で取得された複数の画像の中から、第2のユーザが写っている画像(第1の画像)を特定する(ステップS102)。具体的には、検出部1021は、先ず、ユーザ管理DB1031のユーザ情報テーブルにアクセスして、第2の顔認証データフィールドに登録されている第2の顔認証データを読み出す。続いて、検出部1021は、ステップS101で取得した複数の画像の各々と第2の顔認証データとを照合することで、第2の顔認証データに適合する顔が写っている画像を抽出し、当該画像を第1の画像として特定する。
検出部1021は、ステップS102で特定された第1の画像に基づいて、第1のユーザと第2のユーザとがはぐれているかを判定する(ステップS103)。具体的には、検出部1021は、先ず、ステップS101で取得された複数の画像の中から、第1の画像と、第1の画像の対象区画に隣接する区画を撮影した画像(関連画像)と、を抽出する。続いて、検出部1021は、第1の画像及び関連画像から、第2のユーザから所定の距離以内の画像をトリミングする。また、検出部1021は、ステップS102で第2の顔認証データの読み出し対象となったユーザ情報テーブルから、第1の顔認証データフィールドに登録されている第1の顔認証データを読み出す。そして、検出部1021は、上記でトリミングされた画像と第1の顔認証データとを照合することで、トリミングされた画像の中に第1の顔認証データに適合する顔が写っているかを判定する。その際、トリミングされた画像の中に第1の顔認証データに適合する顔が写っていれば、第2のユーザから所定の距離以内の範囲に第1のユーザが存在していることになる。そのため、検出部1021は、第1のユーザと第2のユーザとがはぐれていないと判定する(ステップS103で否定判定)。その場合、当該処理フローが一旦終了される。一方、トリミングされた画像の中に第1の顔認証データに適合する顔が写っていなければ、第2のユーザから所定の距離以内の範囲に第1のユーザが存在していないことになる。そのため、検出部1021は、第1のユーザと第2のユーザとがはぐれていると判定する(ステップS103で肯定判定)。その場合、ステップS104からステップS109の処理が実行される。
なお、検出部1021は、前述したように、トリミングされた画像の中に第1の顔認証データに適合する顔が写っていない状態が所定時間以上続いていることをもって、第1のユーザと第2のユーザとがはぐれていると判定してもよい。その場合、第1のユーザと第2のユーザとの合意に下で両者の距離が一時的に所定の距離より大きくなった場合に、第1のユーザと第2のユーザとがはぐれていると判定されることを抑制することができる。
ステップS104では、サーバ装置100の特定部1022が、ステップS101で取得された複数の画像の中から、第1のユーザが写っている画像(第2の画像)を抽出する。具体的には、特定部1022は、ステップS101で取得された複数の画像の各々とス
テップS103で読み出された第1の顔認証データとを照合することで、第1の顔認証データに一致する顔が写っている画像を抽出し、当該画像を第2の画像として抽出する。
ステップS105では、特定部1022が、ステップS104で抽出された第2の画像に基づいて、第1のユーザの現在位置を特定する。具体的には、特定部1022は、第2の画像を撮影したカメラ200が設置されている区画(第2の画像の対象区画)を、第1のユーザの現在位置として特定する。斯様にして特定された第1のユーザの現在位置は、特定部1022から提供部1023へ渡される。
ステップS106では、サーバ装置100の提供部1023が、第1のユーザの嗜好情報を取得する。具体的には、ステップS103で第1の顔認証データの読み出し対象となったユーザ情報テーブルから、嗜好フィールドに登録されている嗜好情報を読み出す。
ステップS107では、提供部1023が、第1のユーザに提供されるエンターテイメントを決定する。具体的には、提供部1023は、ステップS106で読み出された嗜好情報に基づいて、第1のユーザに提供されるエンターテイメントを決定する。その際、第1のユーザの嗜好情報がアニメーション等に出演している特定のキャラクタを示す情報であれば、提供部1023は、当該キャラクタが出演しているアニメーション等の映像を、第1のユーザの提供されるエンターテイメントに決定する。また、第1のユーザの嗜好情報が特定のビデオゲームを示す情報であれば、提供部1023は、当該ビデオゲームを、第1のユーザに提供されるエンターテイメントに決定する。
ステップS108では、提供部1023が、ステップS105で特定された区画(第1のユーザの現在位置が属する区画)に設定されているサイネージ装置300に対し、提供指令を送信する。提供指令は、ステップS107で決定されたエンターテイメントを第1のユーザに提供するための指令である。ここで、ステップS107で決定されたエンターテイメントがアニメーション等の映像であれば、提供指令は、当該映像をサイネージ装置300から出力させるための指令となる。その際の提供指令には、当該映像のデータが含まれてもよい。また、ステップS107で決定されたエンターテイメントがビデオゲームであれば、提供指令は、当該ビデオゲームのソフトウェアをサイネージ装置300に実行させるための指令となる。その際の提供指令には、当該ビデオゲームのソフトウェアが含まれてもよい。上記したような提供指令を受信したサイネージ装置300では、第1のユーザが嗜好するキャラクタが出演している映像が出力され、又は第1のユーザが嗜好するビデオゲームのソフトウェアが実行される。これにより、第1のユーザの注意をサイネージ装置300に向けることができる。その結果、ステップS105で特定された区画から他の区画へ第1のユーザが移動してしまうことを抑制することができる。すなわち、第1のユーザを、ステップS105で特定された区画に足止めしておくことができる。
なお、提供指令には、第2のユーザが迎えに行くまで現在位置に留まっていることを促すためのメッセージを、サイネージ装置300から出力させるための指令が含まれてもよい。上記したようなメッセージがサイネージ装置300から出力されると、ステップS105で特定された区画から他の区画へ第1のユーザが移動してしまうことをより確実に抑制することができる。
ステップS109では、サーバ装置100の通知部1024が、第2のユーザのユーザ端末400に対し、第1のユーザの現在位置を示す情報(位置情報)を送信する。具体的には、通知部1024は、先ず、ステップS102で第2の顔認証データの読み出し対象となったユーザ情報テーブルから、連絡先フィールドに登録されている情報(ユーザ端末400のメールアドレス)を読み出す。次いで、通知部1024は、通信部101から上記メールアドレスへ向けて、第1のユーザの位置情報を送信する。斯様な位置情報を受信
したユーザ端末400では、第1のユーザの現在位置を示す情報(第1のユーザが位置している区画を示す情報)がディスプレイ又はスピーカ等から出力される。なお、サーバ装置100からユーザ端末400へ送信される位置情報には、第2のユーザが位置している区画から第1のユーザが位置している区画までの経路を示す地図データ、およびまたは第1のユーザを撮影した画像が含まれてもよい。位置情報に含められる第1のユーザの画像は、ステップS104で抽出された第2の画像でもよく、サイネージ装置300に併設されるカメラで撮影された画像でもよい。その場合、第2のユーザがより速やかに第1のユーザの現在位置へたどり着いたり、第2のユーザが第1のユーザの現在の様子を把握したりすることが可能になる。
図5の処理フローによれば、所定のエリア内において第1のユーザが第2のユーザからはぐれてしまった場合に、第1のユーザの現在位置を速やか且つ効率的に特定することができる。また、図5の処理フローによれば、第1のユーザの現在位置において該第1のユーザの嗜好に見合ったエンターテイメントを提供することで、第1のユーザを現在位置に足止めしておくことができる。これにより、第2のユーザが第1のユーザを迎えに行くまでの間に、第1のユーザが現在位置から移動してしまうことを抑制することもできる。その結果、第1のユーザと第2のユーザとを効率的に合流させることができる。
<変形例1>
前述した実施形態では、サイネージ装置300を利用して、第1のユーザにエンターテイメントを提供する例について述べたが、動物又はキャラクタを模した自律走行型のロボットを利用して、第1のユーザにエンターテイメントを提供してもよい。その場合、ユーザ情報テーブルの嗜好フィールドには、第1のユーザが好む動物又はキャラクタを示す情報が登録されてもよい。そして、第1のユーザに提供されるエンターテイメントを決定する際に、提供部1023は、第1のユーザの嗜好情報に基づいて、ロボットを決定してもよい。例えば、第1の情報の嗜好情報が特定の動物を示す情報である場合は、提供部1023は、当該動物を模したロボットを選択する。続いて、提供部1023は、選択されたロボットを、第1のユーザの現在位置まで自律走行させるための運行指令を生成する。その際の運行指令は、例えば、第1のユーザの現在位置までロボットを自律走行させるための指令、及び第1のユーザの現在位置においてロボットを第1のユーザと遊ばせるための指令等を含む。斯様な運行指令は、通信部101を介して、サーバ装置100からロボットへ送信される。
上記運行指令を受信したロボットは、当該運行指令に従って運行することで、第1のユーザの現在位置へ移動する。そして、第1のユーザの現在位置において、ロボットが第1のユーザと一緒に遊ぶことで、第1のユーザを現在位置に足止めすることができる。
なお、上記ロボットがマイクロモビリティの機能を有する場合は、提供部1023は、以下の第1から第3の指令を含む運行指令を生成し、生成された運行指令を対象のロボットへ送信してもよい。
(第1の指令)第1のユーザの現在位置までロボットを自律走行させるための指令
(第2の指令)第1のユーザの現在位置においてロボットに第1のユーザを乗車させるための指令
(第3の指令)第1のユーザの現在位置から第2のユーザの位置までロボットを自律走行させるための指令
その場合、第1のユーザを現在位置に足止めさせておくことはできないものの、第1のユーザの不用意な移動を抑制することができるとともに、第1のユーザと第2のユーザとの効率的な合流を実現することができる。
<変形例2>
前述した実施形態では、第1のユーザの位置情報を、ユーザ端末400を介して第2のユーザに通知する例について述べたが、第2のユーザの最寄りに位置するサイネージ装置300を介して、第1のユーザの位置情報が第2のユーザに通知されてもよい。
本変形例では、第1のユーザの位置情報を第2のユーザに通知する際に、通知部1024が、先ず、第2のユーザの現在位置を特定する。その際、通知部1024は、前述の第1の画像を撮影したカメラ200が設置されている区画(第1の画像の対象区画)を、第2のユーザの現在位置に特定してもよい。そして、通知部1024は、特定された区画に設置されているサイネージ装置300に、第1のユーザの位置情報を表示させてもよい。これにより、第2のユーザがユーザ端末400を携帯していない場合、又はユーザ端末400の連絡先が不明な場合等であっても、第1のユーザの位置情報を第2のユーザに知らせることができる。
また、第1のユーザの位置情報は、第2のユーザのユーザ端末400に送信されるとともに、第2のユーザの最寄りのサイネージ装置300から表示されるようにしてもよい。その場合、第2のユーザがユーザ端末400を携帯しているか否かに関わらず、第1のユーザの位置情報を第2のユーザに通知することができる。
<変形例3>
前述した実施形態では、カメラ200で撮影された画像に基づいて、第1のユーザと第2のユーザとがはぐれたことを検出する例について述べたが、第2のユーザからの要求に基づいて第1のユーザと第2のユーザとがはぐれたことを検出してもよい。
本変形例では、第2のユーザは、ユーザ端末400又は最寄りのサイネージ装置300を利用して、サーバ装置100に対する捜索要求を行う。ここでいう捜索要求は、第2のユーザとはぐれてしまった第1のユーザを捜索するための要求である。斯様な捜索要求には、例えば、当該第2のユーザと第1のユーザとに割り当てられたグループID、又は第2のユーザの顔画像が含まれる。第2のユーザの顔画像は、ユーザ端末400で撮影された画像でもよく、又はサイネージ装置300に併設されるカメラで撮影された画像でもよい。
上記捜索要求をサーバ装置100が受け付けると、検出部1021が、ユーザ管理DB1031にアクセスして、第1のユーザと第2のユーザとが関連付けられているユーザ情報テーブルを特定する。その際、捜索要求にグループIDが含まれていれば、検出部1021は、ユーザ管理DB1031に格納されているユーザ情報テーブルの中から、当該グループIDと一致する情報がグループIDフィールドに登録されているユーザ情報テーブルを特定すればよい。また、捜索要求に第2のユーザの顔画像が含まれている場合は、検出部1021は、ユーザ管理DB1031に格納されているユーザ情報テーブルの中から、当該顔画像に適合する顔認証データが第2の顔認証データフィールドに登録されているユーザ情報テーブルを特定すればよい。斯様にしてユーザ情報テーブルが特定されると、前述の実施形態と同様の手順により、第1のユーザの現在位置の特定、第1のユーザに対するエンターテイメントの提供、及び第2のユーザに対する位置情報の通知を行うことができる。
<その他>
上記した実施形態及び変形例はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施し得る。例えば、サーバ装置100で行われる処理の一部又は全ては、ユーザ端末400で行われてもよい。その場合、第1のユーザにエンターテイメントを提供するための処理のみがサーバ装置100で行われ、その他の処理がユーザ端
末400で行われてもよい。また、第1のユーザにエンターテイメントを提供するための処理に加え、コンピュータの演算負荷が大きくなり易い処理(例えば、カメラ200で撮影された画像と第1の顔認証データとを照合する処理)がサーバ装置100で行われ、その他の処理がユーザ端末400で行われてもよい。
また、本開示において説明した処理及び手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。例えば、実施形態と変形例1-3は、可能な限り組み合わせて実施することができる。さらに、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。あるいは、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。コンピュータシステムにおいて、各機能をどのようなハードウェア構成で実現するかは柔軟に変更可能である。
また、本開示は、上記の実施形態で説明した機能を実装したコンピュータプログラム(情報処理プログラム)をコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよく、又はネットワークを介してコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、データ及びプログラム等の情報を電気的、磁気的、光学的、機械的、又は化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体である。斯様な記録媒体としては、例えば、磁気ディスク(フロッピー(登録商標)ディスク、又はハードディスクドライブ(HDD)等)、光ディスク(CD-ROM、又はDVDディスク・ブルーレイディスク等)等の任意のタイプのディスクを例示することができる。また、記録媒体は、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、又はSSD(Solid State Drive)
等の媒体でもよい。
100 サーバ装置
101 通信部
102 制御部
1021 検出部
1022 特定部
1023 提供部
1024 通知部
103 記憶部
1031 ユーザ管理DB
200 カメラ
300 サイネージ装置
400 ユーザ端末

Claims (20)

  1. 所定のエリア内に設置される複数のカメラと、
    前記所定のエリアに入場している第1のユーザと該第1のユーザに同行するユーザである第2のユーザとを関連付けるデータを記憶する記憶装置と、
    前記第1のユーザと前記第2のユーザとがはぐれたことを検出する処理と、前記複数のカメラにより撮影される画像と前記記憶装置に記憶されているデータとに基づいて、前記第1のユーザの現在位置を特定する処理と、前記特定された現在位置において前記第1のユーザに対するエンターテイメントを提供する処理と、前記特定された現在位置に関する情報である位置情報を、前記第2のユーザに通知する処理と、を実行する制御装置と、
    を備える、情報処理システム。
  2. 前記エンターテイメントを前記第1のユーザに提供する処理において、前記制御装置は、前記第1のユーザの嗜好に適したデジタルコンテンツを、前記第1のユーザの現在位置の近傍に配置されているサイネージ装置から出力させる、
    請求項1に記載の情報処理システム。
  3. 前記エンターテイメントを前記第1のユーザに提供する処理において、前記制御装置は、自律走行可能な遊具を、前記第1のユーザの現在位置に向けて運行させる、
    請求項1に記載の情報処理システム。
  4. 前記位置情報を前記第2のユーザに通知する処理において、前記制御装置は、前記複数のカメラで撮影される画像のうち、前記エンターテイメントの提供を受けている前記第1のユーザが撮影されている画像を、前記位置情報とともに前記第2のユーザに通知する、請求項1から3の何れか1項に記載の情報処理システム。
  5. 前記第1のユーザと前記第2のユーザとがはぐれたことを検出する処理において、前記制御装置は、前記複数のカメラにより撮影される画像に基づいて、前記第2のユーザから所定の距離以内に前記第1のユーザが存在しないことを検出する、
    請求項1から4の何れか1項に記載の情報処理システム。
  6. 前記第1のユーザと前記第2のユーザとがはぐれたことを検出する処理において、前記制御装置は、前記複数のカメラにより撮影される画像に基づいて、前記第2のユーザから所定の距離以内に前記第1のユーザが存在しない状態が所定時間以上続いていることを検出する、
    請求項1から4の何れか1項に記載の情報処理システム。
  7. 前記第1のユーザと前記第2のユーザとがはぐれたことを検出する処理において、前記制御装置は、前記第1のユーザを捜索するための要求を、前記第2のユーザから取得する、
    請求項1から4の何れか1項に記載の情報処理システム。
  8. 前記記憶装置は、前記第1のユーザの顔認証データと前記第2のユーザの顔認証データとを関連付けたデータを記憶する、
    請求項1から7の何れか1項に記載の情報処理システム。
  9. 前記第1のユーザの現在位置を特定する処理において、前記制御装置は、前記記憶装置に記憶されている前記第1のユーザの顔認証データと前記複数のカメラにより撮影される画像とに基づいて、前記第1のユーザの現在位置を特定する、
    請求項8に記載の情報処理システム。
  10. 前記記憶装置は、前記第1のユーザの顔認証データと前記第2のユーザの顔認証データとに、前記第1のユーザの嗜好に関する情報を更に関連付けたデータを記憶しており、
    前記エンターテイメントを前記第1のユーザに提供する処理において、前記制御装置は、前記第1のユーザの嗜好に関する情報に基づいて、前記第1のユーザに提供するエンターテイメントを決定する、
    請求項8又は9に記載の情報処理システム。
  11. 所定のエリアに入場している第1のユーザと該第1のユーザに同行するユーザである第2のユーザとを関連付けるデータを記憶する記憶部と、
    前記第1のユーザと前記第2のユーザとがはぐれたことを検出する処理と、前記所定のエリア内に設置される複数のカメラにより撮影される画像と前記記憶部に記憶されているデータとに基づいて、前記第1のユーザの現在位置を特定する処理と、前記特定された現在位置において前記第1のユーザに対するエンターテイメントを提供する処理と、前記特定された現在位置に関する情報である位置情報を、前記第2のユーザに通知する処理と、を実行する制御部と、
    を備える、情報処理装置。
  12. 前記エンターテイメントを前記第1のユーザに提供する処理において、前記制御部は、前記第1のユーザの嗜好に適したデジタルコンテンツを、前記第1のユーザの現在位置の近傍に配置されているサイネージ装置から出力させる、
    請求項11に記載の情報処理装置。
  13. 前記エンターテイメントを前記第1のユーザに提供する処理において、前記制御部は、自律走行可能な遊具を、前記第1のユーザの現在位置に向けて運行させる、
    請求項11に記載の情報処理装置。
  14. 前記位置情報を前記第2のユーザに通知する処理において、前記制御部は、前記複数のカメラで撮影される画像のうち、前記エンターテイメントの提供を受けている前記第1のユーザが撮影される画像を、前記位置情報とともに前記第2のユーザに通知する、
    請求項11から13の何れか1項に記載の情報処理装置。
  15. 前記第1のユーザと前記第2のユーザとがはぐれたことを検出する処理において、前記制御部は、前記複数のカメラにより撮影される画像に基づいて、前記第2のユーザから所定の距離以内に前記第1のユーザが存在しないことを検出する、
    請求項11から14の何れか1項に記載の情報処理装置。
  16. 前記第1のユーザと前記第2のユーザとがはぐれたことを検出する処理において、前記制御部は、前記複数のカメラにより撮影される画像に基づいて、前記第2のユーザから所定の距離以内に前記第1のユーザが存在しない状態が所定時間以上続いていることを検出する、
    請求項11から14の何れか1項に記載の情報処理装置。
  17. 前記第1のユーザと前記第2のユーザとがはぐれたことを検出する処理において、前記制御部は、前記第1のユーザを捜索するための要求を、前記第2のユーザから取得する、請求項11から14の何れか1項に記載の情報処理装置。
  18. 前記記憶部は、前記第1のユーザの顔認証データと前記第2のユーザの顔認証データとを関連付けたデータを記憶する、
    請求項11から17の何れか1項に記載の情報処理装置。
  19. 前記記憶部は、前記第1のユーザの顔認証データと前記第2のユーザの顔認証データとに、前記第1のユーザの嗜好に関する情報を更に関連付けたデータを記憶しており、
    前記エンターテイメントを前記第1のユーザに提供する処理において、前記制御部は、前記第1のユーザの嗜好に関する情報に基づいて、前記第1のユーザに提供するエンターテイメントを決定する、
    請求項18に記載の情報処理装置。
  20. 所定のエリアに入場している第1のユーザと該第1のユーザに同行するユーザである第2のユーザとがはぐれたことを検出するステップと、
    前記第1のユーザと前記第2のユーザとを関連付けるデータを取得するステップと、
    前記所定のエリア内に設置される複数のカメラにより撮影される画像と、前記第1のユーザと前記第2のユーザとを関連付けるデータと、に基づいて、前記第1のユーザの現在位置を特定するステップと、
    前記特定された現在位置において前記第1のユーザに対するエンターテイメントを提供するステップと、
    前記特定された現在位置に関する情報である位置情報を、前記第2のユーザに通知するステップと、
    をコンピュータが実行する、
    情報処理方法。
JP2020115047A 2020-07-02 2020-07-02 情報処理システム、情報処理装置、及び情報処理方法 Withdrawn JP2022012890A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020115047A JP2022012890A (ja) 2020-07-02 2020-07-02 情報処理システム、情報処理装置、及び情報処理方法
US17/357,207 US20220005336A1 (en) 2020-07-02 2021-06-24 Information processing system, information processing apparatus, and information processing method
CN202110734600.0A CN113888763A (zh) 2020-07-02 2021-06-30 信息处理系统、信息处理装置、以及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020115047A JP2022012890A (ja) 2020-07-02 2020-07-02 情報処理システム、情報処理装置、及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2022012890A true JP2022012890A (ja) 2022-01-17

Family

ID=79010700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020115047A Withdrawn JP2022012890A (ja) 2020-07-02 2020-07-02 情報処理システム、情報処理装置、及び情報処理方法

Country Status (3)

Country Link
US (1) US20220005336A1 (ja)
JP (1) JP2022012890A (ja)
CN (1) CN113888763A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI731673B (zh) * 2020-05-08 2021-06-21 雲云科技股份有限公司 影像睡眠分析方法及其系統

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7535369B2 (en) * 2006-01-20 2009-05-19 Fong Gordon D Method and apparatus for a wireless tether system
JP6238542B2 (ja) * 2013-03-27 2017-11-29 株式会社メガチップス 迷子捜索システム、プログラムおよび迷子捜索方法
US20160157074A1 (en) * 2014-11-30 2016-06-02 Raymond Anthony Joao Personal monitoring apparatus and method
KR20160096256A (ko) * 2015-02-04 2016-08-16 (주)싸이월드 보호자 디바이스, 피보호자 모니터링 시스템 및 그 방법
US20200092678A1 (en) * 2018-09-13 2020-03-19 Safe Subs, Llc Method and appartus for entity checkin-in and tracking
JP7215936B2 (ja) * 2019-03-08 2023-01-31 本田技研工業株式会社 迷子予防支援システム
CN111325954B (zh) * 2019-06-06 2021-09-17 杭州海康威视系统技术有限公司 人员走失预警方法、装置、系统及服务器
CN110718041B (zh) * 2019-09-18 2021-08-10 恒大智慧科技有限公司 一种防止儿童走失方法、装置、系统及存储介质
US20220084386A1 (en) * 2020-09-14 2022-03-17 Linda Diane Flores Lopez Find Me FM
JP2022124229A (ja) * 2021-02-15 2022-08-25 パナソニックIpマネジメント株式会社 顔認証システム、顔認証方法、情報処理端末およびその制御方法

Also Published As

Publication number Publication date
US20220005336A1 (en) 2022-01-06
CN113888763A (zh) 2022-01-04

Similar Documents

Publication Publication Date Title
KR102296764B1 (ko) 상품을 판매 및 추천하는 온라인 플랫폼에 관한 서버
WO2021175062A1 (zh) 服务提供方法、装置、终端及存储介质
US20190332872A1 (en) Information push method, information push device and information push system
US10747991B2 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
US9594807B2 (en) Emotion-related query processing
JP7405200B2 (ja) 人物検出システム
CN109686049B (zh) 公共场所内儿童落单提醒方法、装置、介质及电子设备
JP5935516B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5895716B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN103513890A (zh) 一种基于图片的交互方法、装置和服务器
US20180211507A1 (en) Information processing apparatus, information processing method, and program
WO2014048105A1 (zh) 人机交互数据处理方法和装置
JP2017211932A (ja) 情報処理装置、情報処理システム、プログラム及び情報処理方法
WO2020015682A1 (zh) 无人机控制系统和方法
US20190340197A1 (en) System and method for controlling camera and program
KR20210075188A (ko) 전시 대상 제어 방법, 장치, 전자 디바이스 및 기록 매체
CN109618100A (zh) 现场拍摄图像的判断方法、装置及系统
JP2022012890A (ja) 情報処理システム、情報処理装置、及び情報処理方法
JP6183489B2 (ja) 情報処理システム、情報処理方法、及びプログラム
JP2020119284A (ja) 情報処理装置、情報処理方法及びプログラム
US20180229115A1 (en) Intelligent service system, apparatus, and method for simulators
CN113724454B (zh) 移动设备的互动方法、移动设备、装置及存储介质
US10814487B2 (en) Communicative self-guiding automation
WO2022019692A1 (ko) 애니메이션을 저작하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
JP2019192145A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220622

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20230627