JP6767664B1 - 情報処理システム、情報処理装置およびプログラム - Google Patents

情報処理システム、情報処理装置およびプログラム Download PDF

Info

Publication number
JP6767664B1
JP6767664B1 JP2019195113A JP2019195113A JP6767664B1 JP 6767664 B1 JP6767664 B1 JP 6767664B1 JP 2019195113 A JP2019195113 A JP 2019195113A JP 2019195113 A JP2019195113 A JP 2019195113A JP 6767664 B1 JP6767664 B1 JP 6767664B1
Authority
JP
Japan
Prior art keywords
speaker
rotation angle
target person
coordinates
head position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019195113A
Other languages
English (en)
Other versions
JP2021069079A (ja
Inventor
和利 谷山
和利 谷山
加藤 圭
圭 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Client Computing Ltd
Original Assignee
Fujitsu Client Computing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Client Computing Ltd filed Critical Fujitsu Client Computing Ltd
Priority to JP2019195113A priority Critical patent/JP6767664B1/ja
Priority to GB2013486.2A priority patent/GB2589950A/en
Application granted granted Critical
Publication of JP6767664B1 publication Critical patent/JP6767664B1/ja
Publication of JP2021069079A publication Critical patent/JP2021069079A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/026Supports for loudspeaker casings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/323Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Image Analysis (AREA)

Abstract

【課題】システム規模の増加を抑えて、効率よく所定の空間内に位置する人物に対して音声通知を行う。【解決手段】情報処理システム1−1は、情報処理装置1、カメラ2およびスピーカ3を備える。カメラ2は、空間内に位置する人物を撮影する。スピーカ3は、カメラ2と非一体型であり、音声の指向性を有し、制御部1aからの指示にもとづいて回転駆動する。情報処理装置1内の制御部1aは、カメラ2で撮影された撮影画像から対象人物を特定し、対象人物の頭部位置を検出し、頭部位置に向けて音声を発するためのスピーカ3の回転角度を算出する。そして、制御部1aは、対象人物に発すべき音声パターンを選択して、回転角度でスピーカ3を回転させ、選択した音声パターンをスピーカ3から出力させる。【選択図】図1

Description

本発明は、情報処理システム、情報処理装置およびプログラムに関する。
情報処理技術の進展および監視カメラの高解像度化に伴い、監視カメラによって撮影された画像から人物を検出してスピーカから音声を発するシステムが開発されている。このようなシステムを例えば、店内に構築することにより、店内に侵入した不審者に対する防犯や、店員への事務連絡等を行うことができる。
特開2017−215806号公報
上記のようなシステムでは、従来、監視カメラとスピーカが一体型になっており、監視カメラの向きとスピーカの向きが同じになっている。しかし、このようなシステムで空間内に位置する人物に向けて音声を通知するためには、一体型の監視カメラ/スピーカを複数配置することになり、システム規模が増加し非効率であるという問題がある。
1つの側面では、本発明は、システム規模の増加を抑えて、効率よく所定の空間内に位置する人物に対して音声通知を行うことが可能な情報処理システム、情報処理装置およびプログラムを提供することを目的とする。
上記課題を解決するために、情報処理システムが提供される。情報処理システムは、カメラと、カメラと非一体型であり指向性を有して回転駆動するスピーカと、カメラで撮影された撮影画像から対象人物を特定し、対象人物の頭部位置を検出し、頭部位置に向けて音声を発するためのスピーカの回転角度を算出し、対象人物に発すべき音声パターンを選択して、回転角度でスピーカを回転させ音声パターンをスピーカから出力させる制御部と、を備え、制御部は、撮影画像の2次元画像を3次元空間に対応付け、2次元画像から対象人物の足元の座標および頭上の座標を検出して、足元の座標および頭上の座標を3次元空間にマッピングし、3次元空間にマッピングした頭上の座標にもとづく対象人物の頭上高さから所定値減算して耳の位置を検出し、耳の位置を対象人物の頭部位置とし、2次元画像から一定の時間間隔で対象人物の足元の座標を複数検出して時系列の座標データを取得し、座標データから所定時間の経過後の対象人物の移動量を算出し、移動量にもとづいて頭部位置の更新を行い、対象人物の検出からスピーカから音声パターンが出力されるまでの遅延時間を保持しておき、所定時間に遅延時間を含めて移動量を算出する。また、制御部は、検出した頭部位置にスピーカを向ける第1の回転角度を算出し、対象人物の移動先の予測を行わない場合、スピーカを第1の回転角度で回転させ音声パターンをスピーカから出力させ、対象人物の移動先の予測を行う場合、更新後の頭部位置にスピーカを向ける第2の回転角度を算出し、スピーカを第1の回転角度で回転させ、第1の回転角度の回転の終了後に、スピーカから音声パターンを出力させながら、スピーカを第2の回転角度で回転させる。
また、上記課題を解決するために、上記情報処理システムと同様の制御を実行する情報処理装置が提供される。
さらに、コンピュータに上記情報処理システムと同様の制御を実行させるプログラムが提供される。
1側面によれば、システム規模の増加を抑えて、効率よく所定の空間内に位置する人物に対して音声通知を行うことができる。
第1の実施の形態の情報処理システムの一例を説明するための図である。 第2の実施の形態の情報処理システムの構成の一例を示す図である。 スピーカの構成の一例を示す図である。 情報処理装置のハードウェア構成の一例を示す図である。 人物を撮影してから声掛けを行うまでの動作シーケンスの一例を示す図である。 人物を撮影してから声掛けを行うまでの動作シーケンスの一例を示す図である。 人物を撮影してから声掛けを行うまでの動作シーケンスの一例を示す図である。 音声パターンテーブルの一例を示す図である。 3D空間におけるカメラと人物の位置を説明するための図である。 3D空間におけるカメラと人物の位置を説明するための図である。 人物を検出してから声掛けを行うまでの全体動作の一例を示すフローチャートである。 頭部位置の検出処理の一例を示すフローチャートである。 対象人物の移動速度の推定および頭部位置の更新の一例を示すフローチャートである。 スピーカの回転角度の算出処理の一例を示すフローチャートである。 対象人物の移動に伴う回転角度の算出処理の一例を示すフローチャートである。 スピーカの回転駆動および声掛けの動作の一例を示すフローチャートである。 スピーカの回転駆動および声掛けの動作の一例を示すフローチャートである。
以下、本実施の形態について図面を参照して説明する。
[第1の実施の形態]
図1は第1の実施の形態の情報処理システムの一例を説明するための図である。情報処理システム1−1は、情報処理装置1、カメラ2およびスピーカ3を備える。情報処理装置1は、制御部1aおよび記憶部1bを含む。
カメラ2は、所定の空間内に位置する人物を監視し撮影する。スピーカ3は、カメラ2と非一体型であり、音声の指向性を有しており、制御部1aからの指示にもとづいて回転駆動して音声を出力する。
制御部1aは、カメラ2で撮影された撮影画像に対して、AI(Artificial Intelligence)処理にもとづく画像解析を行う。また、制御部1aは、画像解析結果にもとづいて、スピーカ3に対する駆動制御および音声出力制御を行う。記憶部1bは、制御部1aによる処理に要する各種データを格納する。
制御部1aおよび記憶部1bの各処理は、例えば、情報処理装置1が備える図示しないプロセッサが、所定のプログラムを実行することによって実現される。
制御部1aの動作の流れについて説明する。
〔ステップS1〕制御部1aは、カメラ2で撮影された撮影画像から対象人物を特定する。
〔ステップS2〕制御部1aは、対象人物の頭部位置を検出する。
〔ステップS3〕制御部1aは、頭部位置に向けて音声を発するためのスピーカ3の回転角度を算出する。
〔ステップS4〕制御部1aは、対象人物に適した音声パターンを選択する。
〔ステップS5〕制御部1aは、算出した回転角度でスピーカ3を回転させて、選択した音声パターンをスピーカ3から出力させる。
このように、情報処理システム1−1では、カメラ2と非一体型であり指向性を有して回転駆動するスピーカ3を用いて、カメラ2で撮影された撮影画像から算出した対象人物の頭部位置に向けてスピーカ3を回転させて、スピーカ3から対象人物に音声を出力させる構成とした。これにより、スピーカ設置数を減少させることができるので、システム規模の増加を抑えて、効率よく所定の空間内に位置する人物に対して音声通知を行うことが可能になる。
[第2の実施の形態]
次に第2の実施の形態について説明する。なお、以降の説明では、対象人物に音声通知を行うことを声掛けと呼ぶ場合がある。
図2は第2の実施の形態の情報処理システムの構成の一例を示す図である。情報処理システム1−2は、情報処理装置10、カメラ20−1、・・・、20−n(総称する場合はカメラ20と呼ぶ)、スピーカ30、端末41(保守管理用)、端末42(通知用)、AP(アクセスポイント)50、ハブ(Hub)61およびPoE(Power over Ethernet)ハブ62を備える(Ethernetは登録商標)。
情報処理装置10は、制御部11および記憶部12を含む。制御部11は、図1の制御部1aの機能を有し、記憶部12は図1の記憶部1bの機能を有する。スピーカ30は、図1のスピーカ3の機能を有する。
ハブ61は、ポートp1、・・・、p4を有し、PoEハブ62は、ポートp11、p12−1・・・、p12−nを有している。ポートp1、・・・、p4およびポートp11は、例えば、1Gbit/sの通信回線が接続可能なポートである。ポートp12−1・・・、p12−nは、例えば、100Mbit/sの通信回線が接続可能なポートである。
ハブ61のポートp1と、PoEハブ62のポートp11とは、LAN(Local Area Network)ケーブルL1で接続されている。なお、PoEハブ62は、Ethernet通信で利用するカテゴリ5e以上のLANケーブルL1を通じて電力を供給する。
よって、PoEハブ62にカメラ20を接続することで、AC(Alternating Current)アダプタ等の外部電力が不要になり、データ通信を行うLANケーブルL1のみで電力供給ができる。このため、屋外や天井等の電力供給が困難な場所でもカメラ20を設置できる。
一方、ハブ61には、ポートp2に端末41が接続され、ポートp3に情報処理装置10が接続され、ポートp4にAP50が接続されている。また、PoEハブ62には、ポートp12−1・・・、p12−nそれぞれにカメラ20−1、・・・、20−nが接続されている。AP50には、端末42およびスピーカ30が無線で接続されている。
<スピーカの構成>
図3はスピーカの構成の一例を示す図である。スピーカ30は、音声出力部31と、回転機構部32を備える。音声出力部31は、超音波を利用した音声伝播機能を有し、音声の指向性出力を行う。
回転機構部32は、水平方向と垂直方向の2軸回転機構を有する。回転機構部32の水平方向のモータ回転機構により、水平軸hの0度を基準にして、プラス方向(矢印h1)およびマイナス方向(矢印h2)に音声出力部31を水平方向に回転させる。
また、回転機構部32の垂直方向のモータ回転機構により、垂直軸vの0度を基準にして、プラス方向(矢印v1)およびマイナス方向(矢印v2)に音声出力部31を垂直方向に回転させる。なお、回転機構部32の上面には、壁面等にスピーカ30を取り付けるための取付用部品33が設けられており、また、スピーカ30には、図示しない無線LAN通信機能が設けられている。
<ハードウェア構成>
図4は情報処理装置のハードウェア構成の一例を示す図である。情報処理装置10は、プロセッサ(コンピュータ)100によって全体制御されている。プロセッサ100は、制御部11の機能を実現する。
プロセッサ100には、バス103を介して、メモリ101、入出力インタフェース102およびネットワークインタフェース104が接続されている。プロセッサ100は、マルチプロセッサであってもよい。プロセッサ100は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。またプロセッサ100は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。
メモリ101は、記憶部12の機能を含み、情報処理装置10の主記憶装置として使用される。メモリ101には、プロセッサ100に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、メモリ101には、プロセッサ100による処理に要する各種データが格納される。
また、メモリ101は、情報処理装置10の補助記憶装置としても使用され、OSのプログラム、アプリケーションプログラム、および各種データが格納される。メモリ101は、補助記憶装置として、フラッシュメモリやSSD(Solid State Drive)等の半導体記憶装置やHDD(Hard Disk Drive)等の磁気記録媒体を含んでもよい。
バス103に接続されている周辺機器としては、入出力インタフェース102およびネットワークインタフェース104がある。入出力インタフェース102は、プロセッサ100からの命令にしたがって情報処理装置10の状態を表示する表示装置として機能するモニタ(例えば、LED(Light Emitting Diode)やLCD(Liquid Crystal Display)等)が接続できる。
さらに、入出力インタフェース102は、キーボードやマウス等の情報入力装置を接続可能であって、情報入力装置から送られてくる信号をプロセッサ100に送信する。
さらにまた、入出力インタフェース102は、周辺機器を接続するための通信インタフェースとしても機能する。例えば、入出力インタフェース102は、レーザ光等を利用して、光ディスクに記録されたデータの読み取りを行う光学ドライブ装置を接続することができる。光ディスクには、DVD(Digital Versatile Disc)、Blu−ray Disc(登録商標)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(Rewritable)等がある。
また、入出力インタフェース102は、メモリ装置やメモリリーダライタを接続することができる。メモリ装置は、入出力インタフェース102との通信機能を搭載した記録媒体である。メモリリーダライタは、メモリカードへのデータの書き込み、またはメモリカードからのデータの読み出しを行う装置である。メモリカードは、カード型の記録媒体である。
ネットワークインタフェース104は、ネットワークに接続してネットワークインタフェース制御を行う。例えば、NIC(Network Interface Card)、無線LANカード等を使用することもできる。ネットワークインタフェース104で受信されたデータは、メモリ101やプロセッサ100に出力される。
以上のようなハードウェア構成によって、情報処理装置10の処理機能を実現することができる。例えば、情報処理装置10は、プロセッサ100がそれぞれ所定のプログラムを実行することで本発明の処理を行うことができる。
情報処理装置10は、例えば、コンピュータで読み取り可能な記録媒体に記録されたプログラムを実行することにより、本発明の処理機能を実現する。情報処理装置10に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことができる。
例えば、情報処理装置10に実行させるプログラムを補助記憶装置に格納しておくことができる。プロセッサ100は、補助記憶装置内のプログラムの少なくとも一部を主記憶装置にロードし、プログラムを実行する。
また、光ディスク、メモリ装置、メモリカード等の可搬型記録媒体に記録しておくこともできる。可搬型記録媒体に格納されたプログラムは、例えば、プロセッサ100からの制御により、補助記憶装置にインストールされた後、実行可能となる。またプロセッサ100が、可搬型記録媒体から直接プログラムを読み出して実行することもできる。
<声掛け動作シーケンス>
図5は人物を撮影してから声掛けを行うまでの動作シーケンスの一例を示す図である。
不審者に声掛けを行う場合の動作シーケンスを示している。
〔ステップS11〕人物が入店する。
〔ステップS11a〕カメラ20は、入店した人物を撮影する。
〔ステップS11b〕カメラ20は、人物の撮影画像を制御部11に送信する。
〔ステップS11c〕制御部11は、AI処理によって撮影画像を解析して、人物の検出および追跡を行う。
〔ステップS12〕人物が何らかの不審行動を行う。
〔ステップS12a〕カメラ20は、人物の不審行動を撮影する。
〔ステップS12b〕カメラ20は、不審行動の撮影画像を制御部11に送信する。
〔ステップS12c〕制御部11は、人物の行動パターンとして正常行動(または不審行動)のパターンをあらかじめ認識しており、受信した撮影画像にもとづき、行動パターンの判定を行う。そして、正常行動から外れる行動パターン(または不審行動パターン)を検出すると、不審者であると判定する。
〔ステップS13〕制御部11は、通知用の端末42に不審者を発見したことを通知する。
〔ステップS14〕端末42は、不審者が入店したことを画面上に表示する。
〔ステップS15〕制御部11は、スピーカ30から不審者に声掛けを行うために、3D(Dimension)空間マッピング、頭部位置検出、回転角度算出および音声パターン選択の各処理を行う。
3D空間マッピング処理は、人物の位置を3D空間内にマッピングする。頭部位置検出処理は、3D空間内で人物の頭部位置の座標を検出する。回転角度算出処理は、検出した人物の頭部位置にスピーカ30が向くように、スピーカ30の回転角度を算出する。音声パターン選択処理は、声掛け時の音声パターンを複数の音源のうちから選択する(音声パターンの具体例については図8で後述する)。
〔ステップS16〕制御部11は、声掛け命令(算出した回転角度および選択した音声パターン)をスピーカ30に送信する。
〔ステップS17〕スピーカ30は、受信した声掛け命令にもとづいて、指示された回転角度に駆動する。
〔ステップS18〕スピーカ30は、受信した声掛け命令にもとづいて、指示された音声パターンの音声を発して、不審者に向けて声掛けを行う。不審者は、声掛けに気づくことになる。
図6は人物を撮影してから声掛けを行うまでの動作シーケンスの一例を示す図である。特定人物に声掛けを行う場合の動作シーケンスを示している。なお、特定人物とは、不審者以外の人物であり、例えば、来店した一般の客等が該当する。
〔ステップS21〕人物が入店する。
〔ステップS21a〕カメラ20は、入店した人物を撮影する。
〔ステップS21b〕カメラ20は、人物の撮影画像を制御部11に送信する。
〔ステップS21c〕制御部11は、AI処理によって撮影画像を解析して、特定人物の検出および追跡を行う。なお、制御部11は、人物の行動パターンをあらかじめ認識しており、受信した撮影画像にもとづき、行動パターンの判定を行う。例えば、正常行動の行動パターンを検出すると、特定人物であると判定する。
〔ステップS22〕制御部11は、通知用の端末42に特定人物を発見したことを通知する。
〔ステップS23〕端末42は、特定人物が入店したことを画面上に表示する。
〔ステップS24〕制御部11は、スピーカ30から特定人物に声掛けを行うために、3D空間マッピング、頭部位置検出、回転角度算出および音声パターン選択の各処理を行う。
〔ステップS25〕制御部11は、声掛け命令(算出した回転角度および選択した音声パターン)をスピーカ30に送信する。
〔ステップS26〕スピーカ30は、受信した声掛け命令にもとづいて、指示された回転角度に駆動する。
〔ステップS27〕スピーカ30は、受信した声掛け命令にもとづいて、指示された音声パターンの音声を発して、特定人物に向けて声掛けを行う。特定人物は、声掛けに気づくことになる。
図7は人物を撮影してから声掛けを行うまでの動作シーケンスの一例を示す図である。特定エリア内にいる特定人物に声掛けを行う場合の動作シーケンスを示している。特定エリア内にいる特定人物とは、例えば、店内の売り場にいる店員等が該当する。
〔ステップS31〕人物が入店する。
〔ステップS31a〕カメラ20は、入店した人物を撮影する。
〔ステップS31b〕カメラ20は、人物の撮影画像を制御部11に送信する。
〔ステップS31c〕制御部11は、AI処理によって撮影画像を解析して、特定人物を検出して3D空間にマッピングする。また、3D空間内で特定人物の追跡を行う。
〔ステップS32〕人物が特定エリアに入る。
〔ステップS32a〕カメラ20は、特定エリアにいる人物を撮影する。
〔ステップS32b〕カメラ20は、人物の撮影画像を制御部11に送信する。
〔ステップS32c〕制御部11は、特定エリアに特定人物がいることを判定する。
〔ステップS33〕制御部11は、通知用の端末42に特定エリア内の特定人物を発見したことを通知する。
〔ステップS34〕端末42は、特定エリア内に特定人物がいることを画面上に表示する。
〔ステップS35〕制御部11は、スピーカ30から特定人物に声掛けを行うために、頭部位置検出、回転角度算出および音声パターン選択の各処理を行う。
〔ステップS36〕制御部11は、声掛け命令(算出した回転角度および選択した音声パターン)をスピーカ30に送信する。
〔ステップS37〕スピーカ30は、受信した声掛け命令にもとづいて、指示された回転角度に駆動する。
〔ステップS38〕スピーカ30は、受信した声掛け命令にもとづいて、指示された音声パターンの音声を発して、特定エリア内の特定人物に向けて声掛けを行う。特定エリア内の特定人物は、声掛けに気づくことになる。
<音声パターン>
図8は音声パターンテーブルの一例を示す図である。音声パターンテーブル12aは、人物、音声ファイルおよび音声パターン(音声の内容)の項目を有し、該テーブルのデータ構造は、記憶部12に格納されている。
テーブル内容として例えば、人物が不審者である場合、音声ファイルには、音声ファイル1.wav、音声ファイル2.wav、音声ファイル3.wavが登録されている。音声ファイル1.wavの音声パターンは“いらっしゃいませ”、音声ファイル2.wavの音声パターンは“xxエリアにお客様がお待ちです”、音声ファイル3.wavの音声パターンは“お買い上げありがとうございます”という音声が登録されている。
また、人物が特定人物(例えば、30歳代男性)である場合、音声ファイルには、音声ファイル4.wavが登録されている。音声ファイル4.wavの音声パターンは“○○の商品がおすすめです”という音声が登録されている。
さらに、人物が特定エリア内の特定人物(例えば、店員)である場合、音声ファイルには、音声ファイル5.wavが登録されている。音声ファイル5.wavの音声パターンは“xxに来てください”という音声が登録されている。
このように、音声パターンテーブル12aには、対象人物に声掛けを行う際に適した音声が登録されている。
<3D空間におけるカメラと人物の位置>
図9、図10は3D空間におけるカメラと人物の位置を説明するための図である。なお、図10は、図9のイメージをxz平面で表現したものである。図9において、3Dのxyz空間に対象人物の足元が座標A(x1、y1、z1=0)に位置している。また、カメラ20が座標(x2、y2、z2)に位置している。
図10においては、対象人物は座標(x1、z1)に位置し、カメラ20は(x2、z2)に位置している。また、対象人物の頭上の座標は(x1、H)であり、カメラ20から対象人物の頭上に引いた線分がx軸に交わる点が座標B(x3、z3=0)である。
<フローチャート>
次に図11から図17のフローチャートを用いて詳細動作について説明する。図11は人物を検出してから声掛けを行うまでの全体動作の一例を示すフローチャートである。
〔ステップS41〕制御部11は、AI処理による画像解析処理を起動する。
〔ステップS42〕制御部11は、カメラ20の撮影画像から人物検出を行い、検出した人物が声掛けの対象人物か否かを判定する。声掛けの対象人物の場合はステップS43に処理が進み、対象人物でない場合は人物検出および当該判定処理を繰り返す。
〔ステップS43〕制御部11は、3D空間における対象人物の頭部位置を検出する。
〔ステップS44〕制御部11は、対象人物の移動先の予測を行うか否かを判定する。移動先の予測を行う場合はステップS45に処理が進み、移動先の予測を行わない場合はステップS46に処理が進む。
〔ステップS45〕制御部11は、対象人物の移動速度の推定と、頭部位置の更新を行う。
〔ステップS46〕制御部11は、スピーカ30の回転角度を算出する。
〔ステップS47〕制御部11は、音声パターンテーブル12aを用いて、対象人物に適した音声パターンを選択する。
〔ステップS48〕制御部11は、対象人物を追跡しながら声掛けを行うか否かを判定する。追跡しながら声掛けを行う場合はステップS49に処理が進み、追跡せずに声掛けを行う場合はステップS50aに処理が進む。
〔ステップS49〕制御部11は、対象人物の移動に伴うスピーカ30の回転角度を算出する。ステップS50bに処理が進む。
〔ステップS50a〕スピーカ30は、制御部11から指示された回転角度に駆動し、また制御部11から指示された音声パターンで対象人物に声掛けを行う。
〔ステップS50b〕スピーカ30は、制御部11から指示された、対象人物の移動に合わせた回転角度に駆動し、また制御部11から指示された音声パターンで対象人物に声掛けを行う。
図12は頭部位置の検出処理の一例を示すフローチャートである。図11のステップS43の詳細フローを示している。
〔ステップS43a〕制御部11は、カメラ20のキャリブレーションによる補正後のカメラ画面と、3D空間との対応付けを行う。
〔ステップS43b〕制御部11は、カメラ20で撮影された撮影画像から対象人物を検出し、対象人物の撮影画像内の座標を取得する。なお、人物検出が行われた場合、例えば、その人物の位置は矩形(矩形情報)で示される。
〔ステップS43c〕制御部11は、対象人物の矩形情報から足元の座標を検出する。例えば、人物位置を示す矩形の下底の中間点を算出し、その中間点を足元の座標とする。
〔ステップS43d〕制御部11は、検出した足元座標を3D空間の座標上にマッピングする(図9の座標Aに相当)。
〔ステップS43e〕制御部11は、対象人物の矩形情報から頭上の座標を算出する。例えば、人物位置を示す矩形の上底の中間点を算出し、その中間点を頭上の座標とする。
〔ステップS43f〕制御部11は、2D画像(撮影画像)の頭上の座標を3D画像での床上とみなして、3D空間上に頭上座標をマッピングする(図10の座標Bに相当)。
〔ステップS43g〕制御部11は、座標Bとカメラ20の座標とを結んだ線分における座標Aのx成分に等しいz成分を抽出する(x成分ではなくy成分を使ってもよい)。
〔ステップS43h〕制御部11は、抽出したz成分に対して、所定長低い(例えば、20cm低い)位置を対象人物の耳の高さHとする。
〔ステップS43i〕制御部11は、座標Aにおけるz成分を耳の高さにした座標値を頭部位置とし、この頭部位置を、スピーカ30を向ける座標として確定する(座標Cとする)。
このように、制御部11は、撮影画像を3D空間にマッピングして、3D空間上で対象人物の頭上の位置を求め、頭上の位置から耳の位置を求めて、耳の位置を頭部位置とする。これにより、頭部位置に向けてスピーカ30を回転させるので、スピーカ30からの音声を対象人物に明確に聞かせることができる。
図13は対象人物の移動速度の推定および頭部位置の更新の一例を示すフローチャートである。図11のステップS45の詳細フローを示している。
〔ステップS45a〕制御部11は、対象人物の過去数秒分の2D画像内の足元の座標を複数検出する。
〔ステップS45b〕制御部11は、検出した過去の足元の座標を3D空間上の座標に変換する。これにより座標Aを含む時系列の座標データを得る。
〔ステップS45c〕制御部11は、時系列の座標データをもとに、t秒後の対象人物の3D空間上の移動量を推定する。例えば、時系列の座標データから得られる座標間の移動速度をxyzの3方向のベクトルとして求めた上でそれぞれの成分ごとに平均値を求める(移動速度Va)。そして、移動速度Vaに対して時間tを乗算することで、t秒後の移動量dLが推定できる。
ただし、t秒は対象人物を検出した時間から音声を出力するまでの遅延時間に相当するものである。t秒は事前のシステムテスト等で求めておいて、設定値としてあらかじめ保持しておくものとする。
〔ステップS45d〕制御部11は、座標Aに対してxyz方向のt秒後の移動量dLを加算する。これにより、座標(A+dL)を得られる。座標(A+dL)は、声掛けをすべき対象人物の足元の座標になる(座標A2とする)。また、座標A2のz成分を耳の高さHとすることで、これが移動後の頭部位置となり、スピーカ30を向ける対象の座標となる(頭部位置の座標Cの更新)。
ここで、人物に声掛けを行う場合、人物検出からスピーカ30から音声を出力させるまでに遅延時間が発生する。仮にこの遅延時間を考慮しないと、人物に向けて声掛けを行っても、その人物が移動している場合は、すでにその人物がいないことが起こりうる。
上記のように、制御部11は、2次元画像から一定の時間間隔で対象人物の足元の座標を複数検出して時系列の座標データを取得し、座標データから算出した移動量にもとづいて頭部位置の更新を行う。これにより、対象人物の移動後の位置を精度よく検出することができる。
また、制御部11は、対象人物の検出からスピーカ30から音声パターンが出力されるまでの遅延時間を含めて移動量を算出する。これにより、人物が移動していても移動後の人物の頭部に向けてスピーカ30から音声を出力させることができ、声掛け精度を向上させることができる。
図14はスピーカの回転角度の算出処理の一例を示すフローチャートである。図11のステップS46の詳細フローを示している。
〔ステップS46a〕制御部11は、3D空間における、座標C(頭部位置)からスピーカ30の設置座標を減算する。この減算処理はスピーカ30を中心とした座標Cのベクトル化を行うものであり、減算結果をベクトルSと呼ぶ。
〔ステップS46b〕制御部11は、ベクトルSの水平方向成分(x成分とy成分)から水平方向の回転角(水平回転角)を算出する。水平回転角の算出式は、以下の式(1)になる。
Figure 0006767664
〔ステップS46c〕制御部11は、式(1)で求めた水平回転角で回転したときの回転方向成分を新たにr成分として、r成分をx成分とy成分から算出する。r成分の算出式は、以下の式(2)になる。
Figure 0006767664
〔ステップS46d〕制御部11は、上記のr成分と、ベクトルSの垂直方向成分であるz成分とから垂直方向の回転角(垂直回転角)を算出する。垂直回転角の算出式は、以下の式(3)になる。
Figure 0006767664
制御部11は、上記のような算出式を用いて、水平回転角および垂直回転角を求めることにより、スピーカ30の回転角度を容易に精度よく算出することができる。
図15は対象人物の移動に伴う回転角度の算出処理の一例を示すフローチャートである。図11のステップS49の詳細フローを示している。
〔ステップS49a〕制御部11は、声掛けを行う際に選択した音声パターンの再生時間t2を決定する。
〔ステップS49b〕制御部11は、移動速度Vaに時間t2を乗算し、乗算結果を移動量として算出する。
〔ステップS49c〕制御部11は、算出した移動量を座標A2(移動後の足元座標)に加算すると共に、z成分を耳の高さHとして頭部位置を求める(座標Caとする)。この頭部位置は、声掛け終了時の対象人物の頭部の座標になる。
〔ステップS49d〕制御部11は、座標Caからスピーカ30の設置座標を減算する。これはスピーカ30を中心とした座標Caのベクトル化に相当するものであり、減算結果をベクトルSaとする。
〔ステップS49e〕制御部11は、ベクトルSaのx成分とy成分から、式(1)を用いて水平方向の回転角(水平回転角)を算出する。
〔ステップS49f〕制御部11は、式(2)を用いて、水平方向の回転角方向を新たにr成分とし、x成分とy成分からr成分を算出する。
〔ステップS49g〕制御部11は、ベクトルSaのr成分とz成分から垂直方向の回転角(垂直回転角)を算出する。
図16はスピーカの回転駆動および声掛けの動作の一例を示すフローチャートである。図11のステップS50aの詳細フローを示している。なお、図14で上述した、座標C(最初の頭部位置)にもとづいて算出したスピーカ30の水平回転角を水平回転角a1とし、座標Cにもとづいて算出したスピーカ30の垂直回転角を垂直回転角b1とする。
〔ステップS50a1〕制御部11は、スピーカ30に対して、算出した水平回転角a1および垂直回転角b1(第1の回転角度)と、選択した音声パターンとをスピーカ30に送信する。
〔ステップS50a2〕スピーカ30は、水平回転角a1および垂直回転角b1で回転駆動する。
〔ステップS50a3〕スピーカ30は、回転駆動が終了すると、指示された音声パターンで対象人物に向けて声掛けを行う。
図17はスピーカの回転駆動および声掛けの動作の一例を示すフローチャートである。図11のステップS50bの詳細フローを示している。なお、図15で上述した、座標Ca(移動後の頭部位置)にもとづいて算出したスピーカ30の水平回転角を水平回転角a2とし、座標Caにもとづいて算出したスピーカ30の垂直回転角を垂直回転角b2とする。
〔ステップS50b1〕制御部11は、スピーカ30に対して、算出した水平回転角a1および垂直回転角b1(第1の回転角度)と、選択した音声パターンとをスピーカ30に送信する。
〔ステップS50b2〕制御部11は、スピーカ30に対して、算出した水平回転角a2および垂直回転角b2(第2の回転角度)と、時間t2の情報とをスピーカ30に送信する。なお、時間t2は、上述のように遅延が考慮された音声パターンの再生時間である。
〔ステップS50b3〕スピーカ30は、水平回転角a1および垂直回転角b1(第1の回転角度)で回転駆動する。
〔ステップS50b4〕スピーカ30は、水平回転角a1および垂直回転角b1の回転駆動の終了後、指示された音声パターンで、かつ送信された音声パターンの再生時間(時間t2)で声掛けを行う。さらに、スピーカ30は、声掛けを行いながら、水平回転角a2および垂直回転角b2(第2の回転角度)で回転駆動する。
〔ステップS50b5〕スピーカ30は声掛けを行う。また、スピーカ30が声掛けを終了すると同時または終了した後に回転駆動が停止する。
このように、制御部11は、頭部位置の座標から3D空間上のスピーカ30の設置位置の座標を減算してスピーカ30を中心とする頭部位置の座標のベクトルを算出し、ベクトルの水平方向成分にもとづいてスピーカ30の水平回転角を算出する。
そして、スピーカ30が水平回転角で回転したときの回転方向成分と、ベクトルの垂直方向成分とにもとづいてスピーカ30の垂直回転角を算出し、水平回転角および垂直回転角を、スピーカ30の回転角度とする。これにより、水平方向と垂直方向の2軸回転機構を有するスピーカ30の回転角度を精度よく求めることができる。
さらに、制御部11は、検出した頭部位置にスピーカ30を向ける第1の回転角度(水平回転角a1および垂直回転角b1)を算出し、対象人物の移動先の予測を行わない場合、スピーカ30を第1の回転角度で回転させ音声パターンをスピーカ30から出力させる。
また、対象人物の移動先の予測を行う場合、更新後の頭部位置にスピーカ30を向ける第2の回転角度(水平回転角a2および垂直回転角b2)を算出し、スピーカ30を第1の回転角度で回転させ、第1の回転角度の回転の終了後に、スピーカ30から音声パターンを出力させながら、スピーカ30を第2の回転角度で回転させる。
これにより、対象人物の移動に追随するようにスピーカ30が制御されるので、対象人物が移動することによって、スピーカ30からの音声が対象人物に到達せずに、対象人物が声掛けを聞き逃してしまうといったことを防止することができる。
このように、第2の実施の形態の情報処理システム1−2では、カメラ20と非一体型であり指向性を有して回転駆動するスピーカ30を用いて、カメラ20で撮影された撮影画像から算出した対象人物の頭部位置に向けてスピーカ30を回転させて、スピーカ30から対象人物に音声を出力させる構成とした。これにより、スピーカ設置数を減少させることができるので、システム規模の増加を抑えて、効率よく所定の空間内に位置する人物に対して音声通知を行うことが可能になる。
上記で説明した本発明の情報処理システム1−1、1−2の処理機能は、コンピュータによって実現することができる。この場合、情報処理システム1−1、1−2が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。
処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶部、光ディスク、光磁気記録媒体、半導体メモリ等がある。磁気記憶部には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープ等がある。光ディスクには、CD−ROM/RW等がある。光磁気記録媒体には、MO(Magneto Optical disk)等がある。
プログラムを流通させる場合、例えば、そのプログラムが記録されたCD−ROM等の可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶部に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶部に格納する。そして、コンピュータは、自己の記憶部からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。
また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。また、上記の処理機能の少なくとも一部を、DSP、ASIC、PLD等の電子回路で実現することもできる。
以上、実施の形態を例示したが、実施の形態で示した各部の構成は同様の機能を有する他のものに置換することができる。また、他の任意の構成物や工程が付加されてもよい。さらに、前述した実施の形態のうちの任意の2以上の構成(特徴)を組み合わせたものであってもよい。
1−1 情報処理システム
1 情報処理装置
1a 制御部
1b 記憶部
2 カメラ
3 スピーカ

Claims (4)

  1. カメラと、
    前記カメラと非一体型であり指向性を有して回転駆動するスピーカと、
    前記カメラで撮影された撮影画像から対象人物を特定し、前記対象人物の頭部位置を検出し、前記頭部位置に向けて音声を発するための前記スピーカの回転角度を算出し、前記対象人物に発すべき音声パターンを選択して、前記回転角度で前記スピーカを回転させ前記音声パターンを前記スピーカから出力させる制御部と、
    を備え、
    前記制御部は、
    前記撮影画像の2次元画像を3次元空間に対応付け、前記2次元画像から前記対象人物の足元の座標および頭上の座標を検出して、前記足元の座標および前記頭上の座標を前記3次元空間にマッピングし、前記3次元空間にマッピングした前記頭上の座標にもとづく前記対象人物の頭上高さから所定値減算して耳の位置を検出し、前記耳の位置を前記対象人物の前記頭部位置とし、
    前記2次元画像から一定の時間間隔で前記対象人物の前記足元の座標を複数検出して時系列の座標データを取得し、前記座標データから所定時間の経過後の前記対象人物の移動量を算出し、前記移動量にもとづいて前記頭部位置の更新を行い、
    前記対象人物の検出から前記スピーカから前記音声パターンが出力されるまでの遅延時間を保持しておき、前記所定時間に前記遅延時間を含めて前記移動量を算出
    前記制御部は、
    検出した前記頭部位置に前記スピーカを向ける第1の回転角度を算出し、
    前記対象人物の移動先の予測を行わない場合、前記スピーカを前記第1の回転角度で回転させ前記音声パターンを前記スピーカから出力させ、
    前記対象人物の移動先の予測を行う場合、更新後の前記頭部位置に前記スピーカを向ける第2の回転角度を算出し、前記スピーカを前記第1の回転角度で回転させ、前記第1の回転角度の回転の終了後に、前記スピーカから前記音声パターンを出力させながら、前記スピーカを前記第2の回転角度で回転させる、
    情報処理システム。
  2. 前記制御部は、
    前記頭部位置の座標から前記3次元空間上の前記スピーカの設置位置の座標を減算して前記スピーカを中心とする前記頭部位置の座標のベクトルを算出し、
    前記ベクトルの水平方向成分にもとづいて前記スピーカの水平回転角を算出し、
    前記スピーカが前記水平回転角で回転したときの回転方向成分と、前記ベクトルの垂直方向成分とにもとづいて前記スピーカの垂直回転角を算出し、
    前記水平回転角および前記垂直回転角を、前記スピーカの前記回転角度とする請求項1記載の情報処理システム。
  3. カメラで撮影された撮影画像から対象人物を特定し、前記対象人物の頭部位置を検出し、前記カメラと非一体型であり指向性を有して回転駆動するスピーカに対して前記頭部位置に向けて音声を発するための前記スピーカの回転角度を算出し、前記対象人物に発すべき音声パターンを選択して、前記回転角度で前記スピーカを回転させ前記音声パターンを前記スピーカから出力させる制御部と、
    前記音声パターンを格納する記憶部と、
    を備え、
    前記制御部は、
    前記撮影画像の2次元画像を3次元空間に対応付け、前記2次元画像から前記対象人物の足元の座標および頭上の座標を検出して、前記足元の座標および前記頭上の座標を前記3次元空間にマッピングし、前記3次元空間にマッピングした前記頭上の座標にもとづく前記対象人物の頭上高さから所定値減算して耳の位置を検出し、前記耳の位置を前記対象人物の前記頭部位置とし、
    前記2次元画像から一定の時間間隔で前記対象人物の前記足元の座標を複数検出して時系列の座標データを取得し、前記座標データから所定時間の経過後の前記対象人物の移動量を算出し、前記移動量にもとづいて前記頭部位置の更新を行い、
    前記対象人物の検出から前記スピーカから前記音声パターンが出力されるまでの遅延時間を保持しておき、前記所定時間に前記遅延時間を含めて前記移動量を算出
    前記制御部は、
    検出した前記頭部位置に前記スピーカを向ける第1の回転角度を算出し、
    前記対象人物の移動先の予測を行わない場合、前記スピーカを前記第1の回転角度で回転させ前記音声パターンを前記スピーカから出力させ、
    前記対象人物の移動先の予測を行う場合、更新後の前記頭部位置に前記スピーカを向ける第2の回転角度を算出し、前記スピーカを前記第1の回転角度で回転させ、前記第1の回転角度の回転の終了後に、前記スピーカから前記音声パターンを出力させながら、前記スピーカを前記第2の回転角度で回転させる、
    情報処理装置。
  4. コンピュータに、
    カメラで撮影された撮影画像から対象人物を特定し、
    前記対象人物の頭部位置を検出し、
    前記カメラと非一体型であり指向性を有して回転駆動するスピーカに対して前記頭部位置に向けて音声を発するための前記スピーカの回転角度を算出し、
    前記対象人物に発すべき音声パターンを選択し、
    前記回転角度で前記スピーカを回転させ前記音声パターンを前記スピーカから出力させ、
    前記撮影画像の2次元画像を3次元空間に対応付け、前記2次元画像から前記対象人物の足元の座標および頭上の座標を検出して、前記足元の座標および前記頭上の座標を前記3次元空間にマッピングし、前記3次元空間にマッピングした前記頭上の座標にもとづく前記対象人物の頭上高さから所定値減算して耳の位置を検出し、前記耳の位置を前記対象人物の前記頭部位置とし、
    前記2次元画像から一定の時間間隔で前記対象人物の前記足元の座標を複数検出して時系列の座標データを取得し、前記座標データから所定時間の経過後の前記対象人物の移動量を算出し、前記移動量にもとづいて前記頭部位置の更新を行い、
    前記対象人物の検出から前記スピーカから前記音声パターンが出力されるまでの遅延時間を保持しておき、前記所定時間に前記遅延時間を含めて前記移動量を算出
    検出した前記頭部位置に前記スピーカを向ける第1の回転角度を算出し、
    前記対象人物の移動先の予測を行わない場合、前記スピーカを前記第1の回転角度で回転させ前記音声パターンを前記スピーカから出力させ、
    前記対象人物の移動先の予測を行う場合、更新後の前記頭部位置に前記スピーカを向ける第2の回転角度を算出し、前記スピーカを前記第1の回転角度で回転させ、前記第1の回転角度の回転の終了後に、前記スピーカから前記音声パターンを出力させながら、前記スピーカを前記第2の回転角度で回転させる、
    処理を実行させるプログラム。
JP2019195113A 2019-10-28 2019-10-28 情報処理システム、情報処理装置およびプログラム Active JP6767664B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019195113A JP6767664B1 (ja) 2019-10-28 2019-10-28 情報処理システム、情報処理装置およびプログラム
GB2013486.2A GB2589950A (en) 2019-10-28 2020-08-27 Information processing system, information processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019195113A JP6767664B1 (ja) 2019-10-28 2019-10-28 情報処理システム、情報処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP6767664B1 true JP6767664B1 (ja) 2020-10-14
JP2021069079A JP2021069079A (ja) 2021-04-30

Family

ID=72745067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019195113A Active JP6767664B1 (ja) 2019-10-28 2019-10-28 情報処理システム、情報処理装置およびプログラム

Country Status (2)

Country Link
JP (1) JP6767664B1 (ja)
GB (1) GB2589950A (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4989934B2 (ja) * 2006-07-14 2012-08-01 パナソニック株式会社 スピーカシステム
JP5396769B2 (ja) * 2008-08-04 2014-01-22 セイコーエプソン株式会社 音声出力制御装置、音声出力装置、音声出力制御方法、及び、プログラム
JP2012205240A (ja) * 2011-03-28 2012-10-22 Nikon Corp 電子機器及び情報伝達システム
JP2013024534A (ja) * 2011-07-26 2013-02-04 Panasonic Corp 状況認識装置
JP5163796B1 (ja) * 2011-09-22 2013-03-13 パナソニック株式会社 音響再生装置
US9544679B2 (en) * 2014-12-08 2017-01-10 Harman International Industries, Inc. Adjusting speakers using facial recognition
TW201707471A (zh) * 2015-08-14 2017-02-16 Unity Opto Technology Co Ltd 自動控制指向性喇叭及其燈具
WO2018016432A1 (ja) * 2016-07-21 2018-01-25 パナソニックIpマネジメント株式会社 音響再生装置および音響再生システム
JP2019041261A (ja) * 2017-08-25 2019-03-14 株式会社 日立産業制御ソリューションズ 画像処理システムおよび画像処理システムの設定方法

Also Published As

Publication number Publication date
GB2589950A (en) 2021-06-16
GB202013486D0 (en) 2020-10-14
JP2021069079A (ja) 2021-04-30

Similar Documents

Publication Publication Date Title
US10937241B2 (en) Systems, methods, and apparatus for identifying an augmented reality service
US20160203643A1 (en) Exhibition guide apparatus, exhibition media display apparatus, mobile terminal and method for guiding exhibition
JP6879379B2 (ja) 接客支援装置、接客支援方法、及びプログラム
CN103105926A (zh) 多传感器姿势识别
US10660062B1 (en) Indoor positioning
WO2019080674A1 (zh) 自助结算设备、方法、装置、介质及电子设备
EP3089486B1 (en) Terminal position determination
US11276126B2 (en) Focus-object-determined communities for augmented reality users
JP6767664B1 (ja) 情報処理システム、情報処理装置およびプログラム
JP2012248024A (ja) 会議支援システム、情報処理装置及び資料配信プログラム
US11356600B2 (en) Machine learning operations on different location targets using camera orientation
JP2020003876A (ja) データ送信装置、およびプログラム
JP6545950B2 (ja) 推定装置、推定方法、およびプログラム
US20200097729A1 (en) Method and apparatus for determining target rotation direction, computer readable medium and electronic device
JP7337354B2 (ja) 情報処理装置及び情報処理プログラム
JP2022143605A (ja) 見守りシステム
US20200364639A1 (en) Cognitive retail facing
JP2008014825A (ja) 測定方法及び測定プログラム
JP7366547B2 (ja) 情報処理装置及び情報処理プログラム
CN109842738A (zh) 用于拍摄图像的方法和装置
JP2020004392A (ja) データ送信装置、端末およびプログラム
JP2018196060A (ja) 情報処理装置、情報処理システム、情報処理方法、およびプログラム
WO2021255894A1 (ja) 制御装置、制御方法、およびプログラム
WO2023087962A1 (en) Augmented device retrieval assistance
JP7451931B2 (ja) 情報処理システム、情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191121

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191121

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200603

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200603

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200615

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200831

R150 Certificate of patent or registration of utility model

Ref document number: 6767664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250