JP7380561B2 - 情報処理システム、情報処理方法及び記憶媒体 - Google Patents

情報処理システム、情報処理方法及び記憶媒体 Download PDF

Info

Publication number
JP7380561B2
JP7380561B2 JP2020531246A JP2020531246A JP7380561B2 JP 7380561 B2 JP7380561 B2 JP 7380561B2 JP 2020531246 A JP2020531246 A JP 2020531246A JP 2020531246 A JP2020531246 A JP 2020531246A JP 7380561 B2 JP7380561 B2 JP 7380561B2
Authority
JP
Japan
Prior art keywords
information
situation
support
person
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020531246A
Other languages
English (en)
Other versions
JPWO2020017365A1 (ja
Inventor
正道 田辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020017365A1 publication Critical patent/JPWO2020017365A1/ja
Application granted granted Critical
Publication of JP7380561B2 publication Critical patent/JP7380561B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0613Third-party assisted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)
  • Cash Registers Or Receiving Machines (AREA)

Description

本発明は、情報処理システム、情報処理方法及び記憶媒体に関する。
特許文献1には、店舗内の状態、レジ装置の状態等に基づいてレジ装置の稼働指示等の報知を行う業務支援装置が開示されている。
特開2015-149089号公報
特許文献1に例示されている業務支援装置においては、報知内容の判定に用いられる情報源が限定されているため、状況に応じた適切な業務支援が行えない場合があった。
本発明は、上述の課題に鑑みてなされたものであって、業務状況に応じて適切な業務支援を行い得る情報処理システム、情報処理方法及び記憶媒体を提供することを目的とする。
本発明の一観点によれば、人物の発話を含む音声情報を取得する音声情報取得部と、前記人物の状況に関する状況情報を取得する状況取得部と、前記音声情報及び前記状況情報に基づいて、前記人物の業務を支援するための支援情報を生成する支援情報生成部と、を備える、情報処理システムが提供される。
本発明の他の一観点によれば、人物の発話を含む音声情報を取得するステップと、前記人物の状況に関する状況情報を取得するステップと、前記音声情報及び前記状況情報に基づいて、前記人物の業務を支援するための支援情報を生成するステップと、を備える、情報処理方法が提供される。
本発明の他の一観点によれば、コンピュータに、人物の発話を含む音声情報を取得するステップと、前記人物の状況に関する状況情報を取得するステップと、前記音声情報及び前記状況情報に基づいて、前記人物の業務を支援するための支援情報を生成するステップと、を備える情報処理方法を実行させるためのプログラムが記憶された記憶媒体が提供される。
本発明によれば、業務状況に応じて適切な業務支援を行い得る情報処理システム、情報処理方法及び記憶媒体を提供することができる。
第1実施形態に係る情報処理システムによる業務支援が行われ得る状況の具体例を示す図である。 第1実施形態に係る情報処理システムのハードウェア構成例を示すブロック図である。 第1実施形態に係る情報処理システムの機能ブロック図である。 第1実施形態に係る情報処理システムにより行われる処理の概略を示すフローチャートである。 データベースを参照する処理に用いられるテーブルの具体的な構成例を示す表である。 第2実施形態に係る情報処理システムの機能ブロック図である。
以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の要素又は対応する要素には同一の符号を付し、その説明を省略又は簡略化することがある。
[第1実施形態]
本実施形態に係る情報処理システムについて、図1乃至図5を参照しつつ説明する。本実施形態の情報処理システムは、店舗内で商品の販売、サービスの提供等を行う店員の業務支援を行うための業務支援システムである。本実施形態の情報処理システムは、業務支援のための支援情報を生成し、店員に提供するものである。図1を参照して、本実施形態の情報処理システムを用いた業務支援が行われ得る具体的な状況を説明する。
図1は、本実施形態に係る情報処理システム200による業務支援が行われ得る状況の具体例を示す図である。店舗100の売場110にはカメラ113及び端末装置114が設置されている。また、売場110内には、店員111及び顧客112がおり、店員111及び顧客112は、互いに向かい合って端末装置114の近くに立っている。店員111は、ヘッドセット115を頭に装着している。
端末装置114は、例えば、キオスク端末であり、情報の提供、チケットの発行、商品の購入予約、料金の支払い等の種々のサービスを提供する装置である。端末装置114は、これらのサービスの提供に必要な、表示装置、入力装置、プリンタ、IC(Integrated Circuit)カードリーダ、バーコードリーダ等を備える。
カメラ113は、店舗100内に設けられた売場110内を撮影するための撮像装置である。カメラ113は、画像(静止画又は動画)の撮影を行うことができる。また、カメラ113は、音声を取得するためのマイクロフォンを備えていてもよく、その場合は、音声データ付きの動画を撮影することができる。カメラ113は、情報処理システム200による処理のために専用に設けられたものであってもよく、防犯カメラの機能を兼ね備えたものであってもよい。
ヘッドセット115は、ヘッドフォン116及びマイクロフォン117が一体化された音響機器である。マイクロフォン117は、店員111又は顧客112の発話を取得する装置である。ヘッドフォン116は、音声を店員111に対して発する装置である。
カメラ113、端末装置114及びヘッドセット115は、イーサネット(登録商標)、Wi-Fi(登録商標)等の通信規格に基づく通信装置を更に備えている。これにより、カメラ113、端末装置114及びヘッドセット115は、LAN(Local Area Network)、WAN(Wide Area Network)等のネットワークNWを介して情報処理システム200と通信可能に接続される。
ヘッドセット115と情報処理システム200とが相互に通信を行うことにより、情報処理システム200は、マイクロフォン117により入力された音声データの受信及びヘッドフォン116から出力させるべき音声データの送信を行うことができる。
図1の場面について説明する。顧客112は、端末装置114に設けられたプリンタを用いてチケットの発行を行おうとしている。しかしながら、顧客112は、チケットの発行がうまくいかなかったため、店員111を呼んで不具合の対応を求めている。店員111は、顧客112と対話しながら、不具合の原因を確認しようとしている。以下の説明では、情報処理システム200は、上述の状況における店員111の業務支援を行うものとする。しかしながら、情報処理システム200により実現され得る業務支援はこれに限定されるものではない。
図2は、情報処理システム200のハードウェア構成例を示すブロック図である。情報処理システム200は、例えば、デスクトップPC(Personal Computer)、ノートPC、タブレットPC等のコンピュータであり得る。
情報処理システム200は、演算、制御及び記憶を行うコンピュータとして、CPU(Central Processing Unit)251、RAM(Random Access Memory)252、ROM(Read Only Memory)253及びHDD(Hard Disk Drive)254を備える。また、情報処理システム200は、通信I/F(インターフェース)255、表示装置256及び入力装置257を備える。CPU251、RAM252、ROM253、HDD254、通信I/F255、表示装置256及び入力装置257は、バス258を介して相互に接続される。なお、表示装置256及び入力装置257は、これらの装置を駆動するための不図示の駆動装置を介してバス258に接続されてもよい。
図2では、情報処理システム200を構成する各部が一体の装置として図示されているが、これらの機能の一部は外付け装置により提供されるものであってもよい。例えば、表示装置256及び入力装置257は、CPU251等を含むコンピュータの機能を構成する部分とは別の外付け装置であってもよい。
CPU251は、ROM253、HDD254等に記憶されたプログラムに従って所定の動作を行うとともに、情報処理システム200の各部を制御する機能をも有するプロセッサである。RAM252は、揮発性記憶媒体から構成され、CPU251の動作に必要な一時的なメモリ領域を提供する。ROM253は、不揮発性記憶媒体から構成され、情報処理システム200の動作に用いられるプログラム等の必要な情報を記憶する。HDD254は、不揮発性記憶媒体から構成され、処理に必要なデータ、情報処理システム200の動作用プログラム等の記憶を行う記憶装置である。
通信I/F255は、イーサネット(登録商標)、Wi-Fi(登録商標)、4G等の規格に基づく通信インターフェースであり、他の装置との通信を行うためのモジュールである。表示装置256は、液晶ディスプレイ、OLEDディスプレイ等であって、画像、文字、インターフェース等の表示に用いられる。入力装置257は、キーボード、ポインティングデバイス等であって、ユーザが情報処理システム200を操作するために用いられる。ポインティングデバイスの例としては、マウス、トラックボール、タッチパネル、ペンタブレット等が挙げられる。表示装置256及び入力装置257は、タッチパネルとして一体に形成されていてもよい。
なお、図2に示されているハードウェア構成は例示であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。更に、本実施形態の一部の機能がネットワークを介して他の装置により提供されてもよく、本実施形態の機能が複数の装置に分散されて実現されるものであってもよい。例えば、HDD254は、半導体メモリを用いたSSD(Solid State Drive)に置換されていてもよく、クラウドストレージに置換されていてもよい。
図3は、本実施形態に係る情報処理システム200の機能ブロック図である。情報処理システム200は、状況取得部201、音声情報取得部202、変換部203、抽出部204、通知部205、支援情報生成部206及び記憶部207を有する。
CPU251は、ROM253、HDD254等に記憶されたプログラムをRAM252にロードして実行する。これにより、CPU251は、変換部203、抽出部204及び支援情報生成部206の機能を実現する。これらの各部で行われる処理については後述する。CPU251は、プログラムに基づいて通信I/F255を制御し、カメラ113から画像、動画等の画像情報を取得して所定の処理を行うことにより状況取得部201の機能を実現する。CPU251は、プログラムに基づいて通信I/F255を制御し、マイクロフォン117から音声情報を取得することにより音声情報取得部202の機能を実現する。CPU251は、プログラムに基づいて通信I/F255を制御し、ヘッドフォン116に店員111に通知すべき音声情報を送信することにより通知部205の機能を実現する。CPU251は、HDD254を制御することにより記憶部207の機能を実現する。
図4は、本実施形態に係る情報処理システム200により行われる処理の概略を示すフローチャートである。図4を参照しつつ、情報処理システム200により行われる処理を説明する。
ステップS101において、音声情報取得部202は、マイクロフォン117により取得された店員111と顧客112との間の対話等の店員111又は顧客112の発話を含む音声情報を取得する。この音声情報の取得は、例えば、マイクロフォン117からネットワークNWを介して受信するものであってもよく、マイクロフォン117から記憶装置に一旦記録されたデータを読み出すものであってもよい。なお、音声情報取得部202は、取得された音声を音声情報として取得する過程において、サンプリング、量子化、ノイズ除去、圧縮等の処理を行い得る。
なお、音声情報に含まれ得る発話は、店員111と顧客112の対話でなくてもよく、店員111又は顧客112の単独の発話(例えば、「いらっしゃいませ」等の挨拶)であってもよい。
ステップS102において、変換部203は、音声認識技術により音声情報に含まれる店員111又は顧客112の発話の内容を文字情報に変換する。変換後の文字情報は、例えばテキストデータであり得る。
ステップS103において、抽出部204は、変換部203での変換により得られた文字情報から、支援情報生成部206に入力すべきキーワードを抽出する。この抽出処理は、例えば、文字情報の中にあらかじめ登録されている単語があるか否かを検索し、登録されている単語が出現した場合に、その単語をキーワードとして抽出するというものであり得る。あらかじめ登録しておくキーワードは、業務支援の対象を特定するために有用な単語から選択される。
ステップS104において、状況取得部201は、カメラ113により取得された売場110内の画像を取得する。そして、状況取得部201は、画像認識技術により、取得された画像から店員111の状況に関する状況情報を取得する。
状況取得部201により取得される店員111の状況情報とは、店舗100内における店員111の位置に関する情報、店員111の作業状態に関する情報等を含み得る。
店員111の位置に関する情報とは、例えば、店員111が、売場110にいるのか、それ以外の場所(例えば、店舗100内のバックヤード、店舗100の外等)にいるのかを示す情報であり得る。また、売場110内の店員111の位置を特定する必要がある場合には、店員111の位置に関する情報は、店員111が売場110内のどこにいるのかを示す情報を更に含んでもよい。具体的には、当該情報は、店員111がカウンタ内にいる状況、店員111が端末装置114の近くにいる状況、店員111が商品棚の近くにいる状況等を区別し得る情報を含んでもよい。
店員111の作業状態に関する情報とは、例えば、店員111が顧客112の問い合わせに応対している状況、店員111がカウンタで商品の販売をしている状況、店員111がバックヤードで待機している状況等を区別し得る情報を含み得る。
以下、作業状態に関する情報の取得についてより具体的に説明する。典型的には、画像から得られた店員111の位置と、店員111の周囲(近く)に顧客112、他の店員又は所定の物品が存在するか否かとに基づいて店員111の状況が判定され、店員111の作業状態に関する情報が取得され得る。店員111の周囲に顧客112等が存在するか否かを判定するためには画像処理技術により、画像から店員111、顧客112等を抽出し、更に、これらの間の画像内の位置関係を判定することが求められる。この画像処理の例について順次説明する。
店員111、顧客112等の抽出に用いられ得る画像認識技術は、具体的には、あらかじめ記憶されている店員111の特徴(例えば特徴量ベクトル)に合致する部分を画像の中から探索することにより、店員111の位置等を特定するものであり得る。店員111の特徴とは、制服、名札、ヘッドセット115等の店員111が保持している物品の特徴であってもよく、顔、体型等の店員111の生体的特徴であってもよい。例えば、画像内に制服、ヘッドセット115等を着用している人物がいる場合には、この人物は、顧客112ではなく、店員111であると判定される。これにより画像中の店員111の有無の判定及びその位置の取得を行うことができる。更に、発話者が店員111と顧客112のいずれであるのかを区別することもできる。また、画像内に複数の店員111が存在している場合には上述の特徴を用いて複数の店員111を区別することもできる。このように、店員111と顧客112等、複数の人物が画像から発見された場合には、人物の属性を取得することができる。
また、同様の手法により、あらかじめ記憶されている物品(例えば、カウンタ、レジスタ、端末装置114、商品棚、バックヤードのストアコンピュータ等)の特徴を画像の中から探索することにより物品の有無の判定、その種類の判定及びその位置の取得を行うことができる。あるいは、同様の手法により、顧客112を画像の中から探索することにより顧客112の有無の判定及びその位置の取得を行うことができる。ここで、顧客112を特定するアルゴリズムは、例えば、画像中の人物のうち、着目している店員111ではない人物を顧客112と判定するものであってもよく、商品カゴ、カート等の顧客112が保持している物品の特徴に基づいて判定するものであってもよい。
次に、これらの手法により特定された店員111と顧客112との位置関係に基づいて、店員111の周囲に顧客112が存在するか否かを特定するアルゴリズムの例について説明する。本アルゴリズムは、例えば、画像内の店員111と顧客112の間のピクセル数が、所定のピクセル数以下である場合に、店員111の周囲に顧客112が存在すると判定し、所定のピクセル数より大きい場合に、店員111の周囲に顧客112が存在しないと判定するものであり得る。また、画像内に顧客112が発見されなかった場合にも同様に店員111の周囲に顧客112が存在しないと判定され得る。ここで所定のピクセル数は、画像の撮影範囲の実際の大きさと画像のピクセル数との比率に応じて定めることができ、具体的には実際の大きさが数メートルになるようなピクセル数であり得る。この場合、上述のアルゴリズムは、店員111から数メートル以内の範囲に顧客112が存在するか否かを判定することができる。店員111の周囲に他の店員又は所定の物品が存在するか否かを識別する場合にも上記のアルゴリズムが同様に適用され得る。
次に店員111の位置と、店員111の周囲に存在する人物との関係に基づく店員111の作業状態の特定についてより詳細に説明する。
まず、店員111の周囲に人物がいない場合について説明する。この場合において、店員111の位置がカウンタの近くである場合には、店員111の作業状態は、接客待機中であると判定され得る。店員111の位置が商品棚の近くである場合には、店員111の作業状態は、商品の陳列等の商品管理に関連する作業中であると判定され得る。店員111の位置がバックヤードである場合には、店員111の作業状態は、在庫管理等の緊急度の低い作業を行っているか、あるいは業務を行っていない状態であると判定され得る。
次に、店員111の周囲に顧客112がいる場合について説明する。この場合において、店員111の位置がカウンタの近くである場合には、店員111の作業状態は、顧客112に対して商品の販売をしている状態と判定され得る。店員111の位置が商品棚の近くである場合には、店員111の作業状態は、商品の説明等の商品に関連した顧客対応中であると判定され得る。店員111の位置が端末装置114の近くである場合には、店員111の作業状態は、端末装置114に関するトラブル対応を行っている状態であるであると判定され得る。いずれの場合においても店員111は、接客対応中であり、緊急度が高い作業を行っているといえる。
次に、店員111の周囲に別の店員がいる場合について説明する。この場合において、店員111の位置がカウンタの近くである場合には、店員111の作業状態は、他の店員と共同で接客をしている状態、又は一方の店員が他方の店員に指導をしている等の共同作業中と判定され得る。店員111の位置が商品棚の近くである場合には、店員111の作業状態は、商品の陳列等の商品管理に関連する作業を共同で行っているものと判定され得る。店員111の位置がバックヤードである場合には、店員111の作業状態は、在庫管理等の緊急度の低い作業を共同で行っているか、あるいは業務を行っていない状態であると判定され得る。
以上のように、当該画像認識技術は、店員111と店員111の周辺にある物体又は人物を識別することにより、店員111の位置又は作業状態を特定するものであり得る。
なお、ステップS101からステップS103までの処理とステップS104の処理の順序は逆でもよい。また、ステップS101からステップS103までの処理とステップS104の処理の少なくとも一部が並行して行われてもよい。
ステップS105において、支援情報生成部206は、抽出部204により抽出されたキーワードと、状況取得部201により取得された状況情報とに基づいて店員111の業務を支援するための支援情報を生成する。
支援情報生成部206による支援情報の生成のための処理は、機械学習により生成された学習モデルを用いた処理又はデータベースを参照する処理であり得る。
まず、機械学習により生成された学習モデルを用いた処理の例を説明する。本例では、支援情報生成部206は、ニューラルネットワーク等の機械学習が可能な数理モデルを有する。キーワードと状況情報の組を学習データとして支援情報生成部206に入力し、入力に対応した適切な支援情報が出力されるように機械学習を行うことにより、学習モデルを生成することができる。この学習モデルをあらかじめ支援情報生成部206に組み込んでおくことにより、支援情報生成部206は、キーワードと状況情報とに基づいて支援情報を生成する処理を行うことができる。この機械学習を活用する手法では、学習用データを準備するだけで自動的にモデルを生成できる利点がある。
次に、データベースを参照する処理の例を説明する。本例では、支援情報生成部206は、キーワードと状況情報と支援情報を相互に関連付けたデータベースをあらかじめ記憶部207に記憶させておく。このデータベースは、過去の業務支援内容、業務マニュアル等を参照して作成することができる。支援情報生成部206は、入力されたキーワードと状況情報に対応する支援情報を記憶部207内のデータベースを参照して取得することにより、支援情報の生成を行う。データベースはニューラルネットワーク等の機械学習の数理モデルに比べて可読性が高い。そのため、データベースを参照する手法は、新たなキーワードを追加する等の改訂作業が容易であるという利点がある。なお、このデータベースは、キーワードと状況情報と支援情報とをキーとするテーブルであり得る。
図5を参照して、上述のデータベースを参照する処理に用いられるテーブルの具体的な構成例を説明する。図5には、発話を含む音声情報に基づいて生成された「キーワード」と、状況情報の一つである「店員の位置」と、「支援情報」と、支援情報を通知する対象である「通知先」とをキーとするテーブルが示されている。「店員の位置」に例示されている「端末装置114」、「レジスタ」、「商品棚」は、店員がこれらの物体の近くにいることを示している。「店員の位置」に例示されている「バックヤード」は、店員が売場110の外のバックヤードにいることを示している。例えば、キーワードとして「チケット」、「発行できない」、「予約番号」が入力され、店員の位置として「端末装置114」が入力された場合には、支援情報として、「確認ボタンの押下」をヘッドセットで音声により通知することが図5のテーブルから理解される。このように、本例においては、支援情報生成部206は、テーブルを参照することにより、支援情報の生成を行うことができる。
また、本例においては、キーワード及び店員の位置に応じて、後述の通知部205による通知先が決定され得るようにテーブルが構成されている。例えば、キーワードとして「チケット」、「発行できない」が入力され、店員111の位置として「バックヤード」が入力された場合には、通知先は、「ストアコンピュータの画面」である。この場面では、店員111は緊急性が低い状態であると推定されるため、通知部205は、バックヤードに設置されているストアコンピュータの画面にマニュアルを表示させて店員111に閲覧させることで、確実にトラブルの対処を行わせることができる。このように本例では、キーワードの内容及び店員の位置に応じて適切な通知先を選択して、音声での通知又は画面への表示等による店員への通知を行うことができる。
ステップS106において、通知部205は、支援情報生成部206により生成された支援情報を店員111に通知するための処理を行う。具体的には、通知部205は、支援情報を含む音声データをヘッドフォン116に送信する。ヘッドフォン116は音声データに基づく音声を出力し、店員111に対して業務を支援するための通知を行う。なお、支援情報を音声データに変換する処理には、例えば、テキストデータから音声を生成する文章読み上げ技術が用いられ得る。また、上述のように通知部205による通知先は、支援情報生成部206での処理に応じて異なっていてもよい。この通知先は、支援情報生成部206での処理により、機械学習により生成された学習モデル又はデータベースの参照により決定され得る。
なお、ステップS102及びステップS103の処理は省略されてもよい。例えば、支援情報生成部206が文章解析技術等により文字情報からそのまま支援情報の生成を行うことが可能な場合には、ステップS103の処理は省略され得る。また、支援情報生成部206が音声情報取得部202で取得された音声データから特徴を抽出して、その特徴に基づく支援情報の生成を行うことが可能な場合には、ステップS102及びステップS103の処理は省略され得る。
次に、図1に示す状況において、上述の処理の例をより具体的に説明する。以下の例は、本実施形態の処理の流れ及び効果についての理解を補助するための適用例を示したものであり、本実施形態の情報処理システム200が適用され得る場面を限定するものではない。
図1に示す場面で店員111と顧客112が行った対話は、以下のとおりであるものとする。
店員111「何かお困りでしょうか?」
顧客112「予約していたチケットが機械から出てきません。」
店員111「チケットが発行できないのですね。予約番号は入力されましたか?」
顧客112「はい。入力しました。」
店員111が装着しているヘッドセット115のマイクロフォン117は、この対話のうちの少なくとも店員111の発話を含む音声を取得する。ここで、マイクロフォン117は店員111の口の近傍に設けられているため、店員111の発話を取得可能である。音声情報取得部202は、ネットワークNWを介して、この音声に基づく音声情報を取得する。
変換部203は、上述の音声情報から、店員111の発話に対応する文字情報を取得する。この文字情報は以下のとおりとなる。なお、この文字情報に、更に顧客112の発話が含まれていてもよい。
「何かお困りでしょうか?」
「チケットが発行できないのですね。予約番号は入力されましたか?」
抽出部204は、上述の文字情報からあらかじめ登録されているキーワードを抽出する。登録されているキーワードは、業務支援の対象の特定に有用な単語である。上述の例では、キーワードとして、「チケット」、「発行できない」及び「予約番号」が抽出されるものとする。抽出されたこれらのキーワードは、支援情報生成部206に入力される。
状況取得部201は、カメラ113により撮影された画像から店員111及び店員111の近くにある端末装置114を検出する。店員111が端末装置114の近くにいることを示す状況情報が支援情報生成部206に入力される。
上述のように支援情報生成部206には、キーワードである「チケット」、「発行できない」及び「予約番号」と店員111が端末装置114の近くにいることを示す状況情報とが入力される。支援情報生成部206は、これらの情報を入力情報とする学習モデル又はデータベース参照等により、「端末装置114」、「チケット」、「発行できない」及び「予約番号」に関連する業務についての支援情報を生成する。
具体的には、これらの情報から、端末装置114の操作において、予約番号を入力した後にチケットが発行できない場合の対応方法が抽出される。ここでは、端末装置114は、予約番号入力後に確認ボタンを押下して入力を確定することでチケットの発行ができる仕様になっているものとする。この場合、例えば、「確認ボタンを押下してください」というテキストメッセージが支援情報として抽出される。
支援情報生成部206の処理が図5のテーブルを参照するものである場合について、この処理をより詳細に説明する。この場合には、キーワードである「チケット」、「発行できない」及び「予約番号」と、店員111が端末装置114の近くにいるという状況情報とに基づき、これらに対応する支援情報と通知先が出力される。この場合の支援情報は、「確認ボタンの押下」を音声で通知するというものであり、通知先はヘッドセットである。
通知部205は、「確認ボタンを押下してください」というテキストメッセージを音声に変換してヘッドフォン116に送信する。ヘッドフォン116は「確認ボタンを押下してください」という音声を店員111に通知する。これにより、店員111は、端末装置114の確認ボタンを押下することで、チケットの発行ができるという操作手順を理解することができ、顧客112に操作方法を説明することができる。
以上のように、本実施形態の情報処理システム200は、店員111又は顧客112の発話を含む音声情報と、店員111の状況に関する状況情報との双方に基づいて支援情報を生成する。音声情報と状況情報の双方を用いる理由を説明する。
音声情報のみを用いる場合には、発話がどのような状況でなされたのかを考慮することができないため、支援情報の生成の前提となる業務状況の情報が不足する場合がある。上述の具体例では、「チケット」、「発行できない」及び「予約番号」のみを用いて支援情報を生成しようとしても、どの装置でチケットが発行できないのかが不明であるため、適切な情報を提供できないおそれがある。
また、状況情報のみを用いる場合には、店員111がどのような支援を必要としているのかを示す情報が不足する場合がある。上述の具体例では、店員111が端末装置114の近くにいることだけでは、店員111が何について支援を必要としているのかが不明であるため、適切な情報を提供できないおそれがある。
これに対し、本実施形態の情報処理システム200は、音声情報と状況情報の双方を用いる。これにより、発話に含まれる支援の具体的内容の基礎となる要望事項と、支援情報の生成の前提となる店員111の業務状況に関する情報とを考慮して支援情報を生成することができる。具体的には、音声情報に含まれる「チケット」、「発行できない」及び「予約番号」に、「端末装置114」の状況情報が加わることにより、チケットの発行ができない装置が、「端末装置114」であることが特定される。したがって、生成される支援情報がより適切なものとなる。
以上のように、本実施形態によれば、店員111の業務状況に応じて適切な業務支援を行い得る情報処理システム200が提供される。
また、従来、店員111の作業において、問題が生じたときには、作業マニュアルの参照、コールセンターへの問い合わせ等の追加の作業が発生し、解決に時間がかかるという問題があった。これに対し、本実施形態の情報処理システム200は、店員111が自ら質問を発しなくても、音声情報及び状況情報から自動的に問題点を発見し、状況に応じた適切な支援情報を迅速に提供することができるため、問題解決の効率化が実現される。
[変形例1]
上述の例では、端末装置114におけるチケットの発行のトラブルの対応に関する業務支援を例示したが、第1実施形態はこれ以外の業務の支援に用いられ得る。そこで、第1実施形態の適用例についての他の例を変形例1として説明する。本例において、店員111は、「プリンタが動作しない」旨の発話をしたものとする。
本例においては、キーワードは、「プリンタ」、「動作しない」等であり得る。そして、出力されるべき支援情報はプリンタの動作方法を示すマニュアル等である。しかしながら、一般的に店舗内には、レジスタ(POS(Point Of Sales)端末)に設けられたレシート用のプリンタ、キオスク端末である端末装置114のチケット印刷用のプリンタ、バックヤードのストアコンピュータ付属のプリンタ等の多数のプリンタが存在する。そして、操作手順、トラブル対処方法はプリンタごとに異なっている。そのため、上記キーワードのみでは、どのプリンタの情報を提供すべきかが特定されない。
そこで、支援情報生成部206は、店員の位置についての状況情報に基づいて異なるプリンタのマニュアル等を支援情報として生成する。具体的には、店員111がカウンタ又はレジスタの近くにいる場合には、支援情報生成部206は、レジスタに設けられているプリンタについてのマニュアル等を支援情報として生成する。店員111が店舗100内の端末装置114の近くにいる場合には、支援情報生成部206は、端末装置114に設けられているプリンタについてのマニュアル等を支援情報として生成する。店員111がバックヤードにいる場合には、支援情報生成部206は、ストアコンピュータに設けられているプリンタについてのマニュアル等を支援情報として生成する。
このように、本変形例では、店員111の位置を考慮して支援情報を生成することにより、店員111の発話に含まれるキーワード中に「プリンタ」等の明確でないものがある場合であっても店員111の位置から情報を補完することができる。これにより、店員111の位置に応じて、支援情報の内容を異ならせることができ、より適切な業務支援を行い得る情報処理システムが提供される。
[変形例2]
第1実施形態の適用例についての他の例を変形例2として説明する。本例において、店員111は、何らかのトラブルが発生した旨の発話をしたものとする。
本例において、出力されるべき支援情報はトラブルの対処方法である。しかしながら、適切な支援情報の提供方法は、トラブルの内容、店員111の状況等により異なる。
そこで、支援情報生成部206は、キーワードの内容、状況情報等に基づいて異なるトラブルの対処方法を異なる形態で生成する。具体的には、キーワードに「システムトラブル」等の店舗100のシステムにトラブルが生じたことを示すものが含まれている場合には、トラブルの内容は業務に多大な影響を及ぼす深刻なものである。そこで、店員111が多少時間をかけてでも確実にトラブルを解消できるように、支援情報生成部206は、詳細な対処方法を支援情報として生成する。
一方、トラブルの内容が深刻なものでなく、店員111がバックヤードにいる場合には、支援情報生成部206は、簡潔な対処方法を支援情報として生成する。そして、通知部205は、バックヤードのストアコンピュータ、店員111の保有する発注端末等に対処方法を簡潔に提示する。また、この表示方法において、チャットのアプリケーションソフトを用いて支援情報を表示させることにより、店員111側から質問を受け付けることが可能な構成であってもよい。店員111の近くに顧客112がいるなど、店員111が接客中である場合には、トラブルをすぐに解消できるように、支援情報生成部206は、簡潔な対処方法を支援情報として生成する。そして、通知部205は、音声により、簡潔な対処方法を店員111に提供する。
このように、本変形例では、キーワードの内容、状況情報等に応じて、トラブルの対処方法の提供方法、提供する情報量及び提供先を異ならせることができる。これにより、より適切な業務支援を行い得る情報処理システムが提供される。
[変形例3]
第1実施形態の適用例についての他の例を変形例3として説明する。本例において、店員111は、商品棚の商品が陳列されていない旨の発話をしたものとする。
本例においては、出力されるべき支援情報は店員111に対しバックヤードに商品を取りに行って商品を陳列するように促す指示である。しかしながら、店員111の近くに顧客112がいるなど、店員111が接客中である場合には、バックヤードに商品を取りに行くことはできない。そのため、このような場合には、支援情報生成部206は、支援情報の生成を保留する。これにより、接客中の場面では不適切な支援情報の提示がなされることを抑止することができる。なお、支援情報生成部206は、通常通りに支援情報の生成を行った上で、通知部205からの通知を保留する処理を行ってもよい。このように、本変形例では、支援情報生成部206は、キーワードの内容、店員111の状況等に応じて店員111に対する支援情報の提供のタイミングを制御する処理を行う。なお、本例において、接客が終了し、店員111が待機中になった場合には、保留していた支援情報の生成を行い、店員111に対しバックヤードに商品を取りに行く指示を含む支援情報を生成する。
上述の実施形態において説明したシステムは以下の第2実施形態のようにも構成することができる。
[第2実施形態]
図6は、第2実施形態に係る情報処理システム300の機能ブロック図である。情報処理システム300は、音声情報取得部301、状況取得部302及び支援情報生成部303を備える。音声情報取得部301は、人物の発話を含む音声情報を取得する。状況取得部302は、人物の状況に関する状況情報を取得する。支援情報生成部303は、音声情報及び状況情報に基づいて、人物の業務を支援するための支援情報を生成する。
本実施形態によれば、業務状況に応じて適切な業務支援を行い得る情報処理システム300が提供される。
[変形実施形態]
本発明は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
上述の実施形態においては、状況取得部201は、売場110に設置されたカメラ113から状況情報の取得を行っているが、店員111の状況に関する状況情報が取得可能であれば、これ以外の装置から状況情報を取得してもよい。
例えば、店員111がスマートフォン、タブレットPC等のGPS(Global Positioning System)等による測位が可能な通信端末を保有している場合には、状況取得部201は、通信端末から店員111の位置を状況情報として取得してもよい。また、店舗100内にBLE(Bluetooth(登録商標) Low Energy)のビーコンが設置されており、店員111がビーコンからの信号を受信可能な通信端末を保有している場合には、通信端末は、店員111の測位を行うことができる。この場合にも、状況取得部201は、通信端末から店員111の位置を状況情報として取得することができる。
また、店舗100内にコンピュータ、POS端末等の端末が設置されている場合において、店員111がこれらの端末にログインしている場合には、店員111はこれらの端末を操作している可能性が高い。そこで、状況取得部201は、これらの端末のログイン状態を状況情報として取得することもできる。
上述の例は状況取得部201がマイクロフォン117とは異なる装置から状況情報を取得する例である。この場合には、マイクロフォン117単独では取得が難しい位置情報等を含む状況情報が取得可能である。また、この場合には、画像等の音声情報以外の情報源から状況情報を取得可能であり、情報源が多様化される。
一方、マイクロフォン117で取得された音声情報から状況情報を取得できる場合もある。例えば、マイクロフォン117で取得される音声の大きさ、音声の高さ、発話の間合い等から店員111の状況が把握可能な場合には、状況取得部201は、マイクロフォン117から状況情報を取得することができる。例えば、接客時は通常時よりも高い音程で発声することが多いため、音声の高さから店員111が接客中であるか否かを判別できる場合がある。
また、店舗100内の互いに異なる場所に複数のマイクロフォンが設置されている場合には、状況取得部201は、どのマイクロフォンから音声が取得されたかに基づいて、店員111の位置を特定し、その位置を状況情報として取得可能である。例えば、店舗100内の売場110とバックヤードにマイクロフォンが設置されている場合にバックヤードのマイクロフォンから音声が取得されたときには、店員111はバックヤードにいるため接客中ではないと判定され得る。なお、マイクロフォンは、店舗100の天井、壁面、床等の店舗100自体に設置されていてもよく、端末装置114、POS端末、コピー機、商品棚、カウンタ等、店舗100内の物品に設置されていてもよい。
また、上述の実施形態においては、店員111に提供される支援情報は、店員111に業務遂行のための知識であるが、この支援情報は店員111に対する作業指示であってもよい。例えば、支援情報生成部206が、音声情報及び状況情報に基づいて、店員111が商品棚に商品の陳列をすべき状況であると判定した場合に、通知部205は、店員111に商品の陳列を命じる業務指示音声の生成等の処理を行ってもよい。
また、上述の実施形態においては、通知部205は、支援情報を含む音声データをヘッドフォン116に送信する処理を行っているが、店員111への通知が可能であればこれ以外の処理であってもよい。例えば、店員111がタブレットPC又はスマートフォン等の表示装置を有する端末を保持している場合には、通知部205は、支援情報を含む文字、図形、記号、絵等を表示装置に表示させる処理を行ってもよい。この場合には、チャットのアプリケーションソフトを用いて支援情報を表示させることにより、店員111側から質問を受け付けることが可能な構成であってもよい。この場合、店員111は追加質問を行うことにより、更に詳細な情報を得ることができる。また、表示装置への表示と音声による通知を併用してもよい。
また、上述の実施形態においては、店員111と顧客112とが対面している場面を例示しているが、音声通話、テレビ電話等の非対面の接客を行う場面にも適用可能である。
また、上述の実施形態においては、状況情報は提供される支援情報の内容の特定等に用いられているが、店員111の状況に基づいて提供される支援情報の分量を調整してもよい。例えば、店員111が接客中であれば、迅速に問題を解決する必要があるため支援情報の分量を少なくして簡潔なものとすることが望ましい。これに対し、店員111がシステムトラブル等の困難性が高い問題に直面している場合には、詳細な情報が必要であるため、支援情報を充実させることが望ましい。また、店員111の状況に基づいて支援情報を提供する装置を変えてもよい。例えば、店員111が接客中であれば、接客を中断させないように音声により通知することが望ましく、店員111がシステムトラブルに対応している場合には、文書で正確な情報を伝えるため、表示装置への表示により通知することが望ましい。
上述の実施形態において、音声情報取得部202による音声情報の取得は常時行われていてもよく、間欠的に行われるものであってもよい。常時音声を取得する場合には、よりリアルタイム性が向上するので、接客頻度が高い店舗等、リアルタイム性が要求される環境において有効である。しかしながら、常時音声情報を取得すると、処理負荷が増大するため、処理負荷の低減が求められる場合又はリアルタイム性がさほど要求されない場合には、音声情報の取得は間欠的に行われてもよい。また、音声情報の取得は所定の条件が満たされたときに行われてもよい。例えば、音声情報取得部202に声紋分析の機能を設けておき、店員111以外の人物の声が入力された場合にのみ本実施形態の処理を実行するものであってもよい。この場合、接客時には支援情報の提供が行われるようにしつつ、店員111の独り言等の重要度が低い音声を無視する処理が可能となる。
上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記憶媒体に記録させ、記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体だけでなく、そのプログラム自体も各実施形態に含まれる。また、上述の実施形態に含まれる1又は2以上の構成要素は、各構成要素の機能を実現するように構成されたASIC、FPGA等の回路であってもよい。
該記憶媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disk)-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記憶媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するものも各実施形態の範疇に含まれる。
上述の各実施形態の機能により実現されるサービスは、SaaS(Software as a Service)の形態でユーザに対して提供することもできる。
なお、上述の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
上述の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
人物の発話を含む音声情報を取得する音声情報取得部と、
前記人物の状況に関する状況情報を取得する状況取得部と、
前記音声情報及び前記状況情報に基づいて、前記人物の業務を支援するための支援情報を生成する支援情報生成部と、
を備える、情報処理システム。
(付記2)
前記状況取得部は、前記人物を含む画像に基づいて前記状況情報を検出する、
付記1に記載の情報処理システム。
(付記3)
前記支援情報生成部は、前記音声情報及び前記状況情報を含む学習データを用いた機械学習により生成された学習モデルを用いて前記支援情報を生成する、
付記1又は2に記載の情報処理システム。
(付記4)
前記支援情報生成部は、前記音声情報、前記状況情報及び前記支援情報が関連付けられたデータベースを参照することにより前記支援情報を生成する、
付記1乃至3のいずれか1項に記載の情報処理システム。
(付記5)
前記音声情報取得部は、店員と顧客との対話から前記音声情報を取得する、
付記1乃至4のいずれか1項に記載の情報処理システム。
(付記6)
前記状況情報は、前記人物の位置に関する情報及び前記人物の作業状態に関する情報の少なくとも1つを含む、
付記1乃至5のいずれか1項に記載の情報処理システム。
(付記7)
前記支援情報を音声の出力又は表示装置への表示により前記人物に通知する通知部を更に備える、
付記1乃至6のいずれか1項に記載の情報処理システム。
(付記8)
前記支援情報は、前記人物に対する業務指示を含む、
付記1乃至7のいずれか1項に記載の情報処理システム。
(付記9)
前記状況取得部は、店員又は顧客の発話が取得される装置とは異なる装置によって取得される情報に基づいて前記状況情報を取得する、
付記1乃至8のいずれか1項に記載の情報処理システム。
(付記10)
前記音声情報を文字情報に変換する変換部
を更に備える、付記1乃至9のいずれか1項に記載の情報処理システム。
(付記11)
前記文字情報から前記支援情報生成部に入力すべきキーワードを抽出する抽出部
を更に備える、付記10に記載の情報処理システム。
(付記12)
前記状況取得部は、店舗に設置されたカメラにより撮影された、前記人物を含む画像に基づいて前記状況情報を検出する、
付記1乃至11のいずれか1項に記載の情報処理システム。
(付記13)
前記音声情報は、前記人物が身につけているマイクロフォン又は店舗に設置されたマイクロフォンにより取得された音声に基づくものである、
付記1乃至12のいずれか1項に記載の情報処理システム。
(付記14)
前記支援情報生成部は、前記音声情報及び前記状況情報の少なくとも1つに基づいて、前記支援情報とは異なる支援情報を更に生成する、
付記1乃至13のいずれか1項に記載の情報処理システム。
(付記15)
前記支援情報を音声の出力又は表示装置への表示により前記人物に通知する通知部を更に備え、
前記通知部は、前記音声情報及び前記状況情報の少なくとも1つに基づいて、前記表示装置とは異なる装置を介して前記人物に通知を行う、
付記1乃至14のいずれか1項に記載の情報処理システム。
(付記16)
前記支援情報生成部は、前記音声情報及び前記状況情報の少なくとも1つに基づいて前記支援情報の前記人物への提供のタイミングを制御する、
付記1乃至15のいずれか1項に記載の情報処理システム。
(付記17)
人物の発話を含む音声情報を取得するステップと、
前記人物の状況に関する状況情報を取得するステップと、
前記音声情報及び前記状況情報に基づいて、前記人物の業務を支援するための支援情報を生成するステップと、
を備える、情報処理方法。
(付記18)
コンピュータに、
人物の発話を含む音声情報を取得するステップと、
前記人物の状況に関する状況情報を取得するステップと、
前記音声情報及び前記状況情報に基づいて、前記人物の業務を支援するための支援情報を生成するステップと、
を備える情報処理方法を実行させるためのプログラムが記憶された記憶媒体。
この出願は、2018年7月18日に出願された日本出願特願2018-134759を基礎とする優先権を主張し、その開示の全てをここに取り込む。
100 店舗
110 売場
111 店員
112 顧客
113 カメラ
114 端末装置
115 ヘッドセット
116 ヘッドフォン
117 マイクロフォン
200、300 情報処理システム
201、302 状況取得部
202、301 音声情報取得部
203 変換部
204 抽出部
205 通知部
206、303 支援情報生成部
207 記憶部
251 CPU
252 RAM
253 ROM
254 HDD
255 通信I/F
256 表示装置
257 入力装置
258 バス
NW ネットワーク

Claims (10)

  1. 人物の発話を含む音声情報を取得する音声情報取得部と、
    前記人物の状況に関する情報であって、前記人物の位置に関する情報を含む状況情報を取得する状況取得部と、
    前記音声情報及び前記状況情報に基づいて、前記人物業務を遂行させる支援情報を生成する支援情報生成部と、
    を備え
    前記支援情報生成部は、前記音声情報と前記状況情報とを入力し、当該入力に対応した適切な前記支援情報が出力されるように機械学習を行うことで生成された学習モデルを用いて、前記音声情報取得部により取得した前記音声情報、及び、前記状況取得部により取得した前記状況情報から前記支援情報を生成し、又は、
    前記音声情報、前記状況情報及び前記支援情報が関連付けられたデータベースを参照することにより前記支援情報を生成する、情報処理システム。
  2. 前記状況取得部は、前記人物を含む画像に基づいて前記状況情報を検出する、
    請求項1に記載の情報処理システム。
  3. 前記音声情報取得部は、店員と顧客との対話から前記音声情報を取得する、
    請求項1又は2に記載の情報処理システム。
  4. 前記支援情報を音声の出力又は表示装置への表示により前記人物に通知する通知部を更に備える、
    請求項1乃至のいずれか1項に記載の情報処理システム。
  5. 前記支援情報は、前記人物に対する業務指示を含む、
    請求項1乃至のいずれか1項に記載の情報処理システム。
  6. 前記支援情報生成部は、前記音声情報及び前記状況情報の少なくとも1つに基づいて、前記支援情報とは異なる支援情報を更に生成する、
    請求項1乃至のいずれか1項に記載の情報処理システム。
  7. 前記支援情報を音声の出力又は表示装置への表示により前記人物に通知する通知部を更に備え、
    前記通知部は、前記音声情報及び前記状況情報の少なくとも1つに基づいて、前記表示装置とは異なる装置を介して前記人物に通知を行う、
    請求項1乃至のいずれか1項に記載の情報処理システム。
  8. 前記支援情報生成部は、前記音声情報及び前記状況情報の少なくとも1つに基づいて前記支援情報の前記人物への提供のタイミングを制御する、
    請求項1乃至のいずれか1項に記載の情報処理システム。
  9. コンピュータにより実行される情報処理方法であって、
    人物の発話を含む音声情報を取得する音声取得ステップと、
    前記人物の状況に関する情報であって、前記人物の位置に関する情報を含む状況情報を取得する状況取得ステップと、
    前記音声情報及び前記状況情報に基づいて、前記人物業務を遂行させる支援情報を生成する支援情報生成ステップと、
    を備え
    前記支援情報生成ステップでは、前記音声情報と前記状況情報とを入力し、当該入力に対応した適切な前記支援情報が出力されるように機械学習を行うことで生成された学習モデルを用いて、前記音声取得ステップで取得した前記音声情報、及び、前記状況取得ステップで取得した前記状況情報から前記支援情報を生成し、又は、
    前記音声情報、前記状況情報及び前記支援情報が関連付けられたデータベースを参照することにより前記支援情報を生成する、情報処理方法。
  10. コンピュータに、
    人物の発話を含む音声情報を取得する音声取得ステップと、
    前記人物の状況に関する情報であって、前記人物の位置に関する情報を含む状況情報を取得する状況取得ステップと、
    前記音声情報及び前記状況情報に基づいて、前記人物業務を遂行させる支援情報を生成する支援情報生成ステップと、
    を備え
    前記支援情報生成ステップでは、前記音声情報と前記状況情報とを入力し、当該入力に対応した適切な前記支援情報が出力されるように機械学習を行うことで生成された学習モデルを用いて、前記音声取得ステップで取得した前記音声情報、及び、前記状況取得ステップで取得した前記状況情報から前記支援情報を生成し、又は、
    前記音声情報、前記状況情報及び前記支援情報が関連付けられたデータベースを参照することにより前記支援情報を生成する情報処理方法を実行させるためのプログラム。
JP2020531246A 2018-07-18 2019-07-05 情報処理システム、情報処理方法及び記憶媒体 Active JP7380561B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018134759 2018-07-18
JP2018134759 2018-07-18
PCT/JP2019/026861 WO2020017365A1 (ja) 2018-07-18 2019-07-05 情報処理システム、情報処理方法及び記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2020017365A1 JPWO2020017365A1 (ja) 2021-08-02
JP7380561B2 true JP7380561B2 (ja) 2023-11-15

Family

ID=69163666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020531246A Active JP7380561B2 (ja) 2018-07-18 2019-07-05 情報処理システム、情報処理方法及び記憶媒体

Country Status (3)

Country Link
US (4) US20210125614A1 (ja)
JP (1) JP7380561B2 (ja)
WO (1) WO2020017365A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156522A (ja) 2017-03-21 2018-10-04 日本電気株式会社 情報処理装置、注意喚起方法、およびプログラム
JP2019029984A (ja) 2017-07-27 2019-02-21 大日本印刷株式会社 情報処理装置、情報処理方法、映像データ、プログラム、及び情報処理システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366621A (ja) * 2001-06-05 2002-12-20 Komatsu Noriko 店舗経営指導情報提供方法およびそのサーバのプログラム
US20110282662A1 (en) * 2010-05-11 2011-11-17 Seiko Epson Corporation Customer Service Data Recording Device, Customer Service Data Recording Method, and Recording Medium
JP5830706B2 (ja) * 2014-01-29 2015-12-09 パナソニックIpマネジメント株式会社 店員作業管理装置、店員作業管理システムおよび店員作業管理方法
JP6624368B2 (ja) * 2014-09-30 2019-12-25 パナソニックIpマネジメント株式会社 接客モニタリングシステム及び接客モニタリング方法
US9911290B1 (en) * 2015-07-25 2018-03-06 Gary M. Zalewski Wireless coded communication (WCC) devices for tracking retail interactions with goods and association to user accounts
US20170286940A1 (en) * 2016-04-01 2017-10-05 Wal-Mart Stores, Inc. Payment register system and method of operating a plurality of payment registers
US10332505B2 (en) * 2017-03-09 2019-06-25 Capital One Services, Llc Systems and methods for providing automated natural language dialogue with customers
CN111684412A (zh) * 2018-01-29 2020-09-18 亚历山大·石 安全区块链集成电路
US10685358B2 (en) * 2018-03-02 2020-06-16 Capital One Services, Llc Thoughtful gesture generation systems and methods
US11423448B2 (en) * 2018-05-07 2022-08-23 [24]7.ai, Inc Method and apparatus for facilitating interaction with customers on enterprise interaction channels

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156522A (ja) 2017-03-21 2018-10-04 日本電気株式会社 情報処理装置、注意喚起方法、およびプログラム
JP2019029984A (ja) 2017-07-27 2019-02-21 大日本印刷株式会社 情報処理装置、情報処理方法、映像データ、プログラム、及び情報処理システム

Also Published As

Publication number Publication date
US20230410802A1 (en) 2023-12-21
US20210125614A1 (en) 2021-04-29
US20230368793A1 (en) 2023-11-16
US20230368792A1 (en) 2023-11-16
WO2020017365A1 (ja) 2020-01-23
JPWO2020017365A1 (ja) 2021-08-02

Similar Documents

Publication Publication Date Title
US11688399B2 (en) Computerized intelligent assistant for conferences
JP7159392B2 (ja) 画像および/または他のセンサデータに基づいている自動アシスタント要求の解決
US20200125322A1 (en) Systems and methods for customization of augmented reality user interface
CN112818674A (zh) 带货直播的信息处理方法、装置、设备及介质
US11321675B2 (en) Cognitive scribe and meeting moderator assistant
JP2006260275A (ja) コンテンツ管理システム、表示制御装置、表示制御方法、および表示制御プログラム
US20220284254A1 (en) Reconfigurable interaction badge
US20180068177A1 (en) Method, device, and non-transitory computer-readable recording medium
US20230396740A1 (en) Processing apparatus, and processing method
JP7380561B2 (ja) 情報処理システム、情報処理方法及び記憶媒体
JP2015061116A (ja) Ngワードの兆候を把握するコールセンタ用語管理システム及びその方法
US20180068321A1 (en) Reception supporting method and device
US20200322293A1 (en) Information processing system and method
JP5518919B2 (ja) 顔登録装置、プログラムおよび顔登録方法
US9122312B2 (en) System and method for interacting with a computing device
US20230412722A1 (en) Two-way communication system initiated by machine readable code
US20230412764A1 (en) Analysis apparatus, system, method, and non-transitory computer readable medium storing program
WO2022201339A1 (ja) 価格管理システム、価格管理方法、及び、記録媒体
US20230351806A1 (en) Analysis apparatus, analysis system, analysis method, and non-transitory computer readable medium storing program
JP2022019034A (ja) 情報処理プログラム、情報処理装置及び情報処理方法
JP2023007309A (ja) 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP2022187611A (ja) 接客支援システム、接客支援装置、接客支援方法および接客支援プログラム
TW202016806A (zh) 智能跟進事務管理系統
CN115689376A (zh) 业务员考核方法、装置、存储介质及计算机设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R151 Written notification of patent or utility model registration

Ref document number: 7380561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151