JP7361961B1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP7361961B1
JP7361961B1 JP2023001538A JP2023001538A JP7361961B1 JP 7361961 B1 JP7361961 B1 JP 7361961B1 JP 2023001538 A JP2023001538 A JP 2023001538A JP 2023001538 A JP2023001538 A JP 2023001538A JP 7361961 B1 JP7361961 B1 JP 7361961B1
Authority
JP
Japan
Prior art keywords
attendee
emotion
unit
information processing
exclusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023001538A
Other languages
English (en)
Inventor
俊英 川満
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TIS Inc
Original Assignee
TIS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TIS Inc filed Critical TIS Inc
Priority to JP2023001538A priority Critical patent/JP7361961B1/ja
Application granted granted Critical
Publication of JP7361961B1 publication Critical patent/JP7361961B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】オンラインプレゼンテーションにおいて、プレゼンテーションを受ける出席者の感情をより精度よく推定する。【解決手段】本情報処理装置は、第1の出席者による第2の出席者へのオンラインプレゼンテーションの動画を取得する動画取得部と、上記動画から上記第1の出席者に係る情報を除外した除外後データを生成する除外部と、上記除外後データを基に、上記第2の出席者の感情を推定する推定部と、上記オンラインプレゼンテーションの画面に、推定した上記第2の出席者の上記感情を示す符号を出力する出力部と、を備える。【選択図】図5

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
近年、商談やプレゼンテーション等をオンラインで行う、いわゆるオンラインプレゼンテーションが広く利用されている。顧客の声や動画を基に顧客の感情を分析する技術も提案されている(特許文献1、2参照)。
特開2020-184216号公報 特開2018-068618号公報
オンラインプレゼンテーションにおいて取得される動画には、顧客だけではなく、顧客に製品等の説明をする営業担当者も含まれる。そのため、オンラインプレゼンテーションで取得された動画をそのまま用いて感情の推定を行ってしまうと、推定対象ではない営業担当者も含まれてしまうため、顧客の感情の推定精度が低下する虞がある。
開示の技術の1つの側面は、オンラインプレゼンテーションにおいて、プレゼンテーションを受ける出席者の感情をより精度よく推定できる情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。
開示の技術の1つの側面は、次のような情報処理装置によって例示される。本情報処理装置は、第1の出席者による第2の出席者へのオンラインプレゼンテーションの動画を取得する動画取得部と、上記動画から上記第1の出席者に係る情報を除外した除外後データを生成する除外部と、上記除外後データを基に、上記第2の出席者の感情を推定する推定部と、上記オンラインプレゼンテーションの画面に、推定した上記第2の出席者の上記感情を示す符号を出力する出力部と、を備える。
本情報処理装置によれば、オンラインプレゼンテーションに出席する第1の出席者及び第2の出席者のうち、プレゼンテーションを行う第1の出席者に係る情報を除外して感情が推定される。第1の出席者を除外して感情が推定されるため、第2の出席者の感情の推定精度をより高いものとすることができる。
本情報処理装置は、次の特徴を備えてもよい。上記第1の出席者を撮影した画像データを記憶する記憶部をさらに備え、上記除外部は、上記記憶部に記憶された上記画像データを基に、上記第1の出席者に係る情報を除外した除外後映像データを生成し、上記推定部は、上記除外後映像データを基に上記第2の出席者の上記感情を推定する。このような情報処理装置によれば、映像を基にした第2の出席者の感情の推定精度をより高いものとすることができる。
本情報処理装置は、次の特徴を備えてもよい。上記第1の出席者の音声データを記憶する記憶部をさらに備え、上記除外部は、上記記憶部に記憶された上記音声データを基に、上記第1の出席者に係る情報を除外した除外後音声データを生成し、上記推定部は、上記
除外後音声データを基に上記第2の出席者の上記感情を推定する。このような情報処理装置によれば、音声データを基にした第2の出席者の感情の推定精度をより高いものとすることができる。
本情報処理装置は、次の特徴を備えてもよい。上記除外後音声データからテキストデータを抽出するテキスト抽出部をさらに備え、上記推定部は、上記テキストデータを基に上記第2の出席者の上記感情を推定する。このような情報処理装置によれば、テキストデータが除外後音声データから抽出されるため、テキストデータを基にした第2の出席者の感情の推定精度をより高いものとすることができる。
本情報処理装置は、次の特徴を備えてもよい。上記第1の出席者を撮影した画像データ、及び、上記第1の出席者の音声データを記憶する記憶部をさらに備え、上記除外部は、上記記憶部に記憶された上記画像データを基に、上記第1の出席者に係る情報を除外した除外後映像データを生成し、上記記憶部に記憶された上記音声データを基に、上記第1の出席者に係る情報を除外した除外後音声データを生成する。また、上記情報処理装置は、上記除外後音声データからテキストデータを抽出するテキスト抽出部をさらに備える。そして、上記推定部は、上記除外後映像データを基に上記第2の出席者の第1の感情を推定し、上記除外後音声データを基に上記第2の出席者の第2の感情を推定し、上記テキストデータを基に上記第2の出席者の第3の感情を推定し、上記第1の感情、上記第2の感情及び上記第3の感情を基に、上記第2の出席者の上記感情を推定する。このような情報処理装置によれば、映像、音声及びテキストデータを複合的に活用して第2の出席者の感情を推定できるため、感情の推定精度をより高めることができる。
本情報処理装置は、次の特徴を備えてもよい。上記動画取得部は、上記オンラインプレゼンテーションが実行されている間に所定間隔で上記動画を取得し、上記出力部は、上記オンラインプレゼンテーションの画面に出力した上記第2の出席者の上記感情を示す上記符号を上記所定間隔で更新する。このような情報処理装置によれば、オンラインプレゼンテーション中に第2の出席者の感情を示す符号が出力されるため、第2の出席者の反応を考慮したプレゼンテーションを第1の出席者に促すことができる。
本情報処理装置は、次の特徴を備えてもよい。上記出力部は、上記オンラインプレゼンテーションの終了後に、上記第2の出席者の上記感情の時系列変化を基にした上記オンラインプレゼンテーションの評価をさらに出力する。また、上記出力部は、上記オンラインプレゼンテーションの終了後に、上記第2の出席者の上記感情の時系列変化をさらに出力してもよい。このような情報処理装置によれば、オンラインプレゼンテーションにおける第2の出席者の反応が一目で把握させることができる。
本情報処理装置は、次の特徴を備えてもよい。過去に実施された上記オンラインプレゼンテーションにおいてプレゼンテーションを受ける第3の出席者の感情の時系列変化を記憶する記憶部をさらに備え、上記出力部は、上記第3の出席者の上記感情の時系列変化と上記第2の出席者の上記感情の時系列変化とを対応付けて出力する。このような情報処理装置によれば、過去に行われたオンラインプレゼンテーションと今回行われたオンラインプレゼンテーションにおける出席者の反応を容易に比較することができる。
以上説明した技術は、情報処理方法及び情報処理プログラムとして把握することも可能である。
開示の技術によれば、オンラインプレゼンテーションにおいて、プレゼンテーションを受ける出席者の感情をより精度よく推定できる。
図1は、実施形態に係るオンライン商談支援システムの一例を示す図である。 図2は、支援装置のハードウェア構成の一例を示す図である。 図3は、営業端末のハードウェア構成の一例を示す図である。 図4は、顧客端末のハードウェア構成の一例を示す図である。 図5は、実施形態に係る支援装置の処理ブロックの一例を示す図である。 図6は、動画取得部によって取得される動画の一画面(オンライン商談画面)を例示する図である。 図7は、営業端末のディスプレイに表示されるオンライン商談画面の一例を示す図である。 図8は、営業端末のディスプレイに表示される評価結果画面の一例を示す図である。 図9は、実施形態に係る支援装置の処理フローの一例を示す図である。 図10は、感情推定部による感情の推定処理の処理フローの一例を示す第1の図である。 図11は、感情推定部による感情の推定処理の処理フローの一例を示す第2の図である。 図12は、感情推定部による感情の推定処理の処理フローの一例を示す第3の図である。 図13は、感情推定部による感情の推定処理の処理フローの一例を示す第4の図である。 図14は、評価部による総合評価の算出処理の処理フローの一例を示す図である。
<実施形態>
以下、図面を参照して実施形態についてさらに説明する。図1は、実施形態に係るオンライン商談支援システム500の一例を示す図である。オンライン商談支援システム500は、支援装置1、営業端末2、顧客端末31、32、33及びネットワークN1を備える。支援装置1、営業端末2及び顧客端末3は、ネットワークN1によって通信可能に接続される。
オンライン商談支援システム500では、顧客端末31、32、33及び営業端末2を利用したオンライン商談が行われる。オンライン商談では、顧客C11、C12、C13に対して、例えば、営業担当者E1が製品やサービスをオンラインで説明する。支援装置1は、商談に係る音及び動画をネットワークN1を介して取得する。顧客端末31、32、33を区別しないときは、顧客端末3とも称する。顧客C11、C12、C13を区別しないときは、顧客C10とも称する。営業担当者E1は、「第1の出席者」の一例である。オンライン商談は、「オンラインプレゼンテーション」の一例である。
顧客端末3は、顧客C10によって利用される情報処理装置である。顧客C10は、顧客端末3を利用してオンライン商談に参加する。営業端末2は、営業担当者E1によって利用される情報処理装置である。営業担当者E1は、営業端末2を利用してオンライン商談に参加する。顧客C10は、「第2の出席者」の一例である。
支援装置1は、営業端末2及び顧客端末31、32、33によって行われるオンライン商談の音及び動画をネットワークN1を介して取得する。支援装置1は、取得した音及び動画を基に、顧客端末3を利用する顧客C10の感情を分析する。支援装置1は、「情報
処理装置」の一例である。
<ハードウェア構成>
図2は、支援装置1のハードウェア構成の一例を示す図である。支援装置1は、Central Processing Unit(CPU)101、主記憶部102、補助記憶部103、通信部104、ディスプレイ105及び接続バスB1を備える。CPU101、主記憶部102、補助記憶部103、通信部104及びディスプレイ105は、接続バスB1によって相互に接続される。
CPU101は、マイクロプロセッサーユニット(MPU)、プロセッサーとも呼ばれる。CPU101は、単一のプロセッサーに限定される訳ではなく、マルチプロセッサー構成であってもよい。また、単一のソケットで接続される単一のCPU101がマルチコア構成を有していてもよい。CPU101が実行する処理のうち少なくとも一部は、CPU101以外のプロセッサー、例えば、Digital Signal Processor(DSP)、Graphics Processing Unit(GPU)、数値演算プロセッサー、ベクトルプロセッサー、画像処理プロセッサー等の専用プロセッサーで行われてもよい。また、CPU101が実行する処理のうち少なくとも一部は、集積回路(IC)、その他のデジタル回路によって実行されてもよい。また、CPU101の少なくとも一部にアナログ回路が含まれてもよい。集積回路は、Large Scale Integrated circuit(LSI)、Application Specific Integrated Circuit(ASIC)、プログラマブルロジックデバイス(PLD)を含む。PLDは、例えば、Field-Programmable Gate Array(FPGA)を含む。CPU101は、プロセッサーと集積回路との組み合わせであってもよい。組み合わせは、例えば、マイクロコントローラーユニット(MCU)、System-on-a-chip(SoC)、システムLSI、チップセットなどと呼ばれる。支援装置1では、CPU101が補助記憶部103に記憶されたプログラムを主記憶部102の作業領域に展開し、プログラムの実行を通じて周辺装置の制御を行う。これにより、支援装置1は、所定の目的に合致した処理を実行することができる。主記憶部102及び補助記憶部103は、CPU101が読み取り可能な記録媒体である。
主記憶部102は、CPU101から直接アクセスされる記憶部として例示される。主記憶部102は、Random Access Memory(RAM)及びRead Only Memory(ROM)を含む。
補助記憶部103は、各種のプログラム及び各種のデータを読み書き自在に記録媒体に格納する。補助記憶部103は外部記憶装置とも呼ばれる。補助記憶部103には、オペレーティングシステム(Operating System、OS)、各種プログラム、各種テーブル等が格納される。OSは、通信部104を介して接続される外部装置等とのデータの受け渡しを行う通信インターフェースプログラムを含む。外部装置等には、例えば、コンピューターネットワーク等で接続された、他の情報処理装置及び外部記憶装置が含まれる。なお、補助記憶部103は、例えば、ネットワーク上のコンピューター群であるクラウドシステムの一部であってもよい。
補助記憶部103は、例えば、Erasable Programmable ROM(EPROM)、ソリッドステートドライブ(Solid State Drive、SSD)、ハードディスクドライブ(Hard Disk Drive、HDD)等である。また、補助記憶部103は、例えば、Compact Disc(CD)ドライブ装置、Digital Versatile Disc(DVD)ドライブ装置、Blu-ray(登録商標) Disc(BD)ドライブ装置等である。また、補助記憶部103は
、Network Attached Storage(NAS)あるいはStorage Area Network(SAN)によって提供されてもよい。
通信部104は、例えば、ネットワークN1とのインターフェースである。通信部104は、ネットワークN1を介して営業端末2及び顧客端末3と通信を行う。
ディスプレイ105は、CPU101で処理されるデータや主記憶部102に記憶されるデータを表示する。ディスプレイ105は、例えば、Liquid Crystal Display(LCD)、Plasma Display Panel(PDP)、無機Electroluminescence(EL)パネル、有機ELパネルである。
つづいて、営業端末2のハードウェア構成について説明する。図3は、営業端末2のハードウェア構成の一例を示す図である。営業端末2は、CPU201、主記憶部202、補助記憶部203、通信部204、ディスプレイ205、スピーカー206、マイクロフォン207、カメラ208及び接続バスB2を備える。CPU201、主記憶部202、補助記憶部203、通信部204、ディスプレイ205、スピーカー206、マイクロフォン207及びカメラ208は、接続バスB2によって相互に接続される。
CPU201、主記憶部202、補助記憶部203、通信部204及びディスプレイ205は、支援装置1のCPU101、主記憶部102、補助記憶部103、通信部104及びディスプレイ105と同様の構成であるため、その説明を省略する。スピーカー206は、音を出力する装置である。スピーカー206は、例えば、オンライン商談の相手となる顧客C10の声等の音を出力する。マイクロフォン207は、音の入力を受け付ける装置である。マイクロフォン207は、例えば、営業担当者E1の声取得に用いられるマイクロフォンである。カメラ208は、例えば、営業担当者E1を撮影するデジタルカメラである。
つづいて、顧客端末3のハードウェア構成について説明する。図4は、顧客端末3のハードウェア構成の一例を示す図である。顧客端末3は、CPU301、主記憶部302、補助記憶部303、通信部304、ディスプレイ305、スピーカー306、マイクロフォン307、カメラ308及び接続バスB3を備える。CPU301、主記憶部302、補助記憶部303、通信部304、ディスプレイ305、スピーカー306、マイクロフォン307、カメラ308及び接続バスB3は、営業端末2のCPU201、主記憶部202、補助記憶部203、通信部204、ディスプレイ205、スピーカー206、マイクロフォン207、カメラ208及び接続バスB2と同様の構成であるため、その説明を省略する。
<支援装置1の処理ブロック>
図5は、実施形態に係る支援装置1の処理ブロックの一例を示す図である。支援装置1は、動画取得部11、映像抽出部12、音声抽出部13、除外部14、テキスト抽出部15、感情推定部16、評価部17、出力部18及び担当者データベース19を備える。支援装置1は、主記憶部102に実行可能に展開されたコンピュータープログラムをCPU101が実行することで、上記支援装置1の、動画取得部11、映像抽出部12、音声抽出部13、除外部14、テキスト抽出部15、感情推定部16、評価部17、出力部18及び担当者データベース19等の各部としての処理を実行する。
担当者データベース19には、営業担当者E1の顔を撮影した画像及び営業担当者E1の音声とが対応付けられて記憶される。担当者データベース19には、営業担当者E1の顔の映像と音声とを含む動画が記憶されてもよい。担当者データベース19は、例えば、補助記憶部103に構築される。
動画取得部11は、ネットワークN1を介して、営業端末2及び顧客端末3を用いて行われるオンライン商談における所定時間分の動画を取得する。所定時間分の動画の取得には、例えば、オンライン商談に使用されるオンラインミーティングシステムのApplication Programming Interface(API)を用いることができる。取得される動画には、例えば、営業端末2のカメラ208及びカメラ308によって撮影された営業担当者E1の映像と音声、及び、顧客端末3のカメラ308及びマイクロフォン307によって撮影された顧客C10の映像と音声、が含まれる。
図6は、動画取得部11によって取得される動画の一画面(オンライン商談画面D1)を例示する図である。オンライン商談画面D1は、ユーザ表示領域W1、W2、W3、W4を含む。ユーザ表示領域W1は、顧客C11の顔が表示される領域である。ユーザ表示領域W2は、顧客C12の顔が表示される領域である。ユーザ表示領域W3は、顧客C13の顔が表示される領域である。ユーザ表示領域W4は、営業担当者E1の顔が表示される領域である。ここで、顧客C12はカメラ308による撮影をオフにしているため、ユーザ表示領域W2には顧客C12の顔が表示されていない。また、顧客C12は、マイクロフォン207もオフにしているものとする。このように、動画取得部11によって取得される動画には、オンライン商談に参加する顧客C11、顧客C13、営業担当者E1の顔や音声が含まれる。その一方で、オンライン商談に参加していても顔や音声が動画取得部11によって取得される動画に含まれない顧客C12も存在し得る。
映像抽出部12は、動画取得部11によって取得された動画から映像を抽出する。音声抽出部13は、動画取得部11によって取得された動画から音声を抽出する。
除外部14は、映像抽出部12によって抽出された映像から営業担当者E1の顔を除外する。除外部14は、例えば、担当者データベース19に記憶された顔の特徴量を基に、映像抽出部12によって抽出された映像から営業担当者E1の顔を除外する。除外部14用いる顔の特徴量としては、例えば、Haar-like特徴量、Joint Haar-like特徴量、及び、Sparse特徴量を挙げることができる。以下、本明細書において、映像抽出部12によって抽出された映像から営業担当者E1の顔を除外した映像を「除外後映像データ」とも称する。
また、除外部14は、音声抽出部13によって抽出された音声から営業担当者E1の音声を除外する。除外部14は、例えば、音声抽出部13によって抽出された音声に対する周波数解析の結果と、担当者データベース19に記憶された音声に対する周波数解析の結果と、を用いて、音声抽出部13によって抽出された音声から営業担当者E1の音声を除外する。除外部14による周波数解析としては、例えば、メルスペクトログラムを採用することができる。以下、本明細書において、音声抽出部13によって抽出された音声から営業担当者E1の音声を除外した音声を「除外後音声データ」とも称する。
テキスト抽出部15は、除外後音声データから、除外後音声データを文字情報に変換したテキストを抽出する。除外後音声データからテキストを抽出する方法としては、公知の様々な方法を採用することができる。
感情推定部16は、除外後映像データ、除外後音声データ及びテキストの夫々を用いて、顧客C10の感情を推定する。感情推定部16は、除外後映像データを基に、顧客C10の感情を推定する。感情推定部16は、除外後音声データを基に、顧客C10の感情を推定する。また、感情推定部16は、テキスト抽出部15によって抽出されたテキストを基に、顧客C10の感情を推定する。除外後映像データ、除外後音声データ及びテキストの夫々を用いて顧客C10の感情を推定する方法としては、公知の様々な方法を採用する
ことができる。
感情推定部16は、除外後映像データ、除外後音声データ及びテキストの夫々を用いて推定された顧客C10の感情の推定結果を組み合わせて分析し、顧客C10の感情を推定する。感情推定部16は、除外後映像データ、除外後音声データ及びテキストを組み合わせて分析することで、より高い精度で顧客C10の感情を推定することができる。感情推定部16による顧客C10の感情の推定は、オンライン商談中において所定期間毎に行われる。感情推定部16による感情の推定結果は、例えば、補助記憶部103に記憶される。
なお、オンライン商談では、カメラ308をオフにして顔が表示されないようにする場合も考えられる。このような場合、感情推定部16は、除外後音声データ及びテキストを用いて、顧客C10の感情を推定する。なお、マイクロフォン207がオフにされ、カメラ308がオフされた顧客C10が存在する場合には、感情推定部16は、当該顧客C10を感情の推定の対象から除外してもよい。
評価部17は、感情推定部16によって推定された顧客C10の感情を基に、オンライン商談の総合評価を行う。オンライン商談の総合評価は、例えば、100点を満点とした点数によって示される。
出力部18は、感情推定部16による顧客C10の感情の推定結果や評価部17によるオンライン商談の評価を営業端末2に出力することで、営業端末2のディスプレイ205に表示させる。図7は、営業端末2のディスプレイ205に表示されるオンライン商談画面D2の一例を示す図である。オンライン商談画面D2は、顧客C10の夫々の感情の推定結果を示す感情アイコン画像G1、G2、G3がオンライン商談画面D1に対して表示させたものである。感情アイコン画像G1、G2、G3のオンライン商談画面D1への表示には、例えば、オンライン商談に使用されるオンラインミーティングシステムのAPIを用いることができる。
感情推定部16による感情の推定結果は、例えば、感情アイコン画像G1、G2、G3によって示される。感情アイコン画像G1は、顧客C11の感情の推定結果を示すアイコン画像である。感情アイコン画像G2は、顧客C12の感情の推定を行わなかったことを示すアイコン画像である。感情アイコン画像G3は、顧客C13の感情の推定結果を示すアイコン画像である。なお、営業担当者E1は感情推定部16による感情の推定対象から除外されているため、感情の推定結果を示すアイコン画像は表示されない。出力部18は、感情推定部16による感情の推定が行われる度に、オンライン商談画面D1に表示させる感情アイコン画像G1、G2、G3を更新する。感情アイコン画像G1、G2、G3は、「符号」の一例である。
図8は、営業端末2のディスプレイ205に表示される評価結果画面R1の一例を示す図である。評価結果画面R1では、クライアントの名称や案件名といった情報の他に、総合評価R11、タイムラインR12を含む。タイムラインR12は、議事表示領域R13、感情変化表示領域R14及び参考案件表示領域R15を含む。評価結果画面R1は、例えば、オンライン商談の終了後に、営業担当者E1等の指示に応じて出力される。
総合評価R11には、評価部17によって評価されたオンライン商談の評価結果が出力される。図8では、評価結果が100点満点中の点数で表示されているが、評価結果は100点満点中の点数に限られず、3段階、5段階、10段階等の様々な評価が採用されてもよい。
タイムラインR12には、オンライン商談の議事及び顧客C10の感情の変化が時系列に表示される。議事表示領域R13には、オンライン商談の動画を切り出した画像及び音声から抽出されたテキストが時系列順に表示される。感情変化表示領域R14には、顧客C11、C12、C13の感情の時系列変化が表示される。参考案件表示領域R15には、過去に行われたオンライン商談のうち、商談が合意した案件における感情の変化が時系列順に表示される。
<処理フロー>
図9は、実施形態に係る支援装置1の処理フローの一例を示す図である。以下、図9を参照して、支援装置1の処理フローについて説明する。
ステップS1では、動画取得部11は、営業端末2及び顧客端末3を用いて行われるオンライン商談における所定時間分の動画を取得する。ステップS2では、映像抽出部12は、ステップS1で取得された動画から映像を抽出する。ステップS3では、音声抽出部13は、ステップS1で取得された動画から音声を抽出する。
ステップS4では、除外部14は、ステップS2で抽出した映像から、営業担当者E1の顔を除外する。また、除外部14は、ステップS3で抽出した音声から、営業担当者E1の音声を除外する。ステップS5では、テキスト抽出部15は、ステップS4で営業担当者E1の音声が除外された除外後音声データからテキストを抽出する。
ステップS6では、感情推定部16は、ステップS4で営業担当者E1の顔が除外された除外後映像データ、営業担当者E1の音声が除外された除外後音声データ及びステップS5で抽出されたテキストを用いて、顧客C10の感情の推定を行う。
ステップS7では、出力部18は、ステップS6で推定された感情を出力する。出力された感情は、例えば、図7に例示するように感情アイコン画像G1、G2、G3によってオンライン商談画面D2に表示される。オンライン商談が終了した場合(ステップS8でYES)、処理は終了される。オンライン商談が終了していない場合(ステップS8でNO)、処理はステップS1に進められる。
図10から図13は、感情推定部16による感情の推定処理の処理フローの一例を示す図である。図10では、映像に基づく顧客C10の感情の推定処理の処理フローの一例が示される。図11では、音声に基づく顧客C10の感情の推定処理の処理フローの一例が示される。図12では、テキストに基づく顧客C10の感情の推定処理の処理フローの一例が示される。図13では、映像に基づいた感情の推定結果と、音声に基づいた感情の推定結果と、テキストに基づいて感情の推定結果を組み合わせる処理の処理フローの一例が示される。図10から図13の処理は、例えば、図9のステップS6の処理の詳細を例示するものである。
まず、図10を参照して、映像に基づく顧客C10の感情の推定処理の処理フローについて説明する。ステップS21では、感情推定部16は、図9のステップS4で営業担当者E1が除外された除外後映像データを基に、顧客C10の感情を分類する。感情推定部16は、例えば、「Happy」、「Excited」、「Normal」、「Sad」、「Angry」の5つの感情夫々に対する顧客C10の感情の割合を推定する。割合は例えば、0から1までの数値で示される。ここでは、例えば、「Happy」に対する割合が「0.1」、「Excited」に対する割合が「0.7」、「Normal」に対する割合が「0.5」、「Sad」に対する割合が「0.7」、「Angry」に対する割合が「0.8」であったものとする。映像を基にした感情の推定には、公知の様々な技術を採用できる。
ステップS22では、感情推定部16は、ステップS21で行った感情の分類を基に、顧客C10の感情を数値化した感情数値を算出する。数値化では、例えば、ステップS21で分類された各感情の割合に所定の重み付け係数を乗算した上で、各感情の数値を加算することで行われる。
重み付け係数は、例えば、「Happy」の重み付け係数が「1」、「Excited」の重み付け係数が「0.5」、「Sad」の重み付け係数が「-0.5」、「Angry」の重み付け係数が「-1」である。ステップS21で分類した各感情の割合と重みづけ係数を乗算すると、「Happy」に重み付け係数を乗算した値は「0.1」、「Excited」に重み付け係数を乗算した値は「0.35」、「Sad」に重み付け係数を乗算した値は「-0.35」、「Angry」に重み付け係数を乗算した値は「-0.8」となる。
感情推定部16は、重みづけ係数を乗算した各値(「0.1」、「0.35」、「-0.35」、「-0.8」)と、「Normal」の値「0.5」を加算することで、顧客C10の感情を示す感情数値「-0.2」を得る。ステップS22で算出される感情数値は、「第1の感情」の一例である。
つづいて、図11を参照して、音声に基づく顧客C10の感情の推定処理の処理フローについて説明する。ステップS31では、感情推定部16は、図9のステップS4で営業担当者E1が除外された除外後音声データを基に、顧客C10の感情を分類する。ここで、除外後音声データと、顧客C11、C12、C13との対応付けは、例えば、音声の発声タイミングと映像における口の動きとで対応付けることができる。すなわち、感情推定部16は、音声が発声したタイミングで口が動いている顧客C10が、当該音声の発言者であると判定する。そして、感情推定部16は、発言者であると判定した顧客C10の感情を音声を基に分類する。感情を分類する処理は、除外後映像データを除外後音声データに置き換えることを除いて、図10のステップS21と同様である。
ステップS32では、感情推定部16は、ステップS32で行った感情の分類を基に、顧客C10の感情を数値化した感情数値を算出する。数値化の処理は、図10のステップS22と同様である。ここでは、感情推定部16は、顧客C10の感情を示す感情数値「0.6」を得たものとする。ステップS32で算出された感情数値は、「第2の感情」の一例である。
つづいて、図12を参照して、音声から抽出したテキストに基づく顧客C10の感情の推定処理の処理フローについて説明する。ステップS41では、感情推定部16は、図9のステップS5で抽出されたテキストから1センテンスを抽出する。
ステップS42では、感情推定部16は、ステップS41で抽出したセンテンスに対して、感情分析を行う。感情推定部16は、センテンスに対する感情分析では、肯定的か否定的かの2値の分析を行う。感情推定部16は、例えば、肯定的な場合は「1」、否定的な場合は「-1」と数値化する。
全センテンスに対する感情の推定が終了した場合(ステップS43でYES)、処理はステップS44に進められる。全センテンスに対する感情の推定が終了していない場合(ステップS43でNO)、処理はステップS41に進められる。
ステップS44では、感情推定部16は、感情分析を行った各センテンスの数値の平均値である感情数値を算出する。ここでは、感情数値が「0.2」になったものとする。ス
テップS44で算出された感情数値は、「第3の感情」の一例である。
つづいて、図13を参照して、映像に基づいた感情の推定結果と、音声に基づいた感情の推定結果と、テキストに基づいた感情の推定結果を組み合わせる処理の処理フローについて説明する。ステップS51では、感情推定部16は、図10のステップS22で算出した感情数値と、図11のステップS32で算出した感情数値を統合する。ここでは、感情推定部16は、図10のステップS22で算出した感情数値と、図11のステップS32で算出した感情数値の平均値を算出するものとする。ここでは、図10のステップS22で算出した感情数値「-0.2」と、図11のステップS32で算出した感情数値「0.6」との平均値「0.2」が算出される。
ステップS52では、感情推定部16は、ステップS51で算出した平均値と、図12のステップS44で算出した感情数値との平均値である顧客感情数値を算出する。ここでは、ステップS51で算出された平均値「0.2」と図12のステップS44で算出された感情数値「0.2」との平均値「0.2」が顧客感情数値として算出される。なお、顧客感情数値は「-1」から「+1」までの範囲であり、「-1」に近付くほど顧客C10の感情は否定的であり、「+1」に近付くほど顧客C10の感情は肯定的であるものとする。また、顧客感情数値が「0」の場合は、肯定的でも否定的でもなく顧客C10の感情は通常であるものとする。
なお、ステップS51及びS52の統合する処理において平均値が算出されたが、図10のステップS22で算出した感情数値、図11のステップS32で算出した感情数値、及び、図12のステップS44で算出された感情数値の夫々について、所定の重み付け係数を乗算してから、平均値が算出されてもよい。所定の重み付け係数は、例えば、複数回実施されたオンライン商談の結果を教師データとした機械学習によって決定されてもよい。
図14は、評価部17による総合評価の算出処理の処理フローの一例を示す図である。以下、図14を参照して、評価部17による総合評価の算出処理の処理フローの一例について説明する。
ステップS61では、評価部17は、所定時間毎に算出された顧客C10の顧客感情数値の平均値を算出する。ステップS62では、評価部17は、ステップS61で算出された平均値を基に総合評価を算出する。
ここで、ステップS61で算出された平均点が「1」のときに総合評価100点とし、ステップS61で算出された平均点が「-1」のときに総合評価0点とし、平均点が「1」から「-1」までの間を均等に総合評価と対応付ける。例えば、ステップS61で算出された平均点が「0」の場合には、総合評価は「50点」となる。
<実施形態の作用効果>
オンライン商談の動画には、顧客C10の顔及び音声に加えて、営業担当者E1の顔及び音声も含まれる。そのため、オンライン商談の動画をそのまま用いて感情の推定を行うと、営業担当者E1の感情の推定も行われてしまうため、顧客C10の感情の推定精度が低下する。本実施形態では、オンライン商談の動画から抽出した映像及び音声から、営業担当者E1を除外して感情の推定が行われる。そのため、本実施形態によれば、顧客C10の感情の推定精度の低下が抑制される。
本実施形態では、オンライン商談中に取得される所定時間分の動画を基に顧客C10の感情が推定され、推定された顧客C10の感情はオンライン商談画面D2に表示される。
そのため、本実施形態によれば、オンライン商談中に顧客C10の感情の推定結果を営業担当者E1に確認させることができる。
本実施形態では、所定間隔で感情推定部16による感情の推定が行われ、推定が行われる度にディスプレイ205に表示される感情アイコン画像G1、G2、G3も更新される。そのため、オンライン商談中において、顧客C11、C12、C13の感情の動きを略リアルタイムで営業担当者E1に把握させることができる。
本実施形態では、音声の発声タイミングと映像における口の動きとで発言した顧客C10を特定し、特定した顧客C10の感情を当該音声を用いて分類する。そのため、本実施形態によれば、音声を基に顧客C10の夫々の感情を分類することができる。
本実施形態では、評価結果画面R1において、オンライン商談の動画を切り出した画像、音声から抽出されたテキスト及び感情推定部16による感情の推定結果が時系列順に表示される。また、顧客C10の感情の推定結果に基づいた総合評価も評価結果画面R1に表示される。そのため、本実施形態によれば、オンライン商談の概要が一目で把握できるようになる。
<変形例>
以上説明した実施形態では、顧客C11、C12、C13の夫々の感情がオンライン商談画面D2に出力されたが、顧客C10全体の感情がオンライン商談画面D2に出力されてもよい。
以上説明した実施形態では、担当者データベース19に記憶された営業担当者E1の顔を撮影した画像及び営業担当者E1の音声データを用いて、映像及び音声中の営業担当者E1が特定されたが、営業担当者E1の特定は他の方法によってもよい。例えば、担当者データベース19には営業担当者E1の顔の画像データを記憶しておき、映像中の営業担当者E1を特定する。そして、特定された営業担当者E1の口の動きと音声の発声タイミングとを基に、営業担当者E1の発言であるか否かが判定されてもよい。
以上説明した実施形態では、支援装置1と営業端末2とが異なる装置であったが、営業端末2に支援装置1が統合されてもよい。すなわち、営業端末2が、図5に例示する各処理ブロックを実装してもよい。
以上で開示した実施形態や変形例はそれぞれ組み合わせることができる。
<コンピューターが読み取り可能な記録媒体>
コンピューターその他の機械、装置(以下、コンピューター等)に上記いずれかの機能を実現させる情報処理プログラムをコンピューター等が読み取り可能な記録媒体に記録することができる。そして、コンピューター等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
ここで、コンピューター等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピューター等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピューター等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、Compact Disc Read Only Memory(CD-ROM)、Compact Disc-Recordable(CD-R)、Compact Disc-ReWriterable(CD-RW)、Digital Versatile Disc(DVD)、ブルーレイディスク(BD)、Digital Audio Tap
e(DAT)、8mmテープ、フラッシュメモリー、外付け型のハードディスクドライブやSolid State Drive(SSD)等がある。また、コンピューター等に固定された記録媒体として内蔵型のハードディスクドライブ、SSDやROM等がある。
1・・支援装置
2・・営業端末
3・・顧客端末
11・・動画取得部
12・・映像抽出部
13・・音声抽出部
14・・除外部
15・・テキスト抽出部
16・・感情推定部
17・・評価部
18・・出力部
19・・担当者データベース
31・・顧客端末
32・・顧客端末
33・・顧客端末
101・・CPU
102・・主記憶部
103・・補助記憶部
104・・通信部
105・・ディスプレイ
201・・CPU
202・・主記憶部
203・・補助記憶部
204・・通信部
205・・ディスプレイ
206・・スピーカー
207・・マイクロフォン
208・・カメラ
301・・CPU
302・・主記憶部
303・・補助記憶部
304・・通信部
305・・ディスプレイ
306・・スピーカー
307・・マイクロフォン
308・・カメラ
500・・オンライン商談支援システム
B1・・接続バス
B2・・接続バス
B3・・接続バス
E1・・営業担当者
C10・・顧客
C11・・顧客
C12・・顧客
C13・・顧客
D1・・オンライン商談画面
D2・・オンライン商談画面
R1・・評価結果画面
R11・・総合評価
R12・・タイムライン
R13・・議事表示領域
R14・・感情変化表示領域
R15・・参考案件表示領域
G1・・感情アイコン画像
G2・・感情アイコン画像
G3・・感情アイコン画像
N1・・ネットワーク
W1・・ユーザ表示領域
W2・・ユーザ表示領域
W3・・ユーザ表示領域
W4・・ユーザ表示領域

Claims (11)

  1. 第1の出席者による第2の出席者へのオンラインプレゼンテーションの動画を取得する動画取得部と、
    前記動画から前記第1の出席者に係る情報を除外した除外後データを生成する除外部と、
    前記除外後データを基に、前記第2の出席者の感情を推定する推定部と、
    前記オンラインプレゼンテーションの画面に、推定した前記第2の出席者の前記感情を示す符号を出力する出力部と、を備える、
    情報処理装置。
  2. 前記情報処理装置は、前記第1の出席者を撮影した画像データを記憶する記憶部をさらに備え、
    前記除外部は、前記記憶部に記憶された前記画像データを基に、前記第1の出席者に係る情報を除外した除外後映像データを生成し、
    前記推定部は、前記除外後映像データを基に前記第2の出席者の前記感情を推定する、
    請求項1に記載の情報処理装置。
  3. 前記情報処理装置は、前記第1の出席者の音声データを記憶する記憶部をさらに備え、
    前記除外部は、前記記憶部に記憶された前記音声データを基に、前記第1の出席者に係る情報を除外した除外後音声データを生成し、
    前記推定部は、前記除外後音声データを基に前記第2の出席者の前記感情を推定する、
    請求項1に記載の情報処理装置。
  4. 前記情報処理装置は、前記除外後音声データからテキストデータを抽出するテキスト抽出部をさらに備え、
    前記推定部は、前記テキストデータを基に前記第2の出席者の前記感情を推定する、
    請求項3に記載の情報処理装置。
  5. 前記情報処理装置は、前記第1の出席者を撮影した画像データ、及び、前記第1の出席者の音声データを記憶する記憶部をさらに備え、
    前記除外部は、
    前記記憶部に記憶された前記画像データを基に、前記第1の出席者に係る情報を除外した除外後映像データを生成し、
    前記記憶部に記憶された前記音声データを基に、前記第1の出席者に係る情報を除外した除外後音声データを生成し、
    前記情報処理装置は、前記除外後音声データからテキストデータを抽出するテキスト抽出部をさらに備え、
    前記推定部は、
    前記除外後映像データを基に前記第2の出席者の第1の感情を推定し、
    前記除外後音声データを基に前記第2の出席者の第2の感情を推定し、
    前記テキストデータを基に前記第2の出席者の第3の感情を推定し、
    前記第1の感情、前記第2の感情及び前記第3の感情を基に、前記第2の出席者の前記感情を推定する、
    請求項1に記載の情報処理装置。
  6. 前記動画取得部は、前記オンラインプレゼンテーションが実行されている間に所定間隔で前記動画を取得し、
    前記出力部は、前記オンラインプレゼンテーションの画面に出力した前記第2の出席者の前記感情を示す前記符号を前記所定間隔で更新する、
    請求項1から5のいずれか一項に記載の情報処理装置。
  7. 前記出力部は、前記オンラインプレゼンテーションの終了後に、前記第2の出席者の前記感情の時系列変化を基にした前記オンラインプレゼンテーションの評価をさらに出力する、
    請求項6に記載の情報処理装置。
  8. 前記出力部は、前記オンラインプレゼンテーションの終了後に、前記第2の出席者の前記感情の時系列変化をさらに出力する、
    請求項7に記載の情報処理装置。
  9. 過去に実施された前記オンラインプレゼンテーションにおいてプレゼンテーションを受ける第3の出席者の感情の時系列変化を記憶する記憶部をさらに備え、
    前記出力部は、前記第3の出席者の前記感情の時系列変化と前記第2の出席者の前記感情の時系列変化とを対応付けて出力する、
    請求項8に記載の情報処理装置。
  10. 第1の出席者による第2の出席者へのオンラインプレゼンテーションの動画を取得する動画取得処理と、
    前記動画から前記第1の出席者に係る情報を除外した除外後データを生成する除外処理と、
    前記除外後データを基に、前記第2の出席者の感情を推定する推定処理と、
    前記オンラインプレゼンテーションの画面に、推定した前記第2の出席者の前記感情を示す符号を出力する出力処理と、をコンピュータが実行する、
    情報処理方法。
  11. 第1の出席者による第2の出席者へのオンラインプレゼンテーションの動画を取得する動画取得処理と、
    前記動画から前記第1の出席者に係る情報を除外した除外後データを生成する除外処理と、
    前記除外後データを基に、前記第2の出席者の感情を推定する推定処理と、
    前記オンラインプレゼンテーションの画面に、推定した前記第2の出席者の前記感情を示す符号を出力する出力処理と、をコンピュータに実行させる、
    情報処理プログラム。
JP2023001538A 2023-01-10 2023-01-10 情報処理装置、情報処理方法及び情報処理プログラム Active JP7361961B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023001538A JP7361961B1 (ja) 2023-01-10 2023-01-10 情報処理装置、情報処理方法及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023001538A JP7361961B1 (ja) 2023-01-10 2023-01-10 情報処理装置、情報処理方法及び情報処理プログラム

Publications (1)

Publication Number Publication Date
JP7361961B1 true JP7361961B1 (ja) 2023-10-16

Family

ID=88328346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023001538A Active JP7361961B1 (ja) 2023-01-10 2023-01-10 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7361961B1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019061594A (ja) * 2017-09-28 2019-04-18 株式会社野村総合研究所 会議支援システムおよび会議支援プログラム
JP2020091824A (ja) * 2019-03-11 2020-06-11 株式会社ビジネスインテリジェンス プログラム、情報処理装置及び情報処理方法
JP2021182390A (ja) * 2020-05-18 2021-11-25 株式会社アイドマ・ホールディングス 情報処理装置、情報処理方法、及びプログラム
WO2022180860A1 (ja) * 2021-02-26 2022-09-01 株式会社I’mbesideyou ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
JP2022153255A (ja) * 2021-03-29 2022-10-12 パナソニックIpマネジメント株式会社 オンライン映像配信支援方法およびオンライン映像配信支援装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019061594A (ja) * 2017-09-28 2019-04-18 株式会社野村総合研究所 会議支援システムおよび会議支援プログラム
JP2020091824A (ja) * 2019-03-11 2020-06-11 株式会社ビジネスインテリジェンス プログラム、情報処理装置及び情報処理方法
JP2021182390A (ja) * 2020-05-18 2021-11-25 株式会社アイドマ・ホールディングス 情報処理装置、情報処理方法、及びプログラム
WO2022180860A1 (ja) * 2021-02-26 2022-09-01 株式会社I’mbesideyou ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
JP2022153255A (ja) * 2021-03-29 2022-10-12 パナソニックIpマネジメント株式会社 オンライン映像配信支援方法およびオンライン映像配信支援装置

Similar Documents

Publication Publication Date Title
Zhang et al. Comparing acoustic analyses of speech data collected remotely
JP2018206085A (ja) 事象評価支援システム、事象評価支援装置、及び事象評価支援プログラム
JP2019148852A (ja) 理解度判定システムおよび理解度判定プログラム
US9922644B2 (en) Analysis of professional-client interactions
CN111916054B (zh) 基于唇形的语音生成方法、装置和系统及存储介质
JP6553015B2 (ja) 話者属性推定システム、学習装置、推定装置、話者属性推定方法、およびプログラム
JP2018206341A (ja) 事象評価支援システム、事象評価支援装置、及び事象評価支援プログラム
CN115691544A (zh) 虚拟形象口型驱动模型的训练及其驱动方法、装置和设备
US8391544B2 (en) Image processing apparatus and method for processing image
US11798675B2 (en) Generating and searching data structures that facilitate measurement-informed treatment recommendation
Scimeca et al. Robust and language-independent acoustic features in Parkinson's disease
JP7361961B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2017064853A (ja) ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラム
JP2015018301A (ja) 販売支援端末、プログラム、及び情報処理方法
Flores et al. Depression screening using deep learning on follow-up questions in clinical interviews
Mamidisetti et al. A Stacking-based Ensemble Framework for Automatic Depression Detection using Audio Signals
JP5573402B2 (ja) 会議支援装置、会議支援方法、会議支援プログラムおよび記録媒体
CN108255917A (zh) 图像管理方法、设备及电子设备
JP6619072B2 (ja) 音合成装置、音合成方法、及びそのプログラム
JP6997733B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019148849A (ja) 理解度判定システムおよび理解度判定プログラム
Lefter et al. Multimodal cross-context recognition of negative interactions
CN115440198B (zh) 混合音频信号的转换方法、装置、计算机设备和存储介质
JP2014002336A (ja) コンテンツ処理装置、コンテンツ処理方法、およびコンピュータプログラム
Belhadj et al. KEDAS: A validated Arabic Speech Emotion Dataset

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230605

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231003

R150 Certificate of patent or registration of utility model

Ref document number: 7361961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150