JP2022166195A - 情報抽出装置 - Google Patents

情報抽出装置 Download PDF

Info

Publication number
JP2022166195A
JP2022166195A JP2022129730A JP2022129730A JP2022166195A JP 2022166195 A JP2022166195 A JP 2022166195A JP 2022129730 A JP2022129730 A JP 2022129730A JP 2022129730 A JP2022129730 A JP 2022129730A JP 2022166195 A JP2022166195 A JP 2022166195A
Authority
JP
Japan
Prior art keywords
information
unit
evaluation value
face
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022129730A
Other languages
English (en)
Inventor
渉三 神谷
Shiyouzo Kamiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Imbesideyou Inc
Original Assignee
Imbesideyou Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Imbesideyou Inc filed Critical Imbesideyou Inc
Priority to JP2022129730A priority Critical patent/JP2022166195A/ja
Publication of JP2022166195A publication Critical patent/JP2022166195A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

Figure 2022166195000001
【課題】演算処理に伴う負荷を軽減し得る情報抽出装置及びビデオミーティング評価端末を提供する。
【解決手段】各受講生が受講生端末をネットワーク経由で在宅個別指導システムに接続して、講義を受ける在宅個別指導システムにおいて、情報抽出装置10は、複数のフレームから構成される動画像から、外部から指示される所定の特定条件に従って特定のフレーム群を抽出する抽出部と、所定の被写体を撮像して動画像を取得する撮像部と、被写体を含む周囲の音を収音する収音部と、所定の波形データを予め登録する波形登録部と、を備える。所定の特定条件は、収音部により収音された音の波形データと登録されている波形データとが一致するか否かであって、抽出部は、両波形データが一致した場合に、当該一致した波形に対応するフレーム群を特定のフレーム群として動画像から抽出する。
【選択図】図4

Description

本開示は、情報抽出装置に関する。
近年、各種コンテンツの配信を受ける配信サービスが普及しつつある。
特許文献1には、ユーザが配信を希望する音楽コンテンツの曲名等がわからないときで
も、捜索対象である楽曲の鼻歌を入力することで、所望の音楽コンテンツを検出する処理
を可能にした技術が開示されている。
特開2002-55994号公報
ところで、特許文献1に記載の技術は、配信されるコンテンツが音楽コンテンツに限ら
れるため、それ以外のあらゆる動画コンテンツに対して捜索対象を検出する処理を行うに
は、コンピュータによる膨大な演算処理が必要となる。
そこで、本開示は、このような状況に鑑みてなされたものであり、演算処理に伴う負荷
を軽減し得る情報抽出装置を提供することを一つの目的とする。
上記課題を解決するための本発明の主たる発明は、複数のフレームから構成される動画
像から、外部から指示される所定の特定条件に従って特定のフレーム群を抽出する抽出部
を備えることを特徴とする。
本開示によれば、演算処理に伴う負荷を軽減し得る。
本開示の第1の実施形態に係る在宅個別指導システム1の構成例を示す概念図である。 本開示の第1の実施形態に係る教室映像配信装置10を実現するコンピュータのハードウェア構成例を示す図である。 本開示の第1の実施形態に係る受講生端末20を実現するコンピュータのハードウェア構成例を示す図である。 本開示の第1の実施形態に係る教室映像配信装置10のソフトウェア構成例を示す図である。 本開示の第1の実施の形態による教室映像配信方法の処理の流れを説明するフローチャートである。 本開示の第2の実施形態に係る教室映像配信装置10のソフトウェア構成例を示す図である。 本開示の第2の実施の形態による教室映像配信方法の処理の流れを説明するフローチャートである。 本開示の第3の実施形態に係る教室映像配信装置10のソフトウェア構成例を示す図である。 本開示の第3の実施の形態による教室映像配信方法の処理の流れを説明するフローチャートである。 本開示の第4の実施形態に係る教室映像配信装置10のソフトウェア構成例を示す図である。 本開示の第4の実施の形態による教室映像配信方法の処理の流れを説明するフローチャートである。
本開示の実施形態の内容を列記して説明する。本開示は、以下のような構成を備える。
[項目1]
複数のフレームから構成される動画像を取得する取得部と、
当該動画像内に含まれる所定のデータを特定するための特定条件を記憶する記憶部と、
当該特定条件に従って、前記動画像から特定のフレーム群を複数抽出する抽出部と、
抽出された前記特定のフレーム群同士を連結する連結部と、
連結された複数のフレーム群を含むダイジェスト情報を出力する出力部と、を備える、
情報抽出装置。
[項目2]
項目1に記載の情報抽出装置であって、
所定の波形データを予め登録する波形登録部、を更に備え、
前記特定条件は、前記動画像内に含まれる音の波形データと前記登録されている波形デ
ータとが一致するか否かであって、
前記抽出部は、両波形データが一致した場合に、当該一致した波形に対応するフレーム
群を前記特定のフレーム群として前記動画像から抽出する、
情報抽出装置。
[項目3]
項目2に記載の情報抽出装置であって、
動画内に含まれる前記音を音声認識によりテキスト情報に変換する変換部を更に備え、
前記変換部は、前記特定のフレーム群とその前後所定フレーム数とを含む補助フレーム
群に対応する前記音を変換する、
情報抽出装置。
[項目4]
項目2又は項目3に記載の情報抽出装置であって、
前記被写体を含む周囲の音が示す情報には、会話情報と非会話情報とが混在する、
情報抽出装置。
[項目5]
項目4に記載の情報抽出装置であって、
前記会話情報には、ポジティブな感情を示すワードと、ネガティブな感情を示すワード
の少なくとも何れかが含まれる、
情報抽出装置。
[項目6]
項目4又は項目5に記載の情報抽出装置であって、
前記非会話情報には、舌打ち、溜め息、相槌の少なくとも何れかを示す情報が含まれる

情報抽出装置。
[項目7]
項目1に記載の情報抽出装置であって、
顔の表情に関する所定の顔評価値を予め登録する顔情報登録部、を更に備え、
前記特定条件は、前記動画像内に含まれる顔の表情から算出される顔評価値と前記登録
されている顔評価値とが一致するか否かであって、
前記抽出部は、両顔評価値が一致した場合に、当該一致した顔評価値に対応するフレー
ム群を前記特定のフレーム群として前記動画像から抽出する、
情報抽出装置。
[項目8]
項目7に記載の情報抽出装置であって、
前記顔評価値には、前記人物の幸福感、退屈感又は緊張感の度合いを評価した評価値が
含まれる、
情報抽出装置。
[項目9]
項目7又は項目8に記載の情報抽出装置であって、
前記顔評価値には、前記人物の表情、前記人物の視線の向き、前記人物の顔の向きを評
価した評価値が含まれる、
情報抽出装置
[項目10]
項目1に記載の情報抽出装置であって、
人物の動作に関する所定の動作評価値を予め登録する動作情報登録部、を更に備え、
前記特定条件は、前記動画像内に含まれる人物から算出される動作評価値と前記登録さ
れている動作評価値とが一致するか否かであって、
前記抽出部は、両動作評価値が一致した場合に、当該一致した動作評価値に対応するフ
レーム群を前記特定のフレーム群として前記動画像から抽出する、
情報抽出装置。
[項目11]
項目10に記載の情報抽出装置であって、
前記動作評価値には、前記人物の身振り、手振り、ジェスチャ、ボディランゲージの少
なくとも何れかの動作を評価した評価値が含まれる、
情報抽出装置。

[項目12]
項目1に記載の情報抽出装置であって、
所定の生体情報に関する生体評価値を予め登録する生体情報登録部と、を備え、
前記特定条件は、前記動画像内に含まれる人物から算出可能な生体評価値と、前記登録
されている生体評価値とが一致するか否かであって、
前記抽出部は、両生体評価値が一致した場合に、当該一致した生体評価値に対応するフ
レーム群を前記特定のフレーム群として前記動画像から抽出する、
情報抽出装置。
[項目13]
項目12に記載の情報抽出装置であって、
前記生体評価値には、前記人物の血圧、脈拍、脈圧の少なくとも何れかが含まれる、
情報抽出装置。
[項目14]
項目1乃至項目13の何れか一項に記載の情報抽出装置であって、
前記特定のフレーム群に対して、当該特定のフレーム群と時系列的に前後に連続する追
加フレームを追加するフレーム追加部を備えている、
情報抽出装置。
[項目15]
項目1乃至項目14の何れかに記載の情報抽出装置によって抽出されたダイジェスト情報
に含まれる少なくとも顔画像又は音声を所定のフレーム単位ごとに識別する識別手段と、
識別した前記顔画像に関する評価値を算出する評価手段とを更に備える、
ビデオミーティング評価端末。
[項目16]
項目15に記載のビデオミーティング評価端末であって、
ビデオミーティング評価端末は、前記評価値の時系列によるグラフ情報を提供する、
ビデオミーティング評価端末。
[項目17]
項目15又は項目16に記載のビデオミーティング評価端末であって、
前記ビデオミーティング評価端末は、前記顔画像を複数の異なる観点によって評価した
複数の評価値を算出する、
ビデオミーティング評価端末。
[項目18]
項目15乃至項目17のいずれかに記載のビデオミーティング評価端末であって、
前記ビデオミーティング評価端末は、前記動画像に含まれる音声と共に前記評価値を算
出する、
ビデオミーティング評価端末。
[項目19]
項目15乃至項目18のいずれかに記載のビデオミーティング評価端末であって、
前記ビデオミーティング評価端末は、前記動画像内に含まれる前記顔画像以外の対象物
と共に前記評価値を算出する、
ビデオミーティング評価端末。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。な
お、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、
同一の符号を付することにより重複説明を省略する。
本開示では、デジタル通信回線を介して学習塾・教育機関と生徒・受講生宅を結び、各
生徒・受講生は自宅に居ながら学習塾・教育機関で講義されている講義映像を視聴して、
学習塾・教育機関の授業を受けられる在宅個別指導システムに情報抽出装置を適用する例
を説明する。
<第1の実施形態>
図1は、本開示の第1の実施形態に係る在宅個別指導システム1の構成例を示す概念図で
ある。図示するように、この在宅個別指導システム1では、遠隔授業を行う講師Tの教室
側に設けられた教室映像配信装置10と、それぞれの在宅で指導を受ける受講生群(受講
生A、B、C)に夫々関連する受講生端末20A、20B、20Cと、がネットワークN
Wを介して通信可能に接続されている。なお以下では、受講生端末20A、20B、20
Cを特に区別して説明する必要がない場合には、単に受講生端末20と略記する。同様に
、受講生A、B、Cを特に区別して説明する必要がない場合には、単に受講生と略記する
教室映像配信装置10は、請求の範囲に記載された情報抽出装置の一例となる。なお、本
構成は一例であり、ある構成が他の構成を兼ね備えていたり、他の構成が含まれていたり
してもよい。なお、ここでは受講生A、B、Cの3名の場合を示しているが、講師が同時
に指導できる人数又はネットワークNWの接続回線数等に応じて、さらに多人数としても
よい。
本実施形態において、「講師」とは、教授、教諭、教師を含む概念である。「教室」とは
、学習塾、カルチャーセンター、教育機関(例えば、初等・中等・高等教育機関、高等学
校、高等専門学校、専門学校、短期大学、四年制大学、大学院など、文部科学省に登録さ
れている学校)を含む概念である。「受講生」とは、生徒、学生、聴講生を含む概念であ
る。
本実施形態においてネットワークNWはインターネットを想定している。ネットワークN
Wは、例えば、公衆電話回線網、携帯電話回線網、無線通信網、イーサネット(登録商標
)などにより構築される。
<ハードウェア構成>
図2は、本実施形態に係る教室映像配信装置10を実現するコンピュータのハードウェア
構成例を示す図である。コンピュータは、少なくとも、通信部11と、撮像部12と、収
音部13と、モニタ14と、メモリ15と、ストレージ16と、入出力部17と、制御部
18等を備える。これらはバス19を通じて相互に電気的に接続される。
通信部11は、教室映像配信装置10をネットワークNWに接続する。通信部11は、例
えば、有線LAN(Local Area Network)、無線LAN、Wi-Fi(Wireless Fide
lity、登録商標)、赤外線通信、Bluetooth(登録商標)、近距離または非接触
通信等の方式で、外部機器と直接またはネットワークアクセスポイントを介して通信する
撮像部12は、CMOS又はCCDなどの撮像素子を用いて電子撮影する機能を有する。
撮像部12は、受講生に対する講義を行う講師Tを被写体として撮像して、講師映像を取
得する。撮像部12は、講師Tが講義を進行する際に使用する黒板又はホワイトボードに
記載した画像も撮像できる構成とするとよいが、黒板又はホワイトボードの為に独立した
カメラを設けてもよい。
収音部13は、講師Tを含む周囲の音を収音する。収音部13は、講師Tの音声を含む周
囲の音を取得するためのマイクロフォン等を備える。さらに、収音部13は、取得した音
を電気信号に変換する等の適宜処理を行い得る。
モニタ14は、受講生端末20から送信される受講生映像と、撮像部12で取得される講
師映像とを一覧可能な状態で表示し得る。もちろん、モニタ14は、受講生映像のみを単
独で表示してもよく、講師映像のみを単独で表示してもよい。
メモリ15は、DRAM(Dynamic Random Access Memory
)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリ又はHDD(Hard
Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ
15は、制御部18のワークエリア等として使用され、また、教室映像配信装置10の起
動時に実行されるBIOS(Basic Input/Output System)、
及び各種設定情報等を格納する。
ストレージ16は、アプリケーション・プログラム等の各種プログラムを格納する。各処
理に用いられるデータを格納したデータベースがストレージ16に構築されていてもよい
入出力部17は、例えば、キーボード、マウス、タッチパネル等の情報入力機器である。
制御部18は、教室映像配信装置10全体の動作を制御し、各要素間におけるデータの送
受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装
置である。例えば制御部18は、CPU(Central Processing Un
it)等のプロセッサであり、ストレージ16に格納されメモリ15に展開されたプログ
ラム等を実行して各情報処理を実施する。
バス19は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種
制御信号を伝達する。
図3は、本実施形態に係る受講生端末20を実現するコンピュータのハードウェア構成例
を示す図である。コンピュータは、少なくとも、通信部21と、撮像部22と、収音部2
3と、モニタ24と、メモリ25と、ストレージ26と、入出力部27と、制御部28等
を備える。これらはバス29を通じて相互に電気的に接続される。本実施形態に係る受講
生端末20を実現するコンピュータ等のハードウェア構成は、図2に示す教室映像配信装
置10のハードウェア構成例と同様であるため、相違点のみ説明する。
通信部21は、受講生端末20をネットワークNWに接続する。
撮像部22は、講義を受講する受講生を被写体として撮像して、受講生映像を取得する。
収音部23は、受講生を含む周囲の音を収音する。音声データを送受するために、受講生
端末20においては、マイク付きヘッドフォンを設けてもよいが、当該端末に内蔵された
マイク並びにスピーカを用いてもよい。
モニタ24は、教室映像配信装置10から送信される講師映像と、撮像部22で取得され
る受講生映像とを一覧可能な状態で表示し得る。もちろん、モニタ24は、講師映像のみ
を単独で表示してもよく、受講生映像のみを単独で表示してもよい。
制御部28は、受講生端末20全体の動作を制御し、各要素間におけるデータの送受信
の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置で
ある。
<ソフトウェア構成>
図4は、本実施形態に係る教室映像配信装置10のソフトウェア構成例を示す図である。
教室映像配信装置10は、抽出部101と、波形登録部102と、変換部103と、表示
部104と、フレーム切り出し部105と、生成部106と、を備える。
抽出部101と、波形登録部102と、変換部103と、表示部104と、フレーム切り
出し部105と、生成部106とは、制御部18がストレージ16に記憶されているプロ
グラムをメモリ15に読み出して実行することにより実現され得る。
抽出部101は、撮像部12で取得される講師映像と、撮像部22で取得される受講生
映像とを適宜取捨選択して合成すると共に、収音部13又は収音部23で収音された音を
組み合わせて教室映像を生成する。ここでの講師映像又は受講生映像は、請求の範囲に記
載された複数のフレームの一例となる。また、教室映像は、請求の範囲に記載された動画
像の一例となる。教室映像は、テキストデータ、数値データ、図形データ、画像データ、
動画データ、音声データ等、又はこれらの組み合わせであり、記憶、編集及び検索等の対
象となり、システム又は利用者間で個別の単位として交換できるものをいい、これらに類
似するものを含む。
抽出部101は、かかる教室映像から、外部から指示される所定の特定条件に従って特定
のフレーム群を抽出する機能を有する。例えば、外部からの指示は、合成する教室映像の
項目、画像の配置・画像の占有面積等を指示するものであり得る。外部からの指示は、例
えば、講師T自身が講義の途中で映像構成を編集可能な簡便な操作であることが好ましい
波形登録部102は、所定の波形データを予め登録する機能を有する。所定の特定条件
とは、例えば、収音部13又は収音部23により収音された音の波形データと、波形登録
部102に登録されている波形データとが一致するか否かであってよく、もちろん、他の
条件であってもよい。本実施形態において波形登録部102に登録されている波形データ
は、講義におけるその場全体の雰囲気を評価するために用いられ得る。
抽出部101は、所定の特定条件が満たされた場合、例えば、両波形データが一致した
場合に、当該一致した波形に対応するフレーム群を特定のフレーム群として前記教室映像
から抽出する。
変換部103は、収音部13が収音した音を音声認識によりテキストに変換する機能を有
する。このテキストとは、任意の文字列のことである。変換部103は、音声認識に成功
した場合は、生成したテキストを含む音声認識結果を出力する。音声認識結果に、音声認
識が成功したことを示す成功情報を含めてもよい。
表示部104は、変換部103により変換されたテキストをモニタ14又はモニタ24
に表示する機能を有する。講師T又は受講生A、B、Cを含む周囲の音が示す情報には、
会話情報と非会話情報とが混在する。会話情報には、例えば、ポジティブな感情を示すワ
ードと、ネガティブな感情を示すワードの少なくとも何れかが含まれる。
ポジティブな感情を示すワードの一例としては、講師が受講生を褒めたり、応援したり、
励ましたりする内容として、「よく頑張ったね」「努力したね」「すごいね」「素晴らし
いね」「立派だね」「偉いね」等を挙げることができる。
一方、ネガティブな感情を示すワードの一例としては、講師が受講生を貶したり、非難
したり、誹謗したりする内容として、「そんなんじゃダメだ」「お前はダメだ」「なにや
ってんのよ」「落ちるぞ」「バカ」等を挙げることができる。
非会話情報は、会話情報以外のテキスト情報である。非会話情報には、舌打ち、溜め息
、相槌の少なくとも何れかを示す情報が含まれる。これらの非会話情報は、講義を受講す
る受講生の感情を判断するための判断基準となり得る。受講生の感情は、例えば、「幸福
感」、「退屈感」、「緊張感」の3つに分類され得る。
フレーム切り出し部105は、抽出部101により抽出された特定のフレーム群に対し
て、少なくとも時系列的に前後に連続するフレーム群を切り出す機能を有する。フレーム
切り出し部105は、例えば、各ワードがどのような文脈で使用されたかを示す文脈情報
を取得するために適用可能な任意のフレームレートを用いて、前後に連続するフレーム群
を切り出すことができる。ここでの文脈情報とは、例えば、単語前後の任意範囲の文字列
、単語間の共起関係等を示す情報である。
生成部106は、抽出部101により抽出された特定のフレーム群に対して、その前後に
連続する先行フレーム群と後続フレームを連結して、ダイジェスト動画を生成する機能を
有する。
次に、このように構成された在宅個別指導システム1の動作について説明する。図5は、
本開示の第1の実施の形態による教室映像配信方法の処理の流れを説明するフローチャー
トである。
ここでは、教室を運営する運営者等が、講師が受講生に対して不適切な発言・問題発言を
していないかどうかをチェックする場面を例に挙げて説明する。具体的に、予め登録され
た講師の声でネガティブな感情を示すワードとして「バカ」を表す波形データを用いて、
ダイジェスト動画を生成する場面を例に説明する。
まず、講義が開始される時刻になると、各受講生A、B、Cは受講生端末20A、20B
、20CをネットワークNW経由で在宅個別指導システム1に接続して、講師Tの講義開
始を待つ。講師Tは、教室映像配信装置10が備えるモニタ14を見て各受講生A、B、
Cが受講態勢にあるか否かを判断し、受講態勢が整っていれば、講義を開始する。すなわ
ち、撮像部12並びに撮像部22による撮像動作が開始されるとともに、収音部13並び
に収音部23による収音動作が開始される(ステップS100)。
そして、抽出部101は、撮像部12で取得される講師映像と、撮像部22で取得される
受講生映像とを適宜取捨選択して合成すると共に、収音部13又は収音部23で収音され
た音を組み合わせて教室映像を生成すると共に、生成した教室映像をネットワークNW経
由で受講生端末20A、20B、20Cに配信する(ステップS102)。
次に、講師が「バカ」と発声すると、その音声は収音部13で収音されて、その音声デ
ータを含む教室映像が特定のフレーム群として抽出部101によって抽出される(ステッ
プS104)。
フレーム切り出し部105は、その教室映像の前後において例えば10秒~20秒程度
の時間間隔で連なるフレーム群を切り出す(ステップS106)。
そして、生成部106は、これらのフレーム群を連結したダイジェスト動画を生成すると
共に、当該ダイジェスト動画 に基づいて、講師の音声データに対して所定の音響分析を
施す(ステップS108)。
この音響分析によれば、「バカ」というワードがどういう文脈で使われたかを把握するこ
とができる。
例えば、(受講生以外の第三者に対して)「こういうバカなことを言ってる人はダメだよ
ね」という文脈で講師において「バカ」というワードが使われた場合には、講師は受講生
のことをバカと言ったわけではないことが把握できる。
また例えば、「俺はバカだから」と文脈で講師において「バカ」というワードが使われた
場合には、講師は自身のことをバカと言っていることが把握できる。
かくして、教室を運営する運営者等は、「バカ」というワードとその前後の文脈をテキス
ト文章として例えばレポート形式で取得し得るので、講師が受講生に対して不適切な発言
・問題発言をしていないかどうかを容易にチェックできる。
すなわち、予め登録済みの波形データを用いた照合により、演算処理に伴う負荷を軽減
しながらも、教室映像内において講師が不適切な発言・問題発言を引き起こす可能性の高
い状況を含む特徴的なシーンをピンポイントで引き出すことが可能となる。例えば、講義
時間(例えば90分)に対して、講師によるネガティブな感情を示すワードの発声回数が
比較的大きい所定の回数(例えば10回)に至るような場合には、講師の人間性を判断す
ることも可能になる。もちろん、講師によるポジティブな感情を示すワードの発声回数も
講師の人間性を判断する材料になり得る。さらには、講師の側に限らず、受講生の側にお
いても、講師からの発話に対する舌打ちの回数、溜め息の回数、相槌の回数は、受講生が
どのような感情を抱いているかを判断する材料となり得る。
<第2の実施形態>
以下、図6及び図7に基づいて、第2の実施形態に係る在宅個別指導システムについて説
明する。この実施形態では、上述した第1実施形態で説明した要素と同一の要素について
同じ符号を付し、詳細な説明を省略する。
上記の第1実施形態に係る在宅個別指導システムでは、既に述べたように、予め登録済み
の波形データを用いた照合により、教室映像の中から特定のフレーム群を抽出していたが
、第2の実施形態に係る在宅個別指導システムでは、人物の顔の表情に関する評価値に基
づいて、教室映像の中から特定のフレーム群を抽出する処理が行われる。
<ソフトウェア構成>
図6は、本実施形態に係る教室映像配信装置10のソフトウェア構成例を示す図である。
教室映像配信装置10は、抽出部101と、フレーム切り出し部105と、生成部106
と、顔検出部107と、算出部108と、顔情報登録部109と、を備える。
顔検出部107は、例えば、メモリ15に格納されている教室映像を構成する複数のフレ
ームの夫々について、人物の顔検出を行う機能を有する。例えば、顔検出部107は、教
室映像の中から特徴点を抽出して、講師T又は各受講生A、B、Cの顔領域、顔領域の大
きさ・顔面積等を検出する。
特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点、顎の下端点等
が挙げられる。そして、顔検出部107は、顔領域の位置情報を特定する。例えば、顔検
出部107は、画像の横方向をX軸とし、縦方向をY軸として、顔領域に含まれる画素の
X座標及びY座標を算出する。さらに、顔検出部107は、上述した特徴点を用いた演算
処理によって、検出した講師又は各受講生の表情・年齢などを判別し得る。
算出部108は、教室映像を構成する複数のフレームの夫々について、講師T又は各受講
生A、B、Cの顔に関する評価値を算出する機能を有する。算出部108において算出さ
れる各評価値は、以下に示す所定の評価値(1)~(6)が含まれる。これらの評価値(
1)~(6)は、顔情報登録部109に予め登録される。
(1)笑顔の度合い
算出部108は、顔検出部107が検出した顔のそれぞれについて、例えば、パターンマ
ッチングなどの公知技術を用いて、笑顔の度合いを評価値として算出する。本実施形態で
は、度合いの一例として、「0:笑顔なし」、「1:微笑」、「2:普通笑い」、「3:
大笑い」 までの4段階で笑顔の度合いを示す。
(2)視線の向き
算出部108は、顔検出部107が検出した顔のそれぞれについて、公知の技術を用いて
、視線の向きを評価値として算出する。本実施形態では、一例として、「0:視線正面」
、「1:視線左右方向」、「2:視線右方向」、「3:視線検出不可」の4種類で視線の
向きを示す。
(3)顔の向き
算出部108は、顔検出部107が検出した顔のそれぞれについて、公知の技術を用いて
、顔の向きを評価値として算出する。本実施形態では、一例として、「0:顔向き正面」
、「1:顔向き左方向」、「2:顔向き右方向」、「3:検出不可」の4種類で顔の向き
を示す。
(4)顔面積
算出部108は、顔検出部107が検出した顔のそれぞれについて、顔部分の面積を評価
値として算出する。
(5)年齢
算出部108は、顔検出部107が検出した顔のそれぞれについて、公知の技術を用いて
、その人物の年齢を評価値として算出する。
(6)目つぶり度合い
算出部108は、顔検出部107が検出した顔のそれぞれについて、公知の技術を用いて
、目つぶり度合いを評価値として算出する。本実施形態では、一例として、「0:目つぶ
りなし」、「1:一部目つぶりあり」、「2:両目目つぶり」、「3:目つぶり検出不可
」の4種類で目つぶり度合いを示す。
これらの評価値(1)~(6)は、講義を受講する受講生の感情を判断するための判断基
準となり得る。受講生の感情は、例えば、「幸福感」、「退屈感」、「緊張感」の3つに
分類され得る。
抽出部101は、所定の特定条件が満たされた場合、例えば、算出部108により算出さ
れた評価値と、顔情報登録部109に予め登録されている評価値とが一致した場合に、当
該一致した評価値に対応するフレーム群を特定のフレーム群として前記教室映像から抽出
する。
次に、このように構成された在宅個別指導システムの動作について説明する。図7は、本
開示の第2の実施の形態による教室映像配信方法の処理の流れを説明するフローチャート
である。
ここでは、教室を運営する運営者等が、受講生Aである子供を塾などに預ける保護者等か
らの要望であって、受講生Aの学習態度・学習状況を把握したいという要望に応える場面
を例に挙げて説明する。
まず、講義が開始される時刻になると、各受講生A、B、Cは受講生端末20A、20B
、20CをネットワークNW経由で在宅個別指導システムに接続して、講師Tの講義開始
を待つ。講師Tは、教室映像配信装置10が備えるモニタ14を見て各受講生A、B、C
が受講態勢にあるか否かを判断し、受講態勢が整っていれば、講義を開始する。すなわち
、撮像部12並びに撮像部22による撮像動作が開始されるとともに、収音部13並びに
収音部23による収音動作が開始される(ステップS200)。
そして、抽出部101は、撮像部12で取得される講師映像と、撮像部22で取得される
受講生映像とを適宜取捨選択して合成すると共に、収音部13又は収音部23で収音され
た音を組み合わせて教室映像を生成すると共に、生成した教室映像をネットワークNW経
由で受講生端末20A、20B、20Cに配信する(ステップS202)。
次に、顔検出部107は、教室映像について、受講生Aの顔検出を行う(ステップS20
4)。顔検出の具体的な手法については、公知技術と同様であるため説明を省略する。
そして、算出部108は、顔検出部107が検出した受講生Aの顔について、公知の技術
を用いて、顔の向きを評価値として算出する(ステップS206)。続いて、抽出部10
1は、算出部108により算出された評価値が、顔情報登録部109に予め登録されてい
る評価値「1:顔向き左方向」、「2:顔向き右方向」の何れかと一致した場合に、当該
一致した評価値に対応するフレーム群を特定のフレーム群として教室映像から抽出する(
ステップS208)。
すなわち、受講生Aの顔の向きが正面ではなく左方向又は右方向を向いているような場合
には、受講生Aの講義に対する集中度が低下していることが推認され得る。
フレーム切り出し部105は、受講生Aの顔が正面を向いていない教室映像の前後にお
いて例えば10秒~20秒程度の時間間隔で連なるフレーム群を切り出す(ステップS2
10)。
そして、生成部106は、これらのフレーム群を連結したダイジェスト動画を生成すると
共に、当該ダイジェスト動画に基づいて、講師の音声データに対して所定の音響分析を施
す(ステップS212)。かかる音響分析によれば、受講生Aの顔が正面を向いていない
ときに、講師Tが発話しているワードが何であるかのみをフラグで管理できる。これによ
り、受講生Aの講義に対する集中度が低下した要因となり得るワードを、教室を運営する
運営者等が収集できるとともに、受講生Aの学習態度・学習状況を把握したいという保護
者等の要望に対しても効率的に応えることができる。
もちろん、受講生Aの講義に対する集中度の判定は、受講生Aの顔の向きに限らず、受講
生Aの視線の向きによっても行い得る。すなわち、受講生Aの視線の向きが正面ではなく
左方向又は右方向を向いているような場合には、受講生Aの講義に対する集中度が低下し
ていることが推認され得る。
本実施形態に係る在宅個別指導システムには、さらに以下のような使用例が考えられる。
具体的に、受講生Aが満足感・幸福感・充実感といったポジティブな感情を抱いたシーン
のみを集めて編集した動画を受講生Aの保護者等に向けたダイジェスト動画として生成し
得る。
かかるダイジェスト動画を生成し得る具体的な処理の一例としては、まず、算出部108
は、顔検出部107が検出した受講生Aの顔について、公知の技術を用いて、笑顔の度合
いを評価値として算出することができる。続いて、抽出部101は、算出部108により
算出された度合いが、顔情報登録部109に予め登録されている度合い「2:普通笑い」
、「3:大笑い」の何れかと一致した場合に、当該一致した評価値に対応するフレーム群
を特定のフレーム群として教室映像から抽出することができる。
さらに、フレーム切り出し部105は、受講生Aの笑顔の度合いが「2:普通笑い」、
「3:大笑い」の何れかであるときの教室映像の前後において例えば10秒~20秒程度
の時間間隔で連なるフレーム群を切り出すことができる。そして、最後に、生成部106
は、これらのフレーム群を連結したダイジェスト動画を、受講生Aの保護者等に向けたダ
イジェスト動画として生成する。
<第3の実施形態>
以下、図8及び図9に基づいて、第3の実施形態に係る在宅個別指導システムについて説
明する。この実施形態では、上述した第1実施形態で説明した要素と同一の要素について
同じ符号を付し、詳細な説明を省略する。
上記の第1実施形態に係る在宅個別指導システムでは、既に述べたように、予め登録済み
の波形データを用いた照合により、教室映像の中から特定のフレーム群を抽出していたが
、第3の実施形態に係る在宅個別指導システムでは、人物の動作に関する動作情報に基づ
いて、教室映像の中から特定のフレーム群を抽出する処理が行われる。
<ソフトウェア構成>
図8は、本実施形態に係る教室映像配信装置10のソフトウェア構成例を示す図である
。教室映像配信装置10は、抽出部101と、フレーム切り出し部105と、生成部10
6と、特定部110と、動作情報登録部111と、を備える。
特定部110は、例えば、メモリ15に格納されている教室映像を構成する複数のフレー
ムの夫々について、人物の動作に関する動作情報を特定する機能を有する。この動作情報
は、例えば、人物の動作を複数の姿勢の連続として捉えた情報であって、様々な姿勢に対
応する人体の骨格を形成する各関節の情報を含み得る。動作情報には、例えば、人物の身
振り、手振り、ジェスチャ、ボディランゲージの少なくとも何れかが含まれる。
特定部110は、例えば、人体パターンを用いたパターンマッチングにより、教室映像を
構成する複数のフレームから、人体の骨格を形成する各関節の座標を得る。座標取得の具
体的な手法については、公知技術と同様であるため説明を省略する。そして、この座標系
で表される各関節の座標が、例えば、1フレーム分の骨格情報となり得る。さらに、複数
フレーム分の骨格情報が所定の動作情報となり得る。
かかる所定の動作情報は、動作情報登録部111に予め登録されている。すなわち、動作
情報登録部111は、様々な姿勢に対応する動作情報を、例えば、公知の人工知能技術を
用いた機械学習により予め記憶している。例えば、本実施形態において、受講生が手を振
る動きに対応するジェスチャは、講義の内容に納得ができなかったり、引っかかるところ
があったりする受講生が講師に対して補充説明を求めるジェスチャパターンとして機械学
習済みであるとする。
抽出部101は、所定の特定条件が満たされた場合、例えば、特定部110により特定さ
れた動作情報と、動作情報登録部111に予め登録されている動作情報とが一致した場合
に、当該一致した動作情報に対応するフレーム群を特定のフレーム群として教室映像から
抽出する。
次に、このように構成された在宅個別指導システムの動作について説明する。図9は、本
開示の第3の実施の形態による教室映像配信方法の処理の流れを説明するフローチャート
である。
ここでは、講義の内容に納得ができない受講生Aが講師に対して補充説明を求める状況を
含むシーンを教室映像からピックアップする場面を例に挙げて説明する。
まず、講義が開始される時刻になると、各受講生A、B、Cは受講生端末20A、20B
、20CをネットワークNW経由で在宅個別指導システムに接続して、講師Tの講義開始
を待つ。講師Tは、教室映像配信装置10が備えるモニタ14を見て各受講生A、B、C
が受講態勢にあるか否かを判断し、受講態勢が整っていれば、講義を開始する。すなわち
、撮像部12並びに撮像部22による撮像動作が開始されるとともに、収音部13並びに
収音部23による収音動作が開始される(ステップS300)。
そして、抽出部101は、撮像部12で取得される講師映像と、撮像部22で取得される
受講生映像とを適宜取捨選択して合成すると共に、収音部13又は収音部23で収音され
た音を組み合わせて教室映像を生成すると共に、生成した教室映像をネットワークNW経
由で受講生端末20A、20B、20Cに配信する(ステップS302)。
次に、特定部110は、人体パターンを用いたパターンマッチングにより、教室映像を構
成する複数のフレームから、受講生Aの骨格を形成する各関節の座標を得る。さらに、特
定部110は、各関節の座標に基づいて、複数フレーム分の骨格情報を受講生Aのジェス
チャとして特定する(ステップS304)。
続いて、抽出部101は、特定部110により特定されたジェスチャが、動作情報登録部
111において機械学習済みのジェスチャパターン(受講生Aが講師に対して補充説明を
求めるジェスチャパターン)と一致した場合に、当該一致したジェスチャに対応するフレ
ーム群を特定のフレーム群として教室映像から抽出する(ステップS306)。
フレーム切り出し部105は、受講生A講師に対して補充説明を求める教室映像の前後
において例えば10秒~20秒程度の時間間隔で連なるフレーム群を切り出す(ステップ
S308)。
そして、生成部106は、これらのフレーム群を連結したダイジェスト動画を生成する(
ステップS310)。
かくして、受講生Aが講師に対して補充説明を求めるジェスチャパターンが既に登録済み
の状態であるので、今後上記フローと同様の状況があれば、動作情報登録部111に保持
されているジェスチャパターンに従った照合により、教室映像の中から特定のフレーム群
をピックアップしてくれば、演算処理に伴う負荷を増やさなくとも同様のダイジェスト動
画を生成することが可能となる。
<第4の実施形態>
以下、図10及び図11に基づいて、第4の実施形態に係る在宅個別指導システムについ
て説明する。この実施形態では、上述した第1実施形態で説明した要素と同一の要素につ
いて同じ符号を付し、詳細な説明を省略する。
上記の第1実施形態に係る在宅個別指導システムでは、既に述べたように、予め登録済み
の波形データを用いた照合により、教室映像の中から特定のフレーム群を抽出していたが
、第4の実施形態に係る在宅個別指導システムでは、人物の生体情報に基づいて、教室映
像の中から特定のフレーム群を抽出する処理が行われる。
<ソフトウェア構成>
図10は、本実施形態に係る教室映像配信装置10のソフトウェア構成例を示す図であ
る。教室映像配信装置10は、抽出部101と、フレーム切り出し部105と、生成部1
06と、生体情報検出部112と、生体情報登録部113と、を備える。
生体情報検出部112は、例えば、メモリ15に格納されている教室映像を構成する複数
のフレームの夫々について、人物の生体情報を検出する機能を有する。人物の生体情報に
は、人物の血圧、脈拍、脈圧の少なくとも何れかが含まれる。これら所定の生体情報は、
各フレームに映り込んだ講師又は受講生の顔領域を一般的な顔検知技術等によって抽出し
たのちに、血流方向に沿って複数の領域に分割し、各領域における血流を示す色画像の時
系列変化に基づいて取得することができる。
かかる所定の生体情報は、生体情報登録部113に予め登録されている。すなわち、生体
情報登録部113は、例えば緊張の有無等の精神状態、体調の良否等の身体状態の検知に
用いる生体情報を、例えば、公知の人工知能技術を用いた機械学習により予め記憶してい
る。例えば、本実施形態において、受講生Aにおいてミリ秒単位での表情の変化、瞳孔の
開き、脈拍の速さ(脈拍数)、顔面の紅潮、発汗具合等、受講生Aが無意識に支配されて
いる情動を読み取り得る生体情報が学習済みであるとする。
抽出部101は、所定の特定条件が満たされた場合、例えば、生体情報検出部112によ
り検出された生体情報と、生体情報登録部113に予め登録されている生体情報とが一致
した場合に、当該一致した生体情報に対応するフレーム群を特定のフレーム群として教室
映像から抽出する。
次に、このように構成された在宅個別指導システムの動作について説明する。図11は、
本開示の第4の実施の形態による教室映像配信方法の処理の流れを説明するフローチャー
トである。
ここでは、人間には肉体的安全を保つために遺伝的に備わっているバイアスがあり、見慣
れないもの、理解しにくいものに対しては瞬間的に異常を感じるという知見のもとで、受
講生Aが緊張状態に陥ったシーンを教室映像からピックアップする場面を例に挙げて説明
する。
まず、講義が開始される時刻になると、各受講生A、B、Cは受講生端末20A、20B
、20CをネットワークNW経由で在宅個別指導システムに接続して、講師Tの講義開始
を待つ。講師Tは、教室映像配信装置10が備えるモニタ14を見て各受講生A、B、C
が受講態勢にあるか否かを判断し、受講態勢が整っていれば、講義を開始する。すなわち
、撮像部12並びに撮像部22による撮像動作が開始されるとともに、収音部13並びに
収音部23による収音動作が開始される(ステップS400)。
そして、抽出部101は、撮像部12で取得される講師映像と、撮像部22で取得される
受講生映像とを適宜取捨選択して合成すると共に、収音部13又は収音部23で収音され
た音を組み合わせて教室映像を生成すると共に、生成した教室映像をネットワークNW経
由で受講生端末20A、20B、20Cに配信する(ステップS402)。
次に、生体情報検出部112は、公知の技術を用いて、教室映像を構成する複数のフレー
ムの夫々について、受講生Aの脈拍数を検出する(ステップS404)。
続いて、抽出部101は、生体情報検出部112により検出された脈拍数が、生体情報登
録部113において機械学習済みの脈拍数(受講生Aが緊張状態にある脈拍数)と一致し
た場合に、当該一致した脈拍数に対応するフレーム群を特定のフレーム群として教室映像
から抽出する(ステップS406)。
フレーム切り出し部105は、受講生Aが緊張状態にある教室映像の前後において例え
ば10秒~20秒程度の時間間隔で連なるフレーム群を切り出す(ステップS408)。
そして、生成部106は、これらのフレーム群を連結したダイジェスト動画を生成する(
ステップS410)。
かくして、受講生Aが緊張状態にある脈拍数が既に登録済みの状態であるので、今後上記
フローと同様の状況があれば、生体情報登録部113に保持されている脈拍数に従った照
合により、教室映像の中から特定のフレーム群をピックアップしてくれば、演算処理に伴
う負荷を増やさなくとも同様のダイジェスト動画を生成することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本
開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有
する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例ま
たは修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的
範囲に属するものと了解される。
上述した各実施形態では、遠隔授業を支援する在宅個別指導システムに情報抽出装置を
適用する例について述べた。しかし、これに限らない。例えば、会議、講演会等のように
、開始時刻および終了時刻が事前に決められており、主として教室、会議室などの特定の
空間で行われる各種イベントを支援するシステムに情報抽出装置を適用してもよい。
本明細書において説明した装置は、単独の装置として実現されてもよく、一部または全
部がネットワークで接続された複数の装置(例えばクラウドサーバ)等により実現されて
もよい。例えば、教室映像配信装置10のストレージ16又は制御部18は、互いにネッ
トワークで接続された異なるサーバにより実現されてもよい。
本明細書において説明した装置による一連の処理は、ソフトウェア、ハードウェア、及
びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。本実施形
態に係る教室映像配信装置10の各機能を実現するためのコンピュータプログラムを作製
し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格
納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は
、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。ま
た、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介し
て配信されてもよい。
また、本明細書においてフローチャート図を用いて説明した処理は、必ずしも図示され
た順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい
。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されても
よい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定
的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代
えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
1 在宅個別指導システム
10 教室映像配信装置(情報抽出装置)
101 抽出部
102 波形登録部
103 変換部
104 表示部
105 フレーム切り出し部
106 生成部
107 顔検出部
108 算出部
109 顔情報登録部
110 特定部
111 動作情報登録部
112 生体情報検出部
113 生体情報登録部
NW ネットワーク

Claims (19)

  1. 複数のフレームから構成される動画像を取得する取得部と、
    当該動画像内に含まれる所定のデータを特定するための特定条件を記憶する記憶部と、
    当該特定条件に従って、前記動画像から特定のフレーム群を複数抽出する抽出部と、
    抽出された前記特定のフレーム群同士を連結する連結部と、
    連結された複数のフレーム群を含むダイジェスト情報を出力する出力部と、を備える、
    情報抽出装置。
  2. 請求項1に記載の情報抽出装置であって、
    所定の波形データを予め登録する波形登録部、を更に備え、
    前記特定条件は、前記動画像内に含まれる音の波形データと前記登録されている波形デ
    ータとが一致するか否かであって、
    前記抽出部は、両波形データが一致した場合に、当該一致した波形に対応するフレーム
    群を前記特定のフレーム群として前記動画像から抽出する、
    情報抽出装置。
  3. 請求項2に記載の情報抽出装置であって、
    動画内に含まれる前記音を音声認識によりテキスト情報に変換する変換部を更に備え、
    前記変換部は、前記特定のフレーム群とその前後所定フレーム数とを含む補助フレーム
    群に対応する前記音を変換する、
    情報抽出装置。
  4. 請求項2又は請求項3に記載の情報抽出装置であって、
    前記被写体を含む周囲の音が示す情報には、会話情報と非会話情報とが混在する、
    情報抽出装置。
  5. 請求項4に記載の情報抽出装置であって、
    前記会話情報には、ポジティブな感情を示すワードと、ネガティブな感情を示すワード
    の少なくとも何れかが含まれる、
    情報抽出装置。
  6. 請求項4又は請求項5に記載の情報抽出装置であって、
    前記非会話情報には、舌打ち、溜め息、相槌の少なくとも何れかを示す情報が含まれる

    情報抽出装置。
  7. 請求項1に記載の情報抽出装置であって、
    顔の表情に関する所定の顔評価値を予め登録する顔情報登録部、を更に備え、
    前記特定条件は、前記動画像内に含まれる顔の表情から算出される顔評価値と前記登録
    されている顔評価値とが一致するか否かであって、
    前記抽出部は、両顔評価値が一致した場合に、当該一致した顔評価値に対応するフレー
    ム群を前記特定のフレーム群として前記動画像から抽出する、
    情報抽出装置。
  8. 請求項7に記載の情報抽出装置であって、
    前記顔評価値には、前記人物の幸福感、退屈感又は緊張感の度合いを評価した評価値が
    含まれる、
    情報抽出装置。
  9. 請求項7又は請求項8に記載の情報抽出装置であって、
    前記顔評価値には、前記人物の表情、前記人物の視線の向き、前記人物の顔の向きを評
    価した評価値が含まれる、
    情報抽出装置
  10. 請求項1に記載の情報抽出装置であって、
    人物の動作に関する所定の動作評価値を予め登録する動作情報登録部、を更に備え、
    前記特定条件は、前記動画像内に含まれる人物から算出される動作評価値と前記登録さ
    れている動作評価値とが一致するか否かであって、
    前記抽出部は、両動作評価値が一致した場合に、当該一致した動作評価値に対応するフ
    レーム群を前記特定のフレーム群として前記動画像から抽出する、
    情報抽出装置。
  11. 請求項10に記載の情報抽出装置であって、
    前記動作評価値には、前記人物の身振り、手振り、ジェスチャ、ボディランゲージの少
    なくとも何れかの動作を評価した評価値が含まれる、
    情報抽出装置。
  12. 請求項1に記載の情報抽出装置であって、
    所定の生体情報に関する生体評価値を予め登録する生体情報登録部と、を備え、
    前記特定条件は、前記動画像内に含まれる人物から算出可能な生体評価値と、前記登録
    されている生体評価値とが一致するか否かであって、
    前記抽出部は、両生体評価値が一致した場合に、当該一致した生体評価値に対応するフ
    レーム群を前記特定のフレーム群として前記動画像から抽出する、
    情報抽出装置。
  13. 請求項12に記載の情報抽出装置であって、
    前記生体評価値には、前記人物の血圧、脈拍、脈圧の少なくとも何れかが含まれる、
    情報抽出装置。
  14. 請求項1乃至請求項13の何れか一項に記載の情報抽出装置であって、
    前記特定のフレーム群に対して、当該特定のフレーム群と時系列的に前後に連続する追
    加フレームを追加するフレーム追加部を備えている、
    情報抽出装置。
  15. 請求項1乃至請求項14の何れかに記載の情報抽出装置によって抽出されたダイジェスト
    情報に含まれる少なくとも顔画像又は音声を所定のフレーム単位ごとに識別する識別手段
    と、
    識別した前記顔画像に関する評価値を算出する評価手段とを更に備える、
    ビデオミーティング評価端末。
  16. 請求項15に記載のビデオミーティング評価端末であって、
    ビデオミーティング評価端末は、前記評価値の時系列によるグラフ情報を提供する、
    ビデオミーティング評価端末。
  17. 請求項15又は請求項16に記載のビデオミーティング評価端末であって、
    前記ビデオミーティング評価端末は、前記顔画像を複数の異なる観点によって評価した
    複数の評価値を算出する、
    ビデオミーティング評価端末。
  18. 請求項15乃至請求項17のいずれかに記載のビデオミーティング評価端末であって、
    前記ビデオミーティング評価端末は、前記動画像に含まれる音声と共に前記評価値を算
    出する、
    ビデオミーティング評価端末。
  19. 請求項15乃至請求項18のいずれかに記載のビデオミーティング評価端末であって、
    前記ビデオミーティング評価端末は、前記動画像内に含まれる前記顔画像以外の対象物
    と共に前記評価値を算出する、
    ビデオミーティング評価端末。
JP2022129730A 2020-10-27 2022-08-16 情報抽出装置 Pending JP2022166195A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022129730A JP2022166195A (ja) 2020-10-27 2022-08-16 情報抽出装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/040324 WO2022091230A1 (ja) 2020-10-27 2020-10-27 情報抽出装置
JP2021572314A JPWO2022091230A1 (ja) 2020-10-27 2020-10-27
JP2022129730A JP2022166195A (ja) 2020-10-27 2022-08-16 情報抽出装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021572314A Division JPWO2022091230A1 (ja) 2020-10-27 2020-10-27

Publications (1)

Publication Number Publication Date
JP2022166195A true JP2022166195A (ja) 2022-11-01

Family

ID=81382209

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021572314A Pending JPWO2022091230A1 (ja) 2020-10-27 2020-10-27
JP2022129730A Pending JP2022166195A (ja) 2020-10-27 2022-08-16 情報抽出装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021572314A Pending JPWO2022091230A1 (ja) 2020-10-27 2020-10-27

Country Status (2)

Country Link
JP (2) JPWO2022091230A1 (ja)
WO (1) WO2022091230A1 (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4704174B2 (ja) * 2005-09-30 2011-06-15 富士フイルム株式会社 状態識別装置、プログラムおよび方法
JP4802199B2 (ja) * 2008-01-31 2011-10-26 日本電信電話株式会社 映像編集装置、映像編集プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2013031009A (ja) * 2011-07-28 2013-02-07 Fujitsu Ltd 情報処理装置、ダイジェスト生成方法、及びダイジェスト生成プログラム
JP2013183280A (ja) * 2012-03-01 2013-09-12 Nikon Corp 情報処理装置、撮像装置、及びプログラム
JP2016012216A (ja) * 2014-06-27 2016-01-21 Kddi株式会社 会議分析装置、方法及びプログラム
JP7046546B2 (ja) * 2017-09-28 2022-04-04 株式会社野村総合研究所 会議支援システムおよび会議支援プログラム
JP7061860B2 (ja) * 2017-10-02 2022-05-02 シャープ株式会社 ダイジェストデータ生成装置、ダイジェストデータ再生装置、ダイジェストデータ生成システム、ダイジェストデータ生成方法及びプログラム
JP2019110420A (ja) * 2017-12-18 2019-07-04 トヨタ自動車株式会社 動画編集装置
JP6673415B2 (ja) * 2018-09-10 2020-03-25 オムロン株式会社 適合度判定装置および適合度判定方法
CN111107442B (zh) * 2019-11-25 2022-07-12 北京大米科技有限公司 音视频文件的获取方法、装置、服务器及存储介质

Also Published As

Publication number Publication date
JPWO2022091230A1 (ja) 2022-05-05
WO2022091230A1 (ja) 2022-05-05

Similar Documents

Publication Publication Date Title
US11151997B2 (en) Dialog system, dialog method, dialog apparatus and program
KR102341752B1 (ko) 메타버스에서 아바타를 이용한 강의 보조 방법 및 그 장치
JP2018014094A (ja) 仮想ロボットのインタラクション方法、システム及びロボット
JP2020511324A (ja) 育児ロボットのデータ処理方法及び装置
CN106547884A (zh) 一种替身机器人的行为模式学习系统
CN107480766B (zh) 多模态虚拟机器人的内容生成的方法和系统
Alepis et al. Object-oriented user interfaces for personalized mobile learning
CN110598576A (zh) 一种手语交互方法、装置及计算机介质
CN113052085A (zh) 视频剪辑方法、装置、电子设备以及存储介质
JP7130290B2 (ja) 情報抽出装置
CN116524791A (zh) 一种基于元宇宙的唇语学习辅助训练系统及其应用
JP2014085998A (ja) 電子ノート作成支援装置および電子ノート作成支援装置用プログラム
JP7119615B2 (ja) サーバ、音データ評価方法、プログラム、通信システム
JP7096626B2 (ja) 情報抽出装置
CN114048299A (zh) 对话方法、装置、设备、计算机可读存储介质及程序产品
CN112367526B (zh) 视频生成方法、装置、电子设备及存储介质
JP2007030050A (ja) ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法
KR102122021B1 (ko) 가상현실을 이용한 인지 개선 장치 및 방법
JP4651981B2 (ja) 教育情報管理サーバ
WO2017051577A1 (ja) 感情誘導システム、および感情誘導方法
Eden Technology Makes Things Possible
JP2022166195A (ja) 情報抽出装置
CN112820265B (zh) 一种语音合成模型训练方法和相关装置
KR102212035B1 (ko) 제스처 인식 기반 원격 교육서비스 시스템 및 방법
JP6637917B2 (ja) 教育支援システムおよび教育支援方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230810