JP2023059067A - 講義支援システム及び方法 - Google Patents
講義支援システム及び方法 Download PDFInfo
- Publication number
- JP2023059067A JP2023059067A JP2021168959A JP2021168959A JP2023059067A JP 2023059067 A JP2023059067 A JP 2023059067A JP 2021168959 A JP2021168959 A JP 2021168959A JP 2021168959 A JP2021168959 A JP 2021168959A JP 2023059067 A JP2023059067 A JP 2023059067A
- Authority
- JP
- Japan
- Prior art keywords
- video
- student
- image
- lecture
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000004458 analytical method Methods 0.000 claims abstract description 122
- 230000002194 synthesizing effect Effects 0.000 claims description 38
- 239000002131 composite material Substances 0.000 claims description 10
- 230000008921 facial expression Effects 0.000 claims description 7
- 238000012790 confirmation Methods 0.000 abstract description 3
- 238000003384 imaging method Methods 0.000 abstract 2
- 238000005516 engineering process Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 8
- 230000008451 emotion Effects 0.000 description 8
- 230000010365 information processing Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 241001310793 Podium Species 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】対面講義とオンライン講義とを組み合わせたハイブリッド型の講義を行う講師による受講生の状態の確認を支援する。【解決手段】対面で授業を受ける対面生徒を含む教室内を撮影した対面映像、及びオンラインで授業を受けるリモート生徒を撮影したリモート映像の各々を映像解析することにより、対面生徒及びリモート生徒の各々の集中度を分析し、リモート生徒の集中度に応じたアバターを、対面映像における空き席に合成して座席映像を生成し、座席映像と、生徒の集中度の分析結果を表す分析結果映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを、教師が視認可能な表示装置32へ出力する。【選択図】図9
Description
開示の技術は、講義支援システム及び講義支援方法に関する。
従来、オンライン会議やオンライン講義など、参加者がそれぞれの場所からオンラインで会議や授業に参加する技術が存在する。このようなオンライン会議やオンライン授業では、各参加者が利用するパーソナルコンピュータ等の情報処理端末に、参加者を撮影した映像、又はその映像を加工した映像が一覧形式等で表示される。
例えば、コンピュータを介したコミュニケーションを実施するための方法が提案されている。この方法は、コンピュータが、参加者が使用するデジタル・カメラでキャプチャした画像を解析して、当該参加者の状態を認識する。そして、この方法は、ある参加者が使用するコンピュータが、別の参加者が使用するデジタル・カメラでキャプチャした画像の表示に代えて、当該別の参加者の認識された状態に対応した表示を行う。
また、例えば、情報処理装置が、通信先の情報処理装置とのテレビ会議を行うテレビ会議システムが提案されている。このシステムにおいて、情報処理装置は、テレビ会議の複数の参加者を有するグループを設定し、グループの全ての参加者に対応する基準の感情種別の1つのアバターの画像データを作成する。そして、情報処理装置は、テレビ会議におけるグループの全ての参加者の感情情報を判断し、判断された感情種別を、作成されたアバターの画像データへ反映する。
また、近年、学校等の教育機関や塾での授業、企業における研修会等において、講義を行う講師に対して受講者が対面で受講する対面講義と、受講者がオンラインで受講するオンライン講義とを組み合わせたハイブリッド型の講義形式が増えている。一般的なハイブリッド型の講義では、対面の受講者への授業風景をカメラで撮影し、オンラインで受講している受講者が使用する情報処理端末へ、撮影した映像をリアルタイムに配信することで、いずれの受講者も同じように講義が受けられるようにしている。
講義を行う講師は、受講生の集中状況等の状態を確認し、反応を見ながら講義を進める必要がある。対面講義とオンライン講義とを組み合わせたハイブリッド型の講義の場合、対面で受講している受講生については、講師は、実際の受講生の状態を確認する。一方、オンラインで受講している受講生については、講師は、オンラインで受講している受講生を撮影した映像等を、自身が使用するパーソナルコンピュータ等に表示させ、画面を見て受講生の状態を確認する。このように、ハイブリッド型の講義の場合、対面の受講生の状態と、オンラインの受講生の状態とをそれぞれ確認しながら講義を行う必要があり、講師にとって負担が大きく難しい状況となっている。
一つの側面として、開示の技術は、対面講義とオンライン講義とを組み合わせたハイブリッド型の講義を行う講師による受講生の状態の確認を支援することを目的とする。
一つの態様として、開示の技術は、講義を受講する第1の受講者を含む会場を撮影した第1の映像、及びネットワークを介してリモートで前記講義を受講する第2の受講者を撮影した第2の映像の各々を取得する取得部を含む。また、開示の技術は、前記第1の映像及び前記第2の映像の各々を映像解析することにより、前記第1の受講者及び前記第2の受講者の各々の状態を分析する分析部を含む。また、開示の技術は、前記第2の映像の各々又は前記第2の映像を加工した映像の各々を、前記第1の映像において前記第1の受講者が存在しない領域に合成した合成映像を生成する合成部を含む。さらに、開示の技術は、前記合成映像と、前記分析部による分析結果を示す映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを表示装置へ出力する出力部を含む。
一つの側面として、対面講義とオンライン講義とを組み合わせたハイブリッド型の講義を行う講師による受講生の状態の確認を支援することができる、という効果を有する。
以下、図面を参照して、開示の技術に係る実施形態の一例を説明する。なお、以下の実施形態では、講義の一例として、学校での授業に開示の技術を適用した場合について説明する。また、以下の実施形態では、ハイブリッド型の授業を実現するためのシステムにおいて、開示の技術に関する部分についてのみ説明し、教師や板書等を撮影した映像の配信等、開示の技術に直接関連しない部分については、説明を省略する。
図1に示すように、本実施形態に係る講義支援システム100は、講義支援装置10と、カメラ30と、表示装置32と、リモート生徒端末40とを含む。講義支援装置10とカメラ30及び表示装置32の各々とは、例えばイントラネット等のネットワークを介して接続される。講義支援装置10とリモート生徒端末40とは、例えばインターネット等のネットワークを介して接続される。なお、講義支援システム100に含まれるカメラ30、表示装置32、及びリモート生徒端末40の数は図1の例に限定されない。
カメラ30は、教室で教師と対面して授業を受ける生徒(以下、「対面生徒」という)を含む教室内を撮影し、撮影した映像を出力する。カメラ30は、教壇に立つ教師側の目線、すなわち教室の前方から後方に向けて、対面生徒の各々の顔を含む上半身を撮影可能な位置に設置される。図2に、カメラ30により撮影される映像(以下、「対面映像」という)の一例を示す。なお、対面生徒は、開示の技術の「第1の受講者」の一例であり、対面映像は、開示の技術の「第1の映像」の一例である。また、本明細書において、「映像」とは、1フレーム分の画像又は複数フレーム分の画像を含む意味である。すなわち、本明細書における「映像」は「画像」とも言える。
表示装置32には、講義支援装置10により生成される表示映像(詳細は後述)が表示される。表示装置32は、例えば、教師が装着するヘッドマウントディスプレイ、置き型のディスプレイ等で実現される。置き型のディスプレイの場合、教卓上等、教師のみが視認可能な位置に配置される小型のディスプレイであってもよいし、教室の一角等、教師及び対面生徒が視認可能な位置に配置される大型のディスプレイであってもよい。
リモート生徒端末40は、自宅等のリモートで、オンラインで授業を受ける生徒(以下、「リモート生徒」という)が使用する情報処理端末である。リモート生徒端末40は、カメラ、マイク、表示装置、ネットワークへの接続機能等を備えたパーソナルコンピュータ、タブレット端末、スマートフォン等で実現される。図3に、リモート生徒端末40を利用して授業を受けるリモート生徒の概略図を示す。リモート生徒端末40が備えるカメラ40Aは、リモート生徒を撮影し、撮影した映像を出力する。カメラ40Aは、例えば、リモート生徒の顔を含む上半身を撮影可能な位置に設置される。図3の上図は、カメラ40Aにより撮影される映像(以下、「リモート映像」という)の一例である。リモート生徒端末40は、カメラ40Aから出力されたリモート映像を取得し、リモート生徒の識別情報(以下、「リモート生徒ID」という)と共に、ネットワークを介して講義支援装置10へ送信する。なお、リモート生徒は、開示の技術の「第2の受講者」の一例であり、リモート映像は、開示の技術の「第2の映像」の一例である。
講義支援装置10は、機能的には、図4に示すように、取得部11と、分析部12と、合成部13と、出力部14とを含む。また、講義支援装置10の所定の記憶領域20には、映像DB(Database)21と、座席DB22と、分析結果DB23とが記憶される。
取得部11は、カメラ30から出力される対面映像を取得し、映像DB21に記憶する。また、取得部11は、リモート生徒端末40から送信されるリモート映像及びリモート生徒IDを取得し、映像DB21に記憶する。なお、対面映像及びリモート映像の各フレームにはそれぞれ時間情報が付与されており、時間情報に基づいて、対面映像とリモート映像とは同期がとれるものとする。
分析部12は、対面映像及びリモート映像の各々を映像解析することにより、対面生徒及びリモート生徒の各々の状態を分析する。具体的には、分析部12は、映像DB21から対面映像を取得し、座席DB22に基づいて、座席毎に対面生徒の状態を分析する。図5に、座席DB22の一例を示す。図5の例では、教室の前方(教卓側)から順にA列、B列、C列、・・・の列番号が付与され、各列の左から順に1番、2番、3番、・・・の配列番号が付与されており、列番号と配列番号との組み合わせで座席番号が表されている。以下、列番号がi及び配列番号がjの座席番号を「ij」と表す。分析部12は、座席DB22に定義された各座席の配置と、カメラ30の設置位置及び設置角度から特定される画角とに基づいて、対面映像内の各座席の領域を特定する。分析部12は、特定した座席の領域毎に、その領域に存在する対面生徒の状態を分析する。なお、分析部12は、座席の領域に対面生徒が存在しない場合には、その座席は空き席として特定する。
例えば、分析部12は、対面生徒の状態の一例として、対面生徒の授業に対する集中度を分析する。具体的には、分析部12は、対面生徒の表情、頭の向き、及び体の動きの少なくとも1つに基づいて、集中度を分析する。より具体的には、分析部12は、対面生徒の表情から対面生徒の感情の種類を推定し、予め定義しておいた感情の種類と集中度との関係と、推定した感情の種類とに基づいて、対面生徒の集中度を分析する。なお、表情から感情の種類を推定する手法は、従来既知の手法を用いてよい。また、分析部12は、頭の向きが正面向きの場合には集中度が高く、横向きや下向きの場合には集中度が低いと分析してもよい。また、分析部12は、対面生徒の体の動きの大きさが所定値以上の場合に、集中度が低いと分析してもよい。なお、体の動きの大きさは、処理対象のフレームを含む過去数フレーム分の対面映像を用いて取得すればよい。
分析部12は、座席毎に分析した対面生徒の集中度を、その座席の座席番号及び対面映像の時間情報と対応付けて、分析結果DB23に記憶する。図6に、分析結果DB23の一例を示す。図6の例では、各行が1つの座席に対応しており、各座席に対応付けて、「座席番号」、「対面生徒の有無」、「リモート生徒ID」、及び「分析結果」が記憶されている。「対面生徒の有無」は、その座席に対面生徒が存在するか否かを示す情報である。図6の例では、対面生徒が存在する座席を「あり」、対面生徒が存在しない座席を「なし」で表している。「分析結果」には、時間情報(図6の例では、t1、t2、・・・)に対応付けて、分析結果が時系列で記憶されている。なお、本実施形態では、集中度のレベルを4段階に分類し、各レベルに対して、集中度が高い順に、S1、S2、S3、及びS4の分類記号を付与した例について説明する。図6では、分析結果として、この分類記号が記憶された例を表している。「リモート生徒ID」については後述する。
分析部12は、リモート映像からも同様にリモート生徒の集中度を分析する。分析部12は、分析結果DB23で空き席となっている座席に対応付けてリモート生徒IDを記憶すると共に、そのリモート生徒IDが示すリモート生徒の分析結果を、リモート映像の時間情報に対応付けて記憶する。具体的には、分析部12は、図6に示すように、分析結果DB23において、「対面生徒の有無」欄が「なし」の行の「リモート生徒ID」にリモート生徒IDを記憶する。そして、分析部12は、その行の「分析結果」の対応する時間情報の欄に、そのリモート生徒IDが示すリモート生徒の分析結果を記憶する。
合成部13は、リモート映像の各々又はリモート映像を加工した映像の各々を、対面映像において対面生徒が存在しない領域に合成した座席映像を生成する。本実施形態では、リモート映像を加工した映像として、リモート生徒を模したアバターを用いる場合について説明する。なお、座席映像は、開示の技術の「合成映像」の一例であり、アバターは、開示の技術の「人型映像」の一例である。なお、アバターの映像データは映像DB21に記憶されている。
具体的には、合成部13は、分析結果DB23に記憶されたリモート生徒の分析結果に基づいて、リモート生徒の集中度に応じて態様が異なるアバターを特定する。例えば図7に示すように、集中度のレベルを表す分類記号に応じたアバターが定義されているとする。なお、図7中の「分析結果表示用情報」については後述する。合成部13は、分析結果DB23に記憶された分析結果を示す分類記号に対応するアバターを決定し、決定したアバターの映像データを映像DB21から読み出す。合成部13は、分析結果DB23を参照して、該当のリモート生徒が割り当てられた座席番号が示す座席の領域を対面映像上で特定し、特定した座席の領域に、読み出したアバターを合成して座席映像を生成する。例えば、図8に示すように、リモート生徒IDがR2のリモート生徒について、空き席A3に割り当てられると共に、時間情報t7のリモート映像からS1の分析結果が得られたとする。この場合、合成部13は、分類記号S1に対応するアバターの映像データを映像DB21から読み出し、時間情報t7の対面映像におけるA3の座席の領域に合成することで、時間情報t7の座席映像を生成する。合成部13は、生成した座席映像を映像DB21に記憶する。
出力部14は、分析結果DB23に記憶された分析結果に基づいて、分析結果を示す分析結果映像を生成する。例えば、出力部14は、生徒の集中度の集計結果、及び集中度の時系列の変化の少なくとも一方を表す分析結果映像を生成する。具体的には、出力部14は、該当の時間情報に対応付けられた分析結果から、例えば、「S1:10人 S2:10人 S3:5人 S4:2人」のような集計結果を、テキストや表で表した分析結果映像を生成してよい。また、例えば、図7に示すように、分析結果を表す分類記号毎に異なる色を分析結果表示用情報として定義しておく。そして、出力部14は、該当の時間情報に対応付けられた分析結果の各々をセルで表し、全生徒数分のセルを集中度順に並べて、分析結果表示用情報が示す色で各セルを色付けしたメータ形式の分析結果映像を生成してよい。また、例えば、出力部14は、集中度の時系列の変化を折れ線グラフや、上記の分析結果表示用情報が表す色の変化で表した分析結果映像を生成してもよい。この場合、生徒毎の分析結果映像を生成してもよいし、生徒全体や、列毎等の所定のグループ毎の分析結果の平均に基づく分析結果映像を生成してもよい。
出力部14は、生成した分析結果映像と、対応する時間情報の対面映像及びリモート映像に基づいて合成部13により生成された座席映像とを1つの画面に含む表示映像の映像データを生成する。出力部14は、生成した映像データを映像DB21に記憶すると共に、表示装置32へ出力する。図9に、表示装置32に表示される表示映像の一例を示す。図9の例では、教師が装着するヘッドマウントディスプレイに表示映像を表示した例を示している。また、図9の例では、表示映像の上部が座席映像、下部が分析結果映像であり、分析結果映像については、上述のメータ形式の例を示している。なお、出力部14は、所定時間毎に異なる種類の分析結果映像を切り替えて出力するようにしてもよいし、複数種類の分析結果映像を生成しておき、教師の操作により切り替えて出力するようにしてもよい。
講義支援装置10は、例えば図10に示すコンピュータ50で実現されてよい。コンピュータ50は、CPU(Central Processing Unit)51と、一時記憶領域としてのメモリ52と、不揮発性の記憶部53とを備える。また、コンピュータ50は、カメラ30及び表示装置32を含む外部装置と接続するための入出力I/F(Interface)54と、記憶媒体59に対するデータの読み込み及び書き込みを制御するR/W(Read/Write)部55とを備える。また、コンピュータ50は、インターネット等のネットワークに接続される通信I/F56を備える。また、コンピュータ50は、映像解析を行うGPU(Graphics Processing Unit)58を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、通信I/F56は、及びGPU58は、バス57を介して互いに接続される。
記憶部53は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現されてよい。記憶媒体としての記憶部53には、コンピュータ50を、後述する対面映像処理、リモート映像処理、及び表示処理を含む講義支援処理を実行して講義支援装置10として機能させるための講義支援プログラム60が記憶される。講義支援プログラム60は、取得プロセス61と、分析プロセス62と、合成プロセス63と、出力プロセス64とを有する。また、記憶部53は、映像DB21、座席DB22、及び分析結果DB23の各々を構成する情報が記憶される情報記憶領域70を有する。
CPU51は、講義支援プログラム60を記憶部53から読み出してメモリ52に展開し、講義支援プログラム60が有するプロセスを順次実行する。CPU51は、取得プロセス61を実行することで、図4に示す取得部11として動作する。また、CPU51は、分析プロセス62を実行することで、図4に示す分析部12として動作する。また、CPU51は、合成プロセス63を実行することで、図4に示す合成部13として動作する。また、CPU51は、出力プロセス64を実行することで、図4に示す出力部14として動作する。また、CPU51は、情報記憶領域70から情報を読み出して、映像DB21、座席DB22、及び分析結果DB23の各々をメモリ52に展開する。これにより、講義支援プログラム60を実行したコンピュータ50が、講義支援装置10として機能することになる。なお、プログラムを実行するCPU51はハードウェアである。
なお、講義支援プログラム60により実現される機能は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。
また、講義支援装置10は、対面映像及びリモート映像の取得から、表示映像の表示装置への表示までの遅延時間が所定時間内となるように、表示装置の近傍に配置される。
次に、本実施形態に係る講義支援装置10の作用について説明する。図11に示すように、カメラ30による撮影、及び撮影された対面映像の出力が開始されると(ステップS10)、講義支援装置10において、対面映像処理が実行される。また、図12に示すように、リモート生徒端末40のカメラ40Aによる撮影、及びリモート生徒端末40によるリモート映像及びリモート生徒IDの送信が開始されると(ステップS30)、講義支援装置10において、リモート映像処理が実行される。さらに、講義支援装置10において、図13に示すように、表示処理が実行される。なお、対面映像処理、リモート映像処理、及び表示処理を含む講義支援処理は、開示の技術の講義支援方法の一例である。対面映像処理、リモート映像処理、及び表示処理の各々は、対面映像及びリモート映像のフレーム毎に実行してもよいし、所定フレーム毎に実行してもよい。以下、対面映像処理、リモート映像処理、及び表示処理の各々について詳述する。
まず、図11を参照して、対面映像処理について説明する。
ステップS21で、取得部11が、カメラ30から出力された対面映像を取得したか否かを判定する。対面映像を取得した場合には、ステップS22へ移行し、取得していない場合には、対面映像処理は終了する。
ステップS22では、分析部12が、座席DB22に定義された各座席の配置と、カメラ30の設置位置及び設置角度から特定される画角とに基づいて、上記ステップS21で取得された対面映像内の各座席の領域を特定する。
次に、ステップS23で、分析部12が、特定した座席の領域毎に映像解析を行って、その領域に存在する対面生徒の集中度を分析する。そして、分析部12が、座席毎に分析した対面生徒の集中度を、その座席の座席番号及び対面映像の時間情報と対応付けて、分析結果DB23に記憶し、ステップS21に戻る。
次に、図12を参照して、リモート映像処理について説明する。
ステップS41で、取得部11が、リモート生徒端末40から送信されたリモート映像及びリモート生徒IDを取得したか否かを判定する。リモート映像及びリモート生徒IDを取得した場合にはステップS42へ移行し、取得していない場合には、リモート映像処理は終了する。
ステップS42では、分析部12が、リモート映像の映像解析を行って、リモート生徒の集中度を分析する。そして、分析部12が、分析結果DB23で空き席となっている座席に対応付けてリモート生徒IDを記憶すると共に、そのリモート生徒IDが示すリモート生徒の分析結果を、リモート映像の時間情報に対応付けて記憶する。
次に、ステップS43で、合成部13が、分析結果DB23に記憶されたリモート生徒の分析結果に基づいて、集中度に応じて態様が異なるアバターの中から、リモート生徒の分析結果が示す集中度に応じたアバターを決定し、ステップS41に戻る。
次に、図13を参照して、表示処理について説明する。
ステップS51で、合成部13が、映像DB21を参照して、処理対象の時間情報に対応する対面映像が記憶されているか否かを判定する。対面映像が記憶されている場合には、ステップS52へ移行し、記憶されていない場合には、ステップS55へ移行する。
ステップS52では、合成部13が、映像DB21を参照して、処理対象の時間情報に対応するリモート映像が記憶されているか否かを判定する。リモート映像が記憶されている場合には、ステップS53へ移行し、記憶されていない場合には、ステップS54へ移行する。
ステップS53では、合成部13が、映像DB21から、処理対象の時間情報に対応する対面映像を読み出し、分析結果DB23を参照して、リモート生徒が割り当てられた座席番号が示す座席の領域を対面映像上で特定する。そして、合成部13が、処理対象の時間情報に対応するリモート映像に基づいて、リモート映像処理のステップS43で決定したアバターの映像データを映像DB21から読み出し、特定した座席の領域に合成して座席映像を生成する。一方、ステップS54では、合成部13が、対面映像をそのまま座席映像として使用する。
また、ステップS55では、合成部13が、映像DB21を参照して、処理対象の時間情報に対応するリモート映像が記憶されているか否かを判定する。リモート映像が記憶されている場合には、ステップS56へ移行し、記憶されていない場合には、ステップS51に戻る。
ステップS56では、合成部13が、処理対象の時間情報に対応するリモート映像に基づいて、リモート映像処理のステップS43で決定したアバターの映像データを映像DB21から読み出す。そして、合成部13が、アバターを並べた座席映像を生成する。
次に、ステップS57で、出力部14が、分析結果DB23に記憶された分析結果に基づいて、集中度の分析結果を示す分析結果映像を生成する。次に、ステップS58で、出力部14が、生成した分析結果映像と、上記ステップS53、S54、又はS56で生成された座席映像とを1つの画面に含む表示映像の映像データを生成し、表示装置32へ出力する。これにより、表示装置32に表示映像が表示される(ステップS70)。
以上説明したように、本実施形態に係る講義支援システムによれば、講義支援装置が、対面生徒を含む教室内を撮影した対面映像、及びリモート生徒を撮影したリモート映像の各々を取得する。そして、講義支援装置が、取得した対面映像及びリモート映像の各々を映像解析することにより、対面生徒及びリモート生徒の集中度等の状態を分析する。また、講義支援装置は、リモート映像の各々又はリモート映像を加工した映像の各々を、対面映像における空き席等の対面生徒が存在しない領域に合成した座席映像を生成する。さらに、講義支援装置が、座席映像と、状態の分析結果を示す映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを表示装置へ出力する。これにより、対面授業とオンライン授業とを組み合わせたハイブリッド型の授業を行う教師による生徒の状態の確認を支援することができる。
また、上記実施形態に係る講義支援装置では、リモート映像を加工した映像として、リモート生徒の集中度に応じたアバターを用いている。これにより、自宅等から参加する生徒のプライバシーに配慮することができる。また、画質や画面サイズ等の問題で、リモート映像のままでは生徒の表情や反応を視認し難い場合も、アバターを用いることで、生徒の状態の確認が容易になる。なお、座席映像の生成は、リモート生徒のアバターを対面映像に合成する場合に限定されず、リモート映像をそのまま合成してもよい。
また、上記実施形態に係る講義支援装置は、対面生徒及びリモート生徒の映像に加え、生徒の状態の分析結果も表示映像に含めることで、生徒の状態を定量的に把握することができる。
なお、上記実施形態では、対面生徒が存在しない空き席にアバターを合成する場合について説明したが、これに限定されない。例えば、図14に示すように、教室の一角等の領域に、リモート映像の各々又はリモート映像を加工したアバター等の映像の各々を並べたパネル状の映像を、対面映像に合成して座席映像を生成してもよい。
また、上記実施形態では、生徒の状態として、集中度を分析する場合について説明したが、これに限定されない。例えば、覚醒度、満足度等、授業に対する生徒の反応を把握可能な他の指標を分析してもよいし、生徒の表情から感情の種類を分析するようにしてもよい。
また、上記実施形態では、講義の一例として、学校での授業に開示の技術を適用した場合について説明したが、これに限定されない。開示の技術は、他の教育機関や塾における授業、企業における研修会、その他各種講演会等の講義など、対面講義とオンライン講義とのハイブリッド型の様々な講義に適用可能である。
また、上記実施形態では、講義支援装置で生成した表示映像を表示装置に送信して表示する場合について説明したが、これに限定されない。表示装置に、上記実施形態の講義支援装置の機能をアプリケーションとしてインストールし、表示装置において表示映像を生成して表示するようにしてもよい。
また、上記実施形態では、講義支援プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD-ROM、DVD-ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
講義を受講する第1の受講者を含む会場を撮影した第1の映像、及びネットワークを介してリモートで前記講義を受講する第2の受講者を撮影した第2の映像の各々を取得する取得部と、
前記第1の映像及び前記第2の映像の各々を映像解析することにより、前記第1の受講者及び前記第2の受講者の各々の状態を分析する分析部と、
前記第2の映像の各々又は前記第2の映像を加工した映像の各々を、前記第1の映像において前記第1の受講者が存在しない領域に合成した合成映像を生成する合成部と、
前記合成映像と、前記分析部による分析結果を示す映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを表示装置へ出力する出力部と、
を含む講義支援システム。
講義を受講する第1の受講者を含む会場を撮影した第1の映像、及びネットワークを介してリモートで前記講義を受講する第2の受講者を撮影した第2の映像の各々を取得する取得部と、
前記第1の映像及び前記第2の映像の各々を映像解析することにより、前記第1の受講者及び前記第2の受講者の各々の状態を分析する分析部と、
前記第2の映像の各々又は前記第2の映像を加工した映像の各々を、前記第1の映像において前記第1の受講者が存在しない領域に合成した合成映像を生成する合成部と、
前記合成映像と、前記分析部による分析結果を示す映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを表示装置へ出力する出力部と、
を含む講義支援システム。
(付記2)
前記合成部は、前記第2の受講者を模した人型映像であって、前記分析部により分析された前記第2の受講者の状態に応じて態様が異なる人型映像を、前記第2の映像を加工した映像として前記第1の映像に合成する付記1に記載の講義支援システム。
前記合成部は、前記第2の受講者を模した人型映像であって、前記分析部により分析された前記第2の受講者の状態に応じて態様が異なる人型映像を、前記第2の映像を加工した映像として前記第1の映像に合成する付記1に記載の講義支援システム。
(付記3)
前記分析部は、前記会場の座席の情報、及び前記第1の映像に基づいて、前記第1の受講者が存在しない空き席を特定し、
前記合成部は、前記第1の映像における空き席上に、前記第2の映像の各々又は前記第2の映像を加工した映像の各々を合成する
付記1又は付記2に記載の講義支援システム。
前記分析部は、前記会場の座席の情報、及び前記第1の映像に基づいて、前記第1の受講者が存在しない空き席を特定し、
前記合成部は、前記第1の映像における空き席上に、前記第2の映像の各々又は前記第2の映像を加工した映像の各々を合成する
付記1又は付記2に記載の講義支援システム。
(付記4)
前記合成部は、前記第1の映像において前記第1の受講者が存在しない領域に、前記第2の映像の各々又は前記第2の映像を加工した映像の各々を並べたパネル状の映像を合成する付記1又は付記2に記載の講義支援システム。
前記合成部は、前記第1の映像において前記第1の受講者が存在しない領域に、前記第2の映像の各々又は前記第2の映像を加工した映像の各々を並べたパネル状の映像を合成する付記1又は付記2に記載の講義支援システム。
(付記5)
前記分析部は、前記第1の映像及び前記第2の映像の各々における前記第1の受講者及び前記第2の受講者の各々の表情、頭の向き、及び体の動きの少なくとも1つに基づいて、前記第1の受講者及び前記第2の受講者の各々の集中度を、前記第1の受講者及び前記第2の受講者の各々の状態として分析する付記1~付記4のいずれか1項に記載の講義支援システム。
前記分析部は、前記第1の映像及び前記第2の映像の各々における前記第1の受講者及び前記第2の受講者の各々の表情、頭の向き、及び体の動きの少なくとも1つに基づいて、前記第1の受講者及び前記第2の受講者の各々の集中度を、前記第1の受講者及び前記第2の受講者の各々の状態として分析する付記1~付記4のいずれか1項に記載の講義支援システム。
(付記6)
前記分析部は、前記第1の受講者及び前記第2の受講者の各々の状態を、時系列に対応付けて記憶部に記憶し、
前記出力部は、前記記憶部に記憶された情報に基づいて、前記分析結果を示す映像を生成する
付記1~付記5のいずれか1項に記載の講義支援システム。
前記分析部は、前記第1の受講者及び前記第2の受講者の各々の状態を、時系列に対応付けて記憶部に記憶し、
前記出力部は、前記記憶部に記憶された情報に基づいて、前記分析結果を示す映像を生成する
付記1~付記5のいずれか1項に記載の講義支援システム。
(付記7)
前記出力部は、前記記憶部に記憶された情報に基づいて、前記第1の受講者及び前記第2の受講者の各々の状態の集計結果、及び前記状態の時系列の変化の少なくとも一方を表す前記分析結果を示す映像を生成する付記6に記載の講義支援システム。
前記出力部は、前記記憶部に記憶された情報に基づいて、前記第1の受講者及び前記第2の受講者の各々の状態の集計結果、及び前記状態の時系列の変化の少なくとも一方を表す前記分析結果を示す映像を生成する付記6に記載の講義支援システム。
(付記8)
前記出力部は、前記映像データを、前記会場に設置された表示装置、及び前記講義の講師が装着するヘッドマウントディスプレイの少なくとも一方へ出力する付記1~付記7のいずれか1項に記載の講義支援システム。
前記出力部は、前記映像データを、前記会場に設置された表示装置、及び前記講義の講師が装着するヘッドマウントディスプレイの少なくとも一方へ出力する付記1~付記7のいずれか1項に記載の講義支援システム。
(付記9)
前記取得部、前記分析部、前記合成部、及び前記出力部を含む講義支援装置が、前記第1の映像及び前記第2の映像の取得から、前記表示映像の前記表示装置への表示までの遅延時間が所定時間内となるように、前記表示装置の近傍に配置される付記1~付記8のいずれか1項に記載の講義支援システム。
前記取得部、前記分析部、前記合成部、及び前記出力部を含む講義支援装置が、前記第1の映像及び前記第2の映像の取得から、前記表示映像の前記表示装置への表示までの遅延時間が所定時間内となるように、前記表示装置の近傍に配置される付記1~付記8のいずれか1項に記載の講義支援システム。
(付記10)
講義を受講する第1の受講者を含む会場を撮影した第1の映像、及びネットワークを介してリモートで前記講義を受講する第2の受講者を撮影した第2の映像の各々を取得し、
前記第1の映像及び前記第2の映像の各々を映像解析することにより、前記第1の受講者及び前記第2の受講者の各々の状態を分析し、
前記第2の映像の各々又は前記第2の映像を加工した映像の各々を、前記第1の映像において前記第1の受講者が存在しない領域に合成した合成映像を生成し、
前記合成映像と、状態の分析結果を示す映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを表示装置へ出力する
ことを含む処理をコンピュータが実行する講義支援方法。
講義を受講する第1の受講者を含む会場を撮影した第1の映像、及びネットワークを介してリモートで前記講義を受講する第2の受講者を撮影した第2の映像の各々を取得し、
前記第1の映像及び前記第2の映像の各々を映像解析することにより、前記第1の受講者及び前記第2の受講者の各々の状態を分析し、
前記第2の映像の各々又は前記第2の映像を加工した映像の各々を、前記第1の映像において前記第1の受講者が存在しない領域に合成した合成映像を生成し、
前記合成映像と、状態の分析結果を示す映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを表示装置へ出力する
ことを含む処理をコンピュータが実行する講義支援方法。
(付記11)
前記第2の受講者を模した人型映像であって、分析された前記第2の受講者の状態に応じて態様が異なる人型映像を、前記第2の映像を加工した映像として前記第1の映像に合成する付記10に記載の講義支援方法。
前記第2の受講者を模した人型映像であって、分析された前記第2の受講者の状態に応じて態様が異なる人型映像を、前記第2の映像を加工した映像として前記第1の映像に合成する付記10に記載の講義支援方法。
(付記12)
前記会場の座席の情報、及び前記第1の映像に基づいて、前記第1の受講者が存在しない空き席を特定し、
前記第1の映像における空き席上に、前記第2の映像の各々又は前記第2の映像を加工した映像の各々を合成する
付記10又は付記11に記載の講義支援方法。
前記会場の座席の情報、及び前記第1の映像に基づいて、前記第1の受講者が存在しない空き席を特定し、
前記第1の映像における空き席上に、前記第2の映像の各々又は前記第2の映像を加工した映像の各々を合成する
付記10又は付記11に記載の講義支援方法。
(付記13)
前記第1の映像において前記第1の受講者が存在しない領域に、前記第2の映像の各々又は前記第2の映像を加工した映像の各々を並べたパネル状の映像を合成する付記10又は付記11に記載の講義支援方法。
前記第1の映像において前記第1の受講者が存在しない領域に、前記第2の映像の各々又は前記第2の映像を加工した映像の各々を並べたパネル状の映像を合成する付記10又は付記11に記載の講義支援方法。
(付記14)
前記第1の映像及び前記第2の映像の各々における前記第1の受講者及び前記第2の受講者の各々の表情、頭の向き、及び体の動きの少なくとも1つに基づいて、前記第1の受講者及び前記第2の受講者の各々の集中度を、前記第1の受講者及び前記第2の受講者の各々の状態として分析する付記10~付記13のいずれか1項に記載の講義支援方法。
前記第1の映像及び前記第2の映像の各々における前記第1の受講者及び前記第2の受講者の各々の表情、頭の向き、及び体の動きの少なくとも1つに基づいて、前記第1の受講者及び前記第2の受講者の各々の集中度を、前記第1の受講者及び前記第2の受講者の各々の状態として分析する付記10~付記13のいずれか1項に記載の講義支援方法。
(付記15)
前記第1の受講者及び前記第2の受講者の各々の状態を、時系列に対応付けて記憶部に記憶し、
前記記憶部に記憶された情報に基づいて、前記分析結果を示す映像を生成する
付記10~付記14のいずれか1項に記載の講義支援方法。
前記第1の受講者及び前記第2の受講者の各々の状態を、時系列に対応付けて記憶部に記憶し、
前記記憶部に記憶された情報に基づいて、前記分析結果を示す映像を生成する
付記10~付記14のいずれか1項に記載の講義支援方法。
(付記16)
前記記憶部に記憶された情報に基づいて、前記第1の受講者及び前記第2の受講者の各々の状態の集計結果、及び前記状態の時系列の変化の少なくとも一方を表す前記分析結果を示す映像を生成する付記15に記載の講義支援方法。
前記記憶部に記憶された情報に基づいて、前記第1の受講者及び前記第2の受講者の各々の状態の集計結果、及び前記状態の時系列の変化の少なくとも一方を表す前記分析結果を示す映像を生成する付記15に記載の講義支援方法。
(付記17)
前記映像データを、前記会場に設置された表示装置、及び前記講義の講師が装着するヘッドマウントディスプレイの少なくとも一方へ出力する付記10~付記16のいずれか1項に記載の講義支援方法。
前記映像データを、前記会場に設置された表示装置、及び前記講義の講師が装着するヘッドマウントディスプレイの少なくとも一方へ出力する付記10~付記16のいずれか1項に記載の講義支援方法。
(付記18)
講義を受講する第1の受講者を含む会場を撮影した第1の映像、及びネットワークを介してリモートで前記講義を受講する第2の受講者を撮影した第2の映像の各々を取得し、
前記第1の映像及び前記第2の映像の各々を映像解析することにより、前記第1の受講者及び前記第2の受講者の各々の状態を分析し、
前記第2の映像の各々又は前記第2の映像を加工した映像の各々を、前記第1の映像において前記第1の受講者が存在しない領域に合成した合成映像を生成し、
前記合成映像と、状態の分析結果を示す映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを表示装置へ出力する
ことを含む処理をコンピュータに実行させるための講義支援プログラム。
講義を受講する第1の受講者を含む会場を撮影した第1の映像、及びネットワークを介してリモートで前記講義を受講する第2の受講者を撮影した第2の映像の各々を取得し、
前記第1の映像及び前記第2の映像の各々を映像解析することにより、前記第1の受講者及び前記第2の受講者の各々の状態を分析し、
前記第2の映像の各々又は前記第2の映像を加工した映像の各々を、前記第1の映像において前記第1の受講者が存在しない領域に合成した合成映像を生成し、
前記合成映像と、状態の分析結果を示す映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを表示装置へ出力する
ことを含む処理をコンピュータに実行させるための講義支援プログラム。
(付記19)
前記第2の受講者を模した人型映像であって、分析された前記第2の受講者の状態に応じて態様が異なる人型映像を、前記第2の映像を加工した映像として前記第1の映像に合成する付記18に記載の講義支援プログラム。
前記第2の受講者を模した人型映像であって、分析された前記第2の受講者の状態に応じて態様が異なる人型映像を、前記第2の映像を加工した映像として前記第1の映像に合成する付記18に記載の講義支援プログラム。
(付記20)
講義を受講する第1の受講者を含む会場を撮影した第1の映像、及びネットワークを介してリモートで前記講義を受講する第2の受講者を撮影した第2の映像の各々を取得し、
前記第1の映像及び前記第2の映像の各々を映像解析することにより、前記第1の受講者及び前記第2の受講者の各々の状態を分析し、
前記第2の映像の各々又は前記第2の映像を加工した映像の各々を、前記第1の映像において前記第1の受講者が存在しない領域に合成した合成映像を生成し、
前記合成映像と、状態の分析結果を示す映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを表示装置へ出力する
ことを含む処理をコンピュータに実行させるための講義支援プログラムを記憶した非一時的記憶媒体。
講義を受講する第1の受講者を含む会場を撮影した第1の映像、及びネットワークを介してリモートで前記講義を受講する第2の受講者を撮影した第2の映像の各々を取得し、
前記第1の映像及び前記第2の映像の各々を映像解析することにより、前記第1の受講者及び前記第2の受講者の各々の状態を分析し、
前記第2の映像の各々又は前記第2の映像を加工した映像の各々を、前記第1の映像において前記第1の受講者が存在しない領域に合成した合成映像を生成し、
前記合成映像と、状態の分析結果を示す映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを表示装置へ出力する
ことを含む処理をコンピュータに実行させるための講義支援プログラムを記憶した非一時的記憶媒体。
10 講義支援装置
11 取得部
12 分析部
13 合成部
14 出力部
20 記憶領域
21 映像DB
22 座席DB
23 分析結果DB
30 カメラ
32 表示装置
40 リモート生徒端末
40A カメラ
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
54 入出力I/F
55 R/W部
56 通信I/F
57 バス
58 GPU
59 記憶媒体
60 講義支援プログラム
100 講義支援システム
11 取得部
12 分析部
13 合成部
14 出力部
20 記憶領域
21 映像DB
22 座席DB
23 分析結果DB
30 カメラ
32 表示装置
40 リモート生徒端末
40A カメラ
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
54 入出力I/F
55 R/W部
56 通信I/F
57 バス
58 GPU
59 記憶媒体
60 講義支援プログラム
100 講義支援システム
Claims (10)
- 講義を受講する第1の受講者を含む会場を撮影した第1の映像、及びネットワークを介してリモートで前記講義を受講する第2の受講者を撮影した第2の映像の各々を取得する取得部と、
前記第1の映像及び前記第2の映像の各々を映像解析することにより、前記第1の受講者及び前記第2の受講者の各々の状態を分析する分析部と、
前記第2の映像の各々又は前記第2の映像を加工した映像の各々を、前記第1の映像において前記第1の受講者が存在しない領域に合成した合成映像を生成する合成部と、
前記合成映像と、前記分析部による分析結果を示す映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを表示装置へ出力する出力部と、
を含む講義支援システム。 - 前記合成部は、前記第2の受講者を模した人型映像であって、前記分析部により分析された前記第2の受講者の状態に応じて態様が異なる人型映像を、前記第2の映像を加工した映像として前記第1の映像に合成する請求項1に記載の講義支援システム。
- 前記分析部は、前記会場の座席の情報、及び前記第1の映像に基づいて、前記第1の受講者が存在しない空き席を特定し、
前記合成部は、前記第1の映像における空き席上に、前記第2の映像の各々又は前記第2の映像を加工した映像の各々を合成する
請求項1又は請求項2に記載の講義支援システム。 - 前記合成部は、前記第1の映像において前記第1の受講者が存在しない領域に、前記第2の映像の各々又は前記第2の映像を加工した映像の各々を並べたパネル状の映像を合成する請求項1又は請求項2に記載の講義支援システム。
- 前記分析部は、前記第1の映像及び前記第2の映像の各々における前記第1の受講者及び前記第2の受講者の各々の表情、頭の向き、及び体の動きの少なくとも1つに基づいて、前記第1の受講者及び前記第2の受講者の各々の集中度を、前記第1の受講者及び前記第2の受講者の各々の状態として分析する請求項1~請求項4のいずれか1項に記載の講義支援システム。
- 前記分析部は、前記第1の受講者及び前記第2の受講者の各々の状態を、時系列に対応付けて記憶部に記憶し、
前記出力部は、前記記憶部に記憶された情報に基づいて、前記分析結果を示す映像を生成する
請求項1~請求項5のいずれか1項に記載の講義支援システム。 - 前記出力部は、前記記憶部に記憶された情報に基づいて、前記第1の受講者及び前記第2の受講者の各々の状態の集計結果、及び前記状態の時系列の変化の少なくとも一方を表す前記分析結果を示す映像を生成する請求項6に記載の講義支援システム。
- 前記出力部は、前記映像データを、前記会場に設置された表示装置、及び前記講義の講師が装着するヘッドマウントディスプレイの少なくとも一方へ出力する請求項1~請求項7のいずれか1項に記載の講義支援システム。
- 前記取得部、前記分析部、前記合成部、及び前記出力部を含む講義支援装置が、前記第1の映像及び前記第2の映像の取得から、前記表示映像の前記表示装置への表示までの遅延時間が所定時間内となるように、前記表示装置の近傍に配置される請求項1~請求項8のいずれか1項に記載の講義支援システム。
- 講義を受講する第1の受講者を含む会場を撮影した第1の映像、及びネットワークを介してリモートで前記講義を受講する第2の受講者を撮影した第2の映像の各々を取得し、
前記第1の映像及び前記第2の映像の各々を映像解析することにより、前記第1の受講者及び前記第2の受講者の各々の状態を分析し、
前記第2の映像の各々又は前記第2の映像を加工した映像の各々を、前記第1の映像において前記第1の受講者が存在しない領域に合成した合成映像を生成し、
前記合成映像と、状態の分析結果を示す映像とを1つの画面に含む表示映像の映像データを生成し、生成した映像データを表示装置へ出力する
ことを含む処理をコンピュータが実行する講義支援方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021168959A JP2023059067A (ja) | 2021-10-14 | 2021-10-14 | 講義支援システム及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021168959A JP2023059067A (ja) | 2021-10-14 | 2021-10-14 | 講義支援システム及び方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023059067A true JP2023059067A (ja) | 2023-04-26 |
Family
ID=86095320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021168959A Pending JP2023059067A (ja) | 2021-10-14 | 2021-10-14 | 講義支援システム及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023059067A (ja) |
-
2021
- 2021-10-14 JP JP2021168959A patent/JP2023059067A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10930166B2 (en) | Adaptive content delivery for online education | |
US20150312520A1 (en) | Telepresence apparatus and method enabling a case-study approach to lecturing and teaching | |
JP7276158B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2006085440A (ja) | 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム | |
KR20150040981A (ko) | 조직화 모델들을 구현하는 화상 회의 시스템들 | |
JP2006302047A (ja) | 会議支援プログラム、会議支援装置、および会議支援方法 | |
US20210027548A1 (en) | Information processing device and attendance state management method | |
JPH10171337A (ja) | バーチャル教室システム | |
Dominguez et al. | Scaling and adopting a multimodal learning analytics application in an institution-wide setting | |
Pereira et al. | Communication skills training intervention based on automated recognition of nonverbal signals | |
CN112634096A (zh) | 一种基于智能黑板的课堂管理方法及系统 | |
JP2023059067A (ja) | 講義支援システム及び方法 | |
JP7130290B2 (ja) | 情報抽出装置 | |
WO2021245759A1 (ja) | 音声会議装置、音声会議システム及び音声会議方法 | |
KR100601397B1 (ko) | 멀티미디어 교육시스템 | |
Ronzhin et al. | A software system for the audiovisual monitoring of an intelligent meeting room in support of scientific and education activities | |
JP6849228B2 (ja) | 教室システム | |
Chong Kwan | Embodied methods in qualitative research | |
CN114830208A (zh) | 信息处理装置、信息处理方法和程序 | |
Kim et al. | Multimodal data analytics for assessing collaborative interactions | |
McGloin et al. | Changing the Channel-From Face to Face to Digital Space: Framing the Foundations of Video Based Presentation & Meeting Channels | |
CN111698452A (zh) | 在线群体状态反馈方法、系统及装置 | |
JP7069550B2 (ja) | 講義映像分析装置、講義映像分析システム、方法およびプログラム | |
KR102453323B1 (ko) | Ai 기반의 개인맞춤형 사용자환경을 제공하는 화상회의방법 | |
JP7100938B1 (ja) | 動画像分析プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240711 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20240906 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20240910 |