JP2023025400A - 感情タグ付与システム、方法及びプログラム - Google Patents

感情タグ付与システム、方法及びプログラム Download PDF

Info

Publication number
JP2023025400A
JP2023025400A JP2021130617A JP2021130617A JP2023025400A JP 2023025400 A JP2023025400 A JP 2023025400A JP 2021130617 A JP2021130617 A JP 2021130617A JP 2021130617 A JP2021130617 A JP 2021130617A JP 2023025400 A JP2023025400 A JP 2023025400A
Authority
JP
Japan
Prior art keywords
emotion
event
content
images
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021130617A
Other languages
English (en)
Other versions
JP2023025400A5 (ja
Inventor
充 沢野
Mitsuru Sawano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2021130617A priority Critical patent/JP2023025400A/ja
Priority to US17/883,608 priority patent/US20230049225A1/en
Publication of JP2023025400A publication Critical patent/JP2023025400A/ja
Publication of JP2023025400A5 publication Critical patent/JP2023025400A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Hospice & Palliative Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】コンテンツを使用したイベントの実施時におけるユーザの感情を示す感情タグをコンテンツに付与する感情タグ付与システム、方法及びプログラムを提供する。【解決手段】感情タグ付与方法は、音声検出器が、コンテンツを使用したイベントの実施中に、イベントに参加した人間が発声する音声を示す音声データを検出するステップS16と、感情認識器が、音声データに基づいて人間の感情を認識するステップS18と、プロセッサが、コンテンツを使用したイベントの実施中に認識した人間の感情を示す感情情報を取得するステップと、感情認識器が、取得した感情情報から算出した感情ランクを、感情タグとしてコンテンツに付与するステップS20,S22と、を含む。【選択図】図7

Description

本発明は感情タグ付与システム、方法及びプログラムに係り、特にコンテンツにユーザの感情に関する感情タグを付与する技術に関する。
従来、動画、写真などの画像ファイルや音声ファイルなどのコンテンツデータをストレージに大量に保存し、ストレージから選択的にファイルを読み出してスライドショーのように連続再生するシステムが知られている。
特許文献1には、このようなシステムに使用され、タグ付きのコンテンツデータの登録から検索閲覧までのユーザの負担を低減する情報処理システムが提案されている。
特許文献1に記載の情報処理システムは、ユーザ及びユーザの行動に関する情報からユーザのコンテンツデータに対する1以上のタグ情報を生成し、生成した1以上のタグ情報をコンテンツデータと紐付けてコンテンツデータベースに登録する。
また、情報処理システムは、検索閲覧時には、ユーザを含むコンテンツ視聴環境から検出される情報に基づいてタグ情報を選択し、選択したタグ情報に基づいて、コンテンツデータベースから1以上のコンテンツデータを検索して順次再生する。
ところで、特許文献1には、画像ファイルのコンテンツデータにタグ情報を付与する場合に、画像ファイルのコンテンツデータ(撮影画像)を解析し、撮影画像に含まれる人物の顔表情から感情情報を推定し、推定した感情情報を含むタグ情報を画像ファイルに付与する記載がある。尚、感情情報は、例えば、「楽しい」、「悲しい」などの顔表情から推定される情報である。
国際公開第2020/158536号
特許文献1に記載の情報処理システムは、画像ファイルのコンテンツデータにタグ情報を付与する場合に、画像ファイルのコンテンツデータ(撮影画像)を解析し、撮影画像に含まれる人物の顔表情から感情情報を推定し、推定した感情情報を含むタグ情報を画像ファイルに付与する。
しかしながら、撮影画像に含まれる人物の顔表情から推定される感情情報は、撮影画像が撮影された時点(過去)の感情情報であり、その撮影画像を視聴したユーザのコンテンツ視聴時点の感情情報ではない。
また、特許文献1には、コンテンツ視聴時に定点観測カメラなどを使ってコンテンツ視聴環境の画像を取得し、取得した画像から被写体の人物を認識するとともに、その人物の顔表情から感情を推定する記載がある。しかし、ここで推定される感情は、例えば"楽しい"(顔表情が笑顔)などの特定の感情に変化した場合に、検索用のタグ情報を「楽しい」のタグ情報に更新し、コンテンツデータを再検索して再生提示に切り替える場合に使用されるものである。
本発明はこのような事情に鑑みてなされたもので、コンテンツを使用したイベントの実施時におけるユーザの感情を示す感情タグをコンテンツに付与することができる感情タグ付与システム、方法及びプログラムを提供することを目的とする。
上記目的を達成するために第1態様に係る発明は、プロセッサと、コンテンツを使用したイベントの実施中に、イベントに参加した人間が発声する音声を示す音声データを検出する音声検出器と、音声データに基づいて人間の感情を認識する感情認識器と、を備え、プロセッサは、コンテンツを使用したイベントの実施中に感情認識器が認識した人間の感情を示す感情情報を取得し、取得した感情情報から算出した感情ランクを、感情タグとしてコンテンツに付与する、感情タグ付与システムである。
本発明の第1態様によれば、コンテンツを使用したイベントの実施中に、イベントに参加した人間が発声する音声を示す音声データを検出し、検出した音声データに基づいて人間の感情を示す感情情報を取得する。そして、取得した感情情報から算出した感情ランクを、感情タグとしてコンテンツに付与する。
これにより、イベントの実施時におけるユーザの感情を示す感情タグをコンテンツに付与することができ、イベント参加者がどの程度喜んでくれたかという効果(イベントの価値)を時間帯ごとに定量化することができ、どのコンテンツに効果が高かったかを誰でも明確に判断することができる。また、次回のイベントの実施時に感情タグを利用し、感情タグを反映させた効果の高いイベントの実施が可能になる。
本発明の第2態様に係る感情タグ付与システムにおいて、感情認識器は、人間が喜んでいるときに発声する音声の音声データと、喜んでいないときに発声する音声の音声データとを含む多数の音声データを教師データとして機械学習した認識器であることが好ましい。これにより、イベントに参加したユーザ(人間)の感情を示す感情情報であって、喜びの度合いを示す感情情報を精度よく認識することができる。
本発明の第3態様に係る感情タグ付与システムにおいて、コンテンツは、複数の画像であり、イベントは、画像再生機器により複数の画像を順次再生し、再生した複数の画像を鑑賞する鑑賞イベントであることが好ましい。
本発明の第4態様に係る感情タグ付与システムにおいて、複数の画像は、イベントに参加した人間が写っている写真又は動画を含むことが好ましい。イベントに参加した参加者が関心をもち、より楽しめるようにするためである。
本発明の第5態様に係る感情タグ付与システムにおいて、プロセッサは、複数の画像が再生される時間帯における複数の感情情報を感情認識器から取得し、複数の感情情報の代表値から各画像に対応する感情ランクを算出し、算出した感情ランクを感情タグとして各画像にそれぞれ付与することが好ましい。
本発明の第6態様に係る感情タグ付与システムにおいて、プロセッサは、イベントに複数人が参加している場合、音声検出器が検出する音声データに基づいて、複数の画像が再生される時間帯における1又は複数の主要話者を特定し、特定した1人以上の主要話者を示す話者識別情報を各画像にそれぞれ付与することが好ましい。
本発明の第7態様に係る感情タグ付与システムにおいて、プロセッサは、画像再生機器による複数の画像の再生中に感情ランク及び話者識別情報のうち少なくとも1つを同時に表示させることが好ましい。
本発明の第8態様に係る感情タグ付与システムにおいて、プロセッサは、音声検出器が検出する音声データに基づいて、音声データをテキストデータに変換し、テキストデータの少なくとも一部を、コメントタグとして複数の画像の対応する画像に付与することが好ましい。
第9態様に係る発明は、音声検出器が、コンテンツを使用したイベントの実施中に、イベントに参加した人間が発声する音声を示す音声データを検出するステップと、感情認識器が、音声データに基づいて人間の感情を認識するステップと、プロセッサが、コンテンツを使用したイベントの実施中に認識した人間の感情を示す感情情報を取得するステップと、感情認識器が、取得した感情情報から算出した感情ランクを、感情タグとしてコンテンツに付与するステップと、を含む感情タグ付与方法である。
本発明の第10態様に係る感情タグ付与方法において、コンテンツは、複数の画像であり、イベントは、画像再生機器により複数の画像を順次再生し、再生した複数の画像を鑑賞する鑑賞イベントであることが好ましい。
本発明の第11態様に係る感情タグ付与方法において、複数の画像は、イベントに参加した人間が写っている写真又は動画を含むことが好ましい。
本発明の第12態様に係る感情タグ付与方法において、プロセッサが、複数の画像が再生される時間帯における複数の感情情報を感情認識器から取得し、複数の感情情報の代表値から各画像に対応する感情ランクを算出し、算出した感情ランクを感情タグとして各画像にそれぞれ付与することが好ましい。
本発明の第13態様に係る感情タグ付与方法において、プロセッサが、イベントに複数人が参加している場合、音声検出器が検出する音声データに基づいて、複数の画像が再生される時間帯における1又は複数の主要話者を特定し、特定した1人以上の主要話者を示す話者識別情報を各画像にそれぞれ付与することが好ましい。
本発明の第14態様に係る感情タグ付与方法において、プロセッサが、画像再生機器による複数の画像の再生中に感情ランク及び話者識別情報により特定される話者情報のうち少なくとも1つを同時に表示させることが好ましい。
本発明の第15態様に係る感情タグ付与方法において、プロセッサが、音声検出器が検出する音声データに基づいて、音声データをテキストデータに変換し、テキストデータの少なくとも一部を、コメントタグとして複数の画像の対応する画像に付与することが好ましい。
第16態様に係る発明は、コンテンツを使用したイベントの実施中に、イベントに参加した人間が発声する音声を示す音声データを音声検出器から取得する機能と、音声データに基づいて人間の感情を認識する機能と、コンテンツを使用したイベントの実施中に認識した人間の感情を示す感情情報を取得する機能と、取得した感情情報から算出した感情ランクを、感情タグとしてコンテンツに付与する機能と、をコンピュータにより実現させる感情タグ付与プログラムである。
本発明によれば、コンテンツを使用したイベントの実施時におけるユーザの感情を示す感情タグをコンテンツに付与することができる。これにより、イベントの価値を定量化し、どのコンテンツに効果が高かったかを明確に判断することができ、また、次回のイベントの実施時に感情タグを利用し、感情タグを反映させた効果の高いイベントの実施が可能になる。
図1は、本発明に係る感情タグ付与システムの実施形態を示す概略構成図である。 図2は、本発明に係る感情タグ付与システムの実施形態を示すブロック図である。 図3は、本発明に係る感情タグ付与システムの第1実施形態を示すタイミングチャートである。 図4は、イベントの実施中にイベント参加者が発声する音声を示す音声データに基づいてコンテンツに感情タグを付与する実施形態を示す図である。 図5は、本発明に係る感情タグ付与システムの第2実施形態を示すタイミングチャートである。 図6は、イベントの実施中にイベント参加者が発声する音声を示す音声データに基づいてコンテンツに感情タグ、話者ID、及びコメントタグを付与する実施形態を示す図である。 図7は、本発明に係る感情タグ付与方法の第1実施形態を示すフローチャートである。 図8は、本発明に係る感情タグ付与方法の第2実施形態を示すフローチャートである。
以下、添付図面に従って本発明に係る感情タグ付与システム、方法及びプログラム飛行撮影システム及び方法の好ましい実施形態について説明する。
[感情タグ付与システムの構成]
図1は、本発明に係る感情タグ付与システムの実施形態を示す概略構成図である。
図1に示す感情タグ付与システム1は、タブレットPC(personal computer:パーソナルコンピュータ)10と、音声検出器20とを備えている。音声検出器20は、タブレットPC10に内蔵されているものでもよい。
また、図1には、タブレットPC10からの映像信号に基づいて映像(画像)を表示する大型ディスプレイ30が示されている。
図2は、本発明に係る感情タグ付与システムの実施形態を示すブロック図であり、特にタブレットPC10のブロック図である。
図2に示す感情タグ付与システム1を構成するタブレットPC10は、プロセッサ11、メモリ12、表示部14、入出力インターフェース16、及び操作部18等を備える。
プロセッサ11は、CPU(Central Processing Unit)等から構成され、タブレットPC10の各部を統括制御するとともに、例えば、図4に示す感情認識器13A、感情ランク算出部13B、及び感情タグ付与部13Cとして機能する。
メモリ12は、フラッシュメモリ、ROM(Read-only Memory)、及びRAM(Random Access Memory)、ハードディスク装置等を含む。フラッシュメモリ、ROM又はハードディスク装置は、オペレーションシステム、本発明に係る感情タグ付与プログラム、コンテンツ(本例では、複数の画像)、タブレットPC10(プロセッサ11)を感情認識器13Aとして機能させる学習済みモデルを含む各種のプログラム等を記憶する不揮発性メモリである。RAMは、プロセッサ11による処理の作業領域として機能する。また、フラッシュメモリ等に格納された感情タグ付与プログラム等を一時的に記憶する。尚、プロセッサ11が、メモリ12の一部(RAM)を内蔵していてもよい。
本例のタブレットPC10は、メモリ12に保存したコンテンツを使用し、イベントを実施することができる。コンテンツが複数の画像の場合、タブレットPC10は、大型ディスプレイ30を使用して複数の画像を順次再生し、再生した複数の画像をイベント参加者に鑑賞させる鑑賞イベントを実施することができる。
表示部14は、タブレットPC10の操作用の画面を表示する他、鑑賞イベントを実施する場合には、鑑賞イベントに使用する画像(サムネイル画像)の一覧を表示し、表示部14の画面上に設けられたタッチパネルのタッチ操作により、画像(写真)の選択、切替えの入力指示等を操作部18から受け付ける場合のGUI(Graphical User Interface)の一部としても使用される。
入出力インターフェース16は、外部機器と接続可能な接続部、及びネットワークと接続可能な通信部等を含む。外部機器と接続可能な接続部としては、マイク入力端子、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(HDMIは登録商標)等を適用することができる。
プロセッサ11は、入出力インターフェース16を介して音声検出器(マイクロフォン)20により検出された音声データを取得することが可能である。また、プロセッサ11は、入出力インターフェース16を介して大型ディスプレイ30に映像信号を出力することができる。尚、鑑賞イベントを実施する場合、大型ディスプレイ30の代わりにプロジェクタを入出力インターフェース16に接続し、プロジェクタに映像信号を出力するようにしてもよい。
操作部18は、図示しない起動ボタン、音量ボタンの他に、表示部14の画面上に設けられたタッチパネル等を含み、タッチパネルは、ユーザによる各種の指定を受け付けるGUIの一部として機能する。
[イベントの例]
複数の画像を使用する鑑賞イベントとしては、例えば、介護老人保健施設、特別養護老人ホーム、幼稚園、学校等の施設で実施されるフォトスライドショーの鑑賞会が考えられる。
施設で実施されるフォトスライドショーの鑑賞会の場合、イベント実施者は、施設の職員、あるいは施設からのイベント受託者であり、イベント参加者は、その施設の利用者が考えられる。
イベントがフォトスライドショーの鑑賞会の場合、イベント実施者は、複数の画像をコンテンツとして準備する。「複数の画像」は、複数の静止画(写真)の他に、複数の写真から作成された動画でもよく、また、写真と動画の両方を含んでいてもよい。「写真」は、通常のカメラで撮影した写真だけでなく、絵や文字のような画像でもよく、本人の描かれた絵や短文、本人が描いた絵や文字(毛筆等)などを含む。本人の思い入れが強い画像も回想法効果を得ることができるからである。
イベント実施者は、イベント参加者の写真、アルバム等を借り、写真等が紙ベースの場合には、スキャナで写真をスキャンして電子化した画像ファイルを作成してメモリ12に保存し、写真等がメモリカードやモバイル端末に保存された画像ファイルの場合には、その保存された画像ファイルをメモリ12に保存する。
尚、写真は、イベントに参加した人間(イベント参加者)が写っているものが好ましい。あるいは、イベントに参加した人間の家族や仲間、出身学校や組織や地域、好きな趣味、自身の作品、好きな作品、好きなタレント、好きな地域や施設やイベントなどに関する写真又は動画を含むことも好ましい。イベントに参加した参加者が関心をもち、より楽しめるようにするためである。また、イベント参加者の画像ファイルは、イベント参加者毎に作成したフォルダに保存することが好ましい。
メモリ12のフラッシュメモリ等には、フォトスライドショーソフトがインストールされており、タブレットPC10は、フォトスライドショーソフトを起動させることで、メモリ12に保存された複数の写真を使用したフォトスライドショーを実施するための画像再生機器として機能する。
イベント実施者は、フォトスライドショーを実施する場合、フォトスライドショーに使用するサムネイル画像の一覧を表示部14に表示させ、イベント参加者の反応を見ながらタブレットPC10を操作し、複数の画像(写真)を良いタイミングで次の写真に切り替えたり、前の写真に戻したり、次の写真をスキップしたり、2つの写真を並べたりして、良い反応を作っていく形式のフォトスライドショーを実施する。
複数の写真を使用した鑑賞イベントとしては、上記のフォトスライドショーに限らず、複数の写真から作成された動画であって、公知のフォトムービー作成ソフトにより複数の画像(写真)を繋ぎ合わせ、写真の切り替えや写真の見せ方に特殊効果を施した動画(フォトムービー)を、画像再生機器として機能するタブレットPC10及び大型ディスプレイ30により再生し、フォトムービーを鑑賞する鑑賞会が考えられる。
<本発明の概要>
本発明は、コンテンツを使用したイベントの実施中に、イベント参加者が発声する音声を示す音声データを音声検出器20により検出し、音声データからイベントの実施時のイベント参加者の感情を分析し、イベント参加者の時系列の感情を示す感情タグを、そのイベントに使用したコンテンツに付与し、次回、同じコンテンツを使用したイベントの実施時に感情タグを利用し、更にイベント参加者への効果の高いイベントが実施できるようにする。
フォトスライドショーを鑑賞する鑑賞イベントの場合、フォトスライドショーに使用する写真毎にイベント参加者の感情を示す感情情報を取得し、取得した感情情報から算出した感情ランクを、感情タグとしてコンテンツ(各写真)に付与する。
[感情タグ付与システムの第1実施形態]
図3は、本発明に係る感情タグ付与システムの第1実施形態を示すタイミングチャートであり、特にフォトスライドショーの鑑賞イベントを実施する場合に関して示している。
図3の3-1は、フォトスライドショーの鑑賞イベント時に順次表示される時系列の写真を示す。この鑑賞イベント時には、複数の画像(n枚の写真P~P)が順次表示される。前述したようにイベント実施者は、フォトスライドショーを実施する場合、フォトスライドショーに使用するサムネイル画像の一覧を表示部14に表示させ、イベント参加者の反応を見ながらタブレットPC10(タッチパネル)を操作し、n枚の写真P~Pを適宜切り替えて表示させる。
図3の3-2は、フォトスライドショーの鑑賞イベント中に音声検出器20が検出したイベント参加者が発生する音声を示す音声データ(アナログ・データ)の波形図である。
図3の3-3は、音声データから算出した写真毎のイベント参加者の感情ランクを示す図である。尚、感情ランクの算出方法については後述する。
図3の3-3に示す各写真に対応する感情ランクは、感情タグとして対応する写真に付与される。
図3の3-4は、鑑賞イベントの各写真の再生時間を示す図である。写真Pは、時点t~tの期間再生される。tは、フォトスライドショーの開始時点である。同様に、写真Pは、時点t~tの期間再生され、写真Pは、t~tの期間再生され、写真Pは、時点tn-1~tの期間再生される。
<感情タグの付与>
図4は、イベントの実施中にイベント参加者が発声する音声を示す音声データに基づいてコンテンツに感情タグを付与する実施形態を示す図である。
図2に示すプロセッサ11は、図4に示すように感情認識器13A、感情ランク算出部13B、及び感情タグ付与部13Cとして機能する。
感情認識器13Aは、例えば、メモリ12に記憶された感情認識用の学習済みモデルを実行することで実現することができ、音声検出器20からイベントの実施中にイベント参加者が発声する音声を示す音声データに基づいて音声を発した人間(イベント参加者)の感情を認識し、イベント参加者の感情を示す感情情報を時々刻々と出力する。
学習済みモデルは、例えば、学習モデルの一つである畳み込みニューラルネットワーク(CNN:Convolution Neural Network)により構成することができる。
CNNは、以下に示す多数の教師データのデータセットにより機械学習が行われることで、学習済みCNN(学習済みモデル)とすることができる。
16.6kHzのデータレートで取得した被験者の音声データから、評価者が喜んでいると判定した区間の音声データだけを0.2秒単位で抽出してVahとし、喜んでいないと判定した区間の音声データだけを0.2秒単位で抽出してNvとした。
VtとVinの音声データをそれぞれ、1秒ごとに区切り、20msごとに100Hz~8000Hzの周波数ごとのエネルギー(パワースペクトル)を算出し、横軸時間(20msごとに0.2秒間の10個)、縦軸周波数(100Hzごとに8000Hzまでの80個)の、エネルギーの2次元パターンを作成する。このようにして作成した複数のVoの2次元パターン、及び複数のNvの2次元パターンを教師データとした。
上記教師データのデータセットを使用し、複数のレイヤ構造を有するCNNを機械学習させることで、複数の重みパラメータ等を最適化させ、学習済みCNNとする。
尚、教師データのデータセットは、施設の利用者の年齢層の被験者の複数の音声データから作成することが好ましい。
感情認識器13Aは、音声検出器20から音声データを入力すると、教師データの作成時と同様に20msごとにエネルギーの2次元パターンを作成し、この2次元パターンから特徴量を抽出し、喜んでいるか又は喜んでいないかを示す感情情報(推論結果)を出力する。
感情ランク算出部13Bは、感情認識器13Aから順次出力される、1枚の写真の表示の時間帯における感情情報を取得し、例えば、喜んでいることを示す確信度を5段階の感情ランク(ランクA~E)として算出する。尚、本例では、A<B<C<D<Eの順に、喜んでいることを示す確信度は高くなるものとする。
感情ランクは、1枚の写真の表示の時間帯における複数の感情情報のうちの代表値(最大値、平均値、最頻値など)から算出することができる。
尚、本例では、喜んでいることを示す確信度により感情ランクを算出しているが、これに限らず、喜びの大きさに応じた感情ランクを算出するようにしてもよい。また、喜びの感情に限らず、喜怒哀楽等の感情の種類と感情の種類別の感情ランクを算出するようにしてもよい。
感情タグ付与部13Cは、感情ランク算出部13Bにより算出された感情ランクを、感情タグとして感情情報を取得した時間帯に表示された写真(コンテンツ)に付与する。写真に対する感情タグの付与は、写真の画像ファイルのヘッダに感情タグを記録し、あるいは画像ファイルのファイル名又はコンテンツの再生時間帯と関連して、感情タグが記述されたテキストファイル等を作成することで行うことができる。
このように、イベントの実施時におけるユーザ(イベント参加者)の感情を示す感情タグをコンテンツに付与することができ、イベントの価値を時間帯ごとに定量化し、どのコンテンツに効果が高かったかを誰でも明確に判断することができる。また、次回のイベントの実施時に感情タグを利用し、感情タグを反映させた効果の高いイベントの実施が可能になる。
[感情タグ付与システムの第2実施形態]
図5は、本発明に係る感情タグ付与システムの第2実施形態を示すタイミングチャートである。
図5の5-1は、フォトスライドショーの鑑賞イベント時に順次表示される時系列の写真を示し、5-2は、フォトスライドショーの鑑賞イベント中に音声検出器20が検出したイベント参加者が発生する音声を示す音声データの波形図であり、5-3は、音声データから算出した写真毎のイベント参加者の感情ランクを示す図であり、5-6は、鑑賞イベントの各写真の再生時間を示す図である。
尚、図5の5-1~5-3、及び5-6は、図3に示した3-1~3-4と共通するため、その詳細な説明は省略する。
図5の5-4は、音声データから特定された1人以上の主要話者を示す話者識別情報(話者ID(identification))を示す図である。
図5の5-5は、音声データから変換されたテキストデータD~Dを示す図である。
図5に示す第2実施形態では、鑑賞イベントでの各写真の表示の時間帯に検出した音声データに基づいて特定した主要話者を示す話者IDを対応する写真に付与する点、及び各写真の表示の時間帯に検出した音声データに基づいて変換したテキストデータD~D(表示時間帯毎に変換したテキストデータのうちの少なくとも一部を含む)を、対応する写真のコメントタグとして付加する点が追加されている点で、図3に示した第1実施形態と相違する。
<感情タグ、話者ID及びコメントタグの付与>
図6は、イベントの実施中にイベント参加者が発声する音声を示す音声データに基づいてコンテンツに感情タグ、話者ID、及びコメントタグを付与する実施形態を示す図である。
図2に示すプロセッサ11は、図6に示すように感情認識器13A、感情ランク算出部13B、感情タグ付与部13C、話者認識器15A、話者ID付与部15B、音声テキスト変換器17A,及びコメントタグ付与部として機能する。
尚、図6において、図4に示した実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
図6において、話者認識器15Aは、人の声から個人(話者)を認識するもので、話者認識器15Aには、事前にイベント参加者である各話者の音声波形を示す情報(例えば、「声紋」)が、話者ID、話者IDにより特定される話者情報(話者の名前)等に関連付けて登録されている。図5の5-4に示す話者IDは、3桁の数字である。
話者認識器15Aは、鑑賞イベントの実施中に音声検出器20が検出する音声データに基づいて、複数の写真が順次再生される各時間帯における1又は複数の主要話者を、「声紋」の一致度により特定し、特定した1人以上の主要話者を示す話者IDを出力する。
話者ID付与部15Bは、話者認識器15Aにより算出された1又は複数の話者IDを、話者IDを取得した時間帯に表示された写真(コンテンツ)に付与する。
音声テキスト変換器17Aは、鑑賞イベントの実施中に音声検出器20が検出する音声データに基づいて音声データをテキストデータに変換する。プロセッサ11は、公知の音声テキスト変換ソフトを実行することで音声テキスト変換器17Aとして機能する。
コメントタグ付与部17Bは、音声テキスト変換器17Aにより変換されたテキストデータの少なくとも一部を、コメントタグとしてテキストデータを取得した時間帯に表示された写真(コンテンツ)を付与する。
感情タグ付与システムの第2実施形態によれば、コンテンツに感情タグとともに、話者ID、コメントタグを付与することができる。
また、プロセッサ11は、各写真の再生中に感情ランク、話者情報、及びテキストデータのうちの少なくとも1つを、対応する写真と同時に表示させることができる。
これにより、現在の感情ランクの高い参加者と低い参加者が分かるので、イベントのやり方にフィードバックできる。例えば、現在感情ランクの低い参加者に関して過去の感情ランクが高い写真等のイベントを次に表示するなど、イベントを改善することができる。
[感情タグ付与方法の第1実施形態]
図7は、本発明に係る感情タグ付与方法の第1実施形態を示すフローチャートである。
図7に示す感情タグ付与方法の第1実施形態は、フォトスライドショーを鑑賞する鑑賞イベントを実施する場合に行われる感情タグ付与方法である。
イベント実施者は、イベント参加者の複数の写真をコンテンツとして準備し、再生可能にメモリ12に保存しておく。フォトスライドショーの鑑賞イベントを開始する場合、感情タグ付与プログラムを実行するとともに、フォトスライドショーソフトを起動させ、メモリ12に保存された複数の写真を使用したフォトスライドショーを実施する。
尚、本例では、複数の写真をコンテンツとして使用するが、写真に限らず、動画をコンテンツとしてもよいし、写真と動画とが混在するコンテンツとしてもよい。
イベント実施者は、フォトスライドショーに使用するサムネイル画像の一覧を表示部14に表示させ、タブレットPC10のタッチパネルを操作し、大型ディスプレイ30に表示させる写真の選択指示を行う。これにより、複数の写真(n枚の写真P~P)から選択された写真Pが表示される(ステップS10)。ここで、iは、現在表示中の写真を特定するパラメータであり、1~nの範囲で変化し得る。
写真の選択指示は、イベント参加者の反応を見ながら、良いタイミングで写真P~Pを順番に切り替える選択指示でもよいし、前の写真に戻したり、次の写真をスキップしたりしてもよい。
プロセッサ11は、写真Pの表示中にイベント終了の指示入力があったか否かを判別する(ステップS12)。イベント終了の指示入力があった場合(「Yes」の場合)には、本処理を終了させ、イベント終了の指示入力がない場合(「No」の場合)には、ステップS14に遷移させる。
一方、音声検出器20は、鑑賞イベントの実施中にイベント参加者が発声する音声を示す音声データを検出しており、プロセッサ11の感情認識器13Aは、写真Pの表示中に音声検出器20から音声データを取得し(ステップS16)、取得した音声データに基づいてイベント参加者の感情(喜んでいるか否かを示す感情)を認識(推定)し、認識した感情を示す感情情報を順次出力する(ステップS18)。
ステップS14では、現在表示中の写真Pから異なる写真Pへの切替え指示入力があったか否かを判別する。切替え指示入力がない場合(「No」の場合)には、ステップS10に遷移し、現在表示中の写真Pの表示が継続される。切替え指示入力があった場合(「Yes」の場合)には、ステップS20に遷移する。
ステップS20では、プロセッサ11(感情ランク算出部13B)が、ステップS18で認識され、順次出力される複数の感情情報(写真Pの表示時間帯における複数の感情情報)を取得し、複数の感情情報の代表値から喜んでいることを示す感情ランクを算出する。
プロセッサ11(感情タグ付与部13C)は、ステップS20で算出された感情ランクを、感情タグTとしてコンテンツ(写真P)に付与する(ステップS22)。
続いて、表示が切り替えられる写真Pのパラメータjを、現在表示中の写真のパラメータiに変更し(ステップS24)、ステップS10に戻る。
尚、図7に示したフローチャートでは図示していないが、鑑賞イベントの終了時(ステップS12で「Yes」の場合)も、ステップS20及びS22の処理を行い、最後に表示された写真Pに対して感情タグTを付与した後、鑑賞イベントを終了する。
尚、鑑賞イベントに複数人が参加している場合、プロセッサ11が、音声検出器20が検出する音声データに基づいて、複数の写真が再生される時間帯における1又は複数の主要話者を特定し、特定した1人以上の主要話者を示す話者IDを各写真にそれぞれ付与するようにしてもよい。
図5の5-4に示す例では、写真Pが再生された時間帯(時点t~t)に特定された主要話者は、話者ID「005」を有する話者と、話者ID「002」を有する話者の2名であり、その時間帯(時点t~t)の中で更に異なる時間帯の主要話者となっている。
また、プロセッサ11が、音声検出器20が検出する音声データに基づいて、音声データをテキストデータに変換し、テキストデータの少なくとも一部を、コメントタグとして複数の写真の対応する写真に付与するようにしてもよい。
更に、プロセッサ11が、複数の写真の再生中に感情ランク及び話者IDにより特定される話者情報のうち少なくとも1つを同時に表示させるようにしてもよい。
[感情タグ付与方法の第2実施形態]
図8は、本発明に係る感情タグ付与方法の第2実施形態を示すフローチャートである。
図8に示す第2実施形態は、フォトムービーによる鑑賞イベントの実施時における感情タグ付与方法である。
フォトムービーは、フォトムービー作成ソフトにより複数の写真(n枚の写真P~P)を順次繋ぎ合わせて作成される動画である。フォトムービー作成ソフトは、1枚の写真の表示時間、各写真の切替え(フェードイン、フェードアウト、スクロール等)、及びその他のユーザ設定にしたがって動画を作成するものである。
図8において、プロセッサ11、フォトムービーの再生開始時にt=0、i=0に初期設定する(ステップS50)。尚、tは、フォトムービーの再生時間を示すパラメータであり、iは、現在表示中の写真を特定するパラメータであり、本例では、1~nの範囲で変化する。
プロセッサ11は、フォトムービーの再生により写真Pを、大型ディスプレイ30を介してスクリーンに表示させる(ステップS52)。尚、フォトムービーの再生開始時には、写真Pが表示される。
写真Pの表示中に再生時間tの計測が行われ(ステップS54)、再生時間tから写真Pの再生(表示)が終了するか否か判別される(ステップS56)。写真Pの再生時間が設定された再生時間以内の場合(写真Pの再生を終了させない場合)には、ステップS52に戻り、引き続き写真Pの再生が行われる。
一方、音声検出器20は、フォトムービーによる鑑賞イベントの実施中にイベント参加者が発声する音声を示す音声データを検出しており、プロセッサ11の感情認識器13Aは、写真Pの表示中に音声検出器20から音声データを取得し(ステップS58)、取得した音声データに基づいてイベント参加者の感情(喜んでいるか否かを示す感情)を認識し、認識した感情を示す感情情報を順次出力する(ステップS60)。
写真Pの再生時間が設定された再生時間に達すると(写真Pの再生終了が判定されると)、ステップS62に遷移し、ここでプロセッサ11(感情ランク算出部13B)が、ステップS60で認識され、順次出力される複数の感情情報(写真Pの表示時間帯における複数の感情情報)を取得し、複数の感情情報の代表値から喜んでいることを示す感情ランクを算出する。
プロセッサ11(感情タグ付与部13C)は、ステップS62で算出された感情ランクを、感情タグTとして写真Pに付与する(ステップS64)。ここで、感情タグTが付与される写真Pは、フォトムービーの再生時間tにより判断することができる。フォトムービーの再生時間tと各写真Pの表示時間帯とは対応付けられているからである(例えば、図5参照)。また、各写真に対する感情タグの付与は、フォトムービーの動画ファイルのヘッダに感情タグを記録し、あるいは動画ファイルのファイル名又はフォトムービーの再生時間と関連して、感情タグが記述されたテキストファイル等を作成することで行うことができる。
続いて、パラメータiが1だけインクリメントされ(ステップS66)、インクリメントしたパラメータiが、nを超えている(i>n)か否かが判別される(ステップS68)。
パラメータiがnを超えていない場合(i≦n)には、ステップS52に戻り、ステップS52からステップS68の処理が繰り返される。
パラメータiがnを超えている場合(i>n)には、全ての写真P~Pの再生(フォトムービーの再生)が終了し、本処理が終了する。
[その他]
コンテンツを使用したイベントは、本実施形態のフォトスライドショー、フォトムービーを鑑賞するイベントに限らず、音楽再生やゲーム実施などのイベントでもよい。この場合、音楽再生やゲーム実施中に利用者の音声から感情分析した時系列の感情ランクを、音楽再生やゲーム実施などに時系列の感情タグとして付与することができる。
また、感情タグ付与システムを構成する機器(本例では、タブレットPC)は、コンテンツを使用してイベントを実施するための機器として兼用されるものでもよいし、別々の機器でもよい。別々の機器の場合、両機器が同期して動作することが好ましい。感情タグを付与するコンテンツを特定できるようにするためである。
本発明に係る感情タグ付与システムを構成するタブレットPC等の各種プロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device;PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
感情タグ付与システムを構成する1つの処理部は、上記各種プロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサで構成されてもよい。例えば、1つの処理部は、複数のFPGA、あるいは、CPUとFPGAの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip;SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウエア的な構造として、上記各種プロセッサを1つ以上用いて構成される。更に、これらの各種のプロセッサのハードウエア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
また、本発明は、コンピュータにインストールされることにより、コンピュータを本発明に係る感情タグ付与システムとして機能させる感情タグ付与プログラム、及びこの感情タグ付与プログラムが記録された不揮発性の記憶媒体を含む。
更に、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
1 感情タグ付与システム
11 プロセッサ
12 メモリ
13A 感情認識器
13B 感情ランク算出部
13C 感情タグ付与部
14 表示部
15A 話者認識器
15B 話者ID付与部
16 入出力インターフェース
17A 音声テキスト変換器
17B コメントタグ付与部
18 操作部
20 音声検出器
30 大型ディスプレイ
S10~S24、S50~S68 ステップ

Claims (16)

  1. プロセッサと、
    コンテンツを使用したイベントの実施中に、前記イベントに参加した人間が発声する音声を示す音声データを検出する音声検出器と、
    前記音声データに基づいて人間の感情を認識する感情認識器と、を備え、
    前記プロセッサは、
    前記コンテンツを使用したイベントの実施中に前記感情認識器が認識した前記人間の感情を示す感情情報を取得し、
    前記取得した感情情報から算出した感情ランクを、感情タグとして前記コンテンツに付与する、
    感情タグ付与システム。
  2. 前記感情認識器は、人間が喜んでいるときに発声する音声の音声データと、喜んでいないときに発声する音声の音声データとを含む多数の音声データを教師データとして機械学習した認識器である、
    請求項1に記載の感情タグ付与システム。
  3. 前記コンテンツは、複数の画像であり、
    前記イベントは、画像再生機器により前記複数の画像を順次再生し、再生した前記複数の画像を鑑賞する鑑賞イベントである、
    請求項1又は2に記載の感情タグ付与システム。
  4. 前記複数の画像は、前記イベントに参加した人間が写っている写真又は動画を含む、
    請求項3に記載の感情タグ付与システム。
  5. 前記プロセッサは、前記複数の画像が再生される時間帯における複数の感情情報を前記感情認識器から取得し、前記複数の感情情報の代表値から各画像に対応する感情ランクを算出し、算出した感情ランクを前記感情タグとして各画像にそれぞれ付与する、
    請求項3又は4に記載の感情タグ付与システム。
  6. 前記プロセッサは、
    前記イベントに複数人が参加している場合、前記音声検出器が検出する音声データに基づいて、前記複数の画像が再生される時間帯における1又は複数の主要話者を特定し、特定した1人以上の主要話者を示す話者識別情報を各画像にそれぞれ付与する、
    請求項5に記載の感情タグ付与システム。
  7. 前記プロセッサは、
    前記画像再生機器による前記複数の画像の再生中に前記感情ランク及び前記話者識別情報のうち少なくとも1つを同時に表示させる、
    請求項6に記載の感情タグ付与システム。
  8. 前記プロセッサは、
    前記音声検出器が検出する音声データに基づいて、前記音声データをテキストデータに変換し、前記テキストデータの少なくとも一部を、コメントタグとして前記複数の画像の対応する画像に付与する、
    請求項3から7のいずれか1項に記載の感情タグ付与システム。
  9. 音声検出器が、コンテンツを使用したイベントの実施中に、前記イベントに参加した人間が発声する音声を示す音声データを検出するステップと、
    感情認識器が、前記音声データに基づいて人間の感情を認識するステップと、
    プロセッサが、前記コンテンツを使用したイベントの実施中に前記認識した前記人間の感情を示す感情情報を取得するステップと、
    前記感情認識器が、前記取得した感情情報から算出した感情ランクを、感情タグとして前記コンテンツに付与するステップと、
    を含む感情タグ付与方法。
  10. 前記コンテンツは、複数の画像であり、
    前記イベントは、画像再生機器により前記複数の画像を順次再生し、再生した前記複数の画像を鑑賞する鑑賞イベントである、
    請求項9に記載の感情タグ付与方法。
  11. 前記複数の画像は、前記イベントに参加した人間が写っている写真又は動画を含む、
    請求項10に記載の感情タグ付与方法。
  12. 前記プロセッサが、前記複数の画像が再生される時間帯における複数の感情情報を前記感情認識器から取得し、前記複数の感情情報の代表値から各画像に対応する感情ランクを算出し、算出した感情ランクを前記感情タグとして各画像にそれぞれ付与する、
    請求項10又は11に記載の感情タグ付与方法。
  13. 前記プロセッサが、前記イベントに複数人が参加している場合、前記音声検出器が検出する音声データに基づいて、前記複数の画像が再生される時間帯における1又は複数の主要話者を特定し、特定した1人以上の主要話者を示す話者識別情報を各画像にそれぞれ付与する、
    請求項12に記載の感情タグ付与方法。
  14. 前記プロセッサが、前記画像再生機器による前記複数の画像の再生中に前記感情ランク及び前記話者識別情報により特定される話者情報のうち少なくとも1つを同時に表示させる、
    請求項13に記載の感情タグ付与方法。
  15. 前記プロセッサが、前記音声検出器が検出する音声データに基づいて、前記音声データをテキストデータに変換し、前記テキストデータの少なくとも一部を、コメントタグとして前記複数の画像の対応する画像に付与する、
    請求項10から14のいずれか1項に記載の感情タグ付与方法。
  16. コンテンツを使用したイベントの実施中に、前記イベントに参加した人間が発声する音声を示す音声データを音声検出器から取得する機能と、
    前記音声データに基づいて人間の感情を認識する機能と、
    前記コンテンツを使用したイベントの実施中に前記認識した前記人間の感情を示す感情情報を取得する機能と、
    前記取得した感情情報から算出した感情ランクを、感情タグとして前記コンテンツに付与する機能と、
    をコンピュータにより実現させる感情タグ付与プログラム。
JP2021130617A 2021-08-10 2021-08-10 感情タグ付与システム、方法及びプログラム Pending JP2023025400A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021130617A JP2023025400A (ja) 2021-08-10 2021-08-10 感情タグ付与システム、方法及びプログラム
US17/883,608 US20230049225A1 (en) 2021-08-10 2022-08-09 Emotion tag assigning system, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021130617A JP2023025400A (ja) 2021-08-10 2021-08-10 感情タグ付与システム、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2023025400A true JP2023025400A (ja) 2023-02-22
JP2023025400A5 JP2023025400A5 (ja) 2024-05-20

Family

ID=85176340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021130617A Pending JP2023025400A (ja) 2021-08-10 2021-08-10 感情タグ付与システム、方法及びプログラム

Country Status (2)

Country Link
US (1) US20230049225A1 (ja)
JP (1) JP2023025400A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101786944B1 (ko) * 2011-05-12 2017-10-18 삼성전자 주식회사 화자 표시 방법 및 이를 구현하는 영상 통화 단말기
CN105247879B (zh) * 2013-05-30 2019-07-12 索尼公司 客户机设备、控制方法、系统和程序
US11227126B2 (en) * 2018-05-02 2022-01-18 International Business Machines Corporation Associating characters to story topics derived from social media content

Also Published As

Publication number Publication date
US20230049225A1 (en) 2023-02-16

Similar Documents

Publication Publication Date Title
US8385588B2 (en) Recording audio metadata for stored images
WO2021109678A1 (zh) 视频生成方法、装置、电子设备及存储介质
JP4175390B2 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP7440020B2 (ja) 情報処理方法、端末装置、情報処理装置、及び情報処理システム
JP2011215963A (ja) 電子機器、画像処理方法及びプログラム
US9525841B2 (en) Imaging device for associating image data with shooting condition information
JP6783479B1 (ja) 動画生成プログラム、動画生成装置及び動画生成方法
CN115691544A (zh) 虚拟形象口型驱动模型的训练及其驱动方法、装置和设备
CN101867708B (zh) 摄影装置、显示装置、再现装置、摄影方法以及显示方法
Wang et al. Scene-aware background music synthesis
JP2017064853A (ja) ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラム
CN113450804A (zh) 语音可视化方法、装置、投影设备及计算机可读存储介质
JP2006053827A (ja) データ管理方法および装置
JP2012178028A (ja) アルバム作成装置、アルバム作成装置の制御方法、及びプログラム
WO2020116280A1 (ja) 学習支援装置、学習支援方法および記録媒体
CN113542797A (zh) 视频播放中的互动方法、装置及计算机可读存储介质
JP2023025400A (ja) 感情タグ付与システム、方法及びプログラム
JP5573402B2 (ja) 会議支援装置、会議支援方法、会議支援プログラムおよび記録媒体
JP2023000937A (ja) 疑似面接システム、疑似面接方法、疑似面接装置、及びプログラム
JP2020034823A (ja) ファシリテーション支援プログラム、ファシリテーション支援装置およびファシリテーション支援方法
JP7313518B1 (ja) 評価方法、評価装置、および、評価プログラム
JP7361961B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN115148187B (zh) 一种智能人物复刻终端的系统实现方法
JP2005080000A (ja) インデキシング装置、映像再生装置及び方法
JP2017219829A (ja) 近時記憶支援装置及び近時記憶支援プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240510