JP2023108730A - カラオケ装置 - Google Patents
カラオケ装置 Download PDFInfo
- Publication number
- JP2023108730A JP2023108730A JP2022009930A JP2022009930A JP2023108730A JP 2023108730 A JP2023108730 A JP 2023108730A JP 2022009930 A JP2022009930 A JP 2022009930A JP 2022009930 A JP2022009930 A JP 2022009930A JP 2023108730 A JP2023108730 A JP 2023108730A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- karaoke
- user
- performance
- effector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 claims abstract description 125
- 230000000694 effects Effects 0.000 claims abstract description 71
- 239000012636 effector Substances 0.000 claims abstract description 36
- 230000005236 sound signal Effects 0.000 claims description 20
- 230000001815 facial effect Effects 0.000 claims description 8
- 230000002996 emotional effect Effects 0.000 description 28
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 238000000034 method Methods 0.000 description 9
- 241001342895 Chorus Species 0.000 description 6
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000037007 arousal Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
【課題】カラオケ装置を利用する利用者の感情に応じたエフェクト処理を可能とするカラオケ装置を提供する。【解決手段】歌唱音声の音声信号に対してエフェクト処理を実行するエフェクタを有するカラオケ装置であって、撮影手段から出力された利用者の顔画像信号に基づいて、利用者の感情を示す感情情報を取得する取得部、取得された感情情報に対応するエフェクト処理を実行するようエフェクタを制御する演奏制御部を有するカラオケ装置。【選択図】図2
Description
本発明はカラオケ装置に関する。
カラオケ装置は、歌唱音声の音声信号に対してエフェクト処理を実行するエフェクタを備えている。エフェクト処理を実行することにより、カラオケ装置のスピーカからは、エコー等のエフェクトが付与された歌唱音声が放音される。
特許文献1には、マイクにて取得された音響信号に含まれる音について発音持続時間を測定し、測定された発音持続時間に基づいて、エフェクト処理の内容を決定し、音響信号に対し決定された内容のエフェクト処理を施し、エフェクト処理が施された音響信号を出力することができるカラオケ装置が開示されている。
本発明の目的は、カラオケ装置を利用する利用者の感情に応じたエフェクト処理を可能とするカラオケ装置を提供することにある。
上記目的を達成するための一の発明は、歌唱音声の音声信号に対してエフェクト処理を実行するエフェクタを有するカラオケ装置であって、撮影手段から出力された利用者の顔画像信号に基づいて、利用者の感情を示す感情情報を取得する取得部と、取得された前記感情情報に対応するエフェクト処理を実行するよう前記エフェクタを制御する演奏制御部と、を有するカラオケ装置である。
本発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。
本発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。
本発明によれば、カラオケ装置を利用する利用者の感情に応じたエフェクト処理ができる。
<実施形態>
図1~図4を参照して、実施形態に係るカラオケ装置について説明する。なお、以下の説明においては、カラオケ装置の利用者のうち、カラオケ歌唱を行う利用者を「歌唱者」といい、歌唱者以外の利用者(カラオケ歌唱を聴取する利用者)を「聴衆」という場合がある。
図1~図4を参照して、実施形態に係るカラオケ装置について説明する。なお、以下の説明においては、カラオケ装置の利用者のうち、カラオケ歌唱を行う利用者を「歌唱者」といい、歌唱者以外の利用者(カラオケ歌唱を聴取する利用者)を「聴衆」という場合がある。
==カラオケ装置==
カラオケ装置Kは、楽曲のカラオケ演奏、及び歌唱者がカラオケ歌唱を行うための装置である。図1に示すように、カラオケ装置Kは、カラオケ本体10、スピーカ20、表示装置30、マイク40、リモコン装置50、及び撮影手段60を備える。
カラオケ装置Kは、楽曲のカラオケ演奏、及び歌唱者がカラオケ歌唱を行うための装置である。図1に示すように、カラオケ装置Kは、カラオケ本体10、スピーカ20、表示装置30、マイク40、リモコン装置50、及び撮影手段60を備える。
カラオケ本体10は、選曲された楽曲のカラオケ演奏制御、歌詞や背景映像等の表示制御、マイク40を通じて入力された音声信号の処理といった、カラオケ演奏やカラオケ歌唱に関する各種の制御を行う。スピーカ20はカラオケ本体10からの信号に基づいてカラオケ演奏音や歌唱音声を放音するための構成である。表示装置30はカラオケ本体10からの信号に基づいて映像や画像を画面に表示するための構成である。マイク40は歌唱者のカラオケ歌唱に伴う歌唱音声をアナログの音声信号に変換してカラオケ本体10に入力するための構成である。リモコン装置50は、カラオケ本体10に対する各種操作をおこなうための装置である。撮影手段60は、カラオケ装置Kの利用者を撮影するためのカメラである。撮影手段60は、複数設けられていてもよい。
図2に示すように、本実施形態に係るカラオケ本体10は、記憶手段10a、通信手段10b、入力手段10c、演奏手段10d、及び制御手段10eを備える。各構成はインターフェース(図示なし)を介してバスBに接続されている。
[記憶手段]
記憶手段10aは、各種のデータを記憶する大容量の記憶装置である。記憶手段10aは、楽曲データを記憶する。楽曲データは、楽曲識別情報が付与されている。楽曲識別情報は、楽曲を識別するための楽曲ID等、各楽曲に固有の情報である。楽曲データは、カラオケ演奏データ、リファレンスデータ、区間情報等を含む。カラオケ演奏データは、カラオケ演奏音の元となるMIDI形式のデータである。リファレンスデータは、カラオケ演奏された楽曲の主旋律を示すデータである。区間情報は、演奏区間を示す。演奏区間は、カラオケ演奏が行われる区間である。演奏区間は、歌唱区間及び非歌唱区間を含む。歌唱区間は、ある楽曲において歌唱すべき歌詞が設定されている区間(たとえば、1番のAメロ、Bメロ、サビ)である。非歌唱区間は、たとえば前奏、間奏、後奏のような、ある楽曲において歌唱すべき歌詞が設定されていない区間である。
記憶手段10aは、各種のデータを記憶する大容量の記憶装置である。記憶手段10aは、楽曲データを記憶する。楽曲データは、楽曲識別情報が付与されている。楽曲識別情報は、楽曲を識別するための楽曲ID等、各楽曲に固有の情報である。楽曲データは、カラオケ演奏データ、リファレンスデータ、区間情報等を含む。カラオケ演奏データは、カラオケ演奏音の元となるMIDI形式のデータである。リファレンスデータは、カラオケ演奏された楽曲の主旋律を示すデータである。区間情報は、演奏区間を示す。演奏区間は、カラオケ演奏が行われる区間である。演奏区間は、歌唱区間及び非歌唱区間を含む。歌唱区間は、ある楽曲において歌唱すべき歌詞が設定されている区間(たとえば、1番のAメロ、Bメロ、サビ)である。非歌唱区間は、たとえば前奏、間奏、後奏のような、ある楽曲において歌唱すべき歌詞が設定されていない区間である。
また、記憶手段20は、楽曲毎に、カラオケ演奏時に表示される背景映像に対応する背景映像データ、及び楽曲の属性情報(楽曲名、歌手名、ジャンル等)を記憶する。
[通信手段・入力手段]
通信手段10bは、リモコン装置50との通信を行うためのインターフェースを提供する。入力手段10cは、利用者が各種の指示入力を行うための構成である。入力手段10cは、カラオケ本体10に設けられたボタン等である。或いは、リモコン装置50が入力手段10cとして機能してもよい。
通信手段10bは、リモコン装置50との通信を行うためのインターフェースを提供する。入力手段10cは、利用者が各種の指示入力を行うための構成である。入力手段10cは、カラオケ本体10に設けられたボタン等である。或いは、リモコン装置50が入力手段10cとして機能してもよい。
[演奏手段]
演奏手段10dは、制御手段10eの制御に基づき、楽曲のカラオケ演奏、及びマイク40を通じて入力された歌唱音声の音声信号の処理を行う。本実施形態において、演奏手段10dは、音源101d、エフェクタ102d、ミキサ103d、及びアンプ104dを含む。
演奏手段10dは、制御手段10eの制御に基づき、楽曲のカラオケ演奏、及びマイク40を通じて入力された歌唱音声の音声信号の処理を行う。本実施形態において、演奏手段10dは、音源101d、エフェクタ102d、ミキサ103d、及びアンプ104dを含む。
音源101dは、カラオケ演奏データに基づいて演奏音信号を生成する。音源101dは、生成した演奏音信号をミキサ103dに出力する。
エフェクタ102dは、マイク40を通じて入力された歌唱音声の音声信号に対してエフェクト処理を実行する。エフェクタ102dは、エフェクト処理を行った音声信号をミキサ103dに出力する。
エフェクト処理は、エフェクトの種類に応じて、音量レベルや周波数特性の変更、遅延等の処理を音声信号に対して施すことにより、歌唱音声を変化させる処理である。エフェクトの種類は、ディストーション、ディレイ、コーラス、エコー、リバーブ、フェイズシフタ等がある。エフェクタ102dは、エフェクトの種類に応じて複数設けられていてもよいし、マルチエフェクタのような一のエフェクタが設けられていてもよい。
ミキサ103dは、入力された音声信号及び演奏音信号をミキシングする。アンプ104dは、ミキサ103dから出力された信号を増幅し、カラオケ演奏音及び歌唱音声をスピーカ20から放音させる。
[制御手段]
制御手段10eは、カラオケ装置Kにおける各種の制御を行う。制御手段10eは、CPUおよびメモリ(いずれも図示無し)を備える。CPUは、メモリに記憶されたプログラムを実行することにより各種の機能を実現する。
制御手段10eは、カラオケ装置Kにおける各種の制御を行う。制御手段10eは、CPUおよびメモリ(いずれも図示無し)を備える。CPUは、メモリに記憶されたプログラムを実行することにより各種の機能を実現する。
本実施形態においてはCPUがメモリに記憶されるプログラムを実行することにより、制御手段10eは、取得部100及び演奏制御部200として機能する。
(取得部)
取得部100は、撮影手段60から出力された利用者の顔画像信号に基づいて、感情情報を取得する。
取得部100は、撮影手段60から出力された利用者の顔画像信号に基づいて、感情情報を取得する。
取得部100は、カラオケ演奏の開始に伴い、撮影手段60を制御し、利用者の顔の撮影を実行させる。撮影手段60は、利用者の顔を撮影し、顔画像データを生成する。撮影手段60は、顔画像データに対応する顔画像信号をカラオケ本体10に出力する。
感情情報は、利用者の感情を示す。取得部100は、公知の技術を用いて顔画像信号を処理することにより、感情情報を取得する。感情情報の取得は、所定のタイミング及び所定の回数、行うことができる。たとえば、取得部100は、一の楽曲のカラオケ演奏において、あるタイミングで一回だけ感情情報を取得することができる。あるタイミングは、たとえばカラオケ演奏の開始から1分後や、1番のサビの歌唱区間に相当するカラオケ演奏中とすることができる。取得部100は、取得した感情情報を、演奏制御部200に出力する。
或いは、取得部100は、一の楽曲のカラオケ演奏において、所定のタイミング毎(たとえばカラオケ演奏開始後、40秒間隔)や、各歌唱区間の開始のタイミング毎に複数回、感情情報を取得することもできる。この場合、取得部100は、感情情報を取得する都度、演奏制御部200に出力する。
ここで、本実施形態において、取得部100は、感情のタイプ(たとえば、「喜び」、「悲しみ」、「怒り」)を感情情報として取得する。取得部100が取得する感情のタイプは、予め設定されている。
感情のタイプの取得には、動画内の表情から感情をリアルタイムに予測する深層学習フレームワーク(“Estimation of continuous valence and arousal levels from faces in naturalistic conditions" Samsung AI、インペリアル・カレッジ・ロンドン)や、「表情推定AI」(株式会社ユーザーローカル)のようなAIを利用したソフトウェアを用いることができる。取得部100は、撮影手段60から出力された顔画像信号をソフトウェアに入力することにより、当該顔画像信号に対応する顔画像データに表れている感情のタイプを取得することができる。
また本実施形態において、取得部100は、歌唱者の感情を示す感情情報を取得する。
たとえば、カラオケ装置Kの利用者が一人の場合、当該利用者が歌唱者となる。撮影手段60は、歌唱者の顔を撮影し、顔画像データを生成する。取得部100は、歌唱者の顔画像信号に基づいて、歌唱者の感情を示す感情情報を取得する。
一方、カラオケ装置Kの利用者が複数人の場合、歌唱者と聴衆が存在することとなる。この場合、撮影手段60は、歌唱者及び聴衆の顔画像データを生成し、対応する顔画像信号をカラオケ本体10に出力する。取得部100は、撮影手段60から出力された顔画像信号を分析することにより、歌唱者の顔画像信号を特定する。顔画像信号の特定は、公知の技術を用いることができる。たとえば、取得部100は、顔画像信号に対応する顔画像データを分析することにより、複数の利用者の中からマイク40を持っている利用者を「歌唱者」として特定し、それ以外の利用者を「聴衆」として特定することができる。取得部100は、特定した歌唱者の顔画像信号に基づいて、歌唱者の感情を示す感情情報を取得する。
(演奏制御部)
演奏制御部200は、楽曲のカラオケ演奏を行うよう演奏手段10dを制御する。
演奏制御部200は、楽曲のカラオケ演奏を行うよう演奏手段10dを制御する。
具体的に、演奏制御部200は、予約待ち行列に登録されている楽曲の楽曲IDを元に、対応するカラオケ演奏データを記憶手段10aから取得する。そして、演奏制御部200は、取得したカラオケ演奏データを演奏手段10dに出力し、カラオケ演奏を行わせる。歌唱者は、カラオケ演奏に合わせてカラオケ歌唱を行う。
演奏制御部200は、マイク40を通じて入力された歌唱音声の音声信号に対して、予め設定されている通常時のエフェクト処理を実行するようエフェクタ102dを制御する。なお、通常時には、エフェクト処理を実行しないという設定がなされていてもよい。
ここで、本実施形態に係る演奏制御部200は、取得された感情情報に対応するエフェクト処理を実行するようエフェクタ102dを制御する。
具体的に、演奏制御部200は、取得部100により取得された感情情報に対応するエフェクトを特定し、特定したエフェクトに対応する処理を実行するようエフェクタ102dを制御する。
エフェクトの特定は、たとえば記憶手段10aに予め記憶されているテーブルを参照して行うことができる。
図3は、感情のタイプとエフェクトとの関係を示したテーブルである。この例では、「喜び」のタイプには「深いエコー」のエフェクトが紐付けられ、「怒り」のタイプには「ディストーション」のエフェクトが紐付けられ、「悲しみ」のタイプには「フェイズシフタ」のエフェクトが紐付けられている。
「深いエコー」は、通常のエコーより残響時間が長く、リピート回数も多いエフェクトである。よって、「喜び」の感情に相応しい華やかさを演出することができる。「ディストーション」は、歌唱音声を激しく歪ませるエフェクトである。よって、「怒り」の感情に伴う激しさを強調することができる。「フェイズシフタ」は、歌唱音声を揺らしたり、うねらせたりするエフェクトである。よって、「悲しみ」の感情を想起させることができる。
たとえば、取得部100は、取得した感情のタイプ「怒り」を、演奏制御部200に出力したとする。この場合、演奏制御部200は、図3に示したテーブルを参照し、感情のタイプ「怒り」に対応するエフェクト「ディストーション」を特定する。演奏制御部200は、「ディストーション」に対応する処理を実行するようエフェクタ102dを制御する。エフェクタ102dは、歌唱音声の音声信号に対して「ディストーション」に対応する処理を実行する。
ミキサ103dは、エフェクタ102dで「ディストーション」に対応する処理が行われた音声信号、及びカラオケ演奏の演奏音信号をミキシングする。アンプ104dは、ミキサ103dから出力された信号を増幅し、カラオケ演奏音及び「ディストーション」のエフェクトが付与された歌唱音声をスピーカ20から放音させる。
==カラオケ装置における処理について==
次に、図4を参照して本実施形態に係るカラオケ装置Kにおける処理について述べる。図4は、カラオケ装置Kにおける処理を示すフローチャートである。この例では、利用者Uが一人でカラオケ装置Kを利用する。また、通常時のエフェクト処理として、「通常のエコー」に対応する処理が予め設定されているとする。また、記憶手段10aには、図3に示すテーブルが記憶されているとする。
次に、図4を参照して本実施形態に係るカラオケ装置Kにおける処理について述べる。図4は、カラオケ装置Kにおける処理を示すフローチャートである。この例では、利用者Uが一人でカラオケ装置Kを利用する。また、通常時のエフェクト処理として、「通常のエコー」に対応する処理が予め設定されているとする。また、記憶手段10aには、図3に示すテーブルが記憶されているとする。
利用者Uは、リモコン装置50を介し、自らがカラオケ歌唱を希望する楽曲Xを選曲する。
演奏制御部200は、楽曲Xのカラオケ演奏を行うよう演奏手段10dを制御する。演奏手段10dは、楽曲Xのカラオケ演奏を開始する(カラオケ演奏の開始。ステップ10)。利用者Uは、楽曲Xのカラオケ演奏に合わせてカラオケ歌唱を行う。この場合、「通常のエコー」のエフェクトが付与された利用者Uの歌唱音声が、スピーカ20から放音される。
撮影手段60は、カラオケ歌唱を行う利用者Uの顔を撮影し、顔画像データを生成する。撮影手段60は、顔画像データに対応する顔画像信号をカラオケ本体10に出力する(利用者の顔画像データに対応する顔画像信号を出力。ステップ11)。
取得部100は、ステップ11で出力された利用者Uの顔画像信号に基づいて、利用者Uの感情を示す感情情報を取得する(感情情報の取得。ステップ12)。取得部100は、取得した感情情報を演奏制御部200に出力する。
演奏制御部200は、ステップ12で取得された感情情報に対応するエフェクト処理を実行するようエフェクタ102dを制御する(感情情報に対応するエフェクト処理を実行。ステップ13)。
たとえば、撮影手段60が、楽曲Xの1番のサビのタイミングにおいて利用者Uの顔を撮影したとする。そして、取得部100は、撮影手段60が生成した顔画像データに対応する顔画像信号に基づいて、利用者Uの感情のタイプとして「怒り」を取得したとする。この場合、取得部100は、取得した感情のタイプ「怒り」を感情情報として、演奏制御部200に出力する。
演奏制御部200は、図3に示したテーブルを参照し、感情のタイプ「怒り」に対応するエフェクトである「ディストーション」を特定する。演奏制御部200は、予め設定されている「通常のエコー」に代えて、「ディストーション」に対応する処理を実行するようエフェクタ102dを制御する。
その後、撮影手段60が、楽曲Xの2番のAメロのタイミングにおいて利用者Uの顔を撮影したとする。そして、取得部100は、撮影手段60が生成した顔画像データに対応する顔画像信号に基づいて、利用者Uの感情のタイプとして「悲しみ」を取得したとする。この場合、取得部100は、取得した感情のタイプ「悲しみ」を感情情報として、演奏制御部200に出力する。
演奏制御部200は、図3に示したテーブルを参照し、感情のタイプ「悲しみ」に対応するエフェクトである「フェイズシフタ」を特定する。演奏制御部200は、「ディストーション」に代えて、「フェイズシフタ」に対応する処理を実行するようエフェクタ102dを制御する。
更に、撮影手段60が、楽曲Xの3番のBメロのタイミングにおいて利用者Uの顔を撮影したとする。そして、取得部100は、撮影手段60が生成した顔画像データに対応する顔画像信号に基づいて、利用者Uの感情のタイプとして「喜び」を取得したとする。この場合、取得部100は、取得した感情のタイプ「喜び」を感情情報として、演奏制御部200に出力する。
演奏制御部200は、図3に示したテーブルを参照し、感情のタイプ「喜び」に対応するエフェクトである「深いエコー」を特定する。演奏制御部200は、「フェイズシフタ」に代えて、「深いエコー」に対応する処理を実行するようエフェクタ102dを制御する。
演奏制御部200は、エフェクタ102dでエフェクト処理が行われた音声信号、及びカラオケ演奏の演奏音信号をミキシングするようミキサ103dを制御する。演奏制御部200は、ミキサ103dから出力された信号を増幅し、カラオケ演奏音及びエフェクトが付与された歌唱音声をスピーカ20から放音させるようアンプ104dを制御する(カラオケ演奏音及びエフェクトが付与された歌唱音声を放音。ステップ14)。
カラオケ装置Kは、楽曲Xのカラオケ演奏が終了するまで(ステップ15でYの場合)、ステップ11からステップ14の処理を繰り返し行う。
なお、演奏制御部200は、歌唱区間毎にエフェクタ102dの制御を行ってもよい。たとえば、演奏制御部200は、楽曲Xの2番のAメロのタイミングで「フェイズシフタ」に対応する処理を実行するようエフェクタ102dを制御したとする。その後、楽曲Xの2番のAメロの歌唱区間が終了した場合(すなわち、当該歌唱区間におけるカラオケ演奏が終了した場合)、演奏制御部200は、「フェイズシフタ」に対応する処理の実行を停止し、通常時のエフェクト処理(上記例における「通常のエコー」に対応する処理)を実行するようエフェクタ102dを制御する。
以上から明らかなように、本実施形態に係るカラオケ装置Kは、歌唱音声の音声信号に対してエフェクト処理を実行するエフェクタ102dを有する。カラオケ装置Kは、撮影手段60から出力された利用者の顔画像信号に基づいて、利用者の感情を示す感情情報を取得する取得部100と、取得された感情情報に対応するエフェクト処理を実行するようエフェクタ102dを制御する演奏制御部200と、を有する。
このようなカラオケ装置Kによれば、利用者の感情情報に基づいて、利用者の感情に応じたエフェクトを特定し、音声信号に対して特定したエフェクトに対応する処理を実行することができる。従って、カラオケ装置Kは、利用者の感情を反映した歌唱音声を放音することができる。すなわち、本実施形態に係るカラオケ装置Kによれば、カラオケ装置Kを利用する利用者の感情に応じたエフェクト処理を行うことができる。
また、本実施形態に係る取得部100は、感情のタイプを感情情報として取得することができる。この場合、カラオケ装置Kは、感情のタイプに応じた適切なエフェクト処理を実行することができる。
また、本実施形態に係る取得部100は、カラオケ歌唱を行う利用者である歌唱者の顔画像信号に基づいて、感情情報を取得することができる。この場合、カラオケ装置Kは、歌唱者の感情を反映した歌唱音声を放音させることができる。
<変形例1>
取得部100は、感情のタイプ及び感情の強さを感情情報として取得することができる。
取得部100は、感情のタイプ及び感情の強さを感情情報として取得することができる。
感情のタイプ及び感情の強さの取得には、たとえば、感情認識ソフトウェア「Affdex」(Affectiva社)のような公知のソフトウェアを利用することができる。取得部100は、撮影手段60から出力された顔画像信号をソフトウェアに入力することにより、当該顔画像信号に対応する顔画像データに表れている感情のタイプ及びその強さを取得することができる。感情の強さは、感情のタイプ毎に数値(たとえば、0~10の値)で示すことができる。
実施形態の例と同様、撮影手段60が、楽曲Xの1番のサビのタイミングにおいて利用者Uの顔を撮影したとする。取得部100は、撮影手段60が生成した顔画像データに対応する顔画像信号に基づいて、利用者Uの感情のタイプ及び強さとして「怒り(7)、喜び(1)、悲しみ(3)」を取得したとする。この場合、取得部100は、取得した感情のタイプ及び強さ「怒り(7)、喜び(1)、悲しみ(3)」を感情情報として、演奏制御部200に出力する。
演奏制御部200は、取得部100から出力された感情情報に基づいて、複数の感情のタイプの中から、最も強い(数値が高い)「怒り」の感情のタイプを特定する。演奏制御部200は、「怒り」の感情のタイプに対応するエフェクト処理を実行するようエフェクタ102dを制御する。
このように、本変形例に係る取得部100は、感情のタイプ及び感情の強さを感情情報として取得することができる。この場合、感情のタイプ及び強さに適したエフェクト処理を実行することができる。
<変形例2>
或いは、取得部100は、感情の強さを単独で感情情報として取得してもよい。たとえば、取得部100は、撮影手段60から出力された顔画像信号を公知のソフトウェアに入力することにより、当該顔画像信号に対応する顔画像データに表れている感情の強さを取得することができる。取得部100は、取得した感情の強さを感情情報として演奏制御部200に出力する。感情の強さは、数値(たとえば、0~10の値)で示すことができる。
或いは、取得部100は、感情の強さを単独で感情情報として取得してもよい。たとえば、取得部100は、撮影手段60から出力された顔画像信号を公知のソフトウェアに入力することにより、当該顔画像信号に対応する顔画像データに表れている感情の強さを取得することができる。取得部100は、取得した感情の強さを感情情報として演奏制御部200に出力する。感情の強さは、数値(たとえば、0~10の値)で示すことができる。
演奏制御部200は、取得された感情の強さに対応するエフェクトを特定し、特定したエフェクトに対応する処理を実行するようエフェクタ102dを制御する。
エフェクトの特定は、たとえば記憶手段10aに予め記憶されているテーブルを参照して行うことができる。
図5は、感情の強さとエフェクトとの関係を示したテーブルである。この例では、感情の強さを0から10の数値で示している。「0~2」の数値には「ロボットボイス」のエフェクトが紐付けられ、「3~6」の数値には「通常のエコー」のエフェクトが紐付けられ、「7~10」の数値には「ライブサウンド」のエフェクトが紐付けられている。
「ロボットボイス」は、歌唱音声を無機質且つ無感情に聴こえるよう加工するエフェクトである。よって、利用者が感情を顔に出していないことを強調することができる。一方、「ライブサウンド」は、スタジアムのような大きなステージ特有の音響特性(たとえば残響)を模擬するエフェクトである。よって、利用者の感情表現をより強調することができる。
実施形態の例と同様、撮影手段60が、楽曲Xの1番のサビのタイミングにおいて利用者Uの顔を撮影したとする。取得部100は、撮影手段60が生成した顔画像データに対応する顔画像信号に基づいて、利用者Uの感情の強さとして数値「7」を取得したとする。この場合、取得部100は、取得した感情の強さ「7」を感情情報として、演奏制御部200に出力する。
演奏制御部200は、図5に示したテーブルを参照し、感情の強さ「7」に対応するエフェクト「ライブサウンド」を特定する。演奏制御部200は、「ライブサウンド」に対応する処理を実行するようエフェクタ102dを制御する。
このように、本変形例に係る取得部100は、感情の強さを感情情報として取得することができる。この場合、感情の強さに適したエフェクト処理を実行することができる。
<変形例3>
上記実施形態では、歌唱者の感情を示す感情情報を取得する例について述べた。一方、取得部100は、聴衆の感情を示す感情情報を取得してもよい。
上記実施形態では、歌唱者の感情を示す感情情報を取得する例について述べた。一方、取得部100は、聴衆の感情を示す感情情報を取得してもよい。
実施形態で述べたように、取得部100は、複数人の顔画像信号に対応する画像を分析することにより、歌唱者以外の利用者である聴衆を特定することができる。取得部100は、特定した聴衆の顔画像信号に基づいて、聴衆の感情を示す感情情報を取得する。聴衆の感情を示す感情情報の取得は、歌唱者の感情を示す感情情報と同様の方法により取得できる。
なお、聴衆が複数いる場合もありうる。この場合、取得部100は、聴衆毎に取得した感情情報の全てを演奏制御部200に出力してもよいし、複数の感情情報の中から一の感情情報を選択して演奏制御部200に出力してもよい。
聴衆毎に取得した感情情報の全てが出力された場合、演奏制御部200は、実行する一のエフェクト処理を、所定の条件に基づいて決定する。所定の条件は、たとえば「最も数が多い感情情報」のように予め一の条件が設定されてる。
たとえば、取得部100から出力された複数の感情情報に、感情のタイプ「怒り」が2つ、感情のタイプ「悲しみ」が1つ含まれていたとする。この場合、演奏制御部200は、数が多い方の感情のタイプ「怒り」に対応するエフェクト処理を実行するようエフェクタ102dを制御する。
このように、本変形例に係る取得部100は、カラオケ歌唱を聴取する利用者である聴衆の顔画像信号に基づいて、感情情報を取得することができる。聴衆の顔画像信号を用いることにより、聴衆の感情を反映した歌唱音声を放音させることができる。
<変形例4>
取得部100は、歌唱者及び聴衆の感情を示す感情情報を取得してもよい。
取得部100は、歌唱者及び聴衆の感情を示す感情情報を取得してもよい。
実施形態及び変形例3で述べたように、取得部100は、特定した歌唱者の顔画像信号に基づいて歌唱者の感情を示す感情情報を取得し、特定した聴衆の顔画像信号に基づいて聴衆の感情を示す感情情報を取得することができる。
取得部100は、取得した歌唱者の感情情報及び聴衆の感情情報を演奏制御部200に出力する。
歌唱者の感情情報及び聴衆の感情情報が出力された場合、演奏制御部200は、歌唱者の感情情報及び聴衆の感情情報を比較する。取得した歌唱者の感情情報と聴衆の感情情報とが一致する場合、演奏制御部200は、当該感情情報に対応するエフェクト処理を実行するようエフェクタ102dを制御する。一方、取得した歌唱者の感情情報と聴衆の感情情報とが一致しない場合、演奏制御部200は、特段の処理を実行しない。
このようなカラオケ装置Kによれば、取得した歌唱者の感情情報と聴衆の感情情報とが一致する場合にのみ、感情情報に対応するエフェクト処理を実行することができる。よって、歌唱者と聴衆の共通の感情を反映した歌唱音声を放音することができる。
<その他>
上記実施形態は、例として提示したものであり、発明の範囲を限定するものではない。上記の構成は、適宜組み合わせて実施することが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
上記実施形態は、例として提示したものであり、発明の範囲を限定するものではない。上記の構成は、適宜組み合わせて実施することが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
60 撮影手段
100 取得部
102d エフェクタ
200 演奏制御部
K カラオケ装置
100 取得部
102d エフェクタ
200 演奏制御部
K カラオケ装置
Claims (3)
- 歌唱音声の音声信号に対してエフェクト処理を実行するエフェクタを有するカラオケ装置であって、
撮影手段から出力された利用者の顔画像信号に基づいて、利用者の感情を示す感情情報を取得する取得部と、
取得された前記感情情報に対応するエフェクト処理を実行するよう前記エフェクタを制御する演奏制御部と、
を有するカラオケ装置。 - 前記取得部は、感情のタイプ及び/または感情の強さを前記感情情報として取得することを特徴とする請求項1に記載のカラオケ装置。
- 前記取得部は、カラオケ歌唱を行う利用者である歌唱者またはカラオケ歌唱を聴取する利用者である聴衆の顔画像信号に基づいて、前記感情情報を取得することを特徴とする請求項1または2記載のカラオケ装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022009930A JP2023108730A (ja) | 2022-01-26 | 2022-01-26 | カラオケ装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022009930A JP2023108730A (ja) | 2022-01-26 | 2022-01-26 | カラオケ装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023108730A true JP2023108730A (ja) | 2023-08-07 |
Family
ID=87518223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022009930A Pending JP2023108730A (ja) | 2022-01-26 | 2022-01-26 | カラオケ装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023108730A (ja) |
-
2022
- 2022-01-26 JP JP2022009930A patent/JP2023108730A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110211556B (zh) | 音乐文件的处理方法、装置、终端及存储介质 | |
JP6501344B2 (ja) | 聴取者評価を考慮したカラオケ採点システム | |
JP3077192B2 (ja) | 演奏環境に対応する電子楽器 | |
JP2015161710A (ja) | カラオケ装置、及びカラオケ用プログラム | |
JP6944357B2 (ja) | 通信カラオケシステム | |
JP2023108730A (ja) | カラオケ装置 | |
JP2006251697A (ja) | カラオケ装置 | |
JP6920135B2 (ja) | カラオケ装置 | |
US20040054524A1 (en) | Speech transformation system and apparatus | |
JP2022065554A (ja) | 音声合成方法およびプログラム | |
JP6944391B2 (ja) | カラオケ装置 | |
JP6657866B2 (ja) | 音響効果付与装置及び音響効果付与プログラム | |
JP7117229B2 (ja) | カラオケ装置 | |
JP2020134901A (ja) | カラオケシステム | |
JP2019028251A (ja) | カラオケ装置 | |
JP4534966B2 (ja) | 音色設定装置及びプログラム | |
JP7401235B2 (ja) | カラオケ装置 | |
JP7149218B2 (ja) | カラオケ装置 | |
JP2000029476A (ja) | エフェクト装置、エフェクト処理方法及びパラメータテーブル生成装置 | |
JP2023051140A (ja) | カラオケシステム | |
JP3457582B2 (ja) | 楽曲の自動表情付装置 | |
JP2023174364A (ja) | カラオケ装置 | |
JP4168391B2 (ja) | カラオケ装置、音声処理方法及びプログラム | |
JP6832253B2 (ja) | 人工喉頭装置 | |
JP2008244888A (ja) | 通信装置、通信方法およびプログラム |