JP2016057337A - 採点装置及び採点方法 - Google Patents

採点装置及び採点方法 Download PDF

Info

Publication number
JP2016057337A
JP2016057337A JP2014181115A JP2014181115A JP2016057337A JP 2016057337 A JP2016057337 A JP 2016057337A JP 2014181115 A JP2014181115 A JP 2014181115A JP 2014181115 A JP2014181115 A JP 2014181115A JP 2016057337 A JP2016057337 A JP 2016057337A
Authority
JP
Japan
Prior art keywords
singer
score
feature
expression
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014181115A
Other languages
English (en)
Other versions
JP6428066B2 (ja
Inventor
達哉 村上
Tatsuya Murakami
達哉 村上
立舟 張
Lizhou Zhang
立舟 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2014181115A priority Critical patent/JP6428066B2/ja
Priority to EP15179963.2A priority patent/EP2993615B1/en
Priority to CN201510486479.9A priority patent/CN105405436B/zh
Priority to US14/833,941 priority patent/US9892652B2/en
Publication of JP2016057337A publication Critical patent/JP2016057337A/ja
Application granted granted Critical
Publication of JP6428066B2 publication Critical patent/JP6428066B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/814Musical performances, e.g. by evaluating the player's ability to follow a notation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/46Computing the game score
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece

Abstract

【課題】歌唱行為を歌唱者により楽しませることができる技術を提供する。
【解決手段】本発明の採点装置は、歌唱者を撮影した画像データを取得する取得手段と、前記取得手段で取得された画像データから、前記歌唱者の顔の特徴として、歌唱中の表情又は顔の動きに関わる特徴を検出する検出手段と、前記検出手段で検出された特徴に基づいて、前記歌唱者の歌唱行為に対するスコアを算出する算出手段と、を有することを特徴とする。
【選択図】図4

Description

本発明は、歌唱者の歌唱行為に対するスコアを算出する採点装置及び採点方法に関する。
カラオケの楽曲を再生するカラオケ装置として、歌唱者の歌唱行為に対するスコアを算出可能なカラオケ装置がある。歌唱行為に対するスコアを算出する機能は“採点機能”などと呼ばれている。従来の採点機能では、歌唱行為における音程、抑揚、声量、等の音に関する情報に基づいてスコアが算出される。歌唱者は、上記採点機能を利用することで、歌唱行為の結果をスコアで確認することができ、歌唱行為をより楽しむことができる。
歌唱行為を歌唱者により楽しませるための他の機能も実用化されている。例えば、インターネットを利用して歌唱行為に対するスコアの全国ランキングを表示する機能、歌唱行為に対するスコアでビンゴゲームを行う機能、歌唱者の音声を変換してスピーカーから出力する機能、等が実用化されている。
また、歌唱行為を歌唱者により楽しませるための技術として、特許文献1に開示の技術がある。特許文献1に開示の技術では、聞き手の感情が推定され、推定結果に基づいてカラオケの映像が編集される。
カラオケ装置は娯楽装置として利用されることが多いため、歌唱行為を歌唱者により楽しませるための機能へのニーズは高い。
特開2009−288446号公報
本発明は、歌唱行為を歌唱者により楽しませることができる技術を提供することを目的とする。
上記目的を達成するために、本発明は以下の構成を採用する。
本発明の採点装置は、歌唱者を撮影した画像データを取得する取得手段と、前記取得手段で取得された画像データから、前記歌唱者の顔の特徴として、歌唱中の表情又は顔の動きに関わる特徴を検出する検出手段と、前記検出手段で検出された特徴に基づいて、前記歌唱者の歌唱行為に対するスコアを算出する算出手段と、を有することを特徴とする。
本発明の採点装置では、歌唱者の歌唱行為に対するスコアの算出基準の1つとして、従来考慮されていなかった歌唱者の顔の特徴(歌唱中の表情又は顔の動きに関わる特徴)が考慮される。これにより、歌唱者に、歌い方をより工夫させることができ、歌唱行為をより楽しませることができる。また、歌唱行為をより楽しめる歌唱者の層を広げることができる。例えば、歌声に自信が無い人でも、表情などを工夫することで高いスコアを狙えることができるため、歌唱行為をより楽しむことができる。顔の特徴は、例えば、表情、顔器官の動きの大きさ、顔器官の特徴点の位置関係、視線方向、目の開き具合、特徴点近傍
の濃淡値、特徴点近傍の濃淡値の周期性、特徴点近傍の濃淡値の方向性、色分布、輝度分布、等である。
また、前記画像データは動画像の画像データであり、前記検出手段は、前記動画像のNフレーム(Nは1以上の整数)毎に、前記歌唱者の顔の特徴を検出し、前記算出手段は、前記Nフレーム毎の特徴に基づいて前記スコアを算出する、ことが好ましい。このような構成にすることにより、楽曲全体を歌唱者が歌唱する歌唱行為に対するスコアとして、より適切な値を得ることができる。また、楽曲全体に渡って、歌唱者に歌い方をより工夫させることができる。その結果、歌唱者に歌唱行為をより楽しませることができる。
また、前記歌唱者が歌唱する楽曲に対して、目標の顔の特徴が予め定められており、前記算出手段は、前記検出手段で検出された特徴を前記目標の特徴と比較し、その比較結果に基づいて前記スコアを算出する、ことが好ましい。例えば、前記歌唱者が歌唱する楽曲に対して、目標の表情が予め定められており、前記検出手段は、前記楽曲の少なくとも一部の期間である採点期間における前記歌唱者の表情を検出し、前記算出手段は、前記採点期間のうち前記目標の表情と一致する表情が検出された期間の長さの総和が大きいほど高い値を、前記スコアとして、算出する、ことが好ましい。または、前記目標の特徴は、画像データから抽出される特徴ベクトルであり、前記検出手段は、前記取得手段で取得された画像データから、前記歌唱者の顔の特徴ベクトルを抽出し、前記算出手段は、前記検出手段で抽出された特徴ベクトルと、目標の特徴ベクトルと、の類似度を算出し、算出した類似度に基づいて前記スコアを算出する、ことが好ましい。目標の特徴は、例えば、楽曲の提供者が意図した特徴である。そのため、このような構成にすることにより、楽曲の提供者の意図により適したスコアを得ることができる。
また、前記歌唱者が歌唱する楽曲に対して、目標の表情が予め定められており、前記検出手段は、予め定められた複数の表情のそれぞれについて、その表情と前記歌唱者の表情との類似度を算出し、前記算出手段は、前記目標の表情に対応する類似度に基づいて、前記スコアを算出する、ことが好ましい。このような構成にすることによっても、楽曲の提供者の意図により適したスコアを得ることができる。
また、前記歌唱者が歌唱する楽曲に対して、顔の特徴を変化させて歌唱すべき時間位置である特徴変化位置が予め定められており、前記算出手段は、前記特徴変化位置における前記検出手段で検出された特徴の変化の大きさに基づいて、前記スコアを算出する、ことが好ましい。このような構成にすることによっても、楽曲の提供者の意図により適したスコアを得ることができる。
また、前記歌唱者が歌唱する楽曲の期間毎に、目標の顔の特徴が予め定められている、ことが好ましい。例えば、前記歌唱者が歌唱する楽曲のフレーズ毎に、目標の顔の特徴が予め定められている、ことが好ましい。このような構成にすることにより、歌唱者に、期間毎(フレーズ毎)に歌い方をより工夫させることができ、歌唱行為をより楽しませることができる。
また、前記算出手段は、前記歌唱者が歌唱する楽曲のフレーズ毎に、そのフレーズを前記歌唱者が歌唱しているときの前記歌唱者の顔の特徴に基づいて、当該フレームを前記歌唱者が歌唱する歌唱行為に対するスコアである部分スコアを算出する、ことが好ましい。このような構成にすることにより、フレーズ毎のスコアを得ることができるため、歌唱者に歌唱行為をより楽しませることができる。例えば、フレーズを歌唱する歌唱行為がどの程度のレベルかを歌唱者に把握させることができ、顔の特徴を工夫すべきフレーズを歌唱者に把握させることができる。その結果、歌唱者に、フレーズ毎に歌い方をより工夫させることができ、歌唱行為をより楽しませることができる。
また、前記算出手段は、前記フレーズ毎の部分スコアに基づいて、前記楽曲全体を前記歌唱者が歌唱する歌唱行為に対するスコアである全体スコアを算出する、ことが好ましい。このような構成にすることにより、フレーズ毎のスコア(部分スコア)だけでなく、楽曲全体のスコア(全体スコア)をも得ることができるため、歌唱者に歌唱行為をより楽しませることができる。例えば、楽曲全体を歌唱する歌唱行為がどの程度のレベルかを歌唱者に把握させることができるため、歌唱者に歌唱行為をより楽しませることができる。
また、本発明は、上記手段の少なくとも一部を有する採点装置として捉えてもよいし、上記処理の少なくとも一部を含む採点方法、または、かかる方法を実現するためのシミュレーションプログラムやそのプログラムを記録した記録媒体として捉えることもできる。なお、上記手段及び処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
本発明によれば、歌唱行為を歌唱者により楽しませることができる。
図1は、実施例1〜5に係るカラオケシステムの構成の一例を示す図である。 図2は、実施例1〜5に係る採点装置の機能構成の一例を示すブロック図である。 図3は、実施例1に係る採点装置の動作の流れの一例を示すフローチャートである。 図4は、実施例1に係る採点装置の動作の具体例を示す図である。 図5は、実施例2に係る採点装置の動作の流れの一例を示すフローチャートである。 図6は、実施例2に係る採点装置の動作の具体例を示す図である。 図7は、実施例3に係る採点装置の動作の流れの一例を示すフローチャートである。 図8は、実施例3に係る採点装置の動作の具体例を示す図である。 図9は、実施例4に係る採点装置の動作の流れの一例を示すフローチャートである。 図10は、実施例4に係る採点装置の動作の具体例を示す図である。 図11は、実施例5に係る採点装置の動作の流れの一例を示すフローチャートである。 図12は、実施例5に係る採点装置の動作の具体例を示す図である。 図13は、実施例1に係る表情の検出方法の一例を示す図である。 図14は、実施例1に係る正解表情の決定方法の一例を示す図である。 図15は、実施例1に係る正解表情の決定方法の一例を示すフローチャートである。 図16は、実施例1に係る正解表情の決定方法の一例を示す図である。 図17は、実施例1に係る正解表情の決定方法の一例を示すフローチャートである。 図18は、実施例1に係る正解表情を決定する際に使用する情報(シーンの特徴と表情との対応関係を表す情報)の一例を示す図である。 図19(a)は、実施例2に係るカラオケ画像の一例を示す図である。そして、図19(b),19(c)は、実施例1〜5に係るカラオケ画像の一例を示す図である。 図20(a),20(d)は、実施例1〜5に係るスコアの表示方法の一例を示す図である。そして、図20(b),20(c)は、実施例1〜5に係るスコアの表示方法の一例を示す図である。
<実施例1>
以下、本発明の実施例1に係る採点装置及び採点方法について説明する。
本実施例に係る採点装置は、歌唱者の歌唱行為を採点する装置であり、例えば、カラオケのシステム(カラオケシステム)において使用される。
(システム構成)
図1は、本実施例に係るカラオケシステムの構成の一例を示す図である。
図1に示すように、本実施例に係るカラオケシステムは、採点装置100、撮影装置101、カラオケ装置102、表示装置103、スピーカー104、マイクロフォン105、等を有する。
マイクロフォン105は、音を電気信号に変換し、電気信号をカラオケ装置102に送信する。例えば、歌唱者の歌声が電気信号に変換されてカラオケ装置102に送信される。
カラオケ装置102は、楽曲を表す電気信号を生成する。例えば、カラオケ装置102は、歌唱者が選択した楽曲を表す電気信号を生成する。
また、カラオケ装置102は、音を表す電気信号をマイクロフォン105から受信する。例えば、カラオケ装置102は、歌唱者の歌声を表す電気信号をマイクロフォン105から受信する。
そして、カラオケ装置102は、音を表す電気信号をスピーカー104に送信する。例えば、カラオケ装置102は、楽曲、歌唱者の歌声、または、それら両方を表す電気信号を生成し、生成した電気信号をスピーカー104に送信する。
また、カラオケ装置102は、採点装置100から採点結果(歌唱者の歌唱行為に対するスコアを表すスコアデータ)を取得する。
また、カラオケ装置102は、画像データを表示装置103に出力する。例えば、カラオケ装置102は、楽曲に応じた画像データ(カラオケの画像(映像)を表す画像データ;カラオケ画像データ)、採点結果を表す画像データ(スコア画像データ)、等を表示装置103に出力する。
スピーカー104は、電気信号に応じた音を発する。例えば、スピーカー104は、楽曲、歌唱者の歌声、または、それら両方を出力する。
表示装置103は、カラオケ装置102から出力された画像データに基づく画像を画面に表示する。例えば、表示装置103は、カラオケ画像データに基づく画像(カラオケ画像)、スコア画像データに基づく画像(スコア画像)、等を画面に表示する。
撮影装置101は、歌唱者を撮影することによって画像データ(撮影画像データ)を生成し、撮影画像データを採点装置100に出力する。
採点装置100は、歌唱者を撮影した撮影画像データを撮影装置101から取得し、取得した撮影画像データに基づいて、歌唱者の歌唱行為に対するスコアを算出する。そして、採点装置100は、算出したスコアを表すスコアデータをカラオケ装置102に出力する。
なお、採点装置100はカラオケ装置102の内部に設けられていてもよい。
なお、本実施例では、撮影画像データのみに基づいてスコアが算出される例を説明するが、これに限らない。例えば、歌唱行為における音程、抑揚、声量、等の音に関する情報をさらに考慮してスコアが算出されてもよい。
(採点装置の構成)
図2は、採点装置100の機能構成の一例を示すブロック図である。
採点装置100は、画像取得部201、特徴検出部202、記憶部203、スコア算出部204、等を有する。
画像取得部201は、撮影装置101から撮影画像データを取得し、取得した撮影画像データを特徴検出部202に出力する。本実施例では、撮影画像データとして、動画像の画像データが取得される。
特徴検出部202は、画像取得部201から出力された撮影画像データから、歌唱者の顔の特徴として、歌唱中の表情又は顔の動きに関わる特徴を検出する。“表情”は、例えば、顔つきによって表された感情や情緒を意味する。“顔の動き”は、例えば、顔器官の動き、複数の顔器官の間の位置関係の変化、などを意味する。そして、特徴検出部202は、特徴の検出結果をスコア算出部204に出力する。本実施例では、撮影画像データが表す動画像のNフレーム(Nは1以上の整数)毎に、歌唱者の顔の特徴が検出される。本実施例では、歌唱者の顔の特徴として、歌唱者の表情が検出される。以後、特徴検出部202によって検出された表情を“検出表情”と記載する。
記憶部203には、目標の顔の特徴を表す目標特徴情報が、歌唱者が歌唱する楽曲に対応付けられて記録されている。このように、本実施例では、歌唱者が歌唱する楽曲に対して、目標の特徴が予め定められている。具体的には、楽曲に対して、1つ(1種類)の特徴が、目標の特徴として予め定められている。より具体的には、楽曲に対して、1つの表情が、目標の表情(正解表情)として予め定められている。記憶部203としては、磁気ディスク、光ディスク、不揮発性メモリ、等を使用することができる。
スコア算出部204は、特徴検出部202で検出された特徴(Nフレーム毎の特徴)に基づいて、歌唱者の歌唱行為に対するスコアを算出する。本実施例では、検出された特徴(Nフレーム毎の特徴)が目標の特徴と比較され、その比較結果に基づいてスコアが算出される。具体的には、Nフレーム毎の検出表情が正解表情と比較され、その比較結果に基づいてスコアが算出される。
このように、本実施例では、歌唱者の歌唱行為に対するスコアの算出基準の1つとして、従来考慮されていなかった歌唱者の顔の特徴が考慮される。これにより、歌唱者に、歌い方をより工夫させることができ、歌唱行為をより楽しませることができる。また、歌唱行為をより楽しめる歌唱者の層を広げることができる。例えば、歌声に自信が無い人でも、表情などを工夫することで高いスコアを狙えることができるため、歌唱行為をより楽しむことができる。
なお、本実施例では、目標特徴情報を用いてスコアを算出する例を説明するが、これに限らない。特徴検出部202で検出された特徴が使用されれば、スコアはどのように算出されてもよい。例えば、特徴とスコアの対応関係を表す情報(関数やテーブル)を用いてスコアが算出されてもよい。但し、目標特徴情報は、例えば、楽曲の提供者が意図した特徴を表す情報である。そのため、目標特徴情報を使用することにより、楽曲の提供者の意図により適したスコアを得ることができる。
なお、本実施例では、撮影画像データが動画像の画像データであり、且つ、動画像のN
フレーム毎の特徴を検出して使用する例を説明するが、これに限らない。例えば、撮影画像データは静止画の画像データであってもよい。そして、1枚の画像データ(静止画の画像データ、または、動画像の1フレームの画像データ)から特徴が検出されてもよい。但し、Nフレーム毎の特徴を使用することにより、楽曲全体を歌唱者が歌唱する歌唱行為に対するスコアとして、より適切な値を得ることができる。また、楽曲全体に渡って、歌唱者に歌い方をより工夫させることができる。その結果、歌唱者に歌唱行為をより楽しませることができる。
なお、本実施例では、顔の特徴として表情を使用する例を説明するが、これに限らない。例えば、顔の特徴として、顔器官の動きの大きさ、顔器官の特徴点の位置関係、視線方向、目の開き具合、特徴点近傍の濃淡値、特徴点近傍の濃淡値の周期性、特徴点近傍の濃淡値の方向性、色分布、輝度分布、等が使用されてもよい。
(特徴の検出方法)
本実施例に係る特徴の検出方法の一例について、図13を用いて説明する。
以下では、顔の特徴として表情を検出する例を説明する。
特徴検出部202は、撮影画像データが表す画像の領域から、歌唱者の顔の特徴点を検出する。図13において、×印は特徴点を示す。具体的には、特徴検出部202は、撮影画像データが表す画像の領域から歌唱者の顔の領域(顔領域)を検出し、顔領域から特徴点を検出する。顔領域を検出する処理(顔検出処理)には、既存のどのような技術が適用されてもよい。例えば、顔検出処理の方法には、テクスチャー情報を用いたパターンマッチング、輪郭や顔の器官(目、鼻、口など)に基づくモデルフィッティングによって顔領域を検出する方法、肌の色や濃淡の分布に基づき顔領域を検出する方法、等がある。
特徴検出部202は、検出した特徴点の配置のパターンに基づいて、歌唱者の表情を検出する。本実施例では、表情毎に特徴点の配置のパターンを表すパターン情報が予め定められている。特徴検出部202は、パターン情報が表す複数の表情の中から、検出した特徴点の配置のパターンに対応する表情を、歌唱者の表情として検出する。表情には、例えば、「楽しい表情」、「悲しい表情」、「真剣な表情」、等がある。
なお、撮影画像データが表す画像には、歌唱者以外の人の顔が写っていることがある。その場合には、例えば、マイクの領域を検出し、マイクの領域に最も近い顔の領域を、歌唱者の顔の領域として検出すればよい。マイクの領域は、顔検出処理と同様の処理を行うことにより、検出することができる。
なお、表情の検出に特化した特徴点を検出することが好ましい。例えば、表情変化の生じやすい器官(例えば、両目、眉、頬、額、口元など)などの特徴点を検出することが好ましい。図13の例では、目頭、目じり、口元、上唇の中心、及び、下唇の中心の5か所が特徴点として検出されている。
なお、表情の検出方法は、上記方法に限らない。例えば、顔器官の動きの大きさ、視線方向、目の開き具合、特徴点近傍の濃淡値、特徴点近傍の濃淡値の周期性、特徴点近傍の濃淡値の方向性、色分布、輝度分布、等を使用して、表情が検出されてもよい。
(目標特徴情報の生成方法)
本実施例に係る目標特徴情報の生成方法の一例について、図14〜18を用いて説明する。
以下では、正解表情を決定する例を説明する。
なお、以下で説明する方法はあくまで一例であり、本実施例に係る目標特徴情報の生成方法は以下の方法に限定されない。
1つ目の方法について、図14,15を用いて説明する。
1つ目の方法では、図14に示すように、楽曲を歌唱しているアーティストの表情に基づいて正解表情が決定される。1つ目の方法では、楽曲を歌唱しているアーティストを表す画像データ(アーティスト画像データ)が使用される。アーティスト画像データは、例えば、歌番組、プロモーションビデオ(PV)、等の画像データである。
図15に示すように、楽曲の開始から終了まで、S601の処理が繰り返し行われる。S601の処理は、例えば、Mフレーム毎(Mは1以上の整数)に行われる。Mは、Nと同じ値であってもよいし、Nと異なる値であってもよい。
S601では、アーティスト画像データからアーティストの表情が検出される。
次に、検出された複数の表情(アーティストの表情)に基づいて、正解表情が検出される(S602)。例えば、検出頻度が最も高い表情が正解表情として検出される。
なお、検出された複数の特徴(アーティストの顔の特徴)の最頻値以外の代表値が、目標の特徴として決定されてもよい。最頻値以外の代表値は、例えば、最大値、最小値、平均値、中間値、等である。
なお、詳細は他の実施例で説明するが、楽曲の期間(フレーズ等)毎に目標の特徴が定められていてもよい。その場合には、楽曲の期間毎に、その期間に対して検出された複数の特徴に基づいて、当該期間の目標の特徴が決定されてもよい。
2つ目の方法について、図16〜18を用いて説明する。
2つ目の方法では、図16に示すように、楽曲のPVのシーンの特徴に基づいて、正解表情が決定される。2つ目の方法では、楽曲のPVの画像データ(PV画像データ)が使用される。
図17に示すように、楽曲の開始から終了まで、S701の処理が繰り返し行われる。S701の処理は、例えば、Mフレーム毎(Mは1以上の整数)に行われる。
S701では、PV画像データからシーンの特徴が検出される。シーンの特徴は、例えば、色の数、輝度、エッジの数、色分布、輝度分布、等である。
次に、検出された特徴(PVのシーンの特徴)に基づいて、正解表情が検出される(S702)。例えば、図18に示すように、シーンの特徴と表情との対応関係を表す情報(テーブル)が予め用意されている。図18に示す情報は、事前学習によって決定することができる。S702では、Mフレーム毎に、そのフレームの特徴に対応する表情が、図18の情報から取得される。そして、取得された頻度が最も高い表情が正解表情として検出される。
なお、Mフレーム毎の顔の特徴の最頻値以外の代表値が、目標の特徴として決定されてもよい。
なお、楽曲の期間毎に、その期間に対して取得された複数の特徴(シーンの特徴、または、顔の特徴)に基づいて、当該期間の目標の特徴が決定されてもよい。
(採点装置の動作)
本実施例に係る採点装置100の動作の流れの一例について、図3のフローチャートを用いて説明する。図3のフローチャートは、歌唱者が楽曲の歌唱を開始することをトリガとして開始される。具体的には、図3のフローチャートは、歌唱者が歌唱する楽曲が再生されることをトリガとして開始される。
図3に示すように、採点の開始から採点の終了までの期間(採点期間)において、Nフ
レーム毎(所定時間毎)に、S101〜S104の処理が行われる。採点期間は、楽曲の少なくとも一部の期間である。楽曲の開始から終了までの期間が採点期間として使用されてもよい。
S101では、画像取得部201が、撮影画像データを取得する。その後、S102に処理が進められる。
S102では、特徴検出部202が、S101で取得された撮影画像データから、歌唱者の表情を検出する。その後、S103に処理が進められる。
S103では、スコア算出部204が、S102で検出された表情(検出表情)が記憶部203に記録されている正解表情と一致するか否かを判定する。検出表情が正解表情と一致する場合には、S104に処理が進められる。検出表情が正解表情と一致しない場合には、S104の処理は行われない。なお、正解表情と完全に一致する検出表情のみが“正解表情と一致する検出表情”として判定されてもよいし、そうでなくてもよい。正解表情と完全に一致する検出表情と、正解表情に類似した検出表情と、が“正解表情と一致する検出表情”として判定されてもよい。
S104では、スコア算出部204が、カウント値Cntを1だけインクリメントする。カウント値Cntは、正解表情と一致する検出表情が検出された回数を表す。カウント値Cntは、図3のフローチャートの開始時に、0に初期化される。
採点期間の終了後、S105に処理が進められる。
S105では、スコア算出部204が、カウント値Cntに基づいてスコアを算出する。本実施例では、採点期間のうち正解表情と一致する検出表情が検出された期間の長さの総和が大きいほど高い値が、スコアとして算出される。具体的には、カウント値Cntが大きいほど高い値が、スコアとして算出される。例えば、検出表情の総検出回数に対するカウント値の割合が、スコアとして算出される。スコア算出部205は、算出したスコアを表すスコアデータをカラオケ装置102に出力する。
次に、カラオケ装置102が、S105で算出されたスコアを表すスコア画像データを、表示装置103に出力する(S106)。それにより、S105で算出されたスコアを表すスコア画像が、表示装置103の画面に表示される。図20(a)は、スコア画像の一例を示す。
なお、S106の処理は、採点装置100が行ってもよい。即ち、スコアを表示装置103の画面に表示する機能を、採点装置100が有していてもよい。
(採点装置の動作の具体例)
本実施例に係る採点装置100の動作の具体例について、図4を用いて説明する。
図4の例では、楽曲に対して1つの正解表情「楽しい表情」が予め定められている。そして、図4の例では、歌唱者の表情が合計6回検出されている。
1回目では、図3のS102において、歌唱者の表情として「楽しい表情」が検出されている。そして、検出表情が正解表情と一致するため、S104において、カウント値Cntに1が加算される。その結果、カウント値Cntが0から1に更新される。
2回目では、図3のS102において、歌唱者の表情として「悲しい表情」が検出されている。そして、検出表情が正解表情と一致しないため、S104の処理は行われず、カウント値Cnt=1が維持される。
3回目では、図3のS102において、歌唱者の表情として「楽しい表情」が検出されている。そして、検出表情が正解表情と一致するため、S104において、カウント値Cntに1が加算される。その結果、カウント値Cntが1から2に更新される。
4回目では、図3のS102において、歌唱者の表情として「悲しい表情」が検出されている。そして、検出表情が正解表情と一致しないため、S104の処理は行われず、カ
ウント値Cnt=2が維持される。
5回目では、図3のS102において、歌唱者の表情として「楽しい表情」が検出されている。そして、検出表情が正解表情と一致するため、S104において、カウント値Cntに1が加算される。その結果、カウント値Cntが2から3に更新される。
6回目では、図3のS102において、歌唱者の表情として「真剣な表情」が検出されている。そして、検出表情が正解表情と一致しないため、S104の処理は行われず、カウント値Cnt=3が維持される。
図4の例では、カウント値Cntの最終的な値として3が得られる。そして、検出表情の総検出回数は6である。そのため、スコアとして、50点(=50%=100×3÷6)が得られる。
なお、検出表情として、「楽しい表情」、「悲しい表情」、及び、「真剣な表情」以外の表情が検出されてもよい。正解表情として、「楽しい表情」、「悲しい表情」、及び、「真剣な表情」以外の表情が使用されてもよい。
以上述べたように、本実施例によれば、歌唱者の歌唱行為に対するスコアの算出基準の1つとして、従来考慮されていなかった歌唱者の顔の特徴が考慮される。具体的には、採点期間における歌唱者の表情を検出され、採点期間のうち正解表情と一致する表情が検出された期間の長さの総和が大きいほど高い値が、スコアとして算出される。これにより、歌唱者に、歌い方をより工夫させることができ、歌唱行為をより楽しませることができる。また、歌唱行為をより楽しめる歌唱者の層を広げることができる。
<実施例2>
以下、本発明の実施例2に係る採点装置及び採点方法について説明する。
なお、本実施例に係るカラオケシステムの構成、及び、本実施例に係る採点装置の構成は、実施例1(図1,2)と同じであるため、それらの説明は省略する。
本実施例では、スコア算出部204は、歌唱者が歌唱する楽曲のフレーズ毎に、そのフレーズを歌唱者が歌唱しているときの歌唱者の顔の特徴に基づいて、当該フレームを歌唱者が歌唱する歌唱行為に対するスコアである部分スコアを算出する。このような構成にすることにより、フレーズ毎のスコアを得ることができるため、歌唱者に歌唱行為をより楽しませることができる。例えば、フレーズを歌唱する歌唱行為がどの程度のレベルかを歌唱者に把握させることができ、顔の特徴を工夫すべきフレーズを歌唱者に把握させることができる。その結果、歌唱者に、フレーズ毎に歌い方をより工夫させることができ、歌唱行為をより楽しませることができる。
また、本実施例では、スコア算出部204は、フレーズ毎の部分スコアに基づいて、楽曲全体を歌唱者が歌唱する歌唱行為に対するスコアである全体スコアを算出する。このような構成にすることにより、フレーズ毎のスコア(部分スコア)だけでなく、楽曲全体のスコア(全体スコア)をも得ることができるため、歌唱者に歌唱行為をより楽しませることができる。例えば、楽曲全体を歌唱する歌唱行為がどの程度のレベルかを歌唱者に把握させることができるため、歌唱者に歌唱行為をより楽しませることができる。
また、本実施例では、歌唱者が歌唱する楽曲の期間毎に、目標の顔の特徴が予め定められている。具体的には、歌唱者が歌唱する楽曲のフレーズ毎に、目標の顔の特徴が予め定められている。このような構成にすることにより、歌唱者に、期間毎(フレーズ毎)に歌い方をより工夫させることができ、歌唱行為をより楽しませることができる。
なお、目標の特徴が用意される1つの期間は1フレーズの期間に限らない。目標の特徴が用意される期間の長さは特に限定されない。目標の特徴が用意される期間は1フレーズ
の期間より長くても短くてもよい。
なお、実施例1では説明を省略したが、カラオケの画像として、正解表情をさらに表す画像が表示されることが好ましい。例えば、本実施例の場合には、フレーズ毎に、そのフレーズに対応付けて、当該フレームの正解表情が表示されることが好ましい(図19(a))。それにより、歌唱者の歌唱中に、歌唱者に正解表情を把握させることができ、正解表情への表情づくりを歌唱者に促すことができる。その結果、歌い方を工夫させる効果、及び、歌唱行為をより楽しませる効果を、より確実に得ることができる。
また、カラオケの画像として、現在の検出表情をさらに表す画像が表示されることが好ましい(図19(b))。それにより、歌唱者の歌唱中に、歌唱者に自身の表情を把握させることができる。その結果、歌唱者に表情づくりをより工夫させたり、歌唱行為に対する歌唱者のやる気を高めたりすることができる。
また、カラオケの画像として、正解表情と検出情報の比較結果を表すグラフィック画像(アイコンやメッセージ)が重畳された画像が表示されることが好ましい。例えば、「もっと真剣な表情で!」、「いい表情だ!」、などのメッセージが重畳された画像が表示されることが好ましい(図19(c))。これによっても、歌唱者に表情づくりをより工夫させたり、歌唱行為に対する歌唱者のやる気を高めたりすることができる。
(採点装置の動作)
本実施例に係る採点装置100の動作の流れの一例について、図5のフローチャートを用いて説明する。図5のフローチャートは、歌唱者が楽曲の歌唱を開始することをトリガとして開始される。具体的には、図5のフローチャートは、歌唱者が歌唱する楽曲が再生されることをトリガとして開始される。
なお、以下では、顔の特徴が表情である場合の例を説明するが、顔の特徴は表情に限らない。
図5に示すように、採点の開始から採点の終了までの期間(採点期間)において、Nフレーム毎(所定時間毎)に、S201〜S206の処理が行われる。
S201では、画像取得部201が、撮影画像データを取得する。その後、S202に処理が進められる。
S202では、特徴検出部202が、S201で取得された撮影画像データから、歌唱者の表情を検出する。その後、S203に処理が進められる。
S203では、スコア算出部204が、S202で検出された表情(検出表情)が記憶部203に記録されている正解表情と一致するか否かを判定する。具体的には、検出表情が現在の歌唱対象のフレーズ(n番目(nは1以上の整数)のフレーズ)の正解表情と一致するか否かが判定される。検出表情が正解表情と一致する場合には、S204に処理が進められる。検出表情が正解表情と一致しない場合には、S205に処理が進められる。
S204では、スコア算出部204が、n番目のフレーズのカウント値Cnt(n)を1だけインクリメントする。その後、S205に処理が進められる。カウント値Cnt(n)は、n番目のフレーズの期間において正解表情と一致する検出表情が検出された回数を表す。各フレーズのカウント値Cnt(n)は、図5のフローチャートの開始時に、0に初期化される。
S205では、スコア算出部204が、n番目のフレーズ(フレーズn)の期間が終了したか否かを判定する。n番目のフレーズの期間が終了した場合には、S206に処理が進められる。n番目のフレーズの期間が終了していない場合には、S206の処理は行われない。
S206では、スコア算出部204が、フレーズ番号nを1だけインクリメントする。フレーズ番号nは、フレーズの番号である。フレーズ番号nは、図5のフローチャートの
開始時に、1に初期化される。
採点期間の終了後、S207に処理が進められる。
S207では、スコア算出部204が、カウント値Cnt(n)に基づいて部分スコアと全体スコアを算出する。本実施例では、フレーズ毎に、カウント値Cnt(n)が大きいほど高い値が、スコアとして算出される。具体的には、フレーズ毎に、そのフレーズの期間における検出表情の総検出回数に対する、当該フレーズのカウント値Cnt(n)の割合が、当該フレーズの部分スコアとして算出される。そして、フレーズ毎の部分スコアの平均値が、全体スコアとして算出される。スコア算出部205は、算出したスコアを表すスコアデータをカラオケ装置102に出力する。
なお、実施例1のスコアの算出方法と同様に、部分スコアの算出方法は上記方法に限定されない。
また、全体スコアの算出方法も上記方法に限らない。例えば、実施例1と同様の方法で全体スコアが算出されてもよい。また、フレーズ毎の部分スコアを重みづけ合成することにより、全体スコアが算出されてもよい。重みづけ合成では、楽曲で最も盛り上がるフレーズ(例えばサビ)の部分スコアの重みとして、他の部分スコアの重みよりも大きい重みが設定されることが好ましい。
次に、カラオケ装置102が、S207で算出されたスコアを表すスコア画像データを、表示装置103に出力する(S208)。それにより、S207で算出されたスコアを表すスコア画像が、表示装置103の画面に表示される。図20(b)は、スコア画像の一例を示す。図20(b)のスコア画像は、部分スコア(フレーズ別得点)と全体スコア(総合得点)の両方を表す。
なお、図3のS106の処理と同様に、S208の処理は採点装置100が行ってもよい。
なお、部分スコアと全体スコアの両方が採点結果として表示装置103の画面に表示されてもよいし、部分スコアと全体スコアの一方が採点結果として表示装置103の画面に表示されてもよい。
なお、図20(c)に示すように、歌唱者の歌唱中にリアルタイムで部分スコアが表示されてもよい。また、図20(d)に示すように、歌唱者の歌唱中に、採点開始から現在までの期間における歌唱行為に対するスコアがリアルタイムで算出されて表示されてもよい。それにより、歌唱者に表情づくりをより工夫させたり、歌唱行為に対する歌唱者のやる気を高めたりすることができる。
(採点装置の動作の具体例)
本実施例に係る採点装置100の動作の具体例について、図6を用いて説明する。
図6の例では、楽曲に第1フレーズから第3フレーズまでの3つのフレーズがある。第1フレーズの正解表情として「楽しい表情」が予め定められており、第2フレーズの正解表情として「真剣な表情」が予め定められており、第3フレーズの正解表情として「悲しい表情」が予め定められている。そして、図6の例では、第1フレーズの期間において、歌唱者の表情が合計4回検出されており、第2フレーズの期間において、歌唱者の表情が合計4回検出されており、第3フレーズの期間において、歌唱者の表情が合計3回検出されている。
第1フレーズの期間に関する処理について説明する。
1回目では、図5のS202において、歌唱者の表情として「楽しい表情」が検出されている。そして、検出表情が正解表情と一致するため、S204において、カウント値Cnt(1)に1が加算される。その結果、カウント値Cnt(1)が0から1に更新され
る。
2回目でも、図5のS202において、歌唱者の表情として「楽しい表情」が検出されている。そして、検出表情が正解表情と一致するため、S204において、カウント値Cnt(1)に1が加算される。その結果、カウント値Cnt(1)が1から2に更新される。
3回目でも、図5のS202において、歌唱者の表情として「楽しい表情」が検出されている。そして、検出表情が正解表情と一致するため、S204において、カウント値Cnt(1)に1が加算される。その結果、カウント値Cnt(1)が2から3に更新される。
4回目では、図5のS202において、歌唱者の表情として「真剣な表情」が検出されている。そして、検出表情が正解表情と一致しないため、S204の処理は行われず、カウント値Cnt(1)=3が維持される。
第2フレーズの期間に関する処理について説明する。
1回目では、図5のS202において、歌唱者の表情として「悲しい表情」が検出されている。そして、検出表情が正解表情と一致しないため、S204の処理は行われず、カウント値Cnt(2)=0が維持される。
2回目では、図5のS202において、歌唱者の表情として「真剣な表情」が検出されている。そして、検出表情が正解表情と一致するため、S204において、カウント値Cnt(2)に1が加算される。その結果、カウント値Cnt(2)が0から1に更新される。
3回目では、図5のS202において、歌唱者の表情として「悲しい表情」が検出されている。そして、検出表情が正解表情と一致しないため、S204の処理は行われず、カウント値Cnt(2)=1が維持される。
4回目では、図5のS202において、歌唱者の表情として「真剣な表情」が検出されている。そして、検出表情が正解表情と一致するため、S204において、カウント値Cnt(2)に1が加算される。その結果、カウント値Cnt(2)が1から2に更新される。
第3フレーズの期間に関する処理について説明する。
1回目では、図5のS202において、歌唱者の表情として「悲しい表情」が検出されている。そして、検出表情が正解表情と一致するため、S204において、カウント値Cnt(3)に1が加算される。その結果、カウント値Cnt(3)が0から1に更新される。
2回目でも、図5のS202において、歌唱者の表情として「悲しい表情」が検出されている。そして、検出表情が正解表情と一致するため、S204において、カウント値Cnt(3)に1が加算される。その結果、カウント値Cnt(3)が1から2に更新される。
3回目では、図5のS202において、歌唱者の表情として「真剣な表情」が検出されている。そして、検出表情が正解表情と一致しないため、S204の処理は行われず、カウント値Cnt(3)=2が維持される。
図6の例では、第1フレームのカウント値Cnt(1)の最終的な値として3が得られる。そして、第1フレームの期間における検出表情の総検出回数は4である。そのため、第1フレームの部分スコアとして、75点(=75%=100×3÷4)が得られる。
また、図6の例では、第2フレームのカウント値Cnt(2)の最終的な値として2が得られる。そして、第2フレームの期間における検出表情の総検出回数は4である。そのため、第2フレームの部分スコアとして、50点(=50%=100×2÷4)が得られる。
また、図6の例では、第3フレームのカウント値Cnt(3)の最終的な値として2が
得られる。そして、第3フレームの期間における検出表情の総検出回数は3である。そのため、第3フレームの部分スコアとして、67点(=67%=100×2÷3)が得られる。
そして、全体スコアとして、64点(=(75+50+67)÷3)が得られる。
以上述べたように、本実施例によれば、楽曲の期間毎に予め定められた目標の特徴を用いてスコアが算出される。また、フレーズ毎のスコア(部分スコア)と、楽曲全体のスコア(全体スコア)と、が算出される。それにより、歌唱者に、歌い方をより工夫させることができ、歌唱行為をより楽しませることができる。
<実施例3>
以下、本発明の実施例3に係る採点装置及び採点方法について説明する。
なお、本実施例に係るカラオケシステムの構成、及び、本実施例に係る採点装置の構成は、実施例1(図1,2)と同じであるため、それらの説明は省略する。
本実施例では、実施例1と同様に、楽曲に対して1つの正解表情が予め定められている例を説明する。
なお、実施例2と同様に、楽曲の期間毎に正解表情が予め定められていてもよい。
本実施例では、特徴検出部202は、予め定められた複数の特徴のそれぞれについて、その表情と歌唱者の表情との類似度を算出する。即ち、本実施例では、予め定められた各表情と、歌唱者の表情と、の類似度が、顔の特徴として検出される。
そして、本実施例では、スコア算出部204は、正解表情に対応する類似度に基づいて、スコアを算出する。
このような構成にすることにより、楽曲の提供者の意図により適したスコアを得ることができる。
(採点装置の動作)
本実施例に係る採点装置100の動作の流れの一例について、図7のフローチャートを用いて説明する。図7のフローチャートは、歌唱者が楽曲の歌唱を開始することをトリガとして開始される。具体的には、図7のフローチャートは、歌唱者が歌唱する楽曲が再生されることをトリガとして開始される。
図7に示すように、採点の開始から採点の終了までの期間(採点期間)において、Nフレーム毎(所定時間毎)に、S301とS302の処理が行われる。
S301では、画像取得部201が、撮影画像データを取得する。その後、S302に処理が進められる。
S302では、特徴検出部202が、予め定められた表情毎に、その表情と、S301で取得された撮影画像データが表す歌唱者の表情と、の類似度を算出する。本実施例では、「楽しい表情」、「悲しい表情」、及び、「真剣な表情」の3つの表情のそれぞれについて、類似度が算出される。
なお、「楽しい表情」、「悲しい表情」、及び、「真剣な表情」以外の表情が予め定められていてもよい。
採点期間の終了後、S303に処理が進められる。
S303では、スコア算出部204が、S302で算出された類似度のうち、正解表情に対応する類似度(正解類似度)に基づいて、スコアを算出する。本実施例では、類似度として0以上100以下の値が算出される。そして、Nフレーム毎の正解類似度の平均値が、スコア(全体スコア)として算出される。スコア算出部205は、算出したスコアを
表すスコアデータをカラオケ装置102に出力する。
なお、スコアの算出方法は上記方法に限らない。例えば、Nフレーム毎の正解類似度の他の代表値(最大値、最小値、最頻値、中間値、等)がスコアとして算出されてもよい。
なお、本実施例と実施例2とを組み合わせてもよい。具体的には、フレーズ毎に、そのフレーズに対して算出された正解類似度に基づいて、当該フレーズの部分スコアが算出されてもよい。
次に、カラオケ装置102が、S303で算出されたスコアを表すスコア画像データを、表示装置103に出力する(S304)。それにより、S303で算出されたスコアを表すスコア画像が、表示装置103の画面に表示される。
なお、図3のS106の処理と同様に、S304の処理は採点装置100が行ってもよい。
(採点装置の動作の具体例)
本実施例に係る採点装置100の動作の具体例について、図8を用いて説明する。
図8の例では、楽曲に対して1つの正解表情「楽しい表情」が予め定められている。そして、図8の例では、表情の類似度が合計3回算出されている。
1回目では、図7のS302において、「楽しい表情」と歌唱者の表情との類似度として100が、「悲しい表情」と歌唱者の表情との類似度として0が、「真剣な表情」と歌唱者の表情との類似度として0が、算出されている。
2回目では、図7のS302において、「楽しい表情」と歌唱者の表情との類似度として20が、「悲しい表情」と歌唱者の表情との類似度として60が、「真剣な表情」と歌唱者の表情との類似度として20が、算出されている。
3回目では、図7のS302において、「楽しい表情」と歌唱者の表情との類似度として30が、「悲しい表情」と歌唱者の表情との類似度として50が、「真剣な表情」と歌唱者の表情との類似度として20が、算出されている。
図7の例では、正解表情は「楽しい表情」であり、「楽しい表情」と歌唱者の表情との類似度が上述した正解類似度である。そして、表情の類似度の総算出回数は3である。そのため、スコアとして、50点(=(100+20+30)÷3)が得られる。
以上述べたように、本実施例によれば、歌唱者の歌唱行為に対するスコアの算出基準の1つとして、従来考慮されていなかった歌唱者の顔の特徴が考慮される。これにより、歌唱者に、歌い方をより工夫させることができ、歌唱行為をより楽しませることができる。
<実施例4>
以下、本発明の実施例4に係る採点装置及び採点方法について説明する。
なお、本実施例に係るカラオケシステムの構成、及び、本実施例に係る採点装置の構成は、実施例1(図1,2)と同じであるため、それらの説明は省略する。
本実施例では、顔の特徴として、画像データ(顔の画像を表す顔画像データ)から抽出される特徴ベクトルが使用される。特徴ベクトルとしてどのようなデータが使用されてもよい。例えば、表情を検出するために必要なデータを特徴ベクトルとして使用することができる。
特徴ベクトルは、顔画像データから抽出される複数の特徴量の集合である。即ち、特徴ベクトルは、顔画像データから抽出される複数の特徴量のそれぞれを成分として有するベクトルである。特徴量の個数は期待するスコア算出精度に応じて任意に設定できるが、数十から数万個以上の特徴量の集合を特徴ベクトルとして使用することが好ましい。特徴量
にはどのような種類のものが使用されてもよい。例えば、顔器官の動きの大きさ、顔器官の特徴点の位置関係、視線方向、目の開き具合、特徴点近傍の濃淡値、特徴点近傍の濃淡値の周期性、特徴点近傍の濃淡値の方向性、色分布、輝度分布、等を特徴量として採用できる。特徴ベクトルは、顔の特徴を数値化したものと言うことができる。表情や顔の動きによって顔の特徴が変化するのと同様に、表情や顔の動きによって特徴ベクトルも変化する。
そして、本実施例では、目標(正解)の顔の特徴として、楽曲の時間位置の変化に応じて変化する特徴ベクトルが予め定められている。例えば、楽曲の期間毎に、目標の顔の特徴ベクトルが予め定められている例を説明する。
なお、実施例1と同様に、楽曲に対して目標の特徴が1つ(1種類)だけ予め定められていてもよい。
本実施例では、特徴検出部202は、画像取得部201から出力された撮影画像データから、歌唱者の顔の特徴ベクトルを抽出(検出)する。具体的には、特徴検出部202は、実施例1で述べた顔検出処理により、撮影画像データが表す画像の領域から歌唱者の顔の領域(顔領域)を検出する。そして、特徴検出部202は、検出した顔領域から複数の特徴量を抽出し、抽出した複数の特徴量の集合を特徴ベクトルとして取得する。
そして、本実施例では、スコア算出部204は、特徴検出部202で抽出された特徴ベクトルと、目標の特徴ベクトルと、の類似度を算出し、算出した類似度に基づいてスコアを算出する。類似度にはどのような指標を用いてもよい。例えば、特徴空間上における上記2つの特徴ベクトルの間の距離(ユークリッド距離など)、上記2つの特徴ベクトルの内積、等を類似度として用いることができる。特徴空間は、特徴ベクトルを構成する複数の特徴量に対応する複数の軸が定められている空間である。
このような構成にすることにより、楽曲の提供者の意図により適したスコアを得ることができる。
(採点装置の動作)
本実施例に係る採点装置100の動作の流れの一例について、図9のフローチャートを用いて説明する。図9のフローチャートは、歌唱者が楽曲の歌唱を開始することをトリガとして開始される。具体的には、図9のフローチャートは、歌唱者が歌唱する楽曲が再生されることをトリガとして開始される。
図9に示すように、採点の開始から採点の終了までの期間(採点期間)において、Nフレーム毎(所定時間毎)に、S401〜S403の処理が行われる。
S401では、画像取得部201が、撮影画像データを取得する。その後、S402に処理が進められる。
S402では、特徴検出部202が、S401で取得された撮影画像データから、歌唱者の顔の特徴ベクトルを抽出する。その後、S403に処理が進められる。
S403では、スコア算出部204が、S402で抽出された特徴ベクトル(検出特徴ベクトル)と、記憶部203に記録されている特徴ベクトル(正解(目標)の顔の特徴ベクトル;正解特徴ベクトル)と、の類似度を算出する。具体的には、現在の歌唱対象の時間位置(楽曲の時間位置)の正解特徴ベクトルと検出特徴ベクトルとの類似度が算出される。
採点期間の終了後、S404に処理が進められる。
S404では、スコア算出部204が、S404で算出された類似度に基づいて、スコアを算出する。本実施例では、類似度として0以上100以下の値が算出される。そして、Nフレーム毎の類似度の平均値が、スコア(全体スコア)として算出される。スコア算出部205は、算出したスコアを表すスコアデータをカラオケ装置102に出力する。
なお、スコアの算出方法は上記方法に限らない。例えば、Nフレーム毎の類似度の他の代表値(最大値、最小値、最頻値、中間値、等)がスコアとして算出されてもよい。
なお、本実施例と実施例2とを組み合わせてもよい。具体的には、フレーズ毎に、そのフレーズに対して算出された類似度に基づいて、当該フレーズの部分スコアが算出されてもよい。
次に、カラオケ装置102が、S303で算出されたスコアを表すスコア画像データを、表示装置103に出力する(S304)。それにより、S303で算出されたスコアを表すスコア画像が、表示装置103の画面に表示される。
なお、図3のS106の処理と同様に、S304の処理は採点装置100が行ってもよい。
(採点装置の動作の具体例)
本実施例に係る採点装置100の動作の具体例について、図10を用いて説明する。
図10の例では、正解特徴ベクトルとして、楽曲の時間位置の変化に応じて変化する特徴ベクトルが予め定められている。そして、図10の例では、特徴ベクトルの類似度が合計6回算出されている。
1回目では、図9のS403において、歌唱者の顔の特徴ベクトルと正解特徴ベクトルとの類似度として50が算出されている。
2回目では、図9のS403において、歌唱者の顔の特徴ベクトルと正解特徴ベクトルとの類似度として75が算出されている。
3回目では、図9のS403において、歌唱者の顔の特徴ベクトルと正解特徴ベクトルとの類似度として100が算出されている。
4回目では、図9のS403において、歌唱者の顔の特徴ベクトルと正解特徴ベクトルとの類似度として50が算出されている。
5回目では、図9のS403において、歌唱者の顔の特徴ベクトルと正解特徴ベクトルとの類似度として100が算出されている。
6回目では、図9のS403において、歌唱者の顔の特徴ベクトルと正解特徴ベクトルとの類似度として75が算出されている。
図10の例では、特徴ベクトルの類似度の総算出回数は6である。そのため、スコアとして、75点(=(50+75+100+50+100+75)÷6)が得られる。
以上述べたように、本実施例によれば、歌唱者の歌唱行為に対するスコアの算出基準の1つとして、従来考慮されていなかった歌唱者の顔の特徴が考慮される。これにより、歌唱者に、歌い方をより工夫させることができ、歌唱行為をより楽しませることができる。
また、本実施例によれば、正解表情ベクトルの生成方法を変えることで様々なスコア算出処理(スコアを算出する処理)を実現することができる。例えば、楽曲のアーティストの顔画像データから抽出された特徴ベクトルを正解表情ベクトルとして使用することにより、楽曲のアーティストによく似た顔で歌唱した場合に高いスコアを得ることができるスコア算出処理を実現することができる。また、目標表情の一般的な顔の画像を表す顔画像データから抽出された特徴ベクトルを正解表情ベクトルとして使用することにより、実施例1〜3と略等しいスコアを得ることができるスコア算出処理を実現することができる。
<実施例5>
以下、本発明の実施例5に係る採点装置及び採点方法について説明する。
なお、本実施例に係るカラオケシステムの構成、及び、本実施例に係る採点装置の構成は、実施例1(図1,2)と同じであるため、それらの説明は省略する。
本実施例では、歌唱者が歌唱する楽曲に対して、顔の特徴を変化させて歌唱すべき時間位置である特徴変化位置が予め定められている。具体的には、特徴変化位置を表す情報が、記憶部203に予め記録されている。
そして、本実施例では、スコア算出部204は、特徴変化位置における検出特徴(特徴検出部202で検出された特徴)の変化の大きさに基づいて、スコアを算出する。
このような構成にすることにより、楽曲の提供者の意図により適したスコアを得ることができる。
なお、本実施例で使用される顔の特徴は特に限定されない。本実施例では、例えば、顔の特徴として、顔器官の動きの大きさを使用することができる。顔器官の動きの大きさは、例えば、図13に示すような特徴点の位置の変化に基づいて検出することができる。具体的には、図13の特徴点301と特徴点302の間の距離の変化(変動)の大きさを、口の動きの大きさとして検出することができる。
(採点装置の動作)
本実施例に係る採点装置100の動作の流れの一例について、図11のフローチャートを用いて説明する。図11のフローチャートは、歌唱者が楽曲の歌唱を開始することをトリガとして開始される。具体的には、図11のフローチャートは、歌唱者が歌唱する楽曲が再生されることをトリガとして開始される。
図11に示すように、採点の開始から採点の終了までの期間(採点期間)において、Nフレーム毎(所定時間毎)に、S501〜S504の処理が行われる。
S501では、画像取得部201が、撮影画像データを取得する。その後、S502に処理が進められる。
S502では、特徴検出部202が、S501で取得された撮影画像データから、歌唱者の顔の特徴を検出する。その後、S503に処理が進められる。
S503では、特徴検出部202が、現在の歌唱対象の時間位置(楽曲の時間位置)が特徴変化位置であるか否かを判定する。現在の歌唱対象の時間位置が特徴変化位置である場合には、S504に処理が進められる。現在の歌唱対象の時間位置が特徴変化位置でない場合には、S504の処理は行われない。
S504では、特徴検出部202が、S502で検出された特徴(現特徴)と、過去に検出された特徴(過去特徴)と、に基づいて、顔の特徴の変化の大きさ(特徴変化量)を算出する。例えば、過去特徴は現特徴の1つ前に検出された特徴であり、過去特徴と現特徴の差(絶対値)が特徴変化量として算出される。
なお、過去特徴は、現特徴の1つ前に検出された特徴に限らない。過去特徴は、現特徴よりも時間的に前に検出された特徴であればよい。複数の過去特徴が使用され、過去特徴と現特徴の差(絶対値)の代表値が特徴変化量として算出されてもよい。
なお、S503とS504の処理は、スコア算出部204によって行われてもよい。
採点期間の終了後、S505に処理が進められる。
S505では、スコア算出部204が、S504で算出された特徴変化量に基づいて、スコアを算出する。本実施例では、特徴変化量として、0以上100以下の値に正規化された値が算出される。そして、算出された複数の特徴変化量の平均値が、スコア(全体スコア)として算出される。特徴変化位置の数が1つである場合には、S504で算出された特徴変化量がスコア(全体スコア)として算出(設定)される。
なお、スコアの算出方法は上記方法に限らない。例えば、複数の特徴変化量の他の代表値(最大値、最小値、最頻値、中間値、等)がスコアとして算出されてもよい。
なお、本実施例と実施例2とを組み合わせてもよい。具体的には、フレーズ毎に、そのフレーズに対して算出された特徴変化量に基づいて、当該フレーズの部分スコアが算出されてもよい。
次に、カラオケ装置102が、S505で算出されたスコアを表すスコア画像データを、表示装置103に出力する(S506)。それにより、S505で算出されたスコアを表すスコア画像が、表示装置103の画面に表示される。
なお、図3のS106の処理と同様に、S506の処理は採点装置100が行ってもよい。
(採点装置の動作の具体例)
本実施例に係る採点装置100の動作の具体例について、図12を用いて説明する。
図12の例では、楽曲の採点期間内に、2つの特徴変化位置が予め定められている。そして、図12の例では、歌唱者の顔の特徴が合計6回検出されている。
1回目では、歌唱対象の時間位置が特徴変化位置でないため、図11のS504の処理は行われない。即ち、1回目では、特徴変化量は算出されない。図12において、「−」は、特徴変化量が算出されていないことを示す。
2回目では、歌唱対象の時間位置が特徴変化位置であるため、図11のS504において、特徴変化量が算出される。図12の例では、歌唱者の表情が真剣な表情から楽しい表情に変化しており、特徴変化量として40が算出されている。
3回目及び4回目では、歌唱対象の時間位置が特徴変化位置でないため、図11のS504の処理は行われない。
5回目では、歌唱対象の時間位置が特徴変化位置であるため、図11のS504において、特徴変化量が算出される。図12の例では、歌唱者の表情が悲しい表情から楽しい表情に変化しており、特徴変化量として80が算出されている。
6回目では、歌唱対象の時間位置が特徴変化位置でないため、図11のS504の処理は行われない。
図12の例では、特徴変化位置の総数は2である。そのため、スコアとして、60点(=(40+80)÷2)が得られる。
以上述べたように、本実施例によれば、歌唱者の歌唱行為に対するスコアの算出基準の1つとして、従来考慮されていなかった歌唱者の顔の特徴が考慮される。これにより、歌唱者に、歌い方をより工夫させることができ、歌唱行為をより楽しませることができる。
<その他の実施例>
記憶装置に記録されたプログラムを読み込み実行することで前述した実施例の機能を実現するシステムや装置のコンピュータ(又はCPU、MPU等のデバイス)によっても、本発明を実施することができる。また、例えば、記憶装置に記録されたプログラムを読み込み実行することで前述した実施例の機能を実現するシステムや装置のコンピュータによって実行されるステップからなる方法によっても、本発明を実施することができる。この目的のために、上記プログラムは、例えば、ネットワークを通じて、又は、上記記憶装置となり得る様々なタイプの記録媒体(つまり、非一時的にデータを保持するコンピュータ読取可能な記録媒体)から、上記コンピュータに提供される。したがって、上記コンピュータ(CPU、MPU等のデバイスを含む)、上記方法、上記プログラム(プログラムコード、プログラムプロダクトを含む)、上記プログラムを非一時的に保持するコンピュータ読取可能な記録媒体は、いずれも本発明の範疇に含まれる。
100 採点装置
101 撮影装置
102 カラオケ装置
103 表示装置
104 スピーカー
105 マイクロフォン
201 画像取得部
202 特徴検出部
203 記憶部
204 スコア算出部

Claims (11)

  1. 歌唱者を撮影した画像データを取得する取得手段と、
    前記取得手段で取得された画像データから、前記歌唱者の顔の特徴として、歌唱中の表情又は顔の動きに関わる特徴を検出する検出手段と、
    前記検出手段で検出された特徴に基づいて、前記歌唱者の歌唱行為に対するスコアを算出する算出手段と、
    を有することを特徴とする採点装置。
  2. 前記画像データは動画像の画像データであり、
    前記検出手段は、前記動画像のNフレーム(Nは1以上の整数)毎に、前記歌唱者の顔の特徴を検出し、
    前記算出手段は、前記Nフレーム毎の特徴に基づいて前記スコアを算出する
    ことを特徴とする請求項1に記載の採点装置。
  3. 前記歌唱者が歌唱する楽曲に対して、目標の特徴が予め定められており、
    前記算出手段は、前記検出手段で検出された特徴を前記目標の特徴と比較し、その比較結果に基づいて前記スコアを算出する
    ことを特徴とする請求項1または2に記載の採点装置。
  4. 前記歌唱者が歌唱する楽曲に対して、目標の特徴として、目標の表情が予め定められており、
    前記検出手段は、前記楽曲の少なくとも一部の期間である採点期間における前記歌唱者の表情を検出し、
    前記算出手段は、前記採点期間のうち前記目標の表情と一致する表情が検出された期間の長さの総和が大きいほど高い値を、前記スコアとして、算出する
    ことを特徴とする請求項1〜3のいずれか1項に記載の採点装置。
  5. 前記目標の特徴は、画像データから抽出される特徴ベクトルであり、
    前記検出手段は、前記取得手段で取得された画像データから、前記歌唱者の顔の特徴ベクトルを抽出し、
    前記算出手段は、前記検出手段で抽出された特徴ベクトルと、目標の特徴ベクトルと、の類似度を算出し、算出した類似度に基づいて前記スコアを算出する
    ことを特徴とする請求項3〜4のいずれか1項に記載の採点装置。
  6. 前記歌唱者が歌唱する楽曲に対して、目標の特徴として、目標の表情が予め定められており、
    前記検出手段は、予め定められた複数の表情のそれぞれについて、その表情と前記歌唱者の表情との類似度を算出し、
    前記算出手段は、前記目標の表情に対応する類似度に基づいて、前記スコアを算出することを特徴とする請求項1または2に記載の採点装置。
  7. 前記歌唱者が歌唱する楽曲のフレーズ毎に、目標の特徴が予め定められている
    ことを特徴とする請求項3〜6のいずれか1項に記載の採点装置。
  8. 前記歌唱者が歌唱する楽曲に対して、顔の特徴を変化させて歌唱すべき時間位置である特徴変化位置が予め定められており、
    前記算出手段は、前記特徴変化位置における前記検出手段で検出された特徴の変化の大きさに基づいて、前記スコアを算出する
    ことを特徴とする請求項1に記載の採点装置。
  9. 前記算出手段は、前記歌唱者が歌唱する楽曲のフレーズ毎に、そのフレーズを前記歌唱者が歌唱しているときの前記歌唱者の顔の特徴に基づいて、当該フレームを前記歌唱者が歌唱する歌唱行為に対するスコアである部分スコアを算出する
    ことを特徴とする請求項1〜8のいずれか1項に記載の採点装置。
  10. 歌唱者を撮影した画像データを取得する取得ステップと、
    前記取得ステップで取得された画像データから、前記歌唱者の顔の特徴を検出する検出ステップと、
    前記検出ステップで検出された特徴に基づいて、前記歌唱者の歌唱行為に対するスコアを算出する算出ステップと、
    を有することを特徴とする採点方法。
  11. 請求項11に記載の採点方法の各ステップをコンピュータに実行させるプログラム。
JP2014181115A 2014-09-05 2014-09-05 採点装置及び採点方法 Active JP6428066B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014181115A JP6428066B2 (ja) 2014-09-05 2014-09-05 採点装置及び採点方法
EP15179963.2A EP2993615B1 (en) 2014-09-05 2015-08-06 Scoring device and scoring method
CN201510486479.9A CN105405436B (zh) 2014-09-05 2015-08-10 评分装置以及评分方法
US14/833,941 US9892652B2 (en) 2014-09-05 2015-08-24 Scoring device and scoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014181115A JP6428066B2 (ja) 2014-09-05 2014-09-05 採点装置及び採点方法

Publications (2)

Publication Number Publication Date
JP2016057337A true JP2016057337A (ja) 2016-04-21
JP6428066B2 JP6428066B2 (ja) 2018-11-28

Family

ID=53871877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014181115A Active JP6428066B2 (ja) 2014-09-05 2014-09-05 採点装置及び採点方法

Country Status (4)

Country Link
US (1) US9892652B2 (ja)
EP (1) EP2993615B1 (ja)
JP (1) JP6428066B2 (ja)
CN (1) CN105405436B (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016188978A (ja) * 2015-03-30 2016-11-04 ブラザー工業株式会社 カラオケ装置、プログラム
JP2016191794A (ja) * 2015-03-31 2016-11-10 ブラザー工業株式会社 カラオケ装置、プログラム
JP2017058526A (ja) * 2015-09-16 2017-03-23 株式会社エクシング カラオケ装置及びカラオケ用プログラム
KR20190096576A (ko) * 2018-02-09 2019-08-20 태그하이브 주식회사 숏클립 비디오를 제작 및 공유할 수 있도록 하는 완구 sns
JP2019532431A (ja) * 2016-10-14 2019-11-07 富士通株式会社 車両の逆行の検出装置、検出方法及び電子機器
CN110992741A (zh) * 2019-11-15 2020-04-10 深圳算子科技有限公司 一种基于课堂情绪和行为分析的学习辅助方法及系统
JP2021005028A (ja) * 2019-06-27 2021-01-14 株式会社第一興商 カラオケ装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107368491B (zh) * 2016-05-12 2023-07-25 富泰华工业(深圳)有限公司 影像制作系统及方法
CN106851093A (zh) * 2016-12-30 2017-06-13 中南大学 一种微笑评分方法及其系统
CN108960800A (zh) * 2017-05-20 2018-12-07 高春花 一种基于通讯群的支付方案多样化产生方法
CN109872026A (zh) * 2018-12-14 2019-06-11 深圳壹账通智能科技有限公司 评测结果生成方法、装置、设备及计算机可读存储介质
CN109887524A (zh) * 2019-01-17 2019-06-14 深圳壹账通智能科技有限公司 一种演唱评分方法、装置、计算机设备及存储介质
CN109886110A (zh) * 2019-01-17 2019-06-14 深圳壹账通智能科技有限公司 微表情评分方法、装置、计算机设备及存储介质
CN111199210B (zh) * 2019-12-31 2023-05-30 武汉星巡智能科技有限公司 基于表情的视频生成方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212582A (ja) * 1998-01-27 1999-08-06 Daiichikosho Co Ltd 振り付け採点機能を有するカラオケ装置
JP2000029483A (ja) * 1998-07-15 2000-01-28 Ricoh Co Ltd カラオケ装置
JP2008170685A (ja) * 2007-01-11 2008-07-24 Yamaha Corp 音声評価装置及びカラオケ装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006126300A (ja) * 2004-10-26 2006-05-18 Yamaha Corp カラオケ装置
JP4799104B2 (ja) * 2005-09-26 2011-10-26 キヤノン株式会社 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
JP4197019B2 (ja) * 2006-08-02 2008-12-17 ソニー株式会社 撮像装置および表情評価装置
JP5219184B2 (ja) * 2007-04-24 2013-06-26 任天堂株式会社 トレーニングプログラム、トレーニング装置、トレーニングシステムおよびトレーニング方法
JP4865631B2 (ja) * 2007-05-11 2012-02-01 オリンパス株式会社 撮像装置
JP2009288446A (ja) 2008-05-28 2009-12-10 Nippon Telegr & Teleph Corp <Ntt> カラオケ映像編集装置及び方法及びプログラム
JP4900739B2 (ja) * 2009-09-04 2012-03-21 カシオ計算機株式会社 電子写真立て、その制御方法及びプログラム
JP5958041B2 (ja) * 2012-04-18 2016-07-27 ヤマハ株式会社 表情演奏リファレンスデータ生成装置、演奏評価装置、カラオケ装置及び装置
WO2014162788A1 (ja) * 2013-04-02 2014-10-09 Necソリューションイノベータ株式会社 顔表情採点装置、ダンス採点装置、カラオケ装置、およびゲーム装置
JP6244643B2 (ja) * 2013-04-15 2017-12-13 オムロン株式会社 表情推定装置、制御方法、制御プログラム、および記録媒体
WO2014194488A1 (en) * 2013-06-05 2014-12-11 Intel Corporation Karaoke avatar animation based on facial motion data
WO2015064144A1 (ja) * 2013-10-30 2015-05-07 オリンパスイメージング株式会社 撮像装置、撮像方法およびプログラム
US9875393B2 (en) * 2014-02-12 2018-01-23 Nec Corporation Information processing apparatus, information processing method, and program
US9690817B2 (en) * 2015-09-01 2017-06-27 International Business Machines Corporation Song selection using a heart rate change and a facial expression monitored with a camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212582A (ja) * 1998-01-27 1999-08-06 Daiichikosho Co Ltd 振り付け採点機能を有するカラオケ装置
JP2000029483A (ja) * 1998-07-15 2000-01-28 Ricoh Co Ltd カラオケ装置
JP2008170685A (ja) * 2007-01-11 2008-07-24 Yamaha Corp 音声評価装置及びカラオケ装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016188978A (ja) * 2015-03-30 2016-11-04 ブラザー工業株式会社 カラオケ装置、プログラム
JP2016191794A (ja) * 2015-03-31 2016-11-10 ブラザー工業株式会社 カラオケ装置、プログラム
JP2017058526A (ja) * 2015-09-16 2017-03-23 株式会社エクシング カラオケ装置及びカラオケ用プログラム
JP2019532431A (ja) * 2016-10-14 2019-11-07 富士通株式会社 車両の逆行の検出装置、検出方法及び電子機器
KR20190096576A (ko) * 2018-02-09 2019-08-20 태그하이브 주식회사 숏클립 비디오를 제작 및 공유할 수 있도록 하는 완구 sns
KR102038938B1 (ko) 2018-02-09 2019-10-31 태그하이브 주식회사 숏클립 비디오를 제작 및 공유할 수 있도록 하는 완구 sns
JP2021005028A (ja) * 2019-06-27 2021-01-14 株式会社第一興商 カラオケ装置
JP7223650B2 (ja) 2019-06-27 2023-02-16 株式会社第一興商 カラオケ装置
CN110992741A (zh) * 2019-11-15 2020-04-10 深圳算子科技有限公司 一种基于课堂情绪和行为分析的学习辅助方法及系统

Also Published As

Publication number Publication date
JP6428066B2 (ja) 2018-11-28
CN105405436B (zh) 2019-04-12
EP2993615B1 (en) 2017-10-11
EP2993615A1 (en) 2016-03-09
US20160071428A1 (en) 2016-03-10
CN105405436A (zh) 2016-03-16
US9892652B2 (en) 2018-02-13

Similar Documents

Publication Publication Date Title
JP6428066B2 (ja) 採点装置及び採点方法
JP6137935B2 (ja) 身体動作評価装置、カラオケシステム、及びプログラム
JP6539941B2 (ja) 評価プログラム、評価方法及び評価装置
JP5178607B2 (ja) プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置
CN113077537B (zh) 一种视频生成方法、存储介质及设备
US10534955B2 (en) Facial capture analysis and training system
JP2011186521A (ja) 感情推定装置および感情推定方法
Theobald et al. Near-videorealistic synthetic talking faces: Implementation and evaluation
JP5803172B2 (ja) 評価装置
JP2021118539A (ja) コンピュータプログラム、方法及びサーバ装置
JP2012047998A (ja) 発話学習支援装置およびそのプログラム
CN115529500A (zh) 动态影像的生成方法和装置
CN116091660A (zh) 一种虚拟表情的生成方法及装置
JP2017146584A (ja) 吹奏楽器の練習支援装置及び練習支援方法
JP7223650B2 (ja) カラオケ装置
Terissi et al. Animation of generic 3D head models driven by speech
CN114928755A (zh) 一种视频制作方法、电子设备及计算机可读存储介质
CN116974372A (zh) 一种唱歌实现方法、装置、ar显示设备及存储介质
JP4580812B2 (ja) 映像生成方法、スタンドアロン型映像再生装置及びネットワーク配信型映像再生システム
CN115550744B (zh) 一种语音生成视频的方法和装置
JP7129724B2 (ja) オンラインショー演出システムおよびそのプログラム、並びに笑い解析装置、笑い解析方法およびそのプログラム
WO2023236054A1 (zh) 一种生成音频的方法、装置及存储介质
WO2023162159A1 (ja) 動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体
JP2012203071A (ja) カラオケ装置
JP6472216B2 (ja) カラオケ連携システム、デジタルサイネージ、およびその広告選択方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181015

R150 Certificate of patent or registration of utility model

Ref document number: 6428066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150