JP7105380B2 - 情報処理システム及び方法 - Google Patents

情報処理システム及び方法 Download PDF

Info

Publication number
JP7105380B2
JP7105380B2 JP2021551172A JP2021551172A JP7105380B2 JP 7105380 B2 JP7105380 B2 JP 7105380B2 JP 2021551172 A JP2021551172 A JP 2021551172A JP 2021551172 A JP2021551172 A JP 2021551172A JP 7105380 B2 JP7105380 B2 JP 7105380B2
Authority
JP
Japan
Prior art keywords
information processing
heat map
performer
image
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021551172A
Other languages
English (en)
Other versions
JPWO2021065694A5 (ja
JPWO2021065694A1 (ja
Inventor
大輔 林
研司 牧野
昌弘 寺田
俊太 江郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2021065694A1 publication Critical patent/JPWO2021065694A1/ja
Publication of JPWO2021065694A5 publication Critical patent/JPWO2021065694A5/ja
Application granted granted Critical
Publication of JP7105380B2 publication Critical patent/JP7105380B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Processing (AREA)

Description

本発明は、情報処理システム及び方法に関する。
特許文献1には、コンサート等の動画をリアルタイムで配信するサービスにおいて、動画を視聴しているユーザーの盛り上がり度をヒートマップにより可視化して、会場の演者等に提示する技術が記載されている。
特許文献2には、音声及び/又は映像として記録された会議データから会議の盛り上がり度を算出する技術が記載されている。
国際公開第2016/009865号 特開2016-12216号公報
本開示の技術に係る1つの実施形態は、規定のエリア内の人物の状況を容易に把握できる情報処理システム及び方法を提供する。
(1)パフォーマーを撮影する第1撮影部と、規定のエリア内の人物を撮影する第2撮影部と、第1撮影部で撮影された画像に基づいて、シーンを認識する第1認識部と、第2撮影部で撮影された画像に基づいて、人物の表情を認識する第2認識部と、シーンの認識結果及び人物の表情の認識結果に基づいて、シーンに応じた人物の状況指数を算出する算出部と、人物の状況指数をエリア内での人物の位置に対応づけて表わしたヒートマップを作成するヒートマップ作成部と、ヒートマップを出力する出力部と、を備えた情報処理システム。
(2)パフォーマーが有する発信力に基づいて、クラスタ数を設定する設定部と、設定されたクラスタ数に応じて、ヒートマップをクラスタリングするクラスタリング部と、を更に備え、出力部は、クラスタリングされたヒートマップを出力する、(1)の情報処理システム。
(3)クラスタリング部は、状況指数が閾値以上の人物のデータを対象にヒートマップをクラスタリングする、(2)の情報処理システム。
(4)第1撮影部で撮影された画像に基づいて、パフォーマーが有する発信力を推定する推定部を更に備えた、(2)又は(3)の情報処理システム。
(5)発信力には、パフォーマーが有する技量及び余力の少なくとも一方が含まれる、(2)から(4)のいずれか一の情報処理システム。
(6)ヒートマップの画像を第2撮影部とは異なる視点の画像に変換する変換処理部を更に備えた、(1)から(5)のいずれか一の情報処理システム。
(7)ヒートマップの色又は濃淡を反転させる反転処理部を更に備えた、(1)から(6)のいずれか一の情報処理システム。
(8)出力部から出力されたヒートマップを表示する表示部を更に備えた、(1)から(7)のいずれか一の情報処理システム。
(9)出力部から出力されたヒートマップをエリアに投影する投影部を更に備えた、(1)から(7)のいずれか一の情報処理システム。
(10)投影部は、プロジェクションマッピングによりヒートマップをエリアに投影する、(9)の情報処理システム。
(11)パフォーマーを撮影するステップと、規定のエリア内の人物を撮影するステップと、パフォーマーを撮影した画像に基づいて、シーンを認識するステップと、エリア内の人物を撮影した画像に基づいて、人物の表情を認識するステップと、シーンの認識結果及び人物の表情の認識結果に基づいて、シーンに応じた人物の状況指数を算出するステップと、人物の状況指数をエリア内での人物の位置に対応づけて表わしたヒートマップを作成するステップと、ヒートマップを出力するステップと、を含む情報処理方法。
(12)パフォーマーが有する発信力の情報に基づいて、クラスタ数を設定するステップと、設定されたクラスタ数に応じて、ヒートマップをクラスタリングするステップと、を更に含み、ヒートマップを出力するステップでは、クラスタリングされたヒートマップを出力する、(11)の情報処理方法。
情報処理システムの概略構成を示す図 情報処理装置のハードウェア構成の一例を示すブロック図 情報処理装置が実現する機能のブロック図 顔検出部による顔の検出の概念図 表情認識部による顔の表情の認識の概念図 表情認識の結果の一例を示す図 盛り上がり度とヒートマップ上での表示との関係を示す図 観客撮影装置によって撮影される画像の一例を示す図 作成されるヒートマップの一例を示す図 ヒートマップと観客との位置関係を示す図 情報処理の手順を示すフローチャート 情報処理装置が実現する機能のブロック図 クラスタリング処理の概念図 クラスタリング処理の概念図 クラスタリング処理の概念図 情報処理の手順を示すフローチャート クラスタリング処理によるヒートマップの変化の概念図 情報処理装置が実現する機能のブロック図 情報処理装置が実現する機能のブロック図 情報処理装置が実現する機能のブロック図 ヒートマップの画像の変換の一例を示す図 情報処理装置が実現する機能のブロック図 ヒートマップの画像の反転処理の一例を示す図 情報処理システムの概略構成を示す図
以下、添付図面に従って本発明の好ましい実施の形態について詳説する。
[第1の実施の形態]
大人数の観客を相手にパフォーマンスを行うパフォーマーは、観客の状況を確認しながら、自身が行うパフォーマンスの内容をコントロールする。パフォーマーの観客の状況を把握する能力は、経験に拠るところが大きい。また、経験豊富なパフォーマーであっても、観客の数が増えすぎると、全体を的確に把握することが困難になる。本実施の形態では、観客の状況を容易に把握できる情報処理システム及び方法を提供する。
[システム構成]
図1は、本実施の形態の情報処理システムの概略構成を示す図である。
同図に示すように、本実施の形態の情報処理システム10は、パフォーマー撮影装置100、観客撮影装置200、情報処理装置300及び表示装置400等を備えて構成される。
[パフォーマー撮影装置]
パフォーマー撮影装置100は、パフォーマー1を撮影する。パフォーマー1とは、パフォーマンスをする人物である。なお、ここでのパフォーマンスには、歌唱、演技及び演奏等の芸術的な表現行為に限定されず、広く演説及び講演等の行為も含まれる。すなわち、観客に対して、何らかの表現行為を行うことを意味する。
パフォーマー撮影装置100は、第1撮影部の一例である。パフォーマー撮影装置100は、少なくとも1台のカメラで構成される。カメラは、いわゆるビデオカメラ(動画撮影機能(時系列の画像を撮像する機能)を備えたデジタルスチルカメラ等をむ)で構成され、あらかじめ定められたフレームレートでパフォーマーを連続的に撮影する。
パフォーマー撮影装置100で撮影された画像は、シーンを認識するのに使用される。すなわち、パフォーマー1が行っているパフォーマンスが、どのようなものか、シーン認識するのに使用される。したがって、パフォーマー撮影装置100は、その用途に適うように構成され、かつ、設置される。シーン認識をするのに必要な画像の要件は、パフォーマンスの内容、規模等に応じて異なる。したがって、パフォーマー撮影装置100を構成するカメラは、パフォーマンスの内容、規模等に応じて適宜選択され、かつ、最適な位置に設置される。
[観客撮影装置]
観客撮影装置200は、観客2を撮影する。観客撮影装置200は、一定位置から観客2の存在する観客エリア3を撮影して、観客を撮影する。観客2は、パフォーマー1によるパフォーマンスを見物(観覧、視聴、聴講等)する人物である。観客2の存在する観客エリア3は、規定のエリアの一例である。観客2は、規定のエリア内の人物の一例である。
観客撮影装置200は、第2撮影部の一例である。観客撮影装置200は、少なくとも1台のカメラで構成される。観客エリア3を1台のカメラで撮影できない場合は、複数台のカメラによって、観客撮影装置200が構成される。この場合、観客エリア3を複数のエリアに分割し、複数台のカメラで各エリアを分担して撮影する。なお、同一エリアを複数台のカメラで撮影する構成とすることもできる。たとえば、同一エリアの観客2を複数台のカメラによって異なる方向から撮影する構成とすることができる。カメラは、いわゆるビデオカメラで構成され、対象とするエリア内の観客2を連続的に撮影する。撮影は、パフォーマー撮影装置100と同じフレームレートで行われ、かつ、同期して行われる。この場合の同期は、フレーム単位の完全同期を意味するものではない。
観客撮影装置200で撮影された画像は、観客の表情を認識するのに使用される。したがって、観客撮影装置200を構成するカメラは、撮影対象とするエリア内の観客2の顔を撮影できる位置に設置され、かつ、撮影した画像から観客の表情を認識できる性能をもって構成される。すなわち、撮影した画像から観客の表情を認識するのに必要かつ十分な解像性能が備えられる。
[情報処理装置]
情報処理装置300は、パフォーマー撮影装置100で撮影されたパフォーマーの画像及び観客撮影装置200で撮影された観客の画像を入力し、観客2の盛り上がり状況を表わすヒートマップを作成して、表示装置400に出力する。
図2は、情報処理装置のハードウェア構成の一例を示すブロック図である。
情報処理装置300は、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303、HDD(Hard Disk Drive)304、操作部(たとえば、キーボード、マウス、タッチパネル等)305、表示部(たとえば、液晶ディスプレイ等)306、入力インターフェース(interface,I/F)307及び出力インターフェース308等を備えたコンピュータで構成される。パフォーマー撮影装置100で撮影されたパフォーマーの画像データ及び観客撮影装置200で撮影された観客の画像データは、入力インターフェース307を介して、情報処理装置300に入力される。情報処理装置300で作成されたヒートマップは、出力インターフェース308を介して、表示装置400に出力される。
図3は、情報処理装置が実現する機能のブロック図である。
同図に示すように、情報処理装置300は、第1画像入力部311、第2画像入力部312、シーン認識部313、顔検出部314、表情認識部315、盛り上がり度算出部316、ヒートマップ作成部317及びヒートマップ出力部318の機能を有する。各機能は、プロセッサであるCPUが、所定のプログラムを実行することにより実現される。
第1画像入力部311は、パフォーマー撮影装置100で撮影された画像の入力を受け付ける。パフォーマー撮影装置100で撮影された画像は、パフォーマー1を撮影した画像である。パフォーマー撮影装置100で撮影された画像は、入力インターフェース307を介して、情報処理装置300に入力される。
第2画像入力部312は、観客撮影装置200で撮影された画像の入力を受け付ける。観客撮影装置200で撮影された画像は、観客エリア3を撮影した画像であり、観客2が撮影された画像である。観客撮影装置200で撮影された画像は、入力インターフェース307を介して、情報処理装置300に入力される。画像の入力は、第1画像入力部311と同期して行われる。
シーン認識部313は、第1認識部の一例である。シーン認識部313は、パフォーマー1を撮影した画像に基づいて、パフォーマー1が行っているパフォーマンスのシーンを認識する。シーン認識部313は、あらかじめ定められた類別の範囲内でシーンを認識する。たとえば、観客を笑わせるシーン、シリアスにさせるシーン、興奮させるシーン、そして、怒らせるシーン等、認識可能なシーンがあらかじめ定められ、その定められた範囲内でシーンを認識する。シーンの認識には、公知の技術を採用できる。たとえば、機械学習、深層学習等により生成した画像認識モデルを用いて、シーンを認識する手法を採用できる。シーンの認識は、あらかじめ定められた時間間隔で行われる。たとえば、入力される画像のフレームの時間間隔である。
顔検出部314は、観客2を撮影した画像から観客2の顔を検出する。図4は、顔検出部による顔の検出の概念図である。顔検出部314は、観客2を撮影した画像I2から個々の観客2の顔を検出し、かつ、検出した個々の顔の位置を特定する。顔の検出には、公知の技術を採用できる。顔の位置は、画像内での座標位置(x、y)で特定される。具体的には、検出した顔を囲う枠Fの場合は、中心の座標位置(x、y)で特定される。画像内での座標位置は、実際の観客の位置に対応する。顔の検出は、たとえば、画像の左上から右下に向かって順に走査することにより行われる。また、検出された顔は、検出順にナンバリングされる。顔の検出は、あらかじめ定められた時間間隔で行われる。たとえば、入力される画像のフレームの時間間隔である。
表情認識部315は、第2認識部の一例である。図5は、表情認識部による顔の表情の認識の概念図である。表情認識部315は、顔検出部314で検出した観客2の顔の画像IFに基づいて、観客2の顔の表情を認識する。表情の認識とは、表情の種類を判別することをいう。表情の種類は、感情を示す語によって表される。したがって、表情の認識とは、表情の種類を、感情を示す語によって特定することをいう。表情の特定は、単一の感情を示す語による特定でもよいし、感情を示す語の組み合わせによる特定でもよい。感情を示す語を組み合わせる場合、各感情を示す語が重み付けされていてもよい。本実施形態では、顔の表情を「笑い」、「怒り」、「悲しみ」の3種類に分類する。表情認識結果としては、各表情それぞれの度合い(表情らしさともいう)を数値化したスコア(表情スコア)が出力される。表情スコアは、たとえば、最大値を100として出力される。なお、表情スコアは、各表情のそれぞれの度合いの合計が、100となるように出力してもよい。
表情の認識には、公知の技術を採用できる。たとえば、シーンの認識と同様に、機械学習、深層学習等により生成した画像認識モデルを用いて、表情を認識する手法を採用できる。
図6は、表情認識の結果の一例を示す図である。同図に示すように、表情認識部315で表情認識を行うことにより、観客ごとに表情スコアが求まる。なお、各観客の位置は、顔検出部314で画像内の座標位置によって特定される。
盛り上がり度算出部316は、シーン認識部313及び表情認識部315の認識結果に基づいて、シーンに応じた各観客の盛り上がり度を算出する。盛り上がり度算出部316は、算出部の一例である。盛り上がり度は、各観客の盛り上がりの度合(盛り上がりの程度)を数値で示すものである。盛り上がり度は、状況指数の一例である。盛り上がり度は、あらかじめ定められた演算式を用いて、表情スコアから算出する。演算式Fnは、たとえば、笑いの表情スコアをS1、怒りの表情スコアをS2、悲しみの表情スコアをS3とした場合、Fn=a×S1+b×S3+c×S4で定義される。a、b、cは、シーンごとに定められる係数(重み)であり、aは笑いの表情に対する係数、bは怒りの表情に対する係数、cは悲しみの表情に対する係数である。たとえば、あるシーンについて定められる笑い、怒り、悲しみの各係数a、b、cが、a=0.9、b=0.05、c=0.05であるとする。また、ある観客の表情スコアが、笑い:100、怒り:20、悲しみ:10であるとする。この場合、当該シーンにおける、当該観客の盛り上がり度は、上記演算式を用いて、Fn=0.9×S1+0.05×S3+0.05×S4=0.9×100+0.05×20+0.05×10=91.5となる。また、ある観客の表情スコアが、笑い:30、怒り:20、悲しみ:20であるとする。この場合、当該シーンにおける、当該観客の盛り上がり度は、上記演算式を用いて、Fn=0.9×30+0.05×20+0.05×20=29となる。係数a、b、cの情報は、シーンごとにROM302、RAM303又はHDD304に記憶される。
ヒートマップ作成部317は、盛り上がり度算出部316で算出された各観客の盛り上がり度の情報に基づいて、ヒートマップを作成する。ヒートマップは、各観客の盛り上がり度を各観客の位置に対応付けて表わすことにより作成される。盛り上がり度は、色又は濃淡で表わされる。
図7は、盛り上がり度とヒートマップ上での表示との関係を示す図である。同図は、盛り上がり度を濃淡で表現する場合の例を示している。算出可能な範囲内で、盛り上がり度が複数の区分に区分けされる。区分けされた区分ごとに表示する濃度が定められる。同図は、盛り上がり度が1から100の数値で算出される場合の例を示しており、かつ、10区分に分けて表示する場合の例を示している。また、盛り上がり度が高くなるに従って表示される濃度が高くなる場合の例を示している。
ここで、ヒートマップ作成部317で作成されるヒートマップの一例について説明する。ここでは、あるパフォーマーが、あるイベント会場で多数の観客を前にして、パフォーマンスを行っている場合を考える。たとえば、一人の歌手が、コンサート会場で歌を披露している場合である。
図8は、観客撮影装置によって撮影される画像の一例を示す図である。
同図において、符号2は観客、符号3は観客エリアである。観客2は、観客エリア3に備えられた観客席で、パフォーマーが行うパフォーマンスを観賞する。
図9は、作成されるヒートマップの一例を示す図である。また、図10は、ヒートマップと観客との位置関係を示す図である。
同図に示すように、ヒートマップHMは、色又は特定の色の濃淡を用いて、各観客2の盛り上がり度を各観客2の位置に対応付けて表わすことにより作成される。各観客2の盛り上がり度をヒートマップHMで表わすことにより、会場全体の盛り上がり度を視覚的に表現できる。これにより、観客2の状態を容易に把握できる。
ヒートマップ出力部318は、出力部の一例である。ヒートマップ出力部318は、ヒートマップ作成部317で作成されたヒートマップHMを表示装置400に出力する。
[表示装置]
表示装置400は、表示部の一例である。表示装置400は、情報処理装置300から出力されるヒートマップを表示する。表示装置400は、たとえば、液晶ディスプレイ(Liquid Crystal Display)、プラズマディスプレイ、有機ELディスプレイ(Organic ElectroLuminescence display, Organic Light Emitting Diode display)、電界放出ディスプレイ(Field Emission Display)、電子ペーパなどのフラットパネルディスプレイ、若しくは、プロジェクタとスクリーン(あるいはスクリーン同等物)で構成される。表示装置400は、パフォーマー1が視認可能な位置に設置される。
[作用]
図11は、本実施の形態の情報処理システムによる情報処理の手順(情報処理方法)を示すフローチャートである。
まず、パフォーマー撮影装置100によってパフォーマー1が撮影される(ステップS11)。これと平行して、観客撮影装置200によって、観客エリア3が撮影され、観客エリア3内の観客2が撮影される(ステップS13)。
次に、パフォーマー撮影装置100によって撮影されたパフォーマー1の画像からパフォーマー1が行っているパフォーマンスのシーンが認識される(ステップS12)。また、観客撮影装置200によって撮影された観客エリア3の画像から各観客2の顔が検出され(ステップS14)、検出された顔の表情が認識される(ステップS15)。
次に、シーンの認識結果及び表情の認識結果に基づいて、シーンに応じた各観客2の盛り上がり度が算出される(ステップS16)。すなわち、シーン及び表情に応じた変換式を用いて、各観客2の表情スコアが盛り上がり度に変換され、各観客2の盛り上がり度が求められる。
次に、求めた各観客2の盛り上がり度の情報に基づいて、ヒートマップが作成される(ステップS17)。ヒートマップは、各観客2が有する盛り上がり度を各観客2の位置に対応付けて表わすことにより作成される(図9参照)。
次に、作成されたヒートマップが表示装置400に出力され、画面上に表示される(ステップS18)。パフォーマー1は、この表示装置400に表示されたヒートマップを視認することにより、観客エリア3における観客の盛り上がり状況を把握できる。これにより、行うべきパフォーマンスの内容を容易に決定できる。すなわち、たとえば盛り上がりにムラがある場合は、会場全体でムラがなくなるようにパフォーマンスを行う。また、盛り上がりが低い場合は、盛り上げるようにパフォーマンス内容を変更する。このように、ヒートマップからパフォーマンスの内容を容易にコントロールすることが可能になる。
[第2の実施の形態]
本実施の形態の情報処理システムでは、クラスタリングしたヒートマップを出力する。クラスタリングしたヒートマップを出力する点以外は、上記第1の実施の形態の情報処理システムと同じである。したがって、以下においては、クラスタリングについてのみ説明する。
図12は、本実施の形態の情報処理装置が実現する機能のブロック図である。
同図に示すように、本実施の形態の情報処理装置300は、発信力推定部321、クラスタ数設定部322及びクラスタリング部323を更に備える。
発信力推定部321は、パフォーマー撮影装置100(第1撮影部)で撮影されたパフォーマーの画像に基づいて、パフォーマーが有する発信力を推定する。本明細書において、「発信力」とは、盛り上げに関する能力を意味する。発信力は、パフォーマーが有する技量及び余力等で定義される。本実施の形態では、パフォーマーが有する余力で発信力を定義し、パフォーマーの画像から余力を推定して、発信力を推定する。余力は、パフォーマーの疲労度から推定する。具体的には、パフォーマーの表情を認識し、その表情から疲労度を判定し、余力を推定する。画像から表情を認識する技術、及び、表情から疲労度を判定する技術には、公知の技術を採用できる。たとえば、機械学習、深層学習等により生成した画像認識モデルを用いて、表情の認識及び疲労度の判定を行うことができる。疲労度は、たとえば、数値で表わされ、その疲労度を示す数値から余力(発信力)が求められる。たとえば、所定の変換式を用いて、疲労度が余力(発信力)に変換される。この場合、疲労度が高いほど余力が低い数値に変換され、疲労度が低いほど余力が高い数値に変換される。発信力の推定処理は、あらかじめ定められた時間間隔で行われてもよい。
クラスタ数設定部322は、発信力推定部321で推定された発信力の情報に基づいて、クラスタリングする際のクラスタ数を設定する。設定するクラスタ数と、発信力との関係は、たとえば、テーブル等の形式で規定され、ROM302、RAM303又はHDD304に記憶される。クラスタ数設定部322は、テーブル等を参照して、発信力推定部321で推定された発信力からクラスタ数を決定(設定)する。
クラスタ数は、発信力が高くなるほど、多くなるように設定される。すなわち、盛り上げに関する余力を示す発信力が高くなるほど、クラスタ数が多くなるように設定される。このことは、余力がある程、パフォーマンスをコントロールする力を有していることを意味する。すなわち、盛り上がりにバラツキがある状況であっても、均一化する力を有していることを意味する。また、盛り上がりにかける状況であっても、盛り上げる力を有していることを意味する。
クラスタリング部323は、クラスタ数設定部322で設定されたクラスタ数に応じて、ヒートマップをクラスタリングする。具体的には、設定されたクラスタ数でヒートマップのデータをクラスタリングし、クラスタごとに色又は濃淡を分けて表示したヒートマップ(クラスタリングヒートマップ)を作成する。ヒートマップのデータとは、各観客の盛り上がり度を各観客の位置に対応付けて表わしたデータである。クラスタリングには、公知の手法を採用できる。たとえば、k-means法(k平均法)に基づくクラスタリング処理を採用できる。
図13から図15は、クラスタリング処理の概念図である。
図13は、ヒートマップのデータの一例を示す図である。同図において、各円は、エリア内の各観客の位置を表わしている。各観客の位置(円の位置)は、座標位置(x、y)で特定される。また、各円の中の数値は、各円の観客が有する盛り上がり度を示している。
まず、ヒートマップのデータから盛り上がり度が閾値未満の観客のデータを省く。盛り上がり度の閾値を100とした場合、盛り上がり度が100未満の観客のデータが省かれる。図14では、省く観客のデータを白抜きの円で、その他の観客のデータを灰色に塗った円で示している。
次に、盛り上がり度が閾値以上の観客のデータを対象に、設定されたクラスタ数でヒートマップのデータをクラスタリングする(クラスタリング処理)。具体的には、(x,y)座標の距離をk-means法の距離としてクラスタリングする。この場合、(x、y)座標の距離は、{(x_i-x)+(y_i-y)0.5で定義付けられる。
次に、それぞれのクラスタの盛り上がり度の平均を算出する。算出した盛り上がり度の平均値に応じて、クラスタごとに色又は濃淡を分けて表示する。これにより、図15に示すように、クラスタリングされたヒートマップ(クラスタリングヒートマップ)が作成される。
クラスタリング処理には、次の手法を採用することもできる。k-meansの距離を(x,y)座標と盛り上がり度の重み付け加算値で定義して、k-means法でクラスタリングする。この場合、k-meansの距離は、w1×{(x_i-x)+(y_i-y)0.5+w2×|h_i-h|で定義付けられる。
ヒートマップ出力部318は、クラスタリング部でクラスタリングされたヒートマップを表示装置400に出力する。すなわち、クラスタごとに色又は濃淡を分けて表示したヒートマップ(クラスタリングヒートマップ)を表示装置400に出力する。
図16は、本実施の形態の情報処理システムによる情報処理の手順(情報処理方法)を示すフローチャートである。
まず、パフォーマー撮影装置100によってパフォーマー1が撮影される(ステップS21)。これと平行して、観客撮影装置200によって、観客エリア3が撮影され、観客エリア3内の観客2が撮影される(ステップS23)。
次に、パフォーマー撮影装置100によって撮影されたパフォーマー1の画像からパフォーマー1が行っているパフォーマンスのシーンが認識される(ステップS22)。また、観客撮影装置200によって撮影された観客エリア3の画像から各観客2の顔が検出され(ステップS24)、検出された顔の表情が認識される(ステップS25)。更に、パフォーマー撮影装置100によって撮影されたパフォーマー1の画像からパフォーマー1の発信力が推定され(ステップS28)、推定された発信力に基づいて、クラスタ数が設定される(ステップS29)。本実施の形態では、発信力として盛り上げに関する余力が推定され、推定された余力に基づいて、クラスタ数が設定される。
次に、シーンの認識結果及び表情の認識結果に基づいて、シーンに応じた各観客2の盛り上がり度が算出される(ステップS26)。次に、算出された各観客2の盛り上がり度の情報に基づいて、ヒートマップが作成される(ステップS27)。
次に、設定されたクラスタ数に従ってヒートマップがクラスタリングされる(ステップS30)。これにより、クラスタごとに色又は濃淡を分けて表示したヒートマップ(クラスタリングヒートマップ)が作成される。
図17は、クラスタリング処理によるヒートマップの変化の概念図である。同図は、クラスタ数を2とした場合の例を示している。(A)は、クラスタリング前のヒートマップHMであり、(B)は、クラスタリング後のヒートマップ(クラスタリングヒートマップ)CHMである。同図に示すように、クラスタリング後は、色又は濃淡がクラスタごとに表示される。
作成されたクラスタリングヒートマップが表示装置400に出力表示される(ステップS18)。パフォーマー1は、この表示装置400に表示されたクラスタリングヒートマップを視認することにより、観客エリア3における観客の盛り上がり状況を把握できる。クラスタリングヒートマップは、色又は濃淡がクラスタごとに表示されるため、観客の状況を直感的に把握できる。また、パフォーマー1が有する発信力(ここでは、盛り上げに関する余力)に応じてクラスタ数が設定されるため、パフォーマンス内容のコントロールも容易になる。すなわち、たとえば、余力がない場合は、少ないクラスタ数でクラスタリングされるため、行うべきパフォーマンスの内容を容易に決定できる。
なお、上記実施の形態では、パフォーマーが有する余力を発信力としているが、パフォーマーが有する技量を発信力として用いることもできる。また、余力と技量の双方を発信力として用いることもできる。
[第3の実施の形態]
本実施の形態の情報処理システムでは、ヒートマップをクラスタリングして出力する場合において、ユーザー(たとえば、パフォーマー)が設定した発信力に基づいてクラスタ数が設定される。ユーザーが設定した発信力に基づいてクラスタ数が設定される点以外は、上記第2の実施の形態の情報処理システムと同じである。したがって、以下においては、相違点についてのみ説明する。
図18は、本実施の形態の情報処理装置が実現する機能のブロック図である。
同図に示すように、本実施の形態の情報処理装置300には、発信力入力部324が備えられる。発信力入力部324は、発信力の入力を受け付ける。上記のように、発信力は、パフォーマーが有する技量及び余力等で定義される。発信力入力部324は、操作部305から発信力の入力を受け付ける。発信力は、たとえば、技量に関して、あらかじめ複数のレベルを規定し、その一つを選択して入力する。同様に、余力に関しても、あらかじめ複数のレベルを規定し、その一つを選択して入力する。発信力入力部324に入力された発信力の情報は、クラスタ数設定部322に加えられる。
クラスタ数設定部322は、入力された発信力の情報に基づいて、クラスタ数を設定する。発信力が、技量と余力の双方で定義される場合は、双方の情報に基づいて、クラスタ数が設定される。
クラスタリング部323は、クラスタ数設定部322で設定されたクラスタ数に応じて、ヒートマップをクラスタリング処理する。
本実施の形態の情報処理システムにおいても、パフォーマーの発信力に応じてヒートマップがクラスタリングされて提示されるため、行うべきパフォーマンスの内容を容易に決定できる。
[第4の実施の形態]
本実施の形態の情報処理システムでは、ヒートマップをクラスタリングして出力する場合において、ユーザー(たとえば、パフォーマー)が設定した発信力、及び、パフォーマーを撮影した画像から推定した発信力に基づいてクラスタ数が設定される。
図19は、本実施の形態の情報処理装置が実現する機能のブロック図である。
同図に示すように、本実施の形態の情報処理装置300には、発信力推定部321及び発信力入力部324が備えられる。
発信力推定部321は、パフォーマーを撮影した画像からパフォーマーが有する第1の発信力を推定する。本実施の形態では、パフォーマーが有する余力を第1の発信力として推定する。
発信力入力部324は、ユーザー(たとえば、パフォーマー)から第2の発信力の入力を受け付ける。本実施の形態では、パフォーマーが有する技量を第2の発信力とし、その入力を受け付ける。
発信力推定部321で推定された第1の発信力(余力)の情報、及び、発信力入力部324に入力された第2の発信力(技量)の情報は、クラスタ数設定部322に加えられる。
クラスタ数設定部322は、第1の発信力(余力)及び第2の発信力(技量)の情報に基づいて、クラスタ数を設定する。
クラスタリング部323は、クラスタ数設定部322で設定されたクラスタ数に応じて、ヒートマップをクラスタリング処理する。
本実施の形態の情報処理システムにおいても、パフォーマーの発信力に応じてヒートマップがクラスタリングされて提示されるため、行うべきパフォーマンスの内容を容易に決定できる。
なお、本実施の形態では、発信力推定部321で余力を推定し、発信力入力部324で技量を入力する構成としているが、発信力推定部321で技量を推定し、発信力入力部324で余力を入力する構成としてもよい。
[第5の実施の形態]
上記のように、ヒートマップは、各観客の盛り上がり度を各観客の位置に対応付けて表示することにより作成される。各観客の位置は、観客撮影装置200によって撮影される画像から特定される。観客撮影装置200によって撮影される画像の視点は、パフォーマーの視点と異なる。本実施の形態の情報処理システムでは、ヒートマップの画像を異なる視点の画像に変換して提示する。すなわち、パフォーマーの視点の画像(パフォーマーの視点に近い画像)に変換して提示する。
図20は、本実施の形態の情報処理装置が実現する機能のブロック図である。
同図に示すように、本実施の形態の情報処理装置300は、画像処理部331を更に備える。画像処理部331を備える点以外は、上記第1の実施の形態の情報処理装置と同じである。したがって、以下においては、画像処理部331に係わる事項についてのみ説明する。
画像処理部331は、変換処理部の一例である。画像処理部331は、ヒートマップ作成部317で作成されるヒートマップの画像を処理し、視点を変えたヒートマップを生成する。具体的には、ヒートマップ作成部317で作成されるヒートマップの画像に対して、射影変換処理を施し、パフォーマーの視点の画像に変換する。なお、パフォーマーの視点の画像に完全に一致させることは難しい。よって、ここではパフォーマーの視点に近い画像に変換する。具体的には、ステージ上の決められた位置に立った場合におけるパフォーマーの視点の画像に変換する。
図21は、ヒートマップの画像の変換の一例を示す図である。同図(A)は、変換処理前のヒートマップHM0を表わし、同図(B)は、変換処理後のヒートマップHM1を表わしている。
このように、パフォーマーの視点の画像に合わせてヒートマップを提示することにより、状況把握をより容易に行うことができる。
なお、表示の切り換えは、ユーザー(たとえば、パフォーマー)からの指示に応じて行う構成とすることができる。この場合、たとえば、操作部305の指示入力によって、表示の切り換えが行われる。
また、本処理は、クラスタリングしたヒートマップ(クラスタリングヒートマップ)に対しても行うことができる。
[第6の実施の形態]
本実施の形態の情報処理システムでは、ユーザー(たとえば、パフォーマー)からの指示に応じて、ヒートマップを反転させて提示する。すなわち、たとえば、ヒートマップが色で表示されている場合、色を反転させて提示する。また、たとえば、ヒートマップが、特定の色の濃淡で表示されている場合、その色の濃淡を反転させて提示する。
図22は、本実施の形態の情報処理装置が実現する機能のブロック図である。
同図に示すように、本実施の形態の情報処理装置300は、画像処理部331を更に備える。画像処理部331を備える点以外は、上記第1の実施の形態の情報処理装置と同じである。したがって、以下においては、画像処理部331に係わる事項についてのみ説明する。
画像処理部331は、反転処理部の一例である。画像処理部331は、操作部305からの反転の指示の入力に応じて、ヒートマップの画像を処理し、色又は色の濃淡を反転させたヒートマップを生成する。
図23は、ヒートマップの画像の反転処理の一例を示す図である。同図は、特定の色の濃淡によってヒートマップが作成される場合の例を示している。同図(A)は、反転処理前のヒートマップHM0を表わし、同図(B)は、反転処理後のヒートマップHM2を表わしている。同図に示すように、反転処理によって、濃淡が反転して表示される。
このように、表示の切り換えを可能にすることにより、目的に応じて最適なヒートマップを提示できる。たとえば、盛り上がっていない観客を盛り上げる場合などには、通常の形態でヒートマップを表示させる。一方、盛り上がっている観客をより盛り上げる場合などには、反転させたヒートマップを表示させる。これにより、パフォーマンスの内容のコントロールをより容易に行うことが可能になる。
なお、本処理は、クラスタリングしたヒートマップ(クラスタリングヒートマップ)に対しても行うことができる。
[第7の実施の形態]
図24は、本実施の形態の情報処理システムの概略構成を示す図である。
同図に示すように、本実施の形態の情報処理システム10は、表示装置400に代えて投影装置500が備えられる。表示装置400に代えて投影装置500が備えられる点以外は、上記第1の実施の形態の情報処理システムと同じである。したがって、以下においては、投影装置500に係わる構成についてのみ説明する。
投影装置500は、投影部の一例である。投影装置500は、少なくとも1台の投影機(プロジェクタ)で構成され、ヒートマップ出力部318から出力されるヒートマップ(クラスタリングヒートマップを含む)を観客2の観客エリア3に投影する。観客2の観客エリア3を1台の投影機で投影できない場合は、複数台の投影機を組み合わせて構成される。この場合、観客2の観客エリア3を複数のエリアに分割し、複数台の投影機で各エリアを分担して投影する。
本実施の形態の情報処理システムによれば、ヒートマップが観客2の観客エリア3に投影されるので、一見して観客の盛り上がり状態を把握できる。また、表示装置を確認する必要がないので、パフォーマーはパフォーマンスに集中できる。また、観客も自身の盛り上がり度を気付ける。
なお、通常、観客2の観客エリア3は平坦ではないので、投影には、プロジェクションマッピングの手法を採用することが好ましい。
[その他の実施の形態]
[シーン認識に関して]
上記実施の形態では、パフォーマーを撮影した画像に基づいて、パフォーマンスのシーンを認識する構成としているが、その他の情報を利用して、パフォーマンスのシーンを認識することもできる。たとえば、音声又は音声及び画像の情報を利用して、シーンを認識する構成とすることもできる。この場合、パフォーマンスに伴う音声を集音する集音部が更に備えられる。
[盛り上がり度に関して]
上記実施の形態では、観客の表情から盛り上がり度を算出する構成としているが、その他の情報も利用して、盛り上がり度を算出してもよい。たとえば、各観客が発する音声の情報、体の揺れの情報、体温の情報等を利用して、盛り上がり度を算出してもよい。この場合、各観客が発する音声を集音する集音部、各観客の体の揺れを検出するセンサ、各観客の体温を検出するセンサ等が備えられる。また、それらの情報を入力する入力部が備えられる。
[発信力の推定に関して]
上記実施の形態では、パフォーマーを撮影した画像に基づいて、パフォーマーが有する発信力を推定する構成としているが、その他の情報を利用して、発信力を推定することもできる。たとえば、パフォーマーが発する音声(声の大きさ、声質等)に基づいて、発信力を推定する構成とすることもできる。また、パフォーマーが発する音声と、パフォーマンスの画像の双方に基づいて、発信力を推定する構成とすることもできる。この場合、たとえば、パフォーマー撮影装置100は、音声付きの動画を撮影する。
また、パフォーマー技量については、観客の状況から推定する構成とすることもできる。すなわち、技量によって観客の盛り上がり度も異なるので、観客の盛り上がり度からパフォーマーが有する技量を推定することができる。この場合、たとえば、盛り上がり度算出部316で算出される各観客の盛り上がり度の情報、又は、ヒートマップ作成部317で作成されるヒートマップに基づいて、パフォーマーの技量を推定する構成とすることができる。
また、一般に、盛り上げに関する能力は、パフォーマーの経験に因るところが大きい。したがって、パフォーマーの経験値(経験年数、イベント等の実施回数)を発信力に含めることもできる。
[ヒートマップの表示に関して]
パフォーマーの身に付けて使用される表示装置(いわゆるウェラブルデバイス)にヒートマップを表示する構成とすることもできる。たとえば、腕時計型、眼鏡型の表示装置にヒートマップを表示する構成とすることもできる。
また、ヒートマップは、観客にも提示する構成とすることができる。たとえば、観客が保有する携帯端末(たとえば、スマートフォン等)にヒートマップの情報を配信する構成とすることもできる。
[情報処理装置に関して]
情報処理装置の一部又は全部の機能は、各種のプロセッサ(processor)で実現できる。各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。プログラムは、ソフトウェアと同義である。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサで構成されてもよい。たとえば、1つの処理部は、複数のFPGA、或いは、CPUとFPGAの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
1 パフォーマー
2 観客
3 観客エリア
10 情報処理システム
100 パフォーマー撮影装置
200 観客撮影装置
300 情報処理装置
301 CPU
302 ROM
303 RAM
304 HDD
305 操作部
307 入力インターフェース
308 出力インターフェース
311 第1画像入力部
312 第2画像入力部
313 シーン認識部
314 顔検出部
315 表情認識部
316 盛り上がり度算出部
317 ヒートマップ作成部
318 ヒートマップ出力部
321 発信力推定部
322 クラスタ数設定部
323 クラスタリング部
324 発信力入力部
331 画像処理部
400 表示装置
500 投影装置
F 検出した顔を囲う枠
HM ヒートマップ
HM0 ヒートマップ
HM1 変換処理したヒートマップ
HM2 反転処理したヒートマップ
I2 観客を撮影した画像
IF 観客の顔の画像
S11~S18 情報処理システムによる情報処理の手順
S21~S31 情報処理システムによる情報処理の手順

Claims (13)

  1. プロセッサと、
    前記プロセッサに接続されたメモリと、
    を備え、
    前記プロセッサは、
    パフォーマーを撮影した画像に基づいてシーンを認識する第1の認識を行い、
    規定のエリア内の人物を撮影した画像に基づいて前記人物の表情を認識する第2の認識を行い、
    前記シーンの認識結果及び前記人物の表情の認識結果に基づいて、前記シーンに応じた前記人物の状況指数を算出し、
    前記人物の前記状況指数を前記エリア内での前記人物の位置に対応づけて表わしたヒートマップを作成し、
    前記ヒートマップを出力する、
    ように構成される、
    情報処理システム。
  2. 前記プロセッサは、
    前記パフォーマーが有する発信力に基づいて、クラスタ数を設定し、
    設定されたクラスタ数に応じて、前記ヒートマップをクラスタリングし、
    前記出力において、
    クラスタリングされた前記ヒートマップを出力する、
    ように更に構成される、
    請求項1に記載の情報処理システム。
  3. 前記プロセッサは、
    前記クラスタリングにおいて、
    前記状況指数が閾値以上の前記人物のデータを対象に前記ヒートマップをクラスタリングする、
    ように更に構成される、
    請求項2に記載の情報処理システム。
  4. 前記プロセッサは、
    前記パフォーマーを撮影した画像に基づいて、前記パフォーマーが有する前記発信力を推定する、
    ように更に構成される、
    請求項2又は3に記載の情報処理システム。
  5. 前記発信力には、前記パフォーマーが有する技量及び余力の少なくとも一方が含まれる、
    請求項2から4のいずれか1項に記載の情報処理システム。
  6. 前記プロセッサは、
    前記ヒートマップの画像を前記エリア内の前記人物を撮影した画像とは異なる視点の画像に変換する、
    ように更に構成される、
    請求項1から5のいずれか1項に記載の情報処理システム。
  7. 前記プロセッサは、
    前記ヒートマップの色又は濃淡を反転させる、
    ように更に構成される、
    請求項1から6のいずれか1項に記載の情報処理システム。
  8. 前記プロセッサから出力された前記ヒートマップを表示するディスプレイを更に備えた、
    請求項1から7のいずれか1項に記載の情報処理システム。
  9. 前記プロセッサから出力された前記ヒートマップを前記エリアに投影するプロジェクタを更に備えた、
    請求項1から7のいずれか1項に記載の情報処理システム。
  10. 前記プロジェクタは、プロジェクションマッピングにより前記ヒートマップを前記エリアに投影する、
    請求項9に記載の情報処理システム。
  11. 前記パフォーマーを撮影する第1カメラと、
    前記エリア内の前記人物を撮影する第2カメラと、
    を更に備えた、
    請求項1から10のいずれか1項に記載の情報処理システム。
  12. パフォーマーを撮影し、
    規定のエリア内の人物を撮影し、
    前記パフォーマーを撮影した画像に基づいて、シーンを認識し、
    前記エリア内の前記人物を撮影した画像に基づいて、前記人物の表情を認識し、
    前記シーンの認識結果及び前記人物の表情の認識結果に基づいて、前記シーンに応じた前記人物の状況指数を算出し、
    前記人物の前記状況指数を前記エリア内での前記人物の位置に対応づけて表わしたヒートマップを作成し、
    前記ヒートマップを出力する、
    情報処理方法。
  13. 前記パフォーマーが有する発信力の情報に基づいて、クラスタ数を設定し、
    設定されたクラスタ数に応じて、前記ヒートマップをクラスタリングし、
    前記ヒートマップの出力において、クラスタリングされた前記ヒートマップを出力する、
    請求項12に記載の情報処理方法。
JP2021551172A 2019-09-30 2020-09-25 情報処理システム及び方法 Active JP7105380B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019180764 2019-09-30
JP2019180764 2019-09-30
PCT/JP2020/036173 WO2021065694A1 (ja) 2019-09-30 2020-09-25 情報処理システム及び方法

Publications (3)

Publication Number Publication Date
JPWO2021065694A1 JPWO2021065694A1 (ja) 2021-04-08
JPWO2021065694A5 JPWO2021065694A5 (ja) 2022-06-14
JP7105380B2 true JP7105380B2 (ja) 2022-07-22

Family

ID=75338035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021551172A Active JP7105380B2 (ja) 2019-09-30 2020-09-25 情報処理システム及び方法

Country Status (4)

Country Link
US (1) US12087090B2 (ja)
JP (1) JP7105380B2 (ja)
CN (1) CN114450730A (ja)
WO (1) WO2021065694A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
CN118113890B (zh) * 2024-04-10 2024-08-20 广东创森文化传媒有限公司 一种基于用户需求的传媒信息展示方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097047A (ja) 2005-09-30 2007-04-12 Seiko Epson Corp コンテンツの編集装置、コンテンツの編集方法及びコンテンツの編集プログラム
JP2011237970A (ja) 2010-05-10 2011-11-24 Nippon Hoso Kyokai <Nhk> 顔表情変化度測定装置およびそのプログラム並びに番組興味度測定装置
WO2016009865A1 (ja) 2014-07-18 2016-01-21 ソニー株式会社 情報処理装置及び方法、表示制御装置及び方法、再生装置及び方法、プログラム、並びに情報処理システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130100140A1 (en) * 2011-10-25 2013-04-25 Cywee Group Limited Human body and facial animation systems with 3d camera and method thereof
TWI511101B (zh) * 2012-08-17 2015-12-01 Active Learning Solutions Ltd 供教室主動學習之方法與系統
US20140337328A1 (en) * 2013-05-09 2014-11-13 Veooz Labs Private Limited System and method for retrieving and presenting concept centric information in social media networks
JP2016012216A (ja) 2014-06-27 2016-01-21 Kddi株式会社 会議分析装置、方法及びプログラム
US20160111019A1 (en) * 2014-10-15 2016-04-21 Kast Inc. Method and system for providing feedback of an audio conversation
US9936045B2 (en) * 2014-12-04 2018-04-03 International Business Machines Corporation Quality of experience for communication sessions
US10431116B2 (en) * 2015-12-10 2019-10-01 International Business Machines Corporation Orator effectiveness through real-time feedback system with automatic detection of human behavioral and emotional states of orator and audience
US10008089B2 (en) * 2016-06-28 2018-06-26 International Business Machines Corporation Providing an alert to a person in a distressed situation
US11769159B2 (en) * 2017-11-13 2023-09-26 Aloke Chaudhuri System and method for human emotion and identity detection
US11455599B2 (en) * 2019-04-02 2022-09-27 Educational Measures, LLC Systems and methods for improved meeting engagement
US11770422B2 (en) * 2021-12-18 2023-09-26 Zoom Video Communications, Inc. Real-time engagement analytics for communication sessions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097047A (ja) 2005-09-30 2007-04-12 Seiko Epson Corp コンテンツの編集装置、コンテンツの編集方法及びコンテンツの編集プログラム
JP2011237970A (ja) 2010-05-10 2011-11-24 Nippon Hoso Kyokai <Nhk> 顔表情変化度測定装置およびそのプログラム並びに番組興味度測定装置
WO2016009865A1 (ja) 2014-07-18 2016-01-21 ソニー株式会社 情報処理装置及び方法、表示制御装置及び方法、再生装置及び方法、プログラム、並びに情報処理システム

Also Published As

Publication number Publication date
CN114450730A (zh) 2022-05-06
US20220189200A1 (en) 2022-06-16
JPWO2021065694A1 (ja) 2021-04-08
WO2021065694A1 (ja) 2021-04-08
US12087090B2 (en) 2024-09-10

Similar Documents

Publication Publication Date Title
JP4474013B2 (ja) 情報処理装置
US10241990B2 (en) Gesture based annotations
US8411130B2 (en) Apparatus and method of video conference to distinguish speaker from participants
US10931919B2 (en) Video conference system, video conference apparatus, and video conference method
US10705706B2 (en) Methods and apparatus for multimedia presentation
US9324158B2 (en) Image processing device for performing image processing on moving image
US20130177296A1 (en) Generating metadata for user experiences
JP6655378B2 (ja) 会議支援システム
JP4517716B2 (ja) 会議記録装置、会議記録方法、設計方法およびプログラム
JP7105380B2 (ja) 情報処理システム及び方法
KR20140125183A (ko) 프로젝터 장착 안경 및 그 제어 방법
JP7512488B2 (ja) 画像処理装置、画像処理方法及び画像処理システム
US10970932B2 (en) Provision of virtual reality content
US11164341B2 (en) Identifying objects of interest in augmented reality
WO2009119288A1 (ja) コミュニケーションシステム及びコミュニケーションプログラム
WO2020234939A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Ronzhin et al. A software system for the audiovisual monitoring of an intelligent meeting room in support of scientific and education activities
JP2009232054A (ja) 会議支援システム
TWI799048B (zh) 環景影像會議系統及方法
WO2023181808A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
US20220230469A1 (en) Device and method for determining engagment of a subject
US20240331174A1 (en) One Shot PIFu Enrollment
JP2024137355A (ja) 端末装置
GB2621868A (en) An image processing method, device and computer program
CN118736265A (zh) 一次性完成的PIFu登记

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220530

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220711

R150 Certificate of patent or registration of utility model

Ref document number: 7105380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150