JP7316584B2 - Augmentation image display method and augmentation image display system - Google Patents

Augmentation image display method and augmentation image display system Download PDF

Info

Publication number
JP7316584B2
JP7316584B2 JP2019145356A JP2019145356A JP7316584B2 JP 7316584 B2 JP7316584 B2 JP 7316584B2 JP 2019145356 A JP2019145356 A JP 2019145356A JP 2019145356 A JP2019145356 A JP 2019145356A JP 7316584 B2 JP7316584 B2 JP 7316584B2
Authority
JP
Japan
Prior art keywords
augmentation
person
image data
player
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019145356A
Other languages
Japanese (ja)
Other versions
JP2021027509A5 (en
JP2021027509A (en
Inventor
マイケル デュフィー ディビッド
ジョン ライト クリストファー
エリオット ボウマン バーナデット
毅 吉原
剛 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019145356A priority Critical patent/JP7316584B2/en
Publication of JP2021027509A publication Critical patent/JP2021027509A/en
Publication of JP2021027509A5 publication Critical patent/JP2021027509A5/ja
Application granted granted Critical
Publication of JP7316584B2 publication Critical patent/JP7316584B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示は、オーグメンテーション画像表示方法およびオーグメンテーション画像表示システムに関する。 The present disclosure relates to an augmentation image display method and an augmentation image display system.

特許文献1には、撮像対象物を仮想的に装飾するための付加画像を、ユーザ状況を反映して自動的に生成する画像処理装置が開示されている。この画像処理装置は、撮像画像に基づいて、撮像された対象物を認識し、対象物を視認しているユーザのユーザ状況および対象物の認識結果に応じて、対象物を装飾するための付加画像を生成する。ユーザ状況は、ユーザの生体情報、感情情報、嗜好情報、行動状況または環境情報を示す。 Japanese Unexamined Patent Application Publication No. 2002-200001 discloses an image processing apparatus that automatically generates an additional image for virtually decorating an object to be imaged, reflecting the user's situation. This image processing apparatus recognizes the imaged object based on the imaged image, and performs additions for decorating the object according to the user situation of the user visually recognizing the object and the recognition result of the object. Generate an image. The user situation indicates the user's biometric information, emotion information, preference information, action situation, or environmental information.

特開2014-203377号公報JP 2014-203377 A

特許文献1によれば、例えばユーザの好み、体調、気分、行動等のユーザ状況に応じた装飾を行うための付加画像を生成して対象物に重ね合わせて表示できるので、ユーザの利便性の向上が可能となる。しかし、特許文献1では、ユーザが視聴しているテレビ番組(例えば野球等のスポーツの試合)に出演している人物(例えば試合中の選手)の感情等の状況を示唆する画像(例えば後述するオーグメンテーション画像)を画面上に装飾的に重畳表示することは考慮されていない。このため、上述したテレビ番組に出演している人物の心情を、画面を通して視聴者であるユーザが概念的に把握する術を提供する点において、従来技術に比べて改善の余地があった。 According to Patent Document 1, for example, an additional image for performing decoration according to the user's preference, physical condition, mood, behavior, etc. can be generated and superimposed on the object and displayed. improvement is possible. However, in Patent Literature 1, an image (for example, a No consideration is given to decoratively superimposing an augmentation image) on the screen. For this reason, there is room for improvement compared to the conventional technology in terms of providing a technique for the user, who is the viewer, to conceptually grasp the feelings of the person appearing in the TV program described above through the screen.

本開示は、上述した従来の事情に鑑みて案出され、スポーツの試合等のテレビ番組に出演している人物の心情を、画面を通して視聴者に概念的に把握可能とし、視聴者の利便性の向上に資するオーグメンテーション画像表示方法およびオーグメンテーション画像表示システムを提供することを目的とする。 The present disclosure has been devised in view of the above-described conventional circumstances, and enables viewers to conceptually grasp the feelings of a person appearing in a TV program such as a sports game through a screen, thereby improving the viewer's convenience. An object of the present invention is to provide an augmentation image display method and an augmentation image display system that contribute to the improvement of

本開示は、映像データに表示された少なくとも1人の人物の感情を推定するステップと、前記映像データに前記人物の化身を示す画像データを重畳するステップと、前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示するステップと、を有し、前記オーグメンテーション画像データを表示するステップにおいて、前記オーグメンテーション画像データを前記人物にオーバーレイして表示する、オーグメンテーション画像表示方法を提供する。 The present disclosure includes a step of estimating an emotion of at least one person displayed in video data, a step of superimposing image data showing an incarnation of the person on the video data, and generating augmentation image data corresponding to the emotion of the person from the data, displaying the generated augmentation image data in association with the person , and displaying the augmentation image data. and displaying the augmented image data overlaid on the person .

また、本開示は、映像データを放送する放送局装置と、ユーザにより操作されかつ前記映像データを受信して表示する受信機とを含むオーグメンテーション画像表示システムであって、前記受信機は、映像データに表示された少なくとも1人の人物の感情を推定し、前記映像データに前記人物の化身を示す画像データを重畳し、前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示する、オーグメンテーション画像表示システムを提供する。 Further, the present disclosure is an augmentation image display system including a broadcasting station device that broadcasts video data , and a receiver that is operated by a user and receives and displays the video data , wherein the receiver: estimating the emotion of at least one person displayed in video data ; superimposing image data showing the incarnation of the person on the video data; and using the video data to derive the emotion of the person from the image data. Provided is an augmentation image display system that generates augmentation image data according to the person and displays the generated augmentation image data in association with the person.

また、本開示は、映像データを放送する放送局装置と、ユーザにより操作されかつ前記映像データを受信して表示する受信機とを含むオーグメンテーション画像表示システムであって、前記受信機は、映像データに表示された少なくとも1人の人物の化身を示す画像データの購入処理の要求を前記放送局装置に送り、前記放送局装置は、前記購入処理の要求に応じて、前記人物の化身を示す画像データを購入処理し、前記映像データに基づいて、前記人物の感情を推定し、前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けたテレビ番組データを生成して前記受信機に配信する、オーグメンテーション画像表示システムを提供する。 Further, the present disclosure is an augmentation image display system including a broadcasting station device that broadcasts video data , and a receiver that is operated by a user and receives and displays the video data , wherein the receiver: A request for purchase processing of image data showing the avatar of at least one person displayed in video data is sent to the broadcasting station device, and the broadcasting station device purchases the avatar of the person in response to the purchase processing request. purchasing the image data shown, estimating the emotion of the person based on the video data, and generating augmented image data corresponding to the emotion of the person from the image data using the video data. and generating television program data in which the generated augmentation image data is associated with the person , and delivering the television program data to the receiver.

本開示によれば、スポーツの試合等のテレビ番組に出演している人物の心情を、画面を通して視聴者に概念的に把握可能とし、視聴者の利便性の向上に資することができる。 Advantageous Effects of Invention According to the present disclosure, it is possible for a viewer to conceptually grasp the feelings of a person appearing in a TV program such as a sports game through a screen, which contributes to improving convenience for the viewer.

実施の形態1に係るオーグメンテーション画像表示システムのシステム構成例を示す図1 is a diagram showing a system configuration example of an augmentation image display system according to Embodiment 1; FIG. 携帯端末を介して、オーグメンテーション画像が重畳表示されたテレビ番組を視聴する様子の一例を示す図A diagram showing an example of viewing a television program on which an augmented image is superimposed via a mobile terminal. テレビジョン受像機を介して、オーグメンテーション画像が重畳表示されたテレビ番組を視聴する様子の一例を示す図A diagram showing an example of how a television program on which an augmentation image is superimposed is viewed through a television receiver. 放送局装置のハードウェア構成例を示すブロック図Block diagram showing a hardware configuration example of a broadcasting station device 携帯端末のハードウェア構成例を示すブロック図Block diagram showing a hardware configuration example of a mobile terminal テレビジョン受像機のハードウェア構成例を示すブロック図Block diagram showing a hardware configuration example of a television receiver ユーザ購入データの一例をテーブル形式で示す図Diagram showing an example of user purchase data in table format オーグメンテーション画像の表示例を時系列に示す図Diagram showing example display of augmented images in chronological order オーグメンテーション画像の表示例を示す図A diagram showing a display example of an augmentation image 一連のオーグメンテーション画像処理の動作手順例を示すフローチャートFlowchart showing an example of the operation procedure of a series of augmentation image processing

(本開示に係る実施の形態に至る経緯)
スポーツ番組のストリーム放送サービスでは、仮想的なオーバーレイ技術の発達が求められ続けている。このようなオーバーレイ技術は、試合の様々な統計データの情報を視聴者に対して提供したり、エンターテインメント性あるいは広告価値を向上するために使用したりする時に直観的かつ魅力的な方法となり得る。オーバーレイ技術として、実際の要素に対して仮想的な要素が取り入れられるように、放送内容に仮想的な価値を提供するために拡張現実(AR:Augmented Reality)技術が使用されることがある。このようなAR技術をスポーツ番組に取り入れることで、仮想現実(VR:Virtual Reality)技術やAR技術がスポーツ番組の放送時に益々使用される可能性が高まる。
(Circumstances leading to the embodiment according to the present disclosure)
Stream broadcasting services for sports programs continue to demand the development of virtual overlay technology. Such overlay technology can be an intuitive and attractive method when used to provide viewers with information on various statistical data of a game, or to improve entertainment or advertising value. As an overlay technology, Augmented Reality (AR) technology may be used to provide virtual value to broadcast content, such that virtual elements are incorporated over real elements. Incorporation of such AR technology into sports programs increases the possibility that virtual reality (VR) technology and AR technology will be used more and more when broadcasting sports programs.

上述したVR技術やAR技術を用いたシステムにおいて、人物の身体の部分を追従(トラッキング)することは根本的なタスクとなっており、3次元空間において手足や踝を高精度に決定するための解決策が必要とされている。同様な問題がコンピュータビジョンにおいても取り組まれており、個人の位置の追従から正確な姿勢の評価に至るまで人体の身体を追従するアプリケーションが生の映像処理技術によって可能となってきている。要求仕様にもよるが、人体の身体の部分を追従するためには、多くの解決するべき課題が残っている。個人の中心部分の追従は、撮像映像を用いた動き追従に基づいて実現可能である。このような映像処理は、人体の顔および頭を含む全体を追従したり置き換えたりする。最近、複数の映像フレームを用いて人体の正確な姿勢の評価が可能になってきている。 In systems using the VR and AR technologies described above, tracking parts of a person's body is a fundamental task. A solution is needed. Similar problems are being tackled in computer vision, where raw image processing technologies are enabling applications that track the human body, from individual position tracking to accurate posture assessment. Although it depends on the required specifications, many problems remain to be solved in order to follow the body parts of the human body. Tracking of the central part of an individual can be achieved based on motion tracking using captured video. Such video processing follows or replaces the entire human body, including the face and head. Recently, it has become possible to accurately evaluate the posture of a human body using a plurality of video frames.

また、例えば純粋に化粧の変化を提供する等のオンラインゲームは小額取引の大きな魅力的要素となっておきており、2018年の4月単独で300万ドルを超える市場となっている。オンラインゲームのプレーヤは、ゲームでの経験を磨き、新たな服装、新たな感情(例えばアニメーションに反映される幾つかの感情)、新たなペット、仮想的な自分の化身用の新たなダンスを購入する。このような小額取引の成功となるキーは、小額取引がゲームプレイに全く影響を与えないことである。これにより、例えばプレーヤの経験が向上するので、プレーヤがゲームにおいて視覚的な変化をもたらすための小さな購入を進んで行えるようになる。 Online games, such as those that offer pure cosmetic changes, have also remained a major attraction for microtransactions, with a market of over $3 million in April 2018 alone. Players of online games refine their gaming experience and buy new clothes, new emotions (e.g. some emotions reflected in animations), new pets, new dances for their virtual avatars. do. The key to the success of such microtransactions is that they have no impact on game play. This enhances the player's experience, for example, so that the player is willing to make small purchases to effect a visual change in the game.

以上を踏まえると、以下の実施の形態に至る従来技術の課題として、次のような点が挙げられる。第1に、スポーツ番組の視聴者は、プレーヤ(選手)が感じている感情を視覚的に見る手段を有しないので、そのスポーツの試合においてプレーヤの次の行動を把握したり、どのような感情でいるかを把握したりすることはできなかった。第2に、ゲームプレイに影響しない仮想的なマーケットプレイスは、とても価値のあるものとなることは証明されているが、スポーツ番組の放送には適用された事例はない。第3に、スポーツ番組の放送中に広告や製品紹介の機会があると、視聴の邪魔になったり失敗になったりすることがあった。これは、放送ストリームのうち広告や製品紹介の内容とは異なる内容(例えばプレーヤの動き)に視聴者がフォーカスするためであると考えられる。 Based on the above, the following points can be cited as problems of the conventional technology leading to the following embodiments. First, viewers of sports programs do not have the means to visually see the emotions that the players are feeling. I couldn't figure out what was going on. Second, virtual marketplaces that do not affect gameplay have proven to be very valuable, but have not been applied to broadcast sports programming. Thirdly, if there is an opportunity for advertisements or product introductions during the broadcast of a sports program, it may interfere with viewing or result in failure. This is thought to be because the viewer focuses on content (for example, movement of the player) that is different from the content of advertisements and product introductions in the broadcast stream.

そこで、以下の実施の形態では、スポーツの試合等のテレビ番組に出演している人物の心情を、画面を通して視聴者に概念的に把握可能とし、視聴者の利便性の向上に資するオーグメンテーション画像表示方法およびオーグメンテーション画像表示システムの例を説明する。 Therefore, in the following embodiment, an augmentation that enables viewers to conceptually grasp the feelings of a person appearing in a TV program such as a sports game through a screen and contributes to improvement of convenience for viewers. An example of an image display method and an augmentation image display system will be described.

(実施の形態)
以下、適宜図面を参照しながら、本開示に係るオーグメンテーション画像表示方法およびオーグメンテーション画像表示システムを具体的に開示した実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(Embodiment)
Hereinafter, embodiments specifically disclosing an augmentation image display method and an augmentation image display system according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for a thorough understanding of the present disclosure by those skilled in the art and are not intended to limit the claimed subject matter.

また、実施の形態でいう「部」または「装置」とは単にハードウェアによって実現される物理的構成に限定されず、その構成が有する機能をプログラム等のソフトウェアにより実現されるものも含む。また、1つの構成が有する機能が2つ以上の物理的構成により実現されても、または2つ以上の構成の機能が例えば1つの物理的構成によって実現されていても構わない。 In addition, the term "unit" or "device" used in the embodiments is not limited to a physical configuration simply realized by hardware, and also includes those whose functions are realized by software such as a program. Also, the function of one configuration may be implemented by two or more physical configurations, or the functions of two or more configurations may be implemented by, for example, one physical configuration.

実施の形態に係る第1のユースケースとして、ユーザの一例としての父親P1,母親P2,娘P3からなる3人家族が自宅においてテレビ番組(例えばスポーツの試合の中継番組)を視聴するシーンを想定する。父親P1および母親P2は、そのスポーツ(例えば野球)の試合に大変に関心を示しているが、娘P3はそのスポーツ(例えば野球)の試合に全く関心がない(図2,図3参照)。なお、以下の説明ではスポーツとして野球を例示するが、野球に限らず、サッカー、ラグビー、ゴルフ、バスケットボール等の他の競技のいずれであってもよい。 As a first use case according to the embodiment, a scene is assumed in which a family of three members consisting of a father P1, a mother P2, and a daughter P3 as an example of users watches a TV program (for example, a relay program of a sports game) at home. do. Father P1 and mother P2 are very interested in the game of the sport (eg baseball), but daughter P3 has no interest in the game of the sport (eg baseball) (see FIGS. 2 and 3). In the following description, baseball is exemplified as a sport, but the sport is not limited to baseball, and may be any of other sports such as soccer, rugby, golf, and basketball.

<オーグメンテーション画像表示システムの構成>
図1は、実施の形態1に係るオーグメンテーション画像表示システム1のシステム構成例を示す図である。オーグメンテーション画像表示システム1は、放送局装置10と、携帯端末20あるいはテレビジョン受像機30とを少なくとも含む構成である。ここで、携帯端末20あるいはテレビジョン受像機30とは、携帯端末20およびテレビジョン受像機30のうち少なくとも一方を含む意味であり、両者が含まれてもよい意味である。放送局装置10と、携帯端末20あるいはテレビジョン受像機30とは、ネットワークNW1を介して互いに通信可能に接続される。ネットワークNW1は、少なくとも有線あるいは無線の回線により構成され、または有線および無線のそれぞれの回線を組み合わせた回線でもよい。
<Configuration of Augmentation Image Display System>
FIG. 1 is a diagram showing a system configuration example of an augmentation image display system 1 according to Embodiment 1. As shown in FIG. The augmentation image display system 1 includes at least a broadcasting station device 10 and a mobile terminal 20 or a television receiver 30 . Here, the mobile terminal 20 or the television receiver 30 means including at least one of the mobile terminal 20 and the television receiver 30, and may include both. The broadcasting station device 10 and the mobile terminal 20 or the television receiver 30 are connected to communicate with each other via the network NW1. The network NW1 is composed of at least wired or wireless lines, or may be a line combining wired and wireless lines.

放送局装置10は、放送局内に設置され、例えば野球場内の所定箇所に設置された放送撮影用の高性能なカメラCM1により撮像された映像データを、ネットワークNW2を介して受信する。ネットワークNW2は、少なくとも光ファイバ回線等の有線回線または無線回線を含む。無線回線は、例えばローカルエリアネットワーク(LAN:Local Area Network)、ワイドエリアネットワーク(WAN:Wide Area Network)である。放送局装置10は、カメラCM1からの映像データを用いて、野球場で行われている野球の試合の放送ストリームを生成し、ネットワークNW1を介して携帯端末20およびテレビジョン受像機30のそれぞれに配信する。放送ストリームは、例えばワンセグ(後述参照)あるいはフルセグ(後述参照)に対応可能な地上波デジタルテレビジョン放送に適合する放送内容のストリーム(つまり野球等のスポーツの試合の内容を示す映像データの流れ)を示し、以下では「プレーヤ映像データ」と称する場合がある。放送局装置10の内部構成の詳細については図4を参照して後述する。 The broadcasting station device 10 is installed in the broadcasting station and receives, via the network NW2, image data captured by a high-performance camera CM1 for broadcast shooting, which is installed, for example, at a predetermined location in a baseball stadium. The network NW2 includes at least a wired line such as an optical fiber line or a wireless line. A wireless line is, for example, a local area network (LAN) or a wide area network (WAN). Broadcasting station device 10 uses video data from camera CM1 to generate a broadcast stream of a baseball game being held at a baseball field, and transmits the broadcast stream to mobile terminal 20 and television receiver 30 via network NW1. To deliver. The broadcast stream is, for example, a stream of broadcast content suitable for terrestrial digital television broadcasting compatible with one-segment (see below) or full-segment (see below) (that is, a stream of video data showing the content of sports games such as baseball). , and hereinafter may be referred to as “player video data”. Details of the internal configuration of the broadcasting station apparatus 10 will be described later with reference to FIG.

受信機の一例としての携帯端末20は、ユーザ(例えば上述した3人家族)の宅内で移動可能に配置され(図2参照)、放送局装置10との間で各種の信号(例えばユーザデータ、制御信号)の送受信が可能である。携帯端末20は、例えばスマートフォンあるいはタブレット端末である。携帯端末20は、例えばいわゆるワンセグ(正式にはワンセグメント)あるいはフルセグ(正式にはフルセグメント)に対応可能な放送ストリーム(プレーヤ映像データ)を、ネットワークNW1を介して受信して表示する。図2は、携帯端末20を介して、オーグメンテーション画像が重畳表示されたテレビ番組を視聴する様子の一例を示す図である。従って、ユーザ(具体的には父親P1,母親P2,娘P3)は、放送局装置10から配信された放送ストリームを、携帯端末20を介して視聴できる。また、携帯端末20は、ユーザの操作を受付可能であり、ユーザ操作により、野球の試合に出場(例えば出演の一形態)しているプレーヤ(例えばプロ野球の選手)の化身を示すスキンパック画像(後述参照)をオンラインショッピングにより購入処理を行える。なお、図1では図示を簡略化しているが、ユーザ宅内に無線LAN等に対応したアクセスポイント(図示略)が設置され、インターネット回線等のネットワークNW1を介して配信された放送ストリームは、上述したアクセスポイントを介して携帯端末20に送られてよい。携帯端末20の内部構成の詳細については図5を参照して後述する。 A mobile terminal 20 as an example of a receiver is movably arranged in the home of a user (for example, the above-described family of three) (see FIG. 2), and exchanges various signals (for example, user data, control signals) can be transmitted and received. The mobile terminal 20 is, for example, a smart phone or a tablet terminal. The mobile terminal 20 receives and displays, for example, a broadcast stream (player video data) compatible with so-called One Seg (officially, One Segment) or Full Seg (officially, Full Segment) via the network NW1. FIG. 2 is a diagram showing an example of how a television program on which an augmentation image is superimposed is viewed via the mobile terminal 20. As shown in FIG. Therefore, users (specifically, father P1, mother P2, and daughter P3) can view the broadcast stream delivered from the broadcasting station device 10 via the mobile terminal 20. FIG. In addition, the mobile terminal 20 can receive a user's operation, and a skin pack image representing a personification of a player (for example, a professional baseball player) participating in a baseball game (for example, one form of appearance) by the user's operation. (see later) can be purchased through online shopping. Although the illustration is simplified in FIG. 1, an access point (not shown) corresponding to a wireless LAN or the like is installed in the user's home, and the broadcast stream distributed via the network NW1 such as the Internet line is the above-mentioned It may be sent to the mobile terminal 20 via an access point. Details of the internal configuration of the mobile terminal 20 will be described later with reference to FIG.

受信機の一例としてのテレビジョン受像機30は、ユーザ(例えば上述した3人家族)の宅内のラック等の所定箇所に固定配置され(図3参照)、地上波デジタルテレビジョン放送に適合する放送ストリーム(プレーヤ映像データ)を、ネットワークNW1を介して受信して表示する。図3は、テレビジョン受像機30を介して、オーグメンテーション画像が重畳表示されたテレビ番組を視聴する様子の一例を示す図である。従って、ユーザ(具体的には父親P1,母親P2,娘P3)は、放送局装置10から配信された放送ストリームを、テレビジョン受像機30を介して視聴できる。また、テレビジョン受像機30は、ユーザのリモコン(正式にはリモートコントローラ)を介した操作を受付可能であり、ユーザ操作により、野球の試合に出場(例えば出演の一形態)しているプレーヤ(例えばプロ野球の選手)の化身を示すスキンパック画像(後述参照)をオンラインショッピングにより購入処理を行える。また、テレビジョン受像機30は、ユーザ宅内に設置されたカメラCM2との間で有線ケーブルLNCにより通信可能に接続されてもよいし、カメラCM2は省略されても構わない。テレビジョン受像機30の内部構成の詳細については図5を参照して後述する。 A television receiver 30, which is an example of a receiver, is fixedly placed in a predetermined location such as a rack in the home of a user (for example, the above-described family of three) (see FIG. 3), and is adapted for digital terrestrial television broadcasting. A stream (player video data) is received via the network NW1 and displayed. FIG. 3 is a diagram showing an example of how a television program on which an augmentation image is superimposed is viewed through the television receiver 30. As shown in FIG. Therefore, users (specifically, father P1, mother P2, and daughter P3) can view the broadcast stream distributed from the broadcasting station device 10 via the television receiver 30. FIG. In addition, the television receiver 30 can accept an operation via a user's remote control (formally, a remote controller), and a player (for example, a form of appearance) participating in a baseball game (for example, For example, a skin pack image (see below) representing an incarnation of a professional baseball player can be purchased through online shopping. Also, the television receiver 30 may be communicably connected to the camera CM2 installed in the user's home via a wired cable LNC, or the camera CM2 may be omitted. Details of the internal configuration of the television receiver 30 will be described later with reference to FIG.

なお、オーグメンテーション画像表示システム1は、1台以上のカメラCM1…と、カメラCM2とを更に含む構成としてもよい。 Note that the augmentation image display system 1 may be configured to further include one or more cameras CM1 . . . and a camera CM2.

カメラCM1は、野球場内の所定箇所(例えば野球の試合に出場している各種のプレーヤ、監督、マスコットキャラクタの撮影に適した既定の場所)に配置され、放送撮影用に野球の試合を撮影しており、撮影により得られた映像データ(プレーヤ映像データ)を、ネットワークNW2を介して放送局装置10に送る。なお、図1ではカメラCM1は1台のみ図示しているが、複数台のカメラCM1が設けられてもよい。 The camera CM1 is placed at a predetermined location in the baseball stadium (for example, a predetermined location suitable for photographing various players, managers, and mascot characters participating in the baseball game), and photographs the baseball game for broadcasting. The video data (player video data) obtained by shooting is sent to the broadcasting station device 10 via the network NW2. Although only one camera CM1 is shown in FIG. 1, a plurality of cameras CM1 may be provided.

カメラCM2は、ユーザ宅内の所定箇所(例えばテレビジョン受像機30が設置されているリビングルーム)に配置され、テレビジョン受像機30に映し出されている放送ストリーム(例えばプレーヤ映像データ)を撮像する。カメラCM2は、撮像されたプレーヤ映像データを、有線ケーブルLNCを介してテレビジョン受像機30に送る。 The camera CM2 is placed at a predetermined location in the user's home (for example, a living room where the television receiver 30 is installed), and captures a broadcast stream (for example, player video data) displayed on the television receiver 30. The camera CM2 sends the imaged player video data to the television receiver 30 via the wired cable LNC.

図4は、放送局装置10のハードウェア構成例を示すブロック図である。放送局装置10は、メモリ11と、記録装置12と、プロセッサ13と、通信部14と、オーグメンテーション画像処理部15とを含む構成である。メモリ11と、記録装置12と、プロセッサ13と、通信部14と、オーグメンテーション画像処理部15とは互いにデータあるいは情報の入出力が可能に内部バスにより接続されている。なお、オーグメンテーション画像処理部15は、携帯端末20にオーグメンテーション画像処理部25が設けられている場合には、放送局装置10から省略されてもよい。同様に、オーグメンテーション画像処理部15は、テレビジョン受像機30にオーグメンテーション画像処理部35が設けられている場合には、放送局装置10から省略されてもよい。 FIG. 4 is a block diagram showing a hardware configuration example of the broadcasting station apparatus 10. As shown in FIG. The broadcasting station device 10 includes a memory 11 , a recording device 12 , a processor 13 , a communication section 14 and an augmentation image processing section 15 . The memory 11, the recording device 12, the processor 13, the communication unit 14, and the augmentation image processing unit 15 are connected by an internal bus so that data or information can be input/output to each other. Note that the augmentation image processing unit 15 may be omitted from the broadcasting station device 10 when the portable terminal 20 is provided with the augmentation image processing unit 25 . Similarly, the augmentation image processing unit 15 may be omitted from the broadcasting station device 10 when the television receiver 30 is provided with the augmentation image processing unit 35 .

メモリ11は、一次記憶装置(例えばRAM(Random Access Memory)、ROM(Read Only Memory))を用いて構成され、放送局装置10の動作の実行に必要なプログラム、さらには、動作中に生成されたデータあるいは情報を一時的に保存する。RAMは、例えばプロセッサ13の動作時に使用されるワークメモリである。ROMは、例えばプロセッサ13を制御するためのプログラムを予め記憶する。 The memory 11 is configured using a primary storage device (for example, RAM (Random Access Memory), ROM (Read Only Memory)), and stores programs necessary for executing the operation of the broadcasting station apparatus 10, and furthermore, programs generated during operation. Temporarily store data or information. The RAM is a work memory used when the processor 13 operates, for example. The ROM stores in advance a program for controlling the processor 13, for example.

記録装置12は、二次記憶装置(例えばHDD(Hard Disk Drive)あるいはSSD(Solid State Drive))、もしくは三次記憶装置(例えば光ディスク、SDカード)を用いて構成される。記録装置12は、カメラCM1…から送られたプレーヤ映像データを保存してよい。また、記録装置12は、ユーザ(例えば野球の試合に関心を示さない娘P3)のオンラインショッピングサイト(図示略)への操作に基づくスキンパック画像の購入処理に関する履歴を示すユーザ購入データ(図7参照)を保存してよい。また、記録装置12は、人物(例えば野球の試合に出場しているプレーヤ)の一定期間における心拍数の変動の特性とその人物の感情との対応関係を示す感情特性データ(図示略)を保存してよい。 The recording device 12 is configured using a secondary storage device (for example, HDD (Hard Disk Drive) or SSD (Solid State Drive)) or a tertiary storage device (for example, optical disk, SD card). The recording device 12 may store the player video data sent from the cameras CM1. In addition, the recording device 12 stores user purchase data (FIG. 7) indicating the history of skin pack image purchase processing based on the user's (for example, daughter P3 who shows no interest in baseball games) operation to an online shopping site (not shown). ) can be saved. In addition, the recording device 12 stores emotion characteristic data (not shown) that indicates the correspondence relationship between the heart rate variation characteristic of a person (for example, a player participating in a baseball game) for a certain period of time and the person's emotion. You can

ここで、ユーザ購入データの詳細について、図7を参照して説明する。 Details of the user purchase data will now be described with reference to FIG.

図7は、ユーザ購入データPRCS1の一例をテーブル形式で示す図である。ユーザ購入データPRCS1は、例えばユーザIDと、スキンパックIDと、購入日と、購入金額と、備考との各項目とそれぞれの項目に対する実体情報とが対応付けられた構成である。図7では、ユーザ購入データPRCS1が、分かり易くテーブル形式で示されている。例えばユーザID「001」のユーザは、「¥300」の価値を有するスキンパックID「1010」のスキンパック画像を「2019年7月3日」に購入したことの履歴が記録されている。同様に、ユーザID「002」のユーザは、「¥500」の価値を有するスキンパックID「2121」のスキンパック画像を「2019年6月30日」に購入したことの履歴が記録されている。 FIG. 7 is a diagram showing an example of user purchase data PRCS1 in a table format. The user purchase data PRCS1 has a configuration in which items such as a user ID, a skin pack ID, a purchase date, a purchase amount, and remarks, and substantive information for each item are associated with each other. In FIG. 7, the user purchase data PRCS1 is shown in a table format for easy understanding. For example, a user with user ID "001" has a history of purchasing a skin pack image with skin pack ID "1010" worth "¥300" on "July 3, 2019". Similarly, a history is recorded in which the user with the user ID “002” purchased the skin pack image with the skin pack ID “2121” worth “¥500” on “June 30, 2019”. .

このように、記録装置12は、放送ストリームの視聴者であるユーザごとに、そのユーザがどのようなスキンパック画像を購入したかを示す履歴情報を保持できる。なお、後述するように、このユーザ購入データは、携帯端末20あるいはテレビジョン受像機30においても保存されてよい。この場合には、携帯端末20あるいはテレビジョン受像機30のユーザに限って購入処理されたスキンパック画像に関するユーザ購入データのみが保存されるので、ユーザ購入データの占めるデータサイズは、記録装置12において全てのユーザのユーザ購入データが保存される場合に比べて低減可能である。 In this way, the recording device 12 can hold history information indicating what kind of skin pack image the user has purchased for each user who is a viewer of the broadcast stream. As will be described later, this user purchase data may also be stored in the mobile terminal 20 or the television receiver 30 . In this case, only the user-purchased data related to skin pack images purchased by the user of the portable terminal 20 or the television receiver 30 is stored. It can be reduced compared to the case where user purchase data of all users are stored.

プロセッサ13は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)もしくはFPGA(Field Programmable Gate Array)を用いて構成される。プロセッサ13は、放送局装置10の制御部として機能し、放送局装置10の各部の動作を全体的に統括するための制御処理、放送局装置10の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサ13は、メモリ11に記憶されたプログラムに従って動作する。 The processor 13 is configured using, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array). The processor 13 functions as a control unit of the broadcasting station device 10, and performs control processing for overall control of the operation of each unit of the broadcasting station device 10, input/output processing of data to and from each unit of the broadcasting station device 10, Performs data arithmetic processing and data storage processing. Processor 13 operates according to a program stored in memory 11 .

プロセッサ13は、1台以上のカメラCM1…から受信して取得したプレーヤ映像データを用いて、放送ストリームを構成する番組映像PES(パケタイズドエレメンタリーストリーム。以下同様。)および番組音声PESを生成し、番組映像PESおよび番組音声PESをパケットしてエンコード、多重化および変調することで、放送ストリームを生成する。なお、プロセッサ13が1台以上のカメラCM1…から受信して取得したプレーヤ映像データを用いて放送ストリームを生成する処理の詳細については、例えば特開2010-21790号に開示されているので、詳細な説明は省略する。 The processor 13 uses the player video data received and acquired from one or more cameras CM1 . Then, the program video PES and program audio PES are packetized, encoded, multiplexed, and modulated to generate a broadcast stream. Details of the process of generating a broadcast stream using the player video data received and acquired by the processor 13 from one or more cameras CM1 are disclosed, for example, in Japanese Unexamined Patent Application Publication No. 2010-21790. detailed description is omitted.

また、プロセッサ13は、ユーザの操作に応じて、オーグメンテーションデータベース155に登録されているオーグメンテーション元画像(言い換えると、スキンパック画像)の購入処理を行い、購入処理の履歴を示すユーザ購入データ(後述参照)を記録装置12に保存する。プロセッサ13あるいはオーグメンテーション画像処理部15は、購入処理の決済処理の完了を判定すると、オーグメンテーション元画像(スキンパック画像)を放送ストリームの所定領域(例えば左端部あるいは右端部)に表示してもよい。これにより、ユーザ(例えば娘P3)は、携帯端末20あるいはテレビジョン受像機30において野球の試合を視聴した際、野球の試合に関心を示さなくても、野球のプレーヤに適用するように自分の好きなキャラクタ画像データをスキンパック画像として使用できる。言い換えると、携帯端末20あるいはテレビジョン受像機30は、ユーザにより購入処理されたスキンパック画像をプレーヤの感情あるいは動きに照らして重畳することで、娘P3の野球の試合への関心を徐々に高めることができる。 In addition, the processor 13 performs purchase processing of the augmentation source images (in other words, skin pack images) registered in the augmentation database 155 according to the user's operation. Data (see below) is stored in the recording device 12 . When the processor 13 or the augmentation image processing unit 15 determines that the settlement process for the purchase process is completed, the augmentation source image (skin pack image) is displayed in a predetermined area (for example, the left end or right end) of the broadcast stream. may As a result, when the user (for example, daughter P3) watches a baseball game on the portable terminal 20 or the television receiver 30, even if he/she does not show interest in the baseball game, he/she can apply his/her personal information to the baseball player. You can use your favorite character image data as a skin pack image. In other words, the mobile terminal 20 or the television receiver 30 superimposes the skin pack image purchased by the user in light of the player's emotion or movement, thereby gradually increasing the daughter P3's interest in the baseball game. be able to.

通信部14は、ネットワークNW2を介して1台以上のカメラCM1…との間でデータあるいは情報の送受信を可能であり、かつ、ネットワークNW1を介して携帯端末20あるいはテレビジョン受像機30との間でデータあるいは情報の送受信を可能な通信回路により構成される。通信部14による通信方式としては、例えばネットワークNW1,NW2のそれぞれに対応してWAN、LAN、電力線通信等の有線での通信方式、WiFi(登録商標)、携帯電話用のモバイル通信等の無線での通信方式等が例示される。 The communication unit 14 is capable of transmitting and receiving data or information with one or more cameras CM1 through the network NW2, and is capable of transmitting data or information to and from the mobile terminal 20 or the television receiver 30 through the network NW1. It consists of a communication circuit capable of transmitting and receiving data or information. As the communication method by the communication unit 14, for example, a wired communication method such as WAN, LAN, and power line communication corresponding to each of the networks NW1 and NW2, and a wireless communication method such as WiFi (registered trademark) and mobile communication for mobile phones and the like are exemplified.

オーグメンテーション画像処理部15は、プロセッサ13と同様に、例えばCPU、DSPもしくはFPGAを用いて構成される。オーグメンテーション画像処理部15は、感情決定部151と、拡張処理部152と、追従処理部153と、修正処理部154と、オーグメンテーションデータベース155とを機能的構成として有し、各部により実行される処理を総称したオーグメンテーション画像処理を実行する。なお、オーグメンテーション画像処理部15のうち感情決定部151、拡張処理部152、追従処理部153および修正処理部154の少なくとも1つはプロセッサ13により実行されてよいし、オーグメンテーション画像処理部15のうちオーグメンテーションデータベース155は記録装置12内に構成されてもよい。 The augmentation image processing unit 15, like the processor 13, is configured using, for example, a CPU, DSP, or FPGA. The augmentation image processing unit 15 has an emotion determination unit 151, an extension processing unit 152, a follow-up processing unit 153, a correction processing unit 154, and an augmentation database 155 as functional configurations. Augmentation image processing, which is a generic term for the processing that is performed. At least one of the emotion determination unit 151, the extension processing unit 152, the follow-up processing unit 153, and the correction processing unit 154 in the augmentation image processing unit 15 may be executed by the processor 13, and the augmentation image processing unit 15 may be executed by the processor 13. Augmentation database 155 of 15 may be configured within recording device 12 .

感情決定部151は、記録装置12に保存されたプレーヤ映像データ(例えば画像データの一形態)を用いて、そのプレーヤ映像データを構成するそれぞれの画像上に映るプレーヤの心拍数およびその心拍数の一定期間(例えば数秒程度)における変動を解析する。具体的には、感情決定部151は、プレーヤ映像データに映るプレーヤの顔を検出し、顔領域(肌色領域)の各画素の特定の成分(例えばG(緑色)成分)の画素値の時系列データを生成する。感情決定部151は、時系列データに対して所定のフィルタリング処理を施し、高周波ノイズ成分および低周波の揺れ成分を除去した脈波を検出して心拍数(脈拍数)を導出する。なお、プレーヤ映像データを用いてそのプレーヤの心拍数の解析処理の詳細については、例えば特許第6323809号公報あるいは特許第6358506号公報に開示されているので、詳細な説明は省略する。 The emotion determination unit 151 uses the player video data (for example, one form of image data) saved in the recording device 12 to determine the heart rate of the player and the heart rate of the player shown in each image that constitutes the player video data. Analyze fluctuations over a certain period of time (for example, several seconds). Specifically, the emotion determination unit 151 detects the face of the player appearing in the player video data, and detects the time series of pixel values of specific components (for example, G (green) component) of each pixel of the face region (skin color region). Generate data. The emotion determination unit 151 performs predetermined filtering processing on the time-series data, detects a pulse wave from which high-frequency noise components and low-frequency fluctuation components are removed, and derives a heart rate (pulse rate). The details of the processing for analyzing the heart rate of the player using the player video data are disclosed, for example, in Japanese Patent No. 6323809 or Japanese Patent No. 6358506, so detailed description thereof will be omitted.

また、感情決定部151は、記録装置12に保存されている感情特性データと一定期間における心拍数の変動の解析結果とに基づいて、心拍数の変動の特性に対応する感情を、そのプレーヤの心情(感情)として決定して出力する。 The emotion determination unit 151 also determines the emotion corresponding to the heart rate variation characteristics of the player based on the emotion characteristic data stored in the recording device 12 and the analysis result of the heart rate variation in a certain period of time. Determine and output as feelings (feelings).

拡張処理部152は、感情決定部151により決定されたプレーヤの感情に対応するオーグメンテーション元画像をオーグメンテーション画像としてオーグメンテーションデータベース155から選択する。拡張処理部152は、感情決定部151により決定されたプレーヤの感情に対応するオーグメンテーション画像を、オーグメンテーションデータベース155から選択したオーグメンテーション元画像を用いて生成してもよい。拡張処理部152は、選択あるいは生成されたオーグメンテーション画像を放送ストリーム上のプレーヤに適用するように重畳する。この重畳の具体的手段としては、プレーヤの真上に重ね合わせる(オーバーレイ)手段でもよいし(図8参照)、プレーヤの周囲に表示する手段でもよい(図9参照)。オーグメンテーション画像の詳細は、図8および図9を参照して後述する。 The augmentation processing unit 152 selects an augmentation source image corresponding to the player's emotion determined by the emotion determination unit 151 from the augmentation database 155 as an augmentation image. The augmentation processing unit 152 may generate an augmentation image corresponding to the player's emotion determined by the emotion determination unit 151 using an augmentation source image selected from the augmentation database 155 . The augmentation processor 152 superimposes the selected or generated augmentation image for application to the player on the broadcast stream. Specific means for this superimposition may be means for overlaying directly above the player (see FIG. 8) or means for displaying around the player (see FIG. 9). Details of the augmentation image will be described later with reference to FIGS. 8 and 9. FIG.

追従処理部153は、記録装置12に保存されているプレーヤ映像データを解析し、プレーヤの移動の有無を判定する。追従処理部153は、プレーヤの移動があると判定した場合には、プレーヤ映像データの解析により、その移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定する。なお、追従処理部153は、プレーヤ映像データ以外に、他のセンサ等で得られたセンシング結果を用いて、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定してもよい。 The follow-up processing unit 153 analyzes the player video data stored in the recording device 12 and determines whether or not the player has moved. If the follow-up processing unit 153 determines that the player has moved, it analyzes the player video data to determine the player's posture after the movement (for example, the player's limbs, physique, and other body shape), the player's player video, and so on. Identify each location (coordinates and area) in the data. In addition to the player video data, the follow-up processing unit 153 also uses sensing results obtained by other sensors and the like to determine the player's posture after movement (eg, the player's limbs, physique, and other whole-body shape), the player's Each position (coordinates and area) in the player video data may be specified.

修正処理部154は、追従処理部153によりプレーヤの移動があると判定された場合に、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)のそれぞれの特定結果を用いて、現在使用されているオーグメンテーション画像の特性(例えば形状、色、大きさ、あるいはこれらの組み合わせ)を変更(修正)する。なお、修正処理部154は、オーグメンテーション元画像に修正許可条件が割り当てられている場合には、その修正許可条件で示される範囲内でオーグメンテーション画像を修正してよい。言い換えると、修正処理部154は、オーグメンテーション画像によっては、プレーヤの移動があった場合に一部の制約を前提としてオーグメンテーション画像を修正する。なお、修正許可条件は、例えば感情が高揚と判定された場合に色(例えば青)を段階的に明るい色(例えば青→緑→黄→橙→赤)に修正してもよいが、感情が挫折と判定された場合に色を暗い色にしてもよいが、最低限の視認性の確保のために黒い色の使用は不許可である等の条件である。なお、修正許可条件は、上述した内容に限定されないことは言うまでもない。 When the follow-up processing unit 153 determines that the player has moved, the correction processing unit 154 corrects the posture of the player after movement (for example, the shape of the player's whole body such as limbs and physique), the position of the player in the player video data, and the position of the player in the player video data. Each of the (coordinates and regions) identification results are used to change (modify) properties (eg, shape, color, size, or a combination thereof) of the augmented image currently in use. Note that, when a modification permission condition is assigned to the augmentation source image, the modification processing unit 154 may modify the augmented image within the range indicated by the modification permission condition. In other words, depending on the augmentation image, the correction processing unit 154 corrects the augmentation image on the premise of some restrictions when the player moves. As for the correction permission condition, for example, when the emotion is determined to be uplifting, the color (eg, blue) may be modified step by step to a brighter color (eg, blue→green→yellow→orange→red). The color may be changed to a dark color if it is determined to be a setback, but the use of black is not permitted in order to ensure minimum visibility. Needless to say, the modification permission condition is not limited to the contents described above.

オーグメンテーションデータベース155は、放送ストリーム上のプレーヤに適用するように重畳されるオーグメンテーション画像の元画像であるオーグメンテーション元画像のデータを保持する。なお、添付図面においては、オーグメンテーションデータベースを「Aug DB」と略記している。オーグメンテーション画像はオーグメンテーション元画像と同一でもよい。オーグメンテーション元画像は、例えば3次元形状を有する服装、帽子等のようにプレーヤの真上に直接にオーバーレイされるオブジェクト(物体)であり、プレーヤの感情を示す。また、オーグメンテーション元画像は、2次元形状を有する画像あるいはインジケータでもよく、その画像やインジケータはプレーヤの感情を示す。また、オーグメンテーション元画像は、プレーヤの仮想的なフォロア(例えばファン、サポータ、真似をする人)の画像であってもよく、その画像はプレーヤの感情を示す。 The augmentation database 155 holds augmentation source image data, which is the source image of the augmented image to be superimposed to apply to the player on the broadcast stream. In the accompanying drawings, the augmentation database is abbreviated as "Aug DB". The augmented image may be the same as the original augmented image. The original augmentation image is an object (object) directly overlaid on the player, such as clothes, hats, etc., having a three-dimensional shape, and indicates the player's emotion. Also, the augmentation source image may be an image or indicator having a two-dimensional shape, and the image or indicator indicates the player's emotion. Also, the augmentation source image may be an image of the player's virtual followers (eg, fans, supporters, imitators), and the image indicates the player's emotions.

オーグメンテーション元画像あるいはオーグメンテーション画像は、プレーヤの感情に合わせて修正処理部154による修正が可能である。修正の可能性は、オーグメンテーション元画像に予め割り当てられた修正許可条件に従って様々に変化してよい。例えば、服装の色、サイズ、形が修正されてよい。但し、オーグメンテーション画像は、プレーヤの感情が変化したことが検出(判定)された時に初めて変更(修正)される。なお、オーグメンテーション元画像は、予めオーグメンテーションデータベース155に登録されている画像データに限定されず、オーグメンテーション画像表示システム1のシステム管理者あるいは第三者(例えばスポンサー)により提供された画像データが適宜、追加あるいは削除されても構わない。例えば放送局装置10が設置されているテレビ番組の放送局と映画製作会社等のスポンサー企業とが新作映画のスポンサー契約を締結した場合、この新作映画に登場する1つ以上のキャラクタ画像データがオーグメンテーション元画像として追加的に登録されて構わない。 The augmentation source image or the augmentation image can be modified by the modification processing unit 154 according to the player's feelings. The possibilities for modification may vary according to modification permission conditions pre-assigned to the augmentation source image. For example, clothing color, size, and shape may be modified. However, the augmentation image is changed (corrected) only when it is detected (determined) that the player's emotion has changed. Note that the original augmentation image is not limited to image data registered in the augmentation database 155 in advance, and is provided by the system administrator of the augmentation image display system 1 or a third party (for example, a sponsor). Image data may be added or deleted as appropriate. For example, when a television program broadcasting station in which the broadcasting station apparatus 10 is installed and a sponsor company such as a movie production company conclude a sponsorship contract for a new movie, one or more character image data appearing in the new movie are augmented. It may be additionally registered as a reference source image.

例えば、オーグメンテーション元画像が青色の山高帽である場合、感情決定部151によりプレーヤの感情が興奮状態であると判定されるに従って、修正処理部154により徐々にその山高帽が大きくなるように修正される。 For example, when the original image for augmentation is a blue bowler hat, the correction processing unit 154 gradually enlarges the bowler hat as the emotion determination unit 151 determines that the player's emotion is in an excited state. Fixed.

図5は、携帯端末20のハードウェア構成例を示すブロック図である。携帯端末20は、メモリ21と、記録装置22と、プロセッサ23と、通信部24と、オーグメンテーション画像処理部25と、入力表示部26とを含む構成である。メモリ21と、記録装置22と、プロセッサ23と、通信部24と、オーグメンテーション画像処理部25とは互いにデータあるいは情報の入出力が可能に内部バスにより接続されている。なお、オーグメンテーション画像処理部25は、放送局装置10にオーグメンテーション画像処理部15が設けられている場合には、携帯端末20から省略されてもよい。 FIG. 5 is a block diagram showing a hardware configuration example of the mobile terminal 20. As shown in FIG. The mobile terminal 20 includes a memory 21 , a recording device 22 , a processor 23 , a communication section 24 , an augmentation image processing section 25 and an input display section 26 . The memory 21, the recording device 22, the processor 23, the communication section 24, and the augmentation image processing section 25 are connected by an internal bus so that data or information can be input/output to each other. Note that the augmentation image processing unit 25 may be omitted from the portable terminal 20 when the broadcasting station device 10 is provided with the augmentation image processing unit 15 .

メモリ21は、一次記憶装置(例えばRAM、ROM)を用いて構成され、携帯端末20の動作の実行に必要なプログラム、さらには、動作中に生成されたデータあるいは情報を一時的に保存する。RAMは、例えばプロセッサ23の動作時に使用されるワークメモリである。ROMは、例えばプロセッサ23を制御するためのプログラムを予め記憶する。 The memory 21 is configured using a primary storage device (eg, RAM, ROM), and temporarily stores programs necessary for executing the operation of the mobile terminal 20 as well as data or information generated during operation. The RAM is a work memory used when the processor 23 operates, for example. The ROM stores in advance a program for controlling the processor 23, for example.

記録装置22は、二次記憶装置(例えばHDDあるいはSSD)、もしくは三次記憶装置(例えば光ディスク、SDカード)を用いて構成される。記録装置22は、放送局装置10から配信された放送ストリーム(プレーヤ映像データ)を保存してよい。また、記録装置22は、ユーザ(例えば野球の試合に関心を示さない娘P3)のオンラインショッピングサイト(図示略)への操作に基づくスキンパック画像の購入処理に関する履歴を示すユーザ購入データ(図7参照)を保存してよい。また、記録装置22は、人物(例えば野球の試合に出場しているプレーヤ)の一定期間における心拍数の変動の特性とその人物の感情との対応関係を示す感情特性データ(図示略)を保存してよい。 The recording device 22 is configured using a secondary storage device (eg, HDD or SSD) or a tertiary storage device (eg, optical disk, SD card). The recording device 22 may store the broadcast stream (player video data) distributed from the broadcasting station device 10 . In addition, the recording device 22 stores user purchase data (FIG. 7) that indicates the history of skin pack image purchase processing based on the user's (for example, daughter P3 who shows no interest in baseball games) operation to an online shopping site (not shown). ) can be saved. In addition, the recording device 22 stores emotion characteristic data (not shown) that indicates the correspondence relationship between the heart rate fluctuation characteristics of a person (for example, a player participating in a baseball game) during a certain period of time and the person's emotion. You can

プロセッサ23は、例えばCPU、DSPもしくはFPGAを用いて構成される。プロセッサ23は、携帯端末20の制御部として機能し、携帯端末20の各部の動作を全体的に統括するための制御処理、携帯端末20の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサ23は、メモリ21に記憶されたプログラムに従って動作する。 The processor 23 is configured using, for example, a CPU, DSP or FPGA. The processor 23 functions as a control unit of the mobile terminal 20, and performs control processing for overall control of the operation of each unit of the mobile terminal 20, data input/output processing with each unit of the mobile terminal 20, and data calculation. Processing and data storage. Processor 23 operates according to a program stored in memory 21 .

また、プロセッサ23は、ユーザの操作に応じて、オーグメンテーションデータベース255に登録されているオーグメンテーション元画像(言い換えると、スキンパック画像)の購入処理を行い、購入処理の履歴を示すユーザ購入データ(図7参照)を記録装置22に保存する。 In addition, the processor 23 performs purchase processing of the augmentation source images (in other words, skin pack images) registered in the augmentation database 255 according to the user's operation. The data (see FIG. 7) are stored in the recording device 22 .

通信部24は、ネットワークNW1を介して放送局装置10との間でデータあるいは情報の送受信を可能な通信回路により構成される。通信部24による通信方式としては、例えばネットワークNW1に対応してWAN、LAN、電力線通信等の有線での通信方式、WiFi(登録商標)、携帯電話用のモバイル通信等の無線での通信方式等が例示される。 The communication unit 24 is configured by a communication circuit capable of transmitting/receiving data or information to/from the broadcasting station apparatus 10 via the network NW1. The communication method by the communication unit 24 includes, for example, a wired communication method such as WAN, LAN, and power line communication corresponding to the network NW1, and a wireless communication method such as WiFi (registered trademark) and mobile communication for mobile phones. are exemplified.

オーグメンテーション画像処理部25は、プロセッサ23と同様に、例えばCPU、DSPもしくはFPGAを用いて構成される。オーグメンテーション画像処理部25は、感情決定部251と、拡張処理部252と、追従処理部253と、修正処理部254と、オーグメンテーションデータベース255とを機能的構成として有し、各部により実行される処理を総称したオーグメンテーション画像処理を実行する。なお、オーグメンテーション画像処理部25のうち感情決定部251、拡張処理部252、追従処理部253および修正処理部254の少なくとも1つはプロセッサ23により実行されてよいし、オーグメンテーション画像処理部25のうちオーグメンテーションデータベース255は記録装置22内に構成されてもよい。 The augmentation image processing unit 25, like the processor 23, is configured using, for example, a CPU, DSP, or FPGA. The augmentation image processing unit 25 has an emotion determination unit 251, an extension processing unit 252, a follow-up processing unit 253, a correction processing unit 254, and an augmentation database 255 as functional configurations. Augmentation image processing, which is a generic term for the processing that is performed. Note that at least one of the emotion determination unit 251, the extension processing unit 252, the follow-up processing unit 253, and the correction processing unit 254 of the augmentation image processing unit 25 may be executed by the processor 23, and the augmentation image processing unit Augmentation database 255 of 25 may be configured within recording device 22 .

感情決定部251は、記録装置22に保存されたプレーヤ映像データ(例えば画像データの一形態)を用いて、そのプレーヤ映像データを構成するそれぞれの画像上に映るプレーヤの心拍数およびその心拍数の一定期間(例えば数秒程度)における変動を解析する。具体的には、感情決定部251は、プレーヤ映像データに映るプレーヤの顔を検出し、顔領域(肌色領域)の各画素の特定の成分(例えばG(緑色)成分)の画素値の時系列データを生成する。感情決定部251は、時系列データに対して所定のフィルタリング処理を施し、高周波ノイズ成分および低周波の揺れ成分を除去した脈波を検出して心拍数(脈拍数)を導出する。 The emotion determination unit 251 uses the player video data (for example, one form of image data) stored in the recording device 22 to determine the heart rate of the player and the heart rate of the player shown in each image that constitutes the player video data. Analyze fluctuations over a certain period of time (for example, several seconds). Specifically, the emotion determination unit 251 detects the face of the player appearing in the player video data, and detects the time series of pixel values of specific components (for example, G (green) component) of each pixel of the face area (flesh color area). Generate data. The emotion determination unit 251 performs predetermined filtering processing on the time-series data, detects a pulse wave from which high-frequency noise components and low-frequency fluctuation components are removed, and derives a heart rate (pulse rate).

また、感情決定部251は、記録装置22に保存されている感情特性データと一定期間における心拍数の変動の解析結果とに基づいて、心拍数の変動の特性に対応する感情を、そのプレーヤの心情(感情)として決定して出力する。 In addition, the emotion determination unit 251 determines the emotion corresponding to the heart rate variation characteristic of the player based on the emotion characteristic data stored in the recording device 22 and the analysis result of the heart rate variation in a certain period of time. Determine and output as feelings (feelings).

拡張処理部252は、感情決定部251により決定されたプレーヤの感情に対応するオーグメンテーション元画像をオーグメンテーション画像としてオーグメンテーションデータベース255から選択する。拡張処理部252は、感情決定部251により決定されたプレーヤの感情に対応するオーグメンテーション画像を、オーグメンテーションデータベース255から選択したオーグメンテーション元画像を用いて生成してもよい。拡張処理部252は、選択あるいは生成されたオーグメンテーション画像を放送ストリーム上のプレーヤに適用するように重畳する(上述参照)。 The augmentation processing unit 252 selects the augmentation source image corresponding to the player's emotion determined by the emotion determination unit 251 from the augmentation database 255 as the augmentation image. The augmentation processing unit 252 may generate an augmentation image corresponding to the player's emotion determined by the emotion determination unit 251 using an augmentation source image selected from the augmentation database 255 . The augmentation processor 252 superimposes the selected or generated augmentation image for application to the player on the broadcast stream (see above).

追従処理部253は、記録装置22に保存されているプレーヤ映像データを解析し、プレーヤの移動の有無を判定する。追従処理部253は、プレーヤの移動があると判定した場合には、プレーヤ映像データの解析により、その移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定する。なお、追従処理部253は、プレーヤ映像データ以外に、他のセンサ等で得られたセンシング結果を用いて、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定してもよい。 The follow-up processing unit 253 analyzes the player video data stored in the recording device 22 and determines whether or not the player has moved. If the follow-up processing unit 253 determines that the player has moved, it analyzes the player video data to determine the player's posture after the movement (for example, the player's limbs, physique, and other body shape), the player's player video, and so on. Identify each location (coordinates and area) in the data. In addition to the player image data, the follow-up processing unit 253 uses sensing results obtained by other sensors and the like to determine the player's posture after movement (for example, the player's limbs, physique, and other whole-body shape), the player's Each position (coordinates and area) in the player video data may be specified.

修正処理部254は、追従処理部253によりプレーヤの移動があると判定された場合に、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)のそれぞれの特定結果を用いて、現在使用されているオーグメンテーション画像の特性(例えば形状、色、大きさ、あるいはこれらの組み合わせ)を変更(修正)する。なお、修正処理部254は、オーグメンテーション元画像に修正許可条件が割り当てられている場合には、その修正許可条件で示される範囲内でオーグメンテーション画像を修正してよい。言い換えると、修正処理部254は、オーグメンテーション画像によっては、プレーヤの移動があった場合に一部の制約を前提としてオーグメンテーション画像を修正する。 When the follow-up processing unit 253 determines that the player has moved, the correction processing unit 254 corrects the posture of the player after movement (for example, the shape of the player's whole body such as limbs and physique), the position of the player in the player video data, and the position of the player in the player video data. Each of the (coordinates and regions) identification results are used to change (modify) properties (eg, shape, color, size, or a combination thereof) of the augmented image currently in use. Note that, if a modification permission condition is assigned to the augmentation source image, the modification processing unit 254 may modify the augmented image within a range indicated by the modification permission condition. In other words, depending on the augmentation image, the correction processing unit 254 corrects the augmentation image on the premise of some restrictions when the player moves.

オーグメンテーションデータベース255は、放送ストリーム上のプレーヤに適用するように重畳されるオーグメンテーション画像の元画像であるオーグメンテーション元画像のデータを保持する。 The augmentation database 255 holds augmentation source image data, which is the source image of the augmented image to be superimposed to apply to the player on the broadcast stream.

入力表示部26は、例えばタッチパネルを用いて構成される。入力表示部26は、ユーザの操作を受け付け可能であり、かつプロセッサ23あるいはオーグメンテーション画像処理部25により生成された表示用のユーザデータ(例えばプレーヤ映像データ、あるいはオーグメンテーション画像が重畳されたプレーヤ映像データ)を表示する。例えば、入力表示部26は、オーグメンテーション元画像(スキンパック画像)の購入処理時にユーザの操作を受け付けてプロセッサ23に出力する。プロセッサ23は、購入処理の決済処理の完了を判定すると、オーグメンテーション元画像(スキンパック画像)を入力表示部26の所定領域に表示してもよい。これにより、ユーザ(例えば娘P3)は、野球の試合に関心を示さなくても、野球のプレーヤに適用するように自分の好きなキャラクタ画像データをスキンパック画像として使用できる。言い換えると、携帯端末20は、ユーザにより購入処理されたスキンパック画像をプレーヤの感情あるいは動きに照らして重畳することで、娘P3の野球の試合への関心を徐々に高めることができる。 The input display unit 26 is configured using, for example, a touch panel. The input display unit 26 can accept a user's operation, and is user data for display generated by the processor 23 or the augmentation image processing unit 25 (for example, player video data, or an image on which an augmentation image is superimposed). player video data). For example, the input display unit 26 receives a user's operation and outputs it to the processor 23 at the time of purchase processing of the augmentation source image (skin pack image). The processor 23 may display the augmentation source image (skin pack image) in a predetermined area of the input display section 26 when determining the completion of the payment process for the purchase process. As a result, the user (for example, daughter P3) can use his or her favorite character image data as a skin pack image as if it were applied to a baseball player, even if the user does not show interest in a baseball game. In other words, the portable terminal 20 superimposes the skin pack image purchased by the user on the player's emotion or movement, thereby gradually increasing the interest of the daughter P3 in the baseball game.

図6は、テレビジョン受像機30のハードウェア構成例を示すブロック図である。テレビジョン受像機30は、メモリ31と、記録装置32と、プロセッサ33と、通信部34と、オーグメンテーション画像処理部35と、表示パネル36とを含む構成である。メモリ31と、記録装置32と、プロセッサ33と、通信部34と、オーグメンテーション画像処理部35と、表示パネル36とは互いにデータあるいは情報の入出力が可能に内部バスにより接続されている。なお、オーグメンテーション画像処理部35は、放送局装置10にオーグメンテーション画像処理部15が設けられている場合には、テレビジョン受像機30から省略されてもよい。 FIG. 6 is a block diagram showing a hardware configuration example of the television receiver 30. As shown in FIG. The television receiver 30 includes a memory 31 , a recording device 32 , a processor 33 , a communication section 34 , an augmentation image processing section 35 and a display panel 36 . The memory 31, the recording device 32, the processor 33, the communication section 34, the augmentation image processing section 35, and the display panel 36 are connected by an internal bus so that data or information can be input/output to each other. Note that the augmentation image processing unit 35 may be omitted from the television receiver 30 when the broadcasting station device 10 is provided with the augmentation image processing unit 15 .

メモリ31は、一次記憶装置(例えばRAM、ROM)を用いて構成され、テレビジョン受像機30の動作の実行に必要なプログラム、さらには、動作中に生成されたデータあるいは情報を一時的に保存する。RAMは、例えばプロセッサ33の動作時に使用されるワークメモリである。ROMは、例えばプロセッサ33を制御するためのプログラムを予め記憶する。 The memory 31 is configured using a primary storage device (eg, RAM, ROM), and temporarily stores programs necessary for executing the operation of the television receiver 30 as well as data or information generated during operation. do. The RAM is a work memory used when the processor 33 operates, for example. The ROM stores in advance a program for controlling the processor 33, for example.

記録装置32は、二次記憶装置(例えばHDDあるいはSSD)、もしくは三次記憶装置(例えば光ディスク、SDカード)を用いて構成される。記録装置32は、放送局装置10から配信された放送ストリーム(プレーヤ映像データ)、更に、カメラCM2から送られたプレーヤ映像データの撮像映像データを保存してよい。また、記録装置32は、ユーザ(例えば野球の試合に関心を示さない娘P3)のオンラインショッピングサイト(図示略)へのリモコン(上述参照)を介した操作に基づくスキンパック画像の購入処理に関する履歴を示すユーザ購入データ(図7参照)を保存してよい。また、記録装置32は、人物(例えば野球の試合に出場しているプレーヤ)の一定期間における心拍数の変動の特性とその人物の感情との対応関係を示す感情特性データ(図示略)を保存してよい。 The recording device 32 is configured using a secondary storage device (eg, HDD or SSD) or a tertiary storage device (eg, optical disc, SD card). The recording device 32 may store the broadcast stream (player video data) distributed from the broadcasting station device 10, and the captured video data of the player video data sent from the camera CM2. In addition, the recording device 32 stores a history of skin pack image purchase processing based on the operation of the user (for example, daughter P3 who shows no interest in baseball games) to an online shopping site (not shown) via the remote control (see above). User purchase data (see FIG. 7) indicating the may be stored. In addition, the recording device 32 stores emotion characteristic data (not shown) that indicates the correspondence relationship between the heart rate fluctuation characteristics of a person (for example, a player participating in a baseball game) during a certain period of time and the person's emotion. You can

プロセッサ33は、例えばCPU、DSPもしくはFPGAを用いて構成される。プロセッサ33は、テレビジョン受像機30の制御部として機能し、テレビジョン受像機30の各部の動作を全体的に統括するための制御処理、テレビジョン受像機30の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサ33は、メモリ31に記憶されたプログラムに従って動作する。 The processor 33 is configured using, for example, a CPU, DSP or FPGA. The processor 33 functions as a control unit of the television receiver 30, performs control processing for overall control of the operation of each unit of the television receiver 30, and performs data input to and from each unit of the television receiver 30. It performs output processing, data arithmetic processing, and data storage processing. Processor 33 operates according to a program stored in memory 31 .

プロセッサ33は、放送局装置10から受信して取得した放送ストリームを用いて、放送ストリームの復調、デコード、抽出、選択、合成することで、視聴用のコマーシャル映像を含む番組映像データおよびコマーシャル音声を含む番組音声データからなるプレーヤ映像データを、入力表示部26およびスピーカ(図示略)を介して出力する。なお、プロセッサ33が放送局装置10から受信して取得した放送ストリームを用いて視聴用(表示用)のプレーヤ映像データを生成する処理の詳細については、例えば特開2010-21790号に開示されているので、詳細な説明は省略する。 The processor 33 demodulates, decodes, extracts, selects, and synthesizes the broadcast stream received and acquired from the broadcast station device 10, thereby producing program video data including commercial video for viewing and commercial audio. Player video data including program audio data is output via the input display unit 26 and a speaker (not shown). Details of the process of generating player video data for viewing (for display) using the broadcast stream received and acquired by the processor 33 from the broadcasting station device 10 are disclosed in, for example, Japanese Unexamined Patent Application Publication No. 2010-21790. Therefore, detailed description is omitted.

また、プロセッサ33は、ユーザの操作に応じて、オーグメンテーションデータベース355に登録されているオーグメンテーション元画像(言い換えると、スキンパック画像)の購入処理を行い、購入処理の履歴を示すユーザ購入データ(図7参照)を記録装置32に保存する。 In addition, the processor 33 performs purchase processing of the augmentation source images (in other words, skin pack images) registered in the augmentation database 355 in accordance with the user's operation. The data (see FIG. 7) are stored in the recording device 32 .

通信部34は、ネットワークNW1を介して放送局装置10との間でデータあるいは情報の送受信を可能な通信回路により構成される。通信部34による通信方式としては、例えばネットワークNW1に対応してWAN、LAN、電力線通信等の有線での通信方式、WiFi(登録商標)、携帯電話用のモバイル通信等の無線での通信方式等が例示される。また、通信部34は、オーグメンテーション元画像(スキンパック画像)の購入処理時にユーザのリモコン(上述参照)を用いた操作を受信して受け付けてプロセッサ33に出力する。プロセッサ33は、購入処理の決済処理の完了を判定すると、オーグメンテーション元画像(スキンパック画像)を表示パネル36の所定領域に表示してもよい。これにより、ユーザ(例えば娘P3)は、野球の試合に関心を示さなくても、野球のプレーヤに適用するように自分の好きなキャラクタ画像データをスキンパック画像として使用できる。言い換えると、テレビジョン受像機30は、ユーザにより購入処理されたスキンパック画像をプレーヤの感情あるいは動きに照らして重畳することで、娘P3の野球の試合への関心を徐々に高めることができる。 The communication unit 34 is configured by a communication circuit capable of transmitting/receiving data or information to/from the broadcasting station apparatus 10 via the network NW1. The communication method by the communication unit 34 includes, for example, a wired communication method such as WAN, LAN, and power line communication corresponding to the network NW1, and a wireless communication method such as WiFi (registered trademark) and mobile communication for mobile phones. are exemplified. Further, the communication unit 34 receives and accepts the user's operation using the remote control (see above) during the purchase process of the augmentation source image (skin pack image), and outputs the operation to the processor 33 . The processor 33 may display the augmentation source image (skin pack image) in a predetermined area of the display panel 36 when determining the completion of the payment process for the purchase process. As a result, the user (for example, daughter P3) can use his or her favorite character image data as a skin pack image as if it were applied to a baseball player, even if the user does not show interest in a baseball game. In other words, the television receiver 30 superimposes the skin pack image purchased by the user in light of the player's emotion or movement, thereby gradually increasing the daughter P3's interest in the baseball game.

オーグメンテーション画像処理部35は、プロセッサ33と同様に、例えばCPU、DSPもしくはFPGAを用いて構成される。オーグメンテーション画像処理部35は、感情決定部351と、拡張処理部352と、追従処理部353と、修正処理部354と、オーグメンテーションデータベース355とを機能的構成として有し、各部により実行される処理を総称したオーグメンテーション画像処理を実行する。なお、オーグメンテーション画像処理部35のうち感情決定部351、拡張処理部352、追従処理部353および修正処理部354の少なくとも1つはプロセッサ33により実行されてよいし、オーグメンテーション画像処理部35のうちオーグメンテーションデータベース355は記録装置32内に構成されてもよい。 The augmentation image processing unit 35, like the processor 33, is configured using, for example, a CPU, DSP, or FPGA. The augmentation image processing unit 35 has an emotion determination unit 351, an extension processing unit 352, a follow-up processing unit 353, a correction processing unit 354, and an augmentation database 355 as functional configurations. Augmentation image processing, which is a generic term for the processing that is performed. At least one of the emotion determination unit 351, the extension processing unit 352, the tracking processing unit 353, and the correction processing unit 354 of the augmentation image processing unit 35 may be executed by the processor 33, and the augmentation image processing unit 35 may be executed by the processor 33. Augmentation database 355 of 35 may be configured in recording device 32 .

感情決定部351は、記録装置32に保存されたプレーヤ映像データ(例えば画像データの一形態)あるいはその撮像映像データを用いて、そのプレーヤ映像データを構成するそれぞれの画像上に映るプレーヤの心拍数およびその心拍数の一定期間(例えば数秒程度)における変動を解析する。具体的には、感情決定部351は、プレーヤ映像データに映るプレーヤの顔を検出し、顔領域(肌色領域)の各画素の特定の成分(例えばG(緑色)成分)の画素値の時系列データを生成する。感情決定部351は、時系列データに対して所定のフィルタリング処理を施し、高周波ノイズ成分および低周波の揺れ成分を除去した脈波を検出して心拍数(脈拍数)を導出する。 The emotion determining unit 351 uses the player video data (for example, one form of image data) saved in the recording device 32 or the imaged video data thereof to calculate the heart rate of the player shown in each image forming the player video data. and the fluctuation of the heart rate over a certain period (for example, several seconds). Specifically, the emotion determination unit 351 detects the face of the player appearing in the player video data, and detects the time series of pixel values of specific components (for example, G (green) components) of each pixel of the face region (skin color region). Generate data. The emotion determination unit 351 performs predetermined filtering processing on the time-series data, detects a pulse wave from which high-frequency noise components and low-frequency fluctuation components are removed, and derives a heart rate (pulse rate).

また、感情決定部351は、記録装置32に保存されている感情特性データと一定期間における心拍数の変動の解析結果とに基づいて、心拍数の変動の特性に対応する感情を、そのプレーヤの心情(感情)として決定して出力する。 In addition, the emotion determination unit 351 determines the emotion corresponding to the characteristics of the heart rate variation based on the emotion characteristic data stored in the recording device 32 and the analysis result of the heart rate variation in a certain period of time. Determine and output as feelings (feelings).

拡張処理部352は、感情決定部351により決定されたプレーヤの感情に対応するオーグメンテーション元画像をオーグメンテーション画像としてオーグメンテーションデータベース355から選択する。拡張処理部352は、感情決定部351により決定されたプレーヤの感情に対応するオーグメンテーション画像を、オーグメンテーションデータベース355から選択したオーグメンテーション元画像を用いて生成してもよい。拡張処理部352は、選択あるいは生成されたオーグメンテーション画像を放送ストリーム上のプレーヤに適用するように重畳する(上述参照)。 The augmentation processing unit 352 selects from the augmentation database 355 the augmentation source image corresponding to the player's emotion determined by the emotion determination unit 351 as the augmentation image. The augmentation processing unit 352 may generate an augmentation image corresponding to the player's emotion determined by the emotion determination unit 351 using the augmentation source image selected from the augmentation database 355 . The augmentation processor 352 superimposes the selected or generated augmentation image for application to the player on the broadcast stream (see above).

追従処理部353は、記録装置32に保存されているプレーヤ映像データを解析し、プレーヤの移動の有無を判定する。追従処理部353は、プレーヤの移動があると判定した場合には、プレーヤ映像データの解析により、その移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定する。なお、追従処理部353は、プレーヤ映像データ以外に、他のセンサ等で得られたセンシング結果を用いて、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定してもよい。 The follow-up processing unit 353 analyzes the player video data stored in the recording device 32 and determines whether or not the player has moved. If the follow-up processing unit 353 determines that the player has moved, it analyzes the player video data to determine the player's posture after the movement (for example, the player's limbs, physique, and other body shape), the player's player video, and so on. Identify each location (coordinates and area) in the data. In addition to the player video data, the follow-up processing unit 353 uses sensing results obtained by other sensors and the like to determine the player's posture after movement (for example, the player's limbs, physique, and other whole-body shapes), the player's Each position (coordinates and area) in the player video data may be specified.

修正処理部354は、追従処理部353によりプレーヤの移動があると判定された場合に、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)のそれぞれの特定結果を用いて、現在使用されているオーグメンテーション画像の特性(例えば形状、色、大きさ、あるいはこれらの組み合わせ)を変更(修正)する。なお、修正処理部354は、オーグメンテーション元画像に修正許可条件が割り当てられている場合には、その修正許可条件で示される範囲内でオーグメンテーション画像を修正してよい。言い換えると、修正処理部354は、オーグメンテーション画像によっては、プレーヤの移動があった場合に一部の制約を前提としてオーグメンテーション画像を修正する。 When the follow-up processing unit 353 determines that the player has moved, the correction processing unit 354 corrects the posture of the player after the movement (for example, the shape of the player's whole body such as limbs and physique), the position of the player in the player video data, and the position of the player in the player video data. Each of the (coordinates and regions) identification results are used to change (modify) properties (eg, shape, color, size, or a combination thereof) of the augmented image currently in use. Note that, if a modification permission condition is assigned to the augmentation source image, the modification processing unit 354 may modify the augmented image within the range indicated by the modification permission condition. In other words, the correction processing unit 354 corrects the augmentation image, depending on the augmentation image, assuming some restrictions when the player moves.

オーグメンテーションデータベース355は、放送ストリーム上のプレーヤに適用するように重畳されるオーグメンテーション画像の元画像であるオーグメンテーション元画像のデータを保持する。 The augmentation database 355 holds augmentation source image data, which is the source image of the augmented image to be superimposed to apply to the player on the broadcast stream.

表示パネル36は、例えば液晶(LCD:Liquid Crystal Display)パネルあるいは有機EL(Electroluminescence)を用いて構成される。表示パネル36は、プロセッサ33あるいはオーグメンテーション画像処理部35により生成された表示用のユーザデータ(例えばプレーヤ映像データ、あるいはオーグメンテーション画像が重畳されたプレーヤ映像データ)を表示する。 The display panel 36 is configured using, for example, a liquid crystal (LCD) panel or an organic EL (electroluminescence) panel. The display panel 36 displays user data for display generated by the processor 33 or the augmentation image processing unit 35 (for example, player image data or player image data superimposed with an augmentation image).

<オーグメンテーション画像の重畳例>
次に、実施の形態1に係るオーグメンテーション画像表示システム1により実行されるオーグメンテーション画像のプレーヤ映像データの重畳例について、図8および図9を参照して説明する。図8は、オーグメンテーション画像の表示例を時系列に示す図である。図9は、オーグメンテーション画像の表示例を示す図である。図8および図9の説明では、説明を分かり易くするために、オーグメンテーション画像処理部25あるいはオーグメンテーション画像処理部35が、プレーヤ映像データに基づくプレーヤの感情の解析、オーグメンテーション画像の生成および表示の各種処理を実行するとして説明するが、オーグメンテーション画像処理部15が実行してもよい。
<Example of superimposed augmentation image>
Next, an example of superimposing the player video data of the augmentation image executed by the augmentation image display system 1 according to the first embodiment will be described with reference to FIGS. 8 and 9. FIG. FIG. 8 is a diagram showing a display example of an augmentation image in chronological order. FIG. 9 is a diagram showing a display example of an augmentation image. 8 and 9, for the sake of clarity, the augmentation image processing unit 25 or the augmentation image processing unit 35 analyzes the player's emotions based on the player video data and creates an augmentation image. Although it is assumed that various processes of generation and display are executed, the augmentation image processing unit 15 may execute them.

図8では、ユーザにより野球の試合が携帯端末20あるいはテレビジョン受像機30で視聴されている場合に、時刻T=t0において野球の試合に出場しているプレーヤPL0(例えば父親P1および母親P2が好きな選手)が入力表示部26あるいは表示パネル36に表示されている。この時、娘P3の操作により、プレーヤPL0の化身となるスキンパック画像(オーグメンテーション画像)として、娘P3が好きなヒーローの髪型および服装が購入処理されたとする。 In FIG. 8, when the user is viewing a baseball game on the mobile terminal 20 or the television receiver 30, a player PL0 (for example, a father P1 and a mother P2) participating in the baseball game at time T=t0 Favorite player) is displayed on the input display unit 26 or the display panel 36 . At this time, it is assumed that daughter P3 purchases the hairstyle and clothes of a hero that daughter P3 likes as a skin pack image (augmentation image) that is an incarnation of player PL0 by the operation of daughter P3.

すると、時刻T=t0より後の時刻T=t1に、携帯端末20あるいはテレビジョン受像機30は、購入処理されたスキンパック画像をオーグメンテーション画像として用いてプレーヤPL0の体格および姿勢に適合するように真上に重畳して表示する(仮想プレーヤPL1a参照)。これにより、娘P3の好きなヒーロー(キャラクタ)の画像がプレーヤPL0に重畳されたプレーヤPL1となり、娘P3は野球の試合に興味を持ち出し始め、娘P3と一緒に視聴している父親P1および母親P2も野球の試合の視聴を快適に行える可能性が高まる。 Then, at time T=t1 after time T=t0, portable terminal 20 or television receiver 30 adapts the physique and posture of player PL0 using the skin pack image that has undergone purchase processing as an augmentation image. (see virtual player PL1a). As a result, the image of the favorite hero (character) of the daughter P3 becomes the player PL1 superimposed on the player PL0, and the daughter P3 begins to take an interest in the baseball game. It is more likely that P2 will also be able to comfortably watch the baseball game.

また、時刻T=t1より後の時刻T=t2に、プレーヤ映像データ中のプレーヤPL0がバッターボックスに入る等、プレーヤPL0の移動があったことが携帯端末20あるいはテレビジョン受像機30により判定されたとする。この時、携帯端末20あるいはテレビジョン受像機30は、プレーヤPL0の移動に追従するように、現在表示されているオーグメンテーション画像を移動後のプレーヤPL0の位置および姿勢に適合するように重畳して表示する(仮想プレーヤPL1b参照)。また、バッターボックスに入ったプレーヤPL0の感情が徐々に興奮状態になってきたことが携帯端末20あるいはテレビジョン受像機30により判定されたとする。 At time T=t2 after time T=t1, portable terminal 20 or television receiver 30 determines that player PL0 in the player video data has moved, such as player PL0 entering the batter's box. Suppose At this time, the mobile terminal 20 or the television receiver 30 superimposes the currently displayed augmentation image so as to match the position and orientation of the player PL0 after movement so as to follow the movement of the player PL0. (see virtual player PL1b). It is also assumed that mobile terminal 20 or television receiver 30 determines that player PL0, who has entered the batter's box, is gradually getting excited.

この後の時刻T=t3に、携帯端末20あるいはテレビジョン受像機30は、プレーヤPL0の感情の段階的な高ぶりに対応するように、オーグメンテーション画像を段階的に修正し、修正後のオーグメンテーション画像を重畳して表示する(仮想プレーヤPL1c参照)。これにより、視聴しているユーザは、野球のプレーヤの感情が徐々に高まって興奮状態にあることを携帯端末20あるいはテレビジョン受像機30に表示された仮想プレーヤPL1b,PL1cにより直感的かつ視覚的に簡易に把握できる。 At time T=t3 thereafter, the portable terminal 20 or the television receiver 30 corrects the augmentation image step by step so as to correspond to the gradual heightened emotions of the player PL0. A mention image is superimposed and displayed (see virtual player PL1c). As a result, the viewing user can intuitively and visually recognize that the baseball player is in an excited state with gradually increasing emotions through the virtual players PL1b and PL1c displayed on the mobile terminal 20 or the television receiver 30. can be easily grasped.

図9では、図8と同様に、ユーザにより野球の試合が携帯端末20あるいはテレビジョン受像機30で視聴されている場合に、野球の試合に出場しているプレーヤPL0(例えば父親P1および母親P2が好きな選手)が入力表示部26あるいは表示パネル36に表示されている。この時、娘P3の操作により、プレーヤPL0の化身となるスキンパック画像(オーグメンテーション画像)として、娘P3が好きな動物(例えば猫)の顔を有したマスコットキャラクタMSC1が購入処理されたとする。 In FIG. 9, as in FIG. 8, when the user is watching a baseball game on the mobile terminal 20 or the television receiver 30, players PL0 (for example, father P1 and mother P2) participating in the baseball game favorite player) is displayed on the input display section 26 or the display panel 36 . At this time, it is assumed that daughter P3 purchases a mascot character MSC1 having the face of an animal (for example, a cat) that daughter P3 likes as a skin pack image (augmentation image) that is an incarnation of player PL0. .

するとこの後、携帯端末20あるいはテレビジョン受像機30は、購入処理されたマスコットキャラクタMSC1のスキンパック画像をオーグメンテーション画像として用いてプレーヤPL0の体格および姿勢に適合するようにプレーヤPL0の周囲(例えば右隣り)に重畳して表示する。これにより、娘P3の好きなマスコットキャラクタMSC1の画像がプレーヤPL0の感情を示すこととなり、娘P3はプレーヤPL0の隣に映るマスコットキャラクタMSC1の出演によって野球の試合に興味を持ち出し始め、娘P3と一緒に視聴している父親P1および母親P2も野球の試合の視聴を快適に行える可能性が高まる。 Thereafter, portable terminal 20 or television receiver 30 uses the purchased skin pack image of mascot character MSC1 as an augmentation image to fit the physique and posture of player PL0 ( For example, it is superimposed on the right side) and displayed. As a result, the image of the mascot character MSC1 that the daughter P3 likes shows the emotions of the player PL0. The father P1 and the mother P2 watching together are more likely to be able to comfortably watch the baseball game.

なお、携帯端末20あるいはテレビジョン受像機30は、プレーヤPL0が悔しい気持ちを抱いていることを検出した場合には、購入処理された同一のスキンパック画像を用いて、プレーヤPL0が悔しがっている状況を示すマスコットキャラクタMSC2をプレーヤPL0の周囲(例えば右隣り)に重畳して表示する。これにより、娘P3はプレーヤPL0の隣に映るマスコットキャラクタMSC2が悲しんでいる様子を見て、プレーヤPL0が今悔しがっているあるいは悲しんでいる状況を視覚的かつ直感的に把握でき、野球の試合に少しずつ興味を持ち始めることが期待できる。 When mobile terminal 20 or television receiver 30 detects that player PL0 is feeling frustrated, portable terminal 20 or television receiver 30 uses the same skin pack image that has undergone purchase processing to cause player PL0 to feel frustrated. A mascot character MSC2 indicating the presence of the player PL0 is superimposed and displayed around the player PL0 (for example, to the right). As a result, the daughter P3 can visually and intuitively grasp the current regret or sadness of the player PL0 by seeing the sad mascot character MSC2 reflected next to the player PL0. You can expect to start to take an interest in the game little by little.

なお、携帯端末20あるいはテレビジョン受像機30は、プレーヤPL0が嬉しい気持ちを抱いていることを検出した場合には、購入処理された同一のスキンパック画像を用いて、プレーヤPL0が嬉しがっている状況を示すマスコットキャラクタMSC3をプレーヤPL0の周囲(例えば右隣り)に重畳して表示する。これにより、娘P3はプレーヤPL0の隣に映るマスコットキャラクタMSC3が嬉しがっている様子を見て、プレーヤPL0が今喜んでいる状況を視覚的かつ直感的に把握でき、野球の試合に少しずつ興味を持ち始めることが期待できる。 When mobile terminal 20 or television receiver 30 detects that player PL0 is happy, portable terminal 20 or television receiver 30 uses the same skin pack image that has undergone purchase processing to make player PL0 happy. A mascot character MSC3 indicating the presence of the player PL0 is superimposed and displayed around (for example, right next to) the player PL0. As a result, the daughter P3 can visually and intuitively grasp the happy situation of the player PL0 by seeing the happy mascot character MSC3 displayed next to the player PL0. You can expect them to start to take an interest.

<オーグメンテーション画像表示システムの動作>
次に、実施の形態1に係るオーグメンテーション画像表示システム1の動作例について、図10を参照して説明する。図10は、一連のオーグメンテーション画像処理の動作手順例を示すフローチャートである。図10の説明では、説明を分かり易くするために、オーグメンテーション画像処理部25あるいはオーグメンテーション画像処理部35が、プレーヤ映像データに基づくプレーヤの感情の解析、オーグメンテーション画像の生成および表示の各種処理を実行するとして説明するが、オーグメンテーション画像処理部15が実行してもよい。
<Operation of Augmentation Image Display System>
Next, an operation example of the augmentation image display system 1 according to Embodiment 1 will be described with reference to FIG. FIG. 10 is a flow chart showing an example of an operation procedure of a series of augmentation image processing. In the description of FIG. 10, for ease of understanding, the augmentation image processing unit 25 or the augmentation image processing unit 35 analyzes the player's emotion based on the player video data, generates and displays the augmentation image, and performs the following operations. , the augmentation image processing unit 15 may also perform the various processes.

図10において、携帯端末20あるいはテレビジョン受像機30は、オンラインショッピング等のオンライン取引により、ユーザの操作に応じて、ユーザに選択されたスキンパック画像(オーグメンテーション元画像)の購入処理を行う(St1)。携帯端末20あるいはテレビジョン受像機30は、記録されているプレーヤ映像データに基づいて、そのプレーヤ映像データを構成するそれぞれの画像上に映るプレーヤの心拍数(例えばバイタル情報の一形態)およびその心拍数の一定期間(例えば数秒程度)における変動(例えばバイタル情報の一形態)を計算かつ解析する(St2)。 In FIG. 10, the mobile terminal 20 or the television receiver 30 purchases a skin pack image (original augmentation image) selected by the user according to the user's operation through online transactions such as online shopping. (St1). Based on the recorded player video data, the mobile terminal 20 or the television receiver 30 detects the player's heart rate (for example, one form of vital information) and the heart rate displayed on each image constituting the player video data. Calculate and analyze the variation (for example, one form of vital information) in a certain period of time (for example, about several seconds) (St2).

携帯端末20あるいはテレビジョン受像機30は、記録装置22に保存されている感情特性データとステップSt2において得られた一定期間における心拍数の変動の解析結果とに基づいて、心拍数の変動の特性に対応する感情を、そのプレーヤの心情(感情)として決定する(St3)。携帯端末20あるいはテレビジョン受像機30は、ステップSt1において購入処理されたスキンパック画像(オーグメンテーション元画像)を用いて、ステップSt3において決定されたプレーヤの感情に応じたオーグメンテーション画像(例えば重畳物の一形態)を生成あるいは選択する(St4)。携帯端末20あるいはテレビジョン受像機30は、プレーヤの感情に応じたオーグメンテーション画像を、プレーヤ映像データ(放送ストリーム)上のプレーヤに適用するように重畳して表示する(St4)。 The mobile terminal 20 or the television receiver 30, based on the emotional characteristic data stored in the recording device 22 and the analysis result of the heart rate fluctuation in a certain period obtained in step St2, determines the characteristics of the fluctuation of the heart rate. is determined as the player's sentiment (emotion) (St3). The mobile terminal 20 or the television receiver 30 uses the skin pack image (original augmentation image) purchased in step St1 to use the augmentation image (for example, A form of superimposition) is generated or selected (St4). The mobile terminal 20 or the television receiver 30 superimposes and displays the augmentation image corresponding to the player's emotion so as to apply it to the player on the player video data (broadcast stream) (St4).

ここで、プレーヤの移動があったことが携帯端末20あるいはテレビジョン受像機30により検出されていない場合には(St5、NO)、プレーヤの移動があったことが検出されるまでステップSt2~St4の処理が繰り返される。 Here, if the portable terminal 20 or the television receiver 30 has not detected that the player has moved (St5, NO), steps St2 to St4 are repeated until the player's movement is detected. is repeated.

一方、プレーヤの移動があったことが携帯端末20あるいはテレビジョン受像機30により検出された場合には(St5、YES)、携帯端末20あるいはテレビジョン受像機30は、プレーヤ映像データあるいは他のセンサ等で得られたセンシング結果を用いて、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定する(St6)。 On the other hand, if the mobile terminal 20 or the television receiver 30 detects that the player has moved (St5, YES), the mobile terminal 20 or the television receiver 30 receives the player video data or other sensor data. Using the sensing results obtained in step 6, the posture of the player after movement (for example, the shape of the player's whole body such as limbs and physique) and the position (coordinates and area) of the player in the player image data are specified (St6). .

携帯端末20あるいはテレビジョン受像機30は、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)のそれぞれの特定結果を用いて、現在使用されているオーグメンテーション画像の特性(例えば形状、色、大きさ、あるいはこれらの組み合わせ)を変更(修正)する(St7)。特に、携帯端末20あるいはテレビジョン受像機30は、オーグメンテーション元画像に修正許可条件が割り当てられている場合には、その修正許可条件で示される範囲内でオーグメンテーション画像を修正する(St7)。 The mobile terminal 20 or the television receiver 30 uses the result of specifying the posture of the player after movement (for example, the shape of the player's whole body such as limbs and physique) and the position (coordinates and area) of the player in the player video data. to change (correct) the characteristics of the currently used augmentation image (for example, shape, color, size, or a combination thereof) (St7). In particular, when the modification permitting condition is assigned to the augmentation source image, the portable terminal 20 or the television receiver 30 modifies the augmented image within the range indicated by the modification permitting condition (St7 ).

なお、ステップSt7の後、ユーザの操作によりアプリケーション(つまり、オーグメンテーション画像の重畳表示用アプリケーション)が終了されない限り(St8、NO)、終了されるまでステップSt2~St7の処理が繰り返される。一方で、ステップSt7の後、ユーザの操作によりアプリケーション(つまり、オーグメンテーション画像の重畳表示用アプリケーション)が終了されれば(St8、YES)、オーグメンテーション画像表示システム1の動作は終了する。 After step St7, unless the application (that is, application for superimposed display of the augmentation image) is terminated by the user's operation (St8, NO), the processes of steps St2 to St7 are repeated until the application is terminated. On the other hand, after step St7, if the application (that is, the application for superimposed display of the augmentation image) is terminated by the user's operation (St8, YES), the operation of the augmentation image display system 1 is terminated.

以上により、実施の形態1に係るオーグメンテーション画像表示システム1は、ユーザ操作に応じて、テレビ番組(例えば野球の試合)に出演(例えば出場)している少なくとも1人の人物(例えばプレーヤ)の化身を示す画像データ(例えばスキンパック画像であるオーグメンテーション元画像データ)を購入処理する。オーグメンテーション画像表示システム1は、テレビ番組の映像データ(例えば野球の試合に出場しているプレーヤが映るプレーヤ映像データ)に基づいて、プレーヤの感情を推定する。オーグメンテーション画像表示システム1は、オーグメンテーション元画像データを用いて、プレーヤの感情に応じたオーグメンテーション画像データを生成し、生成されたオーグメンテーション画像データをテレビ番組のプレーヤに関連付けて表示する。なお、上述したオーグメンテーション画像処理は、放送局装置10、携帯端末20あるいはテレビジョン受像機30のいずれにおいて実行されても構わないが、放送ストリームの表示処理およびオーグメンテーション画像が重畳された放送ストリームの表示処理は携帯端末20あるいはテレビジョン受像機30により実行される。 As described above, the augmentation image display system 1 according to Embodiment 1 can perform at least one person (for example, a player) appearing (for example, participating in) a television program (for example, a baseball game) according to a user's operation. purchase processing of image data (for example, augmentation source image data, which is a skin pack image) showing the incarnation of . The augmentation image display system 1 estimates a player's emotion based on video data of a television program (for example, player video data showing a player participating in a baseball game). The augmentation image display system 1 uses the original augmentation image data to generate augmentation image data corresponding to the emotion of the player, and associates the generated augmentation image data with the player of the television program. indicate. The above-described augmentation image processing may be executed in any of the broadcasting station device 10, the mobile terminal 20, or the television receiver 30. Display processing of the broadcast stream is executed by the mobile terminal 20 or the television receiver 30 .

これにより、オーグメンテーション画像表示システム1は、例えばスポーツの試合等のテレビ番組に出演している人物(例えば試合に出場しているプレーヤ)の心情(感情)を、携帯端末20あるいはテレビジョン受像機30の表示用画面を通して視聴者に概念的に把握可能とし、視聴者の利便性の向上に資することができる。従って、オーグメンテーション画像表示システム1は、プレーヤの位置および姿勢等の形状に合わせてプレーヤの感情に合わせたオーグメンテーション画像を適切に表示できるので、テレビ番組の視聴に対するエンターテインメント性を的確に向上できる。 As a result, the augmentation image display system 1 can display the feelings (feelings) of a person (for example, a player participating in the game) appearing in a television program such as a sports game, for example, on the mobile terminal 20 or on the television receiver. The viewer can conceptually grasp the information through the display screen of the device 30, which contributes to improving the viewer's convenience. Therefore, the augmentation image display system 1 can appropriately display an augmentation image that matches the player's emotion in accordance with the player's shape such as position and posture, thereby appropriately improving the entertainment value of watching TV programs. can.

また、オーグメンテーション画像表示システム1は、オーグメンテーション画像データを表示する際に、オーグメンテーション画像データを人物(例えばプレーヤ)にオーバーレイして表示する。これにより、ユーザは、プレーヤにオーバーレイして表示されたオーグメンテーション画像を見ることで、一見画面を通してだけでは把握しにくいプレーヤの感情を具体的かつ視覚的に直接的に把握できるので、テレビ番組をより楽しんで鑑賞できる。 Further, the augmentation image display system 1 overlays the augmentation image data on a person (for example, a player) when displaying the augmentation image data. As a result, by viewing the augmented image overlaid on the player, the user can directly and concretely grasp the emotion of the player, which is difficult to grasp only through the screen at first glance. can be enjoyed more.

また、オーグメンテーション画像表示システム1は、オーグメンテーション画像データを表示する際に、オーグメンテーション画像データを人物(例えばプレーヤ)の周囲に表示する。これにより、ユーザは、プレーヤにオーバーレイして表示されたことで生じ得る視認性の劣化の発生要因が適正に排除されるので、テレビ番組の視認性が劣化されることなくプレーヤの感情を具体的に把握できてテレビ番組をより楽しんで鑑賞できる。 Also, the augmentation image display system 1 displays the augmentation image data around a person (for example, a player) when displaying the augmentation image data. As a result, the user can properly express the emotions of the player without degrading the visibility of the TV program, because the cause of deterioration of the visibility caused by the overlay display on the player is properly eliminated. You can enjoy watching TV programs more by grasping them.

また、オーグメンテーション画像表示システム1は、人物(例えばプレーヤ)がテレビ番組において位置を移動した場合に、人物の動きを追従し、人物の動きの追従に合わせてオーグメンテーション画像データの少なくとも形状を修正する。オーグメンテーション画像表示システム1は、オーグメンテーション画像データを表示する際に、少なくとも形状が修正された後のオーグメンテーション画像データを表示する。これにより、ユーザは、最新のプレーヤの位置および姿勢に適合するように表示されたオーグメンテーション画像を携帯端末20あるいはテレビジョン受像機30を介して視聴できる。従って、オーグメンテーション画像表示システム1は、プレーヤの位置が変わったとしても追従してオーグメンテーション画像を適切に表示でき、引き続きテレビ番組の視聴に対するエンターテインメント性を的確に向上できる。 Further, when a person (for example, a player) moves in a television program, the augmentation image display system 1 follows the movement of the person and displays at least the shape of the augmentation image data according to the movement of the person. to fix. When displaying the augmentation image data, the augmentation image display system 1 displays the augmentation image data after at least the shape is corrected. Thereby, the user can view the augmented image displayed so as to match the latest position and posture of the player via the mobile terminal 20 or the television receiver 30 . Therefore, the augmentation image display system 1 can follow and appropriately display the augmentation image even if the position of the player changes, and can continue to improve the entertainment value of watching the TV program.

また、オーグメンテーション画像表示システム1は、オーグメンテーション画像データを生成する際に、人物の感情が段階的に高揚したことが検出されると、人物の感情の段階的な高揚に対応して段階的に異なるオーグメンテーション画像データを生成する。これにより、ユーザは、人物の感情が徐々に高揚して興奮している様子がオーグメンテーション画像の段階的な変更(修正)に伴って直感的かつ視覚的に把握でき、テレビ番組のエンターテインメント性を享受できる。 Further, when the augmentation image display system 1 detects that the person's emotion is gradually elevated when generating the augmentation image data, the augmentation image display system 1 responds to the gradual elevation of the person's emotion. Generate stepwise different augmentation image data. As a result, the user can intuitively and visually grasp how the person's emotions are gradually heightened and excited as the augmented image is changed (corrected) step by step. can enjoy

また、オーグメンテーション画像表示システム1は、ユーザの操作に基づく購入処理が可能な画像データ(例えばスキンパック画像であるオーグメンテーション元画像)をデータベース(例えばオーグメンテーションデータベース155,255,355)に登録管理する。これにより、オーグメンテーション画像表示システム1は、多種多様なオーグメンテーション元画像をデータベースとして登録および管理できるので、幅広い年齢層を有するユーザの興味が持てるスキンパック画像を選択する自由度を格段に向上できる。 Further, the augmentation image display system 1 stores image data (for example, an augmentation source image that is a skin pack image) that can be purchased based on a user's operation in a database (for example, the augmentation databases 155, 255, and 355). registered and managed. As a result, since the augmentation image display system 1 can register and manage a wide variety of original augmentation images as a database, the degree of freedom in selecting skin pack images that are of interest to users of a wide range of ages is greatly improved. can improve.

また、オーグメンテーション画像表示システム1は、例えばテレビ番組の放送局との間で映画製作会社が新作映画のスポンサー契約を行った場合に、画像データ(例えばスキンパック画像であるオーグメンテーション元画像)を登録管理する際に、新作映画に登場する少なくとも1人のキャラクタ画像データをオーグメンテーションデータベース155,255,355に登録管理する。これにより、ユーザは、例えば新作映画に登場する人気のある有名なキャラクタ画像データをスキンパック画像として使用してプレーヤの感情、動き等に合わせて重畳されたテレビ番組を視聴できるので、楽しみながらテレビ番組を鑑賞することができる。 Further, the augmentation image display system 1 can be used for image data (for example, an original augmentation image that is a skin pack image) when a movie production company concludes a sponsorship contract for a new movie with a TV program broadcasting station. ), at least one character image data appearing in the new movie is registered and managed in the augmentation databases 155 , 255 , and 355 . As a result, the user can watch a TV program superimposed according to the player's emotions, movements, etc. using, for example, popular and famous character image data appearing in a new movie as a skin pack image. You can watch the program.

また、オーグメンテーション画像表示システム1は、オーグメンテーション画像データを生成する際に、プレーヤの感情の変更が検出されると、変更後のプレーヤの感情に従ってオーグメンテーション画像データの色を修正する。これにより、ユーザは、携帯端末20あるいはテレビジョン受像機30を介して、プレーヤの気持ちが変化したことがオーグメンテーション画像の色の変化で簡易に把握でき、テレビ番組の内容のより深い理解ならびに関心を持つことができるようになる。 Further, when the augmentation image display system 1 detects a change in the player's emotion when generating the augmentation image data, the augmentation image display system 1 corrects the color of the augmentation image data according to the changed player's emotion. . As a result, the user can easily grasp that the player's feelings have changed through the portable terminal 20 or the television receiver 30 from the change in the color of the augmentation image, thereby gaining a deeper understanding of the contents of the television program. be able to take an interest.

また、受信機は、ユーザにより携帯される携帯端末20である。これにより、ユーザは、例えば携帯可能な携帯端末20を所持して移動しながらでも、プレーヤの感情に適合するオーグメンテーション画像が重畳表示されたテレビ番組の視聴を楽しめる。 Also, the receiver is the mobile terminal 20 carried by the user. As a result, the user can enjoy watching a television program on which an augmentation image matching the player's emotion is superimposed and displayed, even while carrying the portable terminal 20 and moving around.

また、受信機は、ユーザが位置する場所に載置されたテレビジョン受像機30である。これにより、ユーザは、寛げるスペース(例えばユーザの自宅内)に載置されたテレビジョン受像機30を介して、プレーヤの感情に適合するオーグメンテーション画像が重畳表示されたテレビ番組の視聴を楽しめる。 Also, the receiver is the television receiver 30 placed at the place where the user is located. As a result, the user can enjoy viewing a television program superimposed with an augmentation image that matches the player's emotion through the television receiver 30 placed in a relaxing space (for example, in the user's home). .

以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことはいうまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Various embodiments have been described above with reference to the drawings, but it goes without saying that the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims. Naturally, it is understood that it belongs to the technical scope of the present disclosure. In addition, the constituent elements of the various embodiments described above may be combined arbitrarily without departing from the gist of the invention.

本開示は、スポーツの試合等のテレビ番組に出演している人物の心情を、画面を通して視聴者に概念的に把握可能とし、視聴者の利便性の向上に資するオーグメンテーション画像表示システムおよびオーグメンテーション画像表示方法として有用である。 The present disclosure provides an augmentation image display system and an augmentation image display system that allow viewers to conceptually grasp the emotions of a person appearing in a television program such as a sports game through a screen, thereby contributing to improved convenience for viewers. It is useful as a method of displaying a reference image.

1 オーグメンテーション画像表示システム
10 放送局装置
11、21、31 メモリ
12、22、32 記録装置
13、23、33 プロセッサ
14、24,34 通信部
15、25、35 オーグメンテーション画像処理部
20 携帯端末
26 入力表示部
30 テレビジョン受像機
36 表示パネル
151、251、351 感情決定部
152、252、352 拡張処理部
153、253、353 追従処理部
154、254、354 修正処理部
155、255、355 オーグメンテーションデータベース
CM1、CM2 カメラ
1 Augmentation Image Display System 10 Broadcast Station Devices 11, 21, 31 Memories 12, 22, 32 Recording Devices 13, 23, 33 Processors 14, 24, 34 Communication Units 15, 25, 35 Augmentation Image Processing Unit 20 Mobile Phone terminal 26 input display unit 30 television receiver 36 display panel 151, 251, 351 emotion determination unit 152, 252, 352 extension processing unit 153, 253, 353 follow-up processing unit 154, 254, 354 correction processing unit 155, 255, 355 Augmentation database CM1, CM2 camera

Claims (11)

映像データに表示された少なくとも1人の人物の感情を推定するステップと、
前記映像データに前記人物の化身を示す画像データを重畳するステップと、
前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示するステップと、を有し、
前記オーグメンテーション画像データを表示するステップにおいて、前記オーグメンテーション画像データを前記人物にオーバーレイして表示する、
オーグメンテーション画像表示方法。
estimating the emotion of at least one person displayed in the video data;
a step of superimposing image data representing an incarnation of the person on the video data;
using the video data to generate augmentation image data corresponding to the emotion of the person from the image data, and displaying the generated augmentation image data in association with the person. ,
displaying the augmented image data, displaying the augmented image data overlaid on the person ;
Augmentation image display method.
映像データに表示された少なくとも1人の人物の感情を推定するステップと、
前記映像データに前記人物の化身を示す画像データを重畳するステップと、
前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示するステップと、を有し、
前記オーグメンテーション画像データを表示するステップにおいて、前記オーグメンテーション画像データを前記人物の周囲に表示する
ーグメンテーション画像表示方法。
estimating the emotion of at least one person displayed in the video data;
a step of superimposing image data representing an incarnation of the person on the video data;
using the video data to generate augmentation image data corresponding to the emotion of the person from the image data, and displaying the generated augmentation image data in association with the person. ,
displaying the augmentation image data around the person ;
Augmentation image display method.
映像データに表示された少なくとも1人の人物の感情を推定するステップと、
前記映像データに前記人物の化身を示す画像データを重畳するステップと、
前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示するステップと、
前記人物が前記映像データ内において移動した場合に、前記人物の動きを追従するステップと、
前記人物の動きの追従に合わせて前記オーグメンテーション画像データの少なくとも形状を修正するステップと、を有し、
前記オーグメンテーション画像データを表示するステップにおいて、修正後の前記オーグメンテーション画像データを表示する
ーグメンテーション画像表示方法。
estimating the emotion of at least one person displayed in the video data;
a step of superimposing image data representing an incarnation of the person on the video data;
a step of generating augmented image data corresponding to the emotion of the person from the image data using the video data, and displaying the generated augmented image data in association with the person;
following the movement of the person when the person moves within the video data;
modifying at least the shape of the augmented image data to follow the movement of the person;
displaying the augmented image data in the step of displaying the augmented image data ;
Augmentation image display method.
前記オーグメンテーション画像データを生成するステップにおいて、前記人物の感情が段階的に高揚したことが検出されると、前記人物の感情の段階的な高揚に対応して段階的に異なるオーグメンテーション画像データを生成する、
請求項1に記載のオーグメンテーション画像表示方法。
In the step of generating the augmentation image data, when it is detected that the emotion of the person is gradually enhanced, the augmentation image is stepwise different corresponding to the stepwise enhancement of the emotion of the person. generate data,
The augmentation image display method according to claim 1.
映像データに表示された少なくとも1人の人物の感情を推定するステップと、
前記映像データに前記人物の化身を示す画像データを重畳するステップと、
前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示するステップと、
ユーザ操作に応じて、前記映像データに表示された前記人物の化身を示す画像データを購入処理するステップと、
前記購入処理が可能な画像データをデータベースに登録管理するステップと、を有する
ーグメンテーション画像表示方法。
estimating the emotion of at least one person displayed in the video data;
a step of superimposing image data representing an incarnation of the person on the video data;
a step of generating augmented image data corresponding to the emotion of the person from the image data using the video data, and displaying the generated augmented image data in association with the person;
a step of purchasing image data showing the incarnation of the person displayed in the video data according to a user operation;
registering and managing the image data that can be purchased in a database ;
Augmentation image display method.
前記映像データは、テレビ番組の映像データであり、
前記テレビ番組の放送局との間で映画製作会社が新作映画のスポンサー契約を行った場合に、前記画像データを登録管理するステップにおいて、前記新作映画に登場する少なくとも1人のキャラクタ画像データを前記データベースに登録管理する、
請求項に記載のオーグメンテーション画像表示方法。
The video data is video data of a television program,
When the movie production company concludes a sponsorship contract for a new movie with the broadcasting station of the television program, in the step of registering and managing the image data, the image data of at least one character appearing in the new movie is added to the above-described image data. registered and managed in the database,
The augmentation image display method according to claim 5 .
前記オーグメンテーション画像データを生成するステップにおいて、前記人物の感情の変更が検出されると、変更後の前記人物の感情に従って前記オーグメンテーション画像データの色を修正する、
請求項1に記載のオーグメンテーション画像表示方法。
In the step of generating the augmentation image data, when a change in the emotion of the person is detected, modifying the color of the augmentation image data according to the changed emotion of the person.
The augmentation image display method according to claim 1.
映像データを放送する放送局装置と、ユーザにより操作されかつ前記映像データを受信して表示する受信機とを含むオーグメンテーション画像表示システムであって、
前記受信機は、
映像データに表示された少なくとも1人の人物の感情を推定し、
前記映像データに前記人物の化身を示す画像データを重畳し、
前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示する、
オーグメンテーション画像表示システム。
An augmentation image display system including a broadcasting station device that broadcasts video data and a receiver that is operated by a user and receives and displays the video data,
The receiver is
estimating the emotion of at least one person displayed in the video data;
superimposing image data representing an incarnation of the person on the video data;
generating augmented image data corresponding to the emotion of the person from the image data using the video data, and displaying the generated augmented image data in association with the person;
Augmentation image display system.
前記受信機は、前記ユーザにより携帯される携帯端末である、
請求項に記載のオーグメンテーション画像表示システム。
The receiver is a mobile terminal carried by the user,
9. The augmentation image display system according to claim 8 .
前記受信機は、前記ユーザが位置する場所に載置されたテレビジョン受像機である、
請求項に記載のオーグメンテーション画像表示システム。
wherein the receiver is a television set placed where the user is located;
9. The augmentation image display system according to claim 8 .
映像データを放送する放送局装置と、ユーザにより操作されかつ前記映像データを受信して表示する受信機とを含むオーグメンテーション画像表示システムであって、
前記受信機は、
映像データに表示された少なくとも1人の人物の化身を示す画像データの購入処理の要求を前記放送局装置に送り、
前記放送局装置は、
前記購入処理の要求に応じて、前記人物の化身を示す画像データを購入処理し、
前記映像データに基づいて、前記人物の感情を推定し、
前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けたテレビ番組データを生成して前記受信機に配信する、
オーグメンテーション画像表示システム。
An augmentation image display system including a broadcasting station device that broadcasts video data and a receiver that is operated by a user and receives and displays the video data,
The receiver is
sending a request for purchase processing of image data showing the incarnation of at least one person displayed in the video data to the broadcasting station device;
The broadcasting station device
Purchasing the image data showing the incarnation of the person in response to the purchase processing request,
estimating the emotion of the person based on the video data;
Augmentation image data corresponding to the emotion of the person is generated from the image data using the video data, TV program data is generated by associating the generated augmentation image data with the person, and deliver to the receiver,
Augmentation image display system.
JP2019145356A 2019-08-07 2019-08-07 Augmentation image display method and augmentation image display system Active JP7316584B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019145356A JP7316584B2 (en) 2019-08-07 2019-08-07 Augmentation image display method and augmentation image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145356A JP7316584B2 (en) 2019-08-07 2019-08-07 Augmentation image display method and augmentation image display system

Publications (3)

Publication Number Publication Date
JP2021027509A JP2021027509A (en) 2021-02-22
JP2021027509A5 JP2021027509A5 (en) 2022-04-28
JP7316584B2 true JP7316584B2 (en) 2023-07-28

Family

ID=74664891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145356A Active JP7316584B2 (en) 2019-08-07 2019-08-07 Augmentation image display method and augmentation image display system

Country Status (1)

Country Link
JP (1) JP7316584B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022128998A (en) 2021-02-24 2022-09-05 浜松ホトニクス株式会社 External resonant laser module
WO2022264203A1 (en) * 2021-06-14 2022-12-22 三菱電機株式会社 Signal generation device, signal processing system, and signal generation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269557A (en) 2004-03-22 2005-09-29 Sharp Corp Communication terminal, television receiver, information output method, information output program, and recording medium stored with the information output program
JP2005277462A (en) 2004-03-22 2005-10-06 Fujitsu Ltd Conference support system, proceeding forming method, and computer program
KR101791979B1 (en) 2017-04-14 2017-11-20 (주)원더피플 Method for providing a messenger service through item representing metadata or supplemental item and server using the same
JP2017229060A (en) 2016-06-22 2017-12-28 富士ゼロックス株式会社 Methods, programs and devices for representing meeting content

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269557A (en) 2004-03-22 2005-09-29 Sharp Corp Communication terminal, television receiver, information output method, information output program, and recording medium stored with the information output program
JP2005277462A (en) 2004-03-22 2005-10-06 Fujitsu Ltd Conference support system, proceeding forming method, and computer program
JP2017229060A (en) 2016-06-22 2017-12-28 富士ゼロックス株式会社 Methods, programs and devices for representing meeting content
KR101791979B1 (en) 2017-04-14 2017-11-20 (주)원더피플 Method for providing a messenger service through item representing metadata or supplemental item and server using the same

Also Published As

Publication number Publication date
JP2021027509A (en) 2021-02-22

Similar Documents

Publication Publication Date Title
US10691202B2 (en) Virtual reality system including social graph
JP6792044B2 (en) Control of personal spatial content presented by a head-mounted display
US10779019B2 (en) System and method for recognition of items in media data and delivery of information related thereto
US11469971B2 (en) Crowd sourced sensor data management systems
CN112423855B (en) Scaled VR participation and viewing in electronic competition
US10898809B2 (en) Overlaying content within live streaming video
US11416918B2 (en) Systems/methods for identifying products within audio-visual content and enabling seamless purchasing of such identified products by viewers/users of the audio-visual content
US10701426B1 (en) Virtual reality system including social graph
US20140325540A1 (en) Media synchronized advertising overlay
TW201349147A (en) Advertisement presentation based on a current media reaction
JP7316584B2 (en) Augmentation image display method and augmentation image display system
JP2023126237A (en) Live communication system using character
CN116097292A (en) Influencer flow customization for a viewer of interest
JP2022546664A (en) User-specified advertisements in virtual space
US20210342886A1 (en) Virtual Advertising Database with Command Input Data
KR101197630B1 (en) System and method of providing augmented contents related to currently-provided common contents to personal terminals
JP6609078B1 (en) Content distribution system, content distribution method, and content distribution program
CN116993432A (en) Virtual clothes information display method and electronic equipment
KR101785822B1 (en) Home shopping service method for mapping tv data broadcast homeshopping content onto real avatar of user
DK202000213A1 (en) A system and a method for live streaming by use of an augmented reality (ar) technology
JP6831027B1 (en) Distribution system, video generator, and video generation method
JP7344084B2 (en) Content distribution system, content distribution method, and content distribution program
KR101181862B1 (en) Role auction service method and device in avata media service
WO2022172259A1 (en) Program, method, information processing device, and system
US20240028123A1 (en) Information processing device, information processing method, program, and information processing system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R151 Written notification of patent or utility model registration

Ref document number: 7316584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151