JP7316584B2 - Augmentation image display method and augmentation image display system - Google Patents
Augmentation image display method and augmentation image display system Download PDFInfo
- Publication number
- JP7316584B2 JP7316584B2 JP2019145356A JP2019145356A JP7316584B2 JP 7316584 B2 JP7316584 B2 JP 7316584B2 JP 2019145356 A JP2019145356 A JP 2019145356A JP 2019145356 A JP2019145356 A JP 2019145356A JP 7316584 B2 JP7316584 B2 JP 7316584B2
- Authority
- JP
- Japan
- Prior art keywords
- augmentation
- person
- image data
- player
- video data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本開示は、オーグメンテーション画像表示方法およびオーグメンテーション画像表示システムに関する。 The present disclosure relates to an augmentation image display method and an augmentation image display system.
特許文献1には、撮像対象物を仮想的に装飾するための付加画像を、ユーザ状況を反映して自動的に生成する画像処理装置が開示されている。この画像処理装置は、撮像画像に基づいて、撮像された対象物を認識し、対象物を視認しているユーザのユーザ状況および対象物の認識結果に応じて、対象物を装飾するための付加画像を生成する。ユーザ状況は、ユーザの生体情報、感情情報、嗜好情報、行動状況または環境情報を示す。 Japanese Unexamined Patent Application Publication No. 2002-200001 discloses an image processing apparatus that automatically generates an additional image for virtually decorating an object to be imaged, reflecting the user's situation. This image processing apparatus recognizes the imaged object based on the imaged image, and performs additions for decorating the object according to the user situation of the user visually recognizing the object and the recognition result of the object. Generate an image. The user situation indicates the user's biometric information, emotion information, preference information, action situation, or environmental information.
特許文献1によれば、例えばユーザの好み、体調、気分、行動等のユーザ状況に応じた装飾を行うための付加画像を生成して対象物に重ね合わせて表示できるので、ユーザの利便性の向上が可能となる。しかし、特許文献1では、ユーザが視聴しているテレビ番組(例えば野球等のスポーツの試合)に出演している人物(例えば試合中の選手)の感情等の状況を示唆する画像(例えば後述するオーグメンテーション画像)を画面上に装飾的に重畳表示することは考慮されていない。このため、上述したテレビ番組に出演している人物の心情を、画面を通して視聴者であるユーザが概念的に把握する術を提供する点において、従来技術に比べて改善の余地があった。
According to
本開示は、上述した従来の事情に鑑みて案出され、スポーツの試合等のテレビ番組に出演している人物の心情を、画面を通して視聴者に概念的に把握可能とし、視聴者の利便性の向上に資するオーグメンテーション画像表示方法およびオーグメンテーション画像表示システムを提供することを目的とする。 The present disclosure has been devised in view of the above-described conventional circumstances, and enables viewers to conceptually grasp the feelings of a person appearing in a TV program such as a sports game through a screen, thereby improving the viewer's convenience. An object of the present invention is to provide an augmentation image display method and an augmentation image display system that contribute to the improvement of
本開示は、映像データに表示された少なくとも1人の人物の感情を推定するステップと、前記映像データに前記人物の化身を示す画像データを重畳するステップと、前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示するステップと、を有し、前記オーグメンテーション画像データを表示するステップにおいて、前記オーグメンテーション画像データを前記人物にオーバーレイして表示する、オーグメンテーション画像表示方法を提供する。 The present disclosure includes a step of estimating an emotion of at least one person displayed in video data, a step of superimposing image data showing an incarnation of the person on the video data, and generating augmentation image data corresponding to the emotion of the person from the data, displaying the generated augmentation image data in association with the person , and displaying the augmentation image data. and displaying the augmented image data overlaid on the person .
また、本開示は、映像データを放送する放送局装置と、ユーザにより操作されかつ前記映像データを受信して表示する受信機とを含むオーグメンテーション画像表示システムであって、前記受信機は、映像データに表示された少なくとも1人の人物の感情を推定し、前記映像データに前記人物の化身を示す画像データを重畳し、前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示する、オーグメンテーション画像表示システムを提供する。 Further, the present disclosure is an augmentation image display system including a broadcasting station device that broadcasts video data , and a receiver that is operated by a user and receives and displays the video data , wherein the receiver: estimating the emotion of at least one person displayed in video data ; superimposing image data showing the incarnation of the person on the video data; and using the video data to derive the emotion of the person from the image data. Provided is an augmentation image display system that generates augmentation image data according to the person and displays the generated augmentation image data in association with the person.
また、本開示は、映像データを放送する放送局装置と、ユーザにより操作されかつ前記映像データを受信して表示する受信機とを含むオーグメンテーション画像表示システムであって、前記受信機は、映像データに表示された少なくとも1人の人物の化身を示す画像データの購入処理の要求を前記放送局装置に送り、前記放送局装置は、前記購入処理の要求に応じて、前記人物の化身を示す画像データを購入処理し、前記映像データに基づいて、前記人物の感情を推定し、前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けたテレビ番組データを生成して前記受信機に配信する、オーグメンテーション画像表示システムを提供する。 Further, the present disclosure is an augmentation image display system including a broadcasting station device that broadcasts video data , and a receiver that is operated by a user and receives and displays the video data , wherein the receiver: A request for purchase processing of image data showing the avatar of at least one person displayed in video data is sent to the broadcasting station device, and the broadcasting station device purchases the avatar of the person in response to the purchase processing request. purchasing the image data shown, estimating the emotion of the person based on the video data, and generating augmented image data corresponding to the emotion of the person from the image data using the video data. and generating television program data in which the generated augmentation image data is associated with the person , and delivering the television program data to the receiver.
本開示によれば、スポーツの試合等のテレビ番組に出演している人物の心情を、画面を通して視聴者に概念的に把握可能とし、視聴者の利便性の向上に資することができる。 Advantageous Effects of Invention According to the present disclosure, it is possible for a viewer to conceptually grasp the feelings of a person appearing in a TV program such as a sports game through a screen, which contributes to improving convenience for the viewer.
(本開示に係る実施の形態に至る経緯)
スポーツ番組のストリーム放送サービスでは、仮想的なオーバーレイ技術の発達が求められ続けている。このようなオーバーレイ技術は、試合の様々な統計データの情報を視聴者に対して提供したり、エンターテインメント性あるいは広告価値を向上するために使用したりする時に直観的かつ魅力的な方法となり得る。オーバーレイ技術として、実際の要素に対して仮想的な要素が取り入れられるように、放送内容に仮想的な価値を提供するために拡張現実(AR:Augmented Reality)技術が使用されることがある。このようなAR技術をスポーツ番組に取り入れることで、仮想現実(VR:Virtual Reality)技術やAR技術がスポーツ番組の放送時に益々使用される可能性が高まる。
(Circumstances leading to the embodiment according to the present disclosure)
Stream broadcasting services for sports programs continue to demand the development of virtual overlay technology. Such overlay technology can be an intuitive and attractive method when used to provide viewers with information on various statistical data of a game, or to improve entertainment or advertising value. As an overlay technology, Augmented Reality (AR) technology may be used to provide virtual value to broadcast content, such that virtual elements are incorporated over real elements. Incorporation of such AR technology into sports programs increases the possibility that virtual reality (VR) technology and AR technology will be used more and more when broadcasting sports programs.
上述したVR技術やAR技術を用いたシステムにおいて、人物の身体の部分を追従(トラッキング)することは根本的なタスクとなっており、3次元空間において手足や踝を高精度に決定するための解決策が必要とされている。同様な問題がコンピュータビジョンにおいても取り組まれており、個人の位置の追従から正確な姿勢の評価に至るまで人体の身体を追従するアプリケーションが生の映像処理技術によって可能となってきている。要求仕様にもよるが、人体の身体の部分を追従するためには、多くの解決するべき課題が残っている。個人の中心部分の追従は、撮像映像を用いた動き追従に基づいて実現可能である。このような映像処理は、人体の顔および頭を含む全体を追従したり置き換えたりする。最近、複数の映像フレームを用いて人体の正確な姿勢の評価が可能になってきている。 In systems using the VR and AR technologies described above, tracking parts of a person's body is a fundamental task. A solution is needed. Similar problems are being tackled in computer vision, where raw image processing technologies are enabling applications that track the human body, from individual position tracking to accurate posture assessment. Although it depends on the required specifications, many problems remain to be solved in order to follow the body parts of the human body. Tracking of the central part of an individual can be achieved based on motion tracking using captured video. Such video processing follows or replaces the entire human body, including the face and head. Recently, it has become possible to accurately evaluate the posture of a human body using a plurality of video frames.
また、例えば純粋に化粧の変化を提供する等のオンラインゲームは小額取引の大きな魅力的要素となっておきており、2018年の4月単独で300万ドルを超える市場となっている。オンラインゲームのプレーヤは、ゲームでの経験を磨き、新たな服装、新たな感情(例えばアニメーションに反映される幾つかの感情)、新たなペット、仮想的な自分の化身用の新たなダンスを購入する。このような小額取引の成功となるキーは、小額取引がゲームプレイに全く影響を与えないことである。これにより、例えばプレーヤの経験が向上するので、プレーヤがゲームにおいて視覚的な変化をもたらすための小さな購入を進んで行えるようになる。 Online games, such as those that offer pure cosmetic changes, have also remained a major attraction for microtransactions, with a market of over $3 million in April 2018 alone. Players of online games refine their gaming experience and buy new clothes, new emotions (e.g. some emotions reflected in animations), new pets, new dances for their virtual avatars. do. The key to the success of such microtransactions is that they have no impact on game play. This enhances the player's experience, for example, so that the player is willing to make small purchases to effect a visual change in the game.
以上を踏まえると、以下の実施の形態に至る従来技術の課題として、次のような点が挙げられる。第1に、スポーツ番組の視聴者は、プレーヤ(選手)が感じている感情を視覚的に見る手段を有しないので、そのスポーツの試合においてプレーヤの次の行動を把握したり、どのような感情でいるかを把握したりすることはできなかった。第2に、ゲームプレイに影響しない仮想的なマーケットプレイスは、とても価値のあるものとなることは証明されているが、スポーツ番組の放送には適用された事例はない。第3に、スポーツ番組の放送中に広告や製品紹介の機会があると、視聴の邪魔になったり失敗になったりすることがあった。これは、放送ストリームのうち広告や製品紹介の内容とは異なる内容(例えばプレーヤの動き)に視聴者がフォーカスするためであると考えられる。 Based on the above, the following points can be cited as problems of the conventional technology leading to the following embodiments. First, viewers of sports programs do not have the means to visually see the emotions that the players are feeling. I couldn't figure out what was going on. Second, virtual marketplaces that do not affect gameplay have proven to be very valuable, but have not been applied to broadcast sports programming. Thirdly, if there is an opportunity for advertisements or product introductions during the broadcast of a sports program, it may interfere with viewing or result in failure. This is thought to be because the viewer focuses on content (for example, movement of the player) that is different from the content of advertisements and product introductions in the broadcast stream.
そこで、以下の実施の形態では、スポーツの試合等のテレビ番組に出演している人物の心情を、画面を通して視聴者に概念的に把握可能とし、視聴者の利便性の向上に資するオーグメンテーション画像表示方法およびオーグメンテーション画像表示システムの例を説明する。 Therefore, in the following embodiment, an augmentation that enables viewers to conceptually grasp the feelings of a person appearing in a TV program such as a sports game through a screen and contributes to improvement of convenience for viewers. An example of an image display method and an augmentation image display system will be described.
(実施の形態)
以下、適宜図面を参照しながら、本開示に係るオーグメンテーション画像表示方法およびオーグメンテーション画像表示システムを具体的に開示した実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(Embodiment)
Hereinafter, embodiments specifically disclosing an augmentation image display method and an augmentation image display system according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for a thorough understanding of the present disclosure by those skilled in the art and are not intended to limit the claimed subject matter.
また、実施の形態でいう「部」または「装置」とは単にハードウェアによって実現される物理的構成に限定されず、その構成が有する機能をプログラム等のソフトウェアにより実現されるものも含む。また、1つの構成が有する機能が2つ以上の物理的構成により実現されても、または2つ以上の構成の機能が例えば1つの物理的構成によって実現されていても構わない。 In addition, the term "unit" or "device" used in the embodiments is not limited to a physical configuration simply realized by hardware, and also includes those whose functions are realized by software such as a program. Also, the function of one configuration may be implemented by two or more physical configurations, or the functions of two or more configurations may be implemented by, for example, one physical configuration.
実施の形態に係る第1のユースケースとして、ユーザの一例としての父親P1,母親P2,娘P3からなる3人家族が自宅においてテレビ番組(例えばスポーツの試合の中継番組)を視聴するシーンを想定する。父親P1および母親P2は、そのスポーツ(例えば野球)の試合に大変に関心を示しているが、娘P3はそのスポーツ(例えば野球)の試合に全く関心がない(図2,図3参照)。なお、以下の説明ではスポーツとして野球を例示するが、野球に限らず、サッカー、ラグビー、ゴルフ、バスケットボール等の他の競技のいずれであってもよい。 As a first use case according to the embodiment, a scene is assumed in which a family of three members consisting of a father P1, a mother P2, and a daughter P3 as an example of users watches a TV program (for example, a relay program of a sports game) at home. do. Father P1 and mother P2 are very interested in the game of the sport (eg baseball), but daughter P3 has no interest in the game of the sport (eg baseball) (see FIGS. 2 and 3). In the following description, baseball is exemplified as a sport, but the sport is not limited to baseball, and may be any of other sports such as soccer, rugby, golf, and basketball.
<オーグメンテーション画像表示システムの構成>
図1は、実施の形態1に係るオーグメンテーション画像表示システム1のシステム構成例を示す図である。オーグメンテーション画像表示システム1は、放送局装置10と、携帯端末20あるいはテレビジョン受像機30とを少なくとも含む構成である。ここで、携帯端末20あるいはテレビジョン受像機30とは、携帯端末20およびテレビジョン受像機30のうち少なくとも一方を含む意味であり、両者が含まれてもよい意味である。放送局装置10と、携帯端末20あるいはテレビジョン受像機30とは、ネットワークNW1を介して互いに通信可能に接続される。ネットワークNW1は、少なくとも有線あるいは無線の回線により構成され、または有線および無線のそれぞれの回線を組み合わせた回線でもよい。
<Configuration of Augmentation Image Display System>
FIG. 1 is a diagram showing a system configuration example of an augmentation
放送局装置10は、放送局内に設置され、例えば野球場内の所定箇所に設置された放送撮影用の高性能なカメラCM1により撮像された映像データを、ネットワークNW2を介して受信する。ネットワークNW2は、少なくとも光ファイバ回線等の有線回線または無線回線を含む。無線回線は、例えばローカルエリアネットワーク(LAN:Local Area Network)、ワイドエリアネットワーク(WAN:Wide Area Network)である。放送局装置10は、カメラCM1からの映像データを用いて、野球場で行われている野球の試合の放送ストリームを生成し、ネットワークNW1を介して携帯端末20およびテレビジョン受像機30のそれぞれに配信する。放送ストリームは、例えばワンセグ(後述参照)あるいはフルセグ(後述参照)に対応可能な地上波デジタルテレビジョン放送に適合する放送内容のストリーム(つまり野球等のスポーツの試合の内容を示す映像データの流れ)を示し、以下では「プレーヤ映像データ」と称する場合がある。放送局装置10の内部構成の詳細については図4を参照して後述する。
The
受信機の一例としての携帯端末20は、ユーザ(例えば上述した3人家族)の宅内で移動可能に配置され(図2参照)、放送局装置10との間で各種の信号(例えばユーザデータ、制御信号)の送受信が可能である。携帯端末20は、例えばスマートフォンあるいはタブレット端末である。携帯端末20は、例えばいわゆるワンセグ(正式にはワンセグメント)あるいはフルセグ(正式にはフルセグメント)に対応可能な放送ストリーム(プレーヤ映像データ)を、ネットワークNW1を介して受信して表示する。図2は、携帯端末20を介して、オーグメンテーション画像が重畳表示されたテレビ番組を視聴する様子の一例を示す図である。従って、ユーザ(具体的には父親P1,母親P2,娘P3)は、放送局装置10から配信された放送ストリームを、携帯端末20を介して視聴できる。また、携帯端末20は、ユーザの操作を受付可能であり、ユーザ操作により、野球の試合に出場(例えば出演の一形態)しているプレーヤ(例えばプロ野球の選手)の化身を示すスキンパック画像(後述参照)をオンラインショッピングにより購入処理を行える。なお、図1では図示を簡略化しているが、ユーザ宅内に無線LAN等に対応したアクセスポイント(図示略)が設置され、インターネット回線等のネットワークNW1を介して配信された放送ストリームは、上述したアクセスポイントを介して携帯端末20に送られてよい。携帯端末20の内部構成の詳細については図5を参照して後述する。
A
受信機の一例としてのテレビジョン受像機30は、ユーザ(例えば上述した3人家族)の宅内のラック等の所定箇所に固定配置され(図3参照)、地上波デジタルテレビジョン放送に適合する放送ストリーム(プレーヤ映像データ)を、ネットワークNW1を介して受信して表示する。図3は、テレビジョン受像機30を介して、オーグメンテーション画像が重畳表示されたテレビ番組を視聴する様子の一例を示す図である。従って、ユーザ(具体的には父親P1,母親P2,娘P3)は、放送局装置10から配信された放送ストリームを、テレビジョン受像機30を介して視聴できる。また、テレビジョン受像機30は、ユーザのリモコン(正式にはリモートコントローラ)を介した操作を受付可能であり、ユーザ操作により、野球の試合に出場(例えば出演の一形態)しているプレーヤ(例えばプロ野球の選手)の化身を示すスキンパック画像(後述参照)をオンラインショッピングにより購入処理を行える。また、テレビジョン受像機30は、ユーザ宅内に設置されたカメラCM2との間で有線ケーブルLNCにより通信可能に接続されてもよいし、カメラCM2は省略されても構わない。テレビジョン受像機30の内部構成の詳細については図5を参照して後述する。
A
なお、オーグメンテーション画像表示システム1は、1台以上のカメラCM1…と、カメラCM2とを更に含む構成としてもよい。
Note that the augmentation
カメラCM1は、野球場内の所定箇所(例えば野球の試合に出場している各種のプレーヤ、監督、マスコットキャラクタの撮影に適した既定の場所)に配置され、放送撮影用に野球の試合を撮影しており、撮影により得られた映像データ(プレーヤ映像データ)を、ネットワークNW2を介して放送局装置10に送る。なお、図1ではカメラCM1は1台のみ図示しているが、複数台のカメラCM1が設けられてもよい。
The camera CM1 is placed at a predetermined location in the baseball stadium (for example, a predetermined location suitable for photographing various players, managers, and mascot characters participating in the baseball game), and photographs the baseball game for broadcasting. The video data (player video data) obtained by shooting is sent to the
カメラCM2は、ユーザ宅内の所定箇所(例えばテレビジョン受像機30が設置されているリビングルーム)に配置され、テレビジョン受像機30に映し出されている放送ストリーム(例えばプレーヤ映像データ)を撮像する。カメラCM2は、撮像されたプレーヤ映像データを、有線ケーブルLNCを介してテレビジョン受像機30に送る。
The camera CM2 is placed at a predetermined location in the user's home (for example, a living room where the
図4は、放送局装置10のハードウェア構成例を示すブロック図である。放送局装置10は、メモリ11と、記録装置12と、プロセッサ13と、通信部14と、オーグメンテーション画像処理部15とを含む構成である。メモリ11と、記録装置12と、プロセッサ13と、通信部14と、オーグメンテーション画像処理部15とは互いにデータあるいは情報の入出力が可能に内部バスにより接続されている。なお、オーグメンテーション画像処理部15は、携帯端末20にオーグメンテーション画像処理部25が設けられている場合には、放送局装置10から省略されてもよい。同様に、オーグメンテーション画像処理部15は、テレビジョン受像機30にオーグメンテーション画像処理部35が設けられている場合には、放送局装置10から省略されてもよい。
FIG. 4 is a block diagram showing a hardware configuration example of the
メモリ11は、一次記憶装置(例えばRAM(Random Access Memory)、ROM(Read Only Memory))を用いて構成され、放送局装置10の動作の実行に必要なプログラム、さらには、動作中に生成されたデータあるいは情報を一時的に保存する。RAMは、例えばプロセッサ13の動作時に使用されるワークメモリである。ROMは、例えばプロセッサ13を制御するためのプログラムを予め記憶する。
The
記録装置12は、二次記憶装置(例えばHDD(Hard Disk Drive)あるいはSSD(Solid State Drive))、もしくは三次記憶装置(例えば光ディスク、SDカード)を用いて構成される。記録装置12は、カメラCM1…から送られたプレーヤ映像データを保存してよい。また、記録装置12は、ユーザ(例えば野球の試合に関心を示さない娘P3)のオンラインショッピングサイト(図示略)への操作に基づくスキンパック画像の購入処理に関する履歴を示すユーザ購入データ(図7参照)を保存してよい。また、記録装置12は、人物(例えば野球の試合に出場しているプレーヤ)の一定期間における心拍数の変動の特性とその人物の感情との対応関係を示す感情特性データ(図示略)を保存してよい。
The
ここで、ユーザ購入データの詳細について、図7を参照して説明する。 Details of the user purchase data will now be described with reference to FIG.
図7は、ユーザ購入データPRCS1の一例をテーブル形式で示す図である。ユーザ購入データPRCS1は、例えばユーザIDと、スキンパックIDと、購入日と、購入金額と、備考との各項目とそれぞれの項目に対する実体情報とが対応付けられた構成である。図7では、ユーザ購入データPRCS1が、分かり易くテーブル形式で示されている。例えばユーザID「001」のユーザは、「¥300」の価値を有するスキンパックID「1010」のスキンパック画像を「2019年7月3日」に購入したことの履歴が記録されている。同様に、ユーザID「002」のユーザは、「¥500」の価値を有するスキンパックID「2121」のスキンパック画像を「2019年6月30日」に購入したことの履歴が記録されている。 FIG. 7 is a diagram showing an example of user purchase data PRCS1 in a table format. The user purchase data PRCS1 has a configuration in which items such as a user ID, a skin pack ID, a purchase date, a purchase amount, and remarks, and substantive information for each item are associated with each other. In FIG. 7, the user purchase data PRCS1 is shown in a table format for easy understanding. For example, a user with user ID "001" has a history of purchasing a skin pack image with skin pack ID "1010" worth "¥300" on "July 3, 2019". Similarly, a history is recorded in which the user with the user ID “002” purchased the skin pack image with the skin pack ID “2121” worth “¥500” on “June 30, 2019”. .
このように、記録装置12は、放送ストリームの視聴者であるユーザごとに、そのユーザがどのようなスキンパック画像を購入したかを示す履歴情報を保持できる。なお、後述するように、このユーザ購入データは、携帯端末20あるいはテレビジョン受像機30においても保存されてよい。この場合には、携帯端末20あるいはテレビジョン受像機30のユーザに限って購入処理されたスキンパック画像に関するユーザ購入データのみが保存されるので、ユーザ購入データの占めるデータサイズは、記録装置12において全てのユーザのユーザ購入データが保存される場合に比べて低減可能である。
In this way, the
プロセッサ13は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)もしくはFPGA(Field Programmable Gate Array)を用いて構成される。プロセッサ13は、放送局装置10の制御部として機能し、放送局装置10の各部の動作を全体的に統括するための制御処理、放送局装置10の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサ13は、メモリ11に記憶されたプログラムに従って動作する。
The processor 13 is configured using, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array). The processor 13 functions as a control unit of the
プロセッサ13は、1台以上のカメラCM1…から受信して取得したプレーヤ映像データを用いて、放送ストリームを構成する番組映像PES(パケタイズドエレメンタリーストリーム。以下同様。)および番組音声PESを生成し、番組映像PESおよび番組音声PESをパケットしてエンコード、多重化および変調することで、放送ストリームを生成する。なお、プロセッサ13が1台以上のカメラCM1…から受信して取得したプレーヤ映像データを用いて放送ストリームを生成する処理の詳細については、例えば特開2010-21790号に開示されているので、詳細な説明は省略する。 The processor 13 uses the player video data received and acquired from one or more cameras CM1 . Then, the program video PES and program audio PES are packetized, encoded, multiplexed, and modulated to generate a broadcast stream. Details of the process of generating a broadcast stream using the player video data received and acquired by the processor 13 from one or more cameras CM1 are disclosed, for example, in Japanese Unexamined Patent Application Publication No. 2010-21790. detailed description is omitted.
また、プロセッサ13は、ユーザの操作に応じて、オーグメンテーションデータベース155に登録されているオーグメンテーション元画像(言い換えると、スキンパック画像)の購入処理を行い、購入処理の履歴を示すユーザ購入データ(後述参照)を記録装置12に保存する。プロセッサ13あるいはオーグメンテーション画像処理部15は、購入処理の決済処理の完了を判定すると、オーグメンテーション元画像(スキンパック画像)を放送ストリームの所定領域(例えば左端部あるいは右端部)に表示してもよい。これにより、ユーザ(例えば娘P3)は、携帯端末20あるいはテレビジョン受像機30において野球の試合を視聴した際、野球の試合に関心を示さなくても、野球のプレーヤに適用するように自分の好きなキャラクタ画像データをスキンパック画像として使用できる。言い換えると、携帯端末20あるいはテレビジョン受像機30は、ユーザにより購入処理されたスキンパック画像をプレーヤの感情あるいは動きに照らして重畳することで、娘P3の野球の試合への関心を徐々に高めることができる。
In addition, the processor 13 performs purchase processing of the augmentation source images (in other words, skin pack images) registered in the
通信部14は、ネットワークNW2を介して1台以上のカメラCM1…との間でデータあるいは情報の送受信を可能であり、かつ、ネットワークNW1を介して携帯端末20あるいはテレビジョン受像機30との間でデータあるいは情報の送受信を可能な通信回路により構成される。通信部14による通信方式としては、例えばネットワークNW1,NW2のそれぞれに対応してWAN、LAN、電力線通信等の有線での通信方式、WiFi(登録商標)、携帯電話用のモバイル通信等の無線での通信方式等が例示される。
The
オーグメンテーション画像処理部15は、プロセッサ13と同様に、例えばCPU、DSPもしくはFPGAを用いて構成される。オーグメンテーション画像処理部15は、感情決定部151と、拡張処理部152と、追従処理部153と、修正処理部154と、オーグメンテーションデータベース155とを機能的構成として有し、各部により実行される処理を総称したオーグメンテーション画像処理を実行する。なお、オーグメンテーション画像処理部15のうち感情決定部151、拡張処理部152、追従処理部153および修正処理部154の少なくとも1つはプロセッサ13により実行されてよいし、オーグメンテーション画像処理部15のうちオーグメンテーションデータベース155は記録装置12内に構成されてもよい。
The augmentation
感情決定部151は、記録装置12に保存されたプレーヤ映像データ(例えば画像データの一形態)を用いて、そのプレーヤ映像データを構成するそれぞれの画像上に映るプレーヤの心拍数およびその心拍数の一定期間(例えば数秒程度)における変動を解析する。具体的には、感情決定部151は、プレーヤ映像データに映るプレーヤの顔を検出し、顔領域(肌色領域)の各画素の特定の成分(例えばG(緑色)成分)の画素値の時系列データを生成する。感情決定部151は、時系列データに対して所定のフィルタリング処理を施し、高周波ノイズ成分および低周波の揺れ成分を除去した脈波を検出して心拍数(脈拍数)を導出する。なお、プレーヤ映像データを用いてそのプレーヤの心拍数の解析処理の詳細については、例えば特許第6323809号公報あるいは特許第6358506号公報に開示されているので、詳細な説明は省略する。
The
また、感情決定部151は、記録装置12に保存されている感情特性データと一定期間における心拍数の変動の解析結果とに基づいて、心拍数の変動の特性に対応する感情を、そのプレーヤの心情(感情)として決定して出力する。
The
拡張処理部152は、感情決定部151により決定されたプレーヤの感情に対応するオーグメンテーション元画像をオーグメンテーション画像としてオーグメンテーションデータベース155から選択する。拡張処理部152は、感情決定部151により決定されたプレーヤの感情に対応するオーグメンテーション画像を、オーグメンテーションデータベース155から選択したオーグメンテーション元画像を用いて生成してもよい。拡張処理部152は、選択あるいは生成されたオーグメンテーション画像を放送ストリーム上のプレーヤに適用するように重畳する。この重畳の具体的手段としては、プレーヤの真上に重ね合わせる(オーバーレイ)手段でもよいし(図8参照)、プレーヤの周囲に表示する手段でもよい(図9参照)。オーグメンテーション画像の詳細は、図8および図9を参照して後述する。
The
追従処理部153は、記録装置12に保存されているプレーヤ映像データを解析し、プレーヤの移動の有無を判定する。追従処理部153は、プレーヤの移動があると判定した場合には、プレーヤ映像データの解析により、その移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定する。なお、追従処理部153は、プレーヤ映像データ以外に、他のセンサ等で得られたセンシング結果を用いて、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定してもよい。
The follow-
修正処理部154は、追従処理部153によりプレーヤの移動があると判定された場合に、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)のそれぞれの特定結果を用いて、現在使用されているオーグメンテーション画像の特性(例えば形状、色、大きさ、あるいはこれらの組み合わせ)を変更(修正)する。なお、修正処理部154は、オーグメンテーション元画像に修正許可条件が割り当てられている場合には、その修正許可条件で示される範囲内でオーグメンテーション画像を修正してよい。言い換えると、修正処理部154は、オーグメンテーション画像によっては、プレーヤの移動があった場合に一部の制約を前提としてオーグメンテーション画像を修正する。なお、修正許可条件は、例えば感情が高揚と判定された場合に色(例えば青)を段階的に明るい色(例えば青→緑→黄→橙→赤)に修正してもよいが、感情が挫折と判定された場合に色を暗い色にしてもよいが、最低限の視認性の確保のために黒い色の使用は不許可である等の条件である。なお、修正許可条件は、上述した内容に限定されないことは言うまでもない。
When the follow-
オーグメンテーションデータベース155は、放送ストリーム上のプレーヤに適用するように重畳されるオーグメンテーション画像の元画像であるオーグメンテーション元画像のデータを保持する。なお、添付図面においては、オーグメンテーションデータベースを「Aug DB」と略記している。オーグメンテーション画像はオーグメンテーション元画像と同一でもよい。オーグメンテーション元画像は、例えば3次元形状を有する服装、帽子等のようにプレーヤの真上に直接にオーバーレイされるオブジェクト(物体)であり、プレーヤの感情を示す。また、オーグメンテーション元画像は、2次元形状を有する画像あるいはインジケータでもよく、その画像やインジケータはプレーヤの感情を示す。また、オーグメンテーション元画像は、プレーヤの仮想的なフォロア(例えばファン、サポータ、真似をする人)の画像であってもよく、その画像はプレーヤの感情を示す。
The
オーグメンテーション元画像あるいはオーグメンテーション画像は、プレーヤの感情に合わせて修正処理部154による修正が可能である。修正の可能性は、オーグメンテーション元画像に予め割り当てられた修正許可条件に従って様々に変化してよい。例えば、服装の色、サイズ、形が修正されてよい。但し、オーグメンテーション画像は、プレーヤの感情が変化したことが検出(判定)された時に初めて変更(修正)される。なお、オーグメンテーション元画像は、予めオーグメンテーションデータベース155に登録されている画像データに限定されず、オーグメンテーション画像表示システム1のシステム管理者あるいは第三者(例えばスポンサー)により提供された画像データが適宜、追加あるいは削除されても構わない。例えば放送局装置10が設置されているテレビ番組の放送局と映画製作会社等のスポンサー企業とが新作映画のスポンサー契約を締結した場合、この新作映画に登場する1つ以上のキャラクタ画像データがオーグメンテーション元画像として追加的に登録されて構わない。
The augmentation source image or the augmentation image can be modified by the
例えば、オーグメンテーション元画像が青色の山高帽である場合、感情決定部151によりプレーヤの感情が興奮状態であると判定されるに従って、修正処理部154により徐々にその山高帽が大きくなるように修正される。
For example, when the original image for augmentation is a blue bowler hat, the
図5は、携帯端末20のハードウェア構成例を示すブロック図である。携帯端末20は、メモリ21と、記録装置22と、プロセッサ23と、通信部24と、オーグメンテーション画像処理部25と、入力表示部26とを含む構成である。メモリ21と、記録装置22と、プロセッサ23と、通信部24と、オーグメンテーション画像処理部25とは互いにデータあるいは情報の入出力が可能に内部バスにより接続されている。なお、オーグメンテーション画像処理部25は、放送局装置10にオーグメンテーション画像処理部15が設けられている場合には、携帯端末20から省略されてもよい。
FIG. 5 is a block diagram showing a hardware configuration example of the
メモリ21は、一次記憶装置(例えばRAM、ROM)を用いて構成され、携帯端末20の動作の実行に必要なプログラム、さらには、動作中に生成されたデータあるいは情報を一時的に保存する。RAMは、例えばプロセッサ23の動作時に使用されるワークメモリである。ROMは、例えばプロセッサ23を制御するためのプログラムを予め記憶する。
The
記録装置22は、二次記憶装置(例えばHDDあるいはSSD)、もしくは三次記憶装置(例えば光ディスク、SDカード)を用いて構成される。記録装置22は、放送局装置10から配信された放送ストリーム(プレーヤ映像データ)を保存してよい。また、記録装置22は、ユーザ(例えば野球の試合に関心を示さない娘P3)のオンラインショッピングサイト(図示略)への操作に基づくスキンパック画像の購入処理に関する履歴を示すユーザ購入データ(図7参照)を保存してよい。また、記録装置22は、人物(例えば野球の試合に出場しているプレーヤ)の一定期間における心拍数の変動の特性とその人物の感情との対応関係を示す感情特性データ(図示略)を保存してよい。
The
プロセッサ23は、例えばCPU、DSPもしくはFPGAを用いて構成される。プロセッサ23は、携帯端末20の制御部として機能し、携帯端末20の各部の動作を全体的に統括するための制御処理、携帯端末20の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサ23は、メモリ21に記憶されたプログラムに従って動作する。
The
また、プロセッサ23は、ユーザの操作に応じて、オーグメンテーションデータベース255に登録されているオーグメンテーション元画像(言い換えると、スキンパック画像)の購入処理を行い、購入処理の履歴を示すユーザ購入データ(図7参照)を記録装置22に保存する。
In addition, the
通信部24は、ネットワークNW1を介して放送局装置10との間でデータあるいは情報の送受信を可能な通信回路により構成される。通信部24による通信方式としては、例えばネットワークNW1に対応してWAN、LAN、電力線通信等の有線での通信方式、WiFi(登録商標)、携帯電話用のモバイル通信等の無線での通信方式等が例示される。
The
オーグメンテーション画像処理部25は、プロセッサ23と同様に、例えばCPU、DSPもしくはFPGAを用いて構成される。オーグメンテーション画像処理部25は、感情決定部251と、拡張処理部252と、追従処理部253と、修正処理部254と、オーグメンテーションデータベース255とを機能的構成として有し、各部により実行される処理を総称したオーグメンテーション画像処理を実行する。なお、オーグメンテーション画像処理部25のうち感情決定部251、拡張処理部252、追従処理部253および修正処理部254の少なくとも1つはプロセッサ23により実行されてよいし、オーグメンテーション画像処理部25のうちオーグメンテーションデータベース255は記録装置22内に構成されてもよい。
The augmentation
感情決定部251は、記録装置22に保存されたプレーヤ映像データ(例えば画像データの一形態)を用いて、そのプレーヤ映像データを構成するそれぞれの画像上に映るプレーヤの心拍数およびその心拍数の一定期間(例えば数秒程度)における変動を解析する。具体的には、感情決定部251は、プレーヤ映像データに映るプレーヤの顔を検出し、顔領域(肌色領域)の各画素の特定の成分(例えばG(緑色)成分)の画素値の時系列データを生成する。感情決定部251は、時系列データに対して所定のフィルタリング処理を施し、高周波ノイズ成分および低周波の揺れ成分を除去した脈波を検出して心拍数(脈拍数)を導出する。
The
また、感情決定部251は、記録装置22に保存されている感情特性データと一定期間における心拍数の変動の解析結果とに基づいて、心拍数の変動の特性に対応する感情を、そのプレーヤの心情(感情)として決定して出力する。
In addition, the
拡張処理部252は、感情決定部251により決定されたプレーヤの感情に対応するオーグメンテーション元画像をオーグメンテーション画像としてオーグメンテーションデータベース255から選択する。拡張処理部252は、感情決定部251により決定されたプレーヤの感情に対応するオーグメンテーション画像を、オーグメンテーションデータベース255から選択したオーグメンテーション元画像を用いて生成してもよい。拡張処理部252は、選択あるいは生成されたオーグメンテーション画像を放送ストリーム上のプレーヤに適用するように重畳する(上述参照)。
The
追従処理部253は、記録装置22に保存されているプレーヤ映像データを解析し、プレーヤの移動の有無を判定する。追従処理部253は、プレーヤの移動があると判定した場合には、プレーヤ映像データの解析により、その移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定する。なお、追従処理部253は、プレーヤ映像データ以外に、他のセンサ等で得られたセンシング結果を用いて、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定してもよい。
The follow-up processing unit 253 analyzes the player video data stored in the
修正処理部254は、追従処理部253によりプレーヤの移動があると判定された場合に、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)のそれぞれの特定結果を用いて、現在使用されているオーグメンテーション画像の特性(例えば形状、色、大きさ、あるいはこれらの組み合わせ)を変更(修正)する。なお、修正処理部254は、オーグメンテーション元画像に修正許可条件が割り当てられている場合には、その修正許可条件で示される範囲内でオーグメンテーション画像を修正してよい。言い換えると、修正処理部254は、オーグメンテーション画像によっては、プレーヤの移動があった場合に一部の制約を前提としてオーグメンテーション画像を修正する。
When the follow-up processing unit 253 determines that the player has moved, the
オーグメンテーションデータベース255は、放送ストリーム上のプレーヤに適用するように重畳されるオーグメンテーション画像の元画像であるオーグメンテーション元画像のデータを保持する。
The
入力表示部26は、例えばタッチパネルを用いて構成される。入力表示部26は、ユーザの操作を受け付け可能であり、かつプロセッサ23あるいはオーグメンテーション画像処理部25により生成された表示用のユーザデータ(例えばプレーヤ映像データ、あるいはオーグメンテーション画像が重畳されたプレーヤ映像データ)を表示する。例えば、入力表示部26は、オーグメンテーション元画像(スキンパック画像)の購入処理時にユーザの操作を受け付けてプロセッサ23に出力する。プロセッサ23は、購入処理の決済処理の完了を判定すると、オーグメンテーション元画像(スキンパック画像)を入力表示部26の所定領域に表示してもよい。これにより、ユーザ(例えば娘P3)は、野球の試合に関心を示さなくても、野球のプレーヤに適用するように自分の好きなキャラクタ画像データをスキンパック画像として使用できる。言い換えると、携帯端末20は、ユーザにより購入処理されたスキンパック画像をプレーヤの感情あるいは動きに照らして重畳することで、娘P3の野球の試合への関心を徐々に高めることができる。
The
図6は、テレビジョン受像機30のハードウェア構成例を示すブロック図である。テレビジョン受像機30は、メモリ31と、記録装置32と、プロセッサ33と、通信部34と、オーグメンテーション画像処理部35と、表示パネル36とを含む構成である。メモリ31と、記録装置32と、プロセッサ33と、通信部34と、オーグメンテーション画像処理部35と、表示パネル36とは互いにデータあるいは情報の入出力が可能に内部バスにより接続されている。なお、オーグメンテーション画像処理部35は、放送局装置10にオーグメンテーション画像処理部15が設けられている場合には、テレビジョン受像機30から省略されてもよい。
FIG. 6 is a block diagram showing a hardware configuration example of the
メモリ31は、一次記憶装置(例えばRAM、ROM)を用いて構成され、テレビジョン受像機30の動作の実行に必要なプログラム、さらには、動作中に生成されたデータあるいは情報を一時的に保存する。RAMは、例えばプロセッサ33の動作時に使用されるワークメモリである。ROMは、例えばプロセッサ33を制御するためのプログラムを予め記憶する。
The
記録装置32は、二次記憶装置(例えばHDDあるいはSSD)、もしくは三次記憶装置(例えば光ディスク、SDカード)を用いて構成される。記録装置32は、放送局装置10から配信された放送ストリーム(プレーヤ映像データ)、更に、カメラCM2から送られたプレーヤ映像データの撮像映像データを保存してよい。また、記録装置32は、ユーザ(例えば野球の試合に関心を示さない娘P3)のオンラインショッピングサイト(図示略)へのリモコン(上述参照)を介した操作に基づくスキンパック画像の購入処理に関する履歴を示すユーザ購入データ(図7参照)を保存してよい。また、記録装置32は、人物(例えば野球の試合に出場しているプレーヤ)の一定期間における心拍数の変動の特性とその人物の感情との対応関係を示す感情特性データ(図示略)を保存してよい。
The
プロセッサ33は、例えばCPU、DSPもしくはFPGAを用いて構成される。プロセッサ33は、テレビジョン受像機30の制御部として機能し、テレビジョン受像機30の各部の動作を全体的に統括するための制御処理、テレビジョン受像機30の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサ33は、メモリ31に記憶されたプログラムに従って動作する。
The
プロセッサ33は、放送局装置10から受信して取得した放送ストリームを用いて、放送ストリームの復調、デコード、抽出、選択、合成することで、視聴用のコマーシャル映像を含む番組映像データおよびコマーシャル音声を含む番組音声データからなるプレーヤ映像データを、入力表示部26およびスピーカ(図示略)を介して出力する。なお、プロセッサ33が放送局装置10から受信して取得した放送ストリームを用いて視聴用(表示用)のプレーヤ映像データを生成する処理の詳細については、例えば特開2010-21790号に開示されているので、詳細な説明は省略する。
The
また、プロセッサ33は、ユーザの操作に応じて、オーグメンテーションデータベース355に登録されているオーグメンテーション元画像(言い換えると、スキンパック画像)の購入処理を行い、購入処理の履歴を示すユーザ購入データ(図7参照)を記録装置32に保存する。
In addition, the
通信部34は、ネットワークNW1を介して放送局装置10との間でデータあるいは情報の送受信を可能な通信回路により構成される。通信部34による通信方式としては、例えばネットワークNW1に対応してWAN、LAN、電力線通信等の有線での通信方式、WiFi(登録商標)、携帯電話用のモバイル通信等の無線での通信方式等が例示される。また、通信部34は、オーグメンテーション元画像(スキンパック画像)の購入処理時にユーザのリモコン(上述参照)を用いた操作を受信して受け付けてプロセッサ33に出力する。プロセッサ33は、購入処理の決済処理の完了を判定すると、オーグメンテーション元画像(スキンパック画像)を表示パネル36の所定領域に表示してもよい。これにより、ユーザ(例えば娘P3)は、野球の試合に関心を示さなくても、野球のプレーヤに適用するように自分の好きなキャラクタ画像データをスキンパック画像として使用できる。言い換えると、テレビジョン受像機30は、ユーザにより購入処理されたスキンパック画像をプレーヤの感情あるいは動きに照らして重畳することで、娘P3の野球の試合への関心を徐々に高めることができる。
The
オーグメンテーション画像処理部35は、プロセッサ33と同様に、例えばCPU、DSPもしくはFPGAを用いて構成される。オーグメンテーション画像処理部35は、感情決定部351と、拡張処理部352と、追従処理部353と、修正処理部354と、オーグメンテーションデータベース355とを機能的構成として有し、各部により実行される処理を総称したオーグメンテーション画像処理を実行する。なお、オーグメンテーション画像処理部35のうち感情決定部351、拡張処理部352、追従処理部353および修正処理部354の少なくとも1つはプロセッサ33により実行されてよいし、オーグメンテーション画像処理部35のうちオーグメンテーションデータベース355は記録装置32内に構成されてもよい。
The augmentation
感情決定部351は、記録装置32に保存されたプレーヤ映像データ(例えば画像データの一形態)あるいはその撮像映像データを用いて、そのプレーヤ映像データを構成するそれぞれの画像上に映るプレーヤの心拍数およびその心拍数の一定期間(例えば数秒程度)における変動を解析する。具体的には、感情決定部351は、プレーヤ映像データに映るプレーヤの顔を検出し、顔領域(肌色領域)の各画素の特定の成分(例えばG(緑色)成分)の画素値の時系列データを生成する。感情決定部351は、時系列データに対して所定のフィルタリング処理を施し、高周波ノイズ成分および低周波の揺れ成分を除去した脈波を検出して心拍数(脈拍数)を導出する。
The
また、感情決定部351は、記録装置32に保存されている感情特性データと一定期間における心拍数の変動の解析結果とに基づいて、心拍数の変動の特性に対応する感情を、そのプレーヤの心情(感情)として決定して出力する。
In addition, the
拡張処理部352は、感情決定部351により決定されたプレーヤの感情に対応するオーグメンテーション元画像をオーグメンテーション画像としてオーグメンテーションデータベース355から選択する。拡張処理部352は、感情決定部351により決定されたプレーヤの感情に対応するオーグメンテーション画像を、オーグメンテーションデータベース355から選択したオーグメンテーション元画像を用いて生成してもよい。拡張処理部352は、選択あるいは生成されたオーグメンテーション画像を放送ストリーム上のプレーヤに適用するように重畳する(上述参照)。
The
追従処理部353は、記録装置32に保存されているプレーヤ映像データを解析し、プレーヤの移動の有無を判定する。追従処理部353は、プレーヤの移動があると判定した場合には、プレーヤ映像データの解析により、その移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定する。なお、追従処理部353は、プレーヤ映像データ以外に、他のセンサ等で得られたセンシング結果を用いて、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定してもよい。
The follow-
修正処理部354は、追従処理部353によりプレーヤの移動があると判定された場合に、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)のそれぞれの特定結果を用いて、現在使用されているオーグメンテーション画像の特性(例えば形状、色、大きさ、あるいはこれらの組み合わせ)を変更(修正)する。なお、修正処理部354は、オーグメンテーション元画像に修正許可条件が割り当てられている場合には、その修正許可条件で示される範囲内でオーグメンテーション画像を修正してよい。言い換えると、修正処理部354は、オーグメンテーション画像によっては、プレーヤの移動があった場合に一部の制約を前提としてオーグメンテーション画像を修正する。
When the follow-
オーグメンテーションデータベース355は、放送ストリーム上のプレーヤに適用するように重畳されるオーグメンテーション画像の元画像であるオーグメンテーション元画像のデータを保持する。
The
表示パネル36は、例えば液晶(LCD:Liquid Crystal Display)パネルあるいは有機EL(Electroluminescence)を用いて構成される。表示パネル36は、プロセッサ33あるいはオーグメンテーション画像処理部35により生成された表示用のユーザデータ(例えばプレーヤ映像データ、あるいはオーグメンテーション画像が重畳されたプレーヤ映像データ)を表示する。
The
<オーグメンテーション画像の重畳例>
次に、実施の形態1に係るオーグメンテーション画像表示システム1により実行されるオーグメンテーション画像のプレーヤ映像データの重畳例について、図8および図9を参照して説明する。図8は、オーグメンテーション画像の表示例を時系列に示す図である。図9は、オーグメンテーション画像の表示例を示す図である。図8および図9の説明では、説明を分かり易くするために、オーグメンテーション画像処理部25あるいはオーグメンテーション画像処理部35が、プレーヤ映像データに基づくプレーヤの感情の解析、オーグメンテーション画像の生成および表示の各種処理を実行するとして説明するが、オーグメンテーション画像処理部15が実行してもよい。
<Example of superimposed augmentation image>
Next, an example of superimposing the player video data of the augmentation image executed by the augmentation
図8では、ユーザにより野球の試合が携帯端末20あるいはテレビジョン受像機30で視聴されている場合に、時刻T=t0において野球の試合に出場しているプレーヤPL0(例えば父親P1および母親P2が好きな選手)が入力表示部26あるいは表示パネル36に表示されている。この時、娘P3の操作により、プレーヤPL0の化身となるスキンパック画像(オーグメンテーション画像)として、娘P3が好きなヒーローの髪型および服装が購入処理されたとする。
In FIG. 8, when the user is viewing a baseball game on the
すると、時刻T=t0より後の時刻T=t1に、携帯端末20あるいはテレビジョン受像機30は、購入処理されたスキンパック画像をオーグメンテーション画像として用いてプレーヤPL0の体格および姿勢に適合するように真上に重畳して表示する(仮想プレーヤPL1a参照)。これにより、娘P3の好きなヒーロー(キャラクタ)の画像がプレーヤPL0に重畳されたプレーヤPL1となり、娘P3は野球の試合に興味を持ち出し始め、娘P3と一緒に視聴している父親P1および母親P2も野球の試合の視聴を快適に行える可能性が高まる。
Then, at time T=t1 after time T=t0,
また、時刻T=t1より後の時刻T=t2に、プレーヤ映像データ中のプレーヤPL0がバッターボックスに入る等、プレーヤPL0の移動があったことが携帯端末20あるいはテレビジョン受像機30により判定されたとする。この時、携帯端末20あるいはテレビジョン受像機30は、プレーヤPL0の移動に追従するように、現在表示されているオーグメンテーション画像を移動後のプレーヤPL0の位置および姿勢に適合するように重畳して表示する(仮想プレーヤPL1b参照)。また、バッターボックスに入ったプレーヤPL0の感情が徐々に興奮状態になってきたことが携帯端末20あるいはテレビジョン受像機30により判定されたとする。
At time T=t2 after time T=t1,
この後の時刻T=t3に、携帯端末20あるいはテレビジョン受像機30は、プレーヤPL0の感情の段階的な高ぶりに対応するように、オーグメンテーション画像を段階的に修正し、修正後のオーグメンテーション画像を重畳して表示する(仮想プレーヤPL1c参照)。これにより、視聴しているユーザは、野球のプレーヤの感情が徐々に高まって興奮状態にあることを携帯端末20あるいはテレビジョン受像機30に表示された仮想プレーヤPL1b,PL1cにより直感的かつ視覚的に簡易に把握できる。
At time T=t3 thereafter, the
図9では、図8と同様に、ユーザにより野球の試合が携帯端末20あるいはテレビジョン受像機30で視聴されている場合に、野球の試合に出場しているプレーヤPL0(例えば父親P1および母親P2が好きな選手)が入力表示部26あるいは表示パネル36に表示されている。この時、娘P3の操作により、プレーヤPL0の化身となるスキンパック画像(オーグメンテーション画像)として、娘P3が好きな動物(例えば猫)の顔を有したマスコットキャラクタMSC1が購入処理されたとする。
In FIG. 9, as in FIG. 8, when the user is watching a baseball game on the
するとこの後、携帯端末20あるいはテレビジョン受像機30は、購入処理されたマスコットキャラクタMSC1のスキンパック画像をオーグメンテーション画像として用いてプレーヤPL0の体格および姿勢に適合するようにプレーヤPL0の周囲(例えば右隣り)に重畳して表示する。これにより、娘P3の好きなマスコットキャラクタMSC1の画像がプレーヤPL0の感情を示すこととなり、娘P3はプレーヤPL0の隣に映るマスコットキャラクタMSC1の出演によって野球の試合に興味を持ち出し始め、娘P3と一緒に視聴している父親P1および母親P2も野球の試合の視聴を快適に行える可能性が高まる。
Thereafter,
なお、携帯端末20あるいはテレビジョン受像機30は、プレーヤPL0が悔しい気持ちを抱いていることを検出した場合には、購入処理された同一のスキンパック画像を用いて、プレーヤPL0が悔しがっている状況を示すマスコットキャラクタMSC2をプレーヤPL0の周囲(例えば右隣り)に重畳して表示する。これにより、娘P3はプレーヤPL0の隣に映るマスコットキャラクタMSC2が悲しんでいる様子を見て、プレーヤPL0が今悔しがっているあるいは悲しんでいる状況を視覚的かつ直感的に把握でき、野球の試合に少しずつ興味を持ち始めることが期待できる。
When mobile terminal 20 or
なお、携帯端末20あるいはテレビジョン受像機30は、プレーヤPL0が嬉しい気持ちを抱いていることを検出した場合には、購入処理された同一のスキンパック画像を用いて、プレーヤPL0が嬉しがっている状況を示すマスコットキャラクタMSC3をプレーヤPL0の周囲(例えば右隣り)に重畳して表示する。これにより、娘P3はプレーヤPL0の隣に映るマスコットキャラクタMSC3が嬉しがっている様子を見て、プレーヤPL0が今喜んでいる状況を視覚的かつ直感的に把握でき、野球の試合に少しずつ興味を持ち始めることが期待できる。
When mobile terminal 20 or
<オーグメンテーション画像表示システムの動作>
次に、実施の形態1に係るオーグメンテーション画像表示システム1の動作例について、図10を参照して説明する。図10は、一連のオーグメンテーション画像処理の動作手順例を示すフローチャートである。図10の説明では、説明を分かり易くするために、オーグメンテーション画像処理部25あるいはオーグメンテーション画像処理部35が、プレーヤ映像データに基づくプレーヤの感情の解析、オーグメンテーション画像の生成および表示の各種処理を実行するとして説明するが、オーグメンテーション画像処理部15が実行してもよい。
<Operation of Augmentation Image Display System>
Next, an operation example of the augmentation
図10において、携帯端末20あるいはテレビジョン受像機30は、オンラインショッピング等のオンライン取引により、ユーザの操作に応じて、ユーザに選択されたスキンパック画像(オーグメンテーション元画像)の購入処理を行う(St1)。携帯端末20あるいはテレビジョン受像機30は、記録されているプレーヤ映像データに基づいて、そのプレーヤ映像データを構成するそれぞれの画像上に映るプレーヤの心拍数(例えばバイタル情報の一形態)およびその心拍数の一定期間(例えば数秒程度)における変動(例えばバイタル情報の一形態)を計算かつ解析する(St2)。
In FIG. 10, the
携帯端末20あるいはテレビジョン受像機30は、記録装置22に保存されている感情特性データとステップSt2において得られた一定期間における心拍数の変動の解析結果とに基づいて、心拍数の変動の特性に対応する感情を、そのプレーヤの心情(感情)として決定する(St3)。携帯端末20あるいはテレビジョン受像機30は、ステップSt1において購入処理されたスキンパック画像(オーグメンテーション元画像)を用いて、ステップSt3において決定されたプレーヤの感情に応じたオーグメンテーション画像(例えば重畳物の一形態)を生成あるいは選択する(St4)。携帯端末20あるいはテレビジョン受像機30は、プレーヤの感情に応じたオーグメンテーション画像を、プレーヤ映像データ(放送ストリーム)上のプレーヤに適用するように重畳して表示する(St4)。
The
ここで、プレーヤの移動があったことが携帯端末20あるいはテレビジョン受像機30により検出されていない場合には(St5、NO)、プレーヤの移動があったことが検出されるまでステップSt2~St4の処理が繰り返される。
Here, if the
一方、プレーヤの移動があったことが携帯端末20あるいはテレビジョン受像機30により検出された場合には(St5、YES)、携帯端末20あるいはテレビジョン受像機30は、プレーヤ映像データあるいは他のセンサ等で得られたセンシング結果を用いて、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)をそれぞれ特定する(St6)。
On the other hand, if the
携帯端末20あるいはテレビジョン受像機30は、移動後のプレーヤの姿勢(例えばプレーヤの手足、体格等の全身の形状)、プレーヤのプレーヤ映像データにおける位置(座標および領域)のそれぞれの特定結果を用いて、現在使用されているオーグメンテーション画像の特性(例えば形状、色、大きさ、あるいはこれらの組み合わせ)を変更(修正)する(St7)。特に、携帯端末20あるいはテレビジョン受像機30は、オーグメンテーション元画像に修正許可条件が割り当てられている場合には、その修正許可条件で示される範囲内でオーグメンテーション画像を修正する(St7)。
The
なお、ステップSt7の後、ユーザの操作によりアプリケーション(つまり、オーグメンテーション画像の重畳表示用アプリケーション)が終了されない限り(St8、NO)、終了されるまでステップSt2~St7の処理が繰り返される。一方で、ステップSt7の後、ユーザの操作によりアプリケーション(つまり、オーグメンテーション画像の重畳表示用アプリケーション)が終了されれば(St8、YES)、オーグメンテーション画像表示システム1の動作は終了する。
After step St7, unless the application (that is, application for superimposed display of the augmentation image) is terminated by the user's operation (St8, NO), the processes of steps St2 to St7 are repeated until the application is terminated. On the other hand, after step St7, if the application (that is, the application for superimposed display of the augmentation image) is terminated by the user's operation (St8, YES), the operation of the augmentation
以上により、実施の形態1に係るオーグメンテーション画像表示システム1は、ユーザ操作に応じて、テレビ番組(例えば野球の試合)に出演(例えば出場)している少なくとも1人の人物(例えばプレーヤ)の化身を示す画像データ(例えばスキンパック画像であるオーグメンテーション元画像データ)を購入処理する。オーグメンテーション画像表示システム1は、テレビ番組の映像データ(例えば野球の試合に出場しているプレーヤが映るプレーヤ映像データ)に基づいて、プレーヤの感情を推定する。オーグメンテーション画像表示システム1は、オーグメンテーション元画像データを用いて、プレーヤの感情に応じたオーグメンテーション画像データを生成し、生成されたオーグメンテーション画像データをテレビ番組のプレーヤに関連付けて表示する。なお、上述したオーグメンテーション画像処理は、放送局装置10、携帯端末20あるいはテレビジョン受像機30のいずれにおいて実行されても構わないが、放送ストリームの表示処理およびオーグメンテーション画像が重畳された放送ストリームの表示処理は携帯端末20あるいはテレビジョン受像機30により実行される。
As described above, the augmentation
これにより、オーグメンテーション画像表示システム1は、例えばスポーツの試合等のテレビ番組に出演している人物(例えば試合に出場しているプレーヤ)の心情(感情)を、携帯端末20あるいはテレビジョン受像機30の表示用画面を通して視聴者に概念的に把握可能とし、視聴者の利便性の向上に資することができる。従って、オーグメンテーション画像表示システム1は、プレーヤの位置および姿勢等の形状に合わせてプレーヤの感情に合わせたオーグメンテーション画像を適切に表示できるので、テレビ番組の視聴に対するエンターテインメント性を的確に向上できる。
As a result, the augmentation
また、オーグメンテーション画像表示システム1は、オーグメンテーション画像データを表示する際に、オーグメンテーション画像データを人物(例えばプレーヤ)にオーバーレイして表示する。これにより、ユーザは、プレーヤにオーバーレイして表示されたオーグメンテーション画像を見ることで、一見画面を通してだけでは把握しにくいプレーヤの感情を具体的かつ視覚的に直接的に把握できるので、テレビ番組をより楽しんで鑑賞できる。
Further, the augmentation
また、オーグメンテーション画像表示システム1は、オーグメンテーション画像データを表示する際に、オーグメンテーション画像データを人物(例えばプレーヤ)の周囲に表示する。これにより、ユーザは、プレーヤにオーバーレイして表示されたことで生じ得る視認性の劣化の発生要因が適正に排除されるので、テレビ番組の視認性が劣化されることなくプレーヤの感情を具体的に把握できてテレビ番組をより楽しんで鑑賞できる。
Also, the augmentation
また、オーグメンテーション画像表示システム1は、人物(例えばプレーヤ)がテレビ番組において位置を移動した場合に、人物の動きを追従し、人物の動きの追従に合わせてオーグメンテーション画像データの少なくとも形状を修正する。オーグメンテーション画像表示システム1は、オーグメンテーション画像データを表示する際に、少なくとも形状が修正された後のオーグメンテーション画像データを表示する。これにより、ユーザは、最新のプレーヤの位置および姿勢に適合するように表示されたオーグメンテーション画像を携帯端末20あるいはテレビジョン受像機30を介して視聴できる。従って、オーグメンテーション画像表示システム1は、プレーヤの位置が変わったとしても追従してオーグメンテーション画像を適切に表示でき、引き続きテレビ番組の視聴に対するエンターテインメント性を的確に向上できる。
Further, when a person (for example, a player) moves in a television program, the augmentation
また、オーグメンテーション画像表示システム1は、オーグメンテーション画像データを生成する際に、人物の感情が段階的に高揚したことが検出されると、人物の感情の段階的な高揚に対応して段階的に異なるオーグメンテーション画像データを生成する。これにより、ユーザは、人物の感情が徐々に高揚して興奮している様子がオーグメンテーション画像の段階的な変更(修正)に伴って直感的かつ視覚的に把握でき、テレビ番組のエンターテインメント性を享受できる。
Further, when the augmentation
また、オーグメンテーション画像表示システム1は、ユーザの操作に基づく購入処理が可能な画像データ(例えばスキンパック画像であるオーグメンテーション元画像)をデータベース(例えばオーグメンテーションデータベース155,255,355)に登録管理する。これにより、オーグメンテーション画像表示システム1は、多種多様なオーグメンテーション元画像をデータベースとして登録および管理できるので、幅広い年齢層を有するユーザの興味が持てるスキンパック画像を選択する自由度を格段に向上できる。
Further, the augmentation
また、オーグメンテーション画像表示システム1は、例えばテレビ番組の放送局との間で映画製作会社が新作映画のスポンサー契約を行った場合に、画像データ(例えばスキンパック画像であるオーグメンテーション元画像)を登録管理する際に、新作映画に登場する少なくとも1人のキャラクタ画像データをオーグメンテーションデータベース155,255,355に登録管理する。これにより、ユーザは、例えば新作映画に登場する人気のある有名なキャラクタ画像データをスキンパック画像として使用してプレーヤの感情、動き等に合わせて重畳されたテレビ番組を視聴できるので、楽しみながらテレビ番組を鑑賞することができる。
Further, the augmentation
また、オーグメンテーション画像表示システム1は、オーグメンテーション画像データを生成する際に、プレーヤの感情の変更が検出されると、変更後のプレーヤの感情に従ってオーグメンテーション画像データの色を修正する。これにより、ユーザは、携帯端末20あるいはテレビジョン受像機30を介して、プレーヤの気持ちが変化したことがオーグメンテーション画像の色の変化で簡易に把握でき、テレビ番組の内容のより深い理解ならびに関心を持つことができるようになる。
Further, when the augmentation
また、受信機は、ユーザにより携帯される携帯端末20である。これにより、ユーザは、例えば携帯可能な携帯端末20を所持して移動しながらでも、プレーヤの感情に適合するオーグメンテーション画像が重畳表示されたテレビ番組の視聴を楽しめる。
Also, the receiver is the
また、受信機は、ユーザが位置する場所に載置されたテレビジョン受像機30である。これにより、ユーザは、寛げるスペース(例えばユーザの自宅内)に載置されたテレビジョン受像機30を介して、プレーヤの感情に適合するオーグメンテーション画像が重畳表示されたテレビ番組の視聴を楽しめる。
Also, the receiver is the
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことはいうまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Various embodiments have been described above with reference to the drawings, but it goes without saying that the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims. Naturally, it is understood that it belongs to the technical scope of the present disclosure. In addition, the constituent elements of the various embodiments described above may be combined arbitrarily without departing from the gist of the invention.
本開示は、スポーツの試合等のテレビ番組に出演している人物の心情を、画面を通して視聴者に概念的に把握可能とし、視聴者の利便性の向上に資するオーグメンテーション画像表示システムおよびオーグメンテーション画像表示方法として有用である。 The present disclosure provides an augmentation image display system and an augmentation image display system that allow viewers to conceptually grasp the emotions of a person appearing in a television program such as a sports game through a screen, thereby contributing to improved convenience for viewers. It is useful as a method of displaying a reference image.
1 オーグメンテーション画像表示システム
10 放送局装置
11、21、31 メモリ
12、22、32 記録装置
13、23、33 プロセッサ
14、24,34 通信部
15、25、35 オーグメンテーション画像処理部
20 携帯端末
26 入力表示部
30 テレビジョン受像機
36 表示パネル
151、251、351 感情決定部
152、252、352 拡張処理部
153、253、353 追従処理部
154、254、354 修正処理部
155、255、355 オーグメンテーションデータベース
CM1、CM2 カメラ
1 Augmentation
Claims (11)
前記映像データに前記人物の化身を示す画像データを重畳するステップと、
前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示するステップと、を有し、
前記オーグメンテーション画像データを表示するステップにおいて、前記オーグメンテーション画像データを前記人物にオーバーレイして表示する、
オーグメンテーション画像表示方法。 estimating the emotion of at least one person displayed in the video data;
a step of superimposing image data representing an incarnation of the person on the video data;
using the video data to generate augmentation image data corresponding to the emotion of the person from the image data, and displaying the generated augmentation image data in association with the person. ,
displaying the augmented image data, displaying the augmented image data overlaid on the person ;
Augmentation image display method.
前記映像データに前記人物の化身を示す画像データを重畳するステップと、
前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示するステップと、を有し、
前記オーグメンテーション画像データを表示するステップにおいて、前記オーグメンテーション画像データを前記人物の周囲に表示する、
オーグメンテーション画像表示方法。 estimating the emotion of at least one person displayed in the video data;
a step of superimposing image data representing an incarnation of the person on the video data;
using the video data to generate augmentation image data corresponding to the emotion of the person from the image data, and displaying the generated augmentation image data in association with the person. ,
displaying the augmentation image data around the person ;
Augmentation image display method.
前記映像データに前記人物の化身を示す画像データを重畳するステップと、
前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示するステップと、
前記人物が前記映像データ内において移動した場合に、前記人物の動きを追従するステップと、
前記人物の動きの追従に合わせて前記オーグメンテーション画像データの少なくとも形状を修正するステップと、を有し、
前記オーグメンテーション画像データを表示するステップにおいて、修正後の前記オーグメンテーション画像データを表示する、
オーグメンテーション画像表示方法。 estimating the emotion of at least one person displayed in the video data;
a step of superimposing image data representing an incarnation of the person on the video data;
a step of generating augmented image data corresponding to the emotion of the person from the image data using the video data, and displaying the generated augmented image data in association with the person;
following the movement of the person when the person moves within the video data;
modifying at least the shape of the augmented image data to follow the movement of the person;
displaying the augmented image data in the step of displaying the augmented image data ;
Augmentation image display method.
請求項1に記載のオーグメンテーション画像表示方法。 In the step of generating the augmentation image data, when it is detected that the emotion of the person is gradually enhanced, the augmentation image is stepwise different corresponding to the stepwise enhancement of the emotion of the person. generate data,
The augmentation image display method according to claim 1.
前記映像データに前記人物の化身を示す画像データを重畳するステップと、
前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示するステップと、
ユーザ操作に応じて、前記映像データに表示された前記人物の化身を示す画像データを購入処理するステップと、
前記購入処理が可能な画像データをデータベースに登録管理するステップと、を有する、
オーグメンテーション画像表示方法。 estimating the emotion of at least one person displayed in the video data;
a step of superimposing image data representing an incarnation of the person on the video data;
a step of generating augmented image data corresponding to the emotion of the person from the image data using the video data, and displaying the generated augmented image data in association with the person;
a step of purchasing image data showing the incarnation of the person displayed in the video data according to a user operation;
registering and managing the image data that can be purchased in a database ;
Augmentation image display method.
前記テレビ番組の放送局との間で映画製作会社が新作映画のスポンサー契約を行った場合に、前記画像データを登録管理するステップにおいて、前記新作映画に登場する少なくとも1人のキャラクタ画像データを前記データベースに登録管理する、
請求項5に記載のオーグメンテーション画像表示方法。 The video data is video data of a television program,
When the movie production company concludes a sponsorship contract for a new movie with the broadcasting station of the television program, in the step of registering and managing the image data, the image data of at least one character appearing in the new movie is added to the above-described image data. registered and managed in the database,
The augmentation image display method according to claim 5 .
請求項1に記載のオーグメンテーション画像表示方法。 In the step of generating the augmentation image data, when a change in the emotion of the person is detected, modifying the color of the augmentation image data according to the changed emotion of the person.
The augmentation image display method according to claim 1.
前記受信機は、
映像データに表示された少なくとも1人の人物の感情を推定し、
前記映像データに前記人物の化身を示す画像データを重畳し、
前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けて表示する、
オーグメンテーション画像表示システム。 An augmentation image display system including a broadcasting station device that broadcasts video data and a receiver that is operated by a user and receives and displays the video data,
The receiver is
estimating the emotion of at least one person displayed in the video data;
superimposing image data representing an incarnation of the person on the video data;
generating augmented image data corresponding to the emotion of the person from the image data using the video data, and displaying the generated augmented image data in association with the person;
Augmentation image display system.
請求項8に記載のオーグメンテーション画像表示システム。 The receiver is a mobile terminal carried by the user,
9. The augmentation image display system according to claim 8 .
請求項8に記載のオーグメンテーション画像表示システム。 wherein the receiver is a television set placed where the user is located;
9. The augmentation image display system according to claim 8 .
前記受信機は、
映像データに表示された少なくとも1人の人物の化身を示す画像データの購入処理の要求を前記放送局装置に送り、
前記放送局装置は、
前記購入処理の要求に応じて、前記人物の化身を示す画像データを購入処理し、
前記映像データに基づいて、前記人物の感情を推定し、
前記映像データを用いて、前記画像データから前記人物の感情に応じたオーグメンテーション画像データを生成し、生成された前記オーグメンテーション画像データを前記人物に関連付けたテレビ番組データを生成して前記受信機に配信する、
オーグメンテーション画像表示システム。 An augmentation image display system including a broadcasting station device that broadcasts video data and a receiver that is operated by a user and receives and displays the video data,
The receiver is
sending a request for purchase processing of image data showing the incarnation of at least one person displayed in the video data to the broadcasting station device;
The broadcasting station device
Purchasing the image data showing the incarnation of the person in response to the purchase processing request,
estimating the emotion of the person based on the video data;
Augmentation image data corresponding to the emotion of the person is generated from the image data using the video data, TV program data is generated by associating the generated augmentation image data with the person, and deliver to the receiver,
Augmentation image display system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019145356A JP7316584B2 (en) | 2019-08-07 | 2019-08-07 | Augmentation image display method and augmentation image display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019145356A JP7316584B2 (en) | 2019-08-07 | 2019-08-07 | Augmentation image display method and augmentation image display system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021027509A JP2021027509A (en) | 2021-02-22 |
JP2021027509A5 JP2021027509A5 (en) | 2022-04-28 |
JP7316584B2 true JP7316584B2 (en) | 2023-07-28 |
Family
ID=74664891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019145356A Active JP7316584B2 (en) | 2019-08-07 | 2019-08-07 | Augmentation image display method and augmentation image display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7316584B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022128998A (en) | 2021-02-24 | 2022-09-05 | 浜松ホトニクス株式会社 | External resonant laser module |
WO2022264203A1 (en) * | 2021-06-14 | 2022-12-22 | 三菱電機株式会社 | Signal generation device, signal processing system, and signal generation method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005269557A (en) | 2004-03-22 | 2005-09-29 | Sharp Corp | Communication terminal, television receiver, information output method, information output program, and recording medium stored with the information output program |
JP2005277462A (en) | 2004-03-22 | 2005-10-06 | Fujitsu Ltd | Conference support system, proceeding forming method, and computer program |
KR101791979B1 (en) | 2017-04-14 | 2017-11-20 | (주)원더피플 | Method for providing a messenger service through item representing metadata or supplemental item and server using the same |
JP2017229060A (en) | 2016-06-22 | 2017-12-28 | 富士ゼロックス株式会社 | Methods, programs and devices for representing meeting content |
-
2019
- 2019-08-07 JP JP2019145356A patent/JP7316584B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005269557A (en) | 2004-03-22 | 2005-09-29 | Sharp Corp | Communication terminal, television receiver, information output method, information output program, and recording medium stored with the information output program |
JP2005277462A (en) | 2004-03-22 | 2005-10-06 | Fujitsu Ltd | Conference support system, proceeding forming method, and computer program |
JP2017229060A (en) | 2016-06-22 | 2017-12-28 | 富士ゼロックス株式会社 | Methods, programs and devices for representing meeting content |
KR101791979B1 (en) | 2017-04-14 | 2017-11-20 | (주)원더피플 | Method for providing a messenger service through item representing metadata or supplemental item and server using the same |
Also Published As
Publication number | Publication date |
---|---|
JP2021027509A (en) | 2021-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10691202B2 (en) | Virtual reality system including social graph | |
JP6792044B2 (en) | Control of personal spatial content presented by a head-mounted display | |
US10779019B2 (en) | System and method for recognition of items in media data and delivery of information related thereto | |
US11469971B2 (en) | Crowd sourced sensor data management systems | |
CN112423855B (en) | Scaled VR participation and viewing in electronic competition | |
US10898809B2 (en) | Overlaying content within live streaming video | |
US11416918B2 (en) | Systems/methods for identifying products within audio-visual content and enabling seamless purchasing of such identified products by viewers/users of the audio-visual content | |
US10701426B1 (en) | Virtual reality system including social graph | |
US20140325540A1 (en) | Media synchronized advertising overlay | |
TW201349147A (en) | Advertisement presentation based on a current media reaction | |
JP7316584B2 (en) | Augmentation image display method and augmentation image display system | |
JP2023126237A (en) | Live communication system using character | |
CN116097292A (en) | Influencer flow customization for a viewer of interest | |
JP2022546664A (en) | User-specified advertisements in virtual space | |
US20210342886A1 (en) | Virtual Advertising Database with Command Input Data | |
KR101197630B1 (en) | System and method of providing augmented contents related to currently-provided common contents to personal terminals | |
JP6609078B1 (en) | Content distribution system, content distribution method, and content distribution program | |
CN116993432A (en) | Virtual clothes information display method and electronic equipment | |
KR101785822B1 (en) | Home shopping service method for mapping tv data broadcast homeshopping content onto real avatar of user | |
DK202000213A1 (en) | A system and a method for live streaming by use of an augmented reality (ar) technology | |
JP6831027B1 (en) | Distribution system, video generator, and video generation method | |
JP7344084B2 (en) | Content distribution system, content distribution method, and content distribution program | |
KR101181862B1 (en) | Role auction service method and device in avata media service | |
WO2022172259A1 (en) | Program, method, information processing device, and system | |
US20240028123A1 (en) | Information processing device, information processing method, program, and information processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220420 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220420 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230411 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230706 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7316584 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |