JP2003125361A - Information processing device, information processing method, information processing program, and information processing system - Google Patents

Information processing device, information processing method, information processing program, and information processing system

Info

Publication number
JP2003125361A
JP2003125361A JP2001315931A JP2001315931A JP2003125361A JP 2003125361 A JP2003125361 A JP 2003125361A JP 2001315931 A JP2001315931 A JP 2001315931A JP 2001315931 A JP2001315931 A JP 2001315931A JP 2003125361 A JP2003125361 A JP 2003125361A
Authority
JP
Japan
Prior art keywords
information
effect
moving image
dimensional code
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001315931A
Other languages
Japanese (ja)
Inventor
Makoto Murata
誠 村田
Junko Fukuda
純子 福田
Keigo Ihara
圭吾 井原
Takanori Nishimura
孝則 西村
Yasushi Miyajima
靖 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001315931A priority Critical patent/JP2003125361A/en
Publication of JP2003125361A publication Critical patent/JP2003125361A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information-processing system, an information-processing device, and the like capable of adding a desired effect reliably even when live video transmissions are distributed. SOLUTION: The information processing device is characterized by having: an image-taking-in means that takes in moving image information taken by a build-in camera or an external camera; an extracting means that extracts two dimensional coded information contained in the moving image information; an image processing means that processes the moving image information based on the two dimensional coded information extracted by the extracting means; a transmitting means that transmits the moving image information processed by the image processing means in a streaming format. Information for adding the effect is contained in the two dimensional coded information and this can be contained in moving picture information picked up, so that, for example, pictures along with a performer can be taken and the desired effect can automatically be synthesized without performing any troublesome operations.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はカメラ、カムコーダ
ーなどの撮像機器で撮影されライブ配信されるような動
画像情報に各種表示効果を付加できる情報処理装置、情
報処理方法、情報処理プログラム、及び情報処理システ
ムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus, an information processing method, an information processing program, and an information processing method capable of adding various display effects to moving image information captured by an image pickup device such as a camera or a camcorder and delivered live. Regarding processing system.

【0002】[0002]

【従来の技術】インターネットなどの情報通信網を用い
て、個人やグループで利用される映像をリアルタイムに
配信することが行われている。このリアルタイム配信の
際には、現在ではパーソナルコンピューターに小型カメ
ラを取り付けた構造や、カメラやカムコーダーの如き撮
像機器からの映像信号を無線や有線などの接続から送出
できる構造のものなど種々の映像機器が使用されてお
り、映像信号の送り先もインターネット上のサーバーな
どを介することで多様な視聴者に対するライブ配信が可
能となる。
2. Description of the Related Art An information communication network such as the Internet is used to deliver images used by individuals and groups in real time. At the time of this real-time distribution, various video devices such as a structure in which a small camera is attached to a personal computer and a structure in which a video signal from an imaging device such as a camera or a camcorder can be sent out through a wireless or wired connection are currently used. Is used, and it is possible to deliver live to various viewers by sending the video signal to a server on the Internet.

【0003】このようなライブ配信を行う場合に、単純
にカメラからの映像を転送して配信するだけではなく、
画像や音声などの予め用意されている効果を表示画像に
重ねることで、映像表現を豊かにすることができる。一
般に効果(エフェクト)の付加のためには、予め所望の
効果を作成しておいて、配信映像の撮影者や編集者がそ
の効果が重ね合わせられるように操作を行って、効果を
配信映像に重畳している。ユーザはリアルタイムで配信
されるカメラ映像などをモニターしながら、効果(エフ
ェクト)を選ぶためのユーザ・インターフェースから所
望の効果を選び、画像に視覚的な効果を出すことがで
き、更には音声データを重ねることで聴覚的な効果を得
ることができる。このような効果の中、画像に対する効
果としては、例えば、白黒、モザイク、セピア、ネガポ
ジ反転、ミラー、エンボスなどの画像データに対する演
算処理を実行するものや、フラワー、ハート、クラッカ
ー、メガネなどの比較的単純な画像を重ね合わせるもの
が一般的に用いられている。
When performing such live distribution, not only is the image from the camera simply transferred and distributed, but
By superimposing previously prepared effects such as images and sounds on the display image, it is possible to enrich the video expression. Generally, in order to add an effect, a desired effect is created in advance, and the photographer or editor of the distribution image operates to superimpose the effect, and the effect is distributed to the distribution image. It overlaps. The user can select the desired effect from the user interface for selecting the effect while monitoring the camera image etc. delivered in real time, and make a visual effect on the image. You can get an auditory effect by overlapping. Among these effects, effects on images include, for example, those that perform arithmetic processing on image data such as black and white, mosaic, sepia, negative / positive inversion, mirror, emboss, and comparison of flowers, hearts, crackers, glasses, etc. It is generally used to superimpose simple images.

【0004】[0004]

【発明が解決しようとする課題】ユーザは、このような
効果を映像に対して付加することで、映像による表現を
豊富にすることができ、映像を見る者をより楽しませる
ことができる。ところが、インターネットなどの情報通
信網を用いて個人やグループで利用される映像をリアル
タイムに配信する場合、実際には、比較的に静的な動作
を行う被写体に対してしか有効な効果を付加することが
できない。すなわち、現状のライブ映像において配信側
のソフトウェアで映像に対して何らかの効果をかけよう
とする場合、効果はあらかじめ決められた領域に決めら
れた効果をかけることしか出来ないのである。例えば、
モザイクを動きまわる人物の顔の部分だけに重畳しよう
としても、動画像内でどの部分が人物の顔であるかがわ
からないので、そのようなことは難しい。
By adding such an effect to the image, the user can enrich the expression by the image and make the viewer of the image more entertaining. However, when an image used by an individual or a group is distributed in real time using an information communication network such as the Internet, in actuality, an effective effect is added only to a subject performing a relatively static operation. I can't. That is, in the current live video, when the software on the distribution side tries to apply some effect to the video, the effect can only be a predetermined effect in a predetermined area. For example,
Even if it is attempted to superimpose only the face of a moving person on the mosaic, such a thing is difficult because it is not known which part in the moving image is the face of the person.

【0005】それでも、敢えて人物の顔の上にモザイク
の効果を付加したいときは、ユーザは数ある効果の中か
らモザイクエフェクトを選択し、画像内で顔の位置を指
定するという面倒な編集作業が必要になる。カメラ画像
内で人物の顔が動き回る場合は、手動で顔の位置を随時
設定する必要があり、顔をモザイクが追従するのは不可
能に近い。このように現状の技術ではカメラ画像に応じ
た効果を面倒な手動で付加することで対応している。
Even so, when the user wants to intentionally add a mosaic effect to the person's face, the user must select the mosaic effect from among the numerous effects and specify the face position in the image, which is a troublesome editing work. You will need it. When the face of a person moves around in the camera image, it is necessary to manually set the position of the face at any time, and it is almost impossible for the mosaic to follow the face. As described above, in the current technology, the effect according to the camera image is dealt with by manually adding it.

【0006】また、従来のライブ映像配信においては、
効果の選択、オン・オフは通常出演者ではないユーザが
手動で操作する。すなわち、通常、カメラに映っている
出演者自身は効果を選択することや効果のオン・オフを
することが出来ない。従って、操作するユーザが効果な
どの映像をコントロールする作業を全て行わなければな
らず、特に出演者自身がライブ配信の映像提供者である
場合には、効果を付加するにはリモートコントローラな
どの特別なデバイスが必要とされ、その操作は難しいも
のとなっている。
In the conventional live video distribution,
A user who is not a performer usually manually selects and turns on the effect. That is, normally, the performer himself / herself reflected in the camera cannot select the effect or turn the effect on / off. Therefore, the operating user must do all the work of controlling the images such as effects, especially when the performer himself is the image provider of the live distribution, adding special effects such as a remote controller to add the effects. Various devices are required, and their operation is difficult.

【0007】そこで、本発明は、上述の技術的な課題に
鑑み、ライブ映像配信を行うような場合であっても確実
に所望の効果を付加することのできる情報処理装置、情
報処理方法、情報処理プログラム、及び情報処理システ
ムの提供を目的とする。
In view of the above technical problems, the present invention is directed to an information processing apparatus, an information processing method, and an information processing method capable of reliably adding a desired effect even when live video distribution is performed. It is intended to provide a processing program and an information processing system.

【0008】[0008]

【課題を解決するための手段】本発明の情報処理装置
は、動画像情報を取り込む画像取込手段と、前記動画像
情報に含まれる2次元コード情報を抽出する抽出手段
と、前記抽出手段で抽出された前記2次元コード情報に
応じて前記動画像情報を加工する画像加工手段と、前記
画像加工手段により加工された前記動画像情報をストリ
ーミング形式で送出する送出手段とを有することを特徴
とする。
An information processing apparatus of the present invention comprises an image capturing means for capturing moving image information, an extracting means for extracting two-dimensional code information contained in the moving image information, and the extracting means. It has an image processing means for processing the moving image information according to the extracted two-dimensional code information, and a sending means for sending the moving image information processed by the image processing means in a streaming format. To do.

【0009】本発明の情報処理装置によれば、効果を付
加するための情報が2次元コード情報内に含まれてお
り、この2次元コード情報は撮像された動画像情報に含
めることができ、換言すれば出演者と共に写すことがで
きるものである。この2次元コード情報には、例えば、
効果を指定するための効果選択情報、2次元コード情報
と効果表示位置の間の相対位置に関する相対位置情報、
付加すべき効果の表示範囲に関する効果付加範囲情報な
どの効果設定情報が含まれ、更には2次元コード情報に
は、座標情報が含まれる。このため2次元コード情報を
用いて効果の付加の制御を行うことができ、リアルタイ
ムな効果の制御を自動で行うことができ、更には出演者
による制御も可能である。
According to the information processing apparatus of the present invention, the information for adding the effect is included in the two-dimensional code information, and the two-dimensional code information can be included in the captured moving image information. In other words, it can be copied with the performers. The two-dimensional code information includes, for example,
Effect selection information for specifying the effect, relative position information regarding the relative position between the two-dimensional code information and the effect display position,
The effect setting information such as effect addition range information regarding the display range of the effect to be added is included, and the two-dimensional code information further includes coordinate information. Therefore, the effect addition can be controlled using the two-dimensional code information, the real-time effect control can be automatically performed, and the performer can also control the effect.

【0010】また、本発明の情報処理方法は、動画像情
報を取り込む工程と、前記動画像情報に含まれる2次元
コード情報を抽出する工程と、抽出された前記2次元コ
ード情報に応じて前記動画像情報を加工する工程と、加
工された前記動画像情報をストリーミング形式で送出す
る工程とを有することを特徴とする。
Also, the information processing method of the present invention comprises the steps of taking in moving image information, extracting two-dimensional code information contained in the moving image information, and the step of extracting the two-dimensional code information in accordance with the extracted two-dimensional code information. It is characterized by including a step of processing the moving image information and a step of transmitting the processed moving image information in a streaming format.

【0011】本発明の情報処理方法においても、効果を
付加するための情報を2次元コード情報内に含めること
ができることから、この2次元コード情報を撮像された
動画像情報に含めることで自動的な効果付加が可能とな
る。この2次元コード情報には、例えば、効果を指定す
るための効果選択情報、2次元コード情報と効果表示位
置の間の相対位置に関する相対位置情報、付加すべき効
果の表示範囲に関する効果付加範囲情報などの効果設定
情報が含まれ、更には2次元コード情報には、座標情報
が含まれる。このため2次元コード情報を用いて効果の
付加の制御を行うことができ、リアルタイムな効果の制
御を自動で行うことができ、更には出演者による制御も
可能である。
Also in the information processing method of the present invention, since information for adding an effect can be included in the two-dimensional code information, it is automatically included in the captured moving image information. It is possible to add various effects. The two-dimensional code information includes, for example, effect selection information for specifying an effect, relative position information regarding a relative position between the two-dimensional code information and the effect display position, and effect addition range information regarding a display range of an effect to be added. The effect setting information such as the above is included, and the coordinate information is included in the two-dimensional code information. Therefore, the effect addition can be controlled using the two-dimensional code information, the real-time effect control can be automatically performed, and the performer can also control the effect.

【0012】更に、本発明の情報処理プログラムにおい
ては、動画像情報を取り込む手順と、前記動画像情報に
含まれる2次元コード情報を抽出する手順と、抽出され
た前記2次元コード情報に応じて前記動画像情報を加工
する手順と、加工された前記動画像情報をストリーミン
グ形式で送出する手順とを有することを特徴とする。
Further, in the information processing program of the present invention, according to the procedure of taking in the moving image information, the procedure of extracting the two-dimensional code information contained in the moving image information, and the extracted two-dimensional code information. It is characterized by comprising a procedure of processing the moving image information and a procedure of transmitting the processed moving image information in a streaming format.

【0013】本発明の情報処理プログラムによれば、動
画像情報には2次元コード情報を含めることができ、効
果を付加するための情報を2次元コード情報内に含めて
自動的な効果の付加が可能となる。このため2次元コー
ド情報を用いて効果の付加の制御を行うことができ、リ
アルタイムな効果の制御を自動で行うことができ、更に
は出演者による制御も可能である。
According to the information processing program of the present invention, the moving image information can include the two-dimensional code information, and the information for adding the effect is included in the two-dimensional code information to automatically add the effect. Is possible. Therefore, the effect addition can be controlled using the two-dimensional code information, the real-time effect control can be automatically performed, and the performer can also control the effect.

【0014】また、本発明の他の情報処理装置は、撮像
された動画像情報をフレームを特定するためのタイムス
タンプを含んでストリーミング形式で送出可能とする画
像取込手段と、前記動画像情報に含まれる2次元コード
情報をフレーム単位で抽出する抽出手段と、抽出された
前記2次元コード情報に含まれる効果設定情報と共に前
記タイムスタンプを送出する送出手段を有することを特
徴とする。
Further, another information processing apparatus of the present invention is an image capturing means capable of transmitting the captured moving image information in a streaming format including a time stamp for specifying a frame, and the moving image information. And a sending means for sending the time stamp together with the effect setting information included in the extracted two-dimensional code information.

【0015】タイムスタンプは動画像情報のフレームを
時系列を以って特定するためのデータであり、このタイ
ムスタンプをストリーミング形式で送出される動画像情
報に含ませることで、動画像情報の送出先における効果
付加が実現されることになる。
The time stamp is data for specifying a frame of moving image information in time series, and by including this time stamp in the moving image information transmitted in the streaming format, the moving image information is transmitted. The above-mentioned effect addition will be realized.

【0016】本発明の更に他の情報処理装置は、タイム
スタンプによって動画像情報をフレーム単位で特定する
と共に効果設定情報に応じて動画像情報を該フレーム単
位で加工する画像加工手段と、前記画像加工手段で加工
された動画像情報をストリーミング形式で送出する送出
手段とを有することを特徴とする。
Still another information processing apparatus of the present invention is: an image processing unit for specifying moving image information in frame units by a time stamp and processing moving image information in frame units according to effect setting information; And a sending means for sending the moving image information processed by the processing means in a streaming format.

【0017】この情報処理装置においては、タイムスタ
ンプと効果設定情報が受信され、これらタイムスタンプ
と効果設定情報に応じてリアルタイムな効果の付加が画
像加工手段によって実現される。画像加工手段で加工さ
れた動画像情報はストリーミング形式で送出され、所要
の表示装置などによって視聴することができる。
In this information processing apparatus, the time stamp and the effect setting information are received, and the image processing means realizes the addition of the effect in real time according to the time stamp and the effect setting information. The moving image information processed by the image processing means is transmitted in a streaming format and can be viewed on a required display device or the like.

【0018】また、本発明にかかる情報処理システム
は、撮像された動画像情報をフレームを特定するための
タイムスタンプを含んでストリーミング形式で送出可能
とする画像取込手段と、前記動画像情報に含まれる2次
元コード情報をフレーム単位で抽出する抽出手段と、抽
出された前記2次元コード情報に含まれる効果設定情報
と共に前記タイムスタンプを送出する送出手段と、前記
送出手段から送られたタイムスタンプによって前記動画
像情報をフレーム単位で特定すると共に効果設定情報に
応じて動画像情報を該フレーム単位で加工する画像加工
手段と、前記画像加工手段で加工された動画像情報をス
トリーミング形式で配信する配信手段とを有することを
特徴とする。
Further, the information processing system according to the present invention includes image capturing means capable of transmitting captured moving image information in a streaming format including a time stamp for specifying a frame, and the moving image information. Extraction means for extracting the included two-dimensional code information in frame units, sending means for sending the time stamp together with the effect setting information included in the extracted two-dimensional code information, and the time stamp sent from the sending means. Specifies the moving image information on a frame-by-frame basis, and distributes the moving image information processed by the image processing unit in a streaming format, and an image processing unit that processes the moving image information on a frame-by-frame basis according to the effect setting information. And a distribution means.

【0019】当該情報処理システムによれば、送出手段
によってインターネット等の情報通信網や通信回線を介
しての配信ができ、タイムスタンプによって前記動画像
情報をフレーム単位で特定することが可能であると共
に、画像加工手段では効果設定情報に応じて動画像情報
を該フレーム単位で加工することができる。
According to the information processing system, the sending means can deliver the information via the information communication network such as the Internet or the communication line, and the moving image information can be specified in the frame unit by the time stamp. The image processing means can process the moving image information in frame units according to the effect setting information.

【0020】[0020]

【発明の実施の形態】図面を参照しながら、本発明の情
報処理装置、情報処理方法、情報処理プログラム、及び
情報処理システムについて説明する。先ず、システムの
構成としては、大きく分けてエフェクトデータベースが
配信側のパーソナルコンピュータ内に設けられている場
合と、エフェクトデータベースがネットワーク上のエフ
ェクトサーバ内に設けられている場合とについて説明す
る。なお、これらのシステムは例示に過ぎず、本発明の
情報処理システム等については、各種の変形例が可能で
ある。
BEST MODE FOR CARRYING OUT THE INVENTION An information processing apparatus, an information processing method, an information processing program, and an information processing system of the present invention will be described with reference to the drawings. First, the system configuration will be roughly divided into a case where the effect database is provided in the personal computer on the distribution side and a case where the effect database is provided in the effect server on the network. Note that these systems are merely examples, and various modifications of the information processing system and the like of the present invention are possible.

【0021】図1は本実施形態のライブ配信システムの
概要を示す図であり、エフェクトデータベースが配信側
のパーソナルコンピュータ内に設けられている場合の構
成図である。本実施形態にかかるシステムにおける配信
元の構成については、通常のパーソナルコンピュータか
らなるローカルコンピュータ11を有しており、そのロ
ーカルコンピュータ11には内蔵若しくは外付けのハー
ドディスクなどに格納されるエフェクトデータベース1
2が設けられている。後述するように、2次元コード情
報である2Dコード15が読み込まれた時には、エフェ
クトデータベース12内で該当する項目が検索され、表
示すべきエフェクトが選択される。ローカルコンピュー
タ11は、カメラを一体に備えた構造であっても良く、
カメラを接続して使用するものであっても良い。また、
ローカルコンピュータ11はネットワーク機能を有する
カメラ自体やカムコーダーなどの機器自体であっても良
く、更には撮像機能を有する携帯電話や携帯情報端末な
ど種々の電子機器に置き換え可能である。ローカルコン
ピュータ11は、一例としてノート型コンピュータであ
って、表示部の上端中央部分にはCCD(Charge Coupled D
evice)ビデオカメラが設けられている。2Dコード15
は、ローカルコンピュータ11のCCDビデオカメラによ
り撮像され、その結果得られた画像データから2Dコー
ド15のパターンが認識されて、そのパターンに対応し
た所定の処理が実行される。
FIG. 1 is a diagram showing an outline of the live distribution system of the present embodiment, and is a configuration diagram when an effect database is provided in a distribution-side personal computer. The configuration of the distribution source in the system according to the present embodiment has a local computer 11 which is an ordinary personal computer, and the effect database 1 stored in the local computer 11 such as an internal or external hard disk.
Two are provided. As will be described later, when the 2D code 15 which is the two-dimensional code information is read, the corresponding item is searched in the effect database 12 and the effect to be displayed is selected. The local computer 11 may have a structure integrally provided with a camera,
A camera may be connected and used. Also,
The local computer 11 may be a device itself such as a camera or a camcorder having a network function, and can be replaced with various electronic devices such as a mobile phone and a personal digital assistant having an imaging function. The local computer 11 is, for example, a laptop computer, and a CCD (Charge Coupled D
evice) A video camera is provided. 2D code 15
Is captured by the CCD video camera of the local computer 11, the pattern of the 2D code 15 is recognized from the image data obtained as a result, and a predetermined process corresponding to the pattern is executed.

【0022】ローカルコンピュータ11の接続先はスト
リーミングサーバ13とされ、LAN内、WAN内或い
はインターネット上などの情報通信網の一部に配設され
たサーバである。このストリーミングサーバ13では、
ローカルコンピュータ11から提供されたライブ映像を
単数若しくは複数の視聴者にストリーミング形式で配信
することができる。具体的には、視聴者がストリーミン
グサーバ13に対して端末14を介してアクセスし、そ
の端末14に付属の表示デバイスを介して映像を見るこ
とができる。
The connection destination of the local computer 11 is a streaming server 13, which is a server provided in a part of an information communication network such as a LAN, a WAN, or the Internet. In this streaming server 13,
The live video provided from the local computer 11 can be distributed in streaming format to a single viewer or multiple viewers. Specifically, the viewer can access the streaming server 13 via the terminal 14 and view the video on the display device attached to the terminal 14.

【0023】ローカルコンピュータ11に設けられたエ
フェクトデータベース12は、エフェクトについての効
果選択情報、2次元コード情報と効果表示位置の間の相
対位置に関する相対位置情報、付加すべき効果の表示範
囲に関する効果付加範囲情報などの効果設定情報をデー
タベース形成で保持するものである。エフェクトについ
ての効果選択情報は、2DデータのID(識別番号若し
くは2DコードID)を示すものであり、2Dデータの
1つのIDが1つのエフェクトに対応する。例えば、2
DデータのIDが「0001001」の場合には、3次
元で表現されるペット型アニメーション表示を指定する
ものとされ、メモリーの所定フォルダーに格納されてい
るデータを読み出して表示させることができる。この効
果選択情報は、表示させるコンテンツを指定するだけで
はなく、具体的にどのエフェクトを付加するのかを指定
するものである。例示すると、画像ファイルの重畳だけ
ではなく、背景の差替え、ある表示領域の演算処理、さ
らには重ねられる画像ファイルも2次元的な画像に限定
されず、時間軸方向で変化するアニメーション画像や、
影や明度がグラデーションで変化して立体的に把握され
る3次元画像、3次元コンピュータグラフィックスなど
種々のエフェクトに対応できる。
The effect database 12 provided in the local computer 11 includes effect selection information regarding effects, relative position information regarding the relative position between the two-dimensional code information and the effect display position, and effect addition regarding the display range of the effect to be added. The effect setting information such as range information is held in the database formation. The effect selection information about an effect indicates an ID (identification number or 2D code ID) of 2D data, and one ID of 2D data corresponds to one effect. For example, 2
When the ID of the D data is “0001001”, the pet type animation display expressed in three dimensions is designated, and the data stored in the predetermined folder of the memory can be read and displayed. This effect selection information not only specifies the content to be displayed, but also specifies which effect is specifically added. For example, not only the superimposition of image files, but also the replacement of the background, the calculation processing of a certain display area, and the image files to be overlaid are not limited to two-dimensional images, and animation images that change in the time axis direction,
It can be applied to various effects such as three-dimensional images and three-dimensional computer graphics in which shadows and lightness are changed in gradation to be recognized stereoscopically.

【0024】効果設定情報のうちの相対位置情報は、撮
像された2Dコードの位置を原点として効果表示位置を
どこにするかを指定するデータであり、例えば、相対位
置情報は3次元ベクトル(x、y、z)のデータを有す
る情報である。また、タイムスタンプ等を利用して時間
についての座標を含ませて、多少の遅延時間や表示切替
速度、アニメーションの進行速度を制御するようにして
も良い。この相対位置情報によって、エフェクトの位置
が全画面上の一部である場合でも、任意にエフェクトの
位置を指定できる。相対位置情報は3次元ベクトル
(x、y、z)のデータに限らず、2次元ベクトルのデ
ータであっても良い。
The relative position information of the effect setting information is data for designating where to set the effect display position with the position of the imaged 2D code as the origin. For example, the relative position information is a three-dimensional vector (x, It is information having data of y, z). Alternatively, a time stamp or the like may be used to include time coordinates to control the delay time, the display switching speed, and the animation progress speed. With this relative position information, even if the effect position is a part of the entire screen, the effect position can be arbitrarily specified. The relative position information is not limited to the three-dimensional vector (x, y, z) data, and may be the two-dimensional vector data.

【0025】効果設定情報のうちの効果付加範囲情報
は、付加すべき効果の表示範囲に関する情報であり、指
定された相対位置の原点を基準にどの範囲にエフェクト
を付加するかを指定する情報である。例えば、エフェク
トがモザイクの場合には、縦方向に±50ピクセルで横
方向に±100ピクセルにモザイクをかけると言うよう
に縦方向と横方向のピクセル数を指定する。
The effect addition range information of the effect setting information is information relating to the display range of the effect to be added, and is information for specifying the range to which the effect is added based on the origin of the specified relative position. is there. For example, when the effect is a mosaic, the number of pixels in the vertical direction and the number in the horizontal direction are specified such that the mosaic is applied to ± 50 pixels in the vertical direction and ± 100 pixels in the horizontal direction.

【0026】このようなエフェクトデータベース12
は、ローカルコンピュータ11のユーザがライブ配信を
開始する前に、任意に設定することができる。例えば、
良く使用するエフェクトやお気に入りのエフェクトを手
持ちの2Dコードに合わせたり、1つの2Dコードで複
数のエフェクトを同時に開始させるような制御も可能で
ある。また、1種類の2Dコードだけではなく、複数の
2Dコード群により制御するようにすることも可能であ
る。
Such an effect database 12
Can be arbitrarily set before the user of the local computer 11 starts the live distribution. For example,
It is also possible to match the effects that are frequently used or favorite effects with the 2D code that you have, or to start multiple effects simultaneously with one 2D code. Further, it is possible to control not only one type of 2D code but also a plurality of 2D code groups.

【0027】ここでいくつかのエフェクトの例について
説明する。ここで説明するエフェクトは例示に過ぎず、
ユーザが選択できる数多くのエフェクトのうちの数種に
過ぎない。本実施形態のシステムで利用できるエフェク
トのうちの1つは、モザイクである。このモザイクエフ
ェクトの場合には、2Dコードの位置が認識され、エフ
ェクトデータベース12からエフェクトを付加する範囲
が読み出され、その範囲に画像加工手段によってモザイ
クをかける。このようなモザイクの利用法としては、顔
などの部分を明らかに示したくない時などに使用するこ
とができ、例えば、エフェクトデータベース12の相対
位置情報や効果付加範囲情報を設定しておくことで、丁
度Tシャツを着たときに顔の位置にモザイクが付加され
るようにすることも可能である。このモザイクは画像に
対して演算処理をかけることで生成されるエフェクトで
あり、他にも白黒、セピア、ネガポジ反転、ミラー、エ
ンボス、水彩画、オールドフィルム、波形処理などの画
像データに対する演算処理もエフェクトとして選択でき
るようにすることも可能である。
Here, examples of some effects will be described. The effects described here are only examples,
It is just a few of the many effects that the user can choose from. One of the effects available in the system of this embodiment is a mosaic. In the case of this mosaic effect, the position of the 2D code is recognized, the range to which the effect is added is read from the effect database 12, and the range is subjected to mosaic by the image processing means. As a method of using such a mosaic, it can be used when it is not desired to clearly show a part such as a face. For example, by setting relative position information and effect addition range information of the effect database 12. It is also possible to add a mosaic to the position of the face just when wearing the T-shirt. This mosaic is an effect that is generated by applying arithmetic processing to an image.In addition, arithmetic processing for image data such as black and white, sepia, negative / positive inversion, mirror, emboss, watercolor, old film, and waveform processing is also an effect. It is also possible to select as.

【0028】また、本実施形態の情報処理システムで利
用できるエフェクトには、更に2次元画像が挙げられ
る。これは画面内の2Dコードの位置を認識して、予め
エフェクトデータベース12からリンクされたビットマ
ップ若しくはその他の画像ファイルを相対位置情報を利
用しながら貼り付ける。この場合において、2Dコード
の四隅の座標から2Dコードの大きさを認識し、その認
識した2Dコードの大きさに応じて画像ファイルのサイ
ズを変換する。ここで画面上に呼び出される画像ファイ
ルは、文字や記号などを含むようなものであっても良
く、逆に文字や記号からなるものであっても良い。この
場合には、2Dコードに対応してメッセージや広告など
を表示できることになる。
Further, the effects that can be used in the information processing system of this embodiment include a two-dimensional image. This recognizes the position of the 2D code on the screen and pastes a bitmap or other image file linked in advance from the effect database 12 while using the relative position information. In this case, the size of the 2D code is recognized from the coordinates of the four corners of the 2D code, and the size of the image file is converted according to the recognized size of the 2D code. Here, the image file called on the screen may be a file containing characters or symbols, or conversely may be composed of characters or symbols. In this case, a message or advertisement can be displayed corresponding to the 2D code.

【0029】更に、本実施形態の情報処理システムで利
用できる他のエフェクトには、3次元コンピュータグラ
フィックスが挙げられる。先ず、画面内の2Dコードの
位置と座標が認識され、その位置と座標に応じて予め用
意された3次元コンピュータグラフィックスが重ね合わ
される。座標とは、2Dコードの方向を示すものであ
り、例えば、画面内の2Dコードを向きを変えること
で、それに対応する3次元コンピュータグラフィックス
も同じように表示される方向を変えるように制御でき
る。特に、3次元コンピュータグラフィックスの場合で
は、画像ファイルによるエフェクトやモザイクなどの演
算処理エフェクトとは異なり、2Dコードによって撮像
した実世界の映像の3次元的な情報を考慮することにな
り、3次元コンピュータグラフィックスをキャラクター
で示す場合には、そのキャラクターがあたかも実世界に
存在するかのような効果を得ることが可能である。
Furthermore, other effects that can be used in the information processing system of this embodiment include three-dimensional computer graphics. First, the position and coordinates of the 2D code on the screen are recognized, and three-dimensional computer graphics prepared in advance according to the position and coordinates are overlaid. The coordinates indicate the direction of the 2D code. For example, by changing the direction of the 2D code on the screen, it is possible to control the corresponding 3D computer graphics so as to change the displayed direction. . In particular, in the case of 3D computer graphics, unlike the effects of image files and arithmetic processing effects such as mosaics, the 3D information of the real world image captured by the 2D code is taken into consideration. When computer graphics are shown by a character, it is possible to obtain an effect as if the character were present in the real world.

【0030】本実施形態の情報処理システムで利用でき
る更に他のエフェクトとしては背景差替えが可能であ
る。このエフェクトでは、人物などが被写体として認識
されている場合に、さらに背景部分が認識され、その背
景部分だけを予め用意した背景画像と差替えるものであ
る。エフェクトデータベース12には、どの画像ファイ
ルを用いて背景画像に差替えるのかが予め指定或いは予
め対応づけられており、2Dコードの読み取りによって
背景画像を選ぶことができる。2Dコードを替えること
によって背景画像も差替えることができ、2Dコードを
カメラに映らないようにすることで、背景画像を差替え
ないようにすることができる。背景画像を差替える際に
は、背景画像を予め用意し、初期化処理として出演者が
いない状態で画像を撮影し、その出演者のいない初期化
画像と現在の画像の差分をとり、差のない部分を背景と
して認識して予め用意した背景画像と差し替えることで
行うことができる。このような背景差替え機能により、
番組配信側は背景画像を用意するだけで、例えば自分の
部屋にいながら、まるでビーチから放送しているような
動画像配信も可能である。
Still another effect that can be used in the information processing system of this embodiment is background replacement. With this effect, when a person or the like is recognized as a subject, the background portion is further recognized, and only the background portion is replaced with a background image prepared in advance. In the effect database 12, which image file is used to replace the background image is designated or associated in advance, and the background image can be selected by reading the 2D code. The background image can be replaced by changing the 2D code, and the background image can be prevented from being replaced by not displaying the 2D code on the camera. When replacing the background image, prepare the background image in advance, take an image in the absence of a performer as initialization processing, take the difference between the initialized image without the performer and the current image, It can be performed by recognizing a non-existing portion as a background and replacing it with a background image prepared in advance. With such a background replacement function,
The program distributor can prepare a background image so that, for example, moving images can be distributed as if they were being broadcast from the beach while in their own room.

【0031】次に2Dコードについて説明をする。2D
コードを使用することで、エフェクトについての効果選
択情報、2次元コード情報と効果表示位置の間の相対位
置に関する相対位置情報、付加すべき効果の表示範囲に
関する効果付加範囲情報などの効果設定情報を読み取っ
た機器に提供することができ、更に四隅の位置などに応
じて2Dコードの向きである座標情報や、大きさによる
遠近などの距離情報も提供できることになる。
Next, the 2D code will be described. 2D
By using the code, effect setting information such as effect selection information about the effect, relative position information about the relative position between the two-dimensional code information and the effect display position, and effect addition range information about the display range of the effect to be added can be obtained. The information can be provided to the read device, and further, the coordinate information that is the direction of the 2D code according to the positions of the four corners, and the distance information such as the distance depending on the size can be provided.

【0032】先ず、2Dコードには、図2に示すよう
に、1ブロックを1単位とし、縦方向が9.5ブロック
分の長さで、横方向が7ブロック分の長さの長方形の範
囲内に、セル部Aとロゴ部Bが1ブロック分離して配置
されている。セル部Aには、縦方向と横方向が共に、7
ブロック分の長さの正方形の範囲内に、方形のセルが2
次元的にパターン化され配置されている。ロゴ部Bに
は、縦方向が1.5ブロック分の長さで、横方向が7ブ
ロック分の長さの大きな長方形のセルが配置され、そこ
に、例えば、オブジェクトの名称、あるいは宣伝のため
のマーク(ロゴ)などが記載される。
First, as shown in FIG. 2, the 2D code has a rectangular range in which one block is one unit and the length is 9.5 blocks long and the horizontal direction is 7 blocks long. Inside, a cell portion A and a logo portion B are arranged one block apart. In the cell part A, both the vertical and horizontal directions are 7
There are 2 square cells within a square of block length.
Dimensionally patterned and arranged. In the logo part B, a large rectangular cell having a length of 1.5 blocks in the vertical direction and a length of 7 blocks in the horizontal direction is arranged, for example, for the name of an object or for advertising. The mark (logo), etc. are written.

【0033】このような2Dコードは、Windows(登録商
標)、Mac、Linuxの如きOS56C上で展開されるアプ
リケーションソフトウエアによって読み取り可能とされ
る。アプリケーションソフトウエアは、ローカルコンピ
ュータ11に内蔵されたハードディスクドライブ(HD
D)56に格納されている。図3に示すように、ハード
ディスクドライブ(HDD)56には、電子メールプログ
ラム56A、オートパイロットプログラム56B、オペ
レーションシステムソフトウェア(OS)56C、2次元バ
ーコードデータベース(以下、2Dコードデータベース
と略記する)56D、ファインダアプリケーションプロ
グラム(以下、FAプログラムと略記する)56E、2次
元バーコードアソシエートアプリケーションプログラム
(以下、2Dコードプログラムと略記する)56F、お
よび管理ツールプログラム56Gが記憶されている。前
述のエフェクトデータベース12は、2Dコードデータ
ベース56Dの一部に構築することができる。
Such a 2D code can be read by application software developed on the OS 56C such as Windows (registered trademark), Mac, and Linux. The application software is a hard disk drive (HD
D) 56. As shown in FIG. 3, the hard disk drive (HDD) 56 has an electronic mail program 56A, an autopilot program 56B, an operation system software (OS) 56C, a two-dimensional barcode database (hereinafter abbreviated as a 2D code database) 56D. A finder application program (hereinafter abbreviated as FA program) 56E, a two-dimensional bar code associate application program (hereinafter abbreviated as 2D code program) 56F, and a management tool program 56G are stored. The effect database 12 described above can be constructed as a part of the 2D code database 56D.

【0034】2Dコードデータベース56Dには、2D
コードの効果選択情報(以下、2DコードIDと称する)
の他、2Dコードに関連して設定される、実行ファイル
(プログラム)(例えば、.exe、.comなどの拡張子を有
するファイル)またはドキュメントファイル(例え
ば、.txt、.html、.jpgなどの拡張子を有するファイ
ル)の名前が記憶されている。この実行ファイルは、2
Dコードが識別されたとき、それに対応して自動的に起
動されるように設定された実行ファイル(以下、2Dコ
ード関連実行ファイルと記述する)である。また、ドキ
ュメントファイルは、2Dコードが識別されたとき、そ
れに対応して自動的に開かれるように設定されたドキュ
メントファイル(以下、2Dコード関連ドキュメントフ
ァイルと記述する)である。なお、以下においては、2
Dコード関連実行ファイルと2Dコード関連ドキュメン
トファイルを特に区別する必要がない場合、両者をまと
めて、単に、2Dコード関連ファイルと記述する。2D
コードデータベース56Dにはまた、2Dコード関連フ
ァイルの内容を説明する情報(以下、2Dコードメモ情
報と記述する)や2Dコード関連ファイルのタイトルな
ど、2Dコードに付随する情報が記憶されている。な
お、この例の場合、2Dコードデータベース56Dは、
DLL(Dynamic Link Library)とされる。
The 2D code database 56D contains 2D
Code effect selection information (hereinafter referred to as 2D code ID)
In addition, an executable file (a program) (for example, a file having an extension such as .exe or .com) or a document file (for example, .txt, .html, .jpg) that is set in association with the 2D code The name of a file having an extension) is stored. This executable is 2
It is an execution file (hereinafter referred to as a 2D code-related execution file) set so as to be automatically activated corresponding to the D code when it is identified. Further, the document file is a document file (hereinafter, referred to as a 2D code related document file) set to be automatically opened corresponding to the 2D code when the 2D code is identified. In the following, 2
When there is no particular need to distinguish between the D-code related execution file and the 2D-code related document file, both are collectively described as a 2D-code related file. 2D
The code database 56D also stores information accompanying the 2D code, such as information describing the contents of the 2D code related file (hereinafter referred to as 2D code memo information) and the title of the 2D code related file. In this example, the 2D code database 56D is
DLL (Dynamic Link Library).

【0035】FAプログラム56Eは、例えば、グラフィ
ックチップのVRAMに記憶されている画像データから2D
コードの部分の画像データを抽出し、抽出した2Dコー
ドに対応する2Dコード関連ファイルを自動的に実行さ
せるプログラムである。FAプログラム56Eはまた、2
Dコードプログラム56Fを開発するためのAPI(Applic
ation Programming Interface)を有している。
The FA program 56E is, for example, 2D from the image data stored in the VRAM of the graphic chip.
It is a program for extracting image data of a code portion and automatically executing a 2D code related file corresponding to the extracted 2D code. FA program 56E also has 2
API for developing the D code program 56F (Applic
application programming interface).

【0036】2Dコードプログラム56Fは、FAプログ
ラム56EのAPIを介して、FAプログラム56Eとデー
タの授受を行うことができる、2Dコード関連実行ファ
イルである。管理ツールプログラム56Gは、FAプログ
ラム56Eおよび2Dコードプログラム56Fが実行さ
れる上において必要なデータを登録するためのプログラ
ムである。管理ツールプログラム56Gまたは、所定の
GUI(Graphical User Interface)を備えている。ハード
ディスクドライブ56内のOS56C、FAプログラム5
6E等は、例えば、電源スイッチが操作されOS56C
が起動(ブートアップ)され、さらにFAプログラム56
Eが起動される処理の過程で、これらのプログラムがRA
M内に順次転送され、記憶される。
The 2D code program 56F is a 2D code related execution file capable of exchanging data with the FA program 56E via the API of the FA program 56E. The management tool program 56G is a program for registering data necessary for executing the FA program 56E and the 2D code program 56F. Management tool program 56G or specified
It has a GUI (Graphical User Interface). OS 56C in the hard disk drive 56, FA program 5
6E and the like, for example, the power switch is operated, OS56C
Is started (booted up), and the FA program 56
In the process of starting E, these programs are RA
Sequentially transferred and stored in M.

【0037】次に、FAプログラム56Eによる2Dコー
ド認識処理について、図4のフローチャートを参照して
説明する。この2Dコード認識処理は、ユーザによる所
定のプログラム起動操作に対応して、ハードディスクド
ライブ56に記憶されているFAプログラム56EがRAM
に転送されて記憶され、CPUにより実行されることによ
り開始される。
Next, the 2D code recognition processing by the FA program 56E will be described with reference to the flowchart of FIG. In this 2D code recognition processing, the FA program 56E stored in the hard disk drive 56 is stored in the RAM in response to a predetermined program starting operation by the user.
It is transferred to, stored in, and executed by the CPU.

【0038】ユーザがプログラム起動操作を実行した
後、オブジェクトの2Dコードが貼付されている面をCC
Dビデオカメラに向けると、その画像がCCDビデオカメラ
により撮像されて処理部で所定の処理が施される。ステ
ップS1において、FAプログラム56Eは、処理部で処
理されて、グラフィックチップのVRAMに描画された画像
データの画像に、通常モードの画像(2Dコードの位置
を示す照準の画像)を重畳した画像をファインダウィン
ドウ(図6、ただし同図はハイパサーチモードを示して
いる)として、LCD又はCRTなどの表示部に表示さ
せる。
After the user executes the program start operation, CC the surface to which the 2D code of the object is attached.
When directed to the D video camera, the image is picked up by the CCD video camera and subjected to a predetermined process in the processing unit. In step S1, the FA program 56E processes an image in which the image in the normal mode (the image of the aiming indicating the position of the 2D code) is superimposed on the image of the image data which is processed by the processing unit and drawn in the VRAM of the graphic chip. It is displayed on a display unit such as an LCD or a CRT as a finder window (FIG. 6, but this figure shows the hyper search mode).

【0039】ステップS2において、FAプログラム56
Eは、ユーザにより所定のプログラム終了操作が実行さ
れたか否かを判定し、終了操作が実行されていないと判
定した場合、ステップS3に進む。ステップS3におい
て、FAプログラム56Eは、ファインダウィンドウ(3
20×240画素)全体(図5(A))の画像データをキ
ャプチャする(画像データをVRAMからRAMに転送す
る)。
In step S2, the FA program 56
E determines whether or not a predetermined program end operation has been performed by the user, and when determining that the end operation has not been performed, the process proceeds to step S3. In step S3, the FA program 56E causes the finder window (3
20 × 240 pixels) The entire image data (FIG. 5A) is captured (the image data is transferred from VRAM to RAM).

【0040】ステップS4において、FAプログラム56
Eは、撮像ボタンなどのカメラ作動ボタンが押下されて
いるか否か(ハイパサーチモードに設定されたか否か)
を判定し、撮像ボタンが押下されていると判定した場
合、ステップS5に進む。ステップS5において、FAプ
ログラム56Eは、ファインダウィンドウにハイパサー
チモードに設定された旨を示す画像を表示する。すなわ
ち、FAプログラム56Eは、図6に示すように、ファイ
ンダウィンドウの中央部分に、画像を拡大して2Dコー
ドを探知する範囲を示す矩形の枠(80×60画素、図
5(B))と、右下部分に「Hyper Search」の文字を表示
する。このような矩形の枠を表示することにより、ユー
ザが2Dコードを適切な位置に調整することを容易とす
る。なお、ハイパサーチモードとせずに常時2Dコード
を探すように設定しても良い。
In step S4, the FA program 56
E is whether or not a camera operation button such as an image pickup button is pressed (whether or not the hyper search mode is set)
If it is determined that the imaging button is pressed, the process proceeds to step S5. In step S5, the FA program 56E displays an image indicating that the hyper search mode has been set in the finder window. That is, as shown in FIG. 6, the FA program 56E creates a rectangular frame (80 × 60 pixels, FIG. 5B) in the central portion of the finder window that indicates the range in which the image is enlarged to detect the 2D code. , "Hyper Search" is displayed in the lower right part. By displaying such a rectangular frame, the user can easily adjust the 2D code to an appropriate position. It should be noted that the 2D code may be set to be constantly searched for instead of the hyper search mode.

【0041】ステップS6において、FAプログラム56
Eは、ファインダウィンドウの中央部分(80×60画
素)の画像データを、縦横それぞれ4倍に拡大した画像
(320×240画素、図5(C))を生成する。ステッ
プS7において、FAプログラム56Eは、320×24
0画素の画像(ステップS3でキャプチャした画像、ま
たはステップS6で拡大した画像)の中から2Dコード
を探知する。
In step S6, the FA program 56
E generates an image (320 × 240 pixels, FIG. 5C) in which the image data of the central portion (80 × 60 pixels) of the finder window is magnified 4 times vertically and horizontally. In step S7, the FA program 56E is 320 × 24.
The 2D code is detected from the image of 0 pixels (the image captured in step S3 or the image enlarged in step S6).

【0042】ステップS8において、FAプログラム56
Eは、ステップS7で2Dコードを探知できたか否かを
判定し、探知できていないと判定した場合、その旨を表
示して、ユーザに2Dコードが貼付されたオブジェクト
のCCDビデオカメラに対する距離や角度を調整するよう
に促す。そして、ステップS1に戻り、それ以降の処理
を繰り返す。その後、2Dコードを探知できたと判定さ
れた場合、ステップS9に進む。
In step S8, the FA program 56
E determines whether or not the 2D code was detected in step S7, and when it is determined that the 2D code is not detected, E displays the message to the user and displays the distance to the CCD video camera of the object to which the 2D code is attached to the user. Encourage you to adjust the angle. Then, the process returns to step S1 and the subsequent processes are repeated. Thereafter, when it is determined that the 2D code can be detected, the process proceeds to step S9.

【0043】ステップS9において、FAプログラム56
Eは、2Dコードのパターンを識別し、パターンが示す
ID(2DコードID)と、ファインダウィンドウにおける
2Dコードの4つの頂点Pi(i=0,1,2,3)の
位置を示す2次元座標(Pix,Piy)とCCDビデオカメ
ラの焦点距離(以下、適宜、focalとも記述する)を取
得する。ただし、2Dコードの左上の頂点をP0とし、
右上の頂点をP1とし、左下の頂点をP2とし、右下の頂
点をP3とする。
In step S9, the FA program 56
E identifies the pattern of the 2D code and the pattern indicates
ID (2D code ID), two-dimensional coordinates (P ix , P iy ) indicating the positions of four vertices P i (i = 0, 1, 2, 3) of the 2D code in the finder window and the focus of the CCD video camera Gets the distance (hereinafter, also referred to as "focal" as appropriate). However, the upper left vertex of the 2D code is P0,
Let the upper right vertex be P1, the lower left vertex be P2, and the lower right vertex be P3.

【0044】ステップS10において、FAプログラム5
6Eは、取得した2DコードIDが、既に登録済みである
か否か(ハードディスクドライブ56に格納されている
2Dコードデータベース56Dに、ステップS9で取得
した2DコードIDがあるか否か)を判定し、既に登録済
みであると判定した場合、ステップS11に進む。ステ
ップS11において、FAプログラム56Eは、登録され
ている処理を実行する。例えば、FAプログラム56E
は、2DコードIDに対応する2Dコードプログラム56
Fとしての3次元オブジェクト表示アプリケーションプ
ログラム(以下、3Dアプリケーションと略記する)を
起動する。
In step S10, the FA program 5
6E determines whether or not the acquired 2D code ID has already been registered (whether or not the 2D code database 56D stored in the hard disk drive 56 has the 2D code ID acquired in step S9). If it is determined that it has already been registered, the process proceeds to step S11. In step S11, the FA program 56E executes the registered process. For example, FA program 56E
Is the 2D code program 56 corresponding to the 2D code ID
A three-dimensional object display application program as F (hereinafter abbreviated as 3D application) is started.

【0045】なお、3Dアプリケーションは、ファイン
ダウィンドウ上に3次元オブジェクトを表示させるアプ
リケーションプログラムであり、引数として供給される
2DコードIDに対応付けて、表示する3次元オブジェク
トデータ(Microsoft Direct3Dで使用される標準的なフ
ァイルフォーマットであるXファイルとして記述された
もの)、再生するサウンドデータ(WAVEファイル)、フ
ァインダウィンドウ上に3次元オブジェクトを表示させ
るXYZ座標(ファインダウィンドウ上の2Dコードの所
定の部分を原点とした座標系)、アニメーションの速度
等の情報を管理している。
The 3D application is an application program for displaying a three-dimensional object on the finder window, and is associated with the 2D code ID supplied as an argument to display the three-dimensional object data (used in Microsoft Direct3D). X file which is a standard file format), sound data to be played (WAVE file), XYZ coordinates for displaying a 3D object in the viewfinder window (the origin of the specified part of the 2D code in the viewfinder window) It manages information such as the coordinate system) and the speed of animation.

【0046】3Dアプリケーションの処理について、図
7のフローチャートを参照して説明する。ステップS2
1において、3Dアプリケーションは、FAプログラム5
6Eから供給される引数としての2DコードIDを受領す
る。ステップS22において、3Dアプリケーション
は、ファインダウィンドウ上に3Dオブジェクト表示用
ウィンドウを生成する。ステップS23において、3D
アプリケーションは、ステップS21で供給された2D
コードIDに対応する3次元オブジェクトデータ等を読み
出す。ステップS24において、3Dアプリケーション
は、FAプログラム56Eから供給されるファインダウィ
ンドウ上の2Dコードの2次元座標(Pix,Piy)とCC
Dビデオカメラの焦点距離(focal)を受領する。
The processing of the 3D application will be described with reference to the flowchart of FIG. Step S2
In 1, the 3D application is FA program 5
Receive 2D code ID as an argument supplied from 6E. In step S22, the 3D application generates a 3D object display window on the finder window. In step S23, 3D
The application is the 2D supplied in step S21.
Read the 3D object data etc. corresponding to the code ID. In step S24, the 3D application determines the two-dimensional coordinates (P ix , P iy ) of the 2D code on the finder window supplied from the FA program 56E and CC.
D Receives the focal length of the video camera.

【0047】ステップS25において、3Dアプリケー
ションは、ステップS24で受領した、ファインダウィ
ンドウ上の2Dコードの2次元座標を用いて、3Dオブ
ジェクトを表示させるファインダウィンドウ上の座標を
算出する。具体的には、実3次元座標系における2Dコ
ードの4つの頂点の座標をωiとし、実3次元空間の−
Z軸の方向を向くCCDビデオカメラのレンズ面を原点と
するカメラ座標系における2Dコードの4つの頂点の座
標をCiとし、ファインダウィンドウ上における(以
下、ファインダウィンドウ座標系と記述する)2Dコー
ドの4つの頂点の座標をPi(i=0,1,2,3)と
した場合、実3次元座標系の座標ωiとカメラ座標系に
おける座標Ciは次式(1)のように関係付けられる。 Ci=R*ωi+T ・・・(1) ここで、Rは実3次元座標系に対するカメラ座標系の回
転を表す回転行列であり、TはCCDビデオカメラの移動
ベクトル(実3次元座標系の原点とカメラ座標系の原点
の距離)である。まず、この回転行列Rと移動ベクトル
Tを演算する。
In step S25, the 3D application calculates the coordinates on the finder window for displaying the 3D object using the two-dimensional coordinates of the 2D code on the finder window received in step S24. Specifically, the coordinates of the four vertices of the 2D code in the real three-dimensional coordinate system are ω i, and
The coordinates of the four vertices of the 2D code in the camera coordinate system with the lens surface of the CCD video camera facing the Z axis as the origin are C i, and the 2D code on the finder window (hereinafter referred to as the finder window coordinate system) If the coordinates of the four vertices of P are set to P i (i = 0, 1, 2, 3), the coordinates ω i in the real three-dimensional coordinate system and the coordinates C i in the camera coordinate system are expressed by the following equation (1). Be related. C i = R * ω i + T (1) Here, R is a rotation matrix representing the rotation of the camera coordinate system with respect to the real three-dimensional coordinate system, and T is the movement vector (real three-dimensional coordinate) of the CCD video camera. The distance between the origin of the system and the origin of the camera coordinate system). First, the rotation matrix R and the movement vector T are calculated.

【0048】ファインダウィンドウ座標系の座標Piと
カメラ座標系における座標Ciは次式(2)に示す関係
である。
The coordinates Pi in the finder window coordinate system and the coordinates Ci in the camera coordinate system have the relationship shown in the following equation (2).

【0049】ここで、ベクトルω30,ω20,ω10を実3
次元座標系の座標ωzを用い、次式(3)に示すように
定義する。
Here, the vectors ω 30 , ω 20 , and ω 10 are real 3
Using the coordinate ω z of the dimensional coordinate system, it is defined as shown in the following expression (3).

【0050】なお、座標ω0,ω1,ω2,ω3は同一平面
上に存在するので、 ω30=sω10+tω20 ・・・(4) となるsおよびtが存在する。ただし、いまの場合、座
標ω0,ω1,ω2,ω3は矩形の4頂点の座標であるので
s=t=1である。
Since the coordinates ω 0 , ω 1 , ω 2 , ω 3 exist on the same plane, there are s and t such that ω 30 = sω 10 + tω 20 (4). However, in this case, since the coordinates ω 0 , ω 1 , ω 2 , and ω 3 are the coordinates of the four vertices of the rectangle, s = t = 1.

【0051】また、ベクトルω30,ω20,ω10は、カメ
ラ座標系の座標Ci、およびベクトルC30,C20,C10
を用いて表すことができる。
The vectors ω 30 , ω 20 , and ω 10 are the coordinates Ci of the camera coordinate system and the vectors C 30 , C 20 , and C 10.
Can be represented by.

【0052】ところで、カメラ座標系における座標Ci
は、次式(6)に示すように、ファインダウィンドウ座
標系の座標Piのki(スカラ量)倍として表すことがで
きる。 Ci=ki*Pi (i=0,1,2,3) ・・・(6)
By the way, the coordinates C i in the camera coordinate system
Can be expressed as k i (scalar amount) times the coordinates P i in the finder window coordinate system, as shown in the following equation (6). C i = k i * P i (i = 0, 1, 2, 3) (6)

【0053】ここで、式(4)に式(5)を代入して次
式(7)を得る。 C3−C0=s(C1−C0)+t(C2−C0) ・・・(7)
Here, by substituting the equation (5) into the equation (4), the following equation (7) is obtained. C 3 -C 0 = s (C 1 -C 0) + t (C 2 -C 0) ··· (7)

【0054】式(7)に式(6)を代入して次式(8)
を得る。 k3*P3−k0*P0=s(k1*P1−k0*P0)+t(k2*P2−k0*P0)・・・ (8)
Substituting equation (6) into equation (7), the following equation (8)
To get k 3 * P 3 -k 0 * P 0 = s (k 1 * P 1 -k 0 * P 0) + t (k 2 * P 2 -k 0 * P 0) ··· (8)

【0055】式(8)をP3について解けば、 P0
0(1−s−t)/k3+P1s*k1/k 3+P2t*k2
3=P3 ・・・(9)となる。
Solving equation (8) for P3, P0k
0(1-s-t) / k3+ P1s * k1/ K 3+ P2t * k2/
k3= P3 ... (9).

【0056】式(9)を行列式で表記すると次式(1
0)となる。
When the equation (9) is expressed in a determinant, the following equation (1
0).

【0057】[0057]

【数1】 ここで、式(10)の左辺の(P0 12)をVとお
き、その逆行列V−1を式(10)の両辺に左側から乗
算すれば、次式(11)を得る。
[Equation 1] Here, if (P 0 P 1 P 2 ) on the left side of the equation (10) is set to V and its inverse matrix V −1 is multiplied on both sides of the equation (10) from the left side, the following equation (11) is obtained. .

【0058】[0058]

【数2】 さらに、式(11)の右辺のV−1*P3を(a01
2)とおけば、次式(12)を得る。
[Equation 2] Further, V -1 * P 3 on the right side of the equation (11) is (a 0 a 1 a
2 ), the following equation (12) is obtained.

【0059】ところで、|ω30|は、2Dコードの対角
線の長さであり、 |ω30|=|k3*P3−k0*P0| ・・・(13)
By the way, | ω 30 | is the length of the diagonal line of the 2D code, and | ω 30 | = | k 3 * P 3 −k 0 * P 0 |

【0060】であるので、式(13)の右辺のk0に式
(12)を適用すれば、 |ω30|=|k3*P3−a0*k3*P0/(1−s−t)|=k3|P3−a0*P0 /(1−s−t)| ・・・(14) を得る。
Therefore, if equation (12) is applied to k 0 on the right side of equation (13), then | ω 30 | = | k 3 * P 3 −a 0 * k 3 * P 0 / (1- s-t) | = k 3 | P 3 -a 0 * P 0 / (1-s-t) | get a ... (14).

【0061】式(14)の|ω30|および|P3−a0*
P0/(1−s−t)|の値は既知であるので、スカラ
量k3を求めることができる。さらに、得られたスカラ
量k3を式(12)に代入して、スカラ量k0,k1,k2
を得る。得られたスカラ量ki(i=0,1,2,3)
を式(6)に代入してカメラ座標系の座標Ci(i=
0,1,2,3)を得る。ここで、回転行列Rは、ベク
トルω30,ω10を、それぞれ、ベクトルC30,C10に変
換する行列として演算できる。また、移動ベクトルT
は、式(1)より、T=Σ(Ci−R*ωi)/4とし
て演算できる。
│ω30│ and │P3−a0 * in equation (14)
Since the value of P0 / (1-s-t) | is known, the scalar amount k3 can be obtained. Further, by substituting the obtained scalar quantity k3 into equation (12), the scalar quantities k0, k1, k2
To get The obtained scalar quantity ki (i = 0,1,2,3)
By substituting into equation (6), the coordinates Ci (i =
0, 1, 2, 3) is obtained. Here, the rotation matrix R can be calculated as a matrix for converting the vectors ω 30 and ω 10 into the vectors C 30 and C 10 , respectively. Also, the movement vector T
Can be calculated as T = Σ (Ci−R * ωi) / 4 from the equation (1).

【0062】以上のようにして求めた回転行列Rおよび
移動ベクトルTを用い、実3次元座標系における座標ω
iをカメラ座標系の3次元座標に変換し、さらに、ファ
インダウィンドウ座標系における座標Piを算出して、
図7のステップS26に進む。ステップS26におい
て、3Dアプリケーションは、図8に示すように、ステ
ップS25で算出したファインダウィンドウ座標系の座
標に、対応する3Dオブジェクトを表示する。このよう
な3Dアプリケーション処理により、あたかも3Dオブ
ジェクトがファインダウィンドウに表示されたカメラ映
像の中に存在するかのような合成画像を表示できる。
Using the rotation matrix R and the movement vector T thus obtained, the coordinates ω in the real three-dimensional coordinate system
i is converted to the three-dimensional coordinates of the camera coordinate system, and the coordinates Pi in the finder window coordinate system are calculated,
It progresses to step S26 of FIG. In step S26, the 3D application displays the corresponding 3D object at the coordinates of the finder window coordinate system calculated in step S25, as shown in FIG. With such a 3D application process, it is possible to display a composite image as if a 3D object were present in the camera image displayed in the viewfinder window.

【0063】また、表示させる3Dオブジェクトは、Mi
crisoft Direct3Dで使用される標準のファイルフォーマ
ット(Xファイル)であるので、ユーザが任意のソフト
ウェアを用いて作成することが可能である。また、3D
のアニメーションもサポートされている。さらに、同時
に、サウンドファイル(WAVEファイル)を指定して再生
することができるので、ファインダウィンドウ内の3D
オブジェクトが話をしているかのような表現を実現する
ことが可能となる。
The 3D object to be displayed is Mi
Since it is a standard file format (X file) used in crisoft Direct3D, the user can create it using arbitrary software. Also, 3D
Animations are also supported. Furthermore, at the same time, a sound file (WAVE file) can be specified and played back, so 3D in the finder window
It is possible to realize an expression as if the object were talking.

【0064】図4の説明に戻る。ステップS10におい
て、取得した2DコードIDが、既に登録済みではないと
判定された場合、ステップS12に進み、FAプログラム
56Eは、その2DコードIDに所定の処理を対応付ける
設定の入力を受け付ける処理を実行して、ステップS1
に戻る。
Returning to the explanation of FIG. When it is determined in step S10 that the acquired 2D code ID is not already registered, the process proceeds to step S12, and the FA program 56E executes a process of accepting an input of setting to associate a predetermined process with the 2D code ID. Then, step S1
Return to.

【0065】なお、ステップS2において、FAプログラ
ム56Eは、ユーザにより終了操作が実行されたと判定
した場合、2Dコード認識処理を終了する。
In step S2, the FA program 56E ends the 2D code recognition process when it is determined that the user has performed the end operation.

【0066】また、ステップS4において、FAプログラ
ム56Eは、撮像ボタンが押下されていないと判定した
場合、ステップS5,S6をスキップする。この場合、
ステップS7においては、ステップS3でキャプチャさ
れた画像から2Dコードが探知される。
When the FA program 56E determines in step S4 that the image pickup button is not pressed, it skips steps S5 and S6. in this case,
In step S7, the 2D code is detected from the image captured in step S3.

【0067】なお、以上の説明では、ステップS4にお
ける撮像ボタンの押下が半押しであるか、または全押し
であるかについては言及していないが、例えば、撮像ボ
タン若しくはシャッタボタンが半押し状態とされたとき
にハイパサーチモードとし、全押しされたときに2Dコ
ードを探知するようにしてもよい。
In the above description, it is not mentioned whether the image pickup button in step S4 is pressed halfway or fully, but, for example, the image pickup button or the shutter button is pressed halfway. The hyper search mode may be set when the button is pressed, and the 2D code may be detected when the button is fully pressed.

【0068】以上のように、キャプチャした画像の中央
部分を拡大して2Dコードを探知することで、2Dコー
ドを認識可能なCCDビデオカメラとの距離を、画像を拡
大しない場合の約10cmから、2倍の約20cmに向上さ
せることが可能となる。
As described above, by enlarging the central portion of the captured image and detecting the 2D code, the distance from the CCD video camera that can recognize the 2D code is about 10 cm when the image is not enlarged. It can be doubled to about 20 cm.

【0069】なお、本実施形態では、キャプチャした画
像を拡大する処理はCPUに大きな負担をかけるので、撮
像ボタンが押下されたときだけ拡大処理を実行するよう
にしている。これにより、必要なとき(通常モードでは
2Dコードを認識できないとき)だけ認識率を向上させ
ることが可能である。
In this embodiment, since the process of enlarging the captured image puts a heavy load on the CPU, the enlarging process is executed only when the image pickup button is pressed. As a result, the recognition rate can be improved only when necessary (when the 2D code cannot be recognized in the normal mode).

【0070】上述の如き2Dコードのコード認識と座標
認識のプログラムによって、本実施形態の情報処理シス
テムは、2次元のみならず3次元にも対応した効果の付
加が可能となる。なお、これら認識プログラムは、一例
に過ぎず他の計算方法や手順によってもコード認識と座
標認識が可能である。
The information processing system of the present embodiment can add the effect corresponding to not only two dimensions but also three dimensions by the program of the code recognition and the coordinate recognition of the 2D code as described above. It should be noted that these recognition programs are merely examples, and code recognition and coordinate recognition are possible by other calculation methods and procedures.

【0071】次に、図9から図16までを参照してライ
ブ配信の作業について説明する。先ず、本実施形態にお
いては、ライブ配信前における準備段階と、ライブ配信
時における自動的な効果付加動作が実現される。
Next, the work of live distribution will be described with reference to FIGS. 9 to 16. First, in the present embodiment, a preparation stage before live distribution and an automatic effect addition operation during live distribution are realized.

【0072】先ず、ライブ配信前における準備段階にお
いては、図9に示す2Dコード15に対応して各種効果
設定情報がエフェクトデータベース12に入力される。
この各種効果設定情報としては、エフェクトについての
効果選択情報(ID)、2次元コード情報と効果表示位
置の間の相対位置に関する相対位置情報(位置)、付加
すべき効果の表示範囲に関する効果付加範囲情報(範
囲)などが入力されるものであり、エフェクトデータベ
ース12は効果選択情報(ID)に対応した内容(コン
テンツ)、位置、範囲をテーブル12Tの形式で保存す
ることになる。エフェクトデータベース12は書き換え
可能であり、効果付加範囲を変えたい場合においては、
その範囲の変更情報を入力する。
First, in the preparatory stage before live distribution, various effect setting information corresponding to the 2D code 15 shown in FIG. 9 is input to the effect database 12.
The various effect setting information includes effect selection information (ID) about the effect, relative position information (position) about the relative position between the two-dimensional code information and the effect display position, and an effect addition range regarding the display range of the effect to be added. Information (range) and the like are input, and the effect database 12 stores the content (content), position, and range corresponding to the effect selection information (ID) in the format of the table 12T. The effect database 12 is rewritable, and when changing the effect addition range,
Enter the change information for that range.

【0073】図10はライブ配信前の準備段階における
流れ図である。ローカルコンピュータ11を操作して、
初めにアプリケーションソフトウエアを起動させる。こ
の段階で、ローカルコンピュータ11のLCD表示部に
は、2Dコードの数値入力画面となりキーボードやテン
キーの操作或いは直接2Dコードをカメラ前にかざして
効果選択情報(2DコードID)を入力する(手順S3
1)。
FIG. 10 is a flow chart in the preparation stage before live distribution. Operate the local computer 11,
First, start the application software. At this stage, on the LCD display section of the local computer 11, a numerical value input screen of the 2D code is displayed, and the effect selection information (2D code ID) is input by operating the keyboard or the numeric keypad or directly holding the 2D code in front of the camera (step S3).
1).

【0074】この2DコードIDを入力したところで、
入力にかかる2DコードIDについてエフェクトが設定
されていないかどうかが判断され(手順S32)、既に
エフェクトが設定されている場合(NO)には、上書き
ができるか否かが判断される(手順S33)。もし上書
きができない場合には手順S31に戻り再度2Dコード
IDの入力となる。
When this 2D code ID is entered,
It is determined whether or not an effect is set for the input 2D code ID (step S32), and if the effect is already set (NO), it is determined whether or not overwriting is possible (step S33). ). If overwriting is not possible, the process returns to step S31 and the 2D code ID is input again.

【0075】手順S32でエフェクトが設定されていな
い場合(YES)及び上書きが可能な場合、手順34に
進み、エフェクトの種類を設定する。このエフェクトの
種類の設定は、例えばモザイク、2次元画像(ビットマ
ップ画像)、3次元コンピュータグラフィックス(3D
CG),背景差替えなどを選ぶことで行われる。
If the effect is not set in step S32 (YES) and if overwriting is possible, the process proceeds to step 34 and the effect type is set. This effect type can be set, for example, in mosaic, two-dimensional image (bitmap image), three-dimensional computer graphics (3D
CG), background replacement, etc. are selected.

【0076】エフェクトの種類を設定した後、手順S3
5では対応するデータファイルのリンク付けや設定を行
う。エフェクトがモザイクの場合には、所要の演算処理
をするだけであるため、データファイルに対するリンク
付けは不要である。エフェクトがビットマップ画像の場
合には対応するビットマップ画像ファイルが設定され、
エフェクトが3次元コンピュータグラフィックス(3D
CG)の場合には対応する3次元コンピュータグラフィ
ックスが選ばれ、エフェクトが背景差替えの場合には、
選択される背景画像ファイルが選択される。
After setting the type of effect, step S3
In step 5, the corresponding data files are linked and set. When the effect is a mosaic, it is not necessary to link to the data file because only the required arithmetic processing is performed. If the effect is a bitmap image, the corresponding bitmap image file is set,
Effects are three-dimensional computer graphics (3D
In the case of CG), the corresponding three-dimensional computer graphics is selected, and when the effect is background replacement,
The selected background image file is selected.

【0077】次に、手順S36ではエフェクトをかける
位置を設定する。この位置とは2次元コード情報と効果
表示位置の間の相対位置に関する相対位置情報を意味
し、2Dコードを読み取った場合の原点からの距離と方
向を3次元座標(或いは2次元座標)で与えるものであ
る。この設定によって、例えば出演者がTシャツを着て
現れ、そのTシャツに2Dコードがプリントされている
場合に、Tシャツと顔の概略的な相対位置から丁度顔を
分からなくするようにモザイクをかけることができるよ
うになる。
Next, in step S36, the position where the effect is applied is set. This position means relative position information regarding the relative position between the two-dimensional code information and the effect display position, and gives the distance and direction from the origin when the 2D code is read in three-dimensional coordinates (or two-dimensional coordinates). It is a thing. With this setting, for example, when a performer appears in a T-shirt and a 2D code is printed on the T-shirt, a mosaic is created so that the face is not exactly visible from the relative position between the T-shirt and the face. You will be able to call.

【0078】この相対位置情報の入力の後、手順S37
に示すように、エフェクトを付加する範囲が設定され
る。このエフェクトを付加する範囲の設定は、効果設定
情報のうちの効果付加範囲情報の入力に該当し、例えば
モザイクを付加する場合では、縦方向に±50ピクセル
で横方向に±100ピクセルにモザイクをかけると言う
ように縦方向と横方向のピクセル数を指定する。設定方
法としては、上述のようにピクセル数を指定することも
可能であるが、画面上の一部をプレヴュー画面上でトリ
ミングしたり、撮像した映像の色で分けたりすることも
可能である。また、画面上の面積の範囲ではなく、時間
的な範囲を予め設定しても良い。
After inputting this relative position information, step S37.
As shown in, the range to which the effect is added is set. The setting of the range to which this effect is added corresponds to the input of the effect addition range information of the effect setting information. For example, when adding a mosaic, the mosaic is set to ± 50 pixels in the vertical direction and ± 100 pixels in the horizontal direction. Specify the number of pixels in the vertical and horizontal directions as if to multiply. As a setting method, it is possible to specify the number of pixels as described above, but it is also possible to trim a part of the screen on the preview screen or to divide by the color of the captured video. Further, instead of the area range on the screen, a temporal range may be set in advance.

【0079】このような設定情報を配信前に設定するこ
とで、ライブ配信時には2Dコードをカメラにかざすこ
とで、そのかざした2Dコードに対応したリアルタイム
エフェクトをかけることができる。また、設定情報はデ
ータベースを構成するため、複数のコンピュータで共有
にすることもでき、各種メディアに格納することも可能
であり、送受信の対象や添付ファイルとすることも可能
である。
By setting such setting information before distribution, by holding the 2D code over the camera during live distribution, it is possible to apply a real-time effect corresponding to the held 2D code. Further, since the setting information constitutes a database, it can be shared by a plurality of computers, can be stored in various media, and can be a transmission / reception target or an attached file.

【0080】次に、図9と図11を参照しながらライブ
配信時の動作について説明する。図9に示すように、ラ
イブ配信を進める場合には、ローカルコンピュータ11
をインターネットを介してストリーミングサーバ13に
接続させる。このストリーミングサーバ13への接続が
なされたところでローカルコンピュータ11に付属若し
くは接続されたカメラを作動させ、カメラ画像18Aを
取り込む。このカメラ画像18Aにおいては、特にエフ
ェクトを付加しようとする場合に、出演者若しくは撮影
者が画面内に2Dコード15が映るようにする。
Next, the operation during live distribution will be described with reference to FIGS. 9 and 11. As shown in FIG. 9, when proceeding with live distribution, the local computer 11
Is connected to the streaming server 13 via the Internet. When the connection to the streaming server 13 is made, the camera attached or connected to the local computer 11 is operated to capture the camera image 18A. In this camera image 18A, the 2D code 15 is displayed on the screen by the performer or photographer when an effect is to be added.

【0081】このようにカメラ画像18Aの範囲に2Dコ
ード15が映った場合、前述の如き起動しているファイ
ンダアプリケーションプログラムによって、2次元コー
ド情報の抽出が行われる。この画像18Bにおける2次
元コード情報の抽出の際には、2Dコード15の四隅の
パターンから2Dコード15の位置や座標(向き若しく
は姿勢)、大きさなどが認識される。このパターン認識
作業は抽出手段による作業としてCPUによる動作によ
って進められるものであり、前述の準備段階で設定され
たエフェクトデータベース12のデータテーブル12T
に従った処理が行われる。配信画面18Cは画像加工手
段によって加工された画面を示しており、図9に示す例
では、「3Dモモ」と称されるペット型アニメーション
キャラクターが選択されて所定の位置に表示された場合
を図示している。この配信画面18Cにかかる画像情報
がストリーミング形式でストリーミングサーバ13に送
信され、このストリーミングサーバ13から単数若しく
は複数の視聴者に対してのライブ配信が行われる。
When the 2D code 15 is reflected in the range of the camera image 18A in this way, the two-dimensional code information is extracted by the finder application program that has been activated as described above. When the two-dimensional code information is extracted from the image 18B, the position, coordinates (direction or posture), size, etc. of the 2D code 15 are recognized from the patterns at the four corners of the 2D code 15. This pattern recognition work is carried out by the operation of the CPU as the work of the extraction means, and the data table 12T of the effect database 12 set in the above-mentioned preparation stage.
The processing according to is performed. The distribution screen 18C shows a screen processed by the image processing means. In the example shown in FIG. 9, a case where a pet type animated character called “3D peach” is selected and displayed at a predetermined position is shown. Shows. The image information on the distribution screen 18C is transmitted to the streaming server 13 in a streaming format, and the streaming server 13 performs live distribution to a single viewer or a plurality of viewers.

【0082】図11はライブ配信時のローカルコンピュ
ータ11におけるエフェクト付加作業の流れ図であり、
画像データの各フレームにおける処理を示すものであ
る。先ず、ソフトウエアを起動したところで、カメラに
写されている2Dコードを探索する(手順S41)。こ
の探索の結果、2Dコードを認識することができたか否
かが判断され(手順S42)、もし2Dコードを認識す
ることがなかった場合には手順41に戻って次のフレー
ムに対して同様の動作を行う。
FIG. 11 is a flow chart of effect addition work in the local computer 11 during live distribution.
It shows processing in each frame of image data. First, when the software is started, the 2D code imaged on the camera is searched (step S41). As a result of this search, it is determined whether or not the 2D code can be recognized (step S42). If the 2D code is not recognized, the procedure returns to step 41 and the same is performed for the next frame. Take action.

【0083】手順S42で2Dコードを認識することが
できた場合、手順S43に進み、認識した2Dコードに
対応するエフェクト情報をローカルコンピュータ11内
のエフェクトデータベース12から検索する。すなわ
ち、2Dコードを認識することで、効果選択情報である
2DコードIDが読み出され、ここでエフェクト情報が
存在するか否かが手順S44で判断される。エフェクト
情報が読み取った2Dコードに対しては存在しないと
き、換言すれば定義付けされていないエフェクトのID
が認識された場合では、手順41に戻って次のフレーム
に対して同様の動作を行う。
When the 2D code can be recognized in step S42, the process proceeds to step S43, and the effect information corresponding to the recognized 2D code is retrieved from the effect database 12 in the local computer 11. That is, by recognizing the 2D code, the 2D code ID, which is the effect selection information, is read, and it is determined in step S44 whether or not the effect information exists. When the effect information does not exist for the read 2D code, in other words, the ID of the undefined effect
If is recognized, the procedure returns to step 41 and the same operation is performed for the next frame.

【0084】手順S44でエフェクト情報が存在する場
合(YES)、その2DコードIDについてエフェクト
の種類、位置、範囲が設定どおりに読み出され、手順S
45ではエフェクトの種類に応じたデータファイルの読
み出しが行われる。エフェクトがビットマップ画像の場
合には対応するビットマップ画像ファイルが読み込ま
れ、エフェクトが3次元コンピュータグラフィックス
(3DCG)の場合には対応する3次元コンピュータグ
ラフィックスが読み込まれ、エフェクトが背景差替えの
場合には、選択される背景画像ファイルが読み込まれ
る。エフェクトの種類がモザイクなどの演算処理の場合
は、読み込むデータファイルは画面の一部若しくは全体
とされるが、ここでデータを読み込まずに手順S49ま
でスキップすることも可能である。
If the effect information exists in step S44 (YES), the type, position, and range of the effect for the 2D code ID are read as set, and the procedure S
At 45, a data file corresponding to the effect type is read. When the effect is a bitmap image, the corresponding bitmap image file is loaded, when the effect is 3D computer graphics (3DCG), the corresponding 3D computer graphics is loaded, and when the effect is background replacement A background image file to be selected is read in. When the effect type is a calculation process such as mosaic, the data file to be read is part or the whole of the screen, but it is also possible to skip to step S49 without reading the data here.

【0085】データファイルの読み出し動作によって手
順S46では、対応したデータファイルが存在している
か否かが判断される。もしデータファイルが存在してい
ない場合(NO)には、手順41に戻って次のフレームに
対して再度動作を行う。逆にデータファイルが存在して
いる場合(YES)には、認識した2Dコードの位置
(2D座標)を取得する(手順S47)。ここで認識さ
れた2Dコードの位置は、図7のフローにおける手順S
24の動作と同様に、FAプログラム56Eから供給され
るファインダウィンドウ上の2Dコードの2次元座標
(Pix,Piy)である。
According to the read operation of the data file, it is determined in step S46 whether or not the corresponding data file exists. If the data file does not exist (NO), the procedure returns to step 41 and the operation is performed again for the next frame. On the contrary, if the data file exists (YES), the position (2D coordinate) of the recognized 2D code is acquired (step S47). The position of the 2D code recognized here is the procedure S in the flow of FIG.
Similar to the operation of 24, it is the two-dimensional coordinates (P ix , P iy ) of the 2D code on the finder window supplied from the FA program 56E.

【0086】次に、3次元表示効果が必要な3次元コン
ピュータグラフィックス(3DCG)の場合には、手順
S48で3次元座標の読み出しが行われる。この動作は
前述の図7のフローにおける手順S25に対応し、具体
的には、回転行列Rおよび移動ベクトルTを用い、実3
次元座標系における座標ωiをカメラ座標系の3次元座
標に変換し、さらに、ファインダウィンドウ座標系にお
ける座標Piを算出して必要な3次元を取得する。
Next, in the case of three-dimensional computer graphics (3DCG) which requires a three-dimensional display effect, the three-dimensional coordinates are read out in step S48. This operation corresponds to the step S25 in the flow of FIG. 7 described above, and specifically, using the rotation matrix R and the movement vector T, the
The coordinates ωi in the dimensional coordinate system are converted into the three-dimensional coordinates in the camera coordinate system, and the coordinates Pi in the finder window coordinate system are calculated to obtain the necessary three-dimensional coordinates.

【0087】続いて、手順S49では2Dコードに基づ
く座標を基準に、エフェクト情報を反映したエフェクト
を描画する。このエフェクト情報を反映したエフェクト
の描画は、画像加工手段によって行われ、ローカルコン
ピュータ11内のCPUの制御によってVRAM内の表示用
データをエフェクトを含むデータに書き換えことで進め
られる。このエフェクトを伴う画像がインターネットを
介して配信される(手順S50)。このような画像処理
は各フレームごとに進められ、各フレームごとに繰り返
して行われる。
Subsequently, in step S49, the effect reflecting the effect information is drawn based on the coordinates based on the 2D code. The drawing of the effect reflecting the effect information is performed by the image processing means, and is advanced by rewriting the display data in the VRAM to the data including the effect under the control of the CPU in the local computer 11. An image with this effect is distributed via the Internet (step S50). Such image processing is advanced for each frame and is repeatedly performed for each frame.

【0088】ここで、エフェクトの具体例について図1
2乃至図16を参照しながら簡単に説明すると、図12
はカメラ入力画像を示す図であり、ローカルコンピュー
タ11に接続されたカメラに写された画像である。図1
2では出演者がTシャツを着ており、そのTシャツの表
で胸部から腹部にかけて2Dコードがプリントしてあ
る。この状態では、カメラが出演者とともに2Dコード
を写しており、効果付加用のプログラムでエフェクトの
付加が実現される。
Here, a concrete example of the effect is shown in FIG.
2 to 16, a brief description will be given with reference to FIG.
FIG. 4 is a diagram showing a camera input image, which is an image captured by a camera connected to the local computer 11. Figure 1
In 2, the performer is wearing a T-shirt, and the 2D code is printed from the chest to the abdomen on the front of the T-shirt. In this state, the camera copies the 2D code together with the performers, and the effect addition is realized by the effect addition program.

【0089】図13はエフェクトとしてモザイクを付加
した図である。本実施形態の情報処理装置において、エ
フェクトデータベース12を参照しながら、2次元コー
ド情報を読み出し、画像のエフェクト付加処理をするこ
とで、図13のモザイクが出演者の顔にかけられた画像
が作成される。図12の状態から図13の状態には、プ
ログラムによって自動的に進められおり、2次元コード
情報と効果表示位置の間の相対位置に関する相対位置情
報が予め設定されていることから、図12のように例え
ば出演者が、2DコードがプリントされているTシャツ
を着て現れるだけで、Tシャツと顔の前記相対位置デー
タから容易に顔を分からなくするようにモザイクをかけ
ることができる。この図13の状態で、出演者が画面内
を移動した場合でも、2Dコードがプリントされている
Tシャツも移動することになり、このため2Dコードが
提供する表示位置も同じように移動する。従って、モザ
イクの位置も自動的に移動することになり、カメラの操
作者がその都度エフェクトの範囲を変更しなくとも出演
者の動きに追従したエフェクトの表示が可能である。
FIG. 13 is a diagram in which a mosaic is added as an effect. In the information processing apparatus according to the present embodiment, the two-dimensional code information is read while referring to the effect database 12 and the effect addition processing of the image is performed, thereby creating an image in which the mosaic of FIG. 13 is applied to the performer's face. It From the state of FIG. 12 to the state of FIG. 13, the program automatically advances, and the relative position information regarding the relative position between the two-dimensional code information and the effect display position is set in advance. As described above, for example, a performer can appear by wearing a T-shirt on which a 2D code is printed, and a mosaic can be applied so that the face can be easily identified from the relative position data of the T-shirt and the face. In this state of FIG. 13, even when the performer moves within the screen, the T-shirt on which the 2D code is printed also moves, and therefore the display position provided by the 2D code also moves. Therefore, the position of the mosaic is also automatically moved, and it is possible to display the effect following the movement of the performer without the camera operator changing the effect range each time.

【0090】図14は画像ファイルを貼り付ける例を示
しており、この図14においても、出演者の顔の部分に
猫型ロボットの画像が上書きされるように表示される。
画像ファイルはライブ配信前に予め準備された画像ファ
イルのデータであり、図14のように例えば出演者が、
2DコードがプリントされているTシャツを着て現れる
だけで、Tシャツと顔の相対位置データから容易に顔の
部分に猫型ロボットの画像を重ねることができる。ま
た、2Dコードからは2Dコードの四隅の座標データに
基づき、2Dコードの距離が把握され、その距離から猫
型ロボットの画像のサイズも適当なサイズに拡大化若し
くは縮小化されて表示される。
FIG. 14 shows an example of pasting an image file, and in this FIG. 14 as well, the image of the cat-shaped robot is displayed so as to be overwritten on the face of the performer.
The image file is the data of the image file prepared in advance before the live distribution. For example, as shown in FIG.
It is possible to easily superimpose the image of the cat-shaped robot on the face based on the relative position data of the T-shirt and the face simply by wearing the T-shirt on which the 2D code is printed. Further, the distance of the 2D code is grasped from the 2D code based on the coordinate data of the four corners of the 2D code, and the size of the image of the cat robot is enlarged or reduced to an appropriate size and displayed from the distance.

【0091】図15は3次元コンピュータグラフィック
ス(3DCG)の場合を示す図である。図15において
は、出演者のTシャツの部分にアニメ風の3D蛙の画像
が上書きされるように表示される。このアニメ風の3D
蛙の画像は、コンピュータグラフィックスにより作成さ
れたものであり、データから描画されたものである。ラ
イブ配信をする場合においては、出演者が移動したり、
上下や横方向を向いた場合などでは、2Dコードがプリ
ントされているTシャツの位置やその法線ベクトル方向
が変わることになり、出演者の動きに忠実な3次元コン
ピュータグラフィックスの動きが表現されることにな
る。また、画像だけではなく、音声ファイルなどを追従
させることも可能であり、しかも出演者が設定の範囲で
自由に制御できることになる。
FIG. 15 is a diagram showing a case of three-dimensional computer graphics (3DCG). In FIG. 15, the T-shirt part of the performer is displayed so as to be overwritten with an image of an animation-like 3D frog. This anime-like 3D
The frog image is created by computer graphics and is drawn from data. When performing live distribution, performers move,
When facing vertically or horizontally, the position of the T-shirt on which the 2D code is printed and the direction of its normal vector will change, and the movement of 3D computer graphics faithful to the movement of the performer will be expressed. Will be done. Further, not only images but also audio files can be made to follow, and performers can freely control within a set range.

【0092】図16は背景の差替えを示す図である。図
16においては、出演者の背景部分がビーチの風景に上
書きされるように表示される。このビーチの風景は、出
演者の着ているTシャツのプリントされている2Dコー
ドの効果選択情報を抽出することで、描画された画像で
ある。出演者は予め背景部分と分離されて認識されてお
り、予め容易された背景画像と差替えることで図16の
画像が作成される。出演者の着ているTシャツの2Dコ
ードを隠すことで、背景画像を元の画像に戻すことも可
能であり、出演者が別の2Dコードがプリントされた着
物を着ることで、他の背景画像に切り替えることも自動
に行うことができる。
FIG. 16 is a diagram showing replacement of the background. In FIG. 16, the background of the performer is displayed so as to be overwritten on the beach landscape. This beach landscape is an image drawn by extracting the effect selection information of the 2D code printed on the T-shirt worn by the performer. The performer is recognized in advance by being separated from the background portion, and the image of FIG. 16 is created by replacing the background image with the background image that has been facilitated in advance. It is possible to restore the background image to the original image by hiding the 2D code of the T-shirt worn by the performer, and the performer can wear another kimono with a different 2D code printed to change the background. Switching to an image can also be automatically performed.

【0093】次に、図17乃至図19を参照しながら、
第2の実施形態として、エフェクトデータベースがネッ
トワーク上のエフェクトサーバにある場合の情報処理シ
ステムについて説明する。図17は、本実施形態の情報
処理システムの概要を示す図である。本実施形態のシス
テムでは、先ず、映像配信側の構成として、カメラのつ
いたコンピュータ21、エフェクトデータベース22を
具備するエフェクトサーバ26、インターネットライブ
映像配信のためのストリーミングサーバ23、ユーザの
使用したエフェクトの使用回数・時間を管理し、課金す
るための課金サーバ27を有している。また、映像を受
信する側の構成として、ストリーミングサーバ23にイ
ンターネットを介して接続するための端末24があり、
視聴者は端末24の表示部を介して配信された映像を見
ることができる。
Next, referring to FIGS. 17 to 19,
As a second embodiment, an information processing system when the effect database is in an effect server on the network will be described. FIG. 17 is a diagram showing an outline of the information processing system of this embodiment. In the system of the present embodiment, first, as a video distribution side configuration, a computer 21 with a camera, an effect server 26 having an effect database 22, a streaming server 23 for Internet live video distribution, and an effect used by a user It has a billing server 27 for managing the number of times of use and time and billing. Also, as a configuration on the side of receiving the video, there is a terminal 24 for connecting to the streaming server 23 via the Internet,
The viewer can view the delivered video through the display unit of the terminal 24.

【0094】コンピュータ21は、カメラを一体に備え
た構造であっても良く、カメラを接続して使用するもの
であっても良い。また、コンピュータ21はネットワー
ク機能を有するカメラ自体やカムコーダーなどの機器自
体であっても良く、更には撮像機能を有する携帯電話や
携帯情報端末(PDA)など種々の電子機器に置き換え
可能である。コンピュータ21は、一例としてノート型
コンピュータであって、表示部の上端中央部分にはCCD
(Charge Coupled Device)ビデオカメラが設けられてい
る。2Dコード25は、コンピュータ21のCCDビデオ
カメラにより撮像され、その結果得られた画像データか
ら2Dコード25のパターンが認識されて、そのパター
ンに対応した所定の処理が実行される。
The computer 21 may have a structure in which a camera is integrally provided, or may be one in which a camera is connected and used. The computer 21 may be a device itself such as a camera or a camcorder having a network function, and may be replaced with various electronic devices such as a mobile phone and a personal digital assistant (PDA) having an image capturing function. The computer 21 is, for example, a laptop computer, and a CCD is provided at the center of the upper end of the display unit.
(Charge Coupled Device) A video camera is provided. The 2D code 25 is imaged by the CCD video camera of the computer 21, the pattern of the 2D code 25 is recognized from the image data obtained as a result, and a predetermined process corresponding to the pattern is executed.

【0095】このコンピュータ21からは、2Dコード
情報がインターネット上のエフェクトサーバ26に送ら
れると共に、映像信号自体はインターネット上のストリ
ーミングサーバ23に送られる。エフェクトサーバ26
には、更にユーザを特定する情報であるユーザ情報も送
られる。エフェクトサーバ26はエフェクトデータベー
ス22を具備するサーバであり、例えば所要のクリエー
タが制作したキャラクタ、コンピュータグラフィク、写
真などを割り当てられた2DコードIDと共に保存し、
アクセスされた際には電子ファイルの形式で提供するよ
うに構成されている。
From this computer 21, the 2D code information is sent to the effect server 26 on the Internet, and the video signal itself is sent to the streaming server 23 on the Internet. Effect server 26
Further, user information, which is information for identifying the user, is also sent to the user. The effect server 26 is a server including the effect database 22, and stores, for example, characters, computer graphics, photographs, etc. produced by a required creator together with the assigned 2D code ID,
It is configured to provide in the form of an electronic file when accessed.

【0096】エフェクトサーバ26に設けられたエフェ
クトデータベース22は、エフェクトについての効果選
択情報、2次元コード情報と効果表示位置の間の相対位
置に関する相対位置情報、付加すべき効果の表示範囲に
関する効果付加範囲情報などの効果設定情報をデータベ
ース形成で保持するものである。エフェクトについての
効果選択情報は、2DコードのID(識別番号若しくは
2DコードID)を示すものであり、2Dコードの1つ
のIDが1つのエフェクトに対応する。例えば、2Dコ
ードのIDが「0001001」の場合には、3次元で
表現されるペット型アニメーション表示を指定するもの
とされ、サーバの所定フォルダーに格納されているデー
タを読み出して表示させることができる。この効果選択
情報は、表示させるコンテンツを指定するだけではな
く、具体的にどのエフェクトを付加するのかを指定する
ものである。例示すると、画像ファイルの重畳だけでは
なく、背景の付け替え、ある表示領域の演算処理、さら
には重ねられる画像ファイルも2次元的な画像に限定さ
れず、時間軸方向で変化するアニメーション画像や、影
や明度がグラデーションで変化して立体的に把握される
3次元画像、3次元コンピュータグラフィックスなど種
々のエフェクトに対応できる。
The effect database 22 provided in the effect server 26 includes effect selection information regarding effects, relative position information regarding the relative position between the two-dimensional code information and the effect display position, and effect addition regarding the display range of the effect to be added. The effect setting information such as range information is held in the database formation. The effect selection information about an effect indicates a 2D code ID (identification number or 2D code ID), and one ID of the 2D code corresponds to one effect. For example, when the ID of the 2D code is “0001001”, the pet type animation display expressed in three dimensions is designated, and the data stored in the predetermined folder of the server can be read and displayed. . This effect selection information not only specifies the content to be displayed, but also specifies which effect is specifically added. For example, not only the superimposition of image files, but also the background replacement, the calculation processing of a certain display area, and the image files to be overlaid are not limited to two-dimensional images. Various effects such as three-dimensional images and three-dimensional computer graphics, in which the brightness changes with gradation and are three-dimensionally recognized, can be supported.

【0097】効果設定情報のうちの相対位置情報は、撮
像された2Dコードの位置を原点として効果表示位置を
どこにするかを指定するデータであり、例えば、相対位
置情報は3次元ベクトル(x、y、z)のデータを有す
る情報である。また、タイムスタンプ等を利用して時間
についての座標を含ませて、多少の遅延時間や表示切替
速度、アニメーションの進行速度を制御するようにして
も良い。この相対位置情報によって、エフェクトの位置
が全画面上の一部である場合でも、任意にエフェクトの
位置を指定できる。相対位置情報は3次元ベクトル
(x、y、z)のデータに限らず、2次元ベクトルのデ
ータであっても良い。
The relative position information of the effect setting information is data for designating where to set the effect display position with the position of the imaged 2D code as the origin. For example, the relative position information is a three-dimensional vector (x, It is information having data of y, z). Alternatively, a time stamp or the like may be used to include time coordinates to control the delay time, the display switching speed, and the animation progress speed. With this relative position information, even if the effect position is a part of the entire screen, the effect position can be arbitrarily specified. The relative position information is not limited to the three-dimensional vector (x, y, z) data, and may be the two-dimensional vector data.

【0098】効果設定情報のうちの効果付加範囲情報
は、付加すべき効果の表示範囲に関する情報であり、指
定された相対位置の原点を基準にどの範囲にエフェクト
を付加するかを指定する情報である。例えば、エフェク
トがモザイクの場合には、縦方向に±50ピクセルで横
方向に±100ピクセルにモザイクをかけると言うよう
に縦方向と横方向のピクセル数を指定する。
The effect addition range information of the effect setting information is information regarding the display range of the effect to be added, and is information for specifying the range to which the effect is added based on the origin of the specified relative position. is there. For example, when the effect is a mosaic, the number of pixels in the vertical direction and the number in the horizontal direction are specified such that the mosaic is applied to ± 50 pixels in the vertical direction and ± 100 pixels in the horizontal direction.

【0099】このようなエフェクトデータベース22
は、コンピュータ21のユーザがライブ配信を開始する
前に、任意に設定することができ、ユーザが自分で作成
したものをエフェクトサーバ26にアップロードしてお
くことも可能であるが、このようなエフェクトデータベ
ース22をインターネット上に配設し、そこにクリエー
タが制作したキャラクタ、コンピュータグラフィク、写
真などの種々のコンテンツを割り当てられた2Dコード
IDと共にアップロードできるようにすることで、ユー
ザは種々のエフェクトを利用でき、クリエータは作品発
表の場が与えられ、且つ次の課金サーバ27によって使
用頻度に応じた料金の徴収なども実現できる。
Such an effect database 22
Can be arbitrarily set before the user of the computer 21 starts the live distribution, and it is possible for the user to upload the one created by the user to the effect server 26. By arranging the database 22 on the Internet and uploading various contents such as characters, computer graphics, and photographs created by the creator together with the assigned 2D code ID, the user can use various effects. Therefore, the creator can be given a place to show works, and the next charging server 27 can also collect charges according to the frequency of use.

【0100】ストリーミングサーバ23では、コンピュ
ータ21から提供されたライブ映像を単数若しくは複数
の視聴者にストリーミング形式で配信することができ
る。具体的には、視聴者がストリーミングサーバ23に
対して端末24を介してアクセスし、その端末24に付
属の表示デバイスを介して映像を見ることができる。ス
トリーミングサーバ23からライブ配信する場合には、
エフェクトデータベース22を有するエフェクトサーバ
26からエフェクトについてのデータの提供を受ける。
この時、エフェクトサーバ26と課金サーバ27は連動
して、どのユーザがどの程度、どのエフェクトを利用し
たかを記録し、それを課金情報としてクリエータにフィ
ードバックすることができる。
The streaming server 23 can deliver the live video provided from the computer 21 to one or more viewers in a streaming format. Specifically, the viewer can access the streaming server 23 via the terminal 24 and watch the video on the display device attached to the terminal 24. When performing live distribution from the streaming server 23,
Data about an effect is provided from an effect server 26 having an effect database 22.
At this time, the effect server 26 and the billing server 27 can work together to record which user, to what extent, which effect was used, and feed this back to the creator as billing information.

【0101】図18を参照しながら、本システムの動作
について説明する。本システムにおいても、ライブ配信
前における準備段階と、ライブ配信時における自動的な
効果付加動作が実現されるが、ライブ配信前における準
備段階では先の実施形態とは異なってユーザが行う手順
の一部がクリエータが行うようになっている。
The operation of this system will be described with reference to FIG. In this system as well, the preparation stage before live distribution and the automatic effect addition operation at the time of live distribution are realized. However, in the preparation stage before live distribution, one of the procedures performed by the user is different from the previous embodiment. The department is designed to be done by the creator.

【0102】先ず、ライブ配信前においては、ネットワ
ーク上のエフェクトサーバ26に、2DコードIDとエ
フェクト情報を対応付けたエフェクトデータベース22
が存在する。クリエータが作成した楽しいエフェクト・
コンテンツをエフェクトデータベース22上に用意する
ことで、ユーザは自らエフェクトを作る手間が省け、ク
リエータの作った質の高いエフェクトを手軽にライブ映
像内に登場させることが可能になる。
First, before the live distribution, the effect database 22 in which the 2D code ID and the effect information are associated with the effect server 26 on the network.
Exists. Fun effects created by creators
By preparing the content on the effect database 22, the user does not have to create the effect himself / herself, and the high-quality effect created by the creator can easily appear in the live video.

【0103】クリエータが作成するエフェクトは第1の
実施形態におけるエフェクトとほぼ同様である。すなわ
ち、本実施形態のシステムで利用できるエフェクトとし
ては、モザイクなどの演算処理をするエフェクト、アニ
メーションやキャラクタなどの2次元画像、3次元(2
次元)コンピュータグラフィックス、背景差替え用画像
などが可能である。なお、音声エフェクトなどを組み合
わせることも可能である。エフェクトデータベース22
へのエフェクトのアップロードはクリエータ自身が自分
の端末28からインターネットを介して電子的なデータ
を送信することで行われる。この時、エフェクトデータ
ベース22には、効果選択情報としての2DコードID
と共に2DコードIDと効果表示位置の間の相対位置に
関する相対位置情報、付加すべき効果の表示範囲に関す
る効果付加範囲情報などの各種効果設定情報が格納され
る。更に本実施形態においては、各コンテンツについて
誰がクリエータであるかも記録しており、その著作者情
報は課金サーバ27と共有される。
The effect created by the creator is almost the same as the effect in the first embodiment. That is, the effects that can be used in the system of the present embodiment include effects that perform arithmetic processing such as mosaic, two-dimensional images such as animations and characters, and three-dimensional (two
Dimension) Computer graphics, background replacement images, etc. are possible. It is also possible to combine audio effects and the like. Effect database 22
The uploading of the effect to is performed by the creator himself sending electronic data from his terminal 28 via the Internet. At this time, the effect database 22 stores the 2D code ID as effect selection information.
In addition, various effect setting information such as relative position information regarding the relative position between the 2D code ID and the effect display position and effect addition range information regarding the display range of the effect to be added is stored. Further, in this embodiment, the creator of each content is also recorded, and the author information is shared with the billing server 27.

【0104】次に、ライブ映像配信時においては、アプ
リケーション起動後、配信側のコンピュータ21からエ
フェクトデータベース22を有するエフェクトサーバ2
6とライブ配信用のストリーミングサーバ23に接続
し、エフェクトサーバ26を介してクリエータに対する
課金情報を保持する課金サーバ27にも接続する。課金
サーバ27にはユーザ識別情報が送信される。
Next, at the time of live image distribution, after the application is started, the effect server 2 having the effect database 22 from the distribution-side computer 21.
6 and the streaming server 23 for live distribution, and also via the effect server 26 to the billing server 27 that holds billing information for the creator. User identification information is transmitted to the billing server 27.

【0105】ライブ映像配信時は、ユーザまたは出演者
が2Dコードをカメラにかざす。そうすると、配信側コ
ンピュータ21内の2Dコード認識ソフトウェアが2D
コードID、位置(2D座標)、大きさを認識し、姿勢
(3D座標)を算出する。配信側コンピュータ21は、2
DコードIDとカメラ画像をエフェクトサーバ26に送
信する。エフェクトサーバ26は受け取った2Dコード
IDとサーバ26内に持っているエフェクトデータベー
ス22内の2DコードIDをマッチングし、一致するI
Dがあった場合には対応するエフェクト情報を取得す
る。
During live video distribution, the user or performer holds the 2D code over the camera. Then, the 2D code recognition software in the distribution side computer 21 becomes 2D.
Recognize the code ID, position (2D coordinates) and size,
Calculate (3D coordinates). The distribution-side computer 21 has two
The D code ID and the camera image are transmitted to the effect server 26. The effect server 26 matches the received 2D code ID with the 2D code ID in the effect database 22 held in the server 26, and the matching I
When there is D, the corresponding effect information is acquired.

【0106】エフェクトサーバ26は、エフェクト情報
が見つかったら、エフェクトの種類を読み出し、背景挿
替え、モザイク、ビットマップ画像、3DCGエフェク
トなどの処理を行う。背景画像、ビットマップ画像、3
DCGモードのときは、データベースからデータファイ
ルを読み出す。モザイク、ビットマップ画像、3DCG
モードのときは、エフェクトをかける位置を読み出す。
また、モザイクモードのときはエフェクトをかける範囲
を読み出す。配信側コンピュータ21は、続いて2Dコ
ードの画像中の位置(2D座標)、大きさ、姿勢(3D座
標)を取得し、エフェクトサーバ26に送信する。これ
らの算出方法は先の実施形態の方法と同様である。
When the effect information is found, the effect server 26 reads out the kind of effect, and performs background replacement, mosaic, bitmap image, 3DCG effect and the like. Background image, bitmap image, 3
In the DCG mode, the data file is read from the database. Mosaic, bitmap image, 3DCG
In mode, read the position where the effect is applied.
In the mosaic mode, the range to which the effect is applied is read out. The distribution-side computer 21 subsequently acquires the position (2D coordinate), size, and attitude (3D coordinate) in the image of the 2D code, and transmits the position to the effect server 26. These calculation methods are the same as the methods of the previous embodiment.

【0107】エフェクトサーバ26は、これらの位置情
報を受け取りこの位置を基準にエフェクト設定情報を用
いて、エフェクトをカメラ映像に重ねあわせる。重ね合
わせる際には、配信側コンピュータ21から受け取った
2DコードID認識時のタイムスタンプと映像のタイム
スタンプが対応するようにエフェクトが付加される。重
ね合わせた映像をストリーミングサーバ23に送信す
る。ストリーミングサーバ23は、これまでの個人配信
システムと同様に映像をライブ配信する。
The effect server 26 receives the position information, and superimposes the effect on the camera image by using the effect setting information based on this position. At the time of overlapping, an effect is added so that the time stamp at the time of recognizing the 2D code ID received from the distribution side computer 21 and the time stamp of the video correspond. The superimposed images are transmitted to the streaming server 23. The streaming server 23 delivers the video live as in the conventional personal delivery system.

【0108】これらの作業をカメラ映像の毎フレームご
とに繰り返すことによって、2DコードのIDや位置が
変わっても、それに応じたエフェクトの重なった映像を
ライブ配信することが可能になる。また、エフェクトデ
ータベース22をネットワーク上のエフェクトサーバ2
6におくことで、ユーザは自らエフェクトを作る手間が
省けるだけでなく、クリエータの作成した質の高いエフ
ェクトを2Dコードをカメラにかざすだけで簡単にかけ
ることが出来る。
By repeating these operations for each frame of the camera image, even if the ID or position of the 2D code changes, it is possible to live-distribute the image with the corresponding effect. In addition, the effect database 22 is stored in the effect server 2 on the network.
By setting the number to 6, the user can not only save the effort of creating the effect by himself but also can easily apply the high quality effect created by the creator by holding the 2D code over the camera.

【0109】次に、このようなクリエータがエフェクト
を作りユーザが使用する際の課金システムについて説明
を行う。配信側のコンピュータ21は、ソフトウェアが
起動するとエフェクトサーバ26に接続し、ユーザ情報
を送信する。2Dコードを認識するとそのIDをエフェ
クトサーバ26に送信するが、エフェクトサーバ26
は、その2Dコードに対応するエフェクトがエフェクト
データベース22内に存在するならば、課金サーバ27
に、ユーザ情報と2DコードIDを送信し、そのエフェ
クトがそのユーザによって使われていることを通知す
る。
Next, a billing system when such a creator creates an effect and is used by the user will be described. When the software is activated, the distribution-side computer 21 connects to the effect server 26 and transmits the user information. When the 2D code is recognized, the ID is transmitted to the effect server 26, but the effect server 26
If the effect corresponding to the 2D code exists in the effect database 22, the charging server 27
The user information and the 2D code ID to notify that the effect is used by the user.

【0110】課金サーバ27は、2DコードIDによっ
て使われているエフェクトを特定し、その使用回数・時
間を一括管理する。さらに、エフェクトサーバ26から
送られてきたユーザ情報から、そのユーザのエフェクト
の使用回数・時間に応じて、エフェクト使用料金の課金
を行う。エフェクトはクリエータによって自由に作られ
るので、使用されたエフェクトはその利用回数・時間に
応じてクリエータに使用料金が還元される。本実施形態
においては2DコードIDとエフェクトの対応をエフェ
クトサーバ26のエフェクトデータベース22にもち、
その利用回数・時間を課金サーバ27で管理すること
で、エフェクトの利用回数・時間に応じたユーザからの
課金とクリエータへの還元を行うことができ、その差額
で利益が発生することにもなる。
The billing server 27 identifies the effect used by the 2D code ID and collectively manages the number of times of use and time. Further, based on the user information sent from the effect server 26, the effect use fee is charged according to the number of times and the time the effect is used by the user. Since the effect is freely created by the creator, the usage fee is returned to the creator according to the number of times and time the effect is used. In this embodiment, the correspondence between the 2D code ID and the effect is stored in the effect database 22 of the effect server 26,
By managing the number of times / time of use by the charging server 27, it is possible to charge the user according to the number of times / time of use of the effect and return to the creator, and a profit is generated by the difference. .

【0111】図19はインターネットでライブ配信を行
う場合のシステムの動作を示すより具体的な流れ図であ
る。初めにユーザは配信側のコンピュータ21を起動
し、ソフトウェアを起動する。次に手順S61でユーザ
のコンピュータ21をストリーミングサーバ23に接続
する。手順S62では、そのコンピュータ21とストリ
ーミングサーバ23の間の接続が成功したか否かが判断
され、不成功の場合には、手順S63でエラーダイアロ
グをユーザのコンピュータ21の表示部に表示して処理
を終了する。
FIG. 19 is a more specific flow chart showing the operation of the system when live distribution is performed on the Internet. First, the user activates the distribution-side computer 21 to activate the software. Next, in step S61, the user's computer 21 is connected to the streaming server 23. In step S62, it is determined whether or not the connection between the computer 21 and the streaming server 23 has succeeded, and if unsuccessful, an error dialog is displayed on the display unit of the user's computer 21 and processed in step S63. To finish.

【0112】手順S62で、コンピュータ21とストリ
ーミングサーバ23の間の接続が成功したと判断される
場合(YES)には、手順S64に進む。ここではユー
ザのコンピュータ21をエフェクトデータベース22を
有するエフェクトサーバ26に接続する。次の手順S6
5では、そのコンピュータ21とエフェクトサーバ26
の間の接続が成功したか否かが判断され、不成功の場合
には、手順S63でエラーダイアログをユーザのコンピ
ュータ21の表示部に表示して処理を終了する。
If it is determined in step S62 that the connection between the computer 21 and the streaming server 23 has succeeded (YES), the process proceeds to step S64. Here, the user's computer 21 is connected to an effect server 26 having an effect database 22. Next step S6
In 5, the computer 21 and the effect server 26
It is determined whether or not the connection has been successful, and if unsuccessful, an error dialog is displayed on the display unit of the user's computer 21 in step S63, and the process ends.

【0113】手順S65でコンピュータ21とエフェク
トサーバ26の間の接続が成功したと判断される場合
(YES)には、手順S66に進む。ここではユーザの
コンピュータ21を課金サーバ27に接続する。次の手
順S67では、そのコンピュータ21と課金サーバ27
の間の接続が成功したか否かが判断され、不成功の場合
には、手順S63でエラーダイアログをユーザのコンピ
ュータ21の表示部に表示して処理を終了する。
When it is determined in step S65 that the connection between the computer 21 and the effect server 26 has succeeded (YES), the process proceeds to step S66. Here, the user's computer 21 is connected to the billing server 27. In the next step S67, the computer 21 and charging server 27
It is determined whether or not the connection has been successful, and if unsuccessful, an error dialog is displayed on the display unit of the user's computer 21 in step S63, and the process ends.

【0114】手順S67でコンピュータ21と課金サー
バ27の間の接続が成功したと判断される場合(YE
S)には、手順S68に進む。手順S68では接続され
た課金サーバ27にユーザ情報が送出され、接続状態と
共にエフェクトの使用回数や時間が記録される。
When it is determined in step S67 that the connection between the computer 21 and the billing server 27 has succeeded (YE
For S), the procedure proceeds to step S68. In step S68, the user information is sent to the connected billing server 27, and the number of times the effect is used and the time are recorded together with the connection state.

【0115】次の手順S69で、映像信号をストリーミ
ングサーバ23とエフェクトサーバ26に送り、この状
態で映像のライブ配信が可能となる。以下、手順S70
以降の手順により、エフェクトの付加と課金が行われ
る。タイムスタンプは画像をフレーム単位で特定し処理
するために使用され、エフェクトサーバ26での画像の
重ね合わせに使用される。
In the next step S69, the video signal is sent to the streaming server 23 and the effect server 26, and the live distribution of the video becomes possible in this state. Hereinafter, step S70
Effects are added and billing is performed by the following procedure. The time stamp is used to specify and process images on a frame-by-frame basis, and is used for superimposing images on the effect server 26.

【0116】先ず、手順S70でカメラ撮影された画像
内に存在する2Dコードを探索する。この画像は1つの
フレーム単位で探索される。次に、手順S71で2Dコ
ードを認識できたか否かが判断され、2Dコードが認識
できなかった場合(NO)には、手順S70に戻り、次
の画像内に存在する2Dコードを探索する手順に移行す
る。手順S71で2Dコードを認識できた場合(YE
S)には、手順S72で認識した2DコードIDに対応
するエフェクト情報をエフェクトサーバ26のエフェク
トデータベース22に問い合わせる。このエフェクト情
報には、エフェクトについての効果選択情報すなわち2
DコードID、2次元コード情報と効果表示位置の間の
相対位置に関する相対位置情報(位置)、付加すべき効
果の表示範囲に関する効果付加範囲情報(範囲)などの効
果設定情報が含まれる。また、特定のユーザーに対する
効果付与禁止情報などが含まれていても良い。このエフ
ェクトデータベース22への問い合わせに連動して、手
順S73では画像のフレームのタイムスタンプがエフェ
クトサーバ26に送信される。
First, in step S70, the 2D code existing in the image photographed by the camera is searched. This image is searched in frame units. Next, in step S71, it is determined whether or not the 2D code can be recognized, and if the 2D code cannot be recognized (NO), the procedure returns to step S70 to search for the 2D code existing in the next image. Move to. When the 2D code can be recognized in step S71 (YE
In step S), the effect database 22 of the effect server 26 is queried for effect information corresponding to the 2D code ID recognized in step S72. This effect information includes effect selection information about the effect, that is, 2
Effect setting information such as relative position information (position) regarding the relative position between the D code ID, the two-dimensional code information and the effect display position, and effect addition range information (range) regarding the display range of the effect to be added is included. Further, it may also include effect addition prohibition information for a specific user. In conjunction with the inquiry to the effect database 22, the time stamp of the frame of the image is transmitted to the effect server 26 in step S73.

【0117】次に、エフェクトサーバ26では送信され
てきた2DコードIDに対応するエフェクト情報が存在
するか否かが判断される(手順S76)。対応するエフ
ェクト情報が存在しない場合(NO)、コンピュータ2
1のその旨を通知し、手順S70に戻り次の画像フレー
ムの処理に入る。
Next, the effect server 26 determines whether or not the effect information corresponding to the transmitted 2D code ID exists (step S76). If there is no corresponding effect information (NO), computer 2
1 is notified, and the process returns to step S70 to start processing the next image frame.

【0118】対応するエフェクト情報が存在する場合
(YES)、手順S77で該当する2DコードIDに対
応する内容(例えば、エフェクトの種類、モザイク、ビ
ットマップ画像、3DCG、背景差替え)、相対位置情
報、及び効果付加範囲情報をエフェクトデータベース2
2から取得する。次に、手順S78では、課金サーバ2
7への使用された2DコードIDについてのデータ送信
が行われる。課金サーバ27では、このデータ送信を受
け、手順S83で使用された2DコードIDのエフェク
トの使用回数をインクリメントして保存する。
If the corresponding effect information is present (YES), the contents corresponding to the corresponding 2D code ID in step S77 (for example, effect type, mosaic, bitmap image, 3DCG, background replacement), relative position information, And effect addition range information for effect database 2
Get from 2. Next, in step S78, the charging server 2
Data transmission for the used 2D code ID to 7 is performed. The billing server 27 receives this data transmission, increments the number of times the effect of the 2D code ID used in step S83 is used, and saves it.

【0119】課金サーバ27への使用された2Dコード
IDについてのデータ送信の後、手順S79では、エフ
ェクトの種類に応じてデータファイルの読み出しが行わ
れる。エフェクトがビットマップ画像の場合には対応す
るビットマップ画像ファイルが読み込まれ、エフェクト
が3次元コンピュータグラフィックス(3DCG)の場
合には対応する3次元コンピュータグラフィックスが読
み込まれ、エフェクトが背景差替えの場合には、選択さ
れる背景画像ファイルが読み込まれる。
After data transmission of the used 2D code ID to the billing server 27, in step S79, the data file is read according to the type of effect. When the effect is a bitmap image, the corresponding bitmap image file is loaded, when the effect is 3D computer graphics (3DCG), the corresponding 3D computer graphics is loaded, and when the effect is background replacement A background image file to be selected is read in.

【0120】データファイルの読み出し動作によって手
順S80では、対応したデータファイルが存在している
か否かが判断される。もしデータファイルが存在してい
ない場合(NO)には、手順70に戻って次のフレーム
に対して再度動作を行う。
According to the read operation of the data file, it is determined in step S80 whether or not the corresponding data file exists. If the data file does not exist (NO), the procedure returns to step 70 and the operation is performed again for the next frame.

【0121】手順S80でデータファイルが存在してい
る場合(YES)には、エフェクトサーバ26に対する
2D座標と3D座標の取得がなされる。この時、ユーザ
のコンピュータ21では、認識した2Dコードの位置
(2D座標)が取得される(手順S74)。なお、ここ
で認識された2Dコードの位置は、図7のフローにおけ
る手順S24の動作と同様に、FAプログラム56Eから
供給されるファインダウィンドウ上の2Dコードの2次
元座標(Pix,Piy)である。更に3次元表示効果が必
要な3次元コンピュータグラフィックス(3DCG)の
場合には、手順S75で3次元座標の読み出しが行われ
る。この動作は前述の図7のフローにおける手順S25
に対応し、具体的には、回転行列Rおよび移動ベクトル
Tを用い、実3次元座標系における座標ωiをカメラ座
標系の3次元座標に変換し、さらに、ファインダウィン
ドウ座標系における座標Piを算出して必要な3次元座
標を取得する。
If the data file exists in step S80 (YES), 2D coordinates and 3D coordinates for the effect server 26 are acquired. At this time, the user's computer 21 acquires the position (2D coordinate) of the recognized 2D code (step S74). The position of the 2D code recognized here is the two-dimensional coordinates (P ix , P iy ) of the 2D code on the finder window supplied from the FA program 56E, as in the operation of step S24 in the flow of FIG. Is. Further, in the case of three-dimensional computer graphics (3DCG) that requires a three-dimensional display effect, the three-dimensional coordinates are read in step S75. This operation is step S25 in the flow of FIG. 7 described above.
Specifically, using the rotation matrix R and the movement vector T, the coordinates ωi in the actual three-dimensional coordinate system are converted into the three-dimensional coordinates in the camera coordinate system, and the coordinates Pi in the finder window coordinate system are calculated. Then, the required three-dimensional coordinates are obtained.

【0122】このように算出された2Dコードの位置
(2D座標)や3次元座標を用いて、エフェクトサーバ
26では、手順S81で2Dコードに基づく座標を基準
に、エフェクト情報を反映したエフェクトを描画する。
このエフェクト情報を反映したエフェクトの描画は、画
像加工手段によって行われ、例えばエフェクトサーバ2
6内のCPUの制御によってVRAM内の表示用データをエ
フェクトを含むデータに書き換えことで進められる。こ
のとき、2Dコードを認識したフレームのタイムスタン
プが参照され、対応する画像フレームに2Dコードの座
標を基準にエフェクト情報を反映したエフェクトをカメ
ラ画像に付加する。タイムスタンプを利用することで、
遠隔地にあるサーバに対しても確実な処理が可能とな
る。次に、手順S82で、エフェクトの重ねられた画像
がフレーム単位でストリーミングサーバ23に送出され
る。ストリーミングサーバ23では、タイムスタンプを
基準にした処理が進められており、エフェクトサーバ2
3からエフェクトの付加されたフレームが存在する場合
に、エフェクトサーバ23からの画像を優先させたり、
或いは同じタイムスタンプのフレームを上書きさせてイ
ンターネットを介して配信する(手順S87)。
Using the 2D code position (2D coordinates) and three-dimensional coordinates calculated in this way, the effect server 26 draws an effect reflecting the effect information based on the coordinates based on the 2D code in step S81. To do.
The drawing of the effect that reflects this effect information is performed by the image processing means, for example, the effect server 2
Under the control of the CPU in 6, the display data in the VRAM is rewritten to the data including the effect to proceed. At this time, the time stamp of the frame in which the 2D code is recognized is referred to, and the effect in which the effect information is reflected is added to the camera image in the corresponding image frame based on the coordinates of the 2D code. By using the time stamp,
Reliable processing can be performed even on a server located at a remote place. Next, in step S82, the image on which the effect is superimposed is sent to the streaming server 23 frame by frame. In the streaming server 23, processing based on the time stamp is in progress, and the effect server 2
When there is a frame to which an effect is added from 3, the image from the effect server 23 is prioritized,
Alternatively, the frame having the same time stamp is overwritten and distributed via the Internet (step S87).

【0123】課金サーバ27の動作については、手順S
83で使用された2DコードIDについてのデータ送信
を受けた後、手順S84では、使用された2DコードI
Dについてのエフェクトの使用回数や使用時間が記録さ
れる。定期的に或いは必要に応じて、ユーザ情報から使
用時間に応じた課金を行う(手順S85)。エフェクト
はエフェクト毎に利用単価を設定することもでき、ユー
ザ情報も管理することで正確な課金が可能となる。同様
に、手順S86では定期的に或いは必要に応じて課金し
た金額に応じてエフェクトを提供したクリエータに著作
権料その他の料金が支払われる。このようなシステムに
よって、より優れたデザインのエフェクトを集めること
も可能となる。
Regarding the operation of the charging server 27, the procedure S
After receiving the data transmission for the 2D code ID used in 83, in step S84, the used 2D code I
The number of times of use and the time of use of the effect for D are recorded. Periodically or as required, the user information is charged according to the usage time (step S85). For the effect, a usage unit price can be set for each effect, and user information can also be managed to enable accurate billing. Similarly, in step S86, a copyright fee and other fees are paid to the creator who provided the effect on a regular basis or according to the amount charged as needed. With such a system, it is also possible to collect effects with better designs.

【0124】なお、上述の実施形態では、2Dコードに
よるエフェクトの例として、モザイクやビットマップ画
像、3DCG(3次元コンピュータグラフィックス)を
挙げたが、その他にもさまざまなエフェクトを追加可能
である。例えば、2DコードのIDをペンの色に対応さ
せれば、2Dコードを動かすと仮想的なキャンバスにお
絵かきが出来る。また、2DコードのIDを楽器や音色
に対応させ、2Dコードの位置や姿勢を音量や音階に対
応付けることによって仮想的に楽器を演奏して音楽番組
を作ることも出来る。
In the above embodiment, mosaics, bitmap images, and 3DCG (three-dimensional computer graphics) are given as examples of 2D code effects, but various other effects can be added. For example, if the ID of the 2D code is made to correspond to the pen color, moving the 2D code makes it possible to draw on a virtual canvas. It is also possible to virtually play a musical instrument and create a music program by associating the ID of the 2D code with the musical instrument or tone color and associating the position and posture of the 2D code with the volume or scale.

【0125】また、上述の実施形態では、インターネッ
トライブ映像配信について主に説明したが、インターネ
ットライブ映像配信だけでなく、通常のテレビ放送にも
応用可能である。すなわち、本発明の情報処理システム
は、特にインターネットライブ映像配信を想定したが、
2Dコードによるエフェクトは既存のテレビ放送にも応
用可能である。また、本発明の情報処理システムは、ラ
イブ映像配信を想定したが、画像認識によるグラフィク
スやエフェクトはライブ映像配信に限定されない。実世
界を画像認識してそこにグラフィクスを融合するという
考え方は普段の生活にも応用可能である。見慣れた壁に
鮮やかなグラフィクスが浮かび上がったり、3Dのキャラ
クターがあたかもそこにいるかのように現れたり、まる
で映画のようなびっくりするエフェクトが目の前に現れ
たりといったことが、画像認識から実世界の情報を獲得
し、そこにグラフィクスを重ね合わせることで可能にな
る。
Further, in the above-mentioned embodiment, the Internet live video distribution is mainly described, but the present invention can be applied not only to the Internet live video distribution but also to normal television broadcasting. That is, although the information processing system of the present invention is particularly intended for Internet live video distribution,
The 2D code effect can also be applied to existing television broadcasting. Further, although the information processing system of the present invention assumes live video distribution, graphics and effects by image recognition are not limited to live video distribution. The idea of recognizing images in the real world and fusing graphics to them can be applied to everyday life. Vivid graphics emerge on familiar walls, 3D characters appear as if they are there, and surprising effects like movie appear in front of you from image recognition to real world. It becomes possible by acquiring information and superimposing graphics on it.

【0126】また、上述の実施形態では、エフェクト情
報を埋め込み、画像認識する手段に2Dコードを用いた
が、これは2DコードがID、位置、姿勢、大きさとい
った情報を取得しやすいためであり、これらの情報が取
得できれば他の画像認識の手法でも代用が可能である。
In the above embodiment, the effect information is embedded and the 2D code is used as the image recognizing means, because the 2D code easily obtains information such as ID, position, orientation, and size. As long as these pieces of information can be obtained, other image recognition methods can be substituted.

【0127】さらに、本発明の応用範囲として、高度な
画像認識が出来れば出来るほど、多様なエフェクトをか
けることが可能になる。すなわち。上述の実施形態で
は、画像認識については背景の認識と2Dコードの認識
しか行っていないが、より高度な認識が出来れば、多様
なエフェクトをかけることが出来る。例えば、出演者の
表情やしぐさが認識できれば、出演者の動きに反応する
キャラクタを番組内に登場させることが出来るだろう。
Further, as an application range of the present invention, the higher the degree of image recognition, the more various effects can be applied. Ie. In the above-described embodiment, only the background and the 2D code are recognized for image recognition, but various effects can be applied if more advanced recognition is possible. For example, if the facial expressions and gestures of the performers can be recognized, a character that reacts to the movements of the performers will be able to appear in the program.

【0128】また、上述の実施形態の情報処理装置、情
報処理システムでは、インターネットライブ映像配信を
想定しているので、入力装置としてカメラを用い、カメ
ラからの画像認識を行っている。しかし、入力装置とし
てカメラ以外のセンサーを用いることも出来る。例え
ば、磁気センサーや赤外線を用いて出演者の動きを取得
し、その動きに応じたエフェクトをかけることも出来
る。また、音声を認識してそれに応じたエフェクトをか
けることも出来る。この場合、エフェクトも画像にかけ
るだけでなく音声や音楽にかけることも出来る。また、
入力装置のある映像発信側はノートPC等を例示した
が、原理上はカメラなどのセンサーがついた携帯電話、
PDAなどの装置でも可能であり、パーソナルコンピュ
ータに限定されない。更に、視聴者側の装置について
も、映像が配信される視聴者側の端末としてノートP
C、デスクトップPCに限定されず、携帯電話、PD
A,テレビジョン受像機などでもライブ配信された映像
を見ることが出来る。また、カメラ内蔵型のノート型パ
ーソナルコンピュータに限らず、ディスクトップ型パー
ソナルコンピュータに外付けカメラを接続して実現して
も良い。また、カメラで撮影したライブ映像のみなら
ず、一旦ハードディスクドライブ(HDD)などのメデ
ィアに録画した後、2Dコードを認識するようにしても
良い。
Further, in the information processing apparatus and the information processing system of the above-mentioned embodiment, since Internet live video distribution is assumed, a camera is used as an input device and image recognition from the camera is performed. However, a sensor other than a camera can be used as the input device. For example, it is possible to obtain the movement of the performer using a magnetic sensor or infrared rays and apply an effect according to the movement. You can also recognize the voice and apply an effect accordingly. In this case, effects can be applied not only to images but also to voice and music. Also,
The video transmission side with the input device is exemplified by a notebook PC, but in principle, a mobile phone with a sensor such as a camera,
It is also possible to use a device such as a PDA and is not limited to a personal computer. Furthermore, regarding the device on the viewer side, a note P is used as a terminal on the viewer side to which the video is distributed.
C, not limited to desktop PC, mobile phone, PD
A, You can also watch the live-streamed images on a television receiver. Further, the present invention is not limited to a laptop personal computer with a built-in camera, and may be realized by connecting an external camera to a desktop personal computer. Further, not only a live image captured by a camera but also a medium such as a hard disk drive (HDD) may be recorded once and then the 2D code may be recognized.

【0129】[0129]

【発明の効果】以上のように、ライブ映像配信に2Dコ
ード認識技術を組み合わせることによって、撮った映像
をそのまま配信するのではなく、実際にはその場に無い
仮想的なグラフィックスやエフェクトを重ね合わせたラ
イブ映像配信が実現される。その操作は2Dコード認識
技術を用いるために、ユーザに何ら煩雑な操作を強いる
ことなく自動的にエフェクトを画面に合成していくこと
ができ、撮影者だけではなく出演者によるエフェクトの
制御も容易に実現される。
As described above, by combining 2D code recognition technology with live video distribution, the captured video is not distributed as it is, but virtual graphics and effects that are not actually present are superimposed. Combined live video distribution is realized. Since the operation uses the 2D code recognition technology, the effect can be automatically combined on the screen without any complicated operation for the user, and the effect can be controlled not only by the photographer but also by the performer. Will be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の情報処理システムの一例を示す概略図
である。
FIG. 1 is a schematic diagram showing an example of an information processing system of the present invention.

【図2】2Dコードの一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a 2D code.

【図3】本発明の情報処理システムの一例に用いられる
コンピュータのハードディスクドライブに格納されるプ
ログラムを示す概略図である。
FIG. 3 is a schematic diagram showing a program stored in a hard disk drive of a computer used in an example of the information processing system of the present invention.

【図4】本発明の情報処理システムの一例に用いられる
2Dコード認識処理の流れ図である。
FIG. 4 is a flowchart of a 2D code recognition process used in an example of the information processing system of the present invention.

【図5】2Dコード認識処理におけるウインドウを示す
模式図である。
FIG. 5 is a schematic diagram showing a window in a 2D code recognition process.

【図6】2Dコード認識処理における画面状態を示す図
である。
FIG. 6 is a diagram showing a screen state in 2D code recognition processing.

【図7】本発明の情報処理システムの一例に用いられる
3Dアプリケーション処理の流れ図である。
FIG. 7 is a flowchart of 3D application processing used in an example of the information processing system of the present invention.

【図8】前記3Dアプリケーション処理の結果、画面内
に仮想空間上のキャラクタを表示した場合の図である。
FIG. 8 is a diagram showing a case where a character in a virtual space is displayed on the screen as a result of the 3D application processing.

【図9】本発明の情報処理システムの一例を映像処理と
共に示す概略図である。
FIG. 9 is a schematic diagram showing an example of an information processing system of the present invention together with video processing.

【図10】本発明の情報処理システムの一例に用いられ
るライブ配信前のエフェクトデータベースの作成の流れ
図である。
FIG. 10 is a flow chart of creating an effect database before live distribution used in an example of the information processing system of the present invention.

【図11】本発明の情報処理システムの一例に用いられ
るライブ配信時のエフェクトの付加処理を示す流れ図で
ある。
FIG. 11 is a flowchart showing an effect addition process during live distribution used in an example of the information processing system of the present invention.

【図12】本発明の情報処理システムの一例を用いた場
合のカメラ入力画面を示す図である。
FIG. 12 is a diagram showing a camera input screen when an example of the information processing system of the present invention is used.

【図13】本発明の情報処理システムの一例を用いた場
合のモザイクエフェクトを付加した画面を示す図であ
る。
FIG. 13 is a diagram showing a screen to which a mosaic effect is added when an example of the information processing system of the present invention is used.

【図14】本発明の情報処理システムの一例を用いた場
合のビットマップ画像を付加した画面を示す図である。
FIG. 14 is a diagram showing a screen to which a bitmap image is added when an example of the information processing system of the present invention is used.

【図15】本発明の情報処理システムの一例を用いた場
合の3次元コンピュータグラフィックスを付加した画面
を示す図である。
FIG. 15 is a diagram showing a screen to which three-dimensional computer graphics are added when an example of the information processing system of the present invention is used.

【図16】本発明の情報処理システムの一例を用いた場
合の背景差替えをした画面を示す図である。
FIG. 16 is a diagram showing a screen on which a background is replaced when an example of the information processing system of the present invention is used.

【図17】本発明の情報処理システムの他の一例を示す
概略図である。
FIG. 17 is a schematic diagram showing another example of the information processing system of the present invention.

【図18】本発明の情報処理システムの前記他の一例を
配信画面と共に示す概略図である。
FIG. 18 is a schematic diagram showing another example of the information processing system of the present invention together with a distribution screen.

【図19】本発明の情報処理システムの前記他の一例に
用いられるライブ配信時のエフェクトの付加作業の流れ
図である。
FIG. 19 is a flowchart of an effect addition operation during live distribution used in the another example of the information processing system of the present invention.

【符号の説明】[Explanation of symbols]

11 ローカルコンピュータ 12、22 エフェクトデータベース 13、23 ストリーミングサーバ 14、24 端末 15、25 2Dコード 21 コンピュータ 26 エフェクトサーバ 27 課金サーバ 11 local computer 12, 22 Effect database 13, 23 Streaming server 14, 24 terminals 15, 25 2D code 21 computer 26 Effect Server 27 Billing server

───────────────────────────────────────────────────── フロントページの続き (72)発明者 井原 圭吾 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 西村 孝則 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 宮島 靖 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C023 AA09 AA10 AA11 AA18 BA11 CA01 CA05 5C063 AB05 AC10 CA23 CA36 DA01 DA03 5C064 BA01 BB01 BC01 BC18 BC23 BD13    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Keigo Ihara             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation (72) Inventor Takanori Nishimura             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation (72) Inventor Yasushi Miyajima             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation F term (reference) 5C023 AA09 AA10 AA11 AA18 BA11                       CA01 CA05                 5C063 AB05 AC10 CA23 CA36 DA01                       DA03                 5C064 BA01 BB01 BC01 BC18 BC23                       BD13

Claims (38)

【特許請求の範囲】[Claims] 【請求項1】 動画像情報を取り込む画像取込手段と、 前記動画像情報に含まれる2次元コード情報を抽出する
抽出手段と、 前記抽出手段で抽出された前記2次元コード情報に応じ
て前記動画像情報を加工する画像加工手段と、 前記画像加工手段により加工された前記動画像情報をス
トリーミング形式で送出する送出手段とを有することを
特徴とする情報処理装置。
1. An image capturing unit that captures moving image information, an extracting unit that extracts two-dimensional code information included in the moving image information, and the extracting unit that extracts the two-dimensional code information included in the moving image information according to the two-dimensional code information extracted by the extracting unit. An information processing apparatus comprising: an image processing unit that processes moving image information; and a sending unit that sends the moving image information processed by the image processing unit in a streaming format.
【請求項2】 前記2次元コード情報には効果設定情報
が含まれることを特徴とする請求項1記載の情報処理装
置。
2. The information processing apparatus according to claim 1, wherein the two-dimensional code information includes effect setting information.
【請求項3】 前記効果設定情報には、付加すべき効果
を指定する効果選択情報が含まれることを特徴とする請
求項2記載の情報処理装置。
3. The information processing apparatus according to claim 2, wherein the effect setting information includes effect selection information that specifies an effect to be added.
【請求項4】 前記効果設定情報には、前記2次元コー
ド情報と効果表示位置の間の相対位置に関する相対位置
情報が含まれることを特徴とする請求項2記載の情報処
理装置。
4. The information processing apparatus according to claim 2, wherein the effect setting information includes relative position information regarding a relative position between the two-dimensional code information and the effect display position.
【請求項5】 前記効果設定情報には、付加すべき効果
の表示範囲に関する効果付加範囲情報が含まれることを
特徴とする請求項2記載の情報処理装置。
5. The information processing apparatus according to claim 2, wherein the effect setting information includes effect addition range information regarding a display range of an effect to be added.
【請求項6】 前記2次元コード情報には、座標情報が
含まれることを特徴とする請求項1記載の情報処理装
置。
6. The information processing apparatus according to claim 1, wherein the two-dimensional code information includes coordinate information.
【請求項7】 前記座標情報に所要の効果が連動するこ
とを特徴とする請求項6記載の情報処理装置。
7. The information processing apparatus according to claim 6, wherein a desired effect is linked to the coordinate information.
【請求項8】 前記抽出手段は前記2次元コード情報に
応じて前記動画像情報を加工するためのデータベースを
具備することを特徴とする請求項1記載の情報処理装
置。
8. The information processing apparatus according to claim 1, wherein the extraction means includes a database for processing the moving image information according to the two-dimensional code information.
【請求項9】 前記2次元コード情報は前記動画像情報
のフレーム単位で抽出され、前記画像加工手段は前記動
画像情報をフレーム単位で加工することを特徴とする請
求項1記載の情報処理装置。
9. The information processing apparatus according to claim 1, wherein the two-dimensional code information is extracted in frame units of the moving image information, and the image processing unit processes the moving image information in frame units. .
【請求項10】 動画像情報を取り込む工程と、 前記動画像情報に含まれる2次元コード情報を抽出する
工程と、 抽出された前記2次元コード情報に応じて前記動画像情
報を加工する工程と、 加工された前記動画像情報をストリーミング形式で送出
する工程とを有することを特徴とする情報処理方法。
10. A step of fetching moving image information, a step of extracting two-dimensional code information included in the moving image information, and a step of processing the moving image information according to the extracted two-dimensional code information. And a step of transmitting the processed moving image information in a streaming format.
【請求項11】 前記2次元コード情報には効果設定情
報が含まれることを特徴とする請求項10記載の情報処
理方法。
11. The information processing method according to claim 10, wherein the two-dimensional code information includes effect setting information.
【請求項12】 前記効果設定情報には、付加すべき効
果を指定する効果選択情報が含まれることを特徴とする
請求項11記載の情報処理方法。
12. The information processing method according to claim 11, wherein the effect setting information includes effect selection information that specifies an effect to be added.
【請求項13】 前記効果設定情報には、前記2次元コ
ード情報と効果表示位置の間の相対位置に関する相対位
置情報が含まれることを特徴とする請求項11記載の情
報処理方法。
13. The information processing method according to claim 11, wherein the effect setting information includes relative position information regarding a relative position between the two-dimensional code information and the effect display position.
【請求項14】 前記効果設定情報には、付加すべき効
果の表示範囲に関する効果付加範囲情報が含まれること
を特徴とする請求項11記載の情報処理方法。
14. The information processing method according to claim 11, wherein the effect setting information includes effect addition range information regarding a display range of an effect to be added.
【請求項15】 前記2次元コード情報には、座標情報
が含まれることを特徴とする請求項10記載の情報処理
方法。
15. The information processing method according to claim 10, wherein the two-dimensional code information includes coordinate information.
【請求項16】 前記座標情報に所要の効果が連動する
ことを特徴とする請求項15記載の情報処理方法。
16. The information processing method according to claim 15, wherein a desired effect is associated with the coordinate information.
【請求項17】 前記2次元コード情報の抽出は前記動
画像情報を加工するためのデータベースに基づき行われ
ることを特徴とする請求項10記載の情報処理方法。
17. The information processing method according to claim 10, wherein the extraction of the two-dimensional code information is performed based on a database for processing the moving image information.
【請求項18】 前記2次元コード情報は前記動画像情
報のフレーム単位で抽出され、前記動画像情報の加工は
前記動画像情報をフレーム単位で加工することを特徴と
する請求項10記載の情報処理方法。
18. The information according to claim 10, wherein the two-dimensional code information is extracted in frame units of the moving image information, and the moving image information is processed by processing the moving image information in frame units. Processing method.
【請求項19】 動画像情報を取り込む手順と、 前記動画像情報に含まれる2次元コード情報を抽出する
手順と、 抽出された前記2次元コード情報に応じて前記動画像情
報を加工する手順と、 加工された前記動画像情報をストリーミング形式で送出
する手順とを有することを特徴とする情報処理プログラ
ム。
19. A procedure of taking in moving image information, a step of extracting two-dimensional code information included in the moving image information, and a step of processing the moving image information according to the extracted two-dimensional code information. An information processing program, comprising: a step of transmitting the processed moving image information in a streaming format.
【請求項20】 前記2次元コード情報には効果設定情
報が含まれることを特徴とする請求項19記載の情報処
理プログラム。
20. The information processing program according to claim 19, wherein the two-dimensional code information includes effect setting information.
【請求項21】 前記効果設定情報には、付加すべき効
果を指定する効果選択情報が含まれることを特徴とする
請求項20記載の情報処理プログラム。
21. The information processing program according to claim 20, wherein the effect setting information includes effect selection information that specifies an effect to be added.
【請求項22】 前記効果設定情報には、前記2次元コ
ード情報と効果表示位置の間の相対位置に関する相対位
置情報が含まれることを特徴とする請求項20記載の情
報処理プログラム。
22. The information processing program according to claim 20, wherein the effect setting information includes relative position information regarding a relative position between the two-dimensional code information and the effect display position.
【請求項23】 前記効果設定情報には、付加すべき効
果の表示範囲に関する効果付加範囲情報が含まれること
を特徴とする請求項20記載の情報処理プログラム。
23. The information processing program according to claim 20, wherein the effect setting information includes effect addition range information regarding a display range of an effect to be added.
【請求項24】 前記2次元コード情報には、座標情報
が含まれることを特徴とする請求項19記載の情報処理
プログラム。
24. The information processing program according to claim 19, wherein the two-dimensional code information includes coordinate information.
【請求項25】 前記座標情報に所要の効果が連動する
ことを特徴とする請求項24記載の情報処理プログラ
ム。
25. The information processing program according to claim 24, wherein a desired effect is linked to the coordinate information.
【請求項26】 前記2次元コード情報は前記動画像情
報のフレーム単位で抽出され、前記動画像の加工は前記
動画像情報をフレーム単位で加工することを特徴とする
請求項19記載の情報処理プログラム。
26. The information processing according to claim 19, wherein the two-dimensional code information is extracted in frame units of the moving image information, and the moving image is processed in frame units of the moving image information. program.
【請求項27】 撮像された動画像情報をフレームを特
定するためのタイムスタンプを含んでストリーミング形
式で送出可能とする画像取込手段と、 前記動画像情報に含まれる2次元コード情報をフレーム
単位で抽出する抽出手段と、抽出された前記2次元コー
ド情報に含まれる効果設定情報と共に前記タイムスタン
プを送出する送出手段とを有することを特徴とする情報
処理装置。
27. An image capturing means capable of outputting captured moving image information in a streaming format including a time stamp for specifying a frame; and two-dimensional code information included in the moving image information in frame units. An information processing apparatus, comprising: an extracting unit that extracts the time stamp and an effect setting information that is included in the extracted two-dimensional code information.
【請求項28】 撮像された動画像情報をフレームを特
定するためのタイムスタンプを含んでストリーミング形
式で送出可能とする工程と、 前記動画像情報に含まれる2次元コード情報をフレーム
単位で抽出する工程と、抽出された前記2次元コード情
報に含まれる効果設定情報と共に前記タイムスタンプを
送出する工程とを有することを特徴とする情報処理方
法。
28. A step of enabling transmission of captured moving image information in a streaming format including a time stamp for specifying a frame; and extracting two-dimensional code information included in the moving image information in frame units. An information processing method comprising: a step; and a step of transmitting the time stamp together with the effect setting information included in the extracted two-dimensional code information.
【請求項29】 撮像された動画像情報をフレームを特
定するためのタイムスタンプを含んでストリーミング形
式で送出可能とする手順と、 前記動画像情報に含まれる2次元コード情報をフレーム
単位で抽出する手順と、抽出された前記2次元コード情
報に含まれる効果設定情報と共に前記タイムスタンプを
送出する手順とを有することを特徴とする情報処理プロ
グラム。
29. A procedure for enabling transmission of captured moving image information in a streaming format including a time stamp for identifying a frame, and extracting two-dimensional code information included in the moving image information in frame units. An information processing program comprising a procedure and a procedure for transmitting the time stamp together with the effect setting information included in the extracted two-dimensional code information.
【請求項30】 タイムスタンプによって動画像情報を
フレーム単位で特定すると共に効果設定情報に応じて動
画像情報を該フレーム単位で加工する画像加工手段と、
前記画像加工手段で加工された動画像情報をストリーミ
ング形式で送出する送出手段とを有することを特徴とす
る情報処理装置。
30. Image processing means for specifying moving image information in frame units by a time stamp and processing moving image information in frame units in accordance with effect setting information,
An information processing apparatus comprising: a sending unit that sends the moving image information processed by the image processing unit in a streaming format.
【請求項31】 前記画像加工手段は前記2次元コード
情報に応じて前記動画像情報を加工するためのデータベ
ースを具備することを特徴とする請求項30記載の情報
処理装置。
31. The information processing apparatus according to claim 30, wherein the image processing means comprises a database for processing the moving image information according to the two-dimensional code information.
【請求項32】 前記効果設定情報に応じて前記動画像
情報を前記フレーム単位で加工する際に効果付加状態に
応じて課金処理するための課金手段を更に有することを
特徴とする請求項30記載の情報処理装置。
32. The charging device according to claim 30, further comprising a charging unit for performing a charging process according to an effect addition state when processing the moving image information in the frame unit according to the effect setting information. Information processing equipment.
【請求項33】 タイムスタンプによって動画像情報を
フレーム単位で特定すると共に効果設定情報に応じて前
記動画像情報を該フレーム単位で加工する工程と、前記
加工された動画像情報をストリーミング形式で送出する
工程とを有することを特徴とする情報処理方法。
33. A step of specifying moving image information in frame units by a time stamp and processing the moving image information in frame units according to effect setting information; and sending the processed moving image information in a streaming format. An information processing method, comprising:
【請求項34】 前記効果設定情報に応じて前記動画像
情報を前記フレーム単位で加工する際には、効果付加状
態に応じて課金処理が行われることを特徴とする請求項
33記載の情報処理方法。
34. The information processing according to claim 33, wherein when the moving image information is processed in the frame unit according to the effect setting information, a billing process is performed according to an effect addition state. Method.
【請求項35】 タイムスタンプによって動画像情報を
フレーム単位で特定すると共に効果設定情報に応じて前
記動画像情報を該フレーム単位で加工する手順と、前記
加工された動画像情報をストリーミング形式で送出する
手順とを有することを特徴とする情報処理プログラム。
35. A procedure of specifying moving image information in frame units by a time stamp and processing the moving image information in frame units according to effect setting information; and sending the processed moving image information in a streaming format. An information processing program, characterized by including the following procedure.
【請求項36】 前記効果設定情報に応じて前記動画像
情報を前記フレーム単位で加工する際には、効果付加状
態に応じて課金処理が行われることを特徴とする請求項
35記載の情報処理プログラム。
36. The information processing according to claim 35, wherein when the moving image information is processed in the frame unit according to the effect setting information, a billing process is performed according to an effect addition state. program.
【請求項37】 撮像された動画像情報をフレームを特
定するためのタイムスタンプを含んでストリーミング形
式で送出可能とする画像取込手段と、 前記動画像情報に含まれる2次元コード情報をフレーム
単位で抽出する抽出手段と、抽出された前記2次元コー
ド情報に含まれる効果設定情報と共に前記タイムスタン
プを送出する送出手段と、前記送出手段から送られたタ
イムスタンプによって前記動画像情報をフレーム単位で
特定すると共に効果設定情報に応じて動画像情報を該フ
レーム単位で加工する画像加工手段と、前記画像加工手
段で加工された動画像情報をストリーミング形式で配信
する配信手段とを有することを特徴とする情報処理シス
テム。
37. Image capturing means capable of outputting captured moving image information in a streaming format including a time stamp for specifying a frame; and two-dimensional code information included in the moving image information in frame units. In the frame unit of the moving image information based on the time stamp sent from the sending unit, and the sending unit sending the time stamp together with the effect setting information included in the extracted two-dimensional code information. And an image processing unit that processes moving image information in frame units according to the effect setting information and a distribution unit that distributes the moving image information processed by the image processing unit in a streaming format. Information processing system.
【請求項38】 前記効果設定情報に応じて前記動画像
情報を前記フレーム単位で加工する際に効果付加状態に
応じて課金処理するための課金手段を更に有することを
特徴とする請求項37記載の情報処理システム。
38. The method according to claim 37, further comprising a charging means for performing a charging process according to an effect addition state when the moving image information is processed in the frame unit according to the effect setting information. Information processing system.
JP2001315931A 2001-10-12 2001-10-12 Information processing device, information processing method, information processing program, and information processing system Pending JP2003125361A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001315931A JP2003125361A (en) 2001-10-12 2001-10-12 Information processing device, information processing method, information processing program, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001315931A JP2003125361A (en) 2001-10-12 2001-10-12 Information processing device, information processing method, information processing program, and information processing system

Publications (1)

Publication Number Publication Date
JP2003125361A true JP2003125361A (en) 2003-04-25

Family

ID=19134025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001315931A Pending JP2003125361A (en) 2001-10-12 2001-10-12 Information processing device, information processing method, information processing program, and information processing system

Country Status (1)

Country Link
JP (1) JP2003125361A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101521A (en) * 2004-09-28 2006-04-13 Ricoh Co Ltd Method, computer program, and data processing system for determining visual representation of input media object
WO2006114827A1 (en) * 2005-04-06 2006-11-02 Content Idea Of Asia Co., Ltd. Clear two-dimensional code, article having two-dimensional code, two-dimensional code printing method, and display method
CN100444606C (en) * 2005-07-11 2008-12-17 北京中星微电子有限公司 Data communication system and method of hand-held apparatus
JP2009516259A (en) * 2005-11-11 2009-04-16 株式会社カラージップメディア Video image code, apparatus and method for generating or decoding video image code
JP2009282734A (en) * 2008-05-22 2009-12-03 Sony Corp Upload apparatus, server device, upload system and upload method
US7876460B2 (en) 2004-10-15 2011-01-25 Kenji Yoshida Print structure, printing method and reading method for medium surface with print-formed dot pattern
JP2011135303A (en) * 2009-12-24 2011-07-07 Ntt Docomo Inc Moving picture creation system, and moving picture creation method
JP2011145850A (en) * 2010-01-14 2011-07-28 Yahoo Japan Corp Label display device, label display method and program for the same
CN1992894B (en) * 2005-12-28 2012-06-13 株式会社泛泰 Method of encoding moving picture in mobile terminal and mobile terminal for executing the method
JP2013123108A (en) * 2011-12-09 2013-06-20 Dowango:Kk Video transmission system, video transmission method and computer program
US8549400B2 (en) 2004-09-28 2013-10-01 Ricoh Company, Ltd. Techniques for encoding media objects to a static visual representation
JP2014021735A (en) * 2012-07-18 2014-02-03 Bandai Co Ltd Portable terminal device, terminal program, augment reality and clothing
WO2015186401A1 (en) * 2014-06-06 2015-12-10 株式会社ソニー・コンピュータエンタテインメント Image processing device, image processing method, and image processng program
JP2016163342A (en) * 2015-03-03 2016-09-05 芳隆 大吉 Method for distributing or broadcasting three-dimensional shape information
JP2017536018A (en) * 2015-05-11 2017-11-30 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Live interactive system, information transmission method, information reception method and apparatus
JP2019511756A (en) * 2016-03-03 2019-04-25 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Information interaction method, device and system
CN111327920A (en) * 2020-03-24 2020-06-23 上海万面智能科技有限公司 Live broadcast-based information interaction method and device, electronic equipment and readable storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082107A (en) * 1998-06-30 2000-03-21 Sony Corp Image processing device, method therefor and medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082107A (en) * 1998-06-30 2000-03-21 Sony Corp Image processing device, method therefor and medium

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
"【INTERVIEW】ソニー『VAIO PCG-C1』ってどんなモノ? 開発担当者に直撃", URL, JPN4007008090, 7 September 1998 (1998-09-07), ISSN: 0000847359 *
"【INTERVIEW】ソニー『VAIO PCG-C1』ってどんなモノ? 開発担当者に直撃", URL, JPNX007048395, 7 September 1998 (1998-09-07), ISSN: 0000891093 *
"PCG-C1VRX/K・C1VR/BP", ソニー株式会社発行のパンフレット, JPN4007008092, February 2001 (2001-02-01), ISSN: 0000847361 *
"PCG-C1VRX/K・C1VR/BP", ソニー株式会社発行のパンフレット, JPNX007048397, February 2001 (2001-02-01), ISSN: 0000891095 *
REKIMOTO,AYATSUKA: "Cybercode:Designing Augmented Reality Environments with Visual Tags, Designing Augmented Reality Env", PROC.OF DESIGNING AUGMENTED REALITY ENVIRONMENTS (DARE) 2000, JPN4007008091, 2000, ISSN: 0000847360 *
REKIMOTO,AYATSUKA: "Cybercode:Designing Augmented Reality Environments with Visual Tags, Designing Augmented Reality Env", PROC.OF DESIGNING AUGMENTED REALITY ENVIRONMENTS (DARE) 2000, JPNX007048396, 2000, ISSN: 0000891094 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101521A (en) * 2004-09-28 2006-04-13 Ricoh Co Ltd Method, computer program, and data processing system for determining visual representation of input media object
US8549400B2 (en) 2004-09-28 2013-10-01 Ricoh Company, Ltd. Techniques for encoding media objects to a static visual representation
US7876460B2 (en) 2004-10-15 2011-01-25 Kenji Yoshida Print structure, printing method and reading method for medium surface with print-formed dot pattern
US8023148B2 (en) 2004-10-15 2011-09-20 Kenji Yoshida Print structure, printing method and reading method for medium surface with print-formed dot pattern
WO2006114827A1 (en) * 2005-04-06 2006-11-02 Content Idea Of Asia Co., Ltd. Clear two-dimensional code, article having two-dimensional code, two-dimensional code printing method, and display method
JPWO2006114827A1 (en) * 2005-04-06 2008-12-11 コンテンツアイデアオブアジア株式会社 Transparent two-dimensional code, article with two-dimensional code, two-dimensional code printing method and display method
JP4607179B2 (en) * 2005-04-06 2011-01-05 コンテンツアイデアオブアジア株式会社 Transparent two-dimensional code, article with two-dimensional code, two-dimensional code printing method and display method
CN100444606C (en) * 2005-07-11 2008-12-17 北京中星微电子有限公司 Data communication system and method of hand-held apparatus
US8879859B2 (en) 2005-11-11 2014-11-04 Colorzip Media, Inc. Animated image code, apparatus for generating/decoding animated image code, and method thereof
JP2009516259A (en) * 2005-11-11 2009-04-16 株式会社カラージップメディア Video image code, apparatus and method for generating or decoding video image code
JP4848427B2 (en) * 2005-11-11 2011-12-28 株式会社カラージップメディア Video image code, apparatus and method for generating or decoding video image code
US8447122B2 (en) 2005-11-11 2013-05-21 Colorzip Media, Inc. Animated image code, apparatus for generating/decoding animated image code, and method thereof
CN1992894B (en) * 2005-12-28 2012-06-13 株式会社泛泰 Method of encoding moving picture in mobile terminal and mobile terminal for executing the method
JP4506876B2 (en) * 2008-05-22 2010-07-21 ソニー株式会社 Upload device, server device, upload system, and upload method
JP2009282734A (en) * 2008-05-22 2009-12-03 Sony Corp Upload apparatus, server device, upload system and upload method
JP2011135303A (en) * 2009-12-24 2011-07-07 Ntt Docomo Inc Moving picture creation system, and moving picture creation method
JP2011145850A (en) * 2010-01-14 2011-07-28 Yahoo Japan Corp Label display device, label display method and program for the same
JP2013123108A (en) * 2011-12-09 2013-06-20 Dowango:Kk Video transmission system, video transmission method and computer program
JP2014021735A (en) * 2012-07-18 2014-02-03 Bandai Co Ltd Portable terminal device, terminal program, augment reality and clothing
WO2015186401A1 (en) * 2014-06-06 2015-12-10 株式会社ソニー・コンピュータエンタテインメント Image processing device, image processing method, and image processng program
US10166477B2 (en) 2014-06-06 2019-01-01 Sony Interactive Entertainment Inc. Image processing device, image processing method, and image processing program
JP2016163342A (en) * 2015-03-03 2016-09-05 芳隆 大吉 Method for distributing or broadcasting three-dimensional shape information
JP2017536018A (en) * 2015-05-11 2017-11-30 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Live interactive system, information transmission method, information reception method and apparatus
US10341716B2 (en) 2015-05-11 2019-07-02 Tencent Technology (Shenzhen) Company Limited Live interaction system, information sending method, information receiving method and apparatus
JP2019511756A (en) * 2016-03-03 2019-04-25 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Information interaction method, device and system
CN111327920A (en) * 2020-03-24 2020-06-23 上海万面智能科技有限公司 Live broadcast-based information interaction method and device, electronic equipment and readable storage medium

Similar Documents

Publication Publication Date Title
JP2003125361A (en) Information processing device, information processing method, information processing program, and information processing system
CN112652038B (en) Method and device for generating dynamic image of commodity object and electronic equipment
CN113064684B (en) Virtual reality equipment and VR scene screen capturing method
CN103141079A (en) Image generation device, and image generation method
JP2000322602A (en) Device and method for processing image and medium
JP2013162487A (en) Image display apparatus and imaging apparatus
CN112417180B (en) Method, device, equipment and medium for generating album video
CN112581571A (en) Control method and device of virtual image model, electronic equipment and storage medium
CN113965773A (en) Live broadcast display method and device, storage medium and electronic equipment
JP5596844B2 (en) Image processing apparatus, image processing system, and image processing method
US7002584B2 (en) Video information producing device
CN103795915A (en) Image display apparatus which displays images and method therefor
JP2011128977A (en) Method and system for providing augmented reality
JP2004178036A (en) Device for presenting virtual space accompanied by remote person's picture
JP2009230635A (en) Image data generating device, image data generating method and image data generating program
JP7296735B2 (en) Image processing device, image processing method and program
WO2022111005A1 (en) Virtual reality (vr) device and vr scenario image recognition method
Wang et al. On the status quo and application of online virtual art exhibition technologies
CN114554112A (en) Video recording method, device, terminal and storage medium
JP7313847B2 (en) Photography system, photography device, management device and photography method
CN113890984B (en) Photographing method, image processing method and electronic equipment
JP2004173320A (en) Image providing apparatus
JP5058842B2 (en) Virtual landscape display device
JP5409852B2 (en) Virtual landscape display device and virtual landscape display method
JP6849851B2 (en) Shooting system, shooting device and user shooting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050517

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070501

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070831