JP2024118633A - Image processing device, image processing program, and image processing method - Google Patents
Image processing device, image processing program, and image processing method Download PDFInfo
- Publication number
- JP2024118633A JP2024118633A JP2023025019A JP2023025019A JP2024118633A JP 2024118633 A JP2024118633 A JP 2024118633A JP 2023025019 A JP2023025019 A JP 2023025019A JP 2023025019 A JP2023025019 A JP 2023025019A JP 2024118633 A JP2024118633 A JP 2024118633A
- Authority
- JP
- Japan
- Prior art keywords
- data
- telop
- gpu
- image processing
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 95
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000000034 method Methods 0.000 claims abstract description 56
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 26
- 230000005540 biological transmission Effects 0.000 claims abstract description 25
- 239000012634 fragment Substances 0.000 claims description 40
- 230000010365 information processing Effects 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 241000406668 Loxodonta cyclotis Species 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Landscapes
- Image Generation (AREA)
- Studio Circuits (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
【課題】GPU(Graphics Processing Unit)を使用したテロップ再生を実現する。【解決手段】CPU(Central Processing Unit)と、GPU(Graphics Processing Unit)と、GPUがアクセスする記憶部を備え、テロップデータを再生する画像処理装置であって、テロップデータは、テロップの各断片の表示位置を示す頂点データと、テロップの各断片に貼り付けられるテクスチャデータと、を含み、テロップ形成プログラムを記憶部に送信する第1送信処理と、テロップデータを記憶部に送信する第2送信処理と、コンテンツデータを再生するコンテンツ再生処理と、をCPUに実行させ、テロップ形成プログラムに基づき、コンテンツデータの再生に同期して、テロップデータに基づく表示を行うテロップ再生処理をGPUに実行させる。【選択図】図1[Problem] To realize telop playback using a GPU (Graphics Processing Unit). [Solution] An image processing device that includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a storage unit accessed by the GPU, and plays telop data, the telop data including vertex data indicating the display position of each segment of the telop and texture data to be attached to each segment of the telop, causes the CPU to execute a first transmission process for transmitting a telop formation program to the storage unit, a second transmission process for transmitting the telop data to the storage unit, and a content playback process for playing content data, and causes the GPU to execute a telop playback process for performing a display based on the telop data in synchronization with the playback of the content data, based on the telop formation program. [Selected Figure] Figure 1
Description
本発明は、画像処理装置、画像処理プログラム、及び、画像処理方法に関する。 The present invention relates to an image processing device, an image processing program, and an image processing method.
近年、各種情報処理装置の画像形成にGPU(Graphics Processing Unit)を積極的に使う開発手法が一般的となっている。GPUは、リアルタイム画像処理に特化した演算装置、あるいはプロセッサのことであり、並列的な演算処理を得意とし、CPU(Central Processing Unit)の数倍~100倍以上の演算速度を実現することができる。 In recent years, development techniques that actively use GPUs (Graphics Processing Units) for image formation in various information processing devices have become common. GPUs are calculation devices, or processors, that specialize in real-time image processing, and excel at parallel calculation processing, achieving calculation speeds several times to over 100 times faster than CPUs (Central Processing Units).
特許文献1には、一つの画面を映像表示領域(TVなどの映像)と、情報表示領域(病院でよく使われる待ち時間や呼び出し番号)と、テロップ表示領域(広告)とに分割する。テロップ表示領域は、テキスト広告のような静的な情報を表示する領域である。ラスタ形式に変換した画像を表示することで、GPUによる処理が容易にできるため、テロップがギクシャクすることなくスムーズに表示できることが記載されている。 Patent Document 1 describes how one screen is divided into a video display area (TV or other images), an information display area (waiting times and call numbers often used in hospitals), and a subtitle display area (advertisements). The subtitle display area is an area for displaying static information such as text advertisements. It describes how by displaying images converted into a raster format, processing by the GPU is easy, allowing the subtitles to be displayed smoothly without any jerks.
特許文献1に記載の発明では、テロップは、テロップ表示領域に表示することしかできず、自由なレイアウト、自由な表現でテロップを表示することはできない。 The invention described in Patent Document 1 only allows captions to be displayed in the caption display area, and does not allow captions to be displayed in a free layout or with free expression.
また、各種情報処理装置では、機能の追加、向上に伴い、CPUにおける処理負荷が大きくなっている。カラオケ装置等、テロップを扱う処理装置において、テロップに関する処理をCPUで行わせた場合、CPUでの処理資源が削減されることが考えられる。 In addition, in various information processing devices, the processing load on the CPU is increasing as functions are added and improved. In a processing device that handles subtitles, such as a karaoke device, if the subtitle processing is performed by the CPU, it is conceivable that the processing resources of the CPU will be reduced.
本発明は、このような状況を鑑みたものであり、テロップに関する画像処理をGPUで実行させることで、GPU処理を使用した多様なテロップ表現を可能とすることを1つの目的とするものである。また、テロップに関する画像処理を効率的に行い、CPUでの処理削減を図ることを1つの目的とするものである。 The present invention has been developed in consideration of these circumstances, and one of its objectives is to enable a variety of subtitle expressions using GPU processing by executing subtitle-related image processing on the GPU. Another objective is to efficiently perform subtitle-related image processing, thereby reducing the amount of processing on the CPU.
そのため、本発明に係る画像処理装置は以下の構成を採用するものである。
CPU(Central Processing Unit)と、GPU(Graphics Processing Unit)と、GPUがアクセスする記憶部を備え、テロップデータを再生する画像処理装置であって、
テロップデータは、
テロップの各断片の表示位置を示す頂点データと、
テロップの各断片に貼り付けられるテクスチャデータと、を含み、
テロップ形成プログラムを記憶部に送信する第1送信処理と、テロップデータを記憶部に送信する第2送信処理と、コンテンツデータを再生するコンテンツ再生処理と、をCPUに実行させ、
テロップ形成プログラムに基づき、コンテンツデータの再生に同期して、テロップデータに基づく表示を行うテロップ再生処理をGPUに実行させる。
For this reason, the image processing device according to the present invention employs the following configuration.
An image processing device that includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a storage unit accessed by the GPU, and that reproduces telop data,
The telop data is
vertex data indicating the display position of each fragment of the telop;
texture data to be attached to each fragment of the telop;
causing a CPU to execute a first transmission process of transmitting a telop formation program to a storage unit, a second transmission process of transmitting telop data to a storage unit, and a content reproduction process of reproducing content data;
Based on the telop formation program, the GPU is caused to execute a telop playback process for performing a display based on the telop data in synchronization with the playback of the content data.
さらに本発明に係る画像処理装置において、
テロップ形成プログラムは、頂点シェーダープログラムとピクセルシェーダープログラムを含む。
Further, in the image processing device according to the present invention,
The subtitle formation program includes a vertex shader program and a pixel shader program.
さらに本発明に係る画像処理装置において、
第1送信処理は、異なるテロップ形成プログラムを送信可能とする。
Further, in the image processing device according to the present invention,
The first transmission process enables different telop formation programs to be transmitted.
さらに本発明に係る画像処理装置において、
第1送信処理は、コンテンツ再生処理で再生するコンテンツデータに対応したテロップ形成プログラムを送信する。
Further, in the image processing device according to the present invention,
The first transmission process transmits a telop formation program corresponding to the content data to be reproduced in the content reproduction process.
さらに本発明に係る画像処理装置において、
第1送信処理は、ユーザにより選択されたテロップ形成プログラムを送信する。
Further, in the image processing device according to the present invention,
The first transmission process transmits a telop formation program selected by the user.
さらに本発明に係る画像処理装置において、
テロップデータは、GPUで取り扱われるデータ次元配列で構成され、少なくとも各断片のタイミングを規定した参照データを含む。
Further, in the image processing device according to the present invention,
The telop data is configured as a data dimensional array that is handled by the GPU, and includes at least reference data that defines the timing of each fragment.
さらに本発明に係る画像処理装置において、
CPUは、コンテンツデータの再生位置をGPUに送信する第3送信処理を実行し、
GPUは、CPUから送信される再生位置と、参照データで規定される各断片のタイミングに基づいて、テロップ再生処理を実行する。
Further, in the image processing device according to the present invention,
the CPU executes a third transmission process of transmitting a playback position of the content data to the GPU;
The GPU executes the telop playback process based on the playback position sent from the CPU and the timing of each fragment defined by the reference data.
さらに本発明に係る画像処理装置において、
参照データで規定されるタイミングは、各断片の開始時間と終了時間とを含む。
Further, in the image processing device according to the present invention,
The timings defined in the reference data include the start and end times of each segment.
また本発明に係る画像処理プログラムは、
CPU(Central Processing Unit)と、GPU(Graphics Processing Unit)と、GPUがアクセスする記憶部を備えた情報処理装置で実行される画像処理プログラムであって、
テロップデータは、
テロップの各断片の表示位置を示す頂点データと、
テロップの各断片に貼り付けられるテクスチャデータと、を含み、
テロップ形成プログラムを記憶部に送信する第1送信処理と、テロップデータを記憶部に送信する第2送信処理と、コンテンツデータを再生するコンテンツ再生処理と、をCPUに実行させ、
テロップ形成プログラムに基づき、コンテンツデータの再生に同期して、テロップデータに基づく表示を行うテロップ再生処理をGPUに実行させる。
The image processing program according to the present invention further comprises:
An image processing program executed on an information processing device including a central processing unit (CPU), a graphics processing unit (GPU), and a storage unit accessed by the GPU,
The telop data is
vertex data indicating the display position of each fragment of the telop;
texture data to be attached to each fragment of the telop;
causing a CPU to execute a first transmission process of transmitting a telop formation program to a storage unit, a second transmission process of transmitting telop data to a storage unit, and a content reproduction process of reproducing content data;
Based on the telop formation program, the GPU is caused to execute a telop playback process for performing a display based on the telop data in synchronization with the playback of the content data.
また本発明に係る画像処理方法は、
CPU(Central Processing Unit)と、GPU(Graphics Processing Unit)と、GPUがアクセスする記憶部を備えた情報処理装置で実行される画像処理方法であって、
テロップデータは、
テロップの各断片の表示位置を示す頂点データと、
テロップの各断片に貼り付けられるテクスチャデータと、を含み、
テロップ形成プログラムを記憶部に送信する第1送信処理と、テロップデータを記憶部に送信する第2送信処理と、コンテンツデータを再生するコンテンツ再生処理と、をCPUに実行させ、
テロップ形成プログラムに基づき、コンテンツデータの再生に同期して、テロップデータに基づく表示を行うテロップ再生処理をGPUに実行させる。
The image processing method according to the present invention further comprises the steps of:
An image processing method executed by an information processing device including a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a storage unit accessed by the GPU, comprising:
The telop data is
vertex data indicating the display position of each fragment of the telop;
texture data to be attached to each fragment of the telop;
causing a CPU to execute a first transmission process of transmitting a telop formation program to a storage unit, a second transmission process of transmitting telop data to a storage unit, and a content reproduction process of reproducing content data;
Based on the telop formation program, the GPU is caused to execute a telop playback process for performing a display based on the telop data in synchronization with the playback of the content data.
また本発明は、以下に記載する他の形態を採用することも可能である。
他の形態に係る画像形成装置は、
CPU(Central Processing Unit)と、GPU(Graphics Processing Unit)と、GPUがアクセスする記憶部を備え、テロップデータを再生する画像処理装置であって、
テロップデータは、
テロップの各断片の表示位置を示す頂点データと、
テロップの各断片に貼り付けられるテクスチャデータと、
GPUで取り扱われるデータ次元配列で構成され、少なくとも各断片のタイミングを規定した参照データを含み、
CPUは、
テロップデータを記憶部に送信する送信処理と、
コンテンツデータを再生するコンテンツ再生処理と、を実行し、
GPUは、
テロップデータに基づきテロップを再生するテロップ再生処理を実行し、
テロップ再生処理は、参照データで規定されるタイミング、コンテンツ再生処理に同期して行われる。
The present invention may also adopt other forms that will be described below.
According to another embodiment, an image forming apparatus includes:
An image processing device that includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a storage unit accessed by the GPU, and that reproduces telop data,
The telop data is
vertex data indicating the display position of each fragment of the telop;
The texture data to be attached to each subtitle fragment,
The data is composed of a data dimensional array that is handled by the GPU, and includes at least reference data that defines the timing of each fragment;
The CPU is
a transmission process for transmitting the telop data to a storage unit;
A content reproduction process for reproducing the content data is executed;
The GPU is
execute a telop reproduction process for reproducing a telop based on the telop data;
The telop playback process is performed in synchronization with the content playback process at a timing defined by the reference data.
さらに他の形態に係る画像処理装置において、
CPUは、コンテンツデータに対応するテロップ元データから、テクスチャデータ中の頂点データ、テクスチャデータ、参照データの少なくとも1つを生成する。
In still another embodiment of the image processing device,
The CPU generates at least one of vertex data, texture data, and reference data in the texture data from the telop source data corresponding to the content data.
さらに他の形態に係る画像処理装置において、
参照データで規定される各断片のタイミングは、各断片の開始時間と終了時間とを含む。
In still another embodiment of the image processing device,
The timing of each segment defined in the reference data includes the start and end times of each segment.
さらに他の形態に係る画像処理装置において、
参照データで規定される各断片のタイミングは、さらに、前の断片の終了時間と、次の断片の開始時間を含む。
In still another embodiment of the image processing device,
The timing of each segment defined in the reference data further includes the end time of the previous segment and the start time of the next segment.
さらに他の形態に係る画像処理装置において、
参照データは、複数の断片を含んで構成された断片集合体のタイミングを規定する。
In still another embodiment of the image processing device,
The reference data defines the timing of a fragment collection that includes multiple fragments.
さらに他の形態に係る画像処理装置において、
参照データで規定される断片集合体のタイミングは、断片集合体の開始時間と終了時間とを含む。
In still another embodiment of the image processing device,
The timing of a fragment collection defined in the reference data includes a start time and an end time of the fragment collection.
さらに他の形態に係る画像処理装置において、
参照データは、各断片の位置情報を含み、
テロップ再生処理は、参照データで規定される位置情報に基づいて、テロップを再生する。
In still another embodiment of the image processing device,
The reference data includes position information for each fragment,
The telop playback process plays back the telop based on the position information defined by the reference data.
さらに他の形態に係る画像処理装置において、
参照データで規定される各断片の位置情報は、各断片の平面上の範囲を示す矩形情報を含む。
In still another embodiment of the image processing device,
The position information of each fragment defined by the reference data includes rectangular information indicating the planar extent of each fragment.
さらに他の形態に係る画像処理装置において、
参照データは、複数の断片を含んで構成された断片集合体の位置情報を規定する。
In still another embodiment of the image processing device,
The reference data defines position information of a fragment collection that includes a plurality of fragments.
さらに他の形態に係る画像処理装置において、
参照データで規定される断片集合体の位置情報は、断片集合体の平面上の範囲を示す矩形情報を含む。
In still another embodiment of the image processing device,
The position information of the fragment collection defined by the reference data includes rectangular information indicating the planar extent of the fragment collection.
また他の形態に係る画像処理プログラムは、
CPU(Central Processing Unit)と、GPU(Graphics Processing Unit)と、GPUがアクセスする記憶部を備えた情報処理装置で実行される画像処理プログラムであって、
テロップデータは、
テロップの各断片の表示位置を示す頂点データと、
テロップの各断片に貼り付けられるテクスチャデータと、
GPUで取り扱われるデータ次元配列で構成され、少なくとも各断片のタイミングを規定した参照データを含み、
テロップデータを記憶部に送信する送信処理と、コンテンツデータを再生するコンテンツ再生処理と、CPUに実行させ、
テロップデータに基づきテロップを再生するテロップ再生処理をGPUに実行させ、
テロップ再生処理は、参照データで規定されるタイミングに基づいて、コンテンツ再生処理に同期して行われる。
Further, an image processing program according to another embodiment includes:
An image processing program executed on an information processing device including a central processing unit (CPU), a graphics processing unit (GPU), and a storage unit accessed by the GPU,
The telop data is
vertex data indicating the display position of each fragment of the telop;
The texture data to be attached to each subtitle fragment,
The data is composed of a data dimensional array that is handled by the GPU, and includes at least reference data that defines the timing of each fragment;
causing a CPU to execute a transmission process of transmitting telop data to a storage unit and a content reproduction process of reproducing content data;
causing the GPU to execute a telop reproduction process for reproducing a telop based on the telop data;
The telop playback process is performed in synchronization with the content playback process, based on the timing defined by the reference data.
また他の形態に係る画像処理方法は、
CPU(Central Processing Unit)と、GPU(Graphics Processing Unit)と、GPUがアクセスする記憶部を備えた情報処理装置で実行される画像処理方法であって、
テロップデータは、
テロップの各断片の表示位置を示す頂点データと、
テロップの各断片に貼り付けられるテクスチャデータと、
GPUで取り扱われるデータ次元配列で構成され、少なくとも各断片のタイミングを規定した参照データを含み、
テロップデータを記憶部に送信する送信処理と、コンテンツデータを再生するコンテンツ再生処理と、CPUに実行させ、
テロップデータに基づきテロップを再生するテロップ再生処理をGPUに実行させ、
テロップ再生処理は参照データで規定されるタイミング、コンテンツ再生処理に同期して行われる。
In addition, an image processing method according to another embodiment includes the steps of:
An image processing method executed by an information processing device including a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a storage unit accessed by the GPU, comprising:
The telop data is
vertex data indicating the display position of each fragment of the telop;
The texture data to be attached to each subtitle fragment,
The data is composed of a data dimensional array that is handled by the GPU, and includes at least reference data that defines the timing of each fragment;
causing a CPU to execute a transmission process of transmitting telop data to a storage unit and a content reproduction process of reproducing content data;
causing the GPU to execute a telop reproduction process for reproducing a telop based on the telop data;
The telop playback process is performed in synchronization with the content playback process at a timing defined by the reference data.
本発明によれば、GPU処理を使用した多様なテロップ表現を容易に行うことが可能となる。また、テロップに関する画像処理をGPUで行わせることが可能となり、CPUでの処理削減を図ることが可能となる。 According to the present invention, it is possible to easily express various types of subtitles using GPU processing. In addition, it is possible to have the GPU perform image processing related to subtitles, which makes it possible to reduce processing by the CPU.
図1は、本実施形態のカラオケシステムの構成を示す図である。本実施形態におけるカラオケシステムは、カラオケ装置2(コマンダと呼ぶこともある)と、リモコン装置1とを含んで構成されている。本実施形態では、カラオケ装置2、リモコン装置1は、有線あるいは無線にてLAN100に通信接続され、ネットワークを形成している。 Figure 1 shows the configuration of the karaoke system of this embodiment. The karaoke system of this embodiment includes a karaoke device 2 (sometimes called a commander) and a remote control device 1. In this embodiment, the karaoke device 2 and the remote control device 1 are communicatively connected to a LAN 100 by wire or wirelessly to form a network.
カラオケボックス等の店舗に設置されるカラオケ装置2は、楽曲(伴奏)を再生する音響制御部25を備えている。本実施形態の音響制御部25は、各マイクロホン43a、43bから入力される音声信号に対し、エコー等の効果を付与すると共に、楽曲情報に基づく再生信号を加算して、スピーカー42に出力する。なお、図1では、スピーカー42は、便宜上、1個で記載しているが、複数のスピーカー42とし、ステレオ出力あるいはサラウンド出力とする等、各種形態を採用することが可能である。 The karaoke device 2 installed in a store such as a karaoke booth is equipped with an audio control unit 25 that plays music (accompaniment). The audio control unit 25 of this embodiment applies effects such as echo to the audio signals input from each microphone 43a, 43b, adds a playback signal based on music information, and outputs the result to the speaker 42. Note that, for convenience, one speaker 42 is shown in FIG. 1, but it is possible to adopt various forms such as multiple speakers 42 and stereo or surround output.
本実施形態のカラオケ装置2は、インターフェイス22a~22dを介して各種デバイスを接続することで構成されている。なお、図1では、4つのインターフェイス22a~22dを使用しているが、インターフェイス22a~22dの形態は、例えば、1つにする、デバイス毎に設ける等、各種形態を採用することが可能である。 The karaoke device 2 of this embodiment is configured by connecting various devices via interfaces 22a to 22d. Note that while four interfaces 22a to 22d are used in FIG. 1, the interfaces 22a to 22d can take various forms, such as combining them into one, providing one for each device, etc.
カラオケ装置2は、ユーザからの各種入力を受け付ける操作部21を備える。また、カラオケ装置2は、各種情報を記憶する記憶部としてのハードディスク32を備える。カラオケ装置2は、LAN100に接続してネットワークに加入する通信手段としてのLAN通信部24aを備えている。また、本実施形態のカラオケ装置2は、無線LAN通信部24bも備えており、LAN通信部24aを使用した有線によるネットワーク接続に代え、無線LAN通信部24bを使用した無線によるネットワーク接続を行うことも可能である。 The karaoke device 2 includes an operation unit 21 that accepts various inputs from the user. The karaoke device 2 also includes a hard disk 32 that serves as a storage unit for storing various information. The karaoke device 2 also includes a LAN communication unit 24a that serves as a communication means for connecting to the LAN 100 and joining the network. The karaoke device 2 of this embodiment also includes a wireless LAN communication unit 24b, and instead of a wired network connection using the LAN communication unit 24a, it is also possible to establish a wireless network connection using the wireless LAN communication unit 24b.
また、カラオケ装置2は、モニタ41に対して歌詞映像、及び背景映像等を表示させる映像再生部を備える。映像再生部は、各種情報に基づいて映像を形成するGPU29(Graphics Processing Unit)と、映像形成のために必要な情報を蓄積するRAM28(本発明に係る「GPUがアクセスする記憶部」に相当)と、再生された映像をモニタ41、タッチパネルモニタ33に出力する映像出力部31を備えて構成される。これら映像再生部は、1つのデバイスとして構成されたビデオカードとして提供されるものであってもよい。なお、GPU33とRAM28の間には、データを一時的に蓄積するキャッシュを設けることとしてもよい。このキャッシュも、本発明に係る「GPUがアクセスする記憶部」に相当するものである。 The karaoke device 2 also includes a video playback unit that displays lyrics video, background video, and the like on the monitor 41. The video playback unit includes a GPU 29 (Graphics Processing Unit) that forms video based on various information, a RAM 28 (corresponding to the "storage unit accessed by the GPU" according to the present invention) that stores information required for video formation, and a video output unit 31 that outputs the played video to the monitor 41 and the touch panel monitor 33. These video playback units may be provided as a video card configured as a single device. Note that a cache that temporarily stores data may be provided between the GPU 33 and the RAM 28. This cache also corresponds to the "storage unit accessed by the GPU" according to the present invention.
さらに、このカラオケ装置2では、外部に接続されるモニタ41以外に、タッチパネルモニタ33に対して各種情報を表示することを可能としている。タッチパネルモニタ33は、映像出力部31から入力された映像を表示する表示部35と、タッチ入力された位置をインターフェイス22bに出力するタッチパネル34とで構成されている。本実施形態のタッチパネルモニタ33は、カラオケ装置2の筐体前面等に配置され、ユーザからの各種操作を受け付ける入力部として機能する。ユーザは、タッチパネルモニタ33にて楽曲を選択することで、直接カラオケ装置2に楽曲を予約する等、カラオケ装置2に対する各種操作を行うことが可能である。 Furthermore, in this karaoke device 2, in addition to the externally connected monitor 41, it is possible to display various information on the touch panel monitor 33. The touch panel monitor 33 is composed of a display unit 35 that displays the video input from the video output unit 31, and a touch panel 34 that outputs the touch input position to the interface 22b. The touch panel monitor 33 in this embodiment is disposed on the front of the housing of the karaoke device 2, and functions as an input unit that accepts various operations from the user. By selecting a song on the touch panel monitor 33, the user can perform various operations on the karaoke device 2, such as directly reserving a song on the karaoke device 2.
さらに、カラオケ装置2は、各構成を統括して制御するためのCPU30(Central Processing Unit)と、各種プログラムを実行するにあたって必要となる情報を一時記憶するためのメモリ27とを含んだ制御部を備えて構成されている。 The karaoke device 2 further includes a control unit including a CPU 30 (Central Processing Unit) for controlling each component, and a memory 27 for temporarily storing information required to execute various programs.
このような構成にてカラオケ装置2は、各種処理を実行することとなるが、カラオケ装置2の主な機能として、楽曲予約処理、及び再生処理等を実行可能としている。楽曲予約処理は、ユーザからの指定に基づいて楽曲を指定して予約するための処理であって、リモコン装置1と連携して実行される。リモコン装置1の選曲処理で形成された予約情報は、カラオケ装置2に送信される。カラオケ装置2は、受信した予約情報をメモリ27中の予約テーブルに登録する。再生処理は、予約された楽曲を再生させる処理であって、演奏処理、歌詞表示処理、及び動画再生処理が同期して実行される処理である。 With this configuration, the karaoke device 2 executes various processes, but its main functions include song reservation and playback processes. The song reservation process is a process for specifying and reserving a song based on a user's specification, and is executed in cooperation with the remote control device 1. Reservation information formed by the song selection process of the remote control device 1 is sent to the karaoke device 2. The karaoke device 2 registers the received reservation information in a reservation table in the memory 27. The playback process is a process for playing back a reserved song, and is a process in which performance processing, lyric display processing, and video playback processing are executed synchronously.
演奏処理は、楽曲データに含まれる演奏データに基づき、音響制御部25に演奏を実行させる処理である。音響制御部25で演奏された楽曲は、マイクロホン43a、43bから入力される音声信号とミキシングされスピーカー42から放音される。歌詞表示処理は、楽曲データに含まれる歌詞データに基づく歌詞映像(テロップ)を、モニタ41に表示させることで歌唱補助を行う処理である。この歌詞表示処理で表示される歌詞映像に、背景映像を重畳させて表示させる背景映像表示処理を実行することとしてもよい。 The performance process is a process that causes the audio control unit 25 to perform a performance based on the performance data included in the music data. The music played by the audio control unit 25 is mixed with audio signals input from the microphones 43a and 43b and is output from the speaker 42. The lyrics display process is a process that provides singing assistance by displaying a lyrics video (caption) based on the lyrics data included in the music data on the monitor 41. A background video display process may also be executed to superimpose a background video on the lyrics video displayed in this lyrics display process.
一方、リモコン装置1は、ユーザからの指示に基づいて楽曲を検索し、再生指示のあった楽曲について予約情報をカラオケ装置2に送信する選曲処理を実行可能としている。また、リモコン装置1は、カラオケ装置2あるいはインターネット上に接続されたサーバー装置5から各種情報を受信し、各種処理を実行することが可能である。本実施形態では、ユーザから各種指示を受け付けるユーザインターフェイスとして、操作部17と、タッチパネルモニタ11とを備えている。タッチパネルモニタ11は、表示部11aとタッチパネル11bとを有して構成され、表示部11aに各種情報を表示するとともに、ユーザからのタッチ入力を受付可能としている。 The remote control device 1, on the other hand, is capable of performing a song selection process that searches for songs based on instructions from the user and transmits reservation information for the song instructed to be played to the karaoke device 2. The remote control device 1 is also capable of receiving various information from the karaoke device 2 or a server device 5 connected to the Internet and performing various processes. In this embodiment, the remote control device 1 is equipped with an operation unit 17 and a touch panel monitor 11 as a user interface that receives various instructions from the user. The touch panel monitor 11 is configured with a display unit 11a and a touch panel 11b, and is capable of displaying various information on the display unit 11a and receiving touch input from the user.
さらにリモコン装置1は、選曲処理に必要とされるデータベース、各種プログラム、並びに、プログラム実行に伴って発生する各種情報を記憶する記憶部として、メモリ14、そして、これら構成を統括して制御するためのリモコン側制御部を備えて構成される。リモコン側制御部には、CPU15、タッチパネルモニタ11に対して表示する映像を形成する映像制御部13、表示する映像の映像データを一時的に蓄えるビデオRAM12、及びタッチパネルモニタ11あるいは操作部17からの入力を解釈してCPU15に伝える操作処理部18が含まれている。 The remote control device 1 further comprises a memory 14 as a storage unit for storing the database required for the music selection process, various programs, and various information generated by program execution, and a remote control control unit for controlling these components in an integrated manner. The remote control control unit includes a CPU 15, an image control unit 13 that forms images to be displayed on the touch panel monitor 11, a video RAM 12 that temporarily stores image data for the images to be displayed, and an operation processing unit 18 that interprets input from the touch panel monitor 11 or the operation unit 17 and transmits the input to the CPU 15.
リモコン装置1は、無線LAN通信部16によって、アクセスポイント130と無線接続されることで、LAN100によって構成されるネットワークに接続される。なお、各リモコン装置1は、特定のカラオケ装置2に対して事前に対応付けされている。リモコン装置1から出力される各種命令は、対応付けされたカラオケ装置2にて受信されることとなる。 The remote control device 1 is connected to the network formed by the LAN 100 by wirelessly connecting to the access point 130 via the wireless LAN communication unit 16. Each remote control device 1 is pre-associated with a specific karaoke device 2. Various commands output from the remote control device 1 are received by the associated karaoke device 2.
このようなリモコン装置1の構成により、ユーザからの各種入力をタッチパネルモニタ11、あるいは、操作部17から受付けるとともに、タッチパネルモニタ11の表示により各種情報を提供することで、カラオケ装置2に対して出力する予約情報を送信する選曲処理等、各種処理を行うことが可能となっている。 The remote control device 1 is configured in this way to accept various inputs from the user via the touch panel monitor 11 or the operation unit 17, and by providing various information through the display on the touch panel monitor 11, it is possible to perform various processes, such as song selection processing that transmits reservation information to be output to the karaoke device 2.
図2は、本実施形態に係る再生処理を示すフロー図である。再生処理は、CPU30によって実行される。リモコン装置1、あるいは、カラオケ装置2の操作部21を使用して楽曲が予約された場合、予約された楽曲を示す楽曲IDは、メモリ27で管理する予約テーブルに登録される。再生処理では、この予約テーブルをチェック(S101)し、次に再生する楽曲の有無を確認する。 Figure 2 is a flow diagram showing the playback process according to this embodiment. The playback process is executed by the CPU 30. When a song is reserved using the remote control device 1 or the operation unit 21 of the karaoke device 2, the song ID indicating the reserved song is registered in a reservation table managed in the memory 27. In the playback process, this reservation table is checked (S101) to see whether there is a song to be played next.
次に再生する楽曲がある場合、当該楽曲に対応する楽曲データが読み出される(S103)。楽曲データは、カラオケ装置2に予め記憶されたものであってもよいし、サーバー装置5等から配信されることで取得されてもよい。本実施形態の楽曲データは、演奏データと歌詞データ(本発明に係る「テロップ元データ」に相当)を含んで構成されている。演奏データは、音響制御部25において再生(演奏)されるデータである。また、歌詞データは、歌唱の補助を行うため、演奏に同期してモニタ41に表示するためのデータである。 If there is a song to be played next, song data corresponding to that song is read (S103). The song data may be pre-stored in the karaoke device 2, or may be obtained by being distributed from the server device 5 or the like. In this embodiment, the song data includes performance data and lyric data (corresponding to the "subtitle source data" of the present invention). The performance data is data that is played (performed) by the audio control unit 25. The lyric data is data that is displayed on the monitor 41 in synchronization with the performance to assist singing.
本実施形態では、演奏データに基づく演奏を実行する前に、歌詞データに基づき、テロップデータが作成される(S104)。テロップデータは、GPU29を使用してテロップ表示を行うためのデータである。なお、本実施形態では、歌詞データからテロップデータを作成しているが、このような形態に代え、予め、楽曲データにはテロップデータを含めておくこととしてもよい。 In this embodiment, before a performance based on the performance data is executed, caption data is created based on the lyrics data (S104). The caption data is data for displaying captions using the GPU 29. Note that in this embodiment, the caption data is created from the lyrics data, but instead of this form, the caption data may be included in the music data in advance.
本実施形態の歌詞データは、テキストデータで構成されており、空白、改行、空行を含んで構成されている。また、各文字等の適宜単位で、表示開始時間、消去時間、歌唱位置を示すタイミングデータが規定されている。従来、カラオケ装置2に搭載されるCPU30は、このような歌詞データを使用することで、モニタ41に歌詞表示を行っていた。 The lyric data in this embodiment is composed of text data, and is composed of spaces, line breaks, and blank lines. In addition, timing data indicating the display start time, erasure time, and singing position are specified for each appropriate unit such as each character. Conventionally, the CPU 30 mounted on the karaoke device 2 has used such lyric data to display lyrics on the monitor 41.
しかしながら、カラオケ装置2では、機能の増加等に伴い、CPU30における処理負荷も大きくなっている。このような状況において、歌詞データの表示に関する処理は、CPU30の処理負荷の一因となっている。また、新たな歌詞の表現をCPU30で行わせることは、CPU30での大幅な処理負荷となることが考えられる。 However, with the karaoke device 2, the processing load on the CPU 30 is also increasing as the number of functions increases. In this situation, processing related to displaying lyric data is one cause of the processing load on the CPU 30. Furthermore, having the CPU 30 express new lyrics is likely to result in a significant processing load on the CPU 30.
そのため、本実施形態では、従来、歌詞表示に使用していた歌詞データを、GPU29で取り扱うことが容易なテロップデータに変換し、GPU29を使用して歌詞表示を行うこととしている。CPU30は、歌詞データに基づき、テロップデータを形成する。 Therefore, in this embodiment, the lyrics data that was previously used to display lyrics is converted into telop data that can be easily handled by the GPU 29, and the lyrics are displayed using the GPU 29. The CPU 30 creates the telop data based on the lyrics data.
ここで、本実施形態のテロップデータは、(1)テクスチャデータ、(2)頂点データ、(3)参照データを含んで構成されている。以下にこれらデータについて説明する。 The telop data in this embodiment is composed of (1) texture data, (2) vertex data, and (3) reference data. These data are explained below.
なお、実施形態では、文字を最小単位としているが、最小単位は、複数文字、あるいは、文字の一部分とする等、各種形態を採用することが可能である。本発明においては、前述の実施形態で使用した「文字」のような最小単位を「断片」と称し、「フレーズ」、「ライン」、「チャプター」のような「断片」の集合を「断片集合体」と称することとしている。 In the embodiment, the smallest unit is a character, but the smallest unit can take various forms, such as multiple characters or a portion of a character. In the present invention, a smallest unit such as a "character" used in the above embodiment is called a "fragment," and a collection of "fragments" such as a "phrase," "line," or "chapter" is called a "fragment collection."
(1)テクスチャデータ
図3は、テクスチャデータの形成を説明するための図である。この例は、図4に示される童謡「ぞうさん」の歌詞を例に取ったものである。まず、歌詞情報を形成するテキストデータから文字の重複が排除される。次に、フォントデータ等を用い、重複が排除された文字がラスタライズ化(ビットマップ化)され、1枚の画像データが形成される。
(1) Texture Data Fig. 3 is a diagram for explaining the formation of texture data. This example takes the lyrics of the nursery rhyme "Elephant" shown in Fig. 4 as an example. First, overlapping characters are removed from the text data forming the lyrics information. Next, using font data or the like, the characters from which overlapping has been removed are rasterized (bitmapped) to form a single piece of image data.
(2)頂点データ
頂点データは、3次元モデル上の各頂点に関するデータの配列である。言い換えると、複数のポリゴンを形成する各頂点に関するデータの配列である。実施形態では、文字1つに対してポリゴンを1つ割り当てる。なお、文字の一部分や、複数文字に対してポリゴンを1つ割り当てても良い。頂点に関するデータはそれぞれ、3次元座標、テクスチャ座標、インデックスデータを含む。
(2) Vertex Data Vertex data is an array of data related to each vertex on a three-dimensional model. In other words, it is an array of data related to each vertex that forms a plurality of polygons. In this embodiment, one polygon is assigned to one character. Note that one polygon may be assigned to a portion of a character or to multiple characters. The data related to each vertex includes three-dimensional coordinates, texture coordinates, and index data.
(2-1)3次元座標
3次元座標は、3次元空間に配置されるポリゴンの位置を規定したデータである。図4は、童謡「ぞうさん」の歌詞を3次元空間に配置した例を示したものである。3次元座標は、歌詞を3次元空間に配置した際、歌詞を構成する各文字に対応する各ポリゴンの頂点それぞれについて、その位置、即ち座標を示したものである。なお、図中、ポリゴン内に示される文字は、理解を行いやすくするために付したものであり、実際には、ポリゴンにテクスチャデータから切り出された画像データが貼られることで、文字が可視化される。
(2-1) Three-dimensional coordinates Three-dimensional coordinates are data that define the position of polygons that are placed in three-dimensional space. FIG. 4 shows an example of the lyrics of the nursery rhyme "Elephant" placed in three-dimensional space. The three-dimensional coordinates indicate the position, i.e., the coordinates, of each vertex of each polygon that corresponds to each character that makes up the lyrics when the lyrics are placed in three-dimensional space. Note that the characters shown within the polygons in the figure are added for ease of understanding, and in reality, the characters are visualized by pasting image data cut out from texture data onto the polygons.
(2-2)テクスチャ座標
テクスチャ座標は、テクスチャデータ中の、各ポリゴンに貼り付ける部分の位置を規定したデータである。言い換えると、テクスチャ座標は、テクスチャデータ中の、各ポリゴンの頂点それぞれに対応する位置、即ち座標を示したものである。テクスチャ座標を参照することで、テクスチャデータから必要な文字の画像データを取り出すことが可能となる。即ち、各ポリゴンに対して、テクスチャデータから必要な文字の画像データを取り出して貼り付けることができる。
(2-2) Texture Coordinates Texture coordinates are data that define the position of the portion of the texture data to be applied to each polygon. In other words, texture coordinates indicate the positions, or coordinates, that correspond to the vertices of each polygon in the texture data. By referencing the texture coordinates, it is possible to extract the necessary character image data from the texture data. In other words, it is possible to extract the necessary character image data from the texture data and apply it to each polygon.
(2-3)インデックスデータ
インデックスデータは、ポリゴンを形成する各頂点に対して割り当てられる情報である。図5(A)は、インデックスデータを説明するための図である。本実施形態では、歌詞は、1文字単位の「文字」、1文字以上で形成された「フレーズ」、1フレーズ以上で形成された「ライン」、1行以上のラインで形成された「チャプター」の情報が割り当てられている。
(2-3) Index Data Index data is information assigned to each vertex forming a polygon. Fig. 5(A) is a diagram for explaining index data. In this embodiment, lyrics are assigned information on "characters" consisting of one character, "phrases" consisting of one or more characters, "lines" consisting of one or more phrases, and "chapters" consisting of one or more lines.
本実施形態の歌詞データは、前述したように、空白、改行、空行を含んだテキストデータで構成されている。歌詞データからインデックスデータを作成する場合、例えば、空白までの1まとまりを「フレーズ」、改行までの1まとまりを「ライン」、空行までの1まとまりを「チャプター」として判断される。このような形態のみならず、歌詞データに「フレーズ」、「ライン」、「チャプター」をタグ付けしておく等、各種形態を採用することが可能である。 As mentioned above, the lyrics data in this embodiment is composed of text data that includes spaces, line breaks, and blank lines. When creating index data from lyrics data, for example, a block of text up to a space is determined as a "phrase," a block of text up to a line break is determined as a "line," and a block of text up to a blank line is determined as a "chapter." In addition to this format, various other formats can be adopted, such as tagging lyrics data with "phrases," "lines," and "chapters."
図5(B)は、ポリゴンの各頂点に割当れられたインデックスデータを説明するための図である。図5(B)は、図5(A)中の最初の2フレーズ「ぞうさん ぞうさん」を例に取って説明したものである。本実施形態では、文字、フレーズ、ライン、チャプターについて、「0」を初期値としている。 Figure 5(B) is a diagram for explaining the index data assigned to each vertex of a polygon. Figure 5(B) explains the example of the first two phrases in Figure 5(A), "Zou-san Zou-san." In this embodiment, the initial value for characters, phrases, lines, and chapters is "0."
最初の文字(0文字目)にあたる「ぞ」については、左上、左下の各頂点に対して、インデックスデータ(0,0,0,0)が割り当てられている。このインデックスデータ、0文字目、0フレーズ目,0ライン目,0チャプター目であることを示している。また、最初の文字(0文字目)「ぞ」の右上、右下の各頂点には、インデックスデータ(0.99,0,0,0,0)が割り当てられる。文字について「0.99」という値を割り当てたのは、次の文字(1文字目)に1を割り当てるため、それより小さい値を使用したものである。 For the first character (0th character), "zo", index data (0,0,0,0) is assigned to the top left and bottom left vertices. This index data indicates that it is the 0th character, 0th phrase, 0th line, and 0th chapter. Additionally, index data (0.99,0,0,0,0) is assigned to the top right and bottom right vertices of the first character (0th character), "zo". The value "0.99" is assigned to the character because a smaller value is used in order to assign 1 to the next character (first character).
次の文字(1文字目)にあたる「う」については、左上、左下の各頂点に対して、インデックスデータ(1,0,0,0)が割り当てられている。そして、「う」の右上、右下の各頂点には、インデックスデータ(1.99,0,0,0,0)が割り当てられている。2文字目の「さ」、3文字目の「ん」についても同様の規則で、各頂点に対してインデックスデータが割り当てられる。 For the next character (first character), "u", index data (1,0,0,0) is assigned to the top left and bottom left vertices. Index data (1.99,0,0,0,0) is assigned to the top right and bottom right vertices of "u". Index data is assigned to the vertices of the second character, "sa", and the third character, "n", using the same rules.
次のフレーズ(1フレーズ目)について、4文字目の「ぞ」については、左上、左下の各頂点に対して、インデックスデータ(4,1,0,0)が割り当てられている。このインデックスデータ、4文字目、1フレーズ目,0ライン目,0チャプター目であることを示している。また、そして「う」の右上、右下の各頂点には、インデックスデータ(4.99,1,0,0,0)が割り当てられている。5文字目の「う」、6文字目の「さ」、7文字目の「ん」についても同様の規則で、各頂点に対してインデックスデータが割り当てられる。 In the next phrase (first phrase), for the fourth character "zo", index data (4,1,0,0) is assigned to the top left and bottom left vertices. This index data indicates that it is the fourth character, first phrase, 0th line, and 0th chapter. Furthermore, index data (4.99,1,0,0,0) is assigned to the top right and bottom right vertices of "u". Index data is assigned to the vertices of the fifth character "u", the sixth character "sa", and the seventh character "n" using the same rule.
このようにポリゴンの各頂点にインデックスデータを割り当てることで、文字、フレーズ、ライン、チャプター単位でのテロップ制御を容易に行うことが可能となっている。また、インデックスデータは、GPUで取り扱われるデータと同様、4次元配列のデータ構成(文字、フレーズ、ライン、チャプター)となっているため、GPUの並列処理において、効率的に処理を行うことが可能となっている。 By assigning index data to each vertex of a polygon in this way, it is possible to easily control subtitles by character, phrase, line, or chapter. Also, because the index data is a four-dimensional array (characters, phrases, lines, chapters) just like the data handled by the GPU, it can be processed efficiently in parallel on the GPU.
(3)参照データ
参照データは、歌詞を形成する文字、フレーズ、ライン、チャプターについて、各種情報を規定したデータである。図6は、本実施形態の参照データを説明する図である。図6に示されるように、参照データは、文字T、フレーズP、ラインL、チャプターC毎に情報を有する。
(3) Reference Data Reference data is data that specifies various information about the characters, phrases, lines, and chapters that form lyrics. Fig. 6 is a diagram for explaining the reference data of this embodiment. As shown in Fig. 6, the reference data has information for each character T, phrase P, line L, and chapter C.
0番目の文字(図5(A)の歌詞の例では「ぞ」の文字)については、インデックスデータ、文字の位置・大きさを示す矩形情報(「位置情報」に相当)、文字の時間範囲が含まれている。インデックスデータは、図5(B)で説明した情報であって、この0番目の文字については、(0,0,0,0)となる。 For the 0th character (the character "zo" in the lyrics example in Figure 5(A)), index data, rectangular information indicating the position and size of the character (corresponding to "position information"), and the time range of the character are included. The index data is the information explained in Figure 5(B), and for this 0th character, it is (0,0,0,0).
文字の位置・大きさを示す矩形情報は、図4で説明した頂点データと同様の情報であって、0番目の文字の場合、「ぞ」を構成するポリゴンの位置・大きさを示す情報である。GPUでは、各頂点データのそれぞれに対する処理が行われる際に、他の頂点データの情報を参照することができない。そのため、参照データに文字の位置・大きさを示す矩形情報を含めることで、各頂点データのそれぞれに対する処理が行われる際に、参照データを参照することで、当該頂点データが属する文字や他の文字の制御位置を参照することが可能となっている。 The rectangular information indicating the position and size of the character is the same information as the vertex data described in Figure 4, and in the case of the 0th character, it is information indicating the position and size of the polygons that make up "zo." When processing each piece of vertex data, the GPU cannot refer to information on other vertex data. Therefore, by including rectangular information indicating the position and size of the character in the reference data, it becomes possible to refer to the control position of the character to which the vertex data belongs or other characters by referring to the reference data when processing each piece of vertex data.
文字の時間範囲は、タイミングを示す情報である。本実施形態では、文字の時間範囲として(Sn-1_end,Sn_start,Sn_end,Sn+1_start)を割り当てている。Sn-1_endは、前の文字Sn-1の終了タイミング、Sn_startは、当該文字Snの開始タイミング、Sn_endは当該文字Snの終了タイミング,Sn+1_startは後の文字Sn+1の開始タイミングを示している。 The time range of a character is information indicating timing. In this embodiment, (Sn-1_end, Sn_start, Sn_end, Sn+1_start) is assigned as the time range of a character. Sn-1_end indicates the end timing of the previous character Sn-1, Sn_start indicates the start timing of the character Sn, Sn_end indicates the end timing of the character Sn, and Sn+1_start indicates the start timing of the next character Sn+1.
ここで、当該文字Snを表示する際、文字Snの開始タイミングSn_start,当該文字Snの終了タイミングSn_endの2つの情報で足りることになるが、本実施形態では、GPUで取り扱われる他のデータと同様、4次元配列のデータ構成を使用し、Sn-1_end,Sn+1_startを含めている。これらを含めることで、前の文字、後ろの文字のタイミングを使用した処理を行うことが可能となっている。比較例として、Sn-1_end,Sn+1_startを含めない場合、前の文字、後ろの文字のタイミングを使用した処理を行う場合には、当該文字Snの参照データと、文字Sn-1の参照データと、Sn+1の参照データとを参照する必要があり、参照回数が多く処理負荷が高い。一方、本実施形態では、比較例よりも参照回数を減らすことが可能となり処理負荷を低減できる。 When displaying the character Sn, two pieces of information, the start timing Sn_start of the character Sn and the end timing Sn_end of the character Sn, are sufficient. However, in this embodiment, like other data handled by the GPU, a four-dimensional data structure is used, and Sn-1_end and Sn+1_start are included. By including these, it is possible to perform processing using the timing of the previous character and the following character. As a comparative example, if Sn-1_end and Sn+1_start are not included, when performing processing using the timing of the previous character and the following character, it is necessary to refer to the reference data of the character Sn, the reference data of the character Sn-1, and the reference data of the character Sn+1, which results in a large number of references and a high processing load. On the other hand, in this embodiment, it is possible to reduce the number of references compared to the comparative example, thereby reducing the processing load.
なお、Sn-1_end,Sn+1_startについては、時間範囲に含めない形態としてもよい。その場合、時間範囲は、2次元配列のデータ構成となるため、2つの空データを含めることで、4次元配列のデータ構成とし、GPUでの取り扱いを容易にすることとしてもよい。この点については、後で説明するフレーズ、ライン、チャプターの時間範囲についても同様である。 Note that Sn-1_end and Sn+1_start may not be included in the time range. In that case, the time range will have a two-dimensional data structure, so by including two null data, it may become a four-dimensional data structure, making it easier to handle on the GPU. The same applies to the time ranges of phrases, lines, and chapters, which will be explained later.
0番目と同様にして、参照データには、1番目~mX番目(最後の文字)の情報が規定される。 Similar to the 0th character, the reference data specifies information from 1st to mXth (the last character).
0番目のフレーズ(図5(A)の歌詞の例では「ぞうさん」の文字)については、フレーズ先頭文字のインデックスデータ、フレーズの位置・大きさを示す矩形情報、フレーズの時間範囲が含まれている。フレーズ先頭文字のインデックスデータは、0番目の文字のインデックスデータ、(0,0,0,0)が格納される。 For the 0th phrase (the character "zou-san" in the example lyrics of Figure 5(A)), index data for the first character of the phrase, rectangular information indicating the position and size of the phrase, and the time range of the phrase are included. The index data for the first character of the phrase is stored as the index data for the 0th character, (0,0,0,0).
フレーズの位置・大きさを示す矩形情報は、0番目のフレーズの場合、「ぞうさん」を囲う領域の位置・大きさを示す情報である。GPUは、各頂点データのそれぞれに対する処理が行われる際に、他の頂点データの情報を参照することができない。そのため、参照データにフレーズの位置・大きさを示す矩形情報を含めることで、参照データ参照時、フレーズの制御位置を参照することが可能となっている。 In the case of the 0th phrase, the rectangular information indicating the position and size of the phrase is information indicating the position and size of the area surrounding the "elephant." When processing each piece of vertex data, the GPU cannot refer to information on other vertex data. Therefore, by including rectangular information indicating the position and size of the phrase in the reference data, it is possible to refer to the control position of the phrase when referencing the reference data.
フレーズの時間範囲は、タイミングを示す情報である。本実施形態では、フレーズの時間範囲として(Tn-1_end,Tn_start,Tn_end,Tn+1_start)を割り当てている。Tn-1_endは、前のフレーズTn-1の終了タイミング、Tn_startは、当該フレーズTnの開始タイミング、Tn_endは当該フレーズTnの終了タイミング,Tn+1_startは後のフレーズTn+1の開始タイミングを示している。 The time range of a phrase is information indicating timing. In this embodiment, (Tn-1_end, Tn_start, Tn_end, Tn+1_start) is assigned as the time range of a phrase. Tn-1_end indicates the end timing of the previous phrase Tn-1, Tn_start indicates the start timing of the phrase Tn, Tn_end indicates the end timing of the phrase Tn, and Tn+1_start indicates the start timing of the next phrase Tn+1.
文字の場合と同様、当該フレーズTnを表示する際、当該フレーズTnの開始タイミングTn_start,当該フレーズTnの終了タイミングTn_endの2つの情報で足りることになるが、本実施形態では、Sn-1_end,Sn+1_startを含めることで、前のフレーズ、後ろのフレーズのタイミングを使用した処理を行うことが可能となっている。 As with text, when displaying the phrase Tn, two pieces of information are sufficient: the start timing Tn_start of the phrase Tn and the end timing Tn_end of the phrase Tn. However, in this embodiment, by including Sn-1_end and Sn+1_start, it is possible to perform processing using the timing of the previous and following phrases.
0番目と同様にして、参照データには、1番目~mY番目(最後のフレーズ)の情報が規定される。 Similar to the 0th phrase, the reference data specifies information from 1st to mYth (the last phrase).
ライン(あるいは、チャプター)についても、フレーズの場合と同様、ライン(あるいは、チャプター)先頭文字のインデックスデータ、ライン(あるいは、チャプター)の位置・大きさを示す矩形情報、ライン(あるいは、チャプター)の時間範囲が含まれている。 As with phrases, lines (or chapters) also contain index data for the first character of the line (or chapter), rectangular information indicating the position and size of the line (or chapter), and the time range of the line (or chapter).
このように、本実施形態の参照データでは、文字、フレーズ、ライン、チャプターについて、インデックスデータ、位置・大きさを示す矩形情報、時間範囲(タイミング)を規定したことで、文字、フレーズ、ライン、チャプターの表示タイミングの制御を容易に行うことが可能となっている。なお、参照データには、文字、フレーズ、ライン、チャプターについて、時間範囲(タイミング)を示す情報が含まれることで足りるものである。 In this way, the reference data of this embodiment specifies index data, rectangular information indicating the position and size, and time range (timing) for characters, phrases, lines, and chapters, making it possible to easily control the display timing of characters, phrases, lines, and chapters. Note that it is sufficient for the reference data to include information indicating the time range (timing) for characters, phrases, lines, and chapters.
本実施形態では、上述するテロップデータ(テクスチャデータ、頂点データ、参照データ)を使用して、GPU29によるテロップをモニタ41に表示させることとしている。その際、GPU29に対して、テロップを形成するためのシェーダープログラムを変更することで、多彩なテロップ表現を行うことが可能となっている。本実施形態では、CPU30は、再生処理毎に楽曲に対応するシェーダープログラムをRAM28に送信する(S106)。例えば、楽曲に対応したシェーダープログラムを使用することで、楽曲に対応したテロップ表現を実現することが可能である。 In this embodiment, the GPU 29 uses the above-mentioned telop data (texture data, vertex data, reference data) to display telops on the monitor 41. At that time, by changing the shader program for forming the telops in the GPU 29, it is possible to perform a variety of telop expressions. In this embodiment, the CPU 30 transmits a shader program corresponding to a piece of music to the RAM 28 for each playback process (S106). For example, by using a shader program corresponding to a piece of music, it is possible to realize a telop expression corresponding to the music.
本実施形態のシェーダープログラム(本発明に係る「テロップ形成プログラム」に相当)は、画面にどのようにテロップを表示させるかを規定するプログラムであり、文字、チャプター、ライン、フレーズについて、それを表示させる位置、表示させる色合い等を制御することが可能である。また、本実施形態のシェーダープログラムは、頂点シェーダープログラムとピクセルシェーダープログラムで構成されている。 The shader program of this embodiment (corresponding to the "telop formation program" of the present invention) is a program that specifies how the caption is displayed on the screen, and is capable of controlling the position and color of characters, chapters, lines, and phrases. The shader program of this embodiment is composed of a vertex shader program and a pixel shader program.
頂点シェーダープログラムは、表示させる位置を規定するプログラムであって、例えば、一文字単位、フレーズ単位、ライン単位、チャプター単位での表示制御を行うことが可能である。表示制御は、右寄せ、左寄せ、階段状、改行などのレイアウトや、スクロールやポップアップなどのアニメーションを含む。表示制御は例示したレイアウトやアニメーションに限らずさまざまなレイアウトやアニメーションを含む。また、頂点シェーダープログラムは、テロップを3次元空間内で、所定のカメラ視点から撮影した立体画像とする等の表現を行うことが可能である。 The vertex shader program is a program that specifies the display position, and can control the display, for example, by character, phrase, line, or chapter. Display control includes layouts such as right-justified, left-justified, stepped, and line breaks, as well as animations such as scrolling and pop-ups. Display control is not limited to the layouts and animations shown as examples, but includes a variety of other layouts and animations. In addition, the vertex shader program can express subtitles as a stereoscopic image captured from a specified camera viewpoint in a three-dimensional space.
一方、ピクセルシェーダープログラムは、テロップを形成するピクセル毎に色情報を制御することが可能であって、表示するテロップについて、単色とする、グラデーションとする等、各種の色表現を制御することが可能である。 On the other hand, the pixel shader program can control the color information for each pixel that forms the caption, and can control various color expressions for the caption to be displayed, such as a single color or a gradation.
本実施形態では、頂点シェーダープログラムと、ピクセルシェーダープログラムの組み合わせでシェーダープログラム(本発明に係る「テロップ形成プログラム」に相当)を形成している。複数の頂点シェーダープログラム、複数のピクセルシェーダープログラムを予め用意しておくことで、その組み合わせを変更することで、多様なテロップ表現のシェーダープログラムを形成することが可能である。 In this embodiment, a shader program (corresponding to the "telop formation program" of the present invention) is formed by combining a vertex shader program and a pixel shader program. By preparing multiple vertex shader programs and multiple pixel shader programs in advance and changing the combination, it is possible to form shader programs that express a variety of telops.
テロップデータ、シェーダープログラムをRAM28に送信することで、GPU29によるテロップ表示が可能となった後、CPU30は、演奏データを音響制御部25に再生開始させる(S107)。その際、演奏データの再生に同期して、現在の演奏位置(再生位置)をGPU29に送信する。現在の演奏位置は、定期的(例えば、描画するフレーム毎)にGPU29に送信される。GPU29は、RAM28に記憶しているテロップデータ、シェーダープログラム、そして、CPU30から受信した現在の演奏位置に基づき、モニタ41に歌詞表示(テロップ表示)を行う。 After sending the telop data and shader program to RAM 28, making it possible for GPU 29 to display telops, CPU 30 causes the audio control unit 25 to start playing the performance data (S107). At that time, the current performance position (playback position) is sent to GPU 29 in synchronization with the playback of the performance data. The current performance position is sent to GPU 29 periodically (for example, for each frame to be drawn). GPU 29 displays lyrics (telop display) on monitor 41 based on the telop data and shader program stored in RAM 28, and the current performance position received from CPU 30.
GPU29で実行される頂点シェーダープログラムは、参照データ中、時間範囲(タイミング)を参照し、表示対象となる文字(もしくは、フレーズ、ライン、チャプター)を決定し、頂点データに基づき表示位置を決定する。その際、頂点シェーダープログラムによっては、座標変換が行われる。また、ピクセルシェーダープログラムは、表示対象となる文字画像の色を制御することが可能であり、テクスチャデータから取り出した画像に基づいてポリゴン上に文字を表示させることができる。また、ピクセルシェーダープログラムは、例えば、現在の演奏位置に基づき、文字の色変えを行う、あるいは、表示する文字を多様な色表現とすることが可能となる。 The vertex shader program executed by GPU 29 refers to the time range (timing) in the reference data, determines the characters (or phrases, lines, or chapters) to be displayed, and determines the display position based on the vertex data. At this time, depending on the vertex shader program, coordinate conversion is performed. The pixel shader program can also control the color of the character image to be displayed, and can display characters on polygons based on images extracted from texture data. The pixel shader program can also change the color of characters based on the current playing position, for example, or can display characters in a variety of colors.
図7は、本実施形態の画面上でのテロップ形成例を示したものである。図7(A)は、従来のカラオケ装置と同様、画面の下半分の領域に横書きのテロップ表示とした表示形態である。頂点プログラムは、図4で説明した頂点データを座標変換し、所定ライン分(図7の例では2ライン分)の複数のポリゴンを画面配置する。次に、ピクセルシェーダープログラムは、各ポリゴン上にテクスチャデータから取り出した画像に基づいて文字を表示させる。また、ピクセルシェーダープログラムは、CPUから送信された現在位置に基づき、現在の歌唱位置を判定し、現在の歌唱位置前後で色変えを行って表示出力することでテロップ表示が行われる。 Figure 7 shows an example of the display of subtitles on the screen in this embodiment. Figure 7 (A) shows a display form in which subtitles are displayed horizontally in the lower half of the screen, similar to conventional karaoke devices. The vertex program performs coordinate conversion on the vertex data explained in Figure 4, and arranges multiple polygons for a specified number of lines (two lines in the example of Figure 7) on the screen. Next, the pixel shader program displays characters on each polygon based on an image extracted from the texture data. The pixel shader program also determines the current singing position based on the current position sent from the CPU, and displays the subtitles by changing the color before and after the current singing position and outputting the display.
図7(B)は、画面の全領域にテロップ表示とした形態である。図7(B)は、フレーズ単位で改行を行い、さらに、画面に表示される複数のフレーズを階段状に表示させる表示形態である。この場合、頂点シェーダープログラムは、図4で説明した頂点データを座標変換し、所定フレーズ分(図7の例では4フレーズ分)を階段状になるように複数のポリゴンを画面配置する。次に、ピクセルシェーダープログラムは、各ポリゴン上にテクスチャデータから取り出した画像に基づいて文字を表示させる。また、ピクセルシェーダープログラムは、CPUから送信された現在位置に基づき、現在の歌唱位置を判定し、現在の歌唱位置前後で色変えを行って表示出力することでテロップ表示が行われる。 Figure 7 (B) shows a form in which subtitles are displayed over the entire screen. Figure 7 (B) shows a display form in which line breaks are performed for each phrase, and multiple phrases displayed on the screen are displayed in a staircase pattern. In this case, the vertex shader program performs coordinate conversion on the vertex data explained in Figure 4, and arranges multiple polygons on the screen so that a predetermined amount of phrases (four phrases in the example of Figure 7) are arranged in a staircase pattern. Next, the pixel shader program displays characters on each polygon based on an image extracted from the texture data. The pixel shader program also determines the current singing position based on the current position sent from the CPU, and displays the subtitles by changing the color before and after the current singing position and outputting the display.
図7(A)、図7(B)では、2次元的な表示について説明したが、このような形態のみならず、シェーダープログラムを変更することで、例えば、3次元空間において、ある視点から眺めたテロップとする等、自由なレイアウト表現を行うことが可能である。 Figures 7(A) and 7(B) show two-dimensional display, but by changing the shader program, it is possible to freely express layouts, such as displaying subtitles as seen from a certain viewpoint in three-dimensional space.
このように本実施形態では、テロップ再生に関する処理は、GPU29にて実現することが可能であり、CPU30は、現在の演奏位置をGPU29に送信するだけでよく、CPU30による処理負荷を低減させることが可能となっている。また、シェーダープログラムを変更することで、多様なテロップ表現を実現することも可能である。 In this way, in this embodiment, the processing related to the playback of subtitles can be realized by the GPU 29, and the CPU 30 only needs to transmit the current playing position to the GPU 29, which makes it possible to reduce the processing load on the CPU 30. Also, by changing the shader program, it is possible to realize a variety of subtitle expressions.
CPU30による現在の演奏位置の送信(S108)は、演奏データの再生が終了するまで継続して実行される。演奏データの再生が終了した場合(S109:Yes)、次の楽曲の再生のため、予約テーブルのチェックが実行される(S101)。 The CPU 30 continues to transmit the current playing position (S108) until the playback of the performance data ends. When the playback of the performance data ends (S109: Yes), the reservation table is checked to play the next song (S101).
以上、本実施形態では、カラオケシステムを例に取り歌詞(テロップ)の表示について説明したが、本実施形態では、シェーダープログラム、並びに、GPU29に適化されたテロップデータ、及び、シェーダープログラムを使用することで、GPU29を使用したテロップ表示を行うことが可能となっている。したがって、多彩な表現でのテロップ表示を行うことが可能となるとともに、CPU30の処理負荷を低減させることが可能となっている。 In the above, this embodiment has been described using a karaoke system as an example to display lyrics (captions), but in this embodiment, by using a shader program, caption data optimized for the GPU 29, and a shader program, it is possible to display captions using the GPU 29. Therefore, it is possible to display captions in a variety of ways, and it is possible to reduce the processing load on the CPU 30.
[第1変形例]
次に、本発明に係る画像処理装置の変形例について説明する。前述の実施形態では、テロップ表示に関する説明として、カラオケ装置2を使用した歌詞表示を例に取り説明した。テロップ表示は、歌詞表示に限られるものではなく、映画、動画像の字幕等に使用することとしてもよい。その際、テロップを再生する情報処理装置が、画像処理装置に相当することになる。
[First Modification]
Next, a modified example of the image processing device according to the present invention will be described. In the above embodiment, the display of telops has been described by taking the example of displaying lyrics using the karaoke device 2. The display of telops is not limited to displaying lyrics, and may be used for subtitles of movies and moving images. In this case, the information processing device that reproduces the telops corresponds to the image processing device.
[第2変形例]
前述の実施形態では、再生処理毎にシェーダープログラム(本発明に係る「テロップ形成プログラム」に相当)をRAM28に送信している。このような形態のみならず、シェーダープログラムの変更は、各種形態を採用することが可能である。例えば、ユーザの操作により、シェーダープログラムを変更することとしてもよい。その際、シェーダープログラムは、予め用意されたものであってもよいし、あるいは、ユーザ自身が作成したシェーダープログラムに変更可能としてもよい。
[Second Modification]
In the above embodiment, a shader program (corresponding to the "telop formation program" of the present invention) is transmitted to the RAM 28 for each playback process. In addition to this form, various forms can be adopted for changing the shader program. For example, the shader program may be changed by a user operation. In this case, the shader program may be one prepared in advance, or may be changeable to a shader program created by the user himself.
また、前述の実施形態において、楽曲とシェーダープログラムの対応関係については詳しく言及していないが、例えば、楽曲毎、楽曲のジャンル毎、歌手毎、作曲家毎、作詞家毎の少なくとも何れかに対応させたシェーダープログラムを対応させることとしてもよい。あるいは、シェーダープログラムは、季節、曜日、時刻等の計時情報に対応させることとしてもよい。あるいは、シェーダープログラムは、ランダムに選択されるものであってもよい。 Although the above-described embodiment does not mention in detail the correspondence between songs and shader programs, shader programs may be associated with at least one of each of the following: each song, each genre of song, each singer, each composer, and each lyricist. Alternatively, shader programs may be associated with timing information such as seasons, days of the week, and times of day. Alternatively, shader programs may be selected randomly.
以上、カラオケ装置2を例として、各種実施形態について説明したが、本発明に係る画像処理装置は、カラオケ装置2のみならず、パーソナルコンピュータ、ゲーム装置、スマートフォン等、各種の情報処理装置として使用することが可能である。また、各種情報処理装置において実行される画像処理プログラム、あるいは、画像処理方法についても、発明の範疇に属するものである。 Although various embodiments have been described above using the karaoke machine 2 as an example, the image processing device according to the present invention can be used not only as the karaoke machine 2, but also as various information processing devices such as personal computers, game devices, and smartphones. In addition, image processing programs and image processing methods executed in various information processing devices also fall within the scope of the invention.
1:リモコン装置 24a:LAN通信部
2:カラオケ装置 24b:無線LAN通信部
5:サーバー装置 25:音響制御部
11:タッチパネルモニタ 27:メモリ
11a:表示部 28:RAM
11b:タッチパネル 30:CPU
12:ビデオRAM 31:映像出力部
13:映像制御部 32:ハードディスク
14:メモリ 33:タッチパネルモニタ
15:CPU 34:タッチパネル
16:無線LAN通信部 35:表示部
17:操作部 41:モニタ
18:操作処理部 42:スピーカー
21:操作部 43a、43b:マイクロホン
22a~22d:インターフェイス 130:アクセスポイント
1: Remote control device 24a: LAN communication unit 2: Karaoke device 24b: Wireless LAN communication unit 5: Server device 25: Sound control unit 11: Touch panel monitor 27: Memory 11a: Display unit 28: RAM
11b: touch panel 30: CPU
12: Video RAM 31: Video output section 13: Video control section 32: Hard disk 14: Memory 33: Touch panel monitor 15: CPU 34: Touch panel 16: Wireless LAN communication section 35: Display section 17: Operation section 41: Monitor 18: Operation processing section 42: Speaker 21: Operation section 43a, 43b: Microphones 22a to 22d: Interface 130: Access point
Claims (10)
テロップデータは、
テロップの各断片の表示位置を示す頂点データと、
テロップの各断片に貼り付けられるテクスチャデータと、を含み、
テロップ形成プログラムを記憶部に送信する第1送信処理と、テロップデータを記憶部に送信する第2送信処理と、コンテンツデータを再生するコンテンツ再生処理と、をCPUに実行させ、
テロップ形成プログラムに基づき、コンテンツデータの再生に同期して、テロップデータに基づく表示を行うテロップ再生処理をGPUに実行させる
画像処理装置。 An image processing device that includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a storage unit accessed by the GPU, and that reproduces telop data,
The telop data is
vertex data indicating the display position of each fragment of the telop;
texture data to be attached to each fragment of the telop;
causing a CPU to execute a first transmission process of transmitting a telop formation program to a storage unit, a second transmission process of transmitting telop data to a storage unit, and a content reproduction process of reproducing content data;
The image processing device causes a GPU to execute a telop playback process for performing a display based on telop data in synchronization with playback of content data based on a telop formation program.
請求項1に記載の画像処理装置。 The image processing device according to claim 1 , wherein the telop formation program includes a vertex shader program and a pixel shader program.
請求項1に記載の画像処理装置。 The image processing device according to claim 1 , wherein the first transmission process is capable of transmitting different telop forming programs.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the first transmission process transmits a telop formation program corresponding to the content data to be reproduced in the content reproduction process.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the first transmission process transmits a telop forming program selected by a user.
請求項1に記載の画像処理装置。 2. The image processing device according to claim 1, wherein the telop data is configured as a data dimensional array handled by the GPU, and includes at least reference data defining the timing of each fragment.
GPUは、CPUから送信される再生位置と、参照データで規定される各断片のタイミングに基づいて、テロップ再生処理を実行する
請求項6に記載の画像処理装置。 the CPU executes a third transmission process of transmitting a playback position of the content data to the GPU;
The image processing device according to claim 6 , wherein the GPU executes a telop playback process based on a playback position transmitted from the CPU and timing of each fragment defined by the reference data.
請求項7に記載の画像処理装置。 The image processing apparatus of claim 7 , wherein the timing defined by the reference data includes a start time and an end time of each fragment.
テロップデータは、
テロップの各断片の表示位置を示す頂点データと、
テロップの各断片に貼り付けられるテクスチャデータと、を含み、
テロップ形成プログラムを記憶部に送信する第1送信処理と、テロップデータを記憶部に送信する第2送信処理と、コンテンツデータを再生するコンテンツ再生処理と、をCPUに実行させ、
テロップ形成プログラムに基づき、コンテンツデータの再生に同期して、テロップデータに基づく表示を行うテロップ再生処理をGPUに実行させる
画像処理プログラム An image processing program executed on an information processing device including a central processing unit (CPU), a graphics processing unit (GPU), and a storage unit accessed by the GPU,
The telop data is
vertex data indicating the display position of each fragment of the telop;
texture data to be attached to each fragment of the telop;
causing a CPU to execute a first transmission process of transmitting a telop formation program to a storage unit, a second transmission process of transmitting telop data to a storage unit, and a content reproduction process of reproducing content data;
An image processing program that causes a GPU to execute a telop playback process that performs a display based on telop data in synchronization with playback of content data based on the telop generation program.
テロップデータは、
テロップの各断片の表示位置を示す頂点データと、
テロップの各断片に貼り付けられるテクスチャデータと、を含み、
テロップ形成プログラムを記憶部に送信する第1送信処理と、テロップデータを記憶部に送信する第2送信処理と、コンテンツデータを再生するコンテンツ再生処理と、をCPUに実行させ、
テロップ形成プログラムに基づき、コンテンツデータの再生に同期して、テロップデータに基づく表示を行うテロップ再生処理をGPUに実行させる
画像処理方法。 An image processing method executed by an information processing device including a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a storage unit accessed by the GPU, comprising:
The telop data is
vertex data indicating the display position of each fragment of the telop;
texture data to be attached to each fragment of the telop;
causing a CPU to execute a first transmission process of transmitting a telop formation program to a storage unit, a second transmission process of transmitting telop data to a storage unit, and a content reproduction process of reproducing content data;
An image processing method, comprising: causing a GPU to execute a telop playback process for performing a display based on telop data in synchronization with playback of content data, based on a telop formation program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023025019A JP2024118633A (en) | 2023-02-21 | 2023-02-21 | Image processing device, image processing program, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023025019A JP2024118633A (en) | 2023-02-21 | 2023-02-21 | Image processing device, image processing program, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024118633A true JP2024118633A (en) | 2024-09-02 |
Family
ID=92587916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023025019A Pending JP2024118633A (en) | 2023-02-21 | 2023-02-21 | Image processing device, image processing program, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024118633A (en) |
-
2023
- 2023-02-21 JP JP2023025019A patent/JP2024118633A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101193250B (en) | System and method for generating frame information for moving images | |
JP3507176B2 (en) | Multimedia system dynamic interlocking method | |
JPH09204163A (en) | Display device for karaoke | |
JP2004195210A (en) | Game sound control program, game sound control method, and game device | |
JP2009230006A (en) | Display device and program for performance information | |
US20070261539A1 (en) | Music reproducing program and music reproducing apparatus | |
JP2024118633A (en) | Image processing device, image processing program, and image processing method | |
JP2024118632A (en) | Image processing device, image processing program, and image processing method | |
JP5041853B2 (en) | Content generation apparatus and content generation program | |
JP6373560B2 (en) | Output data providing server, information processing apparatus, information processing system, output data providing method, and information processing method | |
JP3522194B2 (en) | A karaoke device with a feature of modifying the lyrics display | |
JPH1021029A (en) | Telop display device | |
JP4077525B2 (en) | Multimedia information reproducing apparatus and multimedia information recording apparatus | |
US6278451B1 (en) | Image processor | |
JP4967983B2 (en) | Information recording apparatus and program | |
JP7131449B2 (en) | Karaoke device and karaoke program | |
JP5611163B2 (en) | Image reproduction device, remote control device, and image reproduction system | |
JP2005223744A (en) | Animation manual | |
JP2018059966A (en) | Karaoke apparatus and program for karaoke | |
JP4063566B2 (en) | Program production method | |
WO2014024906A1 (en) | Program image creation method and device | |
JP3453298B2 (en) | Karaoke lyrics display system | |
JP2000148131A (en) | Image display method and image processing device | |
JP4018928B2 (en) | Program production method | |
JP2021183042A (en) | Content reproduction program and content reproducing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240827 |