JP2006053696A - Contents creating device, method, contents providing system, program, and recording medium - Google Patents

Contents creating device, method, contents providing system, program, and recording medium Download PDF

Info

Publication number
JP2006053696A
JP2006053696A JP2004233858A JP2004233858A JP2006053696A JP 2006053696 A JP2006053696 A JP 2006053696A JP 2004233858 A JP2004233858 A JP 2004233858A JP 2004233858 A JP2004233858 A JP 2004233858A JP 2006053696 A JP2006053696 A JP 2006053696A
Authority
JP
Japan
Prior art keywords
content
information
video
writing
meta information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004233858A
Other languages
Japanese (ja)
Inventor
Yoshiki Wakita
由喜 脇田
Hirotaka Ohira
浩貴 大平
Takayuki Kunieda
孝之 國枝
Miki Sato
美樹 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2004233858A priority Critical patent/JP2006053696A/en
Publication of JP2006053696A publication Critical patent/JP2006053696A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To create contents permitting program search reproduction of video/audio information of guidance contents in correspondence to a writing portion of used material in guidance of technique, ability, or the like needing familiarization. <P>SOLUTION: In the contents creating device 1, an video/audio information acquiring means 2 for shooting the guidance contents and acquiring its video/audio information can be connected to a memo information acquiring means 3 for acquiring mark (memo) information to the material used in the guidance, and it is provided with a real time capture part 1a, a meta-information generating part 1b, and a contents generating part 1c. The contents creating device 1 brings in the video/audio information of the guidance contents, acquires the writing time and a dot position to the material at the writing timing to the material, generates meta-information per writing unit of the material from the writing time and dot position, and associates the writing unit of the material with the video/audio information corresponding to its writing time on the basis of the video/audio information and the meta-information. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、コンテンツ作成装置、方法、コンテンツ提供システム、プログラム、及び記録媒体、より詳細には、習熟を必要とする技術や能力等の指導内容を後で確認するためのコンテンツを作成する装置、方法、コンテンツ提供システム、プログラム、及び記録媒体に関する。   The present invention relates to a content creation device, a method, a content providing system, a program, and a recording medium, and more specifically, a device for creating content for confirming instruction content such as technology or ability that requires proficiency later, The present invention relates to a method, a content providing system, a program, and a recording medium.

従来、楽器やダンスなどのレッスンの際に、ビデオや録音機器を持ち込み、試合や指導の様子を記録し、必要に応じて見直すことは行われている。一般的には1回全体を再生しなおした上で、どうしても必要なところがあれば、そこのタイムカウンタを頼りに何回か再生する。このとき以下のような問題がある。   Conventionally, during lessons such as musical instruments and dance, video and recording equipment are brought in, and the state of the game and guidance is recorded and reviewed as necessary. Generally, after replaying the entire program once, if there is a necessity, the program is played several times depending on the time counter. At this time, there are the following problems.

(1)必要な箇所を特定することが難しい。また特定したとして、タイムカウンタ等を用いてそこに移動するのに手間がかかる。
(2)テープメディアの場合、特定の場所を何度も見直したくても、必要な場所が離れていた場合に巻き戻しが面倒である。
このように、ビデオや音声の生情報のままでは、忘れてしまったことを思い出す目的で利用する程度にとどまっている。
(1) It is difficult to specify a necessary part. Further, as specified, it takes time to move there using a time counter or the like.
(2) In the case of a tape medium, even if it is desired to review a specific place many times, rewinding is troublesome if the necessary place is away.
In this way, the raw information of video and audio is used only for the purpose of remembering forgotten things.

これに対して、例えば、特許文献1には、映像記録時にユーザの指定により任意のマークを併せて記録することで、頭出し再生を可能とし、編集作業の効率化を図るようにしたものが開示されている。これは、被写体を映像撮影装置により撮影すると共に、撮影者からのリモコン操作によるマーキング入力を受け付ける。マーキング入力がなされた位置に対応する画像に所定のマークを付けて、マークが付けられた映像を記録媒体に記録する。従って、マークが付けられた位置から再生して映像の編集を行うことが可能となり、撮影後所望のシーンの映像を容易に頭出し再生することができる。
特開2003−153191号公報
On the other hand, for example, Japanese Patent Application Laid-Open No. H10-228561 is designed to enable cue reproduction by recording an arbitrary mark together with a user's designation at the time of video recording, thereby improving the efficiency of editing work. It is disclosed. In this case, the subject is photographed by the video photographing device, and a marking input by a remote control operation from the photographer is accepted. A predetermined mark is attached to the image corresponding to the position where the marking is input, and the image with the mark is recorded on the recording medium. Accordingly, it is possible to edit the video by reproducing from the marked position, and the video of the desired scene can be easily cued and reproduced after shooting.
JP 2003-153191 A

ここで、楽器演奏の実技や、勉強、仕事などにおいて個人指導を受けた後、その内容を確認したいことがよくある。例えば、口頭や、実演(模範演奏、演技など)で指導された内容を確認し、指摘事項や見本を見直すことで、自分の技術や能力の改善や上達につなげることができる。一方、個人指導に利用した資料に注意箇所を示すマークや、改善点のコメントが書き込まれていても(これは、指導者が書き込む場合、受講者がメモする場合の両方ある)、その資料にすべての指導内容が記載されているわけではない。そこで、資料の書き込み箇所と対応付けて、音や所作事、動きなど、マルチメディア情報(映像/音声情報など)でなければ表現できないものも含めて、指導内容を再度確認し、これによって、その場ではなんとなく聞き逃してしまったことも漏らさずに確認できるようにしたいという要望がある。   Here, I often want to confirm the contents after receiving personal guidance in practical skills of musical instrument performance, study, and work. For example, you can check the contents taught in oral and demonstrations (exemplary performances, performances, etc.), and review your findings and samples to improve and improve your skills and skills. On the other hand, even if a mark indicating a point of attention or a comment on an improvement point is written in the material used for personal instruction (this is both when the instructor writes and the student notes), the document Not all instructional content is listed. Therefore, the contents of the instruction are reconfirmed, including those that can only be expressed by multimedia information (video / audio information, etc.) such as sounds, works, movements, etc. There is a desire to be able to confirm without missing what has been missed somehow at the venue.

例えば、楽器演奏等の実技の場合には、復習として前回なされた指摘事項が改善したかどうかを確認できるようにしたいし、あるいは、子供の教育の場合には親、会社等の仕事の場合には管理者などが指導現場に同席しなかった場合、その指導内容の確認をできるようにしたい。   For example, in the case of practical skills such as playing a musical instrument, we want to be able to confirm whether or not the points pointed out last time have improved as a review, or in the case of work of a parent, company, etc. in the case of child education Wants to be able to confirm the contents of the guidance when the manager does not attend the guidance site.

これに対して、上述の特許文献1に記載の発明では、映像記録時にユーザの指定により任意のマークを併せて記録することで、頭出し再生を可能としているが、指導時に利用した資料の書き込み箇所に対応付けて、指導内容の映像/音声情報を頭出し再生する機能は備えていないため、上記のような課題を解決することはできない。   On the other hand, in the invention described in the above-mentioned Patent Document 1, it is possible to perform cueing reproduction by recording an arbitrary mark together with the user's designation at the time of video recording. Since there is no function for cueing and reproducing the video / audio information of the instruction content in association with the location, the above-described problems cannot be solved.

本発明は、上述のごとき実情に鑑みてなされたものであり、習熟を必要とする技術や能力等の指導において、利用した資料の書き込み箇所に対応付けて、指導内容の映像/音声情報を頭出し再生可能なコンテンツを作成すること、を目的としてなされたものである。   The present invention has been made in view of the above-mentioned circumstances, and in the guidance of techniques and abilities that require proficiency, the video / audio information of the guidance content is associated with the writing location of the material used. It was made for the purpose of creating content that can be played out.

上記課題を解決するために、請求項1の発明は、習熟を必要とする技術や能力等の指導内容を後から確認するためのコンテンツを作成するコンテンツ作成装置において、前記指導内容を撮影してその映像/音声情報を取得する映像/音声情報取得手段と、前記指導に利用した資料への書き込み情報を取得する書き込み情報取得手段と接続可能とし、前記映像/音声情報取得手段から前記指導内容の映像/音声情報を取り込む映像/音声情報取込手段と、前記資料に書き込まれたタイミングで前記書き込み情報取得手段から前記資料への書き込み時刻及び書き込みドット位置を取得し、該書き込み時刻及び書き込みドット位置から前記資料の書き込み単位毎にメタ情報を生成するメタ情報生成手段と、前記映像/音声情報及びメタ情報を記憶する記憶手段と、該記憶した映像/音声情報及びメタ情報に基づいて前記資料の書き込み単位とその書き込み時刻に対応する映像/音声情報とを関連付けして前記コンテンツを生成するコンテンツ生成手段とを備えていることを特徴とする。   In order to solve the above-mentioned problems, the invention of claim 1 shoots the instruction contents in a content creation device for creating contents for confirming instruction contents such as techniques and abilities that require proficiency later. The video / audio information acquisition means for acquiring the video / audio information and the writing information acquisition means for acquiring the writing information to the material used for the instruction can be connected. Video / audio information capturing means for capturing video / audio information, and writing time and writing dot position to the material are acquired from the writing information acquisition means at the timing of writing to the material, and the writing time and writing dot position A meta information generating means for generating meta information for each writing unit of the material, and storing the video / audio information and meta information Storage means; and content generation means for generating the content by associating the writing unit of the material with the video / audio information corresponding to the writing time based on the stored video / audio information and meta information. It is characterized by being.

請求項2の発明は、請求項1の発明において、前記メタ情報生成手段は、前記書き込み時刻の間隔と前記書き込みドット位置から前記書き込み単位のビットマップデータを生成し、該生成したビットマップデータ及び前記書き込み時刻から前記メタ情報を生成することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the meta information generation unit generates the bitmap data of the writing unit from the writing time interval and the writing dot position, and the generated bitmap data and The meta information is generated from the writing time.

請求項3の発明は、請求項2の発明において、前記メタ情報は、指導回数,指導回毎の書き込みID,書き込み時刻,ビットマップデータを少なくとも含むことを特徴とする。   According to a third aspect of the present invention, in the second aspect of the present invention, the meta information includes at least a guidance number, a writing ID for each guidance time, a writing time, and bitmap data.

請求項4の発明は、請求項2の発明において、前記メタ情報生成手段は、前記書き込み単位のビットマップデータを文字あるいは画像として認識する手段を備え、該認識した結果から前記書き込み単位を分類し、その分類情報を前記メタ情報に追加することを特徴とする。   According to a fourth aspect of the present invention, in the second aspect of the invention, the meta information generating unit includes a unit that recognizes the bitmap data of the writing unit as a character or an image, and classifies the writing unit from the recognized result. The classification information is added to the meta information.

請求項5の発明は、請求項4の発明において、前記メタ情報生成手段は、前記書き込み単位のビットマップデータを文字として認識した場合、該認識した文字をテキストデータとして取得できるようにしたことを特徴とする。   According to a fifth aspect of the present invention, in the invention of the fourth aspect, the meta information generating means can acquire the recognized character as text data when the bitmap data of the writing unit is recognized as a character. Features.

請求項6の発明は、請求項1又は2の発明において、前記コンテンツ生成手段は、前記記憶手段に記憶したメタ情報に基づいて、前記書き込み単位に対応したクリック可能な領域を作成し、該作成した領域と、その領域の書き込み時刻に対応する映像/音声情報とを関連付けすることを特徴とする。   According to a sixth aspect of the present invention, in the first or second aspect of the invention, the content generation unit creates a clickable area corresponding to the writing unit based on the meta information stored in the storage unit, and the creation The recorded area is associated with video / audio information corresponding to the writing time of the area.

請求項7の発明は、請求項6の発明において、前記コンテンツ生成手段は、前記クリック可能な領域を、前記資料のビットマップデータに重ね合わせることを特徴とする。   A seventh aspect of the invention is characterized in that, in the sixth aspect of the invention, the content generation means superimposes the clickable area on the bitmap data of the material.

請求項8の発明は、請求項6の発明において、前記コンテンツ生成手段は、前記クリック可能な領域の色あるいは形状を、前記メタ情報に含まれる属性毎に異ならせることを特徴とする。   The invention of claim 8 is characterized in that, in the invention of claim 6, the content generation means changes the color or shape of the clickable area for each attribute included in the meta information.

請求項9の発明は、請求項1乃至8のいずれか1の発明において、前記記憶手段に記憶したメタ情報を編集するためのメタ情報編集手段を備え、該メタ情報編集手段は、前記記憶手段に記憶したメタ情報を読み込んで、該読み込んだメタ情報を表示し、そのメタ情報に対応する映像/音声情報を再生しながら、前記メタ情報を編集できるようにしたことを特徴とする。   The invention of claim 9 is the invention of any one of claims 1 to 8, further comprising meta information editing means for editing the meta information stored in the storage means, wherein the meta information editing means is the storage means. The meta information stored in is read, the read meta information is displayed, and the meta information can be edited while reproducing the video / audio information corresponding to the meta information.

請求項10の発明は、請求項9の発明において、前記指導時に資料を利用しない場合、前記メタ情報編集手段は、前記記憶手段に記憶した映像/音声情報を再生しながら、メタ情報を後から付加できるようにしたことを特徴とする。   According to a tenth aspect of the present invention, in the invention of the ninth aspect, when the material is not used during the instruction, the meta information editing means reproduces the meta information later while reproducing the video / audio information stored in the storage means. It can be added.

請求項11の発明は、請求項9の発明において、前記指導時に資料を利用しない場合、前記メタ情報生成手段は、前記指導内容の映像/音声情報に含まれる音声情報を音声認識してテキストデータに変換し、該テキストデータ及び当該音声が入力された時刻を取得する手段を備え、該取得したテキストデータ及び音声入力時刻に基づいてメタ情報を生成することを特徴とする。   According to an eleventh aspect of the present invention, in the invention of the ninth aspect, when the material is not used at the time of the instruction, the meta information generating means recognizes the audio information included in the video / audio information of the instruction content and performs text data recognition. Means for acquiring the time when the text data and the voice are input, and generating meta information based on the acquired text data and the voice input time.

請求項12の発明は、習熟を必要とする技術や能力等の指導内容を後から確認するためのコンテンツを作成するコンテンツ作成装置を用いたコンテンツ作成方法において、該コンテンツ作成装置は、前記指導内容を撮影してその映像/音声情報を取得する映像/音声情報取得手段と、前記指導に利用した資料への書き込み情報を取得する書き込み情報取得手段と接続され、前記映像/音声情報取得手段から前記指導内容の映像/音声情報を取り込む映像/音声情報取込ステップと、前記資料に書き込まれたタイミングで前記書き込み情報取得手段から前記資料への書き込み時刻及び書き込みドット位置を取得し、該書き込み時刻及び書き込みドット位置から前記資料の書き込み単位毎にメタ情報を生成するメタ情報生成ステップと、前記映像/音声情報及びメタ情報を前記コンテンツ作成装置が備える記憶手段に記憶する記憶ステップと、該記憶した映像/音声情報及びメタ情報に基づいて前記資料の書き込み単位とその書き込み時刻に対応する映像/音声情報とを関連付けして前記コンテンツを生成するコンテンツ生成ステップとを有することを特徴とする。   The invention according to claim 12 is a content creation method using a content creation device that creates content for confirming later the contents of instruction such as skills and abilities that require proficiency. Is connected to video / audio information acquisition means for acquiring video / audio information and writing information acquisition means for acquiring information to be written on the material used for the instruction, from the video / audio information acquisition means. A video / audio information capturing step for capturing video / audio information of instruction contents, and a writing time and a writing dot position to the material are acquired from the writing information acquisition means at a timing of writing to the material, the writing time and A meta information generating step for generating meta information for each writing unit of the material from a writing dot position; A storage step of storing audio information and meta information in a storage means provided in the content creation device, and video / audio information corresponding to the writing unit of the material and the writing time based on the stored video / audio information and meta information And a content generation step of generating the content in association with

請求項13の発明は、請求項12の発明において、前記メタ情報生成ステップは、前記書き込み時刻の間隔と前記書き込みドット位置から前記書き込み単位のビットマップデータを生成し、該生成したビットマップデータ及び前記書き込み時刻から前記メタ情報を生成することを特徴とする。   According to a thirteenth aspect of the present invention, in the twelfth aspect of the present invention, the meta information generating step generates bitmap data of the writing unit from the writing time interval and the writing dot position, and the generated bitmap data and The meta information is generated from the writing time.

請求項14の発明は、請求項12又は請求項13の発明において、前記コンテンツ生成ステップは、前記記憶手段に記憶したメタ情報に基づいて、前記書き込み単位に対応したクリック可能な領域を作成し、該作成した領域と、その領域の書き込み時刻に対応する映像/音声情報とを関連付けすることを特徴とする。   The invention of claim 14 is the invention of claim 12 or claim 13, wherein the content generation step creates a clickable area corresponding to the writing unit based on the meta information stored in the storage means, The created area is associated with video / audio information corresponding to the writing time of the area.

請求項15の発明は、請求項12乃至請求項14のいずれか1の発明において、前記記憶手段に記憶したメタ情報を編集するメタ情報編集ステップを有し、該メタ情報編集ステップは、前記記憶手段に記憶したメタ情報を読み込んで、該読み込んだメタ情報を表示し、そのメタ情報に対応する映像/音声情報を再生しながら、前記メタ情報を編集できるようにしたことを特徴とする。   A fifteenth aspect of the present invention is the method according to any one of the twelfth to fourteenth aspects, further comprising a meta information editing step of editing the meta information stored in the storage unit, wherein the meta information editing step includes The meta information stored in the means is read, the read meta information is displayed, and the meta information can be edited while reproducing the video / audio information corresponding to the meta information.

請求項16の発明は、請求項15の発明において、前記指導時に資料を利用しない場合、前記メタ情報編集ステップは、前記記憶手段に記憶した映像/音声情報を再生しながら、メタ情報を後から付加できるようにしたことを特徴とする。   According to a sixteenth aspect of the present invention, in the fifteenth aspect of the invention, when the material is not used at the time of the instruction, the meta information editing step reproduces the meta information later while reproducing the video / audio information stored in the storage means. It can be added.

請求項17の発明は、請求項1乃至請求項11のいずれか1の発明により作成されたコンテンツを登録したサーバ装置と、指導を受ける受講者側が使用する端末装置とを有し、前記サーバ装置と前記端末装置とがネットワークを介して接続されたコンテンツ提供システムにおいて、前記サーバ装置は、前記端末装置からコンテンツ閲覧要求を受け付け、前記登録されているコンテンツから前記端末装置を使用する受講者のコンテンツを選択し、該選択したコンテンツを前記端末装置に送信することを特徴とする。   The invention of claim 17 has a server device in which the content created by the invention of any one of claims 1 to 11 is registered, and a terminal device used by a student receiving instruction, the server device And a content providing system in which the terminal device is connected via a network, the server device accepts a content browsing request from the terminal device, and content of a student who uses the terminal device from the registered content And the selected content is transmitted to the terminal device.

請求項18の発明は、請求項1乃至請求項11のいずれか1に記載のコンテンツ作成装置としての機能を実行するためのプログラムである。   The invention of claim 18 is a program for executing a function as the content creation device according to any one of claims 1 to 11.

請求項19の発明は、請求項18に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体である。   A nineteenth aspect of the present invention is a computer-readable recording medium on which the program according to the eighteenth aspect is recorded.

本発明は、習熟を必要とする技術や能力等の指導、教育であって、指導者のチェックを受けてそれを改善させるようなプロセスをともなうもの全般に適用できる。例えば、楽器やダンスなどの実技指導の他に、オフィスにおいてはプレゼンテーションの発表練習とそのレビュー、文書作成とそのチェック、プログラムのコーディングとそのレビュー、組み立て工程の練習などが考えられる。   INDUSTRIAL APPLICABILITY The present invention can be applied to all teaching and education on skills and skills that require proficiency, which involve a process that improves upon receiving a check by the instructor. For example, in addition to practical instruction such as musical instruments and dance, in the office, presentation presentation practice and review, document creation and check, program coding and review, assembly process practice, and the like.

また、本発明では、一回の指導を最大限に利用するため、従来の方法で記録している映像/音声情報を効果的に役立てるようにする。すなわち、資料にインデックス(クリッカブルマップなど)を設けて、これらの映像/音声情報を利用しやすくしたコンテンツを生成するための装置を提供する。本発明のコンテンツ作成装置は、指導と習得という目的を妨げずに目的を達するため、デフォルトでは指導者と受講者の双方に負担をかけないような構成としている。さらには、多少の手間をかけることで、より充実したコンテンツを作成可能な構成とすることもできる。   In the present invention, video / audio information recorded by a conventional method is effectively used in order to make the most of one instruction. That is, an apparatus is provided for generating content that makes it easy to use such video / audio information by providing an index (such as a clickable map) in the material. The content creation apparatus of the present invention is configured so as not to impose a burden on both the instructor and the student by default in order to achieve the purpose without hindering the purpose of teaching and learning. Furthermore, it is possible to create a configuration in which more substantial content can be created with a little effort.

習熟を必要とする技術や能力等の指導において、利用した資料の書き込み箇所に対応付けて、指導内容の映像/音声情報を頭出し再生可能なコンテンツを作成することができるため、指導者と受講者の双方に負担をかけることがなく、受講者は指導内容を確認し、指導者の指摘事項や見本を見直すことで、効果的に技術や能力等の改善や上達につなげることができる。   In instruction on skills and skills that require proficiency, you can create content that can be used to cue and replay the video / audio information of the instruction content in association with the location where the materials you used are written. The student can confirm the contents of the instruction and review the instructions and samples of the instructor, effectively improving and improving the skills and abilities without burdening the both sides.

以下の実施形態を説明するための全図において、同様の機能を有する部分には、同じ符号を付け、その繰り返しの説明は省略するものとする。   In all the drawings for explaining the following embodiments, portions having the same functions are denoted by the same reference numerals, and repeated description thereof is omitted.

図1は、本発明に係わる情報処理装置の内部構成例を示すブロック図で、図中、1は情報処理装置で、該情報処理装置1は、CPU11,RAM12,ROM13,HDD等の記憶装置14,入力装置15,表示装置16,通信装置17,出力装置18,入出力インタフェース(入出力I/F)19,システムバス20を備えた汎用コンピュータであって、後述する本発明のコンテンツ作成装置は、情報処理装置1に基づいて構成され、この情報処理装置1をコンテンツ作成装置として機能させるためのプログラム及びデータは、ROM13又は記憶装置14に格納され、実行時にCPU11がRAM12に読み出すことにより実行される。   FIG. 1 is a block diagram showing an internal configuration example of an information processing apparatus according to the present invention. In the figure, 1 is an information processing apparatus, and the information processing apparatus 1 is a storage device 14 such as a CPU 11, RAM 12, ROM 13, HDD, or the like. , An input device 15, a display device 16, a communication device 17, an output device 18, an input / output interface (input / output I / F) 19, and a system bus 20. The program and data that are configured based on the information processing device 1 and cause the information processing device 1 to function as a content creation device are stored in the ROM 13 or the storage device 14, and are executed by the CPU 11 reading out to the RAM 12 during execution. The

情報処理装置1は、通信装置17により公衆回線や,LAN,WAN,インターネットなどのネットワークに接続可能とし、出力装置18によりプリンタなどの外部機器にデータ出力を行うことができる。また、入出力I/F19は、各種の外部デバイスと接続するためのインタフェース手段である。また、処理の途中経過や処理結果は、CRT,LCD等の表示装置16を通じて操作者等に提示され、各処理において、操作者は、キーボード,マウス(ポインティングデバイス)等の入力装置15から必要なパラメータ等を入力指定する。これらCPU11,RAM12,ROM13,記憶装置(記憶手段)14,入力装置15,表示装置16,通信装置17,出力装置18,入出力I/F19はシステムバス20を介して相互に接続されている。尚、以下の各実施形態において、情報処理装置1をコンテンツ作成装置1として説明するものとする。   The information processing apparatus 1 can be connected to a public line, a network such as a LAN, a WAN, or the Internet through the communication device 17, and can output data to an external device such as a printer through the output device 18. The input / output I / F 19 is an interface means for connecting to various external devices. Further, the progress of the process and the processing result are presented to the operator or the like through the display device 16 such as a CRT or LCD, and the operator needs the input device 15 such as a keyboard and a mouse (pointing device) in each process. Input parameters and so on. The CPU 11, RAM 12, ROM 13, storage device (storage means) 14, input device 15, display device 16, communication device 17, output device 18, and input / output I / F 19 are connected to each other via a system bus 20. In each of the following embodiments, the information processing apparatus 1 will be described as the content creation apparatus 1.

本発明のコンテンツ作成装置1で作成されるコンテンツには、以下の(A),(B)の2種類がある。
(A)資料あるいはテキストを利用する場合、例えば、演奏楽譜,作成文書,工程説明書,プレゼンテーション資料などの書き込み箇所をクリックすると、そこからのリンクで映像/音声情報における必要な場所が特定され、その場所の映像/音声情報が再生される。
(B)資料あるいはテキストのない実技(講演、ダンス、体操など)の場合、別途作成するレッスン記録リスト上の所定箇所をクリックすると、そこからのリンクで映像/音声情報における必要な場所が特定され、その場所の映像/音声情報が再生される。ここで、映像/音声情報とは、映像,音声のいずれか又は両方の情報を含む所謂マルチメディア情報のことをいう。
The content created by the content creation device 1 of the present invention includes the following two types (A) and (B).
(A) When using materials or texts, for example, if you click on a writing location such as a performance score, a created document, a process manual, a presentation material, etc., the link from there will specify the required location in the video / audio information, The video / audio information of the location is reproduced.
(B) In the case of practical skills without materials or texts (lectures, dance, gymnastics, etc.), clicking on a specific location on the separately created lesson record list will identify the required location in the video / audio information using the link from there. The video / audio information of the place is reproduced. Here, the video / audio information means so-called multimedia information including information on either or both of video and audio.

(第1の実施形態)
図2は、本発明の一実施形態に係るコンテンツ作成装置1の構成例を示すブロック図で、コンテンツ作成装置1は、指導内容を撮影してその映像/音声情報を取得する映像/音声情報取得手段2、指導に利用した資料への書き込み情報(以下、メモ情報という)を取得するメモ情報取得手段3と接続されている。また、コンテンツ作成装置1は、リアルタイムキャプチャ部1a,メタ情報生成部1b,コンテンツ生成部1cを備え、これらのリアルタイムキャプチャ部1a,メタ情報生成部1b,コンテンツ生成部1cはコンテンツ作成プログラムとして記憶手段14に記憶され、実行時にCPU11がRAM12に読み出すことにより実行される。また、記憶手段14(本例では記憶手段14a,14b)は、映像/音声情報,メタ情報を記憶する。尚、この記憶手段14a、14bはそれぞれ異なる記憶媒体としてもよく、あるいは記憶手段14の異なる記憶領域を利用してもよい。
(First embodiment)
FIG. 2 is a block diagram illustrating a configuration example of the content creation device 1 according to an embodiment of the present invention. The content creation device 1 captures instruction content and acquires video / audio information thereof. Means 2 is connected to memo information acquisition means 3 for acquiring writing information (hereinafter referred to as memo information) to the material used for instruction. The content creation device 1 also includes a real-time capture unit 1a, a meta information generation unit 1b, and a content generation unit 1c. These real-time capture unit 1a, meta information generation unit 1b, and content generation unit 1c are stored as content creation programs. 14 and is executed by the CPU 11 reading it into the RAM 12 during execution. The storage unit 14 (in this example, storage units 14a and 14b) stores video / audio information and meta information. The storage units 14a and 14b may be different storage media, or different storage areas of the storage unit 14 may be used.

映像/音声情報取得手段2は、例えば、録音機21,MD(ミニディスク)22,ICレコーダ23,DVDCAM(DVDビデオカメラ)24,DVカメラ(デジタルビデオカメラ)25などの映像/音声情報を取得可能なデバイスであって、入出力I/F19を介してコンテンツ作成装置1と接続される。また、メモ情報取得手段3としては、例えば、ペン入力可能なタブレットや、特開2000−305559号公報などに記載されている電子譜面台、あるいは、普通紙や専用用紙への書き込みをデジタルデータとして取り込める電子ペン(例えば、Seiko Instruments USA Inc製のInkLink(登録商標)等)などの各種デバイスを利用することができる。   The video / audio information acquisition means 2 acquires video / audio information of, for example, a recorder 21, an MD (mini disk) 22, an IC recorder 23, a DVDCAM (DVD video camera) 24, a DV camera (digital video camera) 25, and the like. It is a possible device and is connected to the content creation apparatus 1 via the input / output I / F 19. As the memo information acquisition means 3, for example, writing on a tablet capable of pen input, an electronic music stand described in Japanese Patent Application Laid-Open No. 2000-305559, or plain paper or dedicated paper is used as digital data. Various devices such as an electronic pen (for example, InkLink (registered trademark) manufactured by Seiko Instruments USA Inc.) can be used.

リアルタイムキャプチャ部1aは、映像/音声情報取得手段2から、指導内容の映像/音声情報をリアルタイムで取り込む(キャプチャする)手段であって、取り込んだ映像/音声情報を記憶手段14aに直接書き込んで記憶する。   The real-time capture unit 1a is a means for capturing (capturing) the video / audio information of the instruction content in real time from the video / audio information acquiring means 2, and directly writing the captured video / audio information into the storage means 14a for storage. To do.

メタ情報生成部1bは、資料に書き込まれたタイミングで、メモ情報取得手段2から、上記資料への書き込み時刻及び書き込みドット位置を取得し、その書き込み時刻及び書き込みドット位置から上記資料の書き込み単位毎にメタ情報を生成する。以下、メタ情報生成部1bにおける処理について詳細に説明する。   The meta information generation unit 1b acquires the writing time and writing dot position to the material from the memo information acquisition means 2 at the timing when the information is written to the material, and for each writing unit of the material from the writing time and writing dot position. Meta information is generated. Hereinafter, the process in the meta information generation unit 1b will be described in detail.

メタ情報生成部1bは、資料への書き込みのタイミングで、当該資料に書き込まれた時刻,書き込み座標位置及びドット、をメモ情報取得手段2(デバイス)から取得する。取得した書き込み時刻の間隔と、書き込みドット位置から、そのときの書き込み単位のビットマップデータを生成する。さらに、書き込み時刻とビットマップデータから、書き込み単位毎のメタ情報を生成する。このメタ情報は、例えば、指導回数,指導回毎のID,書き込み時刻,ビットマップデータなどからなるデータ列で構成された映像/音声情報の属性(関連)情報のことをいう。   The meta information generation unit 1b acquires the writing time, writing coordinate position, and dot from the memo information acquisition unit 2 (device) at the timing of writing to the material. Bitmap data of the writing unit at that time is generated from the acquired writing time interval and the writing dot position. Furthermore, meta information for each writing unit is generated from the writing time and bitmap data. This meta information refers to attribute (relevant) information of video / audio information composed of a data string including, for example, the number of times of instruction, ID for each instruction time, writing time, bitmap data, and the like.

メタ情報生成部1bは、上記ビットマップデータから、それが○などの注意マークなのか、文字コメントなのか、図なのかなどを認識する手段を備えていてもよい。この場合、認識結果に基づいて書き込み単位を分類し、その分類情報をメタ情報に加えてもよい。例えば、○として認識した場合には、注意の属性を付加し、□として認識した場合には、見本の属性を付加しておく。これによって、各書き込み単位を資料上で表示する際に、その属性(本例では注意/見本)に応じて表示(色を変えるなど)することができる。また、文字コメントとして認識した場合、ストローク認識と文字認識により、テキスト情報を取得してもよい。このメタ情報は、履歴として指導回ごとにデータベース(記憶手段14b)に記憶される。   The meta information generation unit 1b may include a means for recognizing whether it is a caution mark such as ◯, a character comment, or a figure from the bitmap data. In this case, the writing unit may be classified based on the recognition result, and the classification information may be added to the meta information. For example, an attention attribute is added when it is recognized as ◯, and a sample attribute is added when it is recognized as □. As a result, when each writing unit is displayed on the material, it can be displayed (color is changed, etc.) according to its attribute (in this example, attention / sample). Moreover, when it recognizes as a character comment, you may acquire text information by stroke recognition and character recognition. This meta information is stored in the database (storage means 14b) as a history for each instruction round.

コンテンツ生成部1cは、記憶手段14a、14bにそれぞれ記憶した映像/音声情報及びメタ情報に基づいて、資料の書き込み単位と、その書き込み時刻に対応する映像/音声情報とを関連付けしてコンテンツを生成する。以下、コンテンツ生成部1cにおける処理について詳細に説明する。   The content generation unit 1c generates content by associating the writing unit of the material with the video / audio information corresponding to the writing time based on the video / audio information and the meta information stored in the storage units 14a and 14b, respectively. To do. Hereinafter, the processing in the content generation unit 1c will be described in detail.

コンテンツ生成部1cは、上記メタ情報に基づいて、各書き込み単位のビットマップデータに対応するクリッカブルマップを作成し、必要に応じて資料(楽譜など)のビットマップデータを重ね合わせて、HTMLファイルあるいはFlashなどのWebコンテンツを生成する。具体的には、ある書き込み単位の領域を示す形を描き、クリッカブルマップを作成し、そこから対応する映像/音声情報の時刻イベントへリンクを貼る。この際、時刻イベントは映像/音声情報に埋め込まれる。   Based on the meta information, the content generation unit 1c creates a clickable map corresponding to the bitmap data of each writing unit, and superimposes the bitmap data of the material (score, etc.) as necessary, Web content such as Flash is generated. Specifically, a shape indicating an area of a certain writing unit is drawn, a clickable map is created, and a link is attached to the corresponding video / audio information time event from there. At this time, the time event is embedded in the video / audio information.

以上により、指導終了後、1教材のその日の指導に関するコンテンツをすぐに自動生成することができ、受講者はこれを復習に利用できる。生成されたコンテンツでは、例えば、指導者等からの指摘事項一覧や、資料上に書き込まれた指摘個所から実際の指摘シーン(複数)への頭出し再生などが可能となる。   As described above, after the instruction is completed, the content relating to the instruction of the day for one teaching material can be automatically generated immediately, and the student can use it for the review. In the generated content, for example, a list of points to be pointed out from a leader or the like, or cueing reproduction from the pointed points written on the material to actual pointed scenes (multiple) can be performed.

さらに、HTML作成時は、その指導回のメタ情報を全部使ってもよいし、メタ情報中から属性ごとにフィルタリングしてもよい。この場合、属性ごとに書き込み単位を示す領域(クリッカブルマップなど)の色や、その領域の枠の色、あるいは形状などを変えて表示するようにしてもよい。また、書き込みに使用するペンの色を属性(注意/見本など)に応じて変更し、そのペンの色を認識することにより、属性ごとに書き込み単位を示す領域の色や、その領域の枠の色、あるいは形状などを変えて表示するようにしてもよい。また、属性ごとにレイヤに分けたイメージをつくり、ユーザ(受講者又は指導者)が指定した属性を重ねて表示するようにしてもよい。これにより、受講者は、例えば、当該シーンが注意なのか、見本なのか、などを容易に区別できるため、効果的に復習に役立てることができる。   Furthermore, at the time of HTML creation, all the meta information of the guidance times may be used, or filtering may be performed for each attribute from the meta information. In this case, the color of an area (clickable map or the like) indicating the writing unit for each attribute, the color of the frame of the area, the shape, or the like may be changed for display. Also, by changing the color of the pen used for writing according to the attribute (note / sample) and recognizing the color of the pen, the color of the area indicating the writing unit for each attribute and the frame of the area You may make it display by changing a color or a shape. Further, an image divided into layers for each attribute may be created, and the attributes designated by the user (student or instructor) may be displayed in an overlapping manner. Thereby, since the student can easily distinguish whether the scene is a caution or a sample, for example, it can be effectively used for review.

また、1つの教材に対しては複数回指導が行われることが多い。1教材1指導回ごとにメタ情報と映像/音声情報をデータベース(記憶手段14)に蓄積しておき、後述するメタ情報編集部を利用することで、複数回の履歴を参照し、複数の指導にまたがったコンテンツとして、例えば、履歴として残された複数回の指導で蓄積された指摘のうち、未改善指摘項目一覧や、ある書き込み単位ごとの改善(上達)の履歴表示などの表示も可能となる。   In many cases, one teaching material is taught multiple times. Meta information and video / audio information are accumulated in the database (storage means 14) for each instructional material and one instruction, and a plurality of instructions are referred to by using a meta information editing unit described later. For example, it is possible to display a list of unimproved indication items and an improvement (improvement) history display for each writing unit, among the indications accumulated by multiple times of instruction remaining as history. Become.

また、紙資料の場合、指導が重なるほど資料上の情報が混在して重なりあってしまう。上記のごときコンテンツを利用することにより、当該コンテンツの資料を、電子的に情報を整理した上で印刷して利用できるため、受講者は、そのとき注意すべき情報だけが参照でき、効率的に学習が進められるという利点もある。   Also, in the case of paper materials, the information on the materials is mixed and overlapped as guidance is overlapped. By using the contents as described above, the materials of the contents can be printed and used after electronically organizing the information, so the students can refer only to the information that should be noted at that time, and efficiently There is also an advantage that learning is advanced.

本実施形態によれば、習熟を必要とする技術や能力等の指導において、利用した資料の書き込み箇所に対応付けて、指導内容の映像/音声情報を頭出し再生可能なコンテンツを作成することができるため、指導者と受講者の双方に負担をかけることがなく、受講者は指導内容を確認し、指導者の指摘事項や見本を見直すことで、効果的に技術や能力等の改善や上達につなげることができる。   According to the present embodiment, in the teaching of skills and skills that require proficiency, it is possible to create content that can be played back by searching for the video / audio information of the teaching content in association with the writing location of the used material. As a result, there is no burden on both the instructor and the student, and the student confirms the contents of the instruction and reviews the points and samples of the instructor to effectively improve and improve the skills and skills. Can be connected.

(第2の実施形態)
図3は、本発明の他の実施形態に係るコンテンツ作成装置1の構成例を示すブロック図で、コンテンツ作成装置1は、映像/音声情報取得手段2、メモ情報取得手段3と接続されている。また、コンテンツ作成装置1は、リアルタイムキャプチャ部1a,メタ情報生成部1b,コンテンツ生成部1cに加えて、さらにメタ情報編集部1dを備え、これらのリアルタイムキャプチャ部1a,メタ情報生成部1b,コンテンツ生成部1c,及びメタ情報編集部1dはコンテンツ作成プログラムとして記憶手段14に記憶され、実行時にCPU11がRAM12に読み出すことにより実行される。また、第1の実施形態と同様に、記憶手段14(本例では記憶手段14a,14b)は、映像/音声情報,メタ情報を記憶する。尚、この記憶手段14a、14bはそれぞれ異なる記憶媒体としてもよく、あるいは記憶手段14の異なる記憶領域を利用してもよい。
(Second Embodiment)
FIG. 3 is a block diagram showing a configuration example of a content creation device 1 according to another embodiment of the present invention. The content creation device 1 is connected to a video / audio information acquisition unit 2 and a memo information acquisition unit 3. . In addition to the real-time capture unit 1a, meta information generation unit 1b, and content generation unit 1c, the content creation device 1 further includes a meta information editing unit 1d. These real-time capture unit 1a, meta information generation unit 1b, content The generation unit 1c and the meta information editing unit 1d are stored in the storage unit 14 as a content creation program, and are executed when the CPU 11 reads them into the RAM 12 during execution. As in the first embodiment, the storage unit 14 (in this example, the storage units 14a and 14b) stores video / audio information and meta information. The storage units 14a and 14b may be different storage media, or different storage areas of the storage unit 14 may be used.

メタ情報編集部1dは、記憶手段14bに記憶したメタ情報を編集,付加するための手段であって、指導時に資料を利用している場合、記憶手段14bに記憶したメタ情報を読み込んで、読み込んだメタ情報を表示し、そのメタ情報に対応する映像/音声情報を再生しながら、メタ情報を編集できるようにしたものである。   The meta information editing unit 1d is a means for editing and adding the meta information stored in the storage means 14b. When the material is used at the time of instruction, the meta information editing section 1d reads and reads the meta information stored in the storage means 14b. The meta information is displayed, and the meta information can be edited while reproducing the video / audio information corresponding to the meta information.

前述の第1の実施形態に示したコンテンツ作成装置1では、資料への書き込みに対応して、コンテンツの自動作成を行うことができた。しかしながら、資料に書き込むための手間、書き込む余白領域の問題などにより、書き込みから自動生成するメタ情報だけでは、以下の制限がある。
・すべての指摘事項が書き込まれるわけではない。
・指摘事項を書き込むタイミングと、実際に指摘されている時刻がずれる場合がある。
・指摘事項の詳細内容まで書き込めない(書き込めるのはメモ程度)。
In the content creation apparatus 1 shown in the first embodiment described above, content can be automatically created in response to writing to a material. However, only the meta information that is automatically generated from writing has the following limitations due to the trouble of writing to the material and the problem of the blank area to be written.
・ Not all indications are written.
・ The timing for writing the items to be pointed out may be different from the time pointed out.
・ It is not possible to write down the details of the items pointed out (only notes can be written).

そこで、本実施形態ではメタ情報編集部1dを利用し、メタ情報の内容を修正し、より充実かつ正確にすることで、より有効なコンテンツを作成できるようにしている。メタ情報編集部1dでは、自動生成したメタ情報があればそれを読み込み、各メタ情報と、映像/音声情報の対応部分を再生しながら、次のようにメタ情報を編集する。
・指導時に資料に書き込まれなかった指摘事項を新たに追加する。
・メタ情報のタイミングと、実際に指摘されている時刻がずれていればそれを修正する。
・指摘事項の詳細内容を追加する。
・属性を付加したり整理したりする。例えば、重複する指摘事項をまとめる。あるいは、データベース(記憶手段14)に履歴として保存されているメタ情報から、以前指摘された項目を確認し、修正されたかどうかと、今回の指摘と重複した内容であれば、ひとつにまとめて内容を追加する。そのとき指摘回数は属性として管理する。
・映像の頭出し位置を微調整する。これは、頭出しとして正確な場所を決めるよりも、だいたい該当する部分を仮決めし、その後、必要に応じて、およそ3〜5秒単位で微調整する。
Therefore, in the present embodiment, the meta information editing unit 1d is used to correct the contents of the meta information so that it is more complete and accurate, so that more effective contents can be created. The meta information editing unit 1d reads the automatically generated meta information, if any, and edits the meta information as follows while reproducing each meta information and the corresponding part of the video / audio information.
・ Add new indications that were not written in the materials during instruction.
・ If the timing of the meta information and the time pointed out actually deviate, correct it.
・ Add the details of the points to be pointed out.
・ Add and organize attributes. For example, the overlapping points to be pointed out are summarized. Alternatively, from the meta information stored as a history in the database (storage means 14), the previously pointed item is confirmed, whether it has been corrected, and if it is a content that overlaps with the current pointed out, the content is combined into one Add At that time, the number of indications is managed as an attribute.
・ Finely adjust the cue position of the image. Rather than deciding the exact location as the cue, roughly tentatively determine the relevant part, and then fine-tune in about 3 to 5 seconds as needed.

また、例えば、講演や、ダンス、体操などのように、資料を利用しない実技等の指導の場合には、資料への書き込みからメタ情報を自動生成することができない。この場合、メタ情報編集部1dは、記憶手段14aに記憶した映像/音声情報を再生しながら、メタ情報を後から付加,生成することができる。   Further, for example, in the case of instruction such as practical skills that do not use materials such as lectures, dances, and gymnastics, meta information cannot be automatically generated from writing on the materials. In this case, the meta information editing unit 1d can add and generate meta information later while reproducing the video / audio information stored in the storage unit 14a.

また、上記のように資料がなくてもメタ情報を自動生成することもできる。この場合、メタ情報生成部1bは、指導内容の映像/音声情報に含まれる音声情報を音声認識してテキスト情報に変換し、そのテキスト情報及び当該音声が入力された時刻を取得する手段を備え、取得したテキスト情報及び音声入力時刻に基づいてメタ情報を自動生成することができる。   In addition, meta information can be automatically generated without any material as described above. In this case, the meta information generating unit 1b includes means for recognizing voice information included in the video / audio information of the instruction content and converting the voice information into text information, and acquiring the text information and the time when the voice is input. Meta information can be automatically generated based on the acquired text information and voice input time.

本実施形態によれば、習熟を必要とする技術や能力等の指導において、利用した資料の書き込み箇所に対応付けて、指導内容の映像/音声情報を頭出し再生可能なコンテンツを作成できることに加えて、その映像/音声情報に対応するメタ情報を編集することができ、さらに、資料がない場合でも、映像/音声情報に対応するメタ情報を後から付加することができるため、より内容の充実したコンテンツを作成することができる。   According to the present embodiment, in the teaching of skills and skills that require proficiency, in addition to being able to create content that can be played back by cueing the video / audio information of the teaching content in association with the writing location of the used material. In addition, the meta information corresponding to the video / audio information can be edited, and even if there is no material, the meta information corresponding to the video / audio information can be added later, so the contents are further enhanced. Content can be created.

図4は、資料への書き込みから映像/音声情報の該当シーンを頭出し再生したコンテンツの一例を示す図で、図中、30はコンテンツ作成装置1により作成されたコンテンツで、該コンテンツ30は、資料(本例では楽譜)及びその楽譜上に書き込まれたメモ情報からなるイメージデータ31(以下、単に楽譜31という)、メモ情報に対応する映像/音声情報のシーン32,指摘事項(コメント)33,ID情報34を含む。尚、楽譜31は、続きページがある場合に、次ページ以降を切り替え表示させるためのスクロール機能を備えている。   FIG. 4 is a diagram showing an example of content obtained by cueing and reproducing the corresponding scene of the video / audio information from writing on the material. In the figure, 30 is the content created by the content creation device 1, and the content 30 is Image data 31 (hereinafter simply referred to as the score 31) composed of a document (score in this example) and memo information written on the score, a video / audio information scene 32 corresponding to the memo information, and an indicated item (comment) 33 , ID information 34 is included. Note that the musical score 31 has a scroll function for switching and displaying the next and subsequent pages when there are subsequent pages.

書き込みに対応する楽譜31上の矩形部分は、クリック可能な領域(以下、クリッカブルマップ)31a,31b,31cを示す。ここでは、クリッカブルマップ31a,31b,31cに対応するメタ情報から、例えば、指摘の重要度や、指摘された日時、あるいは見本なのか注意なのか、などによって各領域の色を変えて表示している。本例ではクリック可能な領域が3箇所あり、例えば、クリッカブルマップ31aの領域をクリックすると、書き込みに対応するシーン32が再生される。このような操作により、指摘内容や、指導者による模範演奏などを再現することができる。   Rectangular portions on the score 31 corresponding to writing indicate clickable areas (hereinafter referred to as clickable maps) 31a, 31b, and 31c. Here, the meta information corresponding to the clickable maps 31a, 31b, 31c is displayed by changing the color of each area depending on, for example, the importance of the indication, the date and time of the indication, or whether it is a sample or a caution. Yes. In this example, there are three clickable areas. For example, when the area of the clickable map 31a is clicked, the scene 32 corresponding to writing is reproduced. By such an operation, it is possible to reproduce the indication contents and the model performance by the instructor.

ここで、指摘事項33には、メタ情報編集部1dによって後から追加した指摘事項を表示するようにしてもよいし、メタ情報生成部1bによってメモ情報から文字認識あるいはストローク認識したテキストデータを指摘事項として表示させるようにしてもよく、あるいは、メタ情報生成部1bによって映像/音声情報に含まれる音声情報を音声認識したテキストデータを指摘事項として表示させるようにしてもよい。また、ID情報34は、指摘箇所のIDであって、本例の「03−02」の場合、前の「03」が指導回で、後の「02」が当該指導回の指摘箇所のIDを示す。   Here, the indication item 33 may display an indication item added later by the meta-information editing unit 1d, or text data that has been character-recognized or stroke-recognized from the memo information by the meta-information generation unit 1b. You may make it display as a matter, or you may make it display the text data which carried out the speech recognition of the audio | voice information contained in video / audio information by the meta information production | generation part 1b as an indication matter. Further, the ID information 34 is the ID of the indicated location. In the case of “03-02” in this example, the previous “03” is the instruction time, and the subsequent “02” is the ID of the indicated location of the instruction time. Indicates.

図5は、指摘項目一覧から映像/音声情報の該当シーンを頭出し再生したコンテンツの一例を示す図で、図中、40はコンテンツ作成装置1により作成されたコンテンツで、該コンテンツ40は、指摘回数,指摘日,ID,指摘コメントなどの項目を含む指摘項目一覧(TODOリスト)41、指摘コメントに対応する映像/音声情報のシーン42,指摘事項(コメント)43,ID情報44を含む。尚、指摘項目一覧41は、続きページがある場合に、次ページ以降を切り替え表示させるためのスクロール機能を備えている。   FIG. 5 is a diagram showing an example of content obtained by cueing and reproducing the corresponding scene of the video / audio information from the pointed item list. In the figure, 40 is the content created by the content creation device 1, and the content 40 is indicated. A pointed item list (TODO list) 41 including items such as number of times, pointed out date, ID, pointed comment, video / audio information scene 42 corresponding to the pointed comment, pointed item (comment) 43 and ID information 44 are included. The pointed item list 41 has a scroll function for switching and displaying the next page and subsequent pages when there are subsequent pages.

本例では、指摘項目一覧41の指摘コメントをクリックすると、前述の図4と同様に、対応する指摘箇所のシーン42が再生される。このように、資料を利用しない場合でも、メタ情報編集部1dにより編集される指摘項目一覧41から映像/音声情報の該当シーンを頭出し再生することができる。ここで、指摘項目一覧41に含まれる指摘回数の星印は、受講者又は指導者によって編集されたもので、指摘コメント毎に指摘された回数を、星印の数で表している。   In this example, when an indication comment in the indication item list 41 is clicked, a scene 42 corresponding to the indication location is reproduced as in FIG. As described above, even when the material is not used, the corresponding scene of the video / audio information can be cued and reproduced from the indication item list 41 edited by the meta information editing unit 1d. Here, the asterisk of the number of indications included in the indication item list 41 is edited by the student or the instructor, and the number of indications for each indication comment is represented by the number of asterisks.

図6は、本発明が適用されるコンテンツ作成方法における映像/音声情報の取り込み処理の一例を説明するためのフロー図である。本例は、図3に示したコンテンツ作成装置1に基づいて説明するものとする。まず、リアルタイムキャプチャ部1aは、映像/音声情報取得手段2から指導内容の映像/音声情報を取り込んで(ステップS1)、取り込んだ映像/音声情報を記憶手段14aに記憶する(ステップS2)。   FIG. 6 is a flowchart for explaining an example of the video / audio information capturing process in the content creation method to which the present invention is applied. This example will be described based on the content creation device 1 shown in FIG. First, the real-time capture unit 1a takes in video / audio information of instruction content from the video / audio information acquisition unit 2 (step S1), and stores the acquired video / audio information in the storage unit 14a (step S2).

図7は、本発明が適用されるコンテンツ作成方法におけるメタ情報の生成からコンテンツを作成するまでの処理の一例を説明するためのフロー図である。本発明のコンテンツ作成装置1は、指導時において資料がある場合、資料がない場合の両方に適用することができる。まず、資料の有無を判断し(ステップS11)、資料有りの場合(YESの場合)、資料に書き込まれたメモ情報を取得し(ステップS12)、そのメモ情報と対応する映像/音声情報とを関連付けるためのメタ情報を生成し(ステップS13)、生成したメタ情報を記憶手段14bに記憶する(ステップS14)。この場合、記憶したメタ情報と映像/音声情報をコンテンツ生成部1cに入力すると、指導終了後、すぐにコンテンツの自動作成が可能となる。   FIG. 7 is a flowchart for explaining an example of processing from generation of meta information to content creation in the content creation method to which the present invention is applied. The content creation device 1 of the present invention can be applied to both cases where there is a document at the time of guidance and where there is no document. First, the presence / absence of a material is determined (step S11). When there is a material (in the case of YES), memo information written in the material is acquired (step S12), and the memo information and the corresponding video / audio information are obtained. Meta information for associating is generated (step S13), and the generated meta information is stored in the storage unit 14b (step S14). In this case, when the stored meta information and video / audio information are input to the content generation unit 1c, the content can be automatically created immediately after the instruction is finished.

一方、ステップS11において、資料無しの場合(NOの場合)、書き込む資料が存在しないため、指導終了後、メタ情報編集部1dを利用し、映像/音声情報を再生しながらメタ情報を付加,編集し(ステップS15)、そのメタ情報を記憶手段14bに記憶する(ステップS14)。この場合も記憶したメタ情報と映像/音声情報をコンテンツ生成部1cに入力すると、コンテンツを生成することができる。但し、資料がない場合、メタ情報編集のための手作業が必要となる。そこで、資料がなくてもコンテンツの自動作成を可能とするために、メタ情報生成部1bは、映像/音声情報中に含まれる音声情報(指摘内容)に対して音声認識を適用してテキスト(文字)情報に変換し、変換したテキスト情報及びその時刻情報を組にしたメタ情報を生成するようにしてもよい。このメタ情報及び対応する映像/音声情報をコンテンツ生成部1cに入力することで、コンテンツを自動生成することも可能である。   On the other hand, in step S11, when there is no material (in the case of NO), there is no material to be written. Therefore, after the instruction is completed, the meta information editing unit 1d is used to add and edit the meta information while reproducing the video / audio information. Then, the meta information is stored in the storage means 14b (step S14). In this case as well, content can be generated by inputting the stored meta information and video / audio information to the content generation unit 1c. However, if there is no material, manual work for editing meta information is required. Therefore, in order to enable automatic creation of content even if there is no material, the meta information generation unit 1b applies speech recognition to audio information (pointed content) included in the video / audio information to apply text ( It may be converted into (character) information, and meta information in which the converted text information and time information thereof are paired may be generated. By inputting the meta information and the corresponding video / audio information to the content generation unit 1c, the content can be automatically generated.

ここで、資料有りのコンテンツに対しても、資料無しのコンテンツと同様に、指導終了後、メタ情報編集部1dを利用して、映像/音声情報を再生しながらメタ情報を修正、付加することで内容をより充実、かつ整理したコンテンツを再生成することができる。従って、コンテンツ作成装置1は、記憶手段14bに記憶されたメタ情報を編集するかどうかを判断し(ステップS16)、編集する場合(YESの場合)、ステップS15に戻りメタ情報の編集処理を行う。一方、上記ステップS16において、メタ情報を編集しない場合(NOの場合)、コンテンツ生成部1cは、メタ情報と映像/音声情報とからコンテンツを生成する(ステップS17)。また、コンテンツ生成後に、メタ情報を編集して作り直すようにしてもよい。   Here, as with content without material, meta information is corrected and added while reproducing video / audio information using the meta information editing unit 1d after the instruction is completed, as with content without material. The content can be recreated with more complete and organized content. Therefore, the content creating apparatus 1 determines whether or not to edit the meta information stored in the storage unit 14b (step S16). When editing (YES), the process returns to step S15 to perform the meta information editing process. . On the other hand, if the meta information is not edited in step S16 (NO), the content generation unit 1c generates content from the meta information and the video / audio information (step S17). Further, after content generation, meta information may be edited and recreated.

尚、メタ情報として属性と情報を保存した場合、その属性ごとにコンテンツの見せ方を変えることができる。見せ方を変えて表示するため、コンテンツは、作りっぱなしではなく、ユーザの表示指定によってメタ情報からフィルタリングしなおして動的に作りなおすこともできる。   When attributes and information are stored as meta information, it is possible to change how the content is displayed for each attribute. In order to display the display in a different manner, the content can be dynamically recreated by re-filtering from the meta information according to the display designation of the user, instead of recreating the content.

図8は、メタ情報編集部1dによって表示されるユーザインタフェースの一例を示す図で、ユーザインタフェースは、メタ情報表示/編集画面50及び映像/音声情報再生画面60から構成されている。メタ情報表示/編集画面50は、Eventボタン51、メタ情報一覧52、Replaceボタン53、Skipボタン54、Deleteボタン55,図示しないPlayボタンなどを有し、映像/音声情報再生画面60は、映像再生画面61、早戻しボタン62、再生ボタン63、一時停止ボタン64、早送りボタン65、停止ボタン66、スキップボタン67a,67b、数字入力欄68、現在位置表示欄69などを有している。   FIG. 8 is a diagram illustrating an example of a user interface displayed by the meta information editing unit 1d. The user interface includes a meta information display / editing screen 50 and a video / audio information reproduction screen 60. The meta information display / edit screen 50 includes an event button 51, a meta information list 52, a replace button 53, a skip button 54, a delete button 55, a play button (not shown), and the like. It has a screen 61, a fast reverse button 62, a play button 63, a pause button 64, a fast forward button 65, a stop button 66, skip buttons 67a and 67b, a numeric input field 68, a current position display field 69, and the like.

メタ情報表示/編集画面50は、メタ情報を記憶手段14bから読み込んで表示、編集し、記憶手段14bに保存することができる。Eventボタン51は、クリックされると、現在の再生位置(映像/音声情報の先頭からの時刻t)を獲得し、メタ情報一覧52に一行追加する。メタ情報一覧52は、テキスト部分を編集可能とし、縦列のCol_0にはID、Col_1には時刻tを設定(変更可)、Col_2には内容入力欄、Col_nには任意の属性欄(履歴の指摘から、参照リンク、修正済の有無など)を表示させ、1行選択し、Skipボタン54を押すと該当時刻に現在位置が移動する。Replaceボタン53を押すと現在位置を獲得し、選択されたメタ情報の時刻を修正(タイミング修正)する。Deleteボタン55を押すと選択されたメタ情報を削除する。   The meta information display / edit screen 50 can read meta information from the storage unit 14b, display, edit, and save the meta information in the storage unit 14b. When the Event button 51 is clicked, the current playback position (time t from the beginning of the video / audio information) is acquired, and one line is added to the meta information list 52. In the meta information list 52, the text portion can be edited, ID is set in Col_0 in the column, and time t is set in Col_1 (changeable), contents input column in Col_2, and optional attribute column in Col_n (history indication) Display a reference link, presence or absence of correction, etc.), select one line, and press the Skip button 54, the current position moves at the corresponding time. When the Replace button 53 is pressed, the current position is acquired, and the time of the selected meta information is corrected (timing correction). When the Delete button 55 is pressed, the selected meta information is deleted.

映像/音声情報再生画面60において、再生ボタン63は現在位置から映像の再生を開始する。停止ボタン66は映像の再生停止を行う。一時停止ボタン64は映像の一時停止を行う。早戻しボタン62は映像の早戻しを行う。早送りボタン65は映像の早送りを行う。現在位置表示欄69はHH:MM:SS.MMMの形式で再生映像の現在位置を表示する。   On the video / audio information playback screen 60, the playback button 63 starts playback of the video from the current position. A stop button 66 stops video reproduction. The pause button 64 pauses the video. The fast reverse button 62 performs fast reverse of the video. The fast forward button 65 performs fast forward of the video. The current position display column 69 is HH: MM: SS. The current position of the playback video is displayed in the MMM format.

また、スキップボタン67a,67b、数字入力欄68は、映像/音声情報の仮決め位置から、時刻を微調整するためのI/Fであって、数字入力欄68は1〜10の整数(=S秒)を設定可能とする。スキップボタン67aが押されると現在位置+S秒にスキップし、スキップボタン67bが押されると現在位置−S秒にスキップする。   The skip buttons 67a and 67b and the number input field 68 are I / Fs for finely adjusting the time from the temporarily determined position of the video / audio information, and the number input field 68 is an integer of 1 to 10 (= S seconds) can be set. When the skip button 67a is pressed, the current position is skipped to + S seconds, and when the skip button 67b is pressed, the current position is skipped to -S seconds.

図9は、資料への書き込みに基づいてレッスン記録を作成するための装置の構成例を示す図で、コンテンツ作成装置1は、DVカメラやマイクなどの映像/音声情報取得デバイス2、資料表示機能3a及びメモ情報取得機能3bを備えたメモ情報取得手段3と接続されている。本例のメモ情報取得手段3は、各種資料をスキャンしてイメージデータとして取り込めるタブレットや、資料が楽譜の場合には電子譜面台(例えば、特開2000−305559号公報を参照)などで構成され、スキャンして取り込んだ資料を画面に表示させ、その資料上にペン入力などで書き込まれたメモ情報をその書き込み時刻と共に取得する。   FIG. 9 is a diagram showing a configuration example of a device for creating a lesson record based on writing to a material. The content creating device 1 includes a video / audio information acquisition device 2 such as a DV camera and a microphone, and a material display function. 3a and memo information acquisition means 3 having a memo information acquisition function 3b. The memo information acquisition means 3 of this example is composed of a tablet that scans various materials and captures them as image data, and an electronic music stand (for example, see Japanese Patent Application Laid-Open No. 2000-305559) when the materials are musical scores. Then, the scanned material is displayed on the screen, and memo information written by pen input or the like on the material is acquired together with the writing time.

図10は、資料への書き込みに基づいてレッスン記録を作成するための装置の他の構成例を示す図で、コンテンツ作成装置1は、DVカメラやマイクなどの映像/音声情報取得デバイス2、メモ情報取得機能を備えたメモ情報取得手段3と接続されている。本例のメモ情報取得手段3は、記入メモ情報取得デバイスで構成され、これは、前述したように、普通紙や専用用紙への書き込みをデジタルデータとして取り込める電子ペン(例えば、InkLink(登録商標)等)などのデバイスで、このようなデバイスを利用することにより、紙の資料に直接書き込むことができ、事前にスキャンして資料を取り込んでおく必要がなくなる。   FIG. 10 is a diagram showing another configuration example of an apparatus for creating a lesson record based on writing on a material. The content creation apparatus 1 includes a video / audio information acquisition device 2 such as a DV camera and a microphone, a memo, and the like. It is connected to a memo information acquisition means 3 having an information acquisition function. The memo information acquisition means 3 of this example is composed of an entry memo information acquisition device, which, as described above, is an electronic pen (for example, InkLink (registered trademark)) that can capture writing on plain paper or dedicated paper as digital data. By using such a device, it is possible to directly write on the paper material, and it is not necessary to scan and capture the material in advance.

さらに、メモ情報取得手段3の別の実施形態として、資料表示機能と記入メモ取得機能を、例えば、Microsoft Word(登録商標)や、Excel(登録商標)などのソフトウェアと、その機能の1つであるコメント記録機能を利用して実現してもよい。市販のソフトウェアの機能を利用することで、記入メモ情報と記入時の時刻情報とを簡単に取得することができる。   Furthermore, as another embodiment of the memo information acquisition means 3, a material display function and a written memo acquisition function are provided by software such as Microsoft Word (registered trademark) or Excel (registered trademark) and one of the functions. You may implement | achieve using a certain comment recording function. By using the function of commercially available software, it is possible to easily obtain the entry memo information and the time information at the time of entry.

図11は、資料有りコンテンツのメタ情報をメタ情報編集部1dにより編集して得られるレッスン指摘リストの一例を示す図で、図中、70はレッスン指摘リストで、該レッスン指摘リスト70は、指摘回数,指摘日,ID,指摘コメントなどを含む問題箇所71、演奏を通しで行ったときの記録であるこの日の通し72、これまでの軌跡や,お手本集,前回以前のレッスン記録などを含むその他73から構成されている。このレッスン指摘リスト70及び図4のコンテンツ30により1つのコンテンツを構成する。本例は、前述した図4のコンテンツ30に示したように、楽器のレッスンを復習するためのコンテンツのメタ情報を、メタ情報編集部1dで編集して得られるリストの例について説明する。   FIG. 11 is a diagram showing an example of a lesson indication list obtained by editing meta information of content with contents by the meta information editing unit 1d. In the figure, 70 is a lesson indication list, and the lesson indication list 70 is an indication. Includes problem areas 71 including the number of times, pointed out date, ID, pointed comment, etc., the whole day 72, which is a record of the performance of the performance, past trajectories, sample books, previous lesson records, etc. Others 73 are included. One content is constituted by the lesson indication list 70 and the content 30 of FIG. In this example, as shown in the content 30 of FIG. 4 described above, an example of a list obtained by editing meta information of content for reviewing musical instrument lessons by the meta information editing unit 1d will be described.

図11において、メタ情報編集部1dによりメタ情報を整理し、問題箇所71の指摘コメントと、資料(楽譜)と映像/音声情報とのマッピングを作成した。この問題箇所71の指摘コメントをクリックすると、該当する資料の場所あるいは映像/音声情報の場所が表示される。この際、資料(楽譜)上には詳細を記入せずに○印や下線などの印だけを記入し、あとは映像/音声情報中で実演説明するようにしてもよい。指摘コメント(詳細は図5を参照)では、過去の指摘事項と照合し、繰り返し指摘されているが、現在も改善されていないことを示す情報を重要度などとともに一覧表示させる。図中の星印は、累積指摘回数を示す。また、図4に示した例では資料のクリッカブルマップとして実現したが、資料の1箇所に対し、指摘シーンが複数存在する場合には、楽譜の一行ずつをイメージとし、その下に指摘項目を必要な数だけ表示して個々のシーンに対応付けてもよい。複数の指導回にまたがった表示を行う場合、個々のシーンは複数の映像/音声情報中に存在する。   In FIG. 11, the meta information editing unit 1d organizes the meta information, and creates a mapping between the comment pointed out by the problem portion 71 and the material (score) and video / audio information. When the comment pointed out at the problem location 71 is clicked, the location of the corresponding material or the location of the video / audio information is displayed. At this time, it is possible to enter only a mark such as a circle or an underline without entering details on the material (score), and then explain the demonstration in the video / audio information. In the comment pointed out (see FIG. 5 for details), information indicating that it has been pointed out repeatedly, but has not been improved, is displayed in a list together with the importance level. The star in the figure indicates the cumulative number of indications. In the example shown in FIG. 4, the map is realized as a clickable map of the material. However, if there are multiple pointed scenes for one location of the material, each line of the score is used as an image, and an item to be pointed below is required. Any number may be displayed and associated with each scene. In the case of performing display across a plurality of instruction times, individual scenes exist in a plurality of video / audio information.

図12は、メタ情報生成部1b及びメタ情報編集部1dにより生成/編集して得られる資料無しコンテンツのメタ情報の一例を示す図である。図12(A)は、資料がないダンス指導の第N回の指導における指摘内容を映像/音声情報中の音声から音声認識したテキスト情報をその時刻とともに抽出したメタ情報の例を示す。   FIG. 12 is a diagram illustrating an example of meta information of content without material obtained by generation / editing by the meta information generation unit 1b and the meta information editing unit 1d. FIG. 12A shows an example of meta information in which text information obtained by recognizing the indication content in the Nth instruction of the dance instruction without materials from the sound in the video / audio information is extracted together with the time.

図12(B)は、図12(A)に示すメタ情報をメタ情報編集部1dで編集した例を示す図である。ここでは、図12(A)のメタ情報に対して、さらに指導回及び修正状態などを追加している。また、02:30と05:13は後から思い出して追加している。また、履歴をチェックし、過去に指摘されたものは同じ情報にまとめた。   FIG. 12B is a diagram showing an example in which the meta information shown in FIG. 12A is edited by the meta information editing unit 1d. Here, guidance times, correction states, and the like are further added to the meta information in FIG. In addition, 02:30 and 05:13 are remembered and added later. We also checked the history and compiled the same information that was pointed out in the past.

図13は、資料有りコンテンツのメタ情報の一例を示す図である。本例では、学習塾での指導内容を自宅で確認するためのコンテンツ(資料有り)のメタ情報の例について示す。このメタ情報は、資料としては問題集あるいはプリントを用いて、生徒が教材となる問題を解き、先生によって添削された資料をもとに指導したときに、時刻,項目,添削で記入された内容を含むものとする。この添削で記入された内容(書き込み)に対応して、指導内容の映像/音声情報が再生される。   FIG. 13 is a diagram illustrating an example of meta information of content with material. In this example, an example of meta information of content (with data) for confirming the content of instruction at a cram school at home is shown. This meta information is the contents filled in with time, items, and corrections when students use the problem collection or prints as materials to solve problems that serve as teaching materials and teach based on the materials corrected by the teacher. Shall be included. Corresponding to the content (writing) entered by this correction, the video / audio information of the guidance content is reproduced.

尚、説明のために、図13では映像/音声情報の内容が言葉で記載されているが、実際にはこの言葉に対応する映像/音声情報が画面上で再生される。例えば、00:03に行った項目(問1)の場合、資料上には「答えだけでなく式も書く。」と記入されており、この書き込みに対応して、指導内容の映像/音声情報が再生されるが、この場合、先生は生徒(子供)に対して「式も書かないと、○はあげられないよ。式を書いてみて。」といい、これに応じて、子供が式を書き、途中で止まる、という動作をする。これを受けて、さらに、先生が説明を行うという一連の動作/音声が映像/音声情報として再生される。   For the sake of explanation, the contents of the video / audio information are described in words in FIG. 13, but the video / audio information corresponding to the words is actually reproduced on the screen. For example, in the case of the item (question 1) that was performed at 00:03, the document is written “Write an expression as well as an answer.” Corresponding to this writing, video / audio information of instruction content However, in this case, the teacher says to the student (children) "If you don't write a formula, you can't give a circle. Try writing a formula." Is written, and stops on the way. In response to this, a series of operations / sounds explained by the teacher are reproduced as video / sound information.

上記のように、生成されたコンテンツは指導終了後すぐ、Webサーバに個人ごとにアップロードされる。生徒の自宅において、例えば親がパスワードを入力し、自分の子供のコンテンツにアクセスする。そのコンテンツから子供の様子や指導者の様子を確認し、どこがわからないのか、あるいは教え方が悪いのかなど、を把握し、その後の指導と対策の参考にする。学習塾は、このようなコンテンツ配信サービスを月謝の範囲で行うようにしてもよい。   As described above, the generated content is uploaded to the Web server for each individual immediately after the instruction is completed. At the student's home, for example, a parent enters a password to access the content of his child. Check the state of the child and the instructor from the contents, understand where you do not know or how to teach, and use it as a reference for further guidance and countermeasures. The cram school may provide such a content distribution service within a monthly fee.

図14は、資料有りコンテンツのメタ情報の他の例を示す図である。本例では、社内のプレゼンテーションの発表練習に利用するためのコンテンツ(資料有り)のメタ情報の例について示す。このメタ情報は、例えば、Microsoft Power Point(登録商標)などの資料に簡単なメモだけを記入し、あとは映像/音声情報中で指導したときに、資料上の指摘箇所,記入内容(簡単なメモ),見本/注意の属性などを含むものとする。この記入内容(書き込み)に対応して、指導内容の映像/音声情報が再生される。   FIG. 14 is a diagram illustrating another example of meta information of content with material. This example shows an example of meta information of content (with data) to be used for in-house presentation presentation practice. This meta information is, for example, only a simple memo is written in a document such as Microsoft Power Point (registered trademark), and after that, when guidance is given in the video / audio information, the point indicated on the document, the contents of the entry (simple Memo), sample / caution attributes, etc. Corresponding to this entry content (writing), video / audio information of instruction content is reproduced.

尚、説明のために、図13と同様に、映像/音声情報の内容が言葉で記載されているが、実際にはこの言葉に対応する映像/音声情報が画面上で再生される。例えば、指摘箇所が資料の最初、記入内容が声小、属性が注意の場合、資料上には「声小」と記入されており、この書き込みに対応して、指導内容の映像/音声情報が再生されるが、この場合、例えば、上司は部下に対して「小さくて聞こえないよ。もう一度やってみて。」といい、これに応じて、部下が実演し、これを受けて、さらに、上司が「もっと。」といい、これに応じて、部下が実演し、さらに、上司が「それぐらい。」という、という一連の動作/音声が映像/音声情報として再生される。   For the sake of explanation, the contents of the video / audio information are described in words as in FIG. 13, but the video / audio information corresponding to the words is actually reproduced on the screen. For example, if the pointed out is the beginning of the material, the content to be entered is low voice, and the attribute is attention, “Voice low” is entered on the material. In this case, for example, the boss says to his subordinates, “It's too small to hear. Try again.” In response, the subordinate demonstrates and receives the boss. Is called “more”, and in response to this, a series of actions / sounds that the subordinates demonstrate and that the boss says “about that” are reproduced as video / audio information.

本発明では、情報が多岐にわたるほど、すべての情報を一度に見せると、整理されずに見にくくなる。そこでユーザの指定により表示するデータを変えたり、表示色を変えたりするためのI/F(コンテンツ生成部1c)を備える。コンテンツはサーバ型の場合、ユーザ指定時に動的に生成してもよいが、コンテンツの蓄積メディア(CD/DVDなど)による配布の場合に備え、静的にすべて用意しておいてもよい。ユーザ指定では、例えば、指導回ごと、見本か注意か、現在修正されていない注意点などのそれぞれに対して表示色を変えたり、情報ごとに表示のON/OFFを指定するようにしてもよい。   In the present invention, the more diverse the information is, the more difficult it is to view it without organizing it when all the information is shown at once. Therefore, an I / F (content generation unit 1c) for changing data to be displayed or changing a display color according to a user's specification is provided. In the case of the server type, the content may be dynamically generated at the time of user designation. However, all of the content may be prepared statically in preparation for the distribution of the content using a storage medium (CD / DVD or the like). In the user designation, for example, the display color may be changed for each instruction time, whether the sample is a caution or a caution that is not currently corrected, or the display ON / OFF may be specified for each information. .

図15は、資料への書き込みから映像/音声情報の該当シーンを頭出し再生したコンテンツの他の例を示す図で、図中、80はコンテンツ作成装置1により作成されたコンテンツで、該コンテンツ80は、資料(本例では楽譜)及びその楽譜上に書き込まれたメモ情報からなるイメージデータ81(以下、単に楽譜81という)、メモ情報に対応する映像/音声情報のシーン82,指摘事項(コメント)83,ID情報84を含む。尚、楽譜81は、続きページがある場合、スクロールあるいはページ切り替えにより次ページに移行させることができる。また、書き込みに対応する楽譜81上の矩形部分は、クリッカブルマップ81a〜81pを示す。ここでは、クリッカブルマップ81a〜81pに対応するメタ情報から、例えば、指導回ごと、見本か注意か、現在修正されていない注意点、などによって各領域の色を変えて表示している。   FIG. 15 is a diagram showing another example of content obtained by cueing and reproducing a corresponding scene of video / audio information from writing in a material. In the figure, 80 is content created by the content creation device 1, and the content 80 Indicates image data 81 (hereinafter simply referred to as score 81) composed of a material (score in this example) and memo information written on the score, a scene 82 of video / audio information corresponding to the memo information, and a comment (comment) ) 83, ID information 84 is included. Note that the score 81 can be shifted to the next page by scrolling or switching pages when there are continued pages. In addition, rectangular portions on the score 81 corresponding to writing indicate clickable maps 81a to 81p. Here, from the meta information corresponding to the clickable maps 81a to 81p, the colors of the respective regions are displayed with different colors depending on, for example, the teaching times, the sample or the caution, or the caution that is not currently corrected.

図16は、複数のコンテンツを組み合わせて総合的に利用するためのレッスン記録リストの表示例を示す図で、図中、90はレッスン記録と累積TODOリスト(以下、レッスン記録リスト)で、該レッスン記録リスト90は、先生のお手本集91,これまでの軌跡(通し)92,前回以前のレッスン記録とTODOリスト93を含む。本例では、1つのコンテンツだけでなく、組み合わせて総合的に利用するためのリストについて説明する。   FIG. 16 is a view showing a display example of a lesson record list for combining and using a plurality of contents. In the figure, 90 is a lesson record and a cumulative TODO list (hereinafter, lesson record list), The record list 90 includes a teacher's example collection 91, a past trajectory (through) 92, a lesson record before the previous time, and a TODO list 93. In this example, not only one content but also a list for comprehensive use in combination will be described.

1つの教材に対して、複数回の指導が行われるのが普通である。一方、1回の指導で、複数の教材にわたって同じことを繰り返し指摘されることもある。そこで、生徒ごとにポータルページを作成し、教材ごとに指導回別にコンテンツ一覧表示ページを用意したり、指導回ごとに複数教材のコンテンツ一覧表示ページを用意したりする。これにより、例えば、下記のようなことが実現できる。
(1)指導1回ごとのコンテンツを記録の意味で残す。
・指摘項目と該当シーンの頭だし(図16に示す前回以前のレッスン記録とTODOリスト93に相当する)。
・注意と悪い例と見本とを確認
・見本と自分との比較
(2)指導1回で直ることも直らないこともある。それまでの累積で指摘として残っている項目を明示する。同じ指摘がどのくらいあるかを確認するため、以前の指摘とも重ねあわせて、プライオリティをつけて表示する。その日時点で重要なものをピックアップして表示する。これは、図16に示す前回以前のレッスン記録とTODOリスト93に相当する。
(3)教材ごとのお手本集を表示する。これは、図16に示す先生のお手本集91に相当する。
(4)今回の自分と、以前の自分との比較を表示する。これは、図16に示すこれまでの軌跡(通し)92に相当する。
It is common for a teaching material to be taught multiple times. On the other hand, the same thing may be repeatedly pointed out over several teaching materials by one instruction. Therefore, a portal page is created for each student, and a content list display page is prepared for each teaching time for each teaching material, or a content list display page for a plurality of teaching materials is prepared for each teaching time. Thereby, for example, the following can be realized.
(1) The contents of each instruction are left in the meaning of recording.
-The pointed out item and the beginning of the corresponding scene (corresponding to the lesson record before the previous time shown in FIG. 16 and the TODO list 93).
・ Check attention, bad examples, and sample ・ Comparison between sample and yourself (2) May or may not be corrected by one instruction. Clarify the remaining items that have been pointed out. In order to check how many of the same issues are present, it is displayed with priorities superimposed on the previous issues. Pick up and display important things as of that day. This corresponds to the lesson record before the previous time and the TODO list 93 shown in FIG.
(3) Display a model book for each teaching material. This corresponds to the teacher's example collection 91 shown in FIG.
(4) Display a comparison between yourself this time and the previous one. This corresponds to the trajectory (through) 92 shown in FIG.

(第3の実施形態)
図17は、本発明のコンテンツ作成装置1を利用したコンテンツ提供システムの構成例を示す図で、図中、100はインターネット、101はコンテンツを登録したコンテンツサーバ装置、102は先生用PC(すなわちコンテンツ作成装置1)、102a及び102bは先生用PC102で作成されたコンテンツ、103は生徒用PC、104は生徒、105は先生、106はDVカメラを示す。先生用PC102は、DVカメラ106と接続可能とする。コンテンツサーバ装置101は、生徒用PC103とインターネット100を介して接続され、先生用PC102とネットワーク等を介して接続されている。尚、本実施形態では、楽器のレッスンや、学習塾の個人授業などで、生徒が指導内容を後から確認するためのコンテンツを提供するためのシステムについて説明する。
(Third embodiment)
FIG. 17 is a diagram showing a configuration example of a content providing system using the content creation device 1 of the present invention. In the figure, 100 is the Internet, 101 is a content server device in which content is registered, and 102 is a teacher's PC (that is, content) Creation devices 1), 102a and 102b are contents created on the teacher PC 102, 103 is a student PC, 104 is a student, 105 is a teacher, and 106 is a DV camera. The teacher PC 102 can be connected to the DV camera 106. The content server apparatus 101 is connected to the student PC 103 via the Internet 100 and is connected to the teacher PC 102 via a network or the like. In the present embodiment, a system for providing a content for a student to confirm guidance contents later in a musical instrument lesson or a private cram school class will be described.

先生用PC102(コンテンツ作成装置1)は、指導内容に関するコンテンツ102a及び102bをコンテンツサーバ装置101にアップロードして登録する。コンテンツサーバ装置101は、生徒用PC103からコンテンツ閲覧要求を受け付け、登録されているコンテンツから生徒用PC103を使用する生徒のコンテンツを選択し、選択したコンテンツを生徒用PC103に送信する。   The teacher's PC 102 (content creation apparatus 1) uploads and registers the contents 102a and 102b related to the instruction content to the content server apparatus 101. The content server apparatus 101 receives a content browsing request from the student PC 103, selects student content using the student PC 103 from the registered content, and transmits the selected content to the student PC 103.

このように、先生側がコンテンツをアップロードしてサーバ装置に登録し(あるいはCDやDVDなどの記録媒体で配布してもよい)、生徒側はサーバ装置にアクセスすることで、コンテンツを閲覧することができるため、指導内容を後から確認することができるようになり、復習等に役立てることができる。   In this way, the teacher can upload the content and register it on the server device (or distribute it on a recording medium such as a CD or DVD), and the student side can view the content by accessing the server device. It is possible to check the contents of the instruction later, which can be used for review.

以上、本発明のコンテンツ作成装置、システムにおける各機能を中心に各実施形態を説明してきたが、本発明は、コンテンツ作成装置における各ステップを実行する方法としても説明したようにコンテンツ作成方法としての形態もとることができる。また、この各機能を有するコンテンツ作成装置と同様に、コンピュータにコンテンツ作成装置として機能させるためのプログラムとしての形態も、また、そのプログラムを記録した記録媒体としての形態も可能である。   As described above, each embodiment has been described centering on each function in the content creation apparatus and system of the present invention. However, the present invention is a content creation method as described also as a method for executing each step in the content creation apparatus. Can take form. Further, similarly to the content creation apparatus having each function, a form as a program for causing a computer to function as a content creation apparatus, and a form as a recording medium on which the program is recorded are possible.

本発明によるコンテンツ作成の機能を実現するためのプログラムやデータを記憶した記録媒体の実施形態について説明する。記録媒体としては、具体的には、CD−ROM(−R/−RW)、光磁気ディスク、DVD−ROM(−R/−RW/−RAM)、FD、HD、フラッシュメモリ、メモリカードや、メモリスティック及びその他各種ROMやRAM等が想定でき、これら記録媒体に上述した本発明の各実施形態の装置としての機能をコンピュータに実行させ、コンテンツ作成の機能を実現するためのプログラムを記録して流通させることにより、当該機能の実現を容易にする。そしてコンピュータ等の情報処理装置に上記のごとくの記録媒体を装着して情報処理装置によりプログラムを読み出すか、若しくは情報処理装置が備えている記憶媒体に当該プログラムを記憶させておき、必要に応じて読み出すことにより、本発明に関わるコンテンツ作成の機能を実行することができる。   An embodiment of a recording medium storing a program and data for realizing a content creation function according to the present invention will be described. Specific recording media include CD-ROM (-R / -RW), magneto-optical disk, DVD-ROM (-R / -RW / -RAM), FD, HD, flash memory, memory card, Memory sticks and other various ROMs, RAMs, and the like can be assumed, and a program for realizing the function of creating content is recorded on these recording media by causing a computer to execute the functions of the above-described embodiments of the present invention. Distribution of the function facilitates the realization of the function. Then, the recording medium as described above is mounted on an information processing apparatus such as a computer and the program is read by the information processing apparatus, or the program is stored in a storage medium provided in the information processing apparatus. By reading, it is possible to execute a content creation function according to the present invention.

本発明に係わる情報処理装置の内部構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of the information processing apparatus concerning this invention. 本発明の一実施形態に係るコンテンツ作成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the content production apparatus which concerns on one Embodiment of this invention. 本発明の他の実施形態に係るコンテンツ作成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the content creation apparatus which concerns on other embodiment of this invention. 資料への書き込みから映像/音声情報の該当シーンを頭出し再生したコンテンツの一例を示す図である。It is a figure which shows an example of the content which searched and searched the applicable scene of the video / audio information from writing to a document. 指摘項目一覧から映像/音声情報の該当シーンを頭出し再生したコンテンツの一例を示す図である。It is a figure which shows an example of the content which searched the applicable scene of the video / audio information from the pointed item list. 本発明が適用されるコンテンツ作成方法における映像/音声情報の取り込み処理の一例を説明するためのフロー図である。It is a flowchart for demonstrating an example of the taking-in process of the video / audio information in the content creation method to which this invention is applied. 本発明が適用されるコンテンツ作成方法におけるメタ情報の生成からコンテンツを作成するまでの処理の一例を説明するためのフロー図である。It is a flowchart for demonstrating an example of the process from the production | generation of meta information to the production of content in the content creation method to which the present invention is applied. メタ情報編集部によって表示されるユーザインタフェースの一例を示す図である。It is a figure which shows an example of the user interface displayed by the meta information edit part. 資料への書き込みに基づいてレッスン記録を作成するための装置の構成例を示す図である。It is a figure which shows the structural example of the apparatus for producing a lesson record based on the writing to material. 資料への書き込みに基づいてレッスン記録を作成するための装置の他の構成例を示す図である。It is a figure which shows the other structural example of the apparatus for producing a lesson record based on the writing to material. 資料有りコンテンツのメタ情報をメタ情報編集部により編集して得られるレッスン指摘リストの一例を示す図である。It is a figure which shows an example of the lesson indication list | wrist obtained by editing the meta information of content with a document by a meta information editing part. メタ情報生成部及びメタ情報編集部により生成/編集して得られる資料無しコンテンツのメタ情報の一例を示す図である。It is a figure which shows an example of the meta information of the content without a material obtained by producing / editing by a meta information production | generation part and a meta information editing part. 資料有りコンテンツのメタ情報の一例を示す図である。It is a figure which shows an example of the meta information of content with a document. 資料有りコンテンツのメタ情報の他の例を示す図である。It is a figure which shows the other example of meta information of content with a document. 資料への書き込みから映像/音声情報の該当シーンを頭出し再生したコンテンツの他の例を示す図である。It is a figure which shows the other example of the content which cued and reproduced the applicable scene of the video / audio information from the writing to the material. 複数のコンテンツを組み合わせて総合的に利用するためのレッスン記録リストの表示例を示す図である。It is a figure which shows the example of a display of the lesson record list for combining and using a some content comprehensively. 本発明のコンテンツ作成装置を利用したコンテンツ提供システムの構成例を示す図である。It is a figure which shows the structural example of the content provision system using the content creation apparatus of this invention.

符号の説明Explanation of symbols

1…情報処理装置(コンテンツ作成装置)、1a…リアルタイムキャプチャ部、1b…メタ情報生成部、1c…コンテンツ生成部、1d…メタ情報編集部、2…映像/音声情報取得手段(映像/音声情報取得デバイス)、3…メモ情報取得手段(記入メモ情報取得デバイス)、11…CPU、12…RAM、13…ROM、14,14a,14b…記憶装置(記憶手段)、15…入力装置、16…表示装置、17…通信装置、18…出力装置、19…入出力I/F、20…システムバス、21…録音機、22…MD、23…ICレコーダ、24…DVDCAM、25…DVカメラ、30,40,80…コンテンツ、31,81…イメージデータ(楽譜)、31a,31b,31c,81a〜81p…クリッカブルマップ、32,42,82…シーン、33,43,83…指摘事項(コメント)、34,44,84…ID情報、41…指摘項目一覧(TODOリスト)、50…メタ情報表示/編集画面、51…Eventボタン、52…メタ情報一覧、53…Replaceボタン、54…Skipボタン、55…Deleteボタン、60…映像/音声情報再生画面、61…映像再生画面、62…早戻しボタン、63…再生ボタン、64…一時停止ボタン、65…早送りボタン、66…停止ボタン、67a,67b…スキップボタン、68…数字入力欄、69…現在位置表示欄、70…レッスン記録リスト、71…問題箇所、72…この日の通し、73…その他、90…レッスン記録と累積TODOリスト、91…先生のお手本集、92…これまでの軌跡(通し)、93…前回以前のレッスン記録とTODOリスト、100…インターネット、101…コンテンツサーバ装置、102…先生用PC(コンテンツ作成装置)、102a,102b…コンテンツ、103…生徒用PC、104…生徒、105…先生、106…DVカメラ。 DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus (content creation apparatus), 1a ... Real time capture part, 1b ... Meta information generation part, 1c ... Content generation part, 1d ... Meta information editing part, 2 ... Video / audio information acquisition means (Video / audio information) (Acquisition device), 3 ... memo information acquisition means (entry memo information acquisition device), 11 ... CPU, 12 ... RAM, 13 ... ROM, 14, 14a, 14b ... storage device (storage means), 15 ... input device, 16 ... Display device, 17 ... communication device, 18 ... output device, 19 ... input / output I / F, 20 ... system bus, 21 ... recorder, 22 ... MD, 23 ... IC recorder, 24 ... DVDCAM, 25 ... DV camera, 30 , 40, 80 ... content, 31, 81 ... image data (score), 31a, 31b, 31c, 81a to 81p ... clickable map, 32, 42, 82 ... 33, 43, 83 ... Pointed items (comments), 34, 44, 84 ... ID information, 41 ... List of pointed items (TODO list), 50 ... Meta information display / edit screen, 51 ... Event button, 52 ... Meta information list, 53 ... Replace button, 54 ... Skip button, 55 ... Delete button, 60 ... Video / audio information playback screen, 61 ... Video playback screen, 62 ... Rewind button, 63 ... Play button, 64 ... Pause button , 65 ... Fast forward button, 66 ... Stop button, 67a, 67b ... Skip button, 68 ... Number input field, 69 ... Current position display field, 70 ... Lesson record list, 71 ... Problem part, 72 ... Throughout the day, 73 ... Others, 90 ... Lesson record and cumulative to-do list, 91 ... Teacher's example book, 92 ... Traces to date (through), 93 ... Before the last time Lesson record and TODO list, 100 ... Internet, 101 ... Content server device, 102 ... Teacher PC (content creation device), 102a, 102b ... Content, 103 ... Student PC, 104 ... Student, 105 ... Teacher, 106 ... DV camera.

Claims (19)

習熟を必要とする技術や能力等の指導内容を後から確認するためのコンテンツを作成するコンテンツ作成装置において、前記指導内容を撮影してその映像/音声情報を取得する映像/音声情報取得手段と、前記指導に利用した資料への書き込み情報を取得する書き込み情報取得手段と接続可能とし、前記映像/音声情報取得手段から前記指導内容の映像/音声情報を取り込む映像/音声情報取込手段と、前記資料に書き込まれたタイミングで前記書き込み情報取得手段から前記資料への書き込み時刻及び書き込みドット位置を取得し、該書き込み時刻及び書き込みドット位置から前記資料の書き込み単位毎にメタ情報を生成するメタ情報生成手段と、前記映像/音声情報及びメタ情報を記憶する記憶手段と、該記憶した映像/音声情報及びメタ情報に基づいて前記資料の書き込み単位とその書き込み時刻に対応する映像/音声情報とを関連付けして前記コンテンツを生成するコンテンツ生成手段とを備えていることを特徴とするコンテンツ作成装置。   Video / audio information acquisition means for capturing the instruction content and acquiring the video / audio information in a content creation device for creating content for confirming the instruction content such as skills and skills that require proficiency later; Video / audio information capturing means that can be connected to writing information acquisition means for acquiring writing information to the material used for the instruction, and that captures video / audio information of the instruction content from the video / audio information acquisition means; Meta information that acquires a writing time and a writing dot position to the material from the writing information acquisition means at a timing when the material is written, and generates meta information for each writing unit of the material from the writing time and the writing dot position. Generating means, storage means for storing the video / audio information and meta information, and the stored video / audio information and memory information. Content creation apparatus characterized by in association with the video / audio information corresponding to the write unit and the writing time of the article and a content generation means for generating the content based on the information. 請求項1に記載のコンテンツ作成装置において、前記メタ情報生成手段は、前記書き込み時刻の間隔と前記書き込みドット位置から前記書き込み単位のビットマップデータを生成し、該生成したビットマップデータ及び前記書き込み時刻から前記メタ情報を生成することを特徴とするコンテンツ作成装置。   2. The content creation device according to claim 1, wherein the meta information generating unit generates bitmap data of the writing unit from the interval of the writing time and the writing dot position, and the generated bitmap data and the writing time. A content creation apparatus that generates the meta-information from: 請求項2に記載のコンテンツ作成装置において、前記メタ情報は、指導回数,指導回毎の書き込みID,書き込み時刻,ビットマップデータを少なくとも含むことを特徴とするコンテンツ作成装置。   3. The content creation apparatus according to claim 2, wherein the meta information includes at least a guidance number, a writing ID for each guidance time, a writing time, and bitmap data. 請求項2に記載のコンテンツ作成装置において、前記メタ情報生成手段は、前記書き込み単位のビットマップデータを文字あるいは画像として認識する手段を備え、該認識した結果から前記書き込み単位を分類し、その分類情報を前記メタ情報に追加することを特徴とするコンテンツ作成装置。   3. The content creation device according to claim 2, wherein the meta information generating means includes means for recognizing the bitmap data of the writing unit as a character or an image, classifying the writing unit from the recognized result, and classifying the classification. A content creating apparatus, wherein information is added to the meta information. 請求項4に記載のコンテンツ作成装置において、前記メタ情報生成手段は、前記書き込み単位のビットマップデータを文字として認識した場合、該認識した文字をテキストデータとして取得できるようにしたことを特徴とするコンテンツ作成装置。   5. The content creation device according to claim 4, wherein the meta information generation unit can acquire the recognized character as text data when the bitmap data of the writing unit is recognized as a character. Content creation device. 請求項1又は2に記載のコンテンツ作成装置において、前記コンテンツ生成手段は、前記記憶手段に記憶したメタ情報に基づいて、前記書き込み単位に対応したクリック可能な領域を作成し、該作成した領域と、その領域の書き込み時刻に対応する映像/音声情報とを関連付けすることを特徴とするコンテンツ作成装置。   3. The content creation device according to claim 1, wherein the content generation unit creates a clickable area corresponding to the writing unit based on the meta information stored in the storage unit, and A content creating apparatus that associates video / audio information corresponding to the writing time of the area. 請求項6に記載のコンテンツ作成装置において、前記コンテンツ生成手段は、前記クリック可能な領域を、前記資料のビットマップデータに重ね合わせることを特徴とするコンテンツ作成装置。   7. The content creation apparatus according to claim 6, wherein the content generation unit superimposes the clickable area on bitmap data of the material. 請求項6に記載のコンテンツ作成装置において、前記コンテンツ生成手段は、前記クリック可能な領域の色あるいは形状を、前記メタ情報に含まれる属性毎に異ならせることを特徴とするコンテンツ作成装置。   7. The content creation apparatus according to claim 6, wherein the content generation unit changes the color or shape of the clickable area for each attribute included in the meta information. 請求項1乃至8のいずれか1に記載のコンテンツ作成装置において、前記記憶手段に記憶したメタ情報を編集するためのメタ情報編集手段を備え、該メタ情報編集手段は、前記記憶手段に記憶したメタ情報を読み込んで、該読み込んだメタ情報を表示し、そのメタ情報に対応する映像/音声情報を再生しながら、前記メタ情報を編集できるようにしたことを特徴とするコンテンツ作成装置。   9. The content creation device according to claim 1, further comprising meta information editing means for editing meta information stored in the storage means, wherein the meta information editing means is stored in the storage means. A content creation device, wherein meta information is read, the read meta information is displayed, and the meta information can be edited while reproducing video / audio information corresponding to the meta information. 請求項9に記載のコンテンツ作成装置において、前記指導時に資料を利用しない場合、前記メタ情報編集手段は、前記記憶手段に記憶した映像/音声情報を再生しながら、メタ情報を後から付加できるようにしたことを特徴とするコンテンツ作成装置。   10. The content creation device according to claim 9, wherein when meta data is not used at the time of instruction, the meta information editing unit can add meta information later while reproducing the video / audio information stored in the storage unit. A content creation apparatus characterized by the above. 請求項9に記載のコンテンツ作成装置において、前記指導時に資料を利用しない場合、前記メタ情報生成手段は、前記指導内容の映像/音声情報に含まれる音声情報を音声認識してテキストデータに変換し、該テキストデータ及び当該音声が入力された時刻を取得する手段を備え、該取得したテキストデータ及び音声入力時刻に基づいてメタ情報を生成することを特徴とするコンテンツ作成装置。   10. The content creation device according to claim 9, wherein when no material is used at the time of guidance, the meta information generation unit recognizes voice information included in the video / audio information of the guidance content and converts it into text data. A content creation apparatus comprising means for acquiring the time when the text data and the voice are input, and generating meta information based on the acquired text data and the voice input time. 習熟を必要とする技術や能力等の指導内容を後から確認するためのコンテンツを作成するコンテンツ作成装置を用いたコンテンツ作成方法において、該コンテンツ作成装置は、前記指導内容を撮影してその映像/音声情報を取得する映像/音声情報取得手段と、前記指導に利用した資料への書き込み情報を取得する書き込み情報取得手段と接続され、前記映像/音声情報取得手段から前記指導内容の映像/音声情報を取り込む映像/音声情報取込ステップと、前記資料に書き込まれたタイミングで前記書き込み情報取得手段から前記資料への書き込み時刻及び書き込みドット位置を取得し、該書き込み時刻及び書き込みドット位置から前記資料の書き込み単位毎にメタ情報を生成するメタ情報生成ステップと、前記映像/音声情報及びメタ情報を前記コンテンツ作成装置が備える記憶手段に記憶する記憶ステップと、該記憶した映像/音声情報及びメタ情報に基づいて前記資料の書き込み単位とその書き込み時刻に対応する映像/音声情報とを関連付けして前記コンテンツを生成するコンテンツ生成ステップとを有することを特徴とするコンテンツ作成方法。   In a content creation method using a content creation device that creates content for later confirming instruction content such as skills and skills that require proficiency, the content creation device shoots the instruction content and captures the video / Video / audio information acquisition means for acquiring audio information, and writing information acquisition means for acquiring information to be written on the material used for the instruction, and the video / audio information of the instruction content from the image / audio information acquisition means A video / audio information capturing step for capturing the data, and a writing time and a writing dot position to the material from the writing information acquisition means at a timing when the data is written to the material, and from the writing time and the writing dot position, A meta information generating step for generating meta information for each writing unit; and the video / audio information and meta information Is stored in the storage means included in the content creation device, and the writing unit of the material is associated with the video / audio information corresponding to the writing time based on the stored video / audio information and meta information. A content generation method comprising: a content generation step for generating the content. 請求項12に記載のコンテンツ作成方法において、前記メタ情報生成ステップは、前記書き込み時刻の間隔と前記書き込みドット位置から前記書き込み単位のビットマップデータを生成し、該生成したビットマップデータ及び前記書き込み時刻から前記メタ情報を生成することを特徴とするコンテンツ作成方法。   13. The content creation method according to claim 12, wherein the meta information generation step generates bitmap data of the writing unit from the writing time interval and the writing dot position, and the generated bitmap data and the writing time. The content creation method characterized in that the meta information is generated from the content. 請求項12又は13に記載のコンテンツ作成方法において、前記コンテンツ生成ステップは、前記記憶手段に記憶したメタ情報に基づいて、前記書き込み単位に対応したクリック可能な領域を作成し、該作成した領域と、その領域の書き込み時刻に対応する映像/音声情報とを関連付けすることを特徴とするコンテンツ作成方法。   14. The content creation method according to claim 12 or 13, wherein the content generation step creates a clickable area corresponding to the writing unit based on meta information stored in the storage means, and the created area and A method of creating content, comprising associating video / audio information corresponding to the writing time of the area. 請求項12乃至14のいずれか1に記載のコンテンツ作成方法において、前記記憶手段に記憶したメタ情報を編集するメタ情報編集ステップを有し、該メタ情報編集ステップは、前記記憶手段に記憶したメタ情報を読み込んで、該読み込んだメタ情報を表示し、そのメタ情報に対応する映像/音声情報を再生しながら、前記メタ情報を編集できるようにしたことを特徴とするコンテンツ作成方法。   15. The content creation method according to claim 12, further comprising a meta information editing step for editing the meta information stored in the storage unit, wherein the meta information editing step includes a meta information editing step stored in the storage unit. A content creation method, wherein information is read, the read meta information is displayed, and the meta information can be edited while reproducing video / audio information corresponding to the meta information. 請求項15に記載のコンテンツ作成方法において、前記指導時に資料を利用しない場合、前記メタ情報編集ステップは、前記記憶手段に記憶した映像/音声情報を再生しながら、メタ情報を後から付加できるようにしたことを特徴とするコンテンツ作成方法。   16. The content creation method according to claim 15, wherein when meta data is not used at the time of instruction, the meta information editing step can add meta information later while reproducing the video / audio information stored in the storage means. A content creation method characterized by 請求項1乃至11のいずれか1に記載のコンテンツ作成装置により作成されたコンテンツを登録したサーバ装置と、指導を受ける受講者側が使用する端末装置とを有し、前記サーバ装置と前記端末装置とがネットワークを介して接続されたコンテンツ提供システムにおいて、前記サーバ装置は、前記端末装置からコンテンツ閲覧要求を受け付け、前記登録されているコンテンツから前記端末装置を使用する受講者のコンテンツを選択し、該選択したコンテンツを前記端末装置に送信することを特徴とするコンテンツ提供システム。   A server device that registers content created by the content creation device according to any one of claims 1 to 11, and a terminal device that is used by a student who receives guidance, the server device and the terminal device, In the content providing system connected via a network, the server device receives a content browsing request from the terminal device, selects a content of a student who uses the terminal device from the registered content, and A content providing system for transmitting selected content to the terminal device. 請求項1乃至11のいずれか1に記載のコンテンツ作成装置としての機能を実行するためのプログラム。   The program for performing the function as a content creation apparatus of any one of Claims 1 thru | or 11. 請求項18に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
The computer-readable recording medium which recorded the program of Claim 18.
JP2004233858A 2004-08-10 2004-08-10 Contents creating device, method, contents providing system, program, and recording medium Pending JP2006053696A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004233858A JP2006053696A (en) 2004-08-10 2004-08-10 Contents creating device, method, contents providing system, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004233858A JP2006053696A (en) 2004-08-10 2004-08-10 Contents creating device, method, contents providing system, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2006053696A true JP2006053696A (en) 2006-02-23

Family

ID=36031149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004233858A Pending JP2006053696A (en) 2004-08-10 2004-08-10 Contents creating device, method, contents providing system, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2006053696A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009540447A (en) * 2006-06-16 2009-11-19 ノキア コーポレイション Method, apparatus and computer readable storage medium for providing metadata entry
JP2011114781A (en) * 2009-11-30 2011-06-09 Brother Industries Ltd Head-mounted display device, and image sharing system employing the same
JP2011215181A (en) * 2010-03-31 2011-10-27 Yamaha Corp Musical score display apparatus and program for realizing musical score display method
JP2013076721A (en) * 2011-09-29 2013-04-25 Dainippon Printing Co Ltd Computer device, electronic pen system and program
JP2013076720A (en) * 2011-09-29 2013-04-25 Dainippon Printing Co Ltd Computer device, electronic pen system and program
JP2015119320A (en) * 2013-12-18 2015-06-25 富士ゼロックス株式会社 Information processing system and program
JP2019035834A (en) * 2017-08-14 2019-03-07 株式会社デザインMプラス Information processing device, method, musical score management system and program
JP2019144507A (en) * 2018-02-23 2019-08-29 シャープ株式会社 Output device, data output system, and outputting method
CN113436503A (en) * 2021-06-15 2021-09-24 河南职业技术学院 Portable combination formula drama movie & TV performance special teaching aid

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06343146A (en) * 1993-03-15 1994-12-13 Toshiba Corp Reproducing device and reproducing method
JP2003323356A (en) * 2002-05-07 2003-11-14 Ricoh Co Ltd Data recording/reproducing system, data recording method, program and storage medium
JP2003333509A (en) * 2002-05-10 2003-11-21 Canon Inc Information processing apparatus
JP2004212895A (en) * 2003-01-08 2004-07-29 Nec Corp System, method and program to support education

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06343146A (en) * 1993-03-15 1994-12-13 Toshiba Corp Reproducing device and reproducing method
JP2003323356A (en) * 2002-05-07 2003-11-14 Ricoh Co Ltd Data recording/reproducing system, data recording method, program and storage medium
JP2003333509A (en) * 2002-05-10 2003-11-21 Canon Inc Information processing apparatus
JP2004212895A (en) * 2003-01-08 2004-07-29 Nec Corp System, method and program to support education

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009540447A (en) * 2006-06-16 2009-11-19 ノキア コーポレイション Method, apparatus and computer readable storage medium for providing metadata entry
JP2011114781A (en) * 2009-11-30 2011-06-09 Brother Industries Ltd Head-mounted display device, and image sharing system employing the same
JP2011215181A (en) * 2010-03-31 2011-10-27 Yamaha Corp Musical score display apparatus and program for realizing musical score display method
JP2013076721A (en) * 2011-09-29 2013-04-25 Dainippon Printing Co Ltd Computer device, electronic pen system and program
JP2013076720A (en) * 2011-09-29 2013-04-25 Dainippon Printing Co Ltd Computer device, electronic pen system and program
JP2015119320A (en) * 2013-12-18 2015-06-25 富士ゼロックス株式会社 Information processing system and program
JP2019035834A (en) * 2017-08-14 2019-03-07 株式会社デザインMプラス Information processing device, method, musical score management system and program
JP2019144507A (en) * 2018-02-23 2019-08-29 シャープ株式会社 Output device, data output system, and outputting method
JP7142441B2 (en) 2018-02-23 2022-09-27 シャープ株式会社 Output device, data output system, and output method
CN113436503A (en) * 2021-06-15 2021-09-24 河南职业技术学院 Portable combination formula drama movie & TV performance special teaching aid

Similar Documents

Publication Publication Date Title
McAdams Flash journalism: how to create multimedia news packages
Morain et al. YouTutorial: A framework for assessing instructional online video
JP5502351B2 (en) Instruction system, instruction method, and program
EP2171717B1 (en) Non sequential automated production by self-interview kit or script prompts of a video based on user generated multimedia content.
JP2009048381A (en) Feedback information processing system and feedback information processing method
JP4764148B2 (en) Synchronous electronic content management program, synchronous electronic content management apparatus, and synchronous electronic content management method
JP2006053696A (en) Contents creating device, method, contents providing system, program, and recording medium
Lewis et al. Musicological observations during rehearsal and performance: A Linked Data digital library for annotations
TWI591501B (en) The book content digital interaction system and method
JP2002072850A (en) Teaching support system and method, distribution server, teaching material server, schoolroom terminal and recording medium
JP6810515B2 (en) Handwriting information processing device
JP2013109168A (en) Electronic textbook device, classroom system, and program
JP7279754B2 (en) Learning control method and learning system
JP2002132131A (en) Remote education method and host computer for remote education as well as computer for student and image information synthesis method
JP2014059452A (en) Learning device, control method of the same, learning program, and learning system
JP3810747B2 (en) Distance learning system
JP2021162790A (en) Learning support system and learning support program
JP4951472B2 (en) Electronic document creation system
McNally et al. Studying recording techniques
TWM469583U (en) Digital teaching system
TW201514944A (en) Digital teaching method
US20070136651A1 (en) Repurposing system
JP2007249887A (en) Web browsing operation and annotation record reproduction system
Brotherton et al. EClass
Isaacson Content visualization in a digital music library

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070730

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090210

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100506

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100615