JP2010134507A - Reproduction device - Google Patents
Reproduction device Download PDFInfo
- Publication number
- JP2010134507A JP2010134507A JP2008307089A JP2008307089A JP2010134507A JP 2010134507 A JP2010134507 A JP 2010134507A JP 2008307089 A JP2008307089 A JP 2008307089A JP 2008307089 A JP2008307089 A JP 2008307089A JP 2010134507 A JP2010134507 A JP 2010134507A
- Authority
- JP
- Japan
- Prior art keywords
- image
- database
- voice
- person
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、記録された画像信号と音声信号を再生する際に、画像には顔が現れずに声だけが聞こえる人物について、それがどのような人物であるのかを再生画像上に表示する機能を有する再生装置に関する。 The present invention has a function of displaying on a reproduced image what kind of person the person who can hear only voice without appearing in the image when reproducing the recorded image signal and audio signal. The present invention relates to a playback apparatus having
従来、記録映像や、遠隔地から伝送された映像を再生表示する際に、画面上に表示されている人物に関する情報を追加表示するシステムが知られている。例えば、テレビ会議システムでは、発言者を撮影した画像に、この発言者に関して視聴者が興味のある何らの情報を付加した映像信号を生成する技術が、特許文献1に記載されている。撮影対象となりうる人物の情報を事前に登録しておき、撮影時に人物を識別して付加表示する。この方法は映像に映し出されている人物に関する情報を得たい場合には有用である。
民生用のビデオカメラでは、撮影対象となる人物は,視聴者の家族、友人等の既知の人物であることが多い。このような場合には、被写体人物の情報を付加的に表示する必要性が低い。 In a consumer video camera, a person to be photographed is often a known person such as a viewer's family or friends. In such a case, the necessity of additionally displaying subject person information is low.
しかし、撮影視野外の人物について音声のみが記録されることが多々ある。このような場合、当該人物を特定するには、音声の記憶に頼るしか無い。しかし、これは、聞き慣れているか,話し方等に特徴がなければ、人物の特定は難しい。また、発声主を推測するための記憶を辿る作業は、映像視聴に対する集中度を低下させ、純粋に映像を楽しむことを阻害してしまう。 However, in many cases, only the voice is recorded for a person outside the field of view. In such a case, the only way to identify the person is to rely on voice storage. However, it is difficult to identify a person unless he / she is used to listening or has a feature in speaking. In addition, the work of tracing the memory for estimating the utterer reduces the degree of concentration with respect to video viewing and hinders pure enjoyment of the video.
本発明は、このような不都合を解消する再生装置を提示することを目的とする。 An object of the present invention is to provide a playback apparatus that eliminates such inconveniences.
上記目的を達成するため、本発明に係る再生装置は、記録媒体から読み出した画像データを再生し、再生画像信号を出力する画像処理手段と、前記記録媒体から読み出した音声データを再生し、再生音声信号を出力する音声処理手段と、複数人の声データと顔画像データを記録したデータベースと、前記再生音声信号から人声を判別し認識する人声認識手段と、前記人声認識手段で認識された人声と前記データベースに登録された声データとを照合し同定する人声照合手段と、前記再生画像信号から人物の顔を判別し認識する顔画像認識手段と、前記顔画像認識手段で認識された人物の顔と前記データベースに登録された顔画像データとを照合し同定する顔画像照合手段と、同一シーン中の前記人声照合手段で同定された人物から前記顔画像照合手段で同定された人物を除外した人物を、付加画像表示の対象として決定する付加画像表示判定手段と、前記データベースから前記付加画像表示判定手段で決定された対象の人物を示す情報を読み出して、前記再生画像信号に合成すべき付加画像を生成する付加画像生成手段と、前記再生画像信号に前記付加画像を合成する表示画像生成手段とを有することを特徴とする。 In order to achieve the above object, a playback apparatus according to the present invention plays back image data read from a recording medium, outputs a playback image signal, and plays back audio data read from the recording medium. Voice processing means for outputting voice signals, a database recording voice data and face image data of a plurality of people, human voice recognition means for discriminating and recognizing voices from the reproduced voice signals, and recognition by the voice recognition means A human voice collating means for collating and identifying the recorded human voice and voice data registered in the database, a face image recognizing means for recognizing and recognizing a human face from the reproduced image signal, and the face image recognizing means. Face image matching means for comparing and identifying the face of the recognized person and face image data registered in the database, and the face image from the person identified by the voice matching means in the same scene The additional image display determining means for determining a person excluding the person identified by the combining means as an additional image display target, and information indicating the target person determined by the additional image display determining means from the database And an additional image generating means for generating an additional image to be combined with the reproduced image signal, and a display image generating means for combining the additional image with the reproduced image signal.
本発明によれば、映像に映し出されていない声の発声主に関する情報を再生映像中に表示することで、発声主を視覚的に認識することが可能となる。発声主を推測するための記憶を辿る作業によって映像視聴に対する集中度を低下させてしまうことが無くなる。 According to the present invention, it is possible to visually recognize the utterer by displaying the information related to the utterer of the voice that is not projected on the video in the reproduced video. It is no longer possible to reduce the degree of concentration with respect to video viewing by tracing the memory for estimating the speaker.
以下、図面を参照して、本発明の実施例を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明に係る再生装置の一実施例の概略構成ブロック図を示す。再生装置10の記録媒体12には、音声付きの映像信号が記録されている。記録媒体12は、DVD(Digital Versatile Disk)に代表される光ディスク、磁気テープ、ハードディスク、又は、フラッシュメモリを内蔵したメモリカードなどからなる。記録媒体駆動装置14は、記録媒体12を駆動して、記録媒体12に信号を読み書きする装置である。
FIG. 1 shows a schematic block diagram of an embodiment of a playback apparatus according to the present invention. A video signal with sound is recorded on the
データベース16には、複数人の個人情報データが登録可能であり、現に登録されている。各個人情報データは、顔画像照合機能に使用する顔画像データとその特徴量を示す顔画像特徴量データ、人声照合機能に使用する声データとその特徴量を示す声特徴量データ、並びに、その他の種々のデータを含む。
In the
画像処理部18は、記録媒体12から読み出された圧縮画像データを復号化し、種々の加工を施して、再生画像データを生成する。顔画像認識部20は、画像処理部18で処理された画像データから人物の顔に該当する領域の有無を判別する。顔画像照合部22は、顔画像認識部20で顔画像があると判別された領域を、データベース16に登録された顔画像データと比較する。これにより、再生画像中に含まれる人物が、データベース16に登録済みか否か、そして登録された誰であるかを特定できる。
The
付加画像生成部24は、記録媒体12から再生された再生画像信号にスーパーインポーズされるべき付加画像データを生成する。表示画像生成部26は画像処理部18から出力させる再生画像データに付加画像生成部24から出力される付加画像データを合成する。表示画像生成部26により、再生画像に付加画像がスーパーインポーズされた合成画像が生成される。但し、表示画像生成部26の出力画像は、合成画像以外に、再生画像のみからなる場合、又は付加画像のみからなる場合もありうる。
The additional
表示部28は、表示画像生成部26で生成された画像データを使用者が視認できるように画像として表示する。表示部28は、例えば、該再生装置に組み込まれている。表示部28は、液晶ディスプレイ(LCD)や有機ELディスプレイなどのディスプレイ装置とその駆動回路からなる。
The
音声処理部30は、記録媒体12から読み出された圧縮音声データを復号化し、種々の加工を施す。人声認識部32は、音声処理部30で得られた再生音声信号から、人間の発声に該当する音声の有無を判別する。人声照合部34は、人声認識部32で人間の声と判別された部分に対し、データベース16に登録された声データと比較する。音量検出部36は、人声認識部32で人物の声であると判断された場合に、その音量の大きさを検出する。音声出力装置38は、音声処理部30で生成された再生音声を音響出力する装置である。音声出力装置38は、例えば、再生装置10に組み込まれたスピーカとその駆動回路からなる。
The
付加画像表示判定部40は、顔画像照合部22の照合結果と人声照合部34の照合結果を基に、付加画像生成部24により生成させる付加画像の内容を決定する。
The additional image
外部出力部42は、表示画像生成部26により生成された画像信号及び音声処理部30による再生音声信号を外部に出力する手段であり、例えば、外部出力用の駆動回路と、接続端子又は送信アンテナとからなる。
The
CPU44は、付加画像生成部24及び表示画像生成部26を制御するだけでなく、画像処理および音声処理が同期動作するように再生装置10の全体を制御する中央演算装置である。
The
入力装置46は、使用者が再生装置10に動作モードや動作条件等を入力するための装置であり、種々のスイッチ又はボタン、若しくは、メニュー画面上に表示される操作可能な要素などからなる。
The
本実施例の特徴的な動作を理解するために、次のような状況を想定する。すなわち、A氏とB氏の2人が会話を交わしている状況でA氏にカメラを向けた結果として、図2に示すように撮影画角内にはA氏だけが収まり、B氏は音声だけが記録されたとする。 In order to understand the characteristic operation of the present embodiment, the following situation is assumed. That is, as a result of directing the camera to Mr. A in the situation where Mr. A and Mr. B are having a conversation, only Mr. A falls within the shooting angle of view as shown in FIG. Suppose only was recorded.
図3は、そのような状況で記録された映像の、従来の方法による再生画面の表示例を示す。人物Aを含む再生画像が画面上に表示され、再生音声が、画面横のスピーカから出力される。画面の右隅とスピーカに付記した記号群は、B氏の声を図示化したものである。 FIG. 3 shows a display example of a reproduction screen of a video recorded in such a situation by a conventional method. A reproduced image including the person A is displayed on the screen, and reproduced sound is output from a speaker on the side of the screen. The symbol group attached to the right corner of the screen and the speaker is an illustration of Mr. B's voice.
これに対し、図4は、本実施例による再生画面例を示す。再生画像が表示部28の画面上に表示され、再生音声が、画面横のスピーカ(音声出力装置38)から出力される。画面の右隅とスピーカに付記した記号群は、B氏の声を図示化したものである。図3とは異なり、画面内に、人物Bを示す付加画像が重畳表示される。人物Bを示す付加画像により、視聴者は,発言者がB氏であることを認識又は推測することができる。
On the other hand, FIG. 4 shows an example of a playback screen according to the present embodiment. The reproduced image is displayed on the screen of the
本実施例により撮影画角内に入っていない話者を特定し、当該話者を示す付加画像を合成する動作を説明する。図5は、その動作のフローチャートを示す。なお、ここでは、記録媒体12がDVDであるとする。
An operation of identifying a speaker who is not within the shooting angle of view and synthesizing an additional image indicating the speaker according to the present embodiment will be described. FIG. 5 shows a flowchart of the operation. Here, it is assumed that the
まず、データベース16に、必要な人物の個人情報データを事前に登録する(S1)。先に説明したように、各人の個人情報データは、顔画像データとその特徴量を示す顔画像特徴量データ、声データとその特徴量を示す声特徴量データ、及び、その他の種々の属性データからなる。属性データは、例えば、氏名、ニックネーム、性別」、年齢、生年月日及び似顔絵などからなる。 First, personal information data of a necessary person is registered in advance in the database 16 (S1). As described above, each person's personal information data includes face image data and face image feature amount data indicating the feature amount, voice data and voice feature amount data indicating the feature amount, and various other attributes. Consists of data. The attribute data includes, for example, name, nickname, sex ", age, date of birth, and portrait.
音声処理部30は、記録媒体12から読み出された圧縮音声データを伸長し、再生音声信号を人声認識部32、音声出力装置38及び外部出力部42に供給する。人声認識部32は、再生音声信号から人声を抽出して解析し、人声が含まれているかどうかを判別する(S2)。人声が含まれている場合、人声認識部32は、抽出した人声データを人声照合部34に供給する。
The
人声照合部34は、人声認識部32からの人声データからその特徴量を抽出し、データベース16の声特徴量データに照合して、一定以上の高い相関を有する特徴量を持つ人物を探索する(S3)。人声照合部34は、一定値以上の相関度を有する声特徴量データが存在した場合、これらの声特徴量データを有する人物を付加画像表示の候補として付加画像表示判定部40に通知する(S4)。
The human
他方、画像処理部18は、記録媒体12から再生された圧縮画像データを伸長して再生画像データを生成する。顔画像認識部20は、再生画像から人の顔画像を抽出し、抽出した顔画像データを顔画像照合部22に供給する(S5)。顔画像照合部22は、顔画像認識部20からの顔画像データからその特徴量を抽出し、データベース16の顔画像特徴量データに照合して、一定以上の高い相関を有する顔画像特徴量を持つ人物を探索する(S6)。顔画像照合部22は、一定値以上の相関度を有する顔画像特徴量データが存在した場合、その顔画像特徴量データを有する人物を、付加画像表示の除外候補として付加画像表示判定部40に通知する(S7)。
On the other hand, the
付加画像表示判定部40は、再生音声から抽出された候補(人声照合部34からの通知情報)から、再生画像から抽出された除外候補(顔画像照合部22からの除外候補)を除外する(S8)。これにより、話者の可能性の高い人物候補(S4)から、画面内に入っている人物(S7)を除外できる。即ち,撮影画面内には入っていないが,音声が記録されている人物を特定できる。複数人が存在する場合には、人声特徴量の相関度が最も高い人物を話者と決定する。付加画像表示判定部40は、最終的に決定した人物を付加画像生成部24に通知する。
The additional image
付加画像生成部24は、付加画像表示判定部40から通知された人物の顔画像データをデータベース16から読み出し、この顔画像を含む所定サイズの付加画像を生成する(S9)。付加画像生成部24は、生成した付加画像を表示画像生成部26に供給する。
The additional
表示画像生成部26は、画像処理部18からの再生画像データに、付加画像生成部24からの付加画像をスーパーインポーズして、合成画像データを生成する(S10)。合成画像データは、表示部28に印加され、図4に示すように表示される。もちろん、外部出力部42から外部に出力されることもある。表示画像は、記録媒体12に記録された画像の上にピクトグラフが重ね描きされた見掛けになる。このため、再生画像にスーパーインポーズする付加画像を以降ではピクトグラフとも表現する。
The display
データベース16を説明する。データベース16は、記録媒体12に格納されても、再生装置10に内蔵されても良い。再生装置10がネットワーク対応の場合には、データベース16を、ネッットワークを介して接続するサーバ上に用意しても良い。記録媒体12が再生装置10から着脱自在である場合、記録媒体12のデータベースを再生装置10の記憶領域にロードして利用する方式でも、記録媒体12上のデータベースを直接参照する方式の何れであってもよい。また、前者の場合、データベースのみを記録した着脱可能な記録媒体を用意してもよい。
The
データベース16に登録される各人の個人情報データは、顔画像照合とピクトグラフ表示に使用するための顔画像データと、音声照合に使用するための声データを必ず有する。これに加えて、氏名、ニックネーム、性別、年齢、生年月日、及び似顔絵などデータを付加的な属性情報として保持する。これらの付加的な属性情報を、顔画像データと同時に、または置き換えてピクトグラフ表示に使用してもよい。
The personal information data of each person registered in the
データベース16に登録される人数が増加してくると、ピクトグラフとして表示を出したい人物と出したくない人物の区分が生じてくる。この区分に対応するために、各々の個人情報データ毎にピクトグラフ表示の可否を設定する項目を設けるのが好ましい。新規登録された個人情報データの新規登録時にデフォルトでどちらを設定するかは、使用状況に応じて決定すればよい。CPU44は、付加画像を表示すべき人物が、データベース16において、合成表示を許すように設定されている場合に、表示画像生成部26に前記再生画像信号に前記付加画像を合成させる。
As the number of people registered in the
データベース16は、他の機器で作成されたものも読み込んで使えるような汎用性のあるものであるのが好ましい。
The
本実施例のピクトグラフ表示について説明する。声だけが聞こえる人物に関する情報をピクトグラフで表示することは、視認性を付加できるので有用ではある。そして、表示方法を工夫することで、その効果を更に増すことができる。 The pictograph display of the present embodiment will be described. Displaying information about a person who can only hear a voice as a pictograph is useful because it can add visibility. And the effect can be further increased by devising the display method.
ピクトグラフ表示機能の有効/無効、即ち、要否を使用者が設定できると、本来の記録画像だけを見たいという要求にも対応できる。これは、画像に映っていない人物が誰であるのかを気にしない場合や、既知の声だが聞こえている場合などに有効である。たとえば、使用者によりピクトグラフ表示機能が無効に設定されている場合、CPU44は、画面外の発声者の声が録音されていても、付加画像生成部24に付加画像を生成させない。
If the user can set the validity / invalidity of the pictograph display function, that is, whether or not it is necessary, it is possible to respond to a request to view only the original recorded image. This is effective when the person who is not shown in the image is not cared about, or when a known voice is heard. For example, when the pictograph display function is disabled by the user, the
ピクトグラフとして表示される情報はデータベース16が有する項目の中から1つ以上である。どの項目を表示させるかを選択できると、使用者の知りたい情報に連動することができる。例えば、顔画像と同時に「氏名」を表示させれば、顔画像だけでは誰であるのかを判別しづらいときでも、人物を特定しやすくなる。もちろん、「氏名」だけを表示することでも、同様の効果を得ることができる。
The information displayed as a pictograph is one or more items among the items of the
ピクトグラフ表示対象者の全人物に対し表示をするデータ項目を統一した場合、幾人かの人物では該当項目が未登録である可能性も考えられる。このような状況に対応するために、ピクトグラフ表示データの各項目に優先順位を持たせ、上位項目が未登録な場合には次点項目を表示するようにすると良い。例えば、第1優先順位に「ニックネーム」を、第2優先順位に「氏名」を設定したとする。この場合、「ニックネーム」の項目が登録されている人物に関しては「ニックネーム」が表示され、「ニックネーム」の項目が登録されていない人物に関しては「氏名」が表示されるようにする。すなわち、データベース16の各人物の項目中に、付加画像の生成に利用できる複数の項目がある場合に、使用者が、これら複数の項目の全部又は一部に優先順位を設定する手段を設ける。
If the data items to be displayed for all the pictogram display target persons are unified, there is a possibility that the corresponding item is not registered in some persons. In order to cope with such a situation, it is preferable to give priority to each item of the pictograph display data and display the next item when the upper item is not registered. For example, it is assumed that “nickname” is set as the first priority and “name” is set as the second priority. In this case, “nickname” is displayed for a person for whom the item “nickname” is registered, and “name” is displayed for a person for whom the item “nickname” is not registered. That is, when there are a plurality of items that can be used for generating an additional image among the items of each person in the
このような優先順位を設定する作業は、データベース16に登録できる各人の個人情報データの項目が多数になるほど、煩雑なものとなる。これに対しては、有限個の上位順位までを使用者が設定できるようにしておき、それ以下の順位の項目については再生装置10が自動的に割り振るようにすればよい。これにより、使用者の負担が軽減する。尚、使用者がデータベース16の個人情報データ内の項目に一切のデータを追加したかった場合でも、登録必須項目である顔画像データが何れかの優先順位に割り当てられるので、ピクトグラフに表示するデータは確保される。
The task of setting such priorities becomes more complicated as the number of items of personal information data of each person that can be registered in the
画面上でのピクトグラフは、再生画像中の注目度の高い部分を出来るだけ遮らないが望ましい。一般的に、画像の注目度は周辺部よりも中心部の方が高い傾向にあるので、ピクトグラフの表示場所は基本的に再生画像の周辺部に配置されることになる。しかし、被写体が動いているシーンなどでは、その被写体の移動に伴って周辺部の注目度が高くなる場合もあり得る。このとき、注目度が高くなる場所と、ピクトグラフが表示される場所とが重なり合うことは望ましくない。ピクトグラフの表示場所を使用者が設定できると、このような事態を回避できる。 It is desirable that the pictograph on the screen does not block as much as possible the portion of high interest in the reproduced image. In general, the degree of attention of an image tends to be higher in the central part than in the peripheral part. Therefore, the display location of the pictograph is basically arranged in the peripheral part of the reproduced image. However, in a scene where the subject is moving, the attention degree of the peripheral portion may increase as the subject moves. At this time, it is not desirable that the place where the degree of attention is high and the place where the pictograph is displayed overlap. If the user can set the display location of the pictograph, such a situation can be avoided.
ピクトグラフの大きさについても使用者が設定できると便利である。例えば、大きさを、「大」、「中」、「小」やドット数で表現された規定段階の中から選択できる形式や、同様の表現が付記された図表を用いて選択する形式が考えられる。これは、再生装置10に備えつけられている比較的小型の表示画面で見る場合と、外部接続機能を介してテレビなどの比較的大型の画面で見る場合のように、表示画面の画素数が大きく異なる場合に、有用である。視認性を満足するために求められるピクトグラフの大きさに無視できない差があるからである。
It is convenient if the user can also set the size of the pictograph. For example, there are formats that allow you to select the size from a specified level expressed as “Large”, “Medium”, “Small” or the number of dots, or a format that allows you to select a size using a chart with similar expressions. It is done. This is because the number of pixels of the display screen is large, such as when viewing on a relatively small display screen provided in the
また、形状についても、四角形や丸形などの選択肢を設けると、使用者の嗜好性を活かすことができる。ただし、設定された形状に従って表示可能なデータに制限を設ける必要も生じる。例えば、小さな外形寸法内部で視認性を満足しながら表現できるデータは、限られる。実際の制限の設け方は、それぞれの再生装置に適したもので良い。ピクトグラフの形状として、このような制限が働く形状が設定された場合、表示可能なデータ候補の中の優先順位が上位のものから表示される。大きさ及び形状の何れについても、設定変更操作と同時に実際のピクトグラフの大きさ及び形状が変更するのが好ましい。 Further, regarding the shape, if options such as a rectangle and a circle are provided, the user's preference can be utilized. However, it is necessary to limit the data that can be displayed according to the set shape. For example, data that can be expressed while satisfying visibility within a small external dimension is limited. The actual restriction may be provided in a manner suitable for each playback device. When such a shape that restricts is set as the shape of the pictograph, the highest priority is displayed among the displayable data candidates. For both the size and the shape, it is preferable that the size and shape of the actual pictograph change simultaneously with the setting change operation.
再生音声信号とデータベース16にある声データをそれぞれの特徴量で照合して、正しい人物を選択できなかった場合、ピクトグラフに誤ったデータが使用されることになる。使用者が表示されたピクトグラフを見て誤りに気付いたとき、本実施例では、正しい内容に修正できる。図6は、その修正動作のフローチャートを示す。
When the reproduced voice signal and the voice data in the
使用者は、再生表示画像を見て、聞こえてくる声とピクトグラフに表示される人物情報の正誤を確認する(S21)。ここで誤りを発見し、修正を行う場合は修正機能を使用する(S22)。表示部28の画面を見ながら、スイッチやタッチパネルなどの入力装置46を用いて、正しい情報がヒストグラムとして表示されるように修正する(S23〜S31)。
The user looks at the reproduced display image and confirms whether the voice to be heard and the personal information displayed on the pictograph are correct or incorrect (S21). Here, when an error is found and corrected, a correction function is used (S22). While viewing the screen of the
具体的に説明する。使用者が修正を選択すると(S22)、修正モードに入り、画面上のピクトグラフを選択する画面になる(S23)。このピクトグラフ選択の際に、データベース16には該当する人物がいないとして表示対象から外されていた声に対して、「該当人物なし」を示すピクトグラフを表示して、それを選択できるようにすることが望ましい。これにより、人声照合部34が再生音声信号とデータベース16の声データとを同定できなかった誤りに対する修正が可能になる。
This will be specifically described. When the user selects correction (S22), the correction mode is entered and a screen for selecting a pictograph on the screen is displayed (S23). When selecting a pictograph, a pictograph indicating “no corresponding person” is displayed for a voice that has been excluded from the display target because there is no corresponding person in the
ピクトグラフ選択画面上で選択されているピクトグラフは、形状や色や縁取りなどが変化をして何らかの強調表示をする。使用者は入力装置46によって修正対象のピクトグラフを選択する(S24)。選択の直後に、「本当に修正をして良いか」という、修正の意思を確認するダイアログを表示する(S25)。続いて、修正後に使用するデータを検索し選択する(S26)。 The pictograph selected on the pictograph selection screen changes its shape, color, border, etc. and displays some highlights. The user selects a pictograph to be corrected by the input device 46 (S24). Immediately after the selection, a dialog for confirming the intention of correction is displayed (S25). Subsequently, data to be used after correction is searched and selected (S26).
また、同時に修正するピクトグラフの対象範囲を選択する(S27)。このような選択ステップを設けることで、誤選択の可能性を低減できる。たとえば、第1の選択肢として、「選択したもののみ」に限定する。第2の選択肢として、「選択したピクトグラフと同一人物が認識されているもの全て」に限定する。第3の選択肢として、「選択したピクトグラフと同一人物が認識されているものの中で、選択したシーンと比較して人声照合の相関率が低いもの」に限定する。これらの選択肢の表現方法は、それぞれの再生装置に適した方法が選択される。 At the same time, the target range of the pictograph to be corrected is selected (S27). Providing such a selection step can reduce the possibility of erroneous selection. For example, the first option is limited to “only selected”. The second option is limited to “all those where the same person as the selected pictograph is recognized”. The third option is limited to “one in which the same person is recognized as the selected pictograph, and has a lower correlation rate of voice verification than the selected scene”. As a method for expressing these options, a method suitable for each reproducing apparatus is selected.
修正実行可否を確認する(S28)。使用者の修正実行の決定に従い、実際のピクトグラフ表示データの差替え処理が行われる(S29)。このとき、対象となったピクトグラフと同時修正を行った範囲をデータベース16に反映すると、次回以降の人声照合の精度が向上する。
Whether or not correction can be executed is confirmed (S28). In accordance with the user's decision to execute correction, actual pictograph display data replacement processing is performed (S29). At this time, if the range of simultaneous correction with the target pictograph is reflected in the
他にも修正すべきピクトグラフがある場合(S30)、同様の手順によって修正を行う。その他の修正すべきピクトグラフが無い場合(S30)、修正モードから抜け(S231)、一連の修正作業を終える。 If there are other pictographs to be corrected (S30), correction is performed by the same procedure. If there is no other pictograph to be corrected (S30), the correction mode is exited (S231), and a series of correction operations is completed.
以上の構成および動作によって、画像信号と音声信号を再生した際に、画像に映っておらずに声だけが聞こえる人物に関する情報を視認できるようになる。 With the above configuration and operation, when an image signal and an audio signal are reproduced, information related to a person who can hear only a voice without being reflected in the image can be visually recognized.
本発明の第2実施例を説明する。図7は、第2実施例の概略構成ブロック図を示す。図1に示す実施例と同じ構成要素には同じ符号を付してある。図1と同じ構成要素には同じ符号を付してある。 A second embodiment of the present invention will be described. FIG. 7 shows a schematic block diagram of the second embodiment. The same components as those in the embodiment shown in FIG. The same components as those in FIG. 1 are denoted by the same reference numerals.
第2実施例では、個人情報データベースに画像と音声を記録する機能を付加した。即ち,再生装置10aには、カメラ部50及びマイクロホン52が追加される。CPU44a、画像処理部18a及び音声処理部30aには、それぞれCPU44、画像処理部18及び音声処理部30の機能に加えて、データベース16aに画像と音声を記録する機能を付加した。
In the second embodiment, a function for recording images and sounds is added to the personal information database. That is, a
変更部分を詳細に説明する。カメラ部50はレンズ及び撮像センサから成り、データベース16aに登録する顔画像データを取り込むのに利用できる。すなわち、画像処理部18aは、カメラ部50で撮影された画像信号に色バランス及びガンマ補正を施し、サイズ等を調整し、データベース16aに顔画像データとして登録する。
The changed part will be described in detail. The
マイクロホン52は、データベース16aの声データの基になる人声を収音するのに使用可能である。音声処理部30aは、マイクロホン52で収音された音声信号に必要な処理を施した後、データベース16aに音データとして登録する。その処理のために、音声処理部30aは、マイクロホン52の出力を増幅するプリアンプ、及び、プリアンプのアナログ出力をデジタル化するA/D変換器を具備する。
The
図8を参照して、取り込んだ画像データ及び音声データのデータベース16aへの登録方法を説明する。
With reference to FIG. 8, a method of registering the captured image data and audio data in the
使用者は再生装置10aの機能メニューからデータベース登録機能を選択し(S41)、データベース16に新しい個人情報を作成する(S42)。
The user selects a database registration function from the function menu of the
まず、顔画像データを登録する(S43)。具体的には、カメラ部50が起動し、撮影が可能な状態になる(S44)。登録したい人物を被写体とし、その顔を含んだ画像を撮影する(S45)。このとき、表示部28にカメラ部50が捉えている画像が表示される。被写体となった人物自身が、表示部28の表示画像を見ながら、カメラ部50と自分の顔の位置関係を確認できるようにすると、効率的な撮影が行える。撮影画角内に被写体が的確に捉えられたら、入力装置46のスイッチを押して撮影を実行し、被写体の顔画像を取り込む(S46)。画像処理部18aは、カメラ部50からの画像データをデータベース16aへの登録に適した形式とサイズに処理する。このとき、画像処理部18aは、撮影した顔画像データから顔画像特徴量を算出し(S47)、顔画像データとともにデータベース16aに登録する(S48)。ここでの顔画像特徴量算出処理には、再生画像から検出された人物の顔画像特徴量を算出する機能を利用できる。
First, face image data is registered (S43). Specifically, the
次に、声データを登録する(S49)。音声処理部30aは、マイクロホン52が収音する音声信号を処理する機能を起動する(S50)。収音準備が整い収音可能な状態になったら、表示部28に声を入力することを促す表示をする。登録に適したフレーズを表示し、それを登録者に発声させるようにすれば、登録者が発言すべきフレーズに迷うことがないので好ましい。声を記録する際、入力装置46のスイッチを記録開始時と終了時に押すようにするか、押されている最中を記録期間とする。
Next, voice data is registered (S49). The
音声処理部30aは、マイクロホン52からの音声を一旦保持する(S51)。そして、表示とともにこの音声を再生して、登録して良いかどうかを使用者に確認する(S52)。使用者が登録を拒否すれば、音声の取り込みをやり直す。使用者が登録を承認すると、音声処理部30aは、取り込んだ音声をデータベース16aへの登録に適した形式及びサイズに処理し、声特徴量を算出し(S53)、声データと声特徴量をデータベース16aに登録する(S54)。ここでの声特徴量算出処理には、再生音声から声特徴量を算出する機能を利用できる。
The
続いて、データベース16aに、例えば、氏名等の、その他の項目を入力する(S55)。
Subsequently, for example, other items such as names are entered in the
図8に示す登録順序は一例であり、例えば最初に「氏名」を入力してから顔画像データを登録してもよいことは明らかである。 The registration order shown in FIG. 8 is an example. For example, it is obvious that the face image data may be registered after first entering “name”.
このようにして登録されたデータベース16aの個人情報データは、実施例1の再生装置10において、記録媒体12に記録された画像信号および音声信号の再生時に使用可能である。
The personal information data of the
図9は、本発明の第3実施例の概略構成ブロック図を示す。再生装置110の記録媒体112には、音声付きの映像信号が記録されている。記録媒体112は、DVDに代表される光ディスク、磁気テープ、ハードディスク、又は、フラッシュメモリを内蔵したメモリカードなどからなる。記録媒体駆動装置114は、記録媒体112を駆動して、記録媒体112に信号を読み書きする装置である。
FIG. 9 shows a schematic block diagram of the third embodiment of the present invention. A video signal with sound is recorded on the
データベース116にはデータベース16と同様に、複数人の個人情報データが登録可能であり、現に登録されている。各個人情報データは、顔画像照合機能に使用する顔画像データとその特徴量を示す顔画像特徴量データ、人声照合機能に使用する声データとその特徴量を示す声特徴量データ、並びに、その他の種々のデータを含む。
Similar to the
画像処理部118は、記録媒体112から読み出された圧縮画像データを復号化し、種々の加工を施して、再生画像データを生成する。顔画像認識部120は、画像処理部118で処理された画像データから人物の顔に該当する領域の有無を判別する。顔画像照合部122は、顔画像認識部120で顔画像があると判別された領域を、データベース116に登録された顔画像データと比較する。これにより、再生画像中に含まれる人物が、データベース116に登録済みか否か、そして登録された誰であるかを特定できる。
The
付加画像生成部124は、記録媒体112から再生された再生画像信号にスーパーインポーズされるべき付加画像データを生成する。表示画像生成部126は画像処理部118から出力させる再生画像データに付加画像生成部124から出力される付加画像データを合成する。表示画像生成部126により、再生画像に付加画像がスーパーインポーズされた合成画像が生成される。但し、表示画像生成部126の出力画像は、合成画像以外に、再生画像のみからなる場合、又は付加画像のみからなる場合もありうる。
The additional
表示部128は、表示画像生成部126で生成された画像データを使用者が視認できるように画像として表示する。表示部128は、例えば、該再生装置に組み込まれている。表示部128は、液晶ディスプレイ(LCD)や有機ELディスプレイなどのディスプレイ装置とその駆動回路からなる。
The
音声処理部130は、記録媒体112から読み出された圧縮音声データを復号化し、種々の加工を施す。人声認識部132は、音声処理部130で得られた再生音声信号から、人間の発声に該当する音声の有無を判別する。人声照合部134は、人声認識部132で人間の声と判別された部分に対し、データベース116に登録された声データと比較する。音量検出部136は、人声認識部132で人物の声であると判断された場合に、その音量の大きさを検出する。音声出力装置138は、音声処理部130で生成された再生音声を音響出力する装置である。音声出力装置138は、例えば、再生装置110に組み込まれたスピーカとその駆動回路からなる。
The
付加画像表示判定部140は、顔画像照合部122の照合結果と人声照合部134の照合結果を基に、付加画像生成部124により生成させる付加画像の内容を決定する。
The additional image
外部出力部142は、表示画像生成部126により生成された画像信号及び音声処理部130による再生音声信号を外部に出力する手段であり、例えば、外部出力用の駆動回路と、接続端子又は送信アンテナとからなる。
The
カメラ部150はレンズ及び撮像センサから成り、データベース116に登録する顔画像データを取り込むのに利用できる。すなわち、画像処理部118は、カメラ部150で撮影された画像信号に色バランス及びガンマ補正を施し、サイズ等を調整し、データベース116に顔画像データとして登録する。画像処理部118はまた、カメラ部150からの撮影画像の特徴量を抽出し、抽出した特徴量を顔画像特徴量データとしてデータベース116に登録する。
The
マイクロホン152は、データベース116の声データの基になる人声を収音するのに使用可能である。音声処理部130は、マイクロホン152で収音された音声信号に必要な処理を施した後、データベース116に音データとして登録する。その処理のために、音声処理部130は、マイクロホン52の出力を増幅するプリアンプ、及び、プリアンプのアナログ出力をデジタル化するA/D変換器を具備する。音声処理部130はまた、収音された音データの特徴量を抽出し、声特徴量データとしてデータベース116に登録する。
The
CPU144は、付加画像生成部124及び表示画像生成部126を制御するだけでなく、画像処理および音声処理が同期動作するように再生装置110の全体を制御する中央演算装置である。
The
入力装置146は、使用者が再生装置110に動作モードや動作条件等を入力するための装置であり、種々のスイッチ又はボタン、若しくは、メニュー画面上に表示される操作可能な要素などからなる。
The
オーサリング処理部160は画像処理部118と音声処理部130の出力信号に、付加画像生成部124で生成された付加画像をサブピクチャとして付加したものを、規定のフォーマットに則したデータに変換する。オーサリング処理部160は、その処理結果を、記録媒体駆動装置162を介して記録媒体164に記録する。記録媒体164は、オーサリング処理部160で生成されたデータの記録保存先である。記録媒体駆動装置162は、記録媒体164に応じた制御方式で記録媒体164を駆動し、記録媒体164に信号を読み書きする。
The
記録媒体112をオーサリング処理部160の処理結果の記録先にしてもよいことは明らかである。この場合、勿論、記録媒体112は読み出し専用記録媒体ではなく、記録可能な媒体である。図9に示す実施例では、各データの保存場所を理解しやすいように、記録媒体112と記録媒体164を別々に図示しているに過ぎない。
It is obvious that the
図10は、本実施例の特徴的な動作を示すフローチャートである。図10を参照して、本実施例の特徴的な動作を説明する。 FIG. 10 is a flowchart showing the characteristic operation of this embodiment. With reference to FIG. 10, the characteristic operation of the present embodiment will be described.
まず、データベース116に、必要な人物の個人情報データを事前に登録する(S101)。先に説明したように、各人の個人情報データは、顔画像データとその特徴量を示す顔画像特徴量データ、声データとその特徴量を示す声特徴量データ、及び、その他の種々の属性データからなる。属性データは、例えば、氏名、ニックネーム、性別」、年齢、生年月日及び似顔絵などからなる。 First, personal information data of a necessary person is registered in advance in the database 116 (S101). As described above, each person's personal information data includes face image data and face image feature amount data indicating the feature amount, voice data and voice feature amount data indicating the feature amount, and various other attributes. Consists of data. The attribute data includes, for example, name, nickname, sex ", age, date of birth, and portrait.
データベース116のデータの内、顔画像データ、声データ及びこれらの特徴量を示すデータは、カメラ部150、マイクロホン152、画像処理部118及び音声処理部130を使って、データベース116に登録できる。具体的な方法は後述する。
Of the data in the
音声処理部130は、記録媒体112から読み出された圧縮音声データを伸長し、再生音声信号を人声認識部132、音声出力装置138、外部出力部142及びオーサリング処理部160に供給する。人声認識部132は、再生音声信号から人声を抽出して解析し、人声が含まれているかどうかを判別する(S102)。人声が含まれている場合、人声認識部132は、抽出した人声データを人声照合部134に供給する。
The
人声照合部134は、人声認識部132からの人声データからその特徴量を抽出し、データベース116の声特徴量データに照合して、一定以上の高い相関を有する特徴量を持つ人物を探索する(S103)。人声照合部134は、一定値以上の相関度を有する声特徴量データが存在した場合、これらの声特徴量データを有する人物を付加画像表示の候補として付加画像表示判定部140に通知する(S104)。
The human
他方、画像処理部118は、記録媒体112から再生された圧縮画像データを伸長して再生画像データを生成する。顔画像認識部120は、再生画像から人の顔画像を抽出し、抽出した顔画像データを顔画像照合部122に供給する(S105)。顔画像照合部122は、顔画像認識部120からの顔画像データからその特徴量を抽出し、データベース116の顔画像特徴量データと照合して、一定以上の高い相関を有する顔画像特徴量を持つ人物を探索する(S106)。顔画像照合部122は、一定値以上の相関度を有する顔画像特徴量データが存在した場合、その顔画像特徴量データを有する人物を、付加画像表示の除外候補として付加画像表示判定部140に通知する(S107)。
On the other hand, the
付加画像表示判定部140は、再生音声から抽出された候補(人声照合部134からの通知情報)から、再生画像から抽出された除外候補(顔画像照合部122からの除外候補)を除外する(S108)。これにより、同一シーン中で、話者の可能性の高い人物候補(S104)から、画面内に入っている人物(S107)を除外できる。即ち,撮影画面内には入っていないが,音声が記録されている人物を特定できる。付加画像表示判定部140は、このように特定された人物を付加画像生成部124に通知する。
The additional image
付加画像生成部124は、付加画像表示判定部140から通知された人物の顔画像データをデータベース116から取得し(S109)、この顔画像を含む所定サイズの付加画像を生成する(S110)。付加画像生成部124は、生成した付加画像を表示画像生成部126とオーサリング処理部160に供給する。
The additional
表示画像生成部126は、画像処理部118からの再生画像データに、付加画像生成部124からの付加画像をスーパーインポーズして、合成画像データを生成する。合成画像データは、表示部128に印加され、図4に示すように表示される。もちろん、外部出力部142から外部に出力されることもある。
The display
また、オーサリング処理部160は、画像処理部118からの再生画像信号と、音声処理部130からの再生音声信号と、付加画像生成部124からの付加画像を多重して1つの映像コンテンツを生成する。その際、付加画像をピクトグラム様のサブピクチャとして再生画像信号に重畳した映像信号を生成する(S111)。オーサリング処理部160は、このように生成した映像コンテンツを記録媒体駆動装置162により記録媒体164に記録する(S112)。例えば、DVD−VIDEO形式のDVDを作成する。DVD−VIDEO形式の場合、「字幕」機能をオンにすることによって、画角外で発声する人物の情報を主たる映像の上に重ね描き表示させながら、視聴できる。
Further, the
データベース116を説明する。データベース116は、データベース16と同様に、記録媒体112に格納されても、再生装置110に内蔵されても良い。再生装置110がネットワーク対応の場合には、データベース116を、ネットワークを介して接続するサーバ上に用意しても良い。記録媒体112が再生装置110から着脱自在である場合、記録媒体112に記録されるデータベースを再生装置110の記憶領域にロードして利用する方式でも、記録媒体112上のデータベースを直接参照する方式の何れであってもよい。また、前者の場合、データベースのみを記録した着脱可能な記録媒体を用意してもよい。
The
データベース116の構造は、データベース16の構造と同様である。データベース116に登録される各人の個人情報データは、顔画像照合とピクトグラフ表示に使用するための顔画像データと、音声照合に使用するための声データを必ず有する。これに加えて、氏名、ニックネーム、性別、年齢、生年月日、及び似顔絵などデータを付加的な属性情報として保持する。これらの付加的な属性情報を、顔画像データと同時に、または置き換えてピクトグラフ表示に使用してもよい。
The structure of the
データベース116に登録される人数が増加してくると、ピクトグラフとして表示を出したい人物と出したくない人物の区分が生じてくる。この区分に対応するために、各々の個人情報データ毎にピクトグラフ表示の可否を設定する項目を設けるのが好ましい。新規登録された個人情報データの新規登録時にデフォルトでどちらを設定するかは、使用状況に応じて決定すればよい。
As the number of people registered in the
データベース116も、データベース16と同様に、他の機器で作成されたものも読み込んで使えるような汎用性のあるものであるのが好ましい。
Similarly to the
本実施例のピクトグラフ表示について説明する。声だけが聞こえる人物に関する情報をピクトグラフで表示することは、視認性を付加できるので有用ではある。そして、表示方法を工夫することで、その効果を更に増すことができる。 The pictograph display of the present embodiment will be described. Displaying information about a person who can only hear a voice as a pictograph is useful because it can add visibility. And the effect can be further increased by devising the display method.
ピクトグラフ表示機能の有効/無効を使用者が設定できると、本来の記録画像だけを見たいという要求にも対応できる。これは、画像に映っていない人物が誰であるのかを気にしない場合や、既知の声だが聞こえている場合などに有効である。 If the user can set the validity / invalidity of the pictograph display function, it is possible to respond to a request to view only the original recorded image. This is effective when the person who is not shown in the image is not cared about, or when a known voice is heard.
ピクトグラフとして表示される情報はデータベース116が有する項目の中から1つ以上である。どの項目を表示させるかを選択できると、使用者の知りたい情報に連動することができる。例えば、顔画像と同時に「氏名」を表示させれば、顔画像だけでは誰であるのかを判別しづらいときでも、人物を特定しやすくなる。もちろん、「氏名」だけを表示することでも、同様の効果を得ることができる。
The information displayed as a pictograph is one or more items among the items of the
ピクトグラフ表示対象者の全人物に対し表示をするデータ項目を統一した場合、幾人かの人物では該当項目が未登録である可能性も考えられる。このような状況に対応するために、ピクトグラフ表示データの各項目に優先順位を持たせ、上位項目が未登録な場合には次点項目を表示するようにすると良い。例えば、第1優先順位に「ニックネーム」を、第2優先順位に「氏名」を設定したとする。この場合、「ニックネーム」の項目が登録されている人物に関しては「ニックネーム」が表示され、「ニックネーム」の項目が登録されていない人物に関しては「氏名」が表示される。このような優先順位を設定する作業は、データベース116に登録できる各人の個人情報データの項目が多数になるほど、煩雑なものとなる。これに対しては、有限個の上位順位までを使用者が設定できるようにしておき、それ以下の順位の項目については再生装置110が自動的に割り振るようにすればよい。これにより、使用者の負担が軽減する。尚、使用者がデータベース116の個人情報データ内の項目に一切のデータを追加したかった場合でも、登録必須項目である顔画像データが何れかの優先順位に割り当てられるので、ピクトグラフに表示するデータは確保される。
If the data items to be displayed for all the pictogram display target persons are unified, there is a possibility that the corresponding item is not registered in some persons. In order to cope with such a situation, it is preferable to give priority to each item of the pictograph display data and display the next item when the upper item is not registered. For example, it is assumed that “nickname” is set as the first priority and “name” is set as the second priority. In this case, “nickname” is displayed for a person for whom the item “nickname” is registered, and “name” is displayed for a person for whom the item “nickname” is not registered. The task of setting such priorities becomes more complicated as the number of items of personal information data of each person that can be registered in the
画面上でのピクトグラフは、再生画像中の注目度の高い部分を出来るだけ遮らないが望ましい。一般的に、画像の注目度は周辺部よりも中心部の方が高い傾向にあるので、ピクトグラフの表示場所は基本的に再生画像の周辺部に配置されることになる。しかし、被写体が動いているシーンなどでは、その被写体の移動に伴って周辺部の注目度が高くなる場合もあり得る。このとき、注目度が高くなる場所と、ピクトグラフが表示される場所とが重なり合うことは望ましくない。ピクトグラフの表示場所を使用者が設定できると、このような事態を回避できる。 It is desirable that the pictograph on the screen does not block as much as possible the portion of high interest in the reproduced image. In general, the degree of attention of an image tends to be higher in the central part than in the peripheral part. Therefore, the display location of the pictograph is basically arranged in the peripheral part of the reproduced image. However, in a scene where the subject is moving, the attention degree of the peripheral portion may increase as the subject moves. At this time, it is not desirable that the place where the degree of attention is high and the place where the pictograph is displayed overlap. If the user can set the display location of the pictograph, such a situation can be avoided.
ピクトグラフの大きさについても使用者が設定できると便利である。例えば、大きさを、「大」、「中」、「小」やドット数で表現された規定段階の中から選択できる形式や、同様の表現が付記された図表を用いて選択する形式が考えられる。これは、再生装置10に備えつけられている比較的小型の表示画面で見る場合と、外部接続機能を介してテレビなどの比較的大型の画面で見る場合のように、表示画面の画素数が大きく異なる場合に、有用である。視認性を満足するために求められるピクトグラフの大きさに無視できない差があるからである。
It is convenient if the user can also set the size of the pictograph. For example, there are formats that allow you to select the size from a specified level expressed as “Large”, “Medium”, “Small” or the number of dots, or a format that allows you to select a size using a chart with similar expressions. It is done. This is because the number of pixels of the display screen is large, such as when viewing on a relatively small display screen provided in the
また、形状についても、四角形や丸形などの選択肢を設けると、使用者の嗜好性を活かすことができる。ただし、設定された形状に従って表示可能なデータに制限を設ける必要も生じる。例えば、小さな外形寸法内部で視認性を満足しながら表現できるデータは、限られる。実際の制限の設け方は、それぞれの再生装置に適したもので良い。ピクトグラフの形状として、このような制限が働く形状が設定された場合、表示可能なデータ候補の中の優先順位が上位のものから表示される。大きさ及び形状の何れについても、設定変更操作と同時に実際のピクトグラフの大きさ及び形状が変更するのが好ましい。 Further, regarding the shape, if options such as a rectangle and a circle are provided, the user's preference can be utilized. However, it is necessary to limit the data that can be displayed according to the set shape. For example, data that can be expressed while satisfying visibility within a small external dimension is limited. The actual restriction may be provided in a manner suitable for each playback device. When such a shape that restricts is set as the shape of the pictograph, the highest priority is displayed among the displayable data candidates. For both the size and the shape, it is preferable that the size and shape of the actual pictograph change simultaneously with the setting change operation.
画面上に同時に表示されるピクトグラフの数に上限を設けると、多数のピクトグラフが現れてしまうことで主映像や他のピクトグラフを覆い隠してしまうことを防止できる。一画面上または同一シーンに対して表示されるピクトグラフの上限数又は最大数を使用者が設定できると、再生するテレビモニタのサイズや視認能力に応じて適切な変更が可能となる。このように表示数に制限がある場合、どのようなピクトグラフを優先して表示をするかが重要になってくる。最もシンプルな方法は、発声者を認識した時点で次々とピクトグラフを更新していく方法である。時系列の発声順序に注目した、所謂「後着優先型」である。常に最新の発声者からピクトグラフの表示上限に等しい数だけ遡る時点での発言者までが表示対象となる。同じ人物が連続的に発声を続ける限りは表示の更新が行われないが、他の者の発言が挿入された時点で更新が行われる。 If an upper limit is set for the number of pictographs displayed on the screen at the same time, it is possible to prevent the main picture and other pictographs from being obscured by the appearance of a large number of pictographs. If the user can set the upper limit number or the maximum number of pictographs displayed on one screen or for the same scene, an appropriate change can be made according to the size of the television monitor to be reproduced and the visual recognition ability. When the number of displays is limited in this way, what kind of pictograph is given priority for display becomes important. The simplest method is to update the pictographs one after another when the speaker is recognized. This is a so-called “late arrival priority type” focusing on the chronological utterance order. The display target is always from the latest speaker to the speaker at a time point that goes back by the number equal to the display upper limit of the pictograph. The display is not updated as long as the same person continues to speak, but is updated when another person's speech is inserted.
他には、発声音量に連動する方法が考えられる。音量検出部136を用いて人物の発声音量を測定し、この結果からピクトグラフの表示優先順位を決定する。音量の大きな順番に優先順位が高くなれば、より耳に届きやすい人物のピクトグラフが優先表示される。逆に音量の小さな順番に優先順位が高くなれば、より耳に届きにくく聞き逃しやすい人物のピクトグラフが優先表示される。
In addition, a method linked to the utterance volume can be considered. The sound volume of the person is measured using the sound
また、もともと優先的に表示をしたい人物を決めておくことも有効である。これはデータベース116の登録項目中にピクトグラフ表示優先度設定値を持たせ、付加画像表示判定部140がこの設定値に応じた処理を行うことで実現できる。
It is also effective to determine the person who wants to display with priority. This can be realized by having a pictograph display priority setting value in the registration item of the
例えば,映像ソースがホームビデオで撮影されたものである場合、撮影者が最も近距離から頻繁に発声していることが考えられる。このとき、前述のような優先順位を与えると、撮影者のピクトグラフが断然高頻度で表示されることになる。撮影者が映像に映らないことが多いのは確かではあるが、それが誰であったのかは比較的分かり易いものである。そこで、撮影者が誰であるのかを入力できるようにして、その人物のピクトグラフだけを他とは違う表現方法にしたり、あるいは表示しないようにすることで、ピクトグラフ表示の煩雑さを軽減できる。 For example, when the video source is a home video, it is possible that the photographer speaks frequently from the shortest distance. At this time, if the priorities are given as described above, the photographer's pictograph is displayed with a very high frequency. Although it is certain that the photographer often does not appear in the video, it is relatively easy to understand who it was. Therefore, by making it possible to input who the photographer is and making the pictograph of that person different from other methods or not displaying it, the complexity of pictograph display can be reduced. .
視認性の向上とあわせて娯楽性のあるインターフェイスも考えられる。1つ目の方法では、発声音声の音量に応じてピクトグラフの大きさを変化させる。音量検出部136で検出された音量データとピクトグラフの外形寸法の二者に相関性を持たせる。例えば、大きさを3段階で変化させる場合、音量データに2つの閾値レベルを設け、低い側の閾値レベル以下であれば小さく、2つの閾値レベル間であれば中程度に、高い側の閾値レベル以上であれば大きくする。
Along with improved visibility, an entertaining interface is also possible. In the first method, the size of the pictograph is changed according to the volume of the uttered voice. The volume data detected by the
2つ目の方法では、発声音声の指向角に応じてピクトグラフの表示位置を変化させる。音量検出部136が再生音声を解析し、スピーカ出力に対して視聴者のがどの方向からの音声と認識するかを調べる。再生音声が2チャンネルモードの場合には、音声の指向角に合わせてピクトグラフを左右方向に変化させて表示する。サラウンドモードの場合には、音声の左右方向を左右に、前後方向を上下に見立ててピクトグラフを配置する。例えば、右前方から聞こえる音声に対応するピクトグラフを再生画像の右上方に表示する。
In the second method, the display position of the pictograph is changed according to the directivity angle of the voice. The sound
発声音量や指向角は常時変化するものであるから、ピクトグラフ表示もその変化に追随すべきである。適当な時間間隔でピクトグラフ表示を更新することで、音声の変化動向を可視的に表すことができる。 Since the voicing volume and the directivity angle change constantly, the pictogram display should follow the changes. By updating the pictograph display at an appropriate time interval, it is possible to visually represent the change trend of the voice.
また他にも、データベース116に登録されたデータを基に、性別や年齢などに応じた色分けをすることなども考えられる。
表示タイミングにも配慮をすると、より見やすくすることができる。例えば、驚いた拍子に発する「あっ」という短い発声を検出した場合を考える。このような音声の検出結果に対して敏速な反応をすると、ピクトグラフが表示されるのは一瞬の出来事となる。これではピクトグラフで表示された人物が誰であったのかを確認するのは、非常に困難になる。そこで、オーサリング処理部160が、ある音声に対応するピクトグラフを一定時間先行して表示開始するように設定する。また、発声終了時には、一定時間表示を保持した後に消すという設定にする。すなわち、オーサリング処理部160は、発声開始よりも時間的に先行してサブピクチャの表示を開始し、発声終了より時間的に遅れてサブピクチャの表示を終了するようにオーサリングを行う。こうすることで、実際の発声時間の前後にピクトグラフを確認できる時間的余裕が生まれ、短い発声に対する視認性が改善される。あるいは、事前に発声時間を検出できるようであれば、ある規定時間以下の発声に対してだけ、前記のタイミング調整を行うのも良い。
In addition, based on data registered in the
If the display timing is taken into consideration, the display can be made easier to see. For example, let us consider a case where a short utterance “A” uttered with a surprising beat is detected. When a quick reaction is made to such a sound detection result, the pictograph is displayed for an instant. This makes it very difficult to confirm who the person displayed on the pictograph is. Therefore, the
前述した様々なピクトグラフ表示方法を組み合わせてサブピクチャの設定を行う際に次のようにする。すなわち、複数のサブピクチャチャネルを生成するオーサリング処理が可能であるならば、組合せ方法を変えた複数のチャネルを持ち合わせるようにする。例えば、あるチャネルは後着優先表示で、別のチャネルは音量優先表示で、更に別のチャネルでは指向角と性別による色分けで、という手法が可能である。これがDVDVIDEO形式でオーサリングされたものであれば、「字幕」を切り替えることで色々な表示を楽しむことができる。図11は、同時に表示されるピクトグラフの上限数が3で、発声音量と発声指向角に連動するピクトグラフ表示例を示す。 When sub-pictures are set by combining the various pictograph display methods described above, the following is performed. That is, if authoring processing for generating a plurality of sub-picture channels is possible, a plurality of channels with different combination methods are prepared. For example, it is possible to use a method in which a certain channel is a priority display for a later arrival, another channel is a priority display for a volume, and another channel is color-coded according to a directivity angle and sex. If this is authored in the DVD VIDEO format, various displays can be enjoyed by switching “subtitles”. FIG. 11 shows an example of a pictograph display in which the upper limit number of pictograms displayed at the same time is 3, and the voicing volume and the directional angle of utterance are linked.
このように、本実施例では、再生画像に映らずに再生声だけが聞こえる人物に関する情報を示すピクトグラフをサブピクチャとして表示可能な情報媒体を作成できる。 Thus, in this embodiment, it is possible to create an information medium capable of displaying, as a sub-picture, a pictograph indicating information related to a person who can hear only the reproduced voice without appearing in the reproduced image.
再生音声信号とデータベース116にある声データをそれぞれの特徴量で照合して、正しい人物を選択できなかった場合、ピクトグラフに誤ったデータが使用されることになる。使用者が表示されたピクトグラフを見て誤りに気付いたとき、本実施例では、正しい内容に修正できる。図12は、その修正動作のフローチャートを示す。
If the reproduced voice signal and the voice data in the
使用者は、再生表示画像を見て、聞こえてくる声とピクトグラフに表示される人物情報の正誤を確認する(S121)。ここで誤りを発見し、修正を行う場合は修正機能を使用する(S122)。表示部128の画面を見ながら、スイッチやタッチパネルなどの入力装置146を用いて、正しい情報がヒストグラムとして表示されるように修正する(S123〜S131)。
The user looks at the reproduced display image and confirms whether the voice to be heard and the personal information displayed on the pictograph are correct or incorrect (S121). If an error is found and corrected, the correction function is used (S122). While viewing the screen of the
具体的に説明する。使用者が修正を選択すると(S122)、修正モードに入り、画面上のピクトグラフを選択する画面になる(S123)。このピクトグラフ選択の際に、データベース116には該当する人物がいないとして表示対象から外されていた声に対して、「該当人物なし」を示すピクトグラフを表示して、それを選択できるようにすることが望ましい。これにより、人声照合部134が再生音声信号とデータベース116の声データとを同定できなかった誤りに対する修正が可能になる。
This will be specifically described. When the user selects correction (S122), the correction mode is entered and a screen for selecting a pictograph on the screen is displayed (S123). When selecting a pictograph, a pictograph indicating “no corresponding person” is displayed for a voice that has been excluded from the display target because there is no corresponding person in the
ピクトグラフ選択画面上で選択されているピクトグラフは、形状や色や縁取りなどが変化をして何らかの強調表示をする。使用者は入力装置146によって修正対象のピクトグラフを選択する(S124)。選択の直後に、「本当に修正をして良いか」という、修正の意思を確認するダイアログを表示する(S125)。続いて、修正後に使用するデータを検索し選択する(S126)。 The pictograph selected on the pictograph selection screen changes its shape, color, border, etc. and displays some highlights. The user selects a pictograph to be corrected using the input device 146 (S124). Immediately after the selection, a dialog for confirming the intention of correction, “Are you sure to correct?” Is displayed (S125). Subsequently, data to be used after correction is searched and selected (S126).
また、同時に修正するピクトグラフの対象範囲を選択する(S127)。このような選択ステップを設けることで、誤選択の可能性を低減できる。たとえば、第1の選択肢として、「選択したもののみ」に限定する。第2の選択肢として、「選択したピクトグラフと同一人物が認識されているもの全て」に限定する。第3の選択肢として、「選択したピクトグラフと同一人物が認識されているものの中で、選択したシーンと比較して人声照合の相関率が低いもの」に限定する。これらの選択肢の表現方法は、それぞれの再生装置に適した方法が選択される。 At the same time, the target range of the pictograph to be corrected is selected (S127). Providing such a selection step can reduce the possibility of erroneous selection. For example, the first option is limited to “only selected”. The second option is limited to “all those where the same person as the selected pictograph is recognized”. The third option is limited to “one in which the same person as the selected pictograph is recognized, and one having a lower correlation rate of voice collation than the selected scene”. As a method for expressing these options, a method suitable for each reproducing apparatus is selected.
修正実行可否を確認する(S128)。使用者の修正実行の決定に従い、実際のピクトグラフ表示データの差替え処理が行われる(S129)。このとき、対象となったピクトグラフと同時修正を行った範囲をデータベース116に反映すると、次回以降の人声照合の精度が向上する。
Whether or not correction can be executed is confirmed (S128). In accordance with the user's decision to execute correction, actual pictograph display data replacement processing is performed (S129). At this time, if the range of simultaneous correction with the target pictograph is reflected in the
他にも修正すべきピクトグラフがある場合(S130)、同様の手順によって修正を行う。その他の修正すべきピクトグラフが無い場合(S130)、修正モードから抜け(S131)、一連の修正作業を終える。 When there are other pictographs to be corrected (S130), correction is performed by the same procedure. If there is no other pictograph to be corrected (S130), the correction mode is exited (S131), and a series of correction operations is completed.
以上の構成および動作によって、画像信号と音声信号を再生した際に、画像に映っておらずに声だけが聞こえる人物に関する情報を視認できるようになる。 With the above configuration and operation, when an image signal and an audio signal are reproduced, information related to a person who can hear only a voice without being reflected in the image can be visually recognized.
本実施例では、カメラ部150及びマイクロホン152をデータベース116に顔画像データ及び声データを登録するのに使用できる。図13を参照して、取り込んだ画像データ及び音声データのデータベース116への登録方法を説明する。
In this embodiment, the
使用者は再生装置110の機能メニュからデータベース登録機能を選択し(S141)、データベース116に新しい個人情報を作成する(S142)。 The user selects a database registration function from the function menu of the playback device 110 (S141), and creates new personal information in the database 116 (S142).
まず、顔画像データを登録する(S143)。具体的には、カメラ部150が起動し、撮影が可能な状態になる(S144)。登録したい人物を被写体とし、その顔を含んだ画像を撮影する(S145)。このとき、表示部128にカメラ部150が捉えている画像が表示される。被写体となった人物自身が、表示部128の表示画像を見ながら、カメラ部150と自分の顔の位置関係を確認できるようにすると、効率的な撮影が行える。撮影画角内に被写体が的確に捉えられたら、入力装置146のスイッチを押して撮影を実行し、被写体の顔画像を取り込む(S146)。画像処理部118は、カメラ部150からの画像データをデータベース116への登録に適した形式とサイズに処理する。このとき、画像処理部118は、撮影した顔画像データから顔画像特徴量を算出し(S147)、顔画像データとともにデータベース116に登録する(S148)。ここでの顔画像特徴量算出処理には、再生画像から検出された人物の顔画像特徴量を算出する機能を利用できる。
First, face image data is registered (S143). Specifically, the
次に、声データを登録する(S149)。音声処理部130は、マイクロホン152が収音する音声信号を処理する機能を起動する(S150)。収音準備が整い収音可能な状態になったら、表示部128に声を入力することを促す表示をする。登録に適したフレーズを表示し、それを登録者に発声させるようにすれば、登録者が発言すべきフレーズに迷うことがないので好ましい。声を記録する際、入力装置146のスイッチを記録開始時と終了時に押すようにするか、押されている最中を記録期間とする。
Next, voice data is registered (S149). The
音声処理部130は、マイクロホン152からの音声を一旦保持する(S151)。そして、表示とともにこの音声を再生して、登録して良いかどうかを使用者に確認する(S152)。使用者が登録を拒否すれば、音声の取り込みをやり直す。使用者が登録を承認すると、音声処理部130は、取り込んだ音声をデータベース116への登録に適した形式及びサイズに処理し、声特徴量を算出し(S153)、声データと声特徴量をデータベース116に登録する(S154)。ここでの声特徴量算出処理には、再生音声から声特徴量を算出する機能を利用できる。
The
続いて、データベース116に、例えば、氏名等の、その他の項目を入力する(S155)。 Subsequently, other items such as a name are input to the database 116 (S155).
図13に示す登録順序は一例であり、例えば最初に「氏名」を入力してから顔画像データを登録してもよいことは明らかである。 The registration order shown in FIG. 13 is an example. For example, it is obvious that the face image data may be registered after first inputting “name”.
10,10a,110:再生装置
12,112:記録媒体
14,114:記録媒体駆動装置
16,16a,116a:データベース
18,118:画像処理部
20,120:顔画像認識部
22,122:顔画像照合部
24,124:付加画像生成部
26,126:表示画像生成部
28,128:表示部
30,130:音声処理部
32,132:人声認識部
34,134:人声照合部
36,136:音量検出部
38,138:音声出力装置
40,140:付加画像表示判定部
42,142:外部出力部
44,144:CPU
46,146:入力装置
50,150:カメラ部
52,152:マイクロホン
160:オーサリング処理部
162:記録媒体駆動装置
164:記録媒体
10, 10a, 110:
46, 146:
Claims (17)
前記記録媒体から読み出した音声データを再生し、再生音声信号を出力する音声処理手段と、
複数人の声データと顔画像データを記録したデータベースと、
前記再生音声信号から人声を判別し認識する人声認識手段と、
前記人声認識手段で認識された人声と前記データベースに登録された声データとを照合し同定する人声照合手段と、
前記再生画像信号から人物の顔を判別し認識する顔画像認識手段と、
前記顔画像認識手段で認識された人物の顔と前記データベースに登録された顔画像データとを照合し同定する顔画像照合手段と、
同一シーン中の前記人声照合手段で同定された人物から前記顔画像照合手段で同定された人物を除外した人物を、付加画像表示の対象として決定する付加画像表示判定手段と、
前記データベースから前記付加画像表示判定手段で決定された対象の人物を示す情報を読み出して、前記再生画像信号に合成すべき付加画像を生成する付加画像生成手段と、
前記再生画像信号に前記付加画像を合成する表示画像生成手段
とを有することを特徴とする再生装置。 Image processing means for reproducing image data read from a recording medium and outputting a reproduced image signal;
Audio processing means for reproducing audio data read from the recording medium and outputting a reproduced audio signal;
A database that records voice data and face image data of multiple people,
Human voice recognition means for discriminating and recognizing human voice from the reproduced voice signal;
A voice collation means for collating and identifying a voice recognized by the voice recognition means and voice data registered in the database;
Face image recognition means for discriminating and recognizing a person's face from the reproduced image signal;
Face image collating means for collating and identifying the face of the person recognized by the face image recognizing means and the face image data registered in the database;
An additional image display determining means for determining a person who excludes the person identified by the face image matching means from the persons identified by the voice matching means in the same scene, as an additional image display target;
Additional image generation means for reading information indicating the target person determined by the additional image display determination means from the database and generating an additional image to be combined with the reproduced image signal;
And a display image generating means for synthesizing the additional image with the reproduced image signal.
前記表示画像生成手段は、前記データベースに合成を許す情報が登録されている場合に、前記再生画像信号に前記付加画像を合成する
ことを特徴とする請求項1又は2に記載の再生装置。 The database has, for each person, information indicating whether or not the reproduction image signal and the additional image can be combined in the display image generation unit,
3. The playback apparatus according to claim 1, wherein the display image generation unit synthesizes the additional image with the playback image signal when information allowing composition is registered in the database. 4.
画像を撮影するカメラ部と、
音声を収音するマイクロホンと、
前記カメラ部により撮影された顔画像と前記マイクロホンにより収音された音声を前記データベースに登録する手段
とを有することを特徴とする請求項1乃至3の何れか1項に記載の再生装置。 Furthermore,
A camera unit for taking images,
A microphone that picks up sound,
The playback apparatus according to any one of claims 1 to 3, further comprising means for registering a face image photographed by the camera unit and sound collected by the microphone in the database.
前記オーサリング手段は、前記サブピクチャの表示位置を前記方向に連動させる
ことを特徴とする請求項10に記載の再生装置。 Furthermore, it has means for detecting the direction of the reproduced audio signal,
The playback apparatus according to claim 10, wherein the authoring means links the display position of the sub-picture in the direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008307089A JP5111343B2 (en) | 2008-12-02 | 2008-12-02 | Playback device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008307089A JP5111343B2 (en) | 2008-12-02 | 2008-12-02 | Playback device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010134507A true JP2010134507A (en) | 2010-06-17 |
JP2010134507A5 JP2010134507A5 (en) | 2012-01-26 |
JP5111343B2 JP5111343B2 (en) | 2013-01-09 |
Family
ID=42345777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008307089A Expired - Fee Related JP5111343B2 (en) | 2008-12-02 | 2008-12-02 | Playback device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5111343B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013122695A (en) * | 2011-12-12 | 2013-06-20 | Honda Motor Co Ltd | Information presentation device, information presentation method, information presentation program, and information transfer system |
JP2016181913A (en) * | 2016-05-17 | 2016-10-13 | 株式会社Jvcケンウッド | Image data generating device and image data generating method |
JP2016225875A (en) * | 2015-06-01 | 2016-12-28 | 日本電信電話株式会社 | Travel apparatus operation terminal, travel apparatus operation method and travel apparatus operation program |
JP2018502398A (en) * | 2014-12-30 | 2018-01-25 | フェイスブック,インク. | System and method for providing social remarks of text overlaid on media content |
US20210279474A1 (en) * | 2013-05-17 | 2021-09-09 | Canon Kabushiki Kaisha | Surveillance camera system and surveillance camera control apparatus |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001067098A (en) * | 1999-08-25 | 2001-03-16 | Sanyo Electric Co Ltd | Person detecting method and device equipped with person detecting function |
JP2007027990A (en) * | 2005-07-13 | 2007-02-01 | Canon Inc | Apparatus and method, and program for generating caption from moving picture data, and storage medium |
JP2007133595A (en) * | 2005-11-09 | 2007-05-31 | Omron Corp | Inquiry system |
JP2007140548A (en) * | 2007-01-29 | 2007-06-07 | Yamaha Corp | Portrait output device and karaoke device |
JP2008015646A (en) * | 2006-07-04 | 2008-01-24 | Hitachi Omron Terminal Solutions Corp | Biometric device and its system, and transaction processing apparatus |
-
2008
- 2008-12-02 JP JP2008307089A patent/JP5111343B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001067098A (en) * | 1999-08-25 | 2001-03-16 | Sanyo Electric Co Ltd | Person detecting method and device equipped with person detecting function |
JP2007027990A (en) * | 2005-07-13 | 2007-02-01 | Canon Inc | Apparatus and method, and program for generating caption from moving picture data, and storage medium |
JP2007133595A (en) * | 2005-11-09 | 2007-05-31 | Omron Corp | Inquiry system |
JP2008015646A (en) * | 2006-07-04 | 2008-01-24 | Hitachi Omron Terminal Solutions Corp | Biometric device and its system, and transaction processing apparatus |
JP2007140548A (en) * | 2007-01-29 | 2007-06-07 | Yamaha Corp | Portrait output device and karaoke device |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013122695A (en) * | 2011-12-12 | 2013-06-20 | Honda Motor Co Ltd | Information presentation device, information presentation method, information presentation program, and information transfer system |
US8990078B2 (en) | 2011-12-12 | 2015-03-24 | Honda Motor Co., Ltd. | Information presentation device associated with sound source separation |
US20210279474A1 (en) * | 2013-05-17 | 2021-09-09 | Canon Kabushiki Kaisha | Surveillance camera system and surveillance camera control apparatus |
JP2018502398A (en) * | 2014-12-30 | 2018-01-25 | フェイスブック,インク. | System and method for providing social remarks of text overlaid on media content |
US10699454B2 (en) | 2014-12-30 | 2020-06-30 | Facebook, Inc. | Systems and methods for providing textual social remarks overlaid on media content |
JP2016225875A (en) * | 2015-06-01 | 2016-12-28 | 日本電信電話株式会社 | Travel apparatus operation terminal, travel apparatus operation method and travel apparatus operation program |
JP2016181913A (en) * | 2016-05-17 | 2016-10-13 | 株式会社Jvcケンウッド | Image data generating device and image data generating method |
Also Published As
Publication number | Publication date |
---|---|
JP5111343B2 (en) | 2013-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5474062B2 (en) | Content reproduction apparatus, content reproduction method, program, and integrated circuit | |
JP4380524B2 (en) | Information processing apparatus and information processing method | |
JP2007027990A (en) | Apparatus and method, and program for generating caption from moving picture data, and storage medium | |
JP5111343B2 (en) | Playback device | |
JP7100824B2 (en) | Data processing equipment, data processing methods and programs | |
EP2665290A1 (en) | Simultaneous display of a reference video and the corresponding video capturing the viewer/sportsperson in front of said video display | |
JP2009141555A (en) | Imaging apparatus with voice input function and its voice recording method | |
US20170186440A1 (en) | Method, device and storage medium for playing audio | |
KR20150046619A (en) | image outputting device | |
JP5120716B2 (en) | Imaging apparatus, imaging control method, and program | |
JP2005250322A (en) | Display device | |
JP2009278568A (en) | Image processing device and image processing method | |
JP2008160232A (en) | Video audio reproducing apparatus | |
JP6443205B2 (en) | CONTENT REPRODUCTION SYSTEM, CONTENT REPRODUCTION DEVICE, CONTENT RELATED INFORMATION DISTRIBUTION DEVICE, CONTENT REPRODUCTION METHOD, AND CONTENT REPRODUCTION PROGRAM | |
JP2007295100A (en) | Television receiver | |
JP5310682B2 (en) | Karaoke equipment | |
JPWO2014155961A1 (en) | Image generating apparatus, photographing apparatus, image generating method, and program | |
JP2013183280A (en) | Information processing device, imaging device, and program | |
JP6314321B2 (en) | Image generating apparatus, photographing apparatus, image generating method, and program | |
JP2010200056A (en) | Recording and reproducing apparatus | |
JP6295443B2 (en) | Image generating apparatus, photographing apparatus, image generating method, and program | |
JP4515005B2 (en) | Electronic camera | |
JP7111202B2 (en) | SOUND COLLECTION CONTROL SYSTEM AND CONTROL METHOD OF SOUND COLLECTION CONTROL SYSTEM | |
JP2012118286A (en) | Karaoke system adaptive to user attribute | |
JP2023125031A (en) | video creation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120911 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121009 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151019 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5111343 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151019 Year of fee payment: 3 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |
|
LAPS | Cancellation because of no payment of annual fees |