JP2015142185A - Viewing method, viewing terminal and viewing program - Google Patents
Viewing method, viewing terminal and viewing program Download PDFInfo
- Publication number
- JP2015142185A JP2015142185A JP2014012819A JP2014012819A JP2015142185A JP 2015142185 A JP2015142185 A JP 2015142185A JP 2014012819 A JP2014012819 A JP 2014012819A JP 2014012819 A JP2014012819 A JP 2014012819A JP 2015142185 A JP2015142185 A JP 2015142185A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- unit
- video
- audio
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、視聴方法、視聴端末及び視聴プログラムに関する。 The present invention relates to a viewing method, a viewing terminal, and a viewing program.
生体センサにより計測されたユーザの生体情報変化の状態から、番組に対するユーザの集中度を判定し、全ユーザについて集中度を統計した結果に基づいて、映像の配信制御を行う方法が開示されている(例えば、特許文献1参照)。 A method is disclosed in which a user's degree of concentration with respect to a program is determined from the state of changes in the user's biometric information measured by a biometric sensor, and video distribution control is performed based on the results of statistics on the degree of concentration for all users. (For example, refer to Patent Document 1).
しかしながら、上記の視聴方法では、映像や音声自体が制作者の意図のみが反映されたものになるため、ユーザは好みの視聴をすることができない、という問題があった。 However, in the above viewing method, there is a problem that the user cannot view the video and audio itself because only the creator's intention is reflected.
上記事情に鑑み、本発明は、ユーザの意図を反映した、ユーザ好みの視聴を可能とする視聴方法、視聴端末及び視聴プログラムを提供することを目的としている。 In view of the above circumstances, an object of the present invention is to provide a viewing method, a viewing terminal, and a viewing program that allow a user-preferred viewing reflecting a user's intention.
本発明の一態様は、視聴端末における視聴方法であって、音声に同期した映像を表示し、前記映像に含まれる選択された領域又は位置を示す情報を取得するステップと、前記映像に含まれる選択された領域又は位置を示す情報に基づいて、前記映像における被写体を特定するステップと、特定された前記被写体に基づいて、前記音声をミキシングするステップと、を有する視聴方法である。 One aspect of the present invention is a viewing method in a viewing terminal, wherein a video synchronized with audio is displayed, and information indicating a selected region or position included in the video is acquired; and the video is included in the video A viewing method comprising: specifying a subject in the video based on information indicating a selected region or position; and mixing the audio based on the specified subject.
本発明の一態様は、前記映像における被写体を特定するステップでは、前記被写体の位置を示す位置特定情報、又は、前記映像における前記被写体を同定するための画像識別情報を、保存部から取得し、取得した前記位置特定情報又は前記画像識別情報に基づいて、前記映像における前記被写体を特定する視聴方法である。 According to one aspect of the present invention, in the step of specifying a subject in the video, position specifying information indicating a position of the subject or image identification information for identifying the subject in the video is acquired from a storage unit, In this viewing method, the subject in the video is specified based on the acquired position specifying information or image identification information.
本発明の一態様は、前記映像における被写体を特定するステップでは、前記被写体の位置を示す位置特定情報と、前記映像における選択された被写体の位置を示す被写体選択情報と、に基づいて、前記映像における前記被写体を特定する視聴方法である。 According to one aspect of the present invention, in the step of specifying a subject in the video, the video is based on position specifying information indicating a position of the subject and subject selection information indicating a position of the selected subject in the video. The viewing method for specifying the subject.
本発明の一態様は、前記映像における被写体を特定するステップでは、特定された前記被写体と、前記映像における他の被写体とを、前記位置特定情報に基づいて関連付ける視聴方法である。 One aspect of the present invention is a viewing method in which, in the step of specifying a subject in the video, the specified subject and another subject in the video are associated based on the position specifying information.
本発明の一態様は、前記音声をミキシングするステップでは、特定された前記被写体の音声と、特定された前記被写体に関連付けられた他の前記被写体の音声と、をミキシングする視聴方法である。 One aspect of the present invention is a viewing method in which, in the step of mixing the sound, the sound of the specified subject and the sound of another subject associated with the specified subject are mixed.
本発明の一態様は、前記音声をミキシングするステップでは、特定された移動する前記被写体の音声と、特定された移動する前記被写体に関連付けられた他の前記被写体の音声と、をミキシングする視聴方法である。 In one aspect of the present invention, in the step of mixing the sound, the viewing method for mixing the sound of the identified moving subject and the sound of the other subject associated with the identified moving subject It is.
本発明の一態様は、前記音声をミキシングするステップでは、特定された前記被写体の音声と、所定条件に基づいて特定された他の前記被写体の音声と、をミキシングする視聴方法である。 One aspect of the present invention is a viewing method in which, in the step of mixing the sound, the sound of the specified subject and the sound of the other subject specified based on a predetermined condition are mixed.
本発明の一態様は、音声に同期した映像を表示し、前記映像に含まれる選択された領域又は位置を示す情報を取得する表示部と、前記映像に含まれる選択された領域又は位置を示す情報に基づいて、前記映像における被写体を特定する認識部と、特定された前記被写体に基づいて、前記音声をミキシングする音声ミキシング部と、を備える視聴端末である。 One embodiment of the present invention displays a video synchronized with audio, obtains information indicating a selected region or position included in the video, and indicates a selected region or position included in the video. A viewing terminal comprising: a recognition unit that identifies a subject in the video based on information; and an audio mixing unit that mixes the audio based on the identified subject.
本発明の一態様は、視聴方法を、コンピュータに実行させるための視聴プログラムである。 One embodiment of the present invention is a viewing program for causing a computer to execute a viewing method.
本発明により、音声ミキシング部は、特定された被写体に基づいて、音声をミキシングする。これにより、視聴方法、視聴端末及び視聴プログラムでは、ユーザの意図を反映した、ユーザ好みの視聴が可能となる。 According to the present invention, the audio mixing unit mixes audio based on the identified subject. As a result, the viewing method, the viewing terminal, and the viewing program enable user-preferred viewing that reflects the user's intention.
以下、本発明の実施形態の視聴方法、視聴端末及び視聴プログラムを、図面を参照して詳細に説明する。
図1は、本発明の実施形態における、視聴端末の構成例を示すブロック図である。視聴端末1は、再生操作部10と、再生制御部11と、表示部12と、音源認識部13と、保存部14と、復号部15と、音声ミキシング部16と、ミキシング操作部17と、同期部18とを備える。
Hereinafter, a viewing method, a viewing terminal, and a viewing program according to an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a configuration example of a viewing terminal in the embodiment of the present invention. The
再生制御部11と、音源認識部13と、復号部15と、音声ミキシング部16と、同期部18とのうち、少なくとも一部は、例えば、CPU(Central Processing Unit)等のプロセッサである。再生制御部11と、音源認識部13と、復号部15と、音声ミキシング部16と、同期部18とのうち、少なくとも一部は、例えば、ROM(Read Only Memory)などの記憶部から、RAM(Random Access Memory)などの記憶部に展開されたアプリケーションプログラムを実行することにより機能するソフトウェア機能部である。なお、再生制御部11と、音源認識部13と、復号部15と、音声ミキシング部16と、同期部18とのうち、少なくとも一部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)等のハードウェア機能部でもよい。
At least a part of the
再生操作部10は、ユーザによる操作に応じて、再生するコンテンツ名の入力、再生の開始、又は、停止を制御する。
再生制御部11は、表示部12、音源認識部13、保存部14を制御する。これにより、再生制御部11は、コンテンツの映像と音声を再生させることができる。
The
The
表示部12は、映像と音声を再生する。表示部12は、取得部(例えば、タッチパネル)を有してもよい。表示部12は、取得部により、映像に含まれる選択された領域又は位置を示す情報を取得する。これにより、ユーザは、表示部12に再生されている映像における視聴したい領域を自由に選択できる。
The
以下、選択された領域を「注視領域」という。注視領域は、位置や大きさに関係なく、自由に選択可能である。以下、注視領域を示す情報を「注視領域情報」という。注視領域情報には、注視領域の位置、大きさ、及び映像に関する情報が含まれている。ユーザは、表示部12に再生されている映像における視聴したい被写体(例えば、人物)を直接選択することができる。
Hereinafter, the selected area is referred to as a “gaze area”. The gaze area can be freely selected regardless of the position and size. Hereinafter, the information indicating the gaze area is referred to as “gaze area information”. The gaze area information includes information on the position, size, and video of the gaze area. The user can directly select a subject (for example, a person) to view in the video reproduced on the
音源認識部13は、音源としての被写体を特定する。例えば、音源認識部13は、映像における被写体の位置を特定する。本実施例では、音源としての被写体は、人物の音声を集音するワイヤレスマイクが装着されている人物と、ステージ周辺の音声を集音する集音マイクとである。なお、音源としての被写体は、必ずしも人物や集音マイクである必要はない。
The sound
保存部14は、人物の音声を集音するワイヤレスマイクからの音声データ(各人物音声データ)と、ステージ周辺の音声を集音する集音マイクとからの音声データ(各集音マイク音声データ)と、映像データと、画像識別情報と、位置特定情報と、注視領域情報と、自動注視領域情報と、ミキシング調整情報とを、コンテンツごとに保存する。これらの情報は、コンテンツ毎に符号化されていてもよい。図1では、保存部14は、一例として、コンテンツ70と、コンテンツ71とを保存している。
The
画像識別情報は、映像における被写体を同定するための識別情報である。位置特定情報は、被写体を特定するための情報と、映像における被写体の位置を特定するための情報とが含まれている。位置特定情報は、例えば、座標で表現される。これらの情報は、音源としての被写体に装着されている位置センサから発信される。注視領域情報は、再生開始時に使用する情報であり、ユーザが視聴したい領域の位置、大きさ及び映像を示す情報である。自動注視領域情報は、視聴したい被写体をユーザが直接選択した場合に用いる注視領域情報である。ミキシング調整情報は、音源としての被写体の音声ミキシング要素の調整情報である。 Image identification information is identification information for identifying a subject in a video. The position specifying information includes information for specifying the subject and information for specifying the position of the subject in the video. The position specifying information is expressed by coordinates, for example. These pieces of information are transmitted from a position sensor attached to a subject as a sound source. The gaze area information is information used at the start of reproduction, and is information indicating the position, size, and video of the area that the user wants to view. The automatic gaze area information is gaze area information used when the user directly selects a subject to view. The mixing adjustment information is adjustment information of an audio mixing element of a subject as a sound source.
保存部14は、要求コンテンツを検索し、音声データ及び映像データを復号部15に出力する。保存部14は、要求コンテンツの画像識別情報、位置特定情報、注視領域情報、及び、自動注視領域情報を、音源認識部13に出力する。保存部14は、ミキシング調整情報を、音声ミキシング部16に出力する。
The
復号部15は、保存部14から受け取った音声データ及び映像データを復号する。復号部15は、音声データを音声ミキシング部16に出力する。復号部15は、映像データを、音源認識部13に出力する。
音声ミキシング部16は、音声にミキシング処理を施す。ミキシング処理の方法は、どのような方法でもよく、特定の方法に限定されない。
ミキシング操作部17は、ミキシング処理するための設定操作を受け付ける。
同期部18は、ミキシング処理された音声と映像とが各々に保持している再生時間情報に基づいて、音声と映像とをフレーム単位で同期させる。同期部18は、同期させた音声と映像とを、表示部12に出力する。
The
The
The mixing
The
図2は、本発明の実施形態における、音声収録の第1例を示す図である。ワイヤレスマイク60は、人物Aの口の近傍(胸や、首の後ろなど)に装着される。ワイヤレスマイク60は、人物Aの音声を集音する。ワイヤレスマイク61は、人物Bの口の近傍に装着される。ワイヤレスマイク61は、人物Bの音声を集音する。ワイヤレスマイク62は、人物Cの口の近傍に装着される。ワイヤレスマイク62は、人物Cの音声を集音する。ワイヤレスマイク63は、人物Dの口の近傍に装着される。ワイヤレスマイク63は、人物Dの音声を集音する。
FIG. 2 is a diagram showing a first example of audio recording in the embodiment of the present invention. The
集音マイク30、31、32、33、34(以下、「集音マイク30〜34」と表記する。)は、ステージ80の前部、生演奏バンドの周辺に設置される。集音マイク30〜34は、曲が生演奏される場合、その生演奏による曲のメロディ、ステージ80周辺の音声を集音する。位置センサ40、41、42、43、44(以下、「位置センサ40〜44」と表記する。)は、現在位置を特定する情報(位置特定情報)を出力可能なセンサである。位置センサ40〜44は、集音マイク30〜34のそれぞれに装着されている。位置センサ50、51、52、53(以下、「位置センサ50〜53」と表記する。)は、人物A〜Dのそれぞれに装着されている。位置特定情報は、音源としての被写体に装着された、位置センサ40〜44と、位置センサ50〜53とから発信される。
図3は、本発明の実施形態における、音声収録の第2例を示す図である。図3では、集音マイク30〜34は、ステージ80の上部、生演奏バンドの上部に設置されている点が、図2に示す場合と異なる。集音マイク30〜34は、曲が生演奏される場合、その生演奏による曲のメロディ、ステージ80周辺の音声を集音する。ワイヤレスマイク60、61、62、63(以下、「ワイヤレスマイク60〜63」と表記する。)と、位置センサ40〜44と、位置センサ50〜53とについては、図2に示す場合と同様である。
FIG. 3 is a diagram showing a second example of audio recording in the embodiment of the present invention. In FIG. 3, the
図4は、本発明の実施形態における、カメラの設置例を示す図である。カメラ20は、客席の後方からステージ80の全体が映像のフレームに入る様に撮影可能な位置に設置される。
図5は、本発明の実施形態における、被写体の画像が入る領域の例を示す図である。図5には、視聴している映像における選択された被写体である人物Dの画像が入る注視領域100が示されている。ユーザは、視聴したい領域である注視領域100の範囲を選択する場合、視聴している視聴端末1の表示部12の画面上を手で触れることで、注視領域100の範囲を直接指定してもよいし、マウス操作により注視領域100の範囲を指定してもよい。
FIG. 4 is a diagram showing an installation example of the camera in the embodiment of the present invention. The
FIG. 5 is a diagram illustrating an example of a region where an image of a subject enters in the embodiment of the present invention. FIG. 5 shows a gaze area 100 in which an image of a person D that is a selected subject in the video being viewed is entered. When the user selects the range of the gaze area 100 that is the area he / she wants to view, the user can directly specify the range of the gaze area 100 by touching the screen of the
図6は、本発明の実施形態における、被写体を追跡する第1例を示す図である。図6では、ユーザは、表示部12の画面上を手で触れることで、その画面上で人物Dの位置を手動で追いかけるものとする。図6には、ユーザが選択した人物Dに対する、手動による追いかけ再生が示されている。再生制御部11は、視聴端末1の表示部12の画面上で、被写体の動きを手動で追いかけながら、映像及び音声を再生する。図6では、人物Dの移動に応じて注視領域100が移動したことにより、人物D以外に、人物B及びCが注視領域100に存在する映像が示されている。注視領域100の移動は、視聴している視聴端末1の表示部12の画面上を手で触れることで、注視領域100の範囲を直接指定してもよいし、マウス操作により注視領域100の範囲を指定してもよい。
FIG. 6 is a diagram showing a first example for tracking a subject in the embodiment of the present invention. In FIG. 6, it is assumed that the user manually follows the position of the person D on the screen by touching the screen of the
図7は、本発明の実施形態における、被写体を直接選択する第1例を示す図である。図7では、視聴端末1の表示部12の画面上で、ユーザの手やマウス操作により、被写体の画像上の1箇所に触ることにより、人物Dは直接選択される。この場合、注視領域100の縦横サイズは、事前に設定されている。以下、事前に設定されている注視領域を、「自動注視領域情報」という。また、以下、映像における被写体の画像にユーザが触れた位置を示す情報を、「被写体選択情報」という。
FIG. 7 is a diagram illustrating a first example of directly selecting a subject in the embodiment of the present invention. In FIG. 7, the person D is directly selected by touching one place on the subject image by the user's hand or mouse operation on the screen of the
図8は、本発明の実施形態における、被写体を追跡する第2例を示す図である。図8では、再生制御部11は、図7でユーザが選択した人物Dの位置を、表示部12の画面上で位置特定情報に基づいて追いかける。つまり、図8には、図7でユーザが選択した人物Dに対する、自動による追いかけ再生が示されている。被写体が直接選択された場合、再生制御部11は、視聴端末1の表示部12の画面上で、被写体の動きを自動で追いかけながら、映像及び音声を再生する。図8では、人物Dの移動に応じて注視領域100が移動したことにより、人物D以外に、人物B及びCが注視領域100に存在する映像が示されている。
FIG. 8 is a diagram showing a second example of tracking a subject in the embodiment of the present invention. In FIG. 8, the
図9は、本発明の実施形態における、注視領域100を拡大する例を示す図である。図9には、図6で選択された注視領域100が拡大された場合が示されている。ユーザは、視聴端末1の表示部12の画面上で、ユーザの手やマウス操作により、注視領域100の拡大を指定することが可能である。
FIG. 9 is a diagram showing an example of enlarging the gaze area 100 in the embodiment of the present invention. FIG. 9 shows a case where the gaze area 100 selected in FIG. 6 is enlarged. The user can specify enlargement of the gaze area 100 on the screen of the
次に、注視領域100における音源としての被写体(人物)を特定する方法を説明する。画像識別情報は、被写体の画像を識別する情報である。位置特定情報は、被写体を特定する情報と、画面における被写体が存在する位置を示す情報とを含む。注視領域情報は、注視領域の位置と、注視領域の縦横の大きさと、映像に関する情報とを含む。被写体選択情報は、画面に表示された映像における、直接選択された被写体の位置を示す情報である。 Next, a method for specifying a subject (person) as a sound source in the gaze area 100 will be described. Image identification information is information for identifying an image of a subject. The position specifying information includes information for specifying the subject and information indicating the position where the subject exists on the screen. The gaze area information includes the position of the gaze area, the vertical and horizontal sizes of the gaze area, and information about the video. The subject selection information is information indicating the position of the directly selected subject in the video displayed on the screen.
図5に示す場合、音源認識部13は、画像識別情報又は位置特定情報と、注視領域情報とに基づいて、注視領域100における被写体(人物D)を特定する。図6に示すように、注視領域100における被写体(人物D、人物B、人物C)が複数の場合、音源認識部13は、画像識別情報又は位置特定情報と、注視領域情報とに基づいて、個別に人物を特定する。
In the case illustrated in FIG. 5, the sound
図7に示す場合、音源認識部13は、被写体選択情報及び位置特定情報に基づいて、直接指定された被写体(人物D)を特定する。図8に示すように、注視領域100における被写体(人物D、人物B、人物C)が複数の場合、音源認識部13は、画像識別情報又は位置特定情報と、注視領域情報とに基づいて、個別に人物を特定する。
In the case illustrated in FIG. 7, the sound
図10は、本発明の実施形態における、被写体の画像の一部が入る領域を選択する例を示す図である。音源としての被写体(人物A〜D、集音マイク30〜34)の画像の一部でも注視領域100に入っている場合、その被写体は、注視領域100に存在するものとされる。図10では、音源認識部13は、注視領域100における被写体(人物A、人物B)を特定する。また、音源認識部13は、注視領域100における被写体(集音マイク31、集音マイク33)を特定する。
FIG. 10 is a diagram illustrating an example of selecting an area in which a part of an image of a subject enters in the embodiment of the present invention. When a part of the image of the subject (persons A to D and the
図11は、本発明の実施形態における、被写体を直接選択する第2例を示す図である。図11では、音源認識部13は、被写体選択情報及び位置特定情報に基づいて、直接指定された被写体である人物Dを特定する。
FIG. 11 is a diagram illustrating a second example of directly selecting a subject in the embodiment of the present invention. In FIG. 11, the sound
図12は、本発明の実施形態における、被写体を追跡する第3例を示す図である。音源認識部13は、被写体選択情報及び位置特定情報に基づいて、移動する人物Dの周囲の人物A〜Cを特定する。図12では、音源認識部13は、映像の真ん中に位置している人物Dに近い順が、人物B、人物C、人物Aの順であると特定する。
FIG. 12 is a diagram illustrating a third example of tracking a subject in the embodiment of the present invention. The sound
次に、注視領域100における音源としての被写体(集音マイク)の特定と、被写体(人物)及び被写体(集音マイク)の関連付けとを行う方法を説明する。
音源認識部13は、画像識別情報又は位置特定情報に基づいて、全ての集音マイク30〜34を特定する。音源認識部13は、注視領域100における人物と集音マイクとの位置関係に基づいて、注視領域100における人物に近い順に、各集音マイクを特定する。具体的には、以下のように人物と集音マイクとを関連付ける。なお、音源認識部13は、距離が近い順以外に基づいて、人物A〜Dと集音マイク30〜34とを関連付けてもよい。
Next, a method for specifying a subject (sound collecting microphone) as a sound source in the gaze area 100 and associating the subject (person) and the subject (sound collecting microphone) will be described.
The sound
図5に示す場合、音源認識部13は、注視領域100における被写体(人物D)に近い集音マイクの順番を、位置特定情報に基づいて、集音マイク32、34、31、33、30の順と特定する。
図7に示す場合、音源認識部13は、被写体選択情報及び位置特定情報に基づいて、直接指定された被写体である人物Dに距離が近い集音マイクの順番を、集音マイク32、34、31、33、30の順と特定する。
In the case shown in FIG. 5, the sound
In the case illustrated in FIG. 7, the sound
図6又は図8に示すように、被写体である人物D、人物B、人物Cの3人の画像が注視領域100にある場合、音源認識部13は、位置特定情報に基づいて、人物Dに近い集音マイクの順番を、集音マイク31、33、34、30、32の順と特定する。また、音源認識部13は、位置特定情報に基づいて、人物Bに近い集音マイクの順番を、集音マイク31、33、30、34、32の順と特定する。また、音源認識部13は、位置特定情報に基づいて、人物Cに近い集音マイクの順番を、集音マイク34、31、33、32、30の順と特定する。
As shown in FIG. 6 or FIG. 8, when the images of three persons, who are subjects D, B, and C, are in the gaze area 100, the sound
図10に示すように、被写体である人物A、人物Bの2人の画像が注視領域100にある場合、音源認識部13は、位置特定情報に基づいて、人物Aに近い集音マイクの順番を、集音マイク30、33、31、34、32と特定する。また、音源認識部13は、位置特定情報に基づいて、人物Bに近い集音マイクの順番を、集音マイク31、33、30、34、32と特定する。音源認識部13は、音源としての被写体(人物、集音マイク)の一部が注視領域100に入っている場合、注視領域に存在するものと判定する。
As shown in FIG. 10, when two images of the subject person A and person B are in the gaze area 100, the sound
図11に示すように、音源認識部13は、被写体選択情報及び位置特定情報に基づいて、直接指定された被写体である人物Dに近い集音マイクの順番を、集音マイク32、34、31、33、30の順と特定する。
図12に示すように、音源認識部13は、被写体選択情報及び位置特定情報に基づいて、直接指定された被写体である人物Dに近い集音マイクの順番を、集音マイク31、33、34、30、32の順と特定する。
As shown in FIG. 11, the sound
As illustrated in FIG. 12, the sound
次に、音声ミキシングの調整を説明する。
音声ミキシング部16は、音声にミキシング処理を施す。音声ミキシング部16は、音声ミキシングの調整要素の音量を変化させる。ミキシング処理の方法は、どのような方法でもよく、特定の方法に限定されない。例えば、音声ミキシング部16は、ミキシング処理により、被写体の音声の調整要素である音色等を調整してもよい。音声ミキシング部16は、他の調整要素を変化させてもよい。
Next, audio mixing adjustment will be described.
The
音声ミキシング調整の例は、以下に示す、音声ミキシング調整の例(mix−1)〜(mix−6)に限定されるものではない。音声ミキシング調整の例(mix−1)〜(mix−6)では、ユーザは、ミキシング要素の調整を、ミキシング操作部17を操作することにより設定できる。
The example of audio mixing adjustment is not limited to the example (mix-1) to (mix-6) of audio mixing adjustment shown below. In the examples (mix-1) to (mix-6) of the audio mixing adjustment, the user can set the adjustment of the mixing element by operating the mixing
<音声ミキシング調整の第1例(mix−1)>
音声ミキシングに用いられる集音マイクの数は複数でもよいが、音声ミキシング調整の第1例では、音声ミキシングに用いられる集音マイクの数は1台であるものとする。図5に示す注視領域100における被写体(人物D)から一番近い集音マイク32のみとする。なお、音声ミキシングに用いられる集音マイクは、必ずしも被写体から近い集音マイクでなくてもよい。
<First example of audio mixing adjustment (mix-1)>
Although the number of sound collecting microphones used for sound mixing may be plural, in the first example of sound mixing adjustment, it is assumed that the number of sound collecting microphones used for sound mixing is one. Only the
音声ミキシング部16は、集音マイク32の音量を下げる。音声ミキシング部16は、被写体(人物D)の音声の音量を、そのまま変更しない。以上の設定により、ユーザは、映像に複数の被写体が居る中で、選択した人物Dを強調した視聴をすることができる。
The
<音声ミキシング調整の第2例(mix−2)>
追いかけ再生の例について説明する。図5に示す注視領域100における人物Dが移動し、図6に示す注視領域100に人物D、人物B、人物Cが含まれる。音声ミキシングに用いられる集音マイクの数は複数でもよいが、音声ミキシング調整の第2例では、音声ミキシングに用いられる集音マイクの数は1台であるものとする。
<Second example of audio mixing adjustment (mix-2)>
An example of chasing playback will be described. The person D in the gaze area 100 illustrated in FIG. 5 moves, and the gaze area 100 illustrated in FIG. 6 includes the person D, the person B, and the person C. Although the number of sound collecting microphones used for sound mixing may be plural, in the second example of sound mixing adjustment, the number of sound collecting microphones used for sound mixing is assumed to be one.
音源認識部13は、人物Dに近い集音マイクを、集音マイク31と特定する。音源認識部13は、人物Bに近い集音マイク番を、集音マイク31と特定する。音源認識部13は、人物Cに近い集音マイクを、集音マイク34と特定する。なお、音声ミキシングに用いられる集音マイクは、必ずしも被写体から近い集音マイクでなくてもよい。
The sound
音声ミキシング部16は、これら集音マイク31、34の音量を下げる。つまり、音声ミキシング部16は、人物Bと人物Cの音量を下げ、人物Dの音声の音量を、そのまま変更しない。以上の設定により、ユーザは、追いかけ再生でも、選択した人物Dを強調した視聴をすることができる。
The
<音声ミキシング調整の第3例(mix−3)>
音声ミキシングに用いられる集音マイクの数は何台でもよいが、音声ミキシング調整の第3例では、音声ミキシングに用いられる集音マイクの数は2台であるものとする。
<Third example of audio mixing adjustment (mix-3)>
The number of sound collecting microphones used for sound mixing may be any number, but in the third example of sound mixing adjustment, the number of sound collecting microphones used for sound mixing is two.
図10に示す場合、音源認識部13は、人物Aに近い集音マイクの順番を、集音マイク30、33の順と特定する。また、音源認識部13は、人物Bに近い集音マイクの順番を、集音マイク31、33の順と特定する。なお、音声ミキシングに用いられる集音マイクは、必ずしも被写体から近い集音マイクでなくてもよい。
In the case illustrated in FIG. 10, the sound
音声ミキシング部16は、これら集音マイク30、31、33の音量をそのままとする。また、図10に示す、注視領域100おける被写体(人物A、人物B)の音声の音量を、そのまま変更しない。以上の設定により、ユーザは、複数の集音マイクの中でユーザ好みの集音マイクに特化した視聴をすることができる。
The
<音声ミキシング調整の第4例(mix−4)>
音声ミキシングに用いられる集音マイクの数は何台でもよいが、音声ミキシング調整の第4例では、音声ミキシングには、全ての集音マイクが用いられるのとする。音声ミキシング調整の第4例では、図5に示す全ての集音マイク30〜34が用いられる。全ての集音マイク30〜34に対して、ミキシング調整はされない。被写体全員(人物A〜D)の音声に対しても、ミキシング調整はされない。音声ミキシング調整の第4例では、ミキシング要素の調整の設定値は、再生開始時に使用される。
<Fourth example of audio mixing adjustment (mix-4)>
Any number of sound collecting microphones may be used for sound mixing, but in the fourth example of sound mixing adjustment, all sound collecting microphones are used for sound mixing. In the fourth example of the audio mixing adjustment, all the
<音声ミキシング調整の第5例(mix−5)>
音声ミキシングに用いられる集音マイクの数は複数でもよいが、音声ミキシング調整の第5例では、音声ミキシングに用いる集音マイクは、注視領域100における各被写体(人物)に一番近い集音マイク(1台)とする。
<Fifth example of audio mixing adjustment (mix-5)>
Although the number of sound collecting microphones used for sound mixing may be plural, in the fifth example of sound mixing adjustment, the sound collecting microphone used for sound mixing is the sound collecting microphone closest to each subject (person) in the gaze area 100. (1).
人物Dが移動する前である図7に示す場合、音声ミキシング部16は、注視領域100における被写体(人物D)から一番近い集音マイク32の音量を下げる。人物Dが移動した後である図8に示す場合、音声ミキシング部16は、注視領域100における被写体(人物D)から一番近い集音マイク31の音量を下げる。人物Dが移動した後である図8に示す場合、音声ミキシング部16は、注視領域100における被写体(人物B)から一番近い集音マイク31の音量を下げる。人物Dが移動した後である図8に示す場合、音声ミキシング部16は、注視領域100における被写体(人物C)から一番近い集音マイク34の音量を下げる。
In the case shown in FIG. 7 before the person D moves, the
図7又は図8に示す場合、音声ミキシング部16は、注視領域100における被写体(人物D)の音量を変更しない。音声ミキシング部16は、人物D以外の人物A、B、Cの音量を下げる。以上の設定により、ユーザは、選択した人物Dを強調した視聴をすることができる。
In the case illustrated in FIG. 7 or FIG. 8, the
<音声ミキシング調整の第6例(mix−6)>
音声ミキシングに用いられる集音マイクの数は何台でもよいが、音声ミキシング調整の第6例では、音声ミキシングには、全ての集音マイク30〜34が用いられるのとする。音声ミキシング部16は、図11又は図12に示す全ての集音マイク30〜34の音量を下げる。音声ミキシング部16は、図11に示す被写体(人物D)の音量を変更しない。音声ミキシング部16は、人物Dが移動した後である図12に示す被写体(人物D)の音量を変更しない。音声ミキシング部16は、人物Dに近い2人(人物B、人物C)の音量を下げる。以上の設定により、ユーザは、追いかけ再生において、ユーザが選択した人物Dのみを周囲の状況に合わせた強調した視聴をすることができる。
<Sixth Example of Audio Mixing Adjustment (mix-6)>
Any number of sound collecting microphones may be used for sound mixing, but in the sixth example of sound mixing adjustment, all
次に、視聴端末1の処理のフローを説明する。
図13は、本発明の実施形態における、再生開始から被写体を追跡する第1例の処理のフローを示す図である。図13には、再生開始から注視領域100が選択された場合における、音声ミキシングを実行する処理フローの第1例が示されている。
ユーザは、視聴したいコンテンツ名を再生操作部10に入力する。再生操作部10は、再生制御部11に、コンテンツ名を示す情報を出力する(ステップS1)。
再生制御部11は、再生操作部10からコンテンツ名を示す情報を受け取ると、コンテンツ名とコンテンツ再生開始の命令とを、保存部14に送る(ステップS2)。
Next, a processing flow of the
FIG. 13 is a diagram showing a flow of a first example process for tracking a subject from the start of reproduction in the embodiment of the present invention. FIG. 13 shows a first example of a processing flow for executing audio mixing when the gaze area 100 is selected from the start of reproduction.
The user inputs a content name to be viewed on the
When receiving the information indicating the content name from the
保存部14は、再生制御部11から受け取ったコンテンツ名を示す情報の音声データから、全ての音声データ(人物A〜Dの音声データと、集音マイク30〜34の音声データ)と、映像データとを検索し、映像データ及び音声データを復号部15に送る。また、保存部14は、要求されたコンテンツの画像識別情報、位置特定情報、注視領域情報、及び、自動注視領域情報を、音源認識部13へ送る。
From the audio data of the information indicating the content name received from the
注視領域情報は、注視領域100の大きさを示す情報である。再生開始時の注視領域100の大きさは、映像のフレーム全体の大きさである。保存部14は、ミキシング調整情報を音声ミキシング部16へ送る。ミキシング調整情報には、上記のミキシング調整の(mix−4)が記載されている(ステップS3)。
The gaze area information is information indicating the size of the gaze area 100. The size of the gaze area 100 at the start of reproduction is the size of the entire frame of the video. The
復号部15は、全ての音声データ(人物A〜Dの音声データと、集音マイク30〜34の音声データ)を復号し、音声を音声ミキシング部16に出力する。復号部15は、映像データを復号し、映像を音源認識部13に出力する(ステップS4)。
音源認識部13は、位置特定情報又は画像識別情報と、注視領域情報とに基づいて、音源としての被写体(人物と集音マイク)の特定と、被写体(人物)及び被写体(集音マイク)の関連付けとを実行する。音源認識部13は、この音源認識結果を音声ミキシング部16に送る。音源認識部13は、映像を同期部18へ送る(ステップS5)。
The
The sound
音声ミキシング部16は、音源認識部13から音源認識結果を受け取り、この音源認識結果を表示する(ステップS6)。
ユーザは、音声ミキシング部16に表示されている音源認識結果に基づいて、ミキシング操作部17を介して、音声ミキシングを調整させる。なお、ユーザは、ミキシング操作部17を介した音声ミキシングの設定を、必ずしも毎回行う必要はない。本実施例では、再生開始時には、ユーザは、音声ミキシングの設定を行わないものとする(ステップS7)。
The
The user adjusts the audio mixing via the
音声ミキシング部16は、再生開始時に保存部14から受け取ったミキシング調整情報(音声ミキシング調整の第4例mix−4)に基づいて、音声ミキシング調整については何もせずに、全ての音声(人物A〜Dの音声、集音マイク30〜34の音声)をまとめた音声にして、同期部18に送る(ステップS8)。
同期部18は、ミキシング後の音声と映像とが各々に保持している再生時間に基づいて、フレーム単位で同期させた音声と映像とを、表示部12に送る(ステップS9)。
The
The
表示部12は、要求コンテンツの映像及び音声を再生する(ステップS10)。
本実施例では、ユーザは、映像における、図5に示す人物D(1人)の画像が入る視聴したい注視領域100を選択する。ユーザが視聴したい領域である注視領域100は、位置や大きさに関係なく自由に選択できる。注視領域100の選択は、視聴端末1の表示部12の画面上から、ユーザの手による直接指定やマウス操作により選択可能である。
The
In the present embodiment, the user selects a gaze area 100 that the user wants to view and includes an image of the person D (one person) shown in FIG. The gaze area 100, which is the area that the user wants to view, can be freely selected regardless of the position or size. The gaze area 100 can be selected from the screen of the
表示部12は、注視領域100の情報を再生制御部11に通知する。注視領域情報には、視聴端末1の表示部12の画面上から、ユーザが新たに選択した注視領域100の位置及び大きさを示す情報と、映像に関する情報とが含まれている(ステップS11)。
再生制御部11は、注視領域情報を音源認識部13に通知する(ステップS12)。
The
The
音源認識部13は、再生制御部11から通知された注視領域情報と、位置特定情報又は画像識別情報とに基づいて、音源としての被写体(人物と集音マイク)の特定と、被写体(人物)及び被写体(集音マイク)の関連付けとを実行する。音源認識部13は、再生制御部11から新しく注視領域情報を受け取ったタイミングで、被写体を特定する。
The sound
音源認識部13は、注視領域100における被写体を人物Dと特定する。音源認識部13は、全ての集音マイクを、集音マイク30〜34と特定する。さらに、音源認識部13は、被写体(人物D)に近い集音マイクの順番を、集音マイク32、34、31、33、30の順と特定する。音声ミキシング部に、この音源認識結果を音源認識部13に送る(ステップS13)。
The sound
音声ミキシング部16は、音源認識部13から音源認識結果を受け取り、音源認識結果を表示する(ステップS14)。
ユーザは、音声ミキシング部16に表示されている音源認識結果に基づいて、ミキシング操作部17を介して、音声ミキシング調整の第1例mix−1により音声ミキシングのパラメータを設定する。ミキシング操作部17は、この音声ミキシングの設定結果を、音声ミキシング部16に通知する(ステップS15)。
The
Based on the sound source recognition result displayed on the
音声ミキシング部16は、ミキシング操作部17から受け取った設定結果(音声ミキシング調整の第1例mix−1)に基づいて、ミキシングを実行する。このミキシングでは、音声ミキシング部16は、注視領域100における人物Dの音声は変更せずに、人物Dに一番近い集音マイク32の音量を下げる。音声ミキシング部16は、これら二つの音声を一つの音声にまとめて、同期部18に送る(ステップS16)。
The
同期部18は、ミキシング後の音声と映像が各々に保持している再生時間に基づいて、フレーム単位で同期された音声と映像とを、表示部12に送る(ステップS17)。
表示部12は、ステップ16でミキシングした音声と映像を再生する(ステップS18)。
The
The
再生を停止させる場合、ユーザは、再生操作部10を操作して、再生停止を示す情報を再生制御部11に入力する。再生停止を示す情報を再生制御部11へ送るステップS19において、ユーザが別の領域の注視領域100を選択する場合、表示部12は、ステップS11に進む。
再生制御部11は、表示部12、保存部14、音源認識部13に、実行停止を示す情報を送る。保存部14は、実行停止を示す情報を受信した場合、復号部15、音声ミキシング部16、ミキシング操作部17、同期部18に、実行停止を示す情報を順次送る。これにより、再生は停止する(ステップS20)。
When stopping the reproduction, the user operates the
The
次に、音声ミキシング処理フローの第2例(被写体手動追跡フロー)を説明する。音声ミキシング処理フローの第2例は、上記の音声ミキシングを実行する処理フローの第1例の続きである。
再生制御部11は、人物Dの動きを追いかけて再生する。注視領域100の移動は、視聴端末1の表示部12の画面上から、ユーザの手による直接指定やマウス操作により選択できる。表示部12は、注視領域100の情報を、再生制御部11に一定間隔で通知する。この注視領域情報には、注視領域100の位置及び大きさを示す情報と、映像に関する情報とが含まれる(ステップS11−2)。
Next, a second example (subject manual tracking flow) of the audio mixing processing flow will be described. The second example of the audio mixing process flow is a continuation of the first example of the process flow for executing the audio mixing described above.
The
再生制御部11は、注視領域情報を音源認識部13に通知する(ステップS12−2)。
音源認識部13は、再生制御部11から通知された注視領域情報と、位置特定情報又は画像識別情報に基づいて、音源としての被写体(人物と集音マイク)の特定と、被写体(人物)及び被写体(集音マイク)の関連付けとを実行する。音源認識部13は、再生制御部11から新しく注視領域情報を受け取ったタイミングで、被写体を特定する。
The
The sound
音源認識部13は、図6に示す注視領域100に被写体を、人物D、人物B、人物Cと特定する。音源認識部13は、全ての集音マイクを、集音マイク30〜34と特定する。被写体(人物D)に近い集音マイクの順番を、集音マイク31、33、34、30、32の順と特定する。音源認識部13は、被写体(人物B)に近い集音マイクの順番を、集音マイク31、33、30、34、32の順と特定する。音源認識部13は、被写体(人物C)に近い集音マイクの順番を、集音マイク34、31、32、33、30の順と特定する。音源認識部13は、この音源認識結果を音声ミキシング部16に送る(ステップS13−2)。
The sound
音声ミキシング部16は、音源認識結果を音源認識部13から受け取り、この音源認識結果を表示する(ステップS14−2)。
ユーザは、音声ミキシング部16に表示されている音源認識結果に基づいて、ミキシング操作部17を介して、音声ミキシング調整の第2例mix−2により、音声ミキシングを調整する。ミキシング操作部17は、この設定結果を音声ミキシング部16に通知する(ステップS15−2)。
The
Based on the sound source recognition result displayed on the
音声ミキシング部16は、ミキシング操作部17から受け取った設定結果(mix−2)に基づいて、ミキシング(注視領域100における人物Dの音声は変更せず、人物B、人物Cの音量を下げ、集音マイク31及び34の音量を下げる)を実行する。音声ミキシング部16は、これら五つの音声を一つの音声にまとめて、同期部18に送る(ステップS16−2)。
Based on the setting result (mix-2) received from the mixing
同期部18は、ミキシング後の音声と映像が各々に保持している再生時間に基づいて、フレーム単位で同期させた音声と映像を、表示部12に送る(ステップS17−2)。
再生制御部11は、ステップS16−2でミキシングさせた音声と映像を再生させる(ステップS18−2)。
再生を停止する場合、ユーザは、再生操作部10を介して再生停止を示す情報を、再生制御部11に送る(ステップS19−2)。ユーザが別の領域の注視領域100を選択する場合、表示部12は、ステップS11に進む。
再生制御部11は、表示部12、保存部14、音源認識部13に、実行停止を示す情報を送る。保存部14は、実行停止を示す情報を受信した場合、復号部15、音声ミキシング部16、ミキシング操作部17、同期部18に、実行停止を示す情報を順次送る。これにより、再生が停止する(ステップS20−2)。
The
The
When stopping the reproduction, the user sends information indicating the reproduction stop to the
The
次に、音声ミキシング処理フローの第3例を説明する。
ユーザは、映像における、図10に示す人物Aと人物Bの二人の画像が入る視聴したい領域を選択する。表示部12は、映像における、選択された注視領域100を示す情報を、再生制御部11に通知する。この注視領域100を示す情報は、注視領域情報である。注視領域情報には、注視領域100の位置及び大きさを示す情報と、映像に関する情報とが含まれる(ステップS11−3)。
Next, a third example of the audio mixing process flow will be described.
The user selects an area in the video that the user wants to view and contains images of the two persons A and B shown in FIG. The
再生制御部11は、注視領域情報を音源認識部13に通知する(ステップS12−3)。
音源認識部13は、再生制御部11から通知された注視領域情報と、位置特定情報又は画像識別情報とに基づいて、音源としての被写体(人物と集音マイク)の特定と、被写体(人物)及び被写体(集音マイク)の関連付けとを実行する。音源認識部13は、再生制御部から新しく注視領域情報を受け取ったタイミングで、被写体を特定する。
The
The sound
音源認識部13は、図10に示す注視領域100における被写体を、人物Aと人物Bとに特定する。音源認識部13は、全ての集音マイクを、集音マイク30〜34と特定する。音源認識部13は、人物Aに近い集音マイクの順番を、集音マイク30、33、31、34、32の順と特定する。音源認識部13は、人物Bに近い集音マイクの順番を、集音マイク31、33、30、34、32の順と特定する。音源認識部13は、この音源認識結果を音声ミキシング部16に送る(ステップS13−3)。
The sound
音声ミキシング部16は、音源認識部13から音源認識結果を受け取り、この結果を表示する(ステップ14−3)。
ユーザは、音声ミキシング部16に表示されている音源認識結果に基づいて、ミキシング操作部17を操作することにより、音声ミキシング調整の第3例(mix−3)により音声ミキシングを調整させる。ミキシング操作部17は、この設定結果を音声ミキシング部16に通知する(ステップS15−3)。
The
The user operates the mixing
音声ミキシング部16は、ミキシング操作部17から受け取った設定結果(mix−3)に基づいて、ミキシング(注視領域100における人物Aと人物Bの二人の音声の音量は変更しない。集音マイク30、31、33の音量は変更しない)を実行する。音声ミキシング部16は、これら五つの音声を一つの音声にまとめて、同期部18に送る(ステップS16−3)。
Based on the setting result (mix-3) received from the mixing
同期部18は、ミキシング後の音声と映像が各々に保持している再生時間に基づいて、フレーム単位で同期させた音声と映像を、表示部12に送る(ステップS17−3)。
再生制御部11は、ステップS16−3でミキシングした音声と映像を再生させる(ステップS18−3)。
The
The
再生を停止させる場合、ユーザは、再生操作部10を操作して、再生停止を示す情報を再生制御部11に入力する。再生操作部10は、再生制御部11に再生停止を示す情報を送る(ステップS19−3)。ユーザが別の領域の注視領域100を選択する場合、表示部12は、ステップS11に進む。
When stopping the reproduction, the user operates the
再生制御部11は、表示部12、保存部14、音源認識部13に、実行停止を示す情報を送る。保存部14は、実行停止を示す情報を受信した場合、復号部15、音声ミキシング部16、ミキシング操作部17、同期部18に、実行停止を示す情報を順次送る。これにより、再生が停止する(ステップS20−3)。
The
図14は、本発明の実施形態における、再生開始から被写体を追跡する第2例の処理のフローを示す図である。再生開始から被写体を追跡する第2例は、被写体が直接選択され、その被写体を自動追跡するフローの例である。 FIG. 14 is a diagram showing a flow of a second example process for tracking a subject from the start of reproduction in the embodiment of the present invention. The second example of tracking a subject from the start of reproduction is an example of a flow in which a subject is directly selected and the subject is automatically tracked.
再生開始で実行する処理(ステップS1−4からステップS10−4)は、再生開始から被写体を追跡する第1例で説明したステップS1からステップS10と同様である。
ユーザは、視聴端末1の表示部12の画面上で、ユーザの手やマウス操作により、被写体である人物Dの1箇所に触れることにより、被写体を直接選択する。表示部12は、画面上において映像における1箇所に触れられた被写体の位置を示す被写体選択情報を、再生制御部11に送る(ステップS11−4)。
The processing executed at the start of reproduction (steps S1-4 to S10-4) is the same as the steps S1 to S10 described in the first example of tracking the subject from the start of reproduction.
On the screen of the
再生制御部11は、被写体選択情報を音源認識部13に通知する(ステップS12−4)。
音源認識部13は、被写体選択情報を受け取った場合、自動注視領域情報を再生制御部11へ送る(ステップS13−4)。
再生制御部11は、自動注視領域情報を表示部12へ送る(ステップS14−4)。
The
When the sound
The
表示部12は、被写体選択情報及び自動注視領域情報に基づいて、被写体の画像を中心に注視領域100を決定する(ステップS15−4)。
音源認識部13は、再生制御部11から通知された被写体選択情報及び位置特定情報に基づいて、音源としての被写体(人物と集音マイク)の特定と、被写体(人物)及び被写体(集音マイク)の関連付けとを実行する。音源認識部13は、再生制御部11から被写体選択情報を受け取ったタイミングで、被写体を特定する。
The
The sound
音源認識部13は、被写体を人物D(図7を参照)と特定する。音源認識部13は、全ての集音マイクを、集音マイク30〜34と特定する。さらに、音源認識部13は、被写体(人物D)に近い集音マイクの順番を、集音マイク32、34、31、33、30の順と特定する。音源認識部13は、この音源認識結果を音声ミキシング部16に送る(ステップS16−4)。
The sound
音声ミキシング部16は、音源認識結果を音源認識部13から受け取り、この音源認識結果を表示する(ステップS17−4)。
ユーザは、音声ミキシング部16に表示されている音源認識結果に基づいて、ミキシング操作部17を介して、音声ミキシング調整の第5例(mix−5)により、音声ミキシングを調整する。ミキシング操作部17は、この設定結果を音声ミキシング部16に通知する(ステップS18−4)。
The
Based on the sound source recognition result displayed on the
音声ミキシング部16は、ミキシング操作部17から受け取った設定結果(mix−5)に基づいて、ミキシング(注視領域100における人物Dの音声は変更せず、人物Dに一番近い集音マイク32の音量を下げる)を実行する。音声ミキシング部16は、これら二つの音声を一つの音声にまとめて、同期部18に送る(ステップS19−4)。
同期部18は、ミキシング後の音声と映像が各々に保持している再生時間に基づいて、フレーム単位で同期させた音声と映像を、表示部12に送る(ステップS20−4)。
The
The
再生制御部11は、ステップS19−4でミキシングした音声と映像を再生させる。映像が表示された表示部12の画面上の1箇所にユーザが触れて、被写体を指定した場合、再生制御部11は、被写体の追いかけ再生を実行する(図8を参照)。
表示部12は、人物Dの移動に追随した注視領域100を示す情報を、再生制御部11に通知する。表示部12は、注視領域100を示す情報を、再生制御部11に一定間隔で通知する。注視領域情報には、注視領域100の位置及び大きさを示す情報と、映像に関する情報とが含まれている(ステップS21−4)。
The
The
再生制御部11は、注視領域情報を音源認識部13に通知する(ステップS22−4)。
音源認識部13は、再生制御部11から通知された注視領域情報と、位置特定情報又は画像識別情報とに基づいて、音源としての被写体(人物と集音マイク)の特定と、被写体(人物)及び被写体(集音マイク)の関連付けとを実行する。音源認識部13は、再生制御部11から新しく注視領域情報を受け取ったタイミングで、被写体を特定する。
The
The sound
音源認識部13は、図8に示す注視領域100における被写体を、人物D、人物B、人物Cと特定する。音源認識部13は、全ての集音マイクを、集音マイク30〜34と特定する。音源認識部13は、被写体(人物D)に近い集音マイクの順番を、集音マイク31、33、34、30、32の順と特定する。音源認識部13は、被写体(人物B)に近い集音マイクの順番を、集音マイク31、33、30、34、32の順と特定する。音源認識部13は、被写体(人物C)に近い集音マイクの順番を、集音マイク34、31、33、32、30の順と特定する。音源認識部13は、この音源認識結果を、音声ミキシング部16に送る(ステップS23−4)。
The sound
音声ミキシング部16は、音源認識部13から音源認識結果を受け取り、この結果を表示する(ステップS24−4)。
ユーザは、ミキシング操作部17を介して音声ミキシングの設定を、必ずしも毎回行う必要はない。音声ミキシング部16は、前回の条件(音声ミキシング調整の第5例mix−5)に基づいて、音声ミキシングを実行してもよい。ミキシング操作部17は、前回の条件(音声ミキシング調整の第5例mix−5)を、音声ミキシング部16に通知する(ステップS25−4)。
The
The user does not necessarily have to set the audio mixing every time via the
音声ミキシング部16は、ミキシング操作部17から受け取った前回の条件(mix−5)に基づいて、ミキシング(注視領域100における人物Dの音声は変更せず、人物B、人物Cの音量を下げ、集音マイク31、34の音量を下げる)を実行する。音声ミキシング部16は、これら五つの音声を一つの音声にまとめて、同期部18に送る(ステップS26−4)。
Based on the previous condition (mix-5) received from the mixing
同期部18は、ミキシング後の音声と映像が各々に保持している再生時間に基づいて、フレーム単位で同期させた音声と映像を、表示部12に送る(ステップS27−4)。
再生制御部11は、ステップS26−4でミキシングした音声と映像を再生させる(ステップS28−4)。
再生を停止させる場合、ユーザは、再生操作部10に再生停止を示す情報を入力する。再生操作部10は、再生停止を示す情報を、再生制御部11へ送る(ステップS29−4)。ユーザが別の領域の注視領域100を選択する場合、表示部12は、ステップS11に進む。
The
The
When stopping the reproduction, the user inputs information indicating the reproduction stop to the
再生制御部11は、表示部12、保存部14、音源認識部13に、実行停止を示す情報送る。保存部14は、実行停止を示す情報を受信した場合、復号部15、音声ミキシング部16、ミキシング操作部17、同期部18に、実行停止を示す情報を順次送る。これにより、再生が停止する(ステップS30−4)。
The
図15は、本発明の実施形態における、再生開始から被写体を追跡する第3例の処理のフローを示す図である。再生開始から被写体を追跡する第3例は、被写体が直接選択され、その被写体を自動追跡するフローの例である。 FIG. 15 is a diagram showing a flow of a third example process for tracking a subject from the start of reproduction in the embodiment of the present invention. The third example of tracking a subject from the start of reproduction is an example of a flow in which a subject is directly selected and the subject is automatically tracked.
再生開始で実行する処理(ステップS1−5からステップS10−5)は、再生開始から被写体を追跡する第1例で説明したステップS1からステップS10と同様である。
ユーザは、視聴端末1の表示部12の画面上で、ユーザの手やマウス操作により、被写体である人物Dの1箇所に触れることにより、被写体を直接選択する。表示部12は、画面上において、映像における1箇所に触れられた被写体の位置を示す被写体選択情報を、再生制御部11に送る(ステップS11−5)。
The processing executed at the start of reproduction (steps S1-5 to S10-5) is the same as the steps S1 to S10 described in the first example of tracking the subject from the start of reproduction.
On the screen of the
再生制御部11は、被写体選択情報を音源認識部13に通知する(ステップ12−5)。
音源認識部13は、再生制御部11から通知された被写体選択情報及び位置特定情報に基づいて、音源としての被写体(人物と集音マイク)の特定と、被写体(人物)及び被写体(集音マイク)の関連付けとを実行する。音源認識部13は、再生制御部11から新しく被写体選択情報を受け取ったタイミングで、被写体を特定する。
The
The sound
音源認識部13は、図11に示す直接選択された被写体を、人物Dと特定する。音源認識部13は、全ての集音マイクを、集音マイク30〜34と特定する。音源認識部13は、被写体(人物D)に近い集音マイクの順番を、集音マイク32、34、31、33、30の順と特定する。音源認識部13は、この音源認識結果を、音声ミキシング部16に送る(ステップS13−5)。
The sound
音声ミキシング部16は、音源認識部13から音源認識結果を受け取り、この結果を表示する(ステップS14−5)。
ユーザは、音声ミキシング部16に表示されている音源認識結果に基づいて、ミキシング操作部17を介して、音声ミキシング調整の第6例(mix−6)に基づいて音声ミキシングを調整する。ミキシング操作部17は、この設定結果を音声ミキシング部16に通知する(ステップS15−5)。
The
Based on the sound source recognition result displayed on the
音声ミキシング部16は、ミキシング操作部17から受け取った設定結果(mix−6)に基づいて、ミキシング(人物Dの音声は変更せず、全ての集音マイクの音量を下げる)を実行する。音声ミキシング部16は、これら六つの音声を一つの音声にまとめて、同期部18に送る(ステップS16−5)。
同期部18は、ミキシング後の音声と映像が各々に保持している再生時間に基づいて、フレーム単位で同期させた音声と映像を、表示部12に送る(ステップS17−5)。
Based on the setting result (mix-6) received from the mixing
The
再生制御部11は、ステップS16−5でミキシングした音声と映像を再生させる。ユーザが表示部12の画面上の映像における1箇所に触れて、被写体を指定した場合、再生制御部11は、ユーザからの明示の指示がなくても、すなわち自動で、被写体の追いかけ再生を実行する。図12には、自動の追いかけ再生が示されている。
表示部12は、人物Dの移動に追随した被写体選択情報を、再生制御部11に通知する。表示部12は、被写体選択情報を再生制御部11に一定間隔で通知する(ステップS18−5)。
The
The
再生制御部11は、被写体選択情報を音源認識部13に通知する(ステップS19−5)。
音源認識部13は、再生制御部11から通知された被写体選択情報及び位置特定情報に基づいて、音源としての被写体(人物と集音マイク)の特定と、被写体(人物)及び被写体(集音マイク)の関連付けとを実行する。音源認識部13は、再生制御部11から新しく被写体選択情報を受け取ったタイミングで、被写体を特定する。
The
The sound
音源認識部13は、図12に示す全ての集音マイクを、集音マイク30〜34と特定する。さらに、音源認識部13は、移動する被写体(人物D)に近い集音マイクの順番を、集音マイク31、33、34、30、32の順と特定する。音源認識部13は、映像の真ん中の人物Dに近い順番を、人物B、人物C、人物Aの順と特定する。音源認識部13は、この音源認識結果を音声ミキシング部16に送る(ステップS20−5)。
The sound
音声ミキシング部16は、音源認識部13から音源認識結果を受け取り、この音源認識結果を表示する(ステップS21−5)。
ユーザは、ミキシング操作部17を介して音声ミキシングの設定を、必ずしも毎回行う必要はない。音声ミキシング部16は、前回の条件(音声ミキシング調整の第6例mix−6)に基づいて、音声ミキシングを実行してもよい。ミキシング操作部17は、前回の条件(音声ミキシング調整の第6例mix−6)を、音声ミキシング部16に通知する(ステップS22−5)。
The
The user does not necessarily have to set the audio mixing every time via the
音声ミキシング部16は、ミキシング操作部17から受け取った前回の条件(mix−6)に基づいて、ミキシング(人物Dの音声は変更せず、人物B、人物Cの音量を下げ、全ての集音マイクの音量を下げる)を実行する。音声ミキシング部16は、これら八つの音声を一つの音声にまとめて、同期部18に送る(ステップS23−5)。
同期部18は、ミキシング後の音声と映像が各々に保持している再生時間に基づいて、フレーム単位で同期させた音声と映像を、表示部12に送る(ステップS24−5)。
Based on the previous condition (mix-6) received from the mixing
The
再生制御部11は、ステップ23−5でミキシングした音声と映像を再生させる(ステップS25−5)。
再生を停止させる場合、ユーザは、再生操作部10に再生停止を示す情報を入力する。再生操作部10は、再生停止を示す情報を、再生制御部11へ送る(ステップS26−5)。ユーザが別の領域の注視領域100を選択する場合、表示部12は、ステップS11に進む。
The
When stopping the reproduction, the user inputs information indicating the reproduction stop to the
再生制御部11は、表示部12、保存部14、音源認識部13に、実行停止を示す情報送る。保存部14は、実行停止を示す情報を受信した場合、復号部15、音声ミキシング部16、ミキシング操作部17、同期部18に、実行停止を示す情報を順次送る。これにより、再生が停止する(ステップS27−5)。
The
以上により、本実施形態に係る視聴方法は、視聴端末1における視聴方法であって、音声に同期した映像を表示し、映像に含まれる注視領域100又は位置を示す情報を取得するステップと、映像に含まれる注視領域100又は位置を示す情報に基づいて、映像における被写体(例えば、人物)を特定するステップと、特定された被写体に基づいて、音声をミキシングするステップと、を有する。
As described above, the viewing method according to the present embodiment is a viewing method in the
本実施形態に係る視聴端末1は、音声に同期した映像を表示し、映像に含まれる選択された領域又は位置を示す情報を取得する表示部12と、映像に含まれる注視領域100又は位置を示す情報に基づいて、映像における被写体(例えば、人物)を特定する音源認識部13と、特定された被写体に基づいて、音声をミキシングする音声ミキシング部16と、を備える。
The
本実施形態に係る視聴プログラムは、コンピュータに、音声に同期した映像を表示し、映像に含まれる選択された領域又は位置を示す情報を取得する手順と、映像に含まれる選択された領域又は位置を示す情報に基づいて、映像における被写体を特定する手順と、特定された被写体に基づいて、音声をミキシングする手順と、を実行させる。 The viewing program according to the present embodiment displays a video synchronized with audio on a computer, acquires information indicating a selected region or position included in the video, and a selected region or position included in the video. On the basis of the information indicating the above, a procedure for specifying a subject in the video and a procedure for mixing audio based on the specified subject are executed.
この構成により、音声ミキシング部16は、特定された被写体に基づいて、音声をミキシングする。これにより、本実施形態に係る視聴方法、視聴端末1及び視聴プログラムでは、ユーザの意図を反映した、ユーザ好みの視聴が可能となる。
With this configuration, the
本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、ユーザが映像のフレーム全体の中から選択した人物の音声と、この選択された人物に位置が近い順に関連付けた結果に基づいて選択した集音マイクの音声と、をユーザの好みに合わせてミキシングする。これにより、本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、ユーザの意図を反映したユーザ好みの人物を強調した視聴を可能とする。
The viewing method,
本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、ユーザが映像のフレーム全体の中から選択した人物の音声と、映像のフレーム全体の中から選択した集音マイクの音声と、をユーザの好みに合わせてミキシングする。これにより、本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、ユーザの意図を反映したユーザ好みの人物を強調した視聴を可能とする。
The viewing method, the
本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、移動する人物の音声と、その移動する人物に追随する人物の音声や集音マイクの音声と、をユーザの好みに合わせて選択し、選択した音声をミキシングする。これにより、本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、ユーザの意図を反映したユーザ好みの人物を強調した視聴を可能とする。
The viewing method,
本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、映像のフレーム全体の中から被写体(集音マイク)を選択し、選択した被写体(集音マイク)の音声をユーザの好みに合わせてミキシングする。これにより、本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、ユーザの意図を反映したユーザ好みの人物を強調した視聴を可能とする。
The viewing method,
本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、映像中の音源としての人物と集音マイクを、画像識別情報又は位置特定情報に基づいて個別に検出する。さらに、本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、位置特定情報に基づいて、映像のフレーム全体の中からユーザが選択した人物と集音マイクが近い順に、人物と集音マイクを関連付ける。本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、この結果に基づいて集音マイクを選択し、選択した人物と集音マイクの音声とをミキシングする。これにより、本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、ユーザの好みに応じた映像視聴を実現することができる。
The viewing method,
本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、音源としての人物が移動する場合、移動する人物に、周囲の音源としての人物を追随させるために、移動する人物に位置が近い人物の順を位置特定情報に基づいて関連付ける。本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、移動する人物に近い順に関連付けた結果に基づいて、音声をミキシングする対象とする周囲の人物を選択する。
In the viewing method,
本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、音源としての人物が移動する場合、移動する人物に、周囲の音源としての集音マイクを追随させるために、移動する人物に位置が近い集音マイクの順を位置特定情報に基づいて関連付ける。本実施形態に係る視聴方法、視聴端末1及び視聴プログラムは、移動する人物の音声と、その移動する人物に近い順に関連付けた結果とに基づいて選択した集音マイクの音声と、をミキシングする。
In the viewing method,
本実施形態に係る視聴方法は、映像における被写体(例えば、人物、集音マイク)を特定するステップでは、音源認識部13が、被写体の位置を示す位置特定情報、又は、映像における被写体を同定するための画像識別情報を、保存部14から取得し、取得した位置特定情報又は画像識別情報に基づいて、映像における被写体を特定する。
In the viewing method according to the present embodiment, in the step of specifying a subject (for example, a person, a sound collecting microphone) in the video, the sound
本実施形態に係る視聴方法は、映像における被写体(例えば、人物、集音マイク)を特定するステップでは、音源認識部13が、被写体の位置を示す位置特定情報と、映像における選択された被写体の位置を示す被写体選択情報と、に基づいて、映像における被写体を特定する。
In the viewing method according to the present embodiment, in the step of specifying a subject (for example, a person or a sound collecting microphone) in the video, the sound
本実施形態に係る視聴方法は、映像における被写体(例えば、人物、集音マイク)を特定するステップでは、音源認識部13が、特定された被写体(例えば、人物)と、映像における他の被写体(例えば、集音マイク)とを、位置特定情報に基づいて関連付ける。
In the viewing method according to the present embodiment, in the step of specifying a subject (for example, a person, a sound collecting microphone) in the video, the sound
本実施形態に係る視聴方法は、音声をミキシングするステップでは、音声ミキシング部16が、特定された被写体の音声と、特定された被写体に関連付けられた他の被写体の音声と、をミキシングする。
本実施形態に係る視聴方法は、音声をミキシングするステップでは、音声ミキシング部16が、特定された移動する被写体の音声と、特定された移動する被写体に関連付けられた他の被写体の音声と、をミキシングする(例えば、図6、図7、図8、図12を参照)。
本実施形態に係る視聴方法は、音声をミキシングするステップでは、音声ミキシング部16が、特定された被写体の音声と、所定条件に基づいて特定された他の被写体(例えば、ワイヤレスマイク、集音マイク)の音声と、をミキシングする。
In the viewing method according to the present embodiment, in the step of mixing audio, the
In the viewing method according to the present embodiment, in the step of mixing audio, the
In the viewing method according to the present embodiment, in the step of mixing audio, the
上述した実施形態における視聴端末1をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
You may make it implement | achieve the
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
1…視聴端末,10…再生操作部,11…再生制御部,12…表示部,13…音源認識部,14…保存部,15…復号部,16…音声ミキシング部,17…ミキシング操作部,18…同期部,20…カメラ,30…集音マイク,31…集音マイク,32…集音マイク,33…集音マイク,34…集音マイク,40…位置センサ,41…位置センサ,42…位置センサ,43…位置センサ,44…位置センサ,50…位置センサ,51…位置センサ,52…位置センサ,53…位置センサ,60…ワイヤレスマイク,61…ワイヤレスマイク,62…ワイヤレスマイク,63…ワイヤレスマイク,70…コンテンツ,71…コンテンツ,80…ステージ,100…注視領域,A…人物,B…人物,C…人物,D…人物
DESCRIPTION OF
Claims (9)
音声に同期した映像を表示し、前記映像に含まれる選択された領域又は位置を示す情報を取得するステップと、
前記映像に含まれる選択された領域又は位置を示す情報に基づいて、前記映像における被写体を特定するステップと、
特定された前記被写体に基づいて、前記音声をミキシングするステップと、
を有する視聴方法。 A viewing method on a viewing terminal,
Displaying a video synchronized with audio and obtaining information indicating a selected region or position included in the video; and
Identifying a subject in the video based on information indicating a selected region or position included in the video;
Mixing the audio based on the identified subject;
Viewing method.
前記映像に含まれる選択された領域又は位置を示す情報に基づいて、前記映像における被写体を特定する認識部と、
特定された前記被写体に基づいて、前記音声をミキシングする音声ミキシング部と、
を備える視聴端末。 A display unit for displaying a video synchronized with audio and acquiring information indicating a selected region or position included in the video;
A recognition unit for identifying a subject in the video based on information indicating a selected region or position included in the video;
An audio mixing unit that mixes the audio based on the identified subject;
A viewing terminal comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014012819A JP2015142185A (en) | 2014-01-27 | 2014-01-27 | Viewing method, viewing terminal and viewing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014012819A JP2015142185A (en) | 2014-01-27 | 2014-01-27 | Viewing method, viewing terminal and viewing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015142185A true JP2015142185A (en) | 2015-08-03 |
Family
ID=53772300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014012819A Pending JP2015142185A (en) | 2014-01-27 | 2014-01-27 | Viewing method, viewing terminal and viewing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015142185A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018195903A (en) * | 2017-05-15 | 2018-12-06 | ヤマハ株式会社 | Speech information provision device and speech information provision method |
JP2022009202A (en) * | 2015-09-22 | 2022-01-14 | フュージョン、インコーポレイテッド | Integration of audio into multi-view interactive digital media representation |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09275533A (en) * | 1996-04-08 | 1997-10-21 | Sony Corp | Signal processor |
JPH1175151A (en) * | 1997-08-12 | 1999-03-16 | Hewlett Packard Co <Hp> | Image display system provided with voice processing function |
JP2003323182A (en) * | 2002-05-08 | 2003-11-14 | Nippon Telegr & Teleph Corp <Ntt> | Information signal distributing apparatus, information signal distributing method, and information signal distributing service system |
JP2005341398A (en) * | 2004-05-28 | 2005-12-08 | Sony Corp | Information processing device and method, and program |
JP2009290781A (en) * | 2008-05-30 | 2009-12-10 | Canon Inc | Display device, control method thereof and program |
JP2011514789A (en) * | 2008-03-20 | 2011-05-06 | インスティテュート フュール ラントファンクテクニーク ゲー・エム・ベー・ハー | How to adapt video images to small screen sizes |
JP2013250838A (en) * | 2012-06-01 | 2013-12-12 | Nintendo Co Ltd | Information processing program, information processing device, information processing system and information processing method |
-
2014
- 2014-01-27 JP JP2014012819A patent/JP2015142185A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09275533A (en) * | 1996-04-08 | 1997-10-21 | Sony Corp | Signal processor |
JPH1175151A (en) * | 1997-08-12 | 1999-03-16 | Hewlett Packard Co <Hp> | Image display system provided with voice processing function |
JP2003323182A (en) * | 2002-05-08 | 2003-11-14 | Nippon Telegr & Teleph Corp <Ntt> | Information signal distributing apparatus, information signal distributing method, and information signal distributing service system |
JP2005341398A (en) * | 2004-05-28 | 2005-12-08 | Sony Corp | Information processing device and method, and program |
JP2011514789A (en) * | 2008-03-20 | 2011-05-06 | インスティテュート フュール ラントファンクテクニーク ゲー・エム・ベー・ハー | How to adapt video images to small screen sizes |
JP2009290781A (en) * | 2008-05-30 | 2009-12-10 | Canon Inc | Display device, control method thereof and program |
JP2013250838A (en) * | 2012-06-01 | 2013-12-12 | Nintendo Co Ltd | Information processing program, information processing device, information processing system and information processing method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022009202A (en) * | 2015-09-22 | 2022-01-14 | フュージョン、インコーポレイテッド | Integration of audio into multi-view interactive digital media representation |
JP2018195903A (en) * | 2017-05-15 | 2018-12-06 | ヤマハ株式会社 | Speech information provision device and speech information provision method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5898378B2 (en) | Information processing apparatus and application execution method | |
US9996983B2 (en) | Manipulation of virtual object in augmented reality via intent | |
KR101694089B1 (en) | Manipulation of virtual object in augmented reality via thought | |
RU2410026C2 (en) | Setup system for method of brain wave identification, setup procedure and computer program | |
US20190310707A1 (en) | Sound outputting apparatus, electronic apparatus, and control method thereof | |
WO2017049799A1 (en) | Audio playback control method and device | |
JP6304941B2 (en) | CONFERENCE INFORMATION RECORDING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM | |
JP7422801B2 (en) | EEG data analysis method and information presentation method for EEG measurement test | |
JP2009140051A (en) | Information processor, information processing system, recommendation device, information processing method and storage medium | |
US9491401B2 (en) | Video call method and electronic device supporting the method | |
JP2000508558A (en) | Computerized optometer and medical office management system | |
US20070013612A1 (en) | Cosmetic enhancement mirror | |
JP7427408B2 (en) | Information processing device, information processing method, and information processing program | |
US20210029304A1 (en) | Methods for generating video, electronic device and storage medium | |
BRPI0903881B1 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND STORAGE STORAGE A COMPUTER PROGRAM | |
CA2838878C (en) | Method and apparatus for controlling contents in electronic device | |
JP2004213486A (en) | Image processor and processing method, storage medium, and program | |
US20170068512A1 (en) | Electronic apparatus and information processing method thereof | |
JP2015142185A (en) | Viewing method, viewing terminal and viewing program | |
KR20130142315A (en) | Character service system and character service providing method thereof | |
JP2021033907A (en) | Display system and control method thereof | |
US9420012B2 (en) | Computer readable recording medium, communication terminal device and teleconferencing method | |
WO2023171120A1 (en) | Information processing device, information processing method, and program | |
JP2021033909A (en) | Display system and control method thereof | |
JP2021033906A (en) | Display system and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170221 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170829 |