JP7018752B2 - Video processing equipment and programs - Google Patents
Video processing equipment and programs Download PDFInfo
- Publication number
- JP7018752B2 JP7018752B2 JP2017235699A JP2017235699A JP7018752B2 JP 7018752 B2 JP7018752 B2 JP 7018752B2 JP 2017235699 A JP2017235699 A JP 2017235699A JP 2017235699 A JP2017235699 A JP 2017235699A JP 7018752 B2 JP7018752 B2 JP 7018752B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- video signal
- image
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、映像処理装置及びプログラムに関し、特に、映像を加工することにより、映像観視時の視覚的負担を軽減する技術に関する。 The present invention relates to a video processing apparatus and a program, and more particularly to a technique for reducing a visual burden when viewing a video by processing the video.
従来、テレビ番組において点滅または動揺を含む映像を観視したり、3Dテレビにて大きな視差、視差の変化、奥行きの変化またはカットを含む映像を観視したりすることがある。このような映像に起因して、観視者が疲労し違和を感じるという問題が指摘されている。 Conventionally, an image including blinking or shaking may be observed in a television program, or an image including a large parallax, a change in parallax, a change in depth, or a cut may be observed on a 3D television. It has been pointed out that the viewer feels tired and uncomfortable due to such images.
これらの問題のうち、映像の点滅に起因する違和感を軽減するための技術が開示されている(例えば特許文献1を参照)。この技術は、映像が所定の周波数範囲のフリッカを含む場合に、当該映像に対して画像処理を施し、フリッカの度合いを抑制するものである。 Among these problems, a technique for reducing a sense of discomfort caused by blinking of an image is disclosed (see, for example, Patent Document 1). In this technique, when an image contains flicker in a predetermined frequency range, image processing is performed on the image to suppress the degree of flicker.
また、3Dテレビを観視する際の違和感を軽減するために、黒フェードを挿入する技術(以下、黒フェード挿入という。)が知られている。この技術は、例えば3D映像コンテンツを提供するビデオゲーム機等において、視点の異なる映像が時間遷移する際に、一旦、黒画面へとフェードアウトした後、別視点の3D映像へとフェードインするものである。 Further, a technique for inserting a black fade (hereinafter referred to as black fade insertion) is known in order to reduce a sense of discomfort when viewing a 3D television. This technology, for example, in a video game machine that provides 3D video content, fades out to a black screen and then fades in to 3D video from a different viewpoint when a video with a different viewpoint changes in time. be.
一方で、観視者または観視環境に応じて、コンテンツの表現形態を変換する技術が開示されている(例えば特許文献2を参照)。この技術は、受信装置において、送信装置から送信されたコンテンツ、代替提示コンテンツ及びメタデータを受信し、メタデータと視聴プロファイル及び視聴環境プロファイルとを比較することで、代替提示コンテンツを導出し、コンテンツの表現形態を変換するものである。 On the other hand, a technique for converting the expression form of the content according to the viewer or the viewing environment is disclosed (see, for example, Patent Document 2). In the receiving device, the receiving device receives the content, the alternative presentation content and the metadata transmitted from the transmitting device, and compares the metadata with the viewing profile and the viewing environment profile to derive the alternative presentation content and provide the content. It transforms the expression form of.
点滅または視点の切り替え等の映像に起因する違和感の度合いは絶対的なものではなく、観視者の年齢または体質、観視環境、映像の内容等によって異なるものである。これは、映像に起因する視覚的負担の度合いについても同様である。 The degree of discomfort caused by the image such as blinking or switching of the viewpoint is not absolute, and varies depending on the age or constitution of the viewer, the viewing environment, the content of the image, and the like. This also applies to the degree of visual burden caused by the image.
観視環境は、例えば視距離、周囲の明るさ、画面の大きさ、画面の明るさ、3D映像コンテンツに対応しているか否か等である。また、映像の内容は、動きの大小、映像遷移の頻度、字幕の有無等である。 The viewing environment is, for example, viewing distance, ambient brightness, screen size, screen brightness, and whether or not it corresponds to 3D video content. The content of the video is the magnitude of movement, the frequency of video transitions, the presence or absence of subtitles, and the like.
例えば映像の点滅は、小児に対して視覚的負担の度合いが高いのに対し、大人に対してはさほど高くない。前述の特許文献1の技術を用いることにより、所定の基準を逸脱する映像については画一的に画像処理が施されるため、視覚的負担の度合いを低くすることができる。しかし、観視者の年齢等によっては、画像処理が施された映像は必要以上のフリッカの映像となってしまい、映像の躍動感を損失してしまう可能性がある。
For example, blinking images is more visually burdensome for children, but not so much for adults. By using the above-mentioned technique of
また、3D映像コンテンツに対応するビデオゲーム機には、視差を調整する機能を有するものがある。このビデオゲーム機は、視点の異なる映像が時間遷移する際に、視差を調整し、視差を抑制した映像(例えば、視差無しの2次元映像)を生成する。 In addition, some video game machines that support 3D video content have a function of adjusting parallax. This video game machine adjusts the parallax and generates an image (for example, a two-dimensional image without parallax) in which the parallax is suppressed when the images having different viewpoints change in time.
このような視差調整機能を用いることにより、視点の異なる映像が時間遷移する際の問題を、黒フェード挿入機能を用いることなく解決することができる。つまり、視差調整機能により映像の視差を抑制することで、カット編集された映像が時間遷移する際の観視者が受ける違和感を低減することができるものと想定される。 By using such a parallax adjustment function, it is possible to solve the problem when images with different viewpoints change in time without using the black fade insertion function. That is, it is assumed that by suppressing the parallax of the image by the parallax adjustment function, it is possible to reduce the discomfort that the viewer receives when the cut-edited image changes in time.
また、映像に起因する視覚的負担の度合いを軽減するために、前述の特許文献2の技術を用いることが想定される。この技術は、観視者または観視環境に対応すると共に、制作者の意図を反映したコンテンツを提供することを目的とするものである。 Further, in order to reduce the degree of visual burden caused by the image, it is assumed that the above-mentioned technique of Patent Document 2 is used. This technology aims to provide content that reflects the intention of the creator while responding to the viewer or the viewing environment.
この技術では、制作者の意図を反映するために、予め送信装置から受信装置へ、代替提示コンテンツ及びメタデータを送信する必要がある。受信装置は、受信したメタデータと、予め設定された視聴プロファイル及び視聴環境プロファイルとを比較することで、代替提示コンテンツを導出し、コンテンツの表現形態を変換する。これにより、元の映像を、観視者及び観視環境に応じた映像に加工することができ、観視者の視覚的負担を軽減することができる。 In this technique, in order to reflect the intention of the creator, it is necessary to transmit the alternative presentation content and the metadata from the transmitting device to the receiving device in advance. The receiving device derives the alternative presentation content and converts the expression form of the content by comparing the received metadata with the preset viewing profile and viewing environment profile. As a result, the original image can be processed into an image according to the viewer and the viewing environment, and the visual burden on the viewer can be reduced.
しかしながら、特許文献2の技術では、受信装置にて映像加工の有無、加工内容等を判定するために、送信装置は、代替提示コンテンツ及びメタデータを生成して送信する必要がある。このため、送信装置は処理負荷が高いという問題があった。また、受信装置は、映像加工の有無、加工内容等を判定するために、代替提示コンテンツ及びメタデータを用いることが必須であり、処理負荷が高いという問題があった。 However, in the technique of Patent Document 2, in order to determine the presence / absence of video processing, the processing content, and the like on the receiving device, the transmitting device needs to generate and transmit alternative presentation content and metadata. Therefore, the transmitting device has a problem that the processing load is high. Further, the receiving device has a problem that it is indispensable to use alternative presentation contents and metadata in order to determine the presence / absence of video processing, the processing contents, and the like, and the processing load is high.
また、特許文献2の技術では、映像の加工処理は、制作者の意図が反映された代替提示コンテンツの範囲内で行われることとなり、代替提示コンテンツによっては、観視者及び観視環境を十分に反映することができない場合がある。このように、特許文献2の技術では、映像の加工処理が代替提示コンテンツの制限を受けてしまい、映像に起因する視覚的負担を十分に軽減することができない場合があるという問題があった。 Further, in the technique of Patent Document 2, the processing of the video is performed within the range of the alternative presentation content that reflects the intention of the creator, and depending on the alternative presentation content, the viewer and the viewing environment are sufficiently satisfied. It may not be possible to reflect on. As described above, the technique of Patent Document 2 has a problem that the processing of the video is limited by the alternative presentation content, and the visual burden caused by the video may not be sufficiently reduced.
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、映像を観視する観視者の視覚的負担を、簡易な構成にて確実に軽減可能な映像処理装置及びプログラムを提供することにある。 Therefore, the present invention has been made to solve the above-mentioned problems, and an object thereof is an image processing device capable of reliably reducing the visual burden on a viewer who observes an image with a simple configuration. To provide a program.
前記課題を解決するために、請求項1の映像処理装置は、映像信号を入力して加工し、加工後の映像信号を生成する映像処理装置において、前記加工後の映像信号が表示される表示デバイスの映像を観視する観視者に関する情報、前記加工後の映像信号が表示される前記表示デバイスに関する情報、または前記観視者に関する情報及び前記表示デバイスに関する情報がプロファイルとして蓄積されたプロファイル蓄積部と、前記映像信号を解析し、映像の変化の特徴を示す解析結果を生成する映像解析部と、前記映像信号を加工する際に補助となる補助データを含む制御信号を入力し、当該制御信号から前記補助データを抽出する制御信号入力部と、前記映像解析部により生成された前記解析結果、前記プロファイル蓄積部に蓄積された前記プロファイル、及び前記制御信号入力部により抽出された前記補助データに基づいて、前記映像信号の加工内容を決定する制御部と、前記制御部により決定された前記加工内容に応じて、前記映像信号を加工し、前記加工後の映像信号を生成する映像加工部と、を備えたことを特徴とする。
In order to solve the above-mentioned problems, the video processing apparatus according to
また、請求項2の映像処理装置は、映像信号を入力して加工し、加工後の映像信号を生成する映像処理装置において、前記加工後の映像信号が表示される表示デバイスの映像を観視する観視者に関する情報、前記加工後の映像信号が表示される前記表示デバイスに関する情報、または前記観視者に関する情報及び前記表示デバイスに関する情報がプロファイルとして蓄積されたプロファイル蓄積部と、前記映像信号を解析し、映像の変化の特徴を示す解析結果を生成する映像解析部と、前記映像解析部により生成された前記解析結果、及び前記プロファイル蓄積部に蓄積された前記プロファイルに基づいて、前記映像信号の加工内容を決定する制御部と、前記制御部により決定された前記加工内容に応じて、前記映像信号を加工し、前記加工後の映像信号を生成する映像加工部と、を備え、前記映像信号を3D映像コンテンツの信号とし、前記プロファイル蓄積部には、前記表示デバイスが前記3D映像コンテンツに対応しているか否かを示す3D対応フラグのプロファイルが蓄積されており、前記映像解析部が、前記映像信号の画素値列からカット点を検出し、当該カット点の有無を示すカットフラグを生成し、前記制御部が、前記プロファイル蓄積部に蓄積された前記3D対応フラグのプロファイルが前記3D映像コンテンツに対応していることを示しており、かつ前記映像解析部により生成された前記カットフラグがカット点有りを示している場合、前記映像信号の前記カット点を基準にフェードアウトして黒画面へ移行した後、当該黒画面からフェードインする黒フェード挿入を前記加工内容として決定し、前記映像加工部が、前記制御部により決定された前記加工内容に応じて、前記映像信号に対して前記黒フェード挿入の加工を行い、前記加工後の映像信号を生成する、ことを特徴とする。 Further, the video processing device according to claim 2 is a video processing device that inputs and processes a video signal and generates a processed video signal, and observes a video of a display device on which the processed video signal is displayed. Information about the viewer, information about the display device on which the processed video signal is displayed, or a profile storage unit in which information about the viewer and information about the display device are stored as a profile, and the video signal. Based on the image analysis unit that analyzes the image and generates the analysis result showing the characteristics of the change in the image, the analysis result generated by the image analysis unit, and the profile accumulated in the profile storage unit. The control unit for determining the processing content of the signal and the image processing unit for processing the video signal and generating the processed video signal according to the processing content determined by the control unit are provided. The video signal is a signal of 3D video content, and the profile storage unit stores a profile of a 3D compatible flag indicating whether or not the display device supports the 3D video content, and the video analysis unit stores the profile. , A cut point is detected from the pixel value string of the video signal, a cut flag indicating the presence or absence of the cut point is generated, the control unit generates a profile of the 3D compatible flag stored in the profile storage unit, and the profile of the 3D compatible flag is the 3D. When it indicates that it corresponds to the video content and the cut flag generated by the video analysis unit indicates that there is a cut point, it fades out based on the cut point of the video signal and a black screen is displayed. After shifting to, the black fade insertion that fades in from the black screen is determined as the processing content, and the video processing unit determines the processing content determined by the control unit with respect to the video signal. It is characterized in that a black fade insertion process is performed to generate a video signal after the process.
また、請求項3の映像処理装置は、請求項1に記載の映像処理装置において、前記映像信号を3D映像コンテンツの信号とし、前記プロファイル蓄積部には、前記表示デバイスが前記3D映像コンテンツに対応しているか否かを示す3D対応フラグのプロファイルが蓄積されており、前記制御信号入力部が、前記映像信号に編集点があり、当該編集点がカット点であるか否かを示す編集点情報を含む制御信号を入力し、当該制御信号から前記編集点情報を抽出し、前記制御部が、前記プロファイル蓄積部に蓄積された前記3D対応フラグのプロファイルが前記3D映像コンテンツに対応していることを示しており、かつ前記制御信号入力部により抽出された前記編集点情報がカット点有りを示している場合、前記映像信号の前記カット点を基準にフェードアウトして黒画面へ移行した後、当該黒画面からフェードインする黒フェード挿入を前記加工内容として決定し、前記映像加工部が、前記制御部により決定された前記加工内容に応じて、前記映像信号に対して前記黒フェード挿入の加工を行い、前記加工後の映像信号を生成する、ことを特徴とする。
Further, in the video processing device according to
さらに、請求項4のプログラムは、コンピュータを、請求項1から3までのいずれか一項に記載の映像処理装置として機能させることを特徴とする。
Further, the program of claim 4 is characterized in that the computer functions as the video processing apparatus according to any one of
以上のように、本発明によれば、映像を観視する観視者の視覚的負担を、簡易な構成にて確実に軽減することが可能となる。 As described above, according to the present invention, it is possible to surely reduce the visual burden on the viewer who views the image with a simple configuration.
以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明の映像処理装置は、映像信号から映像の変化の特徴を示す解析結果を生成し、解析結果、観視者の情報及び観視環境の情報に基づいて、映像の加工内容を決定することを特徴とする。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. The image processing apparatus of the present invention generates an analysis result showing the characteristics of changes in the image from the image signal, and determines the processing content of the image based on the analysis result, the information of the viewer, and the information of the viewing environment. It is characterized by.
これにより、映像処理装置は、映像の加工内容を決定する際に、映像信号の制作者の意図が反映されたコンテンツデータ(前述の特許文献2では代替提示コンテンツ)及びメタデータを用いる必要がない。したがって、このようなコンテンツデータ及びメタデータを生成したり、送受信したりする必要がないから、処理負荷を低減することができる。 As a result, the video processing device does not need to use content data (alternatively presented content in the above-mentioned Patent Document 2) and metadata that reflect the intention of the creator of the video signal when determining the processing content of the video. .. Therefore, since it is not necessary to generate or send / receive such content data and metadata, the processing load can be reduced.
また、映像の加工内容は、映像信号の制作者の意図が反映されたコンテンツデータ及びメタデータの範囲で決定されることがなく、映像信号の解析結果、観視者の情報及び観視環境の情報に基づいて決定される。これにより、映像の加工内容は、映像信号の制作者の意図よりも、観視者の情報及び観視環境の情報を反映した内容となる。したがって、映像を観視する観視者の視覚的負担を、簡易な構成にて確実に軽減することが可能となる。 In addition, the processing content of the video is not determined within the range of content data and metadata that reflects the intention of the creator of the video signal, and the analysis result of the video signal, the information of the viewer, and the viewing environment. Determined based on information. As a result, the processed content of the video reflects the information of the viewer and the information of the viewing environment rather than the intention of the creator of the video signal. Therefore, it is possible to reliably reduce the visual burden on the viewer who views the image with a simple configuration.
〔映像処理装置〕
次に、本発明の実施形態による映像処理装置について説明する。図1は、本発明の実施形態による映像処理装置の構成例を示すブロック図である。この映像処理装置1は、映像受信部(映像信号入力部)11、データ受信部(制御信号入力部)12、映像解析部13、プロファイル蓄積部14、制御部15及び映像加工部16を備えている。
[Video processing equipment]
Next, the image processing apparatus according to the embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration example of a video processing apparatus according to an embodiment of the present invention. The
映像受信部11は、図示しない送信装置により送信された映像信号を受信し、映像信号を時空間的な画素値列Iに変換する。そして、映像受信部11は、映像信号の画素値列Iを映像解析部13及び映像加工部16に出力する。
The
尚、映像受信部11の機能には、映像信号の復調、及び圧縮されたビットストリームの復号も含まれる。また、映像受信部11は、時系列の2次元画像を動画像の映像信号として受信するようにしてもよいし、複数の視点の異なる動画像(多眼立体映像)の映像信号を受信するようにしてもよい。また、映像受信部11は、映像信号が格納された図示しない蓄積媒体から、映像信号を読み出すようにしてもよい。以下、時刻t及び画像座標(x,y)として、映像受信部11の出力する画素値列IをI(t,x,y)とする。
The functions of the
データ受信部12は、映像信号及び音声信号以外に伝送または蓄積されるデータを制御信号として受信し、制御信号からデータ(補助データ)を抽出し、抽出したデータを制御部15に出力する。
The
制御信号には、映像信号を加工する際に補助となる補助データが含まれる。例えば補助データは、映像の編集点(場面転換の時刻、カット、フェード等の映像効果の種類)、映像酔いまたは光感受性発作のリスクを定量化した数値データ、コンテンツのジャンル(ニュース番組、スポーツ番組、娯楽番組、教育番組等の種別)、権利情報(著作権者、映像の加工処理の可否、加工処理が許可される場合の加工の種類)、観視対象年齢等である。 The control signal includes auxiliary data that assists in processing the video signal. For example, auxiliary data includes video editing points (types of video effects such as scene change times, cuts, and fades), numerical data that quantifies the risk of video sickness or light-sensitive attacks, and content genres (news programs, sports programs). , Types of entertainment programs, educational programs, etc.), rights information (copyright holder, availability of video processing, type of processing when processing is permitted), viewing target age, etc.
ここでは、データ受信部12は、制御信号から、映像の加工処理の可否を示す権利情報を抽出し、これを加工可否情報Rとする。また、データ受信部12は、制御信号から、現時点の映像信号に編集点が存在するか否かを示す情報、及び編集点が存在する場合に当該編集点がカット点であるか否かを示す情報を抽出し、これを編集点情報Eとする。データ受信部12は、加工可否情報R及び編集点情報Eのデータを制御部15に出力する。
Here, the
尚、データ受信部12は、制御信号を、データ放送方式における独立PES(Packetized Elementary Stream)、DSM-CC(Digital Storage Media Command and Control)セクション形式、イベントメッセージ伝送方式またはEPG(Electronic Programming Guide:電子番組表)を経路として受信するようにしてもよい。また、データ受信部12は、制御信号を、インターネット等の通信回線を経路として受信するようにしてもよい。また、データ受信部12は、制御信号が格納された図示しない蓄積媒体から、制御信号を読み出すようにしてもよい。
The
映像解析部13は、映像受信部11から映像信号の画素値列Iを入力し、映像信号の画素値列Iを解析し、映像を全体として観た場合の時間的な変化の特徴量、空間的な変化の特徴量、または時間的及び空間的な変化の特徴量を示す解析結果を生成する。そして、映像解析部13は、解析結果を制御部15に出力する。
The
例えば、映像解析部13は、画素値列Iである時系列の画素値からカット点を検出し、カット点の有無を示すフラグを、解析結果として生成する。
For example, the
具体的には、映像解析部13は、以下の式に示すように、ある時刻の画素値及び別の時刻(例えば、1フレーム前)の画素値を用いて、画素位置である画像座標(x,y)毎の絶対値差分を算出し、画面内における当該絶対値差分の総和Sを求める。
Specifically, as shown in the following equation, the
そして、映像解析部13は、絶対値差分の総和Sが所定の閾値θ(θは0以上の実数)を超えている場合、カット点有りを示すカット検出値(カットフラグ)C=1を設定する。また、映像解析部13は、絶対値差分の総和Sが所定の閾値θを超えていない場合、カット点無しを示すカット検出値C=0を設定する。
また、例えば、映像解析部13は、画素値列Iである時系列の画素値から、映像のフリッカ(反復的な輝度変化)を検出し、フリッカの有無を示すフラグを、解析結果として生成する。この場合、映像解析部13は、フリッカの程度を示す検出値を解析結果として生成するようにしてもよい。
Further, for example, the
具体的には、映像解析部13は、画素位置である画像座標(x,y)毎に、画素値列Iから輝度変化値を算出し、輝度変化値が所定値を超える場合(例えば、輝度変化値が10IRE(Institute of Radio Engineers)を超える場合)の頻度を求める。そして、映像解析部13は、頻度が所定値を超える(例えば、頻度が1秒間に3回を超える)画素(点滅画素)の面積を求め、画像内の面積割合(フレーム内の総画素数に対する点滅画素の割合)を求める。
Specifically, the
映像解析部13は、面積割合が25%以下の場合、フリッカ検出値F=0を設定し、面積割合が25%を超える場合、その面積割合をフリッカ検出値Fに設定する。また、映像解析部13は、面積割合が25%以下の場合、フリッカフラグ=0を設定し、面積割合が25%を超える場合、フリッカフラグ=1を設定する。
The
また、例えば、映像受信部11が多眼立体映像の映像信号(3D映像コンテンツの信号)を受信する場合、映像解析部13は、視点毎の画素値列Iから視差の時間変化を検出し、これを解析結果として生成する。
Further, for example, when the
具体的には、映像解析部13は、ある時刻において、左眼から観た画面全体の画素値と右眼から観た画面全体の画素値との間の差に基づいて視差を求め、別の時刻において、同様に視差を求める。そして、映像解析部13は、ある時刻の視差及び別の時刻の視差から視差の変化量を求める。映像解析部13は、視差の変化量が所定の閾値を超えている場合、カット点有りを示すカット検出値C=1を設定する。また、映像解析部13は、視差の変化量が所定の閾値を超えていない場合、カット点無しを示すカット検出値C=0を設定する。
Specifically, the
また、例えば、映像解析部13は、画素値列Iである時系列の画素値から、色替わり点を検出し、色変わり点の有無を示すフラグを、解析結果として生成する。
Further, for example, the
ここでは、映像解析部13は、画素値列Iからカット点を検出し、カット点の有無を示すカット検出値Cを解析結果として生成すると共に、画素値列Iからフリッカを検出し、フリッカの程度を示すフリッカ検出値Fを解析結果として生成する。そして、映像解析部13は、カット検出値C及びフリッカ検出値Fの解析結果を制御部15に出力する。
Here, the
プロファイル蓄積部14は、予め観視者毎に個別に設定された観視者情報、及び映像処理装置1の単体毎(または機種毎)に設定された端末情報がプロファイルとして蓄積されている。プロファイル蓄積部14は、観視者情報及び端末情報のプロファイルを制御部15に出力する。
The
観視者情報は、観視者の年齢、視距離、嗜好(好みの番組ジャンル等)、光感受性発作のリスクの有無、映像酔いのリスクの有無等である。 The viewer information includes the viewer's age, viewing distance, preference (favorite program genre, etc.), presence / absence of risk of photosensitive epilepsy, presence / absence of risk of video sickness, and the like.
端末情報は、映像処理装置1が3D映像コンテンツに対応しているか否か(3Dテレビであるか否か)、映像処理装置1の種類(LCD(Liquid Crystal Display:液晶表示装置)、OLED(Organic Light Emitting Diode:有機発光ダイオード)、PDP(Plasma Display Panel:プラズマディスプレイパネル)、CRT(Cathode Ray Tube:陰極線管)等)、表示デバイスの最高輝度、画面サイズ等である。
The terminal information includes whether or not the
尚、プロファイル蓄積部14は、観視者情報のプロファイルのみを蓄積するようにしてもよいし、端末情報のプロファイルのみを蓄積するようにしてもよい。
The
ここでは、プロファイル蓄積部14は、観視者に光感受性発作のリスクがあるかないかを示す光感受性発作リスクフラグPの観視者情報、及び映像処理装置1が3D映像コンテンツに対応しているか否かを示す3D対応フラグDの端末情報をプロファイルとして制御部15に出力する。
Here, the
制御部15は、データ受信部12からデータを入力すると共に、映像解析部13から解析結果を入力し、さらにプロファイル蓄積部14からプロファイルを入力する。そして、制御部15は、データ、解析結果及びプロファイルに基づいて、映像受信部11が受信した映像信号に適用する映像の加工内容を決定し、映像の加工内容を示す制御値を映像加工部16に出力する。例えば、制御部15は、場合分け(if-then)ルールにより、映像の加工内容を決定する。
The
ここでは、制御部15は、データ受信部12から加工可否情報R及び編集点情報Eのデータを入力し、映像解析部13からカット検出値C及びフリッカ検出値Fの解析結果を入力する。また、制御部15は、プロファイル蓄積部14から光感受性発作リスクフラグP及び3D対応フラグDのプロファイルを入力する。
Here, the
制御部15は、加工可否情報R、編集点情報E、カット検出値C、フリッカ検出値F、光感受性発作リスクフラグP及び3D対応フラグDに基づいて、映像の加工内容を決定する。そして、制御部15は、映像の加工内容を示す映像加工モードMの制御値を映像加工部16に出力する。
The
(データ受信部12から入力した加工可否情報R及び編集点情報Eのデータ)
加工可否情報Rは、データ受信部12が受信した制御信号に含まれる情報であり、外部から送られてきた情報である。編集点情報Eは、データ受信部12が受信する制御信号として、外部から送られてきた情報であるか否かを示すと共に、外部から送られてきた情報である場合、編集の内容が含まれる。
(Data of processability information R and edit point information E input from the data receiving unit 12)
The processability information R is information included in the control signal received by the
加工可否情報R=0は、光感受性発作防止目的以外の映像加工が禁止されていることを示し、加工可否情報R=1は、映像加工が許諾されていることを示す。また、編集点情報E=0は、編集点情報が送られてきていないことを示す。さらに、編集点情報E=1は、編集点情報が送られてきており、現時点の映像がカット点でないことを示し、編集点情報E=2は、編集点情報が送られてきており、現時点の映像がカット点であることを示す。 The processability information R = 0 indicates that image processing other than for the purpose of preventing photosensitive epilepsy is prohibited, and the processability information R = 1 indicates that image processing is permitted. Further, the edit point information E = 0 indicates that the edit point information has not been sent. Further, the edit point information E = 1 indicates that the edit point information has been sent, indicating that the current image is not a cut point, and the edit point information E = 2 indicates that the edit point information has been sent, and the present time. Indicates that the image of is a cut point.
(映像解析部13から入力したカット検出値C及びフリッカ検出値Fの解析結果)
カット検出値C及びフリッカ検出値Fは、映像解析部13により映像信号の画素値列Iから生成された解析結果である。カット検出値C=0は、現時点の映像がカット点でないことを示し、カット検出値C=1は、現時点の映像がカット点であることを示す。また、フリッカ検出値F=0は、画面面積の全てにおいてフリッカが発生していない、または25%以下の画面面積の領域にフリッカが発生しており、現時点の映像に全体としてフリッカが発生していないことを示す。フリッカ検出値F>0は、25%を超えるF%の画面面積の領域にフリッカが発生しており、現時点の映像に全体としてフリッカが発生していることを示す。
(Analysis result of cut detection value C and flicker detection value F input from video analysis unit 13)
The cut detection value C and the flicker detection value F are analysis results generated from the pixel value sequence I of the video signal by the
(プロファイル蓄積部14から入力した光感受性発作リスクフラグP及び3D対応フラグDのプロファイル)
光感受性発作リスクフラグPは、プロファイル蓄積部14から入力した観視者情報であり、3D対応フラグDは、プロファイル蓄積部14から入力した端末情報である。光感受性発作リスクフラグP=0は、観視者に光感受性発作のリスクがないことを示し、光感受性発作リスクフラグP=1は、観視者に光感受性発作のリスクがあることを示す。また、3D対応フラグD=0は、映像処理装置1が3D映像コンテンツに対応していないことを示し、3D対応フラグD=1は、映像処理装置1が3D映像コンテンツに対応していることを示す。
(Profile of Photosensitive Epilepsy Risk Flag P and 3D Corresponding Flag D Input from Profile Storage Unit 14)
The photosensitive epilepsy risk flag P is viewer information input from the
(制御部15が出力する映像加工モードMの制御値)
映像加工モードM=0は、映像加工を行わないことを示し、映像加工モードM=1は、映像加工として時間方向平滑化を行うことを示す。映像加工モードM=2は、映像加工として黒フェード挿入を行うことを示し、映像加工モードM=3は、映像加工として、時間方向平滑化及び黒フェード挿入を行うことを示す。
(Control value of the image processing mode M output by the control unit 15)
The image processing mode M = 0 indicates that no image processing is performed, and the image processing mode M = 1 indicates that time-direction smoothing is performed as image processing. The image processing mode M = 2 indicates that black fade insertion is performed as image processing, and the image processing mode M = 3 indicates that time direction smoothing and black fade insertion are performed as image processing.
図2は、制御部15の処理例を示すフローチャートである。制御部15は、データ受信部12から加工可否情報R及び編集点情報Eのデータを、映像解析部13からカット検出値C及びフリッカ検出値Fの解析結果を、プロファイル蓄積部14から光感受性発作リスクフラグP及び3D対応フラグDのプロファイルをそれぞれ入力する(ステップS201)。
FIG. 2 is a flowchart showing a processing example of the
制御部15は、映像加工モードM=0(映像加工を行わない)を初期設定し(ステップS202)、光感受性発作リスクフラグP=0(光感受性発作のリスクがない)であるか否かを判定する(ステップS203)。
The
制御部15は、ステップS203において、光感受性発作リスクフラグP=0でないと判定した場合(ステップS203:N)、観視者に光感受性発作のリスクがあると判断し、ステップS204へ移行する。
When the
一方、制御部15は、ステップS203において、光感受性発作リスクフラグP=0であると判定した場合(ステップS203:Y)、観視者に光感受性発作のリスクがないと判断し、ステップS206へ移行する。
On the other hand, when the
制御部15は、ステップS203(N)から移行して、フリッカ検出値F≦25(画面面積の25%以下の領域にフリッカが発生している)である否かを判定する(ステップS204)。
The
制御部15は、ステップS204において、フリッカ検出値F≦25でないと判定した場合(ステップS204:N)、現時点の映像において画面面積の25%を超える領域にフリッカが発生していると判断する。そして、制御部15は、映像加工モードM=0に1を加算し、映像加工モードM=1(映像加工として時間方向平滑化を行う)を設定し(ステップS205)、ステップS206へ移行する。
When the
一方、制御部15は、ステップS204において、フリッカ検出値F≦25であると判定した場合(ステップS204:Y)、現時点の映像において画面面積の25%以下の領域にフリッカが発生していると判断し、ステップS206へ移行する。
On the other hand, when the
制御部15は、ステップS203(Y)、ステップS204(Y)またはステップS205から移行して、3D対応フラグD=0(映像処理装置1が3D映像コンテンツに対応していない)か否かを判定する(ステップS206)。
The
制御部15は、ステップS206において、3D対応フラグD=0でないと判定した場合(ステップS206:N)、映像処理装置1が3D映像コンテンツに対応していると判断し、ステップS207へ移行する。
When the
一方、制御部15は、ステップS206において、3D対応フラグD=0であると判定した場合(ステップS206:Y)、映像処理装置1が3D映像コンテンツに対応していないと判断し、ステップS212へ移行する。
On the other hand, when the
制御部15は、ステップS206(N)から移行して、加工可否情報R=0(光感受性発作防止目的以外の映像加工が禁止されている)か否かを判定する(ステップS207)。
The
制御部15は、ステップS207において、加工可否情報R=0でないと判定した場合(ステップS207:N)、映像加工が許諾されていると判断し、ステップS208へ移行する。
When the
一方、制御部15は、ステップS207において、加工可否情報R=0であると判定した場合(ステップS207:Y)、光感受性発作防止目的以外の映像加工が禁止されていると判断し、ステップS212へ移行する。
On the other hand, when the
制御部15は、ステップS207(N)から移行して、編集点情報E=0(編集点情報が送られてきていない)か否かを判定する(ステップS208)。
The
制御部15は、ステップS208において、編集点情報E=0でないと判定した場合(ステップS208:N)、編集点情報が送られてきていると判断し、ステップS209へ移行する。
When the
一方、制御部15は、ステップS208において、編集点情報E=0であると判定した場合(ステップS208:Y)、編集点情報が送られてきていないと判断し、ステップS210へ移行する。
On the other hand, when the
制御部15は、ステップS208(N)から移行して、編集点情報E=1(現時点の映像がカット点でない)か否かを判定する(ステップS209)。
The
制御部15は、ステップS209において、編集点情報E=1でないと判定した場合(ステップS209:N)、現時点の映像がカット点であると判断し、ステップS211へ移行する。
When the
一方、制御部15は、ステップS209において、編集点情報E=1であると判定した場合(ステップS209:Y)、現時点の映像がカット点でないと判断し、ステップS212へ移行する。
On the other hand, when the
制御部15は、ステップS208(Y)から移行して、カット検出値C=0(現時点の映像がカット点でない)であるか否かを判定する(ステップS210)。
The
制御部15は、ステップS210において、カット検出値C=0でないと判定した場合(ステップS210:N)、現時点の映像がカット点であると判断し、ステップS211へ移行する。
When the
一方、制御部15は、ステップS210において、カット検出値C=0であると判定した場合(ステップS210:Y)、現時点の映像がカット点でないと判断し、ステップS212へ移行する。
On the other hand, when the
制御部15は、ステップS209(N)またはステップS210(N)から移行して、映像加工モードM=0,1に2を加算する。そして、制御部15は、映像加工モードM=2(映像加工として黒フェード挿入を行う),3(映像加工として時間方向平滑化及び黒フェード挿入を行う)を設定し(ステップS211)、ステップS212へ移行する。
The
制御部15は、ステップS206(Y)、ステップS207(Y)、ステップS209(Y)、ステップS210(Y)またはステップS211から移行して、映像加工モードMを映像加工部16に出力する(ステップS212)。
The
このように、光感受性発作を起こす可能性のある観視者が映像を観視しており、かつ映像解析部13により生成されたフリッカ検出値Fが所定の閾値(25)を超えている場合には、映像加工として時間方向平滑化を行うように、ステップS205において、映像加工モードMの最下位ビットに1が設定される。
In this way, when a viewer who may cause photosensitive epilepsy is watching the image and the flicker detection value F generated by the
また、映像処理装置1が3D映像コンテンツに対応しており、かつ映像加工が許諾されている場合には、映像のカット点に対し、視点移動に起因する違和感(ワープ感)を抑えるため、黒フェードを挿入する。
Further, when the
これを実現するため、データ受信部12による編集点情報が得られる場合には、当該編集点情報に基づいてカット点の有無が判定される。一方、データ受信部12により編集点情報が得られない場合には、映像解析部13により生成された解析結果に基づいて、カット点の有無が判定される。そして、カット点であると判定された場合には、映像加工として黒フェード挿入を行うように、ステップS211において、映像加工モードMの最下位から2番目のビットに1が設定される。
In order to realize this, when the edit point information by the
これにより、映像加工部16へ出力される映像加工モードMの下位2ビットには、映像加工として時間方向平滑化を行うか否かの情報、及び、映像加工として黒フェード挿入を行うか否かの情報が設定される。つまり、映像加工モードMには、映像加工を行わない、映像加工として時間方向平滑化を行う、映像加工として黒フェード挿入を行う、及び、映像加工として時間方向平滑化及び黒フェード挿入を行うことのいずれかの情報が含まれる。
As a result, in the lower 2 bits of the image processing mode M output to the
尚、前記実施形態では、制御部15は、図2に示した場合分け(if-then)ルールにより映像の加工内容を決定するようにしたが、これは一例であり、他のルールを用いるようにしてもよい。例えば、制御部15は、機械学習された学習モデルを用いて、映像の加工内容を決定するようにしてもよい。学習モデルの例として、加工可否情報R及び編集点情報Eのデータ、カット検出値C及びフリッカ検出値Fの解析結果、並びに光感受性発作リスクフラグP及び3D対応フラグDのプロファイルを入力データとし、映像加工モードMの制御値を出力データとするニューラルネットワーク、サポートベクターマシン、決定木、ランダムフォレスト等が用いられる。
In the above embodiment, the
図1に戻って、映像加工部16は、映像受信部11から映像信号の画素値列Iを入力すると共に、制御部15から映像の加工内容を示す制御値を入力する。そして、映像加工部16は、制御値に応じて、映像信号の画素値列Iに対して映像加工を行い(または映像加工を行わず)、加工結果(または画素値列I)を映像信号Jとして生成し、映像信号Jを出力する。
Returning to FIG. 1, the
映像加工は、現時点tのみの画素値列I(現時点のフレーム)に対する処理であってもよいし、未来の時点の画素値列I(未来のフレーム)に対する処理であってもよい。また、映像加工は、過去の時点の画素値列I(過去のフレーム)に対する処理であってもよい。この場合、映像加工部16は、画素値列Iをバッファに格納するバッファリングを行い、バッファに格納された画素値列Iを加工した後、加工結果に時間遅れ処理を施し、映像信号Jを出力する。
The image processing may be processing for the pixel value sequence I (current frame) of only the current t only, or may be processing for the pixel value sequence I (future frame) at the future time point. Further, the image processing may be processing for the pixel value sequence I (past frame) at the past time point. In this case, the
映像加工部16は、映像信号Jを表示デバイス(テレビ画面の他、映像処理装置1が3D映像コンテンツに対応している場合には、ヘッドマウントディスプレイ等の表示デバイスを含む)に出力するようにしてもよい。これにより、表示デバイスには、映像信号Jが表示される。また、映像加工部16は、映像信号Jを録画装置、映像切替機等の機器に出力するようにしてもよい。
The
ここでは、映像加工部16は、映像受信部11から映像信号の画素値列Iを入力すると共に、制御部15から映像加工モードMの制御値を入力する。そして、映像加工部16は、映像加工モードMに応じて、映像信号の画素値列Iに対して映像加工を行い(または映像加工を行わず)、加工結果(または画素値列I)を映像信号Jとして出力する。
Here, the
具体的には、映像加工部16は、映像加工モードM=0である場合、映像信号の画素値列Iに対して映像加工を行わず、以下の式にて、入力した映像信号の画素値列Iを映像信号Jとして出力する。
また、映像加工部16は、映像加工モードM=1である場合、以下の式にて、映像信号の画素値列Iに対して時間方向平滑化の映像加工を行い、映像信号Jを生成して出力する。
また、映像加工部16は、映像加工モードM=2である場合、映像信号の画素値列Iに対して黒フェード挿入の映像加工を行い、映像信号Jを生成して出力する。すなわち、映像加工部16は、映像信号のカット点を基準に、フェードアウトして黒画面へ移行した後、黒画面からフェードインするように映像加工を行う。
Further, when the image processing mode M = 2, the
例えば、映像加工部16は、U<-1の整数U及びV>+1の整数Vに対して、現時点tを含んで前後に拡張した時刻t+U+1~t+V-1の時間範囲において、以下の式にて、黒フェードの挿入処理を行い、映像信号Jを生成して出力する。
また、映像加工部16は、映像加工モードM=3である場合、以下の式にて、映像信号の画素値列Iに対して時間方向平滑化及び黒フェード挿入の映像加工を行い、映像信号Jを生成して出力する。
図3は、映像加工モードM=1の場合に、点滅を含む映像に対して時間方向平滑化の映像加工を行う例を説明する図である。加工前の映像信号が激しく点滅するフレームa1~a5である場合に、制御部15により、映像加工モードM=1が設定されたとする。
FIG. 3 is a diagram illustrating an example of performing time-direction smoothing video processing on a video including blinking when the video processing mode M = 1. It is assumed that the image processing mode M = 1 is set by the
映像加工部16は、映像加工モードM=1を判定し、加工前の映像信号であるフレームa1~a5の画素値列Iに対し、前記式(3)にて時間方向平滑化の映像加工を行う。そして、映像加工部16は、加工後の映像信号として、時間方向に平滑化したフレームb1~b5の映像信号Jを生成する。
The
図4は、映像加工モードM=2の場合に、カットによる場面転換を含む映像に対して黒フェード挿入の映像加工を行う例を説明する図である。加工前の映像信号が、フレームa3をカット点αとするフレームa1~a5である場合に、制御部15により、映像加工モードM=2が設定されたとする。
FIG. 4 is a diagram illustrating an example in which black fade insertion is performed on an image including a scene change due to a cut when the image processing mode M = 2. It is assumed that the video processing mode M = 2 is set by the
映像加工部16は、映像加工モードM=2を判定し、加工前の映像信号であるフレームa1~a5の画素値列Iに対し、前記式(4)にて黒フェード挿入の映像加工を行う。そして、映像加工部16は、加工後の映像信号として、カット点α付近のフレームb3を黒一色とし、その前後をフェードでつなぐ黒フェード挿入したフレームb1~b5の映像信号Jを生成する。
The
以上のように、本発明の実施形態の映像処理装置1によれば、データ受信部12は、制御信号を受信し、制御信号から、映像信号を加工する際に補助となるデータを抽出し、映像解析部13は、映像信号の画素値列Iを解析し、映像の変化の特徴を示す解析結果を生成する。
As described above, according to the
制御部15は、プロファイル蓄積部14から、観視者情報及び端末情報のプロファイルを入力し、データ受信部12により抽出されたデータ、映像解析部13により解析された解析結果、及びプロファイル蓄積部14から入力したプロファイルに基づいて、映像の加工内容を決定し、映像の加工内容を示す制御値を設定する。そして、映像加工部16は、制御部15により設定された制御値に応じて、映像信号を加工する。
The
これにより、例えば送信装置から送信され、映像信号の制作者の意図が反映されたコンテンツデータ(前述の特許文献2では代替提示コンテンツ)及びメタデータを用いることなく、映像信号を加工することができ、処理負荷を低減することができる。また、送信装置において、観視者及び観視環境による条件を考慮したコンテンツデータを生成する必要がなく、メタデータも生成する必要がないから、送信装置の処理負荷を低減することができる。 Thereby, for example, the video signal can be processed without using the content data (alternatively presented content in the above-mentioned Patent Document 2) and the metadata transmitted from the transmission device and reflecting the intention of the creator of the video signal. , The processing load can be reduced. Further, since it is not necessary to generate the content data in consideration of the conditions depending on the viewer and the viewing environment in the transmitting device and it is not necessary to generate the metadata, the processing load of the transmitting device can be reduced.
また、映像の加工内容は、映像信号の制作者の意図が反映されたコンテンツデータ及びメタデータの範囲で決定されることがなく、映像信号の解析結果、制御信号、観視者の情報及び観視環境の情報に基づいて決定されるから、映像信号の制作者の意図よりも、観視者及び観視環境を反映した内容となる。したがって、映像を観視する観視者の視覚的負担を、簡易な構成にて確実に軽減することができ、観視者の疲労も軽減することが可能となる。 Further, the processing content of the video is not determined within the range of the content data and the metadata that reflect the intention of the creator of the video signal, and the analysis result of the video signal, the control signal, the information of the viewer, and the view are not determined. Since the content is determined based on the information on the visual environment, the content reflects the viewer and the visual environment rather than the intention of the creator of the video signal. Therefore, the visual burden on the viewer who views the image can be reliably reduced by a simple configuration, and the fatigue of the viewer can also be reduced.
さらに、映像信号の解析結果及び制御信号に反映される制作者の意図、観視者及び観視環境を勘案しつつ、映像信号を適切に加工することができるから、映像制作上の演出効果と観視者の安全の均衡を保った最適な状態で、映像観視が可能となる。 Furthermore, since the video signal can be appropriately processed while considering the creator's intention, the viewer, and the viewing environment reflected in the analysis result of the video signal and the control signal, it is possible to produce an effect on the video production. It is possible to view the image in the optimum state while maintaining the balance of the safety of the viewer.
〔他の構成例1〕
次に、本発明の実施形態について、他の構成例1(第1構成例)を説明する。図5は、本発明の実施形態における他の第1構成例を示すブロック図である。この映像処理装置2は、映像受信部11、映像解析部13、プロファイル蓄積部14、制御部17及び映像加工部16を備えている。
[Other Configuration Example 1]
Next, another configuration example 1 (first configuration example) will be described with respect to the embodiment of the present invention. FIG. 5 is a block diagram showing another first configuration example according to the embodiment of the present invention. The video processing device 2 includes a
図1に示した映像処理装置1とこの映像処理装置2とを比較すると、両映像処理装置1,2は、映像受信部11、映像解析部13、プロファイル蓄積部14及び映像加工部16を備えている点で共通する。一方、映像処理装置2は、データ受信部12を備えておらず、映像処理装置1の制御部15とは異なる制御部17を備えている点で、映像処理装置1と相違する。
Comparing the
映像受信部11、映像解析部13、プロファイル蓄積部14及び映像加工部16は、図1にて説明済みであるから、ここでは説明を省略する。
Since the
制御部17は、映像解析部13から解析結果を入力すると共に、プロファイル蓄積部14からプロファイルを入力する。そして、制御部17は、解析結果及びプロファイルに基づいて、映像の加工内容を決定し、映像の加工内容を示す制御値を映像加工部16に出力する。
The
例えば、制御部17は、映像解析部13から解析結果としてカット検出値C及びフリッカ検出値Fを入力すると共に、プロファイル蓄積部14から光感受性発作リスクフラグP及び3D対応フラグDのプロファイルを入力する。そして、制御部17は、カット検出値C、フリッカ検出値F、光感受性発作リスクフラグP及び3D対応フラグDに基づいて、映像の加工内容を決定し、映像加工モードMの制御値を映像加工部16に出力する。
For example, the
具体的には、制御部17は、図2の処理例に示した全てのステップのうち、ステップS207~ステップS209を除いたステップS201~ステップS206及びステップS210~ステップS212の処理を行う。
Specifically, the
図2を参照して、制御部17は、ステップS201において、映像解析部13からカット検出値C及びフリッカ検出値Fの解析結果を入力すると共に、プロファイル蓄積部14から光感受性発作リスクフラグP及び3D対応フラグDのプロファイルを入力する。
With reference to FIG. 2, in step S201, the
制御部17は、ステップS201~ステップS205の処理の後、ステップS206において、3D対応フラグD=0でないと判定した場合、映像処理装置2が3D映像コンテンツに対応していると判断し、ステップS210へ移行する。そして、制御部17は、ステップS210において、カット検出値C=0(現時点の映像がカット点でない)であるか否かを判定する。
When the
制御部17は、ステップS210において、カット検出値C=0でないと判定した場合、現時点の映像がカット点であると判断し、ステップS211へ移行する。一方、制御部17は、ステップS210において、カット検出値C=0であると判定した場合、現時点の映像がカット点でないと判断し、ステップS212へ移行する。
If the
以上のように、本発明の実施形態の映像処理装置2によれば、映像解析部13は、映像信号の画素値列Iを解析し、映像の変化の特徴を示す解析結果を生成する。制御部17は、プロファイル蓄積部14から、観視者情報及び端末情報のプロファイルを入力し、映像解析部13により解析された解析結果、及びプロファイル蓄積部14から入力したプロファイルに基づいて、映像の加工内容を決定し、映像の加工内容を示す制御値を設定する。そして、映像加工部16は、制御部17により設定された制御値に応じて、映像信号を加工する。
As described above, according to the video processing apparatus 2 of the embodiment of the present invention, the
これにより、図1に示した映像処理装置1と同様に、映像を観視する観視者の視覚的負担を、簡易な構成にて確実に軽減することができ、観視者の疲労も軽減することが可能となる。また、映像制作上の演出効果と観視者の安全の均衡を保った最適な状態で、映像観視が可能となる。
As a result, similarly to the
〔他の構成例2〕
次に、本発明の実施形態について、他の構成例2(第2構成例)を説明する。図6は、本発明の実施形態における他の第2構成例を示すブロック図である。この映像処理装置3は、映像受信部11、データ受信部12、プロファイル蓄積部14、制御部18及び映像加工部16を備えている。
[Other Configuration Example 2]
Next, another configuration example 2 (second configuration example) will be described with respect to the embodiment of the present invention. FIG. 6 is a block diagram showing another second configuration example according to the embodiment of the present invention. The
図1に示した映像処理装置1とこの映像処理装置3とを比較すると、両映像処理装置1,3は、映像受信部11、データ受信部12、プロファイル蓄積部14及び映像加工部16を備えている点で共通する。一方、映像処理装置3は、映像解析部13を備えておらず、映像処理装置1の制御部15とは異なる制御部18を備えている点で、映像処理装置1と相違する。
Comparing the
映像受信部11、データ受信部12、プロファイル蓄積部14及び映像加工部16は、図1にて説明済みであるから、ここでは説明を省略する。
Since the
制御部18は、データ受信部12からデータを入力すると共に、プロファイル蓄積部14からプロファイルを入力する。そして、制御部18は、データ及びプロファイルに基づいて、映像の加工内容を決定し、映像の加工内容を示す制御値を映像加工部16に出力する。
The
例えば、制御部18は、データ受信部12から加工可否情報R及び編集点情報Eのデータを入力すると共に、プロファイル蓄積部14から光感受性発作リスクフラグP及び3D対応フラグDのプロファイルを入力する。そして、制御部18は、加工可否情報R、編集点情報E、光感受性発作リスクフラグP及び3D対応フラグDに基づいて、映像の加工内容を決定し、映像加工モードMの制御値を映像加工部16に出力する。
For example, the
具体的には、制御部18は、図2の処理例に示した全てのステップのうち、ステップS204及びステップS210を除いたステップS201~ステップS203、ステップS205~ステップS209、ステップS211及びステップS212の処理を行う。
Specifically, the
図2を参照して、制御部18は、ステップS201において、データ受信部12から加工可否情報R及び編集点情報Eのデータを入力すると共に、プロファイル蓄積部14から光感受性発作リスクフラグP及び3D対応フラグDのプロファイルを入力する。
With reference to FIG. 2, in step S201, the
制御部18は、ステップS201及びステップS202の処理の後、ステップS203において、光感受性発作リスクフラグP=0でないと判定した場合、観視者に光感受性発作のリスクがあると判断し、ステップS205へ移行する。そして、制御部18は、ステップS205において、映像加工モードM=0に1を加算し、映像加工モードM=1(映像加工として時間方向平滑化を行う)を設定する。
If the
また、制御部18は、ステップS208において、編集点情報E=0であると判定した場合、編集点情報が送られてきていないと判断し、ステップS212へ移行する。
Further, when the
尚、データ受信部12は、制御信号からフリッカの有無及びフリッカの程度を示すフリッカ情報を抽出し、制御部18は、データ受信部12から、フリッカ情報を含むデータを入力するようにしてもよい。この場合、制御部18は、ステップS203において、光感受性発作リスクフラグP=0でないと判定した場合、観視者に光感受性発作のリスクがあると判断し、入力したフリッカ情報のデータに基づいて、フリッカの程度が所定値(例えば、フリッカしている領域が全面積の25%)を超えていると判定した場合、ステップS205へ移行し、映像加工モードM=1を設定する。
The
以上のように、本発明の実施形態の映像処理装置3によれば、データ受信部12は、制御信号を受信し、制御信号から、映像信号を加工する際に補助となるデータを抽出する。制御部18は、プロファイル蓄積部14から、観視者情報及び端末情報のプロファイルを入力し、データ受信部12により抽出されたデータ、及びプロファイル蓄積部14から入力したプロファイルに基づいて、映像の加工内容を決定し、映像の加工内容を示す制御値を設定する。そして、映像加工部16は、制御部18により設定された制御値に応じて、映像信号を加工する。
As described above, according to the
これにより、図1に示した映像処理装置1と同様に、映像を観視する観視者の視覚的負担を、簡易な構成にて確実に軽減することができ、観視者の疲労も軽減することが可能となる。また、映像制作上の演出効果と観視者の安全の均衡を保った最適な状態で、映像観視が可能となる。
As a result, similarly to the
以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、図1に示した映像処理装置1、図5に示した映像処理装置2及び図6に示した映像処理装置3は、映像信号の放送波を受信するテレビジョン受信機であってもよい。また、映像処理装置1,2,3は、映像信号を例えば蓄積媒体から読み出す映像再生装置であってもよい。
Although the present invention has been described above with reference to embodiments, the present invention is not limited to the above-described embodiment and can be variously modified without departing from the technical idea. For example, the
また、前記実施形態では、データ受信部12により抽出されるデータを加工可否情報R及び編集点情報Eとし、映像解析部13により生成される解析結果をカット検出値C及びフリッカ検出値Fとし、プロファイル蓄積部14から入力されるプロファイルを光感受性発作リスクフラグP及び3D対応フラグDとし、制御部15,17,18により生成される制御値を映像加工モードM(加工を行わない、時間方向平滑化、黒フェード挿入、時間方向平滑化及び黒フェード挿入のいずれかを示す値)として説明した。
Further, in the above embodiment, the data extracted by the
本発明は、データ受信部12により抽出されるデータ、映像解析部13により解析される解析結果、プロファイル蓄積部14から入力されるプロファイル、及び制御部15,17,18により生成される制御値を、前述の情報に限定するものではない。前述の情報は一例である。
The present invention uses data extracted by the
尚、本発明の実施形態による映像処理装置1,2,3のハードウェア構成としては、通常のコンピュータを使用することができる。映像処理装置1,2,3は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。
As the hardware configuration of the
映像処理装置1に備えた映像受信部11、データ受信部12、映像解析部13、プロファイル蓄積部14、制御部15及び映像加工部16の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、映像処理装置2に備えた映像受信部11、映像解析部13、プロファイル蓄積部14、制御部17及び映像加工部16の各機能も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。さらに、映像処理装置3に備えた映像受信部11、データ受信部12、プロファイル蓄積部14、制御部18及び映像加工部16の各機能も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
Each function of the
これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。 These programs are stored in the storage medium, read by the CPU, and executed. In addition, these programs can be stored and distributed in storage media such as magnetic disks (floppy (registered trademark) disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memories, etc., and can be distributed via a network. You can also send and receive.
1,2,3 映像処理装置
11 映像受信部(映像信号入力部)
12 データ受信部(制御信号入力部)
13 映像解析部
14 プロファイル蓄積部
15,17,18 制御部
16 映像加工部
I 画素値列
R 加工可否情報
E 編集点情報
C カット検出値
F フリッカ検出値
P 光感受性発作リスクフラグ
D 3D対応フラグ
M 映像加工モード
J 映像信号
S 絶対値差分の総和
a1~a5,b1~b5 フレーム
α カット点
θ 閾値
1, 2, 3
12 Data receiving unit (control signal input unit)
13
Claims (4)
前記加工後の映像信号が表示される表示デバイスの映像を観視する観視者に関する情報、前記加工後の映像信号が表示される前記表示デバイスに関する情報、または前記観視者に関する情報及び前記表示デバイスに関する情報がプロファイルとして蓄積されたプロファイル蓄積部と、
前記映像信号を解析し、映像の変化の特徴を示す解析結果を生成する映像解析部と、
前記映像信号を加工する際に補助となる補助データを含む制御信号を入力し、当該制御信号から前記補助データを抽出する制御信号入力部と、
前記映像解析部により生成された前記解析結果、前記プロファイル蓄積部に蓄積された前記プロファイル、及び前記制御信号入力部により抽出された前記補助データに基づいて、前記映像信号の加工内容を決定する制御部と、
前記制御部により決定された前記加工内容に応じて、前記映像信号を加工し、前記加工後の映像信号を生成する映像加工部と、
を備えたことを特徴とする映像処理装置。 In an image processing device that inputs and processes a video signal and generates a processed video signal.
Information about the viewer viewing the image of the display device on which the processed video signal is displayed, information about the display device on which the processed video signal is displayed, or information about the viewer and the above. A profile storage unit that stores information about display devices as a profile,
An image analysis unit that analyzes the image signal and generates an analysis result showing the characteristics of the change in the image.
A control signal input unit that inputs a control signal including auxiliary data that is auxiliary when processing the video signal and extracts the auxiliary data from the control signal.
The processing content of the video signal is determined based on the analysis result generated by the video analysis unit , the profile stored in the profile storage unit , and the auxiliary data extracted by the control signal input unit . Control unit and
An image processing unit that processes the video signal and generates the processed video signal according to the processing content determined by the control unit.
A video processing device characterized by being equipped with.
前記加工後の映像信号が表示される表示デバイスの映像を観視する観視者に関する情報、前記加工後の映像信号が表示される前記表示デバイスに関する情報、または前記観視者に関する情報及び前記表示デバイスに関する情報がプロファイルとして蓄積されたプロファイル蓄積部と、
前記映像信号を解析し、映像の変化の特徴を示す解析結果を生成する映像解析部と、
前記映像解析部により生成された前記解析結果、及び前記プロファイル蓄積部に蓄積された前記プロファイルに基づいて、前記映像信号の加工内容を決定する制御部と、
前記制御部により決定された前記加工内容に応じて、前記映像信号を加工し、前記加工後の映像信号を生成する映像加工部と、を備え、
前記映像信号を3D映像コンテンツの信号とし、
前記プロファイル蓄積部には、
前記表示デバイスが前記3D映像コンテンツに対応しているか否かを示す3D対応フラグのプロファイルが蓄積されており、
前記映像解析部は、
前記映像信号の画素値列からカット点を検出し、当該カット点の有無を示すカットフラグを生成し、
前記制御部は、
前記プロファイル蓄積部に蓄積された前記3D対応フラグのプロファイルが前記3D映像コンテンツに対応していることを示しており、かつ前記映像解析部により生成された前記カットフラグがカット点有りを示している場合、前記映像信号の前記カット点を基準にフェードアウトして黒画面へ移行した後、当該黒画面からフェードインする黒フェード挿入を前記加工内容として決定し、
前記映像加工部は、
前記制御部により決定された前記加工内容に応じて、前記映像信号に対して前記黒フェード挿入の加工を行い、前記加工後の映像信号を生成する、ことを特徴とする映像処理装置。 In an image processing device that inputs and processes a video signal and generates a processed video signal.
Information about the viewer viewing the image of the display device on which the processed video signal is displayed, information about the display device on which the processed video signal is displayed, or information about the viewer and the above. A profile storage unit that stores information about display devices as a profile,
An image analysis unit that analyzes the image signal and generates an analysis result showing the characteristics of the change in the image.
A control unit that determines the processing content of the video signal based on the analysis result generated by the video analysis unit and the profile stored in the profile storage unit.
A video processing unit that processes the video signal and generates the processed video signal according to the processing content determined by the control unit is provided .
The video signal is used as a signal for 3D video content.
In the profile storage part,
A profile of a 3D compatible flag indicating whether or not the display device supports the 3D video content is accumulated.
The video analysis unit
A cut point is detected from the pixel value sequence of the video signal, and a cut flag indicating the presence or absence of the cut point is generated.
The control unit
The profile of the 3D-compatible flag stored in the profile storage unit indicates that the profile corresponds to the 3D video content, and the cut flag generated by the video analysis unit indicates that there is a cut point. In this case, the black fade insertion that fades in from the black screen after fading out and shifting to the black screen based on the cut point of the video signal is determined as the processing content.
The video processing unit
An image processing apparatus characterized in that the black fade insertion process is performed on the video signal according to the processing content determined by the control unit, and the processed video signal is generated.
前記映像信号を3D映像コンテンツの信号とし、
前記プロファイル蓄積部には、
前記表示デバイスが前記3D映像コンテンツに対応しているか否かを示す3D対応フラグのプロファイルが蓄積されており、
前記制御信号入力部は、
前記映像信号に編集点があり、当該編集点がカット点であるか否かを示す編集点情報を含む制御信号を入力し、当該制御信号から前記編集点情報を抽出し、
前記制御部は、
前記プロファイル蓄積部に蓄積された前記3D対応フラグのプロファイルが前記3D映像コンテンツに対応していることを示しており、かつ前記制御信号入力部により抽出された前記編集点情報がカット点有りを示している場合、前記映像信号の前記カット点を基準にフェードアウトして黒画面へ移行した後、当該黒画面からフェードインする黒フェード挿入を前記加工内容として決定し、
前記映像加工部は、
前記制御部により決定された前記加工内容に応じて、前記映像信号に対して前記黒フェード挿入の加工を行い、前記加工後の映像信号を生成する、ことを特徴とする映像処理装置。 In the video processing apparatus according to claim 1 ,
The video signal is used as a signal for 3D video content.
In the profile storage part,
A profile of a 3D compatible flag indicating whether or not the display device supports the 3D video content is accumulated.
The control signal input unit is
The video signal has an edit point, a control signal including edit point information indicating whether or not the edit point is a cut point is input, and the edit point information is extracted from the control signal.
The control unit
The profile of the 3D-compatible flag stored in the profile storage unit indicates that the profile corresponds to the 3D video content, and the edit point information extracted by the control signal input unit indicates that there is a cut point. If so, the black fade insertion that fades in from the black screen after fading out based on the cut point of the video signal and shifting to the black screen is determined as the processing content.
The video processing unit
An image processing apparatus characterized in that the black fade insertion process is performed on the video signal according to the processing content determined by the control unit, and the processed video signal is generated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017235699A JP7018752B2 (en) | 2017-12-08 | 2017-12-08 | Video processing equipment and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017235699A JP7018752B2 (en) | 2017-12-08 | 2017-12-08 | Video processing equipment and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019103099A JP2019103099A (en) | 2019-06-24 |
JP7018752B2 true JP7018752B2 (en) | 2022-02-14 |
Family
ID=66977214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017235699A Active JP7018752B2 (en) | 2017-12-08 | 2017-12-08 | Video processing equipment and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7018752B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000261694A (en) | 1999-03-09 | 2000-09-22 | Toshiba Video Products Japan Kk | Video flicker preventing device |
JP2004246725A (en) | 2003-02-14 | 2004-09-02 | Sharp Corp | Display device, display control device, display control program, and computer-readable recording medium recording the same |
JP2007184740A (en) | 2006-01-06 | 2007-07-19 | Nippon Hoso Kyokai <Nhk> | Content transmitter and content output device |
JP2008301150A (en) | 2007-05-31 | 2008-12-11 | Sharp Corp | Image display apparatus and method |
JP2011234238A (en) | 2010-04-28 | 2011-11-17 | Sharp Corp | Video display device, video display control method, program for video display device, and computer-readable recording medium |
WO2012057164A1 (en) | 2010-10-25 | 2012-05-03 | パナソニック株式会社 | Encoding method, display device, decoding method |
JP2015066262A (en) | 2013-09-30 | 2015-04-13 | 富士フイルム株式会社 | Image processor, image processing system, and image processing method |
JP2017103745A (en) | 2015-11-24 | 2017-06-08 | 三菱電機株式会社 | Video reproduction device and video reproduction method |
-
2017
- 2017-12-08 JP JP2017235699A patent/JP7018752B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000261694A (en) | 1999-03-09 | 2000-09-22 | Toshiba Video Products Japan Kk | Video flicker preventing device |
JP2004246725A (en) | 2003-02-14 | 2004-09-02 | Sharp Corp | Display device, display control device, display control program, and computer-readable recording medium recording the same |
JP2007184740A (en) | 2006-01-06 | 2007-07-19 | Nippon Hoso Kyokai <Nhk> | Content transmitter and content output device |
JP2008301150A (en) | 2007-05-31 | 2008-12-11 | Sharp Corp | Image display apparatus and method |
JP2011234238A (en) | 2010-04-28 | 2011-11-17 | Sharp Corp | Video display device, video display control method, program for video display device, and computer-readable recording medium |
WO2012057164A1 (en) | 2010-10-25 | 2012-05-03 | パナソニック株式会社 | Encoding method, display device, decoding method |
JP2015066262A (en) | 2013-09-30 | 2015-04-13 | 富士フイルム株式会社 | Image processor, image processing system, and image processing method |
JP2017103745A (en) | 2015-11-24 | 2017-06-08 | 三菱電機株式会社 | Video reproduction device and video reproduction method |
Non-Patent Citations (1)
Title |
---|
白石 秀明 Hideaki SHIRAIHSI,光感受性てんかん Photosensitive epilepsy,医学のあゆみ IGAKU NO AYUMI ,第193巻,三浦 裕士 医歯薬出版株式会社,2000年05月06日,pp.538-543 |
Also Published As
Publication number | Publication date |
---|---|
JP2019103099A (en) | 2019-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5321694B2 (en) | System and method for providing closed captioning to 3D images | |
US9565415B2 (en) | Method of presenting three-dimensional content with disparity adjustments | |
JP5750505B2 (en) | 3D image error improving method and apparatus | |
JP4436762B2 (en) | 3D image generation apparatus and 3D image distribution method | |
KR101975247B1 (en) | Image processing apparatus and image processing method thereof | |
US20100091091A1 (en) | Broadcast display apparatus and method for displaying two-dimensional image thereof | |
US8175162B2 (en) | Image processing apparatus, image processing method, and program | |
JP2013527646A5 (en) | ||
KR20120039767A (en) | Recommended depth value for overlaying a graphics object on three-dimensional video | |
JPWO2010122775A1 (en) | Video processing apparatus and video processing method | |
US20120075291A1 (en) | Display apparatus and method for processing image applied to the same | |
US20130002656A1 (en) | System and method for combining 3d text with 3d content | |
RU2589870C2 (en) | 3d image data transmission | |
JP5599063B2 (en) | Display control apparatus, display control method, and program | |
US20120268557A1 (en) | 3d image processing apparatus and method for adjusting 3d effect thereof | |
JP7018752B2 (en) | Video processing equipment and programs | |
JP2012186652A (en) | Electronic apparatus, image processing method and image processing program | |
US20120281073A1 (en) | Customization of 3DTV User Interface Position | |
JP2011223543A (en) | Quasi stereoscopic image signal creating device, quasi stereoscopic image signal creating method, and information multiplexer | |
KR101796663B1 (en) | Image processing apparatus and control method thereof | |
US20130047186A1 (en) | Method to Enable Proper Representation of Scaled 3D Video | |
US20130120529A1 (en) | Video signal processing device and video signal processing method | |
US11930207B2 (en) | Display device, signal processing device, and signal processing method | |
KR20120087738A (en) | A system, a method for displaying a 3-dimensional image and an apparatus for processing a 3-dimensional image | |
KR20120020306A (en) | Apparatus and method for displaying of stereo scope images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211013 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7018752 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |