JP7018752B2 - Video processing equipment and programs - Google Patents

Video processing equipment and programs Download PDF

Info

Publication number
JP7018752B2
JP7018752B2 JP2017235699A JP2017235699A JP7018752B2 JP 7018752 B2 JP7018752 B2 JP 7018752B2 JP 2017235699 A JP2017235699 A JP 2017235699A JP 2017235699 A JP2017235699 A JP 2017235699A JP 7018752 B2 JP7018752 B2 JP 7018752B2
Authority
JP
Japan
Prior art keywords
video
unit
video signal
image
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017235699A
Other languages
Japanese (ja)
Other versions
JP2019103099A (en
Inventor
俊枝 三須
慎平 根本
大輝 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2017235699A priority Critical patent/JP7018752B2/en
Publication of JP2019103099A publication Critical patent/JP2019103099A/en
Application granted granted Critical
Publication of JP7018752B2 publication Critical patent/JP7018752B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、映像処理装置及びプログラムに関し、特に、映像を加工することにより、映像観視時の視覚的負担を軽減する技術に関する。 The present invention relates to a video processing apparatus and a program, and more particularly to a technique for reducing a visual burden when viewing a video by processing the video.

従来、テレビ番組において点滅または動揺を含む映像を観視したり、3Dテレビにて大きな視差、視差の変化、奥行きの変化またはカットを含む映像を観視したりすることがある。このような映像に起因して、観視者が疲労し違和を感じるという問題が指摘されている。 Conventionally, an image including blinking or shaking may be observed in a television program, or an image including a large parallax, a change in parallax, a change in depth, or a cut may be observed on a 3D television. It has been pointed out that the viewer feels tired and uncomfortable due to such images.

これらの問題のうち、映像の点滅に起因する違和感を軽減するための技術が開示されている(例えば特許文献1を参照)。この技術は、映像が所定の周波数範囲のフリッカを含む場合に、当該映像に対して画像処理を施し、フリッカの度合いを抑制するものである。 Among these problems, a technique for reducing a sense of discomfort caused by blinking of an image is disclosed (see, for example, Patent Document 1). In this technique, when an image contains flicker in a predetermined frequency range, image processing is performed on the image to suppress the degree of flicker.

また、3Dテレビを観視する際の違和感を軽減するために、黒フェードを挿入する技術(以下、黒フェード挿入という。)が知られている。この技術は、例えば3D映像コンテンツを提供するビデオゲーム機等において、視点の異なる映像が時間遷移する際に、一旦、黒画面へとフェードアウトした後、別視点の3D映像へとフェードインするものである。 Further, a technique for inserting a black fade (hereinafter referred to as black fade insertion) is known in order to reduce a sense of discomfort when viewing a 3D television. This technology, for example, in a video game machine that provides 3D video content, fades out to a black screen and then fades in to 3D video from a different viewpoint when a video with a different viewpoint changes in time. be.

一方で、観視者または観視環境に応じて、コンテンツの表現形態を変換する技術が開示されている(例えば特許文献2を参照)。この技術は、受信装置において、送信装置から送信されたコンテンツ、代替提示コンテンツ及びメタデータを受信し、メタデータと視聴プロファイル及び視聴環境プロファイルとを比較することで、代替提示コンテンツを導出し、コンテンツの表現形態を変換するものである。 On the other hand, a technique for converting the expression form of the content according to the viewer or the viewing environment is disclosed (see, for example, Patent Document 2). In the receiving device, the receiving device receives the content, the alternative presentation content and the metadata transmitted from the transmitting device, and compares the metadata with the viewing profile and the viewing environment profile to derive the alternative presentation content and provide the content. It transforms the expression form of.

特許第4580347号公報Japanese Patent No. 4580347 特許第4580345号公報Japanese Patent No. 4580345

点滅または視点の切り替え等の映像に起因する違和感の度合いは絶対的なものではなく、観視者の年齢または体質、観視環境、映像の内容等によって異なるものである。これは、映像に起因する視覚的負担の度合いについても同様である。 The degree of discomfort caused by the image such as blinking or switching of the viewpoint is not absolute, and varies depending on the age or constitution of the viewer, the viewing environment, the content of the image, and the like. This also applies to the degree of visual burden caused by the image.

観視環境は、例えば視距離、周囲の明るさ、画面の大きさ、画面の明るさ、3D映像コンテンツに対応しているか否か等である。また、映像の内容は、動きの大小、映像遷移の頻度、字幕の有無等である。 The viewing environment is, for example, viewing distance, ambient brightness, screen size, screen brightness, and whether or not it corresponds to 3D video content. The content of the video is the magnitude of movement, the frequency of video transitions, the presence or absence of subtitles, and the like.

例えば映像の点滅は、小児に対して視覚的負担の度合いが高いのに対し、大人に対してはさほど高くない。前述の特許文献1の技術を用いることにより、所定の基準を逸脱する映像については画一的に画像処理が施されるため、視覚的負担の度合いを低くすることができる。しかし、観視者の年齢等によっては、画像処理が施された映像は必要以上のフリッカの映像となってしまい、映像の躍動感を損失してしまう可能性がある。 For example, blinking images is more visually burdensome for children, but not so much for adults. By using the above-mentioned technique of Patent Document 1, since image processing is uniformly performed on an image that deviates from a predetermined standard, the degree of visual burden can be reduced. However, depending on the age of the viewer and the like, the image processed image may become a flicker image more than necessary, and the dynamic feeling of the image may be lost.

また、3D映像コンテンツに対応するビデオゲーム機には、視差を調整する機能を有するものがある。このビデオゲーム機は、視点の異なる映像が時間遷移する際に、視差を調整し、視差を抑制した映像(例えば、視差無しの2次元映像)を生成する。 In addition, some video game machines that support 3D video content have a function of adjusting parallax. This video game machine adjusts the parallax and generates an image (for example, a two-dimensional image without parallax) in which the parallax is suppressed when the images having different viewpoints change in time.

このような視差調整機能を用いることにより、視点の異なる映像が時間遷移する際の問題を、黒フェード挿入機能を用いることなく解決することができる。つまり、視差調整機能により映像の視差を抑制することで、カット編集された映像が時間遷移する際の観視者が受ける違和感を低減することができるものと想定される。 By using such a parallax adjustment function, it is possible to solve the problem when images with different viewpoints change in time without using the black fade insertion function. That is, it is assumed that by suppressing the parallax of the image by the parallax adjustment function, it is possible to reduce the discomfort that the viewer receives when the cut-edited image changes in time.

また、映像に起因する視覚的負担の度合いを軽減するために、前述の特許文献2の技術を用いることが想定される。この技術は、観視者または観視環境に対応すると共に、制作者の意図を反映したコンテンツを提供することを目的とするものである。 Further, in order to reduce the degree of visual burden caused by the image, it is assumed that the above-mentioned technique of Patent Document 2 is used. This technology aims to provide content that reflects the intention of the creator while responding to the viewer or the viewing environment.

この技術では、制作者の意図を反映するために、予め送信装置から受信装置へ、代替提示コンテンツ及びメタデータを送信する必要がある。受信装置は、受信したメタデータと、予め設定された視聴プロファイル及び視聴環境プロファイルとを比較することで、代替提示コンテンツを導出し、コンテンツの表現形態を変換する。これにより、元の映像を、観視者及び観視環境に応じた映像に加工することができ、観視者の視覚的負担を軽減することができる。 In this technique, in order to reflect the intention of the creator, it is necessary to transmit the alternative presentation content and the metadata from the transmitting device to the receiving device in advance. The receiving device derives the alternative presentation content and converts the expression form of the content by comparing the received metadata with the preset viewing profile and viewing environment profile. As a result, the original image can be processed into an image according to the viewer and the viewing environment, and the visual burden on the viewer can be reduced.

しかしながら、特許文献2の技術では、受信装置にて映像加工の有無、加工内容等を判定するために、送信装置は、代替提示コンテンツ及びメタデータを生成して送信する必要がある。このため、送信装置は処理負荷が高いという問題があった。また、受信装置は、映像加工の有無、加工内容等を判定するために、代替提示コンテンツ及びメタデータを用いることが必須であり、処理負荷が高いという問題があった。 However, in the technique of Patent Document 2, in order to determine the presence / absence of video processing, the processing content, and the like on the receiving device, the transmitting device needs to generate and transmit alternative presentation content and metadata. Therefore, the transmitting device has a problem that the processing load is high. Further, the receiving device has a problem that it is indispensable to use alternative presentation contents and metadata in order to determine the presence / absence of video processing, the processing contents, and the like, and the processing load is high.

また、特許文献2の技術では、映像の加工処理は、制作者の意図が反映された代替提示コンテンツの範囲内で行われることとなり、代替提示コンテンツによっては、観視者及び観視環境を十分に反映することができない場合がある。このように、特許文献2の技術では、映像の加工処理が代替提示コンテンツの制限を受けてしまい、映像に起因する視覚的負担を十分に軽減することができない場合があるという問題があった。 Further, in the technique of Patent Document 2, the processing of the video is performed within the range of the alternative presentation content that reflects the intention of the creator, and depending on the alternative presentation content, the viewer and the viewing environment are sufficiently satisfied. It may not be possible to reflect on. As described above, the technique of Patent Document 2 has a problem that the processing of the video is limited by the alternative presentation content, and the visual burden caused by the video may not be sufficiently reduced.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、映像を観視する観視者の視覚的負担を、簡易な構成にて確実に軽減可能な映像処理装置及びプログラムを提供することにある。 Therefore, the present invention has been made to solve the above-mentioned problems, and an object thereof is an image processing device capable of reliably reducing the visual burden on a viewer who observes an image with a simple configuration. To provide a program.

前記課題を解決するために、請求項1の映像処理装置は、映像信号を入力して加工し、加工後の映像信号を生成する映像処理装置において、前記加工後の映像信号が表示される表示デバイスの映像を観視する観視者に関する情報、前記加工後の映像信号が表示される前記表示デバイスに関する情報、または前記観視者に関する情報及び前記表示デバイスに関する情報がプロファイルとして蓄積されたプロファイル蓄積部と、前記映像信号を解析し、映像の変化の特徴を示す解析結果を生成する映像解析部と、前記映像信号を加工する際に補助となる補助データを含む制御信号を入力し、当該制御信号から前記補助データを抽出する制御信号入力部と、前記映像解析部により生成された前記解析結果、前記プロファイル蓄積部に蓄積された前記プロファイル、及び前記制御信号入力部により抽出された前記補助データに基づいて、前記映像信号の加工内容を決定する制御部と、前記制御部により決定された前記加工内容に応じて、前記映像信号を加工し、前記加工後の映像信号を生成する映像加工部と、を備えたことを特徴とする。 In order to solve the above-mentioned problems, the video processing apparatus according to claim 1 is a video processing apparatus that inputs and processes a video signal and generates a processed video signal , and displays the processed video signal. A profile in which information about a viewer viewing a video of a device, information about the display device on which the processed video signal is displayed, or information about the viewer and information about the display device are accumulated as a profile. The storage unit, the video analysis unit that analyzes the video signal and generates the analysis result showing the characteristics of the change in the video, and the control signal including the auxiliary data that assists in processing the video signal are input and the control signal is input. The control signal input unit that extracts the auxiliary data from the control signal, the analysis result generated by the video analysis unit , the profile stored in the profile storage unit , and the extraction extracted by the control signal input unit. An image that processes the video signal according to the control unit that determines the processing content of the video signal based on the auxiliary data and the processing content determined by the control unit, and generates the processed video signal. It is characterized by having a processed part.

また、請求項の映像処理装置は、映像信号を入力して加工し、加工後の映像信号を生成する映像処理装置において、前記加工後の映像信号が表示される表示デバイスの映像を観視する観視者に関する情報、前記加工後の映像信号が表示される前記表示デバイスに関する情報、または前記観視者に関する情報及び前記表示デバイスに関する情報がプロファイルとして蓄積されたプロファイル蓄積部と、前記映像信号を解析し、映像の変化の特徴を示す解析結果を生成する映像解析部と、前記映像解析部により生成された前記解析結果、及び前記プロファイル蓄積部に蓄積された前記プロファイルに基づいて、前記映像信号の加工内容を決定する制御部と、前記制御部により決定された前記加工内容に応じて、前記映像信号を加工し、前記加工後の映像信号を生成する映像加工部と、を備え、前記映像信号を3D映像コンテンツの信号とし、前記プロファイル蓄積部には、前記表示デバイスが前記3D映像コンテンツに対応しているか否かを示す3D対応フラグのプロファイルが蓄積されており、前記映像解析部が、前記映像信号の画素値列からカット点を検出し、当該カット点の有無を示すカットフラグを生成し、前記制御部が、前記プロファイル蓄積部に蓄積された前記3D対応フラグのプロファイルが前記3D映像コンテンツに対応していることを示しており、かつ前記映像解析部により生成された前記カットフラグがカット点有りを示している場合、前記映像信号の前記カット点を基準にフェードアウトして黒画面へ移行した後、当該黒画面からフェードインする黒フェード挿入を前記加工内容として決定し、前記映像加工部が、前記制御部により決定された前記加工内容に応じて、前記映像信号に対して前記黒フェード挿入の加工を行い、前記加工後の映像信号を生成する、ことを特徴とする。 Further, the video processing device according to claim 2 is a video processing device that inputs and processes a video signal and generates a processed video signal, and observes a video of a display device on which the processed video signal is displayed. Information about the viewer, information about the display device on which the processed video signal is displayed, or a profile storage unit in which information about the viewer and information about the display device are stored as a profile, and the video signal. Based on the image analysis unit that analyzes the image and generates the analysis result showing the characteristics of the change in the image, the analysis result generated by the image analysis unit, and the profile accumulated in the profile storage unit. The control unit for determining the processing content of the signal and the image processing unit for processing the video signal and generating the processed video signal according to the processing content determined by the control unit are provided. The video signal is a signal of 3D video content, and the profile storage unit stores a profile of a 3D compatible flag indicating whether or not the display device supports the 3D video content, and the video analysis unit stores the profile. , A cut point is detected from the pixel value string of the video signal, a cut flag indicating the presence or absence of the cut point is generated, the control unit generates a profile of the 3D compatible flag stored in the profile storage unit, and the profile of the 3D compatible flag is the 3D. When it indicates that it corresponds to the video content and the cut flag generated by the video analysis unit indicates that there is a cut point, it fades out based on the cut point of the video signal and a black screen is displayed. After shifting to, the black fade insertion that fades in from the black screen is determined as the processing content, and the video processing unit determines the processing content determined by the control unit with respect to the video signal. It is characterized in that a black fade insertion process is performed to generate a video signal after the process.

また、請求項の映像処理装置は、請求項に記載の映像処理装置において、前記映像信号を3D映像コンテンツの信号とし、前記プロファイル蓄積部には、前記表示デバイスが前記3D映像コンテンツに対応しているか否かを示す3D対応フラグのプロファイルが蓄積されており、前記制御信号入力部が、前記映像信号に編集点があり、当該編集点がカット点であるか否かを示す編集点情報を含む制御信号を入力し、当該制御信号から前記編集点情報を抽出し、前記制御部が、前記プロファイル蓄積部に蓄積された前記3D対応フラグのプロファイルが前記3D映像コンテンツに対応していることを示しており、かつ前記制御信号入力部により抽出された前記編集点情報がカット点有りを示している場合、前記映像信号の前記カット点を基準にフェードアウトして黒画面へ移行した後、当該黒画面からフェードインする黒フェード挿入を前記加工内容として決定し、前記映像加工部が、前記制御部により決定された前記加工内容に応じて、前記映像信号に対して前記黒フェード挿入の加工を行い、前記加工後の映像信号を生成する、ことを特徴とする。 Further, in the video processing device according to claim 3 , the video processing device according to claim 3 uses the video signal as a signal of 3D video content, and the display device corresponds to the 3D video content in the profile storage unit. The profile of the 3D correspondence flag indicating whether or not the video signal is set is accumulated, and the control signal input unit has an edit point information indicating whether or not the video signal has an edit point and the edit point is a cut point. The edit point information is extracted from the control signal by inputting the control signal including When the edit point information extracted by the control signal input unit indicates that there is a cut point, the video signal is faded out based on the cut point to shift to a black screen, and then the screen is displayed. The black fade insertion that fades in from the black screen is determined as the processing content, and the video processing unit processes the black fade insertion with respect to the video signal according to the processing content determined by the control unit. It is characterized in that the video signal after the processing is generated.

さらに、請求項のプログラムは、コンピュータを、請求項1からまでのいずれか一項に記載の映像処理装置として機能させることを特徴とする。 Further, the program of claim 4 is characterized in that the computer functions as the video processing apparatus according to any one of claims 1 to 3 .

以上のように、本発明によれば、映像を観視する観視者の視覚的負担を、簡易な構成にて確実に軽減することが可能となる。 As described above, according to the present invention, it is possible to surely reduce the visual burden on the viewer who views the image with a simple configuration.

本発明の実施形態による映像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus by embodiment of this invention. 制御部の処理例を示すフローチャートである。It is a flowchart which shows the processing example of a control part. 映像加工モードM=1の場合に、点滅を含む映像に対して時間方向平滑化の映像加工を行う例を説明する図である。It is a figure explaining the example which performs the image processing of time direction smoothing on the image including blinking in the case of the image processing mode M = 1. 映像加工モードM=2の場合に、カットによる場面転換を含む映像に対して黒フェード挿入の映像加工を行う例を説明する図である。It is a figure explaining an example which performs the image processing of black fade insertion for the image including the scene change by a cut in the case of the image processing mode M = 2. 本発明の実施形態における他の第1構成例を示すブロック図である。It is a block diagram which shows the other 1st structural example in embodiment of this invention. 本発明の実施形態における他の第2構成例を示すブロック図である。It is a block diagram which shows the other 2nd structural example in embodiment of this invention.

以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明の映像処理装置は、映像信号から映像の変化の特徴を示す解析結果を生成し、解析結果、観視者の情報及び観視環境の情報に基づいて、映像の加工内容を決定することを特徴とする。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. The image processing apparatus of the present invention generates an analysis result showing the characteristics of changes in the image from the image signal, and determines the processing content of the image based on the analysis result, the information of the viewer, and the information of the viewing environment. It is characterized by.

これにより、映像処理装置は、映像の加工内容を決定する際に、映像信号の制作者の意図が反映されたコンテンツデータ(前述の特許文献2では代替提示コンテンツ)及びメタデータを用いる必要がない。したがって、このようなコンテンツデータ及びメタデータを生成したり、送受信したりする必要がないから、処理負荷を低減することができる。 As a result, the video processing device does not need to use content data (alternatively presented content in the above-mentioned Patent Document 2) and metadata that reflect the intention of the creator of the video signal when determining the processing content of the video. .. Therefore, since it is not necessary to generate or send / receive such content data and metadata, the processing load can be reduced.

また、映像の加工内容は、映像信号の制作者の意図が反映されたコンテンツデータ及びメタデータの範囲で決定されることがなく、映像信号の解析結果、観視者の情報及び観視環境の情報に基づいて決定される。これにより、映像の加工内容は、映像信号の制作者の意図よりも、観視者の情報及び観視環境の情報を反映した内容となる。したがって、映像を観視する観視者の視覚的負担を、簡易な構成にて確実に軽減することが可能となる。 In addition, the processing content of the video is not determined within the range of content data and metadata that reflects the intention of the creator of the video signal, and the analysis result of the video signal, the information of the viewer, and the viewing environment. Determined based on information. As a result, the processed content of the video reflects the information of the viewer and the information of the viewing environment rather than the intention of the creator of the video signal. Therefore, it is possible to reliably reduce the visual burden on the viewer who views the image with a simple configuration.

〔映像処理装置〕
次に、本発明の実施形態による映像処理装置について説明する。図1は、本発明の実施形態による映像処理装置の構成例を示すブロック図である。この映像処理装置1は、映像受信部(映像信号入力部)11、データ受信部(制御信号入力部)12、映像解析部13、プロファイル蓄積部14、制御部15及び映像加工部16を備えている。
[Video processing equipment]
Next, the image processing apparatus according to the embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration example of a video processing apparatus according to an embodiment of the present invention. The video processing device 1 includes a video receiving unit (video signal input unit) 11, a data receiving unit (control signal input unit) 12, a video analysis unit 13, a profile storage unit 14, a control unit 15, and a video processing unit 16. There is.

映像受信部11は、図示しない送信装置により送信された映像信号を受信し、映像信号を時空間的な画素値列Iに変換する。そして、映像受信部11は、映像信号の画素値列Iを映像解析部13及び映像加工部16に出力する。 The video receiving unit 11 receives a video signal transmitted by a transmission device (not shown) and converts the video signal into a spatiotemporal pixel value sequence I. Then, the video receiving unit 11 outputs the pixel value sequence I of the video signal to the video analysis unit 13 and the video processing unit 16.

尚、映像受信部11の機能には、映像信号の復調、及び圧縮されたビットストリームの復号も含まれる。また、映像受信部11は、時系列の2次元画像を動画像の映像信号として受信するようにしてもよいし、複数の視点の異なる動画像(多眼立体映像)の映像信号を受信するようにしてもよい。また、映像受信部11は、映像信号が格納された図示しない蓄積媒体から、映像信号を読み出すようにしてもよい。以下、時刻t及び画像座標(x,y)として、映像受信部11の出力する画素値列IをI(t,x,y)とする。 The functions of the video receiving unit 11 include demodulation of the video signal and decoding of the compressed bit stream. Further, the video receiving unit 11 may receive a time-series two-dimensional image as a video signal of a moving image, or may receive video signals of moving images (multicular stereoscopic video) having different viewpoints from a plurality of viewpoints. You may do it. Further, the video receiving unit 11 may read the video signal from a storage medium (not shown) in which the video signal is stored. Hereinafter, the pixel value sequence I output by the video receiving unit 11 is defined as I (t, x, y) as the time t and the image coordinates (x, y).

データ受信部12は、映像信号及び音声信号以外に伝送または蓄積されるデータを制御信号として受信し、制御信号からデータ(補助データ)を抽出し、抽出したデータを制御部15に出力する。 The data receiving unit 12 receives data transmitted or stored in addition to the video signal and the audio signal as a control signal, extracts data (auxiliary data) from the control signal, and outputs the extracted data to the control unit 15.

制御信号には、映像信号を加工する際に補助となる補助データが含まれる。例えば補助データは、映像の編集点(場面転換の時刻、カット、フェード等の映像効果の種類)、映像酔いまたは光感受性発作のリスクを定量化した数値データ、コンテンツのジャンル(ニュース番組、スポーツ番組、娯楽番組、教育番組等の種別)、権利情報(著作権者、映像の加工処理の可否、加工処理が許可される場合の加工の種類)、観視対象年齢等である。 The control signal includes auxiliary data that assists in processing the video signal. For example, auxiliary data includes video editing points (types of video effects such as scene change times, cuts, and fades), numerical data that quantifies the risk of video sickness or light-sensitive attacks, and content genres (news programs, sports programs). , Types of entertainment programs, educational programs, etc.), rights information (copyright holder, availability of video processing, type of processing when processing is permitted), viewing target age, etc.

ここでは、データ受信部12は、制御信号から、映像の加工処理の可否を示す権利情報を抽出し、これを加工可否情報Rとする。また、データ受信部12は、制御信号から、現時点の映像信号に編集点が存在するか否かを示す情報、及び編集点が存在する場合に当該編集点がカット点であるか否かを示す情報を抽出し、これを編集点情報Eとする。データ受信部12は、加工可否情報R及び編集点情報Eのデータを制御部15に出力する。 Here, the data receiving unit 12 extracts the right information indicating whether or not the video processing is possible from the control signal, and uses this as the processing possibility information R. Further, the data receiving unit 12 indicates from the control signal information indicating whether or not the current video signal has an edit point, and if the edit point exists, whether or not the edit point is a cut point. Information is extracted, and this is referred to as edit point information E. The data receiving unit 12 outputs the data of the processability information R and the edit point information E to the control unit 15.

尚、データ受信部12は、制御信号を、データ放送方式における独立PES(Packetized Elementary Stream)、DSM-CC(Digital Storage Media Command and Control)セクション形式、イベントメッセージ伝送方式またはEPG(Electronic Programming Guide:電子番組表)を経路として受信するようにしてもよい。また、データ受信部12は、制御信号を、インターネット等の通信回線を経路として受信するようにしてもよい。また、データ受信部12は、制御信号が格納された図示しない蓄積媒体から、制御信号を読み出すようにしてもよい。 The data receiving unit 12 transmits the control signal to an independent PES (Packetized Elementary Stream), DSM-CC (Digital Storage Media Command and Control) section format in the data broadcasting system, an event message transmission system, or an EPG (Electronic Programming Guide: Electronic). The program guide) may be received as a route. Further, the data receiving unit 12 may receive the control signal via a communication line such as the Internet. Further, the data receiving unit 12 may read the control signal from a storage medium (not shown) in which the control signal is stored.

映像解析部13は、映像受信部11から映像信号の画素値列Iを入力し、映像信号の画素値列Iを解析し、映像を全体として観た場合の時間的な変化の特徴量、空間的な変化の特徴量、または時間的及び空間的な変化の特徴量を示す解析結果を生成する。そして、映像解析部13は、解析結果を制御部15に出力する。 The video analysis unit 13 inputs the pixel value sequence I of the video signal from the video reception unit 11, analyzes the pixel value sequence I of the video signal, and features and spatially changes with time when the video is viewed as a whole. Generates analysis results showing the features of temporal and spatial changes, or the features of temporal and spatial changes. Then, the video analysis unit 13 outputs the analysis result to the control unit 15.

例えば、映像解析部13は、画素値列Iである時系列の画素値からカット点を検出し、カット点の有無を示すフラグを、解析結果として生成する。 For example, the video analysis unit 13 detects a cut point from the time-series pixel values in the pixel value sequence I, and generates a flag indicating the presence or absence of the cut point as an analysis result.

具体的には、映像解析部13は、以下の式に示すように、ある時刻の画素値及び別の時刻(例えば、1フレーム前)の画素値を用いて、画素位置である画像座標(x,y)毎の絶対値差分を算出し、画面内における当該絶対値差分の総和Sを求める。 Specifically, as shown in the following equation, the image analysis unit 13 uses the pixel value at a certain time and the pixel value at another time (for example, one frame before) to obtain the image coordinates (x) which are the pixel positions. , Y) Calculate the absolute value difference for each, and obtain the total S of the absolute value difference in the screen.

そして、映像解析部13は、絶対値差分の総和Sが所定の閾値θ(θは0以上の実数)を超えている場合、カット点有りを示すカット検出値(カットフラグ)C=1を設定する。また、映像解析部13は、絶対値差分の総和Sが所定の閾値θを超えていない場合、カット点無しを示すカット検出値C=0を設定する。

Figure 0007018752000001
Then, when the total sum S of the absolute value differences exceeds a predetermined threshold value θ (θ is a real number of 0 or more), the video analysis unit 13 sets a cut detection value (cut flag) C = 1 indicating that there is a cut point. do. Further, when the total sum S of the absolute value differences does not exceed the predetermined threshold value θ, the video analysis unit 13 sets the cut detection value C = 0 indicating that there is no cut point.
Figure 0007018752000001

また、例えば、映像解析部13は、画素値列Iである時系列の画素値から、映像のフリッカ(反復的な輝度変化)を検出し、フリッカの有無を示すフラグを、解析結果として生成する。この場合、映像解析部13は、フリッカの程度を示す検出値を解析結果として生成するようにしてもよい。 Further, for example, the video analysis unit 13 detects video flicker (repetitive brightness change) from the time-series pixel values in the pixel value sequence I, and generates a flag indicating the presence or absence of flicker as the analysis result. .. In this case, the video analysis unit 13 may generate a detection value indicating the degree of flicker as an analysis result.

具体的には、映像解析部13は、画素位置である画像座標(x,y)毎に、画素値列Iから輝度変化値を算出し、輝度変化値が所定値を超える場合(例えば、輝度変化値が10IRE(Institute of Radio Engineers)を超える場合)の頻度を求める。そして、映像解析部13は、頻度が所定値を超える(例えば、頻度が1秒間に3回を超える)画素(点滅画素)の面積を求め、画像内の面積割合(フレーム内の総画素数に対する点滅画素の割合)を求める。 Specifically, the image analysis unit 13 calculates a luminance change value from the pixel value sequence I for each image coordinate (x, y) which is a pixel position, and when the luminance change value exceeds a predetermined value (for example, luminance). The frequency of change (when the change value exceeds 10IRE (Institute of Radio Engineers)) is calculated. Then, the image analysis unit 13 obtains the area of pixels (blinking pixels) whose frequency exceeds a predetermined value (for example, the frequency exceeds 3 times per second), and the area ratio in the image (relative to the total number of pixels in the frame). (Percentage of blinking pixels) is calculated.

映像解析部13は、面積割合が25%以下の場合、フリッカ検出値F=0を設定し、面積割合が25%を超える場合、その面積割合をフリッカ検出値Fに設定する。また、映像解析部13は、面積割合が25%以下の場合、フリッカフラグ=0を設定し、面積割合が25%を超える場合、フリッカフラグ=1を設定する。 The image analysis unit 13 sets the flicker detection value F = 0 when the area ratio is 25% or less, and sets the area ratio to the flicker detection value F when the area ratio exceeds 25%. Further, the video analysis unit 13 sets the flicker flag = 0 when the area ratio is 25% or less, and sets the flicker flag = 1 when the area ratio exceeds 25%.

また、例えば、映像受信部11が多眼立体映像の映像信号(3D映像コンテンツの信号)を受信する場合、映像解析部13は、視点毎の画素値列Iから視差の時間変化を検出し、これを解析結果として生成する。 Further, for example, when the video receiving unit 11 receives a video signal of a multi-lens stereoscopic video (signal of 3D video content), the video analysis unit 13 detects a time change of the parallax from the pixel value sequence I for each viewpoint. This is generated as an analysis result.

具体的には、映像解析部13は、ある時刻において、左眼から観た画面全体の画素値と右眼から観た画面全体の画素値との間の差に基づいて視差を求め、別の時刻において、同様に視差を求める。そして、映像解析部13は、ある時刻の視差及び別の時刻の視差から視差の変化量を求める。映像解析部13は、視差の変化量が所定の閾値を超えている場合、カット点有りを示すカット検出値C=1を設定する。また、映像解析部13は、視差の変化量が所定の閾値を超えていない場合、カット点無しを示すカット検出値C=0を設定する。 Specifically, the image analysis unit 13 obtains parallax based on the difference between the pixel value of the entire screen viewed from the left eye and the pixel value of the entire screen viewed from the right eye at a certain time, and another parallax is obtained. At the time, the parallax is calculated in the same way. Then, the image analysis unit 13 obtains the amount of change in the parallax from the parallax at a certain time and the parallax at another time. When the amount of change in parallax exceeds a predetermined threshold value, the image analysis unit 13 sets a cut detection value C = 1 indicating that there is a cut point. Further, the image analysis unit 13 sets a cut detection value C = 0 indicating that there is no cut point when the amount of change in parallax does not exceed a predetermined threshold value.

また、例えば、映像解析部13は、画素値列Iである時系列の画素値から、色替わり点を検出し、色変わり点の有無を示すフラグを、解析結果として生成する。 Further, for example, the video analysis unit 13 detects a color change point from the time-series pixel values in the pixel value sequence I, and generates a flag indicating the presence or absence of the color change point as an analysis result.

ここでは、映像解析部13は、画素値列Iからカット点を検出し、カット点の有無を示すカット検出値Cを解析結果として生成すると共に、画素値列Iからフリッカを検出し、フリッカの程度を示すフリッカ検出値Fを解析結果として生成する。そして、映像解析部13は、カット検出値C及びフリッカ検出値Fの解析結果を制御部15に出力する。 Here, the video analysis unit 13 detects a cut point from the pixel value sequence I, generates a cut detection value C indicating the presence or absence of the cut point as an analysis result, and detects a flicker from the pixel value sequence I to detect the flicker. A flicker detection value F indicating the degree is generated as an analysis result. Then, the video analysis unit 13 outputs the analysis results of the cut detection value C and the flicker detection value F to the control unit 15.

プロファイル蓄積部14は、予め観視者毎に個別に設定された観視者情報、及び映像処理装置1の単体毎(または機種毎)に設定された端末情報がプロファイルとして蓄積されている。プロファイル蓄積部14は、観視者情報及び端末情報のプロファイルを制御部15に出力する。 The profile storage unit 14 stores viewer information individually set for each viewer in advance and terminal information set for each unit (or model) of the video processing device 1 as a profile. The profile storage unit 14 outputs the profile of the viewer information and the terminal information to the control unit 15.

観視者情報は、観視者の年齢、視距離、嗜好(好みの番組ジャンル等)、光感受性発作のリスクの有無、映像酔いのリスクの有無等である。 The viewer information includes the viewer's age, viewing distance, preference (favorite program genre, etc.), presence / absence of risk of photosensitive epilepsy, presence / absence of risk of video sickness, and the like.

端末情報は、映像処理装置1が3D映像コンテンツに対応しているか否か(3Dテレビであるか否か)、映像処理装置1の種類(LCD(Liquid Crystal Display:液晶表示装置)、OLED(Organic Light Emitting Diode:有機発光ダイオード)、PDP(Plasma Display Panel:プラズマディスプレイパネル)、CRT(Cathode Ray Tube:陰極線管)等)、表示デバイスの最高輝度、画面サイズ等である。 The terminal information includes whether or not the video processing device 1 supports 3D video content (whether or not it is a 3D television), the type of the video processing device 1 (LCD (Liquid Crystal Display), and OLED (Organic). Light Emitting Diode, PDP (Plasma Display Panel), CRT (Cathode Ray Tube), etc.), maximum brightness of display device, screen size, etc.

尚、プロファイル蓄積部14は、観視者情報のプロファイルのみを蓄積するようにしてもよいし、端末情報のプロファイルのみを蓄積するようにしてもよい。 The profile storage unit 14 may store only the profile of the viewer information, or may store only the profile of the terminal information.

ここでは、プロファイル蓄積部14は、観視者に光感受性発作のリスクがあるかないかを示す光感受性発作リスクフラグPの観視者情報、及び映像処理装置1が3D映像コンテンツに対応しているか否かを示す3D対応フラグDの端末情報をプロファイルとして制御部15に出力する。 Here, the profile storage unit 14 indicates the viewer information of the photosensitive epilepsy risk flag P indicating whether or not the viewer is at risk of photosensitive epilepsy, and whether the video processing device 1 corresponds to 3D video content. The terminal information of the 3D correspondence flag D indicating whether or not it is output is output to the control unit 15 as a profile.

制御部15は、データ受信部12からデータを入力すると共に、映像解析部13から解析結果を入力し、さらにプロファイル蓄積部14からプロファイルを入力する。そして、制御部15は、データ、解析結果及びプロファイルに基づいて、映像受信部11が受信した映像信号に適用する映像の加工内容を決定し、映像の加工内容を示す制御値を映像加工部16に出力する。例えば、制御部15は、場合分け(if-then)ルールにより、映像の加工内容を決定する。 The control unit 15 inputs data from the data receiving unit 12, inputs the analysis result from the video analysis unit 13, and further inputs the profile from the profile storage unit 14. Then, the control unit 15 determines the processing content of the video to be applied to the video signal received by the video receiving unit 11 based on the data, the analysis result, and the profile, and the video processing unit 16 determines the control value indicating the processing content of the video. Output to. For example, the control unit 15 determines the processing content of the image according to the if-then rule.

ここでは、制御部15は、データ受信部12から加工可否情報R及び編集点情報Eのデータを入力し、映像解析部13からカット検出値C及びフリッカ検出値Fの解析結果を入力する。また、制御部15は、プロファイル蓄積部14から光感受性発作リスクフラグP及び3D対応フラグDのプロファイルを入力する。 Here, the control unit 15 inputs the data of the processability information R and the edit point information E from the data receiving unit 12, and inputs the analysis results of the cut detection value C and the flicker detection value F from the video analysis unit 13. Further, the control unit 15 inputs the profiles of the photosensitive epilepsy risk flag P and the 3D-compatible flag D from the profile storage unit 14.

制御部15は、加工可否情報R、編集点情報E、カット検出値C、フリッカ検出値F、光感受性発作リスクフラグP及び3D対応フラグDに基づいて、映像の加工内容を決定する。そして、制御部15は、映像の加工内容を示す映像加工モードMの制御値を映像加工部16に出力する。 The control unit 15 determines the processing content of the image based on the processing possibility information R, the editing point information E, the cut detection value C, the flicker detection value F, the photosensitive epilepsy risk flag P, and the 3D correspondence flag D. Then, the control unit 15 outputs the control value of the image processing mode M indicating the processing content of the image to the image processing unit 16.

(データ受信部12から入力した加工可否情報R及び編集点情報Eのデータ)
加工可否情報Rは、データ受信部12が受信した制御信号に含まれる情報であり、外部から送られてきた情報である。編集点情報Eは、データ受信部12が受信する制御信号として、外部から送られてきた情報であるか否かを示すと共に、外部から送られてきた情報である場合、編集の内容が含まれる。
(Data of processability information R and edit point information E input from the data receiving unit 12)
The processability information R is information included in the control signal received by the data receiving unit 12, and is information sent from the outside. The edit point information E indicates whether or not the information is sent from the outside as the control signal received by the data receiving unit 12, and if the information is sent from the outside, the edited content is included. ..

加工可否情報R=0は、光感受性発作防止目的以外の映像加工が禁止されていることを示し、加工可否情報R=1は、映像加工が許諾されていることを示す。また、編集点情報E=0は、編集点情報が送られてきていないことを示す。さらに、編集点情報E=1は、編集点情報が送られてきており、現時点の映像がカット点でないことを示し、編集点情報E=2は、編集点情報が送られてきており、現時点の映像がカット点であることを示す。 The processability information R = 0 indicates that image processing other than for the purpose of preventing photosensitive epilepsy is prohibited, and the processability information R = 1 indicates that image processing is permitted. Further, the edit point information E = 0 indicates that the edit point information has not been sent. Further, the edit point information E = 1 indicates that the edit point information has been sent, indicating that the current image is not a cut point, and the edit point information E = 2 indicates that the edit point information has been sent, and the present time. Indicates that the image of is a cut point.

(映像解析部13から入力したカット検出値C及びフリッカ検出値Fの解析結果)
カット検出値C及びフリッカ検出値Fは、映像解析部13により映像信号の画素値列Iから生成された解析結果である。カット検出値C=0は、現時点の映像がカット点でないことを示し、カット検出値C=1は、現時点の映像がカット点であることを示す。また、フリッカ検出値F=0は、画面面積の全てにおいてフリッカが発生していない、または25%以下の画面面積の領域にフリッカが発生しており、現時点の映像に全体としてフリッカが発生していないことを示す。フリッカ検出値F>0は、25%を超えるF%の画面面積の領域にフリッカが発生しており、現時点の映像に全体としてフリッカが発生していることを示す。
(Analysis result of cut detection value C and flicker detection value F input from video analysis unit 13)
The cut detection value C and the flicker detection value F are analysis results generated from the pixel value sequence I of the video signal by the video analysis unit 13. A cut detection value C = 0 indicates that the current image is not a cut point, and a cut detection value C = 1 indicates that the current image is a cut point. Further, when the flicker detection value F = 0, flicker does not occur in the entire screen area, or flicker occurs in the area of the screen area of 25% or less, and flicker occurs as a whole in the current image. Indicates that there is no such thing. A flicker detection value F> 0 indicates that flicker is generated in the area of the screen area of F% exceeding 25%, and flicker is generated as a whole in the current image.

(プロファイル蓄積部14から入力した光感受性発作リスクフラグP及び3D対応フラグDのプロファイル)
光感受性発作リスクフラグPは、プロファイル蓄積部14から入力した観視者情報であり、3D対応フラグDは、プロファイル蓄積部14から入力した端末情報である。光感受性発作リスクフラグP=0は、観視者に光感受性発作のリスクがないことを示し、光感受性発作リスクフラグP=1は、観視者に光感受性発作のリスクがあることを示す。また、3D対応フラグD=0は、映像処理装置1が3D映像コンテンツに対応していないことを示し、3D対応フラグD=1は、映像処理装置1が3D映像コンテンツに対応していることを示す。
(Profile of Photosensitive Epilepsy Risk Flag P and 3D Corresponding Flag D Input from Profile Storage Unit 14)
The photosensitive epilepsy risk flag P is viewer information input from the profile storage unit 14, and the 3D-compatible flag D is terminal information input from the profile storage unit 14. Photosensitive epilepsy risk flag P = 0 indicates that the viewer is not at risk for photosensitive epilepsy, and photosensitive epilepsy risk flag P = 1 indicates that the viewer is at risk for photosensitive epilepsy. Further, the 3D compatible flag D = 0 indicates that the video processing device 1 does not support 3D video content, and the 3D compatible flag D = 1 indicates that the video processing device 1 supports 3D video content. show.

(制御部15が出力する映像加工モードMの制御値)
映像加工モードM=0は、映像加工を行わないことを示し、映像加工モードM=1は、映像加工として時間方向平滑化を行うことを示す。映像加工モードM=2は、映像加工として黒フェード挿入を行うことを示し、映像加工モードM=3は、映像加工として、時間方向平滑化及び黒フェード挿入を行うことを示す。
(Control value of the image processing mode M output by the control unit 15)
The image processing mode M = 0 indicates that no image processing is performed, and the image processing mode M = 1 indicates that time-direction smoothing is performed as image processing. The image processing mode M = 2 indicates that black fade insertion is performed as image processing, and the image processing mode M = 3 indicates that time direction smoothing and black fade insertion are performed as image processing.

図2は、制御部15の処理例を示すフローチャートである。制御部15は、データ受信部12から加工可否情報R及び編集点情報Eのデータを、映像解析部13からカット検出値C及びフリッカ検出値Fの解析結果を、プロファイル蓄積部14から光感受性発作リスクフラグP及び3D対応フラグDのプロファイルをそれぞれ入力する(ステップS201)。 FIG. 2 is a flowchart showing a processing example of the control unit 15. The control unit 15 receives the data of the processability information R and the edit point information E from the data receiving unit 12, the analysis results of the cut detection value C and the flicker detection value F from the video analysis unit 13, and the photosensitivity attack from the profile storage unit 14. The profiles of the risk flag P and the 3D correspondence flag D are input respectively (step S201).

制御部15は、映像加工モードM=0(映像加工を行わない)を初期設定し(ステップS202)、光感受性発作リスクフラグP=0(光感受性発作のリスクがない)であるか否かを判定する(ステップS203)。 The control unit 15 initially sets the image processing mode M = 0 (no image processing is performed) (step S202), and determines whether or not the photosensitive epilepsy risk flag P = 0 (no risk of photosensitive epilepsy). Determination (step S203).

制御部15は、ステップS203において、光感受性発作リスクフラグP=0でないと判定した場合(ステップS203:N)、観視者に光感受性発作のリスクがあると判断し、ステップS204へ移行する。 When the control unit 15 determines in step S203 that the photosensitive epilepsy risk flag P = 0 is not (step S203: N), the control unit 15 determines that the viewer is at risk of photosensitive epilepsy, and proceeds to step S204.

一方、制御部15は、ステップS203において、光感受性発作リスクフラグP=0であると判定した場合(ステップS203:Y)、観視者に光感受性発作のリスクがないと判断し、ステップS206へ移行する。 On the other hand, when the control unit 15 determines in step S203 that the photosensitive epilepsy risk flag P = 0 (step S203: Y), the control unit 15 determines that the viewer has no risk of photosensitive epilepsy, and proceeds to step S206. Transition.

制御部15は、ステップS203(N)から移行して、フリッカ検出値F≦25(画面面積の25%以下の領域にフリッカが発生している)である否かを判定する(ステップS204)。 The control unit 15 shifts from step S203 (N) and determines whether or not the flicker detection value F ≦ 25 (flicker is generated in a region of 25% or less of the screen area) (step S204).

制御部15は、ステップS204において、フリッカ検出値F≦25でないと判定した場合(ステップS204:N)、現時点の映像において画面面積の25%を超える領域にフリッカが発生していると判断する。そして、制御部15は、映像加工モードM=0に1を加算し、映像加工モードM=1(映像加工として時間方向平滑化を行う)を設定し(ステップS205)、ステップS206へ移行する。 When the control unit 15 determines in step S204 that the flicker detection value F ≦ 25 is not satisfied (step S204: N), the control unit 15 determines that flicker is generated in a region exceeding 25% of the screen area in the current image. Then, the control unit 15 adds 1 to the image processing mode M = 0, sets the image processing mode M = 1 (performing time-direction smoothing as image processing) (step S205), and proceeds to step S206.

一方、制御部15は、ステップS204において、フリッカ検出値F≦25であると判定した場合(ステップS204:Y)、現時点の映像において画面面積の25%以下の領域にフリッカが発生していると判断し、ステップS206へ移行する。 On the other hand, when the control unit 15 determines in step S204 that the flicker detection value F ≦ 25 (step S204: Y), it is determined that flicker is generated in an area of 25% or less of the screen area in the current image. The determination is made, and the process proceeds to step S206.

制御部15は、ステップS203(Y)、ステップS204(Y)またはステップS205から移行して、3D対応フラグD=0(映像処理装置1が3D映像コンテンツに対応していない)か否かを判定する(ステップS206)。 The control unit 15 shifts from step S203 (Y), step S204 (Y) or step S205, and determines whether or not the 3D correspondence flag D = 0 (the video processing device 1 does not support 3D video content). (Step S206).

制御部15は、ステップS206において、3D対応フラグD=0でないと判定した場合(ステップS206:N)、映像処理装置1が3D映像コンテンツに対応していると判断し、ステップS207へ移行する。 When the control unit 15 determines in step S206 that the 3D correspondence flag D = 0 is not (step S206: N), the control unit 15 determines that the video processing device 1 corresponds to the 3D video content, and proceeds to step S207.

一方、制御部15は、ステップS206において、3D対応フラグD=0であると判定した場合(ステップS206:Y)、映像処理装置1が3D映像コンテンツに対応していないと判断し、ステップS212へ移行する。 On the other hand, when the control unit 15 determines in step S206 that the 3D correspondence flag D = 0 (step S206: Y), the control unit 15 determines that the video processing device 1 does not correspond to the 3D video content, and proceeds to step S212. Transition.

制御部15は、ステップS206(N)から移行して、加工可否情報R=0(光感受性発作防止目的以外の映像加工が禁止されている)か否かを判定する(ステップS207)。 The control unit 15 shifts from step S206 (N) and determines whether or not the processing possibility information R = 0 (video processing other than the purpose of preventing photosensitive epilepsy is prohibited) (step S207).

制御部15は、ステップS207において、加工可否情報R=0でないと判定した場合(ステップS207:N)、映像加工が許諾されていると判断し、ステップS208へ移行する。 When the control unit 15 determines in step S207 that the processing possibility information R = 0 (step S207: N), it determines that video processing is permitted, and proceeds to step S208.

一方、制御部15は、ステップS207において、加工可否情報R=0であると判定した場合(ステップS207:Y)、光感受性発作防止目的以外の映像加工が禁止されていると判断し、ステップS212へ移行する。 On the other hand, when the control unit 15 determines in step S207 that the processing enablement information R = 0 (step S207: Y), it determines that video processing other than for the purpose of preventing photosensitive epilepsy is prohibited, and in step S212. Move to.

制御部15は、ステップS207(N)から移行して、編集点情報E=0(編集点情報が送られてきていない)か否かを判定する(ステップS208)。 The control unit 15 shifts from step S207 (N) and determines whether or not the edit point information E = 0 (edit point information has not been sent) (step S208).

制御部15は、ステップS208において、編集点情報E=0でないと判定した場合(ステップS208:N)、編集点情報が送られてきていると判断し、ステップS209へ移行する。 When the control unit 15 determines in step S208 that the edit point information E = 0 (step S208: N), it determines that the edit point information has been sent, and proceeds to step S209.

一方、制御部15は、ステップS208において、編集点情報E=0であると判定した場合(ステップS208:Y)、編集点情報が送られてきていないと判断し、ステップS210へ移行する。 On the other hand, when the control unit 15 determines in step S208 that the edit point information E = 0 (step S208: Y), it determines that the edit point information has not been sent, and proceeds to step S210.

制御部15は、ステップS208(N)から移行して、編集点情報E=1(現時点の映像がカット点でない)か否かを判定する(ステップS209)。 The control unit 15 shifts from step S208 (N) and determines whether or not the edit point information E = 1 (the current image is not a cut point) (step S209).

制御部15は、ステップS209において、編集点情報E=1でないと判定した場合(ステップS209:N)、現時点の映像がカット点であると判断し、ステップS211へ移行する。 When the control unit 15 determines in step S209 that the edit point information E = 1 (step S209: N), the control unit 15 determines that the current image is a cut point, and proceeds to step S211.

一方、制御部15は、ステップS209において、編集点情報E=1であると判定した場合(ステップS209:Y)、現時点の映像がカット点でないと判断し、ステップS212へ移行する。 On the other hand, when the control unit 15 determines in step S209 that the edit point information E = 1 (step S209: Y), it determines that the current image is not a cut point, and proceeds to step S212.

制御部15は、ステップS208(Y)から移行して、カット検出値C=0(現時点の映像がカット点でない)であるか否かを判定する(ステップS210)。 The control unit 15 shifts from step S208 (Y) and determines whether or not the cut detection value C = 0 (the current image is not the cut point) (step S210).

制御部15は、ステップS210において、カット検出値C=0でないと判定した場合(ステップS210:N)、現時点の映像がカット点であると判断し、ステップS211へ移行する。 When the control unit 15 determines in step S210 that the cut detection value C = 0 is not (step S210: N), the control unit 15 determines that the current image is the cut point, and proceeds to step S211.

一方、制御部15は、ステップS210において、カット検出値C=0であると判定した場合(ステップS210:Y)、現時点の映像がカット点でないと判断し、ステップS212へ移行する。 On the other hand, when the control unit 15 determines in step S210 that the cut detection value C = 0 (step S210: Y), it determines that the current image is not the cut point, and proceeds to step S212.

制御部15は、ステップS209(N)またはステップS210(N)から移行して、映像加工モードM=0,1に2を加算する。そして、制御部15は、映像加工モードM=2(映像加工として黒フェード挿入を行う),3(映像加工として時間方向平滑化及び黒フェード挿入を行う)を設定し(ステップS211)、ステップS212へ移行する。 The control unit 15 shifts from step S209 (N) or step S210 (N) and adds 2 to the video processing mode M = 0,1. Then, the control unit 15 sets the image processing mode M = 2 (performs black fade insertion as image processing) and 3 (performs time direction smoothing and black fade insertion as image processing) (step S211), and steps S212. Move to.

制御部15は、ステップS206(Y)、ステップS207(Y)、ステップS209(Y)、ステップS210(Y)またはステップS211から移行して、映像加工モードMを映像加工部16に出力する(ステップS212)。 The control unit 15 shifts from step S206 (Y), step S207 (Y), step S209 (Y), step S210 (Y) or step S211 and outputs the image processing mode M to the image processing unit 16 (step). S212).

このように、光感受性発作を起こす可能性のある観視者が映像を観視しており、かつ映像解析部13により生成されたフリッカ検出値Fが所定の閾値(25)を超えている場合には、映像加工として時間方向平滑化を行うように、ステップS205において、映像加工モードMの最下位ビットに1が設定される。 In this way, when a viewer who may cause photosensitive epilepsy is watching the image and the flicker detection value F generated by the image analysis unit 13 exceeds a predetermined threshold value (25). Is set to 1 in the least significant bit of the image processing mode M in step S205 so as to perform time-direction smoothing as image processing.

また、映像処理装置1が3D映像コンテンツに対応しており、かつ映像加工が許諾されている場合には、映像のカット点に対し、視点移動に起因する違和感(ワープ感)を抑えるため、黒フェードを挿入する。 Further, when the video processing device 1 supports 3D video content and video processing is permitted, black is used to suppress a sense of discomfort (warp feeling) caused by moving the viewpoint with respect to the cut point of the video. Insert a fade.

これを実現するため、データ受信部12による編集点情報が得られる場合には、当該編集点情報に基づいてカット点の有無が判定される。一方、データ受信部12により編集点情報が得られない場合には、映像解析部13により生成された解析結果に基づいて、カット点の有無が判定される。そして、カット点であると判定された場合には、映像加工として黒フェード挿入を行うように、ステップS211において、映像加工モードMの最下位から2番目のビットに1が設定される。 In order to realize this, when the edit point information by the data receiving unit 12 is obtained, the presence or absence of the cut point is determined based on the edit point information. On the other hand, when the edit point information cannot be obtained by the data receiving unit 12, the presence or absence of the cut point is determined based on the analysis result generated by the video analysis unit 13. Then, when it is determined to be a cut point, 1 is set in the second lowest bit of the image processing mode M in step S211 so as to insert a black fade as image processing.

これにより、映像加工部16へ出力される映像加工モードMの下位2ビットには、映像加工として時間方向平滑化を行うか否かの情報、及び、映像加工として黒フェード挿入を行うか否かの情報が設定される。つまり、映像加工モードMには、映像加工を行わない、映像加工として時間方向平滑化を行う、映像加工として黒フェード挿入を行う、及び、映像加工として時間方向平滑化及び黒フェード挿入を行うことのいずれかの情報が含まれる。 As a result, in the lower 2 bits of the image processing mode M output to the image processing unit 16, information on whether or not to perform time-direction smoothing as image processing and whether or not to insert a black fade as image processing are performed. Information is set. That is, in the image processing mode M, no image processing is performed, time-direction smoothing is performed as image processing, black fade insertion is performed as image processing, and time-direction smoothing and black fade insertion are performed as image processing. Contains any of the information in.

尚、前記実施形態では、制御部15は、図2に示した場合分け(if-then)ルールにより映像の加工内容を決定するようにしたが、これは一例であり、他のルールを用いるようにしてもよい。例えば、制御部15は、機械学習された学習モデルを用いて、映像の加工内容を決定するようにしてもよい。学習モデルの例として、加工可否情報R及び編集点情報Eのデータ、カット検出値C及びフリッカ検出値Fの解析結果、並びに光感受性発作リスクフラグP及び3D対応フラグDのプロファイルを入力データとし、映像加工モードMの制御値を出力データとするニューラルネットワーク、サポートベクターマシン、決定木、ランダムフォレスト等が用いられる。 In the above embodiment, the control unit 15 determines the processing content of the image according to the if-then rule shown in FIG. 2, but this is an example, and other rules may be used. May be. For example, the control unit 15 may determine the processing content of the video by using the machine-learned learning model. As an example of the training model, the data of the processability information R and the edit point information E, the analysis result of the cut detection value C and the flicker detection value F, and the profile of the photosensitivity attack risk flag P and the 3D correspondence flag D are used as input data. A neural network, a support vector machine, a decision tree, a random forest, or the like whose output data is the control value of the image processing mode M is used.

図1に戻って、映像加工部16は、映像受信部11から映像信号の画素値列Iを入力すると共に、制御部15から映像の加工内容を示す制御値を入力する。そして、映像加工部16は、制御値に応じて、映像信号の画素値列Iに対して映像加工を行い(または映像加工を行わず)、加工結果(または画素値列I)を映像信号Jとして生成し、映像信号Jを出力する。 Returning to FIG. 1, the video processing unit 16 inputs the pixel value sequence I of the video signal from the video receiving unit 11, and inputs the control value indicating the processing content of the video from the control unit 15. Then, the image processing unit 16 performs image processing (or no image processing) on the pixel value sequence I of the video signal according to the control value, and outputs the processing result (or the pixel value sequence I) to the video signal J. And outputs the video signal J.

映像加工は、現時点tのみの画素値列I(現時点のフレーム)に対する処理であってもよいし、未来の時点の画素値列I(未来のフレーム)に対する処理であってもよい。また、映像加工は、過去の時点の画素値列I(過去のフレーム)に対する処理であってもよい。この場合、映像加工部16は、画素値列Iをバッファに格納するバッファリングを行い、バッファに格納された画素値列Iを加工した後、加工結果に時間遅れ処理を施し、映像信号Jを出力する。 The image processing may be processing for the pixel value sequence I (current frame) of only the current t only, or may be processing for the pixel value sequence I (future frame) at the future time point. Further, the image processing may be processing for the pixel value sequence I (past frame) at the past time point. In this case, the image processing unit 16 performs buffering to store the pixel value sequence I in the buffer, processes the pixel value sequence I stored in the buffer, then performs time delay processing on the processing result, and obtains the video signal J. Output.

映像加工部16は、映像信号Jを表示デバイス(テレビ画面の他、映像処理装置1が3D映像コンテンツに対応している場合には、ヘッドマウントディスプレイ等の表示デバイスを含む)に出力するようにしてもよい。これにより、表示デバイスには、映像信号Jが表示される。また、映像加工部16は、映像信号Jを録画装置、映像切替機等の機器に出力するようにしてもよい。 The video processing unit 16 outputs the video signal J to a display device (including a display device such as a head-mounted display when the video processing device 1 supports 3D video content in addition to the TV screen). You may. As a result, the video signal J is displayed on the display device. Further, the video processing unit 16 may output the video signal J to a device such as a recording device or a video switching machine.

ここでは、映像加工部16は、映像受信部11から映像信号の画素値列Iを入力すると共に、制御部15から映像加工モードMの制御値を入力する。そして、映像加工部16は、映像加工モードMに応じて、映像信号の画素値列Iに対して映像加工を行い(または映像加工を行わず)、加工結果(または画素値列I)を映像信号Jとして出力する。 Here, the video processing unit 16 inputs the pixel value sequence I of the video signal from the video receiving unit 11, and also inputs the control value of the video processing mode M from the control unit 15. Then, the image processing unit 16 performs image processing (or no image processing) on the pixel value sequence I of the video signal according to the image processing mode M, and displays the processing result (or pixel value sequence I) as an image. It is output as a signal J.

具体的には、映像加工部16は、映像加工モードM=0である場合、映像信号の画素値列Iに対して映像加工を行わず、以下の式にて、入力した映像信号の画素値列Iを映像信号Jとして出力する。

Figure 0007018752000002
Specifically, when the video processing mode M = 0, the video processing unit 16 does not perform video processing on the pixel value sequence I of the video signal, and the pixel value of the input video signal is expressed by the following formula. The column I is output as a video signal J.
Figure 0007018752000002

また、映像加工部16は、映像加工モードM=1である場合、以下の式にて、映像信号の画素値列Iに対して時間方向平滑化の映像加工を行い、映像信号Jを生成して出力する。

Figure 0007018752000003
Nは、平滑化に用いる時点数(フレーム数)であり、2以上の整数とする。例えば、毎秒60フレームの映像信号に対してN=20とすると、映像加工部16は、過去1/3秒分の映像信号の画素値列Iに対する相加平均を算出し、算出結果を映像信号Jとして出力する。 Further, when the video processing mode M = 1, the video processing unit 16 performs video processing for time-direction smoothing on the pixel value sequence I of the video signal by the following formula to generate the video signal J. And output.
Figure 0007018752000003
N is the number of time points (number of frames) used for smoothing, and is an integer of 2 or more. For example, assuming that N = 20 for a video signal of 60 frames per second, the video processing unit 16 calculates the arithmetic mean of the video signal for the past 1/3 second with respect to the pixel value sequence I, and the calculation result is the video signal. Output as J.

また、映像加工部16は、映像加工モードM=2である場合、映像信号の画素値列Iに対して黒フェード挿入の映像加工を行い、映像信号Jを生成して出力する。すなわち、映像加工部16は、映像信号のカット点を基準に、フェードアウトして黒画面へ移行した後、黒画面からフェードインするように映像加工を行う。 Further, when the image processing mode M = 2, the image processing unit 16 performs image processing for inserting a black fade into the pixel value sequence I of the image signal, and generates and outputs the image signal J. That is, the image processing unit 16 performs image processing so as to fade out and shift to the black screen based on the cut point of the image signal, and then fade in from the black screen.

例えば、映像加工部16は、U<-1の整数U及びV>+1の整数Vに対して、現時点tを含んで前後に拡張した時刻t+U+1~t+V-1の時間範囲において、以下の式にて、黒フェードの挿入処理を行い、映像信号Jを生成して出力する。

Figure 0007018752000004
例えばU=-30、V=+30とする。 For example, the video processing unit 16 uses the following equation for the integer U of U <-1 and the integer V of V> + 1 in the time range of time t + U + 1 to t + V-1 extended before and after including the current time t. Then, the black fade is inserted, and the video signal J is generated and output.
Figure 0007018752000004
For example, U = -30 and V = +30.

また、映像加工部16は、映像加工モードM=3である場合、以下の式にて、映像信号の画素値列Iに対して時間方向平滑化及び黒フェード挿入の映像加工を行い、映像信号Jを生成して出力する。

Figure 0007018752000005
Further, when the image processing mode M = 3, the image processing unit 16 performs image processing for time-direction smoothing and black fade insertion on the pixel value sequence I of the image signal by the following equation, and the image signal. Generate and output J.
Figure 0007018752000005

図3は、映像加工モードM=1の場合に、点滅を含む映像に対して時間方向平滑化の映像加工を行う例を説明する図である。加工前の映像信号が激しく点滅するフレームa1~a5である場合に、制御部15により、映像加工モードM=1が設定されたとする。 FIG. 3 is a diagram illustrating an example of performing time-direction smoothing video processing on a video including blinking when the video processing mode M = 1. It is assumed that the image processing mode M = 1 is set by the control unit 15 when the frames a1 to a5 in which the image signal before processing violently blinks.

映像加工部16は、映像加工モードM=1を判定し、加工前の映像信号であるフレームa1~a5の画素値列Iに対し、前記式(3)にて時間方向平滑化の映像加工を行う。そして、映像加工部16は、加工後の映像信号として、時間方向に平滑化したフレームb1~b5の映像信号Jを生成する。 The image processing unit 16 determines the image processing mode M = 1, and performs image processing for time-direction smoothing on the pixel value strings I of the frames a1 to a5, which are the image signals before processing, according to the above equation (3). conduct. Then, the image processing unit 16 generates the image signals J of the frames b1 to b5 smoothed in the time direction as the processed image signals.

図4は、映像加工モードM=2の場合に、カットによる場面転換を含む映像に対して黒フェード挿入の映像加工を行う例を説明する図である。加工前の映像信号が、フレームa3をカット点αとするフレームa1~a5である場合に、制御部15により、映像加工モードM=2が設定されたとする。 FIG. 4 is a diagram illustrating an example in which black fade insertion is performed on an image including a scene change due to a cut when the image processing mode M = 2. It is assumed that the video processing mode M = 2 is set by the control unit 15 when the video signal before processing is the frames a1 to a5 having the frame a3 as the cut point α.

映像加工部16は、映像加工モードM=2を判定し、加工前の映像信号であるフレームa1~a5の画素値列Iに対し、前記式(4)にて黒フェード挿入の映像加工を行う。そして、映像加工部16は、加工後の映像信号として、カット点α付近のフレームb3を黒一色とし、その前後をフェードでつなぐ黒フェード挿入したフレームb1~b5の映像信号Jを生成する。 The image processing unit 16 determines the image processing mode M = 2, and performs image processing by inserting a black fade into the pixel value strings I of the frames a1 to a5, which are the image signals before processing, according to the above equation (4). .. Then, the image processing unit 16 generates the image signals J of the frames b1 to b5 in which the frame b3 near the cut point α is made black and the black fades are inserted before and after the frame b3 as the processed image signal.

以上のように、本発明の実施形態の映像処理装置1によれば、データ受信部12は、制御信号を受信し、制御信号から、映像信号を加工する際に補助となるデータを抽出し、映像解析部13は、映像信号の画素値列Iを解析し、映像の変化の特徴を示す解析結果を生成する。 As described above, according to the video processing apparatus 1 of the embodiment of the present invention, the data receiving unit 12 receives the control signal, extracts auxiliary data from the control signal when processing the video signal, and obtains data. The video analysis unit 13 analyzes the pixel value sequence I of the video signal and generates an analysis result showing the characteristics of the change in the video.

制御部15は、プロファイル蓄積部14から、観視者情報及び端末情報のプロファイルを入力し、データ受信部12により抽出されたデータ、映像解析部13により解析された解析結果、及びプロファイル蓄積部14から入力したプロファイルに基づいて、映像の加工内容を決定し、映像の加工内容を示す制御値を設定する。そして、映像加工部16は、制御部15により設定された制御値に応じて、映像信号を加工する。 The control unit 15 inputs the profile of the viewer information and the terminal information from the profile storage unit 14, the data extracted by the data reception unit 12, the analysis result analyzed by the video analysis unit 13, and the profile storage unit 14. Based on the profile input from, the processing content of the video is determined, and the control value indicating the processing content of the video is set. Then, the video processing unit 16 processes the video signal according to the control value set by the control unit 15.

これにより、例えば送信装置から送信され、映像信号の制作者の意図が反映されたコンテンツデータ(前述の特許文献2では代替提示コンテンツ)及びメタデータを用いることなく、映像信号を加工することができ、処理負荷を低減することができる。また、送信装置において、観視者及び観視環境による条件を考慮したコンテンツデータを生成する必要がなく、メタデータも生成する必要がないから、送信装置の処理負荷を低減することができる。 Thereby, for example, the video signal can be processed without using the content data (alternatively presented content in the above-mentioned Patent Document 2) and the metadata transmitted from the transmission device and reflecting the intention of the creator of the video signal. , The processing load can be reduced. Further, since it is not necessary to generate the content data in consideration of the conditions depending on the viewer and the viewing environment in the transmitting device and it is not necessary to generate the metadata, the processing load of the transmitting device can be reduced.

また、映像の加工内容は、映像信号の制作者の意図が反映されたコンテンツデータ及びメタデータの範囲で決定されることがなく、映像信号の解析結果、制御信号、観視者の情報及び観視環境の情報に基づいて決定されるから、映像信号の制作者の意図よりも、観視者及び観視環境を反映した内容となる。したがって、映像を観視する観視者の視覚的負担を、簡易な構成にて確実に軽減することができ、観視者の疲労も軽減することが可能となる。 Further, the processing content of the video is not determined within the range of the content data and the metadata that reflect the intention of the creator of the video signal, and the analysis result of the video signal, the control signal, the information of the viewer, and the view are not determined. Since the content is determined based on the information on the visual environment, the content reflects the viewer and the visual environment rather than the intention of the creator of the video signal. Therefore, the visual burden on the viewer who views the image can be reliably reduced by a simple configuration, and the fatigue of the viewer can also be reduced.

さらに、映像信号の解析結果及び制御信号に反映される制作者の意図、観視者及び観視環境を勘案しつつ、映像信号を適切に加工することができるから、映像制作上の演出効果と観視者の安全の均衡を保った最適な状態で、映像観視が可能となる。 Furthermore, since the video signal can be appropriately processed while considering the creator's intention, the viewer, and the viewing environment reflected in the analysis result of the video signal and the control signal, it is possible to produce an effect on the video production. It is possible to view the image in the optimum state while maintaining the balance of the safety of the viewer.

〔他の構成例1〕
次に、本発明の実施形態について、他の構成例1(第1構成例)を説明する。図5は、本発明の実施形態における他の第1構成例を示すブロック図である。この映像処理装置2は、映像受信部11、映像解析部13、プロファイル蓄積部14、制御部17及び映像加工部16を備えている。
[Other Configuration Example 1]
Next, another configuration example 1 (first configuration example) will be described with respect to the embodiment of the present invention. FIG. 5 is a block diagram showing another first configuration example according to the embodiment of the present invention. The video processing device 2 includes a video receiving unit 11, a video analysis unit 13, a profile storage unit 14, a control unit 17, and a video processing unit 16.

図1に示した映像処理装置1とこの映像処理装置2とを比較すると、両映像処理装置1,2は、映像受信部11、映像解析部13、プロファイル蓄積部14及び映像加工部16を備えている点で共通する。一方、映像処理装置2は、データ受信部12を備えておらず、映像処理装置1の制御部15とは異なる制御部17を備えている点で、映像処理装置1と相違する。 Comparing the video processing device 1 shown in FIG. 1 with the video processing device 2, both video processing devices 1 and 2 include a video receiving unit 11, a video analysis unit 13, a profile storage unit 14, and a video processing unit 16. It is common in that. On the other hand, the video processing device 2 is different from the video processing device 1 in that it does not include the data receiving unit 12 and includes a control unit 17 different from the control unit 15 of the video processing device 1.

映像受信部11、映像解析部13、プロファイル蓄積部14及び映像加工部16は、図1にて説明済みであるから、ここでは説明を省略する。 Since the video receiving unit 11, the video analysis unit 13, the profile storage unit 14, and the video processing unit 16 have already been described with reference to FIG. 1, the description thereof will be omitted here.

制御部17は、映像解析部13から解析結果を入力すると共に、プロファイル蓄積部14からプロファイルを入力する。そして、制御部17は、解析結果及びプロファイルに基づいて、映像の加工内容を決定し、映像の加工内容を示す制御値を映像加工部16に出力する。 The control unit 17 inputs the analysis result from the video analysis unit 13, and also inputs the profile from the profile storage unit 14. Then, the control unit 17 determines the processing content of the video based on the analysis result and the profile, and outputs the control value indicating the processing content of the video to the video processing unit 16.

例えば、制御部17は、映像解析部13から解析結果としてカット検出値C及びフリッカ検出値Fを入力すると共に、プロファイル蓄積部14から光感受性発作リスクフラグP及び3D対応フラグDのプロファイルを入力する。そして、制御部17は、カット検出値C、フリッカ検出値F、光感受性発作リスクフラグP及び3D対応フラグDに基づいて、映像の加工内容を決定し、映像加工モードMの制御値を映像加工部16に出力する。 For example, the control unit 17 inputs the cut detection value C and the flicker detection value F as analysis results from the video analysis unit 13, and inputs the profiles of the photosensitive epilepsy risk flag P and the 3D compatible flag D from the profile storage unit 14. .. Then, the control unit 17 determines the processing content of the image based on the cut detection value C, the flicker detection value F, the photosensitive epilepsy risk flag P, and the 3D correspondence flag D, and processes the control value of the image processing mode M into the image. Output to unit 16.

具体的には、制御部17は、図2の処理例に示した全てのステップのうち、ステップS207~ステップS209を除いたステップS201~ステップS206及びステップS210~ステップS212の処理を行う。 Specifically, the control unit 17 performs the processes of steps S201 to S206 and steps S210 to S212 excluding steps S207 to S209 among all the steps shown in the processing example of FIG.

図2を参照して、制御部17は、ステップS201において、映像解析部13からカット検出値C及びフリッカ検出値Fの解析結果を入力すると共に、プロファイル蓄積部14から光感受性発作リスクフラグP及び3D対応フラグDのプロファイルを入力する。 With reference to FIG. 2, in step S201, the control unit 17 inputs the analysis results of the cut detection value C and the flicker detection value F from the video analysis unit 13, and also inputs the photosensitive epilepsy risk flag P and the photosensitive epilepsy risk flag P from the profile storage unit 14. Enter the profile of the 3D compatible flag D.

制御部17は、ステップS201~ステップS205の処理の後、ステップS206において、3D対応フラグD=0でないと判定した場合、映像処理装置2が3D映像コンテンツに対応していると判断し、ステップS210へ移行する。そして、制御部17は、ステップS210において、カット検出値C=0(現時点の映像がカット点でない)であるか否かを判定する。 When the control unit 17 determines in step S206 that the 3D correspondence flag D is not 0 after the processing of steps S201 to S205, the control unit 17 determines that the video processing device 2 corresponds to the 3D video content, and steps S210. Move to. Then, in step S210, the control unit 17 determines whether or not the cut detection value C = 0 (the current image is not the cut point).

制御部17は、ステップS210において、カット検出値C=0でないと判定した場合、現時点の映像がカット点であると判断し、ステップS211へ移行する。一方、制御部17は、ステップS210において、カット検出値C=0であると判定した場合、現時点の映像がカット点でないと判断し、ステップS212へ移行する。 If the control unit 17 determines in step S210 that the cut detection value C = 0, it determines that the current image is the cut point, and proceeds to step S211. On the other hand, when the control unit 17 determines in step S210 that the cut detection value C = 0, it determines that the current image is not the cut point, and proceeds to step S212.

以上のように、本発明の実施形態の映像処理装置2によれば、映像解析部13は、映像信号の画素値列Iを解析し、映像の変化の特徴を示す解析結果を生成する。制御部17は、プロファイル蓄積部14から、観視者情報及び端末情報のプロファイルを入力し、映像解析部13により解析された解析結果、及びプロファイル蓄積部14から入力したプロファイルに基づいて、映像の加工内容を決定し、映像の加工内容を示す制御値を設定する。そして、映像加工部16は、制御部17により設定された制御値に応じて、映像信号を加工する。 As described above, according to the video processing apparatus 2 of the embodiment of the present invention, the video analysis unit 13 analyzes the pixel value sequence I of the video signal and generates an analysis result showing the characteristics of the change in the video. The control unit 17 inputs profiles of viewer information and terminal information from the profile storage unit 14, and based on the analysis results analyzed by the video analysis unit 13 and the profile input from the profile storage unit 14, the video The processing content is determined, and the control value indicating the processing content of the image is set. Then, the video processing unit 16 processes the video signal according to the control value set by the control unit 17.

これにより、図1に示した映像処理装置1と同様に、映像を観視する観視者の視覚的負担を、簡易な構成にて確実に軽減することができ、観視者の疲労も軽減することが可能となる。また、映像制作上の演出効果と観視者の安全の均衡を保った最適な状態で、映像観視が可能となる。 As a result, similarly to the image processing device 1 shown in FIG. 1, the visual burden on the viewer who observes the image can be surely reduced by a simple configuration, and the fatigue of the viewer is also reduced. It becomes possible to do. In addition, it is possible to view the video in an optimum state in which the production effect on the video production and the safety of the viewer are balanced.

〔他の構成例2〕
次に、本発明の実施形態について、他の構成例2(第2構成例)を説明する。図6は、本発明の実施形態における他の第2構成例を示すブロック図である。この映像処理装置3は、映像受信部11、データ受信部12、プロファイル蓄積部14、制御部18及び映像加工部16を備えている。
[Other Configuration Example 2]
Next, another configuration example 2 (second configuration example) will be described with respect to the embodiment of the present invention. FIG. 6 is a block diagram showing another second configuration example according to the embodiment of the present invention. The video processing device 3 includes a video receiving unit 11, a data receiving unit 12, a profile storage unit 14, a control unit 18, and a video processing unit 16.

図1に示した映像処理装置1とこの映像処理装置3とを比較すると、両映像処理装置1,3は、映像受信部11、データ受信部12、プロファイル蓄積部14及び映像加工部16を備えている点で共通する。一方、映像処理装置3は、映像解析部13を備えておらず、映像処理装置1の制御部15とは異なる制御部18を備えている点で、映像処理装置1と相違する。 Comparing the video processing device 1 shown in FIG. 1 with the video processing device 3, both video processing devices 1 and 3 include a video receiving unit 11, a data receiving unit 12, a profile storage unit 14, and a video processing unit 16. It is common in that. On the other hand, the video processing device 3 is different from the video processing device 1 in that the video processing device 3 does not include the video analysis unit 13 and includes a control unit 18 different from the control unit 15 of the video processing device 1.

映像受信部11、データ受信部12、プロファイル蓄積部14及び映像加工部16は、図1にて説明済みであるから、ここでは説明を省略する。 Since the video receiving unit 11, the data receiving unit 12, the profile storage unit 14, and the video processing unit 16 have already been described with reference to FIG. 1, the description thereof will be omitted here.

制御部18は、データ受信部12からデータを入力すると共に、プロファイル蓄積部14からプロファイルを入力する。そして、制御部18は、データ及びプロファイルに基づいて、映像の加工内容を決定し、映像の加工内容を示す制御値を映像加工部16に出力する。 The control unit 18 inputs data from the data receiving unit 12, and also inputs a profile from the profile storage unit 14. Then, the control unit 18 determines the processing content of the video based on the data and the profile, and outputs the control value indicating the processing content of the video to the video processing unit 16.

例えば、制御部18は、データ受信部12から加工可否情報R及び編集点情報Eのデータを入力すると共に、プロファイル蓄積部14から光感受性発作リスクフラグP及び3D対応フラグDのプロファイルを入力する。そして、制御部18は、加工可否情報R、編集点情報E、光感受性発作リスクフラグP及び3D対応フラグDに基づいて、映像の加工内容を決定し、映像加工モードMの制御値を映像加工部16に出力する。 For example, the control unit 18 inputs the data of the processability information R and the edit point information E from the data reception unit 12, and inputs the profiles of the photosensitive epilepsy risk flag P and the 3D correspondence flag D from the profile storage unit 14. Then, the control unit 18 determines the processing content of the image based on the processing possibility information R, the editing point information E, the photosensitive epilepsy risk flag P, and the 3D correspondence flag D, and processes the control value of the image processing mode M into the image. Output to unit 16.

具体的には、制御部18は、図2の処理例に示した全てのステップのうち、ステップS204及びステップS210を除いたステップS201~ステップS203、ステップS205~ステップS209、ステップS211及びステップS212の処理を行う。 Specifically, the control unit 18 of all the steps shown in the processing example of FIG. 2 includes steps S201 to S203, steps S205 to S209, steps S211 and step S212 excluding step S204 and step S210. Perform processing.

図2を参照して、制御部18は、ステップS201において、データ受信部12から加工可否情報R及び編集点情報Eのデータを入力すると共に、プロファイル蓄積部14から光感受性発作リスクフラグP及び3D対応フラグDのプロファイルを入力する。 With reference to FIG. 2, in step S201, the control unit 18 inputs the data of the processability information R and the edit point information E from the data reception unit 12, and the photosensitivity attack risk flags P and 3D are input from the profile storage unit 14. Enter the profile of the corresponding flag D.

制御部18は、ステップS201及びステップS202の処理の後、ステップS203において、光感受性発作リスクフラグP=0でないと判定した場合、観視者に光感受性発作のリスクがあると判断し、ステップS205へ移行する。そして、制御部18は、ステップS205において、映像加工モードM=0に1を加算し、映像加工モードM=1(映像加工として時間方向平滑化を行う)を設定する。 If the control unit 18 determines in step S203 that the photosensitive epilepsy risk flag P = 0 is not obtained after the processing of steps S201 and S202, the control unit 18 determines that the viewer is at risk of photosensitive epilepsy, and steps S205. Move to. Then, in step S205, the control unit 18 adds 1 to the image processing mode M = 0 and sets the image processing mode M = 1 (time-direction smoothing is performed as image processing).

また、制御部18は、ステップS208において、編集点情報E=0であると判定した場合、編集点情報が送られてきていないと判断し、ステップS212へ移行する。 Further, when the control unit 18 determines in step S208 that the edit point information E = 0, it determines that the edit point information has not been sent, and proceeds to step S212.

尚、データ受信部12は、制御信号からフリッカの有無及びフリッカの程度を示すフリッカ情報を抽出し、制御部18は、データ受信部12から、フリッカ情報を含むデータを入力するようにしてもよい。この場合、制御部18は、ステップS203において、光感受性発作リスクフラグP=0でないと判定した場合、観視者に光感受性発作のリスクがあると判断し、入力したフリッカ情報のデータに基づいて、フリッカの程度が所定値(例えば、フリッカしている領域が全面積の25%)を超えていると判定した場合、ステップS205へ移行し、映像加工モードM=1を設定する。 The data receiving unit 12 may extract flicker information indicating the presence or absence of flicker and the degree of flicker from the control signal, and the control unit 18 may input data including flicker information from the data receiving unit 12. .. In this case, if the control unit 18 determines in step S203 that the photosensitive epilepsy risk flag P = 0 is not present, the control unit 18 determines that the viewer is at risk of photosensitive epilepsy, and based on the input flicker information data. If it is determined that the degree of flicker exceeds a predetermined value (for example, the flicker area is 25% of the total area), the process proceeds to step S205 and the image processing mode M = 1 is set.

以上のように、本発明の実施形態の映像処理装置3によれば、データ受信部12は、制御信号を受信し、制御信号から、映像信号を加工する際に補助となるデータを抽出する。制御部18は、プロファイル蓄積部14から、観視者情報及び端末情報のプロファイルを入力し、データ受信部12により抽出されたデータ、及びプロファイル蓄積部14から入力したプロファイルに基づいて、映像の加工内容を決定し、映像の加工内容を示す制御値を設定する。そして、映像加工部16は、制御部18により設定された制御値に応じて、映像信号を加工する。 As described above, according to the video processing apparatus 3 of the embodiment of the present invention, the data receiving unit 12 receives the control signal and extracts the auxiliary data when processing the video signal from the control signal. The control unit 18 inputs a profile of viewer information and terminal information from the profile storage unit 14, and processes an image based on the data extracted by the data reception unit 12 and the profile input from the profile storage unit 14. Determine the content and set the control value indicating the processing content of the video. Then, the video processing unit 16 processes the video signal according to the control value set by the control unit 18.

これにより、図1に示した映像処理装置1と同様に、映像を観視する観視者の視覚的負担を、簡易な構成にて確実に軽減することができ、観視者の疲労も軽減することが可能となる。また、映像制作上の演出効果と観視者の安全の均衡を保った最適な状態で、映像観視が可能となる。 As a result, similarly to the image processing device 1 shown in FIG. 1, the visual burden on the viewer who observes the image can be surely reduced by a simple configuration, and the fatigue of the viewer is also reduced. It becomes possible to do. In addition, it is possible to view the video in an optimum state in which the production effect on the video production and the safety of the viewer are balanced.

以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、図1に示した映像処理装置1、図5に示した映像処理装置2及び図6に示した映像処理装置3は、映像信号の放送波を受信するテレビジョン受信機であってもよい。また、映像処理装置1,2,3は、映像信号を例えば蓄積媒体から読み出す映像再生装置であってもよい。 Although the present invention has been described above with reference to embodiments, the present invention is not limited to the above-described embodiment and can be variously modified without departing from the technical idea. For example, the video processing device 1 shown in FIG. 1, the video processing device 2 shown in FIG. 5, and the video processing device 3 shown in FIG. 6 may be television receivers that receive broadcast waves of video signals. .. Further, the video processing devices 1, 2, and 3 may be video playback devices that read video signals from, for example, a storage medium.

また、前記実施形態では、データ受信部12により抽出されるデータを加工可否情報R及び編集点情報Eとし、映像解析部13により生成される解析結果をカット検出値C及びフリッカ検出値Fとし、プロファイル蓄積部14から入力されるプロファイルを光感受性発作リスクフラグP及び3D対応フラグDとし、制御部15,17,18により生成される制御値を映像加工モードM(加工を行わない、時間方向平滑化、黒フェード挿入、時間方向平滑化及び黒フェード挿入のいずれかを示す値)として説明した。 Further, in the above embodiment, the data extracted by the data receiving unit 12 is used as the processability information R and the edit point information E, and the analysis results generated by the video analysis unit 13 are used as the cut detection value C and the flicker detection value F. The profile input from the profile storage unit 14 is set as the light-sensitive attack risk flag P and the 3D-compatible flag D, and the control values generated by the control units 15, 17 and 18 are set to the image processing mode M (no processing, time-direction smoothing). (Value indicating any of conversion, black fade insertion, temporal smoothing, and black fade insertion).

本発明は、データ受信部12により抽出されるデータ、映像解析部13により解析される解析結果、プロファイル蓄積部14から入力されるプロファイル、及び制御部15,17,18により生成される制御値を、前述の情報に限定するものではない。前述の情報は一例である。 The present invention uses data extracted by the data receiving unit 12, analysis results analyzed by the video analysis unit 13, a profile input from the profile storage unit 14, and control values generated by the control units 15, 17, and 18. , The information is not limited to the above. The above information is an example.

尚、本発明の実施形態による映像処理装置1,2,3のハードウェア構成としては、通常のコンピュータを使用することができる。映像処理装置1,2,3は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。 As the hardware configuration of the video processing devices 1, 2, and 3 according to the embodiment of the present invention, a normal computer can be used. The video processing devices 1, 2, and 3 are composed of a volatile storage medium such as a CPU and RAM, a non-volatile storage medium such as a ROM, and a computer provided with an interface and the like.

映像処理装置1に備えた映像受信部11、データ受信部12、映像解析部13、プロファイル蓄積部14、制御部15及び映像加工部16の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、映像処理装置2に備えた映像受信部11、映像解析部13、プロファイル蓄積部14、制御部17及び映像加工部16の各機能も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。さらに、映像処理装置3に備えた映像受信部11、データ受信部12、プロファイル蓄積部14、制御部18及び映像加工部16の各機能も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。 Each function of the video receiving unit 11, the data receiving unit 12, the video analysis unit 13, the profile storage unit 14, the control unit 15, and the video processing unit 16 provided in the video processing device 1 uses a program describing these functions in the CPU. It is realized by executing each. Further, each function of the video receiving unit 11, the video analysis unit 13, the profile storage unit 14, the control unit 17, and the video processing unit 16 provided in the video processing device 2 also causes the CPU to execute a program describing these functions. It is realized by each. Further, each function of the video receiving unit 11, the data receiving unit 12, the profile storage unit 14, the control unit 18, and the video processing unit 16 provided in the video processing device 3 also causes the CPU to execute a program describing these functions. It is realized by each.

これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。 These programs are stored in the storage medium, read by the CPU, and executed. In addition, these programs can be stored and distributed in storage media such as magnetic disks (floppy (registered trademark) disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memories, etc., and can be distributed via a network. You can also send and receive.

1,2,3 映像処理装置
11 映像受信部(映像信号入力部)
12 データ受信部(制御信号入力部)
13 映像解析部
14 プロファイル蓄積部
15,17,18 制御部
16 映像加工部
I 画素値列
R 加工可否情報
E 編集点情報
C カット検出値
F フリッカ検出値
P 光感受性発作リスクフラグ
D 3D対応フラグ
M 映像加工モード
J 映像信号
S 絶対値差分の総和
a1~a5,b1~b5 フレーム
α カット点
θ 閾値
1, 2, 3 Video processing device 11 Video receiver (video signal input)
12 Data receiving unit (control signal input unit)
13 Video analysis unit 14 Profile storage unit 15, 17, 18 Control unit 16 Video processing unit I Pixel value sequence R Processing availability information E Editing point information C Cut detection value F Flicker detection value P Light-sensitive attack risk flag D 3D compatible flag M Video processing mode J Video signal S Total of absolute value differences a1 to a5, b1 to b5 Frame α Cut point θ Threshold

Claims (4)

映像信号を入力して加工し、加工後の映像信号を生成する映像処理装置において、
前記加工後の映像信号が表示される表示デバイスの映像を観視する観視者に関する情報、前記加工後の映像信号が表示される前記表示デバイスに関する情報、または前記観視者に関する情報及び前記表示デバイスに関する情報がプロファイルとして蓄積されたプロファイル蓄積部と、
前記映像信号を解析し、映像の変化の特徴を示す解析結果を生成する映像解析部と、
前記映像信号を加工する際に補助となる補助データを含む制御信号を入力し、当該制御信号から前記補助データを抽出する制御信号入力部と、
前記映像解析部により生成された前記解析結果、前記プロファイル蓄積部に蓄積された前記プロファイル、及び前記制御信号入力部により抽出された前記補助データに基づいて、前記映像信号の加工内容を決定する制御部と、
前記制御部により決定された前記加工内容に応じて、前記映像信号を加工し、前記加工後の映像信号を生成する映像加工部と、
を備えたことを特徴とする映像処理装置。
In an image processing device that inputs and processes a video signal and generates a processed video signal.
Information about the viewer viewing the image of the display device on which the processed video signal is displayed, information about the display device on which the processed video signal is displayed, or information about the viewer and the above. A profile storage unit that stores information about display devices as a profile,
An image analysis unit that analyzes the image signal and generates an analysis result showing the characteristics of the change in the image.
A control signal input unit that inputs a control signal including auxiliary data that is auxiliary when processing the video signal and extracts the auxiliary data from the control signal.
The processing content of the video signal is determined based on the analysis result generated by the video analysis unit , the profile stored in the profile storage unit , and the auxiliary data extracted by the control signal input unit . Control unit and
An image processing unit that processes the video signal and generates the processed video signal according to the processing content determined by the control unit.
A video processing device characterized by being equipped with.
映像信号を入力して加工し、加工後の映像信号を生成する映像処理装置において、
前記加工後の映像信号が表示される表示デバイスの映像を観視する観視者に関する情報、前記加工後の映像信号が表示される前記表示デバイスに関する情報、または前記観視者に関する情報及び前記表示デバイスに関する情報がプロファイルとして蓄積されたプロファイル蓄積部と、
前記映像信号を解析し、映像の変化の特徴を示す解析結果を生成する映像解析部と、
前記映像解析部により生成された前記解析結果、及び前記プロファイル蓄積部に蓄積された前記プロファイルに基づいて、前記映像信号の加工内容を決定する制御部と、
前記制御部により決定された前記加工内容に応じて、前記映像信号を加工し、前記加工後の映像信号を生成する映像加工部と、を備え
前記映像信号を3D映像コンテンツの信号とし、
前記プロファイル蓄積部には、
前記表示デバイスが前記3D映像コンテンツに対応しているか否かを示す3D対応フラグのプロファイルが蓄積されており、
前記映像解析部は、
前記映像信号の画素値列からカット点を検出し、当該カット点の有無を示すカットフラグを生成し、
前記制御部は、
前記プロファイル蓄積部に蓄積された前記3D対応フラグのプロファイルが前記3D映像コンテンツに対応していることを示しており、かつ前記映像解析部により生成された前記カットフラグがカット点有りを示している場合、前記映像信号の前記カット点を基準にフェードアウトして黒画面へ移行した後、当該黒画面からフェードインする黒フェード挿入を前記加工内容として決定し、
前記映像加工部は、
前記制御部により決定された前記加工内容に応じて、前記映像信号に対して前記黒フェード挿入の加工を行い、前記加工後の映像信号を生成する、ことを特徴とする映像処理装置。
In an image processing device that inputs and processes a video signal and generates a processed video signal.
Information about the viewer viewing the image of the display device on which the processed video signal is displayed, information about the display device on which the processed video signal is displayed, or information about the viewer and the above. A profile storage unit that stores information about display devices as a profile,
An image analysis unit that analyzes the image signal and generates an analysis result showing the characteristics of the change in the image.
A control unit that determines the processing content of the video signal based on the analysis result generated by the video analysis unit and the profile stored in the profile storage unit.
A video processing unit that processes the video signal and generates the processed video signal according to the processing content determined by the control unit is provided .
The video signal is used as a signal for 3D video content.
In the profile storage part,
A profile of a 3D compatible flag indicating whether or not the display device supports the 3D video content is accumulated.
The video analysis unit
A cut point is detected from the pixel value sequence of the video signal, and a cut flag indicating the presence or absence of the cut point is generated.
The control unit
The profile of the 3D-compatible flag stored in the profile storage unit indicates that the profile corresponds to the 3D video content, and the cut flag generated by the video analysis unit indicates that there is a cut point. In this case, the black fade insertion that fades in from the black screen after fading out and shifting to the black screen based on the cut point of the video signal is determined as the processing content.
The video processing unit
An image processing apparatus characterized in that the black fade insertion process is performed on the video signal according to the processing content determined by the control unit, and the processed video signal is generated.
請求項に記載の映像処理装置において、
前記映像信号を3D映像コンテンツの信号とし、
前記プロファイル蓄積部には、
前記表示デバイスが前記3D映像コンテンツに対応しているか否かを示す3D対応フラグのプロファイルが蓄積されており、
前記制御信号入力部は、
前記映像信号に編集点があり、当該編集点がカット点であるか否かを示す編集点情報を含む制御信号を入力し、当該制御信号から前記編集点情報を抽出し、
前記制御部は、
前記プロファイル蓄積部に蓄積された前記3D対応フラグのプロファイルが前記3D映像コンテンツに対応していることを示しており、かつ前記制御信号入力部により抽出された前記編集点情報がカット点有りを示している場合、前記映像信号の前記カット点を基準にフェードアウトして黒画面へ移行した後、当該黒画面からフェードインする黒フェード挿入を前記加工内容として決定し、
前記映像加工部は、
前記制御部により決定された前記加工内容に応じて、前記映像信号に対して前記黒フェード挿入の加工を行い、前記加工後の映像信号を生成する、ことを特徴とする映像処理装置。
In the video processing apparatus according to claim 1 ,
The video signal is used as a signal for 3D video content.
In the profile storage part,
A profile of a 3D compatible flag indicating whether or not the display device supports the 3D video content is accumulated.
The control signal input unit is
The video signal has an edit point, a control signal including edit point information indicating whether or not the edit point is a cut point is input, and the edit point information is extracted from the control signal.
The control unit
The profile of the 3D-compatible flag stored in the profile storage unit indicates that the profile corresponds to the 3D video content, and the edit point information extracted by the control signal input unit indicates that there is a cut point. If so, the black fade insertion that fades in from the black screen after fading out based on the cut point of the video signal and shifting to the black screen is determined as the processing content.
The video processing unit
An image processing apparatus characterized in that the black fade insertion process is performed on the video signal according to the processing content determined by the control unit, and the processed video signal is generated.
コンピュータを、請求項1からまでのいずれか一項に記載の映像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the video processing device according to any one of claims 1 to 3 .
JP2017235699A 2017-12-08 2017-12-08 Video processing equipment and programs Active JP7018752B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017235699A JP7018752B2 (en) 2017-12-08 2017-12-08 Video processing equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017235699A JP7018752B2 (en) 2017-12-08 2017-12-08 Video processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2019103099A JP2019103099A (en) 2019-06-24
JP7018752B2 true JP7018752B2 (en) 2022-02-14

Family

ID=66977214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017235699A Active JP7018752B2 (en) 2017-12-08 2017-12-08 Video processing equipment and programs

Country Status (1)

Country Link
JP (1) JP7018752B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261694A (en) 1999-03-09 2000-09-22 Toshiba Video Products Japan Kk Video flicker preventing device
JP2004246725A (en) 2003-02-14 2004-09-02 Sharp Corp Display device, display control device, display control program, and computer-readable recording medium recording the same
JP2007184740A (en) 2006-01-06 2007-07-19 Nippon Hoso Kyokai <Nhk> Content transmitter and content output device
JP2008301150A (en) 2007-05-31 2008-12-11 Sharp Corp Image display apparatus and method
JP2011234238A (en) 2010-04-28 2011-11-17 Sharp Corp Video display device, video display control method, program for video display device, and computer-readable recording medium
WO2012057164A1 (en) 2010-10-25 2012-05-03 パナソニック株式会社 Encoding method, display device, decoding method
JP2015066262A (en) 2013-09-30 2015-04-13 富士フイルム株式会社 Image processor, image processing system, and image processing method
JP2017103745A (en) 2015-11-24 2017-06-08 三菱電機株式会社 Video reproduction device and video reproduction method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261694A (en) 1999-03-09 2000-09-22 Toshiba Video Products Japan Kk Video flicker preventing device
JP2004246725A (en) 2003-02-14 2004-09-02 Sharp Corp Display device, display control device, display control program, and computer-readable recording medium recording the same
JP2007184740A (en) 2006-01-06 2007-07-19 Nippon Hoso Kyokai <Nhk> Content transmitter and content output device
JP2008301150A (en) 2007-05-31 2008-12-11 Sharp Corp Image display apparatus and method
JP2011234238A (en) 2010-04-28 2011-11-17 Sharp Corp Video display device, video display control method, program for video display device, and computer-readable recording medium
WO2012057164A1 (en) 2010-10-25 2012-05-03 パナソニック株式会社 Encoding method, display device, decoding method
JP2015066262A (en) 2013-09-30 2015-04-13 富士フイルム株式会社 Image processor, image processing system, and image processing method
JP2017103745A (en) 2015-11-24 2017-06-08 三菱電機株式会社 Video reproduction device and video reproduction method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
白石 秀明 Hideaki SHIRAIHSI,光感受性てんかん Photosensitive epilepsy,医学のあゆみ IGAKU NO AYUMI ,第193巻,三浦 裕士 医歯薬出版株式会社,2000年05月06日,pp.538-543

Also Published As

Publication number Publication date
JP2019103099A (en) 2019-06-24

Similar Documents

Publication Publication Date Title
JP5321694B2 (en) System and method for providing closed captioning to 3D images
US9565415B2 (en) Method of presenting three-dimensional content with disparity adjustments
JP5750505B2 (en) 3D image error improving method and apparatus
JP4436762B2 (en) 3D image generation apparatus and 3D image distribution method
KR101975247B1 (en) Image processing apparatus and image processing method thereof
US20100091091A1 (en) Broadcast display apparatus and method for displaying two-dimensional image thereof
US8175162B2 (en) Image processing apparatus, image processing method, and program
JP2013527646A5 (en)
KR20120039767A (en) Recommended depth value for overlaying a graphics object on three-dimensional video
JPWO2010122775A1 (en) Video processing apparatus and video processing method
US20120075291A1 (en) Display apparatus and method for processing image applied to the same
US20130002656A1 (en) System and method for combining 3d text with 3d content
RU2589870C2 (en) 3d image data transmission
JP5599063B2 (en) Display control apparatus, display control method, and program
US20120268557A1 (en) 3d image processing apparatus and method for adjusting 3d effect thereof
JP7018752B2 (en) Video processing equipment and programs
JP2012186652A (en) Electronic apparatus, image processing method and image processing program
US20120281073A1 (en) Customization of 3DTV User Interface Position
JP2011223543A (en) Quasi stereoscopic image signal creating device, quasi stereoscopic image signal creating method, and information multiplexer
KR101796663B1 (en) Image processing apparatus and control method thereof
US20130047186A1 (en) Method to Enable Proper Representation of Scaled 3D Video
US20130120529A1 (en) Video signal processing device and video signal processing method
US11930207B2 (en) Display device, signal processing device, and signal processing method
KR20120087738A (en) A system, a method for displaying a 3-dimensional image and an apparatus for processing a 3-dimensional image
KR20120020306A (en) Apparatus and method for displaying of stereo scope images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220201

R150 Certificate of patent or registration of utility model

Ref document number: 7018752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150