JP7334470B2 - VIDEO PROCESSING DEVICE, VIDEO CONFERENCE SYSTEM, VIDEO PROCESSING METHOD, AND PROGRAM - Google Patents

VIDEO PROCESSING DEVICE, VIDEO CONFERENCE SYSTEM, VIDEO PROCESSING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP7334470B2
JP7334470B2 JP2019098709A JP2019098709A JP7334470B2 JP 7334470 B2 JP7334470 B2 JP 7334470B2 JP 2019098709 A JP2019098709 A JP 2019098709A JP 2019098709 A JP2019098709 A JP 2019098709A JP 7334470 B2 JP7334470 B2 JP 7334470B2
Authority
JP
Japan
Prior art keywords
image quality
video
unit
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019098709A
Other languages
Japanese (ja)
Other versions
JP2020058014A (en
Inventor
耕司 桑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US16/582,285 priority Critical patent/US20200106821A1/en
Publication of JP2020058014A publication Critical patent/JP2020058014A/en
Application granted granted Critical
Publication of JP7334470B2 publication Critical patent/JP7334470B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、映像処理装置、ビデオ会議システム、映像処理方法、およびプログラムに関する。 The present invention relates to a video processing device, a video conference system, a video processing method, and a program.

下記特許文献1には、監視カメラによって撮像された撮像画像に対し、動きや顔が検出されていない領域の画像を低画質化し、動きや顔が検出された領域の画像を、動きや顔が検出されていない領域の画像に比べて高画質化する技術が開示されている。この技術によれば、撮像画像の符号化データサイズを小さくして、ネットワークにおける伝送路の負担を軽減することができるとともに、動き領域の画像の視認性を良くすることができるとされている。 Japanese Patent Laid-Open No. 2002-200003 discloses that, in an image captured by a surveillance camera, the image in the area where the movement or face is not detected is reduced in quality, and the image in the area where the movement or face is detected is converted to an image with the movement or the face. Techniques have been disclosed for improving the image quality of an image of an area that has not been detected. According to this technique, it is possible to reduce the coded data size of a captured image, reduce the load on a transmission line in a network, and improve the visibility of an image in a motion area.

しかしながら、従来技術では、映像を低画質領域と高画質領域とに区分した場合、低画質領域と高画質領域との境界における画質の違いが目立ってしまい、視聴者に対して違和感を与えてしまうといった課題がある。 However, in the conventional technology, when an image is divided into a low image quality area and a high image quality area, the difference in image quality at the boundary between the low image quality area and the high image quality area becomes conspicuous, giving the viewer a sense of discomfort. There are issues such as

本発明は、上述した従来技術の課題を解決するため、映像データのデータ量を軽減するとともに、低画質領域と高画質領域との境界における画質の違いを目立ち難くすることができるようにすることを目的とする。 SUMMARY OF THE INVENTION In order to solve the above-described problems of the prior art, the present invention reduces the amount of video data and makes it possible to make the difference in image quality at the boundary between the low image quality area and the high image quality area inconspicuous. With the goal.

上述した課題を解決するために、本発明の映像処理装置は、映像を取得する映像取得部と、前記映像取得部によって取得された前記映像における領域毎に高周波成分を解析する映像解析部と、前記映像解析部による解析結果に応じて、前記映像における前記領域の少なくとも一部が、前記高周波成分がより多い領域ほど、より高画質となるように画質調整を行う画質調整部とを備える。 In order to solve the above-described problems, the image processing apparatus of the present invention includes an image acquisition unit that acquires an image, an image analysis unit that analyzes high-frequency components for each region in the image acquired by the image acquisition unit, an image quality adjustment unit that performs image quality adjustment such that at least a part of the area in the image has a higher image quality as the area having more high-frequency components, according to the analysis result of the image analysis unit.

本発明によれば、映像データのデータ量を軽減するとともに、低画質領域と高画質領域との境界における画質の違いを目立ち難くすることができる。 According to the present invention, it is possible to reduce the amount of video data and make the difference in image quality at the boundary between the low image quality area and the high image quality area less noticeable.

本発明の一実施形態に係るビデオ会議システムのシステム構成を示す図1 is a diagram showing the system configuration of a video conference system according to an embodiment of the present invention; FIG. 本発明の一実施形態に係るIWBの外観を示す図1 is a diagram showing the appearance of an IWB according to an embodiment of the present invention; FIG. 本発明の一実施形態に係るIWBのハードウェア構成を示す図1 is a diagram showing the hardware configuration of an IWB according to an embodiment of the present invention; FIG. 本発明の一実施形態に係るIWBの機能構成を示す図1 is a diagram showing the functional configuration of an IWB according to an embodiment of the present invention; FIG. 本発明の一実施形態に係るIWBによるビデオ会議実行制御処理の手順を示すフローチャート4 is a flowchart showing the procedure of videoconference execution control processing by IWB according to one embodiment of the present invention; 本発明の一実施形態に係る映像処理部による映像処理の手順を示すフローチャート4 is a flow chart showing the procedure of video processing by the video processing unit according to one embodiment of the present invention; 本発明の一実施形態に係る映像処理部による映像処理の一具体例を示す図FIG. 4 is a diagram showing a specific example of video processing by the video processing unit according to one embodiment of the present invention; 本発明の一実施形態に係る映像処理部による映像処理の一具体例を示す図FIG. 4 is a diagram showing a specific example of video processing by the video processing unit according to one embodiment of the present invention;

〔一実施形態〕
以下、図面を参照して、本発明の一実施形態について説明する。
[One embodiment]
An embodiment of the present invention will be described below with reference to the drawings.

(ビデオ会議システム10のシステム構成)
図1は、本発明の一実施形態に係るビデオ会議システム10のシステム構成を示す図である。図1に示すように、ビデオ会議システム10は、会議サーバ12、会議予約サーバ14、および複数のIWB(Interactive White Board)100を備えており、これら複数の装置が、インターネット、イントラネット、LAN(Local Area Network)等のネットワーク16に接続されて構成されている。ビデオ会議システム10は、これら複数の装置により、複数の拠点間でいわゆるビデオ会議を行うことができるようになっている。
(System configuration of video conference system 10)
FIG. 1 is a diagram showing the system configuration of a video conference system 10 according to one embodiment of the invention. As shown in FIG. 1, the videoconferencing system 10 includes a conference server 12, a conference reservation server 14, and a plurality of IWBs (Interactive White Boards) 100. These plurality of devices are connected to the Internet, an intranet, a LAN (Local Area Network) or the like. The videoconferencing system 10 can hold a so-called videoconference between a plurality of bases using these devices.

会議サーバ12は、「サーバ装置」の一例である。会議サーバ12は、複数のIWB100によるビデオ会議に関する各種制御を行う。例えば、会議サーバ12は、ビデオ会議の開始時においては、各IWB100と会議サーバ12との通信接続状態の監視、各IWB100に対する呼び出し等を行う。また、会議サーバ12は、ビデオ会議中においては、複数のIWB100の間における各種データ(例えば、映像データ、音声データ、描画データ等)の転送処理等を行う。 The conference server 12 is an example of a "server device". The conference server 12 performs various controls related to video conferences by a plurality of IWBs 100 . For example, the conference server 12 monitors the communication connection state between each IWB 100 and the conference server 12, calls each IWB 100, and the like, at the start of the video conference. Also, the conference server 12 performs transfer processing of various data (for example, video data, audio data, drawing data, etc.) between the plurality of IWBs 100 during the video conference.

会議予約サーバ14は、ビデオ会議の予約状況を管理する。具体的には、会議予約サーバ14は、外部の情報処理装置(例えば、PC(Personal Computer)等)からネットワーク16を介して入力された会議情報を管理する。会議情報には、例えば、開催日時、開催場所、参加者、役割、使用端末等が含まれている。ビデオ会議システム10は、会議予約サーバ14によって管理されている会議情報に基づいて、ビデオ会議を行う。 The conference reservation server 14 manages the reservation status of video conferences. Specifically, the conference reservation server 14 manages conference information input via the network 16 from an external information processing device (for example, a PC (Personal Computer), etc.). The meeting information includes, for example, date and time of meeting, place of meeting, participants, roles, terminals used, and the like. The video conference system 10 conducts video conferences based on conference information managed by the conference reservation server 14 .

IWB100は、「映像処理装置」、「撮像装置」、および「通信端末」の一例である。IWB100は、ビデオ会議が行われる各拠点に設置され、ビデオ会議の参加者によって使用される通信端末である。例えば、IWB100は、ビデオ会議において入力された各種データ(例えば、映像データ、音声データ、描画データ等)を、ネットワーク16および会議サーバ12を介して、他のIWB100へ送信することができる。また、例えば、IWB100は、他のIWB100から送信されてきた各種データを、データの種類に応じた出力方法(例えば、表示、音声出力等)によって出力することにより、ビデオ会議の参加者へ呈示することができる。 The IWB 100 is an example of a "video processing device," an "imaging device," and a "communication terminal." The IWB 100 is a communication terminal installed at each site where the videoconference is held and used by the participants of the videoconference. For example, the IWB 100 can transmit various data (eg, video data, audio data, drawing data, etc.) input in the videoconference to other IWBs 100 via the network 16 and conference server 12 . Also, for example, the IWB 100 presents various data transmitted from other IWBs 100 to the participants of the video conference by outputting them by an output method (for example, display, audio output, etc.) according to the type of data. be able to.

(IWB100の構成)
図2は、本発明の一実施形態に係るIWB100の外観を示す図である。図2に示すように、IWB100は、本体100Aの前面に、カメラ101、タッチパネル・ディスプレイ102、マイク103、およびスピーカ104を備えている。
(Configuration of IWB 100)
FIG. 2 is a diagram showing the appearance of IWB 100 according to one embodiment of the present invention. As shown in FIG. 2, the IWB 100 has a camera 101, a touch panel display 102, a microphone 103, and a speaker 104 on the front surface of the main body 100A.

カメラ101は、当該IWB100の前方の映像を撮像する。カメラ101は、例えば、レンズと、イメージセンサと、DSP(Digital Signal Processor)等の映像処理回路とを備えて構成されている。イメージセンサは、レンズによって集光された光を光電変換することにより、映像データ(RAWデータ)を生成する。イメージセンサとしては、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等が用いられる。映像処理回路は、イメージセンサによって生成された映像データ(RAWデータ)に対して、ベイヤー変換、3A制御(AE(自動露出制御)、AF(オートフォーカス)、およびAWB(オートホワイトバランス))等の一般的な映像処理を行うことにより、映像データ(YUVデータ)を生成する。そして、映像処理回路は、生成された映像データ(YUVデータ)を出力する。YUVデータは、色情報を、輝度信号(Y)と、輝度信号と青色成分との差(U)と、輝度信号と赤色成分との差(V)との組み合わせで表したものである。 A camera 101 captures an image in front of the IWB 100 . The camera 101 includes, for example, a lens, an image sensor, and an image processing circuit such as a DSP (Digital Signal Processor). An image sensor generates video data (RAW data) by photoelectrically converting light condensed by a lens. As the image sensor, for example, CCD (Charge Coupled Device), CMOS (Complementary Metal Oxide Semiconductor), etc. are used. The video processing circuit performs Bayer conversion, 3A control (AE (automatic exposure control), AF (autofocus), and AWB (automatic white balance)) on video data (RAW data) generated by the image sensor. Image data (YUV data) is generated by performing general image processing. The image processing circuit then outputs the generated image data (YUV data). YUV data represents color information by a combination of a luminance signal (Y), a difference (U) between the luminance signal and the blue component, and a difference (V) between the luminance signal and the red component.

タッチパネル・ディスプレイ102は、ディスプレイとタッチパネルとを備えた装置である。タッチパネル・ディスプレイ102は、ディスプレイにより、各種情報(例えば、映像データ、描画データ等)を表示することができる。また、タッチパネル・ディスプレイ102は、タッチパネルにより、操作体18(例えば、指、ペン等)の接触操作による、各種情報(例えば、文字、図形、画像等)の入力を行うことができる。ディスプレイとしては、例えば、液晶ディスプレイ、有機ELディスプレイ、電子ペーパー等を用いることができる。タッチパネルとしては、例えば、静電容量方式のタッチパネルを用いることができる。 The touch panel display 102 is a device that includes a display and a touch panel. The touch panel display 102 can display various information (for example, video data, drawing data, etc.) on the display. In addition, the touch panel display 102 can input various types of information (eg, characters, graphics, images, etc.) by a touch operation of the operation body 18 (eg, finger, pen, etc.) through the touch panel. As the display, for example, a liquid crystal display, an organic EL display, electronic paper, or the like can be used. As the touch panel, for example, a capacitive touch panel can be used.

マイク103は、IWB100の周囲の音声を集音し、当該音声に対応する音声データ(アナログデータ)を生成した後、当該音声データ(アナログデータ)をアナログ-デジタル変換することによって、集音された音声に対応する音声データ(デジタルデータ)を出力する。 The microphone 103 collects sound around the IWB 100, generates sound data (analog data) corresponding to the sound, and converts the sound data (analog data) from analog to digital. It outputs voice data (digital data) corresponding to voice.

スピーカ104は、音声データ(アナログデータ)に基づいて駆動されることにより、当該音声データに対応する音声を出力する。例えば、スピーカ104は、他拠点のIWB100から送信された音声データに基づいて駆動されることにより、他拠点においてIWB100によって集音された音声を出力する。 The speaker 104 outputs sound corresponding to the audio data by being driven based on the audio data (analog data). For example, the speaker 104 outputs sound collected by the IWB 100 at the other site by being driven based on audio data transmitted from the IWB 100 at the other site.

このように構成されたIWB100は、カメラ101から取得された映像データに対して、後述する映像処理および符号化処理を行うことによってデータ量の削減を行った後、当該映像データとともに、タッチパネル・ディスプレイ102から取得された各種表示データ(例えば、映像データ、描画データ等)、および、マイク103から取得された音声データを、会議サーバ12を介して他のIWB100へ送信することにより、これらのデータを他のIWB100と共有することができる。また、IWB100は、他のIWB100から送信された各種表示データ(例えば、映像データ、描画データ等)に基づく表示内容を、タッチパネル・ディスプレイ102によって表示するとともに、他のIWB100から送信された音声データに基づく音声を、スピーカ104によって音声出力することにより、これらの情報を他のIWB100と共有することができる。 The IWB 100 configured in this way reduces the amount of data by performing video processing and encoding processing, which will be described later, on the video data acquired from the camera 101, and then displays the video data together with the touch panel display. Various display data (for example, video data, drawing data, etc.) acquired from 102 and audio data acquired from microphone 103 are transmitted to other IWBs 100 via conference server 12, thereby enabling the transmission of these data. It can be shared with other IWBs 100 . In addition, the IWB 100 displays, on the touch panel display 102, display contents based on various display data (for example, video data, drawing data, etc.) transmitted from the other IWB 100, and also displays audio data transmitted from the other IWB 100. This information can be shared with other IWBs 100 by outputting the based voice through the speaker 104 .

例えば、図2に示す例では、タッチパネル・ディスプレイ102において、複数の表示領域102A,102Bを有する表示レイアウトが表示されている。表示領域102Aは、描画領域であり、操作体18によって描画された描画データが表示される。表示領域102Bは、カメラ101によって撮像された自拠点の映像が表示される。なお、タッチパネル・ディスプレイ102は、他のIWB100において描画された描画データ、他のIWB100によって撮像された他拠点の映像等を、表示することも可能である。 For example, in the example shown in FIG. 2, the touch panel display 102 displays a display layout having a plurality of display areas 102A and 102B. The display area 102A is a drawing area in which drawing data drawn by the operating tool 18 is displayed. In the display area 102B, an image of the own site captured by the camera 101 is displayed. Note that the touch panel display 102 can also display drawing data drawn by another IWB 100, video of another site captured by another IWB 100, and the like.

(IWB100のハードウェア構成)
図3は、本発明の一実施形態に係るIWB100のハードウェア構成を示す図である。図3に示すように、IWB100は、図2で説明したカメラ101、タッチパネル・ディスプレイ102、マイク103、およびスピーカ104に加えて、CPU(Central Processing Unit)を備えたシステムコントロール105、補助記憶装置106、メモリ107、通信I/F(Inter Face)108、操作部109、および録画装置110を備える。
(Hardware configuration of IWB 100)
FIG. 3 is a diagram showing the hardware configuration of the IWB 100 according to one embodiment of the invention. As shown in FIG. 3, the IWB 100 includes the camera 101, the touch panel display 102, the microphone 103, and the speaker 104 described in FIG. , a memory 107 , a communication I/F (Interface) 108 , an operation unit 109 , and a recording device 110 .

システムコントロール105は、補助記憶装置106またはメモリ107に記憶されている各種プログラムを実行することにより、IWB100の各種制御を行う。例えば、システムコントロール105は、CPU、周辺ユニットとのインタフェース、データアクセス調停機能等を備え、IWB100が備える各種ハードウェアの制御、IWB100が備えるビデオ会議に関する各種機能(図4参照)の実行制御を行う。 The system controller 105 performs various controls of the IWB 100 by executing various programs stored in the auxiliary storage device 106 or memory 107 . For example, the system control 105 includes a CPU, an interface with peripheral units, a data access arbitration function, and the like, and controls various hardware provided in the IWB 100 and executes various functions (see FIG. 4) related to the video conference provided in the IWB 100. .

例えば、システムコントロール105は、ビデオ会議に関する基本的な機能として、カメラ101から取得した映像データ、タッチパネル・ディスプレイ102から取得した描画データ、および、マイク103から取得した音声データを、通信I/F108を介して、他のIWB100へ送信する。 For example, the system control 105, as a basic function related to video conferencing, transmits video data acquired from the camera 101, drawing data acquired from the touch panel display 102, and audio data acquired from the microphone 103 through the communication I/F 108. to another IWB 100 via the

また、例えば、システムコントロール105は、カメラ101から取得された映像データに基づく映像、および、タッチパネル・ディスプレイ102から取得された描画データ(すなわち、自拠点の映像データおよび描画データ)に基づく描画内容を、タッチパネル・ディスプレイ102に表示させる。 Also, for example, the system controller 105 can control the image based on the image data acquired from the camera 101 and the rendering content based on the drawing data acquired from the touch panel display 102 (that is, the image data and drawing data of its own site). , is displayed on the touch panel display 102 .

また、例えば、システムコントロール105は、他拠点のIWB100から送信された映像データ、描画データ、および音声データを、通信I/F108を介して取得する。そして、システムコントロール105は、映像データに基づく映像、および、描画データに基づく描画内容を、タッチパネル・ディスプレイ102に表示させるとともに、音声データに基づく音声を、スピーカ104から音声出力させる。 Also, for example, the system controller 105 acquires video data, drawing data, and audio data transmitted from the IWB 100 at another site via the communication I/F 108 . The system controller 105 causes the touch panel display 102 to display the video based on the video data and the drawing content based on the drawing data, and outputs the audio based on the audio data from the speaker 104 .

補助記憶装置106は、システムコントロール105により実行される各種プログラム、システムコントロール105が各種プログラムを実行するために必要なデータ等を記憶する。補助記憶装置106としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)等の、不揮発性の記憶装置が用いられる。 The auxiliary storage device 106 stores various programs executed by the system controller 105, data necessary for the system controller 105 to execute various programs, and the like. As the auxiliary storage device 106, for example, a non-volatile storage device such as a flash memory or HDD (Hard Disk Drive) is used.

メモリ107は、システムコントロール105が各種プログラムを実行する際に利用する一時記憶領域として機能する。メモリ107としては、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等の、揮発性の記憶装置が用いられる。 The memory 107 functions as a temporary storage area used when the system control 105 executes various programs. As the memory 107, for example, a volatile storage device such as a DRAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory) is used.

通信I/F108は、ネットワーク16に接続し、ネットワーク16を介して他のIWB100との間で各種データの送受信を行うためのインタフェースである。通信I/F108としては、例えば、10Base-T,100Base-TX,1000Base-T等に対応した有線LANインタフェース、IEEE802.11a/b/g/n等に対応した無線LANインタフェース等、を用いることができる。 The communication I/F 108 is an interface for connecting to the network 16 and transmitting/receiving various data to/from another IWB 100 via the network 16 . As the communication I/F 108, for example, a wired LAN interface compatible with 10Base-T, 100Base-TX, 1000Base-T, etc., a wireless LAN interface compatible with IEEE802.11a/b/g/n, etc. can be used. can.

操作部109は、各種入力を行うためにユーザによって操作される。操作部109としては、例えば、キーボード、マウス、スイッチ等が用いられる。 The operation unit 109 is operated by the user to perform various inputs. As the operation unit 109, for example, a keyboard, mouse, switches, etc. are used.

録画装置110は、ビデオ会議における映像データおよび音声データを、メモリ107に録画記録する。また、録画装置110は、メモリ107に録画記録された映像データおよび音声データを再生する。 The recording device 110 records video data and audio data in the video conference in the memory 107 . Also, the recording device 110 reproduces video data and audio data recorded in the memory 107 .

(IWB100の機能構成)
図4は、本発明の一実施形態に係るIWB100の機能構成を示す図である。図4に示すように、IWB100は、主制御部120、映像取得部122、映像処理部150、符号化部128、送信部130、受信部132、復号化部134、表示制御部136、音声取得部138、音声処理部140、および、音声出力部142を備えている。
(Functional configuration of IWB 100)
FIG. 4 is a diagram showing the functional configuration of the IWB 100 according to one embodiment of the invention. As shown in FIG. 4, the IWB 100 includes a main control unit 120, a video acquisition unit 122, a video processing unit 150, an encoding unit 128, a transmission unit 130, a reception unit 132, a decoding unit 134, a display control unit 136, an audio acquisition It has a section 138 , an audio processing section 140 and an audio output section 142 .

映像取得部122は、カメラ101から取得された映像データ(YUVデータ)を取得する。映像取得部122によって取得される映像データは、複数のフレーム画像が組み合わされて構成されたものである。 The image acquisition unit 122 acquires image data (YUV data) acquired from the camera 101 . The video data acquired by the video acquisition unit 122 is configured by combining a plurality of frame images.

映像処理部150は、映像取得部122によって取得された映像データに対する映像処理を行う。映像処理部150は、ブロック化部151、映像解析部152、画質決定部153、特定領域検出部154、および画質調整部155を備える。 The video processing unit 150 performs video processing on the video data acquired by the video acquisition unit 122 . The image processing unit 150 includes a blocking unit 151 , an image analysis unit 152 , an image quality determination unit 153 , a specific area detection unit 154 and an image quality adjustment unit 155 .

ブロック化部151は、フレーム画像を複数のブロックに分割する。例えば、図7および図8に示す例では、ブロック化部151は、一のフレーム画像を48ブロック(8×6ブロック)に分割する。但し、この例では、説明をわかり易くするために比較的少ないブロック数を用いており、実際には、例えば、フレーム画像の解像度が640×360画素(VGA)である場合において、1ブロックを16×16画素とする場合、フレーム画像は40×23ブロックに分割されることとなる。また、例えば、フレーム画像の解像度が1920×1080画素(FullHD)である場合において、1ブロックを16×16画素とする場合、フレーム画像は120×68ブロックに分割されることとなる。 Blocking unit 151 divides a frame image into a plurality of blocks. For example, in the examples shown in FIGS. 7 and 8, the blocking unit 151 divides one frame image into 48 blocks (8×6 blocks). However, in this example, a relatively small number of blocks is used for the sake of clarity of explanation. In the case of 16 pixels, the frame image is divided into 40×23 blocks. Further, for example, when the resolution of the frame image is 1920×1080 pixels (Full HD), and one block is 16×16 pixels, the frame image is divided into 120×68 blocks.

映像解析部152は、複数のブロックの各々について高周波成分を解析する。「高周波成分を解析する」とは、高周波成分の量を数値化することである。高周波成分とは、隣接画素の濃淡差の大きさを表すものであり、すなわち、フレーム画像において、隣接画素の濃淡差が少ない領域は、高周波成分が少ない領域であり、隣接画素の濃淡差が多い領域は、高周波成分が多い領域である。高周波成分の解析方法としては、公知の如何なる方法を用いてもよいが、例えば、FFT(Fast Fourier Transform:高速フーリエ変換)、JPEG(Joint Photographic Experts Group)圧縮で用いられるDCT(Discrete Cosine Transform:離散コサイン変換)等を用いることができる。 The video analysis unit 152 analyzes high frequency components for each of the plurality of blocks. To "analyze high frequency components" means to quantify the amount of high frequency components. The high-frequency component represents the magnitude of the grayscale difference between adjacent pixels. That is, in a frame image, an area with a small grayscale difference between adjacent pixels is an area with few high-frequency components and a large grayscale difference between adjacent pixels. The region is a region with many high frequency components. Any known method may be used as a high-frequency component analysis method. cosine transform) or the like can be used.

画質決定部153は、複数のブロックの各々について、高周波成分の解析結果に応じて画質を決定する。具体的には、画質決定部153は、映像解析部152による高周波成分の解析結果に基づいて、複数のブロックの各々に対して画質を設定することにより、画質レベルマップを作成する。この際、画質決定部153は、映像解析部152による高周波成分の解析結果に基づいて、高周波成分がより多い領域ほど、より高画質となるように、各ブロックに対して画質を設定する。例えば、画質決定部153は、各ブロックに対して、4段階の画質「A(最高画質)」,「B(高画質)」,「C(中画質)」,「D(低画質)」のいずれかを設定する。 The image quality determination unit 153 determines image quality for each of the plurality of blocks according to the analysis result of the high frequency component. Specifically, the image quality determination unit 153 creates an image quality level map by setting the image quality for each of the plurality of blocks based on the analysis result of the high frequency components by the video analysis unit 152 . At this time, the image quality determination unit 153 sets the image quality for each block based on the analysis result of the high frequency components by the video analysis unit 152 so that the image quality is higher in areas with more high frequency components. For example, the image quality determining unit 153 selects four levels of image quality “A (highest image quality)”, “B (high image quality)”, “C (medium image quality)”, and “D (low image quality)” for each block. set either.

なお、画質決定部153は、上記のとおり一旦生成された画質レベルマップにおける画質設定を変更することができる。例えば、画質決定部153は、特定領域検出部154によって顔領域が検出された場合、顔領域の画質が当該顔領域以外の他の領域の画質よりも高画質となるように、画質レベルマップにおける画質設定を変更することができる。この際、画質決定部153は、顔領域の周辺の領域ではない領域の画質を、最低画質(例えば、画質「D」)に変更することで当該領域のデータ量を軽減することができる。 Note that the image quality determination unit 153 can change the image quality setting in the image quality level map once generated as described above. For example, when a face area is detected by the specific area detection unit 154, the image quality determining unit 153 sets the image quality in the image quality level map so that the image quality of the face area is higher than the image quality of other areas other than the face area. You can change the image quality settings. At this time, the image quality determination unit 153 can reduce the amount of data in the area by changing the image quality of the area other than the area around the face area to the lowest image quality (for example, image quality "D").

また、例えば、画質決定部153は、ネットワーク帯域(「送信の際に使用する通信資源」の一例)が不足していることを判定するための所定の第1の条件を満たす場合(例えば、通信速度が所定の第1の閾値以下である場合)、他の領域の画質を最低画質(例えば、画質「D」)に変更することで当該領域のデータ量を軽減することができる。また、例えば、画質決定部153は、ネットワーク帯域に余裕があることを判定するための所定の第2の条件を満たす場合(例えば、通信速度が所定の第2の閾値以上である場合。但し、第2の閾値≧第1の閾値とする)、顔領域の画質を最高画質(例えば、画質「A」)に変更することで当該顔領域を高画質化することができる。 Further, for example, the image quality determining unit 153 satisfies a predetermined first condition for determining that the network band (an example of “communication resources used for transmission”) is insufficient (for example, communication). If the speed is equal to or less than a predetermined first threshold), the image quality of other areas can be changed to the lowest image quality (for example, image quality "D"), thereby reducing the amount of data in that area. Further, for example, when the image quality determination unit 153 satisfies a predetermined second condition for determining that there is a margin in the network band (for example, when the communication speed is equal to or higher than a predetermined second threshold; however, second threshold≧first threshold), and by changing the image quality of the face region to the highest image quality (for example, image quality “A”), the image quality of the face region can be improved.

また、例えば、画質決定部153は、画質レベルマップを作成した際に、話者領域の周辺の領域ではない領域の画質を「D(低画質)」に変更した場合、当該話者領域の周辺の領域ではない領域の画質を、最初に作成された画質レベルマップに設定されている画質に戻すことができる。 Further, for example, when the image quality determination unit 153 changes the image quality of the area other than the area around the speaker area to "D (low image quality)" when creating the image quality level map, the image quality determination unit 153 changes the image quality of the area around the speaker area to "D (low image quality)". It is possible to restore the image quality of areas other than the area of , to the image quality set in the originally created image quality level map.

特定領域検出部154は、映像取得部122によって取得された映像データ(フレーム画像)における特定領域を検出する。具体的には、特定領域検出部154は、映像取得部122によって取得された映像データ(フレーム画像)において、人物の顔が検出される領域である顔領域を、特定領域として検出する。顔領域の検出方法としては、公知の如何なる方法を用いてもよいが、例えば、目、鼻、口などの特徴点を抽出して顔領域を検出する方法等が挙げられる。また、特定領域検出部154は、公知の何れかの検出方法を用いて、会話を行っている人物の顔が映し出されている顔領域を、話者領域として特定する。 The specific area detection section 154 detects a specific area in the video data (frame image) acquired by the video acquisition section 122 . Specifically, the specific area detection unit 154 detects, as a specific area, a face area in which a person's face is detected in the video data (frame image) acquired by the video acquisition unit 122 . Any known method may be used as a method for detecting a face area. For example, a method of extracting feature points such as the eyes, nose, and mouth to detect a face area may be used. Further, the specific area detection unit 154 uses any known detection method to identify, as a speaker area, a face area in which the face of a person who is having a conversation is displayed.

画質調整部155は、最終的な画質レベルマップにしたがって、一のフレーム画像に対し、画素毎に画質調整を行う。例えば、画質レベルマップにおいて、各ブロックに対して「A」,「B」,「C」,「D」のいずれかの画質が設定された場合、画質調整部155は、画質の高低関係が「A」>「B」>「C」>「D」となるように、各画素の画質を調整する。画質の調整方法としては公知の如何なる方法を用いてもよいが、例えば、画質調整部155は、画質「A」が設定されたブロックに対しては、元の画質を維持する。また、例えば、画質調整部155は、画質「B」,「C」,「D」が設定されたブロックに対しては、公知の何らかの画質調整方法(例えば、解像度調整、コントラスト調整、ローパスフィルタ、フレームレート調整等)を用いて、元の画質(画質「A」)から画質を低下させる。一例として、画質「A」が設定されたブロックに対しては、ローパスフィルタを適用せず、画質「B」が設定されたブロックに対しては、3×3のローパスフィルタを適用し、画質「C」が設定されたブロックに対しては、5×5のローパスフィルタを適用し、画質「D」が設定されたブロックに対しては、7×7のローパスフィルタを適用する。これにより、画質レベルに応じて、フレーム画像の情報量を適切に削減することができる。 The image quality adjustment unit 155 performs image quality adjustment for each pixel on one frame image according to the final image quality level map. For example, if one of "A", "B", "C", and "D" is set for each block in the image quality level map, the image quality adjustment unit 155 determines that the image quality level relationship is " The image quality of each pixel is adjusted so that A”>“B”>“C”>“D”. Any known method may be used as the image quality adjustment method. For example, the image quality adjustment unit 155 maintains the original image quality for blocks set to image quality "A". Further, for example, the image quality adjustment unit 155 applies some known image quality adjustment method (for example, resolution adjustment, contrast adjustment, low-pass filter, frame rate adjustment, etc.) is used to reduce the image quality from the original image quality (image quality "A"). As an example, a low-pass filter is not applied to blocks set with image quality "A", and a 3×3 low-pass filter is applied to blocks set with image quality "B". A 5×5 low-pass filter is applied to blocks set to "C", and a 7×7 low-pass filter is applied to blocks set to "D". As a result, the information amount of the frame image can be appropriately reduced according to the image quality level.

符号化部128は、映像処理部150による映像処理後の映像データを符号化する。符号化部128によって使用される符号化方式としては、例えば、H.264/AVC、H.264/SVC、H.265等が挙げられる。 The encoding unit 128 encodes video data after video processing by the video processing unit 150 . Encoding schemes used by the encoding unit 128 include, for example, H.264/AVC, H.264/SVC, H.265, and the like.

送信部130は、符号化部128によって符号化された映像データを、マイク103から取得された音声データ(音声処理部140による音声処理後の音声データ)とともに、ネットワーク16を介して、他のIWB100へ送信する。 The transmission unit 130 transmits the video data encoded by the encoding unit 128 to the other IWB 100 via the network 16 together with the audio data acquired from the microphone 103 (audio data after audio processing by the audio processing unit 140). Send to

受信部132は、他のIWB100から送信された映像データおよび音声データを、ネットワーク16を介して受信する。復号化部134は、所定の復号化方式により、受信部132によって受信された映像データを復号化する。復号化部134が用いる復号化方式は、符号化部128による符号化方式に対応する復号化方式(例えば、H.264/AVC、H.264/SVC、H.265等)である。 Receiving unit 132 receives video data and audio data transmitted from other IWBs 100 via network 16 . The decoding unit 134 decodes the video data received by the receiving unit 132 using a predetermined decoding method. The decoding method used by the decoding unit 134 is a decoding method (for example, H.264/AVC, H.264/SVC, H.265, etc.) corresponding to the encoding method used by the encoding unit 128 .

表示制御部136は、復号化部134によって復号化された映像データを再生することにより、当該映像データに基づく映像(すなわち、他拠点の映像)を、タッチパネル・ディスプレイ102に表示させる。また、表示制御部136は、カメラ101から取得された映像データを再生することにより、当該映像データに基づく映像(すなわち、自拠点の映像)を、タッチパネル・ディスプレイ102に表示させる。なお、表示制御部136は、IWB100に設定されているレイアウト設定情報に基づいて、複数種類の映像を、複数の表示領域を有する表示レイアウトで表示することができる。例えば、表示制御部136は、自拠点の映像と他拠点の映像とを同時に表示することができる。 The display control unit 136 reproduces the video data decoded by the decoding unit 134 so that the touch panel display 102 displays the video based on the video data (that is, the video of the other site). In addition, the display control unit 136 reproduces the video data acquired from the camera 101 so that the touch panel display 102 displays the video based on the video data (that is, the video of the home base). Note that the display control unit 136 can display multiple types of images in a display layout having multiple display areas based on layout setting information set in the IWB 100 . For example, the display control unit 136 can simultaneously display an image of its own site and an image of another site.

主制御部120は、IWB100の全体の制御を行う。例えば、主制御部120は、各モジュールの初期設定、カメラ101の撮影モードの設定、他のIWB100に対する通信開始要求、ビデオ会議の開始、ビデオ会議の終了、録画装置110による録画等の制御を行う。 The main control unit 120 controls the IWB 100 as a whole. For example, the main control unit 120 controls the initial setting of each module, the setting of the shooting mode of the camera 101, the communication start request to the other IWB 100, the start of the video conference, the end of the video conference, the recording by the recording device 110, and the like. .

音声取得部138は、マイク103から音声データを取得する。音声処理部140は、音声取得部138によって取得された音声データ、および、受信部132によって受信された音声データに対して、各種音声処理を行う。例えば、音声処理部140は、受信部132によって受信された音声データに対し、コーデック処理、ノイズキャンセル(NC)処理等、一般的な音声処理を行う。また、例えば、音声処理部140は、音声取得部138によって取得された音声データに対し、コーデック処理、エコーキャンセル(EC)処理等、一般的な音声処理を行う。 The voice acquisition unit 138 acquires voice data from the microphone 103 . The audio processing unit 140 performs various audio processing on the audio data acquired by the audio acquiring unit 138 and the audio data received by the receiving unit 132 . For example, the audio processing unit 140 performs general audio processing such as codec processing and noise cancellation (NC) processing on the audio data received by the receiving unit 132 . Also, for example, the audio processing unit 140 performs general audio processing such as codec processing and echo cancellation (EC) processing on the audio data acquired by the audio acquisition unit 138 .

音声出力部142は、受信部132によって受信された音声データ(音声処理部140による音声処理後の音声データ)をアナログ信号に変換して再生することにより、当該音声データに基づく音声(すなわち、他拠点の音声)を、スピーカ104から出力させる。 The audio output unit 142 converts the audio data received by the receiving unit 132 (audio data after audio processing by the audio processing unit 140) into an analog signal and reproduces it, thereby producing audio based on the audio data (that is, other data). base station) is output from the speaker 104 .

上記したIWB100の各機能は、例えば、IWB100において、補助記憶装置106に記憶されたプログラムを、システムコントロール105が有するCPUが実行することにより実現される。このプログラムは、予めIWB100に導入された状態で提供されてもよく、外部から提供されてIWB100に導入されるようにしてもよい。後者の場合、このプログラムは、外部記憶媒体(例えば、USBメモリ、メモリカード、CD-ROM等)によって提供されてもよく、ネットワーク(例えば、インターネット等)上のサーバからダウンロードすることによって提供されるようにしてもよい。なお、上記したIWB100の各機能のうち、一部の機能(例えば、映像処理部150の一部、または全機能、符号化部128、復号化部134等)については、システムコントロール105とは別に設けられた専用の処理回路によって実現されてもよい。 Each function of the IWB 100 described above is realized, for example, by the CPU of the system controller 105 executing a program stored in the auxiliary storage device 106 in the IWB 100 . This program may be provided with being installed in the IWB 100 in advance, or may be provided externally and installed in the IWB 100 . In the latter case, the program may be provided by an external storage medium (e.g., USB memory, memory card, CD-ROM, etc.) or provided by downloading from a server on a network (e.g., Internet, etc.). You may do so. Of the functions of the IWB 100 described above, some functions (for example, some or all of the functions of the video processing unit 150, the encoding unit 128, the decoding unit 134, etc.) are performed separately from the system control 105. It may be realized by dedicated processing circuitry provided.

(IWB100によるビデオ会議実行制御処理の手順)
図5は、本発明の一実施形態に係るIWB100によるビデオ会議実行制御処理の手順を示すフローチャートである。
(Procedure of video conference execution control processing by IWB 100)
FIG. 5 is a flow chart showing the procedure of videoconference execution control processing by the IWB 100 according to one embodiment of the present invention.

まず、主制御部120が、各モジュールの初期設定を行い、カメラ101による撮像が可能な状態とする(ステップS501)。次に、主制御部120が、カメラ101の撮影モードの設定を行う(ステップS502)。主制御部120による撮影モードの設定は、各種センサの出力に基づいて自動的に行われるものと、オペレータの操作入力により手動的に行われるものとを含み得る。そして、主制御部120が、他拠点のIWB100に対して、通信開始を要求し、ビデオ会議を開始する(ステップS503)。なお、主制御部120は、他のIWB100からの通信開始要求を受けたことをもって、ビデオ会議を開始してもよい。また、主制御部120は、ビデオ会議が開始されると同時に、録画装置110による映像および音声の録画を開始してもよい。 First, the main control unit 120 performs initial setting of each module to enable imaging by the camera 101 (step S501). Next, the main control unit 120 sets the shooting mode of the camera 101 (step S502). The setting of the photographing mode by the main control unit 120 can include those automatically performed based on the outputs of various sensors and those manually performed by the operator's operation input. Then, the main control unit 120 requests the IWB 100 at the other site to start communication, and starts the video conference (step S503). Note that the main control unit 120 may start the videoconference upon receiving a communication start request from another IWB 100 . Also, the main control unit 120 may start the video and audio recording by the recording device 110 at the same time as the video conference is started.

ビデオ会議が開始されると、一方では、映像取得部122が、カメラ101から映像データ(YUVデータ)を取得するとともに、音声取得部138が、マイク103から音声データを取得する(ステップS504)。そして、映像処理部150が、ステップS504で取得された映像データに対する映像処理(図6で詳細に説明される)を行うとともに、音声処理部140が、ステップS504で取得された音声データに対する各種音声処理を行う(ステップS505)。さらに、符号化部128が、ステップS505による映像処理後の映像データを符号化する(ステップS506)。そして、送信部130が、ステップS506で符号化された映像データを、ステップS504で取得された音声データとともに、ネットワーク16を介して、他のIWB100へ送信する(ステップS507)。 When the video conference is started, on the one hand, the video acquisition unit 122 acquires video data (YUV data) from the camera 101, and the audio acquisition unit 138 acquires audio data from the microphone 103 (step S504). Then, the video processing unit 150 performs video processing (described in detail in FIG. 6) for the video data acquired in step S504, and the audio processing unit 140 performs various audio processing for the audio data acquired in step S504. Processing is performed (step S505). Furthermore, the encoding unit 128 encodes the video data after the video processing in step S505 (step S506). Then, the transmission unit 130 transmits the video data encoded in step S506 together with the audio data acquired in step S504 to another IWB 100 via the network 16 (step S507).

ステップS504~S507と並行して、受信部132が、他のIWB100から送信された映像データおよび音声データを、ネットワーク16を介して受信する(ステップS508)。そして、復号化部134が、ステップS508で受信された映像データを復号化する。また、音声処理部140が、ステップS508で受信された音声データに対して、各種音声処理を行う(ステップS510)。さらに、表示制御部136が、ステップS509で復号化された映像データに基づく映像を、タッチパネル・ディスプレイ102に表示させるとともに、音声出力部142が、ステップS510による音声処理後の音声データに基づく音声を、スピーカ104から出力させる(ステップS511)。なお、ステップS511では、さらに、表示制御部136が、ステップS504で取得された映像データに基づく映像(すなわち、自拠点の映像)を、タッチパネル・ディスプレイ102に表示させることもできる。 In parallel with steps S504 to S507, receiving unit 132 receives video data and audio data transmitted from other IWBs 100 via network 16 (step S508). Then, the decoding unit 134 decodes the video data received in step S508. Also, the audio processing unit 140 performs various audio processing on the audio data received in step S508 (step S510). Furthermore, the display control unit 136 causes the touch panel display 102 to display the video based on the video data decoded in step S509, and the audio output unit 142 outputs audio based on the audio data after the audio processing in step S510. , is output from the speaker 104 (step S511). In addition, in step S511, the display control unit 136 can also cause the touch panel display 102 to display an image based on the image data acquired in step S504 (that is, the image of its own site).

ステップS504~S507の送信処理に続いて、主制御部120が、ビデオ会議が終了したか否かを判断する(ステップS512)。また、ステップS508~S511の受信処理に続いて、主制御部120が、ビデオ会議が終了したか否かを判断する(ステップS513)。ビデオ会議の終了は、例えば、ビデオ会議に参加しているいずれかのIWB100において、ユーザによる所定の終了操作がなされた場合に確定する。ステップS512において、ビデオ会議が終了していないと判断された場合(ステップS512:No)、IWB100は、ステップS504へ処理を戻す。すなわち、ステップS504~S507の送信処理が繰り返し実行される。また、ステップS513において、ビデオ会議が終了していないと判断された場合(ステップS513:No)、IWB100は、ステップS508へ処理を戻す。すなわち、ステップS508~S511の受信処理が繰り返し実行される。一方、ステップS512またはステップS513において、ビデオ会議が終了したと判断された場合(ステップS512:Yes、または、ステップS513:Yes)、IWB100は、図5に示す一連の処理を終了する。 Following the transmission process of steps S504 to S507, main control unit 120 determines whether or not the video conference has ended (step S512). Further, following the reception process of steps S508 to S511, the main control unit 120 determines whether or not the video conference has ended (step S513). The end of the videoconference is determined, for example, when the user performs a predetermined end operation in any of the IWBs 100 participating in the videoconference. If it is determined in step S512 that the video conference has not ended (step S512: No), the IWB 100 returns to step S504. That is, the transmission process of steps S504 to S507 is repeatedly executed. If it is determined in step S513 that the video conference has not ended (step S513: No), the IWB 100 returns to step S508. That is, the receiving process of steps S508 to S511 is repeatedly executed. On the other hand, if it is determined in step S512 or step S513 that the video conference has ended (step S512: Yes or step S513: Yes), the IWB 100 ends the series of processes shown in FIG.

(映像処理部150による映像処理の手順)
図6は、本発明の一実施形態に係る映像処理部150による映像処理の手順を示すフローチャートである。図6は、図5のフローチャートにおけるステップS505の映像処理の手順を詳細に表すものである。
(Procedure of video processing by video processing unit 150)
FIG. 6 is a flow chart showing the procedure of image processing by the image processing unit 150 according to one embodiment of the present invention. FIG. 6 shows in detail the video processing procedure of step S505 in the flowchart of FIG.

まず、ブロック化部151が、映像データを構成する複数のフレーム画像のうち、古いフレーム画像から順に、一のフレーム画像を選択する(ステップS601)。そして、ブロック化部151が、ステップS601で選択された一のフレーム画像を、複数のブロックに分割する(ステップS602)。 First, the blocking unit 151 sequentially selects one frame image from among a plurality of frame images forming video data (step S601). Then, the blocking unit 151 divides one frame image selected in step S601 into a plurality of blocks (step S602).

次に、映像解析部152が、ステップS601で選択された一のフレーム画像に対し、ステップS602で分割されたブロック毎に、高周波成分を解析する(ステップS603)。 Next, the video analysis unit 152 analyzes the high-frequency components of the one frame image selected in step S601 for each block divided in step S602 (step S603).

そして、画質決定部153が、ステップS603による高周波成分の解析結果に基づいて、ステップS601で選択された一のフレーム画像に対し、ステップS602で分割されたブロック毎に画質を設定することにより、画質レベルマップを作成する(ステップS604)。 Then, the image quality determination unit 153 sets the image quality for each block divided in step S602 for the one frame image selected in step S601 based on the analysis result of the high-frequency component in step S603. A level map is created (step S604).

次に、特定領域検出部154が、ステップS601で選択された一のフレーム画像に対し、人物の顔が映し出されている領域である顔領域を検出する(ステップS605)。さらに、特定領域検出部154が、ステップS605で検出された顔領域の中から、会話を行っている人物の顔が映し出されている領域である話者領域を検出する(ステップS606)。 Next, the specific area detection unit 154 detects a face area, which is an area in which a person's face is displayed, from the one frame image selected in step S601 (step S605). Further, the specific area detection unit 154 detects a speaker area, which is an area in which the face of a person who is having a conversation is displayed, from the face areas detected in step S605 (step S606).

そして、画質決定部153が、ステップS605による顔領域の検出結果と、ステップS606による話者領域の検出結果とに基づいて、ステップS604で作成された画質レベルマップを変更する(ステップS607)。例えば、画質決定部153は、ステップS604で作成された画質レベルマップに対し、話者領域である顔領域の画質を「A(最高画質)」に変更し、話者領域ではない顔領域の画質を「B(高画質)」に変更する。加えて、画質決定部153は、ステップS604で作成された画質レベルマップに対し、話者領域の周辺の領域の画質を変更することなく、話者領域の周辺の領域ではない領域の画質を「D(低画質)」に変更する。 Then, the image quality determining unit 153 changes the image quality level map created in step S604 based on the face area detection result in step S605 and the speaker area detection result in step S606 (step S607). For example, the image quality determination unit 153 changes the image quality of the face area, which is the speaker area, to "A (highest image quality)" for the image quality level map created in step S604, and changes the image quality of the face area, which is not the speaker area, to "B (high quality)". In addition, the image quality determination unit 153 sets the image quality of the area other than the speaker area to " D (low quality)”.

次に、画質決定部153が、ビデオ会議に使用中のネットワーク帯域に余裕があるか否かを判断する(ステップS608)。ステップS608において、ネットワーク帯域に余裕があると判断された場合(ステップS608:Yes)、画質決定部153が、一部の領域の画質を高めるように、画質レベルマップを変更する(ステップS609)。例えば、画質決定部153は、話者領域ではない顔領域の画質を「B(高画質)」から「A(最高画質)」に変更し、さらに、話者領域の周辺の領域ではない領域の画質を、ステップS604で最初に作成された画質レベルマップに設定されている画質に戻す。その後、映像処理部150が、ステップS612へ処理を進める。 Next, the image quality determination unit 153 determines whether the network band being used for the videoconference has room (step S608). In step S608, if it is determined that there is enough network bandwidth (step S608: Yes), the image quality determination unit 153 changes the image quality level map so as to improve the image quality of some areas (step S609). For example, the image quality determination unit 153 changes the image quality of the face area that is not the speaker area from "B (high image quality)" to "A (best image quality)", and furthermore, changes the image quality of the area that is not the peripheral area of the speaker area. The image quality is returned to the image quality set in the image quality level map initially created in step S604. After that, the video processing unit 150 advances the process to step S612.

一方、ステップS608において、ビデオ会議に使用中のネットワーク帯域に余裕がないと判断された場合(ステップS608:No)、画質決定部153が、ネットワーク帯域が不足しているか否かを判断する(ステップS610)。ステップS610において、ネットワーク帯域が不足していると判断された場合(ステップS610:Yes)、画質決定部153は、顔領域以外の他の領域の画質を「D(低画質)」に変更する(ステップS611)。そして、映像処理部150が、ステップS612へ処理を進める。 On the other hand, if it is determined in step S608 that the network band being used for the video conference does not have enough margin (step S608: No), the image quality determining unit 153 determines whether the network band is insufficient (step S610). In step S610, if it is determined that the network bandwidth is insufficient (step S610: Yes), the image quality determination unit 153 changes the image quality of areas other than the face area to "D (low image quality)" ( step S611). Then, video processing unit 150 advances the process to step S612.

一方、ステップS610において、ネットワーク帯域が不足していないと判断された場合(ステップS610:No)、映像処理部150が、ステップS612へ処理を進める。 On the other hand, if it is determined in step S610 that the network bandwidth is not insufficient (step S610: No), the video processing unit 150 advances the process to step S612.

ステップS612では、画質調整部155が、最終的な画質レベルマップにしたがって、ステップS601で選択された一のフレーム画像に対し、画素毎に画質調整を行う。 In step S612, the image quality adjustment unit 155 performs image quality adjustment for each pixel on the one frame image selected in step S601 according to the final image quality level map.

その後、映像処理部150は、映像データを構成する全てのフレーム画像に対して、上記の映像処理を行ったか否かを判断する(ステップS613)。ステップS613において、全てのフレーム画像に対して映像処理を行っていないと判断された場合(ステップS613:No)、映像処理部150は、ステップS601へ処理を戻す。一方、ステップS613において、全てのフレーム画像に対して映像処理を行ったと判断された場合(ステップS613:Yes)、映像処理部150は、図6に示す一連の処理を終了する。 After that, the video processing unit 150 determines whether or not the above video processing has been performed on all the frame images forming the video data (step S613). When it is determined in step S613 that video processing has not been performed on all frame images (step S613: No), the video processing unit 150 returns the processing to step S601. On the other hand, if it is determined in step S613 that video processing has been performed on all frame images (step S613: Yes), the video processing unit 150 ends the series of processes shown in FIG.

(映像処理部150による映像処理の一具体例)
図7および図8は、本発明の一実施形態に係る映像処理部150による映像処理の一具体例を示す図である。図7に示すフレーム画像700は、映像処理部150による映像処理の対象とされる一のフレーム画像の一例を表したものである。
(Specific example of video processing by video processing unit 150)
7 and 8 are diagrams showing a specific example of video processing by the video processing unit 150 according to one embodiment of the present invention. A frame image 700 shown in FIG. 7 represents an example of one frame image to be subjected to video processing by the video processing unit 150 .

まず、図7(a)に示すように、フレーム画像700は、ブロック化部151により、複数のブロックに分割される。図7(a)に示す例では、フレーム画像700は、48ブロック(8×6ブロック)に分割されている。 First, as shown in FIG. 7A, a frame image 700 is divided into a plurality of blocks by the blocking unit 151. FIG. In the example shown in FIG. 7A, the frame image 700 is divided into 48 blocks (8×6 blocks).

次に、フレーム画像700は、映像解析部152により、複数のブロックの各々について高周波成分が解析される。図7(a)に示す例では、各ブロックに対し、高周波成分の解析結果である高周波成分のレベルとして「0」~「3」のいずれかが示されている。ここでは、高周波成分のレベルの大小関係は、「3」>「2」>「1」>「0」である。 Next, the video analysis unit 152 analyzes the high frequency components of each of the plurality of blocks in the frame image 700 . In the example shown in FIG. 7(a), any one of "0" to "3" is shown as the level of the high-frequency component, which is the analysis result of the high-frequency component, for each block. Here, the magnitude relationship of the levels of high-frequency components is "3">"2">"1">"0".

次に、画質決定部153により、フレーム画像700に対応する画質レベルマップが作成される。図7(b)に示す画質レベルマップ800は、図7(a)に示す高周波成分の解析結果に基づいて、画質決定部153によって作成されたものである。図7(b)に示す例では、画質レベルマップ800では、各ブロックに対し、画質として「A(最高画質)」,「B(高画質)」,「C(中画質)」,「D(低画質)」のいずれかが設定されている。画質「A」,「B」,「C」,「D」は、それぞれ、高周波成分のレベル「3」,「2」,「1」,「0」に対応する。 Next, an image quality level map corresponding to the frame image 700 is created by the image quality determining section 153 . The image quality level map 800 shown in FIG. 7(b) is created by the image quality determination unit 153 based on the analysis results of the high frequency components shown in FIG. 7(a). In the example shown in FIG. 7B, in the image quality level map 800, for each block, the image quality is "A (highest image quality)", "B (high image quality)", "C (middle image quality)", "D ( low image quality)” is set. The image qualities "A", "B", "C" and "D" correspond to the high frequency component levels "3", "2", "1" and "0", respectively.

次に、特定領域検出部154により、フレーム画像700から、人物の顔が映し出されている領域である顔領域が検出される。さらに、特定領域検出部154により、フレーム画像700において検出された顔領域の中から、会話を行っている人物の顔が映し出されている領域である話者領域が検出される。図7(c)に示す例では、顔領域710,712が検出されている。このうち、顔領域710は、話者領域として検出されている。 Next, the specific area detection unit 154 detects a face area, which is an area in which a person's face is displayed, from the frame image 700 . Further, the specific area detection unit 154 detects, from the face areas detected in the frame image 700, a speaker area, which is an area in which the face of a person who is having a conversation is displayed. In the example shown in FIG. 7C, face areas 710 and 712 are detected. Of these, the face area 710 is detected as the speaker area.

そして、画質決定部153により、顔領域710,712の検出結果に基づいて、画質レベルマップ800が変更される。例えば、図8(a)に示す例では、画質決定部153により、図7(b)に示す画質レベルマップ800に対し、話者領域である顔領域710の画質が「A(最高画質)」に変更されており、話者領域ではない顔領域712の画質が「B(高画質)」に変更されている。また、図8(a)に示す例では、顔領域710,712以外の他の領域(以下、「背景領域720」と示す)においては、画質決定部153により、顔領域710の周辺の領域の画質が変更されることなく、顔領域710の周辺の領域ではない領域の画質が「D(低画質)」に変更されている。 Then, the image quality determination unit 153 changes the image quality level map 800 based on the detection results of the face areas 710 and 712 . For example, in the example shown in FIG. 8(a), the image quality determination unit 153 sets the image quality of the face area 710, which is the speaker area, to "A (best image quality)" for the image quality level map 800 shown in FIG. 7(b). , and the image quality of the face area 712 that is not the speaker area is changed to "B (high image quality)". Further, in the example shown in FIG. 8A, in areas other than the face areas 710 and 712 (hereinafter referred to as "background area 720"), the image quality determining unit 153 The image quality of the area other than the peripheral area of the face area 710 is changed to "D (low image quality)" without changing the image quality.

さらに、ビデオ会議に使用中のネットワーク帯域に余裕があると判断された場合、画質決定部153により、一部の領域の画質を高めるように、画質レベルマップ800が変更される。 Furthermore, when it is determined that the network band being used for the video conference has room, the image quality determination unit 153 changes the image quality level map 800 so as to increase the image quality of a part of the area.

例えば、図8(b)に示す例では、画質決定部153により、画質レベルマップ800において、顔領域712の画質が「B(高画質)」から「A(最高画質)」に変更されている。 For example, in the example shown in FIG. 8B, the image quality determination unit 153 changes the image quality of the face area 712 from "B (high image quality)" to "A (highest image quality)" in the image quality level map 800. .

また、図8(c)に示す例では、画質決定部153により、画質レベルマップ800において、背景領域720における話者領域の周辺の領域ではない領域の画質が、画質「D(低画質)」から、図7(b)に示す最初に設定された画質に戻されている。 In the example shown in FIG. 8(c), the image quality determining unit 153 sets the image quality of the area other than the surrounding area of the speaker area in the background area 720 to the image quality "D (low image quality)" in the image quality level map 800. , the image quality is returned to the initially set image quality shown in FIG. 7(b).

反対に、ビデオ会議に使用中のネットワーク帯域が不足していると判断された場合、図8(d)に示すように、画質決定部153により、画質レベルマップ800において、背景領域720の画質が、「D(低画質)」に変更される。 Conversely, if it is determined that the network bandwidth being used for the videoconference is insufficient, the image quality determination unit 153 determines that the image quality of the background area 720 is reduced in the image quality level map 800, as shown in FIG. 8(d). , is changed to “D (low image quality)”.

フレーム画像700は、画質調整部155により、上記のように作成される最終的な画質レベルマップ800(図7(b)、図8(a)~(d)のいずれかの画質レベルマップ800)に基づいて、画素毎に画質調整が行われる。 The frame image 700 is the final image quality level map 800 created as described above by the image quality adjustment unit 155 (one of the image quality level maps 800 shown in FIG. 7(b) and FIGS. 8(a) to (d)). Image quality adjustment is performed for each pixel based on.

これにより、フレーム画像700は、視聴者からの注目度が比較的高い顔領域710,712においては、比較的高い画質が設定されたものとなり、視聴者からの注目度が比較的低い背景領域720においては、比較的低い画質が設定されたものとなる。 As a result, the frame image 700 has a relatively high image quality set in the face regions 710 and 712 that attract relatively high viewer attention, and the background region 720 that receives relatively low viewer attention. In , a relatively low image quality is set.

但し、フレーム画像700において、背景領域720は、高周波数成分の解析結果に応じて、画質劣化が比較的目立ち易い領域(ブラインド等、高周波数成分が多い領域)については、比較的高い画質が設定され、画質劣化が比較的目立ち難い領域(壁、ディスプレイ等、高周波数成分が少ない領域)については、比較的低い画質が設定される。このため、フレーム画像700は、背景領域720における画質劣化が目立ち難いものとなる。 However, in the frame image 700, for the background area 720, relatively high image quality is set for areas where image quality deterioration is relatively noticeable (areas with many high frequency components such as blinds) according to the analysis result of the high frequency components. A relatively low image quality is set for areas where image quality deterioration is relatively inconspicuous (areas with few high-frequency components, such as walls and displays). For this reason, frame image 700 is one in which image quality deterioration in background area 720 is less noticeable.

さらに、フレーム画像700において、背景領域720は、ブロック単位で段階的に画質が空間方向に変化するものとなる。このため、フレーム画像700は、背景領域720において、比較的高い画質が設定される領域と、比較的低い画質が設定される領域との境界における画質の違いが目立ち難いものとなる。 Furthermore, in the frame image 700, the image quality of the background area 720 changes step by block in the spatial direction. Therefore, in the frame image 700, in the background area 720, the difference in image quality at the boundary between the area where relatively high image quality is set and the area where relatively low image quality is set is less noticeable.

したがって、本実施形態のIWB100によれば、映像データのデータ量を軽減するとともに、低画質領域と高画質領域との境界における画質の違いを目立ち難くすることができる。 Therefore, according to the IWB 100 of this embodiment, it is possible to reduce the amount of video data and make the difference in image quality at the boundary between the low image quality area and the high image quality area less noticeable.

以上、本発明の好ましい実施形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to these embodiments, and various modifications or Change is possible.

例えば、上記実施形態では、「映像処理装置」および「通信端末」の一例としてIWB100(電子黒板)を用いているが、これに限らない。例えば、上記実施形態で説明したIWB100の機能は、撮像装置を備えた他の情報処理装置(例えば、スマートフォン、タブレット端末、ノートパソコン等)によって実現されてもよく、撮像装置を備えていない他の情報処理装置(例えば、パーソナルコンピュータ等)によって実現されてもよい。 For example, in the above embodiment, the IWB 100 (electronic blackboard) is used as an example of the "video processing device" and the "communication terminal", but the present invention is not limited to this. For example, the functions of the IWB 100 described in the above embodiments may be implemented by other information processing devices (for example, smart phones, tablet terminals, laptop computers, etc.) equipped with an imaging device, and other information processing devices without an imaging device may be implemented. It may be implemented by an information processing device (for example, a personal computer, etc.).

また、例えば、上記実施形態では、本発明をビデオ会議システムに適用した例を説明したが、これに限らない。すなわち、本発明は、映像データの一部の領域を低画質化することによってデータ量の削減を目的とするものであれば、如何なる用途にも適用可能である。また、本発明は、映像データの符号化および復号化を行わない情報処理装置にも適用可能である。 Also, for example, in the above embodiment, an example in which the present invention is applied to a video conference system has been described, but the present invention is not limited to this. That is, the present invention can be applied to any application as long as the purpose is to reduce the amount of data by lowering the image quality of a partial area of video data. Moreover, the present invention can also be applied to an information processing apparatus that does not encode or decode video data.

また、例えば、上記実施形態では、「特定領域」の一例として顔検出領域を用いているが、これに限らない。すなわち、「特定領域」は、比較的高画質とすることが好ましい被写体(例えば、文字や画像が示されている資料、ホワイトボード、監視カメラにおける人物等)が映し出されている領域であれば、如何なる領域であってもよい。 Also, for example, in the above embodiment, the face detection area is used as an example of the "specific area", but the present invention is not limited to this. That is, if the "specific area" is an area in which a subject that is preferably of relatively high image quality (for example, a document showing text or an image, a whiteboard, a person in a surveillance camera, etc.) is projected, It can be any area.

また、上記実施形態において、各処理に用いられる各種設定値(例えば、特定領域の検出対象とする被写体の種類、フレーム画像を分割する際のブロックサイズ,ブロック数、高周波成分の解析結果のレベルの段階数、画質レベルの段階数、画質調整の際の調整項目,調整量、等)は、予め好適な値が設定されたものであってもよく、ユーザが、ユーザインタフェースを備える情報処理装置(例えば、パーソナルコンピュータ等)から、好適な値を任意に設定可能であってもよい。 In the above embodiment, various setting values used for each process (for example, the type of subject to be detected in a specific area, the block size and number of blocks used when dividing a frame image, the level of analysis results of high-frequency components, etc.) The number of steps, the number of steps of image quality level, adjustment items and adjustment amounts for image quality adjustment, etc.) may be set to suitable values in advance. For example, it may be possible to arbitrarily set suitable values from a personal computer or the like.

10 ビデオ会議システム
12 会議サーバ(サーバ装置)
14 会議予約サーバ
16 ネットワーク
100 IWB(映像処理装置、撮像装置、通信端末)
101 カメラ(撮像部)
102 タッチパネル・ディスプレイ(表示装置)
103 マイク
104 スピーカ
108 通信I/F(通信部)
120 主制御部
122 映像取得部
128 符号化部
130 送信部
132 受信部
134 復号化部
136 表示制御部
138 音声取得部
140 音声処理部
142 音声出力部
150 映像処理部
151 ブロック化部
152 映像解析部
153 画質決定部
154 特定領域検出部
155 画質調整部
10 video conference system 12 conference server (server device)
14 conference reservation server 16 network 100 IWB (video processing device, imaging device, communication terminal)
101 camera (imaging unit)
102 touch panel display (display device)
103 Microphone 104 Speaker 108 Communication I/F (Communication Unit)
120 main control unit 122 video acquisition unit 128 encoding unit 130 transmission unit 132 reception unit 134 decoding unit 136 display control unit 138 audio acquisition unit 140 audio processing unit 142 audio output unit 150 video processing unit 151 blocking unit 152 video analysis unit 153 Image quality determination unit 154 Specific area detection unit 155 Image quality adjustment unit

特開2017-163228号公報JP 2017-163228 A

Claims (10)

映像を取得する映像取得部と、
前記映像取得部によって取得された前記映像における領域毎に高周波成分を解析する映像解析部と、
前記映像における人物の顔が映し出されている領域である特定領域を検出する特定領域検出部と、
前記映像解析部による解析結果に応じて、前記映像における前記領域の少なくとも一部が、前記高周波成分がより多い領域ほど、より高画質となるように画質調整を行う画質調整部と、を備え、
前記画質調整部は、
前記特定領域の画質が、前記特定領域以外の他の領域の画質よりも高くなるように、前記画質調整を行うとともに、
前記特定領域検出部によって複数の前記特定領域が検出された場合、会話を行っていない人物の顔が映し出されている前記特定領域を、会話を行っている人物の顔が映し出されている前記特定領域よりも低画質にする
とを特徴とする映像処理装置。
an image acquisition unit that acquires an image;
a video analysis unit that analyzes high-frequency components for each region in the video acquired by the video acquisition unit;
a specific area detection unit that detects a specific area that is an area in which a person's face is displayed in the video;
an image quality adjustment unit that adjusts the image quality so that at least a part of the region in the image has a higher image quality as the area with more high frequency components, according to the analysis result by the image analysis unit ;
The image quality adjustment unit
Adjusting the image quality so that the image quality of the specific region is higher than the image quality of other regions other than the specific region,
When a plurality of the specific areas are detected by the specific area detection unit, the specific area in which the face of the person who is not talking is displayed is replaced with the specific area in which the face of the person who is talking is displayed. Make the image quality lower than the area
A video processing device characterized by :
前記映像を複数のブロックに分割するブロック化部をさらに備え、
前記映像解析部は、
前記映像における前記ブロック毎に前記高周波成分を解析し、
前記画質調整部は、
前記映像における前記ブロック毎に前記画質調整を行う
ことを特徴とする請求項1に記載の映像処理装置。
further comprising a blocking unit that divides the video into a plurality of blocks;
The video analysis unit
analyzing the high-frequency component for each block in the video;
The image quality adjustment unit
The video processing device according to claim 1, wherein the image quality adjustment is performed for each block in the video.
前記画質調整部は、
前記他の領域における前記特定領域の周辺領域である領域の画質が、前記解析結果に応じた画質となり、且つ、前記他の領域における前記特定領域の周辺領域ではない領域の画質が、前記解析結果に応じた画質よりも低い画質となるように、前記画質調整を行う
ことを特徴とする請求項1または2に記載の映像処理装置。
The image quality adjustment unit
The image quality of the area that is the peripheral area of the specific area in the other area is the image quality according to the analysis result, and the image quality of the area that is not the peripheral area of the specific area in the other area is the analysis result. 3. The video processing apparatus according to claim 1 , wherein the image quality adjustment is performed so that the image quality is lower than the image quality corresponding to the image quality.
前記画質調整部による画質調整後の前記映像を符号化する符号化部と、
前記符号化部によって符号化された前記映像を外部の装置へ送信する通信部と
をさらに備えることを特徴とする請求項1から3のいずれか一項に記載の映像処理装置。
an encoding unit that encodes the video after image quality adjustment by the image quality adjustment unit;
The video processing device according to any one of claims 1 to 3, further comprising a communication unit that transmits the video encoded by the encoding unit to an external device.
前記画質調整部は、
前記送信の際に使用する通信資源が不足している場合、前記他の領域の画質を最低画質にする
ことを特徴とする請求項に記載の映像処理装置。
The image quality adjustment unit
5. The video processing apparatus according to claim 4 , wherein the image quality of the other area is set to the lowest image quality when communication resources used for the transmission are insufficient.
前記画質調整部は、
前記送信の際に使用する通信資源に余裕がある場合、前記特定領域の画質を最高画質にする
ことを特徴とする請求項またはに記載の映像処理装置。
The image quality adjustment unit
6. The video processing device according to claim 4 , wherein the image quality of the specific area is set to the highest image quality when there is sufficient communication resource to be used for the transmission.
前記画質調整部は、
前記送信の際に使用する通信資源に余裕がある場合、前記他の領域の画質を高める
ことを特徴とする請求項からのいずれか一項に記載の映像処理装置。
The image quality adjustment unit
7. The video processing device according to any one of claims 4 to 6 , wherein the image quality of the other area is enhanced when there is a margin in the communication resources used for the transmission.
複数の通信端末と、
前記複数の通信端末によるビデオ会議に関する各種制御を行うサーバ装置と
を備え、
前記複数の通信端末の各々は、
映像を撮像する撮像部と、
前記撮像部によって撮像された前記映像における領域毎に高周波成分を解析する映像解析部と、
前記映像における人物の顔が映し出されている領域である特定領域を検出する特定領域検出部と、
前記映像解析部による解析結果に応じて、前記映像における前記領域の少なくとも一部が、前記高周波成分がより多くなるにつれてより高画質となるように画質調整を行う画質調整部と、
前記画質調整部による前記画質調整後の前記映像を外部の装置へ送信する通信部と
を有し、
前記画質調整部は、
前記特定領域の画質が、前記特定領域以外の他の領域の画質よりも高くなるように、前記画質調整を行うとともに、
前記特定領域検出部によって複数の前記特定領域が検出された場合、会話を行っていない人物の顔が映し出されている前記特定領域を、会話を行っている人物の顔が映し出されている前記特定領域よりも低画質にする
ことを特徴とするビデオ会議システム。
a plurality of communication terminals;
a server device that performs various controls related to video conferencing by the plurality of communication terminals;
each of the plurality of communication terminals,
an imaging unit that captures an image;
a video analysis unit that analyzes high-frequency components for each region in the video imaged by the imaging unit;
a specific area detection unit that detects a specific area that is an area in which a person's face is displayed in the video;
an image quality adjustment unit that adjusts the image quality so that at least a part of the region in the image has a higher image quality as the high frequency component increases, according to the analysis result of the image analysis unit;
a communication unit that transmits the image after the image quality adjustment by the image quality adjustment unit to an external device ;
The image quality adjustment unit
Adjusting the image quality so that the image quality of the specific region is higher than the image quality of other regions other than the specific region,
When a plurality of the specific areas are detected by the specific area detection unit, the specific area in which the face of the person who is not talking is displayed is replaced with the specific area in which the face of the person who is talking is displayed. Make the image quality lower than the area
A video conference system characterized by:
映像を取得する映像取得工程と、
前記映像取得工程において取得された前記映像における領域毎に高周波成分を解析する映像解析工程と、
前記映像における人物の顔が映し出されている領域である特定領域を検出する特定領域検出工程と、
前記映像解析工程における解析結果に応じて、前記映像における前記領域の少なくとも一部が、前記高周波成分がより多くなるにつれてより高画質となるように画質調整を行う画質調整工程と
を含み、
前記画質調整工程は、
前記特定領域の画質が、前記特定領域以外の他の領域の画質よりも高くなるように、前記画質調整を行うとともに、
前記特定領域検出工程によって複数の前記特定領域が検出された場合、会話を行っていない人物の顔が映し出されている前記特定領域を、会話を行っている人物の顔が映し出されている前記特定領域よりも低画質にする
ことを特徴とする映像処理方法。
an image acquisition step of acquiring an image;
a video analysis step of analyzing high-frequency components for each region in the video acquired in the video acquisition step;
a specific area detection step of detecting a specific area that is an area in which a person's face is projected in the video;
an image quality adjustment step of adjusting the image quality so that at least a part of the region in the image has a higher image quality as the high frequency component increases, according to the analysis result in the image analysis step ;
The image quality adjustment step includes:
Adjusting the image quality so that the image quality of the specific region is higher than the image quality of other regions other than the specific region,
When a plurality of the specific regions are detected by the specific region detection step, the specific region showing the face of the person not having a conversation is replaced with the specific region showing the face of the person having a conversation. Make the image quality lower than the area
A video processing method characterized by:
コンピュータを、
映像を取得する映像取得部、
前記映像取得部によって取得された前記映像における領域毎に高周波成分を解析する映像解析部、
前記映像における人物の顔が映し出されている領域である特定領域を検出する特定領域検出部、および、
前記映像解析部による解析結果に応じて、前記映像における前記領域の少なくとも一部が、前記高周波成分がより多い領域ほど、より高画質となるように画質調整を行う画質調整部
として機能させ
前記画質調整部は、
前記特定領域の画質が、前記特定領域以外の他の領域の画質よりも高くなるように、前記画質調整を行うとともに、
前記特定領域検出部によって複数の前記特定領域が検出された場合、会話を行っていない人物の顔が映し出されている前記特定領域を、会話を行っている人物の顔が映し出されている前記特定領域よりも低画質にする
プログラム。
the computer,
an image acquisition unit that acquires an image;
a video analysis unit that analyzes high-frequency components for each region in the video acquired by the video acquisition unit;
a specific area detection unit that detects a specific area that is an area in which a person's face is displayed in the video; and
functioning as an image quality adjustment unit that adjusts image quality so that at least a part of the region in the image has a higher image quality as the region with more high frequency components, according to the analysis result by the image analysis unit ;
The image quality adjustment unit
Adjusting the image quality so that the image quality of the specific region is higher than the image quality of other regions other than the specific region,
When a plurality of the specific areas are detected by the specific area detection unit, the specific area in which the face of the person who is not talking is displayed is replaced with the specific area in which the face of the person who is talking is displayed. Make the image quality lower than the area
program.
JP2019098709A 2018-09-28 2019-05-27 VIDEO PROCESSING DEVICE, VIDEO CONFERENCE SYSTEM, VIDEO PROCESSING METHOD, AND PROGRAM Active JP7334470B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/582,285 US20200106821A1 (en) 2018-09-28 2019-09-25 Video processing apparatus, video conference system, and video processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018186004 2018-09-28
JP2018186004 2018-09-28

Publications (2)

Publication Number Publication Date
JP2020058014A JP2020058014A (en) 2020-04-09
JP7334470B2 true JP7334470B2 (en) 2023-08-29

Family

ID=70107839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019098709A Active JP7334470B2 (en) 2018-09-28 2019-05-27 VIDEO PROCESSING DEVICE, VIDEO CONFERENCE SYSTEM, VIDEO PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7334470B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7033181B1 (en) 2020-11-30 2022-03-09 レノボ・シンガポール・プライベート・リミテッド Information processing equipment and recording method
CN116761023A (en) * 2023-07-04 2023-09-15 唯科终端技术(东莞)有限公司 Video transmission method between different devices
CN116760952B (en) * 2023-08-17 2023-10-20 山东欣晖电力科技有限公司 Unmanned aerial vehicle-based electric power iron tower maintenance inspection method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003199102A (en) 2001-12-25 2003-07-11 Matsushita Electric Ind Co Ltd Video encoder
JP2009005238A (en) 2007-06-25 2009-01-08 Sony Computer Entertainment Inc Coder and encoding method
JP2012178702A (en) 2011-02-25 2012-09-13 Kddi Corp Video distribution apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003199102A (en) 2001-12-25 2003-07-11 Matsushita Electric Ind Co Ltd Video encoder
JP2009005238A (en) 2007-06-25 2009-01-08 Sony Computer Entertainment Inc Coder and encoding method
JP2012178702A (en) 2011-02-25 2012-09-13 Kddi Corp Video distribution apparatus

Also Published As

Publication number Publication date
JP2020058014A (en) 2020-04-09

Similar Documents

Publication Publication Date Title
US8570359B2 (en) Video region of interest features
US9602771B2 (en) Automated layouts optimized for multi-screen and multi-camera videoconferencing calls
US9270941B1 (en) Smart video conferencing system
JP5772059B2 (en) Processing method of video conference system, video conference system, program, and recording medium
US9172907B2 (en) Method and apparatus for dynamically adjusting aspect ratio of images during a video call
JP7334470B2 (en) VIDEO PROCESSING DEVICE, VIDEO CONFERENCE SYSTEM, VIDEO PROCESSING METHOD, AND PROGRAM
US20060259552A1 (en) Live video icons for signal selection in a videoconferencing system
JP7326254B2 (en) Processing videos that contain a physical writing surface
JP2008533837A (en) Region of interest extraction for video telephony
JP6179179B2 (en) Information processing apparatus, information processing method, and program
JP7249766B2 (en) Information processing device, system, control method for information processing device, and program
US20190306462A1 (en) Image processing apparatus, videoconference system, image processing method, and recording medium
US20110018962A1 (en) Video Conferencing Signal Processing System
CN102202206B (en) Communication equipment
TWI616102B (en) Video image generation system and video image generating method thereof
US20200106821A1 (en) Video processing apparatus, video conference system, and video processing method
CN112752058B (en) Method and device for adjusting attribute of video stream
CN109076251A (en) Teleconference transmission
JP4649640B2 (en) Image processing method, image processing apparatus, and content creation system
US11284094B2 (en) Image capturing device, distribution system, distribution method, and recording medium
US11877084B2 (en) Video conference user interface layout based on face detection
US20220303555A1 (en) Combining high-quality foreground with enhanced low-quality background
CN113630575B (en) Method, system and storage medium for displaying images of multi-person online video conference
TWI538519B (en) Capture apparatuses of video images
JP2016058975A (en) Communication device, communication system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R151 Written notification of patent or utility model registration

Ref document number: 7334470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151