JP2018160891A - Image processing apparatus, projector, image processing method, and image processing program - Google Patents

Image processing apparatus, projector, image processing method, and image processing program Download PDF

Info

Publication number
JP2018160891A
JP2018160891A JP2018012519A JP2018012519A JP2018160891A JP 2018160891 A JP2018160891 A JP 2018160891A JP 2018012519 A JP2018012519 A JP 2018012519A JP 2018012519 A JP2018012519 A JP 2018012519A JP 2018160891 A JP2018160891 A JP 2018160891A
Authority
JP
Japan
Prior art keywords
image
content
display area
image processing
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018012519A
Other languages
Japanese (ja)
Other versions
JP6773057B2 (en
Inventor
光史 岩館
Terubumi Iwadate
光史 岩館
祐和 神田
Sukekazu Kanda
祐和 神田
佐藤 健治
Kenji Sato
健治 佐藤
翔一 岡庭
Shoichi Okaniwa
翔一 岡庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to US15/919,726 priority Critical patent/US10349022B2/en
Priority to CN201810240565.5A priority patent/CN108632553B/en
Publication of JP2018160891A publication Critical patent/JP2018160891A/en
Application granted granted Critical
Publication of JP6773057B2 publication Critical patent/JP6773057B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L50/00Electric propulsion with power supplied within the vehicle
    • B60L50/50Electric propulsion with power supplied within the vehicle using propulsion power supplied by batteries or fuel cells
    • B60L50/70Electric propulsion with power supplied within the vehicle using propulsion power supplied by batteries or fuel cells using power supplied by fuel cells
    • B60L50/72Constructional details of fuel cells specially adapted for electric vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L3/00Electric devices on electrically-propelled vehicles for safety purposes; Monitoring operating variables, e.g. speed, deceleration or energy consumption
    • B60L3/0023Detecting, eliminating, remedying or compensating for drive train abnormalities, e.g. failures within the drive train
    • B60L3/0053Detecting, eliminating, remedying or compensating for drive train abnormalities, e.g. failures within the drive train relating to fuel cells
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L58/00Methods or circuit arrangements for monitoring or controlling batteries or fuel cells, specially adapted for electric vehicles
    • B60L58/30Methods or circuit arrangements for monitoring or controlling batteries or fuel cells, specially adapted for electric vehicles for monitoring or controlling fuel cells
    • B60L58/32Methods or circuit arrangements for monitoring or controlling batteries or fuel cells, specially adapted for electric vehicles for monitoring or controlling fuel cells for controlling the temperature of fuel cells, e.g. by controlling the electric load
    • B60L58/33Methods or circuit arrangements for monitoring or controlling batteries or fuel cells, specially adapted for electric vehicles for monitoring or controlling fuel cells for controlling the temperature of fuel cells, e.g. by controlling the electric load by cooling
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M50/00Constructional details or processes of manufacture of the non-active parts of electrochemical cells other than fuel cells, e.g. hybrid cells
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M8/00Fuel cells; Manufacture thereof
    • H01M8/04Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids
    • H01M8/04007Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids related to heat exchange
    • H01M8/04059Evaporative processes for the cooling of a fuel cell
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M8/00Fuel cells; Manufacture thereof
    • H01M8/04Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids
    • H01M8/04082Arrangements for control of reactant parameters, e.g. pressure or concentration
    • H01M8/04089Arrangements for control of reactant parameters, e.g. pressure or concentration of gaseous reactants
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M8/00Fuel cells; Manufacture thereof
    • H01M8/04Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids
    • H01M8/04082Arrangements for control of reactant parameters, e.g. pressure or concentration
    • H01M8/04089Arrangements for control of reactant parameters, e.g. pressure or concentration of gaseous reactants
    • H01M8/04097Arrangements for control of reactant parameters, e.g. pressure or concentration of gaseous reactants with recycling of the reactants
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M8/00Fuel cells; Manufacture thereof
    • H01M8/04Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids
    • H01M8/04298Processes for controlling fuel cells or fuel cell systems
    • H01M8/04313Processes for controlling fuel cells or fuel cell systems characterised by the detection or assessment of variables; characterised by the detection or assessment of failure or abnormal function
    • H01M8/0438Pressure; Ambient pressure; Flow
    • H01M8/04388Pressure; Ambient pressure; Flow of anode reactants at the inlet or inside the fuel cell
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M8/00Fuel cells; Manufacture thereof
    • H01M8/04Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids
    • H01M8/04298Processes for controlling fuel cells or fuel cell systems
    • H01M8/04313Processes for controlling fuel cells or fuel cell systems characterised by the detection or assessment of variables; characterised by the detection or assessment of failure or abnormal function
    • H01M8/0438Pressure; Ambient pressure; Flow
    • H01M8/04395Pressure; Ambient pressure; Flow of cathode reactants at the inlet or inside the fuel cell
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L2270/00Problem solutions or means not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2410/00Constructional features of vehicle sub-units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M2250/00Fuel cells for particular applications; Specific features of fuel cell system
    • H01M2250/20Fuel cells in motive systems, e.g. vehicle, ship, plane
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M8/00Fuel cells; Manufacture thereof
    • H01M8/04Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids
    • H01M8/04082Arrangements for control of reactant parameters, e.g. pressure or concentration
    • H01M8/04201Reactant storage and supply, e.g. means for feeding, pipes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02E60/10Energy storage using batteries
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02E60/30Hydrogen technology
    • Y02E60/50Fuel cells
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/40Application of hydrogen technology to transportation, e.g. using fuel cells

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of recording, as suitable images, a display image and other subjects as well.SOLUTION: The image processing apparatus 10 comprises a captured image acquisition part, a content acquisition part, a display area identification part, a processing information creation part, and an image processing part. The captured image acquisition part acquires a captured image of an area that includes a display area in which a content is displayed by a display device and a peripheral area of the display area. The content acquisition part acquires the content. The display area identification part identifies a display area in the captured image. The processing information creation part creates process information based on the captured image. The image processing part performs image processing that includes combining an image based on the content with the display area of the captured image by using the process information.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、プロジェクター、画像処理方法及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus, a projector, an image processing method, and an image processing program.

大型表示装置やプロジェクターで資料を表示しながら講演者が講演を行うことがある。講演会場にいる聴衆のみならず多くの人が視聴できるように、あるいは、記録として保存するために、このような講演を録画することがある。   Speakers sometimes give lectures while displaying materials on large display devices or projectors. Such a lecture may be recorded so that it can be viewed by many people as well as the audience at the lecture hall, or to be stored as a record.

例えば、特許文献1には、プレゼンテーションに関連する映像等を表示する液晶ディスプレイと、プレゼンテーションの開始から終了までを記録するビデオカメラとを有するプレゼンテーション装置が開示されている。   For example, Patent Document 1 discloses a presentation apparatus that includes a liquid crystal display that displays video and the like related to a presentation, and a video camera that records from the start to the end of the presentation.

特開2014−102598号公報JP 2014-102598 A

講演を録画する際には、表示装置等に表示された資料と講演者の様子とが共にきれいに録画されることが好ましい。しかしながら、例えば講演者の顔に焦点が合うようにカメラの焦点を調節すると、資料等の表示画像に焦点が合わないことがある。また、プロジェクターによる資料の表示の際に、投影画像のひずみをなくすために幾何学補正が行われることがある。このような幾何学補正は、一般に表示画像の画質を低下させる。   When recording a lecture, it is preferable that both the material displayed on the display device and the state of the lecturer be recorded beautifully. However, if the focus of the camera is adjusted so that, for example, the speaker's face is in focus, the display image such as the document may not be in focus. In addition, when a document is displayed by a projector, geometric correction may be performed to eliminate distortion of the projected image. Such geometric correction generally reduces the quality of the displayed image.

本発明は、表示画像もその他の被写体も適切な画像として記録できる、画像処理装置、プロジェクター、画像処理方法及び画像処理プログラムを提供することを目的とする。   An object of the present invention is to provide an image processing apparatus, a projector, an image processing method, and an image processing program capable of recording a display image and other subjects as appropriate images.

本発明の一態様によれば、画像処理装置は、表示装置によってコンテンツが表示されている表示領域と当該表示領域の周辺領域とを含む領域の撮影画像を取得する撮影画像取得部と、前記コンテンツを取得するコンテンツ取得部と、前記撮影画像における前記表示領域を特定する表示領域特定部と、前記撮影画像に基づいて加工情報を作成する加工情報作成部と、前記加工情報を用いて、前記撮影画像の前記表示領域に前記コンテンツに基づいた画像を合成することを含む画像処理を行う画像処理部と、を備える。   According to an aspect of the present invention, the image processing apparatus includes a captured image acquisition unit that acquires a captured image of an area including a display area in which content is displayed by a display device and a peripheral area of the display area, and the content Using the content acquisition unit, the display region specifying unit for specifying the display region in the captured image, the processing information generating unit for generating processing information based on the captured image, and the processing information. An image processing unit that performs image processing including synthesizing an image based on the content in the display area of the image.

本発明の一態様によれば、プロジェクターは、上述の画像処理装置と、前記コンテンツに基づいて前記表示領域に投影される画像を出力する前記表示装置としての投影部と、前記撮影画像を生成する撮影部とを備える。   According to an aspect of the present invention, the projector generates the captured image, the projection unit as the display device that outputs the image projected onto the display area based on the content, and the captured image. And a photographing unit.

本発明の一態様によれば、画像処理方法は、表示装置によってコンテンツが表示されている表示領域と当該表示領域の周辺領域とを含む領域の撮影画像を取得することと、前記コンテンツを取得することと、前記撮影画像における前記表示領域を特定することと、前記撮影画像に基づいて加工情報を作成することと、前記加工情報を用いて、前記撮影画像の前記表示領域に前記コンテンツに基づいた画像を合成することを含む画像処理を行うことと、を含む。   According to an aspect of the present invention, an image processing method acquires a captured image of an area including a display area where content is displayed by a display device and a peripheral area of the display area, and acquires the content. Identifying the display area in the captured image, creating processing information based on the captured image, and using the processing information based on the content in the display area of the captured image Performing image processing including combining images.

本発明の一態様によれば、画像処理プログラムは、表示装置によってコンテンツが表示されている表示領域と当該表示領域の周辺領域とを含む領域の撮影画像を取得することと、前記コンテンツを取得することと、前記撮影画像における前記表示領域を特定することと、前記撮影画像に基づいて加工情報を作成することと、前記加工情報を用いて、前記撮影画像の前記表示領域に前記コンテンツに基づいた画像を合成することを含む画像処理を行うことと、をコンピュータに実行させる。   According to an aspect of the present invention, the image processing program acquires a captured image of an area including a display area in which content is displayed by a display device and a peripheral area of the display area, and acquires the content. Identifying the display area in the captured image, creating processing information based on the captured image, and using the processing information based on the content in the display area of the captured image Causing a computer to perform image processing including combining images.

本発明によれば、表示画像もその他の被写体も適切な画像として記録できる、画像処理装置、プロジェクター、画像処理方法及び画像処理プログラムを提供できる。   According to the present invention, it is possible to provide an image processing apparatus, a projector, an image processing method, and an image processing program capable of recording a display image and other subjects as appropriate images.

図1は、一実施形態に係る講演動画作成システムの構成例の概略を示す図である。FIG. 1 is a diagram illustrating an outline of a configuration example of a lecture video creation system according to an embodiment. 図2は、講演動画作成システムの動作の一例の概略を示すフローチャートである。FIG. 2 is a flowchart showing an outline of an example of the operation of the lecture video creation system. 図3は、講演動画作成システムで行われる事前処理の一例の概略を示すフローチャートである。FIG. 3 is a flowchart showing an outline of an example of pre-processing performed in the lecture moving image creating system. 図4は、撮影画像における撮影領域と表示領域との位置関係の一例の概略を示す図である。FIG. 4 is a diagram illustrating an outline of an example of a positional relationship between a shooting area and a display area in a shot image. 図5は、撮影領域内の各座標の輝度の一例の概略を模式的に示す図である。FIG. 5 is a diagram schematically illustrating an example of the luminance of each coordinate in the imaging region. 図6は、アルファブレンド用マスク画像データの一例の概略を模式的に示す図である。FIG. 6 is a diagram schematically showing an example of alpha blend mask image data. 図7は、講演動画作成システムで行われる講演録画処理の一例の概略を示すフローチャートである。FIG. 7 is a flowchart showing an outline of an example of a lecture recording process performed in the lecture video creation system. 図8は、講演動画作成システムで行われる講演動画作成処理の一例の概略を示すフローチャートである。FIG. 8 is a flowchart showing an outline of an example of the lecture video creation process performed in the lecture video creation system. 図9は、第2の実施形態に係る講演動画作成処理の一例の概略を示すフローチャートである。FIG. 9 is a flowchart illustrating an outline of an example of a lecture moving image creation process according to the second embodiment. 図10は、第3の実施形態に係る状況を説明するための図である。FIG. 10 is a diagram for explaining a situation according to the third embodiment. 図11は、第3の実施形態に係る講演動画作成処理の一例の概略を示すフローチャートである。FIG. 11 is a flowchart illustrating an outline of an example of a lecture moving image creation process according to the third embodiment. 図12は、第3の実施形態に係る講演動画作成処理の一例の概略を示すフローチャートである。FIG. 12 is a flowchart illustrating an outline of an example of a lecture moving image creation process according to the third embodiment. 図13は、第4の実施形態に係る状況を説明するための図である。FIG. 13 is a diagram for explaining a situation according to the fourth embodiment. 図14は、第4の実施形態に係る講演動画作成処理の一例の概略を示すフローチャートである。FIG. 14 is a flowchart illustrating an outline of an example of a lecture moving image creation process according to the fourth embodiment.

(第1の実施形態)
[講演動画作成システムの概要]
本実施形態に係る講演動画作成システムは、例えば講演資料がプロジェクターを用いてスクリーンに投影されており、そのスクリーンの脇で講演者が講演をしているような状況で用いられる。講演は、種々の授業、講習、セミナー、プレゼンテーション等を含む。この講演動画作成システムは、デジタルカメラを有している。デジタルカメラは、例えば表示された講演資料と講演者とを含む画角について動画撮影を行うように構成されている。また、講演動画作成システムは、プロジェクターを用いてスクリーンに投影される画像のデータを記録する。講演動画作成システムは、デジタルカメラで撮影された動画内において、資料が投影された領域に、投影されるべき画像を嵌め込んだ、講演動画を作成する。
(First embodiment)
[Outline of lecture video creation system]
The lecture video creation system according to the present embodiment is used in a situation where, for example, lecture materials are projected onto a screen using a projector, and a lecturer is giving a lecture beside the screen. Lectures include various classes, classes, seminars, presentations, etc. This lecture video creation system has a digital camera. The digital camera is configured to shoot a moving image with respect to an angle of view including, for example, displayed lecture materials and a lecturer. In addition, the lecture video creation system records image data projected on a screen using a projector. The lecture movie creation system creates a lecture movie in which an image to be projected is inserted in an area where a document is projected in a movie shot by a digital camera.

[講演動画作成システムの構成]
本実施形態に係る講演動画作成システム1の構成例の概略を図1に示す。講演動画作成システム1は、画像処理装置10と、パーソナルコンピュータ(PC)50と、デジタルカメラ60と、マイク70と、プロジェクター80とを備える。
[Configuration of lecture video creation system]
FIG. 1 shows an outline of a configuration example of the lecture video creation system 1 according to the present embodiment. The lecture video creation system 1 includes an image processing apparatus 10, a personal computer (PC) 50, a digital camera 60, a microphone 70, and a projector 80.

PC50では、例えばプレゼンテーション用のアプリケーションソフトウェアが動作している。ユーザーは、このソフトウェアを操作して、スクリーン340に投影させる画像の操作を行う。PC50は、ユーザーの操作に応じて、スクリーン340に投影させる画像であるコンテンツのデータを出力する。PC50が出力したコンテンツデータは、画像処理装置10へと入力される。   In the PC 50, for example, application software for presentation is operating. The user operates this software to operate an image to be projected on the screen 340. The PC 50 outputs content data that is an image to be projected on the screen 340 in accordance with a user operation. The content data output from the PC 50 is input to the image processing apparatus 10.

プロジェクター80は、投影部を有し、PC50から出力されたコンテンツデータを画像処理装置10を介して取得して、当該データに基づくコンテンツの画像をスクリーン340に投影する。画像が投影される領域を表示領域320と称することにする。   The projector 80 has a projection unit, acquires content data output from the PC 50 via the image processing apparatus 10, and projects an image of content based on the data on the screen 340. An area on which the image is projected is referred to as a display area 320.

デジタルカメラ60は、撮影部を有し、画像が投影されたスクリーン340とその周辺にいる講演者330とを含む撮影領域の撮影を行い、スクリーン340及び講演者330を含む画像のデータである撮影画像データを作成する。スクリーン340及び講演者330を含む範囲であって、デジタルカメラ60によって撮影される範囲を撮影領域310と称することにする。デジタルカメラ60は、撮影画像データを出力する。デジタルカメラ60が出力した撮影画像データは、画像処理装置10へと入力される。本実施形態では、デジタルカメラ60から画像処理装置10へと入力される撮影画像データは、時間的に連続した動画のデータとなる。   The digital camera 60 has a photographing unit, photographs a photographing region including a screen 340 on which an image is projected, and a lecturer 330 in the vicinity thereof, and photographing that is image data including the screen 340 and the lecturer 330. Create image data. A range including the screen 340 and the lecturer 330 and shot by the digital camera 60 is referred to as a shooting area 310. The digital camera 60 outputs captured image data. The captured image data output from the digital camera 60 is input to the image processing apparatus 10. In the present embodiment, the captured image data input from the digital camera 60 to the image processing device 10 is time-sequential moving image data.

マイク70は、主に講演者が発する音声を含む講演会場の音声に基づいて、音声信号を生成する。この音声信号は、画像処理装置10へと入力される。   The microphone 70 generates an audio signal based on the audio of the lecture hall including mainly the audio uttered by the speaker. This audio signal is input to the image processing apparatus 10.

画像処理装置10は、バスライン19を介して互いに接続されたプロセッサー11と、メモリ12と、大容量ストレージ13と、入力装置14と、コンテンツ入力インターフェース(I/F)15と、画像入力インターフェース(I/F)16と、音声入力インターフェース(I/F)17と、画像出力インターフェース(I/F)18とを備える。   The image processing apparatus 10 includes a processor 11, a memory 12, a mass storage 13, an input device 14, a content input interface (I / F) 15, and an image input interface (connected to each other via a bus line 19. I / F) 16, an audio input interface (I / F) 17, and an image output interface (I / F) 18.

PC50から出力されたコンテンツデータは、コンテンツ入力I/F15を介して画像処理装置10へと入力される。デジタルカメラ60から出力された撮影画像データは、画像入力I/F16を介して画像処理装置10へと入力される。マイク70から出力された音声信号は、音声入力I/F17を介して画像処理装置10へと入力される。コンテンツデータは、画像出力I/F18を介して画像処理装置10からプロジェクター80へと出力される。   The content data output from the PC 50 is input to the image processing apparatus 10 via the content input I / F 15. The captured image data output from the digital camera 60 is input to the image processing apparatus 10 via the image input I / F 16. The audio signal output from the microphone 70 is input to the image processing apparatus 10 via the audio input I / F 17. The content data is output from the image processing apparatus 10 to the projector 80 via the image output I / F 18.

プロセッサー11は、画像処理装置10の各部の動作を制御する。プロセッサー11は、Central Processing Unit(CPU)、Application Specific Integrated Circuit(ASIC)、Field Programmable Gate Array(FPGA)、又はGraphics Processing Unit(GPU)等の集積回路を含み得る。プロセッサー11は、1つの集積回路等であってもよいし、複数の集積回路等の組み合わせであってもよい。   The processor 11 controls the operation of each unit of the image processing apparatus 10. The processor 11 may include an integrated circuit such as a central processing unit (CPU), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), or a graphics processing unit (GPU). The processor 11 may be a single integrated circuit or a combination of a plurality of integrated circuits.

メモリ12は、例えば半導体集積回路で実現されたRandom Access Memory(RAM)等であり、メインメモリ、キャッシュメモリ等として機能する。大容量ストレージ13は、ハードディスク又は半導体メモリ等である。   The memory 12 is, for example, a random access memory (RAM) realized by a semiconductor integrated circuit, and functions as a main memory, a cache memory, and the like. The mass storage 13 is a hard disk or a semiconductor memory.

PC50から入力されたコンテンツデータは録画され大容量ストレージ13に記録される。言い換えると、大容量ストレージ13には、PC50から入力されたコンテンツデータに基づいて、時系列に沿ってプロジェクター80に表示される画像が動画として記録される。このようにして記録される画像をコンテンツ動画と称することにする。また、デジタルカメラ60から入力された撮影画像データは録画され大容量ストレージ13に記録される。言い換えると、大容量ストレージ13には、デジタルカメラ60から入力された撮影画像データに基づいて、時系列に沿って撮影された画像が動画として記録される。このようにして記録される画像を撮影動画と称することにする。また、大容量ストレージ13には、プロセッサー11で用いられるプログラムや各種パラメータも記録され得る。   The content data input from the PC 50 is recorded and recorded in the mass storage 13. In other words, on the large-capacity storage 13, an image displayed on the projector 80 in time series is recorded as a moving image based on the content data input from the PC 50. The image recorded in this way is referred to as a content moving image. The captured image data input from the digital camera 60 is recorded and recorded in the large-capacity storage 13. In other words, on the large-capacity storage 13, images taken in time series based on the taken image data input from the digital camera 60 are recorded as moving images. The image recorded in this way is referred to as a captured moving image. The mass storage 13 can also store programs used in the processor 11 and various parameters.

入力装置14は、例えばボタンスイッチ、タッチパネル等を含む。ユーザーは、入力装置14を用いて、画像処理装置10の動作に係る指示を入力する。   The input device 14 includes, for example, a button switch and a touch panel. The user inputs an instruction related to the operation of the image processing apparatus 10 using the input device 14.

例えば、大容量ストレージ13に記録された画像処理プログラムを用いて動作するプロセッサー11は、後述するように撮影画像取得部、コンテンツ取得部、表示領域特定部、加工情報作成部、及び画像処理部としての機能を実現する。ここで、撮影画像取得部は、デジタルカメラ60によって撮影されることで生成された撮影画像データを、画像入力I/F16を介して取得する。撮影画像データは、表示装置としてのプロジェクター80によってコンテンツが表示された表示領域と当該表示領域の周辺領域とを含む撮影領域が、撮影されることで生成された撮影画像のデータである。コンテンツ取得部は、表示装置としてのプロジェクター80による表示のためのコンテンツデータを、コンテンツ入力I/F15を介して取得する。表示領域特定部は、撮影画像データに基づいて、撮影画像における表示領域を特定する。加工情報作成部は、撮影画像データに基づいて加工情報を作成する。画像処理部は、撮影画像データに基づく撮影画像の動画における表示領域に、コンテンツ動画に基づいて画像処理を行い作成した嵌め込み画像の動画を合成することで、講演動画としての合成動画を作成する。この際、画像処理部は、加工情報を用いてもよい。   For example, the processor 11 that operates using an image processing program recorded in the large-capacity storage 13 serves as a captured image acquisition unit, a content acquisition unit, a display area specifying unit, a processing information generation unit, and an image processing unit, as will be described later. Realize the function. Here, the captured image acquisition unit acquires the captured image data generated by being captured by the digital camera 60 via the image input I / F 16. The photographed image data is data of a photographed image generated by photographing a photographing region including a display region in which content is displayed by the projector 80 as a display device and a peripheral region of the display region. The content acquisition unit acquires content data for display by the projector 80 as a display device via the content input I / F 15. The display area specifying unit specifies a display area in the captured image based on the captured image data. The processing information creation unit creates processing information based on the captured image data. The image processing unit creates a synthesized moving image as a lecture moving image by synthesizing the moving image of the embedded image created by performing image processing based on the content moving image in the display area of the moving image of the captured image based on the captured image data. At this time, the image processing unit may use the processing information.

[講演動画作成システムの動作]
〈講演動画作成に係る動作の概要〉
講演動画作成システム1の動作は、大きくは3つの段階に分けられる。図2は、講演動画作成システム1の動作の一例の概略を示すフローチャートである。
[Operation of the lecture video creation system]
<Outline of actions related to lecture video creation>
The operation of the lecture video creation system 1 is roughly divided into three stages. FIG. 2 is a flowchart showing an outline of an example of the operation of the lecture moving image creating system 1.

ステップS101において、講演動画作成システム1は、事前処理を行う。事前処理は、講演動画が作られる当該講演に先立って行われる処理である。事前処理において、デジタルカメラ60による撮影領域に占めるプロジェクター80による表示領域が特定される。   In step S101, the lecture video creation system 1 performs pre-processing. The pre-processing is processing performed prior to the lecture in which the lecture video is created. In the pre-processing, the display area by the projector 80 that occupies the photographing area by the digital camera 60 is specified.

ステップS102において、講演動画作成システム1は、講演録画処理を行う。講演録画処理は、講演動画が作られる当該講演を録画する処理である。デジタルカメラ60は、講演中の講演者330及びスクリーン340を含む撮影領域の様子を撮影し、デジタルカメラ60による撮影結果は動画として記録される。また、講演中にプロジェクター80によって投影された画像、すなわちコンテンツが動画として記録される。   In step S102, the lecture video creation system 1 performs a lecture recording process. The lecture recording process is a process of recording the lecture in which a lecture video is created. The digital camera 60 shoots the state of the shooting area including the speaker 330 and the screen 340 who are giving a lecture, and the shooting result by the digital camera 60 is recorded as a moving image. Further, an image projected by the projector 80 during the lecture, that is, the content is recorded as a moving image.

ステップS103において、講演動画作成システム1は、講演動画作成処理を行う。講演動画作成処理は、講演終了後に行われる処理である。講演動画作成処理では、撮影画像と嵌め込み画像とが合成されて、講演動画としての合成動画が作成される。ここで用いられる撮影画像は、デジタルカメラ60により撮影され、記録された撮影画像である。嵌め込み画像は、記録されたコンテンツであって、プロジェクター80によって投影された投影画像に対応するように作成された画像である。   In step S103, the lecture video creation system 1 performs a lecture video creation process. The lecture video creation process is a process performed after the lecture ends. In the lecture video creation process, the captured image and the embedded image are synthesized to create a synthesized video as a lecture video. The photographed image used here is a photographed image recorded and recorded by the digital camera 60. The inset image is recorded content and is an image created so as to correspond to the projection image projected by the projector 80.

〈事前処理〉
ステップS101の事前処理で行われる画像処理装置10の処理について、図3に示すフローチャートを参照して説明する。事前処理は、例えば講演の前に、ユーザーが事前処理の開始を指示することによって行われる。事前処理開始指示は、例えば入力装置14に含まれる事前処理のスタートボタンが押されることなどによって行われる。
<Pre-processing>
The processing of the image processing apparatus 10 performed in the pre-processing in step S101 will be described with reference to the flowchart shown in FIG. The pre-processing is performed by, for example, instructing the start of the pre-processing before the lecture. The pre-processing start instruction is given, for example, by pressing a pre-processing start button included in the input device 14.

ステップS201において、プロセッサー11は、プロジェクター80に表示領域認識パターンを投影させる。すなわち、プロセッサー11は、表示領域認識パターンについての画像データを作成し、作成した画像データを画像出力I/F18を介してプロジェクター80へと出力する。その結果、プロジェクター80は、表示領域認識パターンをスクリーン340に投影する。ここで、表示領域認識パターンは、デジタルカメラ60によって撮影された画像における表示領域が抽出されやすい画像であることが好ましい。表示領域認識パターンは、例えば、全面明るい単色の画像等であってもよい。   In step S201, the processor 11 causes the projector 80 to project a display area recognition pattern. That is, the processor 11 creates image data for the display area recognition pattern, and outputs the created image data to the projector 80 via the image output I / F 18. As a result, the projector 80 projects the display area recognition pattern on the screen 340. Here, the display area recognition pattern is preferably an image from which a display area in an image taken by the digital camera 60 is easily extracted. The display area recognition pattern may be, for example, a monochromatic image that is bright on the entire surface.

なお、表示領域320が長方形となるように、投影画像はいわゆる台形補正のような幾何学補正が適切に行われていることが好ましい。また、投影画像は、スクリーン340に正確に合焦していることが好ましい。   It is preferable that the projected image is appropriately subjected to geometric correction such as so-called trapezoidal correction so that the display area 320 is rectangular. Moreover, it is preferable that the projected image is accurately focused on the screen 340.

ステップS202において、プロセッサー11は、撮影画像データを取得する。すなわち、デジタルカメラ60は、撮影領域310内を撮影して撮影画像データを作成し、それを出力している。プロセッサー11は、表示領域認識パターンが投影された撮影領域310に係る撮影画像データを画像入力I/F16を介して取得する。   In step S202, the processor 11 acquires photographed image data. That is, the digital camera 60 shoots the shooting area 310 to create photographic image data and outputs it. The processor 11 acquires photographed image data related to the photographing region 310 onto which the display region recognition pattern is projected via the image input I / F 16.

ステップS203において、プロセッサー11は、ステップS202で取得した撮影画像データを解析して、撮影画像における撮影領域内における表示領域を特定する。例えば、スクリーン340の表示領域320に明るい単色の画像である表示領域認識パターンが投影されているとき、プロセッサー11は、撮影画像における撮影領域内の各座標の輝度値を解析して、画像中のコントラスト(輝度の差異)を検出することで、撮影画像における表示領域を特定することができる。   In step S <b> 203, the processor 11 analyzes the captured image data acquired in step S <b> 202 and specifies a display area in the captured area in the captured image. For example, when a display area recognition pattern that is a bright monochromatic image is projected on the display area 320 of the screen 340, the processor 11 analyzes the luminance value of each coordinate in the shooting area in the shot image, and By detecting the contrast (difference in luminance), the display area in the captured image can be specified.

撮影画像400における撮影領域410と表示領域420との位置関係の一例の概略を図4に示す。この図に示すように、撮影領域410の左下の座標を座標(0,0)とし、撮影領域410の右上の座標を座標(Xm,Ym)とする。撮影領域410内に表示領域420が存在する。図4において表示領域420にはハッチングが付されている。表示領域420の左下の座標を座標(Xc1,Yc1)とし、撮影領域410の右上の座標を座標(Xc2,Yc2)とする。   FIG. 4 shows an outline of an example of the positional relationship between the shooting area 410 and the display area 420 in the shot image 400. As shown in this figure, the lower left coordinates of the imaging area 410 are coordinates (0, 0), and the upper right coordinates of the imaging area 410 are coordinates (Xm, Ym). A display area 420 exists in the imaging area 410. In FIG. 4, the display area 420 is hatched. The lower left coordinates of the display area 420 are coordinates (Xc1, Yc1), and the upper right coordinates of the imaging area 410 are coordinates (Xc2, Yc2).

図4の例の場合に、プロセッサー11によって解析される撮影領域410内の各座標の輝度の一例の概略を図5に模式的に示す。この図に示すように、撮影領域410内の各座標について輝度値が取得される。図5においては表示領域420に対応する座標には、ハッチングが付されている。   In the case of the example of FIG. 4, an outline of an example of the luminance of each coordinate in the imaging region 410 analyzed by the processor 11 is schematically shown in FIG. As shown in this figure, a luminance value is acquired for each coordinate in the imaging region 410. In FIG. 5, the coordinates corresponding to the display area 420 are hatched.

ステップS204において、プロセッサー11は、アルファブレンド用のマスク画像αmを作成する。すなわち、プロセッサー11は、ステップS203で表示領域420の外側と判定された暗い点のα値を1に設定し、表示領域420と判定された明るい点のα値を0に設定する。   In step S204, the processor 11 creates a mask image αm for alpha blending. That is, the processor 11 sets the α value of the dark point determined to be outside the display area 420 in step S203 to 1 and sets the α value of the bright point determined to be the display area 420 to 0.

図6にアルファブレンド用マスク画像データの一例の概略を模式的に示す。図6においてハッチングが付されている表示領域420に対応する座標では、α値が0に設定されている。その他の座標では、α値が1に設定されている。このようなα値が設定されたアルファブレンド用マスク画像データでは、図4においてハッチングを付した表示領域420は完全に透明であり、それ以外の領域は完全に不透明である画像データとなる。   FIG. 6 schematically shows an example of alpha blend mask image data. In the coordinates corresponding to the display area 420 with hatching in FIG. 6, the α value is set to 0. In other coordinates, the α value is set to 1. In the alpha blend mask image data in which the α value is set, the hatched display area 420 in FIG. 4 is completely transparent, and the other areas are completely opaque image data.

以上のようにアルファブレンド用マスク画像データが作成されることで、事前処理は終了する。   As described above, the pre-processing is completed when the alpha blend mask image data is created.

なお、ここでは表示領域420を特定するため1つの単純な方法を示したが、表示領域420を特定する方法は上述のものに限らない。表示領域420を特定するために、種々の方法が用いられ得る。   Here, one simple method for specifying the display area 420 is shown, but the method for specifying the display area 420 is not limited to the above. Various methods can be used to identify the display area 420.

〈講演録画処理〉
ステップS102の講演録画処理で行われる画像処理装置10の処理について、図7に示すフローチャートを参照して説明する。講演録画処理は、例えば講演の開始直前に、ユーザーが講演録画処理の開始を指示することによって行われる。講演録画処理の開始指示は、例えば入力装置14に含まれる録画開始ボタンが押されることなどによって行われる。
<Lecture recording process>
The process of the image processing apparatus 10 performed in the lecture recording process in step S102 will be described with reference to the flowchart shown in FIG. The lecture recording process is performed, for example, by the user instructing the start of the lecture recording process immediately before the start of the lecture. The instruction to start the lecture recording process is performed, for example, by pressing a recording start button included in the input device 14.

ステップS301において、プロセッサー11は、デジタルカメラ60から取得した撮影画像データ、及びPC50から取得したコンテンツデータについての録画を開始する。撮影画像及びコンテンツは、それぞれ時間情報と関連付けられて、大容量ストレージ13に動画として記録される。   In step S <b> 301, the processor 11 starts recording the captured image data acquired from the digital camera 60 and the content data acquired from the PC 50. The captured image and the content are each associated with time information and recorded as a moving image in the large-capacity storage 13.

ステップS302において、プロセッサー11は、録画を終了させるか否かを判定する。例えば、ユーザーによる録画終了の指示が入力されたとき、録画を終了させると判定される。録画終了の指示は、講演の終了後に、例えば入力装置14に含まれる録画終了ボタンが押されることなどによって行われる。ステップS302の判定において録画を終了しないと判定されたとき、処理はステップS302を繰り返す。このとき、撮影画像及びコンテンツの録画は継続し、時間情報と関連付けられた撮影画像及びコンテンツが動画として大容量ストレージ13に記録され続ける。ステップS302の判定において、録画を終了すると判定されたとき、処理はステップS303に進む。   In step S302, the processor 11 determines whether to end the recording. For example, when an instruction to end recording is input by the user, it is determined to end recording. The instruction to end the recording is given by, for example, pressing a recording end button included in the input device 14 after the end of the lecture. When it is determined in step S302 that recording is not to be ended, the process repeats step S302. At this time, the recording of the captured image and the content continues, and the captured image and the content associated with the time information are continuously recorded as a moving image in the large-capacity storage 13. If it is determined in step S302 that recording is to be ended, the process proceeds to step S303.

ステップS303において、プロセッサー11は、撮影画像に係る動画である撮影動画Mbと、コンテンツに係る動画であるコンテンツ動画Mcとを、ファイル化して大容量ストレージ13に保存する。   In step S <b> 303, the processor 11 converts the captured moving image Mb, which is a moving image related to the captured image, and the content moving image Mc, which is a moving image related to the content, into files and stores them in the large-capacity storage 13.

以上のように、撮影動画Mb及びコンテンツ動画Mcが保存されることで、講演録画処理は終了する。   As described above, the lecture video recording process ends when the captured video Mb and the content video Mc are stored.

〈講演動画作成処理〉
ステップS103の講演動画作成処理で行われる画像処理装置10の処理について、図8に示すフローチャートを参照して説明する。講演動画作成処理は、例えば講演の終了後の任意の時点で、ユーザーが講演動画作成処理の開始を指示することによって行われる。講演動画作成処理の開始指示は、例えば入力装置14に含まれる講演動画作成ボタンが押されることなどによって行われる。
<Lecture video creation process>
The processing of the image processing apparatus 10 performed in the lecture video creation processing in step S103 will be described with reference to the flowchart shown in FIG. The lecture video creation process is performed, for example, by the user instructing the start of the lecture video creation process at an arbitrary time after the lecture ends. The instruction to start the lecture video creation process is performed, for example, when a lecture video creation button included in the input device 14 is pressed.

ステップS401において、プロセッサー11は、コンテンツ動画Mcのサイズ及び位置を調整し、嵌め込み画像としての動画を作成する。本実施形態では、このようにコンテンツ動画Mcのサイズ及び位置が調整されて作成された動画を調整動画Mnと呼ぶ。調整動画Mnの全体の画像サイズは、撮影動画Mbの画像サイズと同じになるように調整される。すなわち、調整動画Mnの全体の画像サイズは、例えば図4に示す例において座標で表すと(0,0)−(Xm,Ym)に相当するサイズとなるように調整される。プロセッサー11は、表示領域420に相当する部分の大きさに合わせて、コンテンツ動画Mcを縮小又は拡大する。さらに、プロセッサー11は、縮小又は拡大されたコンテンツ動画Mcの位置を、表示領域420に相当する位置に合わせるようにする。このようにして、コンテンツ動画Mcの位置及び大きさが表示領域420に相当する部分に調整された調整動画Mnが作成される。すなわち、例えば図4に示す例において座標で表すと(Xc1,Yc1)−(Xc2,Yc2)に合わせてコンテンツ動画Mcのサイズと位置は調整される。この調整動画Mnにも、コンテンツ動画Mcに含まれていた時間情報が引き継がれる。作成された調整動画Mnは、例えば大容量ストレージ13に保存される。   In step S401, the processor 11 adjusts the size and position of the content moving image Mc and creates a moving image as an embedded image. In the present embodiment, a moving image created by adjusting the size and position of the content moving image Mc in this way is referred to as an adjusted moving image Mn. The overall image size of the adjusted moving image Mn is adjusted to be the same as the image size of the captured moving image Mb. In other words, the overall image size of the adjusted moving image Mn is adjusted to be a size corresponding to (0, 0) − (Xm, Ym) when expressed in coordinates in the example illustrated in FIG. 4, for example. The processor 11 reduces or enlarges the content moving image Mc in accordance with the size of the portion corresponding to the display area 420. Further, the processor 11 adjusts the position of the reduced or enlarged content moving image Mc to a position corresponding to the display area 420. In this way, the adjusted moving image Mn in which the position and size of the content moving image Mc are adjusted to a portion corresponding to the display area 420 is created. That is, for example, when expressed in coordinates in the example shown in FIG. 4, the size and position of the content moving image Mc are adjusted in accordance with (Xc1, Yc1)-(Xc2, Yc2). The time information included in the content moving image Mc is also carried over to the adjusted moving image Mn. The created adjusted moving image Mn is stored in the large-capacity storage 13, for example.

ステップS402において、プロセッサー11は、撮影動画Mbと調整動画Mnとを合成して動画を作成する。本実施形態では、このように撮影動画Mbと調整動画Mnとが合成された動画を合成動画Maと呼ぶ。例えば、プロセッサー11は、撮影動画Mbを前景側とし、アルファブレンド用のマスク画像αmと調整動画Mnとを用いたアルファブレンドによって、合成動画Maを作成する。この際、撮影動画Mbと調整動画Mnとに含まれる時間情報を用いて、これらの動画は同期するように調整される。作成された合成動画Maは、例えば大容量ストレージ13に保存される。この合成動画Maが、目的とする講演動画となる。以上が講演動画作成システム1の動作である。   In step S402, the processor 11 combines the photographed moving image Mb and the adjusted moving image Mn to create a moving image. In the present embodiment, a moving image in which the captured moving image Mb and the adjustment moving image Mn are combined in this way is referred to as a combined moving image Ma. For example, the processor 11 creates the synthesized moving image Ma by alpha blending using the captured moving image Mb as the foreground side and the mask image αm for alpha blending and the adjusted moving image Mn. At this time, using the time information included in the captured moving image Mb and the adjusted moving image Mn, these moving images are adjusted to be synchronized. The created composite video Ma is stored in the large-capacity storage 13, for example. This synthesized video Ma becomes the target lecture video. The above is the operation of the lecture video creation system 1.

本実施形態に係る講演動画作成システム1によれば、デジタルカメラ60で撮影された撮影動画Mbのうち、表示領域320に相当する位置の画像がコンテンツ動画Mcで置換された合成動画Maが作成される。この合成動画Maは、視認性に優れた画像となる。すなわち、デジタルカメラ60による撮影では、一般に講演者330に焦点が合わせられる。その結果、スクリーン340に投影された投影画像については焦点がずれた状態となり得る。また、投影画像においては、長方形の表示領域320に画像が投影されるように、いわゆる台形補正といった幾何学補正が行われ得る。このような補正によって、投影画像では、輝度が低下したり画質が劣化したりする。また、プロジェクター80としてDLP(登録商標)プロジェクターが用いられる場合に生じ得るスポーク光など、投影画像にはノイズが生じ得る。スポーク光は、投影画像が肉眼で観察されている場合には認識されにくいが、撮影された画像においては認識されることがある。本実施形態で作成される合成動画Maでは、表示領域420の画像はコンテンツデータに基づいて作成されるので、上述のような焦点のずれ、輝度の低下、画質の劣化、ノイズの重畳等が表示領域420の画像に生じない。   According to the lecture video creation system 1 according to the present embodiment, a composite video Ma is created in which an image at a position corresponding to the display area 320 is replaced with a content video Mc among the shot video Mb shot by the digital camera 60. The This synthesized video Ma becomes an image with excellent visibility. That is, in the shooting by the digital camera 60, the speaker 330 is generally focused. As a result, the projected image projected on the screen 340 can be out of focus. Further, in the projected image, geometric correction such as so-called trapezoidal correction can be performed so that the image is projected onto the rectangular display area 320. By such correction, in the projected image, the luminance is lowered or the image quality is deteriorated. Further, noise may occur in the projected image, such as spoke light that may be generated when a DLP (registered trademark) projector is used as the projector 80. Spoke light is difficult to recognize when the projected image is observed with the naked eye, but may be recognized in a captured image. In the synthetic video Ma created in the present embodiment, the image in the display area 420 is created based on the content data, so that the above-described defocus, luminance reduction, image quality degradation, noise superposition, etc. are displayed. It does not occur in the image of the area 420.

(第2の実施形態)
第2の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態では、デジタルカメラ60を用いて得られた撮影動画Mbに応じて加工が施された合成動画Maが作成される。
(Second Embodiment)
A second embodiment will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. In the present embodiment, a composite moving image Ma that is processed according to the captured moving image Mb obtained using the digital camera 60 is created.

撮影動画Mbに含まれる表示領域420内の画像の色調と、コンテンツ動画Mcの色調とは、撮影条件等に応じて異なる場合がある。本実施形態では、調整動画Mnの作成にあたって、例えばコンテンツ動画Mcの色調を撮影動画Mbに含まれる表示領域420内の画像の色調に合わせる処理が施される。このようにして作成された調整動画Mnを用いて、合成動画Maが作成される。その結果、動画の画面全体において色調が自然な合成動画Maが作成され得る。コンテンツ動画Mcの色調を撮影動画Mbに含まれる表示領域420内の画像の色調に合わせる方法は、種々ある。以下に、その例を示す。   The color tone of the image in the display area 420 included in the photographed moving image Mb and the color tone of the content movie Mc may differ depending on the photographing condition and the like. In the present embodiment, when the adjustment moving image Mn is created, for example, a process of matching the color tone of the content moving image Mc with the color tone of the image in the display area 420 included in the captured moving image Mb is performed. A composite video Ma is created using the adjusted video Mn created in this way. As a result, a synthetic moving image Ma having a natural color tone on the entire moving image screen can be created. There are various methods for matching the color tone of the content moving image Mc with the color tone of the image in the display area 420 included in the captured moving image Mb. An example is shown below.

[第1の方法]
本実施形態の第1の方法について説明する。本方法に係る講演動画作成処理について、図9に示すフローチャートを参照して説明する。
[First method]
The first method of this embodiment will be described. The lecture video creation process according to this method will be described with reference to the flowchart shown in FIG.

ステップS501において、プロセッサー11は、撮影動画Mbを解析する。より詳しくは、プロセッサー11は、撮影動画Mbを構成する画像に含まれる表示領域420内の色調の情報を特定する。ここで、色調は、例えば、以下の要因によって変化し得る。すなわち、色調は、デジタルカメラ60による撮影時のホワイトバランスの設定などの撮影条件によって変化し得る。また、色調は、プロジェクター80の光源等の特性といった投影条件によって変化し得る。また、色調は、講演の会場の照明状態といった環境条件によって変化し得る。   In step S501, the processor 11 analyzes the captured moving image Mb. More specifically, the processor 11 specifies color tone information in the display area 420 included in the images constituting the captured moving image Mb. Here, the color tone can change due to the following factors, for example. That is, the color tone can change depending on shooting conditions such as setting of white balance when shooting with the digital camera 60. Further, the color tone can change depending on projection conditions such as characteristics of the light source of the projector 80. In addition, the color tone may change depending on environmental conditions such as lighting conditions at the lecture venue.

ステップS502において、プロセッサー11は、第1の実施形態の場合と同様に、コンテンツ動画Mcのサイズを調整し、調整動画Mnを作成する。また、この際、プロセッサー11は、コンテンツ動画Mcの色調をステップS501の解析結果に応じて調整する。すなわち、プロセッサー11は、コンテンツ動画Mcの色調と、撮影動画Mbに含まれる表示領域420内の画像の色調とが整合するように、画像処理を行う。このようにして、色調が調整され、さらにコンテンツ動画Mcの位置及び大きさが表示領域420に相当する部分に調整された調整動画Mnが作成される。   In step S502, the processor 11 adjusts the size of the content moving image Mc and creates the adjusted moving image Mn, as in the case of the first embodiment. At this time, the processor 11 adjusts the color tone of the content moving image Mc according to the analysis result of step S501. That is, the processor 11 performs image processing so that the color tone of the content moving image Mc matches the color tone of the image in the display area 420 included in the captured moving image Mb. In this way, an adjusted moving image Mn is created in which the color tone is adjusted and the position and size of the content moving image Mc are adjusted to a portion corresponding to the display area 420.

なお、撮影動画Mbの解析は、動画の全ての期間について行われ、時間毎に異なる条件で調整動画Mnの色調の調整が行われてもよい。また、撮影動画Mbの解析は、例えば講演の最初の状態についてのみ行われ、動画の全ての期間にわたって同一条件で調整動画Mnの色調の調整が行われてもよい。また、撮影動画Mbの解析は、例えば一定期間ごとに繰り返し行われ、一定期間ごとに再設定される条件で調整動画Mnの色調の調整が行われてもよい。   Note that the captured moving image Mb may be analyzed for the entire period of the moving image, and the color tone of the adjusted moving image Mn may be adjusted under different conditions for each time. The analysis of the captured moving image Mb may be performed only for the initial state of the lecture, for example, and the color tone of the adjusted moving image Mn may be adjusted under the same conditions over the entire period of the moving image. Further, the analysis of the captured moving image Mb may be repeatedly performed, for example, every predetermined period, and the color tone of the adjusted moving image Mn may be adjusted under a condition that is reset every fixed period.

この調整動画Mnにも、コンテンツ動画Mcに含まれていた時間情報が引き継がれる。作成された調整動画Mnは、例えば大容量ストレージ13に保存される。   The time information included in the content moving image Mc is also carried over to the adjusted moving image Mn. The created adjusted moving image Mn is stored in the large-capacity storage 13, for example.

ステップS503において、プロセッサー11は、第1の実施形態の場合と同様に、撮影動画Mbと調整動画Mnとが合成された合成動画Maを作成する。作成された合成動画Maは、例えば大容量ストレージ13に保存される。この合成動画Maが、目的とする講演動画となる。   In step S503, the processor 11 creates a composite video Ma in which the captured video Mb and the adjustment video Mn are combined, as in the case of the first embodiment. The created composite video Ma is stored in the large-capacity storage 13, for example. This synthesized video Ma becomes the target lecture video.

以上のようにして、動画像の画面全体において色調の点で自然な特性を有する合成動画Maが作成され得る。   As described above, the synthetic moving image Ma having natural characteristics in terms of color tone can be created in the entire moving image screen.

ここでは、コンテンツ動画Mcに基づいて作成される調整動画Mnについて、色調が調整される画像処理の例を示したが、これに限らない。コンテンツ動画Mcに基づいて作成される調整動画Mnの代わりに、撮影動画Mbの色調が画像処理によって調整されてもよい。この場合、プロセッサー11は、撮影動画Mbの表示領域420以外の領域の色調が、調整されていないコンテンツ動画Mcの色調と整合するように、撮影動画Mbに対して色調を調整する画像処理を行う。プロセッサー11は、色調を調整した撮影動画Mbと、調整動画Mnとを合成し、合成動画Maを作成する。また、プロセッサー11は、調整動画Mnと撮影動画Mbとの両方に対して、双方の動画の色調を合わせるように色調を調整する処理を行ってもよい。   Here, an example of image processing in which the color tone of the adjusted moving image Mn created based on the content moving image Mc is adjusted is shown, but the present invention is not limited to this. Instead of the adjustment movie Mn created based on the content movie Mc, the color tone of the photographed movie Mb may be adjusted by image processing. In this case, the processor 11 performs image processing for adjusting the color tone of the captured moving image Mb so that the color tone of the region other than the display region 420 of the captured moving image Mb matches the color tone of the content moving image Mc that has not been adjusted. . The processor 11 combines the photographed moving image Mb with the adjusted color tone and the adjusted moving image Mn to create a combined moving image Ma. In addition, the processor 11 may perform a process of adjusting the color tone of both the adjusted moving image Mn and the captured moving image Mb so that the color tones of both moving images are matched.

[第2の方法]
本実施形態の第2の方法について説明する。第1の方法では、撮影動画Mbを解析することによって、表示領域420内の色調の情報が特定された。これに対して、本方法では、撮影動画Mbのデータに関連付けられて記録される撮影時の各種条件に基づいて表示領域420内の色調の情報が特定される。
[Second method]
The second method of this embodiment will be described. In the first method, the color tone information in the display area 420 is specified by analyzing the captured moving image Mb. On the other hand, in this method, the color tone information in the display area 420 is specified based on various conditions at the time of shooting recorded in association with the data of the shooting moving image Mb.

例えば、講演録画処理のステップS303において、撮影時のデジタルカメラ60のホワイトバランスの設定、プロジェクター80の設定など、各種設定のうち1つ以上が撮影動画Mbのデータに関連付けられて記録される。   For example, in step S303 of the lecture recording process, one or more of various settings such as the white balance setting of the digital camera 60 and the projector 80 at the time of shooting are recorded in association with the data of the shooting moving image Mb.

講演動画作成処理では、プロセッサー11は、撮影動画Mbとともに、撮影動画Mbに関連付けられた上述の情報を読み出す。プロセッサー11は、当該情報に基づいて、ステップS502の処理と同様に、コンテンツ動画Mcの色調を調整し、調整動画Mnを作成する。その他については、第1の方法の場合と同様である。   In the lecture movie creation process, the processor 11 reads the above-described information associated with the photographed movie Mb together with the photographed movie Mb. Based on this information, the processor 11 adjusts the color tone of the content moving image Mc and creates the adjusted moving image Mn, similarly to the process of step S502. Others are the same as in the case of the first method.

以上のようにしても、動画像の画面全体において色調が自然な特性を有する合成動画Maが作成され得る。   Even in the above-described manner, the synthesized moving image Ma having a natural color tone characteristic on the entire moving image screen can be created.

(第3の実施形態)
第3の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態でも、デジタルカメラ60を用いて得られた撮影動画Mbに応じて加工が施された合成動画Maが作成される。
(Third embodiment)
A third embodiment will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. Also in the present embodiment, a composite video Ma that is processed according to the captured video Mb obtained using the digital camera 60 is created.

第1の実施形態では、事前処理により撮影画像における表示領域が固定された領域として予め特定される場合の例を説明した。これに対して、例えば、講演者やポインタ等が表示領域に侵入した場合等、表示領域及びそれ以外の周辺領域の境界が時間経過と共に変化することもある。例えば図10に示すように、講演者330の一部352が元の表示領域320と重なった場合、第1の実施形態のような処理が行われると、合成動画Maにおいて、元の表示領域320と重なっている講演者330の一部352は、消失することになる。また、第1の実施形態のような処理が行われると、例えば講演者330が有するレーザポインタ332によって示された輝点354は、合成動画Maにおいて、再現されないことになる。このような状況に対応するために、表示領域が時間と共に変化するように画像処理装置10は構成されていてもよい。   In the first embodiment, the example in which the display area in the captured image is specified in advance as the fixed area by the pre-processing has been described. On the other hand, for example, when a speaker, a pointer, or the like enters the display area, the boundary between the display area and other peripheral areas may change with time. For example, as shown in FIG. 10, when a part 352 of the speaker 330 overlaps with the original display area 320, when the process as in the first embodiment is performed, the original display area 320 is displayed in the synthesized video Ma. The part 352 of the speaker 330 that overlaps with will disappear. Further, when the processing as in the first embodiment is performed, for example, the bright spot 354 indicated by the laser pointer 332 included in the speaker 330 is not reproduced in the synthesized moving image Ma. In order to cope with such a situation, the image processing apparatus 10 may be configured such that the display area changes with time.

表示領域と周辺領域との境界は、例えばコンテンツの画像と撮影画像とを比較することで容易に特定され得る。すなわち、表示領域320に講演者330等が侵入していないとき、コンテンツの画像と撮影画像の表示領域320の画像とは一致する。一方、表示領域320に講演者等が侵入しているとき、侵入している部分でコンテンツの画像と撮影画像の表示領域の画像とは一致しなくなる。したがって、このような一致しなくなった領域に基づいて、表示領域と周辺領域との境界は特定され得る。   The boundary between the display area and the peripheral area can be easily specified by comparing, for example, a content image and a captured image. That is, when the speaker 330 or the like does not enter the display area 320, the content image and the captured image display area 320 match. On the other hand, when a speaker or the like has entered the display area 320, the content image and the image in the display area of the photographed image do not match at the intruding portion. Therefore, the boundary between the display area and the peripheral area can be specified based on the area that does not match.

また、撮影画像中にレーザポインタ332によって形成された輝点354が存在するとき、当該輝点354は輝度が非常に高いので、輝度が高い点として輝点354は特定され得る。   Further, when a bright spot 354 formed by the laser pointer 332 exists in the captured image, the bright spot 354 has a very high luminance, and thus the bright spot 354 can be specified as a point having a high brightness.

何れの場合も、表示領域420内において例えば講演者が写っている等で撮影画像を表示すべき位置のアルファブレンドのα値を、表示領域420内であっても1に変更すればよい。このようにすることで、表示領域420内に表示画像以外が存在する場合であっても、自然な講演動画が作成される。以下、本実施形態に係る処理方法のいくつかの例について図面を参照してさらに説明する。   In any case, the alpha value of the alpha blend at the position where the photographed image should be displayed in the display area 420, for example, when a lecturer is shown, may be changed to 1 even in the display area 420. In this way, a natural lecture video is created even if there is something other than the display image in the display area 420. Hereinafter, some examples of the processing method according to the present embodiment will be further described with reference to the drawings.

[第1の方法]
本方法に係る講演動画作成処理について、図11に示すフローチャートを参照して説明する。
[First method]
The lecture video creation processing according to this method will be described with reference to the flowchart shown in FIG.

ステップS601において、プロセッサー11は、撮影動画Mbの初期表示領域とコンテンツ動画Mcとを解析し、講演中の各時点における画素の差分を検出する。ここで、初期表示領域は、例えば講演者330等がスクリーン340の領域に侵入していない初期状態における撮影動画Mbの表示領域420である。また、図3を参照して説明した事前処理において特定された表示領域が、初期表示領域として設定されてもよい。撮影動画Mbの初期表示領域とコンテンツ動画Mcとの差分は、合成動画Maにおいて、初期表示領域内であってコンテンツ動画Mcの画素に対応しない画素を示すべき領域である。例えば、初期表示領域内に侵入した講演者330の画像が差分として検出される。また、レーザポインタ332による初期表示領域に照射された輝点354の画像が差分として検出される。   In step S601, the processor 11 analyzes the initial display area of the captured moving image Mb and the content moving image Mc, and detects a pixel difference at each time point during the lecture. Here, the initial display area is, for example, the display area 420 of the captured moving image Mb in an initial state where the speaker 330 or the like has not entered the area of the screen 340. Further, the display area specified in the pre-processing described with reference to FIG. 3 may be set as the initial display area. The difference between the initial display area of the photographed moving picture Mb and the content moving picture Mc is an area in the synthesized moving picture Ma that should indicate a pixel that does not correspond to the pixel of the content moving picture Mc in the initial display area. For example, an image of the speaker 330 who has entered the initial display area is detected as a difference. Further, an image of the bright spot 354 irradiated to the initial display area by the laser pointer 332 is detected as a difference.

ステップS602において、プロセッサー11は、ステップS601で検出された差分部分について、アルファブレンド用マスク画像αmのα値を更新する。より具体的には、差分が検出された部分について、α値を1に設定する。このようにして、時系列に沿った各時点において初期表示領域の各画素においてα値が異なることがあるアルファブレンド用マスク画像αmが作成される。   In step S602, the processor 11 updates the α value of the alpha blend mask image αm for the difference portion detected in step S601. More specifically, the α value is set to 1 for the portion where the difference is detected. In this way, the alpha blend mask image αm in which the α value may be different in each pixel of the initial display region at each time point in time series is created.

すなわち、初期表示領域のうち、差分部分以外が新たな表示領域となる。この新たな表示領域に、コンテンツ動画Mcに基づく画像が合成されることになる。   That is, the initial display area other than the difference portion becomes a new display area. An image based on the content moving image Mc is synthesized in this new display area.

ステップS603において、プロセッサー11は、第1の実施形態の場合と同様に、コンテンツ動画Mcのサイズを調整し、調整動画Mnを作成し保存する。   In step S603, the processor 11 adjusts the size of the content video Mc, and creates and stores the adjusted video Mn, as in the first embodiment.

ステップS604において、プロセッサー11は、ステップS602で作成されたアルファブレンド用マスク画像αmを用いて、撮影動画Mbと調整動画Mnとを合成し、合成動画Maを作成する。作成された合成動画Maは、例えば大容量ストレージ13に保存される。この合成動画Maが、目的とする講演動画となる。この合成動画Maでは、初期表示領域に入った講演者330やレーザポインタ332の輝点354に対応する部分において、コンテンツ動画Mcではなく撮影動画Mbに基づく画像が表される。   In step S604, the processor 11 uses the alpha blend mask image αm generated in step S602 to combine the captured moving image Mb and the adjustment moving image Mn to generate a combined moving image Ma. The created composite video Ma is stored in the large-capacity storage 13, for example. This synthesized video Ma becomes the target lecture video. In the synthesized moving image Ma, an image based on the captured moving image Mb is displayed instead of the content moving image Mc in a portion corresponding to the bright spot 354 of the speaker 330 or the laser pointer 332 that has entered the initial display area.

以上のようにして、撮影動画Mbが、デジタルカメラ60と表示領域320との間に入った講演者330の画像又は輝点354の画像を含んでいても、自然な動画である合成動画Maが作成され得る。   As described above, even if the captured moving image Mb includes the image of the lecturer 330 or the bright spot 354 between the digital camera 60 and the display area 320, the combined moving image Ma that is a natural moving image is obtained. Can be created.

なお、本方法は、第2の実施形態と同様に、撮影動画Mbに基づいてコンテンツ動画Mcの色調を調整する処理を含んでいてもよい。   Note that, as in the second embodiment, this method may include a process of adjusting the color tone of the content moving image Mc based on the captured moving image Mb.

また、色調の調整は、第2の実施形態のようにコンテンツ動画Mc又は撮影動画Mbの全画素に対して一様に行うに限らない。色調の調整の別の例を第2の方法として次に示す。   Further, the adjustment of the color tone is not limited to being performed uniformly on all the pixels of the content moving image Mc or the captured moving image Mb as in the second embodiment. Another example of the color tone adjustment will be described below as the second method.

[第2の方法]
本方法に係る講演動画作成処理について、図12に示すフローチャートを参照して説明する。
[Second method]
The lecture video creation process according to this method will be described with reference to the flowchart shown in FIG.

ステップS701において、プロセッサー11は、第2の実施形態のステップS501と同様に、撮影動画Mbの色調を解析する。すなわち、プロセッサー11は、撮影動画Mbを構成する画像に含まれる表示領域420内の色調の情報を特定する。   In step S701, the processor 11 analyzes the color tone of the captured moving image Mb, as in step S501 of the second embodiment. That is, the processor 11 specifies the color tone information in the display area 420 included in the image constituting the captured moving image Mb.

ステップS702において、プロセッサー11は、第1の方法のステップS601と同様に、撮影動画Mbの初期表示領域とコンテンツ動画Mcとを解析し、講演中の各時点における対応する画素の差分を検出する。   In step S702, as in step S601 of the first method, the processor 11 analyzes the initial display area of the captured moving image Mb and the content moving image Mc, and detects a difference between corresponding pixels at each time point during the lecture.

ステップS703において、プロセッサー11は、第1の方法のステップS602と同様に、ステップS702で検出された差分部分について、アルファブレンド用マスク画像αmのα値を更新する。   In step S703, the processor 11 updates the α value of the alpha blend mask image αm for the difference portion detected in step S702, as in step S602 of the first method.

ステップS704において、プロセッサー11は、第2の実施形態のステップS502と同様に、コンテンツ動画Mcのサイズを調整し、調整動画Mnを作成する。また、プロセッサー11は、ステップS701の解析結果に基づいて、コンテンツ動画Mcの色調を画像処理によって調整し、調整動画Mnを作成する。プロセッサー11は、特に合成される撮影動画Mbとコンテンツ動画Mcとの境界において画像が滑らかにつながるように色調を調整する画像処理を行う。このとき、プロセッサー11は、コンテンツ動画Mcの全体に対して一様に色調の調整を行ってもよい。また、プロセッサー11は、ステップS702で検出された差分に基づいて、合成されたときに撮影動画Mbに基づく画像とコンテンツ動画Mcに基づく画像との境界になる位置を特定し、これを用いて色調の調整を行ってもよい。この境界は、初期表示領域から差分部分が除かれた新たな表示領域の縁に相当する。プロセッサー11は、特定された境界が自然に見えるように、境界部分において、境界に向けて段階的にコンテンツ動画Mcの色調を調整してもよい。このような色調の調整は、表示領域の縁の全長に対して行われてもよいし、例えば、差分部分の周辺に相当する表示領域の縁に対して行われてもよい。   In step S704, the processor 11 adjusts the size of the content moving image Mc and creates the adjusted moving image Mn, as in step S502 of the second embodiment. Further, the processor 11 adjusts the color tone of the content moving image Mc by image processing based on the analysis result of step S701, and creates an adjusted moving image Mn. The processor 11 performs image processing for adjusting the color tone so that the images are smoothly connected particularly at the boundary between the captured moving image Mb and the content moving image Mc. At this time, the processor 11 may adjust the color tone uniformly for the entire content moving image Mc. In addition, the processor 11 specifies a position that becomes a boundary between the image based on the captured moving image Mb and the image based on the content moving image Mc when combined based on the difference detected in step S702, and uses this to determine the color tone. May be adjusted. This boundary corresponds to the edge of a new display area obtained by removing the difference portion from the initial display area. The processor 11 may adjust the color tone of the content moving image Mc stepwise toward the boundary at the boundary portion so that the specified boundary looks natural. Such color tone adjustment may be performed on the entire length of the edge of the display area, or may be performed on the edge of the display area corresponding to the periphery of the difference portion, for example.

ステップS705において、プロセッサー11は、ステップS701の解析結果に基づいて、撮影動画Mbの色調を画像処理によって調整する。本実施形態では、この撮影動画Mbに対する色調の調整によって作成される動画を、調整撮影動画Mdと呼ぶ。プロセッサー11は、特に合成される撮影動画Mbとコンテンツ動画Mcとの境界において画像が滑らかにつながるように色調を調整する画像処理を行う。このとき、プロセッサー11は、撮影動画Mbの全体に対して一様に色調の調整を行ってもよい。また、プロセッサー11は、ステップS702で検出された差分に基づいて特定される表示領域の縁を特定し、これを用いて色調の調整を行ってもよい。プロセッサー11は、特定された縁が自然に見えるように、境界部分において、境界に向けて段階的に撮影動画Mbの色調を調整してもよい。このような色調の調整は、表示領域の縁の全長に対して行われてもよいし、例えば、差分部分の周辺に相当する表示領域の縁に対して行われてもよい。   In step S705, the processor 11 adjusts the color tone of the captured moving image Mb by image processing based on the analysis result in step S701. In the present embodiment, a moving image created by adjusting the color tone of the captured moving image Mb is referred to as an adjusted captured moving image Md. The processor 11 performs image processing for adjusting the color tone so that the images are smoothly connected particularly at the boundary between the captured moving image Mb and the content moving image Mc. At this time, the processor 11 may adjust the color tone uniformly for the entire captured moving image Mb. Further, the processor 11 may specify the edge of the display area specified based on the difference detected in step S702, and adjust the color tone using this. The processor 11 may adjust the color tone of the captured moving image Mb in a stepwise manner toward the boundary at the boundary portion so that the specified edge looks natural. Such color tone adjustment may be performed on the entire length of the edge of the display area, or may be performed on the edge of the display area corresponding to the periphery of the difference portion, for example.

ステップS706において、プロセッサー11は、ステップS703で作成されたアルファブレンド用マスク画像αmを用いて、調整撮影動画Mdと調整動画Mnとを合成し、合成動画Maを作成する。作成された合成動画Maは、例えば大容量ストレージ13に保存される。この合成動画Maが、目的とする講演動画となる。   In step S706, the processor 11 combines the adjusted shooting moving image Md and the adjusted moving image Mn using the alpha blend mask image αm generated in step S703 to generate a combined moving image Ma. The created composite video Ma is stored in the large-capacity storage 13, for example. This synthesized video Ma becomes the target lecture video.

この合成動画Maでは、表示領域320に入った講演者330やレーザポインタ332の輝点354の部分において、コンテンツ動画Mcではなく撮影動画Mbに基づく画像が表される。また、本方法によれば、合成される調整撮影動画Mdと調整動画Mnとの境界が滑らかになる。   In the synthesized moving image Ma, an image based on the captured moving image Mb, not the content moving image Mc, is represented in the portion of the speaker 330 and the bright spot 354 of the laser pointer 332 that enter the display area 320. In addition, according to the present method, the boundary between the adjusted captured moving image Md and the adjusted moving image Mn to be combined becomes smooth.

上述の例では、撮影動画Mbとコンテンツ動画Mcとの両方の色調が調整される例を示したがこれに限らない。撮影動画Mbとコンテンツ動画Mcとのうち何れか一方の色調が調整されてもよい。また、撮影動画Mb又はコンテンツ動画Mcの色調の調整によらず、又は色調の調整に加えて、アルファブレンド用マスク画像αmを用いて、撮影動画Mbとコンテンツ動画Mcとの境界を滑らかにしてもよい。すなわち、境界部分において、境界からの距離に応じて調整撮影動画Mdと調整動画Mnとの合成比率を段階的に変化させてもよい。   In the above example, an example in which the color tone of both the captured moving image Mb and the content moving image Mc is adjusted has been described, but the present invention is not limited thereto. The color tone of either one of the captured moving image Mb and the content moving image Mc may be adjusted. Further, the boundary between the captured moving image Mb and the content moving image Mc is smoothed by using the alpha blend mask image αm regardless of the color tone of the captured moving image Mb or the content moving image Mc or in addition to the adjustment of the color tone. Good. That is, in the boundary portion, the synthesis ratio of the adjusted shooting moving image Md and the adjusted moving image Mn may be changed stepwise according to the distance from the boundary.

(第4の実施形態)
第4の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態でも、デジタルカメラ60を用いて得られた撮影動画Mbに応じて加工が施された合成動画Maが作成される。本実施形態では、撮影動画Mbに基づいて、実際の講演では存在しなかった画像が合成動画Maに合成される。
(Fourth embodiment)
A fourth embodiment will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. Also in the present embodiment, a composite video Ma that is processed according to the captured video Mb obtained using the digital camera 60 is created. In the present embodiment, based on the captured moving image Mb, an image that did not exist in the actual lecture is combined with the combined moving image Ma.

例えば、図13に示すように、講演者330がレーザポインタ332を用いて、所定の動作を行ったとき、その動作に応じた表示が合成動画Maに含められる。例えば、輝点の位置を所定回数往復させるように変化させたとき、輝点の軌跡に応じた線464が重畳画像として合成動画Maに重畳されて合成動画Maに含まれるようになる。例えば講演者330がコンテンツ中の強調したい部分にアンダーラインを付したいと思ったとき、講演者330は、当該位置において輝点の位置を所定回数往復させればよい。また、ある位置を囲むように輝点の位置を変化させたとき、輝点の軌跡に応じた囲い線466が合成動画Maに含まれるようになる。例えば講演者330がコンテンツ中の強調したい部分を四角形や円で囲みたいと思ったとき、講演者330は、当該部分を輝点で囲むようにレーザポインタ332を操作すればよい。また、レーザポインタ332によって指し示している位置を強調するために、合成動画Maでは、輝点部分に例えば矢印の図形462が表示されてもよい。   For example, as shown in FIG. 13, when the speaker 330 performs a predetermined operation using the laser pointer 332, a display corresponding to the operation is included in the synthesized moving image Ma. For example, when the position of the bright spot is changed so as to reciprocate a predetermined number of times, a line 464 corresponding to the locus of the bright spot is superimposed on the synthesized video Ma as a superimposed image and included in the synthesized video Ma. For example, when the lecturer 330 wants to add an underline to a portion to be emphasized in the content, the lecturer 330 may reciprocate the position of the bright spot a predetermined number of times at the position. Further, when the position of the bright spot is changed so as to surround a certain position, a surrounding line 466 corresponding to the locus of the bright spot is included in the synthesized moving image Ma. For example, when the lecturer 330 wants to surround a portion to be emphasized in the content with a rectangle or a circle, the speaker 330 may operate the laser pointer 332 so as to surround the portion with a bright spot. Further, in order to emphasize the position pointed by the laser pointer 332, for example, an arrow graphic 462 may be displayed at the bright spot portion in the synthesized moving image Ma.

本実施形態に係る講演動画作成処理について、図14に示すフローチャートを参照して説明する。   The lecture video creation processing according to the present embodiment will be described with reference to the flowchart shown in FIG.

ステップS801において、プロセッサー11は、コンテンツ動画Mcのサイズを調整し、調整動画Mnを作成する。   In step S801, the processor 11 adjusts the size of the content moving image Mc to create an adjusted moving image Mn.

ステップS802において、プロセッサー11は、撮影動画Mbの初期表示領域とコンテンツ動画Mcとを解析し、講演中の各時点における画素の差分を検出する。本実施形態では、プロセッサー11は、この差分に基づいて、レーザポインタ332による輝点を特定する。プロセッサー11は、輝点を、初期表示領域の内部において講演者330が指し示している位置である指示位置として特定する。   In step S802, the processor 11 analyzes the initial display area of the captured moving image Mb and the content moving image Mc, and detects pixel differences at each time point during the lecture. In this embodiment, the processor 11 specifies the bright spot by the laser pointer 332 based on this difference. The processor 11 identifies the bright spot as an indicated position that is the position indicated by the speaker 330 within the initial display area.

ステップS803において、プロセッサー11は、ステップS802で特定された指示位置である輝点の動きを解析する。例えば、プロセッサー11は、時系列に沿って輝点が所定回数同じ位置を往復するように動いたか、或いは、輝点が任意の位置を囲うように動いたかなどが解析される。   In step S803, the processor 11 analyzes the movement of the bright spot that is the designated position identified in step S802. For example, the processor 11 analyzes whether the luminescent spot moves so as to reciprocate the same position a predetermined number of times along the time series, or whether the luminescent spot moves so as to surround an arbitrary position.

ステップS804において、プロセッサー11は、コンテンツ動画Mcにおいてコンテンツの表示ページが変更されたかなどについての解析を行う。プロセッサー11は、例えばコンテンツ動画Mcを解析することで、コンテンツのページがめくられたか否かを特定できる。また、講演録画処理において、講演者330によるコンテンツのページめくり動作のタイミングが記録され、プロセッサー11は、当該記録に基づいて、コンテンツのページがめくられたか否かを特定してもよい。   In step S804, the processor 11 analyzes whether or not the content display page has been changed in the content moving image Mc. The processor 11 can specify whether or not the page of the content has been turned, for example, by analyzing the content moving image Mc. Further, in the lecture recording process, the timing of the page turning operation of the content by the speaker 330 may be recorded, and the processor 11 may specify whether or not the page of the content has been turned based on the recording.

ステップS805において、プロセッサー11は、ステップS803とステップS804の解析結果に基づいて、合成動画Maにおいて撮影動画Mb及び調整動画Mnに重畳して表示させる動画を作成し、例えば大容量ストレージ13に保存する。ここで作成されるような撮影動画Mbにもコンテンツ動画Mcにも含まれない画像を含む動画を重畳動画Meと呼ぶ。例えば、プロセッサー11は、輝点が所定回数同じ位置を往復したとき、当該位置にアンダーラインを表示させるように、当該位置に線464が含まれる重畳動画Meを作成する。また、プロセッサー11は、輝点が任意の位置を囲ったとき、輝点の位置に沿って囲い線を表示させるように、当該位置に囲い線466が含まれる重畳動画Meを作成する。また、プロセッサー11は、輝点の位置に合わせて、矢印の図形462を表示させるように、輝点の位置に矢印の図形462が含まれる重畳動画Meを作成する。   In step S805, the processor 11 creates a moving image to be displayed superimposed on the captured moving image Mb and the adjusted moving image Mn in the combined moving image Ma based on the analysis results in steps S803 and S804, and stores the moving image in, for example, the large-capacity storage 13. . A moving image including an image not included in the captured moving image Mb and the content moving image Mc as created here is referred to as a superimposed moving image Me. For example, the processor 11 creates the superimposed moving image Me including the line 464 at the position so that an underline is displayed at the position when the bright spot reciprocates the same position a predetermined number of times. In addition, when the bright spot surrounds an arbitrary position, the processor 11 creates the superimposed moving image Me including the surrounding line 466 at the position so that the surrounding line is displayed along the position of the bright spot. Further, the processor 11 creates the superimposed moving image Me in which the arrow graphic 462 is included at the position of the bright spot so that the arrow graphic 462 is displayed in accordance with the position of the bright spot.

重畳動画Meにおける線464などは、コンテンツのページの変更に合わせて削除されるように構成してもよい。すなわち、コンテンツのページが変わっても、前のページの内容に対応したアンダーライン等が残っていてはかえってわかりにくい講演動画となるので、アンダーライン等は、コンテンツのページめくりと同時に削除されるように、重畳動画Meは作成される。   The line 464 and the like in the superimposed video Me may be configured to be deleted when the content page is changed. In other words, even if the content page changes, the underline etc. corresponding to the content of the previous page will remain and it will be difficult to understand, so the underline etc. will be deleted at the same time the content page is turned In addition, the superimposed moving image Me is created.

ステップS806において、プロセッサー11は、アルファブレンド用マスク画像αmを用いて、撮影動画Mbと調整動画Mnとを合成する。さらに、プロセッサー11は、重畳動画Meを合成し、合成動画Maを作成する。作成された合成動画Maは、例えば大容量ストレージ13に保存される。この合成動画Maが、目的とする講演動画となる。   In step S806, the processor 11 combines the captured moving image Mb and the adjusted moving image Mn using the alpha blend mask image αm. Furthermore, the processor 11 synthesizes the superimposed moving image Me to create a combined moving image Ma. The created composite video Ma is stored in the large-capacity storage 13, for example. This synthesized video Ma becomes the target lecture video.

この合成動画Maでは、レーザポインタ332による輝点の動きに応じた画像が含まれる。その結果、講演動画は、実際の講演にさらに情報が付加されたわかりやすい動画となる。   In this synthesized moving image Ma, an image corresponding to the movement of the bright spot by the laser pointer 332 is included. As a result, the lecture video is an easy-to-understand video with more information added to the actual lecture.

ここで示した、輝点が所定回数往復したときに線を表示する、又は、輝点が所定の位置を囲ったときに囲み線を表示する等は、指示位置である輝点の動きと表示される画像との関係の一例である。   As shown here, a line is displayed when the luminescent spot has reciprocated a predetermined number of times, or a surrounding line is displayed when the luminescent spot surrounds a predetermined position. It is an example of the relationship with the image to be performed.

また、上述の例では、撮影動画Mbとコンテンツ動画Mcとの差分に基づいて輝点が検出される例を示したが、輝点検出の方法はこれに限らない。例えば、撮影動画Mbに含まれる所定以上の輝度を持つ点がレーザポインタによる輝点として特定されてもよい。また、レーザポインタ332として、肉眼では認識されないが撮影動画Mbでは特定され得る所定の点滅パターンを示すものが用いられてもよい。この場合、当該点滅パターンに基づいて、輝点の位置が特定され得る。   In the above-described example, an example in which the bright spot is detected based on the difference between the photographed moving picture Mb and the content moving picture Mc is shown, but the method of detecting the bright spot is not limited to this. For example, a point included in the photographed moving image Mb and having a luminance higher than a predetermined level may be specified as a bright spot by the laser pointer. Further, as the laser pointer 332, a laser pointer that shows a predetermined blinking pattern that is not recognized by the naked eye but can be specified in the captured moving image Mb may be used. In this case, the position of the bright spot can be specified based on the blinking pattern.

また、上述の実施形態では、指示位置としてレーザポインタ332の輝点が用いられ、この輝点に基づいて重畳動画Meが作成される例を示した。しかしながらこれに限らず、講演者330のジェスチャーに基づいて、重畳される画像が作成されてもよい。例えば、講演者330が手で指し示す位置を指示位置とし、講演者330による所定の動作が検出されたとき、その動作に応じた画像が重畳画像として作成されてもよい。   In the above-described embodiment, the bright spot of the laser pointer 332 is used as the designated position, and the superimposed moving image Me is created based on the bright spot. However, the present invention is not limited to this, and an image to be superimposed may be created based on the gesture of the speaker 330. For example, the position indicated by the speaker 330 with the hand may be set as the designated position, and when a predetermined operation by the speaker 330 is detected, an image corresponding to the operation may be created as a superimposed image.

また、重畳させる画像をリアルタイムに作成することが可能である場合には、当該画像がプロジェクター80によって投影され得る。この場合、アンダーライン等がスクリーン340上に表示されるので、実際に講演を聴いている人にとってもわかりやすい画像が表示されることになる。   Further, when it is possible to create an image to be superimposed in real time, the image can be projected by the projector 80. In this case, since an underline or the like is displayed on the screen 340, an image easy to understand for a person who is actually listening to the lecture is displayed.

本実施形態は、第2の実施形態又は第3の実施形態と組み合わせて実施されるよう構成してもよい。   The present embodiment may be configured to be implemented in combination with the second embodiment or the third embodiment.

[変形例]
資料の画像が表示装置によって提示され、当該画像の脇で講演者が講演を行う場合を説明した。ここで、表示装置として、プロジェクターが用いられる場合を例に挙げて説明した。資料を提示する表示装置は、プロジェクターに限らない。プロジェクターに代えて、例えば、液晶ディスプレイ等の各種装置が用いられてもよい。この場合、上述の何れの実施形態の説明において、「投影」として説明されている部分は「表示」に置換され得る。このことは、以下に示す変形例においても同様である。なお、第3の実施形態では、表示領域320に例えば講演者330が侵入する場合について検討した。このような場合、表示装置がプロジェクターである場合には、スクリーンとプロジェクターとの間に講演者330が入り、講演者330に画像が投影されることになる。一方、表示装置が液晶ディスプレイ等である場合、ディスプレイ等とデジタルカメラとの間に講演者330が入ることになる。
[Modification]
The case where the image of the document was presented by the display device and the lecturer gave a lecture beside the image was explained. Here, the case where a projector is used as the display device has been described as an example. A display device for presenting materials is not limited to a projector. For example, various devices such as a liquid crystal display may be used instead of the projector. In this case, in the description of any of the above-described embodiments, the portion described as “projection” can be replaced with “display”. The same applies to the modifications shown below. In the third embodiment, the case where a speaker 330 enters the display area 320 is considered. In such a case, when the display device is a projector, a speaker 330 enters between the screen and the projector, and an image is projected onto the speaker 330. On the other hand, when the display device is a liquid crystal display or the like, the speaker 330 enters between the display and the digital camera.

表示領域320が長方形となるように投影の状態が調整されている場合を例に挙げて説明したが、表示領域320は、長方形でなくてもよい。撮影画像に基づいて特定された表示領域420に合わせて、合成される調整動画Mnの形状は画像処理により適宜に補正され得る。このような画像処理により、表示領域320の形状とコンテンツの画像の形状とが一致していなくても、適切な講演動画が作成され得る。   The case where the projection state is adjusted so that the display area 320 is rectangular has been described as an example, but the display area 320 may not be rectangular. The shape of the adjustment moving image Mn to be synthesized can be appropriately corrected by image processing in accordance with the display area 420 specified based on the captured image. By such image processing, an appropriate lecture video can be created even if the shape of the display area 320 does not match the shape of the content image.

投影画像を変化させる際には、ユーザーはPC50又はプロジェクター80に対して操作を行う。例えば、投影画像のページ送りをするとき、ユーザーはPC50の操作を行うし、投影画像の台形補正を行うとき、ユーザーはプロジェクター80の操作を行う。プロセッサー11は、PC50又はプロジェクター80に対して行われた操作の情報を取得して、当該情報を用いて調整動画Mnを作成してもよい。   When changing the projection image, the user operates the PC 50 or the projector 80. For example, when the projected image is paged, the user operates the PC 50, and when performing the keystone correction of the projected image, the user operates the projector 80. The processor 11 may acquire information on an operation performed on the PC 50 or the projector 80, and create the adjustment moving image Mn using the information.

さらに、例えば、PC50から出力されているコンテンツデータに変化がない場合であっても、プロジェクター80の機能を用いて投影画像の一部を拡大したり、拡大した部分を上下左右に移動させたりすることがある。このような場合に、プロセッサー11は、プロジェクター80に入力された操作に係る変更情報を取得し、取得した変更情報を用いて調整動画Mnを作成してもよい。このような方法を用いることで、撮影動画Mbのみを用いて画像処理により作成すべき調整動画Mnを決定するよりも、調整動画Mnの作成は容易になる。   Further, for example, even when there is no change in the content data output from the PC 50, a part of the projected image is enlarged using the function of the projector 80, or the enlarged part is moved up, down, left, and right. Sometimes. In such a case, the processor 11 may acquire change information related to an operation input to the projector 80, and create the adjustment moving image Mn using the acquired change information. By using such a method, it is easier to create the adjusted moving image Mn than to determine the adjusted moving image Mn to be generated by image processing using only the captured moving image Mb.

なお、PC50から出力され、プロジェクター80で投影されるコンテンツとしての画像は、静止画であっても動画であってもよい。また、コンテンツには、音声が含まれていてもよい。コンテンツに含まれる音声は、プロジェクター80又はその他の手段によって出力され得る。講演動画に含まれるコンテンツに係る音声は、マイク70を用いて録音されたものであり、例えば講演者が発する音声等と同様に処理されたものであってもよいし、PC50から画像処理装置10へと入力される音声データに基づいて作成されたものであってもよい。   The image as the content output from the PC 50 and projected by the projector 80 may be a still image or a moving image. Further, the content may include audio. The audio included in the content can be output by the projector 80 or other means. The audio related to the content included in the lecture video is recorded using the microphone 70, and may be processed in the same manner as the audio generated by the speaker, for example, or from the PC 50 to the image processing apparatus 10. It may be created on the basis of voice data input to.

上述の実施形態では、アルファブレンドを用いた手法による画像合成について説明したが、合成方法はこれに限らない。画像合成には各種手法が用いられ得る。   In the above-described embodiment, the image synthesis by the method using the alpha blend has been described, but the synthesis method is not limited to this. Various methods can be used for image synthesis.

また、上述の各実施形態では、画像処理装置10は、事前処理、講演録画処理、講演動画作成処理の何れをも行うものとして説明したがこれに限らない。例えば、講演動画作成処理は、事前処理及び講演録画処理が行われた装置と異なる装置で行われてもよい。すなわち、撮影動画Mbとコンテンツ動画Mcとマスク画像αmとが提供されれば、これらに基づいてPC又はサーバー等により講演動画作成処理が行われてもよい。   Further, in each of the above-described embodiments, the image processing apparatus 10 has been described as performing any of the pre-processing, the lecture recording process, and the lecture moving image creation process, but the present invention is not limited thereto. For example, the lecture moving image creation process may be performed by an apparatus different from the apparatus that has performed the pre-processing and the lecture recording process. That is, if the captured moving image Mb, the content moving image Mc, and the mask image αm are provided, a lecture moving image creation process may be performed by a PC or a server based on these.

また、上述の各実施形態では、画像処理装置10は、画像合成によって講演動画を作成するものとして説明したがこれに限られない。例えば、撮影動画Mbの表示領域420内において一部分の画質が低下している場合、当該部分のみをコンテンツ動画Mcに基づいて補正してもよい。つまり、当該部分の画質の低下度合いに応じて、コンテンツ動画Mcの当該部分に対応する部分の情報を用いて補正を行うことも考えられる。撮影動画Mbの表示領域420が、講演動画を見る人にとって十分に高品質になる画像処理であればよく、嵌め込み画像の合成に限られない。   In each of the above-described embodiments, the image processing apparatus 10 has been described as creating a lecture video by image synthesis, but the present invention is not limited thereto. For example, when the image quality of a part of the display area 420 of the photographed moving image Mb is deteriorated, only that part may be corrected based on the content moving image Mc. That is, it is conceivable to perform correction using information on a part corresponding to the part of the content moving image Mc according to the degree of deterioration in image quality of the part. The display area 420 for the captured moving image Mb only needs to be image processing that is sufficiently high in quality for a person viewing the lecture moving image, and is not limited to the synthesis of the fitted image.

また、撮影動画Mbとコンテンツ動画Mcとの合成は、プロセッサー11の処理能力が十分に高ければ、リアルタイムに行われてもよい。リアルタイムで講演動画の作成を行えれば、作成した講演動画を遠隔地に送信することで、遠隔地の聴衆は当該講演を講演と同時に高品質の画像で視聴することができる。   Further, the composition of the captured moving image Mb and the content moving image Mc may be performed in real time if the processing capacity of the processor 11 is sufficiently high. If a lecture video can be created in real time, the created lecture video can be transmitted to a remote location so that a remote audience can view the lecture with high-quality images at the same time as the lecture.

画像処理装置10が、PC50及びプロジェクター80から独立して設けられている場合の例を挙げ得て説明したが、画像処理装置10としての機能は、例えばプロジェクター80内に設けられてもよいし、PC50内に設けられてもよい。例えば、図1に示すプロジェクター80とデジタルカメラ60とマイク70と画像処理装置10とが1つの筐体に収まったプロジェクターとして上述の機能が提供されてもよい。プロジェクターが配置される位置は、表示画像を投影するのに適した位置であり、これは投影画像と講演者とを同時に撮影するために適した位置となる。また、プロジェクターには、一般に投影を行うためにコンテンツデータが入力されるが、これは同時に合成画像を作成するためのコンテンツデータとなる。したがって、プロジェクターの筐体にデジタルカメラと画像処理装置とを収めることは、合理的である。   The example in the case where the image processing apparatus 10 is provided independently from the PC 50 and the projector 80 has been described, but the function as the image processing apparatus 10 may be provided in the projector 80, for example. It may be provided in the PC 50. For example, the above-described function may be provided as a projector in which the projector 80, the digital camera 60, the microphone 70, and the image processing apparatus 10 illustrated in FIG. The position where the projector is arranged is a position suitable for projecting the display image, and this is a position suitable for photographing the projected image and the speaker at the same time. Further, content data is generally input to the projector to perform projection, and this is content data for creating a composite image at the same time. Therefore, it is reasonable to place the digital camera and the image processing apparatus in the housing of the projector.

なお、上述の実施形態におけるPC50は、一例であり、PC50は、タブレット型の情報端末、スマートフォン等、プレゼンテーション用のアプリケーションソフトウェアが動作する種々の機器に置き換えられ得る。また、これらの機器が無くても、例えばプロジェクター80がその機能を担ってもよい。この場合、プレゼンテーションに係るデータが記録された記録媒体がプロジェクター80に接続され、プロジェクター80がこのデータに基づいて投影を行う。この際、プロジェクター80は、投影した画像のデータをコンテンツデータとして画像処理装置10へと伝達する。また、画像処理装置10がPC50の機能を担ってもよい。この場合、プレゼンテーションに係るデータが記録された記録媒体が画像処理装置10に接続されたり、当該データが大容量ストレージ13に記録されたりする。画像処理装置10は、これらのデータに基づいて、コンテンツデータをプロジェクター80へと伝達する。   Note that the PC 50 in the above-described embodiment is an example, and the PC 50 can be replaced with various devices that operate application software for presentation, such as a tablet information terminal and a smartphone. Even if these devices are not provided, for example, the projector 80 may perform the function. In this case, a recording medium on which data related to the presentation is recorded is connected to the projector 80, and the projector 80 performs projection based on this data. At this time, the projector 80 transmits the data of the projected image to the image processing apparatus 10 as content data. Further, the image processing apparatus 10 may perform the function of the PC 50. In this case, a recording medium on which data related to the presentation is recorded is connected to the image processing apparatus 10, or the data is recorded on the large-capacity storage 13. The image processing apparatus 10 transmits content data to the projector 80 based on these data.

これら何れの変形例も様々に組み合わせられ得るし、何れの変形例もそれらの組み合わせも、上述の第1の実施形態乃至第4の実施形態の何れとも組み合わせられ得る。   Any of these modifications can be combined in various ways, and any of these modifications and combinations thereof can be combined with any of the first to fourth embodiments described above.

なお、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   In addition, this invention is not limited to the said embodiment, In the implementation stage, it can change variously in the range which does not deviate from the summary. Further, the embodiments may be implemented in combination as appropriate, and in that case, the combined effect can be obtained. Furthermore, the present invention includes various inventions, and various inventions can be extracted by combinations selected from a plurality of disclosed constituent elements. For example, even if several constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the problem can be solved and an effect can be obtained, the configuration from which the constituent requirements are deleted can be extracted as an invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
表示装置によってコンテンツが表示されている表示領域と当該表示領域の周辺領域とを含む領域の撮影画像を取得する撮影画像取得部と、
前記コンテンツを取得するコンテンツ取得部と、
前記撮影画像における前記表示領域を特定する表示領域特定部と、
前記撮影画像に基づいて加工情報を作成する加工情報作成部と、
前記加工情報を用いて、前記撮影画像の前記表示領域に前記コンテンツに基づいた画像を合成することを含む画像処理を行う画像処理部と、
を備える画像処理装置。
[2]
前記加工情報作成部は、前記撮影画像に基づいて時間経過と共に変化する前記表示領域を特定し、
前記画像処理部は、時間経過と共に変化する前記撮影画像の前記表示領域に、前記コンテンツに基づいた画像を合成する画像処理を行う、
[1]に記載の画像処理装置。
[3]
前記加工情報作成部は、前記撮影画像の初期状態の前記表示領域である初期表示領域の内部の画像と、前記コンテンツとを比較することで、時間経過と共に変化する前記表示領域を特定する、[2]に記載の画像処理装置。
[4]
前記加工情報作成部は、前記撮影画像の色調と前記コンテンツに基づく画像の色調とのうち少なくとも何れか一方の情報を含む前記加工情報を作成し、
前記画像処理部は、合成された画像における前記表示領域の縁の少なくとも一部において、前記撮影画像の色調と前記コンテンツに基づく画像の色調とが整合するように、前記撮影画像と前記コンテンツとのうち少なくとも何れか一方の少なくとも一部に対して色調を調整する画像処理を行う、
[3]に記載の画像処理装置。
[5]
前記加工情報作成部は、前記撮影画像の色調と前記コンテンツに基づく画像の色調とのうち少なくとも何れか一方の情報を含む前記加工情報を作成し、
前記画像処理部は、合成された画像における前記撮影画像の色調と前記コンテンツに基づく画像の色調とが整合するように、前記撮影画像と前記コンテンツとのうち少なくとも何れか一方に対して色調を調整する画像処理を行う、
[1]乃至[3]のうち何れか一に記載の画像処理装置。
[6]
前記加工情報作成部は、前記撮影画像に基づいて前記表示領域の内部の指示位置を特定し、前記指示位置に基づく重畳画像を作成し、
前記画像処理部は、前記撮影画像と前記コンテンツに基づく画像とを合成して作成した画像にさらに前記重畳画像を合成する、
[1]乃至[5]のうち何れか一に記載の画像処理装置。
[7]
前記加工情報作成部は、前記指示位置を示す図形と、前記指示位置の軌跡を示す図形とのうち少なくとも何れか一方を含む前記重畳画像を作成する、[6]に記載の画像処理装置。
[8]
前記加工情報作成部は、前記コンテンツのページが変更されたとき、前記指示位置の軌跡を示す図形が削除される前記重畳画像を作成する、[7]に記載の画像処理装置。
[9]
前記加工情報作成部は、レーザポインタによる輝点である前記指示位置、又は、講演者の動作によって特定される前記指示位置を特定する、[6]乃至[8]のうち何れか一に記載の画像処理装置。
[10]
前記画像処理部は、前記コンテンツに対して画像処理を施して前記コンテンツを表示させる前記表示装置から、当該画像処理に係る変更情報を取得し、当該変更情報に基づいて画像処理を行う、[1]乃至[9]のうち何れか一に記載の画像処理装置。
[11]
[1]乃至[10]のうち何れか一に記載の画像処理装置と、
前記コンテンツに基づいて前記表示領域に投影される画像を出力する前記表示装置としての投影部と、
前記撮影画像を生成する撮影部と
を備えるプロジェクター。
[12]
表示装置によってコンテンツが表示されている表示領域と当該表示領域の周辺領域とを含む領域の撮影画像を取得することと、
前記コンテンツを取得することと、
前記撮影画像における前記表示領域を特定することと、
前記撮影画像に基づいて加工情報を作成することと、
前記加工情報を用いて、前記撮影画像の前記表示領域に前記コンテンツに基づいた画像を合成することを含む画像処理を行うことと、
を含む画像処理方法。
[13]
表示装置によってコンテンツが表示されている表示領域と当該表示領域の周辺領域とを含む領域の撮影画像を取得することと、
前記コンテンツを取得することと、
前記撮影画像における前記表示領域を特定することと、
前記撮影画像に基づいて加工情報を作成することと、
前記加工情報を用いて、前記撮影画像の前記表示領域に前記コンテンツに基づいた画像を合成することを含む画像処理を行うことと、
をコンピュータに実行させるための画像処理プログラム。
Hereinafter, the invention described in the scope of claims of the present application will be appended.
[1]
A captured image acquisition unit that acquires a captured image of an area including a display area in which content is displayed by the display device and a peripheral area of the display area;
A content acquisition unit for acquiring the content;
A display area specifying unit for specifying the display area in the captured image;
A processing information creation unit for creating processing information based on the captured image;
An image processing unit that performs image processing including synthesizing an image based on the content in the display area of the captured image using the processing information;
An image processing apparatus comprising:
[2]
The processing information creation unit identifies the display area that changes over time based on the captured image,
The image processing unit performs image processing for synthesizing an image based on the content in the display area of the captured image that changes with time.
The image processing device according to [1].
[3]
The modification information creation unit identifies the display area that changes with time by comparing an image inside the initial display area, which is the display area in the initial state of the captured image, with the content. 2].
[4]
The processing information creation unit creates the processing information including information on at least one of the color tone of the captured image and the color tone of the image based on the content,
The image processing unit is configured to match the captured image and the content with each other so that the color tone of the captured image matches the color tone of the image based on the content in at least a part of the edge of the display area in the synthesized image. Performing image processing for adjusting the color tone for at least a part of at least one of them,
The image processing device according to [3].
[5]
The processing information creation unit creates the processing information including information on at least one of the color tone of the captured image and the color tone of the image based on the content,
The image processing unit adjusts the color tone of at least one of the captured image and the content so that the color tone of the captured image in the synthesized image matches the color tone of the image based on the content. Perform image processing,
The image processing device according to any one of [1] to [3].
[6]
The processing information creation unit identifies a designated position inside the display area based on the captured image, creates a superimposed image based on the designated position,
The image processing unit further synthesizes the superimposed image with an image created by combining the captured image and an image based on the content;
The image processing device according to any one of [1] to [5].
[7]
The image processing apparatus according to [6], wherein the processing information creation unit creates the superimposed image including at least one of a figure indicating the designated position and a figure showing a locus of the designated position.
[8]
The image processing device according to [7], wherein the processing information creation unit creates the superimposed image from which a graphic indicating the locus of the designated position is deleted when the content page is changed.
[9]
The processing information creation unit identifies the designated position, which is a bright spot by a laser pointer, or the designated position specified by a speaker's action, according to any one of [6] to [8]. Image processing device.
[10]
The image processing unit obtains change information related to the image processing from the display device that performs image processing on the content and displays the content, and performs image processing based on the change information. ] To [9].
[11]
The image processing apparatus according to any one of [1] to [10];
A projection unit as the display device that outputs an image projected on the display area based on the content;
A projector comprising: a photographing unit that generates the photographed image.
[12]
Acquiring a captured image of an area including a display area in which content is displayed by the display device and a peripheral area of the display area;
Obtaining the content;
Identifying the display area in the captured image;
Creating processing information based on the captured image;
Performing image processing including synthesizing an image based on the content in the display area of the captured image using the processing information;
An image processing method including:
[13]
Acquiring a captured image of an area including a display area in which content is displayed by the display device and a peripheral area of the display area;
Obtaining the content;
Identifying the display area in the captured image;
Creating processing information based on the captured image;
Performing image processing including synthesizing an image based on the content in the display area of the captured image using the processing information;
An image processing program for causing a computer to execute.

1…講演動画作成システム、10…画像処理装置、11…プロセッサー、12…メモリ、13…大容量ストレージ、14…入力装置、15…コンテンツ入力インターフェース(I/F)、16…画像入力インターフェース(I/F)、17…音声入力インターフェース(I/F)、18…画像出力インターフェース(I/F)、19…バスライン、50…パーソナルコンピュータ(PC)、60…デジタルカメラ、70…マイク、80…プロジェクター、310…撮影領域、320…表示領域、330…講演者、340…スクリーン。   DESCRIPTION OF SYMBOLS 1 ... Lecture animation production system, 10 ... Image processing apparatus, 11 ... Processor, 12 ... Memory, 13 ... Mass storage, 14 ... Input device, 15 ... Content input interface (I / F), 16 ... Image input interface (I / F), 17 ... Audio input interface (I / F), 18 ... Image output interface (I / F), 19 ... Bus line, 50 ... Personal computer (PC), 60 ... Digital camera, 70 ... Microphone, 80 ... Projector, 310 ... shooting area, 320 ... display area, 330 ... speaker, 340 ... screen.

Claims (13)

表示装置によってコンテンツが表示されている表示領域と当該表示領域の周辺領域とを含む領域の撮影画像を取得する撮影画像取得部と、
前記コンテンツを取得するコンテンツ取得部と、
前記撮影画像における前記表示領域を特定する表示領域特定部と、
前記撮影画像に基づいて加工情報を作成する加工情報作成部と、
前記加工情報を用いて、前記撮影画像の前記表示領域に前記コンテンツに基づいた画像を合成することを含む画像処理を行う画像処理部と、
を備える画像処理装置。
A captured image acquisition unit that acquires a captured image of an area including a display area in which content is displayed by the display device and a peripheral area of the display area;
A content acquisition unit for acquiring the content;
A display area specifying unit for specifying the display area in the captured image;
A processing information creation unit for creating processing information based on the captured image;
An image processing unit that performs image processing including synthesizing an image based on the content in the display area of the captured image using the processing information;
An image processing apparatus comprising:
前記加工情報作成部は、前記撮影画像に基づいて時間経過と共に変化する前記表示領域を特定し、
前記画像処理部は、時間経過と共に変化する前記撮影画像の前記表示領域に、前記コンテンツに基づいた画像を合成する画像処理を行う、
請求項1に記載の画像処理装置。
The processing information creation unit identifies the display area that changes over time based on the captured image,
The image processing unit performs image processing for synthesizing an image based on the content in the display area of the captured image that changes with time.
The image processing apparatus according to claim 1.
前記加工情報作成部は、前記撮影画像の初期状態の前記表示領域である初期表示領域の内部の画像と、前記コンテンツとを比較することで、時間経過と共に変化する前記表示領域を特定する、請求項2に記載の画像処理装置。   The processing information creation unit identifies the display area that changes with time by comparing an image inside the initial display area, which is the display area in the initial state of the captured image, with the content. Item 3. The image processing apparatus according to Item 2. 前記加工情報作成部は、前記撮影画像の色調と前記コンテンツに基づく画像の色調とのうち少なくとも何れか一方の情報を含む前記加工情報を作成し、
前記画像処理部は、合成された画像における前記表示領域の縁の少なくとも一部において、前記撮影画像の色調と前記コンテンツに基づく画像の色調とが整合するように、前記撮影画像と前記コンテンツとのうち少なくとも何れか一方の少なくとも一部に対して色調を調整する画像処理を行う、
請求項3に記載の画像処理装置。
The processing information creation unit creates the processing information including information on at least one of the color tone of the captured image and the color tone of the image based on the content,
The image processing unit is configured to match the captured image and the content with each other so that the color tone of the captured image matches the color tone of the image based on the content in at least a part of the edge of the display area in the synthesized image. Performing image processing for adjusting the color tone for at least a part of at least one of them,
The image processing apparatus according to claim 3.
前記加工情報作成部は、前記撮影画像の色調と前記コンテンツに基づく画像の色調とのうち少なくとも何れか一方の情報を含む前記加工情報を作成し、
前記画像処理部は、合成された画像における前記撮影画像の色調と前記コンテンツに基づく画像の色調とが整合するように、前記撮影画像と前記コンテンツとのうち少なくとも何れか一方に対して色調を調整する画像処理を行う、
請求項1乃至3のうち何れか1項に記載の画像処理装置。
The processing information creation unit creates the processing information including information on at least one of the color tone of the captured image and the color tone of the image based on the content,
The image processing unit adjusts the color tone of at least one of the captured image and the content so that the color tone of the captured image in the synthesized image matches the color tone of the image based on the content. Perform image processing,
The image processing apparatus according to any one of claims 1 to 3.
前記加工情報作成部は、前記撮影画像に基づいて前記表示領域の内部の指示位置を特定し、前記指示位置に基づく重畳画像を作成し、
前記画像処理部は、前記撮影画像と前記コンテンツに基づく画像とを合成して作成した画像にさらに前記重畳画像を合成する、
請求項1乃至5のうち何れか1項に記載の画像処理装置。
The processing information creation unit identifies a designated position inside the display area based on the captured image, creates a superimposed image based on the designated position,
The image processing unit further synthesizes the superimposed image with an image created by combining the captured image and an image based on the content;
The image processing apparatus according to any one of claims 1 to 5.
前記加工情報作成部は、前記指示位置を示す図形と、前記指示位置の軌跡を示す図形とのうち少なくとも何れか一方を含む前記重畳画像を作成する、請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the processing information creating unit creates the superimposed image including at least one of a figure indicating the designated position and a figure showing a locus of the designated position. 前記加工情報作成部は、前記コンテンツのページが変更されたとき、前記指示位置の軌跡を示す図形が削除される前記重畳画像を作成する、請求項7に記載の画像処理装置。   The image processing device according to claim 7, wherein when the content page is changed, the processing information creation unit creates the superimposed image from which a graphic indicating the locus of the designated position is deleted. 前記加工情報作成部は、レーザポインタによる輝点である前記指示位置、又は、講演者の動作によって特定される前記指示位置を特定する、請求項6乃至8のうち何れか1項に記載の画像処理装置。   The image according to any one of claims 6 to 8, wherein the processing information creation unit identifies the designated position, which is a bright spot by a laser pointer, or the designated position specified by an action of a speaker. Processing equipment. 前記画像処理部は、前記コンテンツに対して画像処理を施して前記コンテンツを表示させる前記表示装置から、当該画像処理に係る変更情報を取得し、当該変更情報に基づいて画像処理を行う、請求項1乃至9のうち何れか1項に記載の画像処理装置。   The image processing unit obtains change information related to the image processing from the display device that performs image processing on the content and displays the content, and performs image processing based on the change information. The image processing apparatus according to any one of 1 to 9. 請求項1乃至10のうち何れか1項に記載の画像処理装置と、
前記コンテンツに基づいて前記表示領域に投影される画像を出力する前記表示装置としての投影部と、
前記撮影画像を生成する撮影部と
を備えるプロジェクター。
An image processing apparatus according to any one of claims 1 to 10,
A projection unit as the display device that outputs an image projected on the display area based on the content;
A projector comprising: a photographing unit that generates the photographed image.
表示装置によってコンテンツが表示されている表示領域と当該表示領域の周辺領域とを含む領域の撮影画像を取得することと、
前記コンテンツを取得することと、
前記撮影画像における前記表示領域を特定することと、
前記撮影画像に基づいて加工情報を作成することと、
前記加工情報を用いて、前記撮影画像の前記表示領域に前記コンテンツに基づいた画像を合成することを含む画像処理を行うことと、
を含む画像処理方法。
Acquiring a captured image of an area including a display area in which content is displayed by the display device and a peripheral area of the display area;
Obtaining the content;
Identifying the display area in the captured image;
Creating processing information based on the captured image;
Performing image processing including synthesizing an image based on the content in the display area of the captured image using the processing information;
An image processing method including:
表示装置によってコンテンツが表示されている表示領域と当該表示領域の周辺領域とを含む領域の撮影画像を取得することと、
前記コンテンツを取得することと、
前記撮影画像における前記表示領域を特定することと、
前記撮影画像に基づいて加工情報を作成することと、
前記加工情報を用いて、前記撮影画像の前記表示領域に前記コンテンツに基づいた画像を合成することを含む画像処理を行うことと、
をコンピュータに実行させるための画像処理プログラム。
Acquiring a captured image of an area including a display area in which content is displayed by the display device and a peripheral area of the display area;
Obtaining the content;
Identifying the display area in the captured image;
Creating processing information based on the captured image;
Performing image processing including synthesizing an image based on the content in the display area of the captured image using the processing information;
An image processing program for causing a computer to execute.
JP2018012519A 2017-03-22 2018-01-29 Image processing equipment, image processing methods and programs Active JP6773057B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/919,726 US10349022B2 (en) 2017-03-22 2018-03-13 Image processing apparatus, projector, image processing method, and storage medium storing image processing program
CN201810240565.5A CN108632553B (en) 2017-03-22 2018-03-22 Image processing device, projector, image processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017055624 2017-03-22
JP2017055624 2017-03-22

Publications (2)

Publication Number Publication Date
JP2018160891A true JP2018160891A (en) 2018-10-11
JP6773057B2 JP6773057B2 (en) 2020-10-21

Family

ID=63581568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018012519A Active JP6773057B2 (en) 2017-03-22 2018-01-29 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6773057B2 (en)

Also Published As

Publication number Publication date
JP6773057B2 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
US9679369B2 (en) Depth key compositing for video and holographic projection
CN108632553B (en) Image processing device, projector, image processing method, and storage medium
JP2022000778A (en) Image processing device, control method thereof, and program
JP5994301B2 (en) Image processing apparatus, information processing apparatus, method, program, and recording medium
TWI764898B (en) Information processing device, information processing method and program
KR20150141059A (en) Apparatus and method for providing thumbnail image of moving picture
JP2005109978A (en) Camera used in photographed image projection system, computer used in photographed image projection system, projector used in photographed image projection system, and image processing method and program
JP5319999B2 (en) Lighting device
US8919963B2 (en) Projector and method for controlling the same
JP2000013680A (en) Red-eye preventing method and image processor
KR101665988B1 (en) Image generation method
JP2017212550A (en) Image reproducer, control method thereof, program, and storage medium
JP6773057B2 (en) Image processing equipment, image processing methods and programs
US9261771B2 (en) Digital photographing apparatus for displaying panoramic images and methods of controlling the same
US20210400192A1 (en) Image processing apparatus, image processing method, and storage medium
JP2019036876A (en) Image reading device, image forming apparatus, image reading method, and image reading program
JP2009276507A (en) Projection type display device, control method and control program for projection type display device
JP2005071192A (en) Projection type display device, program and recording medium
JP6925827B2 (en) Image processing device and image processing method
JP2018054912A (en) Projection-type display device and method for controlling the same
JP6728024B2 (en) Display control device, display control method, and program
JP6156559B2 (en) Game shooting device, game shooting method, and program
JP2016092596A (en) Imaging apparatus, image processing device, and method for controlling them
JP2014132772A (en) Imaging device for game, processing method and program of imaging device for game
JP2015126299A (en) Image processing apparatus, control method of the same, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200914

R150 Certificate of patent or registration of utility model

Ref document number: 6773057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150