JP6773057B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6773057B2
JP6773057B2 JP2018012519A JP2018012519A JP6773057B2 JP 6773057 B2 JP6773057 B2 JP 6773057B2 JP 2018012519 A JP2018012519 A JP 2018012519A JP 2018012519 A JP2018012519 A JP 2018012519A JP 6773057 B2 JP6773057 B2 JP 6773057B2
Authority
JP
Japan
Prior art keywords
moving image
image
display area
content
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018012519A
Other languages
English (en)
Other versions
JP2018160891A (ja
Inventor
光史 岩館
光史 岩館
祐和 神田
祐和 神田
佐藤 健治
健治 佐藤
翔一 岡庭
翔一 岡庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to US15/919,726 priority Critical patent/US10349022B2/en
Priority to CN201810240565.5A priority patent/CN108632553B/zh
Publication of JP2018160891A publication Critical patent/JP2018160891A/ja
Application granted granted Critical
Publication of JP6773057B2 publication Critical patent/JP6773057B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L50/00Electric propulsion with power supplied within the vehicle
    • B60L50/50Electric propulsion with power supplied within the vehicle using propulsion power supplied by batteries or fuel cells
    • B60L50/70Electric propulsion with power supplied within the vehicle using propulsion power supplied by batteries or fuel cells using power supplied by fuel cells
    • B60L50/72Constructional details of fuel cells specially adapted for electric vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L3/00Electric devices on electrically-propelled vehicles for safety purposes; Monitoring operating variables, e.g. speed, deceleration or energy consumption
    • B60L3/0023Detecting, eliminating, remedying or compensating for drive train abnormalities, e.g. failures within the drive train
    • B60L3/0053Detecting, eliminating, remedying or compensating for drive train abnormalities, e.g. failures within the drive train relating to fuel cells
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L58/00Methods or circuit arrangements for monitoring or controlling batteries or fuel cells, specially adapted for electric vehicles
    • B60L58/30Methods or circuit arrangements for monitoring or controlling batteries or fuel cells, specially adapted for electric vehicles for monitoring or controlling fuel cells
    • B60L58/32Methods or circuit arrangements for monitoring or controlling batteries or fuel cells, specially adapted for electric vehicles for monitoring or controlling fuel cells for controlling the temperature of fuel cells, e.g. by controlling the electric load
    • B60L58/33Methods or circuit arrangements for monitoring or controlling batteries or fuel cells, specially adapted for electric vehicles for monitoring or controlling fuel cells for controlling the temperature of fuel cells, e.g. by controlling the electric load by cooling
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M50/00Constructional details or processes of manufacture of the non-active parts of electrochemical cells other than fuel cells, e.g. hybrid cells
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M8/00Fuel cells; Manufacture thereof
    • H01M8/04Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids
    • H01M8/04007Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids related to heat exchange
    • H01M8/04059Evaporative processes for the cooling of a fuel cell
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M8/00Fuel cells; Manufacture thereof
    • H01M8/04Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids
    • H01M8/04082Arrangements for control of reactant parameters, e.g. pressure or concentration
    • H01M8/04089Arrangements for control of reactant parameters, e.g. pressure or concentration of gaseous reactants
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M8/00Fuel cells; Manufacture thereof
    • H01M8/04Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids
    • H01M8/04082Arrangements for control of reactant parameters, e.g. pressure or concentration
    • H01M8/04089Arrangements for control of reactant parameters, e.g. pressure or concentration of gaseous reactants
    • H01M8/04097Arrangements for control of reactant parameters, e.g. pressure or concentration of gaseous reactants with recycling of the reactants
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M8/00Fuel cells; Manufacture thereof
    • H01M8/04Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids
    • H01M8/04298Processes for controlling fuel cells or fuel cell systems
    • H01M8/04313Processes for controlling fuel cells or fuel cell systems characterised by the detection or assessment of variables; characterised by the detection or assessment of failure or abnormal function
    • H01M8/0438Pressure; Ambient pressure; Flow
    • H01M8/04388Pressure; Ambient pressure; Flow of anode reactants at the inlet or inside the fuel cell
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M8/00Fuel cells; Manufacture thereof
    • H01M8/04Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids
    • H01M8/04298Processes for controlling fuel cells or fuel cell systems
    • H01M8/04313Processes for controlling fuel cells or fuel cell systems characterised by the detection or assessment of variables; characterised by the detection or assessment of failure or abnormal function
    • H01M8/0438Pressure; Ambient pressure; Flow
    • H01M8/04395Pressure; Ambient pressure; Flow of cathode reactants at the inlet or inside the fuel cell
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L2270/00Problem solutions or means not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2410/00Constructional features of vehicle sub-units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M2250/00Fuel cells for particular applications; Specific features of fuel cell system
    • H01M2250/20Fuel cells in motive systems, e.g. vehicle, ship, plane
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01MPROCESSES OR MEANS, e.g. BATTERIES, FOR THE DIRECT CONVERSION OF CHEMICAL ENERGY INTO ELECTRICAL ENERGY
    • H01M8/00Fuel cells; Manufacture thereof
    • H01M8/04Auxiliary arrangements, e.g. for control of pressure or for circulation of fluids
    • H01M8/04082Arrangements for control of reactant parameters, e.g. pressure or concentration
    • H01M8/04201Reactant storage and supply, e.g. means for feeding, pipes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02E60/10Energy storage using batteries
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02E60/30Hydrogen technology
    • Y02E60/50Fuel cells
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/40Application of hydrogen technology to transportation, e.g. using fuel cells

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Sustainable Energy (AREA)
  • Sustainable Development (AREA)
  • General Chemical & Material Sciences (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Electrochemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Power Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置画像処理方法及びプログラムに関する。
大型表示装置やプロジェクターで資料を表示しながら講演者が講演を行うことがある。講演会場にいる聴衆のみならず多くの人が視聴できるように、あるいは、記録として保存するために、このような講演を録画することがある。
例えば、特許文献1には、プレゼンテーションに関連する映像等を表示する液晶ディスプレイと、プレゼンテーションの開始から終了までを記録するビデオカメラとを有するプレゼンテーション装置が開示されている。
特開2014−102598号公報
講演を録画する際には、表示装置等に表示された資料と講演者の様子とが共にきれいに録画されることが好ましい。しかしながら、例えば講演者の顔に焦点が合うようにカメラの焦点を調節すると、資料等の表示画像に焦点が合わないことがある。また、プロジェクターによる資料の表示の際に、投影画像のひずみをなくすために幾何学補正が行われることがある。このような幾何学補正は、一般に表示画像の画質を低下させる。
本発明は、表示画像もその他の被写体も適切な画像として記録できる、画像処理装置画像処理方法及びプログラムを提供することを目的とする。
本発明に係る画像処理装置は、画角に所定の表示領域が含まれるように撮影された動画像を取得する第1取得手段と、前記動画像の撮影中に前記表示領域に表示されていたコンテンツを取得する第2取得手段と、前記第1取得手段により取得された動画像における前記表示領域に前記第2取得手段により取得されたコンテンツを嵌め込み合成した合成動画を生成する生成手段と、前記第1取得手段により取得された動画像に前記表示領域内の何れかの位置を指示する所定の動作を行う動作主体が撮影対象として含まれているか否かを判定する判定手段と、を備え、前記生成手段は、前記判定手段により前記動作主体が撮影対象として含まれていると判定された場合には、前記表示領域に嵌め込み合成されている状態の前記コンテンツに前記所定の動作に対応する軌跡画像が重畳されるように前記合成動画を生成する、ことを特徴とする。
また、本発明に係る画像処理方法は、画像処理装置が実行する画像処理方法であって、画角に所定の表示領域が含まれるように撮影された動画像を取得するとともに、前記動画像の撮影中に前記表示領域に表示されていたコンテンツを取得する取得ステップと、前記取得ステップで取得された動画像における前記表示領域に前記取得ステップで取得されたコンテンツを嵌め込み合成した合成動画を生成する生成ステップと、前記取得ステップで取得された動画像に前記表示領域内の何れかの位置を指示する所定の動作を行う動作主体が撮影対象として含まれているか否かを判定する判定ステップと、を有し、前記生成ステップは、前記判定ステップで前記動作主体が撮影対象として含まれていると判定された場合には、前記表示領域に嵌め込み合成されている状態の前記コンテンツに前記所定の動作に対応する軌跡画像が重畳されるように前記合成動画を生成する、ことを特徴とする。
また、本発明に係るプログラムは、画像処理装置のコンピュータを、画角に所定の表示領域が含まれるように撮影された動画像を取得する第1取得手段、前記動画像の撮影中に前記表示領域に表示されていたコンテンツを取得する第2取得手段、前記第1取得手段により取得された動画像における前記表示領域に前記第2取得手段により取得されたコンテンツを嵌め込み合成した合成動画を生成する生成手段、前記第1取得手段により取得された動画像に前記表示領域内の何れかの位置を指示する所定の動作を行う動作主体が撮影対象として含まれているか否かを判定する判定手段、として機能させ、前記生成手段は、前記判定手段により前記動作主体が撮影対象として含まれていると判定された場合には、前記表示領域に嵌め込み合成されている状態の前記コンテンツに前記所定の動作に対応する軌跡画像が重畳されるように前記合成動画を生成する、ことを特徴とする。
本発明によれば、表示画像もその他の被写体も適切な画像として記録できる、画像処理装置画像処理方法及びプログラムを提供できる。
図1は、一実施形態に係る講演動画作成システムの構成例の概略を示す図である。 図2は、講演動画作成システムの動作の一例の概略を示すフローチャートである。 図3は、講演動画作成システムで行われる事前処理の一例の概略を示すフローチャートである。 図4は、撮影画像における撮影領域と表示領域との位置関係の一例の概略を示す図である。 図5は、撮影領域内の各座標の輝度の一例の概略を模式的に示す図である。 図6は、アルファブレンド用マスク画像データの一例の概略を模式的に示す図である。 図7は、講演動画作成システムで行われる講演録画処理の一例の概略を示すフローチャートである。 図8は、講演動画作成システムで行われる講演動画作成処理の一例の概略を示すフローチャートである。 図9は、第2の実施形態に係る講演動画作成処理の一例の概略を示すフローチャートである。 図10は、第3の実施形態に係る状況を説明するための図である。 図11は、第3の実施形態に係る講演動画作成処理の一例の概略を示すフローチャートである。 図12は、第3の実施形態に係る講演動画作成処理の一例の概略を示すフローチャートである。 図13は、第4の実施形態に係る状況を説明するための図である。 図14は、第4の実施形態に係る講演動画作成処理の一例の概略を示すフローチャートである。
(第1の実施形態)
[講演動画作成システムの概要]
本実施形態に係る講演動画作成システムは、例えば講演資料がプロジェクターを用いてスクリーンに投影されており、そのスクリーンの脇で講演者が講演をしているような状況で用いられる。講演は、種々の授業、講習、セミナー、プレゼンテーション等を含む。この講演動画作成システムは、デジタルカメラを有している。デジタルカメラは、例えば表示された講演資料と講演者とを含む画角について動画撮影を行うように構成されている。また、講演動画作成システムは、プロジェクターを用いてスクリーンに投影される画像のデータを記録する。講演動画作成システムは、デジタルカメラで撮影された動画内において、資料が投影された領域に、投影されるべき画像を嵌め込んだ、講演動画を作成する。
[講演動画作成システムの構成]
本実施形態に係る講演動画作成システム1の構成例の概略を図1に示す。講演動画作成システム1は、画像処理装置10と、パーソナルコンピュータ(PC)50と、デジタルカメラ60と、マイク70と、プロジェクター80とを備える。
PC50では、例えばプレゼンテーション用のアプリケーションソフトウェアが動作している。ユーザーは、このソフトウェアを操作して、スクリーン340に投影させる画像の操作を行う。PC50は、ユーザーの操作に応じて、スクリーン340に投影させる画像であるコンテンツのデータを出力する。PC50が出力したコンテンツデータは、画像処理装置10へと入力される。
プロジェクター80は、投影部を有し、PC50から出力されたコンテンツデータを画像処理装置10を介して取得して、当該データに基づくコンテンツの画像をスクリーン340に投影する。画像が投影される領域を表示領域320と称することにする。
デジタルカメラ60は、撮影部を有し、画像が投影されたスクリーン340とその周辺にいる講演者330とを含む撮影領域の撮影を行い、スクリーン340及び講演者330を含む画像のデータである撮影画像データを作成する。スクリーン340及び講演者330を含む範囲であって、デジタルカメラ60によって撮影される範囲を撮影領域310と称することにする。デジタルカメラ60は、撮影画像データを出力する。デジタルカメラ60が出力した撮影画像データは、画像処理装置10へと入力される。本実施形態では、デジタルカメラ60から画像処理装置10へと入力される撮影画像データは、時間的に連続した動画のデータとなる。
マイク70は、主に講演者が発する音声を含む講演会場の音声に基づいて、音声信号を生成する。この音声信号は、画像処理装置10へと入力される。
画像処理装置10は、バスライン19を介して互いに接続されたプロセッサー11と、メモリ12と、大容量ストレージ13と、入力装置14と、コンテンツ入力インターフェース(I/F)15と、画像入力インターフェース(I/F)16と、音声入力インターフェース(I/F)17と、画像出力インターフェース(I/F)18とを備える。
PC50から出力されたコンテンツデータは、コンテンツ入力I/F15を介して画像処理装置10へと入力される。デジタルカメラ60から出力された撮影画像データは、画像入力I/F16を介して画像処理装置10へと入力される。マイク70から出力された音声信号は、音声入力I/F17を介して画像処理装置10へと入力される。コンテンツデータは、画像出力I/F18を介して画像処理装置10からプロジェクター80へと出力される。
プロセッサー11は、画像処理装置10の各部の動作を制御する。プロセッサー11は、Central Processing Unit(CPU)、Application Specific Integrated Circuit(ASIC)、Field Programmable Gate Array(FPGA)、又はGraphics Processing Unit(GPU)等の集積回路を含み得る。プロセッサー11は、1つの集積回路等であってもよいし、複数の集積回路等の組み合わせであってもよい。
メモリ12は、例えば半導体集積回路で実現されたRandom Access Memory(RAM)等であり、メインメモリ、キャッシュメモリ等として機能する。大容量ストレージ13は、ハードディスク又は半導体メモリ等である。
PC50から入力されたコンテンツデータは録画され大容量ストレージ13に記録される。言い換えると、大容量ストレージ13には、PC50から入力されたコンテンツデータに基づいて、時系列に沿ってプロジェクター80に表示される画像が動画として記録される。このようにして記録される画像をコンテンツ動画と称することにする。また、デジタルカメラ60から入力された撮影画像データは録画され大容量ストレージ13に記録される。言い換えると、大容量ストレージ13には、デジタルカメラ60から入力された撮影画像データに基づいて、時系列に沿って撮影された画像が動画として記録される。このようにして記録される画像を撮影動画と称することにする。また、大容量ストレージ13には、プロセッサー11で用いられるプログラムや各種パラメータも記録され得る。
入力装置14は、例えばボタンスイッチ、タッチパネル等を含む。ユーザーは、入力装置14を用いて、画像処理装置10の動作に係る指示を入力する。
例えば、大容量ストレージ13に記録された画像処理プログラムを用いて動作するプロセッサー11は、後述するように撮影画像取得部、コンテンツ取得部、表示領域特定部、加工情報作成部、及び画像処理部としての機能を実現する。ここで、撮影画像取得部は、デジタルカメラ60によって撮影されることで生成された撮影画像データを、画像入力I/F16を介して取得する。撮影画像データは、表示装置としてのプロジェクター80によってコンテンツが表示された表示領域と当該表示領域の周辺領域とを含む撮影領域が、撮影されることで生成された撮影画像のデータである。コンテンツ取得部は、表示装置としてのプロジェクター80による表示のためのコンテンツデータを、コンテンツ入力I/F15を介して取得する。表示領域特定部は、撮影画像データに基づいて、撮影画像における表示領域を特定する。加工情報作成部は、撮影画像データに基づいて加工情報を作成する。画像処理部は、撮影画像データに基づく撮影画像の動画における表示領域に、コンテンツ動画に基づいて画像処理を行い作成した嵌め込み画像の動画を合成することで、講演動画としての合成動画を作成する。この際、画像処理部は、加工情報を用いてもよい。
[講演動画作成システムの動作]
〈講演動画作成に係る動作の概要〉
講演動画作成システム1の動作は、大きくは3つの段階に分けられる。図2は、講演動画作成システム1の動作の一例の概略を示すフローチャートである。
ステップS101において、講演動画作成システム1は、事前処理を行う。事前処理は、講演動画が作られる当該講演に先立って行われる処理である。事前処理において、デジタルカメラ60による撮影領域に占めるプロジェクター80による表示領域が特定される。
ステップS102において、講演動画作成システム1は、講演録画処理を行う。講演録画処理は、講演動画が作られる当該講演を録画する処理である。デジタルカメラ60は、講演中の講演者330及びスクリーン340を含む撮影領域の様子を撮影し、デジタルカメラ60による撮影結果は動画として記録される。また、講演中にプロジェクター80によって投影された画像、すなわちコンテンツが動画として記録される。
ステップS103において、講演動画作成システム1は、講演動画作成処理を行う。講演動画作成処理は、講演終了後に行われる処理である。講演動画作成処理では、撮影画像と嵌め込み画像とが合成されて、講演動画としての合成動画が作成される。ここで用いられる撮影画像は、デジタルカメラ60により撮影され、記録された撮影画像である。嵌め込み画像は、記録されたコンテンツであって、プロジェクター80によって投影された投影画像に対応するように作成された画像である。
〈事前処理〉
ステップS101の事前処理で行われる画像処理装置10の処理について、図3に示すフローチャートを参照して説明する。事前処理は、例えば講演の前に、ユーザーが事前処理の開始を指示することによって行われる。事前処理開始指示は、例えば入力装置14に含まれる事前処理のスタートボタンが押されることなどによって行われる。
ステップS201において、プロセッサー11は、プロジェクター80に表示領域認識パターンを投影させる。すなわち、プロセッサー11は、表示領域認識パターンについての画像データを作成し、作成した画像データを画像出力I/F18を介してプロジェクター80へと出力する。その結果、プロジェクター80は、表示領域認識パターンをスクリーン340に投影する。ここで、表示領域認識パターンは、デジタルカメラ60によって撮影された画像における表示領域が抽出されやすい画像であることが好ましい。表示領域認識パターンは、例えば、全面明るい単色の画像等であってもよい。
なお、表示領域320が長方形となるように、投影画像はいわゆる台形補正のような幾何学補正が適切に行われていることが好ましい。また、投影画像は、スクリーン340に正確に合焦していることが好ましい。
ステップS202において、プロセッサー11は、撮影画像データを取得する。すなわち、デジタルカメラ60は、撮影領域310内を撮影して撮影画像データを作成し、それを出力している。プロセッサー11は、表示領域認識パターンが投影された撮影領域310に係る撮影画像データを画像入力I/F16を介して取得する。
ステップS203において、プロセッサー11は、ステップS202で取得した撮影画像データを解析して、撮影画像における撮影領域内における表示領域を特定する。例えば、スクリーン340の表示領域320に明るい単色の画像である表示領域認識パターンが投影されているとき、プロセッサー11は、撮影画像における撮影領域内の各座標の輝度値を解析して、画像中のコントラスト(輝度の差異)を検出することで、撮影画像における表示領域を特定することができる。
撮影画像400における撮影領域410と表示領域420との位置関係の一例の概略を図4に示す。この図に示すように、撮影領域410の左下の座標を座標(0,0)とし、撮影領域410の右上の座標を座標(Xm,Ym)とする。撮影領域410内に表示領域420が存在する。図4において表示領域420にはハッチングが付されている。表示領域420の左下の座標を座標(Xc1,Yc1)とし、撮影領域410の右上の座標を座標(Xc2,Yc2)とする。
図4の例の場合に、プロセッサー11によって解析される撮影領域410内の各座標の輝度の一例の概略を図5に模式的に示す。この図に示すように、撮影領域410内の各座標について輝度値が取得される。図5においては表示領域420に対応する座標には、ハッチングが付されている。
ステップS204において、プロセッサー11は、アルファブレンド用のマスク画像αmを作成する。すなわち、プロセッサー11は、ステップS203で表示領域420の外側と判定された暗い点のα値を1に設定し、表示領域420と判定された明るい点のα値を0に設定する。
図6にアルファブレンド用マスク画像データの一例の概略を模式的に示す。図6においてハッチングが付されている表示領域420に対応する座標では、α値が0に設定されている。その他の座標では、α値が1に設定されている。このようなα値が設定されたアルファブレンド用マスク画像データでは、図4においてハッチングを付した表示領域420は完全に透明であり、それ以外の領域は完全に不透明である画像データとなる。
以上のようにアルファブレンド用マスク画像データが作成されることで、事前処理は終了する。
なお、ここでは表示領域420を特定するため1つの単純な方法を示したが、表示領域420を特定する方法は上述のものに限らない。表示領域420を特定するために、種々の方法が用いられ得る。
〈講演録画処理〉
ステップS102の講演録画処理で行われる画像処理装置10の処理について、図7に示すフローチャートを参照して説明する。講演録画処理は、例えば講演の開始直前に、ユーザーが講演録画処理の開始を指示することによって行われる。講演録画処理の開始指示は、例えば入力装置14に含まれる録画開始ボタンが押されることなどによって行われる。
ステップS301において、プロセッサー11は、デジタルカメラ60から取得した撮影画像データ、及びPC50から取得したコンテンツデータについての録画を開始する。撮影画像及びコンテンツは、それぞれ時間情報と関連付けられて、大容量ストレージ13に動画として記録される。
ステップS302において、プロセッサー11は、録画を終了させるか否かを判定する。例えば、ユーザーによる録画終了の指示が入力されたとき、録画を終了させると判定される。録画終了の指示は、講演の終了後に、例えば入力装置14に含まれる録画終了ボタンが押されることなどによって行われる。ステップS302の判定において録画を終了しないと判定されたとき、処理はステップS302を繰り返す。このとき、撮影画像及びコンテンツの録画は継続し、時間情報と関連付けられた撮影画像及びコンテンツが動画として大容量ストレージ13に記録され続ける。ステップS302の判定において、録画を終了すると判定されたとき、処理はステップS303に進む。
ステップS303において、プロセッサー11は、撮影画像に係る動画である撮影動画Mbと、コンテンツに係る動画であるコンテンツ動画Mcとを、ファイル化して大容量ストレージ13に保存する。
以上のように、撮影動画Mb及びコンテンツ動画Mcが保存されることで、講演録画処理は終了する。
〈講演動画作成処理〉
ステップS103の講演動画作成処理で行われる画像処理装置10の処理について、図8に示すフローチャートを参照して説明する。講演動画作成処理は、例えば講演の終了後の任意の時点で、ユーザーが講演動画作成処理の開始を指示することによって行われる。講演動画作成処理の開始指示は、例えば入力装置14に含まれる講演動画作成ボタンが押されることなどによって行われる。
ステップS401において、プロセッサー11は、コンテンツ動画Mcのサイズ及び位置を調整し、嵌め込み画像としての動画を作成する。本実施形態では、このようにコンテンツ動画Mcのサイズ及び位置が調整されて作成された動画を調整動画Mnと呼ぶ。調整動画Mnの全体の画像サイズは、撮影動画Mbの画像サイズと同じになるように調整される。すなわち、調整動画Mnの全体の画像サイズは、例えば図4に示す例において座標で表すと(0,0)−(Xm,Ym)に相当するサイズとなるように調整される。プロセッサー11は、表示領域420に相当する部分の大きさに合わせて、コンテンツ動画Mcを縮小又は拡大する。さらに、プロセッサー11は、縮小又は拡大されたコンテンツ動画Mcの位置を、表示領域420に相当する位置に合わせるようにする。このようにして、コンテンツ動画Mcの位置及び大きさが表示領域420に相当する部分に調整された調整動画Mnが作成される。すなわち、例えば図4に示す例において座標で表すと(Xc1,Yc1)−(Xc2,Yc2)に合わせてコンテンツ動画Mcのサイズと位置は調整される。この調整動画Mnにも、コンテンツ動画Mcに含まれていた時間情報が引き継がれる。作成された調整動画Mnは、例えば大容量ストレージ13に保存される。
ステップS402において、プロセッサー11は、撮影動画Mbと調整動画Mnとを合成して動画を作成する。本実施形態では、このように撮影動画Mbと調整動画Mnとが合成された動画を合成動画Maと呼ぶ。例えば、プロセッサー11は、撮影動画Mbを前景側とし、アルファブレンド用のマスク画像αmと調整動画Mnとを用いたアルファブレンドによって、合成動画Maを作成する。この際、撮影動画Mbと調整動画Mnとに含まれる時間情報を用いて、これらの動画は同期するように調整される。作成された合成動画Maは、例えば大容量ストレージ13に保存される。この合成動画Maが、目的とする講演動画となる。以上が講演動画作成システム1の動作である。
本実施形態に係る講演動画作成システム1によれば、デジタルカメラ60で撮影された撮影動画Mbのうち、表示領域320に相当する位置の画像がコンテンツ動画Mcで置換された合成動画Maが作成される。この合成動画Maは、視認性に優れた画像となる。すなわち、デジタルカメラ60による撮影では、一般に講演者330に焦点が合わせられる。その結果、スクリーン340に投影された投影画像については焦点がずれた状態となり得る。また、投影画像においては、長方形の表示領域320に画像が投影されるように、いわゆる台形補正といった幾何学補正が行われ得る。このような補正によって、投影画像では、輝度が低下したり画質が劣化したりする。また、プロジェクター80としてDLP(登録商標)プロジェクターが用いられる場合に生じ得るスポーク光など、投影画像にはノイズが生じ得る。スポーク光は、投影画像が肉眼で観察されている場合には認識されにくいが、撮影された画像においては認識されることがある。本実施形態で作成される合成動画Maでは、表示領域420の画像はコンテンツデータに基づいて作成されるので、上述のような焦点のずれ、輝度の低下、画質の劣化、ノイズの重畳等が表示領域420の画像に生じない。
(第2の実施形態)
第2の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態では、デジタルカメラ60を用いて得られた撮影動画Mbに応じて加工が施された合成動画Maが作成される。
撮影動画Mbに含まれる表示領域420内の画像の色調と、コンテンツ動画Mcの色調とは、撮影条件等に応じて異なる場合がある。本実施形態では、調整動画Mnの作成にあたって、例えばコンテンツ動画Mcの色調を撮影動画Mbに含まれる表示領域420内の画像の色調に合わせる処理が施される。このようにして作成された調整動画Mnを用いて、合成動画Maが作成される。その結果、動画の画面全体において色調が自然な合成動画Maが作成され得る。コンテンツ動画Mcの色調を撮影動画Mbに含まれる表示領域420内の画像の色調に合わせる方法は、種々ある。以下に、その例を示す。
[第1の方法]
本実施形態の第1の方法について説明する。本方法に係る講演動画作成処理について、図9に示すフローチャートを参照して説明する。
ステップS501において、プロセッサー11は、撮影動画Mbを解析する。より詳しくは、プロセッサー11は、撮影動画Mbを構成する画像に含まれる表示領域420内の色調の情報を特定する。ここで、色調は、例えば、以下の要因によって変化し得る。すなわち、色調は、デジタルカメラ60による撮影時のホワイトバランスの設定などの撮影条件によって変化し得る。また、色調は、プロジェクター80の光源等の特性といった投影条件によって変化し得る。また、色調は、講演の会場の照明状態といった環境条件によって変化し得る。
ステップS502において、プロセッサー11は、第1の実施形態の場合と同様に、コンテンツ動画Mcのサイズを調整し、調整動画Mnを作成する。また、この際、プロセッサー11は、コンテンツ動画Mcの色調をステップS501の解析結果に応じて調整する。すなわち、プロセッサー11は、コンテンツ動画Mcの色調と、撮影動画Mbに含まれる表示領域420内の画像の色調とが整合するように、画像処理を行う。このようにして、色調が調整され、さらにコンテンツ動画Mcの位置及び大きさが表示領域420に相当する部分に調整された調整動画Mnが作成される。
なお、撮影動画Mbの解析は、動画の全ての期間について行われ、時間毎に異なる条件で調整動画Mnの色調の調整が行われてもよい。また、撮影動画Mbの解析は、例えば講演の最初の状態についてのみ行われ、動画の全ての期間にわたって同一条件で調整動画Mnの色調の調整が行われてもよい。また、撮影動画Mbの解析は、例えば一定期間ごとに繰り返し行われ、一定期間ごとに再設定される条件で調整動画Mnの色調の調整が行われてもよい。
この調整動画Mnにも、コンテンツ動画Mcに含まれていた時間情報が引き継がれる。作成された調整動画Mnは、例えば大容量ストレージ13に保存される。
ステップS503において、プロセッサー11は、第1の実施形態の場合と同様に、撮影動画Mbと調整動画Mnとが合成された合成動画Maを作成する。作成された合成動画Maは、例えば大容量ストレージ13に保存される。この合成動画Maが、目的とする講演動画となる。
以上のようにして、動画像の画面全体において色調の点で自然な特性を有する合成動画Maが作成され得る。
ここでは、コンテンツ動画Mcに基づいて作成される調整動画Mnについて、色調が調整される画像処理の例を示したが、これに限らない。コンテンツ動画Mcに基づいて作成される調整動画Mnの代わりに、撮影動画Mbの色調が画像処理によって調整されてもよい。この場合、プロセッサー11は、撮影動画Mbの表示領域420以外の領域の色調が、調整されていないコンテンツ動画Mcの色調と整合するように、撮影動画Mbに対して色調を調整する画像処理を行う。プロセッサー11は、色調を調整した撮影動画Mbと、調整動画Mnとを合成し、合成動画Maを作成する。また、プロセッサー11は、調整動画Mnと撮影動画Mbとの両方に対して、双方の動画の色調を合わせるように色調を調整する処理を行ってもよい。
[第2の方法]
本実施形態の第2の方法について説明する。第1の方法では、撮影動画Mbを解析することによって、表示領域420内の色調の情報が特定された。これに対して、本方法では、撮影動画Mbのデータに関連付けられて記録される撮影時の各種条件に基づいて表示領域420内の色調の情報が特定される。
例えば、講演録画処理のステップS303において、撮影時のデジタルカメラ60のホワイトバランスの設定、プロジェクター80の設定など、各種設定のうち1つ以上が撮影動画Mbのデータに関連付けられて記録される。
講演動画作成処理では、プロセッサー11は、撮影動画Mbとともに、撮影動画Mbに関連付けられた上述の情報を読み出す。プロセッサー11は、当該情報に基づいて、ステップS502の処理と同様に、コンテンツ動画Mcの色調を調整し、調整動画Mnを作成する。その他については、第1の方法の場合と同様である。
以上のようにしても、動画像の画面全体において色調が自然な特性を有する合成動画Maが作成され得る。
(第3の実施形態)
第3の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態でも、デジタルカメラ60を用いて得られた撮影動画Mbに応じて加工が施された合成動画Maが作成される。
第1の実施形態では、事前処理により撮影画像における表示領域が固定された領域として予め特定される場合の例を説明した。これに対して、例えば、講演者やポインタ等が表示領域に侵入した場合等、表示領域及びそれ以外の周辺領域の境界が時間経過と共に変化することもある。例えば図10に示すように、講演者330の一部352が元の表示領域320と重なった場合、第1の実施形態のような処理が行われると、合成動画Maにおいて、元の表示領域320と重なっている講演者330の一部352は、消失することになる。また、第1の実施形態のような処理が行われると、例えば講演者330が有するレーザポインタ332によって示された輝点354は、合成動画Maにおいて、再現されないことになる。このような状況に対応するために、表示領域が時間と共に変化するように画像処理装置10は構成されていてもよい。
表示領域と周辺領域との境界は、例えばコンテンツの画像と撮影画像とを比較することで容易に特定され得る。すなわち、表示領域320に講演者330等が侵入していないとき、コンテンツの画像と撮影画像の表示領域320の画像とは一致する。一方、表示領域320に講演者等が侵入しているとき、侵入している部分でコンテンツの画像と撮影画像の表示領域の画像とは一致しなくなる。したがって、このような一致しなくなった領域に基づいて、表示領域と周辺領域との境界は特定され得る。
また、撮影画像中にレーザポインタ332によって形成された輝点354が存在するとき、当該輝点354は輝度が非常に高いので、輝度が高い点として輝点354は特定され得る。
何れの場合も、表示領域420内において例えば講演者が写っている等で撮影画像を表示すべき位置のアルファブレンドのα値を、表示領域420内であっても1に変更すればよい。このようにすることで、表示領域420内に表示画像以外が存在する場合であっても、自然な講演動画が作成される。以下、本実施形態に係る処理方法のいくつかの例について図面を参照してさらに説明する。
[第1の方法]
本方法に係る講演動画作成処理について、図11に示すフローチャートを参照して説明する。
ステップS601において、プロセッサー11は、撮影動画Mbの初期表示領域とコンテンツ動画Mcとを解析し、講演中の各時点における画素の差分を検出する。ここで、初期表示領域は、例えば講演者330等がスクリーン340の領域に侵入していない初期状態における撮影動画Mbの表示領域420である。また、図3を参照して説明した事前処理において特定された表示領域が、初期表示領域として設定されてもよい。撮影動画Mbの初期表示領域とコンテンツ動画Mcとの差分は、合成動画Maにおいて、初期表示領域内であってコンテンツ動画Mcの画素に対応しない画素を示すべき領域である。例えば、初期表示領域内に侵入した講演者330の画像が差分として検出される。また、レーザポインタ332による初期表示領域に照射された輝点354の画像が差分として検出される。
ステップS602において、プロセッサー11は、ステップS601で検出された差分部分について、アルファブレンド用マスク画像αmのα値を更新する。より具体的には、差分が検出された部分について、α値を1に設定する。このようにして、時系列に沿った各時点において初期表示領域の各画素においてα値が異なることがあるアルファブレンド用マスク画像αmが作成される。
すなわち、初期表示領域のうち、差分部分以外が新たな表示領域となる。この新たな表示領域に、コンテンツ動画Mcに基づく画像が合成されることになる。
ステップS603において、プロセッサー11は、第1の実施形態の場合と同様に、コンテンツ動画Mcのサイズを調整し、調整動画Mnを作成し保存する。
ステップS604において、プロセッサー11は、ステップS602で作成されたアルファブレンド用マスク画像αmを用いて、撮影動画Mbと調整動画Mnとを合成し、合成動画Maを作成する。作成された合成動画Maは、例えば大容量ストレージ13に保存される。この合成動画Maが、目的とする講演動画となる。この合成動画Maでは、初期表示領域に入った講演者330やレーザポインタ332の輝点354に対応する部分において、コンテンツ動画Mcではなく撮影動画Mbに基づく画像が表される。
以上のようにして、撮影動画Mbが、デジタルカメラ60と表示領域320との間に入った講演者330の画像又は輝点354の画像を含んでいても、自然な動画である合成動画Maが作成され得る。
なお、本方法は、第2の実施形態と同様に、撮影動画Mbに基づいてコンテンツ動画Mcの色調を調整する処理を含んでいてもよい。
また、色調の調整は、第2の実施形態のようにコンテンツ動画Mc又は撮影動画Mbの全画素に対して一様に行うに限らない。色調の調整の別の例を第2の方法として次に示す。
[第2の方法]
本方法に係る講演動画作成処理について、図12に示すフローチャートを参照して説明する。
ステップS701において、プロセッサー11は、第2の実施形態のステップS501と同様に、撮影動画Mbの色調を解析する。すなわち、プロセッサー11は、撮影動画Mbを構成する画像に含まれる表示領域420内の色調の情報を特定する。
ステップS702において、プロセッサー11は、第1の方法のステップS601と同様に、撮影動画Mbの初期表示領域とコンテンツ動画Mcとを解析し、講演中の各時点における対応する画素の差分を検出する。
ステップS703において、プロセッサー11は、第1の方法のステップS602と同様に、ステップS702で検出された差分部分について、アルファブレンド用マスク画像αmのα値を更新する。
ステップS704において、プロセッサー11は、第2の実施形態のステップS502と同様に、コンテンツ動画Mcのサイズを調整し、調整動画Mnを作成する。また、プロセッサー11は、ステップS701の解析結果に基づいて、コンテンツ動画Mcの色調を画像処理によって調整し、調整動画Mnを作成する。プロセッサー11は、特に合成される撮影動画Mbとコンテンツ動画Mcとの境界において画像が滑らかにつながるように色調を調整する画像処理を行う。このとき、プロセッサー11は、コンテンツ動画Mcの全体に対して一様に色調の調整を行ってもよい。また、プロセッサー11は、ステップS702で検出された差分に基づいて、合成されたときに撮影動画Mbに基づく画像とコンテンツ動画Mcに基づく画像との境界になる位置を特定し、これを用いて色調の調整を行ってもよい。この境界は、初期表示領域から差分部分が除かれた新たな表示領域の縁に相当する。プロセッサー11は、特定された境界が自然に見えるように、境界部分において、境界に向けて段階的にコンテンツ動画Mcの色調を調整してもよい。このような色調の調整は、表示領域の縁の全長に対して行われてもよいし、例えば、差分部分の周辺に相当する表示領域の縁に対して行われてもよい。
ステップS705において、プロセッサー11は、ステップS701の解析結果に基づいて、撮影動画Mbの色調を画像処理によって調整する。本実施形態では、この撮影動画Mbに対する色調の調整によって作成される動画を、調整撮影動画Mdと呼ぶ。プロセッサー11は、特に合成される撮影動画Mbとコンテンツ動画Mcとの境界において画像が滑らかにつながるように色調を調整する画像処理を行う。このとき、プロセッサー11は、撮影動画Mbの全体に対して一様に色調の調整を行ってもよい。また、プロセッサー11は、ステップS702で検出された差分に基づいて特定される表示領域の縁を特定し、これを用いて色調の調整を行ってもよい。プロセッサー11は、特定された縁が自然に見えるように、境界部分において、境界に向けて段階的に撮影動画Mbの色調を調整してもよい。このような色調の調整は、表示領域の縁の全長に対して行われてもよいし、例えば、差分部分の周辺に相当する表示領域の縁に対して行われてもよい。
ステップS706において、プロセッサー11は、ステップS703で作成されたアルファブレンド用マスク画像αmを用いて、調整撮影動画Mdと調整動画Mnとを合成し、合成動画Maを作成する。作成された合成動画Maは、例えば大容量ストレージ13に保存される。この合成動画Maが、目的とする講演動画となる。
この合成動画Maでは、表示領域320に入った講演者330やレーザポインタ332の輝点354の部分において、コンテンツ動画Mcではなく撮影動画Mbに基づく画像が表される。また、本方法によれば、合成される調整撮影動画Mdと調整動画Mnとの境界が滑らかになる。
上述の例では、撮影動画Mbとコンテンツ動画Mcとの両方の色調が調整される例を示したがこれに限らない。撮影動画Mbとコンテンツ動画Mcとのうち何れか一方の色調が調整されてもよい。また、撮影動画Mb又はコンテンツ動画Mcの色調の調整によらず、又は色調の調整に加えて、アルファブレンド用マスク画像αmを用いて、撮影動画Mbとコンテンツ動画Mcとの境界を滑らかにしてもよい。すなわち、境界部分において、境界からの距離に応じて調整撮影動画Mdと調整動画Mnとの合成比率を段階的に変化させてもよい。
(第4の実施形態)
第4の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態でも、デジタルカメラ60を用いて得られた撮影動画Mbに応じて加工が施された合成動画Maが作成される。本実施形態では、撮影動画Mbに基づいて、実際の講演では存在しなかった画像が合成動画Maに合成される。
例えば、図13に示すように、講演者330がレーザポインタ332を用いて、所定の動作を行ったとき、その動作に応じた表示が合成動画Maに含められる。例えば、輝点の位置を所定回数往復させるように変化させたとき、輝点の軌跡に応じた線464が重畳画像として合成動画Maに重畳されて合成動画Maに含まれるようになる。例えば講演者330がコンテンツ中の強調したい部分にアンダーラインを付したいと思ったとき、講演者330は、当該位置において輝点の位置を所定回数往復させればよい。また、ある位置を囲むように輝点の位置を変化させたとき、輝点の軌跡に応じた囲い線466が合成動画Maに含まれるようになる。例えば講演者330がコンテンツ中の強調したい部分を四角形や円で囲みたいと思ったとき、講演者330は、当該部分を輝点で囲むようにレーザポインタ332を操作すればよい。また、レーザポインタ332によって指し示している位置を強調するために、合成動画Maでは、輝点部分に例えば矢印の図形462が表示されてもよい。
本実施形態に係る講演動画作成処理について、図14に示すフローチャートを参照して説明する。
ステップS801において、プロセッサー11は、コンテンツ動画Mcのサイズを調整し、調整動画Mnを作成する。
ステップS802において、プロセッサー11は、撮影動画Mbの初期表示領域とコンテンツ動画Mcとを解析し、講演中の各時点における画素の差分を検出する。本実施形態では、プロセッサー11は、この差分に基づいて、レーザポインタ332による輝点を特定する。プロセッサー11は、輝点を、初期表示領域の内部において講演者330が指し示している位置である指示位置として特定する。
ステップS803において、プロセッサー11は、ステップS802で特定された指示位置である輝点の動きを解析する。例えば、プロセッサー11は、時系列に沿って輝点が所定回数同じ位置を往復するように動いたか、或いは、輝点が任意の位置を囲うように動いたかなどが解析される。
ステップS804において、プロセッサー11は、コンテンツ動画Mcにおいてコンテンツの表示ページが変更されたかなどについての解析を行う。プロセッサー11は、例えばコンテンツ動画Mcを解析することで、コンテンツのページがめくられたか否かを特定できる。また、講演録画処理において、講演者330によるコンテンツのページめくり動作のタイミングが記録され、プロセッサー11は、当該記録に基づいて、コンテンツのページがめくられたか否かを特定してもよい。
ステップS805において、プロセッサー11は、ステップS803とステップS804の解析結果に基づいて、合成動画Maにおいて撮影動画Mb及び調整動画Mnに重畳して表示させる動画を作成し、例えば大容量ストレージ13に保存する。ここで作成されるような撮影動画Mbにもコンテンツ動画Mcにも含まれない画像を含む動画を重畳動画Meと呼ぶ。例えば、プロセッサー11は、輝点が所定回数同じ位置を往復したとき、当該位置にアンダーラインを表示させるように、当該位置に線464が含まれる重畳動画Meを作成する。また、プロセッサー11は、輝点が任意の位置を囲ったとき、輝点の位置に沿って囲い線を表示させるように、当該位置に囲い線466が含まれる重畳動画Meを作成する。また、プロセッサー11は、輝点の位置に合わせて、矢印の図形462を表示させるように、輝点の位置に矢印の図形462が含まれる重畳動画Meを作成する。
重畳動画Meにおける線464などは、コンテンツのページの変更に合わせて削除されるように構成してもよい。すなわち、コンテンツのページが変わっても、前のページの内容に対応したアンダーライン等が残っていてはかえってわかりにくい講演動画となるので、アンダーライン等は、コンテンツのページめくりと同時に削除されるように、重畳動画Meは作成される。
ステップS806において、プロセッサー11は、アルファブレンド用マスク画像αmを用いて、撮影動画Mbと調整動画Mnとを合成する。さらに、プロセッサー11は、重畳動画Meを合成し、合成動画Maを作成する。作成された合成動画Maは、例えば大容量ストレージ13に保存される。この合成動画Maが、目的とする講演動画となる。
この合成動画Maでは、レーザポインタ332による輝点の動きに応じた画像が含まれる。その結果、講演動画は、実際の講演にさらに情報が付加されたわかりやすい動画となる。
ここで示した、輝点が所定回数往復したときに線を表示する、又は、輝点が所定の位置を囲ったときに囲み線を表示する等は、指示位置である輝点の動きと表示される画像との関係の一例である。
また、上述の例では、撮影動画Mbとコンテンツ動画Mcとの差分に基づいて輝点が検出される例を示したが、輝点検出の方法はこれに限らない。例えば、撮影動画Mbに含まれる所定以上の輝度を持つ点がレーザポインタによる輝点として特定されてもよい。また、レーザポインタ332として、肉眼では認識されないが撮影動画Mbでは特定され得る所定の点滅パターンを示すものが用いられてもよい。この場合、当該点滅パターンに基づいて、輝点の位置が特定され得る。
また、上述の実施形態では、指示位置としてレーザポインタ332の輝点が用いられ、この輝点に基づいて重畳動画Meが作成される例を示した。しかしながらこれに限らず、講演者330のジェスチャーに基づいて、重畳される画像が作成されてもよい。例えば、講演者330が手で指し示す位置を指示位置とし、講演者330による所定の動作が検出されたとき、その動作に応じた画像が重畳画像として作成されてもよい。
また、重畳させる画像をリアルタイムに作成することが可能である場合には、当該画像がプロジェクター80によって投影され得る。この場合、アンダーライン等がスクリーン340上に表示されるので、実際に講演を聴いている人にとってもわかりやすい画像が表示されることになる。
本実施形態は、第2の実施形態又は第3の実施形態と組み合わせて実施されるよう構成してもよい。
[変形例]
資料の画像が表示装置によって提示され、当該画像の脇で講演者が講演を行う場合を説明した。ここで、表示装置として、プロジェクターが用いられる場合を例に挙げて説明した。資料を提示する表示装置は、プロジェクターに限らない。プロジェクターに代えて、例えば、液晶ディスプレイ等の各種装置が用いられてもよい。この場合、上述の何れの実施形態の説明において、「投影」として説明されている部分は「表示」に置換され得る。このことは、以下に示す変形例においても同様である。なお、第3の実施形態では、表示領域320に例えば講演者330が侵入する場合について検討した。このような場合、表示装置がプロジェクターである場合には、スクリーンとプロジェクターとの間に講演者330が入り、講演者330に画像が投影されることになる。一方、表示装置が液晶ディスプレイ等である場合、ディスプレイ等とデジタルカメラとの間に講演者330が入ることになる。
表示領域320が長方形となるように投影の状態が調整されている場合を例に挙げて説明したが、表示領域320は、長方形でなくてもよい。撮影画像に基づいて特定された表示領域420に合わせて、合成される調整動画Mnの形状は画像処理により適宜に補正され得る。このような画像処理により、表示領域320の形状とコンテンツの画像の形状とが一致していなくても、適切な講演動画が作成され得る。
投影画像を変化させる際には、ユーザーはPC50又はプロジェクター80に対して操作を行う。例えば、投影画像のページ送りをするとき、ユーザーはPC50の操作を行うし、投影画像の台形補正を行うとき、ユーザーはプロジェクター80の操作を行う。プロセッサー11は、PC50又はプロジェクター80に対して行われた操作の情報を取得して、当該情報を用いて調整動画Mnを作成してもよい。
さらに、例えば、PC50から出力されているコンテンツデータに変化がない場合であっても、プロジェクター80の機能を用いて投影画像の一部を拡大したり、拡大した部分を上下左右に移動させたりすることがある。このような場合に、プロセッサー11は、プロジェクター80に入力された操作に係る変更情報を取得し、取得した変更情報を用いて調整動画Mnを作成してもよい。このような方法を用いることで、撮影動画Mbのみを用いて画像処理により作成すべき調整動画Mnを決定するよりも、調整動画Mnの作成は容易になる。
なお、PC50から出力され、プロジェクター80で投影されるコンテンツとしての画像は、静止画であっても動画であってもよい。また、コンテンツには、音声が含まれていてもよい。コンテンツに含まれる音声は、プロジェクター80又はその他の手段によって出力され得る。講演動画に含まれるコンテンツに係る音声は、マイク70を用いて録音されたものであり、例えば講演者が発する音声等と同様に処理されたものであってもよいし、PC50から画像処理装置10へと入力される音声データに基づいて作成されたものであってもよい。
上述の実施形態では、アルファブレンドを用いた手法による画像合成について説明したが、合成方法はこれに限らない。画像合成には各種手法が用いられ得る。
また、上述の各実施形態では、画像処理装置10は、事前処理、講演録画処理、講演動画作成処理の何れをも行うものとして説明したがこれに限らない。例えば、講演動画作成処理は、事前処理及び講演録画処理が行われた装置と異なる装置で行われてもよい。すなわち、撮影動画Mbとコンテンツ動画Mcとマスク画像αmとが提供されれば、これらに基づいてPC又はサーバー等により講演動画作成処理が行われてもよい。
また、上述の各実施形態では、画像処理装置10は、画像合成によって講演動画を作成するものとして説明したがこれに限られない。例えば、撮影動画Mbの表示領域420内において一部分の画質が低下している場合、当該部分のみをコンテンツ動画Mcに基づいて補正してもよい。つまり、当該部分の画質の低下度合いに応じて、コンテンツ動画Mcの当該部分に対応する部分の情報を用いて補正を行うことも考えられる。撮影動画Mbの表示領域420が、講演動画を見る人にとって十分に高品質になる画像処理であればよく、嵌め込み画像の合成に限られない。
また、撮影動画Mbとコンテンツ動画Mcとの合成は、プロセッサー11の処理能力が十分に高ければ、リアルタイムに行われてもよい。リアルタイムで講演動画の作成を行えれば、作成した講演動画を遠隔地に送信することで、遠隔地の聴衆は当該講演を講演と同時に高品質の画像で視聴することができる。
画像処理装置10が、PC50及びプロジェクター80から独立して設けられている場合の例を挙げ得て説明したが、画像処理装置10としての機能は、例えばプロジェクター80内に設けられてもよいし、PC50内に設けられてもよい。例えば、図1に示すプロジェクター80とデジタルカメラ60とマイク70と画像処理装置10とが1つの筐体に収まったプロジェクターとして上述の機能が提供されてもよい。プロジェクターが配置される位置は、表示画像を投影するのに適した位置であり、これは投影画像と講演者とを同時に撮影するために適した位置となる。また、プロジェクターには、一般に投影を行うためにコンテンツデータが入力されるが、これは同時に合成画像を作成するためのコンテンツデータとなる。したがって、プロジェクターの筐体にデジタルカメラと画像処理装置とを収めることは、合理的である。
なお、上述の実施形態におけるPC50は、一例であり、PC50は、タブレット型の情報端末、スマートフォン等、プレゼンテーション用のアプリケーションソフトウェアが動作する種々の機器に置き換えられ得る。また、これらの機器が無くても、例えばプロジェクター80がその機能を担ってもよい。この場合、プレゼンテーションに係るデータが記録された記録媒体がプロジェクター80に接続され、プロジェクター80がこのデータに基づいて投影を行う。この際、プロジェクター80は、投影した画像のデータをコンテンツデータとして画像処理装置10へと伝達する。また、画像処理装置10がPC50の機能を担ってもよい。この場合、プレゼンテーションに係るデータが記録された記録媒体が画像処理装置10に接続されたり、当該データが大容量ストレージ13に記録されたりする。画像処理装置10は、これらのデータに基づいて、コンテンツデータをプロジェクター80へと伝達する。
これら何れの変形例も様々に組み合わせられ得るし、何れの変形例もそれらの組み合わせも、上述の第1の実施形態乃至第4の実施形態の何れとも組み合わせられ得る。
なお、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
表示装置によってコンテンツが表示されている表示領域と当該表示領域の周辺領域とを含む領域の撮影画像を取得する撮影画像取得部と、
前記コンテンツを取得するコンテンツ取得部と、
前記撮影画像における前記表示領域を特定する表示領域特定部と、
前記撮影画像に基づいて加工情報を作成する加工情報作成部と、
前記加工情報を用いて、前記撮影画像の前記表示領域に前記コンテンツに基づいた画像を合成することを含む画像処理を行う画像処理部と、
を備える画像処理装置。
[2]
前記加工情報作成部は、前記撮影画像に基づいて時間経過と共に変化する前記表示領域を特定し、
前記画像処理部は、時間経過と共に変化する前記撮影画像の前記表示領域に、前記コンテンツに基づいた画像を合成する画像処理を行う、
[1]に記載の画像処理装置。
[3]
前記加工情報作成部は、前記撮影画像の初期状態の前記表示領域である初期表示領域の内部の画像と、前記コンテンツとを比較することで、時間経過と共に変化する前記表示領域を特定する、[2]に記載の画像処理装置。
[4]
前記加工情報作成部は、前記撮影画像の色調と前記コンテンツに基づく画像の色調とのうち少なくとも何れか一方の情報を含む前記加工情報を作成し、
前記画像処理部は、合成された画像における前記表示領域の縁の少なくとも一部において、前記撮影画像の色調と前記コンテンツに基づく画像の色調とが整合するように、前記撮影画像と前記コンテンツとのうち少なくとも何れか一方の少なくとも一部に対して色調を調整する画像処理を行う、
[3]に記載の画像処理装置。
[5]
前記加工情報作成部は、前記撮影画像の色調と前記コンテンツに基づく画像の色調とのうち少なくとも何れか一方の情報を含む前記加工情報を作成し、
前記画像処理部は、合成された画像における前記撮影画像の色調と前記コンテンツに基づく画像の色調とが整合するように、前記撮影画像と前記コンテンツとのうち少なくとも何れか一方に対して色調を調整する画像処理を行う、
[1]乃至[3]のうち何れか一に記載の画像処理装置。
[6]
前記加工情報作成部は、前記撮影画像に基づいて前記表示領域の内部の指示位置を特定し、前記指示位置に基づく重畳画像を作成し、
前記画像処理部は、前記撮影画像と前記コンテンツに基づく画像とを合成して作成した画像にさらに前記重畳画像を合成する、
[1]乃至[5]のうち何れか一に記載の画像処理装置。
[7]
前記加工情報作成部は、前記指示位置を示す図形と、前記指示位置の軌跡を示す図形とのうち少なくとも何れか一方を含む前記重畳画像を作成する、[6]に記載の画像処理装置。
[8]
前記加工情報作成部は、前記コンテンツのページが変更されたとき、前記指示位置の軌跡を示す図形が削除される前記重畳画像を作成する、[7]に記載の画像処理装置。
[9]
前記加工情報作成部は、レーザポインタによる輝点である前記指示位置、又は、講演者の動作によって特定される前記指示位置を特定する、[6]乃至[8]のうち何れか一に記載の画像処理装置。
[10]
前記画像処理部は、前記コンテンツに対して画像処理を施して前記コンテンツを表示させる前記表示装置から、当該画像処理に係る変更情報を取得し、当該変更情報に基づいて画像処理を行う、[1]乃至[9]のうち何れか一に記載の画像処理装置。
[11]
[1]乃至[10]のうち何れか一に記載の画像処理装置と、
前記コンテンツに基づいて前記表示領域に投影される画像を出力する前記表示装置としての投影部と、
前記撮影画像を生成する撮影部と
を備えるプロジェクター。
[12]
表示装置によってコンテンツが表示されている表示領域と当該表示領域の周辺領域とを含む領域の撮影画像を取得することと、
前記コンテンツを取得することと、
前記撮影画像における前記表示領域を特定することと、
前記撮影画像に基づいて加工情報を作成することと、
前記加工情報を用いて、前記撮影画像の前記表示領域に前記コンテンツに基づいた画像を合成することを含む画像処理を行うことと、
を含む画像処理方法。
[13]
表示装置によってコンテンツが表示されている表示領域と当該表示領域の周辺領域とを含む領域の撮影画像を取得することと、
前記コンテンツを取得することと、
前記撮影画像における前記表示領域を特定することと、
前記撮影画像に基づいて加工情報を作成することと、
前記加工情報を用いて、前記撮影画像の前記表示領域に前記コンテンツに基づいた画像を合成することを含む画像処理を行うことと、
をコンピュータに実行させるための画像処理プログラム。
1…講演動画作成システム、10…画像処理装置、11…プロセッサー、12…メモリ、13…大容量ストレージ、14…入力装置、15…コンテンツ入力インターフェース(I/F)、16…画像入力インターフェース(I/F)、17…音声入力インターフェース(I/F)、18…画像出力インターフェース(I/F)、19…バスライン、50…パーソナルコンピュータ(PC)、60…デジタルカメラ、70…マイク、80…プロジェクター、310…撮影領域、320…表示領域、330…講演者、340…スクリーン。

Claims (5)

  1. 画角に所定の表示領域が含まれるように撮影された動画像を取得する第1取得手段と、
    前記動画像の撮影中に前記表示領域に表示されていたコンテンツを取得する第2取得手段と、
    前記第1取得手段により取得された動画像における前記表示領域に前記第2取得手段により取得されたコンテンツを嵌め込み合成した合成動画を生成する生成手段と、
    前記第1取得手段により取得された動画像に前記表示領域内の何れかの位置を指示する所定の動作を行う動作主体が撮影対象として含まれているか否かを判定する判定手段と、
    を備え、
    前記生成手段は、前記判定手段により前記動作主体が撮影対象として含まれていると判定された場合には、前記表示領域に嵌め込み合成されている状態の前記コンテンツに前記所定の動作に対応する軌跡画像が重畳されるように前記合成動画を生成する、
    ことを特徴とする画像処理装置。
  2. 前記生成手段は、前記コンテンツの切り替わりタイミングに対応させて前記軌跡画像が消去されるように前記合成動画を生成する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記軌跡画像は線状の画像である、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 画像処理装置が実行する画像処理方法であって、
    画角に所定の表示領域が含まれるように撮影された動画像を取得するとともに、前記動画像の撮影中に前記表示領域に表示されていたコンテンツを取得する取得ステップと、
    前記取得ステップで取得された動画像における前記表示領域に前記取得ステップで取得されたコンテンツを嵌め込み合成した合成動画を生成する生成ステップと、
    前記取得ステップで取得された動画像に前記表示領域内の何れかの位置を指示する所定の動作を行う動作主体が撮影対象として含まれているか否かを判定する判定ステップと、
    を有し、
    前記生成ステップは、前記判定ステップで前記動作主体が撮影対象として含まれていると判定された場合には、前記表示領域に嵌め込み合成されている状態の前記コンテンツに前記所定の動作に対応する軌跡画像が重畳されるように前記合成動画を生成する、
    ことを特徴とする画像処理方法。
  5. 画像処理装置のコンピュータを、
    画角に所定の表示領域が含まれるように撮影された動画像を取得する第1取得手段、
    前記動画像の撮影中に前記表示領域に表示されていたコンテンツを取得する第2取得手段、
    前記第1取得手段により取得された動画像における前記表示領域に前記第2取得手段により取得されたコンテンツを嵌め込み合成した合成動画を生成する生成手段、
    前記第1取得手段により取得された動画像に前記表示領域内の何れかの位置を指示する所定の動作を行う動作主体が撮影対象として含まれているか否かを判定する判定手段、
    として機能させ、
    前記生成手段は、前記判定手段により前記動作主体が撮影対象として含まれていると判定された場合には、前記表示領域に嵌め込み合成されている状態の前記コンテンツに前記所定の動作に対応する軌跡画像が重畳されるように前記合成動画を生成する、
    ことを特徴とするプログラム。
JP2018012519A 2017-03-22 2018-01-29 画像処理装置、画像処理方法及びプログラム Active JP6773057B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/919,726 US10349022B2 (en) 2017-03-22 2018-03-13 Image processing apparatus, projector, image processing method, and storage medium storing image processing program
CN201810240565.5A CN108632553B (zh) 2017-03-22 2018-03-22 图像处理装置、投影仪、图像处理方法以及存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017055624 2017-03-22
JP2017055624 2017-03-22

Publications (2)

Publication Number Publication Date
JP2018160891A JP2018160891A (ja) 2018-10-11
JP6773057B2 true JP6773057B2 (ja) 2020-10-21

Family

ID=63581568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018012519A Active JP6773057B2 (ja) 2017-03-22 2018-01-29 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6773057B2 (ja)

Also Published As

Publication number Publication date
JP2018160891A (ja) 2018-10-11

Similar Documents

Publication Publication Date Title
WO2013175784A1 (ja) 電子カメラ、画像表示装置および画像表示プログラム
JP2022000778A (ja) 画像処理装置、その制御方法、プログラム
CN108632553B (zh) 图像处理装置、投影仪、图像处理方法以及存储介质
JP5994301B2 (ja) 画像処理装置、情報処理装置、方法、プログラムおよび記録媒体
US9088722B2 (en) Image processing method, computer-readable recording medium, and image processing apparatus
KR20090022710A (ko) 디지털 촬영장치, 그 제어방법 및 이를 실행시키기 위한프로그램을 저장한 기록매체
JP6677160B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US9767587B2 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
TW201806378A (zh) 資訊處理裝置、資訊處理方法及程式
US10447935B2 (en) Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image from images related to reference image
JP6773057B2 (ja) 画像処理装置、画像処理方法及びプログラム
US12010433B2 (en) Image processing apparatus, image processing method, and storage medium
JP2009276507A (ja) 投写型表示装置、投写型表示装置の制御方法および制御プログラム
JP5632104B2 (ja) 遊戯用撮影装置、遊戯用撮影装置の処理方法およびプログラム
JP6925827B2 (ja) 画像処理装置及び画像処理方法
JP2017212550A (ja) 画像再生装置及びその制御方法、プログラム、記憶媒体
JP2018054912A (ja) 投影型表示装置及びその制御方法
JP6728024B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP6156559B2 (ja) 遊戯用撮影装置、遊戯用撮影方法、及びプログラム
JP2010114768A (ja) 映像処理装置、システム及びプログラム
JP5967275B2 (ja) 写真撮影遊戯機とその制御方法及び制御コンピュータ
US11762532B2 (en) Image processing device, control method therefor, imaging device, and recording medium
JP2013135398A (ja) 画像合成装置
JP6211139B2 (ja) 画像合成装置
US20120127101A1 (en) Display control apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200914

R150 Certificate of patent or registration of utility model

Ref document number: 6773057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150