JP7110163B2 - 画像処理装置、撮影装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、撮影装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP7110163B2
JP7110163B2 JP2019167365A JP2019167365A JP7110163B2 JP 7110163 B2 JP7110163 B2 JP 7110163B2 JP 2019167365 A JP2019167365 A JP 2019167365A JP 2019167365 A JP2019167365 A JP 2019167365A JP 7110163 B2 JP7110163 B2 JP 7110163B2
Authority
JP
Japan
Prior art keywords
image
display
color
specific frame
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019167365A
Other languages
English (en)
Other versions
JP2021044772A (ja
Inventor
央奈 弓部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2019167365A priority Critical patent/JP7110163B2/ja
Priority to US17/008,477 priority patent/US11734859B2/en
Priority to CN202010944029.0A priority patent/CN112508770A/zh
Publication of JP2021044772A publication Critical patent/JP2021044772A/ja
Application granted granted Critical
Publication of JP7110163B2 publication Critical patent/JP7110163B2/ja
Priority to US18/344,387 priority patent/US20230342990A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Editing Of Facsimile Originals (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、画像処理装置、撮影装置、画像処理方法、及び画像処理プログラムに関する。
一般に、ユーザが選択した選択画像に、合成対象画像を合成した合成画像を作成し、表示部に表示等することが行われている。例えば、特許文献1には、原画像中から切り抜きたい領域を包含線によってユーザが指定し、包含線で示される領域内から、同じ色でつながる領域の面積が所定の割合以上含まれる領域を切り抜き、任意の画像に嵌込み合成する技術が開示されている。
特開平1-175076号公報
特許文献1に記載の技術では、切り抜く領域や色の指定は、タブレットとタブレットペンとからなる座標入力装置により、ユーザが画素を指定することで行っている。特許文献1に記載の技術では、画像の切り抜きに手間がかかるため、ユーザの操作性について問題があった。
本開示は、以上の事情を鑑みて成されたものであり、合成画像の作成を簡便にし、かつ合成にかかるユーザの操作性が向上された、画像処理装置、撮影装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。
上記目的を達成するために、本開示の第1の態様の画像処理装置は、表示部に表示されている表示画像における一部の領域を特定する特定枠と、特定枠内の画像の色の中から基準色を指定するための色指定用マークとを、表示画像に重畳させて表示させる表示制御部と、特定枠内の画像から、色指定用マークによって指定される基準色に応じた画像を合成対象画像として抽出する抽出部と、ユーザにより選択された選択画像に対して合成対象画像を合成した合成画像を生成する合成部と、を備える。
本開示の第2の態様の画像処理装置は、第1の態様の画像処理装置において、色指定用マークは、特定枠内に表示され、かつ特定枠と色指定用マークとの相対的な位置関係が予め定められている。
本開示の第3の態様の画像処理装置は、第1の態様または第2の態様の画像処理装置において、特定枠を拡大または縮小させるサイズ変更指示を受け付ける第1受付部をさらに備え、表示制御部は、第1受付部が受け付けたサイズ変更指示に応じて特定枠のサイズを変更する制御を行う。
本開示の第4の態様の画像処理装置は、第1の態様から第3の態様のいずれか1態様の画像処理装置において、特定枠の位置を移動する移動指示を受け付ける第2受付部をさらに備え、表示制御部は、第2受付部が受け付けた移動指示に応じて特定枠の位置を移動する制御を行う。
本開示の第5の態様の画像処理装置は、第1の態様から第4の態様のいずれか1態様の画像処理装置において、色指定用マークは表示画像の特定の色の領域にのみに重畳しており、色指定用マークが重畳している部分の表示画像の色を基準色とする。
本開示の第6の態様の画像処理装置は、第5の態様の画像処理装置において、表示制御部は、色指定用マークよりも大きな面積を有し、基準色を表すインジケータをさらに表示する。
本開示の第7の態様の画像処理装置は、第1の態様から第4の態様のいずれか1態様の画像処理装置において、色指定用マークは表示画像の一部を囲む形状を有し、表示画像の特定の色の領域のみを囲んでおり、抽出部は、色指定用マークにより囲まれた表示画像の色を基準色とする。
本開示の第8の態様の画像処理装置は、第7の態様の画像処理装置において、表示制御部は、色指定用マークにより囲まれる表示画像の領域よりも大きな面積を有し、かつ基準色を表すインジケータをさらに表示する。
本開示の第9の態様の画像処理装置は、第1の態様から第8の態様のいずれか1態様の画像処理装置において、抽出部は、特定枠内の画像全体の階調を数値化し、階調の数値が、基準色が該当する階調の数値を含む基準色範囲内である画像を、合成対象画像として抽出する。
本開示の第10の態様の画像処理装置は、第9の態様の画像処理装置において、基準色範囲をユーザが設定するための設定部をさらに備える。
本開示の第11の態様の撮影装置は、被写体を撮影する撮影部と、撮影部が撮影した画像を表示する表示部と、第1の態様から第10の態様のいずれか1態様の画像処理装置と、を備える。
本開示の第12の態様の撮影装置は、第11の態様の撮影装置において、表示部には表示画像がライブビュー表示される。
また、上記目的を達成するために、本開示の第12の態様の画像処理方法は、表示部に表示されている表示画像における一部の領域を特定する特定枠と、特定枠内の画像に含まれる色の中から基準色を指定するための色指定用マークとを、表示画像に重畳させて表示させ、特定枠内の画像から、色指定用マークによって指定される基準色に応じた画像を合成対象画像として抽出し、ユーザにより選択された選択画像に対して合成対象画像を合成した合成画像を生成する、処理をコンピュータが実行するものである。
また、上記目的を達成するために、本開示の第13の態様の画像処理プログラムは、表示部に表示されている表示画像における一部の領域を特定する特定枠と、特定枠内の画像に含まれる色の中から基準色を指定するための色指定用マークとを、表示画像に重畳させて表示させ、特定枠内の画像から、色指定用マークによって指定される基準色に応じた画像を合成対象画像として抽出し、ユーザにより選択された選択画像に対して合成対象画像を合成した合成画像を生成する、処理をコンピュータに実行させるためのものである。
また、本開示の画像処理装置は、コンピュータに実行させるための命令を記憶するメモリと、記憶された命令を実行するよう構成されたプロセッサと、を備え、プロセッサは、表示部に表示されている表示画像における一部の領域を特定する特定枠と、特定枠内の画像に含まれる色の中から基準色を指定するための色指定用マークとを、表示画像に重畳させて表示させ、特定枠内の画像から、色指定用マークによって指定される基準色に応じた画像を合成対象画像として抽出し、ユーザにより選択された選択画像に対して合成対象画像を合成した合成画像を生成する。
本開示によれば、合成画像の作成を簡便にし、かつ合成にかかるユーザの操作性を向上させることができる。
撮影装置の一例である携帯端末を用いてユーザが撮影している様子の一例を示す図である。 携帯端末の電気構成の一例の概略を示す図である。 携帯端末の構成の一例を示す機能ブロック図である。 インジケータ付特定枠の表示例を示す図である。 携帯端末の構成の一例を示す機能ブロック図である。 合成撮影処理の一例を示すフローチャートである。 特定枠の移動を説明するための図である。 特定枠の拡縮を説明するための図である。 合成対象画像抽出処理の一例を示すフローチャートである。 特定領域から合成対象画像を抽出する処理を説明するための図である。 合成対象画像である文字が合成された選択画像がライブビュー表示されている様子を示す図である。 合成対象画像である文字の表示位置を移動させた場合の一例を示す図である。 合成対象画像である文字の表示サイズを拡大した場合の一例を示す図である。 合成対象画像である文字の表示姿勢を回転させた場合の一例を示す図である。 合成対象画像である文字の色を変化させる場合の一例を示す図である。 実施形態の携帯端末における合成撮影処理をまとめた図である。 変形例1を説明するための図である。 変形例1を説明するための図である。 変形例1を説明するための図である。 変形例1を説明するための図である。 変形例2を説明するための図である。 変形例2を説明するための図である。 変形例3を説明するための図である。 変形例3を説明するための図である。 変形例3を説明するための図である。 変形例3を説明するための図である。 変形例3を説明するための図である。 変形例3を説明するための図である。 変形例4を説明するための図である。 変形例4を説明するための図である。 変形例5を説明するための図である。 変形例5を説明するための図である。 変形例6の合成撮影処理の一例を示すフローチャートである。 変形例6の合成撮影処理の一例を示すフローチャートである。
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。図1に示すように、携帯端末10は、例えばスマートフォンである。携帯端末10は、携帯電話として機能する他に、アプリ等と呼ばれる各種のアプリケーションプログラムを実行するコンピュータとして機能する。また、携帯端末10は、写真撮影を行うことも可能であり、撮影装置の一例である。
携帯端末10の本体内には、被写体を撮影する撮影部11(図2参照)が内蔵されている。携帯端末10は、本体の前面には、タッチパネルディスプレイ12が設けられている。携帯端末10は、撮影部11で撮影した撮影画像を、スルー画像としてタッチパネルディスプレイ12に逐次表示するライブビュー表示が可能である。
ライブビュー表示においては、撮影部11は、例えば、1秒間に30フレームのフレームレートで撮影画像を出力し、タッチパネルディスプレイ12に表示されるスルー画像もそのフレームレートで更新される。そのため、ライブビュー表示されるスルー画像は、動画として視認される。被写体がライブビュー表示されるため、ユーザUは、タッチパネルディスプレイ12の表示を通じて、被写体及び撮影画像の構図を確認しながら、撮影を行うことができる。
図2に一例として示すように、携帯端末10は、撮影部11、タッチパネルディスプレイ12、CPU(Central Processing Unit)14、操作スイッチ16、ワークメモリ17、ストレージデバイス18、メディアコントローラ19、外部I/F(Interface)21、及び通信部22を備えている。これらはバスライン23を介して通信可能に接続されている。
CPU14は、オペレーティングシステム(図示省略)を実行することにより、主制御部26、及び表示制御部31として機能する。主制御部26は、携帯端末10の各部を統括的に制御する。表示制御部31は、タッチパネルディスプレイ12の表示を制御する。また、CPU14は、撮影部11が撮影する画像に対して画像処理を施す画像処理部32としても機能する。
ワークメモリ17は、CPU14が各種のプログラムを実行する際のワークエリアとして使用される揮発性のメモリであり、RAM(Random Access Memory)が使用される。また、ワークメモリ17は、後述するようにライブビュー表示及び画像処理を行う場合の作業用メモリとして使用される。
ストレージデバイス18には、上記オペレーティングシステムの他、アプリケーションプログラム(AP)27等の各種のプログラムが格納されている。アプリケーションプログラム27としては、後述する写真合成アプリケーションプログラムの他、画像表示ソフト、ウエブブラウザ、及びメールアプリケーションプログラム等がある。
また、ストレージデバイス18には、ユーザUが携帯端末10を使用して撮影した画像を表す画像データ等のユーザのデータを格納するユーザ領域28が設けられている。ストレージデバイス18は、例えば、フラッシュメモリ等の不揮発性メモリである。なお、ストレージデバイス18としては、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等を使用してもよい。
タッチパネルディスプレイ12は、ストレージデバイス18に格納されている、GUI(Graphical User Interface)として機能する操作画面、及び撮影部11が撮影した画像等を表示する表示部の一例である。また、タッチパネルディスプレイ12は、ユーザUの指等によるタッチ操作を検知する機能を備えており、タッチ操作を検知して、主制御部26に対して、操作指示を入力するためのものである。タッチパネルディスプレイ12は、周知のように、例えば、LCD(Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイ等の表示部と、抵抗膜方式または静電容量方式等のタッチパネル部とで構成される。
操作スイッチ16は、携帯端末10の本体に設けられたマルチファンクションキー及び電源ボタン等の各種の機械的な操作部であり、主制御部26に対して操作指示を入力する。
主制御部26は、タッチパネルディスプレイ12及び操作スイッチ16からの操作指示の入力を受け付ける受付部である。
表示制御部31は、主制御部26の制御の下、操作画面及び画像等をタッチパネルディスプレイ12に表示する制御を行う。表示制御部31は、操作画面及び画像等のデータを、タッチパネルディスプレイ12が取り扱えるビデオ信号に変換する処理等を行って、タッチパネルディスプレイ12に出力する。
画像処理部32は、撮影部11が撮影した撮影画像に対して、輝度補正及び圧縮伸長処理といった一般的な画像処理の他、後述する画像抽出及び画像合成等の各種の画像処理を施す。
メディアコントローラ19は、メモリーカード29等の着脱自在のリムーバブルメディアに対するデータの書き込みと読み出しとを行う。
外部I/F21は、例えばUSB(Universal Serial Bus)コネクタ等のインタフェースである。外部I/F21には、充電ケーブル、通信ケーブル、及びUSBメモリ等が接続される。
通信部22は、アンテナ及び通信制御回路(いずれも図示省略)を有しており、移動体通信網及び無線LAN(Local Area Network)を通じた無線通信、及び近距離無線通信等の通信機能を担う。
撮影部11は、例えば、撮影レンズ11A、イメージセンサ11B、AD(Analog-to-digital)変換器(A/D)11C、画像入力コントローラ11D、画像信号処理回路11E、タイミングジェネレータ(TG)11F、及びドライバ11Gを有している。
撮影レンズ11Aは、被写体からの光を集光して、イメージセンサ11Bの撮像面に被写体像を結像させる。イメージセンサ11Bは、撮像素子が撮像した被写体光を光電変換して、アナログの画像信号として出力する。イメージセンサ11Bとしては、例えば、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等が使用される。イメージセンサ11Bは、ライブビュー表示を行う場合には、予め設定されたフレームレートで、アナログの画像信号を逐次出力する。
AD変換器11Cは、イメージセンサ11Bからのアナログの画像信号をデジタルの画像信号に変換する。画像入力コントローラ11Dは、AD変換器11Cから入力されるデジタルの画像信号を、撮影画像としてワークメモリ17に記録する。画像入力コントローラ11Dは、ライブビュー撮影が行われている間は、撮影画像をスルー画像としてワークメモリ17に記録する。ワークメモリ17内において、スルー画像は、ライブビュー表示に使用され、イメージセンサ11Bのフレームレートに合わせて逐次更新される。
画像信号処理回路11Eは、画像入力コントローラ11Dがワークメモリ17に記録した撮影画像に対して、ホワイトバランス処理、ガンマ補正処理、及びYC変換処理等の各種の信号処理を施す。ホワイトバランス処理は、撮影画像に含まれるR(赤)、G(緑)、B(青)の各画像信号のゲインを調整してホワイトバランスを調整する処理である。ガンマ補正処理は、予め記憶されているガンマ特性に応じて、画像信号に対して行われる階調変換処理である。YC処理は、R、G、Bの画像信号を輝度信号Yと色差信号Cr、Cbに変換する処理である。画像信号処理回路11Eが処理を施した撮影画像は、ワークメモリ17に書き戻される。
タイミングジェネレータ11Fは、主制御部26の制御下で、イメージセンサ11Bの動作タイミングを規定するタイミング信号を発生する。ドライバ11Gは、タイミングジェネレータ11Fからのタイミング信号に基づいて、イメージセンサ11Bを駆動する。
表示制御部31は、撮影部11が作動して、携帯端末10が撮影装置として機能している場合、撮影部11が撮影した撮影画像をスルー画像としてタッチパネルディスプレイ12にライブビュー表示する制御を行う。ライブビュー表示は、例えば、撮影部11の起動と同時に開始される。そして、ライブビュー表示は、シャッタボタンの操作に応じた画像保存動作の実行中は一時的に中断されるが、基本的には、撮影部11の動作が終了するまでの間、継続される。
より具体的には、撮影部11は上述したフレームレートで撮影画像を逐次出力し、撮影画像はワークメモリ17に出力される。撮影画像は、画像信号処理回路11Eで信号処理が施された後、ワークメモリ17に記録される。ライブビュー表示においては、撮影画像はスルー画像としてワークメモリ17に記録されて、上述したフレームレートで逐次更新される。表示制御部31は、ワークメモリ17内において逐次更新されるスルー画像を読み出して、タッチパネルディスプレイ12の表示を逐次更新することによって、ライブビュー表示を実現する。また、ここでは、ライブビュー表示を行うために、撮影部11が行う撮影をライブビュー撮影と呼ぶ。
また、ライブビュー表示中に、ユーザUによってシャッタボタンが操作されると、画像保存指示が入力される。画像保存指示が入力されると、そのタイミングで撮影された撮影画像が、ストレージデバイス18のユーザ領域28またはメモリーカード29のうちの予め設定された保存先に保存される。画像処理部32は、メモリーカード29へ撮影画像を記録する場合には、メディアコントローラ19を介して行う。
保存用の撮影画像としては、スルー画像として用いるためにワークメモリ17に記録された画像でもよいし、シャッタボタンの操作のタイミングで新たに撮影部11が取得した画像でもよい。
携帯端末10には、アプリケーションプログラム27の1つとして、スルー画像に対して画像合成を施してライブビュー表示する写真合成アプリケーションプログラムがインストールされている。写真合成アプリケーションプログラムは、例えば、スルー画像として表示画像をライブビュー表示中に、表示画像の一部を合成対象画像として抽出する。そして、抽出した合成対象画像54を、表示画像と異なる選択画像と合成した合成画像を生成し、生成した合成画像をスルー画像としてライブビュー表示する機能を携帯端末10において実現する。
本実施形態の写真合成アプリケーションプログラムは、本開示の画像処理プログラムの一例であり、写真合成アプリケーションプログラムが作動することにより、本実施形態の携帯端末10が、本開示の画像処理装置の一例として機能する。写真合成アプリケーションプログラムの作動に応じた、携帯端末10の機能に係る構成について図3~図5を参照して説明する。
まず、図3及び図4を参照して、携帯端末10における写真合成の前処理に係る機能について説明する。写真合成アプリケーションプログラムが起動されると、CPU14は、表示制御部31及び画像処理部32として機能する。
図3に示すように、ワークメモリ17には、画像メモリ17A及びVRAM(Video Random access memory)17Bとして機能する領域が設けられている。画像メモリ17Aは、撮影部11から出力される撮影画像がスルー画像として一時的に記録される領域である。VRAM17Bは、画像処理部32において、画像処理が施されたスルー画像が記録される領域である。
写真合成アプリケーションプログラムが起動されると、撮影部11が表示画像50のライブビュー撮影を開始する。画像メモリ17Aには、表示画像50がスルー画像として記録される。画像メモリ17A内の表示画像50は、撮影部11のフレームレートに従って出力される最新の撮影画像に逐次更新される。表示画像50は、撮影部11が撮影するスルー画像であり、合成対象画像54(図5参照)の抽出元になる画像である。
表示画像50は、画像処理部32によって画像メモリ17Aから読み出される。表示画像50は、画像処理部32によって輝度補正等の画像処理が施された後、VRAM17Bに記録される。表示制御部31は、VRAM17Bからスルー画像の表示画像50を読み出して、タッチパネルディスプレイ12にライブビュー表示する。
また、ストレージデバイス18には、アプリケーションプログラム27としての写真合成アプリケーションプログラムが使用するデータとして、インジケータ付特定枠60及び色指定用マーク62のデータが記録されている。
表示制御部31は、表示画像50をライブビュー表示する場合には、図4に示すように、表示画像50内において合成対象画像54を抽出するためのGUIとして、インジケータ付特定枠60及び色指定用マーク62を表示画像50に重畳させてタッチパネルディスプレイ12に表示する。
図4には、表示制御部31が、携帯端末10のタッチパネルディスプレイ12に表示された表示画像50に、インジケータ付特定枠60及び色指定用マーク62を重畳させて表示させた状態の一例を示す。インジケータ付特定枠60は、表示画像50から合成対象画像54を抽出する範囲をユーザが特定するためにユーザUが使用するGUIである。インジケータ付特定枠60によって特定された領域が特定領域52であり、特定領域52の一部が合成対象画像54として抽出される。図4に示すように、本実施形態のインジケータ付特定枠60は、インジケータ60A、特定枠60B、及び拡縮指示マーク60Cを含む。本実施形態のインジケータ付特定枠60の特定枠60Bが本開示の表示画像における一部の領域を特定する特定枠の一例である。また、本実施形態のインジケータ付特定枠60のインジケータ60Aが本開示の基準色を表すインジケータの一例である。本実施形態の特定領域52が、本開示の表示画像における一部の領域の一例であり、また本開示の特定枠内の画像の一例である。
図4に示すように、特定枠60Bで囲われた領域が特定領域52である。本実施形態では、特定枠60Bのサイズの拡大及び縮小が可能とされている。換言すると、特定領域52のサイズ(範囲)のユーザUによる変更が可能とされている。一例として、本実施形態では、ユーザUが拡縮指示マーク60Cを操作することにより、特定枠60Bが拡大または縮小する。主制御部26は、特定枠60Bの拡大または縮小の操作指示を受け付けると、受け付けた操作指示の情報を表示制御部31に出力する。本実施形態の特定枠60Bの拡大または縮小の操作指示は、本開示の特定枠60Bのサイズを変更するサイズ変更指示の一例である。表示制御部31は、主制御部26から入力された操作指示の情報に応じた大きさに、特定枠60Bを変更させる。この場合の本実施形態の主制御部26が、本開示の第1受付部の一例である。なお、本実施形態では、一例として特定枠60Bの拡大及び縮小を可能としているが、拡大及び縮小の少なくとも一方が可能な形態であってもよい。
また、本実施形態では、特定枠60Bの移動が可能とされている。換言すると、表示画像50に対する特定枠60Bの位置のユーザUによる変更が可能とされている。主制御部26は、特定枠60Bの移動の操作指示を受け付けると、受け付けた操作指示の情報を表示制御部31に出力する。本実施形態の特定枠60Bの移動の操作指示は、本開示の特定枠60Bの位置を移動する移動指示の一例である。表示制御部31は、主制御部26から入力された操作指示の情報に応じた位置に、インジケータ付特定枠60を移動させる。この場合の本実施形態の主制御部26が、本開示の第2受付部の一例である。
また、図4に示すように、特定枠60B内には、色指定用マーク62が表示される。本実施形態では特定枠60Bと色指定用マーク62との相対的な位置関係が、予め定められている。一例として、本実施形態では、色指定用マーク62の位置を、特定枠60Bの中心(重心)の位置としている。色指定用マーク62は、特定領域52内の画像の色から基準色を指定するためのマークを表す画像である。本実施形態の色指定用マーク62が、本開示の色指定用マークの一例である。一例として本実施形態の色指定用マーク62は、表示画像50を囲む円環状の形状を有するマークであり、円環状の内部の表示画像50の色が基準色として指定される。
インジケータ60Aは、色指定用マーク62よりも大きな面積を有し、色指定用マーク62により指定された基準色を表示する。
次に、図5を参照して、携帯端末10における合成撮影処理に係る機能について説明する。写真合成アプリケーションプログラムが起動されると、CPU14は、画像処理部32の抽出部32A及び合成部32Bとして機能する。
抽出部32Aは、表示画像50の一部を、画像を合成する合成対象画像54として抽出する。具体的には、抽出部32Aは、表示画像50から特定された特定領域52から、合成対象画像54を抽出する。より具体的には、抽出部32Aは、上述したインジケータ付特定枠60の特定枠60Bにより特定された特定領域52から、色指定用マーク62により指定された基準色に応じた画像を合成対象画像54として抽出する。合成対象画像54となる画像は、例えば、マークまたは文字列を表す画像等が挙げられる。マークには、文字、図形、模様及びこれらの中から選択された2以上の組み合わせのうちの少なくとも1つが含まれる。文字は、数字及び記号を含む概念である。マークには、会社名、商品名、店名、駅名、または地名等を示すロゴが含まれる。模様には、縞模様、チェック柄、及びドット柄等が含まれる。また、マークには、文字、数字または記号のいずれか1字で構成されるものも含まれる。
文字列には、手書きの文字または印字された文字で構成されるメッセージ、交通安全の標語、観光地の歓迎または送迎の挨拶文、商品の広告文等が含まれる。メッセージは、例えば、「先日はありがとう」又は「入学おめでとう」といった、特定の人に向けて思いを伝える言葉であり、お祝いの言葉、お礼の言葉、及び挨拶文等が含まれる。
この他、観光名所で観光客に提供されるスタンプ等の印章または印影もマークに含まれる。また、お寺または神社において、参拝客に対して提供される印章または印影である御朱印等も、マークまたは文字列のいずれかに含まれる。また、マークまたは文字列に含まれる文字は、日本語に限らず、英語、中国語、及び韓国語等の外国語でもよい。
抽出部32Aは、特定領域52内における画像のコントラストに基づいて、基準色に応じた画像の領域を合成対象画像54として抽出する。表示画像50の中から合成対象画像54が抽出されると、画像メモリ17Aには、抽出された合成対象画像54が記録される。
撮影部11は、画像メモリ17Aに合成対象画像54が保持された状態で、選択画像56のライブビュー撮影を開始する。画像メモリ17Aには、選択画像56がスルー画像として記録される。タッチパネルディスプレイ12においては、選択画像56のライブビュー表示が開始される。選択画像56は、撮影部11が撮影するスルー画像であり、合成対象画像54が合成される合成先の画像である。
合成部32Bは、選択画像56と合成対象画像54とを合成した合成画像を生成する。合成対象画像54が合成された選択画像56は、合成画像としてVRAM17Bに記録される。表示制御部31は、合成対象画像54が合成された選択画像56を合成画像としてライブビュー表示を開始する。
また、主制御部26は、タッチパネルディスプレイ12を通じて入力された操作指示に基づいて、タッチパネルディスプレイ12内における合成対象画像54の表示位置、表示姿勢、表示サイズ、及び表示色の少なくとも1つの指示を受け付ける。主制御部26が受け付けた操作指示は、合成部32Bに入力される。合成部32Bは、入力された操作指示に基づいて、選択画像56内における合成対象画像54の表示位置等を変更する。
また、通常の撮影の場合と同様に、合成対象画像54が合成された選択画像56のライブビュー表示中に、ユーザUによってシャッタボタンが操作されると、画像保存指示が入力される。画像保存指示が入力されると、そのタイミングで、合成対象画像54が合成された選択画像56が、保存用の合成画像として、ストレージデバイス18のユーザ領域28またはメモリーカード29のうちの予め設定された保存先に保存される。一例として、本実施形態では、画像処理部32が合成画像に対して圧縮処理を施して、圧縮された合成画像を、予め設定された保存先に記録する。
上記構成による作用について上記図1及び図4と、図6~図15とを参照して説明する。
上述したように図1は、ユーザUが携帯端末10を使用して撮影を行うシーンを示す。図1に示すシーンは、ユーザUが友人Tと共に出かけた「パンダ」がいる動物園であり、友人Tが着ているシャツ80には、「JAPANDA」の文字82が印刷されている。本例では、この場所において、「パンダ」と「JAPANDA」との語感の類似性に基づいて、ユーザUが、「パンダ」と、「JAPANDA」のうちの「PANDA」の文字82という2つの被写体を組み合わせた合成写真の撮影を思い付き、その撮影を、携帯端末10を使用して行う例で説明する。
図6に示すように、携帯端末10において、写真合成アプリケーションプログラムが起動されると、携帯端末10は、合成撮影モードに移行し、合成撮影処理を実行する。合成撮影処理が開始されると、まず、ステップS100で表示制御部31は、タッチパネルディスプレイ12に表示画像50をライブビュー表示させる。具体的には、撮影部11において表示画像50のライブビュー撮影が開始されて、タッチパネルディスプレイ12において表示画像50のライブビュー表示が開始される。
次のステップS102で表示制御部31は、上記図4に示したように、インジケータ付特定枠60及び色指定用マーク62を、ライブビュー表示されている表示画像50に重畳させてタッチパネルディスプレイ12に表示させる。
インジケータ付特定枠60及び色指定用マーク62が表示されると、ユーザUは、特定枠60B内に、抽出したい文字82が収まる状態に調整する。また、本実施形態の携帯端末10では、抽出したい文字82の色を基準色とする。そのため、ユーザUは、色指定用マーク62の位置を、抽出したい文字82の色の画像の上に重なる位置に調整する。例えば、ユーザUは、抽出したい文字82の上に、色指定用マーク62を重ねた状態に調整する。これらの調整を行う方法としては、ユーザUが携帯端末10を動かすことにより撮影範囲、すなわち表示画像50そのものに写る被写体を調整する方法が挙げられる。また、これらの調整を行う方法としては、特定枠60B(特定領域52)の移動による調整方法、及び特定枠60B(特定領域52)の拡大または縮小することによる調整方法が挙げられる。
そこで次のステップS104で主制御部26は、上述したように、特定枠60Bの移動の操作指示を受け付けたか否かを判定する。一例として、本実施形態では、ユーザUによる特定枠60Bの移動の操作指示は、タッチパネルディスプレイ12に表示された特定枠60BをユーザUが1本の指でタッチした状態で、移動したい方向に向けて指をスライドさせるジェスチャを行うことにより行われる。こうしたジェスチャはスワイプ等と呼ばれる。
主制御部26が、このような特定枠60Bの移動の操作指示を受け付けていない場合、ステップS104の判定が否定判定となり、ステップS108へ移行する。一方、主制御部26が、特定枠60Bの移動の操作指示を受け付けた場合、ステップS104の判定が肯定判定となり、ステップS106へ移行する。
ステップS106で表示制御部31は、上記特定枠60Bの移動の操作指示に応じた位置に、特定枠60Bを移動させる。具体的には、主制御部26から、操作指示の情報として、移動後の特定枠60Bを表す座標情報が表示制御部31に出力される。表示制御部31は、主制御部26から入力された座標情報に応じた位置に、特定枠60Bを表示させる。
図7には、移動された特定枠60Bの表示の一例を示す。図7に示した例では、図4に示した例に比べて、特定枠60Bの位置、より具体的には、表示画像50に対する特定枠60Bの位置が、下方(操作スイッチ16に近い方)に移動された状態の一例を示している。
次のステップS108で主制御部26は、上述したように、特定枠60Bの拡大または縮小の操作指示を受け付けたか否かを判定する。一例として、本実施形態では、ユーザUによる操作指示は、タッチパネルディスプレイ12に表示された拡縮指示マーク60CをユーザUが1本の指でタッチした状態で、拡大または縮小したい大きさに応じた方向に指をスライドさせるジェスチャを行うことにより行われる。なお、特定枠60Bの拡大または縮小の操作指示方法は、本実施形態に限定されず、例えば、タッチパネルディスプレイ12に表示された特定枠60B、または特定領域52に対して、ピンチアウトまたはピンチインといったジェスチャをユーザUが行うことで操作指示を行う方法でもよい。ピンチアウトは、タッチパネルディスプレイ12において、2本の指で表示画面をタッチした状態で、2本の指の間隔を拡げるジェスチャである。2本の指で特定枠60Bまたは特定領域52の上下または左右をタッチした状態で、ピンチアウトが行われると、特定枠60Bが拡大され、特定領域52の面積が拡大される。ピンチアウトとは反対に、ピンチインは、2本の指の間隔を狭めるジェスチャである。ピンチインが行われると、特定枠60Bが縮小され、特定領域52の面積が縮小される。
主制御部26が、このような特定枠60Bの拡大または縮小の操作指示を受け付けていない場合、ステップS108の判定が否定判定となり、ステップS112へ移行する。一方、主制御部26が、特定枠60Bの拡大または縮小の操作指示を受け付けた場合、ステップS108の判定が肯定判定となり、ステップS110へ移行する。
ステップS110で表示制御部31は、上記特定枠60Bの拡大または縮小の操作指示に応じた大きさに、特定枠60Bの大きさを変更する。特定枠60Bの大きさを変更することにより、特定領域52の大きさも変更する。具体的には、主制御部26から、操作指示の情報として、拡大または縮小後の特定枠60Bを表す座標情報が表示制御部31に出力される。表示制御部31は、主制御部26から入力された座標情報に応じた大きさ(位置)に、特定枠60Bを表示させる。
図8には、大きさが変更された特定枠60Bの表示の一例を示す。図8に示した例では、図7に示した例に比べて、特定枠60Bの大きさが、縮小された状態を示している。
本実施形態のユーザUは、「JAPANDA」という文字82のうち、「PANDA」の文字82のみを抽出したい。そのため、ユーザUは、図7に示すように、「JAPANDA」の文字82のうち、「PANDA」の文字82のみが特定枠60B内に収まり、一方、「JA」の文字82が特定枠60B外となる状態に特定枠60Bを上述したように調整する。また、ユーザUは、色指定用マーク62により指定される基準色が文字82の色となる状態に、本例では文字82の上に色指定用マーク62が重なる状態に、インジケータ60Aの色を参照して特定枠60Bを上述したように調整する。上述した図4に示した例では、色指定用マーク62により指定される基準色が、インジケータ60Aに示されるように、文字82の色と異なっているため、好ましくない。また、上述した図8に示した例では、特定枠60B内に含まれる文字82が「NDA」の文字82のみであるため、「PA」の文字82が抽出されないことになり好ましくない。一方、図7に示した例では、特定枠60B内に「PANDA」の文字82が含まれ、「JA」の文字82は含まれておらず、また、色指定用マーク62が文字82の上に重なっており、インジケータ60Aに示されるように、文字82の色が色指定用マーク62により指定された状態となっているため、好ましい。従って、ユーザUは、図7に示した状態に表示画像50とインジケータ付特定枠60との関係を調整する。
このように、特定枠60Bの位置及び大きさ、色指定用マーク62の位置等の調整が完了すると、本実施形態では、タッチパネルディスプレイ12にGUIとして表示されたシャッタボタン70を指でタップする操作を行うことにより、ユーザUによる合成対象画像54の抽出指示が行われる。
そこで、次のステップS112で主制御部26は、上述した合成対象画像54の抽出指示を受け付けたか否かを判定する。主制御部26が、合成対象画像54の抽出指示を受け付けていない場合、ステップS112の判定が否定判定となり、ステップS104に戻り、上記ステップS104~S110の処理を繰り返す。一方、主制御部26が、合成対象画像54の抽出指示を受け付けた場合、ステップS112の判定が肯定判定となり、ステップS114へ移行する。
ステップS114において、図9に一例を示した合成対象画像抽出処理により、表示画像50の特定領域52から合成対象画像54を抽出する。
図9に示すステップS150で抽出部32Aは、表示画像50から特定領域52を特定する。具体的には、上述したように、シャッタボタン70がユーザUにより操作され抽出指示が行われると、主制御部26は、特定枠60Bの位置に応じた座標情報を、抽出部32Aに出力する。抽出部32Aは、主制御部26から入力された座標情報に基づいて、表示画像50から特定領域52を特定する。
次のステップS152で抽出部32Aは、特定領域52全体をグレースケール化する。具体的には、抽出部32Aは、特定領域52に含まれる全ての画素について、その色を一旦、0~255の、256段階の画素値で表される白から黒までのグレースケールの画素値に階調変換する。
各画素の色をグレースケールに階調変換する方法は、特に限定されず、既存の技術を適用することができる。例えば、特定領域52がRGB画像である場合、各画素におけるRed(R:赤)の画素値、Green(G:緑)の画素値、及びBlue(B:青)の画素値から下記(1)式により、グレースケール化した画素値Grayが得られる。
Gray=Red×0.3+Green×0.59+Blue×0.11 ・・・(1)
図10には、特定領域52の画像をグレースケール化した例が示されている。なお、図10に示した特定領域52は、上記図7に示した状態においてインジケータ付特定枠60により特定される特定領域52に対応している。図10に示した特定領域52には、友人T、背景B、シャツ80、及び文字82が被写体として写っており、各々の画像が含まれている。
次のステップS154で抽出部32Aは、基準色が白色であるか否かを判定する。一例として、本実施形態では、上記ステップS152でグレースケール化した画素値が0~127の画素を黒色の画素、画素値が128~255の画素を白色の画素とみなしている。すなわち、本実施形態では、グレースケール化した特定領域52の画素の色を、白色または黒色のいずれかに2値化している。
抽出部32Aは、基準色とされる画素の画素値、具体的には色指定用マーク62で囲まれる表示画像50の画素の画素値が、128~255のいずれかである場合、基準色が白色であると判定する。基準色が白色である場合、ステップS154の判定が肯定判定となり、ステップS156へ移行する。この場合の本実施形態における画素値が128~255の範囲が、本開示の基準色が該当する階調の数値を含む基準色範囲の一例である。
ステップS156で抽出部32Aは、特定領域52内の白色の画素、すなわち、画素値が128~255色の画素の領域を合成対象画像54として抽出する。
一方、抽出部32Aは、基準色とされる画素の画素値、具体的には色指定用マーク62で囲まれる表示画像50の画素の画素値が、0~127のいずれかである場合、基準色が黒色であると判定する。基準色が黒色である場合、ステップS154の判定が否定判定となり、ステップS158へ移行する。この場合の本実施形態における画素値が0~127の範囲が、本開示の基準色が該当する階調の数値を含む基準色範囲の一例である。
ステップS158で抽出部32Aは、特定領域52内の黒色の画素、すなわち、画素値が0~127色の画素の領域を合成対象画像54として抽出する。
図10に示した例では、特定領域52の画像をグレースケール化された「P」の文字82A、「A」の文字82B、「N」の文字82C、「D」の文字82D、及び「A」の文字82Eの各々の画素の画素値は、0~127の範囲内である。そのため、文字82は、黒色の画素と判定される。一方、友人T、背景B、及びシャツ80の各々の画素の画素値は、128~255の範囲内であり、白色の画素と判定される。
従って、本実施形態の例では図10に示すように、抽出部32Aにより基準色が黒色であると判定され、特定領域52から「P」の文字82A、「A」の文字82B、「N」の文字82C、「D」の文字82D、及び「A」の文字82Eの各々の画像が合成対象画像54として抽出される。抽出部32Aは、「P」の文字82A、「A」の文字82B、「N」の文字82C、「D」の文字82D、及び「A」の文字82Eを1つの合成対象画像54として取り扱う。
上記ステップS156の処理、またはステップS158の処理が終了すると合成対象画像抽出処理が終了する。合成対象画像抽出処理が終了することにより合成撮影処理のステップS114が終了してステップS116へ移行する。
合成対象画像54が抽出されると、ステップS116で撮影部11は、選択画像56のライブビュー撮影を直ちに開始する。
選択画像56のライブビュー撮影が開始されると、次のステップS118で合成部32Bは、抽出された合成対象画像54を選択画像56に合成する。なお、本実施形態では、特定領域52における合成対象画像54以外の画像は、透明な画像として扱われる。
次のステップS120で表示制御部31は、タッチパネルディスプレイ12において、合成対象画像54が合成された選択画像56をライブビュー表示する。
図11は、合成対象画像54である文字82が合成された選択画像56がライブビュー表示されている様子を示す。図11に示すように、表示制御部31は、合成対象画像54が合成された選択画像56をライブビュー表示する場合には、初期状態では、合成対象画像54である文字82を、選択画像56の中央、すなわちタッチパネルディスプレイ12の表示画面の中央に表示する。さらに、図11に示すように表示制御部31は、例えば、タッチパネルディスプレイ12の表示画面の下方位置に、シャッタボタン70及びカラーパレット72をGUIとして表示する。カラーパレット72は、後述するように、合成対象画像54の色を変更するために使用される操作ボタンである。シャッタボタン70は、画像保存指示を入力するための操作ボタンであり、合成対象画像54が合成された選択画像56を、合成画像として保存するための操作ボタンである。
ユーザUは、このように合成対象画像54が合成された選択画像56のライブビュー表示を見ながら、選択画像56の構図、及び選択画像56における被写体の画像と合成対象画像54との相対的な位置関係を決める。
具体的には、図11に示すように、ユーザUは、「PANDA」の文字82と「パンダ」とを組み合わせた合成写真の撮影をしようと考えている。そのため、ユーザUは、選択画像56の被写体として「パンダ」が写り込むように、携帯端末10の位置及び向きを調節する。そして、選択画像56内の「パンダ」の位置、サイズ、及び画角等を調節する。こうした操作により、ユーザUは、選択画像56の構図を決める。
こうした選択画像56の構図の決定と並行して、ユーザUは、選択画像56の被写体である「パンダ」と合成対象画像54である文字82との相対的な位置関係を決める。それに際して、合成対象画像54である文字82の表示位置、表示姿勢、表示サイズ又は表示色等の編集を行う。
ステップS122において、主制御部26は、選択画像56内の合成対象画像54の編集を行うか否かを判定する。ユーザUのタッチパネルディスプレイ12に対する操作による編集指示が、ステップS122に移行してから予め定められた時間内に入力されない場合、ステップS122の判定が否定判定となり、ステップS126へ移行する。一方、ユーザUのタッチパネルディスプレイ12に対する操作による編集指示が、ステップS122に移行してから予め定められた時間内に入力された場合、ステップS122の判定が肯定判定となり、ステップS124へ移行する。
ステップS124で画像処理部32は、編集指示の内容に従って選択画像56内で合成対象画像54を編集する。図12~図15は、編集指示に応じた合成対象画像54の例示である。
図12には、合成対象画像54である文字82の表示位置を移動させた場合の一例が示されている。図12に示した例では、画像処理部32が、文字82の表示位置を、下方(操作スイッチ16に近い方)に移動させた状態の一例を示している。表示位置を移動させる編集指示をユーザUが行う場合には、タッチパネルディスプレイ12において、1本の指で文字82をタッチした状態で、移動したい方向に向けて指をスライドさせるジェスチャを行う。
また、図13には、合成対象画像54である文字82の表示サイズを拡大した場合の一例が示されている。表示サイズを拡縮する編集指示をユーザUが行う場合には、例えば、ピンチアウトまたはピンチインといったジェスチャで行われる。2本の指で文字82の上下または左右をタッチした状態で、ピンチアウトが行われると、文字82の表示サイズが拡大される。一方、ピンチインが行われると、文字82の表示サイズが縮小される。
また、図14には、合成対象画像54である文字82の表示姿勢を回転させた場合の一例が示されている。表示姿勢を回転する編集指示をユーザUが行う場合には、タッチパネルディスプレイ12において、文字82の上下、または左右を2本の指でタッチした状態で、2本の指の間隔を維持したまま、2本の指を回転させるジェスチャを行う。
また、図15には、合成対象画像54である文字82の色を変化させる場合の一例が示されている。図15等に示すように、カラーパレット72には、複数の色が配列されている。文字82の色を変化させる編集指示をユーザUが行う場合には、例えば、カラーパレット72に配列された複数の色の中から希望する色を指でタップするジェスチャで行われる。図15に示した例では、カラーパレット72に配列された白色72WをユーザUが指でタップする編集指示を行ったことにより、文字82の色が白色に変化した状態を示している。
なお、本実施形態では、カラーパレット72を用いて合成対象画像54である文字82の色の変更を行う形態について説明したが、合成対象画像54の変更方法はカラーパレット72を用いる方法に限定されない。例えば、選択画像56に色変更ボタン(図示省略)を表示させ、ユーザUが指でタップすると、白と黒、白と赤、白と黒と赤等というように、色変更ボタンをタップする回数に応じて、予め決められた複数色の間で変更される形態としてもよい。合成対象画像54の色変更は、例えば、合成対象画像54の色と選択画像56の背景部分の色とが色彩上重なって合成対象画像54が見え難くなるのを回避する目的で行われる。あるいは、ユーザUの感性等に基づいて、背景の色に合わせて合成対象画像54の色を変化させることを目的として色変更が行われてもよい。
主制御部26は、合成対象画像54に対するこうしたジェスチャを、編集指示として受け付ける。主制御部26は、受け付けた編集指示の情報を合成部32Bに出力する。合成部32Bは、主制御部26から入力された編集指示の情報に基づいて、選択画像56内の合成対象画像54を編集する。
合成対象画像54の編集を終了すると、ユーザUは、シャッタボタン70を指でタップする。シャッタボタン70がタップされると、主制御部26は、タップ操作を合成画像の保存指示として受け付ける。
ステップS126で主制御部26は、上記合成画像の保存指示を受け付けたか否かを判定する。主制御部26が合成画像の保存指示を受け付けていない場合、ステップS126の判定が否定判定となり、ステップS122に戻り、ステップS122及びS124の処理を繰り返す。
一方、主制御部26が合成画像の保存指示を受け付けた場合、ステップS126の判定が肯定判定となり、ステップS128へ移行する。
主制御部26は、受け付けた合成画像の保存指示の情報を合成部32Bに出力する。画像処理部32は、主制御部26から合成画像の保存指示の情報が入力されると、シャッタボタン70がタップ操作されたタイミングで撮影された選択画像56を確定し、確定した選択画像56内における合成対象画像54の表示位置等を確定する。合成部32Bは、確定した選択画像56に表示位置等が確定した合成対象画像54を合成し、保存用の合成画像として、画像メモリ17Aに出力する。
次のステップS128で画像処理部32は、合成画像を保存する。具体的には、画像処理部32は、画像メモリ17Aに出力された保存用の合成画像に対して、圧縮処理を施し、圧縮処理済みの合成画像を、ストレージデバイス18のユーザ領域28またはメモリーカード29に記録して、合成画像を保存する。
次のステップS130で主制御部26は、合成撮影モードを終了するか否かを判定する。本実施形態では、ユーザUによる操作スイッチ16等の操作により行われた、合成撮影モードの終了の操作指示を主制御部26が受け付けた場合、合成撮影モードを終了する。そのため、主制御部26が合成撮影モードの終了の操作指示を受け付けていない場合、ステップS130の判定が否定判定となり、ステップS100に戻り、ステップS100~S128の処理を繰り返す。一方、主制御部26が合成撮影モードの終了の操作指示を受け付けた場合、ステップS130の判定が肯定判定となり、合成撮影モードを終了する。
図16には、本実施形態の携帯端末10における合成撮影処理をまとめた図が示されている。図16に示すように、携帯端末10は、表示制御部31、抽出部32A、及び合成部32Bを備える。表示制御部31は、タッチパネルディスプレイ12に表示されている表示画像50における一部の領域である特定領域52を特定する特定枠60Bと、特定枠60B内の特定領域52の画像に含まれる色の中から基準色を指定するための色指定用マーク62とを、表示画像50に重畳させて表示させる。抽出部32Aは、特定枠60Bの特定領域52の画像から、色指定用マーク62によって指定される基準色に応じた画像を合成対象画像54として抽出する。合成部32Bは、ユーザUにより選択された選択画像56に対して合成対象画像54を合成した合成画像を生成する。
すなわち、本実施形態の携帯端末10では、特定領域52から抽出したい画像、すなわち、合成対象画像54としたい画像の色を、特定枠60B内の色指定用マーク62によって基準色として指定することで、ユーザUの所望の合成画像を生成することができる。
本実施形態の携帯端末10によれば、ユーザUは、合成対象画像54とすべき画像を指定する場合、色指定用マーク62を合成対象画像54としたい画像の色に重畳させればよいため、表示画像50に含まれる複数の画像から合成対象画像54とする画像をユーザUが直接、指定する必要がない。例えば、ユーザUが合成対象画像54とする画像の領域を1本の指でタッチしたり、1本の指をスライドさせて領域全体を囲う等のジェスチャを行ったりする必要が無い。そのため、本実施形態の携帯端末10によれば、タッチパネルディスプレイ12上を操作しなくても合成対象画像54とすべき画像の指定ができるため、例えば、携帯端末10を持つ片方の手だけであっても合成対象画像54とすべき画像の指定ができる。これにより、本実施形態の携帯端末10によれば、操作性がより向上し、様々なシーンに応じた合成撮影を可能とすることができる。
また、本実施形態の携帯端末10によれば、合成対象画像54が複雑な形状であっても、簡易な操作で特定領域52から合成対象画像54を適切に抽出することができる。
従って、本実施形態の携帯端末10によれば、合成画像の作成を簡便にし、かつ合成にかかるユーザUの操作性が向上される。
また、本実施形態の携帯端末10では、特定枠60Bと色指定用マーク62との相対的な位置関係が、予め定められている。そのため、本実施形態の携帯端末10では、特定枠60Bの位置と色指定用マーク62の位置との両方をユーザUが指定せずともよいため、ユーザUの操作性がより向上される。
また、本実施形態の携帯端末10では、特定枠60Bの拡大及び縮小が可能である。また、本実施形態の携帯端末10では、特定枠60Bの移動が可能である。例えば、撮影位置が制限される等により、表示画像50に対する合成対象画像54の位置が、どうしても偏った位置になってしまう場合がある。また、例えば、合成対象画像54に含めたくない画像が表示画像50中に散在する場合がある。このような場合であっても、本実施形態の携帯端末10では、特定枠60Bの拡大及び縮小が可能であるため、表示画像50において、ユーザUが合成対象画像54としたい所望の画像を、適切に特定枠60Bの範囲内、すなわち、特定領域52に含めることができる。また同様に、本実施形態の携帯端末10では、特定枠60Bの移動が可能であるため、表示画像50において、ユーザUが合成対象画像54としたい所望の画像を、適切に特定枠60Bの範囲内、すなわち、特定領域52に含めることができる。
また、本実施形態の携帯端末10では、色指定用マーク62により囲まれた表示画像50の色を基準色とする。本実施形態の携帯端末10では、色指定用マーク62内部に、基準色の画像が表示されるため、ユーザUは、指定されている基準色の確認を行うことができる。
また、本実施形態の携帯端末10では、色指定用マーク62よりも大きな面積を有するインジケータ60Aに、基準色が表示される。ユーザUは、インジケータ60Aにより、色指定用マーク62により指定される基準色を確認することができるため、例えば、色指定用マーク62が小さい場合であっても、基準色の確認を容易に行うことができる。
また、本実施形態の携帯端末10では、特定枠60Bの特定領域52全体の階調を数値化し、階調の数値が、基準色が該当する階調の数値を含む基準色範囲内である画像を、合成対象画像54として抽出する。本実施形態の携帯端末10では、階調を数値化した数値に基づいて、特定領域52から合成対象画像54を抽出することができるため、携帯端末10において合成対象画像54の抽出が容易にでき、携帯端末10における処理負荷を軽減することができる。
[変形例1]
上記形態では、抽出部32Aが、特定領域52から合成対象画像54を抽出する場合の基準色範囲が予め定められている形態について説明した。これに対して、本変形例では、基準色範囲を、ユーザUが設定する形態について説明する。
図17には、上記合成撮影処理のステップS120において表示制御部31が、タッチパネルディスプレイ12において、合成対象画像54が合成された選択画像56をライブビュー表示した状態の一例を示す。なお、図17に示した例では、合成対象画像54(文字82)を見易くするため、選択画像56と、合成対象画像54との間に、半透明な背景画像が表示制御部31により1枚挟まれている。
特定領域52において、文字82と、友人T、背景B、シャツ80、及び文字82各々の画像(図10参照)とのコントラストの差が比較的小さい場合、抽出部32Aが文字82のみを抽出できず、図17に示したようにならない場合がある。例えば、グレースケール化した背景Bの画素の画素値が0~127のうちのいずれかの値である場合、抽出部32Aは、背景Bの画素の色も基準色と同じ黒色であると判定してしまう。この場合、抽出部32Aは、文字82と背景Bとを合成対象画像54として抽出する。そのため、図18に示したように、表示制御部31は、文字82と背景Bとを合成対象画像54として合成された選択画像56をタッチパネルディスプレイ12に表示させる。
このような場合、本変形例では、ユーザUが、基準色範囲の境界となる閾値、換言すると基準色が白色か黒色かを判定する閾値を設定することにより、基準色範囲を設定することで、背景Bを合成対象画像54から排除することができる。本変形例では、図18に示すように表示制御部31は、例えば、タッチパネルディスプレイ12の表示画面の下方位置に、基準範囲の境界となる閾値を設定するための設定ボタン73を、GUIとして表示する。設定ボタン73をユーザUが1本の指でタップする操作指示を行うことにより、図19に示すように、表示制御部31は、GUIとして閾値設定ツール74を表示させる。閾値設定ツール74は、画素値が0~255までの色を表すスライダバー74A、及びスライダ74Bを含む。
ユーザUは1本の指でスライダ74Bをタッチした状態で、スライダバー74Aに沿って指をスライドさせるジェスチャを行い、スライダ74Bの位置を変更する。スライダ74Bの位置が変更されると、抽出部32Aは、変更した位置に対応するスライダバー74Aが示す色、具体的にはスライダ74Bによって指定されるスライダバー74Aの画素の画素値に、基準色範囲となる閾値を変更する。図19に示した例では、スライダ74Bの位置が右側に移動するほど、基準色範囲の境界となる閾値が大きくなり、白色に近付く。一方、スライダ74Bの位置が左側に移動するほど、閾値が小さくなり、黒色に近付く。
合成対象画像54から背景Bを排除する場合、図20に示すように、ユーザUは、背景Bの色と、文字82の色との間にスライダ74Bを移動させる。このように、ユーザUがスライダ74Bを移動させることにより、基準色範囲の境界となる閾値が、背景Bの画素の画素値と、文字82の画素の画素値との間の値となる。この状態において、携帯端末10が、上述した合成対象画像抽出処理(図9参照)を再び行うことにより、図20に示すように、合成対象画像54に文字82のみが含まれる状態とすることができる。
このように、本変形例では、基準色範囲の境界となる閾値、換言すると、合成対象画像54とその他の画像とのコントラストの境界となる閾値を、ユーザUにより設定することができる。
従って、本変形例の携帯端末10によれば、簡便な操作で、ユーザUが所望の画像のみを特定領域52から合成対象画像54として抽出することができる。また、ユーザUは、スライダバー74Aの色を見ながら、基準色範囲の境界となる閾値を設定することができるので、より直感的に閾値の設定を行うことができる。
なお、閾値設定ツール74は、スライダバー74A及びスライダ74Bを含む形態に限定されない。例えば、閾値設定ツール74は、色空間、及び色空間の座標を指定するポインタを含む形態であってもよい。この場合、ユーザUによってポインタにより指定された色空間の座標に対応する画素値が基準色範囲の閾値となる。
また、上記実施形態例、及び本変形例では、グレースケール化した画素を、2値化し、その一方を基準色範囲とした形態について説明したが、基準色範囲は本形態に限定されない。例えば、3値化以上とし、基準色の画素値が含まれる範囲を基準色範囲とする形態であってもよい。また例えば、基準色の画素の画素値から予め定められた範囲、具体例では基準色の画素値±20の範囲を、基準色範囲とする形態であってもよい。
[変形例2]
上記各形態では、色指定用マーク62により、合成したい文字82の色を基準色として指定する形態について説明したが、文字82の色を基準色とする指定が適切に行えず、合成対象画像54が適切に抽出できない場合がある。このような場合に対し、本変形例では、文字82の色を基準色として指定する方法の変形例について説明する。
例えば、図21に示すように、文字82が細い等、色指定用マーク62に比して小さい場合、色指定用マーク62に囲まれる表示画像50における、文字82の割合が、その他の画像(図21の例では、シャツ80)よりも小さくなる。色指定用マーク62に囲まれる表示画像50において複数の画像が含まれる場合、含まれる割合が高い画像の色を基準色とすると、シャツ80の画素の色が基準色となる。上述したように抽出部32Aは、シャツ80の画素の色を白色と判定するため、基準色が白色となる。そのため、抽出部32Aは、合成対象画像54として、図22に示すように、白色と判定される、友人T、背景B、及びシャツ80の各々を抽出してしまう。
このような場合、本変形例では、ユーザUが、基準色を反転することにより、抽出したい画像の色、本変形例では、文字82の色を基準色とすることができる。本変形例では、図21に示すように表示制御部31は、基準色を反転するための反転ボタン76を、例えば、タッチパネルディスプレイ12の表示画面の下方位置にGUIとして表示する。反転ボタン76をユーザUが1本の指でタップすることで反転指示を行うと、主制御部26が、反転指示を受け付け、反転指示の情報を抽出部32Aに出力する。抽出部32Aは、主制御部26から反転指示の情報が入力されると、上記合成対象画像抽出処理(図9参照)のステップS154で判定した基準色の色を反転させ、反転後の基準色に基づいて、合成対象画像54の抽出を行う。
抽出部32Aは、反転後の基準色に基づいて合成対象画像54の抽出を行う。本変形例では、黒色が基準色となり、文字82の色を基準色として抽出部32Aにより合成対象画像54の抽出が行われる。そのため、図22に示すように、抽出部32Aは、文字82を合成対象画像54として抽出することができる。
従って、本変形例の携帯端末10によれば、簡便な操作で、適切に合成対象画像54を特定領域52から抽出することができる。
なお、抽出部32Aが基準色を反転させるタイミングは限定されない。例えば、文字82が細く、うまく色指定用マーク62を文字82の上に合わせられないとユーザUが感じた場合、またはインジケータ60Aに表示された色を見て、文字82の色と異なるとユーザUが感じた場合、合成対象画像54の抽出指示を行う前に、反転指示を行う形態としてもよい。また、合成対象画像54が合成された選択画像56がライブビュー表示された後に、合成対象画像54が所望の画像となっていないことに気付いたユーザUが、反転指示を行う形態としてもよい。
また、本変形例では、合成対象画像54が適切に抽出できない場合に、基準色を反転させることにより、合成対象画像54を適切に抽出する形態について説明したが、合成対象画像54を適切に抽出するための方法は、本変形例に限定されない。例えば、合成対象画像54として抽出した画像と、抽出しなかった画像との関係を反転させる形態としてもよい。本変形例の場合では、上述したように白色を基準色とすると、抽出部32Aは、友人T、背景B、及びシャツ80の各々を抽出し、文字82は抽出しない。抽出部32Aは、抽出するか否かの関係を反転(変更)させることにより、文字82を抽出し、友人T、背景B、及びシャツ80の各々を抽出しないこととすることができる。
[変形例3]
本変形例では、インジケータ付特定枠60の特定枠60Bの変形例について説明する。特定枠60Bの「枠」とは、特定領域52の範囲を明確に提示できるものであればよい。
例えば、図23A~図23Cに示すように、特定枠60Bは、特定領域52を囲む線の一部が途切れていてもよい。図23A及び図23Bに示した特定枠60Bは、いわゆる括弧の形状を有している。図23A及び図23Bに示した形態であっても、特定領域52の範囲が、図中に斜線によるハッチングを施した範囲であることが特定枠60Bにより明確に提示される。また、図23Cの特定枠60Bは、いわゆるカギ括弧の形状を有している。図23Cに示した形態であっても、特定領域52の範囲が、図中に斜線によるハッチングを施した範囲であることが特定枠60Bにより明確に提示される。
また例えば、図23Dに示すように、特定枠60Bが、枠取りの位置を示すマーク形状であってもよい。図23Dに示した形態であっても、特定領域52の範囲が、図中に斜線によるハッチングを施した範囲であることが特定枠60Bにより明確に提示される。
また、特定枠60Bは、矩形状に限定されず、その他の形状であってもよい。例えば、図23E及び図23Fに示すように、特定枠60Bが円形状の枠であってもよい。
[変形例4]
本変形例では、インジケータ付特定枠60のインジケータ60Aの変形例について説明する。
上記では、特定枠60Bの枠上にインジケータ60Aが配置され、インジケータ60Aと特定枠60Bとをインジケータ付特定枠60として一体的に取り扱う形態について説明した。しかしながら、インジケータ60Aと特定枠60Bとを、別体として取り扱ってもよい。
インジケータ60Aと特定枠60Bとを別体として取り扱う場合、例えば、図24Aに示すように、表示画像50において、特定枠60Bの上方の位置にインジケータ60Aを表示させる等、表示制御部31は、インジケータ60Aを特定枠60Bから離れた位置に表示させてもよい。
また、インジケータ60Aの形状も特に限定されない。上記各形態では、インジケータ60Aの形状が円形状である場合について説明したが、例えば、図24Bに示すように、インジケータ60Aの形状が矩形状であってもよい。また、インジケータ60Aの形状と、色指定用マーク62の形状とを同一の形状としてもよいし、インジケータ60Aの形状と、特定枠60Bの形状とを同一の形状としてもよい。
[変形例5]
本変形例では、色指定用マーク62の変形例について説明する。上記では、色指定用マーク62が、表示画像50を囲む円環状の形状を有するマークである形態について説明した。しかしながら、色指定用マーク62の形状は円環状に限定されない。
例えば、図25Aに示すように、色指定用マーク62の形状が、円状であってもよく、いわゆるべた塗りの円形画像であってもよい。この場合、色指定用マーク62が重畳している部分の表示画像50の色が基準色として指定される。
また、例えば、図25Bに示すように、色指定用マーク62の形状は、矩形状であってもよい。また例えば、色指定用マーク62の形状と、特定枠60Bの形状とを同一の形状としてもよい。
[変形例6]
また、上記では、表示画像50及び選択画像56について、ライブビュー表示が可能なスルー画像である形態について説明したが、表示画像50及び選択画像56の少なくとも一方がスルー画像でなくてもよい。すなわち、表示画像50及び選択画像56の少なくとも一方が、過去に撮影されて、メモリーカード29またはストレージデバイス18のユーザ領域28等に保存された撮影画像(以下、保存画像という)の中から読み出された画像でもよい。
まず、表示画像50がスルー画像ではなく、保存画像である場合について説明する。図26Aには、表示画像50が保存画像である場合の、合成撮影処理のフローチャートが示されている。図26Aに示した合成撮影処理は、上記図6に示した合成撮影処理のステップS100に代えて、ステップS101A~S101Cの処理を含む。
ステップS101Aで表示制御部31は、保存されている保存画像の一覧を作成してタッチパネルディスプレイ12に表示する。保存画像の一覧は、例えば、保存画像のサムネイル画像等を並べて表示する形態が挙げられる。
ユーザUは、保存画像の一覧を参照し、合成対象画像54としたい画像が含まれている保存画像を選択するための操作指示を行う。一例として、本実施形態では、ユーザUによる保存画像を選択するための操作指示は、タッチパネルディスプレイ12に表示された保存画像のサムネイル画像等をユーザが1本の指でタッチすることにより行われる。主制御部26は、保存画像を選択するための操作指示を受け付けると、本操作指示の情報を表示制御部31に出力する。
次のステップS101Bで表示制御部31は、ユーザにより保存画像が選択されたか否かを判定する。保存画像の選択するための操作指示の情報が主制御部26から入力されるまで、ステップS101Bの判定が否定判定となる。一方、保存画像を選択するための操作指示の情報が主制御部26から入力された場合、ステップS101Bの判定が肯定判定となり、ステップS101Cへ移行する。
ステップS101Cで表示制御部31は、保存されている保存画像の中から、操作指示の情報に応じた1枚の保存画像を、表示画像50としてタッチパネルディスプレイ12に表示させる。
次のステップS102以降の処理は、上述の形態と同様である。なお、本例の場合は、主制御部26の制御の下、メモリーカード29またはユーザ領域28から保存画像が表示画像50として読み出される。読み出された表示画像50は画像メモリ17Aに記録される。メモリーカード29またはユーザ領域28から読み出される表示画像50は圧縮されている。画像処理部32は、画像メモリ17Aから表示画像50を読み出して、表示画像50に対して伸長処理を施す。抽出部32Aは、伸長処理が施された表示画像50から合成対象画像54を抽出する。
次に、選択画像56がスルー画像ではなく、保存画像である場合について説明する。図26Bには、選択画像56が保存画像である場合の、合成撮影処理のフローチャートが示されている。図26Bに示した合成撮影処理は、上記図6に示した合成撮影処理のステップS116に代えて、ステップS117A及びS117Bの処理を含む。
ステップS117Aで表示制御部31は、上記ステップS101Aと同様に、保存されている保存画像の一覧を作成してタッチパネルディスプレイ12に表示する。
ユーザUは、保存画像の一覧を参照し、選択画像56としたい保存画像を選択するための操作指示を、上述した保存画像の一覧から合成対象画像54としたい保存画像を選択するための操作指示と同様に行う。主制御部26は、保存画像を選択するための操作指示を受け付けると、本操作指示の情報を表示制御部31に出力する。
次のステップS117Bで表示制御部31は、上記ステップS101Bと同様に、ユーザにより保存画像が選択されたか否かを判定する。保存画像の選択するための操作指示の情報が主制御部26から入力されるまで、ステップS117Bの判定が否定判定となる。一方、保存画像を選択するための操作指示の情報が主制御部26から入力された場合、ステップS117Bの判定が肯定判定となり、ステップS118へ移行する。
次のステップS118以降の処理は、上述の形態と同様である。なお、本例の場合は、合成部32B、主制御部26の制御の下、メモリーカード29またはユーザ領域28に保存されている保存画像の中から、操作指示の情報に応じた1枚の保存画像を、選択画像56として読み出す。読み出された選択画像56は画像メモリ17Aに記録される。メモリーカード29またはユーザ領域28から読み出される選択画像56は圧縮されている。画像処理部32は、画像メモリ17Aから選択画像56を読み出して、選択画像56に対して伸長処理を施す。合成部32Bは、伸長処理が施された選択画像56に合成対象画像54を合成する。
なお、表示画像50及び選択画像56がスルー画像ではなく、保存画像である場合については、上記図26Aに示した合成撮影処理と、図26Bに示した合成撮影処理とを組み合わせればよい。
このように、過去の撮影画像を表示画像50として利用できれば、例えば、ユーザUが旅行先で見つけた被写体に基づいて、ユーザUが、過去に撮影した撮影画像に写し込まれたマークまたは文字列を連想した場合に、その被写体と、被写体から連想したマークまたは文字列との合成写真を得るといった楽しみ方が可能となる。また例えば、逆に、ユーザUが旅行先で見つけたマークまたは文字列の被写体に基づいて、ユーザUが、過去に撮影した撮影画像を連想した場合に、現被写体であるマークまたは文字列と、被写体から連想した撮像画像の合成写真を得るといった楽しみ方が可能となる。
また、合成撮影を行ってメモリーカード29またはユーザ領域28に記録した合成画像を、表示画像50及び選択画像56の少なくとも一方として利用してもよい。こうすれば、複数回の合成が可能となるので、さらに楽しみ方が広がる。
また、表示画像50及び選択画像56の少なくとも一方としては、メモリーカード29またはユーザ領域28に保存されている保存画像だけでなく、インターネット等を介してサーバからダウンロードした画像を表示画像50及び選択画像56の少なくとも一方として利用できるようにしてもよい。サーバから画像をダウンロードする場合も、一旦はメモリーカード29またはユーザ領域28に記録されるため、その後の処理は、メモリーカード29またユーザ領域28から保存画像を表示画像50及び選択画像56の少なくとも一方として利用する場合と同様である。
以上説明したように、上記各形態の携帯端末10では、特定領域52から抽出したい画像、すなわち、合成対象画像54としたい画像の色を、特定枠60B内の色指定用マーク62によって基準色として指定することで、ユーザUの所望の合成画像を生成することができる。従って、上記各実施形態の携帯端末10によれば、合成画像の作成を簡便にし、かつ合成にかかるユーザUの操作性が向上される。
なお、本開示の技術は、上記各形態は、本発明の趣旨を逸脱しない範囲で種々の変形が可能である。例えば、表示画像50からの合成対象画像54の抽出において、合成対象画像54が表示されている被写体が円筒形状等の湾曲した物体である場合がある。このような場合、抽出部32Aは、抽出した特定領域52から抽出した合成対象画像54に対し、曲面を平面化する平面化処理を施す形態としてもよい。このような平面化処理は、ユーザUによる操作指示に基づいて行ってもよいし、被写体の形状を判定し自動的に抽出部32Aが行ってもよい。
また、上記各形態において、撮影装置の一例として、スマートフォン等の携帯端末10を例に説明したが、スマートフォン以外でもよく、例えば、タブレット端末でもよいし、カメラ専用機である通常のデジタルカメラでもよい。
また、本開示の画像処理装置が組み込まれる装置は、携帯端末10に限定されず、例えば、汎用のパーソナルコンピュータ等に組み込まれる形態であってもよく、また、撮影機能を有さない装置に組み込まれる形態であってもよい。なお、撮影機能を有さない装置に組み込まれる場合、ライブビュー表示機能を有さない装置であるため、表示画像50及び選択画像56の双方が、スルー画像ではない画像、すなわち、静止画像となる。
また、写真合成アプリケーションプログラムを一例として示した画像処理プログラムは、携帯端末10の販売時に予めストレージデバイス18にインストールされていてもよいし、ユーザが携帯端末10を購入後、携帯端末10を使用してサーバにアクセスして、サーバから作動プログラムをダウロードしてインストールしてもよい。
また、本開示の携帯端末10が実行する合成撮影モードの処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
また、上記実施態形態において、図6に一例として示した合成撮影モードの複数のステップの組み合わせは、本開示の画像処理方法の一例に相当する。
また、上記実施形態において、例えば、主制御部、抽出部、合成部、及び表示制御部といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、下記に示す各種のプロセッサ(Processer)を用いることができる。各種プロセッサとしては、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field‐Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
また、上記各種処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、システムオンチップ(System On Chip:SOC)等のように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。
このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
また、本開示の技術は、撮影装置の作動プログラムに加えて、撮影装置の作動プログラムを非一時的に記憶するコンピュータで読み取り可能な記憶媒体(USBメモリ又はDVD(Digital Versatile Disc)-ROM(Read Only Memory)等)にもおよぶ。
10 携帯端末(撮影装置)
11 撮影部、11A 撮影レンズ、11B イメージセンサ、11C AD変換器(A/D)、11D 画像入力コントローラ、11E 画像信号処理回路、11F タイミングジェネレータ(TG)、11G ドライバ
12 タッチパネルディスプレイ
14 CPU
16 操作スイッチ
17 ワークメモリ、17A 画像メモリ
18 ストレージデバイス
19 メディアコントローラ
21 外部I/F
22 通信部
23 バスライン
26 主制御部
27 アプリケーションプログラム(AP)
28 ユーザ領域
29 メモリーカード
31 表示制御部
32 画像処理部、32A 抽出部、32B 合成部
50 表示画像
52 特定領域
54 合成対象画像
56 選択画像
60 インジケータ付特定枠60、60A インジケータ、60B 特定枠、60C 拡縮指示マーク
62 色指定用マーク
70 シャッタボタン
72 カラーパレット、72W 白色
73 設定ボタン
74 閾値設定ツール、74A スライダバー、74B スライダ
76 反転ボタン
80 シャツ
82、82A~82E 文字
B 背景
T 友人
U ユーザ

Claims (14)

  1. 表示部に表示されている表示画像における一部の領域を特定する特定枠と、前記特定枠内の画像に含まれる色の中から基準色を指定するための色指定用マークとを、前記表示画像に重畳させて表示させる表示制御部と、
    前記特定枠内の画像から、前記色指定用マークによって指定される前記基準色に応じた画像を合成対象画像として抽出する抽出部と、
    ユーザにより選択された選択画像に対して前記合成対象画像を合成した合成画像を生成する合成部と、
    を備えた画像処理装置。
  2. 前記色指定用マークは、前記特定枠内に表示され、かつ前記特定枠と前記色指定用マークとの相対的な位置関係が予め定められている、
    請求項1に記載の画像処理装置。
  3. 前記特定枠を拡大または縮小させるサイズ変更指示を受け付ける第1受付部をさらに備え、
    前記表示制御部は、前記第1受付部が受け付けた前記サイズ変更指示に応じて前記特定枠のサイズを変更する制御を行う、
    請求項1または請求項2に記載の画像処理装置。
  4. 前記特定枠の位置を移動する移動指示を受け付ける第2受付部をさらに備え、
    前記表示制御部は、前記第2受付部が受け付けた前記移動指示に応じて前記特定枠の位置を移動する制御を行う、
    請求項1から請求項3のいずれか1項に記載の画像処理装置。
  5. 前記色指定用マークは前記表示画像の特定の色の領域にのみに重畳しており、前記色指定用マークが重畳している部分の前記表示画像の色を前記基準色とする、
    請求項1から請求項4のいずれか1項に記載の画像処理装置。
  6. 前記表示制御部は、前記色指定用マークよりも大きな面積を有し、前記基準色を表すインジケータをさらに表示する、
    請求項5に記載の画像処理装置。
  7. 前記色指定用マークは前記表示画像の一部を囲む形状を有し、前記表示画像の特定の色の領域のみを囲んでおり、
    前記抽出部は、前記色指定用マークにより囲まれた前記表示画像の色を前記基準色とする、
    請求項1から請求項4のいずれか1項に記載の画像処理装置。
  8. 前記表示制御部は、前記色指定用マークにより囲まれる前記表示画像の領域よりも大きな面積を有し、かつ前記基準色を表すインジケータをさらに表示する、
    請求項7に記載の画像処理装置。
  9. 前記抽出部は、前記特定枠内の画像全体の階調を数値化し、階調の数値が、前記基準色が該当する階調の数値を含む基準色範囲内である画像を、前記合成対象画像として抽出する、
    請求項1から請求項8のいずれか1項に記載の画像処理装置。
  10. 前記基準色範囲をユーザが設定するための設定部をさらに備えた、
    請求項9に記載の画像処理装置。
  11. 被写体を撮影する撮影部と、
    前記撮影部が撮影した画像を表示する表示部と、
    請求項1から請求項10のいずれか1項に記載の画像処理装置と、
    を備えた撮影装置。
  12. 前記表示部には表示画像がライブビュー表示される、
    請求項11に記載の撮影装置。
  13. 表示部に表示されている表示画像における一部の領域を特定する特定枠と、前記特定枠内の画像に含まれる色の中から基準色を指定するための色指定用マークとを、前記表示画像に重畳させて表示させ、
    前記特定枠内の画像から、前記色指定用マークによって指定される前記基準色に応じた画像を合成対象画像として抽出し、
    ユーザにより選択された選択画像に対して前記合成対象画像を合成した合成画像を生成する、
    処理をコンピュータが実行する画像処理方法。
  14. 表示部に表示されている表示画像における一部の領域を特定する特定枠と、前記特定枠内の画像に含まれる色の中から基準色を指定するための色指定用マークとを、前記表示画像に重畳させて表示させ、
    前記特定枠内の画像から、前記色指定用マークによって指定される前記基準色に応じた画像を合成対象画像として抽出し、
    ユーザにより選択された選択画像に対して前記合成対象画像を合成した合成画像を生成する、
    処理をコンピュータに実行させるための画像処理プログラム。
JP2019167365A 2019-09-13 2019-09-13 画像処理装置、撮影装置、画像処理方法、及び画像処理プログラム Active JP7110163B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019167365A JP7110163B2 (ja) 2019-09-13 2019-09-13 画像処理装置、撮影装置、画像処理方法、及び画像処理プログラム
US17/008,477 US11734859B2 (en) 2019-09-13 2020-08-31 Image processing apparatus, imaging apparatus, image processing method, and image processing program
CN202010944029.0A CN112508770A (zh) 2019-09-13 2020-09-09 图像处理装置、摄影装置、图像处理方法及存储介质
US18/344,387 US20230342990A1 (en) 2019-09-13 2023-06-29 Image processing apparatus, imaging apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167365A JP7110163B2 (ja) 2019-09-13 2019-09-13 画像処理装置、撮影装置、画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2021044772A JP2021044772A (ja) 2021-03-18
JP7110163B2 true JP7110163B2 (ja) 2022-08-01

Family

ID=74862637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019167365A Active JP7110163B2 (ja) 2019-09-13 2019-09-13 画像処理装置、撮影装置、画像処理方法、及び画像処理プログラム

Country Status (3)

Country Link
US (2) US11734859B2 (ja)
JP (1) JP7110163B2 (ja)
CN (1) CN112508770A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113159008B (zh) * 2021-06-25 2021-09-17 湖南星汉数智科技有限公司 客票行程单构建方法、装置、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338604A (ja) 2005-06-06 2006-12-14 Sony Ericsson Mobilecommunications Japan Inc 通信端末装置及び画像通信方法
JP2007094623A (ja) 2005-09-28 2007-04-12 Fujifilm Corp 画像補正方法および装置並びにプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6324462A (ja) * 1986-07-17 1988-02-01 Toshiba Corp ウインドウ状態表示方式
JP2642368B2 (ja) 1987-12-28 1997-08-20 株式会社東芝 画像編集装置
CN101959021B (zh) * 2004-05-13 2015-02-11 索尼株式会社 图像显示装置及其图像显示方法
WO2006110765A1 (en) * 2005-04-11 2006-10-19 Fall Prevention Technologies, Llc Display of ocular movement
JP2011221812A (ja) * 2010-04-09 2011-11-04 Sony Corp 情報処理装置及び方法、並びにプログラム
US8965119B2 (en) * 2012-06-10 2015-02-24 Apple Inc. Color balance tools for editing images
US10600220B2 (en) * 2016-08-01 2020-03-24 Facebook, Inc. Systems and methods for content interaction
US11120495B2 (en) * 2016-09-15 2021-09-14 GlamST LLC Generating virtual makeup products
JP7013673B2 (ja) * 2017-04-13 2022-02-01 株式会社リコー 情報処理装置、情報処理システム、情報処理方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338604A (ja) 2005-06-06 2006-12-14 Sony Ericsson Mobilecommunications Japan Inc 通信端末装置及び画像通信方法
JP2007094623A (ja) 2005-09-28 2007-04-12 Fujifilm Corp 画像補正方法および装置並びにプログラム

Also Published As

Publication number Publication date
JP2021044772A (ja) 2021-03-18
CN112508770A (zh) 2021-03-16
US11734859B2 (en) 2023-08-22
US20230342990A1 (en) 2023-10-26
US20210082155A1 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
US10789671B2 (en) Apparatus, system, and method of controlling display, and recording medium
JP5451888B2 (ja) カメラベースのスキャニング
JP5384190B2 (ja) 撮像デバイス内でタッチ式調節を実行する方法及び装置
WO2018120238A1 (zh) 用于处理文档的设备、方法和图形用户界面
EP2822267A2 (en) Method and apparatus for previewing a dual-shot image
JP7477556B2 (ja) 撮影装置、撮影装置の作動プログラム及び作動方法
TW201530490A (zh) 圖像處理裝置及圖像處理方法
KR20120033246A (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
KR20140106779A (ko) 이미지 촬영장치 및 방법
CN110610531A (zh) 图像处理方法、图像处理装置和记录介质
US10460421B2 (en) Image processing apparatus and storage medium
JP5966584B2 (ja) 表示制御装置、表示制御方法およびプログラム
JP2011097565A (ja) グラフィック配置決定方法ならびにそのプログラムおよび情報処理装置
US20230342990A1 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2012133749A (ja) 画像処理装置、画像データ変換方法、プリント受注装置、プログラム
JP7256719B2 (ja) 画像処理装置、撮影装置、画像処理方法、及び画像処理プログラム
US9524702B2 (en) Display control device, display control method, and recording medium
CN113056905B (zh) 用于拍摄类长焦图像的系统和方法
JP2004153513A (ja) 画像処理装置及びプログラム
JP2005055973A (ja) 携帯情報端末
JP2012134897A (ja) 画調変換方法、画調変換装置、画調変換システム並びにプログラム
JP2021051256A (ja) 表示装置、表示方法、プログラム
JP2013110615A (ja) 画像処理装置
JP2013131801A (ja) 情報端末装置、撮像画像処理システム、方法、プログラムおよび記録媒体
JP2005078290A (ja) 画像領域選択方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220720

R150 Certificate of patent or registration of utility model

Ref document number: 7110163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150