JP5136669B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP5136669B2
JP5136669B2 JP2011061417A JP2011061417A JP5136669B2 JP 5136669 B2 JP5136669 B2 JP 5136669B2 JP 2011061417 A JP2011061417 A JP 2011061417A JP 2011061417 A JP2011061417 A JP 2011061417A JP 5136669 B2 JP5136669 B2 JP 5136669B2
Authority
JP
Japan
Prior art keywords
image
image quality
determined
unit
quality processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011061417A
Other languages
English (en)
Other versions
JP2012199675A (ja
Inventor
圭一 今村
Original Assignee
カシオ計算機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カシオ計算機株式会社 filed Critical カシオ計算機株式会社
Priority to JP2011061417A priority Critical patent/JP5136669B2/ja
Publication of JP2012199675A publication Critical patent/JP2012199675A/ja
Application granted granted Critical
Publication of JP5136669B2 publication Critical patent/JP5136669B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor
    • H04N5/23216Control of parameters, e.g. field or angle of view of camera via graphical user interface, e.g. touchscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor
    • H04N5/23248Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor for stable pick-up of the scene in spite of camera body vibration
    • H04N5/23251Motion detection
    • H04N5/23258Motion detection based on additional sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor
    • H04N5/23248Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor for stable pick-up of the scene in spite of camera body vibration
    • H04N5/23264Vibration or motion blur correction
    • H04N5/2328Vibration or motion blur correction performed by mechanical compensation
    • H04N5/23287Vibration or motion blur correction performed by mechanical compensation by shifting the lens/sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor
    • H04N5/23293Electronic viewfinders

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。

近年、撮影条件や画像処理条件を設定することにより、設定した撮影条件で撮像動作をしたり設定した画像処理条件で画像処理を実行することが可能なデジタルカメラの需要が高まりつつある。
このような撮影条件や画像処理条件を設定することの困難性に鑑み、撮影時の周囲の環境等に基づいて、撮影条件や画像処理設定条件を自動的に設定するデジタルカメラが知られている(例えば、特許文献1参照)。

特開2008−11289号公報

しかしながら、特許文献1に記載のデジタルカメラは、自動的に撮影条件や画像処理条件を設定するため、少々演出が強い画質にあえて仕上げるような条件を設定する。したがって、撮影された後に画像処理が施された結果得られる画像は、ユーザにとって必ずしも満足のいく画質になっていなかった。

一方で、撮影条件や画像処理条件の設定には多くの技術知識が必要である。このため、撮影条件や画像処理条件を手動で設定するモードを仮に設けた場合であっても、多くのユーザにとっては、的確な画質調整をすることは非常に困難であった。

本発明は、上記のような実情に鑑みてなされたものであり、ユーザの所望する画質を簡単に設定することが可能な画像処理装置、画像処理方法及びプログラムを提供することを目的とする。

上記目的を達成するため、本発明の一態様の画像処理装置は、
画像のデータを取得する取得手段と、
前記取得手段により取得された画像において、所定の領域の選択操作を受け付ける受付手段と、
前記選択操作によって選択された領域の画像に基づいて、前記取得手段により取得される画像のデータに対して施される画質処理を決定する画質処理決定手段と、
前記画質処理決定手段により決定された画質処理に関する情報を提示する提示手段と、
を備え、
前記取得手段は、撮像手段により取得された画像のデータを取得し、
前記取得手段により取得された前記画像のデータに基づいて、当該画像に含まれる1種類以上の対象領域を判別する判別手段と、
前記判別手段により判別された前記1種類以上の対象領域のうち、前記選択操作によって選択された領域を含む対象領域を、選択領域として決定する選択領域決定手段と、
前記判別手段により判別された前記1種類以上の対象領域に基づいて、前記画像を撮像する際の前記撮像手段の撮影環境を含む撮影状況を判定する判定手段と、
をさらに備え、
前記画質処理決定手段は、前記選択領域決定手段により決定された前記選択領域、及び、前記判定手段により判定された前記撮影状況に基づいて、前記取得手段により取得された前記画像のデータに対して施される前記画質処理を決定する、
ことを特徴とする。

本発明によれば、ユーザの所望する画質を簡単に設定することができる。

本発明の画像処理装置の一実施形態としての撮像装置1のハードウェアの構成を示すブロック図である。 図1の撮像装置の機能的構成のうち、撮影処理を実行するための機能的構成を示すブロック図である。 図1の撮像装置のROMに記憶されている参照テーブルの構造例を示している。 図1の撮像装置が実行する撮影処理の流れを説明するフローチャートである。 図4の撮影処理の開始時に表示されるライブビュー画像の一例である。 撮影環境が「人物+逆光等」である場合の図4の撮影処理中に表示されるライブビュー画像の一例である。 撮影環境が「人物+逆光等」である場合の図4の撮影処理中に表示されるライブビュー画像の一例である。 撮影環境が「人物+逆光等」である場合の図4の撮影処理中に表示されるライブビュー画像の一例である。 撮影環境が「夜景+人物」である場合の図4の撮影処理中に表示されるライブビュー画像の一例である。 撮影環境が「人物」である場合の図4の撮影処理中に表示されるライブビュー画像の一例である。

以下、本発明の実施形態について、図面を用いて説明する。

図1は、本発明の画像処理装置の一実施形態としての撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラとして構成される。

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、入力部18と、出力部19と、記憶部20と、角速度センサ21と、通信部22と、ドライブ23と、を備えている。

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムにしたがって各種の処理を実行する。

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。

画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。
例えば、画像処理部14は、撮像部17から出力される画像のデータに対して、後述の図2の画質処理情報設定部49により設定される画質処理情報に基づいてノイズ低減、ホワイトバランスの調整、手ぶれ補正等の各種画像処理を施す。

CPU11、ROM12、RAM13及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、入力部18、出力部19、記憶部20、角速度センサ21、通信部22及びドライブ23が接続されている。

撮像部17は、図示はしないがフォーカスレンズやズームレンズを含む光学レンズ部と、イメージセンサと、を備えている。

光学レンズ部は、被写体を撮影するために、フォーカスレンズやズームレンズ等の各種レンズで構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。
このような撮像部17の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11に適宜供給される。

このような撮像部17の動作は、CPU11によって、詳細には、後述の図2を参照して説明する撮像制御部51によって制御される。例えば、撮像制御部51は、撮像部17の各種撮像条件を設定する。例えば撮像制御部51は、撮像条件の1つとしてズーム倍率を設定し、設定したズーム倍率になるように、図示せぬレンズ駆動部を制御してズームレンズを駆動する。

入力部18は、電源ボタン、シャッタボタン等、各種ボタン及びタッチパネルで構成され、ユーザの指示操作に応じて各種情報を入力する。

タッチパネルの構造と方式については、特に限定されないが、抵抗膜方式や静電容量方式のタッチパネルが採用される。
抵抗膜方式のタッチパネルは、出力部19のディスプレイの表示画面上において、PET(Polyethylene terephthalate)のような柔らかい表面膜と、その奥にある液晶ガラス膜が並行に重ねられて形成される。双方の膜は、それぞれ透明な導電膜が貼り込まれており、透明なスペーサを介してそれぞれ電気的に絶縁されている。表面膜とガラス膜とはそれぞれ導体が通っており、表示画面に対して指或いはスタイラスペンのような突起物を接触させる操作(以下、「画面タッチ操作」と呼ぶ)をユーザが行うと、突起物による応力により表面膜が湾曲し、表面膜とガラス膜が部分的に導通状態となる。この時、突起物の接触位置に応じて電気抵抗値や電位が変化する。CPU11は、このような電気抵抗値や電位の変化に基づいて当該突起物の接触位置の座標を検出する。

出力部19は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。

角速度センサ21は、撮像装置1の動きを、物理的かつ直接的に検出し、角速度を示す動き検出信号(ブレ信号)をCPU11に対して、詳細には後述の図2の撮像制御部51に対して出力する。
撮像制御部51は、例えばブレ信号を解析することにより、撮像装置1が三脚(図示せず)を取り付けて撮影されているという付帯条件を満たすか否かを判定することができる。
「付帯条件」とは、撮影条件又は画像処理の条件に直接的に分類されない条件であるが、撮像部17の撮像動作や画像処理部14の画像処理の結果に対して、何らかの影響を及ぼす条件であれば足りる。付帯条件は、任意の数の任意の種類の条件から構成される。即ち、撮像装置1が三脚(図示せず)を取り付けて撮影されていないという条件(以下、「三脚なし」と呼ぶ)は、付帯条件の例示にしか過ぎない。
具体的には、撮像制御部51は、解析した結果、受信したブレ信号が所定の閾値よりも小さいと判定したときには、撮像装置1が三脚に取り付けられていると判定する。他方、撮像制御部51は、受信したブレ信号が所定の閾値よりも大きいと判定したときには、撮像装置1が三脚に取り付けられておらず、手で持って撮影されていると判定する。
なお、撮像制御部51は、角速度センサ21で検出されるブレ信号に応じて補正量を算出し、撮像部17に設けられたアクチュエータによってイメージセンサを駆動させてもよい。この場合、アクチュエータは、撮像制御部51からの補正量に応じてイメージセンサを光学レンズ部の光軸と直交する方向に駆動する。

通信部22は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
ドライブ23には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ23によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。

図2は、このような撮像装置1の機能的構成のうち、撮影処理を実行するための機能的構成を示すブロック図である。

ここでいう「撮影処理」とは、一般的な撮影処理を指すのではなく、次のような一連の処理をいう。即ち、撮像装置1は、撮影状況と、ユーザの画面タッチ操作とに基づいて、画質処理の設定に関する情報(以下、「画質処理情報」と呼ぶ)の中から、1以上の表示対象を決定し、当該1以上の表示対象を出力部19のディスプレイから表示させる。
ここで、画質処理とは、画像を撮像して記録するまでの間に実行される撮像装置1の処理のうち、当該画像の画質に影響を及ぼす処理をいう。ここでは、画像を撮像する前又は途中に撮像部17に対して実行される制御処理と、撮像部17から出力された撮像画像のデータ対して施す画像処理とが、画質処理の一例として採用されている。
ユーザは、このようにして表示された1以上の画質処理情報のうち、設定を所望する画質処理情報(それが表示されている画面内の領域)に対して画面タッチ操作を行う。
すると、撮像装置1は、画面タッチ操作が行われた画質処理情報を設定情報として設定する。そして、撮像装置1は、設定された設定情報に基づいて画質処理を実行する。

CPU11においては、撮影処理の実行が制御される場合、画像取得部41と、領域種別判別部42と、入力操作受付部43と、選択領域決定部44と、撮影状況判定部45と、画質処理決定部46と、画質処理情報提示部47と、表示制御部48と、画質処理情報設定部49と、が機能する。
また、CPU11においては、撮像部17を制御するために、撮像制御部51が機能する。

画像取得部41は、撮像部17から出力された撮像画像のデータを、ライブビュー画像のデータとして取得する。
即ち、CPU11等は、撮影処理の実行中やその前後に、ライブビュー撮像処理及びライブビュー表示処理を実行することで、ライブビュー画像を出力部19のディスプレイに表示させる。
具体的には、CPU11等は、例えば動作モードが撮像動作のモードに切り替えられると、撮像部17による撮像動作を継続させる。そして、CPU11等は、撮像部17による撮像動作が継続されている間、当該撮像部17から順次出力される撮像画像のデータを、メモリ(本実施形態では記憶部20)に一時的に記憶させる。このような一連の制御処理が、ここでいう「ライブビュー撮像処理」である。
また、CPU11等は、ライブビュー撮像処理の最中にメモリ(本実施形態では記憶部20)に一時的に記録された各撮像画像のデータを順次読み出して、当該撮像画像を出力部19に順次表示させる。このような一連の制御処理が、ここでいう「ライブビュー表示処理」である。また、ライブビュー表示処理により出力部19に表示されている撮像画像が、ここでいう「ライブビュー画像」である。
即ち、画像取得部41は、ライブビュー表示処理のうち、メモリに一時的に記憶されたライブビュー画像のデータを取得して、領域種別判別部42及び表示制御部48に供給する処理まで実行する。後述の表示制御部48は、当該ライブビュー画像を出力部19から表示出力する処理まで実行する。

領域種別判別部42は、画像取得部41によって供給されたライブビュー画像のデータについて、1種類以上の対象領域を判別する。
「対象領域」とは、ライブビュー画像内において、特徴的な対象を示す領域をいう。ここで、対象とは、一般的に前景となるオブジェクトのみならず、「太陽光」や「青空」といった背景となるもの等、他の被写体(オブジェクト)と対比可能なものをいう。本実施形態では、対象領域の種類としては、「風景」、「青空」、「緑」、「夕日」、「人物」、「夜景」、「逆光」、「マクロ」、「アクション」等の各種領域が採用されている。
具体的には、領域種別判別部42は、ライブビュー画像のデータのうち色情報等を用いて、コントラスト変化を算出し、その算出結果に基づいて、当該ライブビュー画像に含まれる「人物」や「緑」等を示す領域を対象領域として判別する。
なお、対象領域の判別手法は、特にこれに限定されない。背景画像のエッジの画素値を利用して輪郭線を検出し、輪郭線内の領域を対象領域として判別する、といった手法を採用してもよい。
領域種別判別部42は、ライブビュー画像のデータと共に、当該ライブビュー画像内から判別した対象領域を特定可能な情報、例えば対象領域の位置座標を含む情報を選択領域決定部44に供給する。

入力操作受付部43は、ユーザの入力部18に対する操作として、画像取得部41により取得されたライブビュー画像のデータに対し、所定の範囲の選択操作を受け付ける。
具体的には、ユーザは、出力部19の表示画面全体に表示されたライブビュー画像の中から、画質調整を行いたいと所望する所定範囲(入力部18のタッチパネル)に対して画面タッチ操作をすることで、当該所定範囲を選択することができる。
入力操作受付部43は、当該画面タッチ操作を受け付け、当該画面タッチ操作により選択された所定の範囲を認識し、その認識結果を選択領域決定部44に供給する。
なお、入力操作受付部43は、画面タッチ操作により所定の範囲を認識しているが、これに限られるものではなく、その他例えば、入力部18の選択範囲設定ボタン(図示せず)からの操作に基づき、所定の範囲を認識するようにしてもよい。

選択領域決定部44は、入力操作受付部43により認識された所定の範囲に基づいて、領域種別判別部42により判別された1以上の対象領域の中から、画質処理の処理対象としてユーザにより選択された領域(以下、「選択領域」と呼ぶ)を決定する。
具体的には、選択領域決定部44は、領域種別判別部42により判別された1以上対象領域の中から、入力操作受付部43により認識された所定の範囲を含む領域を、選択領域として決定する。
選択領域決定部44は、決定した選択領域を特定可能な情報を、画質処理決定部46に供給する。

撮影状況判定部45は、付帯条件及び撮影環境に関する状況(以下、「撮影状況」と呼ぶ)を判定する。
「付帯条件」としては、角速度センサ21により検出されるブレ信号に基づいて判断される、上述した「三脚なし」の条件の他、撮像制御部51により設定された撮像部17のズーム倍率が一定以上に高いという条件(以下、「高ズーム時」と呼ぶ)を採用することができる。
「撮影環境」とは、撮像装置1の画角内に現時点で含まれる内容から特定される環境である。より具体的には、領域種別判別部42により判別された、ライブビュー画像に含まれる1以上の対象領域に基づいて特定される環境である。本実施形態では、「風景」、「風景+青空」、「風景+緑」、「風景+夕日」、「人物」、「風景+人物」、「夜景」、「夜景+人物」、「人物+逆光」、「マクロ」、「アクション」、及び「風景+青空+緑+人物+アクション+逆光」が撮影環境として採用されている。
撮影状況判定部45は、判定した撮影状況を示す情報を、画質処理決定部46に供給する。

画質処理決定部46は、撮影状況判定部45により判定された撮影状況、及び選択領域決定部44により決定された選択領域に基づいて、画像取得部41により取得されたライブビュー画像のデータに対して施されるべき画質処理の1以上の候補を決定する。
具体的には、選択領域とは、上述したように、ライブビュー画像が表示されたディスプレイ(出力部19)の画面全体に重畳されるタッチパネル(入力部18)に対し、当該ライブビュー画像のうち、画質処理を行いたいと所望する範囲として画面タッチ操作された部位をいう。
そこで、以下、選択領域を「タッチ部位」とも呼ぶならば、画質処理決定部46は、ユーザによる画面タッチ操作により特定されたタッチ部位、並びに、撮影状況判定部45により判定された撮影環境及び付帯条件に基づいて、画質処理を決定する。さらに、画質処理決定部46は、決定した画質処理に関する情報(以下、「画質処理情報」と呼ぶ)を画質処理情報提示部47に提供する。

より具体的には、画質処理決定部46は、ROM12に記録された参照テーブルに基づいて、画質処理情報を決定して、画質処理情報提示部47に供給する。そこで、以下この参照テーブルについて説明する。

図3は、図1の撮像装置のROM12に記憶されている参照テーブルの構造例を示している。
参照テーブルとは、「撮影環境」、「タッチ部位」及び「付帯条件」の組み合わせ(以下、「条件組み合わせ」と呼ぶ)と、「メニュー」、「実際の処理」及び「デフォルト」の組み合わせとの関係を示すテーブルである。したがって、参照テーブルの構造は、このような関係を示すものであれば足り、特に限定されないが、本実施形態では図3に示すように行列構造となっている。
図3の参照テーブルの所定行には、「撮影環境」、「タッチ部位」及び「付帯条件」で特定される所定の1つの条件組み合わせが対応付けられている。そして、当該所定行には、当該条件組み合わせに対して適用される、「メニュー」、「実際の処理」、及び「デフォルト」が格納される。

具体的には、所定行に格納される「メニュー」とは、当該所定行に対応付けられた条件組み合わせに対して適用される、画質処理情報の内容を示す情報である。この「メニュー」が、後述の画質処理情報提示部47によって提示される画質処理情報の内容である。
所定行に格納される「実際の処理」とは、当該所定行に対応付けられた条件組み合わせに対して適用される、画質処理の内容を示す情報をいう。即ち、この「実際の処理」が、画像処理部14により実際行われる後述の画像処理、及び撮像制御部51により実際行われる撮像処理のそれぞれの内容を示す。
所定行に格納される「デフォルト」とは、当該所定行に対応付けられた条件組み合わせに対して適用される、当該所定行の「実際の処理」に格納された各画質処理の各々について、実行の許可/禁止の状態のデフォルト(初期設定)を示す。ここで、所定の画像処理の実行の許可は「ON」により示され、当該所定の画像処理の実行の禁止は「OFF」により示される。即ち、デフォルトでONが設定されている画像処理は、ユーザが当該設定を「OFF」に変更しない限り、実行されることになる。一方、デフォルトでOFFが設定されている画像処理は、ユーザが当該設定を「ON」に変更しない限り、実行されない(実効が禁止される)ことになる。

ここで注目すべき点は、図3に示すように、同じ「タッチ部位」が選択されたとしても、「撮影環境」や「付帯条件」に応じて、「メニュー(画質処理情報)」が異なる点である。
例えば、「タッチ部位」として「顔」が選択された場合であっても、「撮影環境」が「人物」である場合と、「撮影条件」が「人物+夜景」である場合とでは、「メニュー(画質処理情報)」が異なる。
具体的には、「撮影条件」が「人物」であって、「タッチ部位」が「顔」である場合には、「人物の顔をきれいに撮る」、「目をつぶっていない笑顔の瞬間をとらえる」、「ISO感度を上げて手ブレを防ぐ」という「メニュー(画質処理情報)」が決定される。
これに対して、「撮影環境」が「人物+夜景」であって、「タッチ部位」が「顔」である場合には、「フラッシュを発光して明るく写す」、「人物の顔をきれいに撮る」、「人物の顔のテカリを抑える」という「メニュー(画質処理情報)」が決定される。

また、「実際の処理」になり得る画質処理の種類は、図3に開示された例に特に限定されない。
但し本実施形態では、「実際の処理」となり得る画質処理としては、次の(1)乃至(10)の種類が採用される。なお、1の条件組み合わせに対して、「実際の処理」として対応付けられる画質処理の個数及び種類は特に限定されず、次の(1)乃至(10)の種類のうち、任意の数の任意の種類の組み合わせが対応付けられ得る。
(1)インテリジェントAF(フォーカスポイントの可変制御)
(2)人物メイクアップ
(3)風景メイクアップ(部分的彩度調整)
(4)全体彩度調整
(5)ホワイトバランス
(6)インテリジェントカラー(部分的色相調整)
(7)適応型ノイズリダクション
(8)適応型ISO感度制御〜シャッター速度制御
(9)適応型シャープネス
(10)ライティング(適応型ガンマカーブ調整)

画質処理情報提示部47は、画質処理決定部46により決定された画質処理情報をユーザに提示する制御を実行する。
ここで、提示の形態は、特に限定されず、例えば所定の音声により提示する形態を採用してもよいが、本実施形態では、画質処理情報を示すメニューを含む画像を出力部19のディスプレイに表示する形態が採用される。
具体的には、画質処理情報提示部47は、図3の適応テーブルを参照して、「撮影環境」、「タッチ部位」及び「付帯条件」の条件組み合わせに対応する「メニュー(画質処理情報)」を読み出し、画質処理情報設定部49及び表示制御部48に供給する。

表示制御部48は、画質処理情報提示部47により提示されたメニュー(画質処理情報)を示す画像のデータを、撮像部17から供給されたライブビュー画像のデータに重畳し、その結果得られるデータにより表現される画像(以下、「画質処理情報重畳画像」と呼ぶ)を、出力部19のディスプレイに表示させる制御を実行する。
なお、画質処理情報重畳画像のデータは、通信部22によって、図示せぬ外部機器に出力させることもできる。これにより、外部機器、例えば、テレビジョン受像機、パーソナルコンピュータ、プロジェクタ等でも、画質処理情報重畳画像の表示が可能になる。

画質処理情報設定部49は、画質処理情報提示部47により提示された複数の画質処理情報(メニュー)の中から、選択された画質処理情報を現在の設定情報として設定する。
画質処理情報設定部49は、設定した画質処理情報を撮像制御部51及び画像処理部14に供給する。なお、画質処理情報の設定の詳細については、後述の図5乃至図10を参照して説明する。

撮像制御部51は、画質処理情報設定部49により設定された画質処理情報に基づき、撮像部17の撮像動作の制御を実行する。

画像処理部14は、画質処理情報設定部49により設定された画質処理情報に基づき、画像処理を行う。具体的には、画像処理部14は、画質処理情報設定部49により画質処理情報の設定が行われると、その指示の時点のライブビュー画像として表示されている撮像画像のデータを記憶部20から取得する。そして、画像処理部14は、当該撮像画像(ライブビュー画像)のデータから、設定された画質処理情報に基づいて画質処理後の画像のデータを生成して、リムーバブルメディア31に記憶させる。

次に、図4を参照して、このような図2の機能的構成を有する撮像装置1が実行する処理のうち、撮影処理について説明する。
図4は、図2の機能的構成を有する図1の撮像装置1が実行する撮影処理の流れを説明するフローチャートである。

撮影処理は、ユーザの入力部18に対する所定操作により、撮像装置1の動作モードが撮影モードに切り替えられたことを契機として開始される。その後、所定の単位時間毎に繰り返し実行される。即ち、所定の単位時間毎に、次のような処理が繰り返し実行される。

ステップS11において、表示制御部48は、ライブビュー表示処理を開始する。これにより、ライブビュー画像が出力部19のディスプレイに表示される。
なお、本実施形態では、ステップS11の処理でライブビュー表示処理が開始されると、それ以降撮影処理が終了されるまでの間、ライブビュー画像が出力部19のディスプレイに表示され続けるものとする。また、領域種別判別部42は、ライブビュー画像表示処理が開始されると、画像取得部41により取得されたライブビュー画像のデータの中の対象領域の種別の判別を、フレーム単位で繰り返し実行し続ける。

ステップS12において、撮影状況判定部45は、現在の撮影状況を判定する。
即ち、撮影状況判定部45は、領域種別判別部42により判定された1種類以上の対象領域に基づいて、撮影状況のうち撮影環境を判定すると共に、角速度センサ21からのブレ信号や、撮像部17のズーム倍率に基づいて、撮影状況のうち付帯条件を判定する。

ステップS13において、撮像制御部51は、入力部18のシャッタボタンが押下されたか否かを判定する。
シャッタボタンが押下されていない場合、ステップS13においてNOであると判定されて、処理はステップS14に進む。

ステップS14において、入力操作受付部43は、画面タッチ操作が行われたか否かを判定する。
画面タッチ操作が行われていない場合には、ステップS14においてNOであると判定され、処理はステップS12に戻され、それ以降の処理が繰り返される。即ち、シャッタボタンが操作されず、かつ、画面タッチ操作が行われないと、ステップS11乃至S14のループ処理が繰り返し実行されて、撮影処理は待機状態となる。

その後、画面タッチ操作が行われた場合には、ステップS14においてYESであると判定されて、画面タッチ操作が行われた所定範囲が入力操作受付部43によって認識されて、処理はステップS15に進む。
ステップS15において、選択領域決定部44は、領域種別判別部42によってライブビュー画像の中から判別された1種類以上の対象領域のうち、ステップS14の処理で画面タッチ操作された所定範囲を含む対象領域を、選択領域として決定する。

ステップS16において、画質処理決定部46は、ステップS12の処理で判定された撮影状況と、ステップS15の処理で決定された選択領域とに基づいて、図3の参照テーブルを参照して画質処理情報(メニュー)を決定する。

ステップS17において、表示制御部48は、画質処理情報提示部47の制御の下、ステップS16の処理で決定された画質処理情報(メニュー)を出力部19のディスプレイに表示する。具体的には、表示制御部48は、当該画質処理情報(メニュー)ライブビュー画像に重畳して、即ち画質処理情報重畳画像として出力部19のディスプレイに表示させる。

ステップS18において、入力操作受付部43は、画面タッチ操作が行われたか否かを判定する。
ここで、このステップS18の処理で判定される画面タッチ操作は、ステップS14の処理で判定される画面タッチ操作とは意味づけが異なる。
即ち、詳細については図6以降の図面を参照して後述するが、ステップS17の処理で表示された画質処理情報(メニュー)とは、1以上の画質処理情報が各項目に分類されて表示され、各項目毎に、対応する画質処理情報が表わす画質処理の実行有無が「ON」/又は「OFF」として表示されることを意味する。ただし、ステップS17の処理で画質処理情報(メニュー)が表示された段階では、各項目毎の画質処理の実行有無の設定が確定されているわけではない。
そこで、ユーザは、表示されている画質処理情報(メニュー)のうち、設定の変更を所望する画質処理情報の項目に対して画面タッチ操作を行うことで、当該画質処理情報により表わされる画質処理の実行有無の設定を変更することができる。
一方、ユーザは、表示されている画質処理情報(メニュー)のままで、各項目に対応する画質処理の実行有無の設定が問題ないと判断した場合、当該画質処理情報(メニュー)以外の領域に対して画面タッチ操作を行うことで、現状の設定を維持することができる。この場合、画質処理情報(メニュー)の表示は消去される。なお、このように、当該画質処理情報(メニュー)以外の領域に対して行われる画面タッチ操作を、以下、「キャンセル操作」と呼ぶ。
このため、ステップS18においては、出力部19のディスプレイの画面全体の何れかの領域に対して、画面タッチ操作がなされていないか否かが判定される。
入力操作受付部43は、このような画面タッチ操作が行われていないと判定した場合(ステップS18:NO)には、処理をステップS18に再び戻す。即ち、画面タッチ操作が行われるまで、ステップS18の判定処理が繰り返し実行され、撮像処理が待機状態になる。
その後、ユーザにより画質処理情報重畳画像の画質処理情報内の領域に画面タッチ操作が行われた場合、ステップS18においてYESであると判定されて、処理はステップS19に進む。

ステップS19において、入力操作受付部43は、キャンセル操作がなされたか否かを判定する。
具体的には、画質処理情報重畳画像のうち、画質処理情報(メニュー)以外の領域に対して画面タッチ操作がなされた場合には、キャンセル操作が行われたとして、ステップS19においてYESであると判定されて、画質処理情報(メニュー)の表示が消去された後、処理はステップS12に戻され、それ以降の処理が繰り返される。
一方、画質処理情報重畳画像の画質処理情報(メニュー)内の何れかの領域に対して画面タッチ操作がなされた場合には、ステップS18においてYESであると判定された後にステップS19においてNOであると判定されて、処理はステップS20に進む。

ステップS20において、画質処理情報設定部49は、ステップS18の処理で画面タッチ操作がなされた画質処理情報について、その項目のON/OFF(設定)を反転し現在の画質処理情報として設定する。
この処理が終了すると、画質処理情報(メニュー)の表示が消去された後、処理はステップS12に戻され、それ以降の処理が繰り返される。

その後、シャッタボタンが操作された場合には、ステップS13においてYESであると判定されて、処理はステップS21に進む。
ステップS21において、撮像制御部51及び画像処理部14は、撮像記録処理を行う。
撮像記録処理とは、設定された画質処理情報に基づいて、当該画質処理情報に表わされる撮影条件で撮影動作を行い、その結果得られる撮像画像のデータに対して、当該画質処理情報に表わされる条件で画像処理を施し、当該画像処理後の撮像画像のデータをメモリ(図1のリムーバブルメディア31等)に記録させるまでの一連の処理をいう。
この処理が終了すると、撮像処理を終了する。
なお、ユーザが画面タッチ操作を何も行わずに(図4のステップS14:NO)、シャッタボタンを操作した場合(図4のステップS13:YES)には、撮像制御部51及び画像処理部14は、図3の参照テーブルを参照して、デフォルトの状態でそれぞれ撮像記録処理を実行する。

さらに、以下、図5乃至図10を参照して、撮影処理について具体的に説明する。

図5は、撮影処理の開始時に出力部19のディスプレイに表示されるライブビュー画像の一例を示している。
ユーザは、入力部18(図1)を操作して、撮像装置1の動作モードを撮像モードに切り替えることで、ステップS11(図4)のライブビュー表示処理を撮像装置1に開始させることができる。この時、領域種別判別部42は、画像取得部41から取得したライブビュー画像のデータに基づき、当該ライブビュー画像に含まれる1種類以上の対象領域を判別する。
対象領域の判別は、ライブビュー画像を「明度」、「色相」、「彩度」等の観点に基づき、領域毎に判別される。これにより、領域種別判別部42は、例えば、「人の顔」、「人の肌」、「暗部」、「青空」、「緑」、「夕日」、「夜の暗さ」等の各種の対象領域を判別することができる。図5の例では、対象領域121の種類は「緑」であると判別され、対象領域122の種類は「青空」であると判別され、対象領域123の種類は「人の肌」であるとそれぞれ判別される。

図6〜図8は、撮影環境が「人物+逆光等」である場合の図4の撮影処理中における出力部19のディスプレイに表示される画像、即ち対象領域として「人物」と「逆光」を少なくとも対象領域に含むライブビュー画像の一例を示している。

図6(A)に示すように、撮影状況判定部45により、現在の撮影環境が判定されると(図4のステップS12)、判定された撮影環境を示す撮影環境情報欄130が出力部19のディスプレイの下段に表示される。本実施形態においては、撮影環境として、「人物+逆光+青空+緑+太陽光」であると判定されたため、撮影環境情報欄130には、短縮された撮影環境の情報である「人物+逆光等」と表示されている。

図6(B)に示すように、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、ユーザの指101により「人の顔」を示す対象領域123に対し画面タッチ操作が行われると、当該対象領域123が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。

図6(C)に示すように、画質処理情報提示部47は、決定された選択領域に対して決定された画質処理情報(メニュー)132を出力部19のディスプレイに表示する(図4のステップS17)。
図6(C)の例では、選択領域として決定された「顔」が枠131により通知されると共に、この選択領域に対応する画質処理情報(メニュー)132がディスプレイに表示されている。
即ち、本例の場合、図3の参照テーブルを参照して、撮影環境が「人物+逆光+青空+緑+太陽光」であり、タッチ部位が「顔」であり、付帯条件がない場合により選択される画質処理情報(メニュー)132が表示される。即ち、画質処理情報(メニュー)132として、「フラッシュを発光して逆光を補正する」、「フラッシュを発光しないで逆光を補正する」、「人物の顔をきれいに撮る」、「目をつぶっていない笑顔の瞬間をとらえる」といった項目(各々の画質処理情報)が表示される。

図7(A)に示すように、引き続き、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、ユーザの指101により「青空」を示す対象領域122に対し画面タッチ操作が行われると、当該対象領域122が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。

図7(B)に示すように、画質処理情報提示部47は、決定された選択領域に対して決定された画質処理情報(メニュー)142を出力部19のディスプレイに表示する(図4のステップS17)。
図7(B)の例では、本実施形態においては、選択領域として決定された青空が枠141により通知されると共に、この選択領域に対応する画質処理情報(メニュー)142がディスプレイに表示されている。
即ち、本例の場合、図3の参照テーブルを参照して、撮影環境が「人物+逆光+青空+緑+太陽光」であり、タッチ部位が「青空」であり、付帯条件がない場合により選択される画質処理情報(メニュー)142が表示される。即ち、画質処理情報(メニュー)142として、「青空を強調する」、「青空を濃い青に変える」、「木陰向きのホワイトバランスにする」といった項目(各々の画質処理情報)が表示される。

図8(A)に示すように、引き続き、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、ユーザの指101により「緑」を示す対象領域121に対し画面タッチ操作が行われると、当該対象領域121が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。

図8(B)に示すように、画質処理情報提示部47は、決定された選択領域に対して決定された画質処理情報(メニュー)152を出力部19のディスプレイに表示する(図4のステップS17)。
図8(B)の例では、選択領域として決定された「緑」が枠151により通知されると共に、この選択領域に対応する画質処理情報(メニュー)152がディスプレイに表示されている。
即ち、本例の場合、図3の参照テーブルを参照して、撮影環境が「人物+逆光+青空+緑+太陽光」であり、タッチ部位が「緑」であり、付帯条件がない場合により選択される画質処理情報(メニュー)152が表示される。即ち、画質処理情報(メニュー)152として、「緑を爽やかな色にする」、「緑を濃い緑色に変える」、「木陰向きのホワイトバランスにする」といった項目が表示される。

図9は、撮影環境が「夜景+人物」である場合の図4の撮影処理中における出力部19のディスプレイに表示される画像、即ち対象領域として「夜景」と「人物」を対象領域に含むライブビュー画像の一例を示している。

図9(A)に示すように、撮影状況判定部45により、現在の撮影環境が判定されると(図4のステップS12)、判定された撮影環境を示す撮影環境情報欄160が出力部19のディスプレイの下段に表示される。本実施形態においては、撮影環境として、「夜景+人物」であると判定されたため、撮影環境情報欄160には、撮影環境の情報である「夜景+人物」と表示されている。

図9(B)に示すように、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、人の顔を示す対象領域に対し画面タッチ操作が行われると、当該対象領域が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。
そして、画質処理情報提示部47は、決定された選択領域に対して決定された画質処理情報(メニュー)162を出力部19のディスプレイに表示する(図4のステップS17)。
図9(B)の例では、選択領域として決定された顔が枠161により通知されると共に、この選択領域に対応する画質処理情報(メニュー)162がディスプレイに表示されている。
即ち、本例の場合、図3の参照テーブルを参照して、撮影環境が「夜景+人物」であり、タッチ部位が「顔」であり、付帯条件がない場合により選択される画質処理情報(メニュー)162が表示される。即ち、画質処理情報(メニュー)162として、「フラッシュを発光して明るく写す」、「人物の顔をきれいに撮る」、「人物の顔のテカリを抑える」といった項目(各々の画質処理情報)が表示される。

また、図9(C)に示すように、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、顔以外背景を示す対象領域に対し画面タッチ操作が行われると、当該対象領域が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。
そして、画質処理情報提示部47は、決定された選択領域に対して決定された画質処理情報(メニュー)172を出力部19のディスプレイに表示する(図4のステップS17)。
図9(C)の例では、選択領域として決定された顔以外背景が枠171により通知されると共に、この選択領域に対応する画質処理情報(メニュー)172がディスプレイに表示されている。
即ち、本例の場合、図3の参照テーブルを参照して、撮影環境が「夜景+人物」であり、タッチ部位が「顔以外背景」であり、付帯条件がない場合により選択される画質処理情報(メニュー)172が表示される。即ち、画質処理情報(メニュー)172として、「ISO感度を上げて手ブレを防ぐ」、「シャッター速度を遅くして背景を明るく」、「ノイズリダクションを弱くかける」、「ノイズリダクションを強くかける」といった項目(各々の画質処理情報)が表示される。

図10は、撮影環境が「人物」である場合の図4の撮影処理中における出力部19のディスプレイに表示される画像、即ち対象領域として「人物」を対象領域に含むライブビュー画像の一例を示している。

図10(A)に示すように、撮影状況判定部45により、現在の撮影環境が判定されると(図4のステップS12)、判定された撮影環境を示す撮影環境情報欄180が出力部19のディスプレイの下段に表示される。本実施形態においては、撮影環境として、「人物」であると判定されたため、撮影環境情報欄180には、撮影環境の情報である「人物」と表示されている。

図10(B)に示すように、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、人の顔を示す対象領域に対し画面タッチ操作が行われると、当該対象領域が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。
そして、画質処理情報提示部47は、決定された選択領域に対して決定された画質処理情報(メニュー)182を出力部19のディスプレイに表示する(図4のステップS17)。
図10(B)の例では、選択領域として決定された顔が枠181により通知されると共に、この選択領域に対応する画質処理情報(メニュー)182がディスプレイに表示されている。
即ち、本例の場合、図3の参照テーブルを参照して、撮影環境が「人物」であり、タッチ部位が「顔」であり、付帯条件がない場合により選択される画質処理情報(メニュー)182が表示される。即ち、画質処理情報(メニュー)182として、「人物の顔をきれいに撮る」、「目をつぶっていない笑顔の瞬間をとらえる」といった項目(各々の画質処理情報)が表示される。

また、図10(C)に示すように、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、顔以外を示す対象領域に対し画面タッチ操作が行われると、当該対象領域が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。
この場合、画質処理情報提示部47は、決定された選択領域に対応する枠191のみを出力部19のディスプレイに表示する(図4のステップS17)。
図10(C)の例では、選択領域として決定された顔以外が枠191により通知されるが、この選択領域に対応する画質処理情報(メニュー)は、図3の参照テーブルには存在しないため、画質処理情報(メニュー)は表示されない。
このように、同じ撮影環境において画面タッチ操作を行ったとしても、タッチ部位によって異なる画質処理情報(メニュー)が表示される。
また、人の顔を示す対象領域に対し画面タッチ操作を行ったとしても、図9の実施形態と、図10の実施形態とでは、異なる画質処理情報(メニュー)が表示される。即ち、画質処理情報(メニュー)は、同じタッチ部位を選択した場合であっても、撮影環境に応じて異なる画質処理情報(メニュー)が表示される。

以上説明したように、本実施形態の撮像装置1に適用される画像処理装置は、画像取得部41と、入力操作受付部43と、画質処理決定部46と、画質処理情報提示部47と、を備える。
画像取得部41は画像のデータを取得する。
入力操作受付部43は、画像取得部41により取得された画像のデータに対して、所定の範囲の選択操作を受け付ける。
画質処理決定部46は、入力操作受付部43により受け付けられた所定の範囲に基づいて画像取得部41により取得される画像のデータに対して施される画質処理を決定する。
画質処理情報提示部47は、画質処理決定部46により決定された画質処理に関する情報を提示する。
この場合、入力操作受付部43により受け付けられたユーザの選択に基づき、画質処理の情報(画質処理情報)を決定することができる。そして、決定された画質処理の情報(画質処理情報)が提示される。したがって、ユーザは、予め一律に規定された画質処理にとらわれずに、ユーザの広範な嗜好に応じた画質調整を行うことができる。
また、画質処理の情報(画質処理情報)は、ユーザが画質を変更したいと所望する選択した範囲に基づいて決定される。したがって、ユーザは、選択した範囲に対応する画質処理の情報(画質処理情報)の中から気に入った画質処理を選択すれば足りるので、誰でも簡単に自分の所望する画質調整を行うことができる。

また、本実施形態の撮像装置1に適用される画像表示装置の画像取得部41は、撮像部17により取得された画像のデータを取得する。
さらに、本実施形態の撮像装置1に適用される画像表示装置の画像取得部41は、領域種別判別部42と、選択領域決定部44と、撮影状況判定部45と、を備える。
領域種別判別部42は、画像取得部41により取得された画像のデータに基づいて、画像に含まれる1種類以上の対象領域を判別する。
選択領域決定部44は、領域種別判別部42により判別された1種類以上の対象領域のうち、入力操作受付部43により受け付けられた所定の範囲を含む対象領域を、選択領域として決定する。
撮影状況判定部45は、領域種別判別部42により判別された1種類以上の対象領域に基づいて、画像を撮像する際の撮像部17の撮影環境を含む撮影状況を判定する。
そして、画質処理決定部46は、選択領域決定部44により決定された選択領域、及び、撮影状況判定部45により判定された撮影環境に基づいて、画像取得部41により取得された画像のデータに対して施される画質処理を決定する。
この場合、画質処理の情報は、入力操作受付部43により受け付けられたユーザの選択に基づき決定された選択領域に加えて、さらに、撮影環境を含む撮影状況に基づいて決定されるため、画質処理の情報の決定がより正確なものとなる。したがって、ユーザは、正確に判断されて決定された画質処理の情報の中から気に入った画質処理を選択すれば足りるので、誰でも簡単に自分の所望する画質調整を行うことができる。

さらに、本実施形態の撮像装置1に適用される画像処理装置の撮影状況判定部45は、撮影環境に加えて、付帯条件を判定する。
この場合、画質処理の情報は、撮影環境に加えて付帯条件を含む撮影状況に基づいて決定されるため、画質処理の情報の決定がより正確なものとなる。したがって、ユーザは、正確に判断されて決定された画質処理の情報の中から気に入った画質処理を選択すれば足りるので、誰でも簡単に自分の所望する画質調整を行うことができる。

さらに、本実施形態の撮像装置1に適用される画像処理装置の撮影状況判定部45は、撮影時に角速度センサ21から送信されたブレ信号を含む撮影状況に応じて付帯条件を判定する。
この場合、付帯条件は、ブレ信号に基づいて判定されるため、画質処理の情報の決定がより正確なものとなる。したがって、ユーザは、正確に判断されて決定された画質処理の情報の中から気に入った画質処理を選択すれば足りるので、誰でも簡単に自分の所望する画質調整を行うことができる。

さらに、本実施形態の撮像装置1に適用される画像処理装置の撮影状況判定部45は、撮像部17のズーム倍率に応じて付帯条件を判定する。
この場合、付帯条件は、ズーム倍率に基づいて判定されるため、画質処理の情報の決定がより正確なものとなる。したがって、ユーザは、正確に判断されて決定された画質処理の情報の中から気に入った画質処理を選択すれば足りるので、誰でも簡単に自分の所望する画質調整を行うことができる。

また、本実施形態の撮像装置1に適用される画像表示装置は、画質処理情報提示部47により提示された情報の中から、入力操作受付部43により受け付けられた選択操作に基づいて選択された情報を現在の情報として設定する画質処理情報設定部49をさらに備える。この場合、入力操作受付部43により受け付けられたユーザの選択に基づき、画質処理の情報(画質処理情報)を設定することができる。そして、設定された画質処理の情報(画質処理情報)に基づき、画質処理が行われる。したがって、ユーザは、予め一律に規定された画質処理にとらわれずに、ユーザの広範な嗜好に応じた画質調整を行うことができる。

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。

上述の実施形態では、ズーム倍率に応じて付帯条件を判定しているがこれに限られない。例えば、撮像部17へ入射する光の量を調整するための絞りに基づき付帯条件を判定してもよい。

また、本実施形態の画像処理装置は、撮像装置1に適用しているがこれに限られるものではなく、画質処理を含む画像処理を行うことができる端末であれば、何れの端末にも適用することができる。

また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、撮像機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
画像のデータを取得する取得手段と、
前記取得手段により取得された画像のデータに対して、所定の範囲の選択操作を受け付ける受付手段と、
前記受付手段により受け付けられた前記所定の範囲に基づいて、前記取得手段により取得される画像のデータに対して施される画質処理を決定する画質処理決定手段と、
前記画質処理決定手段により決定された画質処理に関する情報を提示する提示手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記取得手段は、撮像手段により取得された画像のデータを取得し、
前記取得手段により取得された前記画像のデータに基づいて、当該画像に含まれる1種類以上の対象領域を判別する判別手段と、
前記判別手段により判別された前記1種類以上の対象領域のうち、前記受付手段により受け付けられた前記所定の範囲を含む対象領域を、選択領域として決定する選択領域決定手段と、
前記判別手段により判別された前記1種類以上の対象領域に基づいて、前記画像を撮像する際の前記撮像手段の撮影環境を含む撮影状況を判定する判定手段と、
をさらに備え、
前記画質処理決定手段は、前記選択領域決定手段により決定された前記選択領域、及び、前記判定手段により判定された前記撮影状況に基づいて、前記取得手段により取得された前記画像のデータに対して施される前記画質処理を決定する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記判定手段は、前記撮影環境に加えて、付帯条件を判定する
ことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記判定手段は、
撮影時に角速度センサから送信されたブレ信号を含む撮影状況に応じて前記付帯条件を判定する、
ことを特徴とする付記3に記載の画像処理装置。
[付記5]
前記判定手段は、
前記撮像手段のズーム倍率に応じて前記付帯条件を判定する、
ことを特徴とする付記3乃至4に記載の画像処理装置。
[付記6]
前記提示手段により提示された情報の中から、前記受付手段により受け付けられた選択操作に基づいて選択された情報を現在の情報として設定する画質処理情報設定手段をさらに備える
ことを特徴とする付記1乃至5に記載の画像処理装置。
[付記7]
画像を取得する画像処理装置が実行する画像処理方法において、
画像のデータを取得する取得ステップと、
前記取得ステップにおいて取得された画像のデータに対して、所定の範囲の選択操作を受け付ける受付ステップと、
前記受付ステップにおいて受け付けられた前記所定の範囲に基づいて、前記取得ステップにおいて取得される画像のデータに対して施される画質処理を決定する決定ステップと、
前記決定ステップにおいて決定された画質処理に関する情報を提示する提示ステップと、
を含むことを特徴とする画像処理方法。
[付記8]
画像を取得する画像処理装置を制御するコンピュータに、
画像のデータを取得する取得機能、
前記取得機能により取得された画像のデータに対して、所定の範囲の選択操作を受け付ける受付機能、
前記受付機能により受け付けられた前記所定の範囲に基づいて、前記取得機能により取得される画像のデータに対して施される画質処理を決定する決定機能、
前記決定機能により決定された画質処理に関する情報を提示する提示機能、
を実現させることを特徴とするプログラム。

1・・・撮像装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・画像処理部、15・・・バス、16・・・入出力インターフェース、17・・・撮像部、18・・・入力部、19・・・出力部、20・・・記憶部、21・・・角速度センサ、22・・・通信部、23・・・ドライブ、31・・・リムーバブルメディア、41・・・画像取得部、42・・・領域種別判別部、43・・・入力操作受付部、44・・・選択領域決定部、45・・・撮影状況判定部、46・・・画質処理決定部、47・・・画質処理情報提示部、48・・・表示制御部、49・・・画質処理情報設定部、51・・・撮像制御部

Claims (7)

  1. 画像のデータを取得する取得手段と、
    前記取得手段により取得された画像において、所定の領域の選択操作を受け付ける受付手段と、
    前記選択操作によって選択された領域の画像に基づいて、前記取得手段により取得される画像のデータに対して施される画質処理を決定する画質処理決定手段と、
    前記画質処理決定手段により決定された画質処理に関する情報を提示する提示手段と、
    を備え
    前記取得手段は、撮像手段により取得された画像のデータを取得し、
    前記取得手段により取得された前記画像のデータに基づいて、当該画像に含まれる1種類以上の対象領域を判別する判別手段と、
    前記判別手段により判別された前記1種類以上の対象領域のうち、前記選択操作によって選択された領域を含む対象領域を、選択領域として決定する選択領域決定手段と、
    前記判別手段により判別された前記1種類以上の対象領域に基づいて、前記画像を撮像する際の前記撮像手段の撮影環境を含む撮影状況を判定する判定手段と、
    をさらに備え、
    前記画質処理決定手段は、前記選択領域決定手段により決定された前記選択領域、及び、前記判定手段により判定された前記撮影状況に基づいて、前記取得手段により取得された前記画像のデータに対して施される前記画質処理を決定する、
    ことを特徴とする画像処理装置。
  2. 前記判定手段は、前記撮影環境に加えて、付帯条件を判定する
    ことを特徴とする請求項に記載の画像処理装置。
  3. 前記判定手段は、
    撮影時に角速度センサから送信されたブレ信号を含む撮影状況に応じて前記付帯条件を判定する、
    ことを特徴とする請求項に記載の画像処理装置。
  4. 前記判定手段は、
    前記撮像手段のズーム倍率に応じて前記付帯条件を判定する、
    ことを特徴とする請求項2乃至3の何れか1項に記載の画像処理装置。
  5. 前記提示手段により提示された情報の中から、選択操作に基づいて選択された情報を現在の情報として設定する画質処理情報設定手段をさらに備える
    ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 画像を取得する画像処理装置が実行する画像処理方法において、
    画像のデータを取得する取得ステップと、
    前記取得ステップにおいて取得された画像において、所定の領域の選択操作を受け付ける受付ステップと、
    前記選択操作によって選択された領域の画像に基づいて、前記取得ステップにおいて取得される画像のデータに対して施される画質処理を決定する決定ステップと、
    前記決定ステップにおいて決定された画質処理に関する情報を提示する提示ステップと、
    を含み、
    前記取得ステップは、撮像ステップにおいて取得された画像のデータを取得し、
    前記取得ステップにおいて取得された前記画像のデータに基づいて、当該画像に含まれる1種類以上の対象領域を判別する判別ステップと、
    前記判別ステップにおいて判別された前記1種類以上の対象領域のうち、前記選択操作によって選択された領域を含む対象領域を、選択領域として決定する選択領域決定ステップと、
    前記判別ステップにおいて判別された前記1種類以上の対象領域に基づいて、前記画像を撮像する際の前記撮像ステップの撮影環境を含む撮影状況を判定する判定ステップと、
    をさらに含み、
    前記決定ステップは、前記選択領域決定ステップにおいて決定された前記選択領域、及び、前記判定ステップにおいて判定された前記撮影状況に基づいて、前記取得ステップにおいて取得された前記画像のデータに対して施される前記画質処理を決定する、
    ことを特徴とする画像処理方法。
  7. 画像を取得する画像処理装置を制御するコンピュータに、
    画像のデータを取得する取得機能、
    前記取得機能により取得された画像において、所定の領域の選択操作を受け付ける受付機能、
    前記選択操作によって選択された領域の画像に基づいて、前記取得機能により取得される画像のデータに対して施される画質処理を決定する決定機能、
    前記決定機能により決定された画質処理に関する情報を提示する提示機能、
    を実現させるためのプログラムであって、
    前記取得機能は、撮像機能により取得された画像のデータを取得し、
    前記取得機能により取得された前記画像のデータに基づいて、当該画像に含まれる1種類以上の対象領域を判別する判別機能、
    前記判別機能により判別された前記1種類以上の対象領域のうち、前記選択操作によって選択された領域を含む対象領域を、選択領域として決定する選択領域決定機能、
    前記判別機能により判別された前記1種類以上の対象領域に基づいて、前記画像を撮像する際の前記撮像機能の撮影環境を含む撮影状況を判定する判定機能、
    をさらにを実現させ、
    前記決定機能は、前記選択領域決定機能により決定された前記選択領域、及び、前記判定機能により判定された前記撮影状況に基づいて、前記取得機能により取得された前記画像のデータに対して施される前記画質処理を決定する、
    ことを特徴とするプログラム。
JP2011061417A 2011-03-18 2011-03-18 画像処理装置、画像処理方法及びプログラム Active JP5136669B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011061417A JP5136669B2 (ja) 2011-03-18 2011-03-18 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2011061417A JP5136669B2 (ja) 2011-03-18 2011-03-18 画像処理装置、画像処理方法及びプログラム
CN201210065462.2A CN102685379B (zh) 2011-03-18 2012-03-13 具有设定画质的功能的图像处理装置以及方法
CN201410245812.2A CN104065879B (zh) 2011-03-18 2012-03-13 摄像装置和摄像方法
US13/422,292 US8547449B2 (en) 2011-03-18 2012-03-16 Image processing apparatus with function for specifying image quality, and method and storage medium
US14/035,068 US8760534B2 (en) 2011-03-18 2013-09-24 Image processing apparatus with function for specifying image quality, and method and storage medium

Publications (2)

Publication Number Publication Date
JP2012199675A JP2012199675A (ja) 2012-10-18
JP5136669B2 true JP5136669B2 (ja) 2013-02-06

Family

ID=46816696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011061417A Active JP5136669B2 (ja) 2011-03-18 2011-03-18 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (2) US8547449B2 (ja)
JP (1) JP5136669B2 (ja)
CN (2) CN104065879B (ja)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5402409B2 (ja) * 2009-08-31 2014-01-29 ソニー株式会社 撮影条件設定装置、撮影条件設定方法及び撮影条件設定プログラム
EP2732383B1 (en) 2011-07-12 2018-04-04 Snap Inc. Methods and systems of providing visual content editing functions
KR101843450B1 (ko) * 2011-08-23 2018-03-29 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
KR20140021821A (ko) * 2012-08-09 2014-02-21 삼성전자주식회사 이미지 캡처 장치 및 이미지 캡처 방법
WO2014031899A1 (en) 2012-08-22 2014-02-27 Goldrun Corporation Augmented reality virtual content platform apparatuses, methods and systems
JP5854280B2 (ja) * 2012-10-03 2016-02-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
TWI502983B (zh) * 2012-11-02 2015-10-01 Wistron Corp 影像擷取裝置以及影像擷取方法
US8775972B2 (en) 2012-11-08 2014-07-08 Snapchat, Inc. Apparatus and method for single action control of social network profile access
KR102063915B1 (ko) 2013-03-14 2020-01-08 삼성전자주식회사 사용자 기기 및 그 동작 방법
KR101443031B1 (ko) * 2013-04-04 2014-09-23 주식회사 슈프리마 얼굴 인식 서비스 제공 방법
US9742713B2 (en) 2013-05-30 2017-08-22 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9705831B2 (en) 2013-05-30 2017-07-11 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US10439972B1 (en) 2013-05-30 2019-10-08 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
KR20150019985A (ko) 2013-08-12 2015-02-25 삼성전자주식회사 이미지의 동적 범위 향상을 위한 방법 및 장치
JP6286944B2 (ja) * 2013-08-28 2018-03-07 ソニー株式会社 情報処理装置、撮像装置、情報処理方法、およびプログラム
US9083770B1 (en) 2013-11-26 2015-07-14 Snapchat, Inc. Method and system for integrating real time communication features in applications
CA2863124A1 (en) 2014-01-03 2015-07-03 Investel Capital Corporation User content sharing system and method with automated external content integration
US9628950B1 (en) 2014-01-12 2017-04-18 Investment Asset Holdings Llc Location-based messaging
US9215411B2 (en) * 2014-02-03 2015-12-15 Google Inc. Enhancing video conferences
CN103885706B (zh) * 2014-02-10 2017-07-28 广东欧珀移动通信有限公司 一种人脸图像美化的方法及装置
US10082926B1 (en) 2014-02-21 2018-09-25 Snap Inc. Apparatus and method for alternate channel communication initiated through a common message thread
US8909725B1 (en) 2014-03-07 2014-12-09 Snapchat, Inc. Content delivery network for ephemeral objects
CN103942515B (zh) * 2014-04-21 2017-05-03 北京智谷睿拓技术服务有限公司 关联方法和关联设备
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
US9225897B1 (en) * 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US10055717B1 (en) 2014-08-22 2018-08-21 Snap Inc. Message processor with application prompts
JP6467827B2 (ja) * 2014-09-02 2019-02-13 カシオ計算機株式会社 撮像装置、画像処理装置、表示制御装置、画像補正方法及びプログラム
US10423983B2 (en) 2014-09-16 2019-09-24 Snap Inc. Determining targeting information based on a predictive targeting model
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
KR20160051390A (ko) * 2014-11-03 2016-05-11 삼성전자주식회사 전자장치 및 전자장치의 필터 제공 방법
US9015285B1 (en) 2014-11-12 2015-04-21 Snapchat, Inc. User interface for accessing media at a geographic location
US9854219B2 (en) 2014-12-19 2017-12-26 Snap Inc. Gallery of videos set to an audio time line
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
CN105812645B (zh) * 2014-12-29 2019-12-24 联想(北京)有限公司 一种信息处理方法及电子设备
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US10133705B1 (en) 2015-01-19 2018-11-20 Snap Inc. Multichannel system
US9521515B2 (en) 2015-01-26 2016-12-13 Mobli Technologies 2010 Ltd. Content request by location
US10223397B1 (en) 2015-03-13 2019-03-05 Snap Inc. Social graph based co-location of network users
WO2016149594A1 (en) 2015-03-18 2016-09-22 Allen Nicholas Richard Geo-fence authorization provisioning
US9781393B2 (en) * 2015-03-27 2017-10-03 Olympus Corporation Imaging apparatus, control method of imaging apparatus, and non-transitory storage medium storing control program of imaging apparatus
US9881094B2 (en) 2015-05-05 2018-01-30 Snap Inc. Systems and methods for automated local story generation and curation
US10135949B1 (en) 2015-05-05 2018-11-20 Snap Inc. Systems and methods for story and sub-story navigation
CN104965235B (zh) * 2015-06-12 2017-07-28 同方威视技术股份有限公司 一种安检系统及方法
JP6529355B2 (ja) * 2015-06-18 2019-06-12 キヤノン株式会社 撮像制御装置、その制御方法およびプログラム
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US10474321B2 (en) 2015-11-30 2019-11-12 Snap Inc. Network resource location linking and visual content sharing
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
US10638256B1 (en) 2016-06-20 2020-04-28 Pipbin, Inc. System for distribution and display of mobile targeted augmented reality content
US9681265B1 (en) 2016-06-28 2017-06-13 Snap Inc. System to track engagement of media items
US10430838B1 (en) 2016-06-28 2019-10-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections with automated advertising
US10387514B1 (en) 2016-06-30 2019-08-20 Snap Inc. Automated content curation and communication
US20180026925A1 (en) 2016-07-19 2018-01-25 David James Kennedy Displaying customized electronic messaging graphics
CN109952610A (zh) 2016-11-07 2019-06-28 斯纳普公司 图像修改器的选择性识别和排序
US10203855B2 (en) 2016-12-09 2019-02-12 Snap Inc. Customized user-controlled media overlays
US10319149B1 (en) 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
US10074381B1 (en) 2017-02-20 2018-09-11 Snap Inc. Augmented reality speech balloon system
US10523625B1 (en) 2017-03-09 2019-12-31 Snap Inc. Restricted group content collection
US10581782B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US10582277B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
US10499191B1 (en) 2017-10-09 2019-12-03 Snap Inc. Context sensitive presentation of content
CN107948538B (zh) * 2017-11-14 2020-02-21 Oppo广东移动通信有限公司 成像方法、装置、移动终端和存储介质
CN108174097A (zh) * 2017-12-29 2018-06-15 广东欧珀移动通信有限公司 图片拍摄、拍摄参数提供方法及装置
US10327096B1 (en) 2018-03-06 2019-06-18 Snap Inc. Geo-fence selection system
US10219111B1 (en) 2018-04-18 2019-02-26 Snap Inc. Visitation tracking system

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5625415A (en) * 1993-05-20 1997-04-29 Fuji Photo Film Co., Ltd. Apparatus and method for automatic focusing in a camera system
JPH11136568A (ja) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd タッチパネル操作式カメラ
JPH11355617A (ja) * 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 画像表示器付きカメラ
JP4245699B2 (ja) * 1998-09-16 2009-03-25 オリンパス株式会社 撮像装置
JP4123608B2 (ja) * 1998-12-14 2008-07-23 ソニー株式会社 撮像装置
JP4511066B2 (ja) * 2001-03-12 2010-07-28 オリンパス株式会社 撮像装置
JP2003234916A (ja) * 2002-02-08 2003-08-22 Seiko Epson Corp 画像処理装置、画像処理方法、印刷装置、画像処理プログラムおよび画像処理プログラムを記録した媒体
JP2004208028A (ja) * 2002-12-25 2004-07-22 Minolta Co Ltd 撮像装置
JP2004348674A (ja) * 2003-05-26 2004-12-09 Noritsu Koki Co Ltd 領域検出方法及びその装置
JP4279083B2 (ja) * 2003-08-18 2009-06-17 富士フイルム株式会社 画像処理方法および装置、並びに画像処理プログラム
JP2006238076A (ja) * 2005-02-25 2006-09-07 Fuji Photo Film Co Ltd 撮影装置
JP4733419B2 (ja) * 2005-04-26 2011-07-27 富士フイルム株式会社 合成画像データ生成装置およびその制御方法ならびにその制御プログラム
JP4840848B2 (ja) * 2005-09-21 2011-12-21 ソニー株式会社 撮影装置、情報処理方法、並びにプログラム
JP4218670B2 (ja) * 2005-09-27 2009-02-04 オムロン株式会社 前方撮影装置
US8488847B2 (en) * 2005-11-25 2013-07-16 Nikon Corporation Electronic camera and image processing device
JP4703498B2 (ja) 2006-06-30 2011-06-15 三洋電機株式会社 デジタルカメラ
TWI399081B (zh) * 2006-10-16 2013-06-11 Casio Computer Co Ltd 攝像裝置、連續攝影方法、以及記憶有程式之記憶媒體
JP2008118383A (ja) * 2006-11-02 2008-05-22 Matsushita Electric Ind Co Ltd デジタルカメラ
JP4930302B2 (ja) * 2007-09-14 2012-05-16 ソニー株式会社 撮像装置、その制御方法およびプログラム
US8259208B2 (en) * 2008-04-15 2012-09-04 Sony Corporation Method and apparatus for performing touch-based adjustments within imaging devices
JP2010147808A (ja) * 2008-12-18 2010-07-01 Olympus Imaging Corp 撮像装置および撮像装置における画像処理方法
JP5313043B2 (ja) * 2009-05-22 2013-10-09 オリンパスイメージング株式会社 撮影条件制御装置、カメラ、プログラム
JP2011054075A (ja) * 2009-09-04 2011-03-17 Olympus Imaging Corp 画像制御装置およびプログラム
JP5550305B2 (ja) * 2009-10-22 2014-07-16 キヤノン株式会社 撮像装置
JP2011107899A (ja) 2009-11-16 2011-06-02 Sony Corp 情報処理装置、設定変更方法及び設定変更プログラム
CN101860668A (zh) * 2010-01-15 2010-10-13 英华达(上海)科技有限公司 数码相机及其操作方法
US20110242395A1 (en) * 2010-04-01 2011-10-06 Sanyo Electric Co., Ltd. Electronic device and image sensing device
JP2012015889A (ja) * 2010-07-02 2012-01-19 Sony Corp 画像処理装置および画像処理方法
JP5855862B2 (ja) * 2011-07-07 2016-02-09 オリンパス株式会社 撮像装置、撮像方法およびプログラム

Also Published As

Publication number Publication date
CN102685379A (zh) 2012-09-19
US8760534B2 (en) 2014-06-24
US20120236162A1 (en) 2012-09-20
US20140022409A1 (en) 2014-01-23
JP2012199675A (ja) 2012-10-18
CN102685379B (zh) 2014-11-19
CN104065879A (zh) 2014-09-24
US8547449B2 (en) 2013-10-01
CN104065879B (zh) 2017-09-08

Similar Documents

Publication Publication Date Title
US9407831B2 (en) Intelligent auto-exposure bracketing
US9678657B2 (en) Imaging apparatus, imaging method, and computer-readable storage medium providing a touch panel display user interface
TWI549501B (zh) An imaging device, and a control method thereof
US9712751B2 (en) Camera field of view effects based on device orientation and scene content
CN102685379B (zh) 具有设定画质的功能的图像处理装置以及方法
US8629915B2 (en) Digital photographing apparatus, method of controlling the same, and computer readable storage medium
US9596398B2 (en) Automatic image capture
TWI425826B (zh) 影像選擇裝置、影像選擇方法
US10021307B2 (en) Processing apparatus for camera shake correction
JP4761146B2 (ja) 撮像装置及びそのプログラム
JP5409189B2 (ja) 撮像装置及びその制御方法
JP4254873B2 (ja) 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
CN101465972B (zh) 在数字图像处理装置中使图像背景模糊的设备和方法
US9578260B2 (en) Digital photographing apparatus and method of controlling the digital photographing apparatus
US8385607B2 (en) Imaging apparatus, image processing apparatus, image processing method and computer program
US9210318B2 (en) Imaging device and imaging method
US9106836B2 (en) Imaging apparatus, control method for the same, and recording medium, where continuous shooting or single shooting is performed based on touch
JP4884417B2 (ja) 携帯型電子装置及びその制御方法
US8890993B2 (en) Imaging device and AF control method
US8749687B2 (en) Apparatus and method of capturing jump image
KR100821048B1 (ko) 손떨림 보정 기능을 갖는 촬상 장치, 손떨림 보정 방법,및, 손떨림 보정 처리 프로그램을 기록한 기록 매체
KR101578600B1 (ko) 이미지 처리 장치, 이미지 처리 방법 및 컴퓨터로 읽을 수 있는 기록 매체
JP2007306416A (ja) 顔検出枠の表示方法、文字情報の表示方法及び撮像装置
KR20080109666A (ko) 촬상 장치, 촬상 방법, 및 컴퓨터 프로그램
US20120275648A1 (en) Imaging device and imaging method and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121029

R150 Certificate of patent or registration of utility model

Ref document number: 5136669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3