JP6412743B2 - 撮影支援装置、撮影支援システム、撮影支援方法及び撮影支援プログラム - Google Patents

撮影支援装置、撮影支援システム、撮影支援方法及び撮影支援プログラム Download PDF

Info

Publication number
JP6412743B2
JP6412743B2 JP2014174198A JP2014174198A JP6412743B2 JP 6412743 B2 JP6412743 B2 JP 6412743B2 JP 2014174198 A JP2014174198 A JP 2014174198A JP 2014174198 A JP2014174198 A JP 2014174198A JP 6412743 B2 JP6412743 B2 JP 6412743B2
Authority
JP
Japan
Prior art keywords
photographer
unit
image
photographing
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014174198A
Other languages
English (en)
Other versions
JP2016051904A (ja
Inventor
佐藤 明伸
明伸 佐藤
義浩 横前
義浩 横前
石井 謙介
謙介 石井
剛 八道
剛 八道
野中 修
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014174198A priority Critical patent/JP6412743B2/ja
Publication of JP2016051904A publication Critical patent/JP2016051904A/ja
Application granted granted Critical
Publication of JP6412743B2 publication Critical patent/JP6412743B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、例えば被撮影者と撮影者とが最近一緒に撮影されていなければ、被撮影者と撮影者とが一緒に撮影されることを勧める撮影支援装置、撮影支援システム、撮影支援方法及び撮影支援プログラムに関する。
カメラ等の撮影装置のユーザは、例えば家族又は友人等と共に旅行に出かけると、その旅行先の観光地等において、撮影装置を操作して家族又は友人等と共に記念の写真撮影を行うことが多い。ユーザは、旅行に限らず、遊園地等の施設に出かけたり、各種イベントに出かけたときも、家族又は友人等と記念の写真撮影を行うことがある。このような写真撮影では、ユーザは、家族又は友人等と一緒に写真撮影されるものである。又、ユーザは、旅行先の観光地や遊園地等の施設、各種イベントにおいても、当該施設等において一人で写真撮影されることもある。撮影者が家族又は友人等や観光地の景色等を撮影することに夢中になり、撮影者自身が写真に写っていないということは、しばしば起こることである。
特許文献1は、現在地情報を取得し、この現在地情報をサーバに送信し、このサーバから現在地付近から撮影可能な撮影対象と該撮影対象を撮影するための現在地付近の好適な撮影ポイントを含む撮影支援情報を取得し、この撮影支援情報を提示することを開示する。
特開2005−45398号公報
特許文献1は、現在地付近から撮影可能な撮影対象と、この撮影対象を撮影するための現在地付近の好適な撮影ポイントとを提示するが、以前に、ユーザがその家族又は友人等と共に一緒に写真撮影したことがあることをユーザにアドバイスしてくれるような機能を備えるものではない。
本発明は、ユーザが家族又は友人等や風景と共に一緒に写真に写ることを勧める支援情報を提示する撮影支援装置、撮影支援システム、撮影支援方法及び撮影支援プログラムを提供することを目的とする。
本発明に係る撮影支援装置は、撮影者を判定する撮影者判定部と、撮影画像に含まれる対象物を判定する対象物判定部と、前記撮影者と前記対象物との両方が含まれる画像の情報を検索する検索部と、前記検索部が行った検索結果に基づいて前記撮影者と前記対象物との両方が含まれる画像の取得を勧める支援情報の提示を行う支援部とを具備する。
本発明に係る撮影支援システムは、前記撮影支援装置と、影者を含む画像と対象物の画像とを取得する撮影機器とを具備する。
本発明に係る撮影支援方法は、撮影者を判定することと、撮影画像に含まれる対象物を判定することと、前記撮影者と前記対象物との両方が含まれる画像の情報を検索することと、前記検索の結果に基づいて前記撮影者と前記対象物との両方が含まれる画像の取得を勧める支援情報の提示を行うこととを含む。
本発明に係る撮影支援プログラムは、コンピュータに、撮影者を判定する撮影者判定機能と、撮影画像に含まれる対象物を判定する対象物判定機能と、前記撮影者と前記対象物との両方が含まれる画像の情報を検索する検索機能と、前記検索機能による検索結果に基づいて前記撮影者と前記対象物との両方が含まれる画像の取得を勧める支援情報の提示を行う支援機能とを実現させる。
本発明によれば、ユーザが家族又は友人等や風景と共に一緒に写真に写ることを勧める支援情報を提示する撮影支援装置、撮影支援システム、撮影支援方法及び撮影支援プログラムを提供できる。
図1は、本発明に係る撮影支援装置の第1の実施の形態を示すブロック構成図である。 図2Aは、同装置に設けられた撮影部を示す撮影支援装置の外観図である。 図2Bは、同装置における撮影部の光学系を示す構成図である。 図3は、同装置におけるカメラ制御フローチャートである。 図4は、本発明に係る撮影支援装置の第2の実施の形態を示すブロック構成図である。 図5Aは、同装置の通常撮影モードにおける状態を示す図である。 図5Bは、同装置の通常撮影モードから自分撮りモードへの切り換えを示す図である。 図5Cは、同装置の自分撮りモードにおける状態を示す図である。 図6は、同装置におけるカメラ制御フローチャートである。 図7は、本発明に係る撮影支援システムの第3の実施の形態を示すブロック構成図である。 図8Aは、同システムを示す正面図である。 図8Bは、同システムを示す背面図である。 図9は、同システムのカメラ制御フローチャートである。 図10は、同システムの端末制御フローチャートである。 図11は、同システムのレンズ型カメラにより取得されたスルー画像が端末装置のディスプレイに表示されたところを示す図である。 図12は、同システムによる一緒に撮影することの支援の表示を示す図である。 図13は、同システムによる撮影者及び被撮影者による撮影状況の一例を示す図である。
[第1の実施の形態]
以下、本発明の第1の実施の形態について図面を参照して説明する。
図1は撮影支援装置を適用した撮影装置(以下、本装置と称する)1のブロック構成図を示す。図2A及び図2Bは本装置1における撮影部2の具体的な構成図を示すもので、図2Aは本装置1に設けられた撮影部2を示し、図2Bは撮影部2の光学系の構成図を示す。
この撮影装置1は、撮影部2と、カメラ制御部3と、表示部4と、操作部5と、プログラム格納部6と、記録部7とを有する。このうちカメラ制御部3には、撮影部2と、表示部4と、操作部5と、プログラム格納部6と、記録部7とが接続されている。
なお、本装置1では、撮影部2は、図2Aに示すように本装置1の本体の上面に設けられている。この撮影部2は、図2Bに示すように撮像光学系20と、撮像素子21とを有する。これら撮像光学系20と撮像素子21とは、同一光軸上に設けられている。撮像光学系20は、例えば複数枚のレンズから成り、水平方向の略360°の全方位に亘る被写体からの光を撮像素子21へと導き、ドーナツ形に被写体像を結像させる。又、撮像光学系20は、ドーナツ形(無端の帯状に形成された輪状の形状)に被写体像を結像させると共に、天頂方向の被写体からの光を撮像素子21へと導き、上述のドーナツ形の被写体像の中空部に円形状に被写体像を結像させる。このようにして、撮像光学系20は、全方位の被写体像を撮像素子21に結像させる。図2Bには被写体から撮像素子21に至る光路Pの一例が示されている。
なお、撮影部2による撮影領域は、略360°の全方位に亘る帯状の撮影領域に限るものでなく、又厳密に全方位である必要もない。魚眼レンズ又は広角レンズでも使い方によっては、全方位の撮影が可能である。本実施の形態では、厳密な全方位の撮影領域は勿論のこと、上述のドーナツ形の帯状の撮影領域であっても全方位の撮影領域として説明する。
撮影部2は、例えば、上述のドーナツ形に結像された水平方向の略360°(以下、全方位と称する)の被写体の像に係る画像信号を出力する。本装置1は、この画像信号に基づいて、例えばパノラマ画像を作成する。また、本装置1は、この画像信号に基づいて、全方位のうち、一部の方向の画像を切り出して、画像を作成する。
図2Aに示すように、本装置1において、表示部4が設けられた面を背面とする。又、本装置1では、例えば図2Aに示すように表示部4が設けられた背面側にB方向を設定し、当該B方向の反対側にF方向を設定する。撮影者(ユーザ)Tが本装置1を操作して被撮影者(友人等)Qを撮影する場合、撮影者Tは、本装置1の背面側である主にB方向を含む所定の角度範囲内に存在し、被撮影者Qは、撮影者Tが存在する所定の角度範囲外に存在するものとなる。なお、被撮影者Qは、所定の角度範囲外の主にF方向に存在することが多い。例えば本装置1は、F方向を含む所定の範囲内の画像を取得することにより、被撮影者Qが写った写真を取得する。
本装置1により撮影される被撮影者Qは、例えば本装置1のユーザの友人である。被撮影者Qは、ユーザの友人に限らず、家族等であってもよいし、又は被撮影者Qに代えて風景等を対象物としてもよい。
表示部4は、ライブビュー画像の表示、又は撮影によって取得された画像等を表示するもので、例えば液晶ディスプレイや有機ELディスプレイなどから成る。
操作部5は、撮影者Tによって手動操作される各種の操作部材、例えば被写体に対するピント調整を行う操作部材と、被写体の明るさを調整するための絞りに対する操作を行う操作部材とを備える。さらに、操作部5は、操作部材としてレリーズボタンと、動画ボタンと、モードダイヤルと、選択キーと、電源ボタン等を備える。この操作部5は、これら操作部材に対する操作を判定してその操作判定信号をカメラ制御部3に送る。
プログラム格納部6には、写真撮影の支援を行うための撮影支援プログラムが格納されている。この撮影支援は、現時点よりも以前(過去に)に、撮影者Tが被撮影者Qと一緒に、又は撮影者Tが一人で所定の風景を背景として写真撮影したことがあるが、最近は被撮影者Qと一緒に、又は当該風景を背景として写真撮影をしていないことをアドバイスするものである。この撮影支援プログラムは、コンピュータから成るカメラ制御部3に、撮影者Tを含む画像に基づいて撮影者Tを識別する撮影者判定機能と、被写体の画像に含まれる被撮影者Qを識別する対象物判定機能と、撮影者Tと被撮影者Qとの両方が含まれる画像の情報を検索する検索機能と、検索機能による検索結果に基づいて、現在から遡って所定の期間内に取得された撮影者Tと被撮影者Qとの両方が含まれる画像が見つからなかったとき、撮影者Tと被撮影者Qとの両方が含まれる画像の取得を勧める支援情報の提示を行う支援機能とを実現させる。
記録部7には、本装置1の撮影により取得された画像が記録される。又、記録部7には、被写体の情報が記録される被写体データベース(被写体DB)70が形成されている。この被写体データベース70には、撮影者Tの欄71と、被撮影者Qを含む対象物の欄72と、撮影日付の欄73とが含まれる。なお、これら撮影者Tの欄71と、対象物の欄72と、撮影日付の欄73とは、レコードNo.「1」「2」「3」・・・ごとに記録される。
撮影者Tの欄71には、撮影者Tを示す情報、例えば撮影者Tとして第1の撮影者T1、又は第2の撮影者T2等が記録される。第1の撮影者T1と第2の撮影者T2とは、互いに別人であり、ここでは撮影者Tは、第1の撮影者T1と第2の撮影者T2とが存在したことを示す。なお、撮影者Tは、2人の第1と第2の撮影者T1、T2に限らず、3人以上の撮影者が存在することもあり得る。又、撮影者Tは、第1の撮影者T1、第2の撮影者T2等を含むものとする。
又、撮影者Tの欄71には、第1又は第2の撮影者T1、T2等の顔部の各画像データが記録される。
対象物の欄72には、被撮影者Qを示す情報、例えば被撮影者Qとして第1の被撮影者Q1、第2の被撮影者Q2等が記録される。又、対象物の欄72には、第1の被撮影者Q1、第2の被撮影者Q2等の顔部の各画像データが記録される。例えば撮影者T1と友人である被撮影者Q1とが一緒に写真に写っているとき、レコードNo.「1」に示すように、対象物の欄72には、T1及びQ1が記録される。
この対象物の欄72には、被撮影者Qの情報に限らず、例えば撮影者Tが自分一人で全方位撮影をして画像データを取得した場合には、当該撮影者Tの背景画像、例えば風景等が記録される。又、この対象物の欄72には、これらただ単に風景等の画像が記録される場合もある。なお、被撮影者Qは、第1の被撮影者Q1、第2の被撮影者Q2等を含むものとする。
撮影日付の欄73には、撮影者Tの欄71に記録されている画像の撮影日時を示す情報、又は対象物の欄72に記録されている画像の撮影日時を示す情報、例えば撮影日時「○年○月○日」が記録される。
このような被写体データベース70は、撮影者Tの欄71と、対象物の欄72と、撮影日付の欄73とがリスト化されて撮影者Tと、対象物と、撮影日付とが記録される。例えば、レコード「1」には、撮影者T1と被撮影者Q1との2人が画像に写り、かつ当該画像の撮影日時が「○年○月○日」であることが記録されている。
カメラ制御部3は、本装置1の全体を制御するもので、撮影制御部31と、表示制御部32と、操作制御部33と、被写体抽出部34と、記録検索部35と、支援部36とを有する。
撮影制御部31は、撮影部2を駆動制御し、この撮から出力される全方位撮影の画像データに対してホワイトバランス補正やガンマ補正などの画像処理を施し、例えば撮影前のライブビューの画像信号を出力したり、又はレリーズボタンが押し操作されたときの撮影画像の画像信号を出力する。
表示制御部32は、撮影制御部31の画像処理された画像信号を表示部4での表示に適した画像信号に変換して表示部4に送る。これにより、表示部4には、ライブビューの画像が表示されたり、又は撮影画像が表示される。
操作制御部33は、操作部5から出力される操作判定信号を取得し、当該操作判定信号に従った制御信号を撮影制御部31、表示制御部32、操作制御部33、被写体抽出部34、記録検索部35、又は支援部36に送る。例えば、この操作制御部33は、例えば操作部5から被写体に対するピント調整の操作信号、又は被写体の明るさを調整する絞りの操作信号を取得すると、当該操作信号に応じた制御信号を撮影制御部31に送る。この操作制御部33は、表示部4に表示される画像の明るさを調整する操作信号であれば、当該操作の制御信号を表示制御部32に送る。
被写体抽出部34は、撮影部2によって撮影される撮影領域内、ここでは撮影部2から出力される全方位撮影の画像データに基づく画像からトリミングされた記録画像内に含まれている被撮影者Q、又は当該被撮影者Q及び撮影者T等を抽出する。この被写体抽出部34は、顔認識部34aと、撮影者判定部34bと、対象物判定部34cとを有する。
顔認識部34aは、撮影部2から出力される全方位撮影の画像データ内に対して人物の顔認識を行い、この顔認識によって人物の顔部の存在を認識すると、当該顔部の画像データを全方位撮影の画像データから抽出する。当該顔部の画像データの抽出では、複数の顔部を認識すると、これら顔部の画像データを全て抽出する。
この被写体抽出部34は、図2Aに示すように撮影者Tが本装置1の背面側である主にB方向を含む所定の角度範囲(以下、本装置1の背面側と称する)に存在し、被撮影者Qが撮影者Tとは反対側であるF方向を含む所定の角度範囲(以下、本装置1の正面側と称する)に存在するものとして、撮影者T及び風景等の対象物を認識する。
従って、撮影者判定部34bは、撮から出力される全方位撮影の画像データにおいて、人物の顔部が認識された位置が全方位撮影の画像データのうち本装置1の背面側であるのか否かを判定し、この判定の結果、本装置1の背面側であれば、人物の顔部が撮影者の顔部であると判定する。
対象物判定部34cは、撮から出力される全方位撮影の画像データにおいて、人物の顔部が認識された位置が全方位撮影の画像データのうち本装置1の正面側であるのか否かを判定し、この判定の結果、本装置1の正面側であれば、人物の顔部が対象物の顔部であることを判定する。なお、この対象物判定部34cは、被撮影者Qの顔部を判定するのに限らず、風景、又は花等を対象物として判定してもよい。
なお、撮影者判定部34bにより人物の顔部が撮影者Tの顔部であると判定され、又、対象物判定部34cにより人物の顔部が被撮影者Qの顔部であると判定された後、上記顔認識部34aは、撮影者Tの顔部と被撮影者Qの顔部との顔認識を行い、これら撮影者Tと被撮影者Qとの各顔部との各特徴、例えば眼部、鼻部、口部等の特徴を認識し、これら認識の結果から例えば複数人の撮影者Tと被撮影者Q、例えば複数の撮影者T1、T2等と、複数の被撮影者Q1、Q2等とを認識する。この顔認識部34aは、当該認識した複数の撮影者T1、T2等と、複数の被撮影者Q1、Q2等とに係る情報を被写体データベース70に記録する。
記録検索部35は、被写体抽出部34により抽出された撮影者T及び被撮影者Qを取得し、これら撮影者T及び被撮影者Qを共に含むレコードを被写体データベース70から検索する。記録検索部35は、検索結果に基づいて、検索結果の画像が撮影された撮影日時を取得する。例えば撮影者Tが撮影者T1であり、被撮影者Qが被撮影者Q1であるとき、これら撮影者T1及び被撮影者Q1が共に記録されているレコードとして、レコード「1」を被写体データベース70から検索し、かつこれら撮影者T1及び被撮影者Q1が共に撮影された撮影日時「○年○月○日」を取得する。これにより、記録検索部35は、撮影日時「○年○月○日」に撮影者T1及び被撮影者Q1が一緒に撮影されている画像が記録されていると判定する。
支援部36は、記録検索部35の検索結果、例えば被写体データベース70に記録されていると判定された画像中の撮影者T1と対象物である撮影者T1及び被撮影者Q1とその撮影日時「○年○月○日」とを取得すると、当該撮影日時「○年○月○日」に基づいて、所定の条件に該当する場合、例えば現在から遡って所定期間内に撮影者T1と被撮影者Q1との両方が含まれる画像の情報が検索されると、撮影者T1及び被撮影者Q1が再度一緒に撮影することを勧める支援情報を表示部4に表示する。なお、この支援情報は、音声により発せられてもよい。
この再度の撮影を勧める支援情報の表示は、撮影者T1及び被撮影者Q1の撮影日時「○年○月○日」から現時点までの経過時間に基づいて行うか、又は行わないのかが判定される。現時点までの経過時間は、任意に設定可能であり、例えば1年以上である。
次に、上記の如く構成された装置の動作について図3に示すカメラ制御フローチャートに従って説明する。
カメラ制御部3は、ステップS101において、電源がオン(ON)であるか否かを判定する。この判定の結果、電源がオンでなければ、カメラ制御部3は、ステップS113において、スタンバイ状態になる。その後、カメラ制御部3は、ステップS101に戻る。すなわち、カメラ制御部3は、電源がオンになるまで、スタンバイの状態を繰り返す。電源がオンであるとき、カメラ制御部3は、ステップS102において、撮影モードに設定されているか否かを判定する。
上記判定の結果、撮影モードに設定されていないと、カメラ制御部3は、ステップS114において、他のモードの処理を実行する。ここでは、他のモードの処理とは、例えば記録されている画像を再生する再生モード等である。他のモードの処理については、その説明を省略する。ステップS114の後、処理はステップS101に戻る。
一方、撮影モードに設定されていると、カメラ制御部3は、ステップS103において、スルー画像を取得し、ステップS104において、当該スルー画像を表示部4に表示させる。具体的に、スルー画像の表示では、撮影部2は、撮影制御部31の駆動制御によって被写体からの光像を電気的信号に変換し、全方位の画像データを出力する。撮影制御部31は、撮から出力される全方位撮影の画像データを取得し、この画像データに対してホワイトバランス補正やガンマ補正などの画像処理を施し、適宜にトリミングを行い、ライブビューの画像信号を出力する。表示制御部32は、撮影制御部31から出力されたライブビューの画像信号を取得し、この画像信号を表示部4での表示に適した画像信号に変換して表示部4に送る。これにより、表示部4には、ライブビューの画像が表示される。
顔認識部34aは、撮影部2から出力される全方位撮影の画像データ内から人物の顔部を認識し、当該顔部の画像データを抽出する。この顔部の画像データの抽出では、画像データ内に複数の顔部が存在すると、これら顔部の全ての画像データを抽出する。
撮影者判定部34bは、ステップS105において、全方位撮影の画像データにおいて、人物の顔部が認識された位置が全方位撮影の画像データのうち本装置1の背面側であるのか否かを判定する。この判定の結果、人物の顔部が認識された位置が本装置1の背面側であれば、撮影者判定部34bは、当該人物の顔部が撮影者Tの顔部であると判定する。
一方、対象物判定部34cは、ステップS106において、人物の顔部が認識された位置が本装置1の正面側であるのか否かを判定する。この判定の結果、人物の顔部が認識された位置が本装置1の正面側であれば、対象物判定部34cは、当該人物の顔部が対象物の顔部であると判定する。
又、顔認識部34aは、撮影者Tの顔部と対象物である被撮影者Qの顔部とに対して顔認識を行い、これら撮影者Tの顔部と被撮影者Qの顔部との各特徴、例えば眼部、鼻部、口部等の特徴を認識し、当該認識結果から例えば撮影者T(T1)として認識すると共に、被撮影者Q(Q1)として認識する。
記録検索部35は、ステップS107において、被写体抽出部34により抽出された例えば撮影者T1及び被撮影者Q1を取得し、これら撮影者T1及び被撮影者Q1が共に対象物として記録されているレコードを被写体データベース70から検索する。ここでは記録検索部35は、レコード「1」を被写体データベース70から抽出し、かつこれら撮影者T1及び被撮影者Q1が共に撮影された撮影日時「○年○月○日」を取得する。この検索の結果、記録検索部35は、撮影日時「○年○月○日」に撮影者T1及び被撮影者Q1が一緒に撮影されている画像が既に記録されていると判定する。
支援部36は、ステップS108において、記録検索部35の検索結果、例えば被写体データベース70に既に記録されていると判定された画像中の撮影者T1及び被撮影者Q1とその撮影日時「○年○月○日」とを取得すると、当該撮影日時「○年○月○日」から現時点までの経過時間が所定の時間以上であるか、例えば1年以上経過しているかを判定する。判定の結果、1年以上経過していないと判定されたとき、カメラ制御部3は、ステップS110に進む。
一方、この判定の結果、例えば1年以上経過していると、支援部36は、ステップS109において、撮影者T1及び被撮影者Q1が再度、一緒に並んで撮影することを勧める支援情報を表示部4に表示させる。なお、この支援情報は、音声により発せられてもよい。
カメラ制御部3は、ステップS110において、撮影者Tが操作部5のレリーズボタンを操作したか否か、すなわち撮影操作が行われたか否かを判定する。撮影操作が行われていないと判定されると、カメラ制御部3は、ステップS101に戻る。
一方、この判定の結果、レリーズボタンが操作されると、カメラ制御部3は、ステップS111において、撮影動作を行う。すなわち、撮影部2からは、被写体からの光像に対応する全方位の画像データを出力する。撮影制御部31は、ステップS112において、撮影部2から出力される全方位の画像データに対してホワイトバランス補正やガンマ補正などの画像処理を施し、適宜にトリミングを行い、レリーズボタンが操作された時点での画像処理の施された画像データを記録部7に記録する。
この撮影制御部31は、画像データを記録部7に記録するとき、被写体データベース70に新たなレコードを作成し、当該画像データに含まれる撮影者T1を被写体データベース70の撮影者Tの欄71に記録し、被撮影者Q1を同リストの対象物の欄72に記録し、かつ当該画像データの撮影日時を同リストの撮影日付の欄73に記録する。
なお、記録部7に記録された画像データによる画像は、表示制御部32によって表示部4に表示される。
このように上記第1の実施の形態によれば、被撮影者Qと撮影者Tとの両者が含まれる画像の撮影日時を取得し、最近の撮影から所定の期間以上経過しているときは、被撮影者Qと撮影者Tとの両者が並んで一緒に写真に写ることが勧められる。これにより、被撮影者Qと撮影者Tとが長らく並んで一緒に写真を撮られていないという状況が起こることが避けられる。このように、被撮影者Qと撮影者Tとの両者が並んで一緒に写真に写ることを勧める支援情報によって、ユーザである撮影者Tに対して被撮影者Qと一緒に最近写真に写っていないということを気かさせることができる。また、撮影者Tは、機械である撮影装置1による判断、すなわち事実に基づく、客観的、一般的なデータに基づく判断に後押しされるため、被撮影者Qと一緒に写真に写るための行動をするにあたり、心理的な障壁を超えやすい。
[第2の実施の形態]
次に、本発明の第2の実施の形態について図面を参照して説明する。なお、図1と同一部分には同一符号を付してその詳しい説明は省略する。
図4は撮影支援装置を適用した撮影装置(本装置)1のブロック構成図を示す。図5Aは、本装置1の外観の概略を示す。本装置1は、撮影部2が本装置1の本体(以下、装置本体と称する)1aの正面に設けられている。この撮影部2には、上記全方位に亘る帯状の撮影領域を持つレンズに代わって標準レンズが設けられている。
又、本装置1は、撮影者自身を撮影の対象とする自分撮りモードを有する。図5A乃至図5Cは撮影モードと自分撮りモードとの切り換えを示すもので、図5Aは通常撮影モードに設定された状態を示し、図5B及び図5Cは自分撮りモードに設定された状態を示す。装置本体1aには、表示部4が図5Bに示す矢印H方向に回転自在に設けられている。なお、この表示部4と装置本体1aとは、装置本体1aの一側部に設けられたヒンジ1aaによって支持されている。このような撮影者自身が撮影しながらそれを確認できる構造を持っている撮影機器であれば、このような機能を使いこなす機会を増やすことで、ユーザの満足度を向上させることが可能である。そこで、図5Cのような撮影を促すような工夫は、顧客満足度を向上させる意味でも重要である。
表示部4には、撮影モード検出部80が設けられている。この撮影モード検出部80は、通常撮影モードと自分撮りモードとの切り換えの検出を行い、当該切り換えられた通常撮影モード又は自分撮りモードを示すモード信号をカメラ制御部3に送る。撮影モード検出部80は、装置本体1aに対する表示部4の回転角度を検出する角度センサを備え、この角度センサにより検出される表示部4の回転角度に応じて表示部4が図5Aに示すように装置本体1aの背面側に重ね合わされた状態にあるのか、又は図5Cに示すように装置本体1aに対して展開した状態にあるのかを判定し、この判定結果に応じて通常撮影モード信号又は自分撮りモード信号をカメラ制御部3に送る。
撮影モード検出部80は、表示部4が矢印H方向に回転し、例えば図5Aに示すように装置本体1aの背面側に重ね合わされた配置状態を検出すると、当該配置状態を通常撮影モードとして検出し、その撮影モード信号をカメラ制御部3に送る。当該通常撮影モードでは、表示部4は、装置本体1aの背面側に設けられ、背面側のB方向に向いて設けられる。
又、撮影モード検出部80は、上記同様に、表示部4が矢印H方向に回転し、例えば図5Cに示すように装置本体1aに対して展開した配置状態を検出すると、当該配置状態を自分撮りモードとして検出してその自分撮りモード信号をカメラ制御部3に送る。当該自分撮りモードでは、表示部4は、装置本体1aの正面側に設けられ、当該正面側のF方向に向いて設けられる。
被写体データベース70には、モード欄74が形成されている。このモード欄74には、本装置1に設定されているモード、例えば通常撮影モード又は自分撮りモードが記憶される。
カメラ制御部3は、撮影モード検出部80から送られてくる通常撮影モード信号又は自分撮りモード信号を取得する。通常撮影モード信号が入力されたとき、撮影制御部31と、表示制御部32と、操作制御部33と、被写体抽出部34と、記録検索部35と、支援部36とにおいて上記第1の実施の形態と同様の動作が行われる。
撮影者判定部34bは、自分撮りモード信号が入力されると、撮影部2から出力され、撮影制御部31により画像処理された画像データ中に写っている人物が1人であるとき、写っているその顔部が撮影者Tの顔部であると判定する。従って、この撮影者判定部34bは、上記第1の実施の形態のように、人物の顔部が認識された位置が画像データのうち本装置1の背面側であるのか否かを判定し、この判定の結果に応じて人物の顔部が撮影者Tの顔部であると判定することがない。
又、この撮影者判定部34bは、自分撮りモード信号が入力され、人物が1人であると、被写体データベース70の撮影者Tの欄71に撮影者T1等を記録すると共に、モード欄74に「自分撮りモード」を記録する。
次に、上記の如く構成された装置の動作について図6に示すカメラ制御フローチャートに従って説明する。
カメラ制御部3は、ステップS101において、電源がオン(ON)になったか否かを判定する。この判定の結果、電源がオンでないと、カメラ制御部3は、ステップS113において、スタンバイ状態に移行する。その後、カメラ制御部3は、ステップS101に戻る。
電源がオンになると、ステップS102において、撮影モードに設定されているか否かを判定する。この判定の結果、撮影モードでないと、ステップS114において、その他のモードの動作を行い、処理はステップS101に戻る。一方、撮影モードに設定されていると、カメラ制御部3は、ステップS103において、スルー画像を取得し、ステップS104において、当該スルー画像を表示部4に表示する。
顔認識部34aは、ステップS120において、撮影部2から出力される画像データ内から人物の顔部を認識し、当該顔部の画像データを抽出する。この顔部の画像データの抽出では、画像データ内に複数の顔部が存在すると、これら顔部の全ての画像データを抽出する。
撮影者判定部34bは、ステップS121において、撮影モード検出部80から出力される通常撮影モード信号又は自分撮りモード信号を取得し、自分撮りモードに設定されているか否かを判定する。なお、撮影モード検出部80は、図5Aに示すように装置本体1aの背面側に重ね合わされた状態を検出すると、当該状態を通常撮影モードとして検出してその撮影モード信号を出力する。又、撮影モード検出部80は、図5Cに示すように装置本体1aに対して展開した状態を検出すると、当該状態を自分撮りモードとして検出してその自分撮りモード信号を出力する。なお、自分撮りモードで撮影された顔部は、カメラの所有者、又は撮影者の顔として記録するようにしても良い。
自分撮りモードに設定されているか否かの判定の結果、自分撮りモードであれば、処理はステップS110に進み、後述する撮影支援情報の提示は行われない。一方、自分撮りモードでなければ、撮影者判定部34bは、ステップS122において、撮影制御部31により画像処理された画像データ中に撮影者Tの顔部が認識されたか否かを判定する。なお、撮影者Tの顔部は、顔認識部34aにより認識される。
この判定の結果、撮影者Tの顔部が認識されれば、処理はステップS110に進み、後述する撮影支援情報の提示は行われない。一方、撮影者Tの顔部が認識されなければ、対象物判定部34cは、ステップS106において、認識された顔部は、対象物である人物の顔部が被撮影者Qの顔部であると判定する。
なお、上記実施の形態では、撮影者の顔情報を予め記録し、この記録された撮影者の顔情報と撮影状態で得られた顔情報とを比較判定することが前提になっているが、もし、撮影者の顔情報が予め記録されていなくとも、自分撮りでなく、同じ被写体ばかりが撮影されていれば、撮影者がずっと写っていないといったアドバイスを出せるような応用を行ってもよい。また、撮影しているのが誰であるかは、顔部の画像情報以外にも、音声や生体判定技術を利用してもよい。この場合、生体認証などの結果から顔部の画像判定が出来るような関連付けがなされていれば良い。また、被写体も音声で誰であるかを判定できる場合がある。
記録検索部35は、ステップS107において、対象物判定部34cにより抽出された例えば被撮影者Q1を取得し、この被撮影者Q1及び現在の撮影者T1が記録されているレコードをリストにおいて検索する。図4に示す例では記録検索部35は、レコード「1」を被写体データベース70から抽出し、かつ撮影された撮影日時「○年○月○日」を取得する。この検索の結果、記録検索部35は、撮影日時「○年○月○日」に被撮影者Q1と撮影者T1と一緒に撮影されている画像があると判定する。
支援部36は、ステップS108において、記録検索部35の検索結果、例えば被写体データベース70に記録されていると判定された被撮影者Q1と撮影者T1とが一緒に撮影された画像の撮影日時「○年○月○日」を取得する。この支援部36は、当該撮影日時「○年○月○日」から現時点までの経過時間が、例えば1年以上経過しているかを判定する。この1年に対する時間的な感覚は、多くの人が、季節の移り変わりを一巡して懐かしいとか、久しぶりと思う基準になりうるが、もちろん、子供であれば1年での成長が大きく、年配の人であれば1年の差異は少ない、などという感覚の違いがある。恋人であれば1ヶ月も長く、親しさによっても変わりうるので、この所定値(所定期間)としての1年は、対象となる人物(被写体や撮影者)の年齢や、その関係によって変えられるようにしても良い。ゲーム的な要素を含める場合、ランダムであっても良い。
この判定の結果、例えば1年(所定期間)以上経過していないとき、処理はステップS110に進む。一方、例えば1年以上経過していると、支援部36は、ステップS109において、被撮影者Q1と撮影者T1とが、一緒に撮影すること勧める支援情報を表示部4に表示させる。
カメラ制御部3は、ステップS110において、撮影者Tが操作部5のレリーズボタンを操作、すなわち撮影操作が行われたか否かを判定する。この判定の結果、レリーズボタンが操作されていないとき、処理はステップS101に戻る。一方、レリーズボタンが操作されると、カメラ制御部3は、ステップS111において、撮影動作を行う。すなわち、撮影部2は、被写体からの光像に対応する画像データを出力する。撮影制御部31は、撮影部2から出力される画像データに対してホワイトバランス補正やガンマ補正などの必要に応じた画像処理を施し、レリーズボタンが操作された時点での画像処理の施された画像データを作成する。
ステップS125において、撮影者判定部34bは、撮影は、自分撮りモードで行われ、かつ撮影制御部31により画像処理された画像データ中に撮影者Tの顔部が一つであるか否か、すなわち、撮影者Tの一人が画像データ中に認識されるか否かを判定する。
この判定の結果、自分撮りモードでかつ撮影者Tが一人であれば、撮影者判定部34bは、ステップS126において、撮影部2から出力され、撮影制御部31により画像処理された画像データ中に写っている人物の顔部が撮影者Tの顔部であると判定する。この撮影者判定部34bは、被写体データベース70の撮影者Tの欄71に撮影者T1等を記録すると共に、モード欄74に「自分撮りモード」を記録する。
上記ステップS125の判定の結果、自分撮りモードでかつ撮影者Tが一人でなければ、すなわち通常撮影モードで撮影が行われたり、写真に写っている人物が2人以上であったりすれば、撮影制御部31は、ステップS112において、撮影された画像の画像データを記録部7に記録する。この撮影制御部31は、画像データを記録部7に記録すると共に、同画像データの撮影日時、同画像データから認識された顔部の画像、当該顔部から認識される撮影者T又は被撮影者Qの分類、例えば被撮影者Q1、及び通常撮影モードか自分撮りモードかといった撮影モード等を記録する。
このように上記第2の実施の形態によれば、撮影モード検出部80によって表示部4の配置状態から自分撮りモードを検出するようにしたので、この自分撮りモード時では、撮影部2から出力されて撮影制御部31により画像処理された画像データ中から人物の顔部を抽出すると、当該人物の顔部を撮影者Tの顔部として認識できる。従って、本実施の形態によれば、上記第1の実施の形態のように、人物の顔部が認識された位置が画像データのうち本装置1の背面側であるのか否かを判定し、この判定の結果に応じて人物の顔部が撮影者Tの顔部であると判定することがなく、撮影者Tを判定する処理量を軽減できる。
以上のようにして、認識された撮影者Tの顔に基づいて、撮影者Tと被撮影者Qとが最近一緒に撮影されたか否かの判定が行われ、最近一緒に撮影が行われていないときは、一緒に撮影を行うことを勧める支援情報が提示される。本実施形態によっても、撮影者Tと被撮影者Qとが長らく並んで一緒に写真を撮られていないという状況が避けられる。
[第3の実施の形態]
次に、本発明の第3の実施の形態について図面を参照して説明する。なお、図1と同一部分には同一符号を付してその詳しい説明は省略する。
図7は撮影支援装置を適用した撮影支援システムのブロック構成図を示す。この撮影支援システムは、例えばレンズ型カメラ等の撮影装置(以下、レンズ型カメラと称する)100と、例えば携帯情報端末又はスマートフォン等の端末装置101とから成る。
図8A及び図8Bは本システムの外観図を示し、図8Aは正面図を示し、図8Bは背面図を示す。端末装置101には、取り付け器具102を介してレンズ型カメラ100が取り付けられる。取り付け器具102は、鉤型に形成され、その取付け平板103に凸状のレンズ取付け部104が設けられている。レンズ型カメラ100は、レンズ取付け部104に対する係止により取り付けられる。
レンズ型カメラ100は、図7に示すようにカメラ制御部3に対して撮影部2と、操作部5と、記録部7と、端末通信部82とが接続されている。端末通信部82は、端末装置101との間でデータ通信を行う。
カメラ制御部3は、レンズ型カメラ100の全体を制御するもので、撮影制御部31と、操作制御部33と、通信制御部83とを有する。通信制御部83は、端末通信部82を駆動制御して端末装置101との間でデータ通信を行う。
一方、端末装置101は、コンピュータ等により成る端末制御部105を備え、この端末制御部105に対して撮影部90と、カメラ通信部91と、ネットワーク通信部92と、表示操作部93と、記録部95とが接続されている。
撮影部90は、端末装置101の正面に設けられ、レンズを通して被写体を撮影してその画像信号を出力する。この撮影部90は、いわゆるインカメラと称せられる。
カメラ通信部91は、レンズ型カメラ100の端末通信部82との間でデータ通信を行う。
ネットワーク通信部92は、無線LANや電話回線等を介して例えばインターネットに接続しデータ通信を行う。
表示操作部93は、例えば液晶ディスプレイ又は有機ELディスプレイ等のディスプレイと、このディスプレイ上に設けられたタッチパネルとを有するもので、動画又は静止画等の画像を表示し、かつタッチパネルに対するタッチ操作を受けてその操作信号を出力する。
記録部95には、例えば、レンズ型カメラ100の撮影により取得された画像と、端末装置101の撮影により取得された画像等とが記録される。又、この記録部95には、被写体の情報が記録される被写体データベース95aが形成されている。この被写体データベース95aには、上記被写体データベース70と同様に、撮影者Tの欄71と、被撮影者Qを含む対象物の欄72と、撮影日付の欄73とが形成されている。なお、この被写体データベース70aには、モード欄74が形成されてもよい。また、被写体データベース95aは、レンズ型カメラ100の記録部7に記録されてもよい。
端末制御部105は、端末装置101の全体を制御するもので、被写体抽出部34と、記録検索部35と、支援部36と、通信制御部37とを有する。このうち被写体抽出部34は、顔認識部34aと、撮影者判定部34bと、対象物判定部34cとを有する。
次に、上記の如く構成されたシステムにおけるレンズ型カメラ100の動作について図9に示すカメラ制御フローチャートに従って説明する。
レンズ型カメラ100のカメラ制御部3は、ステップS200において、電源がオン(ON)になったか否かを判定し、この判定の結果、電源がオンでないと、ステップS202でスタンバイする。その後、カメラ制御部3はステップS200に戻る。一方、電源がオンになると、ステップS201において、例えば端末装置101との間でのデータ通信が確立されるのを待つ。このデータ通信の確立は、端末通信部82とカメラ通信部91とを介してレンズ型カメラ100の通信制御部83と端末装置101の通信制御部37との間で所定のプロトコルを行うことにより成立する。
カメラ制御部3は、ステップS203において、スルー画像を取得する。
カメラ制御部3は、ステップS204において、端末装置101との間でデータ通信が確立したか否かを判定する。この判定の結果、データ通信が確立していないと、カメラ制御部3はステップS206に進む。一方、データ通信が確立すると、カメラ制御部3は、ステップS205において、スルー画像を通信制御部83の制御によって端末通信部82から端末装置101を送信先として送信する。
カメラ制御部3は、ステップS206において、撮影者Tが操作部5のレリーズボタンを操作したか、すなわち撮影操作が行われたか否かを判定する。この判定の結果、レリーズボタンが操作されていないと、カメラ制御部3はステップS200に戻る。一方、レリーズボタンが操作されると、カメラ制御部3は、ステップS207において、撮影動作を行う。撮影制御部31は、撮影部2から出力される画像データに対してホワイトバランス補正やガンマ補正などの画像処理を施す。カメラ制御部3は、ステップS208において、レリーズボタンが操作された時点での画像処理の施された画像データを記録部7に記録する。
一方、端末装置101の動作について図10に示す端末制御フローチャートに従って説明する。
端末制御部105は、ステップS300において、初期画面を表示操作部93のディスプレイに表示する。ステップS301において、レンズ型カメラ100から送信された画像を表示するか否かを判定する。例えば初期画面に表示されている複数のアイコンのうち、レンズ型カメラ100を用いた撮影を行うためのアイコンがタッチされたとき、カメラ画面に移行すると判定され、カメラ制御部3はステップS302に進む。例えば、他の機能を発揮するためのアイコンがタッチされたとき、カメラ画面は表示されず、ステップS305において、その他のモードの処理が実行される。その他のモードについては、説明を省略する。ステップS305の処理の後、カメラ制御部3は、ステップS301に戻る。
端末制御部105は、ステップS302において、上記レンズ型カメラ100との間のデータ通信が確立した後、レンズ型カメラ100から送信されたスルー画像をカメラ通信部91を介して受信し、ステップS303において、表示操作部93のディスプレイに表示するのに最適な画像とするための画像処理を行って同ディスプレイに表示する。
図11はレンズ型カメラ100の撮影により取得されたスルー画像が端末装置101における表示操作部93のディスプレイに表示されたところを示す。
端末制御部105は、ステップS304において、撮影部90により例えば撮影者Tを撮影、すなわちインカメラ撮影する。このインカメラ撮影された画像データは、例えば記録部95に記録される。
顔認識部34aは、ステップS311において、スルー画像から人物の顔部を認識する。この顔部の認識では、複数の顔部が存在すれば、これら顔部を全て認識する。スルー画像中に人物の顔部が存在しなければ、顔認識部34aは、人物の顔部が存在しないと認識する。端末制御部105は、スルー画像中に人物の顔部が存在するか否かを判定し、顔部が存在しなければ、カメラ制御部3は、ステップS321に移り、顔部が存在すればステップS312に移る。
対象物判定部34cは、ステップS312において、スルー画像中に存在する人物の顔部が例えば被撮影者Q1の顔部であると判定する。なお、図8A及び図8Bに示すように端末装置101にレンズ型カメラ100を取り付けて撮影を行う場合、撮影者Tは、レンズ型カメラ100を被撮影者Q1に向け、表示操作部93のディスプレイに表示される画像を見ながら撮影を行うので、レンズ型カメラ100から送信されてきた画像データには、被撮影者Q1の画像データが含まれる。
撮影者判定部34bは、ステップS313において、上記インカメラ撮影により取得された画像データを記録部95から読み出し、この画像データ中の顔部の大きさ(サイズ)を計測し、当該顔部の大きさが所定の大きさ以上であるか否かを判定し、かつ当該顔部が正面向きであるか否かを判定する。顔部の大きさが所定の大きさ以上でない、又は顔部が正面向きでないならば、処理はステップS321に移る。
上記判定の結果、顔部の大きさが所定の大きさ以上で、かつ顔部が正面向きであれば、撮影者判定部34bは、ステップS314において、インカメラ画像に含まれている顔部が撮影者T1の顔部であると判定する。
記録検索部35は、ステップS315において、対象物判定部34cにより判定された被撮影者Q1と、撮影者判定部34bにより判定された撮影者T1とが共に記録されているレコードを被写体データベース70から検索する。この検索により記録検索部35は、被写体データベース70から撮影者T1及び被撮影者Q1が共に撮影された撮影日時「○年○月○日」を取得する。
この記録検索部35は、被写体データベース70から撮影者T1及び被撮影者Q1が共に撮影された撮影日時「○年○月○日」を検索するのに限ることはない。この記録検索部35は、ネットワーク通信部92を介し、ネットワーク上に存在するサーバとの間でデータ通信を行い、当該サーバに記録されている撮影者T1及び被撮影者Q1が一緒に写っている画像を検索してもよい。
支援部36は、記録検索部35の検索結果、例えば被写体データベース70に既に記録されていると判定された画像中の撮影者T1及び被撮影者Q1とその撮影日時「○年○月○日」とを取得すると、当該撮影日時「○年○月○日」から現時点までの経過時間が、例えば1年以上経過しているかを判定する。
この判定の結果、例えば1年以上経過していると、支援部36は、撮影者T1及び被撮影者Q1が再度、一緒に撮影することを勧める支援情報を表示操作部93のディスプレイに表示する。
図12は一緒に撮影することを勧める支援情報の表示の一例を示す。この例では、例えば「2人で撮影お薦め」という文字と、撮影者T1の画像と被撮影者Q1の画像とが表示操作部93に表示されている。
撮影者T1及び被撮影者Q1は、例えば支援の表示「2人で撮影お薦め」によって当人2人が一緒に撮影することを実行する。図13は撮影者T1及び被撮影者Q1による撮影状況の一例を示す。この撮影では、レンズ型カメラ100が端末装置101から取り外され、例えば三脚110によって支持される。一方、端末装置101は、撮影者T1に携帯される。撮影者T1は、被撮影者Q1と共にレンズ型カメラ100の撮影範囲に入り、端末装置101を用いて撮影操作を行う。
カメラ制御部3は、ステップS321において、撮影者Tが表示操作部93を用いて撮影操作が行われたか否かを判定する。
この判定の結果、レリーズボタンが操作されると、端末制御部105は、ステップS322において、撮影指示を通信制御部37によってカメラ通信部91からレンズ型カメラ100に向けて送信する。
レンズ型カメラ100は、端末通信部82を介して通信制御部83によって端末装置101からの撮影指示を受信する。このレンズ型カメラ100では、撮影部2は、被写体からの光像に対応する画像データを出力する。撮影制御部31は、撮影部2から出力される画像データに対してホワイトバランス補正やガンマ補正などの画像処理を施し、レリーズボタンが操作された時点での画像処理の施された画像データを記録部7に記録する。
なお、端末制御部105は、被写体データベース70に新たなリストを作成し、当該画像データに含まれる撮影者T1を同リストの撮影者Tの欄71に記録し、撮影者T1と被撮影者Q1とを同リストの被撮影者Qの欄72に記録し、かつ当該画像データの撮影日時を同リストの撮影日付の欄73に記録する。
このように上記第3の実施の形態によれば、レンズ型カメラ100と、例えば携帯端末又はスマートフォン等の端末装置101との間でデータ通信を可能とし、かつレンズ型カメラ100を端末装置101に取り付け可能とし、端末装置101を用いた操作によってレンズ型カメラ100の撮影が制御される。
以上のような、レンズ型カメラ100と端末装置101との組み合わせによってもカメラとして機能する。本実施形態によっても認識された撮影者の顔と被撮影者の顔とに基づいて、撮影者と被撮影者が最近一緒に撮影されたか否かの判定が行われ、最近一緒に撮影が行われていないときは、一緒に撮影を行うことを勧める支援情報が提示される。本実施形態によっても、撮影者と被撮影者とが並んで一緒に写真を長らく撮られていないという状況が起こることを避けられる。
また、本実施形態では、撮影者と被撮影者が一緒に撮影された画像を検索する対象の一例として、レンズ型カメラ100の記録部7を挙げた。しかしながらこれに限らず、検索対象は、端末装置101の記録部95や、例えばインターネットを介した接続されたデータベースであってもよい。
上記所定期間としての「1年以上経過」の1年は、多くの人が、季節の移り変わりを一巡して懐かしいとか、久しぶりと思う基準になりうるが、もちろん、子供であれば1年での成長が大きく、年配の人であれば1年の差異は少ない、などという感覚の違いがある。時間経過の感覚は、恋人であれば1ヶ月も長く、親しさによっても変わりうるので、この所定値(所定期間)としての1年は、対象となる人物(被写体や撮影者)の年齢や、その関係によって変えられるようにしても良い。このような年齢情報や関係情報は、例えばソーシャル・ネットワーク・サービス(SNS)などには有用な情報が多く、対象となる人間関係などに応じてもきめ細かい切換が可能である。
また、ネットワーク上にアップロードされた画像なども含めて、より正確に他のカメラでの撮影状況も踏まえて、久しぶりの撮影をサポートできる。また、ネットワーク上の様々なサービスと連携して、撮影者や撮影シーンの特定などがより正確に可能で、例えば、この場所での撮影は久しぶり、といった応用も可能となる。ネットワーク上の画像やデータとスルー画像やデータを比較して、同じ場所でも季節が違うとか、背景が異なるといった判定も可能である。人物が並んで撮影するケースのみならず、撮影者に自分撮りを、特定の風景の前で行うような応用や、同じ場所でも、背景を変えた撮影が可能であることは言うまでもない。これは、ネットワーク上にある人気撮影スポットの情報や撮影ガイドのサービスなどとの連携によって可能となる。
又、レンズ型カメラ100と端末装置101とは、互いにデータ通信が可能であるので、写真撮影の状況に応じてレンズ型カメラ100と端末装置101とを別体で使用したり、互いに取り付けて使用することができる。レンズ型カメラ100と端末装置101とを別体で使用する場合には、端末装置101からレンズ型カメラ100による撮影を遠隔操作して、所望の写真を撮影することができる。
本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
1:本装置、1a:装置本体、2:撮影部、3:カメラ制御部、4:表示部、5:操作部、6:プログラム格納部、7:記録部、20:撮像光学系、21:撮像素子、70:被写体データベース(被写体DB)、71:撮影者の欄、72:対象物の欄、73:撮影日付の欄、74:モード欄、31:撮影制御部、32:表示制御部、33:操作制御部、34:被写体抽出部、35:記録検索部、36:支援部、34a:顔認識部、34b:撮影者判定部、34c:対象物判定部、80:撮影モード検出部、82:端末通信部、83:通信制御部、90:撮影部、91:カメラ通信部、92:ネットワーク通信部、93:表示操作部、95:記録部、95a:被写体データベース(被写体DB)、100:レンズ型カメラ等の撮影装置(レンズ型カメラ)、101:端末装置、102:取り付け器具、103:取付け平板、104:レンズ取付け部、105:端末制御部。

Claims (11)

  1. 撮影者を判定する撮影者判定部と、
    撮影画像に含まれる対象物を判定する対象物判定部と、
    前記撮影者と前記対象物との両方が含まれる画像の情報を検索する検索部と、
    前記検索部が行った検索結果に基づいて前記撮影者と前記対象物との両方が含まれる画像の取得を勧める支援情報の提示を行う支援部と、
    を具備することを特徴とする撮影支援装置。
  2. 前記対象物は人物であり、
    前記撮影者判定部は、前記撮影者を含む画像における顔検出によって前記撮影者を判定し、
    前記対象物判定部は、前記人物を含む画像における顔検出によって当該人物の顔が対象物の顔部であると判定する、
    ことを特徴とする請求項1に記載の撮影支援装置。
  3. 前記撮影者と前記対象物との両方が含まれる画像についての撮影日時と前記撮影者と前記対象物とを示す情報が記録される記録部をさらに具備し、
    前記検索部は、前記記録部に記録された情報から前記撮影者と前記対象物との両方が含まれる画像の情報を検索する、
    ことを特徴とする請求項1又は2に記載の撮影支援装置。
  4. 前記検索部は、前記撮影者と前記対象物との両方が含まれる画像についての撮影日時と前記撮影者と前記対象物とを示す情報が記録される当該撮影支援装置の外部に設けられた記録部に対してネットワークを介して通信し、前記記録部に記録された情報から前記撮影者と前記対象物との両方が含まれる画像の情報を検索することを特徴とする請求項1又は2に記載の撮影支援装置。
  5. 全方位の撮影領域を撮影する撮影部を有し、前記全方位の画像のうち、一部の方向の画像を切り出して、前記撮影者と前記対象物とを含む画像を取得することを特徴とする請求項1乃至4のうち何れか1項に記載の撮影支援装置。
  6. 前記撮影者を含む画像を取得する第1の撮影部と、前記対象物の画像を取得する第2の撮影部とをさらに具備することを特徴とする請求項1乃至4のうち何れか1項に記載の撮影支援装置。
  7. 画像を取得する撮部と、
    前記撮部によって前記撮影者が自分自身を撮影する自分撮りモードと、前記撮部によって前記対象物を撮影する通常撮影モードとのうち何れのモードであるかを検出する撮影モード検出部とをさらに具備し、
    前記撮影者判定部は、前記自分撮りモードで撮影された画像に含まれる人物を前記撮影者であると識別し、
    前記対象物判定部は、前記通常撮影モードで撮影された画像に含まれる被写体を前記対象物であると識別する、
    ことを特徴とする請求項1乃至4のうち何れか1項に記載の撮影支援装置。
  8. 請求項1に記載の撮影支援装置と、
    影者を含む画像と対象物の画像とを取得する撮影機器と、
    を具備することを特徴とする撮影支援システム。
  9. 前記撮影支援装置は、当該撮影支援装置の外部に設けられ、前記撮影者と前記対象物との両方が含まれる画像についての撮影日時と前記撮影者と前記対象物とを示す情報が記録され記録部とネットワークを介して通信し、
    前記検索部は、前記記録部に記録された情報から前記撮影者と前記対象物との両方が含まれる画像の情報を検索することを特徴とする請求項8に記載の撮影支援システム。
  10. 撮影者を判定することと、
    撮影画像に含まれる対象物を判定することと、
    前記撮影者と前記対象物との両方が含まれる画像の情報を検索することと、
    前記検索の結果に基づいて前記撮影者と前記対象物との両方が含まれる画像の取得を勧める支援情報の提示を行うことと、
    を含むことを特徴とする撮影支援方法。
  11. コンピュータに、
    撮影者を判定する撮影者判定機能と、
    撮影画像に含まれる対象物を判定する対象物判定機能と、
    前記撮影者と前記対象物との両方が含まれる画像の情報を検索する検索機能と、
    前記検索機能による検索結果に基づいて前記撮影者と前記対象物との両方が含まれる画像の取得を勧める支援情報の提示を行う支援機能と、
    を実現させる撮影支援プログラム。
JP2014174198A 2014-08-28 2014-08-28 撮影支援装置、撮影支援システム、撮影支援方法及び撮影支援プログラム Active JP6412743B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014174198A JP6412743B2 (ja) 2014-08-28 2014-08-28 撮影支援装置、撮影支援システム、撮影支援方法及び撮影支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014174198A JP6412743B2 (ja) 2014-08-28 2014-08-28 撮影支援装置、撮影支援システム、撮影支援方法及び撮影支援プログラム

Publications (2)

Publication Number Publication Date
JP2016051904A JP2016051904A (ja) 2016-04-11
JP6412743B2 true JP6412743B2 (ja) 2018-10-24

Family

ID=55659154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014174198A Active JP6412743B2 (ja) 2014-08-28 2014-08-28 撮影支援装置、撮影支援システム、撮影支援方法及び撮影支援プログラム

Country Status (1)

Country Link
JP (1) JP6412743B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10440331B2 (en) 2016-10-31 2019-10-08 Optim Corporation System, method, and program for image analysis
WO2024154423A1 (ja) * 2023-01-20 2024-07-25 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、および画像処理装置の作動プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5616819B2 (ja) * 2010-03-10 2014-10-29 富士フイルム株式会社 撮影アシスト方法、そのプログラム、その記録媒体、撮影装置および撮影システム
JP2012023502A (ja) * 2010-07-13 2012-02-02 Canon Inc 撮影支援システム、撮影支援方法、サーバ、撮影装置およびプログラム
JP2014017691A (ja) * 2012-07-10 2014-01-30 Canon Inc 情報処理装置
JP5675922B2 (ja) * 2013-09-11 2015-02-25 オリンパスイメージング株式会社 撮影表示装置

Also Published As

Publication number Publication date
JP2016051904A (ja) 2016-04-11

Similar Documents

Publication Publication Date Title
US10270975B2 (en) Preview image display method, apparatus and storage medium
JP5232669B2 (ja) カメラ
WO2011102232A1 (ja) 電子機器、撮像装置、画像再生方法、画像再生プログラム、画像再生プログラムを記録した記録媒体および画像再生装置
US10063773B2 (en) Photographing apparatus, photographing method and computer-readable storage medium storing photographing program of photographing apparatus
JP2006201531A (ja) 撮像装置
JP2016144050A (ja) 撮像機器
JP6412743B2 (ja) 撮影支援装置、撮影支援システム、撮影支援方法及び撮影支援プログラム
KR20150080343A (ko) 렌즈 특성 기반의 촬영 모드 제시 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 디지털 촬영 장치.
JP5446976B2 (ja) 電子機器
JP5392141B2 (ja) 電子機器
JP2016220261A (ja) 電子機器
CN110572582B (zh) 拍摄参数的确定方法及装置、拍摄数据的处理方法及装置
JP2013168969A (ja) 画像表示方法、および画像表示装置
JP5754500B2 (ja) 電子機器および電子機器用プログラム
JP5368165B2 (ja) 撮影表示装置および撮影表示方法
JP5877227B2 (ja) 撮影機器システム、外部機器、カメラ、および撮影機器システムの制御方法
JP2013255287A (ja) 撮影表示装置
JP5440240B2 (ja) 電子機器
JP2013126012A (ja) 撮影システム、撮影装置、情報管理装置
JP2017108203A (ja) 撮影装置、撮影支援方法及びプログラム
JP2023052626A (ja) 電子機器
JP5644976B2 (ja) 電子機器及び電子機器用プログラム
JP5614487B2 (ja) 電子機器および電子機器用プログラム
JP5644932B2 (ja) 電子機器
JP2019054521A (ja) 電子機器及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181001

R151 Written notification of patent or utility model registration

Ref document number: 6412743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250