JP6229656B2 - 制御装置および記憶媒体 - Google Patents

制御装置および記憶媒体 Download PDF

Info

Publication number
JP6229656B2
JP6229656B2 JP2014531527A JP2014531527A JP6229656B2 JP 6229656 B2 JP6229656 B2 JP 6229656B2 JP 2014531527 A JP2014531527 A JP 2014531527A JP 2014531527 A JP2014531527 A JP 2014531527A JP 6229656 B2 JP6229656 B2 JP 6229656B2
Authority
JP
Japan
Prior art keywords
unit
recognition
information
user
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014531527A
Other languages
English (en)
Other versions
JPWO2014030407A1 (ja
Inventor
佐古 曜一郎
曜一郎 佐古
鎌田 恭則
恭則 鎌田
有希 甲賀
有希 甲賀
宏平 浅田
宏平 浅田
和之 迫田
和之 迫田
今 孝安
孝安 今
一弘 渡邊
一弘 渡邊
林 和則
和則 林
竹原 充
充 竹原
隆俊 中村
隆俊 中村
丹下 明
明 丹下
智也 大沼
智也 大沼
博幸 花谷
博幸 花谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014030407A1 publication Critical patent/JPWO2014030407A1/ja
Application granted granted Critical
Publication of JP6229656B2 publication Critical patent/JP6229656B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/38Releasing-devices separate from shutter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2206/00Systems for exchange of information between different pieces of apparatus, e.g. for exchanging trimming information, for photo finishing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/003Digital PA systems using, e.g. LAN or internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/07Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Social Psychology (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Ecology (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Environmental Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Emergency Management (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Data Copying Or Recording (AREA)

Description

本開示は、制御装置および記憶媒体に関する。
一般的に、行楽施設や観光地では、多くの人が思い出作りのために写真撮影やビデオ撮影を行う。また、大型の遊園地、いわゆるテーマパークでは、アトラクションの要所にカメラが設置され、乗り物が到着した時に自動撮影を行い、アトラクション終了後に希望者にプリントして販売するといったことが行われている。しかし、プリントの出来上がりに時間がかかったり、アトラクション毎に独立したシステムであるために複数の写真をまとめてプリントできなかったりといった不満があった。
上記不満を解消するために、例えば下記特許文献1、2では、撮影対象となる来場者のみに無線タグのような通信手段を配布し、その通信手段から発信される識別情報の検出に基づいて、パーク内に設置されたカメラで撮影を行う画像撮影システムが開示されている。
また、下記特許文献3では、来場者に配布するシャッタデバイスが開示されている。当該シャッタデバイスは、パーク内の撮影スポットに到着すると、スピーカーからアラームが発生し、撮影スポットであることをユーザに通知する。さらに、当該シャッタデバイスは、ユーザによるボタン押下操作に応じて、撮影スポットに設置されているカメラに撮影を指示することができる。
一方、近年、自分の身に装着して自動的に外界を撮影し続けるウェラブルカメラが知られている。また、ウェラブルカメラは、自分の毎日の生活、人生を撮影し続けることから、ライフログカメラとも称されている。
このようなウェアラブルカメラに関し、例えば下記特許文献4では、通常の撮影モードと、カメラを身に着けたままで自動撮影する自動撮影モードを切り換えて用いる技術が開示されている。
特開2001−177750号公報 特開2003−116127号公報 特開2003−78804号公報 特開2004−356970号公報
しかしながら、上述した特許文献1〜3に開示されているシステムでは、無線タグ等を有する来場者が撮影対象になるのみであって、来場者が撮影したい好みの対象を選択することはできなかった。また、上述したウェアラブルカメラ(ライフログカメラ)も、連続的に外界を撮影するのみであって、撮影したい好みの対象を選択することはできなかった。
また、いわゆるテーマパークには、そのテーマパーク特有のキャラクターなどが居て、来場者は好みのキャラクターを撮影対象としたり、好みのキャラクターと一緒に撮影を行ったりすることが多い。また、動物園や水族館では、その場所にしか居ない動物を好んで撮影対象とする等、一般的にユーザはその場所にしかないものを好んで撮影対象とすることが多い。
そこで、本開示では、現在位置に応じて撮像や収音の対象を自動設定することが可能な、新規かつ改良された制御装置および記憶媒体を提案する。
本開示によれば、現在位置情報を検出する検出部と、位置情報に応じて異なる認識用情報を設定する設定部と、前記検出部により検出された現在位置情報に応じて前記設定部により設定された認識用情報で示される所定の対象を認識する認識部と、前記認識部による認識結果に応じて、撮像部および収音部の少なくともいずれかを制御する制御部と、を備える制御装置を提案する。
本開示によれば、コンピュータを、現在位置情報を検出する検出部と、位置情報に応じて異なる認識用情報を設定する設定部と、前記検出部により検出された現在位置情報に応じて前記設定部により設定された認識用情報で示される所定の対象を認識する認識部と、前記認識部による認識結果に応じて、撮像部および収音部の少なくともいずれかを制御する制御部、として機能させるためのプログラムが記憶された、記憶媒体を提案する。
以上説明したように本開示によれば、現在位置に応じて撮像や収音の対象を自動設定することが可能となる。
本開示の一実施形態による制御システムの概要を説明するための図である。 本実施形態によるデジタルカメラの構成を示すブロック図である。 本実施形態による認識用情報の一例を示す図である。 本実施形態による嗜好情報の一例を示す図である。 本実施形態によるCPUの機能構成を示すブロック図である。 本実施形態によるデジタルカメラの動作処理を示すフローチャートである。 本実施形態の第1の変形例による制御システムの全体構成を示す図である。 第1の変形例によるサーバの構成を示す図である。 第1の変形例による制御システムの動作処理を示すフローチャートである。 第1の変形例による制御システムの動作処理を示すフローチャートである。 本実施形態の第2の変形例による制御システムの全体構成を示す図である。 本実施形態による外部機器の構成を示すブロック図である。 第2の変形例による制御システムの動作処理を示すフローチャートである。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による制御システムの概要
2.デジタルカメラの構成
3.動作処理
4.変形例
4−1.第1の変形例
4−2.第2の変形例
5.まとめ
<1.本開示の一実施形態による制御システムの概要>
まず、本開示の一実施形態による制御システムの概要について、図1を参照して説明する。図1は、本開示の一実施形態による制御システムの概要を説明するための図である。本実施形態による制御システムでは、図1に示すような大型の遊園地(いわゆるテーマパーク)の他、動物園、水族館、イベント会場、結婚式場等の特定の場所に、本実施形態によるデジタルカメラ(制御装置)1を所持するユーザが居る場合を想定する。
また、本実施形態によるデジタルカメラ1は、ユーザに装着されたままの状態で外界を撮影可能なウェアラブルカメラであってもよい。より具体的には、デジタルカメラ1は、例えば図1に示すように撮像レンズが設けられた面が表になるようユーザに装着され、連続的に、またはユーザ操作に応じて外界を撮影することができる。なお、本実施形態によるデジタルカメラ1の装着方法は、図1に示すようなユーザの首に掛ける方法に限定されない。例えば、デジタルカメラ1は、ユーザの帽子、衣服、鞄等に取り付けられてもよいし、衣服のポケットに入れられてもよい。
なお、図1に示す例では、制御装置の一例として装着型のデジタルカメラ1を示したが、本実施形態による制御装置は装着型に限定されず、ユーザが把持して撮影を行う通常の手持ち型デジタルカメラであってもよい。また、本実施形態による制御装置は、所定の対象を撮影する機能に限定されず、所定の対象を録音(収音)する機能を有してもよい。具体的には、本実施形態による制御装置は、撮影および録音(収音)を行う装着型/手持ち型のデジタルビデオカメラであってもよいし、録音(収音)を行う装着型/手持ち型のボイスレコーダーであってもよい。
ここで、図1に示すテーマパーク(エリア1)には、そのテーマパーク特有のキャラクターS1、S2などが居るので、来場者は、通常、なるべくその場所特有のものを撮影/録音したいと考える。しかしながら、一般的なウェアラブルカメラ(ライフログカメラ)やボイスレコーダーでは、周囲を無作為に撮影、録音するのみであって、撮影、録音対象を選択することは困難であった。
そこで、上記事情を一着眼点にして本開示の各実施形態による制御システムを創作するに至った。本開示の各実施形態による制御システムは、現在位置に応じて撮像や録音(収音)の対象を自動設定することができる。
以上、本開示の一実施形態における制御システムの概要について説明した。続いて、本実施形態によるデジタルカメラ1の構成について図2〜図4を参照して詳細に説明する。
<2.デジタルカメラの構成>
[2−1.基本構成]
図2は、本実施形態によるデジタルカメラ1の構成を示すブロック図である。図2に示すように、本実施形態によるデジタルカメラ1は、CPU10、ROM11、RAM12、カメラモジュール13、操作入力部14、認識用情報DB(データベース)15、表示部16、通信部17、GPS測位部18、嗜好情報DB19、および記憶メディア20を有する。以下、各構成について具体的に説明する。
(カメラモジュール)
カメラモジュール13は、撮像素子、撮像レンズを含む撮像光学系、および撮影画像信号処理部を含み、デジタル信号とされた撮影画像のデータを出力する。なお、撮像素子は、例えばCCD(Charge Coupled Device)イメージャやCMOS(Complementary Metal Oxide Semiconductor)イメージャにより実現される。
(操作入力部)
操作入力部14は、ユーザによる操作入力を受け付ける。操作入力部14は、例えば電源スイッチ、シャッターボタン、および操作ボタン等である。シャッターボタンは、カメラモジュール13による撮影を指示する撮影指示部であって、ボタン形式の他、紐形式(紐を引っ張ることにより撮影を指示する構造)であってもよい。
(認識用情報DB)
認識用情報DB15は、位置情報に応じて異なる所定の対象を示す認識用情報を記憶する記憶部である。認識用情報は、所定の対象を画像/音声認識用のデータであってもよい。また、認識用情報は、後述するCPU10の設定部110や認識部120で用いられる。
ここで、図3Aに、本実施形態による認識用情報151の一例を示す。図3Aに示すように、本実施形態による認識用情報は、位置情報に対応付けて記憶されている。より具体的には、例えばエリア1(○○遊園地)にはキャラクターS1〜S3、エリア2(□□動物園)には、パンダ、ワニ、キリン、ウサギ、ライオン、エリア3(△△式場)には、花嫁・花婿の認識用情報が各々対応付けられる。
(嗜好情報DB)
嗜好情報DB19は、ユーザの嗜好情報を記憶する記憶部である。嗜好情報DB19に記憶される嗜好情報は、デジタルカメラ1の基本設定の際にユーザにより入力されたものであってもよい。ここで、図3Bに、本実施形態による嗜好情報191の一例を示す。図3Bに示すように、嗜好情報191は、ユーザの好みのキャラクターや動物、好みの撮影構図、好みのジャンル(グルメ、建物、自然等)であってもよい。また、嗜好情報191は、個人設定情報(自分、家族、友人を認識するための画像/音声データ等)や、グループ設定情報(所定のグループのカメラID等)を含んでもよい。
このような嗜好情報191は、後述するCPU10の設定部110で認識用情報を設定する際に反映される。例えば、後述する設定部110は、認識用情報151および嗜好情報191を考慮することで、エリア1に対応付けられている複数のキャラクターS1〜S3のうち、ユーザの好みに応じたキャラクターを選択的に設定することができる。
(表示部)
表示部16は、カメラモジュール13により撮影された撮影画像をリアルタイムに表示したり(スルー画像表示処理)、記憶メディア20に記憶されている撮影画像(静止画像/動画像)を表示したりする。また、表示部16は、LCD(Liquid Crystal Display)、またはOLED(Organic Light−Emitting Diode)などにより実現されてもよい。
(通信部)
通信部17は、外部装置とデータ通信を行うための通信インターフェースである。通信部17は、例えば無線LAN、Wi−Fi、赤外線通信、Bluetooth(登録商標)等により外部装置と接続してもよい。また、本実施形態による通信部17は、例えばデジタルカメラ1の現在位置に対応する認識用情報を外部装置から受信してもよい。
(GPS測位部)
GPS(Global Positioning System)測位部18は、GPS衛星からの電波を受信して、デジタルカメラ1が存在している位置を測位する。なお、GPS測位部18は、外部からの取得信号に基づいてデジタルカメラ1の現在位置情報を検出する検出部の一例であって、本実施形態による検出部の例はこれに限定されない。例えば、検出部は、WiFi、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により現在位置情報を検知するものであってもよい。
(記憶メディア)
記憶メディア20は、カメラモジュール13により撮影された撮影画像を保持する画像記憶部であって、例えばカード型メモリなどのフラッシュメモリや、DVD(Digital Versatile Disc)などの記録媒体により実現される。記憶メディア20には、カメラモジュール13から連続的に出力される撮影画像(スルー画像)のうち、CPU10の撮影制御部130による撮影制御タイミングに応じた所定の撮影画像のみが保持されていてもよい。また、記憶メディア20には、カメラモジュール13から連続的に出力される撮影画像(スルー画像)を、動画像(ビデオデータ)として保持されていてもよい。
(CPU、ROM、RAM)
CPU10は、デジタルカメラ1の各構成を制御する制御部である。本実施形態によるCPU10の具体的な機能については、図4を参照して後述する。ROM11は、CPU10が各処理を遂行するためのプログラム等を記憶する。また、RAM12は、CPU10がROM11に記憶されているプログラムを実行する際に、ワークエリアとして用いられる。
[2−2.CPUの具体的な機能]
次に、図4を参照して本実施形態によるCPU10の具体的な機能について説明する。図4は、本実施形態によるCPU10の機能構成を示すブロック図である。図4に示すように、CPU10は、設定部110、認識部120、撮影制御部130、および誘導制御部140として機能する。
(設定部)
設定部110は、GPS測位部18により測位されたデジタルカメラ1の現在位置に応じた認識用情報を設定する。図3Aに示したように、認識用情報DB15では、各位置に応じて異なる認識用情報151が対応付けられているので、設定部110は、認識用情報DB15を参照し、デジタルカメラ1の現在位置に応じた認識用情報を設定する。例えば、デジタルカメラ1の現在位置が、エリア1(遊園地)である場合、設定部110は、認識用情報DB15を参照し、キャラクターS1〜S3(認識対象)の認識用情報(顔認識/音声認識用データ等)を設定する。
また、設定部110は、さらにユーザの嗜好情報を考慮して認識用情報を設定してもよい。具体的には、例えば設定部110は、エリア1に対応付けられている複数のキャラクターS1〜S3のうち、ユーザの嗜好情報を考慮してユーザの好みに応じたキャラクターを選択的に設定してもよい。若しくは、設定部110は、複数のキャラクターS1〜S3のうち、ユーザに選択されたキャラクターを設定してもよい。
また、設定部110は、ユーザの嗜好情報に基づいて認識用情報を設定してもよい。例えば、設定部110は、ユーザの好みのジャンルがグルメである場合、「料理」の認識用情報を設定してもよい。
さらに、設定部110は、位置情報に対応した所定の対象(キャラクターS1〜S3等)に加えて、ユーザの嗜好情報に基づいて、ユーザの家族や友人を所定の対象として設定してもよい。これにより、デジタルカメラ1は、キャラクターS1〜S3と、家族や友人が画角に含まれた撮影画像を自動的に取得することができる。
(認識部)
認識部120は、設定部110により設定された認識用情報で示される所定の対象を認識する。より具体的には、認識部120は、カメラモジュール13により撮像されたスルー画像を解析することにより、設定部110により設定された認識用情報で示される所定の対象(認識対象)を認識してもよい。例えば設定部110は、スルー画像を解析し、キャラクターS1〜S3の顔認識を行ってもよい。また、認識部120は、マイクロフォン(不図示)により収音した音声を解析することにより、設定部110により設定された認識用情報で示される所定の対象(認識対象)を認識してもよい。
(撮影制御部)
撮影制御部130は、認識部120により所定の対象が認識された場合、当該所定の対象を画角に含むスルー画像を記憶メディア20に記憶するよう制御する(撮影制御)。また、カメラモジュール13により連続的に撮影されているスルー画像が順次記憶メディア20に記憶されている場合、撮影制御部130は、認識部120により認識された所定の対象を画角に含むフレームにマークを付与してもよい(マーク付与制御)。
(誘導制御部)
誘導制御部140は、設定部110により設定された所定の対象が存在する方向にユーザを誘導するよう制御する。具体的には、誘導制御部140は、表示部16に、キャラクターS1〜S3が存在する方向を示す矢印を表示したり、デジタルカメラ1が有するスピーカー(不図示)から音声によりキャラクターS1〜S3が存在する方向に誘導したりする。また、誘導制御部140は、キャラクターS1〜S3の位置情報を通信部17により受信し、デジタルカメラ1の現在位置情報および方向情報と比較してキャラクターS1〜S3が存在する方向を推定してもよい。なお、誘導制御部140は、デジタルカメラ1の方向情報を、スルー画像の解析結果や、デジタルカメラ1の向きを検知する方向検知部(不図示)から取得できる。
以上、本実施形態によるデジタルカメラ1の構成について詳細に説明した。続いて、本実施形態によるデジタルカメラ1の撮影制御処理について図5を参照して詳細に説明する。
<3.動作処理>
図5は、本実施形態によるデジタルカメラ1の動作処理を示すフローチャートである。図5に示すように、まず、ステップS103において、デジタルカメラ1は、GPS測位部18によりデジタルカメラ1の現在位置を検出する。
次いで、ステップS106において、設定部110は、検出された現在位置に応じて、認識用情報を設定する。なお、設定部110は、現在位置に応じた認識用情報を、認識用情報DB15から抽出して設定してもよいし、外部装置から取得して設定してもよい。
次に、ステップS109において、認識部120は、カメラモジュール13が連続的に撮影するスルー画像に基づいて、設定部110により設定された認識用情報で示される所定の対象を認識する。
次いで、ステップS112において所定の対象が画角内に認識された場合、続くステップS115において、撮影制御部130は、撮影制御を行う。具体的には、上述したように、撮影制御部130は、所定の対象を画角内に含むスルー画像を記憶メディア20に記憶させるよう制御する。
次に、ステップS118において、CPU10は、画角内から所定の対象が外れたか否かを判断する。図5に示すように、撮影制御部130は、画角内に所定の対象を含む限り、ステップS115に示す撮影制御を繰り返し行ってもよい。この際、撮影制御部130は、定期的(1秒毎、5秒毎、30秒毎等)/不定期的に、撮影制御を繰り返してもよい。
次いで、画角内から所定の対象が外れた場合(S118/Yes)、ステップS121において、CPU10は、撮影制御(記憶メディア20への記憶制御)を終了する。
以上、本実施形態によるデジタルカメラ1の撮影制御処理について説明した。これにより、本実施形態によるデジタルカメラ1は、現在位置に応じた所定の対象を自動的に撮影(記憶メディア20に記憶)することができる。具体的には、デジタルカメラ1を装着してユーザがテーマパークに来場した際は、デジタルカメラ1によりテーマパーク特有のキャラクターを自動的に撮影することができる。また、ユーザがテーマパークから移動して動物園に来場した際は、ユーザに装着されたデジタルカメラ1は、動物園特有の動物を自動的に撮影することができる。
なお、デジタルカメラ1が自動撮影モードに設定されていない場合、ステップS115に示す撮影制御に代わり、認識した画角内の所定の対象に焦点を合わせたりズームしたりする撮影準備制御を行ってもよい。これにより、自動的に所定の対象に焦点が合うので、ユーザは任意のタイミングでシャッターボタンを操作して撮影(記憶メディア20に記憶)を行うことができる。
また、上記S112において所定の対象が画角内に認識できない場合、外部から所定の対象の位置情報を受信し、誘導制御部140により、所定の対象が存在する方向にユーザを誘導する制御を行ってもよい。
<4.変形例>
以上、本実施形態による制御システムについて説明したが、本実施形態による制御システムは、図1に示す構成に限られない。以下、本実施形態の制御システムについて複数の変形例を参照して説明する。
[4−1.第1の変形例]
上記実施形態では、ユーザが装着するデジタルカメラ1によってのみ所定の対象を撮影しているが、この場合、ユーザ自身は撮影画像に含まれない。そこで、第1の変形例として、他ユーザに装着されたデジタルカメラでユーザを撮影するよう制御する制御システムを提案する。複数のユーザが、自身に装着されるデジタルカメラ1で、キャラクターS1〜S3や他ユーザを互いに撮影することで、各ユーザは、キャラクターS1〜S3と自身が画角に含まれる撮影画像を取得することができる。以下、図6〜図8を参照して具体的に説明する。
(概要)
図6は、本実施形態の第1の変形例による制御システムの全体構成を示す図である。図6に示すように、本変形例による制御システムは、複数のデジタルカメラ1A、1B、およびサーバ4を有する。また、複数のデジタルカメラ1A、1Bは、例えば無線LANやWi−Fi等によりネットワーク3を介してサーバ4と接続する。
このような構成を有する制御システムにおいて、ユーザAに装着されるデジタルカメラ1Aは、現在位置がエリア1の場合、例えばキャラクターS1〜S3のうちユーザAの好みに応じたキャラクターS1を所定の対象に設定する。そして、デジタルカメラ1Aは、キャラクターS1を画角内に認識すると、撮影制御を行う。しかしながら、上述したように、ユーザAに装着され外界を撮影する装着型のデジタルカメラ1Aでは、ユーザA自身を画角に含めることができない。そこで、本変形例では、ユーザAの嗜好情報として、キャラクターS1が好みであること、およびユーザAの個人設定情報(ユーザAや家族の顔認識情報等)を、サーバ4を介して他ユーザBに装着されるデジタルカメラ1Bに送信する。
デジタルカメラ1Bは、ユーザAの嗜好情報に応じて、キャラクターS1およびユーザAを所定の対象に設定し、これらを画角内に認識した場合に撮影制御を行う。そして、デジタルカメラ1Bは、撮影した撮影画像をサーバ4に送信する。
これにより、ユーザAは、自身に装着されたデジタルカメラ1Aで、キャラクターS1を撮影した撮影画像と、他ユーザBに装着されたデジタルカメラ1Bで、キャラクターS1およびユーザAを撮影した撮影画像を取得することができる。なお、デジタルカメラ1Bでは、ユーザAの嗜好情報やユーザAの嗜好情報に応じて撮影した撮影画像を閲覧できないように設定することで、ユーザAの個人情報を保護する。
以上、本変形例による制御システムの概要について説明した。続いて、本変形例による制御システムに含まれるサーバ4の構成、および本変形例による制御システムの動作処理について順次説明する。なお、デジタルカメラ1A、1Bの基本構成は、図2を参照して説明したデジタルカメラ1の構成と同様であるので、ここでの説明は省略する。
(サーバ4の構成)
図7は、第1の変形例によるサーバ4の構成を示す図である。図7に示すように、サーバ4は、主制御部40、通信部41、認識用情報DB46、嗜好情報DB47、および撮影画像DB48を有する。
主制御部40は、サーバ4の各構成を制御する。例えば主制御部40は、通信部41を介してデジタルカメラ1Aから送信されたユーザAの嗜好情報を、嗜好情報DB47に記憶する。また、主制御部40は、図7に示すように、抽出部43および送信制御部44としても機能する。抽出部43は、デジタルカメラ1から送信された位置情報に応じて認識用情報DB46から所定の認識用情報を抽出したり、嗜好情報DB47から他ユーザの嗜好情報を抽出したり、撮影画像DB48から所定の撮影画像を抽出したりする。送信制御部44は、抽出部43により抽出された情報を、要求元のデジタルカメラ1に送信するよう通信部41を制御する。
通信部41は、外部装置とデータ通信を行うための通信インターフェースである。例えば、通信部41は、デジタルカメラ1から位置情報を受信したり、当該位置情報に応じた認識用情報を送信したりする。また、通信部41は、デジタルカメラ1に他ユーザの嗜好情報を送信してもよい。
認識用情報DB46は、図2を参照して説明した認識用情報DB15と同様に、位置情報に対応付けられた認識用情報を記憶する。
嗜好情報DB47は、図2を参照して説明した嗜好情報DB19と同様に、ユーザの嗜好情報を記憶する。また、嗜好情報DB47に記憶される各ユーザの嗜好情報は、各デジタルカメラ1A、1Bから送信されたものである。
撮影画像DB48は、各デジタルカメラ1A、1Bにより撮影された撮影画像を、カメラIDおよび判定Tagと関連付けて記憶する。ここで、カメラIDとは、各デジタルカメラ1A、1Bの識別情報であって、どのデジタルカメラにより撮影された撮影画像であるかが示される。また、判定Tagとは、どのような条件で撮影されたかを示す情報であって、ホワイトバランスやシャッタースピード等の基本的な撮影パラメータの他、撮影日時、撮影位置、さらに設定した認識対象や、誰の嗜好情報に基づいて認識対象を設定したか等の情報も含む。これにより、例えばユーザAから撮影画像の取得要求があった場合、抽出部43は、ユーザAのデジタルカメラ1AのカメラIDが関連付けられている撮影画像や、ユーザAの嗜好情報に基づいて認識対象が設定され撮影された撮影画像を抽出することができる。
(動作処理)
次に、図8Aおよび図8Bを参照して、本変形例による制御システムの動作処理について説明する。図8Aおよび図8Bは、第1の変形例による制御システムの動作処理を示すフローチャートである。
図8Aに示すように、まず、ステップS120において、デジタルカメラ1Aは、基本設定を行う。具体的には、デジタルカメラ1Aは、例えばデジタルカメラ1の動作設定や、ユーザの嗜好情報の設定を行う。動作設定とは、動画/静止画の取得設定、音声の取得設定、画質/音声品質のパラメータ、連続的に画像/音声を取得する場合におけるインターバル時間の設定等である。ユーザの嗜好情報とは、好みの撮影対象に関する情報(人物、風景、グルメ、動物、草花、キャラクター等)、好みの撮影条件に関する情報(構図や、ホワイトバランスおよびシャッタースピード等の各撮影パラメータ)、グループ設定情報(グループのカメラID等)、および個人設定情報(ユーザ・家族・友人の顔画像登録)等である。なお、ユーザの嗜好情報は、操作入力部14からユーザ操作により入力されてもよい。
次に、上記S120において画像の取得が設定された場合、ステップS200において、デジタルカメラ1Aは撮影処理を行う。ここで、ステップS200に示す撮影処理とは、具体的にはステップS123〜S151に示す処理である。
まず、ステップS123において、デジタルカメラ1Aは、GPS測位部18により現在位置を検出する。
次いで、ステップS126において、デジタルカメラ1Aは、検出した現在位置を示す位置情報およびデジタルカメラ1AのカメラIDをサーバ4に送信する。
次に、ステップS129において、サーバ4の抽出部43は、位置情報に応じた認識用情報を認識用情報DB46から抽出する。
次いで、ステップS132において、サーバ4の送信制御部44は、抽出部43により抽出された認識用情報をデジタルカメラ1Aに送信する。
なお、上記S126〜S132において、サーバ4から位置情報に応じた認識用情報を取得する処理を示したが、上記処理は必ずしも必要ではなく、デジタルカメラ1Aが対応する認識用情報を既に有している場合は不要である。
次に、ステップS135において、デジタルカメラ1Aは、ユーザAの嗜好を反映させる。具体的には、現在位置に対応する認識用情報で示される所定の対象が「キャラクターS1〜S3」であって、ユーザAの嗜好情報に示される「好みのキャラクター」が「キャラクターS1」である場合、ユーザAの嗜好「好みのキャラクター:キャラクターS1」を認識用情報に反映させる。若しくは、デジタルカメラ1Aは、認識用情報で示される複数の所定の対象(例えばキャラクターS1〜S3)を選択するための選択画面を表示部16に表示し、ユーザAに選択された所定の対象をユーザAの嗜好として反映させてもよい。なお、ユーザAの嗜好情報が設定されていない場合や、「お任せ」に設定されている場合、ステップS135に示す嗜好の反映処理は不要である。
次いで、ステップS138において、デジタルカメラ1Aは、ユーザAの嗜好情報を、デジタルカメラ1AのカメラIDと紐付けてサーバ4に送信する。なお、ユーザAの嗜好情報をサーバ4に送信するタイミングは、図8Aに示す例に限定されず、例えば上記S120に示す基本設定の後や、上記S126に示す位置情報の送信と同時であってもよい。
次に、ステップS139において、サーバ4は、ユーザAの嗜好情報を、ユーザAが所持するデジタルカメラ1AのカメラIDと紐付けて嗜好情報DB47に登録する。なお、サーバ4の嗜好情報DB47には、各ユーザの嗜好情報が、各ユーザが所持するデジタルカメラ1のカメラIDと紐付けて登録されている。
次いで、ステップS141において、サーバ4は、嗜好情報DB47から他ユーザの嗜好情報を抽出し、デジタルカメラ1Aに送信する。より具体的には、サーバ4は、デジタルカメラ1Aの位置情報を参照し、同エリアに居る他ユーザBの嗜好情報が嗜好情報DB47に登録されている場合、当該嗜好情報を送信する。
次に、ステップS144において、デジタルカメラ1Aの設定部110は、デジタルカメラ1Aの現在位置を示す位置情報に応じた認識用情報を設定する。具体的には、例えば設定部110は、上記S132でサーバ4から受信した位置情報に応じた認識用情報を設定してもよいし、上記S135でユーザAの嗜好を反映した認識用情報を設定してもよい。
さらに、設定部110は、上記S141でサーバ4から受信した他ユーザBの嗜好情報に基づいて、他ユーザBの嗜好を反映した認識用情報を設定してもよい。例えば、ユーザBの嗜好「好みのキャラクター:キャラクターS3」や、ユーザBの顔画像を反映させた認識用情報を設定する。
次いで、ステップS147において、デジタルカメラ1Aの認識部120は、カメラモジュール13により連続的に撮像されるスルー画像を解析し、設定部110により設定された認識用情報で示される所定の対象を認識する。例えば認識部120は、画角内に、認識用情報で示されるキャラクターS1が含まれるか否かを認識する。
また、認識部120により所定の対象が認識されると、撮影制御部130は、撮影を実行する。具体的には、例えば撮影制御部130は、所定の対象にフォーカスして撮影を行うようカメラモジュール13を制御し、撮影画像を記憶メディア20に記憶させる。
なお、認識部120は、他ユーザBの嗜好情報に基づいて設定された認識用情報で示される所定の対象の認識は、所有者であるユーザAの嗜好情報に基づいて設定された認識用情報で示される所定の対象の認識より優先度を低くしてもよい。また、セキュリティ上、他ユーザBの嗜好情報に基づいて設定された認識用情報で示される所定の対象を認識して撮影した撮影画像は、デジタルカメラ1Aでは表示できないようにしてもよい。
次に、ステップS150において、デジタルカメラ1Aは、撮影画像、カメラID、および判定Tagをサーバ4に送信する。
次いで、ステップS151において、サーバ4は、受信した撮影画像、カメラID、および判定Tagを紐付けて撮影画像DB48に記憶する。
以上、ステップS200に示すデジタルカメラ1Aとサーバ4間の撮影処理について、S123〜S151において具体的に説明した。上述した撮影処理は、各デジタルカメラ1とサーバ4間で実行される。例えば、図8Bに示すステップS210において、デジタルカメラ1Bとサーバ4間で同様の撮影処理を実行する。したがって、ユーザAの嗜好情報もデジタルカメラ1Bに送信され、デジタルカメラ1Bにおいて、ユーザAの好みのキャラクターおよびユーザAが撮像される。
このように、ユーザAに装着されたデジタルカメラ1Aでは、ユーザAの外界であって、位置情報に対応した所定の対象を撮影した撮影画像が取得され、他ユーザBに装着されたデジタルカメラ1Bでは、ユーザAや所定の対象を撮影した撮影画像が取得される。
なお、図8A、図8Bに示す動作処理では、各ユーザの嗜好情報は、サーバ4を介して各デジタルカメラ1に送信されているが(ステップS138〜S141)、本変形例に示す動作処理はこれに限定されない。例えば、各デジタルカメラ1は、近接無線通信により互いにユーザの嗜好情報を送信してもよい。
また、ユーザAが、他のデジタルカメラ1Bにより自分の嗜好情報に基づいて撮影された撮影画像を取得したい場合、例えばデジタルカメラ1Aからサーバ4に問い合わせを行って取得してもよい。
具体的には、ステップS153において、デジタルカメラ1Aは、サーバ4に撮影画像要求を行う。この際、デジタルカメラ1Aは、デジタルカメラ1AのカメラIDやユーザAのユーザIDを送信する。
次いで、ステップS156において、サーバ4の抽出部43は、受信したデジタルカメラ1AのカメラIDに基づいて、撮影画像DB48に記憶されている撮影画像の判定Tagを参照し、所望の撮影画像を抽出する。判定Tagには、撮影条件を示す情報が含まれているところ、例えばデジタルカメラ1Aから送信された嗜好情報に基づいて撮影が行われた場合、好情報と共に当該デジタルカメラ1Aから送信されたカメラIDが含まれる。これにより、サーバ4は、デジタルカメラ1AのカメラIDを用いることで、ユーザAの嗜好情報に基づいて他のデジタルカメラ1Bで撮影された撮影画像を抽出することができる。
なお、本変形例ではカメラIDを用いているが、これに限定されず、例えばカメラIDの代わりにユーザIDを用いてもよい。
次に、ステップS159において、サーバ4は、抽出した撮影画像をデジタルカメラ1Aに送信する。これによりユーザAは、デジタルカメラ1Aで撮影したキャラクターS1を含むユーザAの外界の撮影画像と、他のデジタルカメラ1Bで撮影されたユーザAやキャラクターS1を含む撮影画像の両方を取得することできる。
また、上記S153〜S159では、デジタルカメラ1Aから撮影画像要求を行う場合について説明したが、本変形例はこれに限定されず、例えばユーザAの情報処理装置(ノートPC、スマートフォン等)から、サーバ4に撮影画像要求を行ってもよい。
[4−2.第2の変形例]
次に、本実施形態の第2の変形例について説明する。上述した実施形態では、制御装置の一例として、ユーザに装着されるデジタルカメラ1を用いたが、本実施形態による制御装置はこれに限定されない。例えば、本実施形態による制御装置は、屋内や屋外の至るところに配置される外部機器であってもよい。以下、図9〜図11を参照して具体的に説明する。
(概要)
図9は、本実施形態の第2の変形例による制御システムの全体構成を示す図である。図9に示すように、本変形例による制御システムは、複数のデジタルカメラ1A、1B、複数の外部機器2A、2B、およびサーバ4を有する。また、複数のデジタルカメラ1A、1B、外部機器2A、2Bは、例えば無線LANやWi−Fi等によりネットワーク3を介してサーバ4と接続する。
ここで、上述した第1の変形例では、他ユーザBにデジタルカメラ1Bが装着されているが、デジタルカメラ1Bは来場者に装着される場合に限定されず、エリアの所定の対象である動物やキャラクター等に装着されていてもよい。図9に示す第2の変形例では、一例としてエリア2の動物園に居る動物にデジタルカメラ1Bが装着されている場合を示す。デジタルカメラ1Aおよび1Bとサーバ4との動作処理は、図8A、図8Bに示す第1の変形例と同様である。
外部機器2A、2Bは、ユーザの周囲の建物の壁や天井、街灯、テーマパークのアトラクション(乗り物)等に配置され、ユーザを周囲から撮影/録音する機能を有する。図9では、複数の外部機器が配置されている例を示しているが、外部機器は1つであってもよい。
このような構成を有する制御システムにおいて、デジタルカメラ1A、1B、および外部機器2A、2Bは、現在位置に応じた認識用情報を設定する。例えば、現在位置がエリア2(動物園)の場合、エリア2に居る動物Iを所定の対象として示す認識用情報を設定する。そして、デジタルカメラ1A、1B、および外部機器2A、2Bは、設定された動物を画角内に認識すると、撮影制御を行う。
また、デジタルカメラ1B、外部機器2A、2Bは、ユーザAの嗜好情報を取得した場合、ユーザAの嗜好情報を反映した認識用情報を設定し、ユーザAの好みの動物や、ユーザAを認識して撮影を行うことも可能である。
これにより、ユーザAに装着されたデジタルカメラ1Aでは、位置情報に応じた所定の動物Iを撮影し、ユーザAの周囲に配置された外部機器2A、2Bでは、動物IおよびユーザAを画角内に含めて撮影することができる。
以上、本変形例による制御システムの概要について説明した。続いて、本変形例による制御システムに含まれる外部機器2の構成、および本変形例による制御システムの動作処理について順次説明する。なお、デジタルカメラ1A、1Bの基本構成は、図2を参照して説明したデジタルカメラ1の構成と同様であるので、ここでの説明は省略する。
(外部機器2の構成)
図10は、本実施形態による外部機器2の構成を示すブロック図である。図10に示すように、外部機器2は、CPU25、ROM21、RAM22、カメラモジュール23、操作入力部24、通信部27、GPS測位部28、およびデータベース29を有する。カメラモジュール23、操作入力部24、GPS測位部28(検出部)、ROM21、およびRAM22の主要機能は、デジタルカメラ1の同ブロックと同様であるので、ここでの説明は省略する。
通信部27は、外部装置とデータ通信を行うための通信インターフェースである。より具体的には、例えば本実施形態による通信部27は、CPU25の制御に応じて、サーバ4を介してデジタルカメラ1AからユーザAの嗜好情報を受信したり、外部機器2が撮影した撮影画像をサーバ4に送信したりする。
データベース29は、認識用情報や、各ユーザの嗜好情報、および撮影画像を記憶する記憶部である。
CPU25は、外部機器2の各構成を制御する制御部である。例えば、CPU25は、GPS測位部28により測位された現在位置に応じた認識用情報を設定する設定部として機能する。また、CPU25は、カメラモジュール23により連続的に撮影されるスルー画像を解析し、設定した認識用情報で示される所定の対象を認識する認識部としても機能する。
さらに、所定の対象が画角内に認識された場合、CPU25は、認識した所定の対象にフォーカスして撮影するようカメラモジュール23を制御し、撮影した撮影画像をデータベース29に記憶させる撮影制御部としても機能する。なお、CPU25(撮影制御部)は、カメラモジュール23により連続的に撮影されるスルー画像が順次データベース29に記憶されている場合、認識した所定の対象を画角内に含むフレーム(撮影画像)にマークを付与してもよい。
(動作処理)
次に、図11を参照して、本変形例による制御システムの動作処理について説明する。図11は、第2の変形例による制御システムの動作処理を示すフローチャートである。
図11に示すように、まず、ステップS160において、外部機器2Aは、連続的に撮影動作を行い、撮影画像をビデオデータとして順次データベース29に記憶している。この際、外部機器2Aは、GPS測位部28により測位した現在位置に応じた認識用情報を設定し、当該認識用情報で示される所定の対象にフォーカスを合わせて撮影してもよい。
一方、デジタルカメラ1Aは、ステップS163において、ーザAの嗜好を反映させる。次いで、ステップS166において、デジタルカメラ1Aは、ユーザAの嗜好情報およびカメラIDをサーバ4に送信する。次に、ステップS167において、サーバ4は、ユーザAの嗜好情報を、ユーザAが所持するデジタルカメラ1AのカメラIDと紐付けて嗜好情報DB47に登録する。なお、ステップS163〜S167に示す処理は、図8Aに示すステップS135〜S139に示す処理と同様であるので、ここでの具体的な説明は省略する。また、ステップS163の前に、図8Aに示すステップS123〜S132と同様の処理が行われるが、図11に示すフローではこれらを省略している。
次いで、ステップS169において、サーバ4は、ユーザAの嗜好情報を外部機器2Aに送信する。
次に、ステップS172において、外部機器2Aは、受信したユーザAの嗜好情報を反映させた認識用情報を設定し、カメラモジュール23で解析することにより、当該認識用情報で示される所定の対象を認識する。
次いで、ステップS175において、外部機器2Aは、所定の対象を認識したタイミングで撮影した撮影静止画像(フレーム)にマークを付与する。
次に、ステップS178において、外部機器2Aは、マークを付与したフレームを少なくとも含む撮影画像、外部機器2AのカメラID、および判定Tagをサーバ4に送信する。
次いで、ステップS179において、サーバ4は、受信した撮影画像、カメラID、および判定Tagを紐付けて撮影画像DB48に記憶する。また、サーバ4は、受信した撮影画像のうち、マークが付与された撮影画像(フレーム)を、カメラID、および判定Tagと紐付けて撮影画像DB48に記憶してもよい。
以上、外部機器2Aにおいて、現在位置に応じた認識用情報に、ユーザAの嗜好情報を反映させて設定し、撮影制御を行う場合の処理について具体的に説明した。なお、図11では、デジタルカメラ1Aにおける撮影制御に関する処理(図8Aに示すS141〜S151)の図示は省略している。
上述したように、外部機器2Aは、現在位置に応じた認識用情報で示される所定の対象を撮影したり、さらにユーザAの嗜好情報を当該認識用情報に反映させて設定し、認識用情報で示される所定の対象を撮影したりすることができる。また、外部機器2Aが、監視カメラとしても機能し、連続的に撮影した画像を順次記憶している場合、外部機器2Aは、所定の対象が含まれるフレームにマークを付与することで、他のフレームと識別することができる。
次に、ユーザAが、外部機器2Aにより自分の嗜好情報に基づいて撮影された撮影画像を取得したい場合、第1の変形例と同様に、デジタルカメラ1Aからサーバ4に問い合わせを行って取得することができる。
具体的には、ステップS181において、デジタルカメラ1Aは、サーバ4に撮影画像要求を行う。この際、デジタルカメラ1Aは、デジタルカメラ1AのカメラIDやユーザAのユーザIDを送信する。
次いで、ステップS18において、サーバ4の抽出部43は、受信したデジタルカメラ1AのカメラIDに基づいて、撮影画像DB48に記憶されている撮影画像の判定Tagを参照し、所望の撮影画像を抽出する。判定Tagには、撮影条件を示す情報が含まれているところ、例えばデジタルカメラ1Aから送信された嗜好情報に基づいて撮影が行われた場合、判定Tagには、嗜好情報と共に当該デジタルカメラ1Aから送信されたカメラIDが含まれる。これにより、サーバ4は、デジタルカメラ1AのカメラIDを用いることで、ユーザAの嗜好情報に基づいて外部機器2で撮影された撮影画像を抽出することができる。
次に、ステップS186において、サーバ4は、抽出した撮影画像をデジタルカメラ1Aに送信する。これによりユーザAは、デジタルカメラ1Aで撮影した動物Iを含むユーザAの外界の撮影画像と、外部機器2Aで撮影されたユーザAと動物Iを含む撮影画像の両方を取得することできる。
<5.まとめ>
上述したように、本実施形態による制御システムでは、現在位置に応じた所定の対象を示す認識用情報を自動設定し、所定の対象を認識した場合に、所定の対象を撮影/録音することができる。これにより、本制御システムは、例えばテーマパークに居る特有のキャラクターなど、エリアに応じて撮影/録音対象を自動的に設定し、当該撮影/録音対象にフォーカスして撮影/録音することができる。
また、本制御システムは、ユーザの嗜好情報を反映させて認識用情報を設定することにより、ユーザの好みに合った条件で撮影/録音を行うことができる。
さらに、ユーザに装着されたデジタルカメラ(制御装置の一例)のみではなく、ユーザの周囲に配置された外部機器(制御装置の他の例)において設定される認識用情報にもユーザの嗜好情報を反映させることができる。これにより、外部機器は、現在位置に応じた所定の対象とユーザにフォーカスして撮影/録音を行うことができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した嗜好情報は、ユーザ操作により入力される他、デジタルカメラ1が学習機能を有し、ユーザが撮影した撮影画像や行動履歴等から嗜好情報を学習してもよい。
また、本実施形態によるデジタルカメラ1は、位置情報に応じた複数の所定の対象のうち、ユーザの嗜好情報の反映や、ユーザにより選択される場合の他、ユーザが近寄った(またはタッチした)所定の対象にフォーカスして撮影制御してもよい。
また、本実施形態によるデジタルカメラ1は、バッテリー消費の問題を考慮し、連続的なスルー画像の撮影は行わず、位置情報に応じた所定の音声(パレードの音、キャラクターの声、歓声等)をトリガにスルー撮影を開始してもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
現在位置情報を検出する検出部と、
位置情報に応じて異なる認識用情報を設定する設定部と、
前記検出部により検出された現在位置情報に応じて前記設定部により設定された認識用情報で示される所定の対象を認識する認識部と、
前記認識部による認識結果に応じて、撮像部および収音部の少なくともいずれかを制御する制御部と、
を備える、制御装置。
(2)
前記制御装置は、撮像部をさらに備え、
前記認識部は、前記撮像部により撮像された撮像画像を解析することにより、所定の対象を認識する、前記(1)に記載の制御装置。
(3)
前記制御部は、撮像部または収音部により連続的に撮像/収音している場合、前記認識部により所定の対象が認識されたタイミングで撮像/収音したデータに対して、マークを付与するよう制御する、前記(1)または(2)に記載の制御装置。
(4)
前記制御部は、前記認識部により所定の対象が認識されたタイミングで撮像/収音するよう撮像部または収音部を制御する、前記(1)または(2)に記載の制御装置。
(5)
前記制御装置は、
前記認識部により所定の対象が認識されたタイミングで撮像/録音されたデータを、前記制御装置の識別情報と共に外部に送信する送信部をさらに備える、前記(1)〜(4)のいずれか1項に記載の制御装置。
(6)
前記制御装置は、
位置情報に応じた認識用情報を外部から受信する受信部をさらに備える、前記(1)〜(5)のいずれか1項に記載の制御装置。
(7)
前記制御装置は、屋外または屋内において、ユーザの周囲に配される外部機器である、前記(1)〜(6)のいずれか1項に記載の制御装置。
(8)
前記制御装置は、ユーザに装着され得るウェアラブル装置である、前記(1)〜(6)のいずれか1項に記載の制御装置。
(9)
前記設定部は、位置情報に応じた複数の認識用情報のうちユーザに選択された認識用情報を設定する、前記(1)〜(8)のいずれか1項に記載の制御装置。
(10)
前記設定部は、ユーザの嗜好情報を反映した認識用情報をさらに設定する、前記(1)〜(9)のいずれか1項に記載の制御装置。
(11)
前記ユーザの嗜好情報は、位置情報に応じた好みの認識対象、好みのジャンル、好みの構図、またはユーザの家族・知人の顔認識情報である、前記(10)に記載の制御装置。
(12)
前記設定部は、前記検出部により検出された現在位置が所定のテーマパーク内である場合、予め登録された前記所定のテーマパークに関連する所定のキャラクターを所定の対象として示す認識情報を設定する、前記(1)〜(11)のいずれか1項に記載の制御装置。
(13)
前記設定部は、前記検出部により検出された現在位置が結婚式場内である場合、花嫁および花婿を所定の対象として示す認識情報を設定する、前記(1)〜(12)のいずれか1項に記載の制御装置。
(14)
前記設定部は、ユーザの嗜好情報に含まれる好みのジャンルがグルメである場合、料理を所定の対象として示す認識情報をさらに設定する、前記(1)〜(13)のいずれか1項に記載の制御装置。
(15)
コンピュータを、
現在位置情報を検出する検出部と、
位置情報に応じて異なる認識用情報を設定する設定部と、
前記検出部により検出された現在位置情報に応じて前記設定部により設定された認識用情報で示される所定の対象を認識する認識部と、
前記認識部による認識結果に応じて、撮像部および収音部の少なくともいずれかを制御する制御部、
として機能させるためのプログラムが記憶された、記憶媒体。
1、1A、1B デジタルカメラ
2、2A、2B 外部機器
3 ネットワーク
4 サーバ
10、25 CPU
11、21 ROM
12、22 RAM
13、23 カメラモジュール
14、24 操作入力部
15、46 認識用情報DB
16 表示部
17、26、41 通信部
18、28 GPS測位部
19、47 嗜好情報DB
20 記憶メディア
29 データベース
40 主制御部
43 抽出部
44 送信制御部
48 撮影画像DB
110 設定部
120 認識部
130 撮影制御部
140 誘導制御部

Claims (14)

  1. 現在位置情報を検出する検出部と、
    位置情報に応じて異なる認識用情報を設定する設定部と、
    前記検出部により検出された現在位置情報に応じて前記設定部により設定された認識用情報で示される所定の対象を認識する認識部と、
    前記認識部による認識結果に応じて、撮像部および収音部の少なくともいずれかを制御する制御部と、
    を備え
    前記設定部は、前記検出部により検出された現在位置が所定のテーマパーク内である場合、予め登録された前記所定のテーマパークに関連する所定のキャラクターを所定の対象として示す認識用情報を設定する、制御装置。
  2. 前記制御装置は、撮像部をさらに備え、
    前記認識部は、前記撮像部により撮像された撮像画像を解析することにより、所定の対象を認識する、請求項1に記載の制御装置。
  3. 前記制御部は、撮像部または収音部により連続的に撮像/収音している場合、前記認識部により所定の対象が認識されたタイミングで撮像/収音したデータに対して、マークを付与するよう制御する、請求項1に記載の制御装置。
  4. 前記制御部は、前記認識部により所定の対象が認識されたタイミングで撮像/収音するよう撮像部または収音部を制御する、請求項1に記載の制御装置。
  5. 前記制御装置は、
    前記認識部により所定の対象が認識されたタイミングで撮像/録音されたデータを、前記制御装置の識別情報と共に外部に送信する送信部をさらに備える、請求項1に記載の制御装置。
  6. 前記制御装置は、
    位置情報に応じた認識用情報を外部から受信する受信部をさらに備える、請求項1に記載の制御装置。
  7. 前記制御装置は、屋外または屋内において、ユーザの周囲に配される外部機器である、請求項1に記載の制御装置。
  8. 前記制御装置は、ユーザに装着され得るウェアラブル装置である、請求項1に記載の制御装置。
  9. 前記設定部は、位置情報に応じた複数の認識用情報のうちユーザに選択された認識用情報を設定する、請求項1に記載の制御装置。
  10. 前記設定部は、ユーザの嗜好情報を反映した認識用情報をさらに設定する、請求項1に記載の制御装置。
  11. 前記ユーザの嗜好情報は、位置情報に応じた好みの認識対象、好みのジャンル、好みの構図、またはユーザの家族・知人の顔認識情報である、請求項10に記載の制御装置。
  12. 前記設定部は、前記検出部により検出された現在位置が結婚式場内である場合、花嫁および花婿を所定の対象として示す認識情報を設定する、請求項1に記載の制御装置。
  13. 前記設定部は、ユーザの嗜好情報に含まれる好みのジャンルがグルメである場合、料理を所定の対象として示す認識情報をさらに設定する、請求項1に記載の制御装置。
  14. コンピュータを、
    現在位置情報を検出する検出部と、
    位置情報に応じて異なる認識用情報を設定する設定部と、
    前記検出部により検出された現在位置情報に応じて前記設定部により設定された認識用情報で示される所定の対象を認識する認識部と、
    前記認識部による認識結果に応じて、撮像部および収音部の少なくともいずれかを制御する制御部、
    として機能させるためのプログラムが記憶され
    前記設定部は、前記検出部により検出された現在位置が所定のテーマパーク内である場合、予め登録された前記所定のテーマパークに関連する所定のキャラクターを所定の対象として示す認識用情報を設定する、記憶媒体。
JP2014531527A 2012-08-23 2013-06-07 制御装置および記憶媒体 Expired - Fee Related JP6229656B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012184045 2012-08-23
JP2012184045 2012-08-23
PCT/JP2013/065872 WO2014030407A1 (ja) 2012-08-23 2013-06-07 制御装置および記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2014030407A1 JPWO2014030407A1 (ja) 2016-07-28
JP6229656B2 true JP6229656B2 (ja) 2017-11-15

Family

ID=50149725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014531527A Expired - Fee Related JP6229656B2 (ja) 2012-08-23 2013-06-07 制御装置および記憶媒体

Country Status (4)

Country Link
US (1) US20150207976A1 (ja)
EP (1) EP2892222A4 (ja)
JP (1) JP6229656B2 (ja)
WO (1) WO2014030407A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102326431B1 (ko) * 2021-08-23 2021-11-12 이성규 원격지의 하객이 참여하여 온라인으로 웨딩을 진행하는 웨딩 플랫폼 애플리케이션의 운영방법

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102174470B1 (ko) * 2014-03-31 2020-11-04 삼성전자주식회사 영상 저장 시스템 및 방법
CN105227925B (zh) * 2015-10-12 2019-02-01 北京奇虎科技有限公司 一种实现网络摄像机的移动监控的方法、装置和系统
KR102407815B1 (ko) 2016-12-22 2022-06-13 삼성전자주식회사 영상 처리 장치 및 방법
JP6641446B2 (ja) * 2017-12-26 2020-02-05 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、記憶媒体
JP2020010204A (ja) 2018-07-09 2020-01-16 株式会社東芝 センシングシステム、保守端末装置、データ配布方法、および画像センサ
US11140308B2 (en) * 2018-07-25 2021-10-05 International Business Machines Corporation Life-logging system with third-person perspective
JP6896818B2 (ja) * 2018-10-25 2021-06-30 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
US11463617B2 (en) 2018-10-25 2022-10-04 Canon Kabushiki Kaisha Information processing apparatus, information processing system, image capturing apparatus, information processing method, and memory
JP7129920B2 (ja) * 2019-01-15 2022-09-02 株式会社Nttドコモ 撮像装置
WO2021005593A1 (en) * 2019-07-08 2021-01-14 Cliqa Social Ltd Panoramic imaging via networked devices
JP7040664B1 (ja) 2021-10-28 2022-03-23 トヨタ自動車株式会社 データ収集装置、データ取得装置及びデータ収集方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3919437B2 (ja) 1999-10-08 2007-05-23 富士フイルム株式会社 画像撮影システム、画像処理システムおよびこれらを接続した画像提供システム
JP2002213973A (ja) * 2001-01-18 2002-07-31 Sony Corp 画像取得装置、画像取得方法、画像取得のプログラム
US20060244830A1 (en) * 2002-06-04 2006-11-02 Davenport David M System and method of navigation with captured images
US7756322B2 (en) * 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
JP2008124885A (ja) * 2006-11-14 2008-05-29 Sony Corp 撮像システム、撮像方法
JP4416017B2 (ja) * 2007-07-18 2010-02-17 ソニー株式会社 撮像システム
JP2009267792A (ja) * 2008-04-25 2009-11-12 Panasonic Corp 撮像装置
JP2009303003A (ja) * 2008-06-16 2009-12-24 Nikon Corp スライドショー自動作成システム、およびスライドショー自動作成プログラム
JP5359337B2 (ja) * 2009-02-10 2013-12-04 株式会社ニコン 電子スチルカメラ
EP2449485A1 (en) * 2009-07-01 2012-05-09 E-Plate Limited Video acquisition and compilation system and method of assembling and distributing a composite video
JP5671224B2 (ja) * 2009-10-20 2015-02-18 キヤノン株式会社 画像処理装置、画像処理方法
JP2011109253A (ja) * 2009-11-13 2011-06-02 Canon Inc 撮像装置
WO2012103649A1 (en) * 2011-01-31 2012-08-09 Cast Group Of Companies Inc. System and method for providing 3d sound

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102326431B1 (ko) * 2021-08-23 2021-11-12 이성규 원격지의 하객이 참여하여 온라인으로 웨딩을 진행하는 웨딩 플랫폼 애플리케이션의 운영방법

Also Published As

Publication number Publication date
WO2014030407A1 (ja) 2014-02-27
JPWO2014030407A1 (ja) 2016-07-28
EP2892222A4 (en) 2016-04-20
US20150207976A1 (en) 2015-07-23
EP2892222A1 (en) 2015-07-08

Similar Documents

Publication Publication Date Title
JP6229656B2 (ja) 制御装置および記憶媒体
CN111345028B (zh) 图像拾取装置及其控制方法
JP5888172B2 (ja) データ記憶装置およびプログラム
KR101778135B1 (ko) 오브젝트 정보 제공방법 및 이를 적용한 촬영장치
JP6248937B2 (ja) コンテンツ取得装置、携帯装置、サーバ、情報処理装置及び記憶媒体
JP5915457B2 (ja) 制御システムおよびプログラム
JP2004356683A (ja) 画像管理システム
US8644614B2 (en) Image processing apparatus, image processing method, and storage medium
JP6028457B2 (ja) 端末装置、サーバ及びプログラム
JP5975099B2 (ja) 情報処理装置、システム、および記憶媒体
JPWO2015186447A1 (ja) 情報処理装置、撮影装置、画像共有システム、情報処理方法およびプログラム
JP2004260304A (ja) 画像管理システム
KR102475999B1 (ko) 화상 처리장치 및 그 제어방법
WO2019124055A1 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2019110509A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
KR102078270B1 (ko) 증강현실 기능이 적용된 자가촬영사진지원 카메라 시스템
WO2019124056A1 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2019110525A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
CN106412429B (zh) 一种基于温室大棚的图像处理方法及装置
KR102078286B1 (ko) 전자 지리정보를 활용한 자가촬영사진지원 카메라 시스템
JP2006059009A (ja) 撮像装置及び被写体id付加方法
JP5473034B2 (ja) 端末装置及びプログラム
JP5218987B2 (ja) 端末装置及びプログラム
JP5560868B2 (ja) 画像処理装置及び画像処理方法並びにそのプログラム
JP5959916B2 (ja) 電子カメラ

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171002

R151 Written notification of patent or utility model registration

Ref document number: 6229656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees