JP2015146522A - Imaging device, method for controlling the same, and program - Google Patents

Imaging device, method for controlling the same, and program Download PDF

Info

Publication number
JP2015146522A
JP2015146522A JP2014018684A JP2014018684A JP2015146522A JP 2015146522 A JP2015146522 A JP 2015146522A JP 2014018684 A JP2014018684 A JP 2014018684A JP 2014018684 A JP2014018684 A JP 2014018684A JP 2015146522 A JP2015146522 A JP 2015146522A
Authority
JP
Japan
Prior art keywords
camera
eyepiece
external device
wireless communication
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014018684A
Other languages
Japanese (ja)
Other versions
JP2015146522A5 (en
JP6300548B2 (en
Inventor
正和 土橋
Masakazu Tsuchihashi
正和 土橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014018684A priority Critical patent/JP6300548B2/en
Publication of JP2015146522A publication Critical patent/JP2015146522A/en
Publication of JP2015146522A5 publication Critical patent/JP2015146522A5/ja
Application granted granted Critical
Publication of JP6300548B2 publication Critical patent/JP6300548B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To achieve more comfortable photographic environment when an imaging device utilizes a display of an external apparatus by communication.SOLUTION: Between a camera 100 and a portable terminal 200, communication is capable of being performed by radio communication and connector connection. In the case where the radio communication is performed by the camera 100 and the portable terminal 200, if the presence of an eye is detected by an eyepiece detection part 108, a display device 101 of the camera 100 is lighted out but the display device 201 of the portable terminal 101 is prevented from being lighted out. On the other hand, in the case where the camera 100 and the portable terminal 200 are communicated by connector connection, if the presence of the eye is detected by the eyepiece detection 108, both the display device 101 of the camera 100 and the display device 201 of the portable terminal 200 are lighted out.

Description

本発明は、外部機器と無線通信及びコネクタ接続による通信が可能な撮像装置、その制御方法、プログラム及び記憶媒体に関する。   The present invention relates to an imaging apparatus capable of communicating with an external device by wireless communication and connector connection, a control method thereof, a program, and a storage medium.

従来、デジタル一眼レフカメラにおいて、ビューファインダーへの接眼を検知したことに応じて、カメラのディスプレイをオフにする技術が知られている(特許文献1)。   Conventionally, in a digital single-lens reflex camera, a technique for turning off the display of a camera in response to detection of an eyepiece to a viewfinder is known (Patent Document 1).

特開2005−229255号公報JP 2005-229255 A

近年では、カメラが携帯端末等の外部機器と通信を行い、例えばカメラで撮影した画像を携帯端末のディスプレイに表示する機能が実現されている。
しかしながら、上述の特許文献1では、カメラのディスプレイしか制御しておらず、カメラで撮影した画像を携帯端末のディスプレイに表示する機能について何ら考慮されていない。カメラ側の状況に応じて外部機器のディスプレイを適切に制御することで、より快適な撮影環境を実現することができる。
In recent years, a function has been realized in which a camera communicates with an external device such as a mobile terminal, and for example, an image captured by the camera is displayed on a display of the mobile terminal.
However, in Patent Document 1 described above, only the display of the camera is controlled, and no consideration is given to the function of displaying an image captured by the camera on the display of the mobile terminal. A more comfortable shooting environment can be realized by appropriately controlling the display of the external device according to the situation on the camera side.

本発明では上記のような点に鑑みてなされたものであり、撮像装置が通信により外部機器のディスプレイを利用する際に、より快適な撮影環境を実現できるようにすることを目的とする。   The present invention has been made in view of the above points, and an object thereof is to realize a more comfortable shooting environment when an imaging apparatus uses a display of an external device by communication.

本発明の撮像装置は、外部機器と無線通信及び有線通信で接続することが可能な撮像装置であって、ファインダーと、ファインダーへの接眼を検知する接眼検知手段と、前記外部機器と前記有線通信で接続している状態で、前記接眼検知手段により接眼を検知した場合、前記外部機器の表示部を消灯するよう制御し、前記外部機器と前記無線通信で接続している状態で、前記接眼検知手段により接眼を検知した場合、前記外部機器の表示部は消灯しないよう制御する制御手段とを備えたことを特徴とする。   The imaging device of the present invention is an imaging device that can be connected to an external device by wireless communication and wired communication, and includes a finder, an eyepiece detection unit that detects an eyepiece to the finder, the external device, and the wired communication. When the eyepiece is detected by the eyepiece detection means while connected to the external device, the display unit of the external device is controlled to be turned off, and the eyepiece detection is performed while connected to the external device via the wireless communication. And a control means for controlling the display unit of the external device not to turn off when the eyepiece is detected by the means.

本発明によれば、撮像装置が通信により外部機器のディスプレイを利用する際に、より快適な撮影環境を実現することができる。   ADVANTAGE OF THE INVENTION According to this invention, when an imaging device utilizes the display of an external apparatus by communication, a more comfortable imaging environment can be implement | achieved.

第1の実施形態に係るデジタルカメラの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a digital camera according to a first embodiment. 第1の実施形態に係る携帯端末の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the portable terminal which concerns on 1st Embodiment. 第1の実施形態においてデジタルカメラと携帯端末とが通信を行うシステムの概略構成を示す図である。It is a figure which shows schematic structure of the system in which a digital camera and a portable terminal communicate in 1st Embodiment. 第1の実施形態においてデジタルカメラと携帯端末とが無線通信を行う場合のデジタルカメラの処理動作を示すフローチャートである。6 is a flowchart illustrating a processing operation of the digital camera when the digital camera and the mobile terminal perform wireless communication in the first embodiment. 第1の実施形態においてデジタルカメラと携帯端末とが無線通信を行う場合の携帯端末の処理動作を示すフローチャートである。4 is a flowchart illustrating processing operations of the mobile terminal when the digital camera and the mobile terminal perform wireless communication in the first embodiment. 第1の実施形態においてデジタルカメラと携帯端末とがコネクタ接続による通信を行う場合のデジタルカメラの処理動作を示すフローチャートである。4 is a flowchart illustrating a processing operation of the digital camera when the digital camera and the mobile terminal perform communication by connector connection in the first embodiment. 第1の実施形態においてデジタルカメラと携帯端末とがコネクタ接続による通信を行う場合の携帯端末の処理動作を示すフローチャートである。4 is a flowchart illustrating processing operations of the mobile terminal when the digital camera and the mobile terminal perform communication by connector connection in the first embodiment. 第1の実施形態における接眼検知時の状態を示す図である。It is a figure which shows the state at the time of eyepiece detection in 1st Embodiment. 第2の実施形態における接眼検知時の状態を示す図である。It is a figure which shows the state at the time of the eyepiece detection in 2nd Embodiment. 第2の実施形態においてデジタルカメラと携帯端末とが無線通信を行う場合のデジタルカメラの処理動作を示すフローチャートである。10 is a flowchart illustrating processing operations of the digital camera when the digital camera and the mobile terminal perform wireless communication in the second embodiment. 第2の実施形態においてデジタルカメラと携帯端末とが無線通信を行う場合の携帯端末の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of a portable terminal in case a digital camera and a portable terminal perform wireless communication in 2nd Embodiment.

以下、添付図面を参照して、本発明の好適な実施形態について説明する。
(第1の実施形態)
<カメラ100の構成>
図1は、第1の実施形態に係る撮像装置であるデジタルカメラ(以下、単にカメラと呼ぶ)100の概略構成を示すブロック図である。
カメラ100は、表示装置101、中央処理装置(CPU)102、主記憶装置103、不揮発性メモリ104、通信インターフェース(I/F)105、撮像部106、画像処理部107、接眼検知部108、操作部109、記憶媒体110、コネクタ端子111、無線通信用アンテナ112、バス113を備える。
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.
(First embodiment)
<Configuration of Camera 100>
FIG. 1 is a block diagram illustrating a schematic configuration of a digital camera (hereinafter simply referred to as a camera) 100 that is an imaging apparatus according to the first embodiment.
The camera 100 includes a display device 101, a central processing unit (CPU) 102, a main storage device 103, a nonvolatile memory 104, a communication interface (I / F) 105, an imaging unit 106, an image processing unit 107, an eyepiece detection unit 108, and an operation. Unit 109, storage medium 110, connector terminal 111, wireless communication antenna 112, and bus 113.

表示装置101は、撮影した画像やユーザ設定画面、ライブビュー画像の表示等を行う表示部である。
中央処理装置(CPU)102は、後述する各種処理を実行するマイクロプロセッサ等から構成される。中央処理装置102が主記憶装置103或いは不揮発性メモリ104に格納されたプログラムを実行することにより、後述するフローチャートに示す処理が実行される。
主記憶装置103は、ROMやRAM等から構成されており、撮像等の機器制御を行うオペレーティングシステム(OS)、画像データを送信する処理を行うプログラムをROMに格納している。プログラムを実行する場合は、ROMからRAMにプログラムを展開する。
不揮発性メモリ104は、フラッシュメモリ等から構成されており、ユーザの設定情報等の撮像装置の電源がOFFの間も保持すべき情報、画像データを送信する度に生成される送信済み情報、等を記憶する。また、上記プログラムコード群を格納することも可能である。
通信I/F105は、コネクタ端子111又は無線通信用アンテナ112を介して外部機器と接続する際のインターフェースを司る。
The display device 101 is a display unit that displays a captured image, a user setting screen, a live view image, and the like.
The central processing unit (CPU) 102 is configured by a microprocessor or the like that executes various processes described later. When the central processing unit 102 executes a program stored in the main storage device 103 or the non-volatile memory 104, processing shown in a flowchart described later is executed.
The main storage device 103 includes a ROM, a RAM, and the like, and stores an operating system (OS) that performs device control such as imaging and a program that performs processing of transmitting image data in the ROM. When executing the program, the program is expanded from the ROM to the RAM.
The nonvolatile memory 104 includes a flash memory and the like, information that should be retained even when the imaging apparatus is turned off, such as user setting information, transmitted information that is generated each time image data is transmitted, and the like. Remember. It is also possible to store the program code group.
The communication I / F 105 controls an interface when connecting to an external device via the connector terminal 111 or the wireless communication antenna 112.

撮像部106は、被写体の撮影を行い、例えば静止画(写真)を生成する。
画像処理部107は、撮影した画像の圧縮等の画像処理を行う。
接眼検知部108は、ファインダーの近傍等に設置され、主に撮影者がファインダーを覗いていることを検知するために使われる。
操作部109は、実際の撮影の操作を行う場合やユーザ設定画面から所望の設定を入力する場合に用いる。
記憶媒体110は、コンパクトフラッシュ(登録商標)メモリ或いはSD(Secure Digital)メモリから構成されており、撮影した画像データを保存する。
バス113は、上記構成要素間でデータや信号を授受する際の伝送路である。
The imaging unit 106 captures a subject and generates a still image (photograph), for example.
The image processing unit 107 performs image processing such as compression of a captured image.
The eyepiece detection unit 108 is installed in the vicinity of the viewfinder and is mainly used to detect that the photographer is looking into the viewfinder.
The operation unit 109 is used when an actual shooting operation is performed or when desired settings are input from the user setting screen.
The storage medium 110 includes a compact flash (registered trademark) memory or an SD (Secure Digital) memory, and stores captured image data.
The bus 113 is a transmission path when data and signals are exchanged between the above components.

以上のようにしたカメラ100では、撮像部106で撮影したライブビュー画像を画像処理部107で画像処理する。中央処理装置102は、画像データを主記憶装置103に格納し、また、その画像データを通信I/F105を介して外部機器に送信することができる。   In the camera 100 configured as described above, the image processing unit 107 performs image processing on the live view image captured by the imaging unit 106. The central processing unit 102 can store image data in the main storage device 103 and can transmit the image data to an external device via the communication I / F 105.

<携帯端末200の構成>
図2は、第1の実施形態に係る外部機器である携帯端末の概略構成を示すブロック図である。
携帯端末200は、表示装置201、中央処理装置(CPU)202、主記憶装置203、不揮発性メモリ204、通信インターフェース(I/F)205、タッチ位置検出部206、着信通知部207、通話部208、操作部209、記憶媒体210、コネクタ端子211、無線通信用アンテナ212、バス213を備える。
<Configuration of mobile terminal 200>
FIG. 2 is a block diagram illustrating a schematic configuration of a mobile terminal which is an external device according to the first embodiment.
The mobile terminal 200 includes a display device 201, a central processing unit (CPU) 202, a main storage device 203, a nonvolatile memory 204, a communication interface (I / F) 205, a touch position detection unit 206, an incoming call notification unit 207, and a call unit 208. , An operation unit 209, a storage medium 210, a connector terminal 211, a wireless communication antenna 212, and a bus 213.

表示装置201は、UI(User Interface)の表示等を行う表示部である。
中央処理装置(CPU)202は、後述する各種処理を実行するマイクロプロセッサ等から構成される。中央処理装置202が主記憶装置203或いは不揮発性メモリ204に格納されたプログラムを実行することにより、後述するフローチャートに示す処理が実行される。
主記憶装置203は、ROMやRAM等から構成されており、機器制御を行うオペレーティングシステム(OS)、画像データを受信、操作命令を送信する処理を行うプログラムをROMに格納している。プログラムを実行する場合は、ROMからRAMにプログラムを展開する。
不揮発性メモリ204は、フラッシュメモリ等から構成されており、ユーザの設定情報等の携帯端末の電源がOFFの間も保持すべき情報、等を記憶する。また、上記プログラムコード群を格納することも可能である。
通信I/F205は、コネクタ端子211又は無線通信用アンテナ212を介して外部機器と接続する際のインターフェースを司る。
The display device 201 is a display unit that displays a UI (User Interface).
The central processing unit (CPU) 202 is constituted by a microprocessor or the like that executes various processes described later. When the central processing unit 202 executes a program stored in the main storage device 203 or the non-volatile memory 204, processing shown in a flowchart described later is executed.
The main storage device 203 is composed of a ROM, a RAM, and the like, and stores an operating system (OS) that performs device control and a program that performs processing of receiving image data and transmitting operation commands in the ROM. When executing the program, the program is expanded from the ROM to the RAM.
The nonvolatile memory 204 is configured by a flash memory or the like, and stores information that should be retained even when the power of the mobile terminal is OFF, such as user setting information. It is also possible to store the program code group.
The communication I / F 205 controls an interface when connecting to an external device via the connector terminal 211 or the wireless communication antenna 212.

タッチ位置検出部206は、表示装置201に重ねる形で実装され、タッチした位置の座標を検出する。ユーザは表示装置201に表示されるUIをタッチする形でその位置に対応した処理を直感的に実行ことができる。
着信通知部207は、通信先からの着信をユーザに通知する。
通話部208は、電話通話機能を実現する。
操作部209は、所望の設定を入力する場合に用いる。
記憶媒体210は、コンパクトフラッシュ(登録商標)メモリ或いはSD(Secure Digital)メモリから構成されており、撮影した画像データを保存する。
バス213は、上記構成要素間でデータや信号を授受する際の伝送路である。
The touch position detection unit 206 is mounted on the display device 201 so as to detect the coordinates of the touched position. The user can intuitively execute processing corresponding to the position by touching the UI displayed on the display device 201.
The incoming notification unit 207 notifies the user of an incoming call from the communication destination.
The call unit 208 implements a telephone call function.
The operation unit 209 is used when inputting desired settings.
The storage medium 210 includes a compact flash (registered trademark) memory or an SD (Secure Digital) memory, and stores captured image data.
The bus 213 is a transmission path for exchanging data and signals between the above components.

なお、携帯端末200は、Wi−Fi、Bluetooth(登録商標)等の通信機能を持つ市販のスマートフォンでも、カメラと独自の通信プロトコルを持つような専用端末でもよい。   The mobile terminal 200 may be a commercially available smartphone having a communication function such as Wi-Fi, Bluetooth (registered trademark), or a dedicated terminal having a communication protocol unique to the camera.

<システム構成>
図3は、第1の実施形態においてカメラ100と携帯端末200とが通信を行うシステムの概略構成を示す図である。
図3(a)は、カメラ100と携帯端末200とが無線通信を行う状態を示す。図3(b)は、カメラ100と携帯端末200とがコネクタ接続による通信(以下、コネクタ通信と呼ぶ)を行う状態を示す。
カメラ100と携帯端末200とを連携させることにより、例えば無線通信時では、カメラ100のライブビュー画像を携帯端末200に送ることで、カメラ100から離れた場所で構図の確認や、カメラ100の表示装置101を確認できないようなアングルからの撮影が可能となる。また、携帯端末200の表示装置201のタッチ入力機能を使用した直感的なUIを利用することができる。携帯端末200の表示装置201にカメラコントロールパネルを表示し、カメラコントローラパネルを操作することで、携帯端末200からレリーズや撮影パラメータを変更することが可能である。カメラコントロールパネルは、専用のアプリケーションを携帯端末200にインストールする形でも、カメラ100内に保存されているコントロールパネルデータを携帯端末200から参照する形でもよい。
<System configuration>
FIG. 3 is a diagram illustrating a schematic configuration of a system in which the camera 100 and the mobile terminal 200 communicate with each other in the first embodiment.
FIG. 3A shows a state in which the camera 100 and the mobile terminal 200 perform wireless communication. FIG. 3B shows a state where the camera 100 and the mobile terminal 200 perform communication by connector connection (hereinafter referred to as connector communication).
By linking the camera 100 and the mobile terminal 200, for example, during wireless communication, a live view image of the camera 100 is sent to the mobile terminal 200, so that composition confirmation or display of the camera 100 can be performed at a location away from the camera 100. It is possible to shoot from an angle where the apparatus 101 cannot be confirmed. In addition, an intuitive UI using the touch input function of the display device 201 of the mobile terminal 200 can be used. By displaying a camera control panel on the display device 201 of the mobile terminal 200 and operating the camera controller panel, it is possible to change the release and shooting parameters from the mobile terminal 200. The camera control panel may be a form in which a dedicated application is installed in the portable terminal 200 or a form in which the control panel data stored in the camera 100 is referred to from the portable terminal 200.

図3(a)では、カメラ100と、カメラ100から離れた場所にある携帯端末200とが無線通信を行い、カメラ100が撮影したライブビュー画像を双方の表示装置101、201に表示している様子を示す。カメラ100で撮影したライブビュー画像は、無線通信用アンテナ112から携帯端末200の無線通信用アンテナ212に送られる。携帯端末200では、ライブビュー画像の受信後、中央処理装置202の制御下で主記憶装置203にライブビュー画像が格納され、表示装置201に表示される。ここで、ライブビュー画像と一緒にカメラ100の撮影パラメータ等のカメラ情報も携帯端末200に送ることにより、携帯端末200からでもカメラ100の撮影パラメータを確認することが可能となる。ライブビュー画像及び撮影パラメータは、コントロールパネルの所定の位置に埋め込まれ、携帯端末200の表示装置201に表示される。これらの情報はカメラ100から携帯端末200に定期的に送られ、カメラ100で撮影パラメータの変更があれば、随時表示情報は更新される。撮影パラメータとしては、カメラの撮影モード、WB設定、ISO感度、撮影残り枚数、バッテリー残量、露出、AFフレーム等が考えられる。   In FIG. 3A, the camera 100 and the mobile terminal 200 located away from the camera 100 perform wireless communication, and the live view image captured by the camera 100 is displayed on both display devices 101 and 201. Show the state. The live view image captured by the camera 100 is sent from the wireless communication antenna 112 to the wireless communication antenna 212 of the mobile terminal 200. In the mobile terminal 200, after receiving the live view image, the live view image is stored in the main storage device 203 under the control of the central processing unit 202 and displayed on the display device 201. Here, by sending camera information such as shooting parameters of the camera 100 together with the live view image to the mobile terminal 200, the shooting parameters of the camera 100 can be confirmed even from the mobile terminal 200. The live view image and the shooting parameters are embedded at a predetermined position on the control panel and displayed on the display device 201 of the mobile terminal 200. These pieces of information are periodically sent from the camera 100 to the portable terminal 200. If there is a change in the shooting parameters in the camera 100, the display information is updated as needed. As shooting parameters, camera shooting mode, WB setting, ISO sensitivity, number of remaining shots, remaining battery level, exposure, AF frame, and the like are conceivable.

また、携帯端末200のカメラコントロールパネルにカメラ100の操作部材を設置することにより、携帯端末200からカメラ100を遠隔操作することができる。携帯端末200の表示装置201にカメラコントロールパネルを表示し、カメラコントロールパネルの操作はタッチ位置検出部206がその座標を検出し、その位置に対応した命令を無線通信用アンテナ212を介してカメラ100に送信する。カメラ100は、命令を無線通信用アンテナ112で受ける。受けた命令はカメラ100の中央処理装置102によって処理され、主記憶装置103に格納されている対応するプログラムが実行される。カメラコントロールパネル上の操作部材としては、シャッターボタン、AFボタン、撮影モード切り替えボタン、WB切り替えボタン、露出設定スライドバー、ISO感度設定スライドバー等が考えられる。携帯端末200上のライブビュー画像をタッチし、その座標にAFさせることもできる。   In addition, by installing the operation member of the camera 100 on the camera control panel of the mobile terminal 200, the camera 100 can be remotely operated from the mobile terminal 200. A camera control panel is displayed on the display device 201 of the portable terminal 200, and the operation of the camera control panel is performed by the touch position detection unit 206 detecting the coordinates, and a command corresponding to the position is sent via the wireless communication antenna 212 to the camera 100. Send to. The camera 100 receives the command with the wireless communication antenna 112. The received command is processed by the central processing unit 102 of the camera 100 and a corresponding program stored in the main storage device 103 is executed. As operation members on the camera control panel, a shutter button, an AF button, a shooting mode switching button, a WB switching button, an exposure setting slide bar, an ISO sensitivity setting slide bar, and the like can be considered. The live view image on the portable terminal 200 can be touched and AF can be made to the coordinates.

図4は、カメラ100と、カメラ100から離れた場所にある携帯端末200とが無線通信を行う場合のカメラ100の処理動作を示すフローチャートである。
中央処理装置102は、携帯端末200と無線通信する携帯端末無線通信モードに変更する(ステップS401)。携帯端末無線通信モードでは、カメラ100は携帯端末200と無線通信を行い、カメラ100のライブビュー画像やカメラ情報を携帯端末200に表示したり、携帯端末200からカメラ100を操作したりすることができる。
FIG. 4 is a flowchart showing the processing operation of the camera 100 when the camera 100 and the mobile terminal 200 located away from the camera 100 perform wireless communication.
The central processing unit 102 changes to a portable terminal wireless communication mode for wireless communication with the portable terminal 200 (step S401). In the mobile terminal wireless communication mode, the camera 100 wirelessly communicates with the mobile terminal 200 to display a live view image or camera information of the camera 100 on the mobile terminal 200 or to operate the camera 100 from the mobile terminal 200. it can.

次に、中央処理装置102は、無線通信用アンテナ112を含む無線通信モジュールを起動し(ステップS402)、携帯端末200からの接続要求を待つ。携帯端末200からの接続要求を受信すると(ステップS403)、中央処理装置102は、携帯端末200とのペアリング処理を開始する(ステップS404)。ペアリングが終わると、中央処理装置102は、ライブビュー撮影を開始して(ステップS405)、ライブビュー画像を撮影し(ステップS406)、撮影したライブビュー画像と撮影パラメータ等のカメラ情報を携帯端末200に送信する(ステップS407)。   Next, the central processing unit 102 activates a wireless communication module including the wireless communication antenna 112 (step S402), and waits for a connection request from the portable terminal 200. When receiving a connection request from the mobile terminal 200 (step S403), the central processing unit 102 starts pairing processing with the mobile terminal 200 (step S404). When pairing is completed, the central processing unit 102 starts live view shooting (step S405), takes a live view image (step S406), and stores the captured live view image and camera information such as shooting parameters in the portable terminal. 200 (step S407).

次に、中央処理装置102は、カメラ100の接眼検知の有無を判定する(ステップS408)。接眼検知がある場合、中央処理装置102は、表示装置101をOFF(消灯)にする(ステップS410)。接眼検知がない場合、中央処理装置102は、表示装置101をONにし、ライブビュー画像等のUIを表示する(ステップS409)。   Next, the central processing unit 102 determines the presence or absence of eyepiece detection of the camera 100 (step S408). When there is eyepiece detection, the central processing unit 102 turns off the display device 101 (step S410). If there is no eyepiece detection, the central processing unit 102 turns on the display device 101 and displays a UI such as a live view image (step S409).

次に、中央処理装置102は、携帯端末200からの操作要求の有無を確認し(ステップS411)、操作要求がある場合、要求に関連する処理を行う(ステップS412)。
次に、中央処理装置102は、携帯端末無線通信モードの終了要求の有無を確認し(ステップS413)、終了要求がある場合、ライブビュー撮影や無線モジュールの停止等の終了処理を行い(ステップS414)、携帯端末無線通信モードを終了する。終了要求がない場合、ステップS406に戻って、以降の処理を繰り返す。
Next, the central processing unit 102 checks whether or not there is an operation request from the portable terminal 200 (step S411), and when there is an operation request, performs processing related to the request (step S412).
Next, the central processing unit 102 checks whether or not there is a termination request for the mobile terminal wireless communication mode (step S413). If there is a termination request, the central processing unit 102 performs termination processing such as live view shooting or wireless module stop (step S414). ), The portable terminal wireless communication mode is terminated. If there is no termination request, the process returns to step S406 and the subsequent processing is repeated.

図5は、カメラ100と、カメラ100から離れた場所にある携帯端末200とが無線通信を行う場合の携帯端末200の処理動作を示すフローチャートである。
中央処理装置202は、無線通信用アンテナ212を含む無線通信モジュールを起動し(ステップS501)、カメラ100に接続要求を送信する(ステップS502)。そして、中央処理装置202は、アプリケーションを起動し(ステップS503)、カメラ100とのペアリング処理を開始する(ステップS504)。ペアリングが終わると、中央処理装置202は、カメラ100からライブビュー画像とカメラ情報を受信し(ステップS505)、表示装置201に受信した情報を表示する(ステップS506)。
次に、中央処理装置202は、ユーザによるカメラ操作要求の有無を判定し(ステップS507)、カメラ操作要求がある場合、カメラ100にカメラ操作要求を送信する(ステップS508)。
次に、中央処理装置202は、ユーザによる終了要求の有無を確認し(ステップS509)、終了要求がある場合、アプリケーションの終了、無線の切断等の終了処理を行う(ステップS510)。終了要求がない場合、ステップS505に戻って、以降の処理を繰り返す。
FIG. 5 is a flowchart showing a processing operation of the mobile terminal 200 when the camera 100 and the mobile terminal 200 located away from the camera 100 perform wireless communication.
The central processing unit 202 activates a wireless communication module including the wireless communication antenna 212 (step S501), and transmits a connection request to the camera 100 (step S502). Then, the central processing unit 202 activates the application (step S503) and starts pairing processing with the camera 100 (step S504). When pairing is completed, the central processing unit 202 receives a live view image and camera information from the camera 100 (step S505), and displays the received information on the display device 201 (step S506).
Next, the central processing unit 202 determines whether there is a camera operation request by the user (step S507), and when there is a camera operation request, transmits the camera operation request to the camera 100 (step S508).
Next, the central processing unit 202 confirms whether or not there is a termination request from the user (step S509). If there is a termination request, the central processing unit 202 performs termination processing such as termination of the application, wireless disconnection, and the like (step S510). If there is no termination request, the process returns to step S505 and the subsequent processing is repeated.

図3(b)では、カメラ100と携帯端末200とがコネクタ通信を行い、カメラ100が撮影したライブビュー画像を双方の表示装置101、201に表示している様子を示す。カメラ100と携帯端末200との通信は、コネクタ端子111とコネクタ端子211とを介して行われる。シリアル接続の場合も、無線通信の場合と同様に、ライブビュー画像や撮影パラメータ等のカメラ情報の表示、カメラコントロールパネルからのカメラ100の操作を行うことができる。   FIG. 3B illustrates a state in which the camera 100 and the mobile terminal 200 perform connector communication and display live view images captured by the camera 100 on both display devices 101 and 201. Communication between the camera 100 and the portable terminal 200 is performed via the connector terminal 111 and the connector terminal 211. In the case of serial connection, as in the case of wireless communication, it is possible to display camera information such as live view images and shooting parameters, and to operate the camera 100 from the camera control panel.

図6は、カメラ100と携帯端末200とがコネクタ通信を行う場合のカメラ100の処理動作を示すフローチャートである。
中央処理装置102は、携帯端末200とコネクタ通信する携帯端末コネクタ通信モードに変更する(ステップS601)。携帯端末コネクタ通信モードでは、カメラ100は携帯端末200とコネクタ通信を行い、カメラ100のライブビュー画像やカメラ情報を携帯端末200に表示したり、携帯端末200からカメラ100を操作したりすることができる。
FIG. 6 is a flowchart illustrating the processing operation of the camera 100 when the camera 100 and the mobile terminal 200 perform connector communication.
The central processing unit 102 changes to the mobile terminal connector communication mode for performing connector communication with the mobile terminal 200 (step S601). In the mobile terminal connector communication mode, the camera 100 performs connector communication with the mobile terminal 200 to display a live view image or camera information of the camera 100 on the mobile terminal 200 or to operate the camera 100 from the mobile terminal 200. it can.

カメラ100と携帯端末200とをコネクタ接続すると(ステップS602)、中央処理装置102は、携帯端末200からの接続要求を待つ。携帯端末200からの接続要求を受信すると(ステップS603)、中央処理装置102は、携帯端末200とのペアリング処理を開始する(ステップS604)。ペアリングが終わると、中央処理装置102は、ライブビュー撮影を開始して(ステップS605)、ライブビュー画像を撮影し(ステップS606)、撮影したライブビュー画像と撮影パラメータ等のカメラ情報を携帯端末200に送信する(ステップS607)。この場合、カメラ情報には、後述する接眼検知の状況を示す情報も含まれる。   When the camera 100 and the mobile terminal 200 are connected by a connector (step S602), the central processing unit 102 waits for a connection request from the mobile terminal 200. When receiving a connection request from the mobile terminal 200 (step S603), the central processing unit 102 starts pairing processing with the mobile terminal 200 (step S604). When pairing is completed, the central processing unit 102 starts live view shooting (step S605), takes a live view image (step S606), and stores the captured live view image and camera information such as shooting parameters in the portable terminal. 200 (step S607). In this case, the camera information includes information indicating the state of eyepiece detection described later.

次に、中央処理装置102は、カメラ100の接眼検知の有無を判定する(ステップS608)。この判定は、ステップS605とステップS607と並行して実行される。接眼検知がある場合、詳しくは後述するが、表示装置101をOFF(消灯)にするとともに、接眼検知があったことをカメラ情報に含める(ステップS610)。接眼検知がない場合、中央処理装置102は、表示装置101をONにし、ライブビュー画像等のUIを表示する(ステップS609)。   Next, the central processing unit 102 determines whether or not the eyepiece is detected by the camera 100 (step S608). This determination is performed in parallel with step S605 and step S607. When there is eye contact detection, as will be described in detail later, the display device 101 is turned off (turned off), and the fact that eye contact has been detected is included in the camera information (step S610). When there is no eyepiece detection, the central processing unit 102 turns on the display device 101 and displays a UI such as a live view image (step S609).

次に、中央処理装置102は、携帯端末200からの操作要求の有無を確認し(ステップS611)、操作要求がある場合、要求に関連する処理を行う(ステップS612)。
次に、中央処理装置102は、携帯端末コネクタ通信モードの終了要求の有無を確認し(ステップS613)、終了要求がある場合、ライブビュー撮影やコネクタ通信切断等の終了処理を行い(ステップS614)、携帯端末コネクタ通信モードを終了する。終了要求がない場合、ステップS606に戻って、以降の処理を繰り返す。
Next, the central processing unit 102 checks whether or not there is an operation request from the portable terminal 200 (step S611), and if there is an operation request, performs processing related to the request (step S612).
Next, the central processing unit 102 checks whether or not there is a termination request for the mobile terminal connector communication mode (step S613). If there is a termination request, the central processing unit 102 performs termination processing such as live view shooting or connector communication disconnection (step S614). The portable terminal connector communication mode is terminated. If there is no termination request, the process returns to step S606 and the subsequent processing is repeated.

図7は、カメラ100と携帯端末200とがコネクタ通信を行う場合の携帯端末200の処理動作を示すフローチャートである。
カメラ100と携帯端末200とをコネクタ接続すると(ステップS701)、中央処理装置202は、カメラ100に接続要求を送信する(ステップS702)。そして、中央処理装置202は、アプリケーションを起動し(ステップS703)、カメラ100とのペアリング処理を開始する(ステップS704)。ペアリングが終わると、中央処理装置202は、カメラ100からライブビュー画像とカメラ情報を受信する(ステップS705)。
FIG. 7 is a flowchart showing the processing operation of the portable terminal 200 when the camera 100 and the portable terminal 200 perform connector communication.
When the camera 100 and the portable terminal 200 are connected by a connector (step S701), the central processing unit 202 transmits a connection request to the camera 100 (step S702). The central processing unit 202 activates the application (step S703), and starts pairing processing with the camera 100 (step S704). When the pairing is finished, the central processing unit 202 receives a live view image and camera information from the camera 100 (step S705).

次に、中央処理装置202は、カメラ100において接眼を検知しているか否かを判定する(ステップS706)。カメラ100での接眼検知の有無についての情報は、図6のステップS607でカメラ100から送られてくるカメラ情報から取得する。カメラ100で接眼している場合、中央処理装置202は、表示装置201をOFF(消灯)にする(ステップS709)。カメラ100で接眼していない場合、中央処理装置202は、表示装置201をONにするとともに(ステップS707)、表示装置201に受信した情報を表示する(ステップS708)。   Next, the central processing unit 202 determines whether or not the eyepiece is detected in the camera 100 (step S706). Information about the presence or absence of eyepiece detection in the camera 100 is acquired from the camera information sent from the camera 100 in step S607 of FIG. When the camera 100 is in eye contact, the central processing unit 202 turns off the display device 201 (step S709). If the camera 100 is not in eye contact, the central processing unit 202 turns on the display device 201 (step S707) and displays the received information on the display device 201 (step S708).

次に、中央処理装置202は、ユーザによるカメラ操作要求の有無を判定し(ステップS710)、カメラ操作要求がある場合、カメラ100にカメラ操作要求を送信する(ステップS711)。
次に、中央処理装置202は、ユーザによる終了要求の有無を確認し(ステップS712)、終了要求がある場合、アプリケーションの終了、コネクタの切断等の終了処理を行う(ステップS713)。終了要求がない場合、ステップS705に戻り、以降の処理を繰り返す。
Next, the central processing unit 202 determines whether there is a camera operation request by the user (step S710), and when there is a camera operation request, transmits the camera operation request to the camera 100 (step S711).
Next, the central processing unit 202 confirms whether or not there is a termination request from the user (step S712). If there is a termination request, the central processing unit 202 performs termination processing such as termination of the application and disconnection of the connector (step S713). If there is no termination request, the process returns to step S705, and the subsequent processing is repeated.

<接眼検知時の動作>
以下では、カメラ100が接眼を検知したときの動作について説明する。図3に示すように、接眼検知は、カメラのファインダー301の近くに設置した、接眼検知部108を構成する近接センサ302を用いて、撮影者がファインダーを覗いたこと(近接センサ302に近づいたこと)を検知する。接眼時、撮影者はファインダーを通じて被写体に注視しており、表示装置101を見ることはほとんどない。したがって、接眼検知時に表示装置101を消灯しても、撮影者に影響は無い。表示装置101を消灯することで消費電力を抑えることができる。
<Operation when eyepiece is detected>
Hereinafter, an operation when the camera 100 detects an eyepiece will be described. As shown in FIG. 3, the eyepiece detection is performed when the photographer looks into the finder using the proximity sensor 302 that constitutes the eyepiece detection unit 108 installed near the finder 301 of the camera (approaching the proximity sensor 302. )). At the time of eye contact, the photographer is gazing at the subject through the viewfinder and hardly sees the display device 101. Therefore, even if the display device 101 is turned off when the eyepiece is detected, there is no influence on the photographer. Power consumption can be reduced by turning off the display device 101.

携帯端末200との通信中に接眼を検知した場合、期待する携帯端末200の動作は、カメラ100と携帯端末200との接続形態によって異なる。
カメラ100と携帯端末200とが無線通信を行っている場合、撮影者と携帯端末200を使用している人物とが異なる可能性がある。そのため、カメラ100が接眼を検知したときにカメラ100の表示装置101と携帯端末200の表示装置201を両方消灯してしまうと、携帯端末200を使用している人物が表示装置201を確認できなくなってしまう。
一方、カメラ100と携帯端末200とがコネクタ通信を行っている場合、携帯端末200はカメラ100に固定されているため、カメラ100の表示装置101と携帯端末200の表示装置201は同じ人物が確認する可能性が高い。そのため、カメラ100が接眼を検知したときは、カメラ100の表示装置101と携帯端末200の表示装置201の両方を消灯したほうが消費電力を抑えることができる。また、撮影体制時(接眼時)に携帯端末200の表示装置201を消すことで、撮影者が携帯端末200から感じる眩しさを軽減する効果もある。
When an eyepiece is detected during communication with the mobile terminal 200, the expected operation of the mobile terminal 200 varies depending on the connection form between the camera 100 and the mobile terminal 200.
When the camera 100 and the mobile terminal 200 are performing wireless communication, the photographer and the person using the mobile terminal 200 may be different. For this reason, if both the display device 101 of the camera 100 and the display device 201 of the mobile terminal 200 are turned off when the camera 100 detects an eyepiece, a person using the mobile terminal 200 cannot confirm the display device 201. End up.
On the other hand, when the camera 100 and the mobile terminal 200 are performing connector communication, since the mobile terminal 200 is fixed to the camera 100, the display device 101 of the camera 100 and the display device 201 of the mobile terminal 200 are confirmed by the same person. There is a high possibility of doing. Therefore, when the camera 100 detects an eyepiece, power consumption can be reduced by turning off both the display device 101 of the camera 100 and the display device 201 of the mobile terminal 200. Further, by turning off the display device 201 of the mobile terminal 200 during the shooting system (at the time of eyepiece), there is an effect of reducing glare that the photographer feels from the mobile terminal 200.

図8(a)は、カメラ100と携帯端末200とが無線通信を行っているときの接眼検知時の状態を示す。カメラ100の接眼検知部108が接眼を検知すると、カメラ100の表示装置101は消灯するが、携帯端末200の表示装置201は消灯しない。   FIG. 8A shows a state when the eyepiece is detected when the camera 100 and the mobile terminal 200 are performing wireless communication. When the eyepiece detection unit 108 of the camera 100 detects an eyepiece, the display device 101 of the camera 100 is turned off, but the display device 201 of the mobile terminal 200 is not turned off.

このときの処理の流れを図4、図5のフローチャートを参照して説明する。
図4に示すように、カメラ100では、接眼検知の有無を判定し(ステップS408)、接眼検知がある場合、表示装置101をOFF(消灯)にする(ステップS410)。以降、処理を繰り返し、再び接眼検知の有無を判定した際に(ステップS408)、接眼検知がある場合は引き続き表示装置101をOFFにし(ステップS410)、接眼検知がない場合、表示装置101をONにする(ステップS409)。
The processing flow at this time will be described with reference to the flowcharts of FIGS.
As shown in FIG. 4, the camera 100 determines the presence or absence of eyepiece detection (step S <b> 408), and when there is eyepiece detection, the display device 101 is turned off (turned off) (step S <b> 410). Thereafter, when the process is repeated and it is determined again whether or not the eyepiece is detected (step S408), if there is eyepiece detection, the display device 101 is continuously turned off (step S410). If there is no eyepiece detection, the display device 101 is turned on. (Step S409).

図5に示すように、携帯端末200では、カメラ100の接眼検知の有無に依らず処理を続行する。   As shown in FIG. 5, the mobile terminal 200 continues the process regardless of whether or not the camera 100 detects the eyepiece.

一方、図8(b)は、カメラ100と携帯端末200とがコネクタ通信を行っているときの接眼検知時の状態を示す。カメラ100の接眼検知部108が接眼を検知すると、カメラ100の表示装置101と携帯端末200の表示装置201は両方消灯する。   On the other hand, FIG.8 (b) shows the state at the time of the eyepiece detection when the camera 100 and the portable terminal 200 are performing connector communication. When the eyepiece detection unit 108 of the camera 100 detects an eyepiece, both the display device 101 of the camera 100 and the display device 201 of the mobile terminal 200 are turned off.

このときの処理の流れを図6、図7のフローチャートを参照して説明する。
図6に示すように、カメラ100では、接眼検知の有無を判定し(ステップS608)、接眼検知がある場合、表示装置101をOFF(消灯)にする(ステップS610)。以降、処理を繰り返し、再び接眼検知の有無を判定した際に(ステップS608)、接眼検知がある場合は引き続き表示装置101をOFFにし(ステップS610)、接眼検知がない場合、表示装置101をONにする(ステップS609)。
The flow of processing at this time will be described with reference to the flowcharts of FIGS.
As shown in FIG. 6, the camera 100 determines whether or not the eyepiece is detected (step S608), and when the eyepiece is detected, the display device 101 is turned off (turned off) (step S610). Thereafter, when the process is repeated and the presence / absence of eyepiece detection is determined again (step S608), if there is eyepiece detection, the display device 101 is continuously turned off (step S610), and if there is no eyepiece detection, the display device 101 is turned on. (Step S609).

図7に示すように、携帯端末200では、カメラ100での接眼検知の有無についての情報をカメラ情報から取得して、カメラ100において接眼を検知しているか否かを判定し(ステップS706)、カメラ100で接眼している場合、表示装置201をOFF(消灯)にする(ステップS709)。以降、処理を繰り返し、再びカメラ100での接眼検知の有無を判定した際に(ステップS708)、接眼検知がある場合は引き続き表示装置201をOFFにし(ステップS709)、接眼検知がない場合、表示装置201をONにする(ステップS609)。   As shown in FIG. 7, the mobile terminal 200 acquires information about the presence or absence of eyepiece detection in the camera 100 from the camera information, and determines whether or not the eyepiece is detected in the camera 100 (step S706). If the camera 100 is in eye contact, the display device 201 is turned off (extinguished) (step S709). Thereafter, when the process is repeated and it is determined again whether or not the eyepiece is detected by the camera 100 (step S708), if there is eyepiece detection, the display device 201 is continuously turned off (step S709). The apparatus 201 is turned on (step S609).

(第2の実施形態)
次に、第2の実施形態を説明する。以下では、第1の実施形態との相違点を中心に説明し、第1の実施形態との共通点の説明は省略する。
第1の実施形態では、カメラ100と携帯端末200とが無線通信又はコネクタ通信する場合に、カメラ100の接眼検知時に表示装置を消灯/点灯させる動作について説明した。第1の実施形態では表示装置の消灯/点灯の制御にとどめたが、本実施形態では、携帯端末200からのカメラ操作についても制御を行う例を説明する。
携帯端末200にカメラ100を操作する機能がある場合、携帯端末200からカメラ100のレリーズ及び撮影パラメータの変更が可能である。ここで、撮影者が撮影を行う直前に携帯端末200から操作を行ってしまうと、携帯端末200からの操作が撮影者の撮影行為に影響を与える可能性が高い。カメラ100で接眼検知した場合、撮影者は撮影動作に入っていると考えることができる。接眼検知時は携帯端末200からのカメラ操作を禁止することで、撮影者への影響を軽減することができる。
(Second Embodiment)
Next, a second embodiment will be described. Below, it demonstrates centering around difference with 1st Embodiment, and abbreviate | omits description of a common point with 1st Embodiment.
In the first embodiment, when the camera 100 and the mobile terminal 200 perform wireless communication or connector communication, the operation of turning off / lighting the display device when the eyepiece of the camera 100 is detected has been described. In the first embodiment, the control of turning off / on the display device is limited. However, in this embodiment, an example in which the camera operation from the mobile terminal 200 is also controlled will be described.
When the portable terminal 200 has a function of operating the camera 100, the release of the camera 100 and the shooting parameters can be changed from the portable terminal 200. Here, if the photographer performs an operation from the portable terminal 200 immediately before photographing, the operation from the portable terminal 200 is likely to affect the photographing action of the photographer. When the eyepiece is detected by the camera 100, the photographer can be considered to be in the shooting operation. When the eyepiece is detected, the camera operation from the portable terminal 200 is prohibited, so that the influence on the photographer can be reduced.

図10は、カメラ100と、カメラ100から離れた場所にある携帯端末200とが無線通信を行う場合のカメラ100の処理動作を示すフローチャートである。
ステップS1001〜S1009では、図4のステップS401〜S409と同様の処理が実行される。また、ステップS1011〜S1014では、図4のステップS411〜S414と同様の処理が実行される。
図4を用いて説明した第1の実施形態との違いは、カメラ100は、接眼検知中に携帯端末200からの操作要求を無視する点である。
すなわち、ステップS1010で表示装置101をOFF(消灯)にするとともに、接眼検知があったことをカメラ情報に含める。そして、その後は、ステップS1011やステップS1012の処理を経ることなく、ステップS1013に進む。
FIG. 10 is a flowchart illustrating the processing operation of the camera 100 when the camera 100 and the mobile terminal 200 located away from the camera 100 perform wireless communication.
In steps S1001 to S1009, processing similar to that in steps S401 to S409 in FIG. 4 is executed. In steps S1011 to S1014, processing similar to that in steps S411 to S414 in FIG. 4 is executed.
The difference from the first embodiment described with reference to FIG. 4 is that the camera 100 ignores an operation request from the portable terminal 200 during eyepiece detection.
That is, in step S1010, the display device 101 is turned off (extinguished), and the fact that eye contact has been detected is included in the camera information. After that, the process proceeds to step S1013 without passing through the processes of step S1011 and step S1012.

図11は、カメラ100と、カメラ100から離れた場所にある携帯端末200とが無線通信を行う場合の携帯端末200の処理動作を示すフローチャートである。
ステップS1101〜S1105では、図5のステップS501〜S505と同様の処理が実行される。
図5を用いて説明した第1の実施形態との違いは、携帯端末200は、カメラ100での接眼検知の有無についての情報をカメラ情報から取得して、接眼検知時はカメラ操作を禁止にし、ユーザがカメラ操作できないような表示に変更する一方、接眼未検知時はカメラ操作を許可し、ユーザがカメラ操作できる表示に変更する点である。
すなわち、ステップS1106で、中央処理装置202は、カメラ100において接眼を検知しているか否かを判定する。カメラ100での接眼検知の有無についての情報は、図10のステップS1007でカメラ100から送られてくるカメラ情報から取得する。
FIG. 11 is a flowchart showing the processing operation of the mobile terminal 200 when the camera 100 and the mobile terminal 200 located away from the camera 100 perform wireless communication.
In steps S1101 to S1105, processing similar to that in steps S501 to S505 in FIG. 5 is executed.
The difference from the first embodiment described with reference to FIG. 5 is that the mobile terminal 200 acquires information about the presence or absence of eyepiece detection in the camera 100 from the camera information, and prohibits camera operation during eyepiece detection. While the display is changed so that the user cannot operate the camera, the camera operation is permitted when the eyepiece is not detected, and the display is changed so that the user can operate the camera.
That is, in step S1106, the central processing unit 202 determines whether or not the camera 100 has detected an eyepiece. Information about the presence or absence of eyepiece detection in the camera 100 is acquired from the camera information sent from the camera 100 in step S1007 in FIG.

ステップS1106においてカメラ100で接眼検知している場合、中央処理装置202は、処理をステップS1111に進める。ステップS1111で、中央処理装置202は、カメラ操作を禁止する。具体的には、ユーザからのカメラ100を遠隔操作するための指示を受け付けないよう制御する。続いて、中央処理装置202は、ステップS1105で受信したライブビュー画像により画面の表示を更新する(ステップS1112)。これにより、例えば図9(a)に示すような画面が表示装置201に表示される。この画面でアイコン901を表示することで、遠隔操作が不可能である旨をユーザに示す。
次に、中央処理装置202は、ユーザによるカメラ操作要求の有無を判定し(ステップS1113)、カメラ操作要求がない場合、処理をステップS1115に進める。ステップS1115以降の処理は、図5のステップS509以降の処理と同様である。一方、カメラ操作要求がある場合、中央処理装置102は、カメラ操作が禁止されている旨をユーザに通知する(ステップS1114)。例えば図9(b)に示すように表示装置201にメッセージ902を表示する。
If the eyepiece is detected by the camera 100 in step S1106, the central processing unit 202 advances the process to step S1111. In step S1111, the central processing unit 202 prohibits camera operation. Specifically, control is performed so that an instruction for remotely operating the camera 100 from the user is not accepted. Subsequently, the central processing unit 202 updates the display of the screen with the live view image received in step S1105 (step S1112). Thereby, for example, a screen as shown in FIG. 9A is displayed on the display device 201. Displaying an icon 901 on this screen indicates to the user that remote operation is impossible.
Next, the central processing unit 202 determines whether there is a camera operation request by the user (step S1113), and if there is no camera operation request, the process proceeds to step S1115. The processing after step S1115 is the same as the processing after step S509 in FIG. On the other hand, when there is a camera operation request, the central processing unit 102 notifies the user that the camera operation is prohibited (step S1114). For example, a message 902 is displayed on the display device 201 as shown in FIG.

一方、ステップS1106においてカメラ100で接眼検知していない場合、中央処理装置202は、処理をステップS1107に進める。ステップS1107で、中央処理装置102は、カメラ操作の禁止を解除する。具体的には、ユーザからのカメラ100を遠隔操作するための指示を受け付けるよう制御する。なお、本ステップが実行される前にカメラ操作が禁止されていない場合は、本ステップでは何も行わない。続いて、中央処理装置202は、ステップS1105で受信したライブビュー画像により画面の表示を更新する(ステップS1108)。ステップS1109以降の処理は、図5のステップS507以降の処理と同様である。   On the other hand, if the eyepiece is not detected by the camera 100 in step S1106, the central processing unit 202 advances the process to step S1107. In step S1107, central processing unit 102 cancels the prohibition of camera operation. Specifically, control is performed to accept an instruction for remotely operating the camera 100 from the user. If the camera operation is not prohibited before this step is executed, nothing is performed in this step. Subsequently, the central processing unit 202 updates the display of the screen with the live view image received in step S1105 (step S1108). The processing after step S1109 is the same as the processing after step S507 in FIG.

図9は、カメラ100と携帯端末200とが無線通信を行っているときの接眼検知時の状態を示す。
第1の実施形態と同様、カメラ100の接眼検知部108が接眼を検知すると、カメラ100の表示装置101は消灯するが、携帯端末200の表示装置201は消灯しない。さらに、携帯端末200からのカメラ操作を禁止するために、図9(a)に示すように、接眼検知時は携帯端末の表示装置201に表示しているカメラコントロールパネルの操作部材をグレーアウト等したり、アイコン901により外部操作ができないことを表示したりする。さらに、この状態でユーザがなんらかの操作をしようとした場合には、図9(b)に示すように、携帯端末200からカメラ操作ができない旨のメッセージ902を表示してユーザに通知してもよい。
FIG. 9 shows a state during eyepiece detection when the camera 100 and the mobile terminal 200 are performing wireless communication.
As in the first embodiment, when the eyepiece detection unit 108 of the camera 100 detects an eyepiece, the display device 101 of the camera 100 is turned off, but the display device 201 of the mobile terminal 200 is not turned off. Furthermore, in order to prohibit the camera operation from the portable terminal 200, as shown in FIG. 9A, the operation member of the camera control panel displayed on the display device 201 of the portable terminal is grayed out at the time of detecting the eyepiece. Or an icon 901 indicates that external operation is not possible. Further, when the user tries to perform any operation in this state, a message 902 indicating that the camera cannot be operated from the mobile terminal 200 may be displayed and notified to the user as shown in FIG. 9B. .

なお、カメラ100と携帯端末200とがコネクタ通信を行っているときに、カメラ100の接眼検知部108が接眼を検知すると、第1の実施形態と同様、カメラ100の表示装置101と携帯端末200の表示装置201は両方消灯する。そのため、カメラ100での接眼検知時に携帯端末200からカメラ操作されることは無い。   If the eyepiece detection unit 108 of the camera 100 detects the eyepiece while the camera 100 and the portable terminal 200 are performing connector communication, the display device 101 of the camera 100 and the portable terminal 200 are the same as in the first embodiment. Both display devices 201 are turned off. Therefore, the camera is not operated from the portable terminal 200 when the eyepiece is detected by the camera 100.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
(その他の実施形態)
上述の実施形態では、カメラ100と携帯端末200との通信を、無線通信を行うモードかコネクタ通信を行うモードかを選択することにより決定する例について述べた。これについては、例えば携帯端末200がカメラ100のコネクタに接続されたことを検知することをトリガとして、無線通信から有線通信(すなわちコネクタ通信)に切り替えてもよい。つまり、一旦無線通信を切断し、有線通信により接続し直す。一般的には、有線通信のほうが無線通信よりも消費電力が少ない。つまり、このような構成とすることで、より消費電力を低減することができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
(Other embodiments)
In the above-described embodiment, an example has been described in which communication between the camera 100 and the mobile terminal 200 is determined by selecting a mode for performing wireless communication or a mode for performing connector communication. About this, you may switch from wireless communication to wired communication (namely, connector communication), for example by detecting that the portable terminal 200 was connected to the connector of the camera 100 as a trigger. That is, the wireless communication is temporarily disconnected and reconnected by wired communication. In general, wired communication consumes less power than wireless communication. That is, with such a configuration, power consumption can be further reduced.
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:カメラ、101:表示装置、102:中央処理装置(CPU)、103:主記憶装置、104:不揮発性メモリ、105:通信インターフェース、106:撮像部、107:画像処理部、108:接眼検知部、109:操作部、110:記憶媒体、111:コネクタ端子、112:無線通信用アンテナ、113:バス、200:携帯端末、201:表示装置、202:中央処理装置(CPU)、203:主記憶装置、204:不揮発性メモリ、205:通信インターフェース、206:タッチ位置検出部、207:着信通知部、208:通話部、209:操作部、210:記憶媒体、211:コネクタ端子、212:無線通信用アンテナ、213:バス   DESCRIPTION OF SYMBOLS 100: Camera, 101: Display apparatus, 102: Central processing unit (CPU), 103: Main memory, 104: Non-volatile memory, 105: Communication interface, 106: Imaging part, 107: Image processing part, 108: Eyepiece detection 109: operation unit 110: storage medium 111: connector terminal 112: antenna for wireless communication 113: bus 200: portable terminal 201: display device 202: central processing unit (CPU) 203: main Storage device 204: Non-volatile memory 205: Communication interface 206: Touch position detection unit 207: Incoming notification unit 208: Call unit 209: Operation unit 210: Storage medium 211: Connector terminal 212: Wireless Communication antenna, 213: Bus

Claims (8)

外部機器と無線通信及び有線通信で接続することが可能な撮像装置であって、
ファインダーと、
ファインダーへの接眼を検知する接眼検知手段と、
前記外部機器と前記有線通信で接続している状態で、前記接眼検知手段により接眼を検知した場合、前記外部機器の表示部を消灯するよう制御し、
前記外部機器と前記無線通信で接続している状態で、前記接眼検知手段により接眼を検知した場合、前記外部機器の表示部は消灯しないよう制御する制御手段とを備えたことを特徴とする撮像装置。
An imaging device that can be connected to an external device by wireless communication and wired communication,
With the viewfinder,
Eyepiece detecting means for detecting an eyepiece to the viewfinder;
When the eyepiece detecting means detects an eyepiece while connected to the external device via the wired communication, the display unit of the external device is controlled to be turned off,
An imaging device comprising: a control unit configured to control the display unit of the external device not to be turned off when the eyepiece is detected by the eyepiece detection unit while being connected to the external device through the wireless communication. apparatus.
前記制御手段は、前記外部機器と無線通信で接続している状態で、前記接眼検知手段により接眼を検知した場合、さらに前記外部機器からの該撮像装置の操作を禁止するよう制御することを特徴とする請求項1に記載の撮像装置。   The control means controls to prohibit the operation of the imaging apparatus from the external device when the eyepiece detection means detects an eyepiece while being connected to the external device by wireless communication. The imaging apparatus according to claim 1. 前記制御手段は、前記外部機器と無線通信で接続している状態で、前記接眼検知手段により接眼を検知した場合、接眼を検知したことを前記外部機器に通知することを特徴とする請求項1又は2に記載の撮像装置。   2. The control device according to claim 1, wherein when the eyepiece detection unit detects an eyepiece while being connected to the external device by wireless communication, the control unit notifies the external device that the eyepiece has been detected. Or the imaging device of 2. 撮像した画像データを表示する表示手段を更に有し、
前記制御手段は、前記外部機器と前記無線通信で接続しているか前記有線通信で接続しているかに関わらず、前記接眼検知手段により接眼を検知した場合に前記表示手段を消灯するよう制御することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
It further has display means for displaying captured image data,
The control means controls to turn off the display means when the eyepiece detecting means detects an eyepiece regardless of whether the external device is connected by the wireless communication or the wired communication. The imaging apparatus according to any one of claims 1 to 3, wherein
撮像した画像データを前記外部機器に送信する送信手段を更に有し、
前記送信手段は、前記外部機器と前記有線通信で接続している場合、前記有線通信で前記画像データを前記外部機器に送信し、前記外部機器と前記無線通信で接続している場合、前記無線通信で前記画像データを前記外部機器に送信することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
A transmission unit that transmits the captured image data to the external device;
The transmission means transmits the image data to the external device by the wired communication when connected to the external device by the wired communication, and transmits the image data to the external device by wireless communication. The imaging apparatus according to claim 1, wherein the image data is transmitted to the external device by communication.
前記外部機器との接続において、前記無線通信よりも前記有線通信を優先して用いることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the wired communication is used in preference to the wireless communication in connection with the external device. 外部機器と無線通信及び有線通信で接続することが可能な撮像装置の制御方法であって、
前記外部機器と前記有線通信で接続している状態で、ファインダーへの接眼を検知する接眼検知手段により接眼を検知した場合、前記外部機器の表示部を消灯するよう制御し、
前記外部機器と前記無線通信で接続している状態で、前記接眼検知手段により接眼を検知した場合、前記外部機器の表示部は消灯しないよう制御するステップとを有することを特徴とする撮像装置の制御方法。
An imaging apparatus control method capable of connecting to an external device by wireless communication and wired communication,
When the eyepiece is detected by the eyepiece detection means for detecting the eyepiece to the viewfinder in the state where the external device is connected by the wired communication, the display unit of the external device is controlled to be turned off.
And a step of controlling the display unit of the external device not to be turned off when the eyepiece is detected by the eyepiece detection unit while connected to the external device by the wireless communication. Control method.
コンピュータを、請求項1乃至6のいずれか1項に記載の撮像装置として機能させるための、コンピュータが読み取り可能なプログラム。   A computer-readable program for causing a computer to function as the imaging apparatus according to any one of claims 1 to 6.
JP2014018684A 2014-02-03 2014-02-03 Imaging apparatus, control method thereof, and program Expired - Fee Related JP6300548B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014018684A JP6300548B2 (en) 2014-02-03 2014-02-03 Imaging apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014018684A JP6300548B2 (en) 2014-02-03 2014-02-03 Imaging apparatus, control method thereof, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018004068A Division JP6472547B2 (en) 2018-01-15 2018-01-15 Imaging apparatus, external device, and control method thereof

Publications (3)

Publication Number Publication Date
JP2015146522A true JP2015146522A (en) 2015-08-13
JP2015146522A5 JP2015146522A5 (en) 2017-03-09
JP6300548B2 JP6300548B2 (en) 2018-03-28

Family

ID=53890578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014018684A Expired - Fee Related JP6300548B2 (en) 2014-02-03 2014-02-03 Imaging apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6300548B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180054745A (en) * 2015-10-16 2018-05-24 구글 엘엘씨 Techniques for attaching media captured by a mobile computing device to an electronic document
JP2020515371A (en) * 2017-03-28 2020-05-28 広州佩邁医学科技有限公司 Monitoring equipment, monitoring bougie and monitoring system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003198901A (en) * 2001-12-21 2003-07-11 Minolta Co Ltd Electronic camera and photographing system using the same
JP2009088887A (en) * 2007-09-28 2009-04-23 Canon Inc Imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003198901A (en) * 2001-12-21 2003-07-11 Minolta Co Ltd Electronic camera and photographing system using the same
JP2009088887A (en) * 2007-09-28 2009-04-23 Canon Inc Imaging apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180054745A (en) * 2015-10-16 2018-05-24 구글 엘엘씨 Techniques for attaching media captured by a mobile computing device to an electronic document
JP2018536924A (en) * 2015-10-16 2018-12-13 グーグル エルエルシー Technology for attaching media captured by a mobile computing device to an electronic document
US10574726B2 (en) 2015-10-16 2020-02-25 Google Llc Techniques for attaching media captured by a mobile computing device to an electronic document
KR102148352B1 (en) * 2015-10-16 2020-08-26 구글 엘엘씨 Techniques for attaching media captured by a mobile computing device to an electronic document
JP2020515371A (en) * 2017-03-28 2020-05-28 広州佩邁医学科技有限公司 Monitoring equipment, monitoring bougie and monitoring system

Also Published As

Publication number Publication date
JP6300548B2 (en) 2018-03-28

Similar Documents

Publication Publication Date Title
JP6508199B2 (en) Control method of smart home device, device, system and device
JP6614943B2 (en) Imaging control apparatus and control method thereof
JP5171436B2 (en) COMMUNICATION DEVICE, DATA COMMUNICATION SYSTEM, COMMUNICATION DEVICE CONTROL METHOD, AND PROGRAM
JP6611614B2 (en) Electronic device, control method therefor, program, and storage medium
US9706101B2 (en) Image processing terminal, imaging machine, information processing method, program, and remote imaging system to remotely operate the imaging machine
JP2019061670A (en) Display device, imaging device, imaging system, control method and program for display device
JP2017121019A5 (en) COMMUNICATION DEVICE AND ITS CONTROL METHOD
US11431908B2 (en) Imaging control apparatus, control method of the same, and storage medium
JP6503734B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM
JP6642982B2 (en) Communication device, communication device control method, and program
EP3041218B1 (en) Information processing device, imaging device, imaging system, information processing device control method, imaging device control method and program
JP6300548B2 (en) Imaging apparatus, control method thereof, and program
JP6472547B2 (en) Imaging apparatus, external device, and control method thereof
JP7309422B2 (en) Communication device, its control method, and its program
JP2014233036A (en) Imaging apparatus, and control program for electronic apparatus
JP2018006997A (en) Communication device, method for controlling the same, system, program, and storage medium
JP7024281B2 (en) Controlled device, communication control method, and program
US9467602B2 (en) Control terminal, imaging system, control method, and non-transitory medium saving program for controlling a target terminal responsive to detection of a predetermined state of an object or a predetermined motion of the object
US10992868B2 (en) Electronic device, image display method, non- transitory computer-readable recording medium storing program, and image capturing system
JP5568120B2 (en) COMMUNICATION DEVICE, ITS CONTROL METHOD, PROGRAM
JP2016219960A (en) Wearable device and control method thereof and program
US9338351B2 (en) Imaging device, imaging system, method of activating imaging device, and computer readable recording medium saving program
JP2022103934A (en) Electronic apparatus
JP2019154001A (en) Communication control device, imaging device, communication control method, and program
JP2018201093A (en) Photographing controller

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180227

R151 Written notification of patent or utility model registration

Ref document number: 6300548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees