WO2014091797A1 - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
WO2014091797A1
WO2014091797A1 PCT/JP2013/072720 JP2013072720W WO2014091797A1 WO 2014091797 A1 WO2014091797 A1 WO 2014091797A1 JP 2013072720 W JP2013072720 W JP 2013072720W WO 2014091797 A1 WO2014091797 A1 WO 2014091797A1
Authority
WO
WIPO (PCT)
Prior art keywords
function
electronic device
unit
camera
determination unit
Prior art date
Application number
PCT/JP2013/072720
Other languages
English (en)
French (fr)
Inventor
将 上出
康之 元木
邦宏 桑野
哲平 奥山
武男 本橋
弥恵 上瀧
政一 関口
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to JP2014551911A priority Critical patent/JPWO2014091797A1/ja
Publication of WO2014091797A1 publication Critical patent/WO2014091797A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals

Definitions

  • the present invention relates to an electronic device.
  • Patent Document 1 proposes a wireless communication camera in which a display device is detachably attached to a camera body.
  • the electronic device is an electronic device to which the external device is detachably attached, and the detection unit that detects whether the external device is attached and the external device is attached. At least one of an acquisition unit that acquires the specification of the first function of the external device, a first function of the external device whose specification is acquired by the acquisition unit, and a second function of the electronic device. And a determination unit that determines whether to restrict.
  • the first function and the second function are different functions, and the determination unit can use the first function and the second function in combination. It is preferable to determine whether.
  • the first function is one of a level detection function and a direction detection function
  • the second function includes a level detection function and a direction detection function.
  • the determination unit preferably determines whether the level detection function and the direction detection function can be used in combination.
  • the first function and the second function are functions in the same category, and the determination unit includes the specification of the first function and the second function. It is preferable to determine whether to limit at least one of the first function and the second function based on the specification.
  • the first function is the first display unit, the second function is the second display unit, and the display content of the first display unit; It is preferable to provide a control unit that makes the display content of the second display unit different.
  • the first function is a first imaging unit that images the first direction, and the second function is different from the first direction. It is a 2nd imaging part which images 2 directions, and it is preferable to provide the imaging control part which performs the imaging by each of a 1st imaging part and a 2nd imaging part.
  • the determination unit compares the specifications of the first function and the second function and restricts the function of the low specification.
  • the determination unit has the first function and the second function according to a mounting state between the external device and the electronic device. It is preferable to determine whether to limit at least one.
  • the electronic device in the electronic device according to any one of the first to eighth aspects, includes a storage unit that stores restriction information regarding restrictions on use, export, or transfer of technology, It is preferable to determine whether the first function and the second function can be used together based on the restriction information.
  • the movable portion in the electronic device according to any one of the first to ninth aspects, has a movable position that is movable between a storage position and a position different from the storage position, and the movable portions are different positions. In this case, it is preferable to provide a mounting portion for mounting the external device at the storage position of the movable portion.
  • the determination unit restricts at least one of the first function and the second function, the function to be restricted It is preferable to provide a power control unit that stops the power supply.
  • FIG. 1A shows a state where the camera is separated from the portable device
  • FIG. 1B shows a state where the camera is integrated with the portable device.
  • FIG. 1A shows a state where the camera is separated from the portable device
  • FIG. 1B shows a state where the camera is integrated with the portable device.
  • FIG. 1A shows a state where the camera is separated from the portable device
  • FIG. 1B shows a state where the camera is integrated with the portable device.
  • It is a block diagram explaining the structural example of an imaging
  • It is a functional block diagram of the control part of a camera. It is a flowchart by a control part when a camera and a portable apparatus are united.
  • FIG. 1 is a schematic diagram of the photographing system 1.
  • the photographing system 1 includes a camera 10 and a portable device 100.
  • the camera 10 may be any of a single-lens reflex camera, a mirrorless camera, and a compact camera, and is a single-lens reflex camera in the present embodiment.
  • the mobile device 100 is, for example, a mobile phone, a smartphone, and the like, and operates as an independent electronic device and can perform a cooperative operation with the camera 10 by being attached to the camera 10.
  • the mobile device 100 is a smartphone.
  • FIG. 1A shows a rear view of the camera 10 and a front view of the portable device 100.
  • the camera 10 and the portable device 100 are separated.
  • the camera 10 has a storage unit 23 on the back surface thereof, and the display unit 14 that is a vari-angle monitor is stored in the storage unit 23 with the display screen exposed to the back side of the camera 10.
  • the camera 10 is provided with an operation unit 18 at each part such as the back and side surfaces.
  • the portable device 100 is provided with a photographing optical system 101, a display unit 104, and a microphone 109 on the front surface.
  • the display unit 104 is integrated with the touch panel 105.
  • the microphone 109 is located in the vicinity of the user's mouth when the user uses the telephone function of the mobile device 100.
  • FIG. 1B shows a state where the camera 10 and the portable device 100 are integrated.
  • the display unit 14 of the camera 10 is developed below the camera 10 by a multi-axis hinge mechanism 14 a so that the display screen faces the back side of the camera 10.
  • the camera 10 can expand the display unit 14 so that the display screen faces the front side of the camera 10.
  • the camera 10 has a locking mechanism (not shown) in the storage unit 23.
  • the mobile device 100 In the state where the display unit 14 is retracted from the storage unit 23 as shown in FIG. 1B, the mobile device 100 is fitted into or attached to the storage unit 23, so that the mobile device is attached to the locking mechanism (not shown). 100 is locked. In FIG. 1B, the mobile device 100 is locked in a mounted state such that the display screen of the display unit 104 is exposed on the back side of the camera 10.
  • the direction in which the display unit 14 of the camera 10 is deployed by the multi-axis hinge mechanism does not have to be below the camera 10, and may be, for example, the left or right side of the camera 10.
  • the display unit 14 of the camera 10 When the display unit 14 of the camera 10 is expanded to the left or right of the camera 10, the display unit 14 of the camera 10 has an attitude in which the display screen is directed to the front side and the back side. And can take.
  • FIG. 2 is a block diagram illustrating a configuration example of the imaging system 1.
  • the camera 10 includes an optical system 11, an image sensor 12, an ASIC 13, a display unit 14, a storage medium 15, a level 16, a GPS module 17, an operation unit 18, a communication unit 19, a memory 20, a contact 21, and a control unit 22. ing.
  • the optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the imaging surface of the image sensor 12 in accordance with an operation of a release switch that is one of the operation units 18.
  • the optical system 11 can be replaced.
  • the image sensor 12 is constituted by a CMOS image sensor or the like in which light receiving elements are two-dimensionally arranged on the imaging surface, and generates an analog image signal.
  • the analog image signal is converted into a digital image signal by a converter (not shown) and input to the ASIC 13.
  • the number of pixels of the image sensor 12 is, for example, 12 million pixels or more.
  • the ASIC 13 is a circuit that performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment processing, image compression processing, image expansion processing, etc.) on the digital image signal.
  • the output of the ASIC 13 is input to the display unit 14 and the storage medium 15.
  • the display unit 14 is configured as a vari-angle monitor having a liquid crystal panel as an example, and displays an image, an operation menu screen, and the like on the display screen.
  • the storage medium 15 is a detachable SD card as an example, and stores still image data and moving image data.
  • the level 16 has an acceleration sensor for detecting the level in the two directions of tilt and horizontal, and performs display related to horizontal and vertical on the display unit 14.
  • the GPS module 17 is a sensor that detects the position (for example, latitude and longitude) of the camera 10.
  • the operation unit 18 has a plurality of operation buttons and switches to perform various operations, and includes a release switch, a cross key (multi-selector), a command dial, and the like.
  • the communication unit 19 performs various wireless communications.
  • the communication unit 19 communicates with a communication unit 110 (described later) of the mobile device 100.
  • the communication unit 19 receives various types of information via an Internet line (not shown).
  • the communication unit 19 receives the latest information on regulations on the use, export, and transfer of technology such as Wassenaar Arrangement via the Internet line.
  • the Wassenaar Arrangement is an international export control agreement regarding the transfer of conventional weapons and related general-purpose products and technologies.
  • the memory 20 is a non-volatile semiconductor memory, and stores a program and various parameters for controlling the camera 10 executed by the control unit 22.
  • the memory 20 stores regulatory information related to regulations on the use, export, and transfer of technology such as Wassenaar arrangements.
  • the contact 21 is engaged with a contact 111 (described later) of the mobile device 100 to be described later.
  • the mobile device 100 is electrically connected.
  • the camera 10 and the portable device 100 can perform communication and data transmission / reception between the contact 21 and the contact 111 in the engaged state. Note that the number of contacts may be determined as appropriate.
  • communication may be started between the communication unit 19 of the camera 10 and the communication unit 110 of the mobile device 100 using the engagement of the contact 21 and the contact 111 as a trigger.
  • the control unit 22 includes a CPU, executes a program stored in the memory 20 to control the entire camera 10, and performs coordinated control with the control unit 112 of the mobile device 100 when integrated with the mobile device 100. .
  • the mobile device 100 includes an optical system 101, an image sensor 102, an ASIC 103, a display unit 104, a touch panel 105, a memory 106, an electronic compass 107, a GPS module 108, a microphone 109, a communication unit 110, a contact 111, and a control unit 112. Yes.
  • the optical system 101 has at least one lens and is provided on the main surface side of the mobile device 100 provided with the display unit 104 as shown in FIGS. 1 (a) and 1 (b).
  • the portable device 100 forms an image of a subject that has passed through the optical system 101 on the image sensor 102 and images the subject.
  • the control unit 22 of the camera 10 acquires a subject image captured by the mobile device 100. That is, when the mobile device 100 is attached to the camera 10 as shown in FIG. 1B, the photographer can be imaged without turning the optical system 11 of the camera 10 toward the photographer.
  • the control unit 22 of the camera 10 captures a subject in the first direction to which the optical system 11 of the camera 10 is directed, and captures a subject in the second direction to which the optical system 101 of the mobile device 100 is directed.
  • the mobile device 100 may be provided with an imaging optical system on the back side of the main surface of the mobile device 100.
  • the electronic compass 107 is arranged so that the orientation detected by the electronic compass 107 matches the optical axis direction of the optical system on the back surface side, the orientation detected by the electronic compass 107 is the light of the optical system 11 of the camera 10. Match the axial direction. Therefore, in the state of FIG. 1B, the control unit 22 can detect the orientation of the camera 10 using the electronic compass 107.
  • the control unit 22 of the camera 10 may confirm the detection direction of the electronic compass 107 from the communication unit 19 and correct the output so as to be reversed.
  • the imaging element 102 is configured by a CMOS image sensor or the like in which light receiving elements are two-dimensionally arranged on the imaging surface, and generates an analog image signal.
  • This analog image signal is converted into a digital image signal by a converter (not shown) and input to the ASIC 103.
  • the number of pixels of the image sensor 102 is, for example, 12 million pixels or more.
  • the ASIC 103 performs various image processing on the digital image signal.
  • the display unit 104 is configured by a liquid crystal panel as an example, and displays an image captured by the image sensor 102, an operation menu screen, and the like in a state where the mobile device 100 is separated from the camera 10 as illustrated in FIG. On the other hand, in the state where the portable device 100 is integrated with the camera 10 as shown in FIG. 1B, an image captured by the image sensor 12 of the camera 10, an operation menu screen of the camera 10, and the like are displayed.
  • the touch panel 105 is an operation unit provided on the display unit 104 or incorporated in the display unit 104, and outputs an input signal corresponding to the position touched by the user.
  • an input signal by an input operation is input to the control unit 112 of the mobile device 100, and the mobile device 100 is connected to the camera as shown in FIG. 10 is input to the control unit 22 of the camera 10.
  • the memory 106 stores a program for controlling the mobile device 100 executed by the control unit 112, various parameters, image data captured by the image sensor 102, and the like.
  • the memory 106 stores specification information regarding the configuration and performance (spec) of the mobile device 100.
  • the specification information of the portable device 100 is transmitted to the camera 10 when the camera 10 and the portable device 100 are integrated.
  • the information regarding the configuration of the mobile device 100 included in the specification information includes, for example, the optical device 101, the image sensor 102, the ASIC 103, the display unit 104, the touch panel 105, the memory 106, the electronic compass 107, the GPS module 108, and the microphone. 109, information indicating that the communication unit 110, the contact point 111, the control unit 112, and the like are provided.
  • the information regarding the performance of the mobile device 100 included in the specification information includes, for example, that the display unit 104 has the touch panel 105, the screen resolution of the display unit 104, the reception sensitivity of the GPS module 108, and the like.
  • the electronic compass 107 is constituted by a magnetic element such as a Hall element, and detects the azimuth by detecting geomagnetism.
  • the GPS module 108 is a sensor that detects the position (for example, latitude and longitude) of the mobile device 100.
  • the microphone 109 collects user's voice and the like.
  • the communication unit 110 performs various types of wireless communication.
  • the communication unit 110 performs communication with the communication unit 19 of the camera 10 described above.
  • the communication unit 110 receives various types of information via an Internet line (not shown).
  • the contact 111 is engaged with the contact 21 of the camera 10 when the mobile device 100 is integrated with the camera 10 to electrically connect the camera 10 and the mobile device 100.
  • the control unit 112 has a CPU, controls the entire portable device 100, and performs coordinated control with the control unit 22 of the camera 10 when integrated with the camera 10.
  • FIG. 3 is a functional block diagram of the control unit 22 of the camera 10. As illustrated in FIG. 3, the control unit 22 functions as an attachment detection unit 221, a specification acquisition unit 222, and a function restriction determination unit 223 by executing a program stored in the memory 20.
  • the attachment detection unit 221 detects that an external device such as the mobile device 100 is attached to the camera 10. For example, the attachment detection unit 221 detects that the portable device 100 is attached to the camera 10 by detecting the engagement between the contact 21 of the camera 10 and the contact 111 of the portable device 100.
  • the specification acquisition unit 222 acquires specification information regarding each unit of the external device from the attached external device. For example, when the portable device 100 is attached to the camera 10 as shown in FIG. 1B, the specification acquisition unit 222 displays the specification information stored in the memory 106 from the portable device 100 as the communication unit 19 or the contact 21. To get through.
  • the function restriction determination unit 223 has two functions. First, the function restriction determination unit 223 includes the specification information acquired by the specification acquisition unit 222 when an external device such as the mobile device 100 is attached to the camera 10, and the restriction information stored in the memory 20 of the camera 10. Based on the above, it is determined whether or not to restrict the use of each function provided in the camera 10 and the portable device 100 and whether or not the functions of the respective units can be used together. Then, the function restriction determination unit 223 performs function restriction on the unit determined to restrict the use of the function, and stops the power supply to the unit.
  • the function of the portable device 100 may fall under an export-prohibited product regulated by the Wassenaar Arrangement or an export-restricted product.
  • the camera 10 and the portable device 100 are used together to have an image sensor with a predetermined number of pixels, a level function, and an electronic compass function, the export prohibited products specified in the Wassenaar arrangement, There is a risk of falling under a regulated product.
  • the function restriction determination unit 223 detects the function to be regulated in the regulation information based on the specification information acquired by the specification acquisition unit 222 by using the function of the camera 10 and the function of the mobile device 100 in combination. To do. And the function restriction
  • the function restriction determination unit 223 includes a unit in which both the camera 10 and the portable device 100 perform functions of the same category when an external device such as the portable device 100 is attached to the camera 10. In this case, the function of either one of the camera 10 and the portable device 100 is restricted.
  • the function category includes, for example, radio wave reception from a GPS satellite, screen display such as a menu screen, connection to the Internet line, acceptance of user input operations, and the like.
  • the GPS module 17 of the camera 10 and the GPS module 108 of the portable device 100 both perform the function of the category of receiving radio waves from GPS satellites.
  • the function restriction determination unit 223 determines whether or not to restrict the use of functions for each of these GPS modules.
  • the function restriction determination unit 223 restricts the use of the function of the GPS module having low reception sensitivity or high power consumption among the GPS module 17 of the camera 10 and the GPS module 108 of the mobile device 100.
  • the display unit 14 of the camera 10 and the display unit 104 of the mobile device 100 both perform a category function of screen display.
  • the function restriction determination unit 223 determines whether or not to restrict the use of functions for each of the display units. For example, the function restriction determination unit 223 restricts the use of the function of the display unit having a low screen resolution among the display unit 14 of the camera 10 and the display unit 104 of the mobile device 100.
  • the function restriction determination unit 223 may select to use both of the two display units. For example, the function restriction determination unit 223 may display a captured image on a display unit with a high screen resolution and display a menu screen on a display unit with a low screen resolution.
  • the function restriction determination unit 223 limits the use of the display unit on the back side that is hidden by the main body of the mobile device 100 and cannot be seen. That is, the function restriction determination unit 223 restricts the use of the display unit of the mobile device 100 based on the mounting state of the mobile device 100 with respect to the camera 10.
  • FIG. 4 is a flowchart regarding processing executed by the control unit 22 of the camera 10 when the power of the camera 10 is turned on.
  • step S ⁇ b> 1 the control unit 22 of the camera 10 determines whether the portable device 100 is attached to the camera 10 by the process of the attachment detection unit 221.
  • the control unit 22 of the camera 10 makes a positive determination in step S1 and the contact 21 and the contact 111 are not engaged.
  • the determination at step S1 is negative.
  • the control part 22 of the camera 10 repeats the process of step S1 until step S1 is affirmed, and when step S1 is affirmed, it progresses to the process of step S2.
  • step S ⁇ b> 2 the control unit 22 of the camera 10 acquires the specification information of the portable device 100 through the contact 21 and the contact 111 by the processing of the specification acquisition unit 222.
  • the control unit 22 of the camera 10 requests the portable device 100 to transmit the specification information of the portable device 100 in response to the camera 10 and the portable device 100 being in an integrated state.
  • the control unit 112 of the mobile device 100 transmits the specification information of the mobile device 100 to the camera 10.
  • the specification information of the mobile device 100 stored in the memory 106 is transmitted to the camera 10.
  • step S ⁇ b> 3 the control unit 22 of the camera 10 receives the first and second functions of the function restriction determination unit 223 in accordance with the camera 10 and the mobile device 100 being integrated. It is determined whether or not to restrict use of the functions of the units of the camera 10 and the portable device 100.
  • control unit 22 of the camera 10 determines to restrict the use of the functions of the level 16 of the camera 10 or the electronic compass 107 of the mobile device 100 based on the restriction information regarding the Wassenaar arrangement stored in the memory 20. . Further, the control unit 22 of the camera 10 is provided with a unit in which both the camera 10 and the portable device 100 perform functions of the same category based on the specification information of the portable device 100 acquired in step S2. Detect and determine whether to limit usage for each of those units.
  • step S4 the control unit 22 of the camera 10 determines whether or not there is a unit determined to restrict the use of the function by the determination in step S3.
  • the control unit 22 of the camera 10 makes an affirmative determination in step S4 and proceeds to step S5, and when there is no unit that is determined to restrict the use of the function.
  • a negative determination is made in step S4, and the process proceeds to step S6.
  • Step S6 For example, if the control unit 22 of the camera 10 has made a determination to limit the use of functions such as the electronic compass 107, the GPS module 108, and the display unit 14 of the camera 10 in Step S3, Step S4 is performed. Make an affirmative decision.
  • step S5 the control unit 22 of the camera 10 restricts the use of each function determined to restrict the use of the function in step S3. For example, if the control unit 22 of the camera 10 has made a determination to restrict the use of functions such as the electronic compass 107, the GPS module 108, and the display unit 14 of the camera 10 in step S3, Limit use. In addition, the control unit 22 and the control unit 112 also stop power supply to each unit that restricts the use of functions, and suppresses power consumption of a power source (not shown).
  • a power source not shown.
  • step S6 the control unit 22 of the camera 10 sets cooperative control between the camera 10 and the portable device 100.
  • the control unit 22 of the camera 10 is configured to display the image data image-processed by the ASIC 13 of the camera 10 on the display unit 104 of the mobile device 100.
  • settings for accepting information input on the touch panel 105 on the camera 10 side are performed, and this flowchart is ended.
  • the camera 10 is an electronic device in which the mobile device 100 is detachably mounted as an external device, and includes a control unit 22 that functions as a mounting detection unit 221, a specification acquisition unit 222, and a function restriction determination unit 223.
  • the wearing detection unit 221 detects whether the mobile device 100 is worn.
  • the specification acquisition unit 222 acquires specification information related to the specifications of each unit of the mobile device 100 when the mounting detection unit 221 detects that the mobile device 100 is mounted.
  • the function restriction determination unit 223 determines whether or not to restrict at least one of the electronic compass 107 of the mobile device 100 and the level 16 of the camera 10 for which specification information has been acquired by the specification acquisition unit 222, for example.
  • the camera 10 automatically restricts the use of units of the same category provided for each unit when used integrally with the mobile device 100 or automatically uses the units to comply with the Wassenaar arrangement. Therefore, it is possible to improve the usability of the user when the two electronic devices are used in an integrated manner.
  • the embodiment described above can be implemented with the following modifications.
  • the case where the camera 10 is provided with the level 16 and the portable device 100 is provided with the electronic compass 107 has been described.
  • the camera 10 is provided with the electronic compass 107 and the portable device 100 is provided with the level 16. Also good.
  • the control unit 22 confirms the region or country in which the camera 10 is located based on the position information of the camera 10 detected by the GPS module 17, and uses the communication unit 19 to provide restriction information on the use of electronic devices in the region or country.
  • the processing of the function restriction determination unit 223 may be executed based on the acquired restriction information.
  • the control unit 22 of the camera 10 displays a sentence or an image for informing that the use of the function is restricted, as a display unit 14 of the camera 10. Or you may decide to display on the display part 104 of external apparatuses, such as the portable apparatus 100. FIG.
  • the user may be able to remove restrictions on the use of these functions using the operation unit 18 or the touch panel 105, or the user may be able to select a unit that restricts the use of the functions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Accessories Of Cameras (AREA)
  • Telephone Function (AREA)

Abstract

 電子機器は、外部機器が着脱可能に装着される電子機器であって、外部機器が装着されたかどうかを検出する検出部と、外部機器が装着されたことを検出部が検出したとき、外部機器の第1機能の仕様を取得する取得部と、取得部により仕様が取得された外部機器の第1機能と、電子機器の第2機能との少なくとも一方を制限するかどうかを判定する判定部と、を備える。

Description

電子機器
 本発明は、電子機器に関する。
 特許文献1には、表示装置がカメラ本体に着脱可能に装着される無線通信カメラが提案されている。
日本国特開2006-325150号公報
 従来、外部機器が着脱可能に装着される電子機器において、電子機器に外部機器が装着されたとき、電子機器の機能と外部機器の機能とを適切に設定することができず、ユーザの使い勝手が悪いという問題があった。
 本発明の第1の態様によると、電子機器は、外部機器が着脱可能に装着される電子機器であって、外部機器が装着されたかどうかを検出する検出部と、外部機器が装着されたことを検出部が検出したとき、外部機器の第1機能の仕様を取得する取得部と、取得部により仕様が取得された外部機器の第1機能と、電子機器の第2機能との少なくとも一方を制限するかどうかを判定する判定部と、を備える。
 本発明の第2の態様によると、第1の態様の電子機器において、第1機能と第2機能とは異なる機能であり、判定部は、第1機能と第2機能との併用が可能かどうかを判定することが好ましい。
 本発明の第3の態様によると、第2の態様の電子機器において、第1機能は、水準検出機能と方位検出機能との一方であり、第2機能は、水準検出機能と方位検出機能との他方であり、判定部は、水準検出機能と方位検出機能との併用が可能かどうかを判定することが好ましい。
 本発明の第4の態様によると、第1の態様の電子機器において、第1機能と第2機能とは同じカテゴリーの機能であり、判定部は、第1機能の仕様と、第2機能の仕様とに基づいて第1機能と第2機能の少なくとも一方を制限するかどうかを判定することが好ましい。
 本発明の第5の態様によると、第4の態様の電子機器において、第1機能は第1表示部であり、第2機能は第2表示部であり、第1表示部の表示内容と、第2表示部の表示内容とを異ならせる制御部を備えることが好ましい。
 本発明の第6の態様によると、第4または第5の態様の電子機器において、第1機能は第1方向を撮像する第1撮像部であり、第2機能は第1方向とは異なる第2方向を撮像する第2撮像部であり、第1撮像部と、第2撮像部とのそれぞれによる撮像を行う撮像制御部を備えることが好ましい。
 本発明の第7の態様によると、第4の態様の電子機器において、判定部は、第1機能と第2機能との仕様を比較し、低い仕様の機能を制限することが好ましい。
 本発明の第8の態様によると、第1から第7のいずれか一態様の電子機器において、判定部は、外部機器と電子機器との装着状態に応じて、第1機能と第2機能の少なくとも一方を制限するかどうかを判定することが好ましい。
 本発明の第9の態様によると、第1から第8のいずれか一態様の電子機器において、技術の使用、輸出、または移転に対する規制に関する規制情報を記憶する記憶部を備え、判定部は、規制情報に基づいて、第1機能と第2機能との併用が可能かどうかを判定することが好ましい。
 本発明の第10の態様によると、第1から第9のいずれか一態様の電子機器において、収納位置と該収納位置とは異なる位置とに可動する可動部を有し、可動部が異なる位置にあるときに、外部機器を可動部の収納位置に装着する装着部を備えることが好ましい。
 本発明の第11の態様によると、第1から第10のいずれか一態様の電子機器において、判定部が第1機能と第2機能との少なくとも一方を制限する場合に、当該制限する機能への電源供給を停止する電源制御部を備えることが好ましい。
 本発明によれば、二つの電子機器を一体化させて使用する際のユーザの使い勝手を向上させることができる。
本発明の一実施の形態による電子機器であるカメラを備える撮影システムの概要図である。図1(a)はカメラが携帯機器と分離した状態を示しており、図1(b)はカメラが携帯機器と一体となった状態を示している。 撮影システムの構成例を説明するブロック図である。 カメラの制御部の機能ブロック図である。 カメラと、携帯機器とが一体となったときの制御部によるフローチャートである。
 以下に説明する本実施形態の撮影システムは、複数の電子機器の一例として、カメラと携帯機器とを利用するものである。図1は、撮影システム1の概要図である。撮影システム1は、カメラ10と携帯機器100とを備える。カメラ10は、一眼レフカメラ、ミラーレスカメラ、コンパクトカメラのいずれのタイプであってもよく、本実施形態においては一眼レフカメラとしている。携帯機器100は、例えば携帯電話、スマートフォンなどであって、独立した電子機器として動作すると共に、カメラ10に装着されることによりカメラ10と協調動作を行うことができる。本実施形態においては、携帯機器100は、スマートフォンとしている。
 図1(a)には、カメラ10の背面図と、携帯機器100の正面図とが図示されている。図1(a)では、カメラ10と携帯機器100とが分離している。カメラ10は、その背面に収納部23を有し、バリアングルモニターである表示部14が表示画面をカメラ10の背面側に露出させる装着状態で、その収納部23に収納されている。また、カメラ10は、その背面や側面など各部に操作部18が設けられている。携帯機器100は、その正面に撮影用の光学系101と表示部104とマイク109とが設けられている。表示部104は、タッチパネル105と一体となっている。マイク109は、ユーザが携帯機器100の電話機能を使用する際にユーザの口元近傍に位置する。
 図1(b)は、カメラ10と携帯機器100とが一体となった状態を示している。図1(b)では、カメラ10の表示部14は、多軸のヒンジ機構14aによりカメラ10の下方に表示画面がカメラ10の背面側に向くように展開されている。なお、カメラ10は、表示画面がカメラ10の正面側に向くように表示部14を展開することも可能である。
 カメラ10は、その収納部23に不図示の係止機構を有する。図1(b)のように表示部14が収納部23から退出した状態において、携帯機器100がその収納部23に嵌め込まれたり、取り付けられたりすることにより、不図示の係止機構に携帯機器100が係止される。図1(b)では、携帯機器100は、その表示部104の表示画面がカメラ10の背面側に露出するような装着状態で係止されている。
 なお、カメラ10の表示部14が多軸のヒンジ機構により展開する方向は、カメラ10の下方でなくてもよく、例えばカメラ10の左方または右方でもよい。なお、カメラ10の表示部14をカメラ10の左方または右方に展開した場合、カメラ10の表示部14は、その表示画面をカメラ10の正面側に向けた姿勢と背面側に向けた姿勢とを取り得る。
 図2は、撮影システム1の構成例を示すブロック図である。以下、図2を用いてカメラ10と携帯機器100の構成について説明を行う。カメラ10は、光学系11、撮像素子12、ASIC13、表示部14、記憶媒体15、水準器16、GPSモジュール17、操作部18、通信部19、メモリ20、接点21及び制御部22を有している。
 光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、操作部18の一つであるレリーズスイッチの操作に応じて被写体像を撮像素子12の撮像面に結像させる。なお、本実施形態においては、カメラ10は一眼レフカメラであるため、光学系11は交換可能である。
 撮像素子12は、受光素子が撮像面に二次元配列されたCMOSイメージセンサなどによって構成され、アナログ画像信号を生成する。このアナログ画像信号は、不図示の変換器によりデジタル画像信号に変換されて、ASIC13に入力される。なお、撮像素子12の画素数は、一例として1200万画素以上とする。
 ASIC13は、デジタル画像信号に対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理、画像圧縮処理、画像伸張処理など)を行う回路である。ASIC13の出力は、表示部14や記憶媒体15に入力される。
 表示部14は、一例として液晶パネルを有するバリアングルモニターとして構成され、その表示画面に画像や操作メニュー画面などを表示する。
 記憶媒体15は、一例として着脱可能なSDカードであり、静止画のデータや動画のデータを記憶するものである。
 水準器16は、あおりと水平の2方向の水準を検出するための加速度センサを有し、表示部14に水平および垂直に関する表示を行うものである。
 GPSモジュール17は、カメラ10の位置(例えば緯度および経度)を検出するセンサである。
 操作部18は、複数の操作ボタン、スイッチを有して、各種操作を行うものであり、レリーズスイッチ、十字キー(マルチセレクター)、コマンドダイヤルなどを有している。
 通信部19は、各種の無線通信を行う。本実施形態においては、通信部19は、携帯機器100の通信部110(後述)との間で通信を行う。また、通信部19は、インターネット回線(不図示)を介して、各種情報を受信する。例えば通信部19は、ワッセナー・アレンジメントなどの技術の使用、輸出、移転に対する規制に関する最新情報を、インターネット回線を介して受信する。なお、ワッセナー・アレンジメントとは、通常兵器および関連汎用品・技術の移転に関する国際的輸出管理の申し合わせである。
 メモリ20は、不揮発性の半導体メモリであり、制御部22によって実行されるカメラ10を制御するためのプログラムや各種パラメータが記憶されている。また、メモリ20には、ワッセナー・アレンジメントなど、技術の使用、輸出、移転に対する規制に関する規制情報が記憶されている。
 接点21は、携帯機器100がカメラ10の収納部23の係止機構(不図示)に係止されたときに、後述する携帯機器100の接点111(後述)と係合して、カメラ10と携帯機器100とを電気的に接続する。カメラ10と携帯機器100とは、係合状態にある接点21と接点111との間で、通信、データの送受信を行うことができる。なお、接点の数は適宜決定すればよい。また、接点21と接点111とが係合したことをトリガーとしてカメラ10の通信部19と携帯機器100の通信部110との間で通信が開始するようにしてもよい。
 制御部22は、CPUを有し、メモリ20に記憶されているプログラムを実行してカメラ10全体を制御するとともに、携帯機器100と一体のときには、携帯機器100の制御部112と協調制御を行う。
 携帯機器100は、光学系101、撮像素子102、ASIC103、表示部104、タッチパネル105、メモリ106、電子コンパス107、GPSモジュール108、マイク109、通信部110、接点111及び制御部112を有している。
 光学系101は、少なくとも1枚のレンズを有し、図1(a)および(b)に示してあるように表示部104が設けられた携帯機器100の主面側に設けられている。携帯機器100は、光学系101を通過した被写体像を撮像素子102に結像させて、被写体を撮像する。カメラ10の制御部22は、携帯機器100で撮像した被写体像を取得する。すなわち、図1(b)に示してあるように携帯機器100をカメラ10に装着した場合、カメラ10の光学系11を撮影者に向けることなく撮影者を撮像することができる。カメラ10の制御部22は、カメラ10の光学系11が向けられている第1の方向の被写体の撮像と、携帯機器100の光学系101が向けられている第2の方向の被写体の撮像とをそれぞれ行うことができる。なお、携帯機器100は、光学系101に加えて、携帯機器100の主面に対する裏面側にも撮像用の光学系を設けるようにしてもよい。ここで、電子コンパス107が検出する方位をこの裏面側の光学系の光軸方向と合わせるように、電子コンパス107を配置すれば、電子コンパス107が検出する方位がカメラ10の光学系11の光軸方向と一致する。したがって、図1(b)の状態では、制御部22は、電子コンパス107を用いてカメラ10の方位を検出することができる。一方、電子コンパス107が検出する方位が光学系101の光軸方向と合わせるように電子コンパス107が配置されている場合には、カメラ10の光学系11の光軸方向とは180度方位がずれてしまう。このような場合、カメラ10の制御部22は、通信部19から電子コンパス107の検出方向を確認して、その出力を反転するように補正すればよい。
 撮像素子102は、受光素子が撮像面に二次元配列されたCMOSイメージセンサなどによって構成され、アナログ画像信号を生成する。このアナログ画像信号は、不図示の変換器によりデジタル画像信号に変換されASIC103に入力される。なお、撮像素子102の画素数は、一例として1200万画素以上とする。
 ASIC103は、デジタル画像信号に対して各種の画像処理を行う。
 表示部104は、一例として液晶パネルによって構成され、図1(a)のように携帯機器100がカメラ10から分離した状態では、撮像素子102が撮像した画像や操作メニュー画面などを表示する。一方、図1(b)のように携帯機器100がカメラ10と一体となった状態では、カメラ10の撮像素子12が撮像した画像や、カメラ10の操作メニュー画面などを表示する。
 タッチパネル105は、表示部104の上または表示部104に組み込まれて設けられる操作部であり、ユーザが触れた位置に応じた入力信号を出力する。図1(a)のように携帯機器100がカメラ10から分離した状態では入力操作による入力信号が携帯機器100の制御部112に入力されて、図1(b)のように携帯機器100がカメラ10と一体となった状態ではカメラ10の制御部22に入力される。
 メモリ106は、制御部112によって実行される携帯機器100を制御するためのプログラムと各種パラメータ、撮像素子102により撮像された画像データなどが記憶されている。また、本実施形態においては、メモリ106は、携帯機器100の構成や性能(スペック)に関する仕様情報を記憶している。これら携帯機器100の仕様情報は、カメラ10と携帯機器100とが一体になったときに、カメラ10へ送信される。
 仕様情報に含まれる携帯機器100の構成に関する情報とは、例えば、携帯機器100が光学系101、撮像素子102、ASIC103、表示部104、タッチパネル105、メモリ106、電子コンパス107、GPSモジュール108、マイク109、通信部110、接点111、制御部112などを備えることを表す情報である。
 また、仕様情報に含まれる携帯機器100の性能に関する情報とは、例えば、表示部104がタッチパネル105を有すること、表示部104の画面解像度、GPSモジュール108の受信感度などである。
 電子コンパス107は、ホール素子等の磁気素子により構成され、地磁気を検出して方位を検出するものである。
 GPSモジュール108は、携帯機器100の位置(例えば緯度および経度)を検出するセンサである。
 マイク109は、ユーザの音声などを集音する。
 通信部110は、各種の無線通信を行う。本実施形態においては、通信部110は、前述したカメラ10の通信部19との間で通信を行うものである。また、通信部110は、インターネット回線(不図示)を介して、各種情報を受信する。
 接点111は、携帯機器100がカメラ10と一体となったときにカメラ10の接点21と係合して、カメラ10と携帯機器100とを電気的に接続する。
 制御部112は、CPUを有し、携帯機器100全体を制御するとともに、カメラ10と一体のときには、カメラ10の制御部22との協調制御を行う。
 図3は、カメラ10の制御部22の機能ブロック図である。図3に示すように、制御部22は、メモリ20に記憶されたプログラムを実行することにより、装着検出部221と仕様取得部222と機能制限判定部223として機能する。
 装着検出部221は、携帯機器100などの外部機器がカメラ10に装着されたことを検出する。例えば、装着検出部221は、カメラ10の接点21と携帯機器100の接点111との係合を検出することにより、カメラ10に携帯機器100が装着されたことを検出する。
 仕様取得部222は、携帯機器100などの外部機器がカメラ10に装着されたとき、その装着された外部機器から、その外部機器の各ユニットに関する仕様情報を取得する。例えば、仕様取得部222は、図1(b)のように携帯機器100がカメラ10に装着されたとき、携帯機器100からそのメモリ106に記憶されている仕様情報を、通信部19または接点21を介して取得する。
 機能制限判定部223は、二つの機能を有する。第1に、機能制限判定部223は、携帯機器100などの外部機器がカメラ10に装着された際に、仕様取得部222により取得した仕様情報と、カメラ10のメモリ20に記憶された規制情報とに基づいて、カメラ10と携帯機器100とに備わる各機能について使用を制限するか否か、それぞれのユニットの機能を併用することが可能か否かを判定する。そして、機能制限判定部223は、機能の使用を制限すると判定されたユニットに対して、機能制限を行うと共に、そのユニットへの電源供給を中止させる。
 カメラ10単体や携帯機器100単体ではワッセナー・アレンジメントで規定する輸出禁止品や、輸出規制品に該当しなくても、カメラ10と携帯機器100とが協調して動作する際に、カメラ10の機能と携帯機器100の機能との併用により、ワッセナー・アレンジメントで規定する輸出禁止品や、輸出規制品に該当する虞がある。例えば、カメラ10と携帯機器100の併用により、所定の画素数の撮像素子と、水準器機能と、電子コンパス機能とを有することとなった場合、ワッセナー・アレンジメントで規定する輸出禁止品や、輸出規制品に該当する虞がある。
 機能制限判定部223は、カメラ10の機能と携帯機器100の機能とを組み合わせて併用することにより、規制情報において規制対象となる機能を、仕様取得部222により取得された仕様情報に基づいて検出する。そして、機能制限判定部223は、それらの組み合わせを構成する機能について、使用を制限するか否かを判定する。例えば、カメラ10が水準器16を備え、カメラ10に装着された携帯機器100が電子コンパス107を備える場合は、機能制限判定部223は、ワッセナー・アレンジメントに関する規制情報に基づいて、水準器16の機能と電子コンパス107の機能の組み合わせを検出して、水準器16の機能と電子コンパス107の機能についてそれぞれ使用を制限するか否かを判定する。そして、機能制限判定部223は、機能の使用を制限すると判定されたユニットの機能を制限すると共に、そのユニットへの電源供給を中止させる。機能制限判定部223は、電力供給を中止することにより、撮影システム1における電力の消費を抑えることができる。
 第2に、機能制限判定部223は、携帯機器100などの外部機器がカメラ10に装着された際に、カメラ10と携帯機器100との双方が共に同一カテゴリーの機能を果たすユニットを備えている場合には、カメラ10と携帯機器100とのうちいずれか一方の機能を制限する。機能のカテゴリーとは、例えばGPS衛星からの電波受信、メニュー画面等の画面表示、インターネット回線との接続、ユーザの入力操作受付などを含む。
 例えば、カメラ10のGPSモジュール17と携帯機器100のGPSモジュール108は共にGPS衛星からの電波受信というカテゴリーの機能を果たす。機能制限判定部223は、携帯機器100がカメラ10に装着された際には、それらのGPSモジュールについて、それぞれ機能の使用を制限するか否かを判定する。例えば、機能制限判定部223は、カメラ10のGPSモジュール17と携帯機器100のGPSモジュール108とのうち、受信感度が低いまたは電力消費量が大きいGPSモジュールの機能の使用を制限する。
 また、例えば、カメラ10の表示部14と携帯機器100の表示部104は共に画面表示というカテゴリーの機能を果たす。機能制限判定部223は、携帯機器100がカメラ10に装着された際には、それらの表示部について、それぞれ機能の使用を制限するか否かを判定する。例えば、機能制限判定部223は、カメラ10の表示部14と携帯機器100の表示部104とのうち、画面解像度の低い表示部の機能の使用を制限する。なお、機能制限判定部223は、二つの表示部の両方を使用することを選択してもよい。例えば、機能制限判定部223は、画面解像度の高い表示部に撮像画像を表示し、画面解像度の低い表示部にメニュー画面を表示することにしてもよい。また、携帯機器100が裏面側にも表示部を備える場合、機能制限判定部223は、携帯機器100の本体で隠れて見えない裏面側の表示部の使用を制限する。すなわち、機能制限判定部223は、カメラ10に対する携帯機器100の装着状態に基づいて携帯機器100の表示部の使用を制限する。
 図4は、カメラ10の電源がオンとなったときにカメラ10の制御部22により実行される処理に関するフローチャートである。
 ステップS1では、カメラ10の制御部22は、装着検出部221の処理により、携帯機器100がカメラ10に装着されているか否かを判定する。カメラ10の制御部22は、カメラ10の接点21と携帯機器100の接点111とが係合しているときステップS1の判定を肯定判定して、接点21と接点111とが係合していないときステップS1の判定を否定判定する。カメラ10の制御部22は、ステップS1が肯定判定されるまでステップS1の処理を繰り返し、ステップS1が肯定判定されたとき、ステップS2の処理に進む。
 ステップS2では、カメラ10の制御部22は、仕様取得部222の処理により、接点21と接点111とを介して、携帯機器100の仕様情報を取得する。カメラ10の制御部22は、カメラ10と携帯機器100とが一体となるような装着状態になったことに応じて、携帯機器100に対して携帯機器100の仕様情報を送信するように要求する。この要求に応じて、携帯機器100の制御部112は、携帯機器100の仕様情報をカメラ10に送信する。本実施形態においては、メモリ106に記憶されている携帯機器100の仕様情報がカメラ10に送信される。
 ステップS3では、カメラ10の制御部22は、機能制限判定部223の第1および第2の機能により、カメラ10と携帯機器100とが一体となるような装着状態になったことに応じて、カメラ10と携帯機器100との各ユニットの機能についてそれぞれ使用を制限するか否かを判定する。
 例えば、カメラ10の制御部22は、メモリ20に記憶されたワッセナー・アレンジメントに関する規制情報に基づいて、カメラ10の水準器16または携帯機器100の電子コンパス107の機能の使用を制限する判定を行う。また、カメラ10の制御部22は、ステップS2にて取得した携帯機器100の仕様情報に基づいて、カメラ10と携帯機器100との双方が共に同一カテゴリーの機能を果たすユニットを備えていることを検出して、それらのユニットのそれぞれについて使用を制限するか否かの判定を行う。
 ステップS4では、カメラ10の制御部22は、ステップS3の判定により機能の使用を制限すると判定されたユニットが存在するか否かを判定する。カメラ10の制御部22は、機能の使用を制限すると判定されたユニットが存在する場合ステップS4を肯定判定して処理をステップS5に進め、機能の使用を制限すると判定されたユニットが存在しない場合ステップS4を否定判定して処理をステップS6に進める。例えば、カメラ10の制御部22は、ステップS3にて携帯機器100の電子コンパス107、GPSモジュール108、カメラ10の表示部14などの機能の使用を制限する判定を行っていた場合、ステップS4を肯定判定する。
 ステップS5では、カメラ10の制御部22は、ステップS3において機能の使用を制限すると判定された各機能の使用を制限する。例えば、カメラ10の制御部22がステップS3にて携帯機器100の電子コンパス107、GPSモジュール108、カメラ10の表示部14などの機能の使用を制限する判定を行っていた場合、それらの機能の使用を制限する。また、制御部22および制御部112は、機能の使用を制限する各ユニットへの電力供給も中止させて、不図示の電源の消費電力を抑える。
 ステップS6では、カメラ10の制御部22は、カメラ10と携帯機器100との協調制御の設定を行う。カメラ10の制御部22は、例えばカメラ10の表示部14の機能の使用を制限した場合、カメラ10のASIC13により画像処理された画像データを、携帯機器100の表示部104に表示させるための設定や、タッチパネル105で入力された情報をカメラ10側で受け付けるための設定を行い、本フローチャートを終了する。
 以上説明した実施の形態によれば、次のような作用効果を奏する。
 カメラ10は、携帯機器100が外部機器として着脱可能に装着される電子機器であって、装着検出部221と仕様取得部222と機能制限判定部223として機能する制御部22を備える。装着検出部221は、携帯機器100が装着されたかどうかを検出する。仕様取得部222は、携帯機器100が装着されたことを装着検出部221が検出したとき、携帯機器100の各ユニットの仕様に関する仕様情報を取得する。機能制限判定部223は、例えば仕様取得部222により仕様情報が取得された携帯機器100の電子コンパス107とカメラ10の水準器16のいずれか少なくとも一方を制限するか否かを判定する。
 以上のように、カメラ10は、携帯機器100と一体化して使用する際にそれぞれに備えられた同一カテゴリーのユニットの使用を自動的に制限したり、ワッセナー・アレンジメントを遵守するようにユニットを自動的に制限したりしているので、二つの電子機器を一体化させて使用する際のユーザの使い勝手を向上することができる。
 以上で説明した実施の形態は、以下のように変形して実施できる。
 上記の実施形態では、カメラ10に水準器16を設け、携帯機器100に電子コンパス107を設けた場合について説明したが、カメラ10に電子コンパス107を設け、携帯機器100に水準器16を設けてもよい。
 制御部22は、GPSモジュール17により検出したカメラ10の位置情報に基づきカメラ10が位置する地域や国を確認して、通信部19を用いて当該地域や国における電子機器の使用に対する規制情報を取得し、取得した規制情報に基づき機能制限判定部223の処理を実行することにしてもよい。
 カメラ10の制御部22は、機能制限判定部223において、機能の使用を制限する判定を行った場合、機能の使用を制限することを報知するための文章または画像を、カメラ10の表示部14または携帯機器100などの外部機器の表示部104に表示することにしてもよい。また、ユーザが操作部18やタッチパネル105を用いてそれらの機能の使用の制限を解除できるようにしてもよいし、機能の使用を制限するユニットをユーザが選択できるようにしてもよい。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2012年第273506号(2012年12月14日出願)
 以上で説明した実施の形態や変形例はあくまで例示に過ぎず、発明の特徴が損なわれない限り本発明はこれらの内容に限定されない。また、以上で説明した実施の形態や変形例は発明の特徴が損なわれない限り組み合わせて実行してもよい。
10 カメラ
14,104 表示部
16 水準器
17,108 GPSモジュール
18 操作部
19,110 通信部
20,106 メモリ
22,112 制御部
100 携帯機器
105 タッチパネル
107 電子コンパス
221 装着検出部
222 仕様取得部
223 機能制限判定部

Claims (11)

  1.  外部機器が着脱可能に装着される電子機器であって、
     前記外部機器が装着されたかどうかを検出する検出部と、
     前記外部機器が装着されたことを前記検出部が検出したとき、前記外部機器の第1機能の仕様を取得する取得部と、
     前記取得部により仕様が取得された前記外部機器の前記第1機能と、前記電子機器の第2機能との少なくとも一方を制限するかどうかを判定する判定部と、
     を備える電子機器。
  2.  請求項1に記載の電子機器において、
     前記第1機能と前記第2機能とは異なる機能であり、
     前記判定部は、前記第1機能と前記第2機能との併用が可能かどうかを判定する電子機器。
  3.  請求項2記載の電子機器において、
     前記第1機能は、水準検出機能と方位検出機能との一方であり、
     前記第2機能は、前記水準検出機能と前記方位検出機能との他方であり、
     前記判定部は、前記水準検出機能と前記方位検出機能との併用が可能かどうかを判定する電子機器。
  4.  請求項1に記載の電子機器において、
     前記第1機能と前記第2機能とは同じカテゴリーの機能であり、
     前記判定部は、前記第1機能の仕様と、前記第2機能の仕様とに基づいて前記第1機能と前記第2機能の少なくとも一方を制限するかどうかを判定する電子機器。
  5.  請求項4に記載の電子機器において、
     前記第1機能は第1表示部であり、前記第2機能は第2表示部であり、
     前記第1表示部の表示内容と、前記第2表示部の表示内容とを異ならせる制御部を備える電子機器。
  6.  請求項4または5に記載の電子機器において、
     前記第1機能は第1方向を撮像する第1撮像部であり、前記第2機能は前記第1方向とは異なる第2方向を撮像する第2撮像部であり、
     前記第1撮像部と、前記第2撮像部とのそれぞれによる撮像を行う撮像制御部を備える電子機器。
  7.  請求項4に記載の電子機器において、
     前記判定部は、前記第1機能と前記第2機能との仕様を比較し、低い仕様の機能を制限する電子機器。
  8.  請求項1から7のいずれか一項に記載の電子機器において、
     前記判定部は、前記外部機器と前記電子機器との装着状態に応じて、前記第1機能と前記第2機能の少なくとも一方を制限するかどうかを判定する電子機器。
  9.  請求項1から8のいずれか一項に記載の電子機器において、
     技術の使用、輸出、または移転に対する規制に関する規制情報を記憶する記憶部を備え、
     前記判定部は、前記規制情報に基づいて、前記第1機能と前記第2機能との併用が可能かどうかを判定する電子機器。
  10.  請求項1から9のいずれか一項に記載の電子機器において、
     収納位置と該収納位置とは異なる位置とに可動する可動部を有し、
     前記可動部が前記異なる位置にあるときに、前記外部機器を前記可動部の前記収納位置に装着する装着部を備える電子機器。
  11.  請求項1から10のいずれか一項に記載の電子機器において、
     前記判定部が前記第1機能と前記第2機能との少なくとも一方を制限する場合に、当該制限する機能への電源供給を停止する電源制御部を備える電子機器。
PCT/JP2013/072720 2012-12-14 2013-08-26 電子機器 WO2014091797A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014551911A JPWO2014091797A1 (ja) 2012-12-14 2013-08-26 電子機器

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012273506 2012-12-14
JP2012-273506 2012-12-14

Publications (1)

Publication Number Publication Date
WO2014091797A1 true WO2014091797A1 (ja) 2014-06-19

Family

ID=50934099

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/072720 WO2014091797A1 (ja) 2012-12-14 2013-08-26 電子機器

Country Status (2)

Country Link
JP (2) JPWO2014091797A1 (ja)
WO (1) WO2014091797A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021079632A1 (ja) * 2019-10-21 2021-04-29 富士フイルム株式会社 電子機器、撮像装置、電子機器の動作方法、及び撮像装置の動作方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226131A (ja) * 2006-02-27 2007-09-06 Fujifilm Corp レンズユニット
JP2010226705A (ja) * 2009-02-27 2010-10-07 Sanyo Electric Co Ltd 撮像システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3219451B2 (ja) * 1992-03-25 2001-10-15 キヤノン株式会社 ビデオカメラ装置
JP3437228B2 (ja) * 1993-11-11 2003-08-18 キヤノン株式会社 情報処理装置および情報処理方法
JPH11355624A (ja) * 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 撮影装置
JP2000152045A (ja) * 1998-11-18 2000-05-30 Nikon Corp 電子カメラ装置
JP4296213B2 (ja) * 2007-12-21 2009-07-15 株式会社東芝 情報処理装置
JP4520536B1 (ja) * 2009-09-01 2010-08-04 パナソニック株式会社 装着型カメラ及び広域撮像システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226131A (ja) * 2006-02-27 2007-09-06 Fujifilm Corp レンズユニット
JP2010226705A (ja) * 2009-02-27 2010-10-07 Sanyo Electric Co Ltd 撮像システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021079632A1 (ja) * 2019-10-21 2021-04-29 富士フイルム株式会社 電子機器、撮像装置、電子機器の動作方法、及び撮像装置の動作方法
JPWO2021079632A1 (ja) * 2019-10-21 2021-04-29
CN114600068A (zh) * 2019-10-21 2022-06-07 富士胶片株式会社 电子设备、摄像装置、电子设备的动作方法及摄像装置的动作方法
JP7379522B2 (ja) 2019-10-21 2023-11-14 富士フイルム株式会社 電子機器、撮像装置、電子機器の動作方法、及び撮像装置の動作方法
US11921954B2 (en) 2019-10-21 2024-03-05 Fujifilm Corporation Electronic apparatus, imaging apparatus, operation method of electronic apparatus, and operation method of imaging apparatus

Also Published As

Publication number Publication date
JP2018164276A (ja) 2018-10-18
JPWO2014091797A1 (ja) 2017-01-05

Similar Documents

Publication Publication Date Title
JP6954414B2 (ja) 撮像装置
US20190297240A1 (en) Wearable device, control apparatus, photographing control method and automatic imaging apparatus
CN111837174A (zh) 头戴式显示器、头戴式显示器协作系统及其方法
US9357126B2 (en) Imaging operation terminal, imaging system, imaging operation method, and program device in which an operation mode of the operation terminal is selected based on its contact state with an imaging device
US9491352B2 (en) Imaging device, signal processing method, and signal processing program
US10171736B2 (en) Control an imaging mode of an imaging device based on posture information of the imaging device
KR20150060885A (ko) 촬영 방법, 장치 및 단말
JP5753323B2 (ja) 撮像装置及び画像表示方法
JP2013207325A (ja) アクセサリーシューを備えた撮像装置
CN106664361B (zh) 信息处理装置、信息处理方法和计算机可读存储介质
JP2017041417A (ja) 電子機器およびその制御方法、プログラム
JP2017126980A (ja) 情報処理装置、撮像装置、表示装置、情報処理方法、撮像装置の制御方法、表示装置の制御方法、情報処理プログラム、撮像装置の制御プログラム、および表示装置の制御プログラム
US8494359B2 (en) Imaging apparatus
WO2018143360A1 (ja) 相対位置検出システム及び画像表示システム
JP2018164276A (ja) 電子機器
JP5386898B2 (ja) 位置測位装置
JP2013026955A (ja) カメラおよびサーバ装置
JP6226731B2 (ja) 撮像装置、制御方法、およびプログラム
JP2012029033A (ja) カメラ
US20150195456A1 (en) Optimized Image Stabilization
KR20180091318A (ko) 이미지의 떨림을 보정하는 전자 장치 및 전자 장치의 제어 방법
JP2014180036A (ja) 撮影装置、その制御方法、及びプログラム
JP6222520B2 (ja) 重力方向検知装置および撮影装置
JP2012216885A (ja) 撮像装置及び画像共有システム
JP2010183364A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13862043

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014551911

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13862043

Country of ref document: EP

Kind code of ref document: A1