JP2017102849A - Electronic instrument - Google Patents

Electronic instrument Download PDF

Info

Publication number
JP2017102849A
JP2017102849A JP2015237792A JP2015237792A JP2017102849A JP 2017102849 A JP2017102849 A JP 2017102849A JP 2015237792 A JP2015237792 A JP 2015237792A JP 2015237792 A JP2015237792 A JP 2015237792A JP 2017102849 A JP2017102849 A JP 2017102849A
Authority
JP
Japan
Prior art keywords
information
unit
camera
analysis
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015237792A
Other languages
Japanese (ja)
Inventor
宏美 冨井
Hiromi Tomii
宏美 冨井
大助 下川
Daisuke Shimokawa
大助 下川
智雄 衣笠
Tomoo Kinugasa
智雄 衣笠
藤田 力
Tsutomu Fujita
力 藤田
佳孝 市川
Yoshitaka Ichikawa
佳孝 市川
政一 関口
Masaichi Sekiguchi
政一 関口
雄 村越
Yu MURAKOSHI
雄 村越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2015237792A priority Critical patent/JP2017102849A/en
Publication of JP2017102849A publication Critical patent/JP2017102849A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an electronic instrument that is user friendly.SOLUTION: An electronic instrument (40) comprises: an input unit (44) that inputs information about a way an instrument is used; and a comparison unit (42) that compares the information about the way the instrument is used with information about specifications of the instrument.SELECTED DRAWING: Figure 1

Description

本発明は、電子機器に関する。   The present invention relates to an electronic device.

従来より、カメラなどの電子機器に関してユーザの好みを質問して、電子機器をカスタム設定することが提案されている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, it has been proposed to ask a user's preference regarding an electronic device such as a camera and to make a custom setting of the electronic device (see, for example, Patent Document 1).

特開2005−117478号公報JP 2005-117478 A

しかしながら、従来の提案では、ユーザおよびメーカの双方にとって使い勝手が十分とはいえなかった。   However, conventional proposals are not sufficient for both users and manufacturers.

本発明の電子機器(40)は、機器の使われ方に関する情報を入力する入力部(44)と、前記機器の使われ方に関する情報と、前記機器の仕様に関する情報とを比較する比較部(42)と、を備えている。   The electronic device (40) according to the present invention includes an input unit (44) for inputting information on how the device is used, a comparison unit for comparing information on how the device is used and information on the specification of the device ( 42).

この場合において、前記入力部は、ネットワーク(20)を介して前記機器(10)から前記機器の使われ方に関する情報を入力してもよい。また、前記入力部は、前記機器(10)が使われた場所及び環境の少なくとも一方の情報を入力してもよい。また、前記入力部は、前記機器が使われたときの該機器の発熱に関する情報を入力し、前記比較部は、前記発熱に関する情報と、前記機器の発熱に関する仕様とを比較してもよい。   In this case, the input unit may input information on how the device is used from the device (10) via the network (20). In addition, the input unit may input information on at least one of a place where the device (10) is used and an environment. In addition, the input unit may input information related to heat generation of the device when the device is used, and the comparison unit may compare the information related to heat generation and specifications related to heat generation of the device.

また、前記機器の使われ方に関する情報に基づいて、前記機器の機能のうち使用頻度が所定条件を満たす機能を抽出する第1抽出部(42)を備えていてもよい。また、前記機器の使われ方に関する情報に基づいて、前記機器の機能のうち使用頻度が所定頻度より少ない機能、使用頻度が増加している機能及び使用頻度が減少している機能の少なくとも一つを抽出する第2抽出部(42)を備えていてもよい。また、前記機器の使われ方に関する情報に基づいて、前記機器の耐久性に関する値を決定する決定部(42)を備えていてもよい。   In addition, a first extraction unit (42) may be provided that extracts a function whose use frequency satisfies a predetermined condition among the functions of the device based on information on how the device is used. In addition, based on information on how the device is used, at least one of the functions of the device, a function that is used less frequently, a function that is used more frequently, and a function that is used less frequently A second extraction unit (42) for extracting Further, a determination unit (42) may be provided that determines a value related to durability of the device based on information on how the device is used.

また、前記機器の使われ方に関する情報に基づいて、前記機器の不具合発生を予測する予測部(42)を備えていてもよい。また、前記予測部の予測結果に基づいて、交換または修理が必要な部品を特定する特定部(42)を備えていてもよい。また、前記入力部は、流行に関する情報を入力し、前記流行に関する情報に基づいて、前記機器のデザインに関する情報を出力する出力部(42)を備えていてもよい。   Moreover, you may provide the prediction part (42) which estimates the malfunction occurrence of the said apparatus based on the information regarding how the said apparatus is used. Moreover, you may provide the specific | specification part (42) which specifies the components which need replacement | exchange or repair based on the prediction result of the said prediction part. In addition, the input unit may include an output unit (42) that inputs information related to a trend and outputs information related to the design of the device based on the information related to the trend.

なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させてもよい。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。   In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later is provided. May be modified as appropriate, and at least a part of the structure may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.

一実施形態に係る電子機器システムの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the electronic device system which concerns on one Embodiment. 図2(a)はユーザ属性情報が関連付けられた製品情報を示す図であり、図2(b)は発熱情報が関連付けられた使用場所・環境情報を示す図であり、図2(c)は修理情報を示す図である。FIG. 2A is a diagram showing product information associated with user attribute information, FIG. 2B is a diagram showing use place / environment information associated with heat generation information, and FIG. It is a figure which shows repair information. 図3(a)は操作情報を示す図であり、図3(b)は設定情報を示す図であり、図3(c)は可動式モニタ姿勢情報を示す図である。FIG. 3A is a diagram showing operation information, FIG. 3B is a diagram showing setting information, and FIG. 3C is a diagram showing movable monitor posture information. SNSサーバがサーバに送信するSNS情報を示す図である。It is a figure which shows the SNS information which an SNS server transmits to a server. 製品仕様情報を示す図である。It is a figure which shows product specification information. サーバが備える分析部と制御部が実行する分析・予測のフローチャートである。It is a flowchart of analysis and prediction which an analysis part with which a server is provided, and a control part. 環境分析の一例を説明するための図である。It is a figure for demonstrating an example of environmental analysis. 耐久分析の一例を説明するための図である。It is a figure for demonstrating an example of an endurance analysis. 機能・設定分析の一例を説明するための図である。It is a figure for demonstrating an example of a function and setting analysis. 機能・設定分析の他の一例を説明するための図である。It is a figure for demonstrating another example of a function and setting analysis. 交換または修理の予測の一例を説明するための図である。It is a figure for demonstrating an example of the prediction of replacement | exchange or repair.

以下、一実施形態に係る電子機器システムについて、図1〜図11に基づいて詳細に説明する。   Hereinafter, an electronic device system according to an embodiment will be described in detail with reference to FIGS.

図1には、一実施形態に係る電子機器システム100の構成がブロック図にて示されている。電子機器システム100は、複数のカメラ10、ネットワーク20、SNSサーバ30、サーバ40を利用するものである。電子機器システム100は、図1に示すように、複数のカメラ10と、SNS(Social Network Service)サーバ30と、サーバ40とを備える。複数のカメラ10とSNSサーバ30とサーバ40とは、インターネットやLAN(Local Area Network)などのネットワーク20に接続されている。サーバ40は、カメラ10の使用に関する履歴など、カメラ10の使われ方に関する情報を取得するものである。   FIG. 1 is a block diagram illustrating a configuration of an electronic device system 100 according to an embodiment. The electronic device system 100 uses a plurality of cameras 10, a network 20, an SNS server 30, and a server 40. As shown in FIG. 1, the electronic device system 100 includes a plurality of cameras 10, an SNS (Social Network Service) server 30, and a server 40. The plurality of cameras 10, the SNS server 30, and the server 40 are connected to a network 20 such as the Internet or a LAN (Local Area Network). The server 40 acquires information regarding how the camera 10 is used, such as a history regarding the use of the camera 10.

(カメラ10)
本実施形態において、カメラ10はネットワーク20に接続できるカメラを複数含むが、図1では代表して2つのカメラ10を示している。各カメラ10は、被写体を撮像するものであり、コンパクトカメラ、一眼カメラ、スマートフォンや携帯電話機などに内蔵されたカメラなど種々のカメラであるものとする。なお、複数のカメラ10には、メーカや製品グレード(入門機、中級機、高級機)が異なるカメラが混在していても構わない。
(Camera 10)
In the present embodiment, the camera 10 includes a plurality of cameras that can be connected to the network 20, but FIG. Each camera 10 captures a subject and is a variety of cameras such as a compact camera, a single-lens camera, a camera built in a smartphone, a mobile phone, or the like. The plurality of cameras 10 may include cameras of different manufacturers and product grades (introductory machines, intermediate machines, and high-end machines).

カメラ10は、一例として、撮像部11と、表示部12と、操作部13と、GPS(Global Positioning System)14と、温度計15と、ジャイロセンサ16と、記憶部17と、通信部18と、制御部19を備える。なお、カメラ10の種類等によっては、図1の構成の一部を備えていない場合もある。   As an example, the camera 10 includes an imaging unit 11, a display unit 12, an operation unit 13, a GPS (Global Positioning System) 14, a thermometer 15, a gyro sensor 16, a storage unit 17, and a communication unit 18. The control unit 19 is provided. Depending on the type of the camera 10 and the like, there may be a case where a part of the configuration of FIG. 1 is not provided.

撮像部11は、光学系と撮像素子とを有する。なお、一眼カメラなどでは光学系が交換式となっている。   The imaging unit 11 includes an optical system and an imaging element. In single-lens cameras and the like, the optical system is replaceable.

表示部12は、カメラ10の本体の背面に設けられており、液晶表示素子を有している。表示部12は、撮像部11が撮像した画像(静止画、動画、ライブビュー画像)を表示したり、操作メニューを表示したりする。なお、表示部12としては、2軸のヒンジによりカメラ本体に取り付けられ、姿勢変化が可能とされた可動式モニタ(例えばバリアングルモニタ)が採用されている場合もある。   The display unit 12 is provided on the back surface of the main body of the camera 10 and has a liquid crystal display element. The display unit 12 displays an image (still image, moving image, live view image) captured by the imaging unit 11, or displays an operation menu. The display unit 12 may be a movable monitor (for example, a vari-angle monitor) that is attached to the camera body by a biaxial hinge and can change its posture.

このような可動式モニタが採用された場合、カメラ10においては、可動式モニタの内部やカメラ10の本体に磁石が設けられ、磁石による磁場の変化が、カメラ10が備える不図示の検出部により検出される。制御部19は、検出部が検出した磁場の変化に基づいて、可動式モニタの姿勢、すなわちユーザがどのような状態で可動式モニタを使用しているかを可動式モニタ姿勢情報として取得することができる。なお、可動式モニタ姿勢情報には、例えば、自分撮りの際の確認用モニタとして使用した、ハイアングルの撮影に使用した、ローアングルの撮影に使用したという情報や、ヒンジを使用した回数の情報などが含まれる。   When such a movable monitor is adopted, in the camera 10, a magnet is provided in the movable monitor or in the main body of the camera 10, and a change in the magnetic field due to the magnet is detected by a detection unit (not shown) provided in the camera 10. Detected. Based on the change in the magnetic field detected by the detection unit, the control unit 19 can acquire the attitude of the movable monitor, that is, in what state the user is using the movable monitor, as movable monitor attitude information. it can. The movable monitor posture information includes, for example, information used as a monitor for confirmation during self-shooting, used for high-angle shooting, used for low-angle shooting, and information about the number of times the hinge was used. Etc. are included.

また、表示部12に対して、カメラ10の本体もしくは撮像部11から着脱可能とする着脱部を設けることにより、表示部12を分離して使用できるようにしてもよい。この場合、表示部12には、カメラ10の本体もしくは撮像部11と通信可能な通信部が設けられる。この場合、制御部19は、表示部12を分離して使用しているか、表示部12を一体化して(分離せずに)使用しているかの着脱履歴に関する情報を取得する。また、表示部12に加えて、カメラ10に光学像を視認するためのファインダーが設けられている場合には、ファインダーにユーザの顔(又は目)が近接したことを検出するセンサを設け、当該センサにより検出されるファインダーの使用履歴に関する情報を制御部19が取得するようにしてもよい。   In addition, the display unit 12 may be separated from the display unit 12 by using a detachable unit that is detachable from the main body of the camera 10 or the imaging unit 11. In this case, the display unit 12 is provided with a communication unit capable of communicating with the main body of the camera 10 or the imaging unit 11. In this case, the control unit 19 acquires information on the attachment / detachment history indicating whether the display unit 12 is used separately or whether the display unit 12 is used integrally (without being separated). In addition to the display unit 12, when the camera 10 is provided with a finder for visually recognizing an optical image, a sensor for detecting that the user's face (or eyes) is close to the finder is provided. The control unit 19 may acquire information related to the viewfinder usage history detected by the sensor.

操作部13は、メカニカルシャッタ、電源スイッチ、レリーズスイッチ、モード設定スイッチなどの各種スイッチ、表示部12をタッチして操作を行うタッチパネルなどを有している。ユーザが操作部13を操作することで、制御部19は、AF(Auto Focus)やAE(Auto Exposure)といった調整機能を実行したり、各種設定(モード設定、シャッタースピード設定、画質設定、特殊効果設定など)を実行したりする。   The operation unit 13 includes various switches such as a mechanical shutter, a power switch, a release switch, and a mode setting switch, and a touch panel that performs operations by touching the display unit 12. When the user operates the operation unit 13, the control unit 19 executes an adjustment function such as AF (Auto Focus) or AE (Auto Exposure), or performs various settings (mode setting, shutter speed setting, image quality setting, special effect). For example).

GPS14は、カメラ10の位置(緯度、経度等)を検出する位置検出装置である。なお、GPS14に加えて、カメラ10に撮像方位を検出するための方位センサを設けるようにしてもよい。   The GPS 14 is a position detection device that detects the position (latitude, longitude, etc.) of the camera 10. In addition to the GPS 14, the camera 10 may be provided with an orientation sensor for detecting the imaging orientation.

温度計15は、温度を計測する。本実施形態においては、前述の撮像素子や、画像処理を行う不図示のASIC(Application Specific Integrated Circuit)の温度を計測する。また、カメラ10で撮影が行われる場所の外気温を検出するための温度計もカメラ10に設けられているものとする。なお、外気温の温度を検出する温度計を設ける代わりに、制御部19は、通信部18を介して、気象庁等のウェブサイトから、カメラ10が存在する位置(GPS14により検出される位置)の外気温の温度情報を入手するようにしてもよい。   The thermometer 15 measures temperature. In the present embodiment, the temperature of the above-described imaging device or an application specific integrated circuit (ASIC) (not shown) that performs image processing is measured. In addition, it is assumed that the camera 10 is also provided with a thermometer for detecting the outside air temperature at the place where the camera 10 performs shooting. Instead of providing a thermometer for detecting the temperature of the outside air temperature, the control unit 19 can detect the position where the camera 10 exists (position detected by the GPS 14) from a website such as the Japan Meteorological Agency via the communication unit 18. You may make it acquire the temperature information of outside temperature.

ジャイロセンサ16は、前述の光学系の角速度を検出する。例えば、ジャイロセンサ16はメカニカルシャッタを操作して撮影を実行する際の角速度を検出することで、手振れを検出する。なお、撮像素子の近傍にジャイロセンサ16を設けて撮像面の振動を検出するようにしてもよい。制御部19は、ジャイロセンサ16で検出された手振れの影響を軽減するため、不図示の防振機構により光学系や撮像素子を駆動したり、電子的なぶれ補正を実行する。   The gyro sensor 16 detects the angular velocity of the optical system described above. For example, the gyro sensor 16 detects camera shake by detecting an angular velocity when performing shooting by operating a mechanical shutter. Note that a gyro sensor 16 may be provided in the vicinity of the image sensor to detect vibration of the imaging surface. The control unit 19 drives an optical system and an image sensor with an anti-vibration mechanism (not shown) and executes electronic shake correction in order to reduce the influence of camera shake detected by the gyro sensor 16.

記憶部17は、例えば、フラッシュメモリ等の不揮発性の半導体メモリである。記憶部17は、製品に関する製品情報を予め記憶するほか、撮像部11が撮像した画像データや、表示部12に表示する表示データも記憶する。また、記憶部17は、ユーザがカメラ10を操作して設定したユーザ属性情報を製品情報と関連付けて記憶するとともに、撮像部11が撮像した際の撮像位置や撮像方位などを含む使用場所・環境情報を、温度計15の計測対象機器及びその温度を含む発熱情報と関連付けて記憶する。さらに、記憶部17は、カメラ10の修理に関する修理情報、カメラ10に対してなされた操作に関する操作情報、カメラ10に設定された設定情報、可動式モニタの姿勢に関する可動式モニタ姿勢情報なども記憶する。   The storage unit 17 is a non-volatile semiconductor memory such as a flash memory, for example. The storage unit 17 stores product information related to products in advance, and also stores image data captured by the imaging unit 11 and display data displayed on the display unit 12. In addition, the storage unit 17 stores user attribute information set by the user operating the camera 10 in association with product information, and includes a use location / environment including an imaging position and an imaging direction when the imaging unit 11 captures an image. The information is stored in association with the measurement target device of the thermometer 15 and the heat generation information including the temperature. The storage unit 17 also stores repair information related to the repair of the camera 10, operation information related to operations performed on the camera 10, setting information set in the camera 10, movable monitor posture information related to the posture of the movable monitor, and the like. To do.

記憶部17に記憶されている各種情報の一例が、図2及び図3に示されている。以下、各種情報について具体的に説明する。なお、図2、図3の情報は、サーバ40に入力される入力対象情報である。   An example of various types of information stored in the storage unit 17 is shown in FIGS. Hereinafter, various information will be specifically described. 2 and 3 is input target information input to the server 40.

図2(a)には、製品情報と関連付けられたユーザ属性情報が示されている。製品情報としては、メーカ、製品ID、製品グレードの情報などを含む。メーカの情報は、例えばカメラ10のメーカの名称やメーカコードを含む。製品IDの情報は、製品の識別番号等を含み、製品グレードの情報は、カメラ10が上級機、中級機、初級機のいずれに該当するかなどの情報を含む。ユーザ属性情報は、年代、性別などの情報を含む。製品情報は、カメラ10が出荷される前に予め記憶部17に登録される情報であるが、ユーザ属性情報は、カメラ10を購入したユーザが初期設定として登録する情報である。ユーザ属性情報の登録の際には、例えば表示部12に性別や年齢(実際の年齢を特定しないように20代、17〜27才といったような表示を行ってもよい)を表示して、ユーザに入力を促す。これにより、制御部19は、ユーザによって入力されたユーザ属性情報を製品情報と関連付けて記憶部17に記憶する。   FIG. 2A shows user attribute information associated with product information. Product information includes information on manufacturer, product ID, product grade, and the like. The manufacturer information includes, for example, the name of the manufacturer of the camera 10 and the manufacturer code. The product ID information includes a product identification number and the like, and the product grade information includes information such as whether the camera 10 corresponds to an advanced machine, an intermediate machine, or an elementary machine. The user attribute information includes information such as age and sex. The product information is information registered in advance in the storage unit 17 before the camera 10 is shipped. The user attribute information is information registered by the user who purchased the camera 10 as an initial setting. When registering the user attribute information, for example, the display unit 12 displays gender and age (may be displayed such as 20's, 17-27 years old so as not to specify the actual age), and the user is displayed. Prompt for input. Thereby, the control unit 19 stores the user attribute information input by the user in the storage unit 17 in association with the product information.

図2(b)には、発熱情報と関連付けられた使用場所・環境情報が示されている。使用場所・環境情報は、撮像位置、撮像方位、撮像日、撮像時刻、撮像時間及び外気温などの情報を含む。使用場所・環境情報に含まれる各情報は、撮像部11が撮像を行ったタイミングで取得される情報である。ここで、撮像位置はGPS14によって検出され、撮像方位は方位センサによって検出される。撮像日、撮像時刻はカメラ10が備える不図示のカレンダー機能により取得される。撮像時間はカメラ10に設定されたモードが動画モードである場合に、カメラ10が備える不図示のタイマー機能により取得される。外気温は、外気温を計測するための温度計によって検出される。なお、カメラ10の種別等によっては、使用場所・環境情報のうちの一部の情報を取得できない場合もある。一方、発熱情報は、計測対象の情報と、当該計測対象の温度の情報(機器温度)を含む。計測対象には、前述したように、撮像素子やASICが含まれるが、必ずしもこれらに限定されるものではない。なお、計測対象の温度の情報(機器温度)は、撮像部11が撮像を実行したタイミングに応じて計測される。   FIG. 2B shows the use location / environment information associated with the heat generation information. The usage location / environment information includes information such as an imaging position, an imaging orientation, an imaging date, an imaging time, an imaging time, and an outside temperature. Each information included in the usage location / environment information is information acquired at the timing when the imaging unit 11 performs imaging. Here, the imaging position is detected by the GPS 14, and the imaging direction is detected by the direction sensor. The imaging date and imaging time are acquired by a calendar function (not shown) included in the camera 10. The imaging time is acquired by a timer function (not shown) included in the camera 10 when the mode set in the camera 10 is the moving image mode. The outside air temperature is detected by a thermometer for measuring the outside air temperature. Depending on the type of the camera 10 and the like, some of the usage location / environment information may not be acquired. On the other hand, the heat generation information includes information on the measurement target and information on the temperature of the measurement target (equipment temperature). As described above, the measurement target includes an image sensor and an ASIC, but is not necessarily limited thereto. Note that the temperature information (equipment temperature) of the measurement target is measured according to the timing at which the imaging unit 11 executes imaging.

図2(c)には、修理情報が示されている。修理情報には、修理日及び修理箇所などの情報が含まれる。修理情報は、例えば故障したカメラ10の修理を終えたときにカメラ10のメーカや修理会社の担当者によって登録される。なお、修理情報は、カメラ10の製品情報と関連付けられた状態で、メーカや修理会社の端末等からサーバ40に対して直接送信されてもよい。   FIG. 2 (c) shows repair information. The repair information includes information such as a repair date and a repair location. The repair information is registered, for example, by the person in charge of the manufacturer of the camera 10 or a repair company when the repair of the malfunctioning camera 10 is completed. The repair information may be directly transmitted to the server 40 from a manufacturer or repair company terminal or the like in a state associated with the product information of the camera 10.

図3(a)には、操作情報が示されている。操作情報には、操作日、操作内容などの操作履歴に関する情報が含まれる。制御部19は、ユーザが操作部13を操作する度に記憶部17に操作情報を逐次登録する。   FIG. 3A shows operation information. The operation information includes information related to the operation history such as operation date and operation content. The control unit 19 sequentially registers operation information in the storage unit 17 every time the user operates the operation unit 13.

図3(b)には、設定情報が示されている。設定情報には、設定日、設定内容などの情報が含まれる。制御部19は、ユーザが操作部13を用いて各種設定を行った場合に、記憶部17に設定情報を登録する。例えば、図3(a)、図3(b)によると、2014年5月2日にモード設定スイッチが操作され、動画モードが設定されたことが分かる。また、2014年7月21日にモード設定スイッチのほか、画質設定や特殊効果設定などの操作が行われ、これらの操作に基づいてオートモード、高画質、ミニチュア効果などが設定されたことが分かる。   FIG. 3B shows setting information. The setting information includes information such as a setting date and setting contents. The control unit 19 registers setting information in the storage unit 17 when the user performs various settings using the operation unit 13. For example, according to FIGS. 3A and 3B, it can be seen that the mode setting switch was operated on May 2, 2014, and the moving image mode was set. Also, on July 21, 2014, in addition to the mode setting switch, operations such as image quality setting and special effect setting were performed, and it can be seen that auto mode, high image quality, miniature effect, etc. were set based on these operations. .

図3(c)には、可動式モニタ姿勢情報が示されている。可動式モニタ姿勢情報には、姿勢検出日、検出姿勢などの情報が含まれる。制御部19は、可動式モニタの姿勢が変わる度に、記憶部17に可動式モニタ姿勢情報を登録する。なお、図3(c)によれば、可動式モニタのヒンジを使用した回数等もわかるようになっている。   FIG. 3C shows movable monitor posture information. The movable monitor posture information includes information such as the posture detection date and the detected posture. The control unit 19 registers movable monitor posture information in the storage unit 17 each time the posture of the movable monitor changes. In addition, according to FIG.3 (c), the frequency | count etc. which used the hinge of the movable monitor can also be known now.

図1に戻り、通信部18は、他の機器と通信を行うものであり、本実施形態においてはネットワーク20を介してサーバ40と通信するものである。   Returning to FIG. 1, the communication unit 18 communicates with other devices, and in this embodiment, communicates with the server 40 via the network 20.

制御部19は、カメラ10全体を制御するものであり、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。本実施形態では、制御部19は、カメラ10の操作情報などを記憶部17に記憶したり、サーバ40に操作情報などを送信するための制御を行う。制御部19は、例えば、操作部13の操作により電源スイッチがオンになると操作情報などを記憶部17に記憶し、電源スイッチがオフされ、電源がオフになる(シャットダウンされる)までの間に記憶部17に記憶された操作情報などを通信部18によりサーバ40に送信する。   The control unit 19 controls the entire camera 10 and includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. In the present embodiment, the control unit 19 stores control information for the camera 10 in the storage unit 17 and performs control for transmitting the operation information to the server 40. For example, when the power switch is turned on by the operation of the operation unit 13, the control unit 19 stores operation information and the like in the storage unit 17, and until the power switch is turned off and the power is turned off (shut down). The operation information stored in the storage unit 17 is transmitted to the server 40 by the communication unit 18.

なお、カメラ10には前述の光学系に加えて、閃光装置、水中ハウジングなどのアクセサリーが取り付けられる場合がある。このような場合、制御部19は、所定の電気接点を用いてどのアクセサリーが取り付けられたかの情報(種類、機種)を取得するようにすればよい。また、制御部19は、カメラ10に近距離通信ユニットを設け、この近距離通信ユニットにより、取り付けられたアクセサリーの情報(種類、機種)を取得するようにしてもよい。   In addition to the optical system described above, accessories such as a flash device and an underwater housing may be attached to the camera 10. In such a case, the control part 19 should just acquire the information (type, model) which accessory was attached using the predetermined | prescribed electrical contact. Further, the control unit 19 may be provided with a short-range communication unit in the camera 10 and acquire information (type and model) of attached accessories by the short-range communication unit.

なお、カメラ10や、撮像部11に他の部分(自転車、バイク、サーフボード、ヘルメット)に取り付けるための取り付け部が設けられている場合には、他の部分(道具)にもICタグなどを設けることにより、どのような部分(道具)に取り付けられたかといったデータを取得することとしてもよい。   When the camera 10 or the imaging unit 11 is provided with an attachment part for attaching to another part (bicycle, bike, surfboard, helmet), an IC tag or the like is also provided on the other part (tool). Thus, it may be possible to acquire data such as what part (tool) is attached.

(SNSサーバ30)
SNSサーバ30は、クチコミやつぶやきを管理する管理サーバであり、カメラに関連するクチコミやつぶやきを含むSNS情報を、ネットワーク20を介してサーバ40に送信するものである。また、SNSサーバ30は、カメラ関連のSNS情報に加えて、流行(例えば流行している又は今後流行する色、形状、型など)や流行の兆しのあるSNS情報(例えばファッション情報、人気のキャラクター、社会情勢など)をサーバ40に送信する。
(SNS server 30)
The SNS server 30 is a management server that manages reviews and tweets, and transmits SNS information including reviews and tweets related to the camera to the server 40 via the network 20. In addition to the SNS information related to the camera, the SNS server 30 also has SNS information (for example, fashion information, popular characters) that has a trend (for example, a color that is popular or will be popular in the future, shape, type, etc.) or a trend sign. , Social conditions, etc.) are transmitted to the server 40.

図4には、SNSサーバ30がサーバ40に送信するSNS情報を示している。このSNS情報も、図2、図3と同様、サーバ40に入力される入力対象情報である。SNS情報は、コメントID、コメント及びポジティブ/ネガティブ(P/N)タイプ、などの情報を含む。コメントIDは、コメント毎に付与される識別情報である。コメントは、例えばFacebook(登録商標)やTwitter(登録商標)といったSNSに書き込まれたクチコミやつぶやきなどである。P/Nタイプは、コメントに所定の文字が含まれるか否かなどに応じて決定されるコメントタイプである。例えばSNSサーバ30は、コメントに「良い」などの文字が含まれていれば「P」が登録され、コメントに「悪い」、「良くない」などの文字が含まれていれば「N」が登録される。なお、SNSのユーザが利用する絵文字、画像、スタンプなどからユーザの感情を推定できる場合には、推定された感情の情報からP/Nタイプを決定することとしてもよい。   FIG. 4 shows SNS information that the SNS server 30 transmits to the server 40. This SNS information is also input target information input to the server 40 as in FIGS. The SNS information includes information such as a comment ID, a comment, and a positive / negative (P / N) type. The comment ID is identification information given for each comment. The comment is, for example, a word of mouth or a tweet written in SNS such as Facebook (registered trademark) or Twitter (registered trademark). The P / N type is a comment type that is determined depending on whether or not a predetermined character is included in the comment. For example, the SNS server 30 registers “P” if a character such as “good” is included in the comment, and “N” if the character includes “bad” or “not good” in the comment. be registered. In addition, when a user's emotion can be estimated from the pictograph, image, stamp, etc. which the SNS user uses, it is good also as determining P / N type from the information of the estimated emotion.

(サーバ40)
サーバ40は、情報分析会社や、カメラメーカに設けられたサーバである。サーバ40は、カメラ10が世界各地でどのように使用されているかという情報を収集し分析する。サーバ40による分析結果は、次機種の開発や市場予測などのデータとして使用される。
(Server 40)
The server 40 is a server provided in an information analysis company or a camera manufacturer. The server 40 collects and analyzes information on how the camera 10 is used in various parts of the world. The analysis result by the server 40 is used as data for development of the next model, market prediction, and the like.

サーバ40は、図1に示すように、通信部41と、分析部42と、記憶部43と、制御部44とを備える。   As illustrated in FIG. 1, the server 40 includes a communication unit 41, an analysis unit 42, a storage unit 43, and a control unit 44.

通信部41は、複数のカメラ10やSNSサーバ30との通信を行うものであり、カメラ10の操作情報や、カメラ10に関するクチコミやつぶやきといったSNS情報などを入力対象情報として受信する。なお、通信部41は、SNSサーバ30に加えて、カメラ10の中古販売を行っている会社のサーバから、中古情報(持ち込まれたカメラの情報、販売されたカメラの情報)を入力対象情報として受信するようにしてもよい。これにより、サーバ40では、ある機種が中古店に持ち込まれる割合や時期、カメラの使用履歴(レリーズ回数、修理履歴など)などを分析に利用することができる。   The communication unit 41 communicates with a plurality of cameras 10 and the SNS server 30, and receives operation information of the camera 10, SNS information such as reviews and tweets about the camera 10, and the like as input target information. In addition to the SNS server 30, the communication unit 41 uses second-hand information (information about cameras brought in and information about cameras sold) as input target information from a server of a company that sells second-hand cameras 10. You may make it receive. As a result, the server 40 can use the ratio and time when a certain model is brought into a second-hand store, the use history of the camera (release times, repair history, etc.), and the like for analysis.

分析部42は、制御部44からの指示に基づいて、通信部41が受信した入力対象情報を分析する。分析部42は、カメラ10の使用に関する兆候(レリーズ回数の増加、よく使用される機能の変化)や、使用されない機能、各部品(モータ、シャッターユニット)の耐久回数、使用場所(海、山、など)の情報を抽出する。また、分析部42は、抽出した情報に基づいて、年代・性別といったユーザ属性や、カメラ10の製品グレード、カメラ10が使用されている地域や場所、撮像方位、時間帯、カメラ10に対して行われている操作内容や設定内容、カメラ10で使用されている機能などを分析する。   The analysis unit 42 analyzes the input target information received by the communication unit 41 based on an instruction from the control unit 44. The analysis unit 42 displays signs related to the use of the camera 10 (increase in the number of releases, changes in frequently used functions), functions that are not used, the number of times each component (motor, shutter unit) is used, and the place of use (the sea, mountains, Etc.). Further, the analysis unit 42 determines the user attributes such as age and gender, the product grade of the camera 10, the region and place where the camera 10 is used, the imaging direction, the time zone, and the camera 10 based on the extracted information. The contents of operations and settings being performed and functions used in the camera 10 are analyzed.

記憶部43は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、通信部41が入力対象情報として受信した各種情報や、分析部42による分析結果を記憶する。記憶部43は、制御部19が分析部42に分析や予測を行わせるための各種プログラムも記憶している。また、記憶部43は、カメラ10の仕様(スペック)に関する製品仕様情報を記憶する。製品仕様情報の記憶部43への記憶は、分析部42による分析処理が始まる前であればいつでもよいが、例えば、すでに販売されているカメラの製品仕様情報はシステム立ち上げ時、新たに販売されるカメラの製品仕様情報は販売開始前後、などのタイミングで記憶部43に記憶されるものとする。   The storage unit 43 is, for example, a nonvolatile semiconductor memory such as a flash memory, and stores various types of information received as input target information by the communication unit 41 and analysis results by the analysis unit 42. The storage unit 43 also stores various programs for the control unit 19 to cause the analysis unit 42 to perform analysis and prediction. In addition, the storage unit 43 stores product specification information related to the specification (spec) of the camera 10. The product specification information may be stored in the storage unit 43 at any time before the analysis process by the analysis unit 42 starts. For example, the product specification information of a camera already sold is newly sold when the system is started up. It is assumed that the product specification information of the camera is stored in the storage unit 43 at timings such as before and after the start of sales.

図5には、製品仕様情報が示されている。製品仕様情報は、メーカ、製品ID、製品グレード、搭載機能及び許容最高温度などの情報を含む。メーカ、製品ID及び製品グレードは、図2(a)の製品情報に含まれる情報と同様である。搭載機能の情報は、製品IDによって特定されるカメラ10に搭載された機能の情報である。例えば、メーカ「N」の製品ID「1234」のカメラ10には、「オートモード」、「動画モード」及び「花火モード」が搭載されている。また、許容最高温度の情報は、発熱する機器(撮像素子やASICなど)の許容最高温度の情報である。例えば、メーカ「N」の製品ID「1234」のカメラ10が有する撮像素子及びASICの許容最高温度はともに70℃となっている。   FIG. 5 shows product specification information. The product specification information includes information such as manufacturer, product ID, product grade, mounting function, and allowable maximum temperature. The manufacturer, product ID, and product grade are the same as the information included in the product information of FIG. The information on the installed function is information on the function installed in the camera 10 specified by the product ID. For example, the camera 10 having the product ID “1234” of the manufacturer “N” is equipped with “auto mode”, “moving image mode”, and “fireworks mode”. The allowable maximum temperature information is information on the allowable maximum temperature of a device that generates heat (such as an image sensor or an ASIC). For example, the maximum allowable temperature of the image sensor and the ASIC included in the camera 10 having the product ID “1234” of the manufacturer “N” is 70 ° C.

制御部44は、サーバ40全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態において、制御部44は、通信部41が入力対象情報として受信した各種情報を分析部42に送信し、分析部42に入力対象情報を利用した各種の分析及び予測を行わせる。なお、制御部44と分析部42は、同一のハードウェアにより実現されてもよい。   The control unit 44 controls the entire server 40 and includes a CPU, a RAM, a ROM, and the like. In the present embodiment, the control unit 44 transmits various types of information received as input target information by the communication unit 41 to the analysis unit 42, and causes the analysis unit 42 to perform various types of analysis and prediction using the input target information. Note that the control unit 44 and the analysis unit 42 may be realized by the same hardware.

(サーバ40の処理)
次に、サーバ40の処理について、図6のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。
(Processing of server 40)
Next, the process of the server 40 will be described in detail along the flowchart of FIG.

図6は、サーバ40が備える分析部42と制御部44が実行する分析・予測のフローチャートである。なお、図6の処理が実行される前提として、カメラ10を使用するユーザは、カメラ10の操作情報などをサーバ40に送付することを、操作部13を用いて承諾しているものとする。なお、多くのユーザに情報の送信を承諾してもらうため、サーバ40を保有する運営会社やカメラメーカなどは、操作情報などの提供の見返りとして、承諾したユーザに対してポイントや割引券等を付与することとしてもよい。   FIG. 6 is a flowchart of analysis / prediction executed by the analysis unit 42 and the control unit 44 included in the server 40. Assuming that the process of FIG. 6 is executed, it is assumed that the user using the camera 10 has approved using the operation unit 13 to send operation information of the camera 10 to the server 40. In order to allow many users to consent to the transmission of information, the operating company or camera manufacturer that owns the server 40 provides points, discount coupons, etc. to the authorized user in return for providing operation information. It is good also as giving.

図6の処理においては、まずステップS1において、制御部44が、サーバ40の外部からの指示(入力)に基づいて、分析部42に分析条件を設定する。分析条件としては、地域、年代、性別、製品グレード(入門機、中級機、高級機)、分析期間、分析対象などが挙げられる。ステップS1の分析条件を満たす操作情報、設定情報、使用場所・環境情報などが記憶部43から抽出される。   In the process of FIG. 6, first, in step S <b> 1, the control unit 44 sets analysis conditions in the analysis unit 42 based on an instruction (input) from the outside of the server 40. Analysis conditions include region, age, gender, product grade (introductory, intermediate, and high-end models), analysis period, and analysis target. Operation information, setting information, use location / environment information, etc. that satisfy the analysis conditions of step S 1 are extracted from the storage unit 43.

次いで、ステップS2では、制御部44は、分析部42を用いて撮像の環境分析を行う。具体的には、分析部42は、発熱情報と関連付けられた使用場所・環境情報に基づき、発熱情報に含まれる撮像素子やASICの発熱状態、使用場所・環境情報に含まれる撮像時間などを分析する。   Next, in step S <b> 2, the control unit 44 performs an imaging environment analysis using the analysis unit 42. Specifically, the analysis unit 42 analyzes the heat generation state of the image sensor or ASIC included in the heat generation information, the imaging time included in the use position / environment information, based on the use location / environment information associated with the heat generation information. To do.

例えば、分析部42は、図7に示すように、ステップS1で分析対象として設定されたある製品(カメラ)の製品仕様情報に含まれる許容最高温度と当該製品(カメラ)の発熱情報に含まれる機器温度を比較し、撮像時間が30分を超えて撮像素子やASICが許容最高温度(例えば70℃)近くまで上がる状態がどの程度あるかを分析する。この場合、分析部42は、分析の結果、当該製品と同一の製品グレードを利用するユーザが動画を長く撮像する傾向があるようであれば、排熱処理が今後の開発課題として挙げられると分析する。一方、分析部42は、ある製品(カメラ)による動画撮影が数分程度であることが多い場合には、排熱処理は現状のままで十分であると分析する。なお、分析部42の分析結果は、制御部44により記憶部43に記憶される。   For example, as shown in FIG. 7, the analysis unit 42 is included in the maximum allowable temperature included in the product specification information of a certain product (camera) set as the analysis target in step S1 and the heat generation information of the product (camera). The device temperatures are compared, and the degree to which the imaging device and the ASIC rise to near the maximum allowable temperature (for example, 70 ° C.) over 30 minutes is analyzed. In this case, the analysis unit 42 analyzes that, as a result of the analysis, if a user who uses the same product grade as the product tends to capture a moving image for a long time, the exhaust heat treatment is listed as a future development subject. . On the other hand, the analysis unit 42 analyzes that the exhaust heat treatment is sufficient as it is when the moving image shooting by a certain product (camera) is often about several minutes. The analysis result of the analysis unit 42 is stored in the storage unit 43 by the control unit 44.

また、分析部42は、例えば、使用場所・環境情報に含まれる撮像日とカレンダー機能に基づいて、撮像が日中に行われたか夜間に行われたかを特定する。なお、分析部42は、日の出及び日の入りの情報を気象庁等のウェブサイトから取得して、撮像時刻が日中か夜間かを特定すればよい。なお、分析部42は、使用場所・環境情報にホワイトバランスに関する情報が含まれているような場合には、その情報を利用して撮像場所が屋内であるか屋外であるかを特定してもよい。また、分析部42は、日中と夜間との撮影の比率や、屋内と屋外との撮影の比率を算出して過去のデータとの比較によりその変化を認識する。例えば、分析部42は、夜間に屋内で撮影する比率が高まっていると判断した場合で、かつSNS情報等からLEDが普及してきていることが判明した場合には、LEDに合わせたホワイトバランスの開発や屋内での撮影に適したモード開発を行ったほうがよい、との分析を行う。制御部44は、当該分析結果を記憶部43に記憶する。   Moreover, the analysis part 42 specifies whether the imaging was performed in the daytime or at night based on the imaging date and the calendar function included in the usage location / environment information, for example. The analysis unit 42 may acquire sunrise and sunset information from a website such as the Japan Meteorological Agency and specify whether the imaging time is daytime or nighttime. Note that when the usage location / environment information includes information on white balance, the analysis unit 42 may specify whether the imaging location is indoor or outdoor using the information. Good. Further, the analysis unit 42 calculates the ratio of shooting between daytime and nighttime, or the ratio of shooting indoors and outdoors, and recognizes the change by comparison with past data. For example, if the analysis unit 42 determines that the ratio of shooting indoors at night is increasing, and if it is found from the SNS information or the like that the LED has become widespread, the white balance of the LED is adjusted. Analyzes that it is better to develop a mode suitable for development and indoor shooting. The control unit 44 stores the analysis result in the storage unit 43.

また、分析部42は、ステップS1で分析対象として設定されたある仕様のカメラ10が使用される環境を、使用場所・環境情報に含まれる外気温に基づいて分析した結果、−5度から40度程度であることが判明した場合には、入門機の環境に対する耐性や、廉価な交換レンズ(光学系)の耐性温度をその情報に整合させたほうがよいと分析する。制御部44は、この分析結果に基づいてメーカ等に提言することで、例えば入門機が過度に高仕様となることを避けることができる。これにより、メーカ等は、入門機や、廉価な交換レンズ(光学系)の製造コストを抑えることができる。   Moreover, the analysis part 42 analyzed the environment where the camera 10 of a certain specification set as the analysis object in step S1 is used based on the outside air temperature included in the use location / environment information. If it is found that the temperature is about the same, it is analyzed that the resistance to the environment of the introductory machine and the resistance temperature of the inexpensive interchangeable lens (optical system) should be matched with the information. For example, the controller 44 can avoid an excessively high specification of the introductory machine by making a recommendation to the manufacturer based on the analysis result. As a result, manufacturers and the like can reduce the manufacturing cost of introductory machines and inexpensive interchangeable lenses (optical systems).

次いで、ステップS3では、制御部44は、分析部42を用いて、操作情報に基づく耐久分析を行う。耐久分析においては、分析部42は、ステップS1で分析対象として設定されたカメラのメカニカルシャッタの使用回数、レリーズスイッチ、電源スイッチ、モード設定スイッチなどの各種スイッチの使用回数、ヒンジの使用回数、ポップアップ式の内蔵ストロボのポップアップ回数等を取得する。例えば、分析部42は、図8に示すように、操作情報に基づいて、製品ごとに、1年ごとの各種スイッチの平均使用回数を求める。なお、図8の右側の表は、一眼カメラの中級機のレリーズスイッチの平均使用回数を示しているものとする。図8からは、3年目までの年平均のレリーズスイッチの使用回数が5000回、4年目が4000回、5年目が3000回であり、発売から8〜10年たつとレリーズスイッチの使用回数が激減するということが分かる。この場合、分析部42は、図8の表に基づいて、今後発売しようとしている中級機の使用期限を8年から10年と決定すればよい。また、分析部42は、使用期限として定めた期間内におけるレリーズスイッチ、電源スイッチ、モード設定スイッチなどの各種スイッチの使用回数の履歴に基づいて、今後発売しようとしている機種の各スイッチの耐久回数を決定すればよい。例えば、中級機においてレリーズスイッチの1年目〜10年目の平均使用回数の総和が27000〜28000回程度であった場合には、分析部42は、今後発売しようとしている中級機のレリーズスイッチの耐久回数を30000回と決定すればよい。これにより今後発売しようとしている機種の仕様を過度に高く設定することが避けられる。また、分析部42は、各カメラ10から受信した入力対象情報やSNS情報から、カテゴリーの異なるスマートフォンや携帯電話機の内蔵カメラによる撮影機会が増えるのにつれ、コンパクトカメラの撮影回数が減少しているとの分析結果が得られれば、コンパクトカメラの使用年数や耐久回数を見直すようにしてもよい。更に、分析部42は、ステップS3において中古店の情報から使用年数や耐久回数を予測するようにしてもよい。   Next, in step S <b> 3, the control unit 44 uses the analysis unit 42 to perform durability analysis based on the operation information. In the endurance analysis, the analysis unit 42 uses the number of uses of the mechanical shutter of the camera set as the analysis target in step S1, the number of uses of various switches such as a release switch, a power switch, and a mode setting switch, the number of uses of the hinge, and a pop-up. Get the number of pop-ups of the built-in flash of the expression. For example, as shown in FIG. 8, the analysis unit 42 obtains the average number of uses of various switches per year for each product based on the operation information. Note that the table on the right side of FIG. 8 indicates the average number of times the release switch of the middle-class camera of the single lens camera is used. From Fig. 8, the annual average release switch used up to the third year is 5000 times, the fourth year is 4000 times, the fifth year is 3000 times, and the release switch is used 8 to 10 years after release. It turns out that the number of times decreases drastically. In this case, based on the table in FIG. 8, the analysis unit 42 may determine the expiration date of the intermediate machine that is to be released in the future from 8 to 10 years. In addition, the analysis unit 42 determines the endurance number of each switch of the model to be released in the future based on the history of the number of times each switch such as the release switch, the power switch, and the mode setting switch is used within the period set as the expiration date. Just decide. For example, when the sum of the average number of times the release switch is used in the first to tenth years is about 27000 to 28000 times in the intermediate-class machine, the analysis unit 42 will set the release switch of the intermediate-level machine that is going to be released in the future. What is necessary is just to determine the durable frequency as 30000 times. This avoids setting the specifications of models that are going to be released in the future too high. Further, the analysis unit 42 indicates that the number of times the compact camera is shot decreases as the number of shooting opportunities with the built-in camera of a smartphone or mobile phone of a different category increases from the input target information and SNS information received from each camera 10. If the analysis result is obtained, the years of use and the number of durability of the compact camera may be reviewed. Further, the analysis unit 42 may predict the number of years of use and the number of endurances from used store information in step S3.

次いで、ステップS4においては、制御部44は、分析部42を用いて機能・設定分析を行う。この場合、分析部42はステップS1で分析対象として設定されたカメラの製品情報に基づいて、対応する製品仕様情報を特定し、特定した製品仕様情報と設定情報とを比較する。例えば、図9に示すように、製品仕様情報としてメーカ“N”の製品ID“1234”の製品仕様が特定された場合、特定された製品仕様情報と、予め設定された分析期間内における当該機種の設定情報(図3(b)参照)とを比較する。この場合、分析部42は、設定情報に含まれる設定内容の中から製品仕様情報に含まれる搭載機能に対応するもののうち、使用頻度が所定条件(例えば1回以上など)を満たす機能を抽出する。これにより、例えばオートモード、動画モード及び花火モードが抽出されるので、分析部42は、これらのうち使用頻度が増加傾向の機能(例えばオートモード)と、使用回数が減少傾向の機能(例えば動画モード)を特定し、増加傾向の機能の開発を継続させるのが好ましいとの分析を行う。また、分析部42は、一度採用した機能であっても使用頻度が所定頻度(例えば5回)より少ない機能(例えば花火モード)については削除機能候補として抽出してもよい。このように、実際にユーザの使用状態に基づいて開発項目や削除項目を抽出することにより、メーカはユーザの使用実績に基づく客観的な分析結果を考慮して、適切な商品開発の方向性を打ち出すことが可能となる。   Next, in step S <b> 4, the control unit 44 performs function / setting analysis using the analysis unit 42. In this case, the analysis unit 42 specifies corresponding product specification information based on the product information of the camera set as the analysis target in step S1, and compares the specified product specification information with the setting information. For example, as shown in FIG. 9, when the product specification of the product ID “1234” of the manufacturer “N” is specified as the product specification information, the specified product specification information and the model within the preset analysis period To the setting information (see FIG. 3B). In this case, the analysis unit 42 extracts a function satisfying a predetermined condition (for example, one or more times) from among the setting contents included in the setting information corresponding to the mounted function included in the product specification information. . Accordingly, for example, the auto mode, the moving image mode, and the fireworks mode are extracted, and therefore the analysis unit 42 has a function that tends to increase in use frequency (for example, auto mode) and a function that tends to decrease the number of times of use (for example, moving image). Mode) and analyze that it is preferable to continue developing functions with increasing trends. Further, the analysis unit 42 may extract a function (for example, fireworks mode) whose use frequency is less than a predetermined frequency (for example, 5 times) even if the function has been adopted once as a deletion function candidate. In this way, by actually extracting the development items and deletion items based on the usage status of the user, the manufacturer considers the objective analysis results based on the usage results of the user and determines the appropriate product development direction. It becomes possible to launch.

また、分析部42は、ステップS4において、図10の左表に示すように、可動式モニタ姿勢情報から自分撮りが増加していることが判明したり、図10の右表に示すように、SNS情報から自分撮りの増大が予測されることが判明した場合に、開発項目として自分撮りや、そのアクセサリーの開発を強化させることが好ましいとの分析を行う。また、分析結果により、近接通信機能によりカメラと携帯端末との連携が増えているのであれば、分析部42は、近接通信機能を開発項目として強化させることが好ましいとの分析を行う。あるいは、これとは逆に、分析結果により、あるメーカのみが採用している機能が実際にはユーザに使用されていないことが抽出された場合に、分析部42は、あるメーカのみが採用している機能に関連した開発が必要ないと分析する。   Further, in step S4, the analysis unit 42 determines that the self-shooting is increasing from the movable monitor posture information as shown in the left table of FIG. 10, or as shown in the right table of FIG. When it is found from SNS information that an increase in self-portraits is predicted, it is analyzed that it is preferable to strengthen self-portrait and development of accessories as development items. If the cooperation between the camera and the portable terminal is increased by the proximity communication function based on the analysis result, the analysis unit 42 analyzes that it is preferable to strengthen the proximity communication function as a development item. Or, conversely, when it is extracted from the analysis result that a function used only by a certain manufacturer is not actually used by the user, the analyzing unit 42 is used only by a certain manufacturer. Analyze that development related to the function is not necessary.

次いで、ステップS5では、制御部44は、分析部42を用いて、ユーザ属性情報や使用場所・環境情報に基づくセグメント分析を行う。セグメント分析とは、例えば、20代のアクティブな女性(アウトドア派な女性など)をターゲットとして仕様を設定した製品が予想通りに20代の女性に売れたかどうかを分析するものである。   Next, in step S <b> 5, the control unit 44 uses the analysis unit 42 to perform segment analysis based on user attribute information and use location / environment information. The segment analysis is, for example, an analysis of whether or not a product whose specification is set targeting an active woman in the 20s (such as an outdoor woman) sold to a woman in the 20s as expected.

分析部42は、セグメントが合っていないと判断した場合(例えば20代の女性の使用率は全体の25%程度の場合)には、どのセグメントのユーザが使用しているかも分析する。なお、分析部42は、アクティブかどうかを使用場所・環境情報(図2(b))に含まれるGPS14の出力である撮像位置に基づいて判断すればよい。例えば、分析部42は撮像位置(N35,E138)から撮像場所が富士山であると特定すれば、ユーザは登山を好むことからアクティブであると判断する。分析部42は、セグメントが合っていないと判断した場合には、カメラ10のカラーバリエーションなども併せて見直すことが好ましいとの分析を行う。これにより、メーカは、分析結果に基づいて、今後の販売台数の増減や次機種のカラーバリエーション等を決定することができる。なお、分析部42は、セグメントがあっていない場合に、20代の女性が使用している他の製品の情報を抽出することにより、20代の女性をターゲットとした製品の仕様(どのような仕様が好まれるのか)を分析するようにしてもよい。   When the analysis unit 42 determines that the segments do not match (for example, the usage rate of women in their 20s is about 25% of the total), the analysis unit 42 also analyzes which segment the user is using. The analysis unit 42 may determine whether or not it is active based on the imaging position that is the output of the GPS 14 included in the use location / environment information (FIG. 2B). For example, if the analysis unit 42 specifies that the imaging location is Mt. Fuji from the imaging position (N35, E138), it is determined that the user is active because he likes climbing. If the analysis unit 42 determines that the segments do not match, it analyzes that it is preferable to review the color variations of the camera 10 together. Thus, the manufacturer can determine the future increase / decrease in the number of units sold and the color variation of the next model based on the analysis result. The analysis unit 42 extracts the information on other products used by women in their 20s when there is no segment, so that the specifications of products targeted at women in their 20s (what kind of You may make it analyze whether a specification is preferred.

次いで、ステップS6では、分析部42は、交換または修理が必要な部品の予測を行う。この部品の予測においては、ステップS3で得られた耐久分析結果を利用することができる。例えば、図11に示すように、分析部42は、操作情報(図11の左表)に基づいて、所定年数分(例えば3年分)のレリーズスイッチの使用回数を抽出する(図11の右表)。また、図11の右表に示すように、レリーズスイッチの耐久回数は、ステップS3で行った耐久分析により決定された30000回であるとする。この場合、分析部42は、レリーズスイッチが想定している回数よりも多く使用されていると分析し、想定している時期より早い時期にレリーズスイッチに不具合が発生すると予測する。この場合、分析部42は、交換又は修理が必要な部品として当該機種のレリーズスイッチを特定し、メーカ等に報知する。メーカ等では、このような報知に基づいて、交換又は修理が必要な部品として特定されたレリーズスイッチを予定数より多く製造したり、ストックしておいたりする必要があると判断すればよい。逆に、分析部42が、レリーズスイッチに不具合が発生する数が予定よりも少ないと分析した場合には、メーカ等は、ストックするレリーズスイッチの数を減らすようにすればよい。これにより、交換又は修理が必要な部品の在庫を適正に保つことができる。また、部品が必要になりそうなユーザに対しては、通信部41、通信部18を介して、あるいはその他の手段(メール、郵便等)を用いて、ユーザに案内をするようにしてもよい。   Next, in step S6, the analysis unit 42 predicts parts that need replacement or repair. In the prediction of this part, the durability analysis result obtained in step S3 can be used. For example, as shown in FIG. 11, the analysis unit 42 extracts the number of times the release switch is used for a predetermined number of years (for example, three years) based on the operation information (the left table of FIG. 11) (right side of FIG. 11). table). Further, as shown in the right table of FIG. 11, it is assumed that the durability of the release switch is 30000 times determined by the durability analysis performed in step S3. In this case, the analysis unit 42 analyzes that the release switch is used more than the number of times assumed, and predicts that a malfunction will occur in the release switch earlier than the expected time. In this case, the analysis unit 42 identifies the release switch of the model as a part that needs replacement or repair, and notifies the manufacturer or the like. Based on such notification, the manufacturer or the like may determine that it is necessary to manufacture or stock more release switches specified as parts that need replacement or repair than the planned number. Conversely, if the analysis unit 42 analyzes that the number of malfunctions occurring in the release switch is less than planned, the manufacturer or the like may reduce the number of release switches to be stocked. As a result, it is possible to properly keep an inventory of parts that require replacement or repair. Further, a user who may need a part may be guided to the user via the communication unit 41, the communication unit 18, or using other means (e-mail, mail, etc.). .

次いで、ステップS7では、制御部44は、分析部42を用いて需要予測を行う。具体的には、分析部42は、販売済の製品についてはユーザの使用頻度や、SNS情報に基づいて次ロットの製造の有無や生産台数を予測すればよい。また、分析部42は、今後発売する新製品については、一つ前のモデルの販売状況、使用状況、新製品をアナウンスしたときのSNSサーバ30からのSNS情報(コメントの内容、コメント数、ポジティブコメントとネガティブコメントの比率)から生産台数を予測もしくは調整するようにすればよい。例えば、分析部42は、ポジティブコメントがネガティブコメントより多ければ、新製品の購入者は増加すると予測されるため生産台数を増加するのが好ましいと分析する。また、分析部42は、SNS情報等に基づいて、地域による好み(カラーバリエーションなど)を分析する。例えば、図10に示すように、九州地域における流行色が紫である旨のSNS情報があれば、分析部42は、新製品のカラーデザインに紫を追加したほうがよいとの分析を行うことができる。なお、分析部42は、他の地域のSNS情報(例えば、中国、四国地方の流行色)等も考慮して、九州限定カラーとして紫を追加したほうがよいとの分析を行うこととしてもよい。   Next, in step S <b> 7, the control unit 44 performs demand prediction using the analysis unit 42. Specifically, the analysis unit 42 may predict the presence / absence of the production of the next lot and the number of produced products based on the usage frequency of the user and the SNS information for the sold products. Further, the analysis unit 42, for new products to be released in the future, sells and uses the previous model, SNS information from the SNS server 30 when the new product is announced (contents of comments, number of comments, positive The production volume may be predicted or adjusted based on the ratio of comments to negative comments. For example, if there are more positive comments than negative comments, the analysis unit 42 analyzes that it is preferable to increase the number of production because it is predicted that the number of purchasers of new products will increase. The analysis unit 42 also analyzes regional preferences (color variations and the like) based on SNS information and the like. For example, as shown in FIG. 10, if there is SNS information indicating that the trendy color in the Kyushu region is purple, the analysis unit 42 may analyze that it is better to add purple to the color design of the new product. it can. Note that the analysis unit 42 may analyze that it is better to add purple as a Kyushu limited color in consideration of SNS information of other regions (for example, trendy colors in China and Shikoku).

次いで、ステップS8では、制御部44は、ユーザからの指示に基づいて、分析結果を提示し、分析部42による分析を継続するかどうか判断する。制御部44は、分析部42による分析の条件を変更して継続する場合にステップS1に戻り、継続しない場合には本フローチャートを終了する。
なお、本実施形態の図6の処理順は一例である。すなわち、制御部44(分析部42)は、ステップS2〜S7の処理順を適宜入れ替えて実行してもよい。
Next, in step S8, the control unit 44 presents an analysis result based on an instruction from the user, and determines whether or not to continue the analysis by the analysis unit 42. The control unit 44 returns to step S1 when changing the analysis conditions by the analysis unit 42 and continuing, and ends this flowchart when not continuing.
In addition, the processing order of FIG. 6 of this embodiment is an example. That is, the control unit 44 (analysis unit 42) may execute the processing in steps S2 to S7 by appropriately changing the processing order.

以上、詳細に説明したように、本実施形態によると、制御部44は、カメラ10の使われ方に関する情報を入力し、分析部42は、その情報と、カメラ10の仕様に関する情報とを比較する(S2〜S6)。これにより、カメラ10の使われ方に関する情報(カメラ10の使用環境や使用回数、設定など)と機器の仕様に関する情報との比較結果が得られるので、比較結果をメーカ等に提供することで、メーカは製品そのものや製品の販売、修理等に関して各種検討を行うことが可能となる。   As described above in detail, according to the present embodiment, the control unit 44 inputs information regarding how the camera 10 is used, and the analysis unit 42 compares the information with information regarding the specifications of the camera 10. (S2 to S6). As a result, a comparison result between information on how the camera 10 is used (use environment, use frequency, setting, etc. of the camera 10) and information on the specifications of the device can be obtained. By providing the comparison result to the manufacturer, The manufacturer can perform various examinations regarding the product itself, product sales, repairs, and the like.

また、本実施形態では、制御部44は、ネットワーク20を介してカメラ10から入力対象情報(図2、図3)を取得するので、アンケート等を行うことなく、ユーザの使用実績を収集することが可能である。   Moreover, in this embodiment, since the control part 44 acquires input object information (FIG. 2, FIG. 3) from the camera 10 via the network 20, it collects a user's use results, without performing a questionnaire etc. Is possible.

また、本実施形態では、制御部44は、カメラが使われた場所及び環境の少なくとも一方の情報(図2(b))を取得し、分析に用いる(S2)ことから、カメラが実際に使用される場所や環境の情報に基づいて、今後開発するカメラの仕様を決めることが可能となる。   In the present embodiment, the control unit 44 acquires information (FIG. 2B) on at least one of the location and environment where the camera is used and uses it for analysis (S2), so that the camera is actually used. It is possible to determine the specifications of the camera to be developed in the future based on the information on the location and environment.

また、本実施形態では、制御部44は、カメラが使われたときのカメラの発熱に関する情報(例えば、撮像素子やASICの温度)を取得し、分析部42は、発熱に関する情報と、カメラの発熱に関する仕様とを比較する。これにより、メーカ等は、ユーザが実際にカメラ10を使用した際の発熱情報に基づいて、次機種の発熱対策等を検討することができる。   Further, in the present embodiment, the control unit 44 acquires information on the heat generation of the camera when the camera is used (for example, the temperature of the image sensor or the ASIC), and the analysis unit 42 acquires the information on the heat generation and the information on the camera. Compare specifications with heat generation. As a result, the manufacturer or the like can consider measures for heat generation of the next model based on the heat generation information when the user actually uses the camera 10.

また、本実施形態では、分析部42は、入力対象情報に基づいて、カメラ10の機能のうち使用頻度が所定条件を満たす機能を抽出する(S4、図9)。これにより、メーカ等はカメラ10の機能のうち使用頻度が高い、低い機能、使用頻度が増加している機能、減少している機能等を知ることができるので、今後開発するカメラに搭載する機能を検討する際の参考にすることができる。   Moreover, in this embodiment, the analysis part 42 extracts the function with which usage frequency satisfy | fills predetermined conditions among the functions of the camera 10 based on input object information (S4, FIG. 9). As a result, the manufacturer can know the functions that are frequently used, the functions that are used frequently, the functions that are frequently used, the functions that are increasing in frequency, the functions that are decreasing, and so on. Can be used as a reference when considering

また、本実施形態では、分析部42は、入力対象情報に基づいて、カメラの耐久性に関する値(耐久回数等)を決定する(S3、図8)。これにより、分析部42は、実際にユーザが使用した実績に基づいて、カメラの各部の耐久回数等を適切に決定することができる。   Moreover, in this embodiment, the analysis part 42 determines the value (endurance number etc.) regarding the durability of a camera based on input object information (S3, FIG. 8). Thereby, the analysis part 42 can determine appropriately the durable frequency etc. of each part of a camera based on the track record which the user actually used.

また、本実施形態では、分析部42は、入力対象情報に基づいて、カメラの不具合発生を予測する(S6、図11)ので、ユーザの使用実績に基づいて、適切にカメラに不具合(故障等)が発生する時期等を予測することができる。   Further, in the present embodiment, the analysis unit 42 predicts the occurrence of a camera malfunction based on the input target information (S6, FIG. 11). ) Can be predicted.

また、本実施形態では、分析部42は、不具合発生の予測結果に基づいて、交換又は修理が必要な部品を特定するので、メーカ等は、部品の在庫管理を適切に行うことが可能となる。   Further, in the present embodiment, the analysis unit 42 identifies a part that needs replacement or repair based on the prediction result of the occurrence of the failure, so that the manufacturer or the like can appropriately manage the inventory of the part. .

また、本実施形態では、制御部44は、流行に関する情報をSNSサーバ30から取得し、当該情報に基づいて、カメラ10のデザインに関する情報を特定するので、インターネット上に散在している流行に関する情報に基づいて、流行に合った適切なデザインをメーカ等に提供することができる。   In the present embodiment, the control unit 44 acquires information about the fashion from the SNS server 30 and identifies information about the design of the camera 10 based on the information. Therefore, the information about the fashion scattered on the Internet. Based on the above, it is possible to provide the manufacturer with an appropriate design suitable for the fashion.

なお、上記実施形態においては、カメラ10が使用される位置に基づいて、上記実施形態で分析した事項以外の分析を行うこととしてもよい。例えば、海外での使用が多いと分析された機種については、メーカは、次機種の開発において、突然のバッテリー充電切れに対応するため乾電池を使用できるように設計を行うようにしてもよい。   In the above embodiment, an analysis other than the items analyzed in the above embodiment may be performed based on the position where the camera 10 is used. For example, for a model that has been analyzed as being frequently used overseas, the manufacturer may design the next model so that dry cells can be used in order to cope with sudden battery charging.

また、メーカは、飛行機内において自動的に機内モードに設定されるように設計してもよい。また、例えば、ユーザが、カメラの設定において共通する設定を行っている場合(例えば、表示部12の明るさが、デフォルトの明るさよりもやや暗めに設定されている場合)には、共通する設定(暗めの設定)が次機種においてデフォルトの設定となるように予め調整してもよい。   The manufacturer may also be designed to automatically set the airplane mode in the airplane. In addition, for example, when the user performs a common setting in the camera settings (for example, when the brightness of the display unit 12 is set slightly darker than the default brightness), the common setting is performed. It may be adjusted in advance so that (dark setting) becomes the default setting in the next model.

また、例えば、分析部42は、ファインダーの使用有無を検出するセンサの検出結果から、ユーザがほとんどファインダーを使用していないことが判明した場合には、次機種においてファインダーを設けないほうがよいとの分析結果を出力してもよい。   In addition, for example, when it is determined from the detection result of the sensor that detects whether or not the finder is used, the analysis unit 42 should not provide the finder in the next model when it is determined that the user hardly uses the finder. The analysis result may be output.

また、分析部42が、ある機種において、カメラ10や撮像部11が他の部分(自転車やヘルメットなど)に設けられる頻度が高いとの分析結果が得た場合には、メーカ等は、次機種において、軽量化を図ったり、耐衝撃性を高めるなどの対策を講じることとしてもよい。   If the analysis unit 42 obtains an analysis result that the camera 10 or the imaging unit 11 is frequently provided in another part (bicycle, helmet, etc.) in a certain model, the manufacturer or the like However, it is also possible to take measures such as reducing the weight or increasing the impact resistance.

なお、上記実施形態では、サーバ40が、SNSサーバ30から情報を取得する場合について説明したが、これに限られるものではない。すなわち、サーバ40は、SNSサーバ30から情報を取得しなくてもよい。   In the above-described embodiment, the case where the server 40 acquires information from the SNS server 30 has been described. However, the present invention is not limited to this. That is, the server 40 does not have to acquire information from the SNS server 30.

また、サーバ40は、SNSサーバ30に代えて、雑誌(例えば電子書籍)から流行に関する情報を取得してもよいし、電子掲示板や買い物サイトに書き込まれた情報を取得してもよい。   In addition, the server 40 may acquire information related to a trend from a magazine (for example, an electronic book) instead of the SNS server 30, or may acquire information written on an electronic bulletin board or a shopping site.

なお、上記実施形態では、サーバ40の分析部42による分析対象がカメラである場合について説明したが、これに限られるものではない。分析部42による分析対象としては、その他の機器(家電全般のほか、自動車などの乗り物、工作機械、スポーツ用品など様々な機器)を採用することができる。   In the above embodiment, the case where the analysis target by the analysis unit 42 of the server 40 is a camera has been described. However, the present invention is not limited to this. As an analysis target by the analysis unit 42, other devices (a variety of devices such as automobiles, vehicles, machine tools, sports equipment, etc., in addition to general home appliances) can be used.

また、上記実施形態では、図2、図3のような入力対象情報を用いて分析を行う場合について説明したが、図2、図3の情報は一例であって、その他の様々なデータを含んでいてもよい。   In the above embodiment, the case where the analysis is performed using the input target information as shown in FIGS. 2 and 3 is described. However, the information in FIGS. 2 and 3 is an example and includes various other data. You may go out.

なお、上記実施形態では、サーバ40は、ネットワーク20を介して入力対象情報を取得する場合について説明したが、これに限らず、近接通信等のその他の通信、SDカード等の媒体を用いた情報のやり取りなどにより、入力対象情報を取得してもよい。媒体を用いた情報のやり取りを行う場合、ユーザの操作情報などの入力対象情報が媒体に格納されることになる。   In the above embodiment, the case has been described in which the server 40 acquires the input target information via the network 20. However, the present invention is not limited to this, and information using other communication such as proximity communication or a medium such as an SD card is used. The input target information may be acquired by exchanging information. When exchanging information using a medium, input target information such as user operation information is stored in the medium.

なお、上記実施形態における処理機能は、コンピュータによって実現することができる。その場合、処理装置(CPU)が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。   Note that the processing functions in the above embodiments can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing device (CPU) should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (except for a carrier wave).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program.

なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

10 カメラ
20 ネットワーク
30 SNSサーバ
40 サーバ
41 通信部
42 分析部
43 記憶部
44 制御部
DESCRIPTION OF SYMBOLS 10 Camera 20 Network 30 SNS server 40 Server 41 Communication part 42 Analysis part 43 Memory | storage part 44 Control part

Claims (10)

機器の使われ方に関する情報を入力する入力部と、
前記機器の使われ方に関する情報と、前記機器の仕様に関する情報とを比較する比較部と、を備える電子機器。
An input section for inputting information on how the device is used;
An electronic device comprising: a comparison unit that compares information relating to how the device is used and information relating to specifications of the device.
前記入力部は、ネットワークを介して前記機器から前記機器の使われ方に関する情報を入力する請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the input unit inputs information on how the device is used from the device via a network. 前記入力部は、前記機器が使われた場所及び環境の少なくとも一方の情報を入力する請求項2に記載の電子機器。   The electronic device according to claim 2, wherein the input unit inputs information on at least one of a place where the device is used and an environment. 前記入力部は、前記機器が使われたときの該機器の発熱に関する情報を入力し、
前記比較部は、前記発熱に関する情報と、前記機器の発熱に関する仕様とを比較する請求項1〜3のいずれか一項記載の電子機器。
The input unit inputs information related to heat generation of the device when the device is used,
The electronic device according to claim 1, wherein the comparison unit compares the information related to the heat generation with a specification related to the heat generation of the device.
前記機器の使われ方に関する情報に基づいて、前記機器の機能のうち使用頻度が所定条件を満たす機能を抽出する第1抽出部を備える請求項1から4のいずれか一項記載の電子機器。   5. The electronic device according to claim 1, further comprising: a first extraction unit configured to extract a function whose usage frequency satisfies a predetermined condition from functions of the device based on information on how the device is used. 前記機器の使われ方に関する情報に基づいて、前記機器の機能のうち使用頻度が所定頻度より少ない機能、使用頻度が増加している機能及び使用頻度が減少している機能の少なくとも一つを抽出する第2抽出部を備える請求項1から4のいずれか一項に記載の電子機器。   Based on information on how the device is used, extract at least one of the functions of the device that has a frequency of use less than a predetermined frequency, a function whose frequency of use is increasing, and a function whose frequency of use is decreasing The electronic device as described in any one of Claim 1 to 4 provided with the 2nd extraction part to do. 前記機器の使われ方に関する情報に基づいて、前記機器の耐久性に関する値を決定する決定部を備える請求項1から6のいずれか一項記載の電子機器。   The electronic device according to claim 1, further comprising a determination unit that determines a value related to durability of the device based on information on how the device is used. 前記機器の使われ方に関する情報に基づいて、前記機器の不具合発生を予測する予測部を備える請求項1から7のいずれか一項記載の電子機器。   The electronic device according to any one of claims 1 to 7, further comprising a prediction unit that predicts occurrence of a malfunction of the device based on information on how the device is used. 前記予測部の予測結果に基づいて、交換または修理が必要な部品を特定する特定部を備える請求項8に記載の電子機器。   The electronic device according to claim 8, further comprising a specifying unit that specifies a part that needs to be replaced or repaired based on a prediction result of the prediction unit. 前記入力部は、流行に関する情報を入力し、
前記流行に関する情報に基づいて、前記機器のデザインに関する情報を出力する出力部を備える請求項1から9のいずれか一項記載の電子機器。
The input unit inputs information about a fashion,
The electronic device according to claim 1, further comprising: an output unit that outputs information related to the design of the device based on the information related to the fashion.
JP2015237792A 2015-12-04 2015-12-04 Electronic instrument Pending JP2017102849A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015237792A JP2017102849A (en) 2015-12-04 2015-12-04 Electronic instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015237792A JP2017102849A (en) 2015-12-04 2015-12-04 Electronic instrument

Publications (1)

Publication Number Publication Date
JP2017102849A true JP2017102849A (en) 2017-06-08

Family

ID=59017517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015237792A Pending JP2017102849A (en) 2015-12-04 2015-12-04 Electronic instrument

Country Status (1)

Country Link
JP (1) JP2017102849A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6408090B1 (en) * 2017-08-09 2018-10-17 ヤフー株式会社 Estimation apparatus, estimation method, and estimation program
JP2019117562A (en) * 2017-12-27 2019-07-18 トヨタ自動車株式会社 Vehicle interior environment adjustment device, program, and vehicle interior environment adjustment system
JP2019219800A (en) * 2018-06-18 2019-12-26 オリンパス株式会社 Server, information device, information providing method and program
JP2020160889A (en) * 2019-03-27 2020-10-01 オリンパス株式会社 Photographing apparatus use history information management system, method for the same, and photographing apparatus
WO2021192736A1 (en) 2020-03-26 2021-09-30 ソニーグループ株式会社 Information processing device, imaging device, and information processing method
JP2021157438A (en) * 2020-03-26 2021-10-07 トヨタ自動車株式会社 Information processing apparatus, program, and evaluation method
JP2022527442A (en) * 2019-03-20 2022-06-02 ブリヂストン アメリカズ タイヤ オペレーションズ、 エルエルシー Effective tire pressure sensing system and method
WO2022190199A1 (en) * 2021-03-09 2022-09-15 株式会社日立製作所 Demand forecasting device, demand forecasting method, and forecasting model generation device
JP2022163507A (en) * 2021-04-14 2022-10-26 大日本印刷株式会社 Imaging system and print production system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073954A (en) * 2000-08-24 2002-03-12 Nec Corp Sales promotion system and method for computer peripheral device
JP2003331112A (en) * 2002-05-16 2003-11-21 Ricoh Co Ltd System, center, and method for office equipment information service, program, and recording medium
JP2004276387A (en) * 2003-03-14 2004-10-07 Fuji Photo Film Co Ltd Ink jet recorder
WO2005069184A1 (en) * 2004-01-19 2005-07-28 Matsushita Electric Industrial Co., Ltd. Customer management system
JP2008102936A (en) * 1997-10-09 2008-05-01 Matsushita Electric Ind Co Ltd Information tabulation device, tabulation method of information tabulation device and recording medium which records program thereof
JP2013109697A (en) * 2011-11-24 2013-06-06 Intage Inc Marketing idea making support system and method thereof
JP2015005932A (en) * 2013-06-21 2015-01-08 富士通株式会社 Portable terminal device, terminal control program, and terminal control method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102936A (en) * 1997-10-09 2008-05-01 Matsushita Electric Ind Co Ltd Information tabulation device, tabulation method of information tabulation device and recording medium which records program thereof
JP2002073954A (en) * 2000-08-24 2002-03-12 Nec Corp Sales promotion system and method for computer peripheral device
JP2003331112A (en) * 2002-05-16 2003-11-21 Ricoh Co Ltd System, center, and method for office equipment information service, program, and recording medium
JP2004276387A (en) * 2003-03-14 2004-10-07 Fuji Photo Film Co Ltd Ink jet recorder
WO2005069184A1 (en) * 2004-01-19 2005-07-28 Matsushita Electric Industrial Co., Ltd. Customer management system
JP2013109697A (en) * 2011-11-24 2013-06-06 Intage Inc Marketing idea making support system and method thereof
JP2015005932A (en) * 2013-06-21 2015-01-08 富士通株式会社 Portable terminal device, terminal control program, and terminal control method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019032770A (en) * 2017-08-09 2019-02-28 ヤフー株式会社 Estimation device, estimation method, and estimation program
JP6408090B1 (en) * 2017-08-09 2018-10-17 ヤフー株式会社 Estimation apparatus, estimation method, and estimation program
JP2019117562A (en) * 2017-12-27 2019-07-18 トヨタ自動車株式会社 Vehicle interior environment adjustment device, program, and vehicle interior environment adjustment system
JP7105113B2 (en) 2018-06-18 2022-07-22 オリンパス株式会社 SERVER, INFORMATION PROVIDING METHOD AND PROGRAM
JP2019219800A (en) * 2018-06-18 2019-12-26 オリンパス株式会社 Server, information device, information providing method and program
JP7266116B2 (en) 2019-03-20 2023-04-27 ブリヂストン アメリカズ タイヤ オペレーションズ、 エルエルシー Effective tire pressure sensing system and method
JP2022527442A (en) * 2019-03-20 2022-06-02 ブリヂストン アメリカズ タイヤ オペレーションズ、 エルエルシー Effective tire pressure sensing system and method
US11858299B2 (en) 2019-03-20 2024-01-02 Bridgestone Americas Tire Operations, Llc Effective tire pressure sensing system and method
JP2020160889A (en) * 2019-03-27 2020-10-01 オリンパス株式会社 Photographing apparatus use history information management system, method for the same, and photographing apparatus
JP2021157438A (en) * 2020-03-26 2021-10-07 トヨタ自動車株式会社 Information processing apparatus, program, and evaluation method
CN113516332A (en) * 2020-03-26 2021-10-19 丰田自动车株式会社 Information processing apparatus, non-transitory storage medium, and evaluation method
WO2021192736A1 (en) 2020-03-26 2021-09-30 ソニーグループ株式会社 Information processing device, imaging device, and information processing method
JP7327241B2 (en) 2020-03-26 2023-08-16 トヨタ自動車株式会社 Information processing device, program, and evaluation method
EP4109881A4 (en) * 2020-03-26 2023-10-11 Sony Group Corporation Information processing device, imaging device, and information processing method
CN113516332B (en) * 2020-03-26 2024-03-08 丰田自动车株式会社 Information processing apparatus, non-transitory storage medium, and evaluation method
WO2022190199A1 (en) * 2021-03-09 2022-09-15 株式会社日立製作所 Demand forecasting device, demand forecasting method, and forecasting model generation device
JP2022163507A (en) * 2021-04-14 2022-10-26 大日本印刷株式会社 Imaging system and print production system

Similar Documents

Publication Publication Date Title
JP2017102849A (en) Electronic instrument
US10609267B2 (en) Systems and methods for analyzing advertisement effectiveness using wearable camera systems
US10180857B2 (en) Mobile terminal and method of determining and displaying power efficiency of an application
CN107615309B (en) Information processing apparatus, information processing method, and information providing method
EP2793450B1 (en) System and method for determining sensor accuracy of a portable electronic device
CA2923452C (en) Multivariate testing of mobile applications
US20170010328A1 (en) Useful battery capacity / state of health gauge
JP6418503B2 (en) Information processing system for electric motorcycle, electric motorcycle, electrical unit, and key for electric motorcycle
US10019625B2 (en) Wearable camera for reporting the time based on wrist-related trigger
US20170277365A1 (en) Control system for user apparel selection
JP2017526031A (en) Method and system for providing a trading platform for used goods
TWI486893B (en) Systems and methods for sharing group status within a social network
RU2604999C2 (en) Method and system for making recommendations regarding applications for user
US20170243271A1 (en) Inferring service providers
US20210312476A1 (en) Information processing device, information processing method, and program
CN110309712A (en) A kind of type of sports recognition methods and terminal device
US11443347B2 (en) System and method for click-through rate prediction
KR20220097128A (en) Smart advertisement system accompanied by sample provision
JP2022072164A (en) Information display device and information display system
JP7150796B2 (en) Charging information management system and charging information management method
KR102529190B1 (en) Electronic device for determinig location and operating method thereof
JP7302917B2 (en) Information processing device and program
KR20160088629A (en) System and device for performing function of application based on advertisement and method thereof
KR20200105358A (en) method of recognizing a compensaton target and automaticaaly acquiring compensation target information , and computer program stored in a medium for executing the method
KR20200105359A (en) method of claiming for reimbursement of a used electronic device, and computer program stored in a medium for executing the method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200303