JP2012249164A - Electronic camera and communication system - Google Patents

Electronic camera and communication system Download PDF

Info

Publication number
JP2012249164A
JP2012249164A JP2011120545A JP2011120545A JP2012249164A JP 2012249164 A JP2012249164 A JP 2012249164A JP 2011120545 A JP2011120545 A JP 2011120545A JP 2011120545 A JP2011120545 A JP 2011120545A JP 2012249164 A JP2012249164 A JP 2012249164A
Authority
JP
Japan
Prior art keywords
unit
communication
electronic camera
communication terminal
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011120545A
Other languages
Japanese (ja)
Inventor
Sho Somiya
翔 曽宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011120545A priority Critical patent/JP2012249164A/en
Publication of JP2012249164A publication Critical patent/JP2012249164A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide means capable of sharing life log information with others by reducing a data amount of the life log information.SOLUTION: An electronic camera includes: an imaging element; a sound input section; a recording processing section; a position information acquisition section; a tracking section; a determination section; and a communication section. The imaging element images a subject to generate an image. The sound input section inputs sound. The recording processing section stores image data and sound data in a memory. The position information acquisition section acquires position information indicating user's present position from an external source. The tracking section tracks user's travel path on an electronic map on the basis of the position information. The determination section determines whether the present position corresponds to a position of interest in accordance with the tracking result by the tracking section. When the determination section determines that the present position corresponds to the position of interest, the communication section transmits to another communication terminal at least one of the image data and the sound data recorded in the memory, at the position of interest.

Description

本発明は、電子カメラ、通信システムに関する。   The present invention relates to an electronic camera and a communication system.

近年、ユーザの行動履歴を撮影して記録する撮影履歴記録システムが提案されている(例えば、特許文献1参照)。   In recent years, an imaging history recording system that captures and records a user's behavior history has been proposed (see, for example, Patent Document 1).

特開2010−68499号公報JP 2010-68499 A

しかし、上記の従来技術では、ユーザの行動履歴を示す情報(以下「ライフログ情報」という)を他者と共有する点について、考慮されていない。また、ライフログ情報を他者と共有する場合には、ユーザの行動時間に比例して、そのライフログ情報(例えば、動画)のデータ量が膨大になるおそれがある。   However, the above-described conventional technology does not take into consideration that information indicating a user's action history (hereinafter referred to as “life log information”) is shared with others. Further, when sharing life log information with others, there is a possibility that the amount of data of the life log information (for example, moving image) becomes enormous in proportion to the user's action time.

そこで、本発明は、上記事情に鑑み、ライフログ情報のデータ量を抑制して、そのライフログ情報を他者と共有できる手段を提供することを目的とする。   Therefore, in view of the above circumstances, an object of the present invention is to provide means for suppressing the data amount of life log information and sharing the life log information with others.

第1の発明に係る電子カメラは、撮像素子と、音声入力部と、記録処理部と、位置情報取得部と、追跡部と、判定部と、通信部とを備える。撮像素子は、被写体像を撮像し、画像を生成する。音声入力部は、音声を入力する。記録処理部は、画像のデータと音声のデータとをメモリに記録する。位置情報取得部は、ユーザの現在位置を示す位置情報を外部から取得する。追跡部は、位置情報取得部が取得した位置情報に基づいて、ユーザの移動経路を電子地図上で追跡する。判定部は、追跡部の追跡結果に応じて、現在位置が電子地図上で注目位置に該当するか否かを判定する。通信部は、判定部により現在位置が注目位置に該当すると判定された場合、その注目位置において、メモリに記録された画像のデータと音声のデータとの少なくとも何れか一方を他の通信端末に送信する。   An electronic camera according to a first invention includes an imaging device, a voice input unit, a recording processing unit, a position information acquisition unit, a tracking unit, a determination unit, and a communication unit. The imaging element captures a subject image and generates an image. The voice input unit inputs voice. The recording processing unit records image data and audio data in a memory. The position information acquisition unit acquires position information indicating the current position of the user from the outside. The tracking unit tracks the movement route of the user on the electronic map based on the position information acquired by the position information acquisition unit. The determination unit determines whether the current position corresponds to the position of interest on the electronic map according to the tracking result of the tracking unit. When the determination unit determines that the current position corresponds to the target position, the communication unit transmits at least one of image data and audio data recorded in the memory to the other communication terminal at the target position. To do.

第2の発明は、第1の発明において、登録受付部をさらに備える。登録受付部は、電子地図上での指定場所の登録を受け付ける。判定部は、現在位置が指定場所である場合に、その指定場所を注目位置であると判定する。   According to a second invention, in the first invention, a registration receiving unit is further provided. The registration reception unit receives registration of a designated place on the electronic map. When the current position is the designated place, the determination unit determines that the designated place is the target position.

第3の発明は、第1又は第2の発明において、追跡部は、ユーザの移動経路を移動履歴情報としてメモリに記録する。追跡部が移動履歴情報に基づいてユーザの新たな経路の移動を追跡中の場合、判定部は、追跡中の現在位置を注目位置と判定する。   In a third aspect based on the first or second aspect, the tracking unit records the movement path of the user in the memory as movement history information. When the tracking unit is tracking the movement of the user's new route based on the movement history information, the determination unit determines the current position being tracked as the position of interest.

第4の発明は、第1から第3の何れか1の発明において、音声入力部に入力された音声を解析する音声解析部をさらに備える。追跡部は、ユーザの移動経路を移動履歴情報としてメモリに記録する。追跡部が移動履歴情報に基づいてユーザの新たな経路の移動を追跡中の場合、判定部は、追跡中の現在位置を注目位置と判定する。   According to a fourth aspect of the present invention, in any one of the first to third aspects, the audio analysis unit further analyzes a voice input to the voice input unit. The tracking unit records the movement path of the user in the memory as movement history information. When the tracking unit is tracking the movement of the user's new route based on the movement history information, the determination unit determines the current position being tracked as the position of interest.

第5の発明は、第1から第4の何れか1の発明において、画像の視認性を評価する視認性評価部をさらに備える。視認性を示す評価値が閾値以下の場合、通信部は、音声のデータのみを通信端末に送信する。視認性を示す評価値が閾値よりも大きい場合、通信部は、画像のデータ及び音声のデータを通信端末に送信する。   According to a fifth invention, in any one of the first to fourth inventions, the image processing apparatus further includes a visibility evaluation unit that evaluates the visibility of the image. When the evaluation value indicating visibility is equal to or less than the threshold value, the communication unit transmits only audio data to the communication terminal. When the evaluation value indicating visibility is larger than the threshold, the communication unit transmits image data and audio data to the communication terminal.

第6の発明は、第1から第5の何れか1の発明において、通信部は、通信端末側から画像のデータと音声のデータとの少なくとも何れか一方の受信の拒否を示す拒否通知を受け付けた場合、その拒否通知を受け付けた時刻をメモリに記録し、次回以降、通信端末に対してその時刻又はその時刻から予め設定した時間の範囲内での通信を行なわない。   In a sixth aspect based on any one of the first to fifth aspects, the communication unit accepts a rejection notification indicating rejection of reception of at least one of image data and audio data from the communication terminal side. In this case, the time when the rejection notification is received is recorded in the memory, and the communication is not performed for the communication terminal next time or within the time range set in advance from that time.

第7の発明は、第1から第6の何れか1の発明において、追跡部がユーザの移動の停止を検出した場合、通信部は、通信端末側への送信を終了する。   In a seventh aspect based on any one of the first to sixth aspects, when the tracking unit detects stop of movement of the user, the communication unit ends transmission to the communication terminal side.

第8の発明は、第1から第7の何れか1の発明において、操作部をさらに備える。操作部は、通信部による送信処理の終了を示す指示入力を受け付ける。追跡部は、操作部が指示入力を受け付けた場合、ユーザの現在位置を通信終了位置としてメモリに記録する。通信部は、次回以降、追跡部が通信終了位置の到達を検出した場合、通信端末側への送信を終了する。   An eighth invention according to any one of the first to seventh inventions further comprises an operation unit. The operation unit receives an instruction input indicating the end of transmission processing by the communication unit. When the operation unit receives an instruction input, the tracking unit records the current position of the user in the memory as a communication end position. From the next time, when the tracking unit detects the arrival of the communication end position, the communication unit ends transmission to the communication terminal side.

第9の発明に係る通信システムは、請求項1から8の何れか1項記載の電子カメラと、その電子カメラと通信を行なう他の通信端末とを備える。   A communication system according to a ninth aspect includes the electronic camera according to any one of claims 1 to 8 and another communication terminal that communicates with the electronic camera.

第10の発明は、第9の発明において、電子カメラと通信端末との間の通信を仲介する基地局をさらに備える。   In a ninth aspect based on the ninth aspect, the base station further comprises a base station that mediates communication between the electronic camera and the communication terminal.

本発明によれば、ライフログ情報のデータ量を抑制して、そのライフログ情報を他者と共有できる手段を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the means which can suppress the data amount of life log information and can share the life log information with others can be provided.

本発明の一実施形態における通信システム100の全体構成図1 is an overall configuration diagram of a communication system 100 according to an embodiment of the present invention. 電子カメラ1の構成例を説明するブロック図A block diagram illustrating a configuration example of the electronic camera 1 登録受付部27dが登録した指定場所のデータベースの一例を説明する図The figure explaining an example of the database of the designated place which registration registration part 27d registered 通信端末50の構成例を説明するブロック図A block diagram for explaining a configuration example of the communication terminal 50 通信システム100の動作の一例を示すフローチャートThe flowchart which shows an example of operation | movement of the communication system 100. 電子カメラ1と通信端末50との間のシーケンスの一例を説明する図The figure explaining an example of the sequence between the electronic camera 1 and the communication terminal 50 電子地図上での追跡部27cの処理の一例を示す図The figure which shows an example of the process of the tracking part 27c on an electronic map 第3変形例を説明する図The figure explaining the 3rd modification 第4変形例を説明する図The figure explaining the 4th modification 第4変形例の他の事例を説明する図The figure explaining other examples of the 4th modification

以下、図面に基づいて本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態における通信システム100の全体構成図である。通信システム100は、本発明の電子カメラ1と、基地局40と、インターネット網41と、電子カメラ1と通信を行なう通信端末50とを備える。電子カメラ1は、携帯電話機能を有している。図1では、ストラップSを用いた首かけタイプの電子カメラ1を例示している。すなわち、電子カメラ1は、ストラップSを用いてユーザ(人物P1)の首にかけることで装着される。この場合、電子カメラ1が被写体を撮影できるようにするため、電子カメラ1の撮影光学系10のレンズがユーザの正面方向を向くようにして、電子カメラ1は、人物P1に装着される。なお、電子カメラ1は、必要に応じて、ユーザの手により構図が設定されて撮影が行なわれても良い。   FIG. 1 is an overall configuration diagram of a communication system 100 according to an embodiment of the present invention. The communication system 100 includes the electronic camera 1 of the present invention, a base station 40, an Internet network 41, and a communication terminal 50 that communicates with the electronic camera 1. The electronic camera 1 has a mobile phone function. FIG. 1 illustrates a neck-mounted electronic camera 1 using a strap S. That is, the electronic camera 1 is worn by being hung on the user's (person P1) neck using the strap S. In this case, the electronic camera 1 is attached to the person P1 so that the lens of the photographing optical system 10 of the electronic camera 1 faces the front of the user so that the electronic camera 1 can photograph the subject. Note that the electronic camera 1 may be photographed with the composition set by the user's hand as necessary.

また、通信システム100では、電子カメラ1に位置情報を提供するGPS(Global Positioning System)衛星31を利用する。さらに、通信システム100では、電子カメラ1とインターネット網41とを無線通信で接続する基地局40を利用する。以下、電子カメラ1及び通信端末50の構成について具体的に説明する。
<電子カメラ1>
図2は、電子カメラ1の構成例を説明するブロック図である。ここで、電子カメラ1は、電子カメラ1のユーザの行動履歴を記録するライフログモードの機能を有している。ライフログモードでは、例えば、ユーザ(例えば人物P1)が装着している電子カメラ1が継続的に動画や音声を記録することにより、そのユーザが日常生活で目にする光景をライフログ情報(画像のデータや音声のデータ)として取得する。さらに、本実施形態のライフログモードでは、ユーザが注目位置を移動する場合、通信端末50の利用者とライフログ情報を共有することができる(詳細は後述する)。
The communication system 100 uses a GPS (Global Positioning System) satellite 31 that provides position information to the electronic camera 1. Further, the communication system 100 uses a base station 40 that connects the electronic camera 1 and the Internet network 41 by wireless communication. Hereinafter, the configuration of the electronic camera 1 and the communication terminal 50 will be specifically described.
<Electronic camera 1>
FIG. 2 is a block diagram illustrating a configuration example of the electronic camera 1. Here, the electronic camera 1 has a life log mode function of recording the action history of the user of the electronic camera 1. In the life log mode, for example, the electronic camera 1 worn by the user (for example, the person P1) continuously records moving images and sounds, so that the scene that the user sees in daily life is displayed in the life log information (image Data and audio data). Furthermore, in the life log mode of this embodiment, when the user moves the attention position, life log information can be shared with the user of the communication terminal 50 (details will be described later).

電子カメラ1は、図2に示す通り、撮影光学系10と、撮像素子11と、信号処理部12と、RAM(Random Access Memory)13と、画像処理部14と、フラッシュメモリ15と、表示モニタ16と、記録インターフェース部(以下「記録I/F部」という)17と、通信部18と、アンテナ18aと、音声処理部19と、スピーカ20と、マイク21と、操作部22と、レリーズ釦23と、GPS受信機24と、加速度センサ25と、照度センサ26と、CPU(Central Processing Unit)27と、データバス28とを備える。   As shown in FIG. 2, the electronic camera 1 includes a photographing optical system 10, an image sensor 11, a signal processing unit 12, a RAM (Random Access Memory) 13, an image processing unit 14, a flash memory 15, and a display monitor. 16, a recording interface unit (hereinafter referred to as “recording I / F unit”) 17, a communication unit 18, an antenna 18a, an audio processing unit 19, a speaker 20, a microphone 21, an operation unit 22, and a release button. 23, a GPS receiver 24, an acceleration sensor 25, an illuminance sensor 26, a CPU (Central Processing Unit) 27, and a data bus 28.

このうち、信号処理部12、RAM13、画像処理部14、フラッシュメモリ15、表示モニタ16、記録I/F部17、通信部18、音声処理部19及びCPU27は、データバス28を介して互いに接続されている。また、信号処理部12、操作部22、レリーズ釦23、GPS受信機24、加速度センサ25及び照度センサ26は、CPU27に接続されている。   Among these, the signal processing unit 12, the RAM 13, the image processing unit 14, the flash memory 15, the display monitor 16, the recording I / F unit 17, the communication unit 18, the audio processing unit 19, and the CPU 27 are connected to each other via a data bus 28. Has been. The signal processing unit 12, the operation unit 22, the release button 23, the GPS receiver 24, the acceleration sensor 25, and the illuminance sensor 26 are connected to the CPU 27.

撮影光学系10は、ズームレンズとフォーカスレンズとを含む複数のレンズ群で構成されている。なお、簡単のため、図2では、撮影光学系10を1枚のレンズとして図示する。撮像素子11は、被写体の像を撮像して画像データを生成する。撮像素子11は、例えばCCD(Charge Coupled Device)型のカラーイメージセンサである。なお、撮像素子11は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサであっても良い。信号処理部12は、例えば、アナログフロントエンド(AFE)回路と、A/D変換部と、デジタルフロントエンド(DFE)回路とを有している。   The photographing optical system 10 includes a plurality of lens groups including a zoom lens and a focus lens. For the sake of simplicity, FIG. 2 shows the photographing optical system 10 as a single lens. The image sensor 11 captures an image of a subject and generates image data. The image sensor 11 is, for example, a CCD (Charge Coupled Device) type color image sensor. The imaging device 11 may be a CMOS (Complementary Metal-Oxide Semiconductor) type color image sensor. The signal processing unit 12 includes, for example, an analog front end (AFE) circuit, an A / D conversion unit, and a digital front end (DFE) circuit.

AFE回路は、撮像素子11が出力する画像信号に対してアナログ信号処理を施す。A/D変換部は、アナログの画像信号をデジタルの画像信号に変換する。DFE回路は、A/D変換後の画像信号にデジタル信号処理を施す。なお、信号処理部12が出力する画像信号は、画像データとしてRAM13に一時的に記録される。RAM13は、バッファメモリの機能を有し、画像データを一時的に記録する。さらに、RAM13は、CPU27の処理の過程で生成した画像データ等を一時的に記録する。   The AFE circuit performs analog signal processing on the image signal output from the image sensor 11. The A / D converter converts an analog image signal into a digital image signal. The DFE circuit performs digital signal processing on the image signal after A / D conversion. The image signal output from the signal processing unit 12 is temporarily recorded in the RAM 13 as image data. The RAM 13 has a buffer memory function and temporarily records image data. Further, the RAM 13 temporarily records image data and the like generated in the process of the CPU 27.

画像処理部14は、RAM13に記録されている画像データを読み出し、各種の画像処理(例えば、輪郭強調処理、色補間処理等)を施す。   The image processing unit 14 reads out the image data recorded in the RAM 13 and performs various image processing (for example, edge enhancement processing, color interpolation processing, etc.).

フラッシュメモリ15は、不揮発性のメモリであって、例えば、電子カメラ1の制御を行なうプログラムを予め記憶している。また、フラッシュメモリ15は、携帯電話機能を制御するためのOS(オペレーションシステム)等のプログラムを予め記憶している。さらに、フラッシュメモリ15は、電子地図のデータを予め記憶している。   The flash memory 15 is a non-volatile memory, and stores, for example, a program for controlling the electronic camera 1 in advance. The flash memory 15 stores a program such as an OS (operation system) for controlling the mobile phone function in advance. Furthermore, the flash memory 15 stores electronic map data in advance.

表示モニタ16は、例えば液晶表示媒体により構成される。また、表示モニタ16は、CPU27の指示に応じて、例えば画像や電子カメラ1の操作メニュー等を表示する。   The display monitor 16 is composed of, for example, a liquid crystal display medium. Further, the display monitor 16 displays, for example, an image or an operation menu of the electronic camera 1 in accordance with an instruction from the CPU 27.

記録I/F部17は、データの書き込みや読み出しのインターフェースを提供する。記録I/F部17には、着脱自在の記録媒体30を接続するためのコネクタ(不図示)が形成されている。そして、記録I/F部17は、例えば、そのコネクタに接続された記録媒体30にアクセスして画像のデータや音声のデータ(音声信号)の記録処理を行なう。記録媒体30は、一例として、不揮発性のメモリカードである。図2では、コネクタに接続された後の記録媒体30を示している。通信部18は、アンテナ18aを介して基地局40との無線通信を行なう。   The recording I / F unit 17 provides an interface for writing and reading data. The recording I / F unit 17 is formed with a connector (not shown) for connecting a detachable recording medium 30. For example, the recording I / F unit 17 accesses the recording medium 30 connected to the connector and performs recording processing of image data and audio data (audio signal). The recording medium 30 is a non-volatile memory card as an example. FIG. 2 shows the recording medium 30 after being connected to the connector. The communication unit 18 performs wireless communication with the base station 40 via the antenna 18a.

音声処理部19は、マイク21を介して入力されたアナログの音声信号をデジタルの音声信号に変換して音声信号を取得する。後述する記録処理部27aは、取得された音声信号を記録媒体30に記録する録音処理を行なう。また、音声処理部19は、音声信号をスピーカ21を介して音声に変換し、その音声の出力処理を行なう。   The audio processing unit 19 converts an analog audio signal input via the microphone 21 into a digital audio signal, and acquires the audio signal. The recording processing unit 27a described later performs a recording process for recording the acquired audio signal on the recording medium 30. The sound processing unit 19 converts the sound signal into sound through the speaker 21 and performs output processing of the sound.

操作部22は、タッチパネル方式を採用し、表示モニタ16上のタッチパネル表面に接触した指先等の位置を検出する。そして、操作部22は、検出した位置情報をCPU25に出力することでユーザ(撮影者)からの操作を受け付ける。レリーズ釦23は、半押し操作の指示入力と全押し操作(撮像動作開始)との指示入力とを受け付ける。   The operation unit 22 employs a touch panel method, and detects the position of a fingertip or the like that touches the touch panel surface on the display monitor 16. And the operation part 22 receives operation from a user (photographer) by outputting the detected positional information to CPU25. The release button 23 receives an instruction input of a half-press operation and an instruction input of a full-press operation (imaging operation start).

GPS受信機24は、GPS衛星31からの電波をGPSアンテナ(不図示)により受信して、位置情報(経度、緯度、方位等)をCPU27に出力する。加速度センサ25は、3次元方向(相互に直交するX軸、Y軸、Z軸の3軸方向)の加速度を計測するセンサである。この加速度センサ25は、各軸方向における検出値をCPU27に出力する。照度センサ26は、光量を検出するセンサである。この照度センサ26は、検出した光量の値をCPU27に出力する。   The GPS receiver 24 receives radio waves from the GPS satellite 31 by a GPS antenna (not shown), and outputs position information (longitude, latitude, direction, etc.) to the CPU 27. The acceleration sensor 25 is a sensor that measures acceleration in a three-dimensional direction (X-axis, Y-axis, and Z-axis directions that are orthogonal to each other). The acceleration sensor 25 outputs a detection value in each axis direction to the CPU 27. The illuminance sensor 26 is a sensor that detects the amount of light. The illuminance sensor 26 outputs the detected light amount value to the CPU 27.

CPU27は、各種演算及び電子カメラ1の制御を行なうプロセッサである。CPU27は、フラッシュメモリ15に予め格納されたシーケンスプログラムを実行することにより、電子カメラ1の各部の制御等を行なう。また、CPU27は、時刻等の計時機能を有する。   The CPU 27 is a processor that performs various calculations and control of the electronic camera 1. The CPU 27 controls each part of the electronic camera 1 by executing a sequence program stored in advance in the flash memory 15. The CPU 27 has a time counting function such as time.

また、CPU27は、携帯電話機能を制御するためのOS(オペレーションシステム)を起動することにより、携帯電話機能に応じた各種の処理を行なう。また、CPU27は、記録処理部27aと、位置情報取得部27bと、追跡部27cと、登録受付部27dと、判定部27eと、音声解析部27fと、視認性評価部27gとしても機能する。   Further, the CPU 27 activates an OS (operation system) for controlling the mobile phone function, thereby performing various processes according to the mobile phone function. The CPU 27 also functions as a recording processing unit 27a, a position information acquisition unit 27b, a tracking unit 27c, a registration receiving unit 27d, a determination unit 27e, a voice analysis unit 27f, and a visibility evaluation unit 27g.

記録処理部27aは、画像のデータと音声のデータとを必要に応じてフラッシュメモリ15又は記録媒体30に記録する処理を行なう。   The recording processing unit 27a performs processing of recording image data and audio data in the flash memory 15 or the recording medium 30 as necessary.

位置情報取得部27bは、ユーザの現在位置を示す位置情報をGPS受信機24から取得する。   The position information acquisition unit 27b acquires position information indicating the current position of the user from the GPS receiver 24.

追跡部27cは、位置情報取得部27bが取得した位置情報に基づいて、ユーザの移動経路を電子地図上で追跡する。具体的には、追跡部27cは、位置情報取得部27bが取得した位置情報(経度、緯度、方位等)を電子地図上で照合することにより、ユーザの移動経路を追跡する。また、追跡部27cは、ユーザの移動経路を移動履歴情報としてフラッシュメモリ15に記録する。例えば、追跡部27cは、所定の時間間隔で位置情報(経度、緯度、方位等)を移動履歴情報としてフラッシュメモリ15に順次記録する。   The tracking unit 27c tracks the movement path of the user on the electronic map based on the position information acquired by the position information acquisition unit 27b. Specifically, the tracking unit 27c tracks the movement path of the user by collating the position information (longitude, latitude, orientation, etc.) acquired by the position information acquisition unit 27b on an electronic map. The tracking unit 27c records the user's movement route in the flash memory 15 as movement history information. For example, the tracking unit 27c sequentially records position information (longitude, latitude, orientation, etc.) in the flash memory 15 as movement history information at predetermined time intervals.

登録受付部27dは、ユーザ入力により電子地図上での指定場所の登録を受け付ける。具体的には、CPU27は、ユーザ入力により表示モニタ16に電子地図を表示する。そして、登録受付部27dは、例えばタッチパネル上での指先の指定位置を、電子地図上での指定場所(注目位置)として受け付ける。   The registration accepting unit 27d accepts registration of a designated place on the electronic map by a user input. Specifically, the CPU 27 displays an electronic map on the display monitor 16 by user input. Then, the registration accepting unit 27d accepts, for example, the designated position of the fingertip on the touch panel as a designated location (attention position) on the electronic map.

例えば、登録受付部27dは、ユーザ入力により電子地図上での指定場所として、観光地として有名な東京タワーを受け付けたとする。この場合、登録受付部27dは、東京タワーの位置情報をフラッシュメモリ15内のデータベースに登録する。   For example, it is assumed that the registration accepting unit 27d accepts Tokyo Tower, which is famous as a sightseeing spot, as a designated place on the electronic map by user input. In this case, the registration receiving unit 27d registers the position information of Tokyo Tower in the database in the flash memory 15.

図3は、登録受付部27dが登録した指定場所のデータベースの一例を説明する図である。図3では、東京タワーの位置情報が登録される。追跡部27cは、指定場所のデータベースを参照して、ユーザの移動経路を電子地図上で追跡する。ここで、指定場所として、東京タワーを登録した場合、例えば、東京タワーの位置座標から半径50m以内のライフログ情報を通信端末50の利用者と共有するようにしても良い。なお、電子地図上での指定場所は、ユーザ入力により例えば、東京タワー、スカイツリー、国会議事堂前等の任意の場所であって良い。   FIG. 3 is a diagram illustrating an example of a database of designated locations registered by the registration receiving unit 27d. In FIG. 3, the location information of Tokyo Tower is registered. The tracking unit 27c refers to the database of the designated location and tracks the user's movement route on the electronic map. Here, when Tokyo Tower is registered as the designated place, for example, life log information within a radius of 50 m from the position coordinates of Tokyo Tower may be shared with the user of the communication terminal 50. Note that the designated place on the electronic map may be an arbitrary place such as Tokyo Tower, Sky Tree, or the Parliament Building, for example, by user input.

判定部27eは、追跡部27cの追跡結果に応じて、現在位置が電子地図上で注目位置に該当するか否かを判定する。具体的には、判定部27eは、現在位置が指定場所である場合に、その指定場所を注目位置であると判定する。また、追跡部27cが移動履歴情報に基づいてユーザの新たな経路の移動を追跡中の場合、判定部27eは、追跡中の現在位置を注目位置と判定しても良い。これにより、本実施形態では、注目位置に関するライフログ情報を通信端末50の利用者と共有することができるので、全てのライフログ情報を共有しないで済む。   The determination unit 27e determines whether the current position corresponds to the target position on the electronic map according to the tracking result of the tracking unit 27c. Specifically, when the current position is a designated place, the determination unit 27e determines that the designated place is a target position. When the tracking unit 27c is tracking the movement of the user's new route based on the movement history information, the determination unit 27e may determine the current position being tracked as the position of interest. Thereby, in this embodiment, since the life log information regarding an attention position can be shared with the user of the communication terminal 50, it is not necessary to share all the life log information.

ここで、通信部18は、判定部27eにより現在位置が注目位置に該当すると判定された場合、その注目位置において、フラッシュメモリ15又は記録媒体30に記録された画像のデータと音声のデータとを通信端末50に送信する。なお、音声解析部27fについては、第1変形例で説明し、視認性評価部27gについては、第2変形例で説明する。
<通信端末50>
図4は、通信端末50の構成例を説明するブロック図である。通信端末50は、電子カメラ1からの要求に応じて、インターネット網41を通じて電子カメラ1からライフログ情報のデータを受信する機能を有する。また、通信端末50は、サーバーとしての機能も有し、他の通信端末(不図示)にライフログ情報のデータを配信することができる。
Here, when the determination unit 27e determines that the current position corresponds to the target position, the communication unit 18 uses the image data and the sound data recorded in the flash memory 15 or the recording medium 30 at the target position. It transmits to the communication terminal 50. The voice analysis unit 27f will be described in a first modification, and the visibility evaluation unit 27g will be described in a second modification.
<Communication terminal 50>
FIG. 4 is a block diagram illustrating a configuration example of the communication terminal 50. The communication terminal 50 has a function of receiving life log information data from the electronic camera 1 through the Internet 41 in response to a request from the electronic camera 1. Further, the communication terminal 50 also has a function as a server, and can distribute life log information data to other communication terminals (not shown).

ここで、通信端末50は、通信インターフェース部(以下「通信I/F部」という)2と、ハードディスク装置3と、表示モニタ4と、入出力インターフェース部(以下「入出力I/F部」という)5と、音声処理部6と、マイク6aと、スピーカ6bと、操作部7と、サーバー用CPU8と、データバス9とを備える。   The communication terminal 50 includes a communication interface unit (hereinafter referred to as “communication I / F unit”) 2, a hard disk device 3, a display monitor 4, and an input / output interface unit (hereinafter referred to as “input / output I / F unit”). ) 5, an audio processing unit 6, a microphone 6 a, a speaker 6 b, an operation unit 7, a server CPU 8, and a data bus 9.

このうち、通信I/F部2と、ハードディスク装置3と、表示部4と、入出力I/F部5、音声処理部6及びサーバー用CPU8は、データバス9を介して互いに接続されている
通信I/F部2は、通信端末50をインターネット網41に接続するためのインターフェースを提供する。ハードディスク装置3は、サーバー用CPU8が実行する制御プログラムを格納する。また、ハードディスク装置3は、電子カメラ1から受信したデータ等を格納する。さらに、ハードディスク装置3は、電子地図をデータベースとして格納する。
Among these, the communication I / F unit 2, the hard disk device 3, the display unit 4, the input / output I / F unit 5, the audio processing unit 6, and the server CPU 8 are connected to each other via a data bus 9. The communication I / F unit 2 provides an interface for connecting the communication terminal 50 to the Internet network 41. The hard disk device 3 stores a control program executed by the server CPU 8. The hard disk device 3 stores data received from the electronic camera 1. Further, the hard disk device 3 stores the electronic map as a database.

表示モニタ4は、例えば液晶表示媒体により構成される。入出力I/F部5は、USB(Universal Serial Bus)等の規格に基づくインターフェースである。なお、入出力I/F部5には、例えば、DVDレコーダ装置(不図示)がUSBを介して接続される。そして、DVDやCDの記録媒体40に記憶されたプログラム等は、入出力I/F部5を介してハードディスク装置3へ読み込まれる。なお、通信端末50の初期設定時には、アプリケーションプログラム、各種のデータ、電子地図等は、DVD(Digital Versatile Disc)やCD(Compact Disc)などの記録媒体40(不図示)に記録されている。そして、通信端末50の利用者が例えばインストール指示を行なった場合、アプリケーションプログラム、各種のデータ、電子地図等は、サーバー用CPU8により記録媒体40から読み出されてハードディスク装置3へ格納される。   The display monitor 4 is composed of, for example, a liquid crystal display medium. The input / output I / F unit 5 is an interface based on a standard such as USB (Universal Serial Bus). For example, a DVD recorder device (not shown) is connected to the input / output I / F unit 5 via a USB. A program or the like stored in the DVD or CD recording medium 40 is read into the hard disk device 3 via the input / output I / F unit 5. At the time of initial setting of the communication terminal 50, application programs, various data, an electronic map, and the like are recorded on a recording medium 40 (not shown) such as a DVD (Digital Versatile Disc) or a CD (Compact Disc). When the user of the communication terminal 50 issues an installation instruction, for example, the application program, various data, an electronic map, and the like are read from the recording medium 40 by the server CPU 8 and stored in the hard disk device 3.

音声処理部6は、マイク6aを介して入力されたアナログの音声信号をデジタルの音声信号に変換して音声信号を取得する。また、音声処理部6は、音声信号をスピーカ6bを介して音声に変換し、その音声の出力処理を行なう。操作部7は、キーボードやマウス等、サーバー用CPU8に対して通信端末50の利用者が指示入力を行なうための各種の入力デバイスを含んでいる。   The audio processing unit 6 converts an analog audio signal input via the microphone 6a into a digital audio signal, and acquires the audio signal. The sound processing unit 6 converts the sound signal into sound through the speaker 6b and performs output processing of the sound. The operation unit 7 includes various input devices such as a keyboard and a mouse for the user of the communication terminal 50 to input instructions to the server CPU 8.

サーバー用CPU8は、ハードディスク装置3に予め格納された制御プログラムを実行することで、通信端末50の各部を統括制御する。また、サーバー用CPU8は、通信制御部8aと、表示制御部8bとしても機能する。   The server CPU 8 controls each part of the communication terminal 50 by executing a control program stored in advance in the hard disk device 3. The server CPU 8 also functions as a communication control unit 8a and a display control unit 8b.

通信制御部8aは、電子カメラ1との通信を制御する。具体的には、通信制御部8aは、電子カメラ1からの発信の信号データを受信し、例えばスピーカ6bを介して、通信端末50の利用者に報知する。また、通信制御部8aは、電子カメラ1からの画像や音声のデータを受信して、ハードディスク装置3に記録する処理を行なう。表示制御部8bは、表示モニタ4に表示する画像等の表示態様を制御する。   The communication control unit 8 a controls communication with the electronic camera 1. Specifically, the communication control unit 8a receives the signal data transmitted from the electronic camera 1, and notifies the user of the communication terminal 50 via the speaker 6b, for example. Further, the communication control unit 8 a performs processing for receiving image and sound data from the electronic camera 1 and recording the data in the hard disk device 3. The display control unit 8 b controls the display mode of the image displayed on the display monitor 4.

次に、本実施形態における通信システム100の動作の一例を説明する。図5は、通信システム100の動作の一例を示すフローチャートである。図6は、電子カメラ1と通信端末50との間のシーケンスの一例を説明する図である。   Next, an example of operation | movement of the communication system 100 in this embodiment is demonstrated. FIG. 5 is a flowchart illustrating an example of the operation of the communication system 100. FIG. 6 is a diagram illustrating an example of a sequence between the electronic camera 1 and the communication terminal 50.

なお、通信端末50は、常時稼働していることとする。電子カメラ1側では、電源がオンされた後、図2に示す操作部22がライフログモードの指示入力を受け付けた場合、CPU27は、図5に示すフローの処理を開始させる。ここで、説明をわかりやすくするため、図1に示すユーザ(人物P1)が、東京タワー(注目位置)を訪れる場合について説明する。   Note that the communication terminal 50 is always operating. On the electronic camera 1 side, after the power is turned on, when the operation unit 22 shown in FIG. 2 receives an instruction input in the life log mode, the CPU 27 starts the processing of the flow shown in FIG. Here, in order to make the explanation easy to understand, a case where the user (person P1) shown in FIG. 1 visits Tokyo Tower (attention position) will be described.

ステップS101:CPU27は、動画記録を開始する。この場合、CPU27は、撮像素子11に動画撮影の指示を出す。これにより、CPU27の記録処理部27aは、順次、画像のデータを記録媒体30に記録すると共に、音声処理部19が出力するデジタル化された後の音声のデータを記録媒体30に同期させて記録して行く。   Step S101: The CPU 27 starts moving image recording. In this case, the CPU 27 instructs the image sensor 11 to shoot a moving image. Thus, the recording processing unit 27a of the CPU 27 sequentially records the image data on the recording medium 30 and records the digitized audio data output from the audio processing unit 19 in synchronization with the recording medium 30. Go.

図6(a)は、CPU27による動画記録の開始時点を表している。この場合、通信端末50側では、画像データが送信されていないことを示している。   FIG. 6A shows the start point of the moving image recording by the CPU 27. In this case, the image data is not transmitted on the communication terminal 50 side.

ステップS102:CPU27の位置情報取得部27bは、位置情報の取得処理を行なう。具体的には、位置情報取得部27bは、ユーザの現在位置を示す位置情報をGPS受信機24から取得する。   Step S102: The position information acquisition unit 27b of the CPU 27 performs position information acquisition processing. Specifically, the position information acquisition unit 27b acquires position information indicating the current position of the user from the GPS receiver 24.

ステップS103:CPU27の追跡部27cは、ユーザの追跡処理を行なう。具体的には、追跡部27cは、位置情報取得部27bが取得した位置情報(経度、緯度、方位等)を電子地図上で照合することにより、ユーザの移動経路を追跡する。   Step S103: The tracking unit 27c of the CPU 27 performs a user tracking process. Specifically, the tracking unit 27c tracks the movement path of the user by collating the position information (longitude, latitude, orientation, etc.) acquired by the position information acquisition unit 27b on an electronic map.

図7は、電子地図上での追跡部27cの処理の一例を示す図である。図7では、例えば東京タワーを含む近辺の電子地図を模式的に描いている。図中の矢印(移動ベクトル)は、ユーザ(人物P1)の移動を表している。ここで、追跡部27cは、位置情報取得部27bが取得した位置情報を移動履歴情報として所定の時間間隔でフラッシュメモリ15に記録する。つまり、追跡部27cは、ユーザの位置情報を電子地図上で照合することにより、ユーザの移動経路を矢印の軌跡で追跡することができる。   FIG. 7 is a diagram illustrating an example of processing of the tracking unit 27c on the electronic map. In FIG. 7, for example, an electronic map in the vicinity including Tokyo Tower is schematically drawn. The arrow (movement vector) in the figure represents the movement of the user (person P1). Here, the tracking unit 27c records the position information acquired by the position information acquisition unit 27b in the flash memory 15 at predetermined time intervals as movement history information. That is, the tracking unit 27c can track the movement path of the user with the locus of the arrow by collating the user position information on the electronic map.

ステップS104:追跡部27cは、ユーザの移動を検出したか否かを判定する。具体的には、ユーザが停止している場合には、移動ベクトルがゼロになるため、追跡部27cは、ユーザが停止している状態を判定することができる。ユーザが停止している場合(ステップS104:No)、CPU27は、ステップS102の処理に戻る。ユーザが移動している場合(ステップS104:Yes)、CPU27は、ステップS105の処理に移行する。   Step S104: The tracking unit 27c determines whether or not the movement of the user is detected. Specifically, since the movement vector is zero when the user is stopped, the tracking unit 27c can determine the state where the user is stopped. When the user is stopped (step S104: No), the CPU 27 returns to the process of step S102. When the user is moving (step S104: Yes), the CPU 27 proceeds to the process of step S105.

ステップS105:CPU27の判定部27eは、追跡部27cの追跡結果に応じて、現在位置が電子地図上で注目位置に該当するか否かを判定する。例えば、ユーザが東京タワーの近辺として半径50m以内に到達すると、判定部27eは、注目位置に該当すると判定し(ステップS105:Yes)、ステップS105の処理に移行する。一方、ユーザが東京タワーの近辺として半径50m以内に到達していない場合(ステップS105:No)、ステップS102の処理に戻る。   Step S105: The determination unit 27e of the CPU 27 determines whether or not the current position corresponds to the attention position on the electronic map according to the tracking result of the tracking unit 27c. For example, when the user reaches within a radius of 50 m near the Tokyo Tower, the determination unit 27e determines that the position corresponds to the position of interest (step S105: Yes), and proceeds to the process of step S105. On the other hand, when the user has not reached within a radius of 50 m in the vicinity of Tokyo Tower (step S105: No), the process returns to step S102.

例えば、図7(a)において、CPU27は、ユーザの指示入力を受け付けることにより、交差点の近くでライフログモードを開始したこととする。続いて、ユーザが移動を開始し、図7(b)において、ユーザが芝公園ビルの前を左折すると、判定部27eは、注目位置に該当すると判定し、ステップS106の処理に移行する。   For example, in FIG. 7A, it is assumed that the CPU 27 starts the life log mode near the intersection by accepting the user's instruction input. Subsequently, when the user starts moving and the user turns left in front of the Shiba Koen Building in FIG. 7B, the determination unit 27e determines that the position corresponds to the position of interest, and the process proceeds to step S106.

ステップS106:CPU27は、通信部18に指示を出すことにより、通信部18は、発信処理を行なう。具体的には、通信部18は、基地局40からインターネット網41を介して通信端末50に通信開始のコマンドを送信する。   Step S106: The CPU 27 issues an instruction to the communication unit 18, whereby the communication unit 18 performs a calling process. Specifically, the communication unit 18 transmits a communication start command from the base station 40 to the communication terminal 50 via the Internet network 41.

ここで、通信端末50側において、サーバー用CPU8の通信制御部8aは、通信I/F部2を介して、通信開始のメッセージを受信すると、例えばスピーカにより着信音等により通信端末50の利用者に報知する。或いは、図6(b)に示す通り、表示制御部8bは、電子カメラ1側からの通信開始のコマンドを着信したことを示す「着信通知」を表示モニタ4に表示させても良い。続いて、操作部7は、画像データ等のライフログ情報の共有を許可する共有許可通知の指示入力を受け付けた場合、通信制御部8aは、共有許可通知のコマンドを電子カメラ1側に送信する。   Here, on the communication terminal 50 side, when the communication control unit 8a of the server CPU 8 receives a communication start message via the communication I / F unit 2, for example, a user of the communication terminal 50 by a ring tone or the like through a speaker. To inform. Alternatively, as shown in FIG. 6B, the display control unit 8 b may cause the display monitor 4 to display “incoming notification” indicating that a communication start command from the electronic camera 1 side has been received. Subsequently, when the operation unit 7 receives an instruction input of a sharing permission notification that permits sharing of life log information such as image data, the communication control unit 8a transmits a sharing permission notification command to the electronic camera 1 side. .

ステップS107:通信部18は、通信端末50側から、共有許可通知のコマンドが送信してきたか否かを判定する。共有許可通知のコマンドが送信されてきた場合(ステップS107:Yes)、CPU27は、ステップS108の処理に移行する。一方、共有許可通知のコマンドが送信されてこない場合(ステップS107:Yes)、CPU27は、ステップS102の処理に戻る。なお、図5のフローチャートには示していないが、共有許可通知のコマンドが予め設定した時間を過ぎても送信されてこない場合、CPU27は、タイムアウトとみなして図5に示すフローの処理を終了する。   Step S107: The communication unit 18 determines whether or not a sharing permission notification command has been transmitted from the communication terminal 50 side. When the share permission notification command is transmitted (step S107: Yes), the CPU 27 proceeds to the process of step S108. On the other hand, if the share permission notification command is not transmitted (step S107: Yes), the CPU 27 returns to the process of step S102. Although not shown in the flowchart of FIG. 5, if the share permission notification command is not transmitted even after a preset time, the CPU 27 regards it as a timeout and ends the processing of the flow shown in FIG. 5. .

ステップS108:CPU27は、通信部18に指示を出すことにより、通信部18は、ライフログ情報の送信処理を行なう。具体的には、通信部18は、記録媒体40に記録されている画像のデータと音声のデータとを通信端末50側に送信する。ただし、通信部18は、共有許可通知のコマンドを受信した時刻以降の画像のデータと音声のデータとを通信端末50側に送信する。例えば、ユーザが、図7(c)に示す実線の矢印で移動している間、通信部18は、ライフログ情報を通信端末50側に送信する。   Step S108: The CPU 27 issues an instruction to the communication unit 18, whereby the communication unit 18 performs a life log information transmission process. Specifically, the communication unit 18 transmits image data and audio data recorded on the recording medium 40 to the communication terminal 50 side. However, the communication unit 18 transmits to the communication terminal 50 the image data and the audio data after the time when the sharing permission notification command is received. For example, the communication unit 18 transmits life log information to the communication terminal 50 side while the user is moving with a solid line arrow illustrated in FIG.

ここで、通信端末50側において、通信制御部8aは、通信I/F部2を介してライフログ情報を受信すると、ハードディスク装置3に順次記録して行く。さらに、表示制御部8bは、ハードディスク装置3から画像のデータを読み出して表示モニタ4に画像を表示する。また、音声処理部6は、ハードディスク装置3から音声のデータを読み出してスピーカから音声を出力する。   Here, on the communication terminal 50 side, when receiving the life log information via the communication I / F unit 2, the communication control unit 8 a sequentially records the information on the hard disk device 3. Further, the display control unit 8 b reads the image data from the hard disk device 3 and displays the image on the display monitor 4. The audio processing unit 6 reads audio data from the hard disk device 3 and outputs audio from the speaker.

ステップS109:CPU27は、通信部18に指示を出すことにより、通信部18は、通信端末50側とのライフログ情報の共有を開始する。これより、通信端末50の利用者は、リアルタイムで電子カメラ1側から送信されてくる画像のデータを表示モニタ4で画像として確認することができる(図6(c)参照)。また、通信端末50の利用者は、リアルタイムで電子カメラ1側から送信されてくる音声のデータをスピーカ6bから出力される音声で確認することができる。   Step S109: When the CPU 27 issues an instruction to the communication unit 18, the communication unit 18 starts sharing life log information with the communication terminal 50 side. Thus, the user of the communication terminal 50 can confirm the image data transmitted from the electronic camera 1 side in real time as an image on the display monitor 4 (see FIG. 6C). Further, the user of the communication terminal 50 can confirm the voice data transmitted from the electronic camera 1 side in real time with the voice output from the speaker 6b.

ステップS110:判定部27eは、移動履歴情報に基づいて、ユーザが移動を停止又は注目位置を離れたか否かを判定する。ユーザが注目位置を移動中の場合(ステップS110:No)、CPU27は、ステップS108の処理に戻り、引き続き、送信処理を継続する。ユーザが移動を停止又は注目位置を離れた場合(ステップS110:Yes)、ステップS111の処理に移行する。なお、ユーザが移動を停止する場合としては、信号待ち等によるものも考えられるので、判定部27eは、ユーザが予め設定した時間を過ぎて停止している場合に、ユーザが移動を停止したと判定しても良い。   Step S110: The determination unit 27e determines whether the user has stopped moving or left the attention position based on the movement history information. When the user is moving the target position (step S110: No), the CPU 27 returns to the process of step S108 and continues the transmission process. When the user stops moving or leaves the position of interest (step S110: Yes), the process proceeds to step S111. Note that the case where the user stops moving may be due to a signal waiting or the like, so that the determination unit 27e determines that the user has stopped moving when the user has stopped after a preset time. You may judge.

ステップS111:CPU27は、通信部18に指示を出すことにより、通信部18は、通信の終了処理を行なう。具体的には、通信部18は、通信端末50へのライフログ情報の送信を終了する。そして、CPU27は、図5に示すフローの処理を終了させる。   Step S111: The CPU 27 issues an instruction to the communication unit 18, whereby the communication unit 18 performs a communication end process. Specifically, the communication unit 18 ends the transmission of life log information to the communication terminal 50. Then, the CPU 27 ends the process of the flow shown in FIG.

以上より、本実施形態によれば、ユーザが注目位置或いはその近辺に存在している時に、電子カメラ1と通信端末50との間でライフログ情報を共有できる。そのため、通信端末50側では、ハードディスク装置3に記録するライフログ情報のデータ量が膨大になることを抑制して記録することができる。   As described above, according to the present embodiment, life log information can be shared between the electronic camera 1 and the communication terminal 50 when the user is present at or near the target position. Therefore, on the communication terminal 50 side, it is possible to record while suppressing an enormous amount of data of life log information to be recorded on the hard disk device 3.

なお、本実施形態において、通信部18は、通信端末50側から画像のデータと音声のデータとの少なくとも何れか一方の受信の拒否を示す拒否通知のコマンドを受け付ける構成としても良い。この場合、通信部18は、拒否通知のコマンドを受け付けた時刻をフラッシュメモリ15に記録する。そして、通信部18は、次回以降、フラッシュメモリ15に記録されたそのコマンドを受け付けた時刻を参照し、通信端末50に対してその時刻又はその時刻から予め設定した時間の範囲内での通信を行なわないようにしても良い。これにより、通信端末50の利用者が、都合の悪い時間帯にライフログ情報の共有をしないで済む。この場合、通信部18は、ユーザの指示入力に応じて、通信端末50の利用者の都合の良い時間帯に電子カメラ1に記録されたライフログ情報を送信すれば良い。   In the present embodiment, the communication unit 18 may receive a rejection notification command indicating rejection of reception of at least one of image data and audio data from the communication terminal 50 side. In this case, the communication unit 18 records the time when the rejection notification command is received in the flash memory 15. Then, the communication unit 18 refers to the time when the command recorded in the flash memory 15 is received from the next time onward, and communicates with the communication terminal 50 within the time or a time range set in advance from the time. It may not be performed. Thereby, the user of the communication terminal 50 does not have to share the life log information at an inconvenient time zone. In this case, the communication part 18 should just transmit the life log information recorded on the electronic camera 1 in the time slot | zone convenient for the user of the communication terminal 50 according to a user's instruction | indication input.

(第1変形例)
次に、本実施形態の第1変形例について説明する。第1変形例では、音声解析部27fの処理をさらに加える。音声解析部27fは、マイク21に入力された音声を解析する。具体的には、音声解析部27fは、音声処理部19によりデジタル化された音声の音量が予め設定した閾値よりも大きいか否かを解析する。なお、音声には、電子カメラ1のユーザの音声以外にも、周辺環境の音も含まれる。ここで、音声解析部27fは、音量を例えばデシベル単位で解析する。そして、音声の音量が予め設定した閾値よりも大きい場合、通信部18は、画像のデータのみを通信端末50に送信する。一方、音声の音量が予め設定した閾値以下の場合、通信部18は、画像のデータ及び音声のデータを通信端末50に送信する。ここで、閾値は、フラッシュメモリ15に記録されているが、CPU27は、ユーザ入力による音量の値(デシベル単位)を閾値としても良い。
(First modification)
Next, a first modification of the present embodiment will be described. In the first modification, the processing of the voice analysis unit 27f is further added. The voice analysis unit 27f analyzes the voice input to the microphone 21. Specifically, the sound analysis unit 27f analyzes whether or not the volume of the sound digitized by the sound processing unit 19 is larger than a preset threshold value. The sound includes sounds of the surrounding environment in addition to the sound of the user of the electronic camera 1. Here, the sound analysis unit 27f analyzes the sound volume in units of decibels, for example. When the sound volume is larger than a preset threshold value, the communication unit 18 transmits only image data to the communication terminal 50. On the other hand, when the sound volume is equal to or lower than a preset threshold value, the communication unit 18 transmits image data and sound data to the communication terminal 50. Here, the threshold value is recorded in the flash memory 15, but the CPU 27 may use a sound volume value (in decibel units) input by the user as the threshold value.

これにより、通信端末50側の利用者は、周囲が騒音の場合には、騒音を聞かずに画像のデータを共有することができる。   As a result, the user on the communication terminal 50 side can share image data without listening to noise when the surroundings are noisy.

(第2変形例)
次に、本実施形態の第2変形例について説明する。第2変形例では、視認性評価部27gの処理をさらに加える。視認性評価部27gは、画像の視認性を評価する。具体的には、視認性評価部27gは、加速度センサ25の検出結果に基づいて、電子カメラ1の筐体による揺れの度合いを推定する。そして、視認性評価部27gは、揺れの度合いに基づいて、視認性を示す評価値を判定する。ここで、揺れの度合いが大きくなるに従って、評価値は低くなることとする。つまり、電子カメラ1の筐体の揺れが大きくなるに従って、通信端末50の利用者は、画像が見づらくなる。そして、第2変形例では、揺れの度合いの評価値の閾値を予め設定して、フラッシュメモリ15に記録しておく。なお、CPU27は、ユーザ入力により、電子カメラ1の筐体による揺れの度合いの閾値を設定しても良い。
(Second modification)
Next, a second modification of the present embodiment will be described. In the second modification, the process of the visibility evaluation unit 27g is further added. The visibility evaluation unit 27g evaluates the visibility of the image. Specifically, the visibility evaluation unit 27g estimates the degree of shaking by the casing of the electronic camera 1 based on the detection result of the acceleration sensor 25. And the visibility evaluation part 27g determines the evaluation value which shows visibility based on the degree of shaking. Here, it is assumed that the evaluation value decreases as the degree of shaking increases. That is, as the shaking of the casing of the electronic camera 1 increases, it becomes difficult for the user of the communication terminal 50 to see the image. In the second modification, a threshold value of the evaluation value of the degree of shaking is set in advance and recorded in the flash memory 15. Note that the CPU 27 may set a threshold value of the degree of shaking by the housing of the electronic camera 1 by user input.

すなわち、評価値が閾値以下の場合、通信部18は、音声のデータのみを通信端末50に送信する。一方、評価値が閾値よりも大きい場合、通信部18は、画像のデータ及び音声のデータを通信端末に送信する
或いは、視認性評価部27gは、照度センサ26の検出結果に基づいて、電子カメラ1の周辺環境の明るさを推定しても良い。そして、視認性評価部27gは、電子カメラ1の周辺環境の明るさに基づいて、視認性を示す評価値を判定する。ここで、明るさの度合いが大きくなるに従って、評価値は高くなることとする。つまり、電子カメラ1の周辺環境の明るさが暗くなるに従って、通信端末50の利用者は、画像が見づらくなる。そのため、第2変形例では、明るさの度合いの評価値に閾値を予め設定して、フラッシュメモリ15に記録しておく。なお、CPU27は、ユーザ入力により、明るさの度合いの閾値を設定しても良い。
That is, when the evaluation value is equal to or less than the threshold value, the communication unit 18 transmits only audio data to the communication terminal 50. On the other hand, when the evaluation value is larger than the threshold value, the communication unit 18 transmits image data and audio data to the communication terminal. Alternatively, the visibility evaluation unit 27g uses the electronic camera based on the detection result of the illuminance sensor 26. You may estimate the brightness of 1 surrounding environment. The visibility evaluation unit 27g determines an evaluation value indicating visibility based on the brightness of the surrounding environment of the electronic camera 1. Here, it is assumed that the evaluation value increases as the degree of brightness increases. That is, as the brightness of the surrounding environment of the electronic camera 1 becomes darker, it becomes difficult for the user of the communication terminal 50 to see the image. Therefore, in the second modification, a threshold value is set in advance for the evaluation value of the brightness level and recorded in the flash memory 15. Note that the CPU 27 may set a threshold value of the brightness level by user input.

すなわち、評価値が閾値以下の場合、通信部18は、音声のデータのみを通信端末50に送信する。評価値が閾値よりも大きい場合、通信部20は、画像のデータ及び音声のデータを通信端末50に送信する。これにより、通信端末50側の利用者は、画像が見えづらい場合には、音声のデータのみを共有することができる。   That is, when the evaluation value is equal to or less than the threshold value, the communication unit 18 transmits only audio data to the communication terminal 50. When the evaluation value is larger than the threshold value, the communication unit 20 transmits image data and audio data to the communication terminal 50. As a result, the user on the communication terminal 50 side can share only audio data when it is difficult to see the image.

(第3変形例)
次に、本実施形態の第3変形例について説明する。第3変形例では、電子カメラ1のユーザが通常と異なるルートの道を通った場合、他者とライフログ情報の共有を行なっても良い。つまり、第3変形例では、移動履歴情報に基づいて、ユーザが新規のルートを移動中の場合に、他者とライフログ情報の共有を行なう。
(Third Modification)
Next, a third modification of the present embodiment will be described. In the third modification, life log information may be shared with others when the user of the electronic camera 1 has taken a different route. That is, in the third modified example, when the user is moving on a new route, life log information is shared with others based on the movement history information.

図8は、第3変形例を説明する図である。例えば、電子カメラ1のユーザ(例えば人物P2)は、A駅61からC会社63に出勤する。この場合、追跡部27cは、図中A駅61からC会社63までの実線で示すルートを移動履歴情報としてフラッシュメモリ15に記録する。そのため、次回以降、ユーザがA駅61からC会社63に出勤する場合、他者とライフログ情報の共有は行なわない。しかし、ユーザがB駅62からC会社63に出勤する場合、ユーザは、通常と異なるルートの道(新規のルート)を移動することになる。この場合、追跡部27cは、新規のルートに対して注目位置を継続的に移動することとし、図中B駅62からC会社63までの破線で示すルートを移動履歴情報としてフラッシュメモリ15に記録する。そして、通信部18は、C会社63内の通信端末(不図示)に向けてライフログ情報を送信する。なお、ここで、会社内の通信端末は、電子カメラ1のユーザが所有する通信端末であっても良い。この場合、ユーザの所有する通信端末に、ライフログ情報が自動的に記録されるので利便性が向上する。そして、ユーザは、その後に他者とライフログ情報を共有しても良い。   FIG. 8 is a diagram illustrating a third modification. For example, the user of the electronic camera 1 (for example, the person P2) goes to the company C from the station A 61. In this case, the tracking unit 27c records the route indicated by the solid line from the station A 61 to the company C 63 in the drawing as movement history information in the flash memory 15. Therefore, after the next time, when the user goes to company C 63 from station A 61, life log information is not shared with others. However, when the user goes from the B station 62 to the C company 63, the user moves along a route (new route) different from the normal route. In this case, the tracking unit 27c continuously moves the attention position with respect to the new route, and the route indicated by the broken line from the station B 62 to the company C 63 in the figure is recorded in the flash memory 15 as the movement history information. To do. And the communication part 18 transmits life log information toward the communication terminal (not shown) in C company 63. FIG. Here, the communication terminal in the company may be a communication terminal owned by the user of the electronic camera 1. In this case, the life log information is automatically recorded on the communication terminal owned by the user, so that convenience is improved. And a user may share life log information with others after that.

また、第3の変形例では、追跡部27cがユーザの移動の停止を検出した場合、通信部18は、通信端末側への送信を終了するようにしても良い。例えば、図8の事例の場合、ユーザがC会社63に到着すると、通信端末側への送信を終了する。これにより、第3の変形例では、余計な撮影しないで済むため、ライフログ情報のデータ量をその分、抑制することができる。   Further, in the third modification, when the tracking unit 27c detects the stop of the movement of the user, the communication unit 18 may end the transmission to the communication terminal side. For example, in the case of FIG. 8, when the user arrives at the C company 63, the transmission to the communication terminal side is terminated. Thereby, in the 3rd modification, since it is not necessary to image | photograph extra, the data amount of life log information can be suppressed by that much.

また、第3の変形例では、操作部22が、通信部18による送信処理の終了を示す指示入力を受け付けても良い。そして、追跡部27cは、操作部22が送信処理の終了を示す指示入力を受け付けた場合、ユーザの現在位置を通信終了位置としてフラッシュメモリ15に記録する。そして、通信部18は、次回以降、追跡部27cが通信終了位置の到達を検出した場合、通信端末側への送信を終了する。例えば、図8の事例の場合、操作部22が、C会社63の正門で送信処理の終了を示す指示入力を受け付けた場合、次回以降、追跡部27cがC会社63の正門の到達を検出した場合、通信端末側への送信を終了する。これにより、第3の変形例では、余計な撮影しないで済むため、ライフログ情報のデータ量をその分、抑制することができる。   In the third modification, the operation unit 22 may receive an instruction input indicating the end of the transmission process by the communication unit 18. Then, when the operation unit 22 receives an instruction input indicating the end of the transmission process, the tracking unit 27c records the current position of the user in the flash memory 15 as the communication end position. And the communication part 18 complete | finishes transmission to the communication terminal side after the next time, when the tracking part 27c detects arrival of a communication end position. For example, in the case of FIG. 8, when the operation unit 22 receives an instruction input indicating the end of transmission processing at the main gate of the C company 63, the tracking unit 27c detects the arrival of the main gate of the C company 63 from the next time. In this case, the transmission to the communication terminal side is terminated. Thereby, in the 3rd modification, since it is not necessary to image | photograph extra, the data amount of life log information can be suppressed by that much.

(第4変形例)
次に、本実施形態の第4変形例について説明する。第4変形例では、電子カメラ1のユーザが通常のルートを移動中に、その通常のルートから外れた場合に他者とライフログ情報の共有を行なっても良い。つまり、第4変形例では、移動履歴情報に基づいて、ユーザが既に登録済みのルートを移動中に寄り道するような場合、他者とライフログ情報の共有を行なう。
(Fourth modification)
Next, a fourth modification of the present embodiment will be described. In the fourth modification, life log information may be shared with others when the user of the electronic camera 1 moves out of the normal route while moving on the normal route. That is, in the fourth modified example, based on the movement history information, when the user detours while traveling on the already registered route, life log information is shared with others.

図9は、第4変形例を説明する図である。第4変形例では、例えば、人物P3が電子カメラ1を装備して、自宅64から塾65に通学しているとする。また、祖父の家66に本実施形態の通信端末(不図示)があるとする。この場合、追跡部27cは、自宅64から塾65までの実線で示すルートを移動履歴情報として予めフラッシュメモリ15に記録している。   FIG. 9 is a diagram illustrating a fourth modification. In the fourth modification, for example, it is assumed that the person P3 is equipped with the electronic camera 1 and goes from the home 64 to the cram school 65. Further, it is assumed that the grandfather's house 66 has the communication terminal (not shown) of the present embodiment. In this case, the tracking unit 27c records a route indicated by a solid line from the home 64 to the cram school 65 as movement history information in the flash memory 15 in advance.

追跡部27cは、位置情報取得部27bが取得する位置情報に基づいて、人物P3の移動経路を追跡する。ここで、人物P3が実線で示すルートから点線で示すルートに寄り道を開始したとする。この場合、判定部27dは、点線に示すルートが注目位置を移動するものと判定する。そして、通信部18は、例えば、祖父の家66の通信端末にライフログ情報を送信する。実際の適用例では、例えば、人物P3が見知らぬ人物に連れ去られるような場合、通常のルートから外れるので、ライフログ情報を共有できると早期に発見できるという防犯上の効果が得られる。   The tracking unit 27c tracks the movement path of the person P3 based on the position information acquired by the position information acquisition unit 27b. Here, it is assumed that the person P3 starts a detour from the route indicated by the solid line to the route indicated by the dotted line. In this case, the determination unit 27d determines that the route indicated by the dotted line moves the target position. And the communication part 18 transmits life log information to the communication terminal of the grandfather's house 66, for example. In an actual application example, for example, when the person P3 is taken away by an unknown person, since it deviates from the normal route, a crime prevention effect can be obtained that the life log information can be found early if it can be shared.

また、第4変形例の他の事例として、以下に説明する本発明の通信システムを適用しても良い。   Moreover, you may apply the communication system of this invention demonstrated below as another example of a 4th modification.

図10は、第4変形例の他の事例を説明する図である。図10では、本実施形態の通信システム100を登山の遭難を防止するシステムに適用した事例である。図10において、電子カメラ1を装備した登山者(不図示)が、登山をする場合を想定する。また、通信端末50は、例えば、遭難者を救助するための救難センターに設置されていることとする。ここで、電子カメラ1のフラッシュメモリ15には、電子地図上に正規の登山ルートが記録されていることとする。なお、電子カメラ1を装備した登山者が登山を開始すると、追跡部27cは、位置情報取得部27bが取得する位置情報に基づいて、登山者の移動経路を追跡する。ここで、登山者が正規のルートから外れた場合、判定部27cは、注目位置を移動していると判定する。そして、通信部18は、救難センターの通信端末50にライフログ情報を送信する。通信端末50側では、ライフログ情報を受信し、表示モニタ4に登山者の現在位置の映像を表示する。これにより、登山者と救難センターの職員とは、現在の状況をライフログ情報として共有できる。そして、救難センターの職員は、正規の登山ルートに戻る指示を具体的に映像を見ながら出すことができる。したがって、図10に示す通信システム100では、正規の登山ルートを移動中にはライフログ情報を共有しないで済むため、通信端末50側で、記録するライフログ情報のデータ量が膨大になることを抑制することができる。さらに、図10に示す通信システム100では、ライフログ情報を共有することにより、遭難の防止に役立てることができるという効果が得られる。つまり、通信システム100では、特徴のイベント時にライフログ情報を効率良く共有することができる。   FIG. 10 is a diagram for explaining another example of the fourth modified example. FIG. 10 shows an example in which the communication system 100 of the present embodiment is applied to a system for preventing a climbing distress. In FIG. 10, it is assumed that a climber (not shown) equipped with the electronic camera 1 climbs. Moreover, the communication terminal 50 shall be installed in the rescue center for rescue of a victim, for example. Here, it is assumed that the regular climbing route is recorded on the electronic map in the flash memory 15 of the electronic camera 1. In addition, when the climber equipped with the electronic camera 1 starts climbing, the tracking unit 27c tracks the travel route of the climber based on the position information acquired by the position information acquiring unit 27b. Here, when the climber deviates from the regular route, the determination unit 27c determines that the position of interest is moving. And the communication part 18 transmits life log information to the communication terminal 50 of a rescue center. On the communication terminal 50 side, the life log information is received and an image of the current position of the climber is displayed on the display monitor 4. Thereby, a mountain climber and the staff of a rescue center can share the present condition as life log information. And the staff of the rescue center can give an instruction to return to the regular mountain climbing route while specifically watching the video. Therefore, in the communication system 100 shown in FIG. 10, it is not necessary to share life log information while moving on a regular mountain climbing route, so that the data amount of life log information to be recorded becomes enormous on the communication terminal 50 side. Can be suppressed. Furthermore, in the communication system 100 shown in FIG. 10, by sharing the life log information, there is an effect that it can be used for prevention of distress. That is, in the communication system 100, life log information can be efficiently shared during a feature event.

(実施形態の補足事項)
(1)上記実施形態では、電子カメラ1の通信先として通信端末50を用いたが、他の通信端末としては、例えば、携帯電話機能を有する電子カメラ1と同様であっても良い。この場合、図1の通信システムにおいて、電子カメラ1は、インターネット網41を介さずに、他の通信端末にライフログ情報を送信しても良い。
(Supplementary items of the embodiment)
(1) In the above embodiment, the communication terminal 50 is used as the communication destination of the electronic camera 1. However, the other communication terminal may be the same as the electronic camera 1 having a mobile phone function, for example. In this case, in the communication system of FIG. 1, the electronic camera 1 may transmit life log information to another communication terminal without going through the Internet network 41.

(2)上記実施形態では、一例として人物P1が電子カメラ1を装備する場合について説明したが、例えば、電子カメラ1を、自動車、オートバイ、自転車等の乗り物に装備するようにして、図1に示す通信システム100を構成しても良い。   (2) In the above embodiment, the case where the person P1 is equipped with the electronic camera 1 as an example has been described. For example, the electronic camera 1 is equipped on a vehicle such as an automobile, a motorcycle, a bicycle, etc. The illustrated communication system 100 may be configured.

(3)上記実施形態では、ライフログ情報として、動画のデータと音声のデータを例示したが、本実施形態の画像は、動画に限られず、静止画像であっても良い。この場合、電子カメラ1では、所定の時間間隔で静止画像を撮影しても良い。   (3) In the above embodiment, moving image data and audio data are exemplified as the life log information. However, the image of the present embodiment is not limited to a moving image, and may be a still image. In this case, the electronic camera 1 may take still images at predetermined time intervals.

1・・・電子カメラ、11・・・撮像素子、21・・・マイク、27a・・・記録処理部、27b・・・位置情報取得部、27c・・・追跡部、27e・・・判定部、18・・・通信部、100・・・通信システム DESCRIPTION OF SYMBOLS 1 ... Electronic camera, 11 ... Image sensor, 21 ... Microphone, 27a ... Recording process part, 27b ... Position information acquisition part, 27c ... Tracking part, 27e ... Determination part 18 communication unit 100 communication system

Claims (10)

被写体像を撮像し、画像を生成する撮像素子と、
音声を入力する音声入力部と、
前記画像のデータと前記音声のデータとをメモリに記録する記録処理部と、
ユーザの現在位置を示す位置情報を外部から取得する位置情報取得部と、
前記位置情報取得部が取得した前記位置情報に基づいて、前記ユーザの移動経路を電子地図上で追跡する追跡部と、
前記追跡部の追跡結果に応じて、前記現在位置が前記電子地図上で注目位置に該当するか否かを判定する判定部と、
前記判定部により前記現在位置が前記注目位置に該当すると判定された場合、該注目位置において、前記メモリに記録された前記画像のデータと前記音声のデータとの少なくとも何れか一方を他の通信端末に送信する通信部と、
を備えることを特徴とする電子カメラ。
An image sensor that captures a subject image and generates an image;
A voice input unit for inputting voice;
A recording processing unit for recording the image data and the audio data in a memory;
A position information acquisition unit for acquiring position information indicating the current position of the user from the outside;
Based on the position information acquired by the position information acquisition unit, a tracking unit that tracks the movement route of the user on an electronic map;
A determination unit that determines whether the current position corresponds to a target position on the electronic map according to a tracking result of the tracking unit;
When the determination unit determines that the current position corresponds to the target position, at least one of the image data and the voice data recorded in the memory is transmitted to another communication terminal at the target position. A communication unit that transmits to
An electronic camera comprising:
請求項1に記載の電子カメラにおいて、
前記電子地図上での指定場所の登録を受け付ける登録受付部をさらに備え、
前記判定部は、前記現在位置が前記指定場所である場合に、該指定場所を前記注目位置であると判定することを特徴とする電子カメラ。
The electronic camera according to claim 1,
A registration accepting unit for accepting registration of a designated place on the electronic map;
The electronic camera according to claim 1, wherein the determination unit determines that the designated location is the attention location when the current location is the designated location.
請求項1又は請求項2に記載の電子カメラにおいて、
前記追跡部は、前記ユーザの移動経路を移動履歴情報として前記メモリに記録し、
前記追跡部が前記移動履歴情報に基づいて前記ユーザの新たな経路の移動を追跡中の場合、前記判定部は、追跡中の現在位置を前記注目位置と判定することを特徴とする電子カメラ。
The electronic camera according to claim 1 or 2,
The tracking unit records the movement route of the user in the memory as movement history information,
When the tracking unit is tracking the movement of the new route of the user based on the movement history information, the determination unit determines the current position being tracked as the attention position.
請求項1から請求項3の何れか1項に記載の電子カメラにおいて、
前記音声入力部に入力された音声を解析する音声解析部をさらに備え、
前記音声の音量が予め設定した閾値よりも大きい場合、前記通信部は、前記画像のデータのみを前記通信端末に送信し、
前記音声の音量が予め設定した閾値以下の場合、前記通信部は、前記画像のデータ及び前記音声のデータを前記通信端末に送信することを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 3,
A voice analysis unit for analyzing the voice input to the voice input unit;
When the sound volume is larger than a preset threshold, the communication unit transmits only the image data to the communication terminal;
When the sound volume is equal to or lower than a preset threshold, the communication unit transmits the image data and the sound data to the communication terminal.
請求項1から請求項4の何れか1項に記載の電子カメラにおいて、
前記画像の視認性を評価する視認性評価部をさらに備え、
前記視認性を示す評価値が閾値以下の場合、前記通信部は、前記音声のデータのみを前記通信端末に送信し、
前記視認性を示す評価値が閾値よりも大きい場合、前記通信部は、前記画像のデータ及び前記音声のデータを前記通信端末に送信することを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 4,
It further comprises a visibility evaluation unit for evaluating the visibility of the image,
When the evaluation value indicating the visibility is equal to or less than a threshold, the communication unit transmits only the audio data to the communication terminal,
When the evaluation value indicating the visibility is larger than a threshold value, the communication unit transmits the image data and the audio data to the communication terminal.
請求項1から請求項5の何れか1項に記載の電子カメラにおいて、
前記通信部は、前記通信端末側から前記画像のデータと前記音声のデータとの少なくとも何れか一方の受信の拒否を示す拒否通知を受け付けた場合、該拒否通知を受け付けた時刻を前記メモリに記録し、次回以降、前記通信端末に対して前記時刻又は該時刻から予め設定した時間の範囲内での通信を行なわないことを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 5,
When the communication unit receives a rejection notification indicating rejection of reception of at least one of the image data and the audio data from the communication terminal side, the time when the rejection notification is received is recorded in the memory. Then, after the next time, the electronic camera does not perform communication within the time range set in advance from the time or the time to the communication terminal.
請求項1から請求項6の何れか1項に記載の電子カメラにおいて、
前記追跡部が前記ユーザの移動の停止を検出した場合、前記通信部は、前記通信端末側への送信を終了することを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 6,
The electronic camera, wherein when the tracking unit detects a stop of the movement of the user, the communication unit ends transmission to the communication terminal side.
請求項1から請求項7の何れか1項に記載の電子カメラにおいて、
前記通信部による送信処理の終了を示す指示入力を受け付ける操作部をさらに備え、
前記追跡部は、前記操作部が前記指示入力を受け付けた場合、前記ユーザの現在位置を通信終了位置として前記メモリに記録し、
前記通信部は、次回以降、前記追跡部が前記通信終了位置の到達を検出した場合、前記通信端末側への送信を終了することを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 7,
An operation unit that receives an instruction input indicating the end of transmission processing by the communication unit;
When the operation unit receives the instruction input, the tracking unit records the current position of the user in the memory as a communication end position,
The communication unit ends transmission to the communication terminal when the tracking unit detects arrival of the communication end position after the next time.
請求項1から8の何れか1項記載の電子カメラと、
前記電子カメラと通信を行なう他の通信端末と、
を備えることを特徴とする通信システム。
An electronic camera according to any one of claims 1 to 8,
Other communication terminals that communicate with the electronic camera;
A communication system comprising:
請求項9に記載の通信システムにおいて、
前記電子カメラと前記通信端末との間の通信を仲介する基地局をさらに備えることを特徴とする通信システム。
The communication system according to claim 9,
A communication system, further comprising a base station that mediates communication between the electronic camera and the communication terminal.
JP2011120545A 2011-05-30 2011-05-30 Electronic camera and communication system Withdrawn JP2012249164A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011120545A JP2012249164A (en) 2011-05-30 2011-05-30 Electronic camera and communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011120545A JP2012249164A (en) 2011-05-30 2011-05-30 Electronic camera and communication system

Publications (1)

Publication Number Publication Date
JP2012249164A true JP2012249164A (en) 2012-12-13

Family

ID=47469167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011120545A Withdrawn JP2012249164A (en) 2011-05-30 2011-05-30 Electronic camera and communication system

Country Status (1)

Country Link
JP (1) JP2012249164A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014187518A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
WO2015125375A1 (en) * 2014-02-18 2015-08-27 ソニー株式会社 Information processing apparatus, control method, program, and system
JP6389583B1 (en) * 2018-02-07 2018-09-12 株式会社ウフル Behavior index evaluation system, behavior index evaluation method, and program
WO2019026432A1 (en) * 2017-07-31 2019-02-07 ソニー株式会社 Communication control device, control method for communication control device and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014187518A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
WO2015125375A1 (en) * 2014-02-18 2015-08-27 ソニー株式会社 Information processing apparatus, control method, program, and system
JPWO2015125375A1 (en) * 2014-02-18 2017-03-30 ソニー株式会社 Information processing apparatus, control method, program, and system
US9992451B2 (en) 2014-02-18 2018-06-05 Sony Corporation Information processing device, control method, and system
WO2019026432A1 (en) * 2017-07-31 2019-02-07 ソニー株式会社 Communication control device, control method for communication control device and program
JPWO2019026432A1 (en) * 2017-07-31 2020-05-28 ソニー株式会社 Communication control device, control method of communication control device, and program
JP7103358B2 (en) 2017-07-31 2022-07-20 ソニーグループ株式会社 Communication control device, control method and program of communication control device
US11553155B2 (en) 2017-07-31 2023-01-10 Sony Corporation Communication controller and control method of communication controller
JP6389583B1 (en) * 2018-02-07 2018-09-12 株式会社ウフル Behavior index evaluation system, behavior index evaluation method, and program
WO2019155555A1 (en) * 2018-02-07 2019-08-15 株式会社ウフル Behavior index evaluation system, behavior index evaluation method, and program

Similar Documents

Publication Publication Date Title
CN109891874B (en) Panoramic shooting method and device
RU2663945C1 (en) Method and device for administration of videos, and also terminal and server
CN103491399B (en) Service providing system and method for providing service
JP5871952B2 (en) Camera-compatible headset for navigation
KR101913535B1 (en) Positioning method and system using accompanying devices
KR101953308B1 (en) System and method for transmitting communication information
WO2014149664A1 (en) Always-on camera sampling strategies
KR20140088461A (en) Wearable video device and video system having the same
JP2016192598A (en) Image management system, server, image management method, server control method, and server program
JP2016184276A (en) Portable terminal, control method of portable terminal, and program for portable terminal
CN114189625B (en) Shooting control method and terminal
KR20150044830A (en) Mobile apparatus and wearable apparatus for displaying information, and methods thereof
KR20170089653A (en) Mobile terminal and method for controlling the same
US20160295546A1 (en) Position estimation apparatus, position estimation method, target terminal, communication method, communication terminal, recording medium, and position estimation system
JP2012249164A (en) Electronic camera and communication system
WO2021000817A1 (en) Ambient sound processing method and related device
CN108111397B (en) Method and device for processing forwarding notification message
US20170208533A1 (en) Controlling communications for driver cell phone interactions in restricted areas
KR101842453B1 (en) Apparatus and method for controlling auto focus function in electronic device
US10956607B2 (en) Controlling non-owner access to media content on a computing device
EP3225510A1 (en) Methods and devices for controlling self-balanced vehicle to park
JP6623568B2 (en) Imaging device, imaging control method, and program
CN113879924A (en) Elevator control method, elevator control device, electronic equipment and storage medium
JP2023519614A (en) Device localization method and related apparatus
JP2013161098A (en) Server device and monitoring system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805