JP2011257879A - Image sharing system - Google Patents

Image sharing system Download PDF

Info

Publication number
JP2011257879A
JP2011257879A JP2010130409A JP2010130409A JP2011257879A JP 2011257879 A JP2011257879 A JP 2011257879A JP 2010130409 A JP2010130409 A JP 2010130409A JP 2010130409 A JP2010130409 A JP 2010130409A JP 2011257879 A JP2011257879 A JP 2011257879A
Authority
JP
Japan
Prior art keywords
image
person
sharing system
server device
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010130409A
Other languages
Japanese (ja)
Inventor
Ai Yamazaki
愛 山崎
Naoya Ninomiya
直也 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010130409A priority Critical patent/JP2011257879A/en
Publication of JP2011257879A publication Critical patent/JP2011257879A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To properly perform image sharing.SOLUTION: An image sharing system 10 comprises a terminal device 11 for acquiring an image and transmitting it to a server device 12, and the server device 12 for storing the image received from the terminal device 11 in a plurality of terminal devices so as to be shared. A face area detection processing unit 23 of the terminal device 11 performs predetermined image processing (for example, a template matching method or a flesh color area detecting method and so on) on the image acquired from various external equipment (for example, a photographing equipment 13 or a recording medium), and detects a face area of a person included in the image. A main controller 34 determines whether the person is included in the image based on a detection result of the face area detection processing unit 23, and transmits the image to the server device 12 when it determines that the person is not included.

Description

本発明は、画像共有システムに関する。   The present invention relates to an image sharing system.

従来、例えば携帯端末によって撮像された画像を撮影場所および撮影時刻と共にサーバに記憶し、サーバに記憶された画像を複数のユーザ間で共有可能としたシステム装置が知られている(例えば、特許文献1参照)。このシステム装置では、サーバ装置は、携帯端末から送信される指定場所と撮影場所とが所定の距離以内に含まれる画像、または、携帯端末から送信される指定時刻と撮影時刻とが所定の時間帯に含まれる画像を抽出して携帯端末に送信し、携帯端末は受信した画像を地図データに重ね合わせて表示する。   2. Description of the Related Art Conventionally, for example, a system device that stores an image captured by a mobile terminal in a server together with a shooting location and a shooting time, and allows the image stored in the server to be shared among a plurality of users (for example, Patent Documents). 1). In this system apparatus, the server device includes an image in which the designated location and the shooting location transmitted from the mobile terminal are included within a predetermined distance, or the specified time and the shooting time transmitted from the mobile terminal are in a predetermined time zone. The image included in is extracted and transmitted to the mobile terminal, and the mobile terminal displays the received image superimposed on the map data.

特開2009−134333号公報JP 2009-134333 A

ところで、上記従来技術に係るシステム装置においては、携帯端末によって撮像された画像をサーバ装置に記憶する際には、操作者によって画像を記憶するか否かが判定されており、携帯端末によって多数の画像が撮像されている場合には、画像をサーバ装置に記憶するために要する作業が煩雑になるという問題が生じる。このような問題に対して、例えば、携帯端末によって撮像された全ての画像をサーバ装置に記憶してしまうと、複数のユーザ間での供給に適さない画像までサーバ装置に記憶されてしまうという問題が生じる。   By the way, in the system apparatus according to the above prior art, when storing the image captured by the mobile terminal in the server apparatus, it is determined whether or not the image is stored by the operator. When an image is captured, there is a problem that the work required to store the image in the server device becomes complicated. For example, if all the images captured by the mobile terminal are stored in the server device, the server device stores images that are not suitable for supply among a plurality of users. Occurs.

本発明は上記事情に鑑みてなされたもので、画像の共有を適切に行なうことが可能な画像共有システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an image sharing system capable of appropriately sharing an image.

上記課題を解決して係る目的を達成するために、本発明の第1態様に係る画像共有システムは、画像を取得してサーバ装置(例えば、実施の形態でのサーバ装置12)に送信する端末装置(例えば、実施の形態での端末装置11)と、前記端末装置から受信した前記画像を複数の端末装置で共有可能に記憶するサーバ装置とからなる画像共有システムであって、前記端末装置は、前記画像を取得する画像取得手段(例えば、実施の形態でのメインコントローラー34、ステップS03)と、前記画像取得手段により取得した前記画像に画像処理を行ない、前記画像に人物が含まれているか否かを判定する人物判定手段(例えば、実施の形態での顔領域検出処理部23およびメインコントローラー34、ステップS05およびステップS06)と、前記人物判定手段により人物が含まれていないと判定された画像を前記画像取得手段により取得した前記画像から抽出する画像抽出手段(例えば、実施の形態でのメインコントローラー34、ステップS07)と、前記画像抽出手段により抽出された前記画像を前記サーバ装置に送信する送信手段(例えば、実施の形態でのメインコントローラー34、ステップS07が兼ねる)とを備える。   In order to solve the above-described problems and achieve the object, the image sharing system according to the first aspect of the present invention acquires an image and transmits it to a server device (for example, the server device 12 in the embodiment). An image sharing system including a device (for example, the terminal device 11 in the embodiment) and a server device that stores the image received from the terminal device so that the image can be shared by a plurality of terminal devices. The image acquisition means for acquiring the image (for example, the main controller 34 in the embodiment, step S03) and the image acquired by the image acquisition means are subjected to image processing, and the image includes a person. Person determination means for determining whether or not (for example, face area detection processing unit 23 and main controller 34 in the embodiment, step S05 and step S06) Image extracting means (for example, the main controller 34 in the embodiment, step S07) for extracting from the image acquired by the image acquiring means an image determined not to include a person by the person determining means; Transmission means for transmitting the image extracted by the image extraction means to the server device (for example, the main controller 34 in the embodiment also serves as step S07).

さらに、本発明の第2態様に係る画像共有システムは、第1態様に係る画像共有システムであって、前記人物判定手段は、テンプレートマッチング法または肌色領域検出法を用いて前記画像に人物が含まれているか否かを判定する。   Furthermore, the image sharing system according to the second aspect of the present invention is the image sharing system according to the first aspect, wherein the person determination means includes a person in the image using a template matching method or a skin color area detection method. It is determined whether or not.

本発明の第1態様に係る画像共有システムによれば、端末装置が取得した画像のうち、人物が含まれていないと判定された画像のみを自動的にサーバ装置に送信することから、サーバ装置に画像を記憶するために煩雑な手間がかかることを防止し、しかも、個人情報の保護に抵触しない適切な画像のみを複数の端末装置で共有することができる。   According to the image sharing system according to the first aspect of the present invention, only the image determined to contain no person among the images acquired by the terminal device is automatically transmitted to the server device. In addition, it is possible to prevent troublesome work for storing images, and to share only appropriate images that do not conflict with the protection of personal information among a plurality of terminal devices.

本発明の第2態様に係る画像共有システムによれば、複数の端末装置で共有する画像を適切に抽出することができる。   The image sharing system according to the second aspect of the present invention can appropriately extract images shared by a plurality of terminal devices.

本発明の実施形態に係る画像共有システムの構成図である。1 is a configuration diagram of an image sharing system according to an embodiment of the present invention. 本発明の実施形態に係る画像共有システムのメインコントローラーが各種の外部機器(例えば、撮影機器や記憶媒体など)から取得した画像の例を示す図である。It is a figure which shows the example of the image which the main controller of the image sharing system which concerns on embodiment of this invention acquired from various external devices (for example, imaging devices, a storage medium, etc.). 本発明の実施形態に係る画像共有システムの画像データ記憶部に記憶された画像を表示するディスプレイの表示画面の例を示す図である。It is a figure which shows the example of the display screen of the display which displays the image memorize | stored in the image data memory | storage part of the image sharing system which concerns on embodiment of this invention. 本発明の実施形態に係る画像共有システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image sharing system which concerns on embodiment of this invention. 本発明の実施形態に係る画像共有システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image sharing system which concerns on embodiment of this invention.

以下、本発明の画像共有システムの一実施形態について添付図面を参照しながら説明する。
この実施の形態による画像共有システム10は、例えば図1に示すように、車両に搭載されたナビゲーション装置などであって、画像を取得してサーバ装置12に送信可能な端末装置11と、端末装置11から受信した画像を複数の端末装置で共有可能に記憶するサーバ装置12とを備えて構成されている。
端末装置11は、各種の外部機器、例えば撮影機器13および携帯電話14および記憶媒体(図示略)などが有線または無線により接続可能とされている。
Hereinafter, an embodiment of an image sharing system of the present invention will be described with reference to the accompanying drawings.
An image sharing system 10 according to this embodiment is, for example, as shown in FIG. 1, a terminal device 11 that is a navigation device mounted on a vehicle and that can acquire an image and transmit it to a server device 12. 11 is configured to include a server device 12 that stores an image received from 11 in a manner that can be shared by a plurality of terminal devices.
The terminal device 11 can be connected to various external devices such as a photographing device 13, a mobile phone 14, and a storage medium (not shown) by wire or wirelessly.

端末装置11は、例えば、通信ドライバ21と、画像データ記憶部22と、顔領域検出処理部23と、サーバ通信部24と、携帯電話I/F25と、現在位置算出部26と、地図データ記憶部27と、ルート探索部28と、操作部29と、表示ドライバ30と、ディスプレイ31と、RAM32と、ROM33と、メインコントローラー34とを備えて構成されている。   The terminal device 11 includes, for example, a communication driver 21, an image data storage unit 22, a face area detection processing unit 23, a server communication unit 24, a mobile phone I / F 25, a current position calculation unit 26, and a map data storage. A unit 27, a route search unit 28, an operation unit 29, a display driver 30, a display 31, a RAM 32, a ROM 33, and a main controller 34 are configured.

通信ドライバ21は、端末装置11に有線または無線により接続される各種の外部機器(例えば、撮影機器13や記憶媒体など)と端末装置11との間の所定の通信規格(例えば、USBなど)の通信を制御する。
画像データ記憶部22は、メインコントローラー34が各種の外部機器(例えば、撮影機器13や記憶媒体など)から取得した画像を、画像に付加されている各種のデータ(例えば、ファイル名および撮影日時およびサーバ装置12への送信有無など)と共に記憶する。
The communication driver 21 conforms to a predetermined communication standard (for example, USB) between the terminal device 11 and various external devices (for example, the imaging device 13 and storage medium) connected to the terminal device 11 by wire or wirelessly. Control communication.
The image data storage unit 22 stores images acquired by the main controller 34 from various external devices (for example, the photographing device 13 and storage medium), and various data added to the images (for example, file names, photographing dates and times, and the like). And the like, etc.).

顔領域検出処理部23は、メインコントローラー34が各種の外部機器(例えば、撮影機器13や記憶媒体など)から取得した画像に所定の画像処理(例えば、テンプレートマッチング法または肌色領域検出法など)を行ない、画像に含まれる人物の顔領域を検出し、検出結果を出力する。
顔領域検出処理部23は、例えば図2(A)に示すような風景のみの画像に対して、人物の顔領域を検出することはできず、人物の顔領域が存在しないことを示す検出結果を出力する。一方、例えば図2(B)に示すような人物を含む画像に対して、人物の顔領域Fa,Fbを検出し、人物の顔領域が存在することを示す検出結果を出力する。
The face area detection processing unit 23 performs predetermined image processing (for example, a template matching method or a skin color area detection method) on an image acquired by the main controller 34 from various external devices (for example, the imaging device 13 or a storage medium). The human face area included in the image is detected, and the detection result is output.
The face area detection processing unit 23 cannot detect a person's face area, for example, for a landscape-only image as shown in FIG. 2A, and a detection result indicating that no person's face area exists. Is output. On the other hand, for example, for an image including a person as shown in FIG. 2B, the face areas Fa and Fb of the person are detected, and a detection result indicating that the face area of the person exists is output.

サーバ通信部24は、端末装置11の外部のサーバ装置12と、端末装置11との間の無線通信を制御する。
携帯電話I/F25は、端末装置11に有線または無線により接続される操作者の携帯電話14と端末装置11との間の通信を制御する。
The server communication unit 24 controls wireless communication between the server device 12 outside the terminal device 11 and the terminal device 11.
The mobile phone I / F 25 controls communication between the operator's mobile phone 14 connected to the terminal device 11 by wire or wireless and the terminal device 11.

現在位置算出部26は、例えばアンテナ26aにより受信したGPS信号などの測位信号によって、さらには、車両に搭載された車速センサ(図示略)およびヨーレートセンサ(図示略)などから出力される検出信号に基づく自律航法の算出処理によって、端末装置11の現在位置を算出する。   The current position calculation unit 26 uses, for example, a positioning signal such as a GPS signal received by the antenna 26a, and further detects a detection signal output from a vehicle speed sensor (not shown) and a yaw rate sensor (not shown) mounted on the vehicle. The current position of the terminal device 11 is calculated by the calculation processing based on the autonomous navigation.

地図データ記憶部27は、ディスプレイ31に地図画像を表示するための地図データと、道路の接続状態および形状などの情報からなる道路データとを記憶している。
地図データは、例えば、地形図のデータと、各種の施設および街区および湖沼等に対応したポリゴンのデータと、各ポリゴンに対応付けられた施設名および地名などの文字のデータとなどから構成されている。
道路データは、例えば、ノード(つまり、道路形状を把握するための座標点)および各ノード間を結ぶ線であるリンクと、各リンクの距離と、道路の交差角度および形状および幅員および種別などのデータとから構成されている。
The map data storage unit 27 stores map data for displaying a map image on the display 31, and road data including information such as a connection state and a shape of the road.
The map data is composed of, for example, topographic map data, polygon data corresponding to various facilities, blocks, lakes, and the like, and character data such as facility names and place names associated with each polygon. Yes.
The road data includes, for example, a node (that is, a coordinate point for grasping the road shape), a link that is a line connecting each node, a distance of each link, a road intersection angle, shape, width, type, and the like. It consists of data.

ルート探索部28は、現在位置算出部26により算出された現在位置から操作部29に対する操作者の入力操作などによって設定された目的地までの経路を探索する。
操作部29は、例えばディスプレイ31に組み込まれたタッチパッドなどの位置入力装置や各種のスイッチなどを備えて構成されている。
The route search unit 28 searches for a route from the current position calculated by the current position calculation unit 26 to a destination set by an operator's input operation to the operation unit 29 or the like.
The operation unit 29 includes, for example, a position input device such as a touch pad incorporated in the display 31 and various switches.

表示ドライバ30は、メインコントローラー34から出力される指令信号に応じて、液晶表示器などからなるディスプレイ31での表示を制御する。   The display driver 30 controls display on the display 31 composed of a liquid crystal display or the like in accordance with a command signal output from the main controller 34.

メインコントローラー34は、端末装置11に接続されて通信ドライバ21により通信が制御される各種の外部機器(例えば、撮影機器13や記憶媒体など)から取得した画像に所定の画像処理(例えば、テンプレートマッチング法または肌色領域検出法など)を行なうことを顔領域検出処理部23に指示する。そして、顔領域検出処理部23から出力される検出結果に応じて、画像に人物が含まれているか否かを判定する。
そして、人物が含まれていないと判定された画像を、各種の外部機器(例えば、撮影機器13や記憶媒体など)から取得した画像から抽出して、抽出した画像を、サーバ通信部24により直接的にサーバ装置12に送信あるいは端末装置11に接続される操作者の携帯電話14を介して間接的にサーバ装置12に送信することを指示する。
The main controller 34 is connected to the terminal device 11 and performs predetermined image processing (for example, template matching) on images acquired from various external devices (for example, the imaging device 13 and a storage medium) whose communication is controlled by the communication driver 21. The face region detection processing unit 23 is instructed to perform a method or a skin color region detection method). Then, according to the detection result output from the face area detection processing unit 23, it is determined whether or not a person is included in the image.
Then, an image determined not to include a person is extracted from images acquired from various external devices (for example, the imaging device 13 and a storage medium), and the extracted image is directly received by the server communication unit 24. Instructed to transmit to the server device 12 or indirectly to the server device 12 via the operator's mobile phone 14 connected to the terminal device 11.

そして、メインコントローラー34は、各種の外部機器(例えば、撮影機器13や記憶媒体など)から取得した画像を、各種のデータ(例えば、ファイル名および撮影日時およびサーバ装置12への送信有無など)と共に画像データ記憶部22に記憶する。   The main controller 34 then captures an image acquired from various external devices (for example, the photographing device 13 and a storage medium) together with various data (for example, a file name, a photographing date and time, and whether or not to be transmitted to the server device 12). The image data is stored in the image data storage unit 22.

また、メインコントローラー34は、画像データ記憶部22に記憶されている画像をディスプレイ31に表示することを所定のタイミングで表示ドライバ30に指示する。
なお、所定のタイミングは、例えば各種の外部機器(例えば、撮影機器13や記憶媒体など)から画像を取得して画像データ記憶部22に記憶したときや、例えば操作部29に対して操作者の所定の入力操作(つまり、画像データ記憶部22に記憶されている画像の表示を指示する入力操作)が行なわれたときなどである。
Further, the main controller 34 instructs the display driver 30 to display the image stored in the image data storage unit 22 on the display 31 at a predetermined timing.
Note that the predetermined timing is determined when, for example, an image is acquired from various external devices (for example, the photographing device 13 or a storage medium) and stored in the image data storage unit 22, or for example, the operation unit 29 is operated by the operator. For example, when a predetermined input operation (that is, an input operation for instructing display of an image stored in the image data storage unit 22) is performed.

メインコントローラー34は、画像データ記憶部22に記憶されている画像をディスプレイ31に表示する場合には、例えば図3に示すように、各画像のファイル名(例えば、PICA〜PICE.jpgなど)と、サーバ装置12への送信有無を示す文字(例えば、「サーバ登録済み」など)となどの各種のデータを、各画像と共に表示する。   When the main controller 34 displays the image stored in the image data storage unit 22 on the display 31, for example, as shown in FIG. 3, the file name of each image (for example, PICA to PICE.jpg) and the like. Various data such as characters indicating the presence / absence of transmission to the server device 12 (for example, “server registered”) and the like are displayed together with each image.

この実施形態による画像共有システム10は上記構成を備えており、次に、この画像共有システム10の動作について説明する。   The image sharing system 10 according to this embodiment has the above-described configuration. Next, the operation of the image sharing system 10 will be described.

先ず、例えば図4に示すステップS01においては、各種の外部機器(例えば、撮影機器13や記憶媒体など)を端末装置11に接続する。
次に、ステップS02においては、端末装置11に接続された外部機器(例えば、撮影機器13や記憶媒体など)から画像の取り込みを開始する。
次に、ステップS03においては、外部機器(例えば、撮影機器13や記憶媒体など)から、任意の自然数nによるn個の画像P(n)を取得する。
First, for example, in step S01 shown in FIG. 4, various external devices (for example, the photographing device 13 and a storage medium) are connected to the terminal device 11.
Next, in step S02, image capture is started from an external device (for example, the photographing device 13 or a storage medium) connected to the terminal device 11.
Next, in step S03, n images P (n) with an arbitrary natural number n are acquired from an external device (for example, the photographing device 13 or a storage medium).

次に、ステップS04においては、カウンタkに初期値の「1」を設定する。
次に、ステップS05においては、後述するように、カウンタkによるk番目の画像P(k)に対して人物の顔領域を検出するための所定の画像処理(顔領域検出処理)を実行する。
次に、ステップS06においては、画像P(k)は人物の顔が存在する画像であるか否かを判定する。
この判定結果が「YES」の場合には、後述するステップS08に進む。
一方、この判定結果が「NO」の場合には、ステップS07に進む。
Next, in step S04, an initial value “1” is set in the counter k.
Next, in step S05, as will be described later, predetermined image processing (face region detection processing) for detecting a human face region is performed on the kth image P (k) by the counter k.
Next, in step S06, it is determined whether or not the image P (k) is an image in which a human face exists.
If this determination is “YES”, the flow proceeds to step S 08 described later.
On the other hand, if this determination is “NO”, the flow proceeds to step S 07.

そして、ステップS07においては、人物の顔が存在する画像ではないと判定された画像P(k)をサーバ装置12に送信する。
そして、ステップS08においては、画像P(k)を画像データ記憶部22に記憶する。
そして、ステップS09においては、カウンタkが自然数nに等しいか否かを判定する。
この判定結果が「NO」の場合には、ステップS10に進み、このステップS10においては、カウンタkを「1」だけカウントアップして、上述したステップS05に戻る。
一方、この判定結果が「YES」の場合には、エンドに進む。
In step S07, the image P (k) determined not to be an image having a human face is transmitted to the server device 12.
In step S08, the image P (k) is stored in the image data storage unit 22.
In step S09, it is determined whether or not the counter k is equal to the natural number n.
If this determination is “NO”, the flow proceeds to step S 10, and in this step S 10, the counter k is incremented by “1”, and the flow returns to the above-described step S 05.
On the other hand, if this determination is “YES”, the flow proceeds to the end.

以下に、上述したステップS05の処理として、例えばテンプレートマッチング法により人物の顔領域を検出する処理について説明する。
先ず、例えば図5に示すステップS21においては、画像P(k)に対して人物の顔などの所定のテンプレートを用いた走査を行なう。
次に、ステップS22においては、画像P(k)内に所定のテンプレートとの類似度が所定の閾値以上の領域が存在するか否かを判定する。
この判定結果が「YES」の場合には、ステップS23に進み、このステップS23においては、画像P(k)に人物の顔領域が存在すると判断して、エンドに進む。
一方、この判定結果が「NO」の場合には、ステップS24に進み、このステップS24においては、画像P(k)に人物の顔領域が存在しないと判断して、エンドに進む。
Hereinafter, as the process of step S05 described above, a process of detecting a human face area by, for example, a template matching method will be described.
First, for example, in step S21 shown in FIG. 5, the image P (k) is scanned using a predetermined template such as a human face.
Next, in step S22, it is determined whether or not there is an area in the image P (k) whose similarity with a predetermined template is equal to or greater than a predetermined threshold.
If this determination result is "YES", the process proceeds to step S23, and in this step S23, it is determined that a human face area exists in the image P (k), and the process proceeds to the end.
On the other hand, if this determination is “NO”, the flow proceeds to step S 24, and in this step S 24, it is determined that no human face area exists in the image P (k), and the flow proceeds to the end.

上述したように、本発明の実施形態による画像共有システム10によれば、端末装置11が取得した画像のうち、人物が含まれていないと判定された画像のみを自動的にサーバ装置12に送信することから、サーバ装置12に画像を記憶するために煩雑な手間がかかることを防止することができる。しかも、個人情報の保護に抵触しない適切な画像のみをサーバ装置12に送信することで、適切な画像のみを複数の端末装置11で共有することができる。
さらに、所定の画像処理、例えばテンプレートマッチング法または肌色領域検出法などにより、画像に人物が含まれているか否かを精度良く判定することができ、サーバ装置12を介して複数の端末装置11で共有する画像を適切に判定することができる。
As described above, according to the image sharing system 10 according to the embodiment of the present invention, of the images acquired by the terminal device 11, only the image determined not to include a person is automatically transmitted to the server device 12. Therefore, it is possible to prevent troublesome work for storing the image in the server device 12. In addition, by transmitting only appropriate images that do not conflict with the protection of personal information to the server device 12, only appropriate images can be shared by the plurality of terminal devices 11.
Furthermore, it is possible to accurately determine whether or not a person is included in the image by a predetermined image processing, for example, a template matching method or a skin color area detection method, and a plurality of terminal devices 11 via the server device 12. An image to be shared can be appropriately determined.

なお、上述した実施の形態においては、サーバ通信部24および携帯電話I/F25を備えるとしたが、これに限定されず、サーバ通信部24または携帯電話I/F25の何れか一方が省略されてもよい。   In the above-described embodiment, the server communication unit 24 and the mobile phone I / F 25 are provided. However, the present invention is not limited to this, and either the server communication unit 24 or the mobile phone I / F 25 is omitted. Also good.

10 画像共有システム
11 端末装置
12 サーバ装置
23 顔領域検出処理部(人物判定手段)
34 メインコントローラー(画像取得手段、人物判定手段、画像抽出手段、送信手段)
ステップS03 画像取得手段
ステップS05,06 人物判定手段
ステップS07 画像抽出手段、送信手段
DESCRIPTION OF SYMBOLS 10 Image sharing system 11 Terminal apparatus 12 Server apparatus 23 Face area detection process part (person determination means)
34 Main controller (image acquisition means, person determination means, image extraction means, transmission means)
Step S03 Image acquisition means Step S05, 06 Person determination means Step S07 Image extraction means, transmission means

Claims (2)

画像を取得してサーバ装置に送信する端末装置と、
前記端末装置から受信した前記画像を複数の端末装置で共有可能に記憶するサーバ装置とからなる画像共有システムであって、
前記端末装置は、
前記画像を取得する画像取得手段と、
前記画像取得手段により取得した前記画像に画像処理を行ない、前記画像に人物が含まれているか否かを判定する人物判定手段と、
前記人物判定手段により人物が含まれていないと判定された画像を前記画像取得手段により取得した前記画像から抽出する画像抽出手段と、
前記画像抽出手段により抽出された前記画像を前記サーバ装置に送信する送信手段とを備えることを特徴とする画像共有システム。
A terminal device that acquires images and transmits them to the server device;
An image sharing system comprising a server device that stores the image received from the terminal device so as to be sharable by a plurality of terminal devices,
The terminal device
Image acquisition means for acquiring the image;
Person determination means for performing image processing on the image acquired by the image acquisition means and determining whether or not a person is included in the image;
An image extracting means for extracting from the image acquired by the image acquiring means an image determined not to include a person by the person determining means;
An image sharing system comprising: a transmission unit that transmits the image extracted by the image extraction unit to the server device.
請求項1に記載の画像共有システムであって、
前記人物判定手段は、テンプレートマッチング法または肌色領域検出法を用いて前記画像に人物が含まれているか否かを判定することを特徴とする画像共有システム。
The image sharing system according to claim 1,
The said person determination means determines whether the person is contained in the said image using the template matching method or the skin color area | region detection method, The image sharing system characterized by the above-mentioned.
JP2010130409A 2010-06-07 2010-06-07 Image sharing system Pending JP2011257879A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010130409A JP2011257879A (en) 2010-06-07 2010-06-07 Image sharing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010130409A JP2011257879A (en) 2010-06-07 2010-06-07 Image sharing system

Publications (1)

Publication Number Publication Date
JP2011257879A true JP2011257879A (en) 2011-12-22

Family

ID=45474019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010130409A Pending JP2011257879A (en) 2010-06-07 2010-06-07 Image sharing system

Country Status (1)

Country Link
JP (1) JP2011257879A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191035A (en) * 2012-03-14 2013-09-26 Fujifilm Corp Image disclosure device, image disclosure method, image disclosure system, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191035A (en) * 2012-03-14 2013-09-26 Fujifilm Corp Image disclosure device, image disclosure method, image disclosure system, and program

Similar Documents

Publication Publication Date Title
EP1879373A1 (en) Image capturing device with automatic file name generation using detected location information
JP2005185560A5 (en)
WO2018042922A1 (en) Driving condition recording apparatus
JP2018041122A (en) Drive recorder
JP2020086659A (en) Information processing system, program, and information processing method
US11935336B2 (en) Drive recorder, method of operating drive recorder, and recording medium storing instructions for operating same
JP2012019374A (en) Electronic album creation server, information processor, electronic album creation system, and control method of electronic album creation server
JP2016071705A (en) Information acquisition program and information providing device
JP2011257879A (en) Image sharing system
JP2019012466A (en) Drive recorder operation system, drive recorder, operation method, and operation program
KR101669167B1 (en) Method for providing vehicles information using floating user interface apparatus therefor
US20220198193A1 (en) Information display device, information display method and program
JP2016133701A (en) Information providing system and information providing method
KR20110013755A (en) Navigation device and method for notifying car accident employing the same
JP6168926B2 (en) Information processing apparatus, display system, and control method
JP2008249428A (en) Navigator and its control method
US10306096B2 (en) Image forming system selecting plurality of image parts obtained by dividing original image data on basis of history of position information of wearable device. and forming image
JP5592525B2 (en) Action management system and action management program
JP6508950B2 (en) Terminal equipment
JP6833472B2 (en) In-vehicle device and information processing system
KR101080802B1 (en) System for Servicing Circumference Environment Information
US20230137094A1 (en) Measurement device, measurement system, measurement method, and computer program product
JP2020173703A (en) Information processing device
WO2005076158A1 (en) Information terminal, time table information display program, and time table information display method
JP2015014928A (en) Information processing device, information processing method, program, management system, and management method