JP2004357145A - Electronic equipment - Google Patents

Electronic equipment Download PDF

Info

Publication number
JP2004357145A
JP2004357145A JP2003154734A JP2003154734A JP2004357145A JP 2004357145 A JP2004357145 A JP 2004357145A JP 2003154734 A JP2003154734 A JP 2003154734A JP 2003154734 A JP2003154734 A JP 2003154734A JP 2004357145 A JP2004357145 A JP 2004357145A
Authority
JP
Japan
Prior art keywords
information
identification information
electronic device
unit
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003154734A
Other languages
Japanese (ja)
Inventor
Toshiyuki Nagaoka
利之 永岡
Hiroyuki Namikata
寛之 南方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003154734A priority Critical patent/JP2004357145A/en
Publication of JP2004357145A publication Critical patent/JP2004357145A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To prevent antisocial use by specifying a photographer from image information photographed by electronic equipment. <P>SOLUTION: The electronic equipment having an image pickup unit 11a which picks up an image, an information reading unit 2 which reads identification information 51a unique to the image pickup unit 11a, a processing circuit 3a which creates composite image information 5a by combining at least the picked up image information 52 and the identification information 51a read by the information reading unit 2 and an antenna which outputs the composite image information 5a created by the processing circuit 3a is provided. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、電子機器に関し、特に、撮像装置を備える携帯電話機や携帯情報端末に関するものである。
【0002】
【従来の技術】
近年、携帯端末が普及してきている。この携帯端末としては、携帯電話機やPDA(携帯情報端末)等がある。このような普及状況の中で、これらに撮影機能を備えたものが供給されるようになってきた(例えば、特許文献1等参照。)。このような撮影機能付きの携帯端末を用いると、簡単に撮像対象物の静止画像または動画像を撮像することができる。そして、撮像された画像は、例えば、画像データとしてメモリに記録して保存することができる。あるいは、電子メールに添付して送信したり、待受画面や着信画面として表示することができる。
【0003】
【特許文献1】
特開2003−60764号公報
【0004】
【発明が解決しようとする課題】
しかしながら、このように気軽に画像が撮像できるようになってくると、その携帯性および利便性を逆手にとって、悪意の行為を行う使用者が現れることも予想される。例えば、電車の中で盗撮を行う等の、反社会的行為に及ぶ使用者が現れることも予想される。しかも、そのようにして撮影された画像は、容易に他の電子機器等に出力可能である。そのため、電話網やインターネット等を利用して広まることが予想される。そして、一度広まってしまうと、これらの画像の撮影者を突き止めるのは非常に困難である。
【0005】
本発明は、このような事情に鑑みてなされたもので、盗撮等の反社会的な行為を防止する電子機器を提供することを目的としている。また、反社会的な行為を防止し、しかも小型である電子機器を提供することを目的としている。
【0006】
【課題を解決するための手段】
上記目的を達成するために、本発明は以下の手段を提供する。
請求項1に係る発明は、被写体を撮像する撮像ユニットと、識別情報を読み出す識別情報読出しユニットと、該撮像ユニットで得られた画像情報と前記識別情報読出しユニットで読み出した識別情報とを合成して合成画像情報を作成する情報作成ユニットと、前記合成画像情報を出力する情報出力ユニットとを備える電子機器を提供する。
【0007】
この発明によれば、撮像ユニットにより撮像された被写体は、画像情報に変換される。一方、識別情報が、識別情報読出しユニットにより読み出される。そして、この画像情報と識別情報とが、情報作成ユニットより合成されて合成画像情報が作成される。そして、情報出力ユニットにより、合成画像情報が外部に出力される。このとき、識別情報を組み込んだ合成画像情報が出力される。そこで、この合成画像情報に組み込まれている識別情報を抽出(分析・分解・分離)することにより、撮像に関することを特定することが可能となる。
例えば、識別情報の種類により、撮影に使われた電子機器、撮影者、撮影場所、撮影時間等の撮影情報が特定できる。本発明によれば、盗撮等の反社会的行為による画像を公開すると、上記の撮影情報が公になる。そのため、盗撮等の反社会的行為を防止することができる。
【0008】
請求項2に係る発明は、請求項1記載の電子機器において、前記撮像ユニットが光学ユニットを備え、該光学ユニットが光学系と該光学系を保持する保持機構とを有し、前記識別情報が前記光学ユニットに固有の識別情報である電子機器を提供する。
請求項3に係る発明は、請求項1記載の電子機器において、前記撮像ユニットが光学系と該光学系を保持する保持機構とを有し、前記識別情報が前記保持機構に固有の識別情報である電子機器を提供する。
請求項4に係る発明は、請求項1記載の電子機器において、前記撮像ユニットが光学系と該光学系を保持する保持機構とを有し、前記識別情報が前記光学系に固有の識別情報である電子機器を提供する。
請求項5に係る発明は、請求項1記載の電子機器において、前記撮像ユニットが撮像素子を備え、前記識別情報が前記撮像素子に固有の識別情報である電子機器を提供する。
請求項6に係る発明は、請求項5記載の電子機器において、前記識別情報が撮像素子に記録されている情報である電子機器を提供する。
【0009】
この発明によれば、識別情報が撮像ユニットに起因する情報となっている。そこで、この合成画像情報に組み込まれている識別情報を抽出することにより、撮像に使われた電子機器を特定することが可能となる。
【0010】
請求項7に係る発明は、請求項1から請求項6のいずれか1項に記載の電子機器において、前記合成画像情報から抽出可能に、前記識別情報が前記画像情報と合成されている電子機器を提供する。
この発明によれば、識別情報は、合成画像情報から分解可能になっている。よって、合成画像情報の受け取り側において、識別情報を抽出することができる。
【0011】
請求項8に係る発明は、請求項1から請求項7のいずれか1項に記載の電子機器において、前記合成画像情報の作成時に、前記情報作成ユニットが、当該画像が得られた時間を特定することができる時間情報を合成する機能を有する電子機器を提供する。
請求項9に係る発明は、請求項1から請求項7のいずれか1項に記載の電子機器において、前記合成画像情報の作成時に、前記情報作成ユニットが、当該画像が得られた位置を特定することができる位置情報を合成する機能を有する電子機器を提供する。
この発明によれば、合成画像情報に組み込まれている識別情報を抽出することにより、画像が得られた時間や位置、即ち被写体が撮影された時間や位置を特定することができる。
【0012】
請求項10に係る発明は、請求項1から請求項9のいずれか1項に記載の電子機器において、利用者の識別情報を入力する利用者識別情報入力部を備える電子機器を提供する。
請求項11に係る発明は、請求項10記載の電子機器において、前記利用者の識別情報が利用者の指紋情報を含む電子機器を提供する。
請求項12に係る発明は、請求項10記載の電子機器において、前記利用者の識別情報が利用者の虹彩情報を含む電子機器を提供する。
【0013】
請求項13に係る発明は、請求項10から請求項12のいずれか1項に記載の電子機器において、前記情報作成ユニットが、前記利用者の識別情報または該利用者の識別情報に基づく利用者情報を合成する機能を有する電子機器を提供する。
この発明によれば、合成画像情報に組み込まれている識別情報を抽出することにより、画像を得た利用者、即ち被写体を撮影した利用者(撮影者)を特定することができる。
【0014】
請求項14に係る発明は、請求項1に記載の電子機器において、前記撮像ユニットが光学系を有し、該光学系が正のパワーを有する正レンズと負のパワーを有する負レンズとを少なくとも1枚ずつ有する電子機器を提供する。
請求項15に係る発明は、請求項14記載の電子機器において、前記正レンズおよび前記負レンズが接合レンズである電子機器を提供する。
請求項16に係る発明は、請求項14に記載の電子機器において、前記光学系が樹脂材料により製作されたレンズを有する電子機器を提供する。
【0015】
請求項17に係る発明は、請求項14に記載の電子機器において、前記光学系が非球面形状を有する光学素子を含む電子機器を提供する。
この発明によれば、小型の光学系を提供できる。よって、識別情報を有する電子機器の小型化を実現できる。
【0016】
請求項18に係る発明は、請求項1から請求項17のいずれか1項に記載の電子機器において、音声入力手段を有する電子機器を提供する。
本発明によれば、音声入力によってボタンを操作せずに、各種の制御をすることができる。又、音声を識別情報として利用することもできる。
【0017】
請求項19に係る発明は、請求項1から請求項18のいずれか1項に記載の電子機器において、携帯電話機能を有する電子機器を提供する。
請求項20に係る発明は、請求項1から請求項18のいずれか1項に記載の電子機器において、携帯情報端末機能を有する電子機器を提供する。
【0018】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明の第1の実施形態に係る携帯電話機(電子機器)の構成を示す図である。ここで、図1(a)は全体構成、図1(b)は撮像ユニット11aを示している。
本実施形態に係る携帯電話機10は、カメラ1aと、情報出力ユニットであるアンテナ41、情報表示ユニットであるディスプレイ42と、各種命令を入力する操作キー61と、音声入力ユニットであるマイクロホン62とを備えている。
また、図2に示すように、本体内部には、記憶ユニットであるメモリ4と、識別情報読出しユニットである読み出し回路2と、情報作成ユニットである処理回路3aとを備えている。メモリ4は、識別情報や画像情報等の各種情報を記憶するようになっている。読み出し回路2は、メモリ4内に記憶されている識別情報を読み出すようになっている。処理回路3aは、識別情報と画像情報を合成して合成画像情報を行うようになっている。
【0019】
ディスプレイ42には、カメラ1aにより撮像された被写体の画像、携帯電話機10内部に記憶された各種データ、操作キー61による入力内容、現在の時刻、現在の位置情報等を表示できるようになっている。
また、アンテナ41により無線通信が行える。この無線通信を用いて、音声通話(音声情報)や撮像した画像データ等のデータ通信を行うことが可能である。なお、無線通信の代わりに、有線による通信を行ってもよい。また、マイクロホン62は、音声通話に用いられたり、操作キー61の代用として用いられるようになっている。
【0020】
図1(b)に示されるように、カメラ1aは撮像ユニット11aを備えている。撮像ユニット11aは、光学系12aと、光学系12aを保持する保持機構13と、撮像素子であるCCD14aとから構成されている。光学系12aが変倍光学系の場合、保持機構13は光学系12aを保持するだけでなく、光学系12aを移動させる移動機構(不図示)を有する。また、この移動機構は、ピント調整に使用することも可能である。
【0021】
次に、本実施形態に係る携帯電話機10において、合成画像情報を得るための概略を図2を参照して説明する。
撮像ユニット11aからは、撮像ユニット11aに固有の識別番号51aと画像情報52が出力される。このうち、固有の識別番号51aは、読み出し回路2によって読み取られる。読み取られた固有の識別番号51aは、メモリ4に記憶される。なお、読み出し回路2にメモリを設ければ、読み出し回路2内で、固有の識別番号51aの記憶ができる。一方、画像情報52はメモリ4に記憶される。
【0022】
処理回路3aは、メモリ4から、識別番号51aと画像情報52を読み出す。そして、読み出された識別番号51aと画像情報52とを使って、画像を合成する処理を行う。その結果、合成画像情報5aが得られる。なおこの合成処理には、「電子透かし」技術を用いることができる。このとき、識別情報51aは、外部から見えないように合成画像情報5a内に埋め込まれている。
なお、特定の電子フィルタ(図示略)を通すことにより、識別情報51aは可視化できるようになっている。また、固有の識別番号51aと画像情報52の合成処理は、自動的(強制的)に行われる。
【0023】
次に、本実施形態における情報作成ユニット3aの処理の流れを、図3のフローチャートを用いて説明する。
まず、ステップSa01において、撮像ユニット11a(カメラ1a)によって被写体の撮影が行われ、画像情報52が得られる。画像情報52は、携帯電話機10内のメモリ4内に一時的に記録される。次いで、ステップSa02において、画像情報52がディスプレイ42に表示される。
【0024】
そして、次のステップSa03において、この画像情報52に対してユーザが保存を行うかどうかの確認が行われる。ここで、保存しない場合には処理を終了し、保存する場合には次のステップSa04に進む。次のステップSa04において、読出し回路2により、撮像ユニット11aに固有の識別番号51aが読み出される。この固有の識別番号51aも、携帯電話機10内のメモリ4内に一時的に記録される。
【0025】
次いで、ステップSa05において、処理回路3aにより、メモリ内に一時的に保存されている画像情報52と固有の識別番号51aが合成され、合成画像情報5aが作成される。次のステップSa06において、この合成画像情報5aに対してユーザが送信を行うかどうかの確認が行われる。ここで、送信しないことを選択した場合には処理を終了する。一方、ユーザが送信を選択した場合には、次のステップSa07に進む。ステップSa07では、アンテナ41を用いて他の携帯電話機等の電子機器あるいはサーバーに合成画像情報5aが送信される。
【0026】
本実施形態によれば、合成画像情報5aには、撮像ユニット11aに固有の識別番号51aが含まれている。そして、この識別番号51aは、特定の電子フィルタ(図示略)を通すことにより、可視化できるようになっている。よって、合成画像情報5aを公開した場合、この識別番号51aも公開されるようにしておけば、撮影に使われた電子機器を特定できる。よって、画像の出所を突き止めることが可能となる。その結果、反社会的な行為を行ったユーザを、突き止めることが可能となる。
【0027】
なお、本実施形態では、識別情報が、撮像ユニット11aに固有の番号であった。これ以外としては、識別情報は、光学系12aに固有の番号、保持機構13に固有の番号、撮像素子であるCCD14aに固有の番号の何れであってもよい。あるいは、識別情報は、光学系12aと保持機構13とで構成される保持ユニットに固有の番号であってもよい。
また、電子機器に位置情報を特定できる機能(GPS)を持たせてもよい。そして、図2に示すように、この位置情報を識別情報53として、合成画像情報5aに含まれるようにしてもよい。このようにすれば、被写体の撮影がどの場所で行われたのか特定できる。
なお、このようなことは、他の実施形態にも適用可能である。
【0028】
また、本実施形態では、撮像ユニット11aによって得られる画像は静止画である。ただし、画像情報が動画であっても構わない。その際、動画を構成する各画像に、識別情報が含まれるようにしておくのが好ましい。
また、識別情報は、画像情報自体に含まれるように合成されている。これに代えて、ヘッダ部分に合成するようにしてもよい。なお、このようなことは、他の実施形態にも適用可能である。
【0029】
次に、本実施形態に用いる光学系12aについて説明する。光学系12aのレンズ断面図および収差図をそれぞれ図4、図5に示す。光学系12aは、両凸レンズと、物体側に凹面を向けた負メニスカスレンズとからなる。そして、負メニスカスレンズは樹脂材料により製作されている。これらのレンズは、全ての面に非球面が用いられている。
【0030】
以下に、本実施形態の光学系の数値データを示すが、fは全系焦点距離、ωは半画角、FNOはFナンバー、rはレンズ面の曲率半径、dはレンズ面間の間隔、ndはレンズのd線の屈折率、νdはレンズのアッベ数である。f,r,dの単位はmmである。
なお、非球面形状は、xを光の進行方向を正とした光軸とし、yを光軸と直交する方向にとると、下記の式にて表される。
【0031】
x=(y /r)/[1+{1−(K+1)(y/r)1/2 ]+A4y +A6y +A8y+A10y10
ここで、rは近軸曲率半径、Kは円錐係数、A4,A6,A8,A10は、それぞれ4次、6次、8次、10次の非球面係数である。
【0032】
f:5.0mm
ω:30.5°
FNO:3.5
【0033】

Figure 2004357145
【0034】
各非球面の非球面係数は表1の通りである。
【表1】
Figure 2004357145
【0035】
次に、本発明の第2実施形態に係る電子機器について説明する。本実施形態の電子機器は携帯電話機である。この携帯電話機は、立体撮像機能付き携帯電話機20(以下、単に、携帯電話機20という。)である。図6は、携帯電話機20の構成を示す図である。ここで、図6(a)は全体構成、図6(b)は撮像ユニット11bを示している。なお、第1実施形態と同じ構成については同じ符号を付して、その説明は省略する。
携帯電話機20は、第1のカメラ1bと第2のカメラ1cとを備えている。アンテナ41、ディスプレイ42、操作キー61、マイクロホン62を備えている。また、図7に示すように、本体内部には、メモリ4、読出し回路2、処理回路3bを備えている。
【0036】
ディスプレイ42には、第1実施形態と同じように各種の情報が表示される。更に、ディスプレイ42は、立体表示が可能である。
また、本実施形態においても、アンテナ41を使って、音声通話や撮像した画像データ等のデータ通信を行うことができる。但し、本実施形態の携帯電話機20では、本体の一端に、コネクタ43が設けられている。そして、このコネクタ43にケーブル44を繋いで、他の電子機器やネットワークと接続することができる。すなわち、有線による通信により、音声通話や撮像した画像情報等のデータ通信を行うことができるようになっている。
なお、マイクロホン62は、音声通話に用いられたり、操作キー61の代用として用いられる。
【0037】
また、カメラ1bは、撮像ユニット11bを備えている。撮像ユニット11bは、光学系12bと、保持機構13と、CMOS14bとを備えている。また、カメラ1bと同様に、カメラ1cも、撮像ユニット11cを備えている。撮像ユニット11cも、光学系と、保持機構と、CMOSとを備えている。なお、保持機構13は、移動機構を備えていてもよい。
【0038】
次に、本実施形態に係る携帯電話機20において、合成画像情報を得るための概略を図7を参照して説明する。
撮像ユニット(第1のカメラ)11bからは、撮像ユニット11bに固有の識別番号51bと画像情報52bとが出力される。このうち、固有の識別番号51bは、読み出し回路2によって読み取られる。読み取られた固有の識別番号51bは、読み出し回路2内に設けたメモリ(不図示)に記憶される。一方、撮像ユニット(第2のカメラ)1cからは、画像情報52cが出力される。画像情報52b,52cは、それぞれメモリ4に記憶される。
【0039】
処理回路3bは、識別番号51bを読み出し回路2から読み出すと共に、画像情報52bと画像情報52cをメモリ4から読み出す。そして、識別番号51b、画像情報52b及び画像情報52cを使って、画像を合成する処理を行う。その結果、合成画像情報5bが得られる。なおこの合成処理には、「電子透かし」技術を用いることができる。このとき、識別情報51bは、外部から見えないように合成画像情報5b内に埋め込まれている。
なお、特定の電子フィルタ(図示略)を通すことにより、識別情報51bは可視化できるようになっている。また、固有の識別番号51b、画像情報52bおよび画像情報52cの合成処理は、自動的(強制的)に行われる。
【0040】
画像を合成する処理においては、識別番号51bが、画像情報52bのみに含まれるようにする。ただし、識別番号51bが、画像情報52cのみに含まれるようにしてもよい。
あるいは、識別番号51bが、画像情報52bと画像情報52cの両方に含まれるようにしてもよい。その際、画像情報52bも画像情報52cも、同じ識別番号51bを含むようにすればよい。また、識別番号51bのうちの一部を画像情報52bに含ませ、残りの部分を画像情報52cに含ませるようにしてもよい。
また、撮像ユニット(第2のカメラ)11cにも、識別番号を持たせておいてもよい。そして、この識別番号も、合成画像情報5bに含ませるようにしてもよい。その際、識別番号の含ませ方は、上述した方法を用いればよい。
【0041】
ここで、本実施形態では、撮影時における情報として、次の2つの情報を有している。1つは、撮像ユニット11b(カメラ1b)の傾き情報54bである。もう一つは、撮像ユニット11c(カメラ1c)の傾き情報54cである。傾き情報は、傾きセンサーを用いることで得られる。これらの傾き情報は、画像を再生する際に利用される。
なお、傾き情報54bと傾き情報54cは、識別情報51bと共に、合成画像情報5bに埋め込まれるようにしてもよい
【0042】
携帯電話機20を使って、立体画像を撮像する場合について述べる。立体画像を得るには、第1のカメラ1bおよび第2のカメラ1cを用いる。本実施形態では、ディスプレイ42側に第1のカメラ1bが配置され、マイク62側に第2のカメラ1cが配置されている。よって、被写体は、異なる方向から同時に撮像されることになる。
撮影が行われると、第1のカメラ1bの傾き情報54bと、第2のカメラ1cの傾き情報54cが、メモリ4に記憶される。傾き情報54bと傾き情報54cも、メモリ4に記憶される。各カメラの傾きが分かれば、携帯電話機20の機械的な位置関係から、第1のカメラ1bと第2のカメラ1cの相対的な位置関係が分かる。また、第1のカメラ1bと第2のカメラ1cの相対的な傾き情報も得られる。よって、これらの情報があれば、被写体Obの立体的な情報を再現することができる。
なお、本実施形態では、第1のカメラ1bと第2のカメラ1cの相対的な傾き情報は、各々のカメラ1b,1cの傾き情報54b,54cで得ていた。これに代えて、開閉式である携帯電話機20の開閉角を利用してもよい。このようにしても、相対的な傾き情報を取得するという効果は同じである。
【0043】
次に、合成画像情報5bから、画像情報52を立体画像として観察可能にすることについて説明する。合成画像情報5bを受け取った側は、まず、合成画像情報5bから画像情報を抽出する。その際、傾き情報54bおよび傾き情報54cも抽出する。そして、第1のカメラ1bと第2のカメラ1c間の距離情報とを用いて表示を行う。これにより、立体画像の再生が行われる。
もちろん、この距離情報は合成画像情報5b内に含まれていてもよいし、代わりに機種名等が合成画像情報5b内に含まれていてもよい。
【0044】
次に、本実施形態における情報作成ユニット3bの処理の流れを、図8のフローチャートを用いて説明する。
まず、ステップSb01において、ユーザが立体撮像を行うかどうかの確認が行われ、立体撮像を行う場合はステップSb02に進む。ステップSb02では、ユーザがカメラ1b,1cを用いて被写体Obを撮影し、撮像された画像情報52が携帯電話機20内のメモリに一時的に記録される。
【0045】
次いで、ステップSb03において、第1のカメラ1bの傾き情報54bと第2のカメラ1cの傾き情報54cが読み込まれ、携帯電話機20内のメモリに一時的に記録される。このとき、必要であれば第1のカメラ1bと第2のカメラ1cとの間の距離情報も読み込まれ、携帯電話機20内のメモリに一時的に記録される。
【0046】
次のステップSb04において、画像情報52がディスプレイ42を用いて表示される。このとき、立体表示を行う場合には、ステップSb02からステップSb03で携帯電話機20内のメモリに一時的に記録された傾き情報54b,54cを用いる。ステップSb01においてユーザが立体撮像を行わない場合には、ステップSb06に進む。ステップSb06およびステップSb07は、第1実施形態のステップSa01およびステップSa02と同様の処理であるため説明を省略する。
【0047】
ステップSb04およびステップSb07の次に実行されるのは、ステップSb05であり、このステップSb05において、画像情報52に対してユーザが保存を行うかどうかの確認が行われる。そして、保存しない場合には始めに戻り、保存する場合には次のステップSb08に進む。ステップSb08からステップSb10は、第1実施形態のステップSa04からステップSa06と同様の処理であるため説明を省略する。
ステップSb10でユーザが送信を選択した場合には、次のステップSb11に進み、ケーブル44を用いて他の携帯電話機等の電子機器およびサーバに情報5bが送信される。
【0048】
なお、本実施形態においても、合成画像情報5bには、撮像ユニット11bに固有の識別番号51bが含まれている。そして、この識別番号51bは、特定の電子フィルタ(図示略)を通すことにより、可視化できるようになっている。よって、合成画像情報5bを公開した場合、この識別番号51bも公開されるようにしておけば、撮影に使われた電子機器を特定できる。よって、画像の出所を突き止めることができる。その結果、反社会的な行為を行ったユーザを突き止めることが可能となる。
【0049】
なお、識別番号51bは、変更可能としてもよい。ただし、変更できるのは、販売店等の特定の者に限定しておく。このようにすると、電子機器の所持者が代わった場合でも、画像が、前の使用者によって撮影されたものではないことがわかる。なお、このようなことは、他の実施形態にも適用可能である。
【0050】
次に、本実施形態に用いる光学系12bについて説明する。光学系12bのレンズ断面図を図9に示す。また、光学系12bの球面収差と非点収差および歪曲収差の収差図を図10に示す。
光学系12bは、正の屈折力を有する接合レンズと、物体側に凹面を向けた負メニスカスレンズとからなる。接合レンズは、両凸レンズと物体側に凹面を向けた負メニスカスレンズとからなる。非球面は、接合面以外の全ての面に用いられている。また、全てのレンズは樹脂材料により製作されている。
以下に、本実施形態の数値データを示すが、記号および非球面形状の定義は第1実施形態と同様である。
【0051】
f:4.5mm
ω:36.9°
FNO:3.5
【0052】
Figure 2004357145
【0053】
各非球面の非球面係数は表2の通りである。
【表2】
Figure 2004357145
【0054】
次に、本発明の第3実施形態に係る電子機器について説明する。本実施形態の電子機器はICレコーダである。このICレコーダは、撮像機能付きICレコーダ30(以下、単にICレコーダ30という。)である。図11は、ICレコーダ30の構成を示す図である。ここで、図11(a)は全体構成、図11(b)は撮像ユニット11dを示している。
ICレコーダ30は、カメラ1dと、情報表示ユニットであるディスプレイ42と、操作キー61および大型操作ボタン63とを備えている。また、ICレコーダ30は、内部に情報作成ユニット3dを備えている。また、操作キー61は、各種命令の選択および入力に用いられる。
【0055】
ディスプレイ42は、各種データ、キーによる入力内容、現在の時刻等を表示可能となっている。各種データには、ICレコーダ30内部のメモリに記憶された音声データ等がある。また、キーによる入力内容は、操作キー61あるいは大型操作ボタン63により入力された内容である。
マイク62は、音声の録音に用いられたり、操作キー61および大型操作ボタン63の代用として用いられる。
【0056】
カメラ1dは撮像ユニット11dを備えている。撮像ユニット11dは光学系12dと、光学系12dを保持する保持機構13、撮像素子であるCCD14dとから構成されている。光学系12dが変倍光学系の場合、保持機構13は光学系12dを保持するだけでなく、光学系12dを移動させる移動機構(不図示)を有する。また、この移動機構は、ピント調整に使用することも可能である。
光学系12d内には、光学系12dに固有の識別番号51dを備えた光学フィルタが挿入されている。よって、光学系12dを通して記録された画像情報52には、被写体の画像情報に識別番号51dの情報がコンボリューションされている。
【0057】
次に、本実施形態に係るICレコーダ30において、合成画像情報を得るための概略を図12に示す。
撮像ユニット11dからは、光学系12dに固有の識別番号51dを含んだ画像情報52が出力される。画像情報52はメモリに記憶される。また、本実施形態では、撮影された時間が記述された時間情報55がメモリに記憶されている。
処理回路3dは、メモリがら画像情報52と時間情報55を読み出す。そして、画像情報52と時間情報55と使って、画像を合成する処理を行う。その結果、合成画像情報5dが得られる。なおこの合成処理には、「電子透かし」技術を用いることができる。このとき、識別情報51dは、外部から見えないように合成画像情報5d内に埋め込まれている。なお、特定の電子フィルタ(図示略)を通すことにより、識別情報51dは可視化できるようになっている。また、固有の識別番号51dと画像情報52の合成は、自動的(強制的)に行われる。
【0058】
次に、本実施形態における情報作成ユニット3dの処理の流れを、図13のフローチャートを用いて説明する。
まず、ステップSd01において、撮像ユニット11dによって被写体の撮影が行われ、画像情報52が得られる。画像情報52は、携帯電話機10内のメモリ4内に一時的に記録される。次いで、ステップSd02において、画像情報52がディスプレイ42に表示される。
そして、次のステップSd03において、時間情報55の取得が行われる。続いて、ステップSd04において、この画像情報52に対してユーザが保存を行うかどうかの確認が行われる。ここで、保存しない場合には処理を終了し、保存する場合には次のステップSd05に進む。
次いで、ステップSd05において、処理回路3aにより、メモリ内に一時的に保存されている画像情報52と時間情報55が合成され、合成画像情報5dが作成される。
【0059】
なお、本実施形態では、合成画像情報5dを外部へ出力する方法については、具体的に述べていない。しかしながら、第2実施形態に示したように、このコネクタ部を設ければよい。このようにすれば、コネクタ部にケーブルを繋いで、他の電子機器やネットワークと接続することができる。すなわち。有線による通信により、音声通話や撮像した画像情報等のデータ通信を行うことができるようになる。
【0060】
本実施形態においても、合成画像情報5dには、撮像ユニット11dに固有の識別番号51dが含まれている。そして、この識別番号51dは、デコンボリューション処理を行うことによって、抽出できる。すなわち、識別番号51dを可視化できるようになっている。よって、合成画像情報5dを公開した場合、この識別番号51dも公開されるようにしておけば、撮影に使われた電子機器を特定できる。よって、画像の出所を突き止めることが可能となる。その結果、反社会的な行為を行ったユーザを、突き止めることが可能となる。
【0061】
次に、本実施形態に用いる光学系12dについて説明する。光学系12dのレンズ断面図を図14に示す。また、光学系12dの球面収差と非点収差および歪曲収差の収差図を図15に示す。光学系12dは、正の屈折力を有する接合レンズと、物体側に凹面を向けた負メニスカスレンズとからなる。接合レンズは、両凹レンズと、両凸レンズと像側に凸面を向けた正メニスカスレンズとからなる。非球面は、両凹レンズの像側の面と接合面以外の全ての面に用いられている。また、両凹レンズと負メニスカスレンズは樹脂材料により製作されている。
【0062】
以下に示す本実施形態の数値データにおいて、記号および非球面形状の定義は第1実施形態と同様である。
【0063】
f:4.5mm
ω:34.4°
FNO:3.5
【0064】
Figure 2004357145
【0065】
各非球面の非球面係数は表3の通りである。
【表3】
Figure 2004357145
【0066】
次に、本発明の第4実施形態に係る電子機器について説明する。本実施形態の電子機器は携帯情報端末である。この携帯情報端末は、撮像機能付き携帯情報端末40(以下、単に、携帯情報端末40という。)である。図16は、携帯情報端末40の構成を示す図である。ここで、図16(a)は全体構成、図16(b)は撮像ユニット11eを示している。
携帯情報端末40は、カメラ1eと、情報表示ユニットであるディスプレイ42と、各種命令を入力する操作キー61と、タッチパッド64とを備えている。また、および記録メディア45を挿抜できる、接続部65を備えている。また、情報端末装置40は、内部に情報作成ユニット3eを備えている。
【0067】
ディスプレイ42は、各種データ、操作キー61による入力内容、現在の時刻、利用者情報等を表示できるようになっている。ここで、各種データには、携帯情報端末40内部に記憶されたデータが含まれる。また、携帯情報端末40は、挿抜可能な記録メディア45を用いて、撮影した画像データ等のデータ通信や保存を行うことができるようになっている。
【0068】
タッチパッド64は、ディスプレイ42に表示された各種命令の選択時に用いられる。また、タッチパッド64は、利用者の指紋情報の認識に用いられる。タッチパッド64において認識した指紋は、携帯情報端末40内に保存されている指紋と照合される。これにより、正当な使用者かどうかの特定や、携帯情報端末40へのログインに用いられるようになっている。
また、タッチパッド64において認識した指紋は、使用者(撮影者)を特定する識別情報として使用することも可能である。また、カメラ1eで使用者の眼を撮影し、虹彩(あるいは眼底像)を、使用者を特定する識別情報として使用することも可能である。
【0069】
カメラ1eは、撮像ユニット11eを備えている。撮像ユニット14eは、光学系12eと、光学系12eを保持する保持機構13と、撮像素子であるCCD14eとを備えている。
携帯情報端末40は、図示しないメモリ内に保持機構13に固有の識別番号51eを記憶している。そして、識別情報読出しユニット2によって、識別番号51eの内容を読み出すことができるようになっている。なお、具体的には、図2(第1実施形態)に示す構成を用いればよい。
【0070】
次に、本実施形態に係る携帯情報端末40において、合成画像情報を得るための概略を図17を用いて説明する。
処理回路3dは、画像情報52と、識別番号51eと、撮影者の個人情報56と使って、画像を合成する処理を行う。その結果、合成画像情報5eが得られる。なお、この合成処理には、「電子透かし」技術を用いることができる。このとき、識別情報51eは、外部から見えないように合成画像情報5e内に埋め込まれている。なお、特定の電子フィルタ(図示略)を通すことにより、識別情報3は可視化できるようになっている。また、固有の識別番号51e,画像情報52及び撮影者の個人情報56の合成は、自動的(強制的)に行われる。
【0071】
次に、本実施形態における情報作成ユニット3eの処理の流れを、図18のフローチャートを用いて説明する。
まず、ステップSe01において、ユーザがカメラ1eを用いて撮影しする。そして、画像情報52が、携帯情報端末40のメモリに一時的に記録される。次いで、ステップSe02において、タッチパッド64を用いてユーザの指紋情報を読み取る。読み取られた指紋情報は撮影者の個人情報56として、メモリに記憶される。個人情報(指紋情報)56は、携帯情報端末40内に保存されている指紋情報と照合される(ステップSe03)。そして、ユーザが正規の利用者かどうかが判断される(ステップSe04)。
【0072】
ユーザが正規の利用者でない場合にはそのまま終了し、正規の利用者である場合には次のステップSe05に進む。ステップSe05では、画像情報の表示を行う。続いて、ステップSe06において、第3実施形態のステップSd04と同様に、この画像情報52に対してユーザが保存を行うかどうかの確認が行われる。ここで、保存しない場合には処理を終了し、保存する場合には次のステップSe07に進む。ステップSe07においては、第1実施形態と同様の読出し回路により、撮像ユニット11eに固有の識別番号51eが読み出される。
次いで、ステップSe08において、処理回路3eにより、メモリ内に一時的に保存されている画像情報52と個人情報56が合成され、合成画像情報5eが作成される。
【0073】
本実施形態においても、合成画像情報5eには、撮像ユニット11eに固有の識別番号51eが含まれている。そして、この識別番号51eは、特定の電子フィルタ(図示略)を通すことにより、可視化できるようになっている。すなわち、識別番号51eを可視化できるようになっている。よって、合成画像情報5eを公開した場合、この識別番号51eも公開されるようにしておけば、撮影に使われた電子機器を特定できる。よって、画像の出所を突き止めることが可能となる。その結果、反社会的な行為を行ったユーザを、突き止めることが可能となる。
更に、本実施形態では、ユーザ(撮影者)の個人情報56も、合成画像情報5eに含まれている。そして、この個人情報56も合成画像情報5eから抽出できる。よって、被写体を撮影した撮影者を特定することをできる。
【0074】
次に、本実施形態に用いる光学系12eについて説明する。光学系12eのレンズ断面図を図19に示す。また、光学系12eの球面収差と非点収差および歪曲収差の収差図を図20に示す。
光学系12eは、物体側に凹面を向けた負メニスカスレンズと、正の屈折力を有する接合レンズと、物体側に凸面を向けた正メニスカスレンズと、物体側に凹面を向けた負メニスカスレンズとからなる。接合レンズは、両凸レンズと像側に凸面を向けた正メニスカスレンズとからなる。非球面は、接合面と正メニスカスレンズの像側の面以外の全ての面に用いられている。また、物体側と像側の負メニスカスレンズはそれぞれ樹脂材料により製作されている。
以下に示される本実施形態の数値データにおいて、記号および非球面形状の定義は第1実施形態と同様である。
【0075】
f:4.5mm
ω:34.9°
FNO:3.5
【0076】
Figure 2004357145
【0077】
各非球面の非球面係数は表4の通りである。
【表4】
Figure 2004357145
【0078】
以上、本発明のかく実施形態に係る電子機器について説明したが、本発明は以下の特徴、あるいは構成を備える。
[1]前記画像情報としては、静止画情報、動画情報、立体静止画、立体動画情報がある。
[2]前記情報作成ユニットが、合成画像情報内に画像が撮影された方向を特定する向き情報、または傾き情報を合成する機能を有する。
[3]撮像手素子が総画素数30万画素以上の撮像素子である。
[4]識別情報が変更可能である。
[5]情報作成ユニットが、前記識別情報を前記画像情報のヘッダ部分に記載する処理、または前記画像情報に埋め込む処理を備えている。
[6]情報出力ユニットが、無線通信または有線通信を行う通信回路を備える。
[7]情報出力ユニットが、記録媒体を挿抜可能な接続部を有する。
[8]情報抽出ユニットを備え、該情報抽出ユニットが、前記合成画像情報から前記識別情報を抽出する。
[9]情報出力ユニットが、合成画像情報を表示する情報表示素子である。
[10]識別情報読出しユニットによる識別情報の読み出しが、情報表示素子による表示よりも先に行われる。
[11]識別情報読出しユニットによる識別情報の読み出しが、撮像ユニットによる撮像よりも先に行われる。
[12]情報作成ユニットによる合成が、情報表示素子による表示よりも後に行われる。
[13]情報出力ユニットが、情報作成ユニットで作成した合成画像情報を表示する。
[14]識別情報読出しユニットによる識別情報の読み出しが、情報表示手段による表示よりも先に行われる。
【0079】
【発明の効果】
以上説明したように、本発明に係る電子機器によれば、撮像手段により撮像された画像情報に、識別情報が合成されて合成画像情報が作成されるので、外部に出力される合成画像情報には識別情報が組み込まれている。その結果、出力された合成画像情報を分析することにより、撮像手段を特定し、画像の出所を突き止めることができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る電子機器を示す概略図である。
【図2】図1の電子機器の情報作成手段を示す概略図である。
【図3】図1の電子機器の情報作成手段の動作を示すフローチャートである。
【図4】図1の電子機器に用いる光学系の一例を示す光路図である。
【図5】図4の光学系の収差図である。
【図6】本発明の第2実施形態に係る電子機器を示す概略図である。
【図7】図6の電子機器の情報作成手段を示す概略図である。
【図8】図6の電子機器の情報作成手段の動作を示すフローチャートである。
【図9】図6の電子機器に用いる光学系の一例を示す光路図である。
【図10】図9の光学系の収差図である。
【図11】本発明の第3実施形態に係る電子機器を示す概略図である。
【図12】図11の電子機器の情報作成手段を示す概略図である。
【図13】図11の電子機器の情報作成手段の動作を示すフローチャートである。
【図14】図11の電子機器に用いる光学系の一例を示す光路図である。
【図15】図14の光学系の収差図である。
【図16】本発明の第4実施形態に係る電子機器を示す概略図である。
【図17】図16の電子機器の情報作成手段を示す概略図である。
【図18】図16の電子機器の情報作成手段の動作を示すフローチャートである。
【図19】図16の電子機器に用いる光学系の一例を示す光路図である。
【図20】図19の光学系の収差図である。
【符号の説明】
1a,1b,1c,1d,1e カメラ
2 情報読出しユニット
3a,3b,3d,3e 処理回路(情報作成ユニット)
5a,5b,5d,5e 合成画像情報
10,20 携帯電話機(電子機器)
11a,11b,11d,11e 撮像ユニット
12a,12b,12d,12e 光学系
13 保持機構
14a,14b,14d,14e CCD(撮像素子)
30 ICレコーダ(電子機器)
40 携帯情報端末(電子機器)
41 アンテナ(情報出力ユニット)
42 ディスプレイ(情報出力ユニット)
45 記録メディア(記録媒体)
51a,51b,51d,51e 識別情報
52 画像情報
62 マイク(音声入力手段)
65 接続部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to electronic devices, and more particularly, to a mobile phone and a portable information terminal including an imaging device.
[0002]
[Prior art]
In recent years, mobile terminals have become widespread. As the mobile terminal, there are a mobile phone, a PDA (Personal Digital Assistant) and the like. In such a widespread situation, those provided with a photographing function have been supplied (for example, see Patent Document 1). With the use of such a mobile terminal with a shooting function, a still image or a moving image of an imaging target can be easily captured. The captured image can be recorded and stored in a memory as image data, for example. Alternatively, it can be attached to an e-mail and transmitted, or displayed as a standby screen or an incoming call screen.
[0003]
[Patent Document 1]
JP 2003-60764 A
[0004]
[Problems to be solved by the invention]
However, when an image can be easily taken in such a manner, it is expected that a user who performs a malicious act appears, taking advantage of its portability and convenience. For example, it is expected that some users will engage in anti-social activities, such as taking voyeurs on a train. Moreover, the image captured in such a manner can be easily output to another electronic device or the like. For this reason, it is expected to spread using telephone networks, the Internet, and the like. And once it has spread, it is very difficult to locate the photographer of these images.
[0005]
The present invention has been made in view of such circumstances, and has as its object to provide an electronic device that prevents antisocial acts such as voyeurism. It is another object of the present invention to provide an electronic device which is small in size and can prevent antisocial acts.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides the following means.
The invention according to claim 1 is an imaging unit that images a subject, an identification information reading unit that reads identification information, and combines image information obtained by the imaging unit and identification information read by the identification information reading unit. The present invention provides an electronic device including an information creating unit that creates combined image information by using the information output unit and an information output unit that outputs the combined image information.
[0007]
According to the present invention, the subject imaged by the imaging unit is converted into image information. On the other hand, the identification information is read by the identification information reading unit. Then, the image information and the identification information are combined by the information creating unit to create combined image information. Then, the information output unit outputs the composite image information to the outside. At this time, composite image information incorporating the identification information is output. Therefore, by extracting (analyzing, disassembling, and separating) the identification information incorporated in the composite image information, it is possible to specify the imaging information.
For example, photographing information such as the electronic device used for photographing, the photographer, the photographing place, and the photographing time can be specified by the type of the identification information. According to the present invention, when an image due to an anti-social act such as voyeurism is made public, the above-mentioned photographic information becomes public. Therefore, anti-social acts such as voyeurism can be prevented.
[0008]
According to a second aspect of the present invention, in the electronic device according to the first aspect, the imaging unit includes an optical unit, the optical unit has an optical system and a holding mechanism that holds the optical system, and the identification information is An electronic device that is identification information unique to the optical unit is provided.
According to a third aspect of the present invention, in the electronic device according to the first aspect, the imaging unit has an optical system and a holding mechanism for holding the optical system, and the identification information is identification information unique to the holding mechanism. Provide an electronic device.
According to a fourth aspect of the present invention, in the electronic device according to the first aspect, the imaging unit has an optical system and a holding mechanism that holds the optical system, and the identification information is identification information unique to the optical system. Provide an electronic device.
The invention according to claim 5 provides the electronic device according to claim 1, wherein the imaging unit includes an imaging element, and the identification information is identification information unique to the imaging element.
The invention according to claim 6 provides the electronic device according to claim 5, wherein the identification information is information recorded on an image sensor.
[0009]
According to the present invention, the identification information is information derived from the imaging unit. Therefore, by extracting the identification information included in the composite image information, it is possible to specify the electronic device used for imaging.
[0010]
According to a seventh aspect of the present invention, in the electronic device according to any one of the first to sixth aspects, the identification information is combined with the image information so as to be extractable from the combined image information. I will provide a.
According to the present invention, the identification information can be decomposed from the composite image information. Therefore, identification information can be extracted on the receiving side of the composite image information.
[0011]
According to an eighth aspect of the present invention, in the electronic device according to any one of the first to seventh aspects, at the time of creating the composite image information, the information creating unit specifies a time at which the image was obtained. Provided is an electronic device having a function of synthesizing time information that can be performed.
According to a ninth aspect of the present invention, in the electronic device according to any one of the first to seventh aspects, when the composite image information is created, the information creation unit specifies a position where the image is obtained. Provided is an electronic device having a function of synthesizing position information that can be performed.
According to the present invention, by extracting the identification information included in the composite image information, it is possible to specify the time and position at which the image was obtained, that is, the time and position at which the subject was photographed.
[0012]
According to a tenth aspect of the present invention, there is provided the electronic device according to any one of the first to ninth aspects, further comprising a user identification information input unit for inputting user identification information.
An eleventh aspect of the present invention provides the electronic device according to the tenth aspect, wherein the identification information of the user includes fingerprint information of the user.
According to a twelfth aspect of the present invention, there is provided the electronic device according to the tenth aspect, wherein the identification information of the user includes iris information of the user.
[0013]
According to a thirteenth aspect of the present invention, in the electronic device according to any one of the tenth to twelfth aspects, the information creation unit is configured to execute the user based on the identification information of the user or the identification information of the user. Provided is an electronic device having a function of synthesizing information.
According to the present invention, a user who has obtained an image, that is, a user who has photographed a subject (photographer) can be identified by extracting identification information included in the composite image information.
[0014]
The invention according to claim 14 is the electronic device according to claim 1, wherein the imaging unit has an optical system, and the optical system includes at least a positive lens having a positive power and a negative lens having a negative power. Provided is an electronic device having one electronic device at a time.
The invention according to claim 15 provides the electronic device according to claim 14, wherein the positive lens and the negative lens are cemented lenses.
The invention according to claim 16 provides the electronic device according to claim 14, wherein the optical system has a lens made of a resin material.
[0015]
The invention according to claim 17 provides the electronic device according to claim 14, wherein the optical system includes an optical element having an aspherical shape.
According to the present invention, a small optical system can be provided. Therefore, downsizing of the electronic device having the identification information can be realized.
[0016]
The invention according to claim 18 provides the electronic device according to any one of claims 1 to 17, further comprising an audio input unit.
According to the present invention, various controls can be performed without operating buttons by voice input. In addition, voice can be used as identification information.
[0017]
The invention according to claim 19 provides the electronic device according to any one of claims 1 to 18 having a mobile phone function.
According to a twentieth aspect of the present invention, there is provided the electronic device according to any one of the first to eighteenth aspects, the electronic device having a portable information terminal function.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of a mobile phone (electronic device) according to the first embodiment of the present invention. Here, FIG. 1A shows the entire configuration, and FIG. 1B shows the imaging unit 11a.
The mobile phone 10 according to the present embodiment includes a camera 1a, an antenna 41 as an information output unit, a display 42 as an information display unit, operation keys 61 for inputting various commands, and a microphone 62 as a voice input unit. Have.
As shown in FIG. 2, the main body includes a memory 4 as a storage unit, a readout circuit 2 as an identification information readout unit, and a processing circuit 3a as an information creation unit. The memory 4 stores various information such as identification information and image information. The read circuit 2 reads the identification information stored in the memory 4. The processing circuit 3a combines the identification information and the image information to perform the combined image information.
[0019]
The display 42 can display an image of a subject imaged by the camera 1a, various data stored inside the mobile phone 10, input contents by the operation keys 61, current time, current position information, and the like. .
In addition, wireless communication can be performed by the antenna 41. Using this wireless communication, data communication such as voice communication (voice information) and captured image data can be performed. Note that instead of wireless communication, wired communication may be performed. Further, the microphone 62 is used for a voice call or as a substitute for the operation key 61.
[0020]
As shown in FIG. 1B, the camera 1a includes an imaging unit 11a. The imaging unit 11a includes an optical system 12a, a holding mechanism 13 that holds the optical system 12a, and a CCD 14a that is an imaging device. When the optical system 12a is a variable magnification optical system, the holding mechanism 13 has not only the optical system 12a but also a moving mechanism (not shown) for moving the optical system 12a. This moving mechanism can also be used for focus adjustment.
[0021]
Next, an outline for obtaining composite image information in the mobile phone 10 according to the present embodiment will be described with reference to FIG.
The imaging unit 11a outputs an identification number 51a and image information 52 unique to the imaging unit 11a. Among these, the unique identification number 51a is read by the read circuit 2. The read unique identification number 51a is stored in the memory 4. If a memory is provided in the read circuit 2, the unique identification number 51a can be stored in the read circuit 2. On the other hand, the image information 52 is stored in the memory 4.
[0022]
The processing circuit 3a reads the identification number 51a and the image information 52 from the memory 4. Then, a process of synthesizing an image is performed using the read identification number 51a and the image information 52. As a result, composite image information 5a is obtained. It should be noted that the “digital watermarking” technique can be used for this synthesis processing. At this time, the identification information 51a is embedded in the composite image information 5a so as not to be seen from outside.
The identification information 51a can be visualized by passing through a specific electronic filter (not shown). The combining process of the unique identification number 51a and the image information 52 is performed automatically (forcibly).
[0023]
Next, the flow of processing of the information creation unit 3a in the present embodiment will be described with reference to the flowchart of FIG.
First, in step Sa01, a subject is photographed by the imaging unit 11a (camera 1a), and image information 52 is obtained. The image information 52 is temporarily recorded in the memory 4 in the mobile phone 10. Next, in step Sa02, the image information 52 is displayed on the display 42.
[0024]
Then, in the next step Sa03, it is confirmed whether or not the user saves the image information 52. Here, when not saving, the process is ended, and when saving, the process proceeds to the next step Sa04. In the next step Sa04, the readout circuit 2 reads out the identification number 51a unique to the imaging unit 11a. This unique identification number 51a is also temporarily recorded in the memory 4 in the mobile phone 10.
[0025]
Next, in step Sa05, the processing circuit 3a combines the image information 52 temporarily stored in the memory with the unique identification number 51a to create the combined image information 5a. In the next step Sa06, it is confirmed whether or not the user transmits the composite image information 5a. Here, if it is selected not to transmit, the process ends. On the other hand, when the user selects transmission, the process proceeds to the next step Sa07. In step Sa07, the composite image information 5a is transmitted to another electronic device such as a mobile phone or a server using the antenna 41.
[0026]
According to the present embodiment, the composite image information 5a includes the identification number 51a unique to the imaging unit 11a. The identification number 51a can be visualized by passing through a specific electronic filter (not shown). Therefore, when the composite image information 5a is made public, if the identification number 51a is also made public, the electronic device used for shooting can be specified. Therefore, the source of the image can be ascertained. As a result, it is possible to identify a user who has performed an antisocial action.
[0027]
In the present embodiment, the identification information is a number unique to the imaging unit 11a. Otherwise, the identification information may be any of a number unique to the optical system 12a, a number unique to the holding mechanism 13, and a number unique to the CCD 14a that is an image sensor. Alternatively, the identification information may be a number unique to the holding unit including the optical system 12a and the holding mechanism 13.
Further, the electronic device may have a function (GPS) for specifying position information. Then, as shown in FIG. 2, the position information may be included as the identification information 53 in the composite image information 5a. By doing so, it is possible to specify where the subject was photographed.
In addition, such a thing is applicable to another embodiment.
[0028]
In the present embodiment, the image obtained by the imaging unit 11a is a still image. However, the image information may be a moving image. At this time, it is preferable that each image constituting the moving image includes identification information.
The identification information is synthesized so as to be included in the image information itself. Instead of this, it may be combined with the header part. In addition, such a thing is applicable to another embodiment.
[0029]
Next, the optical system 12a used in the present embodiment will be described. 4 and 5 show a lens cross-sectional view and an aberration diagram of the optical system 12a, respectively. The optical system 12a includes a biconvex lens and a negative meniscus lens having a concave surface facing the object side. The negative meniscus lens is made of a resin material. These lenses use aspherical surfaces on all surfaces.
[0030]
Hereinafter, numerical data of the optical system according to the present embodiment will be described. nd is the d-line refractive index of the lens, and νd is the Abbe number of the lens. The unit of f, r, and d is mm.
The aspherical shape is represented by the following equation, where x is an optical axis where the traveling direction of light is positive, and y is a direction orthogonal to the optical axis.
[0031]
x = (y2  / R) / [1+ {1- (K + 1) (y / r)2  }1/2  ] + A4y4  + A6y6  + A8y8+ A10y10
Here, r is a paraxial radius of curvature, K is a conic coefficient, and A4, A6, A8, and A10 are fourth-order, sixth-order, eighth-order, and tenth-order aspherical coefficients, respectively.
[0032]
f: 5.0 mm
ω: 30.5 °
FNO: 3.5
[0033]
Figure 2004357145
[0034]
Table 1 shows the aspheric coefficient of each aspheric surface.
[Table 1]
Figure 2004357145
[0035]
Next, an electronic device according to a second embodiment of the invention will be described. The electronic device of the present embodiment is a mobile phone. This mobile phone is a mobile phone 20 with a stereoscopic imaging function (hereinafter, simply referred to as a mobile phone 20). FIG. 6 is a diagram illustrating a configuration of the mobile phone 20. Here, FIG. 6A shows the entire configuration, and FIG. 6B shows the imaging unit 11b. The same components as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted.
The mobile phone 20 includes a first camera 1b and a second camera 1c. An antenna 41, a display 42, operation keys 61, and a microphone 62 are provided. As shown in FIG. 7, a memory 4, a readout circuit 2, and a processing circuit 3b are provided inside the main body.
[0036]
Various kinds of information are displayed on the display 42 as in the first embodiment. Further, the display 42 is capable of three-dimensional display.
Also in the present embodiment, voice communication and data communication such as captured image data can be performed using the antenna 41. However, in the mobile phone 20 of the present embodiment, the connector 43 is provided at one end of the main body. Then, by connecting a cable 44 to the connector 43, it is possible to connect to another electronic device or a network. That is, data communication such as voice communication and image information of captured images can be performed by wired communication.
The microphone 62 is used for a voice call or as a substitute for the operation key 61.
[0037]
The camera 1b includes an imaging unit 11b. The imaging unit 11b includes an optical system 12b, a holding mechanism 13, and a CMOS 14b. Further, similarly to the camera 1b, the camera 1c also includes an imaging unit 11c. The imaging unit 11c also includes an optical system, a holding mechanism, and a CMOS. Note that the holding mechanism 13 may include a moving mechanism.
[0038]
Next, an outline for obtaining composite image information in the mobile phone 20 according to the present embodiment will be described with reference to FIG.
The imaging unit (first camera) 11b outputs an identification number 51b and image information 52b unique to the imaging unit 11b. Among them, the unique identification number 51b is read by the reading circuit 2. The read unique identification number 51b is stored in a memory (not shown) provided in the read circuit 2. On the other hand, image information 52c is output from the imaging unit (second camera) 1c. The image information 52b and 52c are stored in the memory 4, respectively.
[0039]
The processing circuit 3b reads the identification number 51b from the reading circuit 2 and also reads the image information 52b and the image information 52c from the memory 4. Then, a process of synthesizing an image is performed using the identification number 51b, the image information 52b, and the image information 52c. As a result, composite image information 5b is obtained. It should be noted that the “digital watermarking” technique can be used for this synthesis processing. At this time, the identification information 51b is embedded in the composite image information 5b so as not to be seen from outside.
The identification information 51b can be visualized by passing through a specific electronic filter (not shown). The combining process of the unique identification number 51b, the image information 52b, and the image information 52c is performed automatically (forcibly).
[0040]
In the process of combining images, the identification number 51b is included only in the image information 52b. However, the identification number 51b may be included only in the image information 52c.
Alternatively, the identification number 51b may be included in both the image information 52b and the image information 52c. At this time, both the image information 52b and the image information 52c may include the same identification number 51b. Further, a part of the identification number 51b may be included in the image information 52b, and the remaining part may be included in the image information 52c.
Further, the imaging unit (second camera) 11c may have an identification number. Then, this identification number may be included in the composite image information 5b. At this time, the above-described method may be used to include the identification number.
[0041]
Here, in the present embodiment, the following two pieces of information are included as information at the time of shooting. One is inclination information 54b of the imaging unit 11b (camera 1b). The other is inclination information 54c of the imaging unit 11c (camera 1c). The tilt information is obtained by using a tilt sensor. These pieces of inclination information are used when reproducing an image.
The tilt information 54b and the tilt information 54c may be embedded in the composite image information 5b together with the identification information 51b.
[0042]
A case where a three-dimensional image is captured using the mobile phone 20 will be described. To obtain a stereoscopic image, the first camera 1b and the second camera 1c are used. In the present embodiment, the first camera 1b is arranged on the display 42 side, and the second camera 1c is arranged on the microphone 62 side. Therefore, the subject is imaged simultaneously from different directions.
When the photographing is performed, the tilt information 54b of the first camera 1b and the tilt information 54c of the second camera 1c are stored in the memory 4. The tilt information 54b and the tilt information 54c are also stored in the memory 4. If the inclination of each camera is known, the relative positional relationship between the first camera 1b and the second camera 1c can be determined from the mechanical positional relationship of the mobile phone 20. Further, relative inclination information between the first camera 1b and the second camera 1c is also obtained. Therefore, if there is such information, it is possible to reproduce three-dimensional information of the subject Ob.
In the present embodiment, the relative tilt information of the first camera 1b and the second camera 1c is obtained from the tilt information 54b, 54c of each of the cameras 1b, 1c. Instead of this, the opening / closing angle of the mobile phone 20 that can be opened / closed may be used. Even in this case, the effect of acquiring relative tilt information is the same.
[0043]
Next, how to enable the image information 52 to be observed as a stereoscopic image from the composite image information 5b will be described. The side receiving the composite image information 5b first extracts the image information from the composite image information 5b. At this time, the inclination information 54b and the inclination information 54c are also extracted. Then, display is performed using the distance information between the first camera 1b and the second camera 1c. Thereby, the reproduction of the stereoscopic image is performed.
Of course, this distance information may be included in the composite image information 5b, or alternatively, a model name or the like may be included in the composite image information 5b.
[0044]
Next, the flow of processing of the information creation unit 3b in the present embodiment will be described with reference to the flowchart of FIG.
First, in step Sb01, it is confirmed whether or not the user performs stereoscopic imaging. If the user performs stereoscopic imaging, the process proceeds to step Sb02. In step Sb02, the user captures an image of the subject Ob using the cameras 1b and 1c, and the captured image information 52 is temporarily stored in a memory in the mobile phone 20.
[0045]
Next, in step Sb03, the tilt information 54b of the first camera 1b and the tilt information 54c of the second camera 1c are read and temporarily stored in a memory in the mobile phone 20. At this time, if necessary, distance information between the first camera 1b and the second camera 1c is also read and temporarily stored in a memory in the mobile phone 20.
[0046]
In the next step Sb04, image information 52 is displayed using display. At this time, when performing stereoscopic display, the inclination information 54b, 54c temporarily stored in the memory of the mobile phone 20 in steps Sb02 to Sb03 is used. If the user does not perform stereoscopic imaging in step Sb01, the process proceeds to step Sb06. Steps Sb06 and Sb07 are the same processes as steps Sa01 and Sa02 of the first embodiment, and thus description thereof will be omitted.
[0047]
It is step Sb05 that is executed after step Sb04 and step Sb07. In step Sb05, it is confirmed whether or not the user saves the image information 52. When not saving, the process returns to the beginning. When saving, the process proceeds to the next step Sb08. Steps Sb08 to Sb10 are the same processes as steps Sa04 to Sa06 of the first embodiment, and a description thereof will be omitted.
If the user selects transmission in step Sb10, the process proceeds to the next step Sb11, and the information 5b is transmitted to another electronic device such as a mobile phone and a server using the cable 44.
[0048]
Note that, also in the present embodiment, the composite image information 5b includes an identification number 51b unique to the imaging unit 11b. The identification number 51b can be visualized by passing through a specific electronic filter (not shown). Therefore, when the composite image information 5b is made public, if the identification number 51b is made public, the electronic device used for shooting can be specified. Therefore, the source of the image can be ascertained. As a result, it is possible to identify a user who has performed an antisocial action.
[0049]
Note that the identification number 51b may be changeable. However, the change can be limited to a specific person such as a store. In this way, even if the owner of the electronic device is replaced, it can be seen that the image was not taken by the previous user. In addition, such a thing is applicable to another embodiment.
[0050]
Next, the optical system 12b used in the present embodiment will be described. FIG. 9 is a lens cross-sectional view of the optical system 12b. FIG. 10 shows aberration diagrams of the spherical aberration, astigmatism, and distortion of the optical system 12b.
The optical system 12b includes a cemented lens having a positive refractive power and a negative meniscus lens having a concave surface facing the object side. The cemented lens includes a biconvex lens and a negative meniscus lens having a concave surface facing the object side. The aspherical surface is used for all surfaces except the joint surface. All lenses are made of a resin material.
Hereinafter, numerical data of the present embodiment will be described. The definitions of symbols and aspheric shapes are the same as in the first embodiment.
[0051]
f: 4.5 mm
ω: 36.9 °
FNO: 3.5
[0052]
Figure 2004357145
[0053]
Table 2 shows the aspheric coefficient of each aspheric surface.
[Table 2]
Figure 2004357145
[0054]
Next, an electronic device according to a third embodiment of the invention will be described. The electronic device of the present embodiment is an IC recorder. This IC recorder is an IC recorder 30 with an imaging function (hereinafter, simply referred to as IC recorder 30). FIG. 11 is a diagram showing the configuration of the IC recorder 30. Here, FIG. 11A shows the overall configuration, and FIG. 11B shows the imaging unit 11d.
The IC recorder 30 includes a camera 1d, a display 42 as an information display unit, operation keys 61 and large operation buttons 63. Further, the IC recorder 30 includes an information creation unit 3d inside. The operation keys 61 are used for selecting and inputting various commands.
[0055]
The display 42 can display various data, input contents by keys, current time, and the like. The various data includes audio data stored in a memory inside the IC recorder 30 and the like. The input contents by the keys are the contents input by the operation keys 61 or the large operation buttons 63.
The microphone 62 is used for recording a voice or as a substitute for the operation keys 61 and the large operation buttons 63.
[0056]
The camera 1d includes an imaging unit 11d. The imaging unit 11d includes an optical system 12d, a holding mechanism 13 for holding the optical system 12d, and a CCD 14d as an imaging device. When the optical system 12d is a variable magnification optical system, the holding mechanism 13 has not only the optical system 12d but also a moving mechanism (not shown) for moving the optical system 12d. This moving mechanism can also be used for focus adjustment.
An optical filter having an identification number 51d unique to the optical system 12d is inserted into the optical system 12d. Therefore, in the image information 52 recorded through the optical system 12d, the information of the identification number 51d is convolved with the image information of the subject.
[0057]
Next, an outline for obtaining composite image information in the IC recorder 30 according to the present embodiment is shown in FIG.
The image information 52 including the identification number 51d unique to the optical system 12d is output from the imaging unit 11d. The image information 52 is stored in the memory. Further, in the present embodiment, the time information 55 describing the time when the image was captured is stored in the memory.
The processing circuit 3d reads the image information 52 and the time information 55 from the memory. Then, a process of synthesizing the image is performed using the image information 52 and the time information 55. As a result, composite image information 5d is obtained. It should be noted that the “digital watermarking” technique can be used for this synthesis processing. At this time, the identification information 51d is embedded in the composite image information 5d so as not to be seen from outside. The identification information 51d can be visualized by passing through a specific electronic filter (not shown). The combination of the unique identification number 51d and the image information 52 is performed automatically (forcibly).
[0058]
Next, the flow of processing of the information creation unit 3d in the present embodiment will be described with reference to the flowchart of FIG.
First, in step Sd01, a subject is photographed by the imaging unit 11d, and image information 52 is obtained. The image information 52 is temporarily recorded in the memory 4 in the mobile phone 10. Next, in step Sd02, the image information 52 is displayed on the display 42.
Then, in the next step Sd03, the time information 55 is obtained. Subsequently, in step Sd04, it is confirmed whether or not the user saves the image information 52. Here, when not saving, the process is ended, and when saving, the process proceeds to the next step Sd05.
Next, in step Sd05, the image information 52 temporarily stored in the memory and the time information 55 are synthesized by the processing circuit 3a to create synthesized image information 5d.
[0059]
In the present embodiment, a method for outputting the composite image information 5d to the outside is not specifically described. However, as shown in the second embodiment, this connector may be provided. With this configuration, it is possible to connect a cable to the connector unit and connect it to another electronic device or a network. That is. Wired communication enables data communication such as voice communication and captured image information.
[0060]
Also in the present embodiment, the composite image information 5d includes an identification number 51d unique to the imaging unit 11d. The identification number 51d can be extracted by performing a deconvolution process. That is, the identification number 51d can be visualized. Therefore, when the composite image information 5d is made public, if the identification number 51d is made public, the electronic device used for shooting can be specified. Therefore, the source of the image can be ascertained. As a result, it is possible to identify a user who has performed an antisocial action.
[0061]
Next, the optical system 12d used in the present embodiment will be described. FIG. 14 shows a lens cross-sectional view of the optical system 12d. FIG. 15 shows aberration diagrams of the spherical aberration, astigmatism, and distortion of the optical system 12d. The optical system 12d includes a cemented lens having a positive refractive power and a negative meniscus lens having a concave surface facing the object side. The cemented lens includes a biconcave lens, a biconvex lens, and a positive meniscus lens having a convex surface facing the image side. The aspheric surface is used for all surfaces except the image-side surface and the cemented surface of the biconcave lens. The biconcave lens and the negative meniscus lens are made of a resin material.
[0062]
In the numerical data of the present embodiment described below, the definitions of symbols and aspherical shapes are the same as in the first embodiment.
[0063]
f: 4.5 mm
ω: 34.4 °
FNO: 3.5
[0064]
Figure 2004357145
[0065]
Table 3 shows the aspheric coefficient of each aspheric surface.
[Table 3]
Figure 2004357145
[0066]
Next, an electronic device according to a fourth embodiment of the present invention will be described. The electronic device of the present embodiment is a portable information terminal. This portable information terminal is a portable information terminal 40 with an imaging function (hereinafter, simply referred to as a portable information terminal 40). FIG. 16 is a diagram showing a configuration of the portable information terminal 40. Here, FIG. 16A shows the entire configuration, and FIG. 16B shows the imaging unit 11e.
The portable information terminal 40 includes a camera 1e, a display 42 as an information display unit, operation keys 61 for inputting various commands, and a touch pad 64. In addition, the recording medium 45 includes a connection section 65 through which the recording medium 45 can be inserted and removed. Further, the information terminal device 40 includes an information creation unit 3e inside.
[0067]
The display 42 can display various data, input contents by the operation keys 61, current time, user information, and the like. Here, the various data includes data stored inside the portable information terminal 40. In addition, the portable information terminal 40 can perform data communication and storage of photographed image data and the like using the recording medium 45 that can be inserted and removed.
[0068]
The touch pad 64 is used when selecting various commands displayed on the display 42. The touch pad 64 is used for recognizing fingerprint information of a user. The fingerprint recognized on the touch pad 64 is compared with a fingerprint stored in the portable information terminal 40. As a result, it is used to specify whether the user is a legitimate user or to log in to the portable information terminal 40.
Further, the fingerprint recognized by the touch pad 64 can be used as identification information for identifying a user (photographer). It is also possible to photograph the user's eyes with the camera 1e and use the iris (or fundus image) as identification information for identifying the user.
[0069]
The camera 1e includes an imaging unit 11e. The imaging unit 14e includes an optical system 12e, a holding mechanism 13 that holds the optical system 12e, and a CCD 14e that is an imaging device.
The portable information terminal 40 stores an identification number 51e unique to the holding mechanism 13 in a memory (not shown). The content of the identification number 51e can be read by the identification information reading unit 2. Note that, specifically, the configuration shown in FIG. 2 (first embodiment) may be used.
[0070]
Next, an outline for obtaining composite image information in the portable information terminal 40 according to the present embodiment will be described with reference to FIG.
The processing circuit 3d performs a process of synthesizing an image using the image information 52, the identification number 51e, and the personal information 56 of the photographer. As a result, composite image information 5e is obtained. It should be noted that the “digital watermarking” technique can be used for the synthesizing process. At this time, the identification information 51e is embedded in the composite image information 5e so as not to be seen from the outside. The identification information 3 can be visualized by passing through a specific electronic filter (not shown). The combination of the unique identification number 51e, the image information 52, and the personal information 56 of the photographer is automatically (forced) performed.
[0071]
Next, the flow of processing of the information creating unit 3e in the present embodiment will be described with reference to the flowchart of FIG.
First, in step Se01, the user shoots using the camera 1e. Then, the image information 52 is temporarily recorded in the memory of the portable information terminal 40. Next, in step Se02, the fingerprint information of the user is read using the touch pad 64. The read fingerprint information is stored in the memory as personal information 56 of the photographer. The personal information (fingerprint information) 56 is collated with the fingerprint information stored in the portable information terminal 40 (Step Se03). Then, it is determined whether the user is an authorized user (Step Se04).
[0072]
If the user is not a legitimate user, the process ends. If the user is a legitimate user, the process proceeds to the next step Se05. In step Se05, image information is displayed. Subsequently, in step Se06, similarly to step Sd04 of the third embodiment, it is confirmed whether or not the user saves the image information 52. Here, when not saving, the process is ended, and when saving, the process proceeds to the next step Se07. In step Se07, an identification number 51e unique to the imaging unit 11e is read by the same reading circuit as in the first embodiment.
Next, in step Se08, the processing circuit 3e combines the image information 52 temporarily stored in the memory and the personal information 56 to create the combined image information 5e.
[0073]
Also in the present embodiment, the composite image information 5e includes an identification number 51e unique to the imaging unit 11e. The identification number 51e can be visualized by passing through a specific electronic filter (not shown). That is, the identification number 51e can be visualized. Therefore, when the composite image information 5e is disclosed, if the identification number 51e is also disclosed, the electronic device used for shooting can be specified. Therefore, the source of the image can be ascertained. As a result, it is possible to identify a user who has performed an antisocial action.
Further, in the present embodiment, the personal information 56 of the user (photographer) is also included in the composite image information 5e. Then, the personal information 56 can also be extracted from the composite image information 5e. Therefore, it is possible to specify the photographer who has photographed the subject.
[0074]
Next, the optical system 12e used in the present embodiment will be described. FIG. 19 shows a lens cross-sectional view of the optical system 12e. FIG. 20 shows aberration diagrams of the spherical aberration, astigmatism, and distortion of the optical system 12e.
The optical system 12e includes a negative meniscus lens having a concave surface facing the object side, a cemented lens having a positive refractive power, a positive meniscus lens having a convex surface facing the object side, and a negative meniscus lens having a concave surface facing the object side. Consists of The cemented lens includes a biconvex lens and a positive meniscus lens having a convex surface facing the image side. The aspheric surface is used for all surfaces other than the cemented surface and the image-side surface of the positive meniscus lens. The negative meniscus lenses on the object side and the image side are each made of a resin material.
In the numerical data of the present embodiment described below, the definitions of symbols and aspheric shapes are the same as in the first embodiment.
[0075]
f: 4.5 mm
ω: 34.9 °
FNO: 3.5
[0076]
Figure 2004357145
[0077]
Table 4 shows the aspheric coefficient of each aspheric surface.
[Table 4]
Figure 2004357145
[0078]
As described above, the electronic apparatus according to the embodiment has been described, but the present invention has the following features or configurations.
[1] The image information includes still image information, moving image information, three-dimensional still image, and three-dimensional moving image information.
[2] The information creating unit has a function of combining direction information or inclination information for specifying the direction in which the image was captured in the combined image information.
[3] The imaging device is an imaging device having a total number of pixels of 300,000 or more.
[4] The identification information can be changed.
[5] The information creating unit includes a process of writing the identification information in a header portion of the image information or a process of embedding the identification information in the image information.
[6] The information output unit includes a communication circuit that performs wireless communication or wired communication.
[7] The information output unit has a connection portion through which a recording medium can be inserted and removed.
[8] An information extraction unit is provided, and the information extraction unit extracts the identification information from the composite image information.
[9] The information output unit is an information display element that displays the composite image information.
[10] The reading of the identification information by the identification information reading unit is performed before the display by the information display element.
[11] The reading of the identification information by the identification information reading unit is performed before the imaging by the imaging unit.
[12] Synthesis by the information creation unit is performed after display by the information display element.
[13] The information output unit displays the composite image information created by the information creation unit.
[14] The reading of the identification information by the identification information reading unit is performed prior to the display by the information display means.
[0079]
【The invention's effect】
As described above, according to the electronic device of the present invention, since the identification information is combined with the image information captured by the imaging unit to generate the combined image information, the combined image information output to the outside is generated. Has built-in identification information. As a result, by analyzing the output synthesized image information, it is possible to specify the imaging means and to find the source of the image.
[Brief description of the drawings]
FIG. 1 is a schematic diagram illustrating an electronic device according to a first embodiment of the invention.
FIG. 2 is a schematic diagram showing an information creating unit of the electronic device of FIG.
FIG. 3 is a flowchart illustrating an operation of an information creating unit of the electronic device of FIG. 1;
FIG. 4 is an optical path diagram showing an example of an optical system used in the electronic apparatus of FIG.
FIG. 5 is an aberration diagram of the optical system of FIG. 4;
FIG. 6 is a schematic view illustrating an electronic device according to a second embodiment of the invention.
FIG. 7 is a schematic diagram illustrating an information creating unit of the electronic device of FIG. 6;
FIG. 8 is a flowchart showing an operation of an information creating unit of the electronic device of FIG. 6;
FIG. 9 is an optical path diagram illustrating an example of an optical system used in the electronic apparatus of FIG.
10 is an aberration diagram of the optical system of FIG.
FIG. 11 is a schematic view illustrating an electronic apparatus according to a third embodiment of the invention.
FIG. 12 is a schematic diagram illustrating an information creating unit of the electronic device of FIG. 11;
FIG. 13 is a flowchart showing an operation of an information creating unit of the electronic device of FIG. 11;
FIG. 14 is an optical path diagram illustrating an example of an optical system used in the electronic apparatus in FIG. 11;
15 is an aberration diagram of the optical system of FIG.
FIG. 16 is a schematic view illustrating an electronic device according to a fourth embodiment of the invention.
17 is a schematic diagram showing an information creating unit of the electronic device of FIG.
FIG. 18 is a flowchart showing an operation of an information creating unit of the electronic device of FIG.
FIG. 19 is an optical path diagram illustrating an example of an optical system used in the electronic apparatus of FIG.
20 is an aberration diagram of the optical system of FIG.
[Explanation of symbols]
1a, 1b, 1c, 1d, 1e camera
2 Information reading unit
3a, 3b, 3d, 3e Processing circuit (information creation unit)
5a, 5b, 5d, 5e Composite image information
10,20 Mobile phone (electronic equipment)
11a, 11b, 11d, 11e Imaging unit
12a, 12b, 12d, 12e Optical system
13 Holding mechanism
14a, 14b, 14d, 14e CCD (imaging device)
30 IC Recorder (Electronic Equipment)
40 Mobile information terminals (electronic devices)
41 Antenna (information output unit)
42 Display (information output unit)
45 Recording media (recording media)
51a, 51b, 51d, 51e identification information
52 Image information
62 Microphone (voice input means)
65 Connection

Claims (20)

被写体を撮像する撮像ユニットと、
識別情報を読み出す識別情報読出しユニットと、
該撮像ユニットで得られた画像情報と前記識別情報読出しユニットで読み出した識別情報とを合成して合成画像情報を作成する情報作成ユニットと、
前記合成画像情報を出力する情報出力ユニットとを備える電子機器。
An imaging unit for imaging a subject;
An identification information reading unit for reading identification information;
An information creating unit that combines the image information obtained by the imaging unit and the identification information read by the identification information reading unit to create composite image information;
An electronic device comprising: an information output unit that outputs the composite image information.
前記撮像ユニットが光学ユニットを備え、該光学ユニットが光学系と該光学系を保持する保持機構とを有し、前記識別情報が前記光学ユニットに固有の識別情報である請求項1に記載の電子機器。The electronic device according to claim 1, wherein the imaging unit includes an optical unit, the optical unit includes an optical system, and a holding mechanism that holds the optical system, and the identification information is identification information unique to the optical unit. machine. 前記撮像ユニットが光学系と該光学系を保持する保持機構とを有し、前記識別情報が前記保持機構に固有の識別情報である請求項1記載の電子機器。2. The electronic apparatus according to claim 1, wherein the imaging unit has an optical system and a holding mechanism that holds the optical system, and the identification information is identification information unique to the holding mechanism. 前記撮像ユニットが光学系と該光学系を保持する保持機構とを有し、前記識別情報が前記光学系に固有の識別情報である請求項1記載の電子機器。2. The electronic apparatus according to claim 1, wherein the imaging unit has an optical system and a holding mechanism that holds the optical system, and the identification information is identification information unique to the optical system. 前記撮像ユニットが撮像素子を備え、前記識別情報が前記撮像素子に固有の識別情報である請求項1に記載の電子機器。The electronic device according to claim 1, wherein the imaging unit includes an imaging device, and the identification information is identification information unique to the imaging device. 前記識別情報が撮像素子に記録されている情報である請求項5に記載の電子機器。The electronic device according to claim 5, wherein the identification information is information recorded on an image sensor. 前記合成画像情報から抽出可能に、前記識別情報が前記画像情報と合成されている請求項1から請求項6のいずれか1項に記載の電子機器。The electronic device according to claim 1, wherein the identification information is combined with the image information so that the identification information can be extracted from the combined image information. 前記合成画像情報の作成時に、前記情報作成ユニットが、当該画像が得られた時間を特定することができる時間情報を合成する機能を有する請求項1から請求項7のいずれか1項に記載の電子機器。8. The information processing apparatus according to claim 1, wherein the information generation unit has a function of synthesizing time information that can specify a time when the image is obtained when the synthetic image information is generated. 9. Electronics. 前記合成画像情報の作成時に、前記情報作成ユニットが、当該画像が得られた位置を特定することができる位置情報を合成する機能を有する請求項1から請求項7のいずれか1項に記載の電子機器。8. The image processing apparatus according to claim 1, wherein, when creating the composite image information, the information creating unit has a function of synthesizing position information that can specify a position where the image is obtained. 9. Electronics. 利用者の識別情報を入力する利用者識別情報入力部を備える請求項1から請求項9のいずれか1項に記載の電子機器。The electronic device according to any one of claims 1 to 9, further comprising a user identification information input unit for inputting user identification information. 前記利用者の識別情報が、前記利用者の指紋情報を含む請求項10記載の電子機器。The electronic device according to claim 10, wherein the identification information of the user includes fingerprint information of the user. 前記利用者の識別情報が、前記利用者の虹彩情報を含む請求項10記載の電子機器。The electronic device according to claim 10, wherein the identification information of the user includes iris information of the user. 前記合成画像情報の作成時に、前記情報作成ユニットが、前記利用者識別情報または該利用者識別情報に基づく利用者情報を合成する機能を有する請求項10から請求項12のいずれか1項に記載の電子機器。13. The information processing unit according to claim 10, wherein the information creating unit has a function of combining the user identification information or user information based on the user identification information when creating the composite image information. Electronic equipment. 前記撮像ユニットが光学系を有し、該光学系が正のパワーを有する正レンズと負のパワーを有する負レンズとを少なくとも1枚ずつ有する請求項1に記載の電子機器。The electronic apparatus according to claim 1, wherein the imaging unit has an optical system, and the optical system has at least one positive lens having a positive power and at least one negative lens having a negative power. 前記正レンズおよび前記負レンズが接合レンズである請求項14記載の電子機器。The electronic device according to claim 14, wherein the positive lens and the negative lens are cemented lenses. 前記光学系が樹脂材料により製作されたレンズを有する請求項14に記載の電子機器。15. The electronic device according to claim 14, wherein the optical system has a lens made of a resin material. 前記光学系が非球面形状を有する光学素子を含む請求項14に記載の電子機器。The electronic apparatus according to claim 14, wherein the optical system includes an optical element having an aspherical shape. 音声入力ユニットを有する請求項1から請求項17のいずれか1項に記載の電子機器。The electronic device according to any one of claims 1 to 17, further comprising a voice input unit. 携帯電話機能を有する請求項1から請求項18のいずれか1項に記載の電子機器。The electronic device according to any one of claims 1 to 18, which has a mobile phone function. 携帯情報端末機能を有する請求項1から請求項18のいずれか1項に記載の電子機器。19. The electronic device according to claim 1, which has a portable information terminal function.
JP2003154734A 2003-05-30 2003-05-30 Electronic equipment Pending JP2004357145A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003154734A JP2004357145A (en) 2003-05-30 2003-05-30 Electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003154734A JP2004357145A (en) 2003-05-30 2003-05-30 Electronic equipment

Publications (1)

Publication Number Publication Date
JP2004357145A true JP2004357145A (en) 2004-12-16

Family

ID=34049316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003154734A Pending JP2004357145A (en) 2003-05-30 2003-05-30 Electronic equipment

Country Status (1)

Country Link
JP (1) JP2004357145A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008118978A1 (en) * 2007-03-26 2008-10-02 Kyocera Wireless Corp. System and method for associating device information with digital images
JP2013500544A (en) * 2009-07-24 2013-01-07 ディジマーク コーポレイション Improved audio / video method and system
US8682834B2 (en) 2010-08-10 2014-03-25 Fujitsu Limited Information processing apparatus and information processing method
WO2018122960A1 (en) * 2016-12-27 2018-07-05 株式会社オプティム Photographer identification system, photographer identification method, and program
WO2018122959A1 (en) * 2016-12-27 2018-07-05 株式会社オプティム Photographer identification system, photographer identification method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008118978A1 (en) * 2007-03-26 2008-10-02 Kyocera Wireless Corp. System and method for associating device information with digital images
US7774023B2 (en) 2007-03-26 2010-08-10 Kyocera Corporation System and method for associating device information with digital images
JP2013500544A (en) * 2009-07-24 2013-01-07 ディジマーク コーポレイション Improved audio / video method and system
US8682834B2 (en) 2010-08-10 2014-03-25 Fujitsu Limited Information processing apparatus and information processing method
WO2018122960A1 (en) * 2016-12-27 2018-07-05 株式会社オプティム Photographer identification system, photographer identification method, and program
WO2018122959A1 (en) * 2016-12-27 2018-07-05 株式会社オプティム Photographer identification system, photographer identification method, and program

Similar Documents

Publication Publication Date Title
EP2523450B1 (en) Handheld electronic device with dual image capturing method and computer program product
JP4274233B2 (en) Imaging apparatus, image processing apparatus, image processing method therefor, and program causing computer to execute the method
JP4730569B2 (en) Imaging apparatus, imaging method, and program
EP1594311A2 (en) Digital camera
EP2104336A2 (en) Composition determination device, composition determination method, and program
JP5196306B2 (en) Imaging lens, camera and portable information terminal device
JP4315212B2 (en) Imaging apparatus, imaging control program, and imaging control method
JP2006284790A (en) Electronic photographing device
JP2011234002A (en) Imaging device and terminal device
JP2007178846A (en) Zoom lens, camera device, and personal digital assistant
JP2007249087A (en) Photographic optical system, camera device and personal digital assistant
CN104994304B (en) The method, apparatus and terminal device of optical anti-vibration
JP2004336536A (en) Photographing device, method, and program
JP2007110262A (en) Software for image appreciation and image storage device
JP4885792B2 (en) Guide device and guide method
JP2004357145A (en) Electronic equipment
JP2007110261A (en) Digital camera
JP2004198855A (en) Zoom lens, camera and personal digital assistance device
JP2011166497A (en) Imaging device
JP5096610B2 (en) Guide device and guide method
JP2005323014A (en) Digital camera
JP2009049886A (en) Image retrieval device, photographing device, image retrieval method, and program
JP2004286893A (en) Zoom lens, camera and personal digital assistance device
JP5540051B2 (en) Camera with guide device and method of shooting with guide
JP2009014931A (en) Photographing optical system, camera device, and portable information terminal device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090324