JP2004274548A - Mobile terminal - Google Patents

Mobile terminal Download PDF

Info

Publication number
JP2004274548A
JP2004274548A JP2003064674A JP2003064674A JP2004274548A JP 2004274548 A JP2004274548 A JP 2004274548A JP 2003064674 A JP2003064674 A JP 2003064674A JP 2003064674 A JP2003064674 A JP 2003064674A JP 2004274548 A JP2004274548 A JP 2004274548A
Authority
JP
Japan
Prior art keywords
imaging
liquid crystal
imaging device
cpu
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003064674A
Other languages
Japanese (ja)
Inventor
Yuichi Shin
勇一 新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2003064674A priority Critical patent/JP2004274548A/en
Publication of JP2004274548A publication Critical patent/JP2004274548A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Diaphragms For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile terminal provided with an imaging apparatus for enabling automatic switching control in an imaging mode so as to simplify operations at imaging. <P>SOLUTION: The mobile terminal (mobile phone) 1 provided with the imaging apparatus including an imaging element 20 having a photoelectric conversion section 21, and a lens 32 for forming an object image to the photoelectric conversion section 21, includes: an aperture means (a liquid crystal window 100 and an aperture setting program c4) for adjusting an amount of light incident to the imaging apparatus 16 to attain a close shot; and a control means (CPU 11a) for controlling the aperture means on the basis of image data acquired from the imaging apparatus 16 to automatically switch an ordinary imaging mode for carrying out ordinary imaging into a near shot mode for carrying out the near shot. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、携帯端末に関する。
【0002】
【従来の技術】
従来より、情報通信機能や個人情報管理機能を有するPDA、携帯電話機、PHS(R)等の携帯型情報通信端末装置(以下、「携帯端末」という)が種々提案され、実用化されている。近年においては、搭載した撮像装置を用いることにより、外部に存在する所定の被写体を撮像する機能を有する携帯端末が提案されている。例えば、所定の被写体を撮像する通常撮像モードと、近接した位置にある被写体を撮像する近接撮像モードと、を切り替えて撮像可能な携帯端末が提案されている(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開2002−262164号公報
【0004】
【発明が解決しようとする課題】
しかし、特許文献1に記載の携帯端末を使用した場合には、ユーザが通常撮像モードか、近接撮像モードか、を自ら判断して切替操作を行う必要があるため、操作が面倒であるという問題があった。特に、特許文献1に記載の携帯端末は、撮像装置の回動に連動させて撮像モードを切り替える構造を有するので、撮像モードを切り替える度にユーザが手指で撮像装置を回動させなければならず、手間がかかっていた。
【0005】
本発明の課題は、撮像装置を備える携帯端末において、撮像モードの自動切替制御を実現させ、撮像時の操作を簡素化することである。
【0006】
【課題を解決するための手段】
上記課題を解決するために、請求項1に記載の発明は、
光電変換部を有する撮像素子と、前記光電変換部に被写体像を結像させるレンズ部と、を有する撮像装置を備えた携帯端末において、
前記撮像装置に入射する光の量を調節して近接撮像を可能にする絞り手段と、
前記撮像装置により取得した画像データに基づいて前記絞り手段を制御することにより、通常撮像を行う通常撮像モードから近接撮像を行う近接撮像モードへと自動的に切り替える制御手段と、
を備えることを特徴とする。
【0007】
請求項1に記載の発明によれば、制御手段によって、撮像装置により取得した画像データに基づいて絞り手段を制御し、通常撮像を行う通常撮像モードから、近接撮像を行う近接撮像モードへと自動的に切り替えることができる。従って、撮像モードを切り替える際に、ユーザが撮像モードの適否を判断したり手指で切替操作を行ったりする必要がない。また、撮像モードを切り替える際に撮像装置を手指で回動させる必要がない。この結果、撮像時の操作を格段に簡素化することができる。
【0008】
請求項2に記載の発明は、請求項1に記載の携帯端末において、
前記絞り手段は、
偏光板及び配向膜が設けられた2枚のガラス基板と、これらガラス基板の間に封入された液晶と、を有する液晶窓と、
前記液晶の一部に電圧を印加して前記液晶窓の光透過面積を変更することにより、前記撮像装置に入射する光の量を調節する印加電圧手段と、
を備えることを特徴とする。
【0009】
請求項2に記載の発明によれば、絞り手段は、ガラス基板及び液晶を有する液晶窓と、液晶の一部に電圧を印加して液晶窓の光透過面積を変更することにより撮像装置に入射する光の量を調節する印加電圧手段と、を備えるので、液晶の特性(電圧非印加時の施光性及び電圧印加時の非施光性)を利用して、撮像装置に入射する光の量を電気的に調節することができる。この結果、撮像装置に入射する光の量を調節するために複雑な機械的構成を設ける必要がないので、携帯端末の軽量化や薄型化が可能となる。
【0010】
【発明の実施の形態】
以下、図を参照して本発明の実施の形態を詳細に説明する。本実施の形態においては、本発明を適用した携帯端末の例として、撮像装置付携帯電話機(以下、単に「携帯電話機」と称する)を挙げて説明する。
【0011】
まず、図1から図5を用いて本実施の形態に係る携帯電話機1の機械的構成について説明する。図1は、携帯電話機1の外観構成を示す図である。また、図2は、図1(b)のII−II部分の断面図であり、携帯電話機1に備えられる撮像装置16の構成を説明するためのものである。なお、図2においては、後述する液晶窓100を点線で示している。図3(a)は、携帯電話機1に備えられる液晶窓100の構成を説明するための斜視図であり、図3(b)は、図3(a)のB−B部分の断面図である。図4は、図3に示した液晶窓100の光透過面積を変更することにより絞り値(F値)を3通りに設定した状態を示す説明図である。
【0012】
本実施の形態に係る携帯電話機1は、図1に示すように、第1筐体10a及び第2筐体10bがヒンジ結合部10cにより開閉可能に連結されてなる折畳式のものである。
【0013】
第1筐体10aには、折畳時に内側になる面(正面)に表示部13が設けられており(図1(a)参照)、折畳時に外側になる面(背面)に後述する液晶窓100が設けられている(図1(b)参照)。また、図1(b)に示した液晶窓100の背後には、撮像装置16が設けられている。印加電圧により液晶窓100の光透過面積を変更して、撮像装置16に入射する光の量を調節することにより、通常撮像モードから近接撮像モードに切り替えることができる。なお、液晶窓100については、図3及び図4を用いて後述する。
【0014】
第2筐体10bの正面には入力部12が設けられており(図1(a)参照)、背面には充電パック等の電源制御部17が設けられている(図1(b)参照)。また、図1(b)に示すように、携帯電話機1の上部にはアンテナ14aが配設されている。第2筐体10bの内部には、装置全体を統合制御する制御部11、図示していない無線基地局との間で着信や発信等に係る無線信号の送受信を行う無線通信部14、記憶部15及び送受話部18が内蔵されている。これら制御部11や無線通信部14等については、図5を用いて後述する。
【0015】
入力部12は、テンキー、各種機能スイッチ、通話モード及びカメラモードの切り替えを行うモード切替スイッチ等を備えており、撮影処理の実施指示の入力等に用いられる。
【0016】
表示部13は、LCD(Liquid Crystal Display)パネル等により構成され、制御部11から入力される表示データに基づいて画面表示を行う。また、表示部13は、撮像装置16によってプレビュー撮影された画像や、制御部11により復号(デコード)されたコード情報内容等を表示する。アンテナ14aは、無線通信部14に接続されている。
【0017】
撮像装置16は、撮像素子20やレンズ部32等を備えて構成され、レンズ部32を介して入力される画像を撮像素子20で電気信号に変換して、画像データを生成するものである。また、撮像装置16は、制御部11の制御に基づいて、通常撮像モード及び近接撮像モードによる撮像処理が実行可能とされている。
【0018】
ここで、「通常撮像モード」とは、被写界深度が1m〜∞の撮像モードである。また、「近接撮像モード」とは、被写界深度が数cm〜∞の撮像モードであり、通常撮像モードより焦点距離が短く、被写体までの距離が短い場合の撮像に適している。
【0019】
撮像装置16の構成について、図2を用いて説明する。撮像装置16は、基板PCの一方の面上に設けられ、光を感じるセンサとなる撮像素子20、撮像素子20に集光させるための光学部材30、光学部材30に入射する光の量を調節する絞り板40、撮像素子20を覆い隠す外枠部材としての鏡枠50、遮光性を有する遮光板60、遮光板60に支持されるフィルタ70、光学部材30を押圧する押圧部材80、光学部材30の位置決めを行うための位置決め電気部品90、等を備えて構成されている。
【0020】
光学部材30は、撮像素子20の光電変換部21に被写体像を結像させるものであり、透明なプラスチック材料を素材とし、図2に示すように、脚部31と、脚部31に支持される凸レンズ形状のレンズ部32と、が一体的に形成されている。
【0021】
絞り板40は、図2に示すように、光学部材30の上面であってレンズ部32の周囲に接着剤Bにより固定されている。絞り板40は、遮光性のある素材からなり、レンズ部32の絞り値(F値)を規定する絞りとしての開口41を有する。
【0022】
鏡枠50は、遮光性を有する素材からなり、光学部材30の外側に配置されている。鏡枠50は、四角柱状に形成され、そのうち対向する二つの内側面には、水平方向に沿って光学部材30を支持する支持部51が一体に形成されている。
【0023】
遮光板60は、鏡枠50の上端部に接着剤により取り付けられている。遮光板60は、光学部材30に対応する位置に、絞りとしての開口61を有しており、この開口61の下方に、赤外線吸収特性を有する素材からなるフィルタ70が接着剤により接合されている。フィルタ70は、光学部材30の径に対応して形成されている。また、遮光板60は、鏡枠50の上端の開口部より少し小さく形成され、この開口部を塞ぐようになっている。そして、遮光板60とフィルタ70とでカバー部材を構成する。このように、基板PCと鏡枠50とカバー部材とが密着し接合しているので、撮像装置16は、防塵、防湿の構造を有する。
【0024】
光学部材30と遮光板50との間には、コイルばねなどの弾性部材により構成された押圧部材80が配置されている。遮光板60が鏡枠50に取り付けられることで、遮光板60が押圧部材80を押圧して、押圧部材80が弾性変形する。この押圧部材80は、光学部材30を図2の紙面下方に向かって所定の押圧力により押圧して、光学部材30を撮像素子20に付勢する。遮光板60から下方の撮像素子20に向かう力が加わった際、押圧部材80が弾性変形することにより、その力を吸収する緩衝作用が働くので、その力は直接撮像素子20には伝達されず、撮像素子20が破損することを防ぐ効果がある。
【0025】
撮像素子20は、CMOS(Complementary Metal Oxide Semiconductor)型イメージセンサからなるものである。矩形薄板状の撮像素子20の下面は、基板PCの上面に取り付けられており、撮像素子20の上面中央には、画素が2次元的に配列された光電変換部21が形成されている。光電変換部21の外側には、図示していない処理部が形成されており、処理部の外縁近傍には、図示していない複数のパッドが配置されている。外部接続用端子であるパッドは、図2に示すように、ワイヤWを介して基板PCに接続されている。ワイヤWは、基板PC上の所定の回路に接続されており、この所定の回路により制御部11に撮像画像データが出力されるようになっている。
【0026】
電源制御部17は、例えば、リチウム電池、ニッケル電池、ニカド電池等により構成され、電源が投入されると、制御部11の制御に応じて、プラス側の端子及びマイナス側の端子から、携帯電話機1の各部を駆動する駆動回路に所定電圧の電源を供給する。
【0027】
次に、図3及び図4を用いて、液晶窓100と、この液晶窓100を含む絞り手段と、について説明する。
【0028】
液晶窓100は、撮像装置16に入射する光の量を調節して近接撮像を可能にするものである。液晶窓100は、2枚のガラス基板110、これらガラス基板110間に封入された液晶120、シール材130、(図示されていない)スペーサ、等から構成されている。
【0029】
ガラス基板110の液晶120と反対側の面(外面)には、図3(b)に示すように、入射する光の振動方向を規制するための偏光板111が取り付けられている。一のガラス基板110に取り付けられる偏光板111により規制される光の振動方向と、他のガラス基板110に取り付けられる偏光板111により規制される光の振動方向と、はほぼ直交するようにされている。
【0030】
また、ガラス基板110の液晶120側の面(内面)には、図3(b)に示すように、配向膜112が形成されている。配向膜112は、ガラス基板110の内面に設けたポリイミド製薄膜を所定の方向にラビングして形成したものであり、一のガラス基板110に形成した配光膜112のラビング方向と、他のガラス基板110に形成した配光膜112のラビング方向と、はほぼ直交するようにされている。かかる配向膜112のラビング方向の直交により、液晶120内の液晶分子の配列にねじれを生じさせることができる。
【0031】
液晶120は、ツイスティッド・ネマティック(TN)液晶であり、電圧が印加されていない状態における液晶分子の配列のねじれにより、入射した光の振動方向を変更するという機能を有する(施光性)。一方、液晶120に電圧を印加すると、液晶分子の配列のねじれが解消し、前記した施光性が喪失する(非施光性)。
【0032】
従って、液晶120に電圧を印加していない状態においては、一のガラス基板110の偏光板111を通過して振動方向が規制された光(偏光)は、液晶120の施光性によりその振動方向が略90°変更されて、他のガラス基板110の偏光板111を通過する。このため、外部から液晶窓100に入射した光は液晶120を透過して、撮像装置16に達することとなる。
【0033】
一方、液晶120に電圧を印加した状態においては、一のガラス基板110の偏光板111を通過して振動方向が規制された光(偏光)は、その振動方向が液晶120によって変更されることはないため、他のガラス基板110の偏光板111に遮られる。このため、外部から液晶窓100に入射した光は撮像装置16に達することはない。
【0034】
すなわち、電圧非印加状態における液晶120の施光性と、電圧印加状態における液晶120の非施光性と、を利用して、液晶窓100の光透過面積を適宜設定することができる。本実施の形態においては、一のガラス基板110に図3(a)のX方向に沿った電極を縞状に設けるとともに、他のガラス基板110に図3(a)のY方向に沿った電極を縞状に設けている。そして、これらX方向の電極とY方向の電極との交点に電圧を印加することによって、その交点における液晶120の施光性を喪失させ、光の透過を阻止している。
【0035】
本実施の形態においては、CPU11aで絞り設定プログラムc4(後述)を実行することにより、所定の交点に電圧を印加して光透過面積を変更し、撮像装置16に入射する光の量を調節している。すなわち、絞り設定プログラムc4は、本発明における印加電圧手段である。また、液晶窓100及び絞り設定プログラムc4は、本発明における絞り手段を構成する。
【0036】
図4は、絞り設定プログラムc4の実行により液晶窓100の光透過面積を変更して、3通りの絞り値(F値)を設定した状態を示したものである。図4(a)〜(c)において斜線で示した部分は、印加電圧により光の透過が阻止された部分を意味しており、白抜きで示した同心円形状の部分は、光透過部分を意味している。
【0037】
図4(a)は、絞り径(光透過部分の直径)をRとして、絞り値を通常撮像に適した値(F=8)に設定した状態を、図4(b)は、絞り径をR(<R)として、絞り値を図4(a)の状態の2倍(F=16)に設定した状態を、図4(c)は、絞り径をR(<R)として、絞り値を近接撮像に適した値(F=22)に設定した状態を、各々示している。通常は、図4(c)に示した状態で近接撮像を行うが、撮像状況に応じて、図4(b)に示した状態で近接撮像を行うこともできる。なお、「絞り値」とは、焦点距離を絞り径で除することによって算出される値である。
【0038】
シール材130は、図3(b)に示すように、2枚のガラス基板110の間に注入された液晶120を封止するための部材である。また、図示されていないスペーサは、2枚のガラス基板110同士の密着を阻止することを目的として液晶120内に混在させた極小の粒子である。
【0039】
次に、図5を用いて、本実施の形態に係る携帯電話機1の機能的構成について説明する。図5は、携帯電話機1の機能的構成を示すブロック図である。図5に示すように、携帯電話機1は、制御部11、入力部12、表示部13、アンテナ14aを有する無線通信部14、記憶部15、撮像装置16、電源制御部17、送受話部18、等を備えて構成され、各部はバス19により接続されている。
【0040】
制御部11は、CPU(Central Processing Unit)11a、書き換え可能な半導体素子で構成されるRAM(Random Access Memory)11b、不揮発性の半導体メモリで構成されるROM(Read Only Memory)11c、等から構成されている。
【0041】
ROM11cには、図示していない携帯電話機1の基本動作制御プログラム、通信処理プログラム、表示部13に表示するための表示用データ、撮像に関するパラメータデータ(自動撮像用のデフォルトの設定データ、プレビュー撮像用のデフォルトの設定データ)等の他、撮像制御プログラムc1、コード認識プログラムc2、コード認識用データc3及び絞り設定プログラムc4が記憶されている。ここで、コード認識用データc3は、画像データに情報コードとしての二次元コードが含まれているかを判断するためのコード類似性係数(Q)を設定する際の基準データである。
【0042】
CPU11aは、入力部12から入力される各種指示又は無線通信部14から入力されるデータに従って、ROM11cに記憶されている各種プログラムの中から指定されたプログラムをRAM11bのワークエリアに展開し、この入力指示及び入力データにより前記プログラムに従って各種処理を実行する。そして、CPU11aは、その処理結果をRAM11bの所定の領域に格納するとともに、表示部13に表示させる。
【0043】
例えば、CPU11aは、ROM11cに記憶される撮像制御プログラムc1を読み出して、後述する撮像制御処理を実行する。撮像制御処理として、CPU11aは、入力部12から入力されるユーザの操作指示等に従って撮像装置16を制御し、撮像装置16によって取得した画像データをRAM11bに所定のメモリ等に格納した上で、フレームレート25fpsで、表示部13にプレビュー表示させる。
【0044】
通常撮像を行う場合には、CPU11aは、絞り設定プログラムc4の実行により、液晶窓100の液晶120の所定部分に電圧を印加して、絞り値を通常撮像に適した値(F=8)に設定する。一方、近接撮像を行う場合には、CPU11aは、絞り設定プログラムc4の実行により、液晶窓100の液晶120の電圧を印加する部分を変更して、絞り値を近接撮像に適した値(F=22又はF=16)に設定する。
【0045】
また、CPU11aは、コード認識プログラムc2に従って、取得した画像データに対して二次元コードである可能性のある二次元コード対象を認識するコード処理を実行する。具体的に説明すると、CPU11aは、5フレーム毎に、画像データと、コード認識用データc3と、を対照することにより、画像データに二次元コードが含まれているか否かの判断を実行する。より具体的には、CPU11aは、画像データと、類似性係数算定用情報としてのコード認識用データc3と、を比較することにより、二次元コード対象にコード類似性係数を算出し、このコード類似性係数の値に基づいて、二次元コードである可能性のある二次元コード対象や二次元コードを認識する。
【0046】
さらに、CPU11aは、コード類似性係数が、コードを含んでいる可能性があるが、決定的でない数値であると判断した二次元コード対象がある場合には、撮像モードを通常撮像モードから近接撮像モードに切り替える。具体的に説明すると、CPU11aは、コード類似性係数が、コードを含んでいる可能性があるが、決定的でない数値であると判断した二次元コード対象がある場合には、絞り設定プログラムc4を実行して液晶窓100の光透過面積を変更することにより、通常撮像に適した絞り値(F=8)を近接撮像に適した絞り値(F=22又はF=16)に変更する。すなわち、CPU11aは、本発明における制御手段である。
【0047】
また、CPU11aは、取得した画像データ中に二次元コードを認識した場合には、二次元コードのデコード処理を行うとともに、デコード処理結果を表示部13に表示させる。また、CPU11aは、デコード処理を行った情報コードの情報に基づく動作を実行する。
【0048】
無線通信部14は、制御部11から入力される指示に従って、無線基地局との間で、アンテナ14aを介して所定の通信方式に対応する携帯電話用の通信プロトコルを実行し、この通信方式で設定される通信チャネルにより、送受話音声の送受信やデータ通信を実行する。
【0049】
記憶部15は、制御部11により実行された処理結果のデータ等を記憶するものである。例えば、記憶部15は、撮像装置16により撮像された画像のデータ、無線通信部14を介して送受信したメールのデータ、通話履歴のデータ等を記憶する。
【0050】
送受話部18は、図示していないマイク、スピーカ、A/D変換部及びD/A変換部等を有し、マイクから入力されるユーザの送話音声をA/D変換処理して、その送話音声データをCPU11aに出力するとともに、CPU11aから入力される受話音声データや、着信音、操作確認音、シャッタ音等の音声データをD/A変換処理して、スピーカから出力する。
【0051】
続いて、図6及び図7を参照して、本実施の形態に係る携帯電話機1の撮像制御処理について説明する。図6は、撮像制御処理を説明するためのフローチャートであり、図7は、撮像制御処理における被写体の概略図である。
【0052】
携帯電話機1のユーザによって、入力部12の所定のボタンが押下されると、CPU11aは、撮像処理の指示の入力であると判断し、ROM11cに記憶されている撮像制御プログラムc1を読み出してRAM11bに展開し、この撮像制御プログラムc1に従って、撮像処理の制御を開始する。このとき、ユーザは、携帯電話機1の撮像装置16を被写体に向けることにより、図7に示すような、被写体(二次元コードのようなもの)を撮影することとする。
【0053】
撮像処理においては、CPU11aは、まずRAM11bに格納されている画像データのフレームのカウント数を0(N=0)にリセットし(ステップS1)、通常撮像モードによる撮像処理の開始指示を撮像装置16に出力する。すると、撮像装置16は、通常撮像モードにおける撮像処理として、光学部材30により集光されて撮像素子20の光電変換部21に結像された被写体の画像データを、順次制御部11に出力する(ステップS2)。
【0054】
すると、CPU11aは、撮像装置16より入力される画像データを、順次RAM11bに格納するとともに、これらの画像をフレームレート25fpsで表示部13に表示させるプレビュー表示処理を実行する(ステップS3)。また、CPU11aは、プレビュー表示処理の実行と平行して、撮像装置16から入力される画像のフレーム数をカウント(N=N+1)し(ステップS4)、フレーム数が「5」であるか否かを判断する(ステップS5)。
【0055】
そして、CPU11aは、フレーム数が「5」であると判断した場合(ステップS5:Yes)には、ステップS6に移行する。一方、フレーム数が5でないと判断した場合(ステップS5:No)には、ステップS2に戻ってステップS3及びステップS4を繰り返す。
【0056】
次いで、ステップS6〜ステップS8において、CPU11aは、ROM11cに記憶されているコード認識プログラムc2を読み出してRAM11bに展開し、このコード認識プログラムc2に従って、コード認識処理の制御を開始する。具体的には、CPU11aはフレーム数が「5」となったときの被写体の画像データと、コード認識用データc3と、を比較対照することにより、二次元コードの認識処理を実行する。
【0057】
ここで、認識処理の方法として、例えば、被写体の画像データに二次元コードであることを示す所定の切り出しシンボルを検出することにより認識する方法、被写体の画像データの濃度により認識する方法、二次元コードの所定のモザイク形状を認識する方法、等があるが、これらに限定されるものではない。
【0058】
ステップS6〜ステップS8におけるCPU11aの動作を具体的に説明する。CPU11aは、ステップS6において、画像データと、類似性係数算定情報としてのコード認識用データc3と、を比較することにより、この画像データの二次元コードである可能性を判断するためのコード類似性係数(Q)を算出する。
【0059】
次いで、CPU11aは、算出されたコード類似性係数(Q)の値が、「0.5」以上であるか否かを判断し(ステップS7)、Qは「0.5」以上であると判断した場合(ステップS7:Yes)には、所定の二次元コードの可能性があると判断する。
【0060】
一方、CPU11aは、算出されたコード類似性係数(Q)が0.5未満であると判断した場合(ステップS7:No)には、二次元コードである可能性が少ないと判断し、フレームのカウントを0にリセット設定した(ステップ9)上でステップS2に戻り、プレビュー表示処理と5フレーム毎のコード認識処理と、を繰り返す。
【0061】
このように、CPU11aは、5フレーム毎に、被写体の画像データに対し、二次元コードの認識処理を実行する。従って、CPU11aの処理負荷が低減されることとなって、並行して実行する被写体の画像データの取得処理及び画像データのプレビュー表示処理への影響を軽減することができる。
【0062】
また、CPU11aは、ステップS8においてコード類似性係数(Q)が「1」であるか否かを判断し、「1」であると判断した場合(ステップS8:Yes)には、二次元コードであると判断してステップS10に移行する。
【0063】
一方、CPU11aは、コード類似性係数(Q)が「0.5」以上であるが「1」ではないと判断した場合(ステップS8:No)には、二次元コード対象であると認識する。そして、CPU11aは、撮像装置16に近接撮像を実行するように近接撮像モード設定処理を実行し(ステップS11)、ステップS9を経てステップS2に戻る。
【0064】
そしてステップS2以降の工程で、近接撮像モードにおける撮像処理を行う。すなわち、CPU11aは、絞り設定プログラムc4を実行して液晶窓100の光透過面積を変更することにより、通常撮像に適した絞り値(F=8)を近接撮像に適した絞り値(F=22又はF=16)に変更した上で、被写体の近接撮像を行う。この際、撮像装置16によって取得された近接撮像の画像データは、表示部13にプレビュー表示される。また、CPU11aは、この近接撮像モードにおける撮像処理及びプレビュー表示処理と平行して、近接撮像モードによる画像データに対し、5フレーム毎のコード認識処理を実行する。
【0065】
このとき、近接撮像モードにおける撮像処理は、通常撮像モードにおける撮像処理に比べて被写体深度が深いので、二次元コードの認識率が向上することとなる。従って、通常撮像モードにおいて二次元コードとしての可能性があるが確定ではないもの(二次元コード対象)を、二次元コードとして認識することができる。これに伴って、被写体の画像データにおける二次元コードの認識率が向上する。
【0066】
ステップS8においてコード類似性係数(Q)が「1」であると判断してステップS10に移行した場合には、CPU11aは、認識された二次元コードのデコード処理を実行し、その二次元コードのコード情報内容を表示部13に表示させる(ステップS12)。ここで、表示部13に表示されるコード情報内容としては、例えば、URLアドレス・電子メールアドレス等の文字情報や、任意の画像情報、等を挙げることができる。
【0067】
次いで、CPU11aは、ユーザによる入力部12の操作により、表示部13に表示されたコード情報内容に対する所定の処理の指示信号が入力されたか否かを判断し(ステップS13)、指示信号が入力されたと判断した場合(ステップS13:Yes)には、その指示に応じた処理を実行(ステップS14)してステップS15に移行する。
【0068】
ここで、コード情報内容に対する所定の処理としては、例えば、コード情報内容がURLアドレスである場合には、そのURLアドレスへの接続指示、コード情報内容が電子メールアドレスである場合には、その電子メールアドレス宛の電子メールの作成指示、コード情報内容が電話番号・電子メールアドレス等である場合には、アドレス帳等への保存処理、等を挙げることができるが、これらに限定されるものではない。
【0069】
一方、CPU11aは、ステップS13において、ユーザからの指示信号の入力がないと判断した場合(ステップS13:No)には、ステップS15に移行する。そして、ステップS15において、CPU11aは、ユーザの入力部12の操作により、撮像処理の終了指示が入力されたか否かを判断し、入力されたと判断した場合には、撮像装置16に撮像処理の終了指示を出力することにより、本撮像制御処理を終了する。
【0070】
一方、CPU11aは、撮像処理の終了指示の入力がないと判断した場合(ステップS15:No)には、ステップS9を経て、ステップS2以降の工程を繰り返す。
【0071】
本実施の形態に係る携帯電話機1においては、制御手段であるCPU11aが、撮像装置16により取得した画像データに基づいて、絞り手段(液晶窓100及び絞り設定プログラムc4)を制御し、通常撮像を行う通常撮像モードから、近接撮像を行う近接撮像モードへと自動的に切り替えることができる。従って、撮像モードを切り替える際に、ユーザが撮像モードの適否を判断したり手指で切替操作を行ったりする必要がない。また、撮像モードを切り替える際に撮像装置16を手指で回動させる必要がない。この結果、撮像時の操作を格段に簡素化することができる。
【0072】
また、本実施の形態に係る携帯電話機1においては、絞り手段が、ガラス基板110及び液晶120を有する液晶窓100と、液晶120の一部に電圧を印加して液晶窓100の光透過面積を変更することにより撮像装置16に入射する光の量を調節する印加電圧手段(絞り設定プログラムc4)と、を備えるので、液晶の特性(電圧非印加時の施光性及び電圧印加時の非施光性)を利用して、撮像装置16に入射する光の量を電気的に調節することができる。この結果、撮像装置16に入射する光の量を調節するために複雑な機械的構成を設ける必要がないので、携帯電話機1の軽量化や薄型化が可能となる。
【0073】
また、本実施の形態に係る携帯電話機1における撮像制御処理においては、撮像装置16による被写体の画像データの取得処理及びその画像データのプレビュー表示処理と平行して、画像データ中の所定の二次元コードデータの認識処理及び二次元コードデータのデコード処理が自動的に実行される。従って、ユーザは、例えば、名刺や雑誌等に付けられている二次元コードを認識、解読するために面倒な設定をしなくとも通常の撮像処理の場合と同様の操作をすることで、自動的に二次元コードの読取、解読を行えることとなるので、大変使い勝手が良い。
【0074】
また、例えば、通常撮像モードによって取得した画像データのピントがぼけていたり、ノイズが多く含まれていたりすることにより、二次元コードと明確に認識することができないが、その可能性がある場合には、二次元コードの認識に適した近接撮像モードによる撮像処理に自動的に切り換わるように絞り手段が制御される。従って、ユーザに、撮像モードの設定変更の手間を課すことなく、二次元コードの認識精度を高めることができる。
【0075】
また、通常撮像モードによって取得した画像データに二次元コードが含まれている可能性が少ない場合や、明確に二次元コードが認識できた場合には、撮像モードが切り換わらないので、効率的である。
【0076】
なお、本実施の形態における記述内容は、本発明に係る携帯電話機1の好適な一例であり、これに限定されるものではない。例えば、通常撮像モードと、近接撮像モードと、による撮像処理が実行可能であれば、本実施の形態において例示した撮像装置16の構成に限定されるものではない。また、以上の実施の形態においては、情報コードの一例として二次元コードを用いて説明を行ったが、二次元コードに限定されるものではなく、例えば、バーコード、カラーコード等どのような情報コードであってもよい。
【0077】
また、本実施の形態に係る携帯電話機1における撮像制御処理においては、二次元コードをデコードすると、そのコード情報内容を表示部13に表示させた上で、ユーザによる所定の処理の指示に基づいて、二次元コードの情報内容に応じた各種処理を実行する構成で説明を行ったが、CPU11aにより、コード情報内容が解読されると自動的に所定の処理を実行する構成であってもよい。
【0078】
その他、本実施の形態における携帯電話機1の細部構成及び詳細動作に関しては、本発明の趣旨を逸脱しない範囲で適宜変更可能である。また、本発明の携帯端末は、本実施の形態で挙げた携帯電話機1に限定されず、PHS(R)PC、PDA等であってもよい。
【0079】
【発明の効果】
請求項1記載の発明によれば、制御手段によって、撮像装置により取得した画像データに基づいて絞り手段を制御し、通常撮像を行う通常撮像モードから、近接撮像を行う近接撮像モードへと自動的に切り替えることができる。従って、撮像モードを切り替える際に、ユーザが撮像モードの適否を判断したり手指で切替操作を行ったりする必要がない。また、撮像モードを切り替える際に撮像装置を手指で回動させる必要がない。この結果、撮像時の操作を格段に簡素化することができる。
【0080】
請求項2記載の発明によれば、絞り手段は、ガラス基板及び液晶を有する液晶窓と、液晶の一部に電圧を印加して液晶窓の光透過面積を変更することにより撮像装置に入射する光の量を調節する印加電圧手段と、を備えるので、液晶の特性(電圧非印加時の施光性及び電圧印加時の非施光性)を利用して、撮像装置に入射する光の量を電気的に調節することができる。この結果、撮像装置に入射する光の量を調節するために複雑な機械的構成を設ける必要がないので、携帯端末の軽量化や薄型化が可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る携帯電話機の外観構成を示すものであり、(a)は携帯電話機の正面図、(b)は携帯電話機の背面図である。
【図2】図1(b)のII−II部分の断面図である。
【図3】(a)は、図1に示した携帯電話機に備えられる液晶窓の構成を説明するための斜視図であり、(b)は、(a)のB−B部分の断面図である。
【図4】図3に示した液晶窓の光透過面積を変更することにより絞り値(F値)を3通りに設定した状態を示す説明図である。
【図5】図1に示した携帯電話機の機能的構成を示すブロック図である。
【図6】図1に示した携帯電話機の撮像制御処理を説明するためのフローチャートである。
【図7】図1に示した携帯電話機の撮像装置によって撮像される被写体の例を示す概略図である。
【符号の説明】
1 携帯電話機(携帯端末)
11a CPU(制御手段)
16 撮像装置
20 撮像素子
21 光電変換部
32 レンズ部
100 液晶窓(絞り手段)
110 ガラス基板
111 偏光板
112 配向膜
120 液晶
c4 絞り設定プログラム(印加電圧手段、絞り手段)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a mobile terminal.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, various portable information communication terminal devices (hereinafter, referred to as “portable terminals”) such as PDAs, mobile phones, and PHS® having an information communication function and a personal information management function have been proposed and put into practical use. In recent years, a portable terminal having a function of capturing an image of a predetermined subject existing outside by using a mounted imaging device has been proposed. For example, there has been proposed a mobile terminal capable of performing imaging by switching between a normal imaging mode for imaging a predetermined subject and a close-up imaging mode for imaging a subject at a close position (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP-A-2002-262164
[Problems to be solved by the invention]
However, when the mobile terminal described in Patent Literature 1 is used, it is necessary for the user to determine whether to be in the normal imaging mode or the close-up imaging mode and to perform the switching operation. was there. In particular, the mobile terminal described in Patent Literature 1 has a structure in which the imaging mode is switched in association with the rotation of the imaging device. Therefore, every time the imaging mode is switched, the user has to rotate the imaging device with a finger. It was troublesome.
[0005]
An object of the present invention is to realize automatic switching control of an imaging mode in a portable terminal including an imaging device, and to simplify an operation at the time of imaging.
[0006]
[Means for Solving the Problems]
In order to solve the above problems, the invention described in claim 1 is
An imaging device having a photoelectric conversion unit, and a lens unit that forms a subject image on the photoelectric conversion unit, a mobile terminal including an imaging device having:
Diaphragm means for adjusting the amount of light incident on the imaging device to enable close-up imaging;
A control unit that automatically switches from a normal imaging mode for performing normal imaging to a close-up imaging mode for performing close-up imaging by controlling the aperture unit based on image data acquired by the imaging device;
It is characterized by having.
[0007]
According to the first aspect of the present invention, the control unit controls the aperture unit based on the image data acquired by the imaging device, and automatically switches from the normal imaging mode for performing normal imaging to the close-up imaging mode for performing close-up imaging. Can be switched. Therefore, when switching the imaging mode, there is no need for the user to judge whether or not the imaging mode is appropriate or to perform the switching operation with fingers. Further, it is not necessary to rotate the imaging device with a finger when switching the imaging mode. As a result, the operation at the time of imaging can be greatly simplified.
[0008]
According to a second aspect of the present invention, in the portable terminal according to the first aspect,
The aperture means,
A liquid crystal window including two glass substrates provided with a polarizing plate and an alignment film, and liquid crystal sealed between the glass substrates;
Applying voltage to a part of the liquid crystal to change a light transmission area of the liquid crystal window, thereby applying voltage means for adjusting an amount of light incident on the imaging device;
It is characterized by having.
[0009]
According to the second aspect of the present invention, the stop means enters the image pickup apparatus by changing the light transmission area of the liquid crystal window by applying a voltage to a part of the liquid crystal window and the liquid crystal window having the glass substrate and the liquid crystal. And an applied voltage means for adjusting the amount of light to be applied, so that the characteristics of the liquid crystal (light application property when no voltage is applied and non-light application property when a voltage is applied) are used to make light incident on the imaging device. The quantity can be adjusted electronically. As a result, there is no need to provide a complicated mechanical configuration for adjusting the amount of light incident on the imaging device, so that the weight and thickness of the portable terminal can be reduced.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, as an example of a mobile terminal to which the present invention is applied, a mobile phone with an imaging device (hereinafter, simply referred to as a “mobile phone”) will be described.
[0011]
First, the mechanical configuration of the mobile phone 1 according to the present embodiment will be described with reference to FIGS. FIG. 1 is a diagram illustrating an external configuration of the mobile phone 1. FIG. 2 is a cross-sectional view taken along the line II-II in FIG. 1B, and is for explaining the configuration of the imaging device 16 provided in the mobile phone 1. In FIG. 2, a liquid crystal window 100 described later is indicated by a dotted line. FIG. 3A is a perspective view for explaining a configuration of a liquid crystal window 100 provided in the mobile phone 1, and FIG. 3B is a cross-sectional view taken along a line BB of FIG. 3A. . FIG. 4 is an explanatory diagram showing a state in which the aperture value (F value) is set to three different values by changing the light transmission area of the liquid crystal window 100 shown in FIG.
[0012]
As shown in FIG. 1, a mobile phone 1 according to the present embodiment is of a foldable type in which a first housing 10a and a second housing 10b are connected to each other so as to be openable and closable by a hinge joint 10c.
[0013]
The first housing 10a is provided with a display unit 13 on a surface (front surface) that becomes inside when folded (see FIG. 1A), and a liquid crystal (described later) is provided on a surface (back surface) that becomes outside when folded. A window 100 is provided (see FIG. 1B). An imaging device 16 is provided behind the liquid crystal window 100 shown in FIG. By changing the light transmission area of the liquid crystal window 100 by the applied voltage and adjusting the amount of light incident on the imaging device 16, the normal imaging mode can be switched to the close-up imaging mode. The liquid crystal window 100 will be described later with reference to FIGS.
[0014]
An input unit 12 is provided on the front of the second housing 10b (see FIG. 1A), and a power control unit 17 such as a charge pack is provided on the back (see FIG. 1B). . Further, as shown in FIG. 1B, an antenna 14a is provided on the upper part of the mobile phone 1. Inside the second housing 10b, a control unit 11 for integrally controlling the entire apparatus, a wireless communication unit 14 for transmitting and receiving a wireless signal related to an incoming call and an outgoing call with a wireless base station (not shown), a storage unit 15 and a transmission / reception unit 18 are built in. The control unit 11, the wireless communication unit 14, and the like will be described later with reference to FIG.
[0015]
The input unit 12 includes a numeric keypad, various function switches, a mode switch for switching between a call mode and a camera mode, and the like, and is used for inputting an instruction to execute a shooting process.
[0016]
The display unit 13 includes an LCD (Liquid Crystal Display) panel or the like, and performs screen display based on display data input from the control unit 11. In addition, the display unit 13 displays an image that has been preview-photographed by the imaging device 16, the content of code information decoded by the control unit 11, and the like. The antenna 14a is connected to the wireless communication unit 14.
[0017]
The imaging device 16 includes the imaging device 20 and the lens unit 32, and converts an image input via the lens unit 32 into an electric signal by the imaging device 20 to generate image data. Further, the imaging device 16 is capable of executing an imaging process in a normal imaging mode and a proximity imaging mode based on the control of the control unit 11.
[0018]
Here, the “normal imaging mode” is an imaging mode in which the depth of field is 1 m to ∞. The “proximity imaging mode” is an imaging mode in which the depth of field is several cm to ∞, and is suitable for imaging when the focal length is shorter than in the normal imaging mode and the distance to the subject is shorter.
[0019]
The configuration of the imaging device 16 will be described with reference to FIG. The imaging device 16 is provided on one surface of the substrate PC, and adjusts the amount of light incident on the imaging device 20 serving as a sensor for sensing light, the optical member 30 for condensing the light on the imaging device 20, and the amount of light incident on the optical member 30. Aperture plate 40, mirror frame 50 as an outer frame member for covering image pickup device 20, light shielding plate 60 having light shielding properties, filter 70 supported by light shielding plate 60, pressing member 80 for pressing optical member 30, optical member It is configured to include a positioning electric component 90 for positioning the 30.
[0020]
The optical member 30 serves to form a subject image on the photoelectric conversion unit 21 of the imaging device 20 and is made of a transparent plastic material. As shown in FIG. 2, the optical member 30 is supported by the leg 31 and the leg 31. And a convex lens-shaped lens portion 32 are integrally formed.
[0021]
As shown in FIG. 2, the aperture plate 40 is fixed on the upper surface of the optical member 30 and around the lens unit 32 with an adhesive B. The aperture plate 40 is made of a light-shielding material, and has an opening 41 as an aperture that defines an aperture value (F value) of the lens unit 32.
[0022]
The lens frame 50 is made of a material having a light-shielding property, and is arranged outside the optical member 30. The lens frame 50 is formed in a quadrangular prism shape, and a support portion 51 that supports the optical member 30 along the horizontal direction is integrally formed on two opposing inner surfaces thereof.
[0023]
The light shielding plate 60 is attached to the upper end of the lens frame 50 with an adhesive. The light-shielding plate 60 has an opening 61 as a diaphragm at a position corresponding to the optical member 30, and a filter 70 made of a material having infrared absorption characteristics is bonded below the opening 61 by an adhesive. . The filter 70 is formed corresponding to the diameter of the optical member 30. The light shielding plate 60 is formed to be slightly smaller than the opening at the upper end of the lens frame 50 so as to close this opening. The light shielding plate 60 and the filter 70 form a cover member. As described above, since the substrate PC, the lens frame 50, and the cover member are in close contact with and joined to each other, the imaging device 16 has a dustproof and moistureproof structure.
[0024]
A pressing member 80 formed of an elastic member such as a coil spring is disposed between the optical member 30 and the light shielding plate 50. By attaching the light shielding plate 60 to the lens frame 50, the light shielding plate 60 presses the pressing member 80, and the pressing member 80 is elastically deformed. The pressing member 80 presses the optical member 30 downward with a predetermined pressing force toward the lower side in FIG. 2 to urge the optical member 30 toward the image sensor 20. When a force is applied from the light-shielding plate 60 to the lower imaging device 20, the pressing member 80 is elastically deformed, so that a buffering action is performed to absorb the force. Therefore, the force is not directly transmitted to the imaging device 20. This has the effect of preventing the image sensor 20 from being damaged.
[0025]
The image sensor 20 is a CMOS (Complementary Metal Oxide Semiconductor) type image sensor. The lower surface of the rectangular thin plate-shaped imaging device 20 is attached to the upper surface of the substrate PC, and a photoelectric conversion unit 21 in which pixels are two-dimensionally arranged is formed at the center of the upper surface of the imaging device 20. A processing unit (not shown) is formed outside the photoelectric conversion unit 21, and a plurality of pads (not shown) are arranged near the outer edge of the processing unit. The pads as external connection terminals are connected to the substrate PC via wires W, as shown in FIG. The wire W is connected to a predetermined circuit on the substrate PC, and the predetermined circuit outputs captured image data to the control unit 11.
[0026]
The power control unit 17 includes, for example, a lithium battery, a nickel battery, a nickel battery, or the like. When the power is turned on, the power supply control unit 17 controls the mobile phone from a positive terminal and a negative terminal according to the control of the control unit 11. A power supply of a predetermined voltage is supplied to a drive circuit that drives each unit of the first embodiment.
[0027]
Next, the liquid crystal window 100 and the aperture means including the liquid crystal window 100 will be described with reference to FIGS.
[0028]
The liquid crystal window 100 adjusts the amount of light incident on the imaging device 16 to enable close-up imaging. The liquid crystal window 100 includes two glass substrates 110, a liquid crystal 120 sealed between the glass substrates 110, a sealant 130, a spacer (not shown), and the like.
[0029]
As shown in FIG. 3B, a polarizing plate 111 for regulating the vibration direction of the incident light is attached to the surface (outer surface) of the glass substrate 110 opposite to the liquid crystal 120. The vibration direction of light regulated by the polarizing plate 111 attached to one glass substrate 110 is substantially orthogonal to the vibration direction of light regulated by the polarizing plate 111 attached to the other glass substrate 110. I have.
[0030]
An orientation film 112 is formed on the surface (inner surface) of the glass substrate 110 on the liquid crystal 120 side, as shown in FIG. The alignment film 112 is formed by rubbing a polyimide thin film provided on the inner surface of the glass substrate 110 in a predetermined direction. The rubbing direction of the light distribution film 112 formed on one glass substrate 110 and the other glass The rubbing direction of the light distribution film 112 formed on the substrate 110 is substantially perpendicular to the rubbing direction. The orientation of the liquid crystal molecules in the liquid crystal 120 can be twisted due to the orthogonality of the rubbing direction of the alignment film 112.
[0031]
The liquid crystal 120 is a twisted nematic (TN) liquid crystal, and has a function of changing the vibration direction of incident light by twisting the arrangement of liquid crystal molecules in a state where no voltage is applied (light emitting property). On the other hand, when a voltage is applied to the liquid crystal 120, the twist of the alignment of the liquid crystal molecules is eliminated, and the light-emitting property is lost (non-light-emitting property).
[0032]
Therefore, when no voltage is applied to the liquid crystal 120, the light (polarized light) that has passed through the polarizing plate 111 of the one glass substrate 110 and whose vibration direction has been restricted, is vibrated by the light application property of the liquid crystal 120. Is changed by approximately 90 ° and passes through the polarizing plate 111 of another glass substrate 110. Therefore, light incident on the liquid crystal window 100 from the outside passes through the liquid crystal 120 and reaches the imaging device 16.
[0033]
On the other hand, when a voltage is applied to the liquid crystal 120, light (polarized light) whose vibration direction is restricted by passing through the polarizing plate 111 of one glass substrate 110 is not changed by the liquid crystal 120. Therefore, the light is blocked by the polarizing plate 111 of the other glass substrate 110. Therefore, light incident on the liquid crystal window 100 from outside does not reach the imaging device 16.
[0034]
That is, the light transmission area of the liquid crystal window 100 can be appropriately set by utilizing the light application property of the liquid crystal 120 in the voltage non-application state and the light non-application property of the liquid crystal 120 in the voltage application state. In the present embodiment, electrodes along the X direction in FIG. 3A are provided in stripes on one glass substrate 110, and electrodes along the Y direction in FIG. Are provided in a stripe pattern. Then, by applying a voltage to the intersection between the X-direction electrode and the Y-direction electrode, the light-emitting property of the liquid crystal 120 at the intersection is lost, and light transmission is prevented.
[0035]
In the present embodiment, the CPU 11a executes an aperture setting program c4 (described later) to apply a voltage to a predetermined intersection, change the light transmission area, and adjust the amount of light incident on the imaging device 16. ing. That is, the aperture setting program c4 is the applied voltage means in the present invention. Further, the liquid crystal window 100 and the aperture setting program c4 constitute an aperture unit in the present invention.
[0036]
FIG. 4 shows a state in which the light transmission area of the liquid crystal window 100 is changed by executing the aperture setting program c4, and three aperture values (F values) are set. In FIGS. 4A to 4C, hatched portions indicate portions where light transmission is blocked by the applied voltage, and concentric portions shown as white portions indicate light transmitting portions. are doing.
[0037]
FIG. 4A shows a state in which the aperture value (diameter of the light transmitting portion) is R 1 and the aperture value is set to a value (F = 8) suitable for normal imaging, and FIG. Is set to R 2 (<R 1 ), the aperture value is set to twice (F = 16) the state of FIG. 4A, and FIG. 4C is the aperture diameter set to R 3 (<R 2 ) Respectively show states in which the aperture value is set to a value suitable for close-up imaging (F = 22). Normally, close-up imaging is performed in the state shown in FIG. 4C, but close-up imaging can also be performed in the state shown in FIG. The “aperture value” is a value calculated by dividing the focal length by the aperture diameter.
[0038]
The sealing material 130 is a member for sealing the liquid crystal 120 injected between the two glass substrates 110, as shown in FIG. The spacers (not shown) are extremely small particles mixed in the liquid crystal 120 for the purpose of preventing the two glass substrates 110 from adhering to each other.
[0039]
Next, a functional configuration of the mobile phone 1 according to the present embodiment will be described with reference to FIG. FIG. 5 is a block diagram illustrating a functional configuration of the mobile phone 1. As shown in FIG. 5, the mobile phone 1 includes a control unit 11, an input unit 12, a display unit 13, a wireless communication unit 14 having an antenna 14a, a storage unit 15, an imaging device 16, a power supply control unit 17, and a transmission / reception unit 18. , Etc., and each unit is connected by a bus 19.
[0040]
The control unit 11 includes a CPU (Central Processing Unit) 11a, a RAM (Random Access Memory) 11b composed of a rewritable semiconductor element, a ROM (Read Only Memory) 11c composed of a nonvolatile semiconductor memory, and the like. Have been.
[0041]
In the ROM 11c, a basic operation control program, a communication processing program, display data to be displayed on the display unit 13, and parameter data relating to imaging (default setting data for automatic imaging, preview imaging , An imaging control program c1, a code recognition program c2, code recognition data c3, and an aperture setting program c4. Here, the code recognition data c3 is reference data for setting a code similarity coefficient (Q) for determining whether the image data includes a two-dimensional code as an information code.
[0042]
The CPU 11a develops a program specified from various programs stored in the ROM 11c into a work area of the RAM 11b according to various instructions input from the input unit 12 or data input from the wireless communication unit 14, Various processes are executed according to the program according to instructions and input data. Then, the CPU 11a stores the processing result in a predetermined area of the RAM 11b and causes the display unit 13 to display the result.
[0043]
For example, the CPU 11a reads the imaging control program c1 stored in the ROM 11c and executes an imaging control process described later. As an imaging control process, the CPU 11a controls the imaging device 16 in accordance with a user operation instruction or the like input from the input unit 12, stores image data acquired by the imaging device 16 in a predetermined memory or the like in the RAM 11b, A preview is displayed on the display unit 13 at a rate of 25 fps.
[0044]
When performing normal imaging, the CPU 11a applies a voltage to a predetermined portion of the liquid crystal 120 of the liquid crystal window 100 by executing the aperture setting program c4, and sets the aperture value to a value suitable for normal imaging (F = 8). Set. On the other hand, when performing close-up imaging, the CPU 11a changes the portion of the liquid crystal window 100 to which the voltage of the liquid crystal 120 is applied by executing the aperture setting program c4, and changes the aperture value to a value suitable for close-up imaging (F = 22 or F = 16).
[0045]
Further, the CPU 11a executes a code process for recognizing a two-dimensional code object that may be a two-dimensional code on the acquired image data according to the code recognition program c2. More specifically, the CPU 11a compares the image data with the code recognition data c3 every five frames to determine whether or not the image data contains a two-dimensional code. More specifically, the CPU 11a calculates the code similarity coefficient for the two-dimensional code object by comparing the image data with the code recognition data c3 as the similarity coefficient calculation information, and calculates the code similarity coefficient. A two-dimensional code object or a two-dimensional code which may be a two-dimensional code is recognized based on the value of the sex coefficient.
[0046]
Further, when the code similarity coefficient may include a code, but there is a two-dimensional code object determined to be a non-deterministic numerical value, the CPU 11a changes the imaging mode from the normal imaging mode to the close-up imaging mode. Switch to mode. More specifically, if the code similarity coefficient may include a code, but there is a two-dimensional code target that is determined to be a non-deterministic numerical value, the CPU 11a executes the aperture setting program c4. By changing the light transmission area of the liquid crystal window 100 by executing the process, the aperture value (F = 8) suitable for normal imaging is changed to the aperture value (F = 22 or F = 16) suitable for close-up imaging. That is, the CPU 11a is control means in the present invention.
[0047]
Further, when the CPU 11a recognizes a two-dimensional code in the acquired image data, the CPU 11a performs a decoding process of the two-dimensional code and displays the decoding process result on the display unit 13. Further, the CPU 11a performs an operation based on the information of the information code on which the decoding process has been performed.
[0048]
The wireless communication unit 14 executes a communication protocol for a mobile phone corresponding to a predetermined communication method with the wireless base station via the antenna 14a in accordance with an instruction input from the control unit 11, and uses this communication method. Transmission / reception voice transmission / reception and data communication are executed by the set communication channel.
[0049]
The storage unit 15 stores data of a result of the processing executed by the control unit 11 and the like. For example, the storage unit 15 stores data of an image captured by the imaging device 16, data of mail transmitted and received via the wireless communication unit 14, data of a call history, and the like.
[0050]
The transmission / reception unit 18 has a microphone, a speaker, an A / D conversion unit, a D / A conversion unit, and the like (not shown), and performs A / D conversion processing on a user's transmission voice input from the microphone. The transmission voice data is output to the CPU 11a, and the reception voice data, the ring tone, the operation confirmation sound, the shutter sound, and the like input from the CPU 11a are D / A converted and output from the speaker.
[0051]
Next, an imaging control process of the mobile phone 1 according to the present embodiment will be described with reference to FIGS. FIG. 6 is a flowchart for explaining the imaging control process, and FIG. 7 is a schematic diagram of a subject in the imaging control process.
[0052]
When a predetermined button of the input unit 12 is pressed by the user of the mobile phone 1, the CPU 11a determines that the input is an instruction for an imaging process, reads the imaging control program c1 stored in the ROM 11c, and reads the imaging control program c1 into the RAM 11b. Then, control of the imaging process is started according to the imaging control program c1. At this time, the user shoots the subject (such as a two-dimensional code) as shown in FIG. 7 by pointing the imaging device 16 of the mobile phone 1 toward the subject.
[0053]
In the imaging process, the CPU 11a first resets the count number of frames of the image data stored in the RAM 11b to 0 (N = 0) (step S1), and issues an instruction to start the imaging process in the normal imaging mode to the imaging device 16. Output to Then, the imaging device 16 sequentially outputs the image data of the subject condensed by the optical member 30 and formed on the photoelectric conversion unit 21 of the imaging element 20 to the control unit 11 as the imaging process in the normal imaging mode ( Step S2).
[0054]
Then, the CPU 11a executes a preview display process of sequentially storing the image data input from the imaging device 16 in the RAM 11b and displaying these images on the display unit 13 at a frame rate of 25 fps (step S3). Further, in parallel with the execution of the preview display processing, the CPU 11a counts the number of frames of the image input from the imaging device 16 (N = N + 1) (step S4), and determines whether the number of frames is “5”. Is determined (step S5).
[0055]
When the CPU 11a determines that the number of frames is “5” (step S5: Yes), the process proceeds to step S6. On the other hand, if it is determined that the number of frames is not 5 (step S5: No), the process returns to step S2 and repeats steps S3 and S4.
[0056]
Next, in steps S6 to S8, the CPU 11a reads the code recognition program c2 stored in the ROM 11c and expands the code recognition program c2 in the RAM 11b, and starts controlling the code recognition process according to the code recognition program c2. Specifically, the CPU 11a executes the two-dimensional code recognition process by comparing and comparing the image data of the subject when the number of frames is “5” with the code recognition data c3.
[0057]
Here, as a method of the recognition processing, for example, a method of performing recognition by detecting a predetermined cutout symbol indicating a two-dimensional code in image data of a subject, a method of performing recognition based on the density of image data of a subject, There is a method of recognizing a predetermined mosaic shape of the code, but the method is not limited to these.
[0058]
The operation of the CPU 11a in steps S6 to S8 will be specifically described. In step S6, the CPU 11a compares the image data with the code recognition data c3 as similarity coefficient calculation information to determine the code similarity for determining the possibility that the image data is a two-dimensional code. Calculate the coefficient (Q).
[0059]
Next, the CPU 11a determines whether or not the calculated value of the code similarity coefficient (Q) is “0.5” or more (Step S7), and determines that Q is “0.5” or more. If this is done (step S7: Yes), it is determined that there is a possibility of a predetermined two-dimensional code.
[0060]
On the other hand, when determining that the calculated code similarity coefficient (Q) is less than 0.5 (Step S7: No), the CPU 11a determines that there is little possibility that the code is a two-dimensional code, and After resetting the count to 0 (step 9), the process returns to step S2, and the preview display process and the code recognition process for every five frames are repeated.
[0061]
As described above, the CPU 11a executes the two-dimensional code recognition process on the image data of the subject every five frames. Accordingly, the processing load on the CPU 11a is reduced, and the effect on the image data acquisition processing and the preview display processing of the image data of the subject executed in parallel can be reduced.
[0062]
In addition, the CPU 11a determines whether or not the code similarity coefficient (Q) is “1” in step S8, and when determining that the code similarity coefficient (Q) is “1” (step S8: Yes), the two-dimensional code is used. It is determined that there is, and the process proceeds to step S10.
[0063]
On the other hand, when the CPU 11a determines that the code similarity coefficient (Q) is “0.5” or more but is not “1” (Step S8: No), it recognizes that the code is a two-dimensional code. Then, the CPU 11a executes a close-up imaging mode setting process so that the imaging device 16 performs close-up imaging (step S11), and returns to step S2 via step S9.
[0064]
Then, in the steps after step S2, an imaging process in the proximity imaging mode is performed. That is, the CPU 11a executes the aperture setting program c4 to change the light transmission area of the liquid crystal window 100, thereby changing the aperture value suitable for normal imaging (F = 8) to the aperture value suitable for close-up imaging (F = 22). Or F = 16), and then performs close-up imaging of the subject. At this time, the image data of the close-up imaging acquired by the imaging device 16 is preview-displayed on the display unit 13. Further, the CPU 11a executes a code recognition process for every five frames on the image data in the close-up imaging mode in parallel with the imaging process and the preview display process in the close-up imaging mode.
[0065]
At this time, the imaging process in the close-up imaging mode has a deeper subject depth than the imaging process in the normal imaging mode, so that the recognition rate of the two-dimensional code is improved. Therefore, it is possible to recognize, as a two-dimensional code, an object that may be a two-dimensional code in the normal imaging mode but is not determined (two-dimensional code target). Accordingly, the recognition rate of the two-dimensional code in the image data of the subject is improved.
[0066]
If it is determined in step S8 that the code similarity coefficient (Q) is “1” and the process proceeds to step S10, the CPU 11a executes a process of decoding the recognized two-dimensional code, and The code information content is displayed on the display unit 13 (step S12). Here, examples of the code information content displayed on the display unit 13 include character information such as a URL address and an e-mail address, and arbitrary image information.
[0067]
Next, the CPU 11a determines whether or not an instruction signal of a predetermined process for the code information content displayed on the display unit 13 has been input by an operation of the input unit 12 by the user (step S13), and the instruction signal is input. If it is determined that the instruction has been made (step S13: Yes), the process according to the instruction is executed (step S14), and the process proceeds to step S15.
[0068]
Here, as the predetermined process for the code information content, for example, when the code information content is a URL address, a connection instruction to the URL address is given, and when the code information content is an e-mail address, An instruction to create an e-mail addressed to an e-mail address, when the code information content is a telephone number or an e-mail address, etc., can be stored in an address book, etc., but are not limited to these. Absent.
[0069]
On the other hand, when determining in step S13 that there is no input of the instruction signal from the user (step S13: No), the CPU 11a proceeds to step S15. Then, in step S15, the CPU 11a determines whether or not an instruction to end the imaging process has been input by the operation of the input unit 12 by the user, and when it is determined that the instruction has been input, the imaging device 16 terminates the imaging process. By outputting the instruction, the imaging control process is terminated.
[0070]
On the other hand, when the CPU 11a determines that there is no input of an instruction to end the imaging process (Step S15: No), the process from Step S9 is repeated through Step S9.
[0071]
In mobile phone 1 according to the present embodiment, CPU 11a as control means controls aperture means (liquid crystal window 100 and aperture setting program c4) based on image data acquired by imaging apparatus 16, and performs normal imaging. It is possible to automatically switch from the normal imaging mode to perform to the close-up imaging mode to perform close-up imaging. Therefore, when switching the imaging mode, there is no need for the user to judge whether or not the imaging mode is appropriate or to perform the switching operation with fingers. Further, it is not necessary to rotate the imaging device 16 with fingers when switching the imaging mode. As a result, the operation at the time of imaging can be greatly simplified.
[0072]
Further, in the mobile phone 1 according to the present embodiment, the aperture means increases the light transmission area of the liquid crystal window 100 by applying a voltage to a part of the liquid crystal window 100 having the glass substrate 110 and the liquid crystal 120. Since there is provided an applied voltage means (aperture setting program c4) for adjusting the amount of light incident on the imaging device 16 by changing the characteristics, the characteristics of the liquid crystal (light application property when no voltage is applied and non-application property when voltage is applied) Utilizing the light property), the amount of light incident on the imaging device 16 can be electrically adjusted. As a result, there is no need to provide a complicated mechanical configuration for adjusting the amount of light incident on the imaging device 16, so that the weight and thickness of the mobile phone 1 can be reduced.
[0073]
In addition, in the imaging control process of the mobile phone 1 according to the present embodiment, a predetermined two-dimensional image data in the image data is processed in parallel with the acquisition process of the image data of the subject by the imaging device 16 and the preview display process of the image data. The code data recognition processing and the two-dimensional code data decoding processing are automatically executed. Therefore, for example, the user can automatically recognize and decode the two-dimensional code attached to a business card, a magazine, or the like by performing the same operation as in a normal imaging process without performing a troublesome setting. Since the two-dimensional code can be read and decoded in a short time, it is very convenient to use.
[0074]
Also, for example, when the image data acquired in the normal imaging mode is out of focus or contains a lot of noise, it cannot be clearly recognized as a two-dimensional code. Is controlled to automatically switch to an imaging process in a close-up imaging mode suitable for two-dimensional code recognition. Therefore, the recognition accuracy of the two-dimensional code can be improved without imposing a burden on the user for changing the setting of the imaging mode.
[0075]
In addition, when the possibility that a two-dimensional code is included in the image data acquired in the normal imaging mode is low or when the two-dimensional code is clearly recognized, the imaging mode is not switched, so that it is efficient. is there.
[0076]
Note that the description in the present embodiment is a preferred example of the mobile phone 1 according to the present invention, and is not limited to this. For example, the configuration of the imaging device 16 illustrated in the present embodiment is not limited as long as the imaging process in the normal imaging mode and the close-up imaging mode can be executed. Further, in the above-described embodiment, the description has been made using the two-dimensional code as an example of the information code. However, the present invention is not limited to the two-dimensional code. It may be a code.
[0077]
Further, in the imaging control process in the mobile phone 1 according to the present embodiment, when the two-dimensional code is decoded, the code information content is displayed on the display unit 13 and based on an instruction of a predetermined process by the user. Although the description has been given of the configuration in which various processes corresponding to the information content of the two-dimensional code are executed, the configuration may be such that the CPU 11a automatically executes a predetermined process when the code information content is decoded.
[0078]
In addition, the detailed configuration and detailed operation of the mobile phone 1 according to the present embodiment can be appropriately changed without departing from the spirit of the present invention. Further, the mobile terminal of the present invention is not limited to the mobile phone 1 described in the present embodiment, and may be a PHS (R) PC, PDA, or the like.
[0079]
【The invention's effect】
According to the first aspect of the present invention, the control unit controls the aperture unit based on the image data acquired by the imaging device, and automatically switches from the normal imaging mode for performing normal imaging to the close-up imaging mode for performing close-up imaging. You can switch to Therefore, when switching the imaging mode, there is no need for the user to judge whether or not the imaging mode is appropriate or to perform the switching operation with fingers. Further, it is not necessary to rotate the imaging device with a finger when switching the imaging mode. As a result, the operation at the time of imaging can be greatly simplified.
[0080]
According to the second aspect of the present invention, the stop means enters the image pickup device by changing the light transmission area of the liquid crystal window by applying a voltage to a part of the liquid crystal window having the glass substrate and the liquid crystal. And an applied voltage means for adjusting the amount of light, so that the amount of light incident on the image pickup device can be obtained by utilizing the characteristics of the liquid crystal (light application when no voltage is applied and non-light application when a voltage is applied). Can be adjusted electrically. As a result, there is no need to provide a complicated mechanical configuration for adjusting the amount of light incident on the imaging device, so that the weight and thickness of the portable terminal can be reduced.
[Brief description of the drawings]
FIGS. 1A and 1B show an external configuration of a mobile phone according to an embodiment of the present invention, wherein FIG. 1A is a front view of the mobile phone and FIG. 1B is a rear view of the mobile phone.
FIG. 2 is a sectional view taken along the line II-II in FIG. 1 (b).
3A is a perspective view for explaining a configuration of a liquid crystal window provided in the mobile phone shown in FIG. 1, and FIG. 3B is a cross-sectional view taken along a line BB in FIG. is there.
FIG. 4 is an explanatory diagram showing a state in which the aperture value (F value) is set to three different values by changing the light transmission area of the liquid crystal window shown in FIG. 3;
FIG. 5 is a block diagram showing a functional configuration of the mobile phone shown in FIG. 1;
FIG. 6 is a flowchart illustrating an imaging control process of the mobile phone illustrated in FIG. 1;
FIG. 7 is a schematic diagram illustrating an example of a subject imaged by the imaging device of the mobile phone illustrated in FIG. 1;
[Explanation of symbols]
1 mobile phone (mobile terminal)
11a CPU (control means)
16 imaging device 20 imaging element 21 photoelectric conversion unit 32 lens unit 100 liquid crystal window (stop unit)
110 glass substrate 111 polarizing plate 112 alignment film 120 liquid crystal c4 aperture setting program (applied voltage means, aperture means)

Claims (2)

光電変換部を有する撮像素子と、前記光電変換部に被写体像を結像させるレンズ部と、を有する撮像装置を備えた携帯端末において、
前記撮像装置に入射する光の量を調節して近接撮像を可能にする絞り手段と、
前記撮像装置により取得した画像データに基づいて前記絞り手段を制御することにより、通常撮像を行う通常撮像モードから近接撮像を行う近接撮像モードへと自動的に切り替える制御手段と、
を備えることを特徴とする携帯端末。
An imaging device having a photoelectric conversion unit, and a lens unit that forms a subject image on the photoelectric conversion unit, a mobile terminal including an imaging device having:
Diaphragm means for adjusting the amount of light incident on the imaging device to enable close-up imaging;
A control unit that automatically switches from a normal imaging mode for performing normal imaging to a close-up imaging mode for performing close-up imaging by controlling the aperture unit based on image data acquired by the imaging device;
A mobile terminal comprising:
前記絞り手段は、
偏光板及び配向膜が設けられた2枚のガラス基板と、これらガラス基板の間に封入された液晶と、を有する液晶窓と、
前記液晶の一部に電圧を印加して前記液晶窓の光透過面積を変更することにより、前記撮像装置に入射する光の量を調節する印加電圧手段と、
を備えることを特徴とする請求項1に記載の携帯端末。
The aperture means,
A liquid crystal window including two glass substrates provided with a polarizing plate and an alignment film, and liquid crystal sealed between the glass substrates;
Applying voltage to a part of the liquid crystal to change a light transmission area of the liquid crystal window, thereby applying voltage means for adjusting an amount of light incident on the imaging device;
The mobile terminal according to claim 1, comprising:
JP2003064674A 2003-03-11 2003-03-11 Mobile terminal Pending JP2004274548A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003064674A JP2004274548A (en) 2003-03-11 2003-03-11 Mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003064674A JP2004274548A (en) 2003-03-11 2003-03-11 Mobile terminal

Publications (1)

Publication Number Publication Date
JP2004274548A true JP2004274548A (en) 2004-09-30

Family

ID=33125906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003064674A Pending JP2004274548A (en) 2003-03-11 2003-03-11 Mobile terminal

Country Status (1)

Country Link
JP (1) JP2004274548A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2069856A1 (en) * 2006-10-04 2009-06-17 Motorola Inc. Camera iris apparatus and method
DE102014017281A1 (en) * 2014-11-21 2016-05-25 e.solutions GmbH Optical detection device and method for controlling the same
WO2017043710A1 (en) * 2015-09-10 2017-03-16 Lg Electronics Inc. Smart device and controlling method thereof
USD852864S1 (en) 2015-08-21 2019-07-02 Fujifilm Corporation Aperture adjusting device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2069856A1 (en) * 2006-10-04 2009-06-17 Motorola Inc. Camera iris apparatus and method
EP2069856A4 (en) * 2006-10-04 2009-12-16 Motorola Inc Camera iris apparatus and method
DE102014017281A1 (en) * 2014-11-21 2016-05-25 e.solutions GmbH Optical detection device and method for controlling the same
US10354597B2 (en) 2014-11-21 2019-07-16 e.solutions GmbH Optical detection device and method of controlling same
USD852864S1 (en) 2015-08-21 2019-07-02 Fujifilm Corporation Aperture adjusting device
WO2017043710A1 (en) * 2015-09-10 2017-03-16 Lg Electronics Inc. Smart device and controlling method thereof
US9936113B2 (en) 2015-09-10 2018-04-03 Lg Electronics Inc. Smart device and controlling method thereof

Similar Documents

Publication Publication Date Title
US9160921B2 (en) Portable electronic equipment with automatic control to keep display turned on and method
US8537217B2 (en) Image photographing apparatus, method of controlling image photographing apparatus and control program
KR20200019728A (en) Shooting mobile terminal
JP5613443B2 (en) Portable terminal, camera module control program, and camera module control method
KR20040093018A (en) Portable electronic device with integrated display and camera and method therefore
KR102041637B1 (en) Mobile device
JP4300811B2 (en) Imaging device and portable terminal
JP2002027047A (en) Portable information terminal equipment
JP4110988B2 (en) Imaging device and portable terminal
JP2004274548A (en) Mobile terminal
JP4647552B2 (en) Portable device
US9503643B1 (en) Electronic device and method of controlling same for capturing digital images
JP4257508B2 (en) Electronic camera
JP2004241822A (en) Mobile terminal
JP2007201825A (en) Mobile phone
US9894265B1 (en) Electronic device and method of controlling same for capturing digital images
JP2004233805A (en) Mobile terminal
JP2004233806A (en) Mobile terminal
JP2004246172A (en) Imaging device and mobile terminal
JP2004236137A (en) Mobile terminal
JP2004279505A (en) Image pickup device and mobile terminal
JP7186854B2 (en) Image display device, image display method, and program
JP2004350232A (en) Portable electronic device
KR100697627B1 (en) Method and apparatus for photography using motion sensing
JP2004246127A (en) Imaging apparatus and mobile terminal