JP2014505896A - スマートフォンベースの方法及びシステム - Google Patents
スマートフォンベースの方法及びシステム Download PDFInfo
- Publication number
- JP2014505896A JP2014505896A JP2013537885A JP2013537885A JP2014505896A JP 2014505896 A JP2014505896 A JP 2014505896A JP 2013537885 A JP2013537885 A JP 2013537885A JP 2013537885 A JP2013537885 A JP 2013537885A JP 2014505896 A JP2014505896 A JP 2014505896A
- Authority
- JP
- Japan
- Prior art keywords
- data
- content
- user
- audio
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 366
- 230000009471 action Effects 0.000 claims abstract description 66
- 230000006872 improvement Effects 0.000 claims abstract description 6
- 230000004438 eyesight Effects 0.000 claims abstract description 5
- 230000015654 memory Effects 0.000 claims description 164
- 238000012545 processing Methods 0.000 claims description 117
- 238000005516 engineering process Methods 0.000 claims description 81
- 230000000007 visual effect Effects 0.000 claims description 51
- 230000008569 process Effects 0.000 claims description 49
- 230000033001 locomotion Effects 0.000 claims description 48
- 239000003795 chemical substances by application Substances 0.000 claims description 43
- 230000004044 response Effects 0.000 claims description 38
- 238000004422 calculation algorithm Methods 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 28
- 230000000694 effects Effects 0.000 claims description 27
- 238000003860 storage Methods 0.000 claims description 27
- 238000009877 rendering Methods 0.000 claims description 26
- 239000000872 buffer Substances 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 claims description 15
- 230000003993 interaction Effects 0.000 claims description 11
- 238000012360 testing method Methods 0.000 claims description 8
- 238000009941 weaving Methods 0.000 claims description 7
- 230000001419 dependent effect Effects 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 6
- 230000008520 organization Effects 0.000 claims description 6
- 230000002829 reductive effect Effects 0.000 claims description 6
- 238000004519 manufacturing process Methods 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000006855 networking Effects 0.000 claims description 3
- 230000001133 acceleration Effects 0.000 claims description 2
- 238000003909 pattern recognition Methods 0.000 claims description 2
- 238000007639 printing Methods 0.000 claims description 2
- 238000004513 sizing Methods 0.000 claims description 2
- 230000002035 prolonged effect Effects 0.000 claims 2
- 230000003213 activating effect Effects 0.000 claims 1
- 238000009795 derivation Methods 0.000 claims 1
- 238000009434 installation Methods 0.000 claims 1
- 238000012216 screening Methods 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 description 92
- 239000000306 component Substances 0.000 description 43
- 239000000047 product Substances 0.000 description 40
- 239000003550 marker Substances 0.000 description 36
- 239000002131 composite material Substances 0.000 description 19
- 238000004891 communication Methods 0.000 description 17
- 230000009466 transformation Effects 0.000 description 16
- 230000008901 benefit Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 13
- 230000001976 improved effect Effects 0.000 description 13
- 239000013598 vector Substances 0.000 description 13
- 230000006399 behavior Effects 0.000 description 11
- 238000013459 approach Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 9
- 238000010079 rubber tapping Methods 0.000 description 8
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 7
- 239000003086 colorant Substances 0.000 description 7
- 238000012937 correction Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 239000000446 fuel Substances 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 210000003811 finger Anatomy 0.000 description 5
- 230000010354 integration Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 241000406668 Loxodonta cyclotis Species 0.000 description 4
- VAYOSLLFUXYJDT-RDTXWAMCSA-N Lysergic acid diethylamide Chemical compound C1=CC(C=2[C@H](N(C)C[C@@H](C=2)C(=O)N(CC)CC)C2)=C3C2=CNC3=C1 VAYOSLLFUXYJDT-RDTXWAMCSA-N 0.000 description 4
- 239000008186 active pharmaceutical agent Substances 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000001681 protective effect Effects 0.000 description 4
- 238000013442 quality metrics Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 239000000758 substrate Substances 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 210000003484 anatomy Anatomy 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 235000013339 cereals Nutrition 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000002354 daily effect Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 229910052754 neon Inorganic materials 0.000 description 3
- GKAOGPIIYCISHV-UHFFFAOYSA-N neon atom Chemical compound [Ne] GKAOGPIIYCISHV-UHFFFAOYSA-N 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 241000785681 Sander vitreus Species 0.000 description 2
- 241000287181 Sturnus vulgaris Species 0.000 description 2
- 206010044565 Tremor Diseases 0.000 description 2
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 239000011013 aquamarine Substances 0.000 description 2
- 230000003796 beauty Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 239000003610 charcoal Substances 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000013479 data entry Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 239000010438 granite Substances 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000001404 mediated effect Effects 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000003012 network analysis Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000010076 replication Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- RZVAJINKPMORJF-UHFFFAOYSA-N Acetaminophen Chemical compound CC(=O)NC1=CC=C(O)C=C1 RZVAJINKPMORJF-UHFFFAOYSA-N 0.000 description 1
- 241000093804 Berzelia galpinii Species 0.000 description 1
- 235000008534 Capsicum annuum var annuum Nutrition 0.000 description 1
- 235000002568 Capsicum frutescens Nutrition 0.000 description 1
- 208000032544 Cicatrix Diseases 0.000 description 1
- 229920013669 Clearsite Polymers 0.000 description 1
- 241001658031 Eris Species 0.000 description 1
- 108010068977 Golgi membrane glycoproteins Proteins 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 101100222366 Mus musculus Cxadr gene Proteins 0.000 description 1
- 101100080394 Mus musculus Nr1i3 gene Proteins 0.000 description 1
- 240000008790 Musa x paradisiaca Species 0.000 description 1
- 235000018290 Musa x paradisiaca Nutrition 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 241000283080 Proboscidea <mammal> Species 0.000 description 1
- 229920001131 Pulp (paper) Polymers 0.000 description 1
- 235000009137 Quercus alba Nutrition 0.000 description 1
- 241001531312 Quercus pubescens Species 0.000 description 1
- 241001247145 Sebastes goodei Species 0.000 description 1
- 241000414697 Tegra Species 0.000 description 1
- SMEGJBVQLJJKKX-HOTMZDKISA-N [(2R,3S,4S,5R,6R)-5-acetyloxy-3,4,6-trihydroxyoxan-2-yl]methyl acetate Chemical compound CC(=O)OC[C@@H]1[C@H]([C@@H]([C@H]([C@@H](O1)O)OC(=O)C)O)O SMEGJBVQLJJKKX-HOTMZDKISA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 235000013405 beer Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000976 ink Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 235000012736 patent blue V Nutrition 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000011045 prefiltration Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 230000012846 protein folding Effects 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000004064 recycling Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 230000037387 scars Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 230000003319 supportive effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/60—Software deployment
- G06F8/61—Installation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline, look ahead
- G06F9/3885—Concurrent instruction execution, e.g. pipeline, look ahead using a plurality of independent parallel functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/30—Payment architectures, schemes or protocols characterised by the use of specific devices or networks
- G06Q20/32—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
- G06Q20/322—Aspects of commerce using mobile devices [M-devices]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/30—Payment architectures, schemes or protocols characterised by the use of specific devices or networks
- G06Q20/32—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
- G06Q20/327—Short range or proximity payments by means of M-devices
- G06Q20/3276—Short range or proximity payments by means of M-devices using a pictured code, e.g. barcode or QR-code, being read by the M-device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
- G06T1/005—Robust watermarking, e.g. average attack or collusion attack resistant
- G06T1/0064—Geometric transfor invariant watermarking, e.g. affine transform invariant
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/285—Memory allocation or algorithm optimisation to reduce hardware requirements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/81—Detection of presence or absence of voice signals for discriminating voice from music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32154—Transform domain methods
- H04N1/32187—Transform domain methods with selective or adaptive application of the additional information, e.g. in selected frequency coefficients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32309—Methods relating to embedding, encoding, decoding, detection or retrieval operations in colour image data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L2463/00—Additional details relating to network architectures or network communication protocols for network security covered by H04L63/00
- H04L2463/101—Additional details relating to network architectures or network communication protocols for network security covered by H04L63/00 applying security measures for digital rights management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
Abstract
【選択図】 図6
Description
・2010年11月4日出願の米国特許仮出願第61/410217号、
・2011年3月4日出願の米国特許仮出願第61/449529号、
・2011年3月25日出願の米国特許仮出願第61/467862号、
・2011年4月4日出願の米国特許仮出願第61/471651号、
・2011年4月26日出願の米国特許仮出願第61/479323号、
・2011年5月6日出願の米国特許仮出願第61/483555号、
・2011年5月13日出願の米国特許仮出願第61/485888号、
・2011年6月27日出願の米国特許仮出願第61/501602号の優先権を主張し、
また、以下の各出願、
・2011年6月30日出願の米国特許出願第13/174258号、
・2011年8月11日出願の米国特許出願第13/207841号、及び
・2011年10月21日出願の米国特許出願第13/278949号の一部継続出願でもある。
これらの出願の開示は、それらの全体として参照により本明細書に組み込まれる。
・2011年5月31日出願の米国特許出願第13/149334号、
・2011年4月15日出願の米国特許出願第13/088259号、
・2011年4月4日出願の米国特許出願第13/079327号、
・2011年1月21日出願の米国特許出願第13/011618号(米国特許出願公開第2011/0212717号として公開)、
・2010年6月9日出願の米国特許出願第12/797503号(米国特許出願公開第2011/0161076号として公開)、
・2010年5月5日出願の米国特許出願第12/774512号、
・2010年3月3日出願の米国特許出願第12/716908号(米国特許出願公開第2010/0228632号として公開)、
・2009年6月24日出願の米国特許出願第12/490980号(米国特許出願公開第2010/0205628号として公開)、
・2008年11月14日出願の米国特許出願第12/271772号(米国特許出願公開第2010/0119208号として公開)、
・2007年1月8日出願の米国特許出願第11/620999号(米国特許出願公開第2007/0185840号として公開)、
・米国特許第7003731号、及び
・米国特許第6947571号
が含まれる。
他の構成
オブジェクトインタラクションを参照することによる、データストリームのフィルタリング/ハイライト
テキスト入力
手話
ストリーミングモード検出器
証拠ベースのステートマシン、及び、ブラックボードベースのシステム
・名前
・ソース(エントリを作成したモジュールの名前)
・値
・データタイプ
・データサイズ
・参照カウント
・タイムスタンプ(最後の更新時間)
・寿命(この値がどのくらい長く有用であるか)
・品質(この値がどのくらい確実であるか)
・ビデオフレーム
・ビデオ統計値(フレームレート、AGC、焦点距離、その他)
・加速度計データ
・WM読み取り結果
・WM ID
・ビデオ分類結果
・BB_CreateEntry(名前、ソース、タイプ、サイズ)、ハンドルを返す
・BB_OpenEntry(名前)、ハンドルを返す
・BB_GetEntryNames(ソース、バッファ)
・BB_GetEntryInfo(名前、ソース、情報)
・BB_GetEntryInfo(ハンドル、情報)
・BB_GetValue(ハンドル、値)
・BB_SetValue(ハンドル、値)
・BB_CloseEntry(ハンドル)
・Status(数値ステータスコード)
・Error(最後のエラーについてのエラー文字列)
・Result(直近の動作の数値結果コード)
・名前
・タイプ(PS、MS、LS、RA)
・優先度(低−高、例えば、2〜10ステップによる)
・消費されたブラックボードデータ値
・作り出されたブラックボードデータ値
さらにミドルウェア、その他について
モバイル発見の極小構成物としてのリンクトデータ(Linked Data)
・{ImageSensor3DF12_ImageTime=2011040118060103_Pixel(0,0);HasRedValue;45}
・{ImageSensor3DF12_ImageTime=2011040118060103_Pixel(0,0);HasGreenValue;32}
・その他である。
{Torch;Queued_Request;On}
別の1つは、以下の通りでありうる。
{WM_Decoder;Requests;Torch_On}
リンクトデータ
混合ドメイン表示
ウォーターマーク合図パターン
情報提示の層
符号化されたデータ変換
スマートフォン支援パーソナルショッピングサービス
好都合な互換性判定
コンピュテーショナルフォトグラフィ(Computational Photography)及びサブリミナルな参照情報
さらにぼけについて
kA=[Motion(FrameMIN)/Motion(FrameA)]X
但し、kAは、フレーム「A」のための重み付け係数であり、Motion(FrameA)は、フレーム「A」の毎秒の度単位の動きであり、Motion(FrameMIN)は、選択されたセット内のフレームのすべての中の最小の動きであり、Xは、指数関数的比率係数(exponential ratio−ing factor)である。
ハイブリッドウォーターマーク/顕著点/バーコード/NFC構成
顕著点及びウォーターマーク検出
画像雑音除去のための顕著点
チャネル化されたオーディオウォーターマーク
取り込まれたシーン内の複数のオブジェクトの曖昧性除去
例えば、新聞のための、プリントトゥウェブの見返り(Payoffs)
可動オブジェクトにリンクされたタグ
スマートフォンハードウェア及びRDFトリプル
BOB HasChild TED(ボブにはテッドという子供がいる)
このトリプルは、ボブという名前の人に、テッドという名前の子供がいるという、情報を表現する。「BOB(ボブ)」は主部であり、「HasChild(子供がいる)」は述部であり、「TED(テッド)」は目的部である。
IF(PERSON1 HasChild PERSON2)
AND IF(PERSON1 HasBrother PERSON3),
THEN PERSON2 HasUncle PERSON3.
1.TED HasUncle CHUCK(テッドにはチャックという叔父がいる)
2.TED HasUncle JOHN(テッドにはジョンという叔父がいる)
・9個の述部の各々をチェックして、そのコード=5であるかどうかを確かめ、そうである場合、カウンタ「i」を増分する
・i=0である場合、終了する
・残りの述部の各々をチェックして、そのコード=3であるかどうかを確かめ、そうである場合、カウンタ「j」を増分する
・j=0である場合、終了する
・X及びYのすべての組み合わせを使用して、i*j個の新しいアサーション「X HasUncle Y(XにはYという叔父がいる)」を作成し、但し、Xは、その述部がコード=3を有する目的部であり、Yは、その述部がコード=5を有する目的部である。
・1985年式ウィネベーゴ(Winnebago)チーフテン(Chieftan) HasGrossVehicleWeight 6〜7トン(1985年式ウィネベーゴ・チーフテンは、6〜7トンの自動車総重量がある)は、{3,3,62}と表現され、
・1985年式ウィネベーゴ・チーフテン HasExteriorColor 白(1985年式ウィネベーゴ・チーフテンは、白の外装色である)は、{3,1,17}と表現される。
「2007年式トヨタ・タコマ、$24,500、白(黄褐色の内装)で、53,000マイル。2.7リッターガソリンエンジンで、21mpgのEPA燃料経済性。このトラックは、6人用の座席を特徴とし、3500ポンドの牽引能力があります。503−555−1234にお電話下さい。」
・AQUA METALLIC HasColor BLUE(アクアメタリックは青の色である)
・DEEP NAVY HasColor BLUE(ディープネイビーは青の色である)
・DEEP CARDINAL HasColor RED(ディープカーディナルは赤の色である)
・CRYSTAL RED HasColor RED(クリスタルレッドは赤の色である)
・CHARCOAL HasColor GREY(チャコールはグレーの色である)
・GRANITE HasColor GREY(グラニットはグレーの色である)
スマートフォンは、これらのトリプルを逆にして、結果として生じる主部(例えば、BLUE、RED、その他)を、図29Bのウィンドウ422及び422a内など、GUIで提示することができる。この場合、ウィンドウ422及び422a内で選択された2つの値は、パラメータの範囲を定義しないが、むしろ、検索においてともに論理和が取られる2つの異なる値を定義するので、いずれかの値を満たすトリプルが選択されるようになる。)
同期化されたバックグラウンド
モバイルデバイスへの表示のリンク付け
デバイス間のタスクの移行
LED照明
総括
他のコメント
Claims (201)
- ポータブルオーディオデバイス内で、オーディオコンテンツを表すオーディオデータを受信するステップと、
アルゴリズムを前記受信されたオーディオデータに適用して、識別データを導出するステップと、
前記導出された識別データを参照することによって、特定のソフトウェアプログラムを、前記オーディオコンテンツとともに使用するために選択するステップであり、前記選択するステップが、そのような行為を行うように構成される、前記ポータブルオーディオデバイス内のプロセッサによって行われる、ステップと、
前記選択されたソフトウェアプログラムを起動するステップと、
を含み、
前記オーディオデータとともに使用される前記特定のソフトウェアプログラムの選択が、前記オーディオデータから導出された識別データに基づく、方法。 - 前記選択するステップが、前記オーディオコンテンツのための特定のレンダリングコーデックを、複数の可能なレンダリングコーデックの中から選択するサブステップを含む、請求項1に記載の方法。
- 前記選択するステップが、前記導出された識別データを参照して、且つ、コンテキストデータをも参照して進行し、第1のソフトウェアプログラムが第1のコンテキスト内で選択され、第2のソフトウェアプログラムが第2のコンテキスト内で選択される、請求項1に記載の方法。
- 前記コンテキストデータが年齢データを備える、請求項3に記載の方法。
- 前記コンテキストデータが性別データを備える、請求項3に記載の方法。
- 前記選択するステップの後、前記選択されたソフトウェアプログラムを、クラウドリポジトリから前記ポータブルオーディオデバイスへダウンロードするステップを含む、請求項1に記載の方法。
- 前記ポータブルオーディオデバイスが、前記オーディオコンテンツとともに使用するためのソフトウェアプログラムを既に含むが、前記選択するステップが、異なるソフトウェアプログラムを識別し、前記方法が、前記異なるソフトウェアプログラムをダウンロードするステップと、前記異なるソフトウェアプログラムを起動するステップとを含む、請求項1に記載の方法。
- 前記選択するステップが、複数の異なるソフトウェアプログラムを識別するサブステップと、前記識別されたソフトウェアプログラムのうちどれが、前記ポータブルオーディオデバイスのストレージ内で使用可能であるかをチェックするサブステップとを含む、請求項1に記載の方法。
- 前記識別されたソフトウェアプログラムのうち2つ以上が、前記ポータブルオーディオデバイスのストレージ内で使用可能であることを発見するステップと、次いで、アルゴリズムに基づいて、前記使用可能なソフトウェアプログラムの間で自動的に選ぶステップとを含む、請求項8に記載の方法。
- 前記受信するステップが、前記ポータブルオーディオデバイスのマイクロフォンを使用して、周囲のオーディオを受信するサブステップを含む、請求項1に記載の方法。
- ポータブルオーディオデバイス内で、オーディオコンテンツを表すオーディオデータを受信するステップと、
アルゴリズムを前記受信されたオーディオデータに適用して、識別データを導出するステップと、
前記導出された識別データを参照することによって、前記オーディオコンテンツとともに使用するために有利なソフトウェアプログラムを選択するステップであり、前記選択するステップが、そのような行為を行うように構成される、前記ポータブルデバイス内のプロセッサによって行われる、ステップと、
前記有利なソフトウェアプログラムをユーザに指示するステップと、
を含み、
前記オーディオデータとともに使用される前記有利なソフトウェアプログラムが、前記オーディオデータから導出された識別データに基づいて選択される、方法。 - 前記オーディオコンテンツとともに使用するためのソフトウェアプログラムを識別する、ユーザ入力を受信するステップと、
前記受信されたユーザ入力によって識別された前記ソフトウェアプログラムが前記有利なソフトウェアプログラムではない場合、前記識別されたソフトウェアプログラムを前記オーディオコンテンツとともに使用することを制限するステップと、
を含む、請求項11に記載の方法。 - ポータブルオーディオデバイス内で、オーディオコンテンツを表すオーディオデータを受信するステップであり、前記オーディオコンテンツが、前記ポータブルオーディオデバイス内の第1のソフトウェアによってレンダリングされうるタイプのものである、ステップと、
前記オーディオコンテンツを前記第1のソフトウェアによりレンダリングするための試みに応答して、前記ポータブルオーディオデバイスが、第2のソフトウェアが代わりに使用されるべきであることを指示するステップと、
を含み、
前記オーディオコンテンツの創作者が、その創作者のオーディオのために、前記第2のソフトウェアを好ましいものとして指定した、方法。 - 前記オーディオコンテンツを前記第1のソフトウェアによりレンダリングすることを拒否するステップを含む、請求項13に記載の方法。
- 前記オーディオコンテンツを前記第1のソフトウェアとともに制限付きで使用することのみを可能にするステップを含む、請求項13に記載の方法。
- ポータブルデバイスのマイクロフォンにより、周囲環境からオーディオを受信するステップと、
アルゴリズムを前記受信されたオーディオを表すオーディオデータに適用して、識別データを導出するステップと、
前記導出された識別データを参照することによって、前記オーディオに関係する商取引のために使用されるべき、対応するフルフィルメントサービスを選択するステップと、
を含み、
第1の受信されたオーディオが、前記第1のオーディオに関係する商取引のために使用されるべき第1のフルフィルメントサービスの選択につながり、第2の異なる受信されたオーディオが、前記第2のオーディオに関係する商取引のために使用されるべき第2の異なるフルフィルメントサービスの選択につながる、方法。 - ユーザの周囲環境内のオーディオを識別するステップであり、前記オーディオが、ユーザデバイスによって以前にサンプリングされている、ステップと、
前記識別されたオーディオについての情報を、ユーザコンテキスト情報とともに、パブリッシュするステップと、
前記パブリッシュされた情報に応答して、1つ又は複数の第三者入札を受信するステップと、
落札に関連付けられた第三者を決定するステップと、
前記決定された第三者により識別されたソフトウェアを有効化して、前記ユーザデバイス上で前記ユーザに購入機会を提示するステップと、
を含む、方法。 - 所与のタイプの受信されたコンテンツに対応する、デジタルデータのセットを受信するステップであり、前記タイプがオーディオ又はビデオを備える、ステップと、
前記受信されたコンテンツに対応する識別データを生成するステップであり、それにより、前記受信されたコンテンツが、前記所与のタイプの他のコンテンツとは区別されうる、ステップと、
前記識別データを参照することによって、前記受信されたコンテンツをレンダリングするためのN個の候補レンダリングエンジン(複数可)を、前記所与のコンテンツタイプのためのより多数の可能なレンダリングプログラムの中から決定するステップであり、但し、1>=Nである、ステップと、
前記受信されたコンテンツを、前記N個の候補レンダリングプログラム(複数可)のうち1つによりレンダリングするステップと、
を含み、
特定のレンダリングプログラムが、前記所与のコンテンツタイプのための複数の候補の中から、前記コンテンツを参照することによって決定される、方法。 - N個の候補レンダリングエンジン(複数可)を決定するステップが、前記識別データ、及び、1つ又は複数のコンテキスト要素の両方に基づく、請求項18に記載の方法。
- 前記コンテキスト要素(複数可)のうち1つが、前記コンテンツのレンダリングにおいて使用されるデバイスのタイプの識別を備える、請求項19に記載の方法。
- 1つ又は前記コンテキスト要素(複数可)が、ロケーション関連情報を備える、請求項19に記載の方法。
- 前記決定するステップが、
前記コンテンツの所有者によって提供された情報が格納されるデータ構造を調べるサブステップであり、前記情報が、前記N個のレンダリングプログラム(複数可)についての前記所有者のプリファレンスを指示する、サブステップを含み、
前記コンテンツの前記所有者に、前記コンテンツがレンダリングされるべき前記レンダリングプログラムを指定する特権が付与される、請求項18に記載の方法。 - 前記所有者が、前記コンテンツの制作に関与した存在であり、単に前記コンテンツの配給者ではなく、前記コンテンツの前記配給者に、前記所有者に付与された前記特権が与えられない、請求項22に記載の方法。
- 前記所有者が、前記コンテンツの制作に関与したアーティストである、請求項22に記載の方法。
- 前記所有者が、前記コンテンツの少なくとも一部における著作権を保持する、請求項22に記載の方法。
- 前記方法が、オーディオ又はビデオを表すデータを処理して、前記識別子を導出するステップを含み、特定のレンダリングプログラムが、前記所与のコンテンツタイプのための複数の候補の中から、オーディオ又はビデオを表すデータから導出された識別子に基づいて決定される、請求項18に記載の方法。
- N>1であり、前記方法が、前記N個の候補レンダリングプログラムをユーザに結びつけるステップと、前記候補レンダリングプログラムのうち1つを使用するために選択する、ユーザ入力を受信するステップと、を含む、請求項18に記載の方法。
- ユーザデバイス内のマイクロフォンによって受信されたオーディオに対応する、デジタルデータのセットを受信するステップを含む、請求項18に記載の方法。
- 所与のタイプの受信されたコンテンツに対応する、デジタルデータのセットを受信するステップであり、前記タイプがオーディオ、画像又はビデオを備える、ステップと、
前記受信されたコンテンツに対応する識別データを生成するステップであり、それにより、前記受信されたコンテンツが、前記所与のタイプの他のコンテンツとは区別されうる、ステップと、
前記識別データを参照することによって、前記受信されたコンテンツに関連付けられ、且つ、前記所与のタイプのすべての他のコンテンツに関連付けられない、N個のアプリケーションプログラム(複数可)を決定するステップであり、但し、Nが1又は複数である、ステップと、
前記決定されたアプリケーションプログラム(複数可)のうち1つ又は複数により、アクションを取るステップと、
を含む、方法。 - 前記アクションが、前記1つ又は複数の決定されたアプリケーションプログラム(複数可)を起動するサブステップを含む、請求項29に記載の方法。
- N個のアプリケーションプログラム(複数可)を決定するステップが、前記識別データ、及び、1つ又は複数のコンテキスト要素の両方に基づく、請求項29に記載の方法。
- 前記コンテキスト要素(複数可)のうち1つが、前記コンテンツのレンダリングにおいて使用されるデバイスのタイプの識別を備える、請求項31に記載の方法。
- 前記コンテキスト要素(複数可)のうち1つが、ロケーション関連情報を備える、請求項31に記載の方法。
- 前記アクションが、前記決定されたアプリケーションプログラム(複数可)のうち1つ又は複数を前記ユーザに結びつけるサブステップと、前記決定されたアプリケーションプログラム(複数可)のうち1つ又は複数がインストール及び/又は起動されるべきであるかどうかについての入力を求めるサブステップと、を含む、請求項29に記載の方法。
- 前記決定するステップが、オークションを実施して、前記N個のアプリケーションプログラム(複数可)のうち1つ又は複数を決定するサブステップを含む、請求項29に記載の方法。
- 前記決定するステップが、
前記コンテンツの所有者によって提供された情報が格納されるデータ構造を調べるサブステップであり、前記情報が、前記N個のアプリケーションプログラム(複数可)についての前記所有者のプリファレンスを指示する、サブステップを含み、
前記コンテンツの前記所有者に、前記受信されたコンテンツに関連付けられるべき前記アプリケーションプログラム(複数可)を指定する特権が付与される、請求項29に記載の方法。 - 前記所有者が、前記コンテンツの制作に関与した存在であり、単に前記コンテンツの配給者ではなく、前記コンテンツの前記配給者に、前記所有者に付与された前記特権が与えられない、請求項29に記載の方法。
- 前記所有者が、前記コンテンツの制作に関与したアーティストである、請求項29に記載の方法。
- 前記所有者が、前記コンテンツの少なくとも一部における著作権を保持する、請求項29に記載の方法。
- 前記方法が、オーディオ、画像又はビデオを表すデータを処理して、前記識別子を導出するステップを含み、特定のアプリケーションプログラムが、前記所与のコンテンツタイプのための複数の候補の中から、オーディオ、画像又はビデオを表すデータから導出された識別子に基づいて決定される、請求項29に記載の方法。
- N>1であり、前記方法が、前記N個の候補アプリケーションプログラムをユーザに結びつけるステップと、前記候補アプリケーションプログラムのうち1つをアクションのために選択する、ユーザ入力を受信するステップと、を含む、請求項29に記載の方法。
- ユーザデバイス内のマイクロフォンによって受信されたオーディオに対応する、デジタルデータのセットを受信するステップを含む、請求項29に記載の方法。
- オペレーティングシステム(OS)ソフトウェアが格納されているコンピュータ可読ストレージ媒体であって、
前記オペレーティングシステムソフトウェアは、OSサービスを、定義されたインターフェースを通して、要求側アプリケーションプログラムに提供するように、プロセッサを構成する役目を果たし、
前記OSサービスが、視覚又は聴覚の情報を表す信号データから、コンテンツ識別データを導出すること、及び、前記コンテンツ識別データを、定義されたインターフェースを通して、前記コンテンツ識別データをサブスクライブする1つ又は複数のアプリケーションプログラムによって使用するために、パブリッシュすること、を含む、コンピュータ可読ストレージ媒体。 - 前記導出することが、処理アルゴリズムを前記信号データに適用して、ビット削減コンテンツ識別データを生じることを含む、請求項43に記載のコンピュータ可読ストレージ媒体。
- 前記導出することが、処理アルゴリズムを前記信号データに適用して、ビット削減コンテンツ識別データを生じること、及び、データストアにアクセスして、前記ビット削減コンテンツ識別データに対応するさらなる識別情報を得ること、を含む、請求項43に記載のコンピュータ可読ストレージ媒体。
- 処理デバイスとメモリとを含む装置であって、
前記メモリがオペレーティングシステム(OS)命令を含み、該OS命令は、OSサービスを、定義されたインターフェースを通して、要求側アプリケーションプログラムに提供するように、前記処理デバイスを構成し、
前記装置が、前記処理デバイスの環境から周囲の視覚及び/又は音の刺激を検知するためであり、且つ、それに対応するコンテンツデータを作り出すための、検知システムをさらに含み、
前記OSサービスのうち1つが、前記作り出されたコンテンツデータからコンテンツ識別データを導出し、前記コンテンツ識別データを、定義されたインターフェースを通して、サブスクライブする要求側アプリケーションプログラムにパブリッシュする、装置。 - 処理デバイスとメモリとを含む装置であって、
前記メモリがオペレーティングシステム(OS)命令を含み、該OS命令は、OSサービスを、定義されたインターフェースを通して、要求側アプリケーションプログラムに提供するように、前記処理デバイスを構成し、
前記定義されたインターフェースのうち1つがコンテンツ識別メッセージキューを提供し、該コンテンツ識別メッセージキューが前記デバイスによって処理された視覚又は音の刺激に対応するコンテンツ識別データをパブリッシュし、該コンテンツ識別メッセージキューを、1つ又は複数のアプリケーションプログラムがサブスクライブすることができる、装置。 - 前記装置が、前記装置の環境から周囲の視覚及び/又は音の刺激を検知するためであり、且つ、それに対応するコンテンツデータを作り出すための、検知システムをさらに含み、
前記コンテンツ識別メッセージキューが、前記装置の前記環境から検知された視覚又は音の刺激に対応するコンテンツ識別データを備えるメッセージを提供する、請求項47に記載の装置。 - ユーザの周囲環境から、延長された期間にわたって、音又は視覚の刺激をバックグラウンドで検知し、それにより、前記ユーザが前記期間中に曝されていたコンテンツに気付くステップと、
前記バックグラウンドで検知された刺激を参照することによって、構成されたハードウェアプロセッサを使用して、前記ユーザが前記期間中に曝されていたコンテンツのいくつかの異なる項目に対応するコンテンツ識別データを生成するステップと、
ユーザインターフェースとの後続のユーザインタラクションの過程で、前記ユーザに対して、タイトルによって、前記ユーザの環境から気付かれたコンテンツの複数の異なる項目を識別し、前記ユーザが、前記識別されたコンテンツの項目のうち少なくとも1つに対する複数の異なるアクションの中で選択できるようにするステップとを含む、方法。 - ユーザの周囲環境から、音又は視覚の刺激を検知し、それにより、前記ユーザが曝されていたコンテンツに気付くステップと、
前記検知された刺激を参照することによって、構成されたハードウェアプロセッサを使用して、前記ユーザが曝されていたコンテンツの少なくとも1つの項目に対応するコンテンツ識別データを生成するステップと、
2つ以上の異なるソフトウェアアプリケーションを、前記生成されたコンテンツ識別データに少なくとも部分的に基づく情報により、用意するステップと、
を含み、
前記ユーザが次に、前記異なるソフトウェアアプリケーションの各々を利用するとき、前記ユーザは、前記異なるソフトウェアアプリケーションの各々が、前記ユーザが前記コンテンツの項目に曝されたことを既に反映することを、発見するようになる、方法。 - 3つ以上の異なるソフトウェアアプリケーションを、前記生成されたコンテンツ識別データに少なくとも部分的に基づく情報により、用意するステップを含む、請求項50に記載の方法。
- 4つ以上の異なるソフトウェアアプリケーションを、前記生成されたコンテンツ識別データに少なくとも部分的に基づく情報により、用意するステップを含む、請求項50に記載の方法。
- 前記用意するステップが、オーディオ若しくはビデオクリップ、又は画像をキャッシュするサブステップを含む、請求項50に記載の方法。
- 消費者電子デバイスにより実施される方法であって、
オーディオ、画像及び/又はビデオコンテンツを表すコンテンツデータを受信するステップであり、以前にインストールされたか、又は他の方法で、前記デバイスとともに使用するために使用可能にされた、第1のソフトウェアレンダリングプログラムのために、前記電子デバイスがレンダリングしてコンテンツ関連体験を作り出すことが可能であるタイプのファイルフォーマットで、前記コンテンツデータが受信される、ステップと、
前記受信されたコンテンツデータを参照することによって、1つ又は複数のソフトウェアレンダリングプログラム(複数可)を決定するステップであって、該ソフトウェアレンダリングプログラム(複数可)は、前記受信されたコンテンツデータとともにコンテンツ関連ユーザ体験を作り出すために前記コンテンツデータの所有者によって規定される、ステップと、
前記決定されたソフトウェアレンダリングプログラムのいずれもが現在インストールされていないか、又は、前記デバイスとともに使用するために使用可能でないと決定するステップと、
前記可能な第1のソフトウェアレンダリングプログラムにもかかわらず、前記受信されたコンテンツデータを前記デバイス上でレンダリングすることを拒否するステップと、
を含み、
前記消費者電子デバイスが、それによりコンテンツ関連ユーザ体験が前記ユーザに配信されるべきである、前記ソフトウェアレンダリングプログラム(複数可)に関する、前記所有者の前記規定を尊重する、方法。 - 前記デバイスのユーザに情報を提示するステップであって、該情報は、前記所有者によって規定された前記ソフトウェアレンダリングプログラム(複数可)のうち1つ又は複数のインストールを前記ユーザが指図できるようにする、ステップをさらに含む、請求項54に記載の方法。
- 前記所有者によって規定された1つ又は複数のソフトウェアレンダリングプログラム(複数可)を決定するステップが、1つ又は複数のコンテキスト要素にも基づく、請求項54に記載の方法。
- 前記所有者によって規定された1つ又は複数のソフトウェアレンダリングプログラム(複数可)を決定するステップが、前記消費者電子デバイスのためのタイプ識別子の識別を備えるコンテキスト要素に基づく、請求項56に記載の方法。
- ユーザのデバイスを使用して、アートをレンダリングする方法であって、
前記アートが、その所有者によって作り出され、配給者によって配信されており、前記アートが、いくつかの異なるソフトウェアプログラムによってレンダリングされうるデータフォーマットで表され、
改良が、
プログラムされたプロセッサを使用して、所有者により指定されたメタデータを調べて、前記アートデータをレンダリングするために利用されうる前記プログラムのサブセットを決定するステップと、
前記サブセットのうち1つのプログラムにより前記アートデータをレンダリングするステップと
を含み、
前記所有者に、前記アートがどのようにレンダリングされるかについての、ある程度の制御権が与えられる、方法。 - 前記所有者に、前記アートがどのようにレンダリングされるかの、前記配給者よりも大きい制御権が与えられる、請求項58に記載の方法。
- 処理デバイスと、前記処理デバイスを構成するための複数のソフトウェアプログラムを格納するコンピュータ可読ストレージ媒体と、装置の環境内の周囲の視覚又は音のコンテンツを表すデータを生成するための検知システムとを含む、装置であって、
前記ソフトウェアプログラムのうち少なくとも1つが、前記コンピュータ可読ストレージ媒体に、前記装置が前記装置の環境からある周囲のコンテンツを検知する結果として、格納される、装置。 - 前記ソフトウェアプログラムのうち少なくとも第1及び第2のものが、前記コンピュータ可読ストレージ媒体に、それぞれ、前記装置が前記装置の環境から第1及び第2の周囲のコンテンツを検知する結果として、格納される、請求項60に記載の装置。
- プロセッサとメモリとを含むスマートフォンであって、前記メモリが、オペレーティングシステムソフトウェアと、複数のアプリケーションプログラムとを含み、
前記アプリケーションプログラムのうち第1のものが、音又は視覚のコンテンツを表すデータを解析して、対応する識別データを作り出し、そのような解析の結果を出力にパブリッシュする役目を果たし、
前記アプリケーションプログラムのうち第2のものが、前記第2のアプリケーションプログラムが調和するあるコンテンツについて、前記第1のアプリケーションプログラムの前記出力を監視し、前記あるコンテンツが気付かれるとき、アクションを取る役目を果たす、スマートフォン。 - 前記アプリケーションプログラムのうち第3のものが、前記第3のアプリケーションプログラムが調和するあるコンテンツについて、前記第1のアプリケーションプログラムの前記出力を監視し、前記あるコンテンツが気付かれるとき、アクションを取る役目を果たす、請求項62に記載のスマートフォン。
- 前記第3のアプリケーションプログラムが、前記第2のアプリケーションプログラムが前記出力を監視する同じコンテンツについて、前記第1のアプリケーションプログラムの前記出力を監視する、請求項63に記載のスマートフォン。
- 前記第3のアプリケーションプログラムが、前記第2のアプリケーションプログラムが前記出力を監視するコンテンツとは異なるコンテンツについて、前記第1のアプリケーションプログラムの前記出力を監視する、請求項63に記載のスマートフォン。
- 見る姿勢から被写体の画像を取り込み、前記取り込まれた画像をポータブルデバイスの画面上に提示するステップと、
前記見る姿勢の最適性を、前記取り込まれた画像を参照することによって評価するステップと、
前記取り込まれた画像の提示上に、前記評価の結果を指示するしるしをオーバーレイするステップと、
を含み、
前記オーバーレイされたしるしが、前記評価された最適性の変化とともに変化する、方法。 - 前記オーバーレイされたしるしのぼけ度(blurriness)が、前記評価された最適性の変化とともに変化する、請求項66に記載の方法。
- ポータブルデバイスを使用して、画像の複数のフレームを取り込むステップであり、前記ポータブルデバイスが、画像センサ及び第2のセンサを有する、ステップと、
前記取り込まれたフレームのうち少なくとも2つのサブセットを、前記第2のセンサからのデータに基づいて選択するステップと、
前記選択されたフレームを結合するステップと、
を含む、方法。 - 前記取り込まれたフレームの選択されたサブセット内の、対応する顕著点を見極めるステップと、
結合するステップより前に、前記選択されたフレームのうち少なくとも第1のものを変換するステップであって、
前記変換するステップが、
前記2つのフレーム内の対応する顕著点間の距離のヒストグラムを参照することによって、参照フレームに対する前記第1のフレームのためのスケール係数を推定するサブステップと、
その後、前記参照フレームに対する前記第1のフレームのためのx及びyにおける変換を推定するサブステップと、
を含む、ステップと、
をさらに含む、請求項68に記載の方法。 - 前記方法が、重み付け係数を、前記フレームの選択されたサブセットのうち少なくとも1つに適用するステップであって、前記重み付け係数が前記第2のセンサからのデータに基づく、ステップを含む、請求項68に記載の方法。
- プロセッサと、メモリと、少なくともカメラ及びマイクロフォンを含む複数のセンサとを含む、スマートフォンデバイスであって、
前記要素が協働して複数の認識エージェントを定義し、該認識エージェントがオーディオフィンガープリント認識エージェント、バーコード認識エージェント、及び、画像ウォーターマーク認識エージェントを含み、
前記エージェントが、前記メモリのブラックボードデータ構造からデータを読み取り、且つ、前記メモリの前記ブラックボードデータ構造へデータを書き込むように構成され、
前記ブラックボードデータ構造が、前記センサからデータを受信し、且つ、前記エージェントが処理する格納された画像データ及びオーディオデータのキューを編集するように構成され、
前記要素が、前記メモリ内の命令によって定義されたイベントコントローラの制御下で協働する、スマートフォンデバイス。 - 前記認識エージェントのうち複数が、機能を行うために必要とされるリソースコストを推定するとともに、そのような機能によって達成されうる結果の品質を推定するように、並びに、そのような推定値を前記ブラックボード構造に格納するように、それぞれ構成され、
前記イベントコントローラが、複数の認識エージェントからのそのような格納された推定値を評価するとともに、それに基づいて、どの認識エージェント(複数可)をアクティベートするべきかを決定するように構成される、請求項71に記載のスマートフォンデバイス。 - 前記スマートフォンデバイスが、前記ブラックボードデータ構造を監視するとともにコンテキストのデータを推測するように構成された推測エンジンをさらに含み、
前記イベントコントローラが、どの認識エージェント(複数可)をアクティベートするべきかを決定することにおいて、前記コンテキストのデータを使用するように構成される、請求項71に記載のスマートフォンデバイス。 - 前記デバイスが、オーディオ及び画像ストリームを別々のスレッド内で処理するように構成され、各認識エージェントがそれ自体のスレッド内で実行するように構成される、請求項71に記載のスマートフォンデバイス。
- 前記センサが、加速度計をさらに含み、
前記デバイスが、画像を取り込み、それに関係付けられた輝度値を決定し、前記画像に関連付けられた加速度を評価し、前記画像の彩度を評価し、それに基づいて、画像品質を評価し、その後、前記評価された画像品質に基づいて、ウォーターマーク読み取り動作を前記画像上で呼び出すかどうかを決定するように構成される、請求項71に記載のスマートフォンデバイス。 - 人と複数のオブジェクトの間のネットワーク関係を決定するステップと、
前記ネットワーク関係から、前記人にとってのオブジェクトの相対的重要性を見極めるステップと、
前記見極められた相対的重要性に基づいてアクションを取るステップと、
を含む、方法。 - 前記見極められた相対的重要性に基づいてデータを処理するステップと、
結果として生じる処理されたデータのセットを前記人に提示するステップと、
を含む、請求項76に記載の方法。 - 前記処理するステップが、前記人への提示のために、前記見極められた相対的重要性に基づいて、より大きいコンテンツのセットの中からコンテンツのサブセットを選択するサブステップを含む、請求項77に記載の方法。
- ネットワーク関係を決定するステップが、前記人によって操作されたデバイスによって取り込まれた画像を解析するサブステップを含む、請求項76に記載の方法。
- ポータブルデバイスにより、人の手のジェスチャーの画像を取り込むステップと、
前記画像を処理して、前記ジェスチャーから手話を見極めるステップと、
前記見極められた手話に基づいて、アクションを取るステップと、
を含む、方法。 - 第1及び第2の空間周波数部分を有する情報搬送パターンを定義するステップと、
前記パターンを基層上にプリントするステップと、
を含み、
前記第1の部分が、見る人に、符号化された情報の存在への合図を出す、可視バックグラウンド織り込みパターンを定義し、
前記第2の部分が、人間の視覚の範囲を超える空間周波数を備え、前記符号化された情報のうち、少なくとも特定のものを搬送する、方法。 - 第1のデバイス内で、ペイロードデータを有するオーディオ又は画像のコンテンツデータを受信するステップであって、前記ペイロードデータがデジタルウォーターマーキングによって符号化されている、ステップと、
前記ペイロードデータを、前記受信されたコンテンツデータから復号するステップと、
前記ペイロードデータの少なくとも一部を、デジタルウォーターマーキング以外の技法によって、第2のデバイスへ送信するステップと、
を含む、方法。 - 前記技法が、ブルートゥース、IR、WiFi又はNFCなど、ワイヤレス送信技法を含む、請求項82に記載の方法。
- ホームエンターテインメントシステム内で、オーディオ又は画像のコンテンツを受信し、メディアフィンガープリント情報を決定するステップと、
前記メディアフィンガープリント情報を、前記コンテンツが前記ホームエンターテインメントシステムによってレンダリングされているユーザのスマートフォンへ、ワイヤレスで送信するステップと、
を含む、方法。 - 前記決定するステップが、メディアフィンガープリントデータを決定するサブステップと、前記をリモートサーバへ送信するサブステップと、応答において、対応するメディアフィンガープリント情報を受信するサブステップと、を含む、請求項84に記載の方法。
- 小売店内で、前記店内の買物客による製品関心を指示する信号を受信するステップと、
前記受信された信号に基づいてアクションを取るステップであり、
前記アクションが、
前記買物客をサービスのためのキューに入れるサブステップと、
前記買物客にサービスのための待ち時間を知らせるサブステップと、
前記買物客に、サービスを提供するようになる小売店スタッフについての情報を提供するサブステップと、
前記買物客に、サービスを待つように誘い物を提供するサブステップとのうち、少なくとも1つを含む、ステップと、
を含み、前記誘い物が、そうでない場合は料金が課されるはずのエンターテインメントコンテンツを備える、方法。 - 前記アクションが、前記買物客を、サービスのためのキュー内で、前記キューにより早く入った1人又は複数の他の買物客より前に入れるサブステップを含む、請求項86に記載の方法。
- 買物客のスマートフォンによって、小売店内に陳列された第1の製品から検知されたデータを参照することによって、第2の製品が前記第1の製品と互換性を有するかどうかを判定するステップと、
前記判定に基づいてアクションを取るステップと、
を含む、方法。 - デジタルウォーターマーキングされたオブジェクトから画像を取り込むステップであり、前記デジタルウォーターマークが、既知の参照特徴を含む、ステップと、
前記既知の参照特徴をぼけカーネルの推定において使用するステップであって、前記取り込まれた画像が前記ぼけカーネルにより処理されて画像ぼけが低減されうる、と、
を含む、方法。 - フーリエドメイン内で前記既知の参照特徴を見極めるステップを含む、請求項89に記載の方法。
- 前記デジタルウォーターマークが、前記フーリエドメイン内の画像統計値データをも搬送し、前記方法が、
前記画像から前記画像統計値データを見極めるステップと、
前記画像統計値データを、前記ぼけカーネルの推定において使用するステップと、
を含む、請求項90に記載の方法。 - ユーザのスマートフォンによって検知された情報を参照することによって、前記ユーザの関心を決定するステップと、
前記決定された関心に基づいてアクションを取るステップと、
を含む、方法。 - 前記アクションが、前記ユーザへの提示のために、前記決定された関心に基づいて、より大きいコンテンツのセットの中から、コンテンツのサブセットを選択するサブステップを含む、請求項92に記載の方法。
- 前記ユーザのスマートフォンによって取り込まれた画像を参照することによって、前記ユーザの関心を決定するステップを含む、請求項92に記載の方法。
- 前記ユーザのスマートフォンによって検知されたジオロケーション情報を参照することによって、前記ユーザの関心を決定するステップを含む、請求項92に記載の方法。
- ユーザが選択することができる、ポータブルデバイスの画面上のテキスト文字の配列を表示するステップと、
前記画面の一部分に向かうユーザの凝視を検知して、テキスト選択を行うステップと、
前記ユーザが次に選択することができる、前記画面上の前記文字の配列を変更するステップと、
を含む、方法。 - スマートフォンカメラを使用して、画像データのビデオシーケンスを取り込むステップと、
前記取り込まれたデータ内で第1のマシン可読シンボロジーを識別するステップと、
前記第1の識別されたシンボロジーに関係付けられた情報を格納するステップと、
前記取り込まれたデータ内で第2のマシン可読シンボロジーを識別するステップと、
前記第2の識別されたシンボロジーに関係付けられた情報を格納するステップと、
を含み、
前記スマートフォンが、ストリーミングモードで動作して、前記取り込まれたビデオシーケンス内で発見されたマシン可読シンボロジーに関係付けられた情報を収集する、方法。 - プロセッサと、メモリと、1つ又は複数のセンササブシステムと、タッチスクリーンとを備える、システムにおいて、
前記デバイスが、第1のセンササブシステムからの情報を、前記メモリ内にRDFトリプルとして格納するように構成され、前記プロセッサが、前記格納されたRDFトリプルに基づいて、アクションを取るように構成されることを特徴とする、システム。 - 前記第1のセンササブシステムが、カメラと、マイクロフォンと、加速度計と、GPS受信機と、ワイヤレス信号センサと、近距離無線チップリーダと、画像分類器と、ユーザアクティビティセンサとからなるグループから選択される物理センサ又は論理センサを含む、請求項98に記載のシステム。
- 前記第1のセンササブシステムが、前記検知された情報に対応するデータを、RDFトリプルとして出力するように構成される、請求項98に記載のシステム。
- センサデータを受信するステップと、
前記検知された情報を、格納のためにRDFトリプルとして表すステップと、
前記格納されたRDFトリプルを処理するステップと、
を含む、方法。 - センサデータを受信するステップが、第1のユーザによって運ばれる第1のデバイス内のセンサを使用して、検知するサブステップを含む、請求項101に記載の方法。
- 前記RDFトリプルを、前記デバイスとは別個のコンピュータ内に格納するステップを含む、請求項102に記載の方法。
- 前記処理するステップが、第2の異なるユーザによって運ばれる第2のデバイスを使用して、前記格納されたRDFトリプルを処理するサブステップを含む、請求項103に記載の方法。
- 前記処理するステップが、前記ユーザによって運ばれる第1のデバイスによって行われ、センサデータを受信する前記ステップが、前記第1のデバイスとは別個である第2のデバイスからセンサデータを受信するサブステップを含む、請求項101に記載の方法。
- 前記検知された情報が画像を備える、請求項101に記載の方法。
- ピクセルデータを、格納のためにRDFトリプルとして表すステップを含む、請求項106に記載の方法。
- カメラと、プロセッサと、メモリとを備える、デバイスであって、前記メモリが、前記カメラによって取り込まれた画像のセットを格納し、前記メモリが、前記画像のセットについてのアサーションを作成する複数のRDFトリプルをも格納し、前記プロセッサが、前記格納されたRDFトリプルのうち1つ又は複数を参照することによって、前記格納された画像のセットにおいて演算を行うように構成される、デバイス。
- 第1のコンピュータ処理が、1つ又は複数の他のコンピュータ処理からのサービスを要求するための方法であって、前記方法が、要求をデータ構造に投稿するステップであって、前記要求がRDFトリプルとして表現される、ステップを含む、方法。
- 前記データ構造が、ブラックボードデータ構造を備える、請求項109に記載の方法。
- 第2の処理が、特定のタイプのRDFトリプルを求めて前記データ構造を検索するクエリを実行するステップと、そのようなトリプルが発見されるときアクションを取るステップと、をさらに含む、請求項109に記載の方法。
- 前記クエリが、SPARQLクエリを備える、請求項111に記載の方法。
- オーディオ情報を消費者電子デバイスで受信するステップであり、前記オーディオ情報がコンテンツ配給者によって用意されており、前記受信されたオーディオ情報が少なくとも第1及び第2のオーディオトラックを含む、ステップと、
前記デバイス内で、前記第1及び第2のトラック間の比を設定する、制御信号を受信するステップと、
前記オーディオ情報を、前記比に従って消費者にレンダリングするステップと、を含み、
前記第2のオーディオトラックが、補助情報を搬送する、雑音のようなデジタルウォーターマーク信号を備える、方法。 - 前記第1及び第2のトラック間の比を設定する、消費者により操作されるコントロールからの信号を受信するステップを含む、請求項112に記載の方法。
- 前記制御信号が、前記第2のトラックがレンダリングされない比を設定する、請求項112に記載の方法。
- 第1のデバイスによってレンダリングされる場合、第2のデバイスの機能を制御する、第1のコンテンツデータを含む、コンピュータ可読媒体であって、
前記コンテンツデータが、オーディオ情報の少なくとも第1及び第2のトラックを含み、
前記第1のトラックが、消費者の楽しみのためのオーディオを備え、
前記第2のトラックが、前記第2のデバイスのための制御データを搬送する、雑音のようなデジタルウォーターマーク信号を備える、コンピュータ可読媒体。 - 前記オーディオ情報の第1及び第2のトラックが、ドルビートゥルーHDフォーマットで格納される、請求項116に記載の媒体。
- コンテンツ情報を格納するメモリであり、前記コンテンツ情報が、オーディオの少なくとも第1及び第2のトラックに対応するデータを含む、メモリと、
前記コンテンツ情報を出力デバイスにレンダリングするためのオーディオ部であり、前記オーディオ部が、前記第2のトラックが前記第1のトラックに対してレンダリングされるべきであるレベルを設定するために、ユーザによって操作可能なコントロールを含む、オーディオ部と、
を備え、
前記オーディオの第2のトラックに対応する前記格納されたデータが、第2の装置の機能を制御するための、雑音のようなデジタルウォーターマーク信号を表す、装置。 - 前記オーディオ部が、前記オーディオの第1及び第2のトラックを単一のチャネル内で結合するためのミキサをさらに備える、請求項118に記載の装置。
- 前記オーディオの第2のトラックに対応する前記格納されたデータが、RF64フォーマットでフォーマットされる、請求項118に記載の装置。
- カメラを装備したポータブルデバイスによって取り込まれた画像に対応する第1のセットのデータを受信するステップであり、前記画像が被写体を描く、ステップと、
ステガノグラフィ的に符号化されたデジタルウォーターマークペイロードデータを、前記第1のセットのデータから復号するステップと、
前記ペイロードデータを参照することによって、第2のセットのデータを得るステップと、
を含み、
前記第2のセットのデータが、前記被写体に対応する顕著点データを備える、方法。 - 前記顕著点データの使用を通して、前記被写体に対する前記ポータブルデバイスのロケーションを決定するステップをさらに含む、請求項121に記載の方法。
- 前記顕著点データの使用を通して、前記被写体に対する前記デバイスの位置を詳述する3D姿勢情報を決定するステップをさらに含む、請求項121に記載の方法。
- 前記顕著点データの使用を通して、前記画像内に描かれた前記被写体の下位部分(sub−part)を識別するステップを含む、請求項121に記載の方法。
- 前記識別された下位部分を参照することによって、第3のセットのデータを得るステップであり、前記第3のセットのデータが、前記被写体の前記下位部分に関する、ユーザへの情報の表示を提示するために有用な補助データを含む、ステップを含む、請求項124に記載の方法。
- 前記顕著点データに従って、前記ポータブルデバイスの画面上に提示されたグラフィカルな特徴のサイズ決定又は位置決めをするステップをさらに含む、請求項121に記載の方法。
- 前記顕著点データに基づいて前記デバイスの動作を制御するステップをさらに含む、請求項121に記載の方法。
- コンピューティングデバイスによって実行される場合、
被写体を描く画像に対応する第1のセットのデータを受信すること、
ステガノグラフィ的に符号化されたデジタルウォーターマークペイロードデータを、前記第1のセットのデータから復号すること、及び
前記ペイロードデータを参照することによって、第2のセットのデータを得ること
を含む動作を前記コンピューティングデバイスに行わせるソフトウェア命令を含み、
前記第2のセットのデータが、前記被写体に対応する顕著点データを備える、コンピュータ可読媒体。 - 前記動作が、前記第2のセットのデータに基づいて前記デバイスの動作を制御することをさらに含む、請求項128に記載のコンピュータ可読媒体。
- ポータブルデバイス内で、オブジェクトに関連付けられたパッシブチップデバイスから検知された識別データを受信するステップと、
前記識別データを参照することによって、第2のセットのデータを得るステップと、
を含み、
前記第2のセットのデータが、前記オブジェクトに対応する顕著点データを備える、方法。 - 前記ポータブルデバイスが、前記パッシブチップデバイスから前記識別データを検知するステップをさらに含む、請求項130に記載の方法。
- 前記オブジェクトがポスターを備える、請求項130に記載の方法。
- 前記第2のセットのデータが、前記オブジェクトに関連付けられた基準位置データをさらに備え、
前記方法が、前記基準位置データ及び前記顕著点データを参照することによって、前記ポータブルデバイスについての位置データを決定するステップを含み、前記デバイスのユーザが、位置依存の方法で前記オブジェクトとインタラクトすることができる、請求項130に記載の方法。 - 前記識別データが、前記オブジェクトに関連付けられた基準位置データを含み、
前記方法が、前記基準位置データ及び前記顕著点データを参照することによって、前記ポータブルデバイスについての位置データを決定するステップを含み、前記デバイスのユーザが、位置依存の方法で前記オブジェクトとインタラクトすることができる、請求項130に記載の方法。 - 前記ポータブルデバイスについての第1の位置データが決定されているとき、前記デバイスの画面上に、第1のセットの情報を提示するステップと、
前記ポータブルデバイスについての第2の位置データが決定されているとき、前記デバイスの前記画面上に、第2の異なるセットの情報を提示するステップと、
を含む、請求項133に記載の方法。 - ポケットサイズのハウジング内に配置された、メモリ及び処理部を備えており、
前記メモリが第1の部分を含み、前記第1の部分が、複数のコードベースのセマンティックトリプルを表すコードデータを格納し、前記トリプルの各々が、第1、第2及び第3のコードを含み、前記コードのうち1つが主部コードであり、前記コードのうち1つが述部コードであり、前記コードのうち1つが目的部コードであり、
前記メモリがさらに第2の部分を含み、前記第2の部分が、異なるテキストリテラルを別々の前記コードに関連付けるリテラルデータを格納し、
前記処理部がGPUを含み、該GPUが、前記メモリの前記第1の部分内のコードデータを処理して、前記メモリの前記第2の部分内の前記テキストリテラルによって表された情報において演算を行う、ポータブルデバイス。 - 前記演算が、セマンティックな推論演算を含み、それにより、前記処理部が、前記リテラルデータとともに前記セマンティックトリプルによってアサートされた事実に基づいて、論理的帰結を推測する、請求項136に記載のデバイス。
- 前記デバイスが、表示画面をさらに含み、前記メモリの前記第1の部分が、前記表示画面のピクセル寸法にマッチするストレージ寸法を有するフレームバッファを備えて、グラフィックスとともに使用するために知られているフレームバッファ技術が、セマンティックトリプルとともに使用するために適用されるようになる、請求項136に記載のデバイス。
- 前記処理部が、前記セマンティックな推論の結果を、前記フレームバッファ内に、追加のセマンティックトリプルとして格納するように構成される、請求項138に記載のデバイス。
- 前記メモリの前記第1の部分が、任意の編成を有するのではなく、2D構成を有し、空間的局所性とともに編成され、
同じ第1のコードを含むトリプルがともにグループ化され、前記メモリの前記第1の部分内で隣り合っているロケーションに格納されて、前記処理部が、空間的局所性に依拠するGPU機能性をより良く採用することができるようになる、請求項136に記載のデバイス。 - 前記第1のコードが主部コードを備える、請求項140に記載のデバイス。
- 同じ第1のコードを含むトリプルがそれらの第2のコードの順序によってさらに編成されて、処理が容易になる、請求項140に記載のデバイス。
- 前記第1のコードが主部コードを備え、前記第2のコードが述部コードを備える、請求項142に記載のデバイス。
- 前記メモリの前記第1の部分が、主部コードとして格納される第1のコードの第1のインスタンスを含み、目的部コードとして格納される前記第1のコードの第2のインスタンスをも含み、前記第1のコードの両方のインスタンスが、前記メモリの前記第2の部分に格納されたデータによって、同じテキストリテラルに関連付けられる、請求項136に記載のデバイス。
- 前記メモリが、ルールデータを格納する第3の部分をさらに含み、前記処理部が、前記ルールデータを前記セマンティックトリプルに適用して、以前に表現されていない情報を見極めるように構成される、請求項136に記載のデバイス。
- ポケットサイズのハウジング内に配置された、メモリ及び処理部を備えており、
前記メモリがフレームバッファ部を含み、前記フレームバッファ部が、複数のコードベースのセマンティックトリプルを表すコードデータを格納し、各トリプルが、主部コード、述部コード、及び目的部コードを備え、
前記メモリがさらに第2の部分を含み、前記第2の部分が、異なるテキストリテラルを別々の前記コードに関連付けるリテラルデータを格納し、
前記処理部がGPUを含み、前記GPUが、前記メモリの前記第1の部分内のコードデータを処理して、前記メモリの前記第2の部分内の前記テキストリテラルを使用して表現された概念を含むセマンティックな推論を行う、ポータブルデバイス。 - ポケットサイズのハウジング内に配置された、メモリ及び処理部を備えており、
前記処理部は前記メモリ内に格納された命令によって構成され、前記処理部がGPUを含み、
前記メモリは複数のコードベースのセマンティックトリプルを表すコードデータを格納し、各トリプルが、主部コード、述部コード、及び目的部コードを備え、
前記命令は、前記処理部が一連のテンプレートを前記格納されたコードデータに適用して前記トリプルに基づいて演算を行うように、前記処理部を構成する、ポータブルデバイス。 - 前記命令は、前記処理部が前記一連のテンプレートを前記格納されたコードデータに適用して前記トリプルに基づいてセマンティックな推論を行うように、前記処理部を構成する、請求項147に記載のデバイス。
- カメラを装備したポータブルデバイスによって取り込まれた画像に対応するデータのセットを受信するステップであり、前記画像が被写体を描く、ステップと、
前記受信されたデータのセットに基づいて、識別データを決定するステップと、
前記識別データを参照することによって、第2のセットのデータを得るステップであり、前記第2のセットのデータが、複数のN−タプルを備え、各々が、主部、述部及び目的部要素を含む、ステップと、
前記N−タプルを処理するステップと、
前記処理に基づいてアクションを取るステップと、
を含む、方法。 - ポケットサイズのハウジング内に配置された、タッチスクリーン、メモリ及び処理部を備えており、
前記メモリは、複数のコードベースのセマンティックトリプルを表すデータを含み、各トリプルが、主部コード、述部コード、及び目的部コードを備えており、
前記メモリは、別々の前記コードのためのそれぞれのテキストの意味を指示する、テキストリテラルを含む部分をさらに備え、
前記メモリは、ソフトウェア命令をさらに含み、前記命令は、前記処理部が、前記タッチスクリーン上で前記テキストリテラルのうち特定のものがポピュレートされるユーザインターフェースを提示し、該ユーザインターフェースを通してユーザが前記コードベースのセマンティックトリプルのクエリを定義することができるように、前記処理部を構成する、ポータブルデバイス。 - ポケットサイズのハウジング内に配置された、タッチスクリーン、メモリ及び処理部を備えており、
前記メモリは、複数のデータN−タプルを含む、ストレージの複数のプレーンとして論理的に編成され、前記N−タプルの要素がテキストリテラルに対応し、
前記処理部がGPUを含み、前記GPUは、タッチスクリーンユーザインターフェースを介して入力されたユーザクエリに応答することの一部として、前記データN−タプルにおいて演算するように構成されている、ポータブルデバイス。 - ユーザクエリに対応するデータを受信するステップと、
第1のプレーン閾値処理テストを、N−タプルデータストアの1つのプレーン内に格納された値に適用するステップであり、前記データストアが、複数のデータN−タプルを格納するデータのN個のプレーンを備えるように論理的に編成され、但し、Nが少なくとも3であり、前記プレーン閾値処理テストが、前記ユーザクエリの第1の態様を満たす、前記格納されたデータN−タプルの第1のサブセットを識別する、ステップと、
前記ユーザクエリの結果を前記ユーザに提示するステップと、
を含む、方法。 - 1つ又は複数のテキストリテラルに基づくユーザクエリに対応するデータを受信するステップと、
前記1つ又は複数のテキストリテラルを、1つ又は複数の対応するデータコードにマッピングするステップと、
前記データコードのうち1つを、前記第1のプレーン閾値処理テストにおいて使用するステップと、
を含む、請求項152に記載の方法。 - 第2のプレーン閾値処理テストを、前記データN−タプルの第1の識別されたサブセット内の値に適用して、前記ユーザクエリの第2の態様を満たす、データN−タプルのさらなるサブセットを識別するステップをさらに含む、請求項152に記載の方法。
- 1つ又は複数のさらなるプレーン閾値処理テストを、データN−タプルの以前に識別されたサブセットに適用して、前記ユーザクエリのさらなる態様を満たす、データN−タプルの1つ又は複数のさらなるサブセットを連続して識別するステップを含む、請求項154に記載の方法。
- 前記ユーザクエリの結果を前記ユーザに提示するステップが、テンプレートを1つ又は複数のテキストリテラルでポピュレートするサブステップを含み、前記複数のテキストリテラルが、1つ又は複数のデータN−タプルの識別されたサブセットからの1つ又は複数の値に対応する、請求項152に記載の方法。
- カメラを装備したポータブルデバイスによって取り込まれた画像に対応する第1のセットのデータを受信するステップであり、前記画像が、第1の解像度で被写体を描く、ステップと、
前記第1のセットのデータに基づいて、識別データを決定するステップと、
前記識別データを参照することによって、第2のセットのデータを得るステップであり、前記第2のセットのデータが、前記被写体を描く画像に対応する、ステップと、
を含み、
前記第2のセットのデータが、前記第1のセットのデータとは異なる視点から前記被写体を描き、前記第1の解像度よりも高い第2の解像度で前記被写体を描く、方法。 - オブジェクトから検知されたNFC識別データを受信するステップと、
前記識別データを参照することによって、画像データのセットを得るステップであり、前記画像データが前記オブジェクトを描く、ステップと、
前記画像データに対応する画像を、ポータブルデバイスのタッチスクリーン上に提示するステップと、
を含む、方法。 - 前記方法が、
ユーザ入力を前記タッチスクリーン上で受信するステップと、
前記ユーザ入力に基づいて、アクションを取るステップと、
をさらに含み、
前記ユーザが前記提示された画像を第1のロケーションでタッチする場合、前記アクションが第1のアクションを備え、前記ユーザが前記提示された画像を第2の異なるロケーションでタッチする場合、前記アクションが第2の異なるアクションを備える、請求項158に記載の方法。 - 第1及び第2のデバイス間でアプリケーション状態を転送するための方法であって、前記デバイスがそれぞれプロセッサと表示画面とを含み、前記方法が、
前記第1のデバイス内のカメラを使用して、前記第2のデバイスの表示画面上に提示された画像を検知するステップと、
デジタルウォーターマークデータを、前記検知された画像から復号するステップと、
前記復号されたデジタルウォーターマークデータに基づいて、格納されたデータを識別するステップであって、該格納されたデータが前記第2のプロセッサのアプリケーション状態をメモリアライズする、ステップと、
前記格納されたデータを使用して、前記第2のプロセッサを前記アプリケーション状態に初期化するステップと、
を含む、方法。 - 前記格納されたデータを使用して、前記ポータブルデバイス内のプロセッサを前記アプリケーション状態に初期化するステップを含む、請求項160に記載の方法。
- プロセッサと表示画面とを含むデバイスを使用する方法であって、
アプリケーション状態データを時折格納するステップと、
画像をデジタルウォーターマーキングして、その中の識別子を符号化するステップであり、前記識別子が、前記格納されたアプリケーション状態データへのアクセスを容易にする、ステップと、
前記デジタルウォーターマーキングされた画像を前記表示画面上に提示するステップと、
を含む、方法。 - ポータブルデバイス内のカメラを使用して、光を検知するステップと、
前記検知された光から、識別子を復号するステップと、
前記復号された識別子に基づいて、情報を得るステップと、
を含む、方法。 - 前記得るステップが、前記復号された識別子に基づいて小売店内のロケーションを決定するサブステップを含む、請求項163に記載の方法。
- 前記得るステップが、前記復号された識別子に基づいて街路上のビルの番号を決定するサブステップを含む、請求項163に記載の方法。
- 前記得るステップが、前記復号された識別子に基づいて車道上で接近する車両の速度を決定するサブステップを含む、請求項163に記載の方法。
- 動いている車両の速度及び/又は方向を検知するステップと、
前記検知された情報が符号化されている信号を生成するステップと、
前記信号に従って、前記車両の1つ又は複数のヘッドライトを制御するステップと、
を含む、方法。 - 照明器具によって照明された環境からデータを検知するステップと、
前記検知されたデータを処理して対応する情報を決定するステップと、
前記照明器具から発せられた光を、前記決定された情報に従って符号化するステップと、
を含む、方法。 - 前記処理するステップが、デジタルウォーターマーク復号するサブステップを含む、請求項168に記載の方法。
- 前記処理するステップが、パターン認識動作を行うサブステップを含む、請求項168に記載の方法。
- 前記検知するステップが、前記照明器具に関連付けられたセンサから検知するサブステップを含む、請求項168に記載の方法。
- 無線信号を検知するステップと、
前記検知された無線信号を処理して、ジオロケーション情報を決定するステップと、
前記照明器具から発せられた光を、前記決定されたジオロケーション情報に従って符号化するステップと、
を含む、請求項168に記載の方法。 - ポータブルデバイスのマイクロフォンにより、ユーザの周囲環境から、少なくとも15分の延長された間隔にわたって、オーディオを受信するステップと、
アルゴリズムを、前記受信されたオーディオを表すデータに適用して、識別データを導出するステップと、
前記導出された識別データを参照することによって、前記ユーザが前記間隔中に曝されたオーディオコンテンツの少なくとも第1及び第2の異なる項目を決定するステップと、
前記オーディオコンテンツの決定された第1及び第2の異なる項目を参照することによって、前記ユーザによる後の使用のためにソフトウェアを用意するステップであり、前記用意するステップが、補助コンテンツの第1及び第2の項目を前記ポータブルデバイスで1つ又は複数のリモートリポジトリから受信するサブステップを含み、前記補助コンテンツの第1の項目が、前記オーディオコンテンツの第1の決定された項目に関連付けられ、前記補助コンテンツの第2の項目が、前記オーディオコンテンツの第2の決定された項目に関連付けられる、ステップと、
前記ユーザに、前記オーディオコンテンツの決定された第1及び第2の項目を識別するリストを提示するステップと、
関心のあるものとしての、前記オーディオコンテンツの決定された項目のうち1つのユーザ選択に応答して、補助コンテンツの対応する項目を使用して、前記用意されたソフトウェアに従って、アクションを取るステップと、
を含み、
前記ユーザが曝されるオーディオコンテンツの項目が監視され、前記ユーザがオーディオコンテンツの特定の項目を関心のあるものとして選択するより前に、関連付けられた補助コンテンツが、前記ポータブルデバイスによって受信される、方法。 - 前記補助コンテンツの第1の項目が、音楽ビデオを備える、請求項173に記載の方法。
- 前記補助コンテンツの第1の項目が、ゲームを備える、請求項173に記載の方法。
- ポータブルデバイスのマイクロフォンにより、ユーザの周囲環境から、少なくとも15分の延長された間隔にわたって、オーディオを受信するステップと、
前記間隔中に前記ユーザのロケーションを検知するステップと、
アルゴリズムを、前記受信されたオーディオを表すデータに適用して、識別データを導出するステップと、
前記導出された識別データを参照することによって、前記ユーザが前記間隔中に曝されたオーディオコンテンツの少なくとも第1及び第2の異なる項目を決定するステップと、
前記ポータブルデバイスのユーザインターフェースを通して、前記オーディオコンテンツの決定された第1及び第2の異なる項目を、前記ユーザに識別するステップと、
前記オーディオコンテンツの決定された第1の項目を選択する、前記ユーザインターフェースを通したユーザ信号を、受信するステップと、
前記ユーザ信号に応答して、前記オーディオコンテンツの第1の項目の識別を、前記ユーザの検知されたロケーションを指示するデータとともに、オンラインソーシャルネットワークに投稿するステップと、
を含む、方法。 - メモリ内の命令によって構成されるプロセッサを含むシステムであって、
前記命令が、オペレーティングシステムソフトウェアを含み、前記オペレーティングシステムソフトウェアが、入力オーディオデータを受信するオーディオ識別サービス、又は、格納されたオーディオデータへのポインタを提供し、それに対応するメタデータを、前記オペレーティングシステムソフトウェアのオーディオ識別メッセージキューへ返す、システム。 - 前記返されたメタデータが、オーディオフィンガープリントデータを備える、請求項177に記載のシステム。
- 前記サービスが、複数のフィンガープリント処理のうちどれを適用すべきかを指定する、パラメータ入力データをも受信する、請求項178に記載のシステム。
- 前記返されたメタデータが、復号されたオーディオウォーターマークデータを備える、請求項177に記載のシステム。
- 前記サービスがパラメータ入力データをさらに受信し、前記パラメータ入力データは、複数のウォーターマーク復号処理のうちどれが、前記オペレーティングシステムソフトウェアの前記オーディオ識別サービスによって適用されるべきであるかを指定する、請求項180に記載のシステム。
- 前記サービスが、前記返されたオーディオウォーターマークデータの明らかな有効性についてチェックする、請求項180に記載のシステム。
- 前記返されたメタデータが、前記オーディオのタイトルと演奏するアーティストの名前とを与える、テキストを備える、請求項177に記載のシステム。
- 前記サービスが、リモートメタデータレジストリと協働して、前記オーディオに関する情報を得る、請求項177に記載のシステム。
- モバイル電話デバイスのカメラ部分を使用して取り込まれ、前記デバイスの画面上に表示された、第1の被写体を描く画像のフレームを含む、方法であって、
取り込まれた画像データを解析することによって、前記第1の被写体に関係付けられた識別子を作り出すステップと、
第1のタグを、前記画面上に、画像の第1のフレームとともに表示するステップであり、前記第1のタグが、前記画面上の第1の位置に位置し、前記第1のタグが、前記第1の被写体に関連付けられたアクションを開始するようにユーザ選択可能である、ステップと、
前記第1のフレーム内に描かれた通りの前記第1の被写体を、前記表示された第1のタグに関連付ける、視覚的しるしを、前記画面上に提示するステップと、
前記第1のタグを、前記画面上に、前記第1の被写体を描く画像の第2のフレームとともに表示するステップと、
を含み、
前記第1の被写体が、前記画像の第1及び第2のフレーム内の異なるロケーションに描かれるが、前記第1のタグが、前記画像の第1及び第2のフレームの両方とともに、前記画面上の前記第1の位置に表示される、方法。 - 前記視覚的しるしが視覚的つなぎ(visual tether)を備えており、前記視覚的つなぎが、前記画面上に表示された通りの前記第1の被写体に最も近い第1の端部を有し、且つ、前記表示された第1のタグに最も近い第2の端部を有しており、前記第1の端部が、前記画像の第1及び第2のフレーム内の前記第1の被写体の前記異なるロケーションとともに動く、請求項185に記載の方法。
- 前記視覚的つなぎの前記第1の端部が、前記第1のフレーム内の前記第1の被写体の第1のハンドルロケーションに最も近く、前記第2のフレーム内の前記第1の被写体の第2の異なるハンドルロケーションに最も近い、請求項186に記載の方法。
- 前記視覚的しるしが共通色を備えており、前記共通色が、前記第1のタグを、前記第1の被写体とともにレンダリングされたグラフィック効果に関連付ける、請求項185に記載の方法。
- 前記視覚的しるしが、前記第1のタグを前記第1の被写体に視覚的に関連付ける、前記第1のタグのグラフィカルな外観を備える、請求項185に記載の方法。
- 前記第1のタグを、前記画面の縁部に沿って表示するステップを含む、請求項185に記載の方法。
- 前記方法が、前記識別子をリモートシステムへ送信するステップと、応答において情報を受信するステップであって、前記受信された情報が、前記第1の被写体に関する参照画像データを含む、ステップと、を含む、請求項185に記載の方法。
- 前記受信された情報の使用を通して、前記第1及び第2の画像フレーム間で、前記第1の被写体の動きを追跡するステップをさらに含む、請求項191に記載の方法。
- 前記受信された情報の使用を通して、前記第1の被写体と前記表示された第1のタグとの間に伸びるつなぎの終点を定義するステップをさらに含む、請求項191に記載の方法。
- 前記方法が、第2の表示されたタグを、前記画面上に、前記画像の第2のフレームとともに追加するステップを含み、前記第2のタグが、前記画面上の第2の位置に位置し、前記第2のタグが、前記第2のフレーム内に描かれた第2の被写体に関連付けられたアクションを開始するようにユーザ選択可能であり、前記第2の位置が、前記第1のタグの前記第1の位置を変更することなく、前記画面上のその表示を可能にするように選択され、前記第1及び第2の位置が、前記画面の縁部に沿って位置する、請求項185に記載の方法。
- ユーザのモバイル電話のカメラ部分によって取り込まれた画像内で描かれた物理的オブジェクトを識別して、それにより、前記ユーザに関する物理的オブジェクトプリファレンス情報を見極め、それに基づいた物理的オブジェクトプリファレンスプロファイルデータを、メモリ内に格納するステップと、
電子メディアを、前記格納された物理的オブジェクトプリファレンスプロファイルデータに少なくとも部分的に基づいて、処理するステップと、を含む、方法。 - 前記処理するステップが、前記格納された物理的オブジェクトプリファレンスプロファイルデータに少なくとも部分的に基づいて、前記ユーザに関連付けられた電子メールアカウントに向けて送られた電子メールを選別するサブステップを含む、請求項195に記載の方法。
- 前記処理するステップが、特定のウェブページを、示唆されたお気に入りとして、前記ユーザに関連付けられたウェブブラウザに追加するサブステップを含み、前記特定のウェブページが、前記格納された物理的オブジェクトプリファレンスプロファイルデータに少なくとも部分的に基づいて決定される、請求項195に記載の方法。
- 前記処理するステップが、パブリッシュされた電子メディアを監視するサブステップと、その選択された抜粋を前記ユーザに提供するサブステップと、を含み、前記選択が、前記格納された物理的オブジェクトプリファレンスプロファイルデータに少なくとも部分的に基づく、請求項195に記載の方法。
- 前記パブリッシュされた電子メディアが、オンラインソーシャルネットワーキングサービスへの投稿を備える、請求項198に記載の方法。
- ポータブルデバイスのカメラ部分により、画像のシーケンスを取り込むステップと、
前記シーケンスの最初の抜粋を解析して、較正情報を見極めるステップであり、前記較正情報が、前記最初の抜粋内で描かれた人の手の色を特徴付ける肌色データを含む、ステップと、
前記シーケンスの他の抜粋を解析して、取り込まれた画像を格納された参照手型データとマッチングすることによって、前記画像内に描かれたアメリカ手話の手型を識別するステップと、
前記解析に基づいて、語、音素、又は文字を出力デバイスに出力するステップと、
を含む、方法。 - 前記方法が、前記ポータブルデバイスに装備される近接センサから出力された信号に少なくとも部分的に基づいて、前記シーケンスの前記最初の抜粋を解析するステップであって、人間の身体の一部分が前記デバイスに近接して検出されるとき、そのセンサが、前記出力信号を生じる、ステップを含む、請求項200に記載の方法。
Applications Claiming Priority (23)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US41021710P | 2010-11-04 | 2010-11-04 | |
US61/410,217 | 2010-11-04 | ||
US201161449529P | 2011-03-04 | 2011-03-04 | |
US61/449,529 | 2011-03-04 | ||
US201161467862P | 2011-03-25 | 2011-03-25 | |
US61/467,862 | 2011-03-25 | ||
US201161471651P | 2011-04-04 | 2011-04-04 | |
US61/471,651 | 2011-04-04 | ||
US201161479323P | 2011-04-26 | 2011-04-26 | |
US61/479,323 | 2011-04-26 | ||
US201161483555P | 2011-05-06 | 2011-05-06 | |
US61/483,555 | 2011-05-06 | ||
US201161485888P | 2011-05-13 | 2011-05-13 | |
US61/485,888 | 2011-05-13 | ||
US201161501602P | 2011-06-27 | 2011-06-27 | |
US61/501,602 | 2011-06-27 | ||
US13/174,258 US8831279B2 (en) | 2011-03-04 | 2011-06-30 | Smartphone-based methods and systems |
US13/174,258 | 2011-06-30 | ||
US13/207,841 US9218530B2 (en) | 2010-11-04 | 2011-08-11 | Smartphone-based methods and systems |
US13/207,841 | 2011-08-11 | ||
US13/278,949 US9183580B2 (en) | 2010-11-04 | 2011-10-21 | Methods and systems for resource management on portable devices |
US13/278,949 | 2011-10-21 | ||
PCT/US2011/059412 WO2012061760A2 (en) | 2010-11-04 | 2011-11-04 | Smartphone-based methods and systems |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016234336A Division JP6572468B2 (ja) | 2010-11-04 | 2016-12-01 | スマートフォンベースの方法、スマートフォン及びコンピュータ可読媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014505896A true JP2014505896A (ja) | 2014-03-06 |
JP2014505896A5 JP2014505896A5 (ja) | 2014-11-27 |
JP6054870B2 JP6054870B2 (ja) | 2016-12-27 |
Family
ID=46025145
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013537885A Active JP6054870B2 (ja) | 2010-11-04 | 2011-11-04 | スマートフォンベースの方法及びシステム |
JP2016234336A Active JP6572468B2 (ja) | 2010-11-04 | 2016-12-01 | スマートフォンベースの方法、スマートフォン及びコンピュータ可読媒体 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016234336A Active JP6572468B2 (ja) | 2010-11-04 | 2016-12-01 | スマートフォンベースの方法、スマートフォン及びコンピュータ可読媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9183580B2 (ja) |
EP (1) | EP2635997A4 (ja) |
JP (2) | JP6054870B2 (ja) |
KR (1) | KR102010221B1 (ja) |
CN (2) | CN103329147A (ja) |
CA (1) | CA2815944C (ja) |
WO (1) | WO2012061760A2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017528898A (ja) * | 2014-09-29 | 2017-09-28 | フィリップス ライティング ホールディング ビー ヴィ | 照明器具コントローラのための自律的復元ポイント作成及び復元のシステム及び方法 |
JP2018092647A (ja) * | 2018-02-08 | 2018-06-14 | ヤフー株式会社 | 生成装置、生成方法、及び生成プログラム |
CN109791561A (zh) * | 2016-09-29 | 2019-05-21 | 康维达无线有限责任公司 | 分布式语义描述符上的语义查询 |
JP2019523505A (ja) * | 2016-07-27 | 2019-08-22 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | 二次元コード識別方法及び装置、並びに、モバイル端末 |
US10757537B2 (en) | 2016-08-31 | 2020-08-25 | Alibaba Group Holding Limited | User positioning method, information push method, and related apparatus |
US20220129880A1 (en) * | 2018-06-07 | 2022-04-28 | Capital One Services, Llc | Transaction terminals for automated billing |
Families Citing this family (141)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120322428A1 (en) | 2004-09-30 | 2012-12-20 | Motedata Inc. | Network of tags |
US8515052B2 (en) | 2007-12-17 | 2013-08-20 | Wai Wu | Parallel signal processing system and method |
US8819172B2 (en) | 2010-11-04 | 2014-08-26 | Digimarc Corporation | Smartphone-based methods and systems |
US9218530B2 (en) | 2010-11-04 | 2015-12-22 | Digimarc Corporation | Smartphone-based methods and systems |
US8903847B2 (en) | 2010-03-05 | 2014-12-02 | International Business Machines Corporation | Digital media voice tags in social networks |
US8762852B2 (en) | 2010-11-04 | 2014-06-24 | Digimarc Corporation | Smartphone-based methods and systems |
US20120224711A1 (en) * | 2011-03-04 | 2012-09-06 | Qualcomm Incorporated | Method and apparatus for grouping client devices based on context similarity |
US20120244842A1 (en) | 2011-03-21 | 2012-09-27 | International Business Machines Corporation | Data Session Synchronization With Phone Numbers |
US8688090B2 (en) | 2011-03-21 | 2014-04-01 | International Business Machines Corporation | Data session preferences |
US20120246238A1 (en) | 2011-03-21 | 2012-09-27 | International Business Machines Corporation | Asynchronous messaging tags |
SG185147A1 (en) * | 2011-04-08 | 2012-11-29 | Creative Tech Ltd | A method, system and electronic device for at least one of efficient graphic processing and salient based learning |
US9117074B2 (en) | 2011-05-18 | 2015-08-25 | Microsoft Technology Licensing, Llc | Detecting a compromised online user account |
US9087324B2 (en) * | 2011-07-12 | 2015-07-21 | Microsoft Technology Licensing, Llc | Message categorization |
US8885882B1 (en) | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US9065826B2 (en) | 2011-08-08 | 2015-06-23 | Microsoft Technology Licensing, Llc | Identifying application reputation based on resource accesses |
US9367770B2 (en) | 2011-08-30 | 2016-06-14 | Digimarc Corporation | Methods and arrangements for identifying objects |
US10474858B2 (en) | 2011-08-30 | 2019-11-12 | Digimarc Corporation | Methods of identifying barcoded items by evaluating multiple identification hypotheses, based on data from sensors including inventory sensors and ceiling-mounted cameras |
EP2758956B1 (en) | 2011-09-23 | 2021-03-10 | Digimarc Corporation | Context-based smartphone sensor logic |
US9235799B2 (en) | 2011-11-26 | 2016-01-12 | Microsoft Technology Licensing, Llc | Discriminative pretraining of deep neural networks |
GB2497951A (en) * | 2011-12-22 | 2013-07-03 | Nokia Corp | Method and System For Managing Images And Geographic Location Data |
US20130254265A1 (en) * | 2012-03-20 | 2013-09-26 | Alexandra Chemla | System and mechanisms for transferring user selected content to a recipient |
WO2013179086A1 (en) * | 2012-05-29 | 2013-12-05 | Nokia Corporation | Supporting the provision of services |
WO2013184383A2 (en) * | 2012-06-04 | 2013-12-12 | Apple Inc. | App recommendation using crowd-sourced localized app usage data |
US9195721B2 (en) | 2012-06-04 | 2015-11-24 | Apple Inc. | Mobile device with localized app recommendations |
US9477884B2 (en) | 2012-06-14 | 2016-10-25 | Digimarc Corporation | Methods and systems for signal processing |
WO2014015015A2 (en) * | 2012-07-17 | 2014-01-23 | Zahnow Myron Frederick | System, apparatus and method for activity guidance and monitoring |
US20140025537A1 (en) * | 2012-07-23 | 2014-01-23 | Cellco Partnership D/B/A Verizon Wireless | Verifying accessory compatibility with a mobile device |
US9401153B2 (en) | 2012-10-15 | 2016-07-26 | Digimarc Corporation | Multi-mode audio recognition and auxiliary data encoding and decoding |
US9305559B2 (en) | 2012-10-15 | 2016-04-05 | Digimarc Corporation | Audio watermark encoding with reversing polarity and pairwise embedding |
US9224184B2 (en) | 2012-10-21 | 2015-12-29 | Digimarc Corporation | Methods and arrangements for identifying objects |
US8874924B2 (en) * | 2012-11-07 | 2014-10-28 | The Nielsen Company (Us), Llc | Methods and apparatus to identify media |
US9477925B2 (en) | 2012-11-20 | 2016-10-25 | Microsoft Technology Licensing, Llc | Deep neural networks training for speech and pattern recognition |
US9591339B1 (en) | 2012-11-27 | 2017-03-07 | Apple Inc. | Agnostic media delivery system |
US9774917B1 (en) | 2012-12-10 | 2017-09-26 | Apple Inc. | Channel bar user interface |
US10200761B1 (en) | 2012-12-13 | 2019-02-05 | Apple Inc. | TV side bar user interface |
US9532111B1 (en) | 2012-12-18 | 2016-12-27 | Apple Inc. | Devices and method for providing remote control hints on a display |
US10521188B1 (en) | 2012-12-31 | 2019-12-31 | Apple Inc. | Multi-user TV user interface |
US20140196117A1 (en) * | 2013-01-07 | 2014-07-10 | Curtis John Schwebke | Recovery or upgrade of a cloud client device |
US9146990B2 (en) * | 2013-01-07 | 2015-09-29 | Gracenote, Inc. | Search and identification of video content |
US9317872B2 (en) | 2013-02-06 | 2016-04-19 | Muzak Llc | Encoding and decoding an audio watermark using key sequences comprising of more than two frequency components |
US9275278B2 (en) * | 2013-02-15 | 2016-03-01 | Fuji Xerox Co., Ltd. | Systems and methods for implementing and using off-center embedded media markers |
US9311640B2 (en) | 2014-02-11 | 2016-04-12 | Digimarc Corporation | Methods and arrangements for smartphone payments and transactions |
US8990638B1 (en) * | 2013-03-15 | 2015-03-24 | Digimarc Corporation | Self-stabilizing network nodes in mobile discovery system |
US20140337905A1 (en) * | 2013-05-09 | 2014-11-13 | Telefonaktiebolaget L M Ericsson (Publ) | System and method for delivering extended media content |
US9251549B2 (en) * | 2013-07-23 | 2016-02-02 | Verance Corporation | Watermark extractor enhancements based on payload ranking |
KR102165818B1 (ko) | 2013-09-10 | 2020-10-14 | 삼성전자주식회사 | 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체 |
US10595100B2 (en) | 2013-09-16 | 2020-03-17 | The Electric Fan Company | Distributed, unfolding, embedded transaction and inventory apparatuses, methods and systems |
US10277330B2 (en) * | 2013-09-19 | 2019-04-30 | Radius Universal Llc | Fiber optic communications and power network |
US9600474B2 (en) | 2013-11-08 | 2017-03-21 | Google Inc. | User interface for realtime language translation |
BR102013031062A2 (pt) * | 2013-12-03 | 2015-10-20 | Antonio Ferreira De Souza | sistema de consulta eletrônica e aferição de autenticidade, validade e restrição de carteira nacional de habilitação (cnh), certificado de registro de veículo (crv) e certificado de registro e licenciamento de veículo (crlv), utilizando tecnologia de leitura de dados por aproximação |
JP2015127897A (ja) * | 2013-12-27 | 2015-07-09 | ソニー株式会社 | 表示制御装置、表示制御システム、表示制御方法、およびプログラム |
JP6222830B2 (ja) * | 2013-12-27 | 2017-11-01 | マクセルホールディングス株式会社 | 画像投射装置 |
US9351060B2 (en) | 2014-02-14 | 2016-05-24 | Sonic Blocks, Inc. | Modular quick-connect A/V system and methods thereof |
US9613638B2 (en) * | 2014-02-28 | 2017-04-04 | Educational Testing Service | Computer-implemented systems and methods for determining an intelligibility score for speech |
US10015720B2 (en) | 2014-03-14 | 2018-07-03 | GoTenna, Inc. | System and method for digital communication between computing devices |
SE538975C2 (sv) * | 2014-05-16 | 2017-03-07 | Corfitsen Sten | System och förfarande för att utföra betalningar från ett fordon |
US10108748B2 (en) | 2014-05-30 | 2018-10-23 | Apple Inc. | Most relevant application recommendation based on crowd-sourced application usage data |
US9913100B2 (en) | 2014-05-30 | 2018-03-06 | Apple Inc. | Techniques for generating maps of venues including buildings and floors |
CN104023208B (zh) * | 2014-06-05 | 2019-07-05 | 北京小鱼在家科技有限公司 | 一种自动监测与自主反应的装置及方法 |
JP6482578B2 (ja) | 2014-06-24 | 2019-03-13 | アップル インコーポレイテッドApple Inc. | ユーザインタフェースにおけるナビゲートのためのカラムインタフェース |
US9402161B2 (en) | 2014-07-23 | 2016-07-26 | Apple Inc. | Providing personalized content based on historical interaction with a mobile device |
US10200439B2 (en) * | 2014-07-29 | 2019-02-05 | Sap Se | In-memory cloud triple store |
CN105787485B (zh) * | 2014-12-25 | 2019-11-26 | 联想(北京)有限公司 | 识别点击操作的装置和方法 |
CN106162928A (zh) * | 2015-04-03 | 2016-11-23 | 松翰科技股份有限公司 | 信息传输系统及方法 |
US9529500B1 (en) | 2015-06-05 | 2016-12-27 | Apple Inc. | Application recommendation based on detected triggering events |
US9652196B2 (en) * | 2015-06-29 | 2017-05-16 | Microsoft Technology Licensing, Llc | Smart audio routing management |
KR102429427B1 (ko) * | 2015-07-20 | 2022-08-04 | 삼성전자주식회사 | 촬영 장치 및 그 동작 방법 |
US20170034551A1 (en) * | 2015-07-29 | 2017-02-02 | GM Global Technology Operations LLC | Dynamic screen replication and real-time display rendering based on media-application characteristics |
CN105187295B (zh) * | 2015-08-06 | 2019-05-17 | 广州华多网络科技有限公司 | 一种在客户端实现气泡展示的方法及客户端、服务器和系统 |
US10331944B2 (en) * | 2015-09-26 | 2019-06-25 | Intel Corporation | Technologies for dynamic performance of image analysis |
JP6696149B2 (ja) * | 2015-10-29 | 2020-05-20 | 富士通株式会社 | 画像生成方法、画像生成プログラム、情報処理装置および表示制御方法 |
US10740409B2 (en) | 2016-05-20 | 2020-08-11 | Magnet Forensics Inc. | Systems and methods for graphical exploration of forensic data |
CA3023877A1 (en) | 2016-05-20 | 2017-11-23 | Roman Czeslaw Kordasiewicz | Systems and methods for graphical exploration of forensic data |
US20170351651A1 (en) * | 2016-06-01 | 2017-12-07 | Intel Corporation | Smart bookmark device and bookmark synchronization system |
US10595169B2 (en) | 2016-06-12 | 2020-03-17 | Apple Inc. | Message extension app store |
DK201670581A1 (en) | 2016-06-12 | 2018-01-08 | Apple Inc | Device-level authorization for viewing content |
DK201670582A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | Identifying applications on which content is available |
KR102493607B1 (ko) * | 2016-06-15 | 2023-02-01 | 삼성전자주식회사 | 지문 인식 기능을 지원하는 전자 장치 및 이의 운용 방법 |
KR20230111276A (ko) | 2016-10-26 | 2023-07-25 | 애플 인크. | 전자 디바이스 상의 다수의 콘텐츠 애플리케이션으로부터의콘텐츠를 브라우징하기 위한 사용자 인터페이스 |
US10515474B2 (en) | 2017-01-19 | 2019-12-24 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression in a virtual reality system |
US10943100B2 (en) | 2017-01-19 | 2021-03-09 | Mindmaze Holding Sa | Systems, methods, devices and apparatuses for detecting facial expression |
EP3571627A2 (en) | 2017-01-19 | 2019-11-27 | Mindmaze Holding S.A. | Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system |
CN109255564B (zh) * | 2017-07-13 | 2022-09-06 | 菜鸟智能物流控股有限公司 | 一种取件点地址推荐方法及装置 |
CN108021954B (zh) * | 2017-11-01 | 2020-06-05 | 阿里巴巴集团控股有限公司 | 业务过程的启动方法和装置 |
CN107958667A (zh) * | 2017-11-20 | 2018-04-24 | 北京云知声信息技术有限公司 | 能够快速启动应用的移动终端保护套和移动终端控制方法 |
CN111880927B (zh) * | 2017-12-05 | 2024-02-06 | 创新先进技术有限公司 | 一种资源分配方法、装置及设备 |
US11328533B1 (en) | 2018-01-09 | 2022-05-10 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression for motion capture |
US10944669B1 (en) | 2018-02-09 | 2021-03-09 | GoTenna, Inc. | System and method for efficient network-wide broadcast in a multi-hop wireless network using packet echos |
CN111860020A (zh) | 2018-04-25 | 2020-10-30 | 创新先进技术有限公司 | 业务处理方法、装置以及设备 |
CN110209923B (zh) * | 2018-06-12 | 2023-07-25 | 中国人民大学 | 话题影响力用户的推送方法和装置 |
US11145313B2 (en) * | 2018-07-06 | 2021-10-12 | Michael Bond | System and method for assisting communication through predictive speech |
EP3831021A1 (en) | 2018-07-27 | 2021-06-09 | Gotenna Inc. | VINEtm ZERO-CONTROL ROUTING USING DATA PACKET INSPECTION FOR WIRELESS MESH NETWORKS |
EP3621039A1 (en) * | 2018-09-06 | 2020-03-11 | Tata Consultancy Services Limited | Real time overlay placement in videos for augmented reality applications |
CN109451139B (zh) * | 2018-09-13 | 2020-11-20 | 腾讯科技(深圳)有限公司 | 消息传输方法、终端、装置、电子设备及可读介质 |
CN109615423B (zh) | 2018-11-29 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 业务的处理方法及装置 |
KR102160189B1 (ko) * | 2018-11-30 | 2020-09-25 | 인천대학교 산학협력단 | 애니메이션 내 객체의 채색을 지원하기 위한 사용자 인터페이스를 제공하는 전자 장치 및 그의 동작 방법 |
US10805690B2 (en) | 2018-12-04 | 2020-10-13 | The Nielsen Company (Us), Llc | Methods and apparatus to identify media presentations by analyzing network traffic |
US11126861B1 (en) | 2018-12-14 | 2021-09-21 | Digimarc Corporation | Ambient inventorying arrangements |
CN109448836A (zh) * | 2018-12-27 | 2019-03-08 | 重庆科技学院 | 一种用于检测医疗健康的机器人及自助体检的方法 |
US11340758B1 (en) * | 2018-12-27 | 2022-05-24 | Meta Platforms, Inc. | Systems and methods for distributing content |
WO2020185707A1 (en) | 2019-03-08 | 2020-09-17 | goTenna Inc. | Method for utilization-based traffic throttling in a wireless mesh network |
US11962836B2 (en) | 2019-03-24 | 2024-04-16 | Apple Inc. | User interfaces for a media browsing application |
WO2020198221A1 (en) | 2019-03-24 | 2020-10-01 | Apple Inc. | User interfaces for viewing and accessing content on an electronic device |
US11057682B2 (en) | 2019-03-24 | 2021-07-06 | Apple Inc. | User interfaces including selectable representations of content items |
US11683565B2 (en) | 2019-03-24 | 2023-06-20 | Apple Inc. | User interfaces for interacting with channels that provide content that plays in a media browsing application |
CN109822595A (zh) * | 2019-03-25 | 2019-05-31 | 杭州纳茵特科技有限公司 | 一种教育机器人 |
US11082380B2 (en) * | 2019-05-24 | 2021-08-03 | Universal City Studios Llc | Systems and methods for providing in-application messaging |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
WO2020243645A1 (en) | 2019-05-31 | 2020-12-03 | Apple Inc. | User interfaces for a podcast browsing and playback application |
US11863837B2 (en) | 2019-05-31 | 2024-01-02 | Apple Inc. | Notification of augmented reality content on an electronic device |
JP2022540067A (ja) | 2019-06-28 | 2022-09-14 | ドルビー ラボラトリーズ ライセンシング コーポレイション | ハイダイナミックレンジ用映像コンテンツタイプメタデータ |
US20210034907A1 (en) * | 2019-07-29 | 2021-02-04 | Walmart Apollo, Llc | System and method for textual analysis of images |
RU2724445C1 (ru) * | 2019-08-23 | 2020-06-23 | Самсунг Электроникс Ко., Лтд. | Устройство и способ отслеживания положения глаза |
US11698676B2 (en) | 2019-08-23 | 2023-07-11 | Samsung Electronics Co., Ltd. | Method and electronic device for eye-tracking |
KR102252084B1 (ko) * | 2019-09-19 | 2021-05-17 | 주식회사 스켈터랩스 | 블랙보드 기반의 사용자 모델링을 위한 방법, 장치 및 컴퓨터 판독가능 저장 매체 |
CN110991450A (zh) * | 2019-12-03 | 2020-04-10 | 厦门亿合恒拓信息科技有限公司 | 电网设备信息的采集方法及计算机可读存储介质 |
CN111177587B (zh) * | 2019-12-12 | 2023-05-23 | 广州地理研究所 | 一种购物街道推荐方法及装置 |
CN111127094B (zh) * | 2019-12-19 | 2023-08-25 | 秒针信息技术有限公司 | 一种账户匹配方法、装置、电子设备和存储介质 |
CN111081270B (zh) * | 2019-12-19 | 2021-06-01 | 大连即时智能科技有限公司 | 一种实时音频驱动的虚拟人物口型同步控制方法 |
EP3839880A1 (en) | 2019-12-20 | 2021-06-23 | Koninklijke Philips N.V. | A system for performing ambient light image correction |
US10839181B1 (en) | 2020-01-07 | 2020-11-17 | Zebra Technologies Corporation | Method to synchronize a barcode decode with a video camera to improve accuracy of retail POS loss prevention |
US11843838B2 (en) | 2020-03-24 | 2023-12-12 | Apple Inc. | User interfaces for accessing episodes of a content series |
CN113296767A (zh) * | 2020-04-07 | 2021-08-24 | 阿里巴巴集团控股有限公司 | Ui组件的生成方法及装置、用户界面的处理方法及装置 |
US11501470B2 (en) | 2020-05-27 | 2022-11-15 | Microsoft Technology Licensing, Llc | Geometric encoding of data |
CN111667571B (zh) * | 2020-06-08 | 2021-09-17 | 南华大学 | 核设施源项三维分布快速重建方法、装置、设备及介质 |
US11899895B2 (en) | 2020-06-21 | 2024-02-13 | Apple Inc. | User interfaces for setting up an electronic device |
US11321797B2 (en) | 2020-08-25 | 2022-05-03 | Kyndryl, Inc. | Wearable watermarks |
CN111930846B (zh) * | 2020-09-15 | 2021-02-23 | 支付宝(杭州)信息技术有限公司 | 一种数据处理方法、装置及设备 |
CN112183401A (zh) * | 2020-09-30 | 2021-01-05 | 敦泰电子(深圳)有限公司 | 图像采集方法、芯片及图像采集装置 |
CN112511848B (zh) * | 2020-11-09 | 2023-06-20 | 网宿科技股份有限公司 | 直播方法、服务端及计算机可读存储介质 |
CN114553618A (zh) * | 2020-11-27 | 2022-05-27 | 赛万特科技有限责任公司 | 控制设备的方法、装置、智能家居设备、系统和存储介质 |
US11720229B2 (en) | 2020-12-07 | 2023-08-08 | Apple Inc. | User interfaces for browsing and presenting content |
US11934640B2 (en) | 2021-01-29 | 2024-03-19 | Apple Inc. | User interfaces for record labels |
EP4039620A1 (en) * | 2021-02-03 | 2022-08-10 | ATS Automation Tooling Systems Inc. | System and method for rotary drive curved track in a conveyor system |
CN113379794B (zh) * | 2021-05-19 | 2023-07-25 | 重庆邮电大学 | 基于注意力-关键点预测模型的单目标跟踪系统及方法 |
US20220383025A1 (en) * | 2021-05-26 | 2022-12-01 | International Business Machines Corporation | Augmented reality translation of sign language classifier constructions |
CN113360820B (zh) * | 2021-05-29 | 2024-03-08 | 北京网聘信息技术有限公司 | 一种页面展示方法、系统、设备和存储介质 |
CN113657116B (zh) * | 2021-08-05 | 2023-08-08 | 天津大学 | 基于视觉语义关系的社交媒体流行度预测方法及装置 |
CN113836397A (zh) * | 2021-09-02 | 2021-12-24 | 桂林电子科技大学 | 一种购物篮个性化特征建模的推荐方法 |
CN113946701B (zh) * | 2021-09-14 | 2024-03-19 | 广州市城市规划设计有限公司 | 一种基于图像处理的城乡规划数据的动态更新方法及装置 |
US11941860B2 (en) * | 2021-09-24 | 2024-03-26 | Zebra Tehcnologies Corporation | Computational load mitigation for image-based item recognition |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005518594A (ja) * | 2002-02-21 | 2005-06-23 | インターナショナル・ビジネス・マシーンズ・コーポレーション | オーディオ・コンテンツの識別を使用して製品を販売するシステム |
JP2008537612A (ja) * | 2005-01-06 | 2008-09-18 | テーベラ・インコーポレーテッド | インテリジェント・メッセージング・アプリケーション・プログラミング・インタフェース |
JP2008252907A (ja) * | 2001-08-15 | 2008-10-16 | Precache Inc | ペイロード検査を介したパケット・ルーティング、及びパブリッシュ/サブスクライブ型ネットワークにおけるサブスクリプション処理 |
JP2008262541A (ja) * | 2007-02-13 | 2008-10-30 | Internatl Business Mach Corp <Ibm> | 式の処理を改良した方法、装置、およびコンピュータプログラム |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6311214B1 (en) | 1995-07-27 | 2001-10-30 | Digimarc Corporation | Linking of computers based on optical sensing of digital data |
JP4242529B2 (ja) * | 1999-10-27 | 2009-03-25 | オリンパス株式会社 | 関連情報呈示装置及び関連情報呈示方法 |
KR100330134B1 (ko) * | 1999-12-29 | 2002-03-27 | 류명선 | 속도제한 경보 및 교통정보안내 시스템 및 방법 |
US6728312B1 (en) * | 2000-04-13 | 2004-04-27 | Forgent Networks, Inc. | Adaptive video decoding and rendering with respect to processor congestion |
WO2002032100A1 (en) * | 2000-10-10 | 2002-04-18 | Discrete Wireless, Inc. | System and methods for conserving wireless resources |
US6722569B2 (en) | 2001-07-13 | 2004-04-20 | Welch Allyn Data Collection, Inc. | Optical reader having a color imager |
WO2003044655A2 (en) | 2001-11-19 | 2003-05-30 | Koninklijke Philips Electronics N.V. | Method and system for allocating a budget surplus to a task |
US20030105827A1 (en) * | 2001-11-30 | 2003-06-05 | Tan Eng Siong | Method and system for contextual prioritization of unified messages |
KR100816589B1 (ko) * | 2003-07-24 | 2008-03-24 | 올림푸스 가부시키가이샤 | 화상 처리 장치 |
US8615487B2 (en) * | 2004-01-23 | 2013-12-24 | Garrison Gomez | System and method to store and retrieve identifier associated information content |
US20060107219A1 (en) | 2004-05-26 | 2006-05-18 | Motorola, Inc. | Method to enhance user interface and target applications based on context awareness |
WO2006017659A2 (en) | 2004-08-06 | 2006-02-16 | Digimarc Corporation | Fast signal detection and distributed computing in portable computing devices |
JP2006091980A (ja) | 2004-09-21 | 2006-04-06 | Seiko Epson Corp | 画像処理装置、画像処理方法および画像処理プログラム |
US20100036717A1 (en) | 2004-12-29 | 2010-02-11 | Bernard Trest | Dynamic Information System |
US7873974B2 (en) * | 2005-09-19 | 2011-01-18 | Sony Corporation | Identification of television programming using a portable wireless device |
US7319908B2 (en) | 2005-10-28 | 2008-01-15 | Microsoft Corporation | Multi-modal device power/mode management |
US8849821B2 (en) * | 2005-11-04 | 2014-09-30 | Nokia Corporation | Scalable visual search system simplifying access to network and device functionality |
WO2007130688A2 (en) * | 2006-05-10 | 2007-11-15 | Evolution Robotics, Inc. | Mobile computing device with imaging capability |
US7787697B2 (en) | 2006-06-09 | 2010-08-31 | Sony Ericsson Mobile Communications Ab | Identification of an object in media and of related media objects |
US7680959B2 (en) * | 2006-07-11 | 2010-03-16 | Napo Enterprises, Llc | P2P network for providing real time media recommendations |
US8565815B2 (en) * | 2006-11-16 | 2013-10-22 | Digimarc Corporation | Methods and systems responsive to features sensed from imagery or other data |
US7991157B2 (en) * | 2006-11-16 | 2011-08-02 | Digimarc Corporation | Methods and systems responsive to features sensed from imagery or other data |
US8788529B2 (en) * | 2007-02-26 | 2014-07-22 | Microsoft Corp. | Information sharing between images |
US20080243806A1 (en) * | 2007-03-26 | 2008-10-02 | Roger Dalal | Accessing information on portable cellular electronic devices |
US7912444B2 (en) * | 2007-04-23 | 2011-03-22 | Sony Ericsson Mobile Communications Ab | Media portion selection system and method |
JP5380789B2 (ja) * | 2007-06-06 | 2014-01-08 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
US8279946B2 (en) * | 2007-11-23 | 2012-10-02 | Research In Motion Limited | System and method for providing a variable frame rate and adaptive frame skipping on a mobile device |
US9224150B2 (en) * | 2007-12-18 | 2015-12-29 | Napo Enterprises, Llc | Identifying highly valued recommendations of users in a media recommendation network |
KR20090091549A (ko) * | 2008-02-25 | 2009-08-28 | 주식회사 케이티 | 피사체의 위치정보가 포함된 사진 생성 장치 및 그 방법 |
US8417259B2 (en) * | 2008-03-31 | 2013-04-09 | At&T Mobility Ii Llc | Localized detection of mobile devices |
US8036417B2 (en) | 2008-06-11 | 2011-10-11 | Eastman Kodak Company | Finding orientation and date of hardcopy medium |
US20090315886A1 (en) * | 2008-06-19 | 2009-12-24 | Honeywell International Inc. | Method to prevent resource exhaustion while performing video rendering |
US8520979B2 (en) | 2008-08-19 | 2013-08-27 | Digimarc Corporation | Methods and systems for content processing |
US8805110B2 (en) | 2008-08-19 | 2014-08-12 | Digimarc Corporation | Methods and systems for content processing |
KR101680044B1 (ko) * | 2008-08-19 | 2016-11-28 | 디지맥 코포레이션 | 콘텐트 처리를 위한 방법들 및 시스템들 |
CN102132341B (zh) * | 2008-08-26 | 2014-11-26 | 杜比实验室特许公司 | 鲁棒的媒体指纹 |
US9788043B2 (en) * | 2008-11-07 | 2017-10-10 | Digimarc Corporation | Content interaction methods and systems employing portable devices |
US20100135417A1 (en) * | 2008-12-02 | 2010-06-03 | Asaf Hargil | Processing of video data in resource contrained devices |
JP2010134649A (ja) * | 2008-12-03 | 2010-06-17 | Canon Inc | 情報処理装置、その処理方法及びプログラム |
JP5315111B2 (ja) * | 2009-03-31 | 2013-10-16 | 株式会社エヌ・ティ・ティ・ドコモ | 端末装置、情報提示システム及び端末画面表示方法 |
CN101533506B (zh) * | 2009-04-24 | 2012-01-04 | 西安电子科技大学 | 一种鲁棒性的图像双水印方法 |
US8886206B2 (en) | 2009-05-01 | 2014-11-11 | Digimarc Corporation | Methods and systems for content processing |
US9197736B2 (en) | 2009-12-31 | 2015-11-24 | Digimarc Corporation | Intuitive computing methods and systems |
US8121618B2 (en) | 2009-10-28 | 2012-02-21 | Digimarc Corporation | Intuitive computing methods and systems |
US8694533B2 (en) * | 2010-05-19 | 2014-04-08 | Google Inc. | Presenting mobile content based on programming context |
US8781152B2 (en) * | 2010-08-05 | 2014-07-15 | Brian Momeyer | Identifying visual media content captured by camera-enabled mobile device |
US8359020B2 (en) | 2010-08-06 | 2013-01-22 | Google Inc. | Automatically monitoring for voice input based on context |
-
2011
- 2011-10-21 US US13/278,949 patent/US9183580B2/en not_active Expired - Fee Related
- 2011-11-04 CN CN2011800641753A patent/CN103329147A/zh active Pending
- 2011-11-04 CN CN201710150469.7A patent/CN107103316B/zh active Active
- 2011-11-04 KR KR1020137014291A patent/KR102010221B1/ko active IP Right Grant
- 2011-11-04 CA CA2815944A patent/CA2815944C/en active Active
- 2011-11-04 JP JP2013537885A patent/JP6054870B2/ja active Active
- 2011-11-04 EP EP11838908.9A patent/EP2635997A4/en not_active Withdrawn
- 2011-11-04 WO PCT/US2011/059412 patent/WO2012061760A2/en active Application Filing
-
2016
- 2016-12-01 JP JP2016234336A patent/JP6572468B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008252907A (ja) * | 2001-08-15 | 2008-10-16 | Precache Inc | ペイロード検査を介したパケット・ルーティング、及びパブリッシュ/サブスクライブ型ネットワークにおけるサブスクリプション処理 |
JP2005518594A (ja) * | 2002-02-21 | 2005-06-23 | インターナショナル・ビジネス・マシーンズ・コーポレーション | オーディオ・コンテンツの識別を使用して製品を販売するシステム |
JP2008537612A (ja) * | 2005-01-06 | 2008-09-18 | テーベラ・インコーポレーテッド | インテリジェント・メッセージング・アプリケーション・プログラミング・インタフェース |
JP2008262541A (ja) * | 2007-02-13 | 2008-10-30 | Internatl Business Mach Corp <Ibm> | 式の処理を改良した方法、装置、およびコンピュータプログラム |
Non-Patent Citations (1)
Title |
---|
ORACLE DATABASE アプリケーション開発者ガイド・基礎編 10Gリリース2(10.2), vol. 初板, JPN6016006861, 31 August 2005 (2005-08-31), pages 16 - 1, ISSN: 0003263581 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017528898A (ja) * | 2014-09-29 | 2017-09-28 | フィリップス ライティング ホールディング ビー ヴィ | 照明器具コントローラのための自律的復元ポイント作成及び復元のシステム及び方法 |
JP7002330B2 (ja) | 2014-09-29 | 2022-01-20 | シグニファイ ホールディング ビー ヴィ | 照明器具コントローラのための自律的復元ポイント作成及び復元のシステム及び方法 |
JP2019523505A (ja) * | 2016-07-27 | 2019-08-22 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | 二次元コード識別方法及び装置、並びに、モバイル端末 |
JP6999642B2 (ja) | 2016-07-27 | 2022-01-18 | アドバンスド ニュー テクノロジーズ カンパニー リミテッド | 二次元コード識別方法及び装置、並びに、モバイル端末 |
US11393017B2 (en) | 2016-07-27 | 2022-07-19 | Advanced New Technologies Co., Ltd. | Two-dimensional code identification method and device, and mobile terminal |
US10757537B2 (en) | 2016-08-31 | 2020-08-25 | Alibaba Group Holding Limited | User positioning method, information push method, and related apparatus |
CN109791561A (zh) * | 2016-09-29 | 2019-05-21 | 康维达无线有限责任公司 | 分布式语义描述符上的语义查询 |
JP2019537775A (ja) * | 2016-09-29 | 2019-12-26 | コンヴィーダ ワイヤレス, エルエルシー | 分散されたセマンティック記述子に対するセマンティッククエリ |
JP7065082B2 (ja) | 2016-09-29 | 2022-05-11 | コンヴィーダ ワイヤレス, エルエルシー | 分散されたセマンティック記述子に対するセマンティッククエリ |
JP2018092647A (ja) * | 2018-02-08 | 2018-06-14 | ヤフー株式会社 | 生成装置、生成方法、及び生成プログラム |
US20220129880A1 (en) * | 2018-06-07 | 2022-04-28 | Capital One Services, Llc | Transaction terminals for automated billing |
Also Published As
Publication number | Publication date |
---|---|
KR20130118897A (ko) | 2013-10-30 |
WO2012061760A2 (en) | 2012-05-10 |
JP2017108401A (ja) | 2017-06-15 |
CN107103316B (zh) | 2020-11-03 |
CN107103316A (zh) | 2017-08-29 |
JP6572468B2 (ja) | 2019-09-11 |
EP2635997A2 (en) | 2013-09-11 |
WO2012061760A3 (en) | 2012-06-28 |
US9183580B2 (en) | 2015-11-10 |
CN103329147A (zh) | 2013-09-25 |
JP6054870B2 (ja) | 2016-12-27 |
US20120134548A1 (en) | 2012-05-31 |
KR102010221B1 (ko) | 2019-08-13 |
EP2635997A4 (en) | 2015-01-07 |
CA2815944C (en) | 2019-09-17 |
CA2815944A1 (en) | 2012-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6572468B2 (ja) | スマートフォンベースの方法、スマートフォン及びコンピュータ可読媒体 | |
US10658007B2 (en) | Smartphone-based methods and systems | |
US10521873B2 (en) | Salient point-based arrangements | |
US9367886B2 (en) | Smartphone arrangements responsive to musical artists and other content proprietors | |
US9240021B2 (en) | Smartphone-based methods and systems | |
US20120154633A1 (en) | Linked Data Methods and Systems | |
US20120277893A1 (en) | Channelized Audio Watermarks | |
US20120224743A1 (en) | Smartphone-based methods and systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141006 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141006 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150512 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150811 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151008 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6054870 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |