2016-12-12 分類: 網(wǎng)站建設(shè)
找到一張滿意的圖有多難?
首先第一步當(dāng)然是輸入關(guān)鍵詞,不過往往會顯示出很多的結(jié)果,我們需要選擇不同顏色、尺寸來進(jìn)一步精確搜索范圍。很多圖片網(wǎng)站提供了更詳細(xì)的篩選條件,來幫助用戶快速找到合適的圖片,不過結(jié)果還是不夠理想,基于條件搜索的方法依然不夠「人性化」。
一張圖中有很多元素,這些元素的位置往往不可控,我們需要在大量相似的圖中找到合適構(gòu)圖的那一張,整個過程很費時。Shutterstock 提供了一種新的搜索工具 Composition Aware Search,用戶可以基于構(gòu)圖更快速地找到精確的結(jié)果。
構(gòu)圖感知搜索引擎
這個工具運用的是深度學(xué)習(xí)技術(shù),基于 Shutterstock 的下一代視覺模型,將機(jī)器視覺、自然語言處理和信息檢索技術(shù)相結(jié)合,在海量的圖庫中找到與搜索標(biāo)準(zhǔn)相匹配的結(jié)果。添加關(guān)鍵詞到畫布中,然后移動到想要的位置,就可以看到對應(yīng)構(gòu)圖的圖片。
舉個例子,輸入關(guān)鍵詞「cat」,移動到左邊,再添加關(guān)鍵詞「dog」,放到右邊,就可以找到左邊是貓,右邊是狗的圖片。隨意移動關(guān)鍵詞的位置,可以在搜索結(jié)果中實時看到更改。
很多用戶找圖費時間,很大的原因就是對構(gòu)圖不滿意,比如用于幻燈片的背景,圖上要有合適的空間留著寫文案。在 Shutterstock 的新工具中,你還能自定義文本位置,找到有合適留白的圖片。
Shutterstock 創(chuàng)始人 Jon Oringer 提到:「這項技術(shù)的主要突破在于,我們只需要訓(xùn)練模型來識別內(nèi)容是什么,而位置變化可以交給深度神經(jīng)網(wǎng)絡(luò)來完成。」
對設(shè)計師和很多需要經(jīng)常找圖的用戶來說,這個工具可以極大地提升找圖的效率。
用機(jī)器學(xué)習(xí)識別視覺內(nèi)容
這個工具由 Shutterstock 內(nèi)部的計算機(jī)視覺團(tuán)隊開發(fā),去年他們就曾推出了反向搜索和相似圖片搜索的功能,這些技術(shù)的目的都是為了讓用戶更快速地找到想要的圖片。
很多公司都在用機(jī)器學(xué)習(xí)來對視覺內(nèi)容進(jìn)行標(biāo)記和分類。Pinterest 和零售商 Target 合作升級了拍照搜索,可以反向搜索菜單,還能搜索到商品。某************也開始啟用 AI 系統(tǒng),使用機(jī)器學(xué)習(xí)來識別 XX 明星,自動標(biāo)記 500 萬個視頻內(nèi)容。
基于構(gòu)圖的搜索工具是 Shutterstock 用 AI 改變圖片搜索的另一突破,不過目前這項技術(shù)還處在測試階段,只能識別一些簡單的內(nèi)容。
文章標(biāo)題:關(guān)鍵詞搜索已經(jīng)過時了 構(gòu)圖感知搜索引擎問世
網(wǎng)頁鏈接:http://www.rwnh.cn/news0/71000.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供用戶體驗、服務(wù)器托管、商城網(wǎng)站、網(wǎng)站導(dǎo)航、做網(wǎng)站、關(guān)鍵詞優(yōu)化
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容