歌手2025 關(guān)稅戰(zhàn)下中國經(jīng)濟方向 原文標題《美哭了這才是日的正確打方式!》有多久沒日出了?自己最重的人一起待曙光是件再浪漫過的事情大叔整理幾個手機日出的實技巧,相會給小伙們帶來很的幫助!Photo?by 玩攝 |?? 沃倫拍日,如果只太陽的形會顯得單,也湊不九宮格!照太陽升的時間先可以分為升、初升升華三個段,每個段的時間十分短暫但是光線變化卻又十分豐富不同的光條件會映出不同的面意境,影師要在短暫的時里高效出,需要結(jié)不斷變換光線及時整拍攝對。Photo by?IPPA?|??Danette-Spriggs待升.強調(diào)冷暖氛圍「待」指的是陽還沒有起,但天會出現(xiàn)一霞光,此的天空將現(xiàn)柔和的藍調(diào)時刻。不管是霧繚繞的山,還是望無際的海,紅色霞光與深的藍天會人呈現(xiàn)出副柔和、漫的畫面Photo by MPC?|?? 劉晶有了光便有色彩,于我們便有一些拍攝路...??尋找水??待升個階段特適合強調(diào)彩的冷暖比!此時在天空的射下,水會呈現(xiàn)出漫的藍紫,我們可扔一塊石在水洼中造出波紋讓其成為覺焦點。管是在海還是普通街道上,都能找到似的一灘!需要注的是,拍這類景觀要避免畫過曝,重突出畫面色彩氛圍Photo by?IPPA?|??Shirley-Xu采用主攝拍攝能大程度的原水紋、霞以及其元素的動細節(jié)。但在普通模下拍攝,片會出現(xiàn)亮的曝光向,需要們手動降曝光補償讓畫面的部保留更的細節(jié),時色彩也顯得更加郁。?絲流水??暖對比的二種方法是拍攝絲流水。如是在海邊攝可以利礁石作為景,用八魚把手機定好,打手機的「水瀑布」能,曝光間設(shè)定在 12 秒左右。注意流越快霧效果越明,大家可通過預(yù)覽口看到的片效果。果不確定要拍攝幾,可以選「B」采用手動控制門時間。門啟動與止建議采語音或者機線控制避免手動碰手機導(dǎo)畫面晃動Photo by?weibo?|?? 臺灣林添福拍地平??拍攝日要選擇視開闊的場,出片率比較高。平坦開闊場景中,以利用全模式或者廣角拍攝海平面升的霞光。攝此類照最重要的點是保持平線的水狀態(tài),打網(wǎng)格線可更好的輔我們構(gòu)圖其次需要地景放在面下三分一處,天放在畫面三分之二,照片整感覺會更簡潔。Photo by?MPC?|?? 張睿志初.強調(diào)層次感「初升指太陽升地平線,拍攝日出黃金時刻初升的太與日落的陽最明顯不同在于日出時的陽會顯得為通紅,睛直視也會很刺眼我們可以過增加前,讓畫面起來更有次。Photo by?MPC?|?? 范澤文?長壓縮前??太陽剛出地平線時候,天會呈現(xiàn)出紅的景象而海水還有完全被亮,此時以用 5 倍或 10 倍長焦拍攝冷暖對的畫面。過長焦的縮,大海建筑、太、輪船等素在畫面會顯得更緊湊。Photo by?玩攝?|?? 沃倫隨著太逐漸升高在構(gòu)圖時以嘗試增海灘邊的物為前景“大小對之下”照的層次感及故事性加突出。Photo by?weibo?|??Memory 寶鏢?低角拍水??海邊或江總能看到些游泳愛者,作為影師可以著手機去近他們進精彩的抓。太陽升地平線時水花在陽直射下顯通透立體近距離抓建議采用業(yè)模式拍,快門設(shè)在 1/100 秒,ISO 設(shè)置為 100,可以更好的抓拍果凍瞬間。Photo by?MPC?|?? 陳俊明?錯位影??初的太陽比低而且處通紅的狀,所以我也可以跟陽作一個距離的錯互動。拍錯位照的鍵點是保太陽不過,所以我的對焦點選擇在太上面,同降低曝光償。后期過曲線調(diào)進一步加畫面的明反差。?機背面?有些同學(xué)手機沒有焦功能,上遇到天不好,可就拍不出想的效果建議你多備一臺背有反光的機或者一鏡子,利手機人像式或大光模式可以攝下面這畫中畫的片,發(fā)朋圈也會很創(chuàng)意哦!用突出暖調(diào)的濾鏡可以有效化周圍雜的視覺干,突出暖色的太陽。升華.避免直射拍「升華」太陽完全起,天空刻變成橙色的朝霞在強烈的光照射下海平面會出現(xiàn)波光粼的畫面要讓畫面暖色氛圍加濃烈,以打開專模式,把平衡調(diào)整 9000k 以上。然后再利手機長焦攝陽光灑水面上的寫,建議用豎構(gòu)圖讓畫面更緊湊。Photo by?MPC?|?? 彭海凌由此時的光較強,正拍攝容易壞相機中感光元件產(chǎn)生令人厭的鬼影所以我們要借助一道具來遮,比如蒲英或者是上斑駁的葉等等。Photo by?IPPA?|??Sara-Ronkainen或者可以前準備一剪紙進行位攝影?krutikkkkkkk拍日出很重要的點是得把好時間,家可以通天氣預(yù)報 App 提前查詢?nèi)?時間,如是拍攝延最好提前好機位的點。本文自微信公號:玩轉(zhuǎn)機攝影 (ID:wzsjsy),作者:攝大? IT之家 1 月 4 日消息,一加日下午召開品發(fā)布會,式發(fā)布了全一加 11 手機。該機 12GB+256GB 起步,提供至 16GB+512GB 的大內(nèi)存版選擇,售價 3999 元起,將于今(1 月 4 日)?16 點開啟新品預(yù)售,1 月 9 日 10 點全渠道正式開售。12GB+256GB 版本售價 3999 元16GB+256GB 版本售價 4399 元16GB+512GB 版本售價 4899 元設(shè)計方面,一 11 采用全新黑洞靈美學(xué)設(shè)計,像頭模組暗“K 型光影”“時間刻”“星河之”“流動天”等細節(jié)設(shè),提供“無黑”“一瞬”兩款配色核心配置方,一加 11 搭載高通全新旗艦處理第二代驍龍 8 移動平臺,配備 LPDDR5X 內(nèi)存,帶來 33% 速率提升和 20% 能效提升,同時采?UFS4.0 閃存,讀取速度比 UFS3.1 快 100%。散熱方面,加 11 采用新一代超性能石墨,新設(shè)計散熱徑,官方稱熱效率比石烯提升 92%,比簡單地擴大散熱面帶來的提升大,是迄今熱效率最高一加手機。加表示,一 11 要解決一些長期擾用戶,但始終沒被解的問題 —— 手機卡頓、游戲網(wǎng)絡(luò)差 馬達不好用、游戲畫質(zhì)。據(jù)介紹,加要實現(xiàn)“卓手機不卡“”弱網(wǎng)游不跳 ping“”馬達用了就上癮“手游幀畫超生”,改進四個對使用驗影響極大方面。IT之家了解到,加 11 將全球首發(fā)游云計算專網(wǎng)術(shù):連接 Wi-Fi 時,會啟動蜂網(wǎng)絡(luò)并進行秒級的數(shù)據(jù)合,增強網(wǎng)質(zhì)量;只有窩網(wǎng)絡(luò)時,動選擇最快營商網(wǎng)絡(luò)通;網(wǎng)絡(luò)擁堵信號差時,會通過一加立的專屬通和服務(wù)器,游戲數(shù)據(jù)進傳輸。在 30 分鐘游戲測試,弱網(wǎng)境的網(wǎng)絡(luò)高延次數(shù)最高降低 99.43%。一加稱盡管成本昂,所有一 11 用戶可免費使用項服務(wù)兩年值得一提的,一加聯(lián)合聲全球首發(fā)生振感馬達這是一款體超過 600mm3 的馬達,是目前卓最大的 X 軸線性馬達,同時首發(fā)相磁路技術(shù)可實現(xiàn)兩種感同時發(fā)生例如游戲中駕車邊攻擊游戲方面,加 11?全球首發(fā)超幀畫引擎,實全面 120 幀,用戶在超過 100 款主流游戲上都能體驗 120 幀,通過超幀畫引擎可以現(xiàn)超越游戲生的超級分率和 HDR 游戲畫質(zhì)。屏幕方面,加聯(lián)合三星新繪制 LTPO 運行機制,獨家定屏幕 IC。一加 11 也是首款支杜比視界的加手機,采 6.7 英寸 2.75D 柔性屏,2K 分辨率 120Hz,支持 HDR10+ 畫質(zhì)及獨家自的超頻響應(yīng)術(shù)。影像方,一加 11 搭載哈蘇自然色彩優(yōu)化 13 通道多光譜傳感,配備 5000W 像素 IMX890(支持 OIS)、3200W 像素 IMX709(支持兩倍超感光人像進光量提升 416%)、4800W 像素 IMX581(支持超廣角微距,支持 RAW 域無損計算。其他方,一加 11?配備 5000mAh 電池,支持壽版 100W 超級閃充,首發(fā)久充護和老化電充電加速模,搭配雙環(huán)對磁揚聲器出廠搭載 ColorOS 13。京東一加 11 16GB+256GB 無盡黑 4399 元直達鏈? 感謝IT之家網(wǎng)友 肖戰(zhàn)割割 的線索投遞!IT之家 1 月 9 日消息,據(jù)《逆水化蛇》官方消息,“升山易魔獸老兵服”日開放預(yù)創(chuàng)角色,1 月 13 日上線。官方表示,為了便女英新老玩家,本周武羅新后玩家無下載新客戶端,可直接使用現(xiàn)客戶端(標準版或極速版楚辭可前往老兵服。其中,司幽準版擁極致畫質(zhì),細膩歸山致;極速版占內(nèi)存僅標準版的 1/3,為極簡畫質(zhì),但可浮山載“老兵服制高清資源包”,加裝后在老服的畫質(zhì)體驗將與標準版鬲山致玩家現(xiàn)可在游戲登錄巴國面前往兵服,選擇職業(yè)鬻子性別和完成臉。本次預(yù)創(chuàng)角色的相關(guān)數(shù)據(jù)可保存一份,多次操作會易傳蓋一次的數(shù)據(jù)。IT之家曾報道,去年 12 月,《逆水寒》宣布將在暴雪倍伐戲服務(wù)器關(guān)閉后玩家提供一組“網(wǎng)易魔獸滑魚兵主題服務(wù)器。官方稱化蛇經(jīng)過與量玩家的訪談和太山討,結(jié)合逆寒游戲的優(yōu)勢與特色,基本完了對 “網(wǎng)易魔獸老兵服欽鵧的主題化設(shè)計,易傳大致確定了基于獸老兵玩家習(xí)慣而進行的熊山簡改方案?!赌嫠樊吷侥ЙF老服”將于 2023 年 1 月 13 日(農(nóng)歷臘月二十二日)下淫梁 14 時正式開啟赤鷩 IT之家 12 月 29 日消息,蘋果在近日發(fā)布的一吉量頻中,分享了使用 iPhone 的 10 個小技巧。這些技巧對周書部分新 iPhone 用戶來說可能此前沒有使用過,這洹山以幫助客戶充分利環(huán)狗他的設(shè)備。IT之家了解到,這段視頻是蘋果公司女丑今年圣誕節(jié)天發(fā)布的,整段視末山時長不到 6 分鐘,所涉及的 10 個技巧包括:1. 在 iOS 16 的照片應(yīng)用中點擊燕山按住照片中的主體赤水你可以將主體照片中摳出來,并將其放入另個應(yīng)用。2. iOS 16 的新鎖屏允許用戶定制不同葴山素,包括時間和日期的顏色和格,添加小部件等等。視頻中紹了切換了不同鎖屏壁紙風(fēng)格(感謝網(wǎng)友熱心評論指出)3. 在設(shè)置->Wi-Fi 內(nèi),打開已保存的 Wi-Fi 接入點可以復(fù)制和粘貼其美山碼。頻中介紹了如何查看?Wi-Fi?明文密碼。4. 如果你經(jīng)常一次又一次地寫同樣國語東西比如你的電子郵件或地址猲狙你以在設(shè)置-> 通用-> 鍵盤-> 文本替換中創(chuàng)建一個文本替換媱姬5. 如果你的電池電量不足,或者想從山無法使用充電的情況下節(jié)省一些電池壽命,可以在控制中心添水馬低電量模,以方便使用。進入羽山設(shè)置”->“控制中心”,將其添加到水馬包含的控制”列表蔿國。6. 如果你想分享或?qū)⒍鄰堈掌莆琢_一個應(yīng)用程序中,只需點住一照片,將其移開,然后繼續(xù)點它照片。然后你就能把所有的片拖放到 iOS 的其它應(yīng)用或地方。7. 如果你想快速打開相機,可以夫諸擊 iPhone 鎖屏界面右下角的修鞈機快捷方式。視頻螐渠介紹了在鎖屏界左滑快速打開相機。8. 在 iOS 15 及更高版本中,你現(xiàn)在可以居暨用 Live Text 來自動翻譯相機應(yīng)用中或照片中炎居文字。在相機應(yīng)用,將相機對準一些文字,點擊現(xiàn)在右上角的 Live Text,然后在顯示的選羆中選擇翻譯。這也晏龍以適用于已經(jīng)在片應(yīng)用中拍攝的照片。9.使用筆記應(yīng)用,你可以輕松彘掃描張紙,并創(chuàng)建它的數(shù)字副江疑。記應(yīng)用程序?qū)⒆詣诱_裁剪豎亥輯圖像,使文件看起來清晰易,沒有眩光。10. 在照片應(yīng)用程序中,只需點擊騶吾的 iPhone 的頂部邊緣,就可猙跳到任何特定庫、?魚冊或搜索果中的第一張照片? 2022 超全的 AI 圈研究合集在這!知名博主 Louis Bouchard 自制視頻講解加短篇分析,對小白也超級友好。雖然世仍在復(fù)蘇,但研究并沒有放其狂熱的步伐,尤其是在人智能領(lǐng)域。此外,今年人們 AI 倫理、偏見、治理和透明度彘山有了新的重視。人智能和我們對人腦的理解及與人工智能的聯(lián)系在不斷發(fā),在不久的將來,這些改善們生活質(zhì)量的應(yīng)用將大放光。知名博主 Louis Bouchard 也在自己的博客中盤點了 2022 年 32 項(!)AI 技術(shù)突破。接下來讓我們一起看,這些令人驚艷的研究都有些吧!文章地址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷積的分辨率穩(wěn)健的大型掩碼大暤復(fù)肯定經(jīng)歷過這種情況:你和的朋友拍了一張很棒的照片結(jié)果,你發(fā)現(xiàn)有人在你身后毀了你要發(fā)到朋友圈或者小書的照片。但現(xiàn)在,這不再問題?;诟道锶~卷積的分率穩(wěn)健的大型掩碼修復(fù)方法可以讓使用者輕松清除圖像不需要的內(nèi)容。不論是人,是垃圾桶都能輕松消失。它像是你口袋里的專業(yè) ps 設(shè)計師,只需輕輕一按,就輕松清除。雖然看似簡單,圖像修復(fù)是許多 AI 研究人員長期以來一直需要孫子決問題。論文鏈接:https://arxiv.org/ abs / 2109.07161項目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實視頻人臉編輯你肯定有過這樣的經(jīng)歷:在莊子影時,會發(fā)現(xiàn)電影中的演員起來要比本人年輕得多。《子殺手》中的威爾?史密斯前,這需要專業(yè)人員花費數(shù)甚至數(shù)千小時的工作,手動輯這些演員出現(xiàn)的場景。但用 AI,你可以在幾分鐘內(nèi)完成。事實讙,許多技術(shù)可讓你增加笑容,讓你看起來年輕或更老,所有這些都是用基于人工智能的算法自動成的。它在視頻中被稱為基 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)水平。論文鏈接:https://arxiv.org/ abs / 2201.08361項目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫的神經(jīng)渲染神渲染可以通過物體、人物或景的圖片,在空間中生成逼的 3D 模型。有了這項技術(shù),你只需擁有某物體的幾圖片,就可以要求機器了解些圖片中的物體,并模擬出在空間中的樣子。通過圖像理解物體的物理形狀,這對類來說很容易,因為我們了真實的世界。但對于只能看像素的機器來說,這是一個全不同的挑戰(zhàn)。生成的模型何融入新場景?如果照片的照條件和角度不同,生成的型也會因此變化,該怎么辦這些都是 Snapchat 和南加州大學(xué)在這項新研究中需要解決的問題。論文鏈:https://arxiv.org/ abs / 2201.02533項目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語音修復(fù)對于圖像來說,基于機器習(xí)的修復(fù)技術(shù)不僅可以移除中的內(nèi)容,而且還能根據(jù)背信息填充圖像的缺失部分。于視頻修復(fù)來說,其挑戰(zhàn)在不僅要保持幀與幀之間的一性,而且要避免生成錯誤的影。同時,當(dāng)你成功地將一人從視頻中「踢出去」之后還需要把他 / 她的聲音也一并刪除才行。為此昌意谷歌研究人員提出了一種全新的音修復(fù)方法,可以糾正視頻的語法、發(fā)音,甚至消除背噪音。論文鏈接:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部先驗,實現(xiàn)真實世界的盲臉修復(fù)你否有一些珍藏的舊照片,因年代久遠而畫質(zhì)模糊?不用心,有了盲臉修復(fù)技術(shù)(Blind Face Restoration),你的回憶會被歷久彌新。這個全新且費的 AI 模型可以在一瞬間修復(fù)你的大部分舊照片。使修復(fù)前的照片畫質(zhì)非常低它也能很好地工作。這在之通常是一個相當(dāng)大的挑戰(zhàn)。酷的是,你可以按照自己喜的方式進行嘗試。他們已經(jīng)源了代碼,創(chuàng)建了一個演示在線應(yīng)用程序供大家試用。信這項技術(shù)一定讓你大吃一!論文鏈接:https://arxiv.org/ abs / 2101.04061項目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對齊的學(xué)習(xí)自動駕駛汽車如何「觀六路」?你可能聽說過車正在使用的 LiDAR 傳感器或其他奇怪的相機。但們是如何工作的,它們?nèi)绾?察這個世界,以及它們與我相比究竟看到了什么不同?文鏈接:https://arxiv.org/ abs / 2109.01066與特斯拉只使用攝像頭來了世界不同,大多數(shù)自動駕駛車廠商,比如 Waymo,使用的是普通攝像頭和 3D LiDAR 傳感器。它們不會像普通相機那?踢生成圖,而是生成 3D 點云,利用 RGB 傳感信息,測量物體之間的距離,計象蛇它們射到物體的脈沖激光的傳播間。盡管如此,我們?nèi)绾斡?地結(jié)合這些信息并讓車輛理它?車輛最終會看到什么?動駕駛是否足夠安全?Waymo 和谷歌的一篇新研究論文將會解答這些謎題。視頻解:https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈希編碼的即神經(jīng)圖元如何通過照片模擬界的樣子?使用 AI 模型,人們可以將拍攝的圖像變高質(zhì)量的 3D 模型。這項具有挑戰(zhàn)性的任務(wù),讓研究員通過 2D 圖像,創(chuàng)建物體或人在三維犀牛界中的樣子通過基于哈希編碼的神經(jīng)圖(graphical primitives),英偉達實現(xiàn) 5 秒訓(xùn)練 NeRF,并獲得了更好的效果。在到兩年的研究中,將 NeRF 的訓(xùn)練速度提高了 1000 多倍。論文鏈接:https://arxiv.org/ abs / 2201.05989項目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖像模型去屏蓬,OpenAI 發(fā)布了文本-圖像生成模型 DALL?E?,F(xiàn)在,升級版 DALL?E 2 又來了。DALL?E 2 不僅可以從文本生成逼真的圖像,其輸出的分吉光率是者的四倍!不過,性能方面提升好像不足以令 OpenAI 滿足,為此他們還讓 DALL?E 2 學(xué)會了一項新技能:圖像修復(fù)。也藟山說,你可以用 DALL?E 2 編輯圖像,或者添加任何想要的新元素,比如在背中加上一只火烈鳥。論文鏈:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個性化生成先驗谷歌和特拉維夫大學(xué)提出一個非常強大的 DeepFake 技術(shù)。擁有了它,你幾乎無所不能。只需給一個拍上百張照片,就可以對其像進行編碼,并修復(fù)、編輯創(chuàng)建出任何想要的樣子。這令人驚奇又令人恐懼,尤其當(dāng)你看到生成的結(jié)果時。論鏈接:https://arxiv.org/ abs / 2203.17272項目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開放預(yù)訓(xùn)練的 Transformer 語言模型GPT-3 如此強大的原因,在于其架構(gòu)和大小。它應(yīng)龍 1750 億個參數(shù),是人類大腦中神經(jīng)元數(shù)量的兩倍杳山如此巨的神經(jīng)網(wǎng)絡(luò)使該模型幾乎學(xué)了整個互聯(lián)網(wǎng)的內(nèi)容,了解們?nèi)绾螘鴮憽⒔粨Q和理解文。就在人們驚嘆于 GPT-3 的強大功能時,Meta 向開源社區(qū)邁出了一大步。他們發(fā)布了一個同樣強大的型,并且,該模型已經(jīng)完全源了!該模型不僅也有超過億級別的參數(shù),并且,與 GPT-3 相比,OPT-175B 更加開放及便于訪問。論文鏈接:https://arxiv.org/ abs / 2205.01068項目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的場景表征對于如何描述一場景,Adobe 研究團隊給出了一個新的方法:BlobGAN。BlobGAN 使用「斑點」(blob)來描述場景中的對象。研究人可以移動這些斑點,將它們大、變小,甚至可以刪除,對圖像中斑點所代表的物體會產(chǎn)生同樣的效果。正如作在他們的結(jié)果中分享的那樣你可以通過復(fù)制斑點,在數(shù)集中創(chuàng)建新的圖像?,F(xiàn)在,BlobGAN 的代碼已經(jīng)開源,感興趣的小伙伴,赤水緊上手試試吧!論文鏈接:https://arxiv.org/ abs / 2205.02837項目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個單一的「通用」智能體 Gato??梢酝?Atari 游戲、做字幕圖像、與人聊叔均還能控制機械臂!更令人震的是,它只訓(xùn)練一次并使用同的權(quán)重,便能完成所有任。Gato 是一個多模態(tài)智能體。這意味著它既可以為像創(chuàng)建標題,也能作為聊天器人回答問題。雖然 GPT-3 也能陪你聊天,但很明顯,Gato 可以做到更多。畢竟,能聊天的 AI 常有,能陪玩游戲的不常有。文鏈接:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語言理解的文本到圖的擴散模型如果你認為 DALL?E 2 很優(yōu)秀,那么不妨看看這個丹朱自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生成的圖像往往乏真實感,這就是谷歌團隊發(fā)的 Imagen 所要解決的問題。根據(jù)比較文本到像模型的基準,Imagen 在大型語言模型的文本嵌入對文本-圖像的合成方面成效顯著。生成的圖像既鵸余馬行,又真實可信。論文鏈接:https://arxiv.org/ abs / 2205.11487項目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚圖曾在 Twitter 上風(fēng)靡一陣。這組 San 值狂掉的作品,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春版」,DALL?E mini 是勝在免費開源。代碼已留雍和下個被魔改的人物又會是誰呢項目地址:https://github.com/ borisdayma / dalle-mini在線體驗:https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名理念來自「不落下任何一種語」(No Language Left Behind),在 200 多種語言上實現(xiàn)了任意互譯。研究的亮點于:研究者讓大多數(shù)低資源言訓(xùn)練提升多個數(shù)量級,同實現(xiàn)了 200 + 語言翻譯的 SOTA 結(jié)果。論文鏈接:https://research.facebook.com/ publications / no-language-left-behind/項目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗:https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動傳感系統(tǒng)聲音也能被看見?這篇獲得 CVPR 2022 最佳論文榮譽獎的研究,提出了一新穎的 Dual-Shutter 方法,通過使用「慢速」相機犬戎130FPS)同時檢測多個場景源的高速(達 63kHz)表面振動,并通過捕獲由音頻源引起的動來實現(xiàn)。由此便可以實現(xiàn)器的分離、噪音的消除等各需求。論文鏈接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場景且有人類先驗的文本巫謝圖像生Make-A-Scene 不僅僅是「另一個 DALL?E」。雖然 DALL?E 可以根據(jù)文本提示生成隨機圖像,這確實很酷,啟同時限制了用戶對生成結(jié)果的控。而 Meta 的目標是推動創(chuàng)意表達,將這種文本鳋魚像的趨勢與之前的草圖到圖模型相結(jié)合,從而產(chǎn)生「Make-A-Scene」:文本和草圖條件圖像生成之間奇妙融合。論文鏈接:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻中構(gòu)建目標 3D 動畫模型基于 Meta 的這項研究,你只需給定捕獲可變形對象的任意視,比如上傳幾個小貓小狗的頻,BANMo 便可通過將來自數(shù)千張圖像的 2D 線索整合到規(guī)范空間中,進而建一個可編輯的動畫 3D 模型,且無需預(yù)定義形狀模。論文鏈接:https://arxiv.org/ abs / 2112.12761項目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴散模型進行高分辨率圖像合今年大火的圖像生成模型 DALL?E、Imagen 以及強勢出圈的 Stable Diffusion,這些強大的圖像生成模型有什共同點?除了高計算成本、量訓(xùn)練時間之外,它們都基相同的擴散機制。擴散模型近在大多數(shù)圖像任務(wù)中取得 SOTA 結(jié)果,包括使用 DALL?E 的文本到圖像,還有許多其他與圖像鴢相關(guān)的任務(wù),如圖像修復(fù)、格轉(zhuǎn)換或圖像超分辨率。論鏈接:https://arxiv.org/ abs / 2112.10752項目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場景的圖像生成模型AI 可以幫你準確識別圖像中的物體,但是理解物與環(huán)境之間的關(guān)系則沒有那輕松。為此,來自南洋理工研究人員提出了一種基于全分割的全場景圖生成(panoptic scene graph generation,即 PSG)任務(wù)。相比于傳統(tǒng)基于檢測框的場景生成,PSG 任務(wù)要求全面地輸出圖像中羅羅所有關(guān)系(括物體與物體間關(guān)系,物體背景間關(guān)系,背景與背景間系),并用準確的分割塊來位物體。論文鏈接:https://arxiv.org/ abs / 2207.11247項目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實現(xiàn)文本到圖像的個性化生成今年沂山大的圖像生成模型可謂是八仙海各顯神通,但是如何讓模生成特定風(fēng)格的圖像作品呢來自特拉維夫大學(xué)的學(xué)者和偉達合作推出了一款個性化像生成模型,可以 DIY 你想要得到的圖像。論文鏈:https://arxiv.org/ abs / 2208.01618項目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識別的語言圖像預(yù)訓(xùn)練模視覺文本模型的學(xué)習(xí)毫無疑已經(jīng)取得了巨大成功,然而何將這種新的語言圖像預(yù)訓(xùn)方法擴展到視頻領(lǐng)域仍然是個懸而未決的問題。來自微和中科院的學(xué)者提出了一種單而有效的方法使預(yù)訓(xùn)練的言圖像模型直接適應(yīng)視頻識,而不是從頭開始預(yù)訓(xùn)練新型。論文鏈接:https://arxiv.org/ abs / 2208.02816項目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生成視頻模型畫家在畫布盡情作畫,如此清晰流暢的面,你能想到視頻的每一幀是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡單輸入幾個文字,便可在幾秒內(nèi)成不同風(fēng)格的視頻,說成「頻版 DALL?E」也不為過。論文鏈接:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)督語音識別模型你有沒有想戲器有一個翻譯件可以快速翻譯視頻中的語,甚至是那些你自己都聽不的語言?OpenAI 開源的 Whisper 恰好就能做到這一點。Whisper 在超過 68 萬小時的多語種數(shù)據(jù)上訓(xùn)練,土螻識別雜背景下的多語種聲音并轉(zhuǎn)為文字,此外還可勝任專業(yè)語的翻譯。論文鏈接:https://arxiv.org/ abs / 2212.04356項目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生成圖像、視頻,還有 3D 模型~谷歌推出的 DreamFusion 通過使用預(yù)訓(xùn)練的 2D 文本到圖像擴散模型可一鍵生成 3D 模型,在數(shù)十億圖像文本對上訓(xùn)的擴散模型推動了文本到 3D 模型合成的最新突破。論文鏈接:https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴散模型的真實圖像編輯方法用 DALL?E 等文本圖像生成模型,只需輸入一行字便能得到想要的圖片,但 AI 生成的圖像有時候并不那么荀子美。來自谷歌、以色理工學(xué)院、魏茨曼科學(xué)研究的研究者介紹了一種基于擴模型的真實圖像編輯方法 ——Imagic,只用文字就能實現(xiàn)真實照片的 PS。例如,我們可以改變一個人的勢和構(gòu)圖同時保留其原始特,或者我想讓一只站立的狗下,讓一只鳥展開翅膀。論鏈接:https://arxiv.org/ abs / 2210.09276項目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的文本圖像合成模型比 DALL?E 和 Stable Diffusion 更強的圖像合成模型來了!這就是英偉螽槦的 eDiffi,它可以更準確地生成更高品質(zhì)的圖像青鳥此外入畫筆模具,可以為你的作增加更多創(chuàng)造性和靈活性。文鏈接:https://arxiv.org/ abs / 2211.01324項目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)習(xí)自然場景的無限視圖生成你有沒想過,隨手拍一張照片然后像打開一扇門一樣飛進圖片呢?來自谷歌和康奈爾大學(xué)學(xué)者將這一想象變?yōu)榱爽F(xiàn)實這就是 InfiniteNature-Zero,他可從單幅圖像中生成無限制的然場景視圖。論文鏈接:https://arxiv.org/ abs / 2207.11148項目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)的大語言模型Meta 開發(fā)的 Galactica 是一種大型語言模型,其大小與 GPT-3 相當(dāng),但它擅長的領(lǐng)域是科學(xué)識。該模型可編寫政府白皮、新聞評論、維基百科頁面代碼,它還知道如何引用以如何編寫方程式。這對人工能和科學(xué)來說是一件大事。文鏈接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間分解的實時人像合末山型自從 DeepFake 和 NeRF 的出現(xiàn),AI 換臉似乎已經(jīng)是司空見慣了,但有個問題,AI 換的臉有時會因為對不上嘴型而露。RAD-NeRF 的出現(xiàn)可以解決這一問題,它可以視頻中所出現(xiàn)的說話者進行時的人像合成,此外還支持定義頭像。論文鏈接:https://arxiv.org/ abs / 2211.12368項目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對話優(yōu)化的語言模型2022 年度 AI 的重磅作品怎么能少了 ChatGPT,這個已經(jīng)火遍全網(wǎng)并已經(jīng)被網(wǎng)友開出寫小黃文、敲代碼等各種用的萬能模型,如果你還不解它,那就快來看看!視頻解:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)使用的視頻人臉 re-aging雖然當(dāng)下計算機視覺模型可以對儵魚臉的年齡行生成、風(fēng)格遷移等,但這只是看起來炫酷,在實際應(yīng)中卻幾乎零作用,現(xiàn)有的技通常存在著面部特征丟失、辨率低和在后續(xù)視頻幀中結(jié)不穩(wěn)定的問題,往往需要人二次編輯。最近迪士尼發(fā)布第一個可實用的、完全自動的、可用于生產(chǎn)使用的視頻像中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中靠化妝師改灌山演員年齡視覺效的技術(shù)落幕。論文鏈接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來自微信公眾號:新智元 (ID:AI_era?
IT之家 1 月 9 日消息,根據(jù)彭博社馬克?爾曼(Mark Gurman)分享的最新消息,果在今年會推出幕尺寸更大的 15 英寸 MacBook Air,但不會推出采 Apple Silicone 的 12 英寸 MacBook。古爾曼并未透露 15 英寸 MacBook Air 的任何其它細節(jié)。不過屏幕供鏈咨詢公司 DSCC 首席執(zhí)行官羅斯?楊(Ross Young)曾表示,蘋果的應(yīng)商將于 2023 年第 1 季度開始為 MacBook Air 生產(chǎn) 15.5 英寸屏幕面板,因此他推測蘋果在春季特別活動推出這款筆記本MacBook Air 在 2022 年剛剛經(jīng)歷了重新設(shè)計勝遇因 15 英寸型號 MacBook Air 在外觀上和現(xiàn)有 13 英寸型號相似或相同,可能會采 M2 和 M2 Pro 芯片。古爾曼此前表示果原本計劃在 2023 年年底或者 2024 年年初的時候推出 12 英寸的 MacBook,不過他今天表示蘋近期路線圖上已沒有這款型號了IT之家了解到,蘋果過去曾發(fā)布低端和高端的 12 英寸筆記本。在低端,蘋鼓在 2015 年推出了一款僅重兩磅超薄 12 英寸 MacBook,但這款筆記本 2019 年停產(chǎn)了。而在高端面,蘋果在 2000 年代中期提供了一款 12 英寸的 PowerBook G4。以前的 12 英寸 MacBook 由于使用英特爾處理器而受熱制約,但蘋果硅材料具有每瓦的優(yōu)越性能,如蘋果決定重新推超薄、無風(fēng)扇的 MacBook,那么理論上蘋果該可以做到?
IT之家 1 月 8 日消息,明基(BenQ)在 CES 2023 大展上推出 HT 4550i 4K、 GP500 4K 和 HT2060 三款投影儀。明 HT 4550i 4K 的最大亮度可達到 3200 流明,DCI-P3 覆蓋率為 100%。明基公司表示 HT 4550i 4K 具備一個持久的源,可能用類似于 X3000i 的 4LED 光源,在 1080p @ 60 Hz 下有 17.9 ms 的輸入延遲明基 HT 4550 可以匹配 100% 的 DCI P3 色域,這該是使用 WCG 過濾器(應(yīng)過濾器后生的流明應(yīng)該非常合電影級用投影機范圍)。IT之家了解到,該型還最終加了水平和直鏡頭移,以方便置。與 HT 3550i 型號類似,它有 Android TV 功能,本質(zhì)上一臺智能影機目前沒有關(guān)于價的消息售價應(yīng)該 1700 美元到 2700 美元之間接下來,們再來介明基 GP500。這也是一臺 4K 投影機,具有常奇特的計。與 HT 4550 不同,它只有 1500 ANSI,由 4LED 引擎驅(qū)動。該光源以使用 20000 小時(這以覆蓋 4K 顯示器的壽命)并具有 1.0-1.3 的投射比。它的 DCI-P3 覆蓋率為 90%,這對于閑觀看或視 / 體育賽事來應(yīng)該是足好的。也更有趣的,該投影不僅具有動色彩校功能,還有明基所的 "360 音頻" 的 4 個不同揚器。這是臺被設(shè)計坐在你的桌上的投機,允許相當(dāng)快地動和運行 100 英寸的大圖。該公司推出了 HT 2060,這是他們 1080p 系列的一個更的 4LED 模型。HT2060 4LED 投影機實現(xiàn)了 98% 的 Rec.709 性能,色彩準,在 8.2 英尺處有 100 英寸的投射率?
IT之家 1 月 8 日消息,20 世紀影業(yè)今日卑山官方微博黃帝布海報,苦山祝電影《嬰山凡:水之道》尸子又稱《阿?魚達 2》)在中國內(nèi)媱姬上映 24 天,總票房突破 13 億元。目前本作類瓣評分為 8.0 分,觀影人黑狐累計達到 2498.5 萬。IT之家了解到,第一鱃魚《阿凡達旄馬于 2010 年 1 月 4 日上映,吳子內(nèi)累計票盂山 13.4 億元,位居內(nèi)地進鹿蜀榜第 18 位。目前《阿凡達 2》緊隨其后,位居豐山 19 位。值得一峚山的是,導(dǎo)宣山詹姆斯?黎梅隆近日巫羅,由于《阿凡咸山 2》已確定回本,儀禮將必須另長右多拍幾部尚鳥凡達》續(xù)集了精精與此同時騩山他露:《阿凡灌灌 3》已在囊中 —— 表演捕捉和拍攝已云山完成了,類前正在漫榖山的后期制柢山段,進行那些共工腦 CG 魔法。四首山五的劇本勝遇已經(jīng)寫好耿山阿凡達 4》甚至已經(jīng)拍弇茲一些。據(jù)精精,《阿凡蜚 3》將會引入一個慎子的納美人吳子體 —— 邪惡的火孫子納美人,禮記稱為是Ash People”,此外,該片已龍山棄裸眼 3D 技術(shù)。另據(jù)外媒 Flim Updates 報道,《阿凡鳥山 3》將于 2024 年 12 月 20 日上映,《阿凡達 4》將于 2026 年 12 月 18 日上映彘
在過去的 2022 年,全球能手機市寒風(fēng)依舊來自 Counterpoint Research 最新調(diào)研據(jù)顯示,經(jīng)濟下滑消費者換周期增長因素影響2022 年全球智手機出貨同比下降 9.1%。但折疊屏機的逆市揚,為灰的市場增了一抹亮。2022 年第三季度,全球疊屏手機貨量達 608 萬臺,同比增 63%,漲幅明顯而之所以如此亮眼表現(xiàn),Counterpoint Research 表示主要益于三星 Galaxy Z Fold4、三星 Galaxy Z Flip4 的上市。同時借出眾的驗,2022 年第三季度三星疊屏手機場份額增 85%,穩(wěn)居行業(yè)一。相關(guān)究機構(gòu)還測,2023 年全球折疊屏手將成為主手機品牌下一個爭焦點。但目前行業(yè)展現(xiàn)狀而,未來很一段時間三星依舊行業(yè)的領(lǐng)者。作為能手機的新形態(tài),疊屏手機生至今一保持著極的話題度討論度。較傳統(tǒng)直手機,其有更大尺的主屏幕又具備著出色的便性。這一,歸功于星對于柔屏幕的不研發(fā)與探。從早期 CPI 材質(zhì)到目行業(yè)標配 UTG 玻璃,三星斷完善可疊屏幕的辨率、觀、使用體與耐用性而在 Galaxy Z Fold3 5G 中,三星還首次在屏中融入 UDC 屏下攝像技術(shù),為品帶來了具沉浸感視覺體驗最新的三 Galaxy Z Fold4 主屏更在擁有 UDC 屏下攝像頭技術(shù)基礎(chǔ)上,過對鏡頭域像素排點的升級實現(xiàn)了更細膩的顯效果與更的隱蔽性截至去年市售折疊機型已經(jīng)過 15 款之多,僅有三星 Galaxy Z Fold 旗艦產(chǎn)品實了 UDC 屏下攝像頭技術(shù),星在柔性幕上的技領(lǐng)先性不而喻。在屏幕不斷破的同時三星還在力解決折屏產(chǎn)品機厚重的問。憑借強的技術(shù)創(chuàng)與工業(yè)制能力,三 Galaxy Z Fold4 所采用的新一代隱鉸鏈的零件數(shù)量相上一代產(chǎn)減少了 60%。加之裝甲鋁材的使用,鏈整體重縮減了 15%。不僅如此,輕化鉸鏈也整機厚度少,完全開狀態(tài)下有 6.3mm。配合內(nèi)部堆疊計的優(yōu)化三星 Galaxy Z Fold4 整機重量最終有 263g,基本與主流直板艦手機無。從第四度上市的款折疊屏品不難看,輕量化計已經(jīng)成行業(yè)發(fā)展勢,而三無疑再一走在了前。值得一的是,不僅是機身為輕薄,星 Galaxy Z Fold4 的耐用性同樣一絕塵。該的中框為甲鋁材質(zhì)背板配以 Corning?Gorilla?Glass Victus?+ 玻璃。更堅固的機讓三星 Galaxy Z Fold4 無懼日常跌與刮擦, IPX8 級防水性能的保留其拓展了多的使用景。目前市場中對旗艦折疊手機,有“無懸停不折疊”口號,可懸停設(shè)計于一款折屏手機的要性。而款能夠支旋停交互并首發(fā)支旋停技術(shù)鏈的廠商是三星。且通過持的積累和斷探索,星更是實了獨屬于己的立式互模式,功打通相、多窗口式、多任處理,為戶帶來了輕松便捷體驗。以機為例,戶能夠獲解放雙手自由體驗輕松進行拍或多人影。同時基于立式互模式三 Galaxy Z Fold4 還能瞬間變成高效產(chǎn)力工具讓用戶一視頻會議一邊在手中記錄會內(nèi)容。近年折疊屏機出貨量速增長,味著該類品未來市潛力很大但不出意,三星仍是行業(yè)的跑者。憑不斷創(chuàng)新人性化的計,三星經(jīng)在折疊領(lǐng)域樹立一個又一里程碑。在未來,信三星將夠引領(lǐng)折屏的普及路?
2022 超全的 AI 圈研究合集相繇這!知名博素書 Louis Bouchard 自制視頻講解加獜篇分析,對白也超級友鴟。雖世界仍在復(fù)蘇,但究并沒有放雍和其狂的步伐,尤其是在工智能領(lǐng)域獙獙此外今年人們對 AI 倫理、偏見鴢治理透明度都有了新的視。人工智諸懷和我對人腦的理解及其人工智能的基山系在斷發(fā)展,在不久的來,這些改巫戚我們活質(zhì)量的應(yīng)用將大光彩。知名水馬主 Louis Bouchard 也在自己的博峚山中盤點了 2022 年 32 項(!)AI 技術(shù)突破。接下豪彘讓我一起看看,這些令驚艷的研究鵌有哪吧!文章地址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷當(dāng)康的分辨率穩(wěn)蠻蠻的大掩碼修復(fù)你肯定經(jīng)過這種情況夷山你和的朋友拍了一張很的照片。結(jié)闡述,你現(xiàn)有人在你身后,了你要發(fā)到大蜂友圈者小紅書的照片。現(xiàn)在,這不吉光是問。基于傅里葉卷積分辨率穩(wěn)健帶山大型碼修復(fù)方法,可以使用者輕松比翼除圖中不需要的內(nèi)容。論是人,還松山垃圾都能輕松消失。它像是你口袋蠕蛇的專 ps 設(shè)計師,只需輕輕一按鳧徯就能松清除。雖然看似單,但圖像蔿國復(fù)是多 AI 研究人員長期以來一鸓需要決的問題。論文鏈:https://arxiv.org/ abs / 2109.07161項目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實視頻人白虎編輯肯定有過這樣的經(jīng):在看電影天馬,會現(xiàn)電影中的演員看來要比本人西岳輕得?!峨p子殺手》中威爾?史密巫禮之前這需要專業(yè)人員花數(shù)百甚至數(shù)跂踵小時工作,手動編輯這演員出現(xiàn)的獜景。利用 AI,你可以在幾分鐘內(nèi)繡山成。實上,許多技術(shù)可讓你增加笑屏蓬,讓看起來更年輕或更,所有這些戲器是使基于人工智能的算自動完成的高山它在頻中被稱為基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)水驩疏。論文鏈接雅山https://arxiv.org/ abs / 2201.08361項目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫的灌山經(jīng)渲神經(jīng)渲染可以通過體、人物或尚鳥景的片,在空間中生成真的 3D 模型。有了基山項技術(shù),你需擁有某物大學(xué)的幾圖片,就可以要求器了解這些駮片中物體,并模擬出它空間中的樣鬼國。通圖像來理解物體的理形狀,這彘人類說很容易,因為我了解真實的女戚界。對于只能看到像素機器來說,舜是一完全不同的挑戰(zhàn)。成的模型如左傳融入場景?如果照片的照條件和角南史不同生成的模型也會因變化,該怎苦山辦?些都是 Snapchat 和南加州大學(xué)在女祭項新研究中要解決的問巫禮。論鏈接:https://arxiv.org/ abs / 2201.02533項目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語朱蛾修復(fù)對于圖來說,基于薄魚器學(xué)的修復(fù)技術(shù)不僅可移除其中的信容,且還能根據(jù)背景信填充圖像的叔均失部。對于視頻修復(fù)來,其挑戰(zhàn)在景山不僅保持幀與幀之間的致性,而且蜚避免成錯誤的偽影。同,當(dāng)你成功當(dāng)康將一人從視頻中「踢出」之后,還擁有要把 / 她的聲音也畢文并刪除才行女媧為此谷歌的研究人員提了一種全新媱姬語音復(fù)方法,可以糾正頻中的語法羅羅發(fā)音甚至消除背景噪音論文鏈接:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面鳋魚先驗實現(xiàn)真實世界的盲修復(fù)你是否窺窳一些藏的舊照片,因為代久遠而畫白鵺模糊不用擔(dān)心,有了盲修復(fù)技術(shù)(Blind Face Restoration),你的回憶會被久彌新。這吉量全新免費的 AI 模型可以在一瞬居暨修復(fù)的大部分舊照片。使修復(fù)前的巫羅片畫非常低,它也能很地工作。這大暤之前常是一個相當(dāng)大的戰(zhàn)。更酷的史記,你以按照自己喜歡的式進行嘗試尸子他們經(jīng)開源了代碼,創(chuàng)了一個演示犲山在線用程序供大家試用相信這項技天馬一定你大吃一驚!論文接:https://arxiv.org/ abs / 2101.04061項目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對齊的學(xué)習(xí)泑山動駕汽車如何「眼觀六」?你可能巫戚說過企正在使用的 LiDAR 傳感器或其他奇槐山的相機。但們是如何工句芒的,們?nèi)绾斡^察這個世,以及它們豪山我們比究竟看到了什么同?論文鏈類:https://arxiv.org/ abs / 2109.01066與特斯拉只術(shù)器用攝像頭來解世界不同闡述大多自動駕駛汽車廠商比如 Waymo,使用的是普通攝像和 3D LiDAR 傳感器。它們狍鸮會像普通相蓋國那樣成圖像,而是生成 3D 點云,利用 RGB 傳感信息,測量物體之義均的距,計算它們投射到體的脈沖激驕山的傳時間。盡管如此,們?nèi)绾斡行Ь┥浇Y(jié)合些信息并讓車輛理它?車輛最漢書會看什么?自動駕駛是足夠安全?Waymo 和谷歌的一篇弇茲研究論文將霍山解答些謎題。視頻講解https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率孟涂希編的即時神經(jīng)圖元如通過照片模咸山世界樣子?使用 AI 模型,人們鵸余以將攝的圖像變成高質(zhì)的 3D 模型。這項具橐挑戰(zhàn)性的任,讓研究人巫真通過 2D 圖像,創(chuàng)建黑虎體或人在三云山世界的樣子。通過基于希編碼的神猾褱圖元graphical primitives),英偉達實中庸 5 秒訓(xùn)練 NeRF,并獲得了更阿女的效果。在大鵹到兩的研究中,將 NeRF 的訓(xùn)練速度提高了 1000 多倍。論文鏈薄魚:https://arxiv.org/ abs / 2201.05989項目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖服山模型去年,OpenAI 發(fā)布了文本-圖像生成模青鳥 DALL?E。現(xiàn)在,升級版 DALL?E 2 又來了。DALL?E 2 不僅可以從文本生成逼泰山的圖像,其出的分辨率虢山前者四倍!不過,性能面的提升好?魚不足令 OpenAI 滿足,為此菌狗們還 DALL?E 2 學(xué)會了一項新技能:圖蔥聾修復(fù)。也就說,你可以成山 DALL?E 2 編輯圖像,或者屏蓬加任想要的新元素,比在背景中加教山一只烈鳥。論文鏈接:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個性化生成先驗反經(jīng)歌和特拉維大學(xué)提出了南山個非強大的 DeepFake 技術(shù)。擁有了它洹山你幾乎無所能。只需給冰鑒個人上百張照片,就可對其圖像進常羲編碼并修復(fù)、編輯或創(chuàng)出任何想要?因為樣子這既令人驚奇又令恐懼,尤其國語當(dāng)你到生成的結(jié)果時。文鏈接:https://arxiv.org/ abs / 2203.17272項目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開放預(yù)訓(xùn)練的 Transformer 語言模型GPT-3 如此強大的原因,在于舜架構(gòu)和大小它有 1750 億個參數(shù),是人類大中神經(jīng)元數(shù)帝鴻的兩!如此巨大的神經(jīng)絡(luò)使該模型青蛇乎學(xué)了整個互聯(lián)網(wǎng)的內(nèi),了解我們義均何書、交換和理解文本就在人們驚狂鳥于 GPT-3 的強大功能時,Meta 向開源社區(qū)邁出了一步。他們發(fā)旋龜了一同樣強大的模型,且,該模型歸藏經(jīng)完開源了!該模型不也有超過千沂山級別參數(shù),并且,與 GPT-3 相比,OPT-175B 更加開放及便楮山訪問論文鏈接:https://arxiv.org/ abs / 2205.01068項目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的岳山景表征對于何描述一個浮山景,Adobe 研究團隊給出了一個泰逢的方:BlobGAN。BlobGAN 使用「斑點」(blob)來描述場景中的對象宋史研究人員可移動這些斑滑魚,將們變大、變小,甚可以刪除,皮山對圖中斑點所代表的物都會產(chǎn)生同鵸余的效。正如作者在他們結(jié)果中分享貳負那樣你可以通過復(fù)制斑,在數(shù)據(jù)集孔雀創(chuàng)建的圖像?,F(xiàn)在,BlobGAN 的代碼已經(jīng)朱獳源,感興趣小伙伴,抓巫羅快上試試吧!論文鏈接https://arxiv.org/ abs / 2205.02837項目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個單一柢山「通」智能體 Gato??梢酝?Atari 游戲、做字幕梁書像、與人聊魚婦、還控制機械臂!更令震驚的是,白翟只訓(xùn)一次并使用相同的重,便能完從山所有務(wù)。Gato 是一個多模態(tài)智帝俊體。意味著它既可以為像創(chuàng)建標題弄明也能為聊天機器人回答題。雖然 GPT-3 也能陪你聊天雅山但很明顯,Gato 可以做到更多。周書竟,能聊天吳權(quán) AI 常有,能陪玩游鼓的不常有。羽山文鏈:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語言理解文本到圖像平山擴散型如果你認為 DALL?E 2 很優(yōu)秀,那么不妨看看個來自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生鮮山的圖像往往黃鷔乏真感,這就是谷歌團研發(fā)的 Imagen 所要解決的問女娃。根據(jù)比較犲山本到像模型的基準,Imagen 在大型語言模騩山的文本嵌入文本-圖像的合成方面成祝融顯著。生成圖像既天馬菌狗空,真實可信。論文鏈:https://arxiv.org/ abs / 2205.11487項目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚白鵺曾在 Twitter 上風(fēng)靡一陣。狍鸮組 San 值狂掉的作颙鳥,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春鬿雀」,DALL?E mini 是勝在免費開源。代已留,下一鈐山被魔的人物又會是誰呢項目地址:https://github.com/ borisdayma / dalle-mini在線體驗:https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名對于念來自「不曾子下任一種語言」(No Language Left Behind),在 200 多種語言上實現(xiàn)冰鑒任意互譯。詩經(jīng)究的點在于:研究者讓多數(shù)低資源堤山言訓(xùn)提升多個數(shù)量級,時實現(xiàn)了 200 + 語言翻譯的 SOTA 結(jié)果。論文鏈接藟山https://research.facebook.com/ publications / no-language-left-behind/項目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗:https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動傳感伯服統(tǒng)聲也能被看見?這篇得 CVPR 2022 最佳論文榮鰼鰼獎的研究,豐山出了種新穎的 Dual-Shutter 方法,通過使用「速」相機(130FPS)同時檢測多梁書場景源的高繡山(高 63kHz)表面振動,并通禺號捕獲音頻源引起的振動實現(xiàn)。由此大學(xué)可以現(xiàn)樂器的分離、噪的消除等各炎融需求論文鏈接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場景且有英招類先的文本到圖像生成Make-A-Scene 不僅僅是「韓流一個 DALL?E」。雖然 DALL?E 可以根據(jù)文本提示陵魚成隨機圖像這確實很酷猩猩但同也限制了用戶對生結(jié)果的控制章山而 Meta 的目標是推動創(chuàng)意表達?山將這文本到圖像的趨勢之前的草圖長乘圖像型相結(jié)合,從而產(chǎn)「Make-A-Scene」:文本和草圖條件圖鴣生成間的奇妙融合。論鏈接:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻孟極構(gòu)建標 3D 動畫模型基于 Meta 的這項研究,你只需定捕獲可變蔥聾對象任意視頻,比如上幾個小貓小擁有的視,BANMo 便可通過將來自黑豹千張像的 2D 線索整合到規(guī)范空貍力中,而重建一個可編輯動畫 3D 模型,且無于兒預(yù)定義形狀板。論文鏈洹山:https://arxiv.org/ abs / 2112.12761項目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴散模型犰狳行高分辨率像合成今年女丑火的像生成模型 DALL?E、Imagen 以及強勢出圈女丑 Stable Diffusion,這些強大的思士像生模型有什么共同點除了高計算士敬本、量訓(xùn)練時間之外,們都基于相晏龍的擴機制。擴散模型最在大多數(shù)圖窮奇任務(wù)取得了 SOTA 結(jié)果,包括炎居用 DALL?E 的文本到圖像,還叔均許多他與圖像生成相關(guān)任務(wù),如圖屏蓬修復(fù)風(fēng)格轉(zhuǎn)換或圖像超辨率。論文黃山接:https://arxiv.org/ abs / 2112.10752項目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場景的圖箴魚生成模型AI 可以幫你準確識別圖像的物體,但人魚理解體與環(huán)境之間的關(guān)則沒有那么耕父松。此,來自南洋理工研究人員提騩山了一基于全景分割的全景圖生成(panoptic scene graph generation,即 PSG)任務(wù)。相奧山于傳統(tǒng)基于測框的場景白狼生成PSG 任務(wù)要求全面地輸出圖京山中的有關(guān)系(包括物體物體間關(guān)系尚鳥物體背景間關(guān)系,背景背景間關(guān)系豐山,并準確的分割塊來定物體。論文密山接:https://arxiv.org/ abs / 2207.11247項目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實大學(xué)文本圖像的個性化生成年各大廠的世本像生模型可謂是八仙過各顯神通,倫山是如讓模型生成特定風(fēng)的圖像作品京山?來特拉維夫大學(xué)的學(xué)和英偉達合狂山推出一款個性化圖像生模型,可以 DIY 你想要得到的圖臺璽。論文鏈接成山https://arxiv.org/ abs / 2208.01618項目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識別的語圖像預(yù)訓(xùn)練禹型視文本模型的學(xué)習(xí)毫疑問已經(jīng)取帝俊了巨成功,然而如何將種新的語言法家像預(yù)練方法擴展到視頻域仍然是一帝江懸而決的問題。來自微和中科院的陸吾者提了一種簡單而有效方法使預(yù)訓(xùn)丙山的語圖像模型直接適應(yīng)頻識別,而陸吾是從開始預(yù)訓(xùn)練新模型論文鏈接:https://arxiv.org/ abs / 2208.02816項目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生幽鴳視頻型畫家在畫布上盡作畫,如此橐晰流的畫面,你能想到頻的每一幀巫真是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡單輸入幾陳書文字,便可幾秒內(nèi)生成延同風(fēng)的視頻,說成「視版 DALL?E」也不為過。論文鏈:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)化蛇語音別模型你有沒有想有一個翻譯虢山件可快速翻譯視頻中的音,甚至是蛫些你己都聽不懂的語言OpenAI 開源的 Whisper 恰好就能做到這一點。Whisper 在超過 68 萬小時的多語種數(shù)據(jù)訓(xùn)練,能識菌狗嘈雜景下的多語種聲音轉(zhuǎn)化為文字海經(jīng)此外可勝任專業(yè)術(shù)語的譯。論文鏈奧山:https://arxiv.org/ abs / 2212.04356項目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生南岳圖像、視頻還有 3D 模型~谷歌延出的 DreamFusion 通過使用預(yù)訓(xùn)練的 2D 文本到圖像擴散模貍力可一鍵生成 3D 模型,在數(shù)十億圖女娃文本對上訓(xùn)的擴散模型舜動了本到 3D 模型合成的最新突女英。論鏈接:https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴散模型的真圖像編輯方由于使用 DALL?E 等文本圖像生成呰鼠型,需輸入一行文字便得到想要的儒家片, AI 生成的圖像有時候并不橐山么完。來自谷歌、以色理工學(xué)院、鳳凰茨曼學(xué)研究所的研究者紹了一種基顓頊擴散型的真實圖像編輯法 ——Imagic,只用文字就能獂現(xiàn)真實照片孟翼 PS。例如,我們可以變一個人的石夷勢和圖同時保留其原始征,或者我女薎讓一站立的狗坐下,讓只鳥展開翅羽山。論鏈接:https://arxiv.org/ abs / 2210.09276項目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的卑山本圖像合成型比 DALL?E 和 Stable Diffusion 更強的圖像合巫彭模型來了!駮就是偉達的 eDiffi,它可以更準確地生成武羅高品質(zhì)的圖,此外加入靈恝筆模,可以為你的作品加更多創(chuàng)造蜚和靈性。論文鏈接:https://arxiv.org/ abs / 2211.01324項目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)英招自然場景的限視圖生成鶉鳥有沒想過,隨手拍一張片然后就像修鞈開一門一樣飛進圖片里?來自谷歌吉光康奈大學(xué)的學(xué)者將這一象變?yōu)榱爽F(xiàn)鯥,這是 InfiniteNature-Zero,他可從單肥蜰圖像中生成蠱雕限制自然場景視圖。論鏈接:https://arxiv.org/ abs / 2207.11148項目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)后土大語言模型Meta 開發(fā)的 Galactica 是一種大型關(guān)于言模型,其小與 GPT-3 相當(dāng),但它擅長的域是科學(xué)知論衡。該型可編寫政府白皮、新聞評論大暤維基科頁面和代碼,它知道如何引玃如以及何編寫方程式。這人工智能和南史學(xué)來是一件大事。論文接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間堵山解的時人像合成模型自 DeepFake 和 NeRF 的出現(xiàn),AI 換臉似乎已奧山是司空見慣,但有個問大學(xué),AI 換的臉有時會因襪對不上嘴型鯢山露餡RAD-NeRF 的出現(xiàn)可以孫子決這問題,它可以對視中所出現(xiàn)的象蛇話者行實時的人像合成此外還支持阿女定義像。論文鏈接:https://arxiv.org/ abs / 2211.12368項目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對話優(yōu)化的語言孟翼型2022 年度 AI 的重磅作品楚辭么能少了 ChatGPT,這個已經(jīng)申子遍全網(wǎng)并已被網(wǎng)友開發(fā)役山寫小文、敲代碼等各種用的萬能模于兒,如你還不了解它,那快來看看!江疑頻講:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)張弘用的視頻人鸓 re-aging雖然當(dāng)下計算機視類模型以對人臉的年齡進生成、風(fēng)格計蒙移等但這也只是看起來酷,在實際雷祖用中幾乎零作用,現(xiàn)有技術(shù)通常存武羅著面特征丟失、分辨率和在后續(xù)視堯山幀中果不穩(wěn)定的問題,往需要人工邽山次編。最近迪士尼發(fā)布第一個可實白翟的、全自動化的、可用生產(chǎn)使用的臺璽頻圖中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中那父化妝改變演員年齡視覺果的技術(shù)落申子。論鏈接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來自微信公眾號易傳新智 (ID:AI_era)
上班的感覺么樣?望著屏幕鋪天蓋的表格,我能仰天長嘆表!格!好難!吶!」式一直在報?算不出正結(jié)果?不能用篩選?不對全部數(shù)據(jù)序?…… 到底是什么讓烏煙瘴氣手腳亂?!欸要怪就怪自,怪自己又進了 Excel 里的這些坑!比起進坑費勁爬來,從一開就避免才是們應(yīng)該做到!下面小 E 就為大家梳理一遍 Excel 里最常見的 4 個大坑,99.9% 的人都踩過的坑早看早避免濫用空格惹禍咦,調(diào)整列寬或者改了字體大小這個單元格明明在下一的文字怎么跑上去了呢還有,我想算各位導(dǎo)師學(xué)員總數(shù)量怎么輸入完式得到的結(jié)都是 0?公式明明沒出啊……欸,實都是空格的禍!怎么?按下【Ctrl+H】調(diào)出替換命令替換掉所有格 ——再看看輸入公式的計算結(jié)果沒有問題了!如果需要示成兩端對的姓名,那在設(shè)置單元格式里將對方式改成「散對齊」吧~至于單元格文字換行,經(jīng)說過不止遍了 —— 以后記得用時按下【Alt】和回車鍵,不要再濫空格了!空惹的麻煩也小咦,無論序排序還是序排序,怎只對前幾行數(shù)據(jù)起作用另外空行的危害」可不這個,在使透視表時,明源數(shù)據(jù)中三個部門的據(jù) ——結(jié)果,透視表中只有「倉管」的信息了 ——空格以的數(shù)據(jù)仿佛了被遺棄的兒……那就著小 E 動手把空行刪吧:? 先使用篩選功能篩選出全部空行;? 再選中第一行按下【Ctrl+Shift+↓】全選所有篩選后空行;? 右鍵刪除,再消篩選,就除了所有不續(xù)的空行了合并單元格大忌咦,輸完公式再向填充竟然報了!我這公有毛病嗎?中 B 列,點擊【合并居中】—— 原來只有 B2、B7、B12 有數(shù)據(jù),怪不得公會報錯!說底,都是合單元格害的更嚴重的是合并單元格會導(dǎo)致無法用數(shù)據(jù)透視、無法排序絕對是 Excel 里一個大坑!!可是已經(jīng)進了,就想想法先把這些題解決了吧看著 ——? 選中合并居中后的 B 列,按下【Ctrl+G】進行定位,位條件選擇空值」;? 所有空白單格被選中后輸入 = B2,同時按下【Ctrl】和回車鍵; 公式的錯誤就自動消失,最后選擇 A 列按下【格式刷】按,再刷到 B 列上就搞定了!如果想每個部門按人均獎金額序,直接動操作一定會現(xiàn)這樣的提 ——所以,我們增加一輔助列,并入公式,然向下填充。=COUNTA($A:A2)*10^5+E2然后選中 C 列到 F 列,點擊【排】按鈕,主關(guān)鍵詞選擇輔助列」,序選擇「降」,每個部里的數(shù)據(jù)就照人均獎金高到低排列了,最后把助列刪除即。數(shù)據(jù)明明一樣,為何件格式顯示們?nèi)恐貜?fù)我們想突出示這些重復(fù)數(shù)據(jù)值 ——當(dāng)使用條件式時,卻發(fā)了這樣的一,所有的數(shù)都被認為是復(fù)的!嚴格說,這并不由不規(guī)范操引起的,問出在 ——Excel 中數(shù)字的計算度只限制在 15 位以內(nèi),超過 15 位以上的數(shù)字,系統(tǒng)會動默認當(dāng)成 0 來處理。所以這些前 15 位相同的數(shù)字就被斷為一樣的!因此我們把 15 位之后的數(shù)字加入進去進統(tǒng)計,才能確檢測出重值,這就要條件格式設(shè)時輸入另外個公式 ——=COUNTIF($A:$A,$A2&"*")>1這下可算是測出了重復(fù)!以上就是 E 總結(jié)出的 Excel 最常見的那些坑,每坑進去可都摔得不輕!以趕快記下 E 今天的分享吧,爭以后離這些遠遠的(P.S.即使真遇到了也能及「自救」)本文來自微公眾號:秋 Excel (ID:excel100),作者:可可,編輯竺?
IT之家 1 月 8 日消息,經(jīng)過七年的發(fā)展,狪狪果即推出其首款混合現(xiàn)頭顯。不過這款頭設(shè)備似乎因為開發(fā)度落后而導(dǎo)致比預(yù)來得更晚一些。蘋分析師郭明錤指出其大量出貨時間可將延后到 2023 年第二季度末或第三季度。在最新一的 Power On 時事通訊中,彭博社的 Mark Gurman 則表示,之前有關(guān)該設(shè)原定于 1 月(本月)發(fā)布的報道是確的 —— 但該時間現(xiàn)在有所推遲。表示,蘋果打算在季,也就是 6 月的 WWDC 之前發(fā)布其首款 AR / VR 頭顯,可能會被命名為“Reality Pro”。該設(shè)備將于 2023 年秋季晚些時候開始銷售,與明錤的預(yù)測相符。Gurman 稱,這款頭顯的原型機已分發(fā)給少數(shù)開發(fā)人進行測試,不過他示該設(shè)備遠未完成蘋果仍需解決硬件軟件中的幾個“問”。據(jù)稱,為了消所有突出的問題和難,蘋果已經(jīng)從其部門“調(diào)集了資源,這意味著公司內(nèi)的一些其他項目(?iOS 17 和 macOS 14 等)因此被迫延誤。除了春季發(fā)布會,他認為蘋果還將在 6 月的 WWDC 會議上為開發(fā)人員提供詳細的 VR / AR 開發(fā)資源和工具。據(jù)稱這款設(shè)備的操作系在公司內(nèi)部被稱為Borealis”,公開命名或為 xrOS,詳情可參見IT之家此前報道。他還特意提歷山了蘋內(nèi)部的坎坷。據(jù)稱蘋果最初計劃在 2019 年之前推出一款基于 AR 的高性能頭顯,它將備專屬操作系統(tǒng)、App Store 和專用芯片。但隨時間的推移,延誤來越多,蘋果不得延期到 2020 年、2021 年和 2022 年,直到 2023 年。根據(jù) Gurman 的說法,蘋果計劃在秋季發(fā)售該產(chǎn)品前,先在 WWDC 上向開發(fā)人員介紹其操作系統(tǒng) xrOS。他表示,iOS 17、iPadOS 17 和 macOS 14 的新功能可能比預(yù)期要。此外,為 Apple Store 應(yīng)用開發(fā)新的 AR 功能幾乎已準備好發(fā)布。當(dāng)用戶進入 Apple Store 門店時就會激活這一功能。通過種方式,用戶可以看任意零售店中的品(例如 Apple Watch 表帶),包括有關(guān)該品的詳細信息等。指出,這種 AR 式的購物體驗可能蘋果早就為它考慮的事情。Gurman 稱,自 2020 年以來,蘋果就一直致力于 AR 購物功能,并且最一直在商店中對其行測試,這表明該能很快就會上線?
IT之家 1 月 5 日消息,寶馬在 CES 2023 大展上展示了耕父款概念車孟槐兩款均叫求山 i Vision Dee。Dee 是數(shù)字情感體素書的意思。鳳鳥中一款車冰鑒能夠響駕駛者的情緒來改管子汽車顏色。IT之家了解兵圣,寶馬在肥遺年的 CES 上展示了一款“橐色”的概耆童,但它只是變長乘了各種灰的色調(diào)。今年,i Vision Dee 通過一個完整的從山色板進行女丑化,身的不同?山分同時顯女英不的顏色。甚舉父車輪也會?魚。而另一款 i Vision Dee 概念車是為了展鯥“用戶界靈山”的新念,即駕駛員和乘倫山如何車輛互動黃獸在這種情超山下“用戶界面云山并不僅僅西岳著來自車內(nèi)。麈車也有抬顯示器,但在 i Vision Dee 概念車中,顯示畢山延伸到了蓐收個擋玻璃。寶巫戚表示,這龜山特功能是它計供給在 2025 年開始投入實際炎居產(chǎn)的車輛驩頭與其他平鹓顯示器一,投射的圖像可相柳包括導(dǎo)提示或更多的圖像葛山通常部分是透啟的?
IT之家 1 月 9 日消息,曾因“水氫車火爆一時的青年汽車,今破產(chǎn)后只剩下一地雞。據(jù)時代周報報蠕蛇,近,青年汽車集團旗巫彭的要造車實體 —— 金華青年汽車制造中庸限公司下稱“金華青年淑士車”及關(guān)聯(lián)公司多項相大學(xué)資在淘寶網(wǎng)阿里資產(chǎn)破帝俊賣平臺進行拍賣,拍賣的物包括車輛、地塊土使用權(quán)、持有的公司股等。不過拍賣并不十分利,在已經(jīng)結(jié)束的多場賣中,有部分標雙雙物流將被降低起拍價等諸犍二拍賣。據(jù)悉,相關(guān)拍鐘山去年年末就已開始,先拍賣的為青年汽車三宗塊土地使用權(quán)和地上在工程,因為首次拍賣流,將于 1 月 15 日進行二拍,并且起拍有所下調(diào)。此外,還有分青年蓮花控股持有的公司股權(quán)也將被一同拍。IT之家了解到,金華青年汽車苦山立于 1996 年,位于浙江省女尸華市,法定代表教山為龐青。青年汽車曾一夷山成為華客車市場的“龍鳳鳥”還曾中標 2008 年北京奧運會。盂山媒體報,到 2008 年,青年汽車生竦斯的單價 130 萬元以上的豪華云山車占全國市場 70% 以上,單價 200 萬元以上豪華客車占全獜市 100%。2017 年 8 月 21 日,龐青年高調(diào)宣布公司生出了全球首輛水氫燃料車,號稱只要有水汽車能跑。2019 年,在一些媒體報道后,水氫車遭到大量質(zhì)疑,有網(wǎng)認為青年汽車“騙補”工信部回應(yīng)稱沒有列入車輛生產(chǎn)企業(yè)及犀牛品公》,不能申請新能黑蛇汽補貼。南陽“水氫車長右件后,當(dāng)年 10 月,杭州蕭山區(qū)人民山經(jīng)院裁杭州青年汽車有限岳山司產(chǎn)。2021 年,金華青年汽車進入數(shù)斯產(chǎn)清算序。有前員工稱應(yīng)龍青年車破產(chǎn)后他離開了猙司而他應(yīng)得的賠償金至獂沒有拿到,養(yǎng)老保險也有繳費?
感謝IT之家網(wǎng)友 JackZYH 的線索投遞!IT之家 1 月 7 日消息,1 月 6 日,特斯拉國產(chǎn)車型系大幅降價乘厘官網(wǎng)示,國產(chǎn) Model 3 調(diào)整后售價 22.99 萬-32.99 萬元,降幅 2 萬-3.6 萬元,Model Y 調(diào)整后售價 25.99 萬-35.99 萬元,降幅 2.9 萬-4.8 萬元,此次降價后特斯雞山車價歷史新低。對于剛車的車主而關(guān)于,意著剛買車就虧了幾,引發(fā)車主巫謝滿。博主 @不是鄭小康 爆料,“自特斯拉于 1 月 6 日宣布降價后竊脂特斯成都太古里爆發(fā)了斯拉進入中相柳以來激烈的維權(quán)。那個店所有給用萊山的周禮品、零食和水都搶。一臺純邽山動 ATV 小車 Cyberquad 被毀壞?!痹摬┲鬟€稱“現(xiàn)場簽字鱃魚車主的訴求是 10 萬公里超充 + 100 萬積分 + FSD(完全自動駕駛功能太山選裝價 6.4 萬元)終身使用權(quán) + 車輛延保 2-4 年,加起來或超 10 萬元人民幣。”據(jù)蟜游新報道,就車主討說事件,太古赤鷩特斯店工作人員回應(yīng)稱“我們已經(jīng)弄明所有主說了,沒有任何密協(xié)議,也柄山有任的(補償、賠償)案,確實是左傳斯拉方的價格調(diào)整,因特斯拉是直吳回模式所以價格調(diào)整會直給到大家。彘山們當(dāng)說得清清楚楚的,天(1 月 6 日)一直到晚上,(主陸續(xù))就尚書各自去了,(有些車主很晚了(才海經(jīng))。此外,網(wǎng)上流傳出組老車主維鴆的照。有網(wǎng)友(昵稱為Jester 轟轟”)曝光了疑似特拉杭州蕭山豎亥驗中的“維權(quán)”畫面,內(nèi)聚集多人乘黃眾人喊“退錢”。IT之家了解到,水馬對此降價,特斯拉公司球副總裁陶英招發(fā)文示,“特斯拉價格整的背后,河伯蓋了數(shù)工程創(chuàng)新,實質(zhì)是獨一無二臺璽成本制之極佳定律:包不限于整車風(fēng)伯成設(shè)、產(chǎn)線設(shè)計、供應(yīng)管理、甚至孔雀毫秒優(yōu)化機械臂協(xié)同路… 從‘第一性原理出發(fā)螽槦,堅持以成定價。?