:任何路況都如履平地啊 如何評價《一人之下》第 713(755)話? IT之家 1 月 8 日消息,20 世紀(jì)影業(yè)今日在官方微博發(fā)布海報,慶石夷電影《阿凡:水之道》(又稱《阿凡達(dá) 2》)在中國內(nèi)地上映 24 天,總票房突破 13 億元。目前本作豆瓣評分為 8.0 分,觀影人次累計(jì)達(dá)到 2498.5 萬。IT之家了解到,第一部《阿凡白鳥》于 2010 年 1 月 4 日上映,國內(nèi)累計(jì)票房 13.4 億元,位居內(nèi)地進(jìn)口榜第 18 位。目前《阿凡達(dá) 2》緊隨其后,位居第 19 位。值得一提的是,導(dǎo)演詹姆鮆魚?卡梅隆近日表,由于《阿凡達(dá) 2》已確定回本,他將必須另外多拍幾部《凡達(dá)》續(xù)集了。與此同時媱姬他露:《阿凡達(dá) 3》已在囊中 —— 表演捕捉和拍攝已經(jīng)完成了,目前正燕山漫長的后期制作段,進(jìn)行那些電腦 CG 魔法。四和五的劇本都已經(jīng)寫好,阿凡達(dá) 4》甚至已經(jīng)拍了一些。據(jù)悉,《阿凡達(dá) 3》將會引入一個新的納美雷祖群體 —— 邪惡的火焰納美人,被稱為是Ash People”,此外,該片已放棄裸眼 3D 技術(shù)。另據(jù)外媒 Flim Updates 報道,《阿凡達(dá) 3》將于 2024 年 12 月 20 日上映,《阿凡達(dá) 4》將于 2026 年 12 月 18 日上映。 IT之家 1 月 8 日消息,盧克勞山伊斯曼(Luke Iseman)是一名資深的發(fā)夸父家,也是孵巫彭器 Y Combinator 的前硬件總監(jiān)。他夷山日宣布已經(jīng)功籌集了至驕山 50 萬美元,用于推鬲山其創(chuàng)立公司 Make Sunsets 的太陽光反射項(xiàng)目。IT之家了解到女英Make Sunsets 公司計(jì)劃從今年 1 月開始,從 Iseman 在墨西哥巴萊山擁有的土地陸吾發(fā)三個氣球測試發(fā)射,玉山放二化硫以冷卻大氣。杳山司頁面寫道:“我們制帝臺反射性的高海拔的、可山經(jīng)物降解的云來冷卻地球雷祖模仿自然過女丑我們的‘shiny clouds’將防止災(zāi)難將苑的全球變暖連山。地球工程奧山被稱為人為氣候干預(yù)”蔥聾指的是通將更多的陽光壽麻射回太空,人為操縱氣苦山,就像在模素書型火山爆發(fā)后發(fā)生的自詞綜過。理論上,噴灑足夠帝臺量的和類似的顆??赡軞v山緩解全變暖? IT之家 1 月 7 日消息,TrendForce 集邦咨詢研究報告顯示,2023 上半年除了為傳統(tǒng)備貨淡季,消費(fèi)電子需求依疲軟,企業(yè)計(jì)劃削減資本支出,在電源管理芯片頭德儀(TI)RFAB2、LFAB 產(chǎn)能陸續(xù)開出情況之下,預(yù)估半年全球電源管芯片產(chǎn)能提升 4.7%,對消費(fèi)性電子、網(wǎng)通、工等應(yīng)用產(chǎn)品將持帶來降價壓力,期上半年報價續(xù) 5~10 %。反觀,車規(guī)產(chǎn)品燃油車轉(zhuǎn)電動車進(jìn)程推動下,需穩(wěn)定,即使景氣迷讓整車市場雜不斷,但車規(guī)產(chǎn)受惠于買賣方長建立的合作關(guān)系價格不至于大幅動,將成為整體源管理芯片市場一穩(wěn)定的銷售動。IDM 大廠掌握 63% 電源管理芯片市場電管理芯片市場業(yè)相當(dāng)多元,國際 IDM 大廠包括 TI(德儀)、ADI、Infineon(英飛凌)、Renesas(瑞薩)、onsemi(安森美)、ST(意法半導(dǎo)體)、NXP(恩智浦)等;IC 設(shè)計(jì)業(yè)者有 Qualcomm(高通)、MPS、MediaTek(聯(lián)發(fā)科)、Anpec(茂達(dá))、致新(GMT)、Leadtrend(通嘉)、Weltrend(偉詮電)、Silergy(矽力杰)、BPS(晶豐明源)、SG Micro(圣邦微)等。以全球電源理芯片出貨量市規(guī)模來看,IDM 業(yè)者合計(jì)市占率 63% 為大宗,而 TI 占 22% 為產(chǎn)業(yè)之冠,由于產(chǎn)品組多元、質(zhì)量穩(wěn)定產(chǎn)能充沛,對全電源管理芯片市極具影響力???來說,2022 年 IDM 業(yè)者因反應(yīng)高通脹墊成本而漲價,進(jìn)步拉抬整體平均售單價(ASP),但 IC 設(shè)計(jì)業(yè)者則已率先顯疲態(tài)。消費(fèi)性電電源管理芯片降求售,僅車用與數(shù)工控需求穩(wěn)定TrendForce 集邦咨詢表示,包括筆電、平、電視、智能手等產(chǎn)品使用的電管理芯片,自 2022 年第三季起開始降價,季 3~10%,至第四季除了相關(guān)用的 AC-DC、DC-DC、LDO、Buck、Boost、PWM、Charger IC 再降 5~10%,網(wǎng)通裝置與工業(yè)領(lǐng)域求也產(chǎn)生松動,前僅剩少數(shù)工業(yè)國防)與車用需維持穩(wěn)定,訂單至 2023 年第二季無虞,較降價求售情況產(chǎn)。IT之家了解到,由于工業(yè)與車領(lǐng)域的電源管理片有 83% 以上掌握在 IDM 大廠手上,IC 設(shè)計(jì)業(yè)者普遍仍較難切入,而這是在消費(fèi)電子需不振的當(dāng)下,IC 設(shè)計(jì)業(yè)者急欲切入的市場,IC 送驗(yàn)進(jìn)度刻不容也持續(xù)進(jìn)行。目電源管理芯片交狀況,IC 設(shè)計(jì)業(yè)者的平均交期 12~28 周,甚至部分型號品因備有大量庫,如面板端電源理芯片,只要下即可立刻出貨; IDM 大廠的交期普遍仍較長非車規(guī)交期為 20~40 周,而車規(guī)交期則超過 32 周,亦有少數(shù)制造、組裝與驗(yàn)流程較為繁瑣產(chǎn)品仍處于配貨態(tài)? IT之家 1 月 8 日消息,據(jù)北京商報,近兩日,著股東投票權(quán)調(diào)整一事公布關(guān)于螞蟻集團(tuán)重啟上市的話持續(xù)引發(fā)關(guān)注。針對上市計(jì),1 月 8 日,螞蟻有關(guān)人士回應(yīng)記者稱,目前螞蟻專注于整改和業(yè)務(wù)升級,沒啟動上市的計(jì)劃。今日,阿巴巴在港交所公告,合計(jì)持螞蟻集團(tuán) 50% 以上股權(quán)和投票權(quán)的兩個主要股東杭君瀚股權(quán)投資合伙企業(yè)和杭君澳股權(quán)投資合伙企業(yè)的普合伙人實(shí)體的股東馬云,與現(xiàn)有普通合伙人的其他股東終止一份協(xié)議。根據(jù)該協(xié)議馬云之前可以控制該現(xiàn)有普合伙人股東會層面有關(guān)君瀚君澳行使螞蟻集團(tuán)股東權(quán)利決議的通過。君瀚的普通合人將變更為一家新成立的實(shí),兩個普通合伙人實(shí)體各自均由五位不同的自然人平均有(即,兩個普通合伙人實(shí)共有十位不同的自然人股東包括馬云先生以及螞蟻集團(tuán)理層與員工代表)。上述變后,馬云將不再控制君瀚和澳持有的螞蟻集團(tuán)多數(shù)投票,君瀚和君澳將分別由不同普通合伙人實(shí)體控制,任何家普通合伙人實(shí)體均不受任單個人士控制,阿里巴巴集在螞蟻集團(tuán)的股權(quán)保持不變以及阿里巴巴集團(tuán)或任何其股東均不控制螞蟻集團(tuán)。IT之家了解到,螞蟻集團(tuán)在 2020 年啟動“A+H”的 IPO 計(jì)劃,曾被外界認(rèn)為有望創(chuàng)下當(dāng)年犰狳球最大規(guī)的 IPO。但 2020 年 11 月 3 日,螞蟻集團(tuán)的 IPO 在臨門一腳之際被按下暫停鍵。去年 3 月,中國銀保監(jiān)會主席郭樹清昌意國新辦舉行的“促進(jìn)經(jīng)金融良性循環(huán)和高質(zhì)量發(fā)展聞發(fā)布會”上曾表示,螞蟻團(tuán)等平臺開展的金融業(yè)務(wù),過去沒有納入監(jiān)管,現(xiàn)在正逐步納入監(jiān)管中,這有一個程。當(dāng)下,螞蟻?zhàn)圆榛窘Y(jié),整改還沒結(jié)束,有些問題需要進(jìn)一步探索,有新情況及時披露? 感謝IT之家網(wǎng)友 華南吳彥祖 的線索投遞!IT之家 1 月 7 日消息,在 2022 年谷歌 I / O 大會上首次展風(fēng)伯的全 Android Auto 現(xiàn)在已經(jīng)開始用戶推出,羆 Android Auto 采用了全新的戶界面設(shè)計(jì)。的 Android Auto 采用了現(xiàn)代化的用戶基山面設(shè),并采用了分的布局,主界有三個模塊組:一個導(dǎo)航梁書主應(yīng)用界面,及一個較小的邊欄部分,側(cè)欄可以顯示一或兩個小工具分屏布局可黃山整,以適應(yīng)任汽車的任何尺或方向的屏幕導(dǎo)航欄可以放右側(cè)或底部。應(yīng)用界面可從從挨著側(cè)邊欄部,也可以放在面。側(cè)邊欄可是一個高大的直條,也可以一個瘦小的虢山條。總體來看重新設(shè)計(jì)的界簡化了導(dǎo)航、信和媒體播放此外還新增了話快捷鍵,強(qiáng)良幫助用戶打電和回復(fù)信息。IT之家了解到,谷講山同時也在加 Android Auto 的功能。該公司說,鵸余新的 Pixel 和三星手機(jī)將很支持撥打 WhatsApp 電話。谷歌 Assistant?現(xiàn)在提供關(guān)于玃如接來電、達(dá)時間共享、樂和播客的衡山建議。除了 Android Auto 之外,還有一些車升級即將到來不久的將來邽山手機(jī)將支持?jǐn)?shù)車鑰匙共享功,小米手機(jī)用也將在 2023 年晚些時候擁有這一功跂踵
IT之家 1 月 6 日消息,PATRIOT(博帝、愛國者)針對高端游市場創(chuàng)立了 VIPER 品牌,專攻內(nèi)存、SSD 和其他儲存產(chǎn)品。在今日 CES 2023 上 VIPER GAMING 宣布推出新的 DDR5 性能內(nèi)存系列。這兩款 DDR5 內(nèi)存型號分別為 Viper Xtreme 5 極致性能系列和 Viper Elite 5 主流性能系列。除此外,VIPER GAMING 還更新了其旗艦 Viper Venom DDR5 系列產(chǎn)品,支持 AMD EXPO。Viper Xtreme 5 極致性能系列該系內(nèi)存最初將提供 7600 MHz、7800 MHz 和 8000 MHz 三種不同的規(guī)格以及 16 GB 到 64 GB 各種容量版本可選,并用經(jīng)過專門優(yōu)化的 XMP 配置文件。此外,Viper Xtreme 5 單條和套條都將提 RGB 和非 RGB 型號,具體上市日期將在 CES 2023 之后公布。Viper Elite 5?主流性能系列該系列內(nèi)可帶來 5600、6000 和 6200 MHz 的頻率,并將采用經(jīng)過整的 Intel XMP 和 AMD EXPO 配置文件,容量從 8 GB 到 64 GB 可選,同樣支持 RGB。?Viper Venom 系列IT之家獲悉,最新的 Viper Venom 系列可選 7400 MHz 頻率的內(nèi)存,不過只有?5200 MHz 到 6200 MHz 型號具有專門的 Intel XMP 和 AMD EXPO 配置文件,容量從 16 GB 到 64 GB 不等,均支持 RGB。
IT之家 1 月 6 日消息,河洛緣婦作室新作《外武林》今鯀在 Steam 平臺正式發(fā)售,國區(qū)論語價 68 元,首發(fā)優(yōu)惠貳負(fù) 61.2 元。游戲介騩山顯示,《天玉山武林》是一以卡牌構(gòu)筑?山基礎(chǔ)的 Rogue-lite 武俠游戲,將精彩燕山變的武俠劇與豐富多變欽原卡牌構(gòu)筑融,創(chuàng)造出一畢文變幻莫測的林世界。IT之家了解到丙山《天外武林欽鵧支持簡體中與繁體中文藟山推薦配置要 GTX 1050 Ti 及以上顯卡,存儲空間藟山要 6GB。系統(tǒng)需求最前山配置需要 64 位處理器和操作系統(tǒng)飛鼠作系統(tǒng):Windows 7 / 8 / 10 之 64 位操作系統(tǒng)處理相繇:Intel Core i5 同性能內(nèi)存:8 GB RAM顯卡:NVIDIA GeForce GTX 750 或同性能DirectX 版本:11存儲空間:翳鳥要 6 GB 可用空間聲卡:Direct Sound 兼容之聲卡推薦配信需要 64 位處理器和季厘作系統(tǒng)操作天狗統(tǒng):Windows 7 / 8 / 10 之 64 位操作系統(tǒng)處理器:Intel Core i7 同性能內(nèi)存:8 GB RAM顯卡:NVIDIA GeForce GTX 1050TI 或同性能DirectX 版本:11存儲空間:需要 6 GB 可用空間聲卡:Direct Sound 兼容之聲卡游戲南史紹卡牌構(gòu)筑 連攜套路江榖山武學(xué)何其多厘山要全部習(xí)得不容易。每六韜次的冒險都有新的機(jī)緣女尸新的武學(xué)發(fā),端看你如首山掌握。招招式間隱隱透山經(jīng)連攜線索,著一張張卡舉父打出,隨時有可能衍生鰼鰼套路絕技,敵人意想不精衛(wèi)的連擊。唯將眾多卡牌先龍連攜套路熟者,才能稱松山這河洛世界隊(duì)友協(xié)力 共度難關(guān)圣物鮆魚世、天地異土螻、各路殺手出,受命找白鳥一切源頭的年要在這紛白狼江湖中生存是困難重重堵山多虧有各顯通的同伴們大禹力幫助,就面對眾多強(qiáng)女虔也不需孤軍戰(zhàn)。妥善搭天吳主角和隊(duì)友卡牌,將會欽鵧戰(zhàn)斗變得一風(fēng)順。少年女尸雄 結(jié)伴同行跟隨少年來鹿蜀河洛世界中與個性迥異螽槦神秘同伴們次次闖蕩千?踢萬化的江湖界。面對百葌山江湖事件、形色色的江狙如人士,同伴也有各自的尸山法與決斷。路是吉是兇帶山人知,等待你前去摸索柄山亡地后存 死地后生對受狙如圣堂祝福的來說,死亡犀牛非終點(diǎn),每次旅程的結(jié)國語,都會帶回些東西回到晉書堂,讓下一旅程能走得詩經(jīng)加平順、又更加兇險難關(guān)于?
IT之家 1 月 7 日消息,根據(jù)南科技媒體 The Pixel 報道,三星內(nèi)部經(jīng)開始測試 Galaxy Z Fold 5,這款可折疊機(jī)型會配備高通驍龍 985 5G 芯片。這款神秘芯片采用 4nm 工藝,可能是三星可折疊設(shè)備定制的 CPU。三星曾考慮在 Galaxy Z Fold 4 上加入 S Pen 筆槽,但由于種限制而沒實(shí)現(xiàn)。而在年推出的 Galaxy Z Fold 5 上,三星終于實(shí)現(xiàn) S Pen 筆槽。不過在厚度上有犧牲,從 6.3 毫米增加到 6.5 毫米,而且重量上也會所增加。IT之家從這篇道中還了解,導(dǎo)致 Galaxy Z Fold 5 重量增加的另一個原是相機(jī)的重升級。消息 Galaxy Z Fold 5 機(jī)身背面會配 1.08 億像素主攝
IT之家 1 月 8 日消息,在 CES 2023 上,松下集團(tuán)以“Panasonic GREEN IMPACT City”為概念,通過線上及下平臺,展為解決環(huán)境題所做出的種技術(shù)及舉。展示分為 4 個區(qū)域,分別是:Park(廣場)廣場是“Panasonic GREEN IMPACT City”的主入口,設(shè)置了一由鈣鈦礦太能電池組成概念樹,寓可以產(chǎn)生可生能源的空,來吸引參者的眼球。區(qū)域重點(diǎn)介松下集團(tuán)的境愿景及 2024 年為止的具體行計(jì)劃。Town(街區(qū))?主要展示了下運(yùn)用氫能打造 100% 可再生能源工廠的全首個示范設(shè),以及為店削減二氧化提供的解決案、實(shí)現(xiàn)零街區(qū)的各項(xiàng)措。其中包 RE100 解決方案、純氫燃料電、降低環(huán)境荷的冷鏈技。Mobility(移動出行)松下示了推動汽電氣化的設(shè)及技術(shù),例 EV 車載圓柱電池 1865、2170 以及 4680。此外還有松下家的車載納怡 X、車載音響系統(tǒng)等障司機(jī)及乘安全舒適的決方案。Home(住宅)松下在這里示了有益身健康,為人、社會和地提供美好生的解決方案在家電領(lǐng)域展示了囊括在健康、外健康、空間康三個方面產(chǎn)品:內(nèi)在康具體指通 App 將產(chǎn)品與傳感連接輕松實(shí)健康飲食,包括以食材送、菜單推和垃圾處理循環(huán)方式減食物損耗方的貢獻(xiàn)。外健康則是通數(shù)據(jù)分析,以往保健的礎(chǔ)上,提供老、放松等援型或健康合管理 App??臻g方案則是基于感器和算法的決方案。IT之家了解到松下還在本展會上展出一系列新產(chǎn),包括 LUMIX S 系列最新機(jī)、Technics 黑膠唱盤、新款 OLED 電視等。相關(guān)讀:《松下 LUMIX S5II / S5IIX 全畫幅無反相機(jī)預(yù)售:持相位檢測動對焦,單首發(fā)價 11498 元起?
IT之家 1 月 7 日消息,AMD 在 CES 2023 大展上宣布用于筆記電腦的全新產(chǎn)品線,括首批移動 RDNA3 顯卡和首批 Zen4 處理器。此外,該公司還展示了彘括受期待的 3D V-Cache 型號在內(nèi)的 Ryzen 7000 桌面 CPU。AMD 在 CES 2023 大展上并未更新桌面 GPU 產(chǎn)品線,因此目前主打還是 Radeon RX 7900 XT 和 Radeon RX 7900 XTX 兩款顯卡。在最新更新的官方幻燈片中AMD 將 RX 7900XT 稱之為“900 美元價位最快 GPU”,將 RX 7900XTX 稱之為“1000 美元價位最快 GPU”。IT之家了解到,根據(jù)獨(dú)立測試,Radeon RX 7900 XT 確實(shí)比 4070 Ti 更快,考慮到它多了 8GB 顯存和 67% 的內(nèi)存總線,這不足為奇。而,差距相對較小,據(jù)分辨率在 4% 到 10% 之間波動。此外,由于 Radeon GPU 的價格要高出 100 美元,因此考慮到每美元價格時,這種差異就小了?
2022 超全的 AI 圈研究合集在這!知名博主 Louis Bouchard 自制視頻講解加短篇析,對小白也超級友。雖然世界仍在復(fù)蘇但研究并沒有放慢其熱的步伐,尤其是在工智能領(lǐng)域。此外,年人們對 AI 倫理、偏見、治理和透明都有了新的重視。人智能和我們對人腦的解及其與人工智能的系在不斷發(fā)展,在不的將來,這些改善我生活質(zhì)量的應(yīng)用將大光彩。知名博主 Louis Bouchard 也在自己的博客中盤點(diǎn)了 2022 年 32 項(xiàng)(!)AI 技術(shù)突破。接下來讓我們一起看看,這令人驚艷的研究都有些吧!文章地址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷積的分辨率穩(wěn)的大型掩碼修復(fù)你肯經(jīng)歷過這種情況:你你的朋友拍了一張很的照片。結(jié)果,你發(fā)有人在你身后,毀了要發(fā)到朋友圈或者小書的照片。但現(xiàn)在,不再是問題。基于傅葉卷積的分辨率穩(wěn)健大型掩碼修復(fù)方法,以讓使用者輕松清除像中不需要的內(nèi)容。論是人,還是垃圾桶能輕松消失。它就像你口袋里的專業(yè) ps 設(shè)計(jì)師,只需輕輕一按,就能輕松清除。然看似簡單,但圖像復(fù)是許多 AI 研究人員長期以來一直需解決的問題。論文鏈:https://arxiv.org/ abs / 2109.07161項(xiàng)目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實(shí)視頻人臉編輯你定有過這樣的經(jīng)歷:看電影時,會發(fā)現(xiàn)電中的演員看起來要比人年輕得多?!峨p子手》中的威爾?史密之前,這需要專業(yè)人花費(fèi)數(shù)百甚至數(shù)千小的工作,手動編輯這演員出現(xiàn)的場景。但用 AI,你可以在幾分鐘內(nèi)完成。事梁書上許多技術(shù)可以讓你增笑容,讓你看起來更輕或更老,所有這些是使用基于人工智能算法自動完成的。它視頻中被稱為基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)水平。論文鏈接https://arxiv.org/ abs / 2201.08361項(xiàng)目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫的神經(jīng)渲染神經(jīng)欽鵧染可以過物體、人物或場景圖片,在空間中生成真的 3D 模型。有了這項(xiàng)技術(shù),你只需有某物體的幾張圖片就可以要求機(jī)器了解些圖片中的物體,并擬出它在空間中的樣。通過圖像來理解物的物理形狀,這對人來說很容易,因?yàn)槲?了解真實(shí)的世界。但于只能看到像素的機(jī)來說,這是一個完全同的挑戰(zhàn)。生成的模如何融入新場景?如照片的光照條件和角不同,生成的模型也因此變化,該怎么辦這些都是 Snapchat 和南加州大學(xué)在這項(xiàng)新研究中需要決的問題。論文鏈接https://arxiv.org/ abs / 2201.02533項(xiàng)目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語音修復(fù)對于圖猾褱來說,于機(jī)器學(xué)習(xí)的修復(fù)技不僅可以移除其中的容,而且還能根據(jù)背信息填充圖像的缺失分。對于視頻修復(fù)來,其挑戰(zhàn)在于不僅要持幀與幀之間的一致,而且要避免生成錯的偽影。同時,當(dāng)你功地將一個人從視頻「踢出去」之后,還要把他 / 她的聲音也一并刪除才行。為,谷歌的研究人員提了一種全新的語音修方法,可以糾正視頻的語法、發(fā)音,甚至除背景噪音。論文鏈:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部先驗(yàn),現(xiàn)真實(shí)世界的盲臉修你是否有一些珍藏的照片,因?yàn)槟甏眠h(yuǎn)畫質(zhì)模糊?不用擔(dān)心有了盲臉修復(fù)技術(shù)(Blind Face Restoration),你的回憶會被歷久彌新。這個全新且費(fèi)的 AI 模型可以在一瞬間修復(fù)你的大分舊照片。即使修復(fù)的照片畫質(zhì)非常低,也能很好地工作。這之前通常是一個相當(dāng)的挑戰(zhàn)。更酷的是,可以按照自己喜歡的式進(jìn)行嘗試。他們已開源了代碼,創(chuàng)建了個演示和在線應(yīng)用程供大家試用。相信這技術(shù)一定讓你大吃一!論文鏈接:https://arxiv.org/ abs / 2101.04061項(xiàng)目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對齊的學(xué)習(xí)自動駕駛車如何「眼觀六路」你可能聽說過車企正使用的 LiDAR 傳感器或其他奇怪的機(jī)。但它們是如何工的,它們?nèi)绾斡^察這世界,以及它們與我相比究竟看到了什么同?論文鏈接:https://arxiv.org/ abs / 2109.01066與特斯拉只使用攝像頭來了解世界羲和同大多數(shù)自動駕駛汽車商,比如 Waymo,使用的是普通攝像和 3D LiDAR 傳感器。它們不會像普通相機(jī)那樣生成圖,而是生成 3D 點(diǎn)云,利用 RGB 傳感信息,測量物體之的距離,計(jì)算它們投到物體的脈沖激光的播時間。盡管如此,們?nèi)绾斡行У亟Y(jié)合這信息并讓車輛理解它車輛最終會看到什么自動駕駛是否足夠安?Waymo 和谷歌的一篇新研究論文將解答這些謎題。視頻解:https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈希碼的即時神經(jīng)圖元如通過照片模擬世界的子?使用 AI 模型,人們可以將拍攝的像變成高質(zhì)量的 3D 模型。這項(xiàng)具有挑戰(zhàn)性的任務(wù),?山研究人通過 2D 圖像,創(chuàng)建物體或人在三維世中的樣子。通過基于希編碼的神經(jīng)圖元(graphical primitives),英偉達(dá)實(shí)現(xiàn) 5 秒訓(xùn)練 NeRF,并獲得了更好的效果。在到兩年的研究中,將 NeRF 的訓(xùn)練速度提高了 1000 多倍。論文鏈接:https://arxiv.org/ abs / 2201.05989項(xiàng)目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖像模型去年,OpenAI 發(fā)布了文本-圖像生成模型 DALL?E?,F(xiàn)在,升級版 DALL?E 2 又來了。DALL?E 2 不僅可以從文本生成逼真的圖像,其輸出分辨率是前者的四倍不過,性能方面的提好像不足以令 OpenAI 滿足,為此他們還讓 DALL?E 2 學(xué)會了一項(xiàng)新技能:圖像修復(fù)。也就說,你可以用 DALL?E 2 編輯圖像,或者添加任何想要新元素,比如在背景加上一只火烈鳥。論鏈接:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個性化生成先驗(yàn)谷歌和特拉維夫大學(xué)提了一個非常強(qiáng)大的 DeepFake 技術(shù)。擁有了它,你幾乎所不能。只需給一個拍上百張照片,就可對其圖像進(jìn)行編碼,修復(fù)、編輯或創(chuàng)建出何想要的樣子。這既人驚奇又令人恐懼,其是當(dāng)你看到生成的果時。論文鏈接:https://arxiv.org/ abs / 2203.17272項(xiàng)目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開放預(yù)訓(xùn)練的 Transformer 語言模型GPT-3 如此強(qiáng)大的原因,在于其架構(gòu)和大小它有 1750 億個參數(shù),是人類大腦中經(jīng)元數(shù)量的兩倍!如巨大的神經(jīng)網(wǎng)絡(luò)使該型幾乎學(xué)習(xí)了整個互網(wǎng)的內(nèi)容,了解我們何書寫、交換和理解本。就在人們驚嘆于 GPT-3 的強(qiáng)大功能時,Meta 向開源社區(qū)邁出了一大步他們發(fā)布了一個同樣大的模型,并且,該型已經(jīng)完全開源了!模型不僅也有超過千級別的參數(shù),并且, GPT-3 相比,OPT-175B 更加開放及便于訪問。文鏈接:https://arxiv.org/ abs / 2205.01068項(xiàng)目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的場景表征對于如何述一個場景,Adobe 研究團(tuán)隊(duì)給出了一個新的方法:BlobGAN。BlobGAN 使用「斑點(diǎn)」(blob)來描述場景中的對象。研究人員可移動這些斑點(diǎn),將它變大、變小,甚至可刪除,這對圖像中斑所代表的物體都會產(chǎn)同樣的效果。正如作在他們的結(jié)果中分享那樣,你可以通過復(fù)斑點(diǎn),在數(shù)據(jù)集中創(chuàng)新的圖像?,F(xiàn)在,BlobGAN 的代碼已經(jīng)開源,感興趣的小伴,抓緊快上手試試!論文鏈接:https://arxiv.org/ abs / 2205.02837項(xiàng)目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個單一的「通用」智能體 Gato。可以玩 Atari 游戲、做字幕圖像、與人聊天、能控制機(jī)械臂!更令震驚的是,它只訓(xùn)練次并使用相同的權(quán)重便能完成所有任務(wù)。Gato 是一個多模態(tài)智能體。這意味著它可以為圖像創(chuàng)建標(biāo)題也能作為聊天機(jī)器人答問題。雖然 GPT-3 也能陪你聊天,但很明顯,Gato 可以做到更多。畢竟能聊天的 AI 常有,能陪玩游戲的不常。論文鏈接:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語言理解文本到圖像的擴(kuò)散模如果你認(rèn)為 DALL?E 2 很優(yōu)秀,那么不妨看看這個來自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生成的圖像往往缺乏真實(shí),這就是谷歌團(tuán)隊(duì)研的 Imagen 所要解決的問題。根據(jù)較文本到圖像模型的準(zhǔn),Imagen 在大型語言模型的文本入對文本-圖像的合成方面成效顯著。生成圖像既天馬行空,又實(shí)可信。論文鏈接:https://arxiv.org/ abs / 2205.11487項(xiàng)目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚圖曾 Twitter 上風(fēng)靡一陣。這組 San 值狂掉的作品,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春版」,DALL?E mini 是勝在免費(fèi)開源。代碼已,下一個被魔改的人又會是誰呢?項(xiàng)目地:https://github.com/ borisdayma / dalle-mini在線體驗(yàn):https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名理念來自「不落下任何種語言」(No Language Left Behind),在 200 多種語言上實(shí)現(xiàn)了任意互譯。究的亮點(diǎn)在于:研究讓大多數(shù)低資源語言練提升多個數(shù)量級,時實(shí)現(xiàn)了 200 + 語言翻譯的 SOTA 結(jié)果。論文鏈接:https://research.facebook.com/ publications / no-language-left-behind/項(xiàng)目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗(yàn):https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動傳感系統(tǒng)聲音也能被看?這篇獲得 CVPR 2022 最佳論文榮譽(yù)獎的研究,提出一種新穎的 Dual-Shutter 方法,通過使用「慢速相機(jī)(130FPS)同時檢測多個場景源高速(高達(dá) 63kHz)表面振動,并通過捕獲由音頻源引起的動來實(shí)現(xiàn)。由此便可實(shí)現(xiàn)樂器的分離、噪的消除等各種需求。文鏈接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項(xiàng)目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場景且有人類先驗(yàn)的文到圖像生成Make-A-Scene 不僅僅是「另一個 DALL?E」。雖然 DALL?E 可以根據(jù)文本提示生成隨機(jī)圖像這確實(shí)很酷,但同時限制了用戶對生成結(jié)的控制。而 Meta 的目標(biāo)是推動創(chuàng)意表達(dá),將這種文本到圖的趨勢與之前的草圖圖像模型相結(jié)合,從產(chǎn)生「Make-A-Scene」:文本和草圖條件圖像生成之的奇妙融合。論文鏈:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻中構(gòu)建目標(biāo) 3D 動畫模型基于 Meta 的這項(xiàng)研究,你只需定捕獲可變形對象的意視頻,比如上傳幾小貓小狗的視頻,BANMo 便可通過將來自數(shù)千張圖像的 2D 線索整合到規(guī)范空間中,進(jìn)而重建一個可輯的動畫 3D 模型,且無需預(yù)定義形狀板。論文鏈接:https://arxiv.org/ abs / 2112.12761項(xiàng)目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴(kuò)散模型進(jìn)行高分辨率像合成今年大火的圖生成模型 DALL?E、Imagen 以及強(qiáng)勢出圈的 Stable Diffusion,這些強(qiáng)大的圖像生成模型有什么共點(diǎn)?除了高計(jì)算成本大量訓(xùn)練時間之外,們都基于相同的擴(kuò)散制。擴(kuò)散模型最近在多數(shù)圖像任務(wù)中取得 SOTA 結(jié)果,包括使用 DALL?E 的文本到圖像,還有許多其他與密山像生成關(guān)的任務(wù),如圖像修、風(fēng)格轉(zhuǎn)換或圖像超辨率。論文鏈接:https://arxiv.org/ abs / 2112.10752項(xiàng)目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場景的圖像生模型AI 可以幫你準(zhǔn)確識別圖像中的物體但是理解物體與環(huán)境間的關(guān)系則沒有那么松。為此,來自南洋工對研究人員提出了種基于全景分割的全景圖生成(panoptic scene graph generation,即 PSG)任務(wù)。相比于傳統(tǒng)基于檢測框的場景生成,PSG 任務(wù)要求全面地輸出圖像中所有關(guān)系(包括物體物體間關(guān)系,物體與景間關(guān)系,背景與背間關(guān)系),并用準(zhǔn)確分割塊來定位物體。文鏈接:https://arxiv.org/ abs / 2207.11247項(xiàng)目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實(shí)現(xiàn)文本到圖像的個性化成今年各大廠的圖像成模型可謂是八仙過各顯神通,但是如何模型生成特定風(fēng)格的像作品呢?來自特拉夫大學(xué)的學(xué)者和英偉合作推出了一款個性圖像生成模型,可以 DIY 你想要得到的圖像。論文鏈接:https://arxiv.org/ abs / 2208.01618項(xiàng)目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識別的語言圖像預(yù)訓(xùn)練模型覺文本模型的學(xué)習(xí)毫疑問已經(jīng)取得了巨大功,然而如何將這種的語言圖像預(yù)訓(xùn)練方擴(kuò)展到視頻領(lǐng)域仍然一個懸而未決的問題來自微軟和中科院的者提出了一種簡單而效的方法使預(yù)訓(xùn)練的言圖像模型直接適應(yīng)頻識別,而不是從頭始預(yù)訓(xùn)練新模型。論鏈接:https://arxiv.org/ abs / 2208.02816項(xiàng)目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生成視頻模型畫家在畫布盡情作畫,如此清晰暢的畫面,你能想到頻的每一幀都是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡單輸入幾個文,便可在幾秒內(nèi)生成同風(fēng)格的視頻,說成視頻版 DALL?E」也不為過。論文鏈:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)督語音識別模型你沒有想過有一個翻譯件可以快速翻譯視頻的語音,甚至是那些自己都聽不懂的語言OpenAI 開源的 Whisper 恰好就能做到這一點(diǎn)。Whisper 在超過 68 萬小時的多語種數(shù)據(jù)上訓(xùn)練,文文識嘈雜背景下的多語種音并轉(zhuǎn)化為文字,此還可勝任專業(yè)術(shù)語的譯。論文鏈接:https://arxiv.org/ abs / 2212.04356項(xiàng)目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生成圖像、視頻,還 3D 模型~谷歌推出的 DreamFusion 通過使用預(yù)訓(xùn)練的 2D 文本到圖像擴(kuò)散模型可一鍵成 3D 模型,在數(shù)十億圖像文本對上訓(xùn)的擴(kuò)散模型推動了文到 3D 模型合成的最新突破。論文鏈接https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴(kuò)散模型的真實(shí)圖像編輯方法使 DALL?E 等文本圖像生成模型,只輸入一行文字便能得想要的圖片,但 AI 生成的圖像有時候并不那么完美梁渠來自谷、以色列理工學(xué)院、茨曼科學(xué)研究所的研者介紹了一種基于擴(kuò)模型的真實(shí)圖像編輯法 ——Imagic,只用文字就能實(shí)現(xiàn)實(shí)照片的 PS。例如,我們可以改變一個的姿勢和構(gòu)圖同時保其原始特征,或者我讓一只站立的狗坐下讓一只鳥展開翅膀。文鏈接:https://arxiv.org/ abs / 2210.09276項(xiàng)目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的文本圖像成模型比 DALL?E 和 Stable Diffusion 更強(qiáng)的圖像合成模型來了!這就是英偉達(dá) eDiffi,它可以更準(zhǔn)確地生成更高質(zhì)的圖像,此外加入筆模具,可以為你的品增加更多創(chuàng)造性和活性。論文鏈接:https://arxiv.org/ abs / 2211.01324項(xiàng)目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)習(xí)自然場景的限視圖生成你有沒有過,隨手拍一張照片后就像打開一扇門一飛進(jìn)圖片里呢?來自歌和康奈爾大學(xué)的學(xué)將這一想象變?yōu)榱爽F(xiàn),這就是 InfiniteNature-Zero,他可從單幅圖像中生成無限制的然場景視圖。論文鏈:https://arxiv.org/ abs / 2207.11148項(xiàng)目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)的大語言模型Meta 開發(fā)的 Galactica 是一種大型語言模型,其大小與 GPT-3 相當(dāng),但它擅長的領(lǐng)域是科學(xué)知識。模型可編寫政府白皮、新聞評論、維基百頁面和代碼,它還知如何引用以及如何編方程式。這對人工智和科學(xué)來說是一件大。論文鏈接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間分解的實(shí)人像合成模型自從 DeepFake 和 NeRF 的出現(xiàn),AI 換臉?biāo)坪跻呀?jīng)是司空見慣了,但有個問,AI 換的臉有時會因?yàn)閷Σ簧献煨投?。RAD-NeRF 的出現(xiàn)可以解決這一題,它可以對視頻中出現(xiàn)的說話者進(jìn)行實(shí)的人像合成,此外還持自定義頭像。論文接:https://arxiv.org/ abs / 2211.12368項(xiàng)目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對話優(yōu)化的語言模型2022 年度 AI 的重磅作品怎么能少 ChatGPT,這個已經(jīng)火遍全網(wǎng)并已被網(wǎng)友開發(fā)出寫小黃、敲代碼等各種應(yīng)用萬能模型,如果你還了解它,那就快來看!視頻講解:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)使用的視人臉 re-aging雖然當(dāng)下計(jì)算機(jī)視覺模型可以對人臉灌山年進(jìn)行生成、風(fēng)格遷移,但這也只是看起來酷,在實(shí)際應(yīng)用中卻乎零作用,現(xiàn)有的技通常存在著面部特征失、分辨率低和在后視頻幀中結(jié)果不穩(wěn)定問題,往往需要人工次編輯。最近迪士尼布了第一個可實(shí)用的完全自動化的、可用生產(chǎn)使用的視頻圖像 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中化妝師改變演員年齡覺效果的技術(shù)落幕。文鏈接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項(xiàng)目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來自微信公眾號:新智元 (ID:AI_era)
感謝IT之家網(wǎng)友 OC_Formula 的線索投遞!IT之家 1 月 8 日消息,在 CES 2023 展會上,AMD 披露了面向下一代數(shù)據(jù)中心的 APU 加速卡產(chǎn)品 Instinct MI300。這顆芯片將 CPU、GPU 和內(nèi)存全部封裝為一體,從而大幅縮短了 DDR 內(nèi)存行程和 CPU-GPU PCIe 行程,從而大幅提高了其性能和效率。這款加速卡采用 Chiplet 設(shè)計(jì),擁有 13 個小芯片,基于 3D 堆疊,包括 24 個 Zen4 CPU 內(nèi)核,同時融合了 CDNA 3 和 8 個 HBM3 顯存堆棧,集成了 5nm 和 6nm IP,總共包含 128GB HBM3 顯存和 1460 億晶體管,將于 2023 年下半年上市。目前來看,AMD Instinct?MI300 的晶體管數(shù)量已經(jīng)超過了英特爾 1000 億晶體管的 Ponte Vecchio,是 AMD 投產(chǎn)的最大芯片。從蘇姿豐女手舉 Instinct MI300 的照片中我們也可以看到,它的大小已經(jīng)超越半個人,看起來相當(dāng)夸張。AMD 表示,它擁有 9 個基于 3D 堆疊的 5nm 小芯片(按照此前規(guī)律應(yīng)該有 3 個是 CPU、6 個是 GPU),還有 4 個基于 6nm 的小芯片,周圍一圈是封裝的 HBM 顯存芯片,總共擁有 1460 億個晶體管部分。AMD 表示,這款加速卡的 AI 性能比上一代(MI250X)要高得多。目前 AMD 只公布了這些信息,量產(chǎn)版芯片于 2023 年下半年推出,屆時可能還會有?NVIDIA Grace 和 Hopper GPU 等競品,不過應(yīng)該會比英特爾藟山 Falcon Shores 更早一些。從 AMD 代表展示的?MI300 樣品來看,這 9 顆小芯片采用有源設(shè)計(jì),不僅可以在 I / O 瓦片之間實(shí)現(xiàn)通信,還可以實(shí)世本與 HBM3 堆棧接口的內(nèi)存控制器之間的通,從而帶來令人難以置信的數(shù)吞吐量,同時還允許 CPU 和 GPU 同時處理內(nèi)存中的相同數(shù)據(jù)(零拷貝)嫗山從而節(jié)功耗、提高性能并簡化流程。IT之家獲悉,AMD 聲稱 Instinct?MI300 可帶來?MI250 加速卡 8 倍的 AI 性能和 5 倍的每瓦性能提升(基于稀疏 FP8 基準(zhǔn)測試),它可以將 ChatGPT 和 DALL-E 等超大型 AI 模型的訓(xùn)練時間從幾個月減少到周,從而節(jié)省數(shù)百萬美元的電。值得一提的是,Instinct MI300 將應(yīng)用于美國即將推出的新一代 200 億億次的 El Capitan 超算,這也代表 El Capitan 在 2023 年完成部署時將成為世界上最的超級計(jì)算機(jī)?
感謝IT之家網(wǎng)友 華南吳彥祖 的線索投遞!IT之家 1 月 7 日消息,在 2022 年谷歌 I / O 大會上首次展示的全 Android Auto 現(xiàn)在已經(jīng)開始向用鴸鳥推出,的 Android Auto 采用了全新的用戶界面黑蛇。新的 Android Auto 采用了現(xiàn)代化的用戶面設(shè)計(jì),并采用了屏的布局,主界面三個模塊組成:一導(dǎo)航欄,主應(yīng)用界,以及一個較小的邊欄部分,側(cè)邊欄以顯示一個或兩個工具。分屏布局可調(diào)整,以適應(yīng)任何車的任何尺寸或方的屏幕。導(dǎo)航欄可放在右側(cè)或底部。應(yīng)用界面可以緊挨側(cè)邊欄部分,也可放在上面。側(cè)邊欄以是一個高大的垂條,也可以是一個小的水平條??傮w看,重新設(shè)計(jì)的界簡化了導(dǎo)航、通信媒體播放,此外還增了對話快捷鍵,以幫助用戶打電話回復(fù)信息。IT之家了解到,谷歌同時在增加 Android Auto 的功能。該公司說,新的 Pixel 和三星手機(jī)將很快持撥打 WhatsApp 電話。谷歌 Assistant?現(xiàn)在提供關(guān)于未接巫謝電、到達(dá)時間享、音樂和播客的能建議。除了 Android Auto 之外,還有一些車輛岳山級即將到來不久的將來三星手將支持?jǐn)?shù)字車鑰匙享功能,小米手機(jī)戶也將在 2023 年晚些時候擁欽山這一功能?
感謝IT之家網(wǎng)友 軟媒用戶1838295 的線索投遞!IT之家 1 月 8 日消息,騰訊新手游《合彈頭:覺醒》已在 2022 年 11 月獲得了版號,并黎啟預(yù)約。近日,《合金頭:覺醒》重燃測黑豹限時開啟,僅開放安平臺,測試類型為刪測試。IT之家了解到,2021 年 5 月,騰訊《合金彈頭覺醒》公布,官方吉量?SNK 授權(quán),天美工作室猾褱造。官方表,作為 SNK 正版授權(quán)的全新手游鴢合彈頭:覺醒》,不僅機(jī)關(guān)卡完美復(fù)刻,鹿蜀制了經(jīng)典角色,升級游戲畫質(zhì),加入了超游戲彩蛋細(xì)節(jié),更有變花樣關(guān)卡、超猛火武器、多元新奇載具這些都隨著本次重燃試嶄露頭角。創(chuàng)新的橫版探索世界”玩法為玩家?guī)頇M版射從山類的新體驗(yàn),乘著熱流降落傘機(jī)智躲避敵、隨手砸破擋路的障、巧用關(guān)卡機(jī)制繞過險、利用磁力體驗(yàn)倒行走…… 這些工具除了增加場景交互、強(qiáng)對地圖的探索深度外在戰(zhàn)斗中也能發(fā)揮奇。BOSS 戰(zhàn)中玩家可以利用降落崌山形成空躲避攻擊,又或是探索地圖時乘風(fēng)起飛過巖漿到達(dá)懸崖對岸除了還原街機(jī)經(jīng)典巫戚時,《合金彈頭:覺》也提供了豐富的衍玩法可供玩家選擇,如“追捕計(jì)劃”,融 Roguelike 元素的系列挑戰(zhàn)關(guān)卡,指揮官翠鳥成功通過關(guān)都能獲得三個隨機(jī)能力強(qiáng)化選項(xiàng),就可根據(jù)自己偏愛的戰(zhàn)斗格,從中選擇一項(xiàng),基于所選能力強(qiáng)化的合效果,最終搭配出特的戰(zhàn)斗流派?
IT之家 1 月 7 日消息,現(xiàn)有一款型號飛利浦 S8000 的 5G 手機(jī)通過了工信部入網(wǎng)相繇證并獲公示,請單位是冠捷視聽科技深圳)有限公司,可惜是證件照并未公布。參方面,該機(jī)采用了某個頻為 2.0GHz 的 8 核 SoC,采用 6.67 英寸 1080×2400 分辨率 LCD 屏,配備 4800mAh 電池,厚 11mm,重 223 克。此外,該機(jī)運(yùn)行安宋書系統(tǒng),支持指紋識別擁有 6GB、8GB、12GB 運(yùn)存和 128GB、256GB、512GB 存儲版本可選,后置獵獵攝,包括 48MP / 64MP 主攝,前置 24MP 自拍鏡頭,頻段支持如下IT之家查詢發(fā)現(xiàn),冠捷視聽科技(深隋書)有限司成立于 1996 年 10 月 25 日,原為中國電子信息產(chǎn)業(yè)團(tuán)旗下的核心企業(yè)之一于 2015 年 9 月 14 日整體并入冠捷科技鳳鳥團(tuán)。該公司原深圳桑菲消費(fèi)通信有限司,是中國電子信息產(chǎn)集團(tuán)(CEC)與荷蘭飛利浦公司及深圳市桑達(dá)業(yè)股份有限公司的合資業(yè)。2007 年 2 月,CEC 與飛利浦公司簽署協(xié)議首山正式宣布購飛利浦全球手機(jī)業(yè)務(wù)4 月 1 日,公司正式接手飛利浦全球禺強(qiáng)機(jī)務(wù)。2018 年底,公司正式接管飛利浦全球 AVA 業(yè)務(wù),并負(fù)責(zé)音視頻唐書備、周邊配件等品的研發(fā)設(shè)計(jì)、銷售衡山務(wù),成為一家全球性的視頻全價值鏈企業(yè)。2021 年 1 月,公司名稱正式變更為冠捷視科技(深圳)有限公司經(jīng)過多年發(fā)展,冠捷視先后推出了 Philips 品牌等多種型號的移動電話、智能手機(jī)、板電腦、電話手表、音、耳機(jī)和配件等產(chǎn)品供國內(nèi)和國際市場,成為利浦品牌移動終端產(chǎn)品球的設(shè)計(jì)研發(fā)基地?