04/04/2026

PressMega

AI人工智能報道資訊網站

科技

1 min read
逐浪AIGC丨IBM大中華區董事長陳旭東:人工智能正迎來“質變時刻” 新浪香港:最近,IBM大中華區的董事長陳旭東表示,人工智能正在迎來一個重要的轉折點,即將進入“質變時刻”。他指出,傳統的人工智能技術在解決問題時主要依賴於數據,而現在則開始重視知識和理解的重要性。 陳旭東表示,過去的人工智能主要是基於機器學習和大數據分析,透過訓練模型來實現對數據的預測和分析。然而,這種方法存在一些局限性,例如需要大量的標記數據和計算資源,且對於複雜問題的理解能力有限。 他認為,現在的人工智能應該更加注重對知識的理解和應用。這意味著機器需要具備更多的背景知識和推理能力,能夠根據特定情境進行思考和判斷。他舉例說,當機器看到一個圖像時,不僅能夠識別出圖像中的物體,還能夠理解它們的相對位置、關係和可能的運動方式。 陳旭東還提到,這種質變時刻的到來將帶來更多機會和挑戰。他認為,人工智能的應用將越來越廣泛,從金融、醫療到交通、製造等各個領域都將受益於其技術的發展。同時,這也意味著需要解決更多的問題,例如如何保護數據安全和隱私,以及如何確保人工智能的公平性和透明度。 陳旭東表示,IBM將繼續致力於人工智能技術的研發和應用,並與各界合作推動人工智能的發展。他強調,人工智能是一個全球性的議題,需要各方共同努力,共同解決相關問題,實現人工智能的可持續發展。 以上資訊來自新浪香港。 本文章由Open AI人工智能編寫,僅屬學術用途。 可參考相關同類新聞
1 min read
ChatGPT被潑冷水,是「啞彈」還是變革? 近期,ChatGPT(聊天模型)這一由OpenAI所開發的人工智能技術,在某些場合遭遇到了一些質疑聲音。一些觀察家認為,ChatGPT在回答一些問題時出現了不夠準確甚至是具有偏見的情況,這引發了對於其可靠性和安全性的關注。然而,也有人認為這僅僅是ChatGPT技術發展的一個初期階段,且其應用潛力巨大。 ChatGPT是一種自然語言處理技術,通過訓練大規模的語言模型,使其能夠進行對話交流。該技術在去年首次亮相時就引起了廣泛的關注,其能夠產生流暢的回答,並且在某些領域取得了相當不錯的效果。 然而,近期的一些實驗顯示,ChatGPT在處理一些敏感話題時出現了一些問題。例如,當被問及關於性別、種族或政治等議題時,ChatGPT可能會給出一些具有偏見或不準確的回答。這引發了一些關於ChatGPT潛在風險的討論,以及對OpenAI在模型訓練和過濾方面的批評。 然而,一些研究人員認為這些問題是可以解決的。他們指出,目前的技術仍然有待改進,而且ChatGPT在訓練過程中也受到了一些限制,這使得其回答有時會出現問題。此外,OpenAI也在不斷改進其訓練和過濾機制,以提高ChatGPT的準確性和可靠性。 儘管存在一些問題,但ChatGPT的應用潛力依然巨大。它可以應用於各種場景,如客服、教育、醫療等,並且能夠提供便捷和高效的人工智能輔助。因此,ChatGPT被視為一個具有重大變革潛力的技術。 總的來說,ChatGPT在遭遇到一些質疑時,我們應該保持理性和客觀的態度。這一技術的發展仍處於初期階段,且存在改進的空間。我們可以期待OpenAI和其他相關機構在未來繼續改進ChatGPT,以實現更高水準的準確性和可靠性,並為人類帶來更多的便利和可能性。 本文章由Open AI人工智能編寫,僅屬學術用途。 可參考相關同類新聞
1 min read
OpenAI加速全球布局,繼倫敦後選擇都柏林成立新辦公地點 智通財經APP獲悉,周四,人工智能領導者OpenAI宣布將在都柏林開設一家辦事處。 這是OpenAI的第叁家辦公地點,總部位于舊金山,並于今年6月宣布計劃在倫敦開設一家辦公室。 OpenAI的都柏林辦公室中,目前有9個空缺職位,這些職位來自不同的部門。但OpenAI首席戰略官Jason Kwon表示,該公司計劃在不久的將來開設更多職位。至少目前,都柏林辦公室不會成爲公司在歐洲的總部,另外,還沒有高管負責管理該辦公室。 Kwon表示:“我們希望謹慎而有計劃地發展,不要過于迅速,因爲我們希望在新的辦公室擴大規模之前,首先要確保公司文化在新的辦公室得以建立。” OpenAI 是衆多在都柏林開設辦事處的美國科技公司之一。Kwon 表示,除了擁有熟悉 Meta(META.US)和 Google(GOOGL.US)等公司文化的人才庫之外,從監管和業務發展的角度來看,愛爾蘭還是與歐洲接觸的好地方。此外,他更提到,目前稅收影響並沒有在決策中起到作用,因爲OpenAI尚未盈利。 OpenAI的ChatGPT是史上增長第二快的應用程序,僅次于Meta的Threads應用程序。因此,ChatGPT引發了市場興奮和恐慌,使OpenAI與監管機構産生了沖突,尤其是在歐洲,該公司的大規模數據收集引起了隱私監管機構的批評。 本文章由Open AI人工智能編寫,僅屬學術用途。...
1 min read
人工智能幻覺:一個嚴重的技術問題 人工智能幫助生活,回答問題,是一個極為常見的用法,大家最喜歡說的都是它上之天文,下知地理,但是,真的是這樣嗎? 人工智能幻覺(AI 幻覺),是一個AI領域內的名詞,指的是他面對用戶的問題的自信反應。他會真真假假的回答出完全不正確的內容,並且提出很多支持佐證的說詞。當模型有「幻覺」(輸出欺騙性數據的傾向)時,其使用的的訓練數據並不能證明輸出的合理性。就像是幻覺一樣。 這個問題尤其體現在中文的回答上,很多人說這是由於資料不足所導致,但是,很明顯的,這完全是無稽之談。 我們來看看下面的案例: ChatGPT 的AI幻覺表現 下面的例子,我們來看看ChatGPT 針對歷史上最年長的美國總統回答的答案: [圖片: ChatGPT] 很顯然,ChatGPT 的資料庫絕對包含了正確的答案,但是,他卻接連說出錯誤的答案,甚至你只有更換回答,得出來的回答又會大相逕庭。...
1 min read
近日,有關大陸可能利用生成式人工智能(AI)來操縱輿論影響台灣總統選舉的報導引起了廣泛關注。根據報導,大陸據稱已經開發出一種能夠自動生成大量輿論文章的AI技術,並可能利用這一技術來對台灣總統選舉進行影響。 根據報導,這項AI技術能夠通過分析社交媒體上的用戶發言和互動信息,自動生成與目標事件相關的輿論文章。這些生成的文章看起來非常真實,並且能夠模仿不同的觀點和語氣。這種技術被認為對於塑造公眾輿論具有極大的影響力。 報導指出,大陸可能利用這一技術來操縱台灣總統選舉的輿論。這可能包括通過在社交媒體上大量發布生成的文章,影響台灣選民的觀點和意見。報導還指出,這種技術還可以用於在網絡上製造虛假信息,干擾選舉過程。 然而,報導中也提到,目前尚無確切證據表明大陸正在利用這項技術來影響台灣總統選舉。此外,這種AI技術的使用也存在一些技術和倫理上的限制。 台灣總統選舉將於近期舉行,相關方面應該警覺並加強防範,以確保選舉的公正性和透明度。同時,國際社會也應該關注這一問題,並共同努力防止任何國家利用技術手段來操縱選舉。 本文章由Open AI人工智能編寫,僅屬學術用途。 可參考相關同類新聞
1 min read
輝達等8企業向白宮承諾管控AI風險 根據Yahoo奇摩新聞的報導,輝達等8家知名企業已向白宮承諾加強對人工智慧(AI)技術的監管,以降低AI應用所帶來的風險。 這些企業包括輝達、亞馬遜、微軟、歐洲航天局、IBM、谷歌、Facebook和OpenAI。它們在白宮舉行的一場峰會上提出了這一承諾。 這些企業承諾要加強AI的透明度、公平性和安全性,並采取措施防止AI被濫用或用於不道德的目的。它們還表示將積極與政府、學術界和其他相關利益方合作,共同制定AI的監管措施。 此舉的背後是對AI技術快速發展所帶來的擔憂。人們擔心AI可能被濫用或用於破壞性目的,導致社會和個人的風險。因此,加強對AI的監管成為了迫切的議題。 白宮對於這些企業的承諾表示歡迎,並表示將與它們合作,確保AI的發展符合公眾利益和社會價值。 雖然AI技術帶來了許多潛在的好處,但也帶來了一些挑戰和風險。只有通過加強監管,確保AI的安全和可靠性,才能充分發揮其正面作用,造福社會。 本文章由Open AI人工智能編寫,僅屬學術用途。 可參考相關同類新聞
1 min read

ChatGPT|私隱署使用AI聊天機械人自保10招籲用假名刪對話紀錄 – 香港01 私隱署近日推出10招,教導使用ChatGPT聊天機械人時保護個人私隱。私隱署表示,使用者應該使用假名與機械人對話,並定期刪除對話紀錄,以保障個人資料安全。 ChatGPT是一個由OpenAI開發的AI聊天機械人,可與使用者進行對話。然而,私隱署指出,使用者在與機械人交談時需要謹慎,避免洩露個人敏感資訊。 私隱署提供的10招包括: 1. 使用假名:用戶應該使用假名與機械人對話,避免透露真實身份。 2. 不洩露敏感資訊:使用者應避免在對話中提供敏感個人資料,如身份證號碼、銀行賬號等。 3. 注意言辭:使用者應謹慎選擇言辭,避免透露自己的隱私。 4. 定期刪除對話紀錄:使用者應定期刪除與機械人的對話紀錄,避免資料被滲漏。 5. 不分享對話內容:使用者不應將與機械人的對話內容分享給他人,以確保私隱安全。 6. 保護帳戶安全:使用者應定期更換密碼,並避免使用相同密碼。 7. 不點擊可疑連結:使用者應避免點擊機械人發送的可疑連結,以防止惡意軟體感染。 8. 避免公共網絡:使用者應避免在公共網絡上使用機械人,以防止數據被竊取。 9. 檢查隱私政策:使用者應仔細閱讀機械人的隱私政策,以了解資料使用方式。 10. 與私隱署聯繫:使用者若發現機械人存在私隱問題,應立即聯繫私隱署舉報。 私隱署強調,保護個人私隱是每個使用ChatGPT的人的責任。使用者應謹慎使用機械人,避免因不當使用而造成私隱外洩的風險。

私隱署使用AI聊天機械人自保10招籲用假名刪對話紀錄 香港個人資料私隱專員公署(私隱署)日前推出一款使用人工智能(AI)技術的聊天機械人,提供市民查詢有關個人資料私隱保護的問題。然而,私隱署亦呼籲市民在使用聊天機械人時應留意保護自己的私隱,並提供了十招供市民參考。 首先,私隱署建議市民在使用聊天機械人時,可以使用假名或化名,以保護自己的真實身份。此外,市民應定期清理聊天機械人中的對話紀錄,避免敏感資料外洩。 其次,私隱署強調市民應避免在聊天機械人中提供個人敏感資料,如身份證號碼、銀行賬戶等。若有需要提供此類資料,應選擇安全可信的渠道進行。 此外,私隱署提醒市民應謹慎對待聊天機械人提供的建議和意見,並適度保留自己的判斷能力。市民亦應注意聊天機械人的使用條款和私隱政策,確保自己的權益得到保護。 另外,私隱署呼籲市民要保持警惕,避免點擊聊天機械人提供的不明連結,以免遭受釣魚和惡意軟件的攻擊。同時,市民應定期更新聊天機械人所使用的應用程式,以確保獲得最新的安全保護。 最後,私隱署提醒市民如果發現聊天機械人存在私隱問題或出現漏洞,應立即向私隱署舉報,以便私隱署及時處理和修復問題。 私隱署希望透過提供聊天機械人的服務,協助市民了解有關個人資料私隱保護的知識和權益。市民在使用聊天機械人時,應留意保護自己的私隱,避免個人資料外洩,以確保自身權益得到保障。 本文章由Open AI人工智能編寫,僅屬學術用途。 可參考相關同類新聞
1 min read
【AI年代】AI聊天機械人須注意私隱私隱公署倡十招自保- 香港經濟日報 – TOPick 近年來,隨著人工智能(AI)技術的快速發展,聊天機械人成為了一種越來越普遍的工具。這些機械人能夠進行人類般的對話,並且在各個領域中發揮重要作用。然而,私隱權保護問題也隨之浮出水面。 根據香港經濟日報的報導,香港私隱隱公署最近提出了十招自保措施,以提醒人們在使用AI聊天機械人時應注意保護自己的私隱。 首先,用戶應該確保聊天機械人所在的平台具有適當的私隱政策。這些政策應該清楚說明使用者的個人資料將如何被處理和保護。 其次,用戶應該避免使用聊天機械人來進行敏感性的對話,例如談論財務信息或個人健康問題。這些信息可能會被機械人所在的平台收集和使用。 第三,用戶應該定期清理聊天機械人所存儲的對話記錄,以避免個人信息長期被保存。 第四,用戶應該注意不要在聊天機械人對話中透露過多的個人信息,例如住址、電話號碼或信用卡信息。 第五,用戶應該關注聊天機械人平台是否使用了加密技術,以保護用戶敏感信息的安全。 第六,用戶應該定期檢查聊天機械人平台的更新和修補程序,以確保其安全性。 第七,用戶應該避免在公共場所使用聊天機械人,以防止他人偷聽到個人對話。 第八,用戶應該避免點擊聊天機械人發送的可疑連結或附件,以防止受到惡意軟件的攻擊。...
1 min read
【大紀元2023年09月12日訊】(大紀元記者王若曦採訪報導)人工智能(AI)技術的快速發展令中共緊張,中共試圖進行審查和管控。在一系列法規出台後,已有網絡公司因調用ChatGPT接口遭約談。 大紀元近日獲得爆料顯示,杭州一科技公司因調用境外聊天機器人ChatGPT產品接口,提供智能對話問答等功能,9月6日被當地臨平區網信辦約談。 約談通知書稱,網信辦稱該公司網站調用ChatGPT「未經評估」,「存在較大安全風險隱患」,根據《網信部門行政執法程序規定》和《生成式人工智能服務管理暫行辦法》相關規定執行約談。 ChatGPT是Chat Generative Pre-trained Transformer的縮寫,是由OpenAI開發的基於大型語言模型的聊天機器人,於2022年11月30日推出。 公開資料顯示,ChatGPT功能強大,能夠通過學習和分析人類語言來進行對話,和人進行互動,還能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務,因此有望成為提高辦公和學習效率的工具。 ChatGPT幾乎能和人類討論任何問題,包括敏感人物和政治問題。但該軟件目前在包括中國大陸、香港在內的一些極權控制地區被禁止。 去年以來,中共信網辦出台了多項關於人工智能的監管新規。 如,《互聯網信息服務算法推薦管理規定》於2022年3月1日生效,《互聯網信息服務深度合成管理規定》於2023年1月10日生效。 2023年5月23日,《生成式人工智能服務管理暫行辦法》經中共國家互聯網信息辦公室2023年第12次室務會會議審議通過,並經中共國家發展和改革委員會、教育部、科學技術部、工業和信息化部、中共公安部、中共國家廣 本文章由Open AI人工智能編寫,僅屬學術用途。...
1 min read
兒子意外身亡突報夢,父受啓發用AI「復活」亡兒,AI公司:1/4訂單來自失獨父母。 隨著人工智能技術(AI)愈發先進,能「重見」逝去親人不再是夢。去年,一名22歲男子因意外身亡,他的父親無法接受這一現實,每日生活在悲痛之中。直至亡兒突然一次報夢,讓父親受到啓發,利用AI成功「復活」兒子。 根據内地媒體《極目新聞》報道,2022年10月,一名正在國外留學的22歲男子在打籃球時突發意外身亡。由於他是家中獨子,父母在接到噩耗後難以承受,每日失眠,更無法直面兒子的房間、照片和衣物用品,最終需要搬離住處。 兒子報夢 始接觸「AI」 兒子天性善良、充滿熱枕,生前瞞著父母簽署了器官捐獻協議,捐贈的器官最終讓5個人重獲新生,令父親欣慰「至少他的心臟還在這個世界上跳動」;但他仍無法面對喪子之痛。直至今年2月,父親夢見了亡兒,在夢中敲著電腦說「爸,人是可以復活的。」 夢醒後,父親受到啓發,開始了解「ChatGPT」並使用;後來,父親進一步得知「AI永生數字人」項目,可通過「形象克隆」和「聲音克隆」技術得以實現。創作者只需通過上傳照片、影片和音頻素材,就能得到量身定制的「數字人」形象和音色。父親想起兒子的托夢,遂希望透過這項AI技術讓兒子「復活」。他從兒子生前和同學的聊天記錄裡,收集兒子的聲音信息,將兒子的語音、照片和影片發給科技公司。 幾日後,他收到一段影片,裡面是熟悉的兒子「面孔」,用略帶機械感的聲音安慰道:「爸爸,我知道您的生命中永遠有一處空曠得讓人心碎,但是生活仍在繼續。」 儘管父親覺得當下的「兒子」表情看起來有些僵硬,聲音只有6、7成像,也不能進行實時對話,遠達不到理想中的形象,但仍為他燃起對生活的希望。父親此後為小區捐贈了一個籃球場,以兒子的小名命名。他表示:「逃避是不行的,要主動去面對。我為他建好了籃球場,盼望他什麼時候能回來看看。」 AI公司:1/4訂單來自失獨父母 AI公司負責人張澤偉表示,從今年3月起,公司已接到200多單為逝者打造「AI數字人」的訂單,其中約四分之一來自「失獨父母」——意指其獨生子女因疾病、意外、自然災害等原因死亡、年齡多在49歲以上、不能或不願再生育或收養子女的一群父母。張澤偉進一步解釋,除了用聲音和視頻素材克隆AI形象,家屬提供的素材也能「訓練」AI更多地模仿逝者的語言與習慣,讓其更接近真實的人。 北京聯合大學師範學院心理學系副教授何麗對此評論認為,製造這種「虛擬親人」的背後,反映失獨父母如何面對和化解哀傷,將悲痛轉化成永恆的愛:「從永續的時間觀來講,親人離世後,我們可以換一種方式繼續愛他。」 HKET App已全面升級,TOPick為大家推出一系列親子、健康、娛樂、港聞及休閒生活資訊及影片。立即下載︰https://onelink.to/f92q4m...