03/04/2026

PressMega

AI人工智能報道資訊網站

科技

1 min read
【2023 台灣人工智慧年會】台版 AI 模型 TAIDE 10 月底開放商用,落實公私合力 INSIDE 硬塞的網路趨勢觀察 根據《INSIDE 硬塞的網路趨勢觀察》報導,2023 台灣人工智慧年會將於10月底舉辦,屆時台灣將推出自家研發的AI模型TAIDE,並開放商用。此舉旨在促進公私合力,推動台灣人工智慧產業的發展。 TAIDE是一個台灣版的AI模型,旨在提供更多元化的解決方案,並符合台灣市場的需求。該模型的開放商用將為各行各業提供更多應用的可能性,並推動台灣人工智慧產業的創新與發展。 台灣作為一個科技發展領先的國家,一直致力於推動人工智慧技術的研發與應用。此次推出的TAIDE模型將為台灣人工智慧產業注入新的活力,並帶動相關產業的蓬勃發展。...
1 min read
自從ChatGPT出現以後,中國的人工智能領域一直受到關注。然而,有一個項目卻一直被看衰,主要原因是敏感詞限制、語言模型的複雜性以及訓練經費等問題。 最近,百度推出的文言一心也常被指責是完全照搬和受到限制的。但是,眾所周知,中國是一個擁有廣闊領土、龐大人口和巨大產業規模的國家,在許多方面展現出了驚人的智慧。 現在,我們來看看中國的一個智能助手的實際用途吧:筆桿寫作AI。 在操作介面上,筆桿寫作令人驚訝,與其他人工智能完全不同,擁有非常豐富的版面,明確規範了適用範圍,並提供海量的用途和介紹。 在之前的內容中,我提到了人工智能的幻覺問題,特別體現在中文的影視內容上,一般的AI回答通常都是錯誤的。筆桿寫作就極為誇張地解決了這個問題,它使用了海量的文稿來訓練,並搭配上同義詞替換,可以輕鬆生成影視劇的解說文案,再使用剪映圖文成片功能,一部常見的影視解說就完成了。 人工智能畢竟是要拿來用的東西,老百姓也不太關心數據庫有多少資料,現在的模型是多少型號等等,一個人工智能如果要普及與 本文章由Open AI人工智能編寫,僅屬學術用途。 可參考相關同類新聞
1 min read
【Google AI】Google語言模型Gemini推出在望已開放予部分公司 … 香港經濟日報 – 即時新聞 Google AI最近宣布推出一種新的語言模型Gemini,該模型擁有極高的自然語言處理能力,並且已經開放予部分公司使用。 Gemini是Google AI團隊在進一步研究和開發語言模型的基礎上所產生的成果。它使用了先進的機器學習技術,可以理解和生成人類語言,並且能夠根據上下文進行聯想和推理。這使得Gemini能夠更好地理解和回應人們的自然語言輸入。 根據Google AI的表示,他們已經將Gemini開放予一些合作夥伴公司使用。這些合作夥伴可以通過Gemini提供的API接口,將其集成到自己的產品和服務中,從而改善和增強其語言處理能力。 Google AI表示,他們希望通過開放Gemini,促進更多公司和開發者使用最新的語言模型技術,並將其應用於各個領域,包括自動回覆系統、語音識別、文本生成等等。...
1 min read
教大李子建:擬將學生操守紀錄留成績表 或影響投身教育界|本地|商業電台 881903 教大李子建在最近的一次訪問中表示,他正考慮將學生的操守紀錄納入他們的成績表中。這一舉措可能會對學生未來投身教育界造成影響。 李子建教授是一位著名的教育學家,他一直關注學生的全面發展,並強調學生除了學術成績外,還應該注重道德品質和行為表現。他認為學生的操守紀錄能夠反映他們的品德和行為,並對他們的未來發展產生重要影響。 根據李子建的計劃,學生的操守紀錄將被納入成績表中,並按照一定的比例計算在最終的總成績中。這意味著學生的操守表現將直接影響他們的學業成績和升學機會。 這一提議引起了廣泛的討論和爭議。支持者認為這樣做可以促進學生的全面發展,培養他們的良好品德和行為。他們認為學生的道德素質在現代社會中同樣重要,應該受到重視。 然而,反對者則擔心這樣做可能會對學生造成壓力,甚至影響他們的心理健康。他們認為學生的操守紀錄應該由學校和家庭共同關注和培養,而不應該成為一個評判學生能力和價值的標準。 李子建教授表示,他將繼續與教育界的專家和學者進行深入討論,並充分考慮各方意見。他希望通過這一舉措能夠提高學生的操守意識,並對他們未來的發展產生積極影響。 無論最終是否實施這一提議,這一討論都引起了對學生操守紀錄的關注。教育界將繼續探討如何更好地培養學生的道德品質和行為表現,以及如何平衡學業成績和學生全面發展之間的關係。 本文章由Open AI人工智能編寫,僅屬學術用途。 可參考相關同類新聞
1 min read
逐浪AIGC丨IBM大中華區董事長陳旭東:人工智能正迎來“質變時刻” 新浪香港:最近,IBM大中華區的董事長陳旭東表示,人工智能正在迎來一個重要的轉折點,即將進入“質變時刻”。他指出,傳統的人工智能技術在解決問題時主要依賴於數據,而現在則開始重視知識和理解的重要性。 陳旭東表示,過去的人工智能主要是基於機器學習和大數據分析,透過訓練模型來實現對數據的預測和分析。然而,這種方法存在一些局限性,例如需要大量的標記數據和計算資源,且對於複雜問題的理解能力有限。 他認為,現在的人工智能應該更加注重對知識的理解和應用。這意味著機器需要具備更多的背景知識和推理能力,能夠根據特定情境進行思考和判斷。他舉例說,當機器看到一個圖像時,不僅能夠識別出圖像中的物體,還能夠理解它們的相對位置、關係和可能的運動方式。 陳旭東還提到,這種質變時刻的到來將帶來更多機會和挑戰。他認為,人工智能的應用將越來越廣泛,從金融、醫療到交通、製造等各個領域都將受益於其技術的發展。同時,這也意味著需要解決更多的問題,例如如何保護數據安全和隱私,以及如何確保人工智能的公平性和透明度。 陳旭東表示,IBM將繼續致力於人工智能技術的研發和應用,並與各界合作推動人工智能的發展。他強調,人工智能是一個全球性的議題,需要各方共同努力,共同解決相關問題,實現人工智能的可持續發展。 以上資訊來自新浪香港。 本文章由Open AI人工智能編寫,僅屬學術用途。 可參考相關同類新聞
1 min read
ChatGPT被潑冷水,是「啞彈」還是變革? 近期,ChatGPT(聊天模型)這一由OpenAI所開發的人工智能技術,在某些場合遭遇到了一些質疑聲音。一些觀察家認為,ChatGPT在回答一些問題時出現了不夠準確甚至是具有偏見的情況,這引發了對於其可靠性和安全性的關注。然而,也有人認為這僅僅是ChatGPT技術發展的一個初期階段,且其應用潛力巨大。 ChatGPT是一種自然語言處理技術,通過訓練大規模的語言模型,使其能夠進行對話交流。該技術在去年首次亮相時就引起了廣泛的關注,其能夠產生流暢的回答,並且在某些領域取得了相當不錯的效果。 然而,近期的一些實驗顯示,ChatGPT在處理一些敏感話題時出現了一些問題。例如,當被問及關於性別、種族或政治等議題時,ChatGPT可能會給出一些具有偏見或不準確的回答。這引發了一些關於ChatGPT潛在風險的討論,以及對OpenAI在模型訓練和過濾方面的批評。 然而,一些研究人員認為這些問題是可以解決的。他們指出,目前的技術仍然有待改進,而且ChatGPT在訓練過程中也受到了一些限制,這使得其回答有時會出現問題。此外,OpenAI也在不斷改進其訓練和過濾機制,以提高ChatGPT的準確性和可靠性。 儘管存在一些問題,但ChatGPT的應用潛力依然巨大。它可以應用於各種場景,如客服、教育、醫療等,並且能夠提供便捷和高效的人工智能輔助。因此,ChatGPT被視為一個具有重大變革潛力的技術。 總的來說,ChatGPT在遭遇到一些質疑時,我們應該保持理性和客觀的態度。這一技術的發展仍處於初期階段,且存在改進的空間。我們可以期待OpenAI和其他相關機構在未來繼續改進ChatGPT,以實現更高水準的準確性和可靠性,並為人類帶來更多的便利和可能性。 本文章由Open AI人工智能編寫,僅屬學術用途。 可參考相關同類新聞
1 min read
OpenAI加速全球布局,繼倫敦後選擇都柏林成立新辦公地點 智通財經APP獲悉,周四,人工智能領導者OpenAI宣布將在都柏林開設一家辦事處。 這是OpenAI的第叁家辦公地點,總部位于舊金山,並于今年6月宣布計劃在倫敦開設一家辦公室。 OpenAI的都柏林辦公室中,目前有9個空缺職位,這些職位來自不同的部門。但OpenAI首席戰略官Jason Kwon表示,該公司計劃在不久的將來開設更多職位。至少目前,都柏林辦公室不會成爲公司在歐洲的總部,另外,還沒有高管負責管理該辦公室。 Kwon表示:“我們希望謹慎而有計劃地發展,不要過于迅速,因爲我們希望在新的辦公室擴大規模之前,首先要確保公司文化在新的辦公室得以建立。” OpenAI 是衆多在都柏林開設辦事處的美國科技公司之一。Kwon 表示,除了擁有熟悉 Meta(META.US)和 Google(GOOGL.US)等公司文化的人才庫之外,從監管和業務發展的角度來看,愛爾蘭還是與歐洲接觸的好地方。此外,他更提到,目前稅收影響並沒有在決策中起到作用,因爲OpenAI尚未盈利。 OpenAI的ChatGPT是史上增長第二快的應用程序,僅次于Meta的Threads應用程序。因此,ChatGPT引發了市場興奮和恐慌,使OpenAI與監管機構産生了沖突,尤其是在歐洲,該公司的大規模數據收集引起了隱私監管機構的批評。 本文章由Open AI人工智能編寫,僅屬學術用途。...
1 min read
人工智能幻覺:一個嚴重的技術問題 人工智能幫助生活,回答問題,是一個極為常見的用法,大家最喜歡說的都是它上之天文,下知地理,但是,真的是這樣嗎? 人工智能幻覺(AI 幻覺),是一個AI領域內的名詞,指的是他面對用戶的問題的自信反應。他會真真假假的回答出完全不正確的內容,並且提出很多支持佐證的說詞。當模型有「幻覺」(輸出欺騙性數據的傾向)時,其使用的的訓練數據並不能證明輸出的合理性。就像是幻覺一樣。 這個問題尤其體現在中文的回答上,很多人說這是由於資料不足所導致,但是,很明顯的,這完全是無稽之談。 我們來看看下面的案例: ChatGPT 的AI幻覺表現 下面的例子,我們來看看ChatGPT 針對歷史上最年長的美國總統回答的答案: [圖片: ChatGPT] 很顯然,ChatGPT 的資料庫絕對包含了正確的答案,但是,他卻接連說出錯誤的答案,甚至你只有更換回答,得出來的回答又會大相逕庭。...
1 min read
近日,有關大陸可能利用生成式人工智能(AI)來操縱輿論影響台灣總統選舉的報導引起了廣泛關注。根據報導,大陸據稱已經開發出一種能夠自動生成大量輿論文章的AI技術,並可能利用這一技術來對台灣總統選舉進行影響。 根據報導,這項AI技術能夠通過分析社交媒體上的用戶發言和互動信息,自動生成與目標事件相關的輿論文章。這些生成的文章看起來非常真實,並且能夠模仿不同的觀點和語氣。這種技術被認為對於塑造公眾輿論具有極大的影響力。 報導指出,大陸可能利用這一技術來操縱台灣總統選舉的輿論。這可能包括通過在社交媒體上大量發布生成的文章,影響台灣選民的觀點和意見。報導還指出,這種技術還可以用於在網絡上製造虛假信息,干擾選舉過程。 然而,報導中也提到,目前尚無確切證據表明大陸正在利用這項技術來影響台灣總統選舉。此外,這種AI技術的使用也存在一些技術和倫理上的限制。 台灣總統選舉將於近期舉行,相關方面應該警覺並加強防範,以確保選舉的公正性和透明度。同時,國際社會也應該關注這一問題,並共同努力防止任何國家利用技術手段來操縱選舉。 本文章由Open AI人工智能編寫,僅屬學術用途。 可參考相關同類新聞
1 min read
輝達等8企業向白宮承諾管控AI風險 根據Yahoo奇摩新聞的報導,輝達等8家知名企業已向白宮承諾加強對人工智慧(AI)技術的監管,以降低AI應用所帶來的風險。 這些企業包括輝達、亞馬遜、微軟、歐洲航天局、IBM、谷歌、Facebook和OpenAI。它們在白宮舉行的一場峰會上提出了這一承諾。 這些企業承諾要加強AI的透明度、公平性和安全性,並采取措施防止AI被濫用或用於不道德的目的。它們還表示將積極與政府、學術界和其他相關利益方合作,共同制定AI的監管措施。 此舉的背後是對AI技術快速發展所帶來的擔憂。人們擔心AI可能被濫用或用於破壞性目的,導致社會和個人的風險。因此,加強對AI的監管成為了迫切的議題。 白宮對於這些企業的承諾表示歡迎,並表示將與它們合作,確保AI的發展符合公眾利益和社會價值。 雖然AI技術帶來了許多潛在的好處,但也帶來了一些挑戰和風險。只有通過加強監管,確保AI的安全和可靠性,才能充分發揮其正面作用,造福社會。 本文章由Open AI人工智能編寫,僅屬學術用途。 可參考相關同類新聞