AI 訓練成本高昂,過去僅科技巨頭能負擔。AWS Trainium3 憑藉運算與能源效率的突破,大幅降低訓練成本達 50%。此舉讓更多企業與研究機構得以開發專屬 AI 模型,實現 AI 普及化。AI 訓練成本高昂,過去僅科技巨頭能負擔。AWS Trainium3 憑藉運算與能源效率的突破,大幅降低訓練成本達 50%。此舉讓更多企業與研究機構得以開發專屬 AI 模型,實現 AI 普及化。

從『只有科技巨頭負擔得起』到『中型企業也能訓練大型模型』:AWS Trainium3 如何改變 AI 訓練的遊戲規則?

2025/12/14 10:38

來源:https://www.aboutamazon.com/news/aws/trainium-3-ultraserver-faster-ai-training-lower-cost

訓練一個 Frontier Model (前沿模型) 需要多少錢?OpenAI 的 GPT-4 訓練成本估計超過 1 億美元,Google 的 Gemini 和 Anthropic 的 Claude 也都在相似量級。這些數字背後是數千張 GPU (Graphics Processing Unit,圖形處理器)、數月的運算時間,以及龐大的電力和冷卻基礎設施投資。過去,只有 FAANG (Facebook、Apple、Amazon、Netflix、Google) 等科技巨頭能負擔這樣的成本,AI 訓練的門檻將大多數中型企業和研究機構擋在門外。

但這個局面正在改變。AWS 推出的 Trainium3 UltraServers 讓 Anthropic 的訓練成本降低達 50%,讓 Decart 的即時生成影片推論速度提升 4 倍且成本減半,Amazon Bedrock 也已經在 Trainium3 上運行生產工作負載。這些成果來自三大技術突破:運算效能提升 4.4 倍、能源效率提升 4 倍、記憶體頻寬提升 4 倍。Trainium3 採用 3nm 製程技術,單個 UltraServer 可整合 144 顆 Trainium3 晶片,提供高達 362 FP8 PFLOPs (每秒 362 千兆次浮點運算) 的運算能力。

更重要的是規模:AWS EC2 UltraClusters 3.0 可連接多達 100 萬顆 Trainium3 晶片,是上一代的 10 倍。這意味著中型企業、研究機構,甚至新創公司,現在都能在合理預算內訓練自己的大型模型,不再需要數億美元的資本支出。

AI 訓練為何只有科技巨頭負擔得起?

要理解 Trainium3 的突破,我們需要先了解 AI 訓練成本的結構性障礙。

硬體投資門檻極高

訓練一個像 Claude 或 GPT-4 這樣的大型模型,通常需要數千張高階 GPU 同時運作數個月。以 NVIDIA H100 GPU 為例,單張售價約 3 萬美元,一個中型訓練叢集就需要數千萬美元的硬體投資。這還不包括配套的網路設備、儲存系統和冷卻基礎設施。這樣的初期投資對大多數企業而言幾乎不可能負擔,也讓 AI 訓練成為資本密集型產業的專屬領域。

電力成本持續攀升

AI 訓練對電力的需求遠超過一般運算工作負載。一個大型訓練叢集的電力消耗可達數十 MW (百萬瓦),相當於一座小型城市的用電量。在電費較高的地區,電力成本可能佔整體訓練成本的 30-40%。隨著各國電價上漲和碳稅政策實施,這個成本還在不斷增加,進一步提高了 AI 訓練的財務門檻。

專業人才稀缺

要管理大規模 AI 訓練叢集,需要 ML (Machine Learning,機器學習) 工程師、分散式系統專家、網路架構師等多方面人才。這些專業人員的年薪通常在 20-50 萬美元之間,對中型企業是沈重負擔。更困難的是,這些人才在市場上極度稀缺,往往被科技巨頭以高薪和優渥的研究資源吸引,讓其他組織難以組建完整的技術團隊。

時間成本難以預測

訓練過程中經常出現硬體故障、網路瓶頸或演算法調整需求,導致專案時程延長。每延遲一週,就意味著數十萬美元的額外成本。許多企業在評估後,會發現「訓練自己的模型」在經濟上完全不可行。這種不可預測性讓 AI 訓練專案的風險評估變得極為困難,進一步阻礙了中型企業的投資意願。

這些障礙造成了 AI 產業的「馬太效應」:有資源的巨頭越來越強,缺乏資源的中型企業只能依賴外部 API 服務,無法針對自己的業務需求訓練客製化模型。

Trainium3 的三大技術突破

AWS Trainium3 透過三個維度的技術創新,大幅降低了 AI 訓練和推論的成本門檻。

運算效能提升 4.4 倍

相較於上一代 Trainium2,Trainium3 在相同功耗下能執行 4.4 倍的運算量。這來自 3nm 製程技術的採用、晶片內部資料路徑的最佳化,以及針對 Transformer 架構 (現代大型語言模型的核心架構) 的硬體加速器設計。在實際的 GPT-OSS 開放模型測試中,Trainium3 達成了單晶片 3 倍吞吐量提升,意味著相同訓練任務所需的晶片數量大幅減少。

這個提升不僅僅是數字上的進步,更代表了架構層面的創新。Trainium3 針對大型語言模型最常見的矩陣運算和注意力機制進行了專門優化,讓每個時脈週期都能執行更多有效運算。相比通用型 GPU 需要處理各種不同類型的工作負載,Trainium3 的專用設計讓它在 AI 訓練這個特定領域達到了更高的效率。

能源效率提升 4 倍

在 AI 訓練中,能源效率不僅影響電費,也決定了資料中心的設計複雜度。Trainium3 每瓦特能執行的運算量是 Trainium2 的 4 倍,這讓企業能在現有電力容量下執行更大規模的訓練任務,或是用更少的電力完成相同工作。對於需要符合 ESG (Environmental、Social、and Governance,環境、社會及治理) 目標的企業,這直接降低了碳足跡。

能源效率的提升還帶來了另一個重要優勢:散熱管理變得更容易。傳統高功耗 GPU 叢集需要複雜的液冷系統,不僅增加了基礎設施成本,也提高了維運複雜度。Trainium3 的低功耗設計讓企業可以使用更簡單的氣冷系統,大幅降低了資料中心的建置和維護成本。這對於沒有專業資料中心團隊的中型企業特別重要。

記憶體頻寬提升近 4 倍

在大型模型訓練中,記憶體頻寬常常是效能瓶頸。模型參數需要在記憶體和運算單元之間快速移動,頻寬不足會讓運算單元閒置等待。Trainium3 透過增加記憶體通道、提升記憶體時脈,以及最佳化記憶體控制器,讓資料傳輸速度大幅提升。這對處理大型模型 (如超過 100B 參數的模型) 特別關鍵。

記憶體頻寬的重要性在訓練超大型模型時更加明顯。當模型參數達到數百億甚至數千億規模時,每次前向和反向傳播都需要載入和更新海量數據。如果記憶體無法跟上運算速度,昂貴的運算單元就會空轉等待,造成資源浪費。Trainium3 的高記憶體頻寬確保了運算單元能持續滿載運作,真正發揮硬體的全部潛力。

這三大突破不是獨立存在,而是形成了一個良性循環:更高的運算效能減少訓練時間,更好的能源效率降低電力成本,更快的記憶體頻寬提升整體系統效率。

從 144 晶片到 100 萬晶片:擴展能力重新定義規模

單一晶片的效能提升只是起點,真正改變遊戲規則的是 Trainium3 的擴展能力。

UltraServer 垂直整合系統

AWS 將 144 顆 Trainium3 晶片整合進單一 UltraServer 系統,提供高達 362 FP8 PFLOPs 的運算能力。這個數字是什麼概念?相當於可以每秒執行 362,000,000,000,000,000 次 8 位元浮點運算。更重要的是,這 144 顆晶片透過 NeuronSwitch-v1 互連技術緊密整合,晶片間通訊延遲低於 10 微秒 (相當於 0.00001 秒),避免了傳統分散式系統中常見的網路瓶頸。

這種垂直整合的設計哲學反映了 AWS 對 AI 基礎設施的深刻理解。與其讓用戶自己組裝和調校數百顆晶片,AWS 在工廠層級就完成了最佳化配置,確保每個 UltraServer 出廠時就達到最佳效能。這不僅節省了部署時間,也消除了配置錯誤的風險,讓企業可以立即開始訓練工作,而不需要花費數週時間進行系統調校。

UltraClusters 3.0 水平擴展

如果訓練任務需要更大規模,Amazon EC2 UltraClusters 3.0 可以將多個 UltraServer 連接起來,最多支援 100 萬顆 Trainium3 晶片同時運作。這是上一代 UltraClusters 的 10 倍規模。透過 Neuron Fabric 網路架構和 AWS Elastic Fabric Adapter (EFA) 高速網路介面,叢集內的通訊延遲仍然能維持在可接受範圍內。

這種規模的擴展能力開啟了全新的可能性。企業不再需要在專案開始時就決定固定的硬體配置,而是可以根據訓練進度動態調整規模。初期驗證階段可以使用較小的叢集,當模型架構確定後再擴展到全規模訓練。這種彈性不僅降低了初期投資風險,也讓企業能更敏捷地回應市場變化和技術演進。

網路為何是關鍵?

在大規模 AI 訓練中,數千顆晶片需要頻繁交換梯度更新 (gradient updates) 和模型參數。如果網路速度跟不上,所有晶片都會閒置等待,造成嚴重的資源浪費。Trainium3 透過垂直整合的系統設計,從晶片、交換器到網路協定都針對 AI 工作負載最佳化,確保即使在 100 萬晶片的規模下,網路也不會成為瓶頸。

網路設計的重要性往往被低估。在傳統的資料中心設計中,網路通常是針對一般雲端工作負載優化的,但 AI 訓練的通訊模式完全不同。它需要高頻寬、低延遲,以及極為規律的通訊模式。AWS 針對這些特性重新設計了整個網路堆疊,從實體層的光纖連接到協定層的傳輸邏輯,都經過了精心調校,確保大規模訓練時不會出現網路瓶頸。

這種「從 144 晶片到 100 萬晶片」的無縫擴展能力,讓企業可以根據預算和需求靈活調整訓練規模。小型專案可以只用幾個 UltraServer,大型 Frontier Model 可以擴展到整個 UltraClusters。

GPT-OSS 開放模型測試:3 倍吞吐量、4 倍更快回應

AWS 選擇用 OpenAI 的開放權重模型 GPT-OSS 來展示 Trainium3 的實際效能,這是一個聰明且透明的策略。

為何選擇開放模型測試?

使用開放模型 (而非 AWS 自家模型) 進行基準測試,讓任何企業都能重現這些結果,驗證 AWS 的宣稱。GPT-OSS 的架構和規模與 GPT-3.5 相似,具有代表性,許多企業正在考慮基於類似架構訓練自己的模型。這種透明度建立了信任,也讓潛在客戶能更準確地評估 Trainium3 是否適合他們的需求。

選擇廣泛使用的開源模型作為基準,還有另一個重要意義:它避免了「針對特定模型優化」的質疑。如果 AWS 只展示自家模型的效能,外界可能會懷疑這些數字是否經過特殊調校。使用 GPT-OSS 這樣的業界標準模型,讓效能數據更具說服力和可比較性。

訓練吞吐量提升 3 倍

在相同硬體配置下,Trainium3 每小時能處理的訓練樣本數量是 Trainium2 的 3 倍。這意味著原本需要 30 天的訓練任務,現在只需 10 天。對企業而言,這不只是「更快」,而是「更早上市」和「更低成本」的直接體現。在快速變化的 AI 市場中,能否比競爭對手早兩週推出新模型,可能決定了市場先機。

訓練時間的縮短還帶來了另一個常被忽視的好處:更快的迭代週期。在模型開發過程中,研究團隊經常需要嘗試不同的架構、超參數和訓練策略。如果每次實驗需要一個月,團隊一年只能進行十幾次迭代。但如果訓練時間縮短到十天,同樣的時間內可以進行三倍的實驗,大幅提升了找到最佳模型配置的機會。

推論回應時間降低 4 倍

對於已訓練好的模型,Trainium3 在推論 (inference) 階段的回應速度是 Trainium2 的 4 倍。這對即時應用場景特別重要——如果你的 AI 聊天機器人需要 2 秒才能回應,使用者會感覺遲鈍;如果只需 0.5 秒,體驗會完全不同。在消費級應用中,回應時間直接影響使用者滿意度和留存率。

推論效能的提升不僅影響使用者體驗,也大幅改變了成本結構。對於大規模部署的 AI 服務,推論成本往往遠高於訓練成本。例如,一個被數百萬用戶使用的聊天機器人,每天可能需要處理數億次推論請求。4 倍的效能提升意味著可以用更少的伺服器服務相同數量的用戶,或是用相同的硬體服務 4 倍的用戶,這對商業模式的可行性有決定性影響。

實際業務影響

這些數字轉換成業務語言是什麼?假設你每月花 10 萬美元在 AI 訓練和推論上,3 倍吞吐量意味著你可以用相同預算訓練 3 個模型 (而非 1 個),或是將訓練成本降低到 3.3 萬美元。4 倍更快的推論意味著你可以服務 4 倍的使用者,或是將推論成本降低 75%。這些節省不是理論數字,而是可以直接反映在損益表上的實際價值。

Anthropic 案例:如何降低 50% 訓練成本

Anthropic 是 Claude 系列模型的開發者,也是全球最先進的 AI 研究機構之一。他們與 AWS 的合作展示了 Trainium 在 Frontier Model 訓練中的實際價值。

Project Rainier 的規模

2024 年,AWS 與 Anthropic 合作建立了 Project Rainier,一個連接超過 50 萬顆 Trainium2 晶片的超大型訓練叢集,是當時全球最大的 AI 運算叢集。這個叢集的規模比 Anthropic 訓練前一代 Claude 模型時使用的基礎設施大 5 倍。建立這樣規模的叢集不僅是硬體的堆疊,更需要精密的系統工程來確保數十萬顆晶片能協同運作,這展現了 AWS 在大規模基礎設施管理上的深厚功力。

Trainium3 的成本優勢

Anthropic 在評估 Trainium3 後發現,訓練成本相較於傳統 GPU 方案可降低達 50%。這來自多個因素的綜合效應。首先是硬體效能提升 (相同訓練任務需要更少晶片),其次是能源效率改善 (電費降低),第三是更快的訓練速度 (縮短專案時程,減少人力成本)。這些因素共同作用,讓整體擁有成本大幅下降。

成本降低的意義不僅在於節省開支,更在於改變了 AI 研究的經濟模型。當訓練成本減半時,研究團隊可以負擔更多的實驗,嘗試更激進的創新方向,而不需要擔心每次失敗都會消耗巨額預算。這種經濟自由度直接轉化為創新能力,讓 Anthropic 能更快地推進 AI 安全和對齊研究。

對 Claude 訓練的影響

Claude 3.5 Sonnet 等模型的訓練需要處理數兆個 token (語言模型的基本單位),涉及複雜的多階段訓練流程。50% 的成本降低意味著 Anthropic 可以進行更多實驗迭代,提升模型品質;更頻繁地更新模型,回應使用者回饋;將節省的資源投入安全性研究和對齊 (alignment) 工作。這些都是 Anthropic 作為 AI 安全領域領導者的核心使命。

為何選擇 Trainium 而非 GPU?

Anthropic 的技術長在公開訪談中提到,Trainium 的優勢不只是成本,還包括與 AWS 生態系統的緊密整合 (如 Amazon S3 儲存、Amazon CloudWatch 監控)、更好的可靠性 (硬體故障率低),以及 AWS Neuron SDK (Software Development Kit,軟體開發套件) 對主流 ML 框架的良好支援。這些因素共同構成了一個完整的訓練生態系統,讓 Anthropic 能專注於模型研究,而不需要花費大量精力在基礎設施管理上。

Decart 案例:即時生成影片快 4 倍、成本減半

如果說 Anthropic 展示了 Trainium3 在「訓練」場景的價值,Decart 則證明了它在「推論」場景的突破性能力。

即時生成影片的技術挑戰

Decart 是一家專注於即時生成影片的 AI 實驗室。與文字或圖片生成不同,即時影片生成需要每秒產生 30-60 幀高解析度畫面,每一幀都要符合前後文的連貫性。這對運算能力和延遲都有極高要求——如果無法在 33 毫秒內生成一幀 (30 FPS 的標準),就會出現卡頓。這個時間窗口非常嚴苛,幾乎不容許任何延遲或不穩定性。

即時影片生成不只是技術挑戰,更是商業模式的關鍵。如果系統無法做到真正的即時回應,應用場景就會大幅受限。例如,在遊戲或互動娛樂中,任何可察覺的延遲都會破壞沈浸感;在專業影片製作中,創作者需要即時預覽效果來快速迭代創意。Trainium3 讓這些以前不可能的應用場景變成了現實。

與 GPU 的對比

Decart 在測試中發現,使用 Trainium3 進行即時影片推論,速度是同等級 GPU 的 4 倍,而成本只有一半。這個對比特別驚人,因為 GPU 長期以來被認為是影片處理的最佳選擇。Trainium3 的優勢來自針對生成式 AI 模型 (如 Diffusion Models) 的硬體加速器,以及更高效的記憶體管理。這證明了專用 AI 晶片在特定工作負載上可以大幅超越通用型 GPU。

開啟的新應用場景

4 倍速度和一半成本意味著什麼?對遊戲產業而言,這讓「AI 生成的動態遊戲世界」變得可行;對影視產業而言,這降低了「AI 輔助特效製作」的門檻;對教育產業而言,這讓「個人化的互動式教學影片」成為可能。Decart 的技術展示了一個未來:使用者可以用自然語言描述想要的影片內容,AI 在幾秒內即時生成。這些應用場景在一年前還只是科幻概念,現在已經開始落地實現。

Trainium3 的推論優勢

除了速度和成本,Trainium3 在推論場景還有其他優勢。首先是穩定的延遲 (latency) 表現——GPU 在高負載時延遲會波動,但 Trainium3 能維持一致的回應時間。其次是更好的批次處理 (batching) 能力——可以同時處理多個使用者請求而不影響個別回應速度。這些特性對於商業部署特別重要,因為真實世界的使用者流量往往是突發性和不可預測的。

Amazon Bedrock 的生產環境驗證

當 AWS 宣稱某項技術有多好時,最有說服力的證據是「AWS 自己在用」。Amazon Bedrock 是 AWS 的全託管生成式 AI 服務,目前已經在 Trainium3 上運行生產工作負載。

為何這很重要?

Amazon Bedrock 服務數萬家企業客戶,包括金融、醫療、零售等對可靠性要求極高的產業。如果 Trainium3 不夠穩定或效能不足,AWS 不可能將生產流量遷移到這個平台。Bedrock 團隊選擇 Trainium3,證明了這個晶片已經通過最嚴格的生產環境測試。這種「自己用自己的產品」的做法,比任何市場宣傳都更有說服力。

實際運行的工作負載

在 Bedrock 上,Trainium3 處理多種類型的 AI 推論請求:文字生成 (如聊天機器人、摘要生成)、程式碼生成 (如 Amazon CodeWhisperer)、多模態理解 (處理文字、圖片、影片的混合輸入)。這些都是企業最常見的 AI 應用場景,Trainium3 能穩定支撐這些工作負載,證明了它不是「實驗室產品」,而是「可投入生產的成熟技術」。

效能監控數據

AWS 內部監控顯示,Trainium3 在 Bedrock 上的平均推論延遲比上一代降低 60%,P99 延遲 (99% 的請求回應時間) 更是降低 70%。這意味著即使在尖峰時段,使用者也能獲得一致的快速回應。此外,Trainium3 的硬體故障率比預期低 40%,大幅降低了維運負擔。這些實際的生產數據比任何實驗室測試都更能證明 Trainium3 的可靠性和穩定性。

誰能從 Trainium3 受益?

Trainium3 降低的不只是 FAANG 等巨頭的成本,更重要的是讓更多類型的組織能參與 AI 訓練。

中型 AI 研究機構

過去,大學實驗室或獨立研究機構很難訓練大型模型,因為缺乏數千萬美元的硬體預算。Trainium3 搭配 AWS 的按需計費模式,讓這些機構可以「租用」訓練資源而非「購買」。一個研究團隊可以用數萬美元 (而非數百萬) 完成一個中型模型的訓練。這種按需使用的模式消除了前期資本投入的障礙,讓研究團隊可以先小規模驗證想法,成功後再擴大規模,大幅降低了研究風險。

垂直產業 AI 應用

醫療、法律、金融等領域需要針對專業知識訓練的 AI 模型。例如,一家醫院想訓練能理解醫學影像報告的 AI,但通用的 ChatGPT 或 Claude 並不足夠,它們缺乏足夠的醫學專業訓練。Trainium3 讓這家醫院能以合理成本訓練自己的醫療 AI,而不需依賴外部 API (這對病患隱私保護很重要)。這種專業化的 AI 能更準確地理解醫學術語和臨床情境,提供更有價值的診斷輔助。

新創公司

AI 新創常面臨「先有雞還是先有蛋」的困境:要吸引投資需要展示技術,但開發技術需要昂貴的訓練資源。Trainium3 降低了這個門檻。一家種子輪融資的新創公司,可以用幾萬美元證明他們的 AI 概念可行,然後再尋求更大規模融資。這種低成本驗證的能力對新創公司特別重要,讓他們能在早期階段用有限資源快速迭代和驗證商業模式。

企業客製化模型

大型企業 (如製造業、物流業) 有大量內部數據,但這些數據不適合交給外部 AI 服務處理 (商業機密或合規問題)。Trainium3 讓這些企業能在自己的 AWS VPC (Virtual Private Cloud,虛擬私有雲) 內訓練客製化模型,數據不離開企業控制範圍。這種數據主權的保障對於處理敏感商業資訊的企業至關重要,也是許多企業願意投資自建 AI 能力的主要原因。

Trainium4 展望:持續降低 AI 門檻

AWS 已經在研發下一代 Trainium4,預計將帶來更大幅度的效能提升。

6 倍 FP4 效能、3 倍 FP8 效能

Trainium4 的目標是在 FP4 (4 位元浮點運算) 達成 6 倍效能提升,在 FP8 (8 位元浮點運算) 達成 3 倍提升。FP4 對於推論場景特別重要,因為它能在維持可接受精度的前提下,大幅降低運算和記憶體需求。3 倍的 FP8 效能意味著訓練速度再次翻倍,或是成本再降 60%。這些持續的效能改進讓 AI 訓練的成本曲線繼續下降,讓更多組織能負擔得起先進的 AI 能力。

NVIDIA NVLink Fusion 整合

Trainium4 將支援 NVIDIA NVLink Fusion 高速晶片互連技術,讓 Trainium、Graviton CPU 和 EFA 能在共同的 MGX 機架中無縫協作。這為企業提供了更靈活的架構選擇,可以在同一套基礎設施中混合使用 GPU 和 Trainium,根據工作負載特性選擇最適合的加速器。這種異構計算的能力讓企業能更精確地匹配硬體和工作負載,進一步優化成本效益。

4 倍記憶體頻寬

Trainium4 的記憶體頻寬將再提升 4 倍,這對處理超大型模型 (如 1T 參數以上) 至關重要。更高的頻寬意味著模型參數可以更快地在記憶體和運算單元間移動,減少運算單元的閒置時間。隨著模型規模持續增長,記憶體頻寬將成為越來越重要的效能瓶頸,Trainium4 的提前布局確保了它能支援未來幾年的模型發展需求。

持續的價格效能改善

AWS 的策略不是只推出「更貴但更快」的晶片,而是持續改善「每美元的運算能力」。從 Trainium2 到 Trainium3 再到 Trainium4,每一代的目標都是讓更多組織能負擔得起 AI 訓練。這與 AWS 的長期使命一致:democratize (民主化) 先進技術,讓創新不再是少數巨頭的專利。這種持續降低技術門檻的承諾,是 AWS 在 AI 基礎設施市場建立競爭優勢的核心策略。

進一步了解或尋求專業建議

若您想深入了解如何將 AWS Trainium3 整合到您的 AI 訓練流程中,或評估其如何滿足您的需求,歡迎聯絡 AWS 台灣團隊,我們的解決方案架構師將協助您設計最適合的訓練策略。

參考資料

•    AWS Trainium 產品頁面
•    AWS Trainium 文件
•    AWS Trainium 客戶案例
•    Amazon EC2 產品頁面
•    Amazon Bedrock 產品頁面
•    AWS Elastic Fabric Adapter

無法去拉斯維加斯親自體驗?歡迎報名參與 Best of AWS re:Invent (AWS 雲端科技發表會) 線上參與,一樣精彩!

本文章內容由「Amazon Web Services (AWS)」提供。

免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 service@support.mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。

您可能也會喜歡

中台禪寺性醜聞 禪修班師兄下藥迷姦師弟「手淫+口交」錄影收藏

中台禪寺性醜聞 禪修班師兄下藥迷姦師弟「手淫+口交」錄影收藏

CNEWS匯流新聞網記者王昭濱/綜合報導 南投中台禪寺禪修班一名李姓師兄,去年11月間竟在師弟阿明(化名)喝的飲料內加入含有FM2成份的安眠藥,接著就趁他昏睡後,在禪寺內對他口交手淫,且整個程全都用手機拍下,僅17天內就以同樣手法對阿明猥褻8次。經南投地院審理後,法官依3個以藥劑強制性交而對被害人照相、錄影罪,5個以藥
分享
Cnews2025/12/14 14:26
俄羅斯人妻玩「Tinder」連劈2人 大膽示愛「我需要被調教」

俄羅斯人妻玩「Tinder」連劈2人 大膽示愛「我需要被調教」

CNEWS匯流新聞網記者王昭濱/綜合報導 一名俄羅斯籍女子愛麗絲(化名)6年前嫁給高雄一名洪姓男子,結果她因不甘寂寞,去年5月間開始玩交友軟體,還主動找網友約砲,甚至在對話中告訴對方「需要被調教」,分別與2名網友發生關係。洪男發現後怒不可遏提告,法院審理後,判決愛麗絲與其中一名網友須連帶賠償20萬元。 判決指出,洪男與
分享
Cnews2025/12/14 14:32
冬季「咳、痰、喘」不是小事!   他誤當老毛病已中度肺阻塞

冬季「咳、痰、喘」不是小事! 他誤當老毛病已中度肺阻塞

CNEWS匯流新聞網記者陳鈞凱/台北報導 氣溫轉涼,不少人會出現胸悶、咳嗽、走路易喘等症狀,這些小信號可能是慢性阻塞性肺疾病(COPD)或氣喘的警訊。門診就有一名65歲男性,長期咳嗽、痰多,以為只是「老毛病」,直到走路喘、爬樓梯常氣喘才就醫,檢查發現肺阻塞已進入中度階段。醫師警告,咳、痰、喘不是小事,40歲以上務必提高
分享
Cnews2025/12/14 14:00