Trang web QUAPE

Máy chủ chuyên dụng Intel so với AMD: Lựa chọn kiến trúc bộ xử lý phù hợp với khối lượng công việc của bạn

Máy chủ chuyên dụng Intel so với AMD: Lựa chọn kiến trúc bộ xử lý phù hợp với khối lượng công việc của bạn

Kiến trúc bộ xử lý quyết định hiệu quả xử lý khối lượng công việc sản xuất, khả năng mở rộng môi trường ảo hóa và quản lý chi phí vận hành ở cấp độ nền tảng của một máy chủ chuyên dụng. Mặc dù bộ xử lý Intel Xeon trước đây đã thống trị cơ sở hạ tầng doanh nghiệp, nhưng nền tảng AMD EPYC hiện nay mang lại mật độ lõi, băng thông bộ nhớ và thông lượng I/O cạnh tranh, giúp định hình lại các phép tính chi phí-hiệu suất cho các doanh nghiệp tại Singapore. Quyết định lựa chọn kiến trúc Intel hay AMD phụ thuộc vào đặc điểm khối lượng công việc, yêu cầu độ trễ đơn luồng, tỷ lệ hợp nhất và các yếu tố cấp độ nền tảng như hỗ trợ tạo PCIe và hiệu suất nhiệt. Việc hiểu rõ những khác biệt về kiến trúc này tương tác như thế nào với các ứng dụng kinh doanh cụ thể cho phép các nhà quản lý CNTT cân đối việc mua sắm máy chủ với các yêu cầu về hiệu suất và hạn chế ngân sách.

Máy chủ chuyên dụng AMD là nền tảng máy chủ vật lý được xây dựng xung quanh bộ xử lý AMD EPYC, được thiết kế để cung cấp số lượng lõi cao, kênh bộ nhớ rộng và kết nối PCIe mở rộng cho các khối lượng công việc được hưởng lợi từ xử lý song song, băng thông bộ nhớ hoặc các kết nối I/O dày đặc. Vi kiến trúc Zen của AMD, nền tảng của dòng EPYC, cung cấp nhiều kênh bộ nhớ hơn trên mỗi socket so với nhiều thiết kế Intel Xeon hiện đại, cho phép băng thông bộ nhớ tổng hợp cao hơn và dung lượng RAM tổng thể lớn hơn trên mỗi socket cho các ứng dụng đòi hỏi nhiều bộ nhớ. Các nền tảng EPYC hiện đại cũng hỗ trợ PCIe 4.0 và PCIe 5.0, giúp tăng trực tiếp băng thông khả dụng cho bộ lưu trữ NVMe và bộ tăng tốc GPU so với các thế hệ nền tảng cũ. Các doanh nghiệp đang đánh giá cơ sở hạ tầng máy chủ chuyên dụng tại Singapore nên cân nhắc những lợi thế về kiến trúc này so với các yêu cầu cụ thể về khối lượng công việc đối với hiệu suất luồng đơn và khả năng tương thích với hệ sinh thái nhà cung cấp.

Những điểm chính

  • Bộ xử lý AMD EPYC thường cung cấp số lượng lõi cao hơn và kênh bộ nhớ rộng hơn trên mỗi ổ cắm so với các SKU Intel Xeon tương đương, cải thiện thông lượng cho khối lượng công việc song song và liên quan đến bộ nhớ nhưng không nhất thiết là độ trễ luồng đơn.
  • Nền tảng Intel Xeon thường cung cấp tốc độ xung nhịp trên mỗi lõi cao hơn và hệ sinh thái điều chỉnh đã được thiết lập, có thể giảm độ trễ đuôi cho các ứng dụng nhạy cảm với độ trễ như xử lý giao dịch thời gian thực.
  • Hỗ trợ thế hệ PCIe (Gen4 so với Gen5) ảnh hưởng đáng kể đến lưu trữ và thông lượng bộ tăng tốc; dòng AMD EPYC 9004 hỗ trợ PCIe 5.0, cho phép kết nối NVMe và GPU dày đặc hơn mà không bị tắc nghẽn kết cấu I/O.
  • Công suất thiết kế nhiệt của CPU (TDP) và hiệu quả nền tảng ảnh hưởng đến chi phí vận hành và yêu cầu về cơ sở hạ tầng làm mát, đặc biệt đối với các doanh nghiệp quản lý triển khai nhiều giá đỡ hoặc cơ sở hạ tầng đồng bộ.
  • Hiệu suất ảo hóa phụ thuộc vào việc điều chỉnh cấp nền tảng, cấu trúc NUMA và hướng dẫn cụ thể của nhà cung cấp; VMware và các chương trình quản lý siêu giám sát khác công bố các tài nguyên về khả năng tương thích và tối ưu hóa cho cả nền tảng Intel và AMD.
  • Các tiêu chuẩn thực nghiệm như SPEC CPU2017 cung cấp các so sánh hiệu suất được nhà cung cấp xác thực trên các họ bộ xử lý, nhưng hành vi ứng dụng trong thế giới thực phụ thuộc vào khả năng mở rộng luồng theo khối lượng công việc, kiểu truy cập bộ nhớ và đặc điểm I/O.
  • Dữ liệu thị trường từ năm 2024 cho thấy AMD chiếm khoảng 33,9% thị phần doanh thu trong bộ xử lý máy chủ, phản ánh việc doanh nghiệp áp dụng rộng rãi hơn nền tảng EPYC và áp lực cạnh tranh về giá đối với các sản phẩm Intel Xeon.
  • Siêu phân luồng và SMT (đa luồng đồng thời) có thể cải thiện hoặc làm giảm hiệu suất ứng dụng tùy thuộc vào loại khối lượng công việc và hành vi của trình lập lịch hệ điều hành, yêu cầu xác thực thay vì kích hoạt toàn diện.

Các thành phần chính và khái niệm kiến trúc của máy chủ chuyên dụng AMD so với Intel

Sự khác biệt giữa kiến trúc CPU và thiết kế lõi

Bộ xử lý Intel Xeon và AMD EPYC triển khai các triết lý kiến trúc riêng biệt ảnh hưởng đến cách lõi, hệ thống phân cấp bộ nhớ đệm và bộ điều khiển bộ nhớ tương tác với nhu cầu khối lượng công việc. Thiết kế của Intel Xeon thường tích hợp tất cả các lõi, bộ nhớ đệm và bộ điều khiển I/O trên một đế đơn khối, giúp giảm độ trễ giao tiếp giữa các lõi nhưng hạn chế mật độ lõi tối đa trên mỗi socket do hạn chế về năng suất sản xuất. Nền tảng AMD EPYC sử dụng kiến trúc chiplet kết hợp nhiều chiplet lõi CPU với một đế I/O riêng biệt, cho phép số lượng lõi cao hơn (lên đến 96 lõi trên mỗi socket trong dòng EPYC 9004) trong khi vẫn duy trì hiệu quả sản xuất thông qua năng suất chiplet nhỏ hơn và nhất quán hơn. Sự khác biệt về kiến trúc này ảnh hưởng trực tiếp đến cách xử lý đa lõi mở rộng trên các khối lượng công việc: thiết kế đơn khối ưu tiên các tác vụ được kết hợp chặt chẽ, nhạy cảm với độ trễ, trong khi thiết kế chiplet vượt trội ở các khối lượng công việc song song cao có thể chịu được độ trễ giữa các lõi cao hơn một chút.

Số lượng lõi và tính khả dụng của luồng cũng khác biệt đáng kể giữa các SKU Intel và AMD tương đương. Hệ thống AMD EPYC 9654 socket kép cung cấp 192 lõi vật lý và 384 luồng, trong khi cấu hình Intel Xeon Platinum 8480+ socket kép cung cấp 112 lõi vật lý và 224 luồng. Siêu phân luồng (triển khai SMT của Intel) và đa luồng đồng thời tương đương của AMD đều cho phép mỗi lõi vật lý thực thi đồng thời hai luồng lệnh, nhưng các nghiên cứu thực nghiệm chứng minh rằng hiệu quả của SMT thay đổi đáng kể tùy theo loại khối lượng công việc. Nghiên cứu kiểm tra hiệu suất cụm HPC phát hiện ra rằng việc bật SMT đôi khi làm giảm thông lượng ứng dụng khi khối lượng công việc thể hiện khả năng mở rộng luồng kém hoặc cạnh tranh tài nguyên thực thi được chia sẻ trong mỗi lõi. Điều này có nghĩa là các quyết định mua sắm chỉ dựa trên số lượng luồng có thể thể hiện sai hiệu suất ứng dụng thực tế, đặc biệt là đối với khối lượng công việc khoa học liên quan đến tính toán hoặc truy vấn cơ sở dữ liệu có kế hoạch thực thi phức tạp.

Kiến trúc Zen giới thiệu một số tính năng giúp phân biệt cách tiếp cận thiết kế lõi của AMD với Intel. Mỗi lõi Zen 4 (được sử dụng trong dòng EPYC 9004) tích hợp bộ nhớ đệm L2 lớn hơn (1 MB mỗi lõi) so với các thiết kế cũ hơn, giúp giảm áp lực cho hệ thống bộ nhớ đối với các khối lượng công việc có tính cục bộ thời gian tốt. AMD cũng triển khai cấu trúc bộ nhớ đệm L3 thống nhất được chia sẻ trên các tổ hợp lõi (CCX), hỗ trợ chia sẻ dữ liệu hiệu quả cho các tác vụ song song trong khi vẫn duy trì tính nhất quán của bộ nhớ đệm trên toàn bộ cấu trúc chiplet. Các thiết kế của Intel Xeon sử dụng một cấu trúc bộ nhớ đệm khác nhau với các kích thước bộ nhớ đệm L3 khác nhau tùy thuộc vào SKU và các kiến trúc kết nối lưới ưu tiên giao tiếp lõi-đến-lõi có độ trễ thấp. Hiểu cách các thiết kế bộ nhớ đệm và kết nối này tương tác với các mẫu truy cập bộ nhớ ứng dụng giúp các nhà quản lý CNTT dự đoán liệu khối lượng công việc sẽ được hưởng lợi nhiều hơn từ thiết kế nguyên khối có độ trễ thấp của Intel hay dung lượng bộ nhớ đệm tổng hợp cao hơn của AMD.

Tốc độ xung nhịp, Hiệu suất trên mỗi lõi và Hành vi khối lượng công việc

Tốc độ xung nhịp ảnh hưởng trực tiếp đến hiệu suất luồng đơn và quyết định tốc độ thực thi các luồng lệnh tuần tự của từng lõi. Bộ xử lý Intel Xeon thường duy trì tốc độ xung nhịp cơ bản và xung nhịp turbo cao hơn so với các SKU AMD EPYC có số lượng lõi tương tự; ví dụ: Intel Xeon Gold 6348 hoạt động ở tần số cơ bản là 2,6 GHz với turbo boost lên 3,5 GHz, trong khi AMD EPYC 7763 chạy ở tần số cơ bản là 2,45 GHz với boost lên 3,5 GHz. Sự khác biệt về tần số có vẻ nhỏ này kết hợp với các khối lượng công việc nặng về lệnh, trong đó hiệu suất trên mỗi lõi quyết định khả năng phản hồi của ứng dụng. Các khối lượng công việc có độ trễ thấp như xử lý lệnh theo thời gian thực, nền tảng giao dịch tần suất cao hoặc các ứng dụng web tương tác với SLA thời gian phản hồi nghiêm ngặt được hưởng lợi nhiều hơn từ tốc độ xung nhịp cao hơn so với các lõi bổ sung vẫn chưa được sử dụng hết trong các hoạt động tuần tự.

Cơ chế tăng tốc Turbo Boost cũng hoạt động khác nhau trên các kiến trúc và ảnh hưởng đến hiệu suất duy trì trong các điều kiện nhiệt độ khác nhau. Công nghệ Turbo Boost 2.0 của Intel và Precision Boost 2 của AMD đều tăng tần số xung nhịp một cách linh hoạt khi đủ điều kiện về nhiệt độ và điện năng, nhưng thuật toán của chúng phản ứng khác nhau với các mẫu khối lượng công việc và khả năng làm mát. Các nền tảng của Intel có xu hướng duy trì tần số turbo lõi đơn cao hơn trong thời gian dài hơn khi chỉ có một tập hợp con các lõi hoạt động, điều này cải thiện khả năng phản hồi cho các khối lượng công việc bùng nổ xen kẽ giữa các giai đoạn nhàn rỗi và các đợt tính toán ngắn. Cơ chế tăng tốc của AMD ưu tiên thông lượng tổng hợp bằng cách phân phối các đợt tăng tần số đồng đều hơn trên các lõi đang hoạt động, hỗ trợ khối lượng công việc song song nhưng có thể không tối đa hóa hiệu suất luồng đơn trong các tình huống tải nhẹ.

Cuối cùng, hành vi khối lượng công việc quyết định tốc độ xung nhịp hay số lượng lõi có ảnh hưởng lớn hơn đến hiệu suất ứng dụng. Các tác vụ bị giới hạn bởi CPU với tính song song hạn chế, chẳng hạn như biên dịch đơn luồng, quy trình lưu trữ cơ sở dữ liệu cũ hoặc một số đường dẫn thực thi JavaScript trong các ứng dụng Node.js, có thể mở rộng gần như tuyến tính theo tần số xung nhịp nhưng lại nhận được rất ít lợi ích từ việc bổ sung thêm lõi. Ngược lại, các khối lượng công việc song song khó xử lý như chuyển mã video, mô phỏng Monte Carlo hoặc các khung xử lý dữ liệu phân tán (Spark, Hadoop) lại làm quá tải các lõi khả dụng bất kể tần số trên mỗi lõi, khiến số lượng lõi cao có giá trị hơn so với việc cải thiện tốc độ xung nhịp ở mức tối thiểu. Các doanh nghiệp chạy khối lượng công việc hỗn hợp trên cơ sở hạ tầng đòi hỏi sự linh hoạt nên đánh giá dữ liệu phân tích ứng dụng để xác định đặc điểm kiến trúc nào phù hợp với điểm nghẽn hiệu suất chính của chúng.

Hiệu suất năng lượng, TDP và các cân nhắc về nhiệt

Công suất thiết kế nhiệt (TDP) chỉ định lượng nhiệt tỏa ra tối đa mà bộ xử lý tạo ra trong điều kiện tải trọng thông thường, ảnh hưởng trực tiếp đến yêu cầu về cơ sở hạ tầng làm mát và chi phí vận hành. Intel Xeon Platinum 8480+ có TDP là 350W, trong khi AMD EPYC 9654 chỉ định TDP là 360W, nhưng chỉ riêng những con số này không thể hiện đầy đủ hiệu suất năng lượng ở cấp độ nền tảng. TDP thể hiện khả năng tản nhiệt cần thiết từ các hệ thống làm mát, nhưng mức tiêu thụ điện năng thực tế thay đổi linh hoạt dựa trên cường độ tải trọng, mức sử dụng lõi và kiểu truy cập bộ nhớ. Các trung tâm dữ liệu phải cung cấp khả năng làm mát dựa trên xếp hạng TDP để ngăn chặn hiện tượng điều tiết nhiệt, khi bộ xử lý tự động giảm tốc độ xung nhịp để duy trì trong giới hạn nhiệt, làm giảm khả năng dự đoán hiệu suất.

Hiệu suất năng lượng ở cấp độ nền tảng phụ thuộc vào hiệu quả bộ xử lý chuyển đổi năng lượng điện thành công việc tính toán hữu ích. Bộ xử lý AMD EPYC thường cung cấp hiệu suất trên mỗi watt cao hơn cho khối lượng công việc song song do mật độ lõi cao hơn và quy trình sản xuất 5nm của TSMC (được sử dụng trong dòng EPYC 9004), giúp giảm dòng rò rỉ và cải thiện hiệu suất chuyển mạch bóng bán dẫn so với các nút quy trình cũ hơn. Các nền tảng Xeon gần đây của Intel sử dụng công nghệ quy trình Intel 7 (SuperFin nâng cao 10nm), công nghệ này cũng cải thiện hiệu suất so với các thế hệ trước nhưng thể hiện các đặc điểm mở rộng khác nhau trong các mẫu khối lượng công việc khác nhau. Hiệu suất thực tế phụ thuộc vào hành vi ứng dụng thực tế: máy chủ cơ sở dữ liệu có mức sử dụng CPU trung bình là 30% có thể dành phần lớn thời gian hoạt động ở trạng thái nhàn rỗi có công suất thấp hơn, trong đó các tính năng quản lý năng lượng ở cấp độ nền tảng (trạng thái C, trạng thái P) xác định mức tiêu thụ điện năng cơ bản độc lập với thông số kỹ thuật TDP đỉnh.

Hiệu suất nhiệt của trung tâm dữ liệu vượt ra ngoài các thông số kỹ thuật của CPU riêng lẻ để bao gồm mật độ công suất cấp rack và khả năng làm mát cơ sở. Việc triển khai mật độ cao với nhiều máy chủ TDP cao trên mỗi rack có thể vượt quá giới hạn cơ sở hạ tầng làm mát, buộc các nhà khai thác phải giảm mức sử dụng rack hoặc đầu tư vào thiết bị làm mát bổ sung. Theo đánh giá của ngành, mức tiêu thụ năng lượng của trung tâm dữ liệu toàn cầu ước tính đạt từ 300 đến 380 TWh vào năm 2023, với hệ thống làm mát chiếm một phần đáng kể chi phí điện năng của cơ sở. Bối cảnh hoạt động này có nghĩa là các lựa chọn kiến trúc CPU ảnh hưởng đến cả chi phí điện năng trực tiếp của máy chủ và chi phí làm mát gián tiếp, đặc biệt là đối với các doanh nghiệp có trụ sở tại Singapore hoạt động ở vùng khí hậu nhiệt đới, nơi nhiệt độ môi trường làm tăng tải làm mát. Các nhóm mua sắm đánh giá tổng chi phí sở hữu nên mô hình hóa cả khấu hao máy chủ và chi phí năng lượng dự kiến trong nhiều năm khi so sánh các tùy chọn nền tảng Intel và AMD.

Hiệu suất bộ nhớ và khả năng tương thích RAM ECC

Băng thông và dung lượng bộ nhớ quyết định trực tiếp hiệu quả của máy chủ xử lý khối lượng công việc dữ liệu chuyên sâu như cơ sở dữ liệu trong bộ nhớ, phân tích quy mô lớn và môi trường ảo hóa với cam kết bộ nhớ cao. Bộ xử lý AMD EPYC cung cấp 12 kênh bộ nhớ cho mỗi ổ cắm (trong dòng EPYC 9004), so với 8 kênh bộ nhớ trong hầu hết các nền tảng Intel Xeon Scalable, cho phép băng thông bộ nhớ tổng hợp cao hơn và hỗ trợ nhiều khe cắm DIMM hơn cho mỗi ổ cắm. Sự khác biệt về kiến trúc này cho phép các hệ thống EPYC mở rộng lên tới 6 TB RAM cho mỗi ổ cắm bằng cách sử dụng DIMM dung lượng cao, trong khi các nền tảng Intel tương đương thường chỉ đạt tối đa 4 TB cho mỗi ổ cắm. Các khối lượng công việc xử lý các tập dữ liệu lớn trong bộ nhớ, chẳng hạn như SAP HANA, cụm Redis hoặc bảng điều khiển phân tích thời gian thực, được hưởng lợi trực tiếp từ cả băng thông bộ nhớ cao hơn (giảm thời gian chờ truyền dữ liệu) và tổng dung lượng lớn hơn (loại bỏ I/O đĩa cho dữ liệu được truy cập thường xuyên).

Khả năng tương thích RAM ECC đảm bảo tính toàn vẹn dữ liệu bằng cách phát hiện và sửa lỗi bộ nhớ bit đơn xảy ra do bức xạ vũ trụ, nhiễu điện hoặc suy giảm cell DRAM. Cả nền tảng Intel Xeon và AMD EPYC đều yêu cầu bộ nhớ ECC cho cấu hình doanh nghiệp, nhưng Triển khai RAM ECC Tương tác khác nhau với bộ điều khiển bộ nhớ nền tảng và cơ chế báo cáo lỗi. AMD EPYC tích hợp bộ điều khiển bộ nhớ chuyên dụng trong mỗi chiplet và tổng hợp số liệu thống kê lỗi thông qua firmware nền tảng, cung cấp khả năng theo dõi lỗi chi tiết trên từng DIMM, giúp đơn giản hóa việc xác định các mô-đun bộ nhớ bị lỗi trước khi xảy ra lỗi không thể sửa chữa. Nền tảng Intel Xeon triển khai tính năng phát hiện lỗi tương tự nhưng định tuyến báo cáo lỗi thông qua các giao diện firmware khác nhau, điều này ảnh hưởng đến cách các công cụ quản lý máy chủ hiển thị số liệu về tình trạng bộ nhớ cho quản trị viên.

Độ trễ truy cập bộ nhớ thay đổi tùy thuộc vào cấu trúc NUMA (truy cập bộ nhớ không đồng nhất), cấu trúc này mô tả cách bộ nhớ vật lý được phân bổ trên các socket CPU và các kết nối. Trong các hệ thống socket kép, bộ nhớ được gắn vào một socket sẽ phải chịu thêm độ trễ khi được các lõi trên socket đối diện truy cập, vì yêu cầu phải đi qua kết nối liên socket (Intel UPI hoặc AMD Infinity Fabric). Thiết kế chiplet của AMD giới thiệu một lớp NUMA bổ sung trong một socket duy nhất, tại đó các lõi trong một chiplet truy cập các kênh bộ nhớ do một chiplet khác quản lý sẽ có độ trễ cao hơn một chút so với truy cập bộ nhớ cục bộ. Các ứng dụng không nhận biết NUMA có thể bị giảm hiệu suất nếu bộ lập lịch hệ điều hành di chuyển các luồng trên các miền NUMA mà không di dời các trang bộ nhớ được liên kết của chúng. Các nền tảng ảo hóa như VMware vSphere bao gồm các tính năng tối ưu hóa NUMA giúp căn chỉnh việc phân bổ bộ nhớ máy ảo với cấu trúc NUMA vật lý, nhưng hiệu quả phụ thuộc vào kích thước VM và các mẫu sử dụng bộ nhớ máy chủ.

Khả năng ảo hóa và hỗ trợ Hypervisor doanh nghiệp

Các tiện ích mở rộng ảo hóa được tích hợp vào CPU hiện đại cho phép các trình quản lý ảo hóa quản lý hiệu quả nhiều máy ảo bằng cách chuyển tải việc chuyển đổi bộ nhớ, chỉ định thiết bị I/O và xử lý ngắt sang phần cứng. Cả Intel VT-x (Công nghệ ảo hóa) và AMD-V đều cung cấp các khả năng ảo hóa cơ bản tương tự, bao gồm các bảng trang mở rộng (EPT/NPT) giúp tăng tốc quá trình chuyển đổi địa chỉ bộ nhớ ảo sang vật lý và giảm chi phí quản lý ảo hóa. Tuy nhiên, các triển khai và khuyến nghị điều chỉnh cụ thể của nhà cung cấp ảnh hưởng đến mật độ hợp nhất VM và hiệu suất cô lập. VMware xuất bản các hướng dẫn điều chỉnh chi tiết cho các nền tảng AMD EPYC, trong đó chỉ định cấu hình NUMA tối ưu, cài đặt xen kẽ bộ nhớ và kích hoạt SMT dựa trên các đặc điểm khối lượng công việc VM dự kiến. Các tối ưu hóa cụ thể của nền tảng này có thể cải thiện mật độ VM từ 10 đến 20% so với cấu hình mặc định, khiến tài liệu của nhà cung cấp trở nên cần thiết để tối đa hóa việc sử dụng cơ sở hạ tầng.

Các khối lượng công việc gốc đám mây và các ứng dụng được chứa trong container cũng được hưởng lợi từ các tính năng ảo hóa CPU, mặc dù các container chia sẻ nhân máy chủ thay vì chạy toàn bộ hệ điều hành khách. Các tính năng như Intel VT-d và AMD IOMMU cho phép gán thiết bị trực tiếp cho máy ảo hoặc container, cho phép các thiết bị GPU hoặc NVMe đạt hiệu suất gần như gốc trong các môi trường biệt lập. Khả năng này hỗ trợ các trường hợp sử dụng như suy luận học máy trong các pod Kubernetes yêu cầu tăng tốc GPU, hoặc các container cơ sở dữ liệu IOPS cao được hưởng lợi từ quyền truy cập thiết bị NVMe chuyên dụng. Hiệu quả của việc truyền dữ liệu thiết bị phụ thuộc vào khả năng I/O của nền tảng và cấu trúc PCIe, từ đó dẫn đến các cân nhắc về tích hợp lưu trữ.

Khả năng tương thích của VMware vSphere cũng mở rộng ra ngoài các tập lệnh CPU, bao gồm cả firmware nền tảng, các tính năng của bộ điều khiển bộ nhớ và hỗ trợ cấp chipset cho các khả năng hypervisor cụ thể. Broadcom duy trì một danh sách tương thích phần cứng toàn diện, xác định các cấu hình đã được xác thực cho nền tảng Intel và AMD, đồng thời chỉ rõ phiên bản firmware và cài đặt BIOS nào đã được kiểm tra với mỗi bản phát hành vSphere. Việc triển khai hypervisor trên các kết hợp phần cứng chưa được xác thực tiềm ẩn nguy cơ phát sinh các vấn đề về hiệu suất hoặc độ ổn định khó phát hiện, có thể không xuất hiện trong quá trình triển khai ban đầu nhưng lại xuất hiện khi áp lực khối lượng công việc sản xuất tăng cao. Các doanh nghiệp đang chuẩn hóa trên VMware nên xác minh khả năng tương thích nền tảng ngay từ đầu trong các chu kỳ mua sắm để tránh phát hiện ra sự không tương thích sau khi phần cứng đã được triển khai.

Tích hợp lưu trữ và băng thông I/O

Thế hệ PCIe xác định trực tiếp băng thông tối đa có sẵn cho các thiết bị lưu trữ, bộ điều hợp mạng và bộ tăng tốc GPU được gắn vào nền tảng CPU. PCIe 4.0 cung cấp 16 GT/giây (gigatransfers mỗi giây) cho mỗi làn, cung cấp khoảng 2 GB/giây cho mỗi hướng trên liên kết x1, trong khi PCIe 5.0 tăng gấp đôi con số này lên 32 GT/giây và 4 GB/giây cho mỗi hướng. Dòng AMD EPYC 9004 hỗ trợ PCIe 5.0 trên tất cả các làn, trong khi Intel Xeon Scalable thế hệ thứ 4 (Sapphire Rapids) cung cấp hỗ trợ PCIe 5.0 một phần tùy thuộc vào SKU và cấu hình. Khoảng cách thế hệ này ảnh hưởng đến thông lượng lưu trữ cho các cấu hình NVMe triển khai nhiều ổ đĩa hiệu suất cao; về mặt lý thuyết, một ổ SSD NVMe PCIe 5.0 x4 có thể cung cấp băng thông hai chiều 16 GB/giây, trong khi cùng một ổ đĩa trên kết nối PCIe 4.0 chỉ đạt tối đa 8 GB/giây.

Ổ SSD NVMe cung cấp độ trễ xếp hàng thấp hơn đáng kể và thông lượng I/O song song cao hơn so với giao diện SATA hoặc SAS cũ, khiến chúng trở nên thiết yếu đối với các máy chủ cơ sở dữ liệu và nền tảng phân tích xử lý khối lượng giao dịch lớn. Nghiên cứu so sánh Lưu trữ NVMe so với SATA Trong các khối lượng công việc cơ sở dữ liệu thực tế, NVMe đã chứng minh rằng độ trễ truy vấn giảm 40% xuống còn 60% cho các hoạt động liên quan đến I/O, chủ yếu bằng cách loại bỏ chi phí giao thức và cho phép độ sâu hàng đợi sâu hơn (lên đến 64K lệnh trên mỗi hàng đợi so với 32 lệnh của SATA). Các thử nghiệm được kiểm soát với các thiết bị NVMe cao cấp đã đạt được băng thông đọc gần 6 GB/giây trên mỗi thiết bị cho các khối lượng công việc tuần tự và chứng minh hiệu suất tối ưu ở kích thước trang 4 KB, phù hợp với kích thước khối cơ sở dữ liệu được PostgreSQL, MySQL và Oracle sử dụng.

Khối lượng công việc I/O cao cũng gây áp lực lên khả năng xử lý ngắt và các hoạt động DMA (truy cập bộ nhớ trực tiếp) của CPU mà không làm bão hòa tài nguyên lõi. Bộ điều khiển NVMe hiện đại sử dụng ngắt được báo hiệu bằng tin nhắn (MSI-X) để phân phối thông báo hoàn thành I/O trên nhiều lõi CPU, ngăn ngừa tình trạng tắc nghẽn ngắt vốn trước đây hạn chế thông lượng lưu trữ trên các trình xử lý ngắt lõi đơn. Tuy nhiên, các hệ thống chạy hàng trăm nghìn IOPS trên nhiều thiết bị NVMe vẫn có thể gặp phải tình trạng quá tải CPU có thể đo lường được từ quá trình xử lý ngắt, đặc biệt nếu ái lực IRQ không được cấu hình đúng cách để cân bằng các ngắt trên các nút NUMA. Số lượng lõi cao hơn của AMD EPYC cung cấp nhiều tài nguyên CPU hơn để hấp thụ quá tải ngắt, trong khi các nền tảng Intel có xung nhịp trên mỗi lõi cao hơn có thể xử lý từng ngắt nhanh hơn nhưng có ít lõi hơn để phân phối tải.

Khả năng tương thích của máy tính hiệu suất cao và khối lượng công việc chuyên biệt

Khối lượng công việc HPC bao gồm mô phỏng khoa học, động lực học chất lưu tính toán, mô hình hóa phân tử và các ứng dụng khác đòi hỏi tính toán song song quy mô lớn trên các lõi được liên kết chặt chẽ. Các khối lượng công việc này thường sử dụng MPI (Giao diện truyền tin) để phối hợp tính toán trên nhiều nút và phụ thuộc rất nhiều vào độ trễ giữa các lõi, băng thông bộ nhớ và thông lượng tính toán dấu phẩy động. Bộ xử lý AMD EPYC mang lại hiệu suất HPC cạnh tranh nhờ số lượng lõi cao và hỗ trợ lệnh vector AVX2, nhưng một số mã HPC chuyên biệt được tối ưu hóa cho tập lệnh AVX-512 của Intel có thể thể hiện hiệu suất tốt hơn trên các nền tảng Xeon hỗ trợ các hoạt động SIMD (lệnh đơn, nhiều dữ liệu) rộng hơn. Việc lựa chọn giữa Intel và AMD cho việc triển khai HPC thường phụ thuộc vào việc các ứng dụng mục tiêu đã được lập hồ sơ và tối ưu hóa cho các tập lệnh cụ thể hay chưa.

Hiệu suất xử lý song song cũng phụ thuộc vào mức độ hiệu quả của các ứng dụng khi mở rộng trên các lõi khả dụng mà không gặp phải tình trạng tắc nghẽn đồng bộ hóa hoặc tranh chấp bộ nhớ. Các thuật toán song song được thiết kế tốt thể hiện khả năng mở rộng gần tuyến tính, trong đó việc tăng gấp đôi số lượng lõi sẽ làm tăng gấp đôi thông lượng, nhưng nhiều ứng dụng thực tế gặp phải giới hạn của định luật Amdahl, trong đó các phân đoạn mã tuần tự hoặc chi phí đồng bộ hóa ngăn cản việc mở rộng hoàn hảo. Các nghiên cứu thực nghiệm về SMT trong các cụm HPC cho thấy việc cho phép đa luồng đồng thời đôi khi làm giảm hiệu suất ứng dụng từ 5 đến 15% đối với các khối lượng công việc được liên kết chặt chẽ, bởi vì sự cạnh tranh giữa các luồng đối với các đơn vị thực thi và dung lượng bộ nhớ đệm lớn hơn lợi ích của việc sử dụng tài nguyên được cải thiện. Phát hiện này trái ngược với các giả định phổ biến rằng nhiều luồng hơn luôn cải thiện thông lượng, làm nổi bật tầm quan trọng của việc đánh giá chuẩn cho từng ứng dụng cụ thể.

Khối lượng công việc AI và học máy đại diện cho một danh mục HPC chuyên biệt, ngày càng chi phối các quyết định mua sắm máy chủ. Việc đào tạo các mạng nơ-ron lớn đòi hỏi băng thông bộ nhớ lớn để cung cấp dữ liệu cho các đơn vị tính toán, xử lý song song mở rộng để tính toán cập nhật gradient trên hàng triệu tham số và thường được hưởng lợi từ Tăng tốc GPU khi các phép toán ma trận chiếm ưu thế trong khối lượng công việc tính toán. Kiến trúc CPU trở nên quan trọng đối với khối lượng công việc suy luận (áp dụng các mô hình đã được đào tạo vào dữ liệu mới), trong đó độ trễ thấp hơn và thông lượng cao hơn quan trọng hơn tốc độ đào tạo thô. Băng thông bộ nhớ cao hơn của AMD EPYC hỗ trợ kích thước mô hình lớn hơn và xử lý hàng loạt, trong khi các tiện ích mở rộng AVX-512 và Deep Learning Boost của Intel tăng tốc các phép toán suy luận cho một số kiến trúc mô hình nhất định. Các tổ chức xây dựng cơ sở hạ tầng suy luận nên đánh giá chuẩn các mô hình đại diện trên cả hai kiến trúc trong các mô hình lưu lượng sản xuất thực tế.

Lựa chọn bộ xử lý thực tế cho khối lượng công việc kinh doanh tại Singapore

Vị thế của Singapore là một trung tâm tài chính và công nghệ khu vực tạo ra các yêu cầu khối lượng công việc cụ thể, ảnh hưởng đến các quyết định về kiến trúc bộ xử lý. Các ứng dụng nhạy cảm với độ trễ như giao dịch thuật toán, xử lý thanh toán và hệ thống kiểm kê thời gian thực ưu tiên hiệu năng đơn luồng và thời gian phản hồi xác định hơn là thông lượng thô. Các ứng dụng này được hưởng lợi từ nền tảng Intel Xeon với tốc độ xung nhịp cao hơn và độ trễ giữa các lõi thấp hơn, trong đó cải thiện thời gian xử lý giao dịch ở mức micro giây chuyển thành lợi thế cạnh tranh. Ngược lại, các nền tảng thương mại điện tử xử lý lưu lượng truy cập tăng đột biến trong các sự kiện mua sắm khu vực (Ngày Độc thân, giảm giá cuối năm) được hưởng lợi từ mật độ lõi cao hơn của AMD EPYC, cho phép mở rộng theo chiều ngang tốt hơn các máy chủ ứng dụng web và hỗ trợ kết nối đồng thời cao hơn không có sự gia tăng chi phí cơ sở hạ tầng tương ứng.

Các công ty dịch vụ tài chính hoạt động tại Singapore cũng phải cân nhắc các yêu cầu pháp lý về lưu trữ dữ liệu, ghi nhật ký kiểm toán và phục hồi sau thảm họa, những yếu tố ảnh hưởng đến lựa chọn kiến trúc cơ sở hạ tầng. Các quy định về chủ quyền dữ liệu ngày càng yêu cầu dữ liệu khách hàng do các tổ chức tài chính tại Singapore xử lý phải nằm trong phạm vi thẩm quyền, thúc đẩy nhu cầu về năng lực trung tâm dữ liệu vận hành tại địa phương. Các lựa chọn kiến trúc CPU tương tác với các yêu cầu này thông qua các tính năng bảo mật nền tảng như Intel SGX (Phần mở rộng Bảo vệ Phần mềm) hoặc AMD SEV (Ảo hóa Mã hóa Bảo mật), cung cấp mã hóa bộ nhớ được thực thi bằng phần cứng để bảo vệ dữ liệu nhạy cảm ngay cả với các quản trị viên hệ thống có đặc quyền. Các tổ chức tuân thủ hướng dẫn quản lý rủi ro công nghệ của MAS (Cơ quan Quản lý Tiền tệ Singapore) nên đánh giá cách các tính năng bảo mật nền tảng tích hợp với khuôn khổ tuân thủ tổng thể đối với PDPA và các quy định cụ thể theo từng ngành.

Kết nối khu vực và cấu trúc mạng cũng ảnh hưởng đến cấu hình bộ xử lý tối ưu cho các triển khai tại Singapore. Các máy chủ được định vị để phục vụ thị trường ASEAN được hưởng lợi từ các cấu hình tối ưu hóa cho thông lượng tổng hợp thay vì độ trễ kết nối đơn lẻ, bởi vì khoảng cách địa lý đến người dùng cuối ở Jakarta, Bangkok hoặc Manila tạo ra độ trễ mạng vượt xa sự khác biệt về thời gian xử lý của CPU. Các mạng phân phối nội dung, nền tảng phát trực tuyến video và các ứng dụng SaaS phục vụ đối tượng khu vực thường triển khai các hệ thống AMD EPYC giúp tối đa hóa số kết nối trên mỗi máy chủ và khả năng xử lý trên mỗi đơn vị rack, giảm thiểu diện tích cơ sở hạ tầng tại thị trường trung tâm dữ liệu tương đối đắt đỏ của Singapore. Ngược lại, các ứng dụng chỉ phục vụ người dùng nội địa Singapore hoặc cung cấp quyền truy cập độ trễ thấp cho các sàn giao dịch tài chính khu vực ưu tiên các nền tảng Intel giúp giảm thiểu độ trễ xử lý cho mỗi giao dịch.

Máy chủ chuyên dụng Quape hỗ trợ quyết định về kiến trúc bộ xử lý của bạn như thế nào

Các dịch vụ máy chủ chuyên dụng của Quape bao gồm cả cấu hình Intel Xeon và AMD EPYC, phù hợp với nhiều cấu hình khối lượng công việc và hạn chế ngân sách khác nhau. Gói DS-Entry triển khai bộ xử lý Intel Xeon Silver 4110 phù hợp với môi trường phát triển, cơ sở hạ tầng thử nghiệm hoặc dịch vụ sản xuất nhẹ, ưu tiên hiệu quả chi phí hơn hiệu suất tối đa. Các cấu hình tầm trung như DS-Performance và DS-Pro Gold cung cấp các thiết lập Intel Xeon dual-socket với 24 đến 40 luồng và bộ nhớ ECC lên đến 512 GB, hỗ trợ cơ sở dữ liệu sản xuất, nền tảng ảo hóa và các ứng dụng tính toán chuyên sâu đòi hỏi hiệu suất cân bằng trên nhiều loại khối lượng công việc.

Tùy chọn xây dựng máy chủ riêng (BYOS) mở rộng tính linh hoạt tùy chỉnh cho các yêu cầu chuyên biệt mà cấu hình tiêu chuẩn không đáp ứng được. Gói DS-BYOS-EPYC cung cấp bộ xử lý AMD EPYC với 32 lõi và 64 luồng, mang lại mật độ lõi cao hơn so với các tùy chọn Intel tương đương với mức giá cao hơn vừa phải so với gói Intel BYOS. Cấu hình này phù hợp với các khối lượng công việc được hưởng lợi từ kênh bộ nhớ rộng hơn và thông lượng tổng hợp cao hơn của AMD, chẳng hạn như các dịch vụ vi mô dạng container, xử lý hàng loạt song song hoặc nền tảng lưu trữ đa thuê bao. Tất cả các gói máy chủ chuyên dụng bao gồm ổ SSD doanh nghiệp có xếp hạng độ bền cao (1+ DWPD), nguồn điện kép để dự phòng và triển khai tại các trung tâm dữ liệu Singapore Tier 3 với kết nối trung lập với nhà mạng.

Lựa chọn phần cứng doanh nghiệp cũng mở rộng ra ngoài thông số kỹ thuật CPU để bao gồm các tính năng về độ tin cậy của nền tảng, khả năng quản lý từ xa và vòng đời hỗ trợ của nhà cung cấp. Các nền tảng máy chủ Dell R440 và R640 được sử dụng trong các dịch vụ chuyên dụng của Quape tích hợp iDRAC (Bộ điều khiển truy cập từ xa Dell tích hợp) để quản lý ngoài băng tần, bộ điều khiển RAID phần cứng để dự phòng lưu trữ và khả năng tương thích thành phần đã được xác thực giúp giảm rủi ro tích hợp. Các tính năng cấp nền tảng này tương tác với các lựa chọn kiến trúc CPU: Hệ thống AMD EPYC yêu cầu cập nhật BIOS và chương trình cơ sở để tối ưu hóa việc xen kẽ bộ nhớ và phân nhánh PCIe, trong khi nền tảng Intel được hưởng lợi từ vi mã được cập nhật giúp giải quyết các lỗ hổng bảo mật và cải thiện hiệu suất cho các mẫu khối lượng công việc cụ thể. Cơ sở hạ tầng được quản lý của Quape xử lý việc bảo trì chương trình cơ sở nền tảng và xác thực khả năng tương thích, giảm gánh nặng vận hành cho những khách hàng không có nhóm cơ sở hạ tầng chuyên dụng.

Kết luận

Việc lựa chọn giữa máy chủ chuyên dụng Intel Xeon và AMD EPYC đòi hỏi phải kết hợp các đặc điểm kiến trúc với yêu cầu khối lượng công việc cụ thể, ưu tiên vận hành và thông số ngân sách. Nền tảng Intel mang lại lợi thế cho các ứng dụng luồng đơn nhạy cảm với độ trễ, trong khi AMD EPYC vượt trội trong các khối lượng công việc song song cao, hưởng lợi từ số lượng lõi và băng thông bộ nhớ lớn. Các yếu tố nền tảng bao gồm hỗ trợ tạo PCIe, khả năng ảo hóa, hiệu suất năng lượng và độ trưởng thành của hệ sinh thái nhà cung cấp thường có ảnh hưởng lớn đến hiệu suất thực tế như thông số kỹ thuật CPU thô. Các doanh nghiệp có trụ sở tại Singapore nên đánh giá các cấu hình khối lượng công việc tiêu biểu trong điều kiện thực tế trước khi quyết định lựa chọn kiến trúc bộ xử lý, vì các lựa chọn tối ưu khác nhau tùy theo loại ứng dụng và có thể phát triển khi khả năng của nền tảng được cải thiện. Đội ngũ của chúng tôi có thể giúp bạn đánh giá các yêu cầu khối lượng công việc cụ thể và đề xuất kiến trúc bộ xử lý phù hợp nhất cho nhu cầu cơ sở hạ tầng của bạn. Liên hệ với đội ngũ bán hàng của chúng tôi để thảo luận về các yêu cầu về máy chủ chuyên dụng và các tùy chọn triển khai của bạn.

Câu Hỏi Thường Gặp

Sự khác biệt chính về kiến trúc giữa bộ xử lý AMD EPYC và Intel Xeon là gì? AMD EPYC sử dụng thiết kế chiplet kết hợp nhiều đế CPU với một đế I/O riêng biệt, cho phép số lượng lõi cao hơn trên mỗi socket (lên đến 96 lõi), trong khi Intel Xeon thường sử dụng thiết kế đế đơn khối với tất cả các lõi được tích hợp trên một khối silicon duy nhất. Điều này ảnh hưởng đến khả năng mở rộng, năng suất sản xuất và độ trễ giao tiếp giữa các lõi.

Máy chủ AMD EPYC có hỗ trợ cùng nền tảng ảo hóa như Intel Xeon không? Có, bộ xử lý AMD EPYC hỗ trợ VMware vSphere, Hyper-V, KVM và các trình quản lý ảo hóa doanh nghiệp khác với các phần mở rộng ảo hóa tương đương (AMD-V so với Intel VT-x). Tuy nhiên, các nhà cung cấp phát hành hướng dẫn điều chỉnh dành riêng cho từng nền tảng để tối ưu hóa cấu hình NUMA và cài đặt bộ nhớ khác nhau cho từng kiến trúc.

Thế hệ PCIe ảnh hưởng đến hiệu suất lưu trữ trên máy chủ chuyên dụng như thế nào? PCIe 5.0 cung cấp băng thông gấp đôi PCIe 4.0 (32 GT/giây so với 16 GT/giây trên mỗi làn), cho phép SSD NVMe cung cấp thông lượng cao hơn mà không gây tắc nghẽn trên nền tảng I/O. Điều này rất quan trọng đối với máy chủ cơ sở dữ liệu, khối lượng công việc phân tích hoặc bất kỳ ứng dụng nào xử lý IOPS cao trên nhiều thiết bị lưu trữ.

Tôi có nên bật Hyper-Threading hoặc SMT cho mọi khối lượng công việc không? Không nhất thiết. Nghiên cứu thực nghiệm cho thấy SMT có thể cải thiện hiệu suất cho một số khối lượng công việc bằng cách sử dụng tốt hơn các đơn vị thực thi, nhưng có thể làm giảm hiệu suất cho các ứng dụng HPC được liên kết chặt chẽ hoặc các tác vụ bị giới hạn băng thông bộ nhớ do tranh chấp tài nguyên. Khuyến nghị nên thử nghiệm với các khối lượng công việc tiêu biểu.

Làm thế nào để xác định khối lượng công việc của tôi cần tốc độ xung nhịp cao hơn hay nhiều lõi hơn? Xác định mô hình sử dụng CPU của ứng dụng: nếu khối lượng công việc song song hóa tốt và sử dụng nhiều lõi cùng lúc (xử lý hàng loạt, mã hóa video, truy vấn song song), hãy ưu tiên số lượng lõi. Nếu khối lượng công việc thể hiện mức sử dụng luồng đơn cao hoặc yêu cầu độ trễ thấp (xử lý thời gian thực, ứng dụng tương tác), hãy ưu tiên tốc độ xung nhịp.

TDP có tác động như thế nào đến chi phí vận hành của máy chủ chuyên dụng? TDP xác định yêu cầu về công suất làm mát và tương quan với mức tiêu thụ điện năng, ảnh hưởng đến cả chi phí điện năng và chi phí cơ sở hạ tầng làm mát. Các trung tâm dữ liệu tiêu thụ từ 300 đến 380 TWh trên toàn cầu vào năm 2023, do đó, việc lựa chọn hiệu suất nền tảng rất quan trọng ở quy mô lớn, đặc biệt là đối với các triển khai nhiều rack.

Tôi có thể dễ dàng di chuyển khối lượng công việc giữa máy chủ chuyên dụng của Intel và AMD không? Hầu hết khối lượng công việc đều được di chuyển liền mạch ở cấp độ hệ điều hành và ứng dụng, nhưng đặc điểm hiệu suất có thể thay đổi do sự khác biệt về kiến trúc. Môi trường ảo hóa, ứng dụng đóng gói và phần mềm x86-64 tiêu chuẩn thường chạy trên cả hai nền tảng, mặc dù các cờ tối ưu hóa và tham số điều chỉnh có thể cần được điều chỉnh.

Khí hậu của Singapore ảnh hưởng như thế nào đến việc lựa chọn kiến trúc CPU cho máy chủ chuyên dụng? Khí hậu nhiệt đới của Singapore (nhiệt độ môi trường trung bình 27-28°C) làm tăng tải làm mát cho các trung tâm dữ liệu, khiến hiệu suất nhiệt và TDP liên quan chặt chẽ hơn đến chi phí vận hành. Bộ xử lý hiệu suất cao giúp giảm chi phí làm mát và mức tiêu thụ điện năng của cơ sở, đặc biệt là đối với các hệ thống triển khai dày đặc trong môi trường rack.

Andika Yoga Pratama
Andika Yoga Pratama

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *


LIÊN HỆ VỚI CHÚNG TÔI

Khởi đầu hành trình vươn tới ước mơ cùng chúng tôi. Chúng tôi luôn hướng đến sự đổi mới và biến ước mơ thành hiện thực.