Конструкция и охлаждение оборудования ЦОД

Моя цель - предложение широкого ассортимента товаров и услуг на постоянно высоком качестве обслуживания по самым выгодным ценам.

В статье будут рассмотрены варианты конструкции электронного оборудования для ЦОД, которые с одной стороны позволят кардинально увеличить отводимую тепловую мощность от оборудования, а с другой стороны реализовать простую и эффективную систему охлаждения ЦОД с близкой к идеалу PUE.

В данном случае не ставится цели оценить затраты на реализацию и эксплуатацию подобных решений. И глобально, даже необходимость их создания. Вполне понятно, что возможно нет запроса запихивать 40-50 кВт мощности в одну стойку. Но на перспективу, запрос на «уплотнение» ЦОДов и улучшение их энергоэффективности вроде существует, поэтому есть смысл рассмотреть варианты конструкций, которые могут их удовлетворить. С одной стороны никакой привязки к «экономике» не будет, но с другой стороны конструкции должны быть основаны на понятных и более-менее отработанных решениях с адекватной стоимостью. Т.е. перспективные наноматериалы с теплопроводностью алмаза и обрабатываемостью алюминия не рассматриваем. Возможная ценность данных рассуждений в том, чтобы попытаться переосмыслить подходы к конструированию оборудования и телекоммуникационных стоек. Принципы этих конструкций были заложены давным-давно и глобально они никак не поменялись. Для охлаждения на них просто навешиваются некие апгрейды, типа вентиляторов помощнее, или водяных плит на процессоры, или теплообменника в стойку. Получилось ли их пересмотреть можно оценить далее.

1. Требования к перспективной конструкции.

Сформулируем технические требования к нашей конструкции таким образом.

1) Мощность современной стойки 42U достигает 15 кВт. Наша перспективная конструкция должна обеспечивать мощность стойки 42U 40-50 кВт и «приемлемую» температуру корпусов электронных компонентов. Конкретную допустимую температуру корпусов ЭРИ оговорим далее. Мощность всегда принимается постоянная, т.е. вопрос непостоянства вычислительной нагрузки не рассматривается. Либо можно принять, что это некая усредненная мощность.

2) Конструкция должна обеспечивать легкую реализацию общей системы охлаждения ЦОД с PUE близкой к идеалу, будем считать, что это цифра равна 1,1.

Небольшая ремарка по цифре 1,1

Эта цифра обычно приводится для ЦОДов с адиабатическим охлаждением. Как именно она считается и какие затраты мощности учитывает в открытом доступе данных особо нет. Мы будем считать все затраты мощности на систему охлаждения, т.е. учитывать внутренние вентиляторы оборудования

Подробно систему охлаждения ЦОД рассматривать не будем, но должно быть понятно, как ее реализовать. Чуть позже детализируем, что понимается под «легкостью реализации». И здесь сразу оговорим температуру наружного воздуха. Примем ее 40°С. Цифра взята немного «с потолка», но на первый взгляд она представляется оправданной даже для стран с жарким климатом. Конечно, конкретная ее величина это также вопрос более детальной проработки.

3) Конструкция должна обеспечивать удобное обслуживание оборудования. Т.е. должна быть реализована возможность «горячей» замены модулей. Под модулем в данном случае будет пониматься печатная плата с одним процессором. Реальное наполнение данного модуля, процессор, видеопроцессор, несколько процессоров, память или что-то еще, мы глубоко рассматривать не будем. Это гораздо более сложный вопрос. Пока просто оговорим некий условный модуль (по сути, тепловую нагрузку) и будем строить конструкцию из этих модулей.

4) Конструкцию будем строить на основе реально существующих/продаваемых (возможно и не существующих, но реализуемых путем понятных изменений существующих) компонентов и материалов. Также конструкция должна быть рассчитана на массовые индустриальные электронные компоненты и стандартные печатные платы. Какие-то кастомные решения не рассматриваем.

Определившись с требованиями, будем детализировать элементы системы. И начнем с системы охлаждения ЦОД.

2. Описание системы охлаждения ЦОД.

Как уже говорилось ранее, детально систему охлаждения ЦОД описывать не будем. Оговорим только, что подразумевается под «легкостью реализации» из п.1.2 и требования, которые это наложит на конструкцию оборудования. Для начала классифицируем известные системы охлаждения ЦОД. Глобально их можно разделить на два класса по типу охлаждающего агента: воздушные и водяные. В свою очередь, воздушные, можно разделить на следующие классы:

1) Охлаждение воздуха с помощью кондиционеров.

2) Охлаждение воздуха с помощью системы чилер-фанкойл. Чилер охлаждает жидкость, перекачивая тепло во внешнюю среду, а фанкойл охлаждает воздух, продувая его через теплообменник, через который циркулирует холодная жидкость.

3) Адиабатическое охлаждение. Охлаждение продуваемого воздуха за счет распыления в нем воды и ее испарения в потоке воздуха. Соответственно часть теплоты воздуха переходит в теплоту водяных паров, температура воздуха при этом падает, влажность повышается.

Также можно выделить два принципиальных способа жидкостного охлаждения.

4) Водяное охлаждение «холодными» плитами (водяными блоками). Т.е. непосредственно на тепловыделяющие элементы ставится «плита» через которую циркулирует холодная жидкость.

5) Охлаждение полным погружением оборудования в циркулирующую жидкость.

Все указанные системы охлаждения обладают определенными недостатками.

Для систем 1,2 PUE дата-центров ограничены КПД холодильного цикла, т.е. достигнуть близких к идеальным PUE порядка 1,1 невозможно принципиально. Плюс само оборудование является достаточно сложным и дорогим.

Системы 3 требуют расхода воды для их работы и не могут охладить воздух ниже температуры мокрого термометра. Т.е. если внешний воздух повышенной влажности, то реализовать фрикулинг будет затруднительно.

Также в системах 1,2,3 в PUE видимо не учитывается потребляемая мощность внутренних вентиляторов оборудования, которая может составлять 5-10% от общей потребляемой мощности сервера.

Системы 4 получаются сложными конструктивно.

Системы 5 пожароопасны (из-за необходимости применения диэлектрических масел в качестве охлаждающей жидкости). Видимо, очень неудобны в обслуживании.

Итак, пришло время сформулировать, что такое «легкость реализации» для системы воздушного охлаждения ЦОД. Самое простое, что может быть – это охлаждение наружным воздухом без какого-либо предварительного охлаждения. Т.е. оборудование должно охлаждаться воздухом с входной температурой 40°С. Этого вполне реально добиться, но «честно» посчитанный PUE для воздушного охлаждения вряд ли достигнет цифры 1,1.

Более перспективной представляется система жидкостного охлаждения. Требования к ее «легкости» сформулировать сложнее. Оттолкнемся от понятных недостатков жидкостной системы охлаждения типа 4 (тип 5 рассматривать большого смысла не вижу). Проблема может быть в большом количестве стыков, которые могут протекать, и в необходимости сборки-разборки данных стыков при обслуживании/замене оборудования. Либо в сложности сборки-разборки самого оборудования. Т.е. понятно, что можно реализовать систему трубок и водяных плит внутри сервера и при этом у нас будет два водяных стыка на один сервер, но замена, скажем, процессора в сервере будет невозможна без разборки стыков и полной разборки сервера. Поэтому требования сформулируем таким образом:

1) Начальная температура воды для охлаждения те же 40°С.

2) Минимальное количество стыков в пересчете на один процессорный модуль. Тут сложно сказать какая цифра будет хорошей. Но просто оттолкнемся от конструкции, которая будет описана далее. Это порядка 20 процессорных модулей (1 сервер 3U) на 2 стыка. На самом деле можно получить меньше или больше в зависимости от выбранного размера модулей и высоты сервера.

Конечно, идеал в данном случае – это два стыка на стойку. Т.е. некая холодная плита или связанные плиты внутри стойки, от которых охлаждается внутреннее оборудование. Тогда стыки необходимо разбирать только при замене самого конструктива стойки. Такое реализовать можно, но это будет более сложная конструкция.

3) Возможность замены модулей без разборки водяных стыков. Т.е. модули из сервера мы достаем и меняем, не трогая стыки. Для замены сервера целиком разбираем два стыка.

Также упомянем, что возможность реализации водяного охлаждения для всех видов оборудования внутри ЦОД позволит реализовать самую эффективную систему охлаждения. Необходимо охлаждать только воду до температуры внешнего воздуха (в принципе, можно охлаждать и ниже, используя градирни, но это добавить некоторые ограничения, как для адиабатического охлаждения). Это можно сделать с помощью пруда-охладителя или забирать воду из ближайшей реки и возвращать туда же. Для работы системы необходимы будут только насосы и фильтры. Их суммарная мощность должна быть ниже мощности вентиляторов на аналогичные мощности охлаждения. С другой стороны, если понятно, как реализовать подобную конструкцию для модулей типа процессоров, графических процессоров, SSD, RAM, преобразователей питания, то HDD, аккумуляторы могут вызвать затруднения.

Прежде, чем перейти к самой конструкции необходимо также уточнить вопрос с допустимой температурой корпусов ЭРИ.

3. Температурный режим электронных компонентов.

  Конечно, допустимая температура корпусов ЭРИ должна определятся по результатам анализа надежности. В данном случае мы не будем углубляться в этот вопрос. Возьмем типичный процессор, просто в качестве отправной точки для дальнейших рассуждений. Например, Intel Xeon Gold 5220R. В спецификации производителя указана максимальная допустимая температура корпуса Tcase=86°С. Опять же, не углубляясь в вопросы тепловых сопротивлений кристалл-корпус и режимы работы оборудования, возьмем запас по максимальной температуре в 10°С и немного округлим, соответственно максимально допустимая температура корпуса процессора в наших модулях будет 75°С. Запас необходим, хотя бы на неточность моделирования МКЭ. Итак, общий перепад температур, который должна обеспечить конструкция оборудования 75-40=35°С.

4. Предварительный анализ перепада температур.

 Остановимся подробнее на анализе отдельных составляющих общего перепада температур. Этот общий перепад можно представить как сумму последовательных перепадов на разных частях конструкции от корпуса процессора до входного потока воздуха. Пока будем считать, что наша расчетная схема состоит из последовательно соединенных тепловых сопротивлений (эквивалент закона Ома, который часто используется для теплового анализа).

∆T_{all}=\sum^n_{i=1}∆T_{i}, где ∆T_{all}=35°С,

∆T_i- перепад температуры на одном из элементов конструкции.

Первый ∆T_i, который неизбежно появится независимо от того, какая будет конструкция – это перепад температуры охлаждающего агента. Если сначала рассматриваем воздушное охлаждение, то это будет нагрев воздуха, т.е. разница температур на входе в оборудование и на выходе. Собственно все тепло, которое выделилось в оборудовании, должно быть «унесено» продуваемым воздухом. Зная плотность и теплоемкость воздуха при заданной температуре, несложно посчитать требуемый расход при заданном перепаде температур ∆T_{air}. Пока возьмем мощность сервера 3U равной 3,6кВт. Далее рассмотрим эту цифру подробнее, пока просто используем как факт. И чтобы рассчитать требуемый расход воздуха надо определиться, сколько градусов из ∆T_{all}  мы готовы выделить на нагрев воздуха. Например, если выделяем 15°, то на все остальное остается 20°. Это на самом деле довольно мало. Но пока примем так. Посчитаем расход воздуха.

Q_{air}=P_{unit}⁄(∆T_{air}×ρ_{air}×C_{p.air} )где P_{unit}  – мощность сервера, 3,6 кВт,

∆T_{air}– перепад температур воздуха, 15°С

   ρ_{air} – плотность воздуха при заданной температуре. Возьмем температуру 50°С, тогда плотность равна 1,093 кг/м3

  C_{p.air}  – теплоемкость воздуха при заданной температуре, 1005 Дж/(кг·К) при 50°С.

Тогда Q_{air}=0,218 м3/с.

Попробуем сразу подобрать вентилятор на подобный расход. Конечно, сначала необходимо определиться с типоразмером вентилятора, а он в свою очередь зависит от конструкции оборудования. И для начала рассмотрим конструкцию, в которой будет использоваться один радиатор для охлаждения всего «сервера» 3U. Максимальный стандартный типоразмер вентилятора, который поместится в высоту 3U 120x120мм. Возьмем один из самых мощных предлагаемых вентиляторов модель THA1248BE производителя Delta Electronics.

График производительности и характеристики вентилятора приведены на картинках ниже.

Рис.1
Рис.1

Мы видим, что максимальный расход воздуха, который может выдать вентилятор равен 9,01 м3/мин, что соответствует 0,15 м3/с. Что уже меньше, чем рассчитанный ранее расход. В реальности расход воздуха, выдаваемый вентилятором, будет еще меньше, т.к. указанный максимальный соответствует нулевому воздушному сопротивлению. Создаваемый вентилятором перепад давления разбивается на две составляющих.

  ∆P_{fan}=∆P_{fan.dyn}+ ∆P_{fan.stat}, где

∆P_{fan.dyn}- динамический напор вентилятора, который характеризируется кинетической энергией потока и соответственно скоростью потока. Т.е. это та часть мощности вентилятора, которая «тратится» на создание скорости и соответственно расхода воздуха.

∆P_{fan.stat}- статический напор вентилятора, который необходим на преодоление аэродинамического сопротивления радиатора.

Численное моделирование показывается, что статический напор для радиатора с длиной 600-700мм (глубина сервера) с большим количеством ребер будет лежать в пределах 150-1000 Па, соответственно расход выдаваемый вентилятором придется поделить минимум на два. Для указанного вентилятора это будет порядка 0,075 м3/с. Т.е. нам понадобится эквивалент трех указанных вентиляторов для достижения нужного расхода. На текущий момент такого вентилятора в данном типоразмере не существует, т.к. в нем, видимо, нет потребности, но создание его представляется выполнимым. Либо можно взять четыре вентилятора 60x60мм, либо девять 40x40, у которых гораздо шире выбор по мощности и расходам. С точки зрения надежности так будет даже лучше. Для дальнейших рассуждений просто умножим характеристику вентилятора по оси X (расход) и потребляемую мощность на три. Т.е. 300Вт мощности уже будет использовано для охлаждения внутри самого устройства. Наш PUE уже равен 3,9кВт/3,6кВт = 1,08. Проблема здесь в том, что чем больше мы хотим уменьшить ∆T_{air}, тем сильнее будет расти мощность всех используемых вентиляторов, т.к. пропорционально растет требуемый расход воздуха. Меньше 15° эту составляющую лучше не делать. И прежде, чем перейти к моделированию первого варианта конструкции рассмотрим еще одну ∆T_{i}, чтобы понять, сколько остается на внутренние сопротивления конструкции. Это перепад температуры на ребрах радиатора, ∆T_{rad} .

По-хорошему нельзя выделить на эту составляющую больше 10°, иначе на все остальные перепады останется меньше 10°С. Прикинем, каким будет перепад температуры на ребрах в случае использования одного радиатора на сервер. Размеры радиатора в этом случае будут понятны 120x120мм по размеру вентилятора и длина равная глубине оборудования за вычетом толщины вентилятора. Если глубина оборудования 700мм, то длина радиатора будет примерно 600мм, 100мм оставим на толщину вентилятора. Понятно, что можно поставить рядом два радиатора и вентилятора, заняв таким образом площадь 120x240мм, но это фактически «съест» половину объема 19 дюймовой стойки (ну или придется увеличить ширину стойки), поэтому для начала попробуем ужаться.

Итак, из ширины радиатора 120мм будем считать, что примерно половина приходится на ребра, остальное на воздушные промежутки между ними. Перепад температуры в твердом теле при условии равномерности теплового потока рассчитывается следующим образом.

∆T_{rad}=P_{unit}×L_{fin}⁄(λ_{rad}×S_{fin.sec} ), где L_{fin}  – длина ребра 0,06м. Учитываем только половину длины ребра 60мм вместо 120мм, т.к. считаем, что тепло равномерно снимается потоком воздуха по всей длине, т.е. на половине длины тепловой поток будет уже 1,8 кВт, и далее будет линейно уменьшаться до нуля. При этом перепад температуры будет эквивалентен перепаду температуры на половине длины твердого тела, при условии, что вся мощность снимается в конце.

λ_{rad}  – теплопроводность материала радиатора. Возьмем «среднюю» теплопроводность алюминиевого сплава (другие варианты для материала радиатора рассмотрим далее) 120 Вт/(м*К).

S_{fin.sec} – площадь сечения ребра, 0,06x0,6=0,036м2

В итоге получаем: ∆T_{rad}=46°, что недопустимо много. Можно поделить эту цифру на два, если предположить, что источник тепла расположен посередине ребра, т.е. L_{fin}=0,03 м . И все равно 23°С – это слишком много. Опять же можно использовать медь в качестве материала радиатора, λ_{rad}=380 Вт/(м*К), либо чистый алюминий с порядка 200 Вт/(м*К). Радиаторы из чистого алюминия, насколько мне известно,  используются и наверняка дешевле, чем радиаторы из меди и естественно легче. Остановимся на таком материале. Тогда ∆T_{rad}=13,8°, уже близко к тому чего мы добиваемся.

Рассмотрим проблему с другой стороны. Мощность, отводимая от поверхности при конвективном теплообмене, описывается следующей формулой:

P=αSΔT , где α – коэффициент конвективной теплоотдачи,

S – площадь поверхности, ΔT – перепад температур между воздухом и поверхностью.

Для начала посчитаем площадь одного ребра S_{fin}=0,6×0,12×2=0,144 м2.

Коэффициент α  аналитически рассчитывать не будем, в этом нет большого смысла, все равно дальнейший расчет будет вестись методом КЭ. Для оценки воспользуемся онлайн калькулятором http://www.heatgroup.eesc.usp.br/tools/1111.php. Для его использования необходимо также посчитать скорость потока воздуха согласно простой формуле:

v=Q_{air}/S_{pipe}, где S_{pipe}  – площадь воздуховода, в данном случае 120x120/2=0,0072 м2. Тогда скорость потока в радиаторе будет 30,3 м/с. Конечно, это очень много (практически ураган) и наверняка очень шумно. На примере данного числа уже видно, что отвод подобной мощности с таких объемов может вызвать другие проблемы. Но пока продолжим рассуждения.

Для рассчитанной скорости и длины поверхности 0,6м калькулятор дает  α=27 Вт/м2К. В калькуляторе предполагается одинаковая температура по всей поверхности, что в нашем случае не так. На самом деле температура ребер будет расти, как в направлении от тепловыделяющей поверхности к вершинам ребер, так в направлении «внутрь» устройства, от «холодного» коридора к «горячему». И по опыту при указанной скорости потока значение α=27выглядит очень низким. Если в калькуляторе указать длину 0,1м, то α=66Примем это значение, дальнейшие расчеты МКЭ показывают, что  оно более чем достижимо. Т.о. при перепаде температур 15°С с одного ребра можно снять 142 Вт мощности. Тогда количество необходимых ребер 3600/142=25шт. В ширину 120мм вполне возможно уместить такое количество. Видим, что коэффициент конвективной теплоотдачи и площадь ребер радиатора не должны быть лимитирующим фактором для подобных конструкций.

Итак, что мы видим по итогу данных рассуждений:

1) Получить перепад температур в 35°С при использовании алюминиевых радиаторов сложно, наиболее реально это при условии непосредственного расположения радиаторов на тепловыделяющих компонентах. Т.к. перепад температур по конструкции должен получаться не более 10°С, а это довольно мало, если использовать конструкцию, которая должна собрать тепло от многих модулей в один радиатор. Но эту конструкцию мы все равно рассмотрим, т.к. она будет отправной точкой для конструкций с водяным охлаждением и будет иметь другие не очевидные преимущества.

2) Самым лимитирующим фактором является высота ребер алюминиевого радиатора. Т.е. для выбранного форм-фактора радиатора едва получается обеспечить нужный перепад температур по ребрам. По-хорошему надо увеличивать ширину радиатора, чтобы уменьшить высоту, что в свою очередь приведет к раздуванию объема оборудования. Либо необходимо кардинально увеличить теплопроводность ребер.

Далее от общих рассуждений перейдем к рассмотрению различных вариантов конструкций. И начнем с конструкции модуля.

5. Конструкция модуля.

Как мы уже говорили ранее, модуль представляет собой печатную плату с одним процессором. Исходя из высоты оборудования 3U и глубины 700мм, можно задать размер печатной платы 340x105 мм. Вид печатной платы представлен на рисунке.

Рис.2
Рис.2

В центре расположен процессор, который был выбран ранее Intel Xeon Gold 5220R габаритными размерами 60x50мм, это примерные размеры верхней крышки процессора, а не самого корпуса, т.к. для теплоотвода важна только эта площадь. Сверху ряд компонентов размером 15x8мм, которыми условно обозначены прочие тепловыделяющие компоненты. Справа снизу расположен кросс-платный разъем, который смотрит «вниз». Вопрос о том, почему он расположен именно так, пока оставим. Эта плата, как уже упоминалось выше, – по сути, тепловая нагрузка, без привязки к какому-либо электрическому дизайну, но тем не менее пара слов о том почему выбрана такая «архитектура» оборудования. А именно кросс-плата с разъемами, в которую могут «втыкаться» различные активные модули. С точки зрения конструктора такая «архитектура» дает преимущество по сравнению с обычной конструкцией серверов: материнская плата с несколькими процессорами, в которую втыкаются «райзеры». Это возможность реализовать «горячую» замену/апгрейд любого процессора, SSD-диска, видеокарты и т.п. без разборки оборудования. Т.е. любой модуль может доставаться с лицевой, либо задней панели оборудования. Современная «соединительная» промышленность предлагает кросс-платные разъемы (для «слепого» монтажа) с любыми типами контактов: высокоскоростные, силовые, ВЧ и т.д. и очень высокой плотности. Для примера можно использовать разъемы samtec xcede. Для использованной ширины 55мм в такой разъем можно вместить порядка 300 высокоскоростных контактов и блок силовых контактов 6шт. по 10А каждый. Т.е. задача связи нескольких процессоров или памяти с процессорами представляется решаемой. Единственное, что смущает – это возможная длина связи между различными модулями, которая может получится в районе 1м. Также с точки зрения конструкции – это наиболее сложная «архитектура». Почти любая конструкция, где мы соберем несколько модулей в блоки и будем обеспечивать только горячую замену блоками будет проще. Конечно, можно придумать более сложные конструкции из блоков, но в общем вышеприведенное утверждение будет верно. Чем сильнее мы разбиваем конструкцию на мелкие элементы замены, тем она сложнее. Далее рассмотрим тепловыделение элементов модуля.

Общее тепловыделение принято равным 200Вт и оно распределяется следующим образом:
Процессор – 150Вт
10 «прочих» тепловыделяющих компонентов по 4Вт каждый, всего 40Вт.
Остальные 10Вт равномерно распределены по объему печатной платы и учитывают прочие мелкие тепловыделения в резисторах, индуктивностях, проводниках и т.п.

Далее возможны два принципиально разных варианта конструкции модуля, по крайней мере, я так вижу принципиальную разницу.

  1. Тепло будет сниматься с одной из «сторон» модуля для последующей «передачи» тепла с нескольких модулей на общий радиатор.

  2. Тепло будет сниматься непосредственно с радиатора, расположенного на модуле.

Конструкции типа 2) лучше подходят для воздушного охлаждения. Воздух обладает низкой плотностью и соответственно очень низкой теплоемкостью в пересчете на объем. Поэтому попытка собирать тепло на один радиатор от нескольких модулей приводит к высоким скоростям потока. А также при воздушном охлаждении у нас есть дополнительный ∆T_{rad}которого фактически нет в случае водяного охлаждения. Конечно, можно попробовать подключать к радиаторам воздуховоды с повышенным давлением, но вряд ли это будет экономически оправдано. Соответственно, конструкции модулей типа 1) больше подходят для водяного охлаждения, т.к. вода позволяет реализовать принципиально другие плотности теплопередачи и такие конструкции позволят ужимать объем оборудования и также создавать конструкции, у которых будет минимальное количество водяных стыков. Но мы, как и обещали, сначала пойдем по пути наибольшего сопротивления и посчитаем конструкцию сервера с воздушным охлаждением и модулями типа 1).

Итак, тепло с приведенной выше печатной платы будем снимать с нижней («длинной») поверхности. Низ и верх тут условен, важнее, что необходимо выбрать именно длинную сторону, т.к. короткая на первый взгляд выглядит «привлекательнее», но чтобы снимать тепло с нее необходимо повышать плотности тепловых потоков и «длину» передачи тепла, что сильно затрудняет задачу. Итак, нижняя поверхность – это та, где расположен кросс-платный разъем.

С торца платы снять тепло невозможно, поэтому необходимо ставить на печатную плату некий радиатор, который будет снимать тепло с крышек компонентов, а также тепло, выделяющееся непосредственно в печатной плате, и передавать его на плиту, которая соберет тепло от нескольких модулей. Также тепловой поток придется «развернуть» на 90°, т.к. с торца радиатора его снять не получится. И связано это с необходимостью обеспечить тепловой интерфейс между радиатором модуля и плитой. Площадь этого интерфейса должна быть сильно больше, чем площадь торца радиатора, т.к. все интерфейсы, которые будут «разборными» будут иметь не очень большую теплопроводность и для приемлемого перепада температур необходимо увеличивать их площадь, а тепловые интерфейсы, которые обеспечат идеальный тепловой контакт, типа пайки или сварки, будут неразборными. Вопрос тепловых интерфейсов мы рассмотрим позже, чтобы не перегружать рассуждения.

Сразу можно сказать, что делать радиатор из алюминия бесполезно, т.к. ∆T_{mod}– перепад температуры по конструкции модуля должен быть порядка 5°, т.к. 15+10° из общего перепада мы уже «забронировали» ранее, а есть еще плита, в которой тоже будет ∆T_{plate}а еще перепады температур на упомянутых тепловых интерфейсах. Попробуем для начала добавить в алюминиевый радиатор тепловые трубы (далее ТТ). Довольно простое и дешевое решение. Общий вид такого радиатора представлен на рисунке.

Рис.3
Рис.3

Алюминиевая часть представляет из себя уголок толщиной 10мм. Высота всех компонентов на печатной плате для простоты взята одинаковой, для разной высоты можно делать локальные утолщения (бобышки) на радиаторе. Эти бобышки могут добавить 1-2° перегрева компоненту при значительной толщине в несколько мм. Принцип должен быть такой, что самый тепловыделяющий элемент (процессор) или самый перегревающийся, должен контактировать непосредственно с радиатором, а прочие через бобышки. То же касается толщин тепловых интерфейсов, т.е. радиатор должен прижиматься к самому тепловыделяющему компоненту и обеспечить с ним минимальную толщину теплового интерфейса), но пока не будем углубляться в этот вопрос. Вид сбоку представлен на рисунке

Рис.4
Рис.4

Площадь теплоотводящей поверхности будет 280x30мм. Три ТТ проложены вдоль длинной стороны радиаторы. Их цель распределить общее тепло процессора на всю длину радиатора. В данном случае перепад температуры по радиатору (как по твердому телу) будет условно складывать из двух составляющих. Перепад сверху вниз, от процессора, и перепад вбок вдоль длинной стороны. Т.е. тепло не будет распространяться вертикально вниз, оно будет также растекаться вдоль. И чем сильнее оно растечётся вдоль, тем больше будет общая площадь сечения «задействованная» для передачи тепла вниз. Чтобы задействовать всю площадь сечения можно использовать ТТ проложенные таким образом.

Для моделирования ТТ воспользуемся калькулятором производителя. В частности этим https://celsiainc.com/resources/calculators/heat-pipe-calculator/. Т.к. в данном случае у нас один испаритель и два конденсатора, источник тепла расположен ровно посередине, то можно разбить ТТ на два одинаковых куска, у которых испаритель равен половине длины процессора, а конденсатор половине длины радиатора за вычетом длины процессора. Введем следующие параметры в калькулятор: длину ТТ – 140мм, длину испарителя – 30мм, длину конденсатора – 100мм (оставим небольшой запас 10мм). Тип ТТ стандартная, температуру эксплуатации 60°. Получаем следующие результаты, ниже на рисунках.

Рис.5
Рис.5
Рис.6
Рис.6

На рис.5 мы видим эквивалентную теплопроводность ТТ, будем использовать ТТ диаметром 10мм. λ_{hp.mod}=15615Вт/м*К. Следующий график – зависимость передаваемой мощности от угла ориентации ТТ относительно силы гравитации. В том случае, если конденсатор ТТ расположен над испарителем сила тяжести будет помогать конденсированному теплоносителю стекать вниз к источнику тепла. Если наоборот, то будет мешать и силы поверхностного натяжения должны преодолевать силу тяжести, чтобы фитиль мог смачиваться. От ориентации кардинально зависит передаваемая мощность. В данном случае угол равен 0°, ТТ расположены параллельно земле. Нам нужна передаваемая мощность на одну ТТ – 50Вт. Рекомендуется брать эту мощность с запасом 20-25%. В данном случае легко проходим. Следующий график – это зависимость перепада температур от мощности и соответствующая таблица. В нашем случае температура будет лежать между 2,8° и 5,6°. Судя по цифрам зависимость линейная, поэтому мощности 50Вт будем соответствовать перепад температуры 3,5°. С другой стороны можно посчитать этот перепад исходя из приведенной выше λ_{hp.mod}и площади сечения ТТ диаметром 10мм по той же формуле, что использовалась для расчета перепада температуры по длине ребра радиатора.

Длина пути считалась по формуле половина длины испарителя плюс половина длины конденсатора плюс запас 10мм. По тому же принципу, который использовался для расчета перепада температуры по длине ребра радиатора. Результат получился несколько отличным от таблицы. Без консультации с производителем сложно сказать, в чем причина. В данном случае просто упростим себе жизнь и в модели используем уменьшенную теплопроводность
λ_{hp.mod}=15615×3.05/3.5=13607 Вт/м*К

Также в последней таблице мы видим допустимую толщину для сплющивания тепловой трубы. В данном случае удобнее использовать сплющенные ТТ, будем их моделировать прямоугольником 4x10мм. Площадь этого прямоугольника почти в два раза меньше, чем площадь круга диаметром 10мм, что в данном случае делать с теплопроводностью не совсем ясно, предположим худшее и оставим ее такой же, как для круглой ТТ.
Тепловые интерфейсы между элементами модели зададим следующим образом (пока без пояснений, чтобы не перегружать рассуждения. Проблему тепловых интерфейсов рассмотрим позже).

Радиатор – крышка процессора и ТТ – крышка процессора – 40000 Вт/м2*К.
Радиатор – крышка прочих тепловыделяющих компонентов – 6000 Вт/м2*К.
ТТ – радиатор – объединяющий интерфейс, будем считать, что ТТ припаяны к радиатору.
Нижняя поверхность процессора – печатная плата – 500 Вт/м2*К, будем считать, что процессор установлен в сокет, т.е. тепловой интерфейс между его контактами и печатной платой будет плохой.
Нижняя поверхность тепловыделяющих компонентов – печатная плата – 8000 Вт/м2*К, будем считать, что это BGA – компоненты.
Радиатор – печатная плата – 10000 Вт/м2*К.
Теплопроводность алюминиевого радиатора 150 Вт/м*К.
Теплопроводность печатной платы анизотропная 0,4 Вт/м*К перпендикулярно плоскости, 30 Вт/м*К в плоскости.
Температура нижней поверхности (контактирующей с плитой) 70°С.
Запустим расчет и посмотрим, что получается.

Рис.7
Рис.7

Результат неудовлетворительный. Температура корпуса процессора получилась 90°С, температура корпусов прочих компонентов 93,7°С. Т.е. вместо ∆T_{mod}=5°мы получили 20-25°С. По итогу можно сказать, что для получения требуемой ∆T_{mod}требуется передавать тепло исключительно ТТ, любые теплопередачи через значительные длины твердых тел приводят к недопустимому перепаду температур. Есть два пути:

  1. Использовать гнутые ТТ, у которых конденсатор будет проходить по нижней поверхности радиатора. Более дешевое решение, но с ним возникает ряд конструктивных проблем: теплоотвода от прочих компонентов, расположенных вне зоны, где проложены ТТ, габаритов модуля из-за радиуса изгиба ТТ и т.п.

  2. Можно применить испарительную камеру (vapor chamber). Более универсальное и несколько более дорогое решение. По принципу действия испарительная камера (далее ИК) и ТТ не отличаются. Различия только в конструктивном исполнении. Далее будем применять ИК. Но конечно, в зависимости от типа модуля и его реального тепловыделения можно применить и радиатор с изогнутыми тепловыми трубами.

Моделировать ИК по тому же принципу не получится. Моделировать их в виде твердых тел с очень большой теплопроводностью не совсем верно и не понятно какую брать теплопроводность. По современным представлениям выделяют следующие тепловые сопротивления в такой двухфазной системе. Передача тепла через стенку ИК, далее через толщину пористого фитиля, который с точки зрения моделирования можно представить, как медь, но с уменьшенной в несколько раз

Источник: https://habr.com/ru/articles/746904/


Интересные статьи

Интересные статьи

Мы уже не первый год помогаем российским компаниям строить и развивать инфраструктуру. Параллельно прокачиваем собственный сервис и расширяем парк оборудования. Сегодня у нас самый большой в Москве ск...
Продолжаю мониторить ситуацию в технологическом секторе. Расскажу, что изменилось за последний месяц. (Еще есть обзоры по западным публикациям.)
Системы охлаждения совершенствуются, но отвод тепла от электронных компонентов по-прежнему основан на использовании вентиляторов и массивных радиаторов. Можно изолировать холодные или горячие коридоры...
Знали ли вы о том, что следующий bash-скрипт способен выполнять произвольный код, который предоставит ему пользователь в ответ на запрос скрипта о вводе данных? Читать д...
В первой части я рассказал про концепцию проекта. Во второй части разбираем конструкцию робота MIRO по косточкам (много картинок).