Зейн: Да, я думаю, за последние три-четыре года появился ряд инициатив. Intel сыграла большую роль в этом, а также в переосмыслении того, как серверы объединяются в модульные компоненты. И на самом деле модульность серверов — это именно то, что кажется. Мы разбиваем различные подсистемы сервера на несколько стандартных строительных блоков и определяем некоторые интерфейсы между этими стандартными строительными блоками, чтобы они могли работать вместе. И это имеет ряд преимуществ. Во-первых, с точки зрения устойчивости, это снижает содержание углерода в этих аппаратных компонентах. Некоторые из этих аппаратных компонентов довольно сложны и энергоемки в производстве. Представьте себе, например, что 30-слойная печатная плата представляет собой довольно углеродоемкую аппаратную часть. Мне не нужна вся система, если только небольшая ее часть нуждается в такой сложности. Я могу просто заплатить цену сложности там, где мне это нужно.
И разумно подходя к тому, как мы разбиваем дизайн на отдельные части, мы уменьшаем этот воплощенный углеродный след. Также становится возможным повторное использование деталей. Поэтому, когда мы модернизируем систему, возможно, используя новый подход к телеметрии или новую технологию безопасности, необходимо заменить лишь небольшую печатную плату, а не заменять всю систему. А может быть, выйдет новый микропроцессор и можно будет заменить процессорный модуль, не вкладывая средства в новые блоки питания, новое шасси, новое все. Таким образом, цикличность и повторное использование становятся значительными возможностями. Таким образом, этот аспект воплощения углерода, который составляет около 10% углеродного следа в этих центрах обработки данных, может быть значительно улучшен. И еще одно преимущество модульности, помимо устойчивости, заключается в том, что она просто снижает инвестиции в исследования и разработки. Итак, если я собираюсь разработать сотню различных типов серверов, если я смогу построить эти серверы на основе одних и тех же строительных блоков, только сконфигурированных по-разному, мне придется вкладывать меньше денег и времени. И это также является реальной движущей силой перехода к модульности.
Лорел: Так какие же из этих методов и технологий, такие как жидкостное охлаждение и вычисления сверхвысокой плотности, крупные предприятия могут использовать для более эффективных вычислений? И как они влияют на потребление воды, энергии и общую производительность, как вы обрисовали ранее?
Зейн: Да, это две, я считаю, очень важные возможности. И давайте просто возьмем их по одному. Я думаю, что в развивающемся мире искусственного интеллекта жидкостное охлаждение, вероятно, является одной из самых важных возможностей, которые легко висят в воздухе. Таким образом, в центре обработки данных с воздушным охлаждением огромное количество энергии уходит на вентиляторы, чиллеры и системы испарительного охлаждения. И это на самом деле значительная часть. Таким образом, если вы переведете центр обработки данных на решение с полностью жидкостным охлаждением, это позволит снизить энергопотребление примерно до 30%, что является своего рода вау-цифрой. Я думаю, люди часто удивляются, сколько энергии сжигается. А если вы зайдете в центр обработки данных, вам практически понадобится защита для ушей, потому что там очень громко, и чем сильнее нагреваются компоненты, тем выше становится скорость вращения вентиляторов, и тем больше энергии сжигается на стороне охлаждения, а жидкостное охлаждение требует много времени. это со стола.
Что компенсирует это жидкостное охлаждение, немного сложно. Не каждый может использовать его в полной мере. Это требует больше первоначальных затрат, но на самом деле это экономит деньги в долгосрочной перспективе. Таким образом, общая стоимость владения жидкостным охлаждением очень выгодна, поскольку мы проектируем новые центры обработки данных с нуля. Жидкостное охлаждение — это действительно захватывающая возможность, и я думаю, что чем быстрее мы перейдем к жидкостному охлаждению, тем больше энергии мы сможем сэкономить. Но это сложный мир. Есть много разных ситуаций, много разных инфраструктур, которые нужно проектировать. Поэтому не следует преуменьшать важность этого для отдельного предприятия. Еще одним преимуществом жидкостного охлаждения является то, что мы избавляемся от необходимости испарять воду для охлаждения. Многие центры обработки данных Северной Америки расположены в засушливых регионах и используют большое количество воды для испарительного охлаждения.
Это хорошо с точки зрения энергопотребления, но потребление воды может быть поистине чрезвычайным. Я видел, как только в центрах обработки данных Северной Америки цифры приближаются к триллиону галлонов воды в год. А во влажном климате, например, в Юго-Восточной Азии или восточном Китае, возможность испарительного охлаждения не так эффективна, и энергии сжигается гораздо больше. Итак, если вы действительно хотите достичь действительно высоких показателей энергоэффективности, вы просто не сможете добиться этого с помощью испарительного охлаждения в таком влажном климате. Таким образом, эти географические регионы являются своего рода острием копья для перехода к жидкостному охлаждению.
Другая возможность, о которой вы упомянули, — это плотность, и повышение плотности вычислений было тенденцией на протяжении десятилетий. Именно к этому нас подталкивает закон Мура. И я думаю, что просто важно осознавать, что это еще не сделано. Сколько бы мы ни думали о стойках с графическими процессорами и ускорителями, мы все равно можем значительно улучшить энергопотребление с помощью традиционных серверов с все более высокой плотностью размещения, что позволит нам в будущем упаковать то, что могло бы быть целым рядом стоек, в одну вычислительную стойку. . А это существенная экономия. А в Intel мы объявили, что у нас есть новый процессор с 288 ядрами ЦП и 288 ядрами в одном корпусе, который позволит нам создавать стойки с 11 000 ядрами ЦП. Таким образом, экономия энергии здесь значительна, и не только потому, что эти чипы очень и очень эффективны, но и потому, что количество сетевого оборудования и вспомогательных устройств вокруг этих систем намного меньше, потому что вы используете эти ресурсы более эффективно с этими очень высокой плотностью компоненты. Итак, продолжая, если, возможно, даже ускорение нашего пути к этому виду вычислений со сверхвысокой плотностью поможет нам достичь необходимой нам экономии энергии, возможно, для внедрения некоторых из тех более крупных моделей, которые появятся в будущем.
Лорел: Да, это определенно имеет смысл. И это хороший переход к другой части, а именно: как центры обработки данных, аппаратное и программное обеспечение могут сотрудничать для создания более энергоэффективных технологий без ущерба для функциональности. Так как же предприятия могут инвестировать в более энергоэффективное оборудование, такое как аппаратно-ориентированное программное обеспечение, и, как вы упоминали ранее, в большие языковые модели или LLM с меньшей, уменьшенной инфраструктурой, но при этом пожинать плоды ИИ?
Зейн: Я думаю, что есть много возможностей, и, возможно, самая захватывающая из них, которую я вижу сейчас, это то, что мы просто поражены и потрясены тем, на что способны эти действительно большие модели, даже несмотря на то, что они требуют десятков мегаватт. супервычислительной мощности, вы действительно можете получить многие из этих преимуществ с гораздо меньшими моделями, если вы готовы использовать их в какой-то конкретной области знаний. Поэтому мы часто называем их экспертными моделями. Возьмем, к примеру, модель с открытым исходным кодом, такую как Llama 2, которую выпустила Meta. Итак, существует версия этой модели с 7 миллиардами параметров. Я также думаю, что существуют версии этой модели с 13 и 70 миллиардами параметров по сравнению с GPT-4, возможно, что-то вроде модели с триллионом элементов. Таким образом, он намного, намного, намного меньше, но когда вы точно настраиваете эту модель с данными для конкретного варианта использования, то есть, если вы представляете предприятие, вы, вероятно, работаете над чем-то довольно узким и конкретным, что вы пытаетесь сделать. .