|
30.7.2009, 22:08
|
Все мы знаем, что без ПО любой компьютер бесполезен. Но если для ПК и
серверов софта предостаточно, то в области высокопроизводительных
вычислений подобного выбора нет. Узнать, как обстоят дела в этой сфере,
кому сегодня нужны суперкомпьютеры, оправдывают ли они свое
существование, мы решили, как говорится, «из первых уст». Предлагаем
вашему вниманию интервью с Борисом Васильевичем Потапкиным, директором компании Kintech Lab. — Расскажите, пожалуйста, о вашей компании, ее истории, чем она занимается.—
Наша компания была создана больше 10 лет назад, изначально у нас была
цель разрабатывать и продавать научные компьютерные программы (во вполне
определенной области — кинетика процессов протекающих в неравновесных
системах, в плазме, в газах, при горении, при работе источников света). В
этой области, чтобы описать явление, нужно знать механизм протекающего
процесса и наши программы как раз предназначались для исследования этих
вещей, чтобы потом можно было их использовать при детальном
моделировании. Вот такую программу мы собирались продавать, мы ее
сделали и продаем. Еще один аспект связан с тем, что в механизмах
протекания процессов необходимо знать очень много дополнительной
информации, обычно представляемой разными коэффициентами. Благодаря
развитию суперкомпьютерных вычислений и квантово-химических методов в
какой-то момент стало возможным эти коэффициенты получать из первых
принципов, т.е. расчетным, а не экспериментальным путем. Первопринципные
методы — это расчеты, исходящие из фундаментальных физических законов. В
связи с этим теория во многих областях может стать предсказательной.
Это становится важным дополнением к эксперименту, позволяющим сократить
количество усилий и времени на разработку новых процессов и технологий.Итак,
мы начали продавать созданную нами программу. Потом люди, которые к нам
обращались, стали просить сделать для них исследовательские проекты на
эту тему. Они говорили, что очень хорошо, что есть такая программа, но
она достаточна сложная, для работы с ней нужно иметь узких специалистов.
Во многих компаниях или организациях их нет, поэтому нас начали просить
сделать необходимые заказчикам расчеты. И постепенно мы стали работать в
области многоуровневого предсказательного моделирования. Т.е.
практически все наши проекты связаны с разработкой подходов, методов или
с моделированием систем, в рамках которых мы можем заранее, до
эксперимента, предсказать свойства процессов, или определить параметры, в
которых процесс будет протекать, или свойства материала, который будет
получен. Конечно, без эксперимента развитие невозможно. Это, безусловно,
и конечную точку ставит эксперимент, но если предсказательный
теоретический метод разработан, то это сильно ускоряет процесс развития,
удешевляет его. Поэтому данный подход оказался востребован, причем не
только для исследований, но и в промышленных компаниях (которые, как
считается, денег зря не платят) для того чтобы ускорить, упростить или
удешевить их разработки.— Очевидно, в работе вашей компании высокопроизводительные вычисления играют очень важную роль?—
Дело в том, что эти первопринципные расчеты и в целом такие методы
требуют очень большой компьютерной мощности. По-сути, они и стали-то
возможными благодаря тому, что в течение 40 лет Intel и другие
производители микропроцессоров обеспечивали выполнение закона Мура, т.е.
экспоненциальный рост вычислительной мощности. В конце концов, это
количество стало переходить в качество. Конечно, просто мощности
недостаточно, нужны еще теоретические методы и программы, но где-то в
80-х или 90-х годах количество начало переходить в качество и этот
процесс революционным образом развивается сейчас. Все больше и больше
вещей можно рассчитывать, что называется, «от печки». Например, Boeing,
Intel и, насколько я знаю, другие крупнейшие компании в своей области
имеют проекты по разработке многоуровневых (или сквозных, если по-русски
сказать) моделей тех объектов, которые они разрабатывают, будь то
самолеты или процессоры, или ядерный реактор, или химический препарат.
Безусловно, такие методы эффективно используются в науках о здоровье,
при изготовлении лекарств, при расшифровке генома... В биологии и
медицине эти методы очень активно используются потому, что вы там
сталкиваетесь с необходимостью выбрать из тысяч веществ то, которое
эффективно. И если у вас есть критерии, пусть даже приблизительные,
которые позволяют произвести предварительный скрининг, то, конечно, вы
намного меньше тратите усилий. Сейчас очень много говорят о
наноструктурных материалах (и раньше говорили о композитных материалах),
причем они проявляют необычные свойства — не только прочностные,
механические, но и оптические и другие свойства. А раз это композитные
материалы, значит, там есть геометрия, и количество вариантов строения,
которое может рисовать геометрию, огромно. У вас два выхода — либо вы
реализуете очень много вариантов и экспериментально выбираете лучший,
т.е. берете нанокомпозиты и смотрите, какой размер зерна и связующего,
меняете это все и т.д., либо вы делаете предсказательный расчет. В
нанотехнологиях такие методы во многом уже играют и будут играть
определяющую роль. Ясно, что с течением времени это будет становиться
все более и более востребованным.— Как можно оценить вклад
вычислений в научный процесс, если сравнить, что было до 80-х годов, что
есть сейчас? Как это сказывается на соотношении временных, финансовых
затрат?— Я бы сказал так: компьютерные технологии сделали
революцию. Они позволили создать новое качество. Например, можно взять
уравнение Навье - Стокса и решить задачу обтекания крыла самолета в
реальном масштабе времени, тем самым во многом убрав необходимость
использования огромных аэродинамических труб для продувки самолетов.
Сегодня данные, полученные от продувки, стали использоваться иначе —
например, для калибровки математической модели. В общем, просто
произошла революция. Появились новые возможности, уже начинает меняться и
в конечном итоге совершенно изменится способ, которым мы создаем новые
технологии и процессы. Есть два пути, если мы хотим что-то сделать.
Можно придумать, сделать, попробовать, по результатам испытаний внести
изменения. Так люди делали до сих пор, и во многих случаях и дальше
нужно будет так поступать. Это своего рода способ проб и ошибок. Другой
подход говорит: придумай, посчитай, после этого делай. Это логично, но
сложность явлений, нелинейность процессов во многих случаях раньше не
позволяла таким путем пойти. Если нужен был реальный результат, ты не
мог рассчитывать на то, что все посчитаешь — тут дело не только в
компьютерной мощности. Но разработку новых технологий ее рост изменяет и
расстояние между «придумать» и «сделать» становится существенно короче.
И качество станет лучше.— А что сдерживает изменения, о
которых вы говорите, кроме технических (компьютерных) и научных проблем?
Вы упоминали нехватку специалистов, способных работать с такими
сложными моделями…— Революция, связанная с переходом
количества вычислительной мощности в качество, изменит и образование.
Вот как сейчас еще учат в инженерных вузах... Рассказывают основы
теоретических методов, при этом практическое их использование
откладывается на будущее, когда придете на предприятие, накопится опыт
работы. А теперь нужно будет, чтобы человек завершал образование не
только знакомством с экспериментальными методами исследований, но и с
теоретическими методами расчетов. Соответственно, ему нужно будет знать,
какие модели существуют и применяются, какие программы написаны и
используются в его области, как они взаимодействуют и т.п. Так что
образование тоже будет меняться во многом.— А есть ли
обратная связь, влияют ли суперкомпьютеры со своей экспоненциально
растущей мощностью на сами научные принципы, являющиеся основой для
моделирования?— Безусловно. Во-первых, развитие вычислений
вызывает интеграцию. Например, есть один специалист, который занимается
чисто квантовой механикой, он предсказывает свойства атомов и молекул, и
все. А другой занимается прочностью, скажем, какой-то наномеханической
системы. Первый ему говорит:— А где у тебя атомы и молекулы? — Вот видишь у меня коэффициент сигма? Это у меня упругость. — А если я поменяю атомы и молекулы, новый материал будет, что изменится? — Не знаю, но что-то изменится. — Откуда коэффициент для твоих расчетов брать? —
Пойди к экспериментатору, попроси, чтобы он материал сначала сделал,
потом сжал, измерил и сказал эту самую сигму. А мои уравнения опишут
тогда, например, прочность актюатора в наномеханической системе, который
из твоего нового материала будет сделан... Вот как было
раньше. Теперь, если возможно сквозное моделирование, надо найти
способ, как создать предсказательную модель. Т.е. развитие вычислений
вызывает развитие моделей предсказания свойств материалов и процессов на
основе первых принципов. Происходит это либо путем прямой интеграции,
если она возможна, либо путем многомасштабного моделирования, когда идет
огрубление информации при передаче от одного уровня на другой.Во-вторых,
суперкомпьютер, если уж он так все здорово считает, начинает играть
роль численного эксперимента. В-третьих, все равно мы сейчас не можем
многое решить точно. Наши возможности (методы, модели) сильно
ограничены. Чаще используются какие-то приближенные методы, и создание
новых, более точных методов развитием компьютеров, безусловно,
стимулируется.— Можно ли уже говорить о «персонализации»
суперкомпьютерных вычислений, т.е. о том, что они становятся доступными
более широкому кругу компаний, организаций, предприятий, даже отдельным
сотрудникам (на уровне рабочих станций)? Становятся ли методы, которые
раньше можно было реализовать только на суперкомпьютерах, доступными на
более распространенных системах?— Как обычно, граница
доступности смещается все выше по шкале вычислительной мощности. Есть
вещи, которые можно было решить только на суперкомпьютерах. А что-то
можно было сделать и на других компьютерах. И эта граница поднимается.
Теперь любой физик, скажем, уже и теоретик, и экспериментатор: он
работает на компьютере, ставит численные эксперименты, что-то
рассчитывает. И чем больше растет мощность, тем больше используется это
все индивидуально, расширяются возможности таких расчетов. То, что
сегодня делается на суперкомпьютерах, через лет 12 будет решаться на
персональных системах.Но сейчас даже в другом ситуация.
Появление новых суперкомпьютеров открывает всем возможности для
предсказательного моделирования, способного изменить ход
исследовательского процесса. Появилась большая группа ученных, даже
целый слой ученых, прогресс в работе которых зависит от того, насколько
они будут иметь доступ к такого сорта ресурсам. И правительства в
Западной Европе, в Америке пытаются по мере возможностей и сил такой
спрос удовлетворять. Одновременно появились суперкомпьютерные мощности —
их еще немного, около 3% — которые продаются на арендной основе. Т.е.
люди уже построили суперкомпьютеры для того, чтобы сдавать время в
аренду.— В таком случае, становится ли создание моделей и ПО для суперкомпьютеров устойчивым бизнесом?—
Пока это еще не произошло, но, безусловно, произойдет. Пока, в связи с
тем, что этому феномену и 10 лет еще нет в широком масштабе, конечно,
очень многие программные средства созданы при поддержке государства, и
они в каком-то смысле доступны. Но, с другой стороны, все разработчики
коммерческих пакетов, будь то гидродинамические или квантово-химические
программы, начинают переписывать свои коды, адаптировать их к новым
платформам, распараллеливать. Этот процесс, конечно, требует времени, и
нужны специалисты, которые не везде есть. Это большой кусок работы. Если
говорить коротко, дополнительно к тому, что люди строят суперкомпьютер,
возникнет рынок научных и инженерных программ для работы на этих
суперкомпьютерах. И услуг, конечно.— Получается, что пока на этом рынке спрос превышает предложение?—
Думаю, что да. Но это не спрос на готовое, тут ситуация такая: я вижу
возможности, которые появляются, я хочу их реализовать, но для этого мне
нужно сделать программу. Попробовать, получится или нет.В
Европе это мыслят так. Есть пирамида. Ее вершина — это сейчас
пентафлопные системы. Они должны создаваться точечно, задачи для них
должны отбираться очень тщательно, программы реализоваться самыми
квалифицированными специалистами. Второй уровень — это кластеры, которые
можно назвать региональными. Третий уровень — кластеры и
суперкомпьютеры, находящиеся у организаций, сравнительно небольшие. Вот
такая пирамида, связанная grid'ом, должна существовать. И в Европе хотят
такую инфраструктуру построить. В Америке подобная структура уже есть,
поскольку суперкомпьютеры в национальных лабораториях уже давно связаны в
grid. Ну и проблемы для загрузки ресурсов таких систем есть. Сейчас нет
крупных исследовательских центров, которые не имели бы доступа к
суперкомпьютерным ресурсам. Если говорить о промышленных фирмах,
практически все крупные, типа Boeing или General Dynamics, имеют
декларированные программы полного многоуровневого моделирования того,
что они производят. Это относится к самолетам, атомным станциям,
автомобилям…— Ощущается ли эффективная помощь со стороны
компаний, которые обеспечивают микроэлектронную базу для создания
суперкомпьютеров, например от Intel? Какова их роль в том, чтобы сделать
суперкомпьютерные вычисления более доступными?— Вот
смотрите, раньше были однопроцессорные (одноядерные) машины. И у них
росла производительность. Для них написано огромное количество программ,
методов, кода. Потом изменение процессорной архитектуры потребовало от
всех потребителей все переписать. Это громадные усилия. Все, что
делалось 40 лет, должно быть переделано, поскольку микроэлектроника не
стоит на месте. И, конечно, индустрия помогает нам. У нас есть
программы, параллельные, которые мы делаем сами. Но и у Intel есть
специалисты, очень хорошие, которые отлично знают, как делать
параллельные программы вообще и как сделать их более быстрыми на
конкретной архитектуре. И они нам помогают тоже.Со своей
стороны, мы помогаем микроэлектронной индустрии в том смысле, что когда
она разрабатывает свои новые чипы, ей нужны предсказательные модели. И
мы помогаем их разрабатывать. Ну и из общения с нами Intel получает
информацию о рынке, о том, какие проблемы решаются на суперкомпьютерах
сейчас, какие будут в будущем, какие перспективы, в каком направлении
будут двигаться потребители суперкомпьютеров.— А в чем сейчас основные проблемы, какие препятствия приходится преодолевать в плане технической базы вычислений?—
У нас в компании есть небольшой кластер. Когда-то он входил в 20-ку
лучших в России, но это раньше. Что лимитирует развитие?..
Энергопотребление, отвод тепла. Очень быстро у таких компьютеров,
примерно уже при мощности 300 терафлоп, наблюдается предел. Нужно
большое помещение, уже десятки киловатт идут на охлаждение. Поэтому
любое решение, которое в перспективе позволит экономить энергию, делать
системы более компактными, будет востребовано. Народ будет на такие
решения переходить, несмотря на то, что, может, есть более дешевые в
смысле элементной базы варианты, способные вести нужные расчеты. Что
касается программ, то главное, чтобы процесс пошел. Не нужно иметь
супермощный компьютер, главное преодолеть некий барьер. После него уже
можно не только проверить программу, но и посмотреть, как она будет
работать при дальнейшем масштабировании кластера. Вот в преодолении
этого барьера важна помощь. Для того же распараллеливания программ нужны
специалисты, знающие, как это лучше делать, нужны инструменты,
стандартные библиотеки, которые разработчики начали бы использовать. Вот
этот процесс уже запущен. Стартовый период уже прошел.http://ru.intel.com/business/community/?automodule=blog&blogid=7605&showentry=894
|