HPE (Hewlett Packard Enterprise) представи суперкомпютър с най-голямото количество оперативна памет (RAM) в света. Той ще бъде част от проекта The Machine. Чрез него компанията прави проучвания, за които е нужна доста памет. HPE предлага алтернативна технология за суперкомпютри, която има за цел да намали консумираната енергия.
Технология за суперкомпютри, базирана на RAM
За момента устройството има 160 терабайта оперативна памет. HPE очаква архитектурата да позволява разширяване до 4,096 йотабайта. Един йотабайт се равнява на един трилион терабайта или един септилион байта (единица, последвана от 24 нули!). Оперативната памет е инсталирана на 40 различни физически компютъра. Те са свързани със специален оптичен кабел и комуникират чрез специализиран за целта протокол. Компютърът работи с модифицираната версия на Linux.
Системата разполага с набор от инструменти, които могат да оползотворят огромното количество памет. Според HPE технологията се разработва за идващата ера на огромните данни и нуждата от тяхната обработка и анализ.
„Смятаме, че имаме в ръцете си уникална архитектура. Тя може да бъде полезна и да работи както и на крайни устройства, така и на някои по-големи машини, като прототипа, който сме построили тук“ – съобщи директорът на Hewlett Packard Labs Andrew Wheeler. – От гледна точка на конкуренция, ние се изправяме срещу конвенционалните суперкомпютри. Те са лимитирани откъм възможност за разрастване и имат 10 до 20 пъти по-голяма консумация на енергия. 40 станции и 160 терабайта памет се вместват доста добре в една единствена сървърна поставка.„
История и коментари по новата технология
HPE обсъди технологията със стотици потребители, включително с отделни хора по цялата вертикала на отделни индустрии. Някои от тях са лидери на пазара за суперкомпютри, компании за анализ, финансови институции и други.
Технологията на HPE предлага значително подобрение на скоростта, благодарение на насочените към паметта изчисления. Компанията разработва материала за тази памет заедно с компании като ARM, AMD, Cavium, Broadcom, Huawei, IBM, Lenovo, Micron, Dell EMC, Seagate и Western Digital.
Сегашната технология на архитектурата на фон Нюман прави така, че данните обикалят целия компютър и всичките му компоненти. Paul Teich, аналист в Tirias Research, отбеляза, че „дори да работим с някои от най-големите SaaS услуги (Software as a Service), изразходваме много енергия при местенето на данните между процесорите“.
Наличието на 160 терабайта памет на едно единствено място „позволява оставянето на всички данни в оперативната памет, назначаването на адреси и всичко останало ще става автоматично. Всичко ще се случва значително по-бързо и гладко. При положение че локацията на огромното ви количество данни не се променя, енергията, която спестявате от местенето ѝ между десетки и дори стотици машини, е огромна. Вместо да местим данните по-близо до процесора, правим така, че самият процесор да е по-близо до всички данни.„
Още една гледна точка
Базираните основно на памет суперкомпютри са „странен микс от технологии, използване на топлина на оптични и флаш устройства и затова скоростите на тези памети могат да бъдат изключителни. Но значителен пропуск е липсата на графичен процесор. За целта се използва ARM-базирани процесори и самата скорост на обработка на данни е сравнително бавна – отбеляза Rob Enderle, аналист в Enderle Group. – Тази технология може да обработва огромни количества данни значително бързо, стига да не ползваме системата прекалено много през това време.„
„Не намирам за разумно светът да държи всичките си здравни досиета в една единствена система. Нито пък Facebook“ – коментира Holger Mueller, аналист в Constellation Research. – Повечето реални ситуации, които познаваме, намират за достатъчно ползването на твърди дискове (HDD). Това означава, че тази нова технология би била подходяща за случаи, при които е оправдана голямата цена за имплементирането ѝ. Цената ще бъде основният фактор на пазара.“
Intel дадоха начало на своята 3D xPoint Memory технология под името Optane. Прочетете повече за нея тук. „Ако HPE бяха представили тази технология през 2015 г., то тя щеше да е много по-интересна“ – завършва Enderle.