The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Hadoop - framework for running applications on large clusters

Дата
07 May 2007
ЗаголовокHadoop - framework for running applications on large clusters
ПояснениеФреймворк на Java для организации распределенных вычислений с использованием парадигмы map/reduce, когда задача делится на множество более мелких обособленных фрагментов, каждый из которых может быть запущен на отдельном узле кластера. В состав Hadoop входит также реализация распределенной файловой системы Hadoop Distributed Filesystem (HDFS), автоматически обеспечивающей резервирование данных и оптимизированной для работы "MapReduse" приложений. Система создана как субпроект поискового механизма Apache Lucene и апробировалась в кластере с 600 узлами.
Home URLhttp://lucene.apache.org/hadoop/
Флагenglish
РазделРаспределенные и кластерные ФС
Вычислительные кластеры
Ключи



 Добавить ссылку
 
 Поиск ссылки (regex):
 

Последние заметки
- 04.08 Прямая отправка заданий на принтер, без использования CUPS и других прослоек
- 19.06 Запуск процесса с совсем-совсем IDLE приоритетом в Linux
- 11.06 Работа с 32- и 64-разрядными chroot на примере Debian
- 13.05 Эксперименты по борьбе с утечками памяти Telegram Desktop
- 01.05 Получаем патчи безопасности для Ubuntu 16.04
- 27.04 Включение DNS-over-HTTPS на системном уровне в KDE neon и Ubuntu
- 26.04 Активация режима гибернации в KDE neon
- 10.04 Резервное копирование с Borg
- 08.04 Отключение учетной записи root в openSUSE Tumbleweed
- 05.04 Активация режима гибернации в openSUSE Tumbleweed
RSS | Следующие 15 записей >>




Спонсоры:
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2021 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру