ИТ-шное

Информационные технологии: люди, компьютеры и сети.

Мегамозг стал частью Хабрахабра. Юбилей = 10 лет!

Мегамозг стал частью Хабрахабра. Юбилей = 10 лет!

В мае Хабрахабру исполняется ни много, ни мало — 10 лет! Кстати, по этому поводу уже можно почитать интересную статью про историю сайта. Произошло поглощение Мегамозга Мы обновили структуру наших проектов, в результате чего Мегамозг стал частью Хабрахабра — теперь все

Домашний media-server на базе Ubuntu Server

Домашний media-server на базе Ubuntu Server

Глядя, как домашние таскаются по этажам с жесткими дисками, на которые в невероятном бардаке и дублировании записываются (и хранятся) видео/фото/музыка, решил внести некую упорядоченность. Ну не выдерживает душа сисадмина такого раздолбайства, тем более дома 🙂 Дано: 2 этажа в доме, 4

Мониторинг производительности под Linux — «охота на грызунов»

Мониторинг производительности под Linux — «охота на грызунов»

Существует масса средств мониторинга операционной системы, но особый смысл имеет задача отловить момент возникновения проблемы и поймать причину высокой нагрузки или источник проблем c производительностью. Я называю это охотой на «грызунов» ресурсов. Для этого я сочинил для себя несложный скрипт

Linux — что внутри?

Linux — что внутри?

Издательский дом «Питер» выпустил книгу Брайна Уорда, которая уже стала бестселлером на Западе — «Внутреннее устройство Linux«. Она описывает все тонкости работы с операционной системой Linux, системное администрирование, глубокие механизмы, обеспечивающие низкоуровневый функционал Linux. На страницах этого издания вы приобретете

Нейросеть на Python, часть 2: градиентный спуск

Часть 1 : Часть 2 Давай сразу код! import numpy as np X = np.array([ [0,0,1],[0,1,1],[1,0,1],[1,1,1] ]) y = np.array([[0,1,1,0]]).T alpha,hidden_dim = (0.5,4) synapse_0 = 2*np.random.random((3,hidden_dim)) — 1 synapse_1 = 2*np.random.random((hidden_dim,1)) — 1 for j in xrange(60000): layer_1 = 1/(1+np.exp(-(np.dot(X,synapse_0))))

Нейросеть на Python, часть 1

Лично я лучше всего обучаюсь при помощи небольшого работающего кода, с которым могу поиграться. В этом пособии мы научимся алгоритму обратного распространения ошибок на примере небольшой нейронной сети, реализованной на Python. Дайте код!   X = np.array([ [0,0,1],[0,1,1],[1,0,1],[1,1,1] ]) y