IT

Мои заметки на IT тематику (сервера, сайты и все сопутствующее)

Postfix без локальной доставки c переадресацией для root.

Чтобы уменьшить варианты попадания исходящей почты в спам приходится строго следить чтобы параметр myhostname в postfix был настроен корректно, при этом реальные почтовые ящики хранятся на стороннем сервере, а root вообще отдельный человек, с совершенно другим адресом.

Postfix без локальной доставки c переадресацией для root.

Яндекс.Почта для домена через Gmail

17 мая 2017 года Указ Президента Украины о применении санкций в отношении России вступил в силу. Этим решением Президент запретил деятельность Вконтакте, Одноклассники, Яндекс и Mail.ru на территории Украины. Меня лично из этого волнует невозможность нормальной работы с сервисом "Яндекс.Почта для домена", т.к. я и многие по моим рекомендациям им пользовались.

Яндекс.Почта для домена через Gmail

UAhosting - бегите! (об отправке почты и службе поддержки)

Как-то взял я подработку. На сайте с OpenCart нужно было настроить отправку почтовых уведомлений при заказе. Задачка на самом деле тривиальная - стандартные 2 способа, уже встроенные в CMS  - через локальный MTA и через SMTP с помощью сокетов с авторизацией на удаленном сервере.

UAhosting - бегите! (об отправке почты и службе поддержки)

Linux "профи" и черные дыры в безопасности серверов

Довелось как-то смотреть, почему падает сайтик на чужом, вроде не слабом, сервере... Я уже промолчу, про то, что предыдущий "мастер" затребовал ставить именно Debian, но поставил "с коробки". Практически не заглядывая в конфиги. Хотя в некоторые зачем-то заглянул и сделал хуже, чем были дефолтные :(

Linux "профи" и черные дыры в безопасности серверов

MegaIndex - остановить безумие!

В этой заметке речь пойдет о сервисе www.megaindex.org и его "ненасытных" ботах. Сразу оговорюсь - вполне возможно, что кому-то этот сервис очень даже нужен. Однако для себя никакого, даже теоретического, применения не нашел.

В тоже время именно "ненасытность" и "наглость" его ботов заставляет принимать какие-то меры для защиты серверов от излишних нагрузок. Нет, конечно же, он не "валит" сервер, не создает критичных нагрузок (по крайней мере на моих серверах и серверах моих клиентов), но все же, временами ощутимо надоедает.

MegaIndex - остановить безумие!

Правильно вставляем код Google Analytics на Drupal сайт

Простенькая задачка, но не всегда доходит сразу...

Для вставки кода воспользуемся встроенными возможностями Drupal для вставки CSS и JS файлов в код страницы. Это особенно полезно если используются модули минимизации и объединения таких файлов (как, например, Advanced CSS/JS Aggregation).

FreeBSD. Бэкап файлов в облачное хранилище (Google Drive)

Раньше, в одной из заметок, я описывал настройку локального бэкапа файлов на сервере с помощью rsync. Но локальный бэкап хорошо, но хотелось и удаленный. Можно, конечно, при наличии нескольких доступных серверов организовать через тот же rsync, но хотелось сделать это в облако, более того в облако надежное (я таковым считаю Google Drive). Плюсы Google Drive:

  1. 15Гб места на аккаунт бесплатно.
  2. Аккаунтов можно завести любое необходимое множество.
  3. При необходимости место расширяется до 100Гб всего за $1.99 в месяц или же 1Тб за $9.99 в месяц и т.д..
  4. Исключительная надежность.
  5. Быстрый и простой доступ из любого места (как с помощью специального ПО, так и через браузер).

Элементы защиты от DDOS посредством nginx + ipfw

Недавно у меня на хостинге появился сайтик на WordPress, уж не знаю чем он так полюбился кому, но стал замечать, что регулярно идет к нему POST запрос на wp-admin.php с разных адресов  - видимо пароли подбирают или еще что-то. Это создавало ненужную нагрузку на сервер (в моем случае не критичную, но все же).

Озадачился решением проблемы. Гугление дало вариант, который мне понравился.

rsync и локальный бэкап сайтов на сервере

Вообще-то rsync конечно же дает прекрасные инструменты для удаленного архивирования по сети. Но... Для начала неплохо иметь копии локально, за N дней. На случай сбоя, какой-то правки неправильной и т.п.

Мне хотелось иметь архивы сайтов, т.к. иногда находит "порукоблудить" и не всегда сразу заметишь, что чего-то напортачил. И когда через день-два это все всплывает - начинаешь мучительно вспоминать какие строки и где менял. Сначала я просто архивировал (опять же через periodic daily) папки с сайтами и хранил N, а иногда и M (шутка) дней. Но архивирование очень сильно поглощает процессор - задача непростая. К тому же большинство сайтов основной свой объем имеют за счет картинок, архивов и т.п. (тексты в основном в БД, остаются скрипты, но их не так много по объему) - т.е. вещей в принципе не жмущихся архиватором. Следовательно проще просто копировать файлы. Но зачем копировать все, если за день меняется от силы 10% содержимого сайта?

Страницы