При необходимости передать файл большого объема необходимо информационная безопасность
В наше время владение информацией, умение сохранять и передавать её является огромным преимуществом в современном обществе. Как сказал известный немецкий предприниматель и банкир, основатель династии предпринимателей Майер Амшель Ротшильд:
А с июля 2021 года эта проблема будет актуальнее, в связи с изменениями законодательства, о которых я рассказывала в статье о новых штрафах и некоторым организациям придется отправлять ответы на запросы налоговиков только через операторов связи в электронном виде .
Для чего же работнику бухгалтерии или сотруднику финансовой службы нужны эти знания, кроме как для общего развития. Поверьте, это необходимые в работе навыки, уверенна, что они вам обязательно пригодятся и обойти стороной эту тему у меня не получится.
Слишком большой объём скан копий документов нужен для отправки:
Рассказываю, как за несколько минут, можно из 99 отсканированных изображений с расширением файла jpg (это самое распространённое расширение при сканировании документов) сделать один файл, который без проблем принимает любой оператор связи.
- Выделяем нужные нам файлы правой кнопкой мыши;
- Левой кнопкой вашей мышки ищем функцию - Объединить файлы в Adobe PDF и нажимаем на неё;
- Файлы объединяются в один, как показано ниже:
4. Далее нажимаем в программе кнопку ФАЙЛ и сохранить. Получаем файл в формате PDF.
Мы получили слишком большой по размеру файл и нам нужно его уменьшить до допустимых размеров.
Н а государственных сайтах есть ограничения по объёму передачи данных. Начнём!
- Заходим в программе на вкладку файл, нажимаем сохранить как другой;
- Находим файл PDF уменьшенного размера, нажимаем;
- Происходит обработка наших изображений, по времени процесс занимает немного, в зависимости от веса файла.
Итак, мы получили из достаточно большого файла с информацией, файл гораздо меньшего размера, но с тем же объемом данных, который можно смело подписывать электронной подписью и направлять по месту требования.
ШТРАФЫ ЗА ОТВЕТ НЕ ПО ФОРМЕ!
КАК УЧЕСТЬ ТОРГОВУЮ НАЦЕНКУ? НОВЫЕ ПОЖЕЛАНИЯ ФНС К МАЛОМУ БИЗНЕСУ ПО НАЛОГОВОЙ НАГРУЗКЕ
ВАМ КАССОВЫЙ ЧЕК НЕ НУЖЕН? ЗАЧЕМ ПРОДАВЦЫ МАГАЗИНОВ ЗАДАЮТ ЭТОТ ВОПРОС
И ещё много интересного! Вопросы можно задать мне в комментариях и я обязательно отвечу, с уважением!
Раньше серьезную инфраструктуру для хранения и анализа Больших данных (Big Data) могли позволить себе только масштабные организации, например, государственные структуры или крупные предприятия. Сегодня же, по мере того, как технологии становятся все более доступными, большие данные находят все более разнообразное применение в самых различных областях. При этом, как и в случае многих других новых технологий, развитие больших данных не только открывает возможности, но и сопряжено с многочисленными сложностями, и многие организации задаются вопросом, каким образом им лучше всего поступить с накапливаемыми данными?
Одна из наиболее сложных задач заключается в анализе Больших данных с целью получения общей картины и идей, способствующих принятию более оптимальных решений и повышению эффективности бизнеса. Вместо того, чтобы полагаться на анализ, осуществляемый специалистами, современные организации все чаще используют технологии машинного обучения и когнитивные технологии, которые часто позволяют более эффективно использовать большие данные.
Источники уязвимости информационной безопасности
В докладе Альянса безопасности облачных вычислений (Cloud Security Alliance), опубликованном под заголовком «Руководство по обеспечению безопасности и конфиденциальности больших данных: 100 передовых практик» (Big Data Security and Privacy Handbook), сообщается, что уязвимости информационной безопасности определяются многообразием источников и форматов больших данных, потоковой природой сбора данных и необходимостью передачи данных между распределенными облачными инфраструктурами. Кроме того, увеличению поверхности атаки способствуют и большие объемы таких данных.
Другими словами, те самые атрибуты, которые фактически определяют Большие данные, и являются теми факторами, которые влияют на уязвимость данных: большой объем, многообразие источников и форматов и скорость их передачи.
В поисках баланса между доступностью и ограничениями в доступе
Полезность и конфиденциальность данных зачастую являются взаимоисключающими понятиями. Разумеется, если предоставить всем пользователям бесплатный и свободный доступ к данным, то заинтересованные стороны будут максимально полно и эффективно использовать эти данные. Но это вряд ли можно назвать правильным решением. К счастью, можно добиться разумного баланса между предоставлением необходимого доступа к данным и ограничением неавторизованного доступа.
Обеспечение безопасности и шифрование больших объемов данных представляет собой весьма непростую задачу. Согласно индексу критичности утечек данных Gemalto 2015 Breach Level Index, сегодня все больше организаций не способны предотвратить утечки данных и защитить свои информационные активы, вне зависимости от размеров этих активов.
Авторы «Руководства по обеспечению безопасности и конфиденциальности данных» утверждают, что «традиционных механизмов безопасности, предназначенных для защиты небольших объемов статичных данных, находящихся за межсетевыми экранами в полуизолированных сетях, уже недостаточно для защиты от современных угроз».
Решения для обеспечения безопасности не должны сказываться на производительности систем и не должны приводить к задержкам. Так или иначе, высокая скорость доступа к данным является одной из ключевых, определяющих характеристик Больших данных.
Защита личной информации
Зачастую работа с большими данными подразумевает обработку публично доступных данных – например, о характере дорожного движения или статистических данных о населении. Общепринятым решением в данном случае является анонимизация данных. Но к сожалению, этого недостаточно.
Точно так же, как и в случае с ИТ-активами организаций, когда технологии защиты периметра уже не в состоянии обеспечить надлежащий уровень безопасности, Большие данные уже «выросли» из тех приемов, которые применялись для защиты данных в самом начале развития этих технологий. Сегодня анонимизация не обеспечивает достаточного уровня безопасности, особенно на фоне появления все новых массивов данных, в результате чего появляется возможность совмещения этих наборов данных для извлечения личной информации. И, разумеется, анонимизация никогда не являлась действенным способом для защиты больших массивов проприетарных данных.
Тем не менее, в числе передовых практик, упомянутых в «Руководстве…» CSA, приводится необходимость исключить возможность извлечения персональных данных (de-identify). Вся информация, позволяющая установить личность, (personally identifiable information, PII), в том числе имена, адреса, номера страховок, и т.д. должны быть либо скрыты (mask), либо удалены из этих данных.
Хотя сама по себе процедура деидентификации, в результате которой из полученных массивов данных невозможно извлечь данные для установления личности, не является достаточной, она может оказаться важным и действенным элементом более масштабной стратегии безопасности.
Потребность в шифровании больших данных
Хотя предотвращение утечек по-прежнему остается одним из важных элементов стратегии ИТ-безопасности, эта мера также не решает проблему полностью. Согласно индексу уверенности «2016 Data Security Confidence Index», несмотря на растущее число утечек данных и более 3,9 миллиардов украденных записей по всему миру за последние три года, две трети ИТ-руководителей предвидят возможность доступа неавторизованных пользователей к своим сетям, однако при этом руководство не выделяет специальных средств на шифрование данных.
На основе исследований, в «Индексе критичности утечек данных» (Gemalto Breach Level Index) сформулированы следующие рекомендации: «Современная стратегия безопасности подразумевает изменение парадигмы мышления и включает внедрение решений, позволяющих контролировать доступ и аутентификацию пользователей, обеспечивать шифрование всех критических данных, а также защищенное управление и хранение всех ключей шифрования».
Как и в отношении любого другого аспекта информационной безопасности, безопасность больших данных должна подразумевать многоуровневый подход для обеспечения максимальной эффективности. Безопасность следует рассматривать в виде комплекса различных уровней, который включает в себя не только усилия, направленные на предотвращение утечек, но и меры, позволяющие смягчить последствия утечки.
Организациям следует защищать данные, а не просто периметр, и все это должно осуществляться одновременно с мерами, направленными на обеспечение безопасности утечек, что подразумевает как защиту самих данных, так и защиту пользователей, работающих с этими данными. Кроме того, организациям следует предусмотреть защищенное хранение и управление всеми ключами шифрования, а также управление доступом и аутентификацией пользователей.
Комплексная защита данных
Как ни печально, если пытаться выстраивать надлежащую защиту больших данных задним числом, это может оказаться сложнее, чем если организовать такую защиту с самого начала. Комплексная, всесторонняя защита предполагает не только шифрование данных в течение их жизненного цикла – во время хранения и при перемещении, но также их защиту с самого начала вашего проекта по работе с Большими данными.
Сегодня вопросы безопасности слишком часто отодвигаются на второй план, ими занимаются с неохотой, при этом процедуры безопасности воспринимаются как раздражающая задержка при запуске нового приложения или проекта. Но если с самого начала уделить этому вопросу должное внимание и реализовать комплексную программу шифрования больших данных с несколькими полными кольцами защиты, то это поможет минимизировать риски для вашего бизнеса и избавить вас от тех многочисленных и неприятных последствий, к которым могут привести утечки данных – как пользователей, так и компаний.
В корпоративной среде для обмена файлами используются разные решения: электронная почта, FTP-серверы, Sharepoint-серверы, системы электронного документооборота, файлообменники в Интернете, публичные облачные хранилища, специализированные решения для файлового обмена и т.д. Каждое из них имеет своё назначение и особенности. Далее рассмотрим принципы обмена файлами, которые, по нашему мнению, должны соблюдаться любой компанией, а также те лучшие практики, которые мы выработали в нашей деятельности. Постараемся выяснить, какие из этих решений действительно подходят для выполнения задач обмена корпоративными файлами.
1. Обеспечение передачи необходимого объёма информации
Сначала очевидное: если в рабочем процессе пользователям необходимо обмениваться файлами, в том числе большими, это нужно обеспечить. При этом нужно учитывать, что с каждым годом информации становится всё больше и размеры файлов увеличиваются.
В одной компании, где я работал, стояло ограничение всего в 10 МБ. И таких компаний достаточно. То есть передача больших файлов обеспечивается далеко не всегда.
2. Квотирование
В то же время объём передаваемых файлов ограничивать нужно. Для того чтобы инструмент обмена со временем не превратился в «файловую помойку», а пользователи не требовали добавления доступного им места.
Квотировать нужно как общий объем пространства, доступного пользователю, так и размер передаваемого файла. Но при этом не нужно забывать про первый пункт и квотировать объёмы, исходя из бизнес-процессов и реальной рабочей необходимости.
3. Ограничение срока жизни и доступности файла
Инструмент файлового обмена должен использоваться именно для обмена, а не как средство хранения. Чтобы этого достигнуть, нужно автоматически удалять файлы после заданного срока жизни.
Также, при предоставлении доступа к файлу, необходимо ограничивать период его доступности для получателя и количество скачиваний файла, если он предоставляется по ссылке.
4. Ограничивать передачу файлов по типу
Следующее, что нужно делать, – ограничивать передачу файлов по типам. Нужно ограничиваться только теми типами файлов, которые используются в работе. Благодаря этому, во-первых, не будут попадать файлы, не использующиеся для бизнеса, и корпоративные средства перестанут использоваться в личных целях. Во-вторых, нужно ограничить передачу файлов потенциально небезопасных форматов, например, исполняемых файлов.
Нужно понимать, что различные отделы по роду своей деятельности обмениваются различными типами файлов. Поэтому разные белые или чёрные списки типов файлов должны назначаться на разные группы.
Ещё нужно иметь ввиду, что простой проверки расширения в имени файла недостаточно, такая проверка легко обходится переименованием файла. Нужно определять тип файла по его заголовку и структуре, независимо от того, какие буквы написаны в его названии после точки.
5. Чёткое определение участников обмена
При файловом обмене необходимо разграничивать роли пользователей: внутренние пользователи организации и внешние по отношению к организации пользователи - контрагенты.
Контрагентам мы по умолчанию доверяем меньше. Поэтому процесс инициации обмена файлами должен лежать на пользователе. Так, если пользователю нужно что-то получить от контрагента, он должен запросить файл у контрагента. Без такого запроса контрагент не должен передавать пользователю ничего. Но и внутренний пользователь не должен иметь возможности передать файл кому угодно. Перечень контрагентов должен быть конечным.
Если список внутренних пользователей можно получить, например, с помощью синхронизации с корпоративным каталогом Active Directory, то добавление контрагентов должно согласовываться. При этом иногда требуется чтобы согласование было многоэтапным.
6. Полный аудит событий передачи данных
Для обеспечения разбора инцидентов передачи файлов нужно знать: кто, когда, кому, что передавал, какие проверки безопасности прошёл файл, кто файлы в систему загрузил, кто из системы скачал.
Кроме этого должны фиксироваться все операции, выполняемые администраторами по настройке системы, события входов/выходов. Традиционно в каждом событии должно фиксироваться время, субъекты, объекты и действия.
При этом события должны передаваться в системы лог-менеджмента и в системы управления событиями информационной безопасности (SIEM), откуда их проблематично удалить или изменить.
7. Антивирусная проверка
Все файлы, получаемые и отправляемые, должны быть обязательно проверены на вредоносность. При этом нужно учитывать, что современное вредоносное ПО имеет массу возможностей по обходу традиционных антивирусов, например, полиморфизм или вообще являются 0-day. Для детектирования таких вирусов используются решения динамического анализа файлов в т.н. песочницах.
Таким образом, для эффективной антивирусной защиты хорошей практикой будет отправка файла на анализ в «песочницу».
8. Использование защищённых протоколов передачи данных
Корпоративная информация требует защиты. Использование защищённых протоколов передачи по умолчанию – минимальный необходимый уровень защиты информации при передаче. Это также обеспечивает защиту передаваемых аутентификационных данных (логин/пароль).
Для защиты передачи могут быть использованы протоколы SSL/TLS, но и их следует правильно настраивать.
9. Шифрование файлов, содержащих конфиденциальную информацию при передаче
Если канал нужно шифровать в любом случае, то для защиты критичных конфиденциальных данных необходимо обеспечивать шифрование самих файлов. При этом, если используется симметричная криптография, то ключ должен генерироваться системой с политиками минимальной длины и сложности. Также нужно озаботиться безопасностью хранения и доставки ключевой информации.
Шифрование файлов должно осуществляться средствами самой системы, чтобы при передаче его можно было проверить.
10. Ограничивать доступ к файлам обслуживающего персонала
Злоумышленником может оказаться любой человек, в том числе и сотрудник, обслуживающий информационную систему передачи файлов. Нужно соблюдать принципы минимальных привилегий, выполнять разграничение доступа к директориям, в которых хранятся файлы и шифровать хранимые файлы.
11. Проверять содержимое файлов системами контроля утечек данных
Любая система передачи файлов – потенциальный канал утечки, который тоже нужно контролировать. Отправляемые файлы должны передаваться на анализ в специализированные системы контроля утечек данных (DLP) и от этих систем, на основании настроенных в них политик, должен возвращаться вердикт, можно или нельзя отправлять файл за пределы контролируемого периметра.
12. Не передавать файлы, безопасность которых нельзя проверить
Если передаваемый или получаемый файл нельзя проверить описанными выше методами (файл, например, упакован в запароленный архив), то его передачу нужно блокировать, сам файл помещать в карантин, а факт попытки передачи фиксировать в журнале событий.
13. Не использовать публичные облака, а тем более файловые обменники
Зачастую пользователи за неимением корпоративной альтернативы используют сервисы типа DropBox, Яндекс.Диск или в худшем случае обменники в Интернете.
Публичное облако несёт в себе ряд существенных рисков: компрометация аккаунта, взлом сервиса, изменение условий использования: блокировка аккаунта, удаление информации, индексация информации поисковиками и т. д.
14. Использовать отечественные решения
Использование отечественного решения – это технологическая независимость, локальная техническая поддержка и быстрая реакция вендора, который находится «на расстоянии вытянутой руки».
Данные принципы не так-то легко соблюдать, не имея специализированного решения. В портфеле компании SecretTechnologies имеется решение собственной разработки – SecretCloudEnterprise, которое помогает компаниям придерживаться описанных принципов при обеспечении файлового обмена с сохранением должного уровня информационной безопасности.
Новый материал SecureNews посвящен вопросам информационной безопасности в сфере Big Data (больших данных). Мы узнали у экспертов, что такое Big Data и какие средства используются для работы в данной отрасли, с какими угрозами можно столкнуться при работе с большими данными и как обеспечить их защиту.
Что скрывается за термином Big Data? Какие средства применяются для хранения и работы с большими данными?
Роман Баранов, руководитель направления аналитики компании КРОК
Роман Баранов, руководитель направления аналитики компании КРОК:
«Если смотреть с точки зрения информационных технологий, то под термином Big Data подразумевается большое количество продуктов. По сути, они не несут в себе что-то принципиально новое, особенно, в части инструментов и возможностей. Думаю, на эту концепцию стоит взглянуть как на маркетинговый термин, который сегодня очень моден.
Если речь заходит про безопасность, то важно не только понимать, какой результат приносит Big Data, но и какими терминами оперирует, а также как получаются те или иные выводы на основе информации. Здесь необходим инструментарий, который будет давать полное представление обо всех потоках данных. Зная, ЧТО хранится, можно понять, КАК защищать системы и информацию».
Алексей Редькин, инженер подразделения стратегического маркетинга «Мицубиси Электрик»
Алексей Редькин, инженер подразделения стратегического маркетинга «Мицубиси Электрик»:
«Большими данными (Big Data) называются массивы информации, которые превышают вычислительные возможности обычных компьютеров, а также технологии для их обработки, анализа и представления в удобном человеку формате. Работа с большими данными стала возможной благодаря новым технологическим достижениям двухтысячных годов. В этот момент IT-специалисты научились распределять большие объемы информации по вычислительным системам и базам данных. Это открыло целый ряд новых областей применения такой информации. Так, работа с Big Data необходима для создания карт, оцифровывания больших массивов информации в фондах и библиотеках, прогнозирования погоды, работы систем общественного транспорта и обработки информации о транзакциях клиентов в банках.
Большие данные применяются и в сфере автоматизированного производства. В этом случае информация, полученная от оборудования, анализируется в реальном времени, и оператору или управленцу транслируется оптимальное решение для производственного или финансового процесса. С помощью Big Data машины также способны сами принимать решения и даже учиться без участия человека. Большие данные тесно связаны с технологиями IoT (интернета вещей) и IoE (интернета всего): физическое пространство и киберпространство с их помощью объединяются. К примеру, показатели производственной линии можно видеть в реальном времени на экране смартфона».
Алексей Краснопольский, директор по продукту «Первого ОФД»
Алексей Краснопольский, директор по продукту «Первого ОФД»:
«Столь популярное на сегодняшний день понятие Big Data по сути своей представляет огромный массив информации, для работы с которым требуются специальные средства анализа, методы и алгоритмы, поскольку работа с большими данными посредством существовавших ранее стандартных инструментов является неэффективной. Основная задача Big Data – возможность обрабатывать колоссальные объемы данных и выстраивать на их основе прогнозные модели.
Горизонтальная масштабируемость и высокий уровень отказоустойчивости – вот основные принципы, на которых выстраивается работа с Big Data».
С какими угрозами сталкиваются или могут столкнуться организации, работающие с Big Data?
Максим Яцкевич, ведущий специалист по информационной безопасности компании НФП
Максим Яцкевич, ведущий специалист по информационной безопасности компании НФП:
«С приходом новых технологий приходят и новые уязвимости, угрозы и риски. Штатные антивирусные системы, системы экранирования не предназначены для защиты большого объема данных. А отдельные системы, которые готовы взяться за Big Data, сильно тормозят обработку информации. Все эти факторы приводят к достаточно значимой для пользователя (компании) проблеме, которая может не позволить использовать новые и, вроде бы, перспективные технологии. К тому же защищать необходимо не только данные, но и программное обеспечение, которое занимается обработкой.
Как правило, в средних и крупных компаниях защита не состоит из одного-двух ПО, на которых все держится. Информационную безопасность в них обеспечивают комплексные многокаскадные решения».
Алексей Коняев, старший консультант SAS Россия/СНГ по решениям для обеспечения безопасности и противодействия мошенничеству
Алексей Коняев, старший консультант SAS Россия/СНГ по решениям для обеспечения безопасности и противодействия мошенничеству:
«Бытует мнение, что можно обеспечить безопасность больших данных при условии персональной приватности и невозможности идентификации объектов: имена, адреса и номера договоров, как правило, не требуются для анализа больших данных, поэтому такую информацию нужно либо хешировать, либо удалять из источников анализа, либо шифровать. Однако представляется, что такое мнение ошибочно ввиду необходимости обеспечения безопасности данных во время всего жизненного цикла работы с ними – сбора, записи, хранения и перемещения. При этом следует учитывать, что технологии работы с большими данными зачастую построены на открытом коде, в который по умолчанию не может быть заложена никакая безопасность. Одновременно с этим целесообразно изолировать базы типа Hadoop и на сетевом уровне, чтобы исключить возможность несанкционированного доступа.
И, конечно же, необходимо уделять должное внимание и защите контура организации, выстраиванию правильных процессов управления ролями доступов в системы и приложения (например, с помощью, Sentry), применению современных интеллектуальных систем мониторинга и обеспечения информационной безопасности».
Ашот Оганесян, технический директор и основатель DeviceLock
Ашот Оганесян, технический директор и основатель DeviceLock:
«Ключевая особенность больших данных – это наличие как множества точек «входа» информации в соответствующие распределенные базы данных, так и множество точек «выхода», точек доступа к большим данным. И тут, помимо очевидных задач обеспечения безопасности вычислений и транзакций, остро стоит и вопрос безопасности хранения и использования данных. Ведь как ни крути, в конечном счете все упирается в человеческий фактор – помимо машинной обработки в целях, например, построения статистических выводов, расчетов логистики в реальном времени и так далее, требуется участие пользователя для работы с отдельными сегментами таких баз данных или результатами машинной обработки. Если последствия «вытаскивания» и слива спамерам огромных списков адресов электронной почты и телефонов имеют не столь существенные последствия (да, получатели спама вряд ли будут довольны непрошеной рекламе, но это не смертельно), то последствия случайного, а уж тем более намеренного раскрытия и передачи в третьи руки данных медицинского или финансового характера могут быть намного более серьезными».
Павел Ворошилов, директор по продажам облачных продуктов дата-центра Xelent
Павел Ворошилов, директор по продажам облачных продуктов дата-центра Xelent:
«Главная угроза – разумеется, риск потери данных. Для компании, использующей большие данные, это критическая опасность: крупные корпорации, строящие так называемый data-driven business (бизнес, построенный на данных), в такой ситуации могут нести колоссальные потери – именно из-за этого все компании тратят серьезные деньги на резервное копирование и репликацию.
Вторая угроза – недоступность данных. Большинство компаний, работающих с Big Data – это банки, ритейл, телеком-операторы, иными словами, бизнес, который должен функционировать в режиме 24/7. Для таких компаний каждая минута «простоя» означает серьезные финансовые и репутационные потери.
Третий риск – недостаточность «места» хранения растущего объема данных. Дело в том, что количество собираемой информации растет – как за счет роста бизнеса, так и за счет новых показателей, которые собирает система. Крайне важно, чтобы у компании всегда было резервное пространство в системе хранения данных».
Как можно обеспечить защиту больших данных?
Андрей Зеренков, руководитель направления развития кибербезопасности в государственных и телекоммуникационных организациях РФ и за рубежом группы компаний Softline
Андрей Зеренков, руководитель направления развития кибербезопасности в государственных и телекоммуникационных организациях РФ и за рубежом группы компаний Softline:
- Постоянный контроль легитимности источников информации, а также защита узлов кластера от его несанкционированного расширения (внедрения чужих) и от несанкционированных изменений на самих узлах (например, вследствие атаки вредоносного ПО или АРТ). Антивирусы здесь не помогут – нужны продукты харденинга хостов. Легитимность источников и обработчиков можно также подтвердить сертификатами.
- Использование анализаторов кода приложений, чтобы избежать влияния через программную среду бизнес-аналитики.
- Строгая аутентификация пользователей на основе сертификатов и управление правами доступа.
- Наличие отчетности о соответствии требованиям, с контролем соответствия, разумеется.
- Защита сред Big Data, реализованных в «чужих» облаках, через защиту каналов связи и дополнительную защиту данных в облаке – шифрование и/или динамическое маскирование. И, конечно, постоянный мониторинг и анализ.
Павел Луцик, руководитель проектов по информационной безопасности компании КРОК
Павел Луцик, руководитель проектов по информационной безопасности компании КРОК:
«К обеспечению защиты больших данных стоит подходить комплексно, учитывая все возможные угрозы нарушения конфиденциальности, целостности и доступности этих данных. Так, в частности, необходимо реализовать следующий комплекс мер:
- Использовать надежные механизмы аутентификации и разграничения прав доступа при обращении к данным.
- Отделить персональные данные от других данных.
- Обеспечить защиту пароли доступа с помощью механизмов шифрования или хеширования, и убедиться, что при этом используются надежные алгоритмы, такие как AES, RSA, SHA-256.
- Обеспечить логирование всех важных событий информационной безопасности при обработке больших данных с целью дальнейшего расследования возможных инцидентов.
- Обеспечить защиту хранилища данных и логи транзакций, в том числе с помощью механизмов шифрования.
- Обеспечить безопасность конечных устройств, в том числе мобильных, с которых осуществляется работа с большими данными, посредством применения антивирусного ПО и систем управления мобильными устройствами класса MDM.
- Обеспечить защиту серверных компонентов систем, участвующих в обработке больших данных (межсетевое экранирование, в том числе уровня приложений, антивирусная защита и так далее).
- Систематически проводить тренинги для повышения осведомленности персонала при работе с большими данными».
Юрий Сергеев, заместитель начальника отдела проектирования защищенных систем Центра информационной безопасности компании «Инфосистемы Джет»
Юрий Сергеев, заместитель начальника отдела проектирования защищенных систем Центра информационной безопасности компании «Инфосистемы Джет»:
«Защиту стоит начать с аудита всех настроек инфраструктуры. Затем необходимо обеспечить настройку встроенных механизмов защиты: аутентификацию, авторизацию, аудит. Интегрировать решения с существующим в организации PKI (Public Key Infrastructure – инфраструктура открытых ключей) для замены самоподписанных сертификатов, применяемых в решениях. Также можно задуматься о средствах шифрования. Например, для баз данных Hive и Hbase, работающих поверх Hadoop, можно обеспечить шифрование на уровне отдельных столбцов. Наконец, начать интеграцию с имеющимися в компаниями средствами безопасности - сканерами уязвимости, SIEM-системами и другими решениями. Для аудита доступа к BigData можно применять решения класса Database Activity Monitoring, которые уже несколько лет поддерживают все передовые продукты из этой сферы».
Михаил Комаров, директор по продажам компании DIS Group
Михаил Комаров, директор по продажам компании DIS Group:
«В первую очередь надо выстроить процессы управления данными (Data Governance) – это позволит четко понимать, где какая информация находится. Также есть решения, которые позволяют анализировать информацию, находящуюся на кластере, и определять, конфиденциальная она или нет. Такие решения также интегрируются с программным обеспечением по контролю доступа. Важной задачей является динамическое обезличивание данных. Такой класс решений обезличивает данные в реальном времени в зависимости от роли пользователя при этом не меняя исходные данные. То есть пользователь работает с реальными данными не видя их. Перечисленные решения позволят контролировать возникновение и распространение данных, доступ к ним и скрывать чувствительные данные от рядовых пользователей, что позволит усилить защиту Big Data в дополнении к классическим решениям по аутентификации ролевым моделям, сетевой защите и так далее».
Читайте также: