Сколько памяти занимает интернет магазин
Вопросом о том, сколько весит интернет, интересовал многих исследователей. Группы ученых использовали разные подходы для того, чтобы подсчитать количество письменной, аудиальной и визуальной информации. В это и упиралась главная сложность: нужно было найти общее «мерило» для всех видов контента, а также помножить это на ежедневную тенденцию к расширению глобальной сети. Мы собрали главное о том, сколько месте занимает интернет и куда нас приведет его бурный рост.
Читайте «Хайтек» в
Были ли исследования на эту тему?
Рассчитать массу интернета можно несколькими путями, по крайне мере ученые расходятся в способах.
Первый метод расчета массы Сети, предложенный Расселом Сейтцем, использует данные о количестве серверов, поддерживающих ее работу (от 75 до 100 млн по разным данным), об их среднем энергопотреблении (от 350 до 550 Вт), среднем напряжении в их логических схемах (3 В) и тактовой частоты (1 ГГц).
Силу тока в 1 Ампер создает поток из примерно 1 018 электронов в секунду. Прямой расчет показывает, что работа интернета в целом обеспечивается движением чуть более 50 грамм электронов.
Рассел Сейтц, ведущий исследователь
Другой точки зрения придерживались сотрудники американского научно-популярного журнала Discovery.
Вот как рассуждали они: длиннейшая цепочка единиц и нулей, в которой зашифрован передаваемый документ, для путешествия по сети разбивается на пакеты размером от нескольких десятков до нескольких сотен байт. К каждому пакету цепляется еще и адрес, куда его слать, и номер, позволяющий на месте получения правильно собрать пакеты в единое целое. По дороге эти пакеты проходят через множество компьютеров, и в каждом они ненадолго задерживаются в памяти и анализируются. Затем определяется их дальнейший путь, и они пересылаются дальше.
Оба расчета исходят из массы покоя электронов (9,1*10−31 кг). По словам того же Рассела Сейтца, для «подпитывания» потока 50 грамм электронов приходится прилагать около 50 млн лошадиных сил.
Как рассчитывать массу?
Если эту небольшую статью послать по электронной почте, она займет около 25 КБ (только текст, без картинки). В килобайте 1 024 байт, в байте — 8 бит. Следовательно, объем статьи в битах — 205 000. Можно считать, что из них половина единицы, половина — нули. Значит, единиц 102 500, и каждая изображается 40 тысячами электронов. В целом на запись этой статьи пошло примерно 4 млрд электронов. Масса электрона 9,11.10 28 грамма, умножьте — и вы получите массу данного текста в памяти компьютера.
Но это только одно электронное письмо. По данным за 2008 год, вся пересылаемая информация за день весила 0,0057 миллиграмма. И еще треть от этого веса надо добавить, если мы хотим учесть не только обмен файлами между пользователями, но и информацию, запрашиваемую у сайтов.
Как активность изменилась сегодня?
Согласно сервису Internet Live Stats , каждую секунду в Google делается более 50 000 поисковых запросов, просматривается 120 000 видео на YouTube, отправляется почти 2,5 млн электронных писем. Да, весьма впечатляет, но всё же эти данные не позволяют в полной мере представить себе размеры интернета.
В сентябре 2014 года общее количество сайтов перевалило за миллиард , и сегодня их примерно 1,018 млрд . А ведь здесь еще не подсчитана так называемая «глубокая паутина», то есть совокупность сайтов, не индексируемых поисковиками: контент там может быть как совершенно безобидным (например, онлайновые базы данных), так и совершенно незаконным (к примеру, торговые площадки черного рынка с доступом только через Tor). Хотя браузером Tor пользуются не только нарушители, но и пользователи, которые хотят анонимности.
Отметим, что вышеприведенная оценка численности веб-сайтов является приблизительной. Сайты возникают и исчезают, к тому же размеры глубокой и темной паутин определить практически невозможно. Поэтому даже приблизительно оценивать размеры сети по этому критерию весьма непросто. Но одно несомненно — сеть постоянно растет.
Одним из способов оценки циркулирующей в интернете информации является измерение трафика. Согласно данным Cisco , к концу 2016 года по всему миру будет передано 1,1 зеттабайта данных. А в 2019 году объем трафика удвоился достигнув 2 зеттабайт в год.
Но как можно попытаться представить себе 10 21 байт? Один зеттабайт эквивалентен 36 000 лет HDTV-видео. И понадобится 5 лет для просмотра видео, передаваемого по миру каждую секунду.
Как эта информация представлена на физических носителях?
Несмотря на восход цифрового века, для многих из нас биты и байты остаются понятиями несколько абстрактными. Раньше память измеряли мегабайтами, теперь гигабайтами. А что, если попробовать представить размер интернета в каком-то вещественном воплощении?
В 2015 году двое ученых предложили использовать для оценки настоящие бумажные страницы А4. Взяв за основу данные с вышеупомянутого сервиса WorldWideWebSize, они решили считать каждую веб-страницу эквивалентной 30 страницам бумажным. Получили 4,54 х 10 9 х 30 = 1,36 х 10 11 страниц А4.
Но с точки зрения человеческого восприятия это ничем не лучше тех же байтов. Поэтому бумагу привязали к амазонским джунглям. Согласно расчету авторов, для изготовления вышеуказанного количества бумаги нужно 8 011 765 деревьев, что эквивалентно 113 км 2 джунглей, то есть 0,002% от общей площади амазонских зарослей.
Хотя позднее в газете Washington Post предположили , что 30 страниц — слишком много, и одну веб-страницу правильнее приравнять к 6,5 страницам А4. Тогда весь интернет можно распечатать на 305,5 млрд бумажных листов.
Но всё это справедливо лишь для текстовой информации, которая занимает далеко не самую большую долю от общего объема данных. Согласно Cisco , в 2015 году на одно только видео приходилось 27 500 ПБ в месяц, а совокупный трафик веб-сайтов, электронной почты и «данных» — 7 700 ПБ.
Немногим меньше пришлось на передачу файлов — 6 100 ПБ. Если кто забыл, петабайт равен миллиону гигабайт. Так что амазонские джунгли никак не позволят представить объемы данных в интернете.
В упомянутом выше исследовании от 2011 года предлагалось визуализировать с помощью компакт-дисков. Как утверждают авторы, в 2007 году 94% все информации было представлено в цифровом виде — 277,3 оптимально сжатых эксабайта (термин, обозначающий сжатие данных с помощью наиболее эффективных алгоритмов, доступных в 2007 году).
Если записать всё это богатство на DVD (по 4,7 Гб), то получим 59 000 000 000 болванок. Если считать толщину одного диска равной 1,2 мм, то эта стопка будет высотой 70 800 км.
Для сравнения, длина экватора равна 40 000 км, а общая протяженность государственной границы России — 61 000 км. Причем это объем данных по состоянию на 2007 год. Теперь попробуем таким же образом оценить общий объём трафика, который прогнозируется на этот год — 1,1 зеттабайта. Получим стопку DVD-дисков высотой 280 850 км. Тут уже впору переходить на космические сравнения: среднее расстояние до Луны составляет 385 000 км.
Как изменится объем информации: прогнозы ученых
Сотрудник Портсмутского университета Мелвин Вопсон подсчитал, что цифровая информация может составить половину массы Земли уже к 2245 году при нынешних темпах ее увеличения. Свою статью ученый опубликовал в журнале AIP Advances.
Вопсон основывается на принципе эквивалентности массы и энергии в общей теории относительности Эйнштейна, а также на работе Рольфа Ландауэра, который применил законы термодинамики к информации, и на исследовании Клода Шеннона, который изобрел бит.
Согласно Вопсону, примерно через 130 лет энергия, необходимая для поддержания процесса создания цифровой информации, сравняется со всей энергией, производимой в настоящее время на планете Земля, и к 2245 году половина массы Земли будет преобразована в «массу цифровой информации».
Ученый сделал такой вывод, поскольку человечество использует такие ресурсы, как уголь, нефть, природный газ, медь, кремний и алюминий для создания и поддержания работы огромных компьютерных ферм и обработки цифровой информации, это ведет к перераспределению земной материи от физических атомов к цифровой информации — пятому состоянию материи наряду с жидкостью, твердым телом, газом и плазмой.
В конце концов, согласно автору новой работы, мы достигнем состояния, когда количество битов, созданных человеком, превзойдет количество атомов на Земле. Согласно расчетам Вопсона, это произойдет уже через 150 лет, учитывая нынешние темпы прироста количества информации по 50% в год.
Рост количества цифровой информации кажется неудержимым. По данным IBM и других компаний, занимающихся исследованием больших данных, 90% мировой информации, существующей сегодня, было создано только за последние 10 лет. В некотором смысле нынешняя пандемия COVID-19 ускорила этот процесс, поскольку благодаря ей мы начали производить и использовать больше цифрового контента, чем когда-либо прежде.
Мелвин Вопсон, сотрудник Портсмутского университета
Физик заявил, что через 130 лет энергия, необходимая для поддержания процесса создания цифровой информации, сравняется со всей энергией, которая производится сейчас на Земле. Ученый также отметил, что 90% мировой информации, существующей сегодня, было создано за последние десять лет.
У многих из нас хороший, скоростной интернет. Поэтому многие вебмастера не задумываются над тем, сколько должен весить сайт. Однако, я часто сталкиваюсь с тем, что в моём распоряжении слабый интернет. Таким примером является то, что живя на достаточном расстоянии от города М, у нас нет 4G, а скорость 3G я совсем не замечаю на своём телефоне. Скорее всего, статья ничего нового вам не раскроет, просто посмотрим сколько «весят» главные страницы популярных сайтов, а так же попытаемся выяснить приемлимые цифры.
Сайты
Будем грузить главные страницы сайта и выяснять, сколько они весят.
Для анализа я взял первые 50 сайтов из статистики liveinternet. Остальные 30 я составил из рейтингов забугорья и личного пользования.
В данной статье не будем разделять сайты по типам, а просто взглянем на общую картину мира.
Браузер и машина
Для снятия показаний был взят Firefox 20 на машине с xUbuntu 12.04. На других машинах и браузерах сайты могут отличаться, но не сильно.
Для автоматизации процесса были взяты аддоны:
Linky — через него я сразу открывал все сайты в новые вкладки
NoScript — для отключения скриптов и анализа размера страниц, собственно, без них
UnMHT — для сохранения всех открытых вкладок с содержимым в отдельные файлы, название которых совпадает с открытым сайтом
Сохранение
MTH сохраняет файлы немного большего размера, но погрешность не слишком высокая, по крайней мере, на моих замерах между UnMTH и сохранялкой Firefox.
Краснопанда была открыта в приватном режиме, чтобы мои кукукесы и остальные штуки не мешали чистому результату. Поэтому, все социальные сети должны весить мало, ввиду того, что никто там не залогинен. Посмотрим, так ли это.
Сайты со всем включённым
Я открыл все вкладки и сохранил их. Под сохранение попали и Flash и HTML5 вещи, что значительно увеличивает размеры сайта.
Получился такой график
Я всё строил в LibreOffice Calc, просто потому что могу.
Средняя получена путем высчитывания среднего арифметического по 4м соседям, просто для наглядности.
Видно, что почти все вкладываются в 3 Мб, а средний вес сайта составляет около 1,4 Мб.
Сайты с отключенными Javascript и Flash/Html5 объектами
Общий график
Выводы
Лучше всего посмотреть что не так с Page Speed.
- Оптимизируйте изображения. Они как правило составляют огромную весовую часть сайта.
- Сжимайте CSS и JS. Иногда получается скукожить раза в два.
- Используйте Ajax, для подзагрузки страниц и элементов, а не перезагрузки
- Кешируйте всё, что сможете. Главное, следите за нагрузкой на сервер.
- Включите Gzip сжатие
- Используйте отложенную загрузку изображений. Я на своих сайтах подключил Lazyload. Рекомендую, особенно на мобильных сайтах или мобильных версиях сайта.
- Css-спрайты. Группируйте картинки. И клиент, и сервер будут рады.
- Убирайте всё лишнее! Не ставьте тяжелые Flash приколюхи, онлайн радио и автоплей видеороликов без необходимости.
Советы, которые я дал выше, ускорят ваш сайт, а пользователям будет комфортнее. Однако, если ваш сайт супер крутой, то никакие мегабайты не смогут остановить пользователя зайти на него. Если же ваш сайт так себе, оптимизация мало чего даст.
Вы замечали, что мы постоянно скачиваем всё больше и больше информации, при этом она сама становится больше. Что я имею в виду - фильм, который раньше каждый из нас с удовольствием смотрел весил 400-600Мб, сейчас же - качество в 2-4Гб считается не очень, а уж если полноценно смотреть в высококачественном разрешении 4К - то конечно же надо скачивать фильм 20-30Гб по размеру и более. А уже не за горами и разрешение 8К и далее. И так со всеми остальными видами - тексты больше, картинки больше - всё больше.
И всё это радостно накапливается в Интернете … Сколько же сейчас там хранится данных, вот конкретно в нашем 2020м году. Оказывается, существует не только множество исследований, но и множество методик, которые пытаются оценить размер Интернета. Но прежде всего, нам придётся разобраться в единицах измерения - ибо конечно же Гигабайты и Терабайты в этом нам не помогут :)
Йоттабайт это очень много
Итак, как всем прекрасно известно, минимальный размер информации это 1 бит - то есть 0 или 1, 8 бит нам дают 1 байт и вот после этого и начинается прирост размера измерений почти на 1000, точнее на 1024 - связано это с тем, что 1024 это 2 в 10 степени. Отсюда и появляются некруглые итоговые значения. Кстати математики придумали гораздо большее количество названий большим и ОЧЕНЬ большим числам .
В Интернете нас более 4.5 миллиардов
Итак, прежде всего немного статистики - общее количество пользователей Интернета - более 4.5 миллиардов, более 1.5 миллиардов сайтов. Ежедневно мы шлём более 237 миллиардов электронных писем, более 705 миллионов постов в Твиттере, более 6 миллиардов видео просмотрено на YouTube. Живую статистику можно посмотреть прям здесь . А вот сколько именно данных создаёт каждый из нас - можно почитать здесь .
Каков же размер Интернета?
Итак, сколько же действительно данных в Интернете. На текущий размер ежегодный прирост данных в Интернете оценивается примерно в 1,1 Зеттабайт, что как мы помним из таблицы равно около 1,2 миллиарда терабайт данных. В целом же общий размер Интернета можно выразить в диапазоне от 2 до 4 Зеттабайт данных. И в целом если вдруг захочется скачать весь Интернет - то сегодня на хорошей скорости это потребует около 11 миллиардов лет.
А сколько же весит Интернет?
И вот это самый интересный вопрос - оказывается это можно посчитать :) Как мы помним, вся информация состоит из бит - то есть нулей и единиц и если 0 это просто отсутствие чего-то, то единица это фактически заряженный конденсатор - микроскопический и при этом содержит около 40.000 электронов - это очень мало, но они уже что-то весят! Масса электрона составляет 9,11 * 10⁻³¹ кг. Принимая, что примерно 0 и 1 одинаковое количество умножим на общий размер Интернета получаем, что он весит сейчас от 0,0000005 грамм до 0,0000015 грамм - немного не правда ли :)
Добрый день. Скажите, в наше время 512 рам на впс это очень мало? Если на сервере установлена панель веста и вордпресс(тем более не один а много вордпрессов). Сколько рамов для этого надо?
Смотря как настроено кэширование на сайтах и как настроена сама система.
Но, думаю, 512 MB в любом случае мало, рекомендую брать VPS от 1 GB.
Объемы памяти сейчас не такие уж дорогие.
Понятно, в этом деле я не разбираюсь, наверное лучше останусь на виртуальном хостинге. Просто я взял 512 рам и поставил туда весту и несколько сайтов. Сегодня захожу и смотрю что грузят на все 512 мегабайт . Получается это очень мало на сегодня?
mariux:Понятно, в этом деле я не разбираюсь, наверное лучше останусь на виртуальном хостинге. Просто я взял 512 рам и поставил туда весту и несколько сайтов. Сегодня захожу и смотрю что грузят на все 512 мегабайт . Получается это очень мало на сегодня?
Для Linux это нормально, процессы резервируют память под кэш и буферизацию для более быстрой работы. При недостатке памяти, часть кэша освобождается.
Наблюдайте за системным журналом операционной системы из консоли /var/log/messages или /var/log/syslog. Если какому-либо процессу не хватит памяти, то наиболее толстый процесс будет закрыт OOMKiller'ом с надписью "Out of memory".
512 мегабайт памяти вполне можно настроить так, чтобы все работало без убийства процессов. Но для этого придется поработать с Apache и mysql (или что там у вас стоит). И следует сразу рассчитывать на то, что нагрузку такие сайты будут держать невысокую. Проще чуть переплатить за память и не иметь проблем с настройками.
Выполните free -m
Если все ушло в кэш и swap не используется то все нормально. Хотя 1 Гб маловато.
512 Мб может быть достаточно. Но нужно будет поработать головой и потратить время. Большинству, выгоднее "переплатить" за 1 гб и больше, чем красноглазить в консоли.
Для вордпресса нужно гига 2. Если там много вордпрессов, то может и больше понадобится, хотя частично может помочь увеличение swap, если это норм хостинг с быстрыми не загруженными ssd.
Как вам уже сказали, при верно настроенном кэшировании и сервере (в том числе и сервере БД), 512 МБ для пары-тройки обычных (не особо посещаемых) сайтиков без кучи плагинов должно хватить. Однако, если вы задаете подобные вопросы, то сами вряд ли будете замарачиваться со всякими настройками, поэтому лучше просто возьмите виртуалку хотя бы с 1 ГБ.
Это очень простой вопрос, но найти нормальный ответ оказалось дико сложно. Чтобы вы не повторяли мой трудный путь по античным форумам и сомнительным подборкам, я собрал самый сок. В статье: один простой, но трудоемкий способ сделать все руками и три действительно полезных сервиса, помогающие узнать размер страницы сайта в килобайтах.
Зачем это нужно?
Сайтам тоже нужно худеть к лету. Чем больше объем страницы, тем медленнее она загружается, тем дольше пользователь не получает доступа к контенту и тем хуже они выглядят в глазах поисковиков. Узнать размер страницы и сайта целиком стоит по двум причинам: оценить, сколько места на хостинге у вас осталось и как быстро он загружается в браузере. Второе особенно важно – скорость загрузки страниц учитывается поисковиками при формировании выдачи. Соответствующий алгоритм работает аж с 2010 года и если сайт тяжелый и медленный, на попадание в топ рассчитывать не стоит.
Как узнать сколько весит страница сайта?
Можно воспользоваться специальными сервисами или посчитать размер «руками» в браузере. Сервиса в подборке всего три, зато они в тельняшках и красавцы. Но сначала попробуем сделать все сами.
Как узнать, сколько весит страница сайта в браузере
Чтобы найти нужную информацию, зайдите в инструменты разработчика браузера Google Chrome («Настройки» >> «Дополнительные инструменты» >> «Инструменты разработчика» или просто F12).Нужную информацию можно получить во вкладке Network. Главный минус – это очень неудобно. Там отображается вес каждого элемента страницы, а скорость их загрузки в миллисекундах можно посмотреть на временной шкале. Но на этом все: можно либо узнать полный размер страницы сайта в килобайтах и время загрузки (самая нижняя строка), либо уточнить эти же параметры для типа элемента. Если вы шарите в JavaScript и CSS, можно посмотреть, какие скрипты и стили подгружаются медленнее других, но полноценным анализом это назвать сложно.
Переходим к сервисам.
Простой, попсовый и удобный сервис, который обычно используют для проверки IP-адреса. Он выдает необходимый минимум информации. Чтобы узнать, сколько весит страница сайта, нужно выбрать в списке инструментов «Информация о сайте». Вбиваете URL и радуетесь.
Еще один очень удобный и красивый сервис. Помогает узнать размер страницы сайта и время загрузки. По итогам теста ставит оценку и подсказывает, как улучшить положение. Есть удобная временная шкала загрузки элементов страницы, разбивка по типу контента и количеству запросов к серверу. Результат теста можно скачать или поделиться им в социальных сетях (зачем – загадка). Ссылка на инструмент спрятана в футере сайта (кнопка Tools), все остальное на страничке «продает».
GTmetrix
Есть еще собственный инструмент «Гугл» – PageSpeed Insights. Сколько весит страница сайта он не показывает, но помогает определить основные проблемы, снижающие скорость загрузки. Правда, никаких особых подробностей он не дает, только краткую справку о том, как сделать все правильно. Список критериев проверки у него тоже небольшой, поэтому для детального анализа страницы лучше воспользоваться другими сервисами.
Что делать, если сайт загружается медленно
Отсекайте лишнее
Если единственная функция элемента – быть красивым, смело режьте. Никто не оценит красоту вот этой плашки или вон того окошка, если придется долго ждать их загрузки. То же самое и с остальными элементами страницы, причем не только визуальными.
Не все сразу
Загружайте самые тяжелые и объемные элементы в последнюю очередь. Да, размер страницы сайта не изменится, но пользователь быстрее получит доступ к полезному контенту.
– Только качественный трафик из Яндекса и Google
– Понятная отчетность о работе и о планах работ
– Полная прозрачность работ
Читайте также: