Как быстро генерировать идеи для новых статей, используя Screaming Frog?

 

screaming

Путь у спеху тернист, и на этом пути вы столкнетесь с разными испытаниями. Но нельзя переоценить инструмент, который позволит вашим контент-идеям быть свежими и актуальными.

Эта статья ознакомит вас с некоторыми инструментами SEO, которые помогут вам найти те контент-идеи, которые основываются на онлайн-обсуждениях вашей целевой аудитории.

Что нам понадобится

Screaming Frog: Первое, что нам необходимо, это лицензионная копия программы Screaming Frog (SF). К счастью, она не очень дорогая (около $150/USD за год использования). А если Вы не имели дел с этой программой, в Интернете Вы можете найти разнообразные обучающие статьи. После того, как Вы скачаете и установите программу, Вы будете готовы к работе.

Аккаунт в Google AdWords: У многих из вас уже есть аккаунт в AdWords, так как Вы используете Google. Но даже если система AdWords Вам не нравится, Вы все равно можете создать аккаунт, чтобы получить бесплатный доступ к полезным инструментам.

Excel/Google Drive (таблицы): Любая из этих программ подойдет. Вам это понадобится, чтобы работать с данными вне SF.

Браузер: В этой статье мы используем Chrome.

Концепция

Один из способов создать контент-идею, это собрать информацию о том, что обсуждает ваша целевая аудитория. Существует множество возможностей это сделать, включая изучение поисковых запросов, но большинство из них имеют общие недостатки. Во-первых, информация, которую мы получаем, может быть уже не актуальной. Во-вторых, мы редко получаем полную картину. В некоторых случаях, даже имея под рукой полезные программы, нам приходится проводить детальное и долгое исследование. С другой стороны, поиск информации в социальных сетях не всегда будет быстрее (посты в Twitter, обсуждения на Facebook и т.д.), и многие программы, созданные для того, чтобы упростить процесс поиска, довольно дорогие.

Но что если Вы можете собрать вместе сотни тем, длинных обсуждений, вопросов, и все, что обсуждает Ваша целевая аудитория, и это займет всего 20 минут? Заманчиво, правда? Что же, это возможно, если использовать SF для просмотра форумов, блогов, и других ресурсов.

Вы все еще здесь? Хорошо, давайте сделаем это.

Ход работы

Шаг 1 – Обозначение целей

Первое, что Вам необходимо сделать, это найти место, где Ваша целевая аудитория обсуждает темы, которые относятся к Вашему товару. Возможно, у Вас уже есть пару сайтов на примете, но необходимо постоянно расширять и разнообразить этот список. Для того, чтобы справиться с этой задачей, я использую Google’s Display Planner. Для того, чтобы наглядно показать процесс работы, я буду использовать ненастоящий сайт для садоводов.

Заметьте, что изучение поисковых запросов в Google или других поисковых платформах тоже являются частью этого процесса. Но для этого необходимо иметь некоторые навыки и знания и использовать специальные программы. Например,WordPress и vBulletin.

Google’s Display Planner

Перед тем как начать, я хотел бы подчеркнуть, что я не собираюсь вдаваться в подробности того, как использовать Display Planner. В Интернете существует множество статей, в которых об этом говорится простым языком. Я настоятельно рекомендую изучить их, если Вы не знакомы с Display Planner.

Я начну работу в Google’s Display Planner с того, что введу ключевые слова, которые связаны с моим сайтом и интересующей меня информацией. Я использую слово «садоводство». На скриншоте ниже Вы видите, как работает Display Planner. Существуют различные настройки, которые расширяют возможности Вашего поиска, и о них Вы можете узнать в обучающих статьях.

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:qJyinA:Google Chrome.png

Display Planner предоставляет различную информацию, основываясь на Вашем запросе. Например, демографическая информация и информация о том, с какого устройства был сделан запрос. Напомню, что я могу расширить или сузить информацию, используя фильтры и настройки. Но я вполне доволен тем, что получилось, поэтому продолжим.

Шаг 2 – Работа с Screaming Frog

Далее я копирую URL сайта и открываю его в Chrome.

Как только мы попадаем на сайт, нужно определить, где происходит обсуждение. Обычно это форумы, комментарии, статьи в секции блогов, и др. Это может быть любое место: все зависит от Ваших целей.

В нашем случае мне повезло. Я нашел форум с ответами «Вопросы по садоводству».

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:f8grAc:Google Chrome.png

Быстро просмотрев заголовки, можно уже понять, что тематика разнообразна, и поле для работы обширно.

А теперь преступаем к веселью: время запустить Screaming Frog!

Я использую функцию “Custom Extraction”, которую можно найти по следующему адресу:

Configuration ? Custom ? Extraction

…в SF (Вы можете найти более детальное объяснение того, как работает SF, в Интернете). Использование Custom Extraction позволит мне собрать информацию с нескольких страниц.

Настройки

Я начну с настроек.

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:6CLiO7:SEOSpiderUI.png

На этом скриншоте видно, что я открыл настройки custom extraction settings и выбрал XPath первым устройством извлечения информации. Мне нужно несколько устройств для извлечения информации, потому что на одной и той же странице находятся разные заглавия. Вы можете просто вырезать код и вставить его в строку следующего устройства, но не забудьте расставить порядковые номера (выделено красным), чтобы программа не обрабатывала раз за разом одну и ту же информацию.

Заметьте, что я выбрал «извлечение текста» в строке типа извлечения. Это самый лучший способ, чтобы собрать информацию. Тем не менее, если у Вас возникают какие-либо проблемы, Вы можете изменить эту опцию.

Получение кода Xpath

Для того, чтобы получить код, который нам нужен, следует сделать следующее:

  1. Использовать Chrome
  2. Открыть URL с информацией, которую Вы хотите получить
  3. Щелкнуть на тексте, который Вам нужен, правой кнопкой мыши и выбрать «Посмотреть код»

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:x5zaHV:Google Chrome.png

Убедитесь, что Ваш текст выделен, после чего правым щелчком мыши выберите «Сору» и «Сору XPath». (Вы можете использовать и другой вариант, но я рекомендую сначала следовать моим инструкциям).

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:KGwqPz:Google Chrome.png

Здесь не помешает провести короткий тестовый предпросмотр, чтобы убедиться, что все идет правильно, и Вы не совершили ошибок. Вот как это сделать:

  1. Запустите поисковый бот.
  2. Остановите поисковый бот через 10-15 секунд и перейдите во вкладку “custom”, установите фильтр на «извлечение» (или другое, если Вы сами переименовали эту функцию), и ищите информацию в поле извлеченного. Если все было сделано правильно, то Вы увидите информацию, которую хотели, напротив первого просмотренного URL. Бинго.

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:fDZAyI:SEOSpiderUI.pngРешение частых проблем и контроль над поиском

На моем примере все выглядит элементарно и эффективно. С первого взгляда. Но на самом деле Вы можете столкнуться с разными проблемами. Что Вы скорее всего заметите, это то, что некоторые URL не имеют результата поиска. Это случается, если исходный код немного отличается на разных страницах, или же наша программа переходит на другие разделы сайта. Существует несколько вариантов для решения этой проблемы, которые Вы можете найти в Интернете. Я собираюсь пойти по пути наименьшего сопротивления, дабы не тратить Ваше время.

В нашем случае я собираюсь исключить «неработающие» страницы из списка и продолжить сбор информации. Честно говоря, это не решение проблемы, а скорее уход от нее. Но проработав в SF достаточно долго, Вы научитесь их решать быстро и безболезненно. На самом деле, пара страниц, которые я исключил из анализа, не сильно повлияют на конечный итог.

Для того, чтобы отсортировать URL, из которых я хочу извлечь информацию, я использую опции “include” и “exclude” во вкладке меню “configuration”. Начнем с опции “include”, которая определит, какие URL мы включаем в поиск.

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:6scUuu:SEOSpiderUI.png

Так я могу настроить SF обрабатывать информацию с конкретных URL на сайте используя регекс. В этом случае все просто: я просто включаю все, что отвечает моему запросу, все информацию, которую я хочу просканировать. Необходим лишь один параметр, и он совпадает с тем, что предлагает SF:

  • http://www.site.com/questions/.*

С опцией “exclude” все немного (самую малость) сложнее.

Во время первого сканирования, я запомнил количество URL, которых SF не смог обработать. В данном случае, эти страницы аккуратно размещены в различных подпапках. Это делает исключение легким и быстрым, так как я могу найти и правильно определить эти URL.

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:fuqMmV:SEOSpiderUI.png

Для того, чтобы исключить их из сканирования, я добавляю соответствующие строки в фильтр исключения:

  • http://www.site.com/question/archive/.*
  • http://www.site.com/question/show/.*

В результате последующего анализа я обнаружил, что нужно исключить и следующие папки:

  • http://www.site.com/question/genus/.*
  • http://www.site.com/question/popular/.*

На самом деле это проще, чем выглядит. SF в любом случае обработает все URL, начиная с первой папки. В конце концов, Вы все же получите искомую информацию. Но лучше все же настроить программу правильно, чтобы избежать возможных ошибок и оптимизировать процесс. Давайте делать все так, как надо.

Завершение процесса и примеры извлеченной информации

Вот как все выглядит, когда поисковый бот закончил свою работу:

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:MjDfb8:SEOSpiderUI.png

Теперь я на 99.9% готов! Единственное, что осталось сделать, это снизить скорость, чтобы не навредить сайту. Это можно с легкостью сделать с помощью функции Configuration ? Speed, где нужно снизить количество обрабатываемых веток дискуссии.

Шаг 3 – Анализ

После того, как мы достигли цели (вся информация готова к обработке), можно остановить поиск и приступить непосредственно к анализу информации. Существуют разные способы анализировать необходимую полезную информацию, но в этой статье я расскажу лишь об одном.

Находим популярные слова и фразы

Моя цель – это сбор информации для успешного генерирования контент-идей. Поэтому мне нужно определить, какие слова и фразы моя целевая аудитория использует в онлайн-обсуждениях чаще всего. Для этого у меня есть пара простых инструментов:

  • http://tagcrowd.com/
  • http://www.online-utility.org/
  • Excel

На первых двух сайтах Вы можете произвести анализ текста. Возможно, Вы уже знакомы с некоторыми полезными функциями tagcrowd.com. Хотя по сравнению с tagcrowd.com, Online-Utility не выглядит так привлекательно, но последний производит поиск популярных фраз, состоящих из 2-8 слов. Существует много сайтов и инструментов, которые позволят Вам проанализировать текст, просто найдите тот, который подходит именно Вам!

Я начну с Tagcrowd.com.

Использование Tagcrowd для анализа

Первое, что мне необходимо сделать, это экспортировать .csv со всей информацией из SF, и объединить все строки в одну. После этого можно просмотреть данные и немного их отредактировать. Обычно я удаляю такие вещи, как:

  • Знаки пунктуации
  • Лишние проблемы (Excel отлично справляется с этим и сам)
  • Лишние символы

Теперь, когда у меня есть чистая информация, без лишних символов и пробелов, я копирую все в обычный блокнот, чтобы удалить все форматирование. Я обычно использую блокнот онлайн на editpad.org.

Вот, что я имею после вышеперечисленных действий:

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:AQjpqU:Google Chrome.png

Вы можете теперь копировать весь текст из Editpad в Tagcrowd. После этого нажмите на кнопку «визуализировать», и все готово!

Использование Tagcrowd.com для анализа

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:SeqYtU:Google Chrome.png

Tagcrowd предлагает различные настройки: минимальное количество раз появления в тексте, объединение похожих слов в группы и т.д. Я предпочитаю искать те слова, которые попадаются как минимум 2 раза.

В моем примере я выделил некоторые слова, которые уже могут дать нам какую-то информацию.

По результату мы видим, что наиболее часто у нас появляются такие слова как «цветы», «семена» и «опознайте». Не смотря на то, что я и так знаю, что моя аудитория обсуждает растения, деревья и все с ними связанное, тот факт, что они часто просят определить то или иное растение, был для меня новым. Уже одно только это может послужить фундаментом для создания нового контента.

В моем примере я не проводил глубокое и детальное исследование, и информация была довольно ограничена. Вы должны понимать, что серьезное исследование даст Вам намного больше информации. Этот анализ дает разные результаты в зависимости от сезона: он показывает, чем Ваша аудитория интересуется конкретно сейчас.

Еще один интересный момент, с которым я столкнулся в результате анализа, это частое использование слова «пожалуйста». Многие проигнорировали бы его, но для меня это явный показатель того, какой стиль использует и насколько воспитана моя целевая аудитория. В моем случае, это вежливый и дружелюбный стиль, который редко встречается на других форумах. Используйте информацию, которую Вы получите, не только для того, чтобы создать актуальный контент, но и чтобы общаться с аудиторией на их языке. Это поможет Вам создать крепкую связь с ними.

Использование Online-Utility.org для анализа

Так как я уже подготовил информацию для Tagcrowd, я просто копирую ее из блокнота, вставляю в поле на Online-Utility и жму на кнопку «начать анализ».

Вот, что мы имеем после анализа:

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:F9LpWN:Google Chrome.png

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:mAMxCq:Google Chrome.png

На самом деле Online-Utility предоставляет намного больше информации. Но для того, чтобы не сильно отвлекаться от нашей темы, я показываю Вам лишь основное. Все остальное Вы сможете увидеть сами, когда будете работать с этим сайтом.

Посмотрите на первый скриншот. Фразы «опознайте это растение» и «что это» появлялись несколько раз. Это говорит в пользу моей теории о том, что вопрос об идентификации неизвестных растений является популярным. Можно смело создавать контент, основываясь на этом.

Использование Excel для анализа

Давайте я вкратце расскажу Вам об еще одном методе анализа.

Excel является наипростейшим инструментом для анализа и сортировки информации. Вставьте отредактированную информацию из блокнота в Excel и используйте сортировку по алфавиту: таким образом Вы узнаете много нового.

ssd:private:var:folders:m2:wh1vdy452ps54mq15f_w0jlh0000gn:T:EXDvV1:Microsoft Excel.png

Здесь, например, я вижу целый список вопросов, которые подходят для генерации контента! Я могу без труда увидеть однотипные вопросы и понять, какие из них наиболее популярны.

Совет: После того, как Вы собрали и проанализировали информацию, составили свой контент, не забудьте поделиться им на оригинальном сайте. В этом нет ничего зазорного. Люди наоборот будут рады тому, что Вы наконец дали ответы на их вопросы. Ведь именно для этого Вы всем этим и занимаетесь.

Напомню, что все началось с Display Planner. Там я нашел демографическую информацию об аудитории. Полезно будет провести исследование и в этом направлении. Можно использовать Facebook для получения более детальной информации.

Не забывайте, что, чем больше Вы знаете о своей целевой аудитории, тем эффективнее Вы сможете с ними контактировать. Используйте все возможные ресурсы, чтобы составить точный портрет среднего потребителя. Именно это поможет Вам найти оптимальный способ завязать прекрасные отношения с аудиторией и удержать ее возле себя.

Подводим итоги

Все, что мы сейчас сделали – это лишь начало пути. Важно это понимать.

Плюсом это программы является то, что она проста в использовании и быстро и эффективно выдает Вам результат. Любой может использовать ее, стоит лишь немного изучить Интернет и попрактиковаться. Эта программа подойдет для малого и среднего бизнеса, в то время как крупным организациям следует найти другой способ создания контента.

Способы сбора информации очень сильно варьируются. Каждый из них имеет свои положительные и отрицательные стороны. Найдите свой. Креативные люди, имеющие навыки и представление о том, чего они хотят, всегда смогут использовать эту информацию во благо, создать контент, который будет соответствовать желаниям и запросам целевой аудитории.

Также рекомендуем почитать:

Источник перевода