SEO практика
273 subscribers
43 photos
3 videos
16 files
1.88K links
Телеграм канал на групата "SEO практика" - практическо SEO.
Бележник https://sp.jump.bg/
FB https://t.co/tIVyhNzfLt
Download Telegram

Здравейте,
Имате ли наблюдения дали дължината на домейн е важна за SEO?
Бях чел че shorter is better, но не знам дали още е така.

Дискусия https://www.facebook.com/groups/seopraktika/permalink/666371934304017/

Ако разбирате руски прочетете тази статия. Сбито и доста конкретно се говори за Гугъл, за неговата визия за бъдещето, какво иска да постигне и защо прави някои действия. Честно казано тази програмистка в Гугъл ми беше доста по-информативна от цялото им събитие преди няколко дни


Дискусия https://www.facebook.com/groups/seopraktika/permalink/666402534300957/

Постяам от заявка за Juan Miro, вижте кво идва при скрол :)

Дискусия https://www.facebook.com/groups/seopraktika/permalink/666441434297067/

Покрай безплатния Netpeak Spider (Където все пак има ограничения), се замислих, какви crawl инструменти ползваме като SEO специалисти.

Интересно е да споделите какво ви върши работа и си заслужава цената.

Лично аз използвам Screaming Frog, до болка познат на повечето тук. За цената си е повече от супер, доста неща предлага, особено ако знаеш какво точно да търсиш и гледаш. Като за мен най-голям плюс е, че постоянно се работи върху него и след всеки релийз има яки нови функции.
DeepCrawl, е друг crawl tool. При него основно предимство е, че можеш да си гледаш времево промените в сайта т.е. ако нещо се е счупило или е променено по сайта. Saas т.е. с лимити в crawl и доста по-дебело като сума.

Дискусия https://www.facebook.com/groups/seopraktika/permalink/667016167572927/

Не се занимавам много с outreach, но скоро видях, че на AppSumo за пуснали безплатен тул за това и се оказа нелошо инструментче. Може да ви влезе във въоръжението:

Дискусия https://www.facebook.com/groups/seopraktika/permalink/667101284231082/

Google наскоро пуснаха един тул за fact check като част от студиото им за журналисти. Вече са намерили и как да се попада лесно там. Просто се попълва правилно https://schema.org/ClaimReview

https://toolbox.google.com/factcheck/explorer

Дискусия https://www.facebook.com/groups/seopraktika/permalink/668340650773812/

Тествано. Ако сайт на WP има 2 title едновременно (генерирани автоматично от темата) няма да се обходи от bingbot и в BWT отчета ще покаже проблема. В GSC няма проблем и обхожда.

Дискусия https://www.facebook.com/groups/seopraktika/permalink/668359210771956/

Ще си разкриете ли топ 3 SEO инструментите, без които вашата дейност би се затруднила много? Започвам с моите по ред на значимост:
1) Ahrefs
2) SEO Tools for Excel
3) Rank Checker

Дискусия https://www.facebook.com/groups/seopraktika/permalink/668629984078212/

В google search console имам над 5500 адреса обходени, но не са идексирани. Как мога да ги пусна да ги индексира google ?

Дискусия https://www.facebook.com/groups/seopraktika/permalink/670173647257179/

Колеги, скоро направиха една услуга, която е доста практична (поне за мен). Идеята накратко е следната.

Премиум домейните са скъпи и не винаги е изгодно да се купуват, ако сте в ниша с един два домейна. Няма смисъл да купиш домейн за 1500 долара, само за да поставиш една връзка. Затова там го направиха да може да се купува от няколко човека. На домейна се знае цената и хората, интересуващи се от връзка от възстановената му челна, се включват със сумата разделена на броя кандидати (макс 10). Така вместо да даваш 1500 долара имаш връзка от як домейн срещу 150 долара.

Ако искате може да го организираме по някакъв начин и при нас, още повече, че българи са едни от силните домейнъри в света (Методи, Kalin) и сигурно ще можем да ги уговорим да ни дават добри домейни :)

Как ви е като идея и искате ли да се опитаме да организираме нещо такова? Дори ако може да мине като вътрешна услуга през Kalin ще е може би най-добре, защото той е с изграден авторитет в общността.

Дискусия https://www.facebook.com/groups/seopraktika/permalink/671606970447180/

Тука, в този сайт, може да намерите страшно много информация с готови примери на питона, които може да ви погнат в SEO - ето тази статия е доста добър пример :)

Дискусия https://www.facebook.com/groups/seopraktika/permalink/672112010396676/

**Употребявайте "noindex" таг много внимателно и винаги по предназначение.** При мен казусът започна от една връзка, която дълго(няколко години) е връщала 404 и се опитвам да я върна в индекса. Не става и не става. С много зор я вкарвам и след няколко седмици отново изчезва. Връзки правих нови, индексирах насилствено, не. Явно бота си пази някаква статистика за историята на този адрес и не му се нрави. Това беше лирично отклонение.

Та поразтърсих се какво пишат хората, на които имам доверие в SEO и се борят с подобни проблеми. Мюлер в едно видео получи въпрос от публиката защо магазин, който по време на разработка е поставял noindex таг по адресите, след това вече не се индексира въпреки премахването на тага. Отговорът е, че ако по страници дълго време стои noindex, то бота им започва да ги обработва по друга логика, сходна на логиката на 404 и да ги сканира много по-рядко.
"“In general, I think this fluctuation between indexed and non-indexed is something that can throw us off a little bit.

Because if we see a page that is noindexed for a longer period of time we will assume that this is kind of like a 404 page and we don’t have to crawl it that frequently."

Всъщност не толкова често се оказало никога в рамките на година и хората се принудили просто да сменят всички адреси с нови, които не носят негативен исторически шлейф.

Дискусия https://www.facebook.com/groups/seopraktika/permalink/673203330287544/

Microsoft пуска нов безплатен инструмент за анализ на потребителското поведение в сайта. По техни думи ще се пази анонимност. Поддържа heatmaps, session playbacks, insights. Интегрира се с Google analytics.

П.п. Дайте обратна връзка, ако някой тръгне да го слага най-вече по онлайн магазини? Как се държи, бави ли много, доволни ли сте от данните и потребителските сесии.



Дискусия https://www.facebook.com/groups/seopraktika/permalink/673341060273771/

Не съм го ползвал, попадна ми.

Дискусия https://www.facebook.com/groups/seopraktika/permalink/673354413605769/

За хората, които се занимават с повечко анализ на данни: кой език използвате най-вече за да си улесните работата? Например Питон или R.
Идеята ми е по-скоро като проучване за кои езици и похвати си подхождат най-много със SEO.

Дискусия https://www.facebook.com/groups/seopraktika/permalink/673517656922778/

Как е най-добре да се пренасочи силен релевантен домейн 2020 за засилване на сходен сайт? Ако е възможно дайте примери от собствената си практика, в които сте видели положителен резултат.

Дискусия https://www.facebook.com/groups/seopraktika/permalink/675666576707886/

Имам нужда от 3 до 5 юнака с Гугъл локъл идиот над 7.

Трябва да имат и поне 5+ коментара на Дискус за последната година.

Заплащането е в крипто, линкове или кеш пара на ръка :)

Дискусия https://www.facebook.com/groups/seopraktika/permalink/676193859988491/

Нагледно как тълкувам аз обявлението на Гугъл, че разбират пасажите по добре (първия скрийншот) и видеата по добре (втория скрийншот).

Това е някакъв мега комбиниран снипет от различни статии, който по принцип досега си беше bullet list от една статия. Вече е с франкенщайнски измерения и с цитирани пасажи от 20+ статии във всеки булет (точките гугъл си си ги е съставил като е разбрал тематиката).

Още един момент, в който гугъл един вид подстрекава копи-пейст на статии - ако представиш различно темата за някои търсения, нямаш шанс.

И още един момент, в който on-serp ще се случва играта и Гугъл дал, Гугъл взел.

А за видеата не е нещо ново, но все повече ще ги виждаме на мобилно и особено в началото за US търсения тези сърпове коледни елхи (тематични са и сега, Коледа иде) 😀

Дискусия https://www.facebook.com/groups/seopraktika/permalink/676664179941459/

Транскрипцията на едно от интересните видеа на Гугъл. Тук се разказва как определят дубликатите въз основа на набор от цифрови отпечатъци(хешове) на документа. Те не сравняват текста като текст. Преди съставяне на хешовете те премахват паразитните части - меню, фудър и оставят само основната част. След това се приоритезира 1 победител от сходните документи на база връзки, наличие на канонични адреси и други позитивни сигнали.

Извън този документ нещо, което сме говорили и преди - алгоритмите на търсачките се опитват да опростят максимално всичко, за да могат да се справят с огромните обеми. И горе - ако съумеем да получим различен отпечатък за дублиран документ (преди години беше едно просто добавяне на уводен параграф, вече не е), то за търсачката този документ ще е уникален.

https://search-off-the-record.libsyn.com/transcription-for-how-technical-search-content-is-written-and-published-at-google-and-more
-

Дискусия https://www.facebook.com/groups/seopraktika/permalink/678959746378569/