Advego Plagiatus - хорошая программа для проверки уникальности статьи. Наверное, многие ее знают и ею пользуются. У меня вопрос к тем, кто знает: Как она работает? Почему получается, что после одной проверки уникальность 100, а после другой 88? Она проверяет по разным источникам что ли? И есть ли вероятность, что статью могут украсть, пока ты ее проверяешь?
Использую Advego уже больше 3х лет, программа незаменимая (впрочем и сервис сам полезный). Вообще, алгоритм проверки уникальности не очень сложен, и при начальном знании программирования можно легко сделать подобную программу. Единственное но, Advego проверена временем и сама по себе идет от сервиса, занимающегося копирайтом и рерайтом статей.
Вообще, проверить уникальность своей статьи не сложно. Достаточно разбить всю статью на предложения (части по 70-100 символов) и по очереди вводить каждое предложение в поисковую систему. Чем больше идентичных совпадений, тем меньше уникальность статьи. Если результатов вообще нет, то уникальность = 100%. Advego не ворует материал, программа автоматически разбивает ваш текст на части и по очереди их вводит в поисковые системы, что выбраны в настройках программы. Во время проверки выдает найденные результаты где текст совпадает. Дабы выичслить % программа скорее всего разбивает текст на кол-во частей равным кратным 100, т.е. если 2 части совпадают с найденным материалом, то уникальность 100-2%=98%, если найдено 70 частей из 100, то соотвественно уникальность статьи 30% и т.д.
Собственно, не стоит боятся за то, что введя в поисковую систему свою статью вы лишитесь ее. Плагиатус Адвего делает именно это, иначе говоря - он своеобразный робот. Кстати, если в адвего слишком часто проверять текст (допустим 20-30 статей в минуту), то можно получить бан поисковиков минут на 20-30.
Меня просто удивляет, почему я проверяю статью и имею 98%, а мой покупатель проверяет потом и получает уже 94%. Как будто программа проверяет не везде и не всегда. Нет гарантии, что ты проверишь один раз и можешь быть уже уверен в уникальности.
Ну я-то не догадалась! Я только глубокой и проверяю. Нажмешь 2-3 раза подряд и получишь всегда разный результат, а через час зайдешь - еще другая цифра будет. А заказчик уже через пять минут после меня проверяет, пишут мне цифру, я перепроверяю - получается еще меньше! Неужели в Интернете так быстро появляются новые статьи, с которыми мои совпадают?
Когда я писал сам статьи не было ни одного случая, когда программа выдавала даже 99%, всегда было 100. В принципе и во время рерайта % уникальности всегда был 95-100%, при этом зачастую в минус уходило из-за стандартных фраз, вроде "А пробовали вы использовать..." или "В принципе, как и в любой другой стране...", в общем, фразы, которые любят роботы.
Ну, и к слову, 90-94-97%, разница-то вообще-то незначительная (если вообще имеется). Поисковикам зачастую хватает 30-40% уникальности что бы нормально воспринять статью, 70% насколько мне известно - самая обычная нормальная статья. Выше - уже качественный контент, для людей идет, а не для поисковиков (со своим стилем и всякими изощрениями), а тут уникальность не так важна, т.к. почти всегда будет близка к 100%.
Я всегда стараюсь, чтобы было 100%. Но действительно часто повторяются какие-то стандартные фразы. Если учесть, что иногда пишу по 20 статей на темы, которые уже давно избиты, то все варианты и комбинации давно заняты. Но дело не в этом. А в том, что при первой проверке одна фраза не выделилась, то есть ее не нашли, а после второй ее вдруг где-то откопали. Вот она и портит показатель.
Я всегда стараюсь, чтобы было 100%. Но действительно часто повторяются какие-то стандартные фразы. Если учесть, что иногда пишу по 20 статей на темы, которые уже давно избиты, то все варианты и комбинации давно заняты. Но дело не в этом. А в том, что при первой проверке одна фраза не выделилась, то есть ее не нашли, а после второй ее вдруг где-то откопали. Вот она и портит показатель.
А какую уникальность требует обычно заказчик. Неужели настолько придираются к этим процентам уникальности. Какая разница покажет 90% или 95% уникальности.