COVID2019 и это вот все. Друзья, вся эта история начинает плохо пахнет. Мойте руки, не ходите в люди. Отложите все плановые покупки и положите в носок заначку. Заприте ваших родителей, бабушек-дедушек на даче. Лучше перебдеть чем недобдеть. Берегите себя!

Nameless

opencart.pro
  • Публикации

    358
  • Зарегистрирован

  • Посещение

  • Days Won

    5

Все публикации пользователя Nameless

  1. Дошли руки наконец попробовать, иии не получилось... <?php if (!$logged) { ?> Вы должны авторизоваться! <?php } else { ?> <li>Цена за работу: <?php echo $mpn; ?></li> <?php } ?> Вставил этот код в шаблон товара, но отображается только текст после <?php if (!$logged) { ?> если авторизоваться или нет код для вывода MPN строки отдельно работает Где что не так может быть?
  2. на соседнем форуме есть есть модуль просто по выводу случайного товара в любом месте https://opencartforum.com/files/file/2940-oc-store-random-product/
  3. основная идея показывать в этих полях дополнительные сведения предназначенные определенной группе покупателей, но думаю для начала проще организовать просто показ их зарегистрированным покупателям те залогиневшимся. Seofisher, благодарствую) будет над чем в праздники поэксперементировать
  4. это в шаблон карточки товара можно вставить и вместо текст 1 использовать ссылки на допполя?
  5. Вопрос такой, как можно скрыть дополнительные поля UPC, EAN, JAN и тд от неавторизованных/незарегестрированных пользователей?
  6. а зачем если проще яндекс кассу подключить, это проще и дешевле (они же принимают пластик, яд, вебмани с меньшей комиссей чем робокасса и примерно в такую же комиссию как подключенный эквайринг на прямую, но модуль бесплатен платежи и отчеты по расписанию)+у яда в партнерах вас найти можно будет)
  7. нет дело не в этом, в выборе платежей у меня написано оплата кредитной картой, чистый ЯД тут не причем. просто это некая ментальная данность нашей страны про оплату наложкой... в прочем для себя я ее оставил только 3 городам, все регионы только по предоплате, а ее делают либо на сбер либо через квитанцию в банке
  8. только кассу, при возврате в магазин вроде ошибку выдавало, а может в ранней версии не помню, почти не кто не платит через нее
  9. ну это понятно многие из нас такие в плане фанатизма к своему делу, а вот интересна все же стратегия как я понял по распределению бюджета 80 на 20. Плюс качественные описания/фото/постоянные допилы рюшек магазина. кто что еще предпринимает, какие нибудь краткие кейсы интересны
  10. логотип нужно переделать однозначно, серенькое на сереньком)) слои со стикирами находятся походу выше слоя всплывающего окна с быстрым заказом
  11. пытался сотрудничать изначально, взял предоплату, динамил с месяц кажется точно, потом еле вернул, так что как то так....
  12. Всем привет! Ищу человека для доработки существующий обработки под 1С для выгрузки/синхронизации в opencart 2.x (интересно именно допилить обработку 1С) Необходимо: 1. Исправить баг который закрался в нее и не совсем корректно выгружает (где-то косяк с синхронизацией атрибутов судя по всему) 2. Соединить отдельные обработки для выгрузки и синхронизации 3. Появилось желание выгружать больше характеристик в атрибуты, но при этом есть внутренние технические характеристики в 1С посему нужно сделать выбор какие можно выгружать, а какие нет 4. Есть опция цвет которая не учитывается в кол-ве и не вычитается со склада тк служит только для фильтра в угоду удобства пользователя, хочется ее тоже подхватывать из 1С по все видимости тоже из характеристик 5. При выгрузке данных, особенно с картинками необходимо сделать паузу/остановку процесса 6. По возможности оптимизировать нагрузку на базу тк возможен перелимит на число запросов к базе у хостера 7. Нужно парсить курс валюты/драгметаллов с сайта ЦБ (есть пример кодов в свободном доступе) и на основе этих данных формировать часть выгружаемых цен (этот пункт отдельно обсуждаем как лучше сделать) и в одно из дополнительных полей таких как ISBN и тк выводить дату на которую сформирована цена В целом интересует постоянное сотрудничество тк периодически нужно ченить допилить или настроить Конфигурация 1С БиГСофт: Ювелирное производство (основана на УТ), ее предоставлю,а так же клон сайта с базой, работы можете вести на своей стороне. Сборка движка сейчас ocshop_cms_2_0_3_1, позже (после обновления ряда модулей) планируется переезд на opencart.pro 2.x Предоплата только для постояльцев форума с репутацией до 50%, возможна поэтапная работы с оплатой за каждый этап Всем заинтересовавшимся писать в л/с ну или в этой теме можете задать вопрос
  13. у себя не чего такого не заметил, протестируйте, я собственно поделился тем что сам нагуглил и у меня заработало
  14. нужно только добавить эти строки в ваш .htaccess: ## Блокировка по USER AGENT: RewriteCond %{HTTP_USER_AGENT} MJ12bot [OR] RewriteCond %{HTTP_USER_AGENT} MegaIndex.ru [OR] RewriteCond %{HTTP_USER_AGENT} bingbot [OR] RewriteCond %{HTTP_USER_AGENT} AhrefsBot [OR] RewriteCond %{HTTP_USER_AGENT} Java [OR] RewriteCond %{HTTP_USER_AGENT} NjuiceBot [OR] RewriteCond %{HTTP_USER_AGENT} Gigabot [OR] RewriteCond %{HTTP_USER_AGENT} Baiduspider [OR] RewriteCond %{HTTP_USER_AGENT} JS-Kit [OR] RewriteCond %{HTTP_USER_AGENT} Voyager [OR] RewriteCond %{HTTP_USER_AGENT} PostRank [OR] RewriteCond %{HTTP_USER_AGENT} PycURL [OR] RewriteCond %{HTTP_USER_AGENT} Aport [OR] RewriteCond %{HTTP_USER_AGENT} ia_archiver [OR] RewriteCond %{HTTP_USER_AGENT} DotBot [OR] RewriteCond %{HTTP_USER_AGENT} SurveyBot [OR] RewriteCond %{HTTP_USER_AGENT} larbin [OR] RewriteCond %{HTTP_USER_AGENT} Butterfly [OR] RewriteCond %{HTTP_USER_AGENT} libwww [OR] RewriteCond %{HTTP_USER_AGENT} Wget [OR] RewriteCond %{HTTP_USER_AGENT} SWeb [OR] RewriteCond %{HTTP_USER_AGENT} LinkExchanger [OR] RewriteCond %{HTTP_USER_AGENT} Soup [OR] RewriteCond %{HTTP_USER_AGENT} WordPress [OR] RewriteCond %{HTTP_USER_AGENT} PHP/ [OR] RewriteCond %{HTTP_USER_AGENT} spbot [OR] RewriteCond %{HTTP_USER_AGENT} MLBot [OR] RewriteCond %{HTTP_USER_AGENT} InternetSeer [OR] RewriteCond %{HTTP_USER_AGENT} FairShare [OR] RewriteCond %{HTTP_USER_AGENT} Yeti [OR] RewriteCond %{HTTP_USER_AGENT} Birubot [OR] RewriteCond %{HTTP_USER_AGENT} YottosBot [OR] RewriteCond %{HTTP_USER_AGENT} gold\ crawler [OR] RewriteCond %{HTTP_USER_AGENT} Linguee [OR] RewriteCond %{HTTP_USER_AGENT} Ezooms [OR] RewriteCond %{HTTP_USER_AGENT} lwp-trivial [OR] RewriteCond %{HTTP_USER_AGENT} Purebot [OR] RewriteCond %{HTTP_USER_AGENT} User-Agent [OR] RewriteCond %{HTTP_USER_AGENT} kmSearchBot [OR] RewriteCond %{HTTP_USER_AGENT} SiteBot [OR] RewriteCond %{HTTP_USER_AGENT} CamontSpider [OR] RewriteCond %{HTTP_USER_AGENT} ptd-crawler [OR] RewriteCond %{HTTP_USER_AGENT} HTTrack [OR] RewriteCond %{HTTP_USER_AGENT} suggybot [OR] RewriteCond %{HTTP_USER_AGENT} ttCrawler [OR] RewriteCond %{HTTP_USER_AGENT} Nutch [OR] RewriteCond %{HTTP_USER_AGENT} Zeus RewriteRule ^(.*)$ – [F,L] при необходимости можно добавить дургих Но [OR] в последней строчке не должно быть
  15. этого уродца нужно добавить MegaIndex.ru/2.0; +http://megaindex.com/crawler) RewriteCond %{HTTP_USER_AGENT} MegaIndex.ru [OR] а то во что может вытворить:
  16. в общем остановился на такой конструкции: ## Блокировка по USER AGENT: RewriteCond %{HTTP_USER_AGENT} MJ12bot [OR] RewriteCond %{HTTP_USER_AGENT} bingbot [OR] RewriteCond %{HTTP_USER_AGENT} AhrefsBot [OR] RewriteCond %{HTTP_USER_AGENT} Java [OR] RewriteCond %{HTTP_USER_AGENT} NjuiceBot [OR] RewriteCond %{HTTP_USER_AGENT} Gigabot [OR] RewriteCond %{HTTP_USER_AGENT} Baiduspider [OR] RewriteCond %{HTTP_USER_AGENT} JS-Kit [OR] RewriteCond %{HTTP_USER_AGENT} Voyager [OR] RewriteCond %{HTTP_USER_AGENT} PostRank [OR] RewriteCond %{HTTP_USER_AGENT} PycURL [OR] RewriteCond %{HTTP_USER_AGENT} Aport [OR] RewriteCond %{HTTP_USER_AGENT} ia_archiver [OR] RewriteCond %{HTTP_USER_AGENT} DotBot [OR] RewriteCond %{HTTP_USER_AGENT} SurveyBot [OR] RewriteCond %{HTTP_USER_AGENT} larbin [OR] RewriteCond %{HTTP_USER_AGENT} Butterfly [OR] RewriteCond %{HTTP_USER_AGENT} libwww [OR] RewriteCond %{HTTP_USER_AGENT} Wget [OR] RewriteCond %{HTTP_USER_AGENT} SWeb [OR] RewriteCond %{HTTP_USER_AGENT} LinkExchanger [OR] RewriteCond %{HTTP_USER_AGENT} Soup [OR] RewriteCond %{HTTP_USER_AGENT} WordPress [OR] RewriteCond %{HTTP_USER_AGENT} PHP/ [OR] RewriteCond %{HTTP_USER_AGENT} spbot [OR] RewriteCond %{HTTP_USER_AGENT} MLBot [OR] RewriteCond %{HTTP_USER_AGENT} InternetSeer [OR] RewriteCond %{HTTP_USER_AGENT} FairShare [OR] RewriteCond %{HTTP_USER_AGENT} Yeti [OR] RewriteCond %{HTTP_USER_AGENT} Birubot [OR] RewriteCond %{HTTP_USER_AGENT} YottosBot [OR] RewriteCond %{HTTP_USER_AGENT} gold\ crawler [OR] RewriteCond %{HTTP_USER_AGENT} Linguee [OR] RewriteCond %{HTTP_USER_AGENT} Ezooms [OR] RewriteCond %{HTTP_USER_AGENT} lwp-trivial [OR] RewriteCond %{HTTP_USER_AGENT} Purebot [OR] RewriteCond %{HTTP_USER_AGENT} User-Agent [OR] RewriteCond %{HTTP_USER_AGENT} kmSearchBot [OR] RewriteCond %{HTTP_USER_AGENT} SiteBot [OR] RewriteCond %{HTTP_USER_AGENT} CamontSpider [OR] RewriteCond %{HTTP_USER_AGENT} ptd-crawler [OR] RewriteCond %{HTTP_USER_AGENT} HTTrack [OR] RewriteCond %{HTTP_USER_AGENT} suggybot [OR] RewriteCond %{HTTP_USER_AGENT} ttCrawler [OR] RewriteCond %{HTTP_USER_AGENT} Nutch [OR] RewriteCond %{HTTP_USER_AGENT} Zeus RewriteRule ^(.*)$ – [F,L] нагрузка по sql упала в несколько раз
  17. короче начал блокировать гадов, прописав такое в .hacces RewriteEngine On RewriteCond %{HTTP_USER_AGENT} (AhrefsBot/5.0|Baiduspider/2.0|MJ12bot) [NC] RewriteRule .* - [R=403,L] а в логах все равно числиться на пример такой засранец: [29/Oct/2015:08:38:27 +0300] "GET /ukrashenija-iz-serebra/pdse0201.html HTTP/1.0" 403 211 "-" "Mozilla/5.0 (compatible; AhrefsBot/5.0; +http://ahrefs.com/robot/)" вопрос где не так прописал?
  18. спасибо, а ботов то всех банить кроме гугла/яда/мейла?
  19. этих всех можно смело в топку? или какой нибудь бинг есть смысл оставить? да есть перегруз сильный, кажется основной косяк я локализовал (позже напишу после тестов в отдельной ветке), но все равно нагрузка раньше была меньше(я перепотрошил блог и описание к товарам вероятно они от этого там еще трутся) читал что оптимально поставить значение в 10
  20. Давеча подскачила нагрузка на sql, что повлекло санкции со стороны хостера на свою персону, борясь с этой проблемой и анализируя логи пальнул таких товарищей: MJ12bot/v1.4.5; http://www.majestic12.co.uk/bot.php?+ AhrefsBot/5.0; +http://ahrefs.com/robot/ Baiduspider/2.0; +http://www.baidu.com/search/spider.html сканируют они много и жадно, погуглив оказалось, что подобных сомнительных засланцев довольно много и в общем народ и блокирует, отсюда вопрос если смысл ограничивать им доступ и каким из них вот поднашел списочек : Aboundex 80legs 360Spider Java Cogentbot Alexibot asterias attach BackDoorBot BackWeb Bandit BatchFTP Bigfoot Black.Hole BlackWidow BlowFish BotALot Buddy BuiltBotTough Bullseye BunnySlippers Cegbfeieh CheeseBot CherryPicker ChinaClaw Collector Copier CopyRightCheck cosmos Crescent Custo AIBOT DISCo DIIbot DittoSpyder Download Demon Download Devil Download Wonder dragonfly Drip eCatch EasyDL ebingbong EirGrabber EmailCollector EmailSiphon EmailWolf EroCrawler Exabot Express WebPictures Extractor EyeNetIE Foobot flunky FrontPage Go-Ahead-Got-It gotit GrabNet Grafula Harvest hloader HMView HTTrack humanlinks IlseBot Image Stripper Image Sucker Indy Library InfoNavibot InfoTekies Intelliseek InterGET Internet Ninja Iria Jakarta JennyBot JetCar JOC JustView Jyxobot Kenjin.Spider Keyword.Density larbin LexiBot lftp libWeb/clsHTTP likse LinkextractorPro LinkScan/8.1a.Unix LNSpiderguy LinkWalker lwp-trivial LWP::Simple Magnet Mag-Net MarkWatch Mass Downloader Mata.Hari Memo Microsoft.URL Microsoft URL Control MIDown tool MIIxpc Mirror Missigua Locator Mister PiX moget Mozilla/3.Mozilla/2.01 Mozilla.*NEWT NAMEPROTECT Navroad NearSite NetAnts Netcraft NetMechanic NetSpider Net Vampire NetZIP NextGenSearchBot NG NICErsPRO niki-bot NimbleCrawler Ninja NPbot Octopus Offline Explorer Offline Navigator Openfind OutfoxBot PageGrabber Papa Foto pavuk pcBrowser PHP version tracker Pockey ProPowerBot/2.14 ProWebWalker psbot Pump QueryN.Metasearch RealDownload Reaper Recorder ReGet RepoMonkey RMA Siphon SiteSnagger SlySearch SmartDownload Snake Snapbot Snoopy sogou SpaceBison SpankBot spanner Sqworm Stripper Sucker SuperBot SuperHTTP Surfbot suzuran Szukacz/1.4 tAkeOut Teleport Telesoft TurnitinBot/1.5 The.Intraformant TheNomad TightTwatBot Titan True_bot turingos TurnitinBot URLy.Warning Vacuum VCI VoidEYE Web Image Collector Web Sucker WebAuto WebBandit Webclipping.com WebCopier WebEMailExtrac.*" bot WebEnhancer WebFetch WebGo IS Web.Image.Collector WebLeacher WebmasterWorldForumBot WebReaper WebSauger Website eXtractor Website Quester Webster WebStripper WebWhacker WebZIP Whacker Widow WISENutbot WWWOFFLE WWW-Collector-E Xaldon Xenu Zeus ZmEu Zyborg AhrefsBot archive.org_bot bingbot Wget Acunetix FHscan и какое время оптимально поставить для директивы Crawl-delay
  21. то что надпись "купить" белым, а иконка корзинки серым