《Python编程无师自通》是一本非常实用的Python入门教材,本书从零基础出发,通过清晰的逻辑、简洁的语言和大量的实例,带领读者快速掌握Python编程的基本知识和技巧,无论是初学者还是有一定编程基础的读者,在阅读过程中都能够循序渐进地提升自己的编程能力,书中还提供了大量实战案例,可以帮助读者将所学知识应用到实际项目中,《Python编程无师自通》是一本不可多得的Python入门教材,对于想要自学Python的专业程序员或者对编程感兴趣的读者来说,都是一本值得推荐的好书。
Python编程无师自通 专业程序员的养成 电子书封面
读者评价
畅销Python编程类入门书,美国亚马逊Kindle编程类排行榜榜一。
作者从文科毕业,通过自学编程转行为专业程序员,在硅谷工作多年后成功技术创业。本书不仅教读者如何使用Python语言编程,还会介绍其他书中所忽略的、编程初学者应该了解并掌握的其他所有知识点。
很多初学者在读完其他类似的编程入门图书后,仍会很困惑:下一步该做什么?而本书,就是作者结合自身成功经验给出的答案。
本书每章采用“要点介绍+示例代码+术语总结+挑战练习”的模式,细化介绍编程入门所需的各个知识点。本书中一章所涵盖的许多主题可能都可以独立成书。但作者的目标并不是要读者了解到每个主题的所有细节,而是提供一份指引,一个编程职业发展所需要的所有技能的导览。
第一部分:编程概述。让你尽快写出自己的第一个程序,最好在今天。
第二部分:面向对象编程概述。将介绍不同的编程范式,着重阐述面向对象编程。你会开发一个游戏,体会编程的强大能力。读完这部分后你会沉迷于编程。
第三部分:编程工具概述。将介绍提升编程生产力的不同工具。这时,你已经沉迷于编程,并希望变得更好。你将会学习有关操作系统、如何使用正则表达式提升效率、如何安装并管理他人的程序,以及如何使用版本控制与其他工程师协作。
第四部分:计算机科学概述。将简要介绍计算机科学知识,主要涵盖两个主题—算法和数据结构。
第五部分:成功入职。最后一部分是关于最佳编程实践,如何找到软件工程师的工作,团队协作以及程序员的自我提升。我会分享如何通过技术面试与团队协作的建议,以及如何进一步提升自己的技能。
不管你从事什么工作,编程都有助于你的职业发展。学习编程将给你自己赋能。如果你之前没有任何编程经验,担心自己无法胜任编程工作,本书想告诉你的是:你完全有能力做到。人们对程序员有一些常见的误解,比如程序员都得擅长数学。这是错误的印象,不过编程确实是一件困难的工作。幸运的是,本书涵盖的内容将让这一切变得比你想象的更加容易。
内容介绍
本书作者是一名自学成才的程序员,经过一年的自学,掌握了编程技能并在eBay找到了一份软件工程师的工作。本书是作者结合个人经验写作而成,旨在帮助读者从外行成长为一名专业的Python程序员。 本书包括5部分内容:*部分(第1~11章)介绍了编程基础知识,以及函数、容器、字符串、循环和模型等概念;第二部分(第12~15章)介绍了编程范式和面向对象编程等知识;第三部分(第16~20章)介绍了Bash、正则表达式、包管理器和版本控制等编程工具方面的知识;第四部分(第21~22章)主要涉及数据结构和算法方面的知识;第五部分(第23~27章)则是关于求职与团队协作的内容。 本书可以满足几乎所有想要学习编程的初学者。本书适合高中、大学阶段想要自学编程的学生,以及其他行业想入门编程的人,同时也适合作为编程入门的培训教材。
目录
- 第 一部分 编程简介
- 第 1章 概述 3
- 第 2章 起步 9
- 第3章 编程概论 15
- 第4章 函数 43
- 第5章 容器 61
- 第6章 字符串操作 77
- 第7章 循环 91
- 第8章 模块 103
- 第9章 文件 109
- 第 10章 综合练习 115
- 第 11章 练习 121
- 第二部分 面对对象编程简介
- 第 12章 编程范式 125
- 第 13章 面向对象编程的
- 四大支柱 135
- 第 14章 深入面向对象编程 145
- 第 15章 综合练习 151
- 第三部分 编程工具简介
- 第 16章 Bash 163
- 第 17章 正则表达式 173
- 第 18章 包管理器 185
- 第 19章 版本控制 189
- 第 20章 融会贯通 199
- 第四部分 计算机科学简介
- 第 21章 数据结构 207
- 第 22章 算法 217
- 第五部分 找到工作
- 第 23章 最佳编程实践 227
- 一处 228
- 很可能就是错的 228
- 完成 228
- 第 24章 第 一份编程工作 233
- 第 25章 团队协作 237
- 第 26章 更多学习资料 239
- 第 27章 下一步 241
Python的安装运行,能够配置好一个可以写代码的环境,这里面包括 1.Python的安装 2. 代码编辑器的安装 3. 写一个hello world程序并成功运行 4. 过一遍W3Cshool上的Python基础教程
初学者还是应该亲自动手写一写简单的爬虫框架,这样会对爬虫有更好的理解。我个人认为在这五部分里面页面解析环节相对麻烦一点。因为页面的提取主要还是用到了正则表达式和xpath,对于页面的定位有时还是很头疼的。在爬虫的进阶环节我们就可以了解和运用scrapy框架了,scrapy为我们解决了大部分的麻烦,我们所做的就是重写页面解析的部分,就连翻页这样的问题都可以交给Rule和LinkExtractor来搞定。页面解析中的定位问题可以借助scrapy的selector搞定,selector提供了xpath等页面提取的方法。scrapy中你可以定义自己的Item把提取的元素持久化到数据库中,可以是关系数据库MySQL等,我用的是MongoDB,它的方便之处就是不用我创建表因为它是非关系型数据库可以直接将数据映射成相应的表,还是很方便的,存储的类型是BSON。