我的python面试简历

我的python面试简历分享前一段我的python面试简历,自我介绍这些根据你自己的来写就行,这里着重分享下我的项目经验、公司职责情况(时间倒序),不一定对每个人适用,但是有适合你的点可以借鉴我…

我的python面试简历

分享前一段我的python面试简历,自我介绍这些根据你自己的来写就行,这里着重分享下我的项目经验、公司职责情况(时间倒序),不一定对每个人适用,但是有适合你的点可以借鉴

我的真实经验:(14年毕业,化工专业)

14.7 — 15.1    卖保险

15.3 — 15.11  进厂

16.2 — 17.7    UI设计(UI培训班学习+UI工作)

17.8 — 19.4    Python数据分析(Python培训班学习+Python工作)

我去培训班去过两次,先UI培训了4个月,出来在深圳UI行业混了1年,工资万把块,后来还是不想干了,因为当时室友几乎打听出来公司每个人的工资福利年终奖,比着公司后端开发的高工资,高年终奖,同样是干一天活,UI的整体待遇及后期增长幅度还是差些(主要是自己太菜鸡),刚好17年7月公司倒闭,就想换个工资高的后端,考虑过Java,不过没去上,咨询别人建议我学Python,就回培训班重造,又学了半年Python,毕业后一直做到现在,算下来,从17年8月开始培训,到现在,接触Python整整2年,也深深的被这门语言的强大所折服,期间也运营了这个公众号,记录一些平时自己的学习笔记,经验心得

2018.1-2019.4  AAAAA公司
640

项目一介绍:智能数据分析平台

开发一个软件质量评测项目,项目属于web项目,主要负责后台方法编写、部署,前端略有参与,项目分多个阶段,着重介绍2个阶段:

第一阶段:(着重后端方法编写)

缺陷自动分类功能实现,根据缺陷(bug)的标题、描述等相关特征信息,对缺陷严重程度等级(1-6)级进行分类,用到相关技术:

1、常用的建模/数据分析方法编写,处理缺失值、数据离散化、归一化、one-hot编码、字符串索引、降维、算法模型构建/模型保存与加载等常用功能编写通用方法,直接调用  

2、结巴分词对描述信息文本分词,并去除停用词、构造自定义词典处理数据

3、 运用pandas对数据进行处理,缺失值、异常值、重复数据处理、特征向量化等 
4、通过TF-IDF将数据向量化,在建模阶段对数据进行28比例切分,最后通过Sklearn SVM/朴素贝叶斯/决策树构造模型,对比验证各种模型的效果

第二阶段:(前后端配合)

该阶段是本项目重点阶段,采用django搭建后台,前端通过拖拽数据处理功能的操作,将数据/数据处理流程/建模方法等数据传到后端,后端根据传过来的参数,结合第一阶段编写好的方法对数据进行处理建模,并将结果返回前端进行相关图表展示,前端框架涉及jsplumb(流程图)、datatable.js(表格)、echarts.js(图表)、d3.js(架构图),后端相关技术主要有django框架、Pandas、numpy、sklearn常见数据处理与分析库

第三阶段:(仿真测试缺陷预测)  

根据公司内部测试数据,研究性预测每个项目仿真测试缺陷数,数据特征比较多,挑选了一些影响关系大的因子,开发人员经验、开发时间、项目类别等,并对离散型特征通过one-hot和分箱转化成数值参与模型运算,在建模过程中,考虑到不同特征下预测结果不一样,编写随机算法选择特征与手动选择特征进行结果比较,也通过在相同特征下选择不同的算法模型进行预测,得出结果进行比较,这样充分考虑各种情况,得出一份更具有参考性的结果

职责:

1、独立配服务器环境,Django+Linux+Uwsgi+Nginx部署项目,实现访问

2、前后端代码编写(后端数据处理、数据交互、前端页面)

3、数据爬取,缺陷数据有限,部分数据来源于网上爬取,用于建模测试

4、数据库用到MySQL、Oracle

5、预测软件可靠性,运用G-O、G-M模型等,建立软件缺陷与时间关系模型方程

6、研究NLP中一些相似度算法

2016.1–2018.1  BBBBB公司
640

项目二介绍:爬虫与数据分析项目

1、根据需要爬取的数据进行需求分析,分析目标网站的网站结构和一些反爬手段,通过requests、scrapy、scrapy-redis、xpath等技术手段编写爬虫程序进行内容抓取
2、对抓取到的数据进行清洗过滤,结构化存到数据库,根据爬取过程中遇到的一些反爬手段,优化自己的程序

3、对爬取到的数据,通过matplotlib生成直方图、条形图、散点图、饼图、词云等,多维度展示分析数据,并撰写数据分析报告,供需求方对数据有直观的了解

职责:python工程师

编写爬虫程序,想出反反爬策略,数据清洗可视化

项目概况:
 1、需要爬取的数据经过分析,考虑到数据量较多,采用scrapy-redis进行爬取,因为该框架实现url和数据去重、持久化、分布式比较方便,同时应用RedisSpider构建分布式爬虫,爬取更快
2、数据提取,对提取中的异常情况充分考虑,完善优化代码,增加代码强壮型
3、考虑网站能否打开和打开时间问题,一般需要加异常判断、超时、retry等减少报错
4、爬取的数据通过redis集合、sha1加密,等技术手段,实现新提取的数据保存,已爬过的数据更新的断点续爬功能

5、对爬取到的数据,通过matplotlib生成直方图、条形图、散点图、饼图、词云等,多维度展示分析数据,并撰写数据分析报告,供需求方对数据有直观的了解

独立完成网站数据爬取,和常见数据处理方式

2014.7–2015.12    CCCCC公司
640

项目三:网站开发

1、开发网页,根据需求和产品、程序沟通一些功能需求的实现和对界面的改善
2、根据阶段性需求,做些页面,编写HTML、CSS、JavaScript代码

3、织梦、Discuz建站、域名解析、SEO优化等均有做过

岗位职责:前端工程师

一些问题
640

问:前端如何学的?

答:上大学有选修课网页设计,当时接触的Dreamweaver,感觉能做个网页跳转,展示页面挺有趣的,就慢慢被吸引了,选修课学了一年,也经常看些网上的教程,就慢慢会了

问:python如何学的?

答:自学的,当时在公司做前端,刚好公司有个后端开发是做Python的,因为这对python有所了解,刚开始入门是从爬虫入手的,爬虫比较简单,而且也有趣,会从网上爬点数据、视频什么的,后来慢慢熟悉了,也网上买了课,开始接触python其他方面的功能,最后逐渐熟悉,因为有前端编程基础了,感觉再学也不那么难

python爬虫人工智能大数据公众号

640?wx_fmt=gif

今天的文章我的python面试简历分享到此就结束了,感谢您的阅读。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/9277.html

(0)
编程小号编程小号

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注