南开21秋学期《网络爬虫与信息提取》在线作业[答案]

作者:奥鹏作业答案 字体:[增加 减小] 来源:南开在线 时间:2021-11-03 12:01

21秋学期(1709、2103、2109、1903、1909、2003、2009、2103)《网络爬虫与信息提取》在线作业 试卷总分:100 得分:100 一、单选题 (共 20 道试题,共 40 分) 1.Python中线程池map()方法第二个参数是() A.列表 B.元

南开21秋学期《网络爬虫与信息提取》在线作业[答案]

南开21秋学期《网络爬虫与信息提取》在线作业[答案]答案

21秋学期(1709、2103、2109、1903、1909、2003、2009、2103)《网络爬虫与信息提取》在线作业

试卷总分:100  得分:100

一、单选题 (共 20 道试题,共 40 分)

1.Python中线程池map()方法第二个参数是()

A.列表

B.元组

C.字典

D.集合

正确答案:-----

正确答案:-----

正确答案:-----

 

2.通过()爬取伪装成异步加载的后端渲染数据

A.正则表达式

B.Json字符串

C.JavaScript

D.Get

正确答案:-----

 

3.下面Python代码输出为(): def default_para_without_trap(para=[], value=0): if not para: para = [] para.append(value) return para print('第一步:{}'.format(default_para_trap(value=100))) print('第二步:{}'.format(default_para_trap(value=50)))

正确答案:-----

A.第一步:[100] 第二步:[100,50]

B.第一步:[100] 第二步:[50]

C.第一步:[100] 第二步:[]

D.第一步:[100] 第二步:[100]

正确答案:-----

 

4.Python中若定义object=(1, 2, 3, 4, 5),则print(object[1:3])输出()

A.12

B.123

C.23

D.234

正确答案:-----

 

5.在Scrapy的目录下,哪个文件负责数据抓取以后的处理工作?()

A.spiders文件夹

正确答案:-----

正确答案:-----

B.item.py

C.pipeline.py

D.settings.py

正确答案:-----

正确答案:-----

 

6.浏览器用来记录用户状态信息的数据叫

A.session

B.cookies

C.moonpies

D.selenium

正确答案:-----

 

7.PyMongo中查询所有age > 29的记录是()

A.collection.find({'age': {'$gt': 29}})

正确答案:-----

B.collection.find({'age'>29})

正确答案:-----

C.collection.find_all({'age': {'$gt': 29}})

正确答案:-----

D.collection.find_all({'age'>29})

正确答案:-----

 

8.Redis中往集合中添加数据,使用关键字()

正确答案:-----

A.sadd

正确答案:-----

正确答案:-----

B.add

C.append

D.sappend

正确答案:-----

 

9.Redis中如果不删除列表中的数据,又要把数据读出来,就需要使用关键字()

正确答案:-----

A.range

B.lrange

C.srange

D.pop

正确答案:-----

 

10.在Python中,为了使用XPath,需要安装一个第三方库()

A.lxml

B.xml

C.xpath

D.path

正确答案:-----

 

11.Python操作CSV文件可通过()容器的方式操作单元格

A.列表

B.元组

C.字典

D.集合

 

12.某些网站在发起Ajax请求时会携带()字符串用于身份验证

A.Token

B.Cookie

C.ReqTime

D.sum

正确答案:-----

 

13.PyMongo中逻辑查询表示不等于的符号是()

A.$gt

B.$lt

C.$eq

D.$ne

正确答案:-----

 

14.下列说法错误的是()

A.Charles只能截获HTTP和HTTPS的数据包,如果网站使用的是websocket或者是flashsocket,那么Charles就无能为力。

B.有一些App会自带证书,使用其他证书都无法正常访问后台接口。在这种情况下,Charles自带的证书就不能正常使用,也就没有办法抓取这种App的数据

C.有一些App的数据经过加密,App接收到数据以后在其内部进行解密。Charles无法获取这种App的数据

D.对于上述情况,Charles能抓取到经过加密的数据。但是如果无法知道数据的具体加密方法,就没有办法解读Charles抓取到的数据。

正确答案:-----

 

15.使用Xpath获取文本使用()

A.text

B.text()

C.content

D.content()

正确答案:-----

 

16.启动MongoDB使用命令mongod --() usr/local/etc/mongod.conf

正确答案:-----

A.config

B.install

C.start

D.begin

正确答案:-----

 

17.Redis中查看一个列表长度,使用关键字()

正确答案:-----

A.len

B.length

C.llen

D.count

正确答案:-----

 

21.Python中若定义object="12345",则print(object[::-1])输出()

A.1

B.5

C.54321

D.程序报错

正确答案:-----

 

19.在Scrapy的目录下,哪个文件负责存放爬虫的各种配置信息?()

A.spiders文件夹

B.item.py

C.pipeline.py

D.settings.py

 

20.当爬虫运行到yield scrapy.Request()或者yield item的时候,下列哪个爬虫中间件的方法被调用?

正确答案:-----

A.process_spider_output()

正确答案:-----

B.process_spider_exception()

正确答案:-----

C.process_spider_input()

正确答案:-----

D.process_start_ requests()

正确答案:-----

 

南开21秋学期《网络爬虫与信息提取》在线作业[答案]多选题答案

二、多选题 (共 10 道试题,共 20 分)

21.在配置ios使用Charles的操作中,正确的有()

A.对于苹果设备,首先要保证计算机和苹果设备联在同一个Wi-Fi上。

B.选择“HTTP代理”下面的“手动”选项卡,在“服务器”处输入计算机的IP地址,在“端口”处输入8888

正确答案:-----

C.输入完成代理以后按下苹果设备的Home键,设置就会自动保存。

D.安装完成证书以后,在设置中打开“关于本机”,找到最下面的“证书信任设置”,并在里面启动对Charles证书的完全信任

正确答案:-----

 

22.下载器中间件的作用有哪些?

A.更换代理IP

B.更换Cookies

C.更换User-Agent

D.自动重试

正确答案:-----

 

23.下列关于在IOS上配置charles的说法正确的是()

A.不同ios设备之间会有比较大的差别,所以配置的时候需要找到对应的安装证书的入口。

B.手机和电脑需要在同一个局域网下。

C.HTTP代理可以使用“自动”选项。

正确答案:-----

D.安装好证书以后,打开iOS设备上的任何一个App,可以看到Charles中有数据包在流动

正确答案:-----

 

24.如果爬虫爬取的是商业网站,并且目标网站使用了反爬虫机制,那么强行突破反爬虫机制可能构成()

A.非法侵入计算机系统罪

B.非法获取计算机信息系统数据罪

C.非法获取计算机数据罪

D.非法获取系统罪

正确答案:-----

 

25.Python中一个函数没有返回值则可以写()

A.没有return

B.return

C.return None

D.return NULL

正确答案:-----

 

26.使用BeautifulSoup对象后可以使用()来查找内容

A.find_all

正确答案:-----

B.find

C.search

正确答案:-----

D.search_all

正确答案:-----

 

27.PyMongo删除操作有()

A.delete

正确答案:-----

B.delete_all

正确答案:-----

C.delete_one

正确答案:-----

D.delete_many

正确答案:-----

 

28.以下哪些方法属于Python写CSV文件的方法()

A.writeheaders

正确答案:-----

B.writeheader

正确答案:-----

C.writerrows

D.writerow

正确答案:-----

 

29.MongoDB中获取名字为db的库的语句为()

正确答案:-----

A.client.db

正确答案:-----

B.client('db')

正确答案:-----

C.client['db']

正确答案:-----

D.client{'db'}

正确答案:-----

 

30.Python中()容器有推导式

A.列表

B.元组

C.字典

D.集合

 

三、判断题 (共 20 道试题,共 40 分)

31.中间人攻击也是抓包的一种。

 

32.在请求头中设置User-Agent即可正常请求网站

 

33.UI Automator Viewer与Python uiautomator可以同时使用

 

34.device.sleep()方法是使用UI Automatorr关闭屏幕的命令

正确答案:-----

 

35.爬虫的源代码通过公开不会对被爬虫网站造成影响

 

36.虽然MongoDB相比于MySQL来说,速度快了很多,但是频繁读写MongoDB还是会严重拖慢程序的执行速度。

正确答案:-----

 

37.打码平台都是靠机器使用OCR技术识别图片上的文字。

 

38.Python中包含字典的列表页可以转换成JSON字符串

 

39.需要实名认证的打码网站更加安全可靠。

 

40.MongoDB URI的格式为: mongodb://服务器IP或域名:端口@用户名:密码

正确答案:-----

 

41.MongoDB中ObjectId可以反向恢复为时间

正确答案:-----

 

42.验证码必须通过手动填充识别。

 

43.使用UI Automatorr操作实体键的命令为device.press.实体按键名称()

正确答案:-----

 

44.在MacOS下若要运行Redis可以运行解压以后的文件夹下面的src文件夹中的redis-server文件启动redis服务 src/redis-server

正确答案:-----

 

45.开源库pytesseract的作用是将图像中文字转换为文本。

 

46.Redis的集合与Python的集合一样,没有顺序,值不重复

正确答案:-----

 

47.mitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本

正确答案:-----

 

48.process_spider_input(response, spider)是在爬虫运行yield item或者yield scrapy.Request()的时候调用

正确答案:-----

 

49.上课传纸条。A要把纸条传给B,但是A与B距离太远,于是让C来转交纸条。此时,C先篡改纸条的内容再传给B,这是一种类似抓包的方式。

南开21秋学期《网络爬虫与信息提取》在线作业[答案]历年参考题目如下:




辽宁统招专升本计算机专业考高等数学,大学英语,计算机基础。经院校录用主要学习专业课程有DirectX程序设计、Windows可视化编程、网络技术与应用、并行程序设计、Python编程基础、网络爬虫与信息提取、计算机科学导论、数据库应用系统设计、软件工程与软件测试技术等科目。

计算机专业是计算机硬件与软件相结合、面向系统、侧重应用的宽口径专业。通过基础教学与专业训练,培养基础知识扎实、知识面宽、工程实践能力强,具有开拓创新意识,在计算机科学与技术领域从事科学研究、教育、开发和应用的高级人才。

辽宁专升本报名学生在专科大三应届毕业时可通过省内统招专升本进行报考,也可以在毕业获得大专文凭后通过成人高等教育专升本方式进行报考。立即联系学业顾问>>

Tag:  作业 在线 学期 南开 答案 

作业咨询:
点击这里给我发消息

论文咨询:
点击这里给我发消息

合作加盟:
点击这里给我发消息

服务时间:
8:30-24:00(工作日)