奥鹏作业答案-谋学网-专业的奥鹏在线作业答案辅导网【官网】

 找回密码
 会员注册

微信登录,扫一扫

手机号码,快捷登录

VIP会员,3年作业免费下 !奥鹏作业,奥鹏毕业论文检测新手作业下载教程,充值问题没有找到答案,请在此处留言!
2022年5月最新全国统考资料投诉建议,加盟合作!点击这里给我发消息 点击这里给我发消息
奥鹏课程积分软件(2021年最新)
查看: 1808|回复: 3

[南开大学(本部)]《网络爬虫与信息提取》19秋期末考核(资料参考)

[复制链接]
发表于 2020-3-26 21:15:39 | 显示全部楼层 |阅读模式
谋学网
奥鹏】-[南开大学(本部)]《网络爬虫与信息提取》19秋期末考核/ {4 A3 \; c8 H  a( \  G
试卷总分:100    得分:100% m/ O+ Y* J7 K, y8 q
第1,如果很多爬虫同时对一个网站全速爬取,那么其实就是对网站进行了()攻击
$ [) F/ _5 x5 j. r1 b3 VA、XSS
- Z; @$ Q# {  \+ O+ zB、DOS8 a. {; O) q2 @% Z1 v+ Q7 G
C、DDOS
- ~, K6 I0 y# H9 z+ ?6 `1 BD、跨域6 Z7 N1 s- S: h* Z  O
正确资料:9 m/ v# s1 i8 }* e2 ]) n# K
' w5 T% Q" F* Z

1 N4 e- k, R3 V4 B1 m第2题,以下哪个HTML标签表示分区或节()9 Q% B( U: l8 h& s2 X, z" B
A、5 y$ C5 y* p9 V2 u3 |( N
B、
0 r, _' D3 I; [2 O5 U. l2 {C、+ v$ }$ P% s/ C
D、0 ]1 H9 z/ M, j) Y; B7 m  I
正确资料:6 O* t7 g3 _  J7 V# V/ B. N

2 U3 c0 c7 x" A" b7 ^8 G4 A# ?. f1 Z3 {& o; A
第3题,使用UI Automator获取屏幕上显示的文本内容的操作是得到相应控件后使用命令()/ |* a) H- R/ P0 R- M, l
A、content
% v* F5 T' r" A; @& fB、text
# z# ~" ?, {( F5 X& [' i/ l  ~% }C、title
( M+ R6 G" u  XD、body
/ N- M* }5 v- x6 j  L正确资料:
* h0 {$ G' ]$ r+ t5 L6 V/ v& s6 }$ G: r# U

) {5 P% X, h* X" {, T) d第4题,Python操作CSV文件可通过()容器的方式操作单元格5 L2 F7 V2 y6 D+ W" O
A、列表8 ^8 P. ?6 \% [' ?3 n% Y
B、元组
5 H3 F: k% W' C: b4 Z1 ZC、字典
) Z9 Z! \4 D: |3 F( vD、集合
1 }+ P6 q3 g% j1 f0 \  S4 E8 A0 S正确资料:
& p3 k( ?) B  F
1 g8 a, z# o$ R8 m* L0 H8 S' r! c9 i5 Y% b, K. v. y
第5题,Python中Object=(1, 2, 3, 4, 5),则Objcet是()
- i% v1 i2 q0 ^0 S; |A、列表
0 f! @: i, Z6 A  Y: Z& VB、元组
* H7 e# K8 Y4 O/ v! X/ yC、字典
+ \: v1 C7 R, r' P3 |. y* X- i; LD、集合
/ E- ~/ Y8 J* M  x; D( A正确资料:
: r  G4 K( r( T& t( S/ j# J; N4 H! U  e3 `. U+ y

7 S9 t* W1 x8 |/ C第6题,HTTP常用状态码表明服务器正忙的是(), [' S) C7 u. b% y4 {3 I
A、500
- G% s4 r1 J3 `: E% Z& D  g* ]B、503
( G: Z1 v! k9 X% p1 r& |C、403* q3 s8 f$ J! ]
D、404
/ ^6 s: j' U& p4 @. ?  O正确资料:
4 N1 c. Q  V# K, J( R; S7 V% i+ {) \! k

0 U0 S+ `) z1 l6 @第7题,使用UI Automator打开微信的操作是获取相应图标后使用命令()4 x8 z; ~" X( c9 M* s* W% X9 i
A、touch
! b( J% C1 ~* _( q7 V9 XB、click
1 A7 b( _- ?& r  G& AC、push5 q; Q8 Q4 H$ S1 O9 c- y1 T/ o  I
D、hover
8 w: S3 {4 K' w0 D; L  }正确资料:
+ C7 x) I9 b" `- G! {
) }# K+ k" t8 r+ t0 c: x
% A8 o0 K' B  {; v0 [+ Z6 a第8题,Python中Object={'obj_1':'1','obj_2':'2'},则Objcet.get('boj_1','3')是(). g1 v  m# r; `3 `# l% ~8 |+ {5 B1 j
A、1
/ h: Q/ W# E- n# J+ |  {B、2
6 |6 W4 c( _, D$ ~C、3$ s; s) v+ }# q: M
D、无输出6 s4 x9 X! `. ~* b1 O) u3 l& v
正确资料:
2 j# z) I( [7 d4 e6 `2 ^; C
% J. H0 g! A6 g+ X) W7 P! I/ L, I# q" |2 k; J
第9题,采用以下()技术可以实现异步加载
9 X1 r- Q2 ]. D* C# }" d8 J+ t5 [A、HTML
# v0 G$ g' o. w: P" I) o8 p; D, D% UB、AJAX
# h2 g4 u. e1 y- oC、CSS- ^; r, s, M: M1 E
D、HTTP6 ~/ F' @' u, J2 ]; ?/ M6 E" t2 J, Q3 K
正确资料:
1 F* z- N1 {8 y5 j. `9 q. j1 \: L6 Y- W9 n
; Y# @9 }  E4 I) T# }6 ]% U& F  d3 Q- N
第10题,网站根目录中哪个文件里面的内容会告诉爬虫哪些数据是可以爬取的,哪些数据是不可以爬取的()。$ D4 R1 [: u: v" H& }
A、robot.txt
" W/ J* ~; J" r4 {/ I. ~B、robot.html5 c% B$ l, T& d# G( n
C、robots.txt
& w. `% i7 a* n! ?3 o4 iD、robots.html
0 B% {  L% f7 Z正确资料:
' a/ r" D* h& @8 ^8 T! T5 ]4 o/ J5 W0 V1 N. Z6 R* e7 `

7 J2 ]) L- u- g2 B2 V第11题,Chrome的开发者工具中哪个选项可以查找到cookies9 p$ X0 b. L: R8 a8 t2 `/ I
A、Elements5 b+ {6 E, y' \
B、Sources7 _/ j, R- z4 e4 d
C、Network
% ^" k4 n# L) y# s+ pD、Peformance
# L9 W0 N2 k7 G: Z正确资料:1 B; F5 \: g4 p: J

8 d% y. ^. n; c4 ^7 a/ j
4 I2 V, W. c- N# N& q第12题,以下哪个命令是linux下解压缩命令()
6 w3 ?) C3 s; P) uA、curl
0 ^/ T  i& M" e# ^. Z. TB、tar -zxvf* k. F4 @, M, `9 l4 L0 L
C、mkdir
* H1 Q3 l5 U2 K, l: v! R! ED、cp
, W( M4 Q/ [4 X: }0 \; y正确资料:
5 I6 O; s( m5 P3 |- b/ o# \1 j6 Y/ ?: L

2 b1 Z, J8 b; a+ c8 T第13题,MongoDB中数据存储的形式类似于()
6 V& a  V. m! uA、列表
" S& r1 X/ ~  `8 I2 H, q3 _! qB、元组
4 {" r/ c) U7 A. ZC、字典2 m# [( @9 R# `% D: M
D、集合
' [+ c6 {3 ?3 V- T6 ]: w正确资料:  o2 K7 ]0 c8 r, c: b  J' Q" t: D; S

1 N' ]  `' g3 |+ ]$ k, M& A/ z8 z% u- e" n' w, f2 ^
第14题,以下哪个HTML标签表示定义列表项目()% }% d; z/ T: z% r$ w
A、' V! _6 a9 D# N! t# X4 S) s% G
B、
, p6 s$ F0 e, V- q. C9 E2 |/ rC、
! f) y* S, _3 UD、
$ z% W3 x$ \- q正确资料:8 `2 w) U' N* Y' ]% j9 a  @+ S# v" t

% E, X; s% W$ q( `
5 i, w& ^8 l, H) X第15题,python中可以用来将图片中的文字转换为文本的第三方类库是- b' w" V: B+ U. x/ ]4 P/ N9 z
A、lxml& A7 g# F0 R  E0 r3 s- \3 U7 M4 D
B、requests
9 a# e5 e% N" b7 x- |+ B  LC、beautifulsoup
# Q* B" G' ~0 m& z9 ZD、pytesseract
0 D7 g/ z- ?( }( k正确资料:0 j+ {  r% `* O: R- n' T
! z1 t$ _! h2 ]

5 c" W: M2 y5 f第16题,下列哪项不是HTTP的请求类型()
/ T8 M) m2 ~5 bA、GET1 l0 V$ M# e0 c6 [! b
B、POST, F& w! r8 j0 O% h
C、PUT7 C4 f+ {6 q4 A$ ]: i
D、SET
! L% _8 Q6 R/ ]% m3 {0 h% R, @) e3 t正确资料:5 J" d' n6 w9 U& q# M* B1 T1 }

* `; a; ^, h6 L
9 C# S9 A" r4 {5 L8 V$ f2 t; d3 q第17题,以下哪个HTML标签表示定义 HTML 表格中的标准单元格()
7 b6 I+ M% Y* t% I  pA、7 u3 ]; c+ @4 i) W" e
B、
  e7 x0 l, g, }4 |7 b1 x, R& LC、
$ F4 s; ?) a* N+ Q2 T% S; R* VD、4 a6 X) e  I5 U/ _3 o5 J( l5 q
正确资料:
& n( j  f- S* n7 O* F
8 s# ~3 w4 p, D" S% q, X6 N
4 s# G+ a! x6 D8 i第18题,当爬虫创建好了之后,可以使用"scrapy()" 命令运行爬虫。
& }4 r! g: p$ @  }/ c+ JA、startup! m: H) z: H8 k3 o) a0 V
B、starwar+ I. _- O8 [" @" C7 ?$ ^
C、drawl0 {/ {5 E% |! q& N
D、crawl
! Y6 U6 d/ [! [: h9 f! N正确资料:
" P/ V4 m* ~! m8 b$ c7 C1 n% p7 q+ D& a  q- \2 M! v
* k7 s" ?1 E' W7 x8 Y# D, ~
第19题,参数headers=(),把请求头添加到Scrapy请求中,使爬虫的请求看起来像是从浏览器发起的。
) X% k9 b7 _: x) l; OA、HEADER
# F: s, E6 |/ W1 {B、HEADERS
- t) c; ]% G# eC、HEAD% R* ]( @# s" F/ c
D、BODY) r1 {& r: {8 Z& e. s/ ?  O) p, ?
正确资料:
: F; P8 o! \# U0 p' U& P0 b2 z
! ?9 p  j( Q7 T/ D; j+ W3 L) N; c4 t0 ~5 B0 P
第20题,以下哪个命令是利用URL语法在命令行下工作的文件传输工具()7 S1 X& e/ ~# P! t6 J
A、curl
+ g+ }4 W5 d2 Q. K& o$ n' LB、tar -zxvf0 `+ x+ A) c) Q. d
C、mkdir
( _: |8 |( A4 P2 iD、cp9 z# \" f8 [, T$ i5 g& t& N
正确资料:
. _$ ^. z2 X, l; ]7 T$ d1 k8 M$ y8 l$ K

# S* P% P7 Z- X1 h第21题,MongoDB中获取名字为db的库的语句为()3 N: @3 T# @/ t+ `& b% u
A、client.db
6 j' B0 B# K% U7 ?( R3 A" g/ uB、client('db')% Q! O- p+ J1 Z/ V# @# U
C、client['db']4 W0 w' q" c' f. h1 Z: u! y1 g
D、client{'db'}
5 M% A$ B7 r* z8 L; P: C$ G正确资料:,C/ R( D% Y. K4 ]' \) U3 y

7 X0 }( b+ R6 q8 {+ E  J6 S. _% ~7 K1 a2 t
第22题,以下哪些方法属于Python写CSV文件的方法(), \* V$ r+ K# O" _' i, i/ d7 E
A、writeheaders* H0 F( R8 M6 i' K$ c7 F1 O2 U+ N, ^0 o
B、writeheader
7 @3 }) o$ R8 v' ^1 xC、writerrows
' L! E4 h3 \$ [D、writerow
3 P  U' M- J4 E3 D9 j# t正确资料:,C,D
7 Q& k2 ^8 g- r' x# `7 ~7 R/ s. B# p4 U+ ?

8 i; h* x$ |# N! N& @( X第23题,下载器中间件的作用有哪些?
: O0 Y. a# A1 A6 OA、更换代理IP
' [; _" T2 T, R) c4 T5 cB、更换Cookies
' U4 y- }3 s8 k, A4 L3 CC、更换User-Agent
2 t; t2 S+ n. xD、自动重试1 Y$ a  l1 i3 {$ M) M
正确资料:,B,C,D
( x, c8 E' p+ O; o+ v$ g9 G. W- t: v: ^# @, m8 x; u! {. h

* T' |+ x0 ?; D' k. c第24题,如果爬虫爬取的是商业网站,并且目标网站使用了反爬虫机制,那么强行突破反爬虫机制可能构成(). s6 n4 p% K% F) G* T+ ~
A、非法侵入计算机系统罪& }" S2 ~$ \( L: {
B、非法获取计算机信息系统数据罪) N2 j- a: P/ r/ o3 O
C、非法获取计算机数据罪, i6 `! v8 B; k+ m- D. G% [
D、非法获取系统罪
& q7 J9 K! G) U% l. ?正确资料:,B
1 l  E- _. {7 u/ Z( m0 N- F6 _5 N: O3 u% R2 o
4 k& i5 w) o+ A) k3 R
第25题,Python中()容器有推导式
0 s& J5 U& B, ~5 y) [$ LA、列表
$ i0 r: ~6 {- {+ K; [4 G8 CB、元组
. R6 ~" N2 ?9 U2 F4 L8 YC、字典
6 z) ^6 o) m( O( b2 m( |D、集合1 n7 T& g/ B- B1 |* H& K% L& m
正确资料:,C,D
7 _# i: }& M1 a+ B# R1 d) F+ O8 ~; T: _! m1 Y! ~
2 N. j9 p' \# w: L9 a
第26题,通用网络爬虫通常采用串行工作方式  R3 W4 x* `3 o( M* t/ c
T、对
* n! e7 \1 O: F5 @5 n% }F、错/ L. B9 _  G* G/ ?1 M& \# L. P
正确资料:F
, i/ f2 T0 b3 p
7 P; G8 R% H3 x& w; _8 }0 G
- u: P4 Q8 m( b; e% d7 K第27题,需要登录的网站一般通过GET请求就可以实现登录。
+ u5 C# `0 [: X5 J# A% I/ j' LT、对# G1 C* L" I9 B4 X" {7 o" [
F、错% a' n' ?- f: G7 C  k: E# T* f
正确资料:F3 J4 a* [4 ^; b: d' r' \8 m

! `0 e3 k8 _$ J* T6 ?; ~$ g8 x, v8 N2 M
第28题,代理中间件的可用代理列表一定要写在settings.py里面
, A, D; O2 w( F* b. Y, R9 ET、对3 O3 Y  N- e8 F
F、错
& \7 d8 w7 s$ r  J) `) H正确资料:F
9 X/ q. _9 D7 e2 e% D$ |1 P) c! n

* o( L5 P# j2 i! C4 n( T第29题,requests中get请求方法的使用为requests.get('网址', data=data)) ?4 Z; Y: R( H( S7 i# c! \: Y# }% N
T、对
7 K/ W+ L- l* w7 R* ~6 vF、错1 \. B0 w% ?8 S$ Y
正确资料:F! u. {% [0 c* L& W+ z0 @+ e
& E8 O7 z5 y+ h' ?0 z" x. }% E

3 s" `. G/ p  A/ c7 ^& S4 @第30题,所有的异步加载都会向后台发送请求( v! w+ ^# E% T7 l
T、对* g3 e" B# }0 z3 y+ `
F、错
% k' k. ^, s1 F. Z; {6 H# b正确资料:F
* h. G( y% ], |" m1 H) w; F" h4 _( Y; D5 L8 ?" o

$ e( h! h( V2 h7 \: u6 U+ C0 g9 X第31题,在MacOS下若要运行Redis可以运行解压以后的文件夹下面的src文件夹中的redis-server文件启动redis服务
, j: t( a9 D; Osrc/redis-server
; D# y! s. _- {* ~/ f$ CT、对! P3 {0 X8 j9 q' q+ m
F、错
3 Y' K# ?! k# |5 m! J6 T6 }2 l正确资料:F
: B9 ?+ K% O, Q8 x/ j# m! x- a, u9 Z" O0 f) w! H

! G8 }3 I: I, i+ z; w6 }9 g/ W% X第32题,爬虫文件无法从Pycharm运行和调试,只能通过命令行的方式运行。4 K* f' Z  h- a) G7 y- ?2 M
T、对4 {3 N! y6 e/ L
F、错
3 q- P& h/ q  ]0 F. k正确资料:F
4 m- K) r' F; ^' ]. O
- {# ]0 H% s# y# ?) l" t
. ]3 L9 \, d, P第33题,爬虫中间件的激活需要另外写一个文件来进行
/ y: _4 I: S! b% PT、对
- b% g, G3 p6 r- OF、错
+ N" M9 Y+ ^. ~% l正确资料:F6 H* D$ W3 Z' v  h6 C2 d
* a3 [) }3 y" ?( d% h9 z' [9 k3 V
9 Q. J, o9 ]1 y; K
第34题,已经创建好的Scrapy爬虫*.py文件可以直接通过Python来运行
2 s/ h8 j( ]  cT、对
% \. Y3 a# u9 A  I% RF、错
* Y8 c% H* E* i8 U7 @正确资料:F5 n; ]- s3 E; e3 V$ T$ _+ k; K

$ Y" W5 _8 g& a' a7 s( g. D- \4 t/ Y' j* w
第35题,Linux环境中,Virtualenv创建的虚拟Python环境中,执行pip命令安装第三方库就不需要使用sudo命令了。
+ z. B+ m5 ]% TT、对
  \9 c' E0 n" GF、错, I% p, R* w6 D( J. H+ X
正确资料:T! j" x# K: P/ z) Z- `
# `3 C/ K5 I  P+ j6 }
8 ]; @/ e" _( z/ B/ d& b# `/ O
第36题,在Scrapy的依赖库文件中,pywin32和Twisted的底层是基于##开发的。8 N: E/ ~8 y' k' E. N
正确资料:
- ^+ ]2 F/ g5 u& D2 [% y- u6 r( M$ |+ v: G7 [: w

* {" w; d/ \; O+ d4 r5 s第37题,爬虫中间件scrapy.spidermiddlewares.urllength.UrlLengthMiddleware的顺序号是##( s1 s' R3 z9 q. Q  u0 v- V) S
正确资料:
. |* ?, L* O( P$ ]; \4 V: d, d; n) z% w7 X  y' X; f. N

4 h* d8 g+ N$ h' B2 H7 U. m第38题,在Windows下运行Redis命令为##redis.windows.conf9 o+ R8 z" [# \% j& h( ^3 V, h& o2 P
正确资料:
! J) |* G: ?% T% z
& ^8 ~; i! ]+ `/ \: d# z4 f7 `; h
第39题,MongoDB如果需要从外网访问数据库,那么需要修改安装MongoDB时用到的配置文件##9 x( ^! W$ A+ u. }/ X
正确资料:* H) |  O- c  ^) H5 s/ Q9 e

' O- g% E) _1 _% I" a- \5 W0 ~# L2 L" a5 h$ \( L/ Z3 Z
第40题,lxml库中etree模块的etree.tostring()方法是做什么用的
. ]  e- a  r; A( i- \  h正确资料:) c$ b8 N+ H0 m( ~1 H

  d! Y, v; N4 A4 q, N9 V7 P$ J! z# H4 T+ H4 M/ ?' V' A4 G
第41题,请描述爬虫中的深度优先搜索过程
) g  p! q' x& ~/ W4 H1 N正确资料:8 |( U8 R; M% ~! B& C2 f# g* k
$ d) H$ u6 z2 x2 G8 L

3 i* W- G) [$ m+ Z, p
# u9 M* b3 d. G* ~9 p) g; Y2 s  O: ^7 p$ i
2 N7 ^. q+ [  M6 c# Z) X; c

  y- }( k1 z9 {" Y7 @" Q! y
1 L9 t3 \% N/ k5 R& e
% l' i; A, X" w) Y
( B1 l' Q9 i& }+ J7 J
  P6 q& [# J4 Q, s" p: b  r4 G* {, Y  R1 Q1 c0 z0 S

/ x5 E- a' G+ F# G& `" f+ {0 n. f3 k9 Z8 {1 t2 v
+ q# C/ Y( I6 f

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?会员注册

×
奥鹏作业答案,奥鹏在线作业答案
发表于 2020-3-27 06:18:09 | 显示全部楼层
奥鹏作业答案,奥鹏在线作业答案
回复

使用道具 举报

发表于 2020-3-27 06:50:35 | 显示全部楼层
奥鹏作业答案,奥鹏在线作业答案
回复

使用道具 举报

发表于 2020-3-27 07:51:11 | 显示全部楼层
奥鹏作业答案,奥鹏在线作业答案
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 会员注册

本版积分规则

 
 
客服一
客服二
客服三
客服四
点这里给我发消息
点这里给我发消息
谋学网奥鹏同学群2
微信客服扫一扫

QQ|关于我们|联系方式|网站特点|加入VIP|加盟合作|投诉建议|法律申明|Archiver|小黑屋|奥鹏作业答案-谋学网 ( 湘ICP备2021015247号 )

GMT+8, 2024-4-16 16:14 , Processed in 0.100520 second(s), 17 queries .

Powered by Discuz! X3.5

Copyright © 2001-2023 Tencent Cloud.

快速回复 返回顶部 返回列表