奥鹏作业答案-谋学网-专业的奥鹏在线作业答案辅导网【官网】

 找回密码
 会员注册

微信登录,扫一扫

手机号码,快捷登录

VIP会员,3年作业免费下 !奥鹏作业,奥鹏毕业论文检测新手作业下载教程,充值问题没有找到答案,请在此处留言!
2022年5月最新全国统考资料投诉建议,加盟合作!点击这里给我发消息 点击这里给我发消息
奥鹏课程积分软件(2021年最新)
查看: 1368|回复: 3

[南开大学]20秋学期《网络爬虫与信息提取》在线作业-1

[复制链接]
发表于 2020-10-17 12:06:49 | 显示全部楼层 |阅读模式
谋学网
资料来源:谋学网(www.mouxue.com)-[南开大学]20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业
) o9 v" ?( B& |. x% w  w试卷总分:100    得分:100
" E  y0 x8 M# }5 I4 j$ ?: G4 w第1,()是Scrapy官方开发的,用来部署、运行和管理Scrapy爬虫的工具
1 N4 F0 w3 O. ~: G# X& V# m) QA、Scrapyd7 S. n& @9 Q8 w0 h- z' |) U* S
B、ScrapyDeploy
9 F3 {8 N+ n8 Z: c: L* `% b! g0 fC、Deploy9 P' b0 d  |9 G+ b3 a" a
D、Scrapy_Deploy' v3 v' i; n* h  W
正确资料:7 K5 |3 t" @% _& v4 o3 ?
9 H6 H' i% ?) x. |/ B& [2 d
$ ^4 `4 h3 Y9 `+ v* r
第2题,当爬虫创建好了之后,可以使用"scrapy()" 命令运行爬虫。7 t3 D7 t- X, K
A、startup% ?/ K% ?9 c/ N( t5 f
B、starwar
0 _5 H& ^, O" f. _0 d/ aC、drawl6 E! Y* {$ k# L" E
D、crawl; ~7 k/ ]! R" o9 u$ v7 O9 d" ]
正确资料:6 b4 l4 j" g* x
$ p/ @, n' k+ A

' F* f$ k/ K0 N( s3 U第3题,在Scrapy的目录下,哪个文件负责存放爬虫的各种配置信息?()
+ G8 k2 @+ t; D, k" \3 g- q- \A、spiders文件夹
4 Q, M3 E0 _! t- b$ k5 WB、item.py
+ @: e8 N7 C  AC、pipeline.py' j. e. V2 D6 {- I# @- O
D、settings.py3 p; B) p6 H' E( Z: L/ G
正确资料:2 h$ g* |$ ]3 Q6 n
+ T2 F+ |; L0 d$ z

; c  a3 D% Q6 ?第4题,使用UI Automatorr根据坐标来滑动桌面的操作是得到相应控件后使用命令(); F" {- Y* ~/ Z5 h/ k4 |! M
A、swipe
  O' @) C( x1 W, a4 j( oB、move
/ j7 F2 s6 L! t0 M' PC、scroll$ m8 E5 j* V* v6 x, w
D、fly
9 x- B+ }( K1 f; _正确资料:
/ y: |" a: Y: L* \6 z
: h) l1 r2 l6 g5 Z0 V
/ d" R1 Y/ P: y  c资料来源:谋学网(www.mouxue.com),windows中创建定时任务的命令为  d& R5 f/ k  F% H- M2 s/ I+ k
A、task
' ?% e. O! c% R- q5 ^! ?B、schtasks6 n: N' z- P5 g1 h4 j
C、createtasks3 I: G' @( d4 f- l
D、maketasks
$ w9 D8 n0 [2 m: C& M正确资料:' ?$ D& }  l& Z% N

; o5 M% ~6 B( B' J3 X8 i3 g9 V7 u. ^
7 R9 m, [6 [7 R' ^* ^第6题,MongoDB中数据存储的形式类似于(); e1 a3 }/ h0 O' ?7 b
A、列表
* l4 Z  B% q/ ~6 r7 VB、元组
! Y+ t7 F9 O0 I! K8 U5 O5 m% jC、字典
' J' N3 _  t% w; C1 kD、集合' ~; c4 i, Z# T0 `
正确资料:
) k* e: S( J# l$ _9 m% K1 d! z- y/ i1 C$ T" N

1 I  v' t  @  e" J3 \  X( Y第7题,requests中post请求方法的使用为requests.post('网址', data=data)中的data为()
: m" S, e9 ~% m# }: E0 D) `A、列表) Z! S4 @& v+ K, A
B、元组( D$ o& h2 g: n- |: w. j
C、字典
6 E$ p9 z6 L. E0 ~7 ~D、集合
) v9 R, ~% S) {  p6 ~5 K4 {正确资料:; ^8 J+ N- U; Q/ l8 E
4 E) j& X6 L7 g+ d. v0 z' ~
4 _6 Y2 D" P3 n2 `9 y% F4 Q" I% j
第8题,Python中把列表转换为集合需要使用##函数" \+ A! h% ]2 S: `/ g
A、set
, X/ T* P* P2 j; [' R' t: _B、list
0 g7 G$ D8 @' N# j6 Q( C: JC、convert3 @$ z( g; k( M8 H4 K( X, I3 R8 C
D、change8 g5 X3 |. Q9 I/ p
正确资料:
1 Y3 L3 c8 k# E$ Y" s. u; S
% b$ y# s1 q% e7 d& f& v* v0 h% E, {1 _4 H5 d9 |
第9题,使用了RedisSpider作为爬虫的父类以后,爬虫会直接监控()中的数据,并不读取start_urls中的数据。
& b. A" T, H. @& O# K% RA、Redis
. l3 H+ _( ?, F+ o4 C' w8 T4 B+ @B、RedisSpider, w% C, ?( O# H8 Q# V; q1 D  c
C、Spider
$ ?# I# j% f$ U3 P. d6 U& P4 y- AD、MongoDB! w+ C0 [! c8 ~! x
正确资料:. N4 D  Q9 G0 M6 u( b5 a

% O: U" P- W; |5 C5 `( @! W- k! S6 H9 z) Y' b" C
资料来源:谋学网(www.mouxue.com),在Mac OS下安装MongoDB使用命令() install mongodb) ~+ e* x; i; V4 h! c& J* S0 b
A、brew
* _2 c. p/ w2 ^( Z# ^: _B、apt-get
4 U' e5 o& g& i8 qC、sudo
/ }0 S1 K; \9 D" D* ?/ qD、apt5 l( r5 ]0 [& m9 L
正确资料:
8 N% V' C3 r: @* g0 o( f1 Y! ^4 e1 a3 d4 ?" n8 q) r3 t" r) K

, C8 \9 ^; h4 N3 \# V第11题,当需要把Python里面的数据发送给网页时,应先将其转换成()
: O: u, K9 o( ^6 y3 \: f# e( r1 |A、Json字符串
" Q; g4 D# c% C' [B、GET+ Y  K+ [1 P; d1 K3 o  m# l
C、POST1 T' G$ |" Q+ [9 K
D、Request
0 A; e0 V9 r/ F3 n, i1 R. K% b. p正确资料:
8 O2 F+ A* M& ^/ i" ^; P: ?+ N8 e$ V  [  Q$ i

( `# \: q* B0 Z4 y) w( J' A资料来源:谋学网(www.mouxue.com),服务器端记录信息确定用户身份的数据是
) @0 A6 L' [& m( kA、session8 t) `& L9 r) a+ h
B、cookies+ C/ J& U* _4 m" T2 E0 L* s1 q
C、moonpies
' X8 L9 [( W% x4 M  W8 @2 D0 G7 wD、localstorage& j3 f4 Y- f8 M! d
正确资料:
! I6 T5 f& p; g( [0 w8 d; U9 w( S# W/ D  t$ ~
7 ^" l" r3 M3 j2 F' x
第13题,下列说法错误的是()
3 h- T$ v. P4 D4 \A、小程序的请求极其简单,基本上没有验证信息1 w, ?/ X# w1 \6 w" M
B、用Python来请求小程序的后台接口从而获取数据,比请求异步加载网页的后台接口要复杂很多。% L: \" s1 Z/ R$ s
C、如果目标网站有微信小程序,那么一定要优先调查能否通过小程序的接口来抓取数据。$ _& i6 o' p  D7 K9 M
D、小程序的反爬虫能力比网页版的低很多。使用小程序的接口来爬数据,能极大提高爬虫的开发效率。; ?4 S  A5 P# w; j9 l
正确资料:
8 y+ B; o# H; V; v: f
" e7 ?% a2 E& m& h4 D8 N9 Y9 ^) ]5 B% Q1 W4 i/ U
第14题,下面Python代码输出为():8 Q) a3 z; [- v+ y* I' R
def default_para_trap(para=[], value=0):para.append(value)return paraprint('第一步:{}'.format(default_para_trap(value=100)))print('第二步:{}'.format(default_para_trap(value=50)))$ i# D3 s# e2 U8 {
A、第一步:[100]
5 K4 U6 a1 d1 [( \4 @第二步:[100,50]
. U( G$ L% r5 J: sB、第一步:[100]/ G' E' p: b4 F! z' J+ ]. Q
第二步:[50]
/ C/ @2 o' G8 l- p/ CC、第一步:[100]
2 n2 N9 p& `& C* [* d+ p/ k0 _( L6 h第二步:[]
: M+ z# \  J# Z2 U3 G+ K4 SD、第一步:[100]& V( M0 i# h2 Z" L" F
第二步:[100]# O" E  f+ A4 {* v
正确资料:
. _9 v  s! ?& e# P. R0 C% v) z( D3 ^7 [: S+ {  A0 q
2 j2 a  M1 w* e( c: j
资料来源:谋学网(www.mouxue.com),在Scrapy的目录下,哪个文件负责存放爬虫文件?()
9 Z/ x+ m1 b' i7 E: x3 FA、spiders文件夹
: T# l" P) F: N8 k  A0 E$ t  \B、item.py
  Q2 K8 p2 Z6 S: IC、pipeline.py
) g3 G( {& I, |1 w* aD、settings.py
0 y6 y4 `% a. q9 c3 k. f8 H' A正确资料:
; I! L% a' Z% N3 S" [
- z# f5 f5 |0 d4 c# ?
2 Y  N0 E$ v& S% [9 x% S- l9 Q/ R第16题,xpath中extract方法返回值类型是()
2 v- c, Q' l  bA、列表
/ J9 T  X( V- v4 PB、元组; H  I5 U/ {( X+ Z8 X4 e+ ~* S
C、字典
4 N2 }4 E* K# a6 m, B* TD、集合
7 _) n* v; z; L3 v% w, [正确资料:' _2 Z7 j" U) h% w! q
' c0 L% y3 {% y& J; g0 D) D
& x: V! P6 c' O1 [% r
第17题,参数headers=(),把请求头添加到Scrapy请求中,使爬虫的请求看起来像是从浏览器发起的。
1 Q1 |1 V. [9 j5 v9 Z% I% u# a/ OA、HEADER
2 b; p4 }* `& f9 aB、HEADERS
/ ~2 z; N+ r& T' TC、HEAD6 P, J5 C7 R" i) r$ F
D、BODY5 h* r7 H2 S, ~. o
正确资料:2 d# l6 i; J/ J8 o% i1 z
- c- g. o& s4 x/ R. p" e; q

7 b- B, \2 g: z' u. x第18题,Python中Object=(1, 2, 3, 4, 5),则Objcet是()6 j# E# q; b# f$ g
A、列表2 J, M$ x# L/ K0 {
B、元组
5 w% W" S# G! BC、字典& ~* d  b( {$ m, T; B* B
D、集合
' M. {1 @- l4 z4 |( V3 f正确资料:
5 x# j1 l8 V* `6 C
- ~8 K% n" N( X5 q% ?) U2 ^
" N1 Y0 o& B1 b; T9 [$ P第19题,在Scrapy的目录下,哪个文件负责定义需要爬取的数据?()+ d, |$ C# H" h  w
A、spiders文件夹% ~# O8 Q  d, B4 c
B、item.py
$ v6 f! A5 [" n' o$ O: SC、pipeline.py
. B/ ^* Z+ r+ X$ q/ FD、settings.py" u+ ~( t; L5 _
正确资料:
: S; |  B  {/ v) t9 T2 P4 [4 Q: T* I$ X* q
' s1 j0 D# J* L: Q0 W  }7 o4 ~0 ]% M. b' K" U
资料来源:谋学网(www.mouxue.com),Scrapy中使用Xpath获得的结果调用了.extract方法,结果以()形式生成
+ L6 @0 C) c, _0 m! xA、列表
5 I2 S6 d* O, G! n0 lB、元组7 s( z* t$ t9 y) d  R$ I- {
C、字典6 T0 m% h  L( ~: d3 }
D、集合, O2 v( R  ]- |3 _
正确资料:
- P- s  j3 F) C, ]+ X
+ I3 l# y( `: n% d1 B$ N2 R( V. z5 i$ w6 J( M
第21题,Python中的容器有()  y% D9 U3 H* x+ b
A、列表) u4 f, C6 v3 g; c& r9 s
B、元组5 O6 o# k1 j2 n: O& E( T! S- e5 X
C、字典+ ~2 L% Z* ~9 b' @0 J  b" X
D、集合
* X2 v$ o: |7 p. W9 i正确资料:,B,C,D
) B9 `& J3 F5 S5 d1 P9 B% n2 \: r# Y7 ]: r4 W$ {8 [
5 J" I) O6 d* w( p/ s- Q2 v( k5 [
第22题,使用Selennium获取网页中元素的方法有
! `3 _% t& k5 n% }6 |* F$ R' Y& [A、find_element_by_name6 j+ a, z5 N& f* C. J, B" U
B、find_element_by_id( r6 A. _( h+ \" ]/ E4 Z
C、find_elements_by_name
% b& z- u+ t! O6 S# f% ?6 JD、find_elements_by_id
6 i; d. N' J5 d' z正确资料:,B,C,D
8 v9 F$ f1 a% @$ _, n
* k. H8 f% d' B  N) r
1 J! `; H# X' N' B! G第23题,一个可行的自动更换代理的爬虫系统,应该下列哪些功能?
9 _5 M  W) [6 a7 |A、有一个小爬虫ProxySpider去各大代理网站爬取免费代理并验证,将可以使用的代理IP保存到数据库中' w, \+ |, T4 S& h  C
B、在发现某个请求已经被设置过代理后,什么也不做,直接返回' V; `" l$ ]3 n+ w5 C$ O; O/ D% S
C、在ProxyMiddlerware的process_request中,每次从数据库里面随机选择一条代理IP地址使用
" K% N; L4 L4 x% O* }: FD、周期性验证数据库中的无效代理,及时将其删除9 s  D3 A1 k2 n) V4 t6 G- K& b
正确资料:,C,D  I" ^$ v( Q6 n2 M* J- w) a
  n3 @, L" h6 y4 N  F6 A

! [5 U& |  @% }1 l( J第24题,下列关于在IOS上配置charles的说法正确的是()
' Y. u& z8 f  k6 y, \# XA、不同ios设备之间会有比较大的差别,所以配置的时候需要找到对应的安装证书的入口。
) n2 r% N: V" VB、手机和电脑需要在同一个局域网下。4 H1 n4 ~( o7 u, @& ?
C、HTTP代理可以使用"自动"选项。
# n8 L7 W9 @5 nD、安装好证书以后,打开iOS设备上的任何一个App,可以看到Charles中有数据包在流动
8 Z/ h  b' J- _# j正确资料:,D
- G$ m+ X& z. Z9 T4 c* O8 h3 O* K" ?* A8 U" z

, E6 `9 g$ A) x资料来源:谋学网(www.mouxue.com),下列说法错误的是(). |) `7 q4 U7 q, l* N2 Y9 b
A、mitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本,并在Python脚本里面直接操作HTTP和HTTPS的请求,以及返回的数据包。
5 g, @8 E- d, @' \& E, uB、命令行中执行mitmdump -s parse_request.py即可运行python 脚本, N5 L' T& Y: b
C、使用python可以自定义返回的数据包,如 response.headers,就是返回的头部信息
- O1 Y5 R* M0 Z- r; g: t( A& BD、如果返回的是JSON类型的字符串,python无法进行解析。5 l& O! q1 G* T( q3 q3 j
正确资料:5 a4 P3 j+ h4 c& y' O

% r9 n( f! \+ A0 V! e
( G* G4 p0 l* d5 n9 E- y第26题,以下HTTP状态码表示服务器本身发生错误的是
' H; A! p) s: G( C; fA、400" N( x' X: k( U, A, d0 _
B、5039 `) j: K# W( ?7 N4 H. ]
C、302
- q( M% X3 @9 |. \" f8 \D、500
  p  P7 n3 B) [  g# U正确资料:,D
, Q0 m/ ?2 d# w4 ]$ a
" N% _6 ^! _. g# T& `% N/ W! e1 V  s
第27题,Python中哪种容器生成后可以修改内容
) }$ A- T8 Z' S. mA、列表, ~, S/ X2 y2 J. F& n4 s9 t/ j
B、元组
2 d% z" M9 O$ e& ]7 I5 y( t: iC、字典
( b4 i4 H: J' U1 h: GD、集合
3 X  A' `& F: ?; w. f) o2 n2 z正确资料:,C,D% Y# h( ]# Q; y6 S
+ o2 ]9 [# s! X7 m, j6 _- H$ L
0 h7 c( l& T1 p
第28题,以下HTTP状态码表示服务器没有正常返回结果的是
, ^% A& e& f+ d. eA、200
8 T" F: @! q# ^7 SB、301
/ v, ^; @: n- D5 a5 @4 sC、404: d/ r3 b! H7 y9 R7 e
D、500- I8 \3 g8 ^# e2 V
正确资料:,C,D
1 h5 \  o9 C! Y& q( w  s
! K6 }0 n* N3 B8 W) N
: h. {2 ]/ e- o0 g6 j; l( z/ }+ }第29题,如果目标网站有反爬虫声明,那么对方在被爬虫爬取以后,可以根据()来起诉使用爬虫的公司1 A+ L% _: ]" m0 U3 R' }
A、服务器日志
- @$ Y0 T. P9 E7 l. sB、数据库日志记录
: e! P# g) N; f" @C、程序日志记录
, F, t; ]8 z! C9 Z+ QD、服务器监控- s  l# c/ ?# C' R9 P
正确资料:,B,C,D0 k2 [& q- v% F" j) S- c

: H$ L7 F4 H" U: M. i
3 ^$ \: d7 J# u. d/ v7 k& C资料来源:谋学网(www.mouxue.com),requests中post请求方法的第二个参数可以为()
4 C: Q1 z) I; `) }! xA、字典
7 g5 {( G- P( jB、列表
% N0 p8 E: q6 j2 b2 H# w- JC、json数据9 B/ w0 L" A- G5 }; f8 C. L+ G
D、字符串
. k& z5 l( k3 o! ]+ n) e7 }5 R正确资料:,C
+ w" v3 U1 C( y$ x* W$ `4 P- O
8 w  b5 T( {' ^. j
; b$ D( ?$ j6 O& p0 _. Y第31题,process_spider_output(response, result, output)是在下载器中间件处理完成后,马上要进入某个回调函数parse_xxx()前调用
3 ~& z5 N9 J, y4 `( y# QT、对0 e4 l3 t% z7 H' u) S, t
F、错
% {8 s, v  C( \4 @( j: R- N+ j正确资料:F9 d1 j  s$ G7 `& ^; J; P( S% @
+ m/ t* g# `- v) |. h9 _
2 Q9 o4 I# v' e! r! G
第32题,需要登录的网站一般通过GET请求就可以实现登录。
1 d5 N4 ~& X( j' c5 xT、对
/ Z+ n6 v  q# p+ G1 F- xF、错, o1 v( o7 O2 F2 Y  ~' H
正确资料:F
9 W4 V8 E4 S- u6 i7 |3 O4 n/ i/ D9 }5 o1 V5 H/ Z

3 \( d6 T" C" H' ?第33题,Python中相比于findall方法,search方法对于从超级大的文本里面只找第1个数据特别有用,可以大大提高程序的运行效率。
# ^$ P& E( r' Z- |  \) g  d! AT、对! a4 y  j6 S7 s4 }: G: _
F、错
+ w/ X" c$ d' e4 _% E# ]更多资料下载:谋学网(www.mouxue.com
  }7 C" \4 r) G
8 K! s/ ^; I. [- L# V; t7 _
$ }3 H2 b% o2 m& E; q7 U! e/ p第34题,UI Automator Viewer与Python uiautomator可以同时使用. r* y* `6 z' U; _. c" m
T、对6 m% D8 h$ j+ A$ r- j3 u9 h+ t
F、错8 g$ O3 ~* y0 D( b4 v0 K- a
正确资料:F1 A! C& i. j6 p8 I) ~# s# O

- ^9 l  |8 q- |7 m; Q
# [' g7 e& w9 J) X( D4 J7 J- d3 H第35题,device.sleep()方法是使用UI Automatorr关闭屏幕的命令
& f' H0 p% Q. U5 i$ Y- U% b3 TT、对  f$ b! Y: b6 s) v( n2 `
F、错" E9 D2 M9 Y( X6 Q0 N  e+ O
更多资料下载:谋学网(www.mouxue.com2 Z' }" m2 ]! {9 P& w, V; c2 ?+ G1 _

* U! Q8 D% K; k
1 k  t! x5 [. Q3 {& W第36题,在发送请求时需要注意requests提交的请求头不能与浏览器的请求头一致,因为这样才能隐藏好自己达到获取数据的目的
: z  p1 t' g( G5 bT、对" E) ^) e* a% i3 `0 ?( N4 V
F、错/ j8 |) }% [. L! l6 L$ Q
正确资料:F8 S4 M2 i; Q' _* n( a% D

) }2 g: U' I/ O6 p" _# H- v+ R9 ]( x
第37题,mitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本
7 ^% N4 i1 k" nT、对# y4 A  N: A+ N3 u/ D
F、错
' b( f. H6 q- _' P. n更多资料下载:谋学网(www.mouxue.com" O7 V( k! f7 j6 C) ^

: y' y  B; o1 J
3 |& n) J- l, f5 h& E+ t第38题,MongoDB是一个关系数据库产品
& r  ~5 B  a1 G. n% P6 z" dT、对9 s6 d4 ^5 u+ e3 t# `/ ^" K
F、错
( L0 e3 I, j! D8 Z! k6 a正确资料:F
% {) m0 }: x1 |$ d. T
0 B/ I( x( H7 J* N7 y6 K3 W2 h& |% w- }* g5 B/ Y% u, @, \
第39题,Python正则表达式中".*?"是非贪婪模式,获取最短的能满足条件的字符串。
! T' B1 Y, ?$ `4 z2 X3 M( ST、对
. S* {6 I2 [$ @8 r9 V7 |F、错
' [9 W1 y4 E0 c' L( L更多资料下载:谋学网(www.mouxue.com* n+ R  u; o8 q. R: \( E( d4 P

" _4 v( c- k& C& }/ Y; H4 f0 x+ }/ V
+ b: x8 f; m0 ~第40题,Charles能截获HTTP和HTTPS的数据包,如果网站使用websocket就可以截获。! v# U2 S0 l! S: s/ ^; L: W: f
T、对! B* j& Z4 ]0 n. `. W, [  k
F、错
! l6 G  _/ j6 J' x* ?  Z  P正确资料:F
' E4 J: X5 P0 [: \. i( t& T1 S# y9 A9 J# N# W0 Z5 O
# D# q. [7 b7 |' k, Z4 m
第41题,Charles和Chrome开发者工具相比,只是多了一个搜索功能。- b5 p: v. K" \
T、对; c; `8 A( b+ \, Q
F、错! s! S% ]) z5 m+ d+ a
正确资料:9 `+ J# p+ g/ G, Q

8 s  o2 d7 ~! s3 n  H, x( V
; G  _; b- W7 G( g4 `( t+ m第42题,爬虫中间件的激活需要另外写一个文件来进行
4 R' o8 p  E  u3 p9 `- V$ e! HT、对
0 B& q$ c8 s3 R! Z, H+ Q; VF、错& s+ Q% [0 e4 Q2 @5 A1 \6 W) {1 h
正确资料:F9 |/ A/ q; E/ v, W9 s9 f- h# D
# D- {4 Z; \9 V" T

/ m4 H8 Z/ J' R9 R1 J% I第43题,Cookies一般包含在请求头Headers中
  ^( y# h% }  {1 VT、对
6 l# y8 V  t' i' WF、错! V9 F6 {1 Y- G2 Z
更多资料下载:谋学网(www.mouxue.com
8 r, J$ S& ?0 S& {. l! \6 p- L' K3 c: G

* M1 c6 }- q7 W1 B" A; G6 u第44题,已经创建好的Scrapy爬虫*.py文件可以直接通过Python来运行
' q0 @1 k: U' S: ]8 W6 G. Z  B1 Z9 aT、对
6 H8 t  {/ C; U  Y6 lF、错; A: n9 A* E) I8 O1 C- w: F
正确资料:F: I4 B, B) w3 I9 H0 \; W( g8 C8 w  W* L

5 O; Y, }. F% u$ Q
& B+ @3 U( `7 c# m第45题,如果目标网站本身就是提供公众查询服务的网站,那么使用爬虫是合法合规的。' L1 [$ A: \  ^1 L; X
T、对
& B4 S) Q# L' x# J7 w& b$ [6 M" c: d. WF、错
7 X6 ~3 M7 q8 @0 e" S9 Q/ |, L% ?更多资料下载:谋学网(www.mouxue.com
' d) J1 M9 x& x' y9 l6 q& ^# e" e
' I0 z3 w! t/ i1 m! u0 z3 |5 D
第46题,Redis中使用lrange读取数据后数据也会删除
% l1 O0 E: T" w' b* nT、对5 N$ G* @/ o* j9 R* ]4 p
F、错8 C( T" L2 g: {- S9 m- H0 [$ p
正确资料:
1 b" d; L6 G+ m# G' |% S, u! X8 \8 s% \5 K: A5 U1 ~! O
  o% i5 F/ E  k# \! P& U
第47题,开源库pytesseract的作用是将图像中文字转换为文本。
! }9 v# `9 \. y% _7 F% Y3 fT、对
' o  l& b4 v; P5 R% w3 _! c% R0 PF、错$ {0 ?2 u# Q- Q' m
更多资料下载:谋学网(www.mouxue.com$ b. o5 m0 U+ C
+ W' l9 a9 p* l

* C/ v4 w- A1 s8 I  ]5 Q" ]第48题,Scrapy每一次发起请求之前都会在这里检查网址是否重复。因此如果确实需要再一次爬取数据,在Redis中把这个Key删除即可。# \  q, N( y$ f8 p* T8 J
T、对- z9 O6 M& S8 a/ U
F、错4 x- B8 V, K  _" `+ \
更多资料下载:谋学网(www.mouxue.com
5 N- ?4 f8 V, x! I* M5 Z4 P/ L. L# v3 U. d% ?& k# E1 E- T+ e: C

+ S% M: v" C# n9 I- f7 Y: l' z/ U第49题,"curl http://爬虫服务器IP地址:6800/cancel.json -d project=工程名 -d job=爬虫JOBID"该命令的作用是启动爬虫
9 Y4 S" O1 j# V3 X' ?' H: ?2 h* vT、对
* s: N# t. h+ X) ~( LF、错/ b' y! M) E) H) ^7 I
正确资料:
+ r; }) Q" H% v5 y: H) U9 ?( o# H
% m& W$ e3 F& r
! J+ Q3 C, E3 B0 j  q. m, u. }资料来源:谋学网(www.mouxue.com),中间人爬虫就是利用了中间人攻击的原理来实现数据抓取的一种爬虫技术$ T' a8 y! P4 _
T、对/ n1 K7 `0 w" v) I
F、错7 Y* J) o1 k/ G5 }
正确资料:5 R0 D% c/ _* g
+ g1 `6 Y, X* Q5 s
! ?0 S& m6 A: _2 B% K+ f: X

! H1 G; L1 D/ t3 A/ }1 H# ~" N: _6 j7 r6 I$ j& Z. c* s
6 f1 T  a' P+ @

. |1 ]) t% I1 D% ^" V
/ M! [1 u& x7 @& N  A
! l! i2 f7 ^* Q! C# y! A3 v
0 F2 @% T6 B9 I- Z
& g/ p8 O$ y- ^( p* `' H; R& ]: e3 p

6 v0 x$ [! p, C3 ^- P; S8 C& p' K6 V8 _4 R8 V5 M1 E4 E

' @7 c; K% `" N  d

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?会员注册

×
奥鹏作业答案,奥鹏在线作业答案
发表于 2020-10-22 09:56:03 | 显示全部楼层
奥鹏作业答案,奥鹏在线作业答案
回复

使用道具 举报

发表于 2020-10-22 10:40:25 | 显示全部楼层
奥鹏作业答案,奥鹏在线作业答案
回复

使用道具 举报

发表于 2020-10-22 11:08:40 | 显示全部楼层
奥鹏作业答案,奥鹏在线作业答案
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 会员注册

本版积分规则

 
 
客服一
客服二
客服三
客服四
点这里给我发消息
点这里给我发消息
谋学网奥鹏同学群2
微信客服扫一扫

QQ|关于我们|联系方式|网站特点|加入VIP|加盟合作|投诉建议|法律申明|Archiver|小黑屋|奥鹏作业答案-谋学网 ( 湘ICP备2021015247号 )

GMT+8, 2024-4-23 18:07 , Processed in 0.249985 second(s), 17 queries .

Powered by Discuz! X3.5

Copyright © 2001-2023 Tencent Cloud.

快速回复 返回顶部 返回列表