日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁(yè)技術(shù)文章
文章詳情頁(yè)

python - spark讀入文件,報(bào)錯(cuò) java.io.IOException:No input paths specified in job

瀏覽:211日期:2022-09-23 13:44:29

問(wèn)題描述

想嘗試著處理一下文本,結(jié)果都載入不進(jìn)來(lái)。。。文件路徑肯定沒(méi)問(wèn)題求大神指教

fileName = 'file:///Users/liuchong/Desktop/Animal Farm.txt'liuDF = sqlContext.read.text(fileName).select(’value’)print type(liuDF)liuDF.show()

報(bào)錯(cuò):

---------------------------------------------------------------------------Py4JJavaError Traceback (most recent call last) in () 5 liuDF = sqlContext.read.text(fileName).select(’value’) 6 print type(liuDF)----> 7 liuDF.show() 8 #print liuDF.count() 9 def removePunctuation(column):/databricks/spark/python/pyspark/sql/dataframe.py in show(self, n, truncate) 255 +---+-----+ 256 '''--> 257 print(self._jdf.showString(n, truncate)) 258 259 def __repr__(self):/databricks/spark/python/lib/py4j-0.9-src.zip/py4j/java_gateway.py in __call__(self, *args) 811 answer = self.gateway_client.send_command(command) 812 return_value = get_return_value(--> 813 answer, self.gateway_client, self.target_id, self.name) 814 815 for temp_arg in temp_args:/databricks/spark/python/pyspark/sql/utils.py in deco(*a, **kw) 43 def deco(*a, **kw): 44 try:---> 45 return f(*a, **kw) 46 except py4j.protocol.Py4JJavaError as e: 47 s = e.java_exception.toString()/databricks/spark/python/lib/py4j-0.9-src.zip/py4j/protocol.py in get_return_value(answer, gateway_client, target_id, name) 306 raise Py4JJavaError( 307 'An error occurred while calling {0}{1}{2}.n'.--> 308 format(target_id, '.', name), value) 309 else: 310 raise Py4JError(Py4JJavaError: An error occurred while calling o77.showString.: java.io.IOException: No input paths specified in job at org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:156) at org.apache.hadoop.mapred.FileInputFormat.getSplits(FileInputFormat.java:208) at org.apache.spark.rdd.HadoopRDD.getPartitions(HadoopRDD.scala:199) at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:239) at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:237) at scala.Option.getOrElse(Option.scala:120) at org.apache.spark.rdd.RDD.partitions(RDD.scala:237) at org.apache.spark.rdd.MapPartitionsRDD.getPartitions(MapPartitionsRDD.scala:35) at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:239) at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:237) at scala.Option.getOrElse(Option.scala:120) at org.apache.spark.rdd.RDD.partitions(RDD.scala:237) at org.apache.spark.rdd.MapPartitionsRDD.getPartitions(MapPartitionsRDD.scala:35) at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:239) at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:237) at scala.Option.getOrElse(Option.scala:120)at org.apache.spark.rdd.RDD.partitions(RDD.scala:237) at org.apache.spark.rdd.MapPartitionsRDD.getPartitions(MapPartitionsRDD.scala:35) at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:239) at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:237) at scala.Option.getOrElse(Option.scala:120) at org.apache.spark.rdd.RDD.partitions(RDD.scala:237) at org.apache.spark.sql.execution.SparkPlan.executeTake(SparkPlan.scala:190) at org.apache.spark.sql.execution.Limit.executeCollect(basicOperators.scala:165) at org.apache.spark.sql.execution.SparkPlan.executeCollectPublic(SparkPlan.scala:174) at org.apache.spark.sql.DataFrame$$anonfun$org$apache$spark$sql$DataFrame$$execute$1$1.apply(DataFrame.scala:1499) at org.apache.spark.sql.DataFrame$$anonfun$org$apache$spark$sql$DataFrame$$execute$1$1.apply(DataFrame.scala:1499) at org.apache.spark.sql.execution.SQLExecution$.withNewExecutionId(SQLExecution.scala:56) at org.apache.spark.sql.DataFrame.withNewExecutionId(DataFrame.scala:2086) at org.apache.spark.sql.DataFrame.org$apache$spark$sql$DataFrame$$execute$1(DataFrame.scala:1498) at org.apache.spark.sql.DataFrame.org$apache$spark$sql$DataFrame$$collect(DataFrame.scala:1505) at org.apache.spark.sql.DataFrame$$anonfun$head$1.apply(DataFrame.scala:1375) at org.apache.spark.sql.DataFrame$$anonfun$head$1.apply(DataFrame.scala:1374) at org.apache.spark.sql.DataFrame.withCallback(DataFrame.scala:2099) at org.apache.spark.sql.DataFrame.head(DataFrame.scala:1374) at org.apache.spark.sql.DataFrame.take(DataFrame.scala:1456)at org.apache.spark.sql.DataFrame.showString(DataFrame.scala:170) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:497) at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:231) at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:381) at py4j.Gateway.invoke(Gateway.java:259) at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:133) at py4j.commands.CallCommand.execute(CallCommand.java:79) at py4j.GatewayConnection.run(GatewayConnection.java:209) at java.lang.Thread.run(Thread.java:745)

問(wèn)題解答

回答1:

No input paths specified in job

log里面說(shuō)清楚了,輸入的路徑不存在。

回答2:

你確定文本名稱中間有空格?Animal Farm.txt'

回答3:

你是在集群里運(yùn)行的?那建議把文件扔到hdfs里,路徑改為hdfs url。

標(biāo)簽: Python 編程
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
最新中文字幕在线播放| 亚洲精品国产嫩草在线观看| 成人久久久久| 在线亚洲人成| 日本а中文在线天堂| 久久精品国产久精国产| 国产精品亚洲人成在99www| 日本强好片久久久久久aaa| 日韩欧美中文字幕一区二区三区 | 亚洲精品黄色| 亚洲免费福利一区| 青青草伊人久久| 国产精品对白| 国产传媒在线| 99久久精品网站| 最新亚洲一区| 综合亚洲自拍| 久久精品72免费观看| 国产精成人品2018| 国产精品99久久精品| 伊伊综合在线| 黄色成人精品网站| 亚洲精品国产日韩| 久久精品国产精品亚洲毛片| 四虎4545www国产精品| 欧美日韩三区| 日本午夜精品久久久| 久草精品视频| 久久精品国产大片免费观看| 欧美专区一区二区三区| 欧美天堂一区二区| 动漫av一区| 亚洲女同中文字幕| 97久久中文字幕| 91欧美日韩| 午夜久久福利| 久久精品99久久久| 丝瓜av网站精品一区二区| 在线看片一区| 国产精品一区二区三区四区在线观看 | 国产精选久久| 91综合视频| 在线亚洲一区| 国产探花一区二区| 日韩免费视频| 亚洲一区二区三区免费在线观看 | 欧美日韩午夜电影网| 97精品一区| 视频一区二区三区中文字幕| 国产精品第一| 亚洲精品一二三区区别| 国产日韩在线观看视频| 成人免费电影网址| 日本午夜精品| 久久亚洲成人| 欧美精品影院| 久久精品动漫| 欧美日韩一区自拍| 成人羞羞视频播放网站| 久久亚洲风情| 91一区二区| 欧美aa一级| 日韩1区2区| 日韩一区欧美二区| 大香伊人久久精品一区二区 | 天堂俺去俺来也www久久婷婷| 国产一区二区三区不卡视频网站| 99视频精品| 国内精品麻豆美女在线播放视频| 老牛国产精品一区的观看方式| 精品视频网站| 快she精品国产999| 成人美女视频| 国产精品一区二区av日韩在线| 亚洲性图久久| 成人免费一区| 欧美精品中文字幕亚洲专区| 激情偷拍久久| 精品美女久久| 日韩和欧美一区二区三区| 一区二区三区视频免费观看| 国产精品a级| 亚洲精品女人| av成人国产| 日韩精品专区| 国产精品伊人| 视频一区中文字幕国产| 久久精品高清| 麻豆理论在线观看| 欧美精品99| 日韩高清欧美激情| 日韩亚洲精品在线| 日韩精品免费一区二区三区| 久久一区欧美| 欧美日韩黄网站| 午夜电影一区| 老鸭窝亚洲一区二区三区| 国产精品亚洲一区二区三区在线观看| 国产精品久久久久久妇女| 视频在线观看一区二区三区| 亚洲手机在线| 新版的欧美在线视频| 精品资源在线| 久久精品国产99久久| 麻豆国产精品一区二区三区| 亚洲欧美网站在线观看| 美女网站一区| 一区二区三区四区日本视频| 精品国产一区二| 国产精品久久久久9999高清| 五月亚洲婷婷 | 日韩精品一页| 久久国产高清| 亚洲一区区二区| 欧美日韩国产亚洲一区| 欧美va天堂在线| 91精品一区二区三区综合| 高清av不卡| 欧美xxxx中国| 激情黄产视频在线免费观看| 电影91久久久| www在线观看黄色| 92国产精品| 91综合视频| 在线观看精品| 久久久精品久久久久久96| av高清不卡| 久久婷婷丁香| 亚洲午夜91| 欧美日韩精品一本二本三本| 亚洲一区二区三区高清| 免费视频最近日韩| 亚洲精品自拍| 日韩激情综合| 国产精品毛片久久久| 免费在线日韩av| 国产成人精品一区二区三区视频| 国产精品二区不卡| 久久影院一区二区三区| 成人台湾亚洲精品一区二区| sm久久捆绑调教精品一区| 免费看av不卡| 亚洲大全视频| 在线国产日韩| 欧美在线首页| 国产一区二区久久久久| 99久精品视频在线观看视频| 黑丝一区二区| 日韩美女国产精品| 国语对白精品一区二区| 精品捆绑调教一区二区三区| 五月精品视频| 少妇精品久久久一区二区三区| 日韩不卡一区二区| 久久成人高清| 伊人久久国产| 亚洲在线国产日韩欧美| 日韩激情一二三区| 老牛国内精品亚洲成av人片| 亚洲成人不卡| 免费观看在线色综合| 久久激情av| 日韩欧美精品| 久久uomeier| 香蕉视频成人在线观看| 国产网站在线| 久久人人88| 少妇精品久久久一区二区| 国产日韩一区| 亚洲成a人片| 亚洲深夜福利在线观看| 日韩超碰人人爽人人做人人添| 乱一区二区av| 在线精品视频在线观看高清| 亚洲欧美专区| 国产一区二区三区探花| 在线亚洲一区| 国产精品免费不| 国产精品av一区二区| 日韩高清一区| 日韩欧美一区二区三区在线视频 | 亚洲成av在线| 影音先锋久久精品| 精品亚洲自拍| 首页国产欧美日韩丝袜| 国产一区二区三区四区五区传媒| 欧美日韩免费观看一区=区三区| 国产欧美日韩精品高清二区综合区| 岛国av在线网站| 婷婷成人av| 久久精品观看| 国产乱码精品一区二区亚洲| 免费毛片在线不卡| 国产精品久久久亚洲一区| 精品一区在线| 精品国产欧美日韩| 女同性一区二区三区人了人一 | 成人在线网站| 亚洲人成亚洲精品| 国产日韩三级|