环境: CentOS 6.2
由于/tmp目录下只有一个g的容量,但发现有600M的空间被占用。在tmp目录下du -sm却只有不到10M的文件。最后发现是运行的应用程序写日志文件被删除了,
通过命令查看 lsof /tmp | grep deleted
解决方法,关闭相应的应用程序并记住不要轻易删除tmp目录下的文件。
量化自我和极简主义的窝藏点
技术
环境: CentOS 6.2
由于/tmp目录下只有一个g的容量,但发现有600M的空间被占用。在tmp目录下du -sm却只有不到10M的文件。最后发现是运行的应用程序写日志文件被删除了,
通过命令查看 lsof /tmp | grep deleted
解决方法,关闭相应的应用程序并记住不要轻易删除tmp目录下的文件。
环境:spark 1.4.1, jpinyin-1.1.3.jar
spark-shell –executor-memory 10G –total-executor-cores 10 –jars ~/huangqiang/jpinyin-1.1.3.jar
import com.github.stuxuhai.jpinyin.ChineseHelper
val hiveCtx = new org.apache.spark.sql.hive.HiveContext(sc)
val hql1 = hiveCtx.sql(“select logdate, query, custid, groupid, bidword, quality, price from search_join_log where logdate <=’2016-01-07′ and logdate >= ‘2016-01-01′ and adtype=’2′ and adid > 0 and channel in(’16’,’40’,’51’,’52’,’78’,’80’,’72’,’73’,’81’)”)
def qj2Bj(str: String): String = {
var b = str.toCharArray
val c = b.map{i =>
if(i == ‘\\\\u3000’){
“”
}else if(i > ‘\\\\uFF00’ && i < ‘\\\\uFF5F’){
(i – 65248).toChar
}else{
i.toChar
}
}
return c.mkString
}
val norm_search_join_log = hql1.map{r =>
val q_bc = qj2Bj(r(1).toString.toLowerCase())
val b_bc = qj2Bj(r(4).toString.toLowerCase())
val q_sim = ChineseHelper.convertToSimplifiedChinese(q_bc)
val b_sim = ChineseHelper.convertToSimplifiedChinese(b_bc)
(r(0).toString, q_sim, r(2).toString, r(3).toString, b_sim, r(5).toString, r(6).toString)
}
在使用golang中的json包,定义字段时需要首字母大写,例:
type Load_log struct{
User_id string
Os string
Load_dtime string
}
必须写User_id的格式而不是user_id,不然解析的时候没有任何结果。
环境: Ubuntu 14.04, Ceph 0.80.10
在使用ceph或rados命令时(如:rados -p .rgw ls)发生只能加sudo才可以使用,不然就出现报错:
monclient(hunting): ERROR: missing keyring, cannot use cephx for authentication
librados: client.admin initialization error (2) No such file or directory
ls /etc/ceph/ceph.client.admin.keyring -l
-rw——- 1 root root 63 Jan 18 18:45 /etc/ceph/ceph.client.admin.keyring
查看文件的属性才发现只有root用户才可以读取文件ceph.client.admin.keyring。因而修改其权限以便其它用户也可以访问
sudo chmod o+r /etc/ceph/ceph.client.admin.keyring
之前180度翻转屏幕后无法恢复,错误提示为”Display preferences pane cloud not be loaded”。试过网上说的各种方法都无法恢复,甚至升级一个新的mac os都无法奏效。最终的恢复方法是找一个显示器,接入mac的hdmi,在该显示屏幕上恢复回正常的显示效果。
环境: hadoop 2.6
查看日志 org.apache.hadoop.hdfs.server.protocol.DisallowedDatanodeException: Datanode denied communication with namenode
在hdfs-site.xml添加如下:
<property>
<name>dfs.namenode.datanode.registration.ip-hostname-check</name>
<value>false</value>
</property>
环境:CentOS 6.4, hadoop 2.6, hive 1.1,postgresql 9.4
在启动hive的时候出现No suitable driver found for jdbc:postgres://xxx.xxx.xxx.xxx:5432/hive
依据提示是说postgresql jdbc包找不到,反复确认包是存在lib文件夹内。
最终发现hive-site.xml中的
<value>jdbc:postgres://xxx.xxx.xxx.xxx:5432/hive</value> 的问题。修改为
value>jdbc:postgresql://xxx.xxx.xxx.xx:5432/hive</value>即可
环境:Ubuntu 14.04
git clone https://github.com/Microsoft/lightlda.git
cd lightlda/
vi build.sh
修改如下:
#git clone https://github.com:Microsoft/multiverso.git
git clone https://github.com/Microsoft/multiverso.git
sh build.sh
cd example
export LD_LIBRARY_PATH=~/lightlda/multiverso/third_party/lib:$LD_LIBRARY_PATH
sh nytimes.sh
环境:Ubuntu 14.04
git clone https://github.com/dmlc/xgboost.git
cd xgboost
编译
make cxx11=1
运行示例
cd demo/binary_classification
../../xgboost mushroom.conf
安装python包
cd ~/xgboost/python-package
sudo python setup.py install
环境: Windows 7
Chrome浏览器会把浏览记录信息等放在sqlite数据库上,它的位置在C:\\Users\\{username}\\AppData\\Local\\Google\\Chrome\\User Data\\Default目录下,有一个命名为History的文件就是浏览记录。