solidDB 创建用户问题

环境:WinXP, solidDB 6.5

最近一段时间在接触内存数据库solidDB, 却一直无法使用创建的用户登录,提示如下:C:\\Documents and Settings\\rand>solsql “tcp 2315” user2 user123
IBM solidDB SQL Editor (teletype) – Version: 6.5.0.0 Build 0010
(c) Solid Information Technology Ltd. 1993, 2009
Error 08004: Server rejected the connection

一直找原因,以为是用户或密码错误。最后才试出来原来在命令行创建用户create user user2 identified by user123; 一定要输入commit work;提交才行。 真让人吐血结果!

SQL1219N 因为未能分配专用虚拟内存,所以请求失败。 SQLSTATE=57011

环境: db2 v9.7 , windows xp

今天不知怎得,连接DB2数据库一直报这个错误“SQL1219N  因为未能分配专用虚拟内存,所以请求失败。  SQLSTATE=57011”,开始一直以为是内存不够用,于是重启电脑,并将其它的进程关掉。仍无法解决问题。在网上找了半天,发现说有个全局变量DB2_EXTSECURITY可以解决这个问题。于是的命令行输入: db2set  DB2_EXTSECURITY=NO ,重新启动数据库即可连接。

 

这个变量DB2_EXTSECURITY描述如下:

DB2 version 8.2 on Windows contains a new security feature that
controls access to DB2 system files, registry keys, and network
shares. The security feature is enabled by default by setting
the DB2 registry variable DB2_EXTSECURITY=YES during
installation of DB2. Attempts to use the DB2 product under a
userid that is not part of either the DB2USERS or DB2ADMNS group
on Windows, will result in a variety of symptoms, including, but
not limited to the following:

– SQL1224N – database agent could not be started.
– Various permissions errors using the DB2 CLP.
– DB2 processes that unexplainably abend.

Matlab Computer Vision toolbox

环境:Ubuntu 12.04,  Matlab 2013b,  GStreamer 0.10

matlab toolbox中的computer vision支持图像和视频的处理, GStreamer是一个开源的多媒体框架,支持对多种视频格式的解码,比如avi, mp4等。 结合这两个工具可以进行多种视频处理。下面是一个视频播放的示例:

videoFReader = vision.VideoFileReader(‘viplanedeparture.avi’);
videoPlayer = vision.VideoPlayer;
while ~isDone(videoFReader)
videoFrame = step(videoFReader);
step(videoPlayer, videoFrame);
end
release(videoPlayer);
release(videoFReader);

http://m.baidu.com/news?fr=mohome&ssid=0&uid=&pu=sz%401320_2001%2Cta%40iphone_1_7.1_3_537&bd_page_type=1#page/info%3A互联网/http%3A%2F%2Fwww.huxiu.com%2Farticle%2F114327%2F1.html/深挖BAT内部级别和薪资待遇,你敢看?%20/虎嗅网/1430894729000/12489789468531375681

Spark Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient memory

环境:spark 1.1

spark-shell启用的时候一直出现这个提示:

Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient memory

查了一下午才明白,需要在master结点上做如下修改:

vi /etc/spark/conf/spark-defaults.conf

添加一项

spark.driver.memory=10g

注:spark.driver.memory表示master的memory大小设置, 而spark.executor.memory代表worker结点内存大小。

Titan-hadoop 分布式图计算框架

环境: Centos 5.7,    titan-0.5.0-hadoop2

titan-hadoop是一款支持在hadoop上做分布式图计算的框架, 它的前身是faunus,是图分析引擎,后来归并到titan项目上。 可以在http://s3.thinkaurelius.com/downloads/titan/titan-0.5.0-hadoop2.zip下载安装文件。 具体使用请参考 http://s3.thinkaurelius.com/docs/titan/0.5.0/hadoop-getting-started.html 。

目前的版本支持hadoop 2.2.0,  跟其它的hadoop版本编译的时候出现不少问题。 还没有找到针对hadoop的titan-hadoop2源码。

titan-hadoop “Too many open files”修正

环境: CentOS 5.7,  Titan-0.5.0-Hadoop2

在titan-hadoop启动gremlin.sh运行图遍历时经常出现”too many open files”的报错, 发现最终的问题超出系统最大的打工的文件数据。

解决如下:

查询系统设置
ulimit -n
默认是1024

修改参数:

sudo vi /etc/security/limits.conf

增加或修改这两项即可 ,然后重启系统

* soft nofile 8192
* hard nofile 8192