ljiaon SM karry on是什么意思东西啊?

Louis Blog
今天刷朋友圈的时候看到这样一张照片,大致是一家餐厅机器人在点餐、送餐。
再加上之前看到阮一峰老师的一本书:《未来世界的幸存者》,思考很多,故写下感想。
首先,引用书中一段话:
机器人、自动化、人工智能正在变得比人类更强大。在可预见的将来,技术最终将淘汰人类。
对于这个观点,我是比较认同的。夸张一点,可以说在未来五到十年时间电脑可以代替大多数工作,他们比人类做的更快更好。比如:机器人取代服务员、售货员;扫地机器人取代清洁员;ATM取代银行职员;自动驾驶取代司机,要知道目前特斯拉的 Autopilot 等级已经达到Level 3(某些情况下可以达到Level 4);人工智能取代大部分***、前台等等…被取代之后,他们要干什么呢?能干什么呢?
你会说,新技术普及之后必然会衍生很多其他新兴行业。没错,确实会,但数量远远会小于被取代的职位。想想诺基亚时代的Symbian、这两年HTML 5的兴起与Flash的没落,这世上没有绝对安全的工作。换句话说,那些被淘汰的人们可以胜任么?***也很明显,大部分人都不能胜任。为什么呢?因为你要从零开始,重新学习与你之前行业无关或关联性很少的技能。要知道啊,在这个高速发展的行业,跟刚出校门的学生站在同一起跑线,又有什么优势呢?
再次引用书中一段话:
不是每个人都善于学习,更不是每个人都具有学习的意愿。大多数人只希望生活舒适,不愿意动脑筋,去搞懂那些抽象的公式。而且,要求40、50岁的人跟刚走上社会的年轻人一样拼搏,也不现实。如果终生学习是唯一的就业出路,那对于多数人来说,就是没有出路。…当代国家是建立在人对国家有用的基础上的,大部分人的角色是工人和士兵。如果这些角色被机器取代,那么底层的人们对国家来说,也就不再重要了。国家很可能会忽视他们的需求,只是出于社会稳定的目的,提供基本的生活资料。而人们也比以往更依赖政府,因为如果政府停止救济,他们就无法养活自己。
第二段很像《北京折叠》中的场景,书中是这样描述的。
大地的一面是第一空间,五百万人口,生存时间是从清晨六点到第二天清晨六点。空间休眠,大地翻转。翻转后的另一面是第二空间和第三空间。第二空间生活着两千五百万人口,从次日清晨六点到夜晚十点,第三空间生活着五千万人,从十点到清晨六点,然后回到第一空间。时间经过了精心规划和最优分配,小心翼翼隔离,五百万人享用二十四小时,七千五百万人享用另外二十四小时。
不同的空间中,随着不同阶级住着不同的人:第一层毫无疑问就是当权者,第二层是中产阶级,第三层则是处于底层、被这个时代所抛弃的人。
随着科技的进步,人力已经变得不是那么重要,准确的说是生活在底层的人不是那么重要。因为机器人早已可以替代他们,不幸的是,这些人占了大多数,当权者只不过为了社会稳定而保留这些工作。
说到现在,我觉得每个人都要考虑因为某种原因不能继续现在的工作之后,自己的Plan B是什么?如果年轻的话或者考虑换掉目前在做并且未来短时间内可能被取代的工作,比如我正在Udacity学习机器学习这一课程。
看完这本书后,我跟很多朋友都提起了这些观点并推荐了这本书。但,大部分都没什么反应。
那么,我们应该有的危机意识呢?
最后,附上《未来世界的幸存者》一书的在线阅读地址:
刚才,遇到了 SQL去重的问题。
然而这次和以往其他不同的是:这次数据整行记录(包括id)都是重复的。不能用group、max(id)这种以及类似的方式。抛开表设计的问题,这次来说下怎么去重。
12345678select distinct * into tmp_table from repeat_delete from repeat_insert into repeat_table select * from tmp_drop table tmp_
大功告成。
文中所有软件版本均为最新版本5.X,网上ELK 5.X 版本资料较少,所以搭建过程种碰到了不少坑,仅记录简略搭建日志,后续如果有时间会整理详细搭建记录。
12345# https://www.elastic.co/downloads/# *** elasticsearchwget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.2.1.tar.gztar xzf elasticsearch-5.2.1.tar.gzcd elasticsearch-5.2.1/
修改配置 vi config/elasticsearch.yml 【可选】
1234567cluster.name=my-applicationnode.name=node-1path.data=/tmp/elasticsearch/datapath.logs=/tmp/elasticsearch/logs# 0.0.0.0 则开启外网访问network.host=0.0.0.0http.port=9200
创建 path.xx 文件夹后,启动ElasticSearch
12./bin/elasticsearchnetstat -tln
12345# *** elasticsearch-headgit clone git:///mobz/elasticsearch-head.gitcd elasticsearch-headnpm install# npm install -g grunt --registry=https://registry.npm.taobao.org
修改 vi Gruntfile.js 加入hostname: ‘0.0.0.0’,【可选】
12345678910connect: {
server: {
options: {
hostname: '0.0.0.0',
port: 9100,
base: '.',
keepalive: true
}}
修改vi config/elasticsearch.yml, 加入以下内容,否则可能导致连接不上elasticsearch
12http.cors.enabled: truehttp.cors.allow-origin: "*"
开启 9100 端口并启动
123456# 如未开放 9100 端口需先开放端口iptables -I INPUT -p tcp --dport 9100 -j ACCEPTservice iptables savegrunt server &# 访问 http://IP:9100/
***Logstash12345678910111213141516171819202122232425262728wget https://artifacts.elastic.co/downloads/logstash/logstash-5.2.1.tar.gztar xzf logstash-5.2.1.tar.gzcd logstash-5.2.1# 新建配置文件 logstash-simple.conf ,配置以下内容input {
stdin { }
syslog {# logback,logstash没有官方支持,配合jar包 net.logstash.logback
type =& &test-logback&
host =& &127.0.0.1&
port =& 4562
codec =& &json&
log4j { # log4j
type =& &test-log4j&
host =& &127.0.0.1&
port =& 4560
}}output {
elasticsearch { hosts =& [&localhost:9200&] }
stdout { codec =& rubydebug }}output {
elasticsearch { hosts =& [&localhost:9200&] }
stdout { codec =& rubydebug }}#启动服务./bin/logstash -f logstash-simple.conf
Java项目配置
log4j配置以下内容
12345678# appender socketlog4j.appender.socket=org.apache.log4j.net.SocketAppender# 端口为logstash log4j 配置端口log4j.appender.socket.Port=4560log4j.appender.socket.RemoteHost=127.0.0.1log4j.appender.socket.layout=org.apache.log4j.Patte10000rnLayoutlog4j.appender.socket.layout.ConversionPattern=%d [%-5p] [%l] %m%nlog4j.appender.socket.ReconnectionDelay=100
logback 使用以下配置
12345678910111213141516&
&net.logstash.logback&
&logstash-logback-encoder&
&4.8&& name="stash" class="net.logstash.logback.appender.LogstashSocketAppender"&
&127.0.0.1&
&{"appname":"my log"}&& ref="stash" /&
***Kibana1234567wget https://artifacts.elastic.co/downloads/kibana/kibana-5.0.0-linux-x86_64.tar.gztar xzf kibana-5.0.0-linux-x86_64.tar.gzcd kibana-5.0.0-linux-x86_64# ***x-packbin/kibana-plugin install x-pack./bin/kibana# 访问 http://IP:5601
【可选】使用Redis做消息队列防止日志丢失
新建配置文件,写入 Redis
123456789101112131415161718192021222324input {
stdin { }
syslog {
type =& "test-logback"
host =& "127.0.0.1"
port =& 4562
codec =& "json"
log4j {
type =& "test-log4j"
host =& "127.0.0.1"
port =& 4560
}}output {
# elasticsearch { hosts =& ["localhost:9200"] }
redis {
# 表示写入到redis中
host =& "127.0.0.1"
# 指明redis服务器地址
port =& 6379
# 指明redis端口
data_type =& "list"
# 指定数据类型为list
key =& "logstash"
# 指定存入的键
# stdout { codec =& rubydebug }}
从Redis 写入 ElasticSearch
12345678910111213input {
stdin { }
redis {
# 表示从redis中取出数据
host =& "127.0.0.1"
port =& 6379
data_type =& "list"
key =& "logstash"
# 指定去logstash这个键中取出数据
}}output {
elasticsearch { hosts =& ["localhost:9200"] }#写入 elasticsearch
# stdout { codec =& rubydebug }}
【可选】使用Kafka做消息队列防止日志丢失
新建配置文件,写入 Kafka
1234567891011121314151617181920212223242526input {
stdin { }
syslog {
type =& "test-logback"
host =& "127.0.0.1"
port =& 4562
codec =& "json"
log4j {
type =& "test-log4j"
host =& "127.0.0.1"
port =& 4560
}}output {
# elasticsearch { hosts =& ["localhost:9200"] }
kafka {
#输出到kafka
bootstrap_servers =& "localhost:9092"
codec =& plain {
format =& "%{host} %{logger_name} %{level} %{message}"
compression_type =& "snappy" # 压缩类型
topic_id =& "logstash"
#这个将作为主题的名称,将会自动创建
# stdout { codec =& rubydebug }}
从Kafka写入 ElasticSearch
123456789101112input {
stdin { }
kafka {
bootstrap_servers =& "localhost:9092"
compression_type =& "snappy" # 压缩类型
consumer_threads =& 5 # 线程 默认 1
}}output {
elasticsearch { hosts =& ["localhost:9200"] }#写入 elasticsearch
# stdout { codec =& rubydebug }}
ELK 集群搭建
修改 elasticsearch.yml (master)
123# 同一局域网下elasticsearch会自动发现相关节点,所以不用配置 discovery.zen.xxx 等参数cluster.name: my-es-clusternode.name: node-1
另一台服务器修改 elasticsearch.yml (node),如果是同一台服务器搭建集群,复制 elasticsearch 目录时注意清空data目录
12cluster.name: my-es-clusternode.name: node-2
logstash 配置 hosts 数组即可
1234output {
elasticsearch { hosts =& [&localhost:9200&, &localhost:9201&, &localhost:9202&] }
stdout { codec =& rubydebug }}
Kafka 集群搭建
修改 server.properties
1234# kafka 集群主要关注下面这两个参数极客broker.id=0 # 当前机器在集群中的唯一标识,和zookeeper的myid性质一样zookeeper.connect=localhost:2181,localhost:2182# windows 启动:.\bin\windows\kafka-server-start.bat .\config\server.properties
logstash output 配置
123456kafka {
#输出到kafka
bootstrap_servers =& &localhost:9092,localhost:9093,localhost:9094&
#生产者 logstash 5.X kafka 插件不在依赖zookeeper,所以去掉了 zk_connect
compression_type =& &snappy& # 压缩类型
enable_metric =& true
topic_id =& &logstash&
#这个将作为主题的名称,将会自动创建}
logstash input 配置
1234kafka {
bootstrap_servers =& &localhost:9092,localhost:9093,localhost:9094&
consumer_threads =& 5}
12345678910111213141516171819201. ElasticSearch默认内存2G,启动报以下错误,则要在 vi jvm.options 修改 jvm 内存 -Xms512m
Java HotSpot(TM) 64-Bit Server VM warning: INFO: os::commit_memory(0x5232, 0) error=&Cannot allocate memory& (errno=12)2. ElasticSearch默认不允许root权限运行,报如下错误则要新建用户运行org.elasticsearch.bootstrap.StartupException: java.lang.RuntimeException: can not run elasticsearch as rootgroupadd elsearchuseradd elsearch -g elsearch -p elasticsearchusermod -g root elsearchsu elsearch3. java.io.IOException: Permission deniedchown -R elsearch /tmp/elasticsearch4. initial heap size [] not equal to maximum heap size []; this can cause resize pauses and prevents mlockall from locking the entire heapmax virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]sudo sysctl -w vm.max_map_count=2621445.
failed to send join request to master [{node-1} ... {127.0.0.1}{127.0.0.1:; with the same id but is a different node instance];集群搭建时出现该错误,解决方法为删除清空es目录下data目录
到这里ELK基本配置已经完了,但搭建中还遇到了几点问题没有解决,比如 logstash 怎么做集群?目前的方法是每台 server log 配置中都要配置需要连接的logstash地址,但这种在分布式视同中是不太合适的。
一、CentOS 7 ***Crucible1234567891011121314# /crucible/installing-crucible-on-linux-and-mac-.html# ***下载相关文件及依赖yum install javawget /software/crucible/downloads/binary/crucible-4.3.0.zip&version=4.3.0unzip crucible-4.3.0.zip# 修改/etc/environment文件加入:FISHEYE_INST=&path/to/&Crucible instance directory&&# 修改配置文件config.xml,端口邮件及相关配置cd bin./start.shnetstat -ntlp# 开放端口/sbin/iptables -I INPUT -p tcp --dport 8060 -j ACCEPT/etc/rc.d/init.d/iptables saveservice iptables restart
二、开始使用
管理后台: admin admin123
创建用户:设置-&Users-&Add User。
Repositories相关
创建Repositories:点击设置-&Repositories-&Add repository,输入相关配置信息,创建完成。
Repositories详情:点击Repositories,选择相关项目,可以看到文件、历史、报表、搜索等操作。
开始Review :界面-&Create Review-&选择徐需要Review的内容,常用操作为前三个:1.记录审查、2.分支审查、3.文件审查。
例如选择Browse Changesets,多选需要Review的记录;
点击Edit Details编辑审阅人、截止时间等详细信息;
点击Start Review,创建完成,可进行审阅、关闭等管理相关操作;
单击或多选文件内容可添加评论,是否为缺陷以及优先级。
今天,在网络上看到了篇新闻,说是网约车新规开始实行,本以为新规会去掉“京人京车”、“沪人沪牌”这些可笑而又让人无奈的条件,没想到,成真了。
在说网约车新规之前,先来分享一则小故事。
事情是前几周发生的,当时被捡回来的小猫抓伤,第二天去离公司有些距离的防疫站打疫苗,回去的路上叫了辆Uber,司机是合肥人。
“等拉完你这一单,我就去把车退了。” 路上,他说。
“为什么?” 我很奇怪,因为在我印象中Uber司机收入还不错。
“太累!坚持不下去了!每天工作17-8个小时。而且最近这几个月收入也不行了,补贴大大减少了,大概只有4000块钱。车是我租的,上个月还倒贴了几百块钱进去,等拉完你这一单,哪怕要付2000块的违约金我也认了。”
“啊?这样啊,如果有车的话应该会好不少呢。”
“是啊,租车占了很大一部分,随便找个工作也比现在强啊,要不是为了老婆孩子,我早不干了。” 可以看出,他也很无奈。
后来我们聊了很多,从滴滴Uber合并到房价,再到梦想、前途。
现在看来,他是对的,很庆幸他当初就选择退出这个行业。否则,当他看到现在的新政策时,会不会对这个国家感到失望呢?
起初,我想,这么扯淡的政策不可能实行,怎么可能实行?现在,我知道,我错了。
现在国家难道强大到连最基本的生存权利都要剥夺?这公平么?
连地域歧视都可以光明正大的出现在政策里,公平么?
我不懂政策,不懂政治,不懂经济,不懂这些所谓的权贵到底是怎么想的。限制购房、限制入学,我可以一笑而过,谁让我生的不好呢?但连基本的生存权利都要剥夺,这就是不公平。哪怕通过其他手段来控制,但限制户口,地域歧视是不是有点明显?未免也太过了点?
这是个值得深思的问题。
未来某一天,我们是不是也会被驱赶出去呢?
实测使用BBR速度提升很明显,不支持OpenVZ。
***过程1234567891011121314151617#下载内核,最新内核下载地址:/~kernel-ppa/mainline/wget /~kernel-ppa/mainline/v4.9/linux-image-4.9.0-040900-generic_4.9.0-_amd64.deb# ***内核dpkg -i linux-image-4.9.0*.deb# 删除旧内核dpkg -l|grep linux-imagesudo apt-get remove linux-image-[Tab补全] #删初4.9.0以外旧内核# 更新系统引导,重启update-grubreboot# 开启BBRecho &net.core.default_qdisc=fq& && /etc/sysctl.confecho &net.ipv4.tcp_congestion_control=bbr& && /etc/sysctl.confsysctl -psysctl net.ipv4.tcp_available_congestion_control# 查看是否成功,出现tcp_bbr则成功lsmod | grep bbr
什么是社会工程学(Social Engineering)?
社会工程学是黑客米特尼克悔改后在《欺骗的艺术》中所提出的,是一种通过对受害者心理弱点、本能反应、好奇心、信任、贪婪等心理陷阱进行诸如欺骗、伤害等危害手段。
写这篇文章的起因是因为看了《到山东女孩被骗9900元学费,两天后心脏骤停离世》的新闻,很是痛心,故写下这篇文章让大家了解社工所带来的危害。
一、根据 QQ 所能收集到的信息你可能会想 QQ 这么平常的东西,可以收集到什么信息呢。不过,这样想可就大错特错了,下面就讲一下我的一些思路。
一、根据 QQ 在线状态来判断此刻你的位置。比如,WIFI 表示在家,由 WIFI 变成 3/4G 则表示你可能刚出门,变成 2G 很可能你在地铁。
二、通过你的 QQ 空间所发表的动态来判断你的性格、现在所处的一个状态以及生活的大致范围。
三、根据 QQ 空间的留言、评论、访客记录等等,可以推断出你的职业、圈子、人际关系等,还可以根据六度人脉理论写个小程序,采集数据,分析你朋友的动态获取更详细的信息。
四、之前有过 QQ 群关系的泄露,可以查看加入的群、群昵称、位置等数据,那么就可以根据这些资料来判断你之前是种怎样的性格、生活状态、地理位置、所在学校以及兴趣爱好,以此来了解伪装你的同学朋友进行定向诈骗。
五、社工库和搜索引擎可以查到你注册的一些网站资料以及密码,自然也可以根据密码和注册网站的类型来推断出你的一些其他资料,比如现在密码的大致范围、生日等等。
六、在REG007这个网站呢,可以查到你注册了那些网站,那么以这些信息又可以确定你的性格资料及常用网站。
七、根据你的出生地和出生年月及姓名可以到一个叫做 “身份通” 的网站来通过程序遍历***后四位获取你的详细住址,精确到门牌号。
OK,那么到现在为止几乎知道了你最近几年的所有信息(姓名、***、生日、地址、常用密码、人脉、***、性格、职业等等),其实途径还有很多,比如头像、照片搜索获取在网上所遗留的信息;根据注册的网站和大致的密码范围进行密码爆破,获取仅限个人所见的详细资料;钓鱼欺骗等等等等,这么看来危害还是挺大的吧。
二、根据网站所能搜集的企业信息如果我说根据网站就可以入侵企业内网你信么?你可能会说这有什么难的,找安全漏洞啊,什么SQL注入、命令执行、权限配置不当等等的一些漏洞,找到不就可以进入企业内网了?当然,这些当然可以,但是这篇文章讲的不是漏洞的利用,这里只讲一些利用社工所能收集到的信息以及所能达到的目的。
一、根据Whois查询域名联系人邮箱***等基本信息,如果设置了隐私保护,则记下域名注册服务商,后续会用到。
二、查询网站页面的联系方式、地址,一般在网站的关于我们或联系我们页面可以看到,收集到信息后去搜索引擎或社工库查询相关密码以及基本信息。
三、查询域名的DNS解析记录,可以查询到一些后台管理、邮箱、***等管理系统。
四、搜索引擎搜索域名和邮箱关键字,获取更多联系人及内部员工,登录上述查找到的系统进行爆破,成功后可获取更多敏感信息:***、通讯录、相关平台地址密码等等。
五、去公司实际地址伪装电信工作人员或访客进入公司大楼收集信息、WIFI中间人攻击(相信爆破WIFI密码这种事情应该不难)获取内部资料等等,什么?进不去?那就买个树莓派插上电源和无线网卡放到某种东西中然后当礼物送进去….
总结当然,以上说的一些运用只是相对理想的状态,还有很多很多方法可以尝试。
最后,思路最重要。
最后的最后,这篇文章只是随便写写..
***Sass:Mac可直接执行,Windows需先***Ruby
将gem源改为淘宝服务器:
1234gem sources -l
gem sources --remove https://rubygems.org/
gem sources -a http://ruby.taobao.org/
gem sources -l
1gem install sass
常用命令12345678//编译所有文件 in文件夹 out目标文件夹sass --update in:out //监控文件,有更改则自动编译sass --watch style.scss:style.css
//查看帮助sass --help//css文件转换为scsssass-convert in.css out.scss
***net-speeder手动***123456789101112131415161718192021222324***步骤:1:下载源码并解压wget /snooda/net-speeder/archive/master.zipunzip master.zip2:准备编译环境centos#下载epel:https://fedoraproject.org/wiki/EPEL/zh-cn 例:CentOS6 64位:wget http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm#***epel:rpm -ivh epel-release-6-8.noarch.rpm#然后即可使用yum***:yum install libnet libpcap libnet-devel libpcap-devel#***GCCyum install gccLinux Cooked interface使用编译(venetX,OpenVZ):sh build.sh -DCOOKED使用方法(需要root权限启动):#参数:./net_speeder 网卡名 加速规则(bpf规则)#ovz用法(加速所有ip协议数据):./net_speeder venet0 &ip&
一键***脚本(推荐)12345678910111213141516#下载脚本wget --no-check-certificate /LazyZhu/dc3f2f84c336a08fd6a5/raw/d8aa4bcfa262ccfda99/net_speeder_lazyinstall.shsh net_speeder_lazyinstall.sh#启动
nohup /usr/local/net_speeder/net_speeder venet0 &ip& &/dev/null 2&&1 &#检查是否成功#出现(DUP!)即为成功#加入开机启动echo &nohup /usr/local/net_speeder/net_speeder venet0 &ip& &/dev/null 2&&1 && && /etc/rc.localwindows10 ss3连接不上:services.msc - 禁用 IP Helper如果还是不行依次执行以下命令:netsh interface ipv4 resetnetsh interface ipv6 resetnetsh winsock reset
***FinalSpeed服务端一键***123456789101112131415rm -f install_fs.shwget
http://fs.d1sm.net/finalspeed/install_fs.shchmod +x install_fs.sh./install_fs.sh 2&&1 | tee install.log#设置开机启动chmod +x /etc/rc.localvi /etc/rc.local#加入sh /fs/start.sh#每天晚上3点自动重启crontab -e#加入0 3 * * *
sh /fs/restart.sh
客户端填写服务器IP和端口即可,值得注意的是服务器为openvz架构,客户端只能选udp协议,Shadowsocks端填写127.0.0.1、端口为FinalSpeed客户端填写的本地端口。
***完后速度何止快了几倍。
参考资料如下:
记得第一个独立博客是几年前使用emlog搭建在sae的,后来因为sae的I/O等诸多限制不得不转战其他服务商,后来经过一些选择就使用bae搭建了WordPress博客,果不其然,过了不久bae又开始了强制备案。。无奈,只得选择使用国外服务器自建博客,今天发现使用Hexo和Github来搭建静态博客还不错,故记录下详细过程,以供参考。
注册Github、添加SSH key 、创建username.github.io注册自然不用多说,直接来添加SSH key,windows可通过Git Bash来执行以下命令生成SSH key
1ssh-keygen -t rsa -C &your_&
一路回车将id_rsa.pub复制添加到github-settings-ssh keys即可
创建repository,格式为username.github.io
***Hexo执行以下命令:
1npm install-g hexo
1hexo init
生成静态资源:
启动服务:
创建文章:
1hexo new [layout] &title&
启动完成后可通过
配置_config.yml配置一些基本信息就不多说了,直接说怎么配置上传github,打开_config.yml,找到deploy,按照以下内容添加修改即可
1234deploy:
repository: :username/username.github.io.git
branch: master
hexo需执行以下命令,否则上传不到github
1npm install hexo-deployer-git --save
执行以下命令部署到github
1hexo deploy
然后访问username.github.io就可以看到效果啦!
以后每次部署需执行下面三步命令:
123hexo cleanhexo ghexo d
绑定独立域名在source文件夹新建CNAME文件内容为你的域名即可,例如:kulove.cc,最后将记录类型为CNAME的@、www解析到username.github.io即完成独立域名绑定。
***主题ok,到这里hexo的***已经告一段落了,但俗话说的好,人靠衣装马靠鞍,接下来我们要去换一款主题,这里以NexT为例
12cd your-hexo-sitegit clone /iissnan/hexo-theme-next themes/next
然后将_config.yml里的theme改为next即可。喜欢SM的人有什么特点?喜欢SM的女生如何寻找? _5号网
当前位置:&>&&>&
喜欢SM的人有什么特点?喜欢SM的女生如何寻找?
在性爱方面,有这么一群人,他们喜欢被虐待或者喜欢虐待别人时的快感。那么,这类人在性爱上渴望被虐或者施虐是什么呢?这是一种病吗?喜欢的人有什么特点?SM的由来S?M是Sadomasochism [.se?do?'maes?.k?z?m]
的缩写,意为施虐受虐(爱好者;狂;癖)。这个又长又不会读的单词是由两个词合成的:Sadism(施虐者)和
Masochism(受虐者)。而这两个词分别来自两个典型人物:萨德和 马索克。萨德 Marquis de Sade萨德是一位家族没落的贵族侯爵,一位法国作家。
他一生追求性爱与暴力,主张极端自由主义。把性虐投射在作品和自己的行动上。其性虐倾向被人称为萨德主义(Sadism)。他撰写出版露骨的***小说,多次因性虐他人而被控告,并锒铛入狱,甚至险被判死刑。最后进了精神病院。期间他仍然偷偷写作出版***小说。马索克 Leopold von
Sacher-Masoch萨德去世22年后,奥地利作家马索克由于当时他在文学著作上的知名度,使得自己关于性受虐的理念和作品迅速的被人们广泛关注,后人把这种性受虐倾向称为马索克主义(Masochism)。他的代表作《穿貂的维纳斯》讲述的是一位贵族男子,反复要求一名贵妇穿裘皮并且与自己签订主奴合同,不停地羞辱和鞭打自己。《穿裘皮的维纳斯》则是一位导演与一位试演者对马索克《穿貂皮衣的维纳斯》剧本进行对戏的故事。
除了施虐与受虐(Sadism &
Masochism,即S/M),还有更多的相对关系,如:绑缚与调教(Bondage & Discipline,即B/D),支配与臣服(Dominance
& Submission,即D/S)。因此,这三对关系被人称为BDSM,与SM近义。事实上,S?M(虐恋)这一词的概念十分广泛,也许偏见就在概念开始就产生了。在这里,我们需要区分性虐待/受虐、虐好者、性施虐受虐癖这几个概念。性虐待/受虐心理学认为,性虐待是指在体和精神上施加痛苦于另一个人身上;性受虐是指出于性兴奋目的而忍受痛苦。这是一个动词,指性虐待/性受虐的行为。虐恋爱好者指对性虐待/性受虐产生兴趣的人,能通过施加给另一个人肉体上的疼痛或者心理上的羞辱带来性兴奋,抑或喜欢受到这种虐待,并能产生性兴奋的人。他们能从中产生性兴奋,可以得到性高潮,因此可能会把性施虐/受虐当作一种优先选择的性行为。然而社会上可能夸大了这个群体的特征,这个群体里有临床意义上的患性欲倒错者,被定为精神障碍患者。但也有更大部分虐恋倾向,却远达不到临床性欲倒错诊断标准的人。精神障碍的性施虐/受虐癖作为性欲倒错的性施虐/受虐癖,需要由临床人士根据医学的诊断标准来进行诊断。S?M是病吗如果你觉得S?M是病的话,至少要满足下面4点:(1) 持续半年以上(2) 行为会带来自我无法消化的痛苦(3) 或者损害重要功能(4) 对未征得同意的人施加性虐待也就是说,至少要满足以上的条件,并经过专业人士的诊断,才能确认为性受虐/性虐待的精神障碍。除此之外,对方可能只是享受比较特别的性爱方式的人而已。喜欢SM的人有什么特点可以说很轻易地,我就发现身边有很多能接受SM的(注意“能接受”和“喜欢”的区别)。由此证明,书中“百分之九十的女性潜意识里接受被虐”的理论是正确的--我计算过比例,我身边能接受SM的女性的比例恰恰是精确的90%。当然,我觉得自己尚不属于性欲亢进一类,所以统计基数不大。如果只是寻找“接受”SM的女性,那实在太简单了--能和你的,基本上就能陪你SM。这里谈的,是在“接受”基础上发现的喜欢SM的女性。个人感觉她们有一定的共性,所以总结一下。和女性初次交往,一般先看几个方面:穿着总的来说,不喜欢穿的女性更容易接受SM。配一双高跟鞋,是否算是有些奇怪的打扮?在能接受SM的女性中,大部分人确实是这么穿着的。看到上戴个皮镯子之类丁丁吊吊的饰物,或者穿双鞋带在小腿肚上缠来绊去的鞋的女性,有朋友会下意识地觉得,她喜欢SM。而事实是,喜欢SM的女性一般穿着都比较保守,和同龄人相比,她们不会让人感觉更前卫和时髦。身高一个很奇怪的现象:SM女性的身高往往低于她所在地的平均身高。假如某地的女性平均身高是1.65,而面前的这位女性有1.60,那么她可能就是潜在的SM对象。当然,只是可能。事实上,我几乎不认识身材很高大的SM女性。这个现象我无法解释。性格和她们的穿着一样,SM女性的性格一般趋于保守,较内敛和安静。逻辑思维能力强,较理智。大概就是常说的“大家闺秀”和“小家碧玉”一类,那种天不怕地不怕,什么都敢试试的新潮豪放女,反倒罕见有喜欢SM的。家庭环境她们或在溺爱中成长,或接受比较严厉的家教,但一个共同点是,童年几乎没有被父母打过。我的感觉,喜欢SM的女性中,90%以上是没被打过的,而童年经常被打的女性,大概只有10%会对SM有兴趣。小动作这是一个很重要的参考指标。SM女性在特定情况下(精神高度紧张或神游天外)会有一些自己都意识不到的具破坏性和进攻性的肢体语言。例如,将一张纸撕碎、用纸条、手帕等物品在指间来回缠绕,再比如,在餐厅吃饭,她座位前的一次性桌布在不知不觉中被她撕得稀烂。实例:某女喜欢一边和我说话一边无意识地用带在我手腕上缠绕,结果事实证明她喜欢SM。通过以上几点,对她有了大致认识后,接下来就是比较深入的观察。看SM镜头时的反应我那时用的道具是《满清十大酷刑》之类的伪劣产品,偶尔还被斥为“没有品味”。现在的朋友则幸运得多,《花与蛇》、《东京堕落》这些很艺术的东东是任何时候都可以进退自如的。起码,她再不喜欢内容,“品味”也还是有的。初次接触SM镜头,她或许会说“真变态”,或许会沉默,或许会优雅地“这片子挺有意思”。这些只是各人生活环境和经历形成的自我保护意识,不要在意她说什么,只要注意她的身体反应就好--SM女性的共同反应是身体下意识绷紧,呼吸变得不规则。性爱性爱时做出轻微击打、压住她双臂的动作而她不抗拒,就可以做进一步的试探。成功的例子是:她在高潮时要我咬她肩膀,当下一次我拿出绳子时,她欣喜若狂。呵呵,请记住,她们也在寻觅和等待。生理特征SM女性都是***高潮型(不需要插入,仅靠抚摸***就能得到完全的满足)。到目前为止,我认识并且可以谈论此类话题的N位(嘿嘿,基数很大哦)SM女性中,这一比例是100%。如果一位女性具有以上的大部分特点,基本能确定她属于SM类型。别人怎么做的我不知道,反正我身边的SM女性就是这么找到的。至于有朋友在类似文章里谈到的、学历、职业、收入等,在我的经验里千差万别,没什么共性,所以不做为判断依据。至于这些行为特点背后隐藏的心理因素社会因素之类东东,就留给心理学家社会学家们去研究吧。

参考资料

 

随机推荐