我是女生,后天包猪肉猪肉圆白菜饺子子,白菜用小苏打泡多久!

&p&之前从用户里招募了几个身材不一的妹子,做了一组适合冬天穿的连裤袜测试,最终被人推荐最多的居然是一个很有年代感的品牌——皮尔·卡丹。。。。&/p&&p&(感谢评论区指正,皮尔·卡丹不是国产。。。)&/p&&p&本次参与评测的九位长腿美女分别是「&b&是她&/b&」、「&b&燕麦&/b&」、「&b&BUTTERFLY&/b&」、「&b&范范之辈&/b&」、「&b&清蒸小螃蟹&/b&」、「&b&慕小柚&/b&」、「&b&三三&/b&」、「&b&Karen&/b&」…还有特别嘉宾:有调大长腿「&b&西柚&/b&」。&/p&&h2&评测选品:&/h2&&h2&1、厚木冬季保暖里起毛420D打底裤 ¥199&/h2&&p&踩脚款。大家熟悉的日本品牌厚木,据说保暖好款式佳。虽然上次在&a href=&///?target=http%3A///article/7877.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&丝袜评测&i class=&icon-external&&&/i&&/a&中厚木的表现不太好,但我们这次决定还是给它一个机会。&/p&&h2&2、tutuanna 500D加厚里起毛 打底裤 ¥179&/h2&&p&九分款。同样是来自日本的国民软妹袜品牌tutuanna,各大商场都有专柜。&/p&&h2&3、POLY BEAUTY 1500D 加绒加厚打底袜 ¥55&/h2&&p&连袜款。据说是来自德国的品牌,知乎微博均有推荐,虽然看起来有点像“淘宝原单”,不过好评很多,可以一试。&/p&&h2&4、Calzedonia PUSH UP提臀弹力加绒加厚打底裤 ¥320&/h2&&p&九分款。来自意大利的高端内衣品牌Calzedonia,独创push up提臀效果,也是本次评测的最贵选手,不知道是不是美型又保暖呢~&/p&&h2&5、皮尔卡丹“火神绒”1000D修身保暖打底裤 ¥199&/h2&&p&踩脚款。采用了太空服所用的保暖材料,相比同等保暖效果的打底裤,薄了很多!但1000D究竟是不是唬人的,还是要穿穿看。&/p&&h2&6、女の欲望 200D保暖发热塑形连裤袜 ¥85&/h2&&p&连袜款。虽然它只有200D,却据说比一般的400D还保暖!&/p&&figure&&img src=&/v2-e_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-e_r.jpg&&&figcaption&选品全家福&/figcaption&&/figure&&figure&&img src=&/v2-ee2d675d43c30bc5537d9a_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-ee2d675d43c30bc5537d9a_r.jpg&&&figcaption&褪去包装的袜子们&/figcaption&&/figure&&h2&评测维度:&/h2&&p&我们的评测员主要从&b&材质、变形情况、起球程度、穿着感、舒适度、保暖性,显瘦度&/b&等方面进行测评。看到题主比较关心裤袜的显瘦度,特此附上选品上身图~&/p&&figure&&img src=&/v2-9a3ee8e65beeaf7d4fcca_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&447& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-9a3ee8e65beeaf7d4fcca_r.jpg&&&figcaption&图片来自评测员范范之辈:各个400D打底裤的确对腿型有比较大的影响。&/figcaption&&/figure&&p&&b&根据上面这些维度,我们最终得到了以下的表格,仅供参考:&/b&&/p&&figure&&img src=&/v2-5fe657dd3e9bba82ad556e_b.jpg& data-size=&normal& data-rawwidth=&768& data-rawheight=&211& class=&origin_image zh-lightbox-thumb& width=&768& data-original=&/v2-5fe657dd3e9bba82ad556e_r.jpg&&&figcaption&参考价格为有调当时购入价格,点击图片可查看大图。满分为五分,分数越高表现越好。&/figcaption&&/figure&&p&从表中可以看出,厚木大概就像个大棉裤,厚重且显胖…&/p&&p&女の欲望则靠显瘦俘获了大家的芳心;&/p&&p&皮尔卡丹是一个各项都比较优秀的选手。&/p&&p&由于每个人的身材都不同,所以我们采取的是大部分(3~4人)评测员的意见来给大家进行推荐。&/p&&h2&我们推荐你购买&/h2&&h2&有调之选&/h2&&p&&b&皮尔卡丹“火神绒”打底裤&/b&&/p&&figure&&img src=&/v2-5c7fa9ad78effe72b384c_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-5c7fa9ad78effe72b384c_r.jpg&&&figcaption&图片来自评测员范范之辈&/figcaption&&/figure&&blockquote&范范之辈:厚度偏薄但密度较大,松紧度和回弹性表现不错。内层比外层更棉更软一些。穿上时微紧却不费劲,穿上之后,新打底裤有微微发凉透气的感觉,腰臀腿被舒服地包裹、较为贴合。从成分来说,其中包含37%的轶纶,据查,轶纶有较强的隔热性,其保温能力能防止快速失温,其次轶纶还具有很强的回弹性,即使经过反复洗涤压缩也能恢复蓬松、有效保暖,在户外服装如冲锋衣中应用时表现优异。穿着时腰臀腿都有被舒服包裹的感觉,贴合但不勒紧,腰部过肚脐一点。由于是踩脚款,一整天也没有上窜情况。也不存在掉裆,大幅度动作后,屁屁的地方还是很贴合。&/blockquote&&figure&&img src=&/v2-af03c3428410ccdc09214_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-af03c3428410ccdc09214_r.jpg&&&figcaption&图片来自评测员范范之辈&/figcaption&&/figure&&blockquote&西柚:比其他的400D要暖和,也轻便得多。没有起球,踩脚和腰的部位也很舒服。考虑不考虑价格都会买这款。&/blockquote&&figure&&img src=&/v2-c88a551362aafe5_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&945& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-c88a551362aafe5_r.jpg&&&figcaption&图片来自评测员西柚&/figcaption&&/figure&&blockquote&清蒸小螃蟹:对得起价格也对得起火神绒的称号,很显瘦,保暖度也够,不至于风一吹就打透。贴合度特别好,绒面的材质反光度差,或者说可以吸光,因此显瘦。踩脚的位置虽然穿上之后会提到很高,露出很长一节脚后跟,但舒适度还不错,不觉得勒脚。&/blockquote&&figure&&img src=&/v2-31eeb90d3f623dd1a57765_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&793& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-31eeb90d3f623dd1a57765_r.jpg&&&figcaption&图片来自评测员清蒸小螃蟹&/figcaption&&/figure&&blockquote&燕麦:闺蜜和我穿着感受就是舒服,内里并没有明显绒毛,应该是编织的感觉但就是像棉花穿身上一样舒服,弹性也很大。只是略微起球,毕竟表面是绒面起球也可以理解。而且175身高的闺蜜表示踩脚处有点勒。&/blockquote&&p&我们也想不到,这个国产品牌能得到这么多评测员的认可:&/p&&ul&&li&舒适度超高;&/li&&li&弹性大,高矮胖瘦都适合;&/li&&li&保暖度在室外温度0°以上时足够;&/li&&li&哑光,相对轻薄,显瘦;&/li&&li&起球、变形在可以接受的范围内。&/li&&/ul&&p&但是也正如我们一些评测员所说,它的保暖性仅限0°以上的无风环境,一旦有大风吹过,很可能透心凉。&/p&&figure&&img src=&/v2-2ac82a3fc97c8ecf4cee68_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&596& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-2ac82a3fc97c8ecf4cee68_r.jpg&&&figcaption&图片来自评测员燕麦:可以看出绒毛的确保暖性一般。&/figcaption&&/figure&&p&不过鉴于它很轻薄,完全可以搭配过膝靴,阔腿裤等附加保暖搭配,既显得腿细,又不会让你在室内热死。总的来说,就是&b&适合大部分北方上班族和南方姑娘们&/b&!&/p&&p&&b&冷暖皆宜:女の欲望 200D 打底连裤袜&/b&&/p&&figure&&img src=&/v2-b75881ffddaa_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-b75881ffddaa_r.jpg&&&figcaption&图片来自评测员范范之辈&/figcaption&&/figure&&img src=&/v2-69521aca0feff_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&596& data-rawheight=&793& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-69521aca0feff_r.jpg&&&blockquote&是她:这一条打破了我对传统丝袜的概念!明明摸起来很薄但是穿上却十分保暖,传说中的自发热果然名不虚传!看起来瘦了5斤!&br&范范之辈:很轻薄,还算舒适,包裹效果不错,可以当打底内搭,搭配一条外裤穿。不像宣传的那样极厚、发热什么的,跟400D的保暖效果还是有差距的。&/blockquote&&p&这条打底裤是有调不怕冷的雪女王推荐的,果然也是得到了大家的肯定。&/p&&ul&&li&显瘦!显瘦!显瘦!&/li&&li&舒适度高;&/li&&li&保暖性在10°左右毫无问题,特别是室内外自由穿梭的时候,零负担。&/li&&/ul&&p&与皮尔卡丹的问题相同,女の欲望因为过于轻薄还略微透肉,大风或者长时间在室外时会很冷。&/p&&p&但一旦搭配上过膝靴或马裤之类的,不仅保暖力提升,性感指数也up up!&/p&&h2&如果你想要更暖和&/h2&&p&&b&tutuanna 500D加厚里起毛打底裤&/b&&/p&&figure&&img src=&/v2-bd9cbfb2850eded6cd18_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-bd9cbfb2850eded6cd18_r.jpg&&&figcaption&图片来自评测员范范之辈&/figcaption&&/figure&&blockquote&西柚:期间穿着回了次哈尔滨,在大东北的寒风中并没有被吹透的感觉。裆部很有存在感…有不容忽视的勒紧感,时刻被提醒着这条打底裤的存在…而且有轻微掉裆。&/blockquote&&figure&&img src=&/v2-361fa7ba08bb9c48829d9_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-361fa7ba08bb9c48829d9_r.jpg&&&figcaption&图片来自评测员西柚&/figcaption&&/figure&&figure&&img src=&/v2-1ce2f605ce0_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&447& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-1ce2f605ce0_r.jpg&&&figcaption&图片来自评测员范范之辈:起球属于可以接受的范围。&/figcaption&&/figure&&blockquote&范范之辈:其他部位还好,脚踝的地方我真的是无力吐槽,爱穿脚踝短靴的我简直想走两步就把裤腿往下撸一撸。哎,才穿了两天,小腿中间靠后位置就起球了,是凳子边磨的?还有踩脚处(脚踝处)也有起球情况。 &/blockquote&&ul&&li&保暖力很高!&/li&&li&裆部无变形,起球在可接受范围内。&/li&&li&腿部舒适度好。&/li&&li&9分设计非常容易上窜。所以短靴爱好者和高妹不宜;&/li&&li&小腹有些紧绷勒人;&/li&&li&光面,略微显胖。&/li&&/ul&&p&所以如果你身材不“突出”,而且生活在我国北方(或者要长时间的在户外活动),tutuanna这种保暖型选手你还是需要哒!&/p&&h2&我们认为可买可不买&/h2&&h2&如果你想要更显瘦&/h2&&p&&b&Calzedonia PUSH UP提臀弹力加绒加厚打底裤&/b&&/p&&figure&&img src=&/v2-dc1a911f75d1f419c2fd_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-dc1a911f75d1f419c2fd_r.jpg&&&figcaption&图片来自评测员范范之辈&/figcaption&&/figure&&blockquote&清蒸小螃蟹:暖和一点的日子里,配随便哪双鞋,出门都好看。它的舒适度是让你觉得可以穿着去健身或者爬山的,它的好看程度是可以大大方方穿着出门不用担心上衣不够长遮不住屁股会显胖的,只要内裤穿对也不会有尴尬的沟的。&/blockquote&&figure&&img src=&/v2-8d38ba43f900f3f69eae57_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-8d38ba43f900f3f69eae57_r.jpg&&&figcaption&图片来自评测员清蒸小螃蟹&/figcaption&&/figure&&blockquote&西柚:首先,这个打底裤很长很长很长很长很长… 对于177+的我来说能妥妥的盖到大母脚趾头(手动捂脸。提臀效果并没有感受到,而且有点松 (也可能是码数偏大的问题。 贴合度也不是很好,坐下的时候膝盖下面弯曲的地方有一道道的褶子,上下一样粗的设计到脚踝的位置会出现宽松的效果,感觉有点邋遢。&/blockquote&&figure&&img src=&/v2-a2b22efe87f1e357657fe_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-a2b22efe87f1e357657fe_r.jpg&&&figcaption&图片来自评测员西柚&/figcaption&&/figure&&blockquote&燕麦:它老人家竟然不覆盖肚脐,冬天啊亲,不覆盖肚脐会生病的,而且也是零下7度秒变冰棍的节奏,裤腿侧面有接缝,穿着一天会在腿上留下痕迹!大牌leggings的质感,弹性刚刚好,穿上可以去跑步,很舒服,看上去略微珠光,莫名很健康的感觉。&/blockquote&&figure&&img src=&/v2-c4ff93a4e36a9e21e3d2f2_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-c4ff93a4e36a9e21e3d2f2_r.jpg&&&figcaption&图片来自评测员燕麦&/figcaption&&/figure&&blockquote&是她:感觉提臀效果并不是那么显著,臀部也没有什么特别的设计。但是它胜在舒适度和修身性的完美融合~既显瘦又不会感觉紧绷。&/blockquote&&p&根据大家的评论,这条Calzedonia更像是混进打底裤里的&b&健美裤&/b&(我们中出了一个奸细!)。搭配衣服穿并不好看,反而&b&运动健身&/b&时穿比较合适。&/p&&p&再加上Calzedonia在大陆并没有专柜,网上买来型号更是不全,我们买时也费了很大劲,所以在这里认为它是可买可不买的。&/p&&h2&我们不推荐你购买&/h2&&h2&厚木冬季保暖里起毛420D打底裤&/h2&&figure&&img src=&/v2-7625bdf7a891ff185ce8a80_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-7625bdf7a891ff185ce8a80_r.jpg&&&figcaption&图片来自评测员范范之辈&/figcaption&&/figure&&blockquote&西柚:表现很差。起球是最严重的一个:屁股后面和踩脚部分都起球了,而且不知为何大腿的部分也有起球… 感觉很不耐磨。穿了三次左右,屁股和膝盖都有轻微的变形。&br&清蒸小螃蟹:话说这个多出来的一截说是可以更多穿法更多欢笑,但是让我踩在脚下我完全踩不住,如果要穿短靴的话,没踩住多一会儿就会蹿上来堆在脚踝那里,反而显得一坨坨不精神。&/blockquote&&p&拒绝理由:&/p&&ul&&li&机油味什么鬼!&/li&&li&踩脚的位置上窜起球;&/li&&li&臃肿!显胖!&/li&&/ul&&h2&POLY BEAUTY 1500D 加绒加厚打底袜&/h2&&figure&&img src=&/v2-e5bdc4c5ddee_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-e5bdc4c5ddee_r.jpg&&&figcaption&图片来自评测员范范之辈&/figcaption&&/figure&&blockquote&西柚:一定不会买这个!显胖,起球太严重,多穿几次起球起的看起来像地摊货…&/blockquote&&figure&&img src=&/v2-083bdbbfab312f3fcd591_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&795& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-083bdbbfab312f3fcd591_r.jpg&&&figcaption&图片来自评测员清蒸小螃蟹:贴合度差,脚踝处还露出一大截踩脚的布料。&/figcaption&&/figure&&figure&&img src=&/v2-a5dac0313eda97a_b.jpg& data-size=&normal& data-rawwidth=&596& data-rawheight=&295& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-a5dac0313eda97a_r.jpg&&&figcaption&图片来自评测员范范之辈&/figcaption&&/figure&&blockquote&是她:由于紧身的设计稍微有点难穿上,而且由于里面的加绒太厚了,在室外很保暖但是进入室内之后会感觉有点闷热,所以不大适合上班族穿一个很大的缺陷就是踩脚的地方和上面的裤脚衔接处很不和谐,是一个很薄的弹性的收口设计,所以穿上会导致脚踝的地方粗细不均,要是穿低帮的鞋子看起来就会很怪异。&/blockquote&&p&拒绝理由:&/p&&ul&&li&显胖;&/li&&li&不舒服;&/li&&li&起球严重;&/li&&li&贴合度差。&/li&&/ul&&p&所谓“德国品牌,正品原单”就这样被打脸了!德国人大概是做不出这样的产品。&/p&&h2&总结:&/h2&&h2&有调之选:&/h2&&ul&&li&如果你是北方的上班族,或者身处南方比较怕冷,&b&不管你是什么身材&/b&,可以选择保暖度一般但&b&非常舒服显瘦的&/b&皮尔·卡丹“火神绒”1000D打底裤。&/li&&li&如果你不怕冷,就爱美美哒,那你可以试试&b&显瘦性感撩人&/b&的女の欲望 200D发热连裤袜,可以搭配长靴,阔腿裤等。&/li&&/ul&&h2&如果你怕冷,且身材“并不突出”:&/h2&&ul&&li&北方的朋友,买这条如棉裤一样&b&保暖&/b&但是比棉裤&b&显瘦&/b&很多的tutuanna 500D里起毛打底裤;&/li&&/ul&&p&剩下的那些布满迷点的 ,就让它们消失在我们的生命中吧。&/p&&img src=&/v2-ff326e2b15d8b2cb5b031ef43794cbf6_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&255& data-rawheight=&255& class=&content_image& width=&255&&&p&=========有调评测的分界线==========&/p&&p&如果你总是头疼,这么多品牌哪个适合我?&/p&&p&如果你正烦恼,今年生日送Ta什么?&/p&&p&如果你常抱怨,好东西实在太贵了!&/p&&p&&b&戳这里拥有&&&a href=&///?target=http%3A///download.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&有调,高品质生活指南&i class=&icon-external&&&/i&&/a&&/b&&/p&&p&用更少的钱和你一起过更好的生活&/p&
之前从用户里招募了几个身材不一的妹子,做了一组适合冬天穿的连裤袜测试,最终被人推荐最多的居然是一个很有年代感的品牌——皮尔·卡丹。。。。(感谢评论区指正,皮尔·卡丹不是国产。。。)本次参与评测的九位长腿美女分别是「是她」、「燕麦」、「BUTT…
&figure&&img src=&/50/v2-4b87acfbd3dcb6f470a555a_b.png& data-rawwidth=&2000& data-rawheight=&1107& class=&origin_image zh-lightbox-thumb& width=&2000& data-original=&/50/v2-4b87acfbd3dcb6f470a555a_r.png&&&/figure&&blockquote&&i&这是一套香港科技大学发布的极简 TensorFlow 入门教程,三天全套幻灯片教程已被分享到 Google Drive。机器之心将简要介绍该教程并借此梳理 TensorFlow 的入门概念与实现。&/i&&/blockquote&&p&&br&&/p&&p&该教程第一天先介绍了深度学习和机器学习的潜力与基本概念,而后便开始探讨深度学习框架 TensorFlow。首先我们将学到如何安装 TensorFlow,其实我们感觉 TensorFlow 环境配置还是相当便捷的,基本上按照官网的教程就能完成安装。随后就从「Hello TensorFlow」开始依次讲解计算图、占位符、张量等基本概念。&/p&&p&当然我们真正地理解 TensorFlow 还需要从实战出发一点点学习那些最基本的概念,因此第一天重点讲解了线性回归、Logistic 回归、Softmax 分类和神经网络。每一个模型都从最基本的概念出发先推导运行过程,然后再结合 TensorFlow 讲解张量、计算图等真正的意义。神经网络这一部分讲解得十分详细,我们将从最基本的感知机原理开始进而使用多层感知机解决异或问题(XOR),重点是该课程详细推导了前向传播与反向传播的数学过程并配以 TensorFlow 实现。&/p&&p&教程第二天详细地讨论了卷积神经网络,它从 TensorFlow 的训练与构建技巧开始,解释了应用于神经网络的各种权重初始化方法、激活函数、损失函数、正则化和各种优化方法等。在教程随后论述 CNN 原理的部分,我们可以看到大多是根据斯坦福 CS231n 课程来解释的。第二天最后一部分就是使用 TensorFlow 实现前面的理论,该教程使用单独的代码块解释了 CNN 各个部分的概念,比如说 2 维卷积层和最大池化层等。&/p&&p&教程第三天详解了循环神经网络,其从时序数据开始先讲解了 RNN 的基本概念与原理,包括编码器-解码器模式、注意力机制和门控循环单元等非常先进与高效的机制。该教程后一部分使用了大量的实现代码来解释前面我们所了解的循环神经网络基本概念,包括 TensorFlow 中单个循环单元的构建、批量输入与循环层的构建、RNN 序列损失函数的构建、训练计算图等。&/p&&p&下面机器之心将根据该教程资料简要介绍 TensorFlow 基本概念和 TensorFlow 机器学习入门实现。更详细的内容请查看香港科技大学三日 TensorFlow 速成课程资料&/p&&p&&br&&/p&&p&三日速成课程 Google Drive 资料地址:&a href=&/?target=https%3A///drive/folders/0B41Zbb4c8HVyY1F5Ml94Z2hodkE& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/drive/&/span&&span class=&invisible&&folders/0B41Zbb4c8HVyY1F5Ml94Z2hodkE&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&三日速成课程百度云盘资料地址:&a href=&/?target=http%3A///s/1boGGzeR& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1boGGze&/span&&span class=&invisible&&R&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&br&&/p&&h2&&b&TensorFlow 基础&/b&&/h2&&p&本小节将从张量与图、常数与变量还有占位符等基本概念出发简要介绍 TensorFlow。需要进一步了解 TensorFlow 的读者可以阅读谷歌 TensorFlow 的文档,当然也可以阅读其他中文教程或书籍,例如《TensorFlow:实战 Google 深度学习框架》和《TensorFlow 实战》等。&/p&&p&TensorFlow 文档地址:&a href=&/?target=https%3A//www.tensorflow.org/get_started/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&tensorflow.org/get_star&/span&&span class=&invisible&&ted/&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&br&&/p&&h2&&b&1. 图&/b&&/h2&&p&TensorFlow 是一种采用数据流图(data flow graphs),用于数值计算的开源软件库。其中 Tensor 代表传递的数据为张量(多维数组),Flow 代表使用计算图进行运算。数据流图用「结点」(nodes)和「边」(edges)组成的有向图来描述数学运算。「结点」一般用来表示施加的数学操作,但也可以表示数据输入的起点和输出的终点,或者是读取/写入持久变量(persistent variable)的终点。边表示结点之间的输入/输出关系。这些数据边可以传送维度可动态调整的多维数据数组,即张量(tensor)。&/p&&figure&&img src=&/v2-4a67ec83c2aa35a8febb_b.jpg& data-caption=&& data-rawwidth=&252& data-rawheight=&448& data-thumbnail=&/v2-4a67ec83c2aa35a8febb_b.jpg& class=&content_image& width=&252&&&/figure&&p&在 Tensorflow 中,所有不同的变量和运算都是储存在计算图。所以在我们构建完模型所需要的图之后,还需要打开一个会话(Session)来运行整个计算图。在会话中,我们可以将所有计算分配到可用的 CPU 和 GPU 资源中。 &/p&&figure&&img src=&/v2-79d3ee606b_b.jpg& data-caption=&& data-rawwidth=&726& data-rawheight=&516& class=&origin_image zh-lightbox-thumb& width=&726& data-original=&/v2-79d3ee606b_r.jpg&&&/figure&&p&如上所示我们构建了一个加法运算的计算图,第二个代码块并不会输出计算结果,因为我们只是定义了一张图,而没有运行它。第三个代码块才会输出计算结果,因为我们需要创建一个会话(Session)才能管理 TensorFlow 运行时的所有资源。但计算完毕后需要关闭会话来帮助系统回收资源,不然就会出现资源泄漏的问题。&/p&&p&TensorFlow 中最基本的单位是常量(Constant)、变量(Variable)和占位符(Placeholder)。常量定义后值和维度不可变,变量定义后值可变而维度不可变。在神经网络中,变量一般可作为储存权重和其他信息的矩阵,而常量可作为储存超参数或其他结构信息的变量。在上面的计算图中,结点 1 和结点 2 都是定义的常量 tf.constant()。我们可以分别声明不同的常量(tf.constant())和变量(tf.Variable()),其中 tf.float 和 &a href=&/?target=http%3A//tf.int& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&tf.int&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a& 分别声明了不同的浮点型和整数型数据。&/p&&p&&br&&/p&&h2&&b&2. 占位符和 feed_dict&/b&&/h2&&p&TensorFlow 同样还支持占位符,占位符并没有初始值,它只会分配必要的内存。在会话中,占位符可以使用 feed_dict 馈送数据。&/p&&p&feed_dict 是一个字典,在字典中需要给出每一个用到的占位符的取值。在训练神经网络时需要每次提供一个批量的训练样本,如果每次迭代选取的数据要通过常量表示,那么 TensorFlow 的计算图会非常大。因为每增加一个常量,TensorFlow 都会在计算图中增加一个结点。所以说拥有几百万次迭代的神经网络会拥有极其庞大的计算图,而占位符却可以解决这一点,它只会拥有占位符这一个结点。&/p&&figure&&img src=&/v2-864fab05ed4bfa_b.jpg& data-caption=&& data-rawwidth=&774& data-rawheight=&333& class=&origin_image zh-lightbox-thumb& width=&774& data-original=&/v2-864fab05ed4bfa_r.jpg&&&/figure&&h2&&b&3. 张量&/b&&/h2&&p&在 TensorFlow 中,张量是计算图执行运算的基本载体,我们需要计算的数据都以张量的形式储存或声明。如下所示,该教程给出了各阶张量的意义。&/p&&figure&&img src=&/v2-d8a71cabfca_b.jpg& data-caption=&& data-rawwidth=&1092& data-rawheight=&305& class=&origin_image zh-lightbox-thumb& width=&1092& data-original=&/v2-d8a71cabfca_r.jpg&&&/figure&&p&&br&&/p&&p&零阶张量就是我们熟悉的标量数字,它仅仅只表达了量的大小或性质而没有其它的描述。一阶张量即我们熟悉的向量,它不仅表达了线段量的大小,同时还表达了方向。一般来说二维向量可以表示平面中线段的量和方向,三维向量和表示空间中线段的量和方向。二阶张量即矩阵,我们可以看作是填满数字的一个表格,矩阵运算即一个表格和另外一个表格进行运算。当然理论上我们可以产生任意阶的张量,但在实际的机器学习算法运算中,我们使用得最多的还是一阶张量(向量)和二阶张量(矩阵)。&/p&&figure&&img src=&/v2-1cdaed3e8d9bbfc01c7af_b.jpg& data-caption=&& data-rawwidth=&591& data-rawheight=&349& class=&origin_image zh-lightbox-thumb& width=&591& data-original=&/v2-1cdaed3e8d9bbfc01c7af_r.jpg&&&/figure&&p&一般来说,张量中每个元素的数据类型有以上几种,即浮点型和整数型,一般在神经网络中比较常用的是 32 位浮点型。&/p&&p&&br&&/p&&h2&&b&4. TensorFlow 机器&/b&&/h2&&p&在整个教程中,下面一张示意图将反复出现,这基本上是所有 TensorFlow 机器学习模型所遵循的构建流程,即构建计算图、馈送输入张量、更新权重并返回输出值。&/p&&figure&&img src=&/v2-babd7d946aab57126fdf7ca_b.jpg& data-caption=&& data-rawwidth=&1232& data-rawheight=&716& class=&origin_image zh-lightbox-thumb& width=&1232& data-original=&/v2-babd7d946aab57126fdf7ca_r.jpg&&&/figure&&p&在第一步使用 TensorFlow 构建计算图中,我们需要构建整个模型的架构。例如在神经网络模型中,我们需要从输入层开始构建整个神经网络的架构,包括隐藏层的数量、每一层神经元的数量、层级之间连接的情况与权重、整个网络每个神经元使用的激活函数等内容。此外,我们还需要配置整个训练、验证与测试的过程。例如在神经网络中,定义整个正向传播的过程与参数并设定学习率、正则化率和批量大小等各类训练超参数。第二步需要将训练数据或测试数据等馈送到模型中,TensorFlow 在这一步中一般需要打开一个会话(Session)来执行参数初始化和馈送数据等任务。例如在计算机视觉中,我们需要随机初始化整个模型参数数值,并将图像成批(图像数等于批量大小)地馈送到定义好的卷积神经网络中。第三步即更新权重并获取返回值,这个一般是控制训练过程与获得最终的预测结果。&/p&&p&&br&&/p&&h2&&b&TensorFlow 模型实战&/b&&/h2&&p&&br&&/p&&p&&b&TensorFlow 线性回归&/b&&/p&&p&&br&&/p&&p&该教程前面介绍了很多线性回归的基本概念,包括直线拟合、损失函数、梯度下降等基础内容。我们一直认为线性回归是理解机器学习最好的入门模型,因为他的原理和概念十分简单,但又基本涉及到了机器学习的各个过程。总的来说,线性回归模型可以用下图概括:&/p&&p&&br&&/p&&figure&&img src=&/v2-afad7e6f3a4fa277fde60b7eafd7d366_b.jpg& data-caption=&& data-rawwidth=&743& data-rawheight=&482& class=&origin_image zh-lightbox-thumb& width=&743& data-original=&/v2-afad7e6f3a4fa277fde60b7eafd7d366_r.jpg&&&/figure&&p&&br&&/p&&p&其中「×」为数据点,我们需要找到一条直线以最好地拟合这些数据点。该直线和这些数据点之间的距离即损失函数,所以我们希望找到一条能令损失函数最小的直线。以下是使用 TensorFlow 构建线性回归的简单案例。&/p&&p&&br&&/p&&p&1. 构建目标函数(即「直线」)&/p&&p&目标函数即 H(x)=Wx+b,其中 x 为特征向量、W 为特征向量中每个元素对应的权重、b 为偏置项。&/p&&figure&&img src=&/v2-6df065c6bf89dc948c00_b.jpg& data-caption=&& data-rawwidth=&864& data-rawheight=&264& class=&origin_image zh-lightbox-thumb& width=&864& data-original=&/v2-6df065c6bf89dc948c00_r.jpg&&&/figure&&p&如上所示,我们定义了 y=wx+b 的运算,即我们需要拟合的一条直线。&/p&&p&&br&&/p&&p&2. 构建损失函数&/p&&p&下面我们需要构建整个模型的损失函数,即各数据点到该直线的距离,这里我们构建的损失函数为均方误差函数:&/p&&figure&&img src=&/v2-c10a2d59d9a428c7de412f74_b.jpg& data-caption=&& data-rawwidth=&570& data-rawheight=&104& class=&origin_image zh-lightbox-thumb& width=&570& data-original=&/v2-c10a2d59d9a428c7de412f74_r.jpg&&&/figure&&p&&br&&/p&&p&该函数表明根据数据点预测的值和该数据点真实值之间的距离,我们可以使用以下代码实现:&/p&&blockquote&# cost/loss &b&function&/b& &br&&b&cost&/b& = &b&tf&/b&.&b&reduce_mean&/b&(tf.square(hypothesis - y_train))&/blockquote&&p&其中 tf.square() 为取某个数的平方,而 tf.reduce_mean() 为取均值。&/p&&p&&br&&/p&&p&3. 采用梯度下降更新权重&/p&&blockquote&# Minimize&br&optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01)&br&train = optimizer.minimize(cost)&/blockquote&&p&为了寻找能拟合数据的最好直线,我们需要最小化损失函数,即数据与直线之间的距离,因此我们可以采用梯度下降算法:&/p&&p&&br&&/p&&p&4. 运行计算图执行训练&/p&&blockquote&# Launch the graph &b&in&/b& a session.&br&sess = tf.Session()&br&# Initializes global variables &b&in&/b& the graph.&br&sess.run(tf.global_variables_initializer())&br&&br&# Fit the line&br&&b&for&/b& step &b&in&/b& range(2001):&br&
sess.run(train)&br&&b&if&/b& step % 20 == 0:&br&
print(step, sess.run(cost), sess.run(W), sess.run(b))&/blockquote&&p&上面的代码打开了一个会话并执行变量初始化和馈送数据。&/p&&p&&br&&/p&&p&最后,该课程给出了完整的实现代码,刚入门的读者可以尝试实现这一简单的线性回归模型:&/p&&blockquote&&b&import&/b& tensorflow &b&as&/b& tf&br&W = tf.Variable(tf.random_normal([1]), name='weight')&br&b = tf.Variable(tf.random_normal([1]), name='bias')&br&&br&X = tf.placeholder(tf.float32, shape=[None])&br&Y = tf.placeholder(tf.float32, shape=[None])&br&&br&# Our hypothesis XW+b&br&hypothesis = X * W + b&br&# cost/loss &b&function&/b& &b&cost&/b& = &b&tf&/b&.&b&reduce_mean&/b&(tf.square(hypothesis - Y))&br&# &b&Minimize&/b& &b&optimizer&/b& = &b&tf&/b&.&b&train&/b&.&b&GradientDescentOptimizer&/b&(learning_rate=0.01)&br&&b&train&/b& = &b&optimizer&/b&.&b&minimize&/b&(cost)&br&&br&# &b&Launch&/b& &b&the&/b& &b&graph&/b& &b&in&/b& &b&a&/b& &b&session&/b&.&br&&b&sess&/b& = &b&tf&/b&.&b&Session&/b&()&br&# &b&Initializes&/b& &b&global&/b& &b&variables&/b& &b&in&/b& &b&the&/b& &b&graph&/b&.&br&&b&sess&/b&.&b&run&/b&(tf.global_variables_initializer())&br&&br&# &b&Fit&/b& &b&the&/b& &b&line&/b& &b&for&/b& &b&step&/b& &b&in&/b& &b&range&/b&(2001):&br&&b&cost_val&/b&, &b&W_val&/b&, &b&b_val&/b&, &b&_&/b& = &b&sess&/b&.&b&run&/b&([cost, W, b, train],&br&
feed_dict={X: [1, 2, 3], Y: [1, 2, 3]})&br&&b&if&/b& &b&step&/b& % 20 == 0:&br&&b&print&/b&(step, cost_val, W_val, b_val)&/blockquote&&p&下面让我们概览该课程更多的内容:&/p&&p&&br&&/p&&p&&b&Logistic 回归&/b&&/p&&p&&br&&/p&&p&该课程照例先简介了 Logistic 回归的基本概念,如下展示了目标函数、损失函数和权重更新过程。&/p&&figure&&img src=&/v2-219bcfed63cafd_b.jpg& data-caption=&& data-rawwidth=&1284& data-rawheight=&764& class=&origin_image zh-lightbox-thumb& width=&1284& data-original=&/v2-219bcfed63cafd_r.jpg&&&/figure&&p&&br&&/p&&p&后面展示了 Logistic 回归的实现代码:&/p&&blockquote&xy = np.loadtxt('data-03-diabetes.csv', delimiter=',', dtype=np.float32)&br&x_data = xy[:, 0:-1]&br&y_data = xy[:, [-1]]&br&&br&# placeholders &b&for&/b& a tensor that will be always fed.&br&X = tf.placeholder(tf.float32, shape=[None, 8])&br&Y = tf.placeholder(tf.float32, shape=[None, 1])&br&&br&W = tf.Variable(tf.random_normal([8, 1]), name='weight')&br&b = tf.Variable(tf.random_normal([1]), name='bias')&br&&br&# Hypothesis using sigmoid: tf.div(1., 1. + tf.exp(tf.matmul(X, W)))&br&hypothesis = tf.sigmoid(tf.matmul(X, W) + b)&br&# cost/loss &b&function&/b& &b&cost&/b& = -&b&tf&/b&.&b&reduce_mean&/b&(Y * tf.log(hypothesis) + (1 - Y) * &b&tf&/b&.&b&log&/b&(1 - hypothesis))&br&&b&train&/b& = &b&tf&/b&.&b&train&/b&.&b&GradientDescentOptimizer&/b&(learning_rate=0.01).&b&minimize&/b&(cost)&br&&br&# &b&Accuracy&/b& &b&computation&/b&&br&# &b&True&/b& &b&if&/b& &b&hypothesis&/b&&0.5 &b&else&/b& &b&False&/b& &b&predicted&/b& = &b&tf&/b&.&b&cast&/b&(hypothesis & 0.5, dtype=tf.float32)&br&&b&accuracy&/b& = &b&tf&/b&.&b&reduce_mean&/b&(tf.cast(tf.equal(predicted, Y), &b&dtype&/b&=&b&tf&/b&.&b&float32&/b&))&br&&br&# &b&Launch&/b& &b&graph&/b& &b&with&/b& &b&tf&/b&.&b&Session&/b&() &b&as&/b& &b&sess&/b&:&br&&b&sess&/b&.&b&run&/b&(tf.global_variables_initializer())&br&&br&&b&feed&/b& = {X: x_data, Y: y_data}&br&&b&for&/b& step &b&in&/b& range(10001):&br&
sess.run(train, feed_dict=feed)&br&&b&if&/b& step % 200 == 0:&br&
print(step, sess.run(cost, feed_dict=feed))&br&&br&
# Accuracy report&br&
h, c, a = sess.run([hypothesis, predicted, accuracy], feed_dict=feed)&br&
print(&\nHypothesis: &, h, &\nCorrect (Y): &, c, &\nAccuracy: &, a)&/blockquote&&p&&b&Softmax 分类&/b&&/p&&p&下图展示了 Softmax 的基本方法,它可以产生和为 1 的类别概率。&/p&&figure&&img src=&/v2-e2ad65b932_b.jpg& data-caption=&& data-rawwidth=&918& data-rawheight=&562& class=&origin_image zh-lightbox-thumb& width=&918& data-original=&/v2-e2ad65b932_r.jpg&&&/figure&&p&以下代码为 Softmax 分类器处理 MNIST 数据集:&/p&&p&&br&&/p&&blockquote&# weights & bias &b&for&/b& nn layers&br&W = tf.Variable(tf.random_normal([784, 10]))&br&b = tf.Variable(tf.random_normal([10]))&br&hypothesis = tf.matmul(X, W) + b&br&# define cost/loss & optimizer&br&cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=hypothesis, labels=Y))&br&optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost)&br&# initialize&br&sess = tf.Session()&br&sess.run(tf.global_variables_initializer())&br&&br&# train my model&br&&b&for&/b& epoch &b&in&/b& range(training_epochs):&br&
avg_cost = 0&br&
total_batch = int(mnist.train.num_examples / batch_size)&br&&br&&b&for&/b& i &b&in&/b& range(total_batch):&br&
batch_xs, batch_ys = mnist.train.next_batch(batch_size)&br&
feed_dict = {X: batch_xs, Y: batch_ys}&br&
c, _ = sess.run([cost, optimizer], feed_dict=feed_dict)&br&
avg_cost += c / total_batch&br&&br&
print('Epoch:', '%04d' % (epoch + 1), 'cost =', '{:.9f}'.format(avg_cost))&br&&br&print('Learning Finished!')&br&&br&# Test model and check accuracy&br&correct_prediction = tf.equal(tf.argmax(hypothesis, 1), tf.argmax(Y, 1))&br&accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))&br&print('Accuracy:', sess.run(accuracy, feed_dict={X: mnist.test.images, Y: mnist.test.labels}))&/blockquote&&p&&br&&/p&&p&&b&神经网络&/b&&/p&&p&下图简要介绍了神经网络的运算过程,这一部分十分详细,对于初学者来说是难得的资料:&/p&&p&&br&&/p&&figure&&img src=&/v2-39ed53eb63fab4f4cb2ef_b.jpg& data-caption=&& data-rawwidth=&1330& data-rawheight=&416& class=&origin_image zh-lightbox-thumb& width=&1330& data-original=&/v2-39ed53eb63fab4f4cb2ef_r.jpg&&&/figure&&p&&br&&/p&&p&下面是该教程采用神经网络解决异或问题的代码,异或问题是十分经典的任务,我们可以从该问题中理解神经网络的强大之处:&/p&&blockquote&x_data = np.array([[0, 0], [0, 1], [1, 0], [1, 1]], dtype=np.float32)&br&y_data = np.array([[0], [1], [1], [0]], dtype=np.float32)&br&X = tf.placeholder(tf.float32)&br&Y = tf.placeholder(tf.float32)&br&&br&W1 = tf.Variable(tf.random_normal([2, 2]), name='weight1')&br&b1 = tf.Variable(tf.random_normal([2]), name='bias1')&br&layer1 = tf.sigmoid(tf.matmul(X, W1) + b1)&br&&br&W2 = tf.Variable(tf.random_normal([2, 1]), name='weight2')&br&b2 = tf.Variable(tf.random_normal([1]), name='bias2')&br&hypothesis = tf.sigmoid(tf.matmul(layer1, W2) + b2)&br&&br&# cost/loss &b&function&/b& &b&cost&/b& = -&b&tf&/b&.&b&reduce_mean&/b&(Y * tf.log(hypothesis) + (1 - Y) * &b&tf&/b&.&b&log&/b&(1 - hypothesis))&br&&b&train&/b& = &b&tf&/b&.&b&train&/b&.&b&GradientDescentOptimizer&/b&(learning_rate=0.1).&b&minimize&/b&(cost)&br&# &b&Accuracy&/b& &b&computation&/b&&br&# &b&True&/b& &b&if&/b& &b&hypothesis&/b&&0.5 &b&else&/b& &b&False&/b& &b&predicted&/b& = &b&tf&/b&.&b&cast&/b&(hypothesis & 0.5, dtype=tf.float32)&br&&b&accuracy&/b& = &b&tf&/b&.&b&reduce_mean&/b&(tf.cast(tf.equal(predicted, Y), &b&dtype&/b&=&b&tf&/b&.&b&float32&/b&))&br&# &b&Launch&/b& &b&graph&/b& &b&with&/b& &b&tf&/b&.&b&Session&/b&() &b&as&/b& &b&sess&/b&:&br&
# &b&Initialize&/b& &b&TensorFlow&/b& &b&variables&/b& &b&sess&/b&.&b&run&/b&(tf.global_variables_initializer())&br&&b&for&/b& &b&step&/b& &b&in&/b& &b&range&/b&(10001):&br&&b&sess&/b&.&b&run&/b&(train, feed_dict={X: x_data, Y: y_data})&br&&b&if&/b& &b&step&/b& % 100 == 0:&br&&b&print&/b&(step, sess.run(cost, feed_dict={X: x_data, Y: y_data}), &b&sess&/b&.&b&run&/b&([W1, W2]))&br&&br&
# &b&Accuracy&/b& &b&report&/b& &b&h&/b&, &b&c&/b&, &b&a&/b& = &b&sess&/b&.&b&run&/b&([hypothesis, predicted, accuracy],&br&
feed_dict={X: x_data, Y: y_data})&br&&b&print&/b&(&\nHypothesis: &, h, &\nCorrect: &, c, &\nAccuracy: &, a)&/blockquote&&p&&br&&/p&&p&&br&&/p&&h2&&b&卷积神经网络&/b&&/h2&&p&&br&&/p&&p&第二天教程就正式进入卷积神经网络,我们只能用下图展示卷积神经网络大概的架构,更多资料请查看原课程课件:&/p&&figure&&img src=&/v2-c979be25b5f_b.jpg& data-caption=&& data-rawwidth=&1171& data-rawheight=&482& class=&origin_image zh-lightbox-thumb& width=&1171& data-original=&/v2-c979be25b5f_r.jpg&&&/figure&&p&该教程同样提供了很多卷积网络的实现代码,下面我们简要介绍一个简单的卷积神经网络实现过程,该卷积神经网络的架构如下: &/p&&figure&&img src=&/v2-0f40574a2ffa88b4faf836bf_b.jpg& data-caption=&& data-rawwidth=&999& data-rawheight=&535& class=&origin_image zh-lightbox-thumb& width=&999& data-original=&/v2-0f40574a2ffa88b4faf836bf_r.jpg&&&/figure&&p&下面的代码穿件了第一个卷积层,即上图卷积层 1 和池化层 1:&/p&&blockquote&# input placeholders&br&X = tf.placeholder(tf.float32, [None, 784])&br&X_img = tf.reshape(X, [-1, 28, 28, 1])
# img 28x28x1 (black/white)&br&Y = tf.placeholder(tf.float32, [None, 10])&br&&br&# L1 ImgIn shape=(?, 28, 28, 1)&br&W1 = tf.Variable(tf.random_normal([3, 3, 1, 32], stddev=0.01))&br&#
-& (?, 28, 28, 32)&br&#
-& (?, 14, 14, 32)&br&L1 = tf.nn.conv2d(X_img, W1, strides=[1, 1, 1, 1], padding='SAME')&br&L1 = tf.nn.relu(L1)&br&L1 = tf.nn.max_pool(L1, ksize=[1, 2, 2, 1],&br&
strides=[1, 2, 2, 1], padding='SAME')&br&'''&br&Tensor(&Conv2D:0&, shape=(?, 28, 28, 32), dtype=float32)&br&Tensor(&Relu:0&, shape=(?, 28, 28, 32), dtype=float32)&br&Tensor(&MaxPool:0&, shape=(?, 14, 14, 32), dtype=float32)&br&'''&/blockquote&&p&后面的代码构建了第二个卷积层,即上图中的卷积层 2 和池化层 2:&/p&&blockquote&'''&br&Tensor(&Conv2D:0&, shape=(?, 28, 28, 32), dtype=float32)&br&Tensor(&Relu:0&, shape=(?, 28, 28, 32), dtype=float32)&br&Tensor(&MaxPool:0&, shape=(?, 14, 14, 32), dtype=float32)&br&'''&br&&br&# L2 ImgIn shape=(?, 14, 14, 32)&br&W2 = tf.Variable(tf.random_normal([3, 3, 32, 64], stddev=0.01))&br&#
-&(?, 14, 14, 64)&br&#
-&(?, 7, 7, 64)&br&L2 = tf.nn.conv2d(L1, W2, strides=[1, 1, 1, 1], padding='SAME')&br&L2 = tf.nn.relu(L2)&br&L2 = tf.nn.max_pool(L2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')&br&L2 = tf.reshape(L2, [-1, 7 * 7 * 64])&br&'''&br&Tensor(&Conv2D_1:0&, shape=(?, 14, 14, 64), dtype=float32)&br&Tensor(&Relu_1:0&, shape=(?, 14, 14, 64), dtype=float32)&br&Tensor(&MaxPool_1:0&, shape=(?, 7, 7, 64), dtype=float32)&br&Tensor(&Reshape_1:0&, shape=(?, 3136), dtype=float32)&/blockquote&&p&最后我们只需要构建一个全连接层就完成了整个 CNN 架构的搭建,即用以下代码构建上图最后紫色的全连接层:&/p&&blockquote&'''&br&Tensor(&Conv2D_1:0&, shape=(?, 14, 14, 64), dtype=float32)&br&Tensor(&Relu_1:0&, shape=(?, 14, 14, 64), dtype=float32)&br&Tensor(&MaxPool_1:0&, shape=(?, 7, 7, 64), dtype=float32)&br&Tensor(&Reshape_1:0&, shape=(?, 3136), dtype=float32)&br&'''&br&L2 = tf.reshape(L2, [-1, 7 * 7 * 64])&br&&br&# Final FC 7x7x64 inputs -& 10 outputs&br&W3 = tf.get_variable(&W3&, shape=[7 * 7 * 64, 10], initializer=tf.contrib.layers.xavier_initializer())&br&b = tf.Variable(tf.random_normal([10]))&br&hypothesis = tf.matmul(L2, W3) + b&br&&br&# define cost/loss & optimizer&br&cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=hypothesis, labels=Y))&br&optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost)&/blockquote&&p&最后我们只需要训练该 CNN 就完成了整个模型:&/p&&blockquote&# initialize&br&sess = tf.Session()&br&sess.run(tf.global_variables_initializer())&br&&br&# train my model&br&print('Learning stared. It takes sometime.')&br&&b&for&/b& epoch &b&in&/b& range(training_epochs):&br&
avg_cost = 0&br&
total_batch = int(mnist.train.num_examples / batch_size)
&br&&b&for&/b& i &b&in&/b& range(total_batch):&br&
batch_xs, batch_ys = mnist.train.next_batch(batch_size)
feed_dict = {X: batch_xs, Y: batch_ys}&br&
c, _, = sess.run([cost, optimizer], feed_dict=feed_dict)
avg_cost += c / total_batch&br&
print('Epoch:', '%04d' % (epoch + 1), 'cost =', '{:.9f}'.format(avg_cost))&br&&br&print('Learning Finished!')&br&&br&# Test model and check accuracy&br&correct_prediction = tf.equal(tf.argmax(hypothesis, 1), tf.argmax(Y, 1))&br&accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))&br&print('Accuracy:', sess.run(accuracy, feed_dict={X: mnist.test.images, Y: mnist.test.labels}))&/blockquote&&p&&br&&/p&&p&&b&循环神经网络&/b&&/p&&p&&br&&/p&&p&该教程第三天讲述了循环神经网络,下图展示了循环单元的展开,循环单元是处理时序数据的核心。更详细的资料请查看该课程课件。&/p&&figure&&img src=&/v2-5e93d99cc5b7ed834c86c_b.jpg& data-caption=&& data-rawwidth=&1127& data-rawheight=&469& class=&origin_image zh-lightbox-thumb& width=&1127& data-original=&/v2-5e93d99cc5b7ed834c86c_r.jpg&&&/figure&&p&&br&&/p&&p&&br&&/p&&p&以下 TensorFlow 代码定义了简单的循环单元:&/p&&blockquote&# One cell RNN input_dim (4) -& output_dim (2)&br&hidden_size = 2&br&cell = tf.contrib.rnn.BasicRNNCell(num_units=hidden_size)
&br&&br&x_data = np.array([[[1,0,0,0]]], dtype=np.float32) &br&outputs, _states = tf.nn.dynamic_rnn(cell, x_data, dtype=tf.float32)
&br&&br&sess.run(tf.global_variables_initializer())&br&pp.pprint(outputs.eval())&/blockquote&&p&下面该课程展示了一个简单的卷积神经网络案例,如下所示,该案例训练一个 RNN 以输出「hihello」。&/p&&figure&&img src=&/v2-7968c19bea6396590eddcefbb35c7d28_b.jpg& data-caption=&& data-rawwidth=&1315& data-rawheight=&498& class=&origin_image zh-lightbox-thumb& width=&1315& data-original=&/v2-7968c19bea6396590eddcefbb35c7d28_r.jpg&&&/figure&&p&&br&&/p&&p&1. 创建 RNN 单元&/p&&p&如下可知 TensorFlow 中一般可以创建 3 种 RNN 单元,即 RNN 单元、LSTM 单元和 GRU 单元&/p&&blockquote&# RNN model&br&rnn_cell = rnn_cell.BasicRNNCell(rnn_size)&br&&br&&br&rnn_cell = rnn_cell. BasicLSTMCell(rnn_size)&br&rnn_cell = rnn_cell. GRUCell(rnn_size)&/blockquote&&p&&br&&/p&&p&2. 执行 RNN&/p&&blockquote&# RNN model&br&rnn_cell = rnn_cell.BasicRNNCell(rnn_size)&br&&br&outputs, _states = tf.nn.dynamic_rnn(&br&
rnn_cell, &br&
initial_state=initial_state,
dtype=tf.float32)&/blockquote&&p&3. 设定 RNN 的参数&/p&&blockquote&hidden_size = 5
# output &b&from&/b& the LSTM&br&input_dim = 5
# one-hot size&br&batch_size = 1
# one sentence&br&sequence_length = 6
# |ihello| == 6&/blockquote&&p&4. 创建数据&/p&&blockquote&idx2char = ['h', 'i', 'e', 'l', 'o'] # h=0, i=1, e=2, l=3, o=4&br&x_data = [[0, 1, 0, 2, 3, 3]]
# hihell&br&x_one_hot = [[[1, 0, 0, 0, 0],
[0, 1, 0, 0, 0],
[1, 0, 0, 0, 0],
[0, 0, 1, 0, 0],
[0, 0, 0, 1, 0],
[0, 0, 0, 1, 0]]]
# l 3&br&&br&y_data = [[1, 0, 2, 3, 3, 4]]
# ihello&br&X = tf.placeholder(tf.float32, &br&[None, sequence_length, input_dim]) # X one-hot&br&Y = tf.placeholder(tf.int32, [None, sequence_length])
# Y label&/blockquote&&p&5. 将数据馈送到 RNN 中&/p&&blockquote&X = tf.placeholder(&br&
tf.float32, [None, sequence_length, hidden_size])
# X one-hot&br&Y = tf.placeholder(tf.int32, [None, sequence_length])
# Y label&br&&br&cell = tf.contrib.rnn.BasicLSTMCell(num_units=hidden_size, state_is_tuple=True)&br&initial_state = cell.zero_state(batch_size, tf.float32)&br&outputs, _states = tf.nn.dynamic_rnn(&br&
cell, X, initial_state=initial_state, dtype=tf.float32)&/blockquote&&p&6. 创建序列损失函数&/p&&blockquote&outputs, _states = tf.nn.dynamic_rnn(&br&
cell, X, initial_state=initial_state, dtype=tf.float32)&br&weights = tf.ones([batch_size, sequence_length])&br&&br&sequence_loss = tf.contrib.seq2seq.sequence_loss(&br&
logits=outputs, targets=Y, weights=weights)&br&loss = tf.reduce_mean(sequence_loss)&br&train = tf.train.AdamOptimizer(learning_rate=0.1).minimize(loss)&/blockquote&&p&7. 训练 RNN&/p&&p&这是最后一步,我们将打开一个 TensorFlow 会话完成模型的训练。&/p&&blockquote&prediction = tf.argmax(outputs, axis=2)&br&&br&&b&with&/b& tf.Session() &b&as&/b& sess:&br&
sess.run(tf.global_variables_initializer())&br&&b&for&/b& i &b&in&/b& range(2000):&br&
l, _ = sess.run([loss, train], feed_dict={X: x_one_hot, Y: y_data})&br&
result = sess.run(prediction, feed_dict={X: x_one_hot})&br&
print(i, &loss:&, l, &prediction: &, result, &true Y: &, y_data)&br&&br&
# print char using dic&br&
result_str = [idx2char[c] &b&for&/b& c &b&in&/b& np.squeeze(result)]&br&
print(&\tPrediction str: &, ''.join(result_str))&/blockquote&&p&&br&&/p&&p&&i&&b&声明:本文由机器之心原创出品,版权归作者所有,转载请查看要求,机器之心对于违规侵权者保有法律追诉权。&/b&&/i&&/p&&p&&/p&&p&&/p&
这是一套香港科技大学发布的极简 TensorFlow 入门教程,三天全套幻灯片教程已被分享到 Google Drive。机器之心将简要介绍该教程并借此梳理 TensorFlow 的入门概念与实现。 该教程第一天先介绍了深度学习和机器学习的潜力与基本概念,而后便开始探讨深度学习…
&figure&&img src=&/50/v2-457a5bde2ddd_b.png& data-rawwidth=&600& data-rawheight=&230& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/50/v2-457a5bde2ddd_r.png&&&/figure&&blockquote&简评:一个 OCW 的成功案例,他父母不支持他学习科学技术、不给提供大学学费,他离家出走,通过 MIT 在线公开课(OCW)自学数学、计算机科学的课程,最终进入 Google。&/blockquote&&p&很多人用 &a href=&/?target=https%3A//ocw.mit.edu/index.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&OCW&i class=&icon-external&&&/i&&/a&(Open Course Ware,MIT 免费在线公开课)改变了自己。今天和大家分享一下,OCW 是如何帮助 Wyatt Arent 改变生活的。&/p&&p&怀亚特在弗吉尼亚长大,这个传统的家庭并不支持他的科技方面的兴趣。他的父母拒绝为他的技术梦买单,父母没有给他大学的学费。&/p&&p&怀亚特认识到自己如此一来前途的黯淡,在他获得了 GED(普通教育发展证书,相当于高中毕业证)之后,就离家出走了。他一度无家可归,他只能挣扎着活下去。他花费了很多时间在公共图书馆里,他最终找到了方法,来满足自己对于技术的渴望。&/p&&p&在图书馆,他阅读了很多关于计算机编程方面的书籍,这也是他终生的兴趣之一。他在 youtube 上发现了一些开放式的课程视频,一个是 Eric Demaine 算法讲座,一个是 Tom Leighton 的计算机科学数学讲座。他看的这些视频时 OCW 课程的一部分(6.046 算法导论和6.042J 计算机科学数学)。&/p&&p&怀亚特说,这两门课程帮他查漏补缺,在很多关键的地方给了他指导。&/p&&p&通过一段时间的学习,他已经能够胜任程序员的工作了,不过他知道需要更深入的了解、学习编程。&/p&&blockquote&&i&我意识到我真的需要巩固自己的理论知识,因为作为一名自学成才的程序员,我知道自己有局限性。编程有一些基本的方面,如果你了解它们,并且可以批判性地考虑它们,那么你可以更有效地评估你正在执行的是什么。然后你可以专注于创造更高质量的东西。&/i&&/blockquote&&p&通过更深入的学习之后,他变得更加的自信了。他把目光也投向了更高处。他怀疑自己是否可以去 Google 工作,然后怀亚特就去试了。在面试中,他提到自己的自学经验,以及参加过 OCW 课程。面试官对他的印象深刻,并且表示,Google 非常看重自学能力。&/p&&p&尽管只有高中文凭,尽管曾经离家出走无家可归,So what?怀亚特最终还是获得了 Google 的工作。&/p&&blockquote&原文:&a href=&/?target=http%3A//mailchi.mp/mit/how-ocw-transformed-a-learners-life%3Futm_source%3Dwanqu.co%26utm_campaign%3DWanqu%2BDaily%26utm_medium%3Dwebsite& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&A Story of How OCW Transformed A Learner’s Life&i class=&icon-external&&&/i&&/a&&/blockquote&&p&&br&&/p&&p&园长:很多事情很难,但是总要去做。若没有当初的一点点坚持,哪有现在的一步步向前?&/p&&p&&br&&/p&&p&日报延伸阅读:&/p&&ul&&li&&a href=&/p/?refer=jiguang-daily& class=&internal&&YouTube 上有哪些自学编程的优质频道&/a&&/li&&li&&a href=&/p/& class=&internal&&开发者可以关注的一些 Youtube 频道&/a&&/li&&/ul&
简评:一个 OCW 的成功案例,他父母不支持他学习科学技术、不给提供大学学费,他离家出走,通过 MIT 在线公开课(OCW)自学数学、计算机科学的课程,最终进入 Google。很多人用 (Open Course Ware,MIT 免费在线公开课)改变了自己。今天和大家分享一下…
知乎小透明 嘻嘻嘻&br&推荐几家我买过的店铺啾~&br&1.ALI哩哩(墙裂推荐!我喜欢的风格:)&br&我在这家店买过t恤:不知道是不是棉质,总之很舒服 也没有褪色&br&卫衣:卫衣款式宽松的多一点,可能更适合比较高瘦的小姐姐&br&打底衫:这个月刚买了两件 敲舒服&br&买了个皮质的书包
质量很对得起价格!&br&而且上新满69包邮~&br&&br&&img src=&/v2-a824a18b489cac8c1dbcebc_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-a824a18b489cac8c1dbcebc_r.png&&2.小坏蛋家外贸超值女装&br&毛呢外套:但还没有穿 不过摸起来挺有质感&br&皮衣:皮质很软 不像是四五十块的 &br&毛衣打底:很舒服 毛衣在北方的冬天很御寒&br&买了件卡尺卡尺的衬衫 吊牌价159 我三十抢到手 收到货是正品没毛病!&br&每周会上新两次 满百包邮 上新的东西也挺多 but貌似订单量太大 发货比较慢╮(╯▽╰)╭&br&&img src=&/v2-cd618c454d8dc_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-cd618c454d8dc_r.png&&3.木木三&br&这家店东西很杂&br&我买过外套
睡衣 打底 短袖…很多&br&质量价格都没问题 不过需要抢…&br&&img src=&/v2-2d17fbcb73a6e3bb65f75_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-2d17fbcb73a6e3bb65f75_r.png&&4.岳纳珊&br&这家店很棒 东西也比较杂&br&我买过t恤 运动裤 外套 小包包…&br&不过要买的话得考虑自己穿上的效果&br&之前买过一条裤子 有个小洞 不过店主大大人真的超级好 直接重新发了一条!&br&槽点还是 物流慢!如果我没记错的话 好像是一周多…&br&&img src=&/v2-a87b426b714e901eaaed18ab89b152a5_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-a87b426b714e901eaaed18ab89b152a5_r.png&&5.朱小白复古女装店&br&麻豆(好像四店主本人)身材敲击好 !&br&可能这就是真正的小仙女吧(°ー°〃)&br&衣服的话我买过毛衣 连衣裙 还有半身裙&br&毛衣会起球 不过挺厚实 &br&款式比较多 适合皮肤白清瘦的小仙女~&br&&img src=&/v2-0d945a5ba23fdaaeddbd95c_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-0d945a5ba23fdaaeddbd95c_r.png&&6.贰拾捌&br&详情图里的小姐姐感觉好瘦好小噢&br&没在这家店买过 不过价格美丽&br&款式我也比较喜欢&br&不过 好像适合有气质的小姐姐o(╯□╰)o&br&&img src=&/v2-a1f5dbfa706b69ba184b_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-a1f5dbfa706b69ba184b_r.png&&就先写到这
有小姐姐看的话我再更~&br&希望大家点个赞哇 啾啾~&br&———————————分割线——————————&br&感谢点赞的小仙女啾啾啾!&br&我来再更几家~&br&7.一月八号…&br&在这家没买过
不会我观察了有快两个月&br&质量应该是对得起价格的&br&重点是 价格很美丽!而且款式多且好看!&br&每次上新几分钟有的码和颜色就没啦~&br&我看过这家店的评分 &br&相符度 服务态度 物流都高于同行45%左右&br&在淘宝深海里算可以的啦 况且还这么便宜&br&&img src=&/v2-0c4efb9e63c5e3d2787226_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-0c4efb9e63c5e3d2787226_r.png&&8.丁東HFH&br&我在这家店买过打底衫 半身裙…&br&怎么说呢 都是很!很便宜 !&br&只能说质量是对得起价格的&br&但会有起球 掉毛现象…&br&&img src=&/v2-9c5349ccef20097fadfa5b_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-9c5349ccef20097fadfa5b_r.png&&&br&&img src=&/v2-838fc0e4ad10d9976209adfb145a5d82_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-838fc0e4ad10d9976209adfb145a5d82_r.png&&大家可以看看评分~&br&&img src=&/v2-70bfa081bcd0eddce4c28e_b.png& data-rawwidth=&1080& data-rawheight=&1919& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-70bfa081bcd0eddce4c28e_r.png&&9.云端少女&br&买过夏天衣服 没买过秋冬装&br&衣服款式是真的好看啊 颜色也都炒鸡温油~&br&买衣服靠抢 上新时店主会盖楼发优惠券噢&br&&img src=&/v2-b434cf643c4f935b5bbc_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-b434cf643c4f935b5bbc_r.png&&&br&&img src=&/v2-69c8b6a0b17d04be0b2e622_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-69c8b6a0b17d04be0b2e622_r.png&&10.透特家&br&买过打底和裙子 好像还有外套……&br&emmmmm记不太清啦&br&总之对这家店有蜜汁好感呀(°ー°〃)&br&前几周有件七格格家的棉衣原价快四百 她家从工厂拿的货 只卖99!&br&&img src=&/v2-37b46188dbad62e5e79a6131aea086a8_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-37b46188dbad62e5e79a6131aea086a8_r.png&&&img src=&/v2-c3fb29e6c5f0dd4d09db7ba842ec5607_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-c3fb29e6c5f0dd4d09db7ba842ec5607_r.png&&这是她家的评分图~&br&&img src=&/v2-2a9a033ebff760abec3e6a45_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-2a9a033ebff760abec3e6a45_r.png&&&br&11.女皇家…&br&买过一条裤子 感觉质量还不错&br&价格也便宜哦 &br&也是我关注挺久的一家店啦&br&&img src=&/v2-1ceb53d653ca76c31de465_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-1ceb53d653ca76c31de465_r.png&&&img src=&/v2-57ba8acab677285bda8f_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-57ba8acab677285bda8f_r.png&&12.张小笨工作室…&br&买过三双鞋&br&一双单鞋23包邮 贝壳头的 穿了两三个月吧 &br&鞋底也不是很硬 最后鞋底后面坏了…&br&(可能我比较pang 穿鞋比较磨鞋后跟)&br&买了一双马丁靴 码数不和 偏大了&br&不过同样的鞋肯定是比实体店便宜的~&br&&img src=&/v2-c3e7aa8b285dfa20debe1b_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-c3e7aa8b285dfa20debe1b_r.png&&以上店铺评分不一定都是皇冠店一类的…但是评分都是高于同行挺多的
而且我基本都买过 所以大家可以放心一点啦~&br&手机码字累得一批&br&所以再次感谢点赞的小姐姐们 啾咪一大口!&br&&img src=&/v2-ce35815fcdebbe_b.jpg& data-rawwidth=&360& data-rawheight=&360& class=&content_image& width=&360&&———————————分割分割————————&br&感谢大家的赞…&br&不知道为什么知乎今晚总是闪退!暴风哭泣&br&我现在已经在码第三遍了[生无可恋脸T_T]&br&13.直来直往的R&br&只买过一两件 质量挺好~&br&真的很喜欢这家店的风格 自己没剁手的原因是觉得hold不住〒_〒&br&有兴趣的小姐姐可以考虑考虑&br&&img src=&/v2-e13ecc8cb4_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-e13ecc8cb4_r.png&&&br&&br&&img src=&/v2-ca0a9a2b5e2fe0b96d6e_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-ca0a9a2b5e2fe0b96d6e_r.png&&14.more23…&br&寝室妹子买过毛衣 打底 裙子…&br&质量都还不错&br&不过上新不怎么频繁 款式也一般&br&但是打底这些还是可以考虑入手的~&br&&img src=&/v2-d3a309eb2e5f7a587319cfc_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-d3a309eb2e5f7a587319cfc_r.png&&&img src=&/v2-c6_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-c6_r.png&&15.丁太太家&br&买过一双单鞋 嗯质量还不错&br&不过很多时候需要抢…&br&大家可以看看店铺评分 还是很棒的~&br&&img src=&/v2-c4ed238c192c28b1a08f6dc_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-c4ed238c192c28b1a08f6dc_r.png&&&img src=&/v2-fb2fe034f59_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-fb2fe034f59_r.png&&&img src=&/v2-b735b8b4b1d0fc33136b3e_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-b735b8b4b1d0fc33136b3e_r.png&&嗯还有童鞋~&br&&img src=&/v2-051c94b831cd7bb3ddf3a1e_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-051c94b831cd7bb3ddf3a1e_r.png&&就这些啦 有好的店我会再更新&br&再次感谢大家的阅读和赞 &br&对知乎小透明来说受宠若惊~
知乎小透明 嘻嘻嘻 推荐几家我买过的店铺啾~ 1.ALI哩哩(墙裂推荐!我喜欢的风格:) 我在这家店买过t恤:不知道是不是棉质,总之很舒服 也没有褪色 卫衣:卫衣款式宽松的多一点,可能更适合比较高瘦的小姐姐 打底衫:这个月刚买了两件 敲舒服 买了个皮质的…
&figure&&img src=&/50/v2-69bc0ffb0ecc_b.png& data-rawwidth=&771& data-rawheight=&521& class=&origin_image zh-lightbox-thumb& width=&771& data-original=&/50/v2-69bc0ffb0ecc_r.png&&&/figure&&p&1、一句话代表我心情:去家具商场买家具标价全都是翻一倍,或者二倍,你要在她给你最低价格上打八折,然后表现得爱要不要的表情,那么兄弟你这次就绝对没被坑了,要是八折人家不放口,你就九折,还不行,兄弟走吧,这店太黑了……我家具销售过来人。&/p&&p&2、一生清意-:我是玻尿酸厂家,四五百的针剂 医院能卖到三四千 护肤品也是内部拿货3、4折。&/p&&p&3、小弟哒:我在诊所当护士,大晚上的千万别去诊所打针,因为会抽掉你一半的药,有些甚至给你打空水。&/p&&figure&&img src=&/50/v2-1e31bd39827aac5fef517_b.jpg& data-caption=&& data-rawwidth=&679& data-rawheight=&503& class=&origin_image zh-lightbox-thumb& width=&679& data-original=&/50/v2-1e31bd39827aac5fef517_r.jpg&&&/figure&&p&4、在星巴克喝拿铁的果冻:资深房产销售老司机给大家说个事:楼盘开盘的时候,你别以为售楼处墙上红色贴着密密麻麻的房子就是全部卖掉了,有很多都没卖掉,售楼处这样只是给你一个畅销的错觉,如果你说我就要这个楼层的、没有我就不买了、他马上跟你说有一套刚退出来。&/p&&p&5、柠檬味啊i:婚纱摄影,后期选照片千万不要加钱,反正底片全送,摄影师就算是大总监,离不开后期处理。相册成本不值钱。&/p&&p&6、盈VERA:买车你可以选择先看好车,月尾一个礼拜谈价。3,6,9,12月买车是可以的,因为季度末冲量。啧,教买车就我一个老实人了。&/p&&p&7、诶呀我的锅:美团客服电影票 其实所有的电影票都可以退款! 你只要说我要投诉315 他就给你退。&/p&&figure&&img src=&/50/v2-b19a34cee5cecc1e134351d_b.jpg& data-caption=&& data-rawwidth=&630& data-rawheight=&479& class=&origin_image zh-lightbox-thumb& width=&630& data-original=&/50/v2-b19a34cee5cecc1e134351d_r.jpg&&&/figure&&p&8、NicoleHF:保险业告诉你,越穷越要买健康保险,一般来说,你现在要是没有个5千买保险,生病了有50万治病吗? 现在健康保险里面的疾病都是发病率最高的,不要整天说骗人的,骗人的,现在的健康保险都包一百多种疾病的,器官移植也会在里面的,合同里面都有写的,看清楚满意了就存一份吧。&/p&&p&9、吃土少年turbo:装修:先说一个吧,你们装修买到100多(包安装)一卷的壁纸,成本价都不超过15块。15+25(安装费)=40。你看着给他网上加20商家一样干。同行不要骂我啊!&/p&&p&10、大意失非洲:电商…所有的网上店铺都会有刷单成份,淘宝亚马逊京东天猫,不刷单经营不下去的。&/p&&p&11、我永远十六:去超市,尽量拿最里面的,因为放在前面的都是日期比较远的。而且不是所有的打折货都是要过期了!!!!!捆绑销售的才是要到期了!!!&/p&&figure&&img src=&/50/v2-c5ec3d8db09_b.jpg& data-caption=&& data-rawwidth=&516& data-rawheight=&358& class=&origin_image zh-lightbox-thumb& width=&516& data-original=&/50/v2-c5ec3d8db09_r.jpg&&&/figure&&p&12、Crystal--果果:我老公是医药公司的,不说药店陈列了,来点干货,常用药比如阿莫西林,价位相差三倍以内的,你可以买最便宜的那个,药效几乎无差。再个大厂家的药,不要买它的副产品,比如某花,主打胃药和小儿药,那就不要买它的消炎药之类的,因为这些大部分都是贴牌的,并不是它研发生产,而且一般还比别人卖的贵。&/p&&p&13、魂魄不齐听春雨:黄金如果只买克重的而不是一口价的,就没必要去港资大品牌,哪个品牌便宜就买哪个,克重黄金都是一个地方进货。&/p&&p&14、两个小娃娃丫:快递行业没人会在意你是不是寄易碎品!&/p&&p&15、李灿灿yo:我以前是做美容的,如果你要去美容院办卡的话 就千万不要等到他们做活动才去办 因为他们做活动只会把价格拉得越来越高 他们一做活动就是拉大单 介意平时去哈哈哈哈。&/p&&figure&&img src=&/50/v2-fc580e935e586e028a82b7_b.jpg& data-caption=&& data-rawwidth=&727& data-rawheight=&536& class=&origin_image zh-lightbox-thumb& width=&727& data-original=&/50/v2-fc580e935e586e028a82b7_r.jpg&&&/figure&&p&16、O0盼盼0O:大的酒店为了显示他卫生安全会把消毒碗柜摆出来,有消毒碗柜的你可以仔细看看人家是不是开的插上电了没[并不简单]好多都是摆出来给你们看,其实根本没开过,[吃瓜]我在酒店做过,都是用桌布擦碗,如果不是密封的筷子,千万别用,真的很脏都是扔桶里清水冲洗一次,然后套进筷套里就完了。&/p&&p&17、虾米虾米O:在奶茶店打过工,态度不好的客人我都会往他那杯奶茶里加很多水[喵喵]&/p&&p&18、MEz_凡夫不俗子:买房子千万不要听销售员说银行流水之类的有问题过不了,他只是想收黑钱,然后和银行串通欺骗你。&/p&&p&19、-Catlion:某基某劳一类行业,薯条一份的成本价大约是5毛钱,一个汉堡的价格呢,堡顶+堡底(1块7左右不同的面包价格不一样)一片肉饼鸡肉猪肉牛肉各家用的不同但一片最贵不到3块,生菜14g番茄2片,蛋黄酱14g,一个汉堡的成本基本是5块钱左右,其实最贵的是炸薯条鸡排的起酥油。&/p&&figure&&img src=&/50/v2-69c2f5cefe63d_b.jpg& data-caption=&& data-rawwidth=&735& data-rawheight=&522& class=&origin_image zh-lightbox-thumb& width=&735& data-original=&/50/v2-69c2f5cefe63d_r.jpg&&&/figure&&p&20、小主__m:我是做售楼部的置业顾问,跟你说已经是最低折扣了其实还是有所保留,要留着后期回款,签约吸引你尽快进账。&/p&&p&21、一个锁阿宁:去饭店吃饭,尽量不要在不是饭点的时间去吃饭,因为你永远不知道服务员和厨师会对你点的菜做什么————来自前饭店服务员的忠告。&/p&&p&22、落寞孤离:家里以前开服装店的……千万别在搞活动的时候买,搞活动前一天晚上大门一关,里面开始把标签的价格贴一个新的,贵几百,更赚我跟你们说。&/p&&p&23、蓝冰幕雪:汽车,4s店新车加装的精品像导航&br&保险杠类都是副厂 销售会跟你说原厂,一套揽胜电动踏板能卖到4万。成本 减一个零。供货价格乘2。&/p&&p&24、糖山小白帽专卖店:医药行业,进药店买药,尽量别买营业员推荐给你的药,其实一个感冒花不了10元以上的。还有,保健品就是忽悠人的,最好的保健品是“多运动”!!!&/p&&figure&&img src=&/50/v2-c5c85c20beda411eccd5_b.jpg& data-caption=&& data-rawwidth=&721& data-rawheight=&564& class=&origin_image zh-lightbox-thumb& width=&721& data-original=&/50/v2-c5c85c20beda411eccd5_r.jpg&&&/figure&&p&25、连小连的连先生:水果业:千万别买切好的水果!因为都是烂水果切的!&/p&&p&26、瘦成一根小竹子:旅游业 泰国11、12 、1 月是淡季, 999的价格无自费无机场现收。&/p&&p&27、SIMAshan:卖手机的表示,买手机你说话甜点讲价跟很凶还不停讲价拿到的价格是完全不一样的。&/p&&p&28、缘萝:生病了最好听医生的话,他比任何人都希望你好。也许我们在给你们做治疗的重复的问了很多次你的床号姓名,请不要不耐烦,我们是为了不出差错。&/p&&p&&br&&/p&&h2&后面更精彩&/h2&&p&&br&&/p&&figure&&img src=&/50/v2-98a3d812ce32e43c394fff2a_b.jpg& data-caption=&& data-rawwidth=&710& data-rawheight=&534& class=&origin_image zh-lightbox-thumb& width=&710& data-original=&/50/v2-98a3d812ce32e43c394fff2a_r.jpg&&&/figure&&p&&br&&/p&&p&1、陈陈陈陈宝宝_:坐飞机千万别吃飞机上的东西,喝飞机上的水,这样空乘会很开心。&/p&&p&2、菲啊er:刚煮过的开水不能直接喝 会烫口&/p&&p&3、马扁火包:我再来补充两点: 1、一天不能吃太多鸡蛋,吃太多,对母鸡身体不好,它来不及下。 2、饭后吃水果是错误的观念,正确的做法是饭前吃,否则可能就被别人吃了。&/p&&p&4、欺世忍者:我再补充一条:年轻人保护眼睛少玩手机,如果长时间玩手机超过四个小时,后果很严重,手机会没电的。&/p&&figure&&img src=&/50/v2-8db3a508b015b73db8a64d_b.jpg& data-caption=&& data-rawwidth=&867& data-rawheight=&646& class=&origin_image zh-lightbox-thumb& width=&867& data-original=&/50/v2-8db3a508b015b73db8a64d_r.jpg&&&/figure&&p&5 Mrarasho:尽量少吃番茄,番茄里有一种毒素,到了量会引发中毒,一定每天吃少于4吨番茄&/p&&p&6、敏也很无奈:我在补充一点:上班吃快餐对身体不好,所以为了身体健康,最好不要上班。&/p&&p&7、Y刚好温柔Y:建议不要吃鸡屁股,因为鸡屁股含有很多毒素,而且鸡从来不擦屁股。&/p&&p&8、甜得掉渣:很多人衣服弄到油渍洗不干净,因此感到头疼,告诉大家一个办法,下次洗衣服的时候吃点头痛药,就不会头痛了!&/p&&p&9、shylockliu:饭后慢跑等于慢性自杀,每跑60分钟等于少活1小时。&/p&&figure&&img src=&/50/v2-ba921ab33ab_b.jpg& data-caption=&& data-rawwidth=&804& data-rawheight=&600& class=&origin_image zh-lightbox-thumb& width=&804& data-original=&/50/v2-ba921ab33ab_r.jpg&&&/figure&&p&10、潘健pjj:千万不要把香蕉和屎一起吃 不然会有股屎味。&/p&&p&11、慕沐牧暮幕:水不要喝太多,利尿。&/p&&p&12、Venous__:熬夜不好 所以我建议你通宵。&/p&&p&13、一位不愿透露发型的KOP:吸烟有害健康,每抽20根烟,相当于抽了一盒。&/p&&p&&br&&/p&&figure&&img src=&/50/v2-774cc2ce35be3efa5c95cf4b19a1af11_b.jpg& data-caption=&& data-rawwidth=&558& data-rawheight=&398& class=&origin_image zh-lightbox-thumb& width=&558& data-original=&/50/v2-774cc2ce35be3efa5c95cf4b19a1af11_r.jpg&&&/figure&&h2&&br&&br&完结&/h2&&p&&br&&/p&&p&&br&&/p&&figure&&img src=&/50/v2-1eae311bdd83cb0e1cfcd7cd9f86a4d7_b.jpg& data-caption=&& data-rawwidth=&733& data-rawheight=&511& class=&origin_image zh-lightbox-thumb& width=&733& data-original=&/50/v2-1eae311bdd83cb0e1cfcd7cd9f86a4d7_r.jpg&&&/figure&&p&&br&&/p&&p&&br&&/p&&p&&br&&/p&&p&&br&&/p&&p&本文综合自微博网友回答。如有谬误,请指出。&/p&&p&&/p&
1、一句话代表我心情:去家具商场买家具标价全都是翻一倍,或者二倍,你要在她给你最低价格上打八折,然后表现得爱要不要的表情,那么兄弟你这次就绝对没被坑了,要是八折人家不放口,你就九折,还不行,兄弟走吧,这店太黑了……我家具销售过来人。2、一生…
&figure&&img src=&/50/v2-10f138e2fa45f713faca65_b.jpg& data-rawwidth=&600& data-rawheight=&333& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/50/v2-10f138e2fa45f713faca65_r.jpg&&&/figure&&p&又到一年一度的剁手节,各大电商早就热热闹闹地准备起来。除了家电、化妆品、服装配饰……运动装备品类也是商家竞争的重点。除了传统的打折促销,一些国内外运动品牌今年还有了新玩法,比如耐克尝试在天猫平台介入两家智慧门店、特步推出明星互动直播活动等。&/p&&p&&br&&/p&&p&问题随之而来。今年各平台的双11规则堪比奥数竞赛,优惠券、购物津贴、红包、预售、定金膨胀、尾款……不仅“烧钱”还“烧脑”。面对越来越复杂的优惠方式消费者该如何选?懒熊体育以天猫为例,总结了一份双11剁手与反剁手指南!统统神价格!拒交智商税!&/p&&p&&br&&/p&&p&&b&&i&(由于指南面向广大准备剁手的消费者,文章篇幅较长,包含各大品牌的优惠方式、预售方式以及具体商品分析,需要较多阅读时间,因此赶时间的小伙伴可以只阅读加粗和蓝色字部分)&/i&&/b&&/p&&p&&br&&/p&&p&&i&&b&首先是科普时间:&/b&&/i&&/p&&p&&br&&/p&&p&购物津贴:双11购物津贴是淘宝天猫发放的折扣权益,今年共分为3档,不同的类目不一样,有每满700元减20元、每满600减30元、每满400元减50元,可以跨店,不设上限。&b&我们这次选取的8个国内外运动品牌所属类目仅适合“每满400元减50元”的活动。需要注意的是,购物津贴只能在店铺优惠券后使用。&/b&比如一个标价450元的商品,要在优先用完店铺优惠券后价格还高于400元,才能满足“每满400元减50元”条件,可再抵扣50元。&/p&&p&&br&&/p&&p&优惠券:卖家可以设置两种优惠券,其中的差别电脑端能看得比较清楚:一种是&b&店铺优惠券&/b&,店铺里所有商品都可以用(在电脑端看会有“全店通用”字样);另一种是&b&商品优惠券&/b&,仅指定商品才可以使用(在电脑端看会有“限定商品”字样,并下附可以用券的指定商品)。&/p&&p&&br&&/p&&p&红包:红包的来源包括天猫双11红包雨(天猫首页每到整点下的红包雨)和商家自己发的红包雨。在红包使用时,&b&一笔付款里系统将自动按照从大到小的红包数额进行抵扣&/b&(也可以在付款时选择不使用红包)。比如你抢到了50元红包,一笔付款的金额为40元,则系统会自动抵扣40元,剩下10元还可下笔付款使用。&/p&&p&&br&&/p&&p&&i&关于预售商品:&/i&&/p&&p&&i&定金支付:日00:00:00-日22:00:00&/i&&/p&&p&&i&尾款支付:日01:00:00-日23:59:59&/i&&/p&&p&&i&1.所有预售商品不能加购物车,需要直接拍下并支付预售页面上表示的定金。&/i&&/p&&p&&i&2.预售商品支持合并支付尾款,仅支付尾款时可使用店铺优惠券。&/i&&/p&&p&&br&&/p&&p&下面我们就来总结一下8大国内外运动品牌的天猫官方旗舰店的购物省钱攻略!(统计截至日)&/p&&p&&br&&/p&&p&&b&1、品牌活动&/b&&/p&&p&&br&&/p&&p&此次选取的3个国外品牌官方旗舰店,均以平日“贵还不爱打折”著称。今年双11,3家的促销方式都比较简单易懂。可以说,&b&双11是一年里最适合买这3个品牌商品的时机。5大国内运动品牌则以花样繁多取胜,双11当天0点-2点是最佳购买时间。&/b& &/p&&p&&br&&/p&&p&&br&&/p&&b&&figure&&img src=&/v2-bf23659cef7d96bbc81f_b.jpg& data-caption=&& data-rawwidth=&640& data-rawheight=&826& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-bf23659cef7d96bbc81f_r.jpg&&&/figure&&/b&&p&&br&&/p&&p&&br&&/p&&figure&&img src=&/v2-f1d0e5bf7f22aaf0a41ea33afd7dc85c_b.jpg& data-caption=&& data-rawwidth=&720& data-rawheight=&1200& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-f1d0e5bf7f22aaf0a41ea33afd7dc85c_r.jpg&&&/figure&&p&&br&&/p&&p&&br&&/p&&figure&&img src=&/v2-21c696fc56a8cafa376f8ff_b.jpg& data-caption=&& data-rawwidth=&720& data-rawheight=&1279& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-21c696fc56a8cafa376f8ff_r.jpg&&&/figure&&p&&br&&/p&&p&&br&&/p&&figure&&img src=&/v2-0cd2c69bdd0_b.jpg& data-caption=&& data-rawwidth=&720& data-rawheight=&1472& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-0cd2c69bdd0_r.jpg&&&/figure&&figure&&img src=&/v2-7ffc4efafe8a7a012ffc037e9e49bcf8_b.jpg& data-caption=&& data-rawwidth=&720& data-rawheight=&1614& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-7ffc4efafe8a7a012ffc037e9e49bcf8_r.jpg&&&/figure&&figure&&img src=&/v2-8eb87d6c5dae957ecfc2b_b.jpg& data-caption=&& data-rawwidth=&720& data-rawheight=&1879& class=&origin_image zh-lightbox-t}

我要回帖

更多关于 猪肉白菜饺子馅怎么调 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信