-
用户旅程图,绘制重点。
用户旅程图最近实习突然翻到自己以前的笔记——“用户旅程图绘制方法”突然意识到自己关于服务设计中的可视化图表,关于概念已经滚瓜烂熟了,像服务蓝图,用户旅程图,用户体验地图,心智图表,KANO模型图等等,总有种自己看很多看很多之后就会画了的错觉……但是如果让自己认真仔细整一张出来,真的容易吗?其实没有结合实践的阅读大概就是“纸上谈兵”于是借着这两天利用实习公司以前的一个产品中间的一个小流程,自己也整了一张用户旅程图……先自己简单画了一下服务蓝图和用户旅程图的区别,毕竟之前经常弄混淆……我记得以前看到某本书提到过,有位特别厉害的人(实在是忘了是谁,好像是乔布斯?),他对自己的产品,总能把自己当成傻瓜用户去使用它,把自己当作自己的新手用户去使用它……不过现在能做到这样的人很少了吧,毕竟还有谁能比自己对自己做的产品更熟悉呢?不过我还是尽力在把自己当做新手用户,当作该产品使用者,带着一定的目标,去使用该产品的每一个流程,于是针对其中一个比较简单的流程绘制了一张体验地图……那…总结一下用户旅程图绘制步骤吧1整理产品体验过程中的惊喜点和问题点2写出用户行为流程(特别注意行为节点触点)(一般从Aware-Join-Use-Develop-Leave)3画出情感坐标作为纵轴;4把行为流程作为横轴;5把这些惊喜点和问题点放到行为流程节点上,惊喜点放上,问题点放下;6至于该放多高,该放多低,根据惊喜点和问题点的重要性和程度判断;7将所有点连线……我记得有一个设计上的心理学效应叫做序列效应:大概就是讲在列举信息时,排在最前面和排在最后面的元素,比排在中间的更容易让人记住。对排在开头的项目产生加强回想的效果,称为“初始效应”(PrimacyEffect)对排在末尾的项目产生加强回想的效果,称为“时近效应”(RecencyEffect)好像还有关于它的视觉刺激,听觉刺激的一些理论,等我仔细琢磨琢磨再写hhh(图来自于百度)扯到序列效应,是因为想总结一下用户旅程图,有一条和序列效应有关:(1)我们可以根据自己绘制的用户旅程图,将最开始和结束点的用户体验做到极致(没错就是这条);(2)看一下最高点,尽量也发挥到极致,作为提供用户惊喜点(比如兴奋型需求存在的地方);(3)看一下最低点,能不能将其拉高呢?(4)尽量让情感体验曲线均衡,比如将功能挪动到某个位置;(5)如果实在想不到办法,那就分析竞品吧,看一下竞品是怎么解决这个问题的?(我又想到一句话:不要从竞争对手里找需求,需求来自自己对用户的理解,虽然说这个习惯好难改…但是…尽力…努力……)
-
网页制作方法以及常见网页制作特点是什么?
企业网页制作是网站建设当中最实质的步骤,一个用户获得对企业网站印象的主要来源就是网页,好的企业网站,不仅仅能够让用户感受到网站的美观和大气,企业还能通过网页的隐含语言传递出企业的理念,提高企业的品牌认知度。探讨网站建设中,网页制作方法以及常见网页的特点如下:一、网页制作的三种方法1、网页制作三剑客企业网页制作通常会使用到奥多比的网页制作三剑客,当然Dreamweaver是最常见的,Frontpage也非常常见,Frontpage更是简单到只要会WORD就会用,而同样是三剑客之一的Firework和Flash通常会被用来美化网页。2、用TXT文件来编辑Html代码的原因用网页编辑器比如Frontpage等等这样的软件来改变Html代码常常会有一种风险,就是代码改完以后文件却再也打不开了,要么就是文件的属性被改变了,所以要想修改Html文件的代码以后还保持原样不变,使用最简单最有效的记事本就可以。3、有模板可借鉴并非是罪过有很多网页设计师总是喜欢从头再来,即便是在有现成模板的情况之下也是一样,这样其实是在浪费时间,现在有很多前面的开拓者对于特定页面的开发很有强项,所以拿过来用一下也不是什么过错,比如首页的设计,就有不少人做得很好,页面大气,色彩合理,符合大网站的高度和气魄,能够给人一种强烈的震撼。如果有这样好的渠道和效果,自己仍然坚持重新开发只能是吃力不讨好。二、各种页面的特点1、首页,首页就像是一个企业的门面,规划和设计是很重要的,不论从颜色还是结构都应该请专门的人员来作设计,以能够展现企业主旨和优势为佳。2、次级页面的主要功能在于导航,通过次级页面可以通达网站的各个部分,起到一个枢纽的作用,导航页的特点是要清晰明了易于辨认理解,并且风格上要和首页既一致又有呼应。3、普通页面通常承担的是企业的项目、案例或者产品的介绍之类的,这一类页面的说明性强所以图文要准确,但是对于设计层面没有太高的要求,只要能够做到标准、整洁,风格一致就可以了。设计一个网页要多少钱?
-
新手必备的网页制作设计流程,赶紧来学习一下吧
一、确定网站主题1、分析网站的功能,讲网站所有的功能再文档中体现2、分析网站的主题,选择符合网站主题的方案二、搜集材料1、通过和与网站相关人员的接触、交流确定网站需要的模块,并将这些模块再文档中体现;2、收集相关图片、文字、视频等资料;3、将图片、文字、视频等资料使用相应的软件进行编辑备用(必须做);4、对图片、文字、视频等资料分别分类整理;5、例如:网站根文件夹下images文件夹存放网页界面图片(图片类型为jpg、jpeg、gif、png),pic文件夹存放照片素材,flash文件夹存放动画素材;6、所有素材的文件名都必须是非中文字符,并且要做到看到文件名就知道是哪张图片三、规划网站1、网站的结构(目录结构),首页名称(index.html)、子页面名称(1.html、2.html、3.html),以及其所在的目录等,必须再文档中体现(绘制目录地图);2、栏目的设置,栏目必须再文档中体现;3、网站的风格;4、颜色搭配(主色调和辅助色调以及点睛色的RGB值是多少,要再文档中体现)当然,也要根据产品及行业性质来搭配颜色,比如餐饮要暖色调;5、版面布局(例如:国字型、厂字型),结构要再文档中体现;6、绘制首页界面图(草图)。四、设计工具的选择1、photoshop+dreamweaver+flash;2、firework+dreamweaver+flash;3、其他工具或者直接编码。五、制作网页1、在计算机的硬盘建立一个目录,作为存放网站的根目录,例如:E:WWW目录;2、使用图象设计软件设计网页首页界面(根据首页界面草图);注意:①每加一个界面元素都要分层。②颜色严禁暖色调和冷色调混用。③图片添加的时候要注意过渡④网页的界面不该加的东西不要加,例如一些文字,如果文字不需要特殊效果,在设计界面的时候不需要添加⑤界面的大小:宽一般为780象素,高不小于435象素3、保存注意:①首先将源文件保存为*.psd文件,例如:index.psd,目录为网站的根目录,例如:E:WWW②严禁合并图层4、使用切片,将用photoshop设计的psd文件进行切片注意:①切片遵守从左到右,从上到下的过程切片②切片要将整个界面全部切片,严禁留下切片缝隙③注意每个切片都应和周围切片对齐④切片的时候要注意每个切片的独立性,单独功能的切片单独切。⑤切片的时候要考虑切片以后在dreamweaver中是否容易编辑5、保存切片注意:①保存的时候,保存类型选输出html和gif②文件名为index③保存路径为你所准备好的存放网页的目录的根目录④最终根文件夹中应出现index.html和images文件夹,这两个文件夹都必须保留6、使用dreamweaver编辑网页首页注意:①首先建立站点,使用dreamweaver连接网站目录的根文件夹,例如:E:WWW,连接方法为网站的根目录设为E:WWW,网络设置为无;②站点与网站根目录连接好以后,编辑index.html首页;③在index.html上添加必用的内容,文字、图片、动画、链接(链接子页面,目录必须采用相对目录)等,并且整体居中对齐,目录必须全部使用相对目录,将首页设计完成;④首页完全设计好以后,在首页的基础上设计子页面,方法为:首先将首页另存为1.html,目录为网站根目录(E:WWW),打开1.html,将网页的主体内容换为子页面的主体内容,保存。其他的子页面也是同样的方法。7、本地测试打开index.html,然后将所有的网页浏览一遍,检查是否右错误(内容是否完整、界面是否合理,链接是否正确)。六、上传测试1、将网站根目录的内容全部上传服务器对应的文件夹下,例如第三个实验,将E:WWW中的内容全部复制到服务器对应文件夹3这个目录下;2、文件夹3这个目录要包含如下文件和文件夹:index.html(首页)、1.html、2.html(子页面)…….、images(界面图像文件夹)、index.psd(首页图像源文件);3、使用IP地址对网站进行测试,如没有任何问题,说明网站测试成功。七、推广宣传1、申请域名、空间;2、网页上传空间;3、宣传优化推广、提高访问量。
-
不看后悔系列的网页制作设计流程
1、网站整体风格的设计。在网站开始之前,首先要对网站整体页面色彩、版式有一个统筹安排,然后在各个网页应在保持共性元素的前提下体现个性元素,这样整套页而才会看起来丰富并不失联系。2、首页设计。首页是网站页面设计的一个重点,一般首页的设计跟网站的功能有一定的联系,比如,综合型是最常见的,现代很多企业网站都采用这种形式,既在首页上显示代表性广告,又有引导内页的详细导航、还要有网上调查别公司最新新闻或产品的介绍等,比如旷达科技;广告型是整个网站的首页像广告片,主页上利用大幅交替的广告图片展示网站主题;3、导航目录设计。网站导航则是使用链接指示出页面的位置。无论是哪种类型的网站,最好都能在网站内所有的重要页面上规划出导航目录,这样网页的指引性就会大大增强。4、广告设计。一般的网站都会在网面的上方或是中间部位留一个广告位,这个位置称为“BANNER”,比如kuangda.com首页就采用了一个大的banner来宣传公司的产品和活动。BANNER广告位是用来宣传公司产品的广告位置,这一点在许多企业网站或是盈利性网站体现得非常明显。BANNER广告位一般放置动画式的广告。5、二、三级页面设计。网站页面设计制作的大框架分为首页、二级页面和三级页面。二级页面是仅次首页之后的分类页面,二级页面应该是一些放置具体分类产品或是显示分类新闻条目的页面,二级页面需要设计多少页面取决于首页上内容和导航条目的多少。具体详尽的产品说明或是新闻内容则被放置在表达内容更详细、更单纯的三级页面上做介绍。6、检察链接是否正确以及页面是否完善是在网页主体每项工作设计制作完成之后要做的工作,这样一个互联网网站模型就建立出来。检察链接是否正确以及页面是否完善是在网页主体每项工作设计制作完成之后要做的工作,这样一个互联网网站模型就建立出来。检察链接是否正确以及页面是否完善是在网页主体每项工作设计制作完成之后要做的工作,这样一个互联网网站模型就建立出来。
-
曾被称为“网页制作界的 Photoshop”,Adobe Muse 宣告死亡
Adobe宣布其入门级网页制作工具AdobeMuse停止开发,最后一个版本更新在26日推出,并且将会在2019年5月20日停止技术支持。此后,用户依然可以打开自己电脑上的Muse以新建或维护网页制作工程,同时托管在自己购买的虚拟主机上面的成品网站也不会有影响。但是Muse将不会支持未来日新月异的网络技术新标准,同时也可能不兼容后续的Mac或Windows操作系统更新。另外,如果使用了Adobe官方的一站式托管服务BusinessCatalyst,用户就必须进行一次迁移才能保证后续的正常显示。至于开发者基于Muse所发布的第三方插件是否能继续好好工作,就需要逐一询问开发者本人。之前Adobe曾经非常慷慨的将已经过时的Photoshopcs2版本免费向个人用户提供授权。但不清楚终将停止支持的Muse是否会享受同等待遇。当前Muse还是收费的产品,在官方网页上可以看到7天免费试用的字眼。Muse是一种可以简单地制作响应式HTML5网页的离线工具,形象的说,就是“网页制作界的Photoshop”,实际上也可以让你把Photoshop当中所绘制的网页模板,切成有完整功能的HTML5响应式网页。相比AdobeCC系列中的老牌全功能网页制作工具Dreamweaver,这个轻量级的网页制作产品,本来有可能成为像PhotoshopElements一样成功的差异化产品,以填补入门级网页制作的市场空白。Muse还提供另外一种能让初学者加速网页制作进程的做法,就是允许第三方开发者为其提供所谓“小工具”(Widgets)。这种插件化的做法,可以将某个功能模块例如Facebook评论、投票或甚至一些初级电商接口等打包,供用户嵌入网页作品中,以节省用户自行配置的流程。但是Adobe宣布终止这一产品的决定并不让人意外。因为一款离线的网页开发工具,如今实在是一个非常奇怪的存在,和在线的网页版制作工具相比缺乏竞争力,最终使得Muse中途夭折。现在的情况跟8年前Adobe决定开发Muse的时候有很大的区别。在那个时候HTML5还是一个正在进行中的网页标准,业界尚未形成一致意见,对这种新生事物需要有入门级工具来推动普及。现在,Muse当初针对的那一群希望接触新技术的初学者,已经被分流。有些人期待更简单和更傻瓜化的,搭积木一样且所见即所得的制作过程;另外一些用户则更注重将电脑版网页、手机网页和手机App统一体验,并且逐渐从网页制作切入用户体验(UX)专业。对于更简单的构建个人网站的任务,已经有非常成熟的方案。这些服务通过浏览器,直接进行堆积木一样的操作,并且可以使用免费的托管空间,甚至是免费的二级域名,让用户只需要动动鼠标,就可以拥有自己的个人网页。这种通过网站模板和小型的模块化插件构建个人网站的服务,业中翘楚是总部位于以色列的Wix。公司在2013年上市时筹集了1.27亿美元,现在继续得到分析师的追捧。今年2月中旬,Wix发布财报称去年第4季度的营收超出预期。同类产品还包括Weebly和Shopify,后者同样是上市公司,在纽交所上市。2017年《财富》杂志的文章指出,Shopify自首次公开募股以来,股价已经上升了500%。而对于那些从网页制作逐渐过渡到交互设计和用户体验的设计师们,现在也有更专业的工具。例如一款非常轻量化的,仅限于Mac平台的制作工具Sketch就是现在交互设计师们的首选。它可以使用非常方便和标准化的方法制作出产品原型图和高度拟真的界面效果图,并且不管是生成网页,还是输送到App的开发进程中都很方便。上述工具和服务的出现,一定程度上打破了在前十几年当中Adobe的产品对设计市场的垄断地位。Adobe后来也随之推出了上述两类产品的对标产品。AdobePortfolio和AdobeSparkPage都是基于浏览器的快速创建网页的服务。前者可以为设计师构建个人画廊,并且同步到Adobe收购的设计师社区Behance,后者则可以制作单页的网站,如新闻简报或App下载引导页。而AdobeXD是Sketch的直接替代品,它的相对竞争优势就是和其他Adobe产品之间的联系更紧密。在Muse的各种功能甚至都被自家的其他产品替代的情况下,它已经成为了一个鸡肋产品,叫停也是在情理之中的。不过此前的多年开发也并非是毫无收获,就像之前GoogleWave胎死腹中一样,在Muse身上曾经做过的各种尝试和创新,都会继续融入后续的新产品中,让它的灵魂得以延续。
-
如何制作电子书?用Python爬取网页制作电子书的方法
有人爬取数据分析黄金周旅游景点,有人爬取数据分析相亲,有人大数据分析双十一,连小学生写论文都用上了大数据。我们每个人每天都在往网上通过微信、微博、淘宝等上传我们的个人信息,现在就连我们的钱都是放在网上,以后到强人工智能,我们连决策都要依靠网络。网上的数据就是资源和宝藏,我们需要一把铲子来挖掘它。最近,AI的兴起让Python火了一把。实际上Python拥有庞大的第三方支持,生态系统非常完整,可以适用各种场景和行业。这次,我们准备通过Python学习爬虫的开发,既简单有趣,而且是数据采集重要一环。同时脱离应用谈技术就是耍流氓,通过制作电子书学习数据的收集与整理,即能学到东西又有实用价值。我们将通过爬取网页信息这个很小的应用场景来体会数据预处理的思想,并从中学习了解数据处理中抓取、处理、分组、存储等过程的实现。我这次分享主要分为以下几个部分:Python语法:通过分享掌握简单的Python开发语法和思路,侧重于后面爬虫开发的需要用的内容;Scrapy爬虫开发:通过分享了解基本的Scrapy开发,并实现从网络爬取数据,使用Sigil制作epub电子书;最后,我希望通过分享,让更多人能够入门并喜欢上Python开发,掌握Scrapy爬虫开发的思路和方法。一、Python开发1.1Windows下环境安装熟悉Windows的安装Python不难,首先官网下载:https://www.python.org/downloads/。有两个版本,根据需要选择自己的版本,现在越来越多的库开始支持3,所以建议下载3,这里我们以2为例。双击下载的安装文件,一路Next即可,但是要注意勾选__pip__和Addpython.exetoPath:pip是Python生态体系里面的包管理工具,很多第三方库可以通过它方便的管理。安装Finish之后,打开命令行窗口,输入Python:如果出现这个界面说明安装成功了,如果出现下面的情况:‘python’不是内部或外部命令,也不是可运行的程序或批处理文件。需要把python.exe的目录添加到path中,一般是C:/Python27。1.2Python之HelloWorld目前我所接触过的所有编程语言都只要掌握三个内容就可以了:就是输入、处理、输出。我们已经安装好了Python,可以来一个最俗套的程序。首先我们打开windows的控制台,然后输入python回车,然后输入如下代码:print'Helloworld!'我就问你俗不俗,好了,看结果:根据我上面的说法,这个程序的输入就是HelloWorld字符串,处理使系统内部的输出处理,输出结果就是‘HelloWorld’。我们还可以把代码写在文件里面:#!/usr/bin/envpython#-*-coding:utf-8-*-print'HelloWorld!'执行效果:我们说这个不是单纯的秀一下,以前没有用户界面的时候print可以作为人机交互用途,现在多数是用于调试,可以在程序运行的时候快速的输出程序结果或者过程结果。1.3做菜与编程现在有个很有意思的说法:生数据(原始数据)就是没有处理过的数据,熟数据(CookedData)是指原始数据经过加工处理后的数据,处理包括解压缩、组织,或者是分析和提出,以备将来使用。这就像做菜生菜是输入,菜谱是程序,洗、切、烹饪等处理是程序执行过程,最后输出的熟菜。但不管生菜、熟菜都是菜,或者都是物质。准备食材在程序世界里的物质组成就是数据,就像有萝卜白菜等不同的品种一样,数据也有不同的类型。我目前所接触到的数据类型主要有以下几种:物理类:数据在物理内存中的表达存储方式;位字字节数据类:数据类中的具体类型代表了不同精度和内存中不同的存储结构;整数浮点数长整型双精度字符类:就是文本字符相关的数据类型;字符字符串逻辑类:就是逻辑真与逻辑假;布尔值复合类:由各基本的数据类型按照一定的结构组合而成的数据;结构体类集合字典列表序列Hash表……这里我强调几点:首先,这个分类不是某种语言特有,目前大多数编程语言都差不多,你理解这个思想就把自己的编程能力扩展了。其次,它不需要专门记忆,编程是程序性的知识,运用的知识,是一种技能,你要做什么菜,你来这个分类查查需要什么原材料,再去具体研究,慢慢就会了,不做你记住了也没用。用多深,研究多深,不用就别研究浪费时间。比如说,我们一般性应用不会去考虑数据的内存模型,但是涉及到精度、性能或者边界值时我们就需要小心,研究得深一些。器皿食材已准备好了,可以下锅,可锅在哪里,你不能放在手里加工。程序里我们用变量、常量来盛各种数据,还有个作用域的问题,严格的厨房红案和白案是分开的,有时候砧板是不能互用的。空值:四大皆空,什么也不是,不是0,不是长度为0的字符串,不是false,什么都不是;变量:学过数学的人都应该有这个概念,反正差不多;常量:固定不变的量,比如说π。烹饪手法刚查了下,我大天朝常用的烹饪手法多达20多种,我归纳了一下,编程大概就那么几种:数值计算——加减乘除、位移等;逻辑计算——逻辑真假判断;过程计算——循环、嵌套、递归等;数据处理——字符串、对象的操作。菜谱与炒菜菜都准备好了,下锅怎么炒,全靠菜谱,它就是程序,而我们按照菜谱炒菜这个过程就是程序的执行。Python或任何一种编程语言都是博大精深,同时又是一种技能,不可能在使用之前完全掌握,也没必要。我们需要知道的是我们想吃什么(程序要输出什么),然后再去菜市场买时才找菜谱(搜索引擎查资料),最后按照我们的需求加工(编程)。1.4Python简单实践首先我们来写三个Python文件:hello.py——事情的处理有落点,程序执行有入口,例如:main,这个文件可以看作程序的入口。#!/usr/bin/envpython#-*-coding:utf-8-*-importpkgprint'HelloWorld!'pkg.test()p=pkg.Person("Mike",23)p.showInfo()pkg.py——程序可以分块编写,这样层次更分明,易于理解和维护,我们在pkg.py中编写一部分功能,作为演示模块。#!/usr/bin/envpython#-*-coding:utf-8-*-deftest():print"Hereispkg'stest"classPerson(object):def__init__(self,name,age):self.name=nameself.age=agepassdefshowInfo(self):printself.nameprintself.ageinit.py——这是一个空文件,也可以写代码,表明当前路径是包。接下来,我们来运行一下:pythonhello.py显示结果如下:HelloWorld!Hereispkg’stestMike23我们运行了hello.py文件,然后hello.py导入了包pkg;包pkg定义了一个方法和一个类,我们在hello.py文件里面调用了外部的方法和类。二、使用Scrapy抓取电子书2.1写在爬取数据之前虽然我们这里的数据都是从公开的网络获取,但也不能确定其版权问题,因此获取的数据仅用于编程练习,严禁分享或用于其他用途。好了,现在我们找一个在线看书的网站,找一本书把它下载到本地。首先,我们准备下载工具,就是Python的爬虫框架Scrapy。2.2Scrapy安装安装完Python后可以用以下的命令按照Scrapy,有些版本的Python没有带pip需要手动安装。pipinstallscrapypip是Python的包管理器,大量的第三方包或者说功能可以通过这个工具来管理,所谓包就是模块化的功能集合,基本的技术参考实践里面的包。我安装成功显示如下信息:>CollectingscrapyDownloadingScrapy-1.5.0-py2.py3-none-any.whl(251kB)100%|████████████████████████████████|256kB181kB/sCollectingservice-identity(fromscrapy)Downloadingservice_identity-17.0.0-py2.py3-none-any.whlCollectingparsel>=1.1(fromscrapy)Downloadingparsel-1.3.1-py2.py3-none-any.whlCollectingsix>=1.5.2(fromscrapy)Downloadingsix-1.11.0-py2.py3-none-any.whlCollectingw3lib>=1.17.0(fromscrapy)Downloadingw3lib-1.18.0-py2.py3-none-any.whlCollectinglxml(fromscrapy)Downloadinglxml-4.1.1-cp27-cp27m-win_amd64.whl(3.6MB)100%|████████████████████████████████|3.6MB142kB/sCollectingTwisted>=13.1.0(fromscrapy)DownloadingTwisted-17.9.0-cp27-cp27m-win_amd64.whl(3.2MB)100%|████████████████████████████████|3.2MB169kB/sCollectingpyOpenSSL(fromscrapy)DownloadingpyOpenSSL-17.5.0-py2.py3-none-any.whl(53kB)100%|████████████████████████████████|61kB313kB/sCollectingPyDispatcher>=2.0.5(fromscrapy)DownloadingPyDispatcher-2.0.5.tar.gzCollectingqueuelib(fromscrapy)Downloadingqueuelib-1.4.2-py2.py3-none-any.whlCollectingcssselect>=0.9(fromscrapy)Downloadingcssselect-1.0.3-py2.py3-none-any.whlCollectingpyasn1(fromservice-identity->scrapy)Downloadingpyasn1-0.4.2-py2.py3-none-any.whl(71kB)100%|████████████████████████████████|71kB328kB/sCollectingattrs(fromservice-identity->scrapy)Downloadingattrs-17.4.0-py2.py3-none-any.whlCollectingpyasn1-modules(fromservice-identity->scrapy)Downloadingpyasn1_modules-0.2.1-py2.py3-none-any.whl(60kB)100%|████████████████████████████████|61kB347kB/sCollectinghyperlink>=17.1.1(fromTwisted>=13.1.0->scrapy)Downloadinghyperlink-17.3.1-py2.py3-none-any.whl(73kB)100%|████████████████████████████████|81kB407kB/sCollectingAutomat>=0.3.0(fromTwisted>=13.1.0->scrapy)DownloadingAutomat-0.6.0-py2.py3-none-any.whlCollectingconstantly>=15.1(fromTwisted>=13.1.0->scrapy)Downloadingconstantly-15.1.0-py2.py3-none-any.whlCollectingzope.interface>=3.6.0(fromTwisted>=13.1.0->scrapy)Downloadingzope.interface-4.4.3-cp27-cp27m-win_amd64.whl(137kB)100%|████████████████████████████████|143kB279kB/sCollectingincremental>=16.10.1(fromTwisted>=13.1.0->scrapy)Downloadingincremental-17.5.0-py2.py3-none-any.whlCollectingcryptography>=2.1.4(frompyOpenSSL->scrapy)Downloadingcryptography-2.1.4-cp27-cp27m-win_amd64.whl(1.3MB)100%|████████████████████████████████|1.3MB220kB/sRequirementalreadysatisfied:setuptoolsinc:python27libsite-packages(fromzope.interface>=3.6.0->Twisted>=13.1.0->scrapy)Collectingidna>=2.1(fromcryptography>=2.1.4->pyOpenSSL->scrapy)Downloadingidna-2.6-py2.py3-none-any.whl(56kB)100%|████████████████████████████████|61kB311kB/sCollectingcffi>=1.7;platform_python_implementation!="PyPy"(fromcryptography>=2.1.4->pyOpenSSL->scrapy)Downloadingcffi-1.11.2-cp27-cp27m-win_amd64.whl(163kB)100%|████████████████████████████████|163kB183kB/sCollectingenum34;python_version=2.1.4->pyOpenSSL->scrapy)Downloadingenum34-1.1.6-py2-none-any.whlCollectingasn1crypto>=0.21.0(fromcryptography>=2.1.4->pyOpenSSL->scrapy)Downloadingasn1crypto-0.24.0-py2.py3-none-any.whl(101kB)100%|████████████████████████████████|102kB194kB/sCollectingipaddress;python_version=2.1.4->pyOpenSSL->scrapy)Downloadingipaddress-1.0.19.tar.gzCollectingpycparser(fromcffi>=1.7;platform_python_implementation!="PyPy"->cryptography>=2.1.4->pyOpenSSL->scrapy)Downloadingpycparser-2.18.tar.gz(245kB)100%|████████████████████████████████|256kB264kB/sInstallingcollectedpackages:pyasn1,six,idna,pycparser,cffi,enum34,asn1crypto,ipaddress,cryptography,pyOpenSSL,attrs,pyasn1-modules,service-identity,w3lib,cssselect,lxml,parsel,hyperlink,Automat,constantly,zope.interface,incremental,Twisted,PyDispatcher,queuelib,scrapyRunningsetup.pyinstallforpycparser...doneRunningsetup.pyinstallforipaddress...doneRunningsetup.pyinstallforPyDispatcher...doneSuccessfullyinstalledAutomat-0.6.0PyDispatcher-2.0.5Twisted-17.9.0asn1crypto-0.24.0attrs-17.4.0cffi-1.11.2constantly-15.1.0cryptography-2.1.4cssselect-1.0.3enum34-1.1.6hyperlink-17.3.1idna-2.6incremental-17.5.0ipaddress-1.0.19lxml-4.1.1parsel-1.3.1pyOpenSSL-17.5.0pyasn1-0.4.2pyasn1-modules-0.2.1pycparser-2.18queuelib-1.4.2scrapy-1.5.0service-identity-17.0.0six-1.11.0w3lib-1.18.0zope.interface-4.4.32.3新建Scrapy爬虫项目Scrapy是Python程序,同时也是一套框架,提供了一系列工具来简化开发,因此我们按照Scrapy的模式来开发,先新建一个Scrapy项目,如下:scrapystartprojectebookScrapy项目包含一些基础框架代码,我们在此基础上开发,目录结构类似下图:2.4新建Scrapy爬虫这时,Scrapy还不知道我们要爬取什么数据,所以我们要用Scrapy工具新建一个爬虫,命令如下:scrapygenspiderexampleexample.com下面实操,我们在起点中文网找一篇免费小说的完本,这里选择是《修真小主播》。我们就在前面建立的Scrapy项目ebook下新建一个爬虫,命令如下:cdebookscrapygenspiderxzxzbqidian.com执行成功之后,在项目的spider目录下就多了一个xzxzb.py的文件。2.5爬虫思路怎么抓取数据,首先我们要看从哪里取,打开《修真小主播》的页面,如下:有个目录页签,点击这个页签可以看见目录,使用浏览器的元素查看工具,我们可以定位到目录和每一章节的相关信息,根据这些信息我们就可以爬取到具体的页面:2.6获取章节地址现在我们打开xzxzb.py文件,就是我们刚刚创建的爬虫:#-*-coding:utf-8-*-importscrapyclassXzxzbSpider(scrapy.Spider):name='xzxzb'allowed_domains=['qidian.com']start_urls=['http://qidian.com/']defparse(self,response):passstart_urls就是目录地址,爬虫会自动爬这个地址,然后结果就在下面的parse中处理。现在我们就来编写代码处理目录数据,首先爬取小说的主页,获取目录列表:defparse(self,response):pages=response.xpath('//div[@id="j-catalogWrap"]//ul[@class="cf"]/li')forpageinpages:url=page.xpath('./child::a/attribute::href').extract()printurlpass获取网页中的DOM数据有两种方式,一种是使用CSS选择子,另外一种是使用XML的xPath查询。这里我们用xPath,相关知识请自行学习,看以上代码,首先我们通过ID获取目录框,获取类cf获取目录列表:pages=response.xpath('//div[@id="j-catalogWrap"]//ul[@class="cf"]/li')接着,遍历子节点,并查询li标签内a子节点的href属性,最后打印出来:forpageinpages:url=page.xpath('./child::a/attribute::href').extract()printurl这样,可以说爬取章节路径的小爬虫就写好了,使用如下命令运行xzxzb爬虫查看结果:scrapycrawlxzxzb这个时候我们的程序可能会出现如下错误:…ImportError:Nomodulenamedwin32api…运行下面的语句即可:pipinstallpypiwin32屏幕输出如下:>...>[u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/wrrduN6auIlOBDFlr9quQA2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/Jh-J5usgyW62uJcMpdsVgA2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/5YXHdBvg1ImaGfXRMrUjdw2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/fw5EBeKat-76ItTi_ILQ7A2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/KsFh5VutI6PwrjbX3WA1AA2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/-mpKJ01gPp1p4rPq4Fd4KQ2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/MlZSeYOQxSPM5j8_3RRvhw2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/5TXZqGvLi-3M5j8_3RRvhw2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/sysD-JPiugv4p8iEw--PPw2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/xGckZ01j64-aGfXRMrUjdw2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/72lHOJcgmedOBDFlr9quQA2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/cZkHZEYnPl22uJcMpdsVgA2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/vkNh45O3JsRMs5iq0oQwLQ2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/ge4m8RjJyPH6ItTi_ILQ7A2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/Y33PuxrKT4dp4rPq4Fd4KQ2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/MDQznkrkiyXwrjbX3WA1AA2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/A2r-YTzWCYj6ItTi_ILQ7A2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/Ng9CuONRKei2uJcMpdsVgA2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/Q_AxWAge14pMs5iq0oQwLQ2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/ZJshvAu8TVVp4rPq4Fd4KQ2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/hYD2P4c5UB2aGfXRMrUjdw2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/muxiWf_jpqTgn4SMoDUcDQ2'][u'//read.qidian.com/chapter/MuRzJqCY6MyoLoerY3WDhg2/OQQ5jbADJjVp4rPq4Fd4KQ2']>...爬取章节路径的小爬虫就写好了,但我们的目的不仅于此,我们接下来使用这些地址来抓取内容:2.7章节页面分析我们接下来分析一下章节页面,从章节页面我们要获取标题和内容。如果说章节信息爬取使用的parser方法,那么我们可以给每一个章节内容的爬取写一个方法,比如:parser_chapter,先看看章节页面的具体情况:可以看到,章节的整个内容在类名为main-text-wrap的div标签内,标题是其中类名为j_chapterName的h3标签,具体内容是类名为read-contentj_readContent的div标签。试着把这些内容打印出来:#-*-coding:utf-8-*-importscrapyclassXzxzbSpider(scrapy.Spider):name='xzxzb'allowed_domains=['qidian.com']start_urls=['https://book.qidian.com/info/1010780117/']defparse(self,response):pages=response.xpath('//div[@id="j-catalogWrap"]//ul[@class="cf"]/li')forpageinpages:url=page.xpath('./child::a/attribute::href').extract_first()#yieldscrapy.Request('https:'+url,callback=self.parse_chapter)yieldresponse.follow(url,callback=self.parse_chapter)passdefparse_chapter(self,response):title=response.xpath('//div[@class="main-text-wrap"]//h3[@class="j_chapterName"]/text()').extract_first().strip()content=response.xpath('//div[@class="main-text-wrap"]//div[@class="read-contentj_readContent"]').extract_first().strip()printtitle#printcontentpass上一步,我们获取到了一个章节地址,从输出内容来看是相对路径,因此我们使用了yieldresponse.follow(url,callback=self.parse_chapter),第二个参数是一个回调函数,用来处理章节页面,爬取到章节页面后我们解析页面和标题保存到文件。next_page=response.urljoin(url)yieldscrapy.Request(next_page,callback=self.parse_chapter)scrapy.Request不同于使用response.follow,需要通过相对路径构造出绝对路径,response.follow可以直接使用相对路径,因此就不需要调用urljoin方法了。注意,response.follow直接返回一个Request实例,可以直接通过yield进行返回。数据获取了之后是存储,由于我们要的是html页面,因此,我们就按标题存储即可,代码如下:defparse_chapter(self,response):title=response.xpath('//div[@class="main-text-wrap"]//h3[@class="j_chapterName"]/text()').extract_first().strip()content=response.xpath('//div[@class="main-text-wrap"]//div[@class="read-contentj_readContent"]').extract_first().strip()#printtitle#printcontentfilename='./down/%s.html'%(title)withopen(filename,'wb')asf:f.write(content.encode('utf-8'))pass至此,我们已经成功的抓取到了我们的数据,但还不能直接使用,需要整理和优化。2.8数据整理首先,我们爬取下来的章节页面排序不是很好,如果人工去排需要太多的时间精力;另外,章节内容包含许多额外的东西,阅读体验不好,我们需要优化内容的排版和可读性。我们先给章节排个序,因为目录中的章节列表是按顺序排列的,所以只需要给下载页面名称添加一个顺序号就行了。可是保存网页的代码是回调函数,顺序只是在处理目录的时候能确定,回调函数怎么能知道顺序呢?因此,我们要告诉回调函数它处理章节的顺序号,我们要给回调函数传参,修改后的代码是这样的:defparse(self,response):pages=response.xpath('//div[@id="j-catalogWrap"]//ul[@class="cf"]/li')forpageinpages:url=page.xpath('./child::a/attribute::href').extract_first()idx=page.xpath('./attribute::data-rid').extract_first()#yieldscrapy.Request('https:'+url,callback=self.parse_chapter)req=response.follow(url,callback=self.parse_chapter)req.meta['idx']=idxyieldreqpassdefparse_chapter(self,response):idx=response.meta['idx']title=response.xpath('//div[@class="main-text-wrap"]//h3[@class="j_chapterName"]/text()').extract_first().strip()content=response.xpath('//div[@class="main-text-wrap"]//div[@class="read-contentj_readContent"]').extract_first().strip()#printtitle#printcontentfilename='./down/%s_%s.html'%(idx,title)cnt='%s%s'%(title,content)withopen(filename,'wb')asf:f.write(cnt.encode('utf-8'))pass不知道大家注意到没有,前面的分析中目录已经提供了一个data_rid可以作为排序号,我们在目录分析页面获取这个序号,然后通过request的meta传入parse_chapter。在parse_chapter中通过response的meta获取传入的参数,然后文件名中加入这个顺序好完成了排序。另外,Sigil找那个通过H1标签来生成目录,需要目录的话,我们需要给内容添加一个h1标签。还有可读性差的问题,也许我们下载的网页可能会包含一些乱七八糟的东西,我们有很多办法,也可以使用readbility等第三方库,这里就不深入了。三、使用Sigil制作电子书电子书的制作,完全就是工具的应用,非常简单,这里把流程过一下,大家根据兴趣自行深入。3.1Sigil简介Sigil是一个多平台的ePub电子书编辑器。官方网站:https://sigil-ebook.com/,下载页面在https://github.com/Sigil-Ebook/Sigil/releases,根据自己的需求下载,安装很简单就不啰嗦了。3.2ePub电子书简介ePub(ElectronicPublication的缩写,意为:电子出版),是一个自由的开放标准,属于一种可以“自动重新编排”的内容;也就是文字内容可以根据阅读设备的特性,以最适于阅读的方式显示。ePub档案内部使用了XHTML或DTBook(一种由DAISYConsortium提出的XML标准)来展现文字、并以zip压缩格式来包裹档案内容。EPub格式中包含了数位版权管理(DRM)相关功能可供选用。3.3加载html文件要制作ePub电子书,我们首先通过Sigil把我们的抓取的文件加载到程序中,在添加文件对话框中我们全选所有文件:内容都是HTML文件,所以编辑、排版什么的学习下HTML。3.4制作目录文件中存在HTML的h标签时,点击生成目录按钮就可以自动生成目录,我们在前面数据抓取时已经自动添加了h1标签:3.5制作封面封面本质上也是HTML,可以编辑,也可以从页面爬取,就留给大家自己实现吧。3.6编辑元数据编辑书名、作者等信息:3.6输出ePub编辑完成后保存,取个名字:输出可以使用电子书阅读软件打开查看,我用的是Calibre,还可以方便的转换为相应的格式装到Kindle中阅读。整个过程就结束了,文章内代码提交到码云:https://goo.gl/yjGizR,接下来自由发挥,请开始你的表演。参考资料爬虫Scrapy学习系列之一:Tutorial:https://goo.gl/LwqouP。
-
怎样网页制作设计得更加圆融?
随着交互设计重要性的提升,动效也越来越被设计师所重视。它不仅仅是取悦用户的工具,而且被视作为改善用户体验的重要手段。从为界面营造氛围的微小动效,到用来沟通用户的视觉线索,动效解决方案越来越全面。尽管我们在实际运用的过程中,经常需要测试和试验效果,但是依然有一些经过验证的、可行性较高的动效,可以直接拿来使用。今天我们所探讨的四种动效,都贴合趋势,且颇为实用。接下来,我们一起探索吧!弹性动效有趣而优雅的弹性动效每天都能看到。通常,弹性动效是短暂而优雅的,它常常能够吸引用户的注意力。成功的动效通常不仅依赖于设计师的设计,还需要代码实现,以及贴合物理规律的微积分函数作为支撑。在很多时候,这种看起来涉及物理学的动效,很难创新。不过事实上,关键还是要看你如何实现,以及在哪里实现这些动效。如果你对于Velocity.js和WebGL这些工具一无所知,也能用CSS实现它。最受欢迎的弹跳动效包括:类似弹簧一样,快速拉伸变大,然后迅速压缩成所需的形状,在打开某个组件的时候强化视觉,通常,这个过程都很短暂。平滑的充满流体动感的动效,伸展,浮动,然后收缩为初始状态。一般而言,它会持续地弹跳,营造氛围。变化的LOGO花上几秒钟看着LOGO逐渐变化,似乎是一件颇为浪费时间和资源的事情,但是在很多时候,它是非常有效的设计。作为品牌标识的一部分,LOGO承载着品牌信息(特征、风格、元素、色彩等),也关乎审美。虽然LOGO在网页中占据的位置并不大,但是它非常吸引眼球,在用户心目中也会被视作为重要的组件,并不会被那么轻易被忽略。在LOGO上施加动效有几种不同的趋势。1、让LOGO变得有趣2、让LOGO显得严肃和保守3、让LOGO显得极简而优雅有意义的加载动效是时候和无聊的等待加载的沙漏说再见了。优秀的加载动效已经越来越智慧和复杂了。讲真,现如今的加载动画已经是聚光灯下的重要设计元素了。从最初简单的设计,到如今加载动效成为了承载着重要作用的小动画,它不仅告知用户这个等待过程进度,而且通过愉悦用户,增强了整个用户体验。它的功能并不单一:作为品牌形象的支撑提供额外的信息说明当前情况提醒用户注意创造愉悦感给用户留下好印象强化第一印象创造用户预期这个列表并不完整,因为它的功能还能更多。现在实际的情况是,可以用来制作加载动效的方法和工具有很多。你可以选用CSS来实现,也能用Java和Three.js等相对更重的工具。动画化的汉堡图标尽管这个由三条横杠组成的小图标在很久之前就已经失去其魅力了,但是它如今依然无处不在。所以,不少设计师还是尽量想为这个图标注入更多的的魅力。你无需重新造轮子,不用进行复杂的重设计,你只需要为汉堡图标添加一个有趣的动效就能产生为它注入生命力。让它与周遭的设计融合起来,对于用户更加友好即可。结语并不是每个人都会注意到动效,但是动效的加入让体验更加优秀了却是不争的事实。这也是为什么它会成为时下流行的趋势。通过审视熟虑的设计和实现,界面在动效的驱动下却是会更上一层楼。许多东西看起来是不言自明的,但是在动画效果的加持下,逻辑和关系会更加顺畅,重要的还是易于理解和更优质的体验。
-
浅谈网页制作技巧
我们知道,网站就相当于是一个企业的对外窗口,吸引人来参观企业是网站建设的最初目的。所以建设出受人欢迎的网站对于企业在今天的互联网时代来说显得尤为的重要,那么到底怎么样才能建设出受人欢迎的网站呢?怎么样的网站布局才是用户喜欢的呢?首先我们要知道,用户在搜索一个关键词的时候,是带有目的性的不是随意搜索关键词的,是因为有需求才会去搜索关键词想找到需要的信息。比如,一个用户尝试在百度搜索引擎中搜索“上海网站建设”这几个字,就说明这个用户对上海地区的网站建设公司是有需求的,所以才会搜索这几个字。那么在用户的搜索结果展现的时候用户打开网站时首先会看到什么呢?首先网站打开左上角一般会展示网站的LOGO,所以如果想要制作的网站给用户留下深刻的印象的话网站的LOGO就要制作的清晰令人印象深刻,好的LOGO是既能展现企业的文化和理念又能让人对公司的产品和服务一目了然的。而把LOGO放在左上角的原因是因为人们的浏览习惯就是从左到右,从上到下的,所以将LOGO放在左上角是能够在第一时间给用户留下印象的好办法,也是省去介绍的好办法,也能给用户清晰直观的印象,所企业的LOGO一定要尽力制作好。再者就是在网站的整体布局,整体的布局也是根据用户的浏览习惯来讲的。用户的首要视觉点往往是在左上角,其次是网站的右下角,再者就是网站的底部部分,左下角的视觉区域一般不会放置重要内容是因为左下角往往是最容易被用户忽略的。上面说过了网站左上角一般放置企业的LOGO,那么作为视觉的第二重要区域的右下角同样也要放置一些容易引出转化的东西,比如在线留言表、在线咨询、企业的公众号、微博的二维码或者是其他的创意性的吸引人的又容易引出转化的东西,这样不仅能够迅速地抓住用户的心还能充分利用网址站的资源,是布局网站时值得被参考的。最后就是制作网站的中间部分了,一般来说,网站的首页展示的都是企业的案例、服务和图片之类能够提取企业精华,也是人们关注的主体部分,也是用户停留时间最长的。这部分内容也是最能够体现企业的文化底蕴和内涵的,所以也要进行精心编排,内容要多多揣摩才行。
-
网页制作设计决定企业网络营销的好坏
什么是企业网络营销?是指以互联网媒体,借助网络的企业营销活动,它是企业整体营销的组成部分,主要目的是为发现,满足和创造顾客。而互联网媒体的具体载体就是网站,随着互联网技术的发展,越来越多的通讯、社交工具、平台成为网站的重要组成和引导元素。例如:微信,QQ,微博,网上店铺等。网络营销俨然成为企业营销活动的重中之重。而每个企业网站的质量,对于网络营销效果起着决定性的作用。如果想做好企业网络营销,那么我们就要做好网站?那么如何鉴定网站的质量呢?难道只是用肉眼就看网站是否美观?这只是判断其中的一个因素,并且主观意识太强,毕竟每一个人审美观都是不一样的。所以一个质量好的网站一定要做到秀外慧中,那么网页设计与制作决定企业网络营销的好坏。接下来,我们分享一些经验,为读者把一把脉,内容如下:1.调整自己的视线高度去看待网站问题,那么就要站在企业整体营销的立场上去考虑,这个网站是否能发现满足和创造顾客,带来实际意义,是否符合公司的发展现状和经营理念的需要。要知道企业网络营销只是企业整体营销的一部分,做到不脱离实际为基础,才能寻求网站的最大化利益。目前,很多企业出现了这样的情况,企业一直在发展,而网站却迟迟没有发生改变,不具备与时俱进的功效,自然就营销网络营销的效果。还有些企业,尤其是中小型企业刚起步的时候,相比于老资格的同好,没有任何优势,网络营销就是一条“捷径”那么做好一个网站“包装”自己,缩小实力差距,赢得市场是迫在眉睫的事。然而有些企业往往担心网站建设费用,则草草弄了一个网站,这是个错误的策略。所以,依据企业的现状与发展要求,从企业营销理念出发去评断网站好坏是一个重要的标准。2.网站好坏的表现与网站的设计与制作水平,而这些反映出网站是否满足企业的现状与发展要求。其中网站的设计包括网站的策划(内容包括市场调研,公司状况调查,网站定位,企业的现状与发展要求)和网站的平面设计(网站配色、网站动画、网站布局、网站配色风格)和网站的制作(服务器、前端后台、代码程序调试)这些都能体现出网站的好坏。比如:根据公司类型,生产型企业需要突出产品,服务企业突现出服务,根据公司发展战略,推广企业品牌、招商加盟、售后服务等。合理布局的网站才能抓住目标客户群体,此外,网站的美观度和功能性,包括代码兼容性和延展性,是否符合SEO优化,服务器打开的速度等等,都是属于网站的设计与制作的范畴。综上,网页设计与制作决定企业网络营销的好坏。那么如何拥有一个网页设计与制作与制作网站去为您保驾护好,那你就需要一个好的网站建设公司,例如我们,专业的销售研发团队,派遣资深项目经理对企业的行业深度分析,策划网站定位,从整体VI设计出发,展示企业品牌形象,交付品质服务。在此,小编有话要说:网络营销是每个企业都可以吭的大饼,毕竟网络世界,人人平等。别人有别人的1亿小目标,你也有你的小目标。即使竞争再激烈,但也存在机遇。如果要想做好企业网络营销,那么你就需要省视下自己的网站,跨出自己坚实的一步。
-
怎样网页制作设计得更加圆融?
随着交互设计重要性的提升,动效也越来越被设计师所重视。它不仅仅是取悦用户的工具,而且被视作为改善用户体验的重要手段。从为界面营造氛围的微小动效,到用来沟通用户的视觉线索,动效解决方案越来越全面。尽管我们在实际运用的过程中,经常需要测试和试验效果,但是依然有一些经过验证的、可行性较高的动效,可以直接拿来使用。今天我们所探讨的四种动效,都贴合趋势,且颇为实用。接下来,我们一起探索吧!弹性动效有趣而优雅的弹性动效每天都能看到。通常,弹性动效是短暂而优雅的,它常常能够吸引用户的注意力。成功的动效通常不仅依赖于设计师的设计,还需要代码实现,以及贴合物理规律的微积分函数作为支撑。在很多时候,这种看起来涉及物理学的动效,很难创新。不过事实上,关键还是要看你如何实现,以及在哪里实现这些动效。如果你对于Velocity.js和WebGL这些工具一无所知,也能用CSS实现它。最受欢迎的弹跳动效包括:类似弹簧一样,快速拉伸变大,然后迅速压缩成所需的形状,在打开某个组件的时候强化视觉,通常,这个过程都很短暂。平滑的充满流体动感的动效,伸展,浮动,然后收缩为初始状态。一般而言,它会持续地弹跳,营造氛围。变化的LOGO花上几秒钟看着LOGO逐渐变化,似乎是一件颇为浪费时间和资源的事情,但是在很多时候,它是非常有效的设计。作为品牌标识的一部分,LOGO承载着品牌信息(特征、风格、元素、色彩等),也关乎审美。虽然LOGO在网页中占据的位置并不大,但是它非常吸引眼球,在用户心目中也会被视作为重要的组件,并不会被那么轻易被忽略。在LOGO上施加动效有几种不同的趋势。1、让LOGO变得有趣2、让LOGO显得严肃和保守3、让LOGO显得极简而优雅有意义的加载动效是时候和无聊的等待加载的沙漏说再见了。优秀的加载动效已经越来越智慧和复杂了。讲真,现如今的加载动画已经是聚光灯下的重要设计元素了。从最初简单的设计,到如今加载动效成为了承载着重要作用的小动画,它不仅告知用户这个等待过程进度,而且通过愉悦用户,增强了整个用户体验。它的功能并不单一:作为品牌形象的支撑提供额外的信息说明当前情况提醒用户注意创造愉悦感给用户留下好印象强化第一印象创造用户预期这个列表并不完整,因为它的功能还能更多。现在实际的情况是,可以用来制作加载动效的方法和工具有很多。你可以选用CSS来实现,也能用Java和Three.js等相对更重的工具。动画化的汉堡图标尽管这个由三条横杠组成的小图标在很久之前就已经失去其魅力了,但是它如今依然无处不在。所以,不少设计师还是尽量想为这个图标注入更多的的魅力。你无需重新造轮子,不用进行复杂的重设计,你只需要为汉堡图标添加一个有趣的动效就能产生为它注入生命力。让它与周遭的设计融合起来,对于用户更加友好即可。结语并不是每个人都会注意到动效,但是动效的加入让体验更加优秀了却是不争的事实。这也是为什么它会成为时下流行的趋势。通过审视熟虑的设计和实现,界面在动效的驱动下却是会更上一层楼。许多东西看起来是不言自明的,但是在动画效果的加持下,逻辑和关系会更加顺畅,重要的还是易于理解和更优质的体验。